JP2020101767A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2020101767A
JP2020101767A JP2018241640A JP2018241640A JP2020101767A JP 2020101767 A JP2020101767 A JP 2020101767A JP 2018241640 A JP2018241640 A JP 2018241640A JP 2018241640 A JP2018241640 A JP 2018241640A JP 2020101767 A JP2020101767 A JP 2020101767A
Authority
JP
Japan
Prior art keywords
section
volume
data
information processing
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018241640A
Other languages
English (en)
Other versions
JP7129331B2 (ja
Inventor
雅人 小池
Masahito Koike
雅人 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2018241640A priority Critical patent/JP7129331B2/ja
Publication of JP2020101767A publication Critical patent/JP2020101767A/ja
Application granted granted Critical
Publication of JP7129331B2 publication Critical patent/JP7129331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】より適切に音声を修正すること。【解決手段】情報処理装置が、録音された音声データから第1閾値以上の帯域の音が抽出された第1データに基づいて、リップノイズが録音されている第1区間を検出する検出部と、前記音声データから第2閾値以下の帯域の音が抽出された前記第1区間の第2データに基づいて、前記音声データにおける前記第1区間の音のデータを修正する修正部と、を有する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
従来、コンピュータゲーム等において、ゲームの状況に応じて、ゲームのキャラクタのセリフを、予め録音されている音声(ボイス)により出力する技術が知られている(例えば、特許文献1を参照)。
声優や歌手等の発声者が発声した音声を録音する場合、発声者が口を開閉した際に生じる雑音(リップノイズ)が、発声者の口元に設置されたマイクにより集音される場合がある。この場合、録音されている音声を出力すると、ユーザにとって耳障りな雑音となる場合がある。従来、音声を修正する者が、録音されている音声をスピーカに出力させてリップノイズを耳で聞き取り、リップノイズが発生した時間の音声の波形を画面に表示させ、波形を手入力により修正することが知られている。
特開2017−184842号公報
しかしながら、従来技術では、職人の経験と勘に基づいて手作業により周波数成分や音量等を修正するため、作業に手間がかかると共に、修正の品質にばらつきがあるという問題がある。
そこで、一側面では、より適切に音声を修正することができる技術を提供することを目的とする。
一つの案では、録音された音声データから第1閾値以上の帯域の音が抽出された第1データに基づいて、リップノイズが録音されている第1区間を検出する検出部と、前記音声データから第2閾値以下の帯域の音が抽出された前記第1区間の第2データに基づいて、前記音声データにおける前記第1区間の音のデータを修正する修正部と、を有する。
一側面によれば、より適切に音声を修正することができる。
実施形態に係る情報処理装置のハードウェア構成例を示す図である。 実施形態に係る情報処理装置の機能ブロック図である。 実施形態に係る情報処理装置10の処理の一例を示すフローチャートである。 実施形態に係る高域部分に基づいてリップノイズ区間を特定する処理の一例を示すフローチャートである。 実施形態に係る高域部分に基づいてリップノイズ区間を特定する処理について説明する図である。 実施形態に係る特定したノイズ区間の音声を修正する処理の一例を示すフローチャートである。 ノイズ区間を含む所定区間における、録音された音声データの一例を示す図である。 実施形態に係るリップノイズ区間の中低域の音を抽出する処理について説明する図である。 実施形態に係るリップノイズ区間の音を修正する処理について説明する図である。
以下、図面に基づいて本発明の実施形態を説明する。
<ハードウェア構成>
図1は、実施形態に係る情報処理装置10のハードウェア構成例を示す図である。図1に示す情報処理装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。
情報処理装置10での処理を実現するゲームプログラムは、記録媒体101によって提供される。ゲームプログラムを記録した記録媒体101がドライブ装置100にセットされると、ゲームプログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、ゲームプログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたゲームプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置103は、例えば、DRAM(Dynamic Random Access Memory)、またはSRAM(Static Random Access Memory)等のメモリであり、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って情報処理装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107は、コントローラ等、キーボード及びマウス等、またはタッチパネル及びボタン等で構成され、様々な操作指示を入力させるために用いられる。
なお、記録媒体101の一例としては、CD−ROM、DVDディスク、ブルーレイディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。
<機能構成>
次に、図2を参照し、情報処理装置10の機能構成について説明する。図2は、実施形態に係る情報処理装置10の機能ブロック図である。
情報処理装置10は、記憶部11を有する。記憶部11は、例えば、補助記憶装置102等を用いて実現される。記憶部11は、録音されたセリフの音声データ等を記憶する。
また、情報処理装置10は、取得部12、検出部13、及び修正部14を有する。これら各部は、情報処理装置10にインストールされた1以上のプログラムが、情報処理装置10のCPU104に実行させる処理により実現される。
取得部12は、録音されたセリフ等の音声データを記憶部11から取得する。検出部13は、取得部12により取得された音声データから第1閾値以上の帯域の音を抽出することにより高域の音データ(「第1データ」の一例。)を生成する。そして、検出部13は、生成した高域の音データから、リップノイズが録音されている各区間を検出する。
修正部14は、取得部12により取得された音声データから、検出部13により検出された各区間の第2閾値以下の帯域の各音を抽出することにより、中低域の各音データ(「第2データ」の一例。)を生成する。そして、修正部14は、生成した中低域の各音データに基づいて、取得部12により取得された音声データにおける検出部13により検出された各区間の音のデータを修正する。これにより、例えば、声優等が発声したセリフの音声データに含まれるリップノイズを低減することができる。
<処理>
次に、図3を参照して、情報処理装置10の処理について説明する。図3は、実施形態に係る情報処理装置10の処理の一例を示すフローチャートである。
ステップS1において、検出部13は、取得部12により取得された音声データから高域の音声データを抽出する。ここで、検出部13は、例えば、ハイパスフィルター(アンチエイリアスフィルタ)を用いて、録音された音声データから第1閾値(例えば、9000Hz)未満の周波数成分を除去した音声データを生成してもよい。
続いて、検出部13は、抽出した高域の音声データに基づいて、リップノイズが発生している区間(以下で、「リップノイズ区間」と称する。)をそれぞれ特定する(ステップS2)。ここで、検出部13は、例えば、抽出した高域の音声データの音量が、短時間(例えば、0.1秒)で所定比(例えば、12dB)以上変化する各区間(時間帯、時間的な位置)を検出する。なお、この処理については後述する。
続いて、検出部13は、各リップノイズ区間の音声に周期性があるか否かを判定する(ステップS3)。ここで、検出部13は、例えば、リップノイズ区間より前の所定期間内の波形から、リップノイズ区間の波形と類似度が高い区間である第1類似区間を特定する。そして、検出部13は、リップノイズ区間と第1類似区間との間の第1距離(時間差)を算出する。また、検出部13は、リップノイズ区間より後の所定期間内の波形から、リップノイズ区間の波形と類似度が高い区間である第2類似区間を特定する。そして、リップノイズ区間と第2類似区間との間の第2距離(時間差)を算出する。
そして、検出部13は、第1距離と第2距離との差が所定の閾値未満である場合、リップノイズ区間の音声に周期性があると判定する。また、検出部13は、第1距離と第2距離との一方を整数倍した値と、他方との差が所定の閾値未満である場合も、リップノイズ区間の音声に周期性があると判定する。
周期性がある場合(ステップS3でYES)、処理を終了する。なお、修正部14は、周期性がある場合、リップノイズを除去する量を低減してもよい。この場合、修正部14は、周期性があると判定した区間に対しては、後述する第2閾値を比較的大きな値(例えば、4000Hz)に決定してリップノイズ区間の音声の修正処理を行うようにしてもよい。
周期性がない場合(ステップS3でNO)、修正部14は、取得部12により取得された音声データにおいて、各リップノイズ区間の音声を修正し(ステップS4)、処理を終了する。なお、この処理については後述する。
≪リップノイズ区間の特定処理≫
次に、図4、及び図5を参照し、図3のステップS2の、抽出した高域の音声データに基づいてリップノイズ区間を特定する処理について説明する。図4は、実施形態に係る高域部分に基づいてリップノイズ区間を特定する処理の一例を示すフローチャートである。図5は、実施形態に係る高域部分に基づいてリップノイズ区間を特定する処理について説明する図である。なお、以下の説明において、音量の最大値は、音量の絶対値の最大値としてもよい。
ステップS101において、検出部13は、音量が所定の閾値以上(例えば、12dB)変化し始める各時点を検出する。図5の例では、ステップS1の処理で録音された音声データから抽出された、高域部分のみの音声データの波形500が、横軸を時間、縦軸を音量(dB)として示されている。ここで、検出部13は、図5のように、例えば、ある時点501から所定時間(例えば、0.1秒)の後の時点502までの区間521の最大音量511と、時点502から当該一定時間の後の時点503までの区間522の最大音量512との差が所定の閾値以上変化する場合、時点502を、音量が所定の閾値以上変化し始める時点として検出する。
なお、検出部13は、以下の処理を、検出した各時点に対してそれぞれ実行する。そのため、以下では、検出した各時点に含まれる一の時点(以下で、「処理対象の時点」と称する。)に対しての処理について説明する。図5の時点502は、処理対象の時点の一例である。
続いて、検出部13は、処理対象の時点から当該一定時間の後の時点から、所定期間(例えば、0.3秒)後までの時間帯(以下で、「リリース区間」とも称する。)に含まれる各区間の音量の最大値の少なくとも一つが、音量が所定の閾値以上変化する前の区間の音量の最大値以下であるか否かを判定する(ステップS102)。ここで、検出部13は、処理対象の時点502から当該一定時間の後の時点である時点503から当該一定時間後の時点504までの区間523の最大音量513、時点504から当該一定時間後の時点505までの区間524の最大音量514、時点505から当該一定時間後の時点506までの区間525の最大音量515を特定する。そして、検出部13は、最大音量513、最大音量514、及び最大音量515の少なくとも一つが、最大音量511よりも小さいか否かを判定する。
リリース区間に含まれる各区間の音量の最大値の少なくとも一つが、音量が所定の閾値以上変化する前の区間の音量の最大値以下でない場合(ステップS102でNO)、ステップS104の処理に進む。
一方、最大値以下である場合(ステップS102でYES)、検出部13は、処理対象の時点から、変化する前の音量まで下がった区間の終了時点までを、リップノイズ区間であると特定する(ステップS103)。この場合、検出部13は、図5の例では、最大音量511以下となるのが区間525の最大音量515であるため、時点502から区間525の終了時点である時点506までの区間を、リップノイズ区間とする。これは、音量が所定の閾値以上に変化し始める時点502から所定期間内において、一定時間内の最大音量が、時点502よりも前の一定時間内の最大音量511以下に下がる場合、リップノイズによる音量の変化であると考えられるためである。
続いて、検出部13は、リリース区間において、音量が所定の閾値以上減衰しているか否かを判定する(ステップS104)。ここで、検出部13は、例えば、最大音量512、最大音量513、及び最大音量514のうち最も大きいものを特定する。そして、区間523から525のうちの第1区間であって、特定した最大音量の区間よりも後の第1区間の最大音量が、特定した最大音量よりも所定の閾値(例えば、12dB)以上減衰しているか否かを判定してもよい。これは、リップノイズとセリフ等の発声が同時に発生したような場合の音量の変化であると考えられるためである。
音量が所定の閾値以上減衰していない場合(ステップS104でNO)、処理対象の時点に対する処理を終了する。一方、音量が所定の閾値以上減衰している場合(ステップS104でYES)、検出部13は、処理対象の時点から、音量が所定の閾値以上減衰した区間の終了時点までを、リップノイズ区間であると特定する(ステップS105)。図5において、最大音量512、最大音量513、及び最大音量514のうち最も大きい値は最大音量513であり、最大音量514は最大音量513よりも12dB以上低いものとする。この場合、検出部13は、時点502から、最大音量514の区間524の終了時点である時点505までの区間を、リップノイズ区間と判定する。
≪リップノイズ区間の音声の修正処理≫
次に、図6から図7Cを参照し、図3のステップS4の、特定したリップノイズ区間の音声を修正する処理について説明する。図6は、実施形態に係る特定したリップノイズ区間の音声を修正する処理の一例を示すフローチャートである。図7Aは、リップノイズ区間を含む所定区間における、録音された音声データの一例を示す図である。図7Bは、実施形態に係るリップノイズ区間の中低域の音を抽出する処理について説明する図である。図7Cは、実施形態に係るリップノイズ区間の音を修正する処理について説明する図である。
ステップS201において、修正部14は、取得部12により取得された音声データから、検出部13により検出された各リップノイズ区間の低中域の音声データを抽出する。ここで、修正部14は、例えば、ローパスフィルター(アンチエイリアスフィルタ)を用いて、録音された音声データから第1閾値よりも低い第2閾値(例えば、2000Hz)以上の周波数成分を除去した音声データを生成してもよい。
ここで、図7Aの例では、録音された音声データの波形700が、横軸を時間、縦軸を音量(dB)として示されている。図7Aにおいて、時点701から時点702の区間711が、リップノイズ区間として特定されているものとする。図7Bの例では、図7Aの波形700のうち、区間711の部分の波形700A、区間711より前の部分の波形700B、区間711より後の部分の波形700C、及びステップS201の処理により抽出された区間711の波形721が示されている。図7Bの例では、ステップS201の処理により第2閾値以上の周波数成分が除去された波形721の各時点における音量の絶対値は、波形700Aの音量の絶対値よりも小さくなっている。
続いて、修正部14は、抽出した低中域の音声データの音量を、録音された音声データのリップノイズ区間前後の音声データと整合するように修正(調整)する(ステップS202)。
図7Cの例で、波形721のうち、時点701から所定時間(例えば、0.03秒)後の時点741までの区間751の部分の波形を波形721Aとする。また、波形721のうち、時点702から所定時間前の時点742から、時点702までの区間752の部分の波形を波形721Bとする。
(リップノイズ区間の中低域データの修正)
ステップS202において、修正部14は、時点701における波形721Aの音量732Aと、時点701における波形700Aの音量732Bとの中点732を通り、時点741における波形721Aの音量733を通るように波形721Aを修正した波形731Aのデータを生成する。
そして、修正部14は、時点742における波形721Bの音量734を通り、時点702における波形721Bの音量735Aと、時点702における波形700Aの音量735Bとの中点735を通るように波形721Bを修正した波形731Bのデータを生成する。
続いて、修正部14は、録音された音声データのリップノイズ区間前後の音声データの音量を、抽出した低中域の音声データと整合するように修正する(ステップS203)。
(リップノイズ区間前後の音声データの修正)
また、ステップS202において、修正部14は、区間711より前の部分の波形700Bを、時点701から所定時間(例えば、0.03秒)前の時点743から時点701までの区間において、時点743の音量761と中点732を通る波形771Aに修正する。また、区間711より後の部分の波形700Cを、時点702から、所定時間(例えば、0.03秒)後の時点744までの区間において、中点735と時点744の音量762とを通る波形771Bに修正する。
続いて、修正部14は、ステップS203の処理で修正した音声データのリップノイズ区間の音声データを、ステップS202の処理で修正した低中域の音声データに置換し(ステップS204)、処理を終了する。
<変形例>
情報処理装置10の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 情報処理装置
11 記憶部
12 取得部
13 検出部
14 修正部

Claims (8)

  1. 録音された音声データから第1閾値以上の帯域の音が抽出された第1データに基づいて、リップノイズが録音されている第1区間を検出する検出部と、
    前記音声データから第2閾値以下の帯域の音が抽出された前記第1区間の第2データに基づいて、前記音声データにおける前記第1区間の音のデータを修正する修正部と、
    を有する情報処理装置。
  2. 第2閾値は、前記第1閾値よりも小さい、
    請求項1に記載の情報処理装置。
  3. 前記検出部は、
    前記第1データにおいて、前記第1区間よりも前の所定時間長の第2区間の音量の最大値よりも、前記第1区間の音量の最大値が第3閾値以上増加しており、
    前記第1区間よりも後の所定数の所定時間長の各区間の音量の最大値の少なくとも一つが前記第2区間の音量の最大値以下の場合、前記第1区間を検出する、
    請求項1または2に記載の情報処理装置。
  4. 前記検出部は、
    前記第1データにおいて、前記第1区間よりも前の所定時間長の第2区間の音量の最大値よりも、前記第1区間の音量の最大値が第3閾値以上増加しており、
    前記第1区間よりも後の所定数の所定時間長の各区間のうち音量の最大値が最も大きい第3区間の音量の最大値よりも、当該各区間のうち前記第3区間よりも後の第4区間の音量の最大値が第4閾値以上低下している場合、前記第1区間を検出する、
    請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記修正部は、
    前記第2データに対して、前記第1区間に含まれる最初の時間帯の音量を、前記音声データにおける前記第1区間の前の時間帯の音量に基づいて修正する処理、及び前記第1区間に含まれる最後の時間帯の音量を、前記音声データにおける前記第1区間の後の時間帯の音量に基づいて修正する処理の少なくとも一方を実行する、
    請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記修正部は、前記音声データに対して、前記音声データにおける前記第1区間の前の時間帯の音量を、前記第2データの前記第1区間に含まれる最初の時間帯の音量に基づいて修正する処理、及び前記音声データにおける前記第1区間の後の時間帯の音量を、前記第1区間に含まれる最後の時間帯の音量に基づいて修正する処理の少なくとも一方を実行する、
    請求項1から5のいずれか一項に記載の情報処理装置。
  7. 情報処理装置が、
    録音された音声データから第1閾値以上の帯域の音が抽出された第1データに基づいて、リップノイズが録音されている第1区間を検出する処理と、
    前記音声データから第2閾値以下の帯域の音が抽出された前記第1区間の第2データに基づいて、前記音声データにおける前記第1区間の音のデータを修正する処理と、
    を実行する情報処理方法。
  8. 情報処理装置に、
    録音された音声データから第1閾値以上の帯域の音が抽出された第1データに基づいて、リップノイズが録音されている第1区間を検出する処理と、
    前記音声データから第2閾値以下の帯域の音が抽出された前記第1区間の第2データに基づいて、前記音声データにおける前記第1区間の音のデータを修正する処理と、
    を実行させるプログラム。
JP2018241640A 2018-12-25 2018-12-25 情報処理装置、情報処理方法、及びプログラム Active JP7129331B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018241640A JP7129331B2 (ja) 2018-12-25 2018-12-25 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018241640A JP7129331B2 (ja) 2018-12-25 2018-12-25 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020101767A true JP2020101767A (ja) 2020-07-02
JP7129331B2 JP7129331B2 (ja) 2022-09-01

Family

ID=71139550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018241640A Active JP7129331B2 (ja) 2018-12-25 2018-12-25 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7129331B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07261779A (ja) * 1994-03-25 1995-10-13 Toppan Printing Co Ltd 音節認識装置
JP2003069435A (ja) * 2001-08-27 2003-03-07 Pioneer Electronic Corp ノイズキャンセラ
JP2008158316A (ja) * 2006-12-25 2008-07-10 Yamaha Corp 音信号処理装置およびプログラム
JP2013025291A (ja) * 2011-07-26 2013-02-04 Sony Corp 音声信号処理装置、撮像装置、音声信号処理方法、プログラム及び記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07261779A (ja) * 1994-03-25 1995-10-13 Toppan Printing Co Ltd 音節認識装置
JP2003069435A (ja) * 2001-08-27 2003-03-07 Pioneer Electronic Corp ノイズキャンセラ
JP2008158316A (ja) * 2006-12-25 2008-07-10 Yamaha Corp 音信号処理装置およびプログラム
JP2013025291A (ja) * 2011-07-26 2013-02-04 Sony Corp 音声信号処理装置、撮像装置、音声信号処理方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
JP7129331B2 (ja) 2022-09-01

Similar Documents

Publication Publication Date Title
JP6536320B2 (ja) 音声信号処理装置、音声信号処理方法及びプログラム
US8219394B2 (en) Adaptive ambient sound suppression and speech tracking
CN103730122B (zh) 语音转换设备及其用于转换用户语音的方法
JP6482173B2 (ja) 音響信号処理装置およびその方法
US8600758B2 (en) Reconstruction of a smooth speech signal from a stuttered speech signal
US20140064517A1 (en) Multimedia processing system and audio signal processing method
JP2014139658A (ja) 信号処理装置、信号処理方法およびプログラム
JP6847237B2 (ja) 楽曲解析装置および楽曲解析プログラム
JP2017161825A (ja) 音声辞書生成方法、音声辞書生成装置及び音声辞書生成プログラム
TWI548268B (zh) 浮水印載入裝置及浮水印載入的方法
JP5233914B2 (ja) ノイズ低減装置およびノイズ低減プログラム
TWI478151B (zh) 音頻處理系統與音頻處理方法
JP2015169827A (ja) 音声処理装置、音声処理方法および音声処理プログラム
JP4785563B2 (ja) 音声処理装置および音声処理方法
JP7156084B2 (ja) 音信号処理プログラム、音信号処理方法及び音信号処理装置
JP2020101767A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5377167B2 (ja) 悲鳴検出装置および悲鳴検出方法
JP2020067531A (ja) プログラム、情報処理方法、及び情報処理装置
KR20190047885A (ko) 잡음 제거 방법 및 그 장치
JP7458720B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2008236268A (ja) クリップ抑制装置およびクリップ抑制プログラム
CN113299304B (zh) 抑制麦克风啸叫的方法、装置和麦克风
JP7159767B2 (ja) 音声信号処理プログラム、音声信号処理方法及び音声信号処理装置
JP7129769B2 (ja) リップシンク処理プログラム、記録媒体、リップシンク処理方法
JP7156138B2 (ja) 情報処理装置、光アクション生成方法、および光アクション生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7129331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150