JP6765697B1 - 情報処理装置、情報処理方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP6765697B1
JP6765697B1 JP2019199542A JP2019199542A JP6765697B1 JP 6765697 B1 JP6765697 B1 JP 6765697B1 JP 2019199542 A JP2019199542 A JP 2019199542A JP 2019199542 A JP2019199542 A JP 2019199542A JP 6765697 B1 JP6765697 B1 JP 6765697B1
Authority
JP
Japan
Prior art keywords
voice
information
generated
voice information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019199542A
Other languages
English (en)
Other versions
JP2021072584A (ja
Inventor
山本 健太郎
健太郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nain Inc
Original Assignee
Nain Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nain Inc filed Critical Nain Inc
Priority to JP2019199542A priority Critical patent/JP6765697B1/ja
Application granted granted Critical
Publication of JP6765697B1 publication Critical patent/JP6765697B1/ja
Publication of JP2021072584A publication Critical patent/JP2021072584A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 複数の情報の発生源を区別して音声を出力することができる情報処理装置、情報処理方法およびコンピュータプログラムを提供する。【解決手段】 本発明の情報処理装置は、第一の音声情報を受け付ける受付部と、第二の音声情報を生成する生成部と、受付部が受け付けた第一の音声情報および生成部が生成した第二の音声情報に基づいて、出力用の音声データを生成する合成部と、合成部が生成した音声データを、ユーザが装着する音声再生デバイスに出力する出力部とを備え、合成部は、第一の音声情報に基づく音声と、第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、音声データを生成する。【選択図】 図2

Description

本発明は、情報処理装置、情報処理方法およびコンピュータプログラムに関する。
サービス業界等において、業務中の各種情報をイヤフォンからの音声により取得する技術が普及している(例えば特許文献1等)。
一例として空港で働くスタッフの例を挙げると、取得すべき情報には、飛行機の運航状況に関する情報、スタッフ間の業務連絡に関する情報、および、スタッフ間のテキストチャットの情報など様々な情報がある。
特開2009−4856
しかしながら、このような様々な情報のすべてがイヤフォン等から再生されると、ユーザには各情報の発生源の区別をつけることができない。
そのため、本発明の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、複数の情報の発生源を区別して音声を出力することができる情報処理装置、情報処理方法およびコンピュータプログラムを提供することにある。
本発明の情報処理装置は、第一の音声情報を受け付ける受付部と、第二の音声情報を生成する生成部と、受付部が受け付けた第一の音声情報および生成部が生成した第二の音声情報に基づいて、出力用の音声データを生成する合成部と、合成部が生成した音声データを、ユーザが装着する音声再生デバイスに出力する出力部とを備え、合成部は、第一の音声情報に基づく音声と、第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、音声データを生成することを特徴とする。
合成部は、ユーザに、第一の音声情報に基づく音声が第一の仮想音源から聞こえ、かつ、第二の音声情報に基づく音声が第一の仮想音源とは異なる第二の仮想音源から聞こえるよう、音声データを生成することができる。
受付部は、無線通信を介して第一の音声情報を受け付けることができる。
生成部は、所定のメッセージサービスを介して送受信されるテキストデータから第二の音声情報を生成することができる。
合成部は、さらに、第一の音声情報および第二の音声情報の中から所定の条件に基づいて特定の音声を特定し、ユーザに、特定の音声が強調されて聞こえるよう音声データを生成することができる。
合成部は、特定の音声が、第一の仮想音源および第二の仮想音源とは異なる特定の仮想音源から聞こえるよう音声データを生成することができる。
合成部は、ユーザに、第一の音声情報に基づく音声が第一の仮想音源から聞こえ、第二の音声情報に基づく音声が第一の仮想音源とは異なる第二の仮想音源から聞こえ、かつ、特定の音声が、第一の仮想音源および第二の仮想音源とは異なる特定の仮想音源から聞こえるよう音声データを生成することができる。
合成部は、音声再生デバイスがステレオ機能を有するデバイスか否かに応じて、異なる音声データを生成することができる。
本発明の情報処理方法は、情報処理装置に、第一の音声情報を受け付ける受付ステップと、第二の音声情報を生成する生成ステップと、受付ステップにおいて受け付けた第一の音声情報および生成ステップにおいて生成した第二の音声情報に基づいて、出力用の音声データを生成する合成ステップと、合成ステップにおいて生成した音声データを、ユーザが装着する音声再生デバイスに出力する出力ステップとを実行させ、合成ステップでは、第一の音声情報に基づく音声と、第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、音声データを生成することを特徴とする。
本発明のコンピュータプログラムは、情報処理装置に、第一の音声情報を受け付ける受付機能と、第二の音声情報を生成する生成機能と、受付機能が受け付けた第一の音声情報および生成機能が生成した第二の音声情報に基づいて、出力用の音声データを生成する合成機能と、合成機能が生成した音声データを、ユーザが装着する音声再生デバイスに出力する出力機能とを実現させ、合成機能は、第一の音声情報に基づく音声と、第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、音声データを生成することを特徴とする。
本発明によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本発明によれば、複数の情報の発生源を区別して音声を出力することができる。
本発明の情報処理装置の実施形態の構成を示す構成図である。 本発明の実施形態のイメージを示す概念図である。 本発明の実施形態のイメージを示す概念図である。 本発明の情報処理装置における情報処理方法の一例を示すフロー図である。 本発明のコンピュータプログラムの機能の一例を示す回路構成図である。
本発明の情報処理装置、処理方法およびコンピュータプログラムの実施形態について、図面を参照しながら説明する。
初めに、本発明の情報処理装置の実施形態について図面を参照しながら説明する。
図1に示すように、本発明の情報処理装置100は、受付部110と、生成部120と、合成部130と、出力部140とを備える。
受付部110は、第一の音声情報を受け付ける。
第一の音声情報とは、一例として、無線通信を利用して送受信される音声の情報とすることができる。具体的には、第一の音声情報には、トランシーバやインカム等の無線送受信機を利用して特定の周波数帯で送受信される音声情報、電話回線を利用して送受信される音声情報、インターネットを利用して送受信される音声情報、近距離無線通信を利用して送受信される音声情報等が含まれる。
そして、上記通信手段により送受信される複数の音声は、手段または含まれるユーザのグループごとに一つの単位として管理され、この単位毎に一の発生源から発生した音声として管理されることができる。
例えば、ユーザBとユーザCとが無線送受信機を利用して音声の送受信をしている場合、これら音声は同一の発生源から発生したものとして管理される。
生成部120は、第二の音声情報を生成する。
第二の音声情報とは、一例として、所定のメッセージサービスを介して送受信されるテキストデータから生成されたものとすることができる。具体的には、第二の音声情報には、テキストデータを公知の音声合成技術を用いて読み上げた音声情報等が含まれる。
そして、上記通読み上げられた複数の音声は、サービス、グループまたはトークごとに一つの単位として管理され、この単位毎に一の発生源から発生した音声として管理されることができる。
合成部130は、受付部110が受け付けた第一の音声情報および生成部120が生成した第二の音声情報に基づいて、出力用の音声データを生成する。
具体的には、合成部130は、第一の音声情報と、第二の音声情報とが、異なる発生源から発生した音声情報であることが識別可能に、音声データを生成する。
そして、出力部140は、合成部130が生成した音声データを、ユーザが装着する音声再生デバイス200に出力する。
音声再生デバイス200は、マイク内蔵型イヤフォンやインカムなど、音声を再生可能なデバイスであればよく、特に限定されるものではない。
また、本発明の情報処理装置100は音声再生デバイス200が備えるものとしてもよいし、音声再生デバイス200とは別の装置としてもよい。
以上の構成によれば、ユーザは、複数の情報の発生源を区別して情報を取得することができる。
続いて、合成部130による音声データ生成の詳細について説明する
合成部130は、ユーザに、第一の音声情報に基づく音声が第一の仮想音源から聞こえ、かつ、第二の音声情報に基づく音声が第一の仮想音源とは異なる第二の仮想音源から聞こえるよう、音声データを生成することができる。
第一の仮想音源および第二の仮想音源とは、ユーザが存在する空間における異なる位置に配置された仮想の音源とすることができる。例えば、第一の仮想音源をユーザの上方に、第二の仮想音源をユーザの左耳側に配置した場合、ユーザには、第一の音声情報に基づく音声は天井から流れる館内アナウンスのように聞こえ、第二の音声情報に基づく音声は左耳側の人物が話しているように聞こえる。
図2は、ユーザAが、ユーザBからの連絡(第一の音声情報)と、ユーザCを含むテキストチャットグループからの連絡(第二の音声情報)とを受ける場合のイメージを示したものである。
図2に示されるように、ユーザAは、ユーザBからの連絡を天井付近に配置された仮想音源310から、ユーザCからの連絡ユーザの左耳側に配置された仮想音源320から取得することができる。
かかる構成によれば、ユーザは、複数の情報の発生源をより容易に区別して情報を取得することができる。
受付部110は、無線通信を介して第一の音声情報を受け付けることができる。詳細については上述したとおりである。
同様に、生成部120は、所定のメッセージサービスを介して送受信されるテキストデータから第二の音声情報を生成することができる。詳細については上述したとおりである。
合成部130は、さらに、第一の音声情報および第二の音声情報の中から所定の条件に基づいて特定の音声を特定し、ユーザに、特定の音声が強調されて聞こえるよう音声データを生成することができる。
特定の音声とは、「緊急」や「重要」等の強調すべき情報である旨の音声またはテキストを受け付けたことを条件として、その後の所定時間内の音声または所定文字数内のテキストを読み上げた音声を特定の音声とするものである。
かかる所定の条件は、上述したように予め定められた緊急または重要であることを示すワードがテキストや音声内に含まれることとすることができる。かかるワードの識別手段については公知の技術を用いて実現することができる。
合成部130は、特定の音声が、第一の仮想音源および第二の仮想音源とは異なる特定の仮想音源から聞こえるよう音声データを生成することができる。
特定の仮想音源の位置は特に限定されるものではないが、ユーザの正面に位置するのがより好ましい。
図3に示されるように、ユーザAは、ユーザBからの連絡を天井付近に配置された仮想音源310から、ユーザCからの連絡をユーザの左耳側に配置された仮想音源320から取得するのに加え、緊急の連絡をユーザAの正面に配置された仮想音源330から取得することができる。
また、合成部130は、特定の音声が他の音声と比べて大きく再生されるよう音声データを生成することにより、当該特定の音声を強調して再生することもできる。
以上の構成によれば、ユーザが、複数の情報の発生源を容易に区別して情報を取得することができるのに加え、その中でも重要な情報を聞き逃すことなく取得することができる。
合成部130は、さらに、第一の音声情報に基づく音声と、第二の音声情報に基づく音声と、第三の音声情報とが、異なる発生源から発生した音声であることが識別可能に、音声データを生成することができる。
第三の音声情報とは、本発明の情報処理装置100からの所定の通知に関する音声情報であって、具体的には、他のアプリケーションからの通知などが含まれる。
合成部130は、出力部140が出力する音声再生デバイス200がステレオ機能を有するデバイスか否かに応じて、異なる音声データを生成することができる。
例えば、音声再生デバイス200が両耳用のイヤフォン等である場合と、音声再生デバイス200が片耳用のイヤフォン等である場合とで、異なる音声データが生成される。
具体的には、音声再生デバイス200がステレオ機能を有する両耳用のイヤフォンである場合、合成部は、音声データを3D立体音声として生成する。この3D立体音声を生成する技術については公知の技術を用いることができる。
一方、音声再生デバイス200がステレオ機能を有さない片耳用のイヤフォンである場合、合成部は、音声データを3D立体音声として生成せず、音声データの低音・高音の出力方法を適切に調整することで音声データに立体感を出すものとする。
以上の構成によれば、音声再生デバイスの機能によらず、複数の情報の発生源を区別して音声を出力することができる。
同様に、合成部130は、出力部140が出力する音声再生デバイス200がユーザの顔の向きを検知する機能を有するデバイスか否かに応じて、異なる音声データを生成することができる。
具体的には、音声再生デバイス200がユーザの顔の向きを検知する機能を有するイヤフォンである場合、合成部は、ユーザの顔の向きに応じた音声データを生成する。
あるいは、合成部130は、出力部140が出力する音声再生デバイス200がユーザの位置を検知する機能を有するデバイスか否かに応じて、異なる音声データを生成することができる。
具体的には、音声再生デバイス200がユーザの位置を検知する機能を有するイヤフォンである場合、合成部は、ユーザの位置に応じた音声データを生成する。
あるいは、合成部130は、出力部140が出力する音声再生デバイス200がユーザの生体情報を検知する機能を有するデバイスか否かに応じて、異なる音声データを生成することができる。
具体的には、音声再生デバイス200がユーザの生体情報を検知する機能を有するイヤフォンである場合、合成部は、ユーザの生体情報に応じた音声データを生成する。
続いて、本発明の情報処理方法について図面を参照しながら説明する。
本発明の情報処理方法は、図4に示されるように、情報処理装置に、受付ステップS11と、生成ステップS12と、合成ステップS13と、出力ステップS14とを実行させる。
受付ステップS11では、第一の音声情報を受け付ける。かかる受付ステップS11は、上述した受付部110により実行されることができる。受付部110の詳細は上述したとおりである。
生成ステップS12では、第二の音声情報を生成する。かかる生成ステップS12は、上述した生成部120により実行されることができる。生成部120の詳細は上述したとおりである。
合成ステップS13では、受付ステップにおいて受け付けた第一の音声情報および生成ステップにおいて生成した第二の音声情報に基づいて、第一の音声情報に基づく音声と、第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、出力用の音声データを生成する。かかる合成ステップS13は、上述した合成部130により実行されることができる。合成部130の詳細は上述したとおりである。
出力ステップS14では、合成ステップにおいて生成した音声データを、ユーザが装着する音声再生デバイスに出力する。かかる出力ステップS14は、上述した出力部140により実行されることができる。出力部140の詳細は上述したとおりである。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本発明の情報処理方法は、複数の情報の発生源を区別して音声を出力することができる。
最後に、本発明のコンピュータプログラムの実施形態について図面を参照しながら説明する。
本発明のコンピュータプログラムは、情報処理装置に、受付機能と、生成機能と、合成機能と、出力機能とを実現させる。
受付機能は、第一の音声情報を受け付ける。
生成機能は、第二の音声情報を生成する。
合成機能は、受付機能が受け付けた第一の音声情報および生成機能が生成した第二の音声情報に基づいて、出力用の音声データを生成する。具体的には、合成機能は、第一の音声情報に基づく音声と、第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、音声データを生成する。
出力機能は、合成機能が生成した音声データを、ユーザが装着する音声再生デバイスに出力する。
上記受付機能、生成機能、合成機能および出力機能は、図5に示す受付回路1110、生成回路1120、合成回路1130および出力回路1140により実現されることができる。受付回路1110、生成回路1120、合成回路1130および出力回路1140は、それぞれ上述した受付部110、生成部120、合成部130および出力部140により実現されるものとする。各部の詳細については上述したとおりである。
以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本発明のコンピュータプログラムは、複数の情報の発生源を区別して音声を出力することができる。
また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。
100 情報処理装置
110 受付部
120 生成部
130 合成部
140 出力部
200 音声再生デバイス
310 仮想音源
320 仮想音源
330 仮想音源

Claims (9)

  1. 第一の音声情報を受け付ける受付部と、
    所定のテキストデータから第二の音声情報を生成する生成部と、
    前記受付部が受け付けた第一の音声情報および前記生成部が生成した第二の音声情報に基づいて、出力用の音声データを生成する合成部と、
    前記合成部が生成した音声データを、ユーザが装着する音声再生デバイスに出力する出力部と
    を備え、
    前記合成部は、前記第一の音声情報に基づく音声と、前記第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、前記音声データを生成する情報処理装置。
  2. 前記合成部は、前記ユーザに、前記第一の音声情報に基づく音声が第一の仮想音源から聞こえ、かつ、前記第二の音声情報に基づく音声が前記第一の仮想音源とは異なる第二の仮想音源から聞こえるよう、前記音声データを生成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記受付部は、無線通信を介して前記第一の音声情報を受け付けることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記テキストデータは、所定のメッセージサービスを介して送受信されるものであることを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記合成部は、さらに、前記第一の音声情報および前記第二の音声情報の中から所定の条件に基づいて特定の音声を特定し、前記ユーザに、前記特定の音声が強調されて聞こえるよう前記音声データを生成することを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記合成部は、前記ユーザに、前記第一の音声情報に基づく音声が第一の仮想音源から聞こえ、前記第二の音声情報に基づく音声が前記第一の仮想音源とは異なる第二の仮想音源から聞こえ、かつ、前記特定の音声が、前記第一の仮想音源および前記第二の仮想音源とは異なる特定の仮想音源から聞こえるよう前記音声データを生成することを特徴とする請求項5に記載の情報処理装置。
  7. 前記合成部は、さらに、前記第一の音声情報に基づく音声と、前記第二の音声情報に基づく音声と、前記情報処理装置からの所定の通知に関する第三の音声情報とが、異なる発生源から発生した音声であることが識別可能に、前記音声データを生成する請求項1から6のいずれか一項に記載の情報処理装置。
  8. 情報処理装置に、
    第一の音声情報を受け付ける受付ステップと、
    所定のテキストデータから第二の音声情報を生成する生成ステップと、
    前記受付ステップにおいて受け付けた第一の音声情報および前記生成ステップにおいて生成した第二の音声情報に基づいて、出力用の音声データを生成する合成ステップと、
    前記合成ステップにおいて生成した音声データを、ユーザが装着する音声再生デバイスに出力する出力ステップと
    を実行させ、
    前記合成ステップでは、前記第一の音声情報に基づく音声と、前記第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、前記音声データを生成する情報処理方法。
  9. 情報処理装置に、
    第一の音声情報を受け付ける受付機能と、
    所定のテキストデータから第二の音声情報を生成する生成機能と、
    前記受付機能が受け付けた第一の音声情報および前記生成機能が生成した第二の音声情報に基づいて、出力用の音声データを生成する合成機能と、
    前記合成機能が生成した音声データを、ユーザが装着する音声再生デバイスに出力する出力機能と
    を実現させ、
    前記合成機能は、前記第一の音声情報に基づく音声と、前記第二の音声情報に基づく音声とが、異なる発生源から発生した音声であることが識別可能に、前記音声データを生成するコンピュータプログラム。


JP2019199542A 2019-11-01 2019-11-01 情報処理装置、情報処理方法およびコンピュータプログラム Active JP6765697B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019199542A JP6765697B1 (ja) 2019-11-01 2019-11-01 情報処理装置、情報処理方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199542A JP6765697B1 (ja) 2019-11-01 2019-11-01 情報処理装置、情報処理方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP6765697B1 true JP6765697B1 (ja) 2020-10-07
JP2021072584A JP2021072584A (ja) 2021-05-06

Family

ID=72706610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199542A Active JP6765697B1 (ja) 2019-11-01 2019-11-01 情報処理装置、情報処理方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6765697B1 (ja)

Also Published As

Publication number Publication date
JP2021072584A (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
US10262650B2 (en) Earphone active noise control
CN104012111B (zh) 超小型耳机
KR101731714B1 (ko) 음질 개선을 위한 방법 및 헤드셋
US8488820B2 (en) Spatial audio processing method, program product, electronic device and system
US20120237054A1 (en) Method and apparatus for reproducing multi-channel sound using cable/wireless device
US9479872B2 (en) Audio reproducing method and apparatus
US9992444B2 (en) System and method for preventing unauthorized recording, retransmission and misuse of audio and video
US20170195817A1 (en) Simultaneous Binaural Presentation of Multiple Audio Streams
US20220225029A1 (en) Systems and methods for broadcasting audio
US9332349B2 (en) Sound image localization apparatus
JP6463545B1 (ja) 情報処理装置、コンピュータプログラムおよび情報処理方法
JP6765697B1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
CN108650592B (zh) 一种实现颈带式环绕立体声的方法及立体声控制系统
US8542839B2 (en) Audio processing apparatus and method of mobile device
US10585641B2 (en) Tagging a sound in a virtual environment
WO2020016484A1 (en) Controlling audio focus for spatial audio processing
JP7037671B2 (ja) オーディオの提示のための装置および関連する方法
US20170094412A1 (en) Wearable recording and playback system
JPH11133998A (ja) 音声信号伝送方法、その装置及びプログラム記録媒体
WO2016009850A1 (ja) 音声信号再生装置、音声信号再生方法、プログラム、および、記録媒体
KR20210055715A (ko) 청력 장치의 환경 오디오 신호를 향상시키기 위한 방법, 시스템 및 이러한 청력 장치
JP2009141469A (ja) 音声端末及び通話システム
JP2006114942A (ja) 音声提示システム、音声提示方法、この方法のプログラム、および記録媒体
US10348880B2 (en) System and method for generating audio data
US20230308825A1 (en) Spatial Audio Communication Between Devices with Speaker Array and/or Microphone Array

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200116

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6765697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150