JP2018074499A - Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program - Google Patents
Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program Download PDFInfo
- Publication number
- JP2018074499A JP2018074499A JP2016215026A JP2016215026A JP2018074499A JP 2018074499 A JP2018074499 A JP 2018074499A JP 2016215026 A JP2016215026 A JP 2016215026A JP 2016215026 A JP2016215026 A JP 2016215026A JP 2018074499 A JP2018074499 A JP 2018074499A
- Authority
- JP
- Japan
- Prior art keywords
- user
- reverberation
- sound
- microphone
- hat
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、音響手段内蔵着用物、音響処理システム、音響処理装置、音響処理方法、及びプログラムに関する。 The present invention relates to a wearable with built-in acoustic means, an acoustic processing system, an acoustic processing apparatus, an acoustic processing method, and a program.
音楽家が練習したり演奏をしたりする際、楽音には響きや余韻が必要であるが、声や管楽器等には響きや余韻がなく、一般住宅の狭い部屋内では艶の無い音になってしまい気持ち良いものではない。
このような課題を解決するため、種々の提案がなされている。例えば、あたかもコンサートホールで演奏や独唱している雰囲気を得るための設備や装置が開発されている(例えば、特許文献1参照。)
When a musician is practicing or performing, the musical sound needs reverberation and reverberation, but there is no reverberation or reverberation in the voice or wind instruments, and the sound becomes dull in a small room in a general house. It ’s not good.
In order to solve such problems, various proposals have been made. For example, equipment and devices have been developed to obtain an atmosphere in which a performance or solo performance is performed in a concert hall (see, for example, Patent Document 1).
特許文献1に記載の発明は、室内音響生成装置に関するものであり、具体的には、部屋内で発生される音に基づいて間接音を含む室内音響を生成する室内音響生成装置であって、部屋内の上部で互いに離間した位置に外向きにそれぞれ設けられた複数の第1のスピーカと、部屋内において複数の第1のスピーカより下方で且つ床面より上方で互いに離間した位置に内向きにそれぞれ設けられた複数の第2のスピーカであって、複数の第1のスピーカとそれぞれ組をなし、各組毎に第1のスピーカに第2のスピーカを逆位相となるように接続したものと、部屋内において前後左右の壁面、天井面及び床面のうちの1又は複数の面あるいは稜線上に互いに離間して音を受取るべく設けられた複数のマイクロフォンと、複数の第1及び第2のスピーカが構成する複数の組にそれぞれ対応し且つ複数のマイクロフォンにそれぞれ対応する複数の信号処理チャンネルを有する処理手段であって、各信号処理チャンネルが対応するマイクロフォンからの音信号に基づいて間接音信号を形成して対応する組の第1及び第2のスピーカに供給するものを備え、複数の組の第1及び第2のスピーカを介して室内音響を生成するものである。
The invention described in
しかしながら、特許文献1に記載の発明を実現するためには、市販のスピーカ、エフェクター、アンプ、マイク、機器を組み合わせる必要があり、大掛かりでセッティングも大変であり、専門知識を必要とする。
However, in order to realize the invention described in
そこで、本発明の目的は、簡単な構成で響きや余韻が得られる音響手段内蔵着用物、音響処理システム、音響処理装置、音響処理方法、及びプログラムを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a wearer with built-in acoustic means, a sound processing system, a sound processing device, a sound processing method, and a program that can obtain a sound and a reverberation with a simple configuration.
上記課題を解決するため、請求項1記載の発明は、ユーザーの上半身もしくは頭部に着用される着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、前記着用物に設けられ、外部の残響手段と接続可能なインターフェイスと、前記残響手段によって残響処理された残響信号を音声に変換して出力する音声出力手段と、を備えたことを特徴とする。
In order to solve the above-mentioned problems, the invention according to
請求項2記載の発明は、請求項1に記載の構成に加え、前記着用物は、ハット、ベスト、もしくは開放型ヘッドホンであることを特徴とする。
The invention described in
請求項3記載の発明は、ユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、前記音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、を備えたことを特徴とする。
The invention according to
請求項4記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物がハットであって、前記音声入力手段が前記ハットのつばの前縁に内蔵されたマイクロフォンであって、前記音声出力手段が前記つばの前記ユーザーの耳の近傍に位置するように内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカに有線もしくは無線で接続された携帯端末装置であることを特徴とする。
The invention according to claim 4 is a microphone in addition to the configuration according to
請求項5記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物がベストであって、前記音声出力手段が前記ベストの肩部に内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカに有線もしくは無線で接続された携帯端末装置であって、前記音声入力手段が前記携帯端末に内蔵もしくは前記携帯端末と前記スピーカとを接続するコードに設けられたマイクロフォンであることを特徴とする。 According to a fifth aspect of the present invention, in addition to the configuration of the third aspect, the user's wear is a vest, and the audio output means is a speaker built in a shoulder portion of the vest, and the reverberation The means is a portable terminal device connected to the microphone and the speaker by wire or wirelessly, and the voice input means is a microphone built in the portable terminal or provided in a cord connecting the portable terminal and the speaker. It is characterized by being.
請求項6記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物が音声出力手段としての開放型ヘッドホンであって、前記音声入力手段が前記携帯端末に内蔵、前記携帯端末と前記開放型ヘッドホンとを接続するコード、もしくは前記開放型ヘッドホンから延長された支持部に設けられたマイクロフォンであって、前記残響手段が前記マイクロフォン及び前記開放型ヘッドホンに有線もしくは無線で接続された携帯端末装置であることを特徴とする。 According to a sixth aspect of the present invention, in addition to the configuration of the third aspect, the user's wear is an open-type headphone as a voice output means, and the voice input means is built in the portable terminal, and the portable terminal Or a microphone provided on a support part extended from the open type headphone, wherein the reverberation means is connected to the microphone and the open type headphone in a wired or wireless manner. It is a portable terminal device.
請求項7記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物がハットであって、前記音声出力手段が前記ハットのつばの前記ユーザーの耳の近傍に内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカにコードで接続された携帯端末装置であって、前記音声入力手段が前記ユーザーの口から近接範囲内に位置するように前記コードの途中に設けられたマイクロフォンであることを特徴とする。 According to a seventh aspect of the present invention, in addition to the configuration of the third aspect, the user's wear is a hat, and the sound output means is a speaker built in the vicinity of the user's ear of the collar of the hat. The reverberation means is a portable terminal device connected to the microphone and the speaker by a cord, and is provided in the middle of the cord so that the voice input means is located within a proximity range from the user's mouth. It is characterized by being a microphone.
請求項8記載の発明は、ユーザーの上半身もしくは頭部に着用される着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、前記着用物に設けられ、音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、を備えたことを特徴とする。
The invention according to
請求項9記載の発明は、ユーザーが奏でる楽器の音や前記ユーザーの声を前記ユーザーの上半身もしくは頭部に着用される着用物に設けられた音声入力手段で電気信号に変換し、前記電気信号を残響処理し、前記ユーザーの着用物の前記ユーザーの近接範囲内に設けられた音声出力手段から残響音を前記ユーザーに発することを特徴とする。
The invention according to
請求項10記載の発明は、音響処理システムの実質的なコンピュータが、
音声入力手段にユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する手順、
残響手段に前記音声入力手段からの電気信号を残響処理して残響信号を出力する手順、
音声出力手段に前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する手順、
を実行させるためのコンピュータ読取可能なプログラムであることを特徴とする。
The invention according to
A procedure for inputting the sound of the musical instrument played by the user or the voice of the user and converting it into an electrical signal, which is provided on a wearer worn on the user's upper body or head in voice input means,
A procedure for reverberating the electrical signal from the voice input means to output a reverberation signal to the reverberation means,
A procedure for converting the reverberation signal from the reverberation means into sound and outputting the sound;
It is a computer-readable program for executing the above.
簡単な構成で響きや余韻が得られる音響処理システム、音響処理装置、及び音響処理方法の提供を実現できる。 It is possible to provide an acoustic processing system, an acoustic processing apparatus, and an acoustic processing method capable of obtaining a reverberation and a reverberation with a simple configuration.
<実施形態1>
[全体構成]
図1(a)は、本発明の音響処理システムの一実施の形態に係る全体図であり、図1(b)は、(a)に示した音響処理システムに用いられる、本発明の音響手段付き着用物としてのハットの平面図であり、図1(a)に示した音響処理システムに用いられるハットの平面図であり、図1(c)は図1(a)に示したハットの外観斜視図である。
<
[overall structure]
FIG. 1A is an overall view according to an embodiment of a sound processing system of the present invention, and FIG. 1B is a sound means of the present invention used in the sound processing system shown in FIG. FIG. 2 is a plan view of a hat as an accessory, and is a plan view of the hat used in the sound processing system shown in FIG. 1A, and FIG. 1C is an external view of the hat shown in FIG. It is a perspective view.
図1(a)に示す音響処理システム100は、ユーザーの上半身もしくは頭部に着用される装着物としてのハット20に内蔵され、残響処理された音声を出力する左スピーカ3L、右スピーカ3R、及びマイクロフォン1a(1b)と、携帯端末装置(例えば、スマートホン、以下スマホと表記)2と、スマホ2と左スピーカ3L、右スピーカ3R、及びマイクロフォン1a(1b)とを接続するコード2b,20d及びインターフェイスとしてのコネクタ2c,20eと、を有するシステムである。
A
左スピーカ3L及び右スピーカ3Rは、ユーザーの耳の近傍に位置するようにつば20cに内蔵されている。
マイクロフォン1aは、ユーザーの口から近接範囲内に配置されたユーザーの着用物に設けられ、ユーザーが奏でる楽器の音やユーザーの声を入力して電気信号に変換する。マイクロフォン1aはモノラルタイプのマイクロフォンを示し、マイクロフォン1a(1b)はステレオタイプのマイクロフォンを示す。本実施形態では、モノラルタイプで説明するが、ステレオタイプであっても3つ以上のマイクロフォンを用いてもよい。マイクロフォン1a(1b)は、ハット20のつば(プリムとも言う)20cの前縁に内蔵されている。
The
The
ハット20の20aは腰、20bはリボン、20cはつばとそれぞれ呼ばれる。ハット20は、ストローハットであるが、本発明はこれに限定されるものではなく、ソフトハット、パーラーハット、キャベリン、カンカン帽、ポークバイハット、シルクハット、マウンテンハット、ホンブルグ・ハット、山高帽子、センター・クリース、スラウチ・ハット、ガルボハット、ガウチョハット、カプリーヌ(キャプリン)、ベルジェール・ハット(ミルクメイド・ハット)、ブルトン、クローシュ(クロッシュ)、クルー・ハット(メトロ・ハット)、カウボーイハット(キャツルマン)、テンガロン・ハット、クーリー・ハット、チルバ・ハットのいずれのハットであってもよい。
20a of
図1(b)に示すようにハット20のつば20cには腰20aを挟んで平面状の左スピーカ3Lと平面状の右スピーカ3Rが内蔵されている。平面スピーカとしては、例えば、圧電素子で振動板を振動させる圧電スピーカ、二枚の電極に印加された音声信号によって、電極に挟まれた板が振動するコンデンサスピーカ、ダイナミックスピーカが挙げられる。
As shown in FIG. 1B, a flat
マイクロフォン1a(1b)としては、例えば、コンデンサマイクロフォン、ダイナミックマイクロフォンが挙げられる。
Examples of the
[ハードウェア構成]
図2は、図1(a)に示した音響処理システム100のハードウェアブロック図の一例である。
スマホ2は、通信ユニット2-1、内蔵スピーカ2-2、内蔵マイクロフォン2-3、カメラ2-4、外部インターフェイス2-5、ボタン2-6、CPU(Central Processing Unit)2-7、タッチパネル2-8、ROM(Read Only Memory)2-9、RAM(Random Access Memory)2-10、HDD(Hard Disk Drive)2-11及び各種センサ2-12を有する。
タッチパネル2-8は、ディスプレイ2-8aと、タッチスクリーン2-8bとを有する。
[Hardware configuration]
FIG. 2 is an example of a hardware block diagram of the
The touch panel 2-8 includes a display 2-8a and a touch screen 2-8b.
通信ユニット2-1は、スマホ2のユーザーがインターネット接続、電話回線接続、及びメール送受信を行うためのユニットである。
内蔵スピーカ2-2は、ユーザーがスマホ2を用いて電話したり、音声ガイダンスを聞いたり、緊急地震速報等の警報音を発生したり、後述する残響アプリにより残響処理された音声を発生する装置である。
内蔵マイクロフォン2-3は、スマホ2のユーザーが音声を送信する際にユーザーの音声を電気信号に変換する装置である。
カメラ2-4は、スマホ2のユーザーが被写体を撮影するための装置であり、例えばCCD(Charge Coupled Device:電荷結合素子)カメラが挙げられる。
外部インターフェイス2-5は、スマホ2に電源、USBフラッシュメモリ、イヤホン等の外部機器やコネクタを接続するための装置である。
ボタン2-6は、スマホ2を起動/停止させるための電源ボタンである。
The communication unit 2-1 is a unit for the user of the
The built-in speaker 2-2 is a device that allows the user to make a phone call using the
The built-in microphone 2-3 is a device that converts the user's voice into an electrical signal when the user of the
The camera 2-4 is a device for the user of the
The external interface 2-5 is a device for connecting an external device such as a power source, a USB flash memory, an earphone or a connector to the
The button 2-6 is a power button for starting / stopping the
CPU2-7は、制御プログラムに基づいてスマホ2を統括制御するための素子である。
タッチパネル2-8は、ユーザーがスマホ2を使用する際にタッチスクリーン2-8bでタッチ入力したり、ディスプレイ2-8aに文字や画像を表示したりする装置である。
ROM2-9は、スマホ2の制御プログラムを格納した読み出し専用メモリであり、例えばマスクROMが挙げられる。
RAM2-10は、スマホ2の制御プログラムを展開する書き換え可能なメモリであり、例えばフラッシュメモリが挙げられる。
HDD2-11は、カメラ2-4で撮影した画像やインターネットでダウンロードした、残響アプリを含むアプリケーションソフトウェア(以下、アプリと表記)や画像データ、メールの文字データ、メールに添付された画像データを格納したりする記憶装置である。HDD2-11の代わりにSSD(Solid State Drive)を用いてもよい。
各種センサ2-12は、例えば、GPS(Global Positioning System:全地球測位システム)、ジャイロセンサー(角速度センサー)等が挙げられる。
The CPU 2-7 is an element for comprehensively controlling the
The touch panel 2-8 is a device that allows a user to perform touch input on the touch screen 2-8b when using the
The ROM 2-9 is a read-only memory that stores a control program for the
The RAM 2-10 is a rewritable memory that expands the control program of the
HDD2-11 stores images taken with camera 2-4, application software including reverberation apps (hereinafter referred to as apps), image data, email text data, and image data attached to emails downloaded over the Internet It is a storage device. An SSD (Solid State Drive) may be used instead of HDD 2-11.
Examples of the various sensors 2-12 include a GPS (Global Positioning System), a gyro sensor (angular velocity sensor), and the like.
[ソフトウェア構成]
図3は、図1(a)に示した音響処理システム100のソフトウェアブロック図の一例である。
第一音声入力手段4aは、図2のマイクロフォン1aによって実現され、第二音声入力手段4bは、図2のマイクロフォン1bによって実現される。
残響手段5は、図2のスマホ2によって実現される。残響手段5は、ユーザーの奏でる楽器もしくは音声を直接増幅した音声を含んでもよい。通信手段5-1は、図2の通信ユニット2-1によって実現され、内蔵音声出力手段5-2は、図2の内蔵スピーカ2-2によって実現され、内蔵音声入力手段5-3は、図2の内蔵マイクロフォン2-3によって実現される。
[Software configuration]
FIG. 3 is an example of a software block diagram of the
The first voice input means 4a is realized by the
The reverberation means 5 is realized by the
撮影手段5-4は、図2のカメラ2-4によって実現され、外部信号入出力手段5-5は、図2の外部インターフェイス2-5によって実現され、電源オンオフ手段5-6は、図2のボタン2-6によって実現され、制御手段5-7は、図2のCPU2-7によって実現される。
入力表示手段5-8は、図2のタッチパネル2-8によって実現され、表示手段5-8aは、図2のディスプレイ2-8aによって実現され、入力手段5-8bは、図2のタッチスクリーン2-8bによって実現され、記憶手段5-9は図2のROM2-9、RAM2-10、及びHDD2-11によって実現される。
制御プログラム5-9aは図2のROM2-9及びRAM2-10によって実現され、各種アプリ5-9bは、図2のHDD2-11によって実現され、各種検知手段5-10は、図2の各種センサによって実現される。
The photographing means 5-4 is realized by the camera 2-4 in FIG. 2, the external signal input / output means 5-5 is realized by the external interface 2-5 in FIG. 2, and the power on / off means 5-6 is shown in FIG. The control means 5-7 is realized by the CPU 2-7 in FIG.
The input display means 5-8 is realized by the touch panel 2-8 of FIG. 2, the display means 5-8a is realized by the display 2-8a of FIG. 2, and the input means 5-8b is the
The control program 5-9a is realized by the ROM 2-9 and the RAM 2-10 in FIG. 2, the various applications 5-9b are realized by the HDD 2-11 in FIG. 2, and the various detection means 5-10 are various sensors in FIG. It is realized by.
左チャンネル音声出力手段6Lは、図2の左スピーカ3Lによって実現され、右チャンネル音声出力手段6Rは、図2の右スピーカ3Rによって実現される。
The left channel audio output means 6L is realized by the
[リバーブのアルゴリズム]
図4は、図3に示した各種アプリ5-9bのうちのリバーブのアルゴリズムの一例である。
入力7は、例えば、ユーザーの奏でる楽器の音やユーザーの声である。入力7から複数(N個)の初期反射生成(ディレーライン)8-1〜8-Nによって複数(N個)の残響音が形成される。
各残響音は、後部残響音生成(ディレー、EQ「エコライザー」、フィードバック)9-1〜9-Nによって補正され、補正された残響音はミックス(分散定位)10によって混合される。混合された残響音は左チャンネル11L及び右チャンネル11Rに分割される。残響音信号はバイノーラルであり、リバーブのアルゴリズムはスマホ2のアプリとして実装されている。
ここで、実際に実装する最適なものは、バイノーラル化(3次元音像定位)した残響を付加できるものであり、残響だけでなく、直接音もバイノーラル化(3次元音像定位)し、必要に応じてミックスする。これは、適度なバランスで3次元定位する方が良い場合もあり得るため、ミックスできるようにしてもよい。
[Reverb algorithm]
FIG. 4 is an example of a reverberation algorithm among the various applications 5-9b shown in FIG.
The input 7 is, for example, the sound of an instrument played by the user or the voice of the user. A plurality (N) of reverberant sounds are formed from the input 7 by a plurality (N) of initial reflection generation (delay lines) 8-1 to 8-N.
Each reverberation sound is corrected by rear reverberation sound generation (delay, EQ “Equalizer”, feedback) 9-1 to 9-N, and the corrected reverberation sound is mixed by a mix (dispersion localization) 10. The mixed reverberant sound is divided into a
Here, the optimal implementation is one that can add binaural (3D sound localization) reverberation, and not only reverberation but also direct sound (3D sound localization), if necessary And mix. Since it may be better to perform three-dimensional localization with an appropriate balance, mixing may be performed.
[作用効果]
ここで、楽器としては、例えば、フルートやオーボエのような金管楽器が好ましい。また、ユーザーの独唱の場合も好ましい。これは、金管楽器や音声には打楽器のような響きや余韻がほとんどないため、本実施形態のシステムや装置を用いることでユーザーが奏でる楽器からの音声が直接ユーザーの耳に入ると共に、その楽器からの音声が残響処理されて得られた残響音(直接増幅された音声を含んでもよい。)がユーザーの耳に入るので、狭い室内でもあたかもコンサートホールで演奏した場合と同様の臨場感が得られる。ユーザーの独唱も同様の効果が得られる。すなわち、本実施形態によれば、簡単な構成で響きや余韻が得られる。
[Effect]
Here, for example, a brass instrument such as a flute or oboe is preferable as the instrument. It is also preferable for the user to sing alone. This is because brass instruments and voices have almost no reverberation or reverberation like percussion instruments, so the sound from the instrument played by the user by using the system or apparatus of this embodiment directly enters the user's ear and the instrument. Since the reverberant sound (which may be directly amplified sound) obtained by reverberating the sound from the sound enters the user's ears, the user feels the same realism as if he was playing in a concert hall. It is done. The same effect can be obtained by the user's solo. That is, according to the present embodiment, reverberation and reverberation can be obtained with a simple configuration.
[装着例1]
図5は、図1(a)に示した音響処理システム100をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
ユーザーUがハット20を被り、ハット20のコード20dのコネクタ20eがスマホ2にコード2b及びコネクタ2a,2cを介して接続されている。この場合、ハット20のマイクロフォン1a(1b)、左スピーカ3L、及び右スピーカ3Rは、コード20d,2b及びコネクタ20e,2c,2aを介してスマホ2に接続されている。
[Installation example 1]
FIG. 5 is a diagram illustrating a state in which the flute F is played with the user U wearing the
A user U wears a
ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード20d,2b及びコネクタ20e,2c,2aを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
The sound of flute F played by the user U is input to the
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.
[装着例2]
図6は、図1(a)に示した音響処理システム100をユーザーUが装着した状態で独唱している状態を示す図である。
図6に示した装着例2の図5に示した装着例1との相違点は、ユーザーUが楽器を奏でるのではなく、独唱している点である。
このような場合において、ユーザーUの声はマイクロフォン1a(1b)とユーザーUの耳に入ると共に、スマホ2で残響処理されて得られた残響音を左スピーカ3L及び右スピーカ3RからユーザーUの耳に入り、あたかもコンサートホールで独唱しているような臨場感が得られる。
尚、上述した図ではユーザーUは、ルートヴィヒ・ヴァン・ベートーヴェンの交響曲第9番ニ短調作品12を演奏もしくは独唱しているが、本発明はこれに限定されるものではない。
[Installation example 2]
FIG. 6 is a diagram illustrating a state where the user U is singing the
The difference between the wearing example 2 shown in FIG. 6 and the wearing example 1 shown in FIG. 5 is that the user U sings instead of playing an instrument.
In such a case, the voice of the user U enters the
In addition, in the figure mentioned above, although the user U is performing or singing the symphony No. 9 D minor work 12 of Ludwig van Beethoven, this invention is not limited to this.
<実施形態2>
図7は、本発明の本発明の音響処理システムの他の実施の形態に係る全体図である。
図7に示した音響処理システム200の実施の形態の図1(a)に示した実施の形態との相違点は、装着物としてベストに適用した点である。
図7に示す音響処理システム200は、ベスト30aの左肩部に左スピーカ3Lが設けられ、ベスト本体30aの右肩部に右スピーカ3Rが設けられ、ベスト本体30aの左胸部にマイクロフォン1a(1b)が設けられている。左スピーカ3L、右スピーカ3R、及びマイクロフォン1a(1b)はコード30b及びコネクタ30cを介してスマホ2に接続されるようになっている。
ベスト30a、左スピーカ3L、右スピーカ3R、マイクロフォン1a(1b)、コード30b、及びインターフェイスとしてのコネクタ30cで音響手段付き着用物が構成されている。
尚、図ではマイクロフォン1a(1b)がベスト30に設けられているが、本発明は、これに限定されるものではなく、ベスト30に左スピーカ3L、及び右スピーカ3Rを設け、スマホ2の内蔵マイクロフォン2-3(図2参照)を用いてもよい。
<
FIG. 7 is an overall view according to another embodiment of the sound processing system of the present invention.
The difference between the embodiment of the
The
The
In the figure, the
[装着例3]
図8は、図7に示した音響処理装置200をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
このような状態であっても、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード30b及びコネクタ30cを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
[Installation example 3]
FIG. 8 is a diagram illustrating a state in which the flute F is being played with the user U wearing the
Even in such a state, the sound of flute F played by the user U is input to the
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.
<実施形態3>
図9は、本発明の本発明の音響処理システムの他の実施の形態に係る全体図である。
図9に示した音響処理システム300の実施の形態の図1(a)に示した実施の形態との相違点は、装着物としてマイク付きの開放型ヘッドホンに適用した点である。
図9に示す音響処理システム300は、ヘッドバンド40eの両側に設けられた左スピーカ保持部40L及び右スピーカ保持部40Rと、開放型ヘッドホン40から延長された支持部40aと支持部40aの端部に設けられたマイクロフォン1a(1b)を内蔵したマイク保持部40bと、コード40cと、コネクタ30cと、スマホ2と、を有する。
左スピーカ保持部40Lは、左スピーカ3Lが内蔵され、右スピーカ保持部40Rには右スピーカ3Rが内蔵されている。
開放型ヘッドホン40の左スピーカ40L及び右スピーカ40Rのユーザーの頭部側には耳と密着しないように保持部40g,40fが設けられている。このためユーザーの耳が開放されるようになっている。
尚、音響処理手段付き着用物は、ヘッドバンド40eの両側に設けられた左スピーカ保持部40L及び右スピーカ保持部40Rと、開放型ヘッドホン40から延長された支持部40aと支持部40aの端部に設けられたマイクロフォン1a(1b)を内蔵したマイク保持部40bと、コード40cと、インターフェイスとしてのコネクタ30cとを有する。
<
FIG. 9 is an overall view according to another embodiment of the sound processing system of the present invention.
The difference between the embodiment of the
The
The left
Holding
Note that the wear with acoustic processing means includes left
[装着例4]
図10は、図9に示した音響処理システム300をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
このような状態であっても、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード40c及びコネクタ40dを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
[Installation example 4]
FIG. 10 is a diagram illustrating a state in which the flute F is played with the user U wearing the
Even in such a state, the sound of flute F played by the user U is input to the
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.
<実施形態4>
図11(a)は、本発明の音響処理システムの他の実施の形態に係る全体図であり、図11(b)は、図11(a)に示した音響処理システムに用いられるハットの平面図であり、図11(c)は図11(a)に示したハットの外観斜視図である。
<Embodiment 4>
FIG. 11A is an overall view according to another embodiment of the sound processing system of the present invention, and FIG. 11B is a plan view of a hat used in the sound processing system shown in FIG. FIG. 11 (c) is an external perspective view of the hat shown in FIG. 11 (a).
図11(a)に示した音響処理システム400の図1(a)に実施の形態との相違点は、音声入力手段がユーザーの口から近接範囲内に位置するようにコードの途中に設けられたマイクロフォン(イヤホンマイク)である点である。
図11(a)に示す音響処理システム400は、ユーザーの装着物としてのハット20に内蔵された左スピーカ3L及び右スピーカ3Rと、スマホ2と、スマホ2と左スピーカ3L右スピーカ3Rとをコネクタ20e,2c,2aを介して接続するコード20d,2bのうちコード2bの途中に設けられたマイクロフォン1a(1b)を保持する保持部2dとを有する。
The difference between the
The
[装着例5]
図12は、図11(a)に示した音響処理システム400をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
このような状態であっても、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード2b,20d及びコネクタ2a,2c,20eを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
[Installation example 5]
FIG. 12 is a diagram showing a state where the flute F is being played with the user U wearing the
Even in such a state, the sound of flute F played by the user U is input to the
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.
<実施形態5>
図13(a)は、本発明の音響処理装置の一実施の形態に係る全体図であり、図13(b)は、図13(a)に示した音響処理装置に用いられるハットの平面図であり、図13(c)は図11(a)に示したハットの外観斜視図である。
図13(a)に示した音響処理装置500の形態の図1(a)に実施の形態との相違点は、ハット20に左スピーカ3Lと、右スピーカ3Rと、マイクロフォン1a(1b)と、スマホ2と、が一体的に形成されている点である。
<
FIG. 13A is an overall view according to an embodiment of the sound processing apparatus of the present invention, and FIG. 13B is a plan view of a hat used in the sound processing apparatus shown in FIG. FIG. 13 (c) is an external perspective view of the hat shown in FIG. 11 (a).
The difference between the
[装着例6]
図14は、図13(a)に示した音響処理装置500をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
ユーザーUがハット20を被り、スマホ2のボタン2-6を押すだけでよい。コードやコネクタの接続は既に完了しているためである。
[Installation example 6]
FIG. 14 is a diagram illustrating a state in which the flute F is played with the user U wearing the
User U only wears
このような状態で、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
In such a state, the sound of the flute F played by the user U is input to the
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.
<プログラム>
以上で説明した本発明に係る音響処理システムは、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばスマホに内蔵されているCPU、ROM、RAMが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明の機能を実現する場合の説明を以下で行う。
<Program>
The sound processing system according to the present invention described above is realized by a program that causes a computer to execute processing. Examples of the computer include a CPU, ROM, and RAM built in the smartphone, but the present invention is not limited to this. Therefore, as an example, a case where the function of the present invention is realized by a program will be described below.
例えば、
音響処理システムの実質的なコンピュータが、
音声入力手段にユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する手順、
残響手段に前記音声入力手段からの電気信号を残響処理して残響信号を出力する手順、
音声出力手段に前記着用物に設けられ、前記残響手段からの残響信号のみを音声に変換して出力する手順、
を実行させるためのコンピュータ読取可能なプログラムが挙げられる。
For example,
The substantial computer of the sound processing system
A procedure for inputting the sound of the musical instrument played by the user or the voice of the user and converting it into an electrical signal, which is provided on a wearer worn on the user's upper body or head in voice input means,
A procedure for reverberating the electrical signal from the voice input means to output a reverberation signal to the reverberation means,
A procedure for converting the reverberation signal from the reverberation means into sound and outputting the sound;
A computer-readable program for executing
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。 Such a program may be stored in a computer-readable storage medium.
<記憶媒体>
ここで、記憶媒体としては、例えばCD-ROM、フレキシブルディスク(FD)、CD-R等のコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM、ROM、FeRAM等の半導体メモリやHDDが挙げられる。
<Storage medium>
Here, examples of the storage medium include computer-readable storage media such as CD-ROM, flexible disk (FD), and CD-R, semiconductor memories such as flash memory, RAM, ROM, and FeRAM, and HDD.
CD-ROMは、Compact Disc Read Only Memoryの略である。フレキシブルディスクは、Flexible Disk:FDを意味する。CD-Rは、CD Recordableの略である。FeRAMは、Ferroelectric RAMの略で、強誘電体メモリを意味する。 CD-ROM is an abbreviation for Compact Disc Read Only Memory. Flexible disk means Flexible Disk (FD). CD-R is an abbreviation for CD Recordable. FeRAM is an abbreviation for Ferroelectric RAM and means a ferroelectric memory.
尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。例えば、上述の説明では、スマホとハットとの間が有線で接続された場合にいて説明したが、本発明ではこれに限定されず、無線で接続する場合についても適用可能である。 The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there. For example, in the above description, a case has been described in which a smartphone and a hat are connected by wire, but the present invention is not limited to this, and the present invention can also be applied to a case of connecting wirelessly.
1a、1b マイクロフォン
2、200d 携帯端末装置(スマホ)
2−1 通信ユニット
2−2 内蔵スピーカ
2−3 内蔵マイクロフォン
2−4 カメラ
2−5 外部インターフェイス
2−6 ボタン
2−7 CPU
2−8 タッチパネル
2−9 ROM
2−10 RAM
2−11 HDD
2−12 各種センサ
3L 左スピーカ
3R 右スピーカ
4a 第一音声入力手段
4b 第二音声入力手段
5 残響手段
5−1 通信手段
5−2 内蔵音声出力手段
5−3 内蔵音声入力手段
5−4 撮影手段
5−5 外部信号入出力手段
5−6 電源オンオフ手段
5−7 制御手段
5−8 有力表示手段
5−9 記憶手段
5−10 各種検知手段
6L 左チャンネル音声出力手段
6R 右チャンネル音声出力手段
7 入力
8−1〜8−N 初期反射生成
9−1〜9−N 後部残響音生成
10 ミックス
11L 左チャンネル
12R 右チャンネル
20 ハット
30 ベスト
40 開放型ヘッドホン
100、200、300、400 音響処理システム
500 音響処理装置
F フルート
U ユーザー
1a,
2-1 Communication unit 2-2 Built-in speaker 2-3 Built-in microphone 2-4 Camera 2-5 External interface 2-6 Button 2-7 CPU
2-8 Touch panel 2-9 ROM
2-10 RAM
2-11 HDD
2-12
Claims (10)
を備えたことを特徴とする音響手段内蔵着用物。 Voice input means provided on the wearer worn on the user's upper body or head, and inputting the sound of the musical instrument played by the user and the voice of the user into an electrical signal; and provided on the wearer An interface connectable with the reverberation means, and a sound output means for converting the reverberation signal subjected to the reverberation processing by the reverberation means into sound and outputting it,
A wear with built-in acoustic means, characterized by comprising:
前記音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、
前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、
を備えたことを特徴とする音響処理システム。 A voice input means that is provided on a wearer worn on the upper body or head of the user and that inputs the sound of the musical instrument played by the user or the voice of the user and converts it into an electrical signal;
Reverberation means for reverberating the electrical signal from the voice input means and outputting a reverberation signal;
Audio output means provided on the wear, for converting the reverberation signal from the reverberation means into sound and outputting the sound;
An acoustic processing system comprising:
前記着用物に設けられ、音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、
前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、
を備えたことを特徴とする音響処理装置。 A voice input means that is provided on a wearer worn on a user's upper body or head, and that inputs the sound of the musical instrument played by the user or the voice of the user and converts it into an electrical signal;
Reverberation means for reverberating the electrical signal from the voice input means and outputting a reverberation signal, provided on the wear;
Audio output means provided on the wear, for converting the reverberation signal from the reverberation means into sound and outputting the sound;
An acoustic processing apparatus comprising:
音声入力手段にユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する手順、
残響手段に前記音声入力手段からの電気信号を残響処理して残響信号のみを出力する手順、
音声出力手段に前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する手順、
を実行させるためのコンピュータ読取可能なプログラム。 The substantial computer of the sound processing system
A procedure for inputting the sound of the musical instrument played by the user or the voice of the user and converting it into an electrical signal, which is provided on a wearer worn on the user's upper body or head in voice input means,
A procedure for reverberating the electrical signal from the voice input means and outputting only the reverberation signal to the reverberation means,
A procedure for converting the reverberation signal from the reverberation means into sound and outputting the sound;
A computer-readable program for executing the program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215026A JP2018074499A (en) | 2016-11-02 | 2016-11-02 | Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215026A JP2018074499A (en) | 2016-11-02 | 2016-11-02 | Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018074499A true JP2018074499A (en) | 2018-05-10 |
Family
ID=62114536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016215026A Pending JP2018074499A (en) | 2016-11-02 | 2016-11-02 | Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018074499A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5741374U (en) * | 1980-08-22 | 1982-03-05 | ||
JPS59180589U (en) * | 1983-05-18 | 1984-12-03 | 株式会社ケンウッド | headphone device |
JPH04131095U (en) * | 1991-05-21 | 1992-12-01 | エヌ・テイ・テイ中央移動通信株式会社 | earphones with microphone |
JP2008539647A (en) * | 2005-04-27 | 2008-11-13 | キム,ボン−スク | Remote control with echo function |
JP3165019U (en) * | 2009-10-16 | 2010-12-24 | エイチティーシー コーポレーション | Hat with voice playback function |
JP2014230214A (en) * | 2013-05-24 | 2014-12-08 | 清水建設株式会社 | Body mounting type directional loudspeaker and voice transmission method |
-
2016
- 2016-11-02 JP JP2016215026A patent/JP2018074499A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5741374U (en) * | 1980-08-22 | 1982-03-05 | ||
JPS59180589U (en) * | 1983-05-18 | 1984-12-03 | 株式会社ケンウッド | headphone device |
JPH04131095U (en) * | 1991-05-21 | 1992-12-01 | エヌ・テイ・テイ中央移動通信株式会社 | earphones with microphone |
JP2008539647A (en) * | 2005-04-27 | 2008-11-13 | キム,ボン−スク | Remote control with echo function |
JP3165019U (en) * | 2009-10-16 | 2010-12-24 | エイチティーシー コーポレーション | Hat with voice playback function |
JP2014230214A (en) * | 2013-05-24 | 2014-12-08 | 清水建設株式会社 | Body mounting type directional loudspeaker and voice transmission method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7003993B2 (en) | Acoustic output device | |
US8934654B2 (en) | Non-occluded personal audio and communication system | |
KR101486448B1 (en) | Sound transducer | |
US11037544B2 (en) | Sound output device, sound output method, and sound output system | |
JP5332243B2 (en) | Sound emission system | |
CN103155594B (en) | Headphone device | |
JP6421120B2 (en) | Binaural hearing system and method | |
CN103874000A (en) | Hearing instrument | |
KR20010016136A (en) | Neck-Phone | |
JP6668766B2 (en) | Audio signal processing device | |
JP6526844B1 (en) | Wearable speaker system | |
JPH06233388A (en) | Hearing aid | |
TW536920B (en) | Audio apparatus | |
JP2021516900A (en) | Headphone speaker system with inner ear speakers and over ear speakers | |
JP2018074499A (en) | Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program | |
WO2008119122A1 (en) | An acoustically transparent earphone | |
JP7281788B2 (en) | Speaker system, sound processing device, sound processing method and program | |
KR101971608B1 (en) | Wearable sound convertor | |
JP3430061B2 (en) | Hearing aid | |
Sigismondi | Personal monitor systems | |
KR102010248B1 (en) | Wearable sound convertor and sound controlling system using thereof | |
CN211860528U (en) | Headset and audio processing system | |
TW200922356A (en) | Earpiece | |
Kondo et al. | Characteristics comparison of two audio output devices for augmented audio reality | |
KR100675396B1 (en) | Headset For Embodying A Function Of A Home theater |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170130 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20170213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200702 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201224 |