JP2018074499A - Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program - Google Patents

Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program Download PDF

Info

Publication number
JP2018074499A
JP2018074499A JP2016215026A JP2016215026A JP2018074499A JP 2018074499 A JP2018074499 A JP 2018074499A JP 2016215026 A JP2016215026 A JP 2016215026A JP 2016215026 A JP2016215026 A JP 2016215026A JP 2018074499 A JP2018074499 A JP 2018074499A
Authority
JP
Japan
Prior art keywords
user
reverberation
sound
microphone
hat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016215026A
Other languages
Japanese (ja)
Inventor
大和 誠
Makoto Yamato
誠 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Right Ear Lcc
Right-Ear Lcc
Original Assignee
Right Ear Lcc
Right-Ear Lcc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Right Ear Lcc, Right-Ear Lcc filed Critical Right Ear Lcc
Priority to JP2016215026A priority Critical patent/JP2018074499A/en
Publication of JP2018074499A publication Critical patent/JP2018074499A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an acoustic means built-in wearing object, an acoustic processing system, an acoustic processing device, an acoustic processing method, and a program by which reverberation is obtained by a simple structure.SOLUTION: An acoustic means built-in wearing object includes a microphone 1a(1b) that is audio input means that is provided on a hat 20 that is a wearing object hat worn on the user's upper body or head and converts input sound of an instrument played by a user and input voice of the user into an electric signal, an interface that is provided on a wearing object and is allowed to be connected to external reverberation means, and a left speaker 3L and a right speaker 3R that are audio output means that converts a reverberation signal that has been subject to reverberation processing by the reverberation means into audio and outputs the converted audio.SELECTED DRAWING: Figure 5

Description

本発明は、音響手段内蔵着用物、音響処理システム、音響処理装置、音響処理方法、及びプログラムに関する。   The present invention relates to a wearable with built-in acoustic means, an acoustic processing system, an acoustic processing apparatus, an acoustic processing method, and a program.

音楽家が練習したり演奏をしたりする際、楽音には響きや余韻が必要であるが、声や管楽器等には響きや余韻がなく、一般住宅の狭い部屋内では艶の無い音になってしまい気持ち良いものではない。
このような課題を解決するため、種々の提案がなされている。例えば、あたかもコンサートホールで演奏や独唱している雰囲気を得るための設備や装置が開発されている(例えば、特許文献1参照。)
When a musician is practicing or performing, the musical sound needs reverberation and reverberation, but there is no reverberation or reverberation in the voice or wind instruments, and the sound becomes dull in a small room in a general house. It ’s not good.
In order to solve such problems, various proposals have been made. For example, equipment and devices have been developed to obtain an atmosphere in which a performance or solo performance is performed in a concert hall (see, for example, Patent Document 1).

特許文献1に記載の発明は、室内音響生成装置に関するものであり、具体的には、部屋内で発生される音に基づいて間接音を含む室内音響を生成する室内音響生成装置であって、部屋内の上部で互いに離間した位置に外向きにそれぞれ設けられた複数の第1のスピーカと、部屋内において複数の第1のスピーカより下方で且つ床面より上方で互いに離間した位置に内向きにそれぞれ設けられた複数の第2のスピーカであって、複数の第1のスピーカとそれぞれ組をなし、各組毎に第1のスピーカに第2のスピーカを逆位相となるように接続したものと、部屋内において前後左右の壁面、天井面及び床面のうちの1又は複数の面あるいは稜線上に互いに離間して音を受取るべく設けられた複数のマイクロフォンと、複数の第1及び第2のスピーカが構成する複数の組にそれぞれ対応し且つ複数のマイクロフォンにそれぞれ対応する複数の信号処理チャンネルを有する処理手段であって、各信号処理チャンネルが対応するマイクロフォンからの音信号に基づいて間接音信号を形成して対応する組の第1及び第2のスピーカに供給するものを備え、複数の組の第1及び第2のスピーカを介して室内音響を生成するものである。   The invention described in Patent Literature 1 relates to a room sound generation device, specifically, a room sound generation device that generates room sound including indirect sound based on sound generated in a room, A plurality of first speakers respectively provided outward in positions spaced apart from each other in the upper part of the room, and inward in positions separated from each other below the plurality of first speakers and above the floor surface in the room A plurality of second speakers provided in each of which a pair is formed with each of the plurality of first speakers, and the second speaker is connected to the first speaker in each phase so as to have an opposite phase. And a plurality of microphones provided to receive sound spaced apart from each other on one or more of the front, rear, left and right wall surfaces, the ceiling surface and the floor surface or the ridge line in the room, and the plurality of first and second The speed of Is a processing means having a plurality of signal processing channels respectively corresponding to a plurality of sets and each of a plurality of microphones, and each signal processing channel generates an indirect sound signal based on a sound signal from a corresponding microphone. It has what is formed and supplied to the 1st and 2nd speaker of a corresponding group, and generates room sound via a plurality of 1st and 2nd speakers of a group.

特開2006−133262号公報JP 2006-133262 A

しかしながら、特許文献1に記載の発明を実現するためには、市販のスピーカ、エフェクター、アンプ、マイク、機器を組み合わせる必要があり、大掛かりでセッティングも大変であり、専門知識を必要とする。   However, in order to realize the invention described in Patent Document 1, it is necessary to combine commercially available speakers, effectors, amplifiers, microphones, and devices, and the setting is large and difficult, requiring specialized knowledge.

そこで、本発明の目的は、簡単な構成で響きや余韻が得られる音響手段内蔵着用物、音響処理システム、音響処理装置、音響処理方法、及びプログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a wearer with built-in acoustic means, a sound processing system, a sound processing device, a sound processing method, and a program that can obtain a sound and a reverberation with a simple configuration.

上記課題を解決するため、請求項1記載の発明は、ユーザーの上半身もしくは頭部に着用される着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、前記着用物に設けられ、外部の残響手段と接続可能なインターフェイスと、前記残響手段によって残響処理された残響信号を音声に変換して出力する音声出力手段と、を備えたことを特徴とする。   In order to solve the above-mentioned problems, the invention according to claim 1 is provided on a wearer worn on an upper body or a head of a user, and inputs the sound of the musical instrument played by the user or the voice of the user into an electric signal. A voice input means for converting; an interface provided on the wearable object and connectable to an external reverberation means; and a voice output means for converting the reverberation signal processed by the reverberation means into a voice and outputting it. It is characterized by that.

請求項2記載の発明は、請求項1に記載の構成に加え、前記着用物は、ハット、ベスト、もしくは開放型ヘッドホンであることを特徴とする。   The invention described in claim 2 is characterized in that, in addition to the configuration described in claim 1, the wearable item is a hat, a vest, or an open-type headphone.

請求項3記載の発明は、ユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、前記音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、を備えたことを特徴とする。   The invention according to claim 3 is provided on a wearer worn on the upper body or head of the user, voice input means for inputting the sound of the instrument played by the user and the voice of the user and converting it into an electrical signal; Reverberation means for performing a reverberation process on the electrical signal from the sound input means and outputting a reverberation signal; and sound output means for converting the reverberation signal from the reverberation means into sound and outputting the sound. It is characterized by having.

請求項4記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物がハットであって、前記音声入力手段が前記ハットのつばの前縁に内蔵されたマイクロフォンであって、前記音声出力手段が前記つばの前記ユーザーの耳の近傍に位置するように内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカに有線もしくは無線で接続された携帯端末装置であることを特徴とする。   The invention according to claim 4 is a microphone in addition to the configuration according to claim 3, wherein the user's wear is a hat, and the voice input means is built in the front edge of the collar of the hat, The voice output means is a built-in speaker so as to be positioned near the user's ear of the collar, and the reverberation means is a portable terminal device connected to the microphone and the speaker by wire or wirelessly. It is characterized by.

請求項5記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物がベストであって、前記音声出力手段が前記ベストの肩部に内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカに有線もしくは無線で接続された携帯端末装置であって、前記音声入力手段が前記携帯端末に内蔵もしくは前記携帯端末と前記スピーカとを接続するコードに設けられたマイクロフォンであることを特徴とする。   According to a fifth aspect of the present invention, in addition to the configuration of the third aspect, the user's wear is a vest, and the audio output means is a speaker built in a shoulder portion of the vest, and the reverberation The means is a portable terminal device connected to the microphone and the speaker by wire or wirelessly, and the voice input means is a microphone built in the portable terminal or provided in a cord connecting the portable terminal and the speaker. It is characterized by being.

請求項6記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物が音声出力手段としての開放型ヘッドホンであって、前記音声入力手段が前記携帯端末に内蔵、前記携帯端末と前記開放型ヘッドホンとを接続するコード、もしくは前記開放型ヘッドホンから延長された支持部に設けられたマイクロフォンであって、前記残響手段が前記マイクロフォン及び前記開放型ヘッドホンに有線もしくは無線で接続された携帯端末装置であることを特徴とする。   According to a sixth aspect of the present invention, in addition to the configuration of the third aspect, the user's wear is an open-type headphone as a voice output means, and the voice input means is built in the portable terminal, and the portable terminal Or a microphone provided on a support part extended from the open type headphone, wherein the reverberation means is connected to the microphone and the open type headphone in a wired or wireless manner. It is a portable terminal device.

請求項7記載の発明は、請求項3に記載の構成に加え、前記ユーザーの着用物がハットであって、前記音声出力手段が前記ハットのつばの前記ユーザーの耳の近傍に内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカにコードで接続された携帯端末装置であって、前記音声入力手段が前記ユーザーの口から近接範囲内に位置するように前記コードの途中に設けられたマイクロフォンであることを特徴とする。   According to a seventh aspect of the present invention, in addition to the configuration of the third aspect, the user's wear is a hat, and the sound output means is a speaker built in the vicinity of the user's ear of the collar of the hat. The reverberation means is a portable terminal device connected to the microphone and the speaker by a cord, and is provided in the middle of the cord so that the voice input means is located within a proximity range from the user's mouth. It is characterized by being a microphone.

請求項8記載の発明は、ユーザーの上半身もしくは頭部に着用される着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、前記着用物に設けられ、音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、を備えたことを特徴とする。   The invention according to claim 8 is provided in a wearing thing worn on the upper body or head of the user, and voice input means for inputting the sound of the musical instrument played by the user or the voice of the user and converting it into an electrical signal; A reverberation unit that is provided in the wear and outputs a reverberation signal by performing a reverberation process on an electrical signal from the audio input unit, and a reverberation signal provided in the wear and converted from the reverberation unit to sound and outputs the sound. And an audio output means.

請求項9記載の発明は、ユーザーが奏でる楽器の音や前記ユーザーの声を前記ユーザーの上半身もしくは頭部に着用される着用物に設けられた音声入力手段で電気信号に変換し、前記電気信号を残響処理し、前記ユーザーの着用物の前記ユーザーの近接範囲内に設けられた音声出力手段から残響音を前記ユーザーに発することを特徴とする。   The invention according to claim 9 converts the sound of the musical instrument played by the user and the voice of the user into an electrical signal by voice input means provided on a wearer worn on the upper body or head of the user, The reverberation process is performed, and a reverberation sound is emitted to the user from sound output means provided in the user's proximity range of the user's wear.

請求項10記載の発明は、音響処理システムの実質的なコンピュータが、
音声入力手段にユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する手順、
残響手段に前記音声入力手段からの電気信号を残響処理して残響信号を出力する手順、
音声出力手段に前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する手順、
を実行させるためのコンピュータ読取可能なプログラムであることを特徴とする。
The invention according to claim 10 is that the substantial computer of the sound processing system comprises:
A procedure for inputting the sound of the musical instrument played by the user or the voice of the user and converting it into an electrical signal, which is provided on a wearer worn on the user's upper body or head in voice input means,
A procedure for reverberating the electrical signal from the voice input means to output a reverberation signal to the reverberation means,
A procedure for converting the reverberation signal from the reverberation means into sound and outputting the sound;
It is a computer-readable program for executing the above.

簡単な構成で響きや余韻が得られる音響処理システム、音響処理装置、及び音響処理方法の提供を実現できる。   It is possible to provide an acoustic processing system, an acoustic processing apparatus, and an acoustic processing method capable of obtaining a reverberation and a reverberation with a simple configuration.

(a)は、本発明の音響処理システムの一実施の形態に係る全体図であり、(b)は、(a)に示した音響処理システムに用いられる、本発明の音響手段付き着用物としてのハットの平面図であり、(c)は(a)に示したハットの外観斜視図である。(A) is the whole figure which concerns on one Embodiment of the acoustic processing system of this invention, (b) is used as the clothing with an acoustic means of this invention used for the acoustic processing system shown to (a). It is a top view of this hat, (c) is the external appearance perspective view of the hat shown to (a). 図1(a)に示した音響処理システムのハードウェアブロック図の一例である。It is an example of the hardware block diagram of the sound processing system shown to Fig.1 (a). 図1(a)に示した音響処理システムのソフトウェアブロック図の一例である。It is an example of the software block diagram of the sound processing system shown to Fig.1 (a). 図3に示した各種アプリ5-9bのうちのリバーブのアルゴリズムの一例である。It is an example of the reverberation algorithm among the various applications 5-9b shown in FIG. 図1(a)に示した音響処理システムをユーザーUが装着した状態でフルートFを演奏している状態を示す図である。It is a figure which shows the state which is playing the flute F in the state which the user U mounted | wore with the sound processing system shown to Fig.1 (a). 図1(a)に示した音響処理システムをユーザーUが装着した状態で独唱している状態を示す図である。It is a figure which shows the state which is singing in the state where the user U mounted | worn the sound processing system shown to Fig.1 (a). 本発明の本発明の音響処理システムの他の実施の形態に係る全体図である。It is a general view which concerns on other embodiment of the sound processing system of this invention of this invention. 図7に示したベスト30をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。It is a figure which shows the state which is playing the flute F in the state which the user U mounted | worn with the best 30 shown in FIG. 本発明の本発明の音響処理システムの他の実施の形態に係る全体図である。It is a general view which concerns on other embodiment of the sound processing system of this invention of this invention. 図9に示した開放型ヘッドホン40をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。FIG. 10 is a diagram showing a state where the flute F is being played with the user U wearing the open headphones 40 shown in FIG. 9. (a)は、本発明の音響処理システムの他の実施の形態に係る全体図であり、図11(b)は、図11(a)に示した音響処理システムに用いられるハットの平面図であり、図11(c)は図11(a)に示したハットの外観斜視図である。(A) is the whole figure concerning other embodiments of the sound processing system of the present invention, and Drawing 11 (b) is a top view of the hat used for the sound processing system shown in Drawing 11 (a). FIG. 11C is an external perspective view of the hat shown in FIG. 図11(a)に示した音響処理システムをユーザーUが装着した状態でフルートFを演奏している状態を示す図である。It is a figure which shows the state which is playing the flute F in the state which the user U mounted | wore with the sound processing system shown to Fig.11 (a). 13(a)は、本発明の音響処理装置の一実施の形態に係る全体図であり、図13(b)は、図13(a)に示した音響処理装置に用いられるハットの平面図であり、図13(c)は図11(a)に示したハットの外観斜視図である。13 (a) is an overall view according to an embodiment of the sound processing apparatus of the present invention, and FIG. 13 (b) is a plan view of a hat used in the sound processing apparatus shown in FIG. 13 (a). FIG. 13 (c) is an external perspective view of the hat shown in FIG. 11 (a). 図13(a)に示した音響処理装置500をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。It is a figure which shows the state which is playing the flute F in the state which the user U mounted | wore with the sound processing apparatus 500 shown to Fig.13 (a).

<実施形態1>
[全体構成]
図1(a)は、本発明の音響処理システムの一実施の形態に係る全体図であり、図1(b)は、(a)に示した音響処理システムに用いられる、本発明の音響手段付き着用物としてのハットの平面図であり、図1(a)に示した音響処理システムに用いられるハットの平面図であり、図1(c)は図1(a)に示したハットの外観斜視図である。
<Embodiment 1>
[overall structure]
FIG. 1A is an overall view according to an embodiment of a sound processing system of the present invention, and FIG. 1B is a sound means of the present invention used in the sound processing system shown in FIG. FIG. 2 is a plan view of a hat as an accessory, and is a plan view of the hat used in the sound processing system shown in FIG. 1A, and FIG. 1C is an external view of the hat shown in FIG. It is a perspective view.

図1(a)に示す音響処理システム100は、ユーザーの上半身もしくは頭部に着用される装着物としてのハット20に内蔵され、残響処理された音声を出力する左スピーカ3L、右スピーカ3R、及びマイクロフォン1a(1b)と、携帯端末装置(例えば、スマートホン、以下スマホと表記)2と、スマホ2と左スピーカ3L、右スピーカ3R、及びマイクロフォン1a(1b)とを接続するコード2b,20d及びインターフェイスとしてのコネクタ2c,20eと、を有するシステムである。   A sound processing system 100 shown in FIG. 1A is built in a hat 20 as an attachment worn on the upper body or head of a user, and outputs a left speaker 3L, a right speaker 3R, Cords 2b, 20d for connecting the microphone 1a (1b), the mobile terminal device (for example, a smart phone, hereinafter referred to as a smartphone) 2, the smartphone 2, the left speaker 3L, the right speaker 3R, and the microphone 1a (1b); And a connector 2c, 20e as an interface.

左スピーカ3L及び右スピーカ3Rは、ユーザーの耳の近傍に位置するようにつば20cに内蔵されている。
マイクロフォン1aは、ユーザーの口から近接範囲内に配置されたユーザーの着用物に設けられ、ユーザーが奏でる楽器の音やユーザーの声を入力して電気信号に変換する。マイクロフォン1aはモノラルタイプのマイクロフォンを示し、マイクロフォン1a(1b)はステレオタイプのマイクロフォンを示す。本実施形態では、モノラルタイプで説明するが、ステレオタイプであっても3つ以上のマイクロフォンを用いてもよい。マイクロフォン1a(1b)は、ハット20のつば(プリムとも言う)20cの前縁に内蔵されている。
The left speaker 3L and the right speaker 3R are built in the collar 20c so as to be positioned in the vicinity of the user's ear.
The microphone 1a is provided on a user's wear placed within a close range from the user's mouth, and inputs the sound of an instrument played by the user or the voice of the user and converts it into an electrical signal. The microphone 1a represents a monaural microphone, and the microphone 1a (1b) represents a stereo type microphone. In the present embodiment, the monaural type is described, but a stereo type or three or more microphones may be used. The microphone 1a (1b) is built in the front edge of the collar 20c (also referred to as prim) of the hat 20.

ハット20の20aは腰、20bはリボン、20cはつばとそれぞれ呼ばれる。ハット20は、ストローハットであるが、本発明はこれに限定されるものではなく、ソフトハット、パーラーハット、キャベリン、カンカン帽、ポークバイハット、シルクハット、マウンテンハット、ホンブルグ・ハット、山高帽子、センター・クリース、スラウチ・ハット、ガルボハット、ガウチョハット、カプリーヌ(キャプリン)、ベルジェール・ハット(ミルクメイド・ハット)、ブルトン、クローシュ(クロッシュ)、クルー・ハット(メトロ・ハット)、カウボーイハット(キャツルマン)、テンガロン・ハット、クーリー・ハット、チルバ・ハットのいずれのハットであってもよい。   20a of hat 20 is called waist, 20b is called ribbon, and 20c is called collar. The hat 20 is a straw hat, but the present invention is not limited to this, and a soft hat, a parlor hat, a caberine, a cancan hat, a pork by hat, a top hat, a mountain hat, a Homburg hat, a bowling hat, Center Crease, Slouch Hat, Garbo Hat, Gaucho Hat, Caprine (Caprin), Bergere Hat (Milk Maid Hat), Breton, Cloche (Croche), Crew Hat (Metro Hat), Cowboy Hat (Catleman) , A Tengaron hat, a Coolie hat, and a Cirba hat.

図1(b)に示すようにハット20のつば20cには腰20aを挟んで平面状の左スピーカ3Lと平面状の右スピーカ3Rが内蔵されている。平面スピーカとしては、例えば、圧電素子で振動板を振動させる圧電スピーカ、二枚の電極に印加された音声信号によって、電極に挟まれた板が振動するコンデンサスピーカ、ダイナミックスピーカが挙げられる。   As shown in FIG. 1B, a flat left speaker 3L and a flat right speaker 3R are built in the collar 20c of the hat 20 with the waist 20a interposed therebetween. Examples of the planar speaker include a piezoelectric speaker that vibrates a diaphragm with a piezoelectric element, a capacitor speaker that vibrates a plate sandwiched between electrodes by an audio signal applied to two electrodes, and a dynamic speaker.

マイクロフォン1a(1b)としては、例えば、コンデンサマイクロフォン、ダイナミックマイクロフォンが挙げられる。   Examples of the microphone 1a (1b) include a condenser microphone and a dynamic microphone.

[ハードウェア構成]
図2は、図1(a)に示した音響処理システム100のハードウェアブロック図の一例である。
スマホ2は、通信ユニット2-1、内蔵スピーカ2-2、内蔵マイクロフォン2-3、カメラ2-4、外部インターフェイス2-5、ボタン2-6、CPU(Central Processing Unit)2-7、タッチパネル2-8、ROM(Read Only Memory)2-9、RAM(Random Access Memory)2-10、HDD(Hard Disk Drive)2-11及び各種センサ2-12を有する。
タッチパネル2-8は、ディスプレイ2-8aと、タッチスクリーン2-8bとを有する。
[Hardware configuration]
FIG. 2 is an example of a hardware block diagram of the sound processing system 100 shown in FIG.
Smartphone 2 is communication unit 2-1, built-in speaker 2-2, built-in microphone 2-3, camera 2-4, external interface 2-5, button 2-6, CPU (Central Processing Unit) 2-7, touch panel 2 -8, ROM (Read Only Memory) 2-9, RAM (Random Access Memory) 2-10, HDD (Hard Disk Drive) 2-11, and various sensors 2-12.
The touch panel 2-8 includes a display 2-8a and a touch screen 2-8b.

通信ユニット2-1は、スマホ2のユーザーがインターネット接続、電話回線接続、及びメール送受信を行うためのユニットである。
内蔵スピーカ2-2は、ユーザーがスマホ2を用いて電話したり、音声ガイダンスを聞いたり、緊急地震速報等の警報音を発生したり、後述する残響アプリにより残響処理された音声を発生する装置である。
内蔵マイクロフォン2-3は、スマホ2のユーザーが音声を送信する際にユーザーの音声を電気信号に変換する装置である。
カメラ2-4は、スマホ2のユーザーが被写体を撮影するための装置であり、例えばCCD(Charge Coupled Device:電荷結合素子)カメラが挙げられる。
外部インターフェイス2-5は、スマホ2に電源、USBフラッシュメモリ、イヤホン等の外部機器やコネクタを接続するための装置である。
ボタン2-6は、スマホ2を起動/停止させるための電源ボタンである。
The communication unit 2-1 is a unit for the user of the smartphone 2 to perform Internet connection, telephone line connection, and mail transmission / reception.
The built-in speaker 2-2 is a device that allows the user to make a phone call using the smartphone 2, listen to voice guidance, generate an alarm sound such as an earthquake early warning, or generate sound that has been reverberated by a reverberation app described later. It is.
The built-in microphone 2-3 is a device that converts the user's voice into an electrical signal when the user of the smartphone 2 transmits the voice.
The camera 2-4 is a device for the user of the smartphone 2 to photograph a subject. For example, a CCD (Charge Coupled Device) camera can be mentioned.
The external interface 2-5 is a device for connecting an external device such as a power source, a USB flash memory, an earphone or a connector to the smartphone 2.
The button 2-6 is a power button for starting / stopping the smartphone 2.

CPU2-7は、制御プログラムに基づいてスマホ2を統括制御するための素子である。
タッチパネル2-8は、ユーザーがスマホ2を使用する際にタッチスクリーン2-8bでタッチ入力したり、ディスプレイ2-8aに文字や画像を表示したりする装置である。
ROM2-9は、スマホ2の制御プログラムを格納した読み出し専用メモリであり、例えばマスクROMが挙げられる。
RAM2-10は、スマホ2の制御プログラムを展開する書き換え可能なメモリであり、例えばフラッシュメモリが挙げられる。
HDD2-11は、カメラ2-4で撮影した画像やインターネットでダウンロードした、残響アプリを含むアプリケーションソフトウェア(以下、アプリと表記)や画像データ、メールの文字データ、メールに添付された画像データを格納したりする記憶装置である。HDD2-11の代わりにSSD(Solid State Drive)を用いてもよい。
各種センサ2-12は、例えば、GPS(Global Positioning System:全地球測位システム)、ジャイロセンサー(角速度センサー)等が挙げられる。
The CPU 2-7 is an element for comprehensively controlling the smartphone 2 based on the control program.
The touch panel 2-8 is a device that allows a user to perform touch input on the touch screen 2-8b when using the smartphone 2, or to display characters or images on the display 2-8a.
The ROM 2-9 is a read-only memory that stores a control program for the smartphone 2, and includes, for example, a mask ROM.
The RAM 2-10 is a rewritable memory that expands the control program of the smartphone 2, for example, a flash memory.
HDD2-11 stores images taken with camera 2-4, application software including reverberation apps (hereinafter referred to as apps), image data, email text data, and image data attached to emails downloaded over the Internet It is a storage device. An SSD (Solid State Drive) may be used instead of HDD 2-11.
Examples of the various sensors 2-12 include a GPS (Global Positioning System), a gyro sensor (angular velocity sensor), and the like.

[ソフトウェア構成]
図3は、図1(a)に示した音響処理システム100のソフトウェアブロック図の一例である。
第一音声入力手段4aは、図2のマイクロフォン1aによって実現され、第二音声入力手段4bは、図2のマイクロフォン1bによって実現される。
残響手段5は、図2のスマホ2によって実現される。残響手段5は、ユーザーの奏でる楽器もしくは音声を直接増幅した音声を含んでもよい。通信手段5-1は、図2の通信ユニット2-1によって実現され、内蔵音声出力手段5-2は、図2の内蔵スピーカ2-2によって実現され、内蔵音声入力手段5-3は、図2の内蔵マイクロフォン2-3によって実現される。
[Software configuration]
FIG. 3 is an example of a software block diagram of the sound processing system 100 shown in FIG.
The first voice input means 4a is realized by the microphone 1a of FIG. 2, and the second voice input means 4b is realized by the microphone 1b of FIG.
The reverberation means 5 is realized by the smartphone 2 shown in FIG. The reverberation means 5 may include an instrument played by the user or a sound obtained by directly amplifying the sound. The communication means 5-1 is realized by the communication unit 2-1 in FIG. 2, the built-in sound output means 5-2 is realized by the built-in speaker 2-2 in FIG. 2, and the built-in sound input means 5-3 is shown in FIG. This is realized by two built-in microphones 2-3.

撮影手段5-4は、図2のカメラ2-4によって実現され、外部信号入出力手段5-5は、図2の外部インターフェイス2-5によって実現され、電源オンオフ手段5-6は、図2のボタン2-6によって実現され、制御手段5-7は、図2のCPU2-7によって実現される。
入力表示手段5-8は、図2のタッチパネル2-8によって実現され、表示手段5-8aは、図2のディスプレイ2-8aによって実現され、入力手段5-8bは、図2のタッチスクリーン2-8bによって実現され、記憶手段5-9は図2のROM2-9、RAM2-10、及びHDD2-11によって実現される。
制御プログラム5-9aは図2のROM2-9及びRAM2-10によって実現され、各種アプリ5-9bは、図2のHDD2-11によって実現され、各種検知手段5-10は、図2の各種センサによって実現される。
The photographing means 5-4 is realized by the camera 2-4 in FIG. 2, the external signal input / output means 5-5 is realized by the external interface 2-5 in FIG. 2, and the power on / off means 5-6 is shown in FIG. The control means 5-7 is realized by the CPU 2-7 in FIG.
The input display means 5-8 is realized by the touch panel 2-8 of FIG. 2, the display means 5-8a is realized by the display 2-8a of FIG. 2, and the input means 5-8b is the touch screen 2 of FIG. The storage means 5-9 is realized by the ROM 2-9, the RAM 2-10, and the HDD 2-11 shown in FIG.
The control program 5-9a is realized by the ROM 2-9 and the RAM 2-10 in FIG. 2, the various applications 5-9b are realized by the HDD 2-11 in FIG. 2, and the various detection means 5-10 are various sensors in FIG. It is realized by.

左チャンネル音声出力手段6Lは、図2の左スピーカ3Lによって実現され、右チャンネル音声出力手段6Rは、図2の右スピーカ3Rによって実現される。   The left channel audio output means 6L is realized by the left speaker 3L in FIG. 2, and the right channel audio output means 6R is realized by the right speaker 3R in FIG.

[リバーブのアルゴリズム]
図4は、図3に示した各種アプリ5-9bのうちのリバーブのアルゴリズムの一例である。
入力7は、例えば、ユーザーの奏でる楽器の音やユーザーの声である。入力7から複数(N個)の初期反射生成(ディレーライン)8-1〜8-Nによって複数(N個)の残響音が形成される。
各残響音は、後部残響音生成(ディレー、EQ「エコライザー」、フィードバック)9-1〜9-Nによって補正され、補正された残響音はミックス(分散定位)10によって混合される。混合された残響音は左チャンネル11L及び右チャンネル11Rに分割される。残響音信号はバイノーラルであり、リバーブのアルゴリズムはスマホ2のアプリとして実装されている。
ここで、実際に実装する最適なものは、バイノーラル化(3次元音像定位)した残響を付加できるものであり、残響だけでなく、直接音もバイノーラル化(3次元音像定位)し、必要に応じてミックスする。これは、適度なバランスで3次元定位する方が良い場合もあり得るため、ミックスできるようにしてもよい。
[Reverb algorithm]
FIG. 4 is an example of a reverberation algorithm among the various applications 5-9b shown in FIG.
The input 7 is, for example, the sound of an instrument played by the user or the voice of the user. A plurality (N) of reverberant sounds are formed from the input 7 by a plurality (N) of initial reflection generation (delay lines) 8-1 to 8-N.
Each reverberation sound is corrected by rear reverberation sound generation (delay, EQ “Equalizer”, feedback) 9-1 to 9-N, and the corrected reverberation sound is mixed by a mix (dispersion localization) 10. The mixed reverberant sound is divided into a left channel 11L and a right channel 11R. The reverberation signal is binaural, and the reverb algorithm is implemented as a smartphone 2 app.
Here, the optimal implementation is one that can add binaural (3D sound localization) reverberation, and not only reverberation but also direct sound (3D sound localization), if necessary And mix. Since it may be better to perform three-dimensional localization with an appropriate balance, mixing may be performed.

[作用効果]
ここで、楽器としては、例えば、フルートやオーボエのような金管楽器が好ましい。また、ユーザーの独唱の場合も好ましい。これは、金管楽器や音声には打楽器のような響きや余韻がほとんどないため、本実施形態のシステムや装置を用いることでユーザーが奏でる楽器からの音声が直接ユーザーの耳に入ると共に、その楽器からの音声が残響処理されて得られた残響音(直接増幅された音声を含んでもよい。)がユーザーの耳に入るので、狭い室内でもあたかもコンサートホールで演奏した場合と同様の臨場感が得られる。ユーザーの独唱も同様の効果が得られる。すなわち、本実施形態によれば、簡単な構成で響きや余韻が得られる。
[Effect]
Here, for example, a brass instrument such as a flute or oboe is preferable as the instrument. It is also preferable for the user to sing alone. This is because brass instruments and voices have almost no reverberation or reverberation like percussion instruments, so the sound from the instrument played by the user by using the system or apparatus of this embodiment directly enters the user's ear and the instrument. Since the reverberant sound (which may be directly amplified sound) obtained by reverberating the sound from the sound enters the user's ears, the user feels the same realism as if he was playing in a concert hall. It is done. The same effect can be obtained by the user's solo. That is, according to the present embodiment, reverberation and reverberation can be obtained with a simple configuration.

[装着例1]
図5は、図1(a)に示した音響処理システム100をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
ユーザーUがハット20を被り、ハット20のコード20dのコネクタ20eがスマホ2にコード2b及びコネクタ2a,2cを介して接続されている。この場合、ハット20のマイクロフォン1a(1b)、左スピーカ3L、及び右スピーカ3Rは、コード20d,2b及びコネクタ20e,2c,2aを介してスマホ2に接続されている。
[Installation example 1]
FIG. 5 is a diagram illustrating a state in which the flute F is played with the user U wearing the sound processing system 100 illustrated in FIG.
A user U wears a hat 20 and a connector 20e of a cord 20d of the hat 20 is connected to the smartphone 2 via a cord 2b and connectors 2a and 2c. In this case, the microphone 1a (1b), the left speaker 3L, and the right speaker 3R of the hat 20 are connected to the smartphone 2 via the cords 20d and 2b and the connectors 20e, 2c, and 2a.

ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード20d,2b及びコネクタ20e,2c,2aを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
The sound of flute F played by the user U is input to the microphone 1a (1b) and enters the ear of the user U. The sound of the flute F input to the microphone 1a (1b) is reverberated by the reverberation application of the smartphone 2, and the reverberation signal is sent from the smartphone 2 to the left speaker 3L via the cords 20d and 2b and the connectors 20e, 2c and 2a. And enters the user U's ear from the right speaker 3R.
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.

[装着例2]
図6は、図1(a)に示した音響処理システム100をユーザーUが装着した状態で独唱している状態を示す図である。
図6に示した装着例2の図5に示した装着例1との相違点は、ユーザーUが楽器を奏でるのではなく、独唱している点である。
このような場合において、ユーザーUの声はマイクロフォン1a(1b)とユーザーUの耳に入ると共に、スマホ2で残響処理されて得られた残響音を左スピーカ3L及び右スピーカ3RからユーザーUの耳に入り、あたかもコンサートホールで独唱しているような臨場感が得られる。
尚、上述した図ではユーザーUは、ルートヴィヒ・ヴァン・ベートーヴェンの交響曲第9番ニ短調作品12を演奏もしくは独唱しているが、本発明はこれに限定されるものではない。
[Installation example 2]
FIG. 6 is a diagram illustrating a state where the user U is singing the sound processing system 100 illustrated in FIG.
The difference between the wearing example 2 shown in FIG. 6 and the wearing example 1 shown in FIG. 5 is that the user U sings instead of playing an instrument.
In such a case, the voice of the user U enters the microphone 1a (1b) and the ear of the user U, and the reverberation sound obtained by the reverberation processing by the smartphone 2 is transmitted from the left speaker 3L and the right speaker 3R to the user U's ear. Enter, and you can feel as if you are singing in a concert hall.
In addition, in the figure mentioned above, although the user U is performing or singing the symphony No. 9 D minor work 12 of Ludwig van Beethoven, this invention is not limited to this.

<実施形態2>
図7は、本発明の本発明の音響処理システムの他の実施の形態に係る全体図である。
図7に示した音響処理システム200の実施の形態の図1(a)に示した実施の形態との相違点は、装着物としてベストに適用した点である。
図7に示す音響処理システム200は、ベスト30aの左肩部に左スピーカ3Lが設けられ、ベスト本体30aの右肩部に右スピーカ3Rが設けられ、ベスト本体30aの左胸部にマイクロフォン1a(1b)が設けられている。左スピーカ3L、右スピーカ3R、及びマイクロフォン1a(1b)はコード30b及びコネクタ30cを介してスマホ2に接続されるようになっている。
ベスト30a、左スピーカ3L、右スピーカ3R、マイクロフォン1a(1b)、コード30b、及びインターフェイスとしてのコネクタ30cで音響手段付き着用物が構成されている。
尚、図ではマイクロフォン1a(1b)がベスト30に設けられているが、本発明は、これに限定されるものではなく、ベスト30に左スピーカ3L、及び右スピーカ3Rを設け、スマホ2の内蔵マイクロフォン2-3(図2参照)を用いてもよい。
<Embodiment 2>
FIG. 7 is an overall view according to another embodiment of the sound processing system of the present invention.
The difference between the embodiment of the sound processing system 200 shown in FIG. 7 and the embodiment shown in FIG. 1A is that it is applied to a vest as an attachment.
The acoustic processing system 200 shown in FIG. 7 is provided with a left speaker 3L on the left shoulder of the vest 30a, a right speaker 3R on the right shoulder of the vest main body 30a, and a microphone 1a (1b) on the left chest of the vest main body 30a. Is provided. The left speaker 3L, the right speaker 3R, and the microphone 1a (1b) are connected to the smartphone 2 via a cord 30b and a connector 30c.
The vest 30a, the left speaker 3L, the right speaker 3R, the microphone 1a (1b), the cord 30b, and the connector 30c as an interface constitute a wearable with acoustic means.
In the figure, the microphone 1a (1b) is provided in the vest 30. However, the present invention is not limited to this, and the left speaker 3L and the right speaker 3R are provided in the vest 30 and the smartphone 2 is built-in. A microphone 2-3 (see FIG. 2) may be used.

[装着例3]
図8は、図7に示した音響処理装置200をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
このような状態であっても、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード30b及びコネクタ30cを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
[Installation example 3]
FIG. 8 is a diagram illustrating a state in which the flute F is being played with the user U wearing the sound processing device 200 illustrated in FIG. 7.
Even in such a state, the sound of flute F played by the user U is input to the microphone 1a (1b) and enters the user U's ear. The sound of the flute F input to the microphone 1a (1b) is reverberated by the reverberation application of the smartphone 2, and the reverberation signal is transmitted from the smartphone 2 to the user from the left speaker 3L and the right speaker 3R via the cord 30b and the connector 30c. Get into U's ear.
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.

<実施形態3>
図9は、本発明の本発明の音響処理システムの他の実施の形態に係る全体図である。
図9に示した音響処理システム300の実施の形態の図1(a)に示した実施の形態との相違点は、装着物としてマイク付きの開放型ヘッドホンに適用した点である。
図9に示す音響処理システム300は、ヘッドバンド40eの両側に設けられた左スピーカ保持部40L及び右スピーカ保持部40Rと、開放型ヘッドホン40から延長された支持部40aと支持部40aの端部に設けられたマイクロフォン1a(1b)を内蔵したマイク保持部40bと、コード40cと、コネクタ30cと、スマホ2と、を有する。
左スピーカ保持部40Lは、左スピーカ3Lが内蔵され、右スピーカ保持部40Rには右スピーカ3Rが内蔵されている。
開放型ヘッドホン40の左スピーカ40L及び右スピーカ40Rのユーザーの頭部側には耳と密着しないように保持部40g,40fが設けられている。このためユーザーの耳が開放されるようになっている。
尚、音響処理手段付き着用物は、ヘッドバンド40eの両側に設けられた左スピーカ保持部40L及び右スピーカ保持部40Rと、開放型ヘッドホン40から延長された支持部40aと支持部40aの端部に設けられたマイクロフォン1a(1b)を内蔵したマイク保持部40bと、コード40cと、インターフェイスとしてのコネクタ30cとを有する。
<Embodiment 3>
FIG. 9 is an overall view according to another embodiment of the sound processing system of the present invention.
The difference between the embodiment of the sound processing system 300 shown in FIG. 9 and the embodiment shown in FIG. 1A is that it is applied to an open type headphone with a microphone as an attachment.
The sound processing system 300 shown in FIG. 9 includes a left speaker holding portion 40L and a right speaker holding portion 40R provided on both sides of the headband 40e, a support portion 40a extended from the open headphone 40, and end portions of the support portion 40a. A microphone holding unit 40b with a built-in microphone 1a (1b), a cord 40c, a connector 30c, and a smartphone 2.
The left speaker holding unit 40L includes a left speaker 3L, and the right speaker holding unit 40R includes a right speaker 3R.
Holding portions 40g and 40f are provided on the user's head side of the left speaker 40L and the right speaker 40R of the open headphone 40 so as not to be in close contact with the ear. For this reason, the user's ear is opened.
Note that the wear with acoustic processing means includes left speaker holding portion 40L and right speaker holding portion 40R provided on both sides of the headband 40e, and support portions 40a and end portions of the support portion 40a extended from the open headphones 40. A microphone holding unit 40b having a built-in microphone 1a (1b), a cord 40c, and a connector 30c as an interface.

[装着例4]
図10は、図9に示した音響処理システム300をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
このような状態であっても、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード40c及びコネクタ40dを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
[Installation example 4]
FIG. 10 is a diagram illustrating a state in which the flute F is played with the user U wearing the sound processing system 300 illustrated in FIG. 9.
Even in such a state, the sound of flute F played by the user U is input to the microphone 1a (1b) and enters the user U's ear. The sound of flute F input to the microphone 1a (1b) is reverberated by the reverberation application of the smartphone 2, and the reverberation signal is transmitted from the smartphone 2 to the user from the left speaker 3L and the right speaker 3R via the cord 40c and the connector 40d. Get into U's ear.
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.

<実施形態4>
図11(a)は、本発明の音響処理システムの他の実施の形態に係る全体図であり、図11(b)は、図11(a)に示した音響処理システムに用いられるハットの平面図であり、図11(c)は図11(a)に示したハットの外観斜視図である。
<Embodiment 4>
FIG. 11A is an overall view according to another embodiment of the sound processing system of the present invention, and FIG. 11B is a plan view of a hat used in the sound processing system shown in FIG. FIG. 11 (c) is an external perspective view of the hat shown in FIG. 11 (a).

図11(a)に示した音響処理システム400の図1(a)に実施の形態との相違点は、音声入力手段がユーザーの口から近接範囲内に位置するようにコードの途中に設けられたマイクロフォン(イヤホンマイク)である点である。
図11(a)に示す音響処理システム400は、ユーザーの装着物としてのハット20に内蔵された左スピーカ3L及び右スピーカ3Rと、スマホ2と、スマホ2と左スピーカ3L右スピーカ3Rとをコネクタ20e,2c,2aを介して接続するコード20d,2bのうちコード2bの途中に設けられたマイクロフォン1a(1b)を保持する保持部2dとを有する。
The difference between the acoustic processing system 400 shown in FIG. 11A and the embodiment shown in FIG. 1A is that the voice input means is provided in the middle of the cord so that the voice input means is located within the proximity range from the user's mouth. It is a point that it is a microphone (earphone microphone).
The acoustic processing system 400 shown in FIG. 11A is a connector for connecting a left speaker 3L and a right speaker 3R, a smartphone 2, a smartphone 2, a left speaker 3L, and a right speaker 3R built in a hat 20 as a user's wearing object. Of the cords 20d, 2b connected via 20e, 2c, 2a, a holding portion 2d for holding a microphone 1a (1b) provided in the middle of the cord 2b.

[装着例5]
図12は、図11(a)に示した音響処理システム400をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
このような状態であっても、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、コード2b,20d及びコネクタ2a,2c,20eを介して左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
[Installation example 5]
FIG. 12 is a diagram showing a state where the flute F is being played with the user U wearing the sound processing system 400 shown in FIG.
Even in such a state, the sound of flute F played by the user U is input to the microphone 1a (1b) and enters the user U's ear. The sound of the flute F input to the microphone 1a (1b) is reverberated by the reverberation application of the smartphone 2, and the reverberation signal is sent from the smartphone 2 to the left speaker 3L via the cords 2b, 20d and the connectors 2a, 2c, 20e. And enters the user U's ear from the right speaker 3R.
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.

<実施形態5>
図13(a)は、本発明の音響処理装置の一実施の形態に係る全体図であり、図13(b)は、図13(a)に示した音響処理装置に用いられるハットの平面図であり、図13(c)は図11(a)に示したハットの外観斜視図である。
図13(a)に示した音響処理装置500の形態の図1(a)に実施の形態との相違点は、ハット20に左スピーカ3Lと、右スピーカ3Rと、マイクロフォン1a(1b)と、スマホ2と、が一体的に形成されている点である。
<Embodiment 5>
FIG. 13A is an overall view according to an embodiment of the sound processing apparatus of the present invention, and FIG. 13B is a plan view of a hat used in the sound processing apparatus shown in FIG. FIG. 13 (c) is an external perspective view of the hat shown in FIG. 11 (a).
The difference between the acoustic processing apparatus 500 shown in FIG. 13A and the embodiment shown in FIG. 1A is that the hat 20 has a left speaker 3L, a right speaker 3R, a microphone 1a (1b), The smartphone 2 is integrally formed.

[装着例6]
図14は、図13(a)に示した音響処理装置500をユーザーUが装着した状態でフルートFを演奏している状態を示す図である。
ユーザーUがハット20を被り、スマホ2のボタン2-6を押すだけでよい。コードやコネクタの接続は既に完了しているためである。
[Installation example 6]
FIG. 14 is a diagram illustrating a state in which the flute F is played with the user U wearing the sound processing device 500 illustrated in FIG.
User U only wears hat 20 and presses button 2-6 on smartphone 2. This is because the connection of cords and connectors has already been completed.

このような状態で、ユーザーUの奏でるフルートFの音声はマイクロフォン1a(1b)に入力されると共にユーザーUの耳に入る。マイクロフォン1a(1b)に入力されたフルートFの音声はスマホ2の残響用のアプリによって残響処理され、残響信号をスマホ2から、左スピーカ3L及び右スピーカ3RからユーザーUの耳に入る。
この結果、ユーザーUは6畳程度の室内であってもあたかもコンサートホールで演奏したような臨場感が得られる。
In such a state, the sound of the flute F played by the user U is input to the microphone 1a (1b) and enters the user U's ear. The sound of the flute F input to the microphone 1a (1b) is reverberated by the reverberation application of the smartphone 2, and the reverberation signal enters the ear of the user U from the smartphone 2 and from the left speaker 3L and the right speaker 3R.
As a result, the user U can feel as if he / she played in a concert hall even in a room of about 6 tatami mats.

<プログラム>
以上で説明した本発明に係る音響処理システムは、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばスマホに内蔵されているCPU、ROM、RAMが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明の機能を実現する場合の説明を以下で行う。
<Program>
The sound processing system according to the present invention described above is realized by a program that causes a computer to execute processing. Examples of the computer include a CPU, ROM, and RAM built in the smartphone, but the present invention is not limited to this. Therefore, as an example, a case where the function of the present invention is realized by a program will be described below.

例えば、
音響処理システムの実質的なコンピュータが、
音声入力手段にユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する手順、
残響手段に前記音声入力手段からの電気信号を残響処理して残響信号を出力する手順、
音声出力手段に前記着用物に設けられ、前記残響手段からの残響信号のみを音声に変換して出力する手順、
を実行させるためのコンピュータ読取可能なプログラムが挙げられる。
For example,
The substantial computer of the sound processing system
A procedure for inputting the sound of the musical instrument played by the user or the voice of the user and converting it into an electrical signal, which is provided on a wearer worn on the user's upper body or head in voice input means,
A procedure for reverberating the electrical signal from the voice input means to output a reverberation signal to the reverberation means,
A procedure for converting the reverberation signal from the reverberation means into sound and outputting the sound;
A computer-readable program for executing

このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。   Such a program may be stored in a computer-readable storage medium.

<記憶媒体>
ここで、記憶媒体としては、例えばCD-ROM、フレキシブルディスク(FD)、CD-R等のコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM、ROM、FeRAM等の半導体メモリやHDDが挙げられる。
<Storage medium>
Here, examples of the storage medium include computer-readable storage media such as CD-ROM, flexible disk (FD), and CD-R, semiconductor memories such as flash memory, RAM, ROM, and FeRAM, and HDD.

CD-ROMは、Compact Disc Read Only Memoryの略である。フレキシブルディスクは、Flexible Disk:FDを意味する。CD-Rは、CD Recordableの略である。FeRAMは、Ferroelectric RAMの略で、強誘電体メモリを意味する。   CD-ROM is an abbreviation for Compact Disc Read Only Memory. Flexible disk means Flexible Disk (FD). CD-R is an abbreviation for CD Recordable. FeRAM is an abbreviation for Ferroelectric RAM and means a ferroelectric memory.

尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。例えば、上述の説明では、スマホとハットとの間が有線で接続された場合にいて説明したが、本発明ではこれに限定されず、無線で接続する場合についても適用可能である。   The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there. For example, in the above description, a case has been described in which a smartphone and a hat are connected by wire, but the present invention is not limited to this, and the present invention can also be applied to a case of connecting wirelessly.

1a、1b マイクロフォン
2、200d 携帯端末装置(スマホ)
2−1 通信ユニット
2−2 内蔵スピーカ
2−3 内蔵マイクロフォン
2−4 カメラ
2−5 外部インターフェイス
2−6 ボタン
2−7 CPU
2−8 タッチパネル
2−9 ROM
2−10 RAM
2−11 HDD
2−12 各種センサ
3L 左スピーカ
3R 右スピーカ
4a 第一音声入力手段
4b 第二音声入力手段
5 残響手段
5−1 通信手段
5−2 内蔵音声出力手段
5−3 内蔵音声入力手段
5−4 撮影手段
5−5 外部信号入出力手段
5−6 電源オンオフ手段
5−7 制御手段
5−8 有力表示手段
5−9 記憶手段
5−10 各種検知手段
6L 左チャンネル音声出力手段
6R 右チャンネル音声出力手段
7 入力
8−1〜8−N 初期反射生成
9−1〜9−N 後部残響音生成
10 ミックス
11L 左チャンネル
12R 右チャンネル
20 ハット
30 ベスト
40 開放型ヘッドホン
100、200、300、400 音響処理システム
500 音響処理装置
F フルート
U ユーザー
1a, 1b Microphone 2, 200d Mobile terminal device (smartphone)
2-1 Communication unit 2-2 Built-in speaker 2-3 Built-in microphone 2-4 Camera 2-5 External interface 2-6 Button 2-7 CPU
2-8 Touch panel 2-9 ROM
2-10 RAM
2-11 HDD
2-12 Various sensors 3L Left speaker 3R Right speaker 4a First sound input means 4b Second sound input means 5 Reverberation means 5-1 Communication means 5-2 Built-in sound output means 5-3 Built-in sound input means 5-4 Imaging means 5-5 External signal input / output means 5-6 Power on / off means 5-7 Control means 5-8 Powerful display means 5-9 Storage means 5-10 Various detection means 6L Left channel audio output means 6R Right channel audio output means 7 Input 8-1 to 8-N Initial reflection generation 9-1 to 9-N Rear reverberation generation 10 Mix 11L Left channel 12R Right channel 20 Hat 30 Vest 40 Open headphones 100, 200, 300, 400 Sound processing system 500 Sound processing Device F Flute U User

Claims (10)

ユーザーの上半身もしくは頭部に着用される着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、前記着用物に設けられ、外部の残響手段と接続可能なインターフェースと、前記残響手段によって残響処理された残響信号を音声に変換して出力する音声出力手段と、
を備えたことを特徴とする音響手段内蔵着用物。
Voice input means provided on the wearer worn on the user's upper body or head, and inputting the sound of the musical instrument played by the user and the voice of the user into an electrical signal; and provided on the wearer An interface connectable with the reverberation means, and a sound output means for converting the reverberation signal subjected to the reverberation processing by the reverberation means into sound and outputting it,
A wear with built-in acoustic means, characterized by comprising:
前記着用物は、ハット、ベスト、もしくは開放型ヘッドホンであることを特徴とする請求項1記載の音響手段内蔵着用物。   The said wearing thing is a hat, a vest, or an open type headphone, The wearing means with a built-in acoustic means of Claim 1 characterized by the above-mentioned. ユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、
前記音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、
前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、
を備えたことを特徴とする音響処理システム。
A voice input means that is provided on a wearer worn on the upper body or head of the user and that inputs the sound of the musical instrument played by the user or the voice of the user and converts it into an electrical signal;
Reverberation means for reverberating the electrical signal from the voice input means and outputting a reverberation signal;
Audio output means provided on the wear, for converting the reverberation signal from the reverberation means into sound and outputting the sound;
An acoustic processing system comprising:
前記ユーザーの着用物がハットであって、前記音声入力手段が前記ハットのつばの前縁に内蔵されたマイクロフォンであって、前記音声出力手段が前記つばの前記ユーザーの耳の近傍に位置するように内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカに有線もしくは無線で接続された携帯端末装置であることを特徴とする請求項3記載の音響処理システム。   The user's wear is a hat, and the voice input means is a microphone built in a front edge of the collar of the hat, and the voice output means is positioned near the user's ear of the collar. The acoustic processing system according to claim 3, wherein the reverberation unit is a portable terminal device connected to the microphone and the speaker by wire or wirelessly. 前記ユーザーの着用物がベストであって、前記音声出力手段が前記ベストの肩部に内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカに有線もしくは無線で接続された携帯端末装置であって、前記音声入力手段が前記携帯端末に内蔵もしくは前記携帯端末と前記スピーカとを接続するコードに設けられたマイクロフォンであることを特徴とする請求項3記載の音響処理システム。   A portable terminal device in which the user's wear is a vest, the audio output means is a speaker built in the shoulder of the vest, and the reverberation means is connected to the microphone and the speaker in a wired or wireless manner 4. The acoustic processing system according to claim 3, wherein the voice input means is a microphone built in the portable terminal or provided in a cord connecting the portable terminal and the speaker. 前記ユーザーの着用物が音声出力手段としての開放型ヘッドホンであって、前記音声入力手段が前記携帯端末に内蔵、前記携帯端末と前記開放型ヘッドホンとを接続するコード、もしくは前記開放型ヘッドホンから延長された支持部に設けられたマイクロフォンであって、前記残響手段が前記マイクロフォン及び前記開放型ヘッドホンに有線もしくは無線で接続された携帯端末装置であることを特徴とする請求項3記載の音響処理システム。   The user's wear is an open-type headphone as a sound output means, and the sound input means is built in the portable terminal, a cord connecting the portable terminal and the open-type headphone, or an extension from the open-type headphone 4. A sound processing system according to claim 3, wherein the reverberation means is a portable terminal device connected to the microphone and the open-type headphones by wire or wirelessly. . 前記ユーザーの着用物がハットであって、前記音声出力手段が前記ハットのつばの前記ユーザーの耳の近傍に内蔵されたスピーカであって、前記残響手段が前記マイクロフォン及び前記スピーカにコードで接続された携帯端末装置であって、前記音声入力手段が前記ユーザーの口から近接範囲内に位置するように前記コードの途中に設けられたマイクロフォンであることを特徴とする請求項3記載の音響処理システム。   The user's wear is a hat, and the sound output means is a speaker built in the vicinity of the user's ear of the hat's collar, and the reverberation means is connected to the microphone and the speaker by a cord. 4. The acoustic processing system according to claim 3, wherein the voice input means is a microphone provided in the middle of the cord so that the voice input means is located within a proximity range from the mouth of the user. . ユーザーの上半身もしくは頭部に着用される着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する音声入力手段と、
前記着用物に設けられ、音声入力手段からの電気信号を残響処理して残響信号を出力する残響手段と、
前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する音声出力手段と、
を備えたことを特徴とする音響処理装置。
A voice input means that is provided on a wearer worn on a user's upper body or head, and that inputs the sound of the musical instrument played by the user or the voice of the user and converts it into an electrical signal;
Reverberation means for reverberating the electrical signal from the voice input means and outputting a reverberation signal, provided on the wear;
Audio output means provided on the wear, for converting the reverberation signal from the reverberation means into sound and outputting the sound;
An acoustic processing apparatus comprising:
ユーザーが奏でる楽器の音や前記ユーザーの声を前記ユーザーの上半身もしくは頭部に着用される着用物に設けられた音声入力手段で電気信号に変換し、前記電気信号を残響処理し、前記ユーザーの着用物の前記ユーザーの近接範囲内に設けられた音声出力手段から残響音を前記ユーザーに発することを特徴とする音響処理方法。   The sound of the musical instrument played by the user or the voice of the user is converted into an electric signal by voice input means provided on the wearer worn on the upper body or head of the user, the electric signal is subjected to reverberation processing, A sound processing method, wherein a reverberant sound is emitted to the user from an audio output means provided in a proximity range of the wearable object to the user. 音響処理システムの実質的なコンピュータが、
音声入力手段にユーザーの上半身もしくは頭部に着用された着用物に設けられ、前記ユーザーが奏でる楽器の音や前記ユーザーの声を入力して電気信号に変換する手順、
残響手段に前記音声入力手段からの電気信号を残響処理して残響信号のみを出力する手順、
音声出力手段に前記着用物に設けられ、前記残響手段からの残響信号を音声に変換して出力する手順、
を実行させるためのコンピュータ読取可能なプログラム。
The substantial computer of the sound processing system
A procedure for inputting the sound of the musical instrument played by the user or the voice of the user and converting it into an electrical signal, which is provided on a wearer worn on the user's upper body or head in voice input means,
A procedure for reverberating the electrical signal from the voice input means and outputting only the reverberation signal to the reverberation means,
A procedure for converting the reverberation signal from the reverberation means into sound and outputting the sound;
A computer-readable program for executing the program.
JP2016215026A 2016-11-02 2016-11-02 Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program Pending JP2018074499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016215026A JP2018074499A (en) 2016-11-02 2016-11-02 Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016215026A JP2018074499A (en) 2016-11-02 2016-11-02 Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program

Publications (1)

Publication Number Publication Date
JP2018074499A true JP2018074499A (en) 2018-05-10

Family

ID=62114536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016215026A Pending JP2018074499A (en) 2016-11-02 2016-11-02 Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program

Country Status (1)

Country Link
JP (1) JP2018074499A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5741374U (en) * 1980-08-22 1982-03-05
JPS59180589U (en) * 1983-05-18 1984-12-03 株式会社ケンウッド headphone device
JPH04131095U (en) * 1991-05-21 1992-12-01 エヌ・テイ・テイ中央移動通信株式会社 earphones with microphone
JP2008539647A (en) * 2005-04-27 2008-11-13 キム,ボン−スク Remote control with echo function
JP3165019U (en) * 2009-10-16 2010-12-24 エイチティーシー コーポレーション Hat with voice playback function
JP2014230214A (en) * 2013-05-24 2014-12-08 清水建設株式会社 Body mounting type directional loudspeaker and voice transmission method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5741374U (en) * 1980-08-22 1982-03-05
JPS59180589U (en) * 1983-05-18 1984-12-03 株式会社ケンウッド headphone device
JPH04131095U (en) * 1991-05-21 1992-12-01 エヌ・テイ・テイ中央移動通信株式会社 earphones with microphone
JP2008539647A (en) * 2005-04-27 2008-11-13 キム,ボン−スク Remote control with echo function
JP3165019U (en) * 2009-10-16 2010-12-24 エイチティーシー コーポレーション Hat with voice playback function
JP2014230214A (en) * 2013-05-24 2014-12-08 清水建設株式会社 Body mounting type directional loudspeaker and voice transmission method

Similar Documents

Publication Publication Date Title
JP7003993B2 (en) Acoustic output device
US8934654B2 (en) Non-occluded personal audio and communication system
KR101486448B1 (en) Sound transducer
US11037544B2 (en) Sound output device, sound output method, and sound output system
JP5332243B2 (en) Sound emission system
CN103155594B (en) Headphone device
JP6421120B2 (en) Binaural hearing system and method
CN103874000A (en) Hearing instrument
KR20010016136A (en) Neck-Phone
JP6668766B2 (en) Audio signal processing device
JP6526844B1 (en) Wearable speaker system
JPH06233388A (en) Hearing aid
TW536920B (en) Audio apparatus
JP2021516900A (en) Headphone speaker system with inner ear speakers and over ear speakers
JP2018074499A (en) Acoustic means built-in wearing object, acoustic processing system, acoustic processing device, acoustic processing method, and program
WO2008119122A1 (en) An acoustically transparent earphone
JP7281788B2 (en) Speaker system, sound processing device, sound processing method and program
KR101971608B1 (en) Wearable sound convertor
JP3430061B2 (en) Hearing aid
Sigismondi Personal monitor systems
KR102010248B1 (en) Wearable sound convertor and sound controlling system using thereof
CN211860528U (en) Headset and audio processing system
TW200922356A (en) Earpiece
Kondo et al. Characteristics comparison of two audio output devices for augmented audio reality
KR100675396B1 (en) Headset For Embodying A Function Of A Home theater

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170130

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201224