WO2017061368A1 - Bodily sensation control device and bodily sensation system - Google Patents

Bodily sensation control device and bodily sensation system Download PDF

Info

Publication number
WO2017061368A1
WO2017061368A1 PCT/JP2016/079267 JP2016079267W WO2017061368A1 WO 2017061368 A1 WO2017061368 A1 WO 2017061368A1 JP 2016079267 W JP2016079267 W JP 2016079267W WO 2017061368 A1 WO2017061368 A1 WO 2017061368A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensation
signal
input
acoustic signal
control data
Prior art date
Application number
PCT/JP2016/079267
Other languages
French (fr)
Japanese (ja)
Inventor
石川 博一
健文 大塚
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2017544484A priority Critical patent/JP6607952B2/en
Publication of WO2017061368A1 publication Critical patent/WO2017061368A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • FIG. 2 is a block diagram showing a functional configuration of the connection box of FIG.
  • a connection box 10 as a sensation control device includes a microcomputer 11 including a CPU (Central Processing Unit) and a memory, an acoustic signal input unit 12, a digital filter 16, and a sensation module drive signal generation. Unit 17, acoustic signal output unit 13, communication unit 14, antenna 21, and power supply unit 15 (battery).
  • CPU Central Processing Unit
  • the digital filter 16 extracts a desired frequency band from the acoustic signal or the superimposed signal in accordance with a command from the microcomputer 11.
  • the digital filter 16 is configured by, for example, a band pass filter, a low pass filter, a high pass filter, and a combination thereof. For example, when a superimposed signal is input to the acoustic signal input unit 12, sensation control data modulated to a specific frequency region within the non-audible region is extracted by a band pass filter or a high pass filter.
  • the acoustic signal output unit 13 performs D / A (Digital to Analog) conversion on the acoustic signal A / D converted by the acoustic signal input unit 12, and outputs the analog acoustic signal after the D / A conversion to the acoustic output device 53.
  • the sound output device 53 is, for example, an earphone, a headphone, a speaker, or the like.
  • the acoustic signal output unit 13 is configured to output the acoustic signal or superimposed signal input to the acoustic signal input unit 12 to the acoustic output device as it is (without performing A / D conversion and D / A conversion). Also good. Since the sensation control data is modulated in the non-audible region of the acoustic signal, even if the superimposed signal is output as it is, the acoustic output device 53 is not adversely affected.
  • the communication unit 14 generates a transmission signal by modulating the drive signal of each sensation module generated by the drive signal generation unit 17 according to a wireless communication method such as BLUETOOTH (registered trademark).
  • the generated transmission signal is transmitted to the communication unit (32 in FIG. 3) provided in the sensation apparatus 30 via the antenna 21.
  • FIG. 3 is a block diagram showing a functional configuration of the sensation apparatus shown in FIG.
  • the sensation apparatus 30 includes a microcomputer 31 including a CPU and a memory, a communication unit 32, an antenna 38, a vibrator 34, a blower 35, an air bag 36, an LED 37, and a power supply unit 33. (Battery).
  • the microcomputer 31 controls each component of the sensation device 30.
  • the communication unit 32 receives the transmission signal from the connection box 10 via the antenna 38 and demodulates the received transmission signal to reproduce the driving signal of each sensation module.
  • the microcomputer 11 detects that the acoustic signal input unit 12 and the output unit 51 of the acoustic device are connected (YES in step S105), the A / D converter built in the acoustic signal input unit 12 Thus, an input signal (acoustic signal or superimposed signal) from the output unit 51 of the acoustic device is A / D converted. Subsequently, the microcomputer 11 uses the digital filter 16 to extract a signal in a specific frequency region within the non-audible region, and determines whether or not sensation control data is included in the input signal based on the signal in the specific frequency region. (Step S110).
  • a superimposed signal is input to the acoustic signal input unit 12 (step S120A).
  • the digital filter 16 filters a specific frequency region in the input superimposed signal.
  • the drive signal generation unit 17 takes out the sensation control data by demodulating the filtered signal (step S125A).
  • the drive signal generation unit 17 generates a drive signal (vibrator drive signal, blower drive signal, LED drive signal) for driving each sensation module according to the extracted sensation control data (step S130A).
  • a drive signal (vibrator drive signal, blower drive signal, LED drive signal) for driving each sensation module according to the extracted sensation control data (step S130A).
  • Each generated drive signal is output to the corresponding sensation module of the sensation device 30 by the communication unit 14 (step S135A).
  • Each sensation module operates according to the corresponding drive signal, so that the user can feel a special sense of presence.
  • the acoustic signal output unit 13 converts the digital superimposed signal (or acoustic signal) after A / D conversion into an analog signal by performing D / A conversion, and the analog conversion is performed.
  • the superimposed signal (or acoustic signal) is output to the acoustic output device 53 (step S140A).
  • the acoustic signal output unit 13 may be configured to output the superimposed signal before A / D conversion input to the acoustic signal input unit 12 to the acoustic output device 53 as it is.
  • the driving signal generation unit 17 drives driving sensors (vibrator driving signal, blower driving signal, LED, etc.) based on the extracted acoustic signals of each band or a part of them.
  • Drive signal is generated (step S130B).
  • Each generated drive signal is output to the corresponding sensation module of the sensation device 30 by the communication unit 14 (step S135B).
  • Each sensation module operates according to the corresponding drive signal, so that the user can feel a special sense of presence.
  • the acoustic signal output unit 13 converts the digital acoustic signal after A / D conversion into an analog signal by D / A conversion, and outputs the analog converted acoustic signal as an acoustic output.
  • the data is output to the device 53 (step S140B).
  • the acoustic signal output unit 13 may be configured to output the acoustic signal before A / D conversion input to the acoustic signal input unit 12 to the acoustic output device 53 as it is.
  • step S110 of the flowchart of FIG. 4 ie, the step which determines whether sensation control data is contained in an input signal is shown.
  • the identification information (ID code: Identification Code) of the sensation module to be controlled is recorded in advance in the first silent part of each piece of music recorded on a CD, DVD, Blu-ray disc or the like. It is desirable to leave. By detecting the identification information recorded in the first silent part when each music piece is reproduced, it is possible to extract the sensation control data from the superimposed signal including the subsequent acoustic signal without delay.
  • step S110 the detailed procedure of step S110 will be described in detail with reference mainly to FIG. 2 and FIG. Since parts other than step S110 in the configuration of the sensation device 30 and the sensation control apparatus 10 and the operation of the sensation control apparatus are the same as those in the first embodiment, description thereof will not be repeated.
  • FIG. 5 is a flowchart showing a procedure for determining whether or not sensation control data is included in an input signal in the sensation control apparatus according to the second embodiment.
  • the microcomputer 11 identifies the identification information of the sensation module (for example, an ID code (Identification Code) set in advance for each sensation module) in the specific frequency region. Is included (step S220).
  • the microcomputer 11 determines that the identification information of the sensation module is not included in the specific frequency region (NO in step S230)
  • the microcomputer 11 determines that the sensation control data is not included in the input signal ( If it is determined that the identification information of the sensation module is included in the specific frequency region (YES in step S230), it is determined that the sensation control data is included in the input signal (step S240).
  • connection box sensor control device
  • 11 microcomputer 11 acoustic signal input unit
  • 13 acoustic signal output unit 14, 32 communication unit
  • 16 digital filter 16 digital filter
  • 17 drive signal generation unit 18 vibrator drive signal generation unit
  • 19 Blower drive signal generation unit 20 LED drive signal generation unit
  • 30 bodily sensation devices 30A, 30B wristbands (both bodily sensation devices), 34 vibrators, 35 blowers, 36 air bags, 37 LEDs, 50 seats, 51 sound device output units , 52 jack, 53 sound output device.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

In this bodily sensation control device (10), at least an acoustic signal is input into an input unit (12). A microcomputer (determining unit) (11) determines whether bodily sensation control data for controlling a bodily sensation appliance (30) have been input into the input unit (12) together with the acoustic signal. If bodily sensation control data have been input into the input unit (12) together with the acoustic signal, a drive signal for driving the bodily sensation appliance (30) is generated by a drive signal generating unit (17) on the basis of the bodily sensation control data, and if no bodily sensation control data have been input into the input unit together with the acoustic signal, the drive signal for driving the bodily sensation appliance (30) is generated by the drive signal generating unit (17) on the basis of the acoustic signal.

Description

体感制御装置および体感システムExperience control device and experience system
 この開示は、音響に合わせて振動、光などを出力する体感機器を制御する体感制御装置に関し、さらに、この体感制御装置と体感機器とを備えた体感システムに関する。本出願は、2015年10月9日に出願した日本特許出願である特願2015-200763号に基づく優先権を主張し、当該日本特許出願に記載された全ての記載内容を援用するものである。 This disclosure relates to a sensation control device that controls a sensation device that outputs vibration, light, or the like in accordance with sound, and further relates to a sensation system including the sensation control device and the sensation device. This application claims priority based on Japanese Patent Application No. 2015-200763 filed on Oct. 9, 2015, and incorporates all the content described in the Japanese Patent Application. .
 従来の体感機器としては、主として音楽の低音成分を機械振動(「体感音響」と称する)に変換することによって音楽の聴取者に体感させるものや、ホームシアターシステムなどで臨場感を演出するために衝撃感および振動感を映画の視聴者に体感させるものなどが知られている。 Conventional sensation devices are mainly used to convert the bass component of music into mechanical vibrations (referred to as “sensory sensation”) so that the music listener can experience it, or to create a sense of reality in a home theater system. There are known things that allow viewers to feel a feeling of vibration and vibration.
 近年では、光と連動させることによってライブコンサートなどでの演出に利用するものや、4D映画と称して、アミューズメントパークまたは映画館などで3D映像および音響に加えて、座席の前後、左右、上下への移動、振動、風、霧、香り、ストロボ、煙など五感を刺激する特殊効果を観客に与えるものなどが実現されている。 In recent years, in conjunction with light, it is used for production at live concerts, etc. In addition to 3D images and sound at amusement parks or movie theaters, called 4D movies, front and back, left and right, up and down It has realized special effects that stimulate the five senses, such as movement, vibration, wind, fog, scent, strobe, and smoke.
 特開2006-287483号公報(特許文献1)は、上記のホームシアターシステムなどで臨場感を演出するための体感音響用の信号処理回路に関する。具体的に、この文献の信号処理回路は、5.1チャンネル・サラウンドシステムの左信号、右信号、左サラウンド信号、右サラウンド信号、および低周波音効果信号を混合し、混合した信号を信号処理することによって体感音響用信号を生成する。ここで、信号処理回路は、低周波音効果信号が大きいときにのみ体感音響用信号を出力するように構成される。 Japanese Unexamined Patent Publication No. 2006-287483 (Patent Document 1) relates to a signal processing circuit for body sensation sound for producing a sense of reality in the above-mentioned home theater system. Specifically, the signal processing circuit of this document mixes the left signal, right signal, left surround signal, right surround signal, and low frequency sound effect signal of the 5.1 channel surround system, and performs signal processing on the mixed signal. By doing so, a bodily sensation sound signal is generated. Here, the signal processing circuit is configured to output the sensory sound signal only when the low frequency sound effect signal is large.
特開2006-287483号公報JP 2006-287483 A
 上記の特許文献1に記載の信号処理回路は、音響信号に基づいて自動的に体感信号が生成されるので、既存のCD(Compact Disc)またはDVD(Digital Versatile Disc)などの音楽・映像ソフトを利用する場合には便利である。しかしながら、作曲家などが自ら、音響(または音響および映像)だけでなく体感効果を含めた楽曲を創作した場合にまで、体感機器およびその制御装置を利用可能にする手段については、特許文献1では開示されていない。 The signal processing circuit described in Patent Document 1 automatically generates a bodily sensation signal based on an acoustic signal. Therefore, music / video software such as an existing CD (Compact Disc) or DVD (Digital Versatile Disc) is used. This is convenient for use. However, Patent Document 1 discloses a means for making the sensation device and its control device usable even when a composer himself creates a song that includes not only sound (or sound and video) but also a sensation effect. Not disclosed.
 この開示は、上記の問題点を考慮してなされたものであり、その目的は、楽曲だけ提供されている場合と、楽曲に合致させた体感機器の制御データが楽曲とともに提供されている場合との両方で利用可能な、体感制御装置ならびに体感システムを実現することである。 This disclosure has been made in consideration of the above-described problems, and the purpose of this disclosure is when only music is provided, and when control data of a sensation device that matches the music is provided along with the music. It is to realize a bodily sensation control device and a bodily sensation system that can be used in both cases.
 この開示は一態様として、使用者に特有の体感を与える体感モジュールを制御するための体感制御装置を提供する。この一態様の体感制御装置は、少なくとも音響信号が入力される入力部と、判定部と、駆動信号生成部とを備える。判定部は、体感モジュールを制御するための体感制御データが、音響信号とともに入力部に入力されているか否かを判定する。駆動信号生成部は、音響信号とともに体感制御データが入力部に入力されている場合に、体感制御データに基づいて体感モジュールを駆動するための駆動信号を生成し、音響信号とともに体感制御データが入力部に入力されていない場合に、音響信号に基づいて体感モジュールを駆動するための駆動信号を生成する。 This disclosure provides, as one aspect, a sensation control device for controlling a sensation module that gives a sensation specific to a user. The sensation control device according to this aspect includes at least an input unit to which an acoustic signal is input, a determination unit, and a drive signal generation unit. The determination unit determines whether or not sensation control data for controlling the sensation module is input to the input unit together with the acoustic signal. The drive signal generation unit generates a drive signal for driving the sensation module based on the sensation control data when the sensation control data is input to the input unit, and the sensation control data is input together with the sound signal. When not input to the unit, a drive signal for driving the sensation module is generated based on the acoustic signal.
 上記の一態様によれば、楽曲の楽音を示す音響データのみが入力された場合と、音響データとともに体感機器の制御データが入力された場合との両方で利用可能な体感制御装置を提供することができる。 According to the above aspect, it is possible to provide a sensation control device that can be used both when the sound data indicating the musical tone of the music is input and when the control data of the sensation device is input together with the sound data. Can do.
第1の実施形態に従う体感システムの一例を模式的に示す外観図である。It is an external view showing typically an example of a bodily sensation system according to the first embodiment. 図1の接続ボックスの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the connection box of FIG. 図1の体感機器の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the sensation apparatus of FIG. 図2の接続ボックスの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the connection box of FIG. 第2の実施形態による体感制御装置において、入力信号に体感制御データが含まれているか否かを判別する手順を示すフローチャートである。It is a flowchart which shows the procedure which discriminate | determines whether the sensation control data is contained in the input signal in the sensation control apparatus by 2nd Embodiment.
 以下、実施形態について図面を参照して詳しく説明する。なお、同一または相当する部分には同一の参照符号を付して、その説明を繰り返さない場合がある。 Hereinafter, embodiments will be described in detail with reference to the drawings. In addition, the same reference number is attached | subjected to the part which is the same or it corresponds, and the description may not be repeated.
 <第1の実施形態>
 [体感システムの一例]
 図1は、第1の実施形態に従う体感システムの一例を模式的に示す外観図である。図1では、飛行機または長距離列車などの座席で体感機器30A,30B(リストバンド)を使用する場合において、体感機器30A,30Bを制御する体感制御装置(接続ボックス10)の使用例が示されている。
<First Embodiment>
[Example of bodily sensation system]
FIG. 1 is an external view schematically showing an example of a bodily sensation system according to the first embodiment. FIG. 1 shows an example of using the sensation control device (connection box 10) for controlling the sensation devices 30A and 30B when the sensation devices 30A and 30B (wristbands) are used in a seat such as an airplane or a long-distance train. ing.
 図1(A)を参照して、飛行機などの座席50のアームレストには、通常イヤホンまたはヘッドフォンを接続するための3.5mmφのステレオ・ミニジャック52が設けられている。このジャック52からは、CDプレーヤ、DVDプレーヤ、ブルーレイ(登録商標)プレーヤなどの音響機器および/または映像機器からの音響信号、もしくはラジオ放送またはテレビ放送の音響信号が出力されている。 Referring to FIG. 1 (A), an armrest of a seat 50 such as an airplane is usually provided with a 3.5 mmφ stereo mini jack 52 for connecting an earphone or headphones. From the jack 52, an audio signal from an audio device such as a CD player, a DVD player, a Blu-ray (registered trademark) player and / or a video device, or an audio signal of a radio broadcast or a television broadcast is output.
 本実施の形態では、このジャック52から、アナログ音響信号だけでなく音響信号に合致するように作成された体感制御データも一緒に出力される場合にも使用可能な体感制御装置が提供される。この場合、体感制御データは、音響信号に影響を及ぼさないように、非可聴領域(人が聴取可能な上限の周波数である約20kHzよりも高い領域)のうちで予め定められた特定周波数領域に変調されて、変調後の体感制御データが音響信号に重畳される。以下、音響信号と、その音響信号に組込まれた変調後の体感制御データとを重畳信号と総称する。 In the present embodiment, there is provided a sensation control device that can be used when not only analog sound signals but also sensation control data created so as to match the sound signals is output from the jack 52 together. In this case, the sensation control data is in a specific frequency region that is predetermined in a non-audible region (a region higher than about 20 kHz, which is the upper limit frequency that a person can listen to) so as not to affect the acoustic signal. Modulation is performed, and the sensation control data after modulation is superimposed on the acoustic signal. Hereinafter, the acoustic signal and the sensation control data after modulation incorporated in the acoustic signal are collectively referred to as a superimposed signal.
 図1(A)に示すように、受信した重畳信号から体感制御データを取り出すために、ジャック52には、体感制御装置としての接続ボックス10が接続される。接続ボックス10は、フィルタを用いて重畳信号の特定周波数領域の信号を取り出し、取り出した信号を復調することによって体感制御データを再生する。接続ボックス10は、体感制御データに基づいて、体感機器に設けられた対応する体感モジュールを駆動するための駆動信号を生成する。生成された駆動信号は、BLUETOOTH(登録商標)などの無線通信方式を利用して、接続ボックス10から体感機器30に設けられた各体感モジュールに送信される(体感モジュールの一例については図1(B)で説明する)。 As shown in FIG. 1A, a connection box 10 as a sensation control device is connected to the jack 52 in order to extract the sensation control data from the received superimposed signal. The connection box 10 uses a filter to extract a signal in a specific frequency region of the superimposed signal, and reproduces the sensation control data by demodulating the extracted signal. The connection box 10 generates a drive signal for driving a corresponding sensation module provided in the sensation device based on the sensation control data. The generated drive signal is transmitted from the connection box 10 to each sensation module provided in the sensation device 30 using a wireless communication method such as BLUETOOTH (registered trademark) (see FIG. 1 for an example of the sensation module). B)).
 さらに、接続ボックス10は、体感制御データを含まない音響信号のみを受信した場合にも対応可能なように構成されている。この場合、接続ボックス10は、複数のフィルタによって取り出した音響信号の各周波数成分の強度に基づいて各体感モジュールを駆動するための複数の駆動信号を生成し、生成した各駆動信号を、無線通信方式を利用して体感機器に送信する。 Furthermore, the connection box 10 is configured to be able to handle a case where only an acoustic signal that does not include sensation control data is received. In this case, the connection box 10 generates a plurality of drive signals for driving each sensation module based on the intensity of each frequency component of the acoustic signal extracted by the plurality of filters, and the generated drive signals are transmitted to the wireless communication device. Send to the bodily sensation device using the method.
 上記のいずれの場合(重畳信号の受信時と音響信号のみの受信時)においても、音響信号は、接続ボックス10に設けられたステレオ・ミニジャック(不図示)などを介してイヤホンまたはヘッドフォンに出力される。なお、上記では、各体感モジュールの駆動信号は、無線通信によって体感機器に送信されるとしたが、有線通信によって体感機器に送信しても構わない。 In any of the above cases (when a superimposed signal is received or when only an acoustic signal is received), the acoustic signal is output to the earphone or headphones via a stereo mini jack (not shown) provided in the connection box 10. Is done. In the above description, the driving signal of each sensation module is transmitted to the sensation device by wireless communication, but may be transmitted to the sensation device by wired communication.
 図1(B)には、体感機器の一例が示されている。図1(B)の場合、体感機器は、使用者の両手首に装着するリストバンド30A,30Bの形態を有している。リストバンドの内部には、図1(A)の接続ボックス10と通信を行うための通信装置と、体感モジュールとして、バイブレータと、空気袋およびその空気袋を膨らませるためのブロワとが取り付けられている。バイブレータによって使用者に振動感を与えることができ、ブロワによって空気袋を膨らませることによって使用者の手首に圧力を与えることができる。さらに、リストバンド30A,30Bには、音響信号に合わせて光を出力するためのLED(Light Emitted Diode)37が体感モジュールとして取り付けられている。 FIG. 1 (B) shows an example of a bodily sensation device. In the case of FIG. 1 (B), the sensation apparatus has the form of wristbands 30A and 30B to be worn on both wrists of the user. Inside the wristband, a communication device for communicating with the connection box 10 of FIG. 1 (A), a vibrator as an experience module, and an air bag and a blower for inflating the air bag are attached. Yes. The vibrator can give a vibration to the user, and the blower can inflate the air bag to apply pressure to the user's wrist. Furthermore, LED (Light Emitted Diode) 37 for outputting light according to an acoustic signal is attached to wristbands 30A and 30B as a body sensation module.
 これらの体感モジュール(すなわち、バイブレータ、ブロワ、およびLED)の出力のオンオフは、体感制御装置としての接続ボックス10から受信した各体感モジュールの駆動信号に従って制御される。体感モジュールの出力の強弱を、音響出力の音圧レベルに応じて変化させてもよい。たとえば、音響出力の音圧レベルが大きいほど、体感モジュールの出力強度が大きくなる。 The on / off of the outputs of these sensation modules (ie, vibrator, blower, and LED) is controlled according to the drive signals of each sensation module received from the connection box 10 as the sensation control device. The output level of the sensation module may be changed according to the sound pressure level of the sound output. For example, the greater the sound pressure level of the sound output, the greater the output intensity of the sensation module.
 なお、上記の接続ボックス10によって制御される体感機器は上記のリストバンドに限定されるものではない。たとえば、リストバンドに代えて、腕、脚、足首など体の一部に巻くバンド状のもの、もしくは、背中、腰部など体の一部に押し当てるクッション状のものを用いても構わない。さらに、体感機器に取り付けられた体感モジュールも、上記のバイブレータ、ブロワ、LEDに限定されるものでない。 In addition, the sensation device controlled by the connection box 10 is not limited to the wristband. For example, instead of the wristband, a band-like thing wound around a part of the body such as an arm, a leg, or an ankle, or a cushion-like thing pressed against a part of the body such as the back or the waist may be used. Furthermore, the sensation module attached to the sensation device is not limited to the vibrator, blower, and LED.
 [接続ボックスの機能的構成]
 図2は、図1の接続ボックスの機能的構成を示すブロック図である。図2を参照して、体感制御装置としての接続ボックス10は、CPU(Central Processing Unit)およびメモリを含むマイクロコンピュータ11と、音響信号入力部12と、デジタルフィルタ16と、体感モジュールの駆動信号生成部17と、音響信号出力部13と、通信部14と、アンテナ21と、電源部15(電池)とを含む。
[Functional configuration of connection box]
FIG. 2 is a block diagram showing a functional configuration of the connection box of FIG. Referring to FIG. 2, a connection box 10 as a sensation control device includes a microcomputer 11 including a CPU (Central Processing Unit) and a memory, an acoustic signal input unit 12, a digital filter 16, and a sensation module drive signal generation. Unit 17, acoustic signal output unit 13, communication unit 14, antenna 21, and power supply unit 15 (battery).
 マイクロコンピュータ11は、接続ボックス10の各構成要素を制御する。さらに、マイクロコンピュータ11は、音響機器の出力部51からの入力信号に体感モジュールを制御するための体感制御データが含まれているかを判定する判定部として機能する。 The microcomputer 11 controls each component of the connection box 10. Furthermore, the microcomputer 11 functions as a determination unit that determines whether the input signal from the output unit 51 of the audio device includes sensation control data for controlling the sensation module.
 音響信号入力部12は、音響機器の出力部51からアナログ音響信号の入力を受ける。図1の場合には、出力部51の出力端子であるステレオ・ミニジャック52から、音響信号入力部12の入力端子であるステレオミニプラグにアナログ音響信号が入力される。前述のように、非可聴領域内の特定周波数領域に変調された体感制御データが音響信号に組込まれて入力される場合もある。音響信号入力部12は、入力された音響信号または重畳信号を、デジタル信号にA/D(Analog to Digital)変換する。デジタル変換された音響信号または重畳信号はマイクロコンピュータ11に入力される。 The acoustic signal input unit 12 receives an analog acoustic signal input from the output unit 51 of the acoustic device. In the case of FIG. 1, an analog acoustic signal is input from a stereo mini jack 52 that is an output terminal of the output unit 51 to a stereo mini plug that is an input terminal of the acoustic signal input unit 12. As described above, the sensation control data modulated in the specific frequency region within the non-audible region may be input by being incorporated into the acoustic signal. The acoustic signal input unit 12 performs A / D (Analog to Digital) conversion of the input acoustic signal or superimposed signal into a digital signal. The digitally converted acoustic signal or superimposed signal is input to the microcomputer 11.
 デジタルフィルタ16は、マイクロコンピュータ11の指令に従って、音響信号または重畳信号から所望の周波数帯域を取り出す。デジタルフィルタ16は、たとえば、バンドパスフィルタ、ローパスフィルタ、ハイパスフィルタ、およびそれらの組合わせによって構成される。たとえば、音響信号入力部12に重畳信号が入力された場合には、バンドパスフィルタまたはハイパスフィルタによって、非可聴領域内の特定周波数領域に変調された体感制御データが取り出される。音響信号入力部12に重畳信号でなく音響信号のみが入力された場合には、音響信号に基づいて各体感モジュールの駆動信号を生成するために、たとえば、音響信号の低音域、中音域、高音域がそれぞれローパスフィルタ、バンドパスフィルタ、ハイパスフィルタによって取り出される。 The digital filter 16 extracts a desired frequency band from the acoustic signal or the superimposed signal in accordance with a command from the microcomputer 11. The digital filter 16 is configured by, for example, a band pass filter, a low pass filter, a high pass filter, and a combination thereof. For example, when a superimposed signal is input to the acoustic signal input unit 12, sensation control data modulated to a specific frequency region within the non-audible region is extracted by a band pass filter or a high pass filter. When only the acoustic signal, not the superimposed signal, is input to the acoustic signal input unit 12, for example, in order to generate a driving signal for each body sensation module based on the acoustic signal, Sound ranges are extracted by a low-pass filter, a band-pass filter, and a high-pass filter, respectively.
 駆動信号生成部17は、音響信号入力部12に重畳信号(すわなち、音響信号と変調された体感制御データ)が入力された場合には、デジタルフィルタ16によって取り出された非可聴領域内の特定周波数領域の信号を復調することによって体感制御データを再生する。駆動信号生成部17は、体感制御データに基づいて各体感モジュールを駆動するための駆動信号を生成する。具体的に図2の場合には、駆動信号生成部17は、バイブレータ用の駆動信号を生成するバイブレータ駆動信号生成部18と、ブロワ用の駆動信号を生成するブロワ駆動信号生成部19と、LED用の駆動信号を生成するLED駆動信号生成部20とを含む。各体感モジュールの出力のオンオフ(さらに強弱)は、対応の駆動信号に従って制御される。 When a superimposed signal (ie, an acoustic signal and modulated sensation control data) is input to the acoustic signal input unit 12, the drive signal generation unit 17 is in the non-audible region extracted by the digital filter 16. The sensation control data is reproduced by demodulating the signal in the specific frequency region. The drive signal generator 17 generates a drive signal for driving each sensation module based on the sensation control data. Specifically, in the case of FIG. 2, the drive signal generation unit 17 includes a vibrator drive signal generation unit 18 that generates a drive signal for a vibrator, a blower drive signal generation unit 19 that generates a drive signal for a blower, and an LED And an LED drive signal generation unit 20 that generates a drive signal for use. The output of each body sensation module is controlled according to the corresponding drive signal.
 一方、駆動信号生成部17は、音響信号入力部12に重畳信号でなく音響信号のみが入力された場合には、デジタルフィルタ16によって取り出された音響信号の複数の信号成分に基づいて、各体感モジュールの駆動信号を生成する。この場合、たとえば、特許文献1に類似の方法などを用いることができる。 On the other hand, when only the acoustic signal, not the superimposed signal, is input to the acoustic signal input unit 12, the drive signal generation unit 17 detects each sensation based on a plurality of signal components of the acoustic signal extracted by the digital filter 16. Generate drive signals for the module. In this case, for example, a method similar to Patent Document 1 can be used.
 上記のデジタルフィルタ16および駆動信号生成部17は、専用のデジタル回路、たとえば、プログラム可能なFPGA(Field Programmable Gate Array)によって構成される。マイクロコンピュータ11が十分に高速の場合は、デジタルフィルタ16および駆動信号生成部17の機能もマイクロコンピュータ11によって実現してもよい。 The digital filter 16 and the drive signal generation unit 17 are configured by a dedicated digital circuit, for example, a programmable FPGA (Field Programmable Gate Array). When the microcomputer 11 is sufficiently fast, the functions of the digital filter 16 and the drive signal generation unit 17 may also be realized by the microcomputer 11.
 音響信号出力部13は、音響信号入力部12によってA/D変換された音響信号をD/A(Digital to Analog)変換し、D/A変換後のアナログの音響信号を音響出力装置53に出力する。音響出力装置53は、たとえば、イヤホン、ヘッドフォン、スピーカなどである。音響信号出力部13は、音響信号入力部12に入力された音響信号または重畳信号をそのまま(A/D変換およびD/A変換を行わずに)音響出力装置に出力するように構成されていてもよい。体感制御データは音響信号の非可聴領域に変調されているので、重畳信号をそのまま出力したとしても音響出力装置53には悪影響を及ぼさない。 The acoustic signal output unit 13 performs D / A (Digital to Analog) conversion on the acoustic signal A / D converted by the acoustic signal input unit 12, and outputs the analog acoustic signal after the D / A conversion to the acoustic output device 53. To do. The sound output device 53 is, for example, an earphone, a headphone, a speaker, or the like. The acoustic signal output unit 13 is configured to output the acoustic signal or superimposed signal input to the acoustic signal input unit 12 to the acoustic output device as it is (without performing A / D conversion and D / A conversion). Also good. Since the sensation control data is modulated in the non-audible region of the acoustic signal, even if the superimposed signal is output as it is, the acoustic output device 53 is not adversely affected.
 通信部14は、駆動信号生成部17によって生成された各体感モジュールの駆動信号を、BLUETOOTH(登録商標)などの無線通信方式に従って変調することによって送信信号を生成する。生成された送信信号は、アンテナ21を介して体感機器30に設けられた通信部(図3の32)に送信される。 The communication unit 14 generates a transmission signal by modulating the drive signal of each sensation module generated by the drive signal generation unit 17 according to a wireless communication method such as BLUETOOTH (registered trademark). The generated transmission signal is transmitted to the communication unit (32 in FIG. 3) provided in the sensation apparatus 30 via the antenna 21.
 電源部15は、電池によって接続ボックス10を構成する上記の各要素の動作に必要な電力を供給する。 The power supply unit 15 supplies power necessary for the operation of each of the above-described elements constituting the connection box 10 by a battery.
 [体感機器の機能的構成]
 図3は、図1の体感機器の機能的構成を示すブロック図である。図3を参照して、体感機器30は、CPUおよびメモリを含むマイクロコンピュータ31と、通信部32と、アンテナ38と、バイブレータ34と、ブロワ35と、空気袋36と、LED37と、電源部33(電池)とを含む。
[Functional structure of sensory equipment]
FIG. 3 is a block diagram showing a functional configuration of the sensation apparatus shown in FIG. With reference to FIG. 3, the sensation apparatus 30 includes a microcomputer 31 including a CPU and a memory, a communication unit 32, an antenna 38, a vibrator 34, a blower 35, an air bag 36, an LED 37, and a power supply unit 33. (Battery).
 マイクロコンピュータ31は、体感機器30の各構成要素を制御する。通信部32は、接続ボックス10からの送信信号を、アンテナ38を介して受信し、受信した送信信号を復調することによって各体感モジュールの駆動信号を再生する。 The microcomputer 31 controls each component of the sensation device 30. The communication unit 32 receives the transmission signal from the connection box 10 via the antenna 38 and demodulates the received transmission signal to reproduce the driving signal of each sensation module.
 各体感モジュールは、再生された対応の駆動信号に従って動作する。具体的に、バイブレータ34は、バイブレータ34用の駆動信号に従ってオンオフことによって使用者に振動感を与える。ブロワ35は、ブロワ35用の駆動信号に従って空気袋を膨らませることによって、使用者の手首に圧力を加える。LED37は、LED37用の駆動信号に従ってオンオフすることによって使用者を光によって刺激する。これらによって、使用者は、音響に合致した特有の臨場感を体感することができる。 Each sensory module operates according to the reproduced corresponding drive signal. Specifically, the vibrator 34 gives a vibration feeling to the user by being turned on and off according to the drive signal for the vibrator 34. The blower 35 applies pressure to the user's wrist by inflating the air bag according to the drive signal for the blower 35. The LED 37 stimulates the user with light by turning on and off according to the drive signal for the LED 37. Thus, the user can experience a unique sense of reality that matches the sound.
 電源部33は、電池によって体感機器30を構成する上記の各要素の動作に必要な電力を供給する。 The power supply unit 33 supplies electric power necessary for the operation of each of the above-described elements constituting the sensation device 30 with a battery.
 [接続ボックスの動作]
 図4は、図2の接続ボックスの動作を示すフローチャートである。以下、図2~図4を参照して、これまでの説明を総括して、体感制御装置としての接続ボックス10の動作を説明する。
[Operation of connection box]
FIG. 4 is a flowchart showing the operation of the connection box of FIG. Hereinafter, with reference to FIG. 2 to FIG. 4, the above description will be summarized and the operation of the connection box 10 as the sensation control device will be described.
 接続ボックス10に内蔵されたマイクロコンピュータ11は、音響信号入力部12が音響機器の出力部51に接続されているか否か(すなわち、音響信号入力部12の入力端子であるプラグが出力部51の出力端子であるジャック52に挿入されているか否か)を検出する。接続ボックス10は、音響信号入力部12と音響機器の出力部51との接続が検出されるまでの間(ステップS105でNO)、待機状態にある(ステップS100)。 The microcomputer 11 built in the connection box 10 determines whether or not the acoustic signal input unit 12 is connected to the output unit 51 of the acoustic device (that is, a plug that is an input terminal of the acoustic signal input unit 12 is connected to the output unit 51. It is detected whether or not it is inserted into the jack 52 which is an output terminal. The connection box 10 is in a standby state until the connection between the acoustic signal input unit 12 and the output unit 51 of the acoustic device is detected (NO in step S105) (step S100).
 なお、プラグがジャックに挿入されているか否かを判定する方法として種々の方法が考えられる。たとえば、プラグの各端子間のインピーダンスの変化を検出することによってジャックへの挿入を検出することができる。 Various methods can be considered as a method for determining whether or not the plug is inserted into the jack. For example, insertion into a jack can be detected by detecting a change in impedance between each terminal of the plug.
 マイクロコンピュータ11は、音響信号入力部12と音響機器の出力部51とが接続されたことを検出した場合には(ステップS105でYES)、音響信号入力部12に内蔵されたA/D変換器によって、音響機器の出力部51からの入力信号(音響信号または重畳信号)をA/D変換する。続いて、マイクロコンピュータ11は、デジタルフィルタ16によって非可聴領域内の特定周波数領域の信号を取り出し、この特定周波数領域の信号を基づいて入力信号に体感制御データが含まれているか否かを判定する(ステップS110)。 When the microcomputer 11 detects that the acoustic signal input unit 12 and the output unit 51 of the acoustic device are connected (YES in step S105), the A / D converter built in the acoustic signal input unit 12 Thus, an input signal (acoustic signal or superimposed signal) from the output unit 51 of the acoustic device is A / D converted. Subsequently, the microcomputer 11 uses the digital filter 16 to extract a signal in a specific frequency region within the non-audible region, and determines whether or not sensation control data is included in the input signal based on the signal in the specific frequency region. (Step S110).
 上記のステップS110の判定結果として、入力信号に体感制御データが含まれている場合には(すなわち、入力信号が重畳信号の場合)には(ステップS115でYES)、ステップS120AからステップS140Aまでの一連のステップが繰り返し実行される。具体的には以下のとおりである。 When the sensation control data is included in the input signal as a result of the determination in step S110 (that is, when the input signal is a superimposed signal) (YES in step S115), the process from step S120A to step S140A is performed. A series of steps is executed repeatedly. Specifically, it is as follows.
 まず、音響信号入力部12に重畳信号が入力される(ステップS120A)。デジタルフィルタ16は、入力された重畳信号のうち特定周波数領域をフィルタリングする。駆動信号生成部17は、フィルタリング後の信号を復調することによって、体感制御データを取り出す(ステップS125A)。 First, a superimposed signal is input to the acoustic signal input unit 12 (step S120A). The digital filter 16 filters a specific frequency region in the input superimposed signal. The drive signal generation unit 17 takes out the sensation control data by demodulating the filtered signal (step S125A).
 次に、駆動信号生成部17は、取り出した体感制御データに従って、各体感モジュールを駆動するための駆動信号(バイブレータ駆動信号、ブロワ駆動信号、LED駆動信号)を生成する(ステップS130A)。生成された各駆動信号は、通信部14によって体感機器30の対応する体感モジュールに出力される(ステップS135A)。対応する駆動信号に従って各体感モジュールが動作することによって、使用者に特別な臨場感を体感させることができる。 Next, the drive signal generation unit 17 generates a drive signal (vibrator drive signal, blower drive signal, LED drive signal) for driving each sensation module according to the extracted sensation control data (step S130A). Each generated drive signal is output to the corresponding sensation module of the sensation device 30 by the communication unit 14 (step S135A). Each sensation module operates according to the corresponding drive signal, so that the user can feel a special sense of presence.
 上記のステップS120A~S135Aと並行して、音響信号出力部13は、A/D変換後のデジタルの重畳信号(または音響信号)をD/A変換することによってアナログ信号に戻し、アナログ変換された重畳信号(または音響信号)を音響出力装置53に出力する(ステップS140A)。もしくは、音響信号出力部13は、音響信号入力部12に入力されたA/D変換前の重畳信号をそのまま音響出力装置53に出力するように構成されてもよい。 In parallel with the above steps S120A to S135A, the acoustic signal output unit 13 converts the digital superimposed signal (or acoustic signal) after A / D conversion into an analog signal by performing D / A conversion, and the analog conversion is performed. The superimposed signal (or acoustic signal) is output to the acoustic output device 53 (step S140A). Alternatively, the acoustic signal output unit 13 may be configured to output the superimposed signal before A / D conversion input to the acoustic signal input unit 12 to the acoustic output device 53 as it is.
 一方、ステップS110の判定結果として、入力信号に体感制御データが含まれていない場合には(すなわち、入力信号が音響信号のみの場合)には(ステップS115でNO)、ステップS120BからステップS140Bまでの一連のステップが繰り返し実行される。具体的には以下のとおりである。 On the other hand, as a result of determination in step S110, when the sensation control data is not included in the input signal (that is, when the input signal is only an acoustic signal) (NO in step S115), from step S120B to step S140B. A series of steps are repeatedly executed. Specifically, it is as follows.
 まず、音響信号入力部12に音響信号が入力される(ステップS120B)。デジタルフィルタ16は、入力された音響信号のうち複数の周波数帯域のデータを取り出す(ステップS125B)。 First, an acoustic signal is input to the acoustic signal input unit 12 (step S120B). The digital filter 16 extracts data of a plurality of frequency bands from the input acoustic signal (step S125B).
 次に、駆動信号生成部17は、取り出された各帯域の音響信号またはそのうちの一部の音響信号に基づいて、各体感モジュールを駆動するための駆動信号(バイブレータ駆動信号、ブロワ駆動信号、LED駆動信号)を生成する(ステップS130B)。生成された各駆動信号は、通信部14によって体感機器30の対応する体感モジュールに出力される(ステップS135B)。対応する駆動信号に従って各体感モジュールが動作することによって、使用者に特別な臨場感を体感させることができる。 Next, the driving signal generation unit 17 drives driving sensors (vibrator driving signal, blower driving signal, LED, etc.) based on the extracted acoustic signals of each band or a part of them. Drive signal) is generated (step S130B). Each generated drive signal is output to the corresponding sensation module of the sensation device 30 by the communication unit 14 (step S135B). Each sensation module operates according to the corresponding drive signal, so that the user can feel a special sense of presence.
 上記のステップS120B~S135Bと並行して、音響信号出力部13は、A/D変換後のデジタルの音響信号をD/A変換することによってアナログ信号に戻し、アナログ変換された音響信号を音響出力装置53に出力する(ステップS140B)。もしくは、音響信号出力部13は、音響信号入力部12に入力されたA/D変換前の音響信号をそのまま音響出力装置53に出力するように構成されてもよい。 In parallel with the above steps S120B to S135B, the acoustic signal output unit 13 converts the digital acoustic signal after A / D conversion into an analog signal by D / A conversion, and outputs the analog converted acoustic signal as an acoustic output. The data is output to the device 53 (step S140B). Alternatively, the acoustic signal output unit 13 may be configured to output the acoustic signal before A / D conversion input to the acoustic signal input unit 12 to the acoustic output device 53 as it is.
 [効果]
 上記のとおり、第1の実施形態の体感制御装置および体感システムは、楽曲の楽音を示す音響信号のみが入力された場合と、音響信号とともに体感機器の制御データが入力された場合との両方において、楽曲に合った臨場感を使用者に体感させることができる。体感機器の制御データ(体感制御データ)は、非可聴領域内の特定周波数領域内に変調された信号として音響信号に組込まれているので、音響出力装置に悪影響を与えることがなく、また、従来の記録媒体の規格および通信インターフェースの規格を変更する必要もない。
[effect]
As described above, the sensation control device and the sensation system according to the first embodiment both in the case where only the acoustic signal indicating the musical tone of the music is input and in the case where the control data of the sensation device is input together with the acoustic signal. The user can experience a sense of reality that matches the music. Since the control data of the sensation device (sensation sensation control data) is incorporated in the acoustic signal as a signal modulated in a specific frequency region in the non-audible region, there is no adverse effect on the acoustic output device. There is no need to change the recording medium standard and the communication interface standard.
 <第2の実施形態>
 第2の実施形態では、図4のフローチャートのステップS110、すなわち、入力信号に体感制御データが含まれているか否かを判定するステップのより詳細な手順が示される。
<Second Embodiment>
In 2nd Embodiment, the more detailed procedure of step S110 of the flowchart of FIG. 4, ie, the step which determines whether sensation control data is contained in an input signal is shown.
 特に第2の実施形態においては、CDまたはDVDまたはブルーレイディクスなどに記録された各楽曲の最初の無音部分に、制御すべき体感モジュールの識別情報(IDコード:Identification Code)などを予め記録しておくのが望ましい。各楽曲の再生する際に最初の無音部分に記録された識別情報を検出することによって、後続する音響信号を含む重畳信号から体感制御データを遅滞なく取り出すことが可能になる。 Particularly in the second embodiment, the identification information (ID code: Identification Code) of the sensation module to be controlled is recorded in advance in the first silent part of each piece of music recorded on a CD, DVD, Blu-ray disc or the like. It is desirable to leave. By detecting the identification information recorded in the first silent part when each music piece is reproduced, it is possible to extract the sensation control data from the superimposed signal including the subsequent acoustic signal without delay.
 以下、図2および図5を主として参照して、ステップS110の詳細な手順について詳しく説明する。体感機器30および体感制御装置10の構成、ならびに体感制御装置の動作のうちステップS110以外の部分は第1の実施形態の場合と同様であるので、説明を繰返さない。 Hereinafter, the detailed procedure of step S110 will be described in detail with reference mainly to FIG. 2 and FIG. Since parts other than step S110 in the configuration of the sensation device 30 and the sensation control apparatus 10 and the operation of the sensation control apparatus are the same as those in the first embodiment, description thereof will not be repeated.
 図5は、第2の実施形態による体感制御装置において、入力信号に体感制御データが含まれているか否かを判別する手順を示すフローチャートである。 FIG. 5 is a flowchart showing a procedure for determining whether or not sensation control data is included in an input signal in the sensation control apparatus according to the second embodiment.
 図4で説明したように、接続ボックス10に内蔵されたマイクロコンピュータ11は、音響信号入力部12が音響機器の出力部51に接続されていることを検出すると(図4のステップS105でYES)、音響信号入力部12への入力信号をA/D変換する。続いて、マイクロコンピュータ11は、デジタルフィルタ16によって、非可聴領域内で体感制御コードが割当てられた特定周波数領域をフィルタリングすることによって、この特定周波数領域に何らかの信号が含まれているか否かを判断する(図5のステップS200)。マイクロコンピュータ11は、特定周波数領域に信号が含まれていないと判断した場合には(ステップS210でNO)、入力信号に体感制御データは含まれていないと判定する(ステップS250)。 As described with reference to FIG. 4, when the microcomputer 11 incorporated in the connection box 10 detects that the acoustic signal input unit 12 is connected to the output unit 51 of the acoustic device (YES in step S105 of FIG. 4). The input signal to the acoustic signal input unit 12 is A / D converted. Subsequently, the microcomputer 11 determines whether or not any signal is included in the specific frequency region by filtering the specific frequency region to which the sensation control code is assigned in the non-audible region by the digital filter 16. (Step S200 in FIG. 5). When the microcomputer 11 determines that the signal is not included in the specific frequency region (NO in step S210), the microcomputer 11 determines that the sensation control data is not included in the input signal (step S250).
 一方、特定周波数領域に何らかの信号が含まれている場合には、マイクロコンピュータ11は、この特定周波数領域に体感モジュールの識別情報(たとえば、予め体感モジュールごとに設定されたIDコード(Identification Code))が含まれているか否かを判断する(ステップS220)。この結果、マイクロコンピュータ11は、特定周波数領域に体感モジュールの識別情報が含まれていないと判断した場合には(ステップS230でNO)、入力信号に体感制御データが含まれていないと判定し(ステップS250)、特定周波数領域に体感モジュールの識別情報が含まれていると判断した場合には(ステップS230でYES)、入力信号に体感制御データが含まれていると判定する(ステップS240)。 On the other hand, when any signal is included in the specific frequency region, the microcomputer 11 identifies the identification information of the sensation module (for example, an ID code (Identification Code) set in advance for each sensation module) in the specific frequency region. Is included (step S220). As a result, when the microcomputer 11 determines that the identification information of the sensation module is not included in the specific frequency region (NO in step S230), the microcomputer 11 determines that the sensation control data is not included in the input signal ( If it is determined that the identification information of the sensation module is included in the specific frequency region (YES in step S230), it is determined that the sensation control data is included in the input signal (step S240).
 上記の手順を実行するに際しては、CDまたはDVDなどに記録された各楽曲の最初の無音部分に、体感モジュールの識別情報を記録しておくのが望ましい。そうすると、この無音部分に記録された情報に基づいて、後続する音響信号を含む重畳信号から体感制御データを遅滞なく取り出すことが可能になる。 When executing the above procedure, it is desirable to record the identification information of the sensation module in the first silent portion of each piece of music recorded on a CD or DVD. Then, based on the information recorded in the silent part, it is possible to extract the sensation control data from the superimposed signal including the subsequent acoustic signal without delay.
 <第3の実施形態>
 第1および第2の実施形態では、音響機器の出力部51から出力される音響信号はアナログ信号であることを前提としたが、アナログ信号に代えてデジタル信号の音響信号が入力された場合に適用可能なように接続ボックス10を構成することも可能である。たとえば、HDMI(登録商標)規格のように音響信号とともに映像信号が入力信号として入力される場合にも適用可能にできる。デジタルの音響信号が入力される場合には、音響信号入力部12におけるA/D変換および音響信号出力部13におけるD/A変換は不要である。
<Third Embodiment>
In the first and second embodiments, it is assumed that the acoustic signal output from the output unit 51 of the acoustic device is an analog signal. However, when a digital acoustic signal is input instead of the analog signal, It is also possible to configure the connection box 10 to be applicable. For example, the present invention can also be applied when a video signal is input as an input signal together with an audio signal as in the HDMI (registered trademark) standard. When a digital acoustic signal is input, A / D conversion in the acoustic signal input unit 12 and D / A conversion in the acoustic signal output unit 13 are unnecessary.
 上記の場合においても、第1および第2の実施形態と同様に、体感制御データは、非可聴領域内の特定周波数領域内に変調された信号として音響信号に組込まれているのが望ましい。これによって、既存の通信インターフェースの規格を変更することなく、体感制御データを音響信号に組込むことができる。 Also in the above case, as in the first and second embodiments, the sensation control data is desirably incorporated into the acoustic signal as a signal modulated in a specific frequency region within the non-audible region. As a result, the sensation control data can be incorporated into the acoustic signal without changing the standard of the existing communication interface.
 今回開示された実施形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
 10 接続ボックス(体感制御装置)、11,31 マイクロコンピュータ、12 音響信号入力部、13 音響信号出力部、14,32 通信部、16 デジタルフィルタ、17 駆動信号生成部、18 バイブレータ駆動信号生成部、19 ブロワ駆動信号生成部、20 LED駆動信号生成部、30 体感機器、30A,30B リストバンド(体感機器)、34 バイブレータ、35 ブロワ、36 空気袋、37 LED、50 座席、51 音響機器の出力部、52 ジャック、53 音響出力装置。 10 connection box (sensory control device), 11, 31 microcomputer, 12 acoustic signal input unit, 13 acoustic signal output unit, 14, 32 communication unit, 16 digital filter, 17 drive signal generation unit, 18 vibrator drive signal generation unit, 19 Blower drive signal generation unit, 20 LED drive signal generation unit, 30 bodily sensation devices, 30A, 30B wristbands (both bodily sensation devices), 34 vibrators, 35 blowers, 36 air bags, 37 LEDs, 50 seats, 51 sound device output units , 52 jack, 53 sound output device.

Claims (5)

  1.  使用者に特有の体感を与える体感モジュールを制御するための体感制御装置であって、
     少なくとも音響信号が入力される入力部と、
     前記体感モジュールを制御するための体感制御データが、前記音響信号とともに前記入力部に入力されているか否かを判定する判定部と、
     前記音響信号とともに前記体感制御データが前記入力部に入力されている場合に、前記体感制御データに基づいて前記体感モジュールを駆動するための駆動信号を生成し、前記音響信号とともに前記体感制御データが前記入力部に入力されていない場合に、前記音響信号に基づいて前記体感モジュールを駆動するための駆動信号を生成する駆動信号生成部とを備える、体感制御装置。
    A bodily sensation control device for controlling a bodily sensation module that gives a bodily sensation to the user,
    An input unit to which at least an acoustic signal is input; and
    A determination unit that determines whether or not sensation control data for controlling the sensation module is input to the input unit together with the acoustic signal;
    When the sensory control data is input to the input unit together with the acoustic signal, a driving signal for driving the sensory module is generated based on the sensory control data, and the sensory control data is generated together with the acoustic signal. A bodily sensation control device comprising: a drive signal generation unit configured to generate a drive signal for driving the bodily sensation module based on the acoustic signal when not input to the input unit.
  2.  前記体感制御データは、非可聴領域内の特定周波数領域に変調されて前記音響信号に組込まれ、
     前記駆動信号生成部は、前記音響信号とともに前記体感制御データが前記入力部に入力されている場合に、フィルタを用いて前記特定周波数領域内の信号を取り出して復調することによって前記体感制御データを再生し、再生した前記体感制御データに従って前記駆動信号を生成する、請求項1に記載の体感制御装置。
    The sensation control data is modulated into a specific frequency region in a non-audible region and incorporated into the acoustic signal,
    The driving signal generation unit extracts the signal in the specific frequency region using a filter and demodulates the sensation control data when the sensation control data is input to the input unit together with the acoustic signal. The sensation control device according to claim 1, wherein the sensation control device generates the drive signal according to the reproduced sensation control data.
  3.  前記音響信号は、楽曲の楽音を示すものであり、前記楽曲の最初には無音部分が含まれ、前記無音部分の前記特定周波数領域には、前記体感モジュールの識別情報が組み込まれ、
     前記判定部は、フィルタを用いて前記無音部分の前記特定周波数領域を取り出すことによって、前記体感モジュールの前記識別情報を検出する、請求項2に記載の体感制御装置。
    The acoustic signal indicates a musical tone of music, and a silent part is included at the beginning of the music, and identification information of the sensation module is incorporated in the specific frequency region of the silent part,
    The sensation control device according to claim 2, wherein the determination unit detects the identification information of the sensation module by extracting the specific frequency region of the silent part using a filter.
  4.  使用者に特有の体感を与える体感モジュールが取り付けられた体感機器と、
     前記体感モジュールを制御するための体感制御装置とを備え、
     前記体感制御装置は、
     少なくとも音響信号が入力される入力部と、
     前記体感モジュールを制御するための体感制御データが、前記音響信号とともに前記入力部に入力されているか否かを判定する判定部と、
     前記音響信号とともに前記体感制御データが前記入力部に入力されている場合に、前記体感制御データに基づいて前記体感モジュールを駆動するための駆動信号を生成し、前記音響信号とともに前記体感制御データが前記入力部に入力されていない場合に、前記音響信号に基づいて前記体感モジュールを駆動するための駆動信号を生成する駆動信号生成部と、
     前記体感機器と通信可能であり、前記駆動信号を前記体感機器に送信するための通信部とを含む、体感システム。
    A sensation device with a sensation module that gives the user a unique sensation,
    A bodily sensation control device for controlling the bodily sensation module;
    The sensation control device is:
    An input unit to which at least an acoustic signal is input; and
    A determination unit that determines whether or not sensation control data for controlling the sensation module is input to the input unit together with the acoustic signal;
    When the sensory control data is input to the input unit together with the acoustic signal, a driving signal for driving the sensory module is generated based on the sensory control data, and the sensory control data is generated together with the acoustic signal. A drive signal generation unit that generates a drive signal for driving the sensory module based on the acoustic signal when not being input to the input unit;
    A bodily sensation system including a communication unit capable of communicating with the bodily sensation apparatus and transmitting the drive signal to the bodily sensation apparatus.
  5.  前記体感機器は、使用者の体の一部に巻き付けるバンドの形態を有しており、
     前記バンドには、前記体感モジュールとしてバイブレータが内部に取り付けられるとともに、別の体感モジュールとして空気袋と前記空気袋を膨らませるためのブロワとが内部に取り付けられており、
     前記バイブレータおよび前記ブロワの各々は、対応する前記駆動信号によって駆動される、請求項4に記載の体感システム。
    The sensation device has a form of a band wound around a part of the user's body,
    A vibrator is attached to the band as the sensory module, and an air bag and a blower for inflating the air bag are attached to the band as another sensory module.
    The bodily sensation system according to claim 4, wherein each of the vibrator and the blower is driven by the corresponding driving signal.
PCT/JP2016/079267 2015-10-09 2016-10-03 Bodily sensation control device and bodily sensation system WO2017061368A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017544484A JP6607952B2 (en) 2015-10-09 2016-10-03 Experience control device, experience system, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015200763 2015-10-09
JP2015-200763 2015-10-09

Publications (1)

Publication Number Publication Date
WO2017061368A1 true WO2017061368A1 (en) 2017-04-13

Family

ID=58487584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/079267 WO2017061368A1 (en) 2015-10-09 2016-10-03 Bodily sensation control device and bodily sensation system

Country Status (2)

Country Link
JP (1) JP6607952B2 (en)
WO (1) WO2017061368A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS596059Y2 (en) * 1978-11-06 1984-02-24 ボデイソニツク株式会社 sound system
JP2002232317A (en) * 2001-02-07 2002-08-16 Nippon Telegr & Teleph Corp <Ntt> Tactile communication device
JP2004081357A (en) * 2002-08-23 2004-03-18 Toshiba Eng Co Ltd Bodily feeling experiencing video/sound system
JP2004147263A (en) * 2002-10-28 2004-05-20 Sharp Corp Mobile terminal equipment
JP2012033988A (en) * 2010-07-28 2012-02-16 V-Seek Co Ltd Method for generating super deep bass sound
WO2013151155A1 (en) * 2012-04-06 2013-10-10 株式会社ニコン Data processing device and data processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619269Y2 (en) * 1984-03-02 1994-05-18 ボデイソニツク株式会社 Sensory sound device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS596059Y2 (en) * 1978-11-06 1984-02-24 ボデイソニツク株式会社 sound system
JP2002232317A (en) * 2001-02-07 2002-08-16 Nippon Telegr & Teleph Corp <Ntt> Tactile communication device
JP2004081357A (en) * 2002-08-23 2004-03-18 Toshiba Eng Co Ltd Bodily feeling experiencing video/sound system
JP2004147263A (en) * 2002-10-28 2004-05-20 Sharp Corp Mobile terminal equipment
JP2012033988A (en) * 2010-07-28 2012-02-16 V-Seek Co Ltd Method for generating super deep bass sound
WO2013151155A1 (en) * 2012-04-06 2013-10-10 株式会社ニコン Data processing device and data processing program

Also Published As

Publication number Publication date
JP6607952B2 (en) 2019-11-20
JPWO2017061368A1 (en) 2018-07-12

Similar Documents

Publication Publication Date Title
JP6351630B2 (en) Method and apparatus for reproducing an audio signal with a tactile device of an acoustic headphone
US8644967B2 (en) Vibrating footwear device and entertainment system for use therewith
CN109936790A (en) Noise-eliminating earphone and related methods including multiple vibration components
JP7012103B2 (en) Gaming peripherals with intelligent voice control
US20120057734A1 (en) Hearing Device System and Method
CN102754148A (en) Method, system and item
CN101849419B (en) Method of improving sound reproduction and listening enjoyment
TWM519370U (en) Electronic device capable of adjusting equalizer settings according to the hearing physiological condition and audio playing device
US20150049879A1 (en) Method of audio processing and audio-playing device
TWI500276B (en) Dual-mode encoder, system including same, and method for generating infra-red signals
CN102362510A (en) Sound and image reproduction system, hearing aid, and sound and image processing device
JP6607952B2 (en) Experience control device, experience system, and program
JP6456513B2 (en) Experience control device
CN108834028B (en) Audio playing system
KR101014234B1 (en) Apparatus and method for generating pulsating noise in audio device
JP4358775B2 (en) Signal processing circuit for sensory acoustic devices
JP2011239043A (en) Signal processing circuit for sensory acoustic apparatus
JP2009065239A (en) Wireless headphone apparatus
JP2012033988A (en) Method for generating super deep bass sound
TWM600510U (en) Wearable device with audio somatosensory function
WO2021243560A1 (en) Integrated auditory system and control method
KR102227253B1 (en) Earphone having alarm function in consideration of the user&#39;s hearing characteristic
US9674326B2 (en) Arrangement with a handset device, an interface unit and a hearing device
JP3237275U (en) Voice collector, voice transmitter with voice collection function, and voice recognition system
KR200314345Y1 (en) 5.1 channel headphone system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853522

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017544484

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16853522

Country of ref document: EP

Kind code of ref document: A1