JP5106664B1 - Transmission device, reception device, transmission method, reception method, communication system, communication method, and program - Google Patents

Transmission device, reception device, transmission method, reception method, communication system, communication method, and program Download PDF

Info

Publication number
JP5106664B1
JP5106664B1 JP2011178578A JP2011178578A JP5106664B1 JP 5106664 B1 JP5106664 B1 JP 5106664B1 JP 2011178578 A JP2011178578 A JP 2011178578A JP 2011178578 A JP2011178578 A JP 2011178578A JP 5106664 B1 JP5106664 B1 JP 5106664B1
Authority
JP
Japan
Prior art keywords
data
output
sound
voice
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011178578A
Other languages
Japanese (ja)
Other versions
JP2013042399A (en
Inventor
ウィルアーチェル アレンツ
ウダーナ バンダーラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2011178578A priority Critical patent/JP5106664B1/en
Application granted granted Critical
Publication of JP5106664B1 publication Critical patent/JP5106664B1/en
Publication of JP2013042399A publication Critical patent/JP2013042399A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)

Abstract

【課題】特別な通信デバイスを付加しなくても、近くにある装置同士で情報をやりとりすることのできる技術を提供すること。
【解決手段】送信装置は、送信データを取得する手段と、前記送信データが符号化されてなるPCM形式の出力音声データを出力する符号化手段と、前記出力音声データをDA変換器に変換させることにより、当該出力音声データに応じた音声をスピーカに出力させる出力手段と、を含む。受信装置は、マイクに入力される音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力手段と、前記入力音声データに基づいて前記送信データを復号する復号手段と、を含む。
【選択図】図2
Provided is a technique capable of exchanging information between nearby devices without adding a special communication device.
A transmission apparatus includes means for acquiring transmission data, encoding means for outputting output audio data in PCM format obtained by encoding the transmission data, and converting the output audio data to a DA converter. Output means for outputting a sound corresponding to the output sound data to a speaker. The receiving device includes input means for acquiring input voice data in PCM format indicating voice input to the microphone via an AD converter, and decoding means for decoding the transmission data based on the input voice data. .
[Selection] Figure 2

Description

本発明は送信装置、受信装置、送信方法、受信方法、通信システム、通信方法およびプログラムに関する。   The present invention relates to a transmission device, a reception device, a transmission method, a reception method, a communication system, a communication method, and a program.

従来、比較的近くの装置の間で情報をやりとりする際には、赤外線通信などのデバイスを用いることが多かった。例えば、従来の携帯電話機は、赤外線通信用のデバイスを介して連絡先といった情報をやりとりする機能を有するものが多い。特許文献1には、赤外線通信を用いて携帯電話間で情報の送受信を行う技術が記載されている。   Conventionally, when exchanging information between relatively close apparatuses, devices such as infrared communication are often used. For example, many conventional mobile phones have a function of exchanging information such as a contact information through a device for infrared communication. Patent Document 1 describes a technique for transmitting and receiving information between mobile phones using infrared communication.

特開平11−154916号公報JP-A-11-154916

近くにある装置の間で通信をするために赤外線通信のような特別なデバイスを用いる場合、送信側の装置および受信側の装置にそのデバイスが装備されている必要がある。例えば、近年はスマートフォンのように赤外線通信の機能を有さないものが急速に普及しており、近くにあるスマートフォン等の間で情報をやりとりすることが難しくなっている。なお、通信の方法としては無線LANなどの電波を用いることも考えられるが、通信相手を位置関係により特定することが難しいため、セキュリティや利便性の問題が生じやすい。   When a special device such as infrared communication is used to communicate between nearby devices, the device on the transmitting side and the device on the receiving side must be equipped with the device. For example, in recent years, devices such as smartphones that do not have an infrared communication function are rapidly spreading, and it is difficult to exchange information between nearby smartphones and the like. Although it is conceivable to use radio waves such as a wireless LAN as a communication method, it is difficult to specify a communication partner based on a positional relationship, so that security and convenience problems are likely to occur.

本発明は上記課題を鑑みてなされたものであって、その目的は、特別な通信デバイスを付加しなくても、近くにある装置同士で情報をやりとりすることのできる技術を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technology capable of exchanging information between nearby devices without adding a special communication device. .

上記課題を解決するために、本発明にかかる送信装置は、送信データを取得する手段と、前記送信データが符号化されてなるPCM形式の出力音声データを出力する符号化手段と、前記出力音声データをDA変換器に変換させることにより当該出力音声データに応じた音声をスピーカに出力させる出力手段と、を含むことを特徴とする。   In order to solve the above-mentioned problems, a transmitting apparatus according to the present invention includes a means for acquiring transmission data, an encoding means for outputting output audio data in PCM format obtained by encoding the transmission data, and the output audio. Output means for outputting a sound corresponding to the output sound data to a speaker by converting the data to a DA converter.

また、本発明にかかる受信装置は、マイクに入力される音声であって、送信データが符号化されてなる音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力手段と、前記入力音声データに基づいて前記送信データを復号する復号手段と、を含むことを特徴とする。   Further, the receiving device according to the present invention is an input means for acquiring, through an AD converter, PCM format input voice data indicating voice input to a microphone and indicating voice obtained by encoding transmission data; Decoding means for decoding the transmission data based on the input voice data.

また、本発明にかかる送信方法は、送信データを取得するステップと、前記送信データが符号化されてなるPCM形式の出力音声データを出力する符号化ステップと、前記出力音声データをDA変換器に変換させることにより、当該出力音声データに応じた音声をスピーカに出力させるステップと、を含むことを特徴とする。   The transmission method according to the present invention includes a step of acquiring transmission data, an encoding step of outputting output audio data in PCM format obtained by encoding the transmission data, and the output audio data to a DA converter. And a step of causing the speaker to output a sound corresponding to the output sound data by performing the conversion.

また、本発明にかかる受信方法は、マイクに入力される音声であって、送信データが符号化されてなる音声に基づいてAD変換器を介してPCM形式の入力音声データを取得する入力ステップと、前記入力音声データに基づいて前記送信データを復号する復号ステップと、を含むことを特徴とする。   According to another aspect of the present invention, there is provided a receiving method for obtaining PCM format input voice data via an AD converter based on voice input to a microphone and encoded transmission data; And a decoding step of decoding the transmission data based on the input voice data.

また、本発明にかかる送信用のプログラムは、送信データを取得する手段、前記送信データが符号化されてなるPCM形式の出力音声データを出力する符号化手段、および、前記出力音声データをDA変換器に変換させることにより当該出力音声データに応じた音声をスピーカに出力させる出力手段、としてコンピュータを機能させることを特徴とする。   The program for transmission according to the present invention includes means for acquiring transmission data, encoding means for outputting output audio data in PCM format obtained by encoding the transmission data, and DA conversion of the output audio data. The computer is caused to function as output means for outputting a sound corresponding to the output sound data to a speaker by converting the sound into a device.

また、本発明にかかる受信用のプログラムは、マイクに入力される音声であって、送信データが符号化されてなる音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力手段、および、前記入力音声データに基づいて前記送信データを復号する復号手段、としてコンピュータを機能させることを特徴とする。   Further, the reception program according to the present invention is an input means for acquiring, through an AD converter, PCM format input voice data indicating voice input to a microphone and indicating voice obtained by encoding transmission data. And a computer functioning as decoding means for decoding the transmission data based on the input voice data.

また、本発明にかかる通信システムは、上述の送信装置と受信装置を含むことを特徴とする。   A communication system according to the present invention includes the above-described transmission device and reception device.

また、本発明にかかる通信方法は、送信データを取得するステップと、前記送信データが符号化されてなるPCM形式の出力音声データを出力する符号化ステップと、前記出力音声データをDA変換器に変換させることにより、当該出力音声データに応じた音声をスピーカに出力させるステップと、前記スピーカが出力しマイクに入力される音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力ステップと、前記入力音声データに基づいて前記送信データを復号する復号ステップと、を含むことを特徴とする。   The communication method according to the present invention includes a step of acquiring transmission data, an encoding step of outputting output audio data in PCM format obtained by encoding the transmission data, and the output audio data to a DA converter. A step of causing the speaker to output a sound corresponding to the output sound data by conversion, and an input for acquiring input sound data in PCM format indicating the sound output from the speaker and input to the microphone via the AD converter And a decoding step of decoding the transmission data based on the input voice data.

本発明によれば、DA変換器の出力に応じて音を出すスピーカを含む装置と、AD変換器に音が変換された電圧信号を出力するマイクがある装置とを用いることにより、特別なデバイスを付加しなくてもそれらの装置の間で情報をやりとりすることができる。例えば、スマートフォン同士や、テレビとスマートフォンとの間などで情報をやりとりすることができる。   According to the present invention, a special device is obtained by using an apparatus including a speaker that emits sound according to the output of the DA converter and an apparatus including a microphone that outputs a voltage signal obtained by converting the sound into the AD converter. Information can be exchanged between these devices even without adding. For example, information can be exchanged between smartphones or between a TV and a smartphone.

本発明の一態様では、前記出力音声データは、非可聴周波数帯の音声を示すデータであってもよい。   In one aspect of the present invention, the output sound data may be data indicating sound in a non-audible frequency band.

本発明の一態様では、前記非可聴周波数帯は、20kHz以上であってもよい。   In one aspect of the present invention, the inaudible frequency band may be 20 kHz or more.

本発明の一態様では、受信装置は、前記入力音声データが示す音声から非可聴周波数帯の音声を抽出した抽出音声データを生成する抽出手段をさらに含み、前記復号手段は、前記抽出音声データに基づいて前記送信データを復号してもよい。   In one aspect of the present invention, the receiving device further includes extraction means for generating extracted voice data obtained by extracting a sound in a non-audible frequency band from the voice indicated by the input voice data, and the decoding means adds the extracted voice data to the extracted voice data. Based on this, the transmission data may be decoded.

本発明の一態様では、前記符号化手段は、前記出力音声データが示す音声の振幅変化を抑制するように当該出力音声データを出力してもよい。   In one aspect of the present invention, the encoding means may output the output sound data so as to suppress a change in sound amplitude indicated by the output sound data.

本発明の一態様では、前記符号化手段は、前記出力音声データが前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有する音声を示し、かつ前記各有音区間は振幅が徐増する区間および振幅が徐減する区間のうち少なくとも一方を含むように当該出力音声データを出力してもよい。   In one aspect of the present invention, the encoding means indicates the speech in which the output speech data includes a plurality of speech segments and a silent segment between adjacent speech segments according to the transmission data, and The output voice data may be output so that the voiced section includes at least one of a section where the amplitude gradually increases and a section where the amplitude gradually decreases.

本発明の一態様では、前記複数の有音期間のそれぞれの時間幅は、予め定められた所定数の時間幅のうちいずれかであってよい。   In one aspect of the present invention, a time width of each of the plurality of sound periods may be any of a predetermined number of time widths.

本発明の一態様では、前記復号手段は、前記抽出音声データが示す複数の有音区間であって、前記マイクに順に入力される複数の有音区間のそれぞれの時間の長さに基づいて前記送信データを復号してもよい。   In one aspect of the present invention, the decoding means is a plurality of sound segments indicated by the extracted speech data, and is based on the length of time of each of the plurality of sound segments input in order to the microphone. The transmission data may be decoded.

本発明の実施形態にかかる通信システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the communication system concerning embodiment of this invention. 本発明の実施形態にかかる通信システムの機能を示す機能ブロック図である。It is a functional block diagram which shows the function of the communication system concerning embodiment of this invention. 送信装置の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of a transmitter. 出力音声データが示す音声の時間推移を示す図である。It is a figure which shows the time transition of the audio | voice which output audio | speech data shows. 有音区間における波形の一例を示す図である。It is a figure which shows an example of the waveform in a sound area. 受信装置の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of a receiver. テレビのスピーカを用いてデータを送信するシステムの一例を示す図である。It is a figure which shows an example of the system which transmits data using the speaker of a television.

以下では、本発明の実施形態について図面に基づいて説明する。出現する構成要素のうち同一機能を有するものには同じ符号を付し、その説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Of the constituent elements that appear, those having the same function are given the same reference numerals, and the description thereof is omitted.

図1は、本発明の実施形態にかかる通信システムの構成の一例を示す図である。この通信システムは、送信装置1と受信装置2とを含む。送信装置1は、プロセッサ11、メモリ12、表示操作部13、DA変換器14、およびスピーカ15を含み、受信装置2は、プロセッサ21、メモリ22、表示操作部23、AD変換器24、およびマイク25を含む。送信装置1はDA変換器14を介して音声用のスピーカに音声を出力させる装置であればよく、例えばスマートフォンや携帯電話であってよい。受信装置2は音声用のマイクから入力される音声を示すデータをAD変換器24を介して取得する装置であればよく、例えばスマートフォンや携帯電話であってよい。   FIG. 1 is a diagram illustrating an example of a configuration of a communication system according to an embodiment of the present invention. This communication system includes a transmission device 1 and a reception device 2. The transmission device 1 includes a processor 11, a memory 12, a display operation unit 13, a DA converter 14, and a speaker 15. The reception device 2 includes a processor 21, a memory 22, a display operation unit 23, an AD converter 24, and a microphone. 25. The transmission device 1 may be any device that outputs audio to an audio speaker via the DA converter 14, and may be, for example, a smartphone or a mobile phone. The receiving device 2 may be a device that acquires data indicating sound input from a sound microphone via the AD converter 24, and may be, for example, a smartphone or a mobile phone.

プロセッサ11およびプロセッサ21は、それぞれメモリ12およびメモリ22に格納されているプログラムに従って動作しうる。またプロセッサ11は表示操作部13やDA変換器14を制御し、プロセッサ21は表示操作部23やAD変換器24を制御する。なお、上記プログラムは、インターネット等のネットワークを介して提供されるものであってもよいし、フラッシュメモリ等のコンピュータで読み取り可能な情報記録媒体に格納されて提供されるものであってもよい。   The processor 11 and the processor 21 can operate according to programs stored in the memory 12 and the memory 22, respectively. The processor 11 controls the display operation unit 13 and the DA converter 14, and the processor 21 controls the display operation unit 23 and the AD converter 24. The program may be provided via a network such as the Internet, or may be provided by being stored in a computer-readable information recording medium such as a flash memory.

メモリ12およびメモリ22は、RAMやフラッシュメモリ等のメモリ素子やハードディスクドライブ等によって構成されている。メモリ12およびメモリ22は、上記プログラムを格納する。また、メモリ12およびメモリ22は、各部から入力される情報や演算結果を格納する。   The memory 12 and the memory 22 are configured by memory elements such as RAM and flash memory, hard disk drives, and the like. The memory 12 and the memory 22 store the program. The memory 12 and the memory 22 store information input from each unit and calculation results.

表示操作部13および表示操作部23は、液晶表示パネル等の表示出力デバイスを制御する手段や、タッチパネルやリモコン等の入力デバイスを制御する手段などによって構成されている。表示操作部13および表示操作部23は、それぞれプロセッサ11およびプロセッサ21の制御に基づいて、画像データ等を表示出力デバイスに対して出力し、入力デバイスより操作者(ユーザ)からの情報を取得する。   The display operation unit 13 and the display operation unit 23 are configured by means for controlling a display output device such as a liquid crystal display panel, means for controlling an input device such as a touch panel and a remote control, and the like. The display operation unit 13 and the display operation unit 23 output image data and the like to the display output device based on the control of the processor 11 and the processor 21, respectively, and acquire information from the operator (user) from the input device. .

DA変換器14は、プロセッサ11の制御に基づいて、PCM形式の出力音声データを出力信号電圧に変換する。DA変換器14は、例えばΔΣ法を用いてDA変換する。またDA変換器14は、操作者による設定に応じて出力信号電圧を変換するボリューム制御の機能も有する。   The DA converter 14 converts output audio data in PCM format into an output signal voltage based on the control of the processor 11. The DA converter 14 performs DA conversion using, for example, the ΔΣ method. The DA converter 14 also has a volume control function for converting the output signal voltage according to the setting by the operator.

スピーカ15は、DA変換器14が出力する出力信号電圧に応じた音声を出力する。スピーカ15は、音声出力用のスピーカであり、もちろん可聴周波数帯の音声も出力できる。   The speaker 15 outputs sound corresponding to the output signal voltage output from the DA converter 14. The speaker 15 is a sound output speaker, and of course can output sound in an audible frequency band.

マイク25は、入力される音声を入力信号電圧に変換する。送信装置1と通信する際にはこのマイク25には、送信装置1が出力する音声が入力される。マイク25は、音声入力用のマイクであり、もちろん可聴周波数帯の音声も入力できる。   The microphone 25 converts input sound into an input signal voltage. When communicating with the transmission device 1, sound output from the transmission device 1 is input to the microphone 25. The microphone 25 is a microphone for voice input, and of course can also input audio in an audible frequency band.

AD変換器24は、プロセッサ21の制御に基づいて、入力信号電圧をPCM形式の入力音声データに変換する。AD変換器24は、例えばΔΣ法を用いてAD変換を行う。   The AD converter 24 converts the input signal voltage into PCM format input voice data based on the control of the processor 21. The AD converter 24 performs AD conversion using, for example, the ΔΣ method.

図2は、本発明の実施形態にかかる通信システムの機能を示す機能ブロック図である。送信装置1は機能的に、送信データ取得部31、符号化部32、および音声出力部33を含む。これらの機能は、プロセッサ11がメモリ12に格納されたプログラムを実行し、DA変換器14や表示操作部13等を制御することで実現される。また受信装置2は機能的に、音声入力部41、抽出部42および復号部43を含む。これらの機能は、プロセッサ21がメモリ22に格納されたプログラムを実行し、AD変換器24や表示操作部23等を制御することで実現される。   FIG. 2 is a functional block diagram showing functions of the communication system according to the embodiment of the present invention. The transmission apparatus 1 functionally includes a transmission data acquisition unit 31, an encoding unit 32, and an audio output unit 33. These functions are realized by the processor 11 executing a program stored in the memory 12 and controlling the DA converter 14, the display operation unit 13, and the like. In addition, the receiving device 2 functionally includes a voice input unit 41, an extraction unit 42, and a decoding unit 43. These functions are realized by the processor 21 executing a program stored in the memory 22 and controlling the AD converter 24, the display operation unit 23, and the like.

図3は、送信装置1の処理フローの一例を示す図である。以下ではこの処理フローに従い送信装置1が有する機能を説明する。   FIG. 3 is a diagram illustrating an example of a processing flow of the transmission device 1. Below, the function which the transmission apparatus 1 has is demonstrated according to this processing flow.

送信データ取得部31は、プロセッサ11、メモリ12、および表示操作部13を中心として実現される。送信データ取得部31は、表示操作部13を介してユーザから入力される指示に基づいて動作し、表示操作部13から入力される情報や、メモリ12に記憶された情報から送信データを取得する(ステップS101)。送信装置1がスマートフォンである場合は、送信データは、例えば所有者の電話番号やメールアドレスのような情報や、スマートフォンを識別するためのIDといった情報である。   The transmission data acquisition unit 31 is realized centering on the processor 11, the memory 12, and the display operation unit 13. The transmission data acquisition unit 31 operates based on an instruction input from the user via the display operation unit 13, and acquires transmission data from information input from the display operation unit 13 or information stored in the memory 12. (Step S101). When the transmission device 1 is a smartphone, the transmission data is information such as information such as an owner's phone number or email address, or an ID for identifying the smartphone.

符号化部32は、プロセッサ11およびメモリ12を中心として実現される。符号化部32は、送信データが符号化されてなるPCM形式の出力音声データを出力する。   The encoding unit 32 is realized centering on the processor 11 and the memory 12. The encoding unit 32 outputs output audio data in PCM format obtained by encoding transmission data.

出力音声データの形式について説明する。図4は、出力音声データが示す音声の時間推移を示す図である。出力音声データが示す音声は、出力開始を示す同期信号51と、出力終了を示す同期信号52と、時間的にみて同期信号51と同期信号52とに挟まれる複数の伝送信号区間53とからなる。これらの複数の伝送信号区間53は、送信データが変調された信号である。各伝送信号区間53は、音声が出力される有音区間であり、その出力される音声は、予め定められた2種類の音声のうち何れかである。各伝送信号区間53は、送信データを構成するビット配列のうちいずれかに対応する。ここでは、伝送信号区間53に出力される2種類の音声は、互いにその時間幅が異なる。具体的には、値が1となるビットに対応する伝送信号区間53の時間幅Tt1と、値が0となるビットに対応する伝送信号区間53の時間幅Tt0とが異なっている。本実施形態の例では、時間幅Tt1は6ms、時間幅Tt0は2msである。また、隣り合う伝送信号区間53の間には無音区間が配置され、また同期信号51,52とそれらの隣の伝送信号区間53との間にも無音区間が配置される。無音区間の時間幅Tnは10msである。なお、本実施形態では時間幅Tt1と時間幅Tt0とが異なっていれば、時間幅Tt0,Tt1,Tnの時間幅は上述のものと異なっていてもよい。   The format of the output audio data will be described. FIG. 4 is a diagram showing a time transition of the voice indicated by the output voice data. The audio indicated by the output audio data includes a synchronization signal 51 indicating the start of output, a synchronization signal 52 indicating the end of output, and a plurality of transmission signal sections 53 sandwiched between the synchronization signal 51 and the synchronization signal 52 in terms of time. . The plurality of transmission signal sections 53 are signals obtained by modulating transmission data. Each transmission signal section 53 is a voiced section in which sound is output, and the output sound is one of two types of predetermined sounds. Each transmission signal section 53 corresponds to one of the bit arrangements constituting the transmission data. Here, the two types of sound output to the transmission signal section 53 have different time widths. Specifically, the time width Tt1 of the transmission signal section 53 corresponding to a bit having a value of 1 is different from the time width Tt0 of the transmission signal section 53 corresponding to a bit having a value of 0. In the example of the present embodiment, the time width Tt1 is 6 ms and the time width Tt0 is 2 ms. Further, a silent section is arranged between adjacent transmission signal sections 53, and a silent section is also arranged between the synchronization signals 51 and 52 and the adjacent transmission signal section 53. The time interval Tn of the silent section is 10 ms. In the present embodiment, as long as the time width Tt1 and the time width Tt0 are different, the time widths of the time widths Tt0, Tt1, and Tn may be different from those described above.

次に符号化部32の処理の詳細について説明する。符号化部32は、まず出力音声データに同期信号51を示す音声データを設定し(ステップS102)、無音区間を示す音声データを追加する(ステップS103)。次に変数iに1を代入し(ステップS104)、複数の伝送信号区間53を出力音声データに追加する処理をする。   Next, details of the processing of the encoding unit 32 will be described. The encoding unit 32 first sets audio data indicating the synchronization signal 51 in the output audio data (step S102), and adds audio data indicating a silent period (step S103). Next, 1 is substituted into the variable i (step S104), and processing for adding a plurality of transmission signal sections 53 to the output audio data is performed.

符号化部32は、送信データからi番目のビットを取得する(ステップS105)。ここで、送信データは順序づけられて並ぶn個のビットの集合とみなす。次に、取得されたビットに応じた時間幅を有する有音区間を示す音声データを出力音声データに追加し(ステップS106)、さらに出力音声データに無音区間を示す音声データを追加する(ステップS107)。そして変数iの値を1増やし(ステップS108)、送信データを構成する全て(n個)のビットについて処理を行っていなければ(ステップS109のN)、ステップS105から処理を繰り返す。全てのビットについて処理を行っていれば(ステップS109のY)、出力音声データに同期信号52を示す音声データを追加する(ステップS110)。これらの処理により、符号化部32は送信データを2進数のビット列とした場合の各ビットに対応する種類の音声を順に出力する出力音声データを出力する。   The encoding unit 32 acquires the i-th bit from the transmission data (step S105). Here, the transmission data is regarded as a set of n bits arranged in order. Next, voice data indicating a voiced section having a time width corresponding to the acquired bit is added to the output voice data (step S106), and voice data indicating a silent section is further added to the output voice data (step S107). ). Then, the value of the variable i is incremented by 1 (step S108), and if all (n) bits constituting the transmission data are not processed (N in step S109), the processing is repeated from step S105. If all the bits have been processed (Y in step S109), audio data indicating the synchronization signal 52 is added to the output audio data (step S110). Through these processes, the encoding unit 32 outputs output audio data that sequentially outputs audio of the type corresponding to each bit when the transmission data is a binary bit string.

音声出力部33は、プロセッサ11、メモリ12を中心として実現される。音声出力部33は、出力音声データをDA変換器14に変換させることによりその出力音声データが示す音声をスピーカ15に出力させる。具体的には、まず音声出力部33は、出力音声データをDA変換器14に出力し(ステップS111)、DA変換器14はその出力音声データを出力信号電圧に変換する。DA変換器14から出力される出力信号電圧はスピーカ15に入力され、スピーカ15は出力信号電圧に応じた音声を出力する。   The audio output unit 33 is realized centering on the processor 11 and the memory 12. The audio output unit 33 converts the output audio data to the DA converter 14 to output the audio indicated by the output audio data to the speaker 15. Specifically, the audio output unit 33 first outputs the output audio data to the DA converter 14 (step S111), and the DA converter 14 converts the output audio data into an output signal voltage. The output signal voltage output from the DA converter 14 is input to the speaker 15, and the speaker 15 outputs sound corresponding to the output signal voltage.

ここで、有音区間の信号の詳細について説明する。図5は、有音区間における波形の一例を示す図である。実線は有音区間の音声の波形を示し、破線はその波形の振幅の時間変化を示す。有音区間においては、非可聴周波数帯、具体的には20kHz以上かつ出力可能な最大周波数(25kHz程度)以下の周波数の音声が出力されている。非可聴周波数帯の音声を通信に用いることで、周りの人間が不快なノイズを認識することを防ぐことができる。また、符号化部32は有音区間における音声の振幅の変化を抑制するように出力音声データを設定する。より具体的には、出力音声データが示す各有音区間は、音声の振幅が徐増する区間と、音声の振幅が徐減する区間とを有する。音声の振幅が徐増する区間は、無音区間から有音区間に切り替わった後の一定の区間であり、音声の振幅が徐減する区間は、有音区間から無音区間に切り替わる前の一定の区間である。本実施形態では、上述の特徴を有する有音区間の振幅は、有音区間の時間幅の2倍の周期のサイン関数から求められている。   Here, the detail of the signal of a sound section is demonstrated. FIG. 5 is a diagram illustrating an example of a waveform in a sound section. The solid line indicates the waveform of the voice in the voiced section, and the broken line indicates the time change of the amplitude of the waveform. In the voiced section, sound having a frequency of a non-audible frequency band, specifically, a frequency of 20 kHz or more and a maximum frequency (about 25 kHz) that can be output is output. By using sound in a non-audible frequency band for communication, surrounding humans can be prevented from recognizing unpleasant noise. Also, the encoding unit 32 sets the output voice data so as to suppress the change in the voice amplitude in the voiced section. More specifically, each voiced section indicated by the output voice data has a section in which the voice amplitude gradually increases and a section in which the voice amplitude gradually decreases. The section where the amplitude of the voice gradually increases is a constant section after switching from the silent section to the voice section, and the section where the amplitude of the voice gradually decreases is a fixed section before switching from the voice section to the silent section It is. In the present embodiment, the amplitude of the sound section having the above-described characteristics is obtained from a sine function having a period twice as long as the time width of the sound section.

有音区間におけるタイムステップxにおける波形f(x)を示す式を以下に示す。ここで、PCM形式の出力音声データは16ビットであり、−32768〜32767の値を取ることができるとし、1タイムステップは1秒をサンプリングレートで割った時間とする。   An expression showing the waveform f (x) at time step x in the sound section is shown below. Here, the output audio data in the PCM format is 16 bits and can take values of -32768 to 32767, and one time step is a time obtained by dividing one second by the sampling rate.

Figure 0005106664
Figure 0005106664

ここで、γは出力音声データのサンプリングレートを非可聴周波数帯の音声の周波数で割った値である。サンプリングレートは通信に用いる非可聴周波数帯の周波数の2倍以上かつ自然数倍にするとよい。サンプリング周期と音声の周期との違いにより目的とする周波数より低い周波数が出力されることを防ぐことができるからである。本実施形態では、サンプリングレートが44.1kHz、音声の周波数は22.05kHzとしている。Aは、有音区間のデータとして取りうる最大値を示している。Bは、サンプリングレートを振幅変化を示す周波数1000でわった値である。なお、実際の出力音声データは、f(x)が示す値のうち小数部の情報は切り捨てられている。   Here, γ is a value obtained by dividing the sampling rate of the output audio data by the frequency of the audio in the inaudible frequency band. The sampling rate is preferably at least twice the frequency of the non-audible frequency band used for communication and a natural number. This is because a frequency lower than the target frequency can be prevented from being output due to the difference between the sampling period and the voice period. In this embodiment, the sampling rate is 44.1 kHz and the audio frequency is 22.05 kHz. A indicates a maximum value that can be taken as data of a voiced section. B is a value obtained by dividing the sampling rate by a frequency 1000 indicating an amplitude change. In the actual output audio data, the decimal part of the value indicated by f (x) is truncated.

f(x)の式は、非可聴周波数帯の音声を示すサイン波に、振幅の時間変化を抑制するサイン波をかけた式になっている。これにより、以下のfs(x)の式が示す有音区間における振幅を一定とするサイン波に比べ振幅の時間変化が抑制される。   The expression of f (x) is an expression obtained by applying a sine wave that suppresses a change in amplitude over time to a sine wave indicating sound in a non-audible frequency band. Thereby, the time change of an amplitude is suppressed compared with the sine wave which makes the amplitude in the sound area shown by the following formula | equation of fs (x) constant.

Figure 0005106664
Figure 0005106664

ここで、前述のように送信装置1のスピーカ15は音声用のスピーカであるので、20kHz以上の非可聴周波数帯の音を出力する場合、物理的な特性のために出力信号電圧の変化に追随できない現象が起きる場合がある。その現象がおきると、スピーカ15からより低い周波数のノイズのような音が出力される。上述の現象は、fs(x)が示す有音区間の音声を出力する場合にはほぼ確実に発生するが、f(x)のように振幅の時間変化を制限すると、スピーカ15が出力信号電圧の時間変化に追随しやすくなるため発生しなくなる。これにより、通信時にスピーカ15が発生するノイズであってユーザが認識できるノイズを大幅に減少させることができる。   Here, as described above, the speaker 15 of the transmission device 1 is an audio speaker. Therefore, when a sound in an inaudible frequency band of 20 kHz or higher is output, a change in the output signal voltage follows the physical characteristics. Unusable phenomenon may occur. When this phenomenon occurs, a sound like noise at a lower frequency is output from the speaker 15. The above phenomenon occurs almost certainly when the sound in the voiced section indicated by fs (x) is output. However, when the time variation of the amplitude is limited as in f (x), the speaker 15 outputs the output signal voltage. It will not occur because it becomes easier to follow the time change. Thereby, it is possible to greatly reduce the noise generated by the speaker 15 during communication and recognized by the user.

なお、符号化部32が出力する出力音声データにおける1つの伝送信号区間53が、必ずしも1ビットのデータを表さなくてもよい。例えば、1つの伝送信号区間53の時間幅の種類を4種類にし、1つの伝送信号区間53が送信データの2ビットに対応させてもよい。また送信データをk進数(k>3)の値の配列に変換し、k種類の音声のうちそれぞれの値に対応するものを出力するように符号化部32が出力音声データを出力してもよい。   Note that one transmission signal section 53 in the output audio data output from the encoding unit 32 does not necessarily represent 1-bit data. For example, four types of time widths of one transmission signal section 53 may be used, and one transmission signal section 53 may correspond to 2 bits of transmission data. Further, even if the encoding unit 32 outputs the output voice data so as to convert the transmission data into an array of k-ary (k> 3) values and output k kinds of voices corresponding to the respective values. Good.

図6は、受信装置2の処理フローの一例を示す図である。以下ではこの処理フローに従い受信装置2が有する機能を説明する。   FIG. 6 is a diagram illustrating an example of a processing flow of the receiving device 2. Below, the function which the receiving apparatus 2 has according to this processing flow is demonstrated.

音声入力部41は、プロセッサ21、メモリ22および表示操作部23を中心として実現される。音声入力部41は、表示操作部23を介してユーザから入力される指示に基づいて、AD変換器24からPCM形式の入力音声データを取得する(ステップS201)。この際、マイク25に送信装置1の出力する音声を入力させることで、入力音声データに送信データが符号化されてなる音声のデータを含むようにする。なお、本実施形態では、サンプリングレートは送信装置1と同じサンプリングレートとしている。   The voice input unit 41 is realized centering on the processor 21, the memory 22, and the display operation unit 23. The voice input unit 41 acquires PCM format input voice data from the AD converter 24 based on an instruction input from the user via the display operation unit 23 (step S201). At this time, the sound output from the transmission device 1 is input to the microphone 25 so that the input sound data includes sound data obtained by encoding the transmission data. In the present embodiment, the sampling rate is the same as that of the transmission apparatus 1.

抽出部42は、プロセッサ21およびメモリ22を中心として実現される。抽出部42は、音声入力部41が取得した入力音声データから非可聴周波数帯の音声を抽出し(ステップS202)、抽出された音声を示すデータをメモリ22に格納する。抽出部42は、非可聴周波数帯の音声を抽出するためにバンドパスフィルタ(bandpass filter)を用いる。この処理を行うことにより、周囲の人の声などのノイズの影響を取り除くことができる。雑音が少ない環境で通信を行う前提であれば、この処理を行なわずに復号部43に入力音声データをそのまま渡してもよい。   The extraction unit 42 is realized centering on the processor 21 and the memory 22. The extraction unit 42 extracts a non-audible frequency band sound from the input sound data acquired by the sound input unit 41 (step S202), and stores data indicating the extracted sound in the memory 22. The extraction unit 42 uses a bandpass filter in order to extract sound in an inaudible frequency band. By performing this process, it is possible to remove the influence of noise such as the voices of surrounding people. If communication is performed in an environment with little noise, the input voice data may be passed to the decoding unit 43 as it is without performing this process.

復号部43は、プロセッサ21およびメモリ22を中心として実現される。復号部43は抽出された音声を示すデータに基づいて送信データを復号する。まず、復号部43は抽出された音声の振幅を正規化する(ステップS203)。これにより、マイク25に入力される音声の大きさが通信するごとに異なっていても、後続の処理で問題が生じなくなる。   The decoding unit 43 is realized centering on the processor 21 and the memory 22. The decoding unit 43 decodes the transmission data based on the data indicating the extracted voice. First, the decoding unit 43 normalizes the amplitude of the extracted speech (step S203). Thereby, even if the magnitude of the sound input to the microphone 25 is different every time communication is performed, no problem occurs in the subsequent processing.

復号部43は、次に有音区間と無音区間との境界を検出し、複数の有音区間のそれぞれの時間幅を検出する(ステップS204)。復号部43は、検出された各有音期間の時間幅に応じて、ビットの値の配列を取得し(ステップS205)、取得した値の配列を復号された受信データとしてメモリ22等に出力する(ステップS206)。ここで、復号部43はCRC訂正などの公知の誤り訂正技術を用いて受信データの精度を向上させてもよい。また、送信装置1が出力する伝送信号区間53の時間幅の種類が3以上であれば、それに応じた値の配列を取得して受信データを復号してもよい。   Next, the decoding unit 43 detects the boundary between the voiced section and the silent section, and detects the time width of each of the plurality of voiced sections (step S204). The decoding unit 43 acquires an array of bit values according to the detected duration of each sound period (step S205), and outputs the acquired array of values to the memory 22 or the like as decoded received data. (Step S206). Here, the decoding unit 43 may improve the accuracy of the received data using a known error correction technique such as CRC correction. Further, if the type of time width of the transmission signal section 53 output by the transmission device 1 is 3 or more, the received data may be decoded by obtaining an array of values corresponding to the time width.

上述の技術により、DA変換器14に接続されるスピーカ15を含む送信装置1と、AD変換器24に接続されるマイク25を含む受信装置2とがあれば、他のデバイスを付加しなくても通信を行うことができる。非可聴周波数帯の音声は電波に比べれば指向性が強いので、送信内容を誤って別の装置が受信する恐れも少なくなり、電波を用いる場合のように混信を防ぐための機能を付加したり操作を複雑化する必要もない。しかも、非可聴周波数帯の音声を用い、かつノイズの発生も抑えられているので、スピーカを用いて通信を行っているにも関わらず、その通信により人が不快な音を認識することはない。そのため、人体への影響も少ない。   If the transmitter 1 including the speaker 15 connected to the DA converter 14 and the receiver 2 including the microphone 25 connected to the AD converter 24 are provided by the above-described technique, other devices need not be added. Can also communicate. Since sound in the non-audible frequency band is more directional than radio waves, there is less risk of another device receiving the wrong transmission content, and a function to prevent interference, such as when using radio waves, is added. There is no need to complicate the operation. In addition, since non-audible frequency band audio is used and noise generation is suppressed, even though communication is performed using a speaker, a person does not recognize an unpleasant sound. . Therefore, there is little influence on the human body.

また、DA変換器14とスピーカ15とを有する機器のほとんどはユーザによるボリューム調整が可能であるので、例えばセキュリティと通信エラーとのバランスを任意に調整することができる。ユーザが、送信側の機器と受信側の機器との距離が近い(例えば5cm)場合には音量を小さくし、遠い(例えば1m)場合は音量を大きくするといった調整をすればよいからである。   Also, since most of the devices having the DA converter 14 and the speaker 15 can be adjusted by the user, for example, the balance between security and communication error can be arbitrarily adjusted. This is because the user may make an adjustment such that the volume is reduced when the distance between the transmission-side device and the reception-side device is short (for example, 5 cm), and the volume is increased when the distance is long (for example, 1 m).

また、上述の説明では送信装置1が出力する音声の時間幅を用いて送信データを符号化しているが、他の変調方法を用いて送信データを符号化してもよい。例えば、AM変調方式のように音声の振幅の違いによって送信するビット配列の各ビットを表してもよいし、FM変調方式のように音声の周波数の違いによってビット配列の各ビットを表してもよい。ただし、音声の時間幅を用いた方が、前者に比べてノイズ等の環境変化に強く、また後者に比べて復号に必要な計算量が少ない。   In the above description, the transmission data is encoded using the time width of the sound output from the transmission device 1, but the transmission data may be encoded using other modulation methods. For example, each bit of the bit array to be transmitted may be represented by a difference in sound amplitude as in the AM modulation method, or each bit of the bit array may be represented by a difference in sound frequency as in the FM modulation method. . However, using the time width of speech is more resistant to environmental changes such as noise than the former, and requires less computation for decoding than the latter.

これまでに説明した通信方法は、スマートフォンや携帯電話機などでは特に有効である。スマートフォンや携帯電話機のように音声を入出力するデジタル対応の携帯端末には必ずDA変換器14とそれに接続されるスピーカ15、AD変換器24とそれに接続されるマイク25を装備している。この特徴により、スマートフォンや携帯電話機にプログラムをインストールすることで、それらが送信装置1や受信装置2の機能を実現できる。つまり、外付けの通信デバイスを購入したり接続したりすることなく携帯端末を用いた通信を実現できる。例えば、2台のスマートフォンのうち一方又は両方が赤外線通信機能を有していないような場合であっても、プログラムをインストールすることで、それらの携帯電話機の間でメールアドレスの交換や、URLやメッセージの送受信等を行うことができる。もちろん携帯電話の基地局や、無線LANの親機からの電波が来ていなくてもそれらの情報をやりとりできる。また基地局等からの電波を受信できるのであれば、非可聴帯域の音声を用いた通信を用いて、電波を介するネットワークにおいて少なくとも一方のスマートフォン等を特定する情報を送受信し、電波を介してより大きなデータを送受信することも可能である。   The communication methods described so far are particularly effective for smartphones and mobile phones. A digital-compatible portable terminal that inputs and outputs audio, such as a smartphone or a mobile phone, is always equipped with a DA converter 14 and a speaker 15 connected thereto, an AD converter 24 and a microphone 25 connected thereto. With this feature, the functions of the transmission device 1 and the reception device 2 can be realized by installing a program in a smartphone or a mobile phone. That is, communication using a mobile terminal can be realized without purchasing or connecting an external communication device. For example, even if one or both of two smartphones do not have an infrared communication function, by installing a program, e-mail address exchange, URL, Messages can be sent and received. Of course, even if there is no radio wave from the base station of the mobile phone or the base unit of the wireless LAN, such information can be exchanged. In addition, if radio waves from a base station or the like can be received, information that identifies at least one smartphone etc. is transmitted and received in a network via radio waves using communication using non-audible band audio, and more It is also possible to send and receive large data.

これまでは携帯電話機やスマートフォンの間での通信のように1対1の送受信の例を説明したが、送信側の装置が複数の受信装置2に向けてデータを送信してもよい。より具体的には、例えば、出力音声データをテレビ局やラジオ局で生成し、その出力音声データに応じた音声を各家庭のテレビ7等のスピーカから出力させてよい。テレビ7の前にある複数の携帯電話機やスマートフォン等は、その音声をマイク25を介して受信する。   So far, an example of one-to-one transmission / reception such as communication between mobile phones and smartphones has been described. However, a transmitting apparatus may transmit data to a plurality of receiving apparatuses 2. More specifically, for example, output audio data may be generated by a television station or a radio station, and audio corresponding to the output audio data may be output from a speaker of the home television 7 or the like. A plurality of mobile phones, smartphones, and the like in front of the television 7 receive the sound via the microphone 25.

図7は、テレビ7のスピーカを用いてデータを送信するシステムの一例を示す図である。局側装置6は、テレビ局に設置される。局側装置6はプロセッサ61、記憶部62、および送信回路63を含む。またテレビ7は、受信回路71、表示回路72、DA変換器73およびスピーカ74を含む。局側装置6とテレビ7とをあわせた送信システムが、図1の送信装置1に対応する。局側装置6に含まれるプロセッサ61および記憶手段62はそれぞれ送信装置1に含まれるプロセッサ11およびメモリ12に対応し、テレビ7に含まれるDA変換器73およびスピーカ74は、それぞれ送信装置1に含まれるDA変換器14およびスピーカ15に対応する。   FIG. 7 is a diagram illustrating an example of a system that transmits data using a speaker of the television 7. The station side device 6 is installed in a television station. The station side device 6 includes a processor 61, a storage unit 62, and a transmission circuit 63. The television 7 includes a receiving circuit 71, a display circuit 72, a DA converter 73, and a speaker 74. A transmission system that combines the station-side device 6 and the television 7 corresponds to the transmission device 1 of FIG. The processor 61 and the storage means 62 included in the station side device 6 correspond to the processor 11 and the memory 12 included in the transmission device 1, respectively, and the DA converter 73 and the speaker 74 included in the television 7 are included in the transmission device 1, respectively. Corresponds to the DA converter 14 and the speaker 15.

送信回路63はテレビ7の表示回路72に表示させる映像データと、スピーカ73に出力させる出力音声データとを含む放送データを、テレビ局のアンテナを介して複数のテレビ7に送信する。また受信回路71は放送データを受信し、その放送データに含まれる映像データを表示回路に出力し、また放送データに含まれる出力音声データをDA変換器73に出力する。表示回路72は、映像処理回路や表示パネル等を含んでおり、映像データに基づく画像を表示する。図1に示す送信装置1とこの送信システムとの違いは、プロセッサ61および記憶手段62と、DA変換器73との間に、送信回路63および受信回路71が存在することで、データを転送する経路が長くなっている点である。   The transmission circuit 63 transmits broadcast data including video data to be displayed on the display circuit 72 of the television 7 and output audio data to be output to the speaker 73 to the plurality of televisions 7 through the antenna of the television station. The receiving circuit 71 receives broadcast data, outputs video data included in the broadcast data to the display circuit, and outputs output audio data included in the broadcast data to the DA converter 73. The display circuit 72 includes a video processing circuit, a display panel, and the like, and displays an image based on the video data. The difference between the transmission apparatus 1 shown in FIG. 1 and this transmission system is that data is transferred because the transmission circuit 63 and the reception circuit 71 exist between the processor 61, the storage means 62, and the DA converter 73. The route is longer.

この送信システムも、機能的には送信データ取得部31、符号化部32、および音声出力部33を含む。送信データ取得部31は、プロセッサ61、記憶部62を中心として実現される。この送信データ取得部31は、放送するコンテンツとなる映像データおよび音声データとそれらの映像データおよび音声データ中の先頭からの時間とに基づいて、送信データを取得する。映像データおよび音声データは、記憶部62に記憶されており、送信データは予め映像データおよび音声データとその時間的な区間とに関連づけて記憶部62に記憶されている。   This transmission system also functionally includes a transmission data acquisition unit 31, an encoding unit 32, and an audio output unit 33. The transmission data acquisition unit 31 is realized centering on the processor 61 and the storage unit 62. The transmission data acquisition unit 31 acquires transmission data based on video data and audio data serving as content to be broadcast and a time from the beginning of the video data and audio data. The video data and audio data are stored in the storage unit 62, and the transmission data is stored in advance in the storage unit 62 in association with the video data and audio data and their time intervals.

符号化部32は、プロセッサ61および記憶部62を中心として実現される。符号化部32は、送信データが符号化されてなるPCM形式の出力音声データを出力する。その詳細は、図1に示す送信装置1で説明したものと同じである。   The encoding unit 32 is realized centering on the processor 61 and the storage unit 62. The encoding unit 32 outputs output audio data in PCM format obtained by encoding transmission data. The details are the same as those described in the transmission apparatus 1 shown in FIG.

音声出力部33は、プロセッサ61および記憶部62を中心として実現される。音声出力部33は、符号化部32が出力する出力音声データに放送するコンテンツとなる音声データを混合させて新たな出力音声データを生成し、その新たな出力音声データと、映像データとを含む放送データを送信回路63に出力する。そうすることで、音声出力部33は、出力音声データをテレビ7に含まれるDA変換器73に変換させることによりその出力音声データが示す音声をスピーカ74に出力させる。なお、音声データを出力音声データに混合しても、受信装置2は送信データを復号することができる。バンドパスフィルタによって非可聴周波数帯の音声をほとんど含まない音声データの影響が低減されるからである。   The audio output unit 33 is realized with the processor 61 and the storage unit 62 as the center. The audio output unit 33 generates new output audio data by mixing the output audio data output from the encoding unit 32 with the audio data serving as the content to be broadcast, and includes the new output audio data and video data. Broadcast data is output to the transmission circuit 63. By doing so, the audio output unit 33 causes the speaker 74 to output the audio indicated by the output audio data by converting the output audio data to the DA converter 73 included in the television 7. Note that the reception device 2 can decode the transmission data even if the audio data is mixed with the output audio data. This is because the influence of audio data containing almost no sound in the inaudible frequency band is reduced by the band pass filter.

このようにすることで、テレビ局の放送するコンテンツに応じて情報の紹介やキャンペーンの申込を行うWebページのURLや、番組名などの情報を、既存のテレビ7やスマートフォンのハードウェアを用いて送受信することができる。テレビの視聴者は従来は画面に表示されていた情報を、文字入力等の作業を経ずに取得することができ、利便性が大きく向上する。これは特にスマートフォンや携帯電話などの携帯端末を用いる場合に有利である。携帯端末は大きさの都合でPCのようなキーボードを装備できないため、文字入力を苦手とするからである。   In this way, information such as the URL of the Web page for introducing information and applying for a campaign according to the content broadcast by the TV station, and information such as the program name are transmitted and received using the hardware of the existing TV 7 or smartphone. can do. The viewer of the television can acquire information that has been conventionally displayed on the screen without performing an operation such as character input, and the convenience is greatly improved. This is particularly advantageous when a mobile terminal such as a smartphone or a mobile phone is used. This is because a portable terminal cannot be equipped with a keyboard like a PC due to its size, and is not good at inputting characters.

なお、局側装置6はデジタル放送を行うラジオ局に置いてもよい。この場合は、送信データ取得部31は、放送するコンテンツとなる音声データとその先頭からの時間とに基づいて、送信データを取得し、送信回路63は音声データを含む放送データを送信する。また、デジタル放送に対応したラジオが放送データを受信しスピーカからその音声を出力すればよい。   The station side device 6 may be placed in a radio station that performs digital broadcasting. In this case, the transmission data acquisition unit 31 acquires transmission data based on the audio data as the content to be broadcast and the time from the beginning, and the transmission circuit 63 transmits the broadcast data including the audio data. A radio compatible with digital broadcasting may receive broadcast data and output the sound from a speaker.

1 送信装置、2 受信装置、6 局側装置、7 テレビ、11,21,61 プロセッサ、12,22 メモリ、13,23 表示操作部、14,73 DA変換器、15,74 スピーカ、24 AD変換器、25 マイク、31 送信データ取得部、32 符号化部、33 音声出力部、41 音声入力部、42 抽出部、43 復号部、51,52 同期信号、53 伝送信号区間、62 記憶部、63 送信回路、71 受信回路、72 表示回路、Tn,Tt0,Tt1 時間幅。   DESCRIPTION OF SYMBOLS 1 Transmitter, 2 Receiver, 6 Station side apparatus, 7 Television, 11,21,61 Processor, 12,22 Memory, 13,23 Display operation part, 14,73 DA converter, 15,74 Speaker, 24 AD conversion 25, microphone, 31 transmission data acquisition unit, 32 encoding unit, 33 audio output unit, 41 audio input unit, 42 extraction unit, 43 decoding unit, 51, 52 synchronization signal, 53 transmission signal section, 62 storage unit, 63 Transmission circuit, 71 Reception circuit, 72 Display circuit, Tn, Tt0, Tt1 Time width.

Claims (12)

送信データを取得する手段と、
前記送信データが符号化されてなるPCM形式の出力音声データであって、非可聴周波数帯の音声を示す出力音声データを出力する符号化手段と、
前記出力音声データをDA変換器に変換させることにより当該出力音声データに応じた音声をスピーカに出力させる出力手段と、
を含み、
前記符号化手段は、前記出力音声データが前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有する音声を示し、かつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示すように当該出力音声データを出力する、
ことを特徴とする送信装置。
Means for obtaining transmission data;
Encoding means for outputting output sound data indicating sound in a non-audible frequency band, which is output sound data in PCM format obtained by encoding the transmission data;
Output means for outputting a sound corresponding to the output sound data to a speaker by converting the output sound data to a DA converter;
Including
It said encoding means indicates a voice and a silent section between the sound period to the output audio data is adjacent to the plurality of voiced section in accordance with the transmission data, and amplitude start of each chromatic sounds interval Output the output audio data so that it shows a sine curve that increases from time to time and then decreases ,
A transmission apparatus characterized by the above.
前記符号化手段は、前記送信データに応じて前記複数の有音区間のそれぞれ時間幅を決定し、前記複数の有音区間を含む音声を示す出力音声データを出力する、
ことを特徴とする請求項1に記載の送信装置。
The encoding means determines a time width of each of the plurality of sound sections according to the transmission data, and outputs output sound data indicating sound including the plurality of sound sections.
The transmission apparatus according to claim 1, wherein:
前記非可聴周波数帯は、20kHz以上である、
ことを特徴とする請求項1または2に記載の送信装置。
The inaudible frequency band is 20 kHz or more,
The transmission apparatus according to claim 1 or 2 , wherein
前記複数の有音期間のそれぞれの時間幅は、予め定められた所定数の時間幅のうちいずれかである、
ことを特徴とする請求項1からのいずれかに記載の送信装置。
Each time width of the plurality of sound periods is one of a predetermined number of time widths,
Transmission device according to any one of claims 1 to 3, characterized in that.
送信データを取得するステップと、
前記送信データが符号化されてなるPCM形式の出力音声データであって、非可聴周波数帯の音声を示す出力音声データを出力する符号化ステップと、
前記出力音声データをDA変換器に変換させることにより、当該出力音声データに応じた音声をスピーカに出力させるステップと、
を含み、
前記符号化ステップでは、前記出力音声データが前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有する音声を示し、かつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示すように当該出力音声データを出力する、
ことを特徴とする送信方法。
Obtaining transmission data; and
An encoding step of outputting output audio data indicating audio in a non-audible frequency band, which is output audio data in PCM format obtained by encoding the transmission data;
Converting the output audio data to a DA converter to output a sound corresponding to the output audio data to a speaker;
Including
In the encoding step, the output voice data indicates a voice having a plurality of voiced sections and a silent section between adjacent voiced sections according to the transmission data, and the amplitude of each voiced section starts. Output the output audio data so that it shows a sine curve that increases from time to time and then decreases ,
A transmission method characterized by the above.
送信データを取得する手段、
前記送信データが符号化されてなるPCM形式の出力音声データであって、非可聴周波数帯の音声を示す出力音声データを出力する符号化手段、および、
前記出力音声データをDA変換器に変換させることにより当該出力音声データに応じた音声をスピーカに出力させる出力手段、
としてコンピュータを機能させ、
前記符号化手段は、前記出力音声データが前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有する音声を示し、かつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示すように当該出力音声データを出力する、
ことを特徴とするプログラム。
Means for obtaining transmission data;
PCM format output audio data obtained by encoding the transmission data, and encoding means for outputting output audio data indicating audio in an inaudible frequency band; and
An output means for outputting a sound corresponding to the output sound data to a speaker by converting the output sound data to a DA converter;
Function as a computer
It said encoding means indicates a voice and a silent section between the sound period to the output audio data is adjacent to the plurality of voiced section in accordance with the transmission data, and amplitude start of each chromatic sounds interval Output the output audio data so that it shows a sine curve that increases from time to time and then decreases ,
A program characterized by that.
マイクに入力されかつ送信データが符号化されてなる非可聴周波数帯の音声であって、前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有しかつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示す音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力手段と、
前記入力音声データが示す音声から非可聴周波数帯の音声を抽出した抽出音声データを生成する抽出手段と、
前記抽出音声データに基づいて前記送信データを復号する復号手段と、
を含むことを特徴とする受信装置。
A voice in a non-audible frequency band that is input to a microphone and encoded with transmission data, and has a plurality of sound sections and a silent section between adjacent sound sections according to the transmission data; and Input means for acquiring, via an AD converter, PCM format input voice data indicating a voice indicating a sine curve that increases after the amplitude of each voiced section increases from the start and reaches a maximum ;
Extracting means for generating extracted voice data obtained by extracting voice in a non-audible frequency band from the voice indicated by the input voice data;
Decoding means for decoding the transmission data based on the extracted voice data;
A receiving apparatus comprising:
前記復号手段は、前記抽出音声データが示す複数の有音区間であって、前記マイクに順に入力される複数の有音区間のそれぞれの時間の長さに基づいて前記送信データを復号する、
ことを特徴とする請求項に記載の受信装置。
The decoding means decodes the transmission data based on respective lengths of a plurality of sound segments indicated by the extracted voice data and sequentially input to the microphone.
The receiving apparatus according to claim 7 .
マイクに入力されかつ送信データが符号化されてなる非可聴周波数帯の音声であって、前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有しかつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示す音声に基づいてAD変換器を介してPCM形式の入力音声データを取得する入力ステップと、
前記入力音声データが示す音声から非可聴周波数帯の音声を抽出した抽出音声データを生成する抽出ステップと、
前記抽出音声データに基づいて前記送信データを復号する復号ステップと、
を含むことを特徴とする受信方法。
A voice in a non-audible frequency band that is input to a microphone and encoded with transmission data, and has a plurality of sound sections and a silent section between adjacent sound sections according to the transmission data; and An input step of acquiring input voice data in PCM format via an AD converter based on voice indicating a sine curve that increases after the amplitude of each voiced section increases from the start and reaches a maximum ;
An extraction step of generating extracted voice data obtained by extracting voice in a non-audible frequency band from the voice indicated by the input voice data;
A decoding step of decoding the transmission data based on the extracted voice data;
A receiving method comprising:
マイクに入力されかつ送信データが符号化されてなる非可聴周波数帯の音声であって、前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有しかつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示す音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力手段、
前記入力音声データが示す音声から非可聴周波数帯の音声を抽出した抽出音声データを生成する抽出手段、および、
前記抽出音声データに基づいて前記送信データを復号する復号手段、
としてコンピュータを機能させるためのプログラム。
A voice in a non-audible frequency band that is input to a microphone and encoded with transmission data, and has a plurality of sound sections and a silent section between adjacent sound sections according to the transmission data; and Input means for acquiring, via an AD converter, PCM format input voice data indicating a voice indicating a sine curve that increases after the amplitude of each voiced section increases from the start and reaches a maximum ;
Extraction means for generating extracted voice data obtained by extracting voice in a non-audible frequency band from the voice indicated by the input voice data; and
Decoding means for decoding the transmission data based on the extracted voice data;
As a program to make the computer function as.
送信装置と受信装置とを含む通信システムであって、
前記送信装置は、
送信データを取得する手段と、
前記送信データが符号化されてなるPCM形式の出力音声データであって、非可聴周波数帯の音声を示す出力音声データを出力する符号化手段と、
前記出力音声データをDA変換器に変換させることにより、当該出力音声データに応じた音声をスピーカに出力させる出力手段と、
を含み、
前記符号化手段は、前記出力音声データが前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有する音声を示し、かつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示すように当該出力音声データを出力し、
前記受信装置は、
前記スピーカが出力しマイクに入力される音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力手段と、
前記入力音声データが示す音声から非可聴周波数帯の音声を抽出した抽出音声データを生成する抽出手段と、
前記抽出音声データに基づいて前記送信データを復号する復号手段と、
を含む、
ことを特徴とする通信システム。
A communication system including a transmission device and a reception device,
The transmitter is
Means for obtaining transmission data;
Encoding means for outputting output sound data indicating sound in a non-audible frequency band, which is output sound data in PCM format obtained by encoding the transmission data;
An output means for outputting a sound corresponding to the output sound data to a speaker by converting the output sound data to a DA converter;
Including
It said encoding means indicates a voice and a silent section between the sound period to the output audio data is adjacent to the plurality of voiced section in accordance with the transmission data, and amplitude start of each chromatic sounds interval Output the output audio data so that it shows a sine curve that increases from time to time and then decreases ,
The receiving device is:
Input means for acquiring, through an AD converter, PCM-format input sound data indicating sound output from the speaker and input to a microphone;
Extracting means for generating extracted voice data obtained by extracting voice in a non-audible frequency band from the voice indicated by the input voice data;
Decoding means for decoding the transmission data based on the extracted voice data;
including,
A communication system characterized by the above.
送信データを取得するステップと、
前記送信データが符号化されてなるPCM形式の出力音声データであって、非可聴周波数帯の音声を示す出力音声データを出力する符号化ステップと、
前記出力音声データをDA変換器に変換させることにより、当該出力音声データに応じた音声をスピーカに出力させるステップと、
前記スピーカが出力しマイクに入力される音声を示すPCM形式の入力音声データをAD変換器を介して取得する入力ステップと、
前記入力音声データが示す音声から非可聴周波数帯の音声を抽出した抽出音声データを生成する抽出ステップと、
前記抽出音声データに基づいて前記送信データを復号する復号ステップと、
を含み、
前記符号化ステップでは、前記出力音声データが前記送信データに応じて複数の有音区間と隣り合う有音区間の間の無音区間とを有する音声を示し、かつ前記各有音区間の振幅が開始時から増加し極大となった後に減少するサインカーブを示すように当該出力音声データを出力する、
ことを特徴とする通信方法。
Obtaining transmission data; and
An encoding step of outputting output audio data indicating audio in a non-audible frequency band, which is output audio data in PCM format obtained by encoding the transmission data;
Converting the output audio data to a DA converter to output a sound corresponding to the output audio data to a speaker;
An input step of acquiring, through an AD converter, input audio data in PCM format indicating the audio output from the speaker and input to the microphone;
An extraction step of generating extracted voice data obtained by extracting voice in a non-audible frequency band from the voice indicated by the input voice data;
A decoding step of decoding the transmission data based on the extracted voice data;
Including
In the encoding step, the output voice data indicates a voice having a plurality of voiced sections and a silent section between adjacent voiced sections according to the transmission data, and the amplitude of each voiced section starts. Output the output audio data so that it shows a sine curve that increases from time to time and then decreases ,
A communication method characterized by the above.
JP2011178578A 2011-08-17 2011-08-17 Transmission device, reception device, transmission method, reception method, communication system, communication method, and program Active JP5106664B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011178578A JP5106664B1 (en) 2011-08-17 2011-08-17 Transmission device, reception device, transmission method, reception method, communication system, communication method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011178578A JP5106664B1 (en) 2011-08-17 2011-08-17 Transmission device, reception device, transmission method, reception method, communication system, communication method, and program

Publications (2)

Publication Number Publication Date
JP5106664B1 true JP5106664B1 (en) 2012-12-26
JP2013042399A JP2013042399A (en) 2013-02-28

Family

ID=47528541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011178578A Active JP5106664B1 (en) 2011-08-17 2011-08-17 Transmission device, reception device, transmission method, reception method, communication system, communication method, and program

Country Status (1)

Country Link
JP (1) JP5106664B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63178695A (en) * 1987-01-20 1988-07-22 Fuji Photo Film Co Ltd Remote control system
JP3897856B2 (en) * 1997-04-18 2007-03-28 株式会社データストリーム Microphone and position detection system of input device equipped with microphone
JP2000308153A (en) * 1999-04-20 2000-11-02 Fujitsu General Ltd Remote control server system
JP3848799B2 (en) * 1999-07-06 2006-11-22 株式会社日本コンラックス Vending machine control method and system
JP2009094558A (en) * 2007-10-03 2009-04-30 Ntt Docomo Inc Modulator and modulation method

Also Published As

Publication number Publication date
JP2013042399A (en) 2013-02-28

Similar Documents

Publication Publication Date Title
US9894059B2 (en) Device association
EP3930224A1 (en) Information transmission method, information transmission device, and storage medium
CN104796888A (en) Method for connecting WI-FI network by intelligent hardware terminal based on sound waves and system for realizing same
WO2013071209A1 (en) Method and system for pairing devices
CN102263576B (en) Wireless information transmitting method and method realizing device
CN104066152A (en) System and method for enabling devices to have access to wireless network
CN105722183A (en) Sharing method and apparatus for Wi-Fi (wireless fidelity) link information
KR20110051385A (en) Communication terminal and method for communicating thereof
Zhang et al. No more free riders: Sharing wifi secrets with acoustic signals
CN104954078A (en) Sound wave communication based control and response method and sound wave communication based control and response device
KR101263717B1 (en) Data Communication Apparatus and Method using Audio
JP5106664B1 (en) Transmission device, reception device, transmission method, reception method, communication system, communication method, and program
US20160205462A1 (en) Method of transmiting data and a device and system thereof
CN101026805B (en) Method for transmitting a message from a portable communication device to a separate terminal, and associated portable device and terminal
CN106559588B (en) Method and device for uploading text information
KR100695248B1 (en) Method for listening radio broadcast by using bluetooth wireless headset in mobile communication terminal
CN104796446A (en) Audio technology-based data transmission method, device and system
JP6120206B2 (en) Acoustic code encoding / decoding device and acoustic code encoding / decoding method
WO2018010432A1 (en) Sound code tag-based configuration method, device and storage medium
JP2014147012A (en) Method and system for confirming code in other party terminal simultaneously with establishment of voice call
KR102670725B1 (en) a speech-to-text conversion device connected to multiple counterpart devices and method therefor
CN111970063B (en) Communication method, device, equipment and storage medium
KR101767518B1 (en) Method and apparatus for sharing data using acoustic sound in wireless system
CN101833678B (en) Data card for computer system and related computer system
CN107331407B (en) Method and device for reducing noise of downlink call

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121002

R150 Certificate of patent or registration of utility model

Ref document number: 5106664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250