JP7443877B2 - Audio output control device, audio output system, audio output control method and program - Google Patents

Audio output control device, audio output system, audio output control method and program Download PDF

Info

Publication number
JP7443877B2
JP7443877B2 JP2020054853A JP2020054853A JP7443877B2 JP 7443877 B2 JP7443877 B2 JP 7443877B2 JP 2020054853 A JP2020054853 A JP 2020054853A JP 2020054853 A JP2020054853 A JP 2020054853A JP 7443877 B2 JP7443877 B2 JP 7443877B2
Authority
JP
Japan
Prior art keywords
state
audio output
user
headphones
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054853A
Other languages
Japanese (ja)
Other versions
JP2021156956A (en
JP2021156956A5 (en
Inventor
建 小林
利一 藤井
一夫 野村
達弘 ▲鮭▼川
真史 上村
丁珠 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020054853A priority Critical patent/JP7443877B2/en
Priority to CN202080093491.2A priority patent/CN114981756A/en
Priority to PCT/JP2020/043489 priority patent/WO2021192410A1/en
Publication of JP2021156956A publication Critical patent/JP2021156956A/en
Publication of JP2021156956A5 publication Critical patent/JP2021156956A5/ja
Priority to US17/946,162 priority patent/US20230012555A1/en
Application granted granted Critical
Publication of JP7443877B2 publication Critical patent/JP7443877B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声出力制御装置、音声出力システム、音声出力制御方法およびプログラムに関する。 The present invention relates to an audio output control device, an audio output system, an audio output control method, and a program.

音声出力可能な電子書籍やゲームなど、表示画面にコンテンツ内容を表示することに加えて、音声を出力する技術が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Techniques for outputting audio in addition to displaying content on a display screen, such as electronic books and games that can output audio, are known (for example, see Patent Document 1).

特開2016-192211号公報JP2016-192211A

ところが、このような装置を、例えば公共交通機関などの乗車時に利用している場合、車内放送などの周辺音が聞き取りにくい場合などがある。 However, when such a device is used, for example, while riding on public transportation, it may be difficult to hear surrounding sounds such as in-car announcements.

本発明は、上記に鑑みてなされたものであって、適切に周辺音の確認を可能にすることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to enable appropriate confirmation of surrounding sounds.

上述した課題を解決し、目的を達成するために、本発明に係る音声出力制御装置は、周辺音を取得する周辺音取得部と、前記周辺音取得部が取得した周辺音に基づき、周辺音を低減する処理を行う周辺音低減処理部と、ユーザの顔の向きの状態を検出する向き検出部と、前記向き検出部が、前記ユーザの顔の向きの状態が第一状態である場合は、前記周辺音低減処理部による周辺音を低減した音声を出力し、前記ユーザの顔の向きの状態が前記第一状態から第二状態に変化した場合は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする音声出力制御部と、を備える。 In order to solve the above-mentioned problems and achieve the objects, an audio output control device according to the present invention includes an ambient sound acquisition unit that acquires ambient sound, and a peripheral sound acquisition unit that acquires ambient sound based on the ambient sound acquired by the ambient sound acquisition unit. an ambient sound reduction processing unit that performs processing to reduce the noise; an orientation detection unit that detects the orientation of the user's face; , outputting the sound with the ambient sound reduced by the ambient sound reduction processing section, and when the state of the user's face changes from the first state to the second state, the ambient sound produced by the ambient sound reduction processing section is output. and an audio output control unit that sets the state in which surrounding sounds are easier to hear than in a state in which ambient sounds are reduced.

本発明に係る音声出力システムは、上記の音声出力制御装置と、周辺音を収音する収音部と、音声を出力する音声出力部と、を備える。 The audio output system according to the present invention includes the audio output control device described above, a sound collection unit that collects ambient sound, and an audio output unit that outputs audio.

本発明に係る音声出力制御方法は、周辺音を取得するステップと、音声出力装置を利用しているユーザの顔の向きの状態を検出するステップと、前記ユーザの顔の向きの状態が第一状態である場合は、取得した周辺音に基づき周辺音を低減した音声を出力し、前記ユーザの顔の向きの状態が前記第一状態から第二状態に変化した場合は、周辺音を低減した状態よりは周辺音が聞こえやすい状態とするステップと、を含む。 The audio output control method according to the present invention includes a step of acquiring ambient sound, a step of detecting the state of the face orientation of the user using the audio output device, and a step of detecting the state of the face orientation of the user using the audio output device. If the user's face orientation state changes from the first state to the second state, output the sound with reduced ambient sound based on the acquired ambient sound, and if the state of the user's face changes from the first state to the second state, reduce the surrounding sound. and a step of setting the state so that surrounding sounds can be easily heard.

本発明に係るプログラムは、周辺音を取得するステップと、音声出力装置を利用しているユーザの顔の向きの状態を検出するステップと、前記ユーザの顔の向きの状態が第一状態である場合は、取得した周辺音に基づき周辺音を低減した音声を出力し、前記ユーザの顔の向きの状態が前記第一状態から第二状態に変化した場合は、周辺音を低減した状態よりは周辺音が聞こえやすい状態とするステップと、をコンピュータに実行させる。 A program according to the present invention includes a step of acquiring ambient sound, a step of detecting a state of the face direction of a user using an audio output device, and a state of the face direction of the user is a first state. If the state of the user's face changes from the first state to the second state, a sound with reduced ambient sound is output based on the acquired surrounding sound, and when the state of the user's face changes from the first state to the second state, the sound is output with reduced ambient sound. To cause a computer to perform the steps of bringing ambient sounds into a state where it is easy to hear.

本発明によれば、適切に周辺音の確認できるという効果を奏する。 According to the present invention, it is possible to appropriately confirm surrounding sounds.

図1は、第一実施形態に係る音声出力システムとしての音声出力装置を示すブロック図である。FIG. 1 is a block diagram showing an audio output device as an audio output system according to the first embodiment. 図2は、音声出力装置の向きを説明する概略図である。FIG. 2 is a schematic diagram illustrating the orientation of the audio output device. 図3は、音声出力装置の向きを説明する概略図である。FIG. 3 is a schematic diagram illustrating the orientation of the audio output device. 図4は、第一実施形態に係る音声出力システムにおける処理の流れの一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the flow of processing in the audio output system according to the first embodiment. 図5は、第一実施形態に係る音声出力システムにおける処理の流れの他の例を示すフローチャートである。FIG. 5 is a flowchart showing another example of the flow of processing in the audio output system according to the first embodiment. 図6は、第二実施形態に係る音声出力システムの概略図である。FIG. 6 is a schematic diagram of an audio output system according to the second embodiment. 図7は、第二実施形態に係る音声出力システムのブロック図である。FIG. 7 is a block diagram of an audio output system according to the second embodiment. 図8は、第三実施形態に係る音声出力システムのブロック図である。FIG. 8 is a block diagram of an audio output system according to the third embodiment. 図9は、第三実施形態に係る音声出力システムにおける処理の流れの一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the flow of processing in the audio output system according to the third embodiment.

以下に添付図面を参照して、本発明に係る音声出力システム1の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an audio output system 1 according to the present invention will be described in detail below with reference to the accompanying drawings. Note that the present invention is not limited to the following embodiments.

[第一実施形態]
<音声出力システム>
図1は、第一実施形態に係る音声出力システム1としての音声出力装置10を示すブロック図である。音声出力装置は、例えば、ヘッドホン10である。本実施形態では、音声出力システム1は、ヘッドホン10単体で構成される。
[First embodiment]
<Audio output system>
FIG. 1 is a block diagram showing an audio output device 10 as an audio output system 1 according to the first embodiment. The audio output device is, for example, headphones 10. In this embodiment, the audio output system 1 is composed of a single headphone 10 .

<ヘッドホン>
ヘッドホン10は、音声を出力したり、周辺の音声のノイズをキャンセルしたりする。ヘッドホン10は、例えばオーバーヘッド式で、ユーザの頭に装着する。ヘッドホン10は、音声出力制御装置20から出力される音声データに基づいて、音声を出力する。ヘッドホン10は、音声出力制御装置20から出力される制御信号に基づいて、周辺のノイズをキャンセル可能である。ヘッドホン10は、音声出力制御装置20を内蔵している。ヘッドホン10は、左音声出力部11と右音声出力部12と音声入力部13と左マイクロフォン14と右マイクロフォン15とセンサ16と音声出力制御装置20とを有する。
<Headphones>
The headphones 10 output audio and cancel surrounding audio noise. The headphones 10 are, for example, of an overhead type and are worn on the user's head. Headphones 10 output audio based on audio data output from audio output control device 20 . The headphones 10 can cancel surrounding noise based on a control signal output from the audio output control device 20. The headphones 10 have a built-in audio output control device 20. The headphones 10 include a left audio output section 11 , a right audio output section 12 , an audio input section 13 , a left microphone 14 , a right microphone 15 , a sensor 16 , and an audio output control device 20 .

左音声出力部11は、左耳用の音声出力部である。左音声出力部11は、左耳を覆う筐体を有する。左音声出力部11は、左耳において視聴させる音声を出力する。左音声出力部11は、音声出力制御装置20から音声データを取得する。左音声出力部11は、音声データの左チャンネルデータを出力する。左音声出力部11は、音声データの左チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。 The left audio output unit 11 is an audio output unit for the left ear. The left audio output unit 11 has a housing that covers the left ear. The left audio output unit 11 outputs audio to be viewed in the left ear. The left audio output unit 11 acquires audio data from the audio output control device 20. The left audio output unit 11 outputs left channel data of audio data. The left audio output section 11 converts the electrical signal obtained by D/A converting the left channel data of the audio data into sound and outputs the sound.

右音声出力部12は、右耳用の音声出力部である。右音声出力部12は、右耳において視聴させる音声を出力する。右音声出力部12は、音声出力制御装置20から音声データを取得する。右音声出力部12は、音声データの右チャンネルデータを出力する。右音声出力部12は、音声データの右チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。 The right audio output unit 12 is an audio output unit for the right ear. The right audio output unit 12 outputs audio to be viewed in the right ear. The right audio output unit 12 acquires audio data from the audio output control device 20. The right audio output unit 12 outputs right channel data of audio data. The right audio output unit 12 converts the electrical signal obtained by D/A converting the right channel data of the audio data into sound and outputs the sound.

音声入力部13は、例えば音楽または映像などのコンテンツの音声データが入力される。音声入力部13は、例えば図示しない記憶部に記憶された音声データが入力されてもよい。音声入力部13は、例えば図示しない電子書籍端末、スマートフォン、タブレット端末、携帯用音楽再生装置、および、携帯用ゲーム機などの電子機器から、有線または無線で音声データが入力されてもよい。 The audio input unit 13 receives audio data of content such as music or video, for example. For example, audio data stored in a storage unit (not shown) may be input to the audio input unit 13. The audio input unit 13 may receive audio data via wire or wirelessly from an electronic device (not shown) such as an electronic book terminal, a smartphone, a tablet terminal, a portable music playback device, and a portable game machine.

左マイクロフォン14は、左音声出力部11の筐体に配置されている。左マイクロフォン14は、周辺音を取得する。周辺音は、例えば第三者の話し声および乗物の騒音などを含む環境音である。左マイクロフォン14は、取得した音声を周辺音取得部24に出力する。 The left microphone 14 is arranged in the casing of the left audio output section 11. The left microphone 14 acquires surrounding sounds. Ambient sounds are environmental sounds including, for example, third party voices and vehicle noises. The left microphone 14 outputs the acquired audio to the surrounding sound acquisition section 24.

右マイクロフォン15は、右音声出力部12の筐体に配置されている。右マイクロフォン15は、周辺音を取得する。右マイクロフォン15は、取得した音声を周辺音取得部24に出力する。 The right microphone 15 is arranged in the casing of the right audio output section 12. The right microphone 15 acquires surrounding sounds. The right microphone 15 outputs the acquired audio to the surrounding sound acquisition section 24.

センサ16は、ヘッドホン10の姿勢、言い換えると、ヘッドホン10の向きを検出する。言い換えると、センサ16は、ヘッドホン10を装着したユーザの顔の向きを検出する。センサ16は、例えば3軸の加速度センサなどの各種センサを利用してヘッドホン10の姿勢を検出する。各種センサから姿勢を算出する方法は、公知のいずれの方法を使用してもよい。センサ16は、検出結果を向き検出部21へ出力する。センサ16は、左音声出力部11の筐体および右音声出力部12の筐体にそれぞれ配置されることが好ましい。これにより、高精度にヘッドホン10の姿勢を検出可能である。 The sensor 16 detects the attitude of the headphones 10, in other words, the orientation of the headphones 10. In other words, the sensor 16 detects the direction of the face of the user wearing the headphones 10. The sensor 16 detects the attitude of the headphones 10 using various sensors such as a three-axis acceleration sensor. Any known method may be used to calculate the posture from various sensors. The sensor 16 outputs the detection result to the orientation detection section 21 . It is preferable that the sensors 16 are arranged in the casing of the left audio output section 11 and the casing of the right audio output section 12, respectively. Thereby, the attitude of the headphones 10 can be detected with high accuracy.

<音声出力制御装置>
音声出力制御装置20は、ヘッドホン10から音声を出力したり、周辺のノイズをキャンセルしたりする。音声出力制御装置20は、ユーザの顔の向きに応じて、周辺音を低減した音声を出力したり、周辺音を低減した状態よりは周辺音が聞こえやすい状態としたりする。音声出力制御装置20は、例えば、CPU(Central Processing Unit)または音声処理用プロセッサなどで構成された演算処理装置(制御部)である。音声出力制御装置20は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。音声出力制御装置20は、向き検出部21と音声処理部22と内部メモリである記憶部とが含まれる。音声処理部22は、音声取得部23と周辺音取得部24と周辺音低減処理部25と音声出力制御部26とを有する。音声出力制御装置20は、一または複数の装置で構成されていてもよい。
<Audio output control device>
The audio output control device 20 outputs audio from the headphones 10 and cancels surrounding noise. Depending on the orientation of the user's face, the audio output control device 20 outputs audio with reduced ambient sounds, or puts the ambient sounds in a state where it is easier to hear than in a state where ambient sounds are reduced. The audio output control device 20 is, for example, an arithmetic processing device (control unit) including a CPU (Central Processing Unit) or an audio processing processor. The audio output control device 20 loads a program stored in a storage unit (not shown) into memory and executes instructions included in the program. The audio output control device 20 includes an orientation detection section 21, an audio processing section 22, and a storage section that is an internal memory. The audio processing section 22 includes an audio acquisition section 23 , an ambient sound acquisition section 24 , an ambient sound reduction processing section 25 , and an audio output control section 26 . The audio output control device 20 may be composed of one or more devices.

向き検出部21は、センサ16の検出結果から、ヘッドホン10の姿勢、言い換えると、ヘッドホン10の向きを検出する。これにより、向き検出部21は、ヘッドホン10を装着したユーザの顔の向きを検出する。より詳しくは、向き検出部21は、ユーザの顔の向きが第一状態であること、ユーザの顔の向きが第一状態と異なる第二状態であることを検出する。向き検出部21は、例えばユーザの顔の向きが下方を向いている状態であること、ユーザの顔の向きが下方を向いていない状態であることを検出する。向き検出部21は、例えばユーザの顔の向きの変化によって生じる加速度が閾値より小さいこと、ユーザの顔の向きの変化によって生じる加速度が閾値以上であることを検出可能である。 The orientation detection unit 21 detects the attitude of the headphones 10, in other words, the orientation of the headphones 10 from the detection result of the sensor 16. Thereby, the orientation detection unit 21 detects the orientation of the face of the user wearing the headphones 10. More specifically, the orientation detection unit 21 detects that the orientation of the user's face is in the first state, and that the orientation of the user's face is in the second state different from the first state. The orientation detection unit 21 detects, for example, that the user's face is facing downward, or that the user's face is not facing downward. The orientation detection unit 21 can detect, for example, that the acceleration caused by a change in the orientation of the user's face is smaller than a threshold value, and that the acceleration caused by a change in the orientation of the user's face is greater than or equal to the threshold value.

ユーザの顔の向きが第一状態から第二状態に変わった場合、ユーザが周辺を見回すなど、ユーザの注意が周辺に向いた可能性が高い。ユーザの顔の向きが下方を向いている状態から下方を向いていない状態に変わった場合、ユーザが顔を上げて周辺を確認するなど、ユーザの注意が周辺に向いた可能性が高い。ユーザの顔の向きの変化によって生じる加速度が閾値以上である場合、ユーザが顔の向きを急激に変化させたことを示し、ユーザの注意が周辺に向いた可能性が高い。このように、ユーザの注意が周辺に向いた可能性が高い場合には、周辺音を低減するノイズキャンセルの機能をOFFにして、周辺音を聞きやすい状態にすることが好ましい。 When the orientation of the user's face changes from the first state to the second state, there is a high possibility that the user's attention has turned to the surroundings, such as when the user looks around. If the orientation of the user's face changes from facing downward to not facing downward, there is a high possibility that the user's attention has turned to the surroundings, such as by raising the user's head to check the surroundings. If the acceleration caused by the change in the orientation of the user's face is equal to or greater than the threshold value, this indicates that the user has suddenly changed the orientation of the user's face, and there is a high possibility that the user's attention has turned to the surroundings. In this way, when there is a high possibility that the user's attention has turned to the surroundings, it is preferable to turn off the noise canceling function that reduces the surrounding sounds to make it easier to hear the surrounding sounds.

図2および図3は、ユーザがヘッドホン10のヘッドバンド101をユーザの頭頂部にかけて装着している場合のヘッドホンの向きを示す概略図である。図2は、ヘッドホン10を横方向、具体的には、ユーザがヘッドホン10を装着している状態の右横方向の右音声出力部12側から見た場合の姿勢を示す図である。この場合、ヘッドホン10を装着しているユーザの顔は、+Y方向を向いており、下方ではなく前方を向いている。図3は、ヘッドホン10を横方向、具体的には図2と同様に、ユーザがヘッドホン10を装着している状態の右横方向から見た場合の姿勢を示す図である。この場合、ヘッドホン10を装着しているユーザの顔は、+Y方向である下方を向く。 2 and 3 are schematic diagrams showing the orientation of the headphones when the user is wearing the headband 101 of the headphones 10 over the top of the user's head. FIG. 2 is a diagram showing the posture of the headphones 10 when viewed from the side, specifically, from the right side of the right audio output unit 12 in the right side when the user is wearing the headphones 10. In this case, the face of the user wearing the headphones 10 is facing in the +Y direction, not downward but forward. FIG. 3 is a diagram showing the posture of the headphones 10 when viewed from the lateral direction, specifically, from the right lateral direction when the user is wearing the headphones 10, similar to FIG. In this case, the face of the user wearing the headphones 10 faces downward, which is the +Y direction.

図2および図3に示すように、ヘッドホン10を装着したユーザの顔の向きは、重力加速度Gが検出される方向に対するヘッドホン10のY軸方向およびZ軸方向の傾きによって規定される。ヘッドホン10を装着したユーザがまっすぐ前を向いている状態から、下方を向いた状態になると、ヘッドホン10は、図2に示す状態から図3に示す状態のように姿勢が変化する。 As shown in FIGS. 2 and 3, the orientation of the face of the user wearing the headphones 10 is defined by the inclination of the headphones 10 in the Y-axis direction and the Z-axis direction with respect to the direction in which the gravitational acceleration G is detected. When the user wearing the headphones 10 changes from facing straight ahead to facing downward, the posture of the headphones 10 changes from the state shown in FIG. 2 to the state shown in FIG. 3.

例えば、ヘッドホン10がユーザの頭に装着されている状態において、ヘッドホン10の角度から、ユーザの顔が下を向いているか否かを判断する。例えば、図2に示す状態のように、重力加速度Gが検出される方向が、-Z方向から±20度以内であるときは、ユーザの顔の向きが下方を向いておらず、前方を向いていると判断する。また、図3に示す状態のように、重力加速度Gが検出される方向が、-Zから±20度以上であるときは、ユーザの顔の向きが下方を向いていると判断する。なお、Z軸に限定されず、Y軸またはZ軸とY軸との合成ベクトルなどを使用してもよい。 For example, when the headphones 10 are worn on the user's head, it is determined from the angle of the headphones 10 whether the user's face is facing downward. For example, as in the state shown in Figure 2, when the direction in which gravitational acceleration G is detected is within ±20 degrees from the -Z direction, the user's face is not facing downward but facing forward. It is determined that Further, as in the state shown in FIG. 3, when the direction in which the gravitational acceleration G is detected is ±20 degrees or more from −Z, it is determined that the user's face is facing downward. Note that the vector is not limited to the Z-axis, and the Y-axis or a composite vector of the Z-axis and the Y-axis may be used.

ヘッドホン10がユーザの頭に装着されているか否かは、センサ16の検出結果によって判断可能である。センサ16のX軸方向の検出結果がほぼ水平を示しており、+Y軸方向または-Y軸方向から例えば±10度以内に重力加速度が検出されていない場合、ヘッドホン10がユーザの頭に装着されていると判断する。さらに、例えばヘッドバンド101の開き具合またはイヤーパッドへの圧力などを検出する他のセンサを使用してもよい。 Whether the headphones 10 are worn on the user's head can be determined based on the detection result of the sensor 16. If the detection result of the sensor 16 in the X-axis direction indicates almost horizontal, and gravitational acceleration is not detected within, for example, ±10 degrees from the +Y-axis direction or the -Y-axis direction, the headphones 10 are worn on the user's head. It is determined that Furthermore, other sensors may be used that detect, for example, the degree of opening of the headband 101 or the pressure on the ear pads.

音声取得部23は、左音声出力部11と右音声出力部12とから出力するための音声データを音声入力部13から取得する。 The audio acquisition unit 23 acquires audio data from the audio input unit 13 to be output from the left audio output unit 11 and the right audio output unit 12.

周辺音取得部24は、左マイクロフォン14と右マイクロフォン15とから、周辺音を取得する。 The surrounding sound acquisition unit 24 obtains surrounding sounds from the left microphone 14 and the right microphone 15.

周辺音低減処理部25は、周辺音取得部24が取得した周辺音に基づいて、周辺音のノイズキャンセルを行って周辺音を低減する。ノイズキャンセルの方法は、公知の方法を適用可能であり、周辺音の位相を逆にした信号を、音声入力部13が取得した音声データに合成して、音声出力制御部26に出力させる。 The surrounding sound reduction processing section 25 performs noise cancellation of the surrounding sound based on the surrounding sound acquired by the surrounding sound acquisition section 24 to reduce the surrounding sound. As a noise cancellation method, a known method can be applied, and a signal obtained by inverting the phase of the surrounding sound is synthesized with the audio data acquired by the audio input section 13, and the synthesized signal is output to the audio output control section 26.

音声出力制御部26は、ヘッドホン10から音声データを音として出力する制御を行う。より詳しくは、音声出力制御部26は、音声データの左チャンネルデータをD/A変換して増幅した信号を左音声出力部11から出力させる。音声出力制御部26は、音声データの右チャンネルデータをD/A変換して増幅した信号を右音声出力部12から出力させる。 The audio output control unit 26 performs control to output audio data as sound from the headphones 10. More specifically, the audio output control section 26 causes the left audio output section 11 to output a signal obtained by D/A converting and amplifying the left channel data of the audio data. The audio output control section 26 causes the right audio output section 12 to output a signal obtained by D/A converting and amplifying the right channel data of the audio data.

音声出力制御部26は、向き検出部21が、ユーザの顔の向きが第一状態である場合は、周辺音低減処理部25による周辺音を低減した音声を出力し、ユーザの顔の向きが第一状態から第二状態に変化した場合は、周辺音低減処理部25による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。 When the orientation detection unit 21 detects that the orientation of the user's face is in the first state, the audio output control unit 26 outputs audio in which the ambient sound has been reduced by the ambient sound reduction processing unit 25, When the first state changes to the second state, the surrounding sound is more audible than the state where the surrounding sound is reduced by the surrounding sound reduction processing unit 25.

音声出力制御部26は、ユーザの顔の向きが下方を向いている状態である場合は、周辺音低減処理部25による周辺音を低減した音声を出力し、ユーザの顔の向きが下方を向いている状態から下方を向いていない状態に変化した場合は、周辺音低減処理部25による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。 When the user's face is facing downward, the audio output control unit 26 outputs the sound in which the surrounding sound has been reduced by the surrounding sound reduction processing unit 25, and when the user's face is facing downward. When the state changes from the state in which the user is facing downwards to the state in which the user is not looking downward, the state in which the surrounding sounds are more audible than in the state in which the surrounding sounds are reduced by the surrounding sound reduction processing unit 25 is set.

音声出力制御部26は、ユーザの顔の向きの変化によって生じる加速度が閾値より小さい状態である場合は、周辺音低減処理部25による周辺音を低減した音声を出力し、ユーザの顔の向きの変化によって生じる加速度が閾値以上である状態に変化した場合は、周辺音低減処理部25による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。 When the acceleration caused by the change in the user's face direction is smaller than the threshold, the sound output control unit 26 outputs the sound with the surrounding sound reduced by the surrounding sound reduction processing unit 25, and changes the direction of the user's face. When the acceleration caused by the change changes to a state where it is equal to or greater than the threshold value, the state is set such that the surrounding sound is easier to hear than the state where the surrounding sound is reduced by the surrounding sound reduction processing unit 25.

音声出力制御部26は、周辺音低減処理部25による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、周辺音低減処理部25による周辺音低減処理を行わないとしてもよい。この場合、音声出力制御部26は、ノイズキャンセルをOFFにする。これにより、ヘッドホン10を装着しているユーザが、周辺音を聞きやすくなる。 The audio output control section 26 may not perform the ambient sound reduction process by the ambient sound reduction processing section 25, as the ambient sound is more audible than the state in which the ambient sound is reduced by the ambient sound reduction processing section 25. In this case, the audio output control unit 26 turns off noise cancellation. This makes it easier for the user wearing the headphones 10 to hear surrounding sounds.

音声出力制御部26は、周辺音低減処理部25による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、周辺音低減処理部25による周辺音低減処理を行なわず、周辺音取得部24が取得した周辺音を左音声出力部11と右音声出力部12とから出力してもよい。これにより、ヘッドホン10を装着しているユーザが、左音声出力部11と右音声出力部12とから周辺音を聞けるようになる。 The audio output control unit 26 does not perform the ambient sound reduction process by the ambient sound reduction processing unit 25, and the surrounding sound acquisition unit 24 assumes that the ambient sound is easier to hear than the state in which the ambient sound is reduced by the ambient sound reduction processing unit 25. The surrounding sounds acquired by the user may be output from the left audio output section 11 and the right audio output section 12. This allows the user wearing the headphones 10 to hear surrounding sounds from the left audio output section 11 and the right audio output section 12.

次に、図4、図5を用いて、ヘッドホン10における情報処理について説明する。図4は、第一実施形態に係る音声出力システム1における処理の流れの一例を示すフローチャートである。図5は、第一実施形態に係る音声出力システム1における処理の流れの他の例を示すフローチャートである。例えば、ヘッドホン10の電源がONになった場合、ヘッドホン10がユーザの頭に装着された場合、ヘッドホン10がコンテンツの音声を出力する機能を備えている場合、ヘッドホン10から音声の出力が開始された場合、または、音声出力制御処理の開始操作がされた場合などに、図4、図5に示すフローチャートの処理が実行される。また、図4、図5に示すフローチャートの処理の開始時は、ノイズキャンセル処理が行われていることが前提である。 Next, information processing in the headphones 10 will be explained using FIGS. 4 and 5. FIG. 4 is a flowchart showing an example of the flow of processing in the audio output system 1 according to the first embodiment. FIG. 5 is a flowchart showing another example of the flow of processing in the audio output system 1 according to the first embodiment. For example, when the headphones 10 are turned on, when the headphones 10 are worn on the user's head, when the headphones 10 are equipped with a function to output the audio of the content, the headphones 10 start outputting audio. 4 and 5 are executed, or when an operation to start the audio output control process is performed. Furthermore, it is assumed that the noise canceling process is being performed when the processes in the flowcharts shown in FIGS. 4 and 5 are started.

まず、図4に示す処理について説明する。音声出力制御装置20は、ユーザの顔の向きの状態が変化したか否かを判定する(ステップS101)。より詳しくは、向き検出部21は、センサ16の検出結果から、ヘッドホン10の姿勢、言い換えると、ヘッドホン10の向きを検出し、ヘッドホン10の向きが変化したか否かを判定する。向き検出部21によって、ユーザの顔の向きの状態に変化があったと判定する場合(ステップS101でYes)、ステップS102へ進む。向き検出部21によって、ユーザの顔の向きの状態に変化があったと判定しない場合(ステップS101でNo)、ステップS104へ進む。ステップS101で判定するユーザの顔の向きの状態の変化の有無とは、ユーザの顔の向きが、X軸方向、Y軸方向またはZ軸方向の少なくともいずれかで、例えば10度以上の変化があった場合に、ユーザの顔の向きの状態に変化があったと判定する。または、ステップS101で判定するユーザの顔の向きの状態の変化の有無とは、ユーザの顔の向きが変わったときの加速度が閾値以上であった場合に、ユーザの顔の向きの状態に変化があったと判定する。この場合の閾値とは、ユーザの顔が急に異なる方向を向いたときに発生するような加速度を検出するような閾値である。 First, the processing shown in FIG. 4 will be explained. The audio output control device 20 determines whether the state of the user's face has changed (step S101). More specifically, the orientation detection unit 21 detects the orientation of the headphones 10, in other words, the orientation of the headphones 10 from the detection result of the sensor 16, and determines whether the orientation of the headphones 10 has changed. If the orientation detection unit 21 determines that there has been a change in the orientation of the user's face (Yes in step S101), the process advances to step S102. If the orientation detection unit 21 does not determine that there has been a change in the orientation of the user's face (No in step S101), the process advances to step S104. The presence or absence of a change in the state of the user's face orientation determined in step S101 means that the user's face orientation has changed by, for example, 10 degrees or more in at least one of the X-axis direction, Y-axis direction, or Z-axis direction. If so, it is determined that there has been a change in the orientation of the user's face. Alternatively, the presence or absence of a change in the state of the user's face direction determined in step S101 means that the state of the user's face direction changes if the acceleration when the user's face direction changes is equal to or greater than a threshold value. It is determined that there was. The threshold value in this case is a threshold value that detects the acceleration that occurs when the user's face suddenly turns in a different direction.

ユーザの顔の向きの状態に変化があったと判定する場合(ステップS101でYes)、音声出力制御装置20は、ステップS101で検出されたユーザの顔の向きの状態の変化が、第一状態から第二状態への変化であるか否かを判定する(ステップS102)。より詳しくは、音声出力制御部26は、ステップS101で検出されたユーザの顔の向きの状態の変化が、ユーザの顔が下方を向いている第一状態から、ユーザの顔が下方を向いていない第二状態への変化であるか否かを判定する。または、音声出力制御部26は、ステップS101で検出されたユーザの顔の向きの状態の変化が、ユーザの顔の向きの変化によって生じる加速度が閾値より小さい第一状態から、ユーザの顔の向きの変化によって生じる加速度が閾値より大きい第二状態への変化であるか否かを判定する。 When determining that there has been a change in the state of the user's face orientation (Yes in step S101), the audio output control device 20 determines that the change in the state of the user's face orientation detected in step S101 has changed from the first state. It is determined whether the change is to the second state (step S102). More specifically, the audio output control unit 26 changes the state of the user's face orientation detected in step S101 from a first state in which the user's face is facing downward to a state in which the user's face is facing downward. It is determined whether the change is to the second state where there is no state. Alternatively, the audio output control unit 26 changes the state of the user's face orientation detected in step S101 from a first state in which the acceleration caused by the change in the user's face orientation is smaller than the threshold value. It is determined whether the acceleration caused by the change in is a change to the second state where the acceleration is greater than a threshold value.

ユーザの顔の向きの状態の変化が、第一状態から第二状態への変化であると判定する場合(ステップS102でYes)、音声出力制御装置20は、ステップS103へ進む。ユーザの顔の向きの状態の変化が、第一状態から第二状態への変化であると判定しない場合(ステップS102でNo)、音声出力制御装置20は、ステップS104へ進む。 When determining that the change in the state of the user's face orientation is from the first state to the second state (Yes in step S102), the audio output control device 20 proceeds to step S103. If it is not determined that the change in the state of the user's face orientation is a change from the first state to the second state (No in step S102), the audio output control device 20 proceeds to step S104.

ユーザの顔の向きの状態の変化が、第一状態から第二状態への変化であると判定する場合(ステップS102でYes)、音声出力制御装置20は、ノイズキャンセルをOFFにする(ステップS103)。より詳しくは、音声出力制御部26は、周辺音低減処理部25によるノイズキャンセルをOFFにする。なお、音声出力制御部26は、コンテンツの音声を左音声出力部11と右音声出力部12とから出力してもよい。この状態では、周囲の音声が聞こえやすい状態で、左音声出力部11と右音声出力部12とからコンテンツの音声が出力される。音声出力制御装置20は、ステップS104へ進む。 When determining that the change in the state of the user's face orientation is from the first state to the second state (Yes in step S102), the audio output control device 20 turns off noise cancellation (step S103). ). More specifically, the audio output control unit 26 turns off noise cancellation by the ambient sound reduction processing unit 25. Note that the audio output control section 26 may output the audio of the content from the left audio output section 11 and the right audio output section 12. In this state, the audio of the content is output from the left audio output unit 11 and the right audio output unit 12, with surrounding audio being easily audible. The audio output control device 20 proceeds to step S104.

音声出力制御装置20は、ヘッドホン10の利用を終了するか否かを判定する(ステップS104)。例えば、ヘッドホン10の電源がOFFになった場合、ヘッドホン10がユーザの頭から取り外された場合、ヘッドホン10から音声の出力が停止された場合、または、音声出力制御処理の終了操作がされた場合などに、利用を終了すると判定して(ステップS104でYes)、処理を終了する。音声出力制御装置20は、上記に該当しない場合、利用を終了すると判定せずに(ステップS104でNo)、ステップS105へ進む。 The audio output control device 20 determines whether to end the use of the headphones 10 (step S104). For example, when the headphones 10 are powered off, when the headphones 10 are removed from the user's head, when audio output from the headphones 10 is stopped, or when an operation to end audio output control processing is performed etc., it is determined that the use is to be terminated (Yes in step S104), and the process is terminated. If the above does not apply, the audio output control device 20 does not determine to end the use (No in step S104) and proceeds to step S105.

音声出力制御装置20は、利用を終了すると判定しない場合(ステップS104でNo)、所定期間経過したか否かを判定する(ステップS105)。より詳しくは、音声出力制御部26は、ステップS103でノイズキャンセルがOFFとなってから、例えば30秒間から1分間程度の予め設定された期間が経過したか否かを判定する。この場合の所定期間とは、ユーザが周辺音を確認するために適切な期間である。音声出力制御部26によって、所定期間経過したと判定しない場合(ステップS105でNo)、再度ステップS105の判定を行い、所定期間経過したと判定した場合(ステップS105でYes)、ステップS106へ進む。 If the audio output control device 20 does not determine to end the use (No in step S104), it determines whether a predetermined period of time has elapsed (step S105). More specifically, the audio output control unit 26 determines whether a preset period of about 30 seconds to 1 minute has elapsed since the noise cancellation was turned off in step S103. The predetermined period in this case is an appropriate period for the user to check surrounding sounds. If the audio output control unit 26 does not determine that the predetermined period has elapsed (No in step S105), the determination in step S105 is performed again, and if it determines that the predetermined period has elapsed (Yes in step S105), the process proceeds to step S106.

ステップS105で、所定期間経過したと判定した場合(ステップS105でYes)、音声出力制御装置20は、ノイズキャンセルをONとして(ステップS106)、ステップS101へ進む。 If it is determined in step S105 that the predetermined period has elapsed (Yes in step S105), the audio output control device 20 turns on noise cancellation (step S106), and proceeds to step S101.

つづいて、図5に示す処理について説明する。図5に示すフローチャートのステップS111、ステップS112、ステップS114、ステップ115は、図4に示すフローチャートのステップS101、ステップS102、ステップS104、ステップS105と同様の処理を行う。

Next, the processing shown in FIG. 5 will be explained. Steps S111, S112, S114, and S115 in the flowchart shown in FIG. 5 perform the same processing as steps S101 , S102, S104, and S105 in the flowchart shown in FIG.

ユーザの顔の向きの状態が、第一状態から第二状態への変化であると判定する場合(ステップS112でYes)、音声出力制御装置20は、ノイズキャンセルをOFFにして、周辺音を出力する(ステップS113)。より詳しくは、音声出力制御部26は、周辺音低減処理部25によるノイズキャンセルをOFFにして、周辺音取得部24が取得した周辺音を左音声出力部11と右音声出力部12とから出力する。なお、音声出力制御部26は、コンテンツの音声を左音声出力部11と右音声出力部12とから出力してもよい。この状態では、周囲の音声が聞こえやすい状態で、左音声出力部11と右音声出力部12とからコンテンツの音声とともに、周辺音が出力される。音声出力制御装置20は、ステップS114へ進む。 If it is determined that the state of the user's face direction has changed from the first state to the second state (Yes in step S112), the audio output control device 20 turns off noise cancellation and outputs the surrounding sound. (Step S113). More specifically, the audio output control unit 26 turns off noise cancellation by the ambient sound reduction processing unit 25 and outputs the ambient sound acquired by the ambient sound acquisition unit 24 from the left audio output unit 11 and the right audio output unit 12. do. Note that the audio output control section 26 may output the audio of the content from the left audio output section 11 and the right audio output section 12. In this state, surrounding sounds are outputted from the left audio output section 11 and the right audio output section 12 together with the audio of the content so that the surrounding sounds can be easily heard. The audio output control device 20 proceeds to step S114.

ステップS115で、所定期間経過したと判定した場合(ステップS115でYes)、音声出力制御装置20は、ノイズキャンセルをONにするとともに、周辺音の出力を停止し(ステップS116)、ステップS111へ進む。 If it is determined in step S115 that the predetermined period of time has elapsed (Yes in step S115), the audio output control device 20 turns on noise cancellation and stops outputting ambient sounds (step S116), and proceeds to step S111. .

このようにして、ヘッドホン10を装着しているユーザの顔の向きの状態が第一状態から第二状態に変わった場合、ユーザの顔の向きが下方を向いている状態から下方を向いていない状態に変わった場合、または、ユーザの顔の向きの変化によって生じる加速度が閾値以上である場合、周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。 In this way, when the state of the face direction of the user wearing the headphones 10 changes from the first state to the second state, the user's face direction changes from facing downward to not facing downward. If the state changes, or if the acceleration caused by a change in the orientation of the user's face is equal to or greater than the threshold, the state is set in which the surrounding sounds are easier to hear than the state in which the surrounding sounds are reduced.

<効果>
上述したように、本実施形態は、ユーザの顔の向きの状態が第一状態から第二状態に変わった場合、ユーザの顔の向きが下方を向いている状態から下方を向いていない状態に変わった場合、または、ユーザの顔の向きの変化によって生じる加速度が閾値以上である場合、周辺音を低減した状態よりは周辺音が聞こえやすくできる。本実施形態によれば、ユーザが周辺に注意を向けたと推定される状態となった場合に、周辺音がノイズキャンセルされた状態より、適切に周辺音を確認できる。このようにして、本実施形態によれば、ユーザが周辺音を聞きたいときに、適切に周辺音を確認できる。
<Effect>
As described above, in this embodiment, when the state of the user's face changes from the first state to the second state, the user's face changes from the state facing downward to the state not facing downward. If the change occurs, or if the acceleration caused by the change in the direction of the user's face is equal to or greater than the threshold, the surrounding sound can be more audible than in a state where the surrounding sound is reduced. According to the present embodiment, when it is assumed that the user is paying attention to the surroundings, it is possible to appropriately confirm the surrounding sounds in a state where the surrounding sounds are noise-cancelled. In this way, according to the present embodiment, when the user wants to hear the surrounding sounds, the user can appropriately check the surrounding sounds.

本実施形態では、ユーザの顔の向きの状態が第一状態から第二状態に変わった場合、ユーザの顔の向きが下方を向いている状態から下方を向いていない状態に変わった場合、または、ユーザの顔の向きの変化によって生じる加速度が閾値以上である場合、周辺音を低減した状態よりは周辺音が聞こえやすくする。これらの場合は、いずれもユーザの注意が周辺に向いた可能性が高い。本実施形態によれば、ユーザの注意が周辺に向いた可能性が高い場合に、ノイズキャンセルの機能をOFFにして、周辺音を聞きやすい状態にできる。 In this embodiment, when the state of the user's face changes from the first state to the second state, when the user's face direction changes from the state facing downward to the state not facing downward, or , when the acceleration caused by a change in the user's face orientation is equal to or greater than a threshold, the surrounding sound is made easier to hear than when the surrounding sound is reduced. In all of these cases, there is a high possibility that the user's attention was directed to the surroundings. According to this embodiment, when there is a high possibility that the user's attention has turned to the surroundings, the noise canceling function can be turned off to make it easier to hear surrounding sounds.

本実施形態では、周辺音を低減した状態よりは周辺音が聞こえやすい状態として、周辺音低減処理部25による周辺音低減処理を行わない、または、周辺音低減処理を行なわず、周辺音取得部24が取得した周辺音を左音声出力部11と右音声出力部12とから出力する。本実施形態によれば、周辺音を聞こえやすくできる。 In the present embodiment, the ambient sound reduction processing section 25 does not perform the ambient sound reduction processing, or the ambient sound acquisition section does not perform the ambient sound reduction processing, and the ambient sound acquisition section 24 outputs the acquired ambient sound from the left audio output section 11 and the right audio output section 12. According to this embodiment, surrounding sounds can be easily heard.

ユーザの顔の向きの状態が第一状態から第二状態に変わる場合とは、例えば、ユーザがヘッドホン10で音楽等を聴きながら、交通機関の座席に着座し、下方を向いている状態で、ユーザが交通機関内の放送により停車駅などの情報を知りたく、顔を上げる動作を行う。このような動作を行うことで、ユーザの顔の向きの状態が第一状態から第二状態に変わる。 The case where the state of the user's face direction changes from the first state to the second state is, for example, a state where the user is sitting in a seat on a public transportation and facing downward while listening to music etc. through the headphones 10. A user looks up in order to know information such as stop stations from a public transportation system. By performing such an operation, the state of the user's face direction changes from the first state to the second state.

[第二実施形態]
図6は、第二実施形態に係る音声出力システム1Aの概略図である。図7は、第二実施形態に係る音声出力システム1Aのブロック図である。音声出力システム1Aは、音声出力装置としてのヘッドホン10Aと、例えば、電子書籍端末、スマートフォン、タブレット端末、携帯用音楽再生装置、および、携帯用ゲーム機などの電子機器30Aとを含む。言い換えると、音声出力システム1Aは、音声出力装置としてのヘッドホン10Aと電子機器30Aとの組み合わせである。
[Second embodiment]
FIG. 6 is a schematic diagram of an audio output system 1A according to the second embodiment. FIG. 7 is a block diagram of an audio output system 1A according to the second embodiment. The audio output system 1A includes a headphone 10A as an audio output device, and an electronic device 30A such as an electronic book terminal, a smartphone, a tablet terminal, a portable music playback device, and a portable game machine. In other words, the audio output system 1A is a combination of headphones 10A as an audio output device and an electronic device 30A.

ヘッドホン10Aは、電子機器30Aと有線または無線でデータを送受信可能に接続されている。ヘッドホン10Aは、電子機器30Aから出力される音声信号を出力する。 The headphones 10A are connected to the electronic device 30A so as to be able to transmit and receive data by wire or wirelessly. Headphone 10A outputs the audio signal output from electronic device 30A.

電子機器30Aは、音声入力部13と同様の機能を有する音声入力部31Aと、音声出力制御装置20と同様の機能を有する音声出力制御装置40Aとを有する。 The electronic device 30A includes an audio input section 31A having the same function as the audio input section 13, and an audio output control device 40A having the same function as the audio output control device 20.

図7におけるヘッドホン10Aの構成は、図1に示すヘッドホン10の構成に含まれる構成と同等である。また、図7における電子機器30Aの構成は、図1に示すヘッドホン10の構成に含まれる構成に対して、音声出力制御装置40Aが音声出力制御装置20に対応し、音声処理部42Aが音声処理部22に対応する。同様に、音声取得部43Aが音声取得部23に対応し、周辺音取得部44Aが周辺音取得部24に対応し、周辺音低減処理部45Aが周辺音低減処理部25に対応し、音声出力制御部46Aが音声出力制御部26に対応し、向き検出部41Aが向き検出部21に対応して、各々同等の構成である。 The configuration of the headphones 10A in FIG. 7 is equivalent to the configuration included in the configuration of the headphones 10 shown in FIG. Furthermore, in the configuration of the electronic device 30A in FIG. 7, with respect to the configuration included in the configuration of the headphones 10 shown in FIG. This corresponds to section 22. Similarly, the audio acquisition unit 43A corresponds to the audio acquisition unit 23, the ambient sound acquisition unit 44A corresponds to the ambient sound acquisition unit 24, the ambient sound reduction processing unit 45A corresponds to the ambient sound reduction processing unit 25, and the audio output The control section 46A corresponds to the audio output control section 26, and the direction detection section 41A corresponds to the direction detection section 21, so that they have the same configuration.

上述したように、本実施形態のように音声出力装置としてのヘッドホン10Aと電子機器30Aとの組み合わせても、第一実施形態と同様に適切に周辺音を確認できる。 As described above, even when the headphones 10A as an audio output device and the electronic device 30A are combined as in this embodiment, surrounding sounds can be appropriately confirmed as in the first embodiment.

[第三実施形態]
図8、図9を参照しながら、本実施形態に係る音声出力システム1Bについて説明する。図8は、第三実施形態に係る音声出力システム1Bのブロック図である。図9は、第三実施形態に係る音声出力システム1Bにおける処理の流れの一例を示すフローチャートである。音声出力システム1Bは、基本的な構成は第二実施形態の音声出力システム1Aと同様である。本実施形態では、電子機器30Bは、GNSS(Global Navigation Satellite System)受信部32Bと位置情報算出部47Bと判断部48Bとを有する。
[Third embodiment]
The audio output system 1B according to this embodiment will be described with reference to FIGS. 8 and 9. FIG. 8 is a block diagram of an audio output system 1B according to the third embodiment. FIG. 9 is a flowchart showing an example of the flow of processing in the audio output system 1B according to the third embodiment. The basic configuration of the audio output system 1B is the same as the audio output system 1A of the second embodiment. In this embodiment, the electronic device 30B includes a GNSS (Global Navigation Satellite System) receiving section 32B, a position information calculating section 47B, and a determining section 48B.

GNSS受信部32Bは、GNSS衛星からのGNSS信号を受信するGNSS受信機などで構成される。GNSS受信部32Bは、受信したGNSS信号を位置情報算出部47Bに出力する。 The GNSS receiving unit 32B includes a GNSS receiver that receives GNSS signals from GNSS satellites. The GNSS receiving section 32B outputs the received GNSS signal to the position information calculating section 47B.

位置情報算出部47Bは、GNSS受信部32BからGNSS信号を受け付ける。位置情報算出部47Bは、GNSS信号に基づいて、現在位置情報を算出する。位置情報算出部47BおよびGNSS受信部32Bは、GNSS信号に限らず、他の方式の測位衛星システムに対応していてもよい。 The position information calculation unit 47B receives a GNSS signal from the GNSS reception unit 32B. The position information calculation unit 47B calculates current position information based on the GNSS signal. The position information calculation unit 47B and the GNSS reception unit 32B are not limited to GNSS signals, and may be compatible with other types of positioning satellite systems.

判断部48Bは、ユーザが交通機関を利用しているか否かを判断する。例えば、判断部48Bは、位置情報算出部47Bが算出した位置情報に基づいて、ヘッドホン10を装着したユーザの現在位置が、図示しない地図情報の交通機関の位置情報に該当する場合や、移動履歴や移動速度に基づいて、交通機関を利用していると判断してもよい。判断部48Bは、交通機関を利用しているかを判断する方法は限定されず、例えば、ヘッドホン10Bの周辺のノイズまたは振動を利用するような他の方法によって判断されてもよい。 The determining unit 48B determines whether the user is using transportation. For example, based on the position information calculated by the position information calculation unit 47B, the determination unit 48B determines whether the current position of the user wearing the headphones 10 corresponds to the position information of a transportation facility in map information (not shown) or the movement history. It may be determined that the person is using transportation based on the person's travel rate or travel speed. The determination unit 48B is not limited to a method for determining whether the person is using transportation, and may use other methods such as using noise or vibrations around the headphones 10B, for example.

次に、図9を用いて、音声出力システム1Bにおける情報処理について説明する。図9に示すフローチャートのステップS122ないしステップS124、ステップS126およびステップS127は、図4に示すフローチャートのステップS101ないしステップS103、ステップS105およびステップS106と同様の処理を行う。 Next, information processing in the audio output system 1B will be explained using FIG. 9. Steps S122 to S124, S126, and S127 in the flowchart shown in FIG. 9 perform the same processing as steps S101 to S103, S105, and S106 in the flowchart shown in FIG.

音声出力制御装置40Bは、交通機関を利用しているか否かを判断する(ステップS121)。より詳しくは、判断部48Bによって、位置情報算出部47Bが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報に該当する場合などの判断結果に基づき、交通機関を利用していると判断する。判断部48Bによって、交通機関を利用していると判断する場合(ステップS121でYes)、ステップS122へ進む。判断部48Bによって、交通機関を利用していると判断しない場合(ステップS121でNo)、処理を終了する。 The audio output control device 40B determines whether or not a means of transportation is being used (step S121). More specifically, based on the position information calculated by the position information calculation unit 47B, the determination unit 48B determines whether the user's current position corresponds to the position information of the transportation system in the map information, etc. It is determined that you are using . If the determining unit 48B determines that the user is using transportation (Yes in step S121), the process advances to step S122. If the determining unit 48B does not determine that the user is using transportation (No in step S121), the process ends.

ステップS125における利用終了の判断は、ヘッドホン10Bまたは電子機器30Bの利用終了の判断に加えて、音声出力制御装置40Bは、交通機関の利用を終了するか否かも判断する(ステップS125)。より詳しくは、判断部48Bによって、位置情報算出部47Bが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報から外れる場合など、交通機関の利用が終了していることの検出によって、交通機関の利用を終了すると判断する。判断部48Bによって、交通機関の利用を終了すると判断する場合(ステップS125でYes)、処理を終了する。判断部48Bによって、交通機関の利用を終了すると判断しない場合(ステップS125でNo)、ステップS126へ進む。 In addition to determining whether to end the use of the headphones 10B or the electronic device 30B in step S125, the audio output control device 40B also determines whether to end the use of the transportation facility (step S125). More specifically, based on the position information calculated by the position information calculation unit 47B, the determination unit 48B determines whether the user's current location deviates from the position information of the transportation system in the map information, or when the user has finished using the transportation system. When it is detected that there is a vehicle, it is determined that the use of transportation is to be terminated. If the determination unit 48B determines that the use of the transportation facility is to be terminated (Yes in step S125), the process is terminated. If the determination unit 48B does not determine that the use of transportation is to be terminated (No in step S125), the process advances to step S126.

<効果>
上述したように、本実施形態は、ヘッドホン10Bを装着したユーザが交通機関を利用している場合であって、ユーザの顔の向きが第一状態から第二状態に変わった場合、ユーザの顔の向きが下方を向いている状態から下方を向いていない状態に変わった場合、または、ユーザの顔の向きの変化によって生じる加速度が閾値以上である場合には、周辺音を低減した状態よりは周辺音が聞こえやすくできる。本実施形態によれば、ヘッドホン10Bを装着したユーザが交通機関の利用中に、アナウンスなどを聞くために顔を上げた場合などに、アナウンスなどの周辺音を聞きやすくできる。本実施形態によれば、不用意にノイズキャンセルがOFFされることを抑制できる。
<Effect>
As described above, in the present embodiment, when the user wearing the headphones 10B is using transportation, and the direction of the user's face changes from the first state to the second state, the user's face is changed from the first state to the second state. If the orientation of the user's face changes from facing downward to not facing downward, or if the acceleration caused by the change in the user's face orientation is greater than or equal to the threshold, the Allows you to easily hear surrounding sounds. According to this embodiment, when a user wearing headphones 10B looks up to hear an announcement while using public transportation, it is possible to easily hear surrounding sounds such as announcements. According to this embodiment, it is possible to prevent noise cancellation from being turned off carelessly.

図示した音声出力システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated audio output system 1 is functionally conceptual, and does not necessarily have to be physically configured as illustrated. In other words, the specific form of each device is not limited to what is shown in the diagram, and all or part of it may be functionally or physically distributed or integrated into arbitrary units depending on the processing load and usage status of each device. It's okay.

音声出力システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the audio output system 1 is realized by, for example, a program loaded into a memory as software. The above embodiments have been described as functional blocks realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms using only hardware, only software, or a combination thereof.

上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The components described above include those that can be easily imagined by those skilled in the art and that are substantially the same. Furthermore, the configurations described above can be combined as appropriate. Furthermore, various omissions, substitutions, or changes in the configuration are possible without departing from the gist of the present invention.

上記では、周辺音が聞こえやすい状態の例として、周辺音低減処理を行わない状態とする例と、周辺音低減処理を行わず周辺音を出力する例とを示した。周辺音が聞こえやすい状態の例として、上記以外に、周辺音低減レベルを下げる、つまりノイズキャンセルレベルの効果を低減させてもよい。また、他の例として、ノイズキャンセルレベルの効果を低減させつつ周辺音を出力することとしてもよい。周辺音低減レベルを下げる処理とは、左マイクロフォン14と右マイクロフォン15とから取得した周辺音の位相を逆にして、音圧レベルを下げた信号を、音声入力部13が取得した音声データに合成して、音声出力制御部26に出力させる。 In the above, as examples of states in which surrounding sounds are easily audible, an example in which the surrounding sound reduction processing is not performed and an example in which the surrounding sound is output without performing the surrounding sound reduction processing are shown. As an example of a state in which surrounding sounds are easily audible, in addition to the above, the surrounding sound reduction level may be lowered, that is, the effect of the noise cancellation level may be reduced. Furthermore, as another example, ambient sound may be output while reducing the effect of the noise cancellation level. The process of lowering the ambient sound reduction level involves reversing the phases of the ambient sounds acquired from the left microphone 14 and the right microphone 15 and synthesizing a signal with a lower sound pressure level with the audio data acquired by the audio input unit 13. Then, the audio output controller 26 outputs the audio data.

また、上記では、周辺音が聞こえやすい状態とする処理を、左音声出力部11と右音声出力部12とに対して行ったが、左音声出力部11と右音声出力部12とのいずれか一方に対して行うこととしてもよい。例えば、ユーザが自らの利き耳の方で用いる音声出力部に対して、周辺音が聞こえやすい状態とする処理が行われるように設定してもよい。 In addition, in the above, the processing for making it easier to hear surrounding sounds was performed on the left audio output section 11 and the right audio output section 12, but when either the left audio output section 11 or the right audio output section 12 It may be done for one side. For example, the user may set the audio output unit used by the user's dominant ear to perform processing to make it easier to hear surrounding sounds.

上記では、音声出力装置の一例としてヘッドホン10について説明したが、これに限定されない。音声出力装置は、例えば、イヤホンおよび首掛け式のスピーカなどであってもよい。音声出力装置は、音声入力部13を備えない、ノイズキャンセル機能のみを有する電子耳栓装置にも適用可能である。 Although the headphones 10 have been described above as an example of the audio output device, the present invention is not limited thereto. The audio output device may be, for example, an earphone or a neck-mounted speaker. The audio output device can also be applied to an electronic earplug device that does not include the audio input section 13 and has only a noise canceling function.

1 音声出力システム
10 ヘッドホン(音声出力装置)
11 左音声出力部
12 右音声出力部
13 音声入力部
14 左マイクロフォン
15 右マイクロフォン
16 センサ
20 音声出力制御装置
21 向き検出部
22 音声処理部
23 音声取得部
24 周辺音取得部
25 周辺音低減処理部
26 音声出力制御部
1 Audio output system 10 Headphones (audio output device)
11 Left audio output unit 12 Right audio output unit 13 Audio input unit 14 Left microphone 15 Right microphone 16 Sensor 20 Audio output control device 21 Direction detection unit 22 Audio processing unit 23 Audio acquisition unit 24 Ambient sound acquisition unit 25 Ambient sound reduction processing unit 26 Audio output control section

Claims (8)

ヘッドホンに備えられたセンサを用いて前記ヘッドホンを装着したユーザの顔の向きの状態を検出する向き検出部と、
前記ヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得する周辺音取得部と、
前記周辺音取得部が取得した周辺音に基づき、前記ヘッドホンの音声出力に対して周辺音を低減する処理を行う周辺音低減処理部と
前記ユーザが交通機関を利用していることを判断する判断部と、
前記ユーザが交通機関を利用している場合に、前記向き検出部が、前記ユーザの顔の向きの状態が第一状態である場合は、前記周辺音低減処理部による周辺音を低減した音声を出力し、前記ユーザの顔の向きの状態が前記第一状態から第二状態に変化した場合は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする音声出力制御部と、
を備える、音声出力制御装置。
an orientation detection unit that detects the state of the face of a user wearing the headphones using a sensor included in the headphones;
an ambient sound acquisition unit that acquires ambient sounds of the user from a microphone provided in the headphones ;
an ambient sound reduction processing unit that performs processing to reduce ambient sound with respect to the audio output of the headphones based on the ambient sound acquired by the ambient sound acquisition unit ;
a determination unit that determines that the user uses transportation;
When the user is using transportation, the direction detection section detects, if the state of the user's face direction is in the first state, the direction detection section outputs the sound in which the surrounding sound has been reduced by the surrounding sound reduction processing section. a sound that outputs a state in which when the state of the user's face direction changes from the first state to the second state, the surrounding sound is more audible than the state where the surrounding sound is reduced by the surrounding sound reduction processing unit; an output control section;
An audio output control device comprising:
前記第一状態は、前記ユーザの顔の向きが下方を向いている状態であり、
前記第二状態は、前記ユーザの顔の向きが下方を向いていない状態である、
請求項1に記載の音声出力制御装置。
The first state is a state in which the user's face is facing downward,
The second state is a state in which the user's face is not facing downward.
The audio output control device according to claim 1.
前記第一状態は、前記ユーザの顔の向きの変化によって生じる加速度が閾値より小さい状態であり、
前記第二状態は、前記ユーザの顔の向きの変化によって生じる加速度が閾値以上である状態である、
請求項1に記載の音声出力制御装置。
The first state is a state in which an acceleration caused by a change in the direction of the user's face is smaller than a threshold,
The second state is a state in which the acceleration caused by a change in the direction of the user's face is equal to or greater than a threshold.
The audio output control device according to claim 1.
前記音声出力制御部は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、前記周辺音低減処理部による周辺音低減処理を行わない、
請求項1から3のいずれか一項に記載の音声出力制御装置。
The audio output control unit does not perform the ambient sound reduction process by the ambient sound reduction processing unit as a state where the ambient sound is easier to hear than the state in which the ambient sound is reduced by the ambient sound reduction processing unit.
The audio output control device according to any one of claims 1 to 3.
前記音声出力制御部は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、前記周辺音低減処理部による周辺音低減処理を行なわず、
前記周辺音取得部が取得した周辺音を出力する、
請求項1から3のいずれか一項に記載の音声出力制御装置。
The audio output control unit does not perform the ambient sound reduction process by the ambient sound reduction processing unit as a state in which the ambient sound is easier to hear than the state in which the ambient sound is reduced by the ambient sound reduction processing unit,
outputting the ambient sound acquired by the ambient sound acquisition unit;
The audio output control device according to any one of claims 1 to 3.
請求項1から5のいずれか一項に記載の音声出力制御装置と、The audio output control device according to any one of claims 1 to 5,
周辺音を収音する収音部と、A sound collection unit that collects surrounding sounds;
音声を出力する音声出力部と、an audio output section that outputs audio;
を備える、音声出力システム。An audio output system equipped with.
ヘッドホンに備えられたセンサを用いて前記ヘッドホンを装着したユーザの顔の向きの状態を検出するステップと、detecting the state of the face of the user wearing the headphones using a sensor included in the headphones;
前記ヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、obtaining ambient sounds of the user from a microphone included in the headphones;
前記ユーザが交通機関を利用していることを判断するステップと、determining that the user uses transportation;
前記ユーザが交通機関を利用している場合に、前記ユーザの顔の向きの状態が第一状態である場合は、取得した周辺音に基づき、前記ヘッドホンの音声出力に対して周辺音を低減した音声を出力し、前記ユーザの顔の向きの状態が前記第一状態から第二状態に変化した場合は、前記ヘッドホンの音声出力に対して周辺音を低減した状態よりは周辺音が聞こえやすい状態とするステップと、When the user is using transportation and the user's face orientation is in the first state, the ambient sound is reduced with respect to the audio output of the headphones based on the acquired ambient sound. When audio is output and the state of the user's face changes from the first state to the second state, a state in which ambient sounds are easier to hear than in a state where ambient sounds are reduced relative to the audio output of the headphones. a step of
を含む、音声出力制御装置が実行する音声出力制御方法。An audio output control method executed by an audio output control device, including:
ヘッドホンに備えられたセンサを用いて前記ヘッドホンを装着したユーザの顔の向きの状態を検出するステップと、detecting the state of the face of the user wearing the headphones using a sensor included in the headphones;
前記ヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、obtaining ambient sounds of the user from a microphone included in the headphones;
前記ユーザが交通機関を利用していることを判断するステップと、determining that the user uses transportation;
前記ユーザが交通機関を利用している場合に、前記ユーザの顔の向きの状態が第一状態である場合は、取得した周辺音に基づき、前記ヘッドホンの音声出力に対して周辺音を低減した音声を出力し、前記ユーザの顔の向きの状態が前記第一状態から第二状態に変化した場合は、前記ヘッドホンの音声出力に対して周辺音を低減した状態よりは周辺音が聞こえやすい状態とするステップと、When the user is using transportation and the user's face orientation is in the first state, the ambient sound is reduced with respect to the audio output of the headphones based on the acquired ambient sound. When audio is output and the state of the user's face changes from the first state to the second state, a state in which ambient sounds are easier to hear than in a state where ambient sounds are reduced relative to the audio output of the headphones. a step of
を含む、コンピュータが実行するプログラム。A program that a computer runs, including.
JP2020054853A 2020-03-25 2020-03-25 Audio output control device, audio output system, audio output control method and program Active JP7443877B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020054853A JP7443877B2 (en) 2020-03-25 2020-03-25 Audio output control device, audio output system, audio output control method and program
CN202080093491.2A CN114981756A (en) 2020-03-25 2020-11-20 Audio output control device, audio output system, audio output control method, and program
PCT/JP2020/043489 WO2021192410A1 (en) 2020-03-25 2020-11-20 Voice output control device, voice output system, voice output control method, and program
US17/946,162 US20230012555A1 (en) 2020-03-25 2022-09-16 Sound output control device, sound output system, sound output control method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054853A JP7443877B2 (en) 2020-03-25 2020-03-25 Audio output control device, audio output system, audio output control method and program

Publications (3)

Publication Number Publication Date
JP2021156956A JP2021156956A (en) 2021-10-07
JP2021156956A5 JP2021156956A5 (en) 2022-09-13
JP7443877B2 true JP7443877B2 (en) 2024-03-06

Family

ID=77919722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054853A Active JP7443877B2 (en) 2020-03-25 2020-03-25 Audio output control device, audio output system, audio output control method and program

Country Status (1)

Country Link
JP (1) JP7443877B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203654A (en) 2010-03-26 2011-10-13 Sony Corp Voice reproducing device, voice reproduction method, and program
WO2012102130A1 (en) 2011-01-27 2012-08-02 株式会社ニコン Imaging device, program, recording media, and noise reduction method
WO2012165657A1 (en) 2011-06-03 2012-12-06 日本電気株式会社 Speech processing system, speech processing device, speech processing method, and program therefor
WO2017056604A1 (en) 2015-09-29 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
WO2018061491A1 (en) 2016-09-27 2018-04-05 ソニー株式会社 Information processing device, information processing method, and program
WO2020031767A1 (en) 2018-08-09 2020-02-13 ソニー株式会社 Information processing device, information processing method, and program
WO2020045328A1 (en) 2018-08-27 2020-03-05 日本精機株式会社 Display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203654A (en) 2010-03-26 2011-10-13 Sony Corp Voice reproducing device, voice reproduction method, and program
WO2012102130A1 (en) 2011-01-27 2012-08-02 株式会社ニコン Imaging device, program, recording media, and noise reduction method
WO2012165657A1 (en) 2011-06-03 2012-12-06 日本電気株式会社 Speech processing system, speech processing device, speech processing method, and program therefor
WO2017056604A1 (en) 2015-09-29 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
WO2018061491A1 (en) 2016-09-27 2018-04-05 ソニー株式会社 Information processing device, information processing method, and program
WO2020031767A1 (en) 2018-08-09 2020-02-13 ソニー株式会社 Information processing device, information processing method, and program
WO2020045328A1 (en) 2018-08-27 2020-03-05 日本精機株式会社 Display device

Also Published As

Publication number Publication date
JP2021156956A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
EP2508010B1 (en) An apparatus for processing audio signals in dependence of motion and orientation of the apparatus
KR102192361B1 (en) Method and apparatus for user interface by sensing head movement
JP6284331B2 (en) Conversation support device, conversation support method, and conversation support program
US10419868B2 (en) Sound system
US10206043B2 (en) Method and apparatus for audio pass-through
JP2010147529A (en) Information processing system and information processing method
JP2009077260A (en) Information processing apparatus, information processing method and the like
JP2015186072A (en) audio signal output device
JP2018060403A (en) Sound output device and portable device
CN111294691B (en) Earphone, noise reduction method thereof and computer readable storage medium
JP7049803B2 (en) In-vehicle device and audio output method
EP3495942B1 (en) Head-mounted display and control method thereof
JP7443877B2 (en) Audio output control device, audio output system, audio output control method and program
JP7447602B2 (en) Content output control device, content output system, content output control method, and program
EP3906706A1 (en) In-car headphone acoustical augmented reality system
KR102175180B1 (en) Method of preventing feedback based on body position detection and apparatuses performing the same
JP6978888B2 (en) Sensitivity adjustment device, in-vehicle system, car headrest and signal processing device
CN110010138B (en) Head-mounted display and control method thereof
KR101575437B1 (en) An alarm sound controlling method using the internal speakers of the vehicle and an apparatus for this
US10321250B2 (en) Apparatus and method for controlling sound in vehicle
WO2017041284A1 (en) Noise reduction
WO2021192410A1 (en) Voice output control device, voice output system, voice output control method, and program
EP4307722A1 (en) Road-based vehicle and method and system for controlling an acoustic output device in a road-based vehicle
JP7063353B2 (en) Voice navigation system and voice navigation method
US20230049919A1 (en) Seat-embedded speech sensors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7443877

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150