JP2014113349A - Biological sound collection apparatus - Google Patents

Biological sound collection apparatus Download PDF

Info

Publication number
JP2014113349A
JP2014113349A JP2012270112A JP2012270112A JP2014113349A JP 2014113349 A JP2014113349 A JP 2014113349A JP 2012270112 A JP2012270112 A JP 2012270112A JP 2012270112 A JP2012270112 A JP 2012270112A JP 2014113349 A JP2014113349 A JP 2014113349A
Authority
JP
Japan
Prior art keywords
sound
head
unit
sound collection
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012270112A
Other languages
Japanese (ja)
Inventor
Hiroyuki Hayashi
宏之 林
Osamu Manba
修 萬羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012270112A priority Critical patent/JP2014113349A/en
Publication of JP2014113349A publication Critical patent/JP2014113349A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a biological sound collection apparatus capable of clearly listening biological sound without changing the direction of a contact surface part.SOLUTION: A plurality of sound collection parts are housed in a contact surface part coming in contact with a biological body, and collect sound transferred from the contact surface part. A direction detecting part detects the direction of a head of a user. A signal processing part generates acoustic signals corresponding to respective right and left directions of the head on the basis of the arrangement of the plurality of sound collection parts and the direction detected by the direction detecting part, from the acoustic signals collected by each of the plurality of sound collection parts.

Description

本発明は、生体音収集装置に関する。   The present invention relates to a biological sound collection device.

従来から、生体の活動状態を検知する手立てとして生体が発する音を受聴する聴診が行われている。聴診を行う際には、生体の活動に伴って発生する心音、呼吸音、血流音、等の生体音を集音し、集音した生体音を増幅する聴診器が用いられることがある。聴診器には、心音等をステレオで受聴することができるステレオ聴診器がある。
例えば、特許文献1には、心音等を検出する第1及び第2の検出器と、第1及び第2の検出器の信号を増幅する第1及び第2の増幅器と、該第1及び第2の増幅器の出力を音に変換する聴音器とよりなる聴診器が記載されている。
2. Description of the Related Art Conventionally, auscultation for listening to sound emitted by a living body has been performed as a means for detecting the activity state of the living body. When performing auscultation, a stethoscope that collects body sounds such as heart sounds, breathing sounds, blood flow sounds, and the like generated along with the activity of the body and amplifies the collected body sounds may be used. Stethoscopes include stereo stethoscopes that can listen to heart sounds and the like in stereo.
For example, Patent Document 1 discloses first and second detectors that detect heart sounds and the like, first and second amplifiers that amplify signals of the first and second detectors, and the first and second detectors. A stethoscope is described which comprises a hearing instrument that converts the output of two amplifiers into sound.

特開昭58−109037号公報JP 58-109037 A

しかしながら、従来の生体音収集装置では、第1及び第2の検出器に到来した生体音を増幅するに過ぎない。従って、受聴者は該生体音がどの方向から到来したか判断できないことがある。互いに異なる方向から到来した生体音の到来方向を判断するには、受聴者は生体音を検出する集音部を収容する接触面部を、第1及び第2の検出器の並び方向が変わるように接触面に垂直な軸周りに回転させて生体に当て直さなければ、特定の生体音の到来方向を判断できず明瞭に受聴することができなかった。   However, the conventional biological sound collection device only amplifies the biological sound that has arrived at the first and second detectors. Therefore, the listener may not be able to determine from which direction the biological sound has come. In order to determine the direction of arrival of the body sound coming from different directions, the listener changes the arrangement direction of the first and second detectors on the contact surface portion that houses the sound collection unit that detects the body sound. Unless it is rotated around an axis perpendicular to the contact surface and reapplied to the living body, the direction of arrival of a specific biological sound cannot be determined and it cannot be heard clearly.

本発明は上記の点に鑑みてなされたものであり、接触面部の方向を変更しなくても生体音を明瞭に受聴することができる生体音収集装置を提供する。   The present invention has been made in view of the above points, and provides a biological sound collection apparatus that can clearly hear a biological sound without changing the direction of the contact surface portion.

本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、生体に接触する接触面部に収容された集音部であって、該接触面部から伝達された音を集音する複数の集音部と、利用者の頭部の方向を検出する方向検出部と、前記複数の集音部のそれぞれが集音した音響信号から、前記複数の集音部の配置及び前記方向検出部が検出した方向に基づいて、前記頭部の左右各方向に対応する音響信号をそれぞれ生成する信号処理部と、を備える生体音収集装置である。   The present invention has been made to solve the above-described problems, and one aspect of the present invention is a sound collection unit housed in a contact surface portion that comes into contact with a living body, and a sound transmitted from the contact surface portion. A plurality of sound collecting units for collecting sound, a direction detecting unit for detecting the direction of the user's head, and an acoustic signal collected by each of the plurality of sound collecting units, the arrangement of the plurality of sound collecting units and And a signal processing unit that generates acoustic signals corresponding to the left and right directions of the head based on the direction detected by the direction detection unit.

本発明によれば、接触面部の方向を変更しなくても生体音を明瞭に受聴することができる。   According to the present invention, a body sound can be clearly heard without changing the direction of the contact surface portion.

本発明の第1の実施形態に係る生体音収集装置の外観構成を示す概略図である。It is the schematic which shows the external appearance structure of the biological sound collection device which concerns on the 1st Embodiment of this invention. 本実施形態に係る生体音収集装置の内部構成を示す概略ブロック図である。It is a schematic block diagram which shows the internal structure of the biological sound collection device which concerns on this embodiment. 本発明の第2の実施形態に係る生体音収集装置の外観構成を示す概略図である。It is the schematic which shows the external appearance structure of the biological sound collection device which concerns on the 2nd Embodiment of this invention. 本実施形態に係る生体音収集装置の内部構成を示す概略ブロック図である。It is a schematic block diagram which shows the internal structure of the biological sound collection device which concerns on this embodiment. 本発明の第3の実施形態に係る生体音収集装置の外観構成を示す概略図である。It is the schematic which shows the external appearance structure of the biological sound collection device which concerns on the 3rd Embodiment of this invention. 本実施形態に係る生体音収集装置の内部構成を示す概略ブロック図である。It is a schematic block diagram which shows the internal structure of the biological sound collection device which concerns on this embodiment. 本発明の第4実施形態に係る生体音収集装置の内部構成を示す概略ブロック図である。It is a schematic block diagram which shows the internal structure of the biological sound collection device which concerns on 4th Embodiment of this invention.

(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る生体音収集装置1の外観構成を示す概略図である。
図1(a)は、生体音収集装置1の全体を示す。生体音収集装置1は、チェストピース11、ケーブル12、2個のイヤーピース13−1、13−2及び方向検出部14を含んで構成される。生体音収集装置1は、例えば、聴診器である。
(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram illustrating an external configuration of a biological sound collection apparatus 1 according to the present embodiment.
FIG. 1A shows the whole body sound collection device 1. The biological sound collection device 1 includes a chest piece 11, a cable 12, two ear pieces 13-1, 13-2, and a direction detection unit 14. The biological sound collection device 1 is, for example, a stethoscope.

チェストピース(接触面部)11は、生体(例えば、人体)の表面の一部(例えば、胸部)に接触されたとき、生体の内部(例えば、肺、心臓)から到来した音を集音する接触面部である。
ケーブル12は、チェストピース11からイヤーピース13−1、13−2のそれぞれへの信号と、方向検出部14からチェストピース11への信号を伝送する。また、ケーブル12の一端にチェストピース11が固定され、ケーブル12の他端にイヤーピース13−1及び13−2がそれぞれ固定されている。
イヤーピース13−1、13−2は、チェストピース11から伝送された音響信号に基づく音を再生する音響再生部である。イヤーピース13−1、13−2は、利用者の頭部の左側面にある左耳の外耳道、右側面にある右耳の外耳道にそれぞれ挿入されたときに固定されるように弾性体で覆われ、その先端から再生した音を放射する。
方向検出部14は、利用者の身体の一部として頭部が向いている方向を検出する。本実施形態では、頭部が向いている方向として、例えば、重力方向に対する正中面の傾きを検出する。方向検出部14は、2個のイヤーピースのうちの一方、例えば、イヤーピース13−1に隣接する位置に固定されている。方向検出部14は、検出した方向を示す方向信号を、ケーブル12を介してチェストピース11に出力する。
The chest piece (contact surface portion) 11 collects sounds coming from the inside of the living body (for example, lungs, heart) when contacting a part (for example, chest) of the surface of the living body (for example, human body). It is a face part.
The cable 12 transmits a signal from the chest piece 11 to each of the ear pieces 13-1 and 13-2 and a signal from the direction detection unit 14 to the chest piece 11. The chest piece 11 is fixed to one end of the cable 12, and the ear pieces 13-1 and 13-2 are fixed to the other end of the cable 12, respectively.
The earpieces 13-1 and 13-2 are acoustic reproduction units that reproduce sound based on the acoustic signal transmitted from the chestpiece 11. The earpieces 13-1 and 13-2 are covered with an elastic body so as to be fixed when inserted into the left ear external auditory canal on the left side of the user's head and the right ear external auditory canal on the right side. The sound reproduced from the tip is radiated.
The direction detection unit 14 detects a direction in which the head is facing as a part of the user's body. In the present embodiment, for example, the inclination of the median plane with respect to the direction of gravity is detected as the direction in which the head is facing. The direction detection unit 14 is fixed to a position adjacent to one of the two ear pieces, for example, the ear piece 13-1. The direction detection unit 14 outputs a direction signal indicating the detected direction to the chest piece 11 via the cable 12.

図1(b)は、チェストピース11の表面の一例を示す。その表面の中央部には、つまみ部115が配置されている。つまみ部115の表面は、その周囲よりも盛り上がっている。つまみ部115の表面の形状は、ほぼ長方形であり紙面に対して上下方向の長さのほうが左右方向の幅よりも長い。この形状により、利用者はつまみ部115の左右両側面を指でつまんで持ち上げ、つまみ部115の長手方向を利用者の正中面の方向にチェストピース11を配置することが促される。   FIG. 1B shows an example of the surface of the chest piece 11. A knob portion 115 is disposed at the center of the surface. The surface of the knob portion 115 is raised more than its surroundings. The shape of the surface of the knob portion 115 is substantially rectangular, and the length in the vertical direction is longer than the width in the horizontal direction with respect to the paper surface. With this shape, the user is urged to pinch the left and right side surfaces of the knob part 115 with his / her fingers and arrange the chestpiece 11 with the longitudinal direction of the knob part 115 in the direction of the user's midline.

チェストピース11の表面の外周には、LED(Light Emitting Diode)群(方向表示部)114が形成されている。LED群114は、N(Nは、後述するマイクロホンの個数と等しいか、その個数よりも大きい整数、図1(b)に示す例では24)個のLED114−1〜114−Nが当該外周に沿って等間隔で配置されている。AA’線は、方向検出部14が検出した利用者の頭部の方向を示す線である。AA’線から互いに離れる方向を向く2つの矢印の先頭の文字L、Rは、それぞれ利用者の正中面から左側の領域(左側領域)、右側の領域(右側領域)をそれぞれ示す。BB’線は、利用者の左右両耳を結ぶ線を示す。BB’線の方向は、AA’線と垂直な方向である。BB’線に交わり、塗りつぶされた細かい四角形は発光している2個のLEDを示す。この2個のLEDは、チェストピース11の表面の中心部を挟んで対面し、利用者の左右両耳を結ぶ線分の方向に最も近似する方向に配置されたLEDである。利用者は、発光している2個のLEDを視認することによって、方向検出部14により検出された方向と垂直な方向を自己の左右両耳の方向と判断することができる。これにより、利用者は、その2個のLEDが示す利用者自身の頭部の方向も認識することができる。そのため、利用者は、発光している2個のLEDを手がかりに、頭部をどの方向に傾けて知覚される音の方向をどの方向に変更すべきかを判断することができる。また、各LEDは、チェストピース11の表面の外周に配置されることで、利用者が指等でチェストピース11を把持しても、その全部が指等で覆われることがなく、その配置される領域の総延長が長くなる。この領域にLEDを密に配置することで表示される角度の分解能が小さくなるため、わずかな頭部の方向の変化によって発光するLEDが変更され、利用者は方向の変化を容易に識別することができる。なお、図1(b)では、ケーブル12の図示が省略されている。   An LED (Light Emitting Diode) group (direction display unit) 114 is formed on the outer periphery of the surface of the chest piece 11. The LED group 114 has N (N is an integer greater than or equal to the number of microphones described later, 24 in the example shown in FIG. 1B), and the LEDs 114-1 to 114-N are arranged on the outer periphery. It is arranged at equal intervals along. The AA ′ line is a line indicating the direction of the user's head detected by the direction detection unit 14. The first characters L and R of the two arrows facing away from the AA ′ line indicate the left side region (left side region) and the right side region (right side region) from the median plane of the user, respectively. The BB ′ line indicates a line connecting the left and right ears of the user. The direction of the BB ′ line is a direction perpendicular to the AA ′ line. The small square filled with the BB 'line indicates two LEDs that emit light. These two LEDs face each other across the center of the surface of the chest piece 11 and are arranged in a direction that most closely approximates the direction of the line segment that connects the user's left and right ears. The user can determine the direction perpendicular to the direction detected by the direction detection unit 14 as the direction of his / her left and right ears by visually recognizing the two LEDs that emit light. Thereby, the user can also recognize the direction of the user's own head indicated by the two LEDs. Therefore, the user can determine to which direction the sound direction perceived by tilting the head is to be changed, using the two LEDs that emit light as a clue. Further, each LED is arranged on the outer periphery of the surface of the chest piece 11 so that even if the user holds the chest piece 11 with a finger or the like, the entire LED is not covered with the finger or the like. The total extension of the area becomes longer. Since the resolution of the displayed angle is reduced by densely arranging the LEDs in this area, the LED that emits light is changed by a slight change in the direction of the head, and the user can easily identify the change in direction. Can do. In addition, illustration of the cable 12 is abbreviate | omitted in FIG.1 (b).

ここで、2個のLEDが発する光の色は同一であってもよいし、互いに異なっていてもよい。例えば、利用者の頭部を基準として左側のLEDは青色の光、右側のLEDは赤色の光を発するようにしてもよい。そのため、各LEDとして、複数の色の光を発するLED素子をそれぞれ備える波長選択・加算・調整方式のLED光源を用いる。波長選択・加算・調整方式のLED光源は、LED光源を構成するそれぞれのLED素子に与える電力の比を変化させることでLED光源として発する光の色を変更することができる。   Here, the colors of light emitted by the two LEDs may be the same or different from each other. For example, the left LED may emit blue light and the right LED emit red light with the user's head as a reference. Therefore, a wavelength selection / addition / adjustment type LED light source that includes LED elements that emit light of a plurality of colors is used as each LED. The LED light source of the wavelength selection / addition / adjustment method can change the color of light emitted as the LED light source by changing the ratio of power applied to each LED element constituting the LED light source.

図1(c)は、チェストピース11の裏面を示す。チェストピース11の裏面は、生体の表面に接触される面であり、その形状はほぼ円形である。チェストピース11は、M個のマイクロホン(集音部)111−1〜111−Mを備える。Mは、3又は3よりも大きい整数であればよいが、以下の説明ではMが4である場合を例にとる。マイクロホン111−1〜111−4は、それぞれ自部に到来した音を電気信号に変換してアナログの音響信号を生成する電気音響変換器である。マイクロホン111−1〜111−4の表面は、それぞれ振動板(図示せず)に覆われている。振動板の外周は、それぞれチェストピース11の筐体に固定されている。それぞれの振動板の表面は、生体の表面に接触され、生体の表面に到達した振動をマイクロホン111−1〜111−4に伝える。   FIG. 1C shows the back surface of the chest piece 11. The back surface of the chest piece 11 is a surface that is in contact with the surface of the living body, and the shape thereof is substantially circular. The chest piece 11 includes M microphones (sound collecting units) 111-1 to 111 -M. M may be 3 or an integer larger than 3, but in the following description, a case where M is 4 is taken as an example. Each of the microphones 111-1 to 111-4 is an electroacoustic transducer that converts an incoming sound into an electric signal to generate an analog acoustic signal. The surfaces of the microphones 111-1 to 111-4 are each covered with a diaphragm (not shown). The outer periphery of the diaphragm is fixed to the housing of the chest piece 11. The surface of each diaphragm is brought into contact with the surface of the living body and transmits the vibration that has reached the surface of the living body to the microphones 111-1 to 111-4.

マイクロホン111−1〜111−4の中心o〜oは、チェストピース11の裏面の中心oからそれぞれ等距離であって、互いに異なる方向に等間隔に配置されている。破線で示されたso線、so線、so線、so線は、それぞれ、oとo、oとo、oとo、oとoの中間点を通過し、マイクロホン111−1〜111−4のそれぞれに対応する領域(マイク対応領域)を区分する線である。マイク対応領域の大きさは、それぞれ対応するマイクロホンを挟む2本の破線がなす角度θ〜θで示される。図1(c)に示す例では、θ〜θは、いずれも90°である。図1(c)において、AA’線が示す方向は、図1(d)に示す方向とは左右反転している。AA’線を挟んで互いに反対方向を向く矢印の先端のL、Rの文字で示す左側領域、右側領域も、紙面に対してそれぞれ右側、左側に示されている。θは、so線とAA’線とのなす角であり、後述する傾き角θに相当する。 The centers o 1 to o 4 of the microphones 111-1 to 111-4 are equidistant from the center o of the back surface of the chest piece 11 and are arranged at equal intervals in different directions. The s 1 o line, s 2 o line, s 3 o line, and s 4 o line indicated by broken lines are o 4 and o 1 , o 1 and o 2 , o 2 and o 3 , and o 3 and o, respectively. 4 is a line that passes through an intermediate point 4 and divides an area (microphone corresponding area) corresponding to each of the microphones 111-1 to 111-4. The size of the microphone corresponding area is indicated by angles θ 1 to θ 4 formed by two broken lines sandwiching the corresponding microphones. In the example illustrated in FIG. 1C, θ 1 to θ 4 are all 90 °. In FIG. 1C, the direction indicated by the line AA ′ is horizontally reversed from the direction shown in FIG. The left side area and the right side area indicated by the letters L and R at the tip of the arrows that are opposite to each other across the line AA ′ are also shown on the right side and the left side, respectively. θ is an angle formed between the s 2 o line and the AA ′ line, and corresponds to an inclination angle θ described later.

図1(d)は、チェストピース11の表面の他の例を示す。図1(d)に示すチェストピース11も図1(b)に示すチェストピース11と同様につまみ部115を有し、LED群114は、つまみ部115の表面上に形成されている。LED群114は、N個の細長い形状を有するLED114−1〜114−Nが、それぞれの一端がLED群114の中心を向き、それぞれの他端が等間隔で配置されている。BB’線上の塗りつぶされた細長い領域は、発光している2個のLEDを示す。この2個のLEDが、それぞれの他端同士を結ぶ方向が、検出された利用者の左右両耳間を結ぶ線分の方向を最も近似する方向であることを示す。   FIG. 1 (d) shows another example of the surface of the chest piece 11. Similarly to the chest piece 11 shown in FIG. 1B, the chest piece 11 shown in FIG. 1D has a knob portion 115, and the LED group 114 is formed on the surface of the knob portion 115. The LED group 114 has N elongated LEDs 114-1 to 114-N each having one end facing the center of the LED group 114 and the other end arranged at equal intervals. Filled elongated areas on the BB 'line indicate two LEDs that are emitting light. The two LEDs indicate that the direction connecting the other ends is the direction that most closely approximates the direction of the line connecting the left and right ears of the detected user.

なお、本実施形態では、利用者の頭部の方向を表示する方向表示部として、画像表示部(図示せず)を備えてもよい。画像表示部は、例えば、LCD(Liquid Crystal Display、液晶ディスプレイ)である。画像表示部には、検出した利用者の頭部の方向に対応した態様の画像を表示する。頭部の方向に対応した態様の画像とは、例えば、その方向に傾けた医師等の人物の後頭部の画像、その方向を示す文字(L:Left(左)、R:Right(右)、等)である。   In the present embodiment, an image display unit (not shown) may be provided as a direction display unit that displays the direction of the user's head. The image display unit is, for example, an LCD (Liquid Crystal Display, liquid crystal display). The image display unit displays an image in a mode corresponding to the detected direction of the user's head. The image of the aspect corresponding to the direction of the head is, for example, an image of the back of the head of a person such as a doctor inclined in that direction, characters indicating the direction (L: Left (left), R: Right (right), etc.) ).

次に、生体音収集装置1の内部構成について説明する。
図2は、本実施形態に係る生体音収集装置1の内部構成を示す概略ブロック図である。
チェストピース11は、4個のマイクロホン111−1〜111−4及びN個のLED114−1〜114−Nの他、更に4個のA/D(Analog to Digital、アナログディジタル)変換器112−1〜112−4及びデータ処理部(信号処理部)113を含んで構成される。A/D変換器112−1〜112−4及びデータ処理部113は、チェストピース11の筐体に収容されている。
マイクロホン111−1〜111−4は、それぞれ生成した音響信号をA/D変換器112−1〜112−4に出力する。
A/D変換器112−1〜112−4は、マイクロホン111−1〜111−4から入力されたアナログの音響信号をそれぞれA/D変換(サンプリング周波数は、例えば2.4kHz、量子化精度は、例えば16ビット)してディジタルの音響信号を生成する。A/D変換器112−1〜112−4は、生成した音響信号をそれぞれデータ処理部113に出力する。
Next, the internal configuration of the biological sound collection device 1 will be described.
FIG. 2 is a schematic block diagram showing the internal configuration of the biological sound collection apparatus 1 according to the present embodiment.
The chest piece 11 includes four microphones 111-1 to 111-4 and N LEDs 114-1 to 114 -N, and four more analog-to-digital (A / D) converters 112-1. To 112-4 and a data processing unit (signal processing unit) 113. The A / D converters 112-1 to 112-4 and the data processing unit 113 are accommodated in the housing of the chest piece 11.
The microphones 111-1 to 111-4 output the generated acoustic signals to the A / D converters 112-1 to 112-4, respectively.
The A / D converters 112-1 to 112-4 respectively convert the analog acoustic signals input from the microphones 111-1 to 111-4 (sampling frequency is, for example, 2.4 kHz, quantization accuracy is , For example, 16 bits) to generate a digital acoustic signal. The A / D converters 112-1 to 112-4 output the generated acoustic signals to the data processing unit 113, respectively.

データ処理部113は、方向検出部14から入力された方向信号が示す傾き角θに基づいて、A/D変換器112−1〜112−4からそれぞれ入力された音響信号s〜sに乗じて左右各耳に対応する音響信号(左音響信号s、右音響信号s)を算出するための重み係数wl1〜wl4、wr1〜wr4を算出する。この重み係数は、入力されたそれぞれの音響信号の左音響信号s、右音響信号sのそれぞれに対する寄与を示す。データ処理部113は、例えば、式(1)、(2)に示すように当該重み係数wl1〜wl4、wr1〜wr4を各マイクロホンに対応する領域(図1(c))のうち、左側領域、右側領域のそれぞれに属する部分の割合と定める。
[w]=(θ/90,1,(90−θ)/90,0) (0°≦θ<90°),
(0,(90+θ)/90,1,−θ/90) (−90°≦θ<0°)…(1)
[w]=((90−θ)/90,0,θ/90,1) (0≦θ<90°),
(1,−θ/90,0,(90+θ)/90) (−90°≦θ<0°)…(2)
式(1)において、[w]は、重み係数wl1〜wl4をそれぞれ要素として含む重みベクトル(wl1,wl2,wl3,wl4)である。式(2)において、[w]は、重み係数wr1〜wr4をそれぞれ要素として含む重みベクトル(wr1,wr2,wr3,wr4)である。
The data processing unit 113 applies the acoustic signals s 1 to s 4 input from the A / D converters 112-1 to 112-4 based on the inclination angle θ indicated by the direction signal input from the direction detection unit 14. multiplying the acoustic signal corresponding to the left and right ears (left audio signal s l, right audio signal s r) to calculate the weight coefficient w l1 ~w l4, w r1 ~w r4 for calculating. This weighting coefficient indicates the contribution of each input acoustic signal to each of the left acoustic signal s 1 and the right acoustic signal s r . The data processing unit 113, for example, equation (1), among the weighting coefficient w l1 as shown in (2) ~w l4, w r1 ~w r4 to correspond to each microphone regions (FIG. 1 (c)) The ratio of the part belonging to each of the left region and the right region is determined.
[W l ] = (θ / 90, 1, (90−θ) / 90, 0) (0 ° ≦ θ <90 °),
(0, (90 + θ) / 90, 1, −θ / 90) (−90 ° ≦ θ <0 °) (1)
[W r ] = ((90−θ) / 90, 0, θ / 90, 1) (0 ≦ θ <90 °),
(1, −θ / 90, 0, (90 + θ) / 90) (−90 ° ≦ θ <0 °) (2)
In the formula (1), [w l] is a weight vector comprising weighting factors w l1 to w l4 as respective elements (w l1, w l2, w l3, w l4). In the formula (2), [w r] is a weight vector comprising weighting factors w r1 to w r4 as respective elements (w r1, w r2, w r3, w r4).

データ処理部113は、A/D変換器112−1〜112−4からそれぞれ入力された音響信号s〜sのそれぞれについて予め定めた周波数帯域(例えば、20Hz−1kHz)の帯域成分を抽出する処理(バンドパス処理)を行う。これにより、エリアシングによる折り返し歪、直流成分、低周波ノイズ、等を除去する。なお、バンドパス処理における周波数帯域は、例えば操作入力に応じて可変であってもよい。これにより、受聴(聴診)する対象(肺、心臓など)となる音に応じて適切な周波数帯域を選択できる。例えば、心音についての周波数帯域は20−200Hzであり、呼吸音についての周波数帯域は100−600Hzである。
データ処理部113は、帯域成分を抽出した音響信号s〜sに重み係数wl1〜wl4、wr1〜wr4をそれぞれ乗じた値を加算(重み付け加算)して左音響信号s、右音響信号sを算出する。データ処理部113は、例えば、式(3)、(4)を用いて、それぞれ左音響信号s、右音響信号sを算出する。
=1/2[w][s] … (3)
=1/2[w][s] … (4)
式(3)、(4)において、[s]は音響信号s〜sを要素として含むベクトル(s,s,s,s)、Tは、ベクトルの転置を示す。
The data processing unit 113 extracts band components of a predetermined frequency band (for example, 20 Hz-1 kHz) for each of the acoustic signals s 1 to s 4 input from the A / D converters 112-1 to 112-4, respectively. Process (band pass process). As a result, aliasing distortion due to aliasing, DC component, low frequency noise, and the like are removed. Note that the frequency band in the band-pass process may be variable according to an operation input, for example. Thereby, an appropriate frequency band can be selected according to the sound to be listened to (auscultated) (lung, heart, etc.). For example, the frequency band for heart sounds is 20-200 Hz, and the frequency band for breath sounds is 100-600 Hz.
The data processing unit 113, the weighting factor to the acoustic signal s 1 ~s 4 obtained by extracting the band component w l1 ~w l4, w r1 ~w r4 to adding a value obtained by multiplying each (weighted addition) to the left audio signal s l The right acoustic signal s r is calculated. For example, the data processing unit 113 calculates the left acoustic signal s 1 and the right acoustic signal s r using Equations (3) and (4), respectively.
s 1 = 1/2 [w 1 ] [s] T (3)
s r = 1/2 [ wr ] [s] T (4)
In equations (3) and (4), [s] is a vector (s 1 , s 2 , s 3 , s 4 ) including acoustic signals s 1 to s 4 as elements, and T is a transposition of the vector.

例えば、傾き角θが0°(直立)の場合には、左音響信号s、右音響信号sは、式(5)に示すように算出される。
=(s+s)/2, s=(s+s)/2 … (5)
傾き角θが45°(右斜め向き)の場合には、左音響信号s、右音響信号sは、式(6)に示すように算出される。
=(s+2s+s)/4, s=(s+s+2s)/4 … (6)
傾き角θが−45°(左斜め向き)の場合には、左音響信号s、右音響信号sは、式(7)に示すように算出される。
=(s+2s+s)/4, s=(2s+s+s)/4 … (7)
このようにして、左音響信号sと右音響信号sとの間のレベル差が、方向検出部14が検出した方向(傾き角θ)の左側、右側にそれぞれ仮想的に配置されたマイクロホン(仮想マイク)が集音した音響信号間のレベル差を同等にすることができる。なお、本実施形態では、左音響信号s、右音響信号sとして検出された方向の左側、右側にそれぞれ仮想的に配置されたマイクロホンが集音する音響信号間のレベル差を同等にすることができれば、データ処理部113は、式(1)−(4)を用いずに他の計算式を用いてもよい。
For example, when the tilt angle θ is 0 ° (upright), the left acoustic signal s 1 and the right acoustic signal s r are calculated as shown in Expression (5).
s 1 = (s 2 + s 3 ) / 2, s r = (s 1 + s 4 ) / 2 (5)
When the inclination angle θ is 45 ° (right oblique direction), the left acoustic signal s 1 and the right acoustic signal s r are calculated as shown in Expression (6).
s 1 = (s 1 + 2s 2 + s 3 ) / 4, s r = (s 1 + s 3 + 2s 4 ) / 4 (6)
When the inclination angle θ is −45 ° (left oblique direction), the left acoustic signal s 1 and the right acoustic signal s r are calculated as shown in Expression (7).
s 1 = (s 2 + 2s 3 + s 4 ) / 4, s r = (2s 1 + s 2 + s 4 ) / 4 (7)
In this way, the level difference between the left acoustic signal s 1 and the right acoustic signal s r is virtually arranged on the left side and the right side of the direction (tilt angle θ) detected by the direction detection unit 14. The level difference between the acoustic signals collected by the (virtual microphone) can be made equal. In the present embodiment, level differences between acoustic signals collected by microphones virtually arranged on the left and right sides in the directions detected as the left acoustic signal s 1 and the right acoustic signal s r are made equal. If possible, the data processing unit 113 may use another calculation formula without using the formulas (1) to (4).

データ処理部113は、算出した左音響信号s、右音響信号sを、ケーブル12を介してイヤーピース13−1、13−2にそれぞれ出力する。
データ処理部113は、算出した傾き角θ(例えば、図1(b)AA’線の方向)に対応するLED114−1〜114−Nのうちの2つのLEDに電力を供給する。これにより、電力が供給された2つのLEDが発光する(例えば、図1(b))。
The data processing unit 113 outputs the calculated left acoustic signal s 1 and right acoustic signal s r to the earpieces 13-1 and 13-2 via the cable 12, respectively.
The data processing unit 113 supplies power to two of the LEDs 114-1 to 114 -N corresponding to the calculated inclination angle θ (for example, the direction of the line AA ′ in FIG. 1B). As a result, the two LEDs supplied with power emit light (for example, FIG. 1B).

イヤーピース13−1は、D/A(Digital to Analog、ディジタルアナログ)変換器131−1とイヤホン132−1を備える。
D/A変換器131−1は、データ処理部113から入力されたディジタルの左音響信号をD/A変換してアナログの左音響信号を生成する。サンプリング周波数、量子化精度は、D/A変換器131−1とA/D変換器112−1〜112−4との間で同一である。
D/A変換器131−1は、生成した左音響信号をイヤホン132−1に出力する。
イヤホン132−1は、D/A変換器131−1から入力されたアナログの左音響信号に基づいて左耳に提示する音を再生する。
イヤーピース13−2は、イヤーピース13−1と同様な構成を備えるが、データ処理部113から入力されたディジタルの右音響信号に基づき、右耳に提示する音を再生する。
The earpiece 13-1 includes a D / A (Digital to Analog, digital analog) converter 131-1 and an earphone 132-1.
The D / A converter 131-1 D / A converts the digital left acoustic signal input from the data processing unit 113 to generate an analog left acoustic signal. The sampling frequency and the quantization accuracy are the same between the D / A converter 131-1 and the A / D converters 112-1 to 112-4.
The D / A converter 131-1 outputs the generated left acoustic signal to the earphone 132-1.
Earphone 132-1 reproduces the sound presented to the left ear based on the analog left acoustic signal input from D / A converter 131-1.
The earpiece 13-2 has the same configuration as the earpiece 13-1, but reproduces the sound presented to the right ear based on the digital right sound signal input from the data processing unit 113.

方向検出部14は、上述したようにイヤーピース13−1に隣接した位置に固定されており、加速度センサ141と傾き推定部142とを含んで構成される。
加速度センサ(加速度検出部)141は、イヤーピース13−1を装着している利用者が静止しているときに地球の重力加速度を検出する。加速度センサ141は、例えば、3軸加速度センサである。加速度センサ141は、検出した加速度を示す加速度信号をチェストピース11に出力する。
As described above, the direction detection unit 14 is fixed at a position adjacent to the earpiece 13-1, and includes the acceleration sensor 141 and the inclination estimation unit 142.
The acceleration sensor (acceleration detector) 141 detects the gravitational acceleration of the earth when the user wearing the earpiece 13-1 is stationary. The acceleration sensor 141 is, for example, a triaxial acceleration sensor. The acceleration sensor 141 outputs an acceleration signal indicating the detected acceleration to the chest piece 11.

加速度センサ141の感度軸のうちの2つ(x軸、y軸)を、それぞれ所定の方向、例えば、イヤーピース13−1が装着された状態で利用者の左右両耳を結ぶ線分の方向(x方向)、利用者の前後方向(y方向)に予め揃えておく。このとき、利用者が頭部を直立させた状態で、残りの感度軸(z軸)で重力加速度が検出され、方向を揃えた感度軸(x軸、y軸)で重力加速度が検出されない。これに対し、利用者が頭部を左右のいずれかに傾けると、その残りの感度軸(z軸)での加速度の変化が検出される。頭部を直立させた状態での傾き角θ(0°)を基準として、傾き角θが0°から90°に増加すると、その残りの感度軸(z軸)での重力加速度が0Gから1Gまで増加する。また、1つの感度軸(x軸)で検出される重力加速度の極性によって、利用者が頭部を左右のいずれかに傾けたかを検知することができる。例えは、頭部が左側に傾いている場合には、1つの感度軸(x軸)で検出された重力加速度の値が負値となり、頭部が右側に傾いている場合には、その1つの感度軸(x軸)で検出された重力加速度の値が正値となる。   Two of the sensitivity axes of the acceleration sensor 141 (x-axis and y-axis) are set in predetermined directions, for example, directions of line segments connecting the left and right ears of the user with the earpiece 13-1 attached ( x direction) and the user's front-rear direction (y direction). At this time, with the user standing upright, the gravitational acceleration is detected on the remaining sensitivity axes (z-axis), and the gravitational acceleration is not detected on the sensitivity axes (x-axis and y-axis) whose directions are aligned. On the other hand, when the user tilts his / her head to the left or right, a change in acceleration on the remaining sensitivity axis (z axis) is detected. When the tilt angle θ is increased from 0 ° to 90 ° with reference to the tilt angle θ (0 °) in a state where the head is upright, the gravitational acceleration on the remaining sensitivity axis (z axis) is from 0G to 1G. Increase to. Further, it is possible to detect whether the user has tilted his / her head to the left or right based on the polarity of gravity acceleration detected on one sensitivity axis (x-axis). For example, when the head is tilted to the left, the value of gravitational acceleration detected on one sensitivity axis (x-axis) is a negative value, and when the head is tilted to the right, 1 The value of the gravitational acceleration detected on the two sensitivity axes (x-axis) becomes a positive value.

傾き推定部(方向推定部)142は、加速度センサ141から入力された加速度信号に基づいて利用者の頭部の方向を傾き角θとして検出する。傾き推定部142は、例えば、入力された加速度信号が示す1つの感度軸(x軸)での加速度と残りの感度軸(z軸)での加速度に基づいて利用者の頭部の傾き角θ(図1(c))を算出する。ここで、傾き推定部142は、上述した、残りの感度軸(z軸)での重力加速度の値が大きいほど、傾き角θが0°から90°にかけて増加する関係と、感度軸(x軸)で検出される重力加速度の極性と傾き角が左右のいずれを示すかの関係を用いる。傾き推定部142は、傾き角θを示す方向信号を、ケーブル12を介してデータ処理部113に出力する。   The tilt estimation unit (direction estimation unit) 142 detects the direction of the user's head as the tilt angle θ based on the acceleration signal input from the acceleration sensor 141. For example, the inclination estimation unit 142 may determine the inclination angle θ of the user's head based on the acceleration on one sensitivity axis (x axis) and the acceleration on the remaining sensitivity axis (z axis) indicated by the input acceleration signal. (FIG. 1C) is calculated. Here, the inclination estimation unit 142 determines that the inclination angle θ increases from 0 ° to 90 ° as the value of the gravitational acceleration on the remaining sensitivity axis (z axis) increases, and the sensitivity axis (x axis). The relationship between the polarity of the gravitational acceleration detected in step) and the tilt angle is used. The inclination estimation unit 142 outputs a direction signal indicating the inclination angle θ to the data processing unit 113 via the cable 12.

このように、本実施形態では、M個の集音部は、生体に接触する接触面部に収容された集音部であって、該接触面部から伝達された音を集音する。本実施形態では、利用者の頭部の方向を検出し、M個の集音部のそれぞれが集音した音響信号から、M個の集音部の配置及び前記方向検出部が検出した方向に基づいて、頭部の左右各方向に対応する音響信号をそれぞれ生成する。これにより、検出された頭部の左右各方向に対応する音響信号に基づく音が再生される。そのため、利用者は、M個の集音部を収容した接触面部を生体に接触させる方向を変更させなくても、自己の頭部の方向を変更することで、その変更した方向に応じた音を明瞭に受聴することができる。   As described above, in the present embodiment, the M sound collecting units are sound collecting units accommodated in the contact surface portion that comes into contact with the living body, and collect sound transmitted from the contact surface portion. In this embodiment, the direction of the user's head is detected, and the arrangement of the M sound collecting units and the direction detected by the direction detecting unit are detected from the acoustic signals collected by each of the M sound collecting units. Based on this, acoustic signals corresponding to the left and right directions of the head are generated. Thereby, the sound based on the acoustic signal corresponding to the left and right directions of the detected head is reproduced. Therefore, the user can change the direction of his / her head by changing the direction of his / her head without changing the direction in which the contact surface portion containing the M sound collecting portions is brought into contact with the living body. Can be heard clearly.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について説明する。以下に説明する実施形態では、第1の実施形態と同一の構成について同一の符号を付して説明を援用する。
図3は、本実施形態に係る生体音収集装置2の外観構成を示す概略図である。
図3(a)は、生体音収集装置2の全体を示す。生体音収集装置2は、チェストピース21、ケーブル12、2個のイヤーピース13−1、13−2及び方向検出部24を含んで構成される。方向検出部24は、撮像部241を含んで構成される。
撮像部241は、撮像素子(例えば、CCD(Charge Coupled Device、電荷結合素子))を含んで構成され、広角(例えば、視野角が60°〜120°)で周囲の画像を撮像する。撮像部241の光軸の向きは、イヤーピース13−1が利用者の一方の耳に装着された状態で、例えば、利用者の前方斜め下である。これにより、撮像部241は、利用者の前方から下方にわたる視野の画像を撮像する。
(Second Embodiment)
The second embodiment of the present invention will be described below with reference to the drawings. In the embodiments described below, the same reference numerals are given to the same configurations as those in the first embodiment, and the description is used.
FIG. 3 is a schematic diagram showing an external configuration of the biological sound collection device 2 according to the present embodiment.
FIG. 3A shows the whole body sound collection device 2. The biological sound collection device 2 includes a chest piece 21, a cable 12, two ear pieces 13-1, 13-2, and a direction detection unit 24. The direction detection unit 24 includes an imaging unit 241.
The imaging unit 241 includes an imaging device (for example, a charge coupled device (CCD)) and captures a surrounding image at a wide angle (for example, a viewing angle of 60 ° to 120 °). The direction of the optical axis of the imaging unit 241 is, for example, obliquely below the front of the user in a state where the earpiece 13-1 is attached to one ear of the user. Thereby, the imaging unit 241 captures an image of a visual field extending from the front to the lower side of the user.

図3(b)は、チェストピース21の表面の一例を示す。チェストピース21は、チェストピース11(図1)と同様な構成を備える。但し、チェストピース21では、LED群114(図1(b)、(d))が省略され、2個のマーカ215−1、215−2がチェストピース21の表面の平面部に、つまみ部115を挟んで左右対称の位置に配置されている。図3(b)では、マーカ215−1、215−2の形状は、それぞれ星型、十字型であるが、本実施形態ではこれには限られず、例えば、円型、長方形等、であってもよい。なお、マーカ215−1、215−2は、それぞれLED等の発光体を含んで構成されていてもよい。マーカ215−1等の個数は、2個に限られず、1個であってもよいし、2個よりも多い個数、例えば、3個であってもよい。   FIG. 3B shows an example of the surface of the chest piece 21. The chest piece 21 has the same configuration as the chest piece 11 (FIG. 1). However, in the chest piece 21, the LED group 114 (FIGS. 1B and 1D) is omitted, and the two markers 215-1 and 215-2 are provided on the plane portion of the surface of the chest piece 21 and the knob portion 115. It is arranged at a symmetrical position with respect to. In FIG. 3B, the shapes of the markers 215-1 and 215-2 are a star shape and a cross shape, respectively. However, in the present embodiment, the shape is not limited to this. Also good. The markers 215-1 and 215-2 may be configured to include light emitters such as LEDs. The number of markers 215-1 and the like is not limited to two, and may be one or more than two, for example, three.

次に、生体音収集装置2の内部構成について説明する。
図4は、本実施形態に係る生体音収集装置2の内部構成を示す概略ブロック図である。
チェストピース21は、図2のチェストピース11においてデータ処理部113の代わりにデータ処理部213を含んで構成され、LED114−1〜114−Nが省略されている。データ処理部213では、データ処理部113(図2)においてLED114−1〜114−Nに電力を供給する処理が省略されている。
Next, the internal configuration of the biological sound collection device 2 will be described.
FIG. 4 is a schematic block diagram showing the internal configuration of the biological sound collection device 2 according to this embodiment.
The chest piece 21 includes a data processing unit 213 instead of the data processing unit 113 in the chest piece 11 of FIG. 2, and the LEDs 114-1 to 114-N are omitted. In the data processing unit 213, processing for supplying power to the LEDs 114-1 to 114-N in the data processing unit 113 (FIG. 2) is omitted.

方向検出部24は、撮像部241の他に、傾き推定部242を含んで構成される。傾き推定部242には、マーカ215−1、215−2の画像を示す画像信号がそれぞれ予め記憶されている。傾き推定部242は、撮像部241から入力された画像信号と予め記憶された被写体の画像を示す被写体信号のそれぞれの位置(座標)を変更しながら照合して、被写体のそれぞれが表されている位置を検出する。ここで、被写体として、例えば、マーカ215−1、215−2を用いる。被写体信号との照合において、傾き推定部242は、例えば、入力された画像信号との類似性を示す指標値(例えば、SAD(Sum of Absolute Differences、差分絶対値和))を算出する。傾き推定部242は、指標値が最も類似することを示す(例えば、SADが最小)位置を被写体の位置(座標)と定める。   The direction detection unit 24 includes an inclination estimation unit 242 in addition to the imaging unit 241. In the inclination estimation unit 242, image signals indicating the images of the markers 215-1 and 215-2 are stored in advance. The inclination estimation unit 242 collates while changing the position (coordinates) of the image signal input from the imaging unit 241 and the object signal indicating the image of the object stored in advance, and each object is represented. Detect position. Here, for example, markers 215-1 and 215-2 are used as subjects. In collation with the subject signal, the inclination estimation unit 242 calculates, for example, an index value (for example, SAD (Sum of Absolute Differences)) indicating similarity with the input image signal. The inclination estimation unit 242 determines a position indicating that the index values are most similar (for example, SAD is minimum) as the position (coordinates) of the subject.

傾き推定部242は、位置を検出した被写体相互間を結ぶ線分の方向を定め、定めた方向と所定の方向とのなす角度を傾き角θと定める。ここで、所定の方向とは、撮像部241の画像座標系における水平方向であってもよいし、チェストピース21と生体と接触した時点で撮像部241が撮像した画像に基づいて定められた傾き角θであってもよい。利用者が片手でつまみ部115を把持してチェストピース21を生体の表面に置き、使用開始当初には、つまみ部115の長手方向と利用者の正中面の方向がずれることがあるためである。所定の方向を、使用開始当初の方向とおくことで、使用開始当初に生じるずれが是正された時点で、新たに定めた方向の誤差を補正することができる。
なお、傾き推定部242は、位置を検出する被写体としてマーカ215−1、215−2の他、利用者の身体の一部、例えば、目、耳や、室内の壁面に付された模様等、位置の目標となる既知の被写体を用いることができる。
The inclination estimation unit 242 determines the direction of a line segment connecting the subjects whose positions are detected, and determines an angle formed between the determined direction and a predetermined direction as an inclination angle θ. Here, the predetermined direction may be a horizontal direction in the image coordinate system of the imaging unit 241, or an inclination determined based on an image captured by the imaging unit 241 when the chestpiece 21 comes into contact with the living body. The angle θ may be used. This is because the user holds the knob part 115 with one hand and places the chest piece 21 on the surface of the living body, and at the beginning of use, the longitudinal direction of the knob part 115 and the direction of the median surface of the user may be shifted. . By setting the predetermined direction as a direction at the beginning of use, an error in a newly determined direction can be corrected when the deviation that occurs at the beginning of use is corrected.
In addition, the inclination estimation part 242 is a subject to detect the position, in addition to the markers 215-1 and 215-2, a part of the user's body, for example, a pattern attached to the eyes, ears, indoor wall surface, etc. A known subject as a position target can be used.

データ処理部213は、例えば、次の構成(1)、(2)のいずれか又は両方を備えて、チェストピース21が生体の表面に置かれたことを検出して、使用が開始されたことを判定するようにしてもよい。(1)A/D変換器112−1〜112−4からそれぞれ入力された音響信号s〜sの信号値が、予め定めた信号レベルの閾値を超えたか否かを判定し、その閾値を超えたと判定する。(2)生体の表面に接触するチェストピース21の裏面に備えられた圧力センサが検出した圧力が、予め定めた圧力の閾値を越えたか否かを判定し、その閾値を超えたと判定する。データ処理部213は、使用が開始されたことを示す使用開始信号を生成し、生成した使用開始信号を傾き推定部242に出力して、傾き角θを示す方向信号を要求する。 The data processing unit 213 includes, for example, one or both of the following configurations (1) and (2), detects that the chest piece 21 is placed on the surface of the living body, and has started use May be determined. (1) It is determined whether or not the signal values of the acoustic signals s 1 to s 4 respectively input from the A / D converters 112-1 to 112-4 exceed a predetermined signal level threshold, and the threshold Is determined to have exceeded (2) It is determined whether or not the pressure detected by the pressure sensor provided on the back surface of the chest piece 21 in contact with the surface of the living body exceeds a predetermined pressure threshold, and it is determined that the threshold has been exceeded. The data processing unit 213 generates a use start signal indicating that use has started, and outputs the generated use start signal to the tilt estimation unit 242 to request a direction signal indicating the tilt angle θ.

データ処理部213は、傾き推定部242から入力された傾き角θを用いて、データ処理部113(図2)と同様にA/D変換器112−1〜112−4からそれぞれ入力された音響信号s〜sに基づいて左音響信号s、右音響信号sを算出する。データ処理部213は、算出した左音響信号s、右音響信号sをイヤーピース13−1、13−2にそれぞれ出力する。 The data processing unit 213 uses the inclination angle θ input from the inclination estimation unit 242, and similarly receives the sound input from the A / D converters 112-1 to 112-4 as in the data processing unit 113 (FIG. 2). Based on the signals s 1 to s 4 , the left acoustic signal s 1 and the right acoustic signal s r are calculated. The data processing unit 213 outputs the calculated left acoustic signal s 1 and right acoustic signal s r to the earpieces 13-1 and 13-2, respectively.

このように、本実施形態によれば、撮像した画像に基づき接触面部を基準とした頭部の方向を検出するため、重力の方向に関わらず、接触面部との相対的な頭部の方向に基づいて、その方向の左右各側に対応する音響信号をより正確に生成することができる。   As described above, according to the present embodiment, the direction of the head relative to the contact surface portion is detected regardless of the direction of gravity in order to detect the head direction based on the contact surface portion based on the captured image. Based on this, acoustic signals corresponding to the left and right sides of the direction can be generated more accurately.

(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について説明する。以下に説明する実施形態では、第1及び第2の実施形態と同一の構成について同一の符号を付して説明を援用する。
図5は、本実施形態に係る生体音収集装置3の外観構成を示す概略図である。
図5(a)は、生体音収集装置3の全体を示す。生体音収集装置3は、チェストピース31、ケーブル12、及び2個のイヤーピース13−1、13−2を含んで構成される。
本実施形態に係る生体音収集装置3は、生体音収集装置2(図3(a))がイヤーピース13−1に隣接して備えられていた撮像部241をチェストピース31の表面に備えたものである。
(Third embodiment)
The third embodiment of the present invention will be described below with reference to the drawings. In the embodiments described below, the same reference numerals are given to the same configurations as those in the first and second embodiments, and the description is incorporated.
FIG. 5 is a schematic diagram showing an external configuration of the biological sound collection device 3 according to the present embodiment.
FIG. 5A shows the whole body sound collection device 3. The biological sound collection device 3 includes a chest piece 31, a cable 12, and two ear pieces 13-1 and 13-2.
The biological sound collection device 3 according to the present embodiment includes an imaging unit 241 provided on the surface of the chest piece 31, in which the biological sound collection device 2 (FIG. 3A) is provided adjacent to the earpiece 13-1. It is.

図5(b)は、チェストピース31の表面の一例を示す。チェストピース31は、チェストピース21(図3(b))と同様な構成を備える。但し、チェストピース31では、2個のマーカ215−1、215−2が省略され、つまみ部115の表面に撮像部241が配置されている。撮像部241の光軸の向きは、チェストピース31の表面に対して垂直な方向である。これにより、利用者がチェストピース31を利用しているとき、利用者の頭部や利用者が装着しているイヤーピース13−1、13−2の画像が撮像される。   FIG. 5B shows an example of the surface of the chest piece 31. The chest piece 31 has the same configuration as the chest piece 21 (FIG. 3B). However, in the chest piece 31, the two markers 215-1 and 215-2 are omitted, and the imaging unit 241 is disposed on the surface of the knob unit 115. The direction of the optical axis of the imaging unit 241 is a direction perpendicular to the surface of the chest piece 31. Thereby, when the user is using the chestpiece 31, images of the user's head and earpieces 13-1 and 13-2 worn by the user are taken.

次に、生体音収集装置3の内部構成について説明する。
図6は、本実施形態に係る生体音収集装置3の内部構成を示す概略ブロック図である。
生体音収集装置3では、方向検出部24(図4)が省略されている。チェストピース31は、図4のチェストピース21において、データ処理部213の代わりにデータ処理部313を含んで構成され、さらに撮像部241と傾き推定部342とを含んで構成される。
Next, the internal configuration of the biological sound collection device 3 will be described.
FIG. 6 is a schematic block diagram showing the internal configuration of the biological sound collection device 3 according to this embodiment.
In the biological sound collection device 3, the direction detection unit 24 (FIG. 4) is omitted. The chest piece 31 includes a data processing unit 313 instead of the data processing unit 213 in the chest piece 21 of FIG. 4, and further includes an imaging unit 241 and an inclination estimation unit 342.

傾き推定部342にも、マーカや利用者の身体の一部、例えば、目、等の既知の被写体の画像を示す画像信号がそれぞれ予め記憶されている。傾き推定部342は、傾き推定部242と同様に撮像部241から入力された画像信号と予め記憶された被写体の画像を示す被写体信号のそれぞれの位置を変更しながら照合して、被写体のそれぞれが表されている位置を検出する。傾き推定部342は、例えば、利用者の左右それぞれの目の位置や、イヤーピース13−1、13−2のそれぞれの前面に装着されたマーカ(図示せず)の位置等、互いに水平方向に配列されたと仮定された複数の被写体の位置を検出する。
傾き推定部342は、その複数の被写体の位置を結ぶ線分の方向を定め、傾き推定部242と同様に定めた方向に基づいて傾き角θを定める。傾き推定部342は、傾き推定部242と同様に、使用が開始されたことを判定し、使用が開始されたと判定した時点の傾き角を所定の方向として、新たに定めた傾き角θとのなす角度を傾き角θと定めてもよい。
The tilt estimation unit 342 also stores in advance image signals indicating images of known subjects such as markers and parts of the user's body, for example, eyes. Similar to the tilt estimation unit 242, the tilt estimation unit 342 collates the image signal input from the imaging unit 241 with a subject signal indicating a pre-stored subject image while changing the position of each subject. Detect the represented position. The inclination estimation unit 342 is arranged in the horizontal direction with respect to each other such as the positions of the left and right eyes of the user and the positions of markers (not shown) mounted on the front surfaces of the earpieces 13-1 and 13-2. The positions of a plurality of subjects assumed to have been detected are detected.
The inclination estimation unit 342 determines the direction of the line segment connecting the positions of the plurality of subjects, and determines the inclination angle θ based on the direction determined in the same manner as the inclination estimation unit 242. Similar to the tilt estimation unit 242, the tilt estimation unit 342 determines that the use has started, and sets the tilt angle at the time when it is determined that the use has been started as a predetermined direction to the newly determined tilt angle θ. The angle formed may be defined as the inclination angle θ.

データ処理部313は、傾き推定部342から入力された傾き角θを用いて、データ処理部213(図2)と同様にA/D変換器112−1〜112−4からそれぞれ入力された音響信号s〜sに基づいて左音響信号s、右音響信号sを算出する。データ処理部213は、算出した左音響信号s、右音響信号sをイヤーピース13−1、13−2にケーブル12を介してそれぞれ出力する。
データ処理部313は、傾き推定部242から入力された傾き角θを用いて、データ処理部113(図2)と同様にA/D変換器112−1〜112−4からそれぞれ入力された音響信号s〜sに基づいて左音響信号s、右音響信号sを算出する。
The data processing unit 313 uses the inclination angle θ input from the inclination estimation unit 342, and the sound input from each of the A / D converters 112-1 to 112-4 similarly to the data processing unit 213 (FIG. 2). Based on the signals s 1 to s 4 , the left acoustic signal s 1 and the right acoustic signal s r are calculated. The data processing unit 213 outputs the calculated left acoustic signal s 1 and right acoustic signal s r to the earpieces 13-1 and 13-2 via the cable 12.
The data processing unit 313 uses the inclination angle θ input from the inclination estimation unit 242, and the sound input from each of the A / D converters 112-1 to 112-4 similarly to the data processing unit 113 (FIG. 2). Based on the signals s 1 to s 4 , the left acoustic signal s 1 and the right acoustic signal s r are calculated.

このように、本実施形態によれば、接触面部と一体化した撮像部が撮像した画像に基づき接触面部を基準とした頭部の方向を検出することができる。頭部よりも方向の変動が緩やかな接触面部を基準として検知した方向の左右各側に対応する音響信号をより安定して生成することができる。   Thus, according to this embodiment, the direction of the head with reference to the contact surface portion can be detected based on the image captured by the imaging unit integrated with the contact surface portion. It is possible to more stably generate acoustic signals corresponding to the left and right sides of the direction detected with reference to the contact surface portion whose direction changes more slowly than the head.

(第4の実施形態)
以下、図面を参照しながら本発明の第4の実施形態について説明する。以下に説明する実施形態では、第1ないし第3の実施形態と同一の構成について同一の符号を付して説明を援用する。
本実施形態に係る生体音収集装置4の外観構成は、生体音収集装置1(図1(a))のチェストピース11の代わりにチェストピース41を備える。チェストピース41の形状は、チェストピース11(図1(a))の形状と同様であってもよい。
(Fourth embodiment)
The fourth embodiment of the present invention will be described below with reference to the drawings. In the embodiments described below, the same reference numerals are assigned to the same configurations as those in the first to third embodiments, and the description is incorporated.
The external configuration of the biological sound collection device 4 according to the present embodiment includes a chest piece 41 instead of the chest piece 11 of the biological sound collection device 1 (FIG. 1A). The shape of the chest piece 41 may be the same as the shape of the chest piece 11 (FIG. 1A).

次に、生体音収集装置4の内部構成について説明する。
図7は、本実施形態に係る生体音収集装置4の内部構成を示す概略ブロック図である。
チェストピース11は、4個のマイクロホン111−1〜111−4、データ処理部413、2個のA/D変換器112−1、112−2及び帯域処理部416を含んで構成される。A/D変換器112−1、112−2及び帯域処理部416は、チェストピース11の筐体に収容されている。
Next, the internal configuration of the biological sound collection device 4 will be described.
FIG. 7 is a schematic block diagram showing the internal configuration of the biological sound collection device 4 according to this embodiment.
The chest piece 11 includes four microphones 111-1 to 111-4, a data processing unit 413, two A / D converters 112-1 and 112-2, and a band processing unit 416. The A / D converters 112-1 and 112-2 and the band processing unit 416 are accommodated in the housing of the chest piece 11.

データ処理部413は、データ処理部113(図1)と同様に加速度センサ141から入力された加速度信号に基づいて利用者の頭部の傾き角θを算出する。データ処理部413は、算出した傾き角θが利用者の頭部の正中面前方の方向に対して、左側に垂直な方向θ、右側に垂直な方向θにそれぞれ属するマイク対応領域(図1(c))を判定する。これにより、傾き角θに対応する左耳の方向θ、右耳の方向θにそれぞれ最も近似する方向に配置されたマイクロホンが集音した音響信号が、それぞれ左音響信号s、右音響信号sと選択される。
但し、方向θ、方向θが、マイク対応領域の境界の方向を示す場合には、データ処理部413は、その境界の内部のいずれかのマイク対応領域を判定してもよい。データ処理部413は、判定したそれぞれのマイク対応領域に係るマイクロホンが集音した音響信号を左音響信号s、右音響信号sと選択する。
The data processing unit 413 calculates the tilt angle θ of the user's head based on the acceleration signal input from the acceleration sensor 141 as in the data processing unit 113 (FIG. 1). The data processing unit 413 has a microphone corresponding area in which the calculated inclination angle θ belongs to the direction θ l perpendicular to the left side and the direction θ r perpendicular to the right side with respect to the front direction of the median plane of the user's head (see FIG. 1 (c)). As a result, the acoustic signals collected by the microphones arranged in the directions closest to the left ear direction θ l and the right ear direction θ r corresponding to the tilt angle θ are respectively the left acoustic signal s l and the right acoustic signal. The signal s r is selected.
However, when the direction θ l and the direction θ r indicate the direction of the boundary of the microphone corresponding area, the data processing unit 413 may determine one of the microphone corresponding areas inside the boundary. The data processing unit 413 selects the acoustic signals collected by the microphones related to the determined microphone corresponding areas as the left acoustic signal s 1 and the right acoustic signal s r .

データ処理部413は、例えば、傾き角θが0°(直立)の場合には、s=s、s=sと選択する。
データ処理部413は、例えば、傾き角θが45°(右斜め向き)の場合には、s=s、s=sと選択する。
データ処理部413は、例えば、傾き角θが−45°(左斜め向き)の場合には、s=s、s=sと選択する。
データ処理部413は、選択した左音響信号s、右音響信号sをA/D変換器112−1、112−2にそれぞれ出力する。
The data processing unit 413, for example, when the inclination angle θ is 0 ° (upright) selects a s l = s 1, s r = s 2.
For example, the data processing unit 413 selects s l = s 2 and s r = s 4 when the inclination angle θ is 45 ° (right oblique direction).
The data processing unit 413, for example, when the inclination angle θ is -45 ° (left oblique direction) selects a s l = s 3, s r = s 1.
The data processing unit 413 outputs the selected left acoustic signal s 1 and right acoustic signal s r to the A / D converters 112-1 and 112-2, respectively.

帯域処理部416は、A/D変換器112−1、112−2から入力されたディジタルの左音響信号s、右音響信号sについて、それぞれ上述したバンドパス処理を行い、予め定めた周波数帯域の帯域成分を抽出する。帯域処理部416は、帯域成分を抽出した左音響信号s、右音響信号sを、それぞれケーブル12を介してイヤーピース13−1、13−2に出力する。
なお、上述では、2個のA/D変換器112−1、112−2を備え、バンドパス処理をディジタルで行うために、データ処理部413とは別個に帯域処理部416が構成されているが、本実施形態ではこれには限られない。帯域処理部416は、バンドパス処理をアナログで行うアナログフィルタで構成されていれば、アナログ処理を行う構成としてデータ処理部413と一体化されていてもよい。また、各マイクロホンから、それぞれディジタルの音響信号が得られていれば、帯域処理部416とデータ処理部413は、ディジタル処理を行う構成として一体化されていてもよい。
The band processing unit 416 performs the above-described bandpass processing on the digital left acoustic signal s 1 and right acoustic signal s r input from the A / D converters 112-1 and 112-2, respectively, and sets a predetermined frequency. Extract the band component of the band. The band processing unit 416 outputs the left acoustic signal s 1 and the right acoustic signal s r extracted from the band components to the earpieces 13-1 and 13-2 via the cable 12, respectively.
In the above description, the band processing unit 416 is configured separately from the data processing unit 413 in order to include the two A / D converters 112-1 and 112-2 and perform band-pass processing digitally. However, the present embodiment is not limited to this. The band processing unit 416 may be integrated with the data processing unit 413 as a configuration for performing analog processing as long as the band processing unit 416 is configured by an analog filter that performs band pass processing in an analog manner. Further, as long as digital acoustic signals are obtained from the respective microphones, the band processing unit 416 and the data processing unit 413 may be integrated as a configuration for performing digital processing.

このように、本実施形態では、M個の集音部のそれぞれが配置されている方向から、方向検出部が検出した方向に対応する頭部の左右各方向が、最も近似する方向に配置された集音部が集音した音響信号がそれぞれ選択される。これにより、本実施形態では、簡単な構成で、接触面部の方向を変更しなくても生体音を明瞭に受聴することができる生体音収集装置を実現することができる。   As described above, in the present embodiment, the left and right directions of the head corresponding to the direction detected by the direction detection unit are arranged in the most approximate direction from the direction in which each of the M sound collection units is arranged. The sound signals collected by the sound collecting units are selected. Thereby, in this embodiment, it is possible to realize a biological sound collecting apparatus that can listen to a biological sound clearly with a simple configuration without changing the direction of the contact surface portion.

なお、上述した実施形態では、データ処理部113、213、313及び帯域処理部416は、アナログ処理を行って、左音響信号s、右音響信号sを生成してもよい。その場合には、A/D変換器112−1〜112−M、D/A変換器131−1、131−2を省略してもよい。
上述した実施形態では、傾き推定部142、242、342、142が推定した傾き角θを、データ処理部113、213、313、413が重み係数の算出、音響信号の選択等の音響信号に対する処理にそのまま用いる場合を例にとって説明した。本実施形態ではこれには限られない。本実施形態では、傾き角θの増加に対して単調に増加する関数として調整した角度ψを、傾き角θの代わりにデータ処理部113、213、313、413における音響信号に対する処理に用いてもよい。例えば、調整した角度ψ=α・θ(αは、1よりも大きい実数、例えば、2)とすることで、利用者の頭部の傾きよりも、大きく方向が変化したときに得られる左音響信号s、右音響信号sが生成される。また、αを0より大きく1よりも小さい実数とすることで、利用者の頭部の傾きよりも、少なく方向が変化したときに得られる左音響信号s、右音響信号sが生成される。
In the above-described embodiment, the data processing units 113, 213, and 313 and the band processing unit 416 may perform analog processing to generate the left acoustic signal s 1 and the right acoustic signal s r . In that case, the A / D converters 112-1 to 112-M and the D / A converters 131-1 and 131-2 may be omitted.
In the embodiment described above, the inclination angle θ estimated by the inclination estimation units 142, 242, 342, and 142 is processed by the data processing units 113, 213, 313, and 413 with respect to the acoustic signal such as calculation of a weighting coefficient and selection of the acoustic signal. The case where it is used as it is is described as an example. This embodiment is not limited to this. In the present embodiment, the angle ψ adjusted as a function that increases monotonously with respect to the increase in the tilt angle θ may be used for processing the acoustic signal in the data processing units 113, 213, 313, and 413 instead of the tilt angle θ. Good. For example, by adjusting the angle ψ = α · θ (α is a real number greater than 1, for example, 2), the left sound obtained when the direction changes more than the inclination of the user's head A signal s l and a right acoustic signal s r are generated. Further, by setting α to a real number larger than 0 and smaller than 1 , the left acoustic signal s l and the right acoustic signal s r obtained when the direction changes less than the inclination of the user's head are generated. The

上述した実施形態では、データ処理部113、213、313又は帯域処理部416が生成した左音響信号s、右音響信号sに基づく音を、チェストピース11、21、31、41で再生してもよい。その場合には、ケーブル12は、2本の弾性体(例えば、塩化ビニル、ネオプレンゴム、等)からなる管材を含んで構成され、それぞれの管材の一端から他端へ左音響信号s、右音響信号sに基づく音を伝達させる。それぞれの管材の他端は、イヤーピース13−1、13−2に接続され、各イヤーピース13−1、13−2の開口部から伝達された音を放射するようにする。 In the above-described embodiment, the sound based on the left acoustic signal s 1 and the right acoustic signal s r generated by the data processing units 113, 213, and 313 or the band processing unit 416 is reproduced by the chest pieces 11, 21, 31, and 41. May be. In this case, the cable 12 is configured to include a tube material made of two elastic bodies (for example, vinyl chloride, neoprene rubber, etc.), and the left acoustic signal sl , A sound based on the acoustic signal s r is transmitted. The other ends of the respective pipe members are connected to the ear pieces 13-1 and 13-2 so as to radiate sound transmitted from the openings of the ear pieces 13-1 and 13-2.

上述した実施形態では、方向検出部14、24は、イヤーピース13−1、13−2のうちの一方と一体化、例えば、イヤーピース13−1の内部に配置されていてもよい。
上述した実施形態では、チェストピース11、21、41は、それぞれ傾き推定部142、242、142を備えてもよい。その場合には、方向検出部14、24は、それぞれ傾き推定部142、242を省略してもよい。
また、上述した実施形態に係る生体音収集装置1、4は、方向検出部14の代わりに方向検出部24を備えてもよい。
In the embodiment described above, the direction detection units 14 and 24 may be integrated with one of the ear pieces 13-1 and 13-2, for example, disposed inside the ear piece 13-1.
In the embodiment described above, the chest pieces 11, 21, and 41 may include the inclination estimation units 142, 242, and 142, respectively. In that case, the direction detection units 14 and 24 may omit the inclination estimation units 142 and 242, respectively.
The biological sound collection devices 1 and 4 according to the above-described embodiments may include a direction detection unit 24 instead of the direction detection unit 14.

なお、上述した実施形態における生体音収集装置1、2、3、4の一部、例えば、データ処理部113、213、313、413、傾き推定部242、342、及び帯域処理部416をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、生体音収集装置1、2、3又は4に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における生体音収集装置1、2、3、4の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。生体音収集装置1、2、3、4の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
Note that some of the biological sound collection devices 1, 2, 3, 4 in the above-described embodiment, for example, the data processing units 113, 213, 313, 413, the inclination estimation units 242, 342, and the band processing unit 416 are configured by a computer. It may be realized. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. Here, the “computer system” is a computer system built in the biological sound collection device 1, 2, 3 or 4, and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
Moreover, you may implement | achieve part or all of the biological sound collection apparatuses 1, 2, 3, 4 in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional block of the biological sound collection device 1, 2, 3, 4 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.

なお、本発明は、以下の態様でも実施することができる。
(1)生体に接触する接触面部に収容された集音部であって、該接触面部から伝達された音を集音する複数の集音部と、利用者の頭部の方向を検出する方向検出部と、前記複数の集音部のそれぞれが集音した音響信号から、前記複数の集音部の配置及び前記方向検出部が検出した方向に基づいて、前記頭部の左右各方向に対応する音響信号をそれぞれ生成する信号処理部と、を備える生体音収集装置。
In addition, this invention can be implemented also with the following aspects.
(1) A sound collecting unit housed in a contact surface part that comes into contact with a living body, a plurality of sound collecting parts collecting sound transmitted from the contact surface part, and a direction for detecting the direction of the user's head Corresponding to the left and right directions of the head based on the arrangement of the sound collectors and the direction detected by the direction detector from the sound signals collected by the detector and each of the sound collectors A biological sound collection device comprising: a signal processing unit that generates acoustic signals to be transmitted.

(2)前記信号処理部は、前記複数の集音部のそれぞれが配置されている方向と前記方向検出部が検出した頭部の方向に対応する前記頭部の左右各方向に基づく重みで、前記複数の集音部のそれぞれが集音した音響信号を重み付け加算して、前記頭部の左右各方向に対応する音響信号をそれぞれ生成することを特徴とする(1)の生体音収集装置。 (2) The signal processing unit is a weight based on the left and right directions of the head corresponding to the direction in which each of the plurality of sound collecting units is arranged and the direction of the head detected by the direction detection unit, The biological sound collecting apparatus according to (1), wherein the acoustic signals collected by each of the plurality of sound collecting units are weighted and added to generate acoustic signals corresponding to left and right directions of the head, respectively.

(3)前記信号処理部は、前記複数の集音部のそれぞれが配置されている方向から前記方向検出部が検出した方向に対応する前記頭部の左右各方向が、最も近似する方向に配置された集音部が集音した音響信号をそれぞれ選択することを特徴とする(1)の生体音収集装置。 (3) The signal processing unit is arranged in a direction in which the left and right directions of the head corresponding to the direction detected by the direction detection unit from the direction in which each of the plurality of sound collection units is arranged are closest to each other. The biological sound collection device according to (1), wherein each of the acoustic signals collected by the collected sound collection unit is selected.

(4)前記信号処理部が生成した音響信号に基づく音を再生する音響再生部であって、前記頭部の左右各方向にそれぞれ装着される音響再生部と、前記音響再生部の少なくとも1つから予め定めた範囲内の位置に配置され、重力加速度を検出する加速度検出部とを備え、前記方向検出部は、前記加速度検出部が検出した重力加速度の方向に基づいて前記頭部の方向を判定することを特徴とする(1)ないし(3)のいずれかに記載の生体音収集装置。 (4) An acoustic reproduction unit that reproduces sound based on the acoustic signal generated by the signal processing unit, wherein the acoustic reproduction unit is mounted in each of the left and right directions of the head, and at least one of the acoustic reproduction unit And an acceleration detection unit that detects gravitational acceleration, and the direction detection unit determines the direction of the head based on the direction of gravity acceleration detected by the acceleration detection unit. The biological sound collecting device according to any one of (1) to (3), wherein the biological sound collecting device is determined.

(5)前記方向検出部は、前記頭部の画像を撮像する撮像部と、前記撮像部が撮像した画像に基づいて前記頭部の方向を推定する方向推定部と、を備えることを特徴とする(1)から(3)のいずれかの生体音収集装置。 (5) The direction detection unit includes: an imaging unit that captures an image of the head; and a direction estimation unit that estimates a direction of the head based on an image captured by the imaging unit. The biological sound collection device according to any one of (1) to (3).

(6)前記方向検出部が検出した頭部の左右各方向を表示する方向表示部を備えることを特徴とする(1)から(5)のいずれかの生体音収集装置。 (6) The biological sound collection device according to any one of (1) to (5), further including a direction display unit that displays left and right directions of the head detected by the direction detection unit.

(7)生体に接触する接触面部に収容された集音部であって、該接触面部から伝達された音を集音する複数個の集音部と、利用者の頭部の方向を検出する方向検出部とを備える生体音収集装置における生体音収集方法において、前記生体音収集装置は、前記複数個の集音部のそれぞれが集音した音響信号から、前記複数個の集音部の配置及び前記方向検出部が検出した方向に基づいて、前記頭部の左右各耳の方向に対応する音響信号をそれぞれ生成する信号処理過程を有する生体音収集方法。 (7) A sound collecting unit housed in a contact surface part that comes into contact with a living body, and detects a plurality of sound collecting parts that collect sound transmitted from the contact surface part and a direction of the user's head. In the biological sound collection method in the biological sound collection device including a direction detection unit, the biological sound collection device includes an arrangement of the plurality of sound collection units from an acoustic signal collected by each of the plurality of sound collection units. And a body sound collection method including a signal processing step of generating acoustic signals corresponding to the directions of the left and right ears of the head based on the direction detected by the direction detection unit.

上述した(1)及び(7)によれば、検出された頭部の左右各方向に対応する音響信号に基づく音が再生される。そのため、利用者は、集音部を収容する接触面部を生体に接触させる方向を変更させなくても、自己の頭部の方向を変更することで、その変更した方向に応じた音を受聴することができる。これにより、接触面部の方向を変更しなくても生体音を明瞭に受聴することができる。   According to (1) and (7) described above, the sound based on the acoustic signals corresponding to the left and right directions of the detected head is reproduced. Therefore, the user listens to the sound according to the changed direction by changing the direction of his / her head without changing the direction in which the contact surface portion accommodating the sound collection unit is brought into contact with the living body. be able to. Thereby, a body sound can be heard clearly, without changing the direction of a contact surface part.

上述した(2)によれば、複数の集音部でそれぞれ集音された音響信号について検出された頭部の左右各方向に対応した重み付けにより左右各方向に対応する音響信号を生成するため、利用者が知覚される音の方向を円滑に制御することができる。
上述した(3)によれば、複数の集音部でそれぞれ集音された音響信号から検出された頭部の左右各方向に対応する音響信号が選択されるため、簡単な構成で接触面部の方向を変更しなくても生体音を明瞭に受聴することができる。
According to (2) described above, in order to generate acoustic signals corresponding to the left and right directions by weighting corresponding to the left and right directions of the head detected for the acoustic signals collected by the plurality of sound collecting units, The direction of sound perceived by the user can be controlled smoothly.
According to the above (3), since the acoustic signals corresponding to the left and right directions of the head detected from the acoustic signals respectively collected by the plurality of sound collecting units are selected, the contact surface portion can be configured with a simple configuration. A body sound can be heard clearly without changing the direction.

上述した(4)によれば、利用者の頭部の方向が重力の方向に基づいて検出するため、方向の基準を設ける必要がない。そのため、簡単な構成で利用者の頭部の方向に応じた処理を実現することができる。
上述した(5)によれば、撮像された画像に基づいて利用者の頭部の方向を検出できるため、重力の方向に関わらず撮像部との相対的な方向を検出できる。そのため、利用者の頭部の方向に応じた処理をよりに正確に実現することができる。
上述した(6)によれば、利用者は、検出された自己の頭部の左右各方向を視認できるため、頭部を傾けることによって知覚される音の方向を変更することができる。
According to (4) described above, since the direction of the user's head is detected based on the direction of gravity, there is no need to provide a direction reference. Therefore, processing according to the direction of the user's head can be realized with a simple configuration.
According to (5) described above, since the direction of the user's head can be detected based on the captured image, the direction relative to the imaging unit can be detected regardless of the direction of gravity. Therefore, the process according to the direction of the user's head can be realized more accurately.
According to (6) described above, since the user can visually recognize the left and right directions of the detected head, the user can change the direction of sound perceived by tilting the head.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

1、2、3、4…生体音収集装置、11、21、31…チェストピース、
111(111−1〜111−M)…マイクロホン、
112(112−1〜112−M)…A/D変換器、
113、213、313、413…データ処理部、
114…LED群、114−1〜114−N…LED、115…つまみ部、
12…ケーブル、
13(13−1、13−2)…イヤーピース、
131(131−1、131−2)…D/A変換器、
132(132−1、132−2)…イヤホン、
14、24…方向検出部、141…加速度センサ、
215(215−1、215−2)…マーカ、
241…撮像部、142、242、342…傾き推定部、
416…帯域処理部
1, 2, 3, 4 ... biological sound collection device, 11, 21, 31 ... chestpiece,
111 (111-1 to 111-M): microphone,
112 (112-1 to 112-M) ... A / D converter,
113, 213, 313, 413 ... data processing unit,
114 ... LED group, 114-1 to 114-N ... LED, 115 ... knob part,
12 ... Cable,
13 (13-1, 13-2) ... earpiece,
131 (131-1, 131-2) ... D / A converter,
132 (132-1, 132-2) ... earphones,
14, 24 ... direction detection unit, 141 ... acceleration sensor,
215 (215-1, 215-2) ... marker,
241 ... Imaging unit, 142, 242, 342 ... Inclination estimation unit,
416: Band processing unit

Claims (5)

生体に接触する接触面部に収容された集音部であって、該接触面部から伝達された音を集音する複数の集音部と、
利用者の頭部の方向を検出する方向検出部と、
前記複数の集音部のそれぞれが集音した音響信号から、前記複数の集音部の配置及び前記方向検出部が検出した方向に基づいて、前記頭部の左右各方向に対応する音響信号をそれぞれ生成する信号処理部と、
を備える生体音収集装置。
A sound collecting unit housed in a contact surface part that comes into contact with a living body, and a plurality of sound collecting parts that collect sound transmitted from the contact surface part;
A direction detection unit for detecting the direction of the user's head;
Based on the acoustic signals collected by each of the plurality of sound collection units, the acoustic signals corresponding to the left and right directions of the head are determined based on the arrangement of the plurality of sound collection units and the direction detected by the direction detection unit. A signal processor to generate each;
A biological sound collecting apparatus comprising:
前記信号処理部は、前記複数の集音部のそれぞれが配置されている方向と前記方向検出部が検出した頭部の方向に対応する前記頭部の左右各方向に基づく重みで、前記複数の集音部のそれぞれが集音した音響信号を重み付け加算して、前記頭部の左右各方向に対応する音響信号をそれぞれ生成することを特徴とする請求項1に記載の生体音収集装置。   The signal processing unit is weighted based on the left and right directions of the head corresponding to the direction in which each of the plurality of sound collecting units is disposed and the direction of the head detected by the direction detection unit. 2. The biological sound collection apparatus according to claim 1, wherein the sound signals collected by each of the sound collection units are weighted and added to generate sound signals corresponding to the left and right directions of the head, respectively. 前記信号処理部は、前記複数の集音部のそれぞれが配置されている方向から前記方向検出部が検出した方向に対応する前記頭部の左右各方向が、最も近似する方向に配置された集音部が集音した音響信号をそれぞれ選択することを特徴とする請求項1に記載の生体音収集装置。   The signal processing unit is a collecting unit in which left and right directions of the head corresponding to a direction detected by the direction detecting unit from a direction in which each of the plurality of sound collecting units is arranged are arranged in a direction that is most approximated. The biological sound collecting apparatus according to claim 1, wherein each of the acoustic signals collected by the sound unit is selected. 前記信号処理部が生成した音響信号に基づく音を再生する音響再生部であって、前記頭部の左右各方向にそれぞれ装着される音響再生部と、
前記音響再生部の少なくとも1つから予め定めた範囲内の位置に配置され、重力加速度を検出する加速度検出部とを備え、
前記方向検出部は、前記加速度検出部が検出した重力加速度の方向に基づいて前記頭部の方向を判定することを特徴とする請求項1ないし3のいずれかに記載の生体音収集装置。
An acoustic reproduction unit that reproduces sound based on an acoustic signal generated by the signal processing unit, the acoustic reproduction unit being mounted in each of the left and right directions of the head; and
An acceleration detection unit that is disposed at a position within a predetermined range from at least one of the sound reproduction units, and detects a gravitational acceleration;
The biological sound collection device according to claim 1, wherein the direction detection unit determines a direction of the head based on a direction of gravitational acceleration detected by the acceleration detection unit.
前記方向検出部が検出した頭部の左右各方向を表示する方向表示部を
備えることを特徴とする請求項1から4のいずれかに記載の生体音収集装置。
The biological sound collection device according to claim 1, further comprising a direction display unit that displays left and right directions of the head detected by the direction detection unit.
JP2012270112A 2012-12-11 2012-12-11 Biological sound collection apparatus Pending JP2014113349A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012270112A JP2014113349A (en) 2012-12-11 2012-12-11 Biological sound collection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012270112A JP2014113349A (en) 2012-12-11 2012-12-11 Biological sound collection apparatus

Publications (1)

Publication Number Publication Date
JP2014113349A true JP2014113349A (en) 2014-06-26

Family

ID=51170000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012270112A Pending JP2014113349A (en) 2012-12-11 2012-12-11 Biological sound collection apparatus

Country Status (1)

Country Link
JP (1) JP2014113349A (en)

Similar Documents

Publication Publication Date Title
US20210282738A1 (en) Digital stethoscopes, and auscultation and imaging systems
KR100339987B1 (en) Computer Mouse Having Stethoscope
EP3295867B1 (en) A phone for use in health monitoring
US20150327775A1 (en) Medical examination apparatus
WO2019241645A1 (en) Device for monitoring activities of daily living and physiological parameters to determine a condition and diagnosis of the human brain and body
Schickler et al. Using mobile serious games in the context of chronic disorders: a mobile game concept for the treatment of tinnitus
CA2906856A1 (en) Ear-related devices implementing sensors to acquire physiological characteristics
US20130102908A1 (en) Air Conduction Sensor and a System and a Method for Monitoring a Health Condition
EP3280154B1 (en) System and method for operating a wearable loudspeaker device
WO2020176414A1 (en) Detecting user&#39;s eye movement using sensors in hearing instruments
JP6596896B2 (en) Head-related transfer function selection device, head-related transfer function selection method, head-related transfer function selection program, sound reproduction device
US7721843B1 (en) Visual acoustic device
CN115884709A (en) Insight into health is derived by analyzing audio data generated by a digital stethoscope
JP2014117572A (en) Biological sound collection apparatus
CN115334969A (en) Heart monitoring system with wireless earplugs
WO2010079257A1 (en) A device, an apparatus and a method for measuring biological information
JP2014113349A (en) Biological sound collection apparatus
US20220240802A1 (en) In-ear device for blood pressure monitoring
WO2022077242A1 (en) Wearable device for detecting physiological signals, and system and method for using the same
JP2014008096A (en) Electronic stethoscope, electronic auscultation system, information processing method, control program, and recording medium
JP2003235837A (en) Stethoscopic apparatus
CN113520450A (en) Wireless stethoscope
US20240130681A1 (en) Electrode placement calibration
US20230210463A1 (en) Monitoring cardiac activity using an in-ear device
JP2014014410A (en) Storage control apparatus, storage control system, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150515