JP5794526B2 - Interface system - Google Patents

Interface system Download PDF

Info

Publication number
JP5794526B2
JP5794526B2 JP2011169022A JP2011169022A JP5794526B2 JP 5794526 B2 JP5794526 B2 JP 5794526B2 JP 2011169022 A JP2011169022 A JP 2011169022A JP 2011169022 A JP2011169022 A JP 2011169022A JP 5794526 B2 JP5794526 B2 JP 5794526B2
Authority
JP
Japan
Prior art keywords
bone conduction
conduction sound
interface system
elbow
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011169022A
Other languages
Japanese (ja)
Other versions
JP2013033382A (en
Inventor
憲太郎 竹村
憲太郎 竹村
晃大 伊藤
晃大 伊藤
淳 高松
淳 高松
司 小笠原
司 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2011169022A priority Critical patent/JP5794526B2/en
Publication of JP2013033382A publication Critical patent/JP2013033382A/en
Application granted granted Critical
Publication of JP5794526B2 publication Critical patent/JP5794526B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、身体に装着されて用いられるインタフェースであって、特に腕の骨を伝わる骨導音を利用したインタフェース技術に関する。 The present invention relates to an interface technology that is used by being worn on the body, and in particular uses an bone conduction sound transmitted through the bone of an arm.

近年、利用したいときに直ぐに機器操作、行動記録、情報提供などを利用可能とする、身体のセンシングを利用する身体に装着が可能なインタフェースの研究開発が行われている。 In recent years, research and development has been conducted on an interface that can be worn on the body using sensing of the body so that device operation, action recording, information provision, etc. can be used immediately when desired.

身体を操作領域や情報の伝達経路に用いることで、接触情報をセンシングして入力インタフェースとして利用すること、運動をセンシングして例えば、コントローラーとして利用することが可能となる。これらインタフェースの条件としては、直感的で安定した操作性、屋内外など無理なく使用できる環境に対する頑健性、身体に装着可能とする小型・軽量化や、様々なコマンドやアプリケーションに利用できる汎用性など、使用者が外部環境を気にせず、いつでも直感的・安定的に操作でき、装着しても日常生活を妨げない常時装着が可能なインタフェース技術が求められている。 By using the body as an operation region or an information transmission path, it is possible to sense contact information and use it as an input interface, or sense movement and use it as a controller, for example. These interface conditions include intuitive and stable operability, robustness to environments that can be used comfortably, such as indoors and outdoors, miniaturization and weight reduction that can be worn on the body, and versatility that can be used for various commands and applications. Therefore, there is a need for an interface technology that allows a user to always operate intuitively and stably without worrying about the external environment, and can always be worn without hindering daily life even when worn.

従来、常時装着を目的とした身体センシングを用いたインタフェースとして、手指をセンサシステムの一部とした小型のインタフェースが開発されている。指輪型の加速度センサを各指の根元に装着し、机や大腿部などの任意面上への打腱によって生じた振動を入力とする指輪型インタフェース「指釦」(非特許文献1)、親指と人差し指を接触させて形成される「指の輪」の開閉状態を、指に流した電流によって識別する指輪型インタフェース「指にゃ」(非特許文献2)が知られている。 2. Description of the Related Art Conventionally, as an interface using body sensing for always wearing, a small interface using fingers as part of a sensor system has been developed. A ring-type interface “finger button” (Non-Patent Document 1), in which a ring-type acceleration sensor is attached to the base of each finger, and vibration generated by a striking tendon on an arbitrary surface such as a desk or thigh is input. A ring-type interface “finger Nya” (Non-Patent Document 2) that identifies the open / closed state of a “finger ring” formed by bringing a thumb and index finger into contact with each other is known.

また、骨伝導を用いたものでは、端末を把持した指先と指の付け根が接触する位置にそれぞれ骨伝導マイクロフォンを配置し、手の甲をタップした際のタップされた位置の推定結果を入力として使用するFingerKeypadがある(特許文献1)(非特許文献3)。これらのインタフェースは、小型・軽量でシンプルな構造を実現しているが、入力に指を用いるため入力インタフェースを指に直接装着する必要があり、操作性の観点から日常使用するには負担が大きく、また誤動作が生じる危険性を含むといった問題がある。 In the case of using bone conduction, each bone conduction microphone is placed at the position where the fingertip holding the terminal and the base of the finger contact, and the estimated result of the tapped position when the back of the hand is tapped is used as input. There is a FingerKeypad (patent document 1) (non-patent document 3). These interfaces are small, lightweight, and have a simple structure. However, since a finger is used for input, it is necessary to attach the input interface directly to the finger, which is a heavy burden for daily use from the viewpoint of operability. In addition, there is a problem including a risk of malfunction.

指ではなく、腕を操作領域とし、外部からタップした衝突位置の推定をインタフェースとして用いる方法も提案されている。非特許文献4には、5つのセンサ素子を有する2組のセンサアレイを、それぞれ橈骨と尺骨に当るように配置することで、腕をタップしたときの骨を伝わる骨導音と肉を伝わる肉伝導音の両方を計測し、そのタップによる衝突位置を推定する方法が提案されている。また、本発明者らは、非特許文献5にて接触推定に生体骨を伝わる骨導音を利用する方法を提案しており、腕をタップした際に生じる骨導音を、2個の骨伝導マイクロフォンによって検出し、タップによる衝突位置を推定して、インタフェースに利用する方法を開示している。 A method has also been proposed in which an arm, not a finger, is used as an operation area, and an estimation of a collision position tapped from the outside is used as an interface. In Non-Patent Document 4, two sets of sensor arrays having five sensor elements are arranged so as to hit the ribs and the ulna, respectively, so that the bone conduction sound transmitted through the bone and the meat transmitted through the meat when the arm is tapped. A method has been proposed in which both conducted sounds are measured and the collision position due to the tap is estimated. In addition, the present inventors have proposed a method of using bone conduction sound transmitted through living bones for contact estimation in Non-Patent Document 5, and bone conduction sound generated when tapping an arm is divided into two bones. A method of detecting by a conduction microphone, estimating a collision position by a tap, and using the same for an interface is disclosed.

しかしながら、これらの方法は、腕のタップによる衝突位置のみが入力信号となっており、より複雑な操作が行える入力インタフェースとするには、衝突位置を増やして入力量を高める必要があるが、そのためには、身体により多くのセンサを装着する必要がある。そのため小型・軽量化の点で、常時装着性が損なわれてくることになり、使用者の拘束感も増大させることになる。加えて、コストの面でも高くなるといった問題がある。 However, in these methods, only the collision position by the tap of the arm is an input signal, and it is necessary to increase the input amount by increasing the collision position in order to make an input interface that can perform more complicated operations. Requires more sensors to be worn on the body. For this reason, in terms of reduction in size and weight, the constant wearability is impaired, and the sense of restraint of the user is also increased. In addition, there is a problem that the cost increases.

特開WO2009/078350JP2009 / 0783350

福本雅朗,外村佳伸:指釦:手首装着型コマンド入力機構御.情報処理学会論文誌,vol.40, no.2,pp.389-398,1999.Masaaki Fukumoto, Yoshinobu Tonomura: Finger buttons: Wrist-mounted command input mechanism. IPSJ Journal, vol.40, no.2, pp.389-398, 1999. 野田早織,山本京,奥村充男,赤堀一郎.指にゃ:指の輪を検出する指輪.情報処理学会インタラクション2009論文集,pp.135-136,2009.Saori Noda, Kyo Yamamoto, Mitsuo Okumura, Ichiro Akahori. Finger Nya: A ring that detects the ring of a finger. IPSJ Interaction 2009 Proceedings, pp.135-136, 2009. 則枝真,村田一仁,仙洞田充,三橋秀行.Fingerkeypad:指へのタップ入力によるモバイル機器操作.情報処理学会インタラクション2010論文集,PA15,2010.Masanori Norie, Kazuhito Murata, Mitsuru Sentoda, Hideyuki Mitsuhashi. Fingerkeypad: Mobile device operation by tap input to fingers. IPSJ Interaction 2010 Proceedings, PA15, 2010. Chris Harrison, DesneyTan, and Dan Morris. Skinput:Appropriating the body as an input surface. In Proceeding of the 28th Annual SIGCHIConference on Human Factors in Computing Systems,pp.453-462, 2010.Chris Harrison, DesneyTan, and Dan Dan Morris. Skinput: Apppropriating the body as an input surface. 伊藤晃大,竹村憲太郎,末永剛,高松淳,小笠原司.前腕骨を伝達経路とする骨導音を利用した常時装着インタフェース.第28回日本ロボット学会学術講演会予稿集.Satoshi Ito, Kentaro Takemura, Go Suenaga, Satoshi Takamatsu, Tsukasa Ogasawara. Always-on interface using bone conduction sound with the forearm bone as the transmission path. Proceedings of the 28th Annual Conference of the Robotics Society of Japan.

上述した従来の入力インタフェースにおいて、手指を操作領域に使う方法では、指にセンサを直接装着する必要があり、日常使用するには負担が大きく、また、誤動作が生じる危険性を含むといった問題がある。 In the conventional input interface described above, the method of using a finger in the operation area requires a sensor to be directly attached to the finger, which is a burden for daily use, and includes a risk of malfunction. .

また、腕を操作領域に使う方法では、タップによる衝突位置のみが入力信号となっており、タップ箇所、すなわち衝突位置を増やして入力量を高め、より複雑な操作が行える入力インタフェースとするには、身体により多くのセンサを装着する必要がある。そのため小型・軽量化の点で常時の装着性が損なわれてくることになるなり、使用者の拘束感も増大させることになる。加えて、コストの面でも高くなるといった問題がある。 In addition, in the method of using the arm for the operation area, only the collision position by the tap is an input signal. To increase the input amount by increasing the tap location, that is, the collision position, an input interface that can perform more complicated operations It is necessary to wear more sensors on the body. For this reason, the mounting ability at the time is reduced in terms of size and weight reduction, and the sense of restraint of the user is also increased. In addition, there is a problem that the cost increases.

このような問題に鑑みて、本発明は、身体をセンシング領域とするインタフェースにおいて、使用者が気軽に常時装着することが可能で、使用者の意図する多様な入力情報を少ないセンサ構成で安定的して生成できるインタフェースシステムを提供することを目的とする。 In view of such a problem, the present invention enables a user to casually always wear an interface in which the body is a sensing region, and stably inputs various input information intended by the user with a small sensor configuration. It is an object to provide an interface system that can be generated.

上記目的を達成するために本発明は、身体の骨を伝達経路とする骨導音が、身体の姿勢、身体への接触により変化するときの骨導音の信号に着目する。 In order to achieve the above object, the present invention focuses on the bone conduction sound signal when the bone conduction sound using the body bone as a transmission path changes due to the posture of the body and contact with the body.

ここで、骨導音とは、声帯などの振動が頭蓋骨を通じて、直接聴覚神経に伝わる骨伝導による生じる音である。本発明では、生体骨を通じて音が伝播することを骨伝導、生体骨を通じて伝わる音全般を骨導音として捉えている。骨導音は外部ノイズに強く、比較的センシングしやすいことも骨導音に着目した理由である。 Here, the bone conduction sound is a sound generated by bone conduction in which vibrations such as vocal cords are directly transmitted to the auditory nerve through the skull. In the present invention, the propagation of sound through a living bone is regarded as bone conduction, and the entire sound transmitted through the living bone is regarded as a bone conduction sound. The bone conduction sound is resistant to external noise and is relatively easy to sense.

本発明のインタフェースシステムは、身体に装着して用いられるインタフェースシステムであって、身体に少なくとも1個の振動を入力して骨導音を発生させる振動入力用アクチュエータを装着し、他に少なくとも1個の前記骨導音を取得する骨伝導マイクロフォンを装着することを特徴とするインタフェースシステムである。身体の骨格を伝わる骨導音を振動入力用アクチュエータで能動的に発生させて、その骨導音の信号を骨伝導マイクロフォンで取得するインタフェースシステムを構成する。 The interface system of the present invention is an interface system used by being worn on the body, and is equipped with at least one vibration input actuator for inputting bone vibrations by inputting at least one vibration to the body, and at least one other. A bone conduction microphone for acquiring the bone conduction sound is attached. An interface system is constructed in which bone conduction sound transmitted through the body skeleton is actively generated by a vibration input actuator, and a signal of the bone conduction sound is acquired by a bone conduction microphone.

さらに、本発明のインタフェースシステムは、身体に装着して用いられるインタフェースシステムであって、次の(1)から(4)に示す構成要素を備える。
(1)身体の第1の部位に装着され、振動を入力して骨導音を発生させる振動入力用アクチュエータ。
(2)身体の第2の部位に装着され、前記骨導音を取得する骨伝導マイクロフォン。
(3)前記骨伝導マイクロフォンが取得する骨導音の信号に基づいて、身体の姿勢を推定する機能を含む信号処理手段。
(4)前記信号処理手段による処理結果から、所定の入力情報を生成する入力情報生成手段。
Furthermore, the interface system of the present invention is an interface system used by being worn on the body, and includes the components shown in the following (1) to (4).
(1) A vibration input actuator that is attached to the first part of the body and generates bone conduction sound by inputting vibration.
(2) A bone conduction microphone that is attached to a second part of the body and acquires the bone conduction sound.
(3) Signal processing means including a function for estimating the posture of the body based on a bone conduction sound signal acquired by the bone conduction microphone.
(4) Input information generation means for generating predetermined input information from the processing result of the signal processing means.

かかる構成とすることにより、振動入力用アクチュエータで発生させた骨導音の信号を、第2の部位の骨伝導マイクロフォンで取得して、その信号に基づいて信号処理を行うことで、身体の姿勢を推定し、その推定結果から入力情報を生成できる。 By adopting such a configuration, a bone conduction sound signal generated by the vibration input actuator is acquired by the bone conduction microphone of the second part, and signal processing is performed based on the signal, whereby the posture of the body And the input information can be generated from the estimation result.

本発明の請求項に係るインタフェースシステムは、請求項の振動用アクチュエータ及び骨伝導マイクロフォンを装着する第1の部位、第2の部位が、装着者(以下、使用者)の同じ腕であることを特徴とする。 Interface system according to claim 2 of the present invention, a first portion for mounting the vibration actuator and the bone conduction microphone of claim 1, the second site is the same wearer's arm (hereinafter, the user) It is characterized by that.

腕は、ジェスチャにより使用者の意思を表示するのに好適な身体部位である。例えば、ロボットの遠隔操作、仮想空間内でのキャラクター操作、家電のON/OFF、音量操作など、ジェスチャによる入力の適用範囲は広く、ユーザインタフェースとして有望である。 The arm is a body part suitable for displaying a user's intention by a gesture. For example, input range by gestures such as remote operation of a robot, character operation in a virtual space, ON / OFF of home appliances, volume operation, etc. is wide and promising as a user interface.

また、体表と骨までの距離が比較的近く、外部からの振動入力により骨導音を生じさせやすい。振動入力用アクチュエータと骨伝導マイクロフォンを同じ腕に配置することで、伝達経路となる骨の種類や関節数が限られ、また、比較的アクチュエータとマイクロフォンの間の距離も短くなり、経路も直線的であるため、骨を伝わる間の骨導音の減衰などによる骨導音の低下やノイズの混入も比較的防ぎやすく、骨導音をより取得しやすくなるという利点もある。 Further, the distance between the body surface and the bone is relatively short, and it is easy to generate bone conduction sound by external vibration input. By placing the vibration input actuator and bone conduction microphone on the same arm, the bone type and number of joints that serve as the transmission path are limited, and the distance between the actuator and the microphone is relatively short, and the path is also linear. Therefore, there is an advantage that it is relatively easy to prevent a decrease in bone conduction sound due to attenuation of the bone conduction sound while passing through the bone, and mixing of noise, and it is easier to acquire the bone conduction sound.

また、腕は、他の身体の部位と比べて使用者にとって違和感なく装着しやすく、拘束感を緩和しやすい。小型・軽量化することで日常生活の観点からも常時装着しやすい身体部位である。振動入力アクチュエータの振動出力部が、体表側にあれば装着方法に特に制限はない。また、骨伝導マイクロフォンにおいても骨導音採取部が、体表側にあれば装着方法に特に制限はない。 In addition, the arm is easy to be worn without a sense of incongruity for the user as compared with other parts of the body, and the restraint feeling is easy to relax. It is a body part that is easy to wear at all times from the viewpoint of daily life by making it smaller and lighter. If the vibration output portion of the vibration input actuator is on the body surface side, the mounting method is not particularly limited. Also, in the bone conduction microphone, if the bone conduction sound collection part is on the body surface side, there is no particular limitation on the wearing method.

また、同じ腕に装着することで、システムとしてコンパクトに構成しやすくできる。 Moreover, by mounting on the same arm, the system can be easily made compact.

また、アクチュエータとマイクロフォンで調和した形状やファッション性を付与することで、外見上も違和感も取り除きやすい。例えば、装飾用リングや腕時計のようなデザインとすることで、使用者の装着意欲を高めるインタフェースシステムとすることができる。 Also, by adding a harmonious shape and fashionability between the actuator and the microphone, it is easy to remove the appearance and discomfort. For example, an interface system that enhances the user's willingness to wear can be obtained by using a design such as a decorative ring or a wristwatch.

本発明の請求項に係るインタフェースシステムは、肘の屈伸・屈曲による肘の屈曲角を身体の姿勢として推定する機能を信号処理手段として含むことを特徴とする。肘の屈伸・屈曲は腕の動作として大きく、骨導音の信号を取得しやすい。外見的にもジェスチャとしても分かりやすい。屈曲角の推定結果を所定の外部入力情報と組み合わせることにより、例えば、外部機器の操作情報を肘の屈伸・屈曲に合わせて出力することができ、ジェスチャ入力よる機器の直観的な操作が可能となる。 An interface system according to claim 3 of the present invention is characterized in that it includes a function for estimating an elbow flexion angle by bending / extending / flexing of the elbow as a body posture as signal processing means. Elbow flexion / extension is large as arm movement, and it is easy to acquire bone conduction sound signals. It is easy to understand both in appearance and as a gesture. By combining the bend angle estimation result with predetermined external input information, for example, the operation information of the external device can be output according to the flexion / extension / flexion of the elbow, allowing intuitive operation of the device by gesture input Become.

本発明の請求項に係るインタフェースシステムは、身体に装着して用いられるインタフェースシステムであって、次の(1)から(5)に示す構成要素を備える。
(1)身体の第1の部位に装着され、振動を入力して骨導音を発生させる振動入力用アクチュエータ。
(2)身体の第2の部位に装着され、前記骨導音を取得する骨伝導マイクロフォン。
(3)身体の第3の部位に装着され、前記骨導音を取得する骨伝導マイクロフォン。
(4)前記第2の部位に装着された骨伝導マイクロフォンと、前記第3の部位に装着された骨伝導マイクロフォンが取得する骨導音の信号に基づいて、身体の姿勢を推定する機能と、身体への接触による接触位置を推定する機能を含む信号処理手段。
(5)前記信号処理手段による処理結果から、所定の入力情報を生成する入力情報生成手段。
An interface system according to a fourth aspect of the present invention is an interface system used by being worn on the body, and includes the following components (1) to (5).
(1) A vibration input actuator that is attached to the first part of the body and generates bone conduction sound by inputting vibration.
(2) A bone conduction microphone that is attached to a second part of the body and acquires the bone conduction sound.
(3) A bone conduction microphone that is attached to a third part of the body and acquires the bone conduction sound.
(4) a function of estimating the posture of the body based on a bone conduction microphone attached to the second part and a bone conduction sound signal acquired by the bone conduction microphone attached to the third part; Signal processing means including a function of estimating a contact position due to contact with the body.
(5) Input information generation means for generating predetermined input information from the processing result of the signal processing means.

かかる構成とすることにより、振動入力用アクチュエータで発生させた骨導音の信号を、第2の部位及び第3の部位の各々の骨伝導マイクロフォンで取得して、それら信号に基づいて信号処理を行うことで、身体の姿勢、接触位置を推定し、それら推定結果から入力情報を生成できる。骨伝導マイクロフォンの装着位置を増やすことより、身体の姿勢と接触位置の両方を推定できるため入力情報を増やすことができる。 With this configuration, the bone conduction sound signal generated by the vibration input actuator is acquired by the bone conduction microphones of the second part and the third part, and signal processing is performed based on these signals. By doing so, it is possible to estimate the posture and contact position of the body and generate input information from the estimation results. By increasing the wearing position of the bone conduction microphone, it is possible to estimate both the posture of the body and the contact position, thereby increasing the input information.

本発明の請求項に係るインタフェースシステムは、請求項の振動用アクチュエータ及び骨伝導マイクロフォンを装着する第1の部位、第2の部位、第3の部位が、使用者の同じ腕であることを特徴とする。同じ腕の3箇所に振動用アクチュエータと、骨伝導マイクロフォンを複数装着することにより、同じ腕における身体の姿勢と接触位置の両方の推定を行うことができる。 In the interface system according to claim 5 of the present invention, the first part, the second part, and the third part to which the vibration actuator and the bone conduction microphone of claim 4 are attached are the same arm of the user. It is characterized by. By mounting a plurality of vibration actuators and bone conduction microphones at three locations on the same arm, it is possible to estimate both the posture of the body and the contact position on the same arm.

本発明の請求項に係るインタフェースシステムは、肘の屈伸・屈曲による肘の屈曲角を身体の姿勢として推定する機能を信号処理手段として含むことを特徴とする。肘の屈伸・屈曲は腕の動作として大きく、骨導音の信号を取得しやすい。外見的にもジェスチャとしても分かりやすい。特定の屈曲角や屈曲角の変化量を、所定の外部入力情報と組み合わせることにより、例えば、外部機器の操作情報を肘の屈伸・屈曲に合わせて出力することができ、ジェスチャ入力により機器を直観的に操作することが可能となる。 The interface system according to claim 6 of the present invention is characterized in that the function of estimating the elbow flexion angle due to bending / extending / flexing of the elbow as a body posture is included as signal processing means. Elbow flexion / extension is large as arm movement, and it is easy to acquire bone conduction sound signals. It is easy to understand both in appearance and as a gesture. By combining specific bend angles and bending angle changes with predetermined external input information, for example, operation information of external devices can be output according to the bending and stretching of the elbow, and the device can be viewed intuitively by gesture input. Can be operated manually.

本発明の請求項に係るインタフェースシステムは、身体への接触が、腕へのタップによる衝突であり、その衝突位置を接触位置として推定する機能を信号処理手段として含むことを特徴とする。腕へのタップによる衝突は、骨導音の信号を比較的取得しやすい。また、外見的にもジェスチャとしても分かりやすい。衝突位置の推定結果を、所定の入力情報と組み合わせることにより、例えば、外部機器の操作情報をタップによる衝突位置に合わせて出力することができ、ジェスチャ入力による機器の直観的な操作が可能となる。 The interface system according to claim 7 of the present invention is characterized in that the contact with the body is a collision caused by a tap on the arm, and the signal processing means includes a function of estimating the collision position as the contact position. A collision with a tap on an arm is relatively easy to acquire a bone conduction sound signal. In addition, it is easy to understand both as an appearance and as a gesture. By combining the collision position estimation result with predetermined input information, for example, operation information of an external device can be output in accordance with the collision position by a tap, and intuitive operation of the device by gesture input becomes possible. .

本発明の請求項に係るインタフェースシステムは、信号処理手段が、肘の屈曲角を推定する屈曲角推定手段と、腕へのタップによる衝突位置を推定する衝突位置推定手段の両方を備え、屈曲角と衝突位置を両方が推定することができることを特徴とする。肘の屈伸・屈曲とタップの両方のジェスチャを認識でき、外部入力信号としての情報生成量を増やすことができる。同じ腕に2個の骨伝導マイクロフォンを装着し、同じ骨導音の信号を別の個所で取得することで、同じ腕における身体の姿勢と接触位置の両方の推定を行うことができる。 In the interface system according to claim 8 of the present invention, the signal processing means includes both a bending angle estimating means for estimating the bending angle of the elbow and a collision position estimating means for estimating the collision position by the tap on the arm. Both corners and collision positions can be estimated. It can recognize both elbow flexion / extension and tap gestures, and can increase the amount of information generated as an external input signal. By mounting two bone conduction microphones on the same arm and acquiring signals of the same bone conduction sound at different locations, it is possible to estimate both the body posture and the contact position on the same arm.

本発明の請求項に係るインタフェースシステム は、屈曲角推定手段が、肘の屈曲角の推定を、肘の屈伸・屈曲に伴う骨導音の振幅の変化に基づいて行うことを特徴とする。骨導音の信号として振幅は、取得しやすい特徴量であり、その振幅の変化に基づくことで、信頼性の高い推定が可能となる。 The interface system according to claim 9 of the present invention is characterized in that the flexion angle estimation means estimates the flexion angle of the elbow based on a change in the amplitude of the bone conduction sound accompanying flexion / extension / flexion of the elbow. The amplitude of the bone conduction sound signal is a feature quantity that can be easily acquired, and based on the change in the amplitude, a highly reliable estimation is possible.

本発明の請求項10に係るインタフェースシステム は、前記衝突位置推定手段は、腕へのタップによる衝突位置の推定を、前記タップに伴う前記骨導音の振幅の変化に基づいて行うことを特徴とする。骨導音の信号として振幅は、取得しやすい特徴量であり、その振幅の変化に基づくことで、信頼性の高い推定が可能となる。 The interface system according to claim 10 of the present invention is characterized in that the collision position estimation means estimates a collision position by a tap on an arm based on a change in amplitude of the bone conduction sound accompanying the tap. To do. The amplitude of the bone conduction sound signal is a feature quantity that can be easily acquired, and based on the change in the amplitude, a highly reliable estimation is possible.

さらに本発明のインタフェースシステムは、骨伝導マイクロフォンが、集音器と小型マイクロフォンを一体的に組み合わせて形成されたマイクロフォンであることを特徴とする。かかる構成とすることで、骨導音が小さくても十分な感度を得やすくなる。 Furthermore, the interface system of the present invention is characterized in that the bone conduction microphone is a microphone formed by integrally combining a sound collector and a small microphone. With such a configuration, sufficient sensitivity can be easily obtained even when the bone conduction sound is small.

なお、本発明における腕へのタップとは、指、腕など身体の部位による接触・打腱、棒などに器具による接触・打腱などを含み、骨導音を生じさせる身体への接触行為である。 In addition, the tap to the arm in the present invention is a contact action to the body that generates a bone conduction sound, including a contact by a body part such as a finger, an arm, a contact tendon, a contact by a device such as a stick, and a tendon. is there.

本発明によれば、身体に装着されて用いられるインタフェースシステムが、使用者の骨を伝達経路とする骨導音をセンシングすることにより、入力インタフェースとしての利用が可能である。特に、腕に振動入力用アクチュエータと骨伝導マイクロフォンを装着し、肘の屈曲角の推定、腕をタップしたときに衝突位置の推定を行うことにより、屈曲角推定と衝突位置推定の同時利用が可能となる。これにより、使用者にとっても簡単で分かりやすい2つのジェスチャ(肘の屈伸・屈曲、腕へのタップ)を用いて、多くの入力情報を生成できるインタフェースシステムを構成することができる。 According to the present invention, the interface system used by being worn on the body senses bone conduction sound using the bone of the user as a transmission path, and can be used as an input interface. In particular, by mounting a vibration input actuator and bone conduction microphone on the arm, estimating the elbow flexion angle, and estimating the collision position when the arm is tapped, it is possible to use the flexion angle estimation and the collision position estimation simultaneously. It becomes. This makes it possible to configure an interface system that can generate a large amount of input information by using two gestures that are simple and easy for the user to understand (flexion / extension / flexion of the elbow and tap on the arm).

また、振動入力用アクチュエータと骨伝導マイクロフォンのみのシンプルな構成で装着システムの実現が可能である。また、外部環境側に身体の動きを計測する手段は必要ない。そのため小型・軽量で、外部環境にも強く、かつ使用者が常時装着しても日常生活に支障なく用いることを可能とするインタフェースシステムを構成することができる。 In addition, a mounting system can be realized with a simple configuration using only a vibration input actuator and a bone conduction microphone. Further, there is no need for means for measuring body movement on the external environment side. Therefore, it is possible to configure an interface system that is small and light, is strong against the external environment, and can be used in daily life even when worn by the user at all times.

ウェアラブルコンピュータやユビキタスコンピューティングなどの環境下において、身体による手軽な操作が可能なユーザインタフェースを提供できる。 In an environment such as a wearable computer or ubiquitous computing, a user interface that can be easily operated by the body can be provided.

インタフェースシステムの装着例の一例を示す模式図Schematic diagram showing an example of an interface system installation example インタフェースシステムの装着例の一例を示す模式図Schematic diagram showing an example of an interface system installation example インタフェースシステムの機能ブロック図Functional block diagram of the interface system インタフェースシステムの機能ブロック図Functional block diagram of the interface system 前腕部にアクチュエータとマイクロフォンを装着する模式図Schematic diagram of mounting the actuator and microphone on the forearm 前腕部に2個のマイクロフォンを装着する模式図Schematic of mounting two microphones on the forearm 前腕部にアクチュエータと2個のマイクロフォンの装着する模式図Schematic diagram of mounting the actuator and two microphones on the forearm 各骨伝導マイクロフォンで取得された信号の最大振幅Maximum amplitude of signal acquired by each bone conduction microphone 実施例1のインタフェースシステムの装着状態の模式図Schematic diagram of the mounting state of the interface system of the first embodiment 聴診器型骨伝導マイクロフォンの外観・断面図Stethoscope-type bone conduction microphone 上腕骨頭から骨導音を入力した際の肘の各屈曲角度における骨導音の振幅Bone conduction amplitude at each elbow flexion angle when bone conduction is input from the humeral head. 実施例2及び3のインタフェースシステムの装着状態の模式図Schematic diagram of the mounting state of the interface system of Examples 2 and 3 実施例2及び3のインタフェースシステムの実際の装着状態Actual mounting state of the interface system of Examples 2 and 3 肘頭から骨導音を入力した際の肘の各屈曲角度における骨導音の振幅Bone conduction amplitude at each elbow flexion angle when bone conduction sound is input from the elbow head. 被験者Aのキャリブレーションによる関数近似の結果Result of function approximation by calibration of subject A 被験者Bのキャリブレーションによる関数近似の結果Result of function approximation by calibration of subject B 被験者Aの肘の屈曲角推定の評価実験の結果Results of an evaluation experiment for estimating the elbow flexion angle of subject A 被験者Bの肘の屈曲角推定の評価実験の結果Results of an evaluation experiment for estimating the elbow flexion angle of subject B 実施例4及び5のインタフェースシステムの実際の装着状態Actual mounting state of the interface system of Examples 4 and 5 衝突よって生じた骨導音(尺骨茎状突起側)Bone conduction sound caused by collision (ulnar styloid process side) 衝突よって生じた骨導音(肘頭側)Bone conduction sound caused by a collision (the elbow head side) 衝突よって生じた骨導音の周波数スペクトル(尺骨茎状突起側)Frequency spectrum of bone conduction sound generated by collision (ulnar styloid process side) 衝突よって生じた骨導音の周波数スペクトル(肘頭側)Frequency spectrum of bone conduction sound generated by a collision (on the elbow) スピーカから入力した骨導音の例Example of bone conduction sound input from a speaker スピーカから入力した骨導音の周波数スペクトルFrequency spectrum of bone conduction sound input from a speaker 前腕を3区間に分割した状態を示す図The figure which shows the state which divided the forearm into 3 sections 被験者Aの衝突位置推定の結果Result of subject A's collision position estimation 被験者Bの衝突位置推定の結果Result of subject B's collision position estimation 被験者Aの肘の屈曲角推定の結果Result of subject A's elbow flexion angle estimation 被験者Bの肘の屈曲角推定の結果Result of subject B's elbow flexion angle estimation 屈曲角と衝突位置の両方を推定する処理フローProcessing flow to estimate both the bending angle and the collision position 推定された衝突位置に対するロボットの操作命令Robot operation commands for estimated collision positions 推定された衝突位置の組み合わせに対するロボットの操作命令Robot operation commands for combinations of estimated collision positions 衝突位置推定をロボットの操縦に用いた様子Using collision position estimation for robot operation 肘の屈曲角推定をロボットの操縦に用いた様子Using elbow flexion angle estimation to control the robot 骨導音を用いたインタフェースシステムの全体概要Overview of interface system using bone conduction sound

以下、図面を参照しながら本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具現化した一例であって、本発明の技術的範囲は実施例や図示例に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments are examples embodying the present invention, and the technical scope of the present invention is not limited to the examples and the illustrated examples.

図1aは、本発明のインタフェースシステムを、身体に装着したときの1つの実施態様を示す模式図である。使用者1000の上腕部に振動入力用アクチュエータ10が1個装着され、関節を介した同じ腕の前腕部に骨伝導マイクロフォン20が1個装着されている。振動入力用アクチュエータ10から身体に向けて振動を加え、腕の骨格に対して骨導音を発生させる。骨伝導マイクロフォン20は、腕の骨格・関節を通じて伝わってくる骨導音をセンシングする。振動入力用アクチュエータからの振動入力は、身体に継続的に入力してもよいし、必要な時にだけ入力してもよい。 FIG. 1a is a schematic diagram showing one embodiment when the interface system of the present invention is worn on the body. One vibration input actuator 10 is attached to the upper arm portion of the user 1000, and one bone conduction microphone 20 is attached to the forearm portion of the same arm via the joint. Vibration is applied from the vibration input actuator 10 toward the body to generate bone conduction sound for the skeleton of the arm. The bone conduction microphone 20 senses bone conduction sound transmitted through the skeleton and joints of the arm. The vibration input from the vibration input actuator may be continuously input to the body or may be input only when necessary.

かかる状態で、センシングされる腕の肘を屈伸・屈曲させたときの肘の屈曲角を、骨伝導マイクロフォン20により取得した骨導音をコンピュータなどで信号処理することで推定する。その信号処理の結果に基づいて、外部機器やアプリケーションソフトウェアなどに対して、コンピュータなどによってコマンドなどの入力情報を生成する機能を備えている。 In such a state, the bending angle of the elbow when the elbow of the arm to be sensed is bent / stretched / bent is estimated by performing signal processing on the bone conduction sound acquired by the bone conduction microphone 20 using a computer or the like. Based on the result of the signal processing, it has a function of generating input information such as a command by a computer or the like for an external device or application software.

前記コンピュータなどで信号処理する機能、入力情報を生成する機能は、骨伝導マイクロフォン20に組み込まれてもよいし、身体と直接接触しない外部に備えられてもよい。また、本発明のインタフェースシステムは、生成された入力情報を、無線、有線を問わず入力対象となる機器等に送信することができる機能を備えることができる。また、振動入力用アクチュエータの振動の発信・停止・強度などを制御する機能を備えることができる。 The function of performing signal processing by the computer or the like and the function of generating input information may be incorporated in the bone conduction microphone 20 or may be provided outside the body not in direct contact with the body. Further, the interface system of the present invention can be provided with a function capable of transmitting the generated input information to a device to be input regardless of wireless or wired. In addition, it is possible to provide a function for controlling transmission / stop / strength of vibration of the vibration input actuator.

図1bは、本発明のインタフェースシステムを、身体に装着したときの他の実施態様を示す模式図である。使用者2000の上腕部に振動入力用アクチュエータ30と骨伝導マイクロフォン40が1個装着され、関節を介した同じ腕の前腕部に骨伝導マイクロフォン50が1個装着されている。振動入力用アクチュエータ30から身体に向けて振動を加え、腕の骨格に対して骨導音を発生させる。骨伝導マイクロフォン40及び50は、腕の骨格・関節を通じて伝わってくる骨導音を各々センシングする。振動入力用アクチュエータからの振動入力は、身体に継続的に入力してもよいし、必要な時にだけ入力してもよい。 FIG. 1 b is a schematic view showing another embodiment when the interface system of the present invention is worn on the body. One vibration input actuator 30 and one bone conduction microphone 40 are attached to the upper arm portion of the user 2000, and one bone conduction microphone 50 is attached to the forearm portion of the same arm via the joint. A vibration is applied from the vibration input actuator 30 toward the body to generate a bone conduction sound for the skeleton of the arm. The bone conduction microphones 40 and 50 respectively sense bone conduction sound transmitted through the skeleton and joints of the arm. The vibration input from the vibration input actuator may be continuously input to the body or may be input only when necessary.

かかる状態で、センシングされる腕の肘を屈伸・屈曲させたときの肘の屈曲角を、骨伝導マイクロフォン40、50により取得した骨導音をコンピュータなどで信号処理することで推定する。また、センシングされる腕をタップしたときの衝突位置を、骨伝導マイクロフォン40、50により取得した骨導音をコンピュータなどで信号処理することで推定する。それらの信号処理の結果に基づいて、外部機器やアプリケーションソフトウェアなどに対して、コンピュータなどによってコマンドなどの入力情報を生成する機能を備えている。 In this state, the bending angle of the elbow when the elbow of the arm to be sensed is bent / extended / bent is estimated by performing signal processing on the bone conduction sound acquired by the bone conduction microphones 40 and 50 using a computer or the like. Further, the collision position when the sensed arm is tapped is estimated by performing signal processing on the bone conduction sound acquired by the bone conduction microphones 40 and 50 with a computer or the like. Based on the result of the signal processing, a function of generating input information such as a command by a computer or the like is provided for an external device or application software.

前記コンピュータなどで信号処理する機能、入力情報を生成する機能は、骨伝導マイクロフォン40、50に組み込まれてもよいし、身体と直接接触しない外部に備えられてもよい。また、本発明のインタフェースシステムは、生成された入力情報を、無線、有線を問わず入力対象となる機器等に送信することができる機能を備えることができる。また、振動入力用アクチュエータの振動の発信・停止・強度などを制御する機能を備えることができる。 The function of performing signal processing by the computer or the like and the function of generating input information may be incorporated in the bone conduction microphones 40 and 50, or may be provided outside the body not in direct contact with the body. Further, the interface system of the present invention can be provided with a function capable of transmitting the generated input information to a device to be input regardless of wireless or wired. In addition, it is possible to provide a function for controlling transmission / stop / strength of vibration of the vibration input actuator.

図2aは、図1aの実施態様に対する本発明のインタフェースシステムの機能ブロック図を示す。図2aに示すように、インタフェースシステムの機能ブロックは、振動入力用アクチュエータによって振動を入力し、骨導音を発生させる骨導音入力手段61、1個の骨伝導マイクロフォンにより前記骨導音の信号を取得する骨導音取得手段62、取得した前記骨導音の信号に基づいて、身体の姿勢を推定する信号処理を行う信号処理手段63、信号処理手段の処理結果から、入力情報を生成する外部入力情報生成手段64、からなる。 FIG. 2a shows a functional block diagram of the interface system of the present invention for the embodiment of FIG. 1a. As shown in FIG. 2a, the functional block of the interface system includes a bone conduction sound input means 61 for inputting a vibration by a vibration input actuator and generating a bone conduction sound, and a signal of the bone conduction sound by one bone conduction microphone. Based on the acquired bone conduction sound signal, the signal processing means 63 for performing signal processing for estimating the posture of the body, and the processing result of the signal processing means, the input information is generated. External input information generating means 64.

図2bは、図1bの実施態様に対する本発明のインタフェースシステムの機能ブロック図を示す。図2bに示すように、インタフェースシステムの機能ブロックは、振動入力用アクチュエータによって振動を入力し、骨導音を発生させる骨導音入力手段71、2個の骨伝導マイクロフォンにより、前記骨導音の信号を個別に取得する骨導音取得手段72及び73、個別に取得した前記各骨導音の信号に基づいて、身体の姿勢と接触位置を推定する信号処理手段74、信号処理手段74の処理結果をもとに入力情報を生成する外部入力情報生成手段75、からなる。 FIG. 2b shows a functional block diagram of the interface system of the present invention for the embodiment of FIG. 1b. As shown in FIG. 2b, the functional block of the interface system includes a bone conduction sound input means 71 for inputting a vibration by a vibration input actuator and generating a bone conduction sound. Bone conduction sound acquisition means 72 and 73 for individually acquiring signals, signal processing means 74 for estimating the posture and contact position of the body based on the signals of the respective bone conduction sounds acquired individually, and processing of the signal processing means 74 It comprises external input information generating means 75 that generates input information based on the result.

次に、肘を屈伸・屈曲させたときの屈曲角の推定方法について説明する。図3aの模式図にように、同じ腕の肘頭に振動入力用アクチュエータ80、尺骨茎状突起に骨伝導マイクロフォン90を1個ずつ取り付け、その腕の肘を屈伸・屈曲させる。その際、屈伸・屈曲の動作に応じて、振動入力アクチュエータ80の振動入力により発生し、腕の骨に伝わる骨導音の振幅が変化する。骨伝導マイクロフォン90によって前記振幅の変化を骨導音の信号として取得し、その振幅変化から肘の屈曲角を推定する。具体的には、予め使用者に対してキャリブレーションを実施し、使用者の個体特性(骨の太さ・密度、筋肉の厚みなど)に適応した屈曲角と骨導音の振幅の関係を、関数近似式として事前に求めておく。その関数近似式を屈曲角推定手段として用いることにより、屈曲角を推定することができる。関数近似式は、二次多項式などで表現できるため計算量が少なく、リアルタイムでの計算実行を可能とする。 Next, a method for estimating the bending angle when the elbow is bent and stretched and bent will be described. As shown in the schematic diagram of FIG. 3a, the vibration input actuator 80 is attached to the elbow head of the same arm and the bone conduction microphone 90 is attached to the ulnar styloid process one by one, and the elbow of the arm is bent and stretched and bent. At this time, the amplitude of the bone conduction sound generated by the vibration input of the vibration input actuator 80 and transmitted to the bone of the arm changes according to the bending / extension / bending operation. The change in amplitude is acquired as a bone conduction sound signal by the bone conduction microphone 90, and the bending angle of the elbow is estimated from the change in amplitude. Specifically, the user is calibrated in advance, and the relationship between the flexion angle adapted to the individual characteristics of the user (bone thickness / density, muscle thickness, etc.) and the amplitude of the bone conduction sound, Obtained in advance as a function approximation formula. The bending angle can be estimated by using the function approximation formula as the bending angle estimation means. Since the function approximation expression can be expressed by a second-order polynomial or the like, the calculation amount is small, and the calculation can be executed in real time.

次に、腕を外部からタップしたときの衝突位置の推定方法について説明する。
衝突位置の推定は、衝突で発生した骨導音の音源位置を求めることに他ならない。図3bの模式図に示すように、腕の肘頭に骨伝導マイクロフォン100、尺骨茎状突起に骨伝導マイクロフォン110を1個ずつ取り付け、その間の前腕を使用者自身の指でタップして発生させた骨導音を、各骨伝導マイクロフォン100及び110で個別に取得する。その個別に取得した前記各骨導音の信号のレベル差により位置推定を行う。ここで、前記レベル差とは、2個の骨伝導マイクロフォン100及び110で取得した骨導音の振幅の比である。
Next, a method for estimating the collision position when the arm is tapped from the outside will be described.
The estimation of the collision position is nothing but finding the sound source position of the bone conduction sound generated by the collision. As shown in the schematic diagram of FIG. 3b, the bone conduction microphone 100 is attached to the elbow head of the arm and the bone conduction microphone 110 is attached to the ulnar styloid process one by one, and the forearm in between is generated by tapping with the user's own finger. The bone conduction sound is acquired individually by each bone conduction microphone 100 and 110. The position is estimated based on the level difference between the signals of the bone conduction sounds acquired individually. Here, the level difference is a ratio of the amplitudes of the bone conduction sounds acquired by the two bone conduction microphones 100 and 110.

振幅の強さは、タップによる衝突の強さに依存せず、衝突位置からの距離により変化する。すなわち、衝突位置である骨導音の発生位置から、各々の骨伝導マイクロフォン100及び110までの距離の違いによって振幅に差が生じ、それを信号レベル差として取得することで、衝突位置を推定することができる。なお、使用者の個人特性(腕の長さ、筋肉の付き方など)に適応する信号レベル差の閾値を、予め使用者にキャリブレーションを実施し求めておくのが望ましい。 The strength of the amplitude does not depend on the strength of the collision caused by the tap, and changes depending on the distance from the collision position. That is, a difference in amplitude occurs due to a difference in distance from the bone conduction sound generation position, which is the collision position, to each of the bone conduction microphones 100 and 110, and the collision position is estimated by acquiring the difference as a signal level difference. be able to. In addition, it is desirable that the threshold value of the signal level difference adapted to the user's personal characteristics (arm length, muscle attachment, etc.) is obtained in advance by performing calibration with the user.

ここで、骨伝導マイクロフォン100及び110で個別に取得した骨導音の信号レベル差をLとするとき、Lは、例えば下記式から計算される。
、Fは、図4に示す記号Fのように、骨伝導マイクロフォン100及び110で取得した信号の最大振幅である。振幅が閾値を超えた点を衝突の開始時間として記録し、その前後の信号から振幅のピーク値を求める。信号レベル差Lは、振幅の比で決まるため衝突の強さに関係なく、衝突位置からの距離により変化する。すなわち、骨伝導マイクロフォン100及び110の間で骨導音の発生位置からの距離の違いによって減衰が生じていることから、信号レベル差Lにより衝突位置を推定でき、衝突位置推定手段として用いることができる。振幅による推定は、単純な閾値処理による判別のため計算量も少なく、リアルタイムでの計算実行を可能とする。
Here, when the signal level difference between the bone conduction sounds individually acquired by the bone conduction microphones 100 and 110 is L, L is calculated from the following equation, for example.
F 1 and F 2 are the maximum amplitudes of the signals acquired by the bone conduction microphones 100 and 110 as indicated by the symbol F shown in FIG. The point where the amplitude exceeds the threshold value is recorded as the collision start time, and the peak value of the amplitude is obtained from the signals before and after that. Since the signal level difference L is determined by the ratio of amplitudes, it varies depending on the distance from the collision position regardless of the collision strength. That is, since attenuation occurs due to a difference in distance from the bone conduction sound generation position between the bone conduction microphones 100 and 110, the collision position can be estimated from the signal level difference L, and can be used as a collision position estimation means. it can. The estimation based on the amplitude requires a small amount of calculation because it is determined by simple threshold processing, and enables calculation in real time.

次に、同じ腕で肘を屈伸・屈曲させたときの屈曲角と、腕をタップしたときの衝突位置の各々を個別に推定する方法について説明する。図3cの模式図に示すように、肘頭に振動入力用アクチュエータ120と骨伝導マイクロフォン130を1個ずつ取り付け、尺骨茎状突起に骨伝導マイクロフォン140を1個取り付けた装着状態において、骨伝導マイクロフォン130及び140の間の腕を指でタップする。この時の屈曲角とタップによる衝突位置の両方を推定するには、各々の動作によって生じる骨導音を個別に認識して抽出し、それぞれに上記の屈曲角の推定方法と衝突位置の推定方法を施せばよい。 Next, a method for individually estimating the bending angle when the elbow is bent and stretched and bent with the same arm and the collision position when the arm is tapped will be described. As shown in the schematic diagram of FIG. 3c, the bone conduction microphone is mounted in a state in which one vibration input actuator 120 and one bone conduction microphone 130 are attached to the elbow head and one bone conduction microphone 140 is attached to the ulnar styloid process. Tap the arm between 130 and 140 with your finger. In order to estimate both the bending angle and the collision position by the tap at this time, the bone conduction sound generated by each movement is individually recognized and extracted, and the bending angle estimation method and the collision position estimation method described above are respectively extracted. Can be applied.

個別に骨導音を認識するには、肘の屈伸・屈曲で生じる骨導音と、タップによる衝突で生じる骨導音の各々の周波数特性を解析し、それぞれの骨導音の周波数領域を予め見出しておき、バンドパスフィルタなどによる周波数フィルタリングを施すことによって、屈伸・屈曲による骨導音とタップの衝突による骨導音を分離し、その信号を抽出する。抽出した各々の骨導音の信号に対して屈曲角推定と衝突位置推定を含む信号処理を実施し、屈曲角と衝突位置を推定することができる。 In order to recognize bone conduction sound individually, analyze the frequency characteristics of bone conduction sound caused by flexion / extension / flexion of the elbow and bone conduction sound caused by collision by tap, and determine the frequency domain of each bone conduction sound in advance. By heading and performing frequency filtering using a band pass filter or the like, the bone conduction sound caused by bending / stretching and the bone conduction sound caused by the collision of the tap are separated, and the signal is extracted. Signal processing including bending angle estimation and collision position estimation can be performed on each extracted bone conduction sound signal to estimate the bending angle and collision position.

肘の屈曲角推定の第1の評価実験を実施例1として説明する。図5は、実施例1に係るインタフェースシステムを腕に装着したときの模式図である。腕の上腕骨頭に振動入力用アクチュエータ150を取り付け、尺骨茎状突起に骨伝導マイクロフォン160を1個ずつ取り付ける。尺骨茎状突起及びその付近は筋肉が薄く肉導音等のノイズの影響を受けにくく、骨導音の取得位置としては好適である。 A first evaluation experiment for elbow flexion angle estimation will be described as Example 1. FIG. 5 is a schematic diagram when the interface system according to the first embodiment is worn on the arm. The vibration input actuator 150 is attached to the humeral head of the arm, and the bone conduction microphones 160 are attached one by one to the ulnar styloid process. The ulnar styloid process and its vicinity are thin and are not easily influenced by noise such as flesh-conducted sound, and are suitable as acquisition positions for bone-conducted sound.

振動入力用アクチュエータ150は、上腕骨頭の皮膚表面から振動を与えて身体内で骨導音を発生させる。ここで、振動入力用アクチュエータ150として携帯電話のバイブレーション発生に使用される市販の振動モータを用いた。 The vibration input actuator 150 applies vibration from the skin surface of the humeral head to generate bone conduction sound in the body. Here, a commercially available vibration motor used for vibration generation of a mobile phone was used as the vibration input actuator 150.

骨伝導マイクロフォン160は、骨の振動だけを検出するもので、実施例1では発生した骨導音を尺骨茎状突起の皮膚表面から取得するためのものである。また、骨伝導マイクロフォン160は、集音器として新生児・未熟児用聴診器(村中医療機器株式会社,MMI−608GR))を採用し、小型マイクロフォン(Knowles Electronics,SP0103NC3−3)を一体的に組み合わせた聴診器型骨伝導マイクロフォンを用いている。 The bone conduction microphone 160 detects only bone vibration. In the first embodiment, the bone conduction microphone 160 is used to acquire the generated bone conduction sound from the skin surface of the ulnar styloid process. In addition, the bone conduction microphone 160 employs a stethoscope for newborns and premature babies (Muranaka Medical Equipment Co., Ltd., MMI-608GR) as a sound collector, and a small microphone (Knowles Electronics, SP0103NC3-3) is integrated. A combined stethoscope-type bone conduction microphone is used.

この聴診器型骨伝導マイクロフォンの外観・構造を図6に示す。聴診器のダイヤフラムで骨の振動を捉え、チェストピース内で音を増幅してマイクロフォンにより骨導音の検出を行う。聴診器はダイヤフラムによって直接触れた部分の振動音を増幅するため気導音の影響を受けにくく、骨の振動のみの高感度な検出を可能とする。新生児・未熟児用聴診器を採用したのは、ダイヤフラムが直径約22mmと一般の聴診器に比べて小さいため、骨の周囲にある肉の振動を同時に検出するのを低減し、骨の振動のみの検出に向いているためである。 The appearance and structure of this stethoscope-type bone conduction microphone is shown in FIG. The bone vibration is detected by the diaphragm of the stethoscope, the sound is amplified in the chest piece, and the bone conduction sound is detected by the microphone. Since the stethoscope amplifies the vibration sound of the part directly touched by the diaphragm, it is not easily affected by the air conduction sound, and enables highly sensitive detection of only bone vibration. The new stethoscope for newborns and premature babies uses a diaphragm with a diameter of about 22mm, which is smaller than that of a normal stethoscope, so it reduces detection of meat vibrations around the bone at the same time, and only the vibration of the bones. It is because it is suitable for the detection of.

なお、このような骨伝導マイクロフォンの構成としたのは、従来の骨伝導マイクロフォンでは、頭蓋骨の振動を取得するのに適しているのに対して、腕の骨の振動を取得するという用途には向いていない。このため、頭蓋骨に比べて振動が小さい腕の骨を伝わる骨導音に対しては、十分な感度が得られない。よって、上記のような構成とし、聴診器と組み合せる工夫をした。なお、集音器としては、前記新生児・未熟児用聴診器に限らず、骨導音を有効に採音できるものであればよい。 It should be noted that the structure of such a bone conduction microphone is suitable for acquiring the vibration of the skull while the conventional bone conduction microphone is suitable for acquiring the vibration of the skull. Not suitable. For this reason, sufficient sensitivity cannot be obtained with respect to the bone conduction sound transmitted through the bone of the arm whose vibration is smaller than that of the skull. Therefore, the device has the above-described configuration and is combined with a stethoscope. The sound collector is not limited to the above-mentioned stethoscope for newborns and premature babies, and may be any one that can effectively collect bone conduction sound.

上記のような構成のインタフェースシステムにおいて、振動入力用アクチュエータ150(前記振動モータ)を用いて上腕骨頭より骨導音を発生させ、肘の屈曲角を所定角度ごとに変化させた場合に、腕の骨を伝わる骨導音を尺骨茎状突起に取り付けた骨伝導マイクロフォン160(前記聴診器型骨伝導マイクロフォン)で取得する実験を行った。前記振動モータからは、振幅一定で188Hzの周波数を持つ正弦波を継続的に入力した。ここで、188Hzは、前記振動モータの携帯電話のバイブレーションとして使用する際に用いられる周波数である。 In the interface system configured as described above, when the bone conduction sound is generated from the humeral head using the vibration input actuator 150 (the vibration motor) and the elbow flexion angle is changed every predetermined angle, An experiment was conducted in which the bone conduction sound transmitted through the bone was acquired with the bone conduction microphone 160 (the stethoscope type bone conduction microphone) attached to the ulnar styloid process. A sine wave having a constant amplitude and a frequency of 188 Hz was continuously input from the vibration motor. Here, 188 Hz is a frequency used when the vibration motor is used as a vibration for a mobile phone.

肘の屈曲角は、上腕骨と尺骨が水平となる状態を0度とし、直角となる状態を90度として、0度から120度まで30度刻みで屈曲させた。この時、前記振動モータによって腕に加える振動により発生する骨導音を前記聴診器型骨伝導マイクロフォンで取得した。その結果を図7に示す。0度、30度、60度、90度、120度において有意な振幅の変化が観測された。すなわち、実施例1の構成において、肘の屈伸・屈曲よる骨導音の振幅変化をコマンドや所定のプロセスと体系づけることで、肘のジェスチャによって、入力インタフェースとして有用に機能することが示された。 The elbow flexion angle was flexed in increments of 30 degrees from 0 degrees to 120 degrees, with the humerus and ulna being horizontal at 0 degrees and the right angle being 90 degrees. At this time, the bone conduction sound generated by the vibration applied to the arm by the vibration motor was acquired by the stethoscope type bone conduction microphone. The result is shown in FIG. Significant amplitude changes were observed at 0 degrees, 30 degrees, 60 degrees, 90 degrees, and 120 degrees. That is, in the configuration of Example 1, it was shown that the function of the elbow gesture functioned effectively as an input interface by organizing the change in the amplitude of the bone conduction sound caused by bending and stretching of the elbow with a command and a predetermined process. .

次に、肘の屈曲角推定の第2の評価実験を実施例2として説明する。図8aのインタフェースシステムを腕に装着したときの模式図に示すように、骨伝導マイクロフォン180の装着位置は実施例1と同じ尺骨茎状突起とし、振動入力用アクチュエータ170の取り付け位置を肘頭とした。図8bに実際の装着状況を示す。 Next, a second evaluation experiment for estimating the elbow flexion angle will be described as Example 2. As shown in the schematic diagram when the interface system of FIG. 8a is worn on the arm, the bone conduction microphone 180 is mounted at the same ulnar styloid process as in Example 1, and the vibration input actuator 170 is mounted at the elbow head. did. FIG. 8b shows the actual mounting situation.

振動入力用アクチュエータ170として、小型スピーカ(TDK製SD2412L5−T1)を採用した。前記小型スピーカを採用した理由は、他励式であるため外部からの信号に応じた振動を生成可能であり、振幅の制御も容易で、また振動も微小であることから使用者に不快な振動を感じさせないといった利点があるためである。なお、骨伝導マイクロフォン180は、上記の聴診診器型骨伝導マイクロフォンを用いた。 A small speaker (SD2412L5-T1 manufactured by TDK) was used as the vibration input actuator 170. The reason why the small speaker is adopted is that it is a separately excited type, so that it can generate vibration according to the signal from the outside, the amplitude can be easily controlled, and the vibration is minute, so that the user can feel uncomfortable vibration. This is because there is an advantage that it does not feel. As the bone conduction microphone 180, the above stethoscope type bone conduction microphone was used.

上記のような構成のインタフェースシステムにおいて、振動入力用アクチュエータ170(前記小型スピーカ)を用いて肘頭より骨導音を発生させ、肘の屈曲角を所定角度ごとに変化させた場合に、腕の骨を伝わる骨導音を尺骨茎状突起に取り付けた骨伝導マイクロフォン180(前記聴診器型骨伝導マイクロフォン)で取得する実験を行った。前記小型スピーカからは、振幅一定で800Hzの周波数を持つ正弦波を継続的に入力した。ここで、800Hzは、スピーカの共振周波数である。なお、振動入力の周波数帯域に特に制限はないが、衝突位置推定と同時利用をした場合に、衝突によって発生する骨導音と分離が容易は周波数帯域が望ましく、特に600Hz以上が好ましい。 In the interface system configured as described above, when the bone conduction sound is generated from the elbow head using the vibration input actuator 170 (the small speaker) and the flexion angle of the elbow is changed for each predetermined angle, An experiment was conducted in which the bone conduction sound transmitted through the bone was acquired with the bone conduction microphone 180 (the stethoscope type bone conduction microphone) attached to the ulnar styloid process. A sine wave having a constant amplitude and a frequency of 800 Hz was continuously input from the small speaker. Here, 800 Hz is a resonance frequency of the speaker. The frequency band of vibration input is not particularly limited, but when used simultaneously with the collision position estimation, the frequency band is desirable for easy separation from the bone conduction sound generated by the collision, and 600 Hz or more is particularly preferable.

肘の屈曲角は、上腕骨と尺骨が水平となる状態を0度とし、直角となる状態を90度として、0度から120度まで15度刻みで屈曲させた。骨導音の信号を骨伝導マイクロフォン180(前記聴診器型骨伝導マイクロフォン)で取得した。その結果を図9に示す。0度、15度、30度、45度、60度、75度、90度、105度、120度において有意な振幅の変化が観測された。 すなわち、実施例2の構成においても肘を屈伸・屈曲による骨導音の振幅変化をコマンドや所定のプロセスと体系づけることで、肘のジェスチャによって、入力インタフェースとして有用に機能することが示された。例えば、マスター・スレイブ型やコマンド型のインタフェースに好適である。 The elbow flexion angle was flexed in increments of 15 degrees from 0 degrees to 120 degrees, with the state where the humerus and ulna were horizontal being 0 degrees and the right angle being 90 degrees. The bone conduction sound signal was acquired with the bone conduction microphone 180 (the stethoscope type bone conduction microphone). The result is shown in FIG. Significant amplitude changes were observed at 0 °, 15 °, 30 °, 45 °, 60 °, 75 °, 90 °, 105 °, and 120 °. That is, in the configuration of Example 2, it was shown that the function of the elbow gesture functioned effectively as an input interface by organizing the change in the amplitude of the bone conduction sound caused by bending and stretching the elbow with commands and a predetermined process. . For example, it is suitable for a master / slave type or command type interface.

また、肘頭を振動の入力位置とすることで、実施例1の上腕骨頭を入力位置とするよりも、より小さい屈曲角の変化を捉えることができた。これにより、小さい屈曲角の変化を認識でき入力信号量を増加させることが示された。振動入力用アクチュエータ170と骨伝導マイクロフォン180の距離が近く関節も介さないため、比較的小さな振動であっても入力振動として使用できるので、使用者にも負担の小さい振動入力手段を提供できる。また、身体上の分散配置を防ぎ、使用者の装着負担を軽減するシステムとして構成しやすくなり、腕への装着性を高めるシステム構成としやすいことを示している。 Further, by using the elbow head as the vibration input position, it was possible to capture a smaller change in the bending angle than when using the humeral head of Example 1 as the input position. As a result, it was shown that a small change in bending angle can be recognized and the amount of input signal is increased. Since the vibration input actuator 170 and the bone conduction microphone 180 are close to each other and do not involve any joints, even relatively small vibrations can be used as input vibrations, so that it is possible to provide vibration input means with less burden on the user. In addition, it is easy to configure as a system that prevents distributed arrangement on the body and reduces the burden on the user, and it is easy to configure as a system configuration that improves wearability on the arm.

また、装着位置としても肘頭及び尺骨茎状突起の付近は、筋肉が薄く肉導音等のノイズの影響を受けにくい上、一本の尺骨内を骨導音が伝わるという観点からも、振動入力及び骨導音の取得位置としては好適であることも示している。 In addition, even in the vicinity of the elbow head and ulnar styloid process as a wearing position, the muscles are thin and are not easily affected by noise such as flesh-conducted sound, and also from the viewpoint that bone conduction sound is transmitted through one ulna. It also shows that it is suitable as an acquisition position for input and bone conduction sound.

次に、被験者A、Bに対する屈曲角推定の第3の評価実験を実施例3として説明する。被験者A、Bは、実施例2と同じ、図8a及び図8bに示すように、肘頭に振動入力アクチュエータ170と尺骨茎状突に骨伝導マイクロフォン180を前腕に装着している。振動入力アクチュエータ170は前記小型スピーカ、骨伝導マイクロフォン180は、前記聴診器型骨伝導マイクロフォンである。 Next, a third evaluation experiment of bending angle estimation for subjects A and B will be described as Example 3. As shown in FIGS. 8a and 8b, subjects A and B wear the vibration input actuator 170 on the elbow head and the bone conduction microphone 180 on the ulnar stylus on the forearm, as in the second embodiment. The vibration input actuator 170 is the small speaker, and the bone conduction microphone 180 is the stethoscope type bone conduction microphone.

まず、肘の屈曲角と骨導音の信号の関係を関数近似するためのキャリブレーションを行う。キャリブレーションは、上腕骨と尺骨が水平となる状態を0度とし、0度、45度、90度の姿勢で各々10回ずつ肘頭の振動入力用アクチュエータ170(前記小型スピーカ)により骨導音を発生させ、尺骨茎状突起の骨伝導マイクロフォン180(前記聴診診器型骨伝導マイクロフォン)で振幅の変化を取得した。この振幅の変化から、最小二乗法を用いて2次多項式による屈曲角と振幅の関数近似を行い、関数近似式を作成した。その結果を図10a、図10bに示す。図10aは被験者A、図10bは被験者Bに対する関数近似式である。 First, calibration is performed to approximate the relationship between the elbow flexion angle and the bone conduction sound signal. In the calibration, the state where the humerus and the ulna are horizontal is set to 0 degree, and the bone conduction sound is generated by the elbow-head vibration input actuator 170 (the small speaker) 10 times each in the postures of 0 degree, 45 degrees, and 90 degrees. A change in amplitude was obtained with the bone conduction microphone 180 of the ulnar styloid process (the auscultatory stethoscope type bone conduction microphone). From this change in amplitude, the function approximation of the bending angle and amplitude by a second-order polynomial was performed using the least square method, and a function approximation expression was created. The results are shown in FIGS. 10a and 10b. FIG. 10 a is a function approximation expression for subject A, and FIG.

ここで、2次多項式を用いた理由は、腕の屈曲角に対する骨導音の変化が肘関節での骨導音の反射によるものと仮定した場合、その変化は90度付近をピークとして規則的な変化であることから、凸と凹の単純な多項式である2次関数で近似できるためである。また、近似式を作成する際の姿勢が3点で足りるため、キャリブレーションが容易となる利点もある。 Here, the reason why the quadratic polynomial is used is that when it is assumed that the change in the bone conduction sound with respect to the flexion angle of the arm is due to the reflection of the bone conduction sound at the elbow joint, the change is regular with a peak around 90 degrees. This is because the change can be approximated by a quadratic function which is a simple convex and concave polynomial. In addition, since three points are sufficient for creating an approximate expression, there is an advantage that calibration is easy.

次に、キャリブレーションによって得られた関数近似式を用いて、肘の屈曲角推定を行う。上腕骨と尺骨が水平となる状態を0度とし、直角となる状態を90度として、0度から90度まで15度刻みで屈曲させたとき、振動入力用アクチュエータ170(前記小型スピーカ)から各々10回ずつ振動を入力し骨導音を発生させ、骨伝導マイクロフォン180(前記聴診診器型骨伝導マイクロフォン)で振幅の変化を取得した。それによって屈曲角推定の結果と真の屈曲角との誤差の標準偏差を求め評価した。なお、前記小型スピーカからの入力信号は、振幅一定で800Hzの周波数を持つ正弦波を用い、一回の信号の長さ0.01secとした振動を、1sec以上の間隔を開けて断続的に入力した。 Next, the elbow flexion angle is estimated using the function approximation obtained by calibration. When the state where the humerus and ulna are horizontal is 0 degrees, and the state where the humerus is at right angles is 90 degrees, when bending from 0 degrees to 90 degrees in 15 degree increments, the vibration input actuator 170 (the small speaker) respectively A vibration was input 10 times to generate a bone conduction sound, and a change in amplitude was obtained with the bone conduction microphone 180 (the auscultatory stethoscope type bone conduction microphone). Accordingly, the standard deviation of the error between the result of the bend angle estimation and the true bend angle was obtained and evaluated. The input signal from the small speaker is a sinusoidal wave having a constant amplitude and a frequency of 800 Hz, and vibrations having a signal length of 0.01 sec are intermittently input at intervals of 1 sec or more. did.

図11a、11bにその結果を示す。図11aは被験者A、図11bは被験者Bの推定結果である。縦軸は、推定による屈曲角、横軸は真の屈曲角である。点線は推定した屈曲角と真の屈曲角の一致する点である。評価実験の結果、被験者A、Bとも5〜7度程度の誤差で肘の屈曲角が推定できることが示された。 The results are shown in FIGS. 11a and 11b. FIG. 11a shows the estimation result of the subject A, and FIG. The vertical axis represents the estimated bending angle, and the horizontal axis represents the true bending angle. The dotted line is a point where the estimated bending angle and the true bending angle coincide. As a result of the evaluation experiment, it was shown that both the subjects A and B can estimate the elbow flexion angle with an error of about 5 to 7 degrees.

次に、肘の屈曲角推定と腕への指のタップ(叩く)による衝突位置の推定を、同じ腕で行うことができる実施形態を実施例4として説明する。2つの推定を行うには、まず、振動入力用アクチュエータにより発生する骨導音と、指のタップによる衝突によって生じる骨導音との分離が必要となる。そのため、前記各骨導音の周波数特性を解析し、周波数領域のフィルタリングによる前記各骨導音の分離手法を検討した。 An embodiment in which the elbow flexion angle estimation and the collision position estimation by tapping (striking) a finger on the arm can be performed with the same arm will be described as a fourth embodiment. In order to perform the two estimations, first, it is necessary to separate the bone conduction sound generated by the vibration input actuator from the bone conduction sound generated by the collision by the finger tap. Therefore, the frequency characteristics of each bone conduction sound were analyzed, and a method for separating each bone conduction sound by frequency domain filtering was examined.

検討に当っては、図12の実際の装着状態が示すように、肘頭に振動入力用アクチュエータ190と骨伝導マイクロフォン200を1個ずつ取り付け、尺骨茎状突起に骨伝導マイクロフォン210を1個取り付けた状態において、骨伝導マイクロフォン200及び210の間の前腕を使用者自身の指でタップする。この時、振動入力用アクチュエータ190から振動を継続的に入力して、骨導音の信号を骨伝導マイクロフォン200及び210で取得する。ここで、振動入力用アクチュエータ190として上記の小型スピーカを用い、骨伝導マイクロフォン200及び210として上記の聴診器型骨伝導マイクロフォンを用いている。 In the examination, as shown in the actual mounting state of FIG. 12, one vibration input actuator 190 and one bone conduction microphone 200 are attached to the elbow head, and one bone conduction microphone 210 is attached to the ulnar styloid process. In this state, the forearm between the bone conduction microphones 200 and 210 is tapped with the user's own finger. At this time, vibration is continuously input from the vibration input actuator 190, and bone conduction sound signals are acquired by the bone conduction microphones 200 and 210. Here, the above small speaker is used as the vibration input actuator 190, and the above stethoscope type bone conduction microphone is used as the bone conduction microphones 200 and 210.

図13a、図13bは、前腕の所定位置を使用者自身の指でタップしたときの衝突で生じた骨導音の振幅を骨伝導マイクロフォン200及び210で各々取得した結果である(図13a:尺骨茎状突起、図13b:肘頭)。図14a、図14bは、それらを周波数変換した結果である(図14a:尺骨茎状突起、図14b:肘頭)。図15aは、肘頭から前記小型スピーカで入力した骨導音の振幅を取得した結果である。図15bは、それを周波数変換した結果を示す。なお、前記小型スピーカからの入力信号は、振幅一定で800Hzの周波数をもつ正弦波を用い、一回の入力信号の長さは0.01secである。 FIGS. 13a and 13b are results obtained by acquiring the bone conduction sound amplitudes generated by the collision when the predetermined position of the forearm is tapped with the user's own finger with the bone conduction microphones 200 and 210, respectively (FIG. 13a: ulna) Stemoid, FIG. 13b: elbow head). 14a and 14b show the results of frequency conversion of these (FIG. 14a: ulnar styloid process, FIG. 14b: elbow). FIG. 15a shows the result of obtaining the amplitude of the bone conduction sound input from the elbow head through the small speaker. FIG. 15b shows the result of frequency conversion. The input signal from the small speaker is a sine wave having a constant amplitude and a frequency of 800 Hz, and the length of one input signal is 0.01 sec.

これらの結果から、指のタップによる衝突で生じた骨導音は、概ね500Hz以下の周波数領域に存在し、対して小型スピーカから入力された骨導音は、入力信号である800Hz付近に存在していることが示された。なお、1回の入力信号の長さは0.01secであるが、長時間の信号でも同様の結果となる。すなわち、前記タップによる衝突で生じる骨導音は、600Hz以下、好ましくは50〜600Hzの信号を、バンドパスフィルタを用いて抽出することにより認識できる。振動入力用アクチュエータで入力された骨導音は、780〜820Hzの信号を、バンドパスフィルタを用いて抽出することより認識できることが判明した。なお、バンドパスフィルタとしてFFTを用いた周波数フィルタリングを行った。 From these results, bone conduction sound generated by a finger tap collision exists in a frequency region of approximately 500 Hz or less, whereas bone conduction sound input from a small speaker exists in the vicinity of 800 Hz which is an input signal. It was shown that. Although the length of one input signal is 0.01 sec, the same result is obtained for a long time signal. That is, the bone conduction sound generated by the tap collision can be recognized by extracting a signal of 600 Hz or less, preferably 50 to 600 Hz, using a bandpass filter. It has been found that the bone conduction sound input by the vibration input actuator can be recognized by extracting a signal of 780 to 820 Hz using a bandpass filter. Note that frequency filtering using FFT as a bandpass filter was performed.

次に、被験者A、Bに対する屈曲角推定と衝突位置推定を同じ腕で行う第4の評価実験について説明する。被験者A、Bには、上述の図12に示すように、肘頭に前記振動入力用アクチュエータ190(前記小型スピーカ)と骨伝導マイクロフォン200(前記聴診器型骨伝導マイクロフォン)を1個ずつ取り付け、尺骨茎状突起に骨伝導マイクロフォン210(前記聴診器型骨伝導マイクロフォン)を1個が装着されている。なお、小型スピーカの振動は、周波数フィルタリングで除去できるため肘骨側の振動入力用アクチュエータ190と骨伝導マイクロフォン200を一つの装置にまとめることもできる。 Next, a fourth evaluation experiment in which bending angle estimation and collision position estimation for subjects A and B are performed with the same arm will be described. For subjects A and B, as shown in FIG. 12 described above, the vibration input actuator 190 (the small speaker) and the bone conduction microphone 200 (the stethoscope-type bone conduction microphone) are attached to the elbow head one by one, One bone conduction microphone 210 (the stethoscope-type bone conduction microphone) is attached to the ulnar styloid process. In addition, since vibration of a small speaker can be removed by frequency filtering, the vibration input actuator 190 and the bone conduction microphone 200 on the elbow bone side can be combined into one device.

まず、初期作業として屈曲角推定と衝突位置推定について、被験者A、Bに対してキャリブレーションを実施した。衝突位置推定のためのキャリブレーションは、腕の長さや筋肉の付き方等の影響による個人差が生じるため、予め被験者に合わせた上記の信号レベル差Lに対する閾値を設定するために行う。図16に示すように、前腕をP1,P2,P3の3つに区間に分割する。これら3区間を各々10回ずつ被験者自身の指で叩き、骨導音の振幅の変化を骨伝導マイクロフォン200及び210で取得した。その信号データから前記信号レベル差Lに対すSVM(サポートベクタマシン)モデルを作成し、閾値設定を行った。この間は、振動入力用アクチュエータ190からの入力による骨導音の発生は行われていない。 First, calibration was performed on subjects A and B with respect to bending angle estimation and collision position estimation as initial work. Calibration for collision position estimation is performed in order to set a threshold value for the signal level difference L previously adjusted to the subject because individual differences occur due to the effects of arm length, muscle attachment, and the like. As shown in FIG. 16, the forearm is divided into three sections P1, P2 and P3. Each of these three sections was hit 10 times with the subject's own finger, and the change in the amplitude of the bone conduction sound was acquired with the bone conduction microphones 200 and 210. An SVM (support vector machine) model for the signal level difference L was created from the signal data, and a threshold value was set. During this time, no bone conduction sound is generated by the input from the vibration input actuator 190.

次に、肘の屈曲角推定のための屈曲角と骨導音の振幅の関数近似式を求めるためのキャリブレーションを実施した。肘の屈曲角0度、45度、90度の姿勢で、各々10回ずつ肘頭の振動入力用アクチュエータ190により骨導音を継続的に発生させ、尺骨茎状突起の骨伝導マイクロフォン210で振幅の変化を取得した。この振幅の変化から、最小二乗法を用いて2次多項式による屈曲角と振幅の関数近似を行い、関数近似式を作成した。なお、この間は、衝突による骨導音の発生は行われていない。 Next, calibration was performed to obtain an approximate function of the bending angle and the amplitude of the bone conduction sound for estimating the bending angle of the elbow. Bone conduction sound is continuously generated by the elbow head vibration input actuator 190 at the elbow flexion angles of 0 degrees, 45 degrees, and 90 degrees, and amplitude is generated by the bone conduction microphone 210 of the ulnar styloid process. Got the change. From this change in amplitude, the function approximation of the bending angle and amplitude by a second-order polynomial was performed using the least square method, and a function approximation expression was created. During this period, no bone conduction sound is generated due to the collision.

これらキャリブレーション完了後、衝突位置推定は、振動入力用アクチュエータ190より、800Hzの正弦波を継続的に入力し続けた状態で行う。上記の前腕のP1,P2,P3の区間をそれぞれ50回ずつ被験者自身の指で叩き、その衝突位置の判別の正当率をもって評価した。屈曲角推定は、肘の屈曲を0度から90度まで15度刻みの姿勢で、前腕を指で叩くと同時に振動入力用アクチュエータ190である前記小型スピーカより0.1secの信号をそれぞれ10回ずつ入力し、その際の実際の肘の屈曲角と誤差の標準偏差を持って評価を行った。 After completion of these calibrations, the collision position is estimated in a state where an 800 Hz sine wave is continuously input from the vibration input actuator 190. The forearm P1, P2, and P3 sections were hit 50 times each with the subject's own finger and evaluated with the correct rate of discrimination of the collision position. The bend angle is estimated by bending the elbow in 15 ° increments from 0 ° to 90 °, and at the same time hitting the forearm with a finger and simultaneously sending a 0.1 sec signal from the small speaker, which is the vibration input actuator 190, 10 times each. The evaluation was performed using the actual elbow flexion angle and the standard deviation of the error.

図17aは被験者A、図17bは被験者Bの衝突位置の推定結果を示している。横軸と縦軸は、それぞれ尺骨茎状突起と肘頭に取り付けた骨伝導マイクロフォン200及び210で得られた骨導音の最大振幅である。点線と一点鎖線は、P1とP2、P2とP3を判別する閾値を示しており、横軸と点線で囲まれた部分をP1、点線と一点鎖線で囲まれた部分をP2、縦軸と一点鎖線で囲まれた部分をP3と判別する。図17a、図17bのマーカーは、実際の指で叩いた衝突位置で、この位置と閾値処理による判別結果が一致した場合を位置推定が正しくできたとした。評価結果では、被験者Aについては97.3%、被験者Bについては92.0%の一致率であり、90%以上の認識率が得られることが示された。 FIG. 17 a shows the estimation result of the collision position of the subject A, and FIG. The horizontal axis and the vertical axis are the maximum amplitudes of the bone conduction sounds obtained by the bone conduction microphones 200 and 210 attached to the ulnar styloid process and the elbow head, respectively. The dotted line and the alternate long and short dash line indicate threshold values for discriminating between P1 and P2 and P2 and P3. The part surrounded by the horizontal axis and the dotted line is P1, the part surrounded by the dotted line and the dashed line is P2, and the vertical axis is one point. A portion surrounded by a chain line is determined as P3. The markers in FIGS. 17a and 17b are assumed to have been correctly estimated when the collision position hit with an actual finger matches the determination result obtained by the threshold processing. The evaluation results showed that the coincidence rate was 97.3% for subject A and 92.0% for subject B, and a recognition rate of 90% or more was obtained.

図18aは被験者A、図18bは被験者Bの肘の屈曲角推定の結果を示している。横軸と縦軸はそれぞれ真の屈曲角と推定した屈曲角であり、点線は双方が一致する点である。評価結果では、被験者A、Bともに3〜5度の誤差で肘の屈曲角が推定できた。なお、図19に第4の評価実験の処理フローを示す。 18a shows the result of subject A and FIG. 18b shows the result of subject B's elbow flexion angle estimation. The horizontal axis and the vertical axis are the bending angles estimated as true bending angles, respectively, and the dotted lines are the points where both coincide. In the evaluation results, the elbow flexion angle could be estimated with an error of 3 to 5 degrees for both subjects A and B. FIG. 19 shows a processing flow of the fourth evaluation experiment.

上記のようにキャリブレーションと、周波数フィルタリングを施すことで、同じ腕で肘の屈曲角推定と、腕への指のタップによる衝突位置の推定を各々個別に行うことができ、屈曲角推定と衝突位置推定の同時利用が可能であることが示された。 By performing calibration and frequency filtering as described above, it is possible to estimate the elbow flexion angle with the same arm and the collision position by finger tap on the arm individually. It was shown that the position estimation can be used simultaneously.

次に、ロボットの操縦インタフェースとして使用した実施態様を実施例5として示す。操縦者には、上述の図12に示すように、肘頭に前記振動入力用アクチュエータ190(前記小型スピーカ)と骨伝導マイクロフォン200(前記聴診器型骨伝導マイクロフォン)を1個ずつ取り付け、尺骨茎状突起に骨伝導マイクロフォン210(前記聴診器型骨伝導マイクロフォン)を1個が装着されている。操作対象は、HRP−2m Chromet(ゼネラルロボティックス社製)である。腕を使用者の指でタップ(叩く)し、衝突位置推定を行って、推定結果をロボットの操作命令として使用するコマンド式インタフェースとした。 Next, an embodiment used as a robot control interface is shown as Example 5. As shown in FIG. 12, the operator attaches the vibration input actuator 190 (the small speaker) and the bone conduction microphone 200 (the stethoscope-type bone conduction microphone) one by one to the elbow head, and One bone conduction microphone 210 (the stethoscope type bone conduction microphone) is attached to the dent process. The operation target is HRP-2m Chromet (manufactured by General Robotics). By tapping (striking) the arm with the user's finger, the collision position is estimated, and the estimation result is used as a command-type interface that is used as a robot operation command.

上記の前腕のP1、P2,P3の区間と手先と肩を加えた5カ所の衝突位置の推定結果を、図20に示すように5通りの操作命令として関連付けた。更に、図21に示すように、2回タップした時の衝突位置の推定結果を組み合わせて、9通りの操作命令として関連付けた。ここで、2回のタップによる操作命令では、肩及び手先へのタップは、1つ目の入力を間違えた場合のリセットボタンとして使用する。なお、手先と肩などの前腕以外の部位を指で叩いた場合、前腕を伝わる骨導音に比べて、前腕をタップした場合よりも信号のレベルが小さくなり、比較的容易に衝突位置を判別できる。 As shown in FIG. 20, the estimation results of the five collision positions including the forearm P1, P2, and P3 sections and the hand and shoulder are associated as five operation commands. Furthermore, as shown in FIG. 21, the estimation results of the collision position when tapped twice are combined and associated as nine operation commands. Here, in the operation command with two taps, the tap on the shoulder and the hand is used as a reset button when the first input is mistaken. In addition, when hitting a part other than the forearm such as the hand and shoulder with a finger, the level of the signal is lower than when the forearm is tapped compared to the bone conduction sound transmitted through the forearm, and the collision position can be identified relatively easily. it can.

肘の屈曲角の推定結果のロボット操作への操作命令は、屈曲角を連続して推定し、得られた屈曲角に合わせてロボットの腕を屈伸させるものとした。 The operation command to the robot operation based on the estimation result of the elbow flexion angle is to continuously estimate the flexion angle and bend and extend the robot arm according to the obtained flexion angle.

実施例5では、前記小型スピーカから入力した骨導音以外の骨導音を除去し、誤動作が防ぐために、入力信号である800Hzの信号のみを取得できるよう、780から820Hzの範囲のバンドパスフィルタを使用し、手首の屈伸や腕の運動によって生じる低周波のノイズや、手先から生じた骨導音について除去するようにした。50Hz以下の信号もハイパスフィルタによりカットするようにした。また、骨導音を周波数変換し、800Hz付近がスペクトル強度のピークとなった場合のみを入力信号として採用することにより、日常生活で装着し、日常作業を行う場合の誤認識を低減できるようにした。 In Example 5, in order to remove bone conduction sound other than bone conduction sound inputted from the small speaker and prevent malfunction, a bandpass filter in the range of 780 to 820 Hz is obtained so that only an 800 Hz signal as an input signal can be acquired. To remove low-frequency noise caused by wrist flexion and arm movement and bone conduction sound generated from the hand. A signal of 50 Hz or less was also cut by a high pass filter. Moreover, by converting the frequency of bone conduction sound and adopting only when the spectrum intensity peak near 800 Hz as an input signal, it is possible to reduce misrecognition when wearing in daily life and performing daily work. did.

図22に衝突位置推定結果をロボットの操縦に用いた様子を示す。操縦者のタップによる衝突位置に合わせて、ロボットの腕や足が動いているのが分かる。操縦者の肘の屈曲角推定に応じて、ロボットの腕が動く実際の様子を図23に示す。腕の肘の屈曲に合わせてロボットの腕が屈曲しているのが分かる。 FIG. 22 shows a state in which the collision position estimation result is used for robot operation. You can see that the robot's arms and legs are moving according to the collision position of the pilot's tap. FIG. 23 shows an actual state in which the robot arm moves according to the estimation of the elbow flexion angle of the operator. It can be seen that the arm of the robot is bent according to the bending of the elbow of the arm.

上記の実施例1〜5において使用したシステムの構成を図24に示す。各実施例における振動入力用アクチュエータへの駆動信号出力および骨伝導マイクロフォンからの信号の取り込みには、AD/DAボード(Interface社製CSI−360116)を使用し、ノートPC(DELL社製PRECISION/M4400)を用いて骨伝導マイクロフォンから得られた信号の処理および振動入力用アクチュエータの制御を行った。 The configuration of the system used in Examples 1 to 5 is shown in FIG. In each example, an AD / DA board (Interface CSI-360116) is used for driving signal output to the vibration input actuator and signals from the bone conduction microphone, and a notebook PC (DELL PRECISION / M4400) ) Was used to process the signal obtained from the bone conduction microphone and control the vibration input actuator.

本発明は、身体に装着されて用いられるインタフェースにおける骨導音を利用したインタフェースシステムに有用である。例えば、玩具、ゲーム、家電、
ロボット等の入力インタフェースとして有用なシステムを提供できる。
INDUSTRIAL APPLICABILITY The present invention is useful for an interface system using bone conduction sound in an interface used by being worn on the body. For example, toys, games, home appliances,
A system useful as an input interface for a robot or the like can be provided.

1000 使用者
2000 使用者
10 振動入力用アクチュエータ
20 骨伝導マイクロフォン
30 振動入力用アクチュエータ
40 骨伝導マイクロフォン
50 骨伝導マイクロフォン
80 振動入力用アクチュエータ
90 骨伝導マイクロフォン
100 骨伝導マイクロフォン
110 骨伝導マイクロフォン
120 振動入力用アクチュエータ
130 骨伝導マイクロフォン
140 骨伝導マイクロフォン
150 振動入力用アクチュエータ
160 骨伝導マイクロフォン
170 振動入力用アクチュエータ
180 骨伝導マイクロフォン
190 振動入力用アクチュエータ
200 骨伝導マイクロフォン
210 骨伝導マイクロフォン
1000 User 2000 User 10 Vibration input actuator 20 Bone conduction microphone 30 Vibration input actuator 40 Bone conduction microphone 50 Bone conduction microphone 80 Vibration input actuator 90 Bone conduction microphone 100 Bone conduction microphone 110 Bone conduction microphone 120 Vibration input actuator 130 Bone conduction microphone 140 Bone conduction microphone 150 Vibration input actuator 160 Bone conduction microphone 170 Vibration input actuator 180 Bone conduction microphone 190 Vibration input actuator 200 Bone conduction microphone 210 Bone conduction microphone

Claims (10)

身体に装着されて用いられるインタフェースシステムであって、
身体の第1の部位に装着され、振動を入力して骨導音を発生させる振動入力用アクチュエータと、
身体の第2の部位に装着され、前記骨導音を取得する骨伝導マイクロフォンと、
前記骨伝導マイクロフォンが取得する前記骨導音の信号に基づいて、身体の姿勢を推定する機能を含む信号処理手段と、
前記信号処理手段による処理結果から、所定の入力情報を生成する入力情報生成手段と、
を有することを特徴とするインタフェースシステム。
An interface system used by being worn on the body,
A vibration input actuator that is mounted on a first part of the body and generates a bone conduction sound by inputting vibration;
A bone conduction microphone mounted on a second part of the body for obtaining the bone conduction sound;
A signal processing means including a function of estimating a posture of the body based on the bone conduction sound signal acquired by the bone conduction microphone;
Input information generating means for generating predetermined input information from a processing result by the signal processing means;
An interface system comprising:
前記第1の部位は腕であり、前記第2の部位は第1の部位と同じ腕であることを特徴とする請求項に記載のインタフェースシステム。 The interface system according to claim 1 , wherein the first part is an arm, and the second part is the same arm as the first part. 前記信号処理手段は、肘の屈伸・屈曲による肘の屈曲角を身体の姿勢として推定する屈曲角推定手段を含むことを特徴とする請求項またはに記載のインタフェースシステム。 Said signal processing means, interface system according to claim 1 or 2, characterized in that it comprises a bending angle estimating means for estimating the bending angle of the elbow by bending, the bending of the elbow as the posture of the body. 身体に装着されて用いられるインタフェースシステムであって、
身体の第1の部位に装着され、振動を入力して骨導音を発生させる振動入力用アクチュエータと、
身体の第2の部位に装着され、前記骨導音を取得する骨伝導マイクロフォンと、
身体の第3の部位に装着され、前記骨導音を取得する骨伝導マイクロフォンと、
前記第2の部位に装着された骨伝導マイクロフォンが取得する前記骨導音の信号と、前記第3の部位に装着された骨伝導マイクロフォンが取得する前記骨導音の信号に基づいて、身体の姿勢を推定する機能と、身体への接触による接触位置を推定する機能を含む信号処理手段と、
前記信号処理手段による処理結果から、所定の入力情報を生成する入力情報生成手段と、
を有することを特徴とするインタフェースシステム。
An interface system used by being worn on the body,
A vibration input actuator that is mounted on a first part of the body and generates a bone conduction sound by inputting vibration;
A bone conduction microphone mounted on a second part of the body for obtaining the bone conduction sound;
A bone conduction microphone mounted on a third part of the body for obtaining the bone conduction sound;
Based on the bone conduction sound signal acquired by the bone conduction microphone attached to the second part and the bone conduction sound signal obtained by the bone conduction microphone attached to the third part, A signal processing means including a function of estimating a posture and a function of estimating a contact position by contact with the body;
Input information generating means for generating predetermined input information from a processing result by the signal processing means;
An interface system comprising:
前記第1の部位、前記第2の部位及び第3の部位は、同じ腕であることを特徴とする請求項に記載のインタフェースシステム。 The interface system according to claim 4 , wherein the first part, the second part, and the third part are the same arm. 前記信号処理手段は、肘の屈伸・屈曲による肘の屈曲角を身体の姿勢として推定する屈曲角推定手段を含むことを特徴とする請求項またはに記載のインタフェースシステム。 Said signal processing means, interface system according to claim 4 or 5, characterized in that it comprises a bending angle estimating means for estimating the bending angle of the elbow by bending, the bending of the elbow as the posture of the body. 前記信号処理手段は、前記の身体への接触による接触位置が腕へのタップによる衝突位置であり、前記衝突位置を推定する衝突位置推定手段を含むことを特徴とする請求項またはに記載のインタフェースシステム。 6. The signal processing means according to claim 4 or 5 , wherein the contact position by contact with the body is a collision position by a tap on an arm, and includes a collision position estimation means for estimating the collision position. Interface system. 前記信号処理手段は、肘の屈伸・屈曲による屈曲角 を身体の姿勢として推定する屈曲角推定手段と、腕へのタップによる衝突位置の推定を身体への接触による接触位置として推定とする衝突位置推定手段とを備 え、前記屈曲角と前記衝突位置の各々を個別に推定することができることを特徴とする請求項またはに記載のインタフェースシステム。 The signal processing means includes a bending angle estimating means for estimating a bending angle due to bending and stretching of the elbow as a posture of the body, and a collision position in which the estimation of the collision position due to the tap on the arm is estimated as the contact position due to contact with the body. e Bei and estimating means, interface system according to claim 4 or 5, characterized in that each of said collision position and the bending angle can be estimated separately. 前記屈曲角推定手段は、前記屈曲角の推定を肘の屈伸・屈曲に伴う前記骨導音の振幅の変化に基づいて行うことを特徴とする請求項のいずれかに記載のインタフェースシステム。 The bending angle estimation means according to claim 3, 6, 8, characterized in that an estimate of the bending angle based on a change in amplitude of said bone conduction sound accompanying the bending-bending of the elbow Interface system. 前記衝突位置推定手段は、腕へのタップによる衝突位置の推定を前記タップに伴う前記骨導音の振幅の変化に基づいて行うことを特徴とする請求項またはに記載のインタフェースシステム。 The interface system according to claim 7 or 8 , wherein the collision position estimation means estimates a collision position by a tap on an arm based on a change in amplitude of the bone conduction sound accompanying the tap.
JP2011169022A 2011-08-02 2011-08-02 Interface system Active JP5794526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011169022A JP5794526B2 (en) 2011-08-02 2011-08-02 Interface system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011169022A JP5794526B2 (en) 2011-08-02 2011-08-02 Interface system

Publications (2)

Publication Number Publication Date
JP2013033382A JP2013033382A (en) 2013-02-14
JP5794526B2 true JP5794526B2 (en) 2015-10-14

Family

ID=47789223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011169022A Active JP5794526B2 (en) 2011-08-02 2011-08-02 Interface system

Country Status (1)

Country Link
JP (1) JP5794526B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6303825B2 (en) * 2014-05-30 2018-04-04 富士通株式会社 Input device
WO2016017956A1 (en) 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
US11119565B2 (en) * 2015-01-19 2021-09-14 Samsung Electronics Company, Ltd. Optical detection and analysis of bone
JP6402820B2 (en) * 2015-03-05 2018-10-10 富士通株式会社 Input detection method, input detection program and device
JP7220444B2 (en) * 2018-02-07 2023-02-10 国立大学法人千葉大学 Acoustic transmission system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3872443A (en) * 1973-01-26 1975-03-18 Novar Electronics Corp Individual identification apparatus and method using frequency response
JP3587034B2 (en) * 1997-10-21 2004-11-10 オムロン株式会社 Electronic equipment and electronic play equipment
JP3298578B2 (en) * 1998-03-18 2002-07-02 日本電信電話株式会社 Wearable command input device
JP2002136504A (en) * 2000-11-02 2002-05-14 Matsushita Electric Ind Co Ltd Individual identifying device
JP4668237B2 (en) * 2007-05-08 2011-04-13 株式会社エヌ・ティ・ティ・ドコモ Personal authentication system
WO2009078350A1 (en) * 2007-12-17 2009-06-25 Nec Corporation Input device, information terminal device provided with the same and input method

Also Published As

Publication number Publication date
JP2013033382A (en) 2013-02-14

Similar Documents

Publication Publication Date Title
US11281262B2 (en) Detecting a gesture made by a person wearing a wearable electronic device
US11009951B2 (en) Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US20210217246A1 (en) Wearable electronic devices and extended reality systems including neuromuscular sensors
Harrison et al. Skinput: appropriating the body as an input surface
KR100793079B1 (en) Wrist-wear user input apparatus and methods
Meier et al. TapID: Rapid touch interaction in virtual reality using wearable sensing
JP2019023941A (en) Method and device for combining muscle activity sensor signal and inertial sensor signal for control based on gesture
Harrison et al. Skinput: appropriating the skin as an interactive canvas
EP3203350A1 (en) Wearable controller for wrist
JP5794526B2 (en) Interface system
Zhao et al. Towards low-cost sign language gesture recognition leveraging wearables
US20110234488A1 (en) Portable engine for entertainment, education, or communication
WO2015033327A1 (en) Wearable controller for wrist
JP2011048818A (en) Finger motion detecting apparatus and method
JP6244026B2 (en) Input device, biosensor, program, computer-readable medium, and mode setting method
KR102048551B1 (en) System and Method for Virtual reality rehabilitation training using Smart device
Costanza et al. EMG as a subtle input interface for mobile computing
Saggio et al. A novel actuating–sensing bone conduction-based system for active hand pose sensing and material densities evaluation through hand touch
JP2009006113A (en) Input device
JP5998811B2 (en) Information input device, specific frequency extraction method, specific frequency extraction program
Kim et al. VibAware: Context-Aware Tap and Swipe Gestures Using Bio-Acoustic Sensing
US20230404485A1 (en) Terminal apparatus, information acquisition system and information processing method
US20240152212A1 (en) Wearable device for finger identification upon contact on a surface
Adhau et al. An Analytical Study of Human Body as an Input Surface by Skinput Technology
Shetty et al. Skinput: Appropriating the Body as an Input Surface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R150 Certificate of patent or registration of utility model

Ref document number: 5794526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250