JP2010152570A - Pointing system - Google Patents

Pointing system Download PDF

Info

Publication number
JP2010152570A
JP2010152570A JP2008328942A JP2008328942A JP2010152570A JP 2010152570 A JP2010152570 A JP 2010152570A JP 2008328942 A JP2008328942 A JP 2008328942A JP 2008328942 A JP2008328942 A JP 2008328942A JP 2010152570 A JP2010152570 A JP 2010152570A
Authority
JP
Japan
Prior art keywords
sound
azimuth
information
operator
receiver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008328942A
Other languages
Japanese (ja)
Other versions
JP5245808B2 (en
Inventor
Shinji Hizuka
真二 肥塚
Takuro Sone
卓朗 曽根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008328942A priority Critical patent/JP5245808B2/en
Publication of JP2010152570A publication Critical patent/JP2010152570A/en
Application granted granted Critical
Publication of JP5245808B2 publication Critical patent/JP5245808B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pointing system in which an object can be pointed more intuitively. <P>SOLUTION: A receiver 2 detects an azimuth (deviation angle from an absolute azimuth) directed with own device, based on a modulated voice output from a transmitter 1, and detects a relative azimuth between the own device and an operator 3, based on a voice output from the operator 3. the receiver 2 detects an azimuth of the operator 3 (directed azimuth of the operator 3 with respect to the receiver 2), based on the azimuth of the own device and the relative azimuth, and detects an azimuth indicated by the operator 3. The modulated voice output from the transmitter 1 includes information about an azimuth of the object, and the receiver 2 provides information (for example, voice guide or the like) about the object to a user, when the object exists in the azimuth indicated by the operator 3. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、対象物を指し示す操作子(ポインティングデバイス)を備えたポインティングシステムに関する。   The present invention relates to a pointing system including an operation element (pointing device) for pointing an object.

従来、ユーザが指し示した対象物(現実上の物体)に対応した情報(例えば画像情報、テキスト情報、音声情報等)をユーザに提供する装置が提案されている(例えば特許文献1参照)。
特開2000−194726号公報
2. Description of the Related Art Conventionally, an apparatus that provides a user with information (for example, image information, text information, voice information, etc.) corresponding to an object (real object) pointed to by the user has been proposed (see, for example, Patent Document 1).
JP 2000-194726 A

しかし、特許文献1の装置においては、視界内の対象物の認識をCCDカメラによる画像認識で行っている。また、対象物の位置検出は、赤外線ビーコンおよびIRセンサを用いて行っている。そのため、誤検出も多く、処理負荷が高いという問題があった。また、光センサ関係の部品点数も多く、コストがかかるという問題もあった。   However, in the apparatus of Patent Document 1, an object in the field of view is recognized by image recognition using a CCD camera. Further, the position of the object is detected using an infrared beacon and an IR sensor. For this reason, there are many erroneous detections, and there is a problem that the processing load is high. There is also a problem that the number of parts related to the optical sensor is large and the cost is high.

さらに、対象物を指し示すための操作は、マウスを用いて画面上のポインタを移動させることで行っており、対象物を直感的に指し示すことができなかった。   Furthermore, the operation for pointing the object is performed by moving the pointer on the screen using the mouse, and the object cannot be pointed intuitively.

そこで、この発明は、対象物をより直感的に指し示すことができるポインティングシステムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a pointing system capable of pointing an object more intuitively.

この発明のポインティングシステムは、送信機、受信機、およびユーザが対象物を指し示すための操作子を備えている。送信機は、放音方位を示す情報を重畳した送信側音声を放音する送信側放音手段を備え、操作子は、操作子側音声を放音する操作子側放音手段を備えている。放音方位を示す情報とは、ある基準方位からのずれ角である。   The pointing system of the present invention includes a transmitter, a receiver, and an operator for a user to point to an object. The transmitter includes a transmission-side sound emitting unit that emits a transmission-side sound on which information indicating a sound emitting direction is superimposed, and the operator includes an operator-side sound emitting unit that emits an operator-side sound. . The information indicating the sound emitting direction is a deviation angle from a certain reference direction.

受信機は、音声を収音する複数の収音手段(マイク)と、収音した送信側音声から前記放音方位を示す情報を復調する復調手段を備えている。さらに、受信機は、復調した放音方位を示す情報、および各マイクの送信側音声の収音時間差に基づいて、自装置が向いている方位を検出する自装置方位検出手段を備えている。例えば2つのマイクの収音時間差を求めることで、送信機と受信機の相対的な方位を求めることができ、送信機の放音方位を示す情報から自装置の向き(基準方位からのずれ角)を求めることができる。   The receiver includes a plurality of sound collecting means (microphones) for collecting sound and a demodulating means for demodulating information indicating the sound emitting direction from the collected transmission side sound. Further, the receiver includes own device direction detecting means for detecting the direction in which the own device is directed based on the information indicating the demodulated sound emitting direction and the sound collection time difference of the transmission side sound of each microphone. For example, by obtaining the difference in sound collection time between two microphones, the relative orientation of the transmitter and the receiver can be obtained, and the direction of the device (the deviation angle from the reference orientation) is obtained from information indicating the sound emitting direction of the transmitter. ).

また、受信機は、各マイクの操作子側音声の収音時間差に基づいて、自装置と操作子の相対方位を検出する操作子方位検出手段を備えている。そして、受信機は、自装置が向いている方位、および前記操作子の相対方位に基づいて前記操作子が指し示す方位を検出する。つまり、自装置および操作子の向きをそれぞれ検出することができ、操作子の指し示す方位を検出することができる。   In addition, the receiver includes operating element direction detecting means for detecting the relative direction between the own apparatus and the operating element based on the sound collection time difference between the operating element side sounds of the microphones. Then, the receiver detects the azimuth pointed to by the manipulator based on the azimuth that the device is facing and the relative azimuth of the manipulator. That is, the orientations of the own device and the operation element can be detected, and the direction indicated by the operation element can be detected.

このように、音声だけで操作子が指し示す方位を検出することができるため、誤検出が少なく、処理負荷も低く、さらにコストを抑えることもできる。また、ユーザが手に持つ操作子で直接対象物を指し示すことができ、より直感的に対象物を指し示すことができる。   In this way, since the azimuth pointed by the operator can be detected only by voice, there are few false detections, the processing load is low, and the cost can be further reduced. In addition, the object can be pointed directly with an operator held by the user, and the object can be pointed more intuitively.

また、送信機の送信側放音手段は、対象物の方位、および当該対象物に関する情報を前記送信側音声に重畳して放音してもよい。この場合、受信機の復調手段は、対象物の方位および対象物に関する情報を復調する。そして、受信機は、操作子が指し示す方位が対象物の方位に合致する場合に、その対象物に関する情報を再生する。   Moreover, the transmission-side sound emitting means of the transmitter may emit the sound by superimposing the direction of the object and information on the object on the transmission-side sound. In this case, the demodulating means of the receiver demodulates information about the direction of the object and the object. Then, the receiver reproduces information about the target object when the direction indicated by the operation element matches the direction of the target object.

この発明によれば、音声だけでポインティングデバイスの位置を検出することができ、対象物をより直感的に指し示すことができる。   According to the present invention, the position of the pointing device can be detected only by voice, and the object can be pointed more intuitively.

本発明のポインティングシステムに係る実施形態について説明する。図1は、ポインティングシステムの全体構成を示す図である。   An embodiment according to the pointing system of the present invention will be described. FIG. 1 is a diagram illustrating an overall configuration of a pointing system.

ポインティングシステムは、送信機1、受信機2、および操作子3からなる。送信機1は、室内に固定設置されており、所定の方位に指向性を有する変調音声(例えば超音波)を放音する。受信機2は、ユーザの頭部に取り付けるヘッドセット状の端末装置であり、複数のマイクを備えている。操作子3は、電子ペン等のポインティングデバイスであり、ユーザが手に持って対象物41や対象物42を指し示すためのものである。操作子3にはスピーカが取り付けられており、送信機1とは異なる周波数の超音波を放音する。   The pointing system includes a transmitter 1, a receiver 2, and an operator 3. The transmitter 1 is fixedly installed indoors and emits modulated sound (for example, ultrasonic waves) having directivity in a predetermined direction. The receiver 2 is a headset terminal device attached to the user's head and includes a plurality of microphones. The operation element 3 is a pointing device such as an electronic pen, and is used by the user to point to the object 41 or the object 42 with the hand. A speaker is attached to the operation element 3 and emits ultrasonic waves having a frequency different from that of the transmitter 1.

受信機2は、送信機1が出力する変調音声に基づいて自装置の向いている方位(基準方位からのずれ角)を検出するとともに、操作子3が出力する音声に基づいて自装置と操作子3との相対的方位(受信機2に対して操作子3がどの方位を向いているか)を検出する。受信機2は、自装置の方位と上記相対的方位から操作子3が指し示している絶対方位(基準方位からのずれ角)を検出する。送信機1が出力する変調音声には、対象物の方位に関する情報が含まれており、受信機2は、操作子3が指し示している絶対方位に対象物が存在すれば、当該対象物に関する情報(例えば音声案内等)をユーザに提供する。よって、本実施形態のポインティングシステムは、ユーザが操作子3で対象物を指し示すだけで、その対象物の情報を得られることができるものである。   The receiver 2 detects the azimuth (deviation angle from the reference azimuth) of the own device based on the modulated sound output from the transmitter 1 and operates with the own device based on the sound output from the operator 3. Relative orientation with respect to the child 3 (which orientation the operation element 3 faces with respect to the receiver 2) is detected. The receiver 2 detects the absolute azimuth (shift angle from the reference azimuth) indicated by the operator 3 from the azimuth of the device itself and the relative azimuth. The modulated sound output from the transmitter 1 includes information related to the direction of the object. If the object exists in the absolute direction indicated by the operation element 3, the receiver 2 is related to the object. (For example, voice guidance) is provided to the user. Therefore, the pointing system of the present embodiment can obtain information on an object simply by the user pointing to the object with the operation element 3.

以下、本実施形態のポインティングシステムの詳細な構成、動作について説明する。
受信機2は、ユーザの両耳に当接するスピーカ21L、スピーカ21Rを備えており、スピーカ21Lとスピーカ21Rは、ヘッドストラップ22でつながれている。ヘッドストラップ22上には、マイク23、マイク24、およびマイク25が設けられている。マイク23は左側に取り付けられ、マイク24は右側に取り付けられている。マイク25は中央部(頭頂位置)に取り付けられている。受信機2は、3つのマイクにおける変調音声の収音時間差に基づいて自装置の方位を検出する。詳細は後述する。
Hereinafter, a detailed configuration and operation of the pointing system of the present embodiment will be described.
The receiver 2 includes a speaker 21 </ b> L and a speaker 21 </ b> R that are in contact with both ears of the user, and the speaker 21 </ b> L and the speaker 21 </ b> R are connected by a head strap 22. On the head strap 22, a microphone 23, a microphone 24, and a microphone 25 are provided. The microphone 23 is attached to the left side, and the microphone 24 is attached to the right side. The microphone 25 is attached to the central portion (the top position). The receiver 2 detects the azimuth of its own device based on the difference in the sound collection times of the modulated sounds in the three microphones. Details will be described later.

図2(A)は送信機1の構成を示すブロック図であり、同図(B)は操作子3の構成を示すブロック図である。送信機1は、2チャンネルの音声を出力するものであり、各チャンネルについて対象物情報記憶部11、読出部12、変調器13、およびPN符号発生器14を備えている。各チャンネルの音声は、加算器15で加算され、スピーカ16から放音される。各チャンネルのPN符号発生器14は、それぞれ異なる系列のPN符号を発生する。なお、チャンネル数は2つに限るものではない。また、操作子3のPN符号発生器31も異なる系列のPN符号を発生し、スピーカ33から放音される。   FIG. 2A is a block diagram showing the configuration of the transmitter 1, and FIG. 2B is a block diagram showing the configuration of the operator 3. The transmitter 1 outputs two-channel audio, and includes an object information storage unit 11, a reading unit 12, a modulator 13, and a PN code generator 14 for each channel. The sound of each channel is added by the adder 15 and emitted from the speaker 16. The PN code generator 14 for each channel generates a different series of PN codes. Note that the number of channels is not limited to two. The PN code generator 31 of the operator 3 also generates a different series of PN codes and emits sound from the speaker 33.

送信機1の対象物情報記憶部11は、対象物に関する情報を記憶している。図3は、対象物情報記憶部11に記憶される情報の内容例を示した図である。チャンネル1の対象物情報記憶部11には、対象物41に関する情報が記憶され、チャンネル2の対象物情報記憶部11には、対象物42に関する情報が記憶されている。図3に示すように、対象物に関する情報には、名称、カテゴリ、優先度、詳細情報等が含まれている。対象物に関する情報のうち、名称は、その対象物の呼び名のテキストデータであり、本実施形態では対象物41の名称として「リンゴ」対象物42の名称として「ミカン」を記憶している。カテゴリは、対象物の種類を表す情報である。本実施形態では、対象物41および対象物42のカテゴリとして「果物」のカテゴリが記憶されている。優先度は、対象物の重要度を示す情報であり、受信機2にて、同時に2つの対象物が指し示されたときに、重要度の高いものから順に情報提供を行う。詳細情報は、その対象物の内容を詳細に示すガイド情報等であり、例えばテキストデータや音声データ等である。   The object information storage unit 11 of the transmitter 1 stores information related to the object. FIG. 3 is a diagram illustrating an example of the content of information stored in the object information storage unit 11. Information about the object 41 is stored in the object information storage unit 11 of the channel 1, and information about the object 42 is stored in the object information storage unit 11 of the channel 2. As shown in FIG. 3, information on the object includes a name, a category, a priority, detailed information, and the like. Of the information related to the object, the name is text data of the name of the object. In this embodiment, “apple” is stored as the name of the object 41, and “mandarin orange” is stored as the name of the object 42. The category is information representing the type of object. In the present embodiment, the category “fruit” is stored as the category of the object 41 and the object 42. The priority is information indicating the importance of the object. When two objects are pointed at the receiver 2 at the same time, information is provided in descending order of importance. The detailed information is guide information or the like that shows details of the object, and is, for example, text data or voice data.

なお、チャンネル1の対象物情報記憶部11には、送信機1の放音方位や対象物41および対象物42の方位に関する情報が記憶されている。これらの方位は基準方位(例えば真北)からのずれ角で表される。なお、チャンネル1だけでなく、全チャンネルにこれらの方位に関する情報が記憶されていてもよい。また、対象物の方位に関する情報は、対応する各チャンネルの対象物に関する情報に含まれていてもよい。   The object information storage unit 11 of the channel 1 stores information related to the sound emitting direction of the transmitter 1 and the directions of the object 41 and the object 42. These azimuths are represented by deviation angles from a reference azimuth (for example, true north). It should be noted that not only channel 1 but also information regarding these directions may be stored in all channels. Moreover, the information regarding the azimuth | direction of a target object may be contained in the information regarding the target object of each corresponding channel.

各チャンネルの読出部12は、対象物情報記憶部11に記憶されている上記各種情報を読み出し、変調器13に入力する。変調器13は、出力超音波を変調し、入力された各種情報を重畳する。また、変調器13は、PN符号発生器14から入力されるPN符号を超音波に重畳して出力する。   The readout unit 12 of each channel reads out the various information stored in the object information storage unit 11 and inputs the information to the modulator 13. The modulator 13 modulates the output ultrasonic wave and superimposes various input information. The modulator 13 superimposes and outputs the PN code input from the PN code generator 14 on the ultrasonic wave.

図4は、受信機2の構成を示すブロック図である。マイク23、マイク24、およびマイク25で収音された音声信号は、それぞれ復調器53、復調器54、および復調器55に入力される。また、復調器63、復調器64、および復調器65にもこれら音声信号が入力される。   FIG. 4 is a block diagram illustrating a configuration of the receiver 2. Audio signals collected by the microphone 23, the microphone 24, and the microphone 25 are input to the demodulator 53, the demodulator 54, and the demodulator 55, respectively. These audio signals are also input to the demodulator 63, demodulator 64, and demodulator 65.

復調器53、復調器54、および復調器55は、PN符号発生器51からチャンネル1のPN符号が入力される。復調器53、復調器54、および復調器55は、PN符号発生器51から入力されるPN符号と、入力音声信号との相関をとり、相関のピークタイミングを抽出する。復調器53、復調器54、および復調器55は、このピークタイミングを示す情報を自装置方位検出部56に出力する。このピークタイミングの時間差が各マイクの収音時間差に相当する。さらに、復調器55は、マイク25で収音した音声信号に重畳されている各種情報のうち方位に関する情報(放音方位)を復調し、自装置方位検出部56に出力する。なお、方位に関する情報は、他の復調器53や復調器54で復調してもよいが、ヘッドストラップ22の中央に設けられたマイク25が最も収音特性がよいと考えられるため、復調器55で復調することが望ましい。   The demodulator 53, the demodulator 54, and the demodulator 55 receive the PN code of channel 1 from the PN code generator 51. The demodulator 53, the demodulator 54, and the demodulator 55 correlate the PN code input from the PN code generator 51 and the input voice signal, and extract the peak timing of the correlation. The demodulator 53, the demodulator 54, and the demodulator 55 output information indicating the peak timing to the own apparatus direction detection unit 56. This time difference in peak timing corresponds to the sound collection time difference of each microphone. Further, the demodulator 55 demodulates information related to the direction (sound emitting direction) among various information superimposed on the audio signal collected by the microphone 25 and outputs the demodulated information to the own apparatus direction detection unit 56. Information about the direction may be demodulated by another demodulator 53 or demodulator 54. However, since the microphone 25 provided at the center of the head strap 22 is considered to have the best sound collection characteristics, the demodulator 55 It is desirable to demodulate with.

自装置方位検出部56は、復調器53、復調器54、および復調器55から入力されるピークタイミングの時間差に基づいて送信機1の放音方位に対する自装置の向き(相対角度Δθ)を算出する。算出した相対角度Δθに送信機1の放音方位を加算すると受信機2の方位(基準方位からのずれ角)を求めることができる。   The own apparatus direction detection unit 56 calculates the direction (relative angle Δθ) of the own apparatus with respect to the sound emitting direction of the transmitter 1 based on the time difference between the peak timings input from the demodulator 53, the demodulator 54, and the demodulator 55. To do. When the sound emitting azimuth of the transmitter 1 is added to the calculated relative angle Δθ, the azimuth of the receiver 2 (shift angle from the reference azimuth) can be obtained.

図5を参照して受信機2の方位検出手法について説明する。各マイクの収音時間差は、送信機との距離に対応する。図5(A)は、時間差に基づく距離を図示したものである。マイク24の収音タイミングT24とマイク23の収音タイミング23との時間差に基づく距離をΔLとし、マイク24の収音タイミングT24とマイク25の収音タイミング25との時間差に基づく距離をΔRとすると、
ΔL=(T23−T24)×V
ΔR=(T25−T24)×V
となる(ただしVは音速)。マイク23とマイク24との距離をLとすると、送信機1の放音方位と受信機2の方位との相対角度Δθは、
sinΔθ=ΔL/L
となり、Δθは、
Δθ=sin−1(ΔL/L) ・・・式1
となる。
The direction detection method of the receiver 2 will be described with reference to FIG. The difference in sound collection time of each microphone corresponds to the distance from the transmitter. FIG. 5A illustrates the distance based on the time difference. If the distance based on the time difference between the sound collection timing T24 of the microphone 24 and the sound collection timing 23 of the microphone 23 is ΔL, and the distance based on the time difference between the sound collection timing T24 of the microphone 24 and the sound collection timing 25 of the microphone 25 is ΔR. ,
ΔL = (T23−T24) × V
ΔR = (T25−T24) × V
(Where V is the speed of sound). When the distance between the microphone 23 and the microphone 24 is L, the relative angle Δθ between the sound emitting direction of the transmitter 1 and the direction of the receiver 2 is
sin Δθ = ΔL / L
And Δθ is
Δθ = sin −1 (ΔL / L) Equation 1
It becomes.

ただし、式1は、0°≦Δθ≦90°および270°≦Δθ≦360°の場合に成立する。相対角度Δθが90°≦Δθ≦270°の場合、
Δθ=sin−1(ΔL/L)+180° ・・・式2
となる。Δθが式1の範囲であるか式2の範囲であるかは、ΔRとΔL/2の大小関係で判定することができる。同図(B)に示すように、「0°≦Δθ≦90°および270°≦Δθ≦360°」の場合、ΔR>ΔL/2であり、「90°≦Δθ≦270°」の場合、ΔR<ΔL/2である。この判定により、同図(C)に示すようなΔLが同じで向きが異なる2つの態様を区別することができる。
However, Formula 1 is established when 0 ° ≦ Δθ ≦ 90 ° and 270 ° ≦ Δθ ≦ 360 °. When the relative angle Δθ is 90 ° ≦ Δθ ≦ 270 °,
Δθ = sin −1 (ΔL / L) + 180 ° Formula 2
It becomes. Whether Δθ is in the range of Formula 1 or Formula 2 can be determined by the magnitude relationship between ΔR and ΔL / 2. As shown in FIG. 4B, when “0 ° ≦ Δθ ≦ 90 ° and 270 ° ≦ Δθ ≦ 360 °”, ΔR> ΔL / 2, and when “90 ° ≦ Δθ ≦ 270 °”, ΔR <ΔL / 2. By this determination, it is possible to distinguish two modes having the same ΔL and different directions as shown in FIG.

自装置方位検出部56は、上述のようにして算出した相対角度Δθに放音方位θsを加算することで受信機2の方位θを求めることができる。算出した受信機2の方位θの情報は、制御部58に入力される。   The own apparatus direction detection unit 56 can obtain the direction θ of the receiver 2 by adding the sound emitting direction θs to the relative angle Δθ calculated as described above. Information on the calculated orientation θ of the receiver 2 is input to the control unit 58.

また、図4において、復調器63、復調器64、および復調器65についても、PN符号発生器50から入力されるPN符号と、入力音声信号との相関をとり、相関のピークタイミングを抽出する。PN符号発生器50が出力するPN符号は、操作子3のPN符号発生器31と同じPN符号である。復調器63、復調器64、および復調器65は、抽出したピークタイミングを示す情報を操作子方位検出部66に出力する。操作子方位検出部66は、図5に示した手法を用いて、受信機2と操作子3との相対的方位θpを検出する。θp=0°で操作子3が受信機2の正面に存在しているとする。この相対的方位θpの情報も制御部58に入力される。   In FIG. 4, the demodulator 63, the demodulator 64, and the demodulator 65 also correlate the PN code input from the PN code generator 50 and the input voice signal, and extract the correlation peak timing. . The PN code output from the PN code generator 50 is the same PN code as the PN code generator 31 of the operator 3. The demodulator 63, demodulator 64, and demodulator 65 output information indicating the extracted peak timing to the operator orientation detection unit 66. The operating element direction detection unit 66 detects the relative direction θp between the receiver 2 and the operating element 3 using the method shown in FIG. It is assumed that the control 3 is present in front of the receiver 2 at θp = 0 °. Information on the relative orientation θp is also input to the control unit 58.

制御部58は、入力された相対的方位θpに応じて単眼ディスプレイ26に図6に示すようなターゲットアイコンを表示する。単眼ディスプレイ26の画面中央部は、相対的方位θp=0°に対応しており、画面右端は相対的方位θp=280°に対応しており、画面左端は相対的方位θp=80°に対応している。よって、制御部58は、入力された相対的方位θpに対応する画面内の位置にターゲットアイコンを表示する。操作子3が移動した場合、制御部58はターゲットアイコンも移動させて表示する。   The control unit 58 displays a target icon as shown in FIG. 6 on the monocular display 26 according to the input relative orientation θp. The center of the screen of the monocular display 26 corresponds to the relative orientation θp = 0 °, the right end of the screen corresponds to the relative orientation θp = 280 °, and the left end of the screen corresponds to the relative orientation θp = 80 °. is doing. Therefore, the control unit 58 displays the target icon at a position in the screen corresponding to the input relative orientation θp. When the operation element 3 moves, the control unit 58 also moves and displays the target icon.

なお、本実施形態では、3つのマイクにより、方位だけを検出している例を示しているが、図5に示した手法で高さ方向の角度も検出することができる。その場合、操作子3の移動に応じて、単眼ディスプレイ26の画面内のターゲットアイコンも上下方向に移動するようにすればよい。   In the present embodiment, an example in which only the azimuth is detected by three microphones is shown, but the angle in the height direction can also be detected by the method shown in FIG. In that case, the target icon in the screen of the monocular display 26 may be moved in the vertical direction in accordance with the movement of the operator 3.

このように、単眼ディスプレイ26の画面内にターゲットアイコンを表示することで、ユーザが操作子3を用いて対象物を指し示す際の目安となる。ターゲットアイコンの大きさは、対象物の探査範囲(例えば±3°)として設定される。   Thus, by displaying the target icon in the screen of the monocular display 26, it becomes a standard when the user points to the object using the operation element 3. The size of the target icon is set as an object search range (for example, ± 3 °).

次に、制御部58は、操作子方位検出部66から入力された相対的方位θpと、自装置方位検出部56から入力された自装置の方位θとを加算し、操作子3の絶対方位(基準方位からのずれ角)を求める。制御部58には、復調器55から各対象物の方位に関する情報が入力される。すなわち、復調器55は、マイク25で収音した音声信号に重畳されている各種情報のうち対象物の方位に関する情報を復調し、制御部58に出力する。制御部58は、復調器55から入力した各対象物の方位に関する情報と、上記操作子3の絶対方位を比較し、操作子3の絶対方位近傍(上記ターゲットアイコンの範囲内である±3°)に対象物の方位が該当すると判断した場合、その対象物のチャンネル(例えば対象物42であればチャンネル2)を選択する。   Next, the control unit 58 adds the relative orientation θp input from the operator orientation detection unit 66 and the orientation θ of the own device input from the own device orientation detection unit 56, and the absolute orientation of the operator 3 Determine the deviation angle from the reference orientation. Information on the orientation of each object is input from the demodulator 55 to the control unit 58. That is, the demodulator 55 demodulates information related to the orientation of the object among various information superimposed on the audio signal collected by the microphone 25 and outputs the demodulated information to the control unit 58. The control unit 58 compares the information regarding the orientation of each object input from the demodulator 55 with the absolute orientation of the operation element 3, and near the absolute orientation of the operation element 3 (± 3 ° within the range of the target icon). ), The channel of the object (for example, channel 2 for the object 42) is selected.

制御部58は、選択したチャンネルに関する情報を復調器59に出力する。復調器59は、選択されたチャンネルの情報を復調する。復調された情報は、制御部58に入力される。   The control unit 58 outputs information regarding the selected channel to the demodulator 59. The demodulator 59 demodulates information on the selected channel. The demodulated information is input to the control unit 58.

制御部58は、入力された情報から、単眼ディスプレイ26に各種情報を表示する。例えば、図6(B)に示すように、操作子3の絶対方位近傍に対象物41の方位が該当し、チャンネル1が選択され、チャンネル1の各種情報が入力された場合、チャンネル1に関する情報ウインドウを表示する。例えば、「この方位に「リンゴ」があります。詳細情報を表示しますか?」等と表示する。   The control unit 58 displays various information on the monocular display 26 from the input information. For example, as shown in FIG. 6B, when the orientation of the object 41 corresponds to the vicinity of the absolute orientation of the operation element 3, channel 1 is selected, and various information of channel 1 is input, information on channel 1 Display the window. For example, “There are“ apples ”in this direction. Do you want to display detailed information? Or the like.

ここで、ユーザが操作子3のスイッチ32を操作した場合、制御部58は、対象物41の詳細情報を表示する。詳細情報が音声データであった場合、制御部58は、音声データを音声処理部71に出力し、音声処理部71がスピーカ21Lおよびスピーカ21Rから放音する。なお、詳細情報がテキストデータであった場合、単眼ディスプレイ26に表示するのみならず、音声処理部71が当該テキストデータから音声合成を行い、放音するようにしてもよい。   Here, when the user operates the switch 32 of the operation element 3, the control unit 58 displays detailed information of the object 41. When the detailed information is audio data, the control unit 58 outputs the audio data to the audio processing unit 71, and the audio processing unit 71 emits sound from the speaker 21L and the speaker 21R. In addition, when detailed information is text data, not only it displays on the monocular display 26, but the audio | voice processing part 71 may synthesize | combine audio | voice from the said text data, and you may make it emit a sound.

なお、操作子3のスイッチ操作の検出手法は、どのようなものであってもよいが、例えば以下のようにして行う。すなわち、操作子3のPN符号発生器31は、スイッチ32が操作されたとき、出力する音声の周波数を変更する。受信機2では、操作子3が出力する音声の周波数変化を検出し、周波数変化があった場合にスイッチ32が操作されたと判断する。   In addition, although any detection method of the switch operation of the operation element 3 may be used, for example, it is performed as follows. That is, the PN code generator 31 of the operator 3 changes the frequency of the sound to be output when the switch 32 is operated. The receiver 2 detects the frequency change of the sound output from the operation element 3 and determines that the switch 32 has been operated when the frequency change occurs.

また、スイッチがなくとも、ユーザの操作を検出することが可能である。例えば受信機2において、操作子3が出力する音声の周波数変化を検出し、周波数が高くなった場合、操作子3が近づいたと判断する。操作子3が近づくと、ドップラー効果により周波数が高くなるためである。同様に、周波数が低くなった場合、操作子3が遠ざかったと判断する。この周波数偏移の速度、量、時間等を検出することで、操作子3の操作態様を検出することができる。例えば遠ざかる方向へ素早く振った場合にユーザの選択操作があったとすればよい。   Further, it is possible to detect a user operation without a switch. For example, in the receiver 2, the frequency change of the sound output from the operation element 3 is detected, and when the frequency becomes higher, it is determined that the operation element 3 has approached. This is because the frequency increases due to the Doppler effect when the operating element 3 approaches. Similarly, when the frequency becomes low, it is determined that the operation element 3 has moved away. By detecting the speed, amount, time, and the like of this frequency shift, the operation mode of the operation element 3 can be detected. For example, it is only necessary that the user performs a selection operation when the user quickly shakes away.

なお、図6(C)に示すように、対象物41と対象物42が同じような方位に存在した場合、各チャンネルのうち重要度の高いものから順に情報提供を行うようにする。この場合、単眼ディスプレイ26には、重要度の高いものから順に情報ウインドウを表示し、順に優先度の低いものの情報ウインドウを表示する(サイクリック表示をする)ようにすればよい。   As shown in FIG. 6C, when the object 41 and the object 42 are present in the same direction, information is provided in order from the most important channel. In this case, the monocular display 26 may be configured to display information windows in descending order of importance, and display information windows having low priority in order (cyclic display).

以上のように、本実施形態のポインティングシステムでは、音声だけで操作子が指し示す方位を検出することができる。そのため、誤検出が少なく、処理負荷も低く、コストを抑えることもできる。また、ユーザが手に持つ操作子で直接対象物を指し示すことができ、より直感的に対象物を指し示すことができる。   As described above, in the pointing system according to the present embodiment, it is possible to detect the azimuth indicated by the operation element only by voice. Therefore, there are few false detections, the processing load is low, and the cost can be suppressed. In addition, the object can be pointed directly with an operator held by the user, and the object can be pointed more intuitively.

ポインティングシステムの全体構成を示す図である。It is a figure which shows the whole structure of a pointing system. 送信機の構成を示すブロック図である。It is a block diagram which shows the structure of a transmitter. 対象物情報記憶部11に記憶される情報の内容例を示した図である。It is the figure which showed the example of the content of the information memorize | stored in the target object information storage part. 受信機の構成を示すブロック図である。It is a block diagram which shows the structure of a receiver. 受信機2の方位検出手法について説明する図である。It is a figure explaining the direction detection method of the receiver. 単眼ディスプレイ26に表示される各種情報の内容を示した図である。It is the figure which showed the content of the various information displayed on the monocular display.

符号の説明Explanation of symbols

1−送信機
2−受信機
3−操作子
1-transmitter 2-receiver 3-controller

Claims (2)

送信機、受信機、およびユーザが対象物を指し示すための操作子、を備えたポインティングシステムであって、
前記送信機は、放音方位を示す情報を重畳した送信側音声を放音する送信側放音手段を備え、
前記操作子は、操作子側音声を放音する操作子側放音手段を備え、
前記受信機は、音声を収音する複数の収音手段と、
収音した送信側音声から前記放音方位を示す情報を復調する復調手段と、
前記復調手段で復調した放音方位を示す情報、および前記複数の収音手段で収音した送信側音声の収音時間差に基づいて、自装置が向いている方位を検出する自装置方位検出手段と、
前記複数の収音手段で収音した操作子側音声の収音時間差に基づいて、自装置と操作子の相対方位を検出する操作子方位検出手段と、
自装置が向いている方位、および前記操作子の相対方位に基づいて前記操作子が指し示す方位を検出する操作子位置検出手段と、
を備えたポインティングシステム。
A pointing system comprising a transmitter, a receiver, and an operator for a user to point to an object,
The transmitter includes a transmission-side sound emitting means for emitting a transmission-side sound on which information indicating a sound emission direction is superimposed,
The operation element includes an operation element side sound emitting means for emitting an operation element side sound,
The receiver includes a plurality of sound collecting means for collecting sound;
Demodulating means for demodulating information indicating the sound emitting direction from the collected transmission side voice;
Self-device azimuth detecting means for detecting the azimuth in which the self-device is directed based on information indicating the sound emitting direction demodulated by the demodulating means and the sound collection time difference of the transmitting side sound collected by the plurality of sound collecting means When,
Based on the sound collection time difference of the operator side sound collected by the plurality of sound collection means, the operator orientation detection means for detecting the relative orientation of the own device and the operator,
Operating element position detecting means for detecting an azimuth directed by the operating element based on an azimuth facing the own device and a relative azimuth of the operating element;
Pointing system with
前記送信機の送信側放音手段は、対象物の方位、および当該対象物に関する情報を前記送信側音声に重畳して放音し、
前記受信機の復調手段は、前記収音手段で収音した送信側音声から前記対象物の方位および前記対象物に関する情報を復調し、
前記受信機は、前記操作子が指し示す方位が前記対象物の方位に合致する場合に、前記対象物に関する情報を再生する再生手段をさらに備えた請求項1に記載のポインティングシステム。
The transmitter-side sound emitting means of the transmitter emits a sound by superimposing the direction of the object and information on the object on the transmitter-side voice,
The demodulating means of the receiver demodulates the direction of the object and the information on the object from the transmission side sound collected by the sound collecting means,
The pointing system according to claim 1, wherein the receiver further includes a reproducing unit that reproduces information related to the object when the direction indicated by the operator matches the direction of the object.
JP2008328942A 2008-12-25 2008-12-25 Pointing system Expired - Fee Related JP5245808B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008328942A JP5245808B2 (en) 2008-12-25 2008-12-25 Pointing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008328942A JP5245808B2 (en) 2008-12-25 2008-12-25 Pointing system

Publications (2)

Publication Number Publication Date
JP2010152570A true JP2010152570A (en) 2010-07-08
JP5245808B2 JP5245808B2 (en) 2013-07-24

Family

ID=42571602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008328942A Expired - Fee Related JP5245808B2 (en) 2008-12-25 2008-12-25 Pointing system

Country Status (1)

Country Link
JP (1) JP5245808B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506035A (en) * 2011-12-19 2015-02-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated Gesture control voice user interface
WO2017221721A1 (en) * 2016-06-22 2017-12-28 ソニー株式会社 Information processing device, information processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS623318A (en) * 1985-06-28 1987-01-09 Canon Inc Coordinate detector
JPH086703A (en) * 1994-06-22 1996-01-12 Hitachi Ltd Remote input device
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2003044213A (en) * 2001-07-31 2003-02-14 Canon Inc Input indicator for coordinate input device, and coordinate input device
JP2005311974A (en) * 2004-04-26 2005-11-04 Yamaha Corp Sound image localizing terminal
JP2008065675A (en) * 2006-09-08 2008-03-21 Ritsumeikan Mixed reality system, event input method thereof, and head mounted display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS623318A (en) * 1985-06-28 1987-01-09 Canon Inc Coordinate detector
JPH086703A (en) * 1994-06-22 1996-01-12 Hitachi Ltd Remote input device
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2003044213A (en) * 2001-07-31 2003-02-14 Canon Inc Input indicator for coordinate input device, and coordinate input device
JP2005311974A (en) * 2004-04-26 2005-11-04 Yamaha Corp Sound image localizing terminal
JP2008065675A (en) * 2006-09-08 2008-03-21 Ritsumeikan Mixed reality system, event input method thereof, and head mounted display

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506035A (en) * 2011-12-19 2015-02-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated Gesture control voice user interface
US9563278B2 (en) 2011-12-19 2017-02-07 Qualcomm Incorporated Gesture controlled audio user interface
WO2017221721A1 (en) * 2016-06-22 2017-12-28 ソニー株式会社 Information processing device, information processing method, and program
US10922043B2 (en) 2016-06-22 2021-02-16 Sony Corporation Information processing device and information processing method for acquiring information associated with a target

Also Published As

Publication number Publication date
JP5245808B2 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
US8391789B2 (en) Apparatus for facilitating peripheral device selection
US9110517B2 (en) System and method for generating screen pointing information in a television
US7403112B2 (en) Search device for locating a transmitter, in particular an avalanche-victim search device
JP5255674B2 (en) Data transmission operation device and data transmission control method
US11812235B2 (en) Distributed audio capture and mixing controlling
US20160049150A1 (en) Speech recognition method and speech recognition device
US20160062488A1 (en) Three-dimensional air mouse and display used together therewith
JP2018526622A (en) Robot voice search rotation system and method
JP2012057963A (en) Target detection system, detection method, and detection information processing program
JP2009194447A (en) Remote controller position detection device, remote controller position detection system, remote controller position detection method, and program
JP5245808B2 (en) Pointing system
CN112098943A (en) Positioning method of wearable device and intelligent device
JP2009204347A (en) Ultrasonic position recognition system
KR20190124029A (en) Thermal image sensor device and electric apparatus including the same
US7672809B2 (en) Object tracker
KR100470437B1 (en) A method for detecting a sound source and for controlling a position in monitoring system
JP5272725B2 (en) Information guidance system
CN112098930A (en) Method for searching vehicle and intelligent equipment
CN112098935A (en) Method for searching intelligent equipment and intelligent equipment
CN112098929A (en) Method, device and system for determining relative angle between intelligent devices and intelligent devices
CN216083926U (en) Distance prompt terminal
CN112100526B (en) Method and device for identifying intelligent equipment
JP2010034769A (en) Remote-control transmitter/receiver, and remote-control transmitter and remote-control receiver respectively used in the same
JP2010187155A (en) Reception device
KR100916497B1 (en) Method for sound source tracking and home network system using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130325

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees