JP2010152570A - Pointing system - Google Patents
Pointing system Download PDFInfo
- Publication number
- JP2010152570A JP2010152570A JP2008328942A JP2008328942A JP2010152570A JP 2010152570 A JP2010152570 A JP 2010152570A JP 2008328942 A JP2008328942 A JP 2008328942A JP 2008328942 A JP2008328942 A JP 2008328942A JP 2010152570 A JP2010152570 A JP 2010152570A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- azimuth
- information
- operator
- receiver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
この発明は、対象物を指し示す操作子(ポインティングデバイス)を備えたポインティングシステムに関する。 The present invention relates to a pointing system including an operation element (pointing device) for pointing an object.
従来、ユーザが指し示した対象物(現実上の物体)に対応した情報(例えば画像情報、テキスト情報、音声情報等)をユーザに提供する装置が提案されている(例えば特許文献1参照)。
しかし、特許文献1の装置においては、視界内の対象物の認識をCCDカメラによる画像認識で行っている。また、対象物の位置検出は、赤外線ビーコンおよびIRセンサを用いて行っている。そのため、誤検出も多く、処理負荷が高いという問題があった。また、光センサ関係の部品点数も多く、コストがかかるという問題もあった。
However, in the apparatus of
さらに、対象物を指し示すための操作は、マウスを用いて画面上のポインタを移動させることで行っており、対象物を直感的に指し示すことができなかった。 Furthermore, the operation for pointing the object is performed by moving the pointer on the screen using the mouse, and the object cannot be pointed intuitively.
そこで、この発明は、対象物をより直感的に指し示すことができるポインティングシステムを提供することを目的とする。 Accordingly, an object of the present invention is to provide a pointing system capable of pointing an object more intuitively.
この発明のポインティングシステムは、送信機、受信機、およびユーザが対象物を指し示すための操作子を備えている。送信機は、放音方位を示す情報を重畳した送信側音声を放音する送信側放音手段を備え、操作子は、操作子側音声を放音する操作子側放音手段を備えている。放音方位を示す情報とは、ある基準方位からのずれ角である。 The pointing system of the present invention includes a transmitter, a receiver, and an operator for a user to point to an object. The transmitter includes a transmission-side sound emitting unit that emits a transmission-side sound on which information indicating a sound emitting direction is superimposed, and the operator includes an operator-side sound emitting unit that emits an operator-side sound. . The information indicating the sound emitting direction is a deviation angle from a certain reference direction.
受信機は、音声を収音する複数の収音手段(マイク)と、収音した送信側音声から前記放音方位を示す情報を復調する復調手段を備えている。さらに、受信機は、復調した放音方位を示す情報、および各マイクの送信側音声の収音時間差に基づいて、自装置が向いている方位を検出する自装置方位検出手段を備えている。例えば2つのマイクの収音時間差を求めることで、送信機と受信機の相対的な方位を求めることができ、送信機の放音方位を示す情報から自装置の向き(基準方位からのずれ角)を求めることができる。 The receiver includes a plurality of sound collecting means (microphones) for collecting sound and a demodulating means for demodulating information indicating the sound emitting direction from the collected transmission side sound. Further, the receiver includes own device direction detecting means for detecting the direction in which the own device is directed based on the information indicating the demodulated sound emitting direction and the sound collection time difference of the transmission side sound of each microphone. For example, by obtaining the difference in sound collection time between two microphones, the relative orientation of the transmitter and the receiver can be obtained, and the direction of the device (the deviation angle from the reference orientation) is obtained from information indicating the sound emitting direction of the transmitter. ).
また、受信機は、各マイクの操作子側音声の収音時間差に基づいて、自装置と操作子の相対方位を検出する操作子方位検出手段を備えている。そして、受信機は、自装置が向いている方位、および前記操作子の相対方位に基づいて前記操作子が指し示す方位を検出する。つまり、自装置および操作子の向きをそれぞれ検出することができ、操作子の指し示す方位を検出することができる。 In addition, the receiver includes operating element direction detecting means for detecting the relative direction between the own apparatus and the operating element based on the sound collection time difference between the operating element side sounds of the microphones. Then, the receiver detects the azimuth pointed to by the manipulator based on the azimuth that the device is facing and the relative azimuth of the manipulator. That is, the orientations of the own device and the operation element can be detected, and the direction indicated by the operation element can be detected.
このように、音声だけで操作子が指し示す方位を検出することができるため、誤検出が少なく、処理負荷も低く、さらにコストを抑えることもできる。また、ユーザが手に持つ操作子で直接対象物を指し示すことができ、より直感的に対象物を指し示すことができる。 In this way, since the azimuth pointed by the operator can be detected only by voice, there are few false detections, the processing load is low, and the cost can be further reduced. In addition, the object can be pointed directly with an operator held by the user, and the object can be pointed more intuitively.
また、送信機の送信側放音手段は、対象物の方位、および当該対象物に関する情報を前記送信側音声に重畳して放音してもよい。この場合、受信機の復調手段は、対象物の方位および対象物に関する情報を復調する。そして、受信機は、操作子が指し示す方位が対象物の方位に合致する場合に、その対象物に関する情報を再生する。 Moreover, the transmission-side sound emitting means of the transmitter may emit the sound by superimposing the direction of the object and information on the object on the transmission-side sound. In this case, the demodulating means of the receiver demodulates information about the direction of the object and the object. Then, the receiver reproduces information about the target object when the direction indicated by the operation element matches the direction of the target object.
この発明によれば、音声だけでポインティングデバイスの位置を検出することができ、対象物をより直感的に指し示すことができる。 According to the present invention, the position of the pointing device can be detected only by voice, and the object can be pointed more intuitively.
本発明のポインティングシステムに係る実施形態について説明する。図1は、ポインティングシステムの全体構成を示す図である。 An embodiment according to the pointing system of the present invention will be described. FIG. 1 is a diagram illustrating an overall configuration of a pointing system.
ポインティングシステムは、送信機1、受信機2、および操作子3からなる。送信機1は、室内に固定設置されており、所定の方位に指向性を有する変調音声(例えば超音波)を放音する。受信機2は、ユーザの頭部に取り付けるヘッドセット状の端末装置であり、複数のマイクを備えている。操作子3は、電子ペン等のポインティングデバイスであり、ユーザが手に持って対象物41や対象物42を指し示すためのものである。操作子3にはスピーカが取り付けられており、送信機1とは異なる周波数の超音波を放音する。
The pointing system includes a
受信機2は、送信機1が出力する変調音声に基づいて自装置の向いている方位(基準方位からのずれ角)を検出するとともに、操作子3が出力する音声に基づいて自装置と操作子3との相対的方位(受信機2に対して操作子3がどの方位を向いているか)を検出する。受信機2は、自装置の方位と上記相対的方位から操作子3が指し示している絶対方位(基準方位からのずれ角)を検出する。送信機1が出力する変調音声には、対象物の方位に関する情報が含まれており、受信機2は、操作子3が指し示している絶対方位に対象物が存在すれば、当該対象物に関する情報(例えば音声案内等)をユーザに提供する。よって、本実施形態のポインティングシステムは、ユーザが操作子3で対象物を指し示すだけで、その対象物の情報を得られることができるものである。
The
以下、本実施形態のポインティングシステムの詳細な構成、動作について説明する。
受信機2は、ユーザの両耳に当接するスピーカ21L、スピーカ21Rを備えており、スピーカ21Lとスピーカ21Rは、ヘッドストラップ22でつながれている。ヘッドストラップ22上には、マイク23、マイク24、およびマイク25が設けられている。マイク23は左側に取り付けられ、マイク24は右側に取り付けられている。マイク25は中央部(頭頂位置)に取り付けられている。受信機2は、3つのマイクにおける変調音声の収音時間差に基づいて自装置の方位を検出する。詳細は後述する。
Hereinafter, a detailed configuration and operation of the pointing system of the present embodiment will be described.
The
図2(A)は送信機1の構成を示すブロック図であり、同図(B)は操作子3の構成を示すブロック図である。送信機1は、2チャンネルの音声を出力するものであり、各チャンネルについて対象物情報記憶部11、読出部12、変調器13、およびPN符号発生器14を備えている。各チャンネルの音声は、加算器15で加算され、スピーカ16から放音される。各チャンネルのPN符号発生器14は、それぞれ異なる系列のPN符号を発生する。なお、チャンネル数は2つに限るものではない。また、操作子3のPN符号発生器31も異なる系列のPN符号を発生し、スピーカ33から放音される。
FIG. 2A is a block diagram showing the configuration of the
送信機1の対象物情報記憶部11は、対象物に関する情報を記憶している。図3は、対象物情報記憶部11に記憶される情報の内容例を示した図である。チャンネル1の対象物情報記憶部11には、対象物41に関する情報が記憶され、チャンネル2の対象物情報記憶部11には、対象物42に関する情報が記憶されている。図3に示すように、対象物に関する情報には、名称、カテゴリ、優先度、詳細情報等が含まれている。対象物に関する情報のうち、名称は、その対象物の呼び名のテキストデータであり、本実施形態では対象物41の名称として「リンゴ」対象物42の名称として「ミカン」を記憶している。カテゴリは、対象物の種類を表す情報である。本実施形態では、対象物41および対象物42のカテゴリとして「果物」のカテゴリが記憶されている。優先度は、対象物の重要度を示す情報であり、受信機2にて、同時に2つの対象物が指し示されたときに、重要度の高いものから順に情報提供を行う。詳細情報は、その対象物の内容を詳細に示すガイド情報等であり、例えばテキストデータや音声データ等である。
The object
なお、チャンネル1の対象物情報記憶部11には、送信機1の放音方位や対象物41および対象物42の方位に関する情報が記憶されている。これらの方位は基準方位(例えば真北)からのずれ角で表される。なお、チャンネル1だけでなく、全チャンネルにこれらの方位に関する情報が記憶されていてもよい。また、対象物の方位に関する情報は、対応する各チャンネルの対象物に関する情報に含まれていてもよい。
The object
各チャンネルの読出部12は、対象物情報記憶部11に記憶されている上記各種情報を読み出し、変調器13に入力する。変調器13は、出力超音波を変調し、入力された各種情報を重畳する。また、変調器13は、PN符号発生器14から入力されるPN符号を超音波に重畳して出力する。
The
図4は、受信機2の構成を示すブロック図である。マイク23、マイク24、およびマイク25で収音された音声信号は、それぞれ復調器53、復調器54、および復調器55に入力される。また、復調器63、復調器64、および復調器65にもこれら音声信号が入力される。
FIG. 4 is a block diagram illustrating a configuration of the
復調器53、復調器54、および復調器55は、PN符号発生器51からチャンネル1のPN符号が入力される。復調器53、復調器54、および復調器55は、PN符号発生器51から入力されるPN符号と、入力音声信号との相関をとり、相関のピークタイミングを抽出する。復調器53、復調器54、および復調器55は、このピークタイミングを示す情報を自装置方位検出部56に出力する。このピークタイミングの時間差が各マイクの収音時間差に相当する。さらに、復調器55は、マイク25で収音した音声信号に重畳されている各種情報のうち方位に関する情報(放音方位)を復調し、自装置方位検出部56に出力する。なお、方位に関する情報は、他の復調器53や復調器54で復調してもよいが、ヘッドストラップ22の中央に設けられたマイク25が最も収音特性がよいと考えられるため、復調器55で復調することが望ましい。
The
自装置方位検出部56は、復調器53、復調器54、および復調器55から入力されるピークタイミングの時間差に基づいて送信機1の放音方位に対する自装置の向き(相対角度Δθ)を算出する。算出した相対角度Δθに送信機1の放音方位を加算すると受信機2の方位(基準方位からのずれ角)を求めることができる。
The own apparatus
図5を参照して受信機2の方位検出手法について説明する。各マイクの収音時間差は、送信機との距離に対応する。図5(A)は、時間差に基づく距離を図示したものである。マイク24の収音タイミングT24とマイク23の収音タイミング23との時間差に基づく距離をΔLとし、マイク24の収音タイミングT24とマイク25の収音タイミング25との時間差に基づく距離をΔRとすると、
ΔL=(T23−T24)×V
ΔR=(T25−T24)×V
となる(ただしVは音速)。マイク23とマイク24との距離をLとすると、送信機1の放音方位と受信機2の方位との相対角度Δθは、
sinΔθ=ΔL/L
となり、Δθは、
Δθ=sin−1(ΔL/L) ・・・式1
となる。
The direction detection method of the
ΔL = (T23−T24) × V
ΔR = (T25−T24) × V
(Where V is the speed of sound). When the distance between the
sin Δθ = ΔL / L
And Δθ is
Δθ = sin −1 (ΔL / L)
It becomes.
ただし、式1は、0°≦Δθ≦90°および270°≦Δθ≦360°の場合に成立する。相対角度Δθが90°≦Δθ≦270°の場合、
Δθ=sin−1(ΔL/L)+180° ・・・式2
となる。Δθが式1の範囲であるか式2の範囲であるかは、ΔRとΔL/2の大小関係で判定することができる。同図(B)に示すように、「0°≦Δθ≦90°および270°≦Δθ≦360°」の場合、ΔR>ΔL/2であり、「90°≦Δθ≦270°」の場合、ΔR<ΔL/2である。この判定により、同図(C)に示すようなΔLが同じで向きが異なる2つの態様を区別することができる。
However,
Δθ = sin −1 (ΔL / L) + 180 °
It becomes. Whether Δθ is in the range of
自装置方位検出部56は、上述のようにして算出した相対角度Δθに放音方位θsを加算することで受信機2の方位θを求めることができる。算出した受信機2の方位θの情報は、制御部58に入力される。
The own apparatus
また、図4において、復調器63、復調器64、および復調器65についても、PN符号発生器50から入力されるPN符号と、入力音声信号との相関をとり、相関のピークタイミングを抽出する。PN符号発生器50が出力するPN符号は、操作子3のPN符号発生器31と同じPN符号である。復調器63、復調器64、および復調器65は、抽出したピークタイミングを示す情報を操作子方位検出部66に出力する。操作子方位検出部66は、図5に示した手法を用いて、受信機2と操作子3との相対的方位θpを検出する。θp=0°で操作子3が受信機2の正面に存在しているとする。この相対的方位θpの情報も制御部58に入力される。
In FIG. 4, the
制御部58は、入力された相対的方位θpに応じて単眼ディスプレイ26に図6に示すようなターゲットアイコンを表示する。単眼ディスプレイ26の画面中央部は、相対的方位θp=0°に対応しており、画面右端は相対的方位θp=280°に対応しており、画面左端は相対的方位θp=80°に対応している。よって、制御部58は、入力された相対的方位θpに対応する画面内の位置にターゲットアイコンを表示する。操作子3が移動した場合、制御部58はターゲットアイコンも移動させて表示する。
The
なお、本実施形態では、3つのマイクにより、方位だけを検出している例を示しているが、図5に示した手法で高さ方向の角度も検出することができる。その場合、操作子3の移動に応じて、単眼ディスプレイ26の画面内のターゲットアイコンも上下方向に移動するようにすればよい。
In the present embodiment, an example in which only the azimuth is detected by three microphones is shown, but the angle in the height direction can also be detected by the method shown in FIG. In that case, the target icon in the screen of the
このように、単眼ディスプレイ26の画面内にターゲットアイコンを表示することで、ユーザが操作子3を用いて対象物を指し示す際の目安となる。ターゲットアイコンの大きさは、対象物の探査範囲(例えば±3°)として設定される。
Thus, by displaying the target icon in the screen of the
次に、制御部58は、操作子方位検出部66から入力された相対的方位θpと、自装置方位検出部56から入力された自装置の方位θとを加算し、操作子3の絶対方位(基準方位からのずれ角)を求める。制御部58には、復調器55から各対象物の方位に関する情報が入力される。すなわち、復調器55は、マイク25で収音した音声信号に重畳されている各種情報のうち対象物の方位に関する情報を復調し、制御部58に出力する。制御部58は、復調器55から入力した各対象物の方位に関する情報と、上記操作子3の絶対方位を比較し、操作子3の絶対方位近傍(上記ターゲットアイコンの範囲内である±3°)に対象物の方位が該当すると判断した場合、その対象物のチャンネル(例えば対象物42であればチャンネル2)を選択する。
Next, the
制御部58は、選択したチャンネルに関する情報を復調器59に出力する。復調器59は、選択されたチャンネルの情報を復調する。復調された情報は、制御部58に入力される。
The
制御部58は、入力された情報から、単眼ディスプレイ26に各種情報を表示する。例えば、図6(B)に示すように、操作子3の絶対方位近傍に対象物41の方位が該当し、チャンネル1が選択され、チャンネル1の各種情報が入力された場合、チャンネル1に関する情報ウインドウを表示する。例えば、「この方位に「リンゴ」があります。詳細情報を表示しますか?」等と表示する。
The
ここで、ユーザが操作子3のスイッチ32を操作した場合、制御部58は、対象物41の詳細情報を表示する。詳細情報が音声データであった場合、制御部58は、音声データを音声処理部71に出力し、音声処理部71がスピーカ21Lおよびスピーカ21Rから放音する。なお、詳細情報がテキストデータであった場合、単眼ディスプレイ26に表示するのみならず、音声処理部71が当該テキストデータから音声合成を行い、放音するようにしてもよい。
Here, when the user operates the
なお、操作子3のスイッチ操作の検出手法は、どのようなものであってもよいが、例えば以下のようにして行う。すなわち、操作子3のPN符号発生器31は、スイッチ32が操作されたとき、出力する音声の周波数を変更する。受信機2では、操作子3が出力する音声の周波数変化を検出し、周波数変化があった場合にスイッチ32が操作されたと判断する。
In addition, although any detection method of the switch operation of the
また、スイッチがなくとも、ユーザの操作を検出することが可能である。例えば受信機2において、操作子3が出力する音声の周波数変化を検出し、周波数が高くなった場合、操作子3が近づいたと判断する。操作子3が近づくと、ドップラー効果により周波数が高くなるためである。同様に、周波数が低くなった場合、操作子3が遠ざかったと判断する。この周波数偏移の速度、量、時間等を検出することで、操作子3の操作態様を検出することができる。例えば遠ざかる方向へ素早く振った場合にユーザの選択操作があったとすればよい。
Further, it is possible to detect a user operation without a switch. For example, in the
なお、図6(C)に示すように、対象物41と対象物42が同じような方位に存在した場合、各チャンネルのうち重要度の高いものから順に情報提供を行うようにする。この場合、単眼ディスプレイ26には、重要度の高いものから順に情報ウインドウを表示し、順に優先度の低いものの情報ウインドウを表示する(サイクリック表示をする)ようにすればよい。
As shown in FIG. 6C, when the
以上のように、本実施形態のポインティングシステムでは、音声だけで操作子が指し示す方位を検出することができる。そのため、誤検出が少なく、処理負荷も低く、コストを抑えることもできる。また、ユーザが手に持つ操作子で直接対象物を指し示すことができ、より直感的に対象物を指し示すことができる。 As described above, in the pointing system according to the present embodiment, it is possible to detect the azimuth indicated by the operation element only by voice. Therefore, there are few false detections, the processing load is low, and the cost can be suppressed. In addition, the object can be pointed directly with an operator held by the user, and the object can be pointed more intuitively.
1−送信機
2−受信機
3−操作子
1-transmitter 2-receiver 3-controller
Claims (2)
前記送信機は、放音方位を示す情報を重畳した送信側音声を放音する送信側放音手段を備え、
前記操作子は、操作子側音声を放音する操作子側放音手段を備え、
前記受信機は、音声を収音する複数の収音手段と、
収音した送信側音声から前記放音方位を示す情報を復調する復調手段と、
前記復調手段で復調した放音方位を示す情報、および前記複数の収音手段で収音した送信側音声の収音時間差に基づいて、自装置が向いている方位を検出する自装置方位検出手段と、
前記複数の収音手段で収音した操作子側音声の収音時間差に基づいて、自装置と操作子の相対方位を検出する操作子方位検出手段と、
自装置が向いている方位、および前記操作子の相対方位に基づいて前記操作子が指し示す方位を検出する操作子位置検出手段と、
を備えたポインティングシステム。 A pointing system comprising a transmitter, a receiver, and an operator for a user to point to an object,
The transmitter includes a transmission-side sound emitting means for emitting a transmission-side sound on which information indicating a sound emission direction is superimposed,
The operation element includes an operation element side sound emitting means for emitting an operation element side sound,
The receiver includes a plurality of sound collecting means for collecting sound;
Demodulating means for demodulating information indicating the sound emitting direction from the collected transmission side voice;
Self-device azimuth detecting means for detecting the azimuth in which the self-device is directed based on information indicating the sound emitting direction demodulated by the demodulating means and the sound collection time difference of the transmitting side sound collected by the plurality of sound collecting means When,
Based on the sound collection time difference of the operator side sound collected by the plurality of sound collection means, the operator orientation detection means for detecting the relative orientation of the own device and the operator,
Operating element position detecting means for detecting an azimuth directed by the operating element based on an azimuth facing the own device and a relative azimuth of the operating element;
Pointing system with
前記受信機の復調手段は、前記収音手段で収音した送信側音声から前記対象物の方位および前記対象物に関する情報を復調し、
前記受信機は、前記操作子が指し示す方位が前記対象物の方位に合致する場合に、前記対象物に関する情報を再生する再生手段をさらに備えた請求項1に記載のポインティングシステム。 The transmitter-side sound emitting means of the transmitter emits a sound by superimposing the direction of the object and information on the object on the transmitter-side voice,
The demodulating means of the receiver demodulates the direction of the object and the information on the object from the transmission side sound collected by the sound collecting means,
The pointing system according to claim 1, wherein the receiver further includes a reproducing unit that reproduces information related to the object when the direction indicated by the operator matches the direction of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008328942A JP5245808B2 (en) | 2008-12-25 | 2008-12-25 | Pointing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008328942A JP5245808B2 (en) | 2008-12-25 | 2008-12-25 | Pointing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010152570A true JP2010152570A (en) | 2010-07-08 |
JP5245808B2 JP5245808B2 (en) | 2013-07-24 |
Family
ID=42571602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008328942A Expired - Fee Related JP5245808B2 (en) | 2008-12-25 | 2008-12-25 | Pointing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5245808B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506035A (en) * | 2011-12-19 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Gesture control voice user interface |
WO2017221721A1 (en) * | 2016-06-22 | 2017-12-28 | ソニー株式会社 | Information processing device, information processing method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS623318A (en) * | 1985-06-28 | 1987-01-09 | Canon Inc | Coordinate detector |
JPH086703A (en) * | 1994-06-22 | 1996-01-12 | Hitachi Ltd | Remote input device |
JP2000102036A (en) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method |
JP2003044213A (en) * | 2001-07-31 | 2003-02-14 | Canon Inc | Input indicator for coordinate input device, and coordinate input device |
JP2005311974A (en) * | 2004-04-26 | 2005-11-04 | Yamaha Corp | Sound image localizing terminal |
JP2008065675A (en) * | 2006-09-08 | 2008-03-21 | Ritsumeikan | Mixed reality system, event input method thereof, and head mounted display |
-
2008
- 2008-12-25 JP JP2008328942A patent/JP5245808B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS623318A (en) * | 1985-06-28 | 1987-01-09 | Canon Inc | Coordinate detector |
JPH086703A (en) * | 1994-06-22 | 1996-01-12 | Hitachi Ltd | Remote input device |
JP2000102036A (en) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method |
JP2003044213A (en) * | 2001-07-31 | 2003-02-14 | Canon Inc | Input indicator for coordinate input device, and coordinate input device |
JP2005311974A (en) * | 2004-04-26 | 2005-11-04 | Yamaha Corp | Sound image localizing terminal |
JP2008065675A (en) * | 2006-09-08 | 2008-03-21 | Ritsumeikan | Mixed reality system, event input method thereof, and head mounted display |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506035A (en) * | 2011-12-19 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Gesture control voice user interface |
US9563278B2 (en) | 2011-12-19 | 2017-02-07 | Qualcomm Incorporated | Gesture controlled audio user interface |
WO2017221721A1 (en) * | 2016-06-22 | 2017-12-28 | ソニー株式会社 | Information processing device, information processing method, and program |
US10922043B2 (en) | 2016-06-22 | 2021-02-16 | Sony Corporation | Information processing device and information processing method for acquiring information associated with a target |
Also Published As
Publication number | Publication date |
---|---|
JP5245808B2 (en) | 2013-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8391789B2 (en) | Apparatus for facilitating peripheral device selection | |
US9110517B2 (en) | System and method for generating screen pointing information in a television | |
US7403112B2 (en) | Search device for locating a transmitter, in particular an avalanche-victim search device | |
JP5255674B2 (en) | Data transmission operation device and data transmission control method | |
US11812235B2 (en) | Distributed audio capture and mixing controlling | |
US20160049150A1 (en) | Speech recognition method and speech recognition device | |
US20160062488A1 (en) | Three-dimensional air mouse and display used together therewith | |
JP2018526622A (en) | Robot voice search rotation system and method | |
JP2012057963A (en) | Target detection system, detection method, and detection information processing program | |
JP2009194447A (en) | Remote controller position detection device, remote controller position detection system, remote controller position detection method, and program | |
JP5245808B2 (en) | Pointing system | |
CN112098943A (en) | Positioning method of wearable device and intelligent device | |
JP2009204347A (en) | Ultrasonic position recognition system | |
KR20190124029A (en) | Thermal image sensor device and electric apparatus including the same | |
US7672809B2 (en) | Object tracker | |
KR100470437B1 (en) | A method for detecting a sound source and for controlling a position in monitoring system | |
JP5272725B2 (en) | Information guidance system | |
CN112098930A (en) | Method for searching vehicle and intelligent equipment | |
CN112098935A (en) | Method for searching intelligent equipment and intelligent equipment | |
CN112098929A (en) | Method, device and system for determining relative angle between intelligent devices and intelligent devices | |
CN216083926U (en) | Distance prompt terminal | |
CN112100526B (en) | Method and device for identifying intelligent equipment | |
JP2010034769A (en) | Remote-control transmitter/receiver, and remote-control transmitter and remote-control receiver respectively used in the same | |
JP2010187155A (en) | Reception device | |
KR100916497B1 (en) | Method for sound source tracking and home network system using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120906 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130325 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160419 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |