JP6223371B2 - Pointing device, pointing method, and program - Google Patents
Pointing device, pointing method, and program Download PDFInfo
- Publication number
- JP6223371B2 JP6223371B2 JP2015005463A JP2015005463A JP6223371B2 JP 6223371 B2 JP6223371 B2 JP 6223371B2 JP 2015005463 A JP2015005463 A JP 2015005463A JP 2015005463 A JP2015005463 A JP 2015005463A JP 6223371 B2 JP6223371 B2 JP 6223371B2
- Authority
- JP
- Japan
- Prior art keywords
- pointing
- information
- display
- screen
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、第1の位置から指し示されたポインティング対象を第2の位置で認識可能とする、スクリーン上の特別表示の表示情報を生成するポインティング装置及びポインティング方法に関するものである。 The present invention relates to a pointing device and a pointing method for generating display information of a special display on a screen, in which a pointing object pointed from a first position can be recognized at a second position.
従来、道具又は体の部位によって指し示されたポインティング対象を検出する方法及び装置が種々提案されている。例えば、特許文献1は、同一直線上に等間隔で配置された所定の3色の部分を備えた道具をビデオカメラで撮影し、この道具によって指し示されているポインティング対象を、ビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法及び装置を提案している。また、特許文献2は、ポインティング者(ユーザ)の体の部位を複数のビデオカメラで撮影し、この体の部位によって指し示されているポインティング対象を、複数のビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法及び装置を提案している。
Conventionally, various methods and apparatuses for detecting a pointing object pointed by a tool or a body part have been proposed. For example, in
また、ポインティング者(ユーザ)によって指し示されているポインティング対象を、ポインティング対象観察者(他のユーザ)に認識させるために、種々の方法及び装置が検討されている。例えば、ポインティング対象を指し示すために用いられている道具、ポインティング者の体の部位、又は、壁などに備えられている光照射装置(投光器)からの光を、ポインティング対象に照射することによって、ポインティング対象観察者(以下単に「観察者」とも言う。)にポインティング対象を認識させる方法がある。図1は、ポインティング者U1の手によって指し示されたポインティング対象Q1に投光器301によって光スポット302が照射されている例を示す図である。
Various methods and apparatuses have been studied in order to make a pointing target observer (another user) recognize a pointing target pointed by a pointing person (user). For example, pointing is performed by irradiating the pointing object with light from a light irradiation device (projector) provided on a tool, a body part of the pointing person, or a wall that is used to point the pointing object. There is a method for causing a target observer (hereinafter, also simply referred to as “observer”) to recognize a pointing object. FIG. 1 is a diagram illustrating an example in which a
しかしながら、ポインティング者からポインティング対象までの距離が遠い場合又は投光器からポインティング対象までの距離が遠い場合には、投光器によって照射された光スポットによりポインティング対象を観察者に正確に認識させることができないことがある。また、ポインティング対象をコンピュータ画面に表示する方法も考えられるが、ポインティング対象がコンピュータ画面内に表示されていない場合には、ポインティング対象を観察者に認識させることができない。また、ポインティング対象が美術品又は生物などのように、光照射に適さない事物である場合には、投光器を用いることはできない。 However, when the distance from the pointing person to the pointing object is long, or when the distance from the projector to the pointing object is long, the pointing object may not be accurately recognized by the observer due to the light spot irradiated by the light projector. is there. Although a method of displaying the pointing target on the computer screen is also conceivable, if the pointing target is not displayed in the computer screen, the pointing target cannot be recognized by the observer. In addition, when the object to be pointed is an object that is not suitable for light irradiation, such as a work of art or a living thing, a projector cannot be used.
これらの対策として、ポインティング者とポインティング対象との間に光透過型のスクリーンを設置し、ポインティング者とポインティング対象とを結ぶ直線とスクリーンと交差する位置(交点位置)に、マークを表示する方法も考えられる。図2は、ポインティング者U1の位置とポインティング対象Q1の位置とを結ぶ直線L1がスクリーンS1と交差する位置にマークM1が表示されている状況を示す図である。 As a countermeasure, a light transmission type screen is installed between the pointing person and the pointing object, and a mark is displayed at a position where the straight line connecting the pointing person and the pointing object intersects the screen (intersection position). Conceivable. FIG. 2 is a diagram illustrating a situation in which a mark M1 is displayed at a position where a straight line L1 connecting the position of the pointing person U1 and the position of the pointing target Q1 intersects the screen S1.
しかしながら、ポインティング者の位置とポインティング対象の観察者の位置とが異なる場合には、スクリーンに表示されたマークに基づいて観察者が認識した事物が、ポインティング者によって指し示されているポインティング対象と異なるというケース、すなわち、誤認識(認識の齟齬)が発生し得るという問題がある。なお、図3は、ポインティング者U1がポインティング対象Q1を指し示しているが、スクリーンS1のマークM1を通して事物を認識している観察者U2は、事物Q2がポインティング対象であると誤認識するケースを示している。 However, when the position of the pointing person is different from the position of the pointing target observer, the thing recognized by the observer based on the mark displayed on the screen is different from the pointing object indicated by the pointing person. In other words, there is a problem that erroneous recognition (recognition trap) may occur. FIG. 3 shows a case where the pointing person U1 points to the pointing object Q1, but the observer U2 who recognizes the object through the mark M1 on the screen S1 erroneously recognizes that the object Q2 is the pointing object. ing.
そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、第1の位置から指し示されているポインティング対象を第2の位置で正しく認識可能とする、スクリーンにおける特別表示の表示情報を生成することができるポインティング装置及びポインティング方法を提供することを目的とする。 Accordingly, the present invention has been made to solve the above-described problems of the prior art, and a special display on the screen that makes it possible to correctly recognize the pointing object pointed from the first position at the second position. An object of the present invention is to provide a pointing device and a pointing method capable of generating the display information.
本発明に係るポインティング装置は、第1の位置で前記第1の位置からポインティング対象に向かうポインティング方向が指し示されたときに、第2の位置で前記ポインティング対象を認識可能とする、スクリーン上における特別表示の表示情報を生成するポインティング装置であって、前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別部と、前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成部とを備えたものである。 The pointing device according to the present invention enables the pointing object to be recognized at the second position when the pointing direction from the first position toward the pointing object is indicated at the first position. A pointing device that generates display information for special display, the first position information indicating the first position, the pointing operation information including information indicating the pointing direction, and the position of one or more pointing target candidates. A pointing target determining unit that determines which of the pointing target candidates is one of the pointing target candidates based on the third position information indicated, and outputs determination information indicating the determination result; A script including second position information indicating the position of the screen, the discrimination information, and information indicating the position of the screen. A display position of a special display for the second position, where a straight line for the second position from the second position toward the pointing object intersects the screen, A special display information generation unit that outputs information indicating a display position of the special display for the second position.
本発明によれば、観察者の位置である第2の位置からポインティング対象に向かう第2の位置用の直線が、スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、第2の位置用の特別表示の表示位置を示す情報を出力する。スクリーンには、この情報に基づく第2の位置用の特別表示が表示されるので、第2の位置からポインティング対象を正確に認識することができる。 According to the present invention, the display position of the special display for the second position where the straight line for the second position from the second position that is the position of the observer toward the pointing object intersects the screen is calculated. Then, information indicating the display position of the special display for the second position is output. Since the special display for the second position based on this information is displayed on the screen, the pointing object can be accurately recognized from the second position.
《1》実施の形態1.
最初に、ポインティング装置1の概要を説明する。図4は、本発明の実施の形態1によるポインティング装置の動作の一例を示す概念図である。また、図5は、実施の形態1によるポインティング装置1の構成を概略的に示すブロック図である。また、ポインティング装置1は、実施の形態1によるポインティング方法を実施することができる装置である。
<< 1 >>
First, an outline of the
図4に示されるように、ポインティング装置1は、ポインティング者U1の位置(第1の位置)PU1で、ポインティング者U1の位置PU1からポインティング対象(事物)Q1に向かうポインティング方向(例えば、ポインティング者U1が道具又は手指で指し示す方向)が指し示されたときに、ポインティング対象観察者U2の位置(第2の位置)PU2でポインティング対象Q1を認識可能とする、スクリーンS1上におけるマークM2などの特別表示の表示情報を生成する。なお、ポインティング者U1は、ポインティング対象Q1を指し示すユーザである。また、ポインティング対象観察者(以下、単に「観察者」とも言う)は、ポインティング者U1によって指し示されたポインティング対象Q1を見る他のユーザU2である。
As shown in FIG. 4, the
図5に示されるように、ポインティング装置1は、ポインティング対象判別部10と、マーク表示情報生成部(特別表示情報生成部)20とを備えている。ポインティング対象判別部10は、ポインティング者U1の位置(第1の位置)PU1を示すポインティング者位置情報(第1の位置情報)I11と、第1の位置PU1からポインティング対象Q1に向かうポインティング方向を示すポインティング方向情報を含むポインティング操作情報I12と、1以上のポインティング対象候補(図4においては、候補としてQ1,Q2が示されている)の位置を示すポインティング対象候補情報(第3の位置情報)I13とを元に、ポインティング対象Q1がポインティング対象候補の中のいずれであるかを判別し、この判別の結果を示す判別情報I14を出力する。
As shown in FIG. 5, the
マーク表示情報生成部20は、観察者U2の位置(第2の位置)PU2を示す観察者位置情報(第2の位置情報)I23と、ポインティング対象判別部10から出力された判別情報I14と、スクリーンS1の位置を示す情報を含むスクリーン情報I21とを元に、観察者U2の位置(第2の位置)PU2からポインティング対象Q1に向かう観察者用の直線(第2の位置用の直線)L2が、スクリーンS1に交差する位置(交点位置)である観察者用特別表示としての観察者用マーク(第2の位置用のマーク)M2の表示位置を算出し、観察者用マークM2の表示情報I24を出力する。
Mark display
次に、ポインティング装置1の詳細を説明する。図5に示されるように、ポインティング対象判別部10は、ポインティング者U1の位置(第1の位置)PU1を示すポインティング者位置情報(第1の位置情報)を取得するポインティング者位置情報取得部(第1の位置情報取得部)11と、ポインティング者U1の位置(第1の位置)PU1でポインティング者U1によってポインティング方向が指し示されたときに、ポインティング方向を示すポインティング方向情報を含むポインティング操作情報を取得するポインティング操作情報取得部12とを有している。なお、ポインティング者U1がポインティング方向を指し示す操作としては、例えば、ポインティング者U1が道具をポインティング方向に向ける操作、入力装置を使用してポインティング方向を入力する操作、道具及び装置を用いずにポインティング方向に手指を伸ばす動作などがある。また、本明細書においては、ポインティング者U1が人間である場合を説明するが、ポインティング者U1の代わりにポインティング対象を指し示す装置(例えば、機械及びロボットなど)を用いても良い。
Next, details of the
また、ポインティング対象判別部10は、1以上のポインティング対象候補の位置を示すポインティング対象候補情報(第3の位置情報)を取得するポインティング対象候補情報取得部(第3の位置情報取得部)13と、ポインティング対象解析部14とを有している。ポインティング対象解析部14は、ポインティング操作情報取得部12によって取得されて提供されるポインティング操作情報I12と、ポインティング者位置情報取得部11によって取得されて提供されるポインティング者位置情報(第1の位置情報)I11と、ポインティング対象候補情報取得部13によって取得されて提供されるポインティング対象候補情報(第3の位置情報)I13とを元に、ポインティング対象Q1がポインティング対象候補の中のいずれであるかを解析し、この解析の結果を前記判別情報I14として出力する。
The pointing target determination unit 10 includes a pointing target candidate information acquisition unit (third position information acquisition unit) 13 that acquires pointing target candidate information (third position information) indicating the positions of one or more pointing target candidates. And a pointing
また、図5に示されるように、マーク表示情報生成部20は、スクリーン情報を取得して提供するスクリーン情報取得部21と、観察者位置情報(第2の位置情報)を取得して提供する観察者位置情報取得部(第2の位置情報取得部)23と、観察者用マーク(第2の位置用の特別表示)M2の表示位置情報を含む表示情報I24を算出する観察者用マーク表示位置算出部(第2の位置用特別表示位置算出部)24と、観察者用マーク(第2の位置用の特別表示)M2の表示情報I24を出力するマーク表示情報出力部(特別表示情報出力部)25とを有している。観察者用マーク表示位置算出部24は、観察者位置情報(第2の位置情報)I23と、ポインティング対象判別部10のポインティング対象解析部14から出力された判別情報I14と、スクリーン情報I21とを元に、観察者用マーク(第2の位置用の特別表示)M2の表示位置を算出する。
Further, as shown in FIG. 5, the mark display
また、マーク表示情報生成部20は、ポインティング者位置情報(第1の位置情報)I11と、ポインティング対象判別部10から出力された判別情報I14と、スクリーン情報I21とを元に、ポインティング者U1の位置(第1の位置)PU1からポインティング方向に延びるポインティング者用の直線(第1の位置用の直線)L1が、スクリーンS1に交差する位置(交点位置)であるポインティング者用マーク(第1の位置用の特別表示)M1の表示位置を算出し、ポインティング者用マーク(第1の位置用の特別表示)M1の表示位置を示す表示情報I22を出力するポインティング者用マーク表示位置算出部(第1の表示位置算出部)22を有しても良い。
Further, the mark display
実施の形態1で取得されるポインティング者位置情報I11、観察者位置情報I23、スクリーン情報I21に含まれるスクリーンの位置情報、ポインティング対象Q1及びポインティング対象候補Q2の位置情報は、例えば、GPS(Global Positioning System)によって取得することができる。また、ポインティング操作情報I12は、ポインティング者U1の指先のGPS位置情報とポインティング者の肘から指先までの直線を示す方向情報をビデオカメラの映像情報に基づいて算出することによって取得しても良い。また、ポインティング操作情報(ポインティング操作の情報)I12は、ポインティング者のGPS位置情報(例えば、体の中心付近)とポインティング者U1の指先のGPS位置情報とから取得することが可能である。
The position information of the pointing person position information I 11 , the observer position information I 23 , the screen position information included in the screen information I 21 , the position information of the
図5に示されるポインティング者位置情報取得部11は、例えば、ポインティング者U1に備えられたセンサからの位置情報を取得する。「ポインティング者位置情報取得部11による位置情報の取得方法」の具体例として、以下の(a1)〜(a4)がある。ただし、「ポインティング者位置情報取得部11による位置情報の取得方法」は、以下の例に限定されない。
(a1)ポインティング者U1が携帯するGPSセンサなどの位置センサの情報を取得する方法。
(a2)ポインティング者U1が携帯するRFID(Radio Frequency Identifier)タグ又は携帯電話などの情報を受信した受信機又は受信局から位置情報を取得する方法。
(a3)地面若しくは床面に埋め込まれた感圧センサ又は赤外線センサなどの検出情報からポインティング者U1の位置情報を推定若しくは取得する方法。
(a4)ポインティング者U1自身が、入力装置からポインティング者U1の位置情報を入力する方法。
For example, the pointing person position
(A1) A method for acquiring information of a position sensor such as a GPS sensor carried by the pointing person U1.
(A2) A method of acquiring position information from a receiver or a receiving station that has received information such as an RFID (Radio Frequency Identifier) tag carried by the pointing person U1 or a mobile phone.
(A3) A method of estimating or acquiring the position information of the pointing person U1 from detection information such as a pressure sensor or an infrared sensor embedded in the ground or floor.
(A4) A method in which the pointing person U1 himself inputs the position information of the pointing person U1 from the input device.
また、「ポインティング者位置情報(第1の位置情報)」の具体例として、例えば、以下の(b1)及び(b2)がある。ただし、「ポインティング者位置情報(第1の位置情報)」は、以下の例に限定されない。
(b1)緯度、経度、及び高度などのような絶対位置を示す情報。
(b2)位置が既知である基準地点からの方向及び距離で特定される位置情報。例えば、「基準地点から東10m」などのように、特定の基準地点からの相対位置情報。
なお、ポインティング者位置情報は、ポインティング者U1の目の位置であることが望ましい。このため、ポインティング者位置情報を検出するセンサは、ポインティング者の目の近くに装備することが望ましい。ただし、センサを目の近くに装備することができない場合には、予め入力されたポインティング者の身長から目の位置を推測することが望ましい。例えば、ポインティング者の目の位置を、ポインティング者の身長から、予め決められた値(ポインティング者の頭の頂部から目までの距離に相当する値であり、例えば、10cmである)を減算した高さの位置とすることが望ましい。
Specific examples of the “pointer position information (first position information)” include the following (b1) and (b2), for example. However, the “pointer position information (first position information)” is not limited to the following example.
(B1) Information indicating an absolute position such as latitude, longitude and altitude.
(B2) Position information specified by the direction and distance from the reference point whose position is known. For example, relative position information from a specific reference point such as “10 m east from the reference point”.
The pointing person position information is preferably the eye position of the pointing person U1. For this reason, it is desirable that the sensor for detecting the position information of the pointing person is installed near the eyes of the pointing person. However, when the sensor cannot be installed near the eyes, it is desirable to estimate the position of the eyes from the height of the pointing person input in advance. For example, the position of the pointing person's eye is subtracted from the height of the pointing person by a predetermined value (a value corresponding to the distance from the top of the pointing person's head to the eye, for example, 10 cm). It is desirable to set this position.
図5に示されるポインティング操作情報取得部12は、ポインティング者が行ったポインティング操作に関するポインティング操作情報を取得する。「ポインティング操作情報を取得する方法」としては、以下の(c1)及び(c2)がある。ただし、「ポインティング操作情報を取得する方法」は、以下の例に限定されない。
(c1)同一直線上に等間隔で配置された複数個の検出部分を備えた道具をビデオカメラで撮影し、この道具によって指し示されているポインティング対象を、ビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法(特許文献1と同様の方法)。
(c2)ポインティング者の体の部位を1又は複数のビデオカメラで撮影し、この体の部位によって指し示されているポインティング対象を、ビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法(特許文献2と同様の方法)。
The pointing operation
(C1) A video obtained by photographing a tool provided with a plurality of detection portions arranged at equal intervals on the same straight line with a video camera and pointing a pointing object pointed by the tool by the video camera. A method of obtaining based on an image (the same method as in Patent Document 1).
(C2) A method in which a body part of a pointing person is photographed by one or a plurality of video cameras, and a pointing target pointed by the body part is obtained based on a video image obtained by photographing by the video camera ( The same method as in Patent Document 2).
また、ポインティング者U1が行う「ポインティング操作によって取得される情報」の一例としては、以下の(d1)及び(d2)がある。ただし、「ポインティング操作によって取得される情報」は、以下の例に限定されない。
(d1)ポインティング操作を行った地点の位置情報。
(d2)ポインティング操作によって指し示された方向情報。
Examples of “information acquired by the pointing operation” performed by the pointing person U1 include the following (d1) and (d2). However, “information acquired by pointing operation” is not limited to the following example.
(D1) Position information of the point where the pointing operation is performed.
(D2) Direction information pointed by the pointing operation.
図5に示されるポインティング対象候補情報取得部13は、ポインティング者U1が指し示したポインティング対象Q1に該当する可能性がある候補物であるポインティング対象候補のリストを取得する。「ポインティング対象候補のリストを取得する方法」は、例えば、以下の(e1)及び(e2)がある。ただし、「ポインティング対象候補のリストを取得する方法」は、以下の例に限定されない。
(e1)地図データのように、予め用意されているポインティング対象候補の位置情報(例えば、施設内における展示物の配置データなど)を読み込むことによって、ポインティング対象候補のリストを取得する方法。
(e2)ポインティング対象となり得る事物に予め位置マーカを付したデータを作成し、ポインティング者U1によってポインティング操作が行われた場合に、位置マーカが付された事物の位置情報を収集することによって、動的にポインティング対象候補のリストを取得する方法。
The pointing target candidate
(E1) A method of acquiring a list of pointing target candidates by reading position information of pointing target candidates prepared in advance (for example, arrangement data of exhibits in a facility) like map data.
(E2) By creating data in which a position marker is attached in advance to an object that can be a pointing target, and when a pointing operation is performed by the pointing person U1, the position information of the object to which the position marker is attached is collected. To obtain a list of candidates for pointing.
「ポインティング対象候補のリストに含まれる情報」の例としては、以下の(f1)〜(f3)に示すものがある。ただし、「ポインティング対象候補のリストに含まれる情報」は、以下の例に限定されない。
(f1)各ポインティング対象候補の中心位置情報。
(f2)各ポインティング対象候補の底面情報。
(f3)各ポインティング対象候補の高さ情報。
Examples of “information included in the list of pointing target candidates” include the following (f1) to (f3). However, “information included in the list of candidates for pointing” is not limited to the following example.
(F1) Center position information of each pointing target candidate.
(F2) Bottom information of each pointing target candidate.
(F3) Height information of each pointing target candidate.
図5に示されるポインティング対象解析部14は、ポインティング者U1の位置情報I11と、ポインティング操作情報(ポインティング者U1の操作情報)I12と、ポインティング対象候補情報(第3の位置情報)I13とを元に、ポインティング対象候補の内のいずれがポインティング対象Q1であるかを解析し、その解析の結果を前記判別情報I14として出力する。
Pointing
次に、実施の形態1の動作を詳細に説明する。図6は、ポインティング対象解析部14の処理の一例を示すフローチャートである。まず、ステップST101で、ポインティング対象解析部14は、ポインティング者位置情報取得部11から、ポインティング者U1の位置情報I11を取得する。次に、ステップST102で、ポインティング対象解析部14は、ポインティング操作情報取得部12から、ポインティング操作情報(ポインティング操作の情報であり、例えば、ポインティング者U1の指先のGPS位置情報及び肘から指先までの直線を示す方向情報)I12を取得する。次に、ステップST103で、ポインティング対象解析部14は、検索距離として予め決められた距離を指定する。検索距離は、予め決められた距離、ポインティング対象候補に応じた距離、ユーザ入力された距離などを用いることができ、例えば、100〔m〕といったように決められる。
Next, the operation of the first embodiment will be described in detail. FIG. 6 is a flowchart illustrating an example of processing of the pointing
次に、ステップST104で、ポインティング対象解析部14は、ポインティング対象候補情報取得部13から、ステップST101で取得したポインティング者U1の位置情報I11が示す位置を中心にして、ステップST103で定めた検索距離に基づく検索範囲内(球内)に存在するポインティング対象候補の情報を取得する。
Next, at step ST 104, the pointing
次に、ステップST105で、ポインティング対象解析部14は、ポインティング者U1によって指し示されたポインティング方向に沿って仮想の直線L1を伸ばす。このとき、直線L1を、例えば、1〔m〕ずつ伸ばす。次に、ステップST106で、ポインティング対象解析部14は、ステップST105で伸ばした直線L1の先端付近にポインティング対象候補が存在するかどうか調べる。例えば、先端から半径0.5〔m〕の球内にポインティング対象候補が存在するかどうかを調べる方法、又は、ステップST105で伸ばした直線L1に沿った半径0.5〔cm〕、長さ1〔m〕の円柱内にポインティング対象候補が存在するかどうかを調べる方法などがある。
Next, in step ST105, the pointing
次に、ステップST107で、ポインティング対象解析部14は、ステップST106で調査したポインティング対象候補が存在する場合は、そのポインティング対象候補をポインティング対象Q1として設定し、図6のフローチャートの処理を終了する。
Next, in step ST107, when the pointing target candidate investigated in step ST106 exists, the pointing
また、ステップST106でポインティング対象候補が存在しない場合、又は、ステップST105で伸ばした直線L1がステップST103で決めた検索距離を上回る場合は、ポインティング対象解析部14は、ポインティング対象なしと判定して、図6のフローチャートの処理を終了する。一方、ステップST106で、ポインティング対象候補が存在せず、かつ、ステップST105で伸ばした直線L1がステップST103で決めた検索距離以下である場合は、ポインティング対象解析部14は、処理をステップST105に戻し、さらに直線L1を予め決められた長さに伸ばして、ステップST106の処理を行う。なお、ステップST103の検索距離、ステップST105の直線L1を伸ばす距離、ステップST106の先端付近のポインティング対象候補を探す距離は、ポインティング装置の設計者が予め定めたものであっても良いし、また、ポインティング者U1によって任意に設定されたものであっても良い。
If there is no pointing target candidate in step ST106, or if the straight line L1 extended in step ST105 exceeds the search distance determined in step ST103, the pointing
スクリーン情報取得部21は、マーク(特別表示)を表示するスクリーンについてのスクリーン情報を取得して、各部に供給する。「スクリーン情報を取得する方法」の例としては、以下の(g1)及び(g2)がある。ただし、「スクリーン情報を取得する方法」は、以下の例に限定されない。
(g1)ポインティング装置1の設計者、ポインティング者U1、ポインティング対象の観察者U2のいずれかの操作入力情報を受け取ることによって、スクリーン情報を取得する方法。
(g2)スクリーンにGPSなどのセンサを備え付けておき、スクリーン情報が必要になったときに、スクリーン情報取得部21がこのGPS情報を取得する方法。
The screen
(G1) A method of acquiring screen information by receiving operation input information of any of the designer of the
(G2) A method in which a sensor such as GPS is provided on the screen, and the screen
また、スクリーン情報の例としては、以下の(h1)から(h3)に示すものがある。ただし、スクリーン情報は、以下の例に限定されない。
(h1)スクリーンの中心の位置情報(例えば、緯度、経度、及び高度などの情報)。
(h2)スクリーンの物理的サイズを示す情報(例えば、サイズをメートル単位で表した情報)。
(h3)スクリーンの輪郭の位置情報(例えば、緯度、経度、及び高度などの情報)。
Examples of screen information include the following (h1) to (h3). However, the screen information is not limited to the following example.
(H1) Position information of the center of the screen (for example, information such as latitude, longitude, and altitude).
(H2) Information indicating the physical size of the screen (for example, information indicating the size in meters).
(H3) Position information of the outline of the screen (for example, information such as latitude, longitude, and altitude).
ポインティング者用マーク表示位置算出部22は、ポインティング者U1の位置情報I11と、判別情報I14と、スクリーン情報I21とを元に、ポインティング対象Q1を指し示すポインティング者U1から見たスクリーン上のポインティング対象Q1の位置を計算する。図7は、ポインティング者用マーク表示位置算出部22の処理の一例を示すフローチャートである。まず、ステップST201で、ポインティング者用マーク表示位置算出部22は、ポインティング者位置情報取得部11からポインティング者U1の位置(図4のPU1)を示す位置情報I11を取得する。次に、ステップST202で、ポインティング者用マーク表示位置算出部22は、ポインティング対象解析部14で算出したポインティング対象Q1の位置情報を取得する。次に、ステップST203で、ポインティング者用マーク表示位置算出部22は、スクリーン情報取得部21からスクリーン情報I21を取得する。次に、ステップST204で、ポインティング者用マーク表示位置算出部22は、ステップST201で取得したポインティング者U1の位置とステップST202で取得したポインティング対象Q1の位置とを結ぶ直線(第1の直線)L1を算出する。次に、ステップST205で、ポインティング者用マーク表示位置算出部22は、ステップST204で算出した直線L1が、ステップST203で取得したスクリーンS1と交差する位置(交点位置)を算出し、図7のフローチャートの処理を終了する。
Pointing's mark display
観察者位置情報取得部23は、センサなどにより、ポインティング対象を見る観察者の位置を取得する。「観察者位置情報の取得方法」の例としては、以下の(i1)〜(i4)がある。ただし、「観察者位置情報の取得方法」は、以下の例に限定されない。
(i1)観察者が携帯するGPSセンサなどの位置センサの情報を取得する方法。
(i2)観察者が携帯するRFIDタグ又は携帯電話などの情報を受信した受信機又は受信局から位置情報を取得する方法。
(i3)地面若しくは床面に埋め込まれた感圧センサ又は赤外線センサなどの検出情報から観察者の位置情報を推定若しくは取得する方法。
(i4)観察者自身が、入力装置から自身の位置情報を入力する方法。
The observer position
(I1) A method for acquiring information of a position sensor such as a GPS sensor carried by an observer.
(I2) A method of acquiring position information from a receiver or receiving station that has received information such as an RFID tag or a mobile phone carried by an observer.
(I3) A method of estimating or acquiring the position information of the observer from detection information such as a pressure-sensitive sensor or an infrared sensor embedded in the ground or floor.
(I4) A method in which the observer himself inputs his / her position information from the input device.
また、「観察者位置情報(第2の位置情報)」の具体例として、例えば、以下の(j1)及び(j2)がある。ただし、「観察者位置情報(第2の位置情報)」は、以下の例に限定されない。
(j1)緯度、経度、及び高度などのような絶対位置を示す情報。
(j2)位置が既知である基準地点からの方向及び距離で特定される位置情報。例えば、「基準地点から東10m」などのように、特定の基準地点からの相対位置情報。
なお、観察者位置情報は、観察者の目の位置であることが望ましい。このため、観察者位置情報を検出するセンサは、観察者の目の近くに装備することが望ましい。ただし、センサを目の近くに装備することができない場合には、予め入力された観察者の身長から目の位置を推測することが望ましい。例えば、観察者の目の位置を、観察者の身長から、予め決められた値(観察者の頭の頂部から目までの距離に相当する値であり、例えば、10cmである)を減算した高さの位置とすることが望ましい。
Specific examples of “observer position information (second position information)” include the following (j1) and (j2), for example. However, “observer position information (second position information)” is not limited to the following example.
(J1) Information indicating an absolute position such as latitude, longitude and altitude.
(J2) Position information specified by the direction and distance from the reference point whose position is known. For example, relative position information from a specific reference point such as “10 m east from the reference point”.
The observer position information is preferably the position of the observer's eyes. For this reason, it is desirable to equip the sensor for detecting the observer position information near the eyes of the observer. However, when the sensor cannot be installed near the eyes, it is desirable to estimate the position of the eyes from the height of the observer inputted in advance. For example, the position of the observer's eyes is a height obtained by subtracting a predetermined value (a value corresponding to the distance from the top of the observer's head to the eyes, for example, 10 cm) from the height of the observer. It is desirable to set this position.
観察者用マーク表示位置算出部24は、観察者位置情報I23と、ポインティング対象Q1の判別情報I14と、スクリーン情報I21とを元に、観察者U2から見たスクリーンS1上のポインティング対象Q1の位置であるマーク(特別表示)M2の表示位置を計算する。
Observer mark display
次に、観察者が2人である場合を説明する。図8は、観察者用マーク表示位置算出部24の処理の一例を示すフローチャートである。また、図9は、観察者用マーク表示位置算出部24の処理の一例を示す概念図である。まず、ステップST301で、観察者用マーク表示位置算出部24は、観察者位置情報取得部23から観察者U2,U3の位置PU2,PU3を示す観察者位置情報I23を取得する。次に、ステップST302で、観察者用マーク表示位置算出部24は、ポインティング対象解析部14で算出したポインティング対象Q1の位置情報を含むポインティング対象情報としての判別情報I14を取得する。次に、ステップST303で、観察者用マーク表示位置算出部24は、スクリーン情報取得部21からスクリーン情報I21(図9におけるスクリーンS1の位置情報を含む)を取得する。次に、ステップST304で、観察者用マーク表示位置算出部24は、ステップST301で取得した観察者U2,U3の位置情報I23から、後述のステップST305〜ST306の処理を行っていない観察者を1人選ぶ。そのため、ステップST305で、観察者用マーク表示位置算出部24は、ステップST304で選択した観察者の位置と、ステップST302で取得したポインティング対象の位置とを結ぶ直線(図9のL2,L3)を算出する。次に、ステップST306で、観察者用マーク表示位置算出部24は、ステップST305で算出した直線(図9のL2,L3)がステップST303で取得したスクリーンS1と交差する位置(交点位置)を算出する。次に、ステップST307で、観察者用マーク表示位置算出部24は、全ての観察者について処理したかどうかを確認する。観察者用マーク表示位置算出部24は、処理対象とされていない観察者が残っている場合は、処理をステップST304に戻し、新しい観察者を1人選ぶ。観察者用マーク表示位置算出部24は、全ての観察者についての処理を終えている場合は、図8のフローチャートの処理を終了する。
Next, a case where there are two observers will be described. FIG. 8 is a flowchart illustrating an example of processing of the observer mark display
マーク表示情報出力部25は、マーク表示位置計算部22及び観察者用マーク表示位置算出部24で計算したスクリーンS1上のマーク表示位置(特別表示の表示位置)を、ポインティング者用マーク表示(第1の位置用の特別表示)M1の表示情報、及び、観察者用マーク表示(第2の位置用の特別表示)M2,M3の表示情報としてスクリーンS1に出力する。スクリーンS1は、受信した表示情報に基づいて、スクリーンS1上にポインティング者用マーク表示(第1の位置用の特別表示)M1、及び、観察者用マーク表示(第2の位置用の特別表示)M2,M3を表示する。
The mark display
以上に説明したように、実施の形態1によるポインティング装置1及びポインティング方法によれば、観察者U2,U3の位置である第2の位置PU2,PU3からポインティング対象Q1に向かう第2の位置用の直線L2,L3が、スクリーンS1に交差する位置である第2の位置用のマーク(特別表示)M2,M3の表示位置を算出し、第2の位置用のマーク(特別表示)M2,M3の表示情報を出力する。スクリーンS1には、この表示情報に基づく第2の位置用のマーク(特別表示)M2,M3が表示されるので、観察者U2,U3は、第2の位置PU2,PU3からポインティング対象Q1を正確に認識することができる。このように、実施の形態1によるポインティング装置1及びポインティング方法によれば、ポインティング対象Q1を指し示すポインティング者U1と指し示されたポインティング対象Q1を見る観察者U2,U3との間で、ポインティング対象Q1の認識齟齬がなくなるというメリットが得られる。
As described above, according to the
《2》実施の形態2.
図10は、本発明の実施の形態2によるポインティング装置2の動作の一例を示す概念図である。実施の形態2は、複数のスクリーンS1,S2,S3に、ポインティング者用マーク表示(第1の位置用の特別表示)M1と観察者用マーク表示(第2の位置用の特別表示)M2,M3とが表示される点において、1つのスクリーンS1にポインティング者用マーク表示M1と観察者用マーク表示M2,M3とが表示される実施の形態1と相違する。実施の形態2によれば、複数のスクリーンS1,S2,S3を用いるので、1つのポインティング装置2で、より多人数の観察者U2,U3にポインティング対象Q1を正しく認識させることができるという利点がある。特に、1つのスクリーンに、複数の観察者用の複数のマーク表示(特別表示)M2,M3を表示する場合は、マーク表示(特別表示)M2,M3が重なって見難くなることがある。実施の形態2においては、スクリーンS1にポインティング者U1用のマーク(第1の位置用の特別表示)M1を表示し、スクリーンS2に観察者U2用のマーク(第2の位置用の特別表示)M2を表示し、スクリーンS3に観察者U3用のマーク(第3の位置用の特別表示)M3を表示されるようにしているので、1つのスクリーンに割り当てられる観察者の数が減少するため、見やすさが向上する。
<< 2 >> Embodiment 2
FIG. 10 is a conceptual diagram showing an example of the operation of the pointing device 2 according to the second embodiment of the present invention. In the second embodiment, a pointing person mark display (special display for the first position) M1 and an observer mark display (special display for the second position) M2 are displayed on a plurality of screens S1, S2, S3. The point that M3 is displayed is different from the first embodiment in which the pointing mark display M1 and the observer mark displays M2 and M3 are displayed on one screen S1. According to the second embodiment, since a plurality of screens S1, S2, and S3 are used, there is an advantage that a single pointing device 2 can cause more observers U2 and U3 to correctly recognize the pointing object Q1. is there. In particular, when a plurality of mark displays (special displays) M2 and M3 for a plurality of observers are displayed on one screen, the mark displays (special displays) M2 and M3 may overlap and become difficult to see. In the second embodiment, a mark for the pointing person U1 (special display for the first position) M1 is displayed on the screen S1, and a mark for the observer U2 (special display for the second position) is displayed on the screen S2. M2 is displayed, and the mark for the observer U3 (special display for the third position) M3 is displayed on the screen S3, so the number of observers assigned to one screen is reduced. The visibility is improved.
図11は、実施の形態2によるポインティング装置2の構成を概略的に示すブロック図である。また、ポインティング装置2は、実施の形態2によるポインティング方法を実施することができる装置である。図11において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態2によるポインティング装置2は、マーク表示情報生成部20aが、スクリーン割当判断部26を備えた点において、実施の形態1によるポインティング装置1と相違する。スクリーン割当判断部26は、ある観察者の位置情報I23及び複数のスクリーン情報I21を元に、指定された観察者用のマーク表示を行うスクリーンを特定する処理を行う。
FIG. 11 is a block diagram schematically showing the configuration of the pointing device 2 according to the second embodiment. The pointing device 2 is a device that can perform the pointing method according to the second embodiment. 11, components that are the same as or correspond to the components shown in FIG. 5 (Embodiment 1) are assigned the same reference numerals as in FIG. The pointing device 2 according to the second embodiment is different from the
図12は、スクリーン割当判断部26の処理の一例を示すフローチャートである。まず、ステップST401で、スクリーン割当判断部26は、観察者用マーク表示位置算出部24から複数の観察者の位置情報を取得する。次に、ステップST402で、スクリーン割当判断部26は、観察者用マーク表示位置算出部24からスクリーン情報を取得する。次に、ステップST403で、スクリーン割当判断部26は、スクリーン候補をなしに、距離Dを∞(無限大)に設定する。次に、ステップST404で、スクリーン割当判断部26は、ステップST402で取得したスクリーンから、後述のステップST405の処理を行っていないスクリーンを1つ選択する。次に、ステップST405で、スクリーン割当判断部26は、ポインティング対象の観察者とスクリーンの距離D_tmpを算出する。ポインティング対象の観察者の位置の緯度をLAUとし、スクリーンの中央の緯度をLASとし、ポインティング対象の観察者の位置の経度をLOUとし、スクリーンの中央の経度をLOSとしたときに、距離D_tmpは、例えば、次式で計算する。
D_tmp=((LAU−LAS)2+(LOU−LOS)2)1/2
FIG. 12 is a flowchart illustrating an example of processing of the screen
D_tmp = ((L AU -L AS ) 2 + (L OU -L OS) 2) 1/2
次に、ステップST406で、スクリーン割当判断部26は、DとD_tmpを比較し、D<D_tmpである場合は、ステップST407に、D_tmp≦Dである場合は、ステップST408に処理を進める。ステップST407では、スクリーン割当判断部26は、スクリーン候補を、ステップST404で選択したスクリーンに設定し、Dの値をD_tmpの値に更新する。ステップST408では、スクリーン割当判断部26は、ステップST404で全てのスクリーンを選択したかどうかをチェックし、全てのスクリーンについての処理が終了している場合には、図12の処理を終了し、それ以外の場合(選択されていないスクリーンが存在する場合)は、処理をステップST404に戻す。
Next, in step ST406, the screen
図13は、実施の形態2の観察者用マーク表示位置算出部24の処理を示すフローチャートである。図13におけるステップST501〜ST503は、既に説明した図8におけるステップST301〜ST303と同じ処理である。図13におけるステップST504及びST505は、図8におけるステップST304及びST305と同じ処理である。図13におけるステップST506は、スクリーン割当判断部26を用いてステップST504で選択した複数の観察者の各々に複数のスクリーンの内のいずれのスクリーンを割り当てるかを決定する。図13におけるステップST507は、図8におけるステップST306と同じ処理であるが、処理の対象とするスクリーンとしてステップST506で決定したスクリーンを用いる点が異なる。図13におけるステップST508は、図8におけるステップST307と同じ処理であるが、観察者ごとに、表示するスクリーン及びそのスクリーン上の位置を最終的な出力とする点が異なる。
FIG. 13 is a flowchart illustrating processing of the observer mark display
実施の形態2のポインティング装置2のマーク表示情報出力部25は、ポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24で計算した表示するスクリーン及びスクリーン上の位置を、ポインティング者用及び観察者用のマーク表示位置としてスクリーンに出力する。
The mark display
なお、1つのスクリーンに割り当てられるユーザ(ポインティング者及び観察者)の数は、1人とは限らず、2人以上であっても良い。図12の処理を採用した場合、特定のスクリーンの近くに観察者が複数存在する場合は、それらすべての観察者が同一のスクリーンに割り当てられる。図14(a)及び(b)は、実施の形態2の一例の概念図である。図14(a)は、ポインティング者U1と観察者U2でスクリーンS1を共用している場合を示している。図14(b)は、複数の観察者U2,U3でスクリーンS2を共用している場合を示している。なお、スクリーンの共用は、2人に制限されるものではなく、3人以上で共用しても良い。 The number of users (pointers and observers) assigned to one screen is not limited to one and may be two or more. When the process of FIG. 12 is adopted, when there are a plurality of observers near a specific screen, all the observers are assigned to the same screen. 14A and 14B are conceptual diagrams of an example of the second embodiment. FIG. 14A shows a case where the screen S1 is shared by the pointing person U1 and the observer U2. FIG. 14B shows a case where a plurality of viewers U2 and U3 share the screen S2. The sharing of the screen is not limited to two people, and may be shared by three or more people.
また、上記説明では、複数のスクリーンの表示面が同じ方向を向いている場合を説明したが、スクリーンの表示面の向きは異なる方向であってもよく、また、スクリーンの表示面の向きは可変であっても良い。図15は、複数のスクリーンS1〜S3のうち、スクリーンS3の表示面の向きが異なる方向を向いている場合を例示している。 In the above description, the case where the display surfaces of a plurality of screens face the same direction has been described, but the orientation of the screen display surface may be different, and the orientation of the screen display surface is variable. It may be. FIG. 15 illustrates a case where the orientation of the display surface of the screen S3 is in a different direction among the plurality of screens S1 to S3.
以上に説明したように、実施の形態2によるポインティング装置2及びポインティング方法によれば、複数のスクリーンの各々に、これを利用するユーザ(ポインティング者及び観察者)を割り当てているので、1つのスクリーンに割り当てられるユーザの数が減少するため、見易さが向上する。その結果、1つのポインティング装置で、より多数の観察者を扱うことができるという利点がある。 As described above, according to the pointing device 2 and the pointing method according to the second embodiment, a user (pointing person and observer) who uses the screen is assigned to each of the plurality of screens. Since the number of users assigned to is reduced, visibility is improved. As a result, there is an advantage that a larger number of observers can be handled with one pointing device.
《3》実施の形態3.
図16は、本発明の実施の形態3によるポインティング装置3の動作の一例を示す概念図である。実施の形態3は、実施の形態1の構成に加えて、ポインティング者U1がポインティング対象を指し示した場合に、ポインティング対象Q1を自動で追跡するようにするものである。移動するポインティング対象Q1を追跡可能とすることによって、ポインティング者U1がポインティング対象Q1を指し示す操作をし続ける必要がないという利点がある。
<< 3 >>
FIG. 16 is a conceptual diagram showing an example of the operation of the
図17は、実施の形態3によるポインティング装置3の構成を概略的に示すブロック図である。また、ポインティング装置3は、実施の形態3によるポインティング方法を実施することができる装置である。図17において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態3によるポインティング装置3は、ポインティング対象判別部10aが、ポインティング対象追跡部15を備えた点において、実施の形態1によるポインティング装置1と相違する。なお、図17には、実施の形態1のポインティング装置1に、ポインティング対象追跡部15を追加した場合を例示したが、実施の形態2のポインティング装置2に、ポインティング対象追跡部15を備えても良い。
FIG. 17 is a block diagram schematically showing the configuration of the
ポインティング対象追跡部15は、ポインティング対象Q1の位置情報を用いて、ポインティング対象Q1の移動を監視する。図18は、ポインティング対象追跡部15の処理の一例を示すフローチャートである。まず、ステップST601で、ポインティング対象解析部14は、算出したポインティング対象Q1の位置情報をポインティング対象追跡部15に入力する。以下の説明では、入力されたポインティング対象を「P_indicated」とも言う。次に、ステップST602で、ポインティング対象追跡部15は、ポインティング対象Q1を示す情報を、ポインティング対象候補情報取得部30から取得する。以下の説明では、取得したポインティング対象を「P_now」とも言う。次に、ステップST603で、ポインティング対象追跡部15は、P_indicatedとP_nowとを比較する。比較の結果、P_indicatedとP_nowが同一であれば、ポインティング対象追跡部15は、処理をステップST606に進め、P_indicatedとP_nowが異なれば、ポインティング対象追跡部15は、処理をステップST604に進める。ステップST604では、ポインティング対象追跡部15は、P_indicatedの値を、P_nowの値に更新する。次に、ステップST605では、ポインティング対象追跡部15は、ステップST604で更新されたP_indicatedを、ポインティング対象解析部14に通知する。ステップST606では、ポインティング対象追跡部15は、一定時間が経過するまで処理を行わずに待つ。ステップS606の待機処理は、一般的なプログラミングにおけるスリープの挿入の処理に該当するものであり、待機時間は、例えば、1秒又は10秒などといった値である。なお、一定時間(待機時間)は、ポインティング装置の設計者が予め設定した値でも良いし、ポインティング者などポインティング装置を使用する者が任意に設定する値であっても良い。一定時間が経過した後、処理は、ステップST602に遷移する。
The pointing
次に、実施の形態3におけるポインティング対象解析部14の処理について説明する。図19は、実施の形態3におけるポインティング対象解析部14の処理の一例を示すフローチャートである。まず、ステップST701で、ポインティング対象解析部14は、動作のきっかけとなる動作トリガの種類を確認する。ステップST701で、ポインティング対象解析部14は、ポインティング操作情報取得部12から入力があった場合(すなわち、ポインティング者U1がポインティング対象を指し示す動作(操作)であるポインティングを行った場合)は、処理をステップST702に遷移し、ポインティング対象追跡部15から通知があった場合(すなわち、ポインティング対象が移動した場合、図18のステップST605に相当)は、処理をステップST711に遷移する。ステップST702〜ST707の処理は、図6のステップST101〜ST106の処理と同じである。ステップST708の処理は、図6のステップST107の処理と同じであるが、実施の形態3においては、ステップST708の処理を行った後に、処理はステップST709に遷移する。ステップST709では、ポインティング対象解析部14は、ステップST702〜ST708の処理結果(決定されたポインティング対象)を、ポインティング対象追跡部15に登録する。ステップST710では、ポインティング対象解析部14は、ステップST702〜ST708の処理結果(決定されたポインティング対象)を、ポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24に出力する。一方、ステップST711では、ポインティング対象解析部14は、ポインティング対象追跡部15から、更新されたポインティング対象を受信する。ステップST712では、ポインティング対象解析部14は、ステップST711で受信したポインティング対象を、ポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24に出力する。
Next, the processing of the pointing
以上に説明したように、実施の形態3によるポインティング装置3及びポインティング方法によれば、ポインティング装置3が、ポインティング対象Q1の移動を追跡可能となるため、ポインティング者U1がポインティング対象を指し示すポインティング操作を継続して行う必要がないという利点がある。
As described above, according to the
《4》実施の形態4.
図20は、本発明の実施の形態4によるポインティング装置4の動作の一例を示す概念図である。実施の形態4は、実施の形態1の構成に加えて、複数の観察者用マーク表示が近接して存在する場合に、ポインティング対象Q1を示す複数の観察者用マーク表示(第2の位置用の特別表示)M2,M3を1つにまとめた特別表示M10とする点が、実施の形態1と異なる。複数の観察者用マーク表示を1つにまとめるため、スクリーンS1上に表示される観察者用マーク表示(第2の位置用の特別表示)M10の数が減少し、観察者U2,U3は、表示された内容を把握しやすくなるという利点がある。
<< 4 >>
FIG. 20 is a conceptual diagram showing an example of the operation of the
図21は、実施の形態4によるポインティング装置4の構成を概略的に示すブロック図である。また、ポインティング装置4は、実施の形態4によるポインティング方法を実施することができる装置である。図21において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態4によるポインティング装置4は、マーク表示情報生成部20bが、マーク集約部27を備えた点、並びに、ポインティング者用マーク表示位置算出部22、観察者用マーク表示位置算出部24及びマーク表示情報出力部25がマーク集約部27を使用する点が、実施の形態1によるポインティング装置1と相違する。なお、実施の形態4では、マーク集約部27を実施の形態1の構成に追加した場合を説明するが、マーク集約部27を、実施の形態2の構成又は実施の形態3の構成に追加しても良い。
FIG. 21 is a block diagram schematically showing a configuration of the
マーク集約部27は、ポインティング者用マーク表示(特別表示)M1の位置情報、及び、観察者用マーク表示(特別表示)M2,M3の位置情報を受け取り、近接した観察者用マーク表示(特別表示)M2,M3をまとめて1つのマーク表示(特別表示)M10を生成する。図22は、マーク集約部27の処理の一例を示すフローチャートである。まず、ステップST801で、マーク集約部27は、ポインティング者用マーク表示位置算出部22からポインティング者用マーク表示(特別表示)M1のスクリーンS1上の位置を受け取る。次に、ステップST802で、マーク集約部27は、観察者用マーク表示位置算出部24から観察者用マーク表示(特別表示)M2,M3のスクリーンS1上の位置を受け取る。
The
次に、ステップST803で、マーク集約部27は、後述するステップST804で扱うマーク表示(特別表示)W_1の確認リストをクリアする。すなわち、マーク集約部27は、マーク表示(特別表示)W_1として選択された、観察者用マーク表示がない状態にする。また、マーク集約部27は、後述するステップST808で使用するマーク表示(特別表示)W_1とマーク表示(特別表示)W_2のペアのリストを、記憶部から削除する処理を行う。すなわち、マーク集約部27は、マーク表示(特別表示)W_1とマーク表示(特別表示)W_2のペアが、記憶部のリストとして存在しない状態(初期状態)にする。
Next, in step ST803, the
次に、ステップST804で、マーク集約部27は、ステップST802で受け取った観察者用マーク表示M2,M3から1つを選択する。選択された観察者用マーク表示は、マーク表示(特別表示)W_1と呼ぶ。さらに、マーク集約部27は、マーク表示(特別表示)W_1の確認リストに、選択した観察者用マーク表示を追加する処理を行う。
Next, in step ST804, the
次に、ステップST805で、マーク集約部27は、後述するステップST806で扱うマーク表示(特別表示)W_2の確認リストをクリアする。すなわち、マーク集約部27は、マーク表示(特別表示)W_2として選択された観察者用マーク表示がない状態にする。
Next, in step ST805, the
次に、ステップST806で、マーク集約部27は、ステップST802で受け取った観察者用マーク表示から1つを選択する。選択された観察者用マーク表示は、マーク表示(特別表示)W_2と呼ぶ。さらに、マーク集約部27は、マーク表示(特別表示)W_2の確認リストに、選択した観察者用マーク表示を追加する。
Next, in step ST806, the
次に、ステップST807で、マーク集約部27は、マーク表示(特別表示)W_1とマーク表示(特別表示)W_2との距離が一定距離(予め設定された基準距離)以下であるかを調べる。マーク集約部27は、スクリーンS1上におけるW_1のX座標をXW1とし、W_1のY座標をYW1とし、スクリーンS1上におけるW_2のX座標をXW2とし、W_2のY座標をYW2としたときに、マーク表示(特別表示)W_1とW_2との距離DW12を、例えば、次式で計算することができる。
DW12=((XW1−XW2)2+(YW1−YW2)2)1/2
Next, in step ST807, the
D W12 = ((X W1 −X W2 ) 2 + (Y W1 −Y W2 ) 2 ) 1/2
また、ステップST807の判断に用いる一定距離としては、例えば、画素数表記で10〔ピクセル〕として設定しても良く、又は、距離の単位を用いて5〔cm〕と設定しても良い。また、この一定距離は、ポインティング装置4の設計者が予め決めても良いし、ポインティング者U1又は観察者U2,U3が任意の値を入力することで設定しても良い。
Further, the fixed distance used for the determination in step ST807 may be set to 10 [pixel] in the number of pixels, for example, or may be set to 5 [cm] using a unit of distance. The fixed distance may be determined in advance by the designer of the
マーク集約部27は、マーク表示(特別表示)W_1とW_2の距離が一定距離以下であった場合には、マーク表示(特別表示)W_1とW_2は近接しているとみなして、処理をステップST808に進め、一定距離を上回っていた場合には、マーク表示(特別表示)W_1とW_2は近接していないとみなして、処理をステップST809に進める。
When the distance between the mark display (special display) W_1 and W_2 is equal to or less than a certain distance, the
ステップST808では、マーク集約部27は、現在選択中のマーク表示(特別表示)W_1とW_2のペアを記憶する。マーク集約部27は、既にマーク表示(特別表示)W_1とW_2のペアが記憶されている場合であっても、既に、存在するペアを削除せず、ペアを追加して記憶する。
In step ST808, the
ステップST809では、マーク集約部27は、全ての観察者用マーク表示が、マーク表示(特別表示)W_2の確認リストに登録されているかを判断し、マーク表示(特別表示)W_2の確認リストに未登録の観察者用マーク表示が残っている場合は、処理をステップST806に戻し、残っていない場合は、処理をステップST810に進める。
In step ST809, the
ステップST810では、マーク集約部27は、全ての観察者用マーク表示がマーク表示(特別表示)W_1の確認リストに登録されているかを判断し、未登録の観察者用マーク表示が残っている場合は、処理をステップST804に戻し、残っていない場合は、処理をステップST811に進める。
In step ST810, the
ステップST811では、マーク集約部27は、記憶部に記憶しているペアの表示を集約する。集約する方法としては、以下の(k1)〜(k4)のいずれかの方法を採用することができる。いずれの集約の方法も、ポインティング装置の設計者が予め決定しておいても良いし、ポインティング者U1又は観察者U2,U3が選択しても良い。ただし、「集約する方法」は、以下の例に限定されない。
(k1)ペアになっているマーク表示(特別表示)W_1とW_2を内包する大きな図形を表示する。
(k2)マーク表示(特別表示)W_1のみを表示して、マーク表示(特別表示)W_2を非表示にする。
(k3)マーク表示(特別表示)W_2のみを表示して、マーク表示(特別表示)W_1を非表示にする。
(k4)マーク表示(特別表示)W_1とW_2は、非表示にして、W_1とW_2の中心に観察者用マーク表示(他の特別表示)を行う。
In step ST811, the
(K1) A pair of mark display (special display) A large graphic containing W_1 and W_2 is displayed.
(K2) Only the mark display (special display) W_1 is displayed and the mark display (special display) W_2 is not displayed.
(K3) Only the mark display (special display) W_2 is displayed, and the mark display (special display) W_1 is not displayed.
(K4) Mark display (special display) W_1 and W_2 are not displayed, and an observer mark display (other special display) is performed at the center of W_1 and W_2.
マーク集約部27は、ステップST811の処理を行った結果を、マーク表示情報出力部25に送信する。
The
なお、上記説明では、ステップST811の処理は、マーク表示(特別表示)W_1とW_2の2つの観察者用マーク表示を集約することのみを記載したが、マーク表示(特別表示)W_1とW_2のペアを含むリストの中に、マーク表示(特別表示)W_1とW_2の一方を要素とする他のペアのマーク表示(特別表示)(例えば、W_2とW_3)が存在する場合には、マーク表示(特別表示)W_1とW_2とW_3を含む、3つ以上の観察者用マーク表示を1つに集約して表示しても良い。 In the above description, the processing of step ST811 has been described only as aggregating the mark display (special display) W_1 and W_2 for the observer, but the mark display (special display) W_1 and W_2 pair. If there is another pair of mark displays (special display) (for example, W_2 and W_3) having one of the mark display (special display) W_1 and W_2 in the list including the mark display (special display) Display) Three or more observer mark displays including W_1, W_2, and W_3 may be displayed together.
また、上記説明では、ステップST807の処理で、スクリーンS1上の観察者用マーク表示の位置を元に集約するか否かを判断しているが、マーク集約部27は、以下の方法(m1)及び(m2)を採用しても良い。
(m1)ポインティング者U1及び観察者U2,U3の位置を元に、集約するか否かを決定する(ポインティング者及び観察者が2〔m〕以内など)。
(m2)予め定めておいたポインティング者及び観察者のグループ情報を元に集約するか否かを決定する。例えば、集団行動で班分けを行った場合に、班のメンバをまとめて1つの観察者用マーク表示にするなどである。
In the above description, it is determined in step ST807 whether or not to aggregate based on the position of the observer mark display on the screen S1, but the
(M1) Based on the positions of the pointing person U1 and the observers U2 and U3, it is determined whether or not to aggregate (the pointing person and the observer are within 2 [m], etc.).
(M2) It is determined whether or not to aggregate based on the predetermined group information of the pointing person and the observer. For example, when grouping is performed by group action, the members of the group are collectively displayed as one observer mark.
実施の形態4におけるポインティング者用マーク表示位置算出部22の処理は、図5のポインティング者用マーク表示位置算出部22の処理と同じであるが、最終結果をマーク表示情報出力部25ではなくマーク集約部27に送信するところのみ異なる。
The processing of the pointing person mark display
実施の形態4における観察者用マーク表示位置算出部24の処理は、基本的には、図5の観察者用マーク表示位置算出部24の処理と同じであるが、最終結果をマーク表示情報出力部25ではなくマーク集約部27に送信する点のみが、図5の観察者用マーク表示位置算出部24の処理と異なる。
The process of the observer mark display
実施の形態4におけるマーク表示情報出力部25の処理は、基本的には、図5のマーク表示情報出力部25の処理と同じであるが、情報をポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24から受信するのではなく、マーク集約部27から受信する点のみが、図5のマーク表示情報出力部25と異なる。
The processing of the mark display
以上に説明したように、実施の形態4によるポインティング装置4及びポインティング方法によれば、ポインティング装置4が、複数の観察者用マーク表示を1つにまとめて表示するため、スクリーンS1上に表示される観察者用マーク表示の数が減少し、ポインティング者U1及び観察者U2,U3が、表示された内容を把握しやすくなるという利点がある。
As described above, according to the
《5》実施の形態5.
図23は、本発明の実施の形態5によるポインティング装置5の動作の一例を示す概念図である。実施の形態5によるポインティング装置5は、複数のマーク表示(特別表示)M1,M2,M3の内の同時に表示されるマーク表示(特別表示)の数を制限する点において、実施の形態1によるポインティング装置1と相違する。同時に表示されるマーク表示(特別表示)の数を制限することで、スクリーンS1上の表示が複雑になることを回避でき、ポインティング観察者が表示された内容を把握しやすくなるという利点がある。
<< 5 >>
FIG. 23 is a conceptual diagram showing an example of the operation of the
図24は、実施の形態5によるポインティング装置5の構成を概略的に示すブロック図である。また、ポインティング装置5は、実施の形態5によるポインティング方法を実施することができる装置である。図24において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態5によるポインティング装置5は、マーク表示情報生成部20cが、複数の観察者用マーク表示の内の同時に表示される観察者用マーク表示の数を制限するためにマーク表示切替部(特別表示切替部)28を備えた点において、実施の形態1によるポインティング装置1と相違する。なお、実施の形態5では、マーク表示切替部28を実施の形態1の構成に追加した場合を説明するが、マーク表示切替部28を、実施の形態2の構成、実施の形態3の構成、及び実施の形態4の構成のいずれかに追加しても良い。
FIG. 24 is a block diagram schematically showing the configuration of the
マーク表示切替部28は、ポインティング者用マーク表示情報及び観察者用マーク表示情報を受け取り、複数のマーク表示情報を1つずつ順に表示するための切替処理を行う。図25は、マーク表示切替部28の処理の一例を示すフローチャートである。まず、ステップST901で、マーク表示切替部28は、ポインティング者用マーク表示位置算出部22からポインティング者用マーク表示のスクリーンS1上の位置情報を受け取る。次に、ステップST902で、マーク表示切替部28は、観察者用マーク表示位置算出部24から観察者用マーク表示のスクリーンS1上の位置情報を受け取る。次に、ステップST903で、マーク表示切替部28は、後述するステップST904〜ST907で使用する表示リストを作成する。すなわち、マーク表示切替部28は、ステップST901及びステップST902で受信したマーク表示情報を合わせて1つのリストとする。ステップST904では、マーク表示切替部28は、表示リストから1つのマーク表示情報を選択する。ステップST905では、マーク表示切替部28は、選択したマーク表示情報をマーク表示情報出力部25に送信する。ステップST906では、マーク表示切替部28は、一定時間処理を行わず待機する。待機する時間は、例えば、1〔秒〕といったように、ポインティング装置の設計者が予め決定するか、ポインティング者U1又は観察者U2,U3が任意に設定してもよい良い。ステップST907では、マーク表示切替部28は、表示リストに含まれるマーク表示を全て選択し終えたかを確認し、未選択のものが存在する場合は、処理をステップST904に進め、未選択のものが存在しない場合は、処理をステップST903に進める。処理がステップST903に遷移した場合には、表示リストの作成から処理が繰り返されるため、観察者用マーク表示を1つずつ表示する処理は終了せず、繰り返される。
The mark
実施の形態5におけるポインティング者用マーク表示位置算出部22の処理は、基本的に図5のポインティング者用マーク表示位置算出部22の処理と同じであるが、処理結果をマーク表示情報出力部25ではなく、マーク表示切替部28に送信する点のみが、図5のものと異なる。
The processing of the pointing person mark display
実施の形態5における観察者用マーク表示位置算出部24の処理は、基本的に図5の観察者用マーク表示位置算出部24の処理と同じであるが、処理結果をマーク表示情報出力部25ではなく、マーク表示切替部28に送信する点のみが、図5のものと異なる。
The processing of the observer mark display
実施の形態5におけるマーク表示情報出力部25の処理は、基本的に図5のマーク表示情報出力部25の処理と同じであるが、情報をポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24ではなく、マーク表示切替部28から受信する点のみが、図5のものと異なる。
The processing of the mark display
なお、実施の形態5のマーク表示切替部28では、マーク表示を1つずつ順に表示する例を挙げた。しかしながら、ステップST904で複数の観察者用マーク表示を選択するようにすることで、一度に複数(例えば、2個又は3個)のマーク表示を行うようにしても良い。
In addition, in the mark
以上に説明したように、実施の形態5によるポインティング装置5及びポインティング方法によれば、ポインティング装置5が、複数のマーク表示(特別表示)を同時に表示する数を制限することで、スクリーンS1上の表示が複雑になることを回避できる。このため、ポインティング者U1及び観察者U2,U3が表示された内容を把握しやすくなるという利点がある。
As described above, according to the
なお、上記説明では、マーク表示を光透過型のスクリーン(光透過型表示装置)に表示する場合を説明したが、スクリーンは、光透過型のスクリーンに限るものではない。スクリーンを、非光透過型のスクリーンとし、ビデオカメラで撮影したポインティング対象Q1を、スクリーンに表示させる構成としても良い。このような利用法は、スマートフォン又はタブレットPCなどのように、スクリーンと、その背面に備えられたビデオカメラとを持つ装置によっても実現可能である。 In the above description, the mark display is displayed on a light transmissive screen (light transmissive display device). However, the screen is not limited to the light transmissive screen. The screen may be a non-light transmissive screen, and the pointing object Q1 photographed by the video camera may be displayed on the screen. Such usage can also be realized by a device having a screen and a video camera provided on the back surface thereof, such as a smartphone or a tablet PC.
《6》変形例1.
図26は、本発明の実施の形態1によるポインティング装置の変形例1を示すブロック図である。また、図26に示されるポインティング装置1eと、情報提供部70と、スクリーン60とは、ポインティングシステム100を構成している。図5(実施の形態1)に示されるポインティング装置1では、ポインティング対象判別部10は、ポインティング者位置情報取得部(第1の位置情報取得部)11と、ポインティング操作情報取得部12と、ポインティング対象候補情報取得部(第3の位置情報取得部)13と、ポインティング対象解析部14とを有している。これに対し、図26に示される変形例1においては、情報提供部70が、ポインティング者位置情報取得部11に対応するポインティング者位置情報取得部(第1の位置情報取得部)71と、ポインティング操作情報取得部12に対応するポインティング操作情報取得部72と、ポインティング対象候補情報取得部13に対応するポインティング対象候補情報取得部(第3の位置情報取得部)73とを備えており、必要な情報をポインティング装置1aのポインティング対象判別部10aに提供している。
<< 6 >>
FIG. 26 is a block diagram showing a first modification of the pointing device according to the first embodiment of the present invention. In addition, the
また、図5(実施の形態1)に示されるポインティング装置1では、マーク表示情報生成部20は、スクリーン情報取得部21と、ポインティング者用マーク表示位置算出部(ポインティング者用特別表示位置算出部)22と、観察者位置情報取得部(第2の位置情報取得部)23と、観察者用マーク表示位置算出部(観察者用特別表示位置算出部)24と、マーク表示情報出力部(特別表示情報出力部)25とを有している。これに対し、図26に示される変形例1においては、情報提供部70が、スクリーン情報取得部21に対応するスクリーン情報取得部74と、観察者位置情報取得部23に対応する観察者位置情報取得部(第2の位置情報取得部)75とを備えており、必要な情報をポインティング装置1eのマーク表示情報生成部20eに提供している。
In the
図27は、ポインティング装置1eの構成を示すブロック図である。図27に示されるように、ポインティング対象判別部10eは、第1の位置(例えば、ポインティング者の位置)を示す第1の位置情報と、ポインティング方向(例えば、ポインティング者が道具又は手指で指し示す方向)を示すポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを情報提供部70から受け取り、これらの情報を元に、ポインティング対象がポインティング対象候補の中のいずれであるかを判別し、この判別の結果を示す判別情報を出力するポインティング対象解析部14を有している。
FIG. 27 is a block diagram showing a configuration of the
また、マーク表示情報生成部20eは、ポインティング者用マーク表示位置算出部(ポインティング者用特別表示位置算出部)22と、観察者用マーク表示位置算出部(観察者用特別表示位置算出部)24と、マーク表示情報出力部(特別表示情報出力部)25とを有している。マーク表示情報生成部20eは、第2の位置(例えば、観察者の位置)を示す第2の位置情報と、ポインティング対象判別部10eから出力された判別情報と、スクリーンの位置を示す情報を含むスクリーン情報とを元に、第2の位置からポインティング対象に向かう第2の位置用の直線(例えば、図4における直線L2)が、スクリーンに交差する位置である第2の位置用の特別表示(例えば、図4におけるM2)の表示位置を算出し、第2の位置用の特別表示の表示情報を出力する。
The mark display
変形例1によれば、実施の形態1の場合と同様に、観察者U2,U3に対しポインティング対象Q1を正確に認識させることができる。 According to the modified example 1, as in the case of the first embodiment, it is possible to cause the observers U2 and U3 to accurately recognize the pointing object Q1.
また、変形例1の情報提供部70は、実施の形態2から5にも適用可能である。
Further, the
《7》変形例2.
図28は、実施の形態1によるポインティング装置1の変形例2の構成を示すハードウェア構成図である。図28に示されるポインティング装置1の変形例2は、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを有している。図28に示されるポインティング装置1の変形例の動作は、図5に示される実施の形態1によるポインティング装置1の動作と同じである。
<< 7 >> Modification 2
FIG. 28 is a hardware configuration diagram illustrating a configuration of Modification 2 of the
図28に示される装置が、図5に示されるポインティング装置1における処理を実現する場合には、図5に示されるポインティング装置1の各構成は、プロセッサ92がメモリ91に記憶されたプログラムを実行することにより、実現される。なお、ポインティング装置1の各構成を実現するために、プロセッサ92とメモリ91とを用いる場合を例示したが、ポインティング装置1の各構成の一部をプロセッサ92とメモリ91で実現し、残りの部分をハードウェア回路で実現しても良い。
When the apparatus shown in FIG. 28 realizes the processing in the
また、図28に示される装置が、図11に示されるポインティング装置2、図17に示されるポインティング装置3、図21に示されるポインティング装置4、及び図24に示されるポインティング装置5における各処理を実現する場合には、ポインティング装置1の場合と同様に、ポインティング装置2〜5の各構成は、プロセッサ92がメモリ91に記憶されたプログラムを実行することにより、実現される。なお、ポインティング装置2〜5の各構成を実現するために、プロセッサ92とメモリ91とを用いる場合を例示したが、ポインティング装置2〜5の各構成の一部をプロセッサ92とメモリ91で実現し、残りの部分をハードウェア回路で実現しても良い。
28 performs the respective processes in the pointing device 2 shown in FIG. 11, the
本発明が適用されたポインティング装置は、例えば、ポインティング対象を指し示すポインティング者が動物園又は美術館などのツアーガイドであり、ポインティング対象の観察者がツアーガイドの説明を受けるツアー参加者である場合に使用することができる。 The pointing device to which the present invention is applied is used when, for example, the pointing person pointing to the pointing object is a tour guide such as a zoo or a museum, and the pointing object observer is a tour participant who receives the explanation of the tour guide. be able to.
1〜5,1e ポインティング装置、 10,10a,10e ポインティング対象判別部、 11 ポインティング者位置情報取得部(第1の位置情報取得部)、 12 ポインティング操作情報取得部、 13 ポインティング対象候補情報取得部(第3の位置情報取得部)、 14 ポインティング対象解析部、 15 ポインティング対象追跡部、 20,20a,20b,20c,20e マーク表示情報生成部(特別表示情報生成部)、 21 スクリーン情報取得部、 22 ポインティング者用マーク表示位置算出部(第1の特別表示位置算出部)、 23 観察者位置情報取得部(第2の位置情報取得部)、 24 観察者用マーク表示位置算出部(観察者用特別表示位置算出部)、 25 マーク表示情報出力部(特別表示情報出力部)、 26 スクリーン割当判断部、 27 マーク集約部(特別表示集約部)、 28 マーク表示切替部(特別表示切替部)、 60 スクリーン、 70 情報提供部、 U1 ポインティング者、 U2,U3 観察者、 S1,S2,S3 スクリーン、 Q1 ポインティング対象、 L1 ポインティング者とポインティング対象とを結ぶ直線(第1の位置用の直線)、 L2,L3 観察者とポインティング対象とを結ぶ直線(第2の位置用の直線)、 M1 ポインティング者用マーク表示(第1の位置用の特別表示)、 M2,M3 観察者用マーク表示(第2の位置用の特別表示)、 M10 マーク表示(特別表示)。 1 to 5, 1e pointing device, 10, 10a, 10e pointing target determination unit, 11 pointing person position information acquisition unit (first position information acquisition unit), 12 pointing operation information acquisition unit, 13 pointing target candidate information acquisition unit ( 3rd position information acquisition unit), 14 pointing object analysis unit, 15 pointing object tracking unit, 20, 20a, 20b, 20c, 20e mark display information generation unit (special display information generation unit), 21 screen information acquisition unit, 22 Pointer mark display position calculation unit (first special display position calculation unit), 23 observer position information acquisition unit (second position information acquisition unit), 24 observer mark display position calculation unit (special for observer) Display position calculation unit), 25 mark display information output unit (special display information output unit) 26 screen allocation determination unit, 27 mark aggregation unit (special display aggregation unit), 28 mark display switching unit (special display switching unit), 60 screens, 70 information providing unit, U1 pointing person, U2, U3 observer, S1, S2 , S3 screen, Q1 pointing object, L1 straight line connecting pointing person and pointing object (straight line for first position), L2, L3 straight line connecting observer and pointing object (straight line for second position), M1 pointing person mark display (special display for the first position), M2, M3 observer mark display (special display for the second position), M10 mark display (special display).
Claims (11)
前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別部と、
前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成部と、
を備えたことを特徴とするポインティング装置。 When the pointing direction from the first position toward the pointing object is indicated at the first position, the display information of the special display on the screen is generated so that the pointing object can be recognized at the second position. A pointing device,
The pointing target based on first position information indicating the first position, pointing operation information including information indicating the pointing direction, and third position information indicating the position of one or more pointing target candidates. Is a pointing target determination unit that determines which of the pointing target candidates is output, and outputs determination information indicating a result of the determination;
Based on the second position information indicating the second position, the discrimination information, and the screen information including information indicating the position of the screen, the second position from the second position toward the pointing target. Special display information generation for calculating a display position of the special display for the second position, which is a position where the straight line intersects the screen, and outputting information indicating the display position of the special display for the second position And
A pointing device comprising:
前記第1の位置を示す第1の位置情報を取得する第1の位置情報取得部と、
前記第1の位置で前記ポインティング方向が指し示されたときに、前記ポインティング方向を示す情報を含むポインティング操作情報を取得するポインティング操作情報取得部と、
前記1以上のポインティング対象候補の位置を示す第3の位置情報を取得する第3の位置情報取得部と、
前記ポインティング操作情報と、前記第1の位置情報と、前記第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかの解析を行い、該解析の結果を前記判別情報として出力するポインティング対象解析部と、
を有することを特徴とする請求項1又は2に記載のポインティング装置。 The pointing object determination unit
A first position information acquisition unit that acquires first position information indicating the first position;
A pointing operation information acquisition unit configured to acquire pointing operation information including information indicating the pointing direction when the pointing direction is pointed at the first position;
A third position information acquisition unit that acquires third position information indicating the position of the one or more pointing target candidates;
Based on the pointing operation information, the first position information, and the third position information, an analysis is made as to which of the pointing object candidates is the pointing object, and the result of the analysis is obtained. A pointing object analysis unit that outputs the discrimination information;
The pointing device according to claim 1, further comprising:
前記スクリーン情報を取得するスクリーン情報取得部と、
前記第2の位置情報を取得する第2の位置情報取得部と、
前記第2の位置情報と、前記判別情報と、前記スクリーン情報とを元に、前記第2の位置用の特別表示の表示位置を算出する第2の表示位置算出部と、
前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報出力部と、
を有することを特徴とする請求項1から3のいずれか1項に記載のポインティング装置。 The special display information generation unit
A screen information acquisition unit for acquiring the screen information;
A second position information acquisition unit for acquiring the second position information;
A second display position calculation unit that calculates a display position of the special display for the second position based on the second position information, the determination information, and the screen information;
A special display information output unit for outputting information indicating a display position of the special display for the second position;
The pointing device according to claim 1, further comprising:
前記特別表示情報生成部は、前記複数の第2の位置と前記複数のスクリーンとの対応付けを判断するスクリーン割当判断部を有する
ことを特徴とする請求項1から4のいずれか1項に記載のポインティング装置。 A special display on a plurality of screens that enables the pointing object to be recognized at a plurality of second positions when a pointing direction from the first position toward the pointing object is indicated at the first position. The pointing device for generating display information of
The said special display information generation part has a screen allocation judgment part which judges matching with these 2nd position and these screens, The any one of Claim 1 to 4 characterized by the above-mentioned. Pointing device.
ことを特徴とする請求項1から5のいずれか1項に記載のポインティング装置。 6. The pointing device according to claim 1, wherein the pointing target determining unit includes a pointing target tracking unit that tracks the pointing target when the pointing target moves.
前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別ステップと、
前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成ステップと、
を備えたことを特徴とするポインティング方法。 When the pointing direction from the first position toward the pointing object is indicated at the first position, the display information of the special display on the screen is generated so that the pointing object can be recognized at the second position. A pointing method,
The pointing target based on first position information indicating the first position, pointing operation information including information indicating the pointing direction, and third position information indicating the position of one or more pointing target candidates. Is a pointing target determination step of determining which of the pointing target candidates is output, and outputting determination information indicating a result of the determination;
Based on the second position information indicating the second position, the discrimination information, and the screen information including information indicating the position of the screen, the second position from the second position toward the pointing target. Special display information generation for calculating a display position of the special display for the second position, which is a position where the straight line intersects the screen, and outputting information indicating the display position of the special display for the second position Steps,
A pointing method characterized by comprising:
前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別処理と、
前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成処理と、
を実行させるためのプログラム。 Display information on a special display on the screen that enables the computer to recognize the pointing object at the second position when the pointing direction from the first position toward the pointing object is indicated at the first position. As a process to generate
The pointing target based on first position information indicating the first position, pointing operation information including information indicating the pointing direction, and third position information indicating the position of one or more pointing target candidates. Pointing object determination processing for determining which of the pointing target candidates is output, and outputting determination information indicating the determination result;
Based on the second position information indicating the second position, the discrimination information, and the screen information including information indicating the position of the screen, the second position from the second position toward the pointing target. Special display information generation for calculating a display position of the special display for the second position, which is a position where the straight line intersects the screen, and outputting information indicating the display position of the special display for the second position Processing,
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015005463A JP6223371B2 (en) | 2015-01-15 | 2015-01-15 | Pointing device, pointing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015005463A JP6223371B2 (en) | 2015-01-15 | 2015-01-15 | Pointing device, pointing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016130987A JP2016130987A (en) | 2016-07-21 |
JP6223371B2 true JP6223371B2 (en) | 2017-11-01 |
Family
ID=56415561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015005463A Expired - Fee Related JP6223371B2 (en) | 2015-01-15 | 2015-01-15 | Pointing device, pointing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6223371B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110554784B (en) * | 2018-05-31 | 2023-07-14 | 广东虚拟现实科技有限公司 | Input method, input device, display device and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005174021A (en) * | 2003-12-11 | 2005-06-30 | Canon Inc | Method and device for presenting information |
JP2013125985A (en) * | 2011-12-13 | 2013-06-24 | Sharp Corp | Display system |
US9293118B2 (en) * | 2012-03-30 | 2016-03-22 | Sony Corporation | Client device |
JP2014174643A (en) * | 2013-03-06 | 2014-09-22 | Canon Inc | Image processing system, control method therefor, image processing device, and image processing method |
-
2015
- 2015-01-15 JP JP2015005463A patent/JP6223371B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016130987A (en) | 2016-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Williams et al. | BIM2MAR: an efficient BIM translation to mobile augmented reality applications | |
KR101821729B1 (en) | Pseudo random guided fingerprint enrolment | |
CN105452811B (en) | User terminal device for displaying map and method thereof | |
CN102388406B (en) | Portable electronic device recording is used to produce three-dimensional model | |
KR102362117B1 (en) | Electroninc device for providing map information | |
US20160005229A1 (en) | Electronic device for providing map information | |
Verma et al. | Indoor navigation using augmented reality | |
US9344854B2 (en) | Method, storage medium, server, and electronic device for implementing location based service within building | |
US10203837B2 (en) | Multi-depth-interval refocusing method and apparatus and electronic device | |
JP2017505933A (en) | Method and system for generating a virtual image fixed on a real object | |
JP2013080326A (en) | Image processing device, image processing method, and program | |
Kaufmann et al. | Studying spatial memory and map navigation performance on projector phones with peephole interaction | |
CN113910224B (en) | Robot following method and device and electronic equipment | |
CN102637116B (en) | 3D scene exchange method, device and collision checking method, device | |
JP5478242B2 (en) | Map display device, map display method, and program | |
KR20220062400A (en) | Projection method and system | |
Conesa et al. | Geographical and fingerprinting data to create systems for indoor positioning and indoor/outdoor navigation | |
CN114529621B (en) | Household type graph generation method and device, electronic equipment and medium | |
US10830593B2 (en) | Cognitive fingerprinting for indoor location sensor networks | |
Han et al. | Research on the feasibility of visual measurement using first‐person perspective based on smartphones | |
JP6223371B2 (en) | Pointing device, pointing method, and program | |
US20140320594A1 (en) | Apparatus and method for generating image data in portable terminal | |
Hu et al. | Real-time indoor assistive localization with mobile omnidirectional vision and cloud GPU acceleration | |
US10824328B2 (en) | Optimized non-grid based navigation | |
CN102985894A (en) | First response and second response |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6223371 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |