JP6223371B2 - Pointing device, pointing method, and program - Google Patents

Pointing device, pointing method, and program Download PDF

Info

Publication number
JP6223371B2
JP6223371B2 JP2015005463A JP2015005463A JP6223371B2 JP 6223371 B2 JP6223371 B2 JP 6223371B2 JP 2015005463 A JP2015005463 A JP 2015005463A JP 2015005463 A JP2015005463 A JP 2015005463A JP 6223371 B2 JP6223371 B2 JP 6223371B2
Authority
JP
Japan
Prior art keywords
pointing
information
display
screen
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015005463A
Other languages
Japanese (ja)
Other versions
JP2016130987A (en
Inventor
喜久 山口
喜久 山口
晴彦 若柳
晴彦 若柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015005463A priority Critical patent/JP6223371B2/en
Publication of JP2016130987A publication Critical patent/JP2016130987A/en
Application granted granted Critical
Publication of JP6223371B2 publication Critical patent/JP6223371B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、第1の位置から指し示されたポインティング対象を第2の位置で認識可能とする、スクリーン上の特別表示の表示情報を生成するポインティング装置及びポインティング方法に関するものである。   The present invention relates to a pointing device and a pointing method for generating display information of a special display on a screen, in which a pointing object pointed from a first position can be recognized at a second position.

従来、道具又は体の部位によって指し示されたポインティング対象を検出する方法及び装置が種々提案されている。例えば、特許文献1は、同一直線上に等間隔で配置された所定の3色の部分を備えた道具をビデオカメラで撮影し、この道具によって指し示されているポインティング対象を、ビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法及び装置を提案している。また、特許文献2は、ポインティング者(ユーザ)の体の部位を複数のビデオカメラで撮影し、この体の部位によって指し示されているポインティング対象を、複数のビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法及び装置を提案している。   Conventionally, various methods and apparatuses for detecting a pointing object pointed by a tool or a body part have been proposed. For example, in Patent Document 1, a tool having predetermined three-color portions arranged at equal intervals on the same straight line is photographed by a video camera, and a pointing target pointed by the tool is photographed by the video camera. Proposes a method and an apparatus based on a video image obtained by the above. In Patent Document 2, a body part of a pointing person (user) is photographed by a plurality of video cameras, and a pointing object indicated by the body part is acquired by photographing a plurality of video cameras. Proposes a method and apparatus based on video.

また、ポインティング者(ユーザ)によって指し示されているポインティング対象を、ポインティング対象観察者(他のユーザ)に認識させるために、種々の方法及び装置が検討されている。例えば、ポインティング対象を指し示すために用いられている道具、ポインティング者の体の部位、又は、壁などに備えられている光照射装置(投光器)からの光を、ポインティング対象に照射することによって、ポインティング対象観察者(以下単に「観察者」とも言う。)にポインティング対象を認識させる方法がある。図1は、ポインティング者U1の手によって指し示されたポインティング対象Q1に投光器301によって光スポット302が照射されている例を示す図である。   Various methods and apparatuses have been studied in order to make a pointing target observer (another user) recognize a pointing target pointed by a pointing person (user). For example, pointing is performed by irradiating the pointing object with light from a light irradiation device (projector) provided on a tool, a body part of the pointing person, or a wall that is used to point the pointing object. There is a method for causing a target observer (hereinafter, also simply referred to as “observer”) to recognize a pointing object. FIG. 1 is a diagram illustrating an example in which a light spot 302 is irradiated by a projector 301 onto a pointing object Q1 pointed to by the hand of a pointing person U1.

しかしながら、ポインティング者からポインティング対象までの距離が遠い場合又は投光器からポインティング対象までの距離が遠い場合には、投光器によって照射された光スポットによりポインティング対象を観察者に正確に認識させることができないことがある。また、ポインティング対象をコンピュータ画面に表示する方法も考えられるが、ポインティング対象がコンピュータ画面内に表示されていない場合には、ポインティング対象を観察者に認識させることができない。また、ポインティング対象が美術品又は生物などのように、光照射に適さない事物である場合には、投光器を用いることはできない。   However, when the distance from the pointing person to the pointing object is long, or when the distance from the projector to the pointing object is long, the pointing object may not be accurately recognized by the observer due to the light spot irradiated by the light projector. is there. Although a method of displaying the pointing target on the computer screen is also conceivable, if the pointing target is not displayed in the computer screen, the pointing target cannot be recognized by the observer. In addition, when the object to be pointed is an object that is not suitable for light irradiation, such as a work of art or a living thing, a projector cannot be used.

これらの対策として、ポインティング者とポインティング対象との間に光透過型のスクリーンを設置し、ポインティング者とポインティング対象とを結ぶ直線とスクリーンと交差する位置(交点位置)に、マークを表示する方法も考えられる。図2は、ポインティング者U1の位置とポインティング対象Q1の位置とを結ぶ直線L1がスクリーンS1と交差する位置にマークM1が表示されている状況を示す図である。   As a countermeasure, a light transmission type screen is installed between the pointing person and the pointing object, and a mark is displayed at a position where the straight line connecting the pointing person and the pointing object intersects the screen (intersection position). Conceivable. FIG. 2 is a diagram illustrating a situation in which a mark M1 is displayed at a position where a straight line L1 connecting the position of the pointing person U1 and the position of the pointing target Q1 intersects the screen S1.

特許第4709364号公報(請求項2)Japanese Patent No. 4709364 (Claim 2) 特許第3860550号公報(請求項1、段落0031、図1)Japanese Patent No. 3860550 (Claim 1, paragraph 0031, FIG. 1)

しかしながら、ポインティング者の位置とポインティング対象の観察者の位置とが異なる場合には、スクリーンに表示されたマークに基づいて観察者が認識した事物が、ポインティング者によって指し示されているポインティング対象と異なるというケース、すなわち、誤認識(認識の齟齬)が発生し得るという問題がある。なお、図3は、ポインティング者U1がポインティング対象Q1を指し示しているが、スクリーンS1のマークM1を通して事物を認識している観察者U2は、事物Q2がポインティング対象であると誤認識するケースを示している。   However, when the position of the pointing person is different from the position of the pointing target observer, the thing recognized by the observer based on the mark displayed on the screen is different from the pointing object indicated by the pointing person. In other words, there is a problem that erroneous recognition (recognition trap) may occur. FIG. 3 shows a case where the pointing person U1 points to the pointing object Q1, but the observer U2 who recognizes the object through the mark M1 on the screen S1 erroneously recognizes that the object Q2 is the pointing object. ing.

そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、第1の位置から指し示されているポインティング対象を第2の位置で正しく認識可能とする、スクリーンにおける特別表示の表示情報を生成することができるポインティング装置及びポインティング方法を提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and a special display on the screen that makes it possible to correctly recognize the pointing object pointed from the first position at the second position. An object of the present invention is to provide a pointing device and a pointing method capable of generating the display information.

本発明に係るポインティング装置は、第1の位置で前記第1の位置からポインティング対象に向かうポインティング方向が指し示されたときに、第2の位置で前記ポインティング対象を認識可能とする、スクリーン上における特別表示の表示情報を生成するポインティング装置であって、前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別部と、前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成部とを備えたものである。   The pointing device according to the present invention enables the pointing object to be recognized at the second position when the pointing direction from the first position toward the pointing object is indicated at the first position. A pointing device that generates display information for special display, the first position information indicating the first position, the pointing operation information including information indicating the pointing direction, and the position of one or more pointing target candidates. A pointing target determining unit that determines which of the pointing target candidates is one of the pointing target candidates based on the third position information indicated, and outputs determination information indicating the determination result; A script including second position information indicating the position of the screen, the discrimination information, and information indicating the position of the screen. A display position of a special display for the second position, where a straight line for the second position from the second position toward the pointing object intersects the screen, A special display information generation unit that outputs information indicating a display position of the special display for the second position.

本発明によれば、観察者の位置である第2の位置からポインティング対象に向かう第2の位置用の直線が、スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、第2の位置用の特別表示の表示位置を示す情報を出力する。スクリーンには、この情報に基づく第2の位置用の特別表示が表示されるので、第2の位置からポインティング対象を正確に認識することができる。   According to the present invention, the display position of the special display for the second position where the straight line for the second position from the second position that is the position of the observer toward the pointing object intersects the screen is calculated. Then, information indicating the display position of the special display for the second position is output. Since the special display for the second position based on this information is displayed on the screen, the pointing object can be accurately recognized from the second position.

ポインティング者によって指し示されたポインティング対象に光スポットを照射する例を示す図である。It is a figure which shows the example which irradiates a light spot to the pointing object pointed by the pointing person. ポインティング者によって指し示されたポインティング対象を示すマークを光透過型スクリーンに表示する例を示す図である。It is a figure which shows the example which displays the mark which shows the pointing object pointed by the pointing person on a light transmissive screen. 光透過型スクリーンのマークを通して事物を認識した観察者が、ポインティング対象を誤認識する例を示す図である。It is a figure which shows the example which the observer who recognized the thing through the mark of the light transmission type screen recognizes the pointing object erroneously. 本発明の実施の形態1によるポインティング装置の動作の一例を示す概念図である。It is a conceptual diagram which shows an example of operation | movement of the pointing device by Embodiment 1 of this invention. 実施の形態1によるポインティング装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of a pointing device according to a first embodiment. 実施の形態1によるポインティング装置のポインティング対象の判別処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of a pointing target determination process of the pointing device according to the first embodiment. 実施の形態1によるポインティング装置のポインティング者用マーク表示情報の生成処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of a process for generating pointing user mark display information of the pointing device according to the first embodiment. 実施の形態1によるポインティング装置の観察者用マーク表示情報の生成処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing for generating observer mark display information of the pointing device according to the first embodiment. 実施の形態1によるポインティング装置の観察者用マーク表示情報の生成処理の一例を示す概念図である。7 is a conceptual diagram illustrating an example of processing for generating observer mark display information of the pointing device according to Embodiment 1. FIG. 本発明の実施の形態2によるポインティング装置の動作の一例を示す概念図である。It is a conceptual diagram which shows an example of operation | movement of the pointing device by Embodiment 2 of this invention. 実施の形態2によるポインティング装置の構成を概略的に示すブロック図である。6 is a block diagram schematically showing a configuration of a pointing device according to a second embodiment. FIG. 実施の形態2によるポインティング装置のスクリーン割当判断処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of a screen assignment determination process of the pointing device according to the second embodiment. 実施の形態2によるポインティング装置の観察者用マーク表示情報の生成処理の一例を示すフローチャートである。11 is a flowchart illustrating an example of processing for generating observer mark display information of the pointing device according to the second embodiment. (a)及び(b)は、実施の形態2によるポインティング装置の観察者用マーク表示情報の生成処理の他の例の一例を示す概念図である。(A) And (b) is a conceptual diagram which shows an example of the other example of a production | generation process of the mark display information for observers of the pointing device by Embodiment 2. FIG. 実施の形態2によるポインティング装置の動作の一例を示す概念図である。FIG. 11 is a conceptual diagram illustrating an example of an operation of the pointing device according to the second embodiment. (a)及び(b)は、本発明の実施の形態3によるポインティング装置の動作の一例を示す概念図である。(A) And (b) is a conceptual diagram which shows an example of operation | movement of the pointing device by Embodiment 3 of this invention. 実施の形態3によるポインティング装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a pointing device according to a third embodiment. 実施の形態3によるポインティング装置のポインティング対象の追跡処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of tracking processing of a pointing target of the pointing device according to the third embodiment. 実施の形態3によるポインティング装置のポインティング対象の解析処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of analysis processing of a pointing target of the pointing device according to the third embodiment. (a)及び(b)は、本発明の実施の形態4によるポインティング装置の動作の一例を示す概念図である。(A) And (b) is a conceptual diagram which shows an example of operation | movement of the pointing device by Embodiment 4 of this invention. 実施の形態4によるポインティング装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a pointing device according to a fourth embodiment. 実施の形態4によるポインティング装置のマーク集約処理の一例を示すフローチャートである。15 is a flowchart illustrating an example of mark aggregation processing of the pointing device according to the fourth embodiment. 本発明の実施の形態5によるポインティング装置の動作の一例を示す概念図である。It is a conceptual diagram which shows an example of operation | movement of the pointing device by Embodiment 5 of this invention. 実施の形態5によるポインティング装置の構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a pointing device according to a fifth embodiment. 実施の形態5によるポインティング装置のマーク表示切替処理の一例を示すフローチャートである。14 is a flowchart illustrating an example of mark display switching processing of the pointing device according to the fifth embodiment. 本発明の実施の形態によるポインティング装置の変形例1の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the modification 1 of the pointing device by embodiment of this invention. 図26のポインティング装置の構成を概略的に示すブロック図である。FIG. 27 is a block diagram schematically showing a configuration of the pointing device of FIG. 26. 本発明の実施の形態1から5によるポインティング装置の変形例2を示すハードウェア構成図である。It is a hardware block diagram which shows the modification 2 of the pointing device by Embodiment 1-5 of this invention.

《1》実施の形態1.
最初に、ポインティング装置1の概要を説明する。図4は、本発明の実施の形態1によるポインティング装置の動作の一例を示す概念図である。また、図5は、実施の形態1によるポインティング装置1の構成を概略的に示すブロック図である。また、ポインティング装置1は、実施の形態1によるポインティング方法を実施することができる装置である。
<< 1 >> Embodiment 1
First, an outline of the pointing device 1 will be described. FIG. 4 is a conceptual diagram showing an example of the operation of the pointing device according to the first embodiment of the present invention. FIG. 5 is a block diagram schematically showing the configuration of the pointing device 1 according to the first embodiment. The pointing device 1 is a device that can perform the pointing method according to the first embodiment.

図4に示されるように、ポインティング装置1は、ポインティング者U1の位置(第1の位置)PU1で、ポインティング者U1の位置PU1からポインティング対象(事物)Q1に向かうポインティング方向(例えば、ポインティング者U1が道具又は手指で指し示す方向)が指し示されたときに、ポインティング対象観察者U2の位置(第2の位置)PU2でポインティング対象Q1を認識可能とする、スクリーンS1上におけるマークM2などの特別表示の表示情報を生成する。なお、ポインティング者U1は、ポインティング対象Q1を指し示すユーザである。また、ポインティング対象観察者(以下、単に「観察者」とも言う)は、ポインティング者U1によって指し示されたポインティング対象Q1を見る他のユーザU2である。   As shown in FIG. 4, the pointing device 1 is a position (first position) PU1 of the pointing person U1, and a pointing direction (for example, the pointing person U1) from the position PU1 of the pointing person U1 toward the pointing object (thing) Q1. When the pointing object Q1 is pointed with a tool or a finger), a special display such as the mark M2 on the screen S1 that enables the pointing object Q1 to be recognized at the position (second position) PU2 of the pointing object observer U2 Generate display information. The pointing person U1 is a user who indicates the pointing target Q1. The pointing target observer (hereinafter, also simply referred to as “observer”) is another user U2 who sees the pointing target Q1 pointed to by the pointing person U1.

図5に示されるように、ポインティング装置1は、ポインティング対象判別部10と、マーク表示情報生成部(特別表示情報生成部)20とを備えている。ポインティング対象判別部10は、ポインティング者U1の位置(第1の位置)PU1を示すポインティング者位置情報(第1の位置情報)I11と、第1の位置PU1からポインティング対象Q1に向かうポインティング方向を示すポインティング方向情報を含むポインティング操作情報I12と、1以上のポインティング対象候補(図4においては、候補としてQ1,Q2が示されている)の位置を示すポインティング対象候補情報(第3の位置情報)I13とを元に、ポインティング対象Q1がポインティング対象候補の中のいずれであるかを判別し、この判別の結果を示す判別情報I14を出力する。 As shown in FIG. 5, the pointing device 1 includes a pointing object determination unit 10 and a mark display information generation unit (special display information generation unit) 20. Pointing object determination unit 10 includes a pointing user location information (first location information) I 11 indicating the position (first position) PU1 pointing's U1, the pointing direction from the first position PU1 pointing object Q1 Pointing operation information I 12 including pointing direction information to be indicated, and pointing object candidate information (third position information) indicating the positions of one or more pointing object candidates (Q 1 and Q 2 are shown as candidates in FIG. 4). ) based on the I 13, pointing object Q1 is determined which one in pointing candidate, and outputs the determination information I 14 indicating the result of this determination.

マーク表示情報生成部20は、観察者U2の位置(第2の位置)PU2を示す観察者位置情報(第2の位置情報)I23と、ポインティング対象判別部10から出力された判別情報I14と、スクリーンS1の位置を示す情報を含むスクリーン情報I21とを元に、観察者U2の位置(第2の位置)PU2からポインティング対象Q1に向かう観察者用の直線(第2の位置用の直線)L2が、スクリーンS1に交差する位置(交点位置)である観察者用特別表示としての観察者用マーク(第2の位置用のマーク)M2の表示位置を算出し、観察者用マークM2の表示情報I24を出力する。 Mark display information generation unit 20, the viewer position of U2 observer position information indicating a (second position) PU2 (second position information) I 23, determination information I 14 outputted from the pointing object discriminating section 10 On the basis of the screen information I 21 including information indicating the position of the screen S1, a straight line for the observer (second position for the second position) from the position U2 of the observer U2 (second position) PU2 to the pointing target Q1. The display position of the observer mark (second position mark) M2 as a special display for the observer, which is a position (intersection position) where the straight line L2 intersects the screen S1, is calculated, and the observer mark M2 is calculated. and it outputs the display information I 24.

次に、ポインティング装置1の詳細を説明する。図5に示されるように、ポインティング対象判別部10は、ポインティング者U1の位置(第1の位置)PU1を示すポインティング者位置情報(第1の位置情報)を取得するポインティング者位置情報取得部(第1の位置情報取得部)11と、ポインティング者U1の位置(第1の位置)PU1でポインティング者U1によってポインティング方向が指し示されたときに、ポインティング方向を示すポインティング方向情報を含むポインティング操作情報を取得するポインティング操作情報取得部12とを有している。なお、ポインティング者U1がポインティング方向を指し示す操作としては、例えば、ポインティング者U1が道具をポインティング方向に向ける操作、入力装置を使用してポインティング方向を入力する操作、道具及び装置を用いずにポインティング方向に手指を伸ばす動作などがある。また、本明細書においては、ポインティング者U1が人間である場合を説明するが、ポインティング者U1の代わりにポインティング対象を指し示す装置(例えば、機械及びロボットなど)を用いても良い。   Next, details of the pointing device 1 will be described. As shown in FIG. 5, the pointing target determination unit 10 is a pointing person position information acquisition unit (first position information) that acquires pointing person position information (first position information) indicating the position (first position) PU1 of the pointing person U1. Pointing operation information including pointing direction information indicating the pointing direction when the pointing direction is indicated by the first position information acquisition unit) 11 and the pointing person U1 at the position (first position) PU1 of the pointing person U1. And a pointing operation information acquisition unit 12 for acquiring. Examples of the operation in which the pointing person U1 points in the pointing direction include, for example, an operation in which the pointing person U1 points the tool in the pointing direction, an operation to input the pointing direction using the input device, and a pointing direction without using the tool and the device. There are movements such as extending fingers. In this specification, the case where the pointing person U1 is a human being will be described. However, an apparatus (for example, a machine or a robot) indicating a pointing object may be used instead of the pointing person U1.

また、ポインティング対象判別部10は、1以上のポインティング対象候補の位置を示すポインティング対象候補情報(第3の位置情報)を取得するポインティング対象候補情報取得部(第3の位置情報取得部)13と、ポインティング対象解析部14とを有している。ポインティング対象解析部14は、ポインティング操作情報取得部12によって取得されて提供されるポインティング操作情報I12と、ポインティング者位置情報取得部11によって取得されて提供されるポインティング者位置情報(第1の位置情報)I11と、ポインティング対象候補情報取得部13によって取得されて提供されるポインティング対象候補情報(第3の位置情報)I13とを元に、ポインティング対象Q1がポインティング対象候補の中のいずれであるかを解析し、この解析の結果を前記判別情報I14として出力する。 The pointing target determination unit 10 includes a pointing target candidate information acquisition unit (third position information acquisition unit) 13 that acquires pointing target candidate information (third position information) indicating the positions of one or more pointing target candidates. And a pointing object analyzing unit 14. The pointing object analysis unit 14 includes the pointing operation information I 12 acquired and provided by the pointing operation information acquisition unit 12 and the pointing person position information (first position) acquired and provided by the pointing person position information acquisition unit 11. information) I 11, based on a pointing object candidate information (third position information) I 13 to be provided is obtained by the pointing object candidate information obtaining unit 13, either a pointing object Q1 is in the pointing candidate It analyzes whether, and outputs the results of this analysis as the determination information I 14.

また、図5に示されるように、マーク表示情報生成部20は、スクリーン情報を取得して提供するスクリーン情報取得部21と、観察者位置情報(第2の位置情報)を取得して提供する観察者位置情報取得部(第2の位置情報取得部)23と、観察者用マーク(第2の位置用の特別表示)M2の表示位置情報を含む表示情報I24を算出する観察者用マーク表示位置算出部(第2の位置用特別表示位置算出部)24と、観察者用マーク(第2の位置用の特別表示)M2の表示情報I24を出力するマーク表示情報出力部(特別表示情報出力部)25とを有している。観察者用マーク表示位置算出部24は、観察者位置情報(第2の位置情報)I23と、ポインティング対象判別部10のポインティング対象解析部14から出力された判別情報I14と、スクリーン情報I21とを元に、観察者用マーク(第2の位置用の特別表示)M2の表示位置を算出する。 Further, as shown in FIG. 5, the mark display information generation unit 20 acquires and provides screen information acquisition unit 21 that acquires and provides screen information and observer position information (second position information). An observer mark for calculating display information I 24 including display position information of an observer position information acquisition unit (second position information acquisition unit) 23 and an observer mark (special display for the second position) M2. display position calculating section (second special display position calculation unit for position) 24, mark display information output unit for outputting the display information I 24 of M2 (special display (special display for the second position) observer marks Information output unit) 25. The observer mark display position calculation unit 24 includes observer position information (second position information) I 23 , discrimination information I 14 output from the pointing object analysis unit 14 of the pointing object discrimination unit 10, and screen information I. 21 is used to calculate the display position of the observer mark (special display for the second position) M2.

また、マーク表示情報生成部20は、ポインティング者位置情報(第1の位置情報)I11と、ポインティング対象判別部10から出力された判別情報I14と、スクリーン情報I21とを元に、ポインティング者U1の位置(第1の位置)PU1からポインティング方向に延びるポインティング者用の直線(第1の位置用の直線)L1が、スクリーンS1に交差する位置(交点位置)であるポインティング者用マーク(第1の位置用の特別表示)M1の表示位置を算出し、ポインティング者用マーク(第1の位置用の特別表示)M1の表示位置を示す表示情報I22を出力するポインティング者用マーク表示位置算出部(第1の表示位置算出部)22を有しても良い。 Further, the mark display information generation unit 20 performs pointing based on the pointing person position information (first position information) I 11 , the determination information I 14 output from the pointing target determination unit 10, and the screen information I 21. Pointer mark (point of intersection) where the straight line for the pointing person (straight line for the first position) L1 extending in the pointing direction from the position (first position) PU1 of the person U1 intersects the screen S1 (intersection position) calculating a special display) M1 display position for the first position, the special display) M1 mark display position for pointing who outputting display information I 22 indicating the display position of a pointing's mark (first position A calculation unit (first display position calculation unit) 22 may be included.

実施の形態1で取得されるポインティング者位置情報I11、観察者位置情報I23、スクリーン情報I21に含まれるスクリーンの位置情報、ポインティング対象Q1及びポインティング対象候補Q2の位置情報は、例えば、GPS(Global Positioning System)によって取得することができる。また、ポインティング操作情報I12は、ポインティング者U1の指先のGPS位置情報とポインティング者の肘から指先までの直線を示す方向情報をビデオカメラの映像情報に基づいて算出することによって取得しても良い。また、ポインティング操作情報(ポインティング操作の情報)I12は、ポインティング者のGPS位置情報(例えば、体の中心付近)とポインティング者U1の指先のGPS位置情報とから取得することが可能である。 The position information of the pointing person position information I 11 , the observer position information I 23 , the screen position information included in the screen information I 21 , the position information of the pointing object Q 1 and the pointing object candidate Q 2 acquired in the first embodiment is, for example, GPS. (Global Positioning System). Further, a pointing operation information I 12 may be obtained by calculating based on the direction information indicating a straight line up to the fingertip from the GPS position information of the fingertip of a pointing user U1 and pointing's elbows in the video information of the video camera . Further, the pointing operation information (information pointing operation) I 12 is able to acquire pointing's GPS location information (e.g., near the center of the body) and a the GPS position information of the fingertip of the pointing user U1.

図5に示されるポインティング者位置情報取得部11は、例えば、ポインティング者U1に備えられたセンサからの位置情報を取得する。「ポインティング者位置情報取得部11による位置情報の取得方法」の具体例として、以下の(a1)〜(a4)がある。ただし、「ポインティング者位置情報取得部11による位置情報の取得方法」は、以下の例に限定されない。
(a1)ポインティング者U1が携帯するGPSセンサなどの位置センサの情報を取得する方法。
(a2)ポインティング者U1が携帯するRFID(Radio Frequency Identifier)タグ又は携帯電話などの情報を受信した受信機又は受信局から位置情報を取得する方法。
(a3)地面若しくは床面に埋め込まれた感圧センサ又は赤外線センサなどの検出情報からポインティング者U1の位置情報を推定若しくは取得する方法。
(a4)ポインティング者U1自身が、入力装置からポインティング者U1の位置情報を入力する方法。
For example, the pointing person position information acquisition unit 11 illustrated in FIG. 5 acquires position information from a sensor provided in the pointing person U1. Specific examples of the “location information acquisition method by the pointing person location information acquisition unit 11” include the following (a1) to (a4). However, the “location information acquisition method by the pointing person location information acquisition unit 11” is not limited to the following example.
(A1) A method for acquiring information of a position sensor such as a GPS sensor carried by the pointing person U1.
(A2) A method of acquiring position information from a receiver or a receiving station that has received information such as an RFID (Radio Frequency Identifier) tag carried by the pointing person U1 or a mobile phone.
(A3) A method of estimating or acquiring the position information of the pointing person U1 from detection information such as a pressure sensor or an infrared sensor embedded in the ground or floor.
(A4) A method in which the pointing person U1 himself inputs the position information of the pointing person U1 from the input device.

また、「ポインティング者位置情報(第1の位置情報)」の具体例として、例えば、以下の(b1)及び(b2)がある。ただし、「ポインティング者位置情報(第1の位置情報)」は、以下の例に限定されない。
(b1)緯度、経度、及び高度などのような絶対位置を示す情報。
(b2)位置が既知である基準地点からの方向及び距離で特定される位置情報。例えば、「基準地点から東10m」などのように、特定の基準地点からの相対位置情報。
なお、ポインティング者位置情報は、ポインティング者U1の目の位置であることが望ましい。このため、ポインティング者位置情報を検出するセンサは、ポインティング者の目の近くに装備することが望ましい。ただし、センサを目の近くに装備することができない場合には、予め入力されたポインティング者の身長から目の位置を推測することが望ましい。例えば、ポインティング者の目の位置を、ポインティング者の身長から、予め決められた値(ポインティング者の頭の頂部から目までの距離に相当する値であり、例えば、10cmである)を減算した高さの位置とすることが望ましい。
Specific examples of the “pointer position information (first position information)” include the following (b1) and (b2), for example. However, the “pointer position information (first position information)” is not limited to the following example.
(B1) Information indicating an absolute position such as latitude, longitude and altitude.
(B2) Position information specified by the direction and distance from the reference point whose position is known. For example, relative position information from a specific reference point such as “10 m east from the reference point”.
The pointing person position information is preferably the eye position of the pointing person U1. For this reason, it is desirable that the sensor for detecting the position information of the pointing person is installed near the eyes of the pointing person. However, when the sensor cannot be installed near the eyes, it is desirable to estimate the position of the eyes from the height of the pointing person input in advance. For example, the position of the pointing person's eye is subtracted from the height of the pointing person by a predetermined value (a value corresponding to the distance from the top of the pointing person's head to the eye, for example, 10 cm). It is desirable to set this position.

図5に示されるポインティング操作情報取得部12は、ポインティング者が行ったポインティング操作に関するポインティング操作情報を取得する。「ポインティング操作情報を取得する方法」としては、以下の(c1)及び(c2)がある。ただし、「ポインティング操作情報を取得する方法」は、以下の例に限定されない。
(c1)同一直線上に等間隔で配置された複数個の検出部分を備えた道具をビデオカメラで撮影し、この道具によって指し示されているポインティング対象を、ビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法(特許文献1と同様の方法)。
(c2)ポインティング者の体の部位を1又は複数のビデオカメラで撮影し、この体の部位によって指し示されているポインティング対象を、ビデオカメラの撮影によって取得されたビデオ映像に基づいて求める方法(特許文献2と同様の方法)。
The pointing operation information acquisition unit 12 illustrated in FIG. 5 acquires pointing operation information related to the pointing operation performed by the pointing person. The “method for acquiring pointing operation information” includes the following (c1) and (c2). However, the “method for acquiring pointing operation information” is not limited to the following example.
(C1) A video obtained by photographing a tool provided with a plurality of detection portions arranged at equal intervals on the same straight line with a video camera and pointing a pointing object pointed by the tool by the video camera. A method of obtaining based on an image (the same method as in Patent Document 1).
(C2) A method in which a body part of a pointing person is photographed by one or a plurality of video cameras, and a pointing target pointed by the body part is obtained based on a video image obtained by photographing by the video camera ( The same method as in Patent Document 2).

また、ポインティング者U1が行う「ポインティング操作によって取得される情報」の一例としては、以下の(d1)及び(d2)がある。ただし、「ポインティング操作によって取得される情報」は、以下の例に限定されない。
(d1)ポインティング操作を行った地点の位置情報。
(d2)ポインティング操作によって指し示された方向情報。
Examples of “information acquired by the pointing operation” performed by the pointing person U1 include the following (d1) and (d2). However, “information acquired by pointing operation” is not limited to the following example.
(D1) Position information of the point where the pointing operation is performed.
(D2) Direction information pointed by the pointing operation.

図5に示されるポインティング対象候補情報取得部13は、ポインティング者U1が指し示したポインティング対象Q1に該当する可能性がある候補物であるポインティング対象候補のリストを取得する。「ポインティング対象候補のリストを取得する方法」は、例えば、以下の(e1)及び(e2)がある。ただし、「ポインティング対象候補のリストを取得する方法」は、以下の例に限定されない。
(e1)地図データのように、予め用意されているポインティング対象候補の位置情報(例えば、施設内における展示物の配置データなど)を読み込むことによって、ポインティング対象候補のリストを取得する方法。
(e2)ポインティング対象となり得る事物に予め位置マーカを付したデータを作成し、ポインティング者U1によってポインティング操作が行われた場合に、位置マーカが付された事物の位置情報を収集することによって、動的にポインティング対象候補のリストを取得する方法。
The pointing target candidate information acquisition unit 13 illustrated in FIG. 5 acquires a list of pointing target candidates that are candidates that may correspond to the pointing target Q1 indicated by the pointing person U1. Examples of the “method for acquiring a list of pointing target candidates” include the following (e1) and (e2). However, the “method for acquiring a list of pointing target candidates” is not limited to the following example.
(E1) A method of acquiring a list of pointing target candidates by reading position information of pointing target candidates prepared in advance (for example, arrangement data of exhibits in a facility) like map data.
(E2) By creating data in which a position marker is attached in advance to an object that can be a pointing target, and when a pointing operation is performed by the pointing person U1, the position information of the object to which the position marker is attached is collected. To obtain a list of candidates for pointing.

「ポインティング対象候補のリストに含まれる情報」の例としては、以下の(f1)〜(f3)に示すものがある。ただし、「ポインティング対象候補のリストに含まれる情報」は、以下の例に限定されない。
(f1)各ポインティング対象候補の中心位置情報。
(f2)各ポインティング対象候補の底面情報。
(f3)各ポインティング対象候補の高さ情報。
Examples of “information included in the list of pointing target candidates” include the following (f1) to (f3). However, “information included in the list of candidates for pointing” is not limited to the following example.
(F1) Center position information of each pointing target candidate.
(F2) Bottom information of each pointing target candidate.
(F3) Height information of each pointing target candidate.

図5に示されるポインティング対象解析部14は、ポインティング者U1の位置情報I11と、ポインティング操作情報(ポインティング者U1の操作情報)I12と、ポインティング対象候補情報(第3の位置情報)I13とを元に、ポインティング対象候補の内のいずれがポインティング対象Q1であるかを解析し、その解析の結果を前記判別情報I14として出力する。 Pointing object analysis unit 14 shown in FIG. 5, the position information I 11 pointing's U1, and I 12 (the operation information of the pointing user U1) pointing operation information, pointing object candidate information (third position information) I 13 based on the door, analyzes any Do a pointing object Q1 of the pointing candidate, and outputs the result of the analysis as the determination information I 14.

次に、実施の形態1の動作を詳細に説明する。図6は、ポインティング対象解析部14の処理の一例を示すフローチャートである。まず、ステップST101で、ポインティング対象解析部14は、ポインティング者位置情報取得部11から、ポインティング者U1の位置情報I11を取得する。次に、ステップST102で、ポインティング対象解析部14は、ポインティング操作情報取得部12から、ポインティング操作情報(ポインティング操作の情報であり、例えば、ポインティング者U1の指先のGPS位置情報及び肘から指先までの直線を示す方向情報)I12を取得する。次に、ステップST103で、ポインティング対象解析部14は、検索距離として予め決められた距離を指定する。検索距離は、予め決められた距離、ポインティング対象候補に応じた距離、ユーザ入力された距離などを用いることができ、例えば、100〔m〕といったように決められる。 Next, the operation of the first embodiment will be described in detail. FIG. 6 is a flowchart illustrating an example of processing of the pointing object analysis unit 14. First, in step ST 101, the pointing object analysis unit 14, the pointing user position information acquisition unit 11 acquires positional information I 11 pointing's U1. Next, in step ST102, the pointing object analyzing unit 14 sends the pointing operation information (pointing operation information such as the GPS position information of the fingertip of the pointing person U1 and the elbow to the fingertip from the pointing operation information acquisition unit 12). acquires direction information) I 12 showing a straight line. Next, in step ST103, the pointing object analysis unit 14 designates a predetermined distance as a search distance. As the search distance, a predetermined distance, a distance corresponding to a pointing target candidate, a distance input by a user, or the like can be used, and is determined to be 100 [m], for example.

次に、ステップST104で、ポインティング対象解析部14は、ポインティング対象候補情報取得部13から、ステップST101で取得したポインティング者U1の位置情報I11が示す位置を中心にして、ステップST103で定めた検索距離に基づく検索範囲内(球内)に存在するポインティング対象候補の情報を取得する。 Next, at step ST 104, the pointing object analysis unit 14, the pointing object candidate information obtaining unit 13, and mainly the position indicated by the positional information I 11 pointing user U1 acquired in step ST 101, set in step ST103 search Information on pointing target candidates existing within the search range (sphere) based on the distance is acquired.

次に、ステップST105で、ポインティング対象解析部14は、ポインティング者U1によって指し示されたポインティング方向に沿って仮想の直線L1を伸ばす。このとき、直線L1を、例えば、1〔m〕ずつ伸ばす。次に、ステップST106で、ポインティング対象解析部14は、ステップST105で伸ばした直線L1の先端付近にポインティング対象候補が存在するかどうか調べる。例えば、先端から半径0.5〔m〕の球内にポインティング対象候補が存在するかどうかを調べる方法、又は、ステップST105で伸ばした直線L1に沿った半径0.5〔cm〕、長さ1〔m〕の円柱内にポインティング対象候補が存在するかどうかを調べる方法などがある。   Next, in step ST105, the pointing object analyzing unit 14 extends a virtual straight line L1 along the pointing direction indicated by the pointing person U1. At this time, the straight line L1 is extended by 1 [m], for example. Next, in step ST106, the pointing object analysis unit 14 checks whether there is a pointing object candidate near the tip of the straight line L1 extended in step ST105. For example, a method for checking whether or not a pointing target candidate exists in a sphere having a radius of 0.5 [m] from the tip, or a radius of 0.5 [cm] and a length of 1 along the straight line L1 extended in step ST105 There is a method of checking whether or not a pointing target candidate exists in the [m] cylinder.

次に、ステップST107で、ポインティング対象解析部14は、ステップST106で調査したポインティング対象候補が存在する場合は、そのポインティング対象候補をポインティング対象Q1として設定し、図6のフローチャートの処理を終了する。   Next, in step ST107, when the pointing target candidate investigated in step ST106 exists, the pointing target analysis unit 14 sets the pointing target candidate as the pointing target Q1, and ends the processing of the flowchart of FIG.

また、ステップST106でポインティング対象候補が存在しない場合、又は、ステップST105で伸ばした直線L1がステップST103で決めた検索距離を上回る場合は、ポインティング対象解析部14は、ポインティング対象なしと判定して、図6のフローチャートの処理を終了する。一方、ステップST106で、ポインティング対象候補が存在せず、かつ、ステップST105で伸ばした直線L1がステップST103で決めた検索距離以下である場合は、ポインティング対象解析部14は、処理をステップST105に戻し、さらに直線L1を予め決められた長さに伸ばして、ステップST106の処理を行う。なお、ステップST103の検索距離、ステップST105の直線L1を伸ばす距離、ステップST106の先端付近のポインティング対象候補を探す距離は、ポインティング装置の設計者が予め定めたものであっても良いし、また、ポインティング者U1によって任意に設定されたものであっても良い。   If there is no pointing target candidate in step ST106, or if the straight line L1 extended in step ST105 exceeds the search distance determined in step ST103, the pointing target analysis unit 14 determines that there is no pointing target, The process of the flowchart of FIG. On the other hand, if there is no pointing target candidate in step ST106 and the straight line L1 extended in step ST105 is less than or equal to the search distance determined in step ST103, the pointing target analyzing unit 14 returns the process to step ST105. Further, the straight line L1 is extended to a predetermined length, and the process of step ST106 is performed. The search distance in step ST103, the distance to extend the straight line L1 in step ST105, and the distance to search for a pointing target candidate near the tip in step ST106 may be predetermined by the designer of the pointing device, It may be arbitrarily set by the pointing person U1.

スクリーン情報取得部21は、マーク(特別表示)を表示するスクリーンについてのスクリーン情報を取得して、各部に供給する。「スクリーン情報を取得する方法」の例としては、以下の(g1)及び(g2)がある。ただし、「スクリーン情報を取得する方法」は、以下の例に限定されない。
(g1)ポインティング装置1の設計者、ポインティング者U1、ポインティング対象の観察者U2のいずれかの操作入力情報を受け取ることによって、スクリーン情報を取得する方法。
(g2)スクリーンにGPSなどのセンサを備え付けておき、スクリーン情報が必要になったときに、スクリーン情報取得部21がこのGPS情報を取得する方法。
The screen information acquisition unit 21 acquires screen information about a screen that displays a mark (special display) and supplies the screen information to each unit. Examples of the “method for acquiring screen information” include the following (g1) and (g2). However, the “method for acquiring screen information” is not limited to the following example.
(G1) A method of acquiring screen information by receiving operation input information of any of the designer of the pointing device 1, the pointing person U1, and the observer U2 to be pointed.
(G2) A method in which a sensor such as GPS is provided on the screen, and the screen information acquisition unit 21 acquires the GPS information when screen information is required.

また、スクリーン情報の例としては、以下の(h1)から(h3)に示すものがある。ただし、スクリーン情報は、以下の例に限定されない。
(h1)スクリーンの中心の位置情報(例えば、緯度、経度、及び高度などの情報)。
(h2)スクリーンの物理的サイズを示す情報(例えば、サイズをメートル単位で表した情報)。
(h3)スクリーンの輪郭の位置情報(例えば、緯度、経度、及び高度などの情報)。
Examples of screen information include the following (h1) to (h3). However, the screen information is not limited to the following example.
(H1) Position information of the center of the screen (for example, information such as latitude, longitude, and altitude).
(H2) Information indicating the physical size of the screen (for example, information indicating the size in meters).
(H3) Position information of the outline of the screen (for example, information such as latitude, longitude, and altitude).

ポインティング者用マーク表示位置算出部22は、ポインティング者U1の位置情報I11と、判別情報I14と、スクリーン情報I21とを元に、ポインティング対象Q1を指し示すポインティング者U1から見たスクリーン上のポインティング対象Q1の位置を計算する。図7は、ポインティング者用マーク表示位置算出部22の処理の一例を示すフローチャートである。まず、ステップST201で、ポインティング者用マーク表示位置算出部22は、ポインティング者位置情報取得部11からポインティング者U1の位置(図4のPU1)を示す位置情報I11を取得する。次に、ステップST202で、ポインティング者用マーク表示位置算出部22は、ポインティング対象解析部14で算出したポインティング対象Q1の位置情報を取得する。次に、ステップST203で、ポインティング者用マーク表示位置算出部22は、スクリーン情報取得部21からスクリーン情報I21を取得する。次に、ステップST204で、ポインティング者用マーク表示位置算出部22は、ステップST201で取得したポインティング者U1の位置とステップST202で取得したポインティング対象Q1の位置とを結ぶ直線(第1の直線)L1を算出する。次に、ステップST205で、ポインティング者用マーク表示位置算出部22は、ステップST204で算出した直線L1が、ステップST203で取得したスクリーンS1と交差する位置(交点位置)を算出し、図7のフローチャートの処理を終了する。 Pointing's mark display position calculating unit 22, a positional information I 11 pointing user U1, and the discrimination information I 14, based on the screen information I 21, on a screen viewed from a pointing user U1 pointing the pointing object Q1 The position of the pointing object Q1 is calculated. FIG. 7 is a flowchart illustrating an example of processing of the pointing person mark display position calculation unit 22. First, in step ST 201, a pointing's mark display position calculation unit 22 acquires position information I 11 indicating the position of the pointing user U1 pointing user position information acquisition unit 11 (PU1 in Figure 4). Next, in step ST <b> 202, the pointing person mark display position calculation unit 22 acquires the position information of the pointing target Q <b> 1 calculated by the pointing target analysis unit 14. Next, in step ST <b> 203, the pointing person mark display position calculation unit 22 acquires screen information I 21 from the screen information acquisition unit 21. Next, in step ST204, the pointing person mark display position calculation unit 22 connects the position of the pointing person U1 acquired in step ST201 and the position of the pointing target Q1 acquired in step ST202 (first straight line) L1. Is calculated. Next, in step ST205, the pointing person mark display position calculation unit 22 calculates a position (intersection position) where the straight line L1 calculated in step ST204 intersects the screen S1 acquired in step ST203, and the flowchart of FIG. Terminate the process.

観察者位置情報取得部23は、センサなどにより、ポインティング対象を見る観察者の位置を取得する。「観察者位置情報の取得方法」の例としては、以下の(i1)〜(i4)がある。ただし、「観察者位置情報の取得方法」は、以下の例に限定されない。
(i1)観察者が携帯するGPSセンサなどの位置センサの情報を取得する方法。
(i2)観察者が携帯するRFIDタグ又は携帯電話などの情報を受信した受信機又は受信局から位置情報を取得する方法。
(i3)地面若しくは床面に埋め込まれた感圧センサ又は赤外線センサなどの検出情報から観察者の位置情報を推定若しくは取得する方法。
(i4)観察者自身が、入力装置から自身の位置情報を入力する方法。
The observer position information acquisition unit 23 acquires the position of the observer who sees the pointing target using a sensor or the like. Examples of the “observer position information acquisition method” include the following (i1) to (i4). However, the “observer position information acquisition method” is not limited to the following example.
(I1) A method for acquiring information of a position sensor such as a GPS sensor carried by an observer.
(I2) A method of acquiring position information from a receiver or receiving station that has received information such as an RFID tag or a mobile phone carried by an observer.
(I3) A method of estimating or acquiring the position information of the observer from detection information such as a pressure-sensitive sensor or an infrared sensor embedded in the ground or floor.
(I4) A method in which the observer himself inputs his / her position information from the input device.

また、「観察者位置情報(第2の位置情報)」の具体例として、例えば、以下の(j1)及び(j2)がある。ただし、「観察者位置情報(第2の位置情報)」は、以下の例に限定されない。
(j1)緯度、経度、及び高度などのような絶対位置を示す情報。
(j2)位置が既知である基準地点からの方向及び距離で特定される位置情報。例えば、「基準地点から東10m」などのように、特定の基準地点からの相対位置情報。
なお、観察者位置情報は、観察者の目の位置であることが望ましい。このため、観察者位置情報を検出するセンサは、観察者の目の近くに装備することが望ましい。ただし、センサを目の近くに装備することができない場合には、予め入力された観察者の身長から目の位置を推測することが望ましい。例えば、観察者の目の位置を、観察者の身長から、予め決められた値(観察者の頭の頂部から目までの距離に相当する値であり、例えば、10cmである)を減算した高さの位置とすることが望ましい。
Specific examples of “observer position information (second position information)” include the following (j1) and (j2), for example. However, “observer position information (second position information)” is not limited to the following example.
(J1) Information indicating an absolute position such as latitude, longitude and altitude.
(J2) Position information specified by the direction and distance from the reference point whose position is known. For example, relative position information from a specific reference point such as “10 m east from the reference point”.
The observer position information is preferably the position of the observer's eyes. For this reason, it is desirable to equip the sensor for detecting the observer position information near the eyes of the observer. However, when the sensor cannot be installed near the eyes, it is desirable to estimate the position of the eyes from the height of the observer inputted in advance. For example, the position of the observer's eyes is a height obtained by subtracting a predetermined value (a value corresponding to the distance from the top of the observer's head to the eyes, for example, 10 cm) from the height of the observer. It is desirable to set this position.

観察者用マーク表示位置算出部24は、観察者位置情報I23と、ポインティング対象Q1の判別情報I14と、スクリーン情報I21とを元に、観察者U2から見たスクリーンS1上のポインティング対象Q1の位置であるマーク(特別表示)M2の表示位置を計算する。 Observer mark display position calculating unit 24, the viewer position information I 23, and the discrimination information I 14 pointing object Q1, based on the screen information I 21, pointing object on the screen S1, viewed from the observer U2 The display position of the mark (special display) M2, which is the position of Q1, is calculated.

次に、観察者が2人である場合を説明する。図8は、観察者用マーク表示位置算出部24の処理の一例を示すフローチャートである。また、図9は、観察者用マーク表示位置算出部24の処理の一例を示す概念図である。まず、ステップST301で、観察者用マーク表示位置算出部24は、観察者位置情報取得部23から観察者U2,U3の位置PU2,PU3を示す観察者位置情報I23を取得する。次に、ステップST302で、観察者用マーク表示位置算出部24は、ポインティング対象解析部14で算出したポインティング対象Q1の位置情報を含むポインティング対象情報としての判別情報I14を取得する。次に、ステップST303で、観察者用マーク表示位置算出部24は、スクリーン情報取得部21からスクリーン情報I21(図9におけるスクリーンS1の位置情報を含む)を取得する。次に、ステップST304で、観察者用マーク表示位置算出部24は、ステップST301で取得した観察者U2,U3の位置情報I23から、後述のステップST305〜ST306の処理を行っていない観察者を1人選ぶ。そのため、ステップST305で、観察者用マーク表示位置算出部24は、ステップST304で選択した観察者の位置と、ステップST302で取得したポインティング対象の位置とを結ぶ直線(図9のL2,L3)を算出する。次に、ステップST306で、観察者用マーク表示位置算出部24は、ステップST305で算出した直線(図9のL2,L3)がステップST303で取得したスクリーンS1と交差する位置(交点位置)を算出する。次に、ステップST307で、観察者用マーク表示位置算出部24は、全ての観察者について処理したかどうかを確認する。観察者用マーク表示位置算出部24は、処理対象とされていない観察者が残っている場合は、処理をステップST304に戻し、新しい観察者を1人選ぶ。観察者用マーク表示位置算出部24は、全ての観察者についての処理を終えている場合は、図8のフローチャートの処理を終了する。 Next, a case where there are two observers will be described. FIG. 8 is a flowchart illustrating an example of processing of the observer mark display position calculation unit 24. FIG. 9 is a conceptual diagram showing an example of processing of the observer mark display position calculation unit 24. First, in step ST 301, the viewer mark display position calculating unit 24 obtains the observer position information I 23 from the viewer position information acquisition unit 23 indicating the position PU2, PU3 observer U2, U3. Next, at step ST 302, the viewer mark display position calculating unit 24 acquires the determination information I 14 as a pointing object information including position information of the pointing object Q1 calculated in the pointing object analysis unit 14. Next, in step ST303, the observer mark display position calculation unit 24 acquires screen information I 21 (including the position information of the screen S1 in FIG. 9) from the screen information acquisition unit 21. Next, at step ST 304, the viewer mark display position calculating unit 24, from the position information I 23 observers U2, U3 acquired in step ST 301, the observer not subjected to processing in step ST305~ST306 below Choose one. Therefore, in step ST305, the observer mark display position calculation unit 24 creates straight lines (L2 and L3 in FIG. 9) connecting the position of the observer selected in step ST304 and the position of the pointing target acquired in step ST302. calculate. Next, in step ST306, the observer mark display position calculation unit 24 calculates a position (intersection position) where the straight line calculated in step ST305 (L2, L3 in FIG. 9) intersects the screen S1 acquired in step ST303. To do. Next, in step ST307, the observer mark display position calculation unit 24 confirms whether or not all the observers have been processed. The observer mark display position calculation unit 24 returns the process to step ST304 and selects one new observer when there remains an observer who is not a processing target. The observer mark display position calculation unit 24 ends the process of the flowchart of FIG. 8 when the processes for all the observers have been completed.

マーク表示情報出力部25は、マーク表示位置計算部22及び観察者用マーク表示位置算出部24で計算したスクリーンS1上のマーク表示位置(特別表示の表示位置)を、ポインティング者用マーク表示(第1の位置用の特別表示)M1の表示情報、及び、観察者用マーク表示(第2の位置用の特別表示)M2,M3の表示情報としてスクリーンS1に出力する。スクリーンS1は、受信した表示情報に基づいて、スクリーンS1上にポインティング者用マーク表示(第1の位置用の特別表示)M1、及び、観察者用マーク表示(第2の位置用の特別表示)M2,M3を表示する。   The mark display information output unit 25 displays the mark display position (special display display position) on the screen S1 calculated by the mark display position calculation unit 22 and the observer mark display position calculation unit 24 by using the mark display position for the pointing person (first display). 1 special display for position 1) and display information of M1 and mark information for observer (special display for second position) M2 and M3 are output to screen S1. Based on the received display information, the screen S1 displays a pointing person mark display (special display for the first position) M1 and an observer mark display (special display for the second position) on the screen S1. M2 and M3 are displayed.

以上に説明したように、実施の形態1によるポインティング装置1及びポインティング方法によれば、観察者U2,U3の位置である第2の位置PU2,PU3からポインティング対象Q1に向かう第2の位置用の直線L2,L3が、スクリーンS1に交差する位置である第2の位置用のマーク(特別表示)M2,M3の表示位置を算出し、第2の位置用のマーク(特別表示)M2,M3の表示情報を出力する。スクリーンS1には、この表示情報に基づく第2の位置用のマーク(特別表示)M2,M3が表示されるので、観察者U2,U3は、第2の位置PU2,PU3からポインティング対象Q1を正確に認識することができる。このように、実施の形態1によるポインティング装置1及びポインティング方法によれば、ポインティング対象Q1を指し示すポインティング者U1と指し示されたポインティング対象Q1を見る観察者U2,U3との間で、ポインティング対象Q1の認識齟齬がなくなるというメリットが得られる。   As described above, according to the pointing device 1 and the pointing method according to the first embodiment, the second position for the pointing object Q1 from the second positions PU2 and PU3 that are the positions of the observers U2 and U3 is used. The display positions of the second position marks (special display) M2 and M3 where the straight lines L2 and L3 intersect the screen S1 are calculated, and the second position marks (special display) M2 and M3 are calculated. Output display information. Since the second position marks (special display) M2 and M3 based on this display information are displayed on the screen S1, the observers U2 and U3 accurately point the pointing object Q1 from the second positions PU2 and PU3. Can be recognized. As described above, according to the pointing device 1 and the pointing method according to the first embodiment, the pointing object Q1 is between the pointing person U1 indicating the pointing object Q1 and the observers U2 and U3 viewing the pointing object Q1. The merit that there is no recognition trap is obtained.

《2》実施の形態2.
図10は、本発明の実施の形態2によるポインティング装置2の動作の一例を示す概念図である。実施の形態2は、複数のスクリーンS1,S2,S3に、ポインティング者用マーク表示(第1の位置用の特別表示)M1と観察者用マーク表示(第2の位置用の特別表示)M2,M3とが表示される点において、1つのスクリーンS1にポインティング者用マーク表示M1と観察者用マーク表示M2,M3とが表示される実施の形態1と相違する。実施の形態2によれば、複数のスクリーンS1,S2,S3を用いるので、1つのポインティング装置2で、より多人数の観察者U2,U3にポインティング対象Q1を正しく認識させることができるという利点がある。特に、1つのスクリーンに、複数の観察者用の複数のマーク表示(特別表示)M2,M3を表示する場合は、マーク表示(特別表示)M2,M3が重なって見難くなることがある。実施の形態2においては、スクリーンS1にポインティング者U1用のマーク(第1の位置用の特別表示)M1を表示し、スクリーンS2に観察者U2用のマーク(第2の位置用の特別表示)M2を表示し、スクリーンS3に観察者U3用のマーク(第3の位置用の特別表示)M3を表示されるようにしているので、1つのスクリーンに割り当てられる観察者の数が減少するため、見やすさが向上する。
<< 2 >> Embodiment 2
FIG. 10 is a conceptual diagram showing an example of the operation of the pointing device 2 according to the second embodiment of the present invention. In the second embodiment, a pointing person mark display (special display for the first position) M1 and an observer mark display (special display for the second position) M2 are displayed on a plurality of screens S1, S2, S3. The point that M3 is displayed is different from the first embodiment in which the pointing mark display M1 and the observer mark displays M2 and M3 are displayed on one screen S1. According to the second embodiment, since a plurality of screens S1, S2, and S3 are used, there is an advantage that a single pointing device 2 can cause more observers U2 and U3 to correctly recognize the pointing object Q1. is there. In particular, when a plurality of mark displays (special displays) M2 and M3 for a plurality of observers are displayed on one screen, the mark displays (special displays) M2 and M3 may overlap and become difficult to see. In the second embodiment, a mark for the pointing person U1 (special display for the first position) M1 is displayed on the screen S1, and a mark for the observer U2 (special display for the second position) is displayed on the screen S2. M2 is displayed, and the mark for the observer U3 (special display for the third position) M3 is displayed on the screen S3, so the number of observers assigned to one screen is reduced. The visibility is improved.

図11は、実施の形態2によるポインティング装置2の構成を概略的に示すブロック図である。また、ポインティング装置2は、実施の形態2によるポインティング方法を実施することができる装置である。図11において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態2によるポインティング装置2は、マーク表示情報生成部20aが、スクリーン割当判断部26を備えた点において、実施の形態1によるポインティング装置1と相違する。スクリーン割当判断部26は、ある観察者の位置情報I23及び複数のスクリーン情報I21を元に、指定された観察者用のマーク表示を行うスクリーンを特定する処理を行う。 FIG. 11 is a block diagram schematically showing the configuration of the pointing device 2 according to the second embodiment. The pointing device 2 is a device that can perform the pointing method according to the second embodiment. 11, components that are the same as or correspond to the components shown in FIG. 5 (Embodiment 1) are assigned the same reference numerals as in FIG. The pointing device 2 according to the second embodiment is different from the pointing device 1 according to the first embodiment in that the mark display information generation unit 20a includes a screen allocation determination unit 26. The screen assignment determination unit 26 performs a process of specifying a screen on which a mark for the designated observer is displayed based on the position information I 23 of a certain observer and the plurality of screen information I 21 .

図12は、スクリーン割当判断部26の処理の一例を示すフローチャートである。まず、ステップST401で、スクリーン割当判断部26は、観察者用マーク表示位置算出部24から複数の観察者の位置情報を取得する。次に、ステップST402で、スクリーン割当判断部26は、観察者用マーク表示位置算出部24からスクリーン情報を取得する。次に、ステップST403で、スクリーン割当判断部26は、スクリーン候補をなしに、距離Dを∞(無限大)に設定する。次に、ステップST404で、スクリーン割当判断部26は、ステップST402で取得したスクリーンから、後述のステップST405の処理を行っていないスクリーンを1つ選択する。次に、ステップST405で、スクリーン割当判断部26は、ポインティング対象の観察者とスクリーンの距離D_tmpを算出する。ポインティング対象の観察者の位置の緯度をLAUとし、スクリーンの中央の緯度をLASとし、ポインティング対象の観察者の位置の経度をLOUとし、スクリーンの中央の経度をLOSとしたときに、距離D_tmpは、例えば、次式で計算する。
D_tmp=((LAU−LAS+(LOU−LOS1/2
FIG. 12 is a flowchart illustrating an example of processing of the screen allocation determination unit 26. First, in step ST401, the screen allocation determination unit 26 acquires the position information of a plurality of observers from the observer mark display position calculation unit 24. Next, in step ST402, the screen allocation determination unit 26 acquires screen information from the observer mark display position calculation unit 24. Next, in step ST403, the screen assignment determination unit 26 sets the distance D to ∞ (infinity) without any screen candidate. Next, in step ST404, the screen assignment determination unit 26 selects one screen that has not been processed in step ST405 described later, from the screens acquired in step ST402. Next, in step ST405, the screen allocation determination unit 26 calculates the distance D_tmp between the observer to be pointed and the screen. When the latitude of the observer to be pointed is L AU , the latitude of the center of the screen is L AS , the longitude of the position of the observer to be pointed is L OU, and the longitude of the center of the screen is L OS The distance D_tmp is calculated by the following equation, for example.
D_tmp = ((L AU -L AS ) 2 + (L OU -L OS) 2) 1/2

次に、ステップST406で、スクリーン割当判断部26は、DとD_tmpを比較し、D<D_tmpである場合は、ステップST407に、D_tmp≦Dである場合は、ステップST408に処理を進める。ステップST407では、スクリーン割当判断部26は、スクリーン候補を、ステップST404で選択したスクリーンに設定し、Dの値をD_tmpの値に更新する。ステップST408では、スクリーン割当判断部26は、ステップST404で全てのスクリーンを選択したかどうかをチェックし、全てのスクリーンについての処理が終了している場合には、図12の処理を終了し、それ以外の場合(選択されていないスクリーンが存在する場合)は、処理をステップST404に戻す。   Next, in step ST406, the screen allocation determination unit 26 compares D and D_tmp. If D <D_tmp, the process proceeds to step ST407. If D_tmp ≦ D, the process proceeds to step ST408. In step ST407, the screen assignment determination unit 26 sets the screen candidate to the screen selected in step ST404, and updates the value of D to the value of D_tmp. In step ST408, the screen allocation determination unit 26 checks whether all screens have been selected in step ST404. If the processing for all screens has been completed, the processing in FIG. Otherwise (when there is an unselected screen), the process returns to step ST404.

図13は、実施の形態2の観察者用マーク表示位置算出部24の処理を示すフローチャートである。図13におけるステップST501〜ST503は、既に説明した図8におけるステップST301〜ST303と同じ処理である。図13におけるステップST504及びST505は、図8におけるステップST304及びST305と同じ処理である。図13におけるステップST506は、スクリーン割当判断部26を用いてステップST504で選択した複数の観察者の各々に複数のスクリーンの内のいずれのスクリーンを割り当てるかを決定する。図13におけるステップST507は、図8におけるステップST306と同じ処理であるが、処理の対象とするスクリーンとしてステップST506で決定したスクリーンを用いる点が異なる。図13におけるステップST508は、図8におけるステップST307と同じ処理であるが、観察者ごとに、表示するスクリーン及びそのスクリーン上の位置を最終的な出力とする点が異なる。   FIG. 13 is a flowchart illustrating processing of the observer mark display position calculation unit 24 according to the second embodiment. Steps ST501 to ST503 in FIG. 13 are the same processes as steps ST301 to ST303 in FIG. Steps ST504 and ST505 in FIG. 13 are the same processes as steps ST304 and ST305 in FIG. Step ST506 in FIG. 13 determines which screen of the plurality of screens is allocated to each of the plurality of viewers selected in step ST504 using the screen allocation determination unit 26. Step ST507 in FIG. 13 is the same process as step ST306 in FIG. 8, except that the screen determined in step ST506 is used as the screen to be processed. Step ST508 in FIG. 13 is the same processing as step ST307 in FIG. 8, except that the screen to be displayed and the position on the screen are the final output for each observer.

実施の形態2のポインティング装置2のマーク表示情報出力部25は、ポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24で計算した表示するスクリーン及びスクリーン上の位置を、ポインティング者用及び観察者用のマーク表示位置としてスクリーンに出力する。   The mark display information output unit 25 of the pointing device 2 according to the second embodiment displays the display screen and the position on the screen calculated by the mark display position calculation unit 22 for the pointing person and the mark display position calculation unit 24 for the observer. Output to the screen as mark display positions for the viewer and the viewer.

なお、1つのスクリーンに割り当てられるユーザ(ポインティング者及び観察者)の数は、1人とは限らず、2人以上であっても良い。図12の処理を採用した場合、特定のスクリーンの近くに観察者が複数存在する場合は、それらすべての観察者が同一のスクリーンに割り当てられる。図14(a)及び(b)は、実施の形態2の一例の概念図である。図14(a)は、ポインティング者U1と観察者U2でスクリーンS1を共用している場合を示している。図14(b)は、複数の観察者U2,U3でスクリーンS2を共用している場合を示している。なお、スクリーンの共用は、2人に制限されるものではなく、3人以上で共用しても良い。   The number of users (pointers and observers) assigned to one screen is not limited to one and may be two or more. When the process of FIG. 12 is adopted, when there are a plurality of observers near a specific screen, all the observers are assigned to the same screen. 14A and 14B are conceptual diagrams of an example of the second embodiment. FIG. 14A shows a case where the screen S1 is shared by the pointing person U1 and the observer U2. FIG. 14B shows a case where a plurality of viewers U2 and U3 share the screen S2. The sharing of the screen is not limited to two people, and may be shared by three or more people.

また、上記説明では、複数のスクリーンの表示面が同じ方向を向いている場合を説明したが、スクリーンの表示面の向きは異なる方向であってもよく、また、スクリーンの表示面の向きは可変であっても良い。図15は、複数のスクリーンS1〜S3のうち、スクリーンS3の表示面の向きが異なる方向を向いている場合を例示している。   In the above description, the case where the display surfaces of a plurality of screens face the same direction has been described, but the orientation of the screen display surface may be different, and the orientation of the screen display surface is variable. It may be. FIG. 15 illustrates a case where the orientation of the display surface of the screen S3 is in a different direction among the plurality of screens S1 to S3.

以上に説明したように、実施の形態2によるポインティング装置2及びポインティング方法によれば、複数のスクリーンの各々に、これを利用するユーザ(ポインティング者及び観察者)を割り当てているので、1つのスクリーンに割り当てられるユーザの数が減少するため、見易さが向上する。その結果、1つのポインティング装置で、より多数の観察者を扱うことができるという利点がある。   As described above, according to the pointing device 2 and the pointing method according to the second embodiment, a user (pointing person and observer) who uses the screen is assigned to each of the plurality of screens. Since the number of users assigned to is reduced, visibility is improved. As a result, there is an advantage that a larger number of observers can be handled with one pointing device.

《3》実施の形態3.
図16は、本発明の実施の形態3によるポインティング装置3の動作の一例を示す概念図である。実施の形態3は、実施の形態1の構成に加えて、ポインティング者U1がポインティング対象を指し示した場合に、ポインティング対象Q1を自動で追跡するようにするものである。移動するポインティング対象Q1を追跡可能とすることによって、ポインティング者U1がポインティング対象Q1を指し示す操作をし続ける必要がないという利点がある。
<< 3 >> Embodiment 3
FIG. 16 is a conceptual diagram showing an example of the operation of the pointing device 3 according to the third embodiment of the present invention. In the third embodiment, in addition to the configuration of the first embodiment, when the pointing person U1 points to the pointing object, the pointing object Q1 is automatically tracked. By making it possible to track the moving pointing object Q1, there is an advantage that it is not necessary for the pointing person U1 to continue to point to the pointing object Q1.

図17は、実施の形態3によるポインティング装置3の構成を概略的に示すブロック図である。また、ポインティング装置3は、実施の形態3によるポインティング方法を実施することができる装置である。図17において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態3によるポインティング装置3は、ポインティング対象判別部10aが、ポインティング対象追跡部15を備えた点において、実施の形態1によるポインティング装置1と相違する。なお、図17には、実施の形態1のポインティング装置1に、ポインティング対象追跡部15を追加した場合を例示したが、実施の形態2のポインティング装置2に、ポインティング対象追跡部15を備えても良い。   FIG. 17 is a block diagram schematically showing the configuration of the pointing device 3 according to the third embodiment. The pointing device 3 is a device that can perform the pointing method according to the third embodiment. 17, components that are the same as or correspond to the components shown in FIG. 5 (Embodiment 1) are given the same reference numerals as in FIG. The pointing device 3 according to the third embodiment is different from the pointing device 1 according to the first embodiment in that the pointing target determination unit 10a includes a pointing target tracking unit 15. FIG. 17 illustrates the case where the pointing target tracking unit 15 is added to the pointing device 1 of the first embodiment. However, the pointing target tracking unit 15 may be provided in the pointing device 2 of the second embodiment. good.

ポインティング対象追跡部15は、ポインティング対象Q1の位置情報を用いて、ポインティング対象Q1の移動を監視する。図18は、ポインティング対象追跡部15の処理の一例を示すフローチャートである。まず、ステップST601で、ポインティング対象解析部14は、算出したポインティング対象Q1の位置情報をポインティング対象追跡部15に入力する。以下の説明では、入力されたポインティング対象を「P_indicated」とも言う。次に、ステップST602で、ポインティング対象追跡部15は、ポインティング対象Q1を示す情報を、ポインティング対象候補情報取得部30から取得する。以下の説明では、取得したポインティング対象を「P_now」とも言う。次に、ステップST603で、ポインティング対象追跡部15は、P_indicatedとP_nowとを比較する。比較の結果、P_indicatedとP_nowが同一であれば、ポインティング対象追跡部15は、処理をステップST606に進め、P_indicatedとP_nowが異なれば、ポインティング対象追跡部15は、処理をステップST604に進める。ステップST604では、ポインティング対象追跡部15は、P_indicatedの値を、P_nowの値に更新する。次に、ステップST605では、ポインティング対象追跡部15は、ステップST604で更新されたP_indicatedを、ポインティング対象解析部14に通知する。ステップST606では、ポインティング対象追跡部15は、一定時間が経過するまで処理を行わずに待つ。ステップS606の待機処理は、一般的なプログラミングにおけるスリープの挿入の処理に該当するものであり、待機時間は、例えば、1秒又は10秒などといった値である。なお、一定時間(待機時間)は、ポインティング装置の設計者が予め設定した値でも良いし、ポインティング者などポインティング装置を使用する者が任意に設定する値であっても良い。一定時間が経過した後、処理は、ステップST602に遷移する。   The pointing target tracking unit 15 monitors the movement of the pointing target Q1 using the position information of the pointing target Q1. FIG. 18 is a flowchart illustrating an example of processing of the pointing target tracking unit 15. First, in step ST601, the pointing object analysis unit 14 inputs the calculated position information of the pointing object Q1 to the pointing object tracking unit 15. In the following description, the input pointing object is also referred to as “P_indicated”. Next, in step ST <b> 602, the pointing target tracking unit 15 acquires information indicating the pointing target Q <b> 1 from the pointing target candidate information acquiring unit 30. In the following description, the acquired pointing object is also referred to as “P_now”. Next, in step ST603, the pointing target tracking unit 15 compares P_indicated and P_now. If P_indicated and P_now are the same as a result of the comparison, the pointing target tracking unit 15 advances the process to step ST606. If P_indicated and P_now are different, the pointing target tracking unit 15 advances the process to step ST604. In step ST604, the pointing target tracking unit 15 updates the value of P_indicated to the value of P_now. Next, in step ST605, the pointing target tracking unit 15 notifies the pointing target analyzing unit 14 of P_indicated updated in step ST604. In step ST606, the pointing target tracking unit 15 waits without performing processing until a predetermined time elapses. The standby process in step S606 corresponds to a process of inserting a sleep in general programming, and the standby time is a value such as 1 second or 10 seconds, for example. The predetermined time (standby time) may be a value set in advance by a designer of the pointing device, or may be a value arbitrarily set by a person using the pointing device such as a pointing person. After the fixed time has elapsed, the process transitions to step ST602.

次に、実施の形態3におけるポインティング対象解析部14の処理について説明する。図19は、実施の形態3におけるポインティング対象解析部14の処理の一例を示すフローチャートである。まず、ステップST701で、ポインティング対象解析部14は、動作のきっかけとなる動作トリガの種類を確認する。ステップST701で、ポインティング対象解析部14は、ポインティング操作情報取得部12から入力があった場合(すなわち、ポインティング者U1がポインティング対象を指し示す動作(操作)であるポインティングを行った場合)は、処理をステップST702に遷移し、ポインティング対象追跡部15から通知があった場合(すなわち、ポインティング対象が移動した場合、図18のステップST605に相当)は、処理をステップST711に遷移する。ステップST702〜ST707の処理は、図6のステップST101〜ST106の処理と同じである。ステップST708の処理は、図6のステップST107の処理と同じであるが、実施の形態3においては、ステップST708の処理を行った後に、処理はステップST709に遷移する。ステップST709では、ポインティング対象解析部14は、ステップST702〜ST708の処理結果(決定されたポインティング対象)を、ポインティング対象追跡部15に登録する。ステップST710では、ポインティング対象解析部14は、ステップST702〜ST708の処理結果(決定されたポインティング対象)を、ポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24に出力する。一方、ステップST711では、ポインティング対象解析部14は、ポインティング対象追跡部15から、更新されたポインティング対象を受信する。ステップST712では、ポインティング対象解析部14は、ステップST711で受信したポインティング対象を、ポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24に出力する。   Next, the processing of the pointing object analysis unit 14 in the third embodiment will be described. FIG. 19 is a flowchart illustrating an example of processing of the pointing target analysis unit 14 according to the third embodiment. First, in step ST701, the pointing object analysis unit 14 confirms the type of the operation trigger that triggers the operation. In step ST701, the pointing object analysis unit 14 performs processing when there is an input from the pointing operation information acquisition unit 12 (that is, when the pointing person U1 performs pointing that is an operation (operation) indicating the pointing object). When the transition is made to step ST702 and there is a notification from the pointing target tracking unit 15 (that is, when the pointing target is moved, this corresponds to step ST605 of FIG. 18), the process transitions to step ST711. The processing in steps ST702 to ST707 is the same as the processing in steps ST101 to ST106 in FIG. The process of step ST708 is the same as the process of step ST107 of FIG. 6, but in Embodiment 3, after the process of step ST708 is performed, the process transitions to step ST709. In step ST709, the pointing object analysis unit 14 registers the processing results (determined pointing objects) in steps ST702 to ST708 in the pointing object tracking unit 15. In step ST710, the pointing object analysis unit 14 outputs the processing results (determined pointing object) in steps ST702 to ST708 to the pointing person mark display position calculation unit 22 and the observer mark display position calculation unit 24. On the other hand, in step ST711, the pointing object analysis unit 14 receives the updated pointing object from the pointing object tracking unit 15. In step ST712, the pointing object analysis unit 14 outputs the pointing object received in step ST711 to the pointing person mark display position calculation unit 22 and the observer mark display position calculation unit 24.

以上に説明したように、実施の形態3によるポインティング装置3及びポインティング方法によれば、ポインティング装置3が、ポインティング対象Q1の移動を追跡可能となるため、ポインティング者U1がポインティング対象を指し示すポインティング操作を継続して行う必要がないという利点がある。   As described above, according to the pointing device 3 and the pointing method according to the third embodiment, since the pointing device 3 can track the movement of the pointing object Q1, the pointing person U1 performs a pointing operation indicating the pointing object. There is an advantage that it is not necessary to continue.

《4》実施の形態4.
図20は、本発明の実施の形態4によるポインティング装置4の動作の一例を示す概念図である。実施の形態4は、実施の形態1の構成に加えて、複数の観察者用マーク表示が近接して存在する場合に、ポインティング対象Q1を示す複数の観察者用マーク表示(第2の位置用の特別表示)M2,M3を1つにまとめた特別表示M10とする点が、実施の形態1と異なる。複数の観察者用マーク表示を1つにまとめるため、スクリーンS1上に表示される観察者用マーク表示(第2の位置用の特別表示)M10の数が減少し、観察者U2,U3は、表示された内容を把握しやすくなるという利点がある。
<< 4 >> Embodiment 4
FIG. 20 is a conceptual diagram showing an example of the operation of the pointing device 4 according to the fourth embodiment of the present invention. In the fourth embodiment, in addition to the configuration of the first embodiment, when there are a plurality of observer mark displays in close proximity, a plurality of observer mark displays (for the second position) showing the pointing target Q1. The special display M10 differs from the first embodiment in that M2 and M3 are combined into one special display M10. In order to combine multiple observer mark displays into one, the number of observer mark displays (special display for the second position) M10 displayed on the screen S1 decreases, and the observers U2 and U3 There is an advantage that it is easy to grasp the displayed contents.

図21は、実施の形態4によるポインティング装置4の構成を概略的に示すブロック図である。また、ポインティング装置4は、実施の形態4によるポインティング方法を実施することができる装置である。図21において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態4によるポインティング装置4は、マーク表示情報生成部20bが、マーク集約部27を備えた点、並びに、ポインティング者用マーク表示位置算出部22、観察者用マーク表示位置算出部24及びマーク表示情報出力部25がマーク集約部27を使用する点が、実施の形態1によるポインティング装置1と相違する。なお、実施の形態4では、マーク集約部27を実施の形態1の構成に追加した場合を説明するが、マーク集約部27を、実施の形態2の構成又は実施の形態3の構成に追加しても良い。   FIG. 21 is a block diagram schematically showing a configuration of the pointing device 4 according to the fourth embodiment. The pointing device 4 is a device that can perform the pointing method according to the fourth embodiment. In FIG. 21, the same or corresponding components as those shown in FIG. 5 (Embodiment 1) are denoted by the same reference numerals as those in FIG. In the pointing device 4 according to the fourth embodiment, the mark display information generation unit 20b includes a mark aggregation unit 27, a pointing person mark display position calculation unit 22, an observer mark display position calculation unit 24, and a mark. The point that the display information output unit 25 uses the mark aggregation unit 27 is different from the pointing device 1 according to the first embodiment. In the fourth embodiment, the case where the mark aggregation unit 27 is added to the configuration of the first embodiment will be described. However, the mark aggregation unit 27 is added to the configuration of the second embodiment or the configuration of the third embodiment. May be.

マーク集約部27は、ポインティング者用マーク表示(特別表示)M1の位置情報、及び、観察者用マーク表示(特別表示)M2,M3の位置情報を受け取り、近接した観察者用マーク表示(特別表示)M2,M3をまとめて1つのマーク表示(特別表示)M10を生成する。図22は、マーク集約部27の処理の一例を示すフローチャートである。まず、ステップST801で、マーク集約部27は、ポインティング者用マーク表示位置算出部22からポインティング者用マーク表示(特別表示)M1のスクリーンS1上の位置を受け取る。次に、ステップST802で、マーク集約部27は、観察者用マーク表示位置算出部24から観察者用マーク表示(特別表示)M2,M3のスクリーンS1上の位置を受け取る。   The mark aggregating unit 27 receives the position information of the pointing person mark display (special display) M1 and the position information of the observer mark displays (special display) M2 and M3, and displays the adjacent observer mark display (special display). ) M2 and M3 are combined to generate one mark display (special display) M10. FIG. 22 is a flowchart illustrating an example of processing of the mark aggregation unit 27. First, in step ST801, the mark aggregating unit 27 receives the position of the pointing person mark display (special display) M1 on the screen S1 from the pointing person mark display position calculating unit 22. Next, in step ST802, the mark aggregating unit 27 receives the positions of the observer mark display (special display) M2 and M3 on the screen S1 from the observer mark display position calculating unit 24.

次に、ステップST803で、マーク集約部27は、後述するステップST804で扱うマーク表示(特別表示)W_1の確認リストをクリアする。すなわち、マーク集約部27は、マーク表示(特別表示)W_1として選択された、観察者用マーク表示がない状態にする。また、マーク集約部27は、後述するステップST808で使用するマーク表示(特別表示)W_1とマーク表示(特別表示)W_2のペアのリストを、記憶部から削除する処理を行う。すなわち、マーク集約部27は、マーク表示(特別表示)W_1とマーク表示(特別表示)W_2のペアが、記憶部のリストとして存在しない状態(初期状態)にする。   Next, in step ST803, the mark aggregation unit 27 clears the confirmation list of the mark display (special display) W_1 handled in step ST804 described later. That is, the mark aggregating unit 27 sets the state where there is no observer mark display selected as the mark display (special display) W_1. In addition, the mark aggregation unit 27 performs processing for deleting a list of pairs of mark display (special display) W_1 and mark display (special display) W_2 used in step ST808 described later from the storage unit. That is, the mark aggregation unit 27 sets a state (initial state) in which the pair of the mark display (special display) W_1 and the mark display (special display) W_2 does not exist as a list of the storage unit.

次に、ステップST804で、マーク集約部27は、ステップST802で受け取った観察者用マーク表示M2,M3から1つを選択する。選択された観察者用マーク表示は、マーク表示(特別表示)W_1と呼ぶ。さらに、マーク集約部27は、マーク表示(特別表示)W_1の確認リストに、選択した観察者用マーク表示を追加する処理を行う。   Next, in step ST804, the mark aggregating unit 27 selects one from the observer mark displays M2 and M3 received in step ST802. The selected observer mark display is referred to as a mark display (special display) W_1. Further, the mark aggregation unit 27 performs a process of adding the selected observer mark display to the confirmation list of the mark display (special display) W_1.

次に、ステップST805で、マーク集約部27は、後述するステップST806で扱うマーク表示(特別表示)W_2の確認リストをクリアする。すなわち、マーク集約部27は、マーク表示(特別表示)W_2として選択された観察者用マーク表示がない状態にする。   Next, in step ST805, the mark aggregation unit 27 clears the confirmation list of the mark display (special display) W_2 handled in step ST806 described later. That is, the mark aggregating unit 27 sets the state where there is no mark display for the observer selected as the mark display (special display) W_2.

次に、ステップST806で、マーク集約部27は、ステップST802で受け取った観察者用マーク表示から1つを選択する。選択された観察者用マーク表示は、マーク表示(特別表示)W_2と呼ぶ。さらに、マーク集約部27は、マーク表示(特別表示)W_2の確認リストに、選択した観察者用マーク表示を追加する。   Next, in step ST806, the mark aggregating unit 27 selects one from the observer mark displays received in step ST802. The selected observer mark display is referred to as a mark display (special display) W_2. Further, the mark aggregation unit 27 adds the selected observer mark display to the confirmation list of the mark display (special display) W_2.

次に、ステップST807で、マーク集約部27は、マーク表示(特別表示)W_1とマーク表示(特別表示)W_2との距離が一定距離(予め設定された基準距離)以下であるかを調べる。マーク集約部27は、スクリーンS1上におけるW_1のX座標をXW1とし、W_1のY座標をYW1とし、スクリーンS1上におけるW_2のX座標をXW2とし、W_2のY座標をYW2としたときに、マーク表示(特別表示)W_1とW_2との距離DW12を、例えば、次式で計算することができる。
W12=((XW1−XW2+(YW1−YW21/2
Next, in step ST807, the mark aggregation unit 27 checks whether the distance between the mark display (special display) W_1 and the mark display (special display) W_2 is equal to or less than a certain distance (a preset reference distance). Mark aggregating unit 27, the X-coordinate of W_1 on the screen S1 and X W1, the Y-coordinate of W_1 and Y W1, the X-coordinate of W_2 on the screen S1 and X W2, the Y coordinate of W_2 was Y W2 Sometimes, the distance D W12 between the mark display (special display) W_1 and W_2 can be calculated by the following equation, for example.
D W12 = ((X W1 −X W2 ) 2 + (Y W1 −Y W2 ) 2 ) 1/2

また、ステップST807の判断に用いる一定距離としては、例えば、画素数表記で10〔ピクセル〕として設定しても良く、又は、距離の単位を用いて5〔cm〕と設定しても良い。また、この一定距離は、ポインティング装置4の設計者が予め決めても良いし、ポインティング者U1又は観察者U2,U3が任意の値を入力することで設定しても良い。   Further, the fixed distance used for the determination in step ST807 may be set to 10 [pixel] in the number of pixels, for example, or may be set to 5 [cm] using a unit of distance. The fixed distance may be determined in advance by the designer of the pointing device 4 or may be set by the pointing person U1 or the observers U2 and U3 inputting an arbitrary value.

マーク集約部27は、マーク表示(特別表示)W_1とW_2の距離が一定距離以下であった場合には、マーク表示(特別表示)W_1とW_2は近接しているとみなして、処理をステップST808に進め、一定距離を上回っていた場合には、マーク表示(特別表示)W_1とW_2は近接していないとみなして、処理をステップST809に進める。   When the distance between the mark display (special display) W_1 and W_2 is equal to or less than a certain distance, the mark aggregation unit 27 considers that the mark display (special display) W_1 and W_2 are close to each other and performs the process in step ST808. If the distance exceeds a certain distance, the mark display (special display) W_1 and W_2 are regarded as not close to each other, and the process proceeds to step ST809.

ステップST808では、マーク集約部27は、現在選択中のマーク表示(特別表示)W_1とW_2のペアを記憶する。マーク集約部27は、既にマーク表示(特別表示)W_1とW_2のペアが記憶されている場合であっても、既に、存在するペアを削除せず、ペアを追加して記憶する。   In step ST808, the mark aggregation unit 27 stores a pair of mark display (special display) W_1 and W_2 that is currently selected. Even when the mark display (special display) W_1 and W_2 pair is already stored, the mark aggregation unit 27 does not delete the existing pair, but adds and stores the pair.

ステップST809では、マーク集約部27は、全ての観察者用マーク表示が、マーク表示(特別表示)W_2の確認リストに登録されているかを判断し、マーク表示(特別表示)W_2の確認リストに未登録の観察者用マーク表示が残っている場合は、処理をステップST806に戻し、残っていない場合は、処理をステップST810に進める。   In step ST809, the mark aggregating unit 27 determines whether all the mark displays for observers are registered in the confirmation list for mark display (special display) W_2, and the mark aggregation unit 27 is not included in the confirmation list for mark display (special display) W_2. If the registered observer mark display remains, the process returns to step ST806, and if not, the process proceeds to step ST810.

ステップST810では、マーク集約部27は、全ての観察者用マーク表示がマーク表示(特別表示)W_1の確認リストに登録されているかを判断し、未登録の観察者用マーク表示が残っている場合は、処理をステップST804に戻し、残っていない場合は、処理をステップST811に進める。   In step ST810, the mark aggregating unit 27 determines whether all observer mark displays are registered in the confirmation list of the mark display (special display) W_1, and when an unregistered observer mark display remains. Returns the process to step ST804, and if it does not remain, advances the process to step ST811.

ステップST811では、マーク集約部27は、記憶部に記憶しているペアの表示を集約する。集約する方法としては、以下の(k1)〜(k4)のいずれかの方法を採用することができる。いずれの集約の方法も、ポインティング装置の設計者が予め決定しておいても良いし、ポインティング者U1又は観察者U2,U3が選択しても良い。ただし、「集約する方法」は、以下の例に限定されない。
(k1)ペアになっているマーク表示(特別表示)W_1とW_2を内包する大きな図形を表示する。
(k2)マーク表示(特別表示)W_1のみを表示して、マーク表示(特別表示)W_2を非表示にする。
(k3)マーク表示(特別表示)W_2のみを表示して、マーク表示(特別表示)W_1を非表示にする。
(k4)マーク表示(特別表示)W_1とW_2は、非表示にして、W_1とW_2の中心に観察者用マーク表示(他の特別表示)を行う。
In step ST811, the mark aggregating unit 27 aggregates the display of pairs stored in the storage unit. As a method of aggregation, any of the following methods (k1) to (k4) can be adopted. Any of the aggregation methods may be determined in advance by the designer of the pointing device, or may be selected by the pointing person U1 or the observers U2 and U3. However, the “method of aggregation” is not limited to the following example.
(K1) A pair of mark display (special display) A large graphic containing W_1 and W_2 is displayed.
(K2) Only the mark display (special display) W_1 is displayed and the mark display (special display) W_2 is not displayed.
(K3) Only the mark display (special display) W_2 is displayed, and the mark display (special display) W_1 is not displayed.
(K4) Mark display (special display) W_1 and W_2 are not displayed, and an observer mark display (other special display) is performed at the center of W_1 and W_2.

マーク集約部27は、ステップST811の処理を行った結果を、マーク表示情報出力部25に送信する。   The mark aggregation unit 27 transmits the result of performing the process of step ST811 to the mark display information output unit 25.

なお、上記説明では、ステップST811の処理は、マーク表示(特別表示)W_1とW_2の2つの観察者用マーク表示を集約することのみを記載したが、マーク表示(特別表示)W_1とW_2のペアを含むリストの中に、マーク表示(特別表示)W_1とW_2の一方を要素とする他のペアのマーク表示(特別表示)(例えば、W_2とW_3)が存在する場合には、マーク表示(特別表示)W_1とW_2とW_3を含む、3つ以上の観察者用マーク表示を1つに集約して表示しても良い。   In the above description, the processing of step ST811 has been described only as aggregating the mark display (special display) W_1 and W_2 for the observer, but the mark display (special display) W_1 and W_2 pair. If there is another pair of mark displays (special display) (for example, W_2 and W_3) having one of the mark display (special display) W_1 and W_2 in the list including the mark display (special display) Display) Three or more observer mark displays including W_1, W_2, and W_3 may be displayed together.

また、上記説明では、ステップST807の処理で、スクリーンS1上の観察者用マーク表示の位置を元に集約するか否かを判断しているが、マーク集約部27は、以下の方法(m1)及び(m2)を採用しても良い。
(m1)ポインティング者U1及び観察者U2,U3の位置を元に、集約するか否かを決定する(ポインティング者及び観察者が2〔m〕以内など)。
(m2)予め定めておいたポインティング者及び観察者のグループ情報を元に集約するか否かを決定する。例えば、集団行動で班分けを行った場合に、班のメンバをまとめて1つの観察者用マーク表示にするなどである。
In the above description, it is determined in step ST807 whether or not to aggregate based on the position of the observer mark display on the screen S1, but the mark aggregating unit 27 performs the following method (m1). And (m2) may be adopted.
(M1) Based on the positions of the pointing person U1 and the observers U2 and U3, it is determined whether or not to aggregate (the pointing person and the observer are within 2 [m], etc.).
(M2) It is determined whether or not to aggregate based on the predetermined group information of the pointing person and the observer. For example, when grouping is performed by group action, the members of the group are collectively displayed as one observer mark.

実施の形態4におけるポインティング者用マーク表示位置算出部22の処理は、図5のポインティング者用マーク表示位置算出部22の処理と同じであるが、最終結果をマーク表示情報出力部25ではなくマーク集約部27に送信するところのみ異なる。   The processing of the pointing person mark display position calculation unit 22 in the fourth embodiment is the same as the processing of the pointing person mark display position calculation unit 22 in FIG. 5, but the final result is not the mark display information output unit 25 but the mark display information output unit 25. The only difference is that it is transmitted to the aggregation unit 27.

実施の形態4における観察者用マーク表示位置算出部24の処理は、基本的には、図5の観察者用マーク表示位置算出部24の処理と同じであるが、最終結果をマーク表示情報出力部25ではなくマーク集約部27に送信する点のみが、図5の観察者用マーク表示位置算出部24の処理と異なる。   The process of the observer mark display position calculation unit 24 in the fourth embodiment is basically the same as the process of the observer mark display position calculation unit 24 of FIG. 5, but the final result is output as mark display information. Only the point of transmission to the mark aggregation unit 27 instead of the unit 25 is different from the processing of the observer mark display position calculation unit 24 of FIG.

実施の形態4におけるマーク表示情報出力部25の処理は、基本的には、図5のマーク表示情報出力部25の処理と同じであるが、情報をポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24から受信するのではなく、マーク集約部27から受信する点のみが、図5のマーク表示情報出力部25と異なる。   The processing of the mark display information output unit 25 in the fourth embodiment is basically the same as the processing of the mark display information output unit 25 of FIG. It is different from the mark display information output unit 25 of FIG. 5 only in that it is received from the mark aggregation unit 27 instead of being received from the mark display position calculation unit 24 for the person.

以上に説明したように、実施の形態4によるポインティング装置4及びポインティング方法によれば、ポインティング装置4が、複数の観察者用マーク表示を1つにまとめて表示するため、スクリーンS1上に表示される観察者用マーク表示の数が減少し、ポインティング者U1及び観察者U2,U3が、表示された内容を把握しやすくなるという利点がある。   As described above, according to the pointing device 4 and the pointing method according to the fourth embodiment, the pointing device 4 is displayed on the screen S1 in order to display a plurality of observer mark displays together. There is an advantage that the number of marks displayed for the observer is reduced and the pointing person U1 and the observers U2 and U3 can easily grasp the displayed contents.

《5》実施の形態5.
図23は、本発明の実施の形態5によるポインティング装置5の動作の一例を示す概念図である。実施の形態5によるポインティング装置5は、複数のマーク表示(特別表示)M1,M2,M3の内の同時に表示されるマーク表示(特別表示)の数を制限する点において、実施の形態1によるポインティング装置1と相違する。同時に表示されるマーク表示(特別表示)の数を制限することで、スクリーンS1上の表示が複雑になることを回避でき、ポインティング観察者が表示された内容を把握しやすくなるという利点がある。
<< 5 >> Embodiment 5
FIG. 23 is a conceptual diagram showing an example of the operation of the pointing device 5 according to the fifth embodiment of the present invention. The pointing device 5 according to the fifth embodiment limits the number of mark displays (special displays) displayed simultaneously among a plurality of mark displays (special displays) M1, M2, and M3. Different from the device 1. By limiting the number of mark displays (special displays) displayed at the same time, there is an advantage that the display on the screen S1 can be prevented from becoming complicated and the pointing observer can easily grasp the displayed contents.

図24は、実施の形態5によるポインティング装置5の構成を概略的に示すブロック図である。また、ポインティング装置5は、実施の形態5によるポインティング方法を実施することができる装置である。図24において、図5(実施の形態1)に示される構成要素と同一又は対応する構成要素には、図5における符号と同じ符号を付す。実施の形態5によるポインティング装置5は、マーク表示情報生成部20cが、複数の観察者用マーク表示の内の同時に表示される観察者用マーク表示の数を制限するためにマーク表示切替部(特別表示切替部)28を備えた点において、実施の形態1によるポインティング装置1と相違する。なお、実施の形態5では、マーク表示切替部28を実施の形態1の構成に追加した場合を説明するが、マーク表示切替部28を、実施の形態2の構成、実施の形態3の構成、及び実施の形態4の構成のいずれかに追加しても良い。   FIG. 24 is a block diagram schematically showing the configuration of the pointing device 5 according to the fifth embodiment. The pointing device 5 is a device that can perform the pointing method according to the fifth embodiment. 24, components that are the same as or correspond to the components shown in FIG. 5 (Embodiment 1) are assigned the same reference numerals as in FIG. In the pointing device 5 according to the fifth embodiment, the mark display information generation unit 20c has a mark display switching unit (special) in order to limit the number of observer mark displays simultaneously displayed among a plurality of observer mark displays. The display switching unit 28 is different from the pointing device 1 according to the first embodiment. In the fifth embodiment, the case where the mark display switching unit 28 is added to the configuration of the first embodiment will be described. However, the mark display switching unit 28 may be replaced with the configuration of the second embodiment, the configuration of the third embodiment, In addition, any of the configurations of the fourth embodiment may be added.

マーク表示切替部28は、ポインティング者用マーク表示情報及び観察者用マーク表示情報を受け取り、複数のマーク表示情報を1つずつ順に表示するための切替処理を行う。図25は、マーク表示切替部28の処理の一例を示すフローチャートである。まず、ステップST901で、マーク表示切替部28は、ポインティング者用マーク表示位置算出部22からポインティング者用マーク表示のスクリーンS1上の位置情報を受け取る。次に、ステップST902で、マーク表示切替部28は、観察者用マーク表示位置算出部24から観察者用マーク表示のスクリーンS1上の位置情報を受け取る。次に、ステップST903で、マーク表示切替部28は、後述するステップST904〜ST907で使用する表示リストを作成する。すなわち、マーク表示切替部28は、ステップST901及びステップST902で受信したマーク表示情報を合わせて1つのリストとする。ステップST904では、マーク表示切替部28は、表示リストから1つのマーク表示情報を選択する。ステップST905では、マーク表示切替部28は、選択したマーク表示情報をマーク表示情報出力部25に送信する。ステップST906では、マーク表示切替部28は、一定時間処理を行わず待機する。待機する時間は、例えば、1〔秒〕といったように、ポインティング装置の設計者が予め決定するか、ポインティング者U1又は観察者U2,U3が任意に設定してもよい良い。ステップST907では、マーク表示切替部28は、表示リストに含まれるマーク表示を全て選択し終えたかを確認し、未選択のものが存在する場合は、処理をステップST904に進め、未選択のものが存在しない場合は、処理をステップST903に進める。処理がステップST903に遷移した場合には、表示リストの作成から処理が繰り返されるため、観察者用マーク表示を1つずつ表示する処理は終了せず、繰り返される。   The mark display switching unit 28 receives the pointing person mark display information and the observer mark display information, and performs a switching process for sequentially displaying the plurality of mark display information one by one. FIG. 25 is a flowchart illustrating an example of processing of the mark display switching unit 28. First, in step ST <b> 901, the mark display switching unit 28 receives position information on the screen S <b> 1 of the pointing person mark display from the pointing person mark display position calculation unit 22. Next, in step ST902, the mark display switching unit 28 receives position information on the screen S1 of the mark display for the observer from the mark display position calculation unit 24 for the observer. Next, in step ST903, the mark display switching unit 28 creates a display list used in steps ST904 to ST907 described later. That is, the mark display switching unit 28 combines the mark display information received in step ST901 and step ST902 into one list. In step ST904, the mark display switching unit 28 selects one mark display information from the display list. In step ST905, the mark display switching unit 28 transmits the selected mark display information to the mark display information output unit 25. In step ST906, the mark display switching unit 28 stands by without performing processing for a certain period of time. The waiting time may be determined in advance by the designer of the pointing device, such as 1 [second], or may be arbitrarily set by the pointing person U1 or the observers U2 and U3. In step ST907, the mark display switching unit 28 checks whether all mark displays included in the display list have been selected. If there is an unselected item, the process proceeds to step ST904, where the unselected item is selected. If not, the process proceeds to step ST903. When the process transitions to step ST903, the process is repeated from the creation of the display list. Therefore, the process of displaying the observer mark display one by one is repeated without being terminated.

実施の形態5におけるポインティング者用マーク表示位置算出部22の処理は、基本的に図5のポインティング者用マーク表示位置算出部22の処理と同じであるが、処理結果をマーク表示情報出力部25ではなく、マーク表示切替部28に送信する点のみが、図5のものと異なる。   The processing of the pointing person mark display position calculation unit 22 in the fifth embodiment is basically the same as the processing of the pointing person mark display position calculation unit 22 of FIG. Instead, it is different from that of FIG. 5 only in that it is transmitted to the mark display switching unit 28.

実施の形態5における観察者用マーク表示位置算出部24の処理は、基本的に図5の観察者用マーク表示位置算出部24の処理と同じであるが、処理結果をマーク表示情報出力部25ではなく、マーク表示切替部28に送信する点のみが、図5のものと異なる。   The processing of the observer mark display position calculation unit 24 in the fifth embodiment is basically the same as the processing of the observer mark display position calculation unit 24 of FIG. 5, but the processing result is displayed in the mark display information output unit 25. Instead, it is different from that of FIG. 5 only in that it is transmitted to the mark display switching unit 28.

実施の形態5におけるマーク表示情報出力部25の処理は、基本的に図5のマーク表示情報出力部25の処理と同じであるが、情報をポインティング者用マーク表示位置算出部22及び観察者用マーク表示位置算出部24ではなく、マーク表示切替部28から受信する点のみが、図5のものと異なる。   The processing of the mark display information output unit 25 in the fifth embodiment is basically the same as the processing of the mark display information output unit 25 of FIG. 5, but the information is used for the mark display position calculation unit 22 for the pointing person and the observer. Only the point received from the mark display switching unit 28 instead of the mark display position calculation unit 24 is different from that of FIG.

なお、実施の形態5のマーク表示切替部28では、マーク表示を1つずつ順に表示する例を挙げた。しかしながら、ステップST904で複数の観察者用マーク表示を選択するようにすることで、一度に複数(例えば、2個又は3個)のマーク表示を行うようにしても良い。   In addition, in the mark display switching part 28 of Embodiment 5, the example which displays a mark display one by one in order was given. However, a plurality of (for example, two or three) mark displays may be performed at a time by selecting a plurality of observer mark displays in step ST904.

以上に説明したように、実施の形態5によるポインティング装置5及びポインティング方法によれば、ポインティング装置5が、複数のマーク表示(特別表示)を同時に表示する数を制限することで、スクリーンS1上の表示が複雑になることを回避できる。このため、ポインティング者U1及び観察者U2,U3が表示された内容を把握しやすくなるという利点がある。   As described above, according to the pointing device 5 and the pointing method according to the fifth embodiment, the pointing device 5 restricts the number of simultaneous display of a plurality of mark displays (special displays) on the screen S1. It is possible to avoid complicated display. For this reason, there exists an advantage that it becomes easy to grasp the contents displayed by the pointing person U1 and the observers U2 and U3.

なお、上記説明では、マーク表示を光透過型のスクリーン(光透過型表示装置)に表示する場合を説明したが、スクリーンは、光透過型のスクリーンに限るものではない。スクリーンを、非光透過型のスクリーンとし、ビデオカメラで撮影したポインティング対象Q1を、スクリーンに表示させる構成としても良い。このような利用法は、スマートフォン又はタブレットPCなどのように、スクリーンと、その背面に備えられたビデオカメラとを持つ装置によっても実現可能である。   In the above description, the mark display is displayed on a light transmissive screen (light transmissive display device). However, the screen is not limited to the light transmissive screen. The screen may be a non-light transmissive screen, and the pointing object Q1 photographed by the video camera may be displayed on the screen. Such usage can also be realized by a device having a screen and a video camera provided on the back surface thereof, such as a smartphone or a tablet PC.

《6》変形例1.
図26は、本発明の実施の形態1によるポインティング装置の変形例1を示すブロック図である。また、図26に示されるポインティング装置1eと、情報提供部70と、スクリーン60とは、ポインティングシステム100を構成している。図5(実施の形態1)に示されるポインティング装置1では、ポインティング対象判別部10は、ポインティング者位置情報取得部(第1の位置情報取得部)11と、ポインティング操作情報取得部12と、ポインティング対象候補情報取得部(第3の位置情報取得部)13と、ポインティング対象解析部14とを有している。これに対し、図26に示される変形例1においては、情報提供部70が、ポインティング者位置情報取得部11に対応するポインティング者位置情報取得部(第1の位置情報取得部)71と、ポインティング操作情報取得部12に対応するポインティング操作情報取得部72と、ポインティング対象候補情報取得部13に対応するポインティング対象候補情報取得部(第3の位置情報取得部)73とを備えており、必要な情報をポインティング装置1aのポインティング対象判別部10aに提供している。
<< 6 >> Modification 1
FIG. 26 is a block diagram showing a first modification of the pointing device according to the first embodiment of the present invention. In addition, the pointing device 1 e, the information providing unit 70, and the screen 60 illustrated in FIG. 26 constitute a pointing system 100. In the pointing device 1 shown in FIG. 5 (Embodiment 1), the pointing target determination unit 10 includes a pointing person position information acquisition unit (first position information acquisition unit) 11, a pointing operation information acquisition unit 12, and a pointing device. It has a target candidate information acquisition unit (third position information acquisition unit) 13 and a pointing target analysis unit 14. In contrast, in the first modification shown in FIG. 26, the information providing unit 70 includes a pointing person position information acquisition unit (first position information acquisition unit) 71 corresponding to the pointing person position information acquisition unit 11, and a pointing device. A pointing operation information acquisition unit 72 corresponding to the operation information acquisition unit 12 and a pointing target candidate information acquisition unit (third position information acquisition unit) 73 corresponding to the pointing target candidate information acquisition unit 13 are provided. Information is provided to the pointing object determination unit 10a of the pointing device 1a.

また、図5(実施の形態1)に示されるポインティング装置1では、マーク表示情報生成部20は、スクリーン情報取得部21と、ポインティング者用マーク表示位置算出部(ポインティング者用特別表示位置算出部)22と、観察者位置情報取得部(第2の位置情報取得部)23と、観察者用マーク表示位置算出部(観察者用特別表示位置算出部)24と、マーク表示情報出力部(特別表示情報出力部)25とを有している。これに対し、図26に示される変形例1においては、情報提供部70が、スクリーン情報取得部21に対応するスクリーン情報取得部74と、観察者位置情報取得部23に対応する観察者位置情報取得部(第2の位置情報取得部)75とを備えており、必要な情報をポインティング装置1eのマーク表示情報生成部20eに提供している。   In the pointing device 1 shown in FIG. 5 (Embodiment 1), the mark display information generation unit 20 includes a screen information acquisition unit 21 and a pointing person mark display position calculation unit (pointing person special display position calculation unit). ) 22, an observer position information acquisition unit (second position information acquisition unit) 23, an observer mark display position calculation unit (observer special display position calculation unit) 24, and a mark display information output unit (special Display information output unit) 25. On the other hand, in the first modification shown in FIG. 26, the information providing unit 70 includes the screen information acquisition unit 74 corresponding to the screen information acquisition unit 21 and the observer position information corresponding to the observer position information acquisition unit 23. An acquisition unit (second position information acquisition unit) 75, and provides necessary information to the mark display information generation unit 20e of the pointing device 1e.

図27は、ポインティング装置1eの構成を示すブロック図である。図27に示されるように、ポインティング対象判別部10eは、第1の位置(例えば、ポインティング者の位置)を示す第1の位置情報と、ポインティング方向(例えば、ポインティング者が道具又は手指で指し示す方向)を示すポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを情報提供部70から受け取り、これらの情報を元に、ポインティング対象がポインティング対象候補の中のいずれであるかを判別し、この判別の結果を示す判別情報を出力するポインティング対象解析部14を有している。   FIG. 27 is a block diagram showing a configuration of the pointing device 1e. As illustrated in FIG. 27, the pointing target determination unit 10e includes first position information indicating a first position (for example, the position of the pointing person) and a pointing direction (for example, a direction pointed by the pointing person with a tool or a finger). ) And third position information indicating the position of one or more pointing target candidates from the information providing unit 70, and based on these information, the pointing target is any of the pointing target candidates. It has a pointing object analysis unit 14 that determines whether or not there is and outputs discrimination information indicating the result of the discrimination.

また、マーク表示情報生成部20eは、ポインティング者用マーク表示位置算出部(ポインティング者用特別表示位置算出部)22と、観察者用マーク表示位置算出部(観察者用特別表示位置算出部)24と、マーク表示情報出力部(特別表示情報出力部)25とを有している。マーク表示情報生成部20eは、第2の位置(例えば、観察者の位置)を示す第2の位置情報と、ポインティング対象判別部10eから出力された判別情報と、スクリーンの位置を示す情報を含むスクリーン情報とを元に、第2の位置からポインティング対象に向かう第2の位置用の直線(例えば、図4における直線L2)が、スクリーンに交差する位置である第2の位置用の特別表示(例えば、図4におけるM2)の表示位置を算出し、第2の位置用の特別表示の表示情報を出力する。   The mark display information generation unit 20e includes a pointing person mark display position calculation unit (pointing person special display position calculation unit) 22 and an observer mark display position calculation unit (observer special display position calculation unit) 24. And a mark display information output unit (special display information output unit) 25. The mark display information generation unit 20e includes second position information indicating a second position (for example, the position of an observer), determination information output from the pointing target determination unit 10e, and information indicating a screen position. Based on the screen information, a second position special display (for example, a straight line L2 in FIG. 4) from the second position toward the pointing target intersects the screen. For example, the display position of M2) in FIG. 4 is calculated, and the display information of the special display for the second position is output.

変形例1によれば、実施の形態1の場合と同様に、観察者U2,U3に対しポインティング対象Q1を正確に認識させることができる。   According to the modified example 1, as in the case of the first embodiment, it is possible to cause the observers U2 and U3 to accurately recognize the pointing object Q1.

また、変形例1の情報提供部70は、実施の形態2から5にも適用可能である。   Further, the information providing unit 70 according to the first modification can be applied to the second to fifth embodiments.

《7》変形例2.
図28は、実施の形態1によるポインティング装置1の変形例2の構成を示すハードウェア構成図である。図28に示されるポインティング装置1の変形例2は、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを有している。図28に示されるポインティング装置1の変形例の動作は、図5に示される実施の形態1によるポインティング装置1の動作と同じである。
<< 7 >> Modification 2
FIG. 28 is a hardware configuration diagram illustrating a configuration of Modification 2 of the pointing device 1 according to the first embodiment. A modification 2 of the pointing device 1 shown in FIG. 28 includes a memory 91 as a storage device that stores a program as software, and a processor 92 as an information processing unit that executes the program stored in the memory 91. ing. The operation of the modification of the pointing device 1 shown in FIG. 28 is the same as the operation of the pointing device 1 according to the first embodiment shown in FIG.

図28に示される装置が、図5に示されるポインティング装置1における処理を実現する場合には、図5に示されるポインティング装置1の各構成は、プロセッサ92がメモリ91に記憶されたプログラムを実行することにより、実現される。なお、ポインティング装置1の各構成を実現するために、プロセッサ92とメモリ91とを用いる場合を例示したが、ポインティング装置1の各構成の一部をプロセッサ92とメモリ91で実現し、残りの部分をハードウェア回路で実現しても良い。   When the apparatus shown in FIG. 28 realizes the processing in the pointing device 1 shown in FIG. 5, each configuration of the pointing device 1 shown in FIG. 5 causes the processor 92 to execute a program stored in the memory 91. This is realized. In addition, in order to implement | achieve each structure of the pointing device 1, although the case where the processor 92 and the memory 91 were used was illustrated, a part of each structure of the pointing device 1 is implement | achieved by the processor 92 and the memory 91, and the remaining part May be realized by a hardware circuit.

また、図28に示される装置が、図11に示されるポインティング装置2、図17に示されるポインティング装置3、図21に示されるポインティング装置4、及び図24に示されるポインティング装置5における各処理を実現する場合には、ポインティング装置1の場合と同様に、ポインティング装置2〜5の各構成は、プロセッサ92がメモリ91に記憶されたプログラムを実行することにより、実現される。なお、ポインティング装置2〜5の各構成を実現するために、プロセッサ92とメモリ91とを用いる場合を例示したが、ポインティング装置2〜5の各構成の一部をプロセッサ92とメモリ91で実現し、残りの部分をハードウェア回路で実現しても良い。   28 performs the respective processes in the pointing device 2 shown in FIG. 11, the pointing device 3 shown in FIG. 17, the pointing device 4 shown in FIG. 21, and the pointing device 5 shown in FIG. In the case of realizing, as in the case of the pointing device 1, each configuration of the pointing devices 2 to 5 is realized by the processor 92 executing a program stored in the memory 91. In addition, although the case where the processor 92 and the memory 91 are used in order to realize each configuration of the pointing devices 2 to 5 is illustrated, a part of each configuration of the pointing devices 2 to 5 is realized by the processor 92 and the memory 91. The remaining part may be realized by a hardware circuit.

本発明が適用されたポインティング装置は、例えば、ポインティング対象を指し示すポインティング者が動物園又は美術館などのツアーガイドであり、ポインティング対象の観察者がツアーガイドの説明を受けるツアー参加者である場合に使用することができる。   The pointing device to which the present invention is applied is used when, for example, the pointing person pointing to the pointing object is a tour guide such as a zoo or a museum, and the pointing object observer is a tour participant who receives the explanation of the tour guide. be able to.

1〜5,1e ポインティング装置、 10,10a,10e ポインティング対象判別部、 11 ポインティング者位置情報取得部(第1の位置情報取得部)、 12 ポインティング操作情報取得部、 13 ポインティング対象候補情報取得部(第3の位置情報取得部)、 14 ポインティング対象解析部、 15 ポインティング対象追跡部、 20,20a,20b,20c,20e マーク表示情報生成部(特別表示情報生成部)、 21 スクリーン情報取得部、 22 ポインティング者用マーク表示位置算出部(第1の特別表示位置算出部)、 23 観察者位置情報取得部(第2の位置情報取得部)、 24 観察者用マーク表示位置算出部(観察者用特別表示位置算出部)、 25 マーク表示情報出力部(特別表示情報出力部)、 26 スクリーン割当判断部、 27 マーク集約部(特別表示集約部)、 28 マーク表示切替部(特別表示切替部)、 60 スクリーン、 70 情報提供部、 U1 ポインティング者、 U2,U3 観察者、 S1,S2,S3 スクリーン、 Q1 ポインティング対象、 L1 ポインティング者とポインティング対象とを結ぶ直線(第1の位置用の直線)、 L2,L3 観察者とポインティング対象とを結ぶ直線(第2の位置用の直線)、 M1 ポインティング者用マーク表示(第1の位置用の特別表示)、 M2,M3 観察者用マーク表示(第2の位置用の特別表示)、 M10 マーク表示(特別表示)。   1 to 5, 1e pointing device, 10, 10a, 10e pointing target determination unit, 11 pointing person position information acquisition unit (first position information acquisition unit), 12 pointing operation information acquisition unit, 13 pointing target candidate information acquisition unit ( 3rd position information acquisition unit), 14 pointing object analysis unit, 15 pointing object tracking unit, 20, 20a, 20b, 20c, 20e mark display information generation unit (special display information generation unit), 21 screen information acquisition unit, 22 Pointer mark display position calculation unit (first special display position calculation unit), 23 observer position information acquisition unit (second position information acquisition unit), 24 observer mark display position calculation unit (special for observer) Display position calculation unit), 25 mark display information output unit (special display information output unit) 26 screen allocation determination unit, 27 mark aggregation unit (special display aggregation unit), 28 mark display switching unit (special display switching unit), 60 screens, 70 information providing unit, U1 pointing person, U2, U3 observer, S1, S2 , S3 screen, Q1 pointing object, L1 straight line connecting pointing person and pointing object (straight line for first position), L2, L3 straight line connecting observer and pointing object (straight line for second position), M1 pointing person mark display (special display for the first position), M2, M3 observer mark display (special display for the second position), M10 mark display (special display).

Claims (11)

第1の位置で前記第1の位置からポインティング対象に向かうポインティング方向が指し示されたときに、第2の位置で前記ポインティング対象を認識可能とする、スクリーン上における特別表示の表示情報を生成するポインティング装置であって、
前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別部と、
前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成部と、
を備えたことを特徴とするポインティング装置。
When the pointing direction from the first position toward the pointing object is indicated at the first position, the display information of the special display on the screen is generated so that the pointing object can be recognized at the second position. A pointing device,
The pointing target based on first position information indicating the first position, pointing operation information including information indicating the pointing direction, and third position information indicating the position of one or more pointing target candidates. Is a pointing target determination unit that determines which of the pointing target candidates is output, and outputs determination information indicating a result of the determination;
Based on the second position information indicating the second position, the discrimination information, and the screen information including information indicating the position of the screen, the second position from the second position toward the pointing target. Special display information generation for calculating a display position of the special display for the second position, which is a position where the straight line intersects the screen, and outputting information indicating the display position of the special display for the second position And
A pointing device comprising:
前記特別表示情報生成部は、前記第1の位置情報と、前記判別情報と、前記スクリーン情報とを元に、前記第1の位置から前記ポインティング方向に延びる第1の位置用の直線が、前記スクリーンに交差する位置である第1の位置用の特別表示の表示位置を算出し、前記第1の位置用の特別表示の表示位置を示す情報を出力する第1の表示位置算出部を有することを特徴とする請求項1に記載のポインティング装置。   Based on the first position information, the determination information, and the screen information, the special display information generation unit includes a first position straight line extending in the pointing direction from the first position. A first display position calculation unit that calculates a display position of the special display for the first position that is a position intersecting the screen and outputs information indicating the display position of the special display for the first position; The pointing device according to claim 1. 前記ポインティング対象判別部は、
前記第1の位置を示す第1の位置情報を取得する第1の位置情報取得部と、
前記第1の位置で前記ポインティング方向が指し示されたときに、前記ポインティング方向を示す情報を含むポインティング操作情報を取得するポインティング操作情報取得部と、
前記1以上のポインティング対象候補の位置を示す第3の位置情報を取得する第3の位置情報取得部と、
前記ポインティング操作情報と、前記第1の位置情報と、前記第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかの解析を行い、該解析の結果を前記判別情報として出力するポインティング対象解析部と、
を有することを特徴とする請求項1又は2に記載のポインティング装置。
The pointing object determination unit
A first position information acquisition unit that acquires first position information indicating the first position;
A pointing operation information acquisition unit configured to acquire pointing operation information including information indicating the pointing direction when the pointing direction is pointed at the first position;
A third position information acquisition unit that acquires third position information indicating the position of the one or more pointing target candidates;
Based on the pointing operation information, the first position information, and the third position information, an analysis is made as to which of the pointing object candidates is the pointing object, and the result of the analysis is obtained. A pointing object analysis unit that outputs the discrimination information;
The pointing device according to claim 1, further comprising:
前記特別表示情報生成部は、
前記スクリーン情報を取得するスクリーン情報取得部と、
前記第2の位置情報を取得する第2の位置情報取得部と、
前記第2の位置情報と、前記判別情報と、前記スクリーン情報とを元に、前記第2の位置用の特別表示の表示位置を算出する第2の表示位置算出部と、
前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報出力部と、
を有することを特徴とする請求項1から3のいずれか1項に記載のポインティング装置。
The special display information generation unit
A screen information acquisition unit for acquiring the screen information;
A second position information acquisition unit for acquiring the second position information;
A second display position calculation unit that calculates a display position of the special display for the second position based on the second position information, the determination information, and the screen information;
A special display information output unit for outputting information indicating a display position of the special display for the second position;
The pointing device according to claim 1, further comprising:
前記第1の位置で前記第1の位置から前記ポインティング対象に向かうポインティング方向が指し示されたときに、複数の第2の位置で前記ポインティング対象を認識可能とする、複数のスクリーン上における特別表示の表示情報を生成する前記ポインティング装置であって、
前記特別表示情報生成部は、前記複数の第2の位置と前記複数のスクリーンとの対応付けを判断するスクリーン割当判断部を有する
ことを特徴とする請求項1から4のいずれか1項に記載のポインティング装置。
A special display on a plurality of screens that enables the pointing object to be recognized at a plurality of second positions when a pointing direction from the first position toward the pointing object is indicated at the first position. The pointing device for generating display information of
The said special display information generation part has a screen allocation judgment part which judges matching with these 2nd position and these screens, The any one of Claim 1 to 4 characterized by the above-mentioned. Pointing device.
前記ポインティング対象判別部は、前記ポインティング対象が移動した際に、前記ポインティング対象を追跡するポインティング対象追跡部を有する
ことを特徴とする請求項1から5のいずれか1項に記載のポインティング装置。
6. The pointing device according to claim 1, wherein the pointing target determining unit includes a pointing target tracking unit that tracks the pointing target when the pointing target moves.
前記特別表示情報生成部は、複数の観察者用特別表示が一定距離以下に近接して存在する場合に、前記複数の観察者用特別表示をまとめて他の特別表示に置き換える特別表示集約部を有することを特徴とする請求項1から6のいずれか1項に記載のポインティング装置。   The special display information generating unit includes a special display aggregating unit that collectively replaces the plurality of special display for the observer with another special display when the plurality of special display for the observer exists close to a certain distance or less. The pointing device according to claim 1, wherein the pointing device is provided. 前記特別表示情報生成部は、複数の観察者用特別表示を順次切替え、同時に表示される前記観察者用特別表示の数を制限する特別表示切替部を有することを特徴とする請求項1から7のいずれか1項に記載のポインティング装置。   The special display information generation unit includes a special display switching unit that sequentially switches a plurality of special displays for observers and limits the number of the special displays for observers displayed simultaneously. The pointing device according to any one of the above. 前記スクリーンは、光透過型表示装置であることを特徴とする請求項1から8のいずれか1項に記載のポインティング装置。   The pointing device according to claim 1, wherein the screen is a light transmissive display device. 第1の位置で前記第1の位置からポインティング対象に向かうポインティング方向が指し示されたときに、第2の位置で前記ポインティング対象を認識可能とする、スクリーン上における特別表示の表示情報を生成するポインティング方法であって、
前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別ステップと、
前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成ステップと、
を備えたことを特徴とするポインティング方法。
When the pointing direction from the first position toward the pointing object is indicated at the first position, the display information of the special display on the screen is generated so that the pointing object can be recognized at the second position. A pointing method,
The pointing target based on first position information indicating the first position, pointing operation information including information indicating the pointing direction, and third position information indicating the position of one or more pointing target candidates. Is a pointing target determination step of determining which of the pointing target candidates is output, and outputting determination information indicating a result of the determination;
Based on the second position information indicating the second position, the discrimination information, and the screen information including information indicating the position of the screen, the second position from the second position toward the pointing target. Special display information generation for calculating a display position of the special display for the second position, which is a position where the straight line intersects the screen, and outputting information indicating the display position of the special display for the second position Steps,
A pointing method characterized by comprising:
コンピュータに、第1の位置で前記第1の位置からポインティング対象に向かうポインティング方向が指し示されたときに、第2の位置で前記ポインティング対象を認識可能とする、スクリーン上における特別表示の表示情報を生成するための処理として、
前記第1の位置を示す第1の位置情報と、前記ポインティング方向を示す情報を含むポインティング操作情報と、1以上のポインティング対象候補の位置を示す第3の位置情報とを元に、前記ポインティング対象が前記ポインティング対象候補の中のいずれであるかを判別し、該判別の結果を示す判別情報を出力するポインティング対象判別処理と、
前記第2の位置を示す第2の位置情報と、前記判別情報と、前記スクリーンの位置を示す情報を含むスクリーン情報とを元に、前記第2の位置から前記ポインティング対象に向かう第2の位置用の直線が、前記スクリーンに交差する位置である第2の位置用の特別表示の表示位置を算出し、前記第2の位置用の特別表示の表示位置を示す情報を出力する特別表示情報生成処理と、
を実行させるためのプログラム。
Display information on a special display on the screen that enables the computer to recognize the pointing object at the second position when the pointing direction from the first position toward the pointing object is indicated at the first position. As a process to generate
The pointing target based on first position information indicating the first position, pointing operation information including information indicating the pointing direction, and third position information indicating the position of one or more pointing target candidates. Pointing object determination processing for determining which of the pointing target candidates is output, and outputting determination information indicating the determination result;
Based on the second position information indicating the second position, the discrimination information, and the screen information including information indicating the position of the screen, the second position from the second position toward the pointing target. Special display information generation for calculating a display position of the special display for the second position, which is a position where the straight line intersects the screen, and outputting information indicating the display position of the special display for the second position Processing,
A program for running
JP2015005463A 2015-01-15 2015-01-15 Pointing device, pointing method, and program Expired - Fee Related JP6223371B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015005463A JP6223371B2 (en) 2015-01-15 2015-01-15 Pointing device, pointing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015005463A JP6223371B2 (en) 2015-01-15 2015-01-15 Pointing device, pointing method, and program

Publications (2)

Publication Number Publication Date
JP2016130987A JP2016130987A (en) 2016-07-21
JP6223371B2 true JP6223371B2 (en) 2017-11-01

Family

ID=56415561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015005463A Expired - Fee Related JP6223371B2 (en) 2015-01-15 2015-01-15 Pointing device, pointing method, and program

Country Status (1)

Country Link
JP (1) JP6223371B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110554784B (en) * 2018-05-31 2023-07-14 广东虚拟现实科技有限公司 Input method, input device, display device and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174021A (en) * 2003-12-11 2005-06-30 Canon Inc Method and device for presenting information
JP2013125985A (en) * 2011-12-13 2013-06-24 Sharp Corp Display system
US9293118B2 (en) * 2012-03-30 2016-03-22 Sony Corporation Client device
JP2014174643A (en) * 2013-03-06 2014-09-22 Canon Inc Image processing system, control method therefor, image processing device, and image processing method

Also Published As

Publication number Publication date
JP2016130987A (en) 2016-07-21

Similar Documents

Publication Publication Date Title
Williams et al. BIM2MAR: an efficient BIM translation to mobile augmented reality applications
KR101821729B1 (en) Pseudo random guided fingerprint enrolment
CN105452811B (en) User terminal device for displaying map and method thereof
CN102388406B (en) Portable electronic device recording is used to produce three-dimensional model
KR102362117B1 (en) Electroninc device for providing map information
US20160005229A1 (en) Electronic device for providing map information
Verma et al. Indoor navigation using augmented reality
US9344854B2 (en) Method, storage medium, server, and electronic device for implementing location based service within building
US10203837B2 (en) Multi-depth-interval refocusing method and apparatus and electronic device
JP2017505933A (en) Method and system for generating a virtual image fixed on a real object
JP2013080326A (en) Image processing device, image processing method, and program
Kaufmann et al. Studying spatial memory and map navigation performance on projector phones with peephole interaction
CN113910224B (en) Robot following method and device and electronic equipment
CN102637116B (en) 3D scene exchange method, device and collision checking method, device
JP5478242B2 (en) Map display device, map display method, and program
KR20220062400A (en) Projection method and system
Conesa et al. Geographical and fingerprinting data to create systems for indoor positioning and indoor/outdoor navigation
CN114529621B (en) Household type graph generation method and device, electronic equipment and medium
US10830593B2 (en) Cognitive fingerprinting for indoor location sensor networks
Han et al. Research on the feasibility of visual measurement using first‐person perspective based on smartphones
JP6223371B2 (en) Pointing device, pointing method, and program
US20140320594A1 (en) Apparatus and method for generating image data in portable terminal
Hu et al. Real-time indoor assistive localization with mobile omnidirectional vision and cloud GPU acceleration
US10824328B2 (en) Optimized non-grid based navigation
CN102985894A (en) First response and second response

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R150 Certificate of patent or registration of utility model

Ref document number: 6223371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees