JP6261038B2 - Spatial recognition system and spatial recognition method - Google Patents

Spatial recognition system and spatial recognition method Download PDF

Info

Publication number
JP6261038B2
JP6261038B2 JP2014036376A JP2014036376A JP6261038B2 JP 6261038 B2 JP6261038 B2 JP 6261038B2 JP 2014036376 A JP2014036376 A JP 2014036376A JP 2014036376 A JP2014036376 A JP 2014036376A JP 6261038 B2 JP6261038 B2 JP 6261038B2
Authority
JP
Japan
Prior art keywords
information
target
instruction
recognition system
space recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014036376A
Other languages
Japanese (ja)
Other versions
JP2015162047A (en
Inventor
翔 清野
翔 清野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2014036376A priority Critical patent/JP6261038B2/en
Publication of JP2015162047A publication Critical patent/JP2015162047A/en
Application granted granted Critical
Publication of JP6261038B2 publication Critical patent/JP6261038B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は空間認識システム及び空間認識方法に関し、特に空間内に設定した基準位置との相対的な位置により自デバイスの位置を特定する空間認識システム及びその空間認識方法に関する。   The present invention relates to a space recognition system and a space recognition method, and more particularly, to a space recognition system and a space recognition method for identifying the position of a device by using a relative position to a reference position set in the space.

近年、タブレットデバイス、スマートフォン等の携帯端末の利用が拡大している。そして、このような携帯端末の利用形態の一形態として、携帯端末から同じ空間内のテレビ、オーディオ機器等の他のデバイスを操作することが考えられている。このような利用形態では、いずれの機器に対して指示を行っているかを互いのデバイス間で認識する必要があるため、デバイス同士の位置関係を特定する必要がある。そこで、ユーザーの動きを仮想空間での位置に反映させる方法が特許文献1〜4に開示されている。   In recent years, the use of portable terminals such as tablet devices and smartphones has been expanding. And as one form of usage of such a portable terminal, it is considered to operate other devices such as a television and an audio device in the same space from the portable terminal. In such a usage mode, since it is necessary to recognize which device is instructing between the devices, it is necessary to specify the positional relationship between the devices. In view of this, Patent Documents 1 to 4 disclose a method of reflecting the user's movement on the position in the virtual space.

特許文献1では、三次元立体画像を表示する装置において、撮影部等を用いて取得した利用者の視点情報を利用して、より精度の高い三次元立体画像を表示する技術が開示されている。特許文献2では、三次元仮想空間において、仮想空間上の物体及びユーザーの相対的位置を操作する操作方法が開示されている。特許文献3では、ペンマウスの移動量により決定される実空間での位置に基づきヘッドマウントディスプレイ上での座標を決定する技術が開示されている。特許文献4では、加速度センサ及びジャイロセンサにより検出した操作デバイスの移動方向により空間画像内のカーソルを操作する技術が開示されている。   Patent Document 1 discloses a technique for displaying a three-dimensional stereoscopic image with higher accuracy by using a user's viewpoint information acquired using a photographing unit or the like in an apparatus for displaying a three-dimensional stereoscopic image. . Patent Document 2 discloses an operation method for operating an object in a virtual space and a relative position of a user in a three-dimensional virtual space. Patent Document 3 discloses a technique for determining coordinates on a head-mounted display based on a position in real space determined by the amount of movement of a pen mouse. Patent Document 4 discloses a technique for operating a cursor in a spatial image according to the movement direction of an operation device detected by an acceleration sensor and a gyro sensor.

しかしながら、特許文献1〜4に記載の技術では、実空間上に存在するデバイスの位置関係が特定できないため、利用者が操作する携帯端末により特定の装置を指示対象とすることができない問題がある。携帯端末から操作対象の装置を特定するためには、デバイス間の相対位置を特定する必要があるためである。そこで、特許文献5〜7に実空間内における物体の認識、或いは、指示方向の認識に関する技術が開示されている。   However, the technologies described in Patent Documents 1 to 4 have a problem in that a specific device cannot be designated as an instruction target by a mobile terminal operated by a user because the positional relationship of devices existing in real space cannot be specified. . This is because it is necessary to specify the relative position between the devices in order to specify the operation target device from the portable terminal. Therefore, Patent Documents 5 to 7 disclose techniques related to recognition of an object in real space or recognition of a pointing direction.

特許文献5には、入力画像から背景差分法で入力画像中に含まれる図形を抽出する背景差分処理部と、背景差分処理部が抽出した図形の画像データを二値化する二値化部と、二値化部が二値化した図形の画像データから輪郭データを抽出する輪郭抽出部と、輪郭抽出部が抽出した輪郭データの重心位置を算出する重心算出部と、重心算出部が算出した重心位置から輪郭抽出部が抽出した輪郭データの最外周部までの距離を所定の角度毎に算出して、輪郭データを極座標表現に変換して極座標値を生成する極座標値生成部と、識別対象となる図形の輪郭データの極座標値を記憶する極座標値記憶部と、を備え、極座標値記憶部に記憶されている極座標値と、極座標値生成部が生成した極座標表現値とを所定の角度ずつずらしながら比較し、入力画像中に含まれる図形の識別を行う物体識別装置が開示されている。   Patent Document 5 discloses a background difference processing unit that extracts a graphic included in an input image from the input image by a background difference method, and a binarization unit that binarizes image data of the graphic extracted by the background difference processing unit. The contour extraction unit that extracts the contour data from the image data of the figure binarized by the binarization unit, the centroid calculation unit that calculates the centroid position of the contour data extracted by the contour extraction unit, and the centroid calculation unit A polar coordinate value generating unit that calculates a distance from the center of gravity position to the outermost peripheral part of the contour data extracted by the contour extracting unit for each predetermined angle, converts the contour data into a polar coordinate expression, and generates a polar coordinate value; and an identification target A polar coordinate value storage unit that stores polar coordinate values of the contour data of the figure to be, the polar coordinate value stored in the polar coordinate value storage unit and the polar coordinate expression value generated by the polar coordinate value generation unit by a predetermined angle Compare and input while shifting Object identification apparatus is disclosed for performing identification of a figure included in the image.

特許文献6に開示されている技術では、2つのビデオカメラにより互いに異なる複数の方向から利用者を撮像し、制御部により、撮像画像に基づいて、利用者が特定の位置又は方向を指し示す動作を行っている際の指示位置又は指示方向の変化に応じて位置が変化する特徴点の三次元座標を認識し、この三次元座標に基づいて、利用者による指示位置又は指示方向を判断する。また、特許文献6の制御部は、特徴点の三次元座標のうち大画面ディスプレイと平行な二次元平面における二次元座標に基づいて、特徴点が停止状態か否かを判定する。そして、二次元平面における移動量が所定閾値以下の場合には停止状態であると判定してクリックモードへ切り替え、停止状態でない場合にはポインティングモードへ切り替える。   In the technique disclosed in Patent Document 6, a user is imaged from a plurality of different directions by two video cameras, and the control unit performs an operation in which the user points to a specific position or direction based on the captured image. The three-dimensional coordinates of the feature point whose position changes in accordance with the change of the designated position or the designated direction during the recognition are recognized, and the designated position or designated direction by the user is determined based on the three-dimensional coordinates. Moreover, the control part of patent document 6 determines whether a feature point is a stop state based on the two-dimensional coordinate in a two-dimensional plane parallel to a large screen display among the three-dimensional coordinates of a feature point. When the movement amount on the two-dimensional plane is equal to or smaller than the predetermined threshold value, it is determined that the camera is in the stopped state, and the mode is switched to the click mode.

特許文献7では、物体認識装置に関する技術が開示されている。この物体認識装置は、2点の座標から幾何的に一意に決定される座標集合上の画像のパターン分布を獲得し、それを距離について正規化した明度分布ベクトルを獲得する明度分布ベクトル獲得部と、予め認識対象の画像に対して明度分布ベクトル獲得部を適用して得られた複数の明度分布ベクトルから照合情報を作成する照合情報作成部と、入力した画像から明度分布ベクトル及び照合情報を用いて明度分布ベクトルの照合を行って対象物を認識する認識部を備える。   Patent Document 7 discloses a technique related to an object recognition device. This object recognition device acquires a pattern distribution of an image on a coordinate set that is geometrically uniquely determined from coordinates of two points, and acquires a brightness distribution vector obtained by normalizing the pattern distribution with respect to a distance; A collation information creation unit that creates collation information from a plurality of lightness distribution vectors obtained by applying a lightness distribution vector acquisition unit to an image to be recognized in advance, and a lightness distribution vector and collation information from the input image And a recognition unit for recognizing the object by collating the brightness distribution vector.

特開2009−278456号公報JP 2009-278456 A 特開平9−6577号公報JP-A-9-6577 特開2011−180867号公報JP 2011-180867 A 特開2007−304667号公報JP 2007-304667 A 特開2011−134065号公報JP 2011-134065 A 特開2004−246814号公報JP 2004-246814 A 特開平11−283031号公報Japanese Patent Laid-Open No. 11-283031

しかしながら、特許文献5〜7に記載の技術では、物体の認識、或いは、物体の動きの認識に画像処理を行わなければならない。このような処理では、認識する対象を画像として取り込まなければならず、外部に状況が漏れることを防ぐ必要がある、オフィス、私的空間等の空間内の状況を秘匿したい場合での利用が難しい問題がある。   However, in the techniques described in Patent Documents 5 to 7, image processing must be performed for object recognition or object motion recognition. In such a process, the object to be recognized must be captured as an image, and it is necessary to prevent the situation from leaking to the outside. This is difficult to use when you want to keep the situation in a space such as an office or private space secret. There's a problem.

本発明にかかる空間認識システムの一態様は、少なくとも1つの指示対象装置と、自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、前記なぞり軌跡情報に基づき前記制御対象装置を特定する対象特定装置と、を有し、前記対象特定装置は、前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、前記指示方向ベクトルを延長した半直線と前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する。   One aspect of the space recognition system according to the present invention is based on at least one indication target device and at least one of a tracing operation with respect to a touch sensor provided on the own device and a change in position of the own device. An instruction device that outputs trace trajectory information for instructing a control target device to be controlled, and device position information indicating a relative position and orientation between a built-in reception unit and an external transmission unit; A target specifying device that specifies the device to be controlled based on the trace trajectory information, and the target specifying device uses the trace trajectory coordinate information indicated by at least one of the trace trajectory information and the device position information. An indication direction vector is calculated by converting into coordinate information of a reference coordinate system based on the position of the transmission unit, and the indication direction vector is extended. Identifying the control target apparatus based on the distance between the position coordinates of the defined the instruction target device on the half line and the reference coordinate system.

本発明にかかる空間認識方法の一態様は、少なくとも1つの指示対象装置と、自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、前記なぞり軌跡情報及び前記デバイス位置情報に基づき前記制御対象装置を特定する対象特定装置と、を有する空間認識システムにおける空間認識方法であって、前記対象特定装置が、前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、前記指示方向ベクトルを延長した半直線を算出し、前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する。   One aspect of the space recognition method according to the present invention is based on at least one instruction target apparatus and at least one of a tracing operation with respect to a touch sensor provided on the own device and a position change of the own device. An instruction device that outputs trace trajectory information for instructing a control target device to be controlled, and device position information indicating a relative position and orientation between a built-in reception unit and an external transmission unit; A target identification device that identifies the control target device based on the trace trajectory information and the device position information, wherein the target identification device includes the trace trajectory information and the device. The trace locus coordinate information indicated by at least one of the position information and the position of the reference coordinate system with respect to the position of the transmission unit. The control target device is converted into information to calculate a pointing direction vector, calculates a half line obtained by extending the pointing direction vector, and based on a distance from a position coordinate of the pointing target device defined on the reference coordinate system Is identified.

本発明にかかる空間認識システム及びその空間認識方法によれば、空間内で秘匿したい情報を秘匿しながら、指示デバイスと指示対象装置との相対的な位置関係及び指示方向を認識することができる。   According to the space recognition system and the space recognition method according to the present invention, it is possible to recognize the relative positional relationship and the pointing direction between the pointing device and the pointing target device while concealing information to be concealed in the space.

実施の形態1にかかる空間認識システムのブロック図である。1 is a block diagram of a space recognition system according to a first exemplary embodiment. 実施の形態1にかかる空間認識システムにおいて利用する座標系を説明する図である。It is a figure explaining the coordinate system utilized in the space recognition system concerning Embodiment 1. FIG. 実施の形態1にかかる空間認識システムにおいて認識する座標の関係を説明する図である。It is a figure explaining the relationship of the coordinate recognized in the space recognition system concerning Embodiment 1. FIG. 実施の形態1にかかる指示デバイスにおけるなぞり軌跡情報の生成処理を示すフローチャートである。6 is a flowchart showing a process for generating trace trajectory information in the pointing device according to the first embodiment; 実施の形態1にかかる指示デバイスにおけるデバイス位置情報の生成処理を示すフローチャートである。6 is a flowchart showing a process for generating device position information in the instruction device according to the first embodiment; 実施の形態1にかかる対象特定装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the target identification device according to the first exemplary embodiment. 実施の形態2にかかる空間認識システムにおいて利用する座標系を説明する図である。It is a figure explaining the coordinate system utilized in the space recognition system concerning Embodiment 2. FIG. 実施の形態2にかかる空間認識システムにおいて認識する座標の関係を説明する図である。It is a figure explaining the relationship of the coordinate recognized in the space recognition system concerning Embodiment 2. FIG. 実施の形態2にかかる対象特定装置の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the target identification device according to the second exemplary embodiment. 実施の形態3にかかる空間認識システムにおいて認識する座標の関係を説明する図である。It is a figure explaining the relationship of the coordinate recognized in the space recognition system concerning Embodiment 3. FIG. 実施の形態3にかかる指示デバイスにおけるなぞり軌跡情報の生成処理を示すフローチャートである。FIG. 10 is a flowchart showing a process for generating trace trajectory information in the pointing device according to the third embodiment; 実施の形態3にかかる対象特定装置の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the target identification device according to the third exemplary embodiment.

実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。まず、図1に実施の形態1にかかる空間認識システム1のブロック図を示す。図1に示すように、実施の形態1にかかる空間認識システム1は、指示デバイス10、対象特定装置30、指示対象装置41〜43を有する。また、空間認識システム1では、指示デバイス10の空間内での位置及び方向を認識するために、三次元位置計測装置20を用いる。また、実施の形態1にかかる空間認識システム1では、指示デバイス10、対象特定装置30、指示対象装置41〜43は、例えば、無線通信により互いに通信可能な状態となっているものとする。つまり、空間認識システム1では、デバイス間の各種情報を無線信号により送受信する。
Embodiment 1
Embodiments of the present invention will be described below with reference to the drawings. First, FIG. 1 shows a block diagram of a space recognition system 1 according to the first exemplary embodiment. As illustrated in FIG. 1, the space recognition system 1 according to the first embodiment includes an instruction device 10, a target identification device 30, and instruction target devices 41 to 43. In the space recognition system 1, the three-dimensional position measurement device 20 is used to recognize the position and direction of the pointing device 10 in the space. In the space recognition system 1 according to the first exemplary embodiment, it is assumed that the instruction device 10, the target identification device 30, and the instruction target devices 41 to 43 are in a state where they can communicate with each other by wireless communication, for example. That is, in the space recognition system 1, various information between devices is transmitted and received by radio signals.

指示デバイス10は、デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき指示対象装置41〜43のうち制御対象となる制御対象装置を指示するなぞり軌跡情報を出力する。また、指示デバイス10は、内蔵された受信部(例えば、レシーバ部13〜15)と外部に設けられる送信部(例えば、トランスミッタ部12)との相対的な位置及び向きを示すデバイス位置情報を出力する。   The indication device 10 is a tracing locus that indicates a control target device to be controlled among the indication target devices 41 to 43 based on at least one of a tracing operation with respect to a touch sensor provided on the device and a change in position of the own device. Output information. The instruction device 10 also outputs device position information indicating the relative position and orientation of the built-in receiving unit (for example, the receiver units 13 to 15) and the transmitting unit (for example, the transmitter unit 12) provided outside. To do.

より具体的には、指示デバイス10は、指示方向計測部11、レシーバ部13〜15、位置センサ制御部16を有する。指示方向計測部11は、指示デバイス10に設けられるタッチセンサ(不図示)に対して利用者が行うなぞり動作により得られる軌跡情報をなそり軌跡情報として出力する。   More specifically, the pointing device 10 includes a pointing direction measurement unit 11, receiver units 13 to 15, and a position sensor control unit 16. The pointing direction measurement unit 11 outputs trajectory information obtained by a tracing operation performed by a user on a touch sensor (not shown) provided in the pointing device 10 as slant trajectory information.

レシーバ部13〜15、位置センサ制御部16は、三次元位置計測装置20の一部にも含まれるものである。三次元位置計測装置20には、トランスミッタ部12、レシーバ部13〜15及び位置センサ制御部16を有する。実施の形態1では、三次元位置計測装置20として、例えば、磁気式センサを用いる。トランスミッタ部12は、磁気を出力する。また、トランスミッタ部12は、認識する空間内の基準位置を示すものであり、実施の形態1にかかる空間認識システム1では、対象特定装置30内に設けられる。レシーバ部13〜15は、トランスミッタ部12が出力した磁気を受け、自身の位置及び傾きの変化に応じて変化する磁気の強さ及び磁界の方向に対応した情報を出力する。以下の説明では、レシーバ部13〜15が出力する情報を相対的位置情報と称す。   The receiver units 13 to 15 and the position sensor control unit 16 are also included in a part of the three-dimensional position measurement apparatus 20. The three-dimensional position measurement apparatus 20 includes a transmitter unit 12, receiver units 13 to 15, and a position sensor control unit 16. In the first embodiment, for example, a magnetic sensor is used as the three-dimensional position measurement device 20. The transmitter unit 12 outputs magnetism. The transmitter unit 12 indicates a reference position in the space to be recognized, and is provided in the target identification device 30 in the space recognition system 1 according to the first embodiment. The receiver units 13 to 15 receive the magnetism output from the transmitter unit 12 and output information corresponding to the strength of the magnetic field and the direction of the magnetic field that change according to changes in the position and inclination of the receiver unit 13 to 15. In the following description, information output by the receiver units 13 to 15 is referred to as relative position information.

ここで、レシーバ部13は第1の受信部に相当するものであり、レシーバ部14は第2の受信部に相当するものであり、レシーバ部15は第3の受信部に相当するものである。レシーバ部14及びレシーバ部15は、指示デバイス10内において、レシーバ部13を交点として直交する直線上に配置される。位置センサ制御部16は、レシーバ部13〜15が出力する相対的位置情報をデバイス位置情報として出力する。   Here, the receiver unit 13 corresponds to a first receiving unit, the receiver unit 14 corresponds to a second receiving unit, and the receiver unit 15 corresponds to a third receiving unit. . The receiver unit 14 and the receiver unit 15 are disposed on a straight line orthogonal to the receiver unit 13 in the pointing device 10. The position sensor control unit 16 outputs the relative position information output from the receiver units 13 to 15 as device position information.

対象特定装置30は、位置データベース登録処理部31、位置データベース32、指示対象決定部33を有する。位置データベース登録処理部31は、指示対象装置41〜43とトランスミッタ部12との相対的な位置を示す情報を入力するユーザーインタフェースを利用者に提供する。また、位置データベース登録処理部31は、入力された情報をトランスミッタ部12の位置を基準とする基準座標系の位置座表情報に変換して位置データベース32に登録する。なお、指示対象装置41〜43の位置情報の登録方法の一態様は、例えば、指示対象装置41等に指示デバイス10に内蔵されるレシーバ部とは異なる装置登録用レシーバ部を一時的に設置して、装置登録用レシーバ部から得られた位置情報に基づき位置情報を登録するものである。   The target specifying device 30 includes a position database registration processing unit 31, a position database 32, and an instruction target determination unit 33. The position database registration processing unit 31 provides a user with a user interface for inputting information indicating a relative position between the instruction target devices 41 to 43 and the transmitter unit 12. In addition, the position database registration processing unit 31 converts the input information into position table information of a reference coordinate system based on the position of the transmitter unit 12 and registers the information in the position database 32. Note that one aspect of the registration method of the position information of the instruction target devices 41 to 43 is, for example, that a device registration receiver unit that is different from the receiver unit incorporated in the instruction device 10 is temporarily installed in the instruction target device 41 or the like. Thus, the position information is registered based on the position information obtained from the device registration receiver unit.

指示対象決定部33は、なぞり軌跡情報及びデバイス位置情報に基づき制御対象装置を特定し、特定した制御対象装置に制御対象であることを通知する。具体的には、指示対象決定部33は、なぞり軌跡情報とデバイス位置情報とにより示されるなぞり軌跡座標情報をトランスミッタ部12の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、指示方向ベクトルを延長した半直線と基準座標系上で定義された指示対象装置の位置座標との距離に基づき制御対象装置を特定する。   The instruction target determination unit 33 specifies a control target device based on the trace locus information and device position information, and notifies the specified control target device that the control target device is a control target. Specifically, the instruction target determining unit 33 converts the trace locus coordinate information indicated by the trace locus information and the device position information into coordinate information of a reference coordinate system with the position of the transmitter unit 12 as a reference, thereby indicating an instruction direction vector. And the control target device is specified based on the distance between the half line obtained by extending the pointing direction vector and the position coordinate of the pointing target device defined on the reference coordinate system.

続いて、実施の形態1にかかる空間認識システム1において利用する座標系について説明する。そこで、図2に実施の形態1にかかる空間認識システム1において利用する座標系を説明する図を示す。なお、図2では、指示デバイス10及び対象特定装置30が共に水平に置かれている状態を示している。   Next, a coordinate system used in the space recognition system 1 according to the first embodiment will be described. FIG. 2 is a diagram for explaining a coordinate system used in the space recognition system 1 according to the first embodiment. FIG. 2 shows a state in which the instruction device 10 and the target identification device 30 are both placed horizontally.

図2に示すように、実施の形態1にかかる空間認識システム1では、トランスミッタ部12が対象特定装置30内に設けられている。そして、トランスミッタ部12の位置を原点として基準座標系Σstandardが定義される。   As shown in FIG. 2, in the space recognition system 1 according to the first exemplary embodiment, the transmitter unit 12 is provided in the target identification device 30. A reference coordinate system Σstandard is defined with the position of the transmitter unit 12 as the origin.

また、指示デバイス10では、内蔵されるレシーバ部13を原点としてデバイス座標系Σdeviceが定義される。また、デバイス座標系Σdeviceでは、レシーバ部13からレシーバ部14に向かってX座標Xdが定義され、レシーバ部13からレシーバ部15に向かってY座標Ydが定義される。また、デバイス座標系Σdeviceでは、指示デバイス10が水平に置かれている状態で、X−Y座標面と直交する方向にZ座標Zdが定義される。また、指示デバイス10は、表示部と同じ面積でタッチセンサ17が設けられる。そして、タッチセンサ17上でのタッチの位置を示す二次元座標として入力座標系Σinputが定義される。なお、図2では、始点Ps1から終点Ps2にいたる動作としてなぞり動作が行われた状態を示している。   In the pointing device 10, a device coordinate system Σdevice is defined with the built-in receiver unit 13 as the origin. In the device coordinate system Σdevice, an X coordinate Xd is defined from the receiver unit 13 toward the receiver unit 14, and a Y coordinate Yd is defined from the receiver unit 13 toward the receiver unit 15. In the device coordinate system Σdevice, the Z coordinate Zd is defined in a direction orthogonal to the XY coordinate plane in a state where the pointing device 10 is placed horizontally. Further, the pointing device 10 is provided with the touch sensor 17 having the same area as the display unit. Then, an input coordinate system Σinput is defined as a two-dimensional coordinate indicating the position of the touch on the touch sensor 17. FIG. 2 shows a state in which a tracing operation is performed as an operation from the start point Ps1 to the end point Ps2.

続いて、実施の形態1にかかる空間認識システム1の指示対象決定部33で行われる座標変換方法について説明する。そこで、図3に実施の形態1にかかる空間認識システム1において認識する座標の関係について説明する。図3に示すように、実施の形態1にかかる空間認識システム1では、デバイス座標系Σdeviceと入力座標系Σinputとの相対的な位置差はVdiで定義される。この位置差Vdiは、タッチセンサ17とレシーバ部13との位置関係が指示デバイス10上で決まっているものであるため、変動することはない。そのため、位置差Vdiは、予め位置データベース32に登録されるものとする。指示対象決定部33では、指示方向計測部11から与えられるなぞり軌跡情報に含まれる始点Ps1の座標と終点Ps2の座標とに位置差Vdiを加えることで、入力座標系Σinputの座標をデバイス座標系Σdeviceの座標に変換する。   Next, a coordinate conversion method performed by the instruction target determination unit 33 of the space recognition system 1 according to the first embodiment will be described. Therefore, FIG. 3 explains the relationship of coordinates recognized in the space recognition system 1 according to the first exemplary embodiment. As shown in FIG. 3, in the space recognition system 1 according to the first embodiment, the relative position difference between the device coordinate system Σdevice and the input coordinate system Σinput is defined by Vdi. The positional difference Vdi does not vary because the positional relationship between the touch sensor 17 and the receiver unit 13 is determined on the pointing device 10. Therefore, the position difference Vdi is registered in the position database 32 in advance. The instruction target determination unit 33 adds the position difference Vdi to the coordinates of the start point Ps1 and the coordinates of the end point Ps2 included in the trace trajectory information given from the instruction direction measurement unit 11, thereby converting the coordinates of the input coordinate system Σinput to the device coordinate system. Convert to Σdevice coordinates.

また、実施の形態1にかかる空間認識システム1では、レシーバ部13とトランスミッタ部12との相対的位置差がVsdoとしてレシーバ部13で測定され、レシーバ部14とトランスミッタ部12との相対的位置差がVsdxとしてレシーバ部14で測定され、レシーバ部15とトランスミッタ部12との相対的位置差がVsdyとしてレシーバ部15で測定される。指示対象決定部33では、相対的位置差Vsdo、Vsdx、Vsdyに基づき、デバイス座標系の座標を基準座標系Σstandardに変換する。   In the space recognition system 1 according to the first exemplary embodiment, the relative position difference between the receiver unit 13 and the transmitter unit 12 is measured by the receiver unit 13 as Vsdo, and the relative position difference between the receiver unit 14 and the transmitter unit 12 is measured. Is measured by the receiver unit 14 as Vsdx, and the relative positional difference between the receiver unit 15 and the transmitter unit 12 is measured by the receiver unit 15 as Vsdy. The instruction target determination unit 33 converts the coordinates of the device coordinate system into the reference coordinate system Σstandard based on the relative position differences Vsdo, Vsdx, and Vsdy.

実施の形態1にかかる空間認識システム1では、上記のように座標系の間の相対的な位置差に基づき入力されたなぞり軌跡を基準座標系の座標情報に変換する。そして、指示対象決定部33は、基準座標系の座標情報として表現されたなぞり軌跡から指示方向ベクトルを算出し、指示方向ベクトルを延長した半直線Lsを算出する。その後、指示対象決定部33は、位置データベース32に登録された指示対象装置41〜43の座標情報から半直線Lsへの垂線の距離L41〜L43を算出する。そして、指示対象決定部33は、垂線の距離が最も短くなる指示対象装置42を制御対象装置として特定し、指示対象装置42に制御対象装置として指定されたことを指示する。なお、指示対象装置42は、制御対象装置として指定されたことの通知に基づき指示デバイス10との通信を開始する。   In the space recognition system 1 according to the first exemplary embodiment, the tracing trajectory input based on the relative positional difference between the coordinate systems as described above is converted into the coordinate information of the reference coordinate system. Then, the instruction target determining unit 33 calculates an instruction direction vector from the trace locus expressed as coordinate information of the reference coordinate system, and calculates a half line Ls obtained by extending the instruction direction vector. Thereafter, the instruction target determination unit 33 calculates the perpendicular distances L41 to L43 from the coordinate information of the instruction target devices 41 to 43 registered in the position database 32 to the half line Ls. Then, the instruction target determining unit 33 specifies the instruction target device 42 having the shortest perpendicular distance as the control target device, and instructs the instruction target device 42 to be designated as the control target device. The instruction target device 42 starts communication with the instruction device 10 based on the notification that it has been designated as the control target device.

続いて、実施の形態1にかかる空間認識システム1の動作について更に詳細に説明する。実施の形態1にかかる空間認識システム1の動作は、指示デバイス10の動作と、対象特定装置30の動作とに分けて考えることができる。そこで、以下では、まず、指示デバイス10の動作について説明し、その後に対象特定装置30の動作について説明する。なお、以下では、特に空間認識システム1における制御対象装置の決定処理について説明するが、説明しない動作として、空間認識システム1では指示デバイス10の指示に基づく制御対象装置の動作及び指示デバイス10単体で行われる動作も行われる。   Subsequently, the operation of the space recognition system 1 according to the first exemplary embodiment will be described in more detail. The operation of the space recognition system 1 according to the first exemplary embodiment can be divided into the operation of the instruction device 10 and the operation of the target specifying device 30. Therefore, in the following, the operation of the instruction device 10 will be described first, and then the operation of the target identification device 30 will be described. In the following, the control target device determination process in the space recognition system 1 will be described in particular. However, as operations not described, in the space recognition system 1, the operation of the control target device based on the instruction of the instruction device 10 and the instruction device 10 alone The operations that are performed are also performed.

図4に、実施の形態1にかかる指示デバイス10におけるなぞり軌跡情報の生成処理を示すフローチャートを示す。図4に示すように、指示デバイス10は、動作を開始すると、なぞり指示に入力を待機する(ステップS1)。そして、指示デバイス10のタッチセンサ17に対してなぞり動作が行われたことに対応して(ステップS1のYESの枝)、指示デバイス10は、指示方向計測部11により入力座標系でのなぞり軌跡を計測する(ステップS2)。そして、指示デバイス10の指示方向計測部11は、なぞり軌跡情報を対象特定装置30の指示対象決定部33に送信する(ステップS3)。その後、指示デバイス10は、再度なぞり指示の入力を待機する状態となる。   FIG. 4 is a flowchart showing the generation process of the trace locus information in the instruction device 10 according to the first embodiment. As shown in FIG. 4, when the instruction device 10 starts operation, the instruction device 10 waits for input of a tracing instruction (step S1). Then, in response to the tracing operation being performed on the touch sensor 17 of the pointing device 10 (YES branch of step S1), the pointing device 10 causes the pointing direction measuring unit 11 to trace the input coordinate system. Is measured (step S2). Then, the pointing direction measuring unit 11 of the pointing device 10 transmits the tracing locus information to the pointing target determining unit 33 of the target specifying device 30 (Step S3). Thereafter, the instruction device 10 enters a state of waiting for the input of the tracing instruction again.

また、図5に、実施の形態1にかかる指示デバイス10におけるデバイス位置情報の生成処理を示すフローチャートを示す。図5に示すように、指示デバイス10は、指示対象決定部33から自デバイスに対するデバイス位置情報の出力要求を待機する(ステップS11)。そして、指示対象決定部33からデバイス位置情報の出力要求があった場合(ステップS11のYESの枝)、指示デバイス10は、位置センサ制御部16によりレシーバ部13〜15から相対的位置情報を取得することで自デバイスの位置情報を計測する(ステップS12)。その後、指示デバイス10は、取得した相対的位置情報をデバイス位置情報として指示対象決定部33に送信する(ステップS13)。   FIG. 5 is a flowchart showing device position information generation processing in the instruction device 10 according to the first embodiment. As illustrated in FIG. 5, the instruction device 10 waits for a device position information output request to the own device from the instruction target determination unit 33 (step S <b> 11). When there is a request for output of the device position information from the instruction target determination unit 33 (YES in step S11), the instruction device 10 acquires the relative position information from the receiver units 13 to 15 by the position sensor control unit 16. Thus, the position information of the own device is measured (step S12). Thereafter, the instruction device 10 transmits the acquired relative position information to the instruction target determination unit 33 as device position information (step S13).

続いて、図6に、実施の形態1にかかる対象特定装置30の動作を示すフローチャートを示す。図6に示すように、対象特定装置30は、動作を開始すると、まず位置データベース登録処理部31に対する未登録の指示対象装置の登録指示の有無を判断する(ステップS21)。このステップS21で登録指示があると判断された場合(ステップS21のYESの枝)、位置データベース32に基準座標系での指示対象装置の位置を登録する(ステップS22)。一方、ステップS21で登録指示がないと判断された場合(ステップS21のNOの枝)、対象特定装置30では、指示対象決定部33が指示デバイス10からのなぞり軌跡情報の入力を待つ(ステップS23)。対象特定装置30では、指示対象の登録指示がなく、なぞり軌跡情報の入力もない場合、ステップS21とステップS23の処理を繰り返し実行する。   FIG. 6 is a flowchart illustrating the operation of the target identification device 30 according to the first embodiment. As shown in FIG. 6, when starting the operation, the target specifying device 30 first determines whether or not there is a registration instruction for an unregistered instruction target device in the location database registration processing unit 31 (step S21). If it is determined in step S21 that there is a registration instruction (YES in step S21), the position of the instruction target apparatus in the reference coordinate system is registered in the position database 32 (step S22). On the other hand, when it is determined in step S21 that there is no registration instruction (NO branch of step S21), in the target identification device 30, the instruction target determination unit 33 waits for input of trace trajectory information from the instruction device 10 (step S23). ). In the target identification device 30, when there is no instruction for registering the instruction target and no trace locus information is input, the processes of step S21 and step S23 are repeatedly executed.

そして、ステップS23においてなぞり軌跡情報の入力があると判断された場合(ステップS23のYESの枝)、指示対象決定部33によりステップS24〜S28の動作が行われる。   If it is determined in step S23 that the trace trajectory information is input (YES in step S23), the instruction target determining unit 33 performs the operations in steps S24 to S28.

ステップS24では、指示対象決定部33が指示デバイス10にデバイス位置情報の出力を要求して、指示デバイス10からデバイス位置情報を取得する。次いで、指示対象決定部33は、取得したなぞり軌跡情報に入力座標系Σinputとデバイス座標系Σdeviceとの位置差Vdiを適用して、入力座標系Σinputのなぞり軌跡情報をデバイス座標系Σdeviceの座標情報に変換して第1の位置変化情報を生成する(ステップS25)。次いで、指示対象決定部33は、第1の位置変化情報として生成されたデバイス座標系の位置変化情報にデバイス位置情報として与えられた位置差Vsdo、Vsdx、Vsdyを適用して、デバイス座標系Σdeviceの位置変化情報を基準座標系Σstandardの座標情報に変換して第2の位置変化情報(例えば、基準座標系Σstandardの位置変化情報)を生成する(ステップS26)。これにより、基準座標系Σstandardのなぞり軌跡情報が生成される。   In step S <b> 24, the instruction target determination unit 33 requests the instruction device 10 to output device position information, and acquires the device position information from the instruction device 10. Next, the instruction target determining unit 33 applies the positional difference Vdi between the input coordinate system Σinput and the device coordinate system Σdevice to the acquired trace locus information, and uses the trace locus information of the input coordinate system Σinput as the coordinate information of the device coordinate system Σdevice. To generate first position change information (step S25). Next, the instruction target determining unit 33 applies the position differences Vsdo, Vsdx, and Vsdy given as the device position information to the position change information of the device coordinate system generated as the first position change information, and the device coordinate system Σdevice. Is converted into coordinate information of the reference coordinate system Σstandard to generate second position change information (for example, position change information of the reference coordinate system Σstandard) (step S26). Thereby, the trace trajectory information of the reference coordinate system Σstandard is generated.

次いで、指示対象決定部33は、基準座標系Σstandardのなぞり軌跡情報から指示方向ベクトルを算出し、指示方向ベクトルの方向になぞり軌跡の始点Ps1から延びる半直線Lsを算出する(ステップS27)。次いで、指示対象決定部33は、半直線Lsとの距離が最も近い指示対象装置を制御対象装置として特定し、制御対象装置の指示対象デバイスとの通信を開始させる(ステップS28)。このステップS28の処理が完了すると、対象特定装置30は、再度ステップS21とステップS23の処理を繰り返す。   Next, the instruction target determining unit 33 calculates an instruction direction vector from the tracing locus information of the reference coordinate system Σstandard, and calculates a half line Ls extending from the starting point Ps1 of the tracing locus in the direction of the instruction direction vector (step S27). Next, the instruction target determining unit 33 identifies the instruction target device having the shortest distance from the half line Ls as the control target device, and starts communication with the instruction target device of the control target device (step S28). When the process of step S28 is completed, the target identifying device 30 repeats the processes of step S21 and step S23 again.

上記説明より、実施の形態1にかかる空間認識システム1では、指示デバイス10に対して入力されたなぞり軌跡情報を、指示デバイス10とトランスミッタ部12との相対位置を示すデバイス位置情報を用いて、トランスミッタ部12の位置を基準とする基準座標系Σdeviceに変換することで、なぞり軌跡の先にある指示対象装置を特定する。つまり、実施の形態1にかかる空間認識システム1では、指示デバイス10と指示対象装置41等の相対位置を画像処理を用いることなく特定することができる。これにより、実施の形態1にかかる空間認識システム1では、指示デバイス10及び指示対象装置41等が存在する実空間において指示デバイス10と指示対象装置41等の位置情報以外の情報を秘匿しながら、指示デバイス10から指示対象装置41に対する指示を行うことができる。近年、特に個人情報の保護に対する要求が高まっており、画像情報を利用した位置特定方法では、画像中に個人情報が含まれる可能性が高い問題がある。一方、実施の形態1にかかる空間認識システム1では、利用する情報に個人情報が含まれないため、位置情報を取得するために利用する情報から個人情報が漏れることがない。   From the above description, in the space recognition system 1 according to the first embodiment, the trace locus information input to the pointing device 10 is used using the device position information indicating the relative position between the pointing device 10 and the transmitter unit 12. By converting to the reference coordinate system Σdevice with the position of the transmitter unit 12 as a reference, an instruction target device ahead of the tracing locus is specified. That is, in the space recognition system 1 according to the first exemplary embodiment, the relative positions of the pointing device 10 and the pointing target device 41 can be specified without using image processing. Thereby, in the space recognition system 1 according to the first exemplary embodiment, while concealing information other than the position information of the instruction device 10 and the instruction target device 41 in the real space where the instruction device 10 and the instruction target device 41 exist, An instruction to the instruction target device 41 can be issued from the instruction device 10. In recent years, there has been an increasing demand for protection of personal information in particular, and there is a problem that the position identification method using image information has a high possibility of including personal information in an image. On the other hand, in the space recognition system 1 according to the first exemplary embodiment, since personal information is not included in the information to be used, the personal information is not leaked from the information used to acquire the position information.

また、画像処理を用いて指示デバイス10と指示対象装置41との相対的位置関係を特定しようとした場合、特徴点抽出、指示方向の追従等の処理に高い演算能力を要する。しかしながら、実施の形態1にかかる空間認識システム1では、画像処理を用いることなく指示デバイス10と指示対象装置41等の相対的な位置関係を特定できるため、対象特定装置30の処理能力を抑制することができる。   In addition, when trying to identify the relative positional relationship between the pointing device 10 and the pointing target device 41 using image processing, high calculation capability is required for processing such as feature point extraction and pointing direction tracking. However, in the space recognition system 1 according to the first exemplary embodiment, since the relative positional relationship between the instruction device 10 and the instruction target device 41 can be specified without using image processing, the processing capability of the target specifying device 30 is suppressed. be able to.

また、実施の形態1にかかる空間認識システム1では、制御対象とする指示対象装置に向かってなぞり動作を行うのみであるため、指示デバイス10上に表示される指示対象装置のリスト等から制御対象装置を選択するシステムに比べて制御対象装置の選択にかかる手間及び時間を削減することができる。また、実施の形態1にかかる空間認識システム1では、指示デバイス10を制御対象装置に向けて通信を確立する必要もないため、制御対象装置の選択にかかる手間及び時間を削減することができる。   In addition, since the space recognition system 1 according to the first embodiment only performs the tracing operation toward the instruction target device to be controlled, the control target is determined from the list of instruction target devices displayed on the instruction device 10. Compared to a system for selecting an apparatus, it is possible to reduce labor and time for selecting a control target apparatus. Further, in the space recognition system 1 according to the first exemplary embodiment, it is not necessary to establish communication with the pointing device 10 directed to the control target device, so that it is possible to reduce the effort and time required for selecting the control target device.

実施の形態2
実施の形態2では、指示対象決定部33における制御対象装置の特定方法の別の形態について説明する。以下では、実施の形態2にかかる制御対象装置の特定方法を実行する空間認識システムを空間認識システム2と称す。なお、実施の形態2にかかる空間認識システム2の構成は、実施の形態1にかかる空間認識システム1とは指示対象決定部33における処理に違いがあるのみであるため、ブロック図の説明は省略する。そこで、実施の形態2にかかる空間認識システム2が特に有効な指示対象装置41〜43の位置関係を説明する図を図7に示す。なお、図7は、実施の形態2にかかる空間認識システム2において利用する座標系を説明する図である。
Embodiment 2
In the second embodiment, another form of the method for specifying the control target device in the instruction target determination unit 33 will be described. Hereinafter, the space recognition system that executes the method for specifying the control target device according to the second embodiment is referred to as a space recognition system 2. The configuration of the space recognition system 2 according to the second embodiment is different from the space recognition system 1 according to the first embodiment only in the processing in the instruction target determining unit 33, and thus the description of the block diagram is omitted. To do. FIG. 7 is a diagram for explaining the positional relationship between the instruction target devices 41 to 43 in which the space recognition system 2 according to the second embodiment is particularly effective. FIG. 7 is a diagram for explaining a coordinate system used in the space recognition system 2 according to the second embodiment.

図7に示すように、実施の形態2にかかる空間認識システム2においても、利用する座標系は、実施の形態1にかかる空間認識システム1と同じである。一方、実施の形態2にかかる空間認識システム2では、指示対象装置41と指示対象装置42がなぞり軌跡を延長した半直線Ls上に共に存在する。実施の形態1にかかる空間認識システム1では、指示対象装置41〜43から半直線Lsに伸びる垂線の距離L41〜L43の大きさに基づき制御対象装置を特定しているため、このような状況では制御対象装置を特定できない。   As shown in FIG. 7, also in the space recognition system 2 according to the second embodiment, the coordinate system to be used is the same as that of the space recognition system 1 according to the first embodiment. On the other hand, in the space recognition system 2 according to the second exemplary embodiment, the instruction target device 41 and the instruction target device 42 are both present on the half line Ls obtained by extending the tracing locus. In the space recognition system 1 according to the first exemplary embodiment, the control target device is specified based on the distances L41 to L43 of the perpendicular extending from the indication target device 41 to 43 to the half line Ls. The control target device cannot be specified.

実施の形態2にかかる空間認識システム2では、図7に示すような状況においても制御対象装置を特定するための方法を提供する。そこで、図8に、実施の形態2にかかる空間認識システムにおいて認識する座標の関係を説明する図を示す。図8に示すように、実施の形態2にかかる空間認識システム2においても、標準座標系Σstandard、デバイス座標系Σdevice、入力座標系Σinputは、実施の形態1にかかる空間認識システム1と同じように認識される。   The space recognition system 2 according to the second embodiment provides a method for specifying a control target device even in a situation as shown in FIG. FIG. 8 is a diagram for explaining the relationship of coordinates recognized in the space recognition system according to the second embodiment. As shown in FIG. 8, also in the space recognition system 2 according to the second embodiment, the standard coordinate system Σstandard, the device coordinate system Σdevice, and the input coordinate system Σinput are the same as the space recognition system 1 according to the first embodiment. Be recognized.

一方、実施の形態2にかかる空間認識システム2では、指示対象装置41、42の座標については、指示対象装置41、42の位置を示す座標に対して、8つの頂点から構成される立方体形状のバウンディングボックスが設定される。図8に示す例では、指示対象装置41に対して、頂点Pt11〜Pt18を有するバウンディングボックスが設定され、指示対象装置42に対して、頂点Pt21〜Pt28を有するバウンディングボックスが設定される。そして、実施の形態2にかかる空間認識システム2では、半直線Lsとバウンディングボックスの面との交点が算出される。図8に示す例では、指示対象装置41のバウンディングボックスと半直線との交点として交点Pn11、Pn12が算出され、指示対象装置42のバウンディングボックスと半直線との交点としてPn21、Pn22が算出される。実施の形態2にかかる空間認識システム2では、上記交点のうちなぞり軌跡の始点Ps1に最も近い交点を有するバウンディングボックスに対応する指示対象装置41を制御対象装置として特定する。   On the other hand, in the space recognition system 2 according to the second exemplary embodiment, the coordinates of the instruction target devices 41 and 42 have a cubic shape composed of eight vertices with respect to the coordinates indicating the positions of the instruction target devices 41 and 42. A bounding box is set. In the example illustrated in FIG. 8, a bounding box having vertices Pt11 to Pt18 is set for the instruction target device 41, and a bounding box having vertices Pt21 to Pt28 is set for the instruction target device 42. Then, in the space recognition system 2 according to the second exemplary embodiment, the intersection point of the half line Ls and the bounding box surface is calculated. In the example shown in FIG. 8, intersections Pn11 and Pn12 are calculated as intersections of the bounding box and half line of the instruction target device 41, and Pn21 and Pn22 are calculated as intersections of the bounding box of the instruction target device 42 and the half line. . In the space recognition system 2 according to the second exemplary embodiment, the indication target device 41 corresponding to the bounding box having the intersection closest to the start point Ps1 of the tracing locus among the intersections is specified as the control target device.

続いて、実施の形態2にかかる空間認識システム2の動作について更に詳細に説明する。実施の形態2にかかる空間認識システム2においても、指示デバイス10の動作は、実施の形態1にかかる空間認識システム1と同じであるため、ここでは指示デバイス10の動作の説明は省略する。一方、実施の形態2にかかる空間認識システム2では、指示対象決定部33の動作が実施の形態1にかかる空間認識システム1とは異なるため、以下では、指示対象決定部33の動作について詳細に説明する。   Subsequently, the operation of the space recognition system 2 according to the second exemplary embodiment will be described in more detail. Also in the space recognition system 2 according to the second embodiment, the operation of the pointing device 10 is the same as that of the space recognition system 1 according to the first embodiment, and thus the description of the operation of the pointing device 10 is omitted here. On the other hand, in the space recognition system 2 according to the second embodiment, the operation of the instruction target determining unit 33 is different from that of the space recognition system 1 according to the first embodiment. explain.

図9に、実施の形態2にかかる対象特定装置30の動作を示すフローチャートを示す。図9に示すように、実施の形態2にかかる対象特定装置30は、動作が開始されてから、なぞり軌跡を標準座標系Σstandardで表されるなぞり軌跡情報に変換されるまでの処理(ステップS21〜S27の処理)は実施の形態1にかかる対象特定装置30と同じである。一方、実施の形態2にかかる対象特定装置30では、指示方向ベクトル算出後(ステップS27)の後にステップS28に代えてステップS30、S31を実行する。   FIG. 9 is a flowchart showing the operation of the target identification device 30 according to the second exemplary embodiment. As illustrated in FIG. 9, the target identification device 30 according to the second exemplary embodiment performs processing from when the operation is started until the tracing locus is converted into tracing locus information represented by the standard coordinate system Σstandard (step S21). -S27) is the same as that of the target specifying device 30 according to the first embodiment. On the other hand, in the target identification device 30 according to the second embodiment, after the instruction direction vector is calculated (step S27), steps S30 and S31 are executed instead of step S28.

ステップS30では、指示対象決定部33が位置データベースを参照して半直線上に位置する指示対象装置のバウンディングボックスを算出する。その後、指示対象決定部33は、バウンディングボックス面と半直線Lsとの交点を算出し、なぞり軌跡から最も近い位置の交点を有するバウンディングボックスに対応する指示対象装置を制御対象装置として特定し、制御対象装置に指示対象デバイスとの通信を開始させる(ステップS31)。   In step S30, the instruction target determining unit 33 refers to the position database to calculate the bounding box of the instruction target device located on the half line. After that, the instruction target determining unit 33 calculates the intersection of the bounding box surface and the half line Ls, specifies the instruction target device corresponding to the bounding box having the intersection at the closest position from the tracing locus as the control target device, and performs control. The target device starts communication with the instruction target device (step S31).

上記説明より、実施の形態2にかかる空間認識システム2では、半直線と指示対象装置4との間の距離だけでは制御対象装置を特定できない場合であっても、指示対象装置に対応して算出されるバンディングボックスと半直線との交点の位置に基づき制御対象装置を特定することができる。   From the above description, in the space recognition system 2 according to the second exemplary embodiment, even when the control target device cannot be specified only by the distance between the half line and the target device 4, the calculation is performed corresponding to the target device. The device to be controlled can be specified based on the position of the intersection between the banding box and the half line.

なお、上記説明では、バウンディングボックスと半直線線との交点となぞり軌跡の始点Ps1との距離が最も近いものを制御対象装置として特定した。しかし、この特定方法は特定方法の一形態であり、なぞり軌跡の終点Ps2とバウンディングボックスと半直線線との交点に基づき制御対象装置を特定しても良い。また、なぞり軌跡の始点Ps1からの距離が最も遠くなるバウンディングボックスと半直線線との交点に基づき制御対象装置を特定しても良い。また、バウンディングボックスを算出するか否かは、指示対象装置の位置座標が必ずしも半直線Ls上になくても良く、半直線Lsとの距離が所定の範囲内となる指示対象装置が複数となった時点で、バウンディングボックスを作成するとしても良い。   In the above description, the device having the shortest distance from the intersection point of the bounding box and the half line and the start point Ps1 of the tracing locus is specified as the control target device. However, this specifying method is one form of the specifying method, and the control target device may be specified based on the intersection of the tracing locus end point Ps2, the bounding box, and the half line. Further, the device to be controlled may be specified based on the intersection of the bounding box and the half straight line that are the farthest from the starting point Ps1 of the tracing locus. Whether or not the bounding box is calculated does not necessarily include the position coordinates of the instruction target device on the half line Ls, and there are a plurality of instruction target devices whose distance from the half line Ls is within a predetermined range. At this point, a bounding box may be created.

実施の形態3
実施の形態3では、なぞり軌跡情報の生成方法の別の形態について説明する。以下では、実施の形態3にかかるなぞり軌跡情報の生成方法を実行する空間認識システムを空間認識システム3と称す。なお、実施の形態3にかかる空間認識システム3の構成は、実施の形態1にかかる空間認識システム3とは指示方向計測部11及び位置センサ制御部16における処理に違いがあるのみであるため、ブロック図の説明は省略する。そこで、実施の形態3にかかる空間認識システムにおいて認識する座標の関係を説明する図を図10に示す。
Embodiment 3
In the third embodiment, another embodiment of the method for generating the trace trajectory information will be described. Hereinafter, the space recognition system that executes the method for generating trace trajectory information according to the third embodiment is referred to as a space recognition system 3. The configuration of the space recognition system 3 according to the third embodiment is different from the space recognition system 3 according to the first embodiment only in the processing in the pointing direction measurement unit 11 and the position sensor control unit 16. Description of the block diagram is omitted. FIG. 10 is a diagram for explaining the relationship of coordinates recognized in the space recognition system according to the third embodiment.

図10に示すように、実施の形態3にかかる空間認識システム3では、指示デバイス10の実空間中での位置変位に基づきなぞり軌跡情報を生成する。そのため、実施の形態3にかかる空間認識システム3では、入力座標系Σinputは、デバイス座標系Σdeviceと同じになる。つまり、実施の形態3では、利用される座標系は、基準座標系Σstandardとデバイス座標系Σdeviceとなる。なお、実施の形態3では、位置センサ制御部16が出力するなぞり軌跡情報に、指示デバイス10の位置変化前後のレシーバ部14及び15の位置情報も含まれる。また、実施の形態3では、なぞり軌跡情報をレシーバ部13の位置変化に基づき生成するものとするが、レシーバ部14、又は、レシーバ部15の位置変化をなぞり軌跡情報とすることもできる。   As shown in FIG. 10, in the space recognition system 3 according to the third exemplary embodiment, tracing trajectory information is generated based on the positional displacement of the pointing device 10 in the real space. Therefore, in the space recognition system 3 according to the third exemplary embodiment, the input coordinate system Σinput is the same as the device coordinate system Σdevice. That is, in the third embodiment, the coordinate system used is the reference coordinate system Σstandard and the device coordinate system Σdevice. In the third embodiment, the trace information output by the position sensor control unit 16 includes the position information of the receiver units 14 and 15 before and after the position change of the pointing device 10. In the third embodiment, the trace trajectory information is generated based on the position change of the receiver unit 13, but the position change of the receiver unit 14 or the receiver unit 15 can also be used as the trace trajectory information.

続いて、実施の形態3にかかる空間認識システム3の動作について説明する。実施の形態3では、なぞり軌跡情報の生成に指示方向計測部11を用いずに位置センサ制御部16を用いる。そこで、まず、実施の形態3にかかる指示デバイスにおけるなぞり軌跡情報の生成処理を示すフローチャートを図11に示す。   Next, the operation of the space recognition system 3 according to the third exemplary embodiment will be described. In the third embodiment, the position sensor control unit 16 is used instead of the pointing direction measurement unit 11 for generating the trace trajectory information. First, FIG. 11 is a flowchart showing the trace locus information generation process in the pointing device according to the third embodiment.

図11に示すように、実施の形態3では、指示デバイス10が動作を開始すると、指示デバイス10は、位置センサ制御部16において、予め設定された指示判断時間Tj中の指示デバイス10の位置変化量が判断閾値以上となったか否かを監視する(ステップS41)。そして、指示判断時間Tj中の指示デバイス10の位置変化量が判断閾値以上となったことに応じて(ステップS41のYESの枝)、指示デバイス10の位置センサ制御部16は、レシーバ部13の位置変化情報からなぞり軌跡情報を生成する(ステップS42)。続いて、位置センサ制御部16は、生成したなぞり軌跡情報を指示対象決定部33に送信する(ステップS43)。   As shown in FIG. 11, in the third embodiment, when the pointing device 10 starts operating, the pointing device 10 changes the position of the pointing device 10 during the preset instruction determination time Tj in the position sensor control unit 16. It is monitored whether or not the amount is equal to or greater than the determination threshold (step S41). Then, in response to the position change amount of the instruction device 10 during the instruction determination time Tj becoming equal to or greater than the determination threshold (YES in step S41), the position sensor control unit 16 of the instruction device 10 Trace trajectory information is generated from the position change information (step S42). Subsequently, the position sensor control unit 16 transmits the generated tracing locus information to the instruction target determining unit 33 (step S43).

続いて、実施の形態3にかかる空間認識システム3の対象特定装置30の動作について説明する。そこで、図12に実施の形態3にかかる対象特定装置の動作を示すフローチャートを示す。実施の形態3にかかる対象特定装置30においても、なぞり軌跡情報の入力があるまでの処理(ステップS21〜S23)の処理は実施の形態1にかかる対象特定装置30と同じである。   Subsequently, an operation of the target identification device 30 of the space recognition system 3 according to the third exemplary embodiment will be described. FIG. 12 is a flowchart showing the operation of the target specifying device according to the third embodiment. Also in the target specifying device 30 according to the third embodiment, the processing (steps S21 to S23) until the tracing locus information is input is the same as that of the target specifying device 30 according to the first embodiment.

一方、実施の形態3にかかる対象特定装置30では、なぞり軌跡情報の入力が合った場合に、ステップS51、52の処理を行う。ステップS51では、対象特定装置30の指示対象決定部33が、なぞり軌跡情報から指示方向ベクトルを算出し、指示方向ベクトルの方向になぞり軌跡の始点から延びる半直線を算出する。次いで、指示対象決定部33は、半直線との距離が最も近い指示対象装置を制御対象装置として特定し、特定した制御対象装置に指示対象デバイスとの通信を開始させる(ステップS52)。   On the other hand, in the target identifying device 30 according to the third embodiment, when the trace locus information is input, the processes of steps S51 and S52 are performed. In step S51, the instruction target determining unit 33 of the target identifying device 30 calculates an instruction direction vector from the trace locus information, and calculates a half line extending from the start point of the trace locus in the direction of the instruction direction vector. Next, the instruction target determining unit 33 specifies the instruction target device having the shortest distance from the half line as the control target device, and causes the specified control target device to start communication with the instruction target device (step S52).

上記説明より、実施の形態3にかかる空間認識システム3は、指示デバイス10の位置変化からなぞり軌跡情報を生成するため、指示対象決定部33が行う座標変換の処理を行うことなく指示方向ベクトルを算出することができる。つまり、実施の形態3にかかる空間認識システム3は、実施の形態1よりも少ない処理で制御対象装置を特定することができる。   From the above description, the space recognition system 3 according to the third embodiment generates the trace trajectory information from the position change of the pointing device 10, so Can be calculated. That is, the space recognition system 3 according to the third exemplary embodiment can specify the control target device with fewer processes than the first exemplary embodiment.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、実施の形態3にかかる空間認識システム3の軌跡情報の生成方法と、実施の形態2にかかる空間認識システム2の制御対象装置の特定方法とを組み合わせることができる。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the method for generating trajectory information of the space recognition system 3 according to the third embodiment and the method for specifying the control target device of the space recognition system 2 according to the second embodiment can be combined.

1〜3 空間認識システム
10 指示デバイス
11 指示方向計測部
12 トランスミッタ部
13〜15 レシーバ部
16 位置センサ制御部
17 タッチセンサ
20 三次元位置計測装置
30 対象特定装置
31 位置データベース登録処理部
32 位置データベース
33 指示対象決定部
41〜43 指示対象装置
DESCRIPTION OF SYMBOLS 1-3 Space recognition system 10 Pointing device 11 Pointing direction measurement part 12 Transmitter part 13-15 Receiver part 16 Position sensor control part 17 Touch sensor 20 Three-dimensional position measuring device 30 Object identification apparatus 31 Position database registration process part 32 Position database 33 Instruction target determination unit 41 to 43 Instruction target device

Claims (10)

少なくとも1つの指示対象装置と、
自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、
前記なぞり軌跡情報に基づき前記制御対象装置を特定する対象特定装置と、を有し、
前記対象特定装置は、前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、前記指示方向ベクトルを延長した半直線と前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する空間認識システム。
At least one instruction target device;
Trace path information for instructing a control target device to be controlled among the indication target devices based on at least one of a tracing operation with respect to a touch sensor provided on the own device and a change in position of the own device, An instruction device that outputs device position information indicating a relative position and orientation of a receiving unit and a transmitting unit provided outside; and
A target specifying device that specifies the control target device based on the tracing trajectory information,
The target specifying device converts the trace trajectory coordinate information indicated by at least one of the trace trajectory information and the device position information into coordinate information of a reference coordinate system based on the position of the transmission unit, and converts an indication direction vector. A space recognition system that identifies the control target device based on a distance between a half line calculated and extended from the pointing direction vector and a position coordinate of the pointing target device defined on the reference coordinate system.
前記対象特定装置は、
前記タッチセンサ上の位置を示す入力座標系の座標情報を含む前記なぞり軌跡情報を、前記指示デバイス上の位置を示すデバイス座標系の座標情報に変換して第1の位置変化情報を生成し、
前記第1の位置変化情報を、前記基準座標系の座標情報に変換して第2の位置変化情報を生成し、
前記第2の位置変化情報に含まれる前記なぞり軌跡情報に基づき前記指示方向ベクトルを算出する請求項1に記載の空間認識システム。
The target specifying device is:
Converting the trace trajectory information including the coordinate information of the input coordinate system indicating the position on the touch sensor into the coordinate information of the device coordinate system indicating the position on the pointing device to generate first position change information;
Converting the first position change information into coordinate information of the reference coordinate system to generate second position change information;
The space recognition system according to claim 1, wherein the pointing direction vector is calculated based on the tracing trajectory information included in the second position change information.
前記対象特定装置は、前記半直線と前記指示対象装置との距離を算出し、前記距離が最も小さい前記指示対象装置を前記制御対象装置として特定する請求項1又は2に記載の空間認識システム。   The space recognition system according to claim 1, wherein the target specifying device calculates a distance between the half line and the pointing target device, and specifies the pointing target device having the smallest distance as the control target device. 前記対象特定装置は、前記半直線上に複数の前記指示対象装置がある場合、前記半直線上に位置する指示対象装置毎にバウンディングボックスを定義し、前記バウンディングボックスの面と前記半直線との交点に算出される複数の交点座標のうち最も前記なぞり軌跡情報の始点に近い交点座標に対応する前記指示対象装置を前記制御対象装置として特定する請求項1乃至3のいずれか1項に記載の空間認識システム。   When there are a plurality of the instruction target devices on the half line, the target specifying device defines a bounding box for each of the target target devices located on the half line, and the surface of the bounding box and the half line The said instruction | indication object apparatus corresponding to the intersection coordinate nearest to the start point of the said trace locus | trajectory information among the several intersection coordinates calculated to an intersection is specified as any one of Claims 1 thru | or 3. Spatial recognition system. 前記指示デバイスは、所定の時間内における自デバイスの位置変化が所定距離以上となった場合に自デバイスの位置変化情報を前記なぞり軌跡情報として出力し、
前記対象特定装置は、前記なぞり軌跡情報から前記指示方向ベクトルを算出する請求項1に記載の空間認識システム。
The pointing device outputs position change information of the own device as the trace trajectory information when the position change of the own device within a predetermined time becomes a predetermined distance or more,
The space recognition system according to claim 1, wherein the target specifying device calculates the pointing direction vector from the tracing locus information.
前記受信部は、
第1の受信部と、
前記第1の受信部を交点として直交する直線上に配置される第2の受信部及び第3の受信部と、
前記第1の受信部から前記第3の受信部と前記送信部との相対的位置関係を示す相対位置情報を前記デバイス位置情報として出力する位置センサ制御部と、
を更に有する請求項1乃至4のいずれか1項に記載の空間認識システム。
The receiver is
A first receiver;
A second receiving unit and a third receiving unit arranged on a straight line orthogonal to the first receiving unit as an intersection;
A position sensor control unit that outputs relative position information indicating a relative positional relationship between the third receiving unit and the transmitting unit from the first receiving unit as the device position information;
The space recognition system according to any one of claims 1 to 4, further comprising:
前記対象特定装置は、前記送信部の位置を認識する空間の基準位置として前記指示方向ベクトルを算出する請求項1乃至6のいずれか1項に記載の空間認識システム。   The space recognition system according to claim 1, wherein the target specifying device calculates the pointing direction vector as a reference position of a space for recognizing the position of the transmission unit. 前記送信部は、前記対象特定装置内に設けられる請求項7に記載の空間認識システム。   The space recognition system according to claim 7, wherein the transmission unit is provided in the target identification device. 前記送信部及び前記受信部は、磁気式センサであって、
前記送信部は基準となる磁気を出力し、
前記受信部は前記磁気の変化に応じて前記受信部との相対位置を示す相対位置情報を周力する請求項1乃至8のいずれか1項に記載の空間認識システム。
The transmitter and the receiver are magnetic sensors,
The transmitter outputs a reference magnetism,
9. The space recognition system according to claim 1, wherein the receiving unit applies relative position information indicating a relative position with respect to the receiving unit according to a change in the magnetism.
少なくとも1つの指示対象装置と、
自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、
前記なぞり軌跡情報及び前記デバイス位置情報に基づき前記制御対象装置を特定する対象特定装置と、を有する空間認識システムにおける空間認識方法であって、
前記対象特定装置が、
前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、
前記指示方向ベクトルを延長した半直線を算出し、
前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する空間認識方法。
At least one instruction target device;
Trace path information for instructing a control target device to be controlled among the indication target devices based on at least one of a tracing operation with respect to a touch sensor provided on the own device and a change in position of the own device, An instruction device that outputs device position information indicating a relative position and orientation of a receiving unit and a transmitting unit provided outside; and
A space recognition method in a space recognition system comprising: a target specifying device that specifies the control target device based on the tracing locus information and the device position information,
The target identification device is
Converting the trace locus coordinate information indicated by at least one of the trace locus information and the device position information into coordinate information of a reference coordinate system based on the position of the transmission unit to calculate an instruction direction vector;
Calculate a half line extending the indicated direction vector,
A space recognition method for identifying the control target device based on a distance from a position coordinate of the indication target device defined on the reference coordinate system.
JP2014036376A 2014-02-27 2014-02-27 Spatial recognition system and spatial recognition method Expired - Fee Related JP6261038B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014036376A JP6261038B2 (en) 2014-02-27 2014-02-27 Spatial recognition system and spatial recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014036376A JP6261038B2 (en) 2014-02-27 2014-02-27 Spatial recognition system and spatial recognition method

Publications (2)

Publication Number Publication Date
JP2015162047A JP2015162047A (en) 2015-09-07
JP6261038B2 true JP6261038B2 (en) 2018-01-17

Family

ID=54185107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014036376A Expired - Fee Related JP6261038B2 (en) 2014-02-27 2014-02-27 Spatial recognition system and spatial recognition method

Country Status (1)

Country Link
JP (1) JP6261038B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4778934B2 (en) * 2007-06-05 2011-09-21 日本電信電話株式会社 Device control method, device control system, computer program, and recording medium
JP5441619B2 (en) * 2009-10-30 2014-03-12 ソニーモバイルコミュニケーションズ, エービー Short-range wireless communication device, short-range wireless communication system, short-range wireless communication device control method, short-range wireless communication device control program, and mobile phone terminal
JP5488011B2 (en) * 2010-02-04 2014-05-14 ソニー株式会社 COMMUNICATION CONTROL DEVICE, COMMUNICATION CONTROL METHOD, AND PROGRAM
JP5696489B2 (en) * 2011-01-19 2015-04-08 セイコーエプソン株式会社 Server apparatus, printing system, and printing method
JP5255674B2 (en) * 2011-06-14 2013-08-07 シャープ株式会社 Data transmission operation device and data transmission control method

Also Published As

Publication number Publication date
JP2015162047A (en) 2015-09-07

Similar Documents

Publication Publication Date Title
US9524021B2 (en) Imaging surround system for touch-free display control
US10430655B2 (en) Augmented reality information processing system and augmented reality display control method with space information conversion and display control features
US9355451B2 (en) Information processing device, information processing method, and program for recognizing attitude of a plane
US10319110B2 (en) Display control method and system
US9665982B2 (en) Information processing apparatus, information processing method, and recording medium
JP6421670B2 (en) Display control method, display control program, and information processing apparatus
JP6424601B2 (en) Display control method, information processing program, and information processing apparatus
US20150026646A1 (en) User interface apparatus based on hand gesture and method providing the same
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
JP6618681B2 (en) Information processing apparatus, control method and program therefor, and information processing system
JP6230113B2 (en) Video instruction synchronization method, system, terminal, and program for synchronously superimposing instruction images on captured moving images
KR102583682B1 (en) Electronic device and method for dispalying sharing information based on augmented reality
JP2011141828A (en) Information processing apparatus, information processing system, and information processing method
JP6217437B2 (en) Terminal apparatus, information processing apparatus, display control method, and display control program
JP2021520540A (en) Camera positioning methods and devices, terminals and computer programs
WO2015093130A1 (en) Information processing device, information processing method, and program
JP2015125641A (en) Information processing device, control method therefor, and program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP6543924B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP6380647B2 (en) Information providing method, information providing program, information providing apparatus, information processing apparatus, and information providing system
KR20110087407A (en) Camera simulation system and localization sensing method using the same
JP6261038B2 (en) Spatial recognition system and spatial recognition method
JP6146869B2 (en) Video instruction display method, system, terminal, and program for superimposing instruction image on photographing moving image synchronously
CN111565898A (en) Operation guidance system
US20130155211A1 (en) Interactive system and interactive device thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171207

R150 Certificate of patent or registration of utility model

Ref document number: 6261038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees