JP6261038B2 - Spatial recognition system and spatial recognition method - Google Patents
Spatial recognition system and spatial recognition method Download PDFInfo
- Publication number
- JP6261038B2 JP6261038B2 JP2014036376A JP2014036376A JP6261038B2 JP 6261038 B2 JP6261038 B2 JP 6261038B2 JP 2014036376 A JP2014036376 A JP 2014036376A JP 2014036376 A JP2014036376 A JP 2014036376A JP 6261038 B2 JP6261038 B2 JP 6261038B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- instruction
- recognition system
- space recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は空間認識システム及び空間認識方法に関し、特に空間内に設定した基準位置との相対的な位置により自デバイスの位置を特定する空間認識システム及びその空間認識方法に関する。 The present invention relates to a space recognition system and a space recognition method, and more particularly, to a space recognition system and a space recognition method for identifying the position of a device by using a relative position to a reference position set in the space.
近年、タブレットデバイス、スマートフォン等の携帯端末の利用が拡大している。そして、このような携帯端末の利用形態の一形態として、携帯端末から同じ空間内のテレビ、オーディオ機器等の他のデバイスを操作することが考えられている。このような利用形態では、いずれの機器に対して指示を行っているかを互いのデバイス間で認識する必要があるため、デバイス同士の位置関係を特定する必要がある。そこで、ユーザーの動きを仮想空間での位置に反映させる方法が特許文献1〜4に開示されている。
In recent years, the use of portable terminals such as tablet devices and smartphones has been expanding. And as one form of usage of such a portable terminal, it is considered to operate other devices such as a television and an audio device in the same space from the portable terminal. In such a usage mode, since it is necessary to recognize which device is instructing between the devices, it is necessary to specify the positional relationship between the devices. In view of this,
特許文献1では、三次元立体画像を表示する装置において、撮影部等を用いて取得した利用者の視点情報を利用して、より精度の高い三次元立体画像を表示する技術が開示されている。特許文献2では、三次元仮想空間において、仮想空間上の物体及びユーザーの相対的位置を操作する操作方法が開示されている。特許文献3では、ペンマウスの移動量により決定される実空間での位置に基づきヘッドマウントディスプレイ上での座標を決定する技術が開示されている。特許文献4では、加速度センサ及びジャイロセンサにより検出した操作デバイスの移動方向により空間画像内のカーソルを操作する技術が開示されている。
しかしながら、特許文献1〜4に記載の技術では、実空間上に存在するデバイスの位置関係が特定できないため、利用者が操作する携帯端末により特定の装置を指示対象とすることができない問題がある。携帯端末から操作対象の装置を特定するためには、デバイス間の相対位置を特定する必要があるためである。そこで、特許文献5〜7に実空間内における物体の認識、或いは、指示方向の認識に関する技術が開示されている。
However, the technologies described in
特許文献5には、入力画像から背景差分法で入力画像中に含まれる図形を抽出する背景差分処理部と、背景差分処理部が抽出した図形の画像データを二値化する二値化部と、二値化部が二値化した図形の画像データから輪郭データを抽出する輪郭抽出部と、輪郭抽出部が抽出した輪郭データの重心位置を算出する重心算出部と、重心算出部が算出した重心位置から輪郭抽出部が抽出した輪郭データの最外周部までの距離を所定の角度毎に算出して、輪郭データを極座標表現に変換して極座標値を生成する極座標値生成部と、識別対象となる図形の輪郭データの極座標値を記憶する極座標値記憶部と、を備え、極座標値記憶部に記憶されている極座標値と、極座標値生成部が生成した極座標表現値とを所定の角度ずつずらしながら比較し、入力画像中に含まれる図形の識別を行う物体識別装置が開示されている。 Patent Document 5 discloses a background difference processing unit that extracts a graphic included in an input image from the input image by a background difference method, and a binarization unit that binarizes image data of the graphic extracted by the background difference processing unit. The contour extraction unit that extracts the contour data from the image data of the figure binarized by the binarization unit, the centroid calculation unit that calculates the centroid position of the contour data extracted by the contour extraction unit, and the centroid calculation unit A polar coordinate value generating unit that calculates a distance from the center of gravity position to the outermost peripheral part of the contour data extracted by the contour extracting unit for each predetermined angle, converts the contour data into a polar coordinate expression, and generates a polar coordinate value; and an identification target A polar coordinate value storage unit that stores polar coordinate values of the contour data of the figure to be, the polar coordinate value stored in the polar coordinate value storage unit and the polar coordinate expression value generated by the polar coordinate value generation unit by a predetermined angle Compare and input while shifting Object identification apparatus is disclosed for performing identification of a figure included in the image.
特許文献6に開示されている技術では、2つのビデオカメラにより互いに異なる複数の方向から利用者を撮像し、制御部により、撮像画像に基づいて、利用者が特定の位置又は方向を指し示す動作を行っている際の指示位置又は指示方向の変化に応じて位置が変化する特徴点の三次元座標を認識し、この三次元座標に基づいて、利用者による指示位置又は指示方向を判断する。また、特許文献6の制御部は、特徴点の三次元座標のうち大画面ディスプレイと平行な二次元平面における二次元座標に基づいて、特徴点が停止状態か否かを判定する。そして、二次元平面における移動量が所定閾値以下の場合には停止状態であると判定してクリックモードへ切り替え、停止状態でない場合にはポインティングモードへ切り替える。 In the technique disclosed in Patent Document 6, a user is imaged from a plurality of different directions by two video cameras, and the control unit performs an operation in which the user points to a specific position or direction based on the captured image. The three-dimensional coordinates of the feature point whose position changes in accordance with the change of the designated position or the designated direction during the recognition are recognized, and the designated position or designated direction by the user is determined based on the three-dimensional coordinates. Moreover, the control part of patent document 6 determines whether a feature point is a stop state based on the two-dimensional coordinate in a two-dimensional plane parallel to a large screen display among the three-dimensional coordinates of a feature point. When the movement amount on the two-dimensional plane is equal to or smaller than the predetermined threshold value, it is determined that the camera is in the stopped state, and the mode is switched to the click mode.
特許文献7では、物体認識装置に関する技術が開示されている。この物体認識装置は、2点の座標から幾何的に一意に決定される座標集合上の画像のパターン分布を獲得し、それを距離について正規化した明度分布ベクトルを獲得する明度分布ベクトル獲得部と、予め認識対象の画像に対して明度分布ベクトル獲得部を適用して得られた複数の明度分布ベクトルから照合情報を作成する照合情報作成部と、入力した画像から明度分布ベクトル及び照合情報を用いて明度分布ベクトルの照合を行って対象物を認識する認識部を備える。 Patent Document 7 discloses a technique related to an object recognition device. This object recognition device acquires a pattern distribution of an image on a coordinate set that is geometrically uniquely determined from coordinates of two points, and acquires a brightness distribution vector obtained by normalizing the pattern distribution with respect to a distance; A collation information creation unit that creates collation information from a plurality of lightness distribution vectors obtained by applying a lightness distribution vector acquisition unit to an image to be recognized in advance, and a lightness distribution vector and collation information from the input image And a recognition unit for recognizing the object by collating the brightness distribution vector.
しかしながら、特許文献5〜7に記載の技術では、物体の認識、或いは、物体の動きの認識に画像処理を行わなければならない。このような処理では、認識する対象を画像として取り込まなければならず、外部に状況が漏れることを防ぐ必要がある、オフィス、私的空間等の空間内の状況を秘匿したい場合での利用が難しい問題がある。 However, in the techniques described in Patent Documents 5 to 7, image processing must be performed for object recognition or object motion recognition. In such a process, the object to be recognized must be captured as an image, and it is necessary to prevent the situation from leaking to the outside. This is difficult to use when you want to keep the situation in a space such as an office or private space secret. There's a problem.
本発明にかかる空間認識システムの一態様は、少なくとも1つの指示対象装置と、自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、前記なぞり軌跡情報に基づき前記制御対象装置を特定する対象特定装置と、を有し、前記対象特定装置は、前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、前記指示方向ベクトルを延長した半直線と前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する。 One aspect of the space recognition system according to the present invention is based on at least one indication target device and at least one of a tracing operation with respect to a touch sensor provided on the own device and a change in position of the own device. An instruction device that outputs trace trajectory information for instructing a control target device to be controlled, and device position information indicating a relative position and orientation between a built-in reception unit and an external transmission unit; A target specifying device that specifies the device to be controlled based on the trace trajectory information, and the target specifying device uses the trace trajectory coordinate information indicated by at least one of the trace trajectory information and the device position information. An indication direction vector is calculated by converting into coordinate information of a reference coordinate system based on the position of the transmission unit, and the indication direction vector is extended. Identifying the control target apparatus based on the distance between the position coordinates of the defined the instruction target device on the half line and the reference coordinate system.
本発明にかかる空間認識方法の一態様は、少なくとも1つの指示対象装置と、自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、前記なぞり軌跡情報及び前記デバイス位置情報に基づき前記制御対象装置を特定する対象特定装置と、を有する空間認識システムにおける空間認識方法であって、前記対象特定装置が、前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、前記指示方向ベクトルを延長した半直線を算出し、前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する。 One aspect of the space recognition method according to the present invention is based on at least one instruction target apparatus and at least one of a tracing operation with respect to a touch sensor provided on the own device and a position change of the own device. An instruction device that outputs trace trajectory information for instructing a control target device to be controlled, and device position information indicating a relative position and orientation between a built-in reception unit and an external transmission unit; A target identification device that identifies the control target device based on the trace trajectory information and the device position information, wherein the target identification device includes the trace trajectory information and the device. The trace locus coordinate information indicated by at least one of the position information and the position of the reference coordinate system with respect to the position of the transmission unit. The control target device is converted into information to calculate a pointing direction vector, calculates a half line obtained by extending the pointing direction vector, and based on a distance from a position coordinate of the pointing target device defined on the reference coordinate system Is identified.
本発明にかかる空間認識システム及びその空間認識方法によれば、空間内で秘匿したい情報を秘匿しながら、指示デバイスと指示対象装置との相対的な位置関係及び指示方向を認識することができる。 According to the space recognition system and the space recognition method according to the present invention, it is possible to recognize the relative positional relationship and the pointing direction between the pointing device and the pointing target device while concealing information to be concealed in the space.
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。まず、図1に実施の形態1にかかる空間認識システム1のブロック図を示す。図1に示すように、実施の形態1にかかる空間認識システム1は、指示デバイス10、対象特定装置30、指示対象装置41〜43を有する。また、空間認識システム1では、指示デバイス10の空間内での位置及び方向を認識するために、三次元位置計測装置20を用いる。また、実施の形態1にかかる空間認識システム1では、指示デバイス10、対象特定装置30、指示対象装置41〜43は、例えば、無線通信により互いに通信可能な状態となっているものとする。つまり、空間認識システム1では、デバイス間の各種情報を無線信号により送受信する。
Embodiments of the present invention will be described below with reference to the drawings. First, FIG. 1 shows a block diagram of a
指示デバイス10は、デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき指示対象装置41〜43のうち制御対象となる制御対象装置を指示するなぞり軌跡情報を出力する。また、指示デバイス10は、内蔵された受信部(例えば、レシーバ部13〜15)と外部に設けられる送信部(例えば、トランスミッタ部12)との相対的な位置及び向きを示すデバイス位置情報を出力する。
The
より具体的には、指示デバイス10は、指示方向計測部11、レシーバ部13〜15、位置センサ制御部16を有する。指示方向計測部11は、指示デバイス10に設けられるタッチセンサ(不図示)に対して利用者が行うなぞり動作により得られる軌跡情報をなそり軌跡情報として出力する。
More specifically, the
レシーバ部13〜15、位置センサ制御部16は、三次元位置計測装置20の一部にも含まれるものである。三次元位置計測装置20には、トランスミッタ部12、レシーバ部13〜15及び位置センサ制御部16を有する。実施の形態1では、三次元位置計測装置20として、例えば、磁気式センサを用いる。トランスミッタ部12は、磁気を出力する。また、トランスミッタ部12は、認識する空間内の基準位置を示すものであり、実施の形態1にかかる空間認識システム1では、対象特定装置30内に設けられる。レシーバ部13〜15は、トランスミッタ部12が出力した磁気を受け、自身の位置及び傾きの変化に応じて変化する磁気の強さ及び磁界の方向に対応した情報を出力する。以下の説明では、レシーバ部13〜15が出力する情報を相対的位置情報と称す。
The
ここで、レシーバ部13は第1の受信部に相当するものであり、レシーバ部14は第2の受信部に相当するものであり、レシーバ部15は第3の受信部に相当するものである。レシーバ部14及びレシーバ部15は、指示デバイス10内において、レシーバ部13を交点として直交する直線上に配置される。位置センサ制御部16は、レシーバ部13〜15が出力する相対的位置情報をデバイス位置情報として出力する。
Here, the
対象特定装置30は、位置データベース登録処理部31、位置データベース32、指示対象決定部33を有する。位置データベース登録処理部31は、指示対象装置41〜43とトランスミッタ部12との相対的な位置を示す情報を入力するユーザーインタフェースを利用者に提供する。また、位置データベース登録処理部31は、入力された情報をトランスミッタ部12の位置を基準とする基準座標系の位置座表情報に変換して位置データベース32に登録する。なお、指示対象装置41〜43の位置情報の登録方法の一態様は、例えば、指示対象装置41等に指示デバイス10に内蔵されるレシーバ部とは異なる装置登録用レシーバ部を一時的に設置して、装置登録用レシーバ部から得られた位置情報に基づき位置情報を登録するものである。
The
指示対象決定部33は、なぞり軌跡情報及びデバイス位置情報に基づき制御対象装置を特定し、特定した制御対象装置に制御対象であることを通知する。具体的には、指示対象決定部33は、なぞり軌跡情報とデバイス位置情報とにより示されるなぞり軌跡座標情報をトランスミッタ部12の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、指示方向ベクトルを延長した半直線と基準座標系上で定義された指示対象装置の位置座標との距離に基づき制御対象装置を特定する。
The instruction
続いて、実施の形態1にかかる空間認識システム1において利用する座標系について説明する。そこで、図2に実施の形態1にかかる空間認識システム1において利用する座標系を説明する図を示す。なお、図2では、指示デバイス10及び対象特定装置30が共に水平に置かれている状態を示している。
Next, a coordinate system used in the
図2に示すように、実施の形態1にかかる空間認識システム1では、トランスミッタ部12が対象特定装置30内に設けられている。そして、トランスミッタ部12の位置を原点として基準座標系Σstandardが定義される。
As shown in FIG. 2, in the
また、指示デバイス10では、内蔵されるレシーバ部13を原点としてデバイス座標系Σdeviceが定義される。また、デバイス座標系Σdeviceでは、レシーバ部13からレシーバ部14に向かってX座標Xdが定義され、レシーバ部13からレシーバ部15に向かってY座標Ydが定義される。また、デバイス座標系Σdeviceでは、指示デバイス10が水平に置かれている状態で、X−Y座標面と直交する方向にZ座標Zdが定義される。また、指示デバイス10は、表示部と同じ面積でタッチセンサ17が設けられる。そして、タッチセンサ17上でのタッチの位置を示す二次元座標として入力座標系Σinputが定義される。なお、図2では、始点Ps1から終点Ps2にいたる動作としてなぞり動作が行われた状態を示している。
In the
続いて、実施の形態1にかかる空間認識システム1の指示対象決定部33で行われる座標変換方法について説明する。そこで、図3に実施の形態1にかかる空間認識システム1において認識する座標の関係について説明する。図3に示すように、実施の形態1にかかる空間認識システム1では、デバイス座標系Σdeviceと入力座標系Σinputとの相対的な位置差はVdiで定義される。この位置差Vdiは、タッチセンサ17とレシーバ部13との位置関係が指示デバイス10上で決まっているものであるため、変動することはない。そのため、位置差Vdiは、予め位置データベース32に登録されるものとする。指示対象決定部33では、指示方向計測部11から与えられるなぞり軌跡情報に含まれる始点Ps1の座標と終点Ps2の座標とに位置差Vdiを加えることで、入力座標系Σinputの座標をデバイス座標系Σdeviceの座標に変換する。
Next, a coordinate conversion method performed by the instruction
また、実施の形態1にかかる空間認識システム1では、レシーバ部13とトランスミッタ部12との相対的位置差がVsdoとしてレシーバ部13で測定され、レシーバ部14とトランスミッタ部12との相対的位置差がVsdxとしてレシーバ部14で測定され、レシーバ部15とトランスミッタ部12との相対的位置差がVsdyとしてレシーバ部15で測定される。指示対象決定部33では、相対的位置差Vsdo、Vsdx、Vsdyに基づき、デバイス座標系の座標を基準座標系Σstandardに変換する。
In the
実施の形態1にかかる空間認識システム1では、上記のように座標系の間の相対的な位置差に基づき入力されたなぞり軌跡を基準座標系の座標情報に変換する。そして、指示対象決定部33は、基準座標系の座標情報として表現されたなぞり軌跡から指示方向ベクトルを算出し、指示方向ベクトルを延長した半直線Lsを算出する。その後、指示対象決定部33は、位置データベース32に登録された指示対象装置41〜43の座標情報から半直線Lsへの垂線の距離L41〜L43を算出する。そして、指示対象決定部33は、垂線の距離が最も短くなる指示対象装置42を制御対象装置として特定し、指示対象装置42に制御対象装置として指定されたことを指示する。なお、指示対象装置42は、制御対象装置として指定されたことの通知に基づき指示デバイス10との通信を開始する。
In the
続いて、実施の形態1にかかる空間認識システム1の動作について更に詳細に説明する。実施の形態1にかかる空間認識システム1の動作は、指示デバイス10の動作と、対象特定装置30の動作とに分けて考えることができる。そこで、以下では、まず、指示デバイス10の動作について説明し、その後に対象特定装置30の動作について説明する。なお、以下では、特に空間認識システム1における制御対象装置の決定処理について説明するが、説明しない動作として、空間認識システム1では指示デバイス10の指示に基づく制御対象装置の動作及び指示デバイス10単体で行われる動作も行われる。
Subsequently, the operation of the
図4に、実施の形態1にかかる指示デバイス10におけるなぞり軌跡情報の生成処理を示すフローチャートを示す。図4に示すように、指示デバイス10は、動作を開始すると、なぞり指示に入力を待機する(ステップS1)。そして、指示デバイス10のタッチセンサ17に対してなぞり動作が行われたことに対応して(ステップS1のYESの枝)、指示デバイス10は、指示方向計測部11により入力座標系でのなぞり軌跡を計測する(ステップS2)。そして、指示デバイス10の指示方向計測部11は、なぞり軌跡情報を対象特定装置30の指示対象決定部33に送信する(ステップS3)。その後、指示デバイス10は、再度なぞり指示の入力を待機する状態となる。
FIG. 4 is a flowchart showing the generation process of the trace locus information in the
また、図5に、実施の形態1にかかる指示デバイス10におけるデバイス位置情報の生成処理を示すフローチャートを示す。図5に示すように、指示デバイス10は、指示対象決定部33から自デバイスに対するデバイス位置情報の出力要求を待機する(ステップS11)。そして、指示対象決定部33からデバイス位置情報の出力要求があった場合(ステップS11のYESの枝)、指示デバイス10は、位置センサ制御部16によりレシーバ部13〜15から相対的位置情報を取得することで自デバイスの位置情報を計測する(ステップS12)。その後、指示デバイス10は、取得した相対的位置情報をデバイス位置情報として指示対象決定部33に送信する(ステップS13)。
FIG. 5 is a flowchart showing device position information generation processing in the
続いて、図6に、実施の形態1にかかる対象特定装置30の動作を示すフローチャートを示す。図6に示すように、対象特定装置30は、動作を開始すると、まず位置データベース登録処理部31に対する未登録の指示対象装置の登録指示の有無を判断する(ステップS21)。このステップS21で登録指示があると判断された場合(ステップS21のYESの枝)、位置データベース32に基準座標系での指示対象装置の位置を登録する(ステップS22)。一方、ステップS21で登録指示がないと判断された場合(ステップS21のNOの枝)、対象特定装置30では、指示対象決定部33が指示デバイス10からのなぞり軌跡情報の入力を待つ(ステップS23)。対象特定装置30では、指示対象の登録指示がなく、なぞり軌跡情報の入力もない場合、ステップS21とステップS23の処理を繰り返し実行する。
FIG. 6 is a flowchart illustrating the operation of the
そして、ステップS23においてなぞり軌跡情報の入力があると判断された場合(ステップS23のYESの枝)、指示対象決定部33によりステップS24〜S28の動作が行われる。
If it is determined in step S23 that the trace trajectory information is input (YES in step S23), the instruction
ステップS24では、指示対象決定部33が指示デバイス10にデバイス位置情報の出力を要求して、指示デバイス10からデバイス位置情報を取得する。次いで、指示対象決定部33は、取得したなぞり軌跡情報に入力座標系Σinputとデバイス座標系Σdeviceとの位置差Vdiを適用して、入力座標系Σinputのなぞり軌跡情報をデバイス座標系Σdeviceの座標情報に変換して第1の位置変化情報を生成する(ステップS25)。次いで、指示対象決定部33は、第1の位置変化情報として生成されたデバイス座標系の位置変化情報にデバイス位置情報として与えられた位置差Vsdo、Vsdx、Vsdyを適用して、デバイス座標系Σdeviceの位置変化情報を基準座標系Σstandardの座標情報に変換して第2の位置変化情報(例えば、基準座標系Σstandardの位置変化情報)を生成する(ステップS26)。これにより、基準座標系Σstandardのなぞり軌跡情報が生成される。
In step S <b> 24, the instruction
次いで、指示対象決定部33は、基準座標系Σstandardのなぞり軌跡情報から指示方向ベクトルを算出し、指示方向ベクトルの方向になぞり軌跡の始点Ps1から延びる半直線Lsを算出する(ステップS27)。次いで、指示対象決定部33は、半直線Lsとの距離が最も近い指示対象装置を制御対象装置として特定し、制御対象装置の指示対象デバイスとの通信を開始させる(ステップS28)。このステップS28の処理が完了すると、対象特定装置30は、再度ステップS21とステップS23の処理を繰り返す。
Next, the instruction
上記説明より、実施の形態1にかかる空間認識システム1では、指示デバイス10に対して入力されたなぞり軌跡情報を、指示デバイス10とトランスミッタ部12との相対位置を示すデバイス位置情報を用いて、トランスミッタ部12の位置を基準とする基準座標系Σdeviceに変換することで、なぞり軌跡の先にある指示対象装置を特定する。つまり、実施の形態1にかかる空間認識システム1では、指示デバイス10と指示対象装置41等の相対位置を画像処理を用いることなく特定することができる。これにより、実施の形態1にかかる空間認識システム1では、指示デバイス10及び指示対象装置41等が存在する実空間において指示デバイス10と指示対象装置41等の位置情報以外の情報を秘匿しながら、指示デバイス10から指示対象装置41に対する指示を行うことができる。近年、特に個人情報の保護に対する要求が高まっており、画像情報を利用した位置特定方法では、画像中に個人情報が含まれる可能性が高い問題がある。一方、実施の形態1にかかる空間認識システム1では、利用する情報に個人情報が含まれないため、位置情報を取得するために利用する情報から個人情報が漏れることがない。
From the above description, in the
また、画像処理を用いて指示デバイス10と指示対象装置41との相対的位置関係を特定しようとした場合、特徴点抽出、指示方向の追従等の処理に高い演算能力を要する。しかしながら、実施の形態1にかかる空間認識システム1では、画像処理を用いることなく指示デバイス10と指示対象装置41等の相対的な位置関係を特定できるため、対象特定装置30の処理能力を抑制することができる。
In addition, when trying to identify the relative positional relationship between the
また、実施の形態1にかかる空間認識システム1では、制御対象とする指示対象装置に向かってなぞり動作を行うのみであるため、指示デバイス10上に表示される指示対象装置のリスト等から制御対象装置を選択するシステムに比べて制御対象装置の選択にかかる手間及び時間を削減することができる。また、実施の形態1にかかる空間認識システム1では、指示デバイス10を制御対象装置に向けて通信を確立する必要もないため、制御対象装置の選択にかかる手間及び時間を削減することができる。
In addition, since the
実施の形態2
実施の形態2では、指示対象決定部33における制御対象装置の特定方法の別の形態について説明する。以下では、実施の形態2にかかる制御対象装置の特定方法を実行する空間認識システムを空間認識システム2と称す。なお、実施の形態2にかかる空間認識システム2の構成は、実施の形態1にかかる空間認識システム1とは指示対象決定部33における処理に違いがあるのみであるため、ブロック図の説明は省略する。そこで、実施の形態2にかかる空間認識システム2が特に有効な指示対象装置41〜43の位置関係を説明する図を図7に示す。なお、図7は、実施の形態2にかかる空間認識システム2において利用する座標系を説明する図である。
In the second embodiment, another form of the method for specifying the control target device in the instruction
図7に示すように、実施の形態2にかかる空間認識システム2においても、利用する座標系は、実施の形態1にかかる空間認識システム1と同じである。一方、実施の形態2にかかる空間認識システム2では、指示対象装置41と指示対象装置42がなぞり軌跡を延長した半直線Ls上に共に存在する。実施の形態1にかかる空間認識システム1では、指示対象装置41〜43から半直線Lsに伸びる垂線の距離L41〜L43の大きさに基づき制御対象装置を特定しているため、このような状況では制御対象装置を特定できない。
As shown in FIG. 7, also in the
実施の形態2にかかる空間認識システム2では、図7に示すような状況においても制御対象装置を特定するための方法を提供する。そこで、図8に、実施の形態2にかかる空間認識システムにおいて認識する座標の関係を説明する図を示す。図8に示すように、実施の形態2にかかる空間認識システム2においても、標準座標系Σstandard、デバイス座標系Σdevice、入力座標系Σinputは、実施の形態1にかかる空間認識システム1と同じように認識される。
The
一方、実施の形態2にかかる空間認識システム2では、指示対象装置41、42の座標については、指示対象装置41、42の位置を示す座標に対して、8つの頂点から構成される立方体形状のバウンディングボックスが設定される。図8に示す例では、指示対象装置41に対して、頂点Pt11〜Pt18を有するバウンディングボックスが設定され、指示対象装置42に対して、頂点Pt21〜Pt28を有するバウンディングボックスが設定される。そして、実施の形態2にかかる空間認識システム2では、半直線Lsとバウンディングボックスの面との交点が算出される。図8に示す例では、指示対象装置41のバウンディングボックスと半直線との交点として交点Pn11、Pn12が算出され、指示対象装置42のバウンディングボックスと半直線との交点としてPn21、Pn22が算出される。実施の形態2にかかる空間認識システム2では、上記交点のうちなぞり軌跡の始点Ps1に最も近い交点を有するバウンディングボックスに対応する指示対象装置41を制御対象装置として特定する。
On the other hand, in the
続いて、実施の形態2にかかる空間認識システム2の動作について更に詳細に説明する。実施の形態2にかかる空間認識システム2においても、指示デバイス10の動作は、実施の形態1にかかる空間認識システム1と同じであるため、ここでは指示デバイス10の動作の説明は省略する。一方、実施の形態2にかかる空間認識システム2では、指示対象決定部33の動作が実施の形態1にかかる空間認識システム1とは異なるため、以下では、指示対象決定部33の動作について詳細に説明する。
Subsequently, the operation of the
図9に、実施の形態2にかかる対象特定装置30の動作を示すフローチャートを示す。図9に示すように、実施の形態2にかかる対象特定装置30は、動作が開始されてから、なぞり軌跡を標準座標系Σstandardで表されるなぞり軌跡情報に変換されるまでの処理(ステップS21〜S27の処理)は実施の形態1にかかる対象特定装置30と同じである。一方、実施の形態2にかかる対象特定装置30では、指示方向ベクトル算出後(ステップS27)の後にステップS28に代えてステップS30、S31を実行する。
FIG. 9 is a flowchart showing the operation of the
ステップS30では、指示対象決定部33が位置データベースを参照して半直線上に位置する指示対象装置のバウンディングボックスを算出する。その後、指示対象決定部33は、バウンディングボックス面と半直線Lsとの交点を算出し、なぞり軌跡から最も近い位置の交点を有するバウンディングボックスに対応する指示対象装置を制御対象装置として特定し、制御対象装置に指示対象デバイスとの通信を開始させる(ステップS31)。
In step S30, the instruction
上記説明より、実施の形態2にかかる空間認識システム2では、半直線と指示対象装置4との間の距離だけでは制御対象装置を特定できない場合であっても、指示対象装置に対応して算出されるバンディングボックスと半直線との交点の位置に基づき制御対象装置を特定することができる。
From the above description, in the
なお、上記説明では、バウンディングボックスと半直線線との交点となぞり軌跡の始点Ps1との距離が最も近いものを制御対象装置として特定した。しかし、この特定方法は特定方法の一形態であり、なぞり軌跡の終点Ps2とバウンディングボックスと半直線線との交点に基づき制御対象装置を特定しても良い。また、なぞり軌跡の始点Ps1からの距離が最も遠くなるバウンディングボックスと半直線線との交点に基づき制御対象装置を特定しても良い。また、バウンディングボックスを算出するか否かは、指示対象装置の位置座標が必ずしも半直線Ls上になくても良く、半直線Lsとの距離が所定の範囲内となる指示対象装置が複数となった時点で、バウンディングボックスを作成するとしても良い。 In the above description, the device having the shortest distance from the intersection point of the bounding box and the half line and the start point Ps1 of the tracing locus is specified as the control target device. However, this specifying method is one form of the specifying method, and the control target device may be specified based on the intersection of the tracing locus end point Ps2, the bounding box, and the half line. Further, the device to be controlled may be specified based on the intersection of the bounding box and the half straight line that are the farthest from the starting point Ps1 of the tracing locus. Whether or not the bounding box is calculated does not necessarily include the position coordinates of the instruction target device on the half line Ls, and there are a plurality of instruction target devices whose distance from the half line Ls is within a predetermined range. At this point, a bounding box may be created.
実施の形態3
実施の形態3では、なぞり軌跡情報の生成方法の別の形態について説明する。以下では、実施の形態3にかかるなぞり軌跡情報の生成方法を実行する空間認識システムを空間認識システム3と称す。なお、実施の形態3にかかる空間認識システム3の構成は、実施の形態1にかかる空間認識システム3とは指示方向計測部11及び位置センサ制御部16における処理に違いがあるのみであるため、ブロック図の説明は省略する。そこで、実施の形態3にかかる空間認識システムにおいて認識する座標の関係を説明する図を図10に示す。
In the third embodiment, another embodiment of the method for generating the trace trajectory information will be described. Hereinafter, the space recognition system that executes the method for generating trace trajectory information according to the third embodiment is referred to as a
図10に示すように、実施の形態3にかかる空間認識システム3では、指示デバイス10の実空間中での位置変位に基づきなぞり軌跡情報を生成する。そのため、実施の形態3にかかる空間認識システム3では、入力座標系Σinputは、デバイス座標系Σdeviceと同じになる。つまり、実施の形態3では、利用される座標系は、基準座標系Σstandardとデバイス座標系Σdeviceとなる。なお、実施の形態3では、位置センサ制御部16が出力するなぞり軌跡情報に、指示デバイス10の位置変化前後のレシーバ部14及び15の位置情報も含まれる。また、実施の形態3では、なぞり軌跡情報をレシーバ部13の位置変化に基づき生成するものとするが、レシーバ部14、又は、レシーバ部15の位置変化をなぞり軌跡情報とすることもできる。
As shown in FIG. 10, in the
続いて、実施の形態3にかかる空間認識システム3の動作について説明する。実施の形態3では、なぞり軌跡情報の生成に指示方向計測部11を用いずに位置センサ制御部16を用いる。そこで、まず、実施の形態3にかかる指示デバイスにおけるなぞり軌跡情報の生成処理を示すフローチャートを図11に示す。
Next, the operation of the
図11に示すように、実施の形態3では、指示デバイス10が動作を開始すると、指示デバイス10は、位置センサ制御部16において、予め設定された指示判断時間Tj中の指示デバイス10の位置変化量が判断閾値以上となったか否かを監視する(ステップS41)。そして、指示判断時間Tj中の指示デバイス10の位置変化量が判断閾値以上となったことに応じて(ステップS41のYESの枝)、指示デバイス10の位置センサ制御部16は、レシーバ部13の位置変化情報からなぞり軌跡情報を生成する(ステップS42)。続いて、位置センサ制御部16は、生成したなぞり軌跡情報を指示対象決定部33に送信する(ステップS43)。
As shown in FIG. 11, in the third embodiment, when the
続いて、実施の形態3にかかる空間認識システム3の対象特定装置30の動作について説明する。そこで、図12に実施の形態3にかかる対象特定装置の動作を示すフローチャートを示す。実施の形態3にかかる対象特定装置30においても、なぞり軌跡情報の入力があるまでの処理(ステップS21〜S23)の処理は実施の形態1にかかる対象特定装置30と同じである。
Subsequently, an operation of the
一方、実施の形態3にかかる対象特定装置30では、なぞり軌跡情報の入力が合った場合に、ステップS51、52の処理を行う。ステップS51では、対象特定装置30の指示対象決定部33が、なぞり軌跡情報から指示方向ベクトルを算出し、指示方向ベクトルの方向になぞり軌跡の始点から延びる半直線を算出する。次いで、指示対象決定部33は、半直線との距離が最も近い指示対象装置を制御対象装置として特定し、特定した制御対象装置に指示対象デバイスとの通信を開始させる(ステップS52)。
On the other hand, in the
上記説明より、実施の形態3にかかる空間認識システム3は、指示デバイス10の位置変化からなぞり軌跡情報を生成するため、指示対象決定部33が行う座標変換の処理を行うことなく指示方向ベクトルを算出することができる。つまり、実施の形態3にかかる空間認識システム3は、実施の形態1よりも少ない処理で制御対象装置を特定することができる。
From the above description, the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、実施の形態3にかかる空間認識システム3の軌跡情報の生成方法と、実施の形態2にかかる空間認識システム2の制御対象装置の特定方法とを組み合わせることができる。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the method for generating trajectory information of the
1〜3 空間認識システム
10 指示デバイス
11 指示方向計測部
12 トランスミッタ部
13〜15 レシーバ部
16 位置センサ制御部
17 タッチセンサ
20 三次元位置計測装置
30 対象特定装置
31 位置データベース登録処理部
32 位置データベース
33 指示対象決定部
41〜43 指示対象装置
DESCRIPTION OF SYMBOLS 1-3
Claims (10)
自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、
前記なぞり軌跡情報に基づき前記制御対象装置を特定する対象特定装置と、を有し、
前記対象特定装置は、前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、前記指示方向ベクトルを延長した半直線と前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する空間認識システム。 At least one instruction target device;
Trace path information for instructing a control target device to be controlled among the indication target devices based on at least one of a tracing operation with respect to a touch sensor provided on the own device and a change in position of the own device, An instruction device that outputs device position information indicating a relative position and orientation of a receiving unit and a transmitting unit provided outside; and
A target specifying device that specifies the control target device based on the tracing trajectory information,
The target specifying device converts the trace trajectory coordinate information indicated by at least one of the trace trajectory information and the device position information into coordinate information of a reference coordinate system based on the position of the transmission unit, and converts an indication direction vector. A space recognition system that identifies the control target device based on a distance between a half line calculated and extended from the pointing direction vector and a position coordinate of the pointing target device defined on the reference coordinate system.
前記タッチセンサ上の位置を示す入力座標系の座標情報を含む前記なぞり軌跡情報を、前記指示デバイス上の位置を示すデバイス座標系の座標情報に変換して第1の位置変化情報を生成し、
前記第1の位置変化情報を、前記基準座標系の座標情報に変換して第2の位置変化情報を生成し、
前記第2の位置変化情報に含まれる前記なぞり軌跡情報に基づき前記指示方向ベクトルを算出する請求項1に記載の空間認識システム。 The target specifying device is:
Converting the trace trajectory information including the coordinate information of the input coordinate system indicating the position on the touch sensor into the coordinate information of the device coordinate system indicating the position on the pointing device to generate first position change information;
Converting the first position change information into coordinate information of the reference coordinate system to generate second position change information;
The space recognition system according to claim 1, wherein the pointing direction vector is calculated based on the tracing trajectory information included in the second position change information.
前記対象特定装置は、前記なぞり軌跡情報から前記指示方向ベクトルを算出する請求項1に記載の空間認識システム。 The pointing device outputs position change information of the own device as the trace trajectory information when the position change of the own device within a predetermined time becomes a predetermined distance or more,
The space recognition system according to claim 1, wherein the target specifying device calculates the pointing direction vector from the tracing locus information.
第1の受信部と、
前記第1の受信部を交点として直交する直線上に配置される第2の受信部及び第3の受信部と、
前記第1の受信部から前記第3の受信部と前記送信部との相対的位置関係を示す相対位置情報を前記デバイス位置情報として出力する位置センサ制御部と、
を更に有する請求項1乃至4のいずれか1項に記載の空間認識システム。 The receiver is
A first receiver;
A second receiving unit and a third receiving unit arranged on a straight line orthogonal to the first receiving unit as an intersection;
A position sensor control unit that outputs relative position information indicating a relative positional relationship between the third receiving unit and the transmitting unit from the first receiving unit as the device position information;
The space recognition system according to any one of claims 1 to 4, further comprising:
前記送信部は基準となる磁気を出力し、
前記受信部は前記磁気の変化に応じて前記受信部との相対位置を示す相対位置情報を周力する請求項1乃至8のいずれか1項に記載の空間認識システム。 The transmitter and the receiver are magnetic sensors,
The transmitter outputs a reference magnetism,
9. The space recognition system according to claim 1, wherein the receiving unit applies relative position information indicating a relative position with respect to the receiving unit according to a change in the magnetism.
自デバイス上に設けられたタッチセンサに対するなぞり動作と自デバイスの位置変化との少なく一方の動作に基づき前記指示対象装置のうち制御対象となる制御対象装置を指示するなぞり軌跡情報と、内蔵された受信部と外部に設けられる送信部との相対的な位置及び向きを示すデバイス位置情報と、を出力する指示デバイスと、
前記なぞり軌跡情報及び前記デバイス位置情報に基づき前記制御対象装置を特定する対象特定装置と、を有する空間認識システムにおける空間認識方法であって、
前記対象特定装置が、
前記なぞり軌跡情報と前記デバイス位置情報との少なくとも一方により示されるなぞり軌跡座標情報を前記送信部の位置を基準とする基準座標系の座標情報に変換して指示方向ベクトルを算出し、
前記指示方向ベクトルを延長した半直線を算出し、
前記基準座標系上で定義された前記指示対象装置の位置座標との距離に基づき前記制御対象装置を特定する空間認識方法。 At least one instruction target device;
Trace path information for instructing a control target device to be controlled among the indication target devices based on at least one of a tracing operation with respect to a touch sensor provided on the own device and a change in position of the own device, An instruction device that outputs device position information indicating a relative position and orientation of a receiving unit and a transmitting unit provided outside; and
A space recognition method in a space recognition system comprising: a target specifying device that specifies the control target device based on the tracing locus information and the device position information,
The target identification device is
Converting the trace locus coordinate information indicated by at least one of the trace locus information and the device position information into coordinate information of a reference coordinate system based on the position of the transmission unit to calculate an instruction direction vector;
Calculate a half line extending the indicated direction vector,
A space recognition method for identifying the control target device based on a distance from a position coordinate of the indication target device defined on the reference coordinate system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014036376A JP6261038B2 (en) | 2014-02-27 | 2014-02-27 | Spatial recognition system and spatial recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014036376A JP6261038B2 (en) | 2014-02-27 | 2014-02-27 | Spatial recognition system and spatial recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015162047A JP2015162047A (en) | 2015-09-07 |
JP6261038B2 true JP6261038B2 (en) | 2018-01-17 |
Family
ID=54185107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014036376A Expired - Fee Related JP6261038B2 (en) | 2014-02-27 | 2014-02-27 | Spatial recognition system and spatial recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6261038B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4778934B2 (en) * | 2007-06-05 | 2011-09-21 | 日本電信電話株式会社 | Device control method, device control system, computer program, and recording medium |
JP5441619B2 (en) * | 2009-10-30 | 2014-03-12 | ソニーモバイルコミュニケーションズ, エービー | Short-range wireless communication device, short-range wireless communication system, short-range wireless communication device control method, short-range wireless communication device control program, and mobile phone terminal |
JP5488011B2 (en) * | 2010-02-04 | 2014-05-14 | ソニー株式会社 | COMMUNICATION CONTROL DEVICE, COMMUNICATION CONTROL METHOD, AND PROGRAM |
JP5696489B2 (en) * | 2011-01-19 | 2015-04-08 | セイコーエプソン株式会社 | Server apparatus, printing system, and printing method |
JP5255674B2 (en) * | 2011-06-14 | 2013-08-07 | シャープ株式会社 | Data transmission operation device and data transmission control method |
-
2014
- 2014-02-27 JP JP2014036376A patent/JP6261038B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015162047A (en) | 2015-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9524021B2 (en) | Imaging surround system for touch-free display control | |
US10430655B2 (en) | Augmented reality information processing system and augmented reality display control method with space information conversion and display control features | |
US9355451B2 (en) | Information processing device, information processing method, and program for recognizing attitude of a plane | |
US10319110B2 (en) | Display control method and system | |
US9665982B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6421670B2 (en) | Display control method, display control program, and information processing apparatus | |
JP6424601B2 (en) | Display control method, information processing program, and information processing apparatus | |
US20150026646A1 (en) | User interface apparatus based on hand gesture and method providing the same | |
KR101330805B1 (en) | Apparatus and Method for Providing Augmented Reality | |
JP6618681B2 (en) | Information processing apparatus, control method and program therefor, and information processing system | |
JP6230113B2 (en) | Video instruction synchronization method, system, terminal, and program for synchronously superimposing instruction images on captured moving images | |
KR102583682B1 (en) | Electronic device and method for dispalying sharing information based on augmented reality | |
JP2011141828A (en) | Information processing apparatus, information processing system, and information processing method | |
JP6217437B2 (en) | Terminal apparatus, information processing apparatus, display control method, and display control program | |
JP2021520540A (en) | Camera positioning methods and devices, terminals and computer programs | |
WO2015093130A1 (en) | Information processing device, information processing method, and program | |
JP2015125641A (en) | Information processing device, control method therefor, and program | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
JP6543924B2 (en) | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
JP6380647B2 (en) | Information providing method, information providing program, information providing apparatus, information processing apparatus, and information providing system | |
KR20110087407A (en) | Camera simulation system and localization sensing method using the same | |
JP6261038B2 (en) | Spatial recognition system and spatial recognition method | |
JP6146869B2 (en) | Video instruction display method, system, terminal, and program for superimposing instruction image on photographing moving image synchronously | |
CN111565898A (en) | Operation guidance system | |
US20130155211A1 (en) | Interactive system and interactive device thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6261038 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |