JP5217782B2 - Camera-based pairing method, system and apparatus, and camera-based pairing program - Google Patents

Camera-based pairing method, system and apparatus, and camera-based pairing program Download PDF

Info

Publication number
JP5217782B2
JP5217782B2 JP2008216882A JP2008216882A JP5217782B2 JP 5217782 B2 JP5217782 B2 JP 5217782B2 JP 2008216882 A JP2008216882 A JP 2008216882A JP 2008216882 A JP2008216882 A JP 2008216882A JP 5217782 B2 JP5217782 B2 JP 5217782B2
Authority
JP
Japan
Prior art keywords
terminal
trajectory
pairing
trajectory information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008216882A
Other languages
Japanese (ja)
Other versions
JP2010056641A (en
Inventor
崇 大芝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008216882A priority Critical patent/JP5217782B2/en
Publication of JP2010056641A publication Critical patent/JP2010056641A/en
Application granted granted Critical
Publication of JP5217782B2 publication Critical patent/JP5217782B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、携帯電話機などの通話端末と、パーソナルコンピュータ(PC)などの情報処理端末とを対応付けして連携させる、いわゆる端末間のペアリング方法に関し、特に、簡単な操作で、ユーザの意図通りに確実にペアリングでき、安価にシステムが実現できるカメラ利用ペアリング方法、システム、及び装置、並びにカメラ利用ペアリング用プログラムに関する。   The present invention relates to a so-called terminal-to-terminal pairing method in which a call terminal such as a mobile phone and an information processing terminal such as a personal computer (PC) are associated with each other and cooperate with each other. The present invention relates to a camera-use pairing method, system, and apparatus, and a camera-use pairing program that can be reliably paired as described above and can be realized at low cost.

特許文献1には、音声通話を行う電話機などの通話端末のユーザが、通話端末とPCなどの情報処理端末とを対応付けして連携させる、いわゆる端末のペアリングを行う方法が記載されている。特許文献1に記載された方法では、そのようにすることで、音声通話と、テキストや画像などを含む文書データを他のユーザとリアルタイムに閲覧・共同編集するデータ共有との同時利用を可能とし、ユーザ間の意思疎通を支援している。   Patent Document 1 describes a so-called terminal pairing method in which a user of a call terminal such as a telephone that performs a voice call associates the call terminal with an information processing terminal such as a PC and cooperates with each other. . In the method described in Patent Document 1, by doing so, it is possible to simultaneously use a voice call and data sharing for viewing and collaboratively editing document data including text and images with other users in real time. Supports communication between users.

特許文献1に記載の方法では、まず、通話端末を用いて音声通話中の両ユーザが、情報処理端末に自分の通話端末の電話番号などの端末識別情報を手動で入力(手入力)することで、サーバ側で通話端末と情報処理端末とのペアリングが行われて、2組のペアが作成される。次に、片方のペアの情報処理端末と、もう片方のペアの情報処理端末との間で、自動的にデータ共有が開始される。   In the method described in Patent Document 1, first, both users who are making a voice call using a telephone terminal manually input (manually input) terminal identification information such as the telephone number of their telephone terminal into the information processing terminal. Thus, the call terminal and the information processing terminal are paired on the server side, and two pairs are created. Next, data sharing is automatically started between the information processing terminal of one pair and the information processing terminal of the other pair.

特許文献2には、無線通信機能を備えた無線機器同士のペアリング方法が記載されている。特許文献2に記載されたペアリング方法は、テレビジョン受信機(以下、単にテレビという)とビデオカメラとのペアリング作業を簡単に済ませることを目的としたものである。まず、テレビの端末識別情報をテレビのサブ画面に表示し、ユーザがそれをビデオカメラで撮影する。すると、ビデオカメラは、撮影された映像からテレビの端末識別情報を抽出し、抽出したテレビの端末識別情報とビデオカメラの端末識別情報とを一緒に符号化して、無線通信機能を用いてテレビに送信する。テレビは、特許文献2の図1が示すように、無線用のアンテナ(アンテナ180)を搭載しており、無線用のアンテナを用いて符号化データを受信すると、受信した符号化データを復号し、自分の端末識別情報が検出できればそのビデオカメラとペアリングを行う。   Patent Document 2 describes a pairing method between wireless devices having a wireless communication function. The pairing method described in Patent Document 2 is intended to simplify the pairing operation between a television receiver (hereinafter simply referred to as a television) and a video camera. First, the terminal identification information of the television is displayed on the television sub-screen, and the user takes a picture with the video camera. Then, the video camera extracts the terminal identification information of the television from the captured video, encodes the extracted terminal identification information of the television and the terminal identification information of the video camera together, and uses the wireless communication function for the television. Send. As shown in FIG. 1 of Patent Document 2, the television is equipped with a wireless antenna (antenna 180). When encoded data is received using the wireless antenna, the received encoded data is decoded. If the terminal identification information can be detected, pairing with the video camera is performed.

特開2005−012380号公報JP 2005-012380 A 特開2006−135930号公報JP 2006-135930 A

しかし、特許文献1に記載の方法では、ペアリング作業の際にユーザに大きな負担を掛けるため、簡単にペアが組めない。その理由は、特許文献1に記載された方法では、ペアリング作業の際に、音声通話中のユーザに対して、情報処理端末に自分の通話端末の電話番号を手入力することを強制するからである。電話番号の手入力は、手間の掛かる作業である。また、ユーザは他人の電話番号は覚えていても、自分の電話番号は覚えていない場合がある。特定の操作を行うことで、自機の電話番号を表示する機能を備えた通話端末もあるが、通話中は音量調整以外の機能が利用できない機種が多いため、ユーザは通話端末を操作しても自分の電話番号を知ることはできない。そのため、自分の電話番号を覚えていないユーザは、他の手段を使って自分の電話番号を調べ出す必要がある。   However, the method described in Patent Document 1 places a heavy burden on the user during the pairing operation, and thus cannot be easily paired. The reason is that the method described in Patent Document 1 forces a user during a voice call to manually input the telephone number of his / her call terminal into the information processing terminal during the pairing operation. It is. Manual entry of a telephone number is a laborious operation. Further, there are cases where the user remembers the phone number of another person but does not remember his own phone number. Some call terminals have a function to display their own phone number by performing a specific operation, but since many models cannot use functions other than volume adjustment during a call, the user operates the call terminal. You can't even know your phone number. Therefore, a user who does not remember his / her telephone number needs to find out his / her telephone number using other means.

また、特許文献1に記載の方法では、ユーザの意図と異なるペアが組まれてしまう場合があり、ペアリングの確実性に乏しい。その理由は、特許文献1に記載された方法では、ユーザが誤った電話番号を、誤りと気付かずに情報処理端末に手入力してしまうと、自分の情報処理端末と他人の通話端末とが意図せずペアリングされてしまうからである。   Further, in the method described in Patent Document 1, a pair different from the user's intention may be assembled, and the pairing reliability is poor. The reason is that in the method described in Patent Document 1, if the user manually inputs an incorrect telephone number into the information processing terminal without noticing the error, the information processing terminal and the other person's call terminal are This is because they are unintentionally paired.

例として、ユーザAとユーザB、及びユーザCとユーザDがそれぞれ通話中の場面を考える。例えば、ユーザAが誤った電話番号を手入力してしまい、それがたまたまユーザCの電話番号であった場合には、ユーザAの情報処理端末とユーザCの通話端末とがペアリングされてしまう。その結果、ユーザAの情報処理端末とユーザDの情報処理端末との間でデータ共有が開始されてしまう。   As an example, consider a scene in which user A and user B, and user C and user D are talking. For example, if the user A manually inputs an incorrect telephone number and happens to be the telephone number of the user C, the information processing terminal of the user A and the telephone terminal of the user C are paired. . As a result, data sharing is started between the information processing terminal of user A and the information processing terminal of user D.

そこで、本発明は、ペアリング作業の際にユーザに大きな負担を掛けず、簡単に、かつユーザの意図と異なるペアが組まれることを防止し、確実にペアリングをすることができるカメラ利用ペアリング方法、システム、及び装置、並びにカメラ利用ペアリング用プログラムを提供することを目的とする。   Therefore, the present invention does not place a heavy burden on the user during the pairing operation, prevents a pair that is different from the user's intention from being formed easily, and can perform pairing reliably. An object is to provide a ring method, a system, an apparatus, and a camera-use pairing program.

本発明によるカメラ利用ペアリングシステムは、カメラを搭載した第1の端末と、第2の端末とを備え、第1の端末は、当該第1の端末がユーザによって移動されたときに、カメラが撮影した画像に基づいて当該第1の端末が移動した軌跡を示す軌跡情報を算出する第1端末用軌跡算出手段を含み、第2の端末は、第1の端末の移動に連動してユーザによって当該第2の端末からの入力操作が行われたときに、当該第2の端末における入力座標の軌跡を示す軌跡情報を算出する第2端末用軌跡算出手段を含み、第1端末用軌跡算出手段が算出した軌跡情報と、第2端末用軌跡算出手段が算出した軌跡情報とを比較することによって、第1の端末と第2の端末とをペアリングするか否かを判定するペアリング判定手段をさらに備えたことを特徴とする。   The camera-based pairing system according to the present invention includes a first terminal equipped with a camera and a second terminal. When the first terminal is moved by the user, the camera is Including a first terminal trajectory calculating means for calculating trajectory information indicating a trajectory of movement of the first terminal based on the photographed image, and the second terminal is operated by the user in conjunction with the movement of the first terminal. Including a second terminal trajectory calculating means for calculating trajectory information indicating a trajectory of input coordinates in the second terminal when an input operation is performed from the second terminal; Pairing determination means for determining whether or not to pair the first terminal and the second terminal by comparing the locus information calculated by and the locus information calculated by the second terminal locus calculating means. Further features To.

本発明によるカメラ利用ペアリング方法は、カメラを搭載した第1の端末がユーザによって移動されたときに、カメラが撮影した画像に基づいて当該第1の端末が移動した軌跡を示す軌跡情報を算出する第1端末用軌跡算出ステップと、第1の端末の移動に連動してユーザによって第2の端末からの入力操作が行われたときに、当該第2の端末における入力座標の軌跡を示す軌跡情報を算出する第2端末用軌跡算出ステップと、第1端末用軌跡算出ステップで算出した軌跡情報と、第2端末用軌跡算出ステップで算出した軌跡情報とを比較することによって、第1の端末と第2の端末とをペアリングするか否かを判定するペアリング判定ステップとを含むことを特徴とする。 The camera-based pairing method according to the present invention calculates trajectory information indicating a trajectory of the first terminal based on an image captured by the camera when the first terminal equipped with the camera is moved by the user. A first terminal trajectory calculating step and a trajectory indicating a trajectory of input coordinates in the second terminal when an input operation from the second terminal is performed by the user in conjunction with the movement of the first terminal. By comparing the trajectory information calculated in the second terminal trajectory calculation step , the trajectory information calculated in the first terminal trajectory calculation step, and the trajectory information calculated in the second terminal trajectory calculation step , the first terminal And a pairing determination step for determining whether or not to pair with the second terminal.

本発明によるペアリング装置は、カメラを搭載した第1の端末と、第2の端末とのペアリングを行うペアリング装置であって、第1の端末がユーザによって移動されたときに、カメラが撮影した画像に基づいて第1の端末が移動した軌跡を算出した軌跡情報と、第2の端末が第1の端末の移動に連動してユーザによって第2の端末から入力操作が行われたときに、第2の端末における入力座標の軌跡を算出した軌跡情報とを比較することによって、第1の端末と第2の端末とをペアリングするか否かを判定するペアリング判定手段を備えたことを特徴とする。   A pairing device according to the present invention is a pairing device that performs pairing between a first terminal equipped with a camera and a second terminal, and when the first terminal is moved by a user, the camera is When the user performs an input operation from the second terminal in conjunction with the movement of the first terminal in conjunction with the movement of the first terminal, the locus information obtained by calculating the locus of movement of the first terminal based on the photographed image And a pairing determination means for determining whether or not to pair the first terminal and the second terminal by comparing with the locus information obtained by calculating the locus of the input coordinates in the second terminal. It is characterized by that.

本発明によるペアリング用プログラムは、カメラを搭載した第1の端末と、第2の端末とのペアリングを行うためのペアリング用プログラムであって、コンピュータに、第1の端末がユーザによって移動されたときに、カメラが撮影した画像に基づいて第1の端末が移動した軌跡を算出した軌跡情報と、第2の端末が第1の端末の移動に連動してユーザによって第2の端末から入力操作が行われたときに、第2の端末における入力座標の軌跡を算出した軌跡情報とを比較することによって、第1の端末と第2の端末とをペアリングするか否かを判定するペアリング判定処理を
実行させるためのものである。
A pairing program according to the present invention is a pairing program for performing pairing between a first terminal equipped with a camera and a second terminal, and the first terminal is moved to the computer by the user. The trajectory information obtained by calculating the trajectory of the movement of the first terminal based on the image taken by the camera and the second terminal from the second terminal by the user in conjunction with the movement of the first terminal. When an input operation is performed, it is determined whether or not to pair the first terminal and the second terminal by comparing with the locus information obtained by calculating the locus of the input coordinates in the second terminal. This is for executing the pairing determination process.

本発明によれば、ペアリング作業の際にユーザに大きな負担を掛けず、簡単に、かつユーザの意図と異なるペアが組まれることを防止し、確実にペアリングをすることができる。   ADVANTAGE OF THE INVENTION According to this invention, it does not place a big burden on a user in the case of a pairing operation | work, and it can prevent that the pair different from a user's intention is built, and can perform pairing reliably.

以下、本発明の実施形態について図面を参照して説明する。図1は、本発明の実施形態におけるネットワーク構成の一例を示すブロック図である。図1に示すように、ペア管理装置100と、通話端末A10と、通話端末B11と、情報処理端末A20と、情報処理端末B21とは、インターネットや携帯電話網等の通信ネットワークを介して相互に接続されている。なお、本実施の形態では、通話端末と情報処理端末とが2台ずつの場合を示すが、何台(例えば、3以上)あっても構わない。また、本実施の形態では、端末として、通話端末と情報処理端末とを用いるが、通話機能を備えていない端末(例えば、PDA(Personal Digital Assistant)等)を用いてもかまわない。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of a network configuration in the embodiment of the present invention. As shown in FIG. 1, the pair management device 100, the call terminal A10, the call terminal B11, the information processing terminal A20, and the information processing terminal B21 are mutually connected via a communication network such as the Internet or a mobile phone network. It is connected. In this embodiment, a case where there are two call terminals and two information processing terminals is shown, but any number (for example, three or more) may be used. In this embodiment, a call terminal and an information processing terminal are used as terminals, but a terminal that does not have a call function (for example, a PDA (Personal Digital Assistant) or the like) may be used.

図2は、カメラ利用ペアリング方法の機能構成を示す機能ブロック図である。図3は、本発明の実施形態におけるデータ構造の一例を示す説明図である。以下、これらの図を使って説明する。   FIG. 2 is a functional block diagram showing a functional configuration of the camera-based pairing method. FIG. 3 is an explanatory diagram showing an example of a data structure in the embodiment of the present invention. This will be described below with reference to these drawings.

ペア管理装置100は、具体的には、プログラムに従って動作するパーソナルコンピュータ等の情報処理装置によって実現される。図2に示すように、ペア管理装置100は、軌跡比較手段101、ペア記憶手段102、及び軌跡記憶手段103を含む。   Specifically, the pair management apparatus 100 is realized by an information processing apparatus such as a personal computer that operates according to a program. As shown in FIG. 2, the pair management apparatus 100 includes a trajectory comparison unit 101, a pair storage unit 102, and a trajectory storage unit 103.

軌跡比較手段101は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。軌跡比較手段101は、通話端末から受信した軌跡220と、情報処理端末から受信した軌跡230とに基づいて、軌跡210を生成し、生成した軌跡210に基づいて通話端末と情報処理端末とのペアを組むか否かを判定し、ペアを組むと判定した場合にはペア200を生成する機能を備えている。   The trajectory comparison unit 101 is specifically realized by a CPU of an information processing apparatus that operates according to a program. The trajectory comparison means 101 generates a trajectory 210 based on the trajectory 220 received from the call terminal and the trajectory 230 received from the information processing terminal, and based on the generated trajectory 210, a pair of the call terminal and the information processing terminal. And a function for generating the pair 200 when it is determined that a pair is to be formed.

ペア記憶手段102は、具体的には、磁気ディスク装置や光ディスク装置等の記憶装置によって実現される。ペア記憶手段102は、複数のペア200を格納する。ペア200は、成立したペアと同数存在する。特許文献1の図2と図4とに示される「端末番号」と「連携PC IPアドレス」とのペアに相当する情報である。   Specifically, the pair storage unit 102 is realized by a storage device such as a magnetic disk device or an optical disk device. The pair storage unit 102 stores a plurality of pairs 200. There are as many pairs 200 as there are established pairs. This is information corresponding to a pair of “terminal number” and “cooperative PC IP address” shown in FIG. 2 and FIG.

ペア200は、通話端末識別子201と情報処理端末識別子202とを含む。   The pair 200 includes a call terminal identifier 201 and an information processing terminal identifier 202.

通話端末識別子201は、通話端末A10や通話端末B11を特定するアドレス情報である。具体的には、例えば、電話番号、SIPアドレス、IPアドレス、MACアドレスなどであるが、これに限定されるものではない。   The call terminal identifier 201 is address information that identifies the call terminal A10 and the call terminal B11. Specifically, for example, a telephone number, a SIP address, an IP address, a MAC address, etc., are not limited thereto.

情報処理端末識別子202は、情報処理端末A20や情報処理端末B21を特定するアドレス情報である。具体的には、例えば、電話番号、SIPアドレス、IPアドレス、MACアドレスなどであるが、これに限定されるものではない。   The information processing terminal identifier 202 is address information that identifies the information processing terminal A20 and the information processing terminal B21. Specifically, for example, a telephone number, a SIP address, an IP address, a MAC address, etc., are not limited thereto.

軌跡記憶手段103は、具体的には、磁気ディスク装置や光ディスク装置等の記憶装置によって実現される。軌跡記憶手段103は、複数の軌跡210を格納する。軌跡記憶手段103は、一連の軌跡210を、ユーザによる通話端末と入力手段121との振動操作毎に、まとめて管理する。例えば、2人のユーザが振動操作を別々に行った場合、一連の軌跡210は、2セット生成される。   Specifically, the trajectory storage means 103 is realized by a storage device such as a magnetic disk device or an optical disk device. The trajectory storage unit 103 stores a plurality of trajectories 210. The trajectory storage means 103 collectively manages a series of trajectories 210 for each vibration operation of the call terminal and the input means 121 by the user. For example, when two users perform vibration operations separately, two sets of a series of trajectories 210 are generated.

軌跡210は、時刻211と、通話端末X座標212と、通話端末Y座標213と、情報処理端末X座標214と、情報処理端末Y座標215とを含む。   The trajectory 210 includes a time 211, a call terminal X coordinate 212, a call terminal Y coordinate 213, an information processing terminal X coordinate 214, and an information processing terminal Y coordinate 215.

時刻211は、通話端末や情報処理端末が軌跡情報を採取した時刻である。ただし、時刻211は、通話端末や情報処理端末が搭載する時計での時刻ではなく、ペア管理装置100が搭載する時計での時刻である。   Time 211 is the time when the call terminal or the information processing terminal collects the trajectory information. However, the time 211 is not the time on the clock mounted on the call terminal or the information processing terminal, but the time on the clock mounted on the pair management apparatus 100.

通話端末X座標212は、時刻211において通話端末が採取した、X−Y平面上での通話端末の位置のX座標の値である。   The call terminal X coordinate 212 is the value of the X coordinate of the position of the call terminal on the XY plane collected by the call terminal at time 211.

通話端末Y座標213は、時刻211において通話端末が採取した、X−Y平面上での通話端末の位置のY座標の値である。   The call terminal Y coordinate 213 is the value of the Y coordinate of the position of the call terminal on the XY plane collected by the call terminal at time 211.

情報処理端末X座標214は、時刻211において情報処理端末が採取した、X−Y平面上での情報処理端末の位置のX座標の値である。   The information processing terminal X coordinate 214 is the value of the X coordinate of the position of the information processing terminal on the XY plane collected by the information processing terminal at time 211.

情報処理端末Y座標215は、時刻211において情報処理端末が採取した、X−Y平面上での情報処理端末の位置のY座標の値である。   The information processing terminal Y coordinate 215 is the value of the Y coordinate of the position of the information processing terminal on the XY plane collected by the information processing terminal at time 211.

通話端末A10は、具体的には、プログラムに従って動作する携帯電話機、スマートフォン、固定電話機、街頭マルチメディア端末、車載端末、ゲーム機、外部と情報をやり取りする機能を備えたその他の類似装置によって実現される。なお、通話端末B11の構成は、通話端末A10と同一であるため、説明は省略する。   Specifically, the call terminal A10 is realized by a mobile phone, a smart phone, a fixed phone, a street multimedia terminal, an in-vehicle terminal, a game machine, or other similar device having a function of exchanging information with the outside, which operates according to a program. The Since the configuration of the call terminal B11 is the same as that of the call terminal A10, the description is omitted.

図2に示すように、通話端末A10は、撮影手段A111、動画像分解手段A112、静止画像差分検出手段A113、軌跡算出手段A114、振動監視手段A115、時刻補正手段A116、及び軌跡記憶手段A117を含む。   As shown in FIG. 2, the call terminal A10 includes a photographing unit A111, a moving image decomposition unit A112, a still image difference detection unit A113, a trajectory calculation unit A114, a vibration monitoring unit A115, a time correction unit A116, and a trajectory storage unit A117. Including.

撮影手段A111は、具体的には、動画像を撮影可能なカメラによって実現される。   Specifically, the photographing unit A111 is realized by a camera capable of photographing a moving image.

動画像分解手段A112は、具体的には、プログラムに従って動作する携帯端末AのCPUによって実現される。動画像分解手段A112は、撮影手段A111が撮影した動画像を解析し、動画像を構成する一連の複数の静止画像を抽出する機能を備えている。   Specifically, the moving image decomposing means A112 is realized by the CPU of the portable terminal A that operates according to a program. The moving image decomposing unit A112 has a function of analyzing a moving image captured by the image capturing unit A111 and extracting a series of still images constituting the moving image.

静止画像差分検出手段A113は、具体的には、プログラムに従って動作する携帯端末AのCPUによって実現される。静止画像差分検出手段A113は、動画像分解手段A112が抽出した一連の複数の静止画像を解析し、撮影手段A111自体の物理的な移動方向と移動距離とを算出する機能を備えている。具体的には、例えば、静止画像差分検出手段A113は、撮影手段A111が物理的に移動中に撮影した動画像について、動画像分解手段A112が抽出したある静止画像と、その次に抽出した静止画像との差分を検出する。その結果、静止画像差分検出手段A113は、静止画像の横方向をX軸とし、縦方向をY軸としたX−Y平面上で、撮影手段A111自体の物理的な移動方向と移動距離とを算出する。   More specifically, the still image difference detection means A113 is realized by the CPU of the portable terminal A that operates according to a program. The still image difference detection unit A113 has a function of analyzing a series of still images extracted by the moving image decomposition unit A112 and calculating a physical movement direction and a movement distance of the photographing unit A111 itself. Specifically, for example, the still image difference detection unit A113, for a moving image shot while the shooting unit A111 is physically moving, a certain still image extracted by the moving image decomposition unit A112, and a still image extracted next. The difference from the image is detected. As a result, the still image difference detection means A113 determines the physical movement direction and movement distance of the photographing means A111 itself on the XY plane with the horizontal direction of the still image as the X axis and the vertical direction as the Y axis. calculate.

軌跡算出手段A114は、具体的には、プログラムに従って動作する携帯端末AのCPUによって実現される。軌跡算出手段A114は、静止画像差分検出手段A113が一連の複数の静止画像に対して解析を行った結果得られる、撮影手段A111自体の一連の物理的な移動方向と移動距離とを、次々につなぎ合わせて行くことで、撮影手段A111自体の物理的な移動の軌跡を算出する機能を備えている。   The locus calculation means A114 is specifically realized by the CPU of the portable terminal A that operates according to a program. The trajectory calculating means A114 successively displays a series of physical movement directions and distances of the photographing means A111 itself obtained as a result of the still image difference detection means A113 analyzing a series of still images. A function of calculating the trajectory of the physical movement of the photographing means A111 itself by being connected is provided.

振動監視手段A115は、具体的には、プログラムに従って動作する携帯端末AのCPUによって実現される。振動監視手段A115は、軌跡算出手段A114が算出した軌跡を監視し、撮影手段A111がユーザの手により動かされ始めたこと(振動開始)と、振動が終わってユーザの手が止まったこと(振動終了)とを検出する機能を備えている。また、振動監視手段A115は、振動開始を検出した際には、撮影手段A111がX−Y平面上のどの方向に動き始めたか(初期傾き)を算出する機能を備えている。   Specifically, the vibration monitoring unit A115 is realized by the CPU of the portable terminal A that operates according to a program. The vibration monitoring means A115 monitors the trajectory calculated by the trajectory calculating means A114, and that the photographing means A111 has started to be moved by the user's hand (vibration start) and that the vibration has ended and the user's hand has stopped (vibration). End). The vibration monitoring unit A115 has a function of calculating in which direction on the XY plane the imaging unit A111 starts moving (initial inclination) when the vibration start is detected.

時刻補正手段A116は、具体的には、プログラムに従って動作する携帯端末AのCPUによって実現される。時刻補正手段A116は、ペア管理装置100が搭載する時計の時刻情報と通話端末A10が搭載する時計の時刻情報とを交換することで、お互いの時計の時差を算出し、元々通話端末A10が搭載する時計での時刻として保存された時刻221を、ペア管理装置100が搭載する時計での時刻に変換する機能を備えている。   Specifically, the time correction means A116 is realized by the CPU of the portable terminal A that operates according to a program. The time correction means A116 calculates the time difference between the clocks by exchanging the time information of the clock installed in the pair management device 100 and the time information of the clock installed in the call terminal A10, and is originally installed in the call terminal A10. A function of converting the time 221 stored as the time on the clock to be converted into the time on the clock mounted on the pair management apparatus 100.

軌跡記憶手段A117は、具体的には、磁気ディスク装置や光ディスク装置等の記憶装置によって実現される。軌跡記憶手段A117は、複数の軌跡220と初期傾き224とを含む。軌跡記憶手段A117は、軌跡220として、静止画像差分検出手段A113が2枚の静止画像から算出した撮影手段A111自体の物理的な移動方向と移動距離とに基づいて、軌跡算出手段A114が算出した、その時点での撮影手段A111のX−Y平面上の位置を格納する。   Specifically, the trajectory storage unit A117 is realized by a storage device such as a magnetic disk device or an optical disk device. The trajectory storage unit A117 includes a plurality of trajectories 220 and an initial inclination 224. The trajectory storage unit A117 calculates, as the trajectory 220, the trajectory calculation unit A114 based on the physical movement direction and distance of the photographing unit A111 itself calculated by the still image difference detection unit A113 from two still images. The position of the photographing means A111 at that time on the XY plane is stored.

軌跡220は、図3に示すように、時刻221とX座標222とY座標223とを含む。   The locus 220 includes a time 221, an X coordinate 222, and a Y coordinate 223 as shown in FIG. 3.

時刻221は、前記2枚の静止画像のうち、2枚目の静止画像が撮影された時刻である。時刻221は、最初は通話端末A10が搭載する時計での時刻として保存されるが、後でペア管理装置100が搭載する時計での時刻に変換されて上書き保存される。   The time 221 is the time when the second still image of the two still images was taken. The time 221 is initially stored as the time on the clock mounted on the call terminal A10, but later converted to the time on the clock mounted on the pair management apparatus 100 and is overwritten and stored.

X座標222は、時刻221の時点におけるX−Y平面上での撮影手段A111の位置のX座標の値である。   The X coordinate 222 is the value of the X coordinate of the position of the photographing unit A111 on the XY plane at the time 221.

Y座標223は、時刻221の時点におけるX−Y平面上での撮影手段A111の位置のY座標の値である。   The Y coordinate 223 is the value of the Y coordinate of the position of the imaging unit A111 on the XY plane at the time 221.

初期傾き224は、振動監視手段A115が振動開始を検出した際に算出され、撮影手段A111がX−Y平面上のどの方向に動き始めたかを示す情報である。具体的には、初期傾き224は、撮影手段A111が動き始めた方向を、X−Y平面の原点を通る直線で表現した時の、直線の傾きに相当する。   The initial inclination 224 is calculated when the vibration monitoring unit A115 detects the start of vibration, and is information indicating in which direction on the XY plane the imaging unit A111 starts to move. Specifically, the initial inclination 224 corresponds to the inclination of a straight line when the direction in which the photographing unit A111 starts moving is expressed by a straight line passing through the origin of the XY plane.

情報処理端末A20は、具体的には、プログラムに従って動作するパーソナルコンピュータ(PC)、携帯型コンピュータ(PDA)、携帯電話機、スマートフォン、固定電話機、街頭マルチメディア端末、車載端末、ネットワーク接続機能付きテレビ、ネットワーク接続機能付きセットトップボックス、ゲーム機、外部と情報をやり取りする機能を備えたその他の類似装置によって実現される。なお、情報処理端末B21の構成は、情報処理端末A20と同一であるため、説明は省略する。   Specifically, the information processing terminal A20 includes a personal computer (PC), a portable computer (PDA), a mobile phone, a smartphone, a fixed phone, a street multimedia terminal, an in-vehicle terminal, a TV with a network connection function, which operates according to a program, It is realized by a set-top box with a network connection function, a game machine, and other similar devices having a function of exchanging information with the outside. Since the configuration of the information processing terminal B21 is the same as that of the information processing terminal A20, the description thereof is omitted.

図3に示すように、情報処理端末A20は、入力手段A123、軌跡算出手段A124、振動監視手段A125、時刻補正手段A126、及び軌跡記憶手段A127を含む。   As shown in FIG. 3, the information processing terminal A20 includes input means A123, trajectory calculation means A124, vibration monitoring means A125, time correction means A126, and trajectory storage means A127.

入力手段A123は、具体的には、マウス、ノートPCなどが備えるタッチパッド、PDAやスマートフォンや街頭マルチメディア端末などが備えるタッチパネル式ディスプレイ装置、又はユーザの手や指などで入力操作ができる機能を備えたその他の類似装置によって実現される。   Specifically, the input means A123 has a touch pad provided in a mouse, a notebook PC, etc., a touch panel display device provided in a PDA, a smartphone, a street multimedia terminal, or the like, or a function that allows an input operation with a user's hand or finger. It is realized by other similar devices provided.

以下、マウスやタッチパッドにおけるマウスカーソルや、タッチパネル式ディスプレイ装置におけるユーザがディスプレイにタッチした箇所を、「操作対象点」という。   Hereinafter, a mouse cursor on a mouse or a touch pad, or a location where a user touches the display in a touch panel display device is referred to as an “operation target point”.

軌跡算出手段A124は、具体的には、プログラムに従って動作する情報処理端末のCPUによって実現される。軌跡算出手段A124は、ユーザが入力手段A123を操作した結果得られる、「操作対象点」の一連の移動方向と移動距離とを、次々につなぎ合わせて行くことで、「操作対象点」の移動の軌跡を算出する機能を備えている。   The trajectory calculation means A124 is specifically realized by a CPU of an information processing terminal that operates according to a program. The trajectory calculation unit A124 moves the “operation target point” by successively connecting a series of movement directions and distances of the “operation target point” obtained as a result of the user operating the input unit A123. Has a function to calculate the trajectory.

振動監視手段A125は、具体的には、プログラムに従って動作する情報処理端末のCPUによって実現される。振動監視手段A125は、軌跡算出手段A124が算出した軌跡を監視し、「操作対象点」がユーザの手により動かされ始めたこと(振動開始)と、振動が終わってユーザの手が止まったこと(振動終了)とを検出する機能を備えている。振動監視手段A125は、振動開始を検出した際には、「操作対象点」が、情報処理端末A20の画面の横方向をX軸とし、縦方向をY軸としたX−Y平面上のどの方向に動き始めたか(初期傾き)を算出する機能を備えている。   Specifically, the vibration monitoring unit A125 is realized by a CPU of an information processing terminal that operates according to a program. The vibration monitoring unit A125 monitors the trajectory calculated by the trajectory calculating unit A124, and the fact that the “operation target point” has started to be moved by the user's hand (vibration start) and that the user's hand has stopped after the vibration has ended. (Vibration end) is detected. When the vibration monitoring unit A125 detects the start of vibration, the “operation target point” indicates which of the XY planes the X-axis is the horizontal direction of the screen of the information processing terminal A20 and the Y-axis is the vertical direction. It has a function to calculate whether it has started moving in the direction (initial inclination).

時刻補正手段A126は、具体的には、プログラムに従って動作する情報処理端末のCPUによって実現される。時刻補正手段A126は、ペア管理装置100が搭載する時計の時刻情報と情報処理端末A20が搭載する時計の時刻情報とを交換することで、お互いの時計の時差を算出し、元々情報処理端末A20が搭載する時計での時刻として保存された時刻231を、ペア管理装置100が搭載する時計での時刻に変換する機能を備えている。   Specifically, the time correction means A126 is realized by a CPU of an information processing terminal that operates according to a program. The time correction means A126 calculates the time difference between the clocks by exchanging the time information of the clock mounted on the pair management device 100 and the time information of the clock mounted on the information processing terminal A20, and originally the information processing terminal A20. Has a function of converting the time 231 stored as the time on the clock mounted on the watch to the time on the clock mounted on the pair management apparatus 100.

軌跡記憶手段A127は、具体的には、磁気ディスク装置や光ディスク装置等の記憶装置によって実現される。軌跡記憶手段A127は、複数の軌跡230と初期傾き234とを格納する。   The trajectory storage means A127 is specifically realized by a storage device such as a magnetic disk device or an optical disk device. The trajectory storage unit A127 stores a plurality of trajectories 230 and an initial inclination 234.

軌跡記憶手段A127は、軌跡220として、軌跡算出手段A124が算出した「操作対象点」のX−Y平面上の位置とその時の時刻とを格納する。軌跡220は、図3に示すように、時刻231とX座標232とY座標233とを含む。   The trajectory storage unit A127 stores, as the trajectory 220, the position on the XY plane of the “operation target point” calculated by the trajectory calculation unit A124 and the time at that time. As shown in FIG. 3, the locus 220 includes a time 231, an X coordinate 232, and a Y coordinate 233.

時刻231は、軌跡算出手段A124が「操作対象点」の位置を算出した時刻である。時刻231は、最初は通話端末A10が搭載する時計での時刻として保存されるが、後でペア管理装置100の時計での時刻に変換されて上書き保存される。   Time 231 is the time when the locus calculation means A124 calculated the position of the “operation target point”. The time 231 is initially stored as the time on the clock mounted on the call terminal A10, but later converted to the time on the clock of the pair management apparatus 100 and is overwritten and stored.

X座標232は、時刻231の時点におけるX−Y平面上での「操作対象点」の位置のX座標の値である。   The X coordinate 232 is the value of the X coordinate of the position of the “operation target point” on the XY plane at the time 231.

Y座標233は、時刻231の時点におけるX−Y平面上での「操作対象点」の位置のY座標の値である。   The Y coordinate 233 is the value of the Y coordinate of the position of the “operation target point” on the XY plane at the time 231.

初期傾き224は、振動監視手段A125が振動開始を検出した際に算出され、「操作対象点」がX−Y平面上のどの方向に動き始めたかを示す情報である。具体的には、初期傾き224は、「操作対象点」が動き始めた方向を、X−Y平面の原点を通る直線で表現した時の、直線の傾きに相当する。   The initial inclination 224 is calculated when the vibration monitoring unit A125 detects the start of vibration, and is information indicating in which direction on the XY plane the “operation target point” starts to move. Specifically, the initial inclination 224 corresponds to the inclination of a straight line when the direction in which the “operation target point” starts to move is expressed by a straight line passing through the origin of the XY plane.

次に、動作について説明する。図4は、カメラ利用ペアリング方法の処理の一例を示すフローチャートである。なお、本実施形態では、ユーザAが通話端末A10と情報処理端末A20とを、ユーザBが通話端末B11と情報処理端末B21とを所有しているという前提で説明する。   Next, the operation will be described. FIG. 4 is a flowchart illustrating an example of processing of the camera-based pairing method. In the present embodiment, description will be made on the assumption that the user A owns the call terminal A10 and the information processing terminal A20, and the user B owns the call terminal B11 and the information processing terminal B21.

まず、端末のペアリングを行いたい場合、ユーザAは、通話端末A10を操作してペアリング実行用の画面を表示する操作を行う。すると、撮影手段A111は、自動的に撮影を開始し、通話端末A10は、撮影中の動画像をペアリング実行用の画面に表示する。次いで、動画像分解手段A112は、撮影手段A111が撮影した動画像を解析し、解析した動画像から、動画像を構成する一連の複数の静止画像を抽出する処理を開始する。   First, when it is desired to perform pairing of the terminal, the user A operates the call terminal A10 to display a pairing execution screen. Then, the photographing unit A111 automatically starts photographing, and the call terminal A10 displays the moving image being photographed on the pairing execution screen. Next, the moving image decomposing unit A112 analyzes the moving image captured by the imaging unit A111, and starts a process of extracting a series of still images constituting the moving image from the analyzed moving image.

次に、静止画像差分検出手段A113は、動画像分解手段A112が抽出した一連の複数の静止画像を解析し、解析結果に基づいて、撮影手段A111自体の物理的な移動方向と移動距離とを算出する処理を開始する。次に、軌跡算出手段A114は、静止画像差分検出手段A113が算出した、撮影手段A111自体の一連の物理的な移動方向と移動距離を、次々につなぎ合わせて行くことで、撮影手段A111自体の物理的な移動の軌跡を算出する処理を開始する。なお、この軌跡算出手段A114による軌跡の算出処理は、撮影手段A111が動画像を撮影している間、継続して実行される。   Next, the still image difference detection unit A113 analyzes a series of still images extracted by the moving image decomposition unit A112, and based on the analysis result, determines the physical movement direction and movement distance of the photographing unit A111 itself. The calculation process is started. Next, the trajectory calculating means A114 connects the series of physical movement directions and movement distances of the imaging means A111 itself, calculated by the still image difference detection means A113, one after another, so that the imaging means A111 itself The process for calculating the trajectory of physical movement is started. The trajectory calculation process by the trajectory calculation unit A114 is continuously executed while the photographing unit A111 is capturing a moving image.

次に、振動監視手段A115は、軌跡算出手段A114が算出した軌跡に基づいて、ユーザAによる振動操作の開始を監視する処理を開始する。具体的には、まず、振動監視手段A115は、軌跡算出手段A114が算出した軌跡の情報から、最新の撮影手段A111の位置(X−Y平面上の座標)と、既定の時間を遡って得られる撮影手段A111の位置との、2つの位置を取得(抽出)する。次に、振動監視手段A115は、2つの位置の距離を算出し、既定の値を上回っているか否かを確認する。また、通話端末A10は、タイマーを起動する。   Next, the vibration monitoring unit A115 starts a process of monitoring the start of the vibration operation by the user A based on the locus calculated by the locus calculating unit A114. Specifically, first, the vibration monitoring unit A115 obtains the latest position of the photographing unit A111 (coordinates on the XY plane) and a predetermined time from the information on the locus calculated by the locus calculating unit A114. Two positions are obtained (extracted), the position of the photographing means A111 to be used. Next, the vibration monitoring unit A115 calculates the distance between the two positions, and checks whether or not it exceeds a predetermined value. Further, the call terminal A10 starts a timer.

次に、ユーザAは、情報処理端末A20を操作して、ペアリング実行用の画面を表示する操作を行う。すると、軌跡算出手段A124は、ユーザが入力手段A123を操作した結果得られる、「操作対象点」の一連の移動方向と移動距離とを、次々につなぎ合わせて行くことで、「操作対象点」の移動の軌跡を算出する処理を開始する。なお、軌跡算出手段A124は、ユーザが入力手段A123を操作している間、軌跡の算出処理を継続して実行する。   Next, the user A operates the information processing terminal A20 to perform an operation for displaying a screen for executing pairing. Then, the trajectory calculation unit A124 connects the series of movement directions and movement distances of the “operation target points” obtained as a result of the user operating the input unit A123, one after another, thereby obtaining the “operation target points”. The process of calculating the movement trajectory is started. The trajectory calculation unit A124 continues to execute the trajectory calculation process while the user operates the input unit A123.

次に、振動監視手段A125は、軌跡算出手段A124が算出した軌跡に基づいて、ユーザAによる振動操作の開始を監視する処理を開始する。具体的には、まず、振動監視手段A125は、軌跡算出手段A124が算出した軌跡の情報から、最新の入力手段A123の位置(X−Y平面上の座標)と、既定の時間を遡って得られる入力手段A123の位置との、2つの位置を取得(抽出)する。次に、振動監視手段A125は、2つの位置の距離を算出し、既定の値を上回っているか否かを確認する。その後、ユーザAは、通話端末A10を入力手段A121の上に持って行き、重ねて一緒に保持する(ステップS300)。   Next, the vibration monitoring unit A125 starts a process of monitoring the start of the vibration operation by the user A based on the locus calculated by the locus calculating unit A124. Specifically, the vibration monitoring unit A125 first obtains the latest position of the input unit A123 (coordinates on the XY plane) and a predetermined time from the information on the locus calculated by the locus calculating unit A124. Two positions, ie, the position of the input means A123 to be obtained are acquired (extracted). Next, the vibration monitoring unit A125 calculates the distance between the two positions, and checks whether or not it exceeds a predetermined value. Thereafter, the user A brings the call terminal A10 onto the input means A121 and holds it together (step S300).

既定の時間が経過すると、ステップS300で起動された通話端末A10のタイマーがタイムアウトし、それを契機として、通話端末A10は、電子音などの音を鳴らすことで、ユーザAに振動操作を開始してよい旨を伝える。なお、報知の手段として、音を鳴らす代わりに、撮影手段A111の設置面と同じ面にサブディスプレイ装置などが備えられている場合には、サブディスプレイ装置にメッセージを表示しても良い。また、バイブレータ機能を使って通話端末A10でバイブレーションを起こしても良い。これを契機に、ユーザAは、通話端末A10と入力手段A121とを一緒に左右に動かし始める(振動開始)(ステップS301)。   When the predetermined time has elapsed, the timer of the call terminal A10 activated in step S300 times out, and the call terminal A10 starts a vibration operation to the user A by sounding an electronic sound or the like. Tell them that it ’s okay. As a notification means, instead of sounding a sound, if a sub-display device or the like is provided on the same surface as the installation surface of the photographing means A111, a message may be displayed on the sub-display device. Further, the vibration may be generated at the call terminal A10 using the vibrator function. In response to this, the user A starts moving the call terminal A10 and the input unit A121 left and right together (vibration start) (step S301).

振動監視手段A115は、通話端末A10の振動開始を検出する。すると、振動監視手段A115は、振動開始を検出した時点での最新の撮影手段A111のX−Y平面上の座標と、既定の時間を遡って得られる撮影手段A111の座標とを通るX−Y平面上の直線の傾きを算出し、その値を初期傾き224に格納する。また、軌跡算出手段A114は、軌跡220へ、時刻221とX座標222とY座標223との保存を開始する(ステップS302)。これにより、ユーザAの振動操作中に、次々と軌跡220が新規生成されることになる。ここで、時刻221は、通話端末A10が搭載する時計での時刻である。   The vibration monitoring means A115 detects the start of vibration of the call terminal A10. Then, the vibration monitoring means A115 passes through the coordinates on the XY plane of the latest photographing means A111 at the time when the vibration start is detected and the coordinates of the photographing means A111 obtained by going back a predetermined time. The inclination of the straight line on the plane is calculated, and the value is stored in the initial inclination 224. Further, the trajectory calculation unit A114 starts saving the time 221, the X coordinate 222, and the Y coordinate 223 to the trajectory 220 (step S302). Thereby, the locus | trajectory 220 is newly produced | generated one after another during the vibration operation of the user A. Here, the time 221 is a time on a clock mounted on the call terminal A10.

次に、振動監視手段A115は、軌跡算出手段A114が算出した軌跡に基づいて、ユーザAによる振動操作の終了を監視する処理を開始する。具体的には、まず、振動監視手段A115は、ステップS300の処理と同様に2つの位置を取得(抽出)する。次に、振動監視手段A115は、2つの位置の距離を算出し、既定の値を下回っているか否かを確認する。   Next, the vibration monitoring unit A115 starts processing for monitoring the end of the vibration operation by the user A based on the locus calculated by the locus calculating unit A114. Specifically, first, the vibration monitoring unit A115 acquires (extracts) two positions as in the process of step S300. Next, the vibration monitoring means A115 calculates the distance between the two positions and checks whether or not the distance is below a predetermined value.

また、振動監視手段A125は、入力手段A121の振動開始を検出する。そして、振動監視手段A125は、振動監視手段A115と同様に、初期傾き234を格納する。また、軌跡算出手段A124は、軌跡230へ時刻231とX座標232とY座標233との保存を開始する。これにより、ユーザAの振動操作中に、次々と軌跡230が新規生成されることになる。ここで、時刻231は、情報処理端末A20が搭載する時計での時刻である。   The vibration monitoring unit A125 detects the start of vibration of the input unit A121. Then, the vibration monitoring unit A125 stores the initial inclination 234 in the same manner as the vibration monitoring unit A115. In addition, the trajectory calculation unit A124 starts saving the time 231, the X coordinate 232, and the Y coordinate 233 to the trajectory 230. As a result, new trajectories 230 are successively generated during the vibration operation of the user A. Here, the time 231 is a time on a clock mounted on the information processing terminal A20.

次に、振動監視手段A125は、軌跡算出手段A124が算出した軌跡に基づいて、ユーザAによる振動操作の終了を監視する処理を開始する。具体的には、まず、振動監視手段A125は、ステップS300の処理と同様に2つの位置を取得(抽出)する。次に、振動監視手段A125は、2つの位置の距離を算出し、既定の値を下回っているか否かを確認する。   Next, the vibration monitoring unit A125 starts processing for monitoring the end of the vibration operation by the user A based on the trajectory calculated by the trajectory calculating unit A124. Specifically, first, the vibration monitoring unit A125 acquires (extracts) two positions in the same manner as in the process of step S300. Next, the vibration monitoring unit A125 calculates the distance between the two positions and checks whether or not the distance is below a predetermined value.

ユーザAは、通話端末A10と入力手段A121を一緒に左右に何度か動かし終え、動かすのを止める(振動終了)(ステップS303)。   The user A finishes moving the call terminal A10 and the input unit A121 left and right several times together, and stops moving (end of vibration) (step S303).

振動監視手段A115は、通話端末A10の振動終了を検出する。すると、軌跡算出手段A114は、全ての軌跡220に対する、X座標222とY座標223との正規化を行う。撮影手段A111の動画像の解像度と、情報処理端末A20の画面の解像度とが異なる場合でも、この正規化処理により、座標の縮尺を揃えることができるため、ステップS307において軌跡比較手段101が両端末の軌跡の比較を行えるようになる。   The vibration monitoring means A115 detects the end of vibration of the call terminal A10. Then, the trajectory calculation unit A114 normalizes the X coordinate 222 and the Y coordinate 223 for all the trajectories 220. Even when the resolution of the moving image of the imaging unit A111 and the resolution of the screen of the information processing terminal A20 are different, the scale of the coordinates can be made uniform by this normalization processing. Therefore, in step S307, the trajectory comparison unit 101 The trajectories can be compared.

軌跡算出手段Aによる正規化処理は、具体的には、全てのX座標222を対象に|最大値|と|最小値|とを取得(抽出)し、各X座標222を、(X座標222)÷(|最大値|と|最小値|とのうち、値の大きい方)の値で上書き保存する。ここで、|*|は*の絶対値である。例えば、最大値=20、最小値=−30、X座標222=15の場合には、|最小値|=30の方が|最大値|=20より値が大きいので、15÷30=0.5で上書き保存する。Y座標223に対しても同様の処理を行う。   Specifically, the normalization processing by the trajectory calculation unit A acquires (extracts) | maximum value | and | minimum value | for all the X coordinates 222, and sets each X coordinate 222 to (X coordinate 222). ) ÷ (Overwrite with the value of | maximum value | and | minimum value | the larger value). Here, | * | is the absolute value of *. For example, when maximum value = 20, minimum value = −30, and X coordinate 222 = 15, | minimum value | = 30 is larger than | maximum value | = 20, so 15 ÷ 30 = 0. 5 to overwrite. Similar processing is performed for the Y coordinate 223.

次に、時刻補正手段A116は、ペア管理装置100が搭載する時計の時刻情報と通話端末A10が搭載する時計の時刻情報とを交換することで、お互いの時計の時差を算出する。なお、時差の算出方法は、例えば、文献(RFC2030、「Simple Network Time Protocol (SNTP) Version 4 for IPv4, IPv6 and OSI」、1996年10月、http://tools.ietf.org/rfc/rfc2030.txt)に記載されている。   Next, the time correction means A116 calculates the time difference between the clocks by exchanging the time information of the clock mounted on the pair management device 100 and the time information of the clock mounted on the call terminal A10. The method for calculating the time difference is described in, for example, a document (RFC 2030, “Simple Network Time Protocol (SNTP) Version 4 for IPv4, IPv6 and OSI”, October 1996, http://tools.ietf.org/rfc/rfc2030). .txt).

次いで、時刻補正手段A116は、算出した時差を用いて、通話端末A10が搭載する時計での時刻として保存されている時刻221を、ペア管理装置100が搭載する時計での時刻に変換して上書き保存する。この変換処理は、例えば、通話端末A10が搭載する時計よりペア管理装置100が搭載する時計の方が1秒遅れていると算出された場合には、全ての軌跡220について、時刻221の時刻を1秒遅らせる処理を行う。   Next, using the calculated time difference, the time correction unit A116 converts the time 221 stored as the time on the clock mounted on the call terminal A10 into the time on the clock mounted on the pair management apparatus 100 and overwrites it. save. For example, in the case where it is calculated that the clock mounted on the pair management apparatus 100 is delayed by 1 second from the clock mounted on the call terminal A10, the conversion processing is performed using the time 221 for all the trajectories 220. A process of delaying by 1 second is performed.

その後、通話端末A10は、通話端末A10の識別子と、初期傾き224と全ての軌跡220とを、軌跡比較手段101に送信する。最後に、通話端末A10は、通話端末A10の画面を更新し、処理中である旨のメッセージを表示する。また、情報処理端末A20も、通話端末A10と同様の処理を行う(ステップS304)。   Thereafter, the call terminal A10 transmits the identifier of the call terminal A10, the initial inclination 224, and all the trajectories 220 to the trajectory comparison means 101. Finally, the call terminal A10 updates the screen of the call terminal A10 and displays a message indicating that processing is in progress. In addition, the information processing terminal A20 performs the same process as the call terminal A10 (step S304).

軌跡比較手段101は、初期傾き224と軌跡220と初期傾き234と軌跡230とを受信すると、軌跡220と軌跡230とから、最初の時刻221と時刻231とを取得(抽出)し、時刻の差が既定の値以内か否か判定する。また、軌跡比較手段101は、最後の時刻221と時刻231とを取得(抽出)し、時刻の差が既定の値以内か否か判定する(ステップS305)。   When the trajectory comparison unit 101 receives the initial inclination 224, the trajectory 220, the initial inclination 234, and the trajectory 230, the trajectory comparison unit 101 acquires (extracts) the first time 221 and time 231 from the trajectory 220 and the trajectory 230, and compares the time difference. It is determined whether or not is within a predetermined value. Further, the trajectory comparison unit 101 acquires (extracts) the last time 221 and time 231 and determines whether or not the time difference is within a predetermined value (step S305).

どちらか片方でも既定値を超えていた場合、軌跡比較手段101は、通話端末A10と情報処理端末A20とのペアは成立しないことを確定する(ステップS309)。その後、軌跡比較手段101は、その旨を両端末に通知し、図4に示すように処理は初めに戻る。   If either one exceeds the predetermined value, the trajectory comparison unit 101 determines that the pair of the call terminal A10 and the information processing terminal A20 is not established (step S309). Thereafter, the trajectory comparing means 101 notifies both terminals of that fact, and the processing returns to the beginning as shown in FIG.

双方とも既定値以内である場合、軌跡比較手段101は、受信した軌跡220と軌跡230とのうち、時刻221と時刻231とが重複している軌跡220と軌跡230とだけを抽出し、抽出した軌跡220と軌跡230とに基づいて、軌跡210を新規に生成する。その後、図4に示すように、処理はステップS306に進む。   When both are within the predetermined value, the trajectory comparison unit 101 extracts and extracts only the trajectory 220 and the trajectory 230 in which the time 221 and the time 231 overlap from the received trajectory 220 and the trajectory 230. Based on the trajectory 220 and the trajectory 230, a trajectory 210 is newly generated. Thereafter, as shown in FIG. 4, the process proceeds to step S306.

具体的には、まず、軌跡比較手段101は、最初の時刻221と時刻231とのうち、遅い方の時刻を取得(抽出)し、この時刻より早い時刻221を持つ軌跡220と、この時刻より早い時刻231を持つ軌跡230とを全て廃棄する。次に、軌跡比較手段101は、最後の時刻221と時刻231とのうち、早い方の時刻を取得(抽出)し、この時刻より遅い時刻221を持つ軌跡220と、この時刻より遅い時刻231を持つ軌跡230とを全て廃棄する。これにより時刻221と時刻231とが重複している軌跡220と軌跡230とだけが残る。   Specifically, first, the trajectory comparison means 101 acquires (extracts) the later time of the first time 221 and the time 231, and the trajectory 220 having the time 221 earlier than this time, All the trajectories 230 having the earlier time 231 are discarded. Next, the trajectory comparison unit 101 acquires (extracts) the earlier time 221 between the last time 221 and the time 231, and obtains a trajectory 220 having a time 221 later than this time and a time 231 later than this time. All the trajectories 230 that are held are discarded. As a result, only the trajectory 220 and the trajectory 230 in which the time 221 and the time 231 overlap are left.

この処理により、仮に、ステップS302の振動開始やステップS304の振動終了の検出タイミングが、通話端末A10と情報処理端末A20とで正確に同期していなかったとしても、軌跡比較手段101は、あたかも正確に同期していたかのように、ステップS307において軌跡の一致を判定できるようになる。   By this processing, even if the detection timing of the vibration start in step S302 and the vibration end in step S304 is not accurately synchronized between the call terminal A10 and the information processing terminal A20, the trajectory comparison unit 101 is as accurate as possible. In step S307, it is possible to determine the coincidence of the locus.

次に、軌跡比較手段101は、軌跡220と軌跡230との個数を数え、(個数が多い方)÷(個数が少ない方)の値を計算して小数点以下を切り捨て、これを「サンプリング速度比」として定義する。例えば、軌跡220の個数=100、軌跡230の個数=50の場合には、「サンプリング速度比」=100÷50=2となる。次に、軌跡比較手段101は、軌跡220と軌跡230とのうち、個数の多い方を軌跡210にコピーする。前記の例では、100個の軌跡210が新規生成され、時刻211と通話端末X座標212と通話端末Y座標213とに値が埋まり、情報処理端末X座標214と情報処理端末Y座標215とは値が空の状態になる。   Next, the trajectory comparison means 101 counts the number of the trajectories 220 and 230, calculates the value of (the larger number) / (the smaller number), and rounds off the decimal part. ". For example, when the number of trajectories 220 = 100 and the number of trajectories 230 = 50, “sampling speed ratio” = 100 ÷ 50 = 2. Next, the trajectory comparison unit 101 copies the larger one of the trajectories 220 and 230 to the trajectory 210. In the above example, 100 trajectories 210 are newly generated, values are filled in the time 211, the call terminal X coordinate 212, and the call terminal Y coordinate 213, and the information processing terminal X coordinate 214 and the information processing terminal Y coordinate 215 are The value is empty.

次に、軌跡比較手段101は、軌跡220と軌跡230とのうち、個数の少ない方のX座標とY座標とを軌跡210にコピーする。ただし、このコピーの際には、軌跡比較手段101は、「サンプリング速度比」と同じ回数だけ軌跡210を時刻211が早い順に抽出し、抽出した1つ以上の軌跡210に対して、空になっているX座標とY座標とに、軌跡220と軌跡230とのうち、個数の少ない方のX座標とY座標とをコピーする。前記の例では、時刻211が1番目に早い軌跡210と2番目に早い軌跡210との2個が取り出され、2つの情報処理端末X座標214の両方に、時刻231が1番目に早い軌跡230のX座標232がコピーされ、2つの情報処理端末Y座標215の両方に、時刻231が1番目に早い軌跡230のY座標233がコピーされる。順次、この処理が、時刻211が3番目に早い軌跡210と4番目に早い軌跡210など、後続の軌跡210に対して行われる。   Next, the trajectory comparison unit 101 copies the X coordinate and the Y coordinate of the trajectory 220 and the trajectory 230 which are smaller in number to the trajectory 210. However, during this copying, the trajectory comparison unit 101 extracts the trajectory 210 in ascending order of time 211 as many times as the “sampling speed ratio”, and the extracted one or more trajectories 210 are empty. Of the trajectory 220 and the trajectory 230, the smaller X coordinate and Y coordinate are copied to the X coordinate and Y coordinate. In the above example, two of the trajectory 210 having the earliest time 211 and the trajectory 210 having the second earliest time 211 are extracted, and the trajectory 230 having the earliest time 231 is displayed on both of the two information processing terminal X coordinates 214. The X coordinate 232 is copied, and the Y coordinate 233 of the locus 230 with the earliest time 231 is copied to both of the two information processing terminal Y coordinates 215. Sequentially, this process is performed on subsequent trajectories 210, such as trajectory 210 with the earliest time 211 and trajectory 210 with the fourth earliest time 211.

この処理により、軌跡比較手段101は、仮に、動画像分解手段A112が単位時間当たりに静止画像に分解する回数(サンプリング速度)と、入力手段A121が単位時間当たりに「操作対象点」の位置を採取する回数(サンプリング速度)とが、異なっていても、この2つのサンプリング速度の差異を吸収できる。   By this process, the trajectory comparison unit 101 temporarily determines the number of times (sampling speed) that the moving image decomposition unit A112 decomposes into a still image per unit time and the input unit A121 determines the position of the “operation target point” per unit time. Even if the number of times of sampling (sampling speed) is different, the difference between the two sampling speeds can be absorbed.

軌跡比較手段101は、初期傾き224と初期傾き234とを用いて、全ての軌跡210について、通話端末X座標212と通話端末Y座標213との値を変換する処理を行う(ステップS306)。この変換処理を行う理由を、図5と図6とを用いて説明する。図5と図6とは、座標系の回転が必要な理由を説明するための図である。なお、通話端末A10は、裏面にカメラを備えた携帯電話機であり、情報処理端末A20は、マウスを備えたPCであるものとして説明する。   The trajectory comparison unit 101 performs processing for converting the values of the call terminal X coordinate 212 and the call terminal Y coordinate 213 for all the trajectories 210 using the initial inclination 224 and the initial inclination 234 (step S306). The reason for this conversion process will be described with reference to FIGS. 5 and 6 are diagrams for explaining the reason why the coordinate system needs to be rotated. In the following description, it is assumed that the call terminal A10 is a mobile phone provided with a camera on the back surface, and the information processing terminal A20 is a PC provided with a mouse.

図5(a),(b)に示すように、携帯電話機とマウスとは、別々のX−Y平面の座標系を持つ。携帯電話機の場合には、カメラのレンズの中心部分が座標系の原点となり、マウスの場合には、マウス内のボールが接地する部分が座標系の原点となる。   As shown in FIGS. 5A and 5B, the mobile phone and the mouse have different coordinate systems on the XY plane. In the case of a mobile phone, the central portion of the camera lens is the origin of the coordinate system, and in the case of a mouse, the portion where the ball in the mouse is grounded is the origin of the coordinate system.

ここで、ユーザは、(a)に示すように携帯電話機のY座標とマウスのY座標とが正確に平行になるようにして、携帯電話機とマウスとを一緒に保持することは少ないと考えられる。むしろ、ほとんどの場合、ユーザは、(b)に示すように2つのY座標が平行にならない形で、携帯電話機とマウスとを一緒に保持すると考えられる。   Here, it is considered that the user rarely holds the mobile phone and the mouse together so that the Y coordinate of the mobile phone and the Y coordinate of the mouse are exactly parallel as shown in FIG. . Rather, in most cases, the user will hold the mobile phone and mouse together, as shown in (b), in such a way that the two Y coordinates are not parallel.

(a)の場合には、特に通話端末X座標212と通話端末Y座標213との値を変換しなくても、ステップS307において携帯電話機とマウスの軌跡が一致すると判定されると考えられる。そのため、(a)の場合には特に問題はない。   In the case of (a), it is considered that it is determined that the locus of the mobile phone and the mouse match in step S307 without particularly converting the values of the call terminal X coordinate 212 and the call terminal Y coordinate 213. Therefore, there is no particular problem in the case of (a).

一方、(b)の場合には、ステップS307において携帯電話機とマウスの軌跡が一致しないと誤判定されてしまう。何故ならば、図6の(b−1)は、マウスの座標系と携帯電話機の座標系を別々にして、(b)では傾いていた携帯電話機の座標系を傾かないようにしたものであるが、マウスの座標系では時計の2時の方向に動き始める軌跡が、携帯電話機の座標系では時計の5時の方向に動き始める軌跡になっているからである。当然のことながら、この状態のままでは、ステップS307において2つの軌跡は一致しないと判定されてしまい、誤った判定結果を得ることとなる。   On the other hand, in the case of (b), it is erroneously determined that the locus of the mobile phone and the mouse do not match in step S307. This is because (b-1) in FIG. 6 separates the coordinate system of the mouse and the coordinate system of the mobile phone so that the coordinate system of the mobile phone tilted in (b) is not tilted. However, in the coordinate system of the mouse, the locus that starts to move in the 2 o'clock direction of the watch is the locus that starts to move in the 5 o'clock direction of the watch in the coordinate system of the mobile phone. As a matter of course, in this state, it is determined in step S307 that the two loci do not match, and an incorrect determination result is obtained.

そこで、時計の5時の方向に動き始める携帯電話機の軌跡が、時計の2時の方向に動き始める軌跡になるように、携帯電話機の座標系を、原点を中心に点対称になるように回転させることで、この問題を解決する。この回転処理は、「アフィン変換」として広く知られる方法を用いて実現できる。つまり、このステップでは、通話端末X座標212と通話端末Y座標213との値を、「アフィン変換」を用いて変換する処理を行う。   Therefore, rotate the coordinate system of the mobile phone to be point-symmetric about the origin so that the trajectory of the mobile phone that starts to move in the 5 o'clock direction of the watch becomes the trajectory that starts to move in the 2 o'clock direction of the watch. To solve this problem. This rotation processing can be realized using a method widely known as “affine transformation”. That is, in this step, a process of converting the values of the call terminal X coordinate 212 and the call terminal Y coordinate 213 using “affine transformation” is performed.

まず、軌跡比較手段101は、初期傾き224と初期傾き234とを用いて、通話端末A10の座標系を回転させる角度を算出する。次に、軌跡比較手段101は、全ての軌跡210について、通話端末X座標212と通話端末Y座標213との値を「アフィン変換」を用いて変換を行い、変換後の値を通話端末X座標212と通話端末Y座標213とに上書き保存する。   First, the trajectory comparison unit 101 uses the initial inclination 224 and the initial inclination 234 to calculate an angle for rotating the coordinate system of the call terminal A10. Next, the trajectory comparison unit 101 converts the values of the call terminal X coordinate 212 and the call terminal Y coordinate 213 using “affine transformation” for all the trajectories 210, and converts the converted values to the call terminal X coordinates. 212 and the call terminal Y coordinate 213 are overwritten and saved.

軌跡比較手段101は、通話端末A10の軌跡と情報処理端末A20の軌跡とを、時系列上に比較することで、軌跡が一致するか否かを判定する(ステップS307)。図7は、通話端末と情報処理端末との軌跡の時系列上の比較を、模式的に表した説明図である。なお、説明の簡略化のために「サンプリング速度比」=1という前提で説明する。   The trajectory comparison unit 101 determines whether or not the trajectories match by comparing the trajectory of the call terminal A10 and the trajectory of the information processing terminal A20 in time series (step S307). FIG. 7 is an explanatory diagram schematically showing a time-series comparison of the trajectory between the call terminal and the information processing terminal. For simplification of description, the description will be made on the assumption that “sampling speed ratio” = 1.

図7に示すように、点線は、通話端末A10の軌跡であり、実線は、情報処理端末A20の軌跡である。点線上の黒点の座標は、それぞれ(通話端末X座標212.通話端末Y座標213)で与えられる。同様に実線上の黒点の座標は、それぞれ(情報処理端末X座標214.情報処理端末Y座標215)で与えられる。共通の時刻211を持つ(通話端末X座標212.通話端末Y座標213)と(情報処理端末X座標214.情報処理端末Y座標215)とが、直線で結ばれている。ここで、この各直線の長さを「軌跡間距離」と定義する。   As shown in FIG. 7, the dotted line is the locus of the call terminal A10, and the solid line is the locus of the information processing terminal A20. The coordinates of the black dot on the dotted line are given by (call terminal X coordinate 212. call terminal Y coordinate 213), respectively. Similarly, the coordinates of the black point on the solid line are given by (information processing terminal X coordinate 214. information processing terminal Y coordinate 215), respectively. (Call terminal X coordinate 212. Call terminal Y coordinate 213) and (Information processing terminal X coordinate 214. Information processing terminal Y coordinate 215) having a common time 211 are connected by a straight line. Here, the length of each straight line is defined as “distance between tracks”.

まず、軌跡比較手段101は、全ての軌跡210について「軌跡間距離」を算出する。次に、軌跡比較手段101は、軌跡210の総数に対して、「軌跡間距離」が既定の値以内である場合の割合を算出する。そして、軌跡比較手段101は、算出した割合が既定の値を下回るか否かを判定する。   First, the trajectory comparison unit 101 calculates “distance between trajectories” for all the trajectories 210. Next, the trajectory comparison unit 101 calculates a ratio when the “distance between trajectories” is within a predetermined value with respect to the total number of trajectories 210. Then, the trajectory comparison unit 101 determines whether or not the calculated ratio is below a predetermined value.

ここで、例えば、ユーザAとユーザBとの通話端末及びマウスを振動させる操作のタイミングが重なった場合を考えてみる。この場合でも、ペア管理装置が受信する軌跡情報は、ユーザ毎に異なる。そのため、ペア管理装置は、各ユーザの意図通りに、各ユーザがマウスと一緒に保持した通話端末と、そのマウスがつながっている情報処理端末とのペアを組むことができる。   Here, for example, let us consider a case where the timings of operations for vibrating the call terminal and the mouse between the user A and the user B overlap. Even in this case, the trajectory information received by the pair management device is different for each user. Therefore, the pair management device can form a pair of a call terminal held by each user with a mouse and an information processing terminal to which the mouse is connected, as intended by each user.

算出した割合が規定の値を下回る場合には、軌跡比較手段101は、通話端末A10と情報処理端末A20とのペアが成立することを確定する(ステップS308)。軌跡比較手段101は、まず、その旨を両端末に通知する。次に、軌跡比較手段101は、ペア200を新規に生成し、ステップS304において通話端末A10と情報処理端末A20とが送信した識別子を、それぞれ通話端末識別子201と情報処理端末識別子202として保存する。   If the calculated ratio falls below the specified value, the trajectory comparison unit 101 determines that a pair of the call terminal A10 and the information processing terminal A20 is established (step S308). First, the trajectory comparing means 101 notifies both terminals of that fact. Next, the trajectory comparison unit 101 newly generates the pair 200 and stores the identifiers transmitted by the call terminal A10 and the information processing terminal A20 in step S304 as the call terminal identifier 201 and the information processing terminal identifier 202, respectively.

算出した割合が規定の値を下回らない場合には、軌跡比較手段101は、通話端末A10と情報処理端末A20とのペアは成立しないことを確定する(ステップS309)。その後、軌跡比較手段101は、その旨を両端末に通知し、図4に示すように処理は初めに戻る。   If the calculated ratio does not fall below the specified value, the trajectory comparison unit 101 determines that the pair of the call terminal A10 and the information processing terminal A20 is not established (step S309). Thereafter, the trajectory comparing means 101 notifies both terminals of that fact, and the processing returns to the beginning as shown in FIG.

以上のように、本実施形態によれば、ペアリング作業の際にユーザに大きな負担を掛けない、簡単なペアリングを行うことができる。その理由は、ユーザは、自分の通話端末の電話番号などを手入力することは不要で、自分の通話端末を自分の情報処理端末のマウスと一緒に保持して振動させるだけで、ペアリング作業を行えるからである。   As described above, according to the present embodiment, simple pairing can be performed without placing a heavy burden on the user during the pairing operation. The reason is that the user does not need to manually enter the phone number of his / her call terminal, and the user can hold his / her call terminal together with the mouse of his / her information processing terminal and vibrate. It is because it can do.

また、本実施形態によれば、ユーザの意図と異なるペアが組まれることを防止できる、確実なペアリングを行うことができる。その理由は、複数のユーザの通話端末とマウスを振動させる操作のタイミングが重なった場合でも、振動により得られた通話端末とマウスの軌跡情報を、ペア管理装置において比較を行ってペアを組むかどうかを判定することで、ユーザの意図通りに、ユーザがマウスと一緒に保持した通話端末と、そのマウスがつながっている情報処理端末とのペアを組むことができるからである。   Further, according to the present embodiment, it is possible to perform reliable pairing that can prevent a pair different from the user's intention from being formed. The reason is that even if the timing of the operation of vibrating the call terminals and mice of a plurality of users overlaps, the trace information of the call terminals and mouse obtained by vibration is compared in the pair management device to form a pair. This is because determining whether or not makes it possible to form a pair of a call terminal held together with the mouse by the user and an information processing terminal to which the mouse is connected as intended by the user.

さらに、本実施形態によれば、通話端末で撮影される動画像の解像度と情報処理端末の画面の解像度とが、異なっていてもペアが組めるという効果が得られる(ステップS304参照)。   Furthermore, according to the present embodiment, there is an effect that a pair can be assembled even if the resolution of the moving image captured by the call terminal is different from the resolution of the screen of the information processing terminal (see step S304).

さらに、本実施形態によれば、通話端末と情報処理端末との時刻を、あらかじめ同期しておかなくてもペアが組めるという効果が得られる(ステップS304参照)。   Furthermore, according to the present embodiment, there is an effect that a pair can be assembled even if the time between the call terminal and the information processing terminal is not synchronized in advance (see step S304).

さらに、本実施形態によれば、振動開始や振動終了の検出タイミングが、通話端末と情報処理端末とで正確に同期していなかったとしてもペアが組めるという効果が得られる。(ステップS305参照)。   Furthermore, according to this embodiment, even if the detection timing of vibration start and vibration end is not accurately synchronized between the call terminal and the information processing terminal, an effect that a pair can be assembled is obtained. (See step S305).

さらに、本実施形態によれば、動画像分解手段112のサンプリング速度と入力手段121のサンプリング速度とを、あらかじめ一致させておかなくてもペアが組めるという効果が得られる。(ステップS305参照)。   Furthermore, according to the present embodiment, there is an effect that a pair can be assembled even if the sampling rate of the moving image decomposition unit 112 and the sampling rate of the input unit 121 are not matched in advance. (See step S305).

さらに、本実施形態によれば、通話端末と情報処理端末との向きを、ユーザがわざわざ揃えなくてもペアが組めるという効果が得られる。(ステップS306参照)。   Furthermore, according to the present embodiment, there is an effect that a pair can be assembled even if the user does not bother the direction of the call terminal and the information processing terminal. (See step S306).

また、特許文献2に記載の方法には問題点として、無線通信用のハードウェアを備えていない情報処理端末ではペアリングができないため、安価にシステムを実現できないという点がある。その理由は、特許文献2には、テレビとビデオカメラのペアリングについて記載されているが、テレビをPCなどの情報処理端末に、ビデオカメラを携帯電話機などの通話端末に置き換えて考えると、デスクトップPCは、通常は無線通信用のハードウェアを備えていないため、特許文献2に記載された方法を利用すると、デスクトップPCではペアリングができないからである。そのため、デスクトップPCでもペアリングができるようにするには、無線通信用の拡張ボードなどを購入する必要がある。その結果、安価にシステムを実現できなくなってしまう。   In addition, the method described in Patent Document 2 has a problem in that an information processing terminal that does not include wireless communication hardware cannot perform pairing, and thus cannot implement a system at low cost. The reason is described in Patent Document 2 on the pairing of a TV and a video camera. However, when the TV is replaced with an information processing terminal such as a PC and the video camera is replaced with a call terminal such as a mobile phone, the desktop This is because a PC usually does not include hardware for wireless communication, and therefore, using the method described in Patent Document 2, pairing cannot be performed with a desktop PC. Therefore, in order to enable pairing even with a desktop PC, it is necessary to purchase an expansion board for wireless communication. As a result, the system cannot be realized at low cost.

本実施形態によれば、無線通信用のハードウェアを備えていない情報処理端末でもペアリングができ、安価なペアリング方法を提供できることである。情報処理端末は通信のために無線通信用のハードウェアを備える必要はなく、LANなどの有線通信を使って通信することができるからである。   According to the present embodiment, even an information processing terminal that does not include hardware for wireless communication can perform pairing, and an inexpensive pairing method can be provided. This is because the information processing terminal does not need to have wireless communication hardware for communication, and can communicate using wired communication such as a LAN.

次に、本発明の実施例について、図8と図9を用いて説明する。ユーザAが通話端末A10と情報処理端末A20との間でペアリングを行う場合に、どのような画面遷移があるのか、またはどのような操作を行うのかを、図8を用いて説明する。図8は、画面例と操作例を示す説明図である。   Next, an embodiment of the present invention will be described with reference to FIGS. When the user A performs pairing between the call terminal A10 and the information processing terminal A20, what kind of screen transition occurs or what kind of operation is performed will be described with reference to FIG. FIG. 8 is an explanatory diagram showing a screen example and an operation example.

図8(1)は、ステップS300において、ユーザAが通話端末A10と情報処理端末A20を操作して表示したペアリング実行用の画面である。図8(2)は、ステップS301において、ユーザAは通話端末A10と入力手段A121を一緒に左右に振動させる操作を示す。   FIG. 8A is a pairing execution screen displayed by the user A operating the call terminal A10 and the information processing terminal A20 in step S300. FIG. 8 (2) shows an operation in which the user A vibrates the call terminal A10 and the input unit A121 left and right together in step S301.

図8(3)は、ステップS304において、処理中である旨のメッセージが表示された画面である。図8(4)は、ステップS308において、ペアが成立した旨のメッセージが表示された画面である。   FIG. 8 (3) is a screen on which a message indicating that processing is in progress is displayed in step S304. FIG. 8 (4) is a screen on which a message indicating that a pair has been established is displayed in step S308.

図9は、マウス以外の入力手段を備えた情報処理端末のペアリングの仕方を示す説明図である。図9(5)に示すように、ノートPCなどのタッチパッドを備える情報処理端末と、通話端末とをペアリングする際には、通話端末を手で握りながら、同じ手の親指や中指などでタッチパッドを操作すればよい。図9(6)に示すように、PDAやスマートフォンや街頭マルチメディア端末などのタッチパネル式ディスプレイ装置を備える情報処理端末と、通話端末とをペアリングする際には、通話端末を手で握りながら、同じ手の親指や中指などでタッチパネル式ディスプレイ装置を操作すればよい。   FIG. 9 is an explanatory diagram showing how to pair an information processing terminal having input means other than a mouse. As shown in FIG. 9 (5), when pairing an information processing terminal equipped with a touch pad such as a notebook PC and a call terminal, hold the call terminal with the hand and use the thumb or middle finger of the same hand. The touchpad can be operated. As shown in FIG. 9 (6), when pairing an information processing terminal equipped with a touch panel display device such as a PDA, a smartphone, or a street multimedia terminal with a call terminal, while holding the call terminal by hand, The touch panel display device may be operated with the thumb or middle finger of the same hand.

次に、本発明によるカメラ利用ペアリングシステムの最小構成について説明する。図10は、カメラ利用ペアリングシステムの最小の構成例を示すブロック図である。図10に示すように、カメラ利用ペアリングシステムは、最小の構成要素として、カメラを搭載した第1の端末10と、第2の端末20と、ペア管理装置100とを含む。また、第1の端末10は、第1端末用軌跡算出手段A114を含み、第2の端末20は、第2端末用軌跡算出手段A124とを含み、ペア管理装置100は、軌跡比較手段101とを含む。   Next, the minimum configuration of the camera-based pairing system according to the present invention will be described. FIG. 10 is a block diagram illustrating a minimum configuration example of the camera-based pairing system. As shown in FIG. 10, the camera-based pairing system includes a first terminal 10 equipped with a camera, a second terminal 20, and a pair management device 100 as the minimum components. The first terminal 10 includes a first terminal trajectory calculation unit A114, the second terminal 20 includes a second terminal trajectory calculation unit A124, and the pair management apparatus 100 includes a trajectory comparison unit 101 and including.

図10に示す最小構成のカメラ利用ペアリングシステムにおいて、第1端末用軌跡算出手段A114は、第1の端末10がユーザによって移動されたときに、カメラが撮影した画像に基づいて第1の端末10が移動した軌跡を示す軌跡情報を算出する機能を備えている。また、第2端末用軌跡算出手段A124は、第1の端末10の移動に連動してユーザによって第2の端末20からの入力操作が行われたときに、第2の端末20における入力座標の軌跡を示す軌跡情報を算出する機能を備えている。また、軌跡比較手段101は、第1端末用軌跡算出手段が算出した軌跡情報と、第2端末用軌跡算出手段が算出した軌跡情報とを比較することによって、第1の端末10と第2の端末20とをペアリングするか否かを判定する機能を備えている。   In the camera-based pairing system with the minimum configuration shown in FIG. 10, the first terminal trajectory calculating means A114 is based on the image captured by the camera when the first terminal 10 is moved by the user. 10 has a function of calculating trajectory information indicating the trajectory moved. Further, the second terminal trajectory calculating means A124 calculates the input coordinates of the second terminal 20 when the user performs an input operation from the second terminal 20 in conjunction with the movement of the first terminal 10. A function of calculating trajectory information indicating the trajectory is provided. In addition, the trajectory comparison unit 101 compares the trajectory information calculated by the first terminal trajectory calculation unit with the trajectory information calculated by the second terminal trajectory calculation unit, so that the first terminal 10 and the second terminal 10 A function of determining whether to pair with the terminal 20 is provided.

図10に示す最小構成のカメラ利用ペアリング方法によれば、ペア管理装置100は、第1の端末10から受信した軌跡情報と、第2の端末20から受信した軌跡情報とを比較し、2つの軌跡情報が近いと判定すると、第1の端末10と第2の端末20とのペアを成立させる。そのため、番号を入力するなど、ユーザに負担をかけることなく、簡単にペアリングを行うことができる。また、例えば、複数のユーザの振動させる操作のタイミングが重なった場合でも、ペア管理装置100が受信する軌跡情報は、ユーザ毎に異なる。そのため、ユーザの意図通りに、確実に第1の端末10と第2の端末20とのペアリングを行うことができる。   10, the pair management apparatus 100 compares the trajectory information received from the first terminal 10 with the trajectory information received from the second terminal 20, and compares the trajectory information received from the second terminal 20. If it is determined that the two pieces of trajectory information are close, a pair of the first terminal 10 and the second terminal 20 is established. Therefore, pairing can be easily performed without burdening the user such as inputting a number. In addition, for example, even when the timings of operations for vibration of a plurality of users overlap, the trajectory information received by the pair management apparatus 100 differs for each user. Therefore, the first terminal 10 and the second terminal 20 can be reliably paired as intended by the user.

なお、上記の実施形態及び実施例では、以下の(1)〜(7)に示すようなカメラ利用ペアリング方法の特徴的構成が示されている。   In addition, in said embodiment and Example, the characteristic structure of the camera utilization pairing method as shown to the following (1)-(7) is shown.

(1)カメラ利用ペアリング方法は、カメラ(例えば、撮影手段A111によって実現される)を搭載した第1の端末(例えば、通話端末A10によって実現される)がユーザによって移動されたときに、カメラが撮影した画像に基づいて当該第1の端末が移動した軌跡を示す軌跡情報(例えば、軌跡220)を算出する第1端末用軌跡算出ステップ(例えば、軌跡算出手段A114によって実現される)と、第1の端末の移動に連動してユーザによって第2の端末(例えば、情報処理端末A20によって実現される)からの入力操作が行われたときに、当該第2の端末における入力座標の軌跡を示す軌跡情報(例えば、軌跡230)を算出する第2端末用軌跡算出ステップ(例えば、軌跡算出手段A124によって実現される)と、第1端末用軌跡算出手段が算出した軌跡情報と、第2端末用軌跡算出手段が算出した軌跡情報とを比較することによって、第1の端末と第2の端末とをペアリングするか否かを判定するペアリング判定ステップ(例えば、軌跡比較手段101によって実現される)とを含むことを特徴とする。 (1) The camera-based pairing method is performed when the first terminal (for example, realized by the call terminal A10) equipped with a camera (for example, realized by the photographing unit A111) is moved by the user. A first terminal trajectory calculating step (for example, realized by the trajectory calculating means A114) for calculating trajectory information (eg, trajectory 220) indicating the trajectory of the movement of the first terminal based on the image taken by When an input operation from the second terminal (for example, realized by the information processing terminal A20) is performed by the user in conjunction with the movement of the first terminal, the locus of the input coordinates on the second terminal is A second terminal trajectory calculating step (for example, realized by the trajectory calculating means A124) for calculating the trajectory information (for example, the trajectory 230), and a first end By comparing the trajectory information calculated by the trajectory calculation means for use with the trajectory information calculated by the trajectory calculation means for the second terminal, it is determined whether to pair the first terminal and the second terminal. And a pairing determination step (for example, realized by the trajectory comparison means 101).

(2)カメラ利用ペアリング方法において、第1端末用軌跡算出ステップで、第1の端末が移動した移動位置(例えば、X座標222及びY座標223)と当該第1の端末が当該移動位置に移動した時刻(例えば、時刻221)とを対応付けて含む軌跡情報を算出し、第2端末用軌跡算出ステップで、第2の端末が移動した移動位置(例えば、X座標232及びY座標233)と当該第2の端末が当該移動位置に移動した時刻(例えば、時刻231)とを対応付けて含む軌跡情報を算出し、ペアリング判定ステップで、同時刻における第1端末用軌跡算出手段が算出した軌跡情報に含まれる移動位置と第2端末用軌跡算出手段が算出した軌跡情報に含まれる移動位置との差が、所定距離以内であると判定したときに、第1の端末と第2の端末とをペアリングすると判定するように構成されていてもよい。 (2) In the camera-based pairing method, in the first terminal trajectory calculation step, the movement position (for example, the X coordinate 222 and the Y coordinate 223) to which the first terminal has moved and the first terminal at the movement position. Trajectory information including the time of movement (for example, time 221) is calculated, and the movement position (for example, X coordinate 232 and Y coordinate 233) to which the second terminal has moved in the second terminal trajectory calculation step. And the time when the second terminal moves to the moving position (for example, time 231) in association with each other is calculated, and in the pairing determination step, the first terminal trajectory calculating means calculates at the same time. When it is determined that the difference between the movement position included in the trajectory information and the movement position included in the trajectory information calculated by the second terminal trajectory calculation means is within a predetermined distance, the first terminal and the second terminal Terminal The may be configured to determine that the pairing.

(3)カメラ利用ペアリング方法は、第1の端末と第2の端末とでペアリング実行画面を表示して第1の端末と第2の端末の入力手段とを一緒に保持し、第1の端末と入力手段とを振動させる操作に基づいて、前記第1の端末と前記第2の端末とのペアリングを行うカメラ利用ペアリング方法であって、第1の端末と入力手段との振動操作開始を検出し、第1の端末と第2の端末とでの初期傾きを算出し、軌跡情報の保存を開始する振動監視ステップ(例えば、振動監視手段A115によって実現される)と、第1の端末と入力手段とを振動させる操作が終了されると、第1の端末と入力手段との振動操作終了を検出し(例えば、振動監視手段A115によって実現される)、保存済みの軌跡情報のX座標とY座標とを正規化し、第1の端末が搭載する時計とペア管理装置が搭載する時計との時差を算出し、算出した時差に基づいて軌跡情報の保存時刻をペア管理装置が搭載する時計での時刻に変換し(例えば、時刻補正手段A116によって実現される)、初期傾き(例えば、初期傾き224)と軌跡情報とをペア管理装置に送信する送信ステップと、受信した軌跡情報に基づいて、振動開始時刻の差と振動終了時刻の差とが共に既定値以内か判定する時刻差判定ステップ(例えば、軌跡比較手段101によって実現される)と、初期傾きを用いて第1の端末の座標系を回転する座標系回転ステップ(例えば、軌跡比較手段101によって実現される)と、第1の端末と第2の端末との軌跡情報が一致するか否かを判定することで、第1の端末と第2の端末とのペアを成立させるか否かを判定するペア判定ステップ(例えば、軌跡比較手段101によって実現される)とを含むことを特徴とする。 (3) In the camera-based pairing method, the first terminal and the second terminal display a pairing execution screen and hold the input means of the first terminal and the second terminal together. A pairing method using a camera for performing pairing between the first terminal and the second terminal based on an operation of vibrating the terminal and the input means, wherein the vibration between the first terminal and the input means A vibration monitoring step (for example, realized by the vibration monitoring means A115) that detects the start of operation, calculates an initial inclination between the first terminal and the second terminal, and starts storing the trajectory information; When the operation of vibrating the terminal and the input unit is finished, the end of the vibration operation between the first terminal and the input unit is detected (for example, realized by the vibration monitoring unit A115), and the stored trajectory information Normalize the X coordinate and the Y coordinate, and the first terminal The time difference between the clock mounted and the clock mounted on the pair management device is calculated, and the storage time of the trajectory information is converted into the time on the clock mounted on the pair management device based on the calculated time difference (for example, time correction means A116). The transmission step of transmitting the initial inclination (for example, the initial inclination 224) and the trajectory information to the pair management device, and the difference between the vibration start time and the vibration end time based on the received trajectory information. A time difference determination step (for example, realized by the locus comparison means 101) for determining whether or not both are within a predetermined value, and a coordinate system rotation step (for example, locus comparison) for rotating the coordinate system of the first terminal using the initial inclination. And a pair of the first terminal and the second terminal is established by determining whether or not the trajectory information of the first terminal and the second terminal matches. Pair determination step of determining whether (e.g., as implemented by the trajectory comparing means 101), characterized in that it comprises a.

(4)カメラ利用ペアリング方法において、第1の端末の軌跡情報と第2の端末の軌跡情報とは、保存時刻とX−Y平面上の点との組が一連に連なった形でそれぞれ構成され、ペア判定ステップで、一連の点について、共通の保存時刻を持つ第1の端末の点と第2の端末の点との距離(例えば、軌跡間距離)を算出し、組の総数に対して距離が既定値以内である場合の割合を算出し、算出した割合が既定値を下回る場合には第1の端末と第2の端末とのペアを成立させると判定し、上回る場合にはペアを成立させないと判定するように構成されていてもよい。 (4) In the camera-based pairing method, the trajectory information of the first terminal and the trajectory information of the second terminal are respectively configured in a form in which pairs of storage times and points on the XY plane are connected in series. In the pair determination step, for a series of points, the distance between the first terminal point and the second terminal point having a common storage time (for example, the distance between the trajectories) is calculated, and the total number of sets If the calculated distance is below the default value, it is determined that a pair of the first terminal and the second terminal is established. It may be configured to determine that is not established.

(5)カメラ利用ペアリング方法において、座標系回転ステップで、第1の端末と第2の端末とのX−Y平面の座標系において、X−Y平面の原点を通り傾きが第1の端末の初期傾きの値で表現される直線と、X−Y平面の原点を通り傾きが第2の端末の初期傾きの値で表現される直線とについて、一方の直線を、原点を中心に点対称になるように回転することで他方の直線に一致するために必要な角度を算出し、一方の座標系を、原点を中心に点対称になるように角度だけ回転させるように構成されていてもよい。 (5) In the camera-based pairing method, in the coordinate system rotation step, in the coordinate system of the XY plane between the first terminal and the second terminal, the inclination of the first terminal passes through the origin of the XY plane. For a straight line expressed by the initial inclination value of the line and a straight line passing through the origin of the XY plane and whose inclination is expressed by the initial inclination value of the second terminal, one of the straight lines is point-symmetric about the origin Even if it is configured to calculate the angle required to match the other straight line by rotating so that one coordinate system is point-symmetric about the origin Good.

(6)カメラ利用ペアリング方法において、第1の端末の軌跡情報と第2の端末の軌跡情報とは、保存時刻とX−Y平面上の点との組が一連に連なった形でそれぞれ構成され、時刻差判定ステップで、第1の端末の軌跡情報を構成する組と第2の端末の軌跡情報を構成する組との個数を計数し、(個数が多い方)÷(個数が少ない方)の値を計算して小数点以下を切り捨て、この値をサンプリング速度比とし、共通の保存時刻を持つ第1の端末の点と第2の端末の点との距離を算出する際に、第1の端末と第2の端末のうち、軌跡情報を構成する組の個数が少ない方の端末の軌跡情報の点を保存時刻が古い順に1つ抽出し、個数が多い方の端末の軌跡情報の点を保存時刻が古い順にサンプリング速度比の値で示される個数だけ取り出し、個数が少ない方から取り出した1点と、個数が多い方から取り出した点との間の距離を求めるという処理を、保存時刻が古い順に繰り返すように構成されていてもよい。 (6) In the camera-based pairing method, the trajectory information of the first terminal and the trajectory information of the second terminal are each configured in a form in which pairs of storage times and points on the XY plane are connected in series. In the time difference determination step, the number of pairs constituting the trajectory information of the first terminal and the pair constituting the trajectory information of the second terminal is counted, and (the larger number) / (the smaller number) ), The value after the decimal point is rounded down, this value is used as the sampling rate ratio, and when calculating the distance between the first terminal point and the second terminal point having a common storage time, From the terminal of the second terminal and the second terminal, the point of the locus information of the terminal having the larger number is extracted by extracting one point of the locus information of the terminal having the smaller number of pairs constituting the locus information in order of the oldest storage time. Are taken out by the number indicated by the sampling rate ratio from the oldest storage time. 1 and point extracted from the lesser, the process of obtaining the distance between the points extracted from the side number is large, the retention time may be configured to repeat the oldest.

(7)カメラ利用ペアリング方法において、時刻差判定ステップで、第1の端末の軌跡情報と第2の端末の軌跡情報とのうち、それぞれの保存時刻が重複している部分だけを抽出し、ペア判定ステップで、抽出した第1の端末の軌跡情報と第2の端末の軌跡情報とに基づいて、第1の端末と第2の端末との軌跡情報が一致するか否かを判定するように構成されていてもよい。 (7) In the camera-based pairing method, in the time difference determination step, only the portion where the respective storage times overlap is extracted from the trajectory information of the first terminal and the trajectory information of the second terminal, In the pair determination step, it is determined whether or not the trajectory information between the first terminal and the second terminal matches based on the extracted trajectory information of the first terminal and the trajectory information of the second terminal. It may be configured.

本発明によれば、手元にある通話端末と情報処理端末とをアドホックにペアリングできるので、企業内ネットワークのSI事業者や、通信事業者、ISP事業者向けに、音声通話のみの電話サービスに対する付加価値サービスを創出することができる。   According to the present invention, since a call terminal and an information processing terminal at hand can be paired ad hoc, it is possible to provide a telephone service only for voice calls for SI carriers, communication carriers, and ISP carriers in a corporate network. Value-added services can be created.

本発明の実施形態におけるネットワーク構成の一例を示すブロック図である。It is a block diagram which shows an example of the network structure in embodiment of this invention. カメラ利用ペアリング方法の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the camera utilization pairing method. 本発明の実施形態におけるデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure in embodiment of this invention. カメラ利用ペアリング方法の処理の一例を示すフロー図である。It is a flowchart which shows an example of a process of a camera utilization pairing method. 座標系の回転が必要な理由を説明するための図(その1)である。It is FIG. (1) for demonstrating the reason why rotation of a coordinate system is required. 座標系の回転が必要な理由を説明するための図(その2)である。FIG. 6 is a diagram (part 2) for explaining the reason why the rotation of the coordinate system is necessary. 通話端末と情報処理端末との軌跡の時系列上の比較を、模式的に表した説明図である。It is explanatory drawing which represented typically the comparison on the time series of the locus | trajectory of a telephone call terminal and an information processing terminal. 画面例と操作例を示す説明図である。It is explanatory drawing which shows the example of a screen, and the example of operation. マウス以外の入力手段を備えた情報処理端末のペアリングの仕方を示す説明図である。It is explanatory drawing which shows the method of pairing of the information processing terminal provided with input means other than a mouse | mouth. カメラ利用ペアリング方法の最小の構成例を示すブロック図である。It is a block diagram which shows the example of the minimum structure of the camera utilization pairing method.

符号の説明Explanation of symbols

10 通話端末A
11 通話端末B
20 情報処理端末A
21 情報処理端末B
100 ペア管理装置
101 軌跡比較手段
102 ペア記憶手段
103 軌跡記憶手段
200 ペア
201 通話端末識別子
202 情報処理端末識別子
210,220,230 軌跡
211,221,231 時刻
212 通話端末X座標
213 通話端末Y座標
214 情報処理端末X座標
215 情報処理端末Y座標
222,232 X座標
223,233 Y座標
224,234 初期傾き
A111,B111 撮影手段
A112,B112 動画像分解手段
A113,B113 静止画像差分検出手段
A114,A124,B114,B124 軌跡算出手段
A115,A125,B115,B125 振動監視手段
A116,A126,B116,B126 時刻補正手段
A117,A127,B117,B127 軌跡記憶手段
A121,B121 入力手段
10 Call terminal A
11 Call terminal B
20 Information processing terminal A
21 Information processing terminal B
DESCRIPTION OF SYMBOLS 100 Pair management apparatus 101 Trajectory comparison means 102 Pair storage means 103 Trajectory storage means 200 Pair 201 Calling terminal identifier 202 Information processing terminal identifier 210, 220, 230 Trajectory 211, 221, 231 Time 212 Calling terminal X coordinate 213 Calling terminal Y coordinate 214 Information processing terminal X-coordinate 215 Information processing terminal Y-coordinate 222,232 X-coordinate 223,233 Y-coordinate 224,234 Initial inclination A111, B111 Imaging means A112, B112 Moving image decomposition means A113, B113 Still image difference detection means A114, A124, B114, B124 Trajectory calculation means A115, A125, B115, B125 Vibration monitoring means A116, A126, B116, B126 Time correction means A117, A127, B117, B127 Trajectory storage means A121, B 121 Input means

Claims (14)

カメラを搭載した第1の端末と、
第2の端末とを備え、
前記第1の端末は、当該第1の端末がユーザによって移動されたときに、前記カメラが撮影した画像に基づいて当該第1の端末が移動した軌跡を示す軌跡情報を算出する第1端末用軌跡算出手段を含み、
前記第2の端末は、前記第1の端末の移動に連動してユーザによって当該第2の端末からの入力操作が行われたときに、当該第2の端末における入力座標の軌跡を示す軌跡情報を算出する第2端末用軌跡算出手段を含み、
前記第1端末用軌跡算出手段が算出した軌跡情報と、前記第2端末用軌跡算出手段が算出した軌跡情報とを比較することによって、前記第1の端末と前記第2の端末とをペアリングするか否かを判定するペアリング判定手段をさらに備えた
ことを特徴とするカメラ利用ペアリングシステム。
A first terminal equipped with a camera;
A second terminal,
For the first terminal, the first terminal calculates trajectory information indicating a trajectory of movement of the first terminal based on an image captured by the camera when the first terminal is moved by a user. Including a trajectory calculating means,
The second terminal is trajectory information indicating a trajectory of input coordinates in the second terminal when an input operation from the second terminal is performed by the user in conjunction with the movement of the first terminal. Including a second terminal trajectory calculating means for calculating
The first terminal and the second terminal are paired by comparing the trajectory information calculated by the first terminal trajectory calculating means with the trajectory information calculated by the second terminal trajectory calculating means. A camera-based pairing system, further comprising pairing determination means for determining whether or not to perform.
第1端末用軌跡算出手段は、第1の端末が移動した移動位置と当該第1の端末が当該移動位置に移動した時刻とを対応付けて含む軌跡情報を算出し、
第2端末用軌跡算出手段は、第2の端末が移動した移動位置と当該第2の端末が当該移動位置に移動した時刻とを対応付けて含む軌跡情報を算出し、
ペアリング判定手段は、同時刻における前記第1端末用軌跡算出手段が算出した軌跡情報に含まれる移動位置と前記第2端末用軌跡算出手段が算出した軌跡情報に含まれる移動位置との差が、所定距離以内であると判定したときに、前記第1の端末と前記第2の端末とをペアリングすると判定する
請求項1記載のカメラ利用ペアリングシステム。
The first terminal trajectory calculating means calculates trajectory information including the movement position at which the first terminal has moved and the time at which the first terminal has moved to the movement position in association with each other,
The second terminal trajectory calculating means calculates trajectory information that includes the movement position at which the second terminal has moved and the time at which the second terminal has moved to the movement position in association with each other,
The pairing determination means determines a difference between the movement position included in the locus information calculated by the first terminal locus calculation means and the movement position included in the locus information calculated by the second terminal locus calculation means at the same time. The camera-based pairing system according to claim 1, wherein when it is determined that the distance is within a predetermined distance, it is determined that the first terminal and the second terminal are paired.
第1の端末と、
第2の端末と、
第1の端末と第2の端末とのペアリングを管理するペア管理装置とを備え、
前記ペア管理装置は、
前記第1の端末と前記第2の端末とから受信した軌跡情報を比較することで前記第1の端末と前記第2の端末とのペアを組むか否かを判定する軌跡比較手段と、
ペアの情報を記憶するペア記憶手段と、
前記第1の端末と前記第2の端末との軌跡情報を記憶する軌跡記憶手段とを含み、
前記第1の端末は、
動画像を撮影可能なカメラである撮影手段と、
動画像から一連の複数の静止画像を抽出する動画像分解手段と、
前記一連の複数の静止画像から前記撮影手段の物理的な移動方向と移動距離とを算出する静止画像差分検出手段と、
前記静止画像の横方向をX軸とし、縦方向をY軸としたX−Y平面上において前記撮影手段の物理的な移動の軌跡情報を算出する軌跡算出手段と、
前記軌跡情報を監視してユーザによる前記撮影手段に対する振動操作開始と振動操作終了とを検出する振動監視手段と、
前記ペア管理装置が搭載する時計と当該第1の端末が搭載する時計との時差を算出し、算出した前記時差に基づいて前記軌跡情報の保存時刻を前記ペア管理装置が搭載する時計における時刻に変換する時刻補正手段と、
前記第1の端末の軌跡情報と、ユーザによる前記撮影手段に対する振動操作開始時に撮影手段がX−Y平面上のどの方向に動き始めたかを示す初期傾きとを記憶する第1端末用軌跡記憶手段とを含み、
前記第2の端末は、
2次元座標入力デバイスである入力手段と、
前記第2の端末の画面の横方向をX軸とし、縦方向をY軸としたX−Y平面上において入力手段により入力された2次元座標の移動の軌跡情報を算出する第2端末用軌跡算出手段と、
前記軌跡情報を監視してユーザによる前記入力手段に対する振動操作開始と振動操作終了とを検出する第2端末用振動監視手段と、
前記ペア管理装置が搭載する時計と当該第2の端末が搭載する時計との時差を算出し、算出した前記時差に基づいて前記軌跡情報の保存時刻を前記ペア管理装置が搭載する時計における時刻に変換する第2端末用時刻補正手段と、
前記第2の端末の軌跡情報と、ユーザによる前記入力手段に対する振動操作開始時に入力された2次元座標がX−Y平面上のどの方向に動き始めたかを示す初期傾きとを記憶する第2端末用軌跡記憶手段とを含む
ことを特徴とするカメラ利用ペアリングシステム。
A first terminal;
A second terminal;
A pair management device that manages pairing between the first terminal and the second terminal;
The pair management device
A trajectory comparison means for determining whether or not to pair the first terminal and the second terminal by comparing trajectory information received from the first terminal and the second terminal;
Pair storage means for storing pair information;
Trajectory storage means for storing trajectory information between the first terminal and the second terminal,
The first terminal is
Photographing means which is a camera capable of photographing moving images;
Moving image decomposition means for extracting a series of still images from the moving image;
A still image difference detection means for calculating a physical movement direction and a movement distance of the photographing means from the series of still images;
Trajectory calculating means for calculating trajectory information of physical movement of the photographing means on the XY plane with the horizontal direction of the still image as the X axis and the vertical direction as the Y axis;
Vibration monitoring means for monitoring the trajectory information and detecting a vibration operation start and vibration operation end for the photographing means by a user;
The time difference between the clock mounted on the pair management device and the clock mounted on the first terminal is calculated, and the storage time of the trajectory information is set to the time on the clock mounted on the pair management device based on the calculated time difference. Time correction means for conversion;
Trajectory storage means for the first terminal that stores trajectory information of the first terminal and an initial inclination indicating in which direction on the XY plane the photographing means starts when the user starts a vibration operation on the photographing means. Including
The second terminal is
Input means which is a two-dimensional coordinate input device;
A trajectory for a second terminal that calculates trajectory information of the movement of a two-dimensional coordinate input by an input unit on an XY plane with the horizontal direction of the screen of the second terminal as the X axis and the vertical direction as the Y axis. A calculation means;
Vibration monitoring means for a second terminal for monitoring the trajectory information and detecting a vibration operation start and vibration operation end for the input means by a user;
The time difference between the clock mounted on the pair management device and the clock mounted on the second terminal is calculated, and the storage time of the trajectory information is set to the time on the clock mounted on the pair management device based on the calculated time difference. Second terminal time correction means for conversion;
A second terminal that stores trajectory information of the second terminal and an initial inclination indicating in which direction on the XY plane the two-dimensional coordinates input when the user starts a vibration operation on the input means. A camera-use pairing system comprising: a trajectory storage means.
カメラを搭載した第1の端末がユーザによって移動されたときに、前記カメラが撮影した画像に基づいて当該第1の端末が移動した軌跡を示す軌跡情報を算出する第1端末用軌跡算出ステップと、
前記第1の端末の移動に連動してユーザによって第2の端末からの入力操作が行われたときに、当該第2の端末における入力座標の軌跡を示す軌跡情報を算出する第2端末用軌跡算出ステップと、
前記第1端末用軌跡算出ステップで算出した軌跡情報と、前記第2端末用軌跡算出ステップで算出した軌跡情報とを比較することによって、前記第1の端末と前記第2の端末とをペアリングするか否かを判定するペアリング判定ステップとを
含むことを特徴とするカメラ利用ペアリング方法。
A first terminal trajectory calculating step of calculating trajectory information indicating a trajectory of the movement of the first terminal based on an image captured by the camera when the first terminal equipped with the camera is moved by the user; ,
A trajectory for a second terminal that calculates trajectory information indicating a trajectory of input coordinates in the second terminal when a user performs an input operation from the second terminal in conjunction with the movement of the first terminal. A calculation step;
Pairing the first terminal and the second terminal by comparing the trajectory information calculated in the first terminal trajectory calculation step with the trajectory information calculated in the second terminal trajectory calculation step. A pairing determination step for determining whether or not to perform the camera-based pairing method.
第1端末用軌跡算出ステップで、第1の端末が移動した移動位置と当該第1の端末が当該移動位置に移動した時刻とを対応付けて含む軌跡情報を算出し、
第2端末用軌跡算出ステップで、第2の端末が移動した移動位置と当該第2の端末が当該移動位置に移動した時刻とを対応付けて含む軌跡情報を算出し、
ペアリング判定ステップで、同時刻における前記第1端末用軌跡算出ステップで算出した軌跡情報に含まれる移動位置と前記第2端末用軌跡算出ステップで算出した軌跡情報に含まれる移動位置との差が、所定距離以内であると判定したときに、前記第1の端末と前記第2の端末とをペアリングすると判定する
請求項4記載のカメラ利用ペアリング方法。
In the first terminal trajectory calculation step, trajectory information including the movement position at which the first terminal has moved and the time at which the first terminal has moved to the movement position in association with each other is calculated,
In the second terminal trajectory calculation step, trajectory information including the movement position at which the second terminal has moved and the time at which the second terminal has moved to the movement position in association with each other is calculated,
Pairing determination step, the difference between the movement position included in the path information calculated by the second terminal for locus calculation step with the movement position included in the first calculated trajectory information terminal for locus calculation step at the same time The camera-based pairing method according to claim 4, wherein when it is determined that the distance is within a predetermined distance, the first terminal and the second terminal are determined to be paired.
第1の端末と第2の端末とでペアリング実行画面を表示して前記第1の端末と前記第2の端末の入力手段とを一緒に保持し、前記第1の端末と前記入力手段とを振動させる操作に基づいて、カメラを搭載した前記第1の端末がユーザによって移動されたときに、前記カメラが撮影した画像に基づいて前記第1の端末が移動した軌跡を示す軌跡情報を算出し、前記第1の端末と前記第2の端末とのペアリングを行うカメラ利用ペアリング方法であって、
前記第1の端末と前記入力手段との振動操作開始を検出し、前記第1の端末と前記第2の端末とでの初期傾きを算出し、前記軌跡情報の保存を開始する振動監視ステップと、
前記第1の端末と前記入力手段とを振動させる操作が終了されると前記第1の端末と前記入力手段との振動操作終了を検出し、保存済みの前記軌跡情報のX座標とY座標とを正規化し、第1の端末が搭載する時計とペア管理装置が搭載する時計との時差を算出し、算出した前記時差に基づいて前記軌跡情報の保存時刻をペア管理装置が搭載する時計での時刻に変換し、初期傾きと軌跡情報とをペア管理装置に送信する送信ステップと、
受信した前記軌跡情報に基づいて、振動開始時刻の差と振動終了時刻の差とが共に既定値以内か判定する時刻差判定ステップと、
前記初期傾きを用いて前記第1の端末の座標系を回転する座標系回転ステップと、
前記第1の端末と前記第2の端末との前記軌跡情報が一致するか否かを判定することで、前記第1の端末と前記第2の端末とのペアを成立させるか否かを判定するペア判定ステップとを
含むことを特徴とするカメラ利用ペアリング方法。
A pairing execution screen is displayed on the first terminal and the second terminal to hold together the input means of the first terminal and the second terminal, and the first terminal and the input means Based on the operation of vibrating the first terminal, when the first terminal equipped with the camera is moved by the user, the trajectory information indicating the trajectory that the first terminal has moved is calculated based on the image captured by the camera. And a camera-based pairing method for performing pairing between the first terminal and the second terminal,
Detecting the vibration operation start of the first terminal and the input means, to calculate the initial slope at said first terminal and said second terminal, and vibration monitoring initiating storage of the trace information ,
When the operation to vibrate the first terminal and the input unit is completed, the end of the vibration operation between the first terminal and the input unit is detected, and the stored X and Y coordinates of the trajectory information The time difference between the clock mounted on the first terminal and the clock mounted on the pair management apparatus is calculated, and the storage time of the trajectory information is calculated based on the calculated time difference on the clock mounted on the pair management apparatus. A transmission step for converting to time and transmitting the initial inclination and trajectory information to the pair management device;
Based on the received trajectory information, a time difference determination step for determining whether both the difference in vibration start time and the difference in vibration end time are within a predetermined value;
A coordinate system rotation step of rotating the coordinate system of the first terminal using the initial inclination;
It is determined whether or not the pair of the first terminal and the second terminal is established by determining whether or not the trajectory information of the first terminal and the second terminal matches. A pair determination method using a camera.
前記第1の端末の軌跡情報と前記第2の端末の軌跡情報とは、保存時刻とX−Y平面上の点との組が一連に連なった形でそれぞれ構成され、
前記ペア判定ステップで、一連の点について、共通の保存時刻を持つ前記第1の端末の点と前記第2の端末の点との距離を算出し、組の総数に対して距離が既定値以内である場合の割合を算出し、算出した割合が既定値を下回る場合には前記第1の端末と前記第2の端末とのペアを成立させると判定し、上回る場合にはペアを成立させないと判定する
請求項6記載のカメラ利用ペアリング方法。
The trajectory information of the first terminal and the trajectory information of the second terminal are respectively configured in a form in which a set of a storage time and a point on the XY plane is continuous.
In the pair determination step, the distance between the point of the first terminal having a common storage time and the point of the second terminal is calculated for a series of points, and the distance is within a predetermined value with respect to the total number of sets If the calculated ratio is lower than the predetermined value, it is determined that the pair of the first terminal and the second terminal is established, and if it is higher, the pair is not established. The camera-use pairing method according to claim 6.
座標系回転ステップで、第1の端末と第2の端末とのX−Y平面の座標系において、X−Y平面の原点を通り傾きが第1の端末の初期傾きの値で表現される直線と、X−Y平面の原点を通り傾きが第2の端末の初期傾きの値で表現される直線とについて、一方の直線を、原点を中心に点対称になるように回転することで他方の直線に一致するために必要な角度を算出し、一方の座標系を、原点を中心に点対称になるように前記角度だけ回転させる
請求項6又は請求項7記載のカメラ利用ペアリング方法。
In the coordinate system rotation step, in the coordinate system of the XY plane between the first terminal and the second terminal, a straight line that passes through the origin of the XY plane and is represented by the initial tilt value of the first terminal. And a straight line that passes through the origin of the XY plane and whose slope is represented by the initial slope value of the second terminal, the other straight line is rotated so that it is point-symmetric about the origin. 8. The camera-based pairing method according to claim 6, wherein an angle required to match the straight line is calculated, and one coordinate system is rotated by the angle so as to be point-symmetric about the origin.
前記第1の端末の軌跡情報と前記第2の端末の軌跡情報とは、保存時刻とX−Y平面上の点との組が一連に連なった形でそれぞれ構成され、
前記時刻差判定ステップで、前記第1の端末の軌跡情報を構成する組と前記第2の端末の軌跡情報を構成する組との個数を計数し、(個数が多い方)÷(個数が少ない方)の値を計算して小数点以下を切り捨て、この値をサンプリング速度比とし、共通の保存時刻を持つ前記第1の端末の点と前記第2の端末の点との距離を算出する際に、前記第1の端末と前記第2の端末のうち、軌跡情報を構成する組の個数が少ない方の端末の軌跡情報の点を保存時刻が古い順に1つ抽出し、個数が多い方の端末の軌跡情報の点を保存時刻が古い順にサンプリング速度比の値で示される個数だけ取り出し、個数が少ない方から取り出した1点と、個数が多い方から取り出した点との間の距離を求めるという処理を、保存時刻が古い順に繰り返す
請求項6から請求項8のうちいずれか1項に記載のカメラ利用ペアリング方法。
The trajectory information of the first terminal and the trajectory information of the second terminal are respectively configured in a form in which a set of a storage time and a point on the XY plane is continuous.
In the time difference determination step, the number of pairs constituting the trajectory information of the first terminal and the pair constituting the trajectory information of the second terminal is counted, and (the larger number) / (the smaller number) When calculating the distance between the first terminal point and the second terminal point having a common storage time, the fractional part is rounded down and this value is used as the sampling rate ratio. Among the first terminal and the second terminal, one point of the locus information of the terminal having the smaller number of sets constituting the locus information is extracted in order from the oldest storage time, and the terminal having the larger number The number of points of the trajectory information is extracted by the number indicated by the value of the sampling rate in order from the oldest storage time, and the distance between the point extracted from the smaller number and the point extracted from the larger number is obtained. The process is repeated in order of the oldest storage time. Camera Use pairing method according to any one of claims 8.
前記時刻差判定ステップで、前記第1の端末の軌跡情報と前記第2の端末の軌跡情報とのうち、それぞれの保存時刻が重複している部分だけを抽出し、
前記ペア判定ステップで、抽出した前記第1の端末の軌跡情報と前記第2の端末の軌跡情報とに基づいて、第1の端末と第2の端末との軌跡情報が一致するか否かを判定する
請求項6から請求項9のうちいずれか1項に記載のカメラ利用ペアリング方法。
In the time difference determination step, only the portion where the respective storage times overlap is extracted from the trajectory information of the first terminal and the trajectory information of the second terminal,
Whether or not the trajectory information of the first terminal and the second terminal matches based on the trajectory information of the first terminal and the trajectory information of the second terminal extracted in the pair determination step. The camera pairing method according to any one of claims 6 to 9, wherein the determination is performed.
カメラを搭載した第1の端末と、第2の端末とのペアリングを行うペアリング装置であって、
前記第1の端末がユーザによって移動されたときに、前記カメラが撮影した画像に基づいて当該第1の端末が移動した軌跡を算出した軌跡情報と、前記第2の端末が前記第1の端末の移動に連動してユーザによって当該第2の端末から入力操作が行われたときに、当該第2の端末における入力座標の軌跡を算出した軌跡情報とを比較することによって、前記第1の端末と前記第2の端末とをペアリングするか否かを判定するペアリング判定手段を備えた
ことを特徴とするペアリング装置。
A pairing device that performs pairing between a first terminal equipped with a camera and a second terminal,
Trajectory information obtained by calculating a trajectory of movement of the first terminal based on an image captured by the camera when the first terminal is moved by the user, and the second terminal of the first terminal When the user performs an input operation from the second terminal in conjunction with the movement of the first terminal, the first terminal is compared by comparing with the locus information obtained by calculating the locus of the input coordinates in the second terminal. And a pairing determination means for determining whether or not to pair the second terminal with the second terminal.
ペアリング判定手段は、同時刻における前記第1の端末が算出した軌跡情報に含まれる移動位置と前記第2の端末が算出した軌跡情報に含まれる移動位置との差が、所定距離以内であると判定したときに、前記第1の端末と前記第2の端末とをペアリングすると判定する
請求項11記載のペアリング装置。
In the pairing determination means, the difference between the movement position included in the trajectory information calculated by the first terminal and the movement position included in the trajectory information calculated by the second terminal at the same time is within a predetermined distance. The pairing device according to claim 11, wherein it is determined that the first terminal and the second terminal are paired when it is determined.
カメラを搭載した第1の端末と、第2の端末とのペアリングを行うためのペアリング用プログラムであって、
コンピュータに、
前記第1の端末がユーザによって移動されたときに、前記カメラが撮影した画像に基づいて当該第1の端末が移動した軌跡を算出した軌跡情報と、前記第2の端末が前記第1の端末の移動に連動してユーザによって当該第2の端末から入力操作が行われたときに、当該第2の端末における入力座標の軌跡を算出した軌跡情報とを比較することによって、前記第1の端末と前記第2の端末とをペアリングするか否かを判定するペアリング判定処理を
実行させるためのペアリング用プログラム。
A pairing program for pairing a first terminal equipped with a camera and a second terminal,
On the computer,
Trajectory information obtained by calculating a trajectory of movement of the first terminal based on an image captured by the camera when the first terminal is moved by the user, and the second terminal of the first terminal When the user performs an input operation from the second terminal in conjunction with the movement of the first terminal, the first terminal is compared by comparing with the locus information obtained by calculating the locus of the input coordinates in the second terminal. A pairing program for executing a pairing determination process for determining whether or not to pair with the second terminal.
コンピュータに、
ペアリング判定処理で、同時刻における前記第1の端末が算出した軌跡情報に含まれる移動位置と前記第2の端末算出した軌跡情報に含まれる移動位置との差が、所定距離以内であると判定したときに、前記第1の端末と前記第2の端末とをペアリングすると判定する処理を実行させる
請求項1記載のペアリング用プログラム。
On the computer,
In the pairing determination process, the difference between the movement position included in the trajectory information calculated by the first terminal at the same time and the movement position included in the trajectory information calculated by the second terminal is within a predetermined distance. and when it is determined, the first terminal and the second terminal and the claim 1 3 program pairing according to execute the process of determining the pairing.
JP2008216882A 2008-08-26 2008-08-26 Camera-based pairing method, system and apparatus, and camera-based pairing program Active JP5217782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008216882A JP5217782B2 (en) 2008-08-26 2008-08-26 Camera-based pairing method, system and apparatus, and camera-based pairing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008216882A JP5217782B2 (en) 2008-08-26 2008-08-26 Camera-based pairing method, system and apparatus, and camera-based pairing program

Publications (2)

Publication Number Publication Date
JP2010056641A JP2010056641A (en) 2010-03-11
JP5217782B2 true JP5217782B2 (en) 2013-06-19

Family

ID=42072146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008216882A Active JP5217782B2 (en) 2008-08-26 2008-08-26 Camera-based pairing method, system and apparatus, and camera-based pairing program

Country Status (1)

Country Link
JP (1) JP5217782B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5683872B2 (en) * 2010-08-24 2015-03-11 オリンパスイメージング株式会社 Information device communication method, information device, and information device communication program
JP6003084B2 (en) * 2011-03-09 2016-10-05 株式会社ニコン Electronic device and grouping method
CN102638586B (en) * 2012-05-03 2014-05-14 腾讯科技(深圳)有限公司 Sharing method, system and device for application program information

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4703173B2 (en) * 2004-11-25 2011-06-15 株式会社東芝 Mobile device
JP5272583B2 (en) * 2008-08-26 2013-08-28 日本電気株式会社 Acceleration sensor-based pairing method, system, and apparatus, and acceleration sensor-based pairing program

Also Published As

Publication number Publication date
JP2010056641A (en) 2010-03-11

Similar Documents

Publication Publication Date Title
JP5272583B2 (en) Acceleration sensor-based pairing method, system, and apparatus, and acceleration sensor-based pairing program
CN110213616B (en) Video providing method, video obtaining method, video providing device, video obtaining device and video providing equipment
US8508671B2 (en) Projection systems and methods
WO2020088134A1 (en) Video correction method and device, electronic apparatus, and computer-readable storage medium
EP4262214A1 (en) Screen projection method and apparatus, and electronic device and storage medium
RU2609147C2 (en) Method and device for transmitting images
JP2011090673A (en) System and method for orientation service start based on sensor use positioning
US20140223359A1 (en) Display processor and display processing method
CN110825302A (en) Method for responding operation track and operation track responding device
CN110139040B (en) Pan-tilt camera positioning method and device, pan-tilt camera, equipment and medium
JP6505327B2 (en) Method, apparatus and system for acquiring video data and computer readable storage medium
US9215003B2 (en) Communication apparatus, communication method, and computer readable recording medium
CN111277893A (en) Video processing method and device, readable medium and electronic equipment
JPWO2012049941A1 (en) Moving image distribution system and moving image distribution method
JP5217782B2 (en) Camera-based pairing method, system and apparatus, and camera-based pairing program
WO2022088974A1 (en) Remote control method, electronic device and system
EP3432543A1 (en) Service provision system, service delivery/receipt system, service provision method, and program
CN109302563B (en) Anti-shake processing method and device, storage medium and mobile terminal
CN111125601A (en) File transmission method, device, terminal, server and storage medium
JP6524706B2 (en) Display control method, display control program, and information processing apparatus
JP5993164B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
WO2024067468A1 (en) Interaction control method and apparatus based on image recognition, and device
WO2017020671A1 (en) Video interaction method and apparatus, and video source device
CN111147745B (en) Shooting method, shooting device, electronic equipment and storage medium
CN112561809A (en) Image processing method, device and equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5217782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150