JP2014239415A - ジェスチャ情報を利用してサービスに対するユーザ間の関係を設定する方法およびシステム - Google Patents

ジェスチャ情報を利用してサービスに対するユーザ間の関係を設定する方法およびシステム Download PDF

Info

Publication number
JP2014239415A
JP2014239415A JP2014061373A JP2014061373A JP2014239415A JP 2014239415 A JP2014239415 A JP 2014239415A JP 2014061373 A JP2014061373 A JP 2014061373A JP 2014061373 A JP2014061373 A JP 2014061373A JP 2014239415 A JP2014239415 A JP 2014239415A
Authority
JP
Japan
Prior art keywords
gesture
information
relationship
recognized
relevance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014061373A
Other languages
English (en)
Other versions
JP5829298B2 (ja
Inventor
東 旭 金
Dong Wook Kim
東 旭 金
Original Assignee
ネイバー ビジネス プラットフォーム コーポレーション
Nhn Business Platform Corp
ネイバー ビジネス プラットフォーム コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR20130066163A priority Critical patent/KR101511995B1/ko
Priority to KR10-2013-0066163 priority
Application filed by ネイバー ビジネス プラットフォーム コーポレーション, Nhn Business Platform Corp, ネイバー ビジネス プラットフォーム コーポレーション filed Critical ネイバー ビジネス プラットフォーム コーポレーション
Publication of JP2014239415A publication Critical patent/JP2014239415A/ja
Application granted granted Critical
Publication of JP5829298B2 publication Critical patent/JP5829298B2/ja
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06QDATA PROCESSING SYSTEMS OR METHODS, SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for entering handwritten data, e.g. gestures, text
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the screen or tablet into independently controllable areas, e.g. virtual keyboards, menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification

Abstract

【課題】ジェスチャ情報を利用してサービスに対するユーザ間の関係を設定する方法およびシステムを開示する。
【解決手段】本発明の関係設定方法は、コンピュータに備わる手段が、複数のモバイル端末機から1つのユーザジェスチャに対して複数のモバイル端末機それぞれで認識されたジェスチャに対する情報を受信し、認識されたジェスチャに対する情報に基づいて認識されたジェスチャと前記1つのユーザジェスチャとの間のジェスチャ関連性を決定し、ジェスチャ関連性を利用して複数のモバイル端末機のユーザ間に人的関係を設定するか否かを決定する。
【選択図】図2

Description

本発明は、ジェスチャ情報を利用してサービスに対するユーザ間の関係を設定する方法およびシステムに関する。

ソーシャルネットワークサービス(Social Network Service)は、ウェブ上で利用者が人的ネットワークを形成できるようにするサービスであって、人的ネットワークを接続するためにユーザ間の関係を設定するための多様な技術が存在する。

従来技術では、サービスに加入しているユーザのリスト、及び前記リストから所望する他のユーザを検索することができる機能がユーザに提供され、ユーザはこのようなリストと機能を利用しながら自身が所望する他のユーザを探して関係を設定することができた。さらに、他の従来技術では、ユーザが関係設定を所望する他のユーザの識別子(一例として、IDや電話番号など)を先にサービスを提供するサービスシステムに提供し、サービスシステムが当該識別子に対応するユーザを探して関係の設定を進めることもできた。

しかし、このような関係設定方法では、識別子の入力やリストからのユーザ探索などのような複雑な手順が要求されるため、特にモバイル環境では、入/出力インタフェースの限界によってユーザ間の関係設定およびサービス拡張の障害要素となる可能性が存在する。

したがって、モバイル環境では、ユーザ間の関係設定のためのより直感的なインタフェースが求められている。

韓国公開特許第10−1107027号公報

本発明は、少なくとも地理的位置情報を通じて関連性を有する複数の端末機でそれぞれ認識された複数のジェスチャ(一例として、タッチ&ドラッグ(touch&drag)ジェスチャ)に対する情報を利用してユーザ間の関係を設定することができる関係設定方法およびシステムを提供する。

また、本発明は、複数の端末機でジェスチャが認識された時刻情報または前記タッチ&ドラッグジェスチャの進行方向情報を利用してユーザ間の関係を設定することができる関係設定方法およびシステムを提供する。

また、本発明は、加速度センサなどを利用して認識される端末機自体の動きではなく、それぞれの端末機で認識される複数のジェスチャを利用してユーザ間の関係を設定することにより、走行中の車内のような端末機の動きを正確に判断することができない状況においても、ユーザ間の関係設定のためのより正確な情報を得ることができる関係設定方法およびシステムを提供する。

関係設定システムにおいて、複数のモバイル端末機から1つのユーザジェスチャに対して前記複数のモバイル端末機それぞれで認識されたジェスチャに対する情報を受信し、前記認識されたジェスチャに対する情報に基づいて前記認識されたジェスチャと前記1つのユーザジェスチャとの間のジェスチャ関連性を決定し、前記ジェスチャ関連性を利用して前記複数のモバイル端末機のユーザ間に人的関係を設定するか否を決定することを含む関係設定方法が提供される。

複数のモバイル端末機から1つのユーザジェスチャに対して前記複数のモバイル端末機それぞれで認識されたジェスチャに対する情報を受信する情報受信部、前記認識されたジェスチャに対する情報に基づいて前記認識されたジェスチャと前記1つのユーザジェスチャとの間のジェスチャ関連性を決定する関連性決定部、および前記ジェスチャ関連性を利用して前記複数のモバイル端末機のユーザ間に人的関係を設定するか否かを決定する関係設定部を含む関係設定システムが提供される。

モバイル端末機のユーザと少なくとも1つの他のモバイル端末機のユーザとの間の関係を設定する方法において、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機を経て発生するユーザジェスチャの少なくとも一部を前記モバイル端末機のタッチディスプレイまたはモーションセンサを通じて認識し、および前記ジェスチャに対する情報を関係設定サーバに送信することを含み、前記少なくとも1つの他のモバイル端末機で認識された前記ユーザジェスチャの少なくとも一部に対する情報が前記関係設定サーバに送信され、前記関係設定サーバにおいて、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機から送信されたジェスチャに対する情報に基づき、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機とのユーザ間に人的関係を設定するか否かが決定されることを特徴とする関係設定方法が提供される。

モバイル端末機のユーザと少なくとも1つの他のモバイル端末機のユーザとの間の関係を設定するように前記モバイル端末機を制御するアプリケーションをインストールするためのファイルを配布するファイル配布システムにおいて、前記ファイルを管理し、前記モバイル端末機の要請に応じて前記ファイルを前記モバイル端末機に提供するファイル管理部を含み、前記アプリケーションは、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機とを経て発生するユーザジェスチャの少なくとも一部を前記モバイル端末機のタッチディスプレイまたはモーションセンサを通じて認識するように前記モバイル端末機を制御するモジュール、および前記認識された少なくとも一部のジェスチャに対する情報を関係設定サーバに送信するように前記モバイル端末機を制御するモジュールを含み、前記少なくとも1つの他のモバイル端末機で認識された前記ユーザジェスチャの少なくとも一部に対する情報が前記関係設定サーバに送信され、前記関係設定サーバにおいて、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機から送信されたジェスチャに対する情報に基づき、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機とのユーザ間に人的関係を設定するか否かが決定されることを特徴とするファイル配布システムが提供される。

少なくとも地理的位置情報を通じて関連性をもつ複数の端末機でそれぞれ認識された複数のジェスチャ(一例として、タッチ&ドラッグ(touch&drag)ジェスチャ)に対する情報を利用してユーザ間の関係を設定することができる。

複数の端末機でジェスチャが認識された時刻情報または前記タッチ&ドラッグジェスチャの進行方向情報を利用してユーザ間の関係を設定することができる。

加速度センサなどを利用して認識される端末機自体の動きではなく、それぞれの端末機で認識される複数のジェスチャを利用してユーザ間の関係を設定することにより、走行中の車内のように端末機の動きを正確に判断することができない状況でも、ユーザ間の関係設定のためのより正確な情報を得ることができる。

本発明の一実施形態における関係設定システムと複数の端末機との間の関係の一例を示した図である。 本発明の一実施形態における関係設定システムにおいて、2台のモバイル端末機間で人的関係設定のための情報を生成する過程の一例を説明するための図である。 本発明の一実施形態における関係設定システムにおいて、互いに方向が異なる端末機間で人的関係設定のための情報を生成する過程の一例を説明するための図である。 本発明の一実施形態における関係設定システムにおいて、3台のモバイル端末機間で人的関係設定のための情報を生成する過程の一例を説明するための図である。 本発明の一実施形態における関係設定システムにおいて、人的関係設定のための情報を生成する過程の他の一例を説明するための図である。 本発明の一実施形態における関係設定システムの内部構成を説明するためのブロック図である。 本発明の一実施形態における関係設定方法を示したフローチャートである。 本発明の他の実施形態における関係設定方法を示したフローチャートである。

以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。

図1は、本発明の一実施形態において、関係設定システムと複数の端末機との間の関係の一例を示した図である。本実施形態に係る関係設定システム100は、ユーザ間の人的関係を利用してサービスを提供するサービスシステム(一例として、ソーシャルネットワークシステム、図示せず)に含まれてもよく、または当該サービスシステムに連携したシステムであってもよい。例えば、関係設定システム100を通じてユーザ間に人的関係が設定されれば、サービスシステムは設定された人的関係に関する情報を利用してサービスを提供してもよい。ここで、サービスシステムが他の方法によって設定された人的関係に関する情報をさらに利用してもよいことは当然である。

関係設定システム100は、複数の端末機110とネットワークを通じて通信し、複数の端末機110それぞれから人的関係を設定するための情報を受信し、受信した情報を利用して複数の端末機110のうち条件に該当する端末機のユーザ間に人的関係を設定してもよい。

複数の端末機110は、関係設定システム100または上述したサービスシステムに関連したアプリケーションがインストールされているモバイル端末を意味してもよく、前記アプリケーションが提供するインタフェースを通じて人的関係設定のための情報を生成して関係設定システム100に送信してもよい。一例として、複数の端末機110それぞれから関係設定システム100に送信される人的関係を設定するための情報は、端末機それぞれで認識されるジェスチャに対する情報または認識されたジェスチャに対する情報を利用して端末機それぞれで生成される情報を含んでもよい。

本明細書において「ジェスチャ」とは、モバイル端末機によって認識可能なユーザの一連の行為(以下、「ユーザジェスチャ」という)を意味してもよい。また、本明細書において「1つのユーザジェスチャ」とは、複数のモバイル端末機に対して発生する一連のユーザジェスチャを意味してもよい。複数のモバイル端末機に対して1つのユーザジェスチャが発生した場合、複数のモバイル端末機それぞれは1つのユーザジェスチャの少なくとも一部(以下、「認識されたジェスチャ」という)を認識し、認識されたジェスチャに対する情報を得てもよい。

例えば、第1端末機111、第2端末機112、および第3端末機113に上述したアプリケーションがインストールされ、当該アプリケーションが駆動されている状態において、各端末機にインストールされているアプリケーションは人的関係を設定するためのインタフェースを提供してもよく、前記インタフェースを通じてユーザジェスチャの少なくとも一部が認識されれば、各端末機は人的関係を設定するための情報を生成して関係設定システム100に送信してもよい。この場合、関係設定システム100は、受信した情報と予め設定された条件とを利用して各端末機のユーザ間の人的関係を設定してもよい。ここで、予め設定された条件を満たすとは、それぞれの端末機で認識されて送信されるジェスチャに対する情報が1つのユーザジェスチャによって生成されたものであることを満たすことであってもよい。

このために、それぞれの端末機は、次の(1)のような情報を関係設定システム100に送信してもよい。

(1)認識されたジェスチャに対する情報

ここで、認識されたジェスチャに対する情報は、少なくとも次の(1−1)を含み、選択的に(1−2)をさらに含んでもよい。

(1−1)端末機においてジェスチャの認識が始まった位置に対する情報、及び端末機においてジェスチャの認識が終わった位置に対する情報を少なくとも含むジェスチャ認識座標に対する情報。一例として、認識されたジェスチャに対する情報は、((x1、x2)、(y1、y2))のような座標に対する情報を含んでもよい。この場合、開始座標(x1、x2)と終了座標(y1、y2)とを利用してジェスチャの方向に対する情報が抽出されてもよい。

(1−2)ジェスチャが認識された時刻に対する情報

また、それぞれの端末機は、必要に応じて次の(2)または(3)に対する情報を関係設定システムにさらに送信してもよい。

(2)端末機の地理的位置情報

例えば、それぞれの端末機で認識されて送信されるジェスチャに対する情報が1つのユーザジェスチャによって生成されたものであることをより明確に判別するために、それぞれの端末機の地理的位置相互の関連性を利用してもよい。ここで、地理的位置情報は、端末機のGPS(Global Positioning System)情報や基地局、またはAP(Access Point)を通じて判断される位置情報であってもよい。

(3)端末機の方向情報

一例として、端末機の方向情報は、端末機が含む地磁気センサまたは加速度センサ及びジャイロセンサの結合を通じて得てもよい。

関係設定システム100は、それぞれの端末機から受信した情報を利用してユーザ間に人的関係を設定するか否かを決定してもよく、条件に合ったユーザの人的関係を設定してもよい。

以下では、説明と理解の便宜のために、ユーザジェスチャの一例としてタッチ&ドラッグジェスチャを利用した例を説明する。しかし、それぞれの端末機で送信される情報が1つのジェスチャによって生成されたものであるか否かを確認するために、モーションジェスチャの認識やマルチタッチ&ドラッグ(multi−touch&drag)ジェスチャの認識などのような多様な方式を利用してもよいことは当然である。例えば、複数の端末機110は、タッチディスプレイを利用してユーザのタッチ&ドラッグジェスチャやマルチタッチ&ドラッグ(multi−touch&drag)ジェスチャなどの予め設定された多様なタッチジェスチャを認識してもよい。他の例として、複数の端末機110は、モーションセンサなどを搭載してユーザのモーションジェスチャを認識してもよい。

図2は、本発明の一実施形態において、2台のモバイル端末機間で人的関係設定のための情報を生成する過程の一例を説明するための図である。図2は、水平方向に互いに隣接して配置された第1端末機210および第2端末機220を示している。第1端末機210の第1ユーザと第2端末機220の第2ユーザとが存在すると仮定すると、図2では、第1ユーザまたは第2ユーザが互いに隣接して配置された2台の端末機のタッチディスプレイにおいて、左側から右側に連続するタッチ&ドラッグジェスチャ(上述した「ユーザジェスチャ」の一例)を実行する様子を示している。このようなユーザジェスチャは、図2では左側から右側方向への直線形状として説明されているが、必要に応じて、関係設定のために必要なユーザジェスチャの形状や方向などが予め設定されてユーザに案内されてもよい。

この場合、第1端末機210は第2端末機220よりもユーザジェスチャを先に認識するようになり、第1端末機210の認識が終わった後に第2端末機220の認識が始まるようになる。それぞれの端末機は、認識されたユーザジェスチャに対する情報を、図1を参照しながら説明した関係設定システム100に送信してもよい。このとき、それぞれの端末機では上述したアプリケーションがインストールされ、当該アプリケーションが駆動されており、それぞれの端末機は、このようなアプリケーションの制御に応じてユーザジェスチャのうちの認識された一部分(以下、「認識されたジェスチャ」という)に対する情報を関係設定システム100に送信してもよい。

本発明の一実施形態として、上述した(2)端末機の地理的位置情報と(1)認識されたジェスチャに対する情報とを利用して第1ユーザと第2ユーザとの間の人的関係を形成する一例を説明する。このとき、(1)認識されたジェスチャに対する情報は、(1−1)端末機においてジェスチャが始まった位置に対する情報、及び端末機においてジェスチャが終わった位置に対する情報を少なくとも含むジェスチャ認識座標に対する情報のみを含むものと仮定する。

第1端末機210は、第1端末機210の位置に対する情報と第1ジェスチャ認識座標に対する情報とを関係設定システム100に送信してもよい。ここで、第1ジェスチャ認識座標に対する情報は、第1端末機210において第1の認識されたジェスチャが始まった位置に対する情報、及び第1の認識されたジェスチャが終わった位置に対する情報を少なくとも含んでもよい。

第2端末機220は、第2端末機220の位置に対する情報と第2ジェスチャ認識座標に対する情報とを関係設定システム100に送信してもよい。ここで、第2ジェスチャ認識座標に対する情報は、第2端末機220において第2の認識されたジェスチャが始まった位置に対する情報、及び第2の認識されたジェスチャが終わった位置に対する情報を少なくとも含んでもよい。

関係設定システム100は、第1端末機210の位置に対する情報と第2端末機220の位置に対する情報とを比較し、端末機が互いに関連した位置に存在するか否かを決定してもよい。例えば、関係設定システム100は、端末機が予め設定された距離内に存在するか否かを確認してもよい。

その後、関係設定システム100は、第1の認識されたジェスチャに対する情報と第2の認識されたジェスチャに対する情報とを利用して、第1の認識されたジェスチャと第2の認識されたジェスチャとが1つのユーザジェスチャの一部分であるか否かを判断してもよい。例えば、ユーザ間の関係設定のために予め設定されたユーザジェスチャが端末機を横断するタッチ&ドラッグジェスチャであれば、関係設定システム100は、1つのジェスチャが終わった位置と他のジェスチャが始まった位置間の関連性を判断し、第1の認識されたジェスチャと第2の認識されたジェスチャとが1つのユーザジェスチャの一部分であるか否かを判断してもよい。

より詳細には、図2に示す一例において、第1端末機210の画面右端で第1の認識されたジェスチャが終わり、第2端末機220の画面左端で第2の認識されたジェスチャが始まり、第1の認識されたジェスチャの終了位置に対する縦方向座標と第2の認識されたジェスチャの開始位置に対する縦方向座標とが予め設定された範囲差以内にすべて存在すれば、関係設定システム100は、2つの認識されたジェスチャが1つのユーザジェスチャの一部分であると判断してもよい。

本発明の他の実施形態として、判断の正確度を高めるために、(1)認識されたジェスチャに対する情報は、(1−2)ジェスチャが認識された時刻に対する情報をさらに含んでもよい。例えば、関係設定システム100が許容可能な位置に対する情報と互いに関連性がある認識されたジェスチャに対する情報とを複数の端末機から受信した場合であっても、これらが互いに異なる時刻に発生した認識されたジェスチャである場合も含まれる。したがって、互いに異なる時刻に発生した認識されたジェスチャが1つのユーザジェスチャの一部分であることを判断するにあたってさらに正確度を高めるためには、ジェスチャが認識された時刻に対する情報がさらに利用されてもよい。

さらに他の実施形態として、判断の正確度をさらに高めるために、(3)端末機の方向情報が関係設定システム100にさらに送信されてもよい。例えば、図2では、第1端末機210と第2端末機220とがすべて同じ方向を向いた状態で配置されている。しかし、このような端末機の方向が変更される場合には、必要な条件に対する判断が不正確になる可能性が存在する。したがって、端末機は端末機の方向情報をそれぞれ関係設定システム100に送信してもよく、関係設定システム100は端末機の方向情報をさらに利用して必要な条件に対する判断を実行してもよい。

図3は、本発明の一実施形態において、互いに方向が異なる端末機間で人的関係設定のための情報を生成する過程の一例を説明するための図である。図3において、第1端末機310と第2端末機320とは互いに反対方向を向いている。このとき、ユーザジェスチャは、第1端末機310の右側(図3の右側)端で認識が終わり、第2端末機320の右側(図3の左側)端で認識が始まる。したがって、このような場合、関係設定システム100は端末機から端末機の方向情報をさらに受信し、端末機の方向を考慮した上で、第1端末機310で認識されたジェスチャと第2端末機320で認識されたジェスチャとが1つのユーザジェスチャの一部分であるか否かを判断してもよい。

一例として、関係設定システム100は、上述したように、端末機の方向を考慮して、認識されたジェスチャが1つのユーザジェスチャの一部分であるか否かを判断して人的関係の設定可否を判断してもよい。図3では、互いに180度方向が異なる2つの端末機についてのみ説明したが、90度や270度などのように多様に方向が異なる複数の端末機についても同じ適用が可能である。

さらに、他の例として、関係設定システム100は、端末機の方向が同じ場合にのみ人的関係の設定が可能なように動作してもよい。

図2および図3では、2台のモバイル端末機についてのみ、人的関係を設定するための情報を生成する過程を説明したが、本発明の実施形態のような関係設定方法は、端末機の数に関係なく、同じ方法によって人的関係の設定が可能である。

図4は、本発明の一実施形態において、3台のモバイル端末機間で人的関係設定のための情報を生成する過程の一例を説明するための図である。図4では、1つのユーザジェスチャが3台の端末機(第1端末機410、第2端末機420、および第3端末機430)すべてに一部分ずつ認識される過程を示している。

この場合、第1端末機410、第2端末機420、および第3端末機430の順でユーザジェスチャの互いに異なる一部分が認識され、第1端末機410において認識されたジェスチャが終わる位置と第2端末機420において認識されたジェスチャが始まる位置、及び第2端末機420において認識されたジェスチャが終わる位置と第3端末機430において認識されたジェスチャが始まる位置に基づき、認識されたジェスチャが1つのユーザジェスチャの一部分であるか否かが決定されてもよい。

また、関係設定の可否の判断の正確性をより高めるために、端末機の地理的位置情報、端末機の方向に対する情報、およびジェスチャが認識された時刻に対する情報のうちの少なくとも1つの情報が選択的にさらに利用されてもよい。

一例として、第1端末機410、第2端末機420、および第3端末機430において認識されたジェスチャの認識された順序に基づいて、比較されるべき端末機が選択されてもよい。図4に示す一例では、第1端末機410でジェスチャが最初に認識され、第2端末機420で2番目に認識されたため、図1を参照しながら説明した関係設定システム100は、第1端末機410と第2端末機420とで認識されたジェスチャに対する情報を先に比較し、その後に第2端末機420と第3端末機430とで認識されたジェスチャに対する情報を比較してもよい。言い換えれば、ジェスチャが認識された時刻に対する情報は、認識されたジェスチャが1つのユーザジェスチャの一部分であるか否かを判断する直接的な情報として利用されてもよく、関係設定システム100の演算量を減らす目的として利用されてもよい。

類似の例として、端末機の地理的位置情報も、認識されたジェスチャが1つのユーザジェスチャの一部分であるか否かを判断する直接的な情報として利用されてもよく、関係設定システム100の演算量を減らす目的として利用されてもよい。

このとき、3台の端末機の各ユーザについては、互いにそれぞれ人的関係が設定されてもよく、ユーザ設定に応じて1つのグループとして設定されてもよい。これは、4台以上の端末機に対しても同じように適用されてもよい。

図2から図4では直線方向のタッチ&ドラッグジェスチャのみを説明したが、曲線方向のタッチ&ドラッグジェスチャが利用されてもよい。モーションジェスチャを利用する場合もこれと同じである。

図5は、本発明の一実施形態において、人的関係設定のための情報を生成する過程の他の例を説明するための図である。図5では、4台の端末機(第1端末機510、第2端末機520、第3端末機530、および第4端末機540)が四角形の形態に配置された様子を示している。このとき、ユーザジェスチャは、第1端末機510から第4端末機540の入力インタフェースをすべて通過している。

図5に示す一例では、第1端末機510、第2端末機520、第3端末機530、および第4端末機540の順にユーザジェスチャの一部分が認識されてもよく、既に説明したように、互いに隣接した順序の端末機間で認識されたジェスチャが終わった位置と始まる位置との間の関連性により、認識されたジェスチャが1つのユーザジェスチャの一部分であるか否かが判断されてもよい。認識されたジェスチャが1つのユーザジェスチャの一部分であると判断されれば、端末機(510〜540)のユーザ間にそれぞれ個別に関係が設定されてもよく、またはユーザがすべて1つのグループとして設定されてもよい。

このとき、ユーザジェスチャのパターンは予め設定されてもよく、ユーザによって予め入力されてもよい。

一例として、図1を参照しながら説明した関係設定システム100は、予め設定されたパターンをユーザに提示し、ユーザが提示されたパターンのユーザジェスチャを発生させるように案内してもよい。

他の例として、ユーザが先ず、ユーザが発生させるユーザジェスチャのパターンを予め入力してもよい。この場合、ユーザによって入力されるパターンが関係設定システム100に送信されて管理されてもよく、端末機(510〜540)で認識されたジェスチャと比較されてもよい。例えば、関係設定システム100は、端末機(510〜540)で認識されたジェスチャが予め入力されたパターンを示すものであるかを確認してユーザ間の関係設定の可否を決定してもよい。

上述したように、関係設定システム100は、それぞれの端末機の地理的位置に対する関連性、端末機の方向に対する情報、およびジェスチャが認識された時刻に対する情報のうちの少なくとも1つの情報をさらに活用してもよい。

図6は、本発明の一実施形態における関係設定システムの内部構成を説明するためのブロック図であり、図7は、本発明の一実施形態において、関係設定方法を示したフローチャートである。本実施形態に係る関係設定システム600は、図1から図5を参照しながら説明した関係設定システム100に対応してもよく、図6に示すように、情報受信部610、関連性決定部620、および関係設定部630を含んでもよい。また、本実施形態に係る関係設定方法は、関係設定システム600によって実行されてもよく、関係設定方法に含まれる各ステップは、関係設定システム600または関係設定システム600の内部構成要素のうちの1つによって実行されてもよい。

ステップ710において、関係設定システム600または情報受信部610は、複数のモバイル端末機から1つのユーザジェスチャに対して複数のモバイル端末機それぞれで認識されたジェスチャに対する情報を受信してもよい。認識されたジェスチャに対する情報については、既に詳しく説明したとおりである。関係設定システム600または関係設定システム600を含むサービスシステムまたは関係設定システム600と連携したサービスシステムと連携したアプリケーションが複数のモバイル端末機それぞれにインストールされてもよく、複数のモバイル端末機それぞれは、インストールされたアプリケーションの制御に応じてジェスチャを認識するためのインタフェースをユーザに提供し、前記インタフェースを通じて認識されたジェスチャに対する情報を関係設定システム600に送信してもよい。

ステップ720において、関係設定システム600または関連性決定部620は、認識されたジェスチャに対する情報に基づいて認識されたジェスチャと1つのユーザジェスチャとの間のジェスチャ関連性を決定してもよい。

認識されたジェスチャに対する情報は、認識されたジェスチャがモバイル端末機において認識が始まった位置と認識が終わった位置とに対する情報を少なくとも含んでもよい。例えば、関係設定システム600または関連性決定部620は、ステップ720において認識されたジェスチャの終わった位置と始まった位置とを比較し、認識されたジェスチャが互いに連続した1つのジェスチャであるか否かの判断に応じてジェスチャ関連性を決定してもよい。

また、関係設定システム600または関連性決定部620は、ステップ720において認識されたジェスチャそれぞれに対する方向情報をさらに利用して、認識されたジェスチャが互いに連続した1つのジェスチャであるか否かを決定してもよい。ここで、関係設定システム600または関連性決定部620は、ジェスチャの始まった位置に対する情報と終わった位置に対する情報とに基づいて認識されたジェスチャそれぞれに対して方向情報を生成してもよい。

ステップ730において、関係設定システム600または関係設定部630は、位置関連性およびジェスチャ関連性に基づいて複数のモバイル端末機のユーザ間に人的関係を設定するか否かを決定してもよい。例えば、関係設定システム600または関係設定部630は、位置関連性とジェスチャ関連性とがすべて存在する場合に、前記ユーザ間に人的関係を設定してもよい。

また、上述したように、人的関係を設定するか否かをより正確に判断するために、複数のモバイル端末機それぞれの方向に対する情報、及び複数のモバイル端末機それぞれでジェスチャが認識された時刻に対する情報がさらに利用されてもよい。

他の実施形態として、関係設定システム600または情報受信部610は、ステップ710において、複数のモバイル端末機においてジェスチャが認識された時刻に対する情報をさらに受信してもよい。この場合、関係設定システム600または関連性決定部620は、ステップ720において、時刻に対する情報によって決定される認識されたジェスチャ間の認識順をさらに利用してジェスチャ関連性を決定してもよい。

このとき、関係設定方法は、ジェスチャが認識された時刻を比較して時刻関連性を決定するステップ(図示せず)をさらに含んでもよい。この場合、関係設定システム600または関係設定部630は、ステップ730において、時刻関連性をさらに利用して人的関係を設定するか否かを決定してもよい。ここで、図示されていない前記ジェスチャが認識された時刻を比較して時刻関連性を決定するステップは、関係設定システム600または関連性決定部620によって実行されてもよい。例えば、関係設定システム600は、複数のモバイル端末機でジェスチャが認識された時刻が、予め設定された時間差以内である場合にのみ、時刻関連性が存在すると判断して人的関係を設定してもよい。

さらに他の実施形態として、関係設定システム600または情報受信部610は、ステップ710において、複数のモバイル端末機の方向に対する情報をさらに受信してもよい。この場合、関係設定システム600または関連性決定部620は、ステップ720において、前記方向に対する情報をさらに利用してジェスチャ関連性を決定してもよい。

このとき、関係設定方法は、前記方向に対する情報を比較して方向関連性を決定するステップ(図示せず)をさらに含んでもよい。この場合、関係設定システム600または関係設定部630は、ステップ730において、方向関連性をさらに利用して人的関係を設定するか否かを決定してもよい。ここで、図示されていない前記方向に対する情報を比較して方向関連性を決定するステップは、関係設定システム600または関連性決定部620によって実行されてもよい。例えば、関係設定システム600は、複数のモバイル端末機間の方向が互いに同じであって方向関連性が存在すると判断した場合に、人的関係を設定してもよい。

図8は、本発明の他の実施形態における関係設定方法を示したフローチャートである。本実施形態に係る関係設定方法は、モバイル端末機のユーザと少なくとも1つの他のモバイル端末機のユーザとの間の関係を設定するための方法であって、上述したモバイル端末機によって実行されてもよい。

ステップ810において、モバイル端末機は、モバイル端末機と少なくとも1つの他のモバイル端末機に渡って発生するユーザジェスチャの少なくとも一部を、モバイル端末機のタッチディスプレイまたはモーションセンサを通じて認識してもよい。

ステップ820において、モバイル端末機は、ジェスチャに対する情報を関係設定サーバに送信してもよい。ここで、関係設定サーバは、図6を参照しながら説明した関係設定システム600に対応してもよい。

少なくとも1つの他のモバイル端末機でも同じように、ユーザジェスチャの少なくとも一部をタッチディスプレイまたはモーションセンサを通じて認識してもよく、認識されたジェスチャに対する情報と地理的位置情報とを関係設定サーバに送信してもよい。関係設定サーバが複数のモバイル端末機から受信された情報を利用してユーザ間の人的関係を設定する方法については既に詳しく説明しているため、繰り返しの説明は省略する。

また、モバイル端末機にはアプリケーションがインストールされてもよく、図8に示す実施形態に係る関係設定方法をモバイル端末機が実行するようにモバイル端末機を制御してもよい。例えば、アプリケーションは、図8に示す実施形態に係る関係設定方法に含まれるステップを実行するためのモジュールを含んでもよい。このようなアプリケーションは、アプリケーションをインストールするためのファイルを配布するファイル配布システムを通じてモバイル端末機に提供されてもよい。一例として、ファイル配布システムは、アプリケーションをインストールするためのファイルを管理し、モバイル端末機の要請に応じて前記ファイルをモバイル端末機に提供するファイル管理部(図示せず)を含んでもよい。

同じように、図6を参照しながら説明した関係設定システム600にも、図7に示す実施形態に係る関係設定方法を関係設定システム600が実行するように関係設定システム600を制御するためのアプリケーションがインストールされてもよい。

このように、本発明の実施形態によれば、少なくとも地理的位置情報を通じて関連性を有する複数の端末機においてそれぞれ認識された複数のタッチ&ドラッグ(touch&drag)ジェスチャに対する情報を利用してユーザ間の関係を設定することができる。また、複数の端末機でタッチ&ドラッグジェスチャが認識される時刻情報および前記タッチ&ドラッグジェスチャの進行方向情報を利用してユーザ間の関係を設定することができる。さらに、加速度センサなどを利用して認識される端末機自体の動きではなく、それぞれの端末機において認識される複数のジェスチャを利用してユーザ間の関係を設定することにより、走行中の車内のような端末機の動きを正確に判断することができない状況においても、ユーザ間の関係設定のためのより正確な情報を得ることができる。

上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素およびソフトウェア構成要素の組み合わせによって実現されてもよい。実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令(instruction)を実行して応答することができる異なる装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてもよい。処理装置は、オペレーティングシステム(OS)およびオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行してもよい。また、処理装置は、ソフトウェアの実行に応答し、データをアクセス、保存、操作、処理、および生成してもよい。理解の便宜のために、処理装置は1つが使用されると説明される場合もあるが、該当する技術分野において通常の知識を有する者は、処理装置が複数の処理要素(processing element)および/または複数類型の処理要素を含んでもよいと理解することができる。例えば、処理装置は、複数のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成(processing configuration)も可能である。

ソフトウェアは、コンピュータプログラム(computer program)、コード(code)、命令(instruction)、またはこれらのうちの1つ以上の組み合わせを含んでもよく、所望のとおりに動作するように処理装置を構成したり、独立的または結合的に(collectively)処理装置を命令したりしてもよい。ソフトウェアおよび/またはデータは、処理装置によって解釈されたり処理装置に命令またはデータを提供したりするために、ある類型の機械、構成要素(component)、物理的装置、仮想装置(virtual equipment)、コンピュータ記録媒体または装置、または送信される信号波(signal wave)に永久的または一時的に具体化(embody)されてもよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散し、分散した方法によって格納されたり実行されたりしてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてもよい。

本発明の実施形態に係る方法は、多様なコンピュータ手段によって実行が可能なプログラム命令形態で実現されてコンピュータで読み取り可能な媒体に記録されてもよい。コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含んでもよい。媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェア当業者に公知であって使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体(magnetic media)、CD−ROM、DVDのような光記録媒体(optical media)、フロプティカルディスク(floptical disk)のような磁気−光媒体(magneto−optical media)、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例としては、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。上述したハードウェア装置は、実施形態の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同じである。

以上のように、実施形態を限定された実施形態と図面に基づいて説明したが、該当する技術分野において通常の知識を有する者であれば、上述した記載から多様な修正および変形が可能であることが理解できるであろう。例えば、説明された技術が説明された方法とは異なる順序で実行されたり、説明されたシステム、構造、装置、回路などの構成要素が説明された方法とは異なる形態で結合または組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付の特許請求の範囲に属する。

100:関係設定システム
110:複数の端末機

Claims (18)

  1. 関係設定システムにおいて、
    複数のモバイル端末機から1つのユーザジェスチャに対して前記複数のモバイル端末機それぞれで認識されたジェスチャに対する情報を受信し、
    前記認識されたジェスチャに対する情報に基づいて前記認識されたジェスチャと前記1つのユーザジェスチャとの間のジェスチャ関連性を決定し、および
    前記ジェスチャ関連性を利用して前記複数のモバイル端末機のユーザ間に人的関係を設定するか否かを決定することを含む関係設定方法。
  2. 前記情報を受信することは、
    前記複数のモバイル端末機それぞれの地理的位置情報をさらに受信し、
    前記地理的位置情報に基づいて前記地理的位置相互の位置関連性を決定することをさらに含み、
    前記人的関係を設定するか否かを決定することは、
    前記位置関連性をさらに利用して前記人的関係を設定するか否かを決定することを特徴とする請求項1に記載の関係設定方法。
  3. 前記位置関連性を決定することは、
    前記地理的位置相互の距離が予め設定された距離範囲以内に存在するか否かに応じて前記位置関連性の有無を決定することを特徴とする請求項2に記載の関係設定方法。
  4. 前記認識されたジェスチャに対する情報は、前記複数のモバイル端末機それぞれにおいてジェスチャの認識が始まった位置に対する情報および前記ジェスチャの認識が終わった位置に対する情報を少なくとも含むことを特徴とする請求項1から3のいずれか一項に記載の関係設定方法。
  5. 前記ジェスチャ関連性を決定することは、
    前記認識されたジェスチャに対して前記ジェスチャの認識が終わった位置と前記ジェスチャの認識が始まった位置とを比較し、前記認識されたジェスチャが互いに連続した1つのジェスチャであるか否かに応じて前記ジェスチャ関連性の有無を決定することを特徴とする請求項4に記載の関係設定方法。
  6. 前記ジェスチャ関連性を決定することは、
    前記ジェスチャの認識が始まった位置に対する情報と前記ジェスチャの認識が終わった位置に対する情報とに基づいて前記認識されたジェスチャそれぞれに対する方向情報を生成し、前記方向情報をさらに利用して前記認識されたジェスチャが互いに連続した1つのジェスチャであるか否かを決定することを特徴とする請求項5に記載の関係設定方法。
  7. 前記情報を受信することは、
    前記複数のモバイル端末機においてジェスチャが認識された時刻に対する情報をさらに受信し、
    前記ジェスチャ関連性を決定することは、
    前記時刻に対する情報に応じて決定される前記認識されたジェスチャ間の認識順をさらに利用して前記ジェスチャ関連性を決定することを特徴とする請求項1から6のいずれか一項に記載の関係設定方法。
  8. 前記情報を受信することは、
    前記複数のモバイル端末機においてジェスチャが認識された時刻に対する情報をさらに受信し、
    前記ジェスチャが認識された時刻を比較して時刻関連性を決定することをさらに含み、
    前記人的関係を設定するか否かを決定することは、
    前記時刻関連性をさらに利用して前記人的関係を設定するか否かを決定することを特徴とする請求項1から7のいずれか一項に記載の関係設定方法。
  9. 前記情報を受信することは、
    前記複数のモバイル端末機の方向に対する情報をさらに受信し、
    前記ジェスチャ関連性を決定することは、
    前記方向に対する情報をさらに利用して前記ジェスチャ関連性を決定することを特徴とする請求項1から8のいずれか一項に記載の関係設定方法。
  10. 前記情報を受信することは、
    前記複数のモバイル端末機の方向に対する情報をさらに受信し、
    前記方向に対する情報を比較して方向関連性を決定することをさらに含み、
    前記人的関係を設定するか否かを決定することは、
    前記方向関連性をさらに利用して前記人的関係を設定するか否かを決定することを特徴とする請求項1から9のいずれか一項に記載の関係設定方法。
  11. 複数のモバイル端末機から1つのユーザジェスチャに対して前記複数のモバイル端末機それぞれで認識されたジェスチャに対する情報を受信する情報受信部、
    前記認識されたジェスチャに対する情報に基づいて前記認識されたジェスチャと前記1つのユーザジェスチャとの間のジェスチャ関連性を決定する関連性決定部、および
    前記ジェスチャ関連性を利用して前記複数のモバイル端末機のユーザ間に人的関係を設定するか否かを決定する関係設定部を含む関係設定システム。
  12. 前記情報受信部は、
    前記複数のモバイル端末機それぞれの地理的位置情報をさらに受信し、
    前記関連性決定部は、
    前記地理的位置情報に基づいて前記地理的位置相互の位置関連性を決定し、
    前記関係設定部は、
    前記位置関連性をさらに利用して前記人的関係を設定するか否かを決定することを特徴とする請求項11に記載の関係設定システム。
  13. 前記関連性決定部は、
    前相互の距離が予め設定された距離範囲以内に存在するか否かに応じて前記位置関連性の有無を決定することを特徴とする請求項12に記載の関係設定システム。
  14. 前記認識されたジェスチャに対する情報は、前記複数のモバイル端末機それぞれにおいてジェスチャの認識が始まった位置に対する情報および前記ジェスチャの認識が終わった位置に対する情報を少なくとも含むことを特徴とする請求項11から13のいずれか一項に記載の関係設定システム。
  15. 前記ジェスチャ関連性を決定することは、
    前記認識されたジェスチャに対して前記ジェスチャの認識が終わった位置と前記ジェスチャの認識が始まった位置とを比較し、前記認識されたジェスチャが互いに連続した1つのジェスチャであるか否かに応じて前記ジェスチャ関連性の有無を決定することを特徴とする請求項14に記載の関係設定システム。
  16. 請求項1から10のいずれか一項に記載の方法をコンピュータに実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  17. モバイル端末機のユーザと少なくとも1つの他のモバイル端末機のユーザとの間の関係を設定するように前記モバイル端末機を制御するアプリケーションをインストールするためのファイルを配布するファイル配布システムであって、
    前記ファイルを管理し、前記モバイル端末機の要請に応じて前記ファイルを前記モバイル端末機に提供するファイル管理部
    を含み、
    前記アプリケーションは、
    前記モバイル端末機と前記少なくとも1つの他のモバイル端末機とに渡って発生するユーザジェスチャの少なくとも一部を前記モバイル端末機のタッチディスプレイまたはモーションセンサを通じて認識するように前記モバイル端末機を制御するモジュール、および
    前記認識された少なくとも一部のジェスチャに対する情報を関係設定サーバに送信するように前記モバイル端末機を制御するモジュール
    を含み、
    前記少なくとも1つの他のモバイル端末機で認識された前記ユーザジェスチャの少なくとも一部に対する情報が前記関係設定サーバに送信され、
    前記関係設定サーバにおいて、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機から送信されたジェスチャに対する情報に基づき、前記モバイル端末機と前記少なくとも1つの他のモバイル端末機とのユーザ間に人的関係を設定するか否かが決定されることを特徴とするファイル配布システム。
  18. 前記関係設定サーバにおいて、前記送信されたジェスチャに対する情報に基づいて前記送信されたジェスチャと前記ユーザジェスチャとの間のジェスチャ関連性が決定され、前記ジェスチャ関連性を利用して前記モバイル端末機と前記少なくとも1つの他のモバイル端末機とのユーザ間の人的関係の設定可否が決定されることを特徴とする請求項17に記載のファイル配布システム。
JP2014061373A 2013-06-10 2014-03-25 ジェスチャ情報を利用してサービスに対するユーザ間の関係を設定する方法およびシステム Active JP5829298B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20130066163A KR101511995B1 (ko) 2013-06-10 2013-06-10 제스처 정보를 이용하여 서비스에 대한 사용자간 관계를 설정하는 방법 및 시스템
KR10-2013-0066163 2013-06-10

Publications (2)

Publication Number Publication Date
JP2014239415A true JP2014239415A (ja) 2014-12-18
JP5829298B2 JP5829298B2 (ja) 2015-12-09

Family

ID=52006365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014061373A Active JP5829298B2 (ja) 2013-06-10 2014-03-25 ジェスチャ情報を利用してサービスに対するユーザ間の関係を設定する方法およびシステム

Country Status (3)

Country Link
US (1) US9953380B2 (ja)
JP (1) JP5829298B2 (ja)
KR (1) KR101511995B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143361A (ja) * 2015-02-05 2016-08-08 Line株式会社 サーバ、端末特定方法および端末特定プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106789548A (zh) * 2015-11-24 2017-05-31 腾讯科技(深圳)有限公司 处理用户关系链的方法、近场社交的实现方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048610A (ja) * 2009-08-27 2011-03-10 Jvc Kenwood Holdings Inc 画像表示システム、及び画像表示方法
WO2011105322A1 (ja) * 2010-02-26 2011-09-01 日本電気株式会社 通信システム、通信端末、サーバ、通信方法及びプログラム
JP2012003635A (ja) * 2010-06-18 2012-01-05 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2012142794A (ja) * 2010-12-28 2012-07-26 Fujitsu Ltd サービス提供方法、情報処理装置及びプログラム
JP2012212402A (ja) * 2011-03-31 2012-11-01 Ntt Docomo Inc 携帯端末、データ送信システムおよびデータ送信方法
JP2013027029A (ja) * 2011-07-26 2013-02-04 Ricoh Co Ltd アプリケーション配信システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8046701B2 (en) * 2003-08-07 2011-10-25 Fuji Xerox Co., Ltd. Peer to peer gesture based modular presentation system
US7532196B2 (en) * 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
US20100167715A1 (en) 2008-12-31 2010-07-01 Motorola, Inc. Method and Apparatus for Social Networking in a Communication Network
WO2010105440A1 (en) * 2009-03-20 2010-09-23 Google Inc. Interaction with ime computing device
US8380225B2 (en) * 2009-09-14 2013-02-19 Microsoft Corporation Content transfer involving a gesture
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
JP5441619B2 (ja) * 2009-10-30 2014-03-12 ソニーモバイルコミュニケーションズ, エービー 近距離無線通信装置、近距離無線通信システム、近距離無線通信装置の制御方法、近距離無線通信装置の制御プログラム、及び、携帯電話端末
TWI423144B (zh) 2009-11-10 2014-01-11 Inst Information Industry Combined with the audio and video behavior identification system, identification methods and computer program products
US8386620B2 (en) 2009-12-15 2013-02-26 Apple Inc. Ad hoc networking based on content and location
AU2011329658B2 (en) * 2010-11-18 2017-03-16 Google Llc Surfacing off-screen visible objects
EP2469882A3 (en) * 2010-12-23 2013-10-09 BlackBerry Limited Social media shuffle system and application
KR101873405B1 (ko) * 2011-01-18 2018-07-02 엘지전자 주식회사 드로잉한 패턴을 이용한 사용자 인터페이스 제공방법 및 그 이동 단말기
WO2013009413A1 (en) * 2011-06-06 2013-01-17 Intellitact Llc Relative touch user interface enhancements
KR101107027B1 (ko) * 2011-05-23 2012-01-25 (주)휴모션 실시간 오브젝트 전송 및 상황 공유 방법
US20130125016A1 (en) * 2011-11-11 2013-05-16 Barnesandnoble.Com Llc System and method for transferring content between devices
FR2984654A1 (fr) * 2011-12-16 2013-06-21 St Microelectronics Crolles 2 Appairage de dispositifs sans fil
US9098133B2 (en) * 2011-12-30 2015-08-04 Linkedin Corporation Mobile device pairing
US9131333B2 (en) * 2011-12-30 2015-09-08 Linkedin Corporation Systems and methods for mobile device pairing
US8970525B1 (en) * 2012-06-27 2015-03-03 Google Inc. Method and system for trackpad input error mitigation
JP6017680B2 (ja) * 2012-06-29 2016-11-02 インテル コーポレイション 動きを用いてモバイル通信デバイスをセキュアにペアリングするデバイス、方法、及びシステム
US8913955B1 (en) * 2012-09-17 2014-12-16 Amazon Technologies, Inc. Magnetically initiated device pairing
US20150126118A1 (en) * 2013-11-07 2015-05-07 Peisen Lin Method and apparatus for intention based contactless device pairing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048610A (ja) * 2009-08-27 2011-03-10 Jvc Kenwood Holdings Inc 画像表示システム、及び画像表示方法
WO2011105322A1 (ja) * 2010-02-26 2011-09-01 日本電気株式会社 通信システム、通信端末、サーバ、通信方法及びプログラム
JP2012003635A (ja) * 2010-06-18 2012-01-05 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2012142794A (ja) * 2010-12-28 2012-07-26 Fujitsu Ltd サービス提供方法、情報処理装置及びプログラム
JP2012212402A (ja) * 2011-03-31 2012-11-01 Ntt Docomo Inc 携帯端末、データ送信システムおよびデータ送信方法
JP2013027029A (ja) * 2011-07-26 2013-02-04 Ricoh Co Ltd アプリケーション配信システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143361A (ja) * 2015-02-05 2016-08-08 Line株式会社 サーバ、端末特定方法および端末特定プログラム

Also Published As

Publication number Publication date
KR20140144101A (ko) 2014-12-18
US9953380B2 (en) 2018-04-24
KR101511995B1 (ko) 2015-04-14
JP5829298B2 (ja) 2015-12-09
US20140365485A1 (en) 2014-12-11

Similar Documents

Publication Publication Date Title
EP3198422B1 (en) Unified provisioning of applications on devices in an enterprise system
US9712511B2 (en) Mobile cloud service architecture
US10068373B2 (en) Electronic device for providing map information
KR20140015374A (ko) 개선된 장치 위치 검출
CN101561486B (zh) 使用公式的位置确定处理
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
US10129242B2 (en) Multi-persona devices and management
US20120235926A1 (en) Handheld devices and related data transmission methods
US9146716B2 (en) Automatic resource balancing for multi-device applications
KR20140037846A (ko) 자동 조회에 기초하여 인근 장소를 찾는 기법
US9870057B1 (en) Gesture detection using an array of short-range communication devices
WO2013124534A1 (en) Method and apparatus for hover-based spatial searches on mobile maps
US9400561B2 (en) Method of operating gesture based communication channel and portable terminal system for supporting the same
TW201227190A (en) System and method for controlling robots via cloud computing
CN105100390A (zh) 移动终端和用于控制该移动终端的方法
US10120556B2 (en) Slide to apply
TW201303656A (zh) 運動型樣分類及手勢辨識
US9471767B2 (en) CAPTCHA techniques utilizing traceable images
KR20160069370A (ko) 이동 단말기 및 그것의 제어방법
CN103106027B (zh) 便携式设备中的触摸输入方法和装置
WO2015043420A1 (zh) 权限控制方法和装置
US9912609B2 (en) Placement policy-based allocation of computing resources
US9967320B2 (en) Methods, systems, and media for controlling information used to present content on a public display device
US9866640B2 (en) Cookie based session management
US20170284822A1 (en) Input/Output Functions Related to a Portable Device In An Automotive Environment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141010

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151021

R150 Certificate of patent or registration of utility model

Ref document number: 5829298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250