JP2013533550A - ウィンドウオブジェクト慣性移動の実現方法及び実現装置 - Google Patents

ウィンドウオブジェクト慣性移動の実現方法及び実現装置 Download PDF

Info

Publication number
JP2013533550A
JP2013533550A JP2013516988A JP2013516988A JP2013533550A JP 2013533550 A JP2013533550 A JP 2013533550A JP 2013516988 A JP2013516988 A JP 2013516988A JP 2013516988 A JP2013516988 A JP 2013516988A JP 2013533550 A JP2013533550 A JP 2013533550A
Authority
JP
Japan
Prior art keywords
time
timer
initial
window object
velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013516988A
Other languages
English (en)
Other versions
JP5655142B2 (ja
Inventor
ミン レン
チアン ジャン
シャンドン ガオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2013533550A publication Critical patent/JP2013533550A/ja
Application granted granted Critical
Publication of JP5655142B2 publication Critical patent/JP5655142B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

【課題】ウィンドウオブジェクトの線速度と角速度に基づく慣性移動を実現するためのウィンドウオブジェクト慣性移動の実現方法及び実現装置を提供すること。
【解決手段】本発明に係るウィンドウオブジェクト慣性移動の実現方法では、入力デバイスがドラッグされたウィンドウオブジェクトをリリースする際に、線速度の初速度と角速度の初速度が取得され、これらから各処理時間に対応する変位量と回転量が取得され、リリースされた後のウィンドウオブジェクトの慣性移動効果がシミュレートされる。
【選択図】図4

Description

本発明は、タッチスクリーン装置のソフトウェア操作インターフェースの設計技術に関し、特に、ウィンドウオブジェクト慣性移動の実現方法及び実現装置に関する。
近年、インターネットインスタントメッセージツールは、数多くのネットワーク市民に受け入れられ、ユーザにとって必要不可欠なソフトウェアツールとなっている。
このインターネットインスタントメッセージツールは、娯楽のみならず、仕事でも広く使用されている。このため、インスタントメッセージ(IM:Instant Messsaging)ソフトウェアの使いやすさ、安定性、安全性等に対して高い要求が存在する。
技術の発展につれて、iPhone(登録商標)等のタッチ製品は次第に普及している。慣性を用いて実体化(realize materialization)を実現する設計が徐々に主流になっている。
慣性を用いて実体化を実現する従来の設計では、ユーザは直線的なタッチ操作により、線速度に基づくリストやウェブページの慣性的スクロールを実現できるが、回転の場合での「角速度」に基づく慣性効果を処理させることができない。
これに鑑みて、本発明の主な目的は、ウィンドウオブジェクトの線速度と角速度に基づく慣性移動効果を実現するためのウィンドウオブジェクト慣性移動の実現方法及び実現装置を提供することにある。
上記目的を達成するために、本発明の技術的スキームは、以下のように実現される。
ウィンドウオブジェクト慣性移動の実現方法は、
入力デバイスの初期接触動作を監視し、初期接触座標と接触時間を記録し、第1のタイマーを開始するステップAと、
ウィンドウオブジェクトをドラッグする過程において、ユーザが入力デバイスを介してスクリーンで生じさせた前時点からの変位量と回転量を取得するイベントを、第1のタイマーによって周期的にトリガーし、取得された変位量と回転量をウィンドウオブジェクトに伝送するステップBと、
ユーザがウィンドウオブジェクトをリリースする際に、ウィンドウオブジェクト線速度の初速度と角速度の初速度を取得し、第2のタイマーを開始するステップCと、
前記線速度の初速度と角速度の初速度に基づいてして、線速度の減速度と角速度の減速度からウィンドウオブジェクトの現在の変位量と回転量を取得するイベントを、第2のタイマーによって周期的にトリガーし、取得された現在の変位量と回転量をウィンドウオブジェクトに伝送するステップDと、
第2のタイマーの現在の時間における線速度の初速度と角速度の初速度が0以下である場合、ウィンドウオブジェクト慣性移動処理を中止するステップEとを含む。
更に、前記方法において、ユーザは、一つ又は複数の接触点で入力デバイスを介して前記ウィンドウオブジェクトをドラッグし、接触点が複数の場合、デバイス番号が最小である2つの接触点で前記変位量と回転量を取得する。
上記方法に基づいて、本発明は、ウィンドウオブジェクト慣性移動の実現装置を更に提供する。
ウインドウオブジェクト慣性移動の実現装置は、
入力デバイスがスクリーンドでウィンドウオブジェクトをドラッグする動作を取得し、対応する制御情報を生成する接触点取得ユニットと、
接触点取得ユニットから送信された制御情報に応じて、ウィンドウオブジェクトのドラッグ効果を実現し、入力デバイスがウィンドウオブジェクトをリリースする際に、線速度の初速度と角速度の初速度を取得し、取得した線速度の初速度と角速度の初速度を慣性処理ユニットに送信するドラッグ処理ユニットと、
ドラッグ処理ユニットから送信された線速度の初速度と角速度の初速度に基づいて、線速度の減速度と角速度の減速度から慣性移動効果を実現する慣性処理ユニットとを含む。
更に、前記接触点取得ユニットによって生成された前記制御情報は、
入力デバイスが最初にウィンドウオブジェクトに接触するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトの最初の接触を示す識別子とを含む入力デバイス初期制御情報と、
入力デバイスがウィンドウオブジェクトを移動させるときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのドラッグを示す識別子とを含む、入力デバイス動向制御情報と、
入力デバイスがウィンドウオブジェクトを移動するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのリリースを示す識別子とを含む入力デバイスリリース制御情報とを含む。
更に、前記ドラッグ処理ユニットは、
接触点取得ユニットから送信された初期制御情報を受信した場合に第1のタイマーを開始し、接触点取得ユニットから送信された動向制御情報から、前記第1のタイマーのトリガーに従って第1のタイマーの現在の時間におけるウィンドウオブジェクトの変位量と回転量を取得し、取得した変位量と回転量をウィンドウオブジェクトに送信する第1移動処理ユニットと、
接触点取得ユニットから送信されたリリース制御情報を受信した後、線速度の初速度と角速度の初速度を取得し、取得した線速度の初速度と角速度の初速度を慣性処理ユニットに送信する初速度処理ユニットとを含む。
本発明に係る技術的解決法の適用によって、ウィンドウオブジェクトの線速度と角速度に基づく慣性移動効果が実現され、操作が容易になり、実体化のインターフェースと操作を介して、ターミナルソフトウェアの使いやすさが向上し、ユーザ体験が改善される。
本発明に係るウィンドウオブジェクト慣性移動効果を実現する装置の構造の模式図である。 接触点が一つの場合の変位量と回転量の取得に係るベクトルダイアグラムである。 接触点が複数の場合の変位量と回転量の取得に係るベクトルダイアグラムである。 本発明に係るウィンドウオブジェクトの移動についてのフローチャートである。
本発明の基本的な着想は、ユーザがマウス又は指でウィンドウオブジェクトを移動させるプロセスに基づいて、実体化処理を実行し、ユーザがドラッグ操作を終了させた後、慣性処理ユニットを介して、マウスのドラッグボタンがリリースされたとき又は、指が離されたとき線速度と角速度から、移動オブジェクトの慣性移動を実現する。
本発明における移動オブジェクトとは、例えば、マウス又はタッチスクリーンに基づく指のドラッグ動作に応答可能なウィンドウオブジェクトインスタンスである。前記ウィンドウオブジェクトは自身のインターフェース属性、方法属性及びデータ属性を有し、ウィンドウインターフェースのトリガーイベントに応答できる。
例えば、Windowオペレーティングシステムを例にとると、ウィンドウオブジェクトは連絡先情報を表示するウィンドウとすることができる。ウィンドウオブジェクトはユーザによるクリックや移動操作に応答するイベントファンクションを有し、幅(Width)や高さ(Height)、ウィンドウ中心点を回転中心とする回転角度(Angle)、ウィンドウ中心点の横座標(CenterX)、ウィンドウ中心点の縦座標(CenterY)といったインターフェース属性を含む。
記載の便宜のために、以下の説明では、動作場面はユーザが指又はマウスを用いてインスタントメッセージの連絡先で代表されるウィンドウオブジェクトインスタンス(記載の便宜のために、以下、ウィンドウオブジェクトと略称する)を移動させるものとする。ユーザが一定の速度でウィンドウオブジェクトを移動させ、瞬間的に指又はマウスボタンを離すと、ウィンドウオブジェクトは慣性の作用によってそれまでの移動軌跡に沿って、移動と回転を継続し、摩擦力(減速度)の作用によって次第に静止状態となる。
本発明の目的、技術的解決法及び利点が明らかになるように、以下、実施形態を挙げて、且つ図面を参照して、本発明を更に詳しく説明する。
図1は本発明に係るウィンドウオブジェクト慣性移動効果を実現する装置の構造の模式図である。この装置は接触点取得ユニット101、ドラッグ処理ユニット102及び慣性処理ユニット103を含む。
接触点取得ユニット101は、入力デバイスがスクリーンでウィンドウオブジェクトをドラッグする操作を取得し、対応する制御情報を生成する。
前記入力デバイスは、タッチスクリーン、マウス、ワードパッド等のウィンドウ移動を実現できる装置を含む。
前記制御情報は、(1)入力デバイスがウィンドウオブジェクトに最初に接触したときの位置、時間、デバイス番号、ウィンドウオブジェクトへの初期接触を示す識別子等を含む。入力デバイス初期制御情報を含む。
また、前記制御情報は、(2)入力デバイスがウィンドウオブジェクトを移動させているときの位置、時間、デバイス番号、ウィンドウオブジェクトをドラッグしていることを示す識別子等を含む入力デバイス動向制御情報を含む。
また、前記制御情報は、(3)入力デバイスがウィンドウオブジェクトをリリースし、ドラッグを終了させるときの位置、時間、デバイス番号、ウィンドウオブジェクトをリリースすることを示す識別子等を含む入力デバイスリリース制御情報を含む。
接触点取得ユニット101は、本発明に係る前記装置とオペレーティングシステムとの間のインターフェースユニットである。接触点取得ユニット101は、オペレーティングシステムのウィンドウオブジェクトに対する動作をリアルタイムに監視し、入力デバイスによって生成された制御情報を取得し、制御情報をドラッグ処理ユニットに伝送する。ドラッグ処理ユニットは
ウィンドウオブジェクトに対するドラッグ効果を実現する。
例えば、マウス又は指が押され、移動された場合に、接触点取得ユニット101は、マウスの押圧イベント又は指のタッチイベントを取得して、ドラッグ処理ユニット102に初期制御情報を送信する。初期制御情報は接触点の位置座標、現在の時間、デバイス番号、ウィンドウオブジェクトのドラッグのためにマウスの左ボタン又は指が押されたことを識別する識別子等を含む。
前記デバイス番号は、異なる入力デバイスを区別することに用いられ、マルチタッチの場合には、例えばユーザが同時に2つの指を用いてウィンドウオブジェクトにタッチすると、異なる時点でタッチスクリーンに接触した指に対応するデバイス番号は異なる。
ドラッグ処理ユニット102は、接触点取得ユニット101から送信された制御情報に応じて、ウィンドウオブジェクトのドラッグ効果を実現する。
前記ドラッグ処理ユニット102は、第1の移動処理ユニットと初速度処理ユニットを含む。
第1の移動処理ユニットは、接触点取得ユニット101から送信された初期制御情報を受信した場合に、第1のタイマーTimer1を開始する。第1の移動処理ユニットは、Timer1によるトリガーに従って、接触点取得ユニット101から送信された動向制御情報から、Timer1の現在の時間におけるウィンドウオブジェクトの変位量と回転量を取得し、取得した変位量と回転量をウィンドウオブジェクトに送信する。
初速度処理ユニットは、接触点取得ユニット101から送信されたリリース制御情報を受信した後、線速度の初速度と角速度の初速度を取得し、取得した線速度の初速度と角速度の初速度を慣性処理ユニットに送信する。
ウィンドウオブジェクトのドラッグ効果を実現する方法は、具体的には、
(1)ドラッグ処理ユニット102が、接触点取得ユニット101から送信された初期制御情報を受信した後、初期接触点の位置座標情報(X,Y)、初期接触時間T及びデバイス番号を記録する。
(2)マウス又は指が押され、移動するとき、ドラッグ処理ユニット102は時間Δt毎にマウス又は指の位置(X,Y)、現在の時間T及びデバイス番号を記録し、前回の記録時点に対する変位量と回転量を取得し、相対的な変位量と回転量をウィンドウオブジェクトに送信する。ウィンドウオブジェクトはドラッグ効果を実現するための自身の属性値を設定する。
例えば、ウィンドウオブジェクトの中心座標属性が(CenterX,CenterY)であり、回転角度属性がAngleであり、T時間にウィンドウオブジェクトから取得された現在の変位量が(ΔX,ΔY)であり、現在の回転量がαである場合に、ウィンドウオブジェクトは自身の中心座標属性値と回転角度属性値を以下のように設定する。
CenterX=CenterX+ΔX
CenterY=CenterY+ΔY
Angle=Angle+α
ウィンドウオブジェクトは、上記の中心座標属性値と回転角度属性値を設定することによって、ウィンドウオブジェクトのインターフェース再描画ファンクションをトリガーし、新たな座標位置において新たな回転角度でウィンドウオブジェクトを表示する。
(3)入力デバイスがウィンドウオブジェクトをリリースした場合、即ちマウスのボタンがリリースされ、又は指が離された場合、接触点取得ユニット101はリリース制御情報をドラッグ処理ユニット102に送信する。ドラッグ処理ユニット102はリリース前のTimer1の最後の時間において取得された変位量と回転量に従って、線速度の初速度と角速度の初速度を取得する。
上記変位量、回転量、線速度の初速度、角速度の初速度の取得は、シングルポイント接触とマルチポイント接触との2種類のケースに分けられる。
(1)図2に示すようにシングルポイント接触の場合、変位量、回転量、線速度の初速度、角速度の初速度の取得方法は、以下のようになる。
i−1からTまでの変位量(ΔX,ΔY)は次式で表される。
(ΔX,ΔY)=(X−Xi−1,Y−Yi−1
ここで、(X,Y)はTimer1のT時間における接触点の座標ベクトルであり、(Xi−1,Yi−1)はTimer1のTi−1時間における接触点の座標ベクトルである。
i−1からTまでの回転量αは、次式で表される。
α=arcos[u.v/(|u||v|)]
ここで、回転中心座標はウィンドウオブジェクトの中心座標(C,C)であり、uはTimer1のT時間における接触点座標と回転中心座標との間のベクトルであり、即ちu=(X−C,Y−C)となる。vはTimer1のTi−1時間における接触触点座標と回転中心座標との間のベクトルであり、即ちv=(Xi−1−C,Yi−1−C)となる。
入力デバイスがウィンドウオブジェクトをリリースした際の線速度の初速度Vは、次式で表される。
V=(X−Xn−1,Y−Yn−1)/(T−Tn−1)=(X−Xn−1,Y−Yn−1)/Δt
ここで、(X,Y)は、入力デバイスがウィンドウオブジェクトをリリースした際、Timer1の最後の時間であるT時間における接触点の座標ベクトルであり、(Xn−1,Yn−1)はTn−1時間における接触点の座標ベクトルである。
Δtを基準単位時間に設定すると、上記の式は次式のように単純化することができる。
V=(X−Xn−1,Y−Yn−1
入力デバイスがウィンドウオブジェクトをリリースした際の角速度の初速度Vaは次式で表される。
Va=arcos[u.v/(|u||v|)]/(T−Tn−1)=arcos[u. v/(|u||v|)]/Δt
ここで、uはTimer1のT時間における接触点座標(X,Y)と回転中心座標(C,C)との間のベクトルであり、即ちu=(X−C,Y−C)である。vはTimer1のTn−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちv=(Xn−1−C,Yn−1−C)である。
Δtを基準単位時間に設定すると、上記の式は次式のように単純化することができる。
Va=arcos[u.v/(|u||v|)]
(2)図3に示すようにマルチポイント接触の場合、デバイス番号が最小である2つの点のみが考慮され、変位量、回転量、線速度の初速度、角速度の初速度の取得方法次のようになる。
仮に、デバイス番号が最小である2つの接触点の、Timer1のTi−1時間における座標が(Xi−1,d0,Yi−1,d0)と(Xi−1,d1,Yi−1,d1)であり、T時間における座標が(Xi,d0,Yi,d0)と(Xi,d1,Yi,d1)であるとする。ここで、d0とd1はデバイス番号である。この2つの接触点のTi−1時間とT時間における中心の座標ベクトルはそれぞれ、次式で表される。
(CX,CY)=((Xi,d0+Xi,d1)/2,(Yi,d0+Yi,d1)/2)
(CXi−1,CYi−1)=((Xi−1,d0+Xi−1,d1)/2,(Yi−1,d0+Yi−1,d1)/2)
i−1からTまでの変位量(ΔX,ΔY)は次式で表される。
(ΔX,ΔY)=(CX−CXi−1,CY−CYi−1
入力デバイスがウィンドウオブジェクトをリリースするときの、Timer1のT時間に対応する線速度の初速度Vは次式で表される。
V=(CX−CXn−1,CY−CYn−1)/(T−Tn−1)=(CX−CXn−1,CY−CYn−1)/Δt
ここで、(X,CY)、(CXn−1,CYn−1)はそれぞれ、入力デバイスがウィンドウオブジェクトをリリースするときに、デバイス番号が最小である2つの接触点のTimer1の最後の時間であるT時間とTn−1時間に形成されたベクトルの中心点座標であり、ΔtはTimer1のタイミング間隔である。
Δtを基準単位時間に設定すると、上記の式を次式のように単純化することができる。
V=(CX−CXn−1,CY−CYn−1
マルチポイント接触の場合、回転量を取得する際に、デバイス番号が最小である2つの接触点のみが考慮される。、Ti−1時間における2つの接触点を結ぶ線と、T時間における2つの接触点を結ぶ線の交点は回転量を取得する際の中心点となる。
時間における2つの接触点の座標が(Xi,d0,Yi,d0)と(Xi,d1,Yi,d1)であり、Ti−1時間における2つの接触点の座標が(Xi−1,d0,Yi−1,d0)と(Xi−1,d1,Yi−1,d1)である場合、回転量を取得するための回転中心座標は、次式で表される。
(Cx,Cy)=((Xi,d0+Xi,d1)/2,(Yi,d0+Yi,d1)/2)
i−1からTまでの回転量αは、次式で表される。
α=arcos[u. v/(|u||v|)]
ここで、uはTimer1のT時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトル(Xi,d0−Xi,d1,Yi,d0−Yi,d1)である。vはTimer1のTi−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトル(Xi−1,d0−Xi−1,d1,Yi−1,d0−Yi−1,d1)である。
入力デバイスがウィンドウオブジェクトをリリースするときの、Timer1のT時間に対応する回転量角速度の初速度Vaは、次式で表される。
Va=arcos[u.v/(|u||v|)]/(T−Tn−1)=arcos[u. v/(|u||v|)]/Δt
ここで、uは入力デバイスがウィンドウオブジェクトをリリースするときの、Timer1の最後の時間であるT時間における、デバイス番号が最小である2つの接触点によって形成されたベクトル(Xn,d0−Xn,d1,Yn,d0−Yn,d1)である。vはTn−1時間における、デバイス番号が最小である2つの接触点によって形成されたベクトル(Xn−1,d0−Xn−1,d1,Yn−1,d0−Yn−1,d1)である。
Δtを基準単位時間に設定すると、上記の式を次式のように単純化することができる。
Va=arcos[u.v/(|u||v|)]
慣性処理ユニット103は、入力デバイスがウィンドウオブジェクトをリリースした後、即ちユーザがドラッグ操作を終了させた後に慣性移動効果を実現する。慣性処理ユニット103はドラッグ処理ユニット102から送信されたリリース制御情報を受信した後、第2のタイマーTimer2を開始し、時間Tgの各時間毎にタイマー処理ファンクションを一回トリガーする。
慣性処理ユニット103は、タイマー処理ファンクションにおいて、Timer2の現在の時間における線速度の初速度と角速度の初速度から現在の時間内の変位量と回転量を取得し、取得した現在の時間内の変位量と回転量をウィンドウオブジェクトに送信する。ウィンドウオブジェクトは自身の属性を設定し、慣性移動効果を実現する。
Timer2のT時間に対応する線速度の初速度Vは、次式で表される。
=Vi−1−Vdec*Tg
ここで、Vdecは線速度の減速度であり、この値は実際の情況に応じてユーザ又はシステムにより予め設定されてもよい。この値は、線速度の摩擦係数を調整することに相当する。
入力デバイスがウィンドウオブジェクトをリリースした後のTimer2の最初の時間において、Vはドラッグ処理ユニット102から送信された線速度の初速度Vである。TgはTimer2の間隔であり、この値はユーザ又はシステムにより予め設定されてよい。
Timer2のT時間における角速度の初速度Vaは次式で表される。
Va=Vai−1−Vadec*Tg
ここで、Vadecは角速度の減速度であり、この値は実際の情況に応じてユーザ又はシステムにより予め設定されてもよい。この値は、角速度の摩擦係数を調整することに相当する。
入力デバイスがウィンドウオブジェクトをリリースした後のTimer2の最初の時間において、Vaはドラッグ処理ユニット102から送信された角速度の初速度Vaである。
Timer2のT時間に対応する変位量(ΔX,ΔY)は、次式で表される。
(ΔX,ΔY)=(V−Vdec*Tg)*Tg=(V.X−Vdec*Tg,V.Y−Vdec*Tg)*Tg
ここで、VはTimer2のT時間における線速度の初速度ベクトルであり、TgはTimer2のタイミング間隔である。
Timer2のT時間における回転量αは、次式で表される。
α=(Va−Vadec*Tg)*Tg
ここで、VaはTimer2のT時間における角速度の初速度である。
TgとΔtとが等しく、且つΔtを基準単位時間に設定すると、上記の式を次式のように単純化することができる。
(ΔX,ΔY)=(V.X−Vdec,V.Y−Vdec
α=(Va−Vadec
Tg=Δt、即ちTgが慣性処理とウィンドウオブジェクト位置の更新時のサンプリングスピードの単位時間であるΔtと等しい場合、計算量を大幅に削減することができる。
上記式により取得された現在の時間のウィンドウオブジェクトの慣性移動の変位量と回転量が0以下である場合、慣性処理は終了する。
ウィンドウオブジェクトは、慣性処理ユニット103から送信された変位量と回転量を受信した後、自身の中心座標属性値と回転角度属性値を次式のように設定する。
CenterX=CenterX+ΔX
CenterY=CenterY+ΔY
Angle=Angle+α
インターフェース再描画ファンクションは、中心座標属性値と回転角度属性値を設定することにより、トリガーされ、新たな座標位置において新たな回転角度でウィンドウオブジェクトを表示し、これにより慣性移動効果を実現する。
図4は本発明に係るウィンドウオブジェクトの移動方法のフローチャートであり、以下のステップを含む。
ステップ401:入力デバイスの初期接触動作を監視し、初期制御情報を取得する。
このステップでは、触点取得ユニットが入力デバイスの初期接触動作を監視し、初期接触動作を監視した後、初期制御情報をドラッグ処理ユニットに送信する。
前記入力デバイスは、マウス、タッチスクリーン、ワードパッド等のウィンドウオブジェクト移動機能を有する入力デバイスを含む。入力デバイスが異なると、生成されるシステムメッセージも異なる。例えば、マウスがウィンドウオブジェクトの移動をトリガーすることを示すシステムメッセージは、マウスの左ボタンがが押されて移動されることであってもよい。
タッチスクリーンがウィンドウオブジェクトの移動をトリガーすることを示すシステムメッセージは、指が押されて移動されることであってもよい。
前記初期接触動作とは、ウィンドウオブジェクトを移動させるために、ユーザが最初にマウスの左ボタンを押すクリック操作であり、又は最初に指でタッチスクリーンを押す操作である。
前記初期制御情報は、初期接触点の位置、時間、デバイス番号、ボタンコード等を含む。
ステップ402:初期制御情報を記録し、第1のタイマーTimer1を開始し、タイミング間隔をΔtとして設定する。Δtは実際の情況に応じてユーザ又はシステムにより予め設定される。
ドラッグ処理ユニットは、接触点取得ユニットから送信された初期制御情報を受信した後、前記初期制御情報を記録し、Timer1を開始する。Timer1はウィンドウオブジェクトの変位量(ΔX,ΔY)と回転量αを算出するイベントファンクションを周期的にトリガーする。これにより、現在の時間において入力デバイスによってスクリーンにおいて生成された変位量と回転量が取得される。
ステップ403:Timer1のタイミング時間が満了した場合、動向制御情報を取得し、現在の時間においてユーザによって入力デバイスを介してスクリーンで生成された変位量と回転量が取得される。
このステップを実行する前提条件は、ユーザが入力デバイスの押圧操作を維持し、静止させ、又はウィンドウオブジェクトをドラッグさせることである。触点取得ユニットは、監視された入力デバイスによって生成されたシステムメッセージを動向制御情報(位置、時間、デバイス番号等を含む)に変換してドラッグ処理ユニットに連続的に送信する。
ドラッグ処理ユニットはローカルにキャッシュされた動向制御情報をリアルタイムに更新し、各Timer1のタイミング時間が満了する毎に動向制御情報を記録する。この履歴はスクリーン上における入力デバイスの動きの軌跡(ジェスチャー)を反映し、入力デバイスTimer1の現在の時間におけるウィンドウオブジェクトの変位量と回転量が取得される。
ステップ404:ウィンドウオブジェクトは、取得された変位量と回転量に従って、ウィンドウオブジェクトのスクリーンでの位置と回転角度を調整する。
ドラッグ処理ユニットは、現在の時点の変位量と回転量を取得した後、それをウィンドウオブジェクトに伝送する。ウィンドウオブジェクトは自身の中心点座標と自身の中心点座標に対する回転角度の属性値を設定することによって、ウィンドウ再描画プロセスをトリガーし、これによりドラッグ効果が実現される。
ステップ405:入力デバイスがウィンドウオブジェクトをリリースするか、即ちユーザがマウスボタンをリリースし、又は指を離してドラッグ動作を終了させるかどうかが判断されるウィンドウオブジェクトがリリースされる場合、ステップ406が実行され、ウィンドウオブジェクトがリリースされない場合、ステップ403が実行される。
このステップでは、接触点取得ユニットが、入力デバイスがウィンドウオブジェクトをリリースするかを監視する。リリース情報が検出された後、接触点取得ユニットは直ちにリリース制御情報をドラッグ処理ユニットに送信する。前記リリース制御情報はリリース時刻の位置、時間、デバイス番号等の情報を含む。
ステップ406:ドラッグ操作が終了された場合、Timer1の最後の時間であるT時間に対応する線速度の初速度Vと角速度の初速度Vaが取得され、Timer1を停止する。
ドラッグ処理ユニットは、制御情報の履歴に従って、入力デバイスがウィンドウオブジェクトをリリースした際に、Timer1の最後の時間であるT時間における線速度の初速度Vと角速度の初速度Vaを取得する。取得方法は上述したため、詳細な記載はここでは省略する。ドラッグ処理ユニットは、取得した初速度Vと角速度の初速度Vaを慣性処理ユニットに送信する。
ステップ407:第2のタイマーTimer2が開始され、タイミング間隔がTgに設定される。
このステップでは、慣性処理ユニットは、VとVaを受信した後、第2のタイマーTimer2を開始する。Timer2は、入力デバイスがウィンドウオブジェクトをリリースした後の慣性移動効果を実現することに用いられる。
ステップ408:Timer2のタイミング時間が満了する度に、線速度の減速度Vdecと角速度の減速度Vadecからウィンドウオブジェクトの現在の変位量と回転量が取得される。現在の時刻の位置が記録され、次のタイミング時間のために、線速度の初速度Vと角速度の初速度Vaが算出される。
このステップでは、慣性処理ユニットは、予め設定されたVdecとVadecに従って、入力デバイス、Timer2の現在のタイミング時間において、入力デバイスがウィンドウオブジェクトをリリースした後にウィンドウオブジェクトが前方へ移動し続けるための変位量と回転量を取得する。取得方法は上述したため、詳細な記載はここでは省略する。
Timer2の次のタイミング時間の線速度の初速度Vと角速度の初速度Vaの取得方法は、次式で表される。
=Vi−1−Vdec*Tg;Va=Vai−1−Vadec*Tg
ステップ409:慣性移動が終了したかが判断され、終了した場合、プロセスを終了させ、終了していない場合、ステップ410を実行する。
慣性移動が終了したかを判断するステップでは、ステップ408で取得されたVとVaが0以下であるかが判断される。、0以下である場合、Timer2は停止され、慣性移動処理は終了する。一方の値が0以下であるが、他方の値が依然として0より大きい場合、他方値に対して慣性処理を行う必要がある。
例えば、Vが0以下であるが、Vaが0より大きい場合、Timer2の現在の時間と後続の時間では変位量はいずれも0であり、回転量は0ではない。慣性移動処理は、両者とも現在の時間で0以下となるまで終了しない。
ステップ410:ウィンドウオブジェクトは、取得された変位量と回転量に従って、ウィンドウオブジェクトのスクリーンでの位置と回転角度を調整し、慣性移動効果を実現する。そして再びステップ408が実行される。
以上は、本発明の最適な実施形態であり、本発明の保護範囲を制限するものではない。

Claims (10)

  1. 入力デバイスの初期接触動作を監視し、初期接触座標と接触時間を記録し、第1のタイマーを開始するステップAと、
    ウィンドウオブジェクトをドラッグする過程において、ユーザが入力デバイスを介してスクリーンで生じさせた前時点からの変位量と回転量を取得するイベントを、第1のタイマーによって周期的にトリガーし、取得された変位量と回転量をウィンドウオブジェクトに伝送するステップBと、
    ユーザがウィンドウオブジェクトをリリースする際に、ウィンドウオブジェクトの線速度の初速度と角速度の初速度を取得し、第2のタイマーを開始するステップCと、
    前記線速度の初速度と角速度の初速度に基づいて、線速度の減速度と角速度の減速度からウィンドウオブジェクトの現在の変位量と回転量を取得するイベントを、第2のタイマーによって周期的にトリガーし、取得された現在の変位量と回転量をウィンドウオブジェクトに伝送するステップDと、
    第2のタイマーの現在の時間における線速度の初速度と角速度の初速度が0以下である場合、ウィンドウオブジェクト慣性移動処理を中止するステップEと
    を含むことを特徴とするウィンドウオブジェクト慣性移動の実現方法。
  2. ユーザは、一つ又は複数の接触点で入力デバイスを介して前記ウィンドウオブジェクトをドラッグし、
    接触点が複数の場合、デバイス番号が最小である2つの接触点で前記変位量と回転量を取得することを特徴とする
    請求項1に記載のウィンドウオブジェクト慣性移動の実現方法。
  3. 接触点が一つの場合、
    ステップBの前記変位量と回転量の取得においては、
    i−1からTまでの変位量(ΔX,ΔY)は、次式
    (ΔX,ΔY)=(X−Xi−1,Y−Yi−1
    で表され、
    ここで、(X,Y)は第1のタイマーのT時間における接触点の座標ベクトルであり、(Xi−1,Yi−1)は第1のタイマーのTi−1時間における接触点の座標ベクトルであり、
    i−1からTまでの回転量αは、次式
    α=arcos[u.v/(|u||v|)]
    で表され、
    ここで、回転中心座標はウィンドウオブジェクトの中心座標(C,C)であり、uは第1のタイマーのT時間における接触点座標と回転中心座標との間のベクトルであり、即ちu=(X−C,Y−C)であり、vは第1のタイマーのTi−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちv=(Xi−1−C,Yi−1−C)であり、
    ステップCの前記線速度の初速度Vと角速度の初速度Vaの取得においては、
    線速度の初速度Vは、次式
    V=(X−Xn−1,Y−Yn−1)/(T−Tn−1)=(X−Xn−1,Y−Yn−1)/Δt
    で表され、
    ここで、(X,Y)は、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーの最後の時間であるT時間における接触点の座標ベクトルであり、(Xn−1,Yn−1)は、Tn−1時間における接触点の座標ベクトルであり、Δtは、第1のタイマーのタイミング間隔であり、
    角速度の初速度Vaは、次式
    Va=arcos[u.v/(|u||v|)]/(T−Tn−1)=arcos[u.v/(|u||v|)]/Δt
    で表され、
    ここで、uは、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーのT時間における接触点座標(X,Y)と回転中心座標(C,C)との間のベクトルであり、即ちu=(X−C,Y−C)であり、vは第1のタイマーのTn−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちv=(Xn−1−C,Yn−1−C)である
    ことを特徴とする請求項2に記載のウィンドウオブジェクト慣性移動の実現方法。
  4. 接触点が複数の場合、
    ステップBの前記変位量と回転量の取得においては、
    i−1からTまでの変位量(ΔX,ΔY)は、次式
    (ΔX,ΔY)=(CX−CXi−1,CY−CYi−1
    で表され、
    ここで、(CX,CY)、(CXi−1,CYi−1)はそれぞれ、デバイス番号が最小である2つの接触点の第1のタイマーのT時間とTi−1時間に対応する中心点座標であり、
    i−1からTまでの回転量αは、次式
    α=arcos[u.v/(|u||v|)]
    で表され、
    ここで、uは第1のタイマーのT時間におけるデバイス番号が最小である2つの点によって形成されたベクトルであり、vは第1のタイマーのTi−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルであり、
    ステップCの線速度の初速度Vと角速度の初速度Vaの取得においては、
    線速度の初速度Vは、次式
    V=(CX−CXn−1,CY−CYn−1)/(T−Tn−1)=(CX−CXn−1,CY−CYn−1)/Δt
    で表され、
    ここで、(CX,CY)、(CXn−1,CYn−1)は、それぞれ、入力デバイスがウィンドウオブジェクトをリリースした際に、デバイス番号が最小である2つの接触点の第1のタイマーの最後の時間であるT時間とTn−1時間において形成されたベクトルの中心点座標であり、Δtは第1のタイマーのタイミング間隔であり、
    角速度の初速度Vaは、次式
    Va=arcos[u. v/(|u||v|)]/(T−Tn−1)=arcos[u. v/(|u||v|)]/Δt
    で表され、
    ここで、uは、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーの最後の時間であるT時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルであり、vはTn−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルである
    ことを特徴とする請求項2に記載のウィンドウオブジェクト慣性移動の実現方法。
  5. ステップDの前記線速度の減速度と角速度の減速度からのウィンドウオブジェクトの現在の変位量と回転量の取得においては、
    第2のタイマーの第T時間に対応する変位量(ΔX,ΔY)は、次式
    (ΔX,ΔY)=(V−Vdec Tg)Tg
    で表され、
    第2のタイマーの第T時間に対応する回転量αは、次式
    α=(Va−Vadec Tg)Tg
    で表され、
    ここで、Vdecは線速度の減速度であり、Vadecは角速度の減速度であり、Vは第2のタイマーの第T時間における線速度の初速度であり、Vaは第2のタイマーのT時間における角速度の初速度であり、Tgは第2のタイマーのタイミング間隔であり、入力デバイスがウィンドウオブジェクトをリリースした後の第2のタイマーの1番目の時間における線速度の初速度と角速度の初速度は、ステップCで取得された線速度の初速度と角速度の初速度である
    ことを特徴とする請求項1〜4のいずれか1項に記載のウィンドウオブジェクト慣性移動の実現方法。
  6. 入力デバイスがスクリーンドでウィンドウオブジェクトをドラッグする動作を取得し、対応する制御情報を生成する接触点取得ユニットと、
    接触点取得ユニットにから送信された制御情報に応じて、ウィンドウオブジェクトのドラッグ効果を実現し、入力デバイスがウィンドウオブジェクトをリリースする際に、線速度の初速度と角速度の初速度を取得し、取得した線直速度の初速度と角速度の初速度を慣性処理ユニットに送信するドラッグ処理ユニットと、
    ドラッグ処理ユニットから送信された線速度の初速度と角速度の初速度に基づいて、線速度の減速度と角速度の減速度から慣性移動効果を実現する慣性処理ユニットと
    を含むことを特徴とするウィンドウオブジェクト慣性移動の実現装置。
  7. 前記接触点取得ユニットによって生成された前記制御情報は、
    入力デバイスが最初にウィンドウオブジェクトに接触するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトの最初の接触を示す識別子とを含む入力デバイス初期制御情報と、
    入力デバイスがウィンドウオブジェクトを移動させるときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのドラッグを示す識別子とを含む入力デバイス動向制御情報と、
    入力デバイスがウィンドウオブジェクトを移動するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのリリースを示す識別子とを含む入力デバイスリリース制御情報と
    を含むことを特徴とする請求項6に記載のウィンドウオブジェクト慣性移動の実現装置。
  8. 前記ドラッグ処理ユニットは、
    接触点取得ユニットから送信された初期制御情報を受信した場合に第1のタイマーを開始し、接触点取得ユニットから送信された動向制御情報から、前記第1のタイマーのトリガーに従って第1のタイマーの現在の時間におけるウィンドウオブジェクトの変位量と回転量を取得し、取得した変位量と回転量をウィンドウオブジェクトに送信する第1移動処理ユニットと、
    接触点取得ユニットから送信されたリリース制御情報を受信した後、線速度の初速度と角速度の初速度を取得し、取得した線速度の初速度と角速度の初速度を慣性処理ユニットに送信する初速度処理ユニットと
    を含むことを特徴とする請求項6又は7に記載のウィンドウオブジェクト慣性移動の実現装置。
  9. 接触点が一つの場合に、
    前記第1移動処理ユニットによる前記変位量と回転量の取得においては、
    i−1からTまでの変位量(ΔX,ΔY)は、次式
    (ΔX,ΔY)=(X−Xi−1,Y−Yi−1
    で表され、
    ここで、(X,Y)は第1のタイマーのT時間における接触点の座標ベクトルであり、(Xi−1,Yi−1)は第1のタイマーのTi−1時間おける接触点に対応する座標ベクトルであり、
    i−1からTまでの回転量αは、次式
    α=arcos[u.v/(|u||v|)]
    で表され、
    ここで、回転中心座標はウィンドウオブジェクトの中心座標(C,C)であり、uは第1のタイマーのT時間に対応する接触点座標と回転中心座標との間のベクトルであり、即ちu=(X−C,Y−C)であり、vは第1のタイマーのTi−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちv=(Xi−1−C,Yi−1−C)であり、
    前記初速度処理ユニットによる前記線速度の初速度Vと角速度の初速度Vaの取得においては、
    線速度の初速度Vは、次式
    V=(X−Xn−1,Y−Yn−1)/(T−Tn−1)=(X−Xn−1,Y−Yn−1)/Δt
    で表され、
    ここで、(X,Y)は、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーの最後の時間であるT時間における接触点の座標ベクトルであり、(Xn−1,Yn−1)はTn−1時間における接触点の座標ベクトルであり、Δtは第1のタイマーのタイミング間隔であり、
    角速度の初速度Vaは、次式
    Va=arcos[u. v/(|u||v|)]/(T−Tn−1)=arcos[u.v/(|u||v|)]/Δt
    で表され、
    ここで、uは第1のタイマーのT時間における接触点座標(X,Y)と回転中心座標(C,C)との間のベクトルであり、即ちu=(X−C,Y−C)であり、vは第1のタイマーのTn−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちv=(Xn−1−C,Yn−1−C)であり、
    接触点が複数の場合に、
    前記第1移動処理ユニットによる前記変位量と回転量の取得においては、
    i−1からTまでの変位量(ΔX、ΔY)は、次式
    (ΔX、ΔY)=(CX−CXi−1,CY−CYi−1
    で表され、
    ここで、(CX,CY)、(CXi−1,CYi−1)は、それぞれ、デバイス番号が最小である2つの接触点の第1のタイマーのT時間とTi−1時間における中心点座標であり、
    i−1からTまでの回転量αは、次式
    α=arcos[u. v/(|u||v|)]
    で表され、
    ここで、uは第1のタイマーのT時間におけるデバイス番号が最小である2つの点によって形成されたベクトルであり、vは第1のタイマーのTi−1時間におけるデバイス番号が最小である2つの点によって形成されたベクトルであり、
    前記初速度処理ユニットによる前記線速度の初速度Vと角速度の初速度Vaの取得においては
    線速度の初速度Vは、次式
    V=(CX−CXn−1,CY−CYn−1)/(T−Tn−1)=(CX−CXn−1,CY−CYn−1)/Δt
    で表され、
    ここで、(CX,CY)、(CXn−1,CYn−1)はそれぞれ、入力デバイスがウィンドウオブジェクトをリリースした際に、デバイス番号が最小である2つの接触点の第1のタイマーの最後の時間であるT時間とTn−1期間において形成されたベクトルの中心点座標であり、Δtは第1のタイマーのタイミング間隔であり、
    角速度の初速度Vaは、次式
    Va=arcos[u. v/(|u||v|)]/(Tn−Tn−1)=arcos[u. v/(|u||v|)]/Δt
    で表され、
    ここで、uは、入力デバイスがウィンドウオブジェクトをリリースした際に、第1のタイマーの最後の時間であるT時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルであり、vはTn−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルである
    ことを特徴とする請求項8に記載のウィンドウオブジェクト慣性移動の実現装置。
  10. 前記慣性処理ユニットによる前記線速度の減速度と角速度の減速度からのウィンドウオブジェクトの現在の変位量と回転量の取得においては、
    第2のタイマーのT時間における変位量(ΔX,ΔY)は、次式
    (ΔX,ΔY)=(V−Vdec Tg)Tg
    で表され、
    第2のタイマーのT時間における回転量αは、次式
    α=(Va−Vadec Tg)Tg
    で表され、
    ここで、Vdecは線速度の減速度であり、Vadecは角速度の減速度であり、Vは第2のタイマーのT時間における線速度の初速度であり、Vaは第2のタイマーのT時間における角速度の初速度であり、Tgは第2のタイマーのタイミング間隔であり、入力デバイスがウィンドウオブジェクトをリリースした後の第2のタイマーの1番目の時間における線速度の初速度と角速度の初速度はステップCで取得された線速度の初速度と角速度の初速度である
    ことを特徴とする請求項8に記載のウィンドウオブジェクト慣性移動の実現装置。
JP2013516988A 2010-07-07 2011-07-06 ウィンドウオブジェクト慣性移動の実現方法及び実現装置 Active JP5655142B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201010223457.0A CN102314297B (zh) 2010-07-07 2010-07-07 一种窗口对象惯性移动方法及实现装置
CN201010223457.0 2010-07-07
PCT/CN2011/076909 WO2012003799A1 (zh) 2010-07-07 2011-07-06 一种窗口对象惯性移动方法及实现装置

Publications (2)

Publication Number Publication Date
JP2013533550A true JP2013533550A (ja) 2013-08-22
JP5655142B2 JP5655142B2 (ja) 2015-01-14

Family

ID=45427514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013516988A Active JP5655142B2 (ja) 2010-07-07 2011-07-06 ウィンドウオブジェクト慣性移動の実現方法及び実現装置

Country Status (10)

Country Link
US (1) US8462132B2 (ja)
EP (1) EP2523086B1 (ja)
JP (1) JP5655142B2 (ja)
KR (1) KR101458289B1 (ja)
CN (1) CN102314297B (ja)
AU (1) AU2011276797B2 (ja)
BR (1) BR112012019980B1 (ja)
MY (1) MY160170A (ja)
RU (1) RU2491610C1 (ja)
WO (1) WO2012003799A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015189922A1 (ja) * 2014-06-11 2015-12-17 三菱電機株式会社 表示制御システムおよび表示制御方法
JP6201004B1 (ja) * 2016-06-01 2017-09-20 株式会社ゲオインタラクティブ ユーザインターフェースプログラム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
CN103365583B (zh) * 2012-04-06 2016-06-22 宏碁股份有限公司 电子装置及其解除锁定的方法
CN103425706B (zh) * 2012-05-25 2016-03-23 腾讯科技(深圳)有限公司 在内嵌浮动框架元素的网页中实现元素拖动的方法及装置
US9098739B2 (en) 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US9268424B2 (en) * 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
CN102833183B (zh) * 2012-08-16 2017-02-15 上海量明科技发展有限公司 移动即时通信交互界面的方法、客户端及系统
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
CN103677503B (zh) * 2012-09-14 2015-10-21 腾讯科技(深圳)有限公司 界面组件的触发运行方法和装置
CN102929535B (zh) * 2012-10-09 2018-05-01 中兴通讯股份有限公司 一种悬浮窗位置控制的方法及终端
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
CN103246476B (zh) * 2013-04-27 2016-12-28 华为技术有限公司 一种屏幕内容的旋转方法、装置及终端设备
CN104182116A (zh) * 2013-05-23 2014-12-03 中兴通讯股份有限公司 视图处理方法和视图处理终端
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
KR102203810B1 (ko) 2013-10-01 2021-01-15 삼성전자주식회사 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
CN103595972A (zh) * 2013-11-28 2014-02-19 深圳英飞拓科技股份有限公司 远程调焦设备实时浏览控制方法及系统
JP5924555B2 (ja) * 2014-01-06 2016-05-25 コニカミノルタ株式会社 オブジェクトの停止位置制御方法、操作表示装置およびプログラム
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
KR102205283B1 (ko) 2014-02-12 2021-01-20 삼성전자주식회사 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
CN104866166A (zh) * 2014-02-21 2015-08-26 联想(北京)有限公司 信息处理方法和电子设备
CN105022567B (zh) * 2014-04-30 2018-06-26 惠州市德赛西威汽车电子股份有限公司 一种通过鼠标拖拽滑动切换界面的方法
CN104636027A (zh) * 2014-08-22 2015-05-20 康佳集团股份有限公司 一种基于智能电视实现桌面图标整理的方法及系统
CN105045521A (zh) * 2015-08-31 2015-11-11 网易(杭州)网络有限公司 一种触摸屏响应方法及装置
CN105975122A (zh) * 2016-04-27 2016-09-28 集怡嘉数码科技(深圳)有限公司 一种触摸轨迹补偿的方法、装置及终端设备
CN106325713B (zh) * 2016-08-17 2019-12-03 厦门印天电子科技有限公司 一种白板软件滑动对象的惯性移动方法
CN108803926A (zh) * 2018-05-29 2018-11-13 广东工业大学 一种基于触摸点的位移矢量和方向矢量的控制方法
CN110658971B (zh) * 2019-08-26 2021-04-23 维沃移动通信有限公司 一种截屏方法及终端设备
CN111026313B (zh) * 2019-12-16 2021-01-22 深圳介子云图空间科技有限公司 一种可视化列表排序方法及装置
CN111083287B (zh) * 2019-12-16 2020-12-25 深圳集智数字科技有限公司 一种可视化列表排序方法及装置

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100809A (ja) * 1991-10-07 1993-04-23 Fujitsu Ltd タツチパネルによるオブジエクトの表示方法
JPH10161628A (ja) * 1996-11-26 1998-06-19 Sony Corp 画面のスクロール制御装置及びスクロール制御方法
JP2003512668A (ja) * 1999-10-20 2003-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 情報処理装置
JP2004117830A (ja) * 2002-09-26 2004-04-15 Denso Corp ナビゲーション装置
JP2007018040A (ja) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd データ処理装置
JP2008508600A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP2008217742A (ja) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd 表示装置及びプログラム
JP2009123208A (ja) * 2007-11-12 2009-06-04 Research In Motion Ltd タッチスクリーンデバイス用のユーザインタフェース
JP2009277117A (ja) * 2008-05-16 2009-11-26 Kenwood Corp ナビゲーション装置、プログラム、及び地図スクロール方法
JP2010198483A (ja) * 2009-02-26 2010-09-09 Nec Infrontia Corp 電子ジャーナルデータ閲覧システム、電子ジャーナルデータ閲覧方法、そのプログラムおよび記録媒体
JP2011118477A (ja) * 2009-11-30 2011-06-16 Sony Corp 情報処理装置、情報処理方法及びそのプログラム
JP2011133701A (ja) * 2009-12-25 2011-07-07 Aisin Aw Co Ltd 地図表示装置、地図表示方法及びプログラム
JP2011242820A (ja) * 2010-05-13 2011-12-01 Panasonic Corp 電子機器、表示方法、及びプログラム
JP2011258151A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2012014524A (ja) * 2010-07-01 2012-01-19 Panasonic Corp 電子機器、表示制御方法、及びプログラム
JP2012507077A (ja) * 2008-10-26 2012-03-22 マイクロソフト コーポレーション マルチタッチ・オブジェクト慣性シミュレーション

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6539101B1 (en) * 1998-04-07 2003-03-25 Gerald R. Black Method for identity verification
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP2002013532A (ja) * 2000-06-28 2002-01-18 Koyo Seiko Co Ltd 磁気軸受制御装置
US7084854B1 (en) * 2000-09-28 2006-08-01 Immersion Corporation Actuator for providing tactile sensations and device for directional tactile sensations
GB0301360D0 (en) * 2003-01-21 2003-02-19 Scratch Ltd Golf stroke training device
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
JP4860625B2 (ja) * 2004-10-08 2012-01-25 イマージョン コーポレーション タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
US7683883B2 (en) * 2004-11-02 2010-03-23 Pierre Touma 3D mouse and game controller based on spherical coordinates system and system for use
US7834847B2 (en) * 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
EP1804154A3 (en) * 2005-12-27 2012-08-08 Poston Timothy Computer input device enabling three degrees of freedom and related input and feedback methods
KR100877829B1 (ko) * 2006-03-21 2009-01-12 엘지전자 주식회사 스크롤링 기능을 갖는 단말기 및 그 스크롤링 방법
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US7832126B2 (en) * 2007-05-17 2010-11-16 Siemens Industry, Inc. Systems, devices, and/or methods regarding excavating
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US20090262137A1 (en) * 2008-01-10 2009-10-22 Walker Jay S Systems and methods for presenting prediction in a broadcast
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
KR100914438B1 (ko) * 2008-05-20 2009-08-28 엘지전자 주식회사 터치 디바이스를 구비한 전자 기기와 그 기능 실행 방법
CN101751195A (zh) * 2009-12-30 2010-06-23 中兴通讯股份有限公司 一种电阻式触摸屏上的移动事件控制方法及装置

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100809A (ja) * 1991-10-07 1993-04-23 Fujitsu Ltd タツチパネルによるオブジエクトの表示方法
JPH10161628A (ja) * 1996-11-26 1998-06-19 Sony Corp 画面のスクロール制御装置及びスクロール制御方法
JP2003512668A (ja) * 1999-10-20 2003-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 情報処理装置
JP2004117830A (ja) * 2002-09-26 2004-04-15 Denso Corp ナビゲーション装置
JP2008508600A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP2007018040A (ja) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd データ処理装置
JP2008217742A (ja) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd 表示装置及びプログラム
JP2009123208A (ja) * 2007-11-12 2009-06-04 Research In Motion Ltd タッチスクリーンデバイス用のユーザインタフェース
JP2009277117A (ja) * 2008-05-16 2009-11-26 Kenwood Corp ナビゲーション装置、プログラム、及び地図スクロール方法
JP2012507077A (ja) * 2008-10-26 2012-03-22 マイクロソフト コーポレーション マルチタッチ・オブジェクト慣性シミュレーション
JP2010198483A (ja) * 2009-02-26 2010-09-09 Nec Infrontia Corp 電子ジャーナルデータ閲覧システム、電子ジャーナルデータ閲覧方法、そのプログラムおよび記録媒体
JP2011118477A (ja) * 2009-11-30 2011-06-16 Sony Corp 情報処理装置、情報処理方法及びそのプログラム
JP2011133701A (ja) * 2009-12-25 2011-07-07 Aisin Aw Co Ltd 地図表示装置、地図表示方法及びプログラム
JP2011242820A (ja) * 2010-05-13 2011-12-01 Panasonic Corp 電子機器、表示方法、及びプログラム
JP2011258151A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2012014524A (ja) * 2010-07-01 2012-01-19 Panasonic Corp 電子機器、表示制御方法、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015189922A1 (ja) * 2014-06-11 2015-12-17 三菱電機株式会社 表示制御システムおよび表示制御方法
JP5985125B2 (ja) * 2014-06-11 2016-09-06 三菱電機株式会社 表示制御システムおよび表示制御方法
JPWO2015189922A1 (ja) * 2014-06-11 2017-04-20 三菱電機株式会社 表示制御システムおよび表示制御方法
US9947081B2 (en) 2014-06-11 2018-04-17 Mitsubishi Electric Corporation Display control system and display control method
JP6201004B1 (ja) * 2016-06-01 2017-09-20 株式会社ゲオインタラクティブ ユーザインターフェースプログラム
JP2017215871A (ja) * 2016-06-01 2017-12-07 株式会社ゲオインタラクティブ ユーザインターフェースプログラム

Also Published As

Publication number Publication date
CN102314297B (zh) 2016-04-13
EP2523086B1 (en) 2017-06-21
AU2011276797A1 (en) 2012-08-23
BR112012019980B1 (pt) 2021-01-26
EP2523086A1 (en) 2012-11-14
JP5655142B2 (ja) 2015-01-14
US20120306796A1 (en) 2012-12-06
KR101458289B1 (ko) 2014-11-04
WO2012003799A1 (zh) 2012-01-12
KR20130008578A (ko) 2013-01-22
RU2491610C1 (ru) 2013-08-27
MY160170A (en) 2017-02-28
US8462132B2 (en) 2013-06-11
BR112012019980A2 (pt) 2020-09-24
CN102314297A (zh) 2012-01-11
AU2011276797B2 (en) 2014-08-14
EP2523086A4 (en) 2014-12-24

Similar Documents

Publication Publication Date Title
JP5655142B2 (ja) ウィンドウオブジェクト慣性移動の実現方法及び実現装置
US8860678B2 (en) Computer system with touch screen and gesture processing method thereof
US11336961B2 (en) Recording and broadcasting application visual output
US10572017B2 (en) Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
US20160109961A1 (en) Systems, methods, apparatuses, computer readable medium for controlling electronic devices
EP2610726A1 (en) Drag and drop operation in a graphical user interface with highlight of target objects
CN103797442A (zh) 通过触敏显示屏使用压力差
CN103827785A (zh) 通过触敏显示屏使用压力差
CN104364734A (zh) 使用多点触摸输入的远程会话控制
CN103955336A (zh) 传感装置和方法
US20120124472A1 (en) System and method for providing interactive feedback for mouse gestures
CN107273009A (zh) 一种移动终端快速截屏的方法及系统
CN109219791A (zh) 具有实际时间指示的内容刷动条
WO2017096797A1 (zh) 一种基于体感的操作组件控制方法和系统
WO2016197644A1 (zh) 单手控制方法和装置
CN106843476B (zh) 一种基于穿戴式设备控制终端光标的方法及穿戴式设备
JP2011257801A (ja) カーソル制御プログラム及び該装置
Takács et al. Creating, composing, and recognizing multisensor gestures in mobile devices
Hakka et al. Design and Investigation of One-Handed Interaction Techniques for Single-Touch Gestures
WO2017096802A1 (zh) 基于手势的操作组件控制方法、设备、计算机程序和存储介质
JPH11327781A (ja) ポインティングデバイスのデ−タ処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141121

R150 Certificate of patent or registration of utility model

Ref document number: 5655142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250