JP2013533550A - ウィンドウオブジェクト慣性移動の実現方法及び実現装置 - Google Patents
ウィンドウオブジェクト慣性移動の実現方法及び実現装置 Download PDFInfo
- Publication number
- JP2013533550A JP2013533550A JP2013516988A JP2013516988A JP2013533550A JP 2013533550 A JP2013533550 A JP 2013533550A JP 2013516988 A JP2013516988 A JP 2013516988A JP 2013516988 A JP2013516988 A JP 2013516988A JP 2013533550 A JP2013533550 A JP 2013533550A
- Authority
- JP
- Japan
- Prior art keywords
- time
- timer
- initial
- window object
- velocity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 65
- 238000006073 displacement reaction Methods 0.000 claims abstract description 55
- 230000000694 effects Effects 0.000 claims abstract description 20
- 239000013598 vector Substances 0.000 claims description 42
- 241001061225 Arcos Species 0.000 claims description 20
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
【解決手段】本発明に係るウィンドウオブジェクト慣性移動の実現方法では、入力デバイスがドラッグされたウィンドウオブジェクトをリリースする際に、線速度の初速度と角速度の初速度が取得され、これらから各処理時間に対応する変位量と回転量が取得され、リリースされた後のウィンドウオブジェクトの慣性移動効果がシミュレートされる。
【選択図】図4
Description
入力デバイスの初期接触動作を監視し、初期接触座標と接触時間を記録し、第1のタイマーを開始するステップAと、
ウィンドウオブジェクトをドラッグする過程において、ユーザが入力デバイスを介してスクリーンで生じさせた前時点からの変位量と回転量を取得するイベントを、第1のタイマーによって周期的にトリガーし、取得された変位量と回転量をウィンドウオブジェクトに伝送するステップBと、
ユーザがウィンドウオブジェクトをリリースする際に、ウィンドウオブジェクト線速度の初速度と角速度の初速度を取得し、第2のタイマーを開始するステップCと、
前記線速度の初速度と角速度の初速度に基づいてして、線速度の減速度と角速度の減速度からウィンドウオブジェクトの現在の変位量と回転量を取得するイベントを、第2のタイマーによって周期的にトリガーし、取得された現在の変位量と回転量をウィンドウオブジェクトに伝送するステップDと、
第2のタイマーの現在の時間における線速度の初速度と角速度の初速度が0以下である場合、ウィンドウオブジェクト慣性移動処理を中止するステップEとを含む。
入力デバイスがスクリーンドでウィンドウオブジェクトをドラッグする動作を取得し、対応する制御情報を生成する接触点取得ユニットと、
接触点取得ユニットから送信された制御情報に応じて、ウィンドウオブジェクトのドラッグ効果を実現し、入力デバイスがウィンドウオブジェクトをリリースする際に、線速度の初速度と角速度の初速度を取得し、取得した線速度の初速度と角速度の初速度を慣性処理ユニットに送信するドラッグ処理ユニットと、
ドラッグ処理ユニットから送信された線速度の初速度と角速度の初速度に基づいて、線速度の減速度と角速度の減速度から慣性移動効果を実現する慣性処理ユニットとを含む。
入力デバイスが最初にウィンドウオブジェクトに接触するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトの最初の接触を示す識別子とを含む入力デバイス初期制御情報と、
入力デバイスがウィンドウオブジェクトを移動させるときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのドラッグを示す識別子とを含む、入力デバイス動向制御情報と、
入力デバイスがウィンドウオブジェクトを移動するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのリリースを示す識別子とを含む入力デバイスリリース制御情報とを含む。
接触点取得ユニットから送信された初期制御情報を受信した場合に第1のタイマーを開始し、接触点取得ユニットから送信された動向制御情報から、前記第1のタイマーのトリガーに従って第1のタイマーの現在の時間におけるウィンドウオブジェクトの変位量と回転量を取得し、取得した変位量と回転量をウィンドウオブジェクトに送信する第1移動処理ユニットと、
接触点取得ユニットから送信されたリリース制御情報を受信した後、線速度の初速度と角速度の初速度を取得し、取得した線速度の初速度と角速度の初速度を慣性処理ユニットに送信する初速度処理ユニットとを含む。
ウィンドウオブジェクトに対するドラッグ効果を実現する。
(1)ドラッグ処理ユニット102が、接触点取得ユニット101から送信された初期制御情報を受信した後、初期接触点の位置座標情報(X0,Y0)、初期接触時間T0及びデバイス番号を記録する。
CenterY=CenterY+ΔY
Angle=Angle+α
(ΔX,ΔY)=(Xi−Xi−1,Yi−Yi−1)
ここで、(Xi,Yi)はTimer1のTi時間における接触点の座標ベクトルであり、(Xi−1,Yi−1)はTimer1のTi−1時間における接触点の座標ベクトルである。
α=arcos[ui.vi/(|ui||vi|)]
ここで、回転中心座標はウィンドウオブジェクトの中心座標(Cx,Cy)であり、uiはTimer1のTi時間における接触点座標と回転中心座標との間のベクトルであり、即ちui=(Xi−Cx,Yi−Cy)となる。viはTimer1のTi−1時間における接触触点座標と回転中心座標との間のベクトルであり、即ちvi=(Xi−1−Cx,Yi−1−Cy)となる。
V=(Xn−Xn−1,Yn−Yn−1)/(Tn−Tn−1)=(Xn−Xn−1,Yn−Yn−1)/Δt
ここで、(Xn,Yn)は、入力デバイスがウィンドウオブジェクトをリリースした際、Timer1の最後の時間であるTn時間における接触点の座標ベクトルであり、(Xn−1,Yn−1)はTn−1時間における接触点の座標ベクトルである。
V=(Xn−Xn−1,Yn−Yn−1)
Va=arcos[un.vn/(|un||vn|)]/(Tn−Tn−1)=arcos[un. vn/(|un||vn|)]/Δt
ここで、unはTimer1のTn時間における接触点座標(Xn,Yn)と回転中心座標(Cx,Cy)との間のベクトルであり、即ちun=(Xn−Cx,Yn−Cy)である。vnはTimer1のTn−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちvn=(Xn−1−Cx,Yn−1−Cy)である。
Va=arcos[un.vn/(|un||vn|)]
(CXi,CYi)=((Xi,d0+Xi,d1)/2,(Yi,d0+Yi,d1)/2)
(CXi−1,CYi−1)=((Xi−1,d0+Xi−1,d1)/2,(Yi−1,d0+Yi−1,d1)/2)
(ΔX,ΔY)=(CXi−CXi−1,CYi−CYi−1)
V=(CXn−CXn−1,CYn−CYn−1)/(Tn−Tn−1)=(CXn−CXn−1,CYn−CYn−1)/Δt
ここで、(Xn,CYn)、(CXn−1,CYn−1)はそれぞれ、入力デバイスがウィンドウオブジェクトをリリースするときに、デバイス番号が最小である2つの接触点のTimer1の最後の時間であるTn時間とTn−1時間に形成されたベクトルの中心点座標であり、ΔtはTimer1のタイミング間隔である。
V=(CXn−CXn−1,CYn−CYn−1)
(Cx,Cy)=((Xi,d0+Xi,d1)/2,(Yi,d0+Yi,d1)/2)
αi=arcos[ui. vi/(|ui||vi|)]
ここで、uiはTimer1のTi時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトル(Xi,d0−Xi,d1,Yi,d0−Yi,d1)である。viはTimer1のTi−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトル(Xi−1,d0−Xi−1,d1,Yi−1,d0−Yi−1,d1)である。
Va=arcos[un.vn/(|un||vn|)]/(Tn−Tn−1)=arcos[un. vn/(|un||vn|)]/Δt
ここで、unは入力デバイスがウィンドウオブジェクトをリリースするときの、Timer1の最後の時間であるTn時間における、デバイス番号が最小である2つの接触点によって形成されたベクトル(Xn,d0−Xn,d1,Yn,d0−Yn,d1)である。vnはTn−1時間における、デバイス番号が最小である2つの接触点によって形成されたベクトル(Xn−1,d0−Xn−1,d1,Yn−1,d0−Yn−1,d1)である。
Va=arcos[un.vn/(|un||vn|)]
Vi=Vi−1−Vdec*Tg
ここで、Vdecは線速度の減速度であり、この値は実際の情況に応じてユーザ又はシステムにより予め設定されてもよい。この値は、線速度の摩擦係数を調整することに相当する。
Vai=Vai−1−Vadec*Tg
ここで、Vadecは角速度の減速度であり、この値は実際の情況に応じてユーザ又はシステムにより予め設定されてもよい。この値は、角速度の摩擦係数を調整することに相当する。
(ΔX,ΔY)=(Vi−Vdec*Tg)*Tg=(Vi.X−Vdec*Tg,Vi.Y−Vdec*Tg)*Tg
ここで、ViはTimer2のTi時間における線速度の初速度ベクトルであり、TgはTimer2のタイミング間隔である。
αi=(Vai−Vadec*Tg)*Tg
ここで、VaiはTimer2のTi時間における角速度の初速度である。
(ΔX,ΔY)=(Vi.X−Vdec,Vi.Y−Vdec)
αi=(Vai−Vadec)
CenterY=CenterY+ΔY
Angle=Angle+α
このステップでは、触点取得ユニットが入力デバイスの初期接触動作を監視し、初期接触動作を監視した後、初期制御情報をドラッグ処理ユニットに送信する。
前記初期制御情報は、初期接触点の位置、時間、デバイス番号、ボタンコード等を含む。
ドラッグ処理ユニットは、現在の時点の変位量と回転量を取得した後、それをウィンドウオブジェクトに伝送する。ウィンドウオブジェクトは自身の中心点座標と自身の中心点座標に対する回転角度の属性値を設定することによって、ウィンドウ再描画プロセスをトリガーし、これによりドラッグ効果が実現される。
このステップでは、慣性処理ユニットは、VとVaを受信した後、第2のタイマーTimer2を開始する。Timer2は、入力デバイスがウィンドウオブジェクトをリリースした後の慣性移動効果を実現することに用いられる。
Vi=Vi−1−Vdec*Tg;Vai=Vai−1−Vadec*Tg
Claims (10)
- 入力デバイスの初期接触動作を監視し、初期接触座標と接触時間を記録し、第1のタイマーを開始するステップAと、
ウィンドウオブジェクトをドラッグする過程において、ユーザが入力デバイスを介してスクリーンで生じさせた前時点からの変位量と回転量を取得するイベントを、第1のタイマーによって周期的にトリガーし、取得された変位量と回転量をウィンドウオブジェクトに伝送するステップBと、
ユーザがウィンドウオブジェクトをリリースする際に、ウィンドウオブジェクトの線速度の初速度と角速度の初速度を取得し、第2のタイマーを開始するステップCと、
前記線速度の初速度と角速度の初速度に基づいて、線速度の減速度と角速度の減速度からウィンドウオブジェクトの現在の変位量と回転量を取得するイベントを、第2のタイマーによって周期的にトリガーし、取得された現在の変位量と回転量をウィンドウオブジェクトに伝送するステップDと、
第2のタイマーの現在の時間における線速度の初速度と角速度の初速度が0以下である場合、ウィンドウオブジェクト慣性移動処理を中止するステップEと
を含むことを特徴とするウィンドウオブジェクト慣性移動の実現方法。 - ユーザは、一つ又は複数の接触点で入力デバイスを介して前記ウィンドウオブジェクトをドラッグし、
接触点が複数の場合、デバイス番号が最小である2つの接触点で前記変位量と回転量を取得することを特徴とする
請求項1に記載のウィンドウオブジェクト慣性移動の実現方法。 - 接触点が一つの場合、
ステップBの前記変位量と回転量の取得においては、
Ti−1からTiまでの変位量(ΔX,ΔY)は、次式
(ΔX,ΔY)=(Xi−Xi−1,Yi−Yi−1)
で表され、
ここで、(Xi,Yi)は第1のタイマーのTi時間における接触点の座標ベクトルであり、(Xi−1,Yi−1)は第1のタイマーのTi−1時間における接触点の座標ベクトルであり、
Ti−1からTiまでの回転量αiは、次式
αi=arcos[ui.vi/(|ui||vi|)]
で表され、
ここで、回転中心座標はウィンドウオブジェクトの中心座標(Cx,Cy)であり、uiは第1のタイマーのTi時間における接触点座標と回転中心座標との間のベクトルであり、即ちui=(Xi−Cx,Yi−Cy)であり、viは第1のタイマーのTi−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちvi=(Xi−1−Cx,Yi−1−Cy)であり、
ステップCの前記線速度の初速度Vと角速度の初速度Vaの取得においては、
線速度の初速度Vは、次式
V=(Xn−Xn−1,Yn−Yn−1)/(Tn−Tn−1)=(Xn−Xn−1,Yn−Yn−1)/Δt
で表され、
ここで、(Xn,Yn)は、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーの最後の時間であるTn時間における接触点の座標ベクトルであり、(Xn−1,Yn−1)は、Tn−1時間における接触点の座標ベクトルであり、Δtは、第1のタイマーのタイミング間隔であり、
角速度の初速度Vaは、次式
Va=arcos[un.vn/(|un||vn|)]/(Tn−Tn−1)=arcos[un.vn/(|un||vn|)]/Δt
で表され、
ここで、unは、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーのTn時間における接触点座標(Xn,Yn)と回転中心座標(Cx,Cy)との間のベクトルであり、即ちun=(Xn−Cx,Yn−Cy)であり、vnは第1のタイマーのTn−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちvn=(Xn−1−Cx,Yn−1−Cy)である
ことを特徴とする請求項2に記載のウィンドウオブジェクト慣性移動の実現方法。 - 接触点が複数の場合、
ステップBの前記変位量と回転量の取得においては、
Ti−1からTiまでの変位量(ΔX,ΔY)は、次式
(ΔX,ΔY)=(CXi−CXi−1,CYi−CYi−1)
で表され、
ここで、(CXi,CYi)、(CXi−1,CYi−1)はそれぞれ、デバイス番号が最小である2つの接触点の第1のタイマーのTi時間とTi−1時間に対応する中心点座標であり、
Ti−1からTiまでの回転量αiは、次式
αi=arcos[ui.vi/(|ui||vi|)]
で表され、
ここで、uiは第1のタイマーのTi時間におけるデバイス番号が最小である2つの点によって形成されたベクトルであり、viは第1のタイマーのTi−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルであり、
ステップCの線速度の初速度Vと角速度の初速度Vaの取得においては、
線速度の初速度Vは、次式
V=(CXn−CXn−1,CYn−CYn−1)/(Tn−Tn−1)=(CXn−CXn−1,CYn−CYn−1)/Δt
で表され、
ここで、(CXn,CYn)、(CXn−1,CYn−1)は、それぞれ、入力デバイスがウィンドウオブジェクトをリリースした際に、デバイス番号が最小である2つの接触点の第1のタイマーの最後の時間であるTn時間とTn−1時間において形成されたベクトルの中心点座標であり、Δtは第1のタイマーのタイミング間隔であり、
角速度の初速度Vaは、次式
Va=arcos[un. vn/(|un||vn|)]/(Tn−Tn−1)=arcos[un. vn/(|un||vn|)]/Δt
で表され、
ここで、unは、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーの最後の時間であるTn時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルであり、vnはTn−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルである
ことを特徴とする請求項2に記載のウィンドウオブジェクト慣性移動の実現方法。 - ステップDの前記線速度の減速度と角速度の減速度からのウィンドウオブジェクトの現在の変位量と回転量の取得においては、
第2のタイマーの第Ti時間に対応する変位量(ΔX,ΔY)は、次式
(ΔX,ΔY)=(Vi−Vdec *Tg)*Tg
で表され、
第2のタイマーの第Ti時間に対応する回転量αiは、次式
αi=(Vai−Vadec *Tg)*Tg
で表され、
ここで、Vdecは線速度の減速度であり、Vadecは角速度の減速度であり、Viは第2のタイマーの第Ti時間における線速度の初速度であり、Vaiは第2のタイマーのTi時間における角速度の初速度であり、Tgは第2のタイマーのタイミング間隔であり、入力デバイスがウィンドウオブジェクトをリリースした後の第2のタイマーの1番目の時間における線速度の初速度と角速度の初速度は、ステップCで取得された線速度の初速度と角速度の初速度である
ことを特徴とする請求項1〜4のいずれか1項に記載のウィンドウオブジェクト慣性移動の実現方法。 - 入力デバイスがスクリーンドでウィンドウオブジェクトをドラッグする動作を取得し、対応する制御情報を生成する接触点取得ユニットと、
接触点取得ユニットにから送信された制御情報に応じて、ウィンドウオブジェクトのドラッグ効果を実現し、入力デバイスがウィンドウオブジェクトをリリースする際に、線速度の初速度と角速度の初速度を取得し、取得した線直速度の初速度と角速度の初速度を慣性処理ユニットに送信するドラッグ処理ユニットと、
ドラッグ処理ユニットから送信された線速度の初速度と角速度の初速度に基づいて、線速度の減速度と角速度の減速度から慣性移動効果を実現する慣性処理ユニットと
を含むことを特徴とするウィンドウオブジェクト慣性移動の実現装置。 - 前記接触点取得ユニットによって生成された前記制御情報は、
入力デバイスが最初にウィンドウオブジェクトに接触するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトの最初の接触を示す識別子とを含む入力デバイス初期制御情報と、
入力デバイスがウィンドウオブジェクトを移動させるときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのドラッグを示す識別子とを含む入力デバイス動向制御情報と、
入力デバイスがウィンドウオブジェクトを移動するときの、位置と、時間と、デバイス番号と、ウィンドウオブジェクトのリリースを示す識別子とを含む入力デバイスリリース制御情報と
を含むことを特徴とする請求項6に記載のウィンドウオブジェクト慣性移動の実現装置。 - 前記ドラッグ処理ユニットは、
接触点取得ユニットから送信された初期制御情報を受信した場合に第1のタイマーを開始し、接触点取得ユニットから送信された動向制御情報から、前記第1のタイマーのトリガーに従って第1のタイマーの現在の時間におけるウィンドウオブジェクトの変位量と回転量を取得し、取得した変位量と回転量をウィンドウオブジェクトに送信する第1移動処理ユニットと、
接触点取得ユニットから送信されたリリース制御情報を受信した後、線速度の初速度と角速度の初速度を取得し、取得した線速度の初速度と角速度の初速度を慣性処理ユニットに送信する初速度処理ユニットと
を含むことを特徴とする請求項6又は7に記載のウィンドウオブジェクト慣性移動の実現装置。 - 接触点が一つの場合に、
前記第1移動処理ユニットによる前記変位量と回転量の取得においては、
Ti−1からTiまでの変位量(ΔX,ΔY)は、次式
(ΔX,ΔY)=(Xi−Xi−1,Yi−Yi−1)
で表され、
ここで、(Xi,Yi)は第1のタイマーのTi時間における接触点の座標ベクトルであり、(Xi−1,Yi−1)は第1のタイマーのTi−1時間おける接触点に対応する座標ベクトルであり、
Ti−1からTiまでの回転量αは、次式
α=arcos[ui.vi/(|ui||vi|)]
で表され、
ここで、回転中心座標はウィンドウオブジェクトの中心座標(Cx,Cy)であり、uiは第1のタイマーのTi時間に対応する接触点座標と回転中心座標との間のベクトルであり、即ちui=(Xi−Cx,Yi−Cy)であり、viは第1のタイマーのTi−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちvi=(Xi−1−Cx,Yi−1−Cy)であり、
前記初速度処理ユニットによる前記線速度の初速度Vと角速度の初速度Vaの取得においては、
線速度の初速度Vは、次式
V=(Xn−Xn−1,Yn−Yn−1)/(Tn−Tn−1)=(Xn−Xn−1,Yn−Yn−1)/Δt
で表され、
ここで、(Xn,Yn)は、入力デバイスがウィンドウオブジェクトをリリースした際、第1のタイマーの最後の時間であるTn時間における接触点の座標ベクトルであり、(Xn−1,Yn−1)はTn−1時間における接触点の座標ベクトルであり、Δtは第1のタイマーのタイミング間隔であり、
角速度の初速度Vaは、次式
Va=arcos[un. vn/(|un||vn|)]/(Tn−Tn−1)=arcos[un.vn/(|un||vn|)]/Δt
で表され、
ここで、unは第1のタイマーのTn時間における接触点座標(Xn,Yn)と回転中心座標(Cx,Cy)との間のベクトルであり、即ちun=(Xn−Cx,Yn−Cy)であり、vnは第1のタイマーのTn−1時間における接触点座標と回転中心座標との間のベクトルであり、即ちvn=(Xn−1−Cx,Yn−1−Cy)であり、
接触点が複数の場合に、
前記第1移動処理ユニットによる前記変位量と回転量の取得においては、
Ti−1からTiまでの変位量(ΔX、ΔY)は、次式
(ΔX、ΔY)=(CXi−CXi−1,CYi−CYi−1)
で表され、
ここで、(CXi,CYi)、(CXi−1,CYi−1)は、それぞれ、デバイス番号が最小である2つの接触点の第1のタイマーのTi時間とTi−1時間における中心点座標であり、
Ti−1からTiまでの回転量αiは、次式
αi=arcos[ui. vi/(|ui||vi|)]
で表され、
ここで、uiは第1のタイマーのTi時間におけるデバイス番号が最小である2つの点によって形成されたベクトルであり、viは第1のタイマーのTi−1時間におけるデバイス番号が最小である2つの点によって形成されたベクトルであり、
前記初速度処理ユニットによる前記線速度の初速度Vと角速度の初速度Vaの取得においては
線速度の初速度Vは、次式
V=(CXn−CXn−1,CYn−CYn−1)/(Tn−Tn−1)=(CXn−CXn−1,CYn−CYn−1)/Δt
で表され、
ここで、(CXn,CYn)、(CXn−1,CYn−1)はそれぞれ、入力デバイスがウィンドウオブジェクトをリリースした際に、デバイス番号が最小である2つの接触点の第1のタイマーの最後の時間であるTn時間とTn−1期間において形成されたベクトルの中心点座標であり、Δtは第1のタイマーのタイミング間隔であり、
角速度の初速度Vaは、次式
Va=arcos[un. vn/(|un||vn|)]/(Tn−Tn−1)=arcos[un. vn/(|un||vn|)]/Δt
で表され、
ここで、unは、入力デバイスがウィンドウオブジェクトをリリースした際に、第1のタイマーの最後の時間であるTn時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルであり、vnはTn−1時間におけるデバイス番号が最小である2つの接触点によって形成されたベクトルである
ことを特徴とする請求項8に記載のウィンドウオブジェクト慣性移動の実現装置。 - 前記慣性処理ユニットによる前記線速度の減速度と角速度の減速度からのウィンドウオブジェクトの現在の変位量と回転量の取得においては、
第2のタイマーのTi時間における変位量(ΔX,ΔY)は、次式
(ΔX,ΔY)=(Vi−Vdec *Tg)*Tg
で表され、
第2のタイマーのTi時間における回転量αiは、次式
αi=(Vai−Vadec *Tg)*Tg
で表され、
ここで、Vdecは線速度の減速度であり、Vadecは角速度の減速度であり、Viは第2のタイマーのTi時間における線速度の初速度であり、Vaiは第2のタイマーのTi時間における角速度の初速度であり、Tgは第2のタイマーのタイミング間隔であり、入力デバイスがウィンドウオブジェクトをリリースした後の第2のタイマーの1番目の時間における線速度の初速度と角速度の初速度はステップCで取得された線速度の初速度と角速度の初速度である
ことを特徴とする請求項8に記載のウィンドウオブジェクト慣性移動の実現装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010223457.0A CN102314297B (zh) | 2010-07-07 | 2010-07-07 | 一种窗口对象惯性移动方法及实现装置 |
CN201010223457.0 | 2010-07-07 | ||
PCT/CN2011/076909 WO2012003799A1 (zh) | 2010-07-07 | 2011-07-06 | 一种窗口对象惯性移动方法及实现装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013533550A true JP2013533550A (ja) | 2013-08-22 |
JP5655142B2 JP5655142B2 (ja) | 2015-01-14 |
Family
ID=45427514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013516988A Active JP5655142B2 (ja) | 2010-07-07 | 2011-07-06 | ウィンドウオブジェクト慣性移動の実現方法及び実現装置 |
Country Status (10)
Country | Link |
---|---|
US (1) | US8462132B2 (ja) |
EP (1) | EP2523086B1 (ja) |
JP (1) | JP5655142B2 (ja) |
KR (1) | KR101458289B1 (ja) |
CN (1) | CN102314297B (ja) |
AU (1) | AU2011276797B2 (ja) |
BR (1) | BR112012019980B1 (ja) |
MY (1) | MY160170A (ja) |
RU (1) | RU2491610C1 (ja) |
WO (1) | WO2012003799A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015189922A1 (ja) * | 2014-06-11 | 2015-12-17 | 三菱電機株式会社 | 表示制御システムおよび表示制御方法 |
JP6201004B1 (ja) * | 2016-06-01 | 2017-09-20 | 株式会社ゲオインタラクティブ | ユーザインターフェースプログラム |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
CN103365583B (zh) * | 2012-04-06 | 2016-06-22 | 宏碁股份有限公司 | 电子装置及其解除锁定的方法 |
CN103425706B (zh) * | 2012-05-25 | 2016-03-23 | 腾讯科技(深圳)有限公司 | 在内嵌浮动框架元素的网页中实现元素拖动的方法及装置 |
US9098739B2 (en) | 2012-06-25 | 2015-08-04 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US9268424B2 (en) * | 2012-07-18 | 2016-02-23 | Sony Corporation | Mobile client device, operation method, recording medium, and operation system |
CN102833183B (zh) * | 2012-08-16 | 2017-02-15 | 上海量明科技发展有限公司 | 移动即时通信交互界面的方法、客户端及系统 |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
CN103677503B (zh) * | 2012-09-14 | 2015-10-21 | 腾讯科技(深圳)有限公司 | 界面组件的触发运行方法和装置 |
CN102929535B (zh) * | 2012-10-09 | 2018-05-01 | 中兴通讯股份有限公司 | 一种悬浮窗位置控制的方法及终端 |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN103246476B (zh) * | 2013-04-27 | 2016-12-28 | 华为技术有限公司 | 一种屏幕内容的旋转方法、装置及终端设备 |
CN104182116A (zh) * | 2013-05-23 | 2014-12-03 | 中兴通讯股份有限公司 | 视图处理方法和视图处理终端 |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
KR102203810B1 (ko) | 2013-10-01 | 2021-01-15 | 삼성전자주식회사 | 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 |
CN103595972A (zh) * | 2013-11-28 | 2014-02-19 | 深圳英飞拓科技股份有限公司 | 远程调焦设备实时浏览控制方法及系统 |
JP5924555B2 (ja) * | 2014-01-06 | 2016-05-25 | コニカミノルタ株式会社 | オブジェクトの停止位置制御方法、操作表示装置およびプログラム |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
KR102205283B1 (ko) | 2014-02-12 | 2021-01-20 | 삼성전자주식회사 | 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법 |
CN104866166A (zh) * | 2014-02-21 | 2015-08-26 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN105022567B (zh) * | 2014-04-30 | 2018-06-26 | 惠州市德赛西威汽车电子股份有限公司 | 一种通过鼠标拖拽滑动切换界面的方法 |
CN104636027A (zh) * | 2014-08-22 | 2015-05-20 | 康佳集团股份有限公司 | 一种基于智能电视实现桌面图标整理的方法及系统 |
CN105045521A (zh) * | 2015-08-31 | 2015-11-11 | 网易(杭州)网络有限公司 | 一种触摸屏响应方法及装置 |
CN105975122A (zh) * | 2016-04-27 | 2016-09-28 | 集怡嘉数码科技(深圳)有限公司 | 一种触摸轨迹补偿的方法、装置及终端设备 |
CN106325713B (zh) * | 2016-08-17 | 2019-12-03 | 厦门印天电子科技有限公司 | 一种白板软件滑动对象的惯性移动方法 |
CN108803926A (zh) * | 2018-05-29 | 2018-11-13 | 广东工业大学 | 一种基于触摸点的位移矢量和方向矢量的控制方法 |
CN110658971B (zh) * | 2019-08-26 | 2021-04-23 | 维沃移动通信有限公司 | 一种截屏方法及终端设备 |
CN111026313B (zh) * | 2019-12-16 | 2021-01-22 | 深圳介子云图空间科技有限公司 | 一种可视化列表排序方法及装置 |
CN111083287B (zh) * | 2019-12-16 | 2020-12-25 | 深圳集智数字科技有限公司 | 一种可视化列表排序方法及装置 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05100809A (ja) * | 1991-10-07 | 1993-04-23 | Fujitsu Ltd | タツチパネルによるオブジエクトの表示方法 |
JPH10161628A (ja) * | 1996-11-26 | 1998-06-19 | Sony Corp | 画面のスクロール制御装置及びスクロール制御方法 |
JP2003512668A (ja) * | 1999-10-20 | 2003-04-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 情報処理装置 |
JP2004117830A (ja) * | 2002-09-26 | 2004-04-15 | Denso Corp | ナビゲーション装置 |
JP2007018040A (ja) * | 2005-07-05 | 2007-01-25 | Matsushita Electric Ind Co Ltd | データ処理装置 |
JP2008508600A (ja) * | 2004-07-30 | 2008-03-21 | アップル インコーポレイテッド | タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース |
JP2008217742A (ja) * | 2007-03-08 | 2008-09-18 | Fuji Xerox Co Ltd | 表示装置及びプログラム |
JP2009123208A (ja) * | 2007-11-12 | 2009-06-04 | Research In Motion Ltd | タッチスクリーンデバイス用のユーザインタフェース |
JP2009277117A (ja) * | 2008-05-16 | 2009-11-26 | Kenwood Corp | ナビゲーション装置、プログラム、及び地図スクロール方法 |
JP2010198483A (ja) * | 2009-02-26 | 2010-09-09 | Nec Infrontia Corp | 電子ジャーナルデータ閲覧システム、電子ジャーナルデータ閲覧方法、そのプログラムおよび記録媒体 |
JP2011118477A (ja) * | 2009-11-30 | 2011-06-16 | Sony Corp | 情報処理装置、情報処理方法及びそのプログラム |
JP2011133701A (ja) * | 2009-12-25 | 2011-07-07 | Aisin Aw Co Ltd | 地図表示装置、地図表示方法及びプログラム |
JP2011242820A (ja) * | 2010-05-13 | 2011-12-01 | Panasonic Corp | 電子機器、表示方法、及びプログラム |
JP2011258151A (ja) * | 2010-06-11 | 2011-12-22 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法 |
JP2012014524A (ja) * | 2010-07-01 | 2012-01-19 | Panasonic Corp | 電子機器、表示制御方法、及びプログラム |
JP2012507077A (ja) * | 2008-10-26 | 2012-03-22 | マイクロソフト コーポレーション | マルチタッチ・オブジェクト慣性シミュレーション |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6539101B1 (en) * | 1998-04-07 | 2003-03-25 | Gerald R. Black | Method for identity verification |
US7469381B2 (en) * | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
JP2002013532A (ja) * | 2000-06-28 | 2002-01-18 | Koyo Seiko Co Ltd | 磁気軸受制御装置 |
US7084854B1 (en) * | 2000-09-28 | 2006-08-01 | Immersion Corporation | Actuator for providing tactile sensations and device for directional tactile sensations |
GB0301360D0 (en) * | 2003-01-21 | 2003-02-19 | Scratch Ltd | Golf stroke training device |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
JP4860625B2 (ja) * | 2004-10-08 | 2012-01-25 | イマージョン コーポレーション | タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック |
US7683883B2 (en) * | 2004-11-02 | 2010-03-23 | Pierre Touma | 3D mouse and game controller based on spherical coordinates system and system for use |
US7834847B2 (en) * | 2005-12-01 | 2010-11-16 | Navisense | Method and system for activating a touchless control |
EP1804154A3 (en) * | 2005-12-27 | 2012-08-08 | Poston Timothy | Computer input device enabling three degrees of freedom and related input and feedback methods |
KR100877829B1 (ko) * | 2006-03-21 | 2009-01-12 | 엘지전자 주식회사 | 스크롤링 기능을 갖는 단말기 및 그 스크롤링 방법 |
US9395905B2 (en) * | 2006-04-05 | 2016-07-19 | Synaptics Incorporated | Graphical scroll wheel |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US7832126B2 (en) * | 2007-05-17 | 2010-11-16 | Siemens Industry, Inc. | Systems, devices, and/or methods regarding excavating |
US8432365B2 (en) * | 2007-08-30 | 2013-04-30 | Lg Electronics Inc. | Apparatus and method for providing feedback for three-dimensional touchscreen |
US20090262137A1 (en) * | 2008-01-10 | 2009-10-22 | Walker Jay S | Systems and methods for presenting prediction in a broadcast |
WO2009128064A2 (en) * | 2008-04-14 | 2009-10-22 | Pointgrab Ltd. | Vision based pointing device emulation |
KR100914438B1 (ko) * | 2008-05-20 | 2009-08-28 | 엘지전자 주식회사 | 터치 디바이스를 구비한 전자 기기와 그 기능 실행 방법 |
CN101751195A (zh) * | 2009-12-30 | 2010-06-23 | 中兴通讯股份有限公司 | 一种电阻式触摸屏上的移动事件控制方法及装置 |
-
2010
- 2010-07-07 CN CN201010223457.0A patent/CN102314297B/zh active Active
-
2011
- 2011-07-06 AU AU2011276797A patent/AU2011276797B2/en active Active
- 2011-07-06 MY MYPI2012700510A patent/MY160170A/en unknown
- 2011-07-06 BR BR112012019980-3A patent/BR112012019980B1/pt active IP Right Grant
- 2011-07-06 WO PCT/CN2011/076909 patent/WO2012003799A1/zh active Application Filing
- 2011-07-06 US US13/574,874 patent/US8462132B2/en active Active
- 2011-07-06 EP EP11803152.5A patent/EP2523086B1/en active Active
- 2011-07-06 KR KR1020127026249A patent/KR101458289B1/ko active IP Right Grant
- 2011-07-06 JP JP2013516988A patent/JP5655142B2/ja active Active
- 2011-07-06 RU RU2012134991/08A patent/RU2491610C1/ru active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05100809A (ja) * | 1991-10-07 | 1993-04-23 | Fujitsu Ltd | タツチパネルによるオブジエクトの表示方法 |
JPH10161628A (ja) * | 1996-11-26 | 1998-06-19 | Sony Corp | 画面のスクロール制御装置及びスクロール制御方法 |
JP2003512668A (ja) * | 1999-10-20 | 2003-04-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 情報処理装置 |
JP2004117830A (ja) * | 2002-09-26 | 2004-04-15 | Denso Corp | ナビゲーション装置 |
JP2008508600A (ja) * | 2004-07-30 | 2008-03-21 | アップル インコーポレイテッド | タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース |
JP2007018040A (ja) * | 2005-07-05 | 2007-01-25 | Matsushita Electric Ind Co Ltd | データ処理装置 |
JP2008217742A (ja) * | 2007-03-08 | 2008-09-18 | Fuji Xerox Co Ltd | 表示装置及びプログラム |
JP2009123208A (ja) * | 2007-11-12 | 2009-06-04 | Research In Motion Ltd | タッチスクリーンデバイス用のユーザインタフェース |
JP2009277117A (ja) * | 2008-05-16 | 2009-11-26 | Kenwood Corp | ナビゲーション装置、プログラム、及び地図スクロール方法 |
JP2012507077A (ja) * | 2008-10-26 | 2012-03-22 | マイクロソフト コーポレーション | マルチタッチ・オブジェクト慣性シミュレーション |
JP2010198483A (ja) * | 2009-02-26 | 2010-09-09 | Nec Infrontia Corp | 電子ジャーナルデータ閲覧システム、電子ジャーナルデータ閲覧方法、そのプログラムおよび記録媒体 |
JP2011118477A (ja) * | 2009-11-30 | 2011-06-16 | Sony Corp | 情報処理装置、情報処理方法及びそのプログラム |
JP2011133701A (ja) * | 2009-12-25 | 2011-07-07 | Aisin Aw Co Ltd | 地図表示装置、地図表示方法及びプログラム |
JP2011242820A (ja) * | 2010-05-13 | 2011-12-01 | Panasonic Corp | 電子機器、表示方法、及びプログラム |
JP2011258151A (ja) * | 2010-06-11 | 2011-12-22 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法 |
JP2012014524A (ja) * | 2010-07-01 | 2012-01-19 | Panasonic Corp | 電子機器、表示制御方法、及びプログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015189922A1 (ja) * | 2014-06-11 | 2015-12-17 | 三菱電機株式会社 | 表示制御システムおよび表示制御方法 |
JP5985125B2 (ja) * | 2014-06-11 | 2016-09-06 | 三菱電機株式会社 | 表示制御システムおよび表示制御方法 |
JPWO2015189922A1 (ja) * | 2014-06-11 | 2017-04-20 | 三菱電機株式会社 | 表示制御システムおよび表示制御方法 |
US9947081B2 (en) | 2014-06-11 | 2018-04-17 | Mitsubishi Electric Corporation | Display control system and display control method |
JP6201004B1 (ja) * | 2016-06-01 | 2017-09-20 | 株式会社ゲオインタラクティブ | ユーザインターフェースプログラム |
JP2017215871A (ja) * | 2016-06-01 | 2017-12-07 | 株式会社ゲオインタラクティブ | ユーザインターフェースプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN102314297B (zh) | 2016-04-13 |
EP2523086B1 (en) | 2017-06-21 |
AU2011276797A1 (en) | 2012-08-23 |
BR112012019980B1 (pt) | 2021-01-26 |
EP2523086A1 (en) | 2012-11-14 |
JP5655142B2 (ja) | 2015-01-14 |
US20120306796A1 (en) | 2012-12-06 |
KR101458289B1 (ko) | 2014-11-04 |
WO2012003799A1 (zh) | 2012-01-12 |
KR20130008578A (ko) | 2013-01-22 |
RU2491610C1 (ru) | 2013-08-27 |
MY160170A (en) | 2017-02-28 |
US8462132B2 (en) | 2013-06-11 |
BR112012019980A2 (pt) | 2020-09-24 |
CN102314297A (zh) | 2012-01-11 |
AU2011276797B2 (en) | 2014-08-14 |
EP2523086A4 (en) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5655142B2 (ja) | ウィンドウオブジェクト慣性移動の実現方法及び実現装置 | |
US8860678B2 (en) | Computer system with touch screen and gesture processing method thereof | |
US11336961B2 (en) | Recording and broadcasting application visual output | |
US10572017B2 (en) | Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments | |
US20160109961A1 (en) | Systems, methods, apparatuses, computer readable medium for controlling electronic devices | |
EP2610726A1 (en) | Drag and drop operation in a graphical user interface with highlight of target objects | |
CN103797442A (zh) | 通过触敏显示屏使用压力差 | |
CN103827785A (zh) | 通过触敏显示屏使用压力差 | |
CN104364734A (zh) | 使用多点触摸输入的远程会话控制 | |
CN103955336A (zh) | 传感装置和方法 | |
US20120124472A1 (en) | System and method for providing interactive feedback for mouse gestures | |
CN107273009A (zh) | 一种移动终端快速截屏的方法及系统 | |
CN109219791A (zh) | 具有实际时间指示的内容刷动条 | |
WO2017096797A1 (zh) | 一种基于体感的操作组件控制方法和系统 | |
WO2016197644A1 (zh) | 单手控制方法和装置 | |
CN106843476B (zh) | 一种基于穿戴式设备控制终端光标的方法及穿戴式设备 | |
JP2011257801A (ja) | カーソル制御プログラム及び該装置 | |
Takács et al. | Creating, composing, and recognizing multisensor gestures in mobile devices | |
Hakka et al. | Design and Investigation of One-Handed Interaction Techniques for Single-Touch Gestures | |
WO2017096802A1 (zh) | 基于手势的操作组件控制方法、设备、计算机程序和存储介质 | |
JPH11327781A (ja) | ポインティングデバイスのデ−タ処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5655142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |