TWI733263B - 行動裝置及其控制方法 - Google Patents

行動裝置及其控制方法 Download PDF

Info

Publication number
TWI733263B
TWI733263B TW108144180A TW108144180A TWI733263B TW I733263 B TWI733263 B TW I733263B TW 108144180 A TW108144180 A TW 108144180A TW 108144180 A TW108144180 A TW 108144180A TW I733263 B TWI733263 B TW I733263B
Authority
TW
Taiwan
Prior art keywords
mobile device
data set
holding gesture
current
holding
Prior art date
Application number
TW108144180A
Other languages
English (en)
Other versions
TW202040350A (zh
Inventor
洪郁凱
張宜睿
李兆殷
翁問漁
陳昱達
Original Assignee
宏達國際電子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 宏達國際電子股份有限公司 filed Critical 宏達國際電子股份有限公司
Publication of TW202040350A publication Critical patent/TW202040350A/zh
Application granted granted Critical
Publication of TWI733263B publication Critical patent/TWI733263B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一種行動裝置包含複數個感測器及一處理器。複數個感測器分別設於行動裝置的相反側邊緣。處理器用於蒐集經標註為右手握持手勢的第一數據集,蒐集經標註為左手握持手勢的第二數據集,建立有關第一數據集和第二數據集的判斷模型,並回應於處理器,蒐集包含由感測器偵測之複數個握持位置和複數個施力值的第三數據集,根據第三數據集並參照判斷模型來判斷一當前握持手勢。

Description

行動裝置及其控制方法
本揭露係關於一種行動裝置。更具體地說,本揭露係關於一種行動裝置手勢的自動偵測。
由於在行動裝置上使用快捷目錄相當方便,傳統方法係將快捷目錄置於行動裝置的邊緣。此種方法雖然改善了使用快捷目錄的效率,若快捷目錄出現在使用者拇指的相反側時,使用上仍然有所不便。
因此,如何解決此問題係現今的重要議題。
本揭露提供一種行動裝置。行動裝置包含複數個感測器、一記憶體以及一處理器。複數個感測器分別設於行動裝置的相反側邊緣,各感測器用於偵測複數個握持位置和各握持位置上的施力值。記憶體用於儲存判斷模型,依據標註一右手握持手勢的一第一數據集以及標註一左手握持手勢的一第二數據集而產生該判斷模型,該第一數據集包含對應該行動裝置被右手握持的情況下該些感測器所偵測之 該些握持位置以及該些施力值,該第二數據集包含對應該行動裝置被左手握持的情況下該些感測器所偵測之該些握持位置以及該些施力值。處理器耦接於感測器。處理器用於蒐集感測器上包含握持位置和施力值之當前偵測數據。處理器更用於參照該判斷模型以根據該當前偵測數據,判斷一當前握持手勢並相對應地執行一預定義功能。
本揭露亦提供一種控制方法,其適用於行動裝置,行動裝置包含複數個感測器設於行動裝置之至少二邊緣。複數個感測器設於至少二邊緣上的不同位置。控制方法包含以下步驟:利用感測器偵測複數個握持位置和位於各握持位置上各自的施力值。利用感測器蒐集包含握持位置和施力值之當前偵測數據。參照該判斷模型以根據該當前偵測數據來判斷一當前握持手勢,並執行與該當前握持手勢相對應的一預定義功能。其中該判斷模型是依據標註一右手握持手勢的一第一數據集以及標註一左手握持手勢的一第二數據集而產生,該第一數據集包含對應該行動裝置被右手握持的情況下該些感測器所偵測之該些握持位置以及該些施力值,該第二數據集包含對應該行動裝置被左手握持的情況下該些感測器所偵測之該些握持位置以及該些施力值。
透過上述實施例中的運作,可將快捷目錄動態地顯示在行動裝置之顯示器中靠近使用者拇指的位置,以方便其使用。
應理解,前述一般性描述和以下詳細描述均通過範例進行說明,並且旨在提供如本揭露所請求之進一步說 明。
100‧‧‧行動裝置
110‧‧‧處理器
120‧‧‧感測模組
130‧‧‧記憶體
140‧‧‧顯示器
121、122‧‧‧感測器
123‧‧‧旋轉偵測器
124‧‧‧角速度偵測器
AX1‧‧‧第一軸心
211~214、221~224‧‧‧感測片
310‧‧‧預定義介面
320‧‧‧第一模式
330‧‧‧第二模式
340‧‧‧左手
350‧‧‧右手
TrP‧‧‧訓練階段
DeP‧‧‧偵測階段
CabP‧‧‧校正階段
S510~S513、S520~S524、S530、S530’、S540、S540’、S550~S556、S551’、S552’、S553a、S553b、S560~S563、S571~S576‧‧‧操作
T0~T4‧‧‧時槽
D11~D18、D21~D28、D31~D38、D41~D48、D51~D58、R11~R13、R21~R23、R31~R33、R41~R43、R51~R53、A11~A13、A21~A23、A31~A33、A41~A43、A51~A53‧‧‧數據
Th1、Th2‧‧‧閾值
P‧‧‧機率
M1‧‧‧滑動
F01‧‧‧第一圖形
為使本揭露之上述和其他目的、特徵、優點與實施例能更加明顯易懂,所附圖式之說明如下:
第1圖為本揭露一實施例中行動裝置的元件關係圖。
第2A圖為本揭露一實施例中包含二感測器的行動裝置示意圖。
第2B圖為本揭露一實施例中包含複數個感測器的行動裝置示意圖。
第3A圖為本揭露一實施例中以左手握持行動裝置的使用示意圖。
第3B圖為本揭露一實施例中以右手握持行動裝置的使用示意圖。
第4A圖為第3A圖中三個軸向的行動裝置示意圖。
第4B圖為第3B圖中三個軸向的行動裝置示意圖。
第5圖為本揭露一實施例中控制第1圖之行動裝置的方法流程圖。
第6圖為第5圖所示控制方法之更詳細的訓練階段流程圖。
第7圖為本揭露一實施例中控制方法之更詳細的偵測階段流程圖。
第8圖為本揭露一實施例中控制方法之訓練階段流程圖。
第9圖為本揭露一實施例中控制方法之偵測階段流程圖。
第10圖為本揭露一實施例中轉換自第一數據集之第一圖 形的示意圖。
第11圖為本揭露另一實施例中控制方法之偵測階段流程圖。
第12圖為本揭露一實施例中控制方法偵測階段後之校正階段流程圖。
第13A圖和第13B圖為本揭露一實施例中行動裝置接收調整輸入的使用示意圖。
以下將本揭露之實施例做進一步說明以供參考,且將以附圖描繪其範例。此外,以下描述及圖示中。將盡可能使用相同的參考數字以代表相同或相似部分。
應理解,雖然第一、第二、第三等字眼可能被用於描述不同的元件、零件、及/或部分,這些元件、零件及/或部分不限於這些形式。這些用語僅在以下討論中,用於區別不同的元件、零件及/或部分。因此,第一元件、零件及/或部分亦可在不脫離本揭露所教示情況下,稱之為第二元件、零件及/或部分。
請參考第1圖,為本揭露一實施例中行動裝置100的元件關係圖。行動裝置100包含處理器110、感測模組120、記憶體130、以及顯示器140,其中處理器110耦接於感測模組120、記憶體130、以及顯示器140。在一實施例中,行動裝置100可以是智慧型手機、個人數位助理、可穿戴式裝置(如:智慧型手錶)或任何足夠小型且能以手握並操作之具同等功效 的行動裝置。
在一些實施例中,感測模組120用於偵測握持手勢並產生與握持手勢相應的複數個數據,握持手勢係由使用者觸發由行動裝置100運作的某種功能(如:預定義介面)。在一些實施例中,與握持手勢相應的數據包含但不限於複數個握持位置、複數個施力值、複數個旋轉角度、以及複數個角速度。
在一些實施例中,如第1圖所示,感測模組120包含感測器121及另一感測器122。感測器121和感測器122可分別用於偵測施加在感測器121和感測器122感測範圍所讀取到的力量。
第2A圖為本揭露一實施例中包含感測器121和感測器122的行動裝置100示意圖。如第2A圖所示,感測器121設於行動裝置100的左側面,感測器122設於行動裝置100的右側面。在此實施例中,感測器121可偵測行動裝置100沿第一軸心AX1上不同握持位置之不同施力值。在此實施例中,感測器122可偵測行動裝置100沿第一軸心AX1上不同握持位置之不同施力值。
請參考第3A圖及第3B圖。第3A圖為本揭露一實施例中使用者以左手340握持行動裝置100的使用示意圖。第3B圖為本揭露另一實施例中使用者以右手350握持行動裝置100的使用示意圖。當行動裝置100被左手340或右手350所握持時,第2A圖中的感測器121和感測器122將偵測這些握持位置和握持上的施力值。
請參考第2A圖及第3A圖,當行動裝置100如第 3A中所示被以左手340所握持時,感測器121可偵測對應左手340之拇指(或左手虎口)的握持位置,以及握持位置上的施力值。同時,感測器122可偵測對應左手340之四隻手指(如:食指、中指、無名指、以及小指)的握持位置,以及握持位置上的施力值。
參考第2A圖及第3B圖,當行動裝置100如第3B中所示被以右手350所握持時,感測器121可偵測對應右手350之四隻手指(如:食指、中指、無名指、以及小指)的握持位置,以及握持位置上的施力值。同時,感測器122可偵測對應右手350之拇指(或右手虎口)。
在此實施例中,感測器121和感測器122可同時偵測一個或多個握持位置,並回傳一或多個沿第一軸心AX1的握持座標至處理器110。
然而,感測器121和感測器122不限於第2A圖所示之設置。各種行動裝置,只要行動裝置100的側邊設置至少兩個壓力感測器,即屬本揭露的預期範圍。
第2B圖為本揭露另一實施例中行動裝置100的示意圖。在第2B圖中,感測器121包含四個壓力感測片211、212、213、以及214,四個壓力感測片皆設於行動裝置100左側邊,以獨立偵測行動裝置100左側在不同握持位置上的施力值。感測器122包含四個壓力感測片221、222、223、以及224,四個壓力感測片皆設於行動裝置100右側邊,以獨立偵測行動裝置100右側在不同握持位置上的施力值。
相較於第2A圖中的行動裝置100的感測器121 和感測器122,壓力感測片211至214或221至224可由低成本的壓力感測元件所製造。
在一些實施例中,記憶體130用於儲存第一數據集和第二數據集所產生的判斷模型。第一數據集對應以右手握持行動裝置100的手勢,第二數據集對應以左手握持行動裝置100的手勢。在一實施例中第一數據即和第二數據集中的每一個數據得以圖形、矩陣或數值等形式表示。
在一些實施例中,記憶體130可以是唯讀記憶體(Read=only Memory,ROM)、快閃記憶體、軟碟、硬碟、光碟、快閃碟、隨身碟、磁帶、可由網路存取的資料庫、或任何該領域具有通常知識者可能考慮使用之有相同功能的儲存媒介。
在一些實施例中,處理器110用於運行或執行各種軟體程式及/或用於處理數據之各種功能的指令集。在一些實施例中,處理器110用於將與從感測模組120取得之握持手勢相對應的數據,與從記憶體130所取得之第一數據和第二數據進行比較,並根據比較結果辨識關於握持手勢是左手手勢還是右手手勢的左右狀態。在一些實施例中,處理器110可以是一或多個處理器,如中央處理器及/或微處理器,但不限於此。在一些實施例中,處理器可以是軟體程式,韌體及/或基於學習模型的硬體電路。學習模型包含但不限於邏輯迴歸模型、支持向量機及隨機森林模型。
在一些實施例中,顯示器140用於根據處理器110判斷的左右狀態,在行動裝置100的顯示器140某側顯 示預定義界面。舉例而言,當處理器110判斷握持手勢為左手手勢時,顯示器140在其左側顯示預定義介面;當處理器110判斷握持手勢為右手手勢時,顯示器140在其右側顯示預定義介面。在一實施例中,顯示器140可以包含顯示面板(如:液晶顯示面板或發光二極體顯示面板)或觸控螢幕。
在一些實施例中,預定義介面包含但不限於具有複數捷徑的側邊啟動、快捷目錄或/及鍵盤。在一些實施例中,行動裝置100可執行根據左右狀態的某種功能,比如當使用者以右手高舉行動裝置100時,行動裝置100啟動打電話功能。當使用者以左手高舉行動裝置100時,行動裝置100啟動自拍功能。各種適用在行動裝置100的功能、應用,皆屬本揭露所涵蓋之範圍。
在一些實施例中,如第1圖所示,感測模組120包含感測器121、感測器122、旋轉偵測器123、以及角速度偵測器124。感測器121和感測器122用於偵測對應握持手勢的握持位置,以及對應握持位置的施力值,其中各施力值代表某一握持位置上偵測到的壓力。旋轉偵測器123用於偵測行動裝置100沿不同軸心的旋轉角度。角速度偵測器124用於偵測行動裝置100的沿不同軸心的旋轉角速度。詳細地說,感測器121和感測器122用於偵測兩側的握持位置以及握持位置上的施力值,旋轉偵測器123用於偵測握持手勢所生的旋轉角度,角速度偵測器124用於偵測握持行動裝置100時的旋轉角速度。
在一些實施例中,感測器121和感測器122得各 自為電容感測器、電阻感測器、壓電感測器、電磁感測器、其他種類的壓力/力感測器,或是前述感測器的組合。旋轉偵測器123可以是磁力儀或指南針,角速度偵測器124可以是陀螺儀。在一些實施例中,可以將旋轉偵測器123和角速度偵測器124整合,以慣性感測器呈現,如磁力儀、陀螺儀及加速度儀的結合。
在一些實施例中,行動裝置100可以如第2A圖中所示之行動裝置100,或如第2B圖中所示之行動裝置100。各種在行動裝置100兩個側邊以上具有感測器的行動裝置皆屬本揭露所涵蓋之範圍。
如第3A圖所示,行動裝置100由左手340以左手手勢握持,使得預定義介面310如第一模式320,顯示在行動裝置100中顯示器140的左側。
如第3B圖所示,行動裝置100由右手350以左手手勢握持,使得預定義介面310如第二模式330,顯示在行動裝置100中顯示器140的右側。
根據第3A圖和第3B圖,預定義介面310顯示在哪一側係與左右狀態有關,左右狀態即為握持手勢是左手手勢還是右手手勢。換句話說,預定義介面310顯示在靠近使用者拇指的一側使其更能容易地被取得。
在一些實施例中,旋轉角度包含第一旋轉角、第二旋轉角、以及第三旋轉角。如第4A圖和第4B圖所示,第4A圖為第3A圖中三個軸向的行動裝置100示意圖,第4B圖為第3B圖中三個軸向的行動裝置100示意圖。第一旋轉角、第 二旋轉角、以及第三旋轉角分別對應行動裝置100中沿X軸、Y軸、Z軸之旋轉角。如第4A圖和第4B圖所示,行動裝置100的X軸與行動裝置100的顯示器140平行且指向右方,Y軸與行動裝置100的顯示器140平行且指向上方,Z軸與行動裝置100的顯示器140垂直且指向顯示器140之外。
請參考第1圖和第5圖。本段落將參照第5圖中的控制方法500對本揭露進行詳細描述。第5圖為本揭露一時施施力中,第1圖所示行動裝置100之控制方法500的流程圖。
需要注意的是,在一些實施例中,控制方法500可為電腦程式。在一些實施例中,電腦程式可由行動裝置100之處理器110執行。
如第5圖所示,控制方法500包含至少一訓練階段TrP以及偵測階段DeP。在訓練階段TrP中,執行控制方法500以建立判斷模型,判斷模型可於隨後的偵測階段DeP中辨識關於使用者如何握持行動裝置100的當前握持手勢。判斷模型儲存在記憶單元130當中。
在一些實施例中,當使用者購買其擁有的行動裝置100時,可以執行訓練階段TrP。如第1圖和第5圖所示,在訓練階段TrP中,行動裝置100可能在顯示器140上顯示某些指令以鼓勵使用者以特定手握持。舉例而言,使用者被引導以右手握持行動裝置100,則當指令顯示「右手」時,執行操作S510以蒐集標註了右手握持手勢的第一數據集;同樣地,當指令顯示「左手」時,執行操作S520以蒐集標註了左手握持手勢的第二數據集。
在一些實施例中,訓練階段TrP可由行動裝置100的設計者或製造者,在行動裝置寄給使用者之前,於實驗室或研究中心執行。於此情形,可由設計者或製造者以期望使用的手握持行動裝置100,以蒐集第一數據集和第二數據集。
在蒐集第一數據集和第二數據集之後,執行操作S530以建立關於第一數據集和第二數據集的判斷模型。第6圖提供了在一些實施例中,較第5圖控制方法500之訓練階段TrP更詳細的流程圖,以提供進一步參考。
如第6圖所示,當行動裝置如第3B圖中由右手350所握持時,操作S510可包含步驟511至513中至少一步驟。步驟511由壓力感測器所執行(如第2A圖或第2B圖所示的壓力感測器121及122),以偵測握持位置和位於各握持位置的施力值,而感測器110用於蒐集這些握持位置及施力值作為第一數據集的一部份。當使用者以不同方式握持行動裝置100時,握持位置和施力值皆將隨之有所不同。步驟512由旋轉感測器所執行(如第1圖所示的旋轉感測器123),以偵測行動裝置100沿不同軸心(如第4A圖及第4B圖所示之X軸、Y軸、以及Z軸的方向向量)的旋轉角度,而感測器110用於蒐集這些旋轉角度作為第一數據集的一部份。當使用者以不同方式握持行動裝置100時,X軸、Y軸、以及Z軸的方向向量皆將隨之有所不同。步驟513由角速度感測器所執行(如第1圖所示的角速度感測器124),以偵測行動裝置100沿不同軸心(如第4A圖及第4B圖所示 之X軸、Y軸、以及Z軸的方向向量)的旋轉角速度,而感測器110用於蒐集這些角速度作為第一數據集的一部份。當使用者以不同方式握持行動裝置100時,X軸、Y軸、以及Z軸的方向向量皆將隨之有所不同。值得注意的是,操作S511、S512、以及S513不限於如第6圖中所示之順序執行。在一實施例中,操作S511、S512、以及S513的執行順序可以互換。在一實施例中,操作S511、S512、以及S513可以同時執行,或是在很短的時間內執行(如:一毫秒內執行完三個步驟)。在一實施例中,控制方法500不限於所有的操作S511、S512、以及S513,又控制方法500可蒐集至少一種資訊(如:握持位置和施力值或旋轉角度或旋轉角速度),作為當行動裝置100在被右手握持時之第一數據集。
如第6圖所示,當行動裝置100如第3A圖中由左手340所握持時,操作S520可包含操作S521至操作S523中至少一操作。操作S521由壓力感測器所執行(如第2A圖或第2B圖所示的壓力感測器121及122),以偵測握持位置和位於各握持位置的施力值,而感測器110用於蒐集這些握持位置及施力值作為第二數據集的一部份。當使用者以不同方式握持行動裝置100時,握持位置和施力值皆將隨之有所不同。操作S522由旋轉感測器所執行(如第1圖所示的旋轉感測器123),以偵測行動裝置100沿不同軸心(如第4A圖及第4B圖所示之X軸、Y軸、以及Z軸的方向向量)的旋轉角度,而感測器110用於蒐集這些旋轉角度作為第二數據集的一部份。當使用者以不同方式握持行動裝置100時,X軸、 Y軸、以及Z軸的方向向量皆將隨之有所不同。操作S523由角速度感測器所執行(如第1圖所示的角速度感測器124),以偵測行動裝置100沿不同軸心(如第4A圖及第4B圖所示之X軸、Y軸、以及Z軸的方向向量)的旋轉角速度,而感測器110用於蒐集這些角速度作為第二數據集的一部份。當使用者以不同方式握持行動裝置100時,X軸、Y軸、以及Z軸的方向向量皆將隨之有所不同。值得注意的是,操作S521、S522、以及S523不限於如第6圖中所示之順序執行。在一些實施例中,操作S521、S522、以及S523的執行順序可以互換。在一些實施例中,操作S521、S522、以及S523可以同時執行,或是在很短的時間內執行(如:一毫秒內執行完三個步驟)。在一些實施例中,控制方法500不限於所有的操作S521、S522、以及S523,又控制方法500可蒐集至少一種資訊(如:握持位置和施力值或旋轉角度或旋轉角速度),作為當行動裝置100在被左手握持時之第二數據集。
在此實施例中,執行步驟530以建立關於第一數據集(包含操作S511至S513中所蒐集到的握持位置和相應的施力值、旋轉角度及/或旋轉角速度)和第二數據集(包含操作S521至S523中所蒐集到的握持位置和相應的施力值、旋轉角度及/或旋轉角速度)的判斷模型。一旦訓練階段TrP完成,控制方法500可利用判斷模型判斷行動裝置100的當前握持手勢為左手手勢還是右手手勢。不須在每次行動裝置100欲判斷當前握持手勢時都執行訓練階段TrP。 在一實施例中,訓練階段TrP可基於使用者要求於每次判斷、每十次判斷、每小時、每天、每週執行一次,亦可以任何等距的時間內執行。
參照第1圖和第5圖,當訓練階段TrP完成時,判斷模型亦隨之建立。控制方法500可執行偵測階段DeP。在偵測階段DeP中,控制方法500藉由處理器110執行操作S540,以蒐集當前偵測數據,當前偵測數據係與使用者當前握持行動裝置100的方式有關。接著,藉由處理器110執行步驟550,利用於訓練階段TrP建立的判斷模型,根據當前偵測數據判斷當前握持手勢。再接著,行動裝置100可根據當前握持手勢啟動某項功能(如:顯示預定義介面、打電話功能、自拍功能或點讚)。在如第5圖所示之一些實施例中,控制方法500執行操作S560以顯示根據當前握持手勢之預定義介面。
第7圖為本揭露一些實施例中控制方法之更詳細的偵測階段DeP流程圖。操作S540中,當前偵測數據可包含握持位置及施力值、旋轉角度、旋轉角速度或其組合中至少一種資訊。如何獲得當前偵測數據的細節可以參考操作S511至S513或S521至523,於此不再重複說明。
如第7圖所示,操作S550可更包含操作S551至S555。操作S551藉由處理器110執行,以計算來自判斷模型之第一數據集與當前偵測數據之間的第一相似度。於此情形,判斷模型中的第一數據集代表右手握持手勢的原型。第一相似度代表當前偵測數據與右手握持手勢有多相似。在一 實施例中,第一數據集可由高維空間中的迴歸平面表示,高維空間的維度可由在操作S510中所蒐集到的握持位置、施力值、旋轉角度、以及旋轉角速度所定義。當前偵測數據可在高維空間中轉換為一個投影點。在此實施例中,第一數據集和當前偵測數據的第一相似度,與投影點和迴歸平面之間的間隙距離呈現負相關。若投影點與迴歸平面的距離較遠(即間隙距離較大),第一相似度就較低;若投影點與迴歸平面的距離較近(即間隙距離較小),第一相似度就較高。
操作S552藉由處理器110執行,以計算來自判斷模型之第二數據集與當前偵測數據的第二相似度。於此情形,判斷模型中的第二數據集代表左手握持手勢的原型。第二相似度代表當前偵測數據與左手握持手勢有多相似。在一實施例中,第二數據集可由高維空間中的另一迴歸平面表示。在一實施例中,第二數據集和當前偵測數據的第二相似度,與對應當前偵測數據之投影點和對應第二數據集之另一迴歸平面之間的間隙距離呈現負相關。若投影點與另一迴歸平面的距離較遠(即間隙距離較大),第二相似度就較低;若投影點與迴歸平面的距離較近(即間隙距離較小),第二相似度就較高。
操作S553藉由處理器110執行,以比較第一相似度及第二相似度。當第一相似度超越第二相似度時,利用處理器執行操作S554,以將當前握持手勢判斷為右手握持手勢。反之,當第二相似度超越第一相似度時,利用處理器執行操作S555,以將當前握持手勢判斷為左手握持手勢。
如第7圖所示,操作S560更包含操作S561和S562。當當前握持手勢被判斷為右手握持手勢時,執行操作S561以顯示根據右手握持手勢之預定義介面。如第3B圖所示,當當前握持手勢被判斷為右手握持手勢時,預定義介面310顯示在顯示器140的右側,與右手350的拇指相鄰。
當當前握持手勢被判斷為左手握持手勢時,執行操作S562以顯示根據左手握持姿勢之預定義介面。如第3A圖所示,當當前握持手勢被判斷為左手握持手勢時,預定義介面310顯示在顯示器140的左側,與左手340的拇指相鄰。
在前述的一些實施例中,偵測、蒐集並比較第一數據集、第二數據集、及/或當前偵測數據,以判斷當前握持手勢。然而,本揭露並不限於此。在一些實施例中,可將第一數據集、第二數據集及/或當前偵測數據轉換為其他格式以在彼此間比較或儲存。
請參照第8圖和第9圖。第8圖為本揭露一些實施例中控制方法之訓練階段流程圖,第9圖為本揭露一些實施例中控制方法之偵測階段流程圖。
與第6圖之一些實施例相比,第8圖中的操作S510更包含操作S514,操作S514藉由處理器110將第一數據集執行轉換為第一圖形F01。
在操作S511至S513中,處理器110蒐集許多資訊做為第一數據集。在一實施例中,當行動裝置100被以右手握持手勢握持時,偵測模組120偵測不同時槽中大量的施 力值樣本。在一實施例中,當行動裝置100被以右手握持手勢握持時,偵測模組120亦可偵測不同時槽中大量的旋轉角度和旋轉角速度。以第2B圖中的行動裝置100為例以進行說明,第一數據集可被轉換為第10圖中所示的第一圖形F01。第10圖為本揭露一些實施例中轉換自第一數據集之第一圖形的示意圖。第一圖形包含複數個像素。第一圖形F01中複數個像素的灰階由第一數據集決定。詳細地說,在時槽T0中,數據D11、D12、D13、D14、D15、D16、D17、D18為由感測片211、212、213、214、221、222、223、224所分別獲得的施力值,數據R11為沿X軸所生的旋轉角,數據R12為沿Y軸所生的旋轉角,數據R13為沿Z軸所生的旋轉角,數據A11為沿X軸所生的角速度,數據A12為沿Y軸所生的角速度,數據A13為沿Z軸所生的角速度。數據D11至D18、R11至R13、以及A11至A13的數值,將決定第一圖形F01中相應像素的灰階。舉例而言,當數值較大時,像素顏色較深;當數值較小時,像素顏色較淺。
在時槽T1中,數據D21至D28為由感測片211至214以及221至224所分別獲得的施力值,數據R21為沿X軸所生的旋轉角,數據R22為沿Y軸所生的旋轉角,數據R23為沿Z軸所生的旋轉角,數據A21為沿X軸所生的角速度,數據A22為沿Y軸所生的角速度,數據A23為沿Z軸所生的角速度。
同樣地,數據D31至D38、R31至R33、以及A31至A33對應至時槽T2;數據D41至D48、R41至R43、 以及A41至A43對應至時槽T3;數據D51至D58、R51至R53、以及A51至A53對應至時槽T4。於此情形,第一圖形F01可代表包含偵測模組120在五個時槽T0至T4中所偵測到數據的第一數據集。
如第8圖所示,第8圖中的操作S520相較於第6圖更包含操作S524。操作步驟524以將第二數據集轉換為第二圖形。第二圖形的結構與第10圖中第一圖形的結構相似,於此不再贅述。
接著,方法500執行操作S530’以建立有關第一圖形和第二圖形的判斷模型。在一些實施例中,判斷模型可記錄第一圖形和第二圖形,第一圖形和第二圖形即分別代表了第一數據集和第二數據集。
如第9圖所示,執行第9圖中的操作S540’以蒐集當前偵測數據並將當前偵測數據轉換為第三圖形(未顯示於圖式中)。第三圖形的結構與第10圖中的第一圖形結構相似,於此不再贅述。如第9圖所示,第9圖中的操作S551’藉由處理器110計算第一圖形和第三圖形的第一相似度。在此實施例中,第一數據集和當前偵測數據之間的第一相似度,可藉由比較第一圖形F01和第三圖形,並根據圖像比較演算法計算出來。圖像比較演算法可以是直方圖匹配(Histogram Matching)演算法、感知雜湊(Perceptual Hash)演算法或任何可用於比較圖像之同等功能的演算法。如第9圖所示,執行第9圖中的操作S552’藉由處理器110計算第二圖形和第三圖形的第二相似度。在此實施例 中,第二數據集和當前偵測數據之間的第二相似度,可藉由比較第二圖形和第三圖形,並根據圖像比較演算法計算出來。圖像比較演算法可以是直方圖匹配演算法、感知雜湊演算法或任何可用於比較圖像之同等功能的演算法。在計算第一相似度和第二相似度之後,控制方法500可執行操作S553至562,操作S553至562與第7圖中的一實施例相似,在此不再贅述。
第11圖為本揭露另一些實施例中,控制方法500中偵測階段DeP的流程圖。如第11圖所示,如第11圖所示,第11圖之一些實施例較第9圖之一實施例中的操作S550更包含操作S553a、S553b、以及S556。
執行操作S553a以計算根據第一相似度和第二相似度的機率P。在一實施例中,判斷模型將根據當前偵測數據和第一數據集之間的第一相似度,以及當前偵測數據和第二數據集之間的第二相似度,產生一判斷值。判斷值的範圍在負無限大至正無限大之間。判斷值可由通用邏輯函數(如:S型函數)轉換為介於0至1之間的機率P。當第一相似度高於第二相似度時,機率P將較接近於1;當第一相似度低於第二相似度時,機率P將較接近於0;當第一相似度與第二相似度接近時,機率P將較接近於0.5。
執行操作S553b以將機率P與兩個閾值Th1和閾值Th2進行比較。在一些實施例中,閾值Th1可以設為0.7,閾值Th2可以設為0.3。在一些實施例中,閾值Th1可以設為0.6,閾值Th2可以設為0.4。
當機率P超過閾值Th1時,參考第7圖和第9圖,執行操作S554和S561;當機率P低於閾值Th2時,參考第7圖和第9圖,執行操作S555和S562。
當機率P介於閾值Th1和閾值Th2之間時,代表難以辨識當前握持手勢。於此情形,控制方法500執行操作S556,並將預設握持手勢作為當前握持手勢。在一實施例中,可以將預設握持手勢設定為右手、左手、最近一次偵測階段DeP中偵測到的手、或是最近十次偵測階段DeP中最常被偵測到的手。此外,在一些實施例中,執行操作S563以顯示根據預設握持手勢之預定義介面。
第12圖為本揭露一些實施例中,控制方法500偵測階段DeP之後。校正階段CabP的流程圖。
在第5圖、第7圖、第9圖或第11圖的偵測階段DeP之後,判斷當前握持手勢,並根據當前握持手勢觸發相應的功能。控制方法500在偵測階段DeP之後可以更包含校正階段CabP,以提高偵測準確性。
如第12圖所示,校正階段CabP包含操作S571至S576。
假設在偵測階段DeP中,根據當前偵測數據,將當前握持手勢判斷為左手握持手勢。則在操作S562中,因為當前握持手勢被判斷為左手握持手勢,故顯示器140在左側顯示預定義介面310。
於此情形,執行操作S572以將當前偵測數據標註為左手握持手勢,並將經標註的當前偵測數據新增至判斷 模型中的第二數據集,以更新判斷模型。執行操作S572以將在偵測階段DeP中被判斷應標註為左手握持手勢當前偵測數據,合併進入判斷模型中的第二數據集,以動態地更新判斷模型。
在某種情況下,判斷模型在偵測階段DeP中所產生的判斷結果可能有誤,則預定義介面310可能顯示在錯誤的一側。參考第13A圖,為本揭露一些實施例中行動裝置接收調整輸入的使用示意圖。如第13A圖所示,預定義介面130顯示在顯示器140左側,然而,預定義介面130與使用者的拇指距離遙遠。這是因為此時使用者係以右手握持行動裝置100。換句話說,偵測階段DeP中所產生的判斷結果「左手握持手勢」有誤。
在示例中,行動裝置100更包含將觸控感測器的整合在顯示器140中之觸控顯示器,使得行動裝置140可以偵測觸控顯示器140上的觸控輸入。如第13A圖所示,預定義介面310顯示在行動裝置100之顯示器140上遠離使用者拇指的的左側。在發現預定義介面310之顯示遠離使用者拇指後,使用者可以在觸控顯示器140上執行滑動M1,觸控顯示器將接收到對應滑動M1的調整輸入。觸控顯示器可將調整輸入傳送至處理器110。參考第13B圖,為行動裝置接收調整輸入後重置預定義介面310的使用示意圖。在接收到調整輸入後,預定義介面310將如第13B圖所示,依使用者之要求被移動至觸控顯示器140的右側。同時,將執行操作S576以修改當前偵測數據的標註(將其標註為右手握持姿勢),並 將已標註的當前偵測數據,在判斷模型中由第二數據集移動至第一數據集。
若未接收到調整輸入(即表示偵測階段DeP所產生之偵測結果正確),則控制方法500結束校正階段CabP,且經標註的當前偵測數據將被儲存至判斷模型中的第二數據集。
另一方面,在操作S561中,因為當前握持手勢被判斷為右手握持手勢,故顯示器140在右側顯示預定義介面。執行操作S571以將當前偵測數據標註為右手握持手勢,並將經標註的當前偵測數據合併進入判斷模型中的第一數據集,以動態地更新判斷模型。執行操作S573以判斷是否接收到調整輸入。若接收到調整輸入(如使用者在觸控顯示器上為更正預定義介面310位置所執行的滑動),則執行操作S575以修正當前偵測數據的標註(將其標註為左手握持姿勢),並將已標註的當前偵測數據,在判斷模型中由第一數據集移動至第二數據集。若未接收到調整輸入,則控制方法500結束校正階段CabP。
總結而言,藉由上述實施例中的操作,預定義介面310可以動態地顯示在行動裝置100之顯示器140中靠近使用者拇指的位置,以方便其使用。
本揭露之其他實施例包含具電腦程式的非暫時性電腦可讀取儲存媒體(如第1圖所示之記憶體130,其可以是硬碟或任何等效的儲存單元),電腦程式可分別執行第5圖、第6圖、第7圖、第8圖、第11圖、以及第12圖所示之上述控制 方法500。
上述雖已參考本揭露的某些實施例,以相當詳細的方式進行描述,惟仍可能有其他實施例。因此,附屬請求項不應限於實施例中所描述的範圍。
對於本領域具有通常知識者而言,在不脫離本公開的範圍或精神的情況下,可以對本公開的結構進行各種修改和變化。鑑於前述內容,本揭露旨在包含落入以下請求項範圍之所有修改和變化。
100‧‧‧行動裝置
121、122‧‧‧感測器
140‧‧‧顯示器
310‧‧‧預定義介面
320‧‧‧第一模式
340‧‧‧左手

Claims (16)

  1. 一種行動裝置,包含:複數個感測器分別設於該行動裝置的相反側邊緣,該些感測器用於偵測複數個握持位置和該些握持位置上之複數個施力值;一記憶體用於儲存一判斷模型,依據標註一右手握持手勢的一第一數據集以及標註一左手握持手勢的一第二數據集而產生該判斷模型,該第一數據集包含對應該行動裝置被右手握持的情況下該些感測器所偵測之該些握持位置以及該些施力值,該第二數據集包含對應該行動裝置被左手握持的情況下該些感測器所偵測之該些握持位置以及該些施力值;以及一處理器耦接於該些感測器,該處理器用於:蒐集該些感測器上包含該些握持位置和該些施力值之一當前偵測數據;以及參照該判斷模型以根據該當前偵測數據計算一當前握持手勢機率來判斷一當前握持手勢並相對應地執行一預定義功能,其中,回應於該當前握持手勢機率高於一第一閾值,該處理器判斷該當前握持手勢為該右手握持手勢;回應於該當前握持手勢機率低於一第二閾值,該處理器判斷該當前握持手勢為該左手握持手勢;以及 回應於該當前握持手勢機率介於該第一閾值和該第二閾值之間,判斷該當前握持手勢為一預設握持手勢。
  2. 如請求項1所述之行動裝置,其中該處理器更用於:計算該第一數據集與該當前偵測數據之一第一相似度,以及計算該第二數據集與該當前偵測數據之一第二相似度;以及根據該第一相似度和該第二相似度辨識該當前握持手勢。
  3. 如請求項2所述之行動裝置,其中該處理器更用於:根據該第一相似度及該第二相似度計算該當前握持手勢機率。
  4. 如請求項1所述之行動裝置,其中該第一數據集包含對應一第一圖形中複數個第一像素的資訊,該第二數據集包含對應一第二圖形中複數個第二像素的資訊,該第一圖形的該些第一像素的灰階至少由對應該行動裝置被右手握持的情況下該些感測器所偵測之該些握持位置和該些施力值所決定,該第二圖形的該些第二像素的灰階至少由對應該行動裝置被左手握持的情況下該些感測器 所偵測之該些握持位置和該些施力值所決定,該判斷模型與該第一圖形和該第二圖形相關聯。
  5. 如請求項1所述之行動裝置,更包含:一旋轉偵測器耦接於該處理器,用於偵測該行動裝置沿不同軸心所生之複數個旋轉角度,其中該第一數據集更包含對應該行動裝置被右手握持的情況下該旋轉偵測器所偵測之該些旋轉角度,該第二數據集更包含對應該行動裝置被左手握持的情況下該旋轉偵測器所偵測之該些旋轉角度;其中該處理器更用於:將來自該旋轉偵測器中對應該當前握持手勢的該些旋轉角度蒐集進入該當前偵測數據,並根據該當前偵測數據包含的該些握持位置、該些施力值以及該些旋轉角度來判斷該當前握持手勢。
  6. 如請求項1所述之行動裝置,更包含:一角速度偵測器耦接於該處理器,並設於偵測該行動裝置沿不同軸心所生之複數個旋轉角速度,其中該第一數據集更包含對應該行動裝置被右手握持的情況下該角速度偵測器所偵測之該些旋轉角速度,該第二數據集更包含對應該行動裝置被左手握持的情況下該角速度偵測器所偵測之該些旋轉角速度;其中該處理器更用於: 將來自該角速度偵測器中對應該當前握持手勢的該些旋轉角速度蒐集進入該當前偵測數據,並根據該當前偵測數據包含的該些握持位置、該些施力值以及該些旋轉角速度來判斷該當前握持手勢。
  7. 如請求項1所述之行動裝置,其中該處理器更用於:根據已判斷之該當前握持手勢,將該當前偵測數據標註為該右手握持手勢或該左手握持手勢;以及將已標註的該當前偵測數據合併至該判斷模型中的該第一數據集或該第二數據集其中之一,以更新該判斷模型。
  8. 如請求項7所述之行動裝置,其中該處理器更用於:判斷一調整輸入是否已被接收;以及當已接收到該調整輸入,針對已標註的該當前偵測數據進行修改並更新該判斷模型。
  9. 一種控制方法,其適用於一行動裝置,該行動裝置包含複數個感測器設於該行動裝置之至少二邊緣,該些感測器設於該至少二邊緣上的不同位置,該控制方法包含:利用該些感測器偵測複數個握持位置和位於該些握持位置上各自的複數個施力值; 利用該些感測器蒐集包含該些握持位置和該些施力值之一當前偵測數據;以及參照該判斷模型以根據該當前偵測數據計算一當前握持手勢機率來判斷一當前握持手勢,並執行與該當前握持手勢相對應的一預定義功能,其中回應於該當前握持手勢機率高於一第一閾值則判斷該當前握持手勢為該右手握持手勢,回應於該當前握持手勢機率低於一第二閾值則判斷該當前握持手勢為該左手握持手勢,回應於該當前握持手勢機率介於該第一閾值和該第二閾值之間則判斷該當前握持手勢為一預設握持手勢,其中該判斷模型是依據標註一右手握持手勢的一第一數據集以及標註一左手握持手勢的一第二數據集而產生,該第一數據集包含對應該行動裝置被右手握持的情況下該些感測器所偵測之該些握持位置以及該些施力值,該第二數據集包含對應該行動裝置被左手握持的情況下該些感測器所偵測之該些握持位置以及該些施力值。
  10. 如請求項9所述之控制方法,其中判斷該當前握持手勢的步驟包含:計算該第一數據集與該當前偵測數據之一第一相似度,和該第二數據集與該當前偵測數據之一第二相似度;以及根據該第一相似度和該第二相似度辨識該當前握持手勢。
  11. 如請求項10所述之控制方法,其中判斷該當前握持手勢的步驟更包含:根據該第一相似度及該第二相似度計算該當前握持手勢機率。
  12. 如請求項9所述之控制方法,其中該第一數據集包含對應一第一圖形中複數個第一像素的資訊,該第二數據集包含對應一第二圖形中複數個第二像素的資訊,該第一圖形的該些第一像素的灰階至少由對應該行動裝置被右手握持的情況下該些感測器所偵測之該些握持位置和該些施力值所決定,該第二圖形的該些第二像素的灰階至少由對應該行動裝置被左手握持的情況下該些感測器所偵測之該些握持位置和該些施力值所決定,該判斷模型與該第一圖形和該第二圖形相關聯。
  13. 如請求項9所述之控制方法,更包含:偵測該行動裝置沿不同軸心所生之複數個旋轉角度;蒐集對應該當前握持手勢的該些旋轉角度,進入該當前偵測數據;以及根據包含該些握持位置、該些施力值以及該些旋轉角度,判斷該當前握持手勢,其中該第一數據集更包含對應該行動裝置被右手握持的情況下偵測之該些旋轉角度,該第二數據集更包含對應 該行動裝置被左手握持的情況下偵測之該些旋轉角度。
  14. 如請求項9所述之控制方法,更包含:偵測該行動裝置沿不同軸心所生之複數個旋轉角速度;蒐集對應該當前握持手勢的該些旋轉角速度進入該當前偵測數據;以及根據包含該些握持位置、該些施力值以及該些旋轉角速度,判斷該當前握持手勢,其中該第一數據集更包含對應該行動裝置被右手握持的情況下偵測之該些旋轉角速度,該第二數據集更包含對應該行動裝置被左手握持的情況下偵測之該些旋轉角速度。
  15. 如請求項9所述之控制方法,更包含:根據已判斷之該當前握持手勢,標註該當前偵測數據為該右手握持手勢或該左手握持手勢;以及合併已標註之該當前偵測數據至該判斷模型中的該第一數據集或該第二數據集其中之一,以更新該判斷模型。
  16. 如請求項15所述之控制方法,更包含:判斷一調整輸入是否已被接收;以及回應於已接收該調整輸入,針對已標註的該當前偵測數據進行修改並更新該判斷模型。
TW108144180A 2019-04-19 2019-12-03 行動裝置及其控制方法 TWI733263B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/388,884 2019-04-19
US16/388,884 US11106282B2 (en) 2019-04-19 2019-04-19 Mobile device and control method thereof

Publications (2)

Publication Number Publication Date
TW202040350A TW202040350A (zh) 2020-11-01
TWI733263B true TWI733263B (zh) 2021-07-11

Family

ID=68762463

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108144180A TWI733263B (zh) 2019-04-19 2019-12-03 行動裝置及其控制方法

Country Status (4)

Country Link
US (1) US11106282B2 (zh)
EP (1) EP3726363B1 (zh)
CN (1) CN111831108B (zh)
TW (1) TWI733263B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3788775B1 (en) * 2018-05-02 2021-09-22 Telefonaktiebolaget LM Ericsson (publ) User equipment, method by a user equipment, and network node

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184519A1 (en) * 2012-12-28 2014-07-03 Hayat Benchenaa Adapting user interface based on handedness of use of mobile computing device
TW201711010A (zh) * 2015-09-03 2017-03-16 國立臺北科技大學 運用肌電與慣性感測裝置識別手勢之手語翻譯系統
TW201732519A (zh) * 2016-01-21 2017-09-16 微晶片科技公司 接近啟動手勢
US20180081524A1 (en) * 2014-11-28 2018-03-22 Huawei Technologies Co., Ltd. Screen Interface Moving Method and Terminal

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103365548B (zh) * 2012-04-06 2016-01-06 腾讯科技(深圳)有限公司 触屏移动终端菜单按钮的显示方法和装置
JP5759660B2 (ja) * 2013-06-21 2015-08-05 レノボ・シンガポール・プライベート・リミテッド タッチ・スクリーンを備える携帯式情報端末および入力方法
TWI679575B (zh) * 2013-10-11 2019-12-11 日商半導體能源研究所股份有限公司 驅動可攜式資料處理裝置的方法
KR20150131607A (ko) * 2014-05-15 2015-11-25 한국전자통신연구원 사용자 인터페이스 제어 장치 및 그것의 사용자 인터페이스 제어 방법
KR102117130B1 (ko) * 2014-10-13 2020-06-01 매그나칩 반도체 유한회사 영상 표시장치의 이상화면 방지장치 및 방법
US9588643B2 (en) * 2014-12-18 2017-03-07 Apple Inc. Electronic devices with hand detection circuitry
CN104735256B (zh) 2015-03-27 2016-05-18 努比亚技术有限公司 移动终端的握持方式判断方法及装置
CN104731339B (zh) 2015-03-31 2017-12-22 努比亚技术有限公司 移动终端的握持方式识别方法及装置
CN107704179B (zh) * 2016-08-08 2020-09-22 宏达国际电子股份有限公司 决定画面显示方向的方法及使用其的电子装置
CN107797751A (zh) * 2017-10-26 2018-03-13 努比亚技术有限公司 移动终端握持手势识别方法、移动终端及可读存储介质
CN109561210A (zh) * 2018-11-26 2019-04-02 努比亚技术有限公司 一种交互调控方法、设备及计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184519A1 (en) * 2012-12-28 2014-07-03 Hayat Benchenaa Adapting user interface based on handedness of use of mobile computing device
US20180081524A1 (en) * 2014-11-28 2018-03-22 Huawei Technologies Co., Ltd. Screen Interface Moving Method and Terminal
TW201711010A (zh) * 2015-09-03 2017-03-16 國立臺北科技大學 運用肌電與慣性感測裝置識別手勢之手語翻譯系統
TW201732519A (zh) * 2016-01-21 2017-09-16 微晶片科技公司 接近啟動手勢

Also Published As

Publication number Publication date
US20200333886A1 (en) 2020-10-22
CN111831108B (zh) 2024-03-22
TW202040350A (zh) 2020-11-01
CN111831108A (zh) 2020-10-27
US11106282B2 (en) 2021-08-31
EP3726363A1 (en) 2020-10-21
EP3726363B1 (en) 2021-11-03

Similar Documents

Publication Publication Date Title
US10216406B2 (en) Classification of touch input as being unintended or intended
US11093040B2 (en) Flexible device and method operating the same
US10001838B2 (en) Feature tracking for device input
US10572072B2 (en) Depth-based touch detection
EP2805220B1 (en) Skinnable touch device grip patterns
US8059111B2 (en) Data transfer using hand-held device
US10289239B2 (en) Application programming interface for multi-touch input detection
US9207852B1 (en) Input mechanisms for electronic devices
US9823753B2 (en) System and method for using a side camera for free space gesture inputs
JP2015510648A (ja) 多次元入力のためのナビゲーション手法
CN107395871B (zh) 一种开启应用的方法、装置、存储介质及终端
US10345912B2 (en) Control method, control device, display device and electronic device
US10114481B2 (en) Flexible display sensing
US10514844B2 (en) Automatically modifying an input area based on a proximity to one or more edges
KR102198596B1 (ko) 간접 입력의 명확화 기법
US20150002431A1 (en) Method and apparatus for operating lock screen of electronic device
TWI733263B (zh) 行動裝置及其控制方法
CN111598149A (zh) 一种基于注意力机制的回环检测方法
NL2031789B1 (en) Aggregated likelihood of unintentional touch input
Mishra et al. Virtual Mouse Input Control using Hand Gestures
CN115187986A (zh) 文本识别方法、装置、电子设备及存储介质
BR112017003249B1 (pt) Classificação de entrada tátil como desintencional ou intencional