TW201528055A - 基於影像來識別觸控表面的目標接觸區域之技術 - Google Patents
基於影像來識別觸控表面的目標接觸區域之技術 Download PDFInfo
- Publication number
- TW201528055A TW201528055A TW103132276A TW103132276A TW201528055A TW 201528055 A TW201528055 A TW 201528055A TW 103132276 A TW103132276 A TW 103132276A TW 103132276 A TW103132276 A TW 103132276A TW 201528055 A TW201528055 A TW 201528055A
- Authority
- TW
- Taiwan
- Prior art keywords
- contact
- input
- touch
- image
- target
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 26
- 230000004044 response Effects 0.000 claims description 24
- 241001422033 Thestylus Species 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 16
- 230000007704 transition Effects 0.000 claims description 3
- 210000003811 finger Anatomy 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000004020 conductor Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000696 magnetic material Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/144—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
此處揭示之實施例係有關於根據一影像識別一觸控表面之一目標接觸區域。實施例包括在一觸控表面之一位置檢測之一接觸輸入,一影像表示配置於拍攝該影像之一相機與該觸控表面間之一物體,根據一影像識別一觸控表面之一目標接觸區域,及當該檢測之接觸輸入位置係不在該觸控表面之至少一個經識別之目標接觸區域中之任一者內部時剔除該經檢測之接觸輸入。
Description
本發明係有關於基於影像來識別觸控表面的目標接觸區域之技術。
許多計算系統包括至少一個顯示器及至少一個輸入裝置。該顯示器可包括例如一監視器、一螢幕等。輸入裝置之實施例包括一滑鼠、一鍵盤、一觸控墊等。若干計算系統包括一觸控顯示器以顯示該計算系統之輸出及接收實體(例如接觸)輸入兩者。
依據本發明之一實施例,係特地提出一種計算系統包含:一觸控表面以檢測在該觸控表面之一位置之一接觸輸入;指向該觸控表面之一給定相機以拍攝一影像表示設置於該給定相機與該觸控表面間之一物體;及一剔除引擎以基於表示於該影像之該物體的至少一特性而識別該觸控表面之至少一個目標接觸區域,各自用以接收接觸輸入;其中該剔除引擎係進一步決定該經檢測之接觸輸入之
位置係不在該觸控表面之該至少一個經識別之目標接觸區域中之任一者內部,及應答於該決定而剔除該經檢測之接觸輸入。
15‧‧‧支持表面
25‧‧‧觸控筆
26‧‧‧梢端
35‧‧‧手
40‧‧‧物體
100‧‧‧計算系統
110‧‧‧支持結構
120‧‧‧底部
120A‧‧‧前端
122‧‧‧凸部
140‧‧‧直立構件
140A、182A、184A‧‧‧第一或上端
140B、182B、184B‧‧‧第二或下端
140C、200A‧‧‧第一或前側
140D、200B‧‧‧第二或後側
150、350‧‧‧計算裝置
150A‧‧‧第一或頂側
150B‧‧‧第二或底側
150C‧‧‧前側
152‧‧‧顯示器
155、205‧‧‧中軸或中線
160‧‧‧頂部
160A‧‧‧第一或近端
160B‧‧‧第二或遠端
160C‧‧‧頂面
160D‧‧‧底面
162‧‧‧摺疊鏡
162A‧‧‧高度反射表面
164‧‧‧感測器束
164A‧‧‧RGB相機、彩色相機
164B‧‧‧IR相機
164C‧‧‧深度相機、深度感測器
164D‧‧‧周圍光感測器
165‧‧‧視野
166‧‧‧IR光投影器
167‧‧‧IR光
168‧‧‧空間
170‧‧‧剔除引擎
172‧‧‧區隔引擎
174‧‧‧識別引擎
180‧‧‧投影器單元
182‧‧‧外殼、殼體
183‧‧‧內腔
184‧‧‧投影器總成
186‧‧‧安裝構件
187‧‧‧可見光
188‧‧‧投影器顯示空間
188L‧‧‧長度
188W‧‧‧寬度
192、194‧‧‧位置
200‧‧‧觸控表面
202‧‧‧觸控區域
310‧‧‧處理資源
320‧‧‧機器可讀取儲存媒體
321-326‧‧‧指令
340‧‧‧應用程式
344‧‧‧接觸輸入處理功能
380‧‧‧接觸剔除資訊
382‧‧‧接觸輸入、檢測之接觸輸入
700、702、704‧‧‧影像
702、710、716‧‧‧物體表示型態
714、715、718‧‧‧背景表示型態
720、730‧‧‧目標接觸區域
725、745‧‧‧非目標接觸區域
900、1000‧‧‧方法
905-925、1005-1035‧‧‧處理方塊、方法步驟
後文詳細說明部分參考附圖,附圖中:圖1為包含一剔除引擎之一計算系統實施例之示意透視圖;圖2為圖1之該計算系統實施例之另一示意透視圖;圖3為圖1之該計算系統實施例之一示意側視圖;圖4為圖1之該計算系統實施例之一示意前視圖;圖5為圖1之該計算系統實施例於一範例操作期間之一示意側視圖;圖6為圖1之該計算系統實施例於另一範例操作期間之一示意前視圖;圖7A為圖1之該計算系統實施例於影像拍攝實施例期間之一示意側視圖;圖7B為包含該剔除引擎之圖1之該計算系統之一部分實施例之一方塊圖;圖7C為配置於一計算系統之一觸控表面上方之一物體之一影像實施例;圖7D為包含該剔除引擎之圖1之該計算系統之一部分之另一實施例之一方塊圖;圖7E為配置於一計算系統之一觸控表面上方之
一物體之另一影像實施例;圖7F為配置於一計算系統之一觸控表面上方之一物體之另一影像實施例;圖8為用以決定一目標接觸區域之一計算裝置實施例之一方塊圖;圖9為用以剔除接觸輸入之一方法實施例之一流程圖;及圖10為用以識別一目標接觸區域之一方法實施例之一流程圖。
於利用一觸控輸入裝置以檢測與該裝置的實體接觸作為接觸輸入之一計算系統中,可能難以區別意圖作為接觸輸入之與該裝置的實體接觸及與該觸控輸入裝置非預期的或意外的實體接觸。舉例言之,當利用能夠檢測藉一手所做接觸之一觸控表面時,可能難以區別意圖作為輸入之由該等指尖所做的實體接觸及由停放在該表面上之手掌所做的且非意圖作為輸入的實體接觸。
為了解決此等問題,此處描述之實施例可根據由指向該表面之一相機所拍攝的該表面之一影像,決定一計算系統之一觸控表面之至少一個目標接觸區域,及剔除不在該(等)經識別之目標接觸區域中之任一者的一位置之接觸輸入。此處描述之實施例可包括一觸控表面以檢測在該觸控表面之一位置之一接觸輸入,指向該觸控表面的一相
機以拍攝表示位在該給定相機與該觸控表面間之一物體之一影像,及一剔除引擎以根據表示於該影像中之該物體之特性,識別用以接收接觸輸入之該觸控表面之至少一個目標接觸區域。於此處描述之實施例中,該剔除引擎係應答於一決定該經檢測之接觸輸入之位置係不在該觸控表面之任何經識別之目標接觸區域內而剔除該經檢測之接觸輸入。
藉此方式,此處描述之實施例可使用位在一觸控
表面上方之一物體之一影像,基於表示於該影像中之該物體之該等特性(例如所在、位置、方向性、形狀等)而決定藉該表面檢測的一特定接觸輸入是否可能為一蓄意接觸,及若其可能為一非蓄意接觸則剔除該接觸輸入。舉例言之,此處描述之實施例可決定在該觸控表面上方之一手的指尖鄰近的表面位置係為目標接觸區域(亦即用以接收蓄意接觸輸入),同時該等目標接觸區域排除在該手之一手掌下方位置。於此等實施例中,當該手掌接觸該表面(例如非蓄意)時接收之接觸輸入可被剔除,原因在於該接觸輸入位置係不在該等目標接觸區域中之任一者內部。
現在參考附圖,圖1-7A為包含一剔除引擎170之
一計算系統100之實施例之示意圖。於圖1-7A之實施例中,系統100通常包含一支持結構110、一計算裝置150、一投影器單元180、及一觸控表面200。計算裝置150可包括剔除引擎170以如前文說明,應答於決定該檢測之接觸輸入位置係不在根據一影像所決定的表面200之任何目標接觸區域以
內而剔除由表面200所檢測之一接觸輸入。
計算裝置150可包含遵照此處揭示原理之任何合
宜計算裝置。如此處使用,一「計算裝置」可包含電子顯示裝置、智慧型電話、平板、晶片組、一體機電腦(例如一裝置包含一顯示裝置其也罩住該電腦之處理資源)、桌上型電腦、筆記型電腦、工作站、伺服器、任何其它處理裝置或設備、或其組合。於本實施例中,裝置150為一體機電腦具有中軸或中線155、第一或頂側150A、與該頂側150A軸向相對的第二或底側150B、軸向延伸於兩側150A及150B間之一前側150C、也軸向延伸於兩側150A及150B間且與前側150C概略地徑向相對之一後側150D。一顯示器152係沿前側150C設置及界定計算系統100之一觀看表面以顯示影像以供由系統100之一使用者觀看。於此處描述之實施例中,一顯示器可包括適用以顯示影像、視訊等之任何技術的組件。
於若干實施例中,顯示器152可為觸控顯示器。
於此處描述之實施例中,一觸控顯示器可包括例如適用以顯示影像、視訊等之任何技術(例如組件),且可包括例如適用以檢測實體接觸(例如接觸輸入)之任何技術(例如組件),諸如電阻、電容、表面聲波、紅外線(IR)、應變計、光學成像、聲波脈衝辨識、擴散信號感測、或電池內系統等。於此處描述之實施例中,顯示器152可稱作為觸控顯示器152。裝置150可進一步包括一相機154,其例如可為網路攝影機。於若干實施例中,相機154可拍攝位在顯示器152
前方之一使用者的影像。於若干實施例中,裝置150也可包括麥克風或其它裝置以接收聲音輸入(例如來自一使用者之語音輸入)。
於圖1-7A之實施例中,支持結構110包括一底部
120、一直立構件140、及一頂部160。底部120包括第一或前端120A、及第二或後端120B。底部120可接合一支持表面15以支承系統100之至少部分組件(例如構件140、單元180、裝置150、頂部160等)的重量。於若干實施例中,當系統100組配用於操作時底部120可以此種方式接合一支持表面15。於圖1-7A之實施例中,底部120之前端120A包括一凸部122,例如圖2中例示,當底部120係設置於支持表面15上時,該凸部122可設置於支持表面15上方且與其分開(在凸部122與表面15間形成一空間或一餘隙)。於此等實施例中,觸控表面200之一側之一部分可設置於(或容納於)凸部122與表面15間所形成的空間。於此等實施例中,將表面200之一部分置於凸部122與表面15間所形成的空間內部可協助表面200的妥適對齊。於其它實施例中,其它合宜方法或裝置可用以協助表面200的對齊。
直立構件140包括第一或上端140A、與該上端
140A相對的第二或下端140B、延伸於該等末端140A與140B間之第一或前側140C、及與前側140C相對的也延伸於該等末端140A與140B間之第二或後側140D。構件140之下端140B係耦聯至底部120之後端120B,使得構件140實質上從支持表面15向上延伸。
頂部160包括第一或近端160A、與該近端160A相
對之一第二或遠端160B、延伸於該等末端160A與160B間之頂面160C、及與頂面160C相對的也延伸於該等末端160A與160B間之底面160D。頂部160之近端160A係耦聯至直立構件140之上端140A使得遠端160B從直立構件140之上端140A向外延伸。如此,於圖2顯示之實施例中,頂部160係支承在末端160A(而非支承在末端160B),且於此處可稱作懸臂式頂部。於若干實施例中,底部120、構件140、及頂部160可一體成形。於其它實施例中,底部120、構件140、及頂部160中之二或多者可由分開塊件形成(亦即非一體成形)。
觸控表面200可包括一中軸或中線205、一第一或
前側200A、及與該前側200A軸向相對之一第二或後側200B。觸控表面200可包含用於檢測與表面200之實體接觸為接觸輸入的任何合宜技術。舉例言之,觸控表面200可包含用以檢測(及於若干實施例中追蹤)由一使用者之一或多個接觸輸入以使用由裝置150或其它計算裝置執行的軟體,透過此種接觸輸入,許可該使用者互動的任何合宜技術。於此處描述之實施例中,觸控表面200可為任何合宜的觸控平面(或實質上平面)物體,諸如觸控表面墊、桌面、板狀物等。於若干實施例中,觸控表面200可水平(或約略水平或實質上水平)配置。舉例言之,表面200可設置於支持表面15上而其可為水平(或約略水平或實質上水平)。
於若干實施例中,全部或實質上全部表面200可
檢測前述接觸輸入。於其它實施例中,少於全部表面200可能檢測前述接觸輸入。舉例言之,表面200可包含一觸控區域202其延伸於少於全部表面200上,其中區域202能夠檢測前述接觸輸入。於其它實施例中,區域202可延伸於實質上全部表面200上(例如與表面200實質上具有共同邊界)。區域202可實質上對齊軸205。
如前文描述,表面200可對齊結構110之底部120
以協助表面200之妥當對齊(例如至少於系統100之操作期間)。於圖1-7A之實施例中,表面200之後側200B可設置於底部120之凸部122與支持表面15間,使得後端200B對齊底部120之前端120A以協助表面200與系統100之其它組件的妥當對齊(及特別區域202之妥當對齊)。於若干實施例中,表面200可對齊裝置150使得裝置150之中線155實質上對齊表面200之中線205。於其它實施例中,表面200可與裝置150差異對齊。
於若干實施例中,表面200與裝置150可彼此通訊
式連結(例如電氣耦接)使得由表面200接收的使用者輸入可通訊給裝置150。表面200與裝置150可透過任何合宜有線或無線通訊技術或機制而彼此通訊,例如WI-FI、藍牙、超音波技術、電纜、電線、電導體、具有磁性固定力的電氣載荷彈簧伸縮接腳等、或其組合。於圖1-7A之實施例中,設置於表面200之後側200B上的暴露電氣接點可接合底部120之凸部122內部的相對應電氣彈簧接腳以於系統100操作期間在裝置150與表面200間通訊資訊(例如移轉信號)。於此等
實施例中,該等電氣接點可藉相鄰磁鐵(位在底部120之凸部122與表面15間之餘隙內)維持在一起以磁力吸引及固定(例如機械式)沿表面200之後側200B設置的相對應含鐵及/或磁性材料。
參考圖3,投影器單元180包含一外部殼體182,
及設置於殼體182內部之一投影器總成184。殼體182包括一第一或上端182A、與該上端182A相對之一第二或下端182B、及一內腔183。於圖3之實施例中,殼體182進一步包括一耦聯或安裝構件186以接合及支承裝置150(例如至少於系統100之操作期間)。構件186可為用以懸吊或支承如此處描述之任何合宜計算裝置150的任何合宜機制或裝置。舉例言之,安裝構件186可包含一鉸鏈其包括一轉軸使得裝置150可環繞該轉軸旋轉(例如由一使用者)以達成觀看顯示器152之一期望角度。於若干實施例中,裝置150可持久地或半持久地附接至單元180之殼體182。於若干實施例中,殼體180及裝置150可一體成形地或單塊地形成為單一單元。
參考圖4,於若干實施例中,當裝置150係透過殼
體182上的安裝構件186而從結構110懸吊時,從前方觀看系統100(亦即實質上面對設置裝置150的前側150C上的顯示器152),投影器單元180(亦即殼體182及總成184兩者)可實質上隱藏在裝置150後方。此外,如圖4顯示,當如前文描述裝置150係從結構110懸吊時,投影器單元180(亦即殼體182及總成184兩者)及任何藉投影的影像可實質上對齊或相對於裝置150之中線155對中。
再度參考圖3,投影器總成184係設置於殼體182
的內腔183內部,及包括一第一或上端184A、與該上端184A相對之一第二或下端184B。上端184A係鄰近殼體182的上端182A,而下端184B係鄰近殼體182的下端182B。投影器總成184可包含任何合宜數位光投影器總成用以接收來自計算裝置(例如裝置150)之光,及投射與該輸入資料相對應之影像(例如射出上端184A)。舉例言之,於若干具現中,投影器總成184包含一數位光處理(DLP)投影器或矽上液晶(LCoS)投影器,其為優異的輕薄短小及高能效投影器引擎,具有多重顯示器解析度及尺寸能力,諸如標準XGA解析度(1024x768)4:3縱橫比,或標準WXGA解析度(1280x800)16:10縱橫比。投影器總成184進一步通訊連接(例如電氣耦接)至裝置150以便從其中接收資料用以於操作期間從上端184A產生(例如投影)光及影像。投影器總成184可透過任何合宜型別之電氣耦合例如或此處描述的任何其它合宜通訊技術或機制而通訊連接至裝置150。於若干實施例中,總成184可透過電氣導體、WI-FI、藍牙、光學連結、超音波連結、或其若干組合而電氣耦接至裝置150。於圖1-7A之實施例中,裝置150係透過設置於安裝構件186內部之電氣引線或導體(例如前文關聯表面200及底部120描述)通訊連接至總成184,使得當裝置150透過構件186而從結構110懸吊時,設置於構件186內部之電氣引線接觸設置於裝置150上的相對應引線或導體。
仍然參考圖3,頂部160進一步包括一摺疊鏡162
及一感測器束164。鏡162包括一高度反射性表面162A,其係沿頂部160之底面160D設置,且係定位以於操作期間,反射從投影器總成184之上端184A投射的光、影像等朝向表面200。鏡162可包含任何合宜型別之反射鏡或反射面。於圖1-7A之實施例中,摺疊鏡162包含一標準前表面經真空金屬化鍍鋁之玻璃鏡,其係作用以將從總成184發射之光摺疊朝向表面200。於其它實施例中,鏡162可具有複合非球面曲率以用作為反射透鏡元件而提供額外聚焦倍率或光學矯正。
感測器束164包括至少一個感測器(例如相機、或
其它型別之感測器)以根據感測器束164與表面200間之一區域狀態(例如出現在其中之活動)而檢測、度量、或以其它方式獲得資料。感測器束164與表面200間之一區域狀態可包括表面200上或上方的物體,或出現在觸控表面200上或附近的活動。於圖3之實施例中,束164包括一RGB相機164A(或另一型彩色相機164A)、一IR相機164B、一深度相機(或深度感測器)164C、及一周圍光感測器164D。於此處描述之實施例中,一相機可稱作為一「感測器」。
於若干實施例中,RGB相機164A可為拍攝彩色
影像(例如靜像及視訊中之至少一者)的一相機。於若干實施例中,RGB相機164A可為根據RGB彩色模型拍攝影像之一相機,其於此處可稱作「RGB影像」。於若干實施例中,RGB相機164A可以相當高解析度拍攝影像,諸如數百萬像素(MP)等級之解析度。舉例言之,RGB相機164A可以14 MP
解析度拍攝影像。於其它實施例中,RGB相機164A可以不同解析度拍攝影像。於若干實施例中,RGB相機164A可朝向表面200且可拍攝表面200、設置於表面200與RGB相機164A間(例如表面200上或上方)之物體、或其組合之影像。
IR相機164B可為檢測相機164B之視野中多點的
IR光強度之一相機。於此處描述之實施例中,IR相機164B可結合系統100之一IR光投影器166(參考圖7A)操作以拍攝IR影像。於此等實施例中,各個IR影像可包含多個像素,各自表示由該像素表示之一點檢測之IR光。於若干實施例中,系統100之頂部160可包括一IR光投影器166(參考圖7A)以投射IR光167朝向表面200,及IR相機164B可指向表面200。於此等實施例中,IR相機164B可檢測由表面200、設置於表面200與IR相機164B間(例如表面200上或上方)之物體、或其組合反射的IR光強度。於若干實施例中,IR相機164B可互斥地檢測由IR光投影器166投射(例如從表面200、物體等反射,或直接接收)之IR光167。
深度相機164C可為檢測於深度相機164C之視野中之物體部分之個別距離(或深度)。如此處使用,由深度相機偵測得之資料可於此處稱作「距離」或「深度」資料。於此處描述之實施例中,深度相機164C可拍攝多像素深度影像(例如深度對映圖),其中各像素資料表示在由該像素表示之一點,一物體之一部分的距離或深度(從相機164C量起)。深度相機164C可使用任何合宜技術具現,諸如立體視覺相機、具有均勻IR光之單IR相機感測器、具有均勻IR光
之雙IR相機感測器、結構化光深度感測器技術、飛行時間(TOF)深度感測器技術、或其組合。於若干實施例中,深度感測器164C可指示何時一物體(例如三維物體)係在表面200上。於若干實施例中,深度感測器164C可檢測置於表面200上之一物體(或其部分)的存在、形狀、輪廓、移動、及個別距離中之至少一者。
周圍光感測器164D可配置以度量於系統100周
圍環境內之光強度。於若干實施例中,系統100可運用感測器164D之度量以調整系統100之其它組成,諸如系統100之感測器或相機(例如相機164A-164C)之曝光設定值、自系統100之光源(例如投影器總成184、顯示器152等)發射的光強度等。
於若干實施例中,感測器束164可刪除感測器
164A-D中之至少一者。於其它實施例中,除了感測器164A-D之外,或替代感測器164A-D中之至少一者,感測器束164可包含其它相機、感測器等。舉例言之,感測器束164可包括一使用者介面感測器包含追蹤一使用者輸入裝置諸如手、觸控筆、指標裝置等之任何合宜裝置(例如感測器、相機)。於若干實施例中,該使用者介面感測器可包括一對相機,當由一使用者繞表面200(例如繞表面200之區域202)移動一使用者輸入裝置(例如一觸控筆)時,該對相機可立體式追蹤該使用者輸入裝置之位置。於其它實施例中,該使用者介面感測器可額外或另外包括IR相機或感測器配置以檢測由一使用者輸入裝置發射的或反射的紅外光。於若干
實施例中,感測器束164可包括一手勢相機以檢測由個體(例如手等)執行的預定手勢。於若干實施例中,該手勢相機可包含一深度相機及額外功能以檢測、追蹤等隨著時間之不同移動型別。
於此處描述之實施例中,束164之感測器
164A-164D各自係通訊式連結(例如耦接)至裝置150使得在束164內部產生的資料(例如由相機拍攝的影像)可提供給裝置150,及裝置150可提供指令給感測器束164之感測器及相機。束164之感測器164A-164D可透過任何合宜有線或無線通訊技術或機制通訊式連結至裝置150,其實施例係說明如前。於圖1-7A之實施例中,電氣導體可通過設置於安裝構件186內部(如前文描述)之引線從束164,路由通過頂部160、直立構件140、及投影器單元180進入裝置150內。
參考圖5及6,於系統100操作期間,投影器總成
184可投射可見光187以從鏡162反射朝向表面200,以藉此顯示可見影像至表面200之一投影器顯示空間188上。於圖5-6之實施例中,空間188可為實質矩形,具有一長度188L及一寬度188W。於若干實施例中,長度188L可約為16吋,而寬度188W可約為12吋。於其它實施例中,長度188L及寬度188W可具不同值。
於若干實施例中,感測器束164之相機(例如相機
164A-164C)係排列於系統100內部使得各個相機之視野包括表面200之一空間168,其可重疊部分或全部顯示空間188,或可與顯示空間188有共同邊界。於此處描述之實施
例中,感測器束164之該等相機(例如相機164A-164C)之視野可稱作包括空間168,但偶爾表面200可被表面200上或上方的物體至少部分堵塞。於此等實施例中,表面200上或上方的物體可於相機164A-164C中之至少一者的視野內。於此等實施例中,感測器束164之感測器可根據感測器束164與表面200之該空間168間之一區域的狀態(例如發生的活動、設置的物體)而獲得資料。於若干實施例中,空間188及空間168兩者重合或相對應於表面200之區域202使得觸控區域202、投影器總成184、及感測器束164之功能全部皆係關聯相同界定區執行。感測器束164之該等相機(例如相機164A-164C)之一視野165係示意例示於圖7A。於若干實施例中,感測器束164之該等相機(例如相機164A-164C)各自可具有略為相異的視野。
現在參考圖5-7A,裝置150可導向投影器總成184
以投射影像至表面200上(例如至區域202上)。裝置150也可顯示影像在顯示器152上(其可與由投影器總成184投射至區域202上之影像相同或相異)。由投影器總成184投射的影像可包含由裝置150執行的軟體所產生的資訊及/或影像。
於若干實施例中,一使用者可與投射在表面200上的及顯示在顯示器152上的影像互動,互動方式諸如藉由以任何合宜方式實體接觸觸控表面200,諸如使用者的手35(例如透過接觸、輕敲、手勢、或其它接觸輸入)、觸控筆25、或透過其它合宜使用者輸入裝置互動。如前文描述,觸控表面200可透過實體接觸表面200而檢測此種互動。又,於若干實施
例中,總成184也可投影影像(至少部分地)至設在表面200上的物體(例如手35,如圖5顯示)。
舉例言之,當一使用者透過實體接觸(例如手
35,如圖7A顯示)而與觸控表面200互動時,表面200可產生接觸輸入資訊且經由任何合宜連結(其實施例係如前文描述)提供給裝置150。於若干實施例中,該接觸輸入資訊可提供給剔除引擎170(或由剔除引擎170所具現之一應用程式或服務),其可剔除該接觸輸入(如此處描述)或傳輸該接觸輸入給在裝置150上執行的一作業系統(OS)。於若干實施例中,該作業系統可發送所接收的接觸輸入給在裝置150上執行的另一應用程式(例如程式等)。應答之,該執行作業系統或應用程式可變更由投影器總成184所投影的影像、顯示在顯示器152上之影像、或其組合。如此處使用,「應用程式」、「電腦應用程式」、或「服務」係為可藉一處理資源執行的機器可讀取指令之一集合。於若干實施例中,一使用者可類似地與顯示在顯示器152(其可為觸控顯示器)之影像或裝置150之任何其它輸入裝置(例如鍵盤、滑鼠等)互動。
於若干實施例中,感測器束164之感測器(例如相
機)也可產生系統輸入,其可提供給裝置150用於進一步處理。舉例言之,系統100可利用束164之相機以檢測一使用者的手35(或觸控筆25,如圖5顯示)之存在及位置中之至少一者,及提供表示檢測資訊之系統輸入資訊給裝置150。所提供的系統輸入資訊可發送給由裝置150執行的一作業系統及應用程式中之至少一者,且可改變由系統100顯示的影
像,如前文關聯接觸輸入之說明。舉例言之,束164可包括一對相機或感測器其係配置以執行立體觸控筆追蹤(例如觸控筆25)。於其它實施例中,觸控筆25包括經以紅外線逆反射塗層(例如塗料)塗覆之一梢端26,使得梢端26可用作為一紅外線逆反射器。於此等實施例中,束164可包括如前文述IR相機(或感測器),其檢測梢端26反射出的IR光以許可當梢端26移動橫過區域202時裝置150偵測該梢端26之位置。
於若干實施例中,表面200(藉總成184投影影像於其上)可用作為系統100內部之一第二或替代觸控顯示器。此外,與表面200上顯示的影像之互動之檢測可透過如前述使用感測器束164之感測器增進。
於若干實施例中,系統100可拍攝二維(2D)影像
或產生一實體物體之三維(3D)掃描使得物體之影像可投射至表面200上以供進一步使用及操作。舉例言之,如圖6顯示,一物體40可置於表面200上,使得束164之感測器(例如相機164A-164C中之至少一者)可檢測物體40之位置、維度、及色彩中之至少一者以加強2D影像或產生其3D掃描。
於此等實施例中,由束164之感測器收集的資訊可如前文描述,提供給裝置150(例如裝置150之OS、應用程式、服務等)。於若干實施例中,於接收資訊之後,裝置150(例如OS、應用程式、服務等)可指導投影器總成184投射物體40之一影像至表面200上。物體40例如可為智慧型電話、書籍、文件、相片、或任何其它實體物體。於若干實施例中,一旦物體藉束164之感測器掃描,表示該物體之該影像背景可被
移除(例如透過區隔方法,容後詳述),及所得前景物體之影像可投射至表面200上(或顯示在顯示器152上)。於此等實施例中,實體物體(例如物體40)之影像可被拍攝、處理、及顯示在表面200上以快速地容易地產生實體物體之一版本以許可其進一步操作。
圖7B為包含剔除引擎170之圖1之計算系統100
之一部分的方塊圖。圖7B例示計算裝置150之一實施例,其包含剔除引擎170且係通訊式連結至如前文描述感測器束164(如前文描述)之至少一個相機(例如相機164A)及觸控表面200,如前文描述。雖然未顯示於圖7B,但計算裝置150也可通訊式連結至系統100之其它組件,如前文描述。
計算裝置150(或具現剔除引擎170之任何其它計
算裝置)可包括至少一個處理資源。於此處描述之實施例中,一個處理資源可包括例如含括於單一計算裝置內或分散橫跨多個計算裝置之一個處理器或多個處理器。如此處使用,「處理器」可為下列中之至少一者:中央處理單元(CPU)、以半導體為基礎之微處理器、圖形處理單元(GPU)、微控制器、或適用以提取及執行儲存在一機器可讀取儲存媒體上的指令之其它電子電路、或其組合。
如前記,於圖7B之實施例中,計算裝置150包含
剔除引擎170。於其它實施例中,剔除引擎170可包含額外引擎。例如於圖7D之實施例中,剔除引擎170包含一區隔引擎172及一識別引擎174。於若干實施例中,引擎170可包括額外引擎。於此處描述之實施例中,計算裝置150之任何引
擎(例如引擎170、172、174)可為硬體之任一項組合且規劃以具現個別引擎之功能。此種硬體與程式規劃的組合可以多種不同方式具現。舉例言之,規劃可為儲存於一非過渡機器可讀取儲存媒體上的處理器可執行指令,及硬體可包括一處理資源以執行該等指令。於此等實施例中,該機器可讀取儲存媒體可儲存指令,該等指令當由該處理資源執行時具現該等引擎。儲存該等指令之該機器可讀取儲存媒體可整合於相同計算裝置(例如裝置150)內作為處理資源以執行指令,或該機器可讀取儲存媒體可與計算裝置及處理資源分開。該處理資源可包含含括於單一計算裝置內或分散橫跨多個計算裝置之一個處理器或多個處理器。
於若干實施例中,該等指令可為一安裝封裝體之一部分,其當安裝時可由該處理資源執行以具現系統100之該等引擎。於此等實施例中,該機器可讀取儲存媒體可為可攜式媒體,諸如光碟、DVD、或快閃驅動器、或由一伺服器維持的一記憶體,由此可下載及安裝該安裝封裝體。於其它實施例中,該等指令可為已經安裝於包括該處理資源的一計算裝置(例如裝置150)上的一應用程式或多應用程式之一部分。於此種情況下,該機器可讀取儲存媒體可包括記憶體,諸如硬碟機、固態碟機等。
如此處使用,「機器可讀取儲存媒體」可為任何電子、磁學、光學、或其它實體儲存裝置以含有或儲存資訊諸如可執行指令、資料等。舉例言之,此處描述的任何機器可讀取儲存媒體可為儲存驅動器(例如硬碟機)、快閃記
憶體、隨機存取記憶體(RAM)、任一型儲存碟(例如光碟、DVD等)及其類或其組合中之任一者。又,此處描述的任何機器可讀取儲存媒體可為非過渡。
剔除引擎170之實施例係於後文關聯圖7A-7F描
述。參考圖7A-7C,計算系統100包含觸控表面200以檢測在觸控表面200之多個位置的接觸輸入,如前文描述。如此處使用,「接觸輸入」可為可由一觸控表面偵測的該觸控表面與一物體(例如手指、觸控筆等)間之至少一個實體接觸(或其它實體互動)。於圖7A-7C之實施例中,該接觸輸入可由一手35與表面200間之實體接觸提供。於其它實施例中,該接觸輸入可由任何其它合宜物體35之接觸提供。
如前文描述,計算系統100可包含感測器束164
包括至少一個相機164A指向一觸控表面200。於圖7B之實施例中,計算系統100包括相機164A(例如RGB相機164A)指向一觸控表面200(如圖7A顯示)。相機164A可拍攝一影像700表示設置於相機164A與觸控表面200間之物體35(例如一手)。影像700之一實施例係例示於圖7C,其中影像700包括一物體表示型態710其可為表示物體35之影像700之一部分,及一背景表示型態715其可為表示表面200之影像700之一部分。雖然圖7C例示當手35為開啟時的影像700之一實施例,但於其它實施例中,相機164A可拍攝維持於任何其它方式(例如伸一根手指,如圖7A顯示)之手35之一影像。
於圖7A-7C之實施例中,剔除引擎170可識別觸
控表面之至少一個目標接觸區域,其中各個經識別的目標
接觸區域係用以接收接觸輸入。如此處使用,一計算系統之一觸控表面之一「目標接觸區域」可為包括少於全部表面的一區,及計算系統可從此處接受由該表面檢測得的接觸輸入。於此處描述之實施例中,剔除引擎170可根據在由指向表面200之至少一部相機諸如相機164A拍攝的至少一個影像中呈現的該物體之至少一個特性(例如所在、位置、方向性、形狀等)而識別目標接觸區域。舉例言之,引擎170可識別觸控表面200之一區域,該區域根據設置表面200上之一物體的一影像係與預期接觸輸入相聯結的該物體之一部分緊密鄰近。例如當該物體為手時,手的指尖可被視為與預期接觸輸入相聯結的該物體之一部分。於若干實施例中,緊密鄰近與預期接觸輸入相聯結的該物體之一部分的一區域可經定義以包括位在該物體本身之部分的檢測位置之一臨界距離內部。舉例言之,當該目標接觸區域係基於一指尖時,該目標接觸區域可被識別為具有5毫米半徑對中於指尖等上的一圓圈。於其它實施例中,該區域可具有不同的大小、形狀等。
舉個實施例,參考圖7C之影像700,呈現在影像
中的物體35可為一手35(以物體表示型態710表示)。於此等實施例中,引擎170可識別與手35之一食指緊密鄰近的表面200之一區域為一目標接觸區域720,其可與預期接觸輸入相聯結。於此等實施例中,由引擎170識別的該目標接觸區域可排除表面200之其它區域,該等區域係與預期接觸輸入不相聯結的該物體35之其它部分緊密鄰近(例如正下方)。舉
例言之,與該指尖相聯結的目標接觸區域720可排除緊密鄰近手35之手掌之區域(例如圖7C之一非目標接觸區域725),原因在於手掌可與非預期(例如意外)接觸輸入相聯結之故。於若干實施例中,引擎170可識別表面200之多個目標接觸區域。舉例言之,如圖7C顯示,引擎170可識別多個目標接觸區域720,各自為與手35之一個別手指指尖(例如包括拇指)緊密鄰近(例如在相當小的臨界距離以內)的表面200之一區域。
於若干實施例中,不在由引擎170所識別之一目
標接觸區域內部的表面200之任何區域可被視為一非目標接觸區域,從其中將剔除檢測之接觸輸入。舉例言之,如圖7C例示,表面200包括一非目標接觸區域725,其包括緊密鄰近(例如正下方)手35之手掌的表面200之位置。雖然非目標接觸區域725之一實施例係顯示於圖7C,但於若干實施例中,非目標接觸區域可包括區域725以及表面200之不含在目標接觸區域720中之至少一者內的全部其它區。於此處描述之實施例中,由引擎170所識別的表面200之各個目標接觸區域可小於表面200之全區。於圖7C之實施例中,各個經識別之目標接觸區域720包括手35之一個別指尖設置其上的觸控表面200之一個別區域,及排除手35之手掌設置其上的表面200之另一區域(例如一區域725)。
於圖7A-7B之實施例中,剔除引擎170可決定由
表面200檢測之接觸輸入位置是否落入於表面200之經識別的任一個目標接觸區域內部。於此等實施例中,剔除引擎
170應答於決定該檢測之接觸輸入位置不在經識別之目標接觸區域中之任一者內部而剔除一檢測之接觸輸入。舉例言之,表面200可檢測在表面200之一位置194之一接觸輸入,如圖7C例示,及引擎170可識別目標接觸區域720,如前文描述。於此等實施例中,引擎170可決定檢測之接觸輸入位置194係不在經識別之目標接觸區域720中之任一者內部,及可應答於該項決定而剔除一檢測之接觸輸入。舉例言之,如圖7C顯示,該接觸輸入之位置194可為於其上設置該手35之手掌之表面200之一位置。於此等實施例中,其中該接觸輸入之位置194可為於其上設置該手35之手掌之表面200之一區域內,剔除引擎170可應答於決定檢測之接觸輸入之位置194係不落入表面200之該經識別之目標接觸區域中之任一者內部而剔除該檢測之接觸輸入。
於此處描述之實施例中,為了剔除一給定接觸輸
入,剔除引擎170例如可處理該給定接觸輸入,使得其對計算系統100之任何應用程式、服務、OS功能、或在剔除引擎170外部的其它面向無影響。舉例言之,引擎170可藉不提供該給定接觸輸入(亦即描述該給定接觸輸入之資訊)給計算系統100之任何其它組件,諸如計算裝置150之一OS而剔除該給定接觸輸入。
剔除引擎170可應答於一項決定該檢測之接觸輸
入之位置係在經識別之目標接觸區域中之任一者內部而接受一檢測之接觸輸入。舉例言之,表面200可檢測在表面200之一位置192產一接觸輸入,如圖7C例示,及如前文描述,
引擎170可識別目標接觸區域720。於此等實施例中,引擎170可決定該經檢測之接觸輸入係在經識別之目標接觸區域720中之一者內部,及應答於該項決定而可接受該經檢測之接觸輸入。
於此處描述之實施例中,為了接受一給定接觸輸
入,剔除引擎170可發送該給定接觸輸入(亦即描述該給定接觸輸入之資訊)給計算裝置150之一接觸輸入處理功能,其可含括於由計算裝置150所執行的一OS或其它應用程式內,使得該給定接觸輸入可對在剔除引擎170外部的計算系統100之應用程式、服務、及/或其它面向產生影響。
圖7D為計算系統100之一部分之另一實施例之
一方塊圖。於圖7D之實施例中,系統100包含計算裝置150包括引擎170且通訊式連結至觸控表面200,如前文關聯圖7B描述。於圖7D之實施例中也可通訊式連結至感測器束164之相機164A-164C,及剔除引擎170可包含引擎172及174。
如前文關聯圖7A-7C之描述,觸控表面200可檢
測在表面200之一位置之一接觸輸入,及指向表面200之束164的至少一個相機可拍攝表示設置於該(等)相機與表面200間之一物體之影像。於圖7D之實施例中,區隔引擎172可根據所拍攝的影像,識別至少部分地表示物體35之一外緣之一區隔邊界。於此等實施例中,引擎170之識別引擎174可根據相對應於該區隔邊界之物體35之特性諸如,物體35或其部分之形狀、方向性、位置、所在等而識別表面200之
至少一個目標接觸區域。舉例言之,於其中物體35為一手之實施例中,由引擎174運用來識別目標接觸區域之該等特性可包括指尖位置、手掌位置等。
於若干實施例中,區隔引擎172可在一被拍攝影
像上進行處理以擷取呈現在該被拍攝影像中之至少一個前景物體之一影像。此項處理於此處稱作為「區隔」。於若干實施例中,此種區隔處理結果可為與呈現在該被拍攝影像中之至少一個背景分開的該前景物體之一影像。於若干實施例中,一區隔處理可包含呈現在該被拍攝影像中之一物體之一區隔邊界。如此處使用,針對呈現於一影像中之一物體的一「區隔邊界」可為表示該影像之哪個(些)部分表示該物體及該影像之哪個(些)部分表示非為該物體的特性件(例如背景)之一估值之資訊。於若干實施例中,呈現於一影像中之一物體的區隔邊界可包括如呈現在該影像中之該物體的至少一個外緣之資訊。當執行區隔處理時,一計算系統可使用該區隔邊界以從一較大的被拍攝影像(例如也呈現部分背景)擷取該物體之一影像。
於若干實施例中,區隔引擎172可根據使用感測
器束164之一相機拍攝得之一影像而決定一區隔邊界。舉例言之,引擎172可根據使用相機164A拍攝的影像700決定物體35之一區隔邊界。於若干實施例中,計算裝置150可利用該所決定的區隔邊界可從表示大於物體35之該所拍攝的影像700擷取物體35之一影像。所得經區隔的影像可為表示物體35之影像700該部分(例如表示型態710)而表示其它特性
件之影像700該部分(例如背景表示型態715)被扣除。於此等實施例中,所得經區隔的影像可相對應於物體表示型態710。於此處描述之實施例中,一區隔邊界可以任一種合宜形式、格式、資料結構等表示。舉例言之,一區隔邊界可表示為二進位遮罩,針對至少一個相對應影像(例如影像700)之各個像素指示該像素是否表示該物體之一部分。舉例言之,引擎172可在被拍攝影像700上跑一梯度過濾器,以指示具有相當高梯度幅值之影像部分以估計物體35之至少該(等)邊緣。
於若干實施例中,引擎170之識別引擎174根據相
對應於物體35或其部分之區隔邊界的物體35之特性,諸如形狀、方向性、位置、所在等,可識別表面200之至少一個目標接觸區域。於此處描述之實施例中,「相對應於」一區隔邊界的一物體可為其外緣係藉該區隔邊界表示的該物體。
其中相對應於一區隔邊界的該物體的實施例為一手,識別引擎174可識別緊密鄰近手之個別指尖的目標接觸區域,如前文描述。於此等實施例中,引擎174根據表示該手的拍攝影像部分(例如根據所決定的區隔邊界之相對應的及擷取的影像部分)可擷取手之一骨架模型。於此等實施例中,引擎174可使用例如,基於啟發式辦法、中軸變形(MAT)、網格收縮、樹狀擷取演算法、基於連接性標準的笛卡爾之擷身、或任何其合宜技術而擷取手之一骨架模型。引擎174可使用所擷取的骨架模型以決定指尖相對於觸控
表面200之位置及識別個別區域,各自係落入於指尖中之一者的相對小的臨界距離以內,作為表面200之目標接觸區域(例如參考圖7C之區域720)。於此處描述之實施例中,剔除引擎170可將藉感測器束164之相機所拍攝的影像區與表面200之位置關聯,使得表面200之目標接觸區域可根據相機所拍攝的影像識別。
於其它實施例中,其中該物體並不是一手,識別
引擎174可差異地識別目標接觸區域。舉例言之,該物體可為具有一梢端26的一觸控筆25,如圖5顯示。於此等實施例中,感測器束164之一相機可拍攝表示配置在該相機與表面200間之該觸控筆25的一影像702(參考圖7E)。於此等實施例中,影像702可包括一物體表示型態712(表示觸控筆25)及一背景表示型態714(表示表面200及握著該觸控筆之一手)。於此等實施例中,引擎172可區隔來自影像702之物體表示型態712之至少一部分,及引擎174可識別表面200之一目標接觸區域730,包括緊密鄰近(例如在臨界距離以內)梢端26之位置。於此等實施例中,表面200之全部其它區域可視為非目標接觸區域,包括例如表面200之一非目標接觸區域735,於其上設置握著該觸控筆25之該手的一手掌。
於又其它實施例中,識別引擎174可根據由感測
器束164之一相機所拍攝的一影像中之一物體的特性而識別非目標接觸區域。舉例言之,如圖6顯示,一實體物體40可置於表面200上。於此等實施例中,感測器束164之一相機可拍攝的一影像704(參考圖7F)表示設置於該相機與該表
面200間之該物體40。於此等實施例中,影像704可包括一物體表示型態716(表示物體40)及一背景表示型態718(表示表面200)。於此等實施例中,引擎172可區隔來自影像704之物體表示型態716,及引擎174可識別表面200之一非目標接觸區域745,包括及緊密鄰近(例如落入於臨界距離內)物體40相對於表面200之位置。於此等實施例中,緊密環繞物體40的位置可被識別為一非目標接觸區域745,以剔除當一手與物體40互動(例如拾取)時可被檢測出的非預期接觸輸入。
如前文描述,計算系統100可包含於感測器束164中之多個不同型別的相機。於若干實施例中,計算系統100可利用不同型別的相機以拍攝多個影像,各自表示設置於觸控表面200與用以拍攝影像之個別相機間之一物體。於若干實施例中,多個相機各自可為RGB相機164A、IR相機164B、深度相機164C、及手勢相機中之不同一者,如前文描述。
舉例言之,如圖7D顯示,計算系統100可包含通訊式連結至RGB相機164A、IR相機164B、深度相機164C、及觸控表面200中之各者的計算裝置150。於此等實施例中,相機164A-164C各自可指向表面200,且可拍攝表示設置於個別相機與表面200間之一物體之一個別影像。
於此等實施例中,區隔引擎172可基於多個影像各自而識別針對該物體之區隔邊界。於若干實施例中,相機164A-164C可為在不同實體位置。如此,相機164A-164C
可從略為不同角度拍攝相同場景的個別影像(例如從上方觀看表面200)。於此等實施例中,剔除引擎170可幾何對齊由相機164A-164C拍攝的該物體之個別影像。舉例言之,剔除引擎170針對相機164A-164C之該等像素可組成至少一個單應性矩陣(或其它對映圖),使得相對應於相同影像特性件(例如物體35)的像素可於各個影像中被識別出。該單應性矩陣或其它對映圖可以任何合宜方式決定。於若干實施例中,剔除引擎170可將該等影像各自之像素對映至一共享座標集以幾何上對齊該等影像。於若干實施例中,引擎170也可對映表面200之位置至該共享座標集,或否則關聯表面200之位置至所拍攝影像之像素。於若干實施例中,在執行一區隔處理之其它功能之前,引擎170可執行此種幾何對齊。
於若干實施例中,區隔引擎172可針對如前述呈
現於該影像內之物體決定該區隔邊界,但係根據所拍攝影像各自之資料,而非如前文描述基於一個影像之資料。引擎172可以任何合宜方式一起利用該等影像各自之資料以決定該區隔邊界。舉例言之,引擎172可在所拍攝影像各自之資料上跑一梯度過濾器以檢測相對高梯度幅值而估計該物體之邊緣位置。舉例言之,若來自該等影像中之任一者的資料提示(或以其它方式指示)一邊緣的存在,則引擎172可估計一給定位置(例如該共享座標)表示該物體之一邊緣。於其它實施例中,除非多於一個(或全部)影像提示(或以其它方式指示)一邊緣的存在,否則引擎172可能無法估
計一給定位置(例如該共享座標)表示該物體之一邊緣。於若干實施例中,引擎172可根據所拍攝影像各自之資料,此外地或另外地各種啟發式算法、法則等以估計邊緣的存在。
於若干實施例中,引擎172可施加不同權值至不同影像之資料且可根據所拍攝影像各自之加權資料,識別邊緣位置(及如此一區隔邊界)。此外,於若干實施例中,於表面200檢測一接觸輸入之後,引擎可針對該物體決定該區隔邊界。
於此等實施例中,引擎172可根據該等影像各自之部分而決定該區隔邊界,該等影像部分相對應於表面200之在該檢測之接觸輸入附近之一區域且包括少於全部表面200。
於若干實施例中,可能難以基於由單一相機所拍攝的一影像決定一物體的一區隔邊界,原因在於某些狀況可能使得難以準確地區別該影像中之前景物體與該背景。舉例言之,在陰影之存在下難以基於由彩色相機(例如RGB相機)所拍攝的一影像決定一物體的一區隔邊界,或當該前景物體與該背景的顏色極其相似時。藉使用來自不同型別相機之多個影像,此處描述之實施例可更加準確地決定一區隔邊界,原因在於影響來自一型相機的影像上所執行之區隔的條件可不影響來自不同型相機的影像上之區隔。舉例言之,由IR相機拍攝的影像可能不受陰影或色彩相似度的影響。於若干實施例中,關聯圖1-7F此處描述的特性件及功能可組合關聯圖8-10此處描述的特性件及功能提供。
圖8為計算裝置350決定一目標接觸區域之另一實施例之一方塊圖。計算裝置350可為前文關聯圖1-7F描述
的裝置150之另一具體實施例。於圖8之實施例中,計算裝置350係通訊式連結至觸控表面200及相機164A-164C,如前文描述。相機164A-164C各自可設置於表面200上方及指向表面200。計算裝置350可進一步包括一處理資源310及一機器可讀取儲存媒體320包含(例如編碼)指令321-326。於若干實施例中,儲存媒體320可包括額外指令。於其它實施例中,指令321-326及此處關聯儲存媒體320描述的任何其它指令可儲存在遠離但可存取至計算裝置350及處理資源310的一機器可讀取儲存媒體上。處理資源310可提取、解碼、及執行儲存於儲存媒體320上的指令以具現功能,容後詳述。於其它實施例中,儲存媒體320之該等指令中之任一者的功能可以電子電路形式、編碼於一機器可讀取儲存媒體上之可執行指令形式、或其組合具現。機器可讀取儲存媒體320可為非過渡機器可讀取儲存媒體。
於圖8之實施例中,指令321可從觸控表面200獲
得由表面200所檢測之接觸輸入之一位置。指令322可從相機164A-164C中之至少一者獲得表示設置於該相機與表面200間之一物體之至少一個影像。指令323可在針對計算系統100之多個不同接觸輸入場景中識別針對計算系統100之一目前接觸輸入場景。如此處使用,一「接觸輸入場景」為透過該計算系統之一觸控表面提供接觸輸入給一計算系統之一模式。於此處描述之實施例中,若針對該等接觸輸入場景各自(此處也可稱作「分開」接觸輸入場景)一計算系統將以差異方式處理接觸輸入,則接觸輸入場景為不同。
於若干實施例中,針對計算系統100之多個不同接觸輸入場景可包括例如,手輸入場景、觸控筆輸入場景、物體輸入場景、及手指輸入場景,容後詳述。
指令324可根據如於該(等)所拍攝影像中表示之
該物體之至少一個位置而識別表面200之至少一個目標接觸區域。於若干實施例中,指令324可根據如於該(等)所拍攝影像中表示之該物體之特性(例如形狀、方向性等)之任一項組合識別該(等)目標接觸區域。指令324可識別針對計算系統100之該等多個接觸輸入場景中之各個接觸輸入場景差異地識別該(等)目標接觸輸入。舉例言之,指令324可差異地識別該(等)目標接觸輸入當識別手輸入場景時與當識別觸控筆輸入場景時。指令325可決定由表面200檢測之接觸輸入位置是否落入於表面200之任何經識別的目標接觸區域內部。應答於決定該接觸輸入位置係不在任何經識別的目標接觸區域內部,指令325可剔除該接觸輸入,如前文描述。於若干實施例中,指令322可在識別該等目標接觸區域之前幾何對齊該所拍攝影像與表面200之位置。
於若干實施例中,指令326可從計算系統100之至少另一個組件進一步接收接觸剔除資訊,及決定該所接收的接觸剔除資訊是否指示該經檢測之接觸輸入欲被剔除。舉例言之,指令326可從藉計算系統100之計算裝置350執行的一應用程式340接收接觸剔除資訊380。於若干實施例中,應用程式340可為聚焦在計算系統100之至少一個顯示器的應用程式,及資訊380可以任一種合宜方式指示表面
200之區域,於該處接觸輸入可被接收(例如相對應於鈕、或其它接收輸入的圖形使用者介面(GUI)特性件)及於該處接觸輸入可不被接收(例如不具有任何GUI特性件以與其互動的表面200之部分)。於此等實施例中,指令326可決定該所接收的接觸剔除資訊380是否指示該經檢測之接觸輸入係欲被剔除,例如藉決定該接觸輸入位置是否落入於表面200的應用程式340可接收接觸輸入之一部分,如資訊380指示。
若該接觸輸入係在表面200的應用程式340不可
接收接觸輸入之一部分,則指令326可剔除該接觸輸入。舉例言之,接觸剔除資訊380可指示表面200之至少一個非目標接觸區域,於該處應用程式340不可接收接觸輸入。於此等實施例中,應答於一決定該經檢測之接觸輸入位置係落入於由資訊380指示的表面200之該非目標接觸區域內,指令326可剔除該接觸輸入。若該接觸輸入係在表面200之一區域於該處應用程式340可接收接觸輸入(如由剔除資訊328指示),則若該接觸輸入也係在表面200之一經識別的目標接觸區域內,指令326可接受該接觸輸入(否則可剔除該接觸輸入)。
於其它實施例中,指令326可從計算系統100之其
它組件接收接觸剔除資訊。舉例言之,指令326可從觸控表面200接收接觸剔除資訊,該資訊可包括有關一經檢測之接觸輸入之特性之資訊,該資訊可用以估計該經檢測之接觸輸入是否為一預期接觸輸入或為一非預期接觸輸入(例如
若該接觸輸入為輕的或瞬變的)。於若干實施例中,來自表面200之接觸剔除資訊指示一輕的或瞬變的接觸可給指令326指示該所檢測之接觸輸入係欲被剔除。於若干實施例中,由指令326所接收的全部接觸剔除資訊,連同該(等)經識別之目標接觸區域可用以決定是否易除一經檢測之接觸輸入。於若干實施例中,當決定是否剔除一經檢測之接觸輸入時,所接收的不同接觸剔除資訊可被給予不同權值。
於若干實施例中,應答於一決定檢測之接觸輸入
位置係落入於表面200之一經識別的目標接觸區域內部及一決定接觸剔除資訊並不指示該經檢測之接觸輸入欲被剔除,則指令326可提供該經檢測之接觸輸入382(亦即描述該接觸輸入之資訊)給計算系統100之一接觸輸入處理功能344。
於此處描述之實施例中,接觸輸入處理功能344
可為計算裝置350之一功能以使得該經檢測之接觸輸入對計算系統100之操作有影響。舉例言之,功能344可提供接觸輸入382給應用程式340,使得經檢測之接觸輸入382可影響應用程式340之操作(例如藉應用程式340運用為輸入)。於此等實施例中,為了剔除一經檢測之接觸輸入,引擎170無法提供任何資訊描述該接觸輸入給接觸輸入處理功能344。接觸輸入處理功能344可為由計算裝置350具現的例如計算裝置350之一OS之至少一個功能,或任何其它處理程序、服務、應用程式等之至少一個功能。於此處描述之實施例中,接觸輸入處理功能344可以電子電路形式、編碼於
一機器可讀取儲存媒體上之可執行指令形式、硬體與程式規劃之組合、或其組合具現在計算裝置350上。
如前記,指令323可針對計算系統100識別目前接
觸輸入場景。於此處描述之實施例中,指令323可至少部分地基於設置於感測器束164與表面200間之該物體而決定該接觸輸入場景。舉例言之,如圖5及7E中例示,該物體可為一觸控筆25。於此等實施例中,指令323可識別一觸控筆輸入場景為針對計算系統100之目前接觸輸入場景。於若干實施例中,如前文描述,觸控筆25之梢端26可被塗覆以一IR逆反射塗層,其存在可使用IR相機164B檢測。於此等實施例中,應答於使用IR相機164B檢測得觸控筆25之存在,指令323可識別該觸控筆輸入場景為目前接觸輸入場景。於其它實施例中,可以任何其它合宜方式檢測該觸控筆輸入場景。
應答於藉指令323識別該觸控筆輸入場景,根據
出現在該影像之該物體特性,諸如出現在所拍攝影像(例如圖7E之影像702)中之觸控筆梢端,指令324可識別該觸控筆之一梢端相對於該表面之位置。參考圖7E,於此等實施例中,指令324可識別緊密鄰近該經識別之梢端位置的表面200之一區域作為表面200之一目標接觸區域730。於此等實施例中,該經識別之目標接觸區域730可排除位在握住觸控筆25之手的手掌下方之表面200位置(例如非目標接觸區域735)。於若干實施例中,指令324可利用由IR相機164B拍攝的影像以決定觸控筆25之梢端26相對於表面200之一位置。
於其它實施例中,該物體可為一手,如圖5及7A
中例示。於若干實施例中,該目前接觸輸入場景可識別為一手指輸入場景於該處輸入係接收自一豎起的手指,如圖7A中例示。於此等實施例中,指令323可接收來自在計算裝置350上執行之一應用程式(例如應用程式340)之一指示該手指輸入場景為該目前接觸輸入場景(例如藉該應用程式預期為手指書寫輸入時)。於此等實施例中,可識別緊密鄰近該豎起的手指之一目標接觸區域(及排除在該手的其餘部分下方的表面200區域)。
於其它實施例中,當該物體為一手時,指令323
可識別一手指輸入場景為計算系統100之該目前接觸輸入場景。於若干實施例中,應答於決定該目前接觸輸入場景係非為其它可能的接觸輸入場景(例如前述者)中之任一者,指令323可識別一手指輸入場景為該目前接觸輸入場景作為內設值。於其它實施例中,該手指輸入場景可以任何其它合宜方式檢測。參考圖7C,應答於藉指令323識別該手指輸入場景,指令324可根據由感測器束164之至少一個相機拍攝的至少表示該物體之影像,可識別至少部分地表示該手之一外緣的一區隔邊界,及如前文描述,根據相對應於該區隔邊界的該物體(亦即手)之特性而擷取該手之一骨架模型。根據該骨架模型,指令324可進一步識別該手之指尖相對於表面200之個別位置,及針對所識別的指尖位置各自,識別緊密鄰近該經識別的指尖位置之表面200的位置之一區域作為一目標接觸區域720。於此等實施例中,指令324
可識別該目標接觸區域720使得該經識別之目標接觸區域702各自排除位在該手之手掌下方之表面200位置(例如非目標接觸區域725位置)。
於若干實施例中,指令321可檢測一觸發以引發一接觸剔除程序而接受或拒絕一檢測之接觸輸入,如前文描述。舉例言之,檢測接觸輸入可觸發該接觸剔除程序。於其它實施例中,該接觸剔除程序可藉由計算裝置350執行的一應用程式(例如應用程式340)、一使用者輸入(例如請求該處理程序)等觸發。於其它實施例中,該接觸剔除程序可藉計算系統100連續地執行。於若干實施例中,感測器束164之相機可應答於該接觸剔除程序之被觸發(例如藉一檢測之接觸所觸發)而拍攝該物體之個別影像,或可定期地拍攝準備將此(等)影像用在接觸剔除程序。其中該(等)影像係在觸發前拍攝之實施例中,在該等影像拍攝之後該觸發可引發前述接觸剔除程序之其餘部分。於若干實施例中,此處關聯圖8描述之特性件及功能可組合此處關聯圖1-7F及9-10中之任一者描述之特性件及功能提供。
圖9為用以剔除接觸輸入之方法900之一實施例之流程圖。雖然後文中將參考圖1-7B及7D之計算系統100描述方法900之執行,但可利用用以執行方法900之任何合宜系統(例如具有計算裝置350之系統100)。此外,方法900之具現並不限於此等實施例。
於方法900之905,計算系統100之觸控表面200可檢測在表面200之一位置的一接觸輸入。於910,設置於
表面200上方且指向表面200的計算系統100之至少一個相機可拍攝表示位在該相機與表面200間之一物體的至少一個影像。於915,計算系統100之計算裝置150之一剔除引擎170可根據表示於該(等)影像中之該物體的至少一個特性而識別觸控表面200之至少一個目標接觸區域,其中各個經識別之目標接觸區域包括該表面上方放置該物體之一個別目標部分之一個別區域,及排除該表面上方放置該物體之一非目標部分之另一區域。於920,引擎170可比較該接觸輸入位置與該表面之至少一個經識別之目標接觸區域。舉例言之,引擎170可比較該位置與該(等)經識別之目標接觸區域中之連續一者,直到決定該位置係在該等目標接觸區域中之一者內部,或係不在該等目標接觸區域中之任一者內部為止。於925,應答於一比較結果指示該接觸輸入位置係不在該等目標接觸區域中之任一者內部,引擎170可剔除該經檢測之接觸輸入。
雖然圖9之流程圖顯示某些功能表現之特定順
序,但方法900並不受該順序所限。例如,流程圖中循序顯示之功能可以不同順序執行,可同時或部分同時執行,或其組合。於若干實施例中,此處關聯圖9描述之特性件及功能可組合此處關聯圖1-8及10中之任一者描述之特性件及功能提供。
圖10為用以識別一目標接觸區域之方法1000之
一實施例之流程圖。雖然後文中將參考圖1-7B及7D之計算系統100描述方法1000之執行,但可利用用以執行方法1000
之任何合宜系統(例如具有計算裝置350之系統100)。此外,方法1000之具現並不限於此等實施例。
於方法1000之1005,計算系統100之觸控表面200可檢測在表面200之一位置之一接觸輸入。於1010,剔除引擎170可檢測一觸發以起始一接觸剔除程序,其可應答於計算系統100中之適當條件而產生,如前文描述。於1015,應答於該觸發之檢測,設置於表面200上方且指向表面200的計算系統100之至少一個相機可拍攝表示位在該相機與表面200間之一物體的至少一個影像。於1020,計算系統100之計算裝置150之一剔除引擎170可根據表示於該(等)影像中之該物體的至少一個特性而識別觸控表面200之至少一個目標接觸區域,其中各個經識別之目標接觸區域包括該表面上方放置該物體之一個別目標部分之一個別區域,及排除該表面上方放置該物體之一非目標部分之另一區域。於若干實施例中,該物體可為一手。於此等實施例中,該物體之各個目標部分可為該手之一個別指尖,及該物體之該非目標部分可包含該手之一手掌。
於1025,引擎170可比較該接觸輸入之位置與該表面之至少一個經識別之目標接觸區域。應答於比較結果指示該接觸輸入之位置係不在經識別之目標接觸區域中之任一者內部,方法1000可前進至1030於該處引擎170可剔除該檢測之接觸輸入。應答於1025之一比較結果指示該位置係在該(等)經識別之目標接觸區域中之一者內部,方法1000可前進至1035於該處引擎170可提供該經檢測之接觸輸入
給計算系統100之一接觸輸入處理功能。
雖然圖10之流程圖顯示某些功能表現之特定順序,但方法1000並不受該順序所限。例如,流程圖中循序顯示之功能可以不同順序執行,可同時或部分同時執行,或其組合。於若干實施例中,此處關聯圖10描述之特性件及功能可組合此處關聯圖1-9中之任一者描述之特性件及功能提供。
150‧‧‧計算裝置
164A‧‧‧相機
170‧‧‧剔除引擎
200‧‧‧觸控表面
Claims (15)
- 一種計算系統,其包含:一觸控表面以檢測在該觸控表面之一位置的一接觸輸入;指向該觸控表面之一給定相機以拍攝一影像表示設置於該給定相機與該觸控表面間之一物體;及一剔除引擎以基於表示於該影像之該物體的至少一特性而識別該觸控表面之至少一個目標接觸區域,該目標接觸區域各自用以接收接觸輸入;其中該剔除引擎係進一步決定該經檢測之接觸輸入之位置係不在該觸控表面之該至少一個經識別之目標接觸區域中之任一者內部,及應答於該決定而剔除該經檢測之接觸輸入。
- 如請求項1之計算系統,其中該剔除引擎包含:一區隔引擎以根據該影像而識別至少部分地表示該物體之一外緣的一區隔邊界;其中該剔除引擎係根據相對應於該區隔邊界之該物體的特性而識別該表面之該至少一個目標接觸區域。
- 如請求項2之計算系統,其包含:多個不同型別之相機以拍攝多個影像,各自表示設置於該觸控表面與用以拍攝該影像之該個別相機間之該物體; 其中該區隔引擎係基於該等多個影像中之各者而識別該區隔邊界;及其中該等多個相機包括該給定相機及該等多個影像包括該給定影像。
- 如請求項3之計算系統,其中:該等多個相機中之各者為一RGB相機、一紅外線(IR)相機、一深度相機、及手勢相機中之一不同一者;及該表面之各個經識別之目標接觸區域係小於該表面之完整面積。
- 如請求項1之計算系統,其中:該物體為一手;各個經識別之目標接觸區域包括於其上方設置該手之一個別指尖的該觸控表面之一個別區域,而排除於其上方設置該手之一手掌的該表面之另一區域;該接觸輸入之該位置為於其上方設置該手掌之一位置;及該剔除引擎係應答於一決定,當該接觸輸入之該位置係在其上方設置該手掌的該觸控表面之該至少一個經識別之目標接觸區域內時決定該經檢測之接觸輸入之該位置係不在該表面之該區域中之任一者內部,而剔除該經檢測之接觸輸入。
- 一種包含可由一計算系統之一處理資源執行的指令之一非過渡機器可讀取儲存媒體,該計算系統包含一觸控 表面及設置於其上且指向該觸控表面之一相機,該等指令可執行以:從該觸控表面,獲得由該表面檢測之一接觸輸入之一位置;從該相機,獲得表示設置於該相機與該表面間之至少一個物體之一影像;識別用於該計算系統之多個接觸輸入場景中之用於該計算系統之一目前接觸輸入場景,包括一手輸入場景及一觸控筆輸入場景;基於如表示於該影像中之該物體之一部分之一位置,識別該表面之至少一個目標接觸區域,其中該手輸入場景係經識別時與該觸控筆輸入場景係經識別時,該至少一個目標接觸區域係經差異地識別;決定該接觸輸入之該位置是否落入該表面之任何經識別之目標接觸區域內;及應答於一決定該接觸輸入之該位置係不在該觸控表面之該至少一個經識別之目標接觸區域中之任一者內而剔除該經接觸輸入。
- 如請求項6之儲存媒體,其中該等剔除指令包含指令用以:自該計算系統之至少一個其它組件接收接觸剔除資訊;及決定該接收的接觸剔除資訊是否指示該經檢測之接觸輸入係欲被剔除。
- 如請求項7之儲存媒體,其中該等剔除指令包含指令以:應答於一決定該接觸輸入之該位置係在該表面之該至少一個經識別之目標接觸區域中之任一者內及一決定該接觸剔除資訊不指示該經檢測之接觸輸入係欲被剔除而提供該經檢測之接觸輸入給該計算系統之一接觸輸入處理功能。
- 如請求項7之儲存媒體,其中:用以接收接觸剔除資訊之該等指令包含指令以從由該計算系統執行的一應用程式接收該接觸剔除資訊,該接觸剔除資訊指示該表面之一非目標接觸區域;及用以剔除之該等指令包含指令以應答於一決定該接觸輸入之該位置係在該表面之該非目標接觸區域以內而剔除該接觸輸入。
- 如請求項6之儲存媒體,其中該經識別之目前接觸輸入場景為一手輸入場景及該物體為一手,及用以識別該表面之該至少一個目標接觸區域之該等指令包含指令以應答於該手輸入場景之識別:基於該影像而識別至少部分地表示該手之一外緣之一區隔邊界;基於相對應於該區隔邊界的該物體之特性而提取針對該手之一骨架模型;基於該骨架模型,識別該手之該等指尖相對於該表面之個別位置;及 針對該等經識別之指尖位置中之各者,識別其係緊密鄰近該經識別之指尖位置之一區域的該表面之位置作為一目標接觸區域,其中該等經識別之目標接觸區域中之各者排除位在該手之該手掌下方的該表面之位置。
- 如請求項6之儲存媒體,其中該經識別之目前接觸輸入場景為該觸控筆輸入場景,該物體包含一觸控筆,及用以識別該表面之該至少一個目標接觸區域之該等指令包含指令以應答於該觸控筆輸入場景之識別:根據表示於該影像中之該物體之特性,識別該觸控筆之梢端相對於該表面之一位置;及識別該表面之一區域作為該表面之一目標接觸區域,該區域其係緊密鄰近該經識別之梢端位置,及排除位在握住該觸控筆之一手之一手掌下方的該表面之位置。
- 如請求項6之儲存媒體,其中該經識別之目前接觸輸入場景為一物體設置場景,該物體係配置於該表面上,及用以識別該表面之該至少一個目標接觸區域之該等指令包含指令以應答於該物體設置場景之識別:識別包括設置該物體於其上之該等表面位置的該表面之一第一區域;識別該第一區域及在該第一區域外部及環繞其邊緣之一第二區域作為一非目標接觸區域。
- 一種方法,該方法包含: 使用一電腦系統之一觸控表面,檢測在該觸控表面之一位置之一接觸輸入;使用配置於上方且指向該觸控表面之該電腦系統之一相機,拍攝表示配置於該相機與該表面間之一物體之一影像;基於表示於該影像中之該物體之特性,識別該觸控表面之至少一個目標接觸區域,其中各個經識別之目標接觸區域包括於其上方設置該物體之一個別目標部分之該表面的一個別區域,及排除於其上方設置該物體之一非目標部分之該表面的另一區域;比較該接觸輸入之該位置與該表面之至少一個經識別之目標接觸區域;應答於一比較結果指示該接觸輸入之該位置係不在該至少一個經識別之目標接觸區域中之任一者以內,剔除該經檢測之接觸輸入。
- 如請求項13之方法,其進一步包含:檢測起始一接觸剔除程序之一觸發,其中該拍攝係應答於該觸發之該檢測而執行;及應答於一比較結果指示該位置係在該至少一個經識別之目標接觸區域中之一者以內,提供該經檢測之接觸輸入給該計算系統之一接觸輸入處理功能。
- 如請求項13之方法,其中:該物體為一手;該物體之各個目標部分包含該手之一個別指尖;及 該物體之該非目標部分包含該手之一手掌。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2013/061398 WO2015047223A1 (en) | 2013-09-24 | 2013-09-24 | Identifying a target touch region of a touch-sensitive surface based on an image |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201528055A true TW201528055A (zh) | 2015-07-16 |
TWI531929B TWI531929B (zh) | 2016-05-01 |
Family
ID=52744134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW103132276A TWI531929B (zh) | 2013-09-24 | 2014-09-18 | 基於影像來識別觸控表面的目標接觸區域之技術 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10324563B2 (zh) |
EP (1) | EP3049899A4 (zh) |
CN (1) | CN105745606B (zh) |
TW (1) | TWI531929B (zh) |
WO (1) | WO2015047223A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI714888B (zh) * | 2018-09-28 | 2021-01-01 | 圓展科技股份有限公司 | 操作互動觸控顯示系統之方法 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6361332B2 (ja) * | 2014-07-04 | 2018-07-25 | 富士通株式会社 | ジェスチャ認識装置およびジェスチャ認識プログラム |
US10310675B2 (en) * | 2014-08-25 | 2019-06-04 | Canon Kabushiki Kaisha | User interface apparatus and control method |
EP3396499A4 (en) * | 2015-12-21 | 2018-12-05 | Sony Corporation | Information processing device and information processing method |
JP2017117373A (ja) * | 2015-12-25 | 2017-06-29 | キヤノン株式会社 | 操作装置とその制御方法、及びプログラム |
CN106527804A (zh) * | 2016-11-08 | 2017-03-22 | 北京用友政务软件有限公司 | 一种基于智能终端防误触的方法及装置 |
US11002855B2 (en) | 2016-12-27 | 2021-05-11 | Microvision, Inc. | Occlusion-based height estimation |
US10061441B2 (en) * | 2016-12-27 | 2018-08-28 | Microvision, Inc. | Touch interactivity with occlusions in returned illumination data |
US10761188B2 (en) | 2016-12-27 | 2020-09-01 | Microvision, Inc. | Transmitter/receiver disparity for occlusion-based height estimation |
US11204662B2 (en) | 2017-01-17 | 2021-12-21 | Hewlett-Packard Development Company, L.P. | Input device with touch sensitive surface that assigns an action to an object located thereon |
CN107168576A (zh) * | 2017-05-11 | 2017-09-15 | 芜湖威灵数码科技有限公司 | 一种薄膜显示触控式交互设备 |
US10489262B1 (en) * | 2017-05-30 | 2019-11-26 | Synaptics Incorporated | Multi-touch detection in moisture |
WO2019171719A1 (ja) * | 2018-03-05 | 2019-09-12 | 株式会社ワコム | 電子ペンを用いた入力装置 |
JP7191949B2 (ja) * | 2018-05-25 | 2022-12-19 | 富士フイルム株式会社 | 超音波システムおよび超音波システムの制御方法 |
US11500452B2 (en) | 2018-06-05 | 2022-11-15 | Apple Inc. | Displaying physical input devices as virtual objects |
TWI734024B (zh) * | 2018-08-28 | 2021-07-21 | 財團法人工業技術研究院 | 指向判斷系統以及指向判斷方法 |
KR102469722B1 (ko) * | 2018-09-21 | 2022-11-22 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10809910B2 (en) * | 2018-09-28 | 2020-10-20 | Apple Inc. | Remote touch detection enabled by peripheral device |
US11934584B2 (en) | 2019-09-27 | 2024-03-19 | Apple Inc. | Finger orientation touch detection |
CN110825250B (zh) * | 2019-11-14 | 2024-02-23 | 珠海金山数字网络科技有限公司 | 一种笔刷轨迹的优化方法及装置 |
US11853509B1 (en) * | 2022-05-09 | 2023-12-26 | Microsoft Technology Licensing, Llc | Using a camera to supplement touch sensing |
Family Cites Families (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6044165A (en) | 1995-06-15 | 2000-03-28 | California Institute Of Technology | Apparatus and method for tracking handwriting from visual input |
US7834855B2 (en) | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
IL137478A (en) | 1998-01-26 | 2005-11-20 | Westerman Wayne | Method and apparatus for integrating manual input |
US6633671B2 (en) | 1998-01-28 | 2003-10-14 | California Institute Of Technology | Camera-based handwriting tracking |
US6246395B1 (en) | 1998-12-17 | 2001-06-12 | Hewlett-Packard Company | Palm pressure rejection method and apparatus for touchscreens |
JP4027031B2 (ja) | 2000-11-16 | 2007-12-26 | 株式会社コナミデジタルエンタテインメント | 対戦式3dビデオゲーム装置 |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7203384B2 (en) | 2003-02-24 | 2007-04-10 | Electronic Scripting Products, Inc. | Implement for optically inferring information from a planar jotting surface |
US20050078092A1 (en) | 2003-10-08 | 2005-04-14 | Clapper Edward O. | Whiteboard desk projection display |
US7110100B2 (en) | 2003-11-04 | 2006-09-19 | Electronic Scripting Products, Inc. | Apparatus and method for determining an inclination of an elongate object contacting a plane surface |
US7038846B2 (en) | 2003-11-24 | 2006-05-02 | Electronic Scripting Products, Inc. | Solid catadioptric lens with a single viewpoint |
US7268956B2 (en) | 2003-11-24 | 2007-09-11 | Electronic Scripting Products, Inc. | Solid catadioptric lens with two viewpoints |
US7088440B2 (en) | 2003-12-22 | 2006-08-08 | Electronic Scripting Products, Inc. | Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features |
US8134637B2 (en) | 2004-01-28 | 2012-03-13 | Microsoft Corporation | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing |
US8542219B2 (en) | 2004-01-30 | 2013-09-24 | Electronic Scripting Products, Inc. | Processing pose data derived from the pose of an elongate object |
US7729515B2 (en) | 2006-03-08 | 2010-06-01 | Electronic Scripting Products, Inc. | Optical navigation apparatus using fixed beacons and a centroid sensing device |
US7826641B2 (en) | 2004-01-30 | 2010-11-02 | Electronic Scripting Products, Inc. | Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
US9229540B2 (en) | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
US7023536B2 (en) | 2004-03-08 | 2006-04-04 | Electronic Scripting Products, Inc. | Apparatus and method for determining orientation parameters of an elongate object |
US7161664B2 (en) | 2004-04-13 | 2007-01-09 | Electronic Scripting Products, Inc. | Apparatus and method for optical determination of intermediate distances |
US9094615B2 (en) | 2004-04-16 | 2015-07-28 | Intheplay, Inc. | Automatic event videoing, tracking and content generation |
US7113270B2 (en) | 2004-06-18 | 2006-09-26 | Electronics Scripting Products, Inc. | Determination of an orientation parameter of an elongate object with a scan beam apparatus |
US7561146B1 (en) | 2004-08-25 | 2009-07-14 | Apple Inc. | Method and apparatus to reject accidental contact on a touchpad |
WO2007096893A2 (en) | 2006-02-27 | 2007-08-30 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
US7599561B2 (en) | 2006-02-28 | 2009-10-06 | Microsoft Corporation | Compact interactive tabletop with projection-vision |
US7333095B1 (en) | 2006-07-12 | 2008-02-19 | Lumio Inc | Illumination for optical touch panel |
US20080018591A1 (en) | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
US8147316B2 (en) | 2006-10-10 | 2012-04-03 | Wms Gaming, Inc. | Multi-player, multi-touch table for use in wagering game systems |
US20080196945A1 (en) | 2007-02-21 | 2008-08-21 | Jason Konstas | Preventing unintentional activation of a sensor element of a sensing device |
US8199117B2 (en) | 2007-05-09 | 2012-06-12 | Microsoft Corporation | Archive for physical and digital objects |
US20090309838A1 (en) | 2008-06-11 | 2009-12-17 | Microsoft Corporation | Use of separation elements with rear projection screen |
FI20085794A0 (fi) | 2008-08-26 | 2008-08-26 | Multitouch Oy | Vuorovaikutteinen näyttölaite |
US8294047B2 (en) | 2008-12-08 | 2012-10-23 | Apple Inc. | Selective input signal rejection and modification |
US8432366B2 (en) | 2009-03-03 | 2013-04-30 | Microsoft Corporation | Touch discrimination |
US8121640B2 (en) | 2009-03-19 | 2012-02-21 | Microsoft Corporation | Dual module portable devices |
TWI390436B (zh) | 2009-04-17 | 2013-03-21 | Raydium Semiconductor Corp | 光學式觸控裝置及其運作方法 |
US20100302376A1 (en) | 2009-05-27 | 2010-12-02 | Pierre Benoit Boulanger | System and method for high-quality real-time foreground/background separation in tele-conferencing using self-registered color/infrared input images and closed-form natural image matting techniques |
TWI399682B (zh) | 2009-06-23 | 2013-06-21 | Raydium Semiconductor Corportation | 光學式觸控裝置及其運作方法 |
JP5532300B2 (ja) | 2009-12-24 | 2014-06-25 | ソニー株式会社 | タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体 |
TWI423096B (zh) | 2010-04-01 | 2014-01-11 | Compal Communication Inc | 具可觸控投影畫面之投影系統 |
US9008457B2 (en) | 2010-05-31 | 2015-04-14 | Pesonify, Inc. | Systems and methods for illumination correction of an image |
TW201209680A (en) | 2010-08-27 | 2012-03-01 | Disk King Technology Co Ltd | High computation speed surface-scanning imaging touch-control device and method |
JP2012053532A (ja) * | 2010-08-31 | 2012-03-15 | Casio Comput Co Ltd | 情報処理装置及び方法、並びにプログラム |
ES2395102B1 (es) | 2010-10-01 | 2013-10-18 | Telefónica, S.A. | Metodo y sistema para segmentacion de primer plano de imagenes en tiempo real |
CN103154867B (zh) * | 2010-10-12 | 2017-09-22 | 纽约大学 | 用于传感利用瓷片、具有一组板的传感器和多点触摸表面目标识别的装置和方法 |
KR101413539B1 (ko) | 2010-11-22 | 2014-07-02 | 한국전자통신연구원 | 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법 |
US9244545B2 (en) | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
US8660978B2 (en) | 2010-12-17 | 2014-02-25 | Microsoft Corporation | Detecting and responding to unintentional contact with a computing device |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8736583B2 (en) | 2011-03-29 | 2014-05-27 | Intel Corporation | Virtual links between different displays to present a single virtual object |
AU2011203028B1 (en) | 2011-06-22 | 2012-03-08 | Microsoft Technology Licensing, Llc | Fully automatic dynamic articulated model calibration |
US20130050133A1 (en) | 2011-08-30 | 2013-02-28 | Nokia Corporation | Method and apparatus for precluding operations associated with accidental touch inputs |
US20130057515A1 (en) | 2011-09-07 | 2013-03-07 | Microsoft Corporation | Depth camera as a touch sensor |
US20130076654A1 (en) | 2011-09-27 | 2013-03-28 | Imerj LLC | Handset states and state diagrams: open, closed transitional and easel |
CN102426480A (zh) | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互系统及其实时手势跟踪处理方法 |
EP2786234A4 (en) * | 2011-11-28 | 2015-08-26 | Neonode Inc | OPTICAL ELEMENTS WITH ALTERNATIVE REFLECTIVE LENS FACETS |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
KR20130099745A (ko) * | 2012-02-29 | 2013-09-06 | 주식회사 팬택 | 터치 단말기의 입력 신호 구분 장치 및 방법 |
EP2637139A1 (en) | 2012-03-05 | 2013-09-11 | Thomson Licensing | Method and apparatus for bi-layer segmentation |
US9046958B2 (en) * | 2012-03-15 | 2015-06-02 | Nokia Technologies Oy | Method, apparatus and computer program product for user input interpretation and input error mitigation |
US9652043B2 (en) | 2012-05-14 | 2017-05-16 | Hewlett-Packard Development Company, L.P. | Recognizing commands with a depth sensor |
WO2013191888A1 (en) * | 2012-06-20 | 2013-12-27 | 3M Innovative Properties Company | Device allowing tool-free interactivity with a projected image |
US8831285B2 (en) | 2012-07-26 | 2014-09-09 | Hewlett-Packard Development Company, L.P. | Detecting objects with a depth sensor |
US9519968B2 (en) | 2012-12-13 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Calibrating visual sensors using homography operators |
US8970709B2 (en) | 2013-03-13 | 2015-03-03 | Electronic Scripting Products, Inc. | Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty |
JP6097884B2 (ja) | 2013-07-31 | 2017-03-15 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | プロジェクターユニット及びコンピューターを含むシステム |
WO2015076811A1 (en) | 2013-11-21 | 2015-05-28 | Hewlett-Packard Development Company, L.P. | Projection screen for specularly reflecting infrared light |
-
2013
- 2013-09-24 US US15/024,100 patent/US10324563B2/en not_active Expired - Fee Related
- 2013-09-24 EP EP13894274.3A patent/EP3049899A4/en not_active Ceased
- 2013-09-24 WO PCT/US2013/061398 patent/WO2015047223A1/en active Application Filing
- 2013-09-24 CN CN201380081141.4A patent/CN105745606B/zh not_active Expired - Fee Related
-
2014
- 2014-09-18 TW TW103132276A patent/TWI531929B/zh not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI714888B (zh) * | 2018-09-28 | 2021-01-01 | 圓展科技股份有限公司 | 操作互動觸控顯示系統之方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3049899A1 (en) | 2016-08-03 |
EP3049899A4 (en) | 2017-07-05 |
WO2015047223A1 (en) | 2015-04-02 |
TWI531929B (zh) | 2016-05-01 |
US20160231862A1 (en) | 2016-08-11 |
CN105745606B (zh) | 2019-07-26 |
CN105745606A (zh) | 2016-07-06 |
US10324563B2 (en) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI531929B (zh) | 基於影像來識別觸控表面的目標接觸區域之技術 | |
TWI608426B (zh) | 基於表示標的之影像判定區隔邊界之技術 | |
TWI547828B (zh) | 感測器與投射器之校準技術 | |
TWI559174B (zh) | 以手勢爲基礎之三維影像操控技術 | |
TWI546719B (zh) | 用以鏡面式反射紅外光線之投影螢幕 | |
TWI582676B (zh) | 物件指示符顯示技術 | |
US10664090B2 (en) | Touch region projection onto touch-sensitive surface | |
TWI545463B (zh) | 投影系統及管理投影系統之方法 | |
US10481733B2 (en) | Transforming received touch input | |
TWI543023B (zh) | 觸敏表面上物件識別技術 | |
TWI569173B (zh) | 物件數位影像呈現技術 | |
JP2016139396A (ja) | ユーザーインターフェイス装置、方法およびプログラム | |
TWI566126B (zh) | 從影像發展出脈絡資訊之技術 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |