TW201108072A - Display with an optical sensor - Google Patents

Display with an optical sensor Download PDF

Info

Publication number
TW201108072A
TW201108072A TW099122152A TW99122152A TW201108072A TW 201108072 A TW201108072 A TW 201108072A TW 099122152 A TW099122152 A TW 099122152A TW 99122152 A TW99122152 A TW 99122152A TW 201108072 A TW201108072 A TW 201108072A
Authority
TW
Taiwan
Prior art keywords
optical sensor
dimensional optical
display
panel
display system
Prior art date
Application number
TW099122152A
Other languages
English (en)
Inventor
John J Briden
Bradley Neal Suggs
Original Assignee
Hewlett Packard Development Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co filed Critical Hewlett Packard Development Co
Publication of TW201108072A publication Critical patent/TW201108072A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electroluminescent Light Sources (AREA)

Description

201108072 六、發明說明: I:發明戶斤屬之技術領域】 發明領域 本發明係有關顯示系統,更特別係有關具光學感測器 之顯示器。 發明背景 一個電阻式觸碰螢幕面板係由以窄隙隔開的兩個薄金 屬導電層所組成。當一個物件,例如手指,在面板外表面 上的一點上按壓時,這兩個金屬層在此點會變成連接狀 態,而使此面板表現得如同具有連接輸出的一對分壓器。 這導致電流上的改變,而被登錄為一個觸碰事件,並被傳 送給控制器以作處理。電容式觸碰螢幕面板為一個感測 器,其為一個電容器,當中之平板包括在一個格網圖形之 水平與垂直軸上的重疊區域。人體亦能導電,且在感測器 表面上之觸碰會影響電場,並產生在裝置之電容上的可量 測改變。 【發明内容】 發明概要 依據本發明之一實施例,係特地提出一種顯示系統,其 包含:一個面板,用以在前側上顯示影像;一個三維光學 感測器,用以判定位於該三維光學感測器之視野中的一個 物件離該三維光學感測器之深度;以及處於該面板之前側 與該三維光學感測器前方的一個透明層。 201108072 依據本發明之另一實施例,尚特地提出一種方法,其包 含下列步驟:接收來自於一個三維光學感測器的深度資 訊;從該深度資訊判定出一個物件是否正接觸一個顯示系 統,其中,若該物件離該顯示系統小於一個接觸距離,則 該物件被判定為正接觸該顯示系統;從該深度資訊判定出 該物件是否小於一個規劃距離;以及在該顯示系統上指出 該物件是否並非正接觸該顯示系統且該物件離該顯示系統 小於該規劃距離。 圖式簡單說明 本發明之一些實施例係針對下列圖式說明: 第la圖為依據本發明之一示範實施例的一個顯示器; 第lb圖為依據本發明之一示範實施例的一個顯示器; 第2圖為依據本發明之一示範實施例的顯示器之一部 份; 第3圖為依據本發明之一示範實施例的一個三維光學 感測器; 第4圖為依據本發明之一示範實施例的一個顯示器; 第5圖為依據本發明之一示範實施例的一個顯示器; 第6圖為依據本發明之一示範實施例的一個方塊圖; 第7圖為依據本發明之一示範實施例的一個流程圖。 t:實施方式3 較佳實施例之詳細說明 圖形使用者介面(GUI)可使用例如滑鼠等的一個指點 裝置來移動游標至顯示器上的物件。當游標正指著顯示器 201108072 上的一個物件,可將其稱為滑鼠經過事件或懸停事件,時, 有關此物件之資訊可被顯示出來。在一些實施例中,資訊 可包括一個跳出文字框。在其他實施例中,指至一個物件 的游標可執行其他功能,例如標亮此物件。由電腦所執行 的功能取決於介面與應用程式之規劃。 觸碰螢幕可被用來移動顯示器上的游標,但可能無法 在將顯示器上的游標移動到一個項目、一個懸停事件、及 作動此項目之間做出辨別。可檢測出並不接觸此顯示器之 物件及正接觸此顯示器之物件的顯示器可在游標正指著顯 示器上之項目的懸停事件及做動顯示器上的項目之間做出 辨別。 在一個實施例中,顯示器包括一個三維光學感測器, 以判定由此光學感測器所捕捉到的一個物件的離此光學感 測器之深度。此物件離顯示器之距離可從物件離光學感測 器之距離計算出來。 電阻式觸碰螢幕面板包括有一個玻璃面板,其被一個 導電層以及一個阻抗金屬層所覆蓋。這兩層被間隔器隔 開,並且在頂部設置有一個防刮層。當顯示器運作時,電 流會流經這兩層。當一個使用者觸碰螢幕時,這兩層在這 個確切的點上產生接觸。電場上的改變被注意到,電腦計 算此接觸點之座標。在一個電容系統中,在顯示器的玻璃 面板上係設置有儲存電荷的一個層。當使用者以其手指觸 碰顯示器時,一些電荷被轉移到使用者身上,而使電容層 上的電荷減少。此項減少在位於顯示器之各個角落的電路 201108072 中被量測。覆蓋玻璃面板的這些層減少從顯示器面板至使 用者行進想玻璃層的光線量,並削弱影像的光學清晰度。 二維光學觸碰系統可被用來判定觸碰發生在在螢幕上 的何處。一個二維光學觸碰系統可包括一個光源,其行進 橫越顯示器之表面,並於顯示器對側被接收。若有一個物 體阻斷了光線,那麼接收器便無法接收此光線,並且有一 項觸碰會在被阻斷的來自於兩個光源之光線交會處被登 錄。在一個光學觸碰系統中的光源與接收器係安裝在透明 層前方,以容許光束沿著透明層之表面行進。一些光學感 測器被以圍繞顯示器邊緣的小牆型式呈現。將光源與接收 器安裝在玻璃前方,可容許雜物干擾在光源與接收器之間 所傳送的光線。雜物可為,例如,灰塵或塵土。 電阻性、電容性與二維光學觸碰系統可在一個物件接 觸或靠近顯示器時判定χγ座標。電阻性、電容性與二維光 學觸碰系統並不判定Z維度(第三維),即,離顯示器之距 離。 在一個實施例中,三維光學感測器係安裝在顯示器的 透明層後方。三維光學感測器可係安裝在顯示系統的面板 之邊緣外面。將三維光學感測器安裝在顯示系統的面板之 邊緣外面可增加光線從面板到使用者的傳輸,因為並不存 在任何為此顯示系統之一部份的附接至透明層之減少光線 傳輸或削弱由面板所產生之影像清晰度的層。將三維光學 感測器安裝在顯示器的透明層後方可保護光學感測器不受 例如灰塵等異物髒污。若光學感測器之視野被透明層上阻 201108072 礙光學感測器視野的異物髒污,可在不做清潔光學感測器 的分開準備下清潔透明層。 請參考圖示,第la圖為依據本發明之一示範實施例的 一個顯不系統丨〇 〇。顯示系統丨〇 〇包括—個面板丨丨〇以及在面 板110之表面116前方的一個透明層1〇5,用以顯示影像。面 板11〇則方為顯示影像的表面116,面板110之後方與前方相 對。一個三維光學感測器115可係與面板110在透明層之同 側上透明層105可為玻璃、塑膠或是其他透明材料。面 板110可為液晶顯示器(LCD)面板、薄膜顯示器、陰極射 線官(CRT)、OLED或投影顯示器,舉個例子,例如,數 位光源處理(DLP)。將三維光學感測器安裝在顯示系統1〇〇 於表面116之邊緣117外部的區域中,可使透明層之清晰度 不因三維光學感測器而減損。 二維光學感測器U5可判定位於三維光學感測器115之 視野135内的一個物件離三維光學感測器之深度。在一個實 施例中,可利用物件之深度來判定此物件是否位於顯示器 的一個規劃距離130内但並不接觸顯示器。例如,物件12〇 可為正靠近透明層105的使用者之手與手指。 右物件120在二維光學感測器us之視野135内,則來自 於光源125之光線可從此物件反射,並被三維光學感測器 115捕捉。可使用物件120離三維光學感測器115之距離來判 定此物件離顯示系統腦之距離。若此物件齡於—個規劃 距離13 0與顯示系統之間,則運算裝置可執行一個功能,例 如懸停。 201108072 在一些實施例中,一個棱鏡112被用來彎曲從物件到光 學感測器的反射光線。稜鏡112可容許光學感測器沿著透明 層105之表面探看。可將稜鏡112附接炱透明層105。稜鏡112 為一個透明體,其係由兩個非平行的表平面界定,並被用 於折射或散射光束。在一個實施例中,棱鏡112折射由光源 125所發出之穿過透明層1〇5之光束,以從一個物件反射並 穿過透明層205返回三維光學感測器115。 第lb圖包括介於透明層105與面板11〇間的一個間隙 114。此間隙容許三維光學感測器115擁有從透明層10 5與面 板110之間的透明層105視野。此間隙玎為,舉例而言,0.1 公分到0.5公分,但此間隙亦可為其他量值。三維光學感測 器115之視野包括透明層1〇5上之邊緣117。 在一個實施例中,可係在將光學感測器附接至面板後 組配光學感測器。例如,在將光學感測器附接至顯示器之 後,可藉由將物件顯示在面板上,來訓練面板上的一個電 腦顯示資訊。使用者可接著接觸將物件顯示在面板上的顯 示器’電腦可校正光學感測器,以使將來對顯示器的接觸 可被電腦解讀成對顯示器的一項接觸。 第2圖為依據本發明之一示範實施例的顯示器2〇〇之一 部份。顯示器200的此部份包括以一個角度安裝至透明層 205的一個三維光學感測器215。此三維光學感測器之角度 係以使三維光學感測器215之視野能包括透明層2〇5對應於 顯不器面板210的一個邊緣217之部份來決定。在一個實施 例中,顯不器面板210與透明層2〇5之間有一個間隙214。視 201108072 野可由三維光學感測器215上之透鏡決定。可係以度數來衡 量視野,例如,具有100度之視野的三維光學感測器可捕捉 具有50度之視野的三維光學感測器所無法捕捉的影像。 第3圖為依據本發明之一示範實施例的一個三維光學 感測器315。三維光學感測器315可接收從一個物件3 20反射 的來自於一個光源325之光線。光源325可為,例如,發射 使用者不可見之光線的紅外光或雷射光源。光源325可係處 於相對於三維光學感測器315的,容許光線反映物件32〇並 由’’隹光4·感測器315捕捉的任何位置。在一個實施例中, 、工外光可從可為使用者之手部的一個物件320反射,並被三 維光學感測器315捕捉。在三維影像中的一個物件被映射到 ^對各個物件的給予2轴順序即距離上之順序,的不同平 順序可使電腦程式能夠辨別出前景物件與背景,並 °吏電腦料㈣判定物件離之距離。 體立響用基於二角測量之方法的二維光學感測器,例如立 深二。二能會牽涉到密集影像處理,以概略估算物件之 料資i彡像處理㈣來自於—個感《之資料,並處 料。對於W產生吊理^無法從-個二維感測器獲得的資 個二維感測器而言,可尤兩注 因為來自於此三㈣制… Μ吏用密集影像處理, 言,針對 —Η ""之顿包括有深度資料。舉例而 Τ對—個飛行時間三維残 簡單查表,, & 、j窃的衫像處理可能會牽涉 1乂將感測器讀數對 飛行時間感測器係由光線從已:物件離顯示器之距離。 及回到三“學感廳之行料域料、從物件反射、 進所化的時間,來判定一個物 201108072 件離感測器之深度。可從並不使用第二個三維光學感剎器 來判定影像中之物件的距離的這個三維光學感測器,來判 定出在影像中的一個物件之深度。 在一個替代實施例中,光源可係以一個已知角度,將 結構光線發射至物件上,結構光線為例如平面、方格、或 更為複雜之形狀的一個光線圖樣的投影。光線圖樣在打到 平面時的解構方式使視覺系統能夠計算晝面中之物件的深 度及表面資訊。積體成像技術(Integral Imaging)為一種提 供全視差立體視圖的技術。為了紀錄一個物件之資訊,連 同一個高解析度光學感測器的一個微透鏡陣列被使用。可 由於微透鏡相對於被成像物件的不同位置,而將此物件的 多個角度成像到-個鮮❹⑼上。可將所紀錄的含有來 自於各個微鏡片之基本影像的影像作電子式轉移, -H-. 在影像處理中重建。在一些實施例中,積體影像透鏡。 有不同的焦距,且物件深度係基於此物件是否對焦兄可具 感測器,或失焦,失焦感測器,而判定的。本發明:點 声 的 例並不受限於已論述之三維光學感測器,而可為住何;, •維光學感測器。 可類製 第4圖為依據本發明之一示範實施例的一個顯示器 些圖形使用者介面(GUI)中,可感測多於—個物°件 的顯示系統400可係能夠執行無法由單一接觸所辨識 一個程式裡的數項工作。舉例來說,移動分開兩隹5车的在 又于指可 在一個項目上拉近放大,而移動合併兩隻手指
丑一個H 目上拉遠縮小。 3 10 201108072 在一個實施例中,係有第一三維光學感測器415與第二 三維光學感測器417。第一三維光學感測器415可擁有視野 460。在包括介於透明層405與面板間之間隙的一個實施例 中’視野的一部分可係落在透明層405之後。在視野460之 内’物件420的影像被捕捉。第二物件422無法被第一三維 光學感測器415看見,因為第一物件420處在第一三維光學 感測器415與第二物件422之間。沿著視野460在第一物件 420後方之容積465中的部份455,視野460被第一物件420阻 礙。第二三維光學感測器417可在其視野内捕捉一個影像, 包括第一物件420與第二物件422二者之深度。第一三維光 學感測器415可判定一第一物件420,例如,使用者的一隻 手指’之距離。若由第一三維光學感測器415對第二物件422 的視界被第一物件420阻礙,則第一三維光學感測器415可 能無法獲取例如為使用者另一隻手上的一根手指的第二物 件422。第一三維光學感測器415與第二三維光學感測器417 可係位於顯示系統400之角落,或者是,光學感測器可係位 於顯示器中或顯示器内的任何地方,例如頂部、底部、或 邊側。 由於離光學感測器之深度已知,故可使用一個三維光 學感測器來判定物件之大小。若離光學感測器之深度未 知,物件420之影像可能會以相同於離光學感測器415更遠 的-個較大物件422之型式出現。運算錢可使用物件之大 小來判定物件的類型,例如手掌、手指、筆、或其他物件。 第5圖為依據本發明之—示範實施例的—個顯示器。光 201108072 學感測器具有延伸至顯示器面板510之邊緣517之外的一個 可見區域。物件在邊緣517之外的移動可促動一個電腦系統 的功能。在—個實施例中,可將虛擬按鈕540定位在顯示器 面板510外部。虛擬按鈕540可為印在環繞顯示器面板510之 表框570上的一個符號或文字。虛擬按鈕不具有移動部份, 且未被電氣式地連接至電腦系統58(^光學感測器515可檢 測出一個物件,例如使用者之手指,已於何時接觸一個虛 擬知:鈕540。在一個實施例中,顯示系統可被容納在亦容納 一個運算系統58〇的一個外殼中,或者是,運算系統可係位 在與顯示系統之外殼不同的另一個外殼中。 在一個實施例中,使用者可例如,藉由以沿著顯示系 統500之側邊575上下移動的方式移動他們的手,來控制如 曰里等功旎。顯不器之側邊可為位於面板51〇之邊緣外部的 區域,且可包括在透明層之外的區域。可由使用者的手沿 著顯不器面板側邊控制的其他功能之範例有,例如快轉與 倒π等媒體控制,以及例如移至下—幻燈片或前一幻燈片 等展示控制。 使用者可規劃電腦在檢測到某些動作時所實施的功 月b舉例來說’使用者可藉由將他們的手在顯示器上從右 到左移動而翻到下一頁,或是從左到右移動而翻回上— 頁來翻閱顯不器上之文件頁面。在另一個範例中,使用 者可以帛代表抓取營幕上之物件、及旋轉物件而以順時 鐘或逆時鐘方向旋轉物件_作,來移動他們㈣。使用 者介面可容許❹者更改由三維光學感測 器所檢測到的手 12 201108072 部移動u果。舉例來說,若使用者以從右财的方向在 顯示器前移動他們的手,可將電腦規劃成將此動作解譯成 翻頁、或者是關閉文件的動作。 第6圖為依據本發明之—示範實施例的一個方塊圖。光 子感心_譲0包括光源625與感測器6⑴光學感測器模 、,且6〇0可她可包括有影像巾之物件的高度、寬度與深度的 資料。光學感測器模組_可連結至_個通訊埠謂,以將 所捕捉之資·送至—㈣算裝置。通訊埠㈣可為在運算 裝置上的-個通料㈣。例如,通訊埠_可為通用序列 匯流排(USB) i皐,或正㈣州琿。在一個實施例中通 Λ埠670可為運料置之輸人輸出控彻675的-部分。可 將輸入輸出控制器675連接至―個電腦可讀媒體奶。可將 一個運算裝置之輪入輸出控制器675連接至一個控制器 680。 。 控制器680可透過輸入輸出控制器675之通訊埠670,接 收由二維光學感測器模組625所捕捉之資料。控制器68〇可 攸由二維光學感測器模組600所捕捉之資料,判定出一個物 件離光學感測器模組600之距離。控制器680可基於此物件 離二維光學感測器模組600之距離,而判定出此物件離一個 顯示器之距離。在一個實施例中’控制器68〇為處理器或特 定用途積體電路(ASIC)。 包括有控制器680的一個運算系統可使用此資料來判 定出是否可由此面板指出一個懸停。懸停指的是當使用者 在GUI的一個特定區域上移動或盤旋游標時所發生的—個
13 201108072 GUI事件。懸停事件可被用在網站設計中,且被用於現代 GUI規劃。雖然這些事件可被用來呼叫任何功能,但使用者 可能甚至不知道它們的存在,且它們可能僅影響一個運算 系統上的作業系統或應用程式之網路作業。 第7圖為依據本發明之一示範實施例的一個流程圖。此 方法係由從一個三維光學感測器接收深度資訊(於710)開 始。深度資訊包括在三維光學感測器的視野中之物件離三 維光學感測器之深度。例如,此三維光學感測器可係使用 飛行時間、結構光線、積體成像或聚焦離焦來產生深度資 訊。深度資訊可被一個運算裝置接收。運算裝置可為,例 如,一個電腦系統、一個個人數位助理、或行動電話。運 算裝置可從深度資訊判定出一個物件是否正接觸一個顯示 系統(於720)。若此物件離顯示系統之距離實質上為零公 分,那麼運算裝置可從深度資訊判定出此物件正接觸顯示 器。在一個實施例中,實質上為零代表此三維光學感測器 之解析度可能無法判定與顯示器之接觸,且小於離顯示系 統的一個接觸距離的一個物件可能會具有被運算系統判定 為零距離的離此三維光學感測器的深度資訊,並被判定為 與此顯示系統的一項接觸。一個接觸距離可為,例如,離 顯示系統0.2公分,但亦可為其他距離。若物件與透明層有 所接觸,所計算出的此物件離顯示器之距離為零。若電腦 接收到距離為零的一個信號,則若電腦判定出此物件之位 置以及顯示在面板上的圖標之影像位置彼此吻合,電腦可 產生對由此圖標所表示的一個功能之促動。例如,此圖標 14 201108072 可代表當這個圖標被促動時,將被啟動的一個程式。 運算裝置可從深度資訊判定出此物件是否小於—個規 劃距離(於730)。規劃距離為在光學感測器之視野中之電 腦物件開始被認定為可操作功能之物件的一個距離。—個 顯示器可在此顯示器上指出此物件是否並非正接觸顯示器 且此物件小於規劃距離(於740)。 在顯示器面板上的一個位置可對應於被顯示在此顯示 器上的一個項目,例如一個圖標。若此物件被計算為在離 顯不益的一個規劃距離内’電腦可解譯一個懸停動作。此 圖標可具有發生在當於顯示器上之圖標位置處偵測出一個 懸停事件時的一個規劃動作。例如,若此物件並非正接觸 透明層但離透明層小於規劃距離時,可標亮一部分的顯示 器,例如一個圖標。 於上文中所說明的本技術可被體現在一個電腦可續媒 體中,用以將電腦系統組配來執行本方法。電腦可讀媒體 可包括,例如且不受限於,任何數量的下列元素:磁性儲 存媒體,包括碟片與磁帶儲存媒體;光學儲存媒體,例如 光碟媒體(如CD-ROM、CD-R等等)以及數位影像碟片儲 存媒體,全像記憶體;非依電性記憶體儲存媒體,包括以 半導體為基礎的記憶體單元,例如FLASH記憶體、 EEPROM、EPR0M、R0M ;強磁數位記憶體;依電性儲存 媒體,包括暫存器、緩衝器或快取記憶體、主記憶體、 等等;以及網際網路’於此㈣舉數例4可使用其他新 式與多樣的電腦可讀媒體類型來儲存及/或發送於本文中 15 201108072 所論述之軟體模組。可找出多種形式的運算系統,包括但 不受限於大型主機、迷你電腦、伺服器、工作站、個人電 腦、筆記型電腦、個人數位助理、多種無線裝置與嵌入式 系統,於此僅列舉數例。 於前文中,已述有許多細節,以提供對本發明之理解。 然而,熟於此技者當瞭解,本發明亦可不在這些細節之下 實施。雖然已針對有限數量的實施例來揭露本發明,但熟 於此技者當識出源自本發明之多種修改體與變異體。吾等 意欲使後附中請專利範圍涵蓋落於本發明之真實精神與範 圍中的此類修改體與變異體。 I:圖式簡單說明3 第la圖為依據本發明之一示範實施例的一個顯示器。 第lb圖為依據本發明之一示範實施例的一個顯示器。 第2圖為依據本發明之一示範實施例的顯示器之一部 份。 第3圖為依據本發明之一示範實施例的一個三維光學 感測器。 第4圖為依據本發明之一示範實施例的一個顯示器。 第5圖為依據本發明之一示範實施例的一個顯示器。 第6圖為依據本發明之一示範實施例的一個方塊圖。 第7圖為依據本發明之一示範實施例的一個流程圖。 【主要元件符號說明】 100、400、500...顯示系統 110、210、510...面板 105、205、405…透明層 112…棱鏡 16 201108072 114、 214...間隙 515…光學感測器 115、 215、315、415、417·.·三維 540···虛擬按鈕 光學感測器 116·.·表面 117、217、517··.邊緣 120、320、420、422…物件 125、325、625.··光源 130.. .規劃距離 135、460…視野 200.. .顯示器 455.. .部份 465…容積 570…表框 575.. .側邊 580.. .電腦系統/運算系統 600.. .光學感測器模組 615.. .感測器 67α"通訊埠 675.. .輸入輸出控制器 680.. .控制器 685.. .電腦可讀媒體 710〜730...步驟
17

Claims (1)

  1. 2〇1108072 七、申請專利範圍: 1 · 一種顯示系統’其包含: 一個面板,用以在前側上顯示影像; -個一維光學感測B,用以判定位於該三維光學感 測器之視野中的一個物件離該三維光學感測器之深 度;以及 處於該面板之前側與該三維光學感測器前方的一 個透明層。 2. 如申請專利範圍第1項之系統,其更包含: 一第二三維光學感測器,用以判定位於該第二三維 光學感測器之視野中之該物件離該第二三維光學感測 器的深度。 3. 如申請專利範圍第1項之系統,其更包含: 連接至該面板與該三維光學感測器的一個運算裝 置; ’ 其中該運算裝置係用以在該物件並非正與該顯示 系統有所接觸且離該顯示系統小於一個規劃距離時指 出一個懸停。 4. 如申請專利範圍第!項之系統,其中該三維光學感測器 附接在該面板之邊緣外面。 5. 如申請專利範圍第丨項之系統,其更包含: 在該面板與該透明層之間的一個間隙, 其中該間隙容許該三維光學感測器具有包括在該 透明層與該面板之間的該視野。 〆 18 201108072 6·如申請專利範圍第1項之系統,其中該三維光學感測器 係選自由下列項目所組成的群組:飛行時間感測器、、社 構光線感測器、聚焦感測器、及離焦感測器。 7·—種方法’其包含下列步驟: 接收來自於一個三維光學感測器的深度資訊; 從該深度資訊判定出一個物件是否正接觸_個顯 不系統’其巾’若該物件離賴示线小於-個接觸距 離,則該物件被判定為正接觸該顯示系統; 從該深度資訊判定出該物件是否小於一 離;以及 …在該顯示系統上指出該物件是否並非正接觸該顯 不糸統且該物件離該顯示系統小於該規劃距離。 如申請專利範圍第7項 項之法,其中該顯示系統包括位在 固面板與該三維光學感測器前方的—個透明層。 •如申請專利範圍第7項之法, 步驟包括椤韋抑- 〃甲在捕不态上指出之 . 不儿‘,"員示系統上的一個影像之_ ϋρ八 10.如申請專利範圍第7Ig I像之科。 項之法,其更包含下列步驟: —個啟動物件破狀為與該1H财所接觸,則產生 [S ] 19
TW099122152A 2009-07-23 2010-07-06 Display with an optical sensor TW201108072A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2009/051599 WO2011011009A1 (en) 2009-07-23 2009-07-23 Display with an optical sensor

Publications (1)

Publication Number Publication Date
TW201108072A true TW201108072A (en) 2011-03-01

Family

ID=43499309

Family Applications (1)

Application Number Title Priority Date Filing Date
TW099122152A TW201108072A (en) 2009-07-23 2010-07-06 Display with an optical sensor

Country Status (7)

Country Link
US (1) US9176628B2 (zh)
EP (1) EP2457143A4 (zh)
CN (2) CN102498453B (zh)
DE (1) DE112009004948T5 (zh)
GB (1) GB2484232B (zh)
TW (1) TW201108072A (zh)
WO (2) WO2011011009A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI451221B (zh) * 2010-03-11 2014-09-01 Osram Opto Semiconductors Gmbh 可攜式電子裝置
TWI485577B (zh) * 2012-05-03 2015-05-21 Compal Electronics Inc 電子裝置及其操作方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760403B2 (en) * 2010-04-30 2014-06-24 Pixart Imaging Inc. Hybrid human-interface device
JP2012133453A (ja) * 2010-12-20 2012-07-12 Sony Corp 情報処理装置、情報処理方法及びプログラム
US9477348B2 (en) * 2011-04-15 2016-10-25 Hewlett-Packard Development Company, L.P. Focus-based touch and hover detection
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
JP2013206373A (ja) * 2012-03-29 2013-10-07 Hitachi Solutions Ltd インタラクティブ表示装置
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
KR101382287B1 (ko) * 2012-08-22 2014-04-08 현대자동차(주) 적외선을 이용한 터치스크린 및 그 터치스크린의 터치 인식장치 및 방법
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
TWI498787B (zh) * 2013-01-18 2015-09-01 Wistron Corp 光學觸控系統、觸控偵測方法以及電腦程式產品
US9122351B2 (en) * 2013-03-15 2015-09-01 Verizon Patent And Licensing Inc. Apparatus for detecting proximity of object near a touchscreen
WO2014185808A1 (en) * 2013-05-13 2014-11-20 3Divi Company System and method for controlling multiple electronic devices
JP5941896B2 (ja) * 2013-11-26 2016-06-29 京セラドキュメントソリューションズ株式会社 操作表示装置
CN103777756A (zh) * 2014-01-15 2014-05-07 陈绳旭 基于玻璃屏的人机交互系统
CN103793055A (zh) * 2014-01-20 2014-05-14 华为终端有限公司 一种手势响应方法及终端
US10901548B2 (en) * 2015-04-07 2021-01-26 Omnivision Technologies, Inc. Touch screen rear projection display
US10289239B2 (en) 2015-07-09 2019-05-14 Microsoft Technology Licensing, Llc Application programming interface for multi-touch input detection
KR101766978B1 (ko) * 2015-12-01 2017-08-09 엘지전자 주식회사 디스플레이 장치와 이를 포함하는 차량

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2648558B2 (ja) 1993-06-29 1997-09-03 インターナショナル・ビジネス・マシーンズ・コーポレイション 情報選択装置及び情報選択方法
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7821541B2 (en) 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
KR101033428B1 (ko) * 2003-05-19 2011-05-09 가부시키가이샤 시로쿠 에어리어 이미지 센서를 사용한 위치 검출 장치
JP5172334B2 (ja) * 2004-06-17 2013-03-27 アドレア エルエルシー タッチスクリーン上の2本指入力の使用
KR20070036077A (ko) * 2004-06-29 2007-04-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 그래픽 사용자 인터페이스의 다중층 디스플레이
CN100480972C (zh) * 2004-06-29 2009-04-22 皇家飞利浦电子股份有限公司 图形用户界面的多层显示
SG121898A1 (en) * 2004-10-06 2006-05-26 Generic Power Pte Ltd System for 2-D and 3-D vision inspection
JP2006277076A (ja) * 2005-03-28 2006-10-12 Fuji Electric Device Technology Co Ltd 画像インターフェイス装置
KR20070037773A (ko) * 2005-10-04 2007-04-09 엘지전자 주식회사 표시기기에서 사용자 명령 입력 장치 및 방법
CN101300520B (zh) * 2005-11-02 2012-11-14 皇家飞利浦电子股份有限公司 用于3维显示的光学系统
US8094136B2 (en) * 2006-07-06 2012-01-10 Flatfrog Laboratories Ab Optical touchpad with three-dimensional position determination
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8354997B2 (en) 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
US20080120568A1 (en) * 2006-11-20 2008-05-22 Motorola, Inc. Method and device for entering data using a three dimensional position of a pointer
JP4985020B2 (ja) 2007-03-27 2012-07-25 セイコーエプソン株式会社 液晶装置、その駆動方法および電子機器
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
CA2699628A1 (en) * 2007-09-14 2009-03-19 Matthew Bell Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
US8487881B2 (en) * 2007-10-17 2013-07-16 Smart Technologies Ulc Interactive input system, controller therefor and method of controlling an appliance
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US8196042B2 (en) * 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI451221B (zh) * 2010-03-11 2014-09-01 Osram Opto Semiconductors Gmbh 可攜式電子裝置
US8861789B2 (en) 2010-03-11 2014-10-14 Osram Opto Semiconductors Gmbh Portable electronic device
TWI485577B (zh) * 2012-05-03 2015-05-21 Compal Electronics Inc 電子裝置及其操作方法

Also Published As

Publication number Publication date
CN102498453B (zh) 2016-04-06
WO2011011009A1 (en) 2011-01-27
EP2457143A1 (en) 2012-05-30
EP2457143A4 (en) 2014-04-09
DE112009004948T5 (de) 2012-07-12
GB2484232B (en) 2015-10-28
WO2011011029A1 (en) 2011-01-27
GB201200636D0 (en) 2012-02-29
CN102498453A (zh) 2012-06-13
US20120113062A1 (en) 2012-05-10
US9176628B2 (en) 2015-11-03
GB2484232A (en) 2012-04-04
CN102498454A (zh) 2012-06-13
CN102498454B (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
TW201108072A (en) Display with an optical sensor
TWI484386B (zh) 具光學感測器之顯示器(一)
US20110267264A1 (en) Display system with multiple optical sensors
CN103052928B (zh) 能使多显示输入实现的系统和方法
KR102011163B1 (ko) 광학 태블릿 스타일러스 및 실내 네비게이션 시스템
US20120120029A1 (en) Display to determine gestures
US8664582B2 (en) Display with an optical sensor
CN102741782A (zh) 用于位置探测的方法和系统
US20120319945A1 (en) System and method for reporting data in a computer vision system
CN102341814A (zh) 姿势识别方法和采用姿势识别方法的交互式输入系统
WO2012054060A1 (en) Evaluating an input relative to a display
US10379680B2 (en) Displaying an object indicator
TW201124892A (en) Display with an optical sensor
US9274547B2 (en) Display with an optical sensor
KR20140147355A (ko) 광학 터치스크린의 위치인식장치
KR20140147347A (ko) 광학 터치스크린의 위치인식장치