TW201326755A - 測距裝置、測距方法及互動式顯示系統 - Google Patents
測距裝置、測距方法及互動式顯示系統 Download PDFInfo
- Publication number
- TW201326755A TW201326755A TW101120697A TW101120697A TW201326755A TW 201326755 A TW201326755 A TW 201326755A TW 101120697 A TW101120697 A TW 101120697A TW 101120697 A TW101120697 A TW 101120697A TW 201326755 A TW201326755 A TW 201326755A
- Authority
- TW
- Taiwan
- Prior art keywords
- image
- object distance
- distance
- lens
- parameters
- Prior art date
Links
Landscapes
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一種測距裝置,包括一取像鏡頭、一影像感測單元及一處理單元。取像鏡頭產生複數個影像參數,其中這些影像參數隨著一物距的變化而有不同的變化。取像鏡頭將一物體成像於影像感測單元上,以形成一影像,且影像感測單元將影像轉換成一電訊號。處理單元根據電訊號與這些影像參數隨著物距的變化,來判斷物體是否落在一預設的物距範圍內。一種測距方法與互動式顯示系統亦被提出。
Description
本發明是有關於一種量測裝置、量測方法及顯示系統,且特別是有關於一種測距裝置、測距方法及互動式顯示系統。
在現今的觸控技術中,以平板電腦或是智慧型手機為例,多透過使用者的手指對該裝置的面板進行實際的按壓或滑動的操作進行控制。另一方面,除了觸控面板之外,亦可使用雙個或多個鏡頭並透過視差的方法來獲得場景內各物體的相對距離。然而,若要在短距離下獲得高精度的距離偵測能力,以雙鏡頭系統為例,則因距離分辨的解析度與鏡頭彼此距離呈正相關,而使整體系統在體積縮小上有其難度。
另外,亦可發射一個額外的偵測光至待測場景,並透過光的飛行時間或是所投射的結構光的變化進行距離的判讀。以飛行時間法為例,由於光速的高速性,對於較近物體的距離判斷上需要能夠處理高頻訊號的電子電路。此外,在投射結構光的方法中,因額外光源與投光裝置的使用,則較難達到低能源損耗與縮小系統體積的要求。另外,雖然也有透過將額外光源對待測場景進行掃描後,透過物體的反射光位置差異來達成人機互動的效果,但卻與投射結構光的方法有相同的問題。
亦有使用單個鏡頭對場景進行多次取像,並透過自動對焦裝置的回饋訊號,來進行距離的判讀。然而,自動對焦通常需一段時間來完成,因此不利於滿足即時人機互動的需求。
本發明之一實施例提出一種測距裝置,其包括一取像鏡頭、一影像感測單元及一處理單元。取像鏡頭使所得影像具備複數個影像參數,其中這些影像參數隨著一物距的變化而有不同的變化。取像鏡頭將一物體成像於影像感測單元上,以形成一影像,且影像感測單元將影像轉換成一電訊號。處理單元根據電訊號與這些影像參數隨著物距的變化而產生的這些不同變化,來判斷物體是否落在一預設的物距範圍內。
本發明之一實施例提出一種測距方法,其包括下列步驟:藉由一取像鏡頭使所得影像具備複數個影像參數,其中這些影像參數隨著一物距的變化而有不同的變化。藉由取像鏡頭將一物體成像,以得到一影像。根據所得到的影像與這些影像參數隨著物距的變化而產生的這些不同變化來判斷物體是否落在一預設的物距範圍內。
本發明之一實施例提出一種互動式顯示系統,其包括一影像產生單元及上述測距裝置。影像產生單元在空間中形成一顯示影像。當處理單元判斷物體落在預設的物距範圍內時,處理單元判斷物體觸碰到顯示影像。
為讓本發明之上述特徵能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
圖1A為本發明之一實施例之互動式顯示系統的示意圖,圖1B繪示圖1A中之處理單元中的子處理單元,圖2為圖1A中之測距裝置的示意圖,圖3A繪示圖2中之取像鏡頭在不同的物距下的點擴散函數之能量分佈,而圖3B為圖2中之取像鏡頭所產生的影像參數隨著物距的變化之曲線圖。請參照圖1A、圖2、圖3A與圖3B,本實施例之互動式顯示系統100包括一影像產生單元110及一測距裝置200。影像產生單元110在空間中形成一顯示影像112。在本實施例中,顯示影像112例如為實像。然而,在其他實施例中,顯示影像112亦可以是虛像。此外,影像產生單元110例如為投影裝置、立體顯示器或任何可以在空間中形成實像或虛像的影像產生裝置。
測距裝置200包括一取像鏡頭300、一影像感測單元210及一處理單元220。取像鏡頭300使所得影像具備複數個影像參數,其中這些影像參數隨著一物距D的變化而有不同的變化。物距D為空間中的物體至取像鏡頭300的距離,例如是物體50至取像鏡頭300中最靠近物側的第一透鏡310之最靠近物側的表面S1在取像鏡頭300的光軸A上的距離。在本實施例中,這些影像參數包括在兩個不同的方向上之影像模糊度數值(blur metric)(或可稱為清晰
度(sharpness)),且這兩個不同的方向可彼此實質上垂直。舉例而言,物體50與測距裝置200所在的空間可利用含有x軸、y軸與z軸的直角座標系來定義,其中x軸、y軸與z軸彼此互相垂直,而這兩個不同的方向例如為x方向與y方向。
影像模糊度數值(blur metric)(或可稱為清晰度(sharpness))是一個與影像的模糊程度有關的數值,這個數值的產生方式可參照期刊SPIE Electronic Imaging Symposium Conf Human Vision and Electronic Imaging,San Jose:Etats-Unis d'Amerique(2007)hal-00232709,version 1-1 Feb 2008中Laboratoire des Images et des Signaux的Frederique Crete,Thierry Dolmiere,Patricia Ladret,Marina Nicolas等人之標題為「The Blur Effect:Perception and Estimation with a New No-Reference Perceptual Blur Metric」的著作,亦可參照師大學報:數理科技類民國95年,51(1),21-31(Journal of Taiwan Normal University:Mathematics,Science & Technology 2006,51(1),21-31)中鍾允中、張祥利、王俊明及陳世旺(Yun-Chung Chung,Shyang-Lih Chang,Jung-Ming Wang及Sei-Wang Chen)等人之標題為「基於邊緣分析之模糊測量標準-於影像處理之應用(An Edge Analysis Based Blur Measure for Image Processing Applications)」的著作,亦可參照期刊ELECTRONICS LETTERS 5th November 2009 Vol.45 No.23之A.Ciancio,A.L.N.T.da Costa,E.A.B.da Silva,A.Said,
R.Samadani及P.Obrador等人之標題為「Objective no-reference image blur metric based on local phase coherence」的著作,亦可參照期刊Optical Engineering(OE)Letters May 2010/Vol.49(5)第050501-1至050501-1頁之Yu Han,Xiaoming Xu,and Yunze Cai等人之標題為「Novel no-reference image blur metric based on block-based discrete cosine transform statistics」的著作,亦可參照Aditya Anchuri Stanford University,MS 2011 Ref:Dr.Joyce Farrell PSYCH 221之標題為「Image Blur Metrics」的著作(此份資料可透過網址http://scien.stanford.edu/pages/labsite/2010/psych221/projects/2010/AdityaAnchuri/main.pdf連結到),亦可參照期刊2009 IEEE International Conference on Imaging Processing(ICIP)第4396-4372頁中Luhong Liang,Jianhua Chen,Siwei Ma,Debin Zhao,Wen Gao等人之標題為「A NO-REFERENCE PERCEPTUAL BLUR METRIC USING HISTOGRAM OF GRADIENT PROFILE SHARPNESS」的著作,亦可參照期刊IEEE TRANSACTIONS ON IMAGE PROCESSING,VOL.20,NO.9,SEPTEMBER 2011的Niranjan D.Narvekar and Lina J.Karam,Senior Member,IEEE等人之標題為「A No-Reference Image Blur Metric Based on the Cumulative Probability of Blur Detection(CPBD)」的著作,亦可參照期刊2002 IEEE International Conference on Imaging Processing(ICIP)之第III-57至III-60頁之Pina Marziliano,
Frederic Dufaux,Stefan Wnkler and Touradj Ebrahimi等人的標題為「A NO-REFERENCE PERCEPTUAL BLUR METRIC」的著作。
在本實施例中,影像模糊度數值越大代表影像越清晰。但在另一實施例中,隨著影像模糊度數值的計算方式的不同,亦可以是影像模糊度數值越大代表影像越模糊,即越不清晰。
取像鏡頭300將物體50成像於影像感測單元210上,以形成一影像,且影像感測單元210將此影像轉換成一電訊號E。在本實施例中,物體50例如為使用者的手指、手、觸控筆或其他適當的觸控物體。此外,影像感測單元210例如為電荷耦合元件(charge coupled device,CCD)、互補式金氧半導體感測元件(complementary metal oxide semiconductor sensor,CMOS sensor)或其他適當的影像感測元件。處理單元220根據電訊號E與這些影像參數隨著物距D的變化而產生的這些不同變化,來判斷物體50是否落在一預設的物距範圍內。在本實施例中,當處理單元220判斷物體50落在預設的物距範圍內時,處理單元判斷物體50觸碰到顯示影像112。換言之,顯示影像112與取像鏡頭300的距離是落在此預設的物距範圍內。
在本實施例中,取像鏡頭300的點擴散函數之能量分佈在兩個不同的方向上的集中程度在不同的物距D上達到極值。舉例而言,在圖3A中,由左而右的點狀分佈圖形分別是隨著物距D增加時,點擴散函數的能量分佈。由圖
3A可知,當物距約為30公分時,點擴散函數在x方向(例如為水平方向)的能量分佈最集中。換言之,在物距約為30公分時,取像鏡頭300在x方向上的影像模糊度數值最大(亦即影像最為清晰),如圖3B所繪示。另一方面,當物距約為26.8公分時,點擴散函數在y方向(例如為鉛直方向)的能量分佈最集中。換言之,在物距約為26.8公分時,取像鏡頭300在y方向上的影像模糊度數值為最大(亦即影像最為清晰),如圖3B所繪示。
在本實施例中,取像鏡頭具有至少一非軸對稱透鏡(在本實施例中是以第一透鏡310為例,如圖2所繪示)。非軸對稱透鏡(如第一透鏡310)具有至少一非軸對稱曲面(在本實施例中是以第一透鏡310的表面S2為例),且非軸對稱曲面(如表面S2)在兩個不同的方向上(如在x方向與y方向上)的形貌不相同,故可使點擴散函數的能量分佈在x方向上與在y方向上分別於不同的物距D上達到最為集中的狀態,亦即使x方向的影像模糊度數值與y方向的影像模糊度數值分別在不同的物距D上達到最大值。
在本實施例中,取像鏡頭300包括由物側至像側依序排列的第一透鏡310、一第二透鏡320、一第三透鏡330、一第四透鏡340及一第五透鏡350,且第一透鏡310、第二透鏡320、第三透鏡330、第四透鏡340及第五透鏡350的屈光度(refractive power)分別為正、負、負、正及負。此外,孔徑光闌(aperture stop)可位置第一透鏡310的表
面S2。
具體而言,第一透鏡310例如為一凸面朝向物側的正彎月形透鏡(positive meniscus lens),第二透鏡320例如為一凸面朝向物側的負彎月形透鏡,第三透鏡330例如為一凸面朝向像側的負彎月形透鏡,第四透鏡340例如為一雙凸透鏡(biconvex lens),且第五透鏡350例如為一雙凹透鏡(biconcave lens)。
以下內容將舉出取像鏡頭300之一實施例。需注意的是,下述之表一中所列的數據資料並非用以限定本發明,任何所屬技術領域中具有通常知識者在參照本發明之後,當可對其參數或設定作適當的更動,惟其仍應屬於本發明之範疇內。
在表一中,間距是指兩相鄰表面間於光軸A上之直線距離,舉例來說,表面S1之間距,即表面S1至表面S2間於光軸A上之直線距離。備註欄中各透鏡所對應之厚度與材質請參照同列中各間距與材質對應之數值與材料編號。
此外,在表一中,表面S1、S2為第一透鏡310的兩表面,表面S3、S4為第二透鏡320的兩表面,表面S5、S6為第三透鏡330的兩表面,表面S7、S8為第四透鏡340的兩表面,且表面S9、S10為第五透鏡350的兩表面。有關於各表面之曲率半徑、間距等參數值,請參照表一,在此不再重述。此外,表面S10那一列的間距的數值為表面S10至影像感測單元210於光軸A上的直線距離。在表面S2那一列的曲率半徑中,接在「x:」後面的數值為表面S2在x方向上之曲率半徑,而接在「y:」後面的數值為表面S2在y方向上之曲率半徑。
再者,上述之表面S1及S3~S10為非球面,而其可用下列公式表示:
式中,Z為光軸A方向之偏移量(sag),c是密切球面(osculating sphere)的半徑之倒數,也就是接近光軸A處的曲率半徑(如表格內表面S1及S3~S10的曲率半徑)的倒數。k是二次曲面係數(conic),r是非球面高度,即為從透鏡中心往透鏡邊緣的高度,而A1、A2、A3、A4、A5...為非球面係數(aspheric coefficient),其中係數A1為
0。表二所列出的是表面S1及S3~S10的參數值。
此外,表面S2在x方向與在y方向的曲率變化不相同,而表面S2可以下式來描述:
其中,
此外,式中,Z為光軸A方向之偏移量(sag),c是密切球面(osculating sphere)的半徑之倒數,也就是接近光軸A處的曲率半徑(如表格內表面S2的曲率半徑)的
倒數。k是二次曲面係數(conic),r是曲面高度,即為從透鏡中心往透鏡邊緣的高度,而Cj為xmyn的係數,x為x座標的位置,而y為y座標的位置,而x=0且y=0的位置是在光軸A上。在本實施例中,C4=2.000E-04(即2.000×10-4),C6=-2.000E-04,且C68=1.000,而其餘的Cj則皆實質上為0。
表三列出取像鏡頭300的規格之一實施例,但本發明不以此為限。表三的左欄列出參數名稱,而右欄列出對應的參數之規格。其中,像高是指所採用的影像感測單元210的像高為3毫米,且影像感測單元210為1/3吋、2百萬畫素的影像感測器。
在本實施例之測距裝置200中,由於在x方向上的模糊度數值與在y方向上的模糊度數值隨著物距D的變化而有不同的變化,因此處理單元220可根據電訊號E中分別
對應於x方向上的模糊度數值與y方向上的模糊度數值的兩個影像數值來決定物體50的物距。在本實施例中,處理單元220可更根據這些影像參數於事前校正所得的閥值,來決定處理單元是否開始根據電訊號判斷物體50是否落在預設的物距範圍內。舉例而言,請參照圖3B,當閥值為0.4時,則當電訊號E中對應至x方向上的模糊度之影像數值及對應至y方向上的模糊度數值之影像數值至少其中之一為0.4以上時,處理單元220開始根據電訊號判斷物體50是否落在預設的物距範圍內,此時處理單元220根據圖3B的關係可得知物距D約落在25.2公分至31.8公分的範圍內。圖3B的關係可在事前(如測距裝置200出廠前)先藉由實驗或校正程序而得知,並將此關係儲存於測距裝置200中,例如儲存於測距裝置200的記憶體中。此外,處理單元220亦可藉由判斷對應至x方向上的模糊度數值之影像數值與對應至y方向上的模糊度數值之影像數值何者較大,來決定物距D是落在25.2公分至27.8公分的範圍內,或落在27.8公分至31.8公分的範圍內。舉例而言,當x方向上的影像數值小於y方向上的影像數值,則處理單元220可判斷出物距D是落在25.2公分至27.8公分的範圍內。
接著,若電訊號E中對應於y方向的模糊度數值之影像數值為0.6時,則處理單元220可進一步縮小物距D的可能範圍,例如可得知物距D為26公分或27.5公分。由於當電訊號E中對應於y方向的模糊度數值之影像數值為
26公分與27.5公分時所對應之x方向的模糊度數值是不相同的,因此處理單元220此時可根據電訊號E中對應於x方向的模糊度數值之影像數值為何,而判斷出物距D是26公分或27.5公分。當顯示影像112與取像鏡頭300的距離為26公分時,則當處理單元220判斷物距D約為26公分時,即可判斷物體50落在預設的物距範圍內,亦即可判斷物體50觸碰到顯示影像112。若處理單元220判斷物距D為27.5公分時,則可判斷物體50尚未落在預設的物距範圍內,亦即判斷出物體50尚未觸碰到顯示影像112,但此時仍可得知物距D為27.5公分。同理,當影像數值為0.4以上的其他數值時,處理單元220亦藉由比較電訊號E中的影像數值與圖3B中的x方向的模糊度數值與y方向的模糊度數值的關係,而判斷出物距D為何。
在本實施例之測距裝置200中,由於x方向的模糊度數值與y方向的模糊度數值在不同的物距D達到極值,且x方向的模糊度數值與y方向的模糊度數值隨著物距D的變化不同,因此測距裝置200的處理單元220可據此判斷出物距D,亦即處理單元220可根據影像參數(即x方向的模糊度數值與y方向的模糊度數值)相對於物距D的變化的極值來選定閥值,並根據極值與閥值來決定物體50的物距。
此外,由於本實施例之測距裝置200採用了複數個影像參數(如x方向的模糊度數值與y方向的模糊度數值)來判斷物距D,因此處理單元220可根據影像感測單元210
於一次拍攝所得到的電訊號E來判斷物體50的物距D,亦即藉由取像鏡頭300對物體50的一次成像所得到的影像來判斷物體50的物距D。如此一來,相較於習測距裝置需經過一段對焦時間完成對焦後才能得知物距,或經由多次拍攝後才能得知物距,本實施例之測距裝置200則能在一次拍攝完成後,經由處理單元220的處理而立即得知物距D。因此,本實施例之測距裝置200能夠快速且立即地判斷出物距D。當測距裝置200重複地拍攝並在每一次拍攝後都立即地判斷出物距D時,測距裝置200即能達到即時(real time)偵測物體50的物距D的效果。
另外,由於本實施例之測距裝置200可採用單一鏡頭來達成物距D的判斷,因此相較於雙鏡頭的測距系統,本實施例之測距裝置200的體積可以較小。再者,由於本實施例之測距裝置200不用透過發出偵測光的方式就可達到物距D的判斷,因此可以不採用額外的光源,如此亦可使本實施例之測距裝置200的體積較小。此外,由於測距裝置200是採用分析影像參數的方式來達到物距D的判斷,因此相較於採用光飛行時間法的測距裝置須採用能夠處理高頻訊號的電子電路,本實施例之測距裝置200可以不採用能夠處理高頻訊號的電子電路,進而能夠降低成本。
請參照圖1A與圖1B,在本實施例中,處理單元220包括一位置判讀子單元222、一影像分割子單元224、一影像計算子單元226及一距離判定子單元228。位置判讀子單元222根據電訊號E決定物體50於垂直於物距D的方
向上的位置,在本實施例中即為判斷物體50所在的x座標與y座標。具體而言,即根據影像感測單元210所測得的影像中對應於物體50的部分在此影像中的x座標與y座標,來反推物體50實際的x座標與y座標。
影像分割子單元224從影像中選取對應於物體50之待分析影像之範圍。舉例而言,影像分割子單元224可分析影像中位於位置判讀子單元222所得到的x座標與y座標附近的部分,以得到待分析影像之範圍。若物體50為手指,則影像分割子單元224則可選擇影像中具有皮膚顏色且位於位置判讀子單元222所得到的x座標與y座標附近的影像之範圍作為待分析影像之範圍。
影像計算子單元226根據所選取的待分析影像計算出分別對應於這些影像參數(如x方向與y方向的模糊度數值)的複數個影像數值。此外,距離判定子單元228根據所計算出的這些影像數值決定物體50的物距D,亦即距離判定子單元228可比較這些影像數值與上述這些影像參數的關係來決定物體50的物距D,這部分的細節在上面的內容已經詳述,因此在此不再重述。
在本實施例中,互動式顯示系統100更包括一中央處理單元120,其電性連接處理單元220與影像產生單元110。當處理單元220判斷出物體50觸碰到顯示影像112時,中央處理單元120可根據處理單元220所判斷出的物體50之x座標與y座標來決定物體50是觸碰到顯示影像112中的哪個物件,這可藉由中央處理單元120映射
(mapping)物體50的x座標與y座標與顯示影像112的x座標與y座標來達成。接著,中央處理單元120便可根據物體50的觸碰方式來決定要如何命令影像產生單元110如何改變顯示影像112。舉例而言,當物體50對顯示影像112中的物件進行點選或拖曳的動作時,則中央處理單元120可命令顯示影像112顯示出對應於點選功能的顯示影像112或移動顯示影像112中的物件的位置。
在本實施例中,物體50的數量可以是一個或多個,當物體的數量為多個時,處理單元220可對影像中對應於多個物體的部分進行分析,如此可使互動式顯示裝置100達到多點觸控的功能。在另一實施例中,處理單元220與中央處理單元120亦可整合在一起。
此外,由於本實施例之互動式顯示系統100採用了測距裝置200,因此可讓使用者與飄浮於空中的顯示影像112產生互動,亦即可模擬使用者接觸及觸控飄浮於空中的顯示影像112的效果。詳言之,由於影像產生單元110在產生顯示影像112的同時,顯示影像112的位置即為已知,因此藉由測距裝置200來確定物體50(例如是使用者的手指)的位置後,即可得知物體50是否有碰到飄浮於空中的顯示影像112,進而根據物體50的運動方式來決定如何改變顯示影像112的顯示內容。
圖4為圖3B中x方向之模糊度數值與y方向之模糊度數值的差值隨著物距的變化之曲線圖。請參照圖1A與圖4,在另一實施例中,處理單元220可根據這些影像參
數的差值(例如為x方向之模糊度數值減掉y方向之模糊度數值所得到的差值)隨著物距D的變化來判斷物體50是否落在預設的物距範圍內。此時,可以不用選定閥值,而可藉由處理單元220判斷電訊號E中之影像數值的差值(例如為x方向之模糊度數值對應的影像數值減掉y方向之模糊度數值對應的影像數值所得到的差值)是否大於零來決定處理單元220是否開始進一步分析出物距D。舉例而言,當影像數值的差值大於零時,且此差值為0.2時,處理單元220可判斷出物距D為25.5公分或27.3公分。或者,可藉由判斷此差值是否達到極值,來判斷物體50是否落在預設的物距範圍內。舉例而言,當顯示影像112與取像鏡頭300的距離為26.8公分時,則處理單元220可藉由判斷此差值是否達到最大值,來決定物體50是否落在預設的物距範圍內,即決定物體50是否觸碰到顯示影像112。
圖5為本發明之另一實施例之互動式顯示系統的示意圖。請參照圖5,本實施例之互動式顯示系統100a與圖1A之互動式顯示系統100類似,而兩者的差異如下所述。在圖1A之互動式顯示系統100中,影像產生單元110與測距裝置200位於顯示影像112的同一側,且使用者的眼睛60與影像產生單元110是位於顯示影像112的相對兩側。然而,在本實施例之互動式顯示系統100a中,影像產生單元110與測距裝置200位於顯示影像112的相對兩側,且使用者的眼睛60與測距裝置200位於顯示影像112的同一
側。
圖6為本發明之又一實施例之互動式顯示系統的示意圖。請參照圖6,本實施例之互動式顯示系統100b與圖5之互動式顯示系統100a類似,而兩者的差異如下所述。在本實施例之互動式顯示系統100b中,影像產生單元110b例如為頭戴式顯示器(head-mounted display,HMD),其配置於使用者的眼睛60前方,而顯示影像112b則為虛像。在本實施例中,影像產生單元110b、使用者的眼睛60及測距裝置200皆位於顯示影像112的同一側。
圖7繪示圖2中之取像鏡頭在不同的物距下的紅光之點擴散函數與綠光之點擴散函數的能量分佈,圖8為圖2中之取像鏡頭所產生的於空間頻率為30線對數/毫米下的離焦調制轉換函數(through focus modulation transfer function,through focus MTF),而圖9為圖2中之取像鏡頭所產生的於x方向上的紅光模糊度數值、x方向上的綠光模糊度數值、y方向上的紅光模糊度數值與y方向上的綠光模糊度數值隨著物距的變化之曲線圖。請參照圖7至圖9,在本實施例中,取像鏡頭300之複數個不同色光的點擴散函數的能量分佈隨著物距D的變化而有不同的變化。具體而言,在本實施例中,取像鏡頭300的軸向色差除以焦距是落在從0.0010到0.0100或從-0.0010到-0.0100的範圍內,此軸向色差例如為這些影像參數所對應的不同色光的軸向色差。舉例而言,在本實施例中,這些影像參數所對應到的色光為紅光與綠光,因此此軸向色差例如是
紅光與綠光的軸向色差,其中紅光的波長例如是640奈米,而綠光的波長例如是550奈米。在另一實施例中,當這些影像參數所對應到的色光為紅光與藍光時,此軸向色差亦可以是紅光與藍光的軸向色差。不同於一般相機鏡頭的設計是盡量降低軸向色差,本實施例之取像鏡頭300反而是具有明顯的軸向色差,以使紅光的模糊度數值與綠光的模糊度數值隨著物距D而有明顯的不同變化。圖7中上排之隨著物距變化之點擴散函數的能量分佈為紅光的點擴散函數的能量分佈,而圖7中下排之隨著物距變化之點擴散函數的能量分佈為綠光的點擴散函數的能量分佈,由圖7可明顯看出紅光的點擴散函數的能量分佈隨著物距的變化明顯不同於綠光的點擴散函數的能量分佈隨著物距的變化。此外,由圖8可知,紅光與綠光在x方向與y方向上之離焦調制轉換函數隨著離焦的程度(即隨著物距D)亦有不同的變化。再者,由圖9可知,取像鏡頭300所產生的x方向上的紅光模糊度數值、x方向上的綠光模糊度數值、y方向上的紅光模糊度數值與y方向上的綠光模糊度數值隨著物距D而有不同的變化。
相較於圖3B之實施例,處理單元220是以兩條曲線的關係為參考基準,並比較電訊號E中對應的影像數值與這兩條曲線來判斷出物距D,本實施例則有四條曲線可以作為參考基準,因此在比較電訊號E中對應的影像數值時,則會產生更多可以比較的基礎,因此本實施例之處理單元220可更為精確地判斷出物距D。在本實施例中,處
理單元220根據這些影像參數(如x方向上的紅光模糊度數值、x方向上的綠光模糊度數值、y方向上的紅光模糊度數值與y方向上的綠光模糊度數值)相對於物距D的變化的極值來決定物體50的物距D。舉例而言,由圖9可知,當y方向上的紅光模糊度數值與x方向上的綠光模糊度數值均達到極值(例如最大值)時,則可判斷出物體50的物距D約為30公分,即判斷物體50是落在預設的物距範圍內。當顯示影像112與取像鏡頭300的距離約為30公分時,則處理單元220可判斷物體50觸碰到顯示影像112。
圖10為圖9中x方向上的紅光模糊度數值與x方向上的綠光模糊度數值的差值、y方向上的紅光模糊度數值與y方向上綠光模糊度數值的差值、y方向上的紅光模糊度數值與x方向上的紅光模糊度數值的差值、y方向上的綠光模糊度數值與x方向上的綠光模糊度數值的差值隨著物距D的變化之曲線圖。請參照圖1A與圖10,在另一實施例中,處理單元220可根據這些影像參數在不同的物距D上的差值隨著物距D的變化來判斷物體50是否落在預設的物距範圍內,其中此差值例如為x方向上的紅光模糊度數值減掉x方向上的綠光模糊度數值所得到的差值、y方向上的紅光模糊度數值減掉y方向上綠光模糊度數值所得到的差值、y方向上的紅光模糊度數值減掉x方向上的紅光模糊度數值所得到的差值及y方向上的綠光模糊度數值減掉x方向上的綠光模糊度數值所得到的差值。在本實施例中,可利用四個不同的差值隨著物距D的變化來判斷
物體50是否落在預設的物距範圍內,且可求得物距D。由於相較於圖4的實施例,本實施例可以據以判斷的差值較多,因此可更為準確地判斷物體50是否落在預設的物距範圍內。舉例而言,可利用y方向的紅光模糊度數值減掉x方向的紅光模糊度數值所得到的差值及x方向的綠光模糊度數值減掉x方向的綠光模糊度數值所得到的差值,來決定處理單元220是否開始判斷物體50是否進入預設的物距範圍或開始詳細分析電訊號E以得到物距D。之後,再透過x方向的紅光模糊度數值減掉x方向的綠光模糊度數值所得到的差值及y方向的紅光模糊度數值減掉y方向的綠光模糊度數值所得到的差值,來判斷物體50是否落在預設的物距範圍內,或計算出物體50的物距D。
圖11為本發明之再一實施例之取像鏡頭的示意圖,而圖12A至圖12G分別為圖11之取像鏡頭於空間頻率為10線對數/毫米、20線對數/毫米、30線對數/毫米、40線對數/毫米、50線對數/毫米、100線對數/毫米及200線對數/毫米時的離焦調制轉換函數之曲線圖,其中圖12A至圖12G的每一張圖中繪示了場為0.6(即視場角為9.79度)及場為1.0(即視場角為16.05度)且分別於切線方向(tangential direction)與弧矢方向(sagittal direction)的離焦調制轉換函數之曲線,其中英文字母「T」左邊的線條代表圖中線條形式與其相同的曲線是切線方向的離焦調制轉換函數之曲線,而英文字母「R」左邊的線條代表圖中線條形式與其相同的曲線是弧矢方向的離焦調制轉換函
數之曲線。舉例而言,在圖中「場0.6」左邊的「T」之左邊的線條代表圖中線條形式與其相同的曲線是在場為0.6處的切線方向的離焦調制轉換函數之曲線,而在「場0.6」左邊的「R」之左邊的線條代表圖中線條形式與其相同的曲線是在場為0.6處的弧矢方向的離焦調制轉換函數之曲線,而其餘的線條形式之曲線的物理義意可以此類推。圖13A至圖13C分別為圖11之取像鏡頭於物距34公分、33公分及32公分處的點擴散函數之能量分佈圖,而圖14為圖11之取像鏡頭在一特定的空間頻率下於x方向及y方向之模糊度數值。請先參照圖11及圖13A至圖13C,本實施例之取像鏡頭300c亦可用以取代圖1A及圖2中的取像鏡頭300,以應用在圖1A之測距裝置200與互動式顯示系統100中。本實施例之取像鏡頭300的點擴散函數的能量分佈隨著物距D的變化實質上並不會在不同的方向上(例如在x方向與y方向上)有不同的變化,亦即點擴散函數隨著物距D的變化實質上不具有方向性的差異。由圖13A至圖13C可知,當物距從34公分變為33公分時,點擴散函數在各個方向上均同時變得更為集中,而當物距從33公分變化32公分時,點擴散函數在各個方向上均同時變得更為發散。圖13A至圖13C中所列之史特瑞比率(Strehl ratio)與點擴散函數的集中程度有關。當史特瑞比率越大時,點擴散函數越為集中。
本實施例之取像鏡頭300c包括由物側至像側依序排列的一第一透鏡310c、一第二透鏡320c、一第三透鏡
330c、一第四透鏡340c及一第五透鏡350c,且第一透鏡310c、第二透鏡320c、第三透鏡330c、第四透鏡340c及第五透鏡350c的屈光度分別為正、負、正、正及負。在本實施例中,第一透鏡310c例如為凸面朝向物側的正彎月形透鏡,第二透鏡320c例如為凸面朝向物側的負彎月形透鏡,第三透鏡330c例如為雙凸透鏡,第四透鏡340c例如為凸面朝向物側的正彎月形透鏡,且第五透鏡350c例如為雙凹透鏡。
以下內容將舉出取像鏡頭300c之一實施例,但本發明不以此為限。
在表四中各物理量的說明可參照表一的說明。此外,在表四中,表面S1c、S2c為第一透鏡310c的兩表面,其
中表面S1c為孔徑光闌。表面S3c、S4c為第二透鏡320c的兩表面,表面S5c、S6c為第三透鏡330c的兩表面,表面S7c、S8c為第四透鏡340c的兩表面,且表面S9c、S10c為第五透鏡350c的兩表面。有關於各表面之曲率半徑、間距等參數值,請參照表四,在此不再重述。此外,表面S10c那一列的間距的數值為表面S10c至影像感測單元210於光軸A上的直線距離。
再者,上述之表面S1c~S10c為非球面,而其可採用上述用以表示S1、S3~S10的非球面公式表示,而公式中各參數的說明請參照上述對S1、S3~S10的非球面公式的說明,在此不再重述。在本實施例中,係數A1為0。表五所列出的是表面S1c~S10c的非球面參數值。
表六列出取像鏡頭300c的規格之一實施例,但本發明不以此為限。表六中各參數的說明請參照上述對表三的各參數之說明。
請再參照圖11及圖12A至圖12G,從圖12A至圖12G可知,當物體50位於取像鏡頭300c的最佳物距時,由於取像鏡頭300c所擷取之物體的影像有較多的高頻訊號,因此會有較為清晰的影像,而影像清晰度會隨物距D偏離取像鏡頭300c的最佳物距而逐漸下降。根據此特性,處理單元220可透過分析出影像於各空間頻率所對應到之影像參數,並透過比較複數個空間頻率所對應的影像參數的不同變化或是再比對不同色光的影像參數的不同變化所得到的關係,再與電訊號E比較,以判斷出物體50是否落在預設的物距範圍內,或計算出物體50的物距D。在本實施例中,這些影像參數包括複數個不同空間頻率之影像模糊度
數值。
此外,亦可根據不同空間頻率之影像求得x方向的影像模糊度數值與y方向的影像模糊度數值。如圖14所繪示,即某一特定的空間頻率之x方向影像模糊度與y方向影像模糊度隨著物距D的變化之曲線圖。藉由比較圖14之兩條曲線的關係,再將電訊號E與此關係比較,處理單元220便能夠判斷出物體50是否落在預設的物距範圍內,或計算出物體50的物距D。利用圖14之兩條曲線來判斷出物體50是否落在預設的物距範圍內或計算出物體50的物距D的細節可採用類似於上述其他實施例中的方法,再此不再詳述。
圖15為圖14中在一特定的空間頻率下於x方向之模糊度數值變化的斜率及y方向之模糊度數值變化的斜率相對於物距的曲線圖。請參照圖11、圖14與圖15,圖15中的兩條曲線可視為將圖14中的兩條曲線對物距微分後所得到的導函數。當所取的物距數值不連續時,則圖15曲線上對應於某一物距之的縱軸數值即為圖14中對應的曲線於該物距的點與其相鄰的點的連線之斜率。在本實施例中,處理單元220更根據這些影像參數隨著物距D的變化之斜率相對於物距D的變化而產生的不同變化來判斷物體50是否落在預設的物距範圍內。換言之,如圖15所繪示,x方向的模糊度數值變化的斜率與y方向的模糊度數值變化的斜率隨著物距D的變化並不相同,因此處理單元220可據此與電訊號E比對,並判斷物體50是否落在預設
的物距範圍內,或計算出物體50的物距D。
圖16為本發明之另一實施例之取像鏡頭的示意圖,圖17為圖16之取像鏡頭的紅光點擴散函數之能量分佈圖與綠光點擴散函數之能量分佈圖,而圖18為圖16之取像鏡頭所產生的x方向紅光模糊度數值、y方向紅光模糊度數值、x方向綠光模糊度數值及y方向綠光模糊度數值隨著物距的變化之曲線圖。請參照圖16、圖17及圖18,本實施例之取像鏡頭300d亦可用以取代圖1A及圖2中的取像鏡頭300,以應用在圖1A之測距裝置200與互動式顯示系統100中。相較於圖11之取像鏡頭300c,本實施例之取像鏡頭300d除了在不同的物距會有模糊度數值的變化之外,更會使不同色光(例如紅光與綠光)的最佳成像物距大於所要達成的距離判斷程度。舉例而言,可使紅光與綠光的最佳成像物距的差異大於1公分,藉此增進處理單元220對物體50的距離的判斷精確度。
本實施例之取像鏡頭300d包括由物側至像側依序排列的一第一透鏡310d、一第二透鏡320d、一第三透鏡330d、一第四透鏡340d及一第五透鏡350d,且第一透鏡310d、第二透鏡320d、第三透鏡330d、第四透鏡340d及第五透鏡350d的屈光度分別為正、負、負、正及負。在本實施例中,第一透鏡310d例如為雙凸透鏡,第二透鏡320d例如為凸面朝向物側的負彎月形透鏡,第三透鏡330d例如為凸面朝向像側的負彎月形透鏡雙凸透鏡,第四透鏡340d例如為雙凸透鏡,且第五透鏡350d例如為雙凹透鏡。
以下內容將舉出取像鏡頭300d之一實施例,但本發明不以此為限。
在表七中各物理量的說明可參照表一的說明。此外,在表七中,表面S1d、S2d為第一透鏡310d的兩表面,其中表面S1d為孔徑光闌。表面S3d、S4d為第二透鏡320d的兩表面,表面S5d、S6d為第三透鏡330d的兩表面,表面S7d、S8d為第四透鏡340d的兩表面,且表面S9d、S10d為第五透鏡350d的兩表面。有關於各表面之曲率半徑、間距等參數值,請參照表七,在此不再重述。此外,表面S10d那一列的間距的數值為表面S10d至影像感測單元210於光軸A上的直線距離。
再者,上述之表面S1d~S10d為非球面,而其可採用
上述用以表示S1、S3~S10的非球面公式表示,而公式中各參數的說明請參照上述對S1、S3~S10的非球面公式的說明,在此不再重述。在本實施例中,係數A1為0。表八所列出的是表面S1d~S10d的非球面參數值。
表九列出取像鏡頭300d的規格之一實施例,但本發明不以此為限。表九中各參數的說明請參照上述對表三的各參數之說明。
由圖17可知,本實施例之取像鏡頭300d的點擴散函數除了在能量分佈上隨物距D的變化而有集中或發散的變化之外,不同色光的最佳物距亦有所不同。舉例而言,圖17中的上排繪示紅光的點擴散函數的能量分佈,而下排繪示綠光的點擴散函數的能量分佈,而紅光的最佳物距是在32公分,且綠光的最佳物距是在28公分。因此,處理單元220根據影像對於不同色光的清晰度,或更進一步分析不同色光影像中對應於不同空間頻率之影像參數(例如模糊度數值),亦可判斷物體50的物距D是否落在預設的物距範圍內,或計算出物體50的物距D。具體而言,如圖18所示,可比較電訊號E與圖18之四條曲線的關系,來
判斷物體50的物距D是否落在預設的物距範圍內,或計算出物體50的物距D。
圖19為圖18中x方向上的紅光模糊度數值與x方向上的綠光模糊度數值的差值及y方向上的紅光模糊度數值與y方向上綠光模糊度數值的差值隨著物距D的變化之曲線圖。請參照圖19,在另一實施例中,處理單元220可根據這些影像參數在不同的物距D上的差值隨著物距D的變化來判斷物體50是否落在預設的物距範圍內,其中此差值例如為x方向上的紅光模糊度數值減掉x方向上的綠光模糊度數值所得到的差值及y方向上的紅光模糊度數值減掉y方向上綠光模糊度數值所得到的差值。在本實施例中,可利用此兩個不同的差值隨著物距D的變化來判斷物體50是否落在預設的物距範圍內,且可求得物距D。相較於圖18之實施例,採用圖19的曲線關係之實施例可以不需選定影像參數的閥值,而是透過判斷此差值的極值與零點來決定處理單元220是否開始判斷物體50是否落在預設的物距範圍內或開始計算物體50的物距。
除了如上述實施例以一次拍攝所得到的影像數值來判斷物體50是否落在預設的物距範圍內或計算出物體50的物距D之外,在其他實施例中,處理單元220亦可藉由比對不同時間所得到的這些影像數值的相對變化來決定物體50的物距D,進而增進物距D判斷的準確度。或者,處理單元220可藉由比對不同時間所得到的這些影像數值與其所對應的這些影像參數於事前校正所得的閥值來決定
物體50的物距D。
在上述的實施例中,處理單元220例如為處理電路或儲存於電腦可讀取媒體中的軟體。
圖20繪示圖1之處理單元的處理流程之一實施例。請參照圖20,處理單元220的處理程序可包括下列步驟。首先,處理單元220可先執行步驟P110,即進行初始化校正,以得到上述各種與影像參數相關的曲線關係的至少其中之一,例如圖3B、圖4、圖9、圖10、圖14、圖15、圖18及圖19中的至少其中一張圖所繪示的關係。接著,執行步驟P120,即擷取影像,亦即擷取來自影像感測單元210的電訊號E,以獲得影像的資訊。然後,執行步驟P132、P134及P136,即分析步驟P120所得到的影像資訊,而得到對應於不同影像參數(如上述實施例之不同的影像模糊度數值)的影像數值,其中這些影像數值的種類例如為N種,其中N為大於等於2的正整數。之後,執行步驟P140,即藉由比較步驟P132、P134及P136所得到的N種影像數值與步驟P110初始化校正時所得到的各影像參數關係,而判斷物體50是否落入預設的物距範圍內。然後,執行步驟P150,即根據步驟P120所擷取的影像資訊來判斷物體50的x座標與y座標。當物體50是指尖時,可透過分析影像中膚色區域所在的位置來判斷出指尖的x座標與y座標。再來,可執行步驟P160,即產生使用者介面的互動。具體而言,可根據步驟P150時所判斷的指尖觸碰位置來決定如何產生使用者介面的互動,例如產生對影像
中的物件的點選、拖曳或其他功能。此外,在經過步驟P110的初始化校正後,使用者可根據使用需求再校正參數,進而提升使用者介面互動的準確性。另外,透過使用者介面的互動,使用者亦可指示處理單元220再擷取影像,以進行物體50的物距D及位置的判斷。在其他實施例中,步驟P150亦可在步驟P140之前執行,例如是在步驟P120與步驟P132、P134、P136之間執行,此時步驟P150可進行影像分割,而從步驟P120中所得到的影像進一步分割出物體50(如指尖)的影像,而接下來所進行的步驟P132、P134、P136則可以僅分析分割出的物體50的影像,進而簡化分析的數據及過程。
圖21繪示處理單元計算出影像模糊度數值的流程之一實施例。請參照圖21,上述實施例之模糊度計算方法可採用以上所引述的論文中的任何一種方法,或採用其他模糊度計算方法。在此舉出其中一種模糊度計算方法為例,但本發明不以此為限。圖21的方法是將影像模糊視為是清晰影像與高斯函數的摺積(convolution),藉由對原始影像作再次模糊(re-blur),以比較再次模糊前後的差異,進而推算出模糊程度的數值。舉例而言,如圖21所繪示,圖中之計算影像模糊度數值的流程包括下列步驟。首先,如步驟Q110所繪示,從影像感測單元210獲得一原始影像(source image),亦即從來自影像感測單元210的電訊號E得到此原始影像資訊。接著,執行步驟Q122與步驟Q124,即利用兩個不同的模糊半徑1與模糊半徑2來對原
始影像作模糊處理,以分別得到模糊影像1與模糊影像2,其中模糊半徑與高斯函數的寬度有關。換言之,即將原始影像分別與兩個不同寬度的高斯函數作摺積運算,以得到兩個不同的模糊影像。之後,執行步驟Q130,即藉由比較模糊影像1、模糊影像2與原始影像來估計模糊度數值。接著,在步驟Q140時便可得到模糊度數值。
當模糊度計算方法應用在如圖3A那種會產生像散式像差的實施例時,可將再次模糊的運算核心(kernel)分成x軸與y軸兩種模糊(blur),且藉由比較x軸與y軸的模糊度數值的差異來判斷物體50是否落在預設的物距範圍內。此外,當模糊度計算方法應用在如圖17那種會產生色差式像差的實施例時,可將影像分成紅色通道(channel)的影像與綠色通道的影像,且分別計算兩個通道的模糊度數值。此時,模糊度數值隨著物距D的分佈將出現如圖22所繪示之雙高斯分佈,其中圖22為本發明之一實施例之具有色差式像差的取像鏡頭之調制轉換函數曲線圖。此時,可將模糊度數值大於某閥值的像素視為在對焦(in focus)區,如區域R1為綠光的對焦區,而區域R2為紅光的對焦區。取紅色通道的對焦區與綠色通道的對焦區的交集區域(即圖22中填滿斜線的區域)作為觸發區(例如此時開始判斷物體50是否落在預設的物距範圍,或開始計算物體50的物距D),以增進判斷物距D的準確度。
圖23為本發明之一實施例之測距方法的流程圖。請參照圖1A與圖23,本實施例之測距方法可應用於圖1A
之測距裝置200中或其他實施例之測距裝置中,而以下以圖1A之測距裝置200為例進行說明。本實施例之測距方法包括下列步驟。首先,執行步驟S110,藉由取像鏡頭300產生複數個影像參數,其中這些影像參數隨著物距D的變化而有不同的變化。取像鏡頭300產生複數個影像參數的細節可參照上述各實施例,在此不再重述。接著,執行步驟S120,藉由取像鏡頭300將物體50成像,以得到一影像,例如是在影像感測單元210上形成影像。在影像感測單元上形成影像的細節可參照上述實施例的說明,在此不再重述。之後,執行步驟S130,根據所得到的影像與這些影像參數隨著物距的變化而產生的這些不同變化來判斷物體50是否落在預設的物距範圍內。在本實施例中,所得到的影像即為圖1A中的電訊號E所包含的影像資訊。此外,判斷物體50是否落在預設的物距範圍內及物距D的計算方法的細節可參照上述實施例的說明,在此不再重述。換言之,步驟S130可由處理單元220所執行。另外,本實施例之測距方法可分析影像,以得到分別對應於這些影像參數的這些影像數值,其中分析影像例如是分析電訊號E。再者,本實施例之測距方法可從影像中選取對應於物體50之待分析影像之範圍,例如是從電訊號E中之影像資訊來選取。
綜上所述,在本發明之實施例之測距裝置與測距方法中,由於採用了複數個影像參數隨著物距的變化而產生的不同變化來判斷物體是否落在預設的物距範圍內或計算出
物體的物距,因此可提升判斷與計算的準確度,且可提升測距的速度,進而達到即時測距的效果。此外,由於本發明之實施例之互動式顯示系統採用了上述之測距裝置,因此可讓使用者與飄浮於空中的顯示影像產生互動,亦即可模擬使用者接觸並觸控飄浮於空中的顯示影像的效果。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作些許之更動與潤飾,故本發明之保護範圍當視後附之申請專利範圍所界定者為準。
50‧‧‧物體
60‧‧‧眼睛
100、100a、100b‧‧‧互動式顯示系統
110、110b‧‧‧影像產生單元
112、112b‧‧‧顯示影像
120‧‧‧中央處理單元
200‧‧‧測距裝置
210‧‧‧影像感測單元
220‧‧‧處理單元
222‧‧‧位置判讀子單元
224‧‧‧影像分割子單元
226‧‧‧影像計算子單元
228‧‧‧距離判定子單元
300、300c、300d‧‧‧取像鏡頭
310、310c、310d‧‧‧第一透鏡
320、320c、320d‧‧‧第二透鏡
330、330c、330d‧‧‧第三透鏡
340、340c、340d‧‧‧第四透鏡
350、350c、350d‧‧‧第五透鏡
A‧‧‧光軸
D‧‧‧物距
E‧‧‧電訊號
P110、P120、P132、P134、P136、P140、P150、P160、Q110、Q122、Q124、Q130、Q140、S110~S130‧‧‧步驟
R1、R2‧‧‧區域
S1~S10、S1c~S10c、S1d~S10d‧‧‧表面
圖1A為本發明之一實施例之互動式顯示系統的示意圖。
圖1B繪示圖1A中之處理單元中的子處理單元。
圖2為圖1A中之測距裝置的示意圖。
圖3A繪示圖2中之取像鏡頭在不同的物距下的點擴散函數之能量分佈。
圖3B為圖2中之取像鏡頭所產生的影像參數隨著物距的變化之曲線圖。
圖4為圖3B中x方向之模糊度數值與y方向之模糊度數值的差值隨著物距的變化之曲線圖。
圖5為本發明之另一實施例之互動式顯示系統的示意圖。
圖6為本發明之又一實施例之互動式顯示系統的示意
圖。
圖7繪示圖2中之取像鏡頭在不同的物距下的紅光之點擴散函數與綠光之點擴散函數的能量分佈。
圖8為圖2中之取像鏡頭所產生的於空間頻率為30線對數/毫米下的離焦調制轉換函數。
圖9為圖2中之取像鏡頭所產生的於x方向上的紅光模糊度數值、x方向上的綠光模糊度數值、y方向上的紅光模糊度數值與y方向上的綠光模糊度數值隨著物距的變化之曲線圖。
圖10為圖9中x方向上的紅光模糊度數值與x方向上的綠光模糊度數值的差值、y方向上的紅光模糊度數值與y方向上綠光模糊度數值的差值、y方向上的紅光模糊度數值與x方向上的紅光模糊度數值的差值、y方向上的綠光模糊度數值與x方向上的綠光模糊度數值的差值隨著物距D的變化之曲線圖。
圖11為本發明之再一實施例之取像鏡頭的示意圖。
圖12A至圖12G分別為圖11之取像鏡頭於空間頻率為10線對數/毫米、20線對數/毫米、30線對數/毫米、40線對數/毫米、50線對數/毫米、100線對數/毫米及200線對數/毫米時的離焦調制轉換函數之曲線圖。
圖13A至圖13C分別為圖11之取像鏡頭於物距34公分、33公分及32公分處的點擴散函數之能量分佈圖。
圖14為圖11之取像鏡頭在一特定的空間頻率下於x方向及y方向之模糊度數值。
圖15為圖14中在一特定的空間頻率下於x方向之模糊度數值變化的斜率及y方向之模糊度數值變化的斜率相對於物距的曲線圖。
圖16為本發明之另一實施例之取像鏡頭的示意圖。
圖17為圖16之取像鏡頭的紅光點擴散函數之能量分佈圖與綠光點擴散函數之能量分佈圖。
圖18為圖16之取像鏡頭所產生的x方向紅光模糊度數值、y方向紅光模糊度數值、x方向綠光模糊度數值及y方向綠光模糊度數值隨著物距的變化之曲線圖。
圖19為圖18中x方向上的紅光模糊度數值與x方向上的綠光模糊度數值的差值及y方向上的紅光模糊度數值與y方向上綠光模糊度數值的差值隨著物距D的變化之曲線圖。
圖20繪示圖1之處理單元的處理流程之一實施例。
圖21繪示處理單元計算出影像模糊度數值的流程之一實施例。
圖22為本發明之一實施例之具有色差式像差的取像鏡頭之調制轉換函數曲線圖。
圖23為本發明之一實施例之測距方法的流程圖。
50‧‧‧物體
60‧‧‧眼睛
100‧‧‧互動式顯示系統
110‧‧‧影像產生單元
112‧‧‧顯示影像
120‧‧‧中央處理單元
200‧‧‧測距裝置
210‧‧‧影像感測單元
220‧‧‧處理單元
300‧‧‧取像鏡頭
D‧‧‧物距
E‧‧‧電訊號
Claims (42)
- 一種測距裝置,包括:一取像鏡頭,使該取像鏡頭的所得影像具備複數個影像參數,其中該些影像參數隨著一物距的變化而有不同的變化;一影像感測單元,其中該取像鏡頭將一物體成像於該影像感測單元上,以形成一影像,且該影像感測單元將該影像轉換成一電訊號;以及一處理單元,根據該電訊號與該些影像參數隨著該物距的變化而產生的該些不同變化,來判斷該物體是否落在一預設的物距範圍內。
- 如申請專利範圍第1項所述之測距裝置,其中該些影像參數包括在兩個不同的方向上之影像模糊度數值。
- 如申請專利範圍第2項所述之測距裝置,其中該兩個不同的方向彼此實質上垂直。
- 如申請專利範圍第1項所述之測距裝置,其中該些影像參數包括複數個不同色光之影像模糊度數值。
- 如申請專利範圍第1項所述之測距裝置,其中該些影像參數包括複數個不同空間頻率之影像模糊度數值。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元更根據該些影像參數的差值隨著該物距的變化來判斷該物體是否落在該預設的物距範圍內。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元更根據該些影像參數隨著該物距的變化之斜率相 對於該物距的變化而產生的不同變化來判斷該物體是否落在該預設的物距範圍內。
- 如申請專利範圍第1項所述之測距裝置,其中該取像鏡頭的點擴散函數之能量分佈在兩個不同的方向上的集中程度在不同的該物距上達到極值。
- 如申請專利範圍第8項所述之測距裝置,其中該兩個不同的方向彼此實質上垂直。
- 如申請專利範圍第8項所述之測距裝置,其中該取像鏡頭具有至少一非軸對稱透鏡,該非軸對稱透鏡具有至少一非軸對稱曲面,且該非軸對稱曲面在該兩個不同的方向上的形貌不相同。
- 如申請專利範圍第1項所述之測距裝置,其中該取像鏡頭之複數個不同色光的點擴散函數的能量分佈隨著該物距的變化而有不同的變化。
- 如申請專利範圍第11項所述之測距裝置,其中該取像鏡頭的軸向色差除以焦距是落在從0.0010到0.0100或從-0.0010到-0.0100的範圍內,且該軸向色差為該些影像參數所對應的不同色光的軸向色差。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元更根據該些影像參數於事前校正所得的閥值,來決定該處理單元是否開始根據該電訊號判斷該物體是否落在該預設的物距範圍內。
- 如申請專利範圍第13項所述之測距裝置,其中項所述之處理單元更根據該些影像參數相對於該物距的變化 的極值來決定該物體的物距。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元更根據該些影像參數相對於該物距的變化的極值來決定該物體的物距。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元處理該電訊號,以得到分別對應於該些影像參數的複數個影像數值,且該處理單元藉由比對不同時間所得到的該些影像數值的相對變化來決定該物體的物距。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元處理該電訊號,以得到分別對應於該些影像參數的複數個影像數值,且該處理單元藉由比對不同時間所得到的該些影像數值與該些影像參數於事前校正所得的閥值來決定該物體的物距。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元根據影像感測單元於一次拍攝所得到的該電訊號來判斷該物體的物距。
- 如申請專利範圍第1項所述之測距裝置,其中該處理單元包括:一位置判讀子單元,根據該電訊號決定該物體於垂直於該物距的方向上的位置;一影像分割子單元,從該影像中選取對應於該物體之待分析影像之範圍;一影像計算子單元,根據所選取的該待分析影像計算出分別對應於該些影像參數的複數個影像數值;以及 一距離判定子單元,根據所計算出的該些影像數值決定該物體的物距。
- 一種測距方法,包括:藉由一取像鏡頭使其所得影像具備複數個影像參數,其中該些影像參數隨著一物距的變化而有不同的變化;藉由該取像鏡頭將一物體成像,以得到一影像;以及根據所得到的該影像與該些影像參數隨著該物距的變化而產生的該些不同變化來判斷該物體是否落在一預設的物距範圍內。
- 如申請專利範圍第20項所述之測距方法,其中該些影像參數包括在兩個不同的方向上之影像模糊度數值。
- 如申請專利範圍第21項所述之測距方法,其中該兩個不同的方向彼此實質上垂直。
- 如申請專利範圍第20項所述之測距方法,其中該些影像參數包括複數個不同色光之影像模糊度數值。
- 如申請專利範圍第20項所述之測距方法,其中該些影像參數包括複數個不同空間頻率之影像模糊度數值。
- 如申請專利範圍第20項所述之測距方法,其中判斷該物體是否落在該預設的物距範圍內的方法包括:根據該些影像參數的差值隨著該物距的變化來判斷該物體是否落在該預設的物距範圍內。
- 如申請專利範圍第20項所述之測距方法,其中判斷該物體是否落在該預設的物距範圍內的方法包括:根據該些影像參數隨著該物距的變化之斜率相對於 該物距的變化而產生的不同變化來判斷該物體是否落在該預設的物距範圍內。
- 如申請專利範圍第20項所述之測距方法,其中藉由該取像鏡頭產生該些影像參數的方法包括使該取像鏡頭的點擴散函數之能量分佈在兩個不同的方向上的集中程度在不同的該物距上達到極值。
- 如申請專利範圍第27項所述之測距方法,其中該兩個不同的方向彼此實質上垂直。
- 如申請專利範圍第20項所述之測距方法,其中藉由該取像鏡頭產生該些影像參數的方法包括:使該取像鏡頭之複數個不同色光的點擴散函數的能量分佈隨著該物距的變化而有不同的變化。
- 如申請專利範圍第29項所述之測距方法,其中使該取像鏡頭之該些不同色光的點擴散函數的能量分佈隨著該物距的變化而有不同的變化的方法包括:使該取像鏡頭的軸向色差除以焦距落在從0.0010到0.0100或從-0.0010到-0.0100的範圍內,其中該軸向色差為該些影像參數所對應的不同色光的軸向色差。
- 如申請專利範圍第20項所述之測距方法,其中判斷該物體是否落在該預設的物距範圍內的方法包括:根據該些影像參數於事前校正所得的閥值,來決定是否開始根據該影像判斷該物體是否落在該預設的物距範圍內。
- 如申請專利範圍第31項所述之測距方法,更包括: 根據該些影像參數相對於該物距的變化的極值來決定該物體的物距。
- 如申請專利範圍第20項所述之測距方法,更包括:根據該些影像參數相對於該物距的變化的極值來決定該物體的物距。
- 如申請專利範圍第20項所述之測距方法,更包括:分析該影像,以得到分別對應於該些影像參數的複數個影像數值;以及藉由比對不同時間所得到的影像數值的相對變化來決定該物體的物距。
- 如申請專利範圍第20項所述之測距方法,更包括:分析該影像,以得到分別對應於該些影像參數的複數個影像數值;以及藉由比對不同時間所得到的該些影像數值與該些影像參數於事前校正所得的閥值來決定該物體的物距。
- 如申請專利範圍第20項所述之測距方法,更包括:藉由該取像鏡頭對該物體的一次成像所得到一個該影像來判斷該物體的物距。
- 如申請專利範圍第20項所述之測距方法,更包括:根據該影像決定該物體於垂直於該物距的方向上的位置;從該影像中選取對應於該物體之待分析影像之範圍;根據所選取的該待分析影像計算出分別對應於該些影像參數的複數個影像數值;以及 根據所計算出的該些影像數值決定該物體的物距。
- 一種互動式顯示系統,包括:一影像產生單元,在空間中形成一顯示影像;以及一測距裝置,包括:一取像鏡頭,產生複數個影像參數,其中該些影像參數隨著一物距的變化而有不同的變化;一影像感測單元,其中該取像鏡頭將一物體成像於該影像感測單元上,以形成一物體的影像,且該影像感測單元將該物體的影像轉換成一電訊號;以及一處理單元,根據該電訊號與該些影像參數隨著該物距的變化而產生的該些不同變化,來判斷該物體是否落在一預設的物距範圍內,且當該處理單元判斷該物體落在該預設的物距範圍內時,該處理單元判斷該物體觸碰到該顯示影像。
- 如申請專利範圍第38項所述之互動式顯示系統,其中該顯示影像為實像。
- 如申請專利範圍第38項所述之互動式顯示系統,其中該顯示影像為虛像。
- 如申請專利範圍第38項所述之互動式顯示系統,其中該影像產生單元與該測距裝置位於該顯示影像的相對兩側。
- 如申請專利範圍第38項所述之互動式顯示系統,其中該影像產生單元與該測距裝置位於該顯示影像的同一側。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/653,418 US9098147B2 (en) | 2011-12-29 | 2012-10-17 | Ranging apparatus, ranging method, and interactive display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161581098P | 2011-12-29 | 2011-12-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201326755A true TW201326755A (zh) | 2013-07-01 |
Family
ID=48676868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW101120697A TW201326755A (zh) | 2011-12-29 | 2012-06-08 | 測距裝置、測距方法及互動式顯示系統 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN103185568B (zh) |
TW (1) | TW201326755A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI782280B (zh) * | 2020-06-01 | 2022-11-01 | 財團法人國家實驗研究院 | 應用於遙測衛星的自動對焦方法及該遙測衛星 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170099427A1 (en) * | 2015-10-05 | 2017-04-06 | Google Inc. | Methods and apparatuses for providing improved autofocus using curve-fitting |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001056010A1 (en) * | 2000-01-26 | 2001-08-02 | New York University | Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data |
US20060197756A1 (en) * | 2004-05-24 | 2006-09-07 | Keytec, Inc. | Multi-mode optical pointer for interactive display system |
US7929801B2 (en) * | 2005-08-15 | 2011-04-19 | Sony Corporation | Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory |
US8310587B2 (en) * | 2007-12-04 | 2012-11-13 | DigitalOptics Corporation International | Compact camera optics |
JP5278854B2 (ja) * | 2007-12-10 | 2013-09-04 | 富士フイルム株式会社 | 画像処理システムおよびプログラム |
JP2010288150A (ja) * | 2009-06-12 | 2010-12-24 | Toshiba Corp | 固体撮像装置 |
KR101043450B1 (ko) * | 2009-07-31 | 2011-06-21 | 삼성전기주식회사 | 카메라를 이용한 위치와 거리 측정장치 및 위치와 거리 측정방법 |
US20110187678A1 (en) * | 2010-01-29 | 2011-08-04 | Tyco Electronics Corporation | Touch system using optical components to image multiple fields of view on an image sensor |
US8406510B2 (en) * | 2010-03-10 | 2013-03-26 | Industrial Technology Research Institute | Methods for evaluating distances in a scene and apparatus and machine readable medium using the same |
US8305485B2 (en) * | 2010-04-30 | 2012-11-06 | Eastman Kodak Company | Digital camera with coded aperture rangefinder |
-
2012
- 2012-06-08 TW TW101120697A patent/TW201326755A/zh unknown
- 2012-08-17 CN CN201210294992.4A patent/CN103185568B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI782280B (zh) * | 2020-06-01 | 2022-11-01 | 財團法人國家實驗研究院 | 應用於遙測衛星的自動對焦方法及該遙測衛星 |
Also Published As
Publication number | Publication date |
---|---|
CN103185568A (zh) | 2013-07-03 |
CN103185568B (zh) | 2015-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9098147B2 (en) | Ranging apparatus, ranging method, and interactive display system | |
CN109922255B (zh) | 用于生成实时深度图的双相机系统 | |
US10547786B2 (en) | Image processing for turbulence compensation | |
Fuhl et al. | Fast camera focus estimation for gaze-based focus control | |
US10061182B2 (en) | Systems and methods for autofocus trigger | |
US10261345B2 (en) | Imaging adjustment device and imaging adjustment method | |
TWI441095B (zh) | 距離估算方法及其距離估算裝置,及其機器可讀取媒體 | |
WO2019105214A1 (zh) | 图像虚化方法、装置、移动终端和存储介质 | |
US10191276B2 (en) | Imaging adjustment device and imaging adjustment method | |
CN108076278B (zh) | 一种自动对焦方法、装置及电子设备 | |
JP5919563B2 (ja) | 動き推定装置、奥行き推定装置、及び動き推定方法 | |
KR20190015573A (ko) | 시선 추적에 기초하여 자동 초점 조정하는 이미지 포착 시스템, 장치 및 방법 | |
Zhou et al. | Focal sweep camera for space-time refocusing | |
KR20130038300A (ko) | 공간 광 패턴에 기초한 깊이 데이터의 생성 | |
US9131145B2 (en) | Image pickup apparatus and control method therefor | |
JP2011118235A (ja) | 撮像装置 | |
EP3038055B1 (en) | Image processing system with aperture change depth estimation and method of operation thereof | |
CN109656033B (zh) | 一种区分液晶显示屏灰尘和缺陷的方法及装置 | |
CN105744151B (zh) | 脸部检测方法、脸部检测装置和图像拾取设备 | |
CN111968052B (zh) | 图像处理方法、图像处理装置及存储介质 | |
US20120182448A1 (en) | Distance estimation systems and method based on a two-state auto-focus lens | |
EP3067860B1 (en) | Hybrid depth estimation | |
WO2016197494A1 (zh) | 对焦区域调整方法和装置 | |
CN106154688B (zh) | 一种自动对焦的方法及装置 | |
TW201326755A (zh) | 測距裝置、測距方法及互動式顯示系統 |