TWM629809U - 互動式抬頭顯示裝置 - Google Patents
互動式抬頭顯示裝置 Download PDFInfo
- Publication number
- TWM629809U TWM629809U TW111201965U TW111201965U TWM629809U TW M629809 U TWM629809 U TW M629809U TW 111201965 U TW111201965 U TW 111201965U TW 111201965 U TW111201965 U TW 111201965U TW M629809 U TWM629809 U TW M629809U
- Authority
- TW
- Taiwan
- Prior art keywords
- panel module
- self
- display
- touch panel
- display panel
- Prior art date
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
一種互動式抬頭顯示裝置,包含一自電容觸控面板模組、一顯示面板模組、一可透光反射鏡、一取像單元與一微處理單元,該自電容觸控面板模組根據使用者的操作產生一感應座標,該顯示面板模組設置於該自電容觸控面板模組,該可透光反射鏡設置於該顯示面板模組的上方並相對傾斜於該顯示面板模組,以反射該顯示面板模組的顯示畫面,該取像單元拍攝並輸出一影像,該微處理單元執行一影像辨識模型以辨識該影像中的至少一物件,並根據該至少一物件以及該感應座標控制該顯示面板模組的顯示畫面。
Description
本新型涉及一種顯示裝置,特別是指互動式抬頭顯示裝置。
抬頭顯示器(Head Up Display, HUD)主要包含一顯示器與一可透光反射鏡,該可透光反射鏡設置在該顯示器的上方並相對傾斜於該顯示器的螢幕表面,其中該顯示器可採用高亮度薄膜電晶體液晶顯示器(TFT LCD),該顯示器所顯示的畫面可投射在該可透光反射鏡以供使用者觀看,也就是說,使用者不需要直接目視該顯示器的螢幕表面,而能在該可透光反射鏡間接看到該顯示器所顯示的畫面。
抬頭顯示器的應用也多元化,例如其可安裝於汽車駕駛座的擋風玻璃內側,用以顯示車速、胎壓、導航等行車資訊給駕駛人觀看,且基於該可透光反射鏡之可透光特性,並不會遮蔽駕駛人的視野,駕駛人在該可透光反射鏡除了看到行車資訊,也能透過該可透光反射鏡看到前方路況。
然而,習知抬頭顯示器的應用雖已多元化,惟其功能僅限於數位資訊的投影顯示,沒有其他進階功能,導致其應用上仍受限制。
有鑒於此,本新型的主要目的是提供一種互動式抬頭顯示裝置,以期改善習知抬頭顯示器的應用受限制的問題。
本新型互動式抬頭顯示裝置包含:
一自電容觸控面板模組,根據使用者的操作產生一感應座標;
一顯示面板模組,設置於該自電容觸控面板模組;
一可透光反射鏡,設置於該顯示面板模組的上方並相對傾斜於該顯示面板模組,以反射該顯示面板模組的顯示畫面;
一取像單元,拍攝並輸出一影像;以及
一微處理單元,電性連接該自電容觸控面板模組、該顯示面板模組和該取像單元,該微處理單元執行一影像辨識模型以辨識該影像中的至少一物件,並根據該至少一物件以及該感應座標控制該顯示面板模組的顯示畫面。
根據本新型互動式抬頭顯示裝置,透過該自電容觸控面板模組根據使用者的操作產生該感應座標,並由該微處理單元實施影像辨識並結合該感應座標來控制該顯示面板模組的顯示畫面,故本新型能達成與使用者互動之目的。是以,本新型除了藉由該可透光反射鏡投影顯示該顯示面板模組的顯示畫面,進一步配合該微處理單元、該自電容觸控面板模組、該顯示面板模組、該可透光反射鏡與該取像單元之間的協同運作實現與使用者的互動功能,克服習知抬頭顯示器的應用受限問題。
請參考圖1與圖2,本新型互動式抬頭顯示裝置的實施例包含一自電容(Self-capacitive)觸控面板模組10、一顯示面板模組20、一可透光反射鏡30、一取像單元40以及一微處理單元(Microprocessor unit, MPU)50。
該自電容觸控面板模組10的非接觸操作原理為所屬技術領域中的通常知識,容不詳述,請參考圖3,該自電容觸控面板模組10包含透明的複數第一軸向電極11與透明的複數第二軸向電極12,該些第一軸向電極11彼此間隔排列,該些第二軸向電極12彼此間隔排列,該些第一軸向電極11交錯於該些第二軸向電極12,舉例而言,該些第一軸向電極11沿著X軸延伸,該些第二軸向電極12沿著Y軸延伸。該些第一、第二軸向電極11、12分別與地構成電容;當使用者操作時,請參考圖2,其手可位於該自電容觸控面板模組10的觸控面13上方但尚未接觸該觸控面13,該自電容觸控面板模組10可感應到使用者的手所引起的電容變化,進而相應產生一感應座標100,該感應座標100的位置對應於使用者的手的位置,其中,該感應座標100為一橫座標與一縱座標的組合,如圖3所示,該橫座標對應於該些第二軸向電極12中具有最大電容變化之信號S2者的位置,同理,該縱座標對應於該些第一軸向電極11中具有最大電容變化之信號S1者的位置。
該顯示面板模組20設置於該自電容觸控面板模組10,如圖2所示,該自電容觸控面板模組10與該顯示面板模組20可彼此平行疊合設置,舉例而言,該顯示面板模組20可為高亮度薄膜電晶體液晶顯示模組(TFT LCD),兩者之間可透過固態透明光學膠帶(Optical Clear Adhesive, OCA)或液態透明光學膠(Optical Clear Resin, OCR)彼此結合固定。
該可透光反射鏡30設置於該顯示面板模組20的上方並相對傾斜於該顯示面板模組20,如圖2所示,該可透光反射鏡30與該顯示面板模組20的夾角θ可為銳角,該自電容觸控面板模組10位於該顯示面板模組20與該可透光反射鏡30之間。該自電容觸控面板模組10是透明的,使該顯示面板模組20產生的顯示畫面(光線)可穿透該自電容觸控面板模組10被該可透光反射鏡30反射,也就是說,該可透光反射鏡30能反射該顯示面板模組20的顯示畫面,供使用者可在該可透光反射鏡30看到該顯示面板模組20的顯示畫面。較佳的,該可透光反射鏡30可採用半透半反式(即:半穿透、半反射)之鏡片。
該取像單元40可為攝影機、數位相機或具拍攝功能的行動裝置(例如智慧型手機或平板電腦),但不以此為限,該取像單元40用以拍攝並輸出一影像41。如圖2所示,該取像單元40可設置在該自電容觸控面板模組10與該顯示面板模組20的前方,並朝前方的景物拍攝以輸出該影像41。
該微處理單元50電性連接該自電容觸控面板模組10、該顯示面板模組20和該取像單元40以進行信號與資料的傳輸,例如可接收該取像單元40所傳來的該影像41,並據以識別後驅使該顯示面板模組20顯示畫面。如圖1與圖2所示,該微處理單元50可實施於控制電路板51,該控制電路板51可設置在該顯示面板模組20的底部。該微處理單元50執行人工智慧(Artificial Intelligence, AI)的一影像辨識模型52,該影像辨識模型52的程式資料可儲存在外接或內建的記憶體53,需說明的是,本新型的重點不是影像辨識模型52的改良,該影像辨識模型52可採用現有技術,故容不詳述其訓練和運作原理,舉例而言,本新型可採用名稱為YOLO(You Only Look Once)之影像辨識模型,其為一種用於物件偵測的卷積神經網路(Convolutional Neural Network, CNN)模型,由Joseph Redmon和Ali Farhadi等人於2015年所提出。
請參考圖1,該微處理單元50執行該影像辨識模型52以辨識該影像41中的至少一物件,並根據該至少一物件以及該自電容觸控面板模組10的該感應座標100而控制該顯示面板模組20的顯示畫面。本新型的實施例中,該微處理單元50係根據該感應座標100的軌跡(例如點擊、點擊次數、移動方向、移動距離…等)辨識出使用者的手勢,而進一步判斷一互動指令,以根據該互動指令控制該顯示面板模組20的顯示畫面,本新型的實施情境舉例說明如下。
使用時,本新型可設置在觀景台,使用者利用本新型中的取像單元40拍攝臺灣高雄市的風景,請參考圖4所示之範例,該微處理單元50從該取像單元40接收該影像41,並執行該影像辨識模型52而從該影像41中辨識出一第一物件A0與一第二物件A1,其中,該第一物件A0為高雄市的地標「85大樓」,該第二物件A1為高雄市的另一地標「中鋼總部大樓」,也就是說,該影像辨識模型52於訓練階段,係採用建築物為樣本進行訓練,方能於實際應用時在該影像41中辨識出該第一物件A0和該第二物件A1。
若使用者對「85大樓」感到興趣,請參考圖3與圖5,可伸手於該自電容觸控面板模組10的觸控面13的上方,則該自電容觸控面板模組10相應產生該感應座標100,該微處理單元50能根據該感應座標100的軌跡(例如由右往左的移動手勢)判斷出對應於該第一物件A0的互動指令,進而根據該互動指令讀取對應於該第一物件A0的一互動資訊500,該微處理單元50將該互動資訊500傳送到該顯示面板模組20,藉此控制該顯示面板模組20顯示該互動資訊500,該互動資訊500可位於一預設位置,該互動資訊500亦被反射在該可透光反射鏡30而供使用者觀看,請參考圖5與圖6,基於該可透光反射鏡30的透光與反射特性,使用者透過該可透光反射鏡30除了可看到前方實際景像501,還能看到該互動資訊500,整體而言,在該可透光反射鏡30中,實際景像501和互動資訊500彼此結合。
前述中,該互動資訊500可為但不限於文字、圖片、動畫或影片,該互動資訊500可儲存在記憶體53,舉例而言,該記憶體53可儲存有互動資訊的一對照表如下,至少包含該第一物件A0和該第二物件A1的互動資訊500,故當該微處理單元50判斷出該互動指令對應於該第一物件A0時,便能直接從該對照表中讀取該第一物件A0的互動資訊500。依此類推,當該微處理單元50判斷出該互動指令(例如由左往右的移動手勢)對應於該第二物件A1時,能直接從該對照表中讀取該第二物件A1的互動資訊500。
物件 | 互動資訊 (以文字為例) |
A0 | 建築物名稱:85大樓,位於高雄市苓雅區 |
A1 | 建築物名稱:中鋼總部大樓,位於高雄市前鎮區 |
以下進一步說明使用者的操作手勢的範例,請參考圖7A與圖7B,使用者的手60可伸入該自電容觸控面板模組10與該可透光反射鏡30之間並移動,且保持於該自電容觸控面板模組10上方,較佳的,使用者的手60與該自電容觸控面板模組10之間的距離D可保持於10公分以內,則該自電容觸控面板模組10能有效感應出使用者的手60。圖8A至圖10D之情境是基於使用者的手60保持於該自電容觸控面板模組10上方且未接觸該自電容觸控面板模組10的狀態下說明。
請參考圖8A,當使用者的手60位於該自電容觸控面板模組10的左側時,請參考圖8B為透過TouchNetix TouchHub2軟體的視窗14觀測該微處理單元50對於該自電容觸控面板模組10的座標判讀情形,該視窗14的方位對應於該自電容觸控面板模組10的觸控面13的方位。是以,該微處理單元50可於圖8B所示該視窗14的左側產生該感應座標100。請參考圖8C,使用者的手60往前移動,故請參考圖8D,該感應座標100於該視窗14中亦隨之移動,此時,該微處理單元50可記錄該感應座標100的移動距離及方向,並據以產生該互動指令。同理,請參考圖9A至圖9D,其描繪了使用者的手60於該自電容觸控面板模組10的中間處前向移動時,該感應座標100於該視窗14中間處的移動軌跡;請參考圖10A至圖10D,其描繪了使用者的手60於該自電容觸控面板模組10的右側並前向移動時,該感應座標100於該視窗14右側的移動軌跡。圖8A至圖10D僅以該感應座標100往前移動為例,可依此類推,使用者的手60保持於該自電容觸控面板模組10上方且未接觸該自電容觸控面板模組10的狀態下,該微處理單元50仍可根據該感應座標100的軌跡(例如左、右、後、斜向等其他移動方式)而辨識出使用者的手勢而判斷出該互動指令。
綜上所述,本新型藉由該微處理單元50、該自電容觸控面板模組10、該顯示面板模組20、該可透光反射鏡30與該取像單元40之間的協同運作,實現與使用者的互動功能,使用者除了可透過該可透光反射鏡30看到實際景像501,還能看到該互動資訊500,故本新型能進一步涉及「元宇宙」及擴增實境(Augmented Reality, AR)的進階科技概念的應用。
10:自電容觸控面板模組
100:感應座標
11:第一軸向電極
12:第二軸向電極
13:觸控面
14:視窗
20:顯示面板模組
30:可透光反射鏡
40:取像單元
41:影像
50:微處理單元
500:互動資訊
501:實際景像
51:控制電路板
52:影像辨識模型
53:記憶體
60:使用者的手
θ:夾角
S1,S2:信號
D:距離
A0:第一物件
A1:第二物件
圖1:本新型互動式抬頭顯示裝置之實施例的電路方塊示意圖。
圖2:本新型互動式抬頭顯示裝置之實施例的側視示意圖。
圖3:本新型中,自電容觸控面板模組產生感應座標的示意圖。
圖4:本新型中,微處理單元從影像中辨識出兩物件的示意圖。
圖5:本新型中,使用者的眼及手操作本新型互動式抬頭顯示裝置的使用狀態示意圖。
圖6:本新型中,可透光反射鏡中的實際景像與互動資訊結合的示意圖。
圖7A、7B:本新型中,自電容觸控面板模組的非接觸式使用狀態示意圖。
圖8A:本新型中,自電容觸控面板模組的非接觸式使用狀態示意圖,其中,使用者的手位於自電容觸控面板模組的左側。
圖8B:本新型中,自電容觸控面板模組於圖8A狀態產生之感應座標示意圖。
圖8C:本新型中,自電容觸控面板模組的非接觸式使用狀態示意圖,其中,使用者的手在自電容觸控面板模組的左側前向移動。
圖8D:本新型中,自電容觸控面板模組於圖8C狀態產生之感應座標示意圖。
圖9A:本新型中,自電容觸控面板模組的非接觸式使用狀態示意圖,其中,使用者的手位於自電容觸控面板模組的中間處。
圖9B:本新型中,自電容觸控面板模組於圖9A狀態產生之感應座標示意圖。
圖9C:本新型中,自電容觸控面板模組的非接觸式使用狀態示意圖,其中,使用者的手在自電容觸控面板模組的中間處前向移動。
圖9D:本新型中,自電容觸控面板模組於圖9C狀態產生之感應座標示意圖。
圖10A:本新型中,自電容觸控面板模組的非接觸式使用狀態示意圖,其中,使用者的手位於自電容觸控面板模組的右側。
圖10B:本新型中,自電容觸控面板模組於圖10A狀態產生之感應座標示意圖。
圖10C:本新型中,自電容觸控面板模組的非接觸式使用狀態示意圖,其中,使用者的手在自電容觸控面板模組的右側前向移動。
圖10D:本新型中,自電容觸控面板模組於圖10C狀態產生之感應座標示意圖。
10:自電容觸控面板模組
13:觸控面
20:顯示面板模組
30:可透光反射鏡
40:取像單元
51:控制電路板
500:互動資訊
501:實際景像
Claims (6)
- 一種互動式抬頭顯示裝置,包含: 一自電容觸控面板模組,根據使用者的操作產生一感應座標; 一顯示面板模組,設置於該自電容觸控面板模組; 一可透光反射鏡,設置於該顯示面板模組的上方並相對傾斜於該顯示面板模組,以反射該顯示面板模組的顯示畫面; 一取像單元,拍攝並輸出一影像;以及 一微處理單元,電性連接該自電容觸控面板模組、該顯示面板模組和該取像單元,該微處理單元執行一影像辨識模型以辨識該影像中的至少一物件,並根據該至少一物件以及該感應座標控制該顯示面板模組的顯示畫面。
- 如請求項1所述之互動式抬頭顯示裝置,其中,該自電容觸控面板模組包含透明的複數第一軸向電極與透明的複數第二軸向電極,該些第一軸向電極彼此間隔排列,該些第二軸向電極彼此間隔排列,該些第一軸向電極交錯於該些第二軸向電極。
- 如請求項1所述之互動式抬頭顯示裝置,其中,該自電容觸控面板模組與該顯示面板模組彼此平行疊合設置。
- 如請求項1所述之互動式抬頭顯示裝置,其中,該可透光反射鏡為半透半反鏡片。
- 如請求項1至4中任一項所述之互動式抬頭顯示裝置,其中,該微處理單元根據該感應座標的軌跡判斷出一互動指令,並根據該互動指令讀取一互動資訊,以控制該顯示面板模組顯示該互動資訊。
- 如請求項5所述之互動式抬頭顯示裝置,其中,該互動資訊為文字、圖片、動畫或影片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111201965U TWM629809U (zh) | 2022-02-25 | 2022-02-25 | 互動式抬頭顯示裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111201965U TWM629809U (zh) | 2022-02-25 | 2022-02-25 | 互動式抬頭顯示裝置 |
Publications (1)
Publication Number | Publication Date |
---|---|
TWM629809U true TWM629809U (zh) | 2022-07-21 |
Family
ID=83438143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111201965U TWM629809U (zh) | 2022-02-25 | 2022-02-25 | 互動式抬頭顯示裝置 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWM629809U (zh) |
-
2022
- 2022-02-25 TW TW111201965U patent/TWM629809U/zh unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9165381B2 (en) | Augmented books in a mixed reality environment | |
US10067561B2 (en) | Display visibility based on eye convergence | |
US20230341935A1 (en) | Eye Tracking Using Eye Odometers | |
JP6700044B2 (ja) | 表示装置 | |
US8912979B1 (en) | Virtual window in head-mounted display | |
US8502816B2 (en) | Tabletop display providing multiple views to users | |
US20130021374A1 (en) | Manipulating And Displaying An Image On A Wearable Computing System | |
US20140285520A1 (en) | Wearable display device using augmented reality | |
US20150379770A1 (en) | Digital action in response to object interaction | |
KR20140142337A (ko) | 증강 현실 광 가이드 디스플레이 | |
JP2015518199A (ja) | 光ガイドディスプレイ及び視野 | |
KR20140144510A (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
US10936079B2 (en) | Method and apparatus for interaction with virtual and real images | |
EP3077867A1 (en) | Optical head mounted display, television portal module and methods for controlling graphical user interface | |
CN104866106A (zh) | 一种结合hud与红外识别的人机交互方法和系统 | |
US9582081B1 (en) | User interface | |
US20230341752A1 (en) | External recording indicators | |
US20200241721A1 (en) | Interactive display apparatus and method | |
Wang et al. | Bare finger 3D air-touch system using an embedded optical sensor array for mobile displays | |
CN110764300A (zh) | 显示组件及电子设备 | |
CN105334718B (zh) | 显示切换方法和电子设备 | |
TWI691926B (zh) | 結合擴增實境與虛擬實境的導覽裝置及導覽方法 | |
US9898076B1 (en) | Adjusting electronic displays based on user viewing position | |
US10977492B2 (en) | Method and apparatus for preload display of object information | |
TWM629809U (zh) | 互動式抬頭顯示裝置 |