TWI637363B - 擴增實境之人機互動系統 - Google Patents

擴增實境之人機互動系統 Download PDF

Info

Publication number
TWI637363B
TWI637363B TW106125046A TW106125046A TWI637363B TW I637363 B TWI637363 B TW I637363B TW 106125046 A TW106125046 A TW 106125046A TW 106125046 A TW106125046 A TW 106125046A TW I637363 B TWI637363 B TW I637363B
Authority
TW
Taiwan
Prior art keywords
image
augmented reality
interactive
processing device
color
Prior art date
Application number
TW106125046A
Other languages
English (en)
Other versions
TW201911264A (zh
Inventor
蕭桂芳
Original Assignee
銘傳大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 銘傳大學 filed Critical 銘傳大學
Priority to TW106125046A priority Critical patent/TWI637363B/zh
Priority to US15/687,725 priority patent/US10296081B2/en
Application granted granted Critical
Publication of TWI637363B publication Critical patent/TWI637363B/zh
Publication of TW201911264A publication Critical patent/TW201911264A/zh
Priority to US16/378,660 priority patent/US10338695B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本發明係提供一種擴增實境之人機互動系統,其包含:一處理裝置,其界定有互動物件影像及可控物件影像,且設定有顏色識別值;一影像擷取裝置,其用以擷取一影像予該處理裝置;該處理裝置係於該影像中具有所述顏色識別值之色塊時,將該影像具所述色塊之範圍予以界定為特徵區域,並令所述可控物件影像相依並受控於所述特徵區域;藉此,本發明無須設置成本高昂之影像辨識及運算設備,即可藉由符合顏色識別值之標籤物件以定義特徵區域,進而可操控可控物件影像以與互動物件影像進行互動,藉可適用於一般生活或教室教學之擴增實境應用者。

Description

擴增實境之人機互動系統
本發明係提供一種擴增實境之人機互動系統,尤指一種於擴增實境中,藉由識別顏色以定義特徵區域,進而可藉由操控可控物件影像以與互動物件影像進行互動者。
按,擴增實境(Augmented Reality, AR)係利用實地計算攝影機影像的位置及角度,並透過影像呈現之技術,其應用層面極為廣泛,可應用於衛星、行動設備、手術醫療、工業及娛樂等技術領域。
而就教學而言,相較於傳統教學,藉由擴增實境與物聯網(Internet of Things, IoT)及相關設備,如:投影機、智慧型手機及個人電腦之結合,並將其整合於教室等場所,藉可呈現更為清晰生動之擴增實境影像,並可予使用者進行互動,進而可促進學生之學習效益。
惟此,就與擴增實境之互動而言,往往需藉由價格較為高昂之設備,如:Kinect,藉以辨識使用者之骨架,或藉由高運算能力之電腦而予以分辨人像並予追蹤其位置及動作,藉以令使用者可與擴增實境所定義之可動物件進行互動;而對於資訊建設較為匱乏之地區而言,如:開發中之國家,其對於擴增實境相關設備之架設資金有限,故難以負擔昂貴之擴增實境設備,致使當地學生無法提升其學習效益,其將衍生教學資源不均或城鄉差距擴大等相關社會問題。
有鑑於此,吾等發明人乃潛心進一步研究擴增實境之互動,並著手進行研發及改良,期以一較佳發明以解決上述問題,且在經過不斷試驗及修改後而有本發明之問世。
爰是,本發明之目的係為解決前述問題,為達致以上目的,吾等發明人提供一種擴增實境之人機互動系統,其包含:一影像擷取裝置,其係用以擷取一影像;一處理裝置,其係連結於該影像擷取裝置,該處理裝置界定有至少一互動物件影像及至少一可控物件影像;所述互動物件影像設定有複數互動狀態,所述可控物件影像設定有至少一互動指令,所述互動物件影像之係相依並受控於所述互動指令以切換所述互動狀態;且該處理裝置設定有至少一顏色識別值;該處理裝置係分析該影像擷取裝置所擷取影像,並於該影像擷取裝置所擷取之影像中具有對應所述顏色識別值之色塊時,將該影像具所述色塊之範圍予以界定為特徵區域,並令所述可控物件影像相依並受控於所述特徵區域,且依據所述特徵區域執行至少其一所述互動指令;以及一投影裝置,其係連結於該處理裝置,該處理裝置係將所述互動物件影像、所述可控物件影像及所述特徵區域投影成像者。
據上所述之擴增實境之人機互動系統,更包含至少一標籤物件,所述標籤物件係設有至少其一對應所述顏色識別值之顏色,且該影像擷取裝置係對應擷取所述標籤物件之影像,以令該處理裝置界定所述特徵區域。
據上所述之擴增實境之人機互動系統,其中,所述標籤物件為穿戴式物件。
據上所述之擴增實境之人機互動系統,其中,該處理裝置於收受該影像擷取裝置所擷取之影像時,係將該影像依其環境光度進行光度校正後,方予分析該影像是否具有所述顏色識別值之色塊。
據上所述之擴增實境之人機互動系統,其中,所述可控物件影像為一使用者之影像。
據上所述之擴增實境之人機互動系統,其中,該處理裝置係依據至少其一所述特徵區域與至少其一所述互動物件影像之重疊以界定所述互動指令。
據上所述之擴增實境之人機互動系統,其中,該處理裝置為電腦、平板電腦或智慧型裝置。
據上所述之擴增實境之人機互動系統,其中,該影像擷取裝置為攝影裝置或智慧型手機。
據上所述之擴增實境之人機互動系統,其中,該投影裝置係投影擴增實境影像。
據上所述之擴增實境之人機互動系統,其中,該處理裝置、該影像擷取裝置及該投影裝置之間,係分別藉由網際網路、區域網路或藍芽進行訊號連結者。
是由上述說明及設置,顯見本發明主要具有下列數項優點及功效,茲逐一詳述如下:
1.本發明係藉由顏色識別值之界定,藉以於影像擷取裝置所擷取之影像中具有所述顏色識別值之色塊界定為特徵區域,以透過特徵區域執行互動指令,是以,當使用者配戴具有對應於顏色識別值之標籤物件時,即可藉由標籤物件與所述互動物件影像進行互動;藉此,本發明無須使用價格高昂之設備以分析、辨識或追蹤使用者整體之動作,亦無須透過複雜之運算,即可辨識使用者之位置及動作,令使用者可與可控物件影像進行互動,且不易因複雜之運算而產生互動延遲;且當使用者為複數時,係可配戴相異顏色識別值之標籤物件,藉以形成群組使用者以與所述互動物件影像進行互動;藉此,本發明對團體教學之群組互動與競賽格為重要;顯見本發明確實具有設備簡單、成本低廉及功能強大但可快速運算之功效者。
關於吾等發明人之技術手段,茲舉數種較佳實施例配合圖式於下文進行詳細說明,俾供 鈞上深入了解並認同本發明。
請先參閱第1圖及第2圖所示,本發明係一種擴增實境之人機互動系統,其包含:
一影像擷取裝置1,其係用以擷取一影像;在一實施例中,影像擷取裝置1係可為該影像擷取裝置1為攝影裝置或智慧型手機,惟其僅係舉例說明,並不以此作為限定;
一處理裝置2,在一實施例中,該處理裝置2可為電腦、平板電腦或智慧型裝置,等用以執行擴增實境演算之計算機設備;
該處理裝置2界定有至少一互動物件影像21及至少一可控物件影像22;所述互動物件影像21設定有複數互動狀態,所述互動狀態具體而言,係互動物件影像21可予以表現之態樣;所述可控物件影像22設定有至少一互動指令;且該處理裝置2設定有至少一顏色識別值;該處理裝置2係分析該影像擷取裝置1所擷取之影像,並於該影像擷取裝置1所擷取之影像中具有對應所述顏色識別值之色塊時,將該影像具所述色塊之範圍予以界定為特徵區域23,並令所述可控物件影像22相依並受控於所述特徵區域23,且依據所述特徵區域23執行至少其一所述互動指令;於本實施例中,互動指令之界定,係藉由該處理裝置2依據至少其一所述特徵區域23與至少其一所述互動物件影像21之重疊以界定者;
一投影裝置3,其係連結於該處理裝置2,該處理裝置2係將所述互動物件影像21、所述可控物件影像22及所述特徵區域23投影成像,在一較佳之實施例中,該投影裝置3係投影擴增實境影像。
就該處理裝置2、該影像擷取裝置1及該投影裝置3間之連結而言,在一實施例中,係可藉由網際網路、區域網路或藍芽進行訊號連結,惟其亦僅係舉例說明,並不以此作為限定。
本發明之實施步驟概如下所示:
S001:界定互動物件影像21及可控物件影像22,可知悉者,可控物件影像22係可為對應使用者移動之物件影像,而互動物件影像21則係受可控物件影像22所執行之互動指令而控制改變其互動狀態;在一具體之實施例中,可控物件影像22之界定,可為一使用者之影像,其係可藉由影像擷取裝置1進行擷取而建立者;而互動物件影像21則係可依所使用之用途而予以自定義,舉例而言,在一教學環境中,互動物件影像21可被設定為欲被舉例使用之教具影像,如:動植物影像,等可用來與使用者互動之物件影像。
S002:界定顏色識別值;其係為令處理裝置2得以選擇影像中所需進行追蹤之標的;是以,顏色識別值之界定,較佳者,係可設定特定極值之數值或區間值,例如於RGB色彩空間時,可界定顏色識別值為(255,0,0)之純紅色,或(0,0,255)之純藍色,藉以防止近似顏色之干擾,惟其僅係舉例說明,並不以此作為限定;
步驟S001及S002中對於互動物件影像21、可控物件影像22及顏色識別值之界定,係可預先透過安裝應用程式以界定於處理裝置2中,即告完成軟體方面之架設。
S003:透過影像擷取裝置1擷取影像,並將該影像傳輸至處理單元,令該處理裝置2係分析該影像擷取裝置1所擷取之影像,並予以判斷影像擷取裝置1所擷取之影像中是否具有對應於所述顏色識別值之色塊,於所擷取之影像不具有所述顏色識別值之色塊時,將持續進行影像之擷取及分析。
S004:於該影像中具有對應所述顏色識別值之色塊時,處理裝置2即將該影像具所述色塊之範圍予以界定為特徵區域23;在一較佳之實施例中,為利於對於特徵區域23之擷取,故更包含至少一標籤物件4,所述標籤物件4係設有至少其一對應所述顏色識別值之顏色,且該影像擷取裝置1係對應擷取所述標籤物件4之影像,以令該處理裝置2界定所述特徵區域23;較佳者,為利於使用者進行配戴,故所述標籤物件4可為穿戴式物件,如:帽子、衣物或手環等配件,如第2圖所示,本實施例中所示之使用者係將標籤物件4配戴於其手腕,惟其僅係舉例說明,並不以此作為限定;
需特別說明的事,由於本發明係可供多使用者使用,且處理裝置2係可設有複數顏色識別值,是以,相異之標籤物件4間可具有相同或相異之顏色,以利於進行分類及分組。
然因顏色極易受環境光源之光度而影響,故在一較佳之實施例中,該處理裝置2於收受該影像擷取裝置1所擷取之影像時,係將該影像依其環境光度進行光度校正後,方予分析該影像是否具有所述顏色識別值之色塊;
S005:該處理單元係令所述可控物件影像22相依並受控於所述特徵區域23,且依據所述特徵區域23執行至少其一所述互動指令;在一具體之實施例中,該處理裝置2係依據至少其一所述特徵區域23之與至少其一所述互動物件影像21之重疊以界定所述互動指令;意即,當其一特徵區域23與其一所述互動物件影像21重疊時,將生成互動指令,令至少其一所述互動物件影像21改變其互動狀態,而互動狀態係可為互動物件影像21之特定表現型態,如:位置、移動、外型或顏色上之變動,藉以達致互動之效果,惟其僅係舉例說明,並不以此作為限定。
如第2圖及第3圖所示之實施例者,投影裝置3所投影之可控物件影像22及特徵區域23,將如前述,依據使用者配戴標籤物件4之移動而對應作動,而當其一特徵區域23作動至與至少其一互動物件影像21重疊時,即視為執行互動指令,而互動物件影像21所設定之互動則為對應之移動,是以,如第3圖中所示之互動物件影像21,係受可控物件影像22執行之互動指令而產生對應之移動變化,藉以達致互動之效果。
綜上所述,本發明所揭露之技術手段確能有效解決習知等問題,並達致預期之目的與功效,且申請前未見諸於刊物、未曾公開使用且具長遠進步性,誠屬專利法所稱之發明無誤,爰依法提出申請,懇祈 鈞上惠予詳審並賜准發明專利,至感德馨。
惟以上所述者,僅為本發明之數種較佳實施例,當不能以此限定本發明實施之範圍,即大凡依本發明申請專利範圍及發明說明書內容所作之等效變化與修飾,皆應仍屬本發明專利涵蓋之範圍內。
1‧‧‧影像擷取裝置
2‧‧‧處理裝置
21‧‧‧互動物件影像
22‧‧‧可控物件影像
23‧‧‧特徵區域
3‧‧‧投影裝置
4‧‧‧標籤物件
S001~S005‧‧‧步驟
第1圖係本發明之流程示意圖。 第2圖係本發明之使用狀態示意圖。 第3圖係本發明令互動物件影像產生互動狀態變化之使用狀態示意圖。

Claims (7)

  1. 一種擴增實境之人機互動系統,其包含:一影像擷取裝置,其係用以擷取一影像;一處理裝置,其係連結於該影像擷取裝置,該處理裝置界定有至少一互動物件影像及至少一可控物件影像;所述互動物件影像設定有複數互動狀態,所述可控物件影像設定有至少一互動指令;且該處理裝置設定有至少一顏色識別值;至少一標籤物件,其係穿戴式物件,所述標籤物件係設有至少其一對應所述顏色識別值之單一顏色;以及一投影裝置,其係連結於該處理裝置,該投影裝置係將所述互動物件影像及所述可控物件影像對應投影成像;該處理裝置係分析該影像擷取裝置所擷取影像,並於該影像擷取裝置所擷取之影像中具有對應所述顏色識別值之色塊時,判斷該影像擷取裝置所擷取影像中具有對應之所述標籤物件,以將該影像具所述色塊之範圍予以界定為特徵區域,並令所述可控物件影像相依並受控於所述特徵區域,且該投影裝置亦對應投射所述特徵區之影像;該處理裝置係依據至少其一所述特徵區域與至少其一所述互動物件影像重疊時界定所述互動指令,令所述互動物件影像相依並受控於所述互動指令以切換所述互動狀態。
  2. 如申請專利範圍第1項所述之擴增實境之人機互動系統,其中,該處理裝置於收受該影像擷取裝置所擷取之影像時,係將該影像依其環境光度進行光度校正後,方予分析該影像是否具有所述顏色識別值之色塊。
  3. 如申請專利範圍第1項所述之擴增實境之人機互動系統,其中,所述可控物件影像為一使用者之影像。
  4. 如申請專利範圍第1項所述之擴增實境之人機互動系統,其中,該處理裝置為電腦、平板電腦或智慧型裝置。
  5. 如申請專利範圍第1項所述之擴增實境之人機互動系統,其中,該影像擷取裝置為攝影裝置或智慧型手機。
  6. 如申請專利範圍第1項所述之擴增實境之人機互動系統,其中,該投影裝置係投影擴增實境影像。
  7. 如申請專利範圍第1項所述之擴增實境之人機互動系統,其中,該處理裝置、該影像擷取裝置及該投影裝置之間,係分別藉由網際網路、區域網路或藍芽進行訊號連結者。
TW106125046A 2017-07-26 2017-07-26 擴增實境之人機互動系統 TWI637363B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW106125046A TWI637363B (zh) 2017-07-26 2017-07-26 擴增實境之人機互動系統
US15/687,725 US10296081B2 (en) 2017-07-26 2017-08-28 Augmented reality man-machine interactive system
US16/378,660 US10338695B1 (en) 2017-07-26 2019-04-09 Augmented reality edugaming interaction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW106125046A TWI637363B (zh) 2017-07-26 2017-07-26 擴增實境之人機互動系統

Publications (2)

Publication Number Publication Date
TWI637363B true TWI637363B (zh) 2018-10-01
TW201911264A TW201911264A (zh) 2019-03-16

Family

ID=64802723

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106125046A TWI637363B (zh) 2017-07-26 2017-07-26 擴增實境之人機互動系統

Country Status (2)

Country Link
US (1) US10296081B2 (zh)
TW (1) TWI637363B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6625786B2 (ja) * 2017-02-28 2019-12-25 株式会社オプティム 異常検知システム、異常検知方法及びプログラム
WO2020168499A1 (zh) * 2019-02-20 2020-08-27 深圳市鹰硕技术有限公司 一种同屏教学方法、装置和系统、智能设备及存储介质
DE112020002063T5 (de) * 2019-04-23 2022-03-17 Apple Inc. Generieren einer semantischen Konstruktion einer physischen Umgebung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030138130A1 (en) * 1998-08-10 2003-07-24 Charles J. Cohen Gesture-controlled interfaces for self-service machines and other applications
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
TW201203089A (en) * 2010-06-22 2012-01-16 Microsoft Corp User tracking feedback
TW201342135A (zh) * 2011-12-27 2013-10-16 Intel Corp 行動裝置的全三維互動
TW201514830A (zh) * 2013-10-08 2015-04-16 Univ Nat Taiwan Science Tech 互動式操作方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US20100303297A1 (en) * 2009-05-30 2010-12-02 Anton Mikhailov Color calibration for object tracking
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method
US10150028B2 (en) * 2012-06-04 2018-12-11 Sony Interactive Entertainment Inc. Managing controller pairing in a multiplayer game
JP2016502694A (ja) * 2012-10-04 2016-01-28 ディズニー エンタープライゼス インコーポレイテッド 没入型環境用のインタラクティブ型オブジェクト
WO2015005639A1 (ko) * 2013-07-08 2015-01-15 Ji Seung Hwan 완구 부착형 애드온 장치를 이용한 증강현실 컨텐츠 제공 시스템
JP2015088096A (ja) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030138130A1 (en) * 1998-08-10 2003-07-24 Charles J. Cohen Gesture-controlled interfaces for self-service machines and other applications
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
TW201203089A (en) * 2010-06-22 2012-01-16 Microsoft Corp User tracking feedback
TW201342135A (zh) * 2011-12-27 2013-10-16 Intel Corp 行動裝置的全三維互動
TW201514830A (zh) * 2013-10-08 2015-04-16 Univ Nat Taiwan Science Tech 互動式操作方法

Also Published As

Publication number Publication date
US10296081B2 (en) 2019-05-21
TW201911264A (zh) 2019-03-16
US20190033958A1 (en) 2019-01-31

Similar Documents

Publication Publication Date Title
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
US20220088476A1 (en) Tracking hand gestures for interactive game control in augmented reality
WO2020010979A1 (zh) 手部关键点的识别模型训练方法、识别方法及设备
US10970850B2 (en) Method and device for recognizing motion
RU2679986C2 (ru) Отслеживание выражения лица
US9395821B2 (en) Systems and techniques for user interface control
TWI637363B (zh) 擴增實境之人機互動系統
CN107004279A (zh) 自然用户界面相机校准
US11132590B2 (en) Augmented camera for improved spatial localization and spatial orientation determination
KR101502085B1 (ko) 안경형 디스플레이 디바이스의 동작인식 입력방법
CN102830798A (zh) 单臂机器人基于Kinect的无标记人手跟踪方法
Sharma et al. Air-swipe gesture recognition using OpenCV in Android devices
US10338695B1 (en) Augmented reality edugaming interaction method
US20220159174A1 (en) Method of controlling electronic device by recognizing movement in peripheral zone of field of view of camera, and electronic device therefor
Annachhatre et al. Virtual Mouse Using Hand Gesture Recognition-A Systematic Literature Review
CN205788098U (zh) 基于双目机器视觉的非接触投影交互系统
TW202036262A (zh) 擴增實境之教育遊戲互動方法
Jian et al. A micro-gesture recognition on the mobile web client
CN105278658A (zh) 一种基于热敏的显示增强方法
CN109683707A (zh) 一种使ar眼镜投影颜色自适应的方法及系统
CN106484102A (zh) 一种根据手势识别用户操作动作的方法及系统
AlKassim et al. Sixth sense technology: Comparisons and future predictions
Oh et al. Finger gesture-based three-dimension mobile user interaction using a rear-facing camera
Saxen et al. Image-based methods for interaction with head-worn worker-assistance systems
Zhang et al. Augmented reality technology: research situation and key technologies

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees