TWI766469B - 用於創建擴增實境互動式內容之方法與電腦可讀媒介 - Google Patents
用於創建擴增實境互動式內容之方法與電腦可讀媒介 Download PDFInfo
- Publication number
- TWI766469B TWI766469B TW109143247A TW109143247A TWI766469B TW I766469 B TWI766469 B TW I766469B TW 109143247 A TW109143247 A TW 109143247A TW 109143247 A TW109143247 A TW 109143247A TW I766469 B TWI766469 B TW I766469B
- Authority
- TW
- Taiwan
- Prior art keywords
- augmented reality
- content
- user
- identifier information
- speech recognition
- Prior art date
Links
Images
Abstract
本發明係提供一種用於創建擴增實境互動式內容之方法,係提供使用者在使用行動裝置之擴增實境應用時,透過語音輸入及圖像化編輯方式即時創建所欲之擴增實境互動式內容,故能在不須開發者隨時介入之前提下執行簡便且易於引導的擴增實境互動式內容之開發,大幅減少開發人力與時間成本。本發明復提供一種用於創建擴增實境互動式內容之電腦可讀媒介。
Description
本發明係關於擴增實境(Augmented Reality,簡稱AR)應用技術,特別是關於用於創建擴增實境互動式內容之方法與電腦可讀媒介。
在現今的擴增實境(AR)技術中,若要開發一個擴增實境場景的互動式內容,一般需要開發者將場景中欲辨識之物品、情境的判斷條件及對應資訊轉換成程式碼,並且爾後上述判斷條件及對應資訊的大小異動皆須開發者介入以改寫條件式,使得擴增實境的互動式內容之開發變得曠日廢時。
因此,需要一種用於創建擴增實境互動式內容之方法與電腦可讀媒介,提供簡便且易於引導的擴增實境互動式內容之開發的解決方案。
為解決上述之問題,本發明係提供一種用於創建擴增實境互動式內容之方法,包括:接收辨識物資訊;根據該辨識物資訊產製語音辨識詞彙;當透過行動裝置於現場場景中辨認到該辨識物資訊對應之實體時,將該語音辨識
詞彙傳送至該行動裝置;接收關於該實體之創建內容;以及根據該語音辨識詞彙分析該創建內容以生成第一擴增實境內容。
在上述之方法中,該辨識物資訊包括該實體對應之3D模型檔、2D圖片檔及/或該創建內容搭配之動畫檔、音訊檔及/或文字檔。
在上述之方法中,復包括:在該根據該辨識物資訊產製語音辨識詞彙之步驟前,編輯該辨識物資訊,其中,編輯該辨識物資訊之步驟係包括以下子步驟:接收使用者為該辨識物資訊自行定義之使用者編輯資料屬性;及接收該使用者將該辨識物資訊與該實體綁定所產生之外聯資料屬性。
在上述之方法中,該語音辨識詞彙係基於該使用者編輯資料屬性、該外聯資料屬性、及用於語音辨識中條件式之保留詞彙中之至少二者所產生者。
在上述之方法中,該創建內容係使用者透過語音輸入或播放錄音檔所產生者,並且,該根據該語音辨識詞彙分析該創建內容以生成第一擴增實境內容之步驟係包括以下子步驟:跟隨該創建內容之該語音輸入或該播放,根據該語音辨識詞彙動態解析該創建內容中之運算元與運算子;將各該運算元與該運算子之該動態解析結果所對應之文字或影像分別以邏輯積木方式產製為該第一擴增實境內容;及將該第一擴增實境內容顯示於該現場場景。
在上述之方法中,復包括:根據該第一擴增實境內容生成第二擴增實境內容,係包括以下子步驟:將該第一擴增實境內容所對應該創建內容之各該運算元與該運算子進行運算式組合以得出條件運算式與陳述句,其中,該條件運算式係作為該實體所對應擴增實境互動式內容之啟動條件,而該陳述句係作為該啟動條件對應之執行行為;將該條件運算式與該陳述句產製為該第二擴增實境內容;及儲存該第二擴增實境內容。
在上述之方法中,復包括:當透過該行動裝置再次於該現場場景中辨認到該辨識物資訊對應之該實體時,依據該第二擴增實境內容執行該實體對應之該擴增實境互動式內容。
本發明復提供一種用於創建擴增實境互動式內容之電腦可讀媒介,係應用於計算裝置或電腦中並係儲存有指令,以執行如上述之用於創建擴增實境互動式內容之方法。
綜上所述,本發明之用於創建擴增實境互動式內容之方法與電腦可讀媒介係提供使用者在使用行動裝置之擴增實境應用時,透過語音輸入及圖像化編輯方式即時創建所欲之擴增實境互動式內容,故能在不須開發者隨時介入之前提下執行簡便且易於引導的擴增實境互動式內容之開發,大幅減少開發人力與時間成本。
10:終端裝置
20:編輯平台
30:現場場景
31:第一擴增實境內容
311~317:邏輯積木
32:第二擴增實境內容
41:第一擴增實境內容
411~416:邏輯積木
42:第二擴增實境內容
S100~S600:步驟
通過參考結合附圖的下述描述,可以理解本發明,其中,相同的附圖標記標識相似的元件,且其中:
圖1係本發明用於創建擴增實境互動式內容之方法與電腦可讀媒介的實施態樣圖;
圖2係本發明之用於創建擴增實境互動式內容之方法的步驟流程圖;
圖3係本發明之用於創建擴增實境互動式內容之方法與電腦可讀媒介的實施態樣圖;以及
圖4係本發明之用於創建擴增實境互動式內容之方法與電腦可讀媒介的實施態樣圖。
以下藉由特定的具體實施形態說明本發明之技術內容,熟悉此技藝之人士可由本說明書所揭示之內容輕易地瞭解本發明之優點與功效。然本發明亦可藉由其他不同的具體實施形態加以施行或應用。
如圖1所示,本發明之方法與電腦可讀媒介主要運行於終端裝置10、編輯平台20、及現場場景30之間。其中,本文所述電腦可讀媒介係應用於具有處理器(例如,CPU、GPU等)及/或記憶體的計算裝置或電腦中,且儲存有指令,並可利用此計算裝置或電腦透過處理器及/或記憶體執行此電腦可讀媒介,以於執行此電腦可讀媒介時執行上述之方法及其步驟。進一步地,本發明之方法與電腦可讀媒介可應用於任意與擴增實境技術相容之技術中,包括但不限於人工智慧(AI)辨識、語意雲技術、物聯網(IoT)技術等,在本文中並無特別限定。
在一實施例中,本文所揭終端裝置10包括但不限於:個人電腦、或任何可透過有線或無線之通訊方式提供或執行上傳或編輯作業的裝置。進一步地,終端裝置10主要用於供使用者將欲作為標的(例如,現場場景30中預期出現的機器、儀器、設備、物品等實體)的辨識物資訊(例如,欲辨識之實體對應的2D圖片檔、3D模型圖檔、創建擴增實境互動式內容所欲搭配之客製化動畫檔、音訊檔或文字檔等)上載(例如,透過終端裝置10操作本發明之電腦可讀媒介進行上傳)至編輯平台20,以供後續進行編輯。
在一實施例中,本文所揭編輯平台20係用於提供編輯介面(例如,藉由本發明之電腦可讀媒介所提供)於使用者介面(例如,儀表板、網頁、觸控式螢幕等)上供使用者操作。進一步地,編輯平台20係用於輔助使用者透過行動裝
置(圖未示)創建擴增實境互動式內容,其詳細流程將如以下所詳述者。需說明者為,此處所述行動裝置係經設置為用於提供擴增實境應用之裝置,例如,搭載有本發明之電腦可讀媒介之裝置,其包括但不限於:智慧型手機、平板電腦、智慧眼鏡、或智慧頭盔等。
在一實施例中,本文所揭現場場景30係指使用者透過上述行動裝置創建擴增實境互動式內容時所處環境(亦即,使用者透過行動裝置看到的視場),其至少包括有終端裝置10所上傳辨識物資訊對應的實體,以供使用者透過行動裝置辨識到辨識物資訊對應之實體時即時於現場創建擴增實境之互動內容。
藉由圖2之步驟流程圖將了解本發明之方法與電腦可讀媒介的實施方式。
在步驟S100處,使用者係透過終端裝置10將作為標的之辨識物資訊上傳至編輯平台20,其中,所上傳辨識物資訊例如為欲辨識之實體對應的2D圖片檔、3D模型檔及/或創建擴增實境互動式內容所欲搭配之客製化動畫檔、音訊檔或文字檔。
在步驟S200處,使用者可透過編輯平台20編輯所上傳之辨識物資訊。此時,使用者可視工作需求執行編輯所上傳3D模型檔或2D圖片檔之名稱、將辨識物資訊與對應之實體(例如,物聯網中所設定之實體機器)綁定、自行增加相關的屬性資料(例如,創建擴增實境互動式內容所欲搭配之客製化動畫檔、音訊檔或文字檔之名稱)等作業。接著,完成編輯之辨識物資訊係整理為使用者編輯資料屬性{C 1 ,C 2 ,...C y }之形式並儲存,以利後續處理流程取用。此外,使用者亦可在將辨識物資訊與實體綁定時取得(例如,透過網路介面)實體預先定義的屬
性資料(如,物聯網中所設定之實體機器的感測名稱),作為外連資料屬性{S 1 ,S 2 ,...S x }之形式並儲存,並供後續處理流程取用。
在步驟S300處,編輯平台20係根據步驟S200產生之使用者編輯資料屬性{C 1 ,C 2 ,...C y }、外連資料屬性{S 1 ,S 2 ,...S x }、及編輯平台20預設的保留詞彙(例如,語音辨識技術中常見之「當」、「如果」、「大於」、「小於」等條件式基本詞彙,在本文中以{K 1 ,K 2 ,...K z }形式表示)針對辨識物資訊產製對應之語音辨識詞彙。
在步驟S400處,使用者係透過行動裝置(例如,適於提供擴增實境應用之智慧眼鏡、智慧型手機、平板電腦、智慧頭盔等裝置)在現場場景30中辨識(例如,使用影像辨識與瞳孔追蹤技術)與辨識物資訊對應之實體,當確認到實體時,行動裝置即下載步驟S300產製之語音辨識詞彙,並開始辨識物之擴增實境互動式內容之創建。
在步驟S500處,當使用者透過行動裝置對著現場場景30中的辨識物說出所欲之擴增實境互動式內容的創建內容(或是播放預先錄製創建內容的錄音檔)時,行動裝置係基於語音辨識詞彙所辨識之語音及所辨識之實體的影像以第一擴增實境內容之方式呈現在現場場景30中(如圖3之元件符號31及圖4之元件符號41所示之邏輯積木),以供使用者確認辨識結果是否正確,並視需要校正創建內容(包括再次進行語音輸入或即時於行動裝置上進行微調)。
在步驟S600處,確認並完成校正之第一擴增實境內容,將進一步產製為第二擴增實境內容並顯示於現場場景30中(如圖3之元件符號32及圖4之元件符號42所示之語句),作為所辨識之實體的擴增實境互動式內容並回傳至編輯平台20。此時,擴增實境互動式內容將至少包含一作為啟動條件的條件運算式
(expri)及所對應之執行行為的陳述句(stati),並以條件觸發句(expri,stati)之形式儲存於編輯平台20中。
圖3係揭示將本發明之方法與電腦可讀媒介運用於物連網之機台維護的實施態樣。
此時,如圖2步驟S100所敘述者,使用者(如,機台維護人員)可透過終端裝置10在編輯平台20處上傳欲作為辨識標的的3D模型檔(例如,物連網中一機台的3D模型檔)及用於提示更換零件的客製化動畫檔。
接著,如圖2步驟S200所敘述者,使用者可在編輯平台20處將所上傳的3D模型檔命名為「C1」、將客製化動畫檔命名為「C2」或編輯其他資料屬性,並整理為使用者編輯資料屬性{C 1 ,C 2 ,...C y },再透過網路介面I1(例如,mqtt)將辨識物資訊與物聯網上對應的實體機台M1(即,此實施態樣欲辨識之實體)綁定,進而透過網路介面I1取得實體機台M1預設的外連資料屬性{S 1 ,S 2 ,...S x }。
接著,如圖2步驟S300所敘述者,編輯平台20係根據使用者編輯資料屬性{C 1 ,C 2 ,...C y }、外連資料屬性{S 1 ,S 2 ,...S x }、及編輯平台20預設的保留詞彙{K 1 ,K 2 ,...K z }產製語音辨識詞彙。
接著,如圖2步驟S400所敘述者,使用者可透過行動裝置(例如,智慧眼鏡)於現場場景30中辨識出辨識物資訊對應的實體機台M1並從編輯平台20下載對應的語音辨識詞彙,以開始實體機器M1之擴增實境互動式內容之創建。
接著,如圖2步驟S500所敘述者,使用者可對著行動裝置說出(或是播放錄音檔)所欲之擴增實境互動式內容的創建內容,例如,說出或播放「當機台的Sx(在此實施例中為「溫度」)超過Tx(在此實施例中為「80」)時,播放替換零件動畫」語句。此時,行動裝置係將基於語音辨識詞彙解析上述創建內容,例如
從中找出運算元為「機台、Sx、Tx、替換零件動畫」,而運算子為「超過、播放」,並將上述辨識之語音及所辨識之實體(機台)的影像以第一擴增實境內容之方式呈現於現場場景30中,如圖3中的元件符號31所示之邏輯積木。使用者亦可視需要根據邏輯積木之提示調整第一擴增實境內容31或重新進行語音輸入。
在進一步實施例中,圖3所示第一擴增實境內容31之各個邏輯積木係跟隨使用者所講述每一個字詞而動態解析並產生者,故能在使用者講述創建內容時,即時確認講述內容並提示使用者可接續講述的詞彙。舉例來說,在使用者講述「當機台的溫度超過80時,播放替換零件動畫」創建內容期間,行動裝置即基於語音辨識詞彙逐字辨認講述內容並產生第一擴增實境內容31之各個邏輯積木。亦即,在使用者講述到「當」時,行動裝置將及時辨認此單字與「如果…執行」邏輯運算相關,並產製對應之邏輯積木311並顯示於現場場景30;在使用者接續講述到「機台」時,行動裝置係於現場場景30中尋找對應3D模型檔之實體機台M1,進而將實體機台M1的即時影像以邏輯積木312顯示於現場場景30中;並且由於已知實體機台M1對應之外連資料屬性包括「溫度」或「壓力」,故在使用者即將講述到上述創建內容中的「Sx(溫度)」前行動裝置將提前顯示可使用之運算元(包括「溫度」或「壓力」)以邏輯積木313顯示於現場場景30中,藉以提示使用者可接續講述之詞語並提升創建內容的正確性;在使用者選定「溫度」並接續講述「超過」時,行動裝置將即時辨認此詞彙與「>」運算子相關,並將對應之邏輯積木314顯示於現場場景30中;在使用者接續講述到「80度」時,行動裝置將即時辨認此詞彙為「>」運算子欲加入之變數運算元Tx,故同樣將對應之邏輯積木315顯示於現場場景30中;在使用者接續講述到「播放」時,行動裝置將辨認此詞彙係與「播放」運算子相關,並將對應之邏輯積木316顯示於現場場景30
中;而在使用者最終講述到「替換零件動畫」時,行動裝置將辨認此詞彙係與前述客製化動畫檔相關之運算元,故將對應之邏輯積木317顯示於現場場景中30。由上述可知,使用者可在講述創建內容時一併根據產生於現場場景30中之第一擴增實境內容31判斷語音辨識之結果,進而於必要時調整第一擴增實境內容31或重新進行語音輸入。
進一步地,如圖2步驟S600所敘述者,確認並完成校正之第一擴增實境內容,將產製為第二擴增實境內容並顯示於現場場景30中(如圖3元件符號32所示),進而回傳至編輯平台20中儲存。此時,第二擴增實境內容32將包含從第一擴增實境內容31中透過運算式組合得出之條件運算式expri(在此實施例中expri為Sx>Tx)和所對應之執行行為的陳述句stati(在此實施例中stati為「播放替換零件動畫」),並以條件觸發句(expri,stati)之形式儲存。
到此即完成圖3中對於物連網之機台的擴增實境互動式內容的創建,並且當日後使用者(機台維護人員)透過行動裝置再次確認到現場場景30中的實體機台M1時,即可依據此辨識物的即時數據(例如,透過網路介面I1向辨識物資訊綁定之實體機台M1取得即時數據)判斷此實體機台M1的狀態是否符合先前建立之條件觸發句(expri,stati),符合條件運算式expri的情況下即可執行陳述句stati以提醒使用者更換實體機台M1的零件。
圖4係揭示將本發明之方法與電腦可讀媒介運用於玩具之互動式場景的實施態樣。
此時,如圖2步驟S100所敘述者,使用者(如,玩具業者)可使用終端裝置10在編輯平台20處上傳欲作為辨識標的的3D模型檔(例如,模型玩具的3D模型檔)及用於互動提示的客製化音訊檔。
接著,如圖2步驟S200所敘述者,使用者可在編輯平台20處將所上傳的3D模型檔命名為「C1」、將客製化音訊檔命名為「C2」或編輯其他資料屬性,並整理為使用者編輯資料屬性{C 1 ,C 2 ,...C y }。
接著,如圖2步驟S300所敘述者,編輯平台20係根據使用者編輯資料屬性{C 1 ,C 2 ,...C y }及編輯平台20預設的保留詞彙{K 1 ,K 2 ,...K z }產製語音辨識詞彙。
接著,如圖2步驟S400所敘述者,使用者可透過行動裝置(例如,智慧眼鏡)於現場場景30中辨識出辨識物資訊對應的模型玩具並從編輯平台20下載對應的語音辨識詞彙,以開始擴增實境互動式內容之創建。
接著,如圖2步驟S500所敘述者,使用者可對著行動裝置說出(或是播放錄音檔)所欲之擴增實境互動式內容的創建內容,例如,說出或播放「當玩具呈現如圖時,播放提示音」語句。此時,行動裝置係將基於語音辨識詞彙解析上述創建內容,例如從中找出運算元為「玩具、如圖、提示音」,而運算子為「呈現、播放」,並將上述辨識之語音及所辨識實體(模型玩具)之影像以第一擴增實境內容之方式呈現於現場場景30中,如圖4中的元件符號41所示之邏輯積木。使用者亦可視需要根據邏輯積木之提示調整第一擴增實境內容41或重新進行語音輸入。
在進一步實施例中,圖4所示第一擴增實境內容41中各個邏輯積木係跟隨使用者所講述每一個字詞而動態解析並產生者,故能在使用者講述創建內容時即時確認講述內容。舉例來說,在使用者講述「當玩具呈現如圖時,播放提示音」創建內容期間,行動裝置即基於語音辨識詞彙逐字辨認講述內容並產生第一擴增實境內容41之各個邏輯積木。亦即,在使用者講述「當」時,行動裝置
將及時辨認此單字並產製對應之邏輯積木411並顯示於現場場景30;在使用者接續講述到「玩具」時,行動裝置將自現場場景30中辨認與所上傳3D模型檔對應之模型玩具,在辨認完成後將對應之運算元「玩具」以邏輯積木412顯示在現場場景30中;在使用者接續講述到「呈現」時,行動裝置將辨認此詞彙與「呈現」運算子相關,故將對應之邏輯積木413顯示於現場場景30中;在使用者講述到「如圖」時,行動裝置將辨認此「如圖」運算元係與模型玩具的現場狀況相關,並將對應3D模型檔之模型玩具的即時影像(即,模型玩具的現場狀況)顯示在邏輯積木414中,以作為此創建內容中條件觸發句的比較對象;在使用者接續講述到「播放」時,行動裝置將辨認此詞彙係與「播放」運算子相關,並將對應之邏輯積木415顯示於現場場景30中;而在使用者最終講述到「提示音」時,行動裝置將辨認此詞彙係與前述客製化音訊檔相關之運算元,故將對應之邏輯積木416顯示於現場場景中30。由上述可知,使用者可在講述創建內容時一併根據產生於現場場景30中之第一擴增實境內容31判斷語音辨識之結果,進而於必要時調整第一擴增實境內容31或重新進行語音輸入。
進一步地,如圖2步驟S600所敘述者,確認並完成校正之第一擴增實境內容,將產製為第二擴增實境內容並顯示於現場場景30中(如圖四元件符號42所示),進而回傳至編輯平台20中儲存。此時,第二擴增實境內容42將包含從第一擴增實境內容41中透過運算式組合得出之條件運算式expri(在此實施例中expri為「玩具如圖」)和所對應之執行行為的陳述句stati(在此實施例中stati為「播放提示音」),並以條件觸發句(expri,stati)之形式儲存。
到此即完成圖4中對於模型玩具的擴增實境互動式內容的創建,並且當日後使用者(如,消費者)透過行動裝置再次確認到現場場景30中的模型玩具
時,行動裝置可判斷此模型玩具之狀態是否符合先前建立之條件觸發句(expri,stati),符合條件運算式expri的情況下(即,如圖4所設定模型玩具被倒放的狀況)即可執行陳述句stati以提示音提醒使用者將模型玩具擺正。
綜上所述,本發明之用於創建擴增實境互動式內容之方法與電腦可讀媒介係提供使用者在使用行動裝置之擴增實境應用時,透過語音輸入及圖像化編輯方式即時創建所欲之擴增實境互動式內容,故能在不須開發者隨時介入之前提下執行簡便且易於引導的擴增實境互動式內容之開發,大幅減少開發人力與時間成本。
上述實施例僅為例示性說明,而非用於限制本發明。任何熟習此項技藝之人士均可在不違背本發明之精神及範疇下,對上述實施例進行修飾與改變。因此,本發明之權利保護範圍係由本發明所附之申請專利範圍所定義,只要不影響本發明之效果及實施目的,應涵蓋於此公開技術內容中。
S100~S600:步驟
Claims (10)
- 一種用於創建擴增實境互動式內容之方法,包括:接收辨識物資訊;根據該辨識物資訊產製語音辨識詞彙;當透過行動裝置於現場場景中辨認到該辨識物資訊對應之實體時,將該語音辨識詞彙傳送至該行動裝置;接收關於該實體之創建內容;以及根據該語音辨識詞彙分析該創建內容以生成第一擴增實境內容。
- 如請求項1所述之方法,其中,該辨識物資訊包括該實體對應之3D模型檔、2D圖片檔及/或該創建內容搭配之動畫檔、音訊檔及/或文字檔。
- 如請求項1所述之方法,復包括:在該根據該辨識物資訊產製語音辨識詞彙之步驟前,編輯該辨識物資訊。
- 如請求項3所述之方法,其中,該編輯該辨識物資訊之步驟係包括以下子步驟:接收使用者為該辨識物資訊自行定義之使用者編輯資料屬性;及接收該使用者將該辨識物資訊與該實體綁定所產生之外聯資料屬性。
- 如請求項4所述之方法,其中,該語音辨識詞彙係基於該使用者編輯資料屬性、該外聯資料屬性、及用於語音辨識中條件式之保留詞彙中之至少二者所產生者。
- 如請求項1所述之方法,其中,該創建內容係使用者透過語音輸入或播放錄音檔所產生者。
- 如請求項6所述之方法,其中,該根據該語音辨識詞彙分析該創建內容以生成第一擴增實境內容之步驟係包括以下子步驟:跟隨該創建內容之該語音輸入或該播放,根據該語音辨識詞彙動態解析該創建內容中之運算元與運算子;將各該運算元與該運算子之該動態解析結果所對應之文字或影像分別以邏輯積木方式產製為該第一擴增實境內容;及將該第一擴增實境內容顯示於該現場場景。
- 如請求項7所述之方法,復包括:根據該第一擴增實境內容生成第二擴增實境內容,係包括以下子步驟:將該第一擴增實境內容所對應該創建內容之各該運算元與該運算子進行運算式組合以得出條件運算式與陳述句,其中,該條件運算式係作為該實體所對應擴增實境互動式內容之啟動條件,而該陳述句係作為該啟動條件對應之執行行為;將該條件運算式與該陳述句產製為該第二擴增實境內容;及儲存該第二擴增實境內容。
- 如請求項8所述之方法,復包括:當透過該行動裝置再次於該現場場景中辨認到該辨識物資訊對應之該實體時,依據該第二擴增實境內容執行該實體對應之該擴增實境互動式內容。
- 一種用於創建擴增實境互動式內容之電腦可讀媒介,係應用於計算裝置或電腦中並係儲存有指令,以執行如請求項1至9所述之任一者所述之用於創建擴增實境互動式內容之方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109143247A TWI766469B (zh) | 2020-12-08 | 2020-12-08 | 用於創建擴增實境互動式內容之方法與電腦可讀媒介 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109143247A TWI766469B (zh) | 2020-12-08 | 2020-12-08 | 用於創建擴增實境互動式內容之方法與電腦可讀媒介 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI766469B true TWI766469B (zh) | 2022-06-01 |
TW202224424A TW202224424A (zh) | 2022-06-16 |
Family
ID=83062621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109143247A TWI766469B (zh) | 2020-12-08 | 2020-12-08 | 用於創建擴增實境互動式內容之方法與電腦可讀媒介 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI766469B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130201215A1 (en) * | 2012-02-03 | 2013-08-08 | John A. MARTELLARO | Accessing applications in a mobile augmented reality environment |
TW201342278A (zh) * | 2012-04-06 | 2013-10-16 | Wei-Yen Yeh | 資訊整合互動系統及其方法 |
TWM565348U (zh) * | 2017-12-04 | 2018-08-11 | 蔡聰源 | Interactive shopping information delivery system |
TW201905639A (zh) * | 2017-06-23 | 2019-02-01 | 盧俊諺 | 線上整合擴增實境的編輯裝置與系統 |
-
2020
- 2020-12-08 TW TW109143247A patent/TWI766469B/zh active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130201215A1 (en) * | 2012-02-03 | 2013-08-08 | John A. MARTELLARO | Accessing applications in a mobile augmented reality environment |
TW201342278A (zh) * | 2012-04-06 | 2013-10-16 | Wei-Yen Yeh | 資訊整合互動系統及其方法 |
TW201905639A (zh) * | 2017-06-23 | 2019-02-01 | 盧俊諺 | 線上整合擴增實境的編輯裝置與系統 |
TWM565348U (zh) * | 2017-12-04 | 2018-08-11 | 蔡聰源 | Interactive shopping information delivery system |
Also Published As
Publication number | Publication date |
---|---|
TW202224424A (zh) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10998005B2 (en) | Method and apparatus for presenting media information, storage medium, and electronic apparatus | |
WO2021109678A1 (zh) | 视频生成方法、装置、电子设备及存储介质 | |
US8364488B2 (en) | Voice models for document narration | |
JP6936298B2 (ja) | 三次元仮想ポートレートの口形の変化を制御する方法および装置 | |
US8972265B1 (en) | Multiple voices in audio content | |
US20160027431A1 (en) | Systems and methods for multiple voice document narration | |
JP2008500573A (ja) | メッセージを変更するための方法及びシステム | |
CN109801349B (zh) | 一种声音驱动的三维动画角色实时表情生成方法和系统 | |
US10460731B2 (en) | Apparatus, method, and non-transitory computer readable storage medium thereof for generating control instructions based on text | |
JP2005346721A (ja) | 自動的に動画を生み出すシステム | |
CN108257205B (zh) | 一种三维模型构建方法、装置及系统 | |
JP2016038601A (ja) | Cgキャラクタ対話装置及びcgキャラクタ対話プログラム | |
CN113590247B (zh) | 文本创作方法及计算机程序产品 | |
CN117529773A (zh) | 用户自主个性化文本转语音的声音生成 | |
TWI766469B (zh) | 用於創建擴增實境互動式內容之方法與電腦可讀媒介 | |
KR20200113675A (ko) | 대사를 캐릭터별 상이한 목소리로 변환하여 전달하는 웹툰 동영상 생성 방법 | |
KR102020341B1 (ko) | 악보 구현 및 음원 재생 시스템 및 그 방법 | |
KR20210074962A (ko) | 손쉬운 영상 메시지 제작 방법 및 이를 이용한 장치 | |
CA3108116A1 (en) | Real-time lip synchronization animation | |
KR20150026726A (ko) | 편집형 영상 객체를 이용한 커뮤니케이션 장치 및 그 방법 | |
CN114822492B (zh) | 语音合成方法及装置、电子设备、计算机可读存储介质 | |
JP7128222B2 (ja) | 映像コンテンツに対する合成音のリアルタイム生成を基盤としたコンテンツ編集支援方法およびシステム | |
Ghaziasgar | The use of mobile phones as service-delivery devices in sign language machine translation system | |
US20230205980A1 (en) | Multidirectional generative editing | |
CN114885206A (zh) | 一种音视频合成方法、装置、系统及存储介质 |