TW201911877A - 影視互動系統與方法 - Google Patents
影視互動系統與方法 Download PDFInfo
- Publication number
- TW201911877A TW201911877A TW106125678A TW106125678A TW201911877A TW 201911877 A TW201911877 A TW 201911877A TW 106125678 A TW106125678 A TW 106125678A TW 106125678 A TW106125678 A TW 106125678A TW 201911877 A TW201911877 A TW 201911877A
- Authority
- TW
- Taiwan
- Prior art keywords
- film
- television
- video
- viewer
- interactive
- Prior art date
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本發明係揭露一種影視互動系統與方法,包含影視互動子系統、顯示裝置、生物特徵擷取裝置及影視互動伺服器等組件所構成。影視互動子系統係一可執行之影視互動程式可連結自影視互動伺服器以播放影視內容並輸出於顯示裝置,當播放特定的影視片段或時間點時,影視互動子系統能控制生物特徵擷取裝置,以不打擾收視者觀賞影視內容的方式,自動採集收視者觀看影視當下的至少一生物特徵及反應等回饋訊息,經辨識和處理回饋訊息後,產生與影視時間融合的統整資訊並傳送回影視互動伺服器,讓影視商或實況主獲得影視播放過程中的收視者行為及分析影視播放效應。
Description
本發明屬於一種影視互動系統與方法,尤指一種當播放特定的影視片段或達特定時間點時,能以不打擾收視者觀賞影視內容的方式,自動採集收視者觀看影視當下的至少一生物特徵及反應等回饋訊息,經處理收視者之回饋訊息,並與影視時間軸融合產生統整資訊後,能獲得影視播放過程中的收視者行為及分析影視播放效應之影視互動系統與方法。
以往的電視互動系統,是以利用人臉表情來辨識輔助判斷並校正測驗結果,或是以分析臉部表情以判斷所停留的時間瞳孔偏移角度產生回饋結果以了解廣告效應,並無法利用人臉表情辨識來獲得影視收視者行為與分析影視效應,再者,常見以分析使用者觀看複數個廣告區塊中之一特定區塊時的臉部表情、停留時間、瞳孔偏移角度產生回饋結果以了解廣告效應,但仍無法依影視時間軸分析收視者複數個生物特徵回饋訊息不同。
本案發明人鑑於上述習用方式所衍生的各項缺點,乃亟思加以改良創新,並經多年苦心孤詣潛心研究後,終於成功研發完成本影視互動系統與方法。
為達上述目的,本發明提出提供一種影視互動系統與方法,線上影視和直播視訊的應用層面相當廣泛,例如直播健身,推廣健身器材或健身房;也有人直播教學、做菜、繪畫、遊戲實況等,然而影視商和實況主(Streamer)僅能藉由觀眾收視人次紀錄來評量哪些影視較受注目,卻無法更細部掌握哪些影視片段較受青睞,更無法獲得哪些影視內容受到人們高度的關注。
因此,本發明之目的,在於揭露一種影視互動系統與方法,以解決習知線上影視和直播視訊,僅具有以觀眾收視人次做大範圍的統計和預測,但無法得知特定影視的某片段或某視訊時間點的內容,是否受到高度關注之缺點。
基於上述目的,本發明係提供一種影視互動系統與方法,其包含影視互動子系統、顯示裝置、生物特徵擷取裝置及影視互動伺服器等組件所構成。影視互動子系統係一可執行之影視互動程式,執行影視互動程式可連結自影視互動伺服器以播放影視內容並輸出於顯示裝置,當播放特定的影視片段或時間點時,影視互動子系統能控制生物特徵擷取裝置,以不打擾收視者觀賞影視內容的方式,自動採集收視者觀看影視當下的至少一生物特徵及反應等回饋訊息,經辨識和處理回饋訊息後,產生與影視時間融合的統整資訊並傳送回影視互動伺服器,讓影視商或實況主獲得影視播放過程中的收視者行為及分析影視播放效應。
一種影視互動系統,其包括一顯示裝置,是為影視內容播放之輸出端;一生物特徵擷取裝置,是可以為內建於手持式裝置的傳感器;一影視互動伺服器,是為提供預錄好的影 視內容、提供即時直播方式之影視內容及提供收視者回饋統整資訊藉以獲得影視播放過程中的收視者行為及分析影視播放效應;以及一影視互動子系統,是連結於顯示裝置、及生物特徵擷取裝置、且另與影視互動伺服器連接。
其中顯示裝置,是可以為手持式裝置或個人電腦之顯示介面,另亦可以為外接螢幕顯示器設備,其中生物特徵擷取裝置,是可以為相機或麥克風,另亦可以外接連線方式運作的心率計數感測器、呼吸計數感測器或穿戴式設備之感測器。
其中影視互動子系統,是包含播放模組,是以播放影視互動伺服器的影視內容並輸出到顯示裝置;時間觸發模組,是偵測影視播放之時間軸,且當達設定的欲分析時間點時,即觸發擷取模組以取得收視者至少一生物特徵;擷取模組,是經由生物特徵擷取裝置自動採集收視者觀看影視當下的至少一個生物特徵及反應;辨識模組,是將回饋訊息與臉部表情資料、聲音資料進行回音消除、辨識比對,以得對應的回饋結果,及將聲音分貝和心率數值轉換成正規化數值;融合統整模組,是將辨識後的回饋結果與影視時間點融合成統整資料,對照設定的時間軸事件可獲得收視者觀看影視當下之回饋結果統計;以及傳送模組,是將互動統整結果傳回影視互動伺服器,讓影視商或實況主後續可以獲得影視播放過程中的收視者行為及分析影視播放效應。
其中生物特徵,是為臉部表情、環境聲音、語音辨識、或心律計數之回饋訊息,以及觀看影視內容者之反應。
一種影視互動方法,其包括:步驟一、將影視內容存放於影視互動伺服器; 步驟二、關連影視時間軸觸發採集事件;步驟三、播放影視內容與使用者;步驟四、以不打擾收視者觀賞影視內容的方式採集回饋訊息;步驟五、分析回饋訊息以及融合影視時間成統整資訊結果並傳送統整資訊。
其步驟一之放於影視互動伺服器,是將影視商上傳預錄好的影視內容至影視互動伺服器存放,或直播實況主以即時直播方式提供影視內容。
其步驟二之觸發採集事件,是設定影視內容關連至少一影視時間軸,影視時間軸可以對應至少一採集事件,做為後續當影視播放時間達設定時間軸,觸發生物特徵擷取裝置來執行採集收視者的生物特徵和行為之依據。其中影視時間軸,是可以為特定的影視片段、特定播放時間點或間隔時間。其中間隔時間,是可以為重複之間隔時間或複數個間隔時間。其中採集事件,是可以為觸發至少一生物特徵擷取裝置。
其步驟三,其收視者是使用影視互動子系統,連結自影視互動伺服器,播放影視內容並輸出於顯示裝置。其影視互動子系統為手持式裝置之APP(Application),為iOS、Android或Windows Phone之版本之APP方式,亦可以在Windows、Mac或Linux操作系统上執行之個人電腦應用程式方式。
其步驟四之採集回饋訊息,是當影視播放時間達設定時間軸,則影視互動子系統能觸發控制生物特徵擷取裝置,以不打擾收視者觀賞影視內容,自動採集收視者觀看影視當下的至少一個生物特徵及反應之回饋訊息。其中生物特徵 擷取裝置,是可以為內建於手持式裝置的傳感器,亦可以外接連線方式運作的感測器。
其步驟五,是由影視互動子系統採集回饋訊息後即進行分析,再與影視時間融合處理後成統整資訊結果,最後送回影視互動伺服器,回饋及統整資訊可讓影視商或直播實況主獲得影視播放過程中的收視者行為,與分析影視播放效應。其中回饋訊息,是擷取相關生物特徵,包含收視者之臉部表情、環境聲音擷取、語音辨識或心率數值之生物特徵,以及觀看影視內容者之反應。
本發明所提供一種影視互動系統與方法,與其他習用技術相互比較時,更具備下列優點:
1.本發明當播放特定的影視片段或時間點時,能以不打擾收視者觀賞影視內容的方式,自動採集收視者觀看影視當下的至少一生物特徵及反應等回饋訊息。
2.本發明分析處理回饋訊息並與影視時間軸融合產生統整資訊結果,可幫助影視商或實況主獲得影視播放過程中的收視者行為和反應等回饋訊息,進而了解與分析影視播放之效應。
3.本發明解決習知線上影視和直播視訊僅具有觀眾收視人次做大範圍的統計和預測,無法得知特定影視片段或視訊時間點的內容是否受到高度關注缺點。
110‧‧‧顯示裝置
120‧‧‧生物特徵擷取裝置
130‧‧‧影視互動子系統
131‧‧‧播放模組
132‧‧‧時間觸發模組
133‧‧‧擷取模組
134‧‧‧辨識模組
135‧‧‧融合統整模組
136‧‧‧傳送模組
140‧‧‧影視互動伺服器
S210~S250‧‧‧流程
請參閱有關本發明之詳細說明及其附圖,將可進 一步瞭解本發明之技術內容及其目的功效;有關附圖為:圖1為本發明影視互動系統與方法之架構圖;圖2為本發明影視互動系統與方法之流程圖。
為了使本發明的目的、技術方案及優點更加清楚明白,下面結合附圖及實施例,對本發明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅用以解釋本發明,但並不用於限定本發明。
以下,結合附圖對本發明進一步說明:請參閱圖1所示,為一種影視互動系統與方法之架構圖,其包括一顯示裝置110,是為影視內容播放之輸出端;一生物特徵擷取裝置120,是可以為內建於手持式裝置的傳感器;一影視互動伺服器140,是為提供預錄好的影視內容、提供即時直播方式之影視內容及提供收視者回饋統整資訊藉以獲得影視播放過程中的收視者行為及分析影視播放效應;以及一影視互動子系統130,是連結於顯示裝置、及生物特徵擷取裝置、且另與影視互動伺服器連接。
其中顯示裝置110,是可以為手持式裝置或個人電腦之顯示介面,另亦可以為外接螢幕顯示器設備,其中生物特徵擷取裝置120,是可以為相機或麥克風,另亦可以外接連線方式運作的心率計數感測器、呼吸計數感測器或穿戴式設備之感測器。
其中影視互動子系統130,是包含播放模組131,是以播放影視互動伺服器140的影視內容並輸出到顯示裝置110;時間觸發模組132,是偵測影視播放之時間軸,且當達設定的欲分析時間點時,即觸發擷取模組133以取得收視者 至少一生物特徵;擷取模組133,是經由生物特徵擷取裝置120自動採集收視者觀看影視當下的至少一個生物特徵及反應;辨識模組134,是將回饋訊息與臉部表情資料、聲音資料進行回音消除、辨識比對,以得對應的回饋結果,及將聲音分貝和心率數值轉換成正規化數值;融合統整模組135,是將辨識後的回饋結果與影視時間點融合成統整資料,對照設定的時間軸事件可獲得收視者觀看影視當下之回饋結果統計;以及傳送模組136,是將互動統整結果傳回影視互動伺服器140,讓影視商或實況主後續可以獲得影視播放過程中的收視者行為及分析影視播放效應。
其中生物特徵,是為臉部表情、環境聲音、語音辨識、或心律計數之回饋訊息,以及觀看影視內容者之反應。
請參閱圖1所示,為一種影視互動系統與方法之流程圖,其包括:步驟一、S210將影視內容存放於影視互動伺服器;步驟二、S220關連影視時間軸觸發採集事件;步驟三、S230播放影視內容與使用者;步驟四、S240以不打擾收視者觀賞影視內容的方式採集回饋訊息;步驟五、S250分析回饋訊息以及融合影視時間成統整資訊結果並傳送統整資訊。
由上述步驟可知,其步驟一之放於影視互動伺服器,是將影視商上傳預錄好的影視內容至影視互動伺服器存放,或直播實況主以即時直播方式提供影視內容。
其步驟二之觸發採集事件,是設定影視內容關連至少一影視時間軸,影視時間軸可以對應至少一採集事件,做 為後續當影視播放時間達設定時間軸,觸發生物特徵擷取裝置來執行採集收視者的生物特徵和行為之依據。其中影視時間軸,是可以為特定的影視片段、特定播放時間點或間隔時間。其中間隔時間,是可以為重複之間隔時間或複數個間隔時間。其中採集事件,是可以為觸發至少一生物特徵擷取裝置。
其步驟三,其收視者是使用影視互動子系統,連結自影視互動伺服器,播放影視內容並輸出於顯示裝置。其影視互動子系統為手持式裝置之APP(Application),為iOS、Android或Windows Phone之版本之APP方式,亦可以在Windows、Mac或Linux操作系统上執行之個人電腦應用程式方式。
其步驟四之採集回饋訊息,是當影視播放時間達設定時間軸,則影視互動子系統能觸發控制生物特徵擷取裝置,以不打擾收視者觀賞影視內容,自動採集收視者觀看影視當下的至少一個生物特徵及反應之回饋訊息。其中生物特徵擷取裝置,是可以為內建於手持式裝置的傳感器,亦可以外接連線方式運作的感測器。
其步驟五,是由影視互動子系統採集回饋訊息後即進行分析,再與影視時間融合處理後成統整資訊結果,最後送回影視互動伺服器,回饋及統整資訊可讓影視商或直播實況主獲得影視播放過程中的收視者行為,與分析影視播放效應。其中回饋訊息,是擷取相關生物特徵,包含收視者之臉部表情、環境聲音擷取、語音辨識或心率數值之生物特徵,以及觀看影視內容者之反應。
由上述可知,將影視內容存放於影視互動伺服器。影視商上傳預錄好的影視內容至影視互動伺服器存放,或直 播實況主以即時直播方式提供影視內容;關連影視時間軸觸發採集事件。其特徵是設定影視內容關連至少一影視時間軸,影視時間軸對應至少一採集事件,做為後續當影視播放時間達設定時間軸,觸發生物特徵擷取裝置來執行採集收視者的生物特徵和行為之依據。其中影視時間軸可以是特定的影視片段、特定播放時間點或間隔時間。其中間隔時間可以是重複之間隔時間或複數個間隔時間。其中採集事件可以觸發至少一生物特徵擷取裝置;觀看影視內容。收視者使用影視互動子系統,連結自影視互動伺服器,播放影視內容並輸出於顯示裝置。其中影視互動子系統可以為手持式裝置之APP(Application),例如:iOS、Android或Windows Phone等版本之APP方式,亦可在Windows、Mac或Linux等操作系统上執行之個人電腦應用程式方式。其中顯示裝置可以為手持式裝置,例如:智慧型手機或平板電腦等,亦可為螢幕顯示器設備,例如電視、電視牆、液晶螢幕、電漿電視、投影機或LED電子看板等;以不打擾收視者觀賞影視內容的方式採集回饋訊息。影視內容播放過程中,當影視播放時間達設定時間軸,則影視互動子系統能觸發控制生物特徵擷取裝置,其特徵是以不打擾收視者觀賞影視內容的方式,自動採集收視者觀看影視當下的至少一個生物特徵及反應等回饋訊息。其中生物特徵擷取裝置可以為內建於手持式裝置的傳感器,例如:相機或麥克風等,亦可以外接連線方式運作的感測器,例如:心率計數、呼吸計數或穿戴式設備等。其中回饋訊息可包含收視者之臉部表情、環境聲音擷取、語音辨識或心率數值等生物特徵,以及觀看影視內容者之反應;分析回饋訊息以及融合影視時間成統整資訊結果 並傳送該統整資訊。其特徵是影視互動子系統採集回饋訊息後即進行分析,再與影視時間融合處理後成統整資訊結果,最後送回影視互動伺服器,回饋及統整資訊可讓影視商或直播實況主獲得影視播放過程中的收視者行為,與分析影視播放效應。
下列實施例可同時參考圖1所示,一種影視互動系統包括顯示裝置110、生物特徵擷取裝置120、影視互動子系統130及影視互動伺服器140。顯示裝置110,為影視內容播放之輸出端。顯示裝置可為手持式裝置或個人電腦原有之顯示介面,亦可為外接螢幕顯示器設備。生物特徵擷取裝置120,主要特徵為以不打擾收視者觀賞影視內容的方式,自動採集收視者觀看影視當下的至少一個生物特徵及反應等回饋訊息。其中生物特徵擷取裝置120可以為內建於手持式裝置的傳感器,例如:相機或麥克風等,亦可以外接連線方式運作的感測器,例如:心率計數、呼吸計數或穿戴式設備等。其中回饋訊息可包含收視者之臉部表情、環境聲音擷取、語音辨識或心率數值等生物特徵,以及觀看影視內容者之反應。
影視互動子系統130,該影視互動子系統可執行於手持式裝置或個人電腦,可連結自影視互動伺服器140以播放影視內容並輸出於顯示裝置110,當播放特定的影視片段或時間點時,影視互動子系統130能控制生物特徵擷取裝置120,以不打擾收視者觀賞影視內容的方式,自動採集收視者觀看影視當下的至少一生物特徵及反應等回饋訊息,經辨識和處理回饋訊息後,產生與影視時間融合的統整資訊並傳送回影視互動伺服器140,讓影視商或實況主獲得影視播放過程中的收視者行為及分析影視播放效應。
影視互動伺服器140,該影視互動伺服器主要特徵為提供預錄好的影視內容、提供即時直播方式之影視內容及提供收視者回饋統整資訊藉以獲得影視播放過程中的收視者行為及分析影視播放效應。
影視互動子系130更進一步包含播放模組131、時間觸發模組132、擷取模組133、辨識模組134、融合統整模組135、傳送模組136其播放模組131以播放影視互動伺服器的影視及輸出到顯示裝置。時間觸發模組132偵測影視播放之時間軸,當達設定的欲分析時間點時,即觸發擷取模組133以取得收視者至少一生物特徵,例如:臉部表情、聲音、心律計數等等,成為回饋訊息。擷取模組133用以取得生物特徵裝置擷取的收視者至少一生物特徵之回饋訊息。辨識模組134係將回饋訊息與臉部表情資料、聲音資料進行回音消除、辨識比對,以得對應的回饋結果,及將聲音分貝和心率數值轉換成正規化數值。135融合統整模組將辨識後的回饋結果與影視時間點融合成統整資料,對照設定的時間軸事件可獲得收視者觀看影視當下之回饋結果統計。傳送模組136將互動統整結果傳回影視互動伺服器,讓影視商或實況主後續可以獲得影視播放過程中的收視者行為及分析影視播放效應。
例如,教學影視內容在特定的影視片段有講師說了一則笑話,在笑話結束之時間軸會觸發採集事件,採集收視者的臉部表情及反應成回饋訊息,經由影視互動子系統分析臉部表情後,統計收視者臉部表情呈現開心、平靜、不悅等比例,再將統計結果和時間軸融合成統整資訊後,傳送回影視互動伺服器。
以一手持式裝置使用為例,影視互動子系統自影 視互動伺服器播放影視內容,並輸出影視內容於顯示裝置。收視者透過顯示裝置觀看影視。播放過程中若達欲分析的時間點,則影視互動子系統自動觸發生物特徵擷取裝置,採集收視者的生物特徵及反應,例如:採集收視者之臉部表情或環境聲音等。影視互動子系統可延伸使用穿戴式裝置取得收視者的生物特徵及反應,例如:以穿戴式裝置採集收視者的心率數值。影視互動子系統處理回饋訊息,轉換並與影視時間融合成統整資訊。影視互動子系統傳送統整資訊至影視互動伺服器。影視供應商或實況主獲得收視者行為與分析影視效應。
以個人電腦使用為例,影視互動子系統序自影視互動伺服器播放影視,並輸出影視內容於顯示裝置。收視者透過顯示裝置觀看影視。播放過程中若達欲分析的時間點,則影視互動子系統自動觸發生物特徵擷取裝置,採集收視者的生物特徵及反應,例如:採集收視者之臉部表情或環境聲音等。
影視互動子系統處理回饋訊息,轉換並與影視時間融合成統整資訊。
影視互動子系統傳送統整資訊至影視互動伺服器。
影視供應商或實況主獲得收視者行為與分析影視效應。
當採集收視者回饋訊息,再與影視時間融合成統整資訊結果。影視應用如線上學習或直播,可自影視互動伺服器播放影視內容,設定關連連續間隔時間或特定視訊片段觸發生物特徵裝置,以不打擾收視者觀賞影視內容之方式自動採集收視者的臉部表情成回饋訊息,經與影視時間融合成統整資訊後,可供影視商或實況主分析研究視訊播放成效。其中臉部表情包含生氣、厭惡、害怕、快樂、難過、驚訝和無表情 等狀態。
上列詳細說明乃針對本發明之一可行實施例進行具體說明,惟該實施例並非用以限制本發明之專利範圍,凡未脫離本發明技藝精神所為之等效實施或變更,均應包含於本案之專利範圍中。
綜上所述,本案不僅於技術思想上確屬創新,並具備習用之傳統方法所不及之上述多項功效,已充分符合新穎性及進步性之法定發明專利要件,爰依法提出申請,懇請 貴局核准本件發明專利申請案,以勵發明,至感德便。
Claims (17)
- 一種影視互動系統,其包括:一顯示裝置,係為影視內容播放之輸出端;一生物特徵擷取裝置,係得以為內建於手持式裝置的傳感器;一影視互動伺服器,係為提供預錄好的影視內容、提供即時直播方式之影視內容及提供收視者回饋統整資訊藉以獲得影視播放過程中的收視者行為及分析影視播放效應;以及一影視互動子系統,係連結於該顯示裝置、及該生物特徵擷取裝置、且另與該影視互動伺服器連接。
- 如申請專利範圍第1項所述之影視互動系統,其中該顯示裝置,係得以為手持式裝置或個人電腦之顯示介面,另亦得以為外接螢幕顯示器設備。
- 如申請專利範圍第1項所述之影視互動系統,其中該生物特徵擷取裝置,係得以為為內建於手持式裝置的傳感器之相機或麥克風,另亦得以外接連線方式運作的心率計數感測器、呼吸計數感測器或穿戴式設備之感測器。
- 如申請專利範圍第1項所述之影視互動系統,其中該影視互動子系統,係包含:播放模組,係以播放該影視互動伺服器的影視內容並輸出到該顯示裝置;時間觸發模組,係偵測影視播放之時間軸,且當達設定的欲分析時間點時,即觸發擷取模組以取得收視者至少一生物特徵;擷取模組,係經由該生物特徵擷取裝置自動採集收視者觀看影視當下的至少一個生物特徵及反應; 辨識模組,係將回饋訊息與臉部表情資料、聲音資料進行回音消除、辨識比對,以得對應的回饋結果,及將聲音分貝和心率數值轉換成正規化數值;融合統整模組,係將辨識後的回饋結果與影視時間點融合成統整資料,對照設定的時間軸事件可獲得收視者觀看影視當下之回饋結果統計;以及傳送模組,係將互動統整結果傳回影視互動伺服器,讓影視商或實況主後續可以獲得影視播放過程中的收視者行為及分析影視播放效應。
- 如申請專利範圍第4項所述之影視互動系統,其中該生物特徵,係為臉部表情、環境聲音、語音辨識、或心律計數之回饋訊息,以及觀看影視內容者之反應。
- 一種影視互動方法,其包括:步驟一、將影視內容存放於影視互動伺服器;步驟二、關連影視時間軸觸發採集事件;步驟三、播放影視內容與使用者;步驟四、以不打擾收視者觀賞影視內容的方式採集回饋訊息;步驟五、分析回饋訊息以及融合影視時間成統整資訊結果並傳送該統整資訊。
- 如申請專利範圍第6項所述之影視互動方法,其中該步驟一之該放於影視互動伺服器,係將影視商上傳預錄好的影視內容至影視互動伺服器存放,或直播實況主以即時直播方式提供影視內容。
- 如申請專利範圍第6項所述之影視互動方法,其中該步驟二之該觸發採集事件,係設定影視內容關連至少一影視時 間軸,影視時間軸得以對應至少一採集事件,做為後續當影視播放時間達設定時間軸,觸發生物特徵擷取裝置來執行採集收視者的生物特徵和行為之依據。
- 如申請專利範圍第6項所述之影視互動方法,其中該步驟三,其收視者係使用影視互動子系統,連結自影視互動伺服器,播放影視內容並輸出於顯示裝置。
- 如申請專利範圍第6項所述之影視互動方法,其中該步驟四之該採集回饋訊息,係當影視播放時間達設定時間軸,則影視互動子系統能觸發控制生物特徵擷取裝置,以不打擾收視者觀賞影視內容,自動採集收視者觀看影視當下的至少一個生物特徵及反應之回饋訊息。
- 如申請專利範圍第6項所述之影視互動方法,其中該步驟五,係由影視互動子系統採集回饋訊息後即進行分析,再與影視時間融合處理後成統整資訊結果,最後送回影視互動伺服器,回饋及統整資訊可讓影視商或直播實況主獲得影視播放過程中的收視者行為,與分析影視播放效應。
- 如申請專利範圍第6項所述之影視互動方法,其中該回饋訊息,係擷取相關生物特徵,包含收視者之臉部表情、環境聲音擷取、語音辨識或心率數值之生物特徵,以及觀看影視內容者之反應。
- 如申請專利範圍第8項所述之影視互動方法,其中該影視時間軸,係得以為特定的影視片段、特定播放時間點或間隔時間。
- 如申請專利範圍第8項所述之影視互動方法,其中該間隔時間,係得以為重複之間隔時間或複數個間隔時間。
- 如申請專利範圍第9項所述之影視互動方法,其中該採集 事件,係得以為觸發至少一生物特徵擷取裝置。
- 如申請專利範圍第9項所述之影視互動方法,其中該影視互動子系統,係為手持式裝置之APP(Application),為iOS、Android或Windows Phone之版本之APP方式,亦得以在Windows、Mac或Linux操作系统上執行之個人電腦應用程式方式。
- 如申請專利範圍第9項所述之影視互動方法,其中該生物特徵擷取裝置,係得以為為內建於手持式裝置的傳感器之相機或麥克風,另亦得以外接連線方式運作的心率計數感測器、呼吸計數感測器或穿戴式設備之感測器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106125678A TWI632811B (zh) | 2017-07-31 | 2017-07-31 | Film and television interactive system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106125678A TWI632811B (zh) | 2017-07-31 | 2017-07-31 | Film and television interactive system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI632811B TWI632811B (zh) | 2018-08-11 |
TW201911877A true TW201911877A (zh) | 2019-03-16 |
Family
ID=63959728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW106125678A TWI632811B (zh) | 2017-07-31 | 2017-07-31 | Film and television interactive system and method |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI632811B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11949967B1 (en) | 2022-09-28 | 2024-04-02 | International Business Machines Corporation | Automatic connotation for audio and visual content using IOT sensors |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8154615B2 (en) * | 2009-06-30 | 2012-04-10 | Eastman Kodak Company | Method and apparatus for image display control according to viewer factors and responses |
TWI591557B (zh) * | 2012-05-07 | 2017-07-11 | 財團法人工業技術研究院 | 配置廣告的系統與方法 |
US9395543B2 (en) * | 2013-01-12 | 2016-07-19 | Microsoft Technology Licensing, Llc | Wearable behavior-based vision system |
-
2017
- 2017-07-31 TW TW106125678A patent/TWI632811B/zh not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11949967B1 (en) | 2022-09-28 | 2024-04-02 | International Business Machines Corporation | Automatic connotation for audio and visual content using IOT sensors |
Also Published As
Publication number | Publication date |
---|---|
TWI632811B (zh) | 2018-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220159341A1 (en) | Systems and methods for assessing viewer engagement | |
CN106605218B (zh) | 收集和处理与基于网络的内容的交互过程中的计算机用户数据的方法 | |
US7889073B2 (en) | Laugh detector and system and method for tracking an emotional response to a media presentation | |
EP3659344B1 (en) | Calibration system for audience response capture and analysis of media content | |
US20120204202A1 (en) | Presenting content and augmenting a broadcast | |
US8726304B2 (en) | Time varying evaluation of multimedia content | |
US20120159527A1 (en) | Simulated group interaction with multimedia content | |
US20220058382A1 (en) | Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition | |
US10897647B1 (en) | Ascertaining audience reactions for a media item | |
US20190379938A1 (en) | Computer-implemented system and method for determining attentiveness of user | |
CN103237248A (zh) | 基于媒体反应来控制媒体节目 | |
US11540009B2 (en) | Systems and methods for assessing viewer engagement | |
KR20090121016A (ko) | 시청자 반응 측정 방법 및 시스템 | |
TWI632811B (zh) | Film and television interactive system and method | |
US20140012792A1 (en) | Systems and methods for building a virtual social network | |
US11968425B2 (en) | Method and apparatus for shared viewing of media content | |
WO2023020509A1 (zh) | 一种观看直播的用户信息处理方法、装置及设备 | |
US20220408153A1 (en) | Information processing device, information processing method, and information processing program | |
CN111090402A (zh) | 一种控制显示屏输出内容的方法及终端设备 | |
US20230319348A1 (en) | Systems and methods for assessing viewer engagement | |
CN112887771A (zh) | 视频评价方法及装置、计算机可读介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |