TWI628650B - 支持語音對講功能的移動終端與語音對講方法 - Google Patents
支持語音對講功能的移動終端與語音對講方法 Download PDFInfo
- Publication number
- TWI628650B TWI628650B TW103103940A TW103103940A TWI628650B TW I628650 B TWI628650 B TW I628650B TW 103103940 A TW103103940 A TW 103103940A TW 103103940 A TW103103940 A TW 103103940A TW I628650 B TWI628650 B TW I628650B
- Authority
- TW
- Taiwan
- Prior art keywords
- content
- user
- voice
- mobile terminal
- item
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000002996 emotional effect Effects 0.000 claims abstract description 70
- 238000012545 processing Methods 0.000 claims abstract description 33
- 230000004044 response Effects 0.000 claims abstract description 5
- 230000014509 gene expression Effects 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 230000008921 facial expression Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 230000008451 emotion Effects 0.000 description 10
- 238000005259 measurement Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Information Transfer Between Computers (AREA)
Abstract
提供一種支持語音對講功能的移動終端與語音對講方法,所述方法用於基於用戶的當前情緒狀態、年齡和性別而輸出不同的內容。支持語音對講功能的移動終端包括:顯示單元;音頻處理單元;控制單元,回應於用戶輸入而選擇對應於與用戶相關聯的第一標準的內容,基於與用戶相關聯的第二標準而確定內容輸出方案,根據內容輸出方案通過顯示單元和音頻處理單元輸出經選擇的內容。
Description
本發明是有關於一種具備語音對講功能的移動終端以及語音對講控制方法,更具體地說,是有關於一種用於根據用戶的當前情緒、年齡和性別區別地輸出內容的具備語音對講功能的終端與語音對講控制方法。
習知的語音對講功能以這樣的方式操作:從由終端生產商提供的基本回答集合中選擇針對用戶問題的回答。因此,語音對講功能被限制為針對相同的問題給出相同的回答,而不考慮用戶。這意味著當多個用戶使用具備語音對講功能的終端時,習知的語音對講功能不提供針對用戶優選的回答。
做出本發明以解決至少上述問題和缺點,並提供至少下述優點。因此,本發明的一方面提供一種用於輸出反應用戶的當前情緒狀態、年齡和性別的內容的移動終端及其語音對講控制方法。
根據本發明的一方面,提供一種支持語音對講功能的移動終端。所述移動終端包括:顯示單元;音頻處理單元;控制單元,經組態以回應於用戶輸入而選擇對應於與用戶相關聯的第一標準的內容,基於與用戶相關聯的第二標準而確定內容輸出方案,根據內容輸出方案通過顯示單元和音頻處理單元輸出經選擇的內容。
根據本發明的另一方面,提供一種移動終端的語音對講方法。所述方法包括:回應於用戶輸入選擇對應於與用戶相關聯的第一標準的內容;基於與用戶相關聯的第二標準而確定內容輸出方案;根據內容輸出方案通過移動終端的顯示單元和音頻處理單元輸出經選擇的內容。
100‧‧‧移動終端
110‧‧‧無線電通信單元
120‧‧‧相機單元
130‧‧‧位置測量單元
140‧‧‧音頻處理單元
150‧‧‧顯示單元
160‧‧‧儲存單元
170‧‧‧控制單元
171‧‧‧內容選擇模組
175‧‧‧內容輸出模組
200‧‧‧伺服器
300‧‧‧無線通信網路
AT1、AT2‧‧‧情緒狀態的內容
S210、S220、S230、S240、S250、S260、S270、S280、S290‧‧‧步驟
S310、S320、S330、S340、S350‧‧‧步驟
UT‧‧‧短語
從下面結合附圖的詳細描述中,本發明的實施例的以上和其他方面、特點和優點將變得清楚。
圖1是說明根據本發明實施例的移動終端100的配置的方塊圖。
圖2是說明根據本發明實施例的語音對講功能控制方法的流程圖。
圖3是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。
圖4和圖5是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
圖6是說明圖2的第一標準獲得步驟的細節的流程圖。
圖7是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。
圖8和圖9是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
圖10是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。
圖11是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
圖12是說明根據本發明實施例的用於移動終端的語音對講功能的系統的示意圖。
下面將參照附圖更全面地描述本發明,在附圖中說明本發明的示意性實施例。然而,本發明可被實施為多種不同的形式,並不應被解釋為限制於這裏闡述的實施例。而是,提供這些實施例從而使本發明的描述將是全面且完整的,並且將本發明的範圍完整地傳達給本領域技術人員。本發明將由申請專利範圍所限定。
雖然以下參照附圖更詳細地描述序號,在附圖中說明本發明的示意性實施例,但是本發明可被實施為多種不同的形式,並不應被術語限制,所述術語僅用於將一個元件、區域、層或區間與另一元件、區域、層或區間區分開來。因此,在不脫離本發明構思的教導的情況下,下面討論的第一元件、元件、區域、層或區間可以被稱為第二元件、元件、區域、層或區間。應理解,當使用連接詞“和/或”等來描述一個或多個相關的列出項目時,
描述包括所述一個或多個相關的列出專案的任意和所有組合。
圖1是說明根據本發明實施例的移動終端100的配置的框圖。
參照圖1,移動終端100包括無線電通信單元110、相機單元120、位置測量單元130、音頻處理單元140、顯示單元150、儲存單元160和控制單元170。
無線電通信單元110發送/接收攜帶資料的無線電信號。無線電通信單元110可包括經組態以對發送信號進行上轉換(up-convert)和放大的射頻(radio frequency,RF)發送器以及經組態以對接收的信號進行低噪放大(low noise amplify)和下轉換(down-convert)的RF接收器。無線電通信單元110將通過無線電通道接收到的資料傳輸到控制單元170,並將從控制單元170輸出的資料通過無線電通道發送出去。
相機單元120接收視頻信號。相機單元120處理在視頻會議模式下或圖像拍攝模式下由圖像感測器獲得的靜止圖像或運動圖像的視頻幀(video frame)。相機單元120可將經處理的視頻幀輸出到顯示單元150。由相機單元120處理的視頻幀可被儲存在儲存單元中和/或通過無線電通信單元110被發送到外部。
根據移動終端110的實現方式,相機單元120可包括兩個或更多個相機模組。例如,移動終端100可包括朝向與顯示單元150的螢幕相同方向的相機以及朝向與螢幕相反方向的另一相機。
位置測量單元130可設置有衛星信號接收模組,用於基於從衛星接收到的信號而測量移動終端100的當前位置。通過無
線電通信單元110,位置測量單元130還可基於從設施內的內部或外部無線電通信設備接收到的信號來測量移動終端100的當前位置。
音頻處理單元140可設置有編解碼器組,編解碼器組包括用於處理包資料的資料編解碼器和用於處理諸如語音的音頻信號的音頻編解碼器。音頻處理單元140可通過音頻編解碼器將數位音頻信號轉換為類比音頻信號,從而通過揚聲器(speaker,SPK)輸出類比信號,音頻處理單元140可將通過麥克風(microphone,MIC)輸入的類比信號轉換為數位音頻信號。
顯示單元150以可視方式向用戶顯示功能表、輸入資料、功能配置資訊等。顯示單元150輸出啟動螢幕、待機螢幕、功能表螢幕、通話螢幕和其他應用執行螢幕。
可利用液晶顯示器(liquid crystal display,LCD)、有機發光二極體(organic light emitted diode,OLED)、有源矩陣有機發光二極體(active matrix organic light emitted diode,AMOLED)、可撓性顯示器(flexible display)和3維(3D)顯示器來實現顯示單元150。
儲存單元160儲存移動終端100的操作所需要的程式和資料,並可被劃分為程式區域和資料。程式區域可儲存用於控制移動終端100的整體操作的基本程式、用於啟動移動終端100的作業系統(operating system,OS)、多媒體內容重播應用和用於執行可選功能(諸如語音對講、相機、音頻重播和視頻重播)的其他應用。資料區域可儲存在使用移動終端100的狀態下產生的資料,諸如靜止和運動圖像、電話簿和音頻資料。
控制單元170控制移動終端100的元件的整體操作。在根據用戶操縱執行的語音對講功能中,控制單元170接收通過音頻處理單元140輸入的用戶語音,並控制顯示單元150顯示與用戶語音相應的內容。控制單元170還可通過音頻處理單元140播放與用戶語音相應的內容。這裏,內容可包括多媒體內容(諸如文本、圖片、語音、電影和視頻片段)和諸如天氣、推薦位置和最喜愛聯繫人的資訊中的至少一個。
更具體地說,控制單元170識別用戶語音以獲得相應文本。接下來,控制單元170檢索與文本相應的內容並通過顯示單元150和音頻處理單元140中的至少一個輸出內容。最後,控制單元170可檢查文本的意思以在儲存單元160所儲存的相關內容中檢索相應內容。以這種方式,通過使用交互語音通信,可通過相關的儲存內容向用戶提供期望的資訊。例如,如果用戶說出“今天的天氣?”,則移動終端100接收通過音頻處理單元140輸入的用戶語音。之後移動終端100檢索與從用戶語音獲得的文本“今天的天氣”相應的內容(天氣資訊),並通過顯示單元150和音頻處理單元140中的至少一個輸出檢索到的內容。
具體地說,在本發明的實施例中,控制單元170可根據用戶的當前情緒、年齡和性別選擇將通過顯示單元150和/或音頻處理單元140輸出的內容。為了完成該目的,根據本發明的實施例,控制單元170可包括內容選擇模組171和內容輸出模組175。
圖2是說明根據本發明實施例的語音對講功能控制方法的流程圖。
參照圖2,如果在步驟S210執行語音對講功能,則在步
驟S220,內容選擇模組171獲得與用戶相關聯的第一標準。這裏,第一標準可包括用戶的當前情緒狀態。情緒狀態表示諸如高興、悲傷、憤怒、驚訝等的感情或感受。
在步驟S230,內容選擇模組171確定是否檢測到用戶語音輸入。如果通過語音處理單元140檢測到用戶語音輸入,則在步驟S240,內容選擇模組171基於第一標準而選擇與用戶語音輸入相應的內容。更具體地說,內容選擇模組171從用戶語音獲得短語。接下來,內容選擇模組171檢索與短語相應的內容。接下來,內容選擇模組171使用來第一標準預定的情緒狀態資訊選擇內容之一。這裏,情緒狀態特定的內容資訊可以被預配置並被儲存在儲存單元160中。內容選擇模組171還可首先基於第一標準而檢索內容並隨後選擇與短語相應的內容之一。
另一方面,如果在步驟S230沒有檢測到用戶語音輸入,則在步驟S250,內容選擇模組171基於第一標準而選擇內容。
如果內容被選擇,則在步驟S260,內容輸出模組175獲得與用戶相關聯的第二標準。這裏,第二標準可包括用戶年齡和性別中的至少一個。用戶年齡可以是精確的用戶年齡,或者是預定年齡組之一。例如,可利用精確的數位(諸如30或50)指示用戶年齡,或利用年齡組(諸如20幾歲、50幾歲、兒童、成人和老年人)指示用戶年齡。
具體地說,內容輸出模組從相機單元120接收用戶的面部圖像。內容輸出模組175可基於儲存在儲存單元160中的按照年齡組或按照性別的平均面部資訊從用戶的面部圖像自動地獲得第二標準。內容輸出模組175還接收通過語音處理單元140輸入
的用戶語音。接下來,內容輸出模組175可使用按照年齡組或按照性別的平均語音資訊從用戶語音獲得第二標準。內容輸出模組175還可基於構成從用戶語音獲得的短語的詞語來獲得第二標準。此時,內容輸出模組175可使用按照年齡組或按照性別的詞語來獲得第二標準。例如,如果從用戶語音獲得短語“我想要新的jim-jam”,則可基於詞語“jim-jam”判斷該用戶是兒童。
內容輸出模組175可基於用戶面部圖像和語音兩者而獲得第二標準。雖然描述針對內容輸出模組175基於用戶面部圖像和語音獲得第二標準的情況,但是本發明的各種實施例不限於此,而是可被實施為能夠使用戶輸入第二標準。在此情況下,由用戶輸入的第二標準可被儲存在儲存單元160中。內容輸出模組175基於儲存在儲存單元160中的第二標準而執行預定功能。
如果獲得了第二標準,則在步驟S270,內容輸出模組175基於第二標準而確定內容輸出方案。也就是說,內容輸出模組175通過改變構成由內容選擇模組171選擇的內容的詞語、選擇的內容的輸出速度以及選擇的內容的輸出大小,來確定內容輸出方案。
更具體地說,內容輸出模組175可基於按照年齡組的詞語資訊或按照性別的詞語資訊來將構成選擇的內容的詞語改變為適合於第二標準的詞語。例如,如果內容包括“Pajamas商店”並且如果用戶屬於“兒童”年齡組,則內容輸出模組175將詞語“Pajamas”改為適合於兒童的詞語“Jim jam”。
內容輸出模組175基於儲存在儲存單元160中的按照年齡組的輸出速度資訊或按照性別的輸出速度資訊而確定經選擇的內容的輸出速度。例如,如果用戶屬於“兒童”或“老年人”年
齡組,則內容輸出模組175可降低選擇的內容的語音重播速度。
內容輸出模組175還基於按照年齡組的輸出大小資訊或按照性別的輸出大小資訊而確定經選擇的內容的輸出大小。例如,如果用戶屬於“老年人”年齡組,則內容輸出模組175可基於按照年齡組的輸出大小資訊而增加經選擇的內容的輸出音量以及選擇的內容的顯示大小(例如,字體大小)。儲存單元160儲存包含年齡組或性別到內容輸出方案(內容輸出速度和大小)的映射的表,並且內容輸出模組175基於儲存在表映射中的資料而確定選擇的內容的輸出方案。如果選擇了內容輸出方案,則在步驟S280,內容輸出模組175根據內容輸出方案通過顯示單元150和音頻處理單元140輸出由內容選擇模組171選擇的內容。
之後,如果在步驟S290檢測到語音對講功能終止請求,則控制單元170結束語音對講功能。如果在步驟S290沒有檢測到語音對講功能終止請求,則控制單元170將處理返回步驟S220。
如上所述,本發明的語音對講控制方法選擇適合於用戶的當前情緒狀態的內容,並根據用戶的年齡和/或性別確定內容輸出方案,從而向用戶提供個性化的內容。該方法能夠提供更逼真的語音對講功能。
同時,如果從通過語音處理單元140輸入的用戶語音獲得的短語是用於改變內容輸出方案的請求,則內容輸出模組175根據短語改變內容輸出方案。例如,在已經根據基於第二標準確定的內容輸出方案輸出內容之後,如果用戶說出短語“你能更快更輕地說話嗎?”,則控制輸出模組175將語音重播速度增加一級並將音頻音量減小一級。
內容輸出模組175可將改變後的內容輸出方案儲存在儲存單元160中。之後,內容輸出模組175使用先前儲存的內容輸出方案歷史而改變基於第二標準確定的內容輸出方案。內容輸出模組175可根據改變後的內容輸出方案輸出經選擇的內容。
下面參照圖3至圖5描述根據本發明實施例的內容輸出處理。
圖3是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。圖4和圖5是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
參照圖3,內容被預先映射到情緒狀態。情緒狀態“高興”被映射到內容A,情緒狀態“悲傷”被映射到內容B,情緒狀態“憤怒”被映射到內容C,情緒狀態“驚訝”被映射到內容D。這些情緒狀態和內容被預先映射並被儲存在儲存單元160中。
內容選擇模組171可在按照情緒狀態的內容中選擇適合於第一標準(用戶的當前情緒狀態)的內容。
參照圖4,基於從通過音頻處理單元140輸入的用戶語音獲得的短語UT以及第一標準(用戶的當前情緒狀態),內容選擇模組171選擇針對情緒狀態“高興”的內容A(AT1)和針對情緒狀態“悲傷”的內容B(AT2)。
參照圖5,基於第一標準(用戶的當前情緒狀態),內容選擇模組171選擇針對情緒狀態“憤怒”的內容C(AT1)和針對情緒狀態“驚訝”的內容D(AT2)。
雖然圖3針對每個情緒狀態映射一個內容專案,但是本發明不限於此,而是可被實施為每個情緒狀態映射多個內容專
案。在此情況下,內容選擇模組171可隨機地選擇與第一標準(用戶的當前情緒狀態)相應的多個內容之一。
可按照情緒狀態對內容進行分組。“內容組”表示具有相同/相似屬性的內容的集合。例如,內容組可被分類為“動作”電影內容組、“R&B”音樂內容組等中的一個。在此情況下,內容選擇模組171可隨機地選擇滿足第一標準(用戶的當前情緒狀態)的內容組的內容之一。
圖6是說明圖2的第一標準獲得步驟的細節的流程圖。
參照圖6,內容選擇模組171在步驟S310從相機單元120獲得用戶的面部圖像,並在步驟S320從面部圖像檢測面部區域。也就是說,內容選擇模組171檢測具有眼、鼻和嘴的面部區域。
接下來,內容選擇模組171在步驟S330提取眼、鼻和嘴的基準點,並在步驟S340基於基準點識別面部表情。也就是說,內容選擇模組171基於儲存在儲存單元160中的按照表情的基準點資訊識別用戶的當前表情。
之後,在步驟S350,內容選擇模組171基於表情自動地檢索第一標準,所述表情基於預定的按照情緒狀態的表情資訊被確定。這裏,按照情緒狀態的表情資訊可以被預先配置且被儲存在儲存單元160中。
雖然描述針對內容選擇模組171基於用戶的面部圖像獲得第一標準的情況,但是本發明不限於此,而是可被實施為能夠使用戶輸入第一標準。
下面參照圖7至圖9描述根據本發明實施例的另一內容輸出處理。
圖7是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。圖8和圖9是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
內容選擇模組171可使用用戶的過去內容重播歷史,基於第一標準(用戶的當前情緒狀態)選擇內容。過去內容重播歷史被儲存在儲存單元160中,並且每當內容根據用戶操縱被播放時都被更新。
參照圖7,重播的次數或各個內容專案被儲存在儲存單元160中。內容A1被播放三次,內容A2被播放十次,內容B1被播放五次,內容B2被播放兩次,內容C1被播放八次,內容C2被播放十五次,內容D1被播放兩次,內容D2被播放一次。內容A1和A2被映射到情緒狀態“高興”,內容B1和B2被映射到情緒狀態“悲傷”,內容C1和C2被映射到情緒狀態“憤怒”,內容D1和D2被映射到情緒狀態“驚訝”(見圖3)。
內容選擇模組171可基於過去內容重播歷史而選擇適合於第一標準(用戶的當前情緒狀態)的多個內容之一。
參照圖8,如果第一標準(用戶的當前情緒)是“高興”,則內容選擇模組171從映射到第一標準(用戶的當前情緒)的內容A1和A2中選擇已被更頻繁地播放的內容A2(AT1)。如果第一標準(用戶的當前情緒)是“悲傷”,則內容選擇模組171從映射到第一標準(用戶的當前情緒)的內容B1和B2中選擇已被更頻繁地播放的內容B1(AT2)。
此時,內容選擇模組171可選擇映射到第一標準(用戶的當前情緒)的多個內容。然後,內容輸出模組175可基於過去
內容重播歷史而確定多個內容的輸出位置。
參照圖9,如果第一標準(用戶的當前情緒)是“高興”,則內容選擇模組171選擇內容A1和A2兩者作為滿足第一標準(用戶的當前情緒)的內容(AT1)。然後,內容輸出模組175將內容A1配置在已被更頻繁地播放的內容A2之下(AT1)。如果第一標準(用戶的當前情緒)是“悲傷”,則內容選擇模組171選擇內容B1和B2兩者作為滿足第一標準(用戶的當前情緒)的內容(AT2)。然後,內容輸出模組175將內容B2配置在已被更頻繁地播放的內容B1之下(AT2)。
下面參照圖10和圖11描述根據本發明實施例的另一內容輸出處理。
圖10是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。圖11是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
內容選擇模組171可基於第一標準(用戶的當前情緒狀態)和用戶的基於過去情緒狀態的內容輸出歷史來選擇內容。用戶的基於過去情緒狀態的內容輸出歷史被儲存在儲存單元160中,並且在語音對講功能啟動時,每當內容根據用戶的情緒狀態被輸出時都被更新。
參照圖10,基於過去情緒狀態的內容輸出次數被儲存在儲存單元160中。內容A1已經被輸出三次,內容A2已經被輸出八次,內容B1已經被輸出四次,內容B2已經被輸出一次,內容C1已經被輸出三次,內容C2已經被輸出十一次,內容D1已經被輸出兩次,內容D2已經被輸出五次。
內容選擇模組171可使用基於過去情緒狀態的內容輸出歷史來選擇被映射到第一標準(用戶的當前情緒狀態)的多個內容之一。
參照圖11,如果第一標準(用戶的當前情緒狀態)是“高興”,則內容選擇模組171從內容A1和A2中選擇與用戶的過去情緒狀態相關聯的已被更頻繁地輸出的內容A2作為與第一標準相應的內容(AT1)。如果第一標準(用戶的當前情緒)是“悲傷”,則內容選擇模組171從內容B1和B2中選擇與用戶的過去情緒狀態相關聯的已被更頻繁地輸出的內容B2作為與第一標準(用戶的當前情緒狀態)相應的內容(AT2)
內容選擇模組171可選擇被映射為滿足第一標準(用戶的當前情緒狀態)的所有內容。然後,內容輸出模組175使用基於過去情緒狀態的內容輸出歷史而確定多個內容的輸出位置。例如,如果第一標準(用戶的當前情緒狀態)是“高興”,則內容選擇模組171選擇內容A1和A2兩者作為與第一標準(用戶的當前情緒狀態)相應的內容。然後,內容輸出模組175將內容A1配置在內容A2之下,其中,根據過去的用戶情緒狀態,內容A2已被更頻繁地播放。
下面描述根據本發明實施例的另一內容輸出處理。
內容選擇模組171可基於第一標準(用戶的當前情緒狀態)使用通過位置測量單元130獲得的移動終端100的當前位置而選擇內容。更具體地說,內容選擇模組171基於第一標準(用戶的當前情緒狀態)而獲得多個內容。接下來,內容選擇模組171從獲得的內容中選擇與在移動終端的當前位置的預定半徑範圍內
的區域相關聯的內容。例如,如果內容是關於推薦地點(飯店、咖啡廳等)的資訊,則內容供選擇模組171可基於移動終端的當前位置資訊而選擇適合於移動終端100的當前位置的內容。
當然,內容選擇模組171可獲得與在移動終端的當前位置的預定半徑範圍內的區域相關聯的多個內容,然後從獲得的內容中選擇滿足第一標準(用戶的當前情緒狀態)的內容。
雖然描述針對控制單元170、內容選擇模組171和內容輸出模組175被單獨配置且負責不同功能的情況,但是本發明不限於此,而是可被實施為控制單元、內容選擇模組和內容輸出模組以集成方式操作的形式。
圖12是說明根據本發明實施例的移動終端的語音對講功能的系統的示意圖。
由於這裏的移動終端100與以上參照圖1描述的移動終端相同,因此在此省略對移動終端100的詳細描述。根據本發明實施例的移動終端100通過無線通信網路300連接到伺服器200。
在以上描述的實施例中,移動終端100的控制單元170執行第一標準獲得操作、基於第一標準的內容選擇操作、第二標準獲得操作以及內容輸出方案確定操作。
然而,在此實施例中,移動終端100的控制單元170通過無線電通信單元100與伺服器交換資料,並且執行第一標準獲得操作、基於第一標準的內容選擇操作、第二標準獲得操作以及內容輸出方案確定操作。
例如,移動終端100的控制單元170向伺服器200提供通過相機單元120輸入的用戶的面部圖像以及通過音頻處理單元
140輸入的用戶語音。然後,伺服器200基於用戶的面部圖像和用戶語音而獲得第一標準和第二標準。伺服器200向移動終端100提供獲得的第一標準和第二標準。
雖然在單個用戶的假設下進行了描述,但是本發明不限於此,並且本發明也可被應用於多個用戶使用移動終端100的情況。在此情況下,需要添加識別移動終端100的當前用戶的操作。可以按照用戶來儲存用戶的過去內容輸出方案歷史、用戶的過去內容重播歷史以及用戶的基於過去情緒狀態的內容輸出歷史。因此,即使當多個用戶使用移動終端100時,也可提供針對用戶的內容。
如上所述,本發明的具備語音對講功能的移動終端與語音對講控制方法能夠選擇適合於用戶的當前情緒狀態的內容並根據用戶的年齡和性別確定內容輸出方案。因此,可提供為單個用戶定做的內容。因此,本發明能夠實現逼真的語音對講功能。
雖然在上面已經詳細描述了本發明的實施例,但是所屬技術領域中具有通常知識者應理解和清楚,在不脫離由申請專利範圍及其等同物限定的本發明的精神和範圍的情況下,這裏描述的基本發明構思的多種改變和修改仍落入本發明的精神和範圍內。
Claims (26)
- 一種支持語音對講功能的移動終端,包括:顯示單元;音頻處理單元;控制單元,經組態以:回應於用戶輸入而選擇對應於與用戶相關聯的第一標準的內容,基於與所述用戶相關聯的第二標準而確定內容輸出方案,基於所確定之所述內容輸出方案而改變構成經選擇的所述內容的詞語、經選擇的所述內容的輸出速度、和經選擇的所述內容的輸出大小中的至少一個,且通過所述顯示單元和所述音頻處理單元輸出經選擇的所述內容,其中所述控制單元基於從所述用戶的面部圖像獲得的面部表情從預定的按照情緒狀態的表情資訊中獲得所述第一標準。
- 如申請專利範圍第1項所述的移動終端,其中所述第一標準是所述用戶的當前情緒狀態,所述第二標準是包括所述用戶的年齡和性別中的至少一個的用戶資訊。
- 如申請專利範圍第1項所述的移動終端,其中所述控制單元選擇與所述第一標準相應的內容,所述相應的內容包括預定的根據所述用戶的所述情緒狀態的至少一個內容。
- 如申請專利範圍第1項所述的移動終端,其中所述控制單元基於所述第一標準和用戶的過去內容重播歷史而選擇所述內容。
- 如申請專利範圍第1項所述的移動終端,其中所述控制單元基於所述第一標準和所述移動終端的當前位置資訊而選擇所述內容。
- 如申請專利範圍第1項所述的移動終端,其中所述控制單元基於與所述用戶的過去情緒狀態相關聯的內容輸出歷史而選擇所述內容。
- 如申請專利範圍第1項所述的移動終端,其中所述所述音頻處理單元接收所述用戶的語音,且所述控制單元基於所述第一標準而選擇與從所述語音獲得的短語相應的所述內容。
- 如申請專利範圍第7項所述的移動終端,其中所述控制單元基於構成所述短語的詞語而獲得所述第二標準。
- 如申請專利範圍第1項所述的移動終端,其中所述音頻處理單元接收所述用戶的語音,並且當從所述語音獲得的短語是用於改變所述內容輸出方案的請求時,所述控制單元改變所述內容輸出方案。
- 如申請專利範圍第1項所述的移動終端,其中所述控制單元使用所述用戶的過去內容輸出方案歷史改變基於所述第二標準確定的所述內容輸入方案,並根據經改變的內容輸出方案輸出所述內容。
- 如申請專利範圍第1項所述的移動終端,更包括:相機單元,拍攝所述用戶的所述面部圖像,其中所述控制單元基於所述用戶的所述面部圖像而自動地獲得所述第一標準。
- 如申請專利範圍第1項所述的移動終端,更包括:相機單元,拍攝所述用戶的面部圖像,其中所述音頻處理單元接收所述用戶的語音,並且所述控制單元基於所述用戶的所述面部圖像和所述用戶的語音中的至少一個而自動地獲得所述第二標準。
- 如申請專利範圍第1項所述的移動終端,其中所述控制單元通過所述音頻處理單元接收所述第一標準和所述第二標準。
- 一種移動終端的語音對講方法,包括:回應於用戶輸入選擇對應於與用戶相關聯的第一標準的內容,其中所述第一標準是基於從所述用戶的面部圖像獲得的面部表情從預定的按照情緒狀態的表情資訊中獲得;基於與所述用戶相關聯的第二標準而確定內容輸出方案;基於所確定之所述內容輸出方案而改變構成經選擇的所述內容的詞語、經選擇的所述內容的輸出速度、和經選擇的所述內容的輸出大小中的至少一個,且通過所述移動終端的顯示單元和音頻處理單元輸出經選擇的內容。
- 如申請專利範圍第14項所述的語音對講方法,其中所述第一標準是所述用戶的當前情緒狀態,所述第二標準是包括所述用戶的年齡和性別中的至少一個的用戶資訊。
- 如申請專利範圍第14項所述的語音對講方法,其中選擇所述內容的步驟包括:選擇與所述第一標準相應的所述內容,所述相應的內容包括預定的根據所述用戶的情緒狀態的至少一個內容。
- 如申請專利範圍第14項所述的語音對講方法,其中選擇所述內容的步驟包括:基於所述第一標準和所述用戶的過去內容重播歷史而選擇所述內容。
- 如申請專利範圍第14項所述的語音對講方法,其中選擇所述內容的步驟包括:基於所述第一標準和所述移動終端的當前位置資訊而選擇所述內容。
- 如申請專利範圍第14項所述的語音對講方法,其中選擇所述內容的步驟包括:基於與所述用戶的過去情緒狀態相關聯的內容輸出歷史而選擇所述內容。
- 如申請專利範圍第14項所述的語音對講方法,更包括:接收所述用戶的語音,其中選擇所述內容的步驟包括:基於所述第一標準而選擇與從所述語音獲得的短語相應的所述內容。
- 如申請專利範圍第20項所述的語音對講方法,更包括:基於構成所述短語的詞語而獲得所述第二標準。
- 如申請專利範圍第14項所述的語音對講方法,更包括:接收所述用戶的語音,其中確定所述內容輸出方案的步驟包括:當從所述語音獲得的短語是用於改變所述內容輸出方案的請求時,改變所述內容輸出方案。
- 如申請專利範圍第14項所述的語音對講方法,其中確定所述內容輸出方案的步驟包括:使用所述用戶的過去內容輸出方案歷史改變基於所述第二標準確定的所述內容輸出方案。
- 如申請專利範圍第14項所述的語音對講方法,更包括:接收所述用戶的面部圖像;以及基於所述用戶的所述面部圖像而自動地獲得所述第一標準。
- 如申請專利範圍第14項所述的語音對講方法,更包括:接收所述用戶的面部圖像和語音中的至少一個;以及基於所述用戶的所述面部圖像和所述語音中的至少一個而自動地獲得所述第二標準。
- 如申請專利範圍第14項所述的語音對講方法,更包括:通過所述音頻處理單元接收所述第一標準和所述第二標準。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
??10-2013-0013757 | 2013-02-07 | ||
KR1020130013757A KR102050897B1 (ko) | 2013-02-07 | 2013-02-07 | 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201435857A TW201435857A (zh) | 2014-09-16 |
TWI628650B true TWI628650B (zh) | 2018-07-01 |
Family
ID=50072918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW103103940A TWI628650B (zh) | 2013-02-07 | 2014-02-06 | 支持語音對講功能的移動終端與語音對講方法 |
Country Status (10)
Country | Link |
---|---|
US (1) | US20140222432A1 (zh) |
EP (1) | EP2765762B1 (zh) |
JP (1) | JP6541934B2 (zh) |
KR (1) | KR102050897B1 (zh) |
CN (1) | CN103984408A (zh) |
AU (1) | AU2014200660B2 (zh) |
BR (1) | BR102014003021A2 (zh) |
CA (1) | CA2842005A1 (zh) |
RU (1) | RU2661791C2 (zh) |
TW (1) | TWI628650B (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL313175A (en) * | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
NZ735754A (en) | 2013-03-15 | 2019-04-26 | Magic Leap Inc | Display system and method |
US10431209B2 (en) * | 2016-12-30 | 2019-10-01 | Google Llc | Feedback controller for data transmissions |
KR102340251B1 (ko) * | 2014-06-27 | 2021-12-16 | 삼성전자주식회사 | 데이터 관리 방법 및 그 방법을 처리하는 전자 장치 |
JP6596865B2 (ja) * | 2015-03-23 | 2019-10-30 | 日本電気株式会社 | 電話機、電話システム、電話機の音量設定方法、及びプログラム |
JP6601069B2 (ja) * | 2015-09-01 | 2019-11-06 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
KR20170034154A (ko) * | 2015-09-18 | 2017-03-28 | 삼성전자주식회사 | 콘텐츠 제공 방법 및 이를 수행하는 전자 장치 |
CN105700682A (zh) * | 2016-01-08 | 2016-06-22 | 北京乐驾科技有限公司 | 基于视觉和语音的智能性别、情绪识别检测系统及方法 |
CN115834774A (zh) * | 2016-02-25 | 2023-03-21 | 皇家飞利浦有限公司 | 用于确定呼叫的优先级水平和/或对话持续时间的设备、系统和方法 |
EP3493534B1 (en) | 2016-07-28 | 2023-04-05 | Sony Group Corporation | Information processing device, information processing method, and program |
US10276149B1 (en) * | 2016-12-21 | 2019-04-30 | Amazon Technologies, Inc. | Dynamic text-to-speech output |
CN106873800A (zh) * | 2017-02-20 | 2017-06-20 | 北京百度网讯科技有限公司 | 信息输出方法和装置 |
US20180350371A1 (en) * | 2017-05-31 | 2018-12-06 | Lenovo (Singapore) Pte. Ltd. | Adjust output settings based on an identified user |
US10983753B2 (en) | 2017-06-09 | 2021-04-20 | International Business Machines Corporation | Cognitive and interactive sensor based smart home solution |
JP7073640B2 (ja) * | 2017-06-23 | 2022-05-24 | カシオ計算機株式会社 | 電子機器、感情情報取得システム、プログラム及び感情情報取得方法 |
CN108920129A (zh) * | 2018-07-27 | 2018-11-30 | 联想(北京)有限公司 | 信息处理方法和信息处理系统 |
EP4276520A3 (en) | 2018-08-31 | 2024-01-24 | Magic Leap, Inc. | Spatially-resolved dynamic dimming for augmented reality device |
CN109637519B (zh) * | 2018-11-13 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 语音交互实现方法、装置、计算机设备及存储介质 |
WO2020136725A1 (ja) * | 2018-12-25 | 2020-07-02 | クックパッド株式会社 | サーバ装置、情報処理端末、システム、方法およびプログラム |
JP2022517207A (ja) | 2019-01-11 | 2022-03-07 | マジック リープ, インコーポレイテッド | 種々の深度における仮想コンテンツの時間多重化された表示 |
KR20200111853A (ko) | 2019-03-19 | 2020-10-05 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 음성 인식 제어 방법 |
KR102388465B1 (ko) * | 2020-02-26 | 2022-04-21 | 최갑천 | 가상 콘텐츠 생성 방법 |
JP7469211B2 (ja) | 2020-10-21 | 2024-04-16 | 東京瓦斯株式会社 | 対話型コミュニケーション装置、コミュニケーションシステム及びプログラム |
CN113380240B (zh) * | 2021-05-07 | 2022-04-12 | 荣耀终端有限公司 | 语音交互方法和电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020135618A1 (en) * | 2001-02-05 | 2002-09-26 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
EP1333650A2 (en) * | 2002-02-04 | 2003-08-06 | Nokia Corporation | Method of enabling user access to services |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08255150A (ja) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | 情報公開装置及びマルチモーダル情報入出力システム |
JPH10326176A (ja) * | 1997-05-23 | 1998-12-08 | Oki Hokuriku Syst Kaihatsu:Kk | 音声対話制御方法 |
JP2001215993A (ja) * | 2000-01-31 | 2001-08-10 | Sony Corp | 対話処理装置および対話処理方法、並びに記録媒体 |
WO2002034478A1 (fr) * | 2000-10-23 | 2002-05-02 | Sony Corporation | Robot pourvu de jambes, procede de commande du comportement d"un tel robot, et support de donnees |
JP2003046980A (ja) * | 2001-08-02 | 2003-02-14 | Matsushita Electric Ind Co Ltd | 要求応答方法、装置及びプログラム |
JP2004310034A (ja) * | 2003-03-24 | 2004-11-04 | Matsushita Electric Works Ltd | 対話エージェントシステム |
JP2005065252A (ja) * | 2003-07-29 | 2005-03-10 | Fuji Photo Film Co Ltd | 携帯電話機 |
US7881934B2 (en) * | 2003-09-12 | 2011-02-01 | Toyota Infotechnology Center Co., Ltd. | Method and system for adjusting the voice prompt of an interactive system based upon the user's state |
JP2005157494A (ja) * | 2003-11-20 | 2005-06-16 | Aruze Corp | 会話制御装置及び会話制御方法 |
JP2005275601A (ja) * | 2004-03-23 | 2005-10-06 | Fujitsu Ltd | 音声による情報検索システム |
JP2006048663A (ja) * | 2004-06-30 | 2006-02-16 | Metallic House Inc | 商品・サービス受発注システム及び商品・サービス受発注方法、並びにサーバ装置及び端末装置 |
JP2006146630A (ja) * | 2004-11-22 | 2006-06-08 | Sony Corp | コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム |
US8214214B2 (en) * | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
EP1854263B1 (en) * | 2005-02-04 | 2011-05-25 | Qualcomm Incorporated | Secure bootstrapping for wireless communications |
US7490042B2 (en) * | 2005-03-29 | 2009-02-10 | International Business Machines Corporation | Methods and apparatus for adapting output speech in accordance with context of communication |
US7672931B2 (en) * | 2005-06-30 | 2010-03-02 | Microsoft Corporation | Searching for content using voice search queries |
US20070288898A1 (en) * | 2006-06-09 | 2007-12-13 | Sony Ericsson Mobile Communications Ab | Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic |
KR20090085376A (ko) * | 2008-02-04 | 2009-08-07 | 삼성전자주식회사 | 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치 |
JP2010057050A (ja) * | 2008-08-29 | 2010-03-11 | Sharp Corp | 情報端末装置、情報配信装置、情報配信システム及びプログラム |
ATE557388T1 (de) * | 2008-12-19 | 2012-05-15 | Koninkl Philips Electronics Nv | Verfahren und system zur anpassung von kommunikation |
US8340974B2 (en) * | 2008-12-30 | 2012-12-25 | Motorola Mobility Llc | Device, system and method for providing targeted advertisements and content based on user speech data |
JP2010181461A (ja) * | 2009-02-03 | 2010-08-19 | Olympus Corp | デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体 |
KR101625668B1 (ko) * | 2009-04-20 | 2016-05-30 | 삼성전자 주식회사 | 전자기기 및 전자기기의 음성인식방법 |
US10540976B2 (en) * | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US8439265B2 (en) * | 2009-06-16 | 2013-05-14 | Intel Corporation | Camera applications in a handheld device |
US20120011477A1 (en) * | 2010-07-12 | 2012-01-12 | Nokia Corporation | User interfaces |
KR101916107B1 (ko) * | 2011-12-18 | 2018-11-09 | 인포뱅크 주식회사 | 통신 단말 및 그 통신 단말의 정보처리 방법 |
CN102541259A (zh) * | 2011-12-26 | 2012-07-04 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其根据脸部表情提供心情服务的方法 |
-
2013
- 2013-02-07 KR KR1020130013757A patent/KR102050897B1/ko active IP Right Grant
-
2014
- 2014-02-06 CA CA2842005A patent/CA2842005A1/en not_active Abandoned
- 2014-02-06 TW TW103103940A patent/TWI628650B/zh not_active IP Right Cessation
- 2014-02-06 AU AU2014200660A patent/AU2014200660B2/en not_active Ceased
- 2014-02-06 EP EP14154157.3A patent/EP2765762B1/en active Active
- 2014-02-07 JP JP2014022080A patent/JP6541934B2/ja not_active Expired - Fee Related
- 2014-02-07 BR BR102014003021-2A patent/BR102014003021A2/pt not_active IP Right Cessation
- 2014-02-07 CN CN201410044807.5A patent/CN103984408A/zh active Pending
- 2014-02-07 RU RU2014104373A patent/RU2661791C2/ru active
- 2014-02-07 US US14/175,557 patent/US20140222432A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020135618A1 (en) * | 2001-02-05 | 2002-09-26 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
EP1333650A2 (en) * | 2002-02-04 | 2003-08-06 | Nokia Corporation | Method of enabling user access to services |
Also Published As
Publication number | Publication date |
---|---|
EP2765762A1 (en) | 2014-08-13 |
KR20140100704A (ko) | 2014-08-18 |
RU2661791C2 (ru) | 2018-07-19 |
CA2842005A1 (en) | 2014-08-07 |
JP6541934B2 (ja) | 2019-07-10 |
JP2014153715A (ja) | 2014-08-25 |
RU2014104373A (ru) | 2015-08-20 |
AU2014200660A1 (en) | 2014-08-21 |
EP2765762B1 (en) | 2019-07-10 |
US20140222432A1 (en) | 2014-08-07 |
BR102014003021A2 (pt) | 2018-04-10 |
CN103984408A (zh) | 2014-08-13 |
AU2014200660B2 (en) | 2019-05-16 |
TW201435857A (zh) | 2014-09-16 |
KR102050897B1 (ko) | 2019-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI628650B (zh) | 支持語音對講功能的移動終端與語音對講方法 | |
US10522146B1 (en) | Systems and methods for recognizing and performing voice commands during advertisement | |
US10832655B2 (en) | Method and user device for providing context awareness service using speech recognition | |
KR102042152B1 (ko) | 오디오를 재생하기 위한 제어 방법 및 장치 | |
CN106465074B (zh) | 数字助手在通信中的使用 | |
CN107396177B (zh) | 视频播放方法、装置及存储介质 | |
US20180121432A1 (en) | Digital assistant integration with music services | |
WO2017031875A1 (zh) | 在聊天界面更改表情符号的方法、装置及终端设备 | |
US11178358B2 (en) | Method and apparatus for generating video file, and storage medium | |
TWI497406B (zh) | 用於為一語音辨識互動模組提供輸入功能之方法及電腦可讀取媒體 | |
CN107707828B (zh) | 一种视频处理方法及移动终端 | |
KR20200129191A (ko) | 선택적으로 조종 가능한 상태 머신을 갖는 개인 보조 모듈 제공 | |
US20110223893A1 (en) | Genius Button Secondary Commands | |
CN113950687A (zh) | 基于经训练的网络模型的媒体呈现设备控制 | |
CN109614470B (zh) | 回答信息的处理方法、装置、终端及可读存储介质 | |
JP2018508086A (ja) | 入力処理方法、装置及び機器 | |
WO2020173284A1 (zh) | 互动内容展示方法、装置、电子设备及存储介质 | |
CN105721904B (zh) | 显示装置和控制显示装置的内容输出的方法 | |
CN107423386A (zh) | 生成电子卡片的方法及装置 | |
CN110989889A (zh) | 信息展示方法、信息展示装置和电子设备 | |
CN113518972A (zh) | 使用多个设备的用户交互和任务管理 | |
KR20120002766A (ko) | 휴대 단말기의 위치 기반 말풍선 서비스 이용방법, 장치 및 이를 이용한 시스템 | |
KR20150129182A (ko) | 메시지 제공 방법 및 메시지 제공 장치 | |
WO2016052501A1 (ja) | ユーザインタフェース装置、プログラム及びコンテンツの通知方法 | |
WO2019120030A1 (zh) | 信息推送方法以及装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |