TW201435857A - 支持語音對講功能的移動終端與語音對講方法 - Google Patents

支持語音對講功能的移動終端與語音對講方法 Download PDF

Info

Publication number
TW201435857A
TW201435857A TW103103940A TW103103940A TW201435857A TW 201435857 A TW201435857 A TW 201435857A TW 103103940 A TW103103940 A TW 103103940A TW 103103940 A TW103103940 A TW 103103940A TW 201435857 A TW201435857 A TW 201435857A
Authority
TW
Taiwan
Prior art keywords
content
user
criterion
voice
mobile terminal
Prior art date
Application number
TW103103940A
Other languages
English (en)
Other versions
TWI628650B (zh
Inventor
Ji-Hyun Ahn
So-Ra Kim
Jin-Yong Kim
Hyun-Kyoung Kim
Hee-Woon Kim
Yu-Mi Ahn
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of TW201435857A publication Critical patent/TW201435857A/zh
Application granted granted Critical
Publication of TWI628650B publication Critical patent/TWI628650B/zh

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

提供一種支持語音對講功能的移動終端與語音對講方法,所述方法用於基於用戶的當前情緒狀態、年齡和性別而輸出不同的內容。支持語音對講功能的移動終端包括:顯示單元;音頻處理單元;控制單元,回應於用戶輸入而選擇對應於與用戶相關聯的第一標準的內容,基於與用戶相關聯的第二標準而確定內容輸出方案,根據內容輸出方案通過顯示單元和音頻處理單元輸出經選擇的內容。

Description

支持語音對講功能的移動終端與語音對講方法
本發明是有關於一種具備語音對講功能的移動終端以及語音對講控制方法,更具體地說,是有關於一種用於根據用戶的當前情緒、年齡和性別區別地輸出內容的具備語音對講功能的終端與語音對講控制方法。
習知的語音對講功能以這樣的方式操作:從由終端生產商提供的基本回答集合中選擇針對用戶問題的回答。因此,語音對講功能被限制為針對相同的問題給出相同的回答,而不考慮用戶。這意味著當多個用戶使用具備語音對講功能的終端時,習知的語音對講功能不提供針對用戶優選的回答。
做出本發明以解決至少上述問題和缺點,並提供至少下述優點。因此,本發明的一方面提供一種用於輸出反應用戶的當前情緒狀態、年齡和性別的內容的移動終端及其語音對講控制方法。
根據本發明的一方面,提供一種支持語音對講功能的移動終端。所述移動終端包括:顯示單元;音頻處理單元;控制單元,經組態以回應於用戶輸入而選擇對應於與用戶相關聯的第一標準的內容,基於與用戶相關聯的第二標準而確定內容輸出方案,根據內容輸出方案通過顯示單元和音頻處理單元輸出經選擇的內容。
根據本發明的另一方面,提供一種移動終端的語音對講方法。所述方法包括:回應於用戶輸入選擇對應於與用戶相關聯的第一標準的內容;基於與用戶相關聯的第二標準而確定內容輸出方案;根據內容輸出方案通過移動終端的顯示單元和音頻處理單元輸出經選擇的內容。
100‧‧‧移動終端
110‧‧‧無線電通信單元
120‧‧‧相機單元
130‧‧‧位置測量單元
140‧‧‧音頻處理單元
150‧‧‧顯示單元
160‧‧‧儲存單元
170‧‧‧控制單元
171‧‧‧內容選擇模組
175‧‧‧內容輸出模組
200‧‧‧伺服器
300‧‧‧無線通信網路
AT1、AT2‧‧‧情緒狀態的內容
S210、S220、S230、S240、S250、S260、S270、S280、S290‧‧‧步驟
S310、S320、S330、S340、S350‧‧‧步驟
UT‧‧‧短語
從下面結合附圖的詳細描述中,本發明的實施例的以上和其他方面、特點和優點將變得清楚。
圖1是說明根據本發明實施例的移動終端100的配置的方塊圖。
圖2是說明根據本發明實施例的語音對講功能控制方法的流程圖。
圖3是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。
圖4和圖5是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
圖6是說明圖2的第一標準獲得步驟的細節的流程圖。
圖7是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。
圖8和圖9是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
圖10是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。
圖11是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
圖12是說明根據本發明實施例的用於移動終端的語音對講功能的系統的示意圖。
下面將參照附圖更全面地描述本發明,在附圖中說明本發明的示意性實施例。然而,本發明可被實施為多種不同的形式,並不應被解釋為限制於這裏闡述的實施例。而是,提供這些實施例從而使本發明的描述將是全面且完整的,並且將本發明的範圍完整地傳達給本領域技術人員。本發明將由申請專利範圍所限定。
雖然以下參照附圖更詳細地描述序號,在附圖中說明本發明的示意性實施例,但是本發明可被實施為多種不同的形式,並不應被術語限制,所述術語僅用於將一個元件、區域、層或區間與另一元件、區域、層或區間區分開來。因此,在不脫離本發明構思的教導的情況下,下面討論的第一元件、元件、區域、層或區間可以被稱為第二元件、元件、區域、層或區間。應理解,當使用連接詞“和/或”等來描述一個或多個相關的列出項目時, 描述包括所述一個或多個相關的列出專案的任意和所有組合。
圖1是說明根據本發明實施例的移動終端100的配置的框圖。
參照圖1,移動終端100包括無線電通信單元110、相機單元120、位置測量單元130、音頻處理單元140、顯示單元150、儲存單元160和控制單元170。
無線電通信單元110發送/接收攜帶資料的無線電信號。無線電通信單元110可包括經組態以對發送信號進行上轉換(up-convert)和放大的射頻(radio frequency,RF)發送器以及經組態以對接收的信號進行低噪放大(low noise amplify)和下轉換(down-convert)的RF接收器。無線電通信單元110將通過無線電通道接收到的資料傳輸到控制單元170,並將從控制單元170輸出的資料通過無線電通道發送出去。
相機單元120接收視頻信號。相機單元120處理在視頻會議模式下或圖像拍攝模式下由圖像感測器獲得的靜止圖像或運動圖像的視頻幀(video frame)。相機單元120可將經處理的視頻幀輸出到顯示單元150。由相機單元120處理的視頻幀可被儲存在儲存單元中和/或通過無線電通信單元110被發送到外部。
根據移動終端110的實現方式,相機單元120可包括兩個或更多個相機模組。例如,移動終端100可包括朝向與顯示單元150的螢幕相同方向的相機以及朝向與螢幕相反方向的另一相機。
位置測量單元130可設置有衛星信號接收模組,用於基於從衛星接收到的信號而測量移動終端100的當前位置。通過無 線電通信單元110,位置測量單元130還可基於從設施內的內部或外部無線電通信設備接收到的信號來測量移動終端100的當前位置。
音頻處理單元140可設置有編解碼器組,編解碼器組包括用於處理包資料的資料編解碼器和用於處理諸如語音的音頻信號的音頻編解碼器。音頻處理單元140可通過音頻編解碼器將數位音頻信號轉換為類比音頻信號,從而通過揚聲器(speaker,SPK)輸出類比信號,音頻處理單元140可將通過麥克風(microphone,MIC)輸入的類比信號轉換為數位音頻信號。
顯示單元150以可視方式向用戶顯示功能表、輸入資料、功能配置資訊等。顯示單元150輸出啟動螢幕、待機螢幕、功能表螢幕、通話螢幕和其他應用執行螢幕。
可利用液晶顯示器(liquid crystal display,LCD)、有機發光二極體(organic light emitted diode,OLED)、有源矩陣有機發光二極體(active matrix organic light emitted diode,AMOLED)、可撓性顯示器(flexible display)和3維(3D)顯示器來實現顯示單元150。
儲存單元160儲存移動終端100的操作所需要的程式和資料,並可被劃分為程式區域和資料。程式區域可儲存用於控制移動終端100的整體操作的基本程式、用於啟動移動終端100的作業系統(operating system,OS)、多媒體內容重播應用和用於執行可選功能(諸如語音對講、相機、音頻重播和視頻重播)的其他應用。資料區域可儲存在使用移動終端100的狀態下產生的資料,諸如靜止和運動圖像、電話簿和音頻資料。
控制單元170控制移動終端100的元件的整體操作。在根據用戶操縱執行的語音對講功能中,控制單元170接收通過音頻處理單元140輸入的用戶語音,並控制顯示單元150顯示與用戶語音相應的內容。控制單元170還可通過音頻處理單元140播放與用戶語音相應的內容。這裏,內容可包括多媒體內容(諸如文本、圖片、語音、電影和視頻片段)和諸如天氣、推薦位置和最喜愛聯繫人的資訊中的至少一個。
更具體地說,控制單元170識別用戶語音以獲得相應文本。接下來,控制單元170檢索與文本相應的內容並通過顯示單元150和音頻處理單元140中的至少一個輸出內容。最後,控制單元170可檢查文本的意思以在儲存單元160所儲存的相關內容中檢索相應內容。以這種方式,通過使用交互語音通信,可通過相關的儲存內容向用戶提供期望的資訊。例如,如果用戶說出“今天的天氣?”,則移動終端100接收通過音頻處理單元140輸入的用戶語音。之後移動終端100檢索與從用戶語音獲得的文本“今天的天氣”相應的內容(天氣資訊),並通過顯示單元150和音頻處理單元140中的至少一個輸出檢索到的內容。
具體地說,在本發明的實施例中,控制單元170可根據用戶的當前情緒、年齡和性別選擇將通過顯示單元150和/或音頻處理單元140輸出的內容。為了完成該目的,根據本發明的實施例,控制單元170可包括內容選擇模組171和內容輸出模組175。
圖2是說明根據本發明實施例的語音對講功能控制方法的流程圖。
參照圖2,如果在步驟S210執行語音對講功能,則在步 驟S220,內容選擇模組171獲得與用戶相關聯的第一標準。這裏,第一標準可包括用戶的當前情緒狀態。情緒狀態表示諸如高興、悲傷、憤怒、驚訝等的感情或感受。
在步驟S230,內容選擇模組171確定是否檢測到用戶語音輸入。如果通過語音處理單元140檢測到用戶語音輸入,則在步驟S240,內容選擇模組171基於第一標準而選擇與用戶語音輸入相應的內容。更具體地說,內容選擇模組171從用戶語音獲得短語。接下來,內容選擇模組171檢索與短語相應的內容。接下來,內容選擇模組171使用來第一標準預定的情緒狀態資訊選擇內容之一。這裏,情緒狀態特定的內容資訊可以被預配置並被儲存在儲存單元160中。內容選擇模組171還可首先基於第一標準而檢索內容並隨後選擇與短語相應的內容之一。
另一方面,如果在步驟S230沒有檢測到用戶語音輸入,則在步驟S250,內容選擇模組171基於第一標準而選擇內容。
如果內容被選擇,則在步驟S260,內容輸出模組175獲得與用戶相關聯的第二標準。這裏,第二標準可包括用戶年齡和性別中的至少一個。用戶年齡可以是精確的用戶年齡,或者是預定年齡組之一。例如,可利用精確的數位(諸如30或50)指示用戶年齡,或利用年齡組(諸如20幾歲、50幾歲、兒童、成人和老年人)指示用戶年齡。
具體地說,內容輸出模組從相機單元120接收用戶的面部圖像。內容輸出模組175可基於儲存在儲存單元160中的按照年齡組或按照性別的平均面部資訊從用戶的面部圖像自動地獲得第二標準。內容輸出模組175還接收通過語音處理單元140輸入 的用戶語音。接下來,內容輸出模組175可使用按照年齡組或按照性別的平均語音資訊從用戶語音獲得第二標準。內容輸出模組175還可基於構成從用戶語音獲得的短語的詞語來獲得第二標準。此時,內容輸出模組175可使用按照年齡組或按照性別的詞語來獲得第二標準。例如,如果從用戶語音獲得短語“我想要新的jim-jam”,則可基於詞語“jim-jam”判斷該用戶是兒童。
內容輸出模組175可基於用戶面部圖像和語音兩者而獲得第二標準。雖然描述針對內容輸出模組175基於用戶面部圖像和語音獲得第二標準的情況,但是本發明的各種實施例不限於此,而是可被實施為能夠使用戶輸入第二標準。在此情況下,由用戶輸入的第二標準可被儲存在儲存單元160中。內容輸出模組175基於儲存在儲存單元160中的第二標準而執行預定功能。
如果獲得了第二標準,則在步驟S270,內容輸出模組175基於第二標準而確定內容輸出方案。也就是說,內容輸出模組175通過改變構成由內容選擇模組171選擇的內容的詞語、選擇的內容的輸出速度以及選擇的內容的輸出大小,來確定內容輸出方案。
更具體地說,內容輸出模組175可基於按照年齡組的詞語資訊或按照性別的詞語資訊來將構成選擇的內容的詞語改變為適合於第二標準的詞語。例如,如果內容包括“Pajamas商店”並且如果用戶屬於“兒童”年齡組,則內容輸出模組175將詞語“Pajamas”改為適合於兒童的詞語“Jim jam”。
內容輸出模組175基於儲存在儲存單元160中的按照年齡組的輸出速度資訊或按照性別的輸出速度資訊而確定經選擇的內容的輸出速度。例如,如果用戶屬於“兒童”或“老年人”年 齡組,則內容輸出模組175可降低選擇的內容的語音重播速度。
內容輸出模組175還基於按照年齡組的輸出大小資訊或按照性別的輸出大小資訊而確定經選擇的內容的輸出大小。例如,如果用戶屬於“老年人”年齡組,則內容輸出模組175可基於按照年齡組的輸出大小資訊而增加經選擇的內容的輸出音量以及選擇的內容的顯示大小(例如,字體大小)。儲存單元160儲存包含年齡組或性別到內容輸出方案(內容輸出速度和大小)的映射的表,並且內容輸出模組175基於儲存在表映射中的資料而確定選擇的內容的輸出方案。如果選擇了內容輸出方案,則在步驟S280,內容輸出模組175根據內容輸出方案通過顯示單元150和音頻處理單元140輸出由內容選擇模組171選擇的內容。
之後,如果在步驟S290檢測到語音對講功能終止請求,則控制單元170結束語音對講功能。如果在步驟S290沒有檢測到語音對講功能終止請求,則控制單元170將處理返回步驟S220。
如上所述,本發明的語音對講控制方法選擇適合於用戶的當前情緒狀態的內容,並根據用戶的年齡和/或性別確定內容輸出方案,從而向用戶提供個性化的內容。該方法能夠提供更逼真的語音對講功能。
同時,如果從通過語音處理單元140輸入的用戶語音獲得的短語是用於改變內容輸出方案的請求,則內容輸出模組175根據短語改變內容輸出方案。例如,在已經根據基於第二標準確定的內容輸出方案輸出內容之後,如果用戶說出短語“你能更快更輕地說話嗎?”,則控制輸出模組175將語音重播速度增加一級並將音頻音量減小一級。
內容輸出模組175可將改變後的內容輸出方案儲存在儲存單元160中。之後,內容輸出模組175使用先前儲存的內容輸出方案歷史而改變基於第二標準確定的內容輸出方案。內容輸出模組175可根據改變後的內容輸出方案輸出經選擇的內容。
下面參照圖3至圖5描述根據本發明實施例的內容輸出處理。
圖3是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。圖4和圖5是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
參照圖3,內容被預先映射到情緒狀態。情緒狀態“高興”被映射到內容A,情緒狀態“悲傷”被映射到內容B,情緒狀態“憤怒”被映射到內容C,情緒狀態“驚訝”被映射到內容D。這些情緒狀態和內容被預先映射並被儲存在儲存單元160中。
內容選擇模組171可在按照情緒狀態的內容中選擇適合於第一標準(用戶的當前情緒狀態)的內容。
參照圖4,基於從通過音頻處理單元140輸入的用戶語音獲得的短語UT以及第一標準(用戶的當前情緒狀態),內容選擇模組171選擇針對情緒狀態“高興”的內容A(AT1)和針對情緒狀態“悲傷”的內容B(AT2)。
參照圖5,基於第一標準(用戶的當前情緒狀態),內容選擇模組171選擇針對情緒狀態“憤怒”的內容C(AT1)和針對情緒狀態“驚訝”的內容D(AT2)。
雖然圖3針對每個情緒狀態映射一個內容專案,但是本發明不限於此,而是可被實施為每個情緒狀態映射多個內容專 案。在此情況下,內容選擇模組171可隨機地選擇與第一標準(用戶的當前情緒狀態)相應的多個內容之一。
可按照情緒狀態對內容進行分組。“內容組”表示具有相同/相似屬性的內容的集合。例如,內容組可被分類為“動作”電影內容組、“R&B”音樂內容組等中的一個。在此情況下,內容選擇模組171可隨機地選擇滿足第一標準(用戶的當前情緒狀態)的內容組的內容之一。
圖6是說明圖2的第一標準獲得步驟的細節的流程圖。
參照圖6,內容選擇模組171在步驟S310從相機單元120獲得用戶的面部圖像,並在步驟S320從面部圖像檢測面部區域。也就是說,內容選擇模組171檢測具有眼、鼻和嘴的面部區域。
接下來,內容選擇模組171在步驟S330提取眼、鼻和嘴的基準點,並在步驟S340基於基準點識別面部表情。也就是說,內容選擇模組171基於儲存在儲存單元160中的按照表情的基準點資訊識別用戶的當前表情。
之後,在步驟S350,內容選擇模組171基於表情自動地檢索第一標準,所述表情基於預定的按照情緒狀態的表情資訊被確定。這裏,按照情緒狀態的表情資訊可以被預先配置且被儲存在儲存單元160中。
雖然描述針對內容選擇模組171基於用戶的面部圖像獲得第一標準的情況,但是本發明不限於此,而是可被實施為能夠使用戶輸入第一標準。
下面參照圖7至圖9描述根據本發明實施例的另一內容輸出處理。
圖7是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。圖8和圖9是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
內容選擇模組171可使用用戶的過去內容重播歷史,基於第一標準(用戶的當前情緒狀態)選擇內容。過去內容重播歷史被儲存在儲存單元160中,並且每當內容根據用戶操縱被播放時都被更新。
參照圖7,重播的次數或各個內容專案被儲存在儲存單元160中。內容A1被播放三次,內容A2被播放十次,內容B1被播放五次,內容B2被播放兩次,內容C1被播放八次,內容C2被播放十五次,內容D1被播放兩次,內容D2被播放一次。內容A1和A2被映射到情緒狀態“高興”,內容B1和B2被映射到情緒狀態“悲傷”,內容C1和C2被映射到情緒狀態“憤怒”,內容D1和D2被映射到情緒狀態“驚訝”(見圖3)。
內容選擇模組171可基於過去內容重播歷史而選擇適合於第一標準(用戶的當前情緒狀態)的多個內容之一。
參照圖8,如果第一標準(用戶的當前情緒)是“高興”,則內容選擇模組171從映射到第一標準(用戶的當前情緒)的內容A1和A2中選擇已被更頻繁地播放的內容A2(AT1)。如果第一標準(用戶的當前情緒)是“悲傷”,則內容選擇模組171從映射到第一標準(用戶的當前情緒)的內容B1和B2中選擇已被更頻繁地播放的內容B1(AT2)。
此時,內容選擇模組171可選擇映射到第一標準(用戶的當前情緒)的多個內容。然後,內容輸出模組175可基於過去 內容重播歷史而確定多個內容的輸出位置。
參照圖9,如果第一標準(用戶的當前情緒)是“高興”,則內容選擇模組171選擇內容A1和A2兩者作為滿足第一標準(用戶的當前情緒)的內容(AT1)。然後,內容輸出模組175將內容A1配置在已被更頻繁地播放的內容A2之下(AT1)。如果第一標準(用戶的當前情緒)是“悲傷”,則內容選擇模組171選擇內容B1和B2兩者作為滿足第一標準(用戶的當前情緒)的內容(AT2)。然後,內容輸出模組175將內容B2配置在已被更頻繁地播放的內容B1之下(AT2)。
下面參照圖10和圖11描述根據本發明實施例的另一內容輸出處理。
圖10是在根據本發明實施例的語音對講控制方法中使用的將情緒狀態與內容進行映射的表格圖。圖11是說明根據本發明實施例的基於第一標準輸出的內容的螢幕顯示的示圖。
內容選擇模組171可基於第一標準(用戶的當前情緒狀態)和用戶的基於過去情緒狀態的內容輸出歷史來選擇內容。用戶的基於過去情緒狀態的內容輸出歷史被儲存在儲存單元160中,並且在語音對講功能啟動時,每當內容根據用戶的情緒狀態被輸出時都被更新。
參照圖10,基於過去情緒狀態的內容輸出次數被儲存在儲存單元160中。內容A1已經被輸出三次,內容A2已經被輸出八次,內容B1已經被輸出四次,內容B2已經被輸出一次,內容C1已經被輸出三次,內容C2已經被輸出十一次,內容D1已經被輸出兩次,內容D2已經被輸出五次。
內容選擇模組171可使用基於過去情緒狀態的內容輸出歷史來選擇被映射到第一標準(用戶的當前情緒狀態)的多個內容之一。
參照圖11,如果第一標準(用戶的當前情緒狀態)是“高興”,則內容選擇模組171從內容A1和A2中選擇與用戶的過去情緒狀態相關聯的已被更頻繁地輸出的內容A2作為與第一標準相應的內容(AT1)。如果第一標準(用戶的當前情緒)是“悲傷”,則內容選擇模組171從內容B1和B2中選擇與用戶的過去情緒狀態相關聯的已被更頻繁地輸出的內容B2作為與第一標準(用戶的當前情緒狀態)相應的內容(AT2)
內容選擇模組171可選擇被映射為滿足第一標準(用戶的當前情緒狀態)的所有內容。然後,內容輸出模組175使用基於過去情緒狀態的內容輸出歷史而確定多個內容的輸出位置。例如,如果第一標準(用戶的當前情緒狀態)是“高興”,則內容選擇模組171選擇內容A1和A2兩者作為與第一標準(用戶的當前情緒狀態)相應的內容。然後,內容輸出模組175將內容A1配置在內容A2之下,其中,根據過去的用戶情緒狀態,內容A2已被更頻繁地播放。
下面描述根據本發明實施例的另一內容輸出處理。
內容選擇模組171可基於第一標準(用戶的當前情緒狀態)使用通過位置測量單元130獲得的移動終端100的當前位置而選擇內容。更具體地說,內容選擇模組171基於第一標準(用戶的當前情緒狀態)而獲得多個內容。接下來,內容選擇模組171從獲得的內容中選擇與在移動終端的當前位置的預定半徑範圍內 的區域相關聯的內容。例如,如果內容是關於推薦地點(飯店、咖啡廳等)的資訊,則內容供選擇模組171可基於移動終端的當前位置資訊而選擇適合於移動終端100的當前位置的內容。
當然,內容選擇模組171可獲得與在移動終端的當前位置的預定半徑範圍內的區域相關聯的多個內容,然後從獲得的內容中選擇滿足第一標準(用戶的當前情緒狀態)的內容。
雖然描述針對控制單元170、內容選擇模組171和內容輸出模組175被單獨配置且負責不同功能的情況,但是本發明不限於此,而是可被實施為控制單元、內容選擇模組和內容輸出模組以集成方式操作的形式。
圖12是說明根據本發明實施例的移動終端的語音對講功能的系統的示意圖。
由於這裏的移動終端100與以上參照圖1描述的移動終端相同,因此在此省略對移動終端100的詳細描述。根據本發明實施例的移動終端100通過無線通信網路300連接到伺服器200。
在以上描述的實施例中,移動終端100的控制單元170執行第一標準獲得操作、基於第一標準的內容選擇操作、第二標準獲得操作以及內容輸出方案確定操作。
然而,在此實施例中,移動終端100的控制單元170通過無線電通信單元100與伺服器交換資料,並且執行第一標準獲得操作、基於第一標準的內容選擇操作、第二標準獲得操作以及內容輸出方案確定操作。
例如,移動終端100的控制單元170向伺服器200提供通過相機單元120輸入的用戶的面部圖像以及通過音頻處理單元 140輸入的用戶語音。然後,伺服器200基於用戶的面部圖像和用戶語音而獲得第一標準和第二標準。伺服器200向移動終端100提供獲得的第一標準和第二標準。
雖然在單個用戶的假設下進行了描述,但是本發明不限於此,並且本發明也可被應用於多個用戶使用移動終端100的情況。在此情況下,需要添加識別移動終端100的當前用戶的操作。可以按照用戶來儲存用戶的過去內容輸出方案歷史、用戶的過去內容重播歷史以及用戶的基於過去情緒狀態的內容輸出歷史。因此,即使當多個用戶使用移動終端100時,也可提供針對用戶的內容。
如上所述,本發明的具備語音對講功能的移動終端與語音對講控制方法能夠選擇適合於用戶的當前情緒狀態的內容並根據用戶的年齡和性別確定內容輸出方案。因此,可提供為單個用戶定做的內容。因此,本發明能夠實現逼真的語音對講功能。
雖然在上面已經詳細描述了本發明的實施例,但是所屬技術領域中具有通常知識者應理解和清楚,在不脫離由申請專利範圍及其等同物限定的本發明的精神和範圍的情況下,這裏描述的基本發明構思的多種改變和修改仍落入本發明的精神和範圍內。
100‧‧‧移動終端
110‧‧‧無線電通信單元
120‧‧‧相機單元
130‧‧‧位置測量單元
140‧‧‧音頻處理單元
150‧‧‧顯示單元
160‧‧‧儲存單元
170‧‧‧控制單元
171‧‧‧內容選擇模組
175‧‧‧內容輸出模組

Claims (30)

  1. 一種支持語音對講功能的移動終端,包括:顯示單元;音頻處理單元;控制單元,經組態以回應於用戶輸入而選擇對應於與用戶相關聯的第一標準的內容,基於與所述用戶相關聯的第二標準而確定內容輸出方案,根據所述內容輸出方案通過所述顯示單元和所述音頻處理單元輸出經選擇的內容。
  2. 如申請專利範圍第1項所述的移動終端,其中所述第一標準是所述用戶的當前情緒狀態,所述第二標準是包括所述用戶的年齡和性別中的至少一個的用戶資訊。
  3. 如申請專利範圍第1項所述的移動終端,其中所述控制單元選擇與所述第一標準相應的內容,所述相應的內容包括預定的根據所述用戶的所述情緒狀態的至少一個內容。
  4. 如申請專利範圍第1項所述的移動終端,其中所述控制單元基於所述第一標準和用戶的過去內容重播歷史而選擇所述內容。
  5. 如申請專利範圍第1項所述的移動終端,其中所述控制單元基於所述第一標準和所述移動終端的當前位置資訊而選擇所述內容。
  6. 如申請專利範圍第1項所述的移動終端,其中所述控制單元基於與所述用戶的過去情緒狀態相關聯的內容輸出歷史而選擇所述內容。
  7. 如申請專利範圍第1項所述的移動終端,其中所述所述音 頻處理單元接收所述用戶的語音,且所述控制單元基於所述第一標準而選擇與從所述語音獲得的短語相應的所述內容。
  8. 如申請專利範圍第7項所述的移動終端,其中所述控制單元基於構成所述短語的詞語而獲得第二標準。
  9. 如申請專利範圍第1項所述的移動終端,其中所述控制單元基於所述第二標準而改變構成所述內容的詞語、所述內容的輸出速度和所述內容的輸出大小中的至少一個,且根據所述內容輸出方案輸出所述內容。
  10. 如申請專利範圍第1項所述的移動終端,其中所述音頻處理單元接收所述用戶的語音,並且當從所述語音獲得的短語是用於改變所述內容輸出方案的請求時,所述控制單元改變所述內容輸出方案。
  11. 如申請專利範圍第1項所述的移動終端,其中所述控制單元使用所述用戶的過去內容輸出方案歷史改變基於所述第二標準確定的所述內容輸入方案,並根據經改變的內容輸出方案輸出所述內容。
  12. 如申請專利範圍第1項所述的移動終端,更包括:相機單元,拍攝所述用戶的面部圖像,其中所述控制單元基於所述用戶的所述面部圖像而自動地獲得所述第一標準。
  13. 如申請專利範圍第12項所述的移動終端,其中所述控制單元基於從所述用戶的所述面部圖像獲得的面部表情從預定的按照情緒狀態的表情資訊中獲得所述第一標準。
  14. 如申請專利範圍第1項所述的移動終端,更包括:相機單元,拍攝所述用戶的面部圖像,其中所述音頻處理單元接收所 述用戶的語音,並且所述控制單元基於所述用戶的所述面部圖像和所述用戶的語音中的至少一個而自動地獲得所述第二標準。
  15. 如申請專利範圍第1項所述的移動終端,其中所述控制單元通過所述音頻處理單元接收所述第一標準和所述第二標準。
  16. 一種移動終端的語音對講方法,包括:回應於用戶輸入選擇對應於與用戶相關聯的第一標準的內容;基於與所述用戶相關聯的第二標準而確定內容輸出方案;以及根據所述內容輸出方案通過所述移動終端的顯示單元和音頻處理單元輸出經選擇的內容。
  17. 如申請專利範圍第156項所述的語音對講方法,其中所述經第一標準是所述用戶的當前情緒狀態,所述第二標準是包括所述用戶的年齡和性別中的至少一個的用戶資訊。
  18. 如申請專利範圍第16項所述的語音對講方法,其中選擇所述內容的步驟包括:選擇與所述第一標準相應的所述內容,所述相應的內容包括預定的根據所述用戶的情緒狀態的至少一個內容。
  19. 如申請專利範圍第16項所述的語音對講方法,其中選擇所述內容的步驟包括:基於所述第一標準和所述用戶的過去內容重播歷史而選擇所述內容。
  20. 如申請專利範圍第16項所述的語音對講方法,其中選擇所述內容的步驟包括:基於所述第一標準和所述移動終端的當前位置資訊而選擇所述內容。
  21. 如申請專利範圍第16項所述的語音對講方法,其中選擇所述內容的步驟包括:基於與所述用戶的過去情緒狀態相關聯的內容輸出歷史而選擇所述內容。
  22. 如申請專利範圍第16項所述的語音對講方法,更包括:接收所述用戶的語音,其中選擇所述內容的步驟包括:基於所述第一標準而選擇與從所述語音獲得的短語相應的所述內容。
  23. 如申請專利範圍第22項所述的語音對講方法,更包括:基於構成所述短語的詞語而獲得第二標準。
  24. 如申請專利範圍第16項所述的語音對講方法,其中確定所述內容輸出方案的步驟包括:基於所述第二標準而改變構成所述內容的詞語、所述內容的輸出速度和所述內容的輸出大小中的至少一個,並根據所述內容輸出方案輸出所述內容。
  25. 如申請專利範圍第24項所述的語音對講方法,更包括:接收所述用戶的語音,其中確定所述內容輸出方案的步驟包括:當從所述語音獲得的短語是用於改變所述內容輸出方案的請求時,改變所述內容輸出方案。
  26. 如申請專利範圍第16項所述的語音對講方法,其中確定所述內容輸出方案的步驟包括:使用所述用戶的過去內容輸出方案歷史改變基於所述第二標準確定的所述內容輸出方案。
  27. 如申請專利範圍第16項所述的語音對講方法,更包括:接收所述用戶的面部圖像;以及基於所述用戶的所述面部圖像而自動地獲得所述第一標準。
  28. 如申請專利範圍第27項所述的語音對講方法,其中獲得所述第一標準的步驟包括:基於從所述用戶的所述面部圖像獲得 的面部表情從預定的按照情緒狀態的表情資訊中獲得所述第一標準。
  29. 如申請專利範圍第16項所述的語音對講方法,更包括:接收所述用戶的面部圖像和語音中的至少一個;以及基於所述用戶的所述面部圖像和所述語音中的至少一個而自動地獲得所述第二標準。
  30. 如申請專利範圍第16項所述的語音對講方法,更包括:通過所述音頻處理單元接收所述第一標準和所述第二標準。
TW103103940A 2013-02-07 2014-02-06 支持語音對講功能的移動終端與語音對講方法 TWI628650B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
??10-2013-0013757 2013-02-07
KR1020130013757A KR102050897B1 (ko) 2013-02-07 2013-02-07 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법

Publications (2)

Publication Number Publication Date
TW201435857A true TW201435857A (zh) 2014-09-16
TWI628650B TWI628650B (zh) 2018-07-01

Family

ID=50072918

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103103940A TWI628650B (zh) 2013-02-07 2014-02-06 支持語音對講功能的移動終端與語音對講方法

Country Status (10)

Country Link
US (1) US20140222432A1 (zh)
EP (1) EP2765762B1 (zh)
JP (1) JP6541934B2 (zh)
KR (1) KR102050897B1 (zh)
CN (1) CN103984408A (zh)
AU (1) AU2014200660B2 (zh)
BR (1) BR102014003021A2 (zh)
CA (1) CA2842005A1 (zh)
RU (1) RU2661791C2 (zh)
TW (1) TWI628650B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2967322A4 (en) 2013-03-11 2017-02-08 Magic Leap, Inc. System and method for augmented and virtual reality
JP6326482B2 (ja) 2013-03-15 2018-05-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. 表示システムおよび方法
US10431209B2 (en) * 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
KR102340251B1 (ko) * 2014-06-27 2021-12-16 삼성전자주식회사 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
JP6596865B2 (ja) * 2015-03-23 2019-10-30 日本電気株式会社 電話機、電話システム、電話機の音量設定方法、及びプログラム
JP6601069B2 (ja) * 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
KR20170034154A (ko) * 2015-09-18 2017-03-28 삼성전자주식회사 콘텐츠 제공 방법 및 이를 수행하는 전자 장치
CN105700682A (zh) * 2016-01-08 2016-06-22 北京乐驾科技有限公司 基于视觉和语音的智能性别、情绪识别检测系统及方法
CN115834774A (zh) * 2016-02-25 2023-03-21 皇家飞利浦有限公司 用于确定呼叫的优先级水平和/或对话持续时间的设备、系统和方法
EP3493534B1 (en) 2016-07-28 2023-04-05 Sony Group Corporation Information processing device, information processing method, and program
US10276149B1 (en) * 2016-12-21 2019-04-30 Amazon Technologies, Inc. Dynamic text-to-speech output
CN106873800A (zh) * 2017-02-20 2017-06-20 北京百度网讯科技有限公司 信息输出方法和装置
US20180350371A1 (en) * 2017-05-31 2018-12-06 Lenovo (Singapore) Pte. Ltd. Adjust output settings based on an identified user
US10983753B2 (en) 2017-06-09 2021-04-20 International Business Machines Corporation Cognitive and interactive sensor based smart home solution
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
CN108920129A (zh) * 2018-07-27 2018-11-30 联想(北京)有限公司 信息处理方法和信息处理系统
US11170565B2 (en) 2018-08-31 2021-11-09 Magic Leap, Inc. Spatially-resolved dynamic dimming for augmented reality device
CN109637519B (zh) * 2018-11-13 2020-01-21 百度在线网络技术(北京)有限公司 语音交互实现方法、装置、计算机设备及存储介质
WO2020136725A1 (ja) * 2018-12-25 2020-07-02 クックパッド株式会社 サーバ装置、情報処理端末、システム、方法およびプログラム
KR20200111853A (ko) 2019-03-19 2020-10-05 삼성전자주식회사 전자 장치 및 전자 장치의 음성 인식 제어 방법
KR102388465B1 (ko) * 2020-02-26 2022-04-21 최갑천 가상 콘텐츠 생성 방법
JP7469211B2 (ja) 2020-10-21 2024-04-16 東京瓦斯株式会社 対話型コミュニケーション装置、コミュニケーションシステム及びプログラム
CN113380240B (zh) * 2021-05-07 2022-04-12 荣耀终端有限公司 语音交互方法和电子设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08255150A (ja) * 1995-03-17 1996-10-01 Toshiba Corp 情報公開装置及びマルチモーダル情報入出力システム
JPH10326176A (ja) * 1997-05-23 1998-12-08 Oki Hokuriku Syst Kaihatsu:Kk 音声対話制御方法
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
WO2002034478A1 (fr) * 2000-10-23 2002-05-02 Sony Corporation Robot pourvu de jambes, procede de commande du comportement d"un tel robot, et support de donnees
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
JP2003046980A (ja) * 2001-08-02 2003-02-14 Matsushita Electric Ind Co Ltd 要求応答方法、装置及びプログラム
US9374451B2 (en) * 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
JP2004310034A (ja) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd 対話エージェントシステム
JP2005065252A (ja) * 2003-07-29 2005-03-10 Fuji Photo Film Co Ltd 携帯電話機
US7881934B2 (en) * 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
JP2005275601A (ja) * 2004-03-23 2005-10-06 Fujitsu Ltd 音声による情報検索システム
JP2006048663A (ja) * 2004-06-30 2006-02-16 Metallic House Inc 商品・サービス受発注システム及び商品・サービス受発注方法、並びにサーバ装置及び端末装置
JP2006146630A (ja) * 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
US8214214B2 (en) * 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
TWI475862B (zh) * 2005-02-04 2015-03-01 高通公司 無線通信之安全引導
US7490042B2 (en) * 2005-03-29 2009-02-10 International Business Machines Corporation Methods and apparatus for adapting output speech in accordance with context of communication
US7672931B2 (en) * 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
US20070288898A1 (en) * 2006-06-09 2007-12-13 Sony Ericsson Mobile Communications Ab Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic
KR20090085376A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
JP2010057050A (ja) * 2008-08-29 2010-03-11 Sharp Corp 情報端末装置、情報配信装置、情報配信システム及びプログラム
WO2010070584A1 (en) * 2008-12-19 2010-06-24 Koninklijke Philips Electronics N.V. Method and system for adapting communications
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
JP2010181461A (ja) * 2009-02-03 2010-08-19 Olympus Corp デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
KR101625668B1 (ko) * 2009-04-20 2016-05-30 삼성전자 주식회사 전자기기 및 전자기기의 음성인식방법
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
BRPI0924541A2 (pt) * 2009-06-16 2014-02-04 Intel Corp Aplicações de câmera em um dispositivo portátil
US20120011477A1 (en) * 2010-07-12 2012-01-12 Nokia Corporation User interfaces
KR101916107B1 (ko) * 2011-12-18 2018-11-09 인포뱅크 주식회사 통신 단말 및 그 통신 단말의 정보처리 방법
CN102541259A (zh) * 2011-12-26 2012-07-04 鸿富锦精密工业(深圳)有限公司 电子设备及其根据脸部表情提供心情服务的方法

Also Published As

Publication number Publication date
BR102014003021A2 (pt) 2018-04-10
AU2014200660B2 (en) 2019-05-16
RU2014104373A (ru) 2015-08-20
EP2765762A1 (en) 2014-08-13
RU2661791C2 (ru) 2018-07-19
US20140222432A1 (en) 2014-08-07
CA2842005A1 (en) 2014-08-07
KR20140100704A (ko) 2014-08-18
EP2765762B1 (en) 2019-07-10
AU2014200660A1 (en) 2014-08-21
JP2014153715A (ja) 2014-08-25
CN103984408A (zh) 2014-08-13
JP6541934B2 (ja) 2019-07-10
KR102050897B1 (ko) 2019-12-02
TWI628650B (zh) 2018-07-01

Similar Documents

Publication Publication Date Title
TWI628650B (zh) 支持語音對講功能的移動終端與語音對講方法
US11410640B2 (en) Method and user device for providing context awareness service using speech recognition
US10522146B1 (en) Systems and methods for recognizing and performing voice commands during advertisement
US11107466B2 (en) Digital assistant voice input integration
CN106465074B (zh) 数字助手在通信中的使用
US10796698B2 (en) Hands-free multi-site web navigation and consumption
KR102509245B1 (ko) 써드 파티 애플리케이션으로의 디지털 어시스턴트 확장성
KR102233343B1 (ko) 선택적으로 조종 가능한 상태 머신을 갖는 개인 보조 모듈 제공
US20180121432A1 (en) Digital assistant integration with music services
TWI497406B (zh) 用於為一語音辨識互動模組提供輸入功能之方法及電腦可讀取媒體
WO2017031875A1 (zh) 在聊天界面更改表情符号的方法、装置及终端设备
US20110007086A1 (en) Method and apparatus for virtual object based image processing
US20080070616A1 (en) Mobile Communication Terminal with Improved User Interface
KR20180048783A (ko) 오디오 재생을 위한 제어 방법 및 장치
US20180067717A1 (en) Voice-driven interface to control multi-layered content in a head mounted display
CN109614470B (zh) 回答信息的处理方法、装置、终端及可读存储介质
CN110989889A (zh) 信息展示方法、信息展示装置和电子设备
US9369587B2 (en) System and method for software turret phone capabilities
CN113518972A (zh) 使用多个设备的用户交互和任务管理
WO2019120030A1 (zh) 信息推送方法以及装置、终端及存储介质
WO2016052501A1 (ja) ユーザインタフェース装置、プログラム及びコンテンツの通知方法
JP6721981B2 (ja) 音声再生装置、音声再生方法及びプログラム
CN113190647A (zh) 媒体文件播放方法、媒体文件播放装置及存储介质
CN113079247A (zh) 关联服务提供方法和关联服务提供装置
TWM426227U (en) Communication device with ringtone function

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees