CN103984408A - 支持语音对话功能的移动终端和语音对话方法 - Google Patents
支持语音对话功能的移动终端和语音对话方法 Download PDFInfo
- Publication number
- CN103984408A CN103984408A CN201410044807.5A CN201410044807A CN103984408A CN 103984408 A CN103984408 A CN 103984408A CN 201410044807 A CN201410044807 A CN 201410044807A CN 103984408 A CN103984408 A CN 103984408A
- Authority
- CN
- China
- Prior art keywords
- content
- user
- standard
- mobile terminal
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000002996 emotional effect Effects 0.000 claims abstract description 68
- 230000004044 response Effects 0.000 claims abstract description 6
- 230000008859 change Effects 0.000 claims description 5
- 230000008921 facial expression Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 14
- 230000036651 mood Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000020509 sex determination Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Environmental & Geological Engineering (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Information Transfer Between Computers (AREA)
Abstract
提供一种支持语音对话功能的移动终端和语音对话方法,该方法用于基于用户的当前情绪状态、年龄和性别输出不同的内容。支持语音对话功能的移动终端包括:显示单元;音频处理单元;控制单元,响应于用户输入而选择对应于与用户相关联的第一标准的内容,基于与用户相关联的第二标准确定内容输出方案,根据内容输出方案通过显示单元和音频处理单元输出选择的内容。
Description
技术领域
本发明涉及具备语音对话功能的移动终端以及语音对话控制方法,更具体地说,涉及一种用于根据用户的当前情绪、年龄和性别区别地输出内容的具备语音对话功能的终端和语音对话控制方法。
背景技术
传统的语音对话功能以这样的方式操作:从由终端生产商提供的基本回答集合中选择针对用户问题的回答。因此,语音对话功能被限制为针对相同的问题给出相同的回答,而不考虑用户。这意味着当多个用户使用具备语音对话功能的终端时,传统的语音对话功能不提供针对用户优选的回答。
发明内容
做出本发明以解决至少上述问题和缺点,并提供至少下述优点。因此,本发明的一方面提供一种用于输出反应用户的当前情绪状态、年龄和性别的内容的移动终端及其语音对话控制方法。
根据本发明的一方面,提供一种支持语音对话功能的移动终端。该移动终端包括:显示单元;音频处理单元;控制单元,被配置为响应于用户输入而选择对应于与用户相关联的第一标准的内容,基于与用户相关联的第二标准确定内容输出方案,根据内容输出方案通过显示单元和音频处理单元输出选择的内容。
根据本发明的另一方面,提供一种移动终端的语音对话方法。该方法包括:响应于用户输入选择对应于与用户相关联的第一标准的内容;基于与用户相关联的第二标准确定内容输出方案;根据内容输出方案通过移动终端的显示单元和音频处理单元输出选择的内容。
附图说明
从下面结合附图的详细描述中,本发明的实施例的以上和其他方面、特点和优点将变得清楚,在附图中:
图1是示出根据本发明实施例的移动终端100的配置的框图;
图2是示出根据本发明实施例的语音对话功能控制方法的流程图;
图3是在根据本发明实施例的语音对话控制方法中使用的将情绪状态与内容进行映射的表;
图4和图5是示出根据本发明实施例的基于第一标准输出的内容的屏幕显示的示图;
图6是示出图2的第一标准获得步骤的细节的流程图;
图7是在根据本发明实施例的语音对话控制方法中使用的将情绪状态与内容进行映射的表;
图8和图9是示出根据本发明实施例的基于第一标准输出的内容的屏幕显示的示图;
图10是在根据本发明实施例的语音对话控制方法中使用的将情绪状态与内容进行映射的表;
图11是示出根据本发明实施例的基于第一标准输出的内容的屏幕显示的示图;
图12是示出根据本发明实施例的用于移动终端的语音对话功能的系统的示意图。
具体实施方式
下面将参照附图更全面地描述本发明,在附图中示出本发明的示意性实施例。然而,本发明可被实施为多种不同的形式,并不应被解释为限制于这里阐述的实施例。而是,提供这些实施例从而使本发明的描述将是全面且完整的,并且将本发明的范围完整地传达给本领域技术人员。本发明将由权利要求所限定。
虽然以下参照附图更详细地描述序号,在附图中示出本发明的示意性实施例,但是本发明可被实施为多种不同的形式,并不应被术语限制,所述术语仅用于将一个元件、区域、层或区间与另一元件、区域、层或区间区分开来。因此,在不脱离本发明构思的教导的情况下,下面讨论的第一元件、组件、区域、层或区间可以被称为第二元件、组件、区域、层或区间。应理解,当使用连接词“和/或”等来描述一个或多个相关的列出项目时,描述包括所述一个或多个相关的列出项目的任意和所有组合。
图1是示出根据本发明实施例的移动终端100的配置的框图。
参照图1,移动终端100包括无线电通信单元110、相机单元120、位置测量单元130、音频处理单元140、显示单元150、存储单元160和控制单元170。
无线电通信单元110发送/接收携带数据的无线电信号。无线电通信单元110可包括被配置为对发送信号进行上转换和放大的射频(RF)发送器以及被配置为对接收的信号进行低噪放大和下转换的RF接收器。无线电通信单元110将通过无线电信道接收到的数据传输到控制单元170,并将从控制单元170输出的数据通过无线电信道发送出去。
相机单元120接收视频信号。相机单元120处理在视频会议模式下或图像拍摄模式下由图像传感器获得的静止图像或运动图像的视频帧。相机单元120可将处理后的视频帧输出到显示单元150。由相机单元120处理的视频帧可被存储在存储单元中和/或通过无线电通信单元110被发送到外部。
根据移动终端110的实现方式,相机单元120可包括两个或更多个相机模块。例如,移动终端100可包括朝向与显示单元150的屏幕相同方向的相机以及朝向与屏幕相反方向的另一相机。
位置测量单元130可设置有卫星信号接收模块,用于基于从卫星接收到的信号测量移动终端100的当前位置。通过无线电通信单元110,位置测量单元130还可基于从设施内的内部或外部无线电通信设备接收到的信号来测量移动终端100的当前位置。
音频处理单元140可设置有编解码器组,编解码器组包括用于处理包数据的数据编解码器和用于处理诸如语音的音频信号的音频编解码器。音频处理单元140可通过音频编解码器将数字音频信号转换为模拟音频信号,从而通过扬声器(SPK)输出模拟信号,音频处理单元140可将通过麦克风(MIC)输入的模拟信号转换为数字音频信号。
显示单元150以可视方式向用户显示菜单、输入数据、功能配置信息等。显示单元150输出启动屏幕、待机屏幕、菜单屏幕、通话屏幕和其他应用执行屏幕。
可利用液晶显示器(LCD)、有机发光二极管(OLED)、有源矩阵OLED(AMOLED)、柔性显示器和3维(3D)显示器来实现显示单元150。
存储单元160存储移动终端100的操作所需要的程序和数据,并可被划分为程序区域和数据。程序区域可存储用于控制移动终端100的整体操作的基本程序、用于启动移动终端100的操作系统(OS)、多媒体内容回放应用和用于执行可选功能(诸如语音对话、相机、音频回放和视频回放)的其他应用。数据区域可存储在使用移动终端100的状态下产生的数据,诸如静止和运动图像、电话簿和音频数据。
控制单元170控制移动终端100的组件的整体操作。在根据用户操纵执行的语音对话功能中,控制单元170接收通过音频处理单元140输入的用户语音,并控制显示单元150显示与用户语音相应的内容。控制单元170还可通过音频处理单元140播放与用户语音相应的内容。这里,内容可包括多媒体内容(诸如文本、图片、语音、电影和视频片段)和诸如天气、推荐位置和最喜爱联系人的信息中的至少一个。
更具体地说,控制单元170识别用户语音以获得相应文本。接下来,控制单元170检索与文本相应的内容并通过显示单元150和音频处理单元140中的至少一个输出内容。最后,控制单元170可检查文本的意思以在存储在存储单元160中的相关内容中检索相应内容。以这种方式,通过使用交互语音通信,可通过相关的存储内容向用户提供期望的信息。例如,如果用户说出“今天的天气?”,则移动终端100接收通过音频处理单元140输入的用户语音。之后移动终端100检索与从用户语音获得的文本“今天的天气”相应的内容(天气信息),并通过显示单元150和音频处理单元140中的至少一个输出检索到的内容。
具体地说,在本发明的实施例中,控制单元170可根据用户的当前情绪、年龄和性别选择将通过显示单元150和/或音频处理单元140输出的内容。为了完成该目的,根据本发明的实施例,控制单元170可包括内容选择模块171和内容输出模块175。
图2是示出根据本发明实施例的语音对话功能控制方法的流程图。
参照图2,如果在步骤S210执行语音对话功能,则在步骤S220,内容选择模块171获得与用户相关联的第一标准。这里,第一标准可包括用户的当前情绪状态。情绪状态表示诸如高兴、悲伤、愤怒、惊讶等的感情或感受。
在步骤S230,内容选择模块171确定是否检测到用户语音输入。如果通过语音处理单元140检测到用户语音输入,则在步骤S240,内容选择模块171基于第一标准选择与用户语音输入相应的内容。更具体地说,内容选择模块171从用户语音获得短语。接下来,内容选择模块171检索与短语相应的内容。接下来,内容选择模块171使用基于第一标准预定的情绪状态信息选择内容之一。这里,情绪状态特定的内容信息可以被预配置并被存储在存储单元160中。内容选择模块171还可首先基于第一标准检索内容并随后选择与短语相应的内容之一。
另一方面,如果在步骤S230没有检测到用户语音输入,则在步骤S250,内容选择模块171基于第一标准选择内容。
如果内容被选择,则在步骤S260,内容输出模块175获得与用户相关联的第二标准。这里,第二标准可包括用户年龄和性别中的至少一个。用户年龄可以是精确的用户年龄,或者是预定年龄组之一。例如,可利用精确的数字(诸如30或50)指示用户年龄,或利用年龄组(诸如20几岁、50几岁、儿童、成人和老年人)指示用户年龄。
具体地说,内容输出模块从相机单元120接收用户的面部图像。内容输出模块175可基于存储在存储单元160中的按照年龄组或按照性别的平均面部信息从用户的面部图像自动获得第二标准。内容输出模块175还接收通过语音处理单元140输入的用户语音。接下来,内容输出模块175可使用按照年龄组或按照性别的平均语音信息从用户语音获得第二标准。内容输出模块175还可基于构成从用户语音获得的短语的词语来获得第二标准。此时,内容输出模块175可使用按照年龄组或按照性别的词语来获得第二标准。例如,如果从用户语音获得短语“我想要新的jim-jam”,则可基于词语“jim-jam”判断该用户是儿童。
内容输出模块175可基于用户面部图像和语音两者获得第二标准。虽然描述针对内容输出模块175基于用户面部图像和语音获得第二标准的情况,但是本发明的各种实施例不限于此,而是可被实施为能够使用户输入第二标准。在此情况下,由用户输入的第二标准可被存储在存储单元160中。内容输出模块175基于存储在存储单元160中的第二标准执行预定功能。
如果获得了第二标准,则在步骤S270,内容输出模块175基于第二标准确定内容输出方案。也就是说,内容输出模块175通过改变构成由内容选择模块171选择的内容的词语、选择的内容的输出速度以及选择的内容的输出大小,来确定内容输出方案。
更具体地说,内容输出模块175可基于按照年龄组的词语信息或按照性别的词语信息来将构成选择的内容的词语改变为适合于第二标准的词语。例如,如果内容包括“Pajamas商店”并且如果用户属于“儿童”年龄组,则内容输出模块175将词语“Pajamas”改为适合于儿童的词语“Jim jam”。
内容输出模块175基于存储在存储单元160中的按照年龄组的输出速度信息或按照性别的输出速度信息确定选择的内容的输出速度。例如,如果用户属于“儿童”或“老年人”年龄组,则内容输出模块175可降低选择的内容的语音回放速度。
内容输出模块175还基于按照年龄组的输出大小信息或按照性别的输出大小信息确定选择的内容的输出大小。例如,如果用户属于“老年人”年龄组,则内容输出模块175可基于按照年龄组的输出大小信息增加选择的内容的输出音量以及选择的内容的显示大小(例如,字体大小)。存储单元160存储包含年龄组或性别到内容输出方案(内容输出速度和大小)的映射的表,并且内容输出模块175基于存储在表映射中的数据确定选择的内容的输出方案。如果选择了内容输出方案,则在步骤S280,内容输出模块175根据内容输出方案通过显示单元150和音频处理单元140输出由内容选择模块171选择的内容。
之后,如果在步骤S290检测到语音对话功能终止请求,则控制单元170结束语音对话功能。如果在步骤S290没有检测到语音对话功能终止请求,则控制单元170将处理返回步骤S220。
如上所述,本发明的语音对话控制方法选择适合于用户的当前情绪状态的内容,并根据用户的年龄和/或性别确定内容输出方案,从而向用户提供个性化的内容。该方法能够提供更逼真的语音对话功能。
同时,如果从通过语音处理单元140输入的用户语音获得的短语是用于改变内容输出方案的请求,则内容输出模块175根据短语改变内容输出方案。例如,在已经根据基于第二标准确定的内容输出方案输出内容之后,如果用户说出短语“你能更快更轻地说话吗?”,则控制输出模块175将语音回放速度增加一级并将音频音量减小一级。
内容输出模块175可将改变后的内容输出方案存储在存储单元160中。之后,内容输出模块175使用先前存储的内容输出方案历史改变基于第二标准确定的内容输出方案。内容输出模块175可根据改变后的内容输出方案输出选择的内容。
下面参照图3至图5描述根据本发明实施例的内容输出处理。
图3是在根据本发明实施例的语音对话控制方法中使用的将情绪状态与内容进行映射的表。图4和图5是示出根据本发明实施例的基于第一标准输出的内容的屏幕显示的示图。
参照图3,内容被预先映射到情绪状态。情绪状态“高兴”被映射到内容A,情绪状态“悲伤”被映射到内容B,情绪状态“愤怒”被映射到内容C,情绪状态“惊讶”被映射到内容D。这些情绪状态和内容被预先映射并被存储在存储单元160中。
内容选择模块171可在按照情绪状态的内容中选择适合于第一标准(用户的当前情绪状态)的内容。
参照图4,基于从通过音频处理单元140输入的用户语音获得的短语UT以及第一标准(用户的当前情绪状态),内容选择模块171选择针对情绪状态“高兴”的内容A(AT1)和针对情绪状态“悲伤”的内容B(AT2)。
参照图5,基于第一标准(用户的当前情绪状态),内容选择模块171选择针对情绪状态“愤怒”的内容C(AT1)和针对情绪状态“惊讶”的内容D(AT2)。
虽然图3针对每个情绪状态映射一个内容项目,但是本发明不限于此,而是可被实施为每个情绪状态映射多个内容项目。在此情况下,内容选择模块171可随机地选择与第一标准(用户的当前情绪状态)相应的多个内容之一。
可按照情绪状态对内容进行分组。“内容组”表示具有相同/相似属性的内容的集合。例如,内容组可被分类为“动作”电影内容组、“R&B”音乐内容组等中的一个。在此情况下,内容选择模块171可随机地选择满足第一标准(用户的当前情绪状态)的内容组的内容之一。
图6是示出图2的第一标准获得步骤的细节的流程图。
参照图6,内容选择模块171在步骤S310从相机单元120获得用户的面部图像,并在步骤S320从面部图像检测面部区域。也就是说,内容选择模块171检测具有眼、鼻和嘴的面部区域。
接下来,内容选择模块171在步骤S330提取眼、鼻和嘴的基准点,并在步骤S340基于基准点识别面部表情。也就是说,内容选择模块171基于存储在存储单元160中的按照表情的基准点信息识别用户的当前表情。
之后,在步骤S350,内容选择模块171基于表情自动地检索第一标准,所述表情基于预定的按照情绪状态的表情信息被确定。这里,按照情绪状态的表情信息可以被预先配置并被存储在存储单元160中。
虽然描述针对内容选择模块171基于用户的面部图像获得第一标准的情况,但是本发明不限于此,而是可被实施为能够使用户输入第一标准。
下面参照图7至图9描述根据本发明实施例的另一内容输出处理。
图7是在根据本发明实施例的语音对话控制方法中使用的将情绪状态与内容进行映射的表。图8和图9是示出根据本发明实施例的基于第一标准输出的内容的屏幕显示的示图。
内容选择模块171可使用用户的过去内容回放历史,基于第一标准(用户的当前情绪状态)选择内容。过去内容回放历史被存储在存储单元160中,并且每当内容根据用户操纵被播放时都被更新。
参照图7,回放的次数或各个内容项目被存储在存储单元160中。内容A1被播放三次,内容A2被播放十次,内容B1被播放五次,内容B2被播放两次,内容C1被播放八次,内容C2被播放十五次,内容D1被播放两次,内容D2被播放一次。内容A1和A2被映射到情绪状态“高兴”,内容B1和B2被映射到情绪状态“悲伤”,内容C1和C2被映射到情绪状态“愤怒”,内容D1和D2被映射到情绪状态“惊讶”(见图3)。
内容选择模块171可基于过去内容回放历史选择适合于第一标准(用户的当前情绪状态)的多个内容之一。
参照图8,如果第一标准(用户的当前情绪)是“高兴”,则内容选择模块171从映射到第一标准(用户的当前情绪)的内容A1和A2中选择已被更频繁地播放的内容A2(AT1)。如果第一标准(用户的当前情绪)是“悲伤”,则内容选择模块171从映射到第一标准(用户的当前情绪)的内容B1和B2中选择已被更频繁地播放的内容B1(AT2)。
此时,内容选择模块171可选择映射到第一标准(用户的当前情绪)的多个内容。然后,内容输出模块175可基于过去内容回放历史确定多个内容的输出位置。
参照图9,如果第一标准(用户的当前情绪)是“高兴”,则内容选择模块171选择内容A1和A2两者作为满足第一标准(用户的当前情绪)的内容(AT1)。然后,内容输出模块175将内容A1布置在已被更频繁地播放的内容A2之下(AT1)。如果第一标准(用户的当前情绪)是“悲伤”,则内容选择模块171选择内容B1和B2两者作为满足第一标准(用户的当前情绪)的内容(AT2)。然后,内容输出模块175将内容B2布置在已被更频繁地播放的内容B1之下(AT2)。
下面参照图10和图11描述根据本发明实施例的另一内容输出处理。
图10是在根据本发明实施例的语音对话控制方法中使用的将情绪状态与内容进行映射的表。图11是示出根据本发明实施例的基于第一标准输出的内容的屏幕显示的示图。
内容选择模块171可基于第一标准(用户的当前情绪状态)和用户的基于过去情绪状态的内容输出历史来选择内容。用户的基于过去情绪状态的内容输出历史被存储在存储单元160中,并且在语音对话功能激活时,每当内容根据用户的情绪状态被输出时都被更新。
参照图10,基于过去情绪状态的内容输出次数被存储在存储单元160中。内容A1已经被输出三次,内容A2已经被输出八次,内容B1已经被输出四次,内容B2已经被输出一次,内容C1已经被输出三次,内容C2已经被输出十一次,内容D1已经被输出两次,内容D21已经被输出五次。
内容选择模块171可使用基于过去情绪状态的内容输出历史来选择被映射到第一标准(用户的当前情绪状态)的多个内容之一。
参照图11,如果第一标准(用户的当前情绪状态)是“高兴”,则内容选择模块171从内容A1和A2中选择与用户的过去情绪状态相关联的已被更频繁地输出的内容A2作为与第一标准相应的内容(AT1)。如果第一标准(用户的当前情绪)是“悲伤”,则内容选择模块171从内容B1和B2中选择与用户的过去情绪状态相关联的已被更频繁地输出的内容B2作为与第一标准(用户的当前情绪状态)相应的内容(AT2)
内容选择模块171可选择被映射为满足第一标准(用户的当前情绪状态)的所有内容。然后,内容输出模块175使用基于过去情绪状态的内容输出历史确定多个内容的输出位置。例如,如果第一标准(用户的当前情绪状态)是“高兴”,则内容选择模块171选择内容A1和A2两者作为与第一标准(用户的当前情绪状态)相应的内容。然后,内容输出模块175将内容A1布置在内容A2之下,其中,根据过去的用户情绪状态,内容A2已被更频繁地播放。
下面描述根据本发明实施例的另一内容输出处理。
内容选择模块171可基于第一标准(用户的当前情绪状态)使用通过位置测量单元130获得的移动终端100的当前位置选择内容。更具体地说,内容选择模块171基于第一标准(用户的当前情绪状态)获得多个内容。接下来,内容选择模块171从获得的内容中选择与在移动终端的当前位置的预定半径范围内的区域相关联的内容。例如,如果内容是关于推荐地点(饭店、咖啡厅等)的信息,则内容供选择模块171可基于移动终端的当前位置信息选择适合于移动终端100的当前位置的内容。
当然,内容选择模块171可获得与在移动终端的当前位置的预定半径范围内的区域相关联的多个内容,然后从获得的内容中选择满足第一标准(用户的当前情绪状态)的内容。
虽然描述针对控制单元170、内容选择模块171和内容输出模块175被单独配置且负责不同功能的情况,但是本发明不限于此,而是可被实施为控制单元、内容选择模块和内容输出模块以集成方式操作的形式。
图12是示出根据本发明实施例的移动终端的语音对话功能的系统的示意图。
由于这里的移动终端100与以上参照图1描述的移动终端相同,因此在此省略对移动终端100的详细描述。根据本发明实施例的移动终端100通过无线通信网络300连接到服务器200。
在以上描述的实施例中,移动终端100的控制单元170执行第一标准获得操作、基于第一标准的内容选择操作、第二标准获得操作以及内容输出方案确定操作。
然而,在此实施例中,移动终端100的控制单元170通过无线电通信单元100与服务器交换数据,并且执行第一标准获得操作、基于第一标准的内容选择操作、第二标准获得操作以及内容输出方案确定操作。
例如,移动终端100的控制单元170向服务器200提供通过相机单元120输入的用户的面部图像以及通过音频处理单元140输入的用户语音。然后,服务器200基于用户的面部图像和用户语音获得第一标准和第二标准。服务器200向移动终端100提供获得的第一标准和第二标准。
虽然在单个用户的假设下进行了描述,但是本发明不限于此,并且本发明也可被应用于多个用户使用移动终端100的情况。在此情况下,需要添加识别移动终端100的当前用户的操作。可以按照用户来存储用户的过去内容输出方案历史、用户的过去内容回放历史以及用户的基于过去情绪状态的内容输出历史。因此,即使当多个用户使用移动终端100时,也可提供针对用户的内容。
如上所述,本发明的具备语音对话功能的移动终端和语音对话控制方法能够选择适合于用户的当前情绪状态的内容并根据用户的年龄和性别确定内容输出方案。因此,可提供为单个用户定制的内容。因此,本发明能够实现逼真的语音对话功能。
虽然在上面已经详细描述了本发明的实施例,但是本领域普通技术人员应理解和清楚,在不脱离由权利要求及其等同物限定的本发明的精神和范围的情况下,这里描述的基本发明构思的多种改变和修改仍落入本发明的精神和范围内。
Claims (30)
1.一种支持语音对话功能的移动终端,该移动终端包括:
显示单元;
音频处理单元;
控制单元,被配置为响应于用户输入而选择对应于与用户相关联的第一标准的内容,基于与用户相关联的第二标准确定内容输出方案,根据内容输出方案通过显示单元和音频处理单元输出选择的内容。
2.如权利要求1所述的移动终端,其中,第一标准是用户的当前情绪状态,第二标准是包括用户的年龄和性别中的至少一个的用户信息。
3.如权利要求1所述的移动终端,其中,控制单元选择与第一标准相应的内容,所述相应的内容包括预定的根据用户的情绪状态的至少一个内容。
4.如权利要求1所述的移动终端,其中,控制单元基于第一标准和用户的过去内容回放历史选择内容。
5.如权利要求1所述的移动终端,其中,控制单元基于第一标准和移动终端的当前位置信息选择内容。
6.如权利要求1所述的移动终端,其中,控制单元基于与用户的过去情绪状态相关联的内容输出历史选择内容。
7.如权利要求1所述的移动终端,其中,音频处理单元接收用户的语音,控制单元基于第一标准选择与从所述语音获得的短语相应的内容。
8.如权利要求7所述的移动终端,其中,控制单元基于构成所述短语的词语获得第二标准。
9.如权利要求1所述的移动终端,其中,控制单元基于第二标准改变构成内容的词语、内容的输出速度和内容的输出大小中的至少一个,并根据内容输出方案输出内容。
10.如权利要求1所述的移动终端,其中,音频处理单元接收用户的语音,并且当从语音获得的短语是用于改变内容输出方案的请求时,控制单元改变内容输出方案。
11.如权利要求1所述的移动终端,其中,控制单元使用用户的过去内容输出方案历史改变基于第二标准确定的内容输入方案,并根据改变的内容输出方案输出内容。
12.如权利要求1所述的移动终端,还包括:相机单元,拍摄用户的面部图像,其中,控制单元基于用户的面部图像自动地获得第一标准。
13.如权利要求12所述的移动终端,其中,控制单元基于从用户的面部图像获得的面部表情从预定的按照情绪状态的表情信息获得第一标准。
14.如权利要求1所述的移动终端,还包括:相机单元,拍摄用户的面部图像,其中,音频处理单元接收用户的语音,并且控制单元基于用户的面部图像和用户的语音中的至少一个来自动地获得第二标准。
15.如权利要求1所述的移动终端,其中,控制单元通过音频处理单元接收第一标准和第二标准。
16.一种移动终端的语音对话方法,该方法包括:
响应于用户输入选择对应于与用户相关联的第一标准的内容;
基于与用户相关联的第二标准确定内容输出方案;
根据内容输出方案通过移动终端的显示单元和音频处理单元输出选择的内容。
17.如权利要求16所述的方法,其中,第一标准是用户的当前情绪状态,第二标准是包括用户的年龄和性别中的至少一个的用户信息。
18.如权利要求16所述的方法,其中,选择内容的步骤包括:选择与第一标准相应的内容,所述相应的内容包括预定的根据用户的情绪状态的至少一个内容。
19.如权利要求16所述的方法,其中,选择内容的步骤包括:基于第一标准和用户的过去内容回放历史选择内容。
20.如权利要求16所述的方法,其中,选择内容的步骤包括:基于第一标准和移动终端的当前位置信息选择内容。
21.如权利要求16所述的方法,其中,选择内容的步骤包括:基于与用户的过去情绪状态相关联的内容输出历史选择内容。
22.如权利要求16所述的方法,还包括:接收用户的语音,其中,选择内容的步骤包括基于第一标准选择与从所述语音获得的短语相应的内容。
23.如权利要求22所述的方法,还包括:基于构成所述短语的词语获得第二标准。
24.如权利要求16所述的方法,其中,确定内容输出方案的步骤包括:基于第二标准改变构成内容的词语、内容的输出速度和内容的输出大小中的至少一个,并根据内容输出方案输出内容。
25.如权利要求24所述的方法,还包括:接收用户的语音,其中,确定内容输出方案的步骤包括:当从语音获得的短语是用于改变内容输出方案的请求时,改变内容输出方案。
26.如权利要求16所述的方法,其中,确定内容输出方案的步骤包括:使用用户的过去内容输出方案历史改变基于第二标准确定的内容输出方案。
27.如权利要求16所述的方法,还包括:
接收用户的面部图像;
基于用户的面部图像自动地获得第一标准。
28.如权利要求27所述的方法,其中,获得第一标准的步骤包括:基于从用户的面部图像获得的面部表情从预定的按照情绪状态的表情信息获得第一标准。
29.如权利要求16所述的方法,还包括:
接收用户的面部图像和语音中的至少一个;
基于用户的面部图像和语音中的至少一个自动地获得第二标准。
30.如权利要求16所述的方法,还包括:通过音频处理单元接收第一标准和第二标准。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0013757 | 2013-02-07 | ||
KR1020130013757A KR102050897B1 (ko) | 2013-02-07 | 2013-02-07 | 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103984408A true CN103984408A (zh) | 2014-08-13 |
Family
ID=50072918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410044807.5A Pending CN103984408A (zh) | 2013-02-07 | 2014-02-07 | 支持语音对话功能的移动终端和语音对话方法 |
Country Status (10)
Country | Link |
---|---|
US (1) | US20140222432A1 (zh) |
EP (1) | EP2765762B1 (zh) |
JP (1) | JP6541934B2 (zh) |
KR (1) | KR102050897B1 (zh) |
CN (1) | CN103984408A (zh) |
AU (1) | AU2014200660B2 (zh) |
BR (1) | BR102014003021A2 (zh) |
CA (1) | CA2842005A1 (zh) |
RU (1) | RU2661791C2 (zh) |
TW (1) | TWI628650B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105700682A (zh) * | 2016-01-08 | 2016-06-22 | 北京乐驾科技有限公司 | 基于视觉和语音的智能性别、情绪识别检测系统及方法 |
CN106484093A (zh) * | 2015-09-01 | 2017-03-08 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
CN106873800A (zh) * | 2017-02-20 | 2017-06-20 | 北京百度网讯科技有限公司 | 信息输出方法和装置 |
CN108027952A (zh) * | 2015-09-18 | 2018-05-11 | 三星电子株式会社 | 用于提供内容的方法和电子设备 |
CN108984078A (zh) * | 2017-05-31 | 2018-12-11 | 联想(新加坡)私人有限公司 | 基于所识别的用户调整输出设置的方法及信息处理装置 |
CN109479116A (zh) * | 2016-07-28 | 2019-03-15 | 索尼公司 | 信息处理设备、信息处理方法、以及程序 |
CN109637519A (zh) * | 2018-11-13 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 语音交互实现方法、装置、计算机设备及存储介质 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102516124B1 (ko) * | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR102318391B1 (ko) | 2013-03-15 | 2021-10-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US10431209B2 (en) * | 2016-12-30 | 2019-10-01 | Google Llc | Feedback controller for data transmissions |
KR102340251B1 (ko) * | 2014-06-27 | 2021-12-16 | 삼성전자주식회사 | 데이터 관리 방법 및 그 방법을 처리하는 전자 장치 |
JP6596865B2 (ja) * | 2015-03-23 | 2019-10-30 | 日本電気株式会社 | 電話機、電話システム、電話機の音量設定方法、及びプログラム |
EP3420713B1 (en) | 2016-02-25 | 2020-05-06 | Koninklijke Philips N.V. | Devices, system and methods for determining a priority level and/or conversation duration of a call |
US10276149B1 (en) * | 2016-12-21 | 2019-04-30 | Amazon Technologies, Inc. | Dynamic text-to-speech output |
US10983753B2 (en) | 2017-06-09 | 2021-04-20 | International Business Machines Corporation | Cognitive and interactive sensor based smart home solution |
JP7073640B2 (ja) * | 2017-06-23 | 2022-05-24 | カシオ計算機株式会社 | 電子機器、感情情報取得システム、プログラム及び感情情報取得方法 |
CN108920129A (zh) * | 2018-07-27 | 2018-11-30 | 联想(北京)有限公司 | 信息处理方法和信息处理系统 |
CN112639579B (zh) | 2018-08-31 | 2023-09-15 | 奇跃公司 | 用于增强现实装置的空间分辨的动态调暗 |
WO2020136725A1 (ja) * | 2018-12-25 | 2020-07-02 | クックパッド株式会社 | サーバ装置、情報処理端末、システム、方法およびプログラム |
KR20200111853A (ko) | 2019-03-19 | 2020-10-05 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 음성 인식 제어 방법 |
KR102388465B1 (ko) * | 2020-02-26 | 2022-04-21 | 최갑천 | 가상 콘텐츠 생성 방법 |
JP7469211B2 (ja) | 2020-10-21 | 2024-04-16 | 東京瓦斯株式会社 | 対話型コミュニケーション装置、コミュニケーションシステム及びプログラム |
CN113380240B (zh) * | 2021-05-07 | 2022-04-12 | 荣耀终端有限公司 | 语音交互方法和电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1398214A (zh) * | 2000-10-23 | 2003-02-19 | 索尼公司 | 有足机器人、用于有足机器人的动作控制方法、和存储介质 |
EP1333650A2 (en) * | 2002-02-04 | 2003-08-06 | Nokia Corporation | Method of enabling user access to services |
CN1494711A (zh) * | 2001-02-05 | 2004-05-05 | �Ҵ���˾ | 使用多模式输入进行多模式焦点检测,参考岐义解析和语气分类的系统和方法 |
CN1637740A (zh) * | 2003-11-20 | 2005-07-13 | 阿鲁策株式会社 | 对话控制设备和对话控制方法 |
WO2007141052A1 (en) * | 2006-06-09 | 2007-12-13 | Sony Ericsson Mobile Communications Ab | Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic |
EP2244252A1 (en) * | 2009-04-20 | 2010-10-27 | Samsung Electronics Co., Ltd. | Electronic apparatus and voice recognition method for the same |
CN102257566A (zh) * | 2008-12-19 | 2011-11-23 | 皇家飞利浦电子股份有限公司 | 用于适配通信的方法和系统 |
US20120011477A1 (en) * | 2010-07-12 | 2012-01-12 | Nokia Corporation | User interfaces |
CN102541259A (zh) * | 2011-12-26 | 2012-07-04 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其根据脸部表情提供心情服务的方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08255150A (ja) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | 情報公開装置及びマルチモーダル情報入出力システム |
JPH10326176A (ja) * | 1997-05-23 | 1998-12-08 | Oki Hokuriku Syst Kaihatsu:Kk | 音声対話制御方法 |
JP2001215993A (ja) * | 2000-01-31 | 2001-08-10 | Sony Corp | 対話処理装置および対話処理方法、並びに記録媒体 |
JP2003046980A (ja) * | 2001-08-02 | 2003-02-14 | Matsushita Electric Ind Co Ltd | 要求応答方法、装置及びプログラム |
JP2004310034A (ja) * | 2003-03-24 | 2004-11-04 | Matsushita Electric Works Ltd | 対話エージェントシステム |
JP2005065252A (ja) * | 2003-07-29 | 2005-03-10 | Fuji Photo Film Co Ltd | 携帯電話機 |
US7881934B2 (en) * | 2003-09-12 | 2011-02-01 | Toyota Infotechnology Center Co., Ltd. | Method and system for adjusting the voice prompt of an interactive system based upon the user's state |
JP2005275601A (ja) * | 2004-03-23 | 2005-10-06 | Fujitsu Ltd | 音声による情報検索システム |
JP2006048663A (ja) * | 2004-06-30 | 2006-02-16 | Metallic House Inc | 商品・サービス受発注システム及び商品・サービス受発注方法、並びにサーバ装置及び端末装置 |
JP2006146630A (ja) * | 2004-11-22 | 2006-06-08 | Sony Corp | コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム |
US8214214B2 (en) * | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
CN101147377B (zh) * | 2005-02-04 | 2013-03-27 | 高通股份有限公司 | 无线通信的安全自启动 |
US7490042B2 (en) * | 2005-03-29 | 2009-02-10 | International Business Machines Corporation | Methods and apparatus for adapting output speech in accordance with context of communication |
US7672931B2 (en) * | 2005-06-30 | 2010-03-02 | Microsoft Corporation | Searching for content using voice search queries |
KR20090085376A (ko) * | 2008-02-04 | 2009-08-07 | 삼성전자주식회사 | 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치 |
JP2010057050A (ja) * | 2008-08-29 | 2010-03-11 | Sharp Corp | 情報端末装置、情報配信装置、情報配信システム及びプログラム |
US8340974B2 (en) * | 2008-12-30 | 2012-12-25 | Motorola Mobility Llc | Device, system and method for providing targeted advertisements and content based on user speech data |
JP2010181461A (ja) * | 2009-02-03 | 2010-08-19 | Olympus Corp | デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体 |
US10540976B2 (en) * | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
CN102447837A (zh) * | 2009-06-16 | 2012-05-09 | 英特尔公司 | 手持装置中的摄像机应用 |
KR101916107B1 (ko) * | 2011-12-18 | 2018-11-09 | 인포뱅크 주식회사 | 통신 단말 및 그 통신 단말의 정보처리 방법 |
-
2013
- 2013-02-07 KR KR1020130013757A patent/KR102050897B1/ko active IP Right Grant
-
2014
- 2014-02-06 CA CA2842005A patent/CA2842005A1/en not_active Abandoned
- 2014-02-06 EP EP14154157.3A patent/EP2765762B1/en active Active
- 2014-02-06 AU AU2014200660A patent/AU2014200660B2/en active Active
- 2014-02-06 TW TW103103940A patent/TWI628650B/zh not_active IP Right Cessation
- 2014-02-07 RU RU2014104373A patent/RU2661791C2/ru active
- 2014-02-07 JP JP2014022080A patent/JP6541934B2/ja not_active Expired - Fee Related
- 2014-02-07 US US14/175,557 patent/US20140222432A1/en not_active Abandoned
- 2014-02-07 BR BR102014003021-2A patent/BR102014003021A2/pt not_active IP Right Cessation
- 2014-02-07 CN CN201410044807.5A patent/CN103984408A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1398214A (zh) * | 2000-10-23 | 2003-02-19 | 索尼公司 | 有足机器人、用于有足机器人的动作控制方法、和存储介质 |
CN1494711A (zh) * | 2001-02-05 | 2004-05-05 | �Ҵ���˾ | 使用多模式输入进行多模式焦点检测,参考岐义解析和语气分类的系统和方法 |
EP1333650A2 (en) * | 2002-02-04 | 2003-08-06 | Nokia Corporation | Method of enabling user access to services |
CN1637740A (zh) * | 2003-11-20 | 2005-07-13 | 阿鲁策株式会社 | 对话控制设备和对话控制方法 |
WO2007141052A1 (en) * | 2006-06-09 | 2007-12-13 | Sony Ericsson Mobile Communications Ab | Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic |
CN102257566A (zh) * | 2008-12-19 | 2011-11-23 | 皇家飞利浦电子股份有限公司 | 用于适配通信的方法和系统 |
EP2244252A1 (en) * | 2009-04-20 | 2010-10-27 | Samsung Electronics Co., Ltd. | Electronic apparatus and voice recognition method for the same |
US20120011477A1 (en) * | 2010-07-12 | 2012-01-12 | Nokia Corporation | User interfaces |
CN102541259A (zh) * | 2011-12-26 | 2012-07-04 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其根据脸部表情提供心情服务的方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106484093A (zh) * | 2015-09-01 | 2017-03-08 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
CN106484093B (zh) * | 2015-09-01 | 2019-06-21 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法以及记录介质 |
CN108027952A (zh) * | 2015-09-18 | 2018-05-11 | 三星电子株式会社 | 用于提供内容的方法和电子设备 |
CN108027952B (zh) * | 2015-09-18 | 2021-11-05 | 三星电子株式会社 | 用于提供内容的方法和电子设备 |
CN105700682A (zh) * | 2016-01-08 | 2016-06-22 | 北京乐驾科技有限公司 | 基于视觉和语音的智能性别、情绪识别检测系统及方法 |
CN109479116A (zh) * | 2016-07-28 | 2019-03-15 | 索尼公司 | 信息处理设备、信息处理方法、以及程序 |
US11343471B2 (en) | 2016-07-28 | 2022-05-24 | Sony Corporation | Information processing device and information processing method for communication using three-dimensional space |
CN106873800A (zh) * | 2017-02-20 | 2017-06-20 | 北京百度网讯科技有限公司 | 信息输出方法和装置 |
CN108984078A (zh) * | 2017-05-31 | 2018-12-11 | 联想(新加坡)私人有限公司 | 基于所识别的用户调整输出设置的方法及信息处理装置 |
CN109637519A (zh) * | 2018-11-13 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 语音交互实现方法、装置、计算机设备及存储介质 |
CN109637519B (zh) * | 2018-11-13 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 语音交互实现方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP2765762A1 (en) | 2014-08-13 |
AU2014200660B2 (en) | 2019-05-16 |
KR102050897B1 (ko) | 2019-12-02 |
TWI628650B (zh) | 2018-07-01 |
CA2842005A1 (en) | 2014-08-07 |
AU2014200660A1 (en) | 2014-08-21 |
KR20140100704A (ko) | 2014-08-18 |
BR102014003021A2 (pt) | 2018-04-10 |
JP2014153715A (ja) | 2014-08-25 |
EP2765762B1 (en) | 2019-07-10 |
RU2661791C2 (ru) | 2018-07-19 |
TW201435857A (zh) | 2014-09-16 |
RU2014104373A (ru) | 2015-08-20 |
US20140222432A1 (en) | 2014-08-07 |
JP6541934B2 (ja) | 2019-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103984408A (zh) | 支持语音对话功能的移动终端和语音对话方法 | |
US10176810B2 (en) | Using voice information to influence importance of search result categories | |
US10522146B1 (en) | Systems and methods for recognizing and performing voice commands during advertisement | |
KR102233343B1 (ko) | 선택적으로 조종 가능한 상태 머신을 갖는 개인 보조 모듈 제공 | |
CN106201424B (zh) | 一种信息交互方法、装置及电子设备 | |
CN106471463B (zh) | 用于音频输入监视的装置 | |
US20190235916A1 (en) | Methods to present the context of virtual assistant conversation | |
CN106663427A (zh) | 用于服务语音发音的高速缓存设备 | |
WO2019088384A1 (ko) | 답변을 변형하여 풍부한 표현의 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 | |
EP2961148B1 (en) | Method and device for obtaining voice service | |
KR20200115660A (ko) | 인텔리전트 지원 방법 | |
KR102607052B1 (ko) | 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체. | |
US20200135205A1 (en) | Input method, device, apparatus, and storage medium | |
CN106657543B (zh) | 语音信息处理方法及装置 | |
US11302332B2 (en) | Method, computer device and computer readable recording medium for providing natural language conversation by timely providing substantial reply | |
US11481443B2 (en) | Method and computer device for providing natural language conversation by providing interjection response in timely manner, and computer-readable recording medium | |
WO2019168235A1 (ko) | 복수 개의 같은 유형의 엔티티 정보의 분석에 기초한 인텐트 결정을 제공하는 방법 및 대화형 ai 에이전트 시스템, 및 컴퓨터 판독가능 기록 매체 | |
CN112219386A (zh) | 语音响应系统的图形用户界面 | |
KR20200040562A (ko) | 사용자 발화를 처리하기 위한 시스템 | |
CN113901832A (zh) | 人机对话方法、装置、存储介质及电子设备 | |
CN113079247A (zh) | 关联服务提供方法和关联服务提供装置 | |
CN113342302A (zh) | 语音设备的控制方法及装置、语音设备及存储介质 | |
CN113726956A (zh) | 一种来电接听控制方法、装置、终端设备及存储介质 | |
CN113190647A (zh) | 媒体文件播放方法、媒体文件播放装置及存储介质 | |
CN114242055A (zh) | 语音转换方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140813 |
|
RJ01 | Rejection of invention patent application after publication |