CN1894740A - 信息处理系统、信息处理方法以及信息处理用程序 - Google Patents
信息处理系统、信息处理方法以及信息处理用程序 Download PDFInfo
- Publication number
- CN1894740A CN1894740A CNA2004800370713A CN200480037071A CN1894740A CN 1894740 A CN1894740 A CN 1894740A CN A2004800370713 A CNA2004800370713 A CN A2004800370713A CN 200480037071 A CN200480037071 A CN 200480037071A CN 1894740 A CN1894740 A CN 1894740A
- Authority
- CN
- China
- Prior art keywords
- information
- interpolation
- deletion
- received
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 110
- 238000003672 processing method Methods 0.000 title claims description 20
- 238000012217 deletion Methods 0.000 claims abstract description 61
- 230000037430 deletion Effects 0.000 claims abstract description 61
- 238000004458 analytical method Methods 0.000 claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 40
- 238000013519 translation Methods 0.000 claims abstract description 25
- 230000007246 mechanism Effects 0.000 claims description 295
- 230000009471 action Effects 0.000 claims description 102
- 238000004891 communication Methods 0.000 claims description 82
- 230000006854 communication Effects 0.000 claims description 80
- 230000008929 regeneration Effects 0.000 claims description 52
- 238000011069 regeneration method Methods 0.000 claims description 52
- 230000008859 change Effects 0.000 claims description 34
- 230000005540 biological transmission Effects 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 claims description 6
- 230000003750 conditioning effect Effects 0.000 claims description 4
- 238000011282 treatment Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims 2
- 238000000034 method Methods 0.000 abstract description 28
- 230000008569 process Effects 0.000 abstract description 24
- 230000015572 biosynthetic process Effects 0.000 abstract description 22
- 238000003786 synthesis reaction Methods 0.000 abstract description 12
- 238000012986 modification Methods 0.000 abstract 4
- 230000004048 modification Effects 0.000 abstract 4
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000008451 emotion Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000008676 import Effects 0.000 description 3
- 230000003319 supportive effect Effects 0.000 description 3
- 206010044074 Torticollis Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 208000018197 inherited torticollis Diseases 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000345998 Calamus manan Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000592274 Polypodium vulgare Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000005284 basis set Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 235000012950 rattan cane Nutrition 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Toys (AREA)
- Machine Translation (AREA)
Abstract
本发明的目的在于让成为处理对象的信息的正确处理结果以外也能够再生。具有信息处理机构(3)、信息变更机构(5)、信息再生机构(4),信息变更机构(5)给信息处理机构(3)所得到的处理结果添加变更。信息处理机构(3)对传感器(2)所接收到的信息进行处理,将处理结果传递给信息再生机构(4)。信息变更机构(5)对信息处理机构(3)中所得到的处理结果,使用信息分析部与变更处理部进行信息的添加/删除。在信息处理是包括语音识别、翻译、语音合成的口译的情况下,传感器(2)所接收到的第一语言,在信息处理机构(3)中翻译成第二语言,并由信息再生机构(4)再生。
Description
技术领域
本发明涉及一种信息处理系统、信息处理方法、信息处理用程序以及机器人,特别是一种能够在传送处理结果时添加/删除信息的信息处理系统、信息处理方法、信息处理用程序以及机器人。
背景技术
专利文献1、专利文献2、专利文献3、专利文献4、专利文献5、专利文献6及专利文献7中记载了以前的以口译/翻译为目的的信息处理系统的例子。
专利文献1中所公开的信息处理系统,由语音识别部、机械翻译部、语音合成部、显示部及对话管理部构成。具有这样的结构的专利文献1中所记载的信息处理系统如下那样进行工作。
语音识别部对所输入的声音进行语音识别,将该语音识别结果供给到机械翻译部。机械翻译部中对语音识别结果进行机械翻译。机械翻译部在进行机械翻译时没有以适当的构成单位构成的情况下,指示语音识别部变更构成单位。之后,从语音合成部进行声音输出。
作为以前的以口译/翻译为目的的信息处理系统的其他例子的专利文献2、专利文献3以及专利文献4,均与专利文献1同样具有语音识别部、机械翻译部、语音合成部。专利文献1至专利文献4中所公开的以前的信息处理系统均以口译/翻译为对象,目的在于进行高精度且自然的口译/翻译。
现有技术专利文献5的相关说明中,记载了一种根据来自用户的指令与外部环境进行设定的动作的机器人。另外,记载了一种具有识别外部状态的机构,以及根据内部状态产生感情的机构,将感情的变化反映在对话中的机器人。
专利文献6中记载了一种根据来自语音识别部、机械翻译部、输入声音的输入部等的用户的感情的信息,对作为图像所显示的字符或状态进行控制的机器人。另外专利文献7中,记载了一种具有翻译功能、外语会话功能、判断用户的回答是否正确的学习功能、以及发音评价功能等的机器人。
专利文献1:特开2001-100784号公报
专利文献2:特开2001-100788号公报
专利文献3:特开2001-117921号公报
专利文献4:特开2001-117922号公报
专利文献5:特开2002-283261号公报
专利文献6:特开2001-117752号公报
专利文献7:特开2002-351305号公报
以上,参照专利文献1至专利文献7对现有技术进行了说明。通过适当组合这些技术,能够高精度地进行口译/翻译,对应于从外部所接收的信号或内部状态,进行各种各样的动作。但是现有技术中,具有以下问题点。
以往例的问题点在于,除了成为处理对象的信息的准确处理以外无法再生。其原因是构成为将信息处理过的结果原样再生。
发明内容
因此本发明的目的在于提供一种除了成为处理对象的信息的准确处理结果以外也能够再生的信息处理系统、信息处理方法、信息处理用程序以及机器人。
本发明的信息处理系统,其特征在于,具有:信息分析部,其分析所接收到的信息是什么样的信息,根据分析结果决定给上述所接收到的信息添加的添加信息或从上述所接收到的信息中删除的删除信息;以及变更处理部,其进行由上述信息分析机构所决定的添加信息的添加或删除信息的删除。
本发明的机器人,其特征在于,具有:信息分析部,其分析所接收到的信息是什么样的信息,根据分析结果决定给上述所接收到的信息添加的添加信息或从上述所接收到的信息中删除的删除信息;变更处理部,其进行由上述信息分析机构所决定的添加信息的添加或删除信息的删除;以及再生接受变更的信息的信息再生部。
另外,本发明的信息处理系统,其特征在于,具有信息处理装置和信息保存装置,信息处理装置具有:信息分析部,其分析所接收到的信息是什么样的信息,根据分析结果决定给上述所接收到的信息添加的添加信息或从上述所接收到的信息中删除的删除信息;变更处理部,其进行由上述信息分析机构所决定的添加信息的添加或删除信息的删除;对进行过添加信息的添加或删除信息的删除的信息进行再生的信息再生部;以及发送由上述信息分析部所决定的上述添加信息的检索指示的第一通信机构,信息保存装置具有:与上述第一通信机构进行信息的发送接收的第二通信机构;存储有可能用作上述添加信息的信息的存储部;以及根据上述检索指示从上述存储部检索上述添加信息的检索部。其中,上述信息存储装置所检索出的上述添加信息,经上述第二通信机构以及第一通信机构发送给上述变更处理部。
本发明的信息处理方法,其特征在于,具备:第一步骤,分析所接收到的信息是什么样的信息,根据分析结果决定给上述所接收到的信息添加的添加信息或从上述所接收到的信息中删除的删除信息;以及第二步骤,进行由上述第一步骤所决定的添加信息的添加或删除信息的删除。
另外,本发明的信息处理方法,具有:分析所接收到的信息是什么样的信息,根据分析结果决定给上述所接收到的信息添加的添加信息的第一步骤;发送上述添加信息的检索指示的第三步骤;根据所接收到的上述添加信息的检索指示,从存储有可能用作添加信息的信息的存储部中,检索上述添加信息的第四步骤;发送所检索出的上述添加信息的第五步骤给上述所接收到的信息中,进行所接收到的上述添加信息的添加的第六步骤;以及再生进行过上述添加信息的添加的信息的第七步骤。
本发明的信息处理用程序,让计算机执行以下处理:分析所接收到的信息是什么样的信息,根据分析结果决定给上述所接收到的信息添加的添加信息或从上述所接收到的信息中删除的删除信息的第一处理;以及进行由上述第一处理中的信息分析所决定的添加信息的添加或删除信息的删除的第二处理。
发明效果
通过本发明,能够使得意思的沟通较为流畅。其理由是能够传递原来的信息处理结果以外的附加信息。另外,通过本发明,能够提高意思沟通的效率。其理由是能够从本来的信息处理结果中删除不需要的信息或冗长的信息。另外,通过本发明,能够提高意思沟通中的品质。其理由是能够添加适于本来的信息处理结果的详细信息。
附图说明
图1为表示本发明的第一实施方式的构成之一例的框图。
图2为表示本发明的第一实施方式的信息处理机构的第一构成例的框图。
图3为表示本发明的第一实施方式的信息处理机构的第二构成例的框图。
图4为表示本发明的第一实施方式的信息变更机构的第一构成例的框图。
图5为表示本发明的第一实施方式的信息变更机构的第一构成例的框图。
图6为表示本发明的第二实施方式的构成例的框图。
图7为表示本发明的第三实施方式的构成之一例的框图。
图8为表示本发明的第三实施方式的构成之另一例的框图。
图9为表示本发明的第四实施方式的构成例的框图。
图10为表示本发明的第五实施方式的构成例的框图。
图11为表示本发明的第六实施方式的构成例的框图。
图12为表示本发明的第七实施方式的装置的构成例的框图。
图13为表示装置的使用者给传感器输入信息的状态的图。
图14为表示传感器2是麦克风的情况的图。
图15为说明信息再生机构4中的代理的动作的图。
图16为说明信息再生机构4中的代理的动作的图。
图17为说明信息再生机构4中的代理的动作的图。
图中:1-机器人主体(装置主体),2、12、15-传感器,21、24-终端,211、402、70-通信机构,3-信息处理机构,31、53、544-控制部,32-语音处理部,321-语音识别部,322-语音合成部,33-自动口译部,4-信息再生机构,40-服务器,25-机器人,5、401-信息变更机构,50-网络,51-变更处理部,52-附加信息生成部,521-信息分析部,522、542-检索部,523、543、72-存储机构,524、541-通信机构,54-添加信息保存部,6-全体控制部,62-评价机构,63、64-时序生成机构,7、17-动作控制机构,71、171-电机,80、85、87-通信线路,11、14-发送机构,10-方向输入机构,13-方向同定机构,131-选择机构,132-同定机构,133-反复控制机构,18、19-车轮。
具体实施方式
接下来,对照附图,对用来实施发明的最佳方式详细地进行说明。对照附图1,本发明的第一实施方式具有成为信息输入部的传感器2、信息处理机构3、信息变更机构5以及信息再生机构4。这些机构大致如下进行动作。
成为信息输入部的传感器2,接收来自外部的信号等成为处理对象的信息。传感器2可构成为例如能够接收通过电波、光、音、温度(thermography,温度记录)、接触刺激或其组合所表示的任何信号。作为其例子可以列举出麦克风等声音传感器、CCD照相机、键盘等。信息处理机构3对通过传感器2所接收到的信息进行处理,将处理结果传递给信息再生机构4。在信息处理是包括语音识别、翻译、语音合成的口译的情况下,将通过作为传感器2的麦克风或键盘所接收的第一语言,在信息处理机构3中翻译成第二语言,信息变更机构5对信息处理机构3中所得到的处理结果进行信息的添加/删除,通过信息再生机构4来再生。信息再生机构4所处理的再生信号,包括声音、图像(静止图像、动态图像)、文字。信息再生机构4有扬声器、液晶显示装置等显示设备。
图2中示出了信息处理机构3进行口译的动作的实施方式。信息处理机构3具有控制部31、语音处理部32以及自动口译部33。另外,语音处理部32包括语音识别部321与语音合成部322。另外,关于语音识别部的详细的工作,例如记载在“安藤彰男,“实时语音识别”,电子信息学会编辑,2003年9月(文献A)”中,关于语音合成部的详细的工作,例如记载在“古井貞熙,“数字语音处理”,東海大学出版会,1985年9月(文学B)”中。
控制部31控制系统全体的动作,对两个语言中的翻译的方向、各种信息的流动、信息的地址等全部进行管理/控制。语音识别部321根据属性来识别所输入的声音。语音合成部322对来自自动口译部33的输出进行语音化。自动口译部33将语音识别部321所发送的说话者的说话内容翻译成别的语言。由于语音识别部321所发送的说话者的说话内容,通过两个语言中的任一个来表现,因此自动口译部33具有双向自动口译功能。
图3中示出了信息处理机构3进行多语言口译的动作的实施方式。信息处理机构3具有控制部31、语音处理部32以及自动口译部33。特别是语音处理部32与自动口译部33的组合,具有口译对象语言以上数目个。
控制部31控制系统全体的动作,对多语言中的翻译的方向、各种信息的流动、信息的地址、以及适当的语音处理部32与自动口译部33的组合的选择等全部进行管理/控制。其他动作与对照图2所说明的一样。
图4中示出了信息变更机构5进行添加信息的动作的实施方式。图4中所示的信息变更机构5具有变更处理部51、添加信息生成部52、控制部53。添加信息生成部52具有信息分析部521、检索部522以及存储机构523。
变更处理部51进行从信息处理机构3接收处理结果,并实际添加信息的处理。添加信息生成部52经变更处理部51从信息处理机构3接收处理结果,生成变更处理部51所添加的信息。控制部53对添加信息生成部52中的添加信息的生成与变更处理部51中的添加进行控制。信息分析部521对经检索部522所接收到的作为信息处理机构3的处理结果所供给的信息进行分析,决定添加什么样的信息。分析步骤由供给信息的分类、添加信息种类选择、添加信息选择构成。
供给信息的分类中对供给信息的意思进行解释,将其分为疑问句、说明句等。例如,如果供给信息中有“是否…?”、“对是否…有疑问”等语句就解释为疑问句,如果有“对…点进行说明”、“解释为…”等语句就解释为说明句。
添加信息种类的选择中,选择适于疑问句或说明句的添加信息种类。例如,能够给疑问句添加敦促回答的表现,给说明句添加确认理解/传达的表现。敦促回答的表现有“请对…进行回答”等,确认理解/传达的表现有“是否明白?”、“听到了吗?”等。
添加信息选择步骤中,从属于这些种类的信息中选择出一个以上,设为添加信息。事先将多个属于这些种类的信息存储在存储机构523中。选择的方法可以从信息处理结果与所存储的附加信息双方抽出关键字,根据它们的对应关系来选择。因此,存储机构523中所存储的添加信息,可以以每一个关键字分类并存储。在能够使用关键字对应的添加信息存在有多个时,可以按照在存储机构523中存储的顺序来使用,也可以逆序使用。并且还可以将过去使用过的在过了一定的时间后再次使用。另外,还可以给从信息处理结果中抽出的关键字添加随机信息。这种情况下,首先产生随机数,并选择预先规定与所产生的随机数对应的添加信息。随机的语言有可能引起意想不到的有利反应,增加信息添加的效果。
其他分类还可以通过分析过去的处理结果与添加信息,分类成处理结果是主要由短语句所构成的节拍快的谈话,还是由长语句所构成的较为正式的谈话。添加信息种类的选择中,在前者的情况下,可以对节拍快的谈话使用不会产生妨碍的短语句的呼喊声、插话声等作为添加信息,在后者的情况下,可以使用长语句作为添加信息。呼喊声、插话声的例子有“嗨!(Way to go,man!)”、“好”等。
另外,通过对将从处理结果传递给信息再生装置到得到下一个信息处理结果为止的时间间隔进行评价,能够将对方的理解程度用作衡量标准。该时间间隔评价过程中,在判断来自对方的反应有延迟时,在添加信息种类的选择中,可以添加例如敦促回答的表现或附和。附和的例子有“确实(Exactly.)”、“正是(You bet!/You got it!)”、“明白了(I see.)”、“是啊(I agree.)”等。
进而,还可以添加对通信对方听到口译结果有感想的情绪进行鼓励、安慰的语言。这种情况下,在上述供给信息的分类过程中,分析对供给信息的反应,将该反应进行分类,通过这样来利用于上述添加信息种类的选择中。例如,在反应的分类结果是悲伤或快乐的情况下,选择表示安慰或同感的附加信息种类。
检索部522从存储机构523检索由信息分析部521所决定的添加信息。存储机构523预先存储有能够用作添加信息的信息。
检索部522所检索出的添加信息供给到变更处理部51。存储机构中所存储的信息的例子有表示明示是口译/翻译的表现、敦促回答的表现、确认理解/传达的表现、呼喊声、插话、附和等。表示明示是口译/翻译的表现有“说…”、“听说…,请问如何处理”、“请问…”等。
在信息再生机构4是显示设备或机器人等情况下,还可以添加至此所说明的语言信息之外的信息。这样的例子可以列举出动作、颜色、光等。在显示设备中显示出代理(agent,エ一ジエント)的情况下或使用机器人的情况下,代理或机器人的动作为添加信息。例如除了点头、歪头、跳等通常的身体动作之外,还可以使用人类中所不存在的动作。这样的特殊动作的例子有代理或机器人中的身体的伸缩、分离,在代理的情况下还能够增减代理的数目。在表现出动作的动作机构为机器人的情况下有腕、手、足、腹、躯干、头、面部等。
使用颜色作为添加信息的例子,有代理或机器人的颜色变化。例如,可以改变代理的显示颜色,改变内置在代理或机器人的各种各样的位置中的发光体的颜色。这样的发光体除了通常的灯泡之外,还可以使用LED。通过将多个发光体复杂组合起来并进行控制,能够使代理或机器人表现的就像有感情那样,增大本发明的信息添加效果。
同样,使用光作为添加信息的例子,有光的闪烁图案或亮度的控制。通过将多个发光体组合起来的闪烁图案或亮度的控制,能够得到与上述颜色的变化相同的效果。
图5中示出了信息变更机构5添加信息的动作的另一实施方式。图5中所示的添加信息生成部52具有通信机构524来代替图4的存储机构523,还具有添加信息保存部54。也即,添加信息生成部52代替从存储机构523取出变更处理部51所添加的信息,经由通信机构524从添加信息保存部54取得。添加信息保存部54包括通信处理部541、检索部542、存储机构543、控制部544。
通信机构541与通信机构524成对进行通信,接收检索部522要检索的信息。通信机构541所接收的要检索的信息,传递给检索部542。检索部542从存储机构543检索必要的信息,经通信机构541、通信机构524传递给检索部522。这一系列的动作由控制部544与控制部53来控制。
存储机构543预先存储有能够用作添加信息的信息。通信机构541与通信机构524交换关于检索的信息的方法/手段,可以使用有线传送、包括无线LAN的无线传送、以及经由互联网的IP通信等所有手段。
添加信息保存部54可以是经互联网相连接的服务器。例如,在口译的结果是以明天的天气为话题时,通过将经由互联网所检索出的明天的天气预报添加给口译结果,能够提高被处理的信息的品质。
以上对照图4与图5对信息变更机构5进行添加信息的动作进行了说明,但信息变更机构5进行去除信息的动作的实施方式也能够同样构成。首先,在图4与图5中将添加信息生成部替换成去除信息生成部,将添加信息保存部替换成去除信息保存部。信息分析部对所供给的信息进行分析,决定去除什么样的信息,而不是添加什么样的信息。
本实施方式的信息处理系统,可以作为PDA(个人数字信息处理支持装置)、个人计算机、移动电话等可移动的设备来实现,由于各个构成要素合并在可移动形态的一个终端中,因此不管在哪里都能够实现流畅的意思沟通。
如上所述,根据本实施方式,由于信息变更机构5对在信息处理机构3中所得到的处理结果进行信息的添加/删除,因此可以给处理的结果准确添加感情表现或详细信息的附加价值,从而能够实现流畅的意思沟通。
在信息处理机构进行口译/翻译的情况下,通过对应于口译/翻译结果使用适当的添加语,能够让对方产生温和的情绪,有助于流畅的意思沟通。另外,通过适当归纳口译/翻译结果,添加详细信息,还能够提高意思沟通中的品质。
实施方式2
本实施方式中,将实施方式1的构成,经由通信线路80功能性地分离为终端21与服务器40。
参照图6,本发明的第二实施方式包括终端21、服务器40以及通信线路80。另外,终端21包括传感器2、通信机构211、信息变更机构5、及信息再生机构4。服务器40包括信息处理机构3、信息变更机构401、及通信机构402。关于传感器2、信息处理机构3、信息再生机构4的动作已经进行了说明。信息变更机构205、401与信息变更机构5的动作相同。这些机构分别大致如下进行动作。
传感器2接收来自外部的信号等成为处理对象的信息。通信机构211将通过传感器2所接收的信息,经通信线路80传递给通信机构402。通信机构402将经由通信机构211所传送的由传感器2所接收的信息,供给到信息处理机构3。信息处理机构3对传感器2所接收到的信息进行处理,传递给信息变更机构401。信息变更机构401对信息处理机构3中所得到的处理结果进行信息的添加/删除,并传递给通信机构402。
通信机构402再次经通信线路80将接受信息变更处理的处理结果传递给通信机构211。通信机构211将经由通信机构402所接收到的处理结果,传递给信息变更机构205。信息变更机构205对经由通信机构402所接收到的处理结果进行信息的添加/删除,并传递给信息再生机构4。
另外,以上的处理的流程中,信息变更机构401与信息变更机构205中均进行信息的添加/删除,但也可以只在一方中进行。例如,在信息变更机构401中设置图4的添加信息生成部52,在信息变更机构205中设置添加由添加信息生成部52所生成的添加信息的变更处理部51。
终端21可以通过PDA(个人数字信息处理支持装置)、个人计算机、移动电话等可移动的设备来实现。服务器40的实现没有限制。通信线路80可以使用有线传送、包括无线LAN的无线传送、以及经由互联网的IP通信等所有手段。
在终端21与服务器40所进行的处理是口译的情况下,在传感器2、信息处理机构3、以及信息再生机构4之间,能够分担语音识别、翻译、语音合成的处理。例如,可以在信息处理机构3中执行语音识别与翻译,在信息再生机构4中进行语音合成。此时,从终端21经由通信线路80传递给服务器40的信息是语音信息,从服务器传递给终端21的信息是翻译结果。
另外,还可以在传感器2中执行倒谱(cepstrum)等声音信息的特征量抽出,在信息处理机构3中执行语音识别、翻译、音素信息生成,在信息再生机构4中进行从音素信息到声音的合成。此时,从终端21经由通信线路80传递给服务器40的信息是声音的特征量,从服务器传递给终端21的信息是音素信息。
这样,能够在传感器2、信息处理机构3、以及信息再生机构4之间,适当分担部分处理。
通信机构211与通信机构402之间交换信息的方法/手段,可以使用有线传送、包括无线LAN的无线传送、以及经由互联网的IP通信等任一种手段。
另外,图6中示出了一个终端21与服务器40,但还可以经网络将一个终端与多个服务器、多个终端与一个服务器、或多个终端与多个服务器连接起来。网络可以使用有线传送、包括无线LAN的无线传送、以及经由互联网的IP通信等所有手段。
在一个终端经网络与多个服务器相连接的情况下,从一个终端经通信机构将来自传感器的信息发送给多个服务器,能够从多个服务器接收几乎一样的处理结果。终端中能够将从多个服务器所接收到的处理结果进行比较,选择较为适当的一方。或者能够将来自多个服务器的处理结果适当组合,生成更加适当的结果。服务器的数目可以任意设定,例如考虑使用1台终端与10台服务器的实施方式。这种情况下,终端中能够得到通过10台服务器所处理的10种类似的结果。
在服务器中的处理是语音识别或口译的情况下,终端内的选择组合机构中,能够将这10种识别结果或口译结果进行比较,选择占多数者作为传送给信息变更机构的结果。
如上所述,根据本实施方式,由于信息变更机构401、205对在信息处理机构3中所得到的处理结果进行信息的添加/删除,因此可以给处理的结果准确添加感情表现或详细信息的附加价值,从而能够实现流畅的意思沟通。另外,根据本实施方式,由于将运算量较多的处理分配给服务器40,将此外的轻微处理与接口分散分配给终端21,因此能够高效实现用于实现流畅的意思沟通的处理。
另外,根据本实施方式,一个或两个以上的终端将在多个服务器的双方中所得到的处理结果进行比较,选择出较为适当的一方,或适当组合起来生成恰当的结果,因此能够实现高品质且流畅的意思沟通。
实施方式3
本实施方式中,信息处理机构3与信息变更机构5的功能通过软件来实现。参照图7,包括由程序的控制来进行工作的计算机(中央处理装置、处理器、数据处理装置)900、传感器2、信息再生机构4。计算机(中央处理装置、处理器、数据处理装置)200包括信息处理机构3与信息变更机构5。例如,计算机900由进行运算处理的CPU、存储有执行信息处理机构3与信息变更机构5的功能的程序的存储元件(例如ROM)、存储有来自传感器2的信息或运算处理信息的存储元件(例如RAM)构成。相关计算机例如由单片机构成。这些机构分别大致如下进行动作。
传感器2接收来自外部的信号等成为处理对象的信息。信息处理机构3对传感器2所接收到的信息进行处理,将处理结果传递给信息再生机构4。信息变更机构5对信息处理机构3中所得到的处理结果,进行信息的添加/删除。信息再生机构4对通过信息变更机构5添加/删除过信息的处理结果进行再生。
图8中示出了通过软件来实现信息处理机构3与信息变更机构5的功能的另一方式。参照图8,本程序(信息处理用程序),由计算机(中央处理装置、处理器、数据处理装置)910读入,控制计算机910的动作。例如,计算机910由进行运算处理的CPU、存储有执行信息处理机构3与信息变更机构5的功能的程序的存储装置(例如硬盘装置等盘装置)、存储有来自传感器2的信息或运算处理信息的存储元件(例如RAM)构成。执行信息处理机构3与信息变更机构5的功能的程序能够适当安装,并进行软件的更新。计算机910通过程序的控制,进行与对照图7所说明的计算机900的处理相同的处理。
如上所述,根据本实施方式,由于信息变更机构5对在信息处理机构3中所得到的处理结果进行信息的添加/删除,因此可以给处理的结果准确添加感情表现或详细信息的附加价值,从而能够实现流畅的意思沟通。
实施方式4
对使用对照图1~图5所说明的信息处理系统的机器人进行说明。对照图9,本发明的第二实施方式具有机器人主体1、传感器2、信息处理机构3、信息变更机构5、信息再生机构4、全体控制部6、动作控制机构7、方向输入机构10、以及发送机构11。另外,全体控制部6包括评价机构62与时序生成机构63。进而,动作控制机构7包括让机器人主体1旋转或上下移动的电机71与存储机构72。机器人有具有手足接近人类者,接近猫狗等动物者,以及由显示设备、麦克风、扬声器所构成的接近机械者等各种形态。上述机构分别大致如下进行动作。
关于传感器2、信息处理机构3、信息再生机构4、以及信息变更机构5的动作,与以上已经说明过的相同。全体控制部6使用评价机构62,对通过信息变更机构5所得到的处理结果进行评价,将基于评价结果的控制信号,传递给动作控制机构7。另外,全体控制部6使用时序生成机构63,根据通过信息变更机构5所变更的处理结果与来自传感器2的输出,生成动作控制机构7进行动作的时序。另外,全体控制部6还可以使用评价机构62,对通过信息处理机构3所得到的处理结果进行评价,将基于评价结果的控制信号,传递给动作控制机构7。
如图9所示,在评价机构62对通过信息变更机构5所得到的变更结果进行评价的情况下,例如,信息变更机构5要给口译结果添加关系很大的玩笑时,评价机构62进行评价,产生对应于该内容的控制信号。例如,动作控制机构7可以对应玩笑,产生让机器人主体1左右旋转的动作的信号。进而,在有可能进行复杂的动作的情况下,可以进行与信息再生机构4所再生的信息匹配的手势(gesture)等动作。
另外,在评价机构62对通过信息处理机构3所得到的处理结果进行评价的情况下,例如,信息处理机构3进行口译时,评价机构61对口译结果进行评价,产生对应于该内容的控制信号。例如,在口译结果中含有“笑”的情况下,可以产生使得动作控制机构7在左右或上下一点点地变化方向的信号。这样的动作与实际的人们在笑时的动作是共通的,通过应用于机器人能够表现出亲切的性格。
另外,在评价机构62对信息变更机构5所得到的变更结果进行评价的情况,与对信息处理机构3所得到的处理结果进行评价的情况下,对动作控制机构7的控制信号通常不一样。例如,即使在口译结果中含有“笑”,如果通过信息变更机构5将笑的部分去掉,则评价电路62不产生让动作控制机构7在左右或上下一点点地变化方向的信号。
动作控制机构7,在全体控制部6中所包含的时序生成机构63所传递的时序,接收由评价机构61所传送的控制信号,变换成用来对实际控制动作的电机的动作进行控制的信号之后,传递给电机71。电机71按照这样所供给的控制信号,产生旋转动作或上下移动动作。
时序生成机构63,能够使用任一个输入信息生成时序。这样的输入信息可以使用声音信息、图像信息、接触信息等。声音信息可以使用声音的强度、声音的到来方向、语言的种类、单词及其组合、呼唤语、人名、以及其他个人所特有的信息等。进而,还可以使用关于其变化的信息,例如声音强度的变化、语言的变化等。这些信息可以预先保存在存储机构中。动作控制机构7中,在进行评价机构62所传递的控制信号所设定的动作的时序没有问题的情况下,也可以不一定要设置时序生成机构。
时序生成机构63,在本实施方式中根据传感器2的输出与信息变更机构5的输出,生成时序,但也可以通过传感器检测出来自外部的电波、光、音等外部刺激,并生成时序。这种情况下,电波、光、音等外部刺激,可以作为发送机构设置在外部,这些外部刺激由电波接收器、光电变换元件、麦克风等传感器接收,并产生时序。相关发送机构有遥控装置、PDA(Personal Digital Assistants)、PC(Personal Computer)、移动电话等。在检测外部刺激的传感器是接触传感器的情况下,还可以通过接触刺激来传递时序信息。检测外部刺激的传感器可以使用键盘或语音识别装置。此时,从键盘等所输入的信息的意思、识别结果、或产生输入的时序自身,可以用作应当输入的时序信息。通过相关构成,能够对应于外部所输入的任意时序对动作进行控制,因此能够实现通过多种表现的流畅的意思沟通。
另外,动作控制机构7还可以具有多个电机,此时,动作控制机构7能够实现以多个轴向为中心的旋转运动组合而成的复杂动作。除了电机之外,通过将动作控制机构7中的机械动作控制的结构复杂化,还能够进行更加复杂的动作控制。
另外,动作控制机构7除了评价机构62所生成的控制信号、时序生成机构63所生成的时序信息之外,还使用方向输入机构10所传递的信息来控制动作。例如,在评价机构62中检测出信息变更机构5的输出中所含有的关于语言的信息,使用该关于语言的信息,与方向输入机构10所输入的听取该语言的听取者的方向信息,控制动作控制机构7朝向听取者的方向。方向输入机构10接收说话者与听取者的方向信息,将对应的控制信号传递给动作控制机构7。对方向输入机构10的输入通过电波、光、音等来表示,但如果方向输入机构10是接触传感器,还能够通过接触刺激及其组合来输入方向信息。关于方向输入机构10的接收方向的信息,也与存储在存储机构73中的信息一样,在存在多语言口译或多个说话者/听取者的情况下,对应于语言的数目或说话者/听取者的数目,在多个方向上扩展。
发送机构11产生关于方向输入机构10所接收到的方向的信息。发送机构11与方向输入机构10对同一个信息(刺激)进行处理。作为发送机构11的例子,可以使用遥控装置、PDA、PC、移动电话等。另外,也可以不设置发送机构11。
同样,对于评价机构62,也可以供给信息处理机构3的输入来代替信息变更机构5的输出,同样通过检测出关于语言的信息,控制动作控制机构7朝向说话者的方向。进而,如果通过时序生成机构63检测出说话者的语言结束,还可以在说话者结束说话时,马上控制动作控制机构7朝向听取者的方向。
评价机构61所供给的控制信号与动作控制机构7的具体动作之间的关系,可以预先设定。具体的动作包括动作的内容以及动作的时序。此时,将具体的关系事先保存在存储机构72中。动作控制机构7被评价机构61输入了控制信号之后,便参照存储机构72的内容,将该内容变换成控制电机71的信号。
动作控制机构7中,除了存储机构72之外,还可以设置存储产生要口译的第一语言的主体所位于的方向与接收作为口译结果的第二语言的主体所位于的方向的相关信息的其他存储机构,来代替方向输入机构。以下,将发出第一语言的主体称作说话者,将接收第二语言的主体称作听取者,但也包括机器人等非生物。另外,在多语言口译或存在多个说话者/听取者的情况下,该其他存储机构的存储方向的相关信息,也对应于语言的数目或说话者/听取者的数目,在多个方向上扩展。
动作控制机构7除了评价机构62所生成的控制信号、时序生成机构63所生成的时序信息之外,还使用其他存储机构中所存储的信息来控制动作。例如,在评价机构62中检测出信息变更机构5的输出中所含有的关于语言的信息,使用该关于语言的信息和其他存储机构中所存储的听取该语言的听取者的方向信息,控制动作控制机构7朝向听取者的方向。
同样,对于评价机构62,也可以供给信息处理机构3的输入来代替信息变更机构5的输出,同样通过检测出关于语言的信息,控制动作控制机构7朝向听取者的方向。进而,如果通过时序生成机构63检测出说话者的语言结束,则还可以在说话者结束说话时,马上控制动作控制机构7朝向听取者的方向。
通过采用事先存储用于动作控制的方向信息的构成,能够实现通连多种表现的流畅的意思沟通。
如上所述,根据本实施方式,由于信息变更机构5对在信息处理机构3中所得到的处理结果进行信息的添加/删除,因此可以给处理的结果准确添加感情表现或详细信息的附加价值,从而能够实现流畅的意思沟通。另外,根据本实施方式,由于对应于处理结果或变更后的信息对动作进行控制,因此能够实现通连多种表现的流畅的意思沟通。另外,由于事先存储动作的模式,因此能够通过很少的运算量来实现多种表现。
另外,根据本实施方式,由于对应于输入以及得到处理结果的时序来控制动作,因此能够实现通连多种表现的流畅的意思沟通。另外,由于能够从外部输入任意的方向信息,因此能够实现通连多种表现的流畅的意思沟通。进而,根据本实施方式,由于在从外部输入方向信息时,能够发送特定形式的信息,因此能够实现通连多种表现的流畅的意思沟通。
实施方式5
本实施方式对机器人的另一构成例进行说明。
对照图10,本发明的第五实施方式具有传感器2、信息处理机构3、信息变更机构5、信息再生机构4、全体控制部6、动作控制机构7、传感器12、方向同定机构13、发送机构14、传感器15。另外,全体控制部6包括评价机构62、时序生成机构64、以及分析机构66。进而,动作控制机构17包括电机71、171、车轮18、19。另外,方向同定机构13包括选择机构131、同定机构132以及反复控制机构133。这些机构分别大致如下进行动作。
关于传感器2、信息处理机构3、信息再生机构4、信息变更机构5、评价机构62、时序生成机构63以及电机71的动作,与以上已经说明过的相同。
传感器12接收关于说话者与听取者的方向的信息,并传递给方向同定机构13。方向同定机构13使用从传感器12所接收到的信息来同定说话者与听取者的方向,并将对应的控制信号传递给动作控制机构7。方向同定机构13所同定的方向,在存在多语言口译或多个说话者/听取者的情况下,也对应于语言的数目或说话者·听取者的数目,在多个方向上扩展。
例如,考虑到传感器12所接收的关于说话者与听取者的方向的信息是声音信息的情况。传感器12为多个声音传感器。声音传感器的代表例子是麦克风,因此以下假定传感器12是多个麦克风进行说明。使用声音信号的信号到来方向的同定,可以使用多个麦克风所接收的信号的相位差来进行,这一点是公知的。
“大賀、山崎、金田,“声音系统和数字处理”,电子信息通信学会编辑,1995年9月(文献C)”中所记载的多个麦克风设置在直线上时,对于从垂直于连接这些麦克风的直线的方向所到来的信号,各个麦克风所接收的信号中没有相位差。另外,从不垂直于连接这些麦克风的直线的方向所到来的信号,多个麦克风所接收的信号中产生相位差。这是由于到达各个麦克风的信号中有时间差。
该相位差也即时间差,能够根据音速、麦克风间隔、以及信号到来方向与连接麦克风的直线所成角度来唯一确定。因此,多个麦克风通过对所接收到的信号的相位差进行评价,能够同定信号到来方向。这意味着能够使用说话者的说话来同定说话者的存在方向。
另外,说话者与听取者的关系,在口译的情况下,随着时间而反复交替。因此,如果在某个时刻能够同定说话者的方向,则听取者的方向就也能够在听取者变为第二语言的说话者时来同定。
另外,还可以考虑传感器12所接收的关于说话者与听取者的方向的信息是图像信息的情况。这种情况下,传感器12是多个照相机。使用多个图像的说话者方向同定,可以使用人物检测来进行,这一点是公知的。使用传感器12取得对应多个方向的图像,对各个图像进行人物检测。在对特定的图像检测出人物时,将对应该图像的方向,设为说话者方向。
一般来说,只根据图像信息,很难区别所检测出的人物是说话者还是听取者。因此,需要进行使用声音信号的方向检测,并根据图像来进一步同定嘴唇,分析其运动,确认是说话者。关于人物检测识别的详细内容,例如在“特开2002-56388号公报(文献D)”中有记载。还可以检测出面部、眼睛、嘴唇等,来代替人物检测,作为识别/同定的线索。
此外,传感器12还可以使用电波、光、音、温度(温度记录)、接触刺激或其组合所表示的任何信号。作为其例子可以列举出已说明过的键盘或语音识别装置。方向同定机构13的动作,不但可以接收来自传感器12的输出,还可以接收时序生成机构63所生成的时序控制信号作为输入。方向同定机构13能够根据从时序生成机构64所接收到的信号,对使用通过传感器12所接收到的信号来同定方向的时序。这种情况下,由于能够由所得到的时序来方向同定输入以及处理结果,因此能够实现基于更为准确的方向同定结果的流畅的意思沟通。
全体控制部6可以使用时序生成机构64,使用信息变更机构5所变更的处理结果,以及从传感器2以及传感器12所得到的输入,来生成让动作控制机构7工作的时序。特别是在传感器12接收图像信息的情况下,时序生成机构64使用传感器2所供给的声音信息与传感器12所供给的图像信息双方,高精度生成动作控制机构7进行工作的时序。上述情况下,还能够对应于反映出得到关于输入、处理结果以及方向的信息的时刻的时刻,来控制动作,因此能够实现通连多种表现的流畅的意思沟通。
发送机构14发送特定的信号。传感器12检测出发送机构14所发送的信号的说话者中的反射信号。方向同定机构13通过对传感器12所供给的反射信号进行分析,来检测出说话者与听取者的方向。发送机构14所发送的信号,可以使用电波、光、音等,但最简单的是超声波。这种情况下,进一步使用发送特定的信息所得到的反应,进行方向同定与时序生成,因此能够实现通连多种表现的流畅的意思沟通。另外发送机构14可以不一定要设置。
方向同定机构13具有选择机构131、同定机构132、以及反复控制机构133。选择机构131与反复控制机构133可以不一定设置。
在像本实施方式这样设有选择机构131与同定机构132的情况下,发送机构14限定发送区域,发送特定的信号。传感器12检测出发送机构14所发送的信号的说话者中的反射信号。方向同定机构13包含有选择机构131与同定机构132,首先通过选择机构132从传感器12所接收到的反射信号中选择出发送机构14作为发送对象区域所对应的反射信号。使用这样所选择出的反射信号,同定机构132同定说话者的方向。
另外,这里对发送机构14所发送的信号的反射由传感器12接收的例子进行了说明,但在传感器12接收到了与反射无关的信息的情况下,也能够通过与选择机构131对传感器12所接收到的信号的选择以及同定机构132中的使用所选择的信号同定说话者方向相同的原理来进行。
在设有方向同定机构13与选择机构131以及同定机构132的情况下,由于进一步对接收方向同定中所使用的信息的范围进行限定,因此能够实现基于更为准确的方向同定结果的流畅的意思沟通。
方向同定机构13中所设置的反复控制机构133,对重复选择机构131所进行的对传感器12所接收到的信号的选择以及同定机构132中的使用所选择的信号同定说话者方向,反复对多个区域进行说话者的同定的动作进行控制。本例中,让同定机构132反复处理从其他区域所接收到的信息,但也通过同样的目的具有多个同定机构,并给它们分配适当的信号。通过能够进行对多个区域的说话者方向同定,能够使用对部分区域的人物检测,检测出存在方向完全不明的说话者,进而能够检测出多个说话者。反复控制机构133可以不一定设置。
在传感器12接收图像信息的情况下,也能够检测出说话者,判断说话者的方向,使用关于该方向的信息得到关于听取者的方向的信息。这是由于一般来说说话者面向听取者说话。说话者的朝向,能够从图像信息检测出说话者身体的朝向或视线方向来决定。在得知说话者朝向哪一个方向的情况下,可以使用说话者自身的方向,将该方向变换成从传感器12的位置所看到的方向,将通过变换所得到的信息与关于听取者的方向的信息组合起来,更加准确地求出听取者的方向。当然,在上述变换过的方向自身也具有足够的精度的情况下,可以将该信息直接用作听取者的方向。
另外,在这一系列过程中,也可以使用声音信息。此时传感器12能够接收图像信息与声音信息双方,方向同定机构13需要具有声音信息处理功能。声音信息可以使用声音的开始/结束、语言的切换、个人特征等。也即,声音信息处理功能包括语音检测、语言识别、基于语音的个人识别。
本实施方式中,对接收方向同定中使用的信息的范围进行限定,变更该所限定的范围,反复进行方向同定,通过这样不但能够得到更为准确的方向同定结果,还能够对应多个说话者/听取者,实现流畅的意思沟通。
传感器15接收与说话者、听取者之间的距离的相关信息,传递给分析机构66。分析机构66对传感器15所传递的信息进行评价,求出与说话者、听取者之间的距离,传递给动作控制机构17。动作控制机构17控制移动用车轮18、19,调整与说话者、听取者之间的距离。
具体地来说,在分析机构66所传递的距离,短于预先设定的距离时,控制车轮18、19进行接近说话者、听取者的动作。在长于预先设定的距离时,控制车轮18、19进行接近说话者、听取者的动作。传感器15与分析机构66、车轮18、19并不一定要设置。
图10中,示出了动作控制机构16控制车轮18、19的构成,但车轮的数目是任意的。另外,示出了移动机构是车轮18、19的例子,但也可以通过车轮以外的移动机构构成。移动机构可以使用履带或多足步行等。
传感器15的例子是超声波传感器。另外,通过让传感器15是具有摄像元件的图像传感器,分析机构66是图像识别机构,能够根据图像来调整与说话者或听取者之间的距离。此时,如已经对传感器12所说明的那样,可以使用面部(面部大小)、眼睛(眼睛的相对位置或间隔)、嘴唇(相对位置)等各种信息。
进而,通过让传感器15由多个声音传感器构成,分析机构66是音源方向检测机构,能够通过三角测量原理来调整与说话者或听取者之间的距离。此外还可以使用声音或光的强度等。
进而,由于能够根据从外部接收到的信息控制与说话者/听取者之间的距离,因此能够实现通连多种表现的流畅的意思沟通。
还可以采用传感器2与机器人主体1分离,设置在终端中,该终端与机器人主体中分别设置通信机构,经通信线路从终端将传感器输出发送给机器人主体的构成。这种构成中,具有传感器2的终端能够与机器人独立移动,从而能够将传感器2接近信号源设置。在传感器2接收声音信息时,能够设置在接近作为信号源的嘴巴附近,相对削减声音以外的杂音的混入。从而对信噪比较高的信号进行识别处理,与识别率的提高有关。这有助于实现高品质且流畅的意思沟通。
另外,与图6中所说明的实施方式相同,传感器2、信息处理机构3以及信息再生机构4之间,能够适当分担部分处理。另外,还可以对具有传感器2的终端设置多个机器人。由于终端能够进行与多个机器人等价的处理,因此能够对应于语言或话题等传感器2所接收的信息的性质,适当选择机器人进行动作。这样,由于终端24能够与多个机器人适当进行通信,分担信息处理,因此能够实现高品质且流畅的意思沟通。
与图6中所说明的实施方式同样,能够在传感器2、信息处理机构3以及信息再生机构4之间,适当分担部分处理。
如上所述,根据本实施方式,由于信息变更机构5对在信息处理机构3中所得到的处理结果进行信息的添加/删除,因此可以给处理的结果准确添加感情表现或详细信息的附加价值,从而能够实现流畅的意思沟通。另外,根据本实施方式,由于还能够使用从外部输入的信息,自动计算方向信息,因此能够实现通连多种表现的流畅的意思沟通。
实施方式6
本实施方式对机器人的另一构成例进行说明。
对照图11,本实施方式具有终端24、服务器40、机器人25、通信线路85、87。终端24具有传感器2与通信机构211。另外,机器人25具有通信机构70与信息再生机构4。这些机构分别大致如下进行动作。
传感器2接收来自外部的信号等成为处理对象的信息。通信机构211将通过传感器2所接收的信息,经通信线路85传递给通信机构402。通信机构402将从通信机构211经由通信线路85所传送的由传感器2所接收的信息,供给到信息处理机构3。信息处理机构3对传感器2所接收到的信息进行处理,传递给信息变更机构401。
信息变更机构401对信息处理机构3中所得到的处理结果进行信息的添加/删除,并传递给通信机构402。通信机构402经通信线路87将接受信息变更处理的处理结果传递给通信机构70。通信机构70将经由通信机构402所接收到的处理结果,传递给信息再生机构4。
另外,与图6中所说明的实施方式一样,信息处理机构3以及信息再生机构4之间,可以适当分担部分处理。通信线路85、87可以使用有线传送、包括无线LAN的无线传送、以及经由互联网的IP通信等所有手段。另外,终端22、23可以作为PDA(个人数字信息处理支持装置)、个人计算机、移动电话等可移动的设备来实现。
图11中所示的本实施方式,将图6中所示的实施方式中的终端21的功能分离,将基于传感器2的信息输入功能分配给终端24,将基于信息再生机构4的信息再生功能分配给机器人25。
服务器40还可以给两台以上的多个机器人发送信息变更机构401的输出信息。上述构成中,由于终端24能够与多个机器人进行适当的通信,分担信息处理,因此能够实现高品质且流畅的意思沟通。这样,由于能够将传感器2安装在终端24中,接近信号源设置,因此能够提高声音或图像的识别率。这有助于高品质且流畅的意思沟通。
如上所述,根据本实施方式,由于信息变更机构5对在信息处理机构3中所得到的处理结果进行信息的添加/删除,因此可以给处理的结果准确添加感情表现或详细信息的附加价值,从而能够实现流畅的意思沟通。另外,根据本实施方式,由于将运算量较多的处理分散配置给服务器40,将此外的轻微处理与接口分散配置给终端23,因此能够高效实现用于得到流畅的意思沟通的处理。
另外,根据本实施方式,由于传感器2安装在终端24中,能够靠近信号源设置,因此能够提高声音或图像的识别率。这有助于高品质且流畅的意思沟通。
实施方式7
使用对照图1~图5所说明的信息处理系统,对照图12~图17对通过作为图像所显示的代理的动作来表现添加信息等信息的装置进行说明。本装置例如可以用于汽车导航装置、语言学习机、翻译机、口译机等中。另外,本装置的信息处理机构、信息变更机构、全体控制部的功能可以在个人计算机中作为软件来实现。图12为表示本实施方式的装置构成例的框图,图13为表示装置的使用者给传感器输入信息的状态的图,图14为表示传感器2是麦克风的情况的图,图15~图17为说明信息再生机构4中的代理的动作的图。
如图12~图14所示,本实施方式的装置,具有装置主体1、传感器2(麦克风21)、信息处理机构3、信息变更机构5、信息再生机构4、以及全体控制部6。由于已经对各个机构进行了说明,因此这里只对信息再生机构4进行说明。
信息再生机构4可以使用能够进行图像显示的液晶显示装置、EL显示装置等平板显示器以及CRT等。如图15所示,对应于添加信息让代理在画面41内上下移动,如图16所示,让代理一边在画面41内旋转一边向斜向移动,如图17所示,一边旋转一边上下移动,通过这样能够表现出添加信息。图15~图17中所示的信息再生装置4中,能够由扬声器42~45输出声音,在画面41中显示代理。如前所述,代理的动作除了点头、歪头、摇头、跳等通常的身体动作之外,还可以使用人类中所不存在的动作。这样的特殊动作的例子有身体的伸缩、分离,还能够增减代理的数目。
另外,还能够使用扬声器42~45来控制音像定位。通过适当控制供给到各个扬声器的信号的振幅与相位,能够控制特定的位置、方向中的再生音的大小。
工业上的利用可能性
本发明能够适用于进行口译、翻译、对话、语音识别、语音合成、图像理解等的信息处理系统以及作为其实施方式的机器人、用来使用计算机实现信息处理系统的程序。
Claims (30)
1.一种信息处理系统,具备:
信息分析部,其分析所接收到的信息是什么样的信息,根据分析结果决定给所述所接收到的信息添加的添加信息或从所述所接收到的信息中删除的删除信息;以及
变更处理部,其进行由所述信息分析机构所决定的添加信息的添加或删除信息的删除。
2.如权利要求1所述的信息处理系统,其特征在于,
具备信息再生部,对通过所述变更处理部进行过添加信息的添加或删除信息的删除的信息进行再生。
3.如权利要求1所述的信息处理系统,其特征在于,
具备存储部和检索部,所述存储部存储有可能用作所述添加信息的信息,所述检索部从所述存储部检索由所述信息分析部决定的所述添加信息,
所述变更处理部将来自所述检索部的所述添加信息,添加给所述所接收到的信息。
4.如权利要求1所述的信息处理系统,其特征在于,
所述所接收到的信息以及所述添加信息是同一种类的信息。
5.如权利要求1所述的信息处理系统,其特征在于,
所述所接收到的信息和所述添加信息是不同种类的信息。
6.如权利要求1所述的信息处理系统,其特征在于,
所述所接收到的信息是语言信息。
7.如权利要求1所述的信息处理系统,其特征在于,
所述添加信息是声音信息、光信息或动作信息。
8.如权利要求7所述的信息处理系统,其特征在于,
具备信息再生部,对通过所述变更处理部进行过添加信息的添加或删除信息的删除的信息进行再生,
其中所述添加信息是动作信息,所述信息再生部具有通过运动来表现所述动作信息的动作机构。
9.如权利要求7所述的信息处理系统,其特征在于,
具备信息再生部,对通过所述变更处理部进行过添加信息的添加或删除信息的删除的信息进行再生,
其中所述添加信息是动作信息,所述信息再生部具有通过图像的运动来表现所述动作信息的图像显示机构。
10.如权利要求1所述的信息处理系统,其特征在于,
所述所接收到的信息是将第一语言翻译成第二语言的翻译信息。
11.如权利要求1所述的信息处理系统,其特征在于,
具备信息处理部,将输入信息处理成能够由所述信息分析部进行分析的信息。
12.如权利要求11所述的信息处理系统,其特征在于,
具有信息输入部,从外部接收信息,作为所述输入信息输出给所述信息处理部。
13.一种机器人,具备:
信息分析部,其分析所接收到的信息是什么样的信息,根据分析结果决定给所述所接收到的信息添加的添加信息或从所述所接收到的信息中删除的删除信息;
变更处理部,其进行由所述信息分析机构所决定的添加信息的添加或删除信息的删除;以及
信息再生部,再生接受变更的信息。
14.如权利要求13所述的机器人,其特征在于,具有:
信息输入部,接收来自外部的信息;和
信息处理部,将所述信息输入部所接收到的信息处理成能够由所述信息分析部进行分析的信息。
15.一种信息处理系统,
具有信息处理装置和信息保存装置,
所述信息处理装置,具备:信息分析部,其分析所接收到的信息是什么样的信息,根据分析结果决定给所述所接收到的信息添加的添加信息或从所述所接收到的信息中删除的删除信息;变更处理部,其进行由所述信息分析机构所决定的添加信息的添加或删除信息的删除;信息再生部,对进行过添加信息的添加或删除信息的删除的信息进行再生;以及第一通信机构,发送由所述信息分析部所决定的所述添加信息的检索指示,
所述信息保存装置,具备:第二通信机构,与所述第一通信机构进行信息的发送接收;存储部,存储有可能用作所述添加信息的信息;以及检索部,根据所述检索指示从所述存储部检索所述添加信息,
其中,所述信息保存装置所检索出的所述添加信息,经所述第二通信机构以及第一通信机构发送给所述变更处理部。
16.一种信息处理方法,具备:
第一步骤,分析所接收到的信息是什么样的信息,根据分析结果决定给所述所接收到的信息添加的添加信息或从所述所接收到的信息中删除的删除信息;以及
第二步骤,进行由所述第一步骤所决定的添加信息的添加或删除信息的删除。
17.如权利要求16所述的信息处理方法,其特征在于,
具备第三步骤,对通过所述第二步骤进行过添加信息的添加或删除信息的删除的信息进行再生。
18.如权利要求16所述的信息处理方法,其特征在于,
具备:第四步骤,存储有可能用作所述添加信息的信息:以及
第五步骤,从通过所述第四步骤所存储的信息中,检索所述第一步骤所决定的所述添加信息,
其中,所述第二步骤将所述第五步骤所检索出的所述添加信息,添加给所述所接收到的信息。
19.如权利要求16所述的信息处理方法,其特征在于,
所述所接收到的信息以及所述添加信息是同一种类的信息。
20.如权利要求16所述的信息处理方法,其特征在于,
所述所接收到的信息以及所述添加信息是不同种类的信息。
21.如权利要求16所述的信息处理方法,其特征在于,
所述所接收到的信息是语言信息。
22.如权利要求16所述的信息处理方法,其特征在于,
所述添加信息是声音信息、光信息或动作信息。
23.如权利要求22所述的信息处理方法,其特征在于,
具备第三步骤,对通过所述第二步骤进行过添加信息的添加或删除信息的删除的信息进行再生,
其中所述添加信息是动作信息,所述第三步骤中通过运动来表现所述动作信息。
24.如权利要求22所述的信息处理方法,其特征在于,
具备第三步骤,对通过所述第二步骤进行过添加信息的添加或删除信息的删除的信息进行再生,
其中所述添加信息是动作信息,所述第三步骤中通过图像的运动来表现所述动作信息。
25.如权利要求16所述的信息处理方法,其特征在于,
所述所接收到的信息是将第一语言翻译成第二语言的翻译信息。
26.如权利要求16所述的信息处理方法,其特征在于,
具有第六步骤,在所述第一步骤之前,将输入信息处理成能够由所述第一步骤进行分析的信息。
27.如权利要求26所述的信息处理方法,其特征在于,
具有第七步骤,在所述第六步骤之前,从外部接收信息,处理成所述输入信息。
28.一种信息处理方法,具有:
第一步骤,分析所接收到的信息是什么样的信息,根据分析结果决定给所述所接收到的信息添加的添加信息;
第三步骤,发送所述添加信息的检索指示;
第四步骤,根据所接收到的所述添加信息的检索指示,从存储有可能用作添加信息的信息的存储部中,检索所述添加信息;
第五步骤,发送所检索出的所述添加信息;
第六步骤,给所述所接收到的信息中,添加所接收到的所述添加信息;以及
第七步骤,再生进行过所述添加信息的添加的信息。
29.一种信息处理用程序,使计算机执行以下处理:
第一处理,分析所接收到的信息是什么样的信息,根据分析结果决定给所述所接收到的信息添加的添加信息或从所述所接收到的信息中删除的删除信息;以及
第二处理,进行由所述第一处理中的信息分析所决定的添加信息的添加或删除信息的删除。
30.如权利要求29所述的信息处理用程序,其特征在于,
还用于执行第三处理,对在所述第二处理中接受添加或删除的信息进行再生。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003415598 | 2003-12-12 | ||
JP415598/2003 | 2003-12-12 | ||
PCT/JP2004/018582 WO2005057549A1 (ja) | 2003-12-12 | 2004-12-13 | 情報処理システム、情報処理方法および情報処理用プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1894740A true CN1894740A (zh) | 2007-01-10 |
CN1894740B CN1894740B (zh) | 2012-07-04 |
Family
ID=34675136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2004800370713A Expired - Fee Related CN1894740B (zh) | 2003-12-12 | 2004-12-13 | 信息处理系统、信息处理方法以及信息处理用程序 |
Country Status (6)
Country | Link |
---|---|
US (2) | US8433580B2 (zh) |
EP (2) | EP2267697A3 (zh) |
JP (1) | JP4839838B2 (zh) |
KR (2) | KR100953902B1 (zh) |
CN (1) | CN1894740B (zh) |
WO (1) | WO2005057549A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530285A (zh) * | 2013-10-09 | 2014-01-22 | 百度在线网络技术(北京)有限公司 | 翻译消息的方法和装置 |
CN104239180A (zh) * | 2013-06-24 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 变更处理方法、装置及系统 |
CN110600016A (zh) * | 2019-09-20 | 2019-12-20 | 北京市律典通科技有限公司 | 卷宗推送方法和装置 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030230921A1 (en) * | 2002-05-10 | 2003-12-18 | George Gifeisman | Back support and a device provided therewith |
US7475806B1 (en) * | 2005-02-24 | 2009-01-13 | Savr Communications, Inc. | Method and system of universal RFID communication |
JP4718987B2 (ja) * | 2005-12-12 | 2011-07-06 | 本田技研工業株式会社 | インターフェース装置およびそれを備えた移動ロボット |
JP4791285B2 (ja) * | 2006-08-04 | 2011-10-12 | 富士通株式会社 | ネットワーク装置およびフィルタリングプログラム |
CN101727904B (zh) * | 2008-10-31 | 2013-04-24 | 国际商业机器公司 | 语音翻译方法和装置 |
KR101317383B1 (ko) * | 2011-10-12 | 2013-10-11 | 한국과학기술연구원 | 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 |
JP2013102373A (ja) * | 2011-11-09 | 2013-05-23 | Denso Corp | ハンズフリー装置 |
US9264812B2 (en) * | 2012-06-15 | 2016-02-16 | Kabushiki Kaisha Toshiba | Apparatus and method for localizing a sound image, and a non-transitory computer readable medium |
CN104424944B (zh) * | 2013-08-19 | 2018-01-23 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US8977376B1 (en) | 2014-01-06 | 2015-03-10 | Alpine Electronics of Silicon Valley, Inc. | Reproducing audio signals with a haptic apparatus on acoustic headphones and their calibration and measurement |
US8767996B1 (en) | 2014-01-06 | 2014-07-01 | Alpine Electronics of Silicon Valley, Inc. | Methods and devices for reproducing audio signals with a haptic apparatus on acoustic headphones |
US10986454B2 (en) | 2014-01-06 | 2021-04-20 | Alpine Electronics of Silicon Valley, Inc. | Sound normalization and frequency remapping using haptic feedback |
US9483768B2 (en) * | 2014-08-11 | 2016-11-01 | 24/7 Customer, Inc. | Methods and apparatuses for modeling customer interaction experiences |
JP6221158B2 (ja) * | 2014-08-27 | 2017-11-01 | 本田技研工業株式会社 | 自律行動ロボット、及び自律行動ロボットの制御方法 |
KR20160026317A (ko) * | 2014-08-29 | 2016-03-09 | 삼성전자주식회사 | 음성 녹음 방법 및 장치 |
WO2016132729A1 (ja) * | 2015-02-17 | 2016-08-25 | 日本電気株式会社 | ロボット制御装置、ロボット、ロボット制御方法およびプログラム記録媒体 |
JP6470097B2 (ja) * | 2015-04-22 | 2019-02-13 | 株式会社東芝 | 通訳装置、方法およびプログラム |
WO2017072915A1 (ja) * | 2015-10-29 | 2017-05-04 | 株式会社日立製作所 | 視覚情報と聴覚情報の同期方法および情報処理装置 |
JP2017167805A (ja) | 2016-03-16 | 2017-09-21 | 株式会社東芝 | 表示支援装置、方法およびプログラム |
JP6520878B2 (ja) * | 2016-09-21 | 2019-05-29 | トヨタ自動車株式会社 | 音声取得システムおよび音声取得方法 |
KR20180061586A (ko) * | 2016-11-30 | 2018-06-08 | 충북대학교 산학협력단 | 사용자 간의 감정 의사소통 시스템 |
CN107545895B (zh) * | 2017-09-26 | 2021-10-22 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
US10878824B2 (en) * | 2018-02-21 | 2020-12-29 | Valyant Al, Inc. | Speech-to-text generation using video-speech matching from a primary speaker |
JP7081317B2 (ja) * | 2018-06-12 | 2022-06-07 | トヨタ自動車株式会社 | 車両用コクピット |
CN117750110A (zh) * | 2018-08-10 | 2024-03-22 | 索尼公司 | 信息处理装置、信息处理方法和视频声音输出系统 |
WO2020031453A1 (ja) * | 2018-08-10 | 2020-02-13 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに映像音声出力システム |
US11688412B2 (en) * | 2020-06-15 | 2023-06-27 | Tencent America LLC | Multi-modal framework for multi-channel target speech separation |
Family Cites Families (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63168774A (ja) * | 1987-01-06 | 1988-07-12 | Fujitsu Ltd | 機械翻訳システムにおける主語の補足方式 |
JPS63204465A (ja) | 1987-02-20 | 1988-08-24 | Sanyo Electric Co Ltd | 機械翻訳システム |
US4974191A (en) * | 1987-07-31 | 1990-11-27 | Syntellect Software Inc. | Adaptive natural language computer interface system |
US5495557A (en) * | 1992-06-26 | 1996-02-27 | Hyman; Greg | Electronic toy for forming sentences |
US5860064A (en) | 1993-05-13 | 1999-01-12 | Apple Computer, Inc. | Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system |
JPH0792993A (ja) * | 1993-09-20 | 1995-04-07 | Fujitsu Ltd | 音声認識装置 |
JPH09131468A (ja) | 1995-11-09 | 1997-05-20 | Matsushita Electric Ind Co Ltd | 漫才人形 |
US5835881A (en) | 1996-01-16 | 1998-11-10 | Philips Electronics North America Corporation | Portable system for providing voice driving directions |
US6314411B1 (en) * | 1996-06-11 | 2001-11-06 | Pegasus Micro-Technologies, Inc. | Artificially intelligent natural language computational interface system for interfacing a human to a data processor having human-like responses |
US5778082A (en) | 1996-06-14 | 1998-07-07 | Picturetel Corporation | Method and apparatus for localization of an acoustic source |
JPH10153998A (ja) * | 1996-09-24 | 1998-06-09 | Nippon Telegr & Teleph Corp <Ntt> | 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置 |
JPH10136327A (ja) * | 1996-10-25 | 1998-05-22 | Meidensha Corp | ディスクトップ会議システム |
US6157913A (en) * | 1996-11-25 | 2000-12-05 | Bernstein; Jared C. | Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions |
US6122606A (en) * | 1996-12-10 | 2000-09-19 | Johnson; William J. | System and method for enhancing human communications |
WO1998048360A1 (en) * | 1997-04-22 | 1998-10-29 | Greg Hetherington | Method and apparatus for processing free-format data |
US6249720B1 (en) * | 1997-07-22 | 2001-06-19 | Kabushikikaisha Equos Research | Device mounted in vehicle |
AU772874B2 (en) * | 1998-11-13 | 2004-05-13 | Scansoft, Inc. | Speech synthesis using concatenation of speech waveforms |
US6246981B1 (en) * | 1998-11-25 | 2001-06-12 | International Business Machines Corporation | Natural language task-oriented dialog manager and method |
JP3623127B2 (ja) * | 1998-12-25 | 2005-02-23 | 松下電器産業株式会社 | ヘッドホン装置 |
US6385584B1 (en) * | 1999-04-30 | 2002-05-07 | Verizon Services Corp. | Providing automated voice responses with variable user prompting |
US6385581B1 (en) * | 1999-05-05 | 2002-05-07 | Stanley W. Stephenson | System and method of providing emotive background sound to text |
US20020042713A1 (en) * | 1999-05-10 | 2002-04-11 | Korea Axis Co., Ltd. | Toy having speech recognition function and two-way conversation for dialogue partner |
GB9911971D0 (en) * | 1999-05-21 | 1999-07-21 | Canon Kk | A system, a server for a system and a machine for use in a system |
JP3514372B2 (ja) * | 1999-06-04 | 2004-03-31 | 日本電気株式会社 | マルチモーダル対話装置 |
TW501046B (en) * | 1999-06-11 | 2002-09-01 | Ind Tech Res Inst | A portable dialogue manager |
JP2001014237A (ja) | 1999-07-02 | 2001-01-19 | Nec Corp | 電子メール番組装置および電子メール番組用プログラムを記録した記録媒体 |
US6347261B1 (en) | 1999-08-04 | 2002-02-12 | Yamaha Hatsudoki Kabushiki Kaisha | User-machine interface system for enhanced interaction |
US6658388B1 (en) * | 1999-09-10 | 2003-12-02 | International Business Machines Corporation | Personality generator for conversational systems |
US6940953B1 (en) * | 1999-09-13 | 2005-09-06 | Microstrategy, Inc. | System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services including module for generating and formatting voice services |
JP2001100788A (ja) | 1999-09-30 | 2001-04-13 | Sony Corp | 音声処理装置および音声処理方法、並びに記録媒体 |
JP2001100784A (ja) | 1999-09-30 | 2001-04-13 | Sony Corp | 情報処理装置および情報処理方法、並びに記録媒体 |
JP2001101187A (ja) * | 1999-09-30 | 2001-04-13 | Sony Corp | 翻訳装置および翻訳方法、並びに記録媒体 |
JP2001117922A (ja) | 1999-10-15 | 2001-04-27 | Sony Corp | 翻訳装置および翻訳方法、並びに記録媒体 |
JP2001117752A (ja) * | 1999-10-15 | 2001-04-27 | Sony Corp | 情報処理装置および情報処理方法、並びに記録媒体 |
JP2001117921A (ja) | 1999-10-15 | 2001-04-27 | Sony Corp | 翻訳装置および翻訳方法、並びに記録媒体 |
US6510411B1 (en) * | 1999-10-29 | 2003-01-21 | Unisys Corporation | Task oriented dialog model and manager |
GB9926134D0 (en) * | 1999-11-05 | 2000-01-12 | Ibm | Interactive voice response system |
US6665640B1 (en) * | 1999-11-12 | 2003-12-16 | Phoenix Solutions, Inc. | Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries |
US6526382B1 (en) * | 1999-12-07 | 2003-02-25 | Comverse, Inc. | Language-oriented user interfaces for voice activated services |
JP4032273B2 (ja) * | 1999-12-28 | 2008-01-16 | ソニー株式会社 | 同期制御装置および方法、並びに記録媒体 |
JP2001191283A (ja) | 1999-12-31 | 2001-07-17 | Sony Corp | ロボット装置及びその制御方法 |
JP3994368B2 (ja) * | 2000-01-25 | 2007-10-17 | ソニー株式会社 | 情報処理装置および情報処理方法、並びに記録媒体 |
US20030028380A1 (en) * | 2000-02-02 | 2003-02-06 | Freeland Warwick Peter | Speech system |
US6773344B1 (en) * | 2000-03-16 | 2004-08-10 | Creator Ltd. | Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems |
JP2001296343A (ja) | 2000-04-11 | 2001-10-26 | Nec Corp | 音源方位設定装置及びそれを備えた撮像装置、送信システム |
JP2001339703A (ja) | 2000-05-26 | 2001-12-07 | Nec Corp | テレビ会議システム及びテレビ会議システムに於けるカメラの制御装置並びにカメラの制御方法 |
CN1396856A (zh) * | 2000-10-11 | 2003-02-12 | 索尼公司 | 机器人设备和机器人设备动作控制方法 |
KR20020067921A (ko) * | 2000-10-23 | 2002-08-24 | 소니 가부시끼 가이샤 | 각식 로봇 및 각식 로봇의 행동 제어 방법, 및 기억 매체 |
US7158935B1 (en) * | 2000-11-15 | 2007-01-02 | At&T Corp. | Method and system for predicting problematic situations in a automated dialog |
US6751591B1 (en) * | 2001-01-22 | 2004-06-15 | At&T Corp. | Method and system for predicting understanding errors in a task classification system |
JP2002244688A (ja) * | 2001-02-15 | 2002-08-30 | Sony Computer Entertainment Inc | 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム |
US6967455B2 (en) | 2001-03-09 | 2005-11-22 | Japan Science And Technology Agency | Robot audiovisual system |
JP3910537B2 (ja) | 2001-03-26 | 2007-04-25 | 富士通株式会社 | マルチチャネル情報処理装置 |
JP2002283261A (ja) | 2001-03-27 | 2002-10-03 | Sony Corp | ロボット装置及びその制御方法、並びに記憶媒体 |
CN1159702C (zh) | 2001-04-11 | 2004-07-28 | 国际商业机器公司 | 具有情感的语音-语音翻译系统和方法 |
JP2002351305A (ja) | 2001-05-23 | 2002-12-06 | Apollo Seiko Ltd | 語学研修用ロボット |
JP3771812B2 (ja) * | 2001-05-28 | 2006-04-26 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ロボットおよびその制御方法 |
JP3823760B2 (ja) | 2001-05-28 | 2006-09-20 | 日本電気株式会社 | ロボット装置 |
US20030009342A1 (en) * | 2001-07-06 | 2003-01-09 | Haley Mark R. | Software that converts text-to-speech in any language and shows related multimedia |
JP4689107B2 (ja) * | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | 自律行動ロボット |
JP2003093747A (ja) * | 2001-09-25 | 2003-04-02 | Mitsumi Electric Co Ltd | デジタルペット |
JP3627058B2 (ja) | 2002-03-01 | 2005-03-09 | 独立行政法人科学技術振興機構 | ロボット視聴覚システム |
JP2003263192A (ja) | 2002-03-12 | 2003-09-19 | Nec Corp | 情報処理システムおよび情報処理方法ならびに情報処理プログラム |
JP2003271172A (ja) * | 2002-03-15 | 2003-09-25 | Sony Corp | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 |
JP3714268B2 (ja) | 2002-03-18 | 2005-11-09 | ソニー株式会社 | ロボット装置 |
JP2003319085A (ja) * | 2002-04-18 | 2003-11-07 | Ntt Advanced Technology Corp | 音声情報検索装置および音声情報検索方法 |
US7076430B1 (en) | 2002-05-16 | 2006-07-11 | At&T Corp. | System and method of providing conversational visual prosody for talking heads |
EP1541295A1 (en) | 2002-08-26 | 2005-06-15 | Sony Corporation | Environment identification device, environment identification method, and robot device |
EP1586423B1 (en) | 2002-12-10 | 2011-10-05 | Honda Motor Co., Ltd. | Robot control device, robot control method, and robot control program |
US7587053B1 (en) | 2003-10-28 | 2009-09-08 | Nvidia Corporation | Audio-based position tracking |
-
2004
- 2004-12-13 JP JP2005516220A patent/JP4839838B2/ja not_active Expired - Fee Related
- 2004-12-13 EP EP10180986A patent/EP2267697A3/en not_active Withdrawn
- 2004-12-13 EP EP04806943A patent/EP1699040A4/en not_active Withdrawn
- 2004-12-13 WO PCT/JP2004/018582 patent/WO2005057549A1/ja active Application Filing
- 2004-12-13 KR KR1020067013576A patent/KR100953902B1/ko not_active IP Right Cessation
- 2004-12-13 US US10/582,360 patent/US8433580B2/en active Active
- 2004-12-13 CN CN2004800370713A patent/CN1894740B/zh not_active Expired - Fee Related
- 2004-12-13 KR KR1020097000257A patent/KR100906136B1/ko not_active IP Right Cessation
-
2008
- 2008-09-02 US US12/230,590 patent/US8473099B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104239180A (zh) * | 2013-06-24 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 变更处理方法、装置及系统 |
CN104239180B (zh) * | 2013-06-24 | 2016-07-27 | 腾讯科技(深圳)有限公司 | 变更处理方法、装置及系统 |
CN103530285A (zh) * | 2013-10-09 | 2014-01-22 | 百度在线网络技术(北京)有限公司 | 翻译消息的方法和装置 |
CN110600016A (zh) * | 2019-09-20 | 2019-12-20 | 北京市律典通科技有限公司 | 卷宗推送方法和装置 |
CN110600016B (zh) * | 2019-09-20 | 2022-02-25 | 北京市律典通科技有限公司 | 卷宗推送方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4839838B2 (ja) | 2011-12-21 |
US8473099B2 (en) | 2013-06-25 |
EP2267697A2 (en) | 2010-12-29 |
EP1699040A4 (en) | 2007-11-28 |
EP1699040A1 (en) | 2006-09-06 |
KR100906136B1 (ko) | 2009-07-07 |
US8433580B2 (en) | 2013-04-30 |
WO2005057549A1 (ja) | 2005-06-23 |
EP2267697A3 (en) | 2011-04-06 |
US20070081529A1 (en) | 2007-04-12 |
KR20090013842A (ko) | 2009-02-05 |
KR20060096520A (ko) | 2006-09-12 |
JPWO2005057549A1 (ja) | 2008-04-17 |
KR100953902B1 (ko) | 2010-04-22 |
CN1894740B (zh) | 2012-07-04 |
US20090043423A1 (en) | 2009-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1894740A (zh) | 信息处理系统、信息处理方法以及信息处理用程序 | |
CN1204543C (zh) | 信息处理设备,信息处理方法和存储介质 | |
CN1270289C (zh) | 对于机器人装置的动作教学装置和方法 | |
CN1213401C (zh) | 声音交互设备和声音交互方法 | |
CN1132148C (zh) | 语音识别对话装置 | |
CN1187734C (zh) | 机器人控制设备 | |
CN1199149C (zh) | 会话处理设备及方法 | |
CN1681002A (zh) | 语音合成系统及方法及程序产品 | |
CN1488134A (zh) | 语音识别装置及语音识别方法 | |
CN1461463A (zh) | 语音合成设备 | |
CN1908965A (zh) | 信息处理装置及其方法和程序 | |
CN1460051A (zh) | 机器人装置及其控制方法和存储介质 | |
CN1591569A (zh) | 语音通信系统和方法、及机器人装置 | |
CN1943212A (zh) | 会话支持系统与会话支持方法 | |
CN1705367A (zh) | 信息处理设备和信息处理方法 | |
JP2010034695A (ja) | 音声応答装置及び方法 | |
WO2016206647A1 (zh) | 用于控制机器装置产生动作的系统 | |
CN1461464A (zh) | 语言处理装置 | |
JP6798258B2 (ja) | 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム | |
Jaroslavceva et al. | Robot Ego‐Noise Suppression with Labanotation‐Template Subtraction | |
JP2021076715A (ja) | 音声取得装置、音声認識システム、情報処理方法、及び情報処理プログラム | |
US11657814B2 (en) | Techniques for dynamic auditory phrase completion | |
US20240223707A1 (en) | Far-end terminal and voice focusing method thereof | |
EP4191584A1 (en) | An audio apparatus and method of operating therefor | |
Fulop | Reviews of Acoustical Patents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120704 Termination date: 20201213 |
|
CF01 | Termination of patent right due to non-payment of annual fee |