CN1759436A - 声音输出装置及声音输出方法 - Google Patents

声音输出装置及声音输出方法 Download PDF

Info

Publication number
CN1759436A
CN1759436A CN200480006231.8A CN200480006231A CN1759436A CN 1759436 A CN1759436 A CN 1759436A CN 200480006231 A CN200480006231 A CN 200480006231A CN 1759436 A CN1759436 A CN 1759436A
Authority
CN
China
Prior art keywords
mentioned
literal
delay
user
voice output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200480006231.8A
Other languages
English (en)
Other versions
CN100583236C (zh
Inventor
西崎诚
小沼知浩
远藤充
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1759436A publication Critical patent/CN1759436A/zh
Application granted granted Critical
Publication of CN100583236C publication Critical patent/CN100583236C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

一种声音输出装置,它能够把利用文字和声音的信息准确地传达给用户,提高与用户之间的连系的完善性,其中具有:显示部(107),它利用文字来显示应向用传达的装置传达信息;延迟部(105),它推断出用户为识别该显示部(107)进行显示的文字的动作所需要的延迟时间(T),在该文字显示后延迟时间(T)已过去时,用声音来输出该装置传达信息;以及声音输出部(106)。

Description

声音输出装置及声音输出方法
技术领域
本发明涉及用声音向用户传达信息的声音输出装置,尤其涉及那种在输出声音的同时,显示出表示与该声音相同的内容的文字的声音输出装置。
背景技术
过去提供一种用声音向用户传达信息的声音输出装置,该声音输出装置适用于汽车导航系统的终端、以及电视机、个人计算机等的接口。
并且,在这种声音输出装置中,为了确切地向用户传达信息,不仅输出声音,而且还用文字来表示该信息。(参见专利公开平11-145955号公报、专利公开平11-339058号公报、专利公开2001-142484号公报和专利公开平5-216618号公报)。即使用户没有听到声音,也不必由用户特意操作声音输出装置,就能够通过阅读已显示的文字来掌握从声音输出装置中传达的信息。
图1是表示用声音和文字来传达信息的过去的声音输出装置的构成的构成图。
该声音输出装置900用对话方式从用户取得必要的信息,并出售该用户所需要的火车票,具有:话筒901、声音处理部902、传达信息生成部903、声音输出部904和显示部905。
话筒901取得从用户来的声音。
声音处理部902根据由话筒901取得的声音来确定用户欲向声音输出装置900传达的用户传达信息,把该用户传达信息输出到传达信息生成部903内。例如,若用户向话筒901发出“大阪”的声音,则声音处理部902把车站名“大阪站”确定为用户传达信息。
传达信息生成部903根据由声音处理部902确定的用户传达信息,生成应向用户传达的装置传达信息,把该装置传达信息输出到声音输出部904和显示部905。例如在用户传达信息示出出发站“大阪站”的情况下,传达信息生成部903生成询问到达站的内容的装置传达信息,输出该装置传达信息。
声音输出部904若从传达信息生成部903中取得装置传达信息,则用声音来输出该装置传达信息的内容。例如,声音输出部904若取得询问到达车站的内容的装置传达信息,则输出“到什么地方?”的声音。
显示部905若从传达信息生成部903取得装置传达信息,则用文字来输出该装置传达信息的内容。例如,显示部905若取得询问到达站的内容的装置传达信息,则显示出“到什么地方?”这样的文字。
图2是表示声音输出装置900的显示部905所显示的画面的一例的画面显示图。
显示部905显示条件栏905a、指定栏905b和询问栏905c。在条件栏905a内,向用户显示出出发站或到达站等被询问的内容;在指定栏905b内,显示出从用户传来的站名等;在询问栏905c内用文字显示出上述装置传达信息的内容。
用户用对话方式来操作这种声音输出装置900,即可购买所需的票。
在此,过去的声音输出装置900同时进行声音的输出和文字的显示(参见专利公开平成5年216618号公报)。例如在声音输出装置904输出“到什么地方?”这样的声音的同时,由显示部905显示出“到什么地方?”这样的文字。
然而,上述过去的声音输出装置900存在的问题是:因为声音和文字的显示同时输出,所以,用户的注意力集中在声音上而不是文字上,文字显示对用户没有意义,不能够提高与用户之间的接口的完善性。
这是因为即使有文字显示,而人要识别该文字还需要时间。已知人从文字显示开始到眼球开始运动为止需要70ms至700ms的时间(参见田村博著“人机接口”(参见1998年Ohm公司发行))。并且,该时间的平均值是200ms。此外,将视点移动到文字的位置上,并将焦点对准到该文字上,需要更长的时间。
发明内容
本发明是针对上述问题而提出的方案,其目的在于提供一种把利用文字和声音的信息准确地传达给用户,能够提高与用户之间的接口的完善性的声音输出装置。
为了达到上述目的,本发明的声音输出装置,其特征在于,文字显示机构,用文字显示应当向用户传达的传达信息;以及声音输出机构,在上述文字显示机构上显示出文字后,经过了用户用于识别上述文字的动作所需要的延迟时间时,用声音输出上述传达信息。
这样一来,因为表示传达信息的文字显示后起经过延迟时间后输出表示该传达信息的声音,所以,用户从移动眼球对焦到已显示的文字上的状态起,同时开始该文字的识别和声音的识别,能够把注意力集中到声音和文字两者上。其结果,能够把利用文字和声音的信息准确地传达给用户,提高与用户之间的接口的完善性。
并且,上述声音输出装置,其特征在于,也可以是:上述声音输出装置具有根据上述文字显示机构上显示的文字的显示状态来推断上述延迟时间的延迟推断机构,上述声音输出机构在上述文字显示机构上显示出文字后,经过了由上述延迟推断机构推断的延迟时间时,用声音输出上述传达信息。例如,上述延迟推断机构推断的上述延迟时间包括上述文字显示机构显示文字起到用户视点开始向上述文字移动为止的开始时间。并且,上述延迟推断机构推断的上述延迟时间还包括用户视点开始移动起到抵达上述文字为止的移动时间。并且,上述延迟推断机构推断的延迟时间包括从用户视点到达上述文字起到焦点对准到上述文字上为止的焦点对准时间。
这样,即使文字显示机构上所显示的文字的显示状态不同,也能够根据该文字的显示状态来推断延迟时间,所以,用户能够同时开始该文字的识别和声音的识别,把注意力集中到声音和文字两者上。
并且,上述声音输出装置,其特征在于,还可以是具有用于取得表示用户特征的个人信息的个人信息取得机构,上述延迟推断机构根据由上述个人信息取得机构所取得的个人信息,来推断出与上述用户对应的延迟时间。例如,上述个人信息取得机构取得上述用户的年龄作为上述个人信息,上述延迟推断机构根据由上述个人信息取得机构取得的年龄,来推断出与上述用户对应的延迟时间。
这样,根据表示用户特征的年龄来推断延迟时间,所以,无论对哪个用户,均能够使声音的输出比文字显示延迟与该用户的年龄对应的延迟时间;能够把利用文字和声音的信息准确地传达给用户。
并且,上述声音输出装置也可以是其特征在于,具有:操作机构,根据用户的操作,在上述文字显示机构上显示出文字,并且向上述声音输出机构输出声音;以及,熟练程度确定机构,用于确定用户对上述操作机构的操作熟练程度,上述延迟推断机构根据由上述熟练程度确定机构确定的熟练程度,来推断与上述用户的熟练程度对应的延迟时间。例如,熟练程度确定机构把用户对上述操作机构的操作次数确定为上述熟练程度。
这样,根据用户的熟练程度来推断延迟时间,所以,即使因对操作装置进行操作而用户的熟练程度发生变化,也能够使声音的输出按照比文字显示延迟与其熟练程度对应的延迟时间;能够将利用文字和声音的信息更准确地传达给用户。
并且,也可以是,其特征在于,上述延迟推断机构根据从吸引用户注意的上述声音输出装置的注视点起到上述文字显示机构所显示的文字为止的文字显示距离,确定上述焦点对准时间。
通常,文字显示距离越短,焦点对准时间也越短;文字显示距离越长,焦点对准时间也越长,所以,通过根据文字显示距离来确定焦点对准时间,能够确定适当的焦点对准时间。
并且,也可以是,其特征在于,上述延迟推断机构利用S形函数来推断上述延迟时间。
因为S形函数能够表现生态系的模型,所以,通过利用S形函数来推断延迟时间,能够推断与生体特性相符合的适当的延迟时间。
并且,也可以是,其特征在于,上述延迟推断机构根据由上述文字显示机构所显示的文字的尺寸来确定上述开始时间。
通常,文字的尺寸越小,开始时间越长,文字的尺寸越大,开始时间越短,所以,通过根据文字的尺寸来确定开始时间,能够确定适当的开始时间。
而且,本发明也可以作为用上述声音输出装置输出声音的声音输出方法或其程序来实现。
附图说明
图1是表示用声音和文字来传达信息的过去的声音输出装置的构成的构成图。
图2是表示同上的显示部所显示的画面的一例的画面显示图。
图3是表示实施方式的声音输出装置的构成的构成图。
图4是表示同上的声音输出装置的显示部所显示的画面的一例的画面显示图。
图5是表示同上的声音输出装置的动作的流程图。
图6是表示同上的函数f0(X)和运动开始时间Ta和文字尺寸X的关系的图。
图7是表示根据同上的变数S的值而变化的函数f1(x)的图。
图8是表示同上的函数f2(L)和移动时间Tb及文字显示距离L的关系的图。
图9是表示同上的函数f2(L)和焦点对准时间Tc及文字显示距离L的关系的图。
图10是表示同上的变形例1的声音输出装置的构成的构成图。
图11是表示同上的变形例1的函数f3(M)和每个人的延迟时间T1及年龄M的关系的图。
图12是表示同上的变形例2的声音输出装置的构成的构成图。
图13是表示同上的变形例2的函数f4(K)和熟练延迟时间T2以及操作次数K的关系的图。
具体实施方式
以下参照附图,详细说明本发明的实施方式中的声音输出装置。
图3是表示本实施方式中的声音输出装置的构成的构成图。
本实施方式中的声音输出装置100是用声音来输出向用户传达的信息,并显示出表示该信息的文字,具有:话筒101、声音处理部102、传达信息生成部103、时钟部104、延迟部105、声音输出部106和显示部107。
这种声音输出装置100的特征在于:使声音的输出时刻从文字的显示时刻延迟人识别该文字用的动作所需要的时间(以下称为延迟时间),以使用户准确地识别出该声音和文字。
话筒101取得从用户来的声音。
声音处理部102根据由话筒101取得的声音,确定用户欲向声音输出装置100传达的用户传达信息,把该用户传达信息输出到传达信息生成部103。例如,若用户向话筒101发出“大阪”的声音,则声音处理部102把站名“大阪站”确定为用户传达信息。
传达信息生成部103根据由声音处理部102确定的用户传达信息,生成应向用户传达的装置传达信息,并把该装置传达信息输出到延迟部105。例如在用户传达信息表示出发站“大阪站”的情况下,传达信息生成部103生成询问到达站的内容的装置传达信息,并输出该装置传达信息。
时钟部104根据从延迟部105来的指示来测量时间,并将其测量结果输出到延迟部105。
延迟部105若从传达信息生成部103取得装置传达信息,则把该装置传达信息输出到显示部107,并且在时钟部104内开始测量时间。并且,延迟部105根据显示部107内所显示的文字的显示状态来推断上述延迟时间,并当由时钟部104测量的测量时间达到延迟时间时,把装置传达信息输出到声音输出部106。
显示部107若从延迟部105中取得装置传达信息,则用文字来显示装置传达信息的内容。例如,显示部107若取得询问到达站的内容的装置传达信息,则显示出“到达什么地方?”。
声音输出部106若从延迟部105取得装置传达信息,则用声音输出该装置传达信息的内容。例如,声音输出部106若取得询问到达站的内容的装置传达信息,则输出“到达什么地方?”的声音。
图4是表示声音输出装置100的显示部107所显示的画面的一例的画面显示图。
显示部107显示:条件栏107a、指定栏107b、询问栏107c、代理人(エ一ジエント)107d、开始钮107e、确认钮107f。
在条件栏107a内显示出向用户询问出发站或到达站等的内容;在指定栏107b中,显示出由用户传来的站名等;在询问栏107c内显示出上述装置传达信息的内容。并且,询问栏107c的文字显示如同代理人107d说话。
开始钮107e被用户选择,从而声音输出装置100开始用对话方式进行卖票动作。
确认钮107f被用户选择之后,开始根据从用户取得的出发站和到达站等信息进行车票发售。
图5是表示声音输出装置100的动作的流程图。
首先,声音输出装置100取得来自用户的声音(S100步),并根据该取得的声音确定用户传达信息(S102步)。
其次,声音输出装置100根据该用户传达信息,生成与该信息相对应的装置传达信息(S104步),并用文字表示该装置传达信息(S106步),并且开始测量时间(S108步)。
这样,当开始测量时间时,声音输出装置100考虑该文字的显示方式来推断延迟时间T,判断出测量时间是否是大于等于该延迟时间T(S110步)。在此,若判断出不足延迟时间T(S110步的否),声音输出装置100就重复进行从S108步起的动作。也就是说,继续进行时间测量。另一方面,若判断出是延迟时间T以上(S110步的是),声音输出装置100就用声音来输出装置传达信息(S112步)。
在此,延迟部105根据显示部107上所显示的文字的显示方式,考虑运动开始时间Ta和移动时间Tb以及焦点对准时间Tc,来推断上述延迟时间T。
运动开始时间Ta是从显示文字起到用户的视点开始向该文字移动为止所需的时间。例如,当用户注视显示部107的代理人107d时,在“到什么地方?”这些文字显示在询问栏107c内的情况下,运动开始时间Ta是用户从注视点代理人107d起到移开视点为止所需的时间。
移动时间Tb是从用户视点开始向文字移动起到达该文字为止所需的时间。例如,若从用户注视的代理人107d起到询问栏107c的文字为止的距离长,则当然移动视点的距离也增长,其结果,移动时间Tb也增长。在这样的情况下,延迟时间T必须考虑该移动时间Tb来决定。
焦点对准时间Tc是从用户视点到达文字上起到焦点对准到该文字上为止所需要的时间,一般来说,当人为了看别的东西而从注视的东西移动视点时,该移动距离越长,越容易产生焦点误差。因此,这种焦点对准时间Tc根据视点的移动距离来确定。
以下,详细说明运动开始时间Ta。
该运动开始时间Ta随显示的文字的尺寸而变化。若文字的尺寸大,则用户的注意力被该文字强烈吸引,运动开始时间Ta缩短。另一方面,若文字尺寸小,则用户的注意力被文字吸引的力较小,运动开始时间Ta增长。例如,若将文字的标准尺寸设定为10点(磅),则越是使文字的尺寸比10点大,用户的注意力被文字吸引的力就越大,运动开始时间Ta缩短。
延迟部105从以下式1中推导出运动开始时间Ta。
Ta=t0-α0……(式1)
t0是无限缩小文字尺寸时所需要的一定的时间。通过从该时间t0中减去随文字尺寸而变化的时间α0,来推导出运动开始时间ta。
延迟部105从以下式(2)中推导出时间α0。
α0=t1*f0(X)……(式2)
X表示文字的尺寸,t1是能够随文字尺寸X的增大而缩短的最大时间。而且,符号“*”表示积。
并且,函数f0(X)由以下的(式3)来表示。
f0(X)=1/(1+exp(-((X-XA)/(XC-XA)-0.5)/0.1))  (式3)
XA是用于决定运动开始时间Ta的标准文字尺寸(例如10点),XC是用于决定运动开始时间Ta的最大文字尺寸(例如38点)。而且,符号“exp”表示自然对数的基数(底),exp(A)表示自然对数的基数(底)的A次方。
这样的函数f0(X)是经常作为生态系的模型使用的S形函数。也就是说,利用这样的函数f0(X),能够推导出符合文字尺寸X的眼球运动特性的运动开始时间Ta。
图6表示函数f0(X)和运动开始时间Ta以及文字尺寸X的关系。
由函数f0(X)表示的值如图6(a)所示,随着文字尺寸X从标准尺寸XA变化成最大点XC而增加。也就是说,该值在文字尺寸X增加的同时在标准尺寸XA(10点)附近缓慢增大;在中间尺寸(24点)附近急剧增大;在最大尺寸XC(38点)附近再次缓慢增大。
所以,运动开始时间Ta如图6(b)所示,随着文字尺寸X的增大,在标准尺寸XA附近缓慢减小;在中间尺寸附近急剧减小;在最大尺寸XC附近再次缓慢减小。
在此,为了取代函数f0(X),也可以采用(式4)所示的函数。
f1(X)=1/(1+exp(-S*((X-XA)/(XC-XA)-0.5)/0.1))。(式4)
S是决定S形函数的拐点的梯度(傾き)的变量。
图7是表示随变量S而变化的函数f1(X)的图。
如该图7所示,若使变量S减小,则由函数f1(X)表示的值在拐点(中间尺寸)附近缓慢变化。但若使变量S增大,则在拐点附近急剧变化。通过把该变量S设定为适当值,即可推导出更准确的运动开始时间Ta。
以下详细说明移动时间Tb。
该移动时间Tb利用从作为注视点的代理人107b起到询问栏107c的文字为止的距离(以下称为文字显示距离)来决定。
延迟部105根据以下(式5)推导出移动时间Tb。
Tb=t0+α1……(式5)
t0是当文字显示距离为0时需要的一定时间。移动时间Tb是在该时间t0上加上随文字显示距离而变化的时间α1来推导出的。
延迟部105从以下(式6)中推导出时间α1。
α1=t2*f2(L)……(式6)
L是文字显示距离,t2是随文字显示距离L延长得到的最大时间。
并且,函数f2(L)由以下(式7)表示。
f2(L)=1/(1+exp(-((L-LA)/(LC-LA)-0.5)/0.1))……(式7)
LA是标准距离,LC表示最大距离,例如标准距离为0cm,最大距离是10cm。
这样的函数f2(L)是经常作为生态系的模型来使用的S形函数。也就是说,利用这样的函数f2(L),能够推导出与文字显示距离L相符合的与眼球运动特性相适应的移动时间Tb。
并且,文字显示距离L由以下(式8)表示。
L=sqrt((px-qx)^2+(py-qy)^2)……(式8)
px和py分别表示询问栏107c的文字的X坐标位置和y坐标位置,qx和qy分别表示代理人107d的x坐标位置和y坐标位置。而且,符号“sqrt”表示根,sqrt(A)表示A的根。并且,符号“^”表示幂,(A)^(B)表示A的B次方。
图8表示函数f2(L)和移动时间Tb以及文字显示距离L的关系。
如图8(a)所示,由函数f2(L)表示的值,随着文字显示距离L从标准距离LA向最大距离LC变化而增大。也就是说,该值随文字显示距离L的增大而在标准距离LA(0cm)附近缓慢增大;在中间距离(5cm)附近急剧增大;在最大距离LC(10cm)附近再次缓慢增大。
所以,如图8(b)所示,移动时间Tb随着文字显示距离L的增大而在标准距离LA附近缓慢增大,并在中间距离附近急剧增大,在最大距离LC附近再次缓慢增大。
而且,以上把文字显示距离L作为从代理人107d的位置起到询问栏107c的文字为止的距离,但在不显示代理人107d的情况下,也可以把画面的中央作为注视点,作为从其中央起到文字为止的距离。
以下,详细说明焦点对准时间Tc。
该焦点对准时间Tc和移动距离Tb一样,由文字显示距离L决定。
延迟部105从以下的(式9)中推导出焦点对准时间Tc。
Tc=t0+α2……(式9)
t0是文字显示距离L为0时所需的一定时间。在该时间t0上加上随文字显示距离L而变化的时间α2来推导出焦点对准时间Tc。
延迟部105从以下的(式10)中推导出时间α2。
α2=t3*f2(L)……(式10)
t3是随文字显示距离L延长取得的最大时间。函数f2(L)由上述(式7)表示。
用这种函数f2(L),能够推导出与文字显示距离L相对应的与眼球运动特性相符合的焦点对准时间Tc。
图9表示函数f2(L)和焦点对准时间Tc及文字显示距离L的关系。
由函数f2(L)表示的值如图9(a)所示,文字显示距离L随着从标准距离LA向最大距离LC变化而增大。
所以,焦点对准时间Tc如图9(b)所示,随文字显示距离L的增加而在标准距离LA附近缓慢增大,在中间距离附近急剧增大,在最大距离LC附近再次缓慢增加。
延迟部105考虑上述运动开始时间Ta、移动时间Tb和焦点对准时间Tc,从以下所示的(式11)中推导出延迟时间T。
T=t0-α0+α1+α2……(式11)
这样,考虑运动开始时间Ta、移动时间Tb和焦点对准时间Tc,推导出延迟时间T,能够把延迟时间T设定为与人的眼球的移动对应的准确时间。
这样,在本实施方式中,对用户识别文字的动作所需的延迟时间T进行推定,从显示出文字起经过了延迟时间T之后,输出声音,所以,用户能够在开始识别文字的同时也开始识别声音。其结果,能够把利用文字和声音的信息准确地传达给用户,提高与用户之间的连系的完善性。
在此,像PDA(个人数字助手)等便携终端所具有的显示器那样,在显示部107的显示画面较小的情况下,也可以不管文字显示距离L如何,把时间α1和时间α2分别设定为一定时间。也就是说,把时间α1和时间α2设定为根据文字显示距离L的变化而取得的平均时间。这样,把时间α1和时间α2分别设定为平均时间,以此由延迟部105从以下的(式12)中推导出延迟时间T。
T=t0-α0+average(α1)+average(α2)……(式12)
average(α1)表示时间α1的平均时间,average(α2)表示时间α2的平均时间。
这样,利用平均时间,能够减少用于推导延迟时间T的参数个数,简化计算处理。并且,其结果,能够加快延迟时间T的计算速度,并且,能够减化延迟部105的构成。
并且,通过决定延迟时间T的上限,能够避免延迟时间T过大。
<变形例1>
以下,说明上述本实施方式中的声音输出装置的第1变形例。
涉及本变形例的声音输出装置,用于推断与各用户相应的延迟时间,具体地根据各用户的年龄来进行推断。
一般来说,移动眼球的定时和移动速度以及调整焦点的速度随年龄增大而变慢,所以,运动开始时间Ta、移动时间Tb和焦点对准时间Tc也随年龄增大而增长。因此,涉及本变形例的声音输出装置,考虑表示用户特征的年龄,来推断延迟时间。
图10是表示涉及变形例1的声音输出装置的构成的构成图。
涉及变形例1的声音输出装置100a具有:话筒101、声音处理部102、传达信息生成部103、时钟部104、延迟部105a、声音输出部106、显示部107、读卡器109和个人信息存储部108。
读卡器109从由用户插入到声音输出装置100a内的卡109a中,读出作为个人信息的年龄和出生年月日,把读出的个人信息存储到个人信息存储部108内。
延迟部105a首先如上所述推导出考虑了运动开始时间Ta、移动时间Tb和焦点对准时间Tc的延迟时间T。并且,延迟部105a参照个人信息存储部108内所存储的个人信息,从延迟时间T中推导出考虑了该个人信息的每个人的延迟时间T1。再者,延迟部105a在从声音输出部106中用声音输出装置传达信息后,经过该各人延迟时间T1之后,把该装置传达信息用文字显示在显示部107上。
延迟部105从以下的(式13)中推导出每个人的延迟时间T1。
T1=T+α3……(式13)
在延迟时间T上加上随年龄而变化的时间α3来导出各人延迟时间T1。
延迟部105从以下的(式14)中导出时间α3。
α3=t4*f3(M)……(式14)
M是年龄,t4是随年龄M延长获得的最大时间。
并且,函数f3(M)由以下的(式15)表示。
f3(M)=1/(1+exp(-((M-20)/(60-20)-0.5)/0.1))…(式15)
由这种函数f3(M)表示的值随年龄而增大,所以,随着该值增大各人的延迟时间T1也增大。
图11表示函数f3(M)和各个人的延迟时间T1及年龄M的关系。
函数f3(M)所表示的值如图11(a)所示,随着年龄M从20岁向60岁的变化而增大。也就是说,该值随年龄的增加而增大,在运动能力旺盛的20岁(标准年龄)左右缓慢增大;在40岁(中间年龄)左右急剧增大;在运动能力衰减的60岁(最大年龄)左右再次缓慢增大。
所以,各人延迟时间T1如图11(b)所示,随年龄的增加,在标准年龄左右缓慢增大;在中间年龄左右急剧增大;在最大年龄左右再次缓慢增大。
这样,在本实施方式中,考虑用户的年龄等,推导出各人延迟时间T1,从显示文字开始经过该各人延迟时间T1之后,输出声音,所以能够提高对各用户接口的完善性。
而且,在本变形例中,个人信息采用了用户的年龄,但也可采用用户的反应速度、视点移动速度、聚焦速度、灵敏度和使用经历等。在这种情况下,上述这种反应速度等个人信息预先记录在卡109a中,由读卡器109从卡109a中读出该个人信息,存储到个人信息存储部108。延迟部105a参照个人信息存储部108内存储的反应速度等个人信息,根据延迟时间T推导出考虑了该反应速度等的各人延迟时间T1。
<变形例2>
以下说明上述本实施方式中的声音输出装置的第2变形例。
涉及本变形例的声音输出装置,是推断与用户熟练程度相对应的延迟时间的装置,具体来说,根据用户的操作次数来进行推断。
一般来说,若用户操作声音输出装置的次数增多,则用户对该操作熟练,所以,运动开始时间Ta和移动时间tb及焦点对准时间Tc缩短。
例如,在买票等一连串的动作中,随着用户和声音输出装置的对话的进行,用户学习文字的显示位置或时间。其结果,用户的对话即操作次数每增加一次,能够使从显示文字到在该文字上聚焦的动作的效率提高一点。因此,涉及本变形例的声音输出装置,考虑用户的操作次数来推断延迟时间。
图12是表示涉及变形例2的声音输出装置的构成的构成图。
涉及变形例2的声音输出装置100b具有:话筒101、声音处理部102、传达信息生成部103、时钟部104、延迟部105b、声音输出部106、显示部107和计数器110。
计数器110若取得从声音处理部102输出的用户传达信息,则对该取得次数即用户对声音输出装置100b的操作次数进行计数,把该操作次数通知到延迟部105b。
延迟部105b首先如上所述推导出考虑了运动开始时间Ta、移动时间Tb和焦点对准时间Tc的延迟时间T。并且,延迟部105b参照由计数器110通知的操作次数,根据延迟时间T推导出考虑了该操作次数的熟练延迟时间T2。再者,延迟部105b用声音从声音输出部106输出装置传达信息,在经过了该熟练延迟时间T2之后,用文字在显示器107上显示出该装置传达信息。
延迟部105b从以下的(式16)中推导出熟练延迟时间T2。
T2=T-α4……(式16)
从延迟时间T中减去随操作次数而变化的时间α4来推导出熟练延迟时间T2。
延迟部105b根据以下的(式17)中推导出时间α4。
α4=t5*f4(k)……(式17)
K是操作次数,t5是能够随操作次数k的增加而缩短的最大时间。
并且,函数f4(k)由以下的(式18)表示。
f4(K)=1/(1+exp(-((K/KC-0.5)/0.1))……(式18)
式中,KC是熟练延迟时间T2成为最短的操作次数的最大值。
由这种函数f4(k)表示的值随操作次数k的增加而增大,所以熟练延迟时间T2随操作次数k的增加而减小。
图13表示函数f4(k)、熟练延迟时间T2和操作次数k的关系。
由函数f4(k)表示的值如图13(a)所示,随着操作次数k从0次(标准次数)向KC次(最大次数)的变化而增大。也就是说,该值随操作次数K的增加而增大,并在完全不熟练的状态0次左右缓慢增大;在开始适当熟练的状态的KC/2次(中间次数)左右急剧增大;在充分熟练状态的KC次数(最大次数)左右再次缓慢增大。
所以,熟练延迟时间T2如图13(b)所示,随操作次数k的增加而减小,在标准次数左右缓慢减小;在中间次数左右急剧减小;在最大次数左右再次缓慢减小。
这样,在本变形例中,考虑用户的熟练程度,推导出熟练延迟时间T2,从显示出文字起经过了该熟练延迟时间T2之后,输出声音,所以,能够保持与用户熟练程度相对应的接口的完善性。
<变形例3>
以下说明上述本实施方式中的声音输出装置的第3变形例。
涉及本变形例的声音输出装置和变形例2一样,均推断与用户熟练程度相对应的延迟时间,具体来说,根据用户的操作时间来进行推断。
一般,若用户操作声音输出装置的时间增多,则用户对该操作熟练,所以,运动开始时间Ta和移动时间Tb以及焦点对准时间Tc缩短。因此,本变形例的声音输出装置虑用户的操作时间,来推断延迟时间。
变形例3的声音输出装置,其结构与图12所示的变形例2的声音输出装置100b相同,但延迟部105b和计数器110的动作不同。
本变形例的计数器110具有计时器的功能,在声音输出装置100b和用户之间开始对话后,若从声音处理部102取得最初的用户传达信息,则测量从该取得时起的经过时间,即操作时间。并且,计数器110把该操作时间通知给延迟部105b。
延迟部105b首先如上所述推导出考虑了运动开始时间Ta、移动时间Tb和焦点对准时间Tc的延迟时间T。并且,延迟部105b参照由计数器110通知的操作时间,从延迟时间T中推导出考虑了该操作时间的熟练延迟时间T3。再者,延迟部105b在用声音从声音输出部106输出装置传达信息之后,经过了该熟练延迟时间T3之后,用文字在显示器107上显示出该装置传达信息。
延迟部105b根据以下的(式19)推导出熟练延迟时间T3。
T3=T-α5……(式19)
从延迟时间T中减去随操作时间而变化的时间α5来推导出熟练延迟时间T3。
延迟部105b根据以下的(式20)推导出时间α5。
α5=t6*f5(p)……(式20)
p是操作时间,t6是随操作时间p可缩短的最大时间。
并且,函数f5(p)由以下的(式21)表示。
f5(P)=1/(1+exp(-(P/PC-0.5)/0.1))……(式21)
式中,PC是使得熟练延迟时间T3最短的操作时间P的最大值。
由这种函数f5(P)表示的值随操作时间P的增加而增大,所以熟练延迟时间T3随操作时间P的增加而减小。
这样,在本变形例中,和变形例2一样,考虑用户的熟练程度来推导出熟练延迟时间T3,并从显示出文字起经过了熟练延迟时间T3之后,输出声音,所以,能够保持与用户熟练程度相适应的接口的完善性。
而且,在本变形例中,声音处理部102按照输出用户传达信息的时间即用户发出声音的时间,来开始测量操作时间P。但也可以按照声音输出装置100b内接通电源的时间或者选择开始钮107f的时间,来开始测量操作时间P。
<变形例4>
以下说明关于本实施方式中的运动开始时间Ta的推导方法的第4变形例。
一般,运动开始时间Ta不仅随文字尺寸而变化,而且随文字显示位置而变化。也就是说,被显示的文字的位置越接近用户的注视点,用户就能够越快地发现该文字,所以,运动开始时间Ta缩短。
涉及本变形例的延迟部105根据文字显示距离L,根据以下(式22)推导出运动开始时间Ta。
Ta=t0+α6……(式22)
t0是文字显示距离L为0时所需的一定时间,也就是说,运动开始时间Ta是在该时间t0上加上随文字显示距离L而变化的时间α6来推导出的。
延迟部105根据以下(式23)推导出α6。
α6=t7*f2(L)……(式23)
T7是能够随文字显示距离L而延长的最大时间。并且,函数f2(L)由(式7)表示。
这样,在本变形例中,根据考虑了文字显示距离L的运动开始时间Ta来推导延迟时间T,从显示出文字起经过了该延迟时间T之后,输出声音,所以能够确保与各文字显示距离L相适应的接口的完善性。
<变形例5>
以下,说明与本实施方式中的运动开始时间Ta的推导方法有关的第5变形例。
一般,如果用户的注视点和显示的文字的颜色的对比度差别大,那么,用户发现该文字的速度相应地较快,所以,运动开始时间Ta缩短。
涉及本变形例的延迟部105根据注视点和文字的对比度按照以下的(式24)推导出运动开始时间Ta。
Ta=t0-α7……(式24)
t0是无限减小时对比度时需要的一定时间。也就是说,运动开始时间Ta是从该时间t0中减去随对比度变化的时间α7而推导出的。
延迟部105根据以下的(式25)推导出α7。
α7=t8*f6(Q)……(式25)
Q表示对比度,t8是能够随对比度Q而缩短的最大时间。
并且,函数f6(Q)由以下(式26)表示。
f6(Q)=1/(1+exp(-((Q-QA)/(QC-QA)-0.5)/0.1))……(式26)
QA是用于决定运动开始时间Ta的标准对比度,QC是用于决定运动开始时间Ta的最大对比度。
这样,本变形例中,根据考虑了对比度的运动开始时间Ta推导出延迟时间T,从显示出文字起经过了该延迟时间T之后,输出声音,所以能够确保与各对比度相对应的接口的完善性。
<变形例6>
以下,说明与本实施方式中的运动开始时间Ta的推导方法有关的第6变形例。
一般,用红色表示文字,或者使其闪烁,以便用户及早发现该文字,所以,运动开始时间Ta缩短。
本变形例的延迟部105根据文字的显示状态的强调程度,按照以下的(式27)推导出运动开始时间Ta。
Ta=t0-α8……(式27)
t0是无限减小显示方式的强调程度时需要的一定时间。也就是说,从该时间t0中减去随强调程度而变化的时间α8,来推导出运动开始时间Ta。
延迟部105根据以下的(式28)推导出α8。
α8=t9*f7(R)……(式28)
R表示强调程度,t9是能够随强调程度R而缩短的最大时间。
并且,函数f7(R)由以下的(式29)表示。
f7(R)=1/(1+exp(-((R-RA)/(RC-RA)-0.5)/0.1))…(式29)
RA是用于决定运动开始时间Ta的标准强调程度,RC是用于决定运动开始时间Ta的最大强调程度。
这样,在本变形例中,根据考虑了文字强调程度的运动开始时间Ta推导出延迟时间T,从文字显示起经过该延迟时间T之后,输出声音,所以能够确保与文字的各强调程度相对应的接口的完善性。
以上利用实施方式和变形例说明了本发明,但本发明并非仅限于此。
例如,实施方式和变形例中,为了推导延迟时间T,对运动开始时间Ta、移动时间Tb和焦点对准时间Tc均加以考虑。但也可以对这些因素中的至少一种加以考虑来推导出延迟时间T。
并且,在变形例1中,根据用户的个人信息推导出延迟时间;在变形例2中根据用户的熟练程度推导出了延迟时间,但也可以根据用户的个人信息和熟练程度两者推导出延迟时间。
再者,在实施方式和变形例中,把声音输出装置作为通过声音输出和文字显示进行售票的装置进行了说明。但只要是进行声音输出和文字显示的,也可以是进行其他动作的装置。例如,也可以把声音输出装置构成为:电视机、汽车导航系统的终端、移动电话机、便携终端、个人计算机、电话机、传真机、微波炉、电冰箱、吸尘器、电子辞典、电子翻译机等。
产业上的可利用性
本发明的声音输出装置能够将利用文字和声音的信息准确地传达给用户,提高与用户之间的接口的完善性,例如利用声音和文字来对用户的声音进行应答,这样能够用于销售票证等的声音应答装置等。
权利要求书(按照条约第19条的修改)
1、(删除)
2、(修正后)一种声音输出装置,其特征在于,具有:
文字显示机构,用文字显示应向用户传达的传达信息;
延迟推断机构,根据在上述文字显示机构所显示的文字的显示状态;推断出在上述文字显示机构上显示文字之后起用户用于识别上述文字的动作所需的延迟时间;以及
声音输出机构,在上述文字显示机构上显示文字之后经过了由上述延迟推断机构推断的延迟时间时,用声音输出上述传达信息。
3、如权利要求2所述的声音输出装置,其特征在于:上述延迟推断机构推断的上述延迟时间包括上述文字显示机构显示文字起到用户视点开始向上述文字移动为止的开始时间。
4、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构推断的上述延迟时间还包括用户视点开始移动起到抵达上述文字为止的移动时间。
5、如权利要求4所述的声音输出装置,其特征在于:上述延迟推断机构推断的延迟时间包括从用户视点到达上述文字起到焦点对准到上述文字上为止的焦点对准时间。
6、如权利要求5所述的声音输出装置,其特征在于:具有用于取得表示用户特征的个人信息的个人信息取得机构,
上述延迟推断机构根据由上述个人信息取得机构所取得的个人信息,来推断出与上述用户对应的延迟时间。
7、如权利要求6所述的声音输出装置,其特征在于:上述个人信息取得机构取得上述用户的年龄作为上述个人信息,上述延迟推断机构根据由上述个人信息取得机构取得的年龄,来推断出与上述用户对应的延迟时间。
8、如权利要求6所述的声音输出装置,其特征在于:
上述个人信息取得机构取得上述用户的眼球活动的眼球速度作为上述个人信息,
上述延迟推断机构根据由上述个人信息取得机构取得的眼球速度,来推断与上述用户对应的延迟时间。
9、如权利要求5所述的声音输出装置,其特征在于,具有:操作机构,根据用户的操作,在上述文字显示机构上显示出文字,并且向上述声音输出机构输出声音;以及,熟练程度确定机构,用于确定用户对上述操作机构的操作熟练程度,
上述延迟推断机构根据由上述熟练程度确定机构确定的熟练程度,来推断与上述用户的熟练程度对应的延迟时间。
10、如权利要求9所述的声音输出装置,其特征在于:上述熟练程度确定机构把用户对上述操作机构的操作次数确定为上述熟练程度。
11、如权利要求9所述的声音输出装置,其特征在于:上述熟练程度确定机构把用户对上述操作机构的操作时间确定为上述熟练程度。
12、如权利要求5所述的声音输出装置,其特征在于:上述延迟推断机构根据从吸引用户注意的上述声音输出装置的注视点起到上述文字显示机构所显示的文字为止的文字显示距离,来确定上述焦点对准时间。
13、如权利要求12所述的声音输出装置,其特征在于:上述延迟推断机构根据上述注视点和上述文字各自的位置来推导上述文字显示距离,并根据上述文字显示距离来确定上述焦点对准时间。
14、如权利要求12所述的声音输出装置,其特征在于:上述文字显示机构把代理人显示为上述注视点,
上述延迟推断机构以上述代理人作为起点推导出文字显示距离。
15、如权利要求5所述的声音输出装置,其特征在于:上述延迟推断机构利用S形函数来推断上述延迟时间。
16、如权利要求4所述的声音输出装置,其特征在于:上述延迟推断机构根据从吸引用户注意力的上述声音输出装置的注视点起到上述文字显示机构显示的文字为止的文字显示距离,确定上述移动时间。
17、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构根据由上述文字显示机构所显示的文字尺寸,确定上述开始时间。
18、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构根据从吸引用户的注意力的上述声音输出装置的注视点起到上述文字显示机构显示的文字为止的文字显示距离,确定上述开始时间。
19、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构根据吸引用户注意力的上述声音输出装置的注视点和上述文字显示机构显示的文字的对比度,确定上述开始时间。
20、如权利要求3所述的声音输出装置,其特征在于:
上述文字显示机构以闪烁方式显示文字,
上述延迟推断机构根据由上述文字显示机构所显示的文字的闪烁程度,确定上述开始时间。
21、如权利要求2所述的声音输出装置,其特征在于:
上述延迟推断机构推断的上述延迟时间包括从用户视点开始移动起到抵达上述文字为止的移动时间。
22、如权利要求2所述的声音输出装置,其特征在于:
上述延迟推断机构推断的上述延迟时间包括从用户视点抵达上述文字起到焦点对准到上述文字为止的焦点对准时间。
23、(删除)
24、(修正后)一种声音输出方法,由信息处理装置输出声音,其特征在于,包括以下步骤:
文字显示步骤,用文字显示应向人传达的传达信息;
延迟推断步骤,根据在上述文字显示步骤显示的文字的显示状态来推断在上述文字显示步骤显示文字之后人用于识别上述文字的动作所需的延迟时间;以及
声音输出步骤,在上述文字显示步骤显示文字之后,经过了在上述延迟推断步骤推断的延迟时间时,用声音输出上述传达信息。
25、如权利要求24所述的声音输出方法,其特征在于:在延迟推断步骤推断上述延迟时间,该延迟时间包括在上述文字显示步骤显示文字起到用户的视点开始向上述文字移动为止的开始时间。
26、如权利要求25所述的声音输出方法,其特征在于:在上述延迟推断步骤推断上述延迟时间,延迟时间包括用户视点开始移动起到抵达上述文字为止的移动时间。
27、如权利要求26所述的声音输出方法,其特征在于:在上述延迟推断步骤推断上述延迟时间,该延迟时间包括从用户视点抵达上述文字起到焦点对准到上述文字上为止的焦点对准时间。
28、(修正后)一种程序,其特征在于,使计算机执行以下步骤:
文字显示步骤,用文字显示应向人传达的传达信息;
延迟推断步骤,根据在上述文字显示步骤所显示的文字的显示状态,来推断在上述文字显示步骤显示文字之后人用于识别上述文字的动作所需的延迟时间;以及
声音输出步骤,在上述文字显示步骤显示文字之后,经过了在上述延迟推断步骤推断的延迟时间时,用声音输出上述传达信息。

Claims (28)

1、一种声音输出装置,其特征在于,具有:
文字显示机构,用文字显示应当向用户传达的传达信息;以及
声音输出机构,在上述文字显示机构上显示出文字后,经过了用户用于识别上述文字的动作所需要的延迟时间时,用声音输出上述传达信息。
2、如权利要求1所述的声音输出装置,其特征在于:上述声音输出装置具有根据上述文字显示机构上显示的文字的显示状态来推断上述延迟时间的延迟推断机构,
上述声音输出机构在上述文字显示机构上显示出文字后,经过了由上述延迟推断机构推断的延迟时间时,用声音输出上述传达信息。
3、如权利要求2所述的声音输出装置,其特征在于:上述延迟推断机构推断的上述延迟时间包括上述文字显示机构显示文字起到用户视点开始向上述文字移动为止的开始时间。
4、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构推断的上述延迟时间还包括用户视点开始移动起到抵达上述文字为止的移动时间。
5、如权利要求4所述的声音输出装置,其特征在于:上述延迟推断机构推断的延迟时间包括从用户视点到达上述文字起到焦点对准到上述文字上为止的焦点对准时间。
6、如权利要求5所述的声音输出装置,其特征在于:具有用于取得表示用户特征的个人信息的个人信息取得机构,
上述延迟推断机构根据由上述个人信息取得机构所取得的个人信息,来推断出与上述用户对应的延迟时间。
7、如权利要求6所述的声音输出装置,其特征在于:上述个人信息取得机构取得上述用户的年龄作为上述个人信息,上述延迟推断机构根据由上述个人信息取得机构取得的年龄,来推断出与上述用户对应的延迟时间。
8、如权利要求6所述的声音输出装置,其特征在于:
上述个人信息取得机构取得上述用户的眼球活动的眼球速度作为上述个人信息,
上述延迟推断机构根据由上述个人信息取得机构取得的眼球速度,来推断与上述用户对应的延迟时间。
9、如权利要求5所述的声音输出装置,其特征在于,具有:操作机构,根据用户的操作,在上述文字显示机构上显示出文字,并且向上述声音输出机构输出声音;以及,熟练程度确定机构,用于确定用户对上述操作机构的操作熟练程度,
上述延迟推断机构根据由上述熟练程度确定机构确定的熟练程度,来推断与上述用户的熟练程度对应的延迟时间。
10、如权利要求9所述的声音输出装置,其特征在于:上述熟练程度确定机构把用户对上述操作机构的操作次数确定为上述熟练程度。
11、如权利要求9所述的声音输出装置,其特征在于:上述熟练程度确定机构把用户对上述操作机构的操作时间确定为上述熟练程度。
12、如权利要求5所述的声音输出装置,其特征在于:上述延迟推断机构根据从吸引用户注意的上述声音输出装置的注视点起到上述文字显示机构所显示的文字为止的文字显示距离,来确定上述焦点对准时间。
13、如权利要求12所述的声音输出装置,其特征在于:上述延迟推断机构根据上述注视点和上述文字各自的位置来推导上述文字显示距离,并根据上述文字显示距离来确定上述焦点对准时间。
14、如权利要求12所述的声音输出装置,其特征在于:上述文字显示机构把代理人显示为上述注视点,
上述延迟推断机构以上述代理人作为起点推导出文字显示距离。
15、如权利要求5所述的声音输出装置,其特征在于:上述延迟推断机构利用S形函数来推断上述延迟时间。
16、如权利要求4所述的声音输出装置,其特征在于:上述延迟推断机构根据从吸引用户注意力的上述声音输出装置的注视点起到上述文字显示机构显示的文字为止的文字显示距离,确定上述移动时间。
17、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构根据由上述文字显示机构所显示的文字尺寸,确定上述开始时间。
18、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构根据从吸引用户的注意力的上述声音输出装置的注视点起到上述文字显示机构显示的文字为止的文字显示距离,确定上述开始时间。
19、如权利要求3所述的声音输出装置,其特征在于:上述延迟推断机构根据吸引用户注意力的上述声音输出装置的注视点和上述文字显示机构显示的文字的对比度,确定上述开始时间。
20、如权利要求3所述的声音输出装置,其特征在于:
上述文字显示机构以闪烁方式显示文字,
上述延迟推断机构根据由上述文字显示机构所显示的文字的闪烁程度,确定上述开始时间。
21、如权利要求2所述的声音输出装置,其特征在于:
上述延迟推断机构推断的上述延迟时间包括从用户视点开始移动起到抵达上述文字为止的移动时间。
22、如权利要求2所述的声音输出装置,其特征在于:
上述延迟推断机构推断的上述延迟时间包括从用户视点抵达上述文字起到焦点对准到上述文字为止的焦点对准时间。
23、一种声音输出方法,信息处理装置输出声音的方法,其特征在于,包括:
文字显示步骤,用文字显示应向人传达的传达信息;以及
声音输出步骤,在上述文字显示步骤显示文字之后,经过了人用于识别上述文字的动作需要的延迟时间时,用声音输出上述传达信息。
24、如权利要求23所述的声音输出方法,其特征在于,还具有根据在上述文字显示步骤显示的文字的显示状态,来推断上述延迟时间的延迟推断步骤,
在上述声音输出步骤,在上述文字显示步骤显示文字之后,经过了在上述延迟推断步骤推断的延迟时间时,用声音输出上述传达信息。
25、如权利要求24所述的声音输出方法,其特征在于:在延迟推断步骤推断上述延迟时间,该延迟时间包括在上述文字显示步骤显示文字起到用户的视点开始向上述文字移动为止的开始时间。
26、如权利要求25所述的声音输出方法,其特征在于:在上述延迟推断步骤推断上述延迟时间,延迟时间包括用户视点开始移动起到抵达上述文字为止的移动时间。
27、如权利要求26所述的声音输出方法,其特征在于:在上述延迟推断步骤推断上述延迟时间,该延迟时间包括从用户视点抵达上述文字起到焦点对准到上述文字上为止的焦点对准时间。
28、一种程序,其特征在于,使计算机执行以下步骤:
文字显示步骤,用文字显示应向人传达的传达信息;以及
声音输出步骤,在上述文字显示步骤显示文字起,经过了人用于识别上述文字的动作所需要的延迟时间时,用声音输出上述传达信息。
CN200480006231A 2003-05-21 2004-04-27 声音输出装置及声音输出方法 Expired - Lifetime CN100583236C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003143043 2003-05-21
JP143043/2003 2003-05-21

Publications (2)

Publication Number Publication Date
CN1759436A true CN1759436A (zh) 2006-04-12
CN100583236C CN100583236C (zh) 2010-01-20

Family

ID=33475114

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200480006231A Expired - Lifetime CN100583236C (zh) 2003-05-21 2004-04-27 声音输出装置及声音输出方法

Country Status (4)

Country Link
US (1) US7809573B2 (zh)
JP (1) JP3712207B2 (zh)
CN (1) CN100583236C (zh)
WO (1) WO2004104986A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550679A (zh) * 2016-02-29 2016-05-04 深圳前海勇艺达机器人有限公司 一种机器人循环监听录音的判断方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8219067B1 (en) * 2008-09-19 2012-07-10 Sprint Communications Company L.P. Delayed display of message
US8456420B2 (en) * 2008-12-31 2013-06-04 Intel Corporation Audible list traversal
JP5458616B2 (ja) * 2009-03-19 2014-04-02 株式会社デンソーウェーブ ロボット制御命令入力装置
CN101807427A (zh) * 2010-02-26 2010-08-18 中山大学 一种音频输出系统
CN101776987A (zh) * 2010-02-26 2010-07-14 中山大学 一种输出植物音频的方法
JP6548524B2 (ja) * 2015-08-31 2019-07-24 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP6638281B2 (ja) * 2015-09-24 2020-01-29 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2017123564A (ja) * 2016-01-07 2017-07-13 ソニー株式会社 制御装置、表示装置、方法及びプログラム
WO2021085242A1 (ja) * 2019-10-30 2021-05-06 ソニー株式会社 情報処理装置、及びコマンド処理方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4884972A (en) * 1986-11-26 1989-12-05 Bright Star Technology, Inc. Speech synchronized animation
US5303327A (en) * 1991-07-02 1994-04-12 Duke University Communication test system
JP3667615B2 (ja) 1991-11-18 2005-07-06 株式会社東芝 音声対話方法及びそのシステム
JPH05216618A (ja) 1991-11-18 1993-08-27 Toshiba Corp 音声対話システム
JPH06321030A (ja) 1993-05-11 1994-11-22 Yazaki Corp 車両用音声出力装置
JPH0792993A (ja) * 1993-09-20 1995-04-07 Fujitsu Ltd 音声認識装置
JPH0854894A (ja) 1994-08-10 1996-02-27 Fujitsu Ten Ltd 音声処理装置
JP3580865B2 (ja) * 1994-08-12 2004-10-27 松下エコシステムズ株式会社 蚕の無菌飼育方法
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
JP3804188B2 (ja) 1997-06-09 2006-08-02 ブラザー工業株式会社 文章読み上げ装置
JP3861413B2 (ja) 1997-11-05 2006-12-20 ソニー株式会社 情報配信システム、情報処理端末装置、携帯端末装置
JP3125746B2 (ja) 1998-05-27 2001-01-22 日本電気株式会社 人物像対話装置及び人物像対話プログラムを記録した記録媒体
GB2353927B (en) * 1999-09-06 2004-02-11 Nokia Mobile Phones Ltd User interface for text to speech conversion
US20040006473A1 (en) * 2002-07-02 2004-01-08 Sbc Technology Resources, Inc. Method and system for automated categorization of statements
JP2003099092A (ja) 2001-09-21 2003-04-04 Chuo Joho Kaihatsu Kk 携帯型情報端末を利用した音声入力システム、並びに、これを使用した棚卸又は受発注用の商品管理システム、点検管理システム、訪問介護管理システム、及び看護管理システム
JP2003108171A (ja) 2001-09-27 2003-04-11 Clarion Co Ltd 文書読み上げ装置
JP2003241779A (ja) 2002-02-18 2003-08-29 Sanyo Electric Co Ltd 情報再生装置および情報再生方法
US6800274B2 (en) * 2002-09-17 2004-10-05 The C.P. Hall Company Photostabilizers, UV absorbers, and methods of photostabilizing a sunscreen composition
US7151435B2 (en) * 2002-11-26 2006-12-19 Ge Medical Systems Information Technologies, Inc. Method and apparatus for identifying a patient
US20040190687A1 (en) * 2003-03-26 2004-09-30 Aurilab, Llc Speech recognition assistant for human call center operator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550679A (zh) * 2016-02-29 2016-05-04 深圳前海勇艺达机器人有限公司 一种机器人循环监听录音的判断方法
CN105550679B (zh) * 2016-02-29 2019-02-15 深圳前海勇艺达机器人有限公司 一种机器人循环监听录音的判断方法

Also Published As

Publication number Publication date
JP3712207B2 (ja) 2005-11-02
JPWO2004104986A1 (ja) 2006-07-20
CN100583236C (zh) 2010-01-20
US20060085195A1 (en) 2006-04-20
WO2004104986A1 (ja) 2004-12-02
US7809573B2 (en) 2010-10-05

Similar Documents

Publication Publication Date Title
CN1258285C (zh) 多信道信息处理装置和多信道信息处理方法
CN1198478C (zh) 电子设备及其模拟像处理方法
CN1254049C (zh) 具有通信功能的信息处理装置和信息处理方法
CN1235389C (zh) 图像信息分布方法及系统、中央和终端设备及扫描仪
CN1669052A (zh) 使用三维物体模型的图像匹配系统、图像匹配方法以及图像匹配程序
CN1123821C (zh) 手写字符数据输入设备及其方法
CN1945476A (zh) 生产管理装置、生产管理方法以及生产管理系统
CN1194337C (zh) 语音识别设备和方法以及记录了语音识别程序的记录媒体
CN1914666A (zh) 声音合成装置
CN1723848A (zh) 使用加速度传感器测量体育运动量的设备和方法
CN1774686A (zh) 起动时间缩短装置及电子设备
CN1728816A (zh) 信息处理装置、信息处理方法、记录媒体及程序
CN1645869A (zh) 便携式通信终端
CN1171584A (zh) 进度管理装置
CN1448915A (zh) 声音识别系统、装置、声音识别方法以及声音识别程序
CN1737732A (zh) 信息处理设备,信息处理方法,记录介质,以及程序
CN1508663A (zh) 携带式终端机及图像显示方法
CN1612133A (zh) 通信设备
CN1759436A (zh) 声音输出装置及声音输出方法
CN1942899A (zh) 脸图像制作装置和方法
CN1267806C (zh) 信息处理器,信息处理方法,及信息处理程序
CN101031055A (zh) 图像处理装置及方法、记录介质、以及程序
CN1760869A (zh) 信息显示控制装置、服务器以及信息显示控制方法
CN1297130C (zh) 通信终端装置
CN1447620A (zh) 发送方移动设备、接收方移动设备、信息通信系统、信息通信方法及服务器设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140929

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140929

Address after: Seaman Avenue Torrance in the United States of California No. 2000 room 200

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.