CN110612568B - 信息处理装置 - Google Patents
信息处理装置 Download PDFInfo
- Publication number
- CN110612568B CN110612568B CN201880004626.6A CN201880004626A CN110612568B CN 110612568 B CN110612568 B CN 110612568B CN 201880004626 A CN201880004626 A CN 201880004626A CN 110612568 B CN110612568 B CN 110612568B
- Authority
- CN
- China
- Prior art keywords
- utterance
- opinion
- time
- sum
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
作为图像形成装置的信息处理装置(1)具备发言时间检测部(101)、附和·意见判定部(102)和HDD(114)。发言时间检测部(101)从语音数据检测关于人的各个发言的发言时间。附和·意见判定部(102)将语音数据文本化,在检测到的发言时间为第一时间以内的发言且包括预定的关键词的情况下将该发言判定为附和,将在比第一时间长的第二时间中作出的发言判定为意见,并对每个人提取在发言中出现预定次数以上的频繁关键词。HDD(114)将通过附和·意见判定部(102)的判定结果和附和以及意见的各发言时间与频繁关键词共同存储。
Description
技术领域
本发明涉及一种信息处理装置,特别涉及一种解析人说话的内容的技术。
背景技术
如今,提出了一种对每个小组推定讨论的活跃度以明示其状况的技术(参照以下专利文献1)。该技术事先存储小组的各成员说话的说话时刻以及说话时长,对每个小组时序地区分各成员的说话时刻以及说话时长,算出各成员的说话时长相对于小组全部成员的说话时长的比,对每个小组生成描绘各成员的说话密度贡献率的图表。
现有技术文献
专利文献
专利文献1:日本特开2016-162339号公报
发明内容(Summary)
上述技术为了判定小组的讨论是否活跃而提供各成员的说话密度贡献率,但该说话密度贡献率只不过是各成员的说话时长相对于小组全部成员的说话时长的比。即,在上述技术中,仅有成员各自说话的时间被用于说话密度贡献率的算出,成员各自的发言内容没有被用于说话密度贡献率的算出。因此,在上述技术中,无法判定成员各自的发言的种类。
本发明是鉴于上述情况而作出的发明,其目的在于在人说话时解析该人的发言的种类并提供其结果。
本发明的一个方面所涉及的信息处理装置具备:通信接口,其用于进行与外部的数据通信;发言时间检测部,其用于从经由通信接口获取到的语音数据,提取人的各个发言,并检测关于提取到的各个发言的发言时间;附和·意见判定部,其用于将语音数据文本化,并判定通过发言时间检测部检测到的发言时间是否为预定的第一时间以内,在第一时间以内的发言包括预定的关键词的情况下将该发言判定为附和,将在比第一时间长的预定的第二时间中作出的发言判定为意见,并对每个人提取在发言中出现预定次数以上的频繁关键词;存储部,其用于将通过附和·意见判定部判定出的结果和附和以及意见的各发言时间与频繁关键词共同存储;在发言中包括从预定的关键词中进一步特定的特定关键词的情况下,附和·意见判定部将该发言判定为附和,并且判定为表示同意的点头。
本发明的另一个方面所涉及的信息处理装置具备:通信接口,其用于进行与外部的数据通信;存储部;控制单元,其包括处理器,用于通过该处理器执行说话解析程序,从而作为发言时间检测部和附和·意见判定部起作用,所述发言时间检测部用于从经由通信接口获取到的语音数据,提取人的各个发言,并检测关于提取到的各个发言的发言时间,所述附和·意见判定部用于将语音数据文本化,并判定通过发言时间检测部检测到的发言时间是否为预定的第一时间以内,在第一时间以内的发言包括预定的关键词的情况下将该发言判定为附和,将在比第一时间长的预定的第二时间中作出的发言判定为意见,并对每个人提取在发言中出现预定次数以上的频繁关键词,并使表示发言是附和还是意见的判定结果和附和以及意见的各发言时间与频繁关键词共同存储到存储部中。在发言中包括从预定的关键词中进一步特定的特定关键词的情况下,附和·意见判定部还用于将该发言判定为附和,并且判定为表示同意的点头。
根据本发明,能够在人说话时解析该人的发言的种类并提供其结果。
附图说明
图1是示出本发明的第一实施方式所涉及的信息处理装置以及供通过该信息处理装置进行说话解析的对象者的图。
图2是示出本发明的第一实施方式所涉及的信息处理装置的内部构成的概要的框图。
图3是示出语音数据的一个例子的图。
图4是示出第一实施方式所涉及的信息处理装置进行的说话解析处理的流程图。
图5是使各人的各个发言根据其发言时间而以不同形状显示的示意图。
图6是示出信息处理装置进行的说话解析处理的第一变形例的流程图。
图7是示出信息处理装置进行的说话解析处理的第二变形例的流程图。
图8是示出决定对于各人而不同的第一时间以及第二时间决定处理的流程图。
图9是示出第二实施方式所涉及的信息处理装置的内部构成的概要的框图。
图10A是示出第二实施方式所涉及的信息处理装置进行的对于各人的发言的评价处理的流程图。
图10B是示出将对每个人统计的第一评价得分以及第二评价得分的统计结果图表化的图像的一个例子的图。
图11是示出使对于意见的第二评价得分根据有无对于该意见的附和而不同并赋予的处理的流程图。
图12是示出使对于意见的第二评价得分根据在该意见中包括的关键词而不同并赋予的处理的流程图。
图13是示出对各人进行评价的评价级别判定处理的流程图。
图14是示出对各人进行评价的评价级别判定处理的第一变形例的流程图。
图15是示出对各人进行评价的评价级别判定处理的第二变形例的流程图。
图16是示出通过评价部制作的、将评价得分的合计值图表化的图像的例子的图。
具体实施方式
以下,参照附图对本发明的一种实施方式所涉及的图像形成装置等信息处理装置、说话解析程序、评价程序、说话解析方法以及评价方法进行说明。图1是示出本发明的第一实施方式所涉及的信息处理装置以及供通过该信息处理装置进行说话解析的对象者的图。
信息处理装置1将由多人组成的会话小组的各人所发出语音作为语音数据而获取。例如,假设由人P1、P2、P3多人(在本实施方式中以三人进行说明,但不限定于此)组成的会话小组进行会谈、授课或会议等(以下,总称并仅称为会议。)。该会话小组的各人在使用了具备麦克风功能的头戴式耳机2的状态下发声。即,该各人使用的头戴式耳机2分别获取装备了头戴式耳机2的人的会话的语音,转换为表示该语音的电气信号,并输出到信息处理装置1。信息处理装置1和各头戴式耳机2例如由通过电缆连接的有线通信、或Bluetooth(注册商标)或者无线LAN(局域网)等无线通信连接。信息处理装置1将从各头戴式耳机2输出的表示上述语音的电气信号转换为由数字语音信号构成的语音数据,分别积蓄每个头戴式耳机2、即关于人P1、P2、P3的语音数据。
接下来,对第一实施方式所涉及的信息处理装置1的结构进行说明。图2是示出第一实施方式所涉及的信息处理装置1的内部构成的概要的框图。
信息处理装置1例如是计算机。信息处理装置1具备控制单元10、ROM(只读存储器(Read Only Memory))112、RAM(随机存取存储器(Random Access Memory))113、HDD(硬盘驱动器(Hard Disk Drive))114、显示部115、通信接口118和输入部119。这些各部分能够相互通过CPU(中央处理单元(Central Processing Unit))总线来进行数据或信号的接收和发送。
所述控制单元10对信息处理装置1整体的动作控制进行管理。ROM112存储关于信息处理装置1的基本动作的动作程序。RAM 113被用作控制单元10的动作区域等。
所述HDD114在其存储区域的一部分中存储本发明的一种实施方式所涉及的说话分析程序。另外,HDD114存储关于人P1、P2、P3的各自的上述语音数据。此外,HDD114是权利要求书中的存储部的一个例子。此外,具备信息处理装置1的非易失性ROM(例如,内置有控制单元10)也可以作为存储部起作用。
在与信息处理装置1连接的头戴式耳机2中,事先带有用于特定该头戴式耳机2的识别信息。作为识别信息,只要是能够特定头戴式耳机2的信息即可,没有特别限定,例如有识别号码。HDD114按头戴式耳机2事先存储该识别信息。
所述显示部115由LCD(液晶显示器(Liquid Crystal Display))等构成,显示对操作信息处理装置1的操作者的操作引导等。
所述通信接口118具有USB(通用串行总线)接口或无线LAN接口等。通信接口118作为用于进行与上述各头戴式耳机2的数据通信的接口来起作用。
所述输入部119由键盘或鼠标等构成,从操作者输入操作指示。
所述控制单元10由处理器、RAM以及ROM等构成。处理器为CPU(中央处理单元)、MPU(微处理单元(Micro Processing Unit))或ASIC(专用集成电路(Application SpecificIntegrated Circuit))等。控制单元10通过利用上述处理器来执行存储在HDD114中的说话解析程序,来作为控制部100、发言时间检测部101以及附和·意见判定部102起作用。此外,控制部100、发言时间检测部101以及附和·意见判定部102也可以由硬件电路构成。
所述控制部100具有对信息处理装置1整体的动作控制进行管理的功能。
所述发言时间检测部101从关于存储在HDD114中的人P1、P2、P3的各个语音数据检测关于在语音数据中记录的说话中作出的各发言的发言时间。图3是示出语音数据的一个例子的图。图3的纵轴表示声音的振幅(单位dB),横轴表示时刻。发言时间检测部101解析语音数据,将语音数据表示的振幅中的、持续预定的规定时间(例如,0.25秒)以上且持续预定的大小以上的振幅(例如,20dB)的部分作为发言而提取。在图3所示的语音数据中,发言时间检测部101将a部分、b部分以及c部分作为发言而提取。发言时间检测部101将该提取到的各发言持续的时间作为发言时间而检测。
若通过发言时间检测部101检测到的上述发言时间为预定第一时间(从上述规定时间到比该规定时间长的预定时间为止的时间带。例如,作为上述规定时间的0.25秒以上到20秒为止的时间带)以内,则附和·意见判定部102将在该发言时间中作出的发言判定为附和(在图3的例子中为b)。另外,若通过发言时间检测部101检测到的上述发言时间为比上述第一时间长的预定的第二时间(超过上述第一时间的时间),则附和·意见判定部102将在该发言时间中作出的发言判定为意见(在图3的例子中为a、c)。附和·意见判定部102使该判定出的是附和还是意见的结果和该附和以及意见的各发言时间存储在HDD114中。
另外,附和·意见判定部102具备已知的语音识别功能,由此,将语音数据进行字符转换并文本化。附和·意见判定部102从例如人P1作出的所有发言检测在它们中包括的单词,在同一单词被多次检测的情况下对该单词的检测次数进行计数。附和·意见判定部102将检测到的单词中的、出现预定的次数(例如,五次)以上的单词作为频繁关键词而提取。附和·意见判定部102对于所有人的语音数据,同样地提取频繁关键词。
接下来,对第一实施方式所涉及的信息处理装置1进行的说话解析处理进行说明。图4是示出信息处理装置1进行的说话解析处理的流程图。
进行该说话解析的场景是由人P1、P2、P3多人组成的会话小组正在进行会议的场景。人P1、P2、P3各自装备头戴式耳机2,各头戴式耳机2如上所述可通信地与信息处理装置1连接。在该状态下,人P1、P2、P3在会议中进行说话。由人P1、P2、P3发出的语音通过人P1、P2、P3各自的头戴式耳机2而声音收集,并输出到信息处理装置1。
信息处理装置1经由通信接口118,从各头戴式耳机2获取语音数据(步骤S1)。即,当通信接口118接收从各头戴式耳机2输出的表示上述语音的电气信号时,发言时间检测部101使该获取到的表示语音的电气信号转换为由数字语音信号构成的语音数据并存储到HDD114中。发言时间检测部101按人P1、P2、P3,即,与在HDD114中存储的识别信息建立对应关系地,使该语音数据存储到HDD114中。
接着,发言时间检测部101从按人P1、P2、P3在HDD114中存储的各个语音数据,将在该语音数据表示的说话中作出的各发言如上述这样提取(步骤S2)。然后,发言时间检测部101检测该提取到的各发言的发言时间(步骤S3)。
进一步地,附和·意见判定部102判定各发言的发言时间是第一时间以内还是第二时间(步骤S4)。若发言时间为第一时间以内(在步骤S2中为“第一时间”时),则附和·意见判定部102将在该发言时间中作出的发言判定附和(步骤S5)。另外,若发言时间为第二时间(在步骤S4中为“第二时间”时),则附和·意见判定部102将在该发言时间中作出的发言判定意见(步骤S8)。
进一步地,附和·意见判定部102通过语音识别功能将人P1、P2、P3的各语音数据进行字符转换并文本化,对每个人P1、P2、P3从语音数据提取频繁关键词(步骤S6)。附和·意见判定部102使表示发言是附和还是意见的上述判定结果、该附和以及意见的各发言时间、提取到的频繁关键词按人P1、P2、P3汇总,并存储在HDD114中(步骤S9)。
如图5中示例的这样,附和·意见判定部102将表示发言是附和还是意见的上述判定结果制作成按人P1、P2、P3区分并显示的图像(步骤S10)。控制部100使制作的图像在显示部115上显示(步骤S11)。在此处,在信息处理装置1为图像形成装置的情况下,也可以打印在步骤S10中制作的图像和将语音数据文本化的数据。
在信息处理装置1为图像形成装置的情况下,信息处理装置1包括用于在作为记录介质的一个例子的记录纸上形成图像的机构。该机构例如包括图像形成部、定影部以及供纸部。
图像形成部包括感光体鼓、带电装置、曝光装置、显影装置以及转印装置。图像形成部将与在步骤S10中制作的图像、或与表示被文本化的语音数据的图像等对应的色粉图像形成在从供纸部被供给的记录纸上。
定影部对通过图像形成部在表面形成了色粉图像的记录纸进行加热以及加压,从而使色粉图像定影在记录纸上。在通过定影部定影以后,形成了图像的记录纸被排出到信息处理装置1的外部。
供纸部通过拾取辊一张一张地抽出容纳在纸盒中的记录纸或载置在手动供纸盘上的记录纸,并向图像形成部送出。
图5是将人P1、P2、P3的各个发言根据其发言时间而以不同形状显示的示意图。
如图5中示例的这样,控制部100使通过附和·意见判定部102判定出的表示是附和还是意见的结果按人P1、P2、P3区分并在显示部115上显示。
例如,在图5中,横轴表示时间轴,在人P1、P2、P3的各栏中示出的长条状的图像im(指图5中示出的所有长条状的图像)是表示发言的图像。在人P1、P2、P3的各栏中,与发言的次数相同的数量的图像im在与发言的时间对应的位置上并排显示。另外,图像im的横宽与发言的时间对应地设为较长,即,发言的时间越长,图像im的横宽设定得越长。此外,图像im的纵向的形状与发言的时间的长度无关,设定为相同。
根据上述示意图,对该示意图进行了目视确认的用户对于人P1、P2、P3进行的发言,可对每个人从图像im的数量来把握发言次数,并从图像im的显示位置来把握发言时刻。
另外,当将上述第一时间设为图5中所示的宽度w时,由未达到该宽度w的横宽构成的图像im表示附和,由宽度w以上的横宽构成的图像im表示意见。此外,附和·意见判定部102也可以根据附和或意见的不同,(i)使图像im的颜色不同,(ii)使示出附和或意见的不同的标记与图像im中的图像邻接地,制作各图像im。
用户通过对图5中所示的示意图进行目视确认,进一步能够把握人P1、P2、P3各个人在什么时间下进行了什么样的发言。另外,在图5中,对人P1、P2、P3使用了共通的时间轴,因此还能够把握某人与其他人各自进行的发言彼此的时间点的先后。
例如,根据图5,用户能够把握以下内容:人P1在所有人中最先发表意见(图像im211),接着人P1的意见,人P2也发表意见(图像im221),接着人P2的意见,人P3也进一步地发表意见(图像im231)。
另外,用户能够把握以下内容:人P1在人P2发表的意见(图像im221)之后,立即紧接着进行附和(图像im111、im112),人P3在人P1发表的意见(图像im212)之后,立即紧接着进行附和(图像im131、im132)等。
另外,用户从图5能够把握以下内容:人P1在十分钟内发表了六次意见,人P2在十分钟内发表了四次意见,人P3在十分钟内发表了两次意见,因此人P1发表了最多的意见。用户从该结果能够想定人P1最积极地发表了意见。
另一方面,人P1在十分钟内进行了五次附和(图像im111~im115),人P2在十分钟内进行了四次附和(图像im121~im124),人P3在十分钟内进行了七次附和(图像im131~im137),因此能够把握人P3进行了最多的附和。用户从该结果能够想定人P3最有意听取其他人的意见。
此外,附和·意见判定部102也可以仅将在判定为意见的发言之后紧接着该发言作出的发言判定为附和。该情况下,例如,在图5中,仅图像im111、im112、im123、im124、im131、im132、im135、im136通过附和·意见判定部102被判定为附和。
由此,根据第一实施方式,能够在人说话时解析该人的发言的种类并提供其结果。
接下来,对信息处理装置1进行的说话解析处理的第一变形例进行说明。图6是示出信息处理装置1进行的说话解析处理的第一变形例的流程图。此外,在第一变形例的说明中,关于与第一实施方式同样的处理,省略说明。
在第一变形例中,在进行了与第一实施方式中的步骤S1~步骤S3相同的处理即步骤S11~步骤S13的处理之后,在步骤S14中,附和·意见判定部102在判定为发言的发言时间为第一时间以内时(在步骤S14中为“第一时间”时),进一步地判定该发言是否包括预定的关键词(步骤S15)。例如,附和·意见判定部102在步骤S15时,通过语音识别功能将人P1、P2、P3的各语音数据文本化,对于各发言,作为预定的关键词,判定是否包括例如“没错”“这样啊”“原来如此”“不可能”“是”“不”“嗯”或“不对不对”等。这样被文本化的数据在步骤S17中的频繁关键词提取时也被使用。
在此处,在判定为在该发言中包括预定的关键词的情况下(在步骤S15中为是时),附和·意见判定部102将该发言判定为附和(步骤S16)。即,在第一变形例中,在满足发言的发言时间为第一时间内且该发言包括预定的关键词的这样的条件的情况下,附和·意见判定部102将该发言判定为附和。
此外,在判定为在该发言中不包括预定的关键词的情况下(在步骤S15中为否时),附和·意见判定部102将该发言判定为既不是附和也不是意见(步骤S19)。
根据第一变形例,不仅使用时间要素,还使用包括预定的关键词的要素来进行通过附和·意见判定部102的附和或意见的判定,因此进一步提高在附和·意见判定部102进行了附和的判定的情况下的、各人的发言为附和的确定性。
接下来,对信息处理装置1进行的说话解析处理的第二变形例进行说明。图7是示出信息处理装置1进行的说话解析处理的第二变形例的流程图。此外,在第二变形例的说明中,关于与第一实施方式或第一变形例同样的处理,省略说明。
在第二变形例中,在进行了与第一变形例中的步骤S11~步骤S14相同的处理即步骤S21~S24的处理之后,在步骤S25中,在附和·意见判定部102判定为该发言中包括上述预定的关键词的情况下(在步骤S25中为是时),进一步地,在步骤S25中成为处理对象的发言中包括从上述预定的关键词中进一步特定到的特定关键词的情况下(在步骤S26中为是时),附和·意见判定部102将该发言判定为附和且是其中表示特别同意的点头(步骤S31)。例如,关于在步骤S25中成为处理对象的发言,在作为特定关键词而包括例如“没错”“原来如此”“是”或“嗯”等的情况下,附和·意见判定部102判定为点头。
根据第二变形例,通过附和·意见判定部102进行的从附和中进一步判定点头,能够判别附和的人是否同意他人发表的意见。
此外,在上述第一实施方式、第一变形例以及第二变形例中,作为在附和的判定中使用的第一时间以及在意见的判定中使用的第二时间,附和·意见判定部102对人P1、P2、P3的各人使用同一时间,但作为第一时间以及第二时间,附和·意见判定部102也可以对各人使用不同的时间。图8是示出决定对于各人而不同的第一时间以及第二时间决定处理的流程图。该决定处理在第一实施方式中的步骤S3和步骤S4之间、第一变形例中的步骤S13和步骤S14之间、第二变形例中的步骤S23和步骤S24之间进行。
例如,在通过发言时间检测部101进行了检测各发言的发言时间的处理之后(步骤S3、步骤S13、步骤S23),附和·意见判定部102将人P1、P2、P3各人进行的所有发言的内容例如通过语音识别功能文本化,并对各发言检测各自的文本量(步骤S51)。
接着,附和·意见判定部102将检测到的文本量除以作为检测该文本量的对象的发言的发言时间,作为发言速度而算出。附和·意见判定部102对人P1、P2、P3各人进行的所有发言进行该发言速度的算出,对于每个人,算出关于该人作出的所有发言的发言速度的平均速度,并将该算出的平均速度设为关于该人的发言速度(步骤S52)。
进一步地,附和·意见判定部102根据算出的各人的发言时间,对每个人决定第一时间以及第二时间(步骤S53)。例如,附和·意见判定部102存有各发言速度和表示与各发言速度建立对应关系的各个第一时间以及第二时间的数据表,参照该数据表,对于每个人,读出与算出的发言时间对应的第一时间以及第二时间,并将读出的第一时间以及第二时间作为在附和还是意见的判定中使用的第一时间以及第二时间而决定。此外,发言速度越慢,上述数据表存储的第一时间以及第二时间越长。
如上所述,附和·意见判定部102根据人P1、P2、P3各人的说话速度,决定在附和还是意见的判定中使用的第一时间以及第二时间,因此能够更准确地判定各人的发言是附和还是意见。
接下来,对第二实施方式所涉及的信息处理装置1的结构进行说明。图9是示出第二实施方式所涉及的信息处理装置1的内部构成的概要的框图。此外,在关于第二实施方式的说明中,关于与使用图2进行说明的第一实施方式所涉及的信息处理装置1的结构相同的结构以及功能,省略说明。
在第二实施方式中,在信息处理装置1中,控制单元10与在图2中所示的结构相同,由处理器、RAM以及ROM等构成。处理器为CPU、MPU或ASIC等。控制单元10通过利用上述处理器来执行存储在HDD114中的评价程序,除了作为控制部100、发言时间检测部101、附和·意见判定部102起作用以外,还作为评价部103以及统计部104起作用。此外,控制部100、发言时间检测部101、附和·意见判定部102、评价部103以及统计部104也可以由硬件电路构成。
控制部100、发言时间检测部101以及附和·意见判定部102具有与使用图2说明的第一实施方式的结构相同的功能。在本实施方式中,附和·意见判定部102也使表示发言是附和还是意见的判定结果、该附和以及意见的各发言时间、提取的频繁关键词按人P1、P2、P3汇总,并存储在HDD114中。
评价部103对于每一个在HDD114中存储的各人的判定结果,对附和赋予预定的第一评价得分,对意见赋予与第一评价得分不同的预定的第二评价得分。例如,评价部103赋予对于意见的第二评价得分比对于附和的第一评价得分(例如,一分)大的值(例如,十分)。
统计部104对于每个人P1、P2、P3统计通过评价部103赋予的第一评价得分以及第二评价得分。控制部100将每个人的统计结果例如输出到显示部115,并使显示部115上显示每个人的统计结果。或者,控制部100经由通信接口118,将表示每个人的统计结果的数据输出到与信息处理装置1网络连接的计算机。在该计算机中,能够进行表示每个人的统计结果的数据的打印或显示。
另外,统计部104制作将每个人的统计结果图表化的图像数据。控制部100使每个人的统计结果图表化的图像数据输出到显示部115中并显示。
接下来,对第二实施方式所涉及的信息处理装置1进行的对于各人的发言的评价处理进行说明。图10A是示出第二实施方式所涉及的信息处理装置进行的对于各人的发言的评价处理的流程图。图10B是示出将对每个人P1、P2、P3统计的第一评价得分以及第二评价得分的统计结果图表化的图像的一个例子的图。此外,关于与使用图4说明的第一实施方式所涉及的说话解析处理同样的处理,省略说明。
在第二实施方式所涉及的评价处理中,在与使用图4说明的说话解析处理相同地,附和·意见判定部102进行了附和的判定(步骤S65)以及意见的判定(步骤S70)之后,评价部103对于每一个表示在HDD114中存储的各人的发言是附和还是意见的判定结果,进一步地,对于每一个该判定结果表示的附和或意见,对附和赋予第一评价得分(例如,一分),对意见赋予第二评价得分(例如,十分)(步骤S66)。附和·意见判定部102对人P1、P2、P3各人进行的所有发言(附和或意见)进行第一评价得分或第二评价得分的赋予。
接着,统计部104对于每个人P1、P2、P3统计通过评价部103赋予的第一评价得分以及第二评价得分(步骤S67)。进一步地,统计部104制作将统计结果图表化的图像(步骤S68)。如图10B所示,控制部100使每个人的统计结果图表化的图像输出到显示部115中并显示(步骤S69)。
根据第二实施方式,对于附和·意见判定部102判定的附和以及意见,分别赋予利用数字表示的第一评价得分或第二评价得分,且被赋予的第一评价得分以及第二评价得分对每个人P1、P2、P3进行统计,因此基于每个人的统计结果,能够评价会议中各人进行的发言并客观地呈现该评价结果。由此,用户能够客观地把握会议中的各人的发言的评价。
在此处,评价部103也可以使对于意见的第二评价得分根据有无对于该意见的附和而不同并赋予。图11是示出使对于意见的第二评价得分根据有无对于该意见的附和而不同并赋予的处理的流程图。该处理在图10A中所示的步骤S66的点赋予处理时进行。
在附和·意见判定部102进行了附和的判定(步骤S65)以及意见的判定(步骤S70)以后,评价部103判定在某人刚刚发表意见之后的时间点下,是否存在紧接着该意见由其他人进行的附和(步骤S71)。在判定为在该时间点下进行的附和存在时(在步骤S71中为是时),评价部103将该意见的评价得分作为比第二评价得分大的预定的第三评价得分(例如,二十分)而赋予到该意见(步骤S72)。
此外,在步骤S71中,在判定为在某人刚刚发表的意见之后的时间点下进行的附和存在多个时,评价部103也可以作为使第三评价得分进一步增加的值(例如,二十五分)而赋予到该意见。“附和存在多个”的意思可以是被多人附和的情况和同一个人多次附和的情况中的任一种。
进一步地,评价部103对于在某人刚刚发表的意见之后的时间点下紧接着进行的附和,赋予比第一评价得分大的预定的第四评价得分(例如,两分)(步骤S73)。
此外,在步骤S73中,在判定为在某人刚刚发表的意见之后的时间点下进行的附和存在多个时,评价部103也可以作为使第四评价得分进一步增加的值(例如,三分)而赋予到该附和。“附和存在多个”的意思可以是被多人附和的情况和同一个人多次附和的情况中的任一种。
另一方面,在判定为在某人刚刚发表的意见之后的时间点下进行的附和不存在时(在步骤S71中为否时),评价部103将该意见的评价得分作为第二评价得分而赋予到该意见(步骤S74)。
进一步地,评价部103对于在某人刚刚发表的意见之后并非紧接着的时间点下进行的附和,赋予第一评价得分(步骤S75)。此外,在第二实施方式中,第三评价得分设定为比第四评价得分大。
如上所述,对于在意见刚刚发表之后紧接着由其他人作出附和,从而被想定为是吸引了其他人的关注的优质的意见的意见,赋予比没有作出该附和的其他意见高的评价得分,因此能够可靠地对被想定为优质的意见给予高评价。
另外,在意见刚刚发表之后紧接着作出的附和被想定为是对于他人的意见表明自己的意愿的可靠的附和,因此将比在其他时间点作出的附和高的评价得分赋予到该附和。由此,能够对被想定为可靠地进行的附和给予高评价。
另外,评价部103也可以使对于意见的第二评价得分根据在该意见中包括的关键词不同并赋予。图12是示出使对于意见的第二评价得分根据在该意见中包括的关键词而不同并赋予的处理的流程图。该处理在图10A中所示的步骤S66的点赋予处理时进行。另外,通过该处理决定的第二评价得分还作为在图11中所示的处理中的第二评价得分被使用。
附和·意见判定部102在进行了附和的判定(步骤S65)以及意见的判定(步骤S70)以后,将人P1、P2、P3各人进行的所有发言(至少关于意见)的内容例如通过语音识别功能事先文本化(步骤S81)。此外,该文本化处理也可以是评价部103进行的处理。
在通过附和·意见判定部102进行了上述文本化处理之后,评价部103对人P1、P2、P3各人进行的所有意见,检测在它们中包括的单词,在同一单词(关键词)被多次检测的情况下对该单词进行其检测次数的计数。评价部103对每个意见进行该计数。
然后,评价部103判定是否存在包括同一单词预定次数(例如,五次)以上的意见(步骤S82)。在判定为存在包括同一单词预定次数以上的意见的情况下(在步骤S82中为是时),评价部103设定为对该意见不赋予第二评价得分(步骤S87)。在不存在包括同一单词预定次数以上的意见的情况下,评价部103不进行该设定(在步骤S82中为否时)。
进一步地,评价部103对于人P1、P2、P3各人发表的所有意见,判定是否存在包括预定的不需要的关键词(例如,作为与本次会议无关而预定的单词。或者,“做不到”等预定的不恰当的单词)的意见(步骤S83)。在判定为存在包括不需要的关键词的意见的情况下(在步骤S83中为是时),评价部103将对包括不需要的关键词的该意见赋予的第二评价得分的值设定为减去预定的减去值(例如,五分)的值(例如,五分)(步骤S86)。在不存在包括不需要的关键词的意见的情况下,评价部103不进行该减法运算(在步骤S83中为否时)。
接着,评价部103对于人P1、P2、P3各人发表的所有意见,判定是否存在包括预定的重要关键词(例如,作为在本次会议中希望发言而预定的单词。或者,在是关于图像形成装置的图像形成机构部分的开发的会议的情况下,“带电”“显影”“曝光”等单词)的意见(步骤S84)。
在判定为存在包括重要关键词的意见的情况下(在步骤S84中为是时),评价部103将对包括重要关键词的该意见赋予的第二评价得分的值设定为加上预定的加值(例如,五分)的值(例如,十五分)(步骤S88)。在不存在包括重要关键词的意见的情况下,评价部103不进行该加法运算(在步骤S84中为否时)。
之后,作为对于各意见的第二评价得分,评价部103使用上述进行了加法运算和/或减法运算的第二评价得分的值或者第二评价得分本身等、在图12中所示的上述处理结束的时间点下算出的第二评价得分。
根据这样的评价处理,对于在一个意见中反复论述相同内容从而被想定为无用的意见,设为不赋予第二评价得分的低评价(步骤S87),对于发言了不需要的单词从而被想定为对会议的贡献度低的意见,通过对第二评价得分做减法运算从而降低评价(步骤S86),对于发言了重要的单词从而被想定为对会议的贡献度高的意见,通过对第二评价得分做加法运算从而提高评价(步骤S88),像这样,能够决定与意见的内容对应的可靠的评价内容。
接下来,对在如上述这样赋予了评价得分之后,判定关于人P1、P2、P3各人的评价级别的评价级别判定处理进行说明。图13是示出对人P1、P2、P3各人进行评价的评价级别判定处理的流程图。
作为对各人判定评价级别的评价级别判定处理,对着重于各人发表的意见而进行的方法进行说明。该情况下,统计部104对于人P1、P2、P3的每个人,统计对各意见赋予的第二评价得分并算出合计值(步骤S101)。
然后,评价部103对于由统计部104统计的每个人的合计值,分别判定是否为预定的第一意见评价值以上(步骤S102)。在此处,在评价部103判定为存在未达到上述第一意见评价值的合计值的情况下(在步骤S102中为否时),将对于具有对意见的该合计值的人的评价判定为第二低级别(步骤S105)。第二低级别是指,作为在会议中没有发表意见的人或者与其类似的人,对该人给予的低的评价级别。
另外,在判定为存在第一意见评价值以上的合计值的情况下(在步骤S102中为是时),评价部103进一步地判定该合计值是否为比第一意见评价值大的预定的第二意见评价值以上(步骤S103)。即,第二意见评价值是表示被想定为过多的意见的次数的值。
在此处,在评价部103判定为该合计值为上述第二意见评价值以上的情况下(在步骤S103中为是时),将对于具有对意见的该合计值的人的评价判定为第一低级别(步骤S106)。第一低级别是指,作为在会议中虽然发表了意见但意见的次数过多从而对会议没有贡献的人或者与其类似的人,对该人给予的低的评价级别。
另一方面,在评价部103判定为该合计值未达到上述第二意见评价值的情况下(在步骤S103中为否时),将对于具有对意见的该合计值的人的评价判定为第一高级别(步骤S104)。第一高级别是指,作为在会议中发表了适当的次数的意见从而对会议有贡献的人或者与其类似的人,对该人给予的高的评价级别。
根据这样的评价级别判定处理,能够根据发表的意见的次数,可靠地判定发表了该意见的人的对会议的贡献度。
接下来,对在如上述这样赋予了评价得分之后,对人P1、P2、P3各人判定评价级别的评价级别判定处理的第一变形例进行说明。图14是示出对人P1、P2、P3各人进行评价的评价级别判定处理的第一变形例的流程图。
作为对各人判定评价级别的评价级别判定处理,对着重于各人进行的附和而进行的方法进行说明。该情况下,统计部104对于人P1、P2、P3的每个人,统计对各附和赋予的第一评价得分并算出合计值(步骤S201)。
然后,评价部103对于由统计部104统计的每个人的合计值,分别判定是否为预定的第一附和评价值以上(步骤S202)。在此处,在评价部103判定为存在未达到第一附和评价值的合计值的情况下(在步骤S202中为否时),将对具有关于附和的该合计值的人的评价判定为第三低级别(步骤S206)。第三低级别是指,作为在会议中没有进行附和的人(被想定为没有听别人的意见的人)或者与其类似的人,对该人给予的低的评价级别。
另外,在评价部103判定为存在第一附和评价值以上的合计值的情况下(在步骤S202中为是时),进一步地判定该合计值是否为比第一附和评价值大的预定的第二附和评价值以上(步骤S203)。
在此处,在评价部103判定为该合计值未达到上述第二附和评价值的情况下(在步骤S203中为否时),将对具有关于附和的该合计值的人的评价判定为预定的第二高级别(步骤S208)。第二高级别是指,作为在会议中进行了适当的次数的附和从而经常听其他人的意见的人或者与其类似的人,对该人给予的高的评价级别。
另一方面,在评价部103判定为该合计值为第二附和评价值以上的情况下(在步骤S203中为是时),进一步地,统计部104对于人P1、P2、P3的每个人,统计对各意见赋予的第二评价得分并算出关于意见的合计值,评价部103判定关于该意见的合计值是否为上述第一意见评价值以上(步骤S204)。
在此处,在评价部103判定为关于该意见的合计值未达到第一意见评价值的情况下(在步骤S204中为否时),将对具有关于该意见的合计值的人的评价判定为第四低级别(步骤S205)。第四低级别是指,作为在会议中虽然进行了附和但附和的次数过多且在会议中没怎么发表意见的人或者与其类似的人,对该人给予的低的评价级别。
另外,在评价部103判定为关于该意见的合计值为第一意见评价值以上的情况下(在步骤S204中为是时),将对具有关于该意见的合计值的人的评价判定为第三高级别(步骤S207)。第三高级别是指,作为在会议中虽然附和的次数过多但发表了较多的意见从而对会议有贡献的人或者与其类似的人,对该人给予的高的评价级别。
根据这样的评价级别判定处理,能够根据进行的附和和发表的意见的次数,可靠地判定进行了该附和的人的对会议的贡献度。
接下来,对在如上述这样赋予了评价得分之后,对人P1、P2、P3各人判定评价级别的评价级别判定处理的第二变形例进行说明。图15是示出对人P1、P2、P3各人进行评价的评价级别判定处理的第二变形例的流程图。
对着重于向各人进行的附和以及发表的意见赋予的评价得分的合计值而进行对各人判定评价级别的评价级别判定处理的方法进行说明。
该情况下,统计部104对于人P1、P2、P3的每个人,算出对附和以及意见赋予的评价得分的合计值(步骤S301)。此外,在第二实施方式中对附和以及意见赋予的任何评价得分,统计部104都能够作为该合计值而算出。
接着,评价部103判定该合计值是否为预定的综合评价值以上(步骤S302)。综合评价值是用于判定各人是否对会议有贡献而预定的值。例如,在十分钟的会议中五十分作为综合评价值被使用。
在此处,在评价部103判定为关于该附和以及意见的合计值为上述综合评价值以上的情况下(在步骤S302中为是时),将对具有该综合评价值的人的综合评价判定为预定的高水准级别(步骤S303)。高水准级别是指,作为在会议中适度地进行了附和以及发表了意见从而对会议有贡献的人或者与其类似的人,对该人给予的高评价。
另一方面,在评价部103判定为关于该附和以及意见的合计值未达到综合评价值的情况下(在步骤S302中为否时),将对具有该综合评价值的人的综合评价判定为预定的一般级别(步骤S304)。一般级别是指,作为比高水准级别的人对会议的贡献少的人或者与其类似的人,对该人给予的评价。
接着,评价部103制作将对于人P1、P2、P3的每个人算出的上述评价得分的合计值图表化的图像(步骤S305)。控制部100使该制作的图像在显示部115上显示(步骤S306)。
图16是示出通过评价部103制作的、将评价得分的合计值图表化的图像的例子的图。图16中所示的图像将横轴作为时刻(经过时间),将纵轴作为各人的得分比例(将在纵向上表示各人的得分的宽度设为与得分比例对应的宽度),并通过评价部103制作。得分比例是指,各人的合计值对于合算值的比例,该合算值是将对每个人算出的评价得分的合计值进行合算的值。
根据图16中所示的图像,能够使用户在视觉上把握人P1、P2、P3各人随着时间的经过对于会议的贡献度以及该贡献度的比例的时序性变化。例如,能够把握到以下内容:在会议最初开始经过十分钟的时间点下,贡献度按人P1、人P2、人P3的顺序高,但从经过十五分钟的时间点附近开始,人P2的贡献度变得更高,在会议结束时的经过六十分钟时,人P1、人P2、人P3的贡献度变得大致相同。
使用图1至图16通过上述实施方式表示的结构以及处理,不过是本发明的一种实施方式,并不意味着将本发明限定于该结构以及处理。例如,作为信息处理装置1,除了能够将至少具备与图2中所示的结构相同的结构的图像形成装置适用于本发明以外,还能够将具备图2中所示的结构的个人计算机或通信终端装置等信息处理装置适用于本发明。
Claims (6)
1.一种信息处理装置,其特征在于,具备:
通信接口,其用于进行与外部的数据通信;
发言时间检测部,其用于从经由所述通信接口获取到的语音数据,提取人的各个发言,并检测关于提取到的各个发言的发言时间;
附和·意见判定部,其用于将所述语音数据文本化,并判定通过所述发言时间检测部检测到的所述发言时间是否为预定的第一时间以内,在所述第一时间以内的发言包括预定的关键词的情况下将该发言判定为附和,将在比所述第一时间长的预定的第二时间中作出的发言判定为意见,并对每个所述人提取在所述发言中出现预定次数以上的频繁关键词;
存储部,其用于将通过所述附和·意见判定部判定出的结果和所述附和以及意见的各发言时间与所述频繁关键词共同存储;
在所述发言中包括从所述预定的关键词中进一步特定的特定关键词的情况下,所述附和·意见判定部将该发言判定为附和,并且判定为表示同意的点头。
2.根据权利要求1所述的信息处理装置,其特征在于,还具备显示部,其用于显示在所述存储部中存储的所述判定出的结果和所述附和以及意见的各发言时间。
3.根据权利要求1所述的信息处理装置,其特征在于,所述发言时间检测部还用于对多人的所述语音数据分别单独地检测所述发言时间,
所述附和·意见判定部还用于基于通过所述发言时间检测部检测到的关于各人的各自的所述发言时间,来判定所述附和以及意见,
所述存储部还用于对每个所述人存储通过所述附和·意见判定部判定出的结果和所述附和以及意见的各发言时间。
4.一种信息处理装置,其特征在于,具备:
通信接口,其用于进行与外部的数据通信;
存储部;
控制单元,其包括处理器,用于通过该处理器执行说话解析程序,从而作为发言时间检测部和附和·意见判定部起作用,
所述发言时间检测部用于从经由所述通信接口获取到的语音数据,提取人的各个发言,并检测关于提取到的各个发言的发言时间,
所述附和·意见判定部用于将所述语音数据文本化,并判定通过所述发言时间检测部检测到的所述发言时间是否为预定的第一时间以内,在所述第一时间以内的发言包括预定的关键词的情况下将该发言判定为附和,将在比所述第一时间长的预定的第二时间中作出的发言判定为意见,并对每个所述人提取在所述发言中出现预定次数以上的频繁关键词,并使表示所述发言是所述附和还是所述意见的判定结果和所述附和以及意见的各发言时间与所述频繁关键词共同存储到所述存储部中;
在所述发言中包括从所述预定的关键词中进一步特定的特定关键词的情况下,所述附和·意见判定部还用于将该发言判定为附和,并且判定为表示同意的点头。
5.根据权利要求4所述的信息处理装置,其特征在于,还具备显示部,
所述控制单元还作为控制部起作用,所述控制部用于使在所述存储部中存储的所述判定结果和所述附和以及意见的各发言时间在所述显示部上显示。
6.根据权利要求4所述的信息处理装置,其特征在于,还具备在记录介质上形成图像的图像形成部,
所述控制单元还作为控制部起作用,所述控制部还用于使所述图像形成部在所述记录介质上形成图像,所述图像示出在所述存储部中存储的所述判定结果和所述附和以及意见的各发言时间。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018066137 | 2018-03-29 | ||
JP2018-066137 | 2018-03-29 | ||
PCT/JP2018/046437 WO2019187397A1 (ja) | 2018-03-29 | 2018-12-18 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110612568A CN110612568A (zh) | 2019-12-24 |
CN110612568B true CN110612568B (zh) | 2023-01-03 |
Family
ID=68061179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880004626.6A Active CN110612568B (zh) | 2018-03-29 | 2018-12-18 | 信息处理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11282518B2 (zh) |
JP (1) | JP6747592B2 (zh) |
CN (1) | CN110612568B (zh) |
WO (1) | WO2019187397A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022173044A1 (ja) * | 2021-02-12 | 2022-08-18 | 正林 真之 | 情報処理装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098919A (ja) * | 2004-09-30 | 2006-04-13 | Oki Electric Ind Co Ltd | 音声情報検出装置及び方法 |
JP2008011272A (ja) * | 2006-06-29 | 2008-01-17 | Canon Marketing Japan Inc | 会議システム及び制御方法、並びにプログラム及び記憶媒体 |
CN105704425A (zh) * | 2014-12-09 | 2016-06-22 | 统有限责任两合公司 | 会议系统和用于控制会议系统的方法 |
CN106503030A (zh) * | 2015-09-03 | 2017-03-15 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252458A (ja) * | 2005-03-14 | 2006-09-21 | Yamaha Corp | 複数話者の音声信号を処理する音声信号処理装置およびプログラム |
JP2007286097A (ja) * | 2006-04-12 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体 |
US7962525B2 (en) * | 2007-11-05 | 2011-06-14 | Microsoft Corporation | Automated capture of information generated at meetings |
US8370142B2 (en) * | 2009-10-30 | 2013-02-05 | Zipdx, Llc | Real-time transcription of conference calls |
US8204759B2 (en) * | 2009-11-30 | 2012-06-19 | International Business Machines Corporation | Social analysis in multi-participant meetings |
US20110225013A1 (en) * | 2010-03-10 | 2011-09-15 | Avaya Inc | Conference productivity and thick client method |
JP2011205243A (ja) * | 2010-03-24 | 2011-10-13 | Sharp Corp | 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム |
US9053750B2 (en) * | 2011-06-17 | 2015-06-09 | At&T Intellectual Property I, L.P. | Speaker association with a visual representation of spoken content |
US9245254B2 (en) * | 2011-12-01 | 2016-01-26 | Elwha Llc | Enhanced voice conferencing with history, language translation and identification |
US20130266127A1 (en) * | 2012-04-10 | 2013-10-10 | Raytheon Bbn Technologies Corp | System and method for removing sensitive data from a recording |
US9002938B2 (en) * | 2012-04-26 | 2015-04-07 | International Business Machines Corporation | Notifying electronic meeting participants of interesting information |
WO2014069122A1 (ja) * | 2012-10-31 | 2014-05-08 | 日本電気株式会社 | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 |
US9257117B2 (en) * | 2014-02-04 | 2016-02-09 | Avaya Inc. | Speech analytics with adaptive filtering |
US20150310863A1 (en) * | 2014-04-24 | 2015-10-29 | Nuance Communications, Inc. | Method and apparatus for speaker diarization |
US9661474B2 (en) * | 2014-07-23 | 2017-05-23 | International Business Machines Corporation | Identifying topic experts among participants in a conference call |
JP6401079B2 (ja) * | 2015-03-04 | 2018-10-03 | Kddi株式会社 | グループ毎の討論の活性化を推定する装置及びプログラム |
US9672829B2 (en) * | 2015-03-23 | 2017-06-06 | International Business Machines Corporation | Extracting and displaying key points of a video conference |
JP6817580B2 (ja) * | 2016-09-07 | 2021-01-20 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理システム及び情報処理装置 |
US20180232705A1 (en) * | 2017-02-15 | 2018-08-16 | Microsoft Technology Licensing, Llc | Meeting timeline management tool |
US11386381B2 (en) * | 2018-06-06 | 2022-07-12 | International Business Machines Corporation | Meeting management |
US10636427B2 (en) * | 2018-06-22 | 2020-04-28 | Microsoft Technology Licensing, Llc | Use of voice recognition to generate a transcript of conversation(s) |
-
2018
- 2018-12-18 WO PCT/JP2018/046437 patent/WO2019187397A1/ja active Application Filing
- 2018-12-18 JP JP2019527271A patent/JP6747592B2/ja not_active Expired - Fee Related
- 2018-12-18 US US16/479,306 patent/US11282518B2/en active Active
- 2018-12-18 CN CN201880004626.6A patent/CN110612568B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098919A (ja) * | 2004-09-30 | 2006-04-13 | Oki Electric Ind Co Ltd | 音声情報検出装置及び方法 |
JP2008011272A (ja) * | 2006-06-29 | 2008-01-17 | Canon Marketing Japan Inc | 会議システム及び制御方法、並びにプログラム及び記憶媒体 |
CN105704425A (zh) * | 2014-12-09 | 2016-06-22 | 统有限责任两合公司 | 会议系统和用于控制会议系统的方法 |
CN106503030A (zh) * | 2015-09-03 | 2017-03-15 | 卡西欧计算机株式会社 | 对话控制装置、对话控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210335352A1 (en) | 2021-10-28 |
US11282518B2 (en) | 2022-03-22 |
JPWO2019187397A1 (ja) | 2020-04-30 |
JP6747592B2 (ja) | 2020-08-26 |
WO2019187397A1 (ja) | 2019-10-03 |
CN110612568A (zh) | 2019-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107818798B (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
CN111128223B (zh) | 一种基于文本信息的辅助说话人分离方法及相关装置 | |
KR102476099B1 (ko) | 회의록 열람 문서 생성 방법 및 그 장치 | |
JP5083033B2 (ja) | 感情推定装置及びプログラム | |
CN108550054A (zh) | 一种内容质量评估方法、装置、设备和介质 | |
JP2018169506A (ja) | 会話満足度推定装置、音声処理装置および会話満足度推定方法 | |
CN112468659A (zh) | 应用于电话客服的质量评价方法、装置、设备及存储介质 | |
JP2020095210A (ja) | 議事録出力装置および議事録出力装置の制御プログラム | |
van Turnhout et al. | Identifying the intended addressee in mixed human-human and human-computer interaction from non-verbal features | |
CN110612568B (zh) | 信息处理装置 | |
JP2020160425A (ja) | 評価システム、評価方法、及びコンピュータプログラム。 | |
CN108538292B (zh) | 一种语音识别方法、装置、设备及可读存储介质 | |
Nihei et al. | Meeting extracts for discussion summarization based on multimodal nonverbal information | |
CN116436715A (zh) | 视频会议控制方法、装置、设备及计算机可读存储介质 | |
KR101411039B1 (ko) | 음성인식을 이용한 발음 평가 방법 및 이를 적용한 전자기기 | |
WO2020196743A1 (ja) | 評価システム及び評価方法 | |
CN111149153A (zh) | 信息处理装置以及说话解析方法 | |
JP6733901B2 (ja) | 心理分析装置、心理分析方法、およびプログラム | |
JP6285377B2 (ja) | コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム | |
CN114822557A (zh) | 课堂中不同声音的区分方法、装置、设备以及存储介质 | |
JP2019175382A (ja) | 情報処理装置 | |
JP2019174768A (ja) | 情報処理装置 | |
Srinarong et al. | A Development of Personality Recognition Model from Conversation Voice in Call Center Context | |
JP7253371B2 (ja) | 抽出プログラム、抽出方法、および、抽出装置 | |
JP5763573B2 (ja) | 質問相手選択装置、質問相手選択方法および質問相手選択プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |