CN109906466A - 信息处理设备和信息处理方法 - Google Patents

信息处理设备和信息处理方法 Download PDF

Info

Publication number
CN109906466A
CN109906466A CN201780067884.4A CN201780067884A CN109906466A CN 109906466 A CN109906466 A CN 109906466A CN 201780067884 A CN201780067884 A CN 201780067884A CN 109906466 A CN109906466 A CN 109906466A
Authority
CN
China
Prior art keywords
user
voice
application service
voice messaging
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780067884.4A
Other languages
English (en)
Other versions
CN109906466B (zh
Inventor
井原圭吾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN109906466A publication Critical patent/CN109906466A/zh
Application granted granted Critical
Publication of CN109906466B publication Critical patent/CN109906466B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Otolaryngology (AREA)
  • Game Theory and Decision Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

[问题]提供一种信息处理设备和信息处理方法,所述信息处理设备和信息处理方法使得能够收集用户发出的语音,并且基于用户在预定时间段中说话的次数来识别特定用户。[解决方案]一种信息处理设备,设置有:通信单元,其能够接收有关由离散布置的多个麦克风收集的语音的语音信息;以及控制单元,其将基于语音信息而识别的用户确定为在至少一定时间段内进行了预定次数或更多次数的讲话的特定用户,其中该语音信息是通过通信单元接收的,并且与多个麦克风中的特定麦克风所收集的语音有关,并且控制单元控制与特定麦克风对应的扬声器,以通过通信单元发送要发送给特定用户的语音信息。

Description

信息处理设备和信息处理方法
技术领域
本公开内容涉及信息处理设备和信息处理方法。
背景技术
常规地,存在着以下服务:通过在智能手机等中激活的应用,使用定位技术来测量用户的访问频率,以及向用户提供访问点、优惠信息等。
此处,关于顾客识别技术,例如,下面描述的专利文献1公开了一种在线卡拉OK系统,该系统基于通过分析卡拉OK的歌声而生成的语音特征数据,从顾客数据库中提取预先登记的个人信息并且识别顾客,以及输出所分配的消息。
另外,下面描述的专利文献2公开了一种在线卡拉OK系统,该系统从ID卡读取顾客ID,并且基于对相应的基于顾客的记录的内容的分析结果向顾客输出消息。
另外,下面描述的专利文献3公开了一种顾客管理设备,该设备从诸如积分卡的顾客记录介质读取顾客信息,根据顾客访问娱乐厅的次数以及娱乐厅的营业天数来计算顾客的访问率,准确地确定顾客是常客还是非常客,并且将确定结果用于娱乐厅的经营策略。
引用列表
专利文献
专利文献1:JP2011-43715A
专利文献2:JP 2004-46233A
专利文献3:JP 2001-300099A
发明内容
技术问题
然而,在所有上述技术中,必须预先登记顾客信息,但是用户对于登记个人信息有抵触性。另外,为了接收服务,在用户访问商店时用户需要出示ID卡或积分卡,这就很麻烦。
另外,需要使用智能手机和应用的系统存在这样的问题:不习惯使用设备的老年人无法使用该系统。
鉴于前述情况,本公开内容提出了下述信息处理设备和信息处理方法:所述信息处理设备和信息处理方法可以收集用户的话语语音,并且基于用户在预定时间段内说话的次数来识别特定用户。
问题的解决方案
根据本公开内容,提出了一种信息处理设备,包括:通信单元,其能够接收有关由离散布置的多个麦克风收集的语音的语音信息;以及控制单元,其被配置成:将基于语音信息而识别的用户确定为在至少一定时间段内进行了预定次数或更多次数的讲话的特定用户,其中该语音信息有关由多个麦克风中的特定麦克风收集的语音,该语音信息是经由通信单元接收的,并且控制单元将要发送给特定用户的语音信息控制为经由通信单元发送到与特定麦克风对应的扬声器。
根据本公开内容,提出了一种信息处理方法,包括:由处理器将基于语音信息而识别的用户确定为在至少一定时间段内进行了预定次数或更多次数的讲话的特定用户,其中,该语音信息有关由离散布置的多个麦克风中的特定麦克风收集的语音,该语音信息已经由通信单元接收,通信单元能够接收有关由多个麦克风收集的语音的语音信息;以及将要发送给特定用户的语音信息控制为经由通信单元发送到与特定麦克风对应的扬声器。
本发明的有益效果
如上所述,根据本公开内容,可以收集用户的话语语音,并且可以基于用户在预定时间段内说话的次数来识别特定用户。
注意,上述效果不一定是限制性的。与上述效果一起或代替于上述效果,可以实现本说明书中描述的任何一种效果或者可从本说明书中理解的其他效果。
附图说明
[图1]是描述根据本公开内容的实施方式的信息处理系统的概况的图。
[图2]是示出根据本实施方式的信息处理系统的整体配置的示例的图。
[图3]是示出根据本实施方式的终端设备的配置的示例的图。
[图4]是示出根据本实施方式的服务器的配置的示例的图。
[图5]是示出根据本实施方式的应用服务管理表的示例的图。
[图6]是示出根据本实施方式的应用服务关键字列表的示例的图。
[图7]是示出根据本实施方式的应用服务终端列表的示例的图。
[图8]是示出根据本实施方式的用户管理表的示例的图。
[图9]是示出根据本实施方式的用户关键字历史的示例的图。
[图10]是示出根据本实施方式的用户识别历史的示例的图。
[图11]是示出根据本实施方式的应用服务的登记处理的序列图。
[图12]是示出根据本实施方式的信息处理系统的响应处理的序列图。
[图13]是示出根据本实施方式的信息处理系统的响应处理的序列图。
[图14]是描述第一实施方式的概况的图。
[图15]是示出根据第一实施方式的优质用户的确定处理的流程图。
[图16]是示出根据第一实施方式的响应语音数据的生成处理的流程图。
[图17]是描述第二实施方式的概况的图。
[图18]是示出根据第二实施方式的优质用户的确定处理的流程图。
[图19]是示出根据第二实施方式的响应语音数据的生成处理的流程图。
[图20]是描述第二实施方式的应用示例的图。
[图21]是描述第三实施方式的概况的图。
[图22]是示出根据第三实施方式的优质用户的确定处理的流程图。
[图23]是示出根据第三实施方式的响应语音数据的生成处理的流程图。
[图24]是描述第三实施方式的应用示例1的概况的图。
[图25]是示出根据第三实施方式的应用示例1的优质用户的确定处理的流程图。
[图26]是示出根据第三实施方式的应用示例1的响应语音数据的生成处理的流程图。
[图27]是示出根据第三实施方式的应用示例1的游戏历史的管理处理的序列图。
[图28]是描述第三实施方式的应用示例2的概况的图。
[图29]是示出根据第三实施方式的应用示例2的优质用户的确定处理的流程图。
[图30]是示出根据第三实施方式的应用示例2的响应语音数据的生成处理的流程图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的优选实施方式。注意,在本说明书和附图中,具有基本相同的功能和结构的结构元件用相同的附图标记来表示,并且省略对这些结构元件的重复说明。
另外,将按以下顺序给出描述。
1.根据本公开内容的实施方式的信息处理系统的概况
2.配置
2-1.终端设备1的配置
2-2.服务器2的配置
3.操作处理
3-1.登记处理
3-2.响应处理
4.实施方式
4-1.第一实施方式
4-2.第二实施方式
4-3.第三实施方式
(4-3-1.应用示例1)
(4-3-2.应用示例2)
5.结论
<<1.根据本公开内容的实施方式的信息处理系统的概况>>
图1是描述根据本公开内容的实施方式的信息处理系统的概况的图。如图1所示,根据本实施方式的信息处理系统通过具有语音输入和输出功能的终端设备1来收集用户的话语语音,并且向被确定为满足预定条件的特定用户的用户输出预定响应语音。
具体地,例如,在商店中低语“有没有我喜欢的东西?”的用户的语音被安装在商店中的终端设备1的语音输入单元12(麦克风)收集,通过分析用户的语音信息的声纹来执行对用户的识别,并且确定该用户是否为常客(例如,是否在预定时间段内有预定天数在商店中执行了对基于声纹分析而识别的用户的语音辨识)。然后,在用户满足确定条件的情况下,确定该用户是常客,并且输出对常客的特殊响应(例如,“重要顾客专享的牛排肉特价销售”等),作为从终端设备1的语音输出单元13(扬声器)输出的语音,如图1所示。
以这种方式,在本实施方式中,因为通过话语语音分析来执行可靠识别,所以不需要预先登记诸如用户的姓名和地址之类的个人信息,此外,可以在不出示ID卡、积分卡等的情况下执行对常客的确定。另外,通常在商店中进行购买行为时建立ID卡、积分卡等,但是在如本实施方式中那样执行基于语音的可靠识别的情况下,并不总是需要先前的购买行为。另外,当用户在商店中与店员或其他顾客交谈、问候、自言自语、低语、与语音助理交谈等时,可以收集用户的话语语音。另外,还可以达到以下效果:与通过相机对其面部进行成像的面部辨识相比,顾客(用户)在心理上对基于语音的个人识别较不抵触。
随后,将参照图2描述根据本实施方式的这种信息处理系统的整体配置。图2是示出根据本实施方式的信息处理系统的整体配置的示例的图。
如图2所示,根据本实施方式的信息处理系统包括服务器2以及设置在各种位置处的多个终端设备1(此处,作为示例示出了三个终端设备1a至1c)。假设若干个终端设备1被安装在城市中的各种位置处,例如商业街、百货商店、餐馆、服装店和游戏厅。另外,终端设备1的形式没有特别限制,例如,终端设备1可以被设置在毛绒玩具、游戏机、商店中的机器人、本地吉祥物的服装中。
服务器2经由网络3与多个终端设备1连接,并且相互执行数据发送和接收。另外,服务器2对从多个终端设备1接收的语音信息执行声纹分析,执行用户的识别(个人识别),并且进一步确定用户是否是满足预定条件的优质用户。另外,在确定该用户是优质用户的情况下,获取针对优质用户的响应语音数据,并且将该响应语音数据发送到终端设备1。从相应的预定应用服务服务器4(4a至4c)获取针对优质用户的响应语音数据。应用服务服务器4是与要在每个终端设备1中应用的应用服务对应的服务器,并且应用服务服务器4在与要应用服务的终端设备1的ID(终端ID)有关的信息以及服务中保存优质用户的确定条件。另外,应用服务服务器4响应于来自服务器2的请求,为优质用户生成响应语音数据(重要顾客信息等),并且将所生成的响应语音数据发送到服务器2。
在上文中,描述了根据本公开内容的实施方式的信息处理系统。随后,将参照附图描述根据本实施方式的信息处理系统中包括的每个设备的具体配置。
<<2.配置>>
<2-1.终端设备1的配置>
图3是示出根据本实施方式的终端设备1的配置的示例的框图。如图3所示,终端设备1包括控制单元10、通信单元11、语音输入单元12、语音输出单元13和存储单元14。
控制单元10充当算术处理设备和控制设备,并且根据各种程序控制终端设备1中的整体操作。例如,控制单元10由诸如中央处理单元(CPU)和微处理器的电子电路实现。另外,控制单元10可以包括存储要使用的程序、计算参数等的只读存储器(ROM),以及临时存储适当变化的参数等的随机存取存储器(RAM)。
另外,根据本实施方式的控制单元10控制语音输入单元12所收集的语音信息(具体地,用户的话语语音信息)被从通信单元11连续地发送到服务器2。例如,由此,用户在商店中说出的语音被自动发送到服务器2,并且执行关于用户是否是优质用户(诸如常客或重要顾客)的确定。要发送到服务器2的语音信息可以是原始语音数据,或者可以是已经执行了诸如编码或特征量提取的处理的经处理的语音数据。另外,控制单元10控制从服务器2接收的语音信息(具体地,针对优质用户的响应语音数据)被从语音输出单元13再现。由此,可以向优质用户呈现信息。
另外,控制单元10可以具有自动响应用户话语的语音代理(voiceagent)的功能。对用户话语的响应模式可以被存储在存储单元14中,或者可以从服务器2获取。
语音输入单元12由麦克风、执行对麦克风获得的语音信号进行放大处理的麦克风放大器单元、以及将语音信号转换成数字信号的A/D转换器来实现,并且语音输入单元12将语音信号输出到控制单元10。
语音输出单元13包括再现语音信号的扬声器以及用于扬声器的放大器电路。
通信单元11以有线或无线方式与网络3连接,并且通过网络与服务器2进行数据发送和接收。例如,通信单元11通过有线/无线局域网(LAN)、Wi-Fi(注册商标)、蜂窝通信网络(长期演进(LTE)、第三代移动通信方法(3G))等建立与网络3的通信连接。
存储单元14由存储在控制单元10的处理中使用的程序、计算参数等的只读存储器(ROM)以及临时存储适当变化的参数的随机存取存储器(RAM)等来实现。
在上文中,具体描述了根据本实施方式的终端设备1的配置。注意,终端设备1的配置不限于图3所示的示例。例如,语音输入单元12或语音输出单元13中的至少任一个可以与终端设备1分开设置。
<2-2.服务器2的配置>
图4是示出根据本实施方式的服务器2的配置的示例的框图。如图4所示,服务器2(信息处理设备)包括控制单元20、网络通信单元21、应用服务服务器接口(I/F)22和存储单元23。
(控制单元20)
控制单元20充当算术处理设备和控制设备,并且根据各种程序控制服务器2中的整体操作。例如,控制单元20由诸如中央处理单元(CPU)和微处理器的电子电路来实现。另外,控制单元20可以包括存储要使用的程序、计算参数等的只读存储器(ROM),以及临时存储适当变化的参数等的随机存取存储器(RAM)。
另外,如图4所示,根据本实施方式的控制单元20充当应用服务管理单元20a、用户信息管理单元20b、声纹分析单元20c、语音识别单元20d、用户识别单元20e、优质用户确定单元20f和响应语音数据获取单元20g。
应用服务管理单元20a使用存储在存储单元23中的应用服务管理表、应用服务关键字列表和应用服务终端列表来执行对关于应用服务的信息的管理(例如,数据的读出和写入等)。经由应用服务服务器I/F 22从每个应用服务服务器4获取关于应用服务的信息。
此处,图5示出了根据本实施方式的应用服务管理表的示例。如图5所示,应用服务管理表存储与应用服务ID相关联的应用名称和优质用户确定条件。应用服务ID是应用服务的标识信息。应用名称是应用服务的名称。优质用户确定条件是应用服务所针对的优质用户的确定条件,并且示例包括在预定时间段内的访问次数(用户说话的天数)、用户说出预定关键字的次数等。另外,可以设置多个优质用户确定条件。例如,在图5所示的示例中,在应用服务ID:app0001中,作为“对于重要顾客的ABC商业街活动”,可以将在一个月内订购了牛肉干达十次或更多次的人确定为要进行牛肉干的特价销售的目标优质用户,并且可以将在一个月内订购了牛排肉达五次或更多次的人确定为要进行牛排肉的特价销售的目标优质用户。
另外,图6示出了应用服务关键字列表的示例。如图6所示,应用服务关键字列表是与应用服务ID相关联的关键字的列表。具体地,应用服务关键字列表是要在优质用户确定中使用的关键字的列表。注意,与每个应用服务ID相关联的关键字的数目不限于一个,并且多个关键字可以与每个应用服务ID相关联。另外,还可以关联具有特定关键字的较窄概念的关键字。
另外,图7示出了应用服务终端列表的示例。应用服务终端列表是与应用服务ID相关联的终端设备的列表。例如,在图7所示的示例中,登记了具有应用服务ID:app0001的应用服务所要被应用到的终端设备的ID:dev0001、dev0002等。
用户信息管理单元20b使用存储在存储单元23中的用户管理表来执行对关于用户的信息的管理。关于用户的信息包括由系统侧分配给每个用户的用户ID、声纹分析结果(声纹数据)、用户说出的关键字的历史以及用户识别历史。在下文中,将参照图8至图10描述用户信息的具体示例。
图8是示出根据本实施方式的用户管理表的示例的图。如图8所示,用户管理表包括分配给每个用户的用户ID、该用户的声纹数据以及每个应用服务可以自由使用的“应用服务数据”区域。通过将应用服务数据与每个用户ID相关联地存储,可以实现与每个应用所独特提供的功能进行协作。
图9是示出用户关键字历史的示例的图。如图9所示,在用户关键字历史中,用户说出预定关键字的时间和日期(登记的时间和日期)以及相应应用服务ID被与用户ID相关联地累积。由此,可以确定用户是否在预定时间段内说出了预定关键字。
图10是示出用户识别历史的示例的图。如图10所示,作为用户识别历史,识别到用户的终端设备的ID以及识别时间和日期(登记的时间和日期)被与用户ID相关联地累积。由此,例如,可以确定用户访问商业街或购物中心的次数。
声纹分析单元20c对网络通信单元21从终端设备1接收的用户话语的语音信息执行声纹分析,并且获取声纹数据(即声纹分析结果)。在本实施方式中,对声纹分析的算法没有特别限制。声纹数据因人而异,可以进行个人识别。
语音识别单元20d将用户话语的语音信息转换成文本并且执行形态分析(morphological analysis)等,并且执行关键字提取、含义理解、属性评估等。属性评估是对说话者的性别、年龄等的估计。
用户识别单元20e基于由声纹分析单元20c获得的声纹分析结果来执行用户的识别。具体地,使用存储在存储单元23中的用户管理表,用户识别单元20e将与每个用户ID相关联的声纹数据和声纹分析结果进行比较,并且识别已经产生了语音的用户。
参考存储在存储单元23中的优质用户确定条件,优质用户确定单元20f确定由用户识别单元20e识别的用户是否为优质用户。例如,参考存储在存储单元23中的用户信息(用户关键字历史和用户识别历史),优质用户确定单元20f将在至少一定时间段内说话达预定次数或更多次数的用户确定为优质用户(特定用户的示例)。另外,如参照图5所述,针对每个应用服务设置优质用户确定条件。因此,优质用户确定单元20f使用以下应用服务的确定条件来执行优质用户的确定:该应用服务要被应用于收集了用户话语语音的终端设备1。
响应语音数据获取单元20g获取对用户话语的响应语音数据。具体地,例如,响应语音数据获取单元20g向应用服务服务器4发送被用户满足的确定条件、收集了用户的话语语音的终端设备ID等,并且请求和获取对优质用户的响应语音数据。由响应语音数据获取单元20g获取的响应语音数据经由网络通信单元21发送到终端设备1(包括与收集了优质用户的话语语音的麦克风对应的扬声器的设备)。
(网络通信单元21)
网络通信单元21以有线或无线方式与网络3连接,并且经由网络3与每个终端设备1进行数据发送和接收。例如,网络通信单元21通过有线/无线局域网(LAN)、无线保真(Wi-Fi,注册商标)等与网络3建立通信连接。
(应用服务服务器I/F 22)
应用服务服务器I/F 22与应用服务服务器4进行数据发送和接收。与应用服务服务器I/F 22的通信可以经由专用电路执行,或者可以经由网络3执行。
(存储单元23)
存储单元23由存储用于控制单元20的处理的程序、计算参数等的ROM以及临时存储适当变化的参数等的RAM来实现。例如,根据本实施方式的存储单元23存储上面已经描述过的应用服务管理表、应用服务关键字列表、应用服务终端列表、用户管理表、用户关键字历史和用户识别历史。
在上文中,具体描述了根据本实施方式的服务器2的配置。
<<3.操作处理>>
随后,将使用附图具体描述根据本实施方式的信息处理系统的操作处理。
<3-1.登记流程>
首先,将参照图11描述应用服务的登记处理。图11是示出根据本实施方式的应用服务的登记处理的序列图。
如图11所示,首先,应用服务服务器4将分配给自身的应用服务ID和名称信息发送到服务器2(步骤S103)。
接下来,服务器2的应用服务管理单元20a将所接收的应用服务ID和名称信息登记到存储在存储单元23中的应用服务管理表中(步骤S106)。
随后,应用服务服务器4将要应用其自身提供的应用服务的终端设备的ID发送到服务器2(步骤S109)。
接下来,服务器2的应用服务管理单元20a将所接收的终端设备的ID与应用服务ID相关联地登记到存储单元23中所存储的应用服务终端列表中(步骤S112)。
随后,应用服务服务器4将要被语音识别的关键字的列表发送到服务器2(步骤S115)。
接下来,服务器2的应用服务管理单元20a为所接收的关键字列表中包括的每个关键字分配唯一ID,并且将ID和关键字与应用服务ID相关联地登记到存储单元23中所存储的应用服务关键字列表中(步骤S118)。
随后,应用服务服务器4将优质用户的确定条件发送到服务器2(步骤S121)。
接下来,服务器2的应用服务管理单元20a将所接收的确定条件与应用服务ID相关联地登记到存储单元23中所存储的应用服务管理表中(步骤S124)。
对于每个应用服务,在应用服务服务器与服务器2之间适当地执行上面描述过的应用服务的登记处理。
<3-2.响应处理>
随后,将参照图12和图13描述用于确定优质用户以及执行基于预定应用服务的响应的操作处理。图12和图13是示出根据本实施方式的信息处理系统的响应处理的序列图。
如图12所示,首先,终端设备1使用语音输入单元12收集用户话语(步骤S203)。终端设备1例如被设置在商店内或商店的入口处,并且持续地收集用户的谈话、低语等。
接下来,终端设备1将终端设备1的ID和所收集的语音信息发送到服务器2(步骤S206)。
随后,服务器2使用声纹分析单元20c对所接收的语音信息执行声纹分析(步骤S209)。
接下来,服务器2使用用户识别单元20e对照用户管理表来检查声纹分析的结果(步骤S212)。因为用户管理表存储与用户ID相关联的声纹数据,如参照图8所述,因此通过将声纹分析结果与声纹数据进行比较,能够识别用户。
随后,在相应用户未被存储在用户管理表中的情况下(步骤S215/否),声纹分析的结果被用户信息管理单元20b登记到用户管理表中,作为新用户的声纹数据(步骤S218)。
接下来,用户信息管理单元20b将识别到用户的时间和日期以及所接收的终端设备的ID记录到用户识别历史中(步骤S221)。“用户已被识别”的情况对应于在上述步骤S215中存在相应用户的情况,或者在上述步骤S218中登记了新用户的情况。
随后,服务器2使用语音识别单元20d对从终端设备1接收的用户话语的语音信息执行语音识别,并且从话语内容中提取关键字(步骤S224)。具体地,语音识别单元20d执行语音信息的文本转换和形态分析,并且从话语文本中执行关键字的提取(此处,广泛地提取词汇)。
接下来,如图13所示,服务器2使用应用服务管理单元20a对照应用服务终端列表来检查所接收的终端设备1的ID(参见图7),并且提取要应用于终端设备1的应用服务ID(步骤S227)。
随后,语音识别单元20d获取针对所提取的应用服务ID而登记的关键字列表(参见图6)(步骤S230)。
接下来,语音识别单元20d确定通过语音识别从用户话语的语音信息中提取的关键字是否被包括在上述关键字列表中(步骤S233)。
随后,在关键字被包括在关键字列表中的情况下(步骤S233/是),用户信息管理单元20b将关键字记录到用户关键字历史中(参见图9)(步骤S236)。
接下来,优质用户确定单元20f执行优质用户确定处理(步骤S239)。具体地,根据在应用服务管理表中设置的优质用户确定条件,优质用户确定单元20f确定已经说话的用户是否为优质用户。注意,优质用户确定条件根据要应用的应用服务而变化。稍后将使用多个实施方式来描述优质用户确定条件的具体示例。
随后,在优质用户确定单元20f确定该用户不是优质用户的情况下(步骤S242/否),服务器2通知终端设备1该用户不是优质用户(步骤S245)。
然后,在服务器2确定该用户不是优质用户的情况下,终端设备1不对用户执行响应(步骤S248)。注意,即使终端设备1没有对基于应用服务的优质用户执行响应,终端设备1也可以通过语音代理对一般用户执行自动响应,例如“欢迎”。
另一方面,在确定该用户是优质用户的情况下(步骤S242/是),服务器2向要应用的应用服务ID所指示的应用服务服务器4发送相应的确定条件等(例如,包括相应的确定条件、优质用户的用户ID和终端设备ID)(步骤S251)。
接下来,根据从服务器2接收的信息,应用服务服务器4为优质用户生成响应语音数据(步骤S254)。针对优质用户的响应语音数据可以被预先保存在应用服务服务器4中,或者可以通过预定算法生成。注意,稍后将使用多个实施方式来描述要生成的响应语音数据的具体示例。
随后,应用服务服务器4将所生成的针对优质用户的响应语音数据发送到服务器2(步骤S257)。
接下来,服务器2将从应用服务服务器4接收的响应语音数据发送到终端设备1(步骤S260)。
然后,终端设备1将从服务器2接收的响应语音数据作为语音从语音输出单元13进行输出(步骤S263)。在本实施方式中,由此可以向被确定为优质用户的用户执行基于相应应用服务的特殊响应(例如,为常客提供活动信息等)。
在上文中,描述了根据本实施方式的响应处理。
随后,将使用多个实施方式来描述上面已经描述的优质用户的确定处理和响应语音数据的生成处理的具体示例。
<<4.实施方式>>
<4-1.第一实施方式>
在第一实施方式中,在通过声纹分析而识别的用户在过去以高频率在商店中说话(即,以高频率访问商店)的情况下,确定该用户是优质用户。注意,在本实施方式中使用的应用服务对应于图5所示的应用服务管理表中登记的“应用服务ID:app0002,应用名称:DD商场来访感谢活动,确定条件:用户在一周内有5天来过商店(说话)的情况”。
图14是描述本实施方式的概况的图。在本实施方式中,如图14中的上部所示,例如,在来访用户在预定时间段内(例如在一周内)有预定天数(例如,五天)或更多天数在“DD商场”中安装的多个终端设备1-1a至1-1c(可以是单个)附近说话的情况下,可以估计该用户以高频率访问DD商场。因此,确定该用户是优质用户。
然后,如图14中的下部所示,对于高访问频率,从终端设备1-1d感恩而亲切地输出诸如“感谢您再次光临”之类的特殊响应语音。活动信息可以被一起提供。从而,用户可以感受到来自商店方的感恩和亲切的感觉。注意,所有终端设备1-1a至1-1d是安装在DD商场中的终端设备组,并且当在至少任何终端设备1-1处识别到语音产生时,执行用户识别。然而,本实施方式不限于此,安装在DD商场中的终端设备1-1的数目可以是一个。
(操作处理)
随后,将描述根据第一实施方式的操作处理。因为根据本实施方式的基本操作处理大部分类似于参照图12和图13描述的操作处理,因此此处将参照图15和图16依次描述本实施方式特有的处理,即优质用户确定处理(图13中所示的步骤S239)和响应语音数据生成处理(图13中所示的步骤S254)。
·优质用户确定处理
图15是示出根据第一实施方式的优质用户的确定处理的流程图。如图15所示,首先,服务器2的优质用户确定单元20f参考存储在存储单元23中的用户识别历史(参见图10)和应用服务终端列表,并且获取关于以下终端设备的用户的语音产生频率:该终端设备属于要应用的应用服务ID(步骤S303)。具体地,例如,优质用户确定单元20f从应用服务终端列表中提取终端设备1-1a至1-1c,其中该终端设备1-1a至1-1c属于与要应用于终端设备1-1d的应用服务ID相同的应用服务ID。随后,优质用户确定单元20f对照用户识别历史进行检查,并且获取由终端设备1-1a至1-1d识别到用户(即,通过声纹分析而识别出用户的语音)的时间和日期(语音产生频率)。
接下来,根据在应用服务管理表中登记的应用服务ID:app0002的优质用户确定条件,优质用户确定单元20f确定该用户是否在过去一周内有五天或更多天说了话(步骤S306)。
随后,在用户满足上述确定条件的情况下(步骤S306/是),优质用户确定单元20f确定该用户是优质用户(步骤S309)。
另一方面,在该用户不满足上述确定条件的情况下(步骤S309/否),优质用户确定单元20f确定该用户不是优质用户(步骤S312)。
在上文中,具体描述了根据第一实施方式的优质用户确定处理。在本实施方式中,在没有专门识别关键字的情况下,将在预定时间段内有预定天数或更多天数说了话的用户(即,估计在预定时间段内有预定天数或更多天数访问商店的用户)确定为优质用户。
·响应语音数据生成处理
图16是示出根据第一实施方式的响应语音数据的生成处理的流程图。如图16所示,例如,基于从服务器2接收的相应确定条件,应用服务服务器4生成诸如“感谢您再次光临”之类的预定响应语音数据(步骤S320)。应用服务服务器4例如可以保存与确定条件对应的响应语音数据或者响应语音数据的生成算法,并且基于从服务器2接收的“相应确定条件”来生成响应语音数据。
在上文中,具体描述了根据第一实施方式的响应语音数据的生成处理。如图13中的步骤S257至S263所示,由应用服务服务器4生成的响应语音数据经由服务器2从应用服务服务器4发送到终端设备1-1,并且作为语音从终端设备1-1进行输出。
<4-2.第二实施方式>
在第二实施方式中,在通过声纹分析而识别出的用户在过去在商店中以高频率说出预定关键字的情况下,确定该用户是优质用户。注意,在本实施方式中使用的应用服务对应于在图5所示的应用服务管理表中登记的“应用服务ID:app0001,应用名称:ABC商业街重要顾客活动,确定条件:用户在一个月内十次订购了“牛肉干”(说出了“牛肉干”)。
图17是描述本实施方式的概况的图。在本实施方式中,如图17中的上部所示,例如,在来访用户在预定时间段(例如,一个月)内在“ABC商业街”中安装的多个终端设备1-2a至1-2c(可以是单个的)附近说出预定关键字“牛肉干”达预定次数(例如十次)或更多次的情况下,可以估计该用户以高频率购买了牛肉干。因此,确定该用户是优质用户。
然后,如图17中的下部所示,诸如“牛肉干现在正在特价销售!”的优惠信息被从终端设备1-2d输出到作为高频率购买“牛肉干”的常客的用户。请注意,所有终端设备1-2a至1-2d是安装在ABC商业街中的终端设备组。并且当在至少任何终端设备1-2中识别到语音产生时,执行用户识别。然而,本实施方式不限于此,终端设备1-2的数目可以是一个。
(操作处理)
随后,将描述根据第二实施方式的操作处理。因为根据本实施方式的基本操作处理大部分类似于参照图12和图13描述的操作处理,因此此处将参照图18和图19依次描述本实施方式特有的处理,即优质用户确定处理(图13中所示的步骤S239)和响应语音数据生成处理(图13中所示的步骤S254)。
·优质用户确定处理
图18是示出根据第二实施方式的优质用户的确定处理的流程图。如图18所示,首先,服务器2的优质用户确定单元20f参考存储在存储单元23中的用户关键字历史(参见图9),并且获取用户说出预定关键字“牛肉干”的频率(步骤S403)。具体地,例如,优质用户确定单元20f从应用服务关键字列表中提取要在以下确定条件中使用的预定关键字:应用于终端设备1-2d的应用服务所针对的优质用户的确定条件。随后,优质用户确定单元20f对照用户关键字历史进行检查,并且获取用户说出预定关键字的时间和日期(语音产生频率)。
接下来,根据在应用服务管理表中登记的应用服务ID:app0001的优质用户确定条件,优质用户确定单元20f确定该用户是否在过去一个月内说出“牛肉干”达十次或更多次(步骤S406)。
随后,在用户满足上述确定条件的情况下(步骤S406/是),优质用户确定单元20f确定该用户是优质用户(步骤S409)。
另一方面,在该用户不满足上述确定条件的情况下(步骤S409/否),优质用户确定单元20f确定该用户不是优质用户(步骤S412)。
在上文中,具体描述了根据第二实施方式的优质用户确定处理。在本实施方式中,将在预定时间段内说出关键字达预定次数或更多次的用户(例如,在终端设备1-2被安装在收银机附近的情况下,被估计为在预定时间段内订购了预定关键字的产品达预定次数或更多次的用户)确定为优质用户。
·响应语音数据生成处理
图19是示出根据第二实施方式的响应语音数据的生成处理的流程图。如图19所示,例如,基于从服务器2接收的相应确定条件,应用服务服务器4生成诸如“牛肉干现在正在特价销售!”的预定响应语音数据(步骤S420)。应用服务服务器4例如可以保存与确定条件对应的响应语音数据或者响应语音数据的生成算法,并且基于从服务器2接收的“相应确定条件”生成响应语音数据。
在上文中,具体描述了根据第二实施方式的响应语音数据的生成处理。如图13中的步骤S257至S263所示,由应用服务服务器4生成的响应语音数据经由服务器2从应用服务服务器4发送到终端设备1-2,并且作为语音从终端设备1-2进行输出。
注意,安装终端设备1-2的位置不限于商业街和商场,并且例如可以是市镇中的街头摊位(诸如算命空间)。图20是描述本实施方式的应用示例的图。
如图20所示,例如,在终端设备1-2被安装在市镇中的算命空间中的情况下,在从算命先生前面经过的用户经常在与同行人等的谈话中说出诸如“郁闷”、“担心”和“不安”之类的表示烦恼的预定关键字的情况下(例如,在用户在一周内说出表示烦恼的词汇达五次或更多次的情况下),可以从终端设备1-2向用户输出推荐算命的响应语音数据。
<4-3.第三实施方式>
在第三实施方式中,在通过声纹分析而识别出的用户在过去在商店中以高频率说话、具有特定用户属性并且说出预定关键字的情况下,该用户被确定为优质用户。用户属性是通过对用户的话语语音数据的语音识别而估计的用户的性别、年龄等。注意,在本实施方式中使用的应用服务对应于在图5所示的应用服务管理表中登记的“应用服务ID:app0003,应用名称:EE购物中心男性优质用户特权,确定条件:用户在一周内有五天来过商店(在商店里说话)、该用户是成年男性并且说过特定关键字‘真热’的情况”。
图21是描述本实施方式的概况的图。在本实施方式中,在访问商店的用户在预定时间段(例如,一周)内有预定天数(例如,五天)或更多天数在“EE购物中心”中安装的多个终端设备1-3a至1-3c(可以是单数)附近说话的情况下,例如如图21的上部所示,该用户的属性是“成年男性”,并且该用户说出了预定关键字“真热”,如图21的下部所示,则该用户被确定为优质用户。
然后,作为针对优质用户的优惠信息,从终端设备1-3d输出诸如“欢乐时光从四点开始!啤酒以半价供应!”的响应声音。由此可以将特殊信息(诸如活动)呈现给常客当中的、作为具有特定属性的人并且说出了特定关键字的用户。注意,所有终端设备1-3a至1-3d是安装在EE购物中心中的终端设备组,并且在至少任何终端设备1-3中识别语音产生,并且执行用户识别。然而,本实施方式不限于此,终端设备1-3的数目可以是一个。
(操作处理)
随后,将描述根据第三实施方式的操作处理。因为根据本实施方式的基本操作处理大部分类似于参照图12和图13描述的操作处理,因此此处将参照图22和图23依次描述本实施方式特有的处理,即优质用户确定处理(图13中所示的步骤S239)和响应语音数据生成处理(图13中所示的步骤S254)。
·优质用户确定处理
图22是示出根据第三实施方式的优质用户的确定处理的流程图。如图22所示,首先,服务器2通过对话语语音信息的语音识别来估计用户的属性(性别、年龄组等)(步骤S503)。具体地,例如,服务器2的控制单元20根据用户的说话方式、语音的语气、词汇末尾的发音方式、嗓音、语音的高低、语音的特征、声纹等来估计性别和年龄组(年龄),作为用户属性。
随后,服务器2的优质用户确定单元20f参考存储在存储单元23中的用户识别历史(参见图10)和应用服务终端列表,并且获取关于以下终端设备的用户的语音产生频率:该终端设备属于要应用的应用服务ID(步骤S506)。具体地,例如,优质用户确定单元20f从应用服务终端列表中提取终端设备1-3a至1-3c,该终端设备1-3a至1-3c属于与要应用于终端设备1-3d的应用服务ID相同的应用服务ID。随后,优质用户确定单元20f对照用户识别历史进行检查,并且获取终端设备1-3a至1-3d识别到用户(即,通过声纹分析而识别出用户的话语)的时间和日期(语音产生频率)。
接下来,根据在应用服务管理表中登记的应用服务ID:app0003的优质用户确定条件,优质用户确定单元20f确定该用户是否在过去一周内有五天或更多天说了话(步骤S509),属性是否为“成年男性”(步骤S512),以及用户是否说出了预定关键字“真热”(步骤S515)。
随后,在用户满足所有上述条件的情况下(步骤S509/是,步骤S512/是,步骤S515/是),优质用户确定单元20f确定该用户是优质用户(步骤S518)。
另一方面,在该用户不满足至少任何上述条件的情况下(步骤S509/否,步骤S512/否,或步骤S515/否),优质用户确定单元20f确定该用户不是优质用户(步骤S519)。
在上文中,具体描述了根据第三实施方式的优质用户确定处理。在本实施方式中,在用户在预定时间段内有预定天数或更多天数说了话而没有具体识别关键字(即,用户被估计为在预定时间段内有预定天数或更多天数访问了商店)、具有预定属性、并且还说出了作为触发的特定关键字的情况下,该用户被确定为优质用户。
·响应语音数据生成处理
图23是示出根据第三实施方式的响应语音数据的生成处理的流程图。如图23所示,基于从服务器2接收的相应确定条件,例如,应用服务服务器4生成诸如“欢乐时光从四点开始!啤酒以半价供应!”的预定响应语音数据(步骤S520)。应用服务服务器4例如可以保存与确定条件对应的响应语音数据或者响应语音数据的生成算法,并且基于从服务器2接收的“相应确定条件”来生成响应语音数据。
在上文中,具体描述了根据第三实施方式的响应语音数据的生成处理。如图13中的步骤S257至S263所示,由应用服务服务器4生成的响应语音数据经由服务器2从应用服务服务器4发送到终端设备1-3,并且作为语音从终端设备1-3进行输出。
(4-3-1.应用示例1)
注意,安装终端设备1-3的位置不限于商店,并且可以是例如游戏厅的娱乐厅。此处,将参照图24至图27描述终端设备1-3被安装在游戏厅中的情况。
图24是描述本实施方式的应用示例1的概况的图。如图24的上部所示,例如,在终端设备1-3a被安装在游戏机5周围,并且经常(例如在一个月内有十天或更多天)从游戏机5前面经过的成年男性用户在与同行人的交谈中、在自言自语中等等说出了诸如“我感到沮丧”、“我感到烦躁”以及“我想打人”之类的请求压力释放的预定关键字的情况下,可以估计该用户是以高频率访问游戏厅的常客,并且现在达到了推荐游戏的最佳状态,并且确定该用户是优质用户。
然后,在确定该用户是优质用户的情况下,如图24的下部所示,从终端设备1-3a输出用于推荐通过打沙袋的游戏机5来释放压力的响应语音数据。
另外,参考游戏机5的游戏历史(分数),并且在用户到目前为止所取得的分数的平均值(用户信息的示例)超过当天参与游戏的所有玩家的最高分数的情况下,还可以进行以下响应:该响应用于推荐游戏,并且包括诸如“如果您正常发挥,可以成为今天的冠军。”的消息。
(操作处理)
随后,将描述根据本应用示例的操作处理。因为根据本实施方式的基本操作处理大部分类似于参照图12和图13描述的操作处理,因此此处将参照图25和图26依次描述本实施方式特有的处理,即优质用户确定处理(图13中所示的步骤S239)和响应语音数据生成处理(图13中所示的步骤S254)。
·优质用户确定处理
图25是示出根据应用示例1的优质用户的确定处理的流程图。如图25所示,首先,服务器2通过对话语语音信息的语音识别来估计用户的属性(性别、年龄组等)(步骤S603)。具体地,例如,服务器2的控制单元20根据用户的说话方式、语音的语气、嗓音、语音的高低、语音的特征、声纹等来估计性别和年龄组(年龄),作为用户属性。
随后,服务器2的优质用户确定单元20f参考存储在存储单元23中的用户识别历史(参见图10)和应用服务终端列表(参见图7),并且获取关于以下终端设备的用户的语音产生频率:该终端设备属于要应用的应用服务ID(步骤S606)。具体地,例如,优质用户确定单元20f从应用服务终端列表中提取以下终端设备(例如,安装在游戏机周围或者游戏厅中的多个终端设备):该终端设备属于与要应用于终端设备1-3a的应用服务ID相同的应用服务ID。随后,优质用户确定单元20f对照用户识别历史进行检查,并且获取终端设备1-3a或者属于相同应用服务ID的终端设备识别到用户(即,通过声纹分析而识别出用户的话语)的时间和日期(语音产生频率)。
接下来,根据在应用服务管理表中登记的应用服务的优质用户确定条件,优质用户确定单元20f执行优质用户的确定(步骤S609至S615)。具体地,例如,优质用户确定单元20f确定该用户是否在过去一个月内有十天或更多天说了话(步骤S609),属性是否为“成年男性”(步骤S612),以及用户是否说出了请求释放压力的词汇,例如预定关键字“我感到沮丧”或“我想打人”(步骤S615)。注意,所有确定条件都是示例,并且本应用示例不限于此。
随后,在用户满足所有上述条件的情况下(步骤S609/是,步骤S612/是,步骤S615/是),优质用户确定单元20f确定该用户是优质用户(步骤S618)。
另一方面,在用户不满足至少任何上述条件的情况下(步骤S609/否,步骤S612/否,或步骤S615/否),优质用户确定单元20f确定该用户不是优质用户(步骤S619)。
在上文中,具体描述了根据应用示例1的优质用户确定处理。在本应用示例中,在用户在预定时间段内有预定天数或更多天数说了话而没有具体识别关键字(即,用户被估计为在预定时间段内有预定天数或更多天数访问了商店)、具有预定属性、并且还说出了作为触发的特定关键字的情况下,该用户被确定为优质用户。
·响应语音数据生成处理
图26是示出根据本应用示例的响应语音数据的生成处理的流程图。在本应用示例中,还考虑到游戏历史来生成响应语音数据。例如,每个用户的游戏历史被累积在服务器2的存储单元23中所存储的用户管理表(参见图8)的“应用服务数据”中。
如图26所示,首先,应用服务服务器4将被确定为优质用户的用户的用户ID和应用服务ID发送到服务器2(步骤S620)。
接下来,应用服务服务器4从服务器2接收用户的应用数据(步骤S623),并且获取记录在应用数据中并且与应用服务相关联的、用户在游戏机5中的游戏历史(步骤S626)。
随后,从在应用服务服务器4中管理的游戏历史中获取当天参与游戏的所有玩家的最高分数(步骤S629)。
接下来,应用服务服务器4确定该用户的平均分数是否超过当天的最高分数(步骤S632)。
随后,在确定平均分数超过最高分数的情况下(步骤S632/是),基于从服务器2接收的相应确定条件,应用服务服务器4例如生成诸如“您何不打一拳呢?如果您正常发挥,可以成为今天的冠军!”的预定响应语音数据(步骤S635)。
另一方面,在确定平均分数没有超过最高分数的情况下(步骤S632/否),基于从服务器2接收的相应确定条件,应用服务服务器4例如生成诸如“您何不打一拳呢?挑战今天的最高分数!”的预定响应语音数据(步骤S638)。
在上文中,具体描述了根据应用示例1的响应语音数据的生成处理。如图13中的步骤S257至S263所示,由应用服务服务器4生成的响应语音数据经由服务器2从应用服务服务器4发送到终端设备1-3a,并且作为语音从终端设备1-3a进行输出。
·游戏历史的管理处理
接下来,将参照图27描述游戏机5的游戏结果的管理处理。图27是示出根据应用示例1的游戏机5的游戏结果的管理处理的序列图。
如图27所示,首先,当开始玩游戏时(步骤S643),游戏机5经由网络向应用服务服务器4通知游戏开始(步骤S646)。
接下来,在从服务器2确定优质用户起的特定时间段内开始游戏的情况下,根据来自游戏机5的游戏开始通知(步骤S649/是),应用服务服务器4确定优质用户正在玩游戏(步骤S652)。因为在图13的步骤S251中由服务器2确定的优质用户的用户ID还被发送到应用服务服务器4,所以应用服务服务器4可以识别出在服务器2中已经确定了优质用户以及该优质用户的用户ID。
随后,当从游戏机5发送游戏的游戏结果时(步骤S655),应用服务服务器4将接收到的游戏结果连同该优质用户的用户ID和其自身的应用服务ID一起发送到服务器2(步骤S658)。
然后,服务器2在用户管理表(参见图8)中更新与相应用户和应用服务相关联的应用数据(步骤S661)。换言之,服务器2将优质用户在游戏中的游戏结果登记到用户管理表中,作为应用数据。
注意,应用服务服务器4还可以从游戏机5接收被确定为不是优质用户的普通用户的游戏结果,并且记录游戏结果作为游戏历史。具体地,在没有进行优质用户的确定时从游戏机5发送游戏结果的情况下,应用服务服务器4累积游戏结果,作为非特定用户(玩家)的游戏结果。另外,应用服务服务器4将非特定用户的游戏结果连同其自身的应用服务ID一起发送到服务器2。例如,服务器2将所接收的非特定用户的游戏结果与相应应用服务相关联地登记在应用服务管理表(参见图5)中。例如,由此可以识别当天玩游戏机5的玩家的分数。
如上所述,在本应用示例中,可以参考游戏机5中的游戏历史(例如分数),与游戏机5协作生成响应语音数据。
(4-3-2.应用示例2)
另外,安装终端设备1-3的位置不限于上述示例,并且可以例如是击球笼(battingcage)。图28是描述应用示例2的概况的图。
如图28的上部所示,例如,在终端设备1-3b被安装在击球笼中的情况下,在经常(例如,在一周中有三天或更多天)访问击球笼的成年男性用户说出了关于职业棒球的棒球俱乐部的关键字的情况下,该用户被确定为优质用户。然后,在确定该用户是优质用户的情况下,如图28的下部所示,从终端设备1-3b输出推荐使用击球笼的响应语音数据。
此时,在本应用示例中,根据经常访问击球笼的用户(常客)说出的关键字,确定该用户追捧的棒球俱乐部(用户信息的示例(偏好信息)),并且可以参考最新的输赢结果、比赛内容等生成针对作为特定棒球俱乐部粉丝的常客的响应语音数据。
(操作处理)
随后,将描述根据本应用示例的操作处理。因为根据本实施方式的基本操作处理大部分类似于参照图12和图13描述的操作处理,因此此处将参照图29和图30依次描述本实施方式特有的处理,即优质用户确定处理(图13中所示的步骤S239)和响应语音数据生成处理(图13中所示的步骤S254)。
·优质用户确定处理
图29是示出根据应用示例2的优质用户的确定处理的流程图。如图29所示,首先,服务器2通过对话语语音信息的语音识别来估计用户的属性(性别、年龄组等)(步骤S703)。具体地,例如,服务器2的控制单元20根据用户的说话方式、语音的声调、嗓音、语音的高低、语音的特征、声纹等来估计性别和年龄组(年龄),作为用户属性。
随后,服务器2的优质用户确定单元20f参考存储在存储单元23中的用户识别历史(参见图10)和应用服务终端列表(参见图7),并且获取关于以下终端设备的用户的语音产生频率:该终端设备属于要应用的应用服务ID(步骤S706)。具体地,例如,优质用户确定单元20f从应用服务终端列表中提取以下终端设备(例如,安装在击球笼中的多个终端设备):该终端设备属于与要应用于终端设备1-3b的应用服务ID相同的应用服务ID。随后,优质用户确定单元20f对照用户识别历史进行检查,并且获取终端设备1-3b或者属于相同应用服务ID的终端设备识别到用户(即,通过声纹分析而识别出用户的话语)的时间和日期(语音产生频率)。
接下来,根据在应用服务管理表中登记的应用服务的优质用户确定条件,优质用户确定单元20f执行优质用户的确定(步骤S709至S715)。具体地,例如,优质用户确定单元20f确定该用户是否在过去一周内有三天或更多天说了话(步骤S709),属性是否为“成年男性”(步骤S712),以及用户是否说出了关于特定棒球俱乐部的预定关键字(例如球队名称或球员姓名)(步骤S715)。
随后,在用户满足所有上述条件的情况下(步骤S709/是,步骤S712/是,步骤S715/是),优质用户确定单元20f确定该用户是特定棒球俱乐部的粉丝,并且将该确定添加到用户属性中(步骤S718),另外,确定该用户是优质用户(步骤S721)。注意,例如,用户属性被累积在服务器2的存储单元23中所存储的用户管理表(参见图8)中。
另一方面,在用户不满足上述条件中的至少任一个的情况下(步骤S709/否,步骤S712/否,或步骤S715/否),优质用户确定单元20f确定该用户不是优质用户(步骤S724)。
在上文中,具体描述了根据应用示例2的优质用户确定处理。在本应用示例中,当用户在预定时间段内有预定天数或更多天数话了话而没有具体识别关键字(即,用户被估计为在预定时间段内有预定天数或更多天数访问了商店)、具有预定属性、并且还说出了用作触发的特定关键字的情况下,该用户被确定为优质用户。
·响应语音数据生成处理
图30是示出根据本应用示例的响应语音数据的生成处理的流程图。在本应用示例中,考虑到用户追捧的棒球俱乐部(棒球队)来生成响应语音数据。例如,作为属性信息的示例,每个用户追捧的棒球俱乐部被累积在服务器2的存储单元23中所存储的用户管理表(参见图8)中。
如图30所示,首先,应用服务服务器4基于优质用户的属性来获取用户追捧的棒球俱乐部(步骤S730)。具体地,例如,应用服务服务器4将优质用户的用户ID发送到服务器2,请求用户的属性信息,并且获取指示用户追捧的棒球俱乐部的信息。
接下来,应用服务服务器4通过网络从预定服务器(未示出)获取前一天的职业棒球输赢数据(步骤S733)。
随后,在用户是G队(棒球俱乐部的一个示例)的粉丝的情况下(步骤S736/是),应用服务服务器4参考前一天的职业棒球输赢数据来检查G队是获胜还是失败(步骤S739)。
然后,在G队获胜的情况下(步骤S739/是),例如,应用服务服务器4生成诸如“昨晚G队获胜!您何不像选手YY一样击出本垒打?”以及“G队的粉丝们!今天,只有重要顾客才能以半价打棒球!”的响应语音数据(步骤S742)。
另一方面,在G队失败的情况下(步骤S739/否),例如,应用服务服务器4生成诸如“您昨晚一定失望了。您何不为复仇而战?”的响应语音数据(步骤S745)。
另外,在用户是H队(棒球俱乐部的另一个示例)的粉丝的情况下(步骤S748/是),应用服务服务器4参考前一天的职业棒球输赢数据来检查H队是获胜还是失败(步骤S751)。
然后,在H队获胜的情况下(步骤S751/是),例如,应用服务服务器4生成诸如“昨晚H队获胜!让我们像选手ZZ一样击球!”和“H队的粉丝们!今天,只有重要顾客才能以半价打棒球!”的响应语音数据(步骤S754)。
另一方面,在G队失败的情况下(步骤S751/否),例如,应用服务服务器4生成“您昨晚一定失望了。让我们怀着H队复兴的希望而击球!”的响应语音数据(步骤S757)。
另外,在用户是除G队和H队之外的另一棒球俱乐部的粉丝的情况下(步骤S748/否),以类似的方式,根据该用户追捧的特定棒球俱乐部的获胜或失败来生成响应语音数据(步骤S760)。
在上文中,具体描述了根据应用示例2的响应语音数据的生成处理。如图13中的步骤S257至S263所示,由应用服务服务器4生成的响应语音数据经由服务器2从应用服务服务器4发送到终端设备1-3b,并且作为语音从终端设备1-3b进行输出。
以这种方式,在本应用示例中,在优质用户是特定棒球俱乐部的粉丝的情况下,可以从设置在击球笼中的终端设备1-3b输出提及该棒球俱乐部的比赛内容等然后推荐击球的响应语音数据。
<<5.结论>>
如上所述,在根据本公开内容的实施方式的信息处理系统中,可以收集用户的话语语音,并且可以基于用户在预定时间段内说话的次数来识别特定用户。
另外,因为在本实施方式中通过语音处理来识别用户,所以存在处理负荷相对较小的优点。另外,与相机执行的成像相比,用户对收集语音较不抵触,此外,因为与相机相比麦克风具有较弱的方向性,所以具有可以容易地获取周围语音信息的效果。然而,本实施方式不仅限于语音处理,并且在诸如以下情况的情况下,可以在补充地组合使用相机的同时执行用户确定:仅通过诸如声纹分析的语音处理难以确定用户。
以上参照附图描述了本公开内容的优选实施方式,而本公开内容不限于上述示例。本领域技术人员可以在所附权利要求的范围内实现各种改变和修改,并且应该理解,这些改变和修改在本质上落入本公开内容的技术范围内。
例如,还可以创建用于使诸如上面已经描述的终端设备1或服务器2中包含的CPU、ROM和RAM之类的硬件实现终端设备1或服务器2的功能的计算机程序。另外,还提供了存储计算机程序的计算机可读存储介质。
另外,在上述实施方式中,基于话语语音来执行对正面用户(诸如常客)的确定,但是本实施方式不限于此,并且还可以使用该系统基于话语语音来执行对负面用户(诸如可疑人员或不受欢迎的顾客)的确定。在确定用户是负面用户的情况下,服务器2可以生成用于安全措施的响应语音数据,并且从终端设备1输出所生成的响应语音数据。
此外,本说明书中描述的效果仅仅是说明性的或示例性的效果,而不是限制性的。也就是说,与上述效果一起或代替于上述效果,根据本公开内容的技术可以实现本领域技术人员从本说明书的描述中清楚的其他效果。
另外,本技术还可以如下配置。
(1)
一种信息处理设备,包括:
通信单元,其能够接收有关由离散布置的多个麦克风收集的语音的语音信息;以及
控制单元,其被配置成:
将基于语音信息而识别的用户确定为在至少一定时间段内进行了预定次数或更多次数的讲话的特定用户,其中所述语音信息有关由所述多个麦克风中的特定麦克风收集的语音,所述语音信息是经由所述通信单元接收的,并且
将要发送给所述特定用户的语音信息控制为经由所述通信单元发送到与所述特定麦克风对应的扬声器。
(2)
根据(1)所述的信息处理设备,其中,当所述控制单元将基于有关特定麦克风所收集的语音的语音信息而识别的用户确定为针对每个应用服务限定的特定用户时,
所述控制单元控制与所述特定麦克风对应的扬声器,以经由所述通信单元发送要发送给所述特定用户的语音信息。
(3)
根据(2)所述的信息处理设备,其中,所述控制单元根据下述关键字将基于所述语音信息识别的用户确定为针对每个应用服务限定的特定用户:作为对有关特定麦克风所收集的语音的语音信息进行识别的结果而提取的关键字,以及针对每个应用服务限定的关键字。
(4)
根据(2)所述的信息处理设备,其中,所述控制单元根据基于有关特定麦克风所收集的语音的语音信息而识别的用户的属性,将基于所述语音信息识别的用户确定为针对每个应用服务限定的特定用户。
(5)
根据(2)至(4)中任一项所述的信息处理设备,其中,所述控制单元根据基于有关特定麦克风所收集的语音的语音信息而识别的用户信息,控制与所述特定麦克风对应的扬声器,以经由所述通信单元发送与所述用户对应的语音信息。
(6)
根据(5)所述的信息处理设备,其中,所述用户信息是用户属性、联动游戏机的游戏历史或者用户的偏好信息。
(7)
根据(1)至(6)中任一项所述的信息处理设备,其中,所述控制单元通过分析所收集的语音的声纹来执行对用户的识别。
(8)
根据(2)至(7)中任一项所述的信息处理设备,其中,所述控制单元使用要被应用于与已收集所述语音的所述特定麦克风对应的扬声器的应用服务中所限定的确定条件来执行对所述特定用户的确定。
(9)
一种信息处理方法,包括:
由处理器,
将基于语音信息而识别的用户确定为在至少一定时间段内进行了预定次数或更多次数的讲话的特定用户,其中,所述语音信息有关由离散布置的多个麦克风中的特定麦克风收集的语音,所述语音信息已经由通信单元接收,所述通信单元能够接收有关由所述多个麦克风收集的语音的语音信息;以及
将要发送给所述特定用户的语音信息控制为经由所述通信单元发送到与所述特定麦克风对应的扬声器。
附图标记列表
1 终端设备
2 服务器
3 网络
4 应用服务服务器
5 游戏机
10 控制单元
11 通信单元
12 语音输入单元
13 语音输出单元
14 存储单元
20 控制单元
20a 应用服务管理单元
20b 用户信息管理单元
20c 声纹分析单元
20d 语音识别单元
20e 用户识别单元
20f 优质用户确定单元
20g 响应语音数据获取单元
21 网络通信单元
22 应用服务服务器I/F
23 存储单元

Claims (9)

1.一种信息处理设备,包括:
通信单元,其能够接收有关由离散布置的多个麦克风收集的语音的语音信息;以及
控制单元,其被配置成:
将基于语音信息而识别的用户确定为在至少一定时间段内进行了预定次数或更多次数的讲话的特定用户,其中所述语音信息有关由所述多个麦克风中的特定麦克风收集的语音,所述语音信息是经由所述通信单元接收的,并且
将要发送给所述特定用户的语音信息控制为经由所述通信单元发送到与所述特定麦克风对应的扬声器。
2.根据权利要求1所述的信息处理设备,其中,当所述控制单元将基于有关特定麦克风所收集的语音的语音信息而识别的用户确定为针对每个应用服务限定的特定用户时,
所述控制单元控制与所述特定麦克风对应的扬声器,以经由所述通信单元发送要发送给所述特定用户的语音信息。
3.根据权利要求2所述的信息处理设备,其中,所述控制单元根据下述关键字将基于所述语音信息识别的用户确定为针对每个应用服务限定的特定用户:作为对有关特定麦克风所收集的语音的语音信息进行识别的结果而提取的关键字,以及针对每个应用服务限定的关键字。
4.根据权利要求2所述的信息处理设备,其中,所述控制单元根据基于有关特定麦克风所收集的语音的语音信息而识别的用户的属性,将基于所述语音信息识别的用户确定为针对每个应用服务限定的特定用户。
5.根据权利要求2所述的信息处理设备,其中,所述控制单元根据基于有关特定麦克风所收集的语音的语音信息而识别的用户信息,控制与所述特定麦克风对应的扬声器,以经由所述通信单元发送与所述用户对应的语音信息。
6.根据权利要求5所述的信息处理设备,其中,所述用户信息是用户属性、联动游戏机的游戏历史、或者用户的偏好信息。
7.根据权利要求1所述的信息处理设备,其中,所述控制单元通过分析所收集的语音的声纹来执行对用户的识别。
8.根据权利要求2所述的信息处理设备,其中,所述控制单元使用要被应用于与已收集所述语音的所述特定麦克风对应的扬声器的应用服务中所限定的确定条件来执行对所述特定用户的确定。
9.一种信息处理方法,包括:
由处理器,
将基于语音信息而识别的用户确定为在至少一定时间段内进行了预定次数或更多次数的讲话的特定用户,其中,所述语音信息有关由离散布置的多个麦克风中的特定麦克风收集的语音,所述语音信息已经由通信单元接收,所述通信单元能够接收有关由所述多个麦克风收集的语音的语音信息;以及
将要发送给所述特定用户的语音信息控制为经由所述通信单元发送到与所述特定麦克风对应的扬声器。
CN201780067884.4A 2016-11-08 2017-08-04 信息处理设备和信息处理方法 Active CN109906466B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016218130 2016-11-08
JP2016-218130 2016-11-08
PCT/JP2017/028471 WO2018087967A1 (ja) 2016-11-08 2017-08-04 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
CN109906466A true CN109906466A (zh) 2019-06-18
CN109906466B CN109906466B (zh) 2023-05-05

Family

ID=62109758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780067884.4A Active CN109906466B (zh) 2016-11-08 2017-08-04 信息处理设备和信息处理方法

Country Status (6)

Country Link
US (1) US11289099B2 (zh)
EP (1) EP3540677A4 (zh)
JP (1) JP7092035B2 (zh)
KR (1) KR20190084033A (zh)
CN (1) CN109906466B (zh)
WO (1) WO2018087967A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111796A (zh) * 2019-06-24 2019-08-09 秒针信息技术有限公司 识别身份的方法及装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10777203B1 (en) * 2018-03-23 2020-09-15 Amazon Technologies, Inc. Speech interface device with caching component
US11152006B2 (en) * 2018-05-07 2021-10-19 Microsoft Technology Licensing, Llc Voice identification enrollment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156825A (ja) * 2008-12-26 2010-07-15 Fujitsu Ten Ltd 音声出力装置
US20130197912A1 (en) * 2012-01-31 2013-08-01 Fujitsu Limited Specific call detecting device and specific call detecting method
JP2013164642A (ja) * 2012-02-09 2013-08-22 Nikon Corp 検索手段制御装置、検索結果出力装置及びプログラム
CN105448292A (zh) * 2014-08-19 2016-03-30 北京羽扇智信息科技有限公司 一种基于场景的实时语音识别系统和方法
CN105868360A (zh) * 2016-03-29 2016-08-17 乐视控股(北京)有限公司 基于语音识别的内容推荐方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050043994A1 (en) * 1996-09-04 2005-02-24 Walker Jay S. Method for allowing a customer to obtain a discounted price for a transaction and terminal for performing the method
US6058364A (en) * 1997-11-20 2000-05-02 At&T Corp. Speech recognition of customer identifiers using adjusted probabilities based on customer attribute parameters
JP2001300099A (ja) 2000-04-26 2001-10-30 Ace Denken:Kk 顧客管理装置
US6785647B2 (en) * 2001-04-20 2004-08-31 William R. Hutchison Speech recognition system with network accessible speech processing resources
JP2004046233A (ja) 2003-09-04 2004-02-12 Daiichikosho Co Ltd 通信カラオケ再生端末
US20070156470A1 (en) * 2005-06-24 2007-07-05 Granucci Nicole J Automatically Calculating A Discount Using A Reservation System
WO2008111190A1 (ja) 2007-03-14 2008-09-18 Pioneer Corporation 音響モデル登録装置、話者認識装置、音響モデル登録方法及び音響モデル登録処理プログラム
US20090157472A1 (en) * 2007-12-14 2009-06-18 Kimberly-Clark Worldwide, Inc. Personalized Retail Information Delivery Systems and Methods
JP2009145755A (ja) * 2007-12-17 2009-07-02 Toyota Motor Corp 音声認識装置
JP2011043715A (ja) 2009-08-21 2011-03-03 Daiichikosho Co Ltd 歌声の特徴に基づいて顧客を特定して顧客の個人情報に基づくメッセージを出力する通信カラオケシステム
US8412604B1 (en) * 2009-09-03 2013-04-02 Visa International Service Association Financial account segmentation system
US20120072290A1 (en) * 2010-09-20 2012-03-22 International Business Machines Corporation Machine generated dynamic promotion system
US20130006633A1 (en) * 2011-07-01 2013-01-03 Qualcomm Incorporated Learning speech models for mobile device users
JP2014013494A (ja) * 2012-07-04 2014-01-23 Nikon Corp 表示制御装置、表示システム、表示装置、端末装置、表示制御方法及びプログラム
JP6314837B2 (ja) * 2013-01-15 2018-04-25 ソニー株式会社 記憶制御装置、再生制御装置および記録媒体
US20150324881A1 (en) 2014-05-09 2015-11-12 Myworld, Inc. Commerce System and Method of Providing Intelligent Personal Agents for Identifying Intent to Buy
US9691379B1 (en) * 2014-06-26 2017-06-27 Amazon Technologies, Inc. Selecting from multiple content sources
US9653075B1 (en) * 2015-11-06 2017-05-16 Google Inc. Voice commands across devices
JP6559079B2 (ja) 2016-02-12 2019-08-14 シャープ株式会社 対話型家電システム、および発話者との対話に基づいてメッセージを出力するためにコンピュータが実行する方法
US9898250B1 (en) * 2016-02-12 2018-02-20 Amazon Technologies, Inc. Controlling distributed audio outputs to enable voice output

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156825A (ja) * 2008-12-26 2010-07-15 Fujitsu Ten Ltd 音声出力装置
US20130197912A1 (en) * 2012-01-31 2013-08-01 Fujitsu Limited Specific call detecting device and specific call detecting method
JP2013164642A (ja) * 2012-02-09 2013-08-22 Nikon Corp 検索手段制御装置、検索結果出力装置及びプログラム
CN105448292A (zh) * 2014-08-19 2016-03-30 北京羽扇智信息科技有限公司 一种基于场景的实时语音识别系统和方法
CN105868360A (zh) * 2016-03-29 2016-08-17 乐视控股(北京)有限公司 基于语音识别的内容推荐方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111796A (zh) * 2019-06-24 2019-08-09 秒针信息技术有限公司 识别身份的方法及装置
CN110111796B (zh) * 2019-06-24 2021-09-17 秒针信息技术有限公司 识别身份的方法及装置

Also Published As

Publication number Publication date
JP7092035B2 (ja) 2022-06-28
EP3540677A4 (en) 2019-10-16
WO2018087967A1 (ja) 2018-05-17
EP3540677A1 (en) 2019-09-18
KR20190084033A (ko) 2019-07-15
US11289099B2 (en) 2022-03-29
US20190214023A1 (en) 2019-07-11
CN109906466B (zh) 2023-05-05
JPWO2018087967A1 (ja) 2019-09-26

Similar Documents

Publication Publication Date Title
US8308562B2 (en) Biofeedback for a gaming device, such as an electronic gaming machine (EGM)
US10777199B2 (en) Information processing system, and information processing method
CN104240113B (zh) 优惠券发放装置和系统
CN109906466A (zh) 信息处理设备和信息处理方法
WO2000062266A1 (en) Automated on-line matchmaking
JP7032678B1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2021240923A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN110574066B (zh) 服务器装置以及记录介质
KR20000053974A (ko) 유선 또는 무선 인터넷을 이용한 실시간 스포츠 베팅 시스템
JP7158771B1 (ja) 競技における賭けを支援するためのシステム、方法、およびプログラム
JP5994540B2 (ja) 表示システム、表示制御方法
JP7393716B2 (ja) 情報処理装置、情報処理方法及びプログラム
US12002461B2 (en) Voice based wagering
JP2004049660A (ja) 遊技者用情報提供装置
JP2012090751A (ja) 遊技システム
KR101947738B1 (ko) 스트레스 해소 서비스 제공시스템
JP2024032245A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023008117A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021146175A (ja) 選別装置、情報処理方法、およびプログラム
KR100438503B1 (ko) 정보 제공 시스템, 프로그램 및 정보 기억 매체
JP2014097169A (ja) ゲーム機、それを含むゲームシステム、それに用いられる制御方法及び、コンピュータプログラム
JP2004173764A (ja) 遊技機予約取扱装置及び遊技機の予約を受け付け、これを処理するための方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant