CN110556095B - 学习装置、机器人、学习支援系统、学习装置控制方法以及存储介质 - Google Patents

学习装置、机器人、学习支援系统、学习装置控制方法以及存储介质 Download PDF

Info

Publication number
CN110556095B
CN110556095B CN201910460007.4A CN201910460007A CN110556095B CN 110556095 B CN110556095 B CN 110556095B CN 201910460007 A CN201910460007 A CN 201910460007A CN 110556095 B CN110556095 B CN 110556095B
Authority
CN
China
Prior art keywords
pronunciation
level
user
student
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910460007.4A
Other languages
English (en)
Other versions
CN110556095A (zh
Inventor
中村利久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019078254A external-priority patent/JP7263895B2/ja
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN110556095A publication Critical patent/CN110556095A/zh
Application granted granted Critical
Publication of CN110556095B publication Critical patent/CN110556095B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供学习装置、机器人、学习支援系统、学习装置控制方法以及存储介质。对应于用户的发音合适地支援发音学习。学习装置(300)控制承担和用户一起学习给定的语言的发音的学生角色的学生机器人。学习装置(300)具备用户等级取得部(311)、学生等级设定部(312)和学生机器人动作控制部(315)。用户等级取得部(311)取得表征用户的给定的语言的发音的正确度的指标即用户等级。学生等级设定部(312)基于用户等级取得部(311)取得的用户等级来设定表征学生机器人的给定的语言的发音的正确度的指标即学生等级。学生机器人动作控制部(315)使学生机器人以学生等级设定部(312)设定的学生等级所表征的发音的正确度的等级发音给定的语言。

Description

学习装置、机器人、学习支援系统、学习装置控制方法以及存 储介质
技术领域
本发明涉及用于支援发音学习的技术。
背景技术
提出以支援用户的学习为目的的技术。例如在特开2005-31207号公报中公开了显示讲师化身、同学化身和学习者化身来支援用户的发音练习的发音练习支援系统。在特开2005-31207号公报公开的发音练习支援系统中,由于是对于讲师化身提出的问题,用户和同学化身竞相解答,因此能使用户感受到英语会话教室的气氛。另外,该系统能提示与用户的学习进度、熟练度等状况相应的合适的内容。
但特开2005-31207号公报公开的发音学习支援系统不能对应于用户的发音的正确度使发音的学习内容变化。为此,在该发音学习支援系统中,即使进行发音学习支援,也有难以习得与用户的发音相应的正确的发音的可能性。
发明内容
为此,本发明鉴于这样的事情而提出,目的在于,对应于用户的发音来合适地支援发音学习。
为了达成所述目的,本发明所涉及的学习装置的一个方案具备:取得表征用户的给定的语言的发音的正确度的指标即用户等级的取得单元;基于所述取得单元取得的用户等级来设定表征机器人的所述给定的语言的发音的正确度的指标即学生等级的设定单元;和使所述机器人以所述设定单元设定的学生等级所表征的发音的正确度的等级发音所述给定的语言的学生控制单元。
发明的效果
根据本发明,能对应于用户的发音合适地支援发音学习。
附图说明
图1是表示本发明的实施方式所涉及的学习支援系统的概要的图。
图2是表示实施方式所涉及的教师机器人的结构例的框图。
图3是表示实施方式所涉及的学生机器人的结构例的框图。
图4是表示实施方式所涉及的学习装置的结构例的框图。
图5是表示实施方式所涉及的学习装置存储的等级表的一例的图。
图6是表示实施方式所涉及的学习装置存储的元音发音表的一例的图。
图7是表示实施方式所涉及的学习装置存储的辅音发音表的一例的图。
图8是说明元音的发音的差的图。
图9是说明辅音的发音的差的图。
图10是表示实施方式所涉及的学习装置存储的学习履历表的一例的图。
图11是显示于实施方式所涉及的学习装置的显示画面的图像的一例。
图12是表示实施方式所涉及的学习支援系统的学习的情形的一例的图。
图13是表示实施方式所涉及的学习支援系统的学习的流程的一例的图。
图14是表示实施方式所涉及的学习支援系统的学习的流程的其他一例的图。
图15是表示实施方式所涉及的学习装置的学习支援控制处理的流程的流程图。
具体实施方式
以下参考附图来说明本发明的实施方式。另外,对图中相同或相当部分标注相同附图标记。
如图1所示那样,本发明的实施方式所涉及的学习支援系统1具有:对用户指导学习的教师角色的机器人(以下称作「教师机器人」)100;和用户一起从教师机器人100接受学习的指导的学生角色的机器人(以下称作「学生机器人」)200;和学习装置300。学习装置300如两箭头所示那样,通过近距离无线通信等连接成能与教师机器人100以及学生机器人200相互信息传递。
教师机器人100和学生机器人200例如具有模仿布偶玩具、虚拟角色等的外观的形状。在本实施方式中,将教师机器人100设为模仿给用户带来死板的印象的机器人的外观的形状,将学生机器人200设为模仿带来柔和印象以使得用户易于亲近的小熊的布偶玩具的外观的形状。另外,这样的教师机器人100以及学生机器人200的形状是一例,例如也可以教师机器人100和学生机器人200的任一者或两方是计算机。
学习装置300例如由智能手机、平板型的通信终端、个人计算机等构成。学习装置300进行与教师机器人100和学生机器人200的通信,控制教师机器人100和学生机器人200。学习装置300基于执行的教育程序来输出声音或图像,对用户提供学习支援服务。学习支援服务的内容是任意的,但在在本实施方式中,作为用户而设想日本人,以对日本人的用户而言与教师机器人100以及学生机器人200模拟易于对学习效果做出贡献的英语的发音学习支援为例来进行说明。另外,学习装置300也可以与教师机器人100一体化。再另外,学习装置300也可以内置于学生机器人200。再另外,也可以通过使内置学习装置300的机器人还包含教师机器人100以及学生机器人200的功能,来使该机器人扮演先生角色和学生角色两方。另外,在本实施方式中作为用户而设想日本人,但也可以是韩国人、中国人等,只要是不以英语为母语的人,任意国家的人都能成为用户。
以下说明学习支援系统1的各装置的结构。首先说明教师机器人100的结构。如图2所示那样,教师机器人100具备控制部110、通信部120、驱动部130、声音输出部140、存储部150、操作部160和摄像部170。
控制部110控制教师机器人100整体的动作。控制部110例如由具有CPU(CentralProcessing Unit,中央处理器)、ROM(Read Only Memory,只读存储器)、RAM(RandomAccess Memory,随机存取存储器)的计算机构成。控制部110通过将存储于ROM的各种程序读出并在RAM上执行,来控制教师机器人100的各构成部位。
在此说明教师机器人100的控制部110的功能结构。控制部110作为控制信息接受部111、驱动控制部112、声音输出控制部113、摄像控制部114发挥功能。
控制信息接受部111控制通信部120接收从学习装置300发送的控制信息,接受该接收到的控制信息。
驱动控制部112基于控制信息接受部111所接受的控制信息来生成驱动信号,将生成的驱动信号输出到驱动部130。如此地,驱动控制部112使驱动部130驱动,使教师机器人100执行各种动作。
声音输出控制部113例如基于控制信息接受部111所接受的控制信息、操作部160所接受的声音音量调整等的用户操作来生成声音信号,将生成的声音信号发送到声音输出部140。如此地,声音输出控制部113控制从声音输出部140输出的声音和其音量。
摄像控制部114控制摄像部170使其摄像静止图像或动态图像,使通信部120将该摄像的静止图像或动态图像的图像数据发送到学习装置300。另外,也可以构成为摄像控制部114基于摄像的静止图像或动态图像来判定用户的姿态、表情、视线等状态,将该判定结果发送到学习装置300。
通信部120是用于与学习装置300进行数据通信的通信接口,例如由无线频率(RF:Radio Frequency)电路、基带(BB:Base Band)电路、大规模集成电路(LSI:Large ScaleIntegration)、天线等构成。通信部120经由天线与学习装置300进行无线通信,收发各种数据。例如教师机器人100经由通信部120从学习装置300接收后述的发音数据。另外,通信部120可以构成为使用USB(Universal Serial Bus,通用串行总线)线、HDMI(注册商标)(High-Definition Multimedia Interface,高清多媒体接口)线等来与学习装置300进行有线通信。
驱动部130例如由齿轮、电动机、致动器等构成。驱动部130对应于从控制部110取得的驱动信号来驱动教师机器人100的可动部位。例如驱动部130控制教师机器人100的头部的倾斜度,来使头部向纵或横向摆动,或改变脸的朝向。另外,驱动部130进行驱动,使教师机器人100的嘴的形状变化,或使教师机器人100的眼皮开闭地眨动,或使教师机器人100移动。构成为教师机器人100能通过这样的动作和后述的声音输出表现感情、视线、姿态等。
声音输出部140例如由扬声器等构成。声音输出部140按照从控制部110取得的声音信号来输出声音。输出的声音主要是与教师机器人100的英语(英语单词)的发音的指导关联的声音。在与英语单词的发音的指导关联的声音中例如包含对用户以及学生机器人200的招呼句、促使英语单词的发音的话语、英语单词的标准的发音、用于向标准的发音接近的指导、在学生做出良好发音的情况下的表扬话语、在学生不能做出良好发音的情况下的鼓励话语等英语单词的发音的指导中适于作为教师的发言的各种声音。例如关于英语单词的标准的发音,控制信息接受部111从学习装置300接受后述的标准发音的发音数据,并且声音输出控制部113使用该发音数据来控制声音输出部140。由此该英语单词从声音输出部140以标准的发音被发音。
存储部150存储控制部110控制教师机器人100的各构成部位所需的种种数据。存储部150例如由闪速存储器、HDD(Hard Disk Drive,硬盘驱动器)等非易失性的存储装置构成。存储部150例如按照从学习装置300接收到的控制信息来将教师机器人100输出的声音数据等存储到给定的存储区域。
操作部160例如由操作按钮、触控面板等构成。操作部160例如是用于接受电源通断、输出声音的音量调整等用户操作的界面。
摄像部170例如由镜头、摄像元件等构成。摄像部170对用户的身体的整体或一部分(例如脸)摄像,取得表示用户的姿态、视线、表情等的静止图像或动态图像的图像数据。
另外,教师机器人100若与通常的布偶玩具等同样地不需要自己活动,则也可以没有驱动控制部112、驱动部130。
接下来说明学生机器人200的结构。如图3所示那样,学生机器人200具备控制部210、通信部220、驱动部230、声音输出部240、存储部250和操作部260。
控制部210控制学生机器人200整体的动作。控制部210例如由具有CPU、ROM、RAM的计算机构成。控制部210通过将存储于ROM的各种程序读出并在RAM上执行,来控制学生机器人200的各构成部位。
在此说明学生机器人200的控制部210的功能结构。控制部210作为控制信息接受部211、驱动控制部212、声音输出控制部213发挥功能。
控制信息接受部211控制通信部220来接收从学习装置300发送的控制信息,接受该接收到的控制信息。
驱动控制部212基于控制信息接受部211所接受的控制信息来生成驱动信号,将生成的驱动信号输出到驱动部230。如此地,驱动控制部212使驱动部230驱动,来使学生机器人200执行各种动作。
声音输出控制部213例如基于控制信息接受部211所接受的控制信息、操作部260所接受的声音音量调整等用户操作来生成声音信号,将生成的声音信号发送到声音输出部240。如此地,声音输出控制部213控制从声音输出部240输出的声音和其音量。
通信部220是用于与学习装置300进行数据通信的通信接口,例如由无线频率(RF)电路、基带(BB)电路、大规模集成电路(LSI)、天线等构成。通信部220经由天线与学习装置300进行无线通信,收发各种数据。例如学生机器人200经由通信部220从学习装置300接收后述的发音数据。另外,通信部220也可以构成为使用USB线、HDMI(注册商标)线等与学习装置300进行有线通信。
驱动部230例如由齿轮、电动机、致动器等构成。驱动部230对应于从控制部210取得的驱动信号来驱动学生机器人200的可动部位。例如驱动部230控制学生机器人200的头部的倾斜度,来使头部向纵或横向摆动,或改变脸的朝向。另外,驱动部230进行驱动,使学生机器人200的嘴的形状变化,或使学生机器人200的眼皮开闭地眨动,或使学生机器人200移动。学生机器人200构成为能通过这样的动作和后述的声音输出表现感情、视线、姿态等。
声音输出部240例如由扬声器等构成。声音输出部240按照从控制部210取得的声音信号来输出声音。输出的声音主要是与学生机器人200的英语(英语单词)的发音的学习关联的声音。在与英语单词的发音的学习关联的声音中例如包含对教师机器人100的招呼的应答、被教师机器人100促使的英语单词的发音、自己的该英语单词的发音良好的情况下的喜悦的话语、自己的该英语单词的发音差的情况下的沮丧的话语、对应于用户的该英语单词的发音的好坏而表扬或安慰用户的话语等适于作为接受该英语单词的发音的指导的学生的发言的各种声音。在学生机器人200发音英语单词时,控制信息接受部211从学习装置300接受后述那样发送的发音数据,并且声音输出控制部213使用该发音数据来控制声音输出部240。由此该英语单词即基于发音数据的发音从声音输出部240发音。
存储部250存储控制部210为了控制学生机器人200的各构成部位所需的种种数据。存储部250例如由闪速存储器或HDD等非易失性的存储装置构成。存储部250例如按照从学习装置300接收到的控制信息将学生机器人200输出的声音数据等存储到给定的存储区域。
操作部260例如由操作按钮、触控面板等构成。操作部260例如是用于接受电源通断、输出声音的音量调整等用户操作的界面。
另外,学生机器人200若与通常的布偶玩具等同样地不需要自己活动,则也可以没有驱动控制部212、驱动部230。
接下来说明学习装置300的结构。如图4所示那样,学习装置300具备控制部310、通信部320、声音输入部330、声音输出部340、存储部350、操作部360和显示部370。
控制部310控制学习装置300整体的动作。控制部310例如由具有CPU、ROM、RAM的计算机构成。控制部310通过将存储于ROM的各种程序读出并在RAM上执行,来控制学习装置300的各构成部位。
在此说明学习装置300的控制部310的功能结构。控制部310作为用户等级取得部311、学生等级设定部312、学习支援内容决定部313、教师机器人动作控制部314、学生机器人动作控制部315、用户等级判定部316发挥功能。
用户等级取得部311取得表征用户的发音的正确度的指标即用户等级。具体地,用户等级取得部311从存储于存储部350的等级表取得用户等级。所谓等级表,如图5所示那样,是按每个音素(元音的音素和辅音的音素)存储用户等级和后述的学生等级的表。在等级表,最初作为初始值,对全部音素存储「用户等级=0」、「学生等级=0」。用户等级取得部311作为取得表征用户的发音的正确度的指标即用户等级的取得单元发挥功能。
在本实施例中,用户等级设为0、1、2这3阶段,用户等级0表征一般的日本人的英语的发音(所谓的片假名英语)等级,用户等级2表征母语使用者的发音(标准的发音)等级,用户等级1表征日本人的发音与母语使用者的发音的中间的等级。即,以用户等级表征的所谓用户的发音的正确度,是将以学习装置300中支援发音学习的语言即英语为母语(第一语言)的人(母语使用者)的英语的发音作为基准的正确度。另外,也可以将日本人的发音与母语使用者的发音的中间的等级更加细分化,使用户等级、后述的学生等级成为4阶段以上。另外,作为上述的成为基准的英语的发音,也可以使用说没有英语的口音的标准语的英语的发音,或以给定的地域(例如澳大利亚、英国等)的口音说英语的人的发音。进而,学习装置300能进行用户识别,来按每个用户存储等级表。例如学习装置300也可以经由通信部320取得用教师机器人100的摄像部170摄像的图像数据,从用户的脸等图像进行用户识别,按每个用户存储等级表。
学生等级设定部312基于用户等级取得部311取得的用户等级来设定表征学生机器人200的英语的发音的正确度的指标即学生等级。以该学生等级表征的所谓学生机器人200的发音的正确度,与上述的用户等级同样,是将以英语为母语的人的英语的发音作为基准的正确度。在该学生机器人200的发音的正确度的基准中,也可以与用户等级同样地适用上述的变化。基本上,设定学生等级,使得学生机器人200的发音成为与用户等级取得部311取得的用户等级同程度的正确度的发音。然后学生等级设定部312使设定的学生等级存储到存储于存储部350的等级表。在图5中,示出学生等级被设定为与用户等级相同值的示例。学生等级设定部312作为设定表征学生机器人的发音的正确度的指标即学生等级的设定单元发挥功能。
学习装置300在存储部350存储元音发音表和辅音发音表。元音发音表以及辅音发音表例如为了使学生机器人200以与学生等级设定部312设定的学生等级相应的发音的正确度的等级发音英语单词而用。具体地,学习装置300对构成使学生机器人200发音的英语单词的全部音素从元音发音表或辅音发音表取得该音素的(与该音素的学生等级相应的)发音数据,将取得的发音数据发送到学生机器人200。然后,学生机器人200在控制信息接受部211接受从学习装置300发送的发音数据,声音输出控制部213使用该发音数据从声音输出部240输出该英语单词,由此以与学生等级相应的发音的正确度的等级发音该英语单词。
元音发音表如图6所示那样,是存储英语的各元音的标准发音(等级2)、与英语的各元音对应的一般的日本人的典型的发音(等级0)、标准发音与日本人的发音的中间的等级的发音(等级1)的数据(发音数据)的表。在图6中,示出为「i0」、「e0」、「o0」、「a0」的分别是与日语的「ぃ」、「え」、「お」、「あ」的发音对应的发音数据。另外,标准发音的行所示的各音标表征与各个音标对应的标准的发音的发音数据。在中间等级发音的行所表示的数据,是表征标准发音与日本人发音的中间的发音的发音数据。
在元音的发音中,还存在对应的日本人的发音不能唯一确定的发音。例如作为与以「a」与「e」紧贴的记号(在此以[ae]表征)表征的音标[ae]对应的日本人发音,考虑「め」和「え」这2种类。在这样的情况下,由于中间等级发音也能设想多种类,因此在图6所示的示例中,作为「[ae]」的中间等级发音而定义3种类。在该情况下,对应于用户在发音「[ae]」时成为接近「め」的发音、还是接近「[ae]」的发音、还是接近「ぇ」的发音,即使是相同的等级1,也需要将发音数据分为3种类(图6中为「a1」、「[ae]1」、「e1」)使用。在图5所示的等级表中,作为音素「[ae]」的用户等级而存储「1a1」,其表示等级1当中以「a1」的发音数据进行发音的部分。
辅音发音表如图7所示那样,是存储英语的各辅音的标准发音(等级2)、与英语的各辅音对应的一般的日本人的典型的发音(等级0)、标准发音与日本人的发音的中间的等级的发音(等级1)的数据(发音数据)的表。在图7中,示出为「bu」、「pu」、「ru」、「su」、「zu」的分别是与日语的「ぶ」、「ぷ」、「ゐ」、「す」、「ず」的发音对应的发音数据。另外,标准发音的行所示的各音标表征与各个音标对应的标准的发音的发音数据。中间等级发音的行示出的数据,是表征标准发音与日本人发音的中间的发音的发音数据。
学习支援内容决定部313综合斟酌用户等级、发音学习课程等来决定实施的学习支援内容。
教师机器人动作控制部314控制教师机器人100的动作。在此,教师机器人100的动作包含教师机器人100活动手脚等的可动部位的行为(动作)或发出话语等的行为(声音输出)等教师机器人100的表现行为整体。教师机器人动作控制部314进行控制,例如每当实施学习支援内容决定部313决定的学习支援内容时决定需要的动作和声音,教师机器人100执行决定的内容。例如教师机器人动作控制部314在作为执行的内容而决定发音英语单词时,作为构成该英语单词的音素的发音数据,使用标准发音的发音数据来生成用于发音该英语单词的发音数据,将生成的发音数据经由通信部320发送到教师机器人100,由此从教师机器人100以标准的发音发音该英语单词。如此地,教师机器人动作控制部314作为控制教师机器人100的动作的教师控制单元发挥功能。
学生机器人动作控制部315控制学生机器人200的动作。在此,所谓学生机器人200的动作,包含学生机器人200活动手脚等的可动部位的行为(动作)、发出话语等的行为(声音输出)等学生机器人200的表现行为整体。学生机器人动作控制部315进行控制,例如每当实施学习支援内容决定部313决定学习支援内容时决定需要的动作和声音,学生机器人200执行决定的内容。例如学生机器人动作控制部315进行控制,在作为执行的内容而决定发音英语单词时,作为构成该英语单词的音素的发音数据,使用基于学生等级设定部312设定的学生等级的发音数据来生成用于发音该英语单词的发音数据,将生成的发音数据经由通信部320发送到学生机器人200,由此从学生机器人200以基于学生等级的发音的正确度的等级发音该英语单词。如此地,学生机器人动作控制部315作为控制学生机器人200的动作的学生控制单元发挥功能。
用户等级判定部316判定表征用户的发音的正确度的指标即用户等级。具体地,用户等级判定部316取得用户的发音,求取取得的用户的发音与标准的发音的差,基于该差来判定用户等级。然后用户等级判定部316使判定的用户等级存储到存储于存储部350的等级表。用户等级判定部316作为判定表征用户的发音的正确度的指标即用户等级的判定单元发挥功能。另外,用户等级判定部316在取得用户的发音时作为发音取得单元发挥功能。
关于用户等级判定部316求取用户的发音与标准的发音的差的方法,分为元音的发音和辅音的发音来进行说明。
首先说明元音的发音的用户等级的判定方法。元音如图8所示那样,根据舌头位置、嘴的张开状况而声音发生变化。在图8中,右侧表示「舌头在里侧」的情况的各音素的配置,左侧表示「舌头在前侧」的情况的各音素的配置,上侧表示「窄的嘴的张开」的情况的各音素的配置,下侧表示「宽的嘴的张开」的情况的各音素的配置,将该图称作元音图。作为发音取得单元的用户等级判定部316能通过对用户的发音进行声响分析来求取用户的发音的该元音图上的位置。然后,元音图上的标准发音的位置与用户的发音的位置的距离就使用户的发音与标准的发音的差。用户等级判定部316能基于该差来判定用户的发音的正确程度(用户等级)(例如参考信息处理学会研究报告ISPJ SIG Technical Report Vol.2011-SLP-89 No.52011/12/19「基于用于发音训练的调音特征的向IPA元音图的实时显示」(森拓郎、入部百合绘、桂田浩一、新田恒雄))。
例如用户发音为「え」时的图8上的位置以「□」示出。然后用户随着练习发音,能使图8上的位置成为「△」或「○」。在该示例中,用户等级判定部316将「□」判定为等级0的发音,将「△」判定为等级1的发音,将「○」判定为等级2的发音。用户等级判定部316对其他元音也同样地在图8所示的元音图上基于标准的发音的位置与用户的发音的位置的距离的大小来判定发音的正确程度(用户等级)。
接下来说明辅音的发音的用户等级的判定方法。辅音通过以共振峰的f2(2倍音的频率)以及f3(3倍音的频率)表征的共振峰坐标上的区域来定义标准发音(根据辅音而还有还使用f4(4倍音的频率)以三维坐标上的区域进行定义的情况)。例如辅音「z」的标准发音的范围如图9所示那样,成为将横轴设为f2、将纵轴设为f3的共振峰坐标上图示的区域。通过对用户的发音进行声响分析,能求取用户的发音的该坐标上的位置,该位置与标准发音的范围的距离成为用户的发音与标准的发音的差。用户等级判定部316基于该距离来判定发音的正确程度(用户等级)。
通信部320例如由无线频率(RF)电路、基带(BB)电路、大规模集成电路(LSI)、天线等构成。通信部320经由天线与其他通信装置(例如教师机器人100、学生机器人200、未图示的接入点等)进行无线数据通信。学习装置300能经由通信部320将发音学习课程从外部的服务器等下载到存储部350。为此,学习装置300能在开始后述的学习支援控制处理前,基于用户的学习履历、各发音的擅长不擅长的信息等来下载适合该用户的发音学习课程。另外,学习装置300经由通信部320例如对教师机器人100、学生机器人200发送上述的发音数据等。另外,通信部320也可以构成为使用USB线、HDMI(注册商标)线等与其他通信装置进行有线通信。
声音输入部330例如由麦克风等构成。声音输入部330取得用户的发言作为声音信息。
声音输出部340例如由扬声器等构成。声音输出部340对应于从控制部310取得的声音信号来输出声音。输出的声音例如是通知实施的学习内容的切换的报知音或短的音乐、通知针对提问的回答的正误之别的效果音等。这些声音数据存储在后述的存储部350,适宜从存储部350读出并重放。
存储部350存储控制部310为了控制学习装置300的各构成部位所需的各种数据。存储部350例如由闪速存储器或HDD等非易失性的存储装置构成。存储部350例如将发音学习课程、从学习装置300输出的声音数据存储到给定的存储区域。
另外,在存储部350所存储的数据中不仅包含上述的等级表、元音发音表、辅音发音表,还包含学习履历表。
学习履历表是将用户利用学习支援系统1学习的履历信息进行汇总的表。学习履历表如图10所示那样,将「学习开始日期时间」、「学习结束日期时间」、「学习时间」和「学习实绩」的各数据建立对应而构成。在此在本实施方式中,设定学习支援内容,使得在学习支援系统1实施的学习支援以1次30分钟程度结束。另外,学习支援内容主要是指导英语(英语单词)的正确的发音的内容。
在「学习实绩」中,列举进行了发音指导以及发音矫正的单词、和各个发音的正确度的等级(用户等级)。实际上,用户等级按英语单词的每个音素进行判定以及存储,但图10中为了简单,按每个单词在括号中记载1个用户等级。例如由于能将各单词中所含的各音素的用户等级中最低的用户等级定义为该单词的用户等级,因此还能在图10中考虑记载如此定义的用户等级。
操作部360例如由操作按钮、触控面板等构成。操作部360例如是用于接受学习的开始或结束、应对模式的选择、对提问的回答的输入等用户操作的界面。
显示部370例如由LCD(Liquid Crystal Display)、EL(Electroluminescence)显示器等构成,对应于从控制部310输入的图像数据来显示图像。显示部370例如如图11所示那样,将表征使发音的英语单词的实物绘画等显示在显示画面。
在学习支援系统1中,如图12所示那样,安装学习装置300的教师机器人100对学生机器人200(这里是「Bear」这样的名字)、用户400(这里是「花子」这样的名字)促使发音,判定用户400的发音的正确程度,进行指导,使其能进行更正确的发音。
用户等级以及学生等级最初成为0,例如如图13所示那样,教师机器人100促使学生机器人200发音为「apple」。学生机器人200最初以日语的发音(学生等级=0)发声为「アツプル」(音标为Λppulu),每当说话,就使学生等级提升为1或2来进行良好的发音。之后,教师机器人100同样地促使用户400发音为「apple」。用户400最初以日语的发音(学生等级=0)发声为「アツプル」(音标为Λppulu),但第2次立刻就能进行标准发音,用户等级成为2。
另外,在用户400的发音得到改善而用户等级=1被存储到存储部350的等级表的情况下,如图14所示那样,从学生等级=1起进行学生机器人200的发音。
接下来参考图15所示的流程图来说明学习装置300的控制部310执行的学习支援控制处理。学习支援控制处理是基于用户400的发音的正确度(用户等级)等来决定学习支援内容、实施与决定的学习支援内容相应的英语的发音的学习支援的处理。
控制部310对操作部360接受到用户400的学习开始的指示操作做出响应,来开始学习支援控制处理。若学习支援控制处理开始,则控制部310的用户等级取得部311取得用户等级(步骤S101)。步骤S101也被称作取得步骤。
具体地,用户等级取得部311从存储于存储部350的等级表取得各音素的用户等级。另外,用户等级取得部311也可以进行用户认识,并从当前正在教师机器人100接受指导的用户400的等级表取得各音素的用户等级。具体地,使教师机器人100的摄像部170对用户400的脸等进行摄像,将摄像的图像数据发送到通信部120。然后用户等级取得部311对经由通信部320取得的图像数据进行图像认识处理。由此用户等级取得部311能认识用户400,从该用户400的等级表取得各音素的用户等级。
另外,用户等级取得部311也可以从声音输入部330取得表示用户400发声的内容的声音数据,对该声音数据实施声音认识处理等,来认识用户400,从该用户400的等级表取得各音素的用户等级。
接下来控制部310的学生等级设定部312设定学生等级(步骤S102)。步骤S102也被称作设定步骤。简单地,将在步骤S101取得的各音素的用户等级原封不动地设定为各个音素的学生等级,作为等级表的学生等级进行登记。
接下来,控制部310的学习支援内容决定部313决定本次实施的学习支援内容(步骤S103)。这时,学习支援内容决定部313综合斟酌等级表、学习履历表中所含的各种数据、预先设定或下载的发音学习课程等来决定本次实施的学习支援内容。例如在存在表示有不擅长发音的数据(例如表示「r」的发音的用户等级一直低的数据等)的情况下,学习支援内容决定部313决定学习支援内容,使大量包含该发音的英语单词的发音练习进行来谋求发音的等级的提升,或者反之,使大量包含擅长的发音的英语单词的发音练习进行来提升用户400的学习积极性。若决定了学习支援内容,控制部310就例如控制声音输出部340来输出报知学习支援的开始的宣告(例如通知学习支援开始的报知音或「Let’s get started!(始めましよう!)(让我们开始吧)」等声音)。
接下来,控制部310控制声音输出部340来对学生机器人200打招呼(步骤S104)。例如说出学生机器人200的名字(图12中是「Bear」)。该打招呼可以在声音输出部340输出,也可以通过控制部310的教师机器人动作控制部314使教师机器人100的声音输出部140输出。
接下来,控制部310将基于学习支援内容决定的英语单词的标准的发音从声音输出部340输出(步骤S105)。该标准发音可以在声音输出部340输出,也可以通过控制部310的教师机器人动作控制部314使教师机器人100的声音输出部140输出。在标准发音的输出中使用存储于储部350的元音发音表以及辅音发音表的标准发音的发音数据。
接下来,控制部310使学生机器人200对与基于学习支援内容决定的英语单词相同的英语单词进行与学生等级相应的发音(步骤S106)。这时,学生机器人动作控制部315将基于存储于存储部350的等级表、元音发音表以及辅音发音表来构成该英语单词的各音素的(与该音素的学生等级相应的)发音数据发送到学生机器人200。于是,学生机器人200的控制部210使用接收到的发音数据从声音输出部240使该英语单词发音。如此地,学生机器人动作控制部315使学生机器人200以基于学生等级的发音来发音构成英语单词的各音素,由此变更学生机器人200的该英语单词的发音的正确度的等级。步骤S106也被称作学生控制步骤。
接下来,控制部310判定学生机器人的全部音素的学生等级是否是标准等级(等级2)(步骤S107)。若存在未成为标准等级的音素(步骤S107“否”),就提高该音素的学生等级(步骤S108),返回步骤S105。若全部音素的学生等级是标准等级(等级2)(步骤S107“是”),则控制部310控制声音输出部340来表扬学生机器人(步骤S109)。该表扬的话语(例如「Great!(太棒了!)」等)可以在声音输出部340输出,也可以通过控制部310的教师机器人动作控制部314而使教师机器人100的声音输出部140输出。
接下来,控制部310控制声音输出部340来对用户400打招呼(步骤S110)。例如说出用户400的名字(图12中「Hanako」)。该打招呼可以在声音输出部340输出,也可以通过控制部310的教师机器人动作控制部314使教师机器人100的声音输出部140输出。
接下来,控制部310从声音输出部340输出先前使学生机器人200发音的英语单词的标准的发音(步骤S111)。该标准发音可以在声音输出部340输出,也可以通过控制部310的教师机器人动作控制部314使教师机器人100的声音输出部140输出。
接下来,控制部310通过声音输入部330取得用户400的英语单词的发音(步骤S112)。然后用户等级判定部316对取得的用户400的英语单词的发音进行声响分析,来判定表征用户400的英语单词的发音的正确度的指标即用户等级(步骤S113),使判定结果反映到存储于存储部350的等级表。
接下来,控制部310判定用户等级判定部316判定的用户等级是否是标准等级(等级2)(步骤S114)。若用户等级是标准等级(等级2)(步骤S114“是”),则控制部310控制声音输出部340来表扬用户400(步骤S115),前进到步骤S117。在步骤S115表扬用户400的话语(例如「Fantastic!(太美好了!)」等)可以在声音输出部340输出,也可以通过控制部310的教师机器人动作控制部314使教师机器人100的声音输出部140输出。
另一方面,若用户等级不是标准等级(等级2)(步骤S114“否”),则控制部310判定是否重复了给定次数(例如3次)的用户400的发音练习(步骤S116)。若未重复(步骤S116“否”),则回到步骤S111。若重复了(步骤S116“是”),则控制部310判定是否结束学习支援(步骤S117)。控制部310对应于操作部360是否接受到用户400的学习结束的指示操作、或者是否全部实施了本次实施预定的学习支援内容,来决定是否结束学习支援。在判定为结束学习支援的情况下(步骤S117“是”),控制部310结束动作控制处理。
另一方面,控制部310在判定为继续学习支援的情况下(步骤S117“否”),回到步骤S104。然后直到结束学习支援为止(直到在在步骤S117判定为“是”为止)都重复步骤S104到步骤S116的处理。
如以上所述那样,根据本实施方式,学习装置300使学生机器人200也以对应于用户400的英语单词的发音的正确度(用户等级)设定的学生等级(学生机器人200的该英语单词的发音的正确度)发音。由此学习装置300能使学生机器人200进行发声,对用户400示出一步步地发音变得正确的情形。因此,根据学习装置300,能对应于用户400的发音来合适地支援发音学习。
另外,在上述的实施方式中,作为学生等级的设定方法,最初设定为与用户等级相同,将学习支援控制处理(图15)的步骤S108未达标准等级(等级2)的音素的学生等级提高1,进行这样的处理,但并不限于此。用户400的英语单词的元音的发音一边在图8所示那样的元音图上二维矢量地到处游走一边不断接近标准发音。因此,也可以通过对应于该用户400的英语单词的发音的不断接近标准发音的矢量的方向、距离来使学生机器人200进行与在其附近接近标准发音的位置对应的发音,来使用户400易于理解发音的改善的方向地进行表示。
另外,在上述的实施方式中,用户400只要有1次进行了正确的发音就将用户等级提高,但并不限于此。例如也可以如连续规定次数(例如3次)连续进行正确的发音才提高用户等级、在下一学习日也能进行正确的发音才提高用户等级那样,不是简单地提高用户等级。另外,也可以即使用户等级一度提高,但若之后的发音差,就降低用户等级。
另外,在上述的实施方式的学习支援内容(图13、图14、图15)中,为最初仅学生机器人200一边提高学生等级一边进行发音、之后用户400进行发音那样的学习形式,但并不限于此。也可以是学生机器人200和用户400一边交替各1次进行发音,一边确认用户400的发音的正确程度的提升度程度,一边提高学生等级。
另外,在上述的实施方式中,学习装置300为了通过用户400的脸图像进行用户识别而需要使教师机器人100的摄像部170对用户400的脸图像进行摄像,但也可以是学习装置300具备摄像部,并仅在学习装置300进行用户识别。
如以上说明的那样,由学习装置300基于用户400的发音的正确度(用户等级)、学习履历来控制学生机器人200的发音的正确度(学生等级)。由此,能使学生机器人200从接近用户400的发音的正确度直至标准的发音都和用户400一起作为进行发音练习的学生行动。由此,学习装置300能对用户400易于理解地示出发音的改善的方向,能对应于用户400的发音合适地支援发音学习。另外,发音学习课程由于能基于用户400的学习履历或发音的擅长不擅长的信息等通过从外部下载来交换,因此能对应于用户400的性格、特性等合适地支援发音学习。
另外,本发明并不限定于上述的实施方式,能进行种种变形以及应用。所述的实施方式可以如下那样变形。
在上述的实施方式中,学习装置300的控制部310总括控制教师机器人100以及学生机器人200的动作。但也可以构成为与教师机器人100、学生机器人200、学习装置300独立的控制装置控制教师机器人100以及学生机器人200的动作。另外,也可以构成为教师机器人100和学生机器人200能通信地连接,相互协作来对用户400实施学习支援。
在上述的实施方式中,学习支援系统1具备教师机器人100、学生机器人200和学习装置300。但本发明所涉及的学习支援系统1并不限于这样的结构。
例如学习支援系统1也可以是取代教师机器人100和学习装置300而具备有指导学习的功能的问题输出装置的结构。在该情况下,可以是如下结构:问题输出装置对用户400以及学生机器人200提示提问,学生机器人200基于学生机器人设定项目或应对模式来回答该提问。
在上述的实施方式中,学习装置300的用户等级取得部311取得用户等级作为表征用户400的发音的正确度的指标。但并不限于此,用户等级取得部311也可以取代用户等级或除此以外还取得表征用户400的声音的大小、表情、应对学习的积极性、态度的各种数据等能评价用户400的学习等级的信息。
在上述的实施方式中,控制部310的CPU执行的动作程序预先存储于ROM等。但本发明并不限于此,也可以通过将用于执行上述的各种处理的动作程序安装到已有的通用计算机、架构、工作站等,来使之作为相当于上述的实施方式所涉及的学习装置300的装置发挥功能。
这样的程序的提供方法任意,例如可以存放在计算机可读的记录介质(软盘、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、MO(Magneto-Optical Disc)、存储卡、USB存储器等)分发,还可以将程序存放在因特网等网络上的存储器,通过将其下载来提供。
另外,在通过OS(Operating System,操作系统)与应用程序的分担、或OS与应用程序的一起工作来执行上述的处理的情况下,也可以仅将应用程序存放在记录介质或存储器。另外,还能将程序叠加到载波,经由网络发布。例如也可以在网络上的公告栏(BBS:Bulletin Board System)公告上述程序,经由网络程序。然后也可以构成为启动该程序,通过在OS的控制下与其他应用程序同样地执行,而能执行上述的处理。再另外,也可以是学习装置300的实体位于云上,以通信控制学生机器人200。
另外,在上述的实施方式中以英语的发音学习支援为例进行了说明,但学习支援系统1只要是用户400学习发音的语言,就并不限于英语,能对任意的语言以同样的机制支援用户400的发音学习。
本发明能不脱离本发明的广义的精神和范围地进行各种实施方式以及变形。另外,前述的实施方式用于说明本发明而不是限定本发明的范围。即,本发明的范围不是由实施方式而是由权利要求书示出。并且在权利要求书内以及与其同等的发明的意义的范围内实施的各种变形视作本发明的范围内。

Claims (14)

1.一种学习装置,其特征在于,具备:
取得表征用户的给定的语言的发音的正确度的指标即用户等级的取得单元;
基于所述取得单元取得的用户等级来设定表征机器人的所述给定的语言的发音的正确度的指标即学生等级的设定单元;和
使所述机器人以所述设定单元设定的学生等级所表征的发音的正确度的等级发音所述给定的语言,由此以与所述学生等级相应的发音的正确度的等级来对所述给定的语言进行发音的学生控制单元。
2.根据权利要求1所述的学习装置,其特征在于,
所述学习装置还具备:
判定所述用户等级的判定单元,
所述取得单元取得所述判定单元判定的用户等级。
3.根据权利要求2所述的学习装置,其特征在于,
所述学习装置还具备:
取得所述用户的所述给定的语言的发音的发音取得单元,
所述判定单元基于元音图上的所述给定的语言的标准发音的位置与所述取得的所述用户的所述给定的语言的发音的位置的距离来判定所述用户等级。
4.根据权利要求1~3中任一项所述的学习装置,其特征在于,
所述学生控制单元通过作为构成使所述机器人发音的所述给定的语言的单词的音素的发音数据而使用基于所述设定单元设定的学生等级的发音数据,来变更所述机器人的所述给定的语言的发音的正确度的等级。
5.根据权利要求1所述的学习装置,其特征在于,
所述取得单元按构成所述给定的语言的每个音素取得所述用户等级。
6.根据权利要求5所述的学习装置,其特征在于,
所述设定单元按构成所述给定的语言的每个音素设定所述学生等级。
7.根据权利要求1所述的学习装置,其特征在于,
所述学习装置包含承担教师角色的教师机器人。
8.根据权利要求1所述的学习装置,其特征在于,
以所述用户等级表征的所述给定的语言的发音的正确度是将以所述给定的语言为母语的人的所述给定的语言的发音作为基准的正确度。
9.根据权利要求1所述的学习装置,其特征在于,
所述机器人是承担和所述用户一起学习所述给定的语言的发音的学生角色的机器人。
10.一种机器人,其特征在于,被权利要求1~8中任一项所述的学习装置控制。
11.一种机器人,包含控制所述机器人的学习装置,
所述学习装置具备:
取得表征用户的给定的语言的发音的正确度的指标即用户等级的取得单元;
基于所述取得单元取得的用户等级来设定表征所述机器人的所述给定的语言的发音的正确度的指标即学生等级的设定单元;和
使所述机器人以所述设定单元设定的学生等级所表征的发音的正确度的等级来发音所述给定的语言,由此以与所述学生等级相应的发音的正确度的等级来对所述给定的语言进行发音的学生控制单元。
12.一种学习支援系统,其特征在于,包含机器人和控制所述机器人的学习装置,
所述学习装置执行:
按照能交换的发音学习课程而动作,
取得表征用户的给定的语言的发音的正确度的指标即用户等级,
基于所述取得的用户等级来设定表征所述机器人的所述给定的语言的发音的正确度的指标即学生等级,
进行控制,使所述机器人以所述设定的学生等级所表征的发音的正确度的等级发音所述给定的语言,由此以与所述学生等级相应的发音的正确度的等级来对所述给定的语言进行发音。
13.一种学习装置控制方法,其特征在于,具备:
取得表征用户的给定的语言的发音的正确度的指标即用户等级的取得步骤;
基于在所述取得步骤取得的用户等级来设定表征机器人的所述给定的语言的发音的正确度的指标即学生等级的设定步骤;和
使所述机器人以在所述设定步骤设定的学生等级所表征的发音的正确度的等级发音所述给定的语言,由此以与所述学生等级相应的发音的正确度的等级来对所述给定的语言进行发音的学生控制步骤。
14.一种存储介质,是非临时的存储介质,其特征在于,存储程序,该程序使计算机执行:
取得表征用户的给定的语言的发音的正确度的指标即用户等级的取得步骤;
基于在所述取得步骤取得的用户等级来设定表征机器人的所述给定的语言的发音的正确度的指标即学生等级的设定步骤;以及
使所述机器人以在所述设定步骤设定的学生等级所表征的发音的正确度的等级发音所述给定的语言,由此以与所述学生等级相应的发音的正确度的等级来对所述给定的语言进行发音的学生控制步骤。
CN201910460007.4A 2018-05-30 2019-05-29 学习装置、机器人、学习支援系统、学习装置控制方法以及存储介质 Active CN110556095B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018103429 2018-05-30
JP2018-103429 2018-05-30
JP2019-078254 2019-04-17
JP2019078254A JP7263895B2 (ja) 2018-05-30 2019-04-17 学習装置、ロボット、学習支援システム、学習装置制御方法及びプログラム

Publications (2)

Publication Number Publication Date
CN110556095A CN110556095A (zh) 2019-12-10
CN110556095B true CN110556095B (zh) 2023-06-23

Family

ID=68735496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910460007.4A Active CN110556095B (zh) 2018-05-30 2019-05-29 学习装置、机器人、学习支援系统、学习装置控制方法以及存储介质

Country Status (1)

Country Link
CN (1) CN110556095B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899576A (zh) * 2020-07-23 2020-11-06 腾讯科技(深圳)有限公司 发音测试应用的控制方法、装置、存储介质和电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051580A (ja) * 1999-08-06 2001-02-23 Nyuuton:Kk 音声学習装置
JP2006178334A (ja) * 2004-12-24 2006-07-06 Yamaha Corp 語学学習システム
CN102723077B (zh) * 2012-06-18 2014-07-09 北京语言大学 汉语教学语音合成方法及装置
JP5586754B1 (ja) * 2013-08-15 2014-09-10 章利 小島 情報処理装置及びその制御方法、コンピュータプログラム
JP2017173547A (ja) * 2016-03-23 2017-09-28 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法、ロボット制御システム及びプログラム

Also Published As

Publication number Publication date
CN110556095A (zh) 2019-12-10

Similar Documents

Publication Publication Date Title
CN108182830B (zh) 机器人、机器人控制装置、方法、系统及存储介质
CN107225578B (zh) 机器人控制装置、机器人、机器人控制方法及系统
JP7263895B2 (ja) 学習装置、ロボット、学習支援システム、学習装置制御方法及びプログラム
Godwin-Jones Speech tools and technologies
KR101973791B1 (ko) 말소리 교정 방법
JP2017173546A (ja) 学習支援装置、ロボット、学習支援システム、学習支援方法及びプログラム
KR101822026B1 (ko) 아바타 기반의 언어 학습시스템
KR102225435B1 (ko) Stt 기반 언어구사 학습-훈련 시스템
WO2006064295A2 (en) Computerised system and method for teaching handwriting and reading
KR20150126176A (ko) 단어 학습 시스템 및 방법
CN110556095B (zh) 学习装置、机器人、学习支援系统、学习装置控制方法以及存储介质
JP7376071B2 (ja) コンピュータプログラム、発音学習支援方法及び発音学習支援装置
JP6466391B2 (ja) 言語学習装置
JP6841309B2 (ja) 電子機器およびプログラム
KR20140087956A (ko) 단어 및 문장과 이미지 데이터 그리고 원어민의 발음 데이터를 이용한 파닉스 학습장치 및 방법
KR102651631B1 (ko) 온라인 기반 한국어 능숙도 평가 장치 및 방법
JP6155102B2 (ja) 学習支援装置
US20150380012A1 (en) Speech rehabilitation assistance apparatus and method for controlling the same
JP2018205771A (ja) ロボット制御装置、ロボット制御方法及びプログラム
Shukla Development of a Human-AI Teaming Based Mobile Language Learning Solution for Dual Language Learners in Early and Special Educations
KR20140082127A (ko) 단어의 어원 및 원어민의 발음 데이터를 이용한 단어 학습장치 및 방법
KR102610871B1 (ko) 청각장애인 음성언어훈련 시스템
US20230230501A1 (en) System and method for interactive and handsfree language learning
KR20030078493A (ko) 외국어 학습장치
KR20140087959A (ko) 이미지와 단어의 음절 및 원어민의 발음 데이터를 이용한 단어 학습장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant