CN1637855B - 用于与乐曲数据代码同时产生可视图像的音乐站 - Google Patents
用于与乐曲数据代码同时产生可视图像的音乐站 Download PDFInfo
- Publication number
- CN1637855B CN1637855B CN2005100036292A CN200510003629A CN1637855B CN 1637855 B CN1637855 B CN 1637855B CN 2005100036292 A CN2005100036292 A CN 2005100036292A CN 200510003629 A CN200510003629 A CN 200510003629A CN 1637855 B CN1637855 B CN 1637855B
- Authority
- CN
- China
- Prior art keywords
- ticktack
- time
- tone
- data
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 title claims description 85
- 238000004891 communication Methods 0.000 claims description 105
- 230000005236 sound signal Effects 0.000 claims description 28
- 230000005540 biological transmission Effects 0.000 claims description 9
- 230000008034 disappearance Effects 0.000 claims description 5
- 230000008030 elimination Effects 0.000 claims 2
- 238000003379 elimination reaction Methods 0.000 claims 2
- 238000007599 discharging Methods 0.000 claims 1
- 230000001360 synchronised effect Effects 0.000 abstract description 13
- 239000012141 concentrate Substances 0.000 abstract description 3
- 210000003811 finger Anatomy 0.000 description 45
- 230000001755 vocal effect Effects 0.000 description 36
- 239000003550 marker Substances 0.000 description 25
- 238000004590 computer program Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000000034 method Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 238000007689 inspection Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000003111 delayed effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000003825 pressing Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000030279 gene silencing Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 206010044565 Tremor Diseases 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
- G09B15/08—Practice keyboards
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0016—Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/021—Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays
- G10H2220/026—Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays associated with a key or other user input device, e.g. key indicator lights
- G10H2220/041—Remote key fingering indicator, i.e. fingering shown on a display separate from the instrument itself or substantially disjoint from the keys
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99944—Object-oriented database structure
- Y10S707/99945—Object-oriented database structure processing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99948—Application of database or data structure, e.g. distributed, multimedia, or image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Electrophonic Musical Instruments (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
为了使教师给学员上远程音乐课,视听站(10A)将MIDI乐曲数据代码/时间标记数据代码和滴答声时间数据代码通过分组交换网络(10ca)传送到另一视听站(10B),并将表示键盘(12)上的教师手的真实图像的视听信号和滴答声信号通过远程电信会议系统(10cb)传送到另一视听站(10B);用于学员的控制器(21)通过在滴答声时间数据代码和滴答声信号之间的配对工作来使内部时钟(21a)与用于教师的内部时钟(11a)同步,使得在学员的键盘(24)前面的显示单元(22)上同时产生音符条图像(Ba)和真实图像;此外,当正在进行教师的演示时,任何口头指导都不会到达学员处,使得学员能够将精力集中到演示上。
Description
技术领域
本发明涉及一种视听系统,特别涉及一种合并在视听系统中并且可通过多个通信信道与另一音乐站通信的音乐站。
背景技术
学员在用手指演奏乐器上取得好的进步是不容易的。已经向学员提出了各种音乐教育支持系统。例如,在日本专利申请公开第Hei5-173546中公开了音乐教育支持系统的典型示例。现有技术音乐教育支持系统与诸如例如钢琴的键盘相结合而提供。引导指示器分别布置在黑/白键的附近,并顺次指示将由学员按下的键。首先,通过电缆连接到引导指示器的控制器稍稍在按下相关联的键的时刻(timing)之前命令引导指示器发射绿光,并且,随后,在所述时刻将光从绿色改变为红色。学员在绿光的引导下准备好按下所述键,并在将光改变为红色的时刻按下所述键。
另一现有技术音乐教育支持系统通过使用发光二极管来指示键盘上的五个手指位置,并且,控制器改变这五个被供电的发光二极管,以顺着乐曲段(passage)指示手指位置,其中,所述控制器也通过电缆连接到发光二极管上。再一现有技术音乐教育支持系统产生用于引导手指演奏的消息“OPEN(打开)”和“CLOSE(关闭)”。
将上述现有技术音乐教育支持系统归类到通过直接指示将被按下的键来引导学员的组中。
第二现有技术组以显示单元上的图像为特征。通过显示单元上的图像来引导学员。在日本专利申请公开第2000-3171号中公开了被归类到第二组中的现有技术音乐教育支持系统的典型示例,并且,该现有技术音乐教育支持系统能够在MIDI(乐器数字接口)乐曲数据的基础上产生演奏。还将代表将用来按键的手指的引导数据与持续时间数据相结合而存储在现有技术音乐教育支持系统中。当学员在键盘上用手指演奏时,控制器在显示单元上产生手的图像,并且在按键的时刻有选择地使将要使用的手指在显示单元上颤动(tremble)。
在日本专利第3058051号中公开了归类到第二组中的另一现有技术音乐教育支持系统。该现有技术音乐教育支持系统在显示单元上再现五线谱(staff)上的音符图像或者音符符号的图像,并且顺着乐曲的段而卷动该图像。该图像卷动也已在美国专利第6388181B2号中公开。
第三组以教师的语音消息为特征。在图1中图示了该音乐教育支持系统的典型示例。该现有技术音乐教育支持系统分解为主视听(audio-visual)站50a、从属视听站50b和因特网10。主视听站50a通过因特网10连接到从属视听站50b,并且,将音频数据和可视/语音数据从主视听站50a传送到从属视听站50b,以进行远程课程。
主视听站50a包括控制器51、电视电话52和电子键盘53.电子键盘53包括键阵列、键开关电路(未示出)和数据处理器(未示出),并且,数据处理器通过MIDI接口连接到控制器51.当教师在键阵列上用手指演奏一首乐曲时,被按下的键和被释放的键使开关电路接通和断开,并且,数据处理器监控开关电路,以便产生MIDI乐曲数据代码,并将其通过MIDI接口提供给控制器51.
控制器51包括内部时钟51a、分组传送器模块51b和时间标记(stamper)器51c。内部时钟51a测量时间的消逝(lapse),并且时间标记器51c检查内部时钟51a,以查看MIDI乐曲数据代码在什么时间到达那里。分组传送器模块51b产生装载了MIDI乐曲数据代码和时间代码的分组,并且将该分组传递到因特网10。
当教师正在演奏乐曲时,MIDI乐曲数据代码间歇地到达时间标记器51c,并且时间标记器51c将代表到达时间的时间数据代码添加到MIDI乐曲数据代码。时间标记器51c将MIDI乐曲数据代码与时间数据代码一起提供给分组传送器模块51b,并且,分组传送器模块51b将该分组通过因特网10传送给从属视听站50b。
电视电话52独立于电子键盘53,并从教师行动的场景中产生代表教师的语音消息的音频数据代码和可视数据代码。电视电话52连接到因特网10,并将音频数据代码和可视数据代码传送给从属视听站50b。
从属视听站50b包括控制器61、电视电话62和自动演奏钢琴63。控制器61接收MIDI乐曲数据代码和时间数据代码,并且,MIDI乐曲数据代码被及时地从控制器61提供给电子键盘63,使得自动演奏钢琴63顺着乐曲的段来产生音调。
电视电话52和62形成视频会议系统或流(streaming)系统的多个部分。当音频数据代码和可视数据代码到达电视电话62时,电视电话62从该音频数据代码和可视数据代码产生可视图像和语音消息。
控制器61包括内部时钟61a、分组接收器模块61b和MIDI外部(out)缓冲器61c。分组接收器模块61b从分组中卸载MIDI乐曲数据代码和时间数据代码,并且,将MIDI乐曲数据代码与相关联的时间数据代码一起临时存储在MIDI外部缓冲器61c中。MIDI外部缓冲器61c周期性地检查内部时钟61a,以查看在什么时间将MIDI乐曲数据代码传递给自动演奏钢琴63。当该时间到来时,MIDI外部缓冲器61c将一个或多个MIDI乐曲数据代码传递给自动演奏钢琴63,并且电磁控制(solenoid-operated)的键致动器(未示出)顺着该乐曲而引起键运动。
学员在电磁控制键致动器的引导下移动他或她的手指,并通过监控器单元62a听取口头指导。
如在日本专利申请公开第Hei7-199790号中公开的,再一现有技术音乐教育系统包括主站和多个从属站。主站处的教师监控由从属站处的学员产生的音调,以查看学员是否在从属站处的键盘上正确地演奏一首乐曲,并通过监控器单元向学员发出口头指令。
学员们表达了他们关于现有技术音乐教育支持系统的抱怨。对于第一组,学员们说,他们不能理解如何将他们的手指移动到将被按下的键上。有许多技术要练习。例如,学员们必须使他们的中指通过拇指下面、以及在拇指上面移动他们的中指。当学员需要以高速反复按下某个键时,他或她必须用两个食指来按下该键。然而,第一组的现有技术音乐教育支持系统仅仅指示将被按下的键。尽管第二组的现有技术音乐教育支持系统通过在显示单元上产生的手的图像来给出指导,但控制器仅仅使手指的图像颤动,而没有给出如何在键盘上移动手指的任何图像。
关于第二组的另一个抱怨是在图像和音调之间易于发生时间延迟.在音乐/可视数据的来源远离乐器的情况中,时间延迟变得严重.这是因为MIDI乐曲数据和图像数据被异步传送给乐器的事实.
关于第三组的抱怨是学员几乎不能记下(capture)口头指导。这是因为主站处的麦克风将电子音调与口头指导一起拾取的事实。在从属站处提供了诸如混合器的静音设备,并且学员操纵该静音设备来听取教师的口头指导。学员们觉得对该静音设备的操纵麻烦。换句话说,学员几乎不能集中精力上课。
如上文中所述,尽管提出了各种音乐教育系统,但是现有技术音乐教育系统不能使学员们满意。
发明内容
因此,本发明的重要目的是提供一种使学员们满意的音乐站。
根据本发明的一个方面,提供一种音乐站,用于与表演的可视图像一起产生将要产生的音调的可视图像,包括:接收器,连接到通信信道,并接收代表将要产生的音调的乐曲数据和与该乐曲数据混合的第一定时数据;另一接收器,连接到独立于所述通信信道的另一通信信道,并接收代表所述表演的视频数据和分别与该视频数据混合的第二定时数据,其中,所述表演与在远离所述音乐站的另一个站上产生的音调同步进行,并且,在将第一定时数据传递到所述通信信道的同时,将第二定时数据传递到前述另一通信信道;定时调节器,连接到接收器和前述另一接收器,并消除每一个第一定时数据和相关联的一个第二定时数据之间的时间延迟,以便彼此同步地建立视频数据和乐曲数据;显示单元,具有多个图像产生区域,其中的至少两个区域分别被分配给表演的图像和音调的可视图像;以及显示驱动器,连接到接收器、前述另一接收器和显示单元,产生代表表演的可视图像的图像承载信号和代表音调的可视图像的另一图像承载信号,并将图像承载信号和前述另一图像承载信号提供给显示单元,使得分别在至少两个区域中彼此相关地产生表演的可视图像和音调的可视图像。
根据本发明的另一方面,提供一种用于产生音调的可视图像的音乐站,包括:接收器,连接到通信信道,并接收代表将要产生的音调的乐曲数据以及时间数据,其中,每个时间数据代表将产生相关联的一个音调的时间;显示单元,具有将在其中产生音调的可视图像的图像产生区域;定时生成器,连接到接收器,并分析时间数据,以便确定音调的可视图像出现在显示单元上的图像产生区域中的时刻;以及显示驱动器,连接到接收器、定时生成器和显示单元,在乐曲数据的基础上产生代表音调的可视图像的图像承载信号,并将该图像承载信号提供给显示单元,以便在所述时刻在显示单元上的图像产生区域中产生音调的可视图像。
根据本发明的再一方面,提供一种用于产生音调的乐曲段和语音的音乐站,包括:接收器,连接到通信系统,并接收代表音调的乐曲数据;音调生成系统,连接到接收器,以便产生音调的乐曲段;另一接收器,连接到通信系统,并接收代表语音的音频数据,以产生音频信号;信号-声音转换器,用于将音频信号转换为语音;控制器,连接在接收器和音调生成系统之间,并分析将要产生的音调,以查看音调的响度是否超过阈值,以便产生控制信号;以及开关,连接在前述另一接收器和信号-声音转换器之间,并响应所述控制信号,以便在响度保持在阈值之上时中断音频信号。
附图说明
由下面结合附图的描述,所述音乐站的特征和优点将理解得更加清楚,其中:
图1是示出现有技术音乐教育系统的系统结构的示意图,
图2是示出根据本发明的音乐教育支持系统的系统结构的示意图,
图3是示出合并在音乐教育支持系统中的视听站和通信信道的方框图,
图4是示出与滴答声(click)时间数据代码同时产生的滴答声信号的波形图,
图5A和5B是示出滴答声信号和相关联的滴答声时间数据代码之间的时间延迟的波形图,
图6是示出视听站的控制器运行的计算机程序的流程图,
图7A和7B是示出其它视听站的控制器运行的计算机程序的流程图,
图8是示出用于在显示单元上产生音符条(tone bar)的图像的计算机程序的流程图,
图9A和9B是示出上课前的场景和上课时的场景的视图,
图10是示出没有任何时间标记(stamp)的MIDI乐曲数据代码的数据传送的示意图,
图11是示出MIDI乐曲数据代码和时间标记数据代码的数据传送的示意图,
图12是示出根据本发明的另一音乐教育系统的系统结构的示意图,
图13是示出合并在音乐教育支持系统中的视听站和通信信道的方框图,
图14是示出与滴答声(click)时间数据代码同时产生的滴答声信号的波形图,
图15A和15B是示出滴答声信号和相关联的滴答声时间数据代码之间的时间延迟的波形图,
图16是示出视听站的控制器运行的计算机程序的流程图,
图17A和17B是示出其它视听站的控制器运行的计算机程序的流程图,
图18是示出用于在显示单元上产生音符条图像的计算机程序的流程图,
图19A和19B是示出在上课前的场景和上课时的场景的视图,
图20是示出没有任何时间标记的MIDI乐曲数据代码的数据传送的示意图,
图21是示出MIDI乐曲数据代码和时间标记数据代码的数据传送的示意图,
图22A和22B是示出用于产生音符条图像的另一视听站的子例行程序的视图,
图23是示出MIDI乐曲数据代码和用于多个MIDI乐曲数据代码的时间标记数据代码的数据传送的示意图,
图24是示出根据本发明的再一音乐教育支持系统的系统结构的示意图,
图25是示出与滴答声时间数据代码同时产生的滴答声信号的波形图,
图26A和26B是示出滴答声信号和相关联的滴答声时间数据代码之间的时间延迟的波形图,
图27是示出视听站的控制器运行的计算机程序的流程图,
图28A和28B是示出其它视听站的控制器运行的计算机程序的流程图,以及
图29是示出钢琴控制器运行的计算机程序的流程图。
具体实施方式
在下列描述中,术语“MIDI乐曲数据”意思是在MIDI协议中定义的消息,并且术语“MIDI乐曲数据代码”代表以MIDI协议中定义的格式来编码的MIDI乐曲数据。术语“视听数据”代表可视图像和/或语音。术语“模拟视听信号”代表承载视听数据的模拟信号,并且术语“视听信号数据代码”代表承载视听数据的数字信号。
术语“滴答声数据”是滴答声发生的信息,并且术语“滴答声时间”指示滴答声发生的时间。术语“滴答声时间数据”是指示滴答声时间的信息。术语“滴答声时间数据代码”是代表时钟时间数据的二进制代码。术语“滴答声信号”是代表每个滴答声的预定脉冲序列。
术语“标记时间”指示利用标记时间来给一个或多个MIDI乐曲数据代码加印记时的时间,并且术语“时间标记数据”代表标记时间。术语“时间标记数据代码”是代表时间标记数据的二进制代码。
第一实施例
参考附图的图2,视听系统被图示为音乐教育支持系统。实施本发明的音乐教育支持系统主要包括视听站10A、另一视听站10B和通信信道10C。在下文中,将分配给MIDI乐曲数据、时间标记数据和滴答声时间数据的通信信道称为“通信信道10ca”,并且,在下文中,将分配给视听数据和滴答声数据的其它通信信道称为“通信信道10cb”。在此实例中,因特网充当通信信道10c。
视听站10A可通过通信信道10C来与视听站10B通信,并且,MIDI乐曲数据/时间标记数据/滴答声时间数据和视听数据/滴答声数据被独立地从视听站10A通过通信信道10C传送到视听站10B。视听站10B将滴答声时间数据与滴答声数据相比较,以查看数据处理是否与视听站10A中的数据生成完全同步。如果发现时间差,则视听站10B加速或者延缓对MIDI乐曲数据或视听数据的数据处理。因而,滴答声数据和滴答声时间数据使视听站10A和10B相互同步。滴答声数据仅表示滴答声发生的事实。换句话说,滴答声数据很简单,以至于视听站10B可以在通过通信信道10cb的传送之后从视听数据中清楚地辨别滴答声的发生。即使通信信道10cb给视听站10A和视听站10B之间提供基带数据传送,也可以将滴答声的发生准确地报告给视听站10B。
视听站10A包括控制器11、电子键盘12和电视电话单元13。当教师在电子键盘12上用手指演奏时,MIDI乐曲数据代码和时间标记数据代码被周期性地从电子键盘12提供给控制器11。控制器11周期性地产生滴答声,并利用滴答声时间来给MIDI乐曲数据加印记。控制器11将滴答声时间数据代码与MIDI乐曲数据代码和相关联的时间标记数据代码相混合,并将滴答声时间数据代码和MIDI乐曲数据代码/时间标记数据代码通过信道10ca传送给视听站10B。
电视电话13拾取教师手的图像和语音/电子音调,并产生视听代码。控制器11将滴答声信号与滴答声时间数据代码同步地提供给电视电话,并且,电视电话13将滴答声信号与视听代码相混合,以便通过信道10cb将滴答声信号和视听信号传送给视听站10B。
在此实例中,利用个人计算机系统来实现控制器11,并且其包括微处理器、程序存储器、工作存储器和接口.然而,在图2中,这些组件未被示出.微处理器有选择地运行适当的应用程序,并且与其它系统组件合作,以便实现内部时钟“A”11a、分组传送器模块11b和滴答声生成器模块11c的功能.
时间标记器模块12a被合并在电子键盘12中,并且利用电子键盘12的内置数据处理系统(未示出)来实现它。该内置数据处理系统运行应用程序,以便完成给定的任务。电子键盘12包括键12c、音调生成器(未示出)和声音系统(未示出),并且,教师有选择地按下和释放多个键12c,以便生成和衰减电子音调。所述任务将指定被按下/释放的键12c、产生MIDI乐曲数据代码、作为内部计时器12b来测量时间消逝、作为时间标记器模块12a而使用标记时间来给MIDI乐曲数据代码加印记等。
当教师在键12c上用手指演奏时,MIDI乐曲数据代码间歇地到达时间标记器模块11b。当一个或多个MIDI乐曲数据代码到达时间标记器模块11b时,时间标记器11b从内部时钟12b取出代表标记时间的时间标记数据,并产生时间标记数据代码。这样,所述一个或多个MIDI乐曲数据代码与时间标记数据代码相伴随。MIDI乐曲数据代码和相关联的时间标记数据代码被从内置数据处理系统提供给控制器11的分组(packet)传送器模块11b。
滴答声生成器模块11c在分组传送的开始而开始产生滴答声数据,并且周期性地产生滴答声时间数据代码。换句话说,在滴答声生成器模块11c中,滴答声周期性地发生。当滴答声发生时,滴答声生成器模块11c从内部时钟“A”11a取出滴答声时间,以便产生滴答声时间数据代码,并且还产生滴答声信号。滴答声时间数据代码被提供给分组传送器模块11b,而滴答声信号被提供给电视电话13。
分组传送器模块11b连接到时间标记器模块12a和滴答声生成器模块11c。分组传送器模块11b产生两种分组。第一种分组被分配给MIDI乐曲数据代码和相关联的时间标记数据代码。另一方面,第二种分组被分配给滴答声时间数据代码。第一种分组与第二种分组在报头(header)字段中的数据位上不同。每个第一种分组具有代表MIDI乐曲数据和相关联的时间标记数据的数据位,即,第一种在报头字段中具有代表地址的数据位,并且乐曲数据代码和相关联的时间标记数据代码被装载在有效负载数据字段中。另一方面,每个第二种分组具有代表滴答声时间数据的数据位,即,第二种在报头字段中具有地址位,并且时间标记数据代码被装载在有效负载数据字段中。
当利用标记时间来给MIDI乐曲数据加印记时,将该MIDI乐曲数据代码和相关联的时间标记数据代码从时间标记器模块12a提供给分组传送器模块11b,并将其装载在一个或多个分组的有效负载字段中。将所述一个或多个分组传递到因特网10C,并将其从分组传送器模块11b传送到视听站10B。
另一方面,当产生时间标记数据代码时,将该时间标记数据代码从滴答声生成器模块11c提供给分组传送器模块11b,并将其装载在分组的有效负载数据字段中。将分组传递给因特网10C,并将其从分组传送器模块11b传送到视听站10B。
电视电话单元13包括数字电路(未示出)和电影摄影机/麦克风14.尽管未在图中示出,但至少编码器和数字混合器被合并在数字电路中.电影摄影机/麦克风14指向坐在电子键盘12前面的教师,并将图像和语音/电子音调转换为视听数据.当教师在键盘12a上用手指演奏、并周期性地给出口头指导时,电影摄影机/麦克风14拾取教师手的可视图像和口头指导/电子音调,并将该图像和口头指导/电子音调转换为模拟视听信号.将该模拟视听信号从电影摄影机/麦克风14提供给电视电话单元13中的数字电路(未示出).通过编码器(未示出),将模拟视听信号压缩并转换为视听数据代码.将视听数据代码作为数字混合信号而从数字电路(未示出)通过通信信道10cb传送到视听站10B.
如上文中所述,在滴答声生成器模块11c中周期性地产生滴答声信号即预定的脉冲序列。将滴答声信号从滴答声生成器模块11c提供给数字电路(未示出)。利用数字混合器(未示出),将滴答声信号与视听数据代码相混合,并且,将包含视听数据和滴答声数据的数字混合信号通过通信信道10cb传送给视听站10B。如在上文中所述,将滴答声时间数据代码和MIDI乐曲数据代码作为分组而从分组传送器模块11b通过通信信道10ca传送到视听站10B。尽管不同的通信信道10ca和10cb分别被分配给分组和数字混合信号,但是将包含滴答声信号的数字混合信号和包含滴答声时间数据代码的分组以这样的方式传递到通信信道10ca和10cb,使得滴答声时间数据代码和滴答声信号几乎同时到达视听站10B。即使在滴答声时间数据代码的到达和滴答声信号的到达之间出现时间差,只要该时间差落在预定值内,视听站10B就使滴答声时间数据代码与对应的滴答声信号成对。
视听站10B包括控制器21、显示单元22、电视电话单元23和电子键盘24。学员坐在电子键盘24前面的凳子上,并且在电子键盘24上练习乐曲段。在显示单元22上产生键12c上的教师手的图像和音符条的图像,以便帮助该学员,其中,将在下文中详细描述所述键12c上的教师手的图像和音符条的图像。
控制器21也由个人计算机系统实现,并且包括微处理器、程序存储器、工作存储器和接口。微处理器有选择地运行存储在程序存储器(未示出)中的计算机程序,并且实现内部时钟“B”21a、滴答声时间数据缓冲器21b、分组接收器模块21c、MIDI外部缓冲器21d、时钟设置器(setter)模块21e、定时控制器21f和显示驱动器21g的功能。
内部时钟“B”21a测量时间消逝,并且,利用滴答声时间数据来对其进行设置。滴答声时间数据代码被临时存储在滴答声时间数据缓冲器21b中,并且,MIDI乐曲数据代码和相关联的时间标记数据代码被积存在MIDI外部缓冲器21d中。分组到达分组接收器模块21c,并且分组接收器模块21c检查报头,以查看有效负载是MIDI乐曲数据代码/相关联的时间标记数据代码还是滴答声时间数据代码。当分组接收器模块21c确定有效负载是一个或多个MIDI乐曲数据代码和相关联的时间标记数据代码时,分组接收器模块21c将所述一个或多个MIDI乐曲数据代码和相关联的时间标记数据代码传递给MIDI外部缓冲器21d,并且,所述一个或多个MIDI乐曲数据代码和相关联的时间标记数据代码被存储在MIDI外部缓冲器21d中。另一方面,当滴答声时间数据代码到达分组接收器模块21c时,滴答声时间数据代码被传递给滴答声时间数据缓冲器21b,并被临时存储在其中。
时钟设置器21e监控电视电话单元23,并检查电视电话单元23,以查看滴答声信号是否到达那里。当电视电话单元23接收视听数据代码时,电视电话单元23将该视听信号解调,并且时钟设置器21e闲置。然而,当滴答声信号到达电视电话单元23时,时钟设置器21e从滴答声时间数据缓冲器21b读出滴答声时间数据代码,并且将内部时钟“B”21a设置为由滴答声时间数据代码代表的滴答声时间。
定时控制器21f从MIDI外部缓冲器21d读出时间标记数据代码,并且确定将在相关联的一个或多个MIDI乐曲数据代码的基础上产生电子音调的时刻。内部时钟“B”21a将基准时间提供给定时控制器21f,并且,定时控制器21f确定基准时间过去(passage)的时刻。定时控制器在该时刻将定时信号提供给显示驱动器21g。
电视电话23接收数字混合信号,并将数字混合信号分离为滴答声信号和视听信号.如上文中所述,滴答声信号被提供给时钟设置器21e.视听信号被提供给显示驱动器21g,并在显示单元22上再现教师手的图像.
显示驱动器21g响应定时信号,以便改变音符条的图像,该图像将学员的手指引导到显示单元22上的将被按下的键上。显示驱动器21g还响应视听数据代码,以便在显示单元22上再现教师手的真实图像。换句话说,显示驱动器21g将代表真实图像的图像承载信号和代表音符条图像的另一图像承载信号提供给显示单元22a,使得彼此相关地产生真实图像和音符条图像。通过电视电话23来再现教师的口头指导和电子音调,使得教师通过与音符条图像相结合的教师手的真实图像、电子音调和口头指导来给学员上课。由于滴答声信号和滴答声时间代码使音符条图像与教师手的真实图像和电子音调同步,因此学员易于理解教师的口头指导和如何移动手指。
假设教师M1通过如图3所示的音乐教育支持系统给学员M2上课。视听站10A远离视听站10B,并且,由个人计算机系统实现的控制器11通过因特网10C连接到控制器21,其中,控制器21也由个人计算机系统实现。分组交换网络形成通信信道10ca的重要部分,并且,滴答声时间数据代码和MIDI乐曲数据代码/相关联的时间标记数据代码被作为分组的有效负载而通过通信信道10ca传送。另一方面,远程电信会议系统或者流系统形成另一通信信道10cb的重要部分,并且,数字混合信号,即视听数据代码和滴答声信号被作为实时数据而通过所述另一通信信道10cb传送。然而,远程电信会议系统或者流系统不与分组交换网络同步。
当教师M1教学员M2在电子键盘12上用手指演奏时,电子键盘12将代表电子音调的MIDI乐曲数据代码和相关联的时间标记数据代码间歇地提供给控制器11,并且,控制器11周期性地产生滴答声时间数据代码。控制器11还与滴答声时间数据代码同时产生滴答声信号CK,并将滴答声信号CK提供给电视电话13。在此实例中,周期性信号充当滴答声信号CK(参见图4),并被容易地与视听信号区分开。滴答声信号被周期性地产生,并分别与滴答声时间数据代码CLD配对。
电影摄影机/麦克风14位于电子键盘12上方的空间处,并指向在键12c的阵列上的教师的手。电影摄影机/麦克风14拾取教师手的图像和电子音调/口头指导,并将代表教师手的图像和电子音调/口头指导的模拟视听信号提供给电视电话13。由教师的手指按下的键12c很好地与教师手的图像和电子音调同步。如上文中所述,电视电话13从视听信号和滴答声信号产生数字混合信号。
控制器11以实时的方式将MIDI乐曲数据代码/时间标记数据代码和滴答声时间数据代码装载在分组中,并将该分组通过通信信道10ca传送到控制器21。另一方面,电视电话13也以实时的方式将数字混合信号通过通信信道10cb传送到电视电话23。由于滴答声信号CK与滴答声时间数据代码同时产生,因此,如图4所示,电视电话13将滴答声信号CK传递到通信信道10cb,这与将相关联的滴答声时间数据代码CLD传递到通信信道10ca同步,其中,所述滴答声信号CK是数字混合信号的一部分。
即使将滴答声信号CK与对应的滴答声时间数据代码CLD同时传递,也没有任何这样的保证:有效负载是滴答声时间数据代码的分组到达控制器21与相关联的滴答声信号CK到达电视电话23同时发生.此外,也没有内部时钟“B”21a与内部时钟“A”11a同步的保证.然而,滴答声信号CK使得时钟设置器21e利用滴答声信号CK来周期性地设置内部时钟“B”21a.这导致了内部时钟“B”和内部时钟“A”11a之间的同步.
当分组到达控制器21时,分组接收器模块21c有选择地将MIDI乐曲数据代码/相关联的时间标记数据代码和滴答声时间数据代码传递给MIDI外部缓冲器21d和滴答声时间数据缓冲器21b。另一方面,数字混合信号将视听数据代码和滴答声信号连续地输送到电视电话23,并且,电视电话23将数字混合信号分离为滴答声信号和视听数据代码,以便将视听数据代码和滴答声信号分别传递给显示驱动器21g和时钟设置器21e。
时钟设置器21e响应每个滴答声信号CK,以便利用由滴答声时间数据代码CLD指示的滴答声时间来设置内部时钟“B”21a。这样,周期性地使内部时钟“B”21a与内部时钟“A”11a同步。
定时控制器21f将由已存储在MIDI外部缓冲器21d中的滴答声时间数据代码指示的滴答声时间和由内部时钟“B”21a指示的时间相比较,以查看是否将处理相关联的MIDI乐曲数据代码。当答案给出为肯定时,显示驱动器21g在显示单元22的某个区域上产生对应于将要产生的电子音调的音符条图像,并且在显示单元22的另一区域上产生教师手的图像。由于使用滴答声信号CK来标出将再现教师手的图像的时刻,因此,教师手的真实图像被与音符条图像一起同步再现,并且口头指导被及时地给予学员。这样,教师M1给学员M2上课,好像他们彼此很近一样。
教师手的真实图像按照与键12c上的教师的手类似的方式来在显示单元22上移动。当教师M1使拇指通过中指下方时,在显示单元22上,拇指的图像也通过中指图像的下方。出于此原因,学员M2很好地理解教师M1教给他或她的内容。
然而,在视听站10B处的滴答声信号CK和相关联的滴答声时间数据代码CLD之间,时间延迟是不可避免的。假设滴答声信号CK比相关联的滴答声时间数据代码CLD更早到达电视电话23,如图5A所示。电视电话23将检测信号提供给时钟设置器21e。滴答声时间数据代码CLD指示滴答声时间“t”,并且,时间延迟是delta-T即ΔT。然后,时钟设置器21e将内部时钟“B”21a置于(t+delta-T)。由于滴答声信号CK被以固定间隔传送到电视电话13,因此,如果在滴答声信号CK到达之后的某个时间周期内相关联的滴答声时间数据代码CLD没有到达控制器21,则时钟设置器21e放弃设置工作。
在如图5B所示的滴答声时间数据代码CLD比相关联的滴答声信号CK更早到达控制器21的情况中,滴答声时间数据代码CLD被存储在滴答声时间数据缓冲器21b中,并且,时钟设置器21e等待相关联的滴答声信号CK。当相关联的滴答声信号CK在所述某个时间内到达电视电话23时,时钟设置器21e将内部时钟“B”21a置于“t”。另一方面,如果相关联的滴答声信号CK在所述某个时间内没有到达电视电话,则时钟设置器21e放弃设置工作,并从滴答声时间数据缓冲器21b中删除滴答声时间数据代码CLD。
如上文中所述,远程电信会议系统或者流系统充当通信信道10cb.尽管分组通常被延迟10毫秒至100毫秒,但是远程电信会议系统将200毫秒和300毫秒之间的时间延迟引入数字混合信号的传送中.滴答声时间数据代码CLD或者滴答声信号CK迟于另一个,如图5A和5B所示.当滴答声时间数据代码CLD比滴答声信号CK更早到达控制器21时,所述某个时间周期将是分组的最小延迟和数字混合信号的最大延迟之和的量级,即(300+alpha)毫秒,其中,余量(margin)alpha落在十几毫秒和200毫秒之间的范围内.另一方面,当滴答声时间数据代码CLD迟于滴答声信号CK时,作为示例,以允许滴答声时间数据代码CLD被延迟300毫秒这样的方式来确定所述某个时间周期,并且所述某个时间周期等于与滴答声信号CK最小延迟的差,即100毫秒的量级.然而,延迟滴答声时间数据代码CLD而不是滴答声信号CK是不正常的.通信量拥塞可能发生.在此情形中,请求视听站10A停止数据传送可能更好.
在流系统给数字混合信号提供通信信道10cb的情况中,数字混合信号可被延迟15秒至30秒。在此情形中,滴答声时间数据代码CLD通常比滴答声信号CK更早到达控制器21,并且,所述某个时间周期等于最大延迟时间和余量之和,即(30+beta)秒,其中,beta是若干秒。另一方面,如果滴答声时间数据代码CLD迟于滴答声信号CK,则所述某个时间周期为零。引入余量alpha和beta是为了响应通过通信信道10cb的延迟的快速变化。在下面的描述中,将图5A中示出的所述某个时间称为“某个时间周期A”,而将图5B中示出的所述某个时间称为“某个时间周期B”。
滴答声信号CK的固定间隔如下来确定。在远程电信会议系统给数字混合信号提供通信信道10cb的情况中,延迟落在200毫秒至300毫秒的范围内,并且固定间隔可以是2秒的量级。所述某个时间周期B可以是0.5秒的量级,而所述某个时间周期A可以是0.1秒的量级。
另一方面,如果流系统给数字混合信号提供通信信道10cb,则可以以30秒的固定间隔来产生滴答声信号CK。在此情形中,如果所述某个时间周期可推断为5秒至20秒,则所述某个时间周期A是0,而所述某个时间周期B是25秒的量级。
如上文中所述,利用个人计算机系统来实现控制器11。形成个人计算机系统的一部分的微处理器周期性地进入图6中示出的子例行程序,并重复由步骤S11至S16组成的循环。
微处理器首先检查个人计算机系统和电子键盘12之间的接口,以查看MIDI乐曲数据代码/相关联的时间标记数据代码是否到达那里。只要教师M1按下或者释放一个或多个键12c,步骤S11处的回答就给出为肯定,并且,微处理器将一个或多个MIDI乐曲数据代码/相关联的时间标记数据代码传递给分组传送器模块11b,如步骤S13,使得分组传送器模块11b通过通信信道10ca而将所述一个或多个MIDI乐曲数据代码/相关联的时间标记数据代码作为一个或多个分组的有效负载传送给控制器21,如步骤S14。
另一方面,如果教师M1不改变键的状态,则步骤S11处的答案给出为否定,并且,微处理器检查工作存储器,以查看滴答声生成器11c是否将滴答声时间数据代码存储在其中,如步骤S12。当滴答声出现时,滴答声生成器11c产生滴答声时间数据代码,并将该滴答声时间数据代码存储在工作存储器中。在此情形中,步骤S12处的答案给出为肯定。然后,在步骤S13,微处理器将滴答声时间数据代码传递给分组传送器模块11b,并且,在步骤S14,分组传送器模块11b将滴答声时间数据代码作为分组的有效负载而传送给控制器21。
另一方面,如果微处理器没有发现任何滴答声时间数据代码,则步骤S12处的答案给出为否定,并且返回步骤S11。这样,微处理器重复由步骤S11和S12组成的循环,直到步骤S11或S12处的答案给出为肯定为止。
当微处理器完成步骤S14处的任务时,微处理器检查被分配了教师指令的标志,以查看教师M1是否完成了课程,如步骤S15.当教师M1正在给学员M2上课时,步骤S15处的答案给出为否定,并且微处理器返回步骤S11.这样,微处理器重复由步骤S11至S16组成的循环,直到教师M1完成课程为止.
当教师M1完成课程时,步骤S15处的答案给出为肯定,并且微处理器立即返回主例行程序。
控制器21也由个人计算机系统来实现,并且,个人计算机系统运行图7A和7B中示出的子例行程序,以便完成由方框21a、21c、21e和21f代表的任务。利用计时器“A”来测量所述某个时间周期“A”,而将另一计时器“B”用于所述某个时间周期“B”。
合并在个人计算机系统中的微处理器周期性地进入子例行程序,并且重复由步骤S21至S30和S201至S209组成的循环。
微处理器首先将标志“A”和“B”设置为0,如步骤S21。微处理器通过作为分组接收器模块21c的另一个子例行程序来接收分组,并通过再一个子例行程序来从控制器21和电视电话23之间的接口取出视听数据代码。步骤S22a代表所述接收和数据获取。
微处理器检查所接收的数据代码,以查看该数据代码是表示MIDI乐曲数据和相关联的时间标记还是表示视听数据,如步骤S22b。当微处理器发现视听数据时,微处理器从该视听数据产生视听信号,并将该视听信号传递给显示驱动器21g,以便在显示单元22上再现教师手的真实图像,如步骤S23a。另一方面,当MIDI乐曲数据代码和相关联的时间标记数据代码到达控制器21时,微处理器将该MIDI乐曲数据代码和相关联的时间标记数据代码传递给MIDI外部缓冲器21d,以便将它们存储在MIDI外部缓冲器21d中,如步骤S23b。
当完成步骤S23a或S23b处的任务时,微处理器检查滴答声时间数据缓冲器21b,以查看滴答声时间数据代码是否已经到达,如步骤S24。
当微处理器在滴答声时间数据缓冲器21b中没有发现任何滴答声时间数据代码时,步骤S24的答案给出为否定,并且微处理器检查工作存储器,以查看电视电话23是否已经将滴答声信号的到达通知给微处理器,如步骤S25。如果滴答声信号还没有到达电视电话,则步骤S25处的答案给出为否定,并且微处理器返回步骤S22a。这样,当视听站10B在滴答声时间数据代码和滴答声信号不存在时接收MIDI乐曲数据代码/相关联的时间标记数据代码和视听数据代码的时候,微处理器重复由步骤S22a、S22b、S23a、S23b、S24和S25组成的循环,并且将MIDI乐曲数据代码/相关联的时间标记数据代码积存在MIDI外部缓冲器21d中,或者将视听数据代码传递给显示驱动器21g,以再现教师手的真实图像。
当电视电话23将滴答声信号的到达通知给微处理器时,步骤S25处的答案改变为肯定,并且,微处理器检查标志“B”,以查看滴答声信号是否被延迟,如步骤S26。当微处理器发现标志“B”已经被改变为“1”时,微处理器确定滴答声信号迟于相关联的滴答声时间数据代码,并利用滴答声时间数据代码来设置内部时钟“B”,如步骤S208。这样,充当时钟设置器21e的微处理器将内部时钟“B”调整为时间“t”。随后,微处理器将标志“B”改变为0,并将计时器“B”重置为0,如步骤S209。当完成步骤S209处的任务时,微处理器进行到步骤S29。
如果在步骤S26微处理器发现标志“B”仍然为0,则步骤S24处的答案给出为否定,并且微处理器确定滴答声时间数据代码迟于滴答声信号。然后,微处理器启动计时器“A”,如步骤S27,并且将标志“A”改变为1,如步骤S28。当完成步骤S28处的任务时,微处理器进行到步骤S29。
当在步骤S24微处理器在滴答声时间数据缓冲器21b中发现滴答声时间数据代码时,步骤S24的答案给出为肯定,并且微处理器检查工作存储器,以查看标志“A”是否指示“1”,如步骤S202.当标志“A”指示“0”时,微处理器确定滴答声时间数据代码迟于相关联的滴答声信号,并将内部时钟“B”21a调整为(t+ΔT),如步骤S203.随后,微处理器将标志“A”改变为0,并将计时器“A”重置为0,如步骤S204.当完成步骤S204处的任务时,微处理器进行到步骤S29.
如果标志“A”指示“0”,则步骤S202处的答案给出为否定,并且微处理器确定滴答声信号迟于相关联的滴答声时间数据代码。然后,微处理器启动计时器“B”,如步骤S205,将滴答声时间数据代码存储在滴答声时间数据缓冲器21b中,如步骤S206,并将标志“B”改变为1,如步骤S207。当完成步骤S207处的任务时,微处理器进行到步骤S29。
尽管在步骤S27或S205计时器“A”或计时器“B”开始测量时间消逝,但没有任何这样的保证,即相关联的滴答声时间数据代码或相关联的滴答声信号到达视听站10B。微处理器检查计时器“A”或计时器“B”,以查看所述某个时间周期是否终结,如步骤S29。如果在所述某个时间周期终结之前相关联的滴答声时间数据代码或相关联的滴答声信号没有到达视听站10B,则步骤S29处的答案给出为肯定,并且,微处理器返回步骤S21,并将标志“A”和“B”均重置为0。这意味着微处理器忽略已经到达的滴答声信号或滴答声时间数据代码。在下一个滴答声时间数据代码和相关联的滴答声信号到达视听站10B之后,微处理器重新开始设置工作。即使微处理器跳过一次设置工作,音符条图像和教师手的真实图像之间的时间延迟也是可以忽略的。
另一方面,如果计时器“A”或“B”指示比所述某个时间周期短的时间消逝,则步骤S29处的答案给出为否定,并且微处理器进行到用于产生音符条图像的子例行程序S30。微处理器充当定时控制器21f,并确定将产生或衰减电子音调的时刻。当预定的时间到来时,微处理器将代表音符条的图像数据提供给显示驱动器21g。然后,显示驱动器21g从该图像数据产生视听信号,并将视听信号提供给显示单元22,以便产生音符条的图像。这样,与键12c上的手指演奏同步再现音符条图像。所述子例行程序将在下文中参考图8来描述。
当微处理器从步骤S30返回时,微处理器检查工作存储器,以查看教师M1是否结束了课程,如步骤S201。当教师M1继续上课时,步骤S201处的答案给出为否定,并且微处理器返回步骤S22a。这样,在上课期间,微处理器重复由步骤S22a至S30和S201至S209组成的循环。
当教师M1结束课程时,他或她通过控制器11来命令控制器21停止数据处理,使得步骤S201处的答案给出为肯定。然后,微处理器立即返回主例行程序。
在下文中,参考图8来对用于产生音符条图像的子例行程序进行描述。学员M2坐在电子键盘24前面的凳子上,并且对着显示单元22的屏幕。如图9A和9B所示,显示单元22的屏幕被分为两个区域G1和G2。在区域G1中再现教师的手和键12c的移动图像,而在另一区域G2中产生音符条图像Ba。
采用钢琴卷轴(roll)系统。在日本专利第3058051号中公开了该钢琴卷动(scroll)技术。场景被高速复制。从先前的场景中删除部分场景,并将新图像添加到先前的场景中。
在相关联的键12c的图像上方产生音符条Ba,并且将其朝着相关联的键12c的图像而向下移动,好像场景被卷动一样.例如,音符条Ba1指示将按下键12c1的时刻和学员M2按下键12c1所经过的时间周期.当音符条图像Ba触及相关联的键12c的图像时,期望学员按下电子键盘24的对应键.音符条图像Ba的长度对应将要产生的音符或电子音调的长度,使得学员M2将按下所述键,直到相关联的音符条下降到区域G1和区域G2之间的边界以下为止.尽管该场景被间歇地向下移动,但学员M2感觉该场景被连续地卷动.术语“卷动时间间隔”意思是当前产生的场景和先前的场景之间的时间消逝.
当微处理器进入图8中示出的子例行程序时,微处理器首先检查计时器,以查看卷动时间间隔是否终结,如步骤S31。如果距先前卷动的时间消逝比卷动时间间隔短,则答案给出为否定,并且微处理器立即返回图7A和7B中示出的子例行程序。另一方面,当微处理器确认卷动时间间隔终结时,步骤S31处的答案给出为肯定,并且微处理器将场景卷动单位长度,如步骤S32。
随后,微处理器检查MIDI外部缓冲器21d,以查看MIDI乐曲数据代码/相关联的时间标记数据代码是否已被存储在其中,如步骤S33。当微处理器未发现任何MIDI乐曲数据代码时,步骤S33处的答案给出为否定,并且微处理器立即返回图7A和7B中示出的子例行程序。
另一方面,如果至少一个MIDI乐曲数据代码/相关联的时间标记数据代码已经被存储在MIDI外部缓冲器21d中,则步骤S33处的答案给出为肯定,并且微处理器从MIDI外部缓冲器21d中读出表示单个事件的一个或多个MIDI乐曲数据代码以及相关联的时间标记数据代码,如步骤S34。微处理器确定该事件将发生的时间,如步骤S35。微处理器读取由内部时钟“B”21a指示的时间,并且将由时间标记数据代码代表的标记时间与内部时钟“B”21a所指示的时间相比较,以查看所述事件发生的时间是否过去,如步骤S36。
如果步骤S36处的答案给出为肯定,则将产生对应音符条的图像Ba的图像,好像它是从先前场景连续下来的一样,并且,微处理器确定当前场景上对应音符条的长度,如步骤S37。
当微处理器确定当前场景中对应条的长度时,微处理器将代表当前场景中的音符条的图像数据提供给显示驱动器21g,并且,显示驱动器21g在显示单元22上产生音符条图像Ba。显示驱动器21g把在其上产生音符条图像Ba的像素改变为预定颜色,使得学员M2感觉音符条图像Ba向下移动。
当完成步骤S38处的任务时,微处理器从MIDI外部缓冲器21d中删除MIDI乐曲数据代码和相关联的时间标记数据代码,如步骤S39,并进行到步骤S305。
另一方面,如果步骤S36处的答案给出为否定,则微处理器将标记时间与显示驱动器21g开始产生当前场景的时间相比较,如步骤S301。如果答案给出为否定,则将在以后产生对应音符条的图像Ba,使得微处理器将MIDI乐曲数据代码/相关联的时间标记数据代码保持在MIDI外部缓冲器21d中,如步骤S304。当完成步骤S304处的任务时,微处理器进行到步骤S305。
当答案给出为肯定时,微处理器确定将在其上产生音符条图像Ba的像素,并将代表音符条Ba的图像数据提供给显示驱动器21g。显示驱动器21g将这些像素改变为与产生背景图像的其它像素的颜色不同的预定颜色,如步骤S302,并且从MIDI外部缓冲器21d中删除MIDI乐曲数据代码和相关联的时间标记数据代码,如步骤S303。当完成步骤S303处的任务时,微处理器进行到步骤S305。
在步骤S305,微处理器检查MIDI外部缓冲器21d,以查看其中是否仍然剩余MIDI乐曲数据代码和相关联的时间标记数据代码。当微处理器在MIDI外部缓冲器21d中发现另一个MIDI乐曲数据代码和相关联的时间标记数据代码时,答案给出为肯定,并且微处理器返回步骤S34。这样,微处理器重复由步骤S34至步骤S39和步骤S301至步骤S305组成的循环,以便产生新音符条的图像,并移动已经在先前场景上产生的音符条图像。然而,如果微处理器在MIDI外部缓冲器21d中没有发现任何MIDI乐曲数据代码和相关联的时间标记数据代码,则步骤S305处的答案给出为否定,并且微处理器返回图7A和7B中示出的子例行程序。
当微处理器与显示驱动器21g合作时,在显示单元22上产生教师手的真实图像和音符条图像Ba,并且从显示单元22听到电子音调和教师的口头指导,其中,移动所述教师手的真实图像,好像教师M1在靠近学员M2的键盘上用手指演奏一样。在上课之前,首先在显示单元22上从视听数据代码再现电子键盘12周围的图像。如图9A所示,包括键12c的真实图像的电子键盘12和教师手的真实图像出现整个区域G1+G2中。区域G2中的阴影线代表电子键盘12壳体(cabinet)的真实图像。为了在上课时指定将被按下的最左边的键12c和最右边的键12c,教师M1可以在上课之前按下这些键12c,以便允许控制器21确定区域G1中的真实图像。如下文中所述,在上课时,键12c的图像被放大。
当教师M1开始在键12c上用手指演奏时,MIDI乐曲数据代码间隔地到达视听站10B,并且在区域G2中再现音符条图像Ba,如图9B所示。图9A中用虚线环绕的预定键12c上的教师手的真实图像被放大,并且放大的真实图像被分配给区域G1。图9B示出了所述场景之一,并且以高速改变所述场景,使得与键12c上的教师的手指相类似来移动教师手指的真实图像。
由于音符条图像Ba指示将被按下的键、按键的时刻和音调的长度,因此学员M2在音符条图像Ba的引导下在键盘24上练习用手指演奏。此外,由于教师M1通过区域G1中的真实图像来给出手指演奏的演示,因此学员M2容易地理解如何移动手指。
尽管在通过MIDI电缆连接的电子键盘之间,时间延迟是可以忽略的,但是在通过没有任何同步的公共通信信道连接的电子键盘之间,时间延迟是严重的,其中,由于变化的通信量拥塞而导致没有任何同步。如果在视听站之间将视听数据代码与MIDI乐曲数据代码同时传送,而没有任何时钟设置工作,则教师手的图像很有可能迟于音符条的图像。
图10示出了没有任何时间标记的MIDI乐曲数据代码I1、I2和I3的连续传送。下面假设多个事件同时发生,则分别代表这些事件的MIDI乐曲数据代码I1、I2和I3同时产生,并且,定时数据代码被添加到MIDI乐曲数据代码I1、I2和I3上。通过通信信道来连续传送将定时数据代码以及MIDI乐曲数据代码I1、I2和I3。定时数据代码首先到达数据缓冲器BF,并被存储在其中,如BF(1)所示。随后,MIDI乐曲数据代码I1到达数据缓冲器BF,并与定时数据代码一起存储在其中,如BF(2)所示。MIDI乐曲数据代码I2和I3间歇地到达数据缓冲器,并被存储在其中,如BF(3)和BF(4)所示。由于未使用标记时间来给MIDI乐曲数据代码I1、I2和I3加印记,因此立即在显示单元上产生音符条图像I1、I2和I3。详细地说,当把MIDI乐曲数据代码I1存储在数据缓冲器BF中时,在显示单元22上产生对应的音符条图像I1,如SC1所示。当把下一个MIDI乐曲数据代码I2存储在数据缓冲器BF中时,将音符条图像I1稍微向下移动,并与音符条图像I1一起在场景SC2中新产生音符条图像I2.当把下一个MIDI乐曲数据代码I3存储在数据缓冲器BF中时,将音符条图像I1稍微向下移动,并且在场景SC3中新产生音符条图像I3。这样,尽管事件同时发生,但是在显示单元上顺次产生音符条图像I1、I2和I3。
音乐教育支持系统表现得与图10中示出的系统不同。假设三个事件同时发生。电子键盘12产生MIDI乐曲数据代码I1、I2和I3,并且计时标记器12a将相同的标记时间赋予MIDI乐曲数据代码I1、I2和I3。将MIDI乐曲数据代码I1、I2和I3与指示相同标记时间的时间标记数据代码Tim.A、Tim.B、Tim.C配对,并且,将MIDI乐曲数据代码和时间标记数据代码通过通信信道10ca而以Tim.A、I1、Tim.B、I2、Tim.C和I3的顺序从控制器11b传送到控制器21。时间标记数据代码Tim.A首先到达控制器21,并被存储在MIDI外部缓冲器21d中,如21d(1)所示。接着,MIDI乐曲数据代码I1到达控制器21,并被存储在MIDI外部缓冲器21d中,如21d(2)所示。这样,时间标记数据代码Tim.B、MIDI乐曲数据代码I2、时间标记数据代码Tim.C和MIDI乐曲数据代码I3间歇地到达控制器21,并被存储在MIDI外部缓冲器21d中,如21d(3)、21d(4)、21d(5)和21d(6)所示。
微处理器运行图8中示出的子例行程序,并在显示单元22上产生音符条图像。首先,当内部时钟“B”到达标记时间Tim.A时,微处理器确定音符图像I1,并将代表音符条图像I1的图像数据提供给显示驱动器21g,如步骤S302。显示驱动器21g在场景SC1中产生音符条图像I1。
随后,在步骤S36,微处理器读出下一个时间标记数据代码Tim.B,并通知标记时间Tim.B与标记时间Tim.A相同。然后,在步骤S37,微处理器确定音符条图像I2的长度。由于标记时间Tim.B与标记时间Tim.A相同,因此在下一个场景SC2中,音符条图像I2将与音符条图像I1长度相等。微处理器将代表音符条图像I1和I2的图像数据提供给显示驱动器21g,使得显示驱动器21g在场景SC2中产生音符条图像I1和I2。
当微处理器取出下一个时间标记数据代码Tim.C时,在步骤S38,微处理器通知标记时间Tim.C与标记时间Tim.A和Tim.B相同,并且确定音符条图像I3的长度。由于标记时间Tim.C与标记时间Tim.A和Tim.B相同,因此音符条图像I3与音符条图像I1和I2长度相等,使得显示驱动器21g在下一个场景SC3中产生长度彼此相等的音符条图像I1、I2和I3。尽管将数据代码从控制器11连续地传送到控制器21,但是在显示单元22上产生音符条图像I1、I2和I3,好像MIDI乐曲数据代码I1、I2和I3同时到达控制器21一样。这样,控制器21从音符条图像I1、I2和I3消除了时间延迟。
在音符条图像在期望学员按下对应键之前出现在场景中的情况中,手指的真实图像将迟于标记时间。延迟时间等于移过区域G2的相关联的音符条图像所耗费的时间。另外,微处理器将在教师手的真实图像之前的预定时间提供图像数据。另一方面,在音符条图像在期望学员M2按键时出现在场景中的情况中,微处理器将图像数据提供给显示驱动器21g,而不从视听数据代码经过任何延迟。
如上文中所述,根据本发明的音乐教育支持系统使得有可能给远离教师M1的学员M2上课。由于学员M2理解如何移动手指,因此他或者她感到满意,并进一步参加远程课程。
第二实施例
转向附图的图12,实施本发明的另一音乐教育支持系统主要包括分配给教师的视听站10D、分配给学员的另一视听站10E、和通信信道10F.视听站10D远离视听站10E,并且,MIDI乐曲数据代码/时间标记数据代码/滴答声时间数据代码和数字混合信号被有选择地通过通信信道10F而从视听站10D提供给其它视听站10E.在此实例中,因特网给视听站10D/10E提供通信信道10F.
视听站10D包括控制器11A、电子键盘12A、电视电话单元13A和电影摄影机/麦克风14A。另一方面,视听站10E包括控制器21A、显示单元22A、电视电话单元23A和电子键盘24A。作为示例,控制器11A和21A分别由个人计算机系统实现。出于此原因,用标号“11A”来标注充当控制器11的个人计算机系统,而用标号“21A”来标注其它个人计算机系统。
合适的计算机程序已被安装在个人计算机11A中,并完成预定任务。内部计时器“A”11a、分组传送器和滴答声生成器11c是所述预定任务的三个任务。另一个合适的计算机程序已经被安装在个人计算机系统21A中,并且完成预定任务,其中的三个任务称为内部计时器“B”21a、分组接收器模块21c和定时控制器21f。工作存储器充当滴答声时间数据缓冲器21b和MIDI外部缓冲器21d,并且将显示驱动器21g合并在个人计算机系统21A中。
电子键盘12A包括计时标记器12ab、内部时钟12b和键12c。内部时钟12b在课程的开始启动。当教师在键12c上用手指演奏时,产生MIDI乐曲数据代码,并且,时间标记器12ab检查内部时钟12b,以查看MIDI乐曲数据代码何时出现,并有选择地将时间标记数据代码添加到MIDI乐曲数据代码上。MIDI乐曲数据代码和时间标记数据代码被间歇地从时间标记器12ab提供给分组传送器11b。
滴答声生成器11c也在课程的开始启动,并且在滴答声生成器11c中,滴答声以固定间隔发生。当滴答声发生时,滴答声信号被提供给电视电话单元13A,并且滴答声时间数据代码被提供给分组传送器模块11b。滴答声时间数据代码指示滴答声发生的滴答声时间。
分组传送器模块11b将MIDI乐曲数据代码/时间标记数据代码和滴答声时间数据代码作为有效负载装载到分组中,并将该分组传递到通信信道10ca。代表MIDI乐曲数据代码/时间标记数据代码或者滴答声时间数据代码的合适的区分代码与分配给视听站10E的地址一起被写入分组的报头。
电影摄影机/麦克风14A指向键12c上的教师的手,并产生代表键12c上的教师手的图像的视听信号。该视听信号被提供给电视电话单元13A。当滴答声信号到达电视电话单元13A时,电视电话单元13A将滴答声信号与视听信号混合,并将混合信号压缩并转换为数字混合信号。电视电话单元13A将数字混合信号传递到独立于通信信道10ca的通信信道10cb。
分组到达分组接收器模块21c。分组接收器模块21c从分组中卸载有效负载,并将MIDI乐曲数据代码/时间标记数据代码与滴答声时间数据代码分离开。分组接收器模块21c将MIDI乐曲数据代码/时间标记数据代码传递给MIDI外部缓冲器21d,并将滴答声时间数据代码传递给滴答声时间数据缓冲器21b。这样,一个或多个MIDI乐曲数据代码/相关联的时间标记数据代码和滴答声时间数据代码被有选择地存储在MIDI外部缓冲器21d和滴答声时间数据缓冲器21b中。
另一方面,数字混合信号到达电视电话单元23A.电视电话单元23A将视听数据代码和滴答声信号从数字混合信号中解调.视听数据代码被传递给显示驱动器21g,以便在显示单元22A上产生运动画面,即键12c上的教师手的图像.另一方面,当电视电话单元23A发现滴答声信号时,电视电话单元23A产生检测信号,并将该检测信号提供给时钟设置器21e,使得时钟设置器21e参考存储在滴答声时间数据缓冲器21b中的滴答声时间数据代码来开始对内部时钟“B”21a的设置工作.
定时控制器21f从MIDI外部缓冲器21d取出时间标记数据代码,并将标记时间与内部时钟“B”21a上的时间相比较,以查看显示驱动器21g是否开始在显示单元22A上产生音符条图像。这样,显示单元21g在显示单元22A上与键12c上的教师手的图像一起产生音符条图像。
图13图示了通过音乐教育支持系统进行的远程课程。将MIDI乐曲数据代码/时间标记数据代码和滴答声时间数据代码作为分组而从控制器11A通过分组交换网络传送给控制器21A,其中,所述分组交换网络形成因特网的一部分。另一方面,电视电话单元13A从电影摄影机/麦克风14A接收视频信号和单声道音频信号,并从滴答声生成器11d接收滴答声信号。将滴答声信号混合到单声道音频信号中。这样,将滴答声信号混合并压缩到视听信号中。将数字混合信号通过远程电信系统的传送信道而从电视电话单元13A传送到电视电话单元23A。
个人计算机系统11A布置在电子键盘12A附近,并且在电子键盘12A上方提供电影摄影机/麦克风14A。教师M1将指令发给个人计算机系统11A,并且在电子键盘12A上手指演奏乐曲段。电影摄影机/麦克风拾取键12c上的教师手的图像,并收集诸如口头指导的教师的语音。
个人计算机系统21A也布置在电子键盘24A旁边,并且显示单元22A对着凳子上的学员M2。如上文中所述,在显示单元22A上产生音符条图像和键12c上的教师手的图像,使得学员在显示单元22A上的图像的引导下练习在电子键盘24A上用手指演奏。
图14示出了滴答声时间数据代码CLD和相关联的滴答声信号CK之间的同步。滴答声信号CK是周期性信号,并且,出于此原因,其在数字混合信号中容易被辨别。当滴答声出现时,滴答声生成器11d检查内部时钟“A”,以查看内部时钟信号“A”11d指向什么时间,并产生滴答声时间数据代码。滴答声生成器11d同时输出滴答声时间数据代码CLD和滴答声信号CK,并且,有效负载是滴答声时间数据代码的分组和滴答声信号几乎同时被传递到各自的通信信道10ca和10cb。这样,将每个滴答声时间数据代码CLD与滴答声信号CK配对。然而,没有任何这样的保证,即滴答声时间数据代码CLD和滴答声信号CK同时到达控制器21A和电视电话单元23A。如上文中所述,只要时间延迟在某个时间周期内,控制器21A就使滴答声时间数据代码CLD与滴答声信号CK配对。
详细地说,假设滴答声信号CK到达电视电话单元23A比相关联的滴答声时间数据代码CLD到达分组接收器模块21c早,如图15A所示.当滴答声信号CK到达电视电话单元23A时,电视电话单元23A产生检测信号,并将该检测信号提供给时钟设置器21e.然后,时钟设置器21e启动内部计时器,并准备好进行对内部时钟“B”21a的设置工作.假设滴答声时间数据代码CLD比滴答声信号CK的到达时间迟后delta-T到达滴答声时间数据缓冲器21b.滴答声时间是“t”.如果delta-T比所述某个时间周期短,则时钟设置器21e用滴答声时间和时间延迟之和即(t+delta-T)来设置内部时钟“B”21a.这样,时钟设置器21e使内部时钟“B”21a与内部时钟“A”11a同步.所述某个时间周期是预定的,并且考虑了滴答声信号CK的固定间隔.另一方面,如果在所述某个时间周期内在滴答声时间数据缓冲器21b中没有发现任何滴答声时间数据代码,则时钟设置器21e放弃设置工作.
假设滴答声时间数据代码CLD到达分组接收器模块21c比滴答声信号CK到达电视电话单元23A早,如图15B所示。滴答声时间数据代码CLD被存储在滴答声时间数据缓冲器21b中,并且启动内部计时器。滴答声时间是“t”。如果滴答声信号在某个时间周期内到达电视电话单元23A,则电视电话单元23A将检测信号提供给时钟设置器21e,并且时钟设置器21e利用滴答声时间“t”来设置内部计时器“B”21a。另一方面,如果在所述某个时间周期内任何滴答声信号都没有到达电视电话单元23A,则时钟设置器21e放弃设置工作,并且从滴答声时间数据缓冲器21b中除去滴答声时间数据代码CLD。
在远程电信会议系统和流系统之间,所述某个时间周期是不同的。尽管通信信道10ca上的时间延迟根据拥塞而变化,但是该时间延迟落在10毫秒和100毫秒之间的范围内。
在音乐教育支持系统中采用远程电信会议系统的情况中,数字混合信号被延迟200-300毫秒。如果滴答声时间数据代码CLD到达控制器21A比滴答声信号CK到达电视电话单元23A早,如图15B所示,则将所述某个时间周期估计为通信信道10ca上的最小时间延迟即10毫秒与另一通信信道10cb上的最大时间延迟即300毫秒之间的差。这样,所述某个时间周期约为(300+alpha)毫秒,其中,alpha范围为十几毫秒至200毫秒。alpha是防备异常状态的余量。另一方面,如果滴答声时间数据代码CLD到达控制器21A比滴答声信号CK到达电视电话单元23A晚,如图15A所示,则通信信道10ca上的延迟是不常见的。假设允许的时间延迟为300毫秒,并且将所述某个时间周期估计为允许的时间延迟和通信信道10cb上的最小时间延迟即200毫秒之间的差。这样,所述某个时间周期约为(300-200)毫秒,即100毫秒。然而,滴答声时间数据代码的延迟是不常见的。视听站10E可以建议教师M1停止上课。
在音乐教育支持系统中采用流系统的情况中,通信信道10cb上的时间延迟范围是15秒至30秒。这样,通过信息流系统的时间延迟比通过远程电信会议系统的时间延迟长得多。出于此原因,滴答声时间数据代码CLD迟于滴答声信号CK很少见,并且在控制器21A中不处理MIDI乐曲数据代码。所述某个时间周期可以是0。当滴答声时间数据代码CLD到达控制器21A比滴答声信号CK到达电视电话单元23A早时,时钟设置器21e进行对内部时钟“B”21a的设置工作。由于通信信道10cb上的时间延迟比另一通信信道10ca上的时间延迟长得多,因此所述某个时间周期约为(30+beta)秒,其中,beta是若干秒的量级。Beta也是防备异常状态的余量。
如上文中所述,当设计所述某个时间周期时,考虑了滴答声信号CK的固定间隔.在音乐教育支持系统中采用远程电信会议系统的情况中,通信信道10cb上的时间延迟范围在200毫秒和300毫秒之间,使得该固定间隔被设计为2秒的量级.将图15B中示出的条件下的所述某个时间周期称为“某个时间周期B”,而将图15A中示出的条件下的所述某个时间周期称为“某个时间周期A”.当固定间隔为2秒的量级时,所述某个时间周期B可以是0.5秒的量级,而所述某个时间周期A可以是0.1秒的量级.在音乐教育支持系统中采用流系统的情况中,将通信信道10cb上的时间延迟估计为5-20秒,并且可以将滴答声信号CK的固定间隔设计为30秒的量级.所述某个时间周期B可以是25秒的量级,而所述某个时间周期A可以是0.
在下文中,对由个人计算机系统11A和21A执行的计算机程序进行描述。形成个人计算机系统11A一部分的微处理器周期性地进入图16中示出的子例行程序,并且重复由步骤S11至S16组成的循环。
微处理器首先检查在个人计算机系统11A和电子键盘12A之间的接口,以查看一个或多个MIDI乐曲数据代码/相关联的时间标记代码是否到达了那里,如步骤S11。只要教师M1按下一个或多个键12c,时间标记器12ab就用标记时间来给每个MIDI乐曲数据代码加印记,使得MIDI乐曲数据代码分别带有时间标记数据代码。当步骤S11处的答案给出为肯定时,微处理器将所述一个或多个MIDI乐曲数据代码/相关联的时间标记代码传递到分组传送器模块11b,如步骤S13,使得分组传送器模块11b将所述一个或多个MIDI乐曲数据代码/相关联的时间标记代码作为一个或多个分组的有效负载而通过通信信道10ca传送到控制器21A,如步骤S14。
另一方面,如果教师M1不改变键的状态,则步骤S11处的答案给出为否定,并且微处理器检查工作存储器,以查看滴答声生成器11c是否将滴答声时间数据代码存储在其中,如步骤S12。当滴答声出现时,滴答声生成器11c检查内部时钟“A”11a,以查看内部时钟信号“A”11a指向什么时间,并产生滴答声时间数据代码。滴答声时间数据代码被存储在工作存储器中。在此情形中,步骤S12处的答案给出为肯定。然后,在步骤S13,微处理器将滴答声时间数据代码传递给分组传送器模块11b,并且在步骤S14,分组传送器模块11b将滴答声时间数据代码作为分组的有效负载传送给控制器21A。
另一方面,如果微处理器没有发现任何滴答声时间数据代码,则步骤S12处的答案给出为否定,并且微处理器返回步骤S11。这样,微处理器重复由步骤S11和S12组成的循环,直到步骤S11或S12处的答案改变为肯定为止。
当微处理器完成步骤S14处的任务时,微处理器检查被分配了教师指令的标志,以查看教师M1是否完成了课程,如步骤S15。当教师M1正在给学员M2上课时,步骤S15处的答案给出为否定,并且微处理器返回步骤S11。这样,微处理器重复由步骤S11至S16组成的循环,直到教师M1完成该课程为止。电视电话单元13A将数字混合信号传送给电视电话单元23A,而不依赖于控制器11A。
当教师M1完成该课程时,步骤S15处的答案给出为肯定,并且微处理器立即返回主例行程序。
合并在控制器21A中的微处理器运行图17A和17B中示出的子例行程序,以便完成由方框21a、21c、21e和21f代表的任务。利用计时器“A”来测量所述某个时间周期“A”,而将另一计时器“B”用于所述某个时间周期“B”。
微处理器周期性地进入子例行程序,并且重复由步骤S21至S30和S201至S209组成的循环。微处理器首先将标志“A”和“B”设置为0,如步骤S21。微处理器通过作为分组接收器模块21c的另一个子例行程序来接收分组,并通过再一个子例行程序来从控制器21A和电视电话23A之间的接口取出视听数据代码。步骤S22a代表所述接收和数据获取。
微处理器检查所接收的数据代码,以查看该数据代码是表示MIDI乐曲数据和相关联的时间标记还是表示视听数据,如步骤S22b.当微处理器发现视听数据时,微处理器从该视听数据产生视听信号,并将该视听信号传递给显示驱动器21g,以便在显示单元22A上再现教师手的真实图像,如步骤S23a.另一方面,当MIDI乐曲数据代码和相关联的时间标记数据代码到达控制器21A时,微处理器将MIDI乐曲数据代码和相关联的时间标记数据代码传递给MIDI外部缓冲器21d,以便将它们存储在MIDI外部缓冲器21d中,如步骤S23b.
当完成步骤S23a或S23b处的任务时,微处理器检查滴答声时间数据缓冲器21b,以查看滴答声时间数据代码是否已经到达,如步骤S24。
当微处理器在滴答声时间数据缓冲器21b中没有发现滴答声时间数据代码时,步骤S24处的答案给出为否定,并且微处理器检查工作存储器,以查看电视电话23是否已经将滴答声信号的到达通知给微处理器,如步骤S25。如果滴答声信号没有到达电视电话,则步骤S25处的答案给出为否定,并且微处理器返回步骤S22a。这样,当视听站10E在滴答声时间数据代码和滴答声信号不存在时接收MIDI乐曲数据代码/相关联的时间标记数据代码和视听数据代码的时候,微处理器重复由步骤S22a、S22b、S23a、S23b、S24和S25组成的循环,并且将MIDI乐曲数据代码/相关联的时间标记数据代码积存在MIDI外部缓冲器21d中,或者将视听数据代码传递给显示驱动器21g,以再现教师手的真实图像。
当电视电话23将滴答声信号的到达通知了微处理器时,步骤S25处的答案给出为肯定,并且微处理器检查标志“B”,以查看滴答声信号是否被延迟,如步骤S26。当微处理器发现标志“B”已被改变为“1”时,微处理器确定滴答声信号迟于相关联的滴答声时间数据代码,并且用滴答声时间数据代码来设置内部时钟“B”,如步骤S208。这样,充当时钟设置器21e的微处理器将内部时钟“B”调整为时间“t”。随后,微处理器将标志“B”改变为0,并将计时器“B”重置为0,如步骤S209。当完成步骤S209处的任务时,微处理器进行到步骤S29。
如果在步骤S26微处理器发现标志“B”仍然为0,则步骤S24处的答案给出为否定,并且微处理器确定滴答声时间数据代码迟于滴答声信号。然后,微处理器启动计时器“A”,如步骤S27,并将标志“A”改变为1,如步骤S28。当完成步骤S28处的任务时,微处理器进行到步骤S29。
当在步骤S24微处理器在滴答声时间数据缓冲器21b中发现滴答声时间数据代码时,步骤S24处的答案给出为肯定,并且微处理器检查工作存储器,以查看标志“A”是否指示“1”,如步骤S202。当标志“A”指示“0”时,微处理器确定滴答声时间数据代码迟于相关联的滴答声信号,并将内部时钟“B”21a调整为(t+ΔT),如步骤S203。随后,微处理器将标志“A”改变为0,并将计时器“A”重置为0,如步骤S204。当完成步骤S204处的任务时,微处理器进行到步骤S29。
如果标志“A”指示0,则步骤S202处的答案给出为否定,并且微处理器确定滴答声信号迟于相关联的滴答声时间数据代码。然后,微处理器启动计时器“B”,如步骤S205,将滴答声时间数据代码存储在滴答声时间数据缓冲器21b中,如步骤S206,并将标志“B”改变为1,如步骤S207。当完成步骤S207处的任务时,微处理器进行到步骤S29。
尽管在步骤S27或S205计时器“A”或计时器“B”开始测量时间消逝,但没有任何这样的保证,即相关联的滴答声时间数据代码或者相关联的滴答声信号到达视听站10E.微处理器检查计时器“A”或计时器“B”,以查看所述某个时间周期是否终结,如步骤S29.如果在所述某个时间周期终结之前,相关联的滴答声时间数据代码或相关联的滴答声信号没有到达视听站10E,则步骤S29处的答案给出为肯定,并且,微处理器返回步骤S21,并将标志“A”和“B”均重置为0.这意味着微处理器忽略已经到达的滴答声信号或滴答声时间数据代码.在下一个滴答声时间数据代码和相关联的滴答声信号到达视听站10E之后,微处理器重新开始设置工作.即使微处理器跳过一次设置工作,音符条图像和教师手的真实图像之间的时间延迟也是可忽略的.
另一方面,如果计时器“A”或者“B”指示比所述某个时间周期短的时间消逝,则步骤S29处的答案给出为否定,并且微处理器进行到用于产生音符条图像的子例行程序S30。微处理器充当定时控制器21f,并确定将产生或衰减电子音调的时刻。当预定的时间到来时,微处理器将代表音符条的图像数据提供给显示驱动器21g。然后,显示驱动器21g从该图像数据产生视听信号,并将该视听信号提供给显示单元22A,以便产生音符条图像。这样,音符条图像与键12c上的手指演奏同步再现。将在下文中参考图18来描述所述子例行程序。
当微处理器从步骤S30返回时,微处理器检查工作存储器,以查看教师M1是否结束了课程,如步骤S201。当教师M1继续上课时,步骤S201处的答案给出为否定,并且微处理器返回步骤S22a。这样,在上课期间,微处理器重复由步骤S22a至S30和S201至S209组成的循环。
当教师M1结束课程时,他或她通过控制器11A来命令控制器21A停止数据处理,使得步骤S201处的答案给出为肯定。然后,微处理器立即返回主例行程序。
当微处理器从步骤S30返回时,微处理器检查工作存储器,以查看教师M1是否结束了课程,如步骤S201。当教师M1继续上课时,步骤S201处的答案给出为否定,并且微处理器返回到步骤S22a。这样,在上课期间,微处理器重复由步骤S22a至S30和S201至S209组成的循环。
当教师M1结束课程时,他或她通过控制器11来命令控制器21停止数据处理,使得步骤S201处的答案给出为肯定。然后,微处理器立即返回主例行程序。
在下文中,参考图18来对用于产生音符条图像的子例行程序进行描述。学员M2坐在电子键盘24A前面的凳子上,并且对着显示单元22A的屏幕。如图19A和19B所示,显示单元22A的屏幕被分为两个区域G1和G2。在上部区域G1中从单个帧中的视听数据再现键12c上的教师手的移动图像,而在另一个下部区域G2中产生音符条图像Ba。音符条图像Ba分别位于相关联的黑/白键12c图像的上方。
采用钢琴卷轴系统。在日本专利第3058051号中公开了该钢琴卷动技术。场景被高速复制。从先前的场景中删除部分场景,并将新图像添加到先前的场景中。这样,图像被移动,好像场景被卷动一样。
音符条图像Ba朝着相关联的键12c的图像而向下移动,好像场景被卷动一样。例如,音符条Ba1指示将按下键12c1的时刻和学员M2按下键12c1所经过的时间周期。当音符条图像Ba触及相关联的键12c的图像时,期望学员开始按下电子键盘24A的对应键。音符条图像Ba的长度对应将要产生的音符或电子音调的长度,使得学员M2持续按下该键,直到相关联的音符条下降到区域G1和区域G2之间的边界以下为止。尽管场景间歇地向下移动,但学员M2感觉场景被连续卷动。术语“卷动时间间隔”意思是当前产生的场景和先前的场景之间的时间消逝。
当微处理器进入图18中示出的子例行程序时,微处理器首先检查计时器,以查看卷动时间间隔是否终结,如步骤S31。如果距先前卷动的时间消逝比卷动时间间隔短,则答案给出为否定,并且微处理器立即返回图17A和17B中示出的子例行程序。另一方面,当微处理器确认卷动时间间隔终结时,步骤S31处的答案给出为肯定,并且微处理器将场景卷动单位长度,如步骤S32。
随后,微处理器检查MIDI外部缓冲器21d,以查看MIDI乐曲数据代码/相关联的时间标记数据代码是否已经被存储在其中,如步骤S33。当微处理器没有发现任何MIDI乐曲数据代码时,步骤S33处的答案给出为否定,并且微处理器立即返回图17A和17B中示出的子例行程序。
另一方面,如果至少一个MIDI乐曲数据代码/相关联的时间标记数据代码已经被存储在MIDI外部缓冲器21d中,则步骤S33处的答案给出为肯定,并且微处理器从MIDI外部缓冲器21d读出表示单个事件的MIDI乐曲数据代码和相关联的时间标记数据代码,如步骤S34。微处理器确定该事件将发生的时间,如步骤S35。微处理器读取内部时钟“B”21a上的时间,并且将由时间标记数据代码代表的标记时间与内部时钟“B”21a上的时间相比较,以查看该事件发生的时间是否过去,如步骤S36。
如果步骤S36处的答案给出为肯定,则将产生对应音符条的图像Ba,好像它是在适当时刻产生的一样,并且微处理器确定当前场景上的对应音符条的图像Ba的长度,如步骤S37。
当微处理器确定当前场景中对应条的长度时,微处理器将代表当前场景中的音符条的图像数据提供给显示驱动器21g,并且显示驱动器21g在显示单元22A上产生音符条图像Ba,如步骤S38。显示驱动器21g把在其上产生音符条图像Ba的像素改变为预定颜色,使得学员M2感觉音符条图像Ba向下移动。
当完成步骤S38处的任务时,微处理器从MIDI外部缓冲器21d中删除MIDI乐曲数据代码和相关联的时间标记数据代码,如步骤S39,并进行到步骤S305。
另一方面,如果步骤S36处的答案给出为否定,则微处理器将标记时间与显示驱动器21g开始产生当前场景的时间相比较,如步骤S301。如果答案给出为否定,则将在以后产生对应音符条的图像Ba,使得微处理器将MIDI乐曲数据代码/相关联的时间标记数据代码保持在MIDI外部缓冲器21d中,如步骤S304。当完成步骤S304处的任务时,微处理器进行到步骤S305。
当答案给出为肯定时,微处理器确定将在其上产生音符条图像Ba的像素,并且将代表音符条Ba的图像数据提供给显示驱动器21g。显示驱动器21g将所述像素改变为与产生背景图像的其它像素的颜色不同的预定颜色,如步骤S302,并从MIDI外部缓冲器21d中删除MIDI乐曲数据代码和相关联的时间标记数据代码,如步骤S303。当完成步骤S303处的任务时,微处理器进行到步骤S305。
在步骤S305,微处理器检查MIDI外部缓冲器21d,以查看其中是否剩余有MIDI乐曲数据代码和相关联的时间标记数据代码.当微处理器在MIDI外部缓冲器21d中发现另一个MIDI乐曲数据代码和相关联的时间标记数据代码时,答案给出为肯定,并且微处理器返回步骤S34.这样,微处理器重复由步骤S34至步骤S39和步骤S301至步骤S305组成的循环,以便产生新音符条的图像,并移动已经在先前场景上产生的音符条图像.然而,如果微处理器在MIDI外部缓冲器21d中没有发现任何MIDI乐曲数据代码和相关联的时间标记数据代码,则步骤S305处的答案给出为否定,并且微处理器返回图17A和17B中示出的子例行程序.
当微处理器与显示驱动器21g合作时,在显示单元22A上产生教师手的真实图像和音符条图像Ba,并从显示单元22A听到电子音调和教师的口头指导,其中,所述教师手的真实图像被移动为好像教师M1在学员M2附近的键盘上用手指演奏一样。在上课之前,首先在显示单元22A上从视听数据代码再现电子键盘12A周围的图像。包括键12c的真实图像的电子键盘12A和教师手的真实图像出现在整个区域G1+G2中,如图19A所示。上部区域G2中的阴影线代表电子键盘12A壳体的真实图像。为了指定上课时将被按下的最左边的键12c和最右边的键12c,教师M1可以在上课前按下这些键12c,以便允许控制器21A确定区域G1中的真实图像。如下文中所述,键12c的图像在上课时被放大。
当教师M1开始在键12c上用手指演奏时,MIDI乐曲数据代码间歇地到达视听站10E,并且在区域G2中再现音符条图像Ba,如图19B所示。在图19A中被虚线环绕的预定键12c上的教师手的真实图像被放大,并且放大的真实图像被分配给下部区域G1。图19B示出了所述场景之一,并且以高速改变所述场景,使得教师手指的真实图像与键12c上的教师手指相似地移动。
由于音符条图像Ba指示将要按下的键、按下该键的时刻和音调的长度,因此学员M2在音符条图像Ba的引导下练习在键盘24A上手指演奏。此外,由于教师M1通过区域G1中的真实图像来给出用手指演奏的演示,因此学员M2容易地理解如何移动手指。
在通过MIDI电缆连接的电子键盘之间,时间延迟是可以忽略的。在通过没有任何同步的公共通信信道连接的电子键盘之间,时间延迟是严重的,其中,由于变化的通信量拥塞而导致没有任何同步。如果在视听站之间将视听数据代码与MIDI乐曲数据代码同时传送,而没有任何时钟设置工作,则教师手的图像很有可能迟于音符条的图像。
图20示出了没有任何时间标记的MIDI乐曲数据代码I1、I2和I3的连续传送。下面假设多个事件同时发生,则分别代表这些事件的MIDI乐曲数据代码I1、I2和I3同时产生,并且定时数据代码被添加到MIDI乐曲数据代码I1、I2和I3上。通过通信信道来连续地传送定时数据代码和MIDI乐曲数据代码I1、I2和I3。定时数据代码首先到达数据缓冲器BF,并被存储在其中,如BF(1)所示。随后,MIDI乐曲数据代码I1到达数据缓冲器BF,并与定时数据代码一起存储在其中,如BF(2)所示。MIDI乐曲数据代码I2和I3间歇地到达数据缓冲器,并被存储在其中,如BF(3)和BF(4)所示。由于未使用时间来给MIDI乐曲数据代码I1、I2和I3加印记,因此立即在显示单元上产生音符条图像I1、I2和I3。详细地说,当把MIDI乐曲数据代码I1存储在数据缓冲器BF中时,在显示单元22上产生对应音符条图像I1,如SC1所示。当把下一个MIDI乐曲数据代码I2存储在数据缓冲器BF中时,将音符条图像I1略微向下移动,并且在场景SC2中与音符条图像I1一起新产生音符条图像I2。当把下一个MIDI乐曲数据代码I3存储在数据缓冲器BF中时,将音符条图像I1略微向下移动,并且在场景SC3中新产生音符条图像I3。这样,尽管事件同时发生,但是在显示单元上顺次产生音符条图像I1、I2和I3。
音乐教育支持系统表现得图20中示出的系统不同。假设三个事件同时发生。电子键盘12A产生MIDI乐曲数据代码I1、I2和I3,并且计时器标记器12ab将相同的标记时间赋予MIDI乐曲数据代码I1、I2和I3。将MIDI乐曲数据代码I1、I2和I3与指示相同标记时间的时间标记数据代码Tim.A、Tim.B、Tim.C配对,并且,以Tim.A、I1、Tim.B、I2、Tim.C、I3的顺序,将MIDI乐曲数据代码和时间标记数据代码从分组传送器模块11b通过通信信道10ca而连续地传送到控制器21A。时间标记数据代码Tim.A首先到达控制器21A,并被存储在MIDI外部缓冲器21d中,如21d(1)所示。接着,MIDI乐曲数据代码I1到达控制器21,并被存储在MIDI外部缓冲器21d中,如21d(2)所示。这样,时间标记数据代码Tim.B、MIDI乐曲数据代码I2、时间标记数据代码Tim.C和MIDI乐曲数据代码I3间歇地到达控制器21,并被存储在MIDI外部缓冲器21d中,如21d(3)、21d(4)、21d(5)和21d(6)所示。
微处理器运行图18中示出的子例行程序,并在显示单元22A上产生音符条的图像。首先,当内部时钟“B”到达标记时间Tim.A时,微处理器确定音符条图像I1,并将代表音符条图像I1的图像数据提供给显示驱动器21g,如步骤S302。显示驱动器21g在场景SC1中产生音符条图像I1。
随后,在步骤S36,微处理器读出下一个时间标记数据代码Tim.B,并通知标记时间Tim.B与标记时间Tim.A相同。然后,在步骤S37,微处理器确定音符条图像I2的长度。由于标记时间Tim.B与标记时间Tim.A相同,因此在下一个场景SC2中,音符条图像I2将与音符条图像I1长度相等。微处理器将代表音符条图像I1和I2图像数据提供给显示驱动器21g,使得显示驱动器21g在场景SC2中产生音符条图像I1和I2。
当微处理器取出下一个时间标记数据代码Tim.C时,在步骤S38,微处理器通知标记时间Tim.C与标记时间Tim.A和Tim.B相同,并且确定音符条图像I3的长度。由于标记时间Tim.C与标记时间Tim.A和Tim.B相同,因此音符条图像I3与音符条图像I1和I2长度相等,使得显示驱动器21g在下一个场景SC3中产生长度彼此相等的音符条图像I1、I2和I3。尽管将数据代码从控制器11连续地传送到控制器21A,但是在显示单元22上产生音符条图像I1、I2和I3,好像MIDI乐曲数据代码I1、I2和I3同时到达控制器21A一样。这样,控制器2IA从音符条图像I1、I2和I3消除了时间延迟。
在音符条图像在期望学员按下对应键之前出现在场景中的情况中,手指的真实图像将迟于标记时间。延迟时间等于移过区域G2的相关联的音符条图像所耗费的时间。另外,微处理器将在教师手的真实图像之前的预定时间提供图像数据。另一方面,在音符条图像在期望学员M2按下所述键时出现在场景中的情况中,微处理器将图像数据提供给显示驱动器21g,而不从视听数据代码产生任何延迟。这样,借助于时间标记,在显示单元22A上及时地产生了音符条图像。
尽管在第二实施例中时间标记器12ab产生用于每个MIDI乐曲数据代码的时间标记数据代码,但另一实施例的时间标记器可以用单个标记时间来给与其它MIDI乐曲数据代码同时产生的MIDI乐曲数据代码加印记。在此实例中,微处理器运行图22A和22B中示出的子例行程序,该子例行程序与图18中示出的子例行程序不同。系统结构和其它计算机程序与第二实施例的系统结构和计算机程序相似,使得用与指定图12和13中示出的系统组件的标号相同的标号来标注对应的其它系统组件。
在下文中,将描述集中在参考图22A、22B和23的子例行程序和音符条图像上.当教师M1在键12A上用手指演奏时,时间标记器12ac有选择地用标记时间来给MIDI乐曲数据代码加印记.当教师M1同时按下多个键12c时,产生表示音符开(note-on)事件的多个MIDI乐曲数据代码.然而,时间标记器12ac利用标记时间来给第一MIDI乐曲数据代码加印记.这意味着将其它MIDI乐曲数据代码传递给分组传送器模块11b,而没有任何时间标记数据代码.当然,当教师M1在所述多个键之后按下另一个键12c时,时间标记器利用用于该新按下的键12c的标记时间来给MIDI乐曲数据代码加印记.
分组传送器模块11c将在标记时间同时产生的时间标记数据代码和MIDI乐曲数据代码装载到分组中,并将该分组传递到通信信道10ca,如图23所示。分组到达控制器21A,并且,首先将时间标记数据代码存储在MIDI外部缓冲器21d中,如BF(1)所示。将MIDI乐曲数据代码I1、I2和I3接连存储在MIDI外部缓冲器21d中,如BF(2)、BF(3)和BF(4)所示。
合并在控制器21A中的微处理器周期性地进入图22A和22B中示出的子例行程序,并及时地将代表音符条I1、I2和I3的图像数据提供给显示驱动器21g,以产生音符条图像I1、I2和I3。在图22A和22B示出的子例行程序中,步骤S31至S34、S35至S39以及S301至S305与图18中的步骤相同,并且,将步骤34a、34b和34c添加到该子例行程序中。出于此原因,为简单起见,省略对相同步骤的描述。
假设将时间标记数据代码和MIDI乐曲数据代码I1、I2和I3积存在MIDI外部缓冲器21d中。在步骤S34,微处理器访问MIDI外部缓冲器21d,并检查MIDI外部缓冲器21d,以查看第一MIDI乐曲数据代码I1是否带有时间标记数据代码,如步骤S34a。第一MIDI乐曲数据代码I1带有时间标记数据代码,则步骤S34a处的答案给出为肯定。然后,微处理器将时间标记数据代码存储在工作存储器中,如步骤S34c,并进行到步骤S35。微处理器经过步骤S36、S301和S302,并通过步骤S36产生音符条图像I1。这样,在场景SC1中产生音符条图像I1,如图23所示。由于MIDI乐曲数据代码I2和I3仍然保留在MIDI外部缓冲器21d中,因此步骤S305处的答案给出为肯定,并且微处理器返回步骤S34,并在步骤S34读出下一个MIDI乐曲数据代码I2。
如上文中所述,MIDI乐曲数据代码I1、I2和I3同时产生,使得第二MIDI乐曲数据代码I2不带有任何时间标记数据代码。出于此原因,步骤S34a处的答案给出为否定,并且微处理器从工作存储器中读出时间标记数据代码,如步骤S34b,并在步骤S37确定音符条图像I2的长度。音符条图像I2的长度被确定为好像音符条图像I2与音符条图像I1同时产生一样。微处理器将代表音符条I2的图像数据提供给显示驱动器21g,并且显示驱动器21g在下一个场景SC2中与音符条图像I1一起产生音符条图像I2。
微处理器再次返回步骤S34,并且在步骤S34读出下一个MIDI乐曲数据代码I3。MIDI乐曲数据代码I3不带有任何时间标记数据代码,并且步骤S34a处的答案给出为否定。在步骤S34b,微处理器从工作存储器中读出时间标记数据代码,并在步骤S37确定音符条图像I3的长度。在下一个场景SC3中,将音符条图像I3与音符条图像I1和I2一起产生,好像音符条图像I3与其它音符条图像I1和I2同时产生一样。
因而,尽管时间标记器12ac仅利用标记时间来给第一MIDI乐曲数据代码加印记,但是在显示单元22A上产生音符条图像I1、I2和I3,好像在所有MIDI乐曲数据代码上都加了相同的标记时间一样。
如将理解的,在同时产生的MIDI乐曲数据代码之间共享滴答声时间数据代码,并且,将音符条图像产生为好像MIDI乐曲数据代码分别带有相同的滴答声时间数据代码一样.分组的有效负载比第二实施例的分组有效负载轻,并且以比第二实施例的间隔更长的间隔来进行设置工作.这样,在同时产生的MIDI乐曲数据代码之间共享的滴答声时间数据代码导致了音乐教育支持系统中的高速数据处理.
第三实施例
转向附图的图24,实施本发明的再一音乐教育支持系统主要包括视听站10G、另一视听站10H和通信信道10I。该音乐教育支持系统可用于远程课程。视听站10G和10H被分别分配给教师和学员。当然,可以将超过一个视听站分配给多个学员。
视听站10G包括控制器11B、自动演奏钢琴12B、电视电话13B和电影摄影机/麦克风14B。类似地,另一视听站10H包括控制器21B、自动演奏钢琴22B、电视电话23B、显示单元24B和声音系统25B。扬声器被合并在声音系统25B中。控制器11B通过通信信道10I连接到控制器21B,并且将MIDI乐曲数据代码/时间标记数据代码/滴答声时间数据代码和数字混合信号通过通信信道10I而从控制器/电视电话11B/13B分别提供给控制器21B/电视电话23B。在此实例中,因特网给音乐教育支持系统提供通信信道10I。
教师坐在自动演奏钢琴12B前面的凳子上,以便在键12c上用手指演奏乐曲段,并且电影摄影机/麦克风14B/13B指向键12c上的教师的手。当教师在键12c上用手指演奏乐曲段时,自动演奏钢琴12B产生MIDI乐曲数据代码,并且通过电影摄影机/麦克风来拾取键12c上的教师的手和教师的口头指导。控制器11B用时间标记来给MIDI乐曲数据代码加印记,并且,将定时数据代码添加到MIDI乐曲数据代码/时间标记数据代码上。另一方面,将定时信号与视听信号混合,并将其转换为数字混合信号。将定时数据代码与定时信号同时产生,并且,将MIDI乐曲数据代码/时间标记数据代码/定时数据代码和数字混合信号通过通信信道而分别传送到控制器21B/电视电话单元23B。控制器21B通过使用定时信号/定时数据代码来使MIDI乐曲数据代码与视听数据代码同步,并且在适当的时刻,将MIDI乐曲数据代码与提供给显示单元24B和声音系统25B的视听数据代码同步提供给自动演奏钢琴22B。自动演奏钢琴22B对学员给出演示。学员观看显示单元24B上再现的教师手的真实图像,并通过声音系统25B来听取口头指导。
在此实例中,如图25所示,滴答声时间数据代码CLD充当定时数据代码,并且滴答声信号CK充当定时信号,其中,滴答声信号CK是周期性信号。分别利用个人计算机系统来实现控制器11B/21B。控制器11B运行计算机程序,以便完成内部时钟“A”11a、时间标记器11b、分组传送器模块11c和滴答声生成器11d的功能。类似地,控制器21B运行计算机程序,以便完成内部时钟“B”21a、分组接收器模块21c、时钟设置器21e和切换模块21h的功能。在合并在个人计算机系统21B中的工作存储器内定义滴答声时间数据缓冲器21b和MIDI外部缓冲器21d。
自动演奏钢琴12B包括钢琴控制器12d,而另一自动演奏钢琴22B也包括钢琴控制器22a。将键传感器阵列、数据处理器和键致动器合并在钢琴控制器12d中,而将对应组件和音调生成器合并在另一钢琴控制器22a中。
当教师在键12c上用手指演奏乐曲段时,键传感器将键运动报告给数据处理器,并且数据处理器产生代表音符开事件的MIDI乐曲数据代码和代表音符关事件的MIDI乐曲数据代码.钢琴控制器12d将MIDI乐曲数据代码传递给控制器11B,并且,控制器11B将用标记时间加了印记的MIDI乐曲数据代码通过通信信道10ca传送给控制器21B.时间标记器11b从内部时钟“A”11a读取时间,并用该时间来给MIDI乐曲数据代码加印记.MIDI乐曲数据代码和相关联的时间标记数据代码被间歇地提供给自动演奏钢琴22B,并且,数据处理器通过键致动器来再现键运动.另外,数据处理器将MIDI乐曲数据代码提供给音调生成器.波形存储器被合并在音调生成器中,并且音调生成器从波形数据产生音频信号.MIDI乐曲数据代码表示程序改变,并且音调生成器将钢琴的音色(timbre)给予电子音调.将数字音频信号通过切换模块21h传递给声音系统,并将其转换为电子音调.切换模块21h监控数字音频信号,以便检测电子音调的响度.
当教师开始上课时,内部时钟“A”11a开始测量时间消逝,并且滴答声生成器11d开始使滴答声以固定间隔出现。滴答声生成器11d在每个滴答声时将滴答声信号CK提供给电视电话单元13B,并检查内部时钟“A”11a,以得到在内部时钟“A”11a上读取的时间,使得在传递滴答声信号CK的同时,将指示所读取的时间的滴答声时间数据代码CLD提供给分组传送器模块11c。这样,将每个滴答声信号CK与滴答声时间数据代码CLD配对,如图25所示。
将MIDI乐曲数据代码/相关联的时间标记数据代码和滴答声时间数据代码通过分组传送器模块11c而装载在分组中。由于将不同的控制代码分配给MIDI乐曲数据代码/相关联的时间标记数据代码和滴答声时间数据代码,因此分组接收器模块21c容易地将滴答声时间数据代码和MIDI乐曲数据代码/相关联的时间标记数据代码区分开。
另一方面,只要电视电话单元13B接收到滴答声信号CK,电视电话单元13B就将滴答声信号CK与音频信号混合。该音频信号是单声道信号,并且,将在单声道语音信号中很少发生的频率分配给滴答声信号CK。分配给滴答声信号CK的频率可以是40Hz的量级。视频信号也被提供给电视电话单元13B。电视电话单元13B将它们压缩为数字混合信号,并将它通过远程电信会议系统的通信信道10cb传送到电视电话单元23B。可以通过合适的滤波器来从数字混合信号中分离滴答声信号。
分组间歇地到达控制器21B。当一个或多个分组到达控制器21B时,分组接收器模块21c检查有效负载,以查看卸载什么种类的数据代码。当发现MIDI乐曲数据代码/时间标记数据代码时,分组接收器模块21c将该MIDI乐曲数据代码/时间标记数据代码传递给MIDI外部缓冲器21d,并将它们存储在其中。另一方面,当分组接收器模块21c发现滴答声时间数据代码时,分组接收器模块21c将该滴答声时间数据代码传递给滴答声时间数据缓冲器21b,并将它存储在其中。
另一方面,电视电话单元23B接收数字混合信号。将滴答声信号CK从数字混合信号中分离,并将检测信号提供给时钟设置器21e。然后,时钟设置器21e进行对内部时钟“B”21a的设置工作。尽管将滴答声信号CK与相关联的滴答声时间数据代码CLD同时产生,但是通信信道10ca/10cb将不同的时间延迟引入分组和数字混合信号的传播中。换句话说,没有任何这样的保证,即滴答声信号和滴答声时间数据代码对同时到达视听站10H。出于此原因,需要时钟设置工作。
详细地说,假设滴答声信号CK到达电视电话单元23B比相关联的滴答声时间数据代码CLD到达分组接收器模块21c早,如图26A所示.当滴答声信号CK到达电视电话单元23B时,电视电话单元23B产生检测信号,并将该检测信号提供给时钟设置器21e.然后,时钟设置器21e启动内部计时器,并且准备好进行对内部时钟“B”21a的设置工作.假设滴答声时间数据代码CLD比滴答声信号CK的到达时间迟后delta-T到达滴答声时间数据缓冲器21b.写入滴答声时间数据代码CLD中的滴答声时间是“t”.如果delta-T比所述某个时间周期短,则时钟设置器21e利用滴答声时间和时间延迟之和即(t+delta-T)来设置内部时钟“B”21a.这样,时钟设置器21e使内部时钟“B”21a与内部时钟“A”11a同步.所述某个时间周期是预定的,并且考虑了滴答声信号CK的固定间隔.另一方面,如果在所述某个时间周期内在滴答声时间数据缓冲器21b中没有发现任何滴答声时间数据代码,则时钟设置器21e放弃设置工作.
假设滴答声时间数据代码CLD到达分组接收器模块21c比滴答声信号CK到达电视电话单元23B早,如图26B所示。将滴答声时间数据代码CLD存储在滴答声时间数据缓冲器21b中,并且启动内部计时器。滴答声时间是“t”。如果滴答声信号在所述某个时间周期内到达电视电话单元23B,则电视电话单元23B将检测信号提供给时钟设置器21e,并且时钟设置器21e用滴答声时间“t”来设置内部计时器“B”21a。另一方面,如果在所述某个时间周期内没有任何滴答声信号到达电视电话单元23B,则时钟设置器21e放弃设置工作,并且从滴答声时间数据缓冲器21b中去除滴答声时间数据代码CLD。
在远程电信会议系统和流系统之间,所述某个时间周期是不同的。尽管通信信道10ca上的时间延迟根据拥塞而变化,但是该时间延迟落在10毫秒和100毫秒之间的范围内。
在音乐教育支持系统中采用远程电信会议系统的情况中,数字混合信号被延迟200-300毫秒。如果滴答声时间数据代码CLD到达控制器21B比滴答声信号CK到达电视电话单元23B早,如图26B所示,则将所述某个时间周期估计为通信信道10ca上的最小时间延迟即10毫秒和另一通信信道10cb上的最大时间延迟即300毫秒之间的差。因而,所述某个时间周期约为(300+alpha)毫秒,其中alpha范围为十几毫秒至200毫秒。alpha是防备异常状态的余量。另一方面,如果滴答声时间数据代码CLD到达控制器21B比滴答声信号CK到达电视电话单元23B晚,如图26A所示,则通信信道10ca上的延迟是不常见的。假设通信信道10ca上允许的时间延迟为300毫秒,并且将所述某个时间周期估计为允许的时间延迟和通信信道10cb上的最小时间延迟即200毫秒之间的差。这样,所述某个时间周期约为(300-200)毫秒,即100毫秒。然而,该滴答声时间数据代码的延迟是不常见的。视听站10H可以建议教师M1停止该课程。
在音乐教育支持系统中采用流系统的情况中,通信信道10cb上的时间延迟范围是15秒至30秒。因而,通过流系统的时间延迟比通过远程电信会议系统的时间延迟长得多。出于此原因,滴答声时间数据代码CLD迟于滴答声信号CK很少见,并且不会在控制器21B中处理MIDI乐曲数据代码。所述某个时间周期可以是0。当滴答声时间数据代码CLD到达控制器21B比滴答声信号CK到达电视电话单元23B早时,时钟设置器21e进行对内部时钟“B”21a的设置工作。由于通信信道10cb上的时间延迟比另一通信信道10ca上的时间延迟长得多,因此所述某个时间周期约为(30+beta)秒,其中beta是若干秒的量级。beta也是防备异常状态的余量。
如上文中所述,当设计所述某个时间周期时,考虑了滴答声信号CK的固定间隔.在音乐教育支持系统采用远程电信会议系统的情况中,通信信道10cb上的时间延迟范围在200毫秒和300毫秒之间,使得将固定间隔设计为2秒的量级.将图26B中示出的条件下的所述某个时间周期称为“某个时间周期B”,而将图26A中示出的条件下的所述某个时间周期称为“某个时间周期A”.当固定间隔为2秒的量级时,所述某个时间周期B可以是0.5秒的量级,而所述某个时间周期A可以是0.1秒的量级.在音乐教育支持系统采用流系统的情况中,将通信信道10cb上的时间延迟估计为5-20秒,并且可以将滴答声信号CK的固定间隔设计为30秒的量级.所述某个时间周期B可以是25秒的量级,而所述某个时间周期A可以是0.
在下文中,对由个人计算机系统11B和21B执行的计算机程序进行描述。形成个人计算机系统11B一部分的微处理器周期性地进入图27中示出的子例行程序,并且重复由步骤S11至S16组成的循环。
微处理器首先检查个人计算机系统11B和自动演奏钢琴12B之间的接口,以查看一个或多个MIDI乐曲数据代码是否到达了那里,如步骤S11。只要教师M1按下或者释放一个或多个键12c,钢琴控制器12a就产生一个或多个MIDI乐曲数据代码,并将MIDI乐曲数据代码提供给控制器21B。时间标记器11b用标记时间来给所述一个或多个MIDI乐曲数据代码加印记,并且,步骤S11处的答案给出为肯定。由于步骤S11处的肯定答案,微处理器进行到步骤S13,并将所述一个或多个MIDI乐曲数据代码/相关联的时间标记数据代码传递给分组传送器模块11b。分组传送器模块11b将所述一个或多个MIDI乐曲数据代码/相关联的时间标记数据代码作为一个或多个分组的有效负载而通过通信信道10ca传送到控制器21B。
另一方面,如果教师M1不改变键的状态,则步骤S11处的答案给出为否定,并且微处理器检查工作存储器,以查看滴答声生成器11c是否将滴答声时间数据代码存储在其中,如步骤S12。当滴答声出现时,滴答声生成器11c检查内部时钟“A”11a,以查看内部时钟信号“A”11a指向什么时间,并产生滴答声时间数据代码。滴答声时间数据代码被存储在工作存储器中。在此情形中,步骤S12处的答案给出为肯定。然后,在步骤S13,微处理器将滴答声时间数据代码传递给分组传送器模块11b,并且在步骤S14,分组传送器模块11b将滴答声时间数据代码作为分组的有效负载而传送给控制器21B。
另一方面,如果微处理器没有发现任何滴答声时间数据代码,则步骤S12处的答案给出为否定,并且微处理器返回步骤S11。这样,微处理器重复由步骤S11和S12组成的循环,直到步骤S11或S12处的答案改变为肯定为止。
当微处理器完成步骤S14处的任务时,微处理器检查被分配了教师指令的标志,以查看教师M1是否完成课程,如步骤S15。当教师M1正在给学员M2上课时,步骤S15处的答案给出为否定,并且微处理器返回步骤S11。这样,微处理器重复由步骤S11至S16组成的循环,直到教师M1完成课程为止。电视电话单元13B将数字混合信号传送给电视电话单元23B,而不依赖于控制器11B。
当教师M1完成课程时,步骤S15处的答案给出为肯定,并且微处理器立即返回主例行程序。
合并在控制器21B中的微处理器运行图28A和28B中示出的子例行程序,以便完成由方框21a、21c、21e和21h代表的任务。利用计时器“A”来测量所述某个时间周期“A”,而将另一计时器“B”用于所述某个时间周期“B”。
微处理器周期性地进入子例行程序,并重复由步骤S21至S30和S201至S210组成的循环.微处理器首先将标志“A”和“B”以及OFF标志设置为0,并允许切换模块21h将音频信号切换到声音系统25B,如步骤S21.
随后,微处理器检查MIDI外部缓冲器21d,以查看MIDI乐曲数据代码是否被存储在其中,如步骤S22。微处理器周期性地进入另一子例行程序,以便有选择地将MIDI乐曲数据代码/时间标记数据代码和滴答声时间数据代码存储在MIDI外部缓冲器21d和滴答声时间数据缓冲器21b中。
当微处理器发现所述一个或多个MIDI乐曲数据代码和相关联的一个或多个时间标记数据代码时,步骤S22处的答案给出为肯定。微处理器确定将把所述一个或多个MIDI乐曲数据代码提供给钢琴控制器22a的时间,并且及时地将所述一个或多个MIDI乐曲数据代码传递给钢琴控制器22a。当完成步骤S23处的任务时,微处理器进行到步骤S30。
另一方面,如果微处理器在MIDI外部缓冲器21d中没有发现任何MIDI乐曲数据代码,则步骤S22处的答案给出为否定,并且微处理器直接进行到步骤S30。如在下文中将详细描述的,当自动演奏钢琴22B产生一个或多个钢琴音调时,代表教师的口头指导的音频信号不会被提供给声音系统25B。当自动演奏钢琴22B沉默时,通过声音系统25B来再现教师的口头指导。在步骤S30,合并在钢琴控制器22a中的微处理器检查将要产生的钢琴音调的响度,并控制切换模块21h。
当完成步骤S23处的任务时,合并在控制器21B中的微处理器检查滴答声时间数据缓冲器21b,以查看滴答声时间数据代码是否被存储在其中,如步骤S24。如果微处理器在滴答声时间数据缓冲器21b中没有发现任何滴答声时间数据代码,则步骤S24处的答案给出为否定,并且微处理器工作存储器,以查看电视电话23B是否将滴答声信号的到达通知给微处理器,如步骤S25。如果滴答声信号尚未到达,则步骤S25处的答案给出为否定,并且微处理器返回步骤S22。这样,微处理器重复由步骤S22、S23、S30、S24和S25组成的循环,直到滴答声时间数据代码或滴答声信号到达视听站10H为止。
假设滴答声信号到达了电视电话单元23B。然后,步骤S25处的答案给出为肯定,并且微处理器检查标志“B”,以查看滴答声信号是否被延迟,如步骤S26。当微处理器发现标志“B”已经被改变为“1”时,微处理器确定滴答声信号迟于相关联的滴答声时间数据代码,并利用滴答声时间数据代码来设置内部时钟“B”,如步骤S208。这样,充当时钟设置器21e的微处理器将内部时钟“B”调整为时间“t”。随后,微处理器将标志“B”改变为0,并将计时器“B”重置为0,如步骤S209。当完成步骤S209处的任务时,微处理器进行到步骤S29。
如果在步骤S26微处理器发现标志“B”仍然为0,则步骤S24处的答案给出为否定,并且微处理器确定滴答声时间数据代码迟于滴答声信号。然后,微处理器启动计时器“A”,如步骤S27,并将标志“A”改变为1,如步骤S28。当完成步骤S28处的任务时,微处理器进行到步骤S29。
当在步骤S24微处理器在滴答声时间数据缓冲器21b中发现滴答声时间数据代码时,步骤S24处的答案给出为肯定,并且微处理器检查工作存储器,以查看标志“A”是否指示“1”,如步骤S202.当标志“A”指示0时,微处理器确定滴答声时间数据代码迟于相关联的滴答声信号,并且将内部时钟“B”21a调节为(t+ΔT),如步骤S203.随后,微处理器将标志“A”改变为0,并且将计时器“A”重置为0,如步骤S204.当完成步骤S204处的任务时,微处理器进行到步骤S29.
如果标志“A”指示0,则步骤S202处的答案给出为否定,并且微处理器确定滴答声信号迟于相关联的滴答声时间数据代码。然后,微处理器启动计时器“B”,如步骤S205,将滴答声时间数据代码存储在滴答声时间数据缓冲器21b中,如步骤S206,并将标志“B”改变为1,如步骤S207。当完成步骤S207处的任务时,微处理器进行到步骤S29。
尽管在步骤S27或S205计时器“A”或计时器“B”开始测量时间消逝,但没有任何这样的保证,即相关联的滴答声时间数据代码或相关联的滴答声信号到达视听站10H。微处理器检查计时器“A”或计时器“B”,以查看所述某个时间周期是否终结,如步骤S29。如果在所述某个时间周期终结之前相关联的滴答声时间数据代码或相关联的滴答声信号没有到达视听站10H,则步骤S29处的答案给出为肯定,并且微处理器返回步骤S21。这意味着微处理器忽略已经到达的滴答声信号或者滴答声时间数据代码。在下一个滴答声时间数据代码和相关联的滴答声信号到达视听站10H之后,微处理器重新开始设置工作。即使微处理器跳过一次设置工作,音符条图像和教师手的真实图像之间的时间延迟也是可以忽略的。
另一方面,如果计时器“A”或“B”指示比所述某个时间周期短的时间消逝,则步骤S29处的答案给出为否定,并且微处理器检查工作存储器,以查看教师是否命令音乐教育支持系统停止该课程,如步骤S201。如果答案给出为否定,则微处理器返回步骤S22,并继续上述序列。
当教师停止上课时,步骤S201处的答案给出为肯定。然后,微处理器允许切换模块21h将音频信号传递给声音系统,如步骤S210,并返回主例行程序。
图29示出了用于再现教师的口头指导的子例行程序。该子例行程序对应图28A中的步骤S30,并且,合并在钢琴控制器22a中的微处理器周期性地进入该子例行程序。尽管钢琴控制器22a通过键致动器来有选择地引起键运动,以产生钢琴音调,但是对本领域技术人员来说,钢琴控制器22a如何处理MIDI乐曲数据代码是公知的,并且,为简单起见,不合并进一步的描述。
当微处理器从控制器21B接收一个或多个MIDI乐曲数据代码时,微处理器在所述一个或多个MIDI乐曲数据代码的基础上产生音频信号,并检查该音频信号,以查看响度是否超过阈值,如步骤S31。音频信号仅被用于与阈值的比较,而不会从该音频信号产生任何电子音调。所述阈值相当于极其微弱的音调。
如果音频信号正在增大或者已经被增大,则步骤S31处的答案给出为肯定,微处理器禁止切换模块21h将音频信号传递给声音系统25B,并且将OFF标志改变为“1”,如步骤S32。因此,即使代表环境声音的音频信号到达电视电话单元23B,切换模块21h也不会把该音频信号传递给声音系统,并且不会通过声音系统来再现环境声音。这样,当教师演示时,学员将他或她的注意力到通过自动演奏钢琴22B产生的钢琴音调上。当完成步骤32处的任务时,微处理器返回主例行程序。因而,当自动演奏钢琴22B产生一个或多个钢琴音调时,微处理器沿着从步骤S31至S32的路线前进,并使声音系统25B保持沉默。
当音频信号被衰减到阈值以下时,步骤S31处的答案给出为否定,并且微处理器检查工作存储器,以查看OFF标志是否被增大,如步骤S33.在音频信号衰减之后,步骤S33处的答案立即给出为肯定.微处理器启动计时器“C”,并且降低OFF标志,即将OFF标志改变为“0”,如步骤S34.当完成步骤S34处的任务时,微处理器返回主例行程序.
如果OFF标志已经被降低,则步骤S33处的答案给出为肯定,并且微处理器进行到步骤S35。在步骤S35,微处理器检查计时器“C”,以查看预定的时间周期是否终结。预定时间周期可以是若干秒。如果回答给出为否定,则微处理器返回主例行程序。这样,当计时器“C”测量所述预定的时间周期时,微处理器将切换模块21h仍然保持在关断状态,并且使学员将精力集中到自动演奏钢琴22B上。
当预定的时间周期终结时,步骤S35处的答案给出为肯定。然后,微处理器将切换模块21h改变为导通状态,并允许音频信号到达声音系统25B。然后,通过声音系统25B来产生教师的口头指导,并且学员将他或她的注意力投入到该口头指导上。
尽管省略了对显示单元22B的描述,但是与第一和第二实施例中的教师手的真实图像相似,在显示单元22B上产生键12c上的教师手的真实图像。
如将从前面的描述理解的,根据本发明的音乐教育支持系统在教师演示期间停止口头指导,而在自动演奏钢琴22B沉默期间传递教师的口头指导。因为学员将他或她的努力有选择地集中在演示和口头指导上,所以这一特征是合乎需要的。
因为钢琴控制器22a监控音频信号,所以钢琴控制器22a允许声音系统25B在得到代表音符关事件的MIDI乐曲数据代码之前产生口头指导是有可能的。这样,钢琴控制器22a允许教师尽可能多地将口头指导给予学员。
尽管示出和描述了本发明的特定实施例,但对本领域技术人员来说将清楚的是,在不脱离本发明的精神和范围的情况下,可以进行各种改变和修改。
对第一和第二实施例的修改
例如,电子键盘12/24不对本发明的技术范围设置任何限制。任何种类的乐器都可用在视听站10A/10B上,只要视听站10A上的乐器可以产生指示音高名称的乐曲数据代码即可。教师可以通过已经安装了合适的计算机程序的个人计算机系统来产生MIDI乐曲数据代码和时间标记数据代码。可以用具有内置时间标记器的音序器(sequencer)来代替电子键盘12。学员M2可以练习诸如例如小号或弦乐器的另一种乐器。在此实例中,在显示单元22上产生这些乐器的真实图像。
还可以在显示单元22上产生踏板上的教师脚的真实图像。
只有视频信号和滴答声信号可以被混合到数字混合信号中。换句话说,不能将麦克风合并在视听站10A/10D中。在此实例中,将音符条的图像和键12c上的教师手的真实图像一起产生,并且,学员在该真实图像和音符条图像的引导下练习用手指演奏。
实时课程不对本发明的技术范围设置任何限制。可以将数字混合信号和MIDI乐曲数据代码/时间标记数据代码/滴答声时间数据代码存储在合适的信息存储介质中。在此实例中,当学员希望上课时,将数字混合信号和MIDI乐曲数据代码/时间标记数据代码/滴答声时间数据代码从信息存储介质提供给控制器21和电视电话23。
因特网不对本发明的技术范围设置任何限制。视听站10A可以通过局域网连接到多个视听站10B。
音乐教育支持系统不对本发明的技术范围设置任何限制.视听系统可用于远程音乐会.当音乐家在电子键盘上演奏一首乐曲时,电影摄影机给音乐家摄像,并且,将MIDI乐曲数据代码/时间标记数据代码/滴答声时间数据代码和数字混合信号通过通信信道10ca和10cb而从视听站10A提供给另一视听站10B.将MIDI乐曲数据代码从控制器21提供给自动演奏钢琴,并且,将视听数据代码与MIDI乐曲数据代码同步提供给显示驱动器21g.通过自动演奏钢琴而与屏幕上产生的画面同步再现原声钢琴(acoustic piano)音调。
键上的教师手的真实图像不对本发明的技术范围设置任何限制。电影摄影机给在舞台上表演的一个或多个跳舞者摄影,并且,将舞台上的音乐转换为MIDI乐曲数据代码。将所述一个或多个跳舞者的真实图像通过通信信道10cb传送到电视电话单元23/23A,并将其在屏幕上再现。通过其它通信信道来传送MIDI乐曲数据代码,并通过一个或多个合适的乐器来再现所述音乐。滴答声时间数据代码和滴答声信号使所述真实图像和音乐彼此同步。
音符条图像不对本发明的技术范围设置任何限制。当期望学员按键的时刻到来时,合适标记的图像可以在键的附近产生、或者与键的图像重叠。如果先前在场景中出现了该标记,则可以在期望学员按键时改变标记的颜色。
所述两个区域G1/G2不对本发明的技术范围设置任何限制。可以在超过两个区域中产生所述真实图像、音符条图像和教师消息的字符图像。
可以用视频播放器来代替电影摄影机/麦克风。在此实例中,从视频播放器提供电影画面,并在通过通信信道10cb传送之前将其与滴答声信号混合。
数字混合信号不对本发明的技术范围设置任何限制。在处理右和左信道信号的情况中,视听信号和滴答声信号有可能被作为右信道信号和左信道信号传送。如果以语音/画面中很少发生的频率来产生滴答声信号,则可以将低频范围和高频范围分别分配给滴答声信号和视听信号。
控制器11可以在上课之前将滴答声信号提供给控制器21。在此实例中,控制器21分析滴答声信号,以便在滴答声信号的间隔的基础上确定所述某个时间周期。
滴答声信号的波形不对本发明的技术范围设置任何限制。任何周期性信号都可用于根据本发明的视听系统,只要该周期性信号与视听信号有区别即可。
在根据本发明的另一音乐教育支持系统中,可以将MIDI乐曲数据代码提供给电子键盘24,以便产生电子音调。
可以将距先前的MIDI乐曲数据代码的时间消逝赋给每个MIDI乐曲数据代码。在此实例中,用测量距先前的MIDI乐曲数据代码的时间消逝的计时器来代替时钟12b。在此实例中,有可能将它们转换为距课程开始的时间消逝。例如,可以将累加所述时间消逝,以便将其转换为距课程开始的时间消逝。
可以将学员M2的手指演奏在屏幕上成像。例如,当学员M2按键时,显示驱动器21g从被按下的键上方的区域G1和区域(32之间的边界处产生条的图像。该条的图像可以被向上卷动。
音符条的图像可以表示键速度,即音调的响度。例如,根据键速度而将音符条的图像不同地着色。另外,可以根据键速度而将不同的符号添加到音符条图像上。
在第一实施例中,将滴答声时间数据代码添加到每个MIDI乐曲数据代码上.在变体中,当多个事件同时发生时,控制器11将滴答声时间数据代码添加到首先传送到控制器21的MIDI乐曲数据代码的一个上.控制器21检查MIDI外部缓冲器21d,以查看是否有不带有任何滴答声时间数据代码的MIDI乐曲数据代码.如果控制器21发现了它,则控制器认为该MIDI乐曲数据代码与先前的带有滴答声时间数据代码的MIDI乐曲数据代码同时产生,以便确定音符条图像的长度.这样,图8示出的计算机程序中的诸如步骤S36和S301的一些步骤将被稍微修改.
单个显示单元22/22A不对本发明的技术范围设置任何限制。可以分别在多于一个显示单元上产生键上的教师手的真实图像和音符条的图像,只要教师手的真实图像和音符条的图像彼此相关即可。例如,将音符条图像从合适的投影仪投射到产生所述真实图像的显示单元上。
如果在极短的时间周期内在相互靠近的视听站之间传递MIDI乐曲数据代码,则只要在传送器一侧不同时产生大量的MIDI乐曲数据代码,可视图像就将与对MIDI乐曲数据代码的数据处理同步。换句话说,MIDI电缆可用于视听系统。然而,在同时产生大量MIDI乐曲数据代码的情况中,由于通过MIDI电缆而以低速进行的连续数据传送,导致易于出现时间延迟,使得音符条图像很有可能迟于键上的教师手的图像。在此情形中,滴答声时间数据代码和滴答声信号有效地防止时间延迟。因而,本发明适用于使用MIDI电缆的系统。
对第三实施例的修改
可以用诸如例如电子键盘和电子弦乐器的另一种乐器来代替自动演奏钢琴12B/22B。另外,通过个人计算机系统或声音系统25B来将口头指导提供给学员。
钢琴控制器22a可以在MIDI乐曲数据代码的基础上、在导通状态和关断状态之间改变切换模块21h。控制器21B可以检查MIDI乐曲数据代码,以查看响度是否超过阈值。在此实例中,控制器21B直接控制切换模块21h。
在电视电话单元13B通过右和左信道来与电视电话单元23B通信的情况中,可以通过右和左信道来单独传送口头指导和滴答声信号。
可以将第三实施例的概念施加到日本专利申请公开第Hei 7-199790中公开的现有技术音乐教育支持系统。在该现有技术音乐教育支持系统中,教师的电子键盘连接到学生的电子键盘,并且教师将口头指导从麦克风发送给耳机。将MIDI乐曲数据代码从教师的电子键盘或自动演奏钢琴提供给学生的电子键盘或自动演奏钢琴,并且控制器在教师演示时停止口头指导。因而,远程课程不对本发明的技术范围设置任何限制。
音乐教育支持系统不对本发明的技术范围设置任何限制。可以在视听站10G上举行音乐会,并且将MIDI乐曲数据代码和语音消息提供给其它视听站10H。在此实例中,当通过视听站10G上的自动演奏钢琴或其它种类的乐器产生音乐时,任何语音信息都不会影响所述其它视听站附近的观众。
此外,课程可以已经被记录在合适的信息存储介质上。在此实例中,将MIDI乐曲数据代码/时间标记数据代码、滴答声时间数据代码和数字混合信号从记录器提供给视听站10H。
可以通过视听站10G来控制口头指导。在此实例中,当把MIDI乐曲数据代码从视听站10G传送到另一视听站10H时,电视电话单元13B不把代表教师口头指导的音频信号与视频信号和滴答声信号混合。在将课程记录在合适的信息存储介质上的情况中,记录器可以在MIDI乐曲数据代码不会到达那里的条件下记录口头指导。
控制器21B还可以包括显示控制器21g,以便在显示单元22B上产生音符条的图像.当然,与第一和第二实施例相似,可以在下部区域中产生键12c上的教师手的真实图像,而彼此相关地在上部区域中产生音符条的图像.
权利要求的语言与实施例的系统组件相互关联如下。视听站10B/10E的每一个对应“音乐站”。音符条图像和键12c上的教师手的真实图像分别对应“音调的可视图像”和“表演的可视图像”。通过MIDI乐曲数据代码和视听信号或视频信号来承载“乐曲数据”和“视频数据”。分别通过滴答声时间数据代码和滴答声信号来承载“第一定时数据”和“第二定时数据”。分组接收器模块21c和电视电话单元23/23A分别充当“接收器”和另一“接收器”。内部时钟“B”21a、滴答声时间数据缓冲器21b、MIDI外部缓冲器21d和时钟设置器21e作为整体组成“定时调节器”。区域G1和区域G2充当“两个图像产生区域”。
定时生成器21f和内部时钟“B”21a作为整体组成“定时生成器”。通信信道10ca和10cb形成部分“通信系统”。口头指导对应“语音”。除了钢琴控制器之外的自动演奏钢琴22B充当“音调生成系统”,并且,包括扬声器的声音系统对应“信号-声音转换器”。
Claims (20)
1.一种音乐站(10B;10E),用于与表演的可视图像一起产生将要产生的音调的可视图像(Ba;I1、I2、I3),包括:
接收器(21c),连接到通信信道(10ca),并接收代表所述将要产生的音调的乐曲数据;
另一接收器(23;23A),连接到与所述通信信道(10ca)无关的另一通信信道(10cb),并接收代表所述表演的视频数据,其中,所述表演与在远离所述音乐站(10B;10E)的另一个站(10A;10D)上产生的所述音调同步进行;
显示单元(22;22A),具有多个图像产生区域,其中的至少两个区域(G1、G2)分别被分配给所述表演的可视图像和所述音调的可视图像;以及
显示驱动器(21g),连接到所述接收器(21c)、所述另一接收器(23;23A)和所述显示单元(22;22A),产生代表所述表演的所述可视图像的图像承载信号和代表所述音调的所述可视图像的另一图像承载信号,并将所述图像承载信号和所述另一图像承载信号提供给所述显示单元(22;22A),
其特征在于还包括:
定时调节器(21a、21b、21d、21e、21f),连接到所述接收器(21c)和所述另一接收器(23;23A),并消除与所述乐曲数据混合的每一个第一定时数据和相关联的与所述视频数据混合的第二定时数据之间的时间延迟,其中,在将所述每一个第一定时数据传递到所述通信信道(10ca)的同时,将相关联的第二定时数据传递到所述另一通信信道(10cb),以便彼此同步地建立所述视频数据和所述乐曲数据,
并且在于:
所述显示驱动器(21g)分别在至少两个区域(G1、G2;SC1、SC2、SC3)中彼此相关地同步产生所述表演的所述可视图像和所述音调的所述可视图像(Ba、I1、I2、I3)。
2.如权利要求1所述的音乐站,其中,所述通信信道(10ca)和所述另一通信信道(10cb)将另一时间延迟和再一时间延迟分别引入到所述乐曲数据和所述第一定时数据的传送以及所述视频数据和所述第二定时数据的传送中,并且所述另一时间延迟与所述再一时间延迟不同,使得所述定时调节器(21a、21b、21d、21e、21f)从所述乐曲数据和所述第一定时数据的接收与所述视频数据和所述第二定时数据的接收之间消除所述另一时间延迟和所述再一时间延迟之间的差,作为所述时间延迟。
3.如权利要求2所述的音乐站,其中,所述定时调节器包括:
内部时钟(21a),测量时间消逝,以及
时钟设置器(21e),用于使用适当的时间来设置所述内部时钟(21a),其中,在每一个第一定时数据所指示的时间和所述时间延迟的基础上来确定所述适当的时间。
4.如权利要求1所述的音乐站,其中,所述视频数据代表在操纵器(12c)的可视图像上方的手的可视图像,其中,利用所述手的手指的可视图像而以与人类演奏者的手指相似的方式来有选择地操纵所述控制器(12c)的可视图像,并且,在所述乐曲数据的基础上产生的所述可视图像指示将通过对所述操纵器(12c)的操纵而产生的所述音调的音高。
5.如权利要求4所述的音乐站,其中,所述音调的所述可视图像(Ba、I1、I2、I3)在操纵相关联的乐器(24;24A)的操纵器之前出现在图像产生区域(G2;SC1、SC2、SC3)中,并且朝着所述相关联的被分配了音高的操纵器(12c)的可视图像移动,其中,该音高与由所述乐曲数据代表的所述音高相同,以便指示将要产生的所述音调的所述音高。
6.如权利要求4所述的音乐站,其中,所述音调的所述可视图像(Ba、I1、I2、I3)还指示操纵所述相关联的所述乐器(24;24A)的操纵器所经过的时间周期。
7.如权利要求6所述的音乐站,其中,所述音调的所述可视图像(Ba、I1、I2、I3)随时间而变得更小,并且在所述相关联的所述乐器(24;24A)的操纵器将被释放时,从图像产生区域(G2;SC1、SC2、SC3)中消失。
8.如权利要求4所述的音乐站,其中,所述音调的所述可视图像(Ba、I1、I2、I3)还指示将操纵所述相关联的所述乐器(24;24A)的操纵器的时刻。
9.如权利要求8所述的音乐站,其中,所述音调的所述可视图像(Ba、I1、I2、I3)朝着相关联的操纵器(12c)的可视图像移动,并且在将要操纵所述相关联的操纵器时触及所述相关联的操纵器的所述可视图像。
10.如权利要求8所述的音乐站,其中,所述音调的所述可视图像(Ba、I1、I2、I3)还指示操纵所述乐器(24;24A)的相关联的操纵器所经过的时间周期,并且在释放所述相关联的所述乐器(24;24A)的操纵器时,在所述相关联的操纵器(12c)的所述可视图像上消失。
11.如权利要求1所述的音乐站,其中,所述显示驱动器(21g)周期性地更新产生所述音调的所述图像(Ba、I1、I2、I3)的场景,使得所述音调的所述可视图像(Ba、I1、I2、I3)朝着被分配了音高的操纵器(12c)的可视图像移动,好像所述场景被卷动一样,其中,所述音高与由所述乐曲数据代表的音高相同。
12.如权利要求11所述的音乐站,其中,当操纵所述相关联的所述乐器(24;24A)的操纵器时,所述显示驱动器(21g)连续地改变所述音调的所述可视图像(Ba、I1、I2、I3)的大小。
13.一种音乐站(10B;10E),用于产生音调的可视图像(I1、I2、I3),包括:
接收器(21c),连接到通信信道(10ca),并接收代表所述将要产生的音调的乐曲数据;
显示单元(22;22A),具有将在其中产生所述音调的所述可视图像(I1、I2、I3)的图像产生区域(SC1、SC2、SC3);
显示驱动器(21g),连接到所述接收器(21c)和所述显示单元(22;22A),在所述乐曲数据的基础上产生代表所述音调的所述可视图像(I1、I2、I3)的图像承载信号,并将所述图像承载信号提供给所述显示单元(22;22A),以便在所述显示单元上的所述图像产生区域(SC1、SC2、SC3)中产生所述音调的所述可视图像(I1、I2、I3);
定时生成器(21f),连接到所述接收器(21c),并分析与所述乐曲数据(I1、I2、I3)相关联并代表将产生所述音调的时间的时间数据(Tim.A、Tim.B、Tim.C;时刻),以便确定所述音调的所述可视图像(I1、I2、I3)出现在所述显示单元(22;22A)上的所述图像产生区域(SC1、SC2、SC3)中的时刻,由此使所述显示驱动器(21g)在所述图像产生区域(SC1、SC2、SC3)中产生所述可视图像(I1、I2、I3),好像在所述时刻产生所述可视图像(I1、I2、I3)一样,
其特征在于还包括:
另一接收器(23;23A),连接到独立于所述通信信道(10ca)的另一通信信道(10cb),并且接收代表操纵器可视图像上方的手的可视图像的视频数据,其中,利用所述手的手指的可视图像来有选择地操纵所述操纵器,以及
定时调节器(21a、21b、21d、21e),连接到所述接收器(21c)和所述另一接收器(23;23A),并消除与所述乐曲数据混合的每一个第一定时数据和相关联的与所述视频数据混合的第二定时数据的一个之间的时间延迟,以便彼此同步地建立所述视频数据和所述乐曲数据,
其中,所述显示驱动器(21g)还在邻近所述图像承载区域(G1)的另一图像承载区域中产生代表在所述操纵器上方的所述手的所述可视图像的另一图像承载信号。
14.如权利要求13所述的音乐站,其中,将所述乐曲数据(I1、I2、I3)和所述时间数据(Tim.A、Tim.B、Tim.C;时刻)通过所述通信信道(10ca)而连续地传送到所述接收器(21c),并且,只要所述时间数据(Tim.A、Tim.B、Tim.C;时刻)指示将同时产生对应音调,所述显示驱动器(21g)就以这样的方式来连续地处理所述乐曲数据(I1、I2、I3),使得以某个尺寸来产生所述音调的所述可视图像(I1、I2、I3)。
15.如权利要求14所述的音乐站,其中,所述乐曲数据(I1、I2、I3)分别带有所述时间数据(Tim.A、Tim.B、Tim.C)。
16.如权利要求14所述的音乐站,其中,在将要同时产生的乐曲数据(I1、I2、I3)之间共享所述时间数据(定时)的一个。
17.如权利要求13所述的音乐站,其中,所述音调的所述可视图像(I1、I2、I3)朝着相关联的被分配了音高的操纵器(12c)的可视图像移动,其中,所述音高与由所述乐曲数据(I1、I2、I3)代表的所述音调的音高相同。
18.一种音乐站(10H),用于产生音调的乐曲段和语音,包括:
接收器(21c),连接到通信系统(10I),并接收代表所述音调的乐曲数据;
音调生成系统(22B),连接到所述接收器(21c),以便产生所述音调的所述乐曲段;
另一接收器(23B),连接到所述通信系统(10I),并接收代表所述语音的音频数据,以产生音频信号;以及
信号-声音转换器(25B),用于将所述音频信号转换为所述语音,
其特征在于还包括:
控制器(22a),连接在所述接收器(21c)和所述音调产生系统(22B)之间,并分析所述将要产生的音调,以查看所述音调的响度是否超过阈值,以便产生控制信号,以及
开关(21h),连接在所述另一接收器(23B)和所述信号-声音转换器(25B)之间,并且响应所述控制信号,以便在所述响度保持在所述阈值之上时中断所述音频信号。
19.如权利要求18所述的音乐站,其中,所述乐曲数据代表所述音调的音高和所述音调的响度,并且,所述控制器(22a)在所述用于分析的乐曲数据的基础上产生音频信号。
20.如权利要求18所述的音乐站,其中,所述音调生成系统是响应所述乐曲数据以产生所述音调的乐器(22B),并且,所述信号-声音转换器(25B)包括用于产生所述语音的扬声器系统。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004004572A JP4214917B2 (ja) | 2004-01-09 | 2004-01-09 | 演奏システム |
JP2004004571A JP4222211B2 (ja) | 2004-01-09 | 2004-01-09 | 演奏情報表示システム |
JP4572/2004 | 2004-01-09 | ||
JP4570/2004 | 2004-01-09 | ||
JP4572/04 | 2004-01-09 | ||
JP4571/2004 | 2004-01-09 | ||
JP4571/04 | 2004-01-09 | ||
JP4570/04 | 2004-01-09 | ||
JP2004004570A JP4507602B2 (ja) | 2004-01-09 | 2004-01-09 | 演奏情報表示方法及び演奏情報表示装置並びに演奏情報表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1637855A CN1637855A (zh) | 2005-07-13 |
CN1637855B true CN1637855B (zh) | 2010-05-05 |
Family
ID=34743487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2005100036292A Expired - Fee Related CN1637855B (zh) | 2004-01-09 | 2005-01-10 | 用于与乐曲数据代码同时产生可视图像的音乐站 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7288712B2 (zh) |
CN (1) | CN1637855B (zh) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7332666B2 (en) * | 2004-08-05 | 2008-02-19 | Yamaha Corporation | Performance control system, performance control apparatus, performance control method, program for implementing the method, and storage medium storing the program |
BRPI0516010A (pt) * | 2004-09-27 | 2008-08-19 | Soundstreak Inc | método e aparelho para gerenciamento e produção de música ou voice-over remoto |
US7189909B2 (en) * | 2004-11-23 | 2007-03-13 | Román Viñoly | Camera assembly for finger board instruments |
US7297858B2 (en) * | 2004-11-30 | 2007-11-20 | Andreas Paepcke | MIDIWan: a system to enable geographically remote musicians to collaborate |
IL165817A0 (en) * | 2004-12-16 | 2006-01-15 | Samsung Electronics U K Ltd | Electronic music on hand portable and communication enabled devices |
US9082456B2 (en) | 2005-01-31 | 2015-07-14 | The Invention Science Fund I Llc | Shared image device designation |
US9124729B2 (en) | 2005-01-31 | 2015-09-01 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
US9910341B2 (en) | 2005-01-31 | 2018-03-06 | The Invention Science Fund I, Llc | Shared image device designation |
US8902320B2 (en) | 2005-01-31 | 2014-12-02 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
US9325781B2 (en) | 2005-01-31 | 2016-04-26 | Invention Science Fund I, Llc | Audio sharing |
US20060170956A1 (en) | 2005-01-31 | 2006-08-03 | Jung Edward K | Shared image devices |
US7920169B2 (en) | 2005-01-31 | 2011-04-05 | Invention Science Fund I, Llc | Proximity of shared image devices |
US8606383B2 (en) | 2005-01-31 | 2013-12-10 | The Invention Science Fund I, Llc | Audio sharing |
US7876357B2 (en) | 2005-01-31 | 2011-01-25 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
US20060174203A1 (en) | 2005-01-31 | 2006-08-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Viewfinder for shared image device |
US9489717B2 (en) | 2005-01-31 | 2016-11-08 | Invention Science Fund I, Llc | Shared image device |
US8681225B2 (en) | 2005-06-02 | 2014-03-25 | Royce A. Levien | Storage access technique for captured data |
US9942511B2 (en) | 2005-10-31 | 2018-04-10 | Invention Science Fund I, Llc | Preservation/degradation of video/audio aspects of a data stream |
US10003762B2 (en) | 2005-04-26 | 2018-06-19 | Invention Science Fund I, Llc | Shared image devices |
US9819490B2 (en) | 2005-05-04 | 2017-11-14 | Invention Science Fund I, Llc | Regional proximity for shared image device(s) |
US9093121B2 (en) | 2006-02-28 | 2015-07-28 | The Invention Science Fund I, Llc | Data management of an audio data stream |
US9001215B2 (en) | 2005-06-02 | 2015-04-07 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
US7782365B2 (en) | 2005-06-02 | 2010-08-24 | Searete Llc | Enhanced video/still image correlation |
US9451200B2 (en) | 2005-06-02 | 2016-09-20 | Invention Science Fund I, Llc | Storage access technique for captured data |
US20070222865A1 (en) | 2006-03-15 | 2007-09-27 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Enhanced video/still image correlation |
US9967424B2 (en) | 2005-06-02 | 2018-05-08 | Invention Science Fund I, Llc | Data storage usage protocol |
JP4747847B2 (ja) * | 2006-01-17 | 2011-08-17 | ヤマハ株式会社 | 演奏情報発生装置およびプログラム |
JP4784333B2 (ja) * | 2006-02-22 | 2011-10-05 | 横河電機株式会社 | 時刻同期異常検出装置および時刻同期異常検出方法 |
JP4967406B2 (ja) * | 2006-03-27 | 2012-07-04 | ヤマハ株式会社 | 鍵盤楽器 |
US20080194333A1 (en) * | 2006-11-22 | 2008-08-14 | Gary Zalewski | System and method of providing assistance through incentives |
US20080148165A1 (en) * | 2006-11-22 | 2008-06-19 | Sony Computer Entertainment America Inc. | System and method of providing assistance over a network |
US8771071B2 (en) * | 2006-11-22 | 2014-07-08 | Sony Computer Entertainment America Llc | System and method of rendering controller information |
US20080317226A1 (en) * | 2007-01-09 | 2008-12-25 | Freescale Semiconductor, Inc. | Handheld device for transmitting a visual format message |
US8077839B2 (en) * | 2007-01-09 | 2011-12-13 | Freescale Semiconductor, Inc. | Handheld device for dialing of phone numbers extracted from a voicemail |
JP4940956B2 (ja) * | 2007-01-10 | 2012-05-30 | ヤマハ株式会社 | 音声伝送システム |
US8907193B2 (en) | 2007-02-20 | 2014-12-09 | Ubisoft Entertainment | Instrument game system and method |
US20080200224A1 (en) | 2007-02-20 | 2008-08-21 | Gametank Inc. | Instrument Game System and Method |
JP5040356B2 (ja) * | 2007-02-26 | 2012-10-03 | ヤマハ株式会社 | 自動演奏装置、再生システム、配信システム及びプログラム |
JP5168968B2 (ja) * | 2007-03-23 | 2013-03-27 | ヤマハ株式会社 | 鍵駆動装置付き電子鍵盤楽器 |
JP4998033B2 (ja) * | 2007-03-23 | 2012-08-15 | ヤマハ株式会社 | 鍵駆動装置付き電子鍵盤楽器 |
EP2043088A1 (en) * | 2007-09-28 | 2009-04-01 | Yamaha Corporation | Music performance system for music session and component musical instruments |
JP5119932B2 (ja) * | 2008-01-11 | 2013-01-16 | ヤマハ株式会社 | 鍵盤楽器、ピアノおよび自動演奏ピアノ |
WO2009136343A1 (en) * | 2008-05-08 | 2009-11-12 | Koninklijke Philips Electronics N.V. | Optical teaching system for music instruments |
US9120016B2 (en) | 2008-11-21 | 2015-09-01 | Ubisoft Entertainment | Interactive guitar game designed for learning to play the guitar |
US7696421B1 (en) * | 2008-12-30 | 2010-04-13 | Pangenuity, LLC | Soprano steel pan set and associated methods |
US8183454B2 (en) * | 2008-12-31 | 2012-05-22 | Apple Inc. | Method and system for displaying components of music instruction files |
EP2454644A2 (en) * | 2009-07-15 | 2012-05-23 | Koninklijke Philips Electronics N.V. | Method for controlling a second modality based on a first modality |
US20110016057A1 (en) * | 2009-07-17 | 2011-01-20 | Matthew Jeremy Halpern | Online music workshop and method for implementing the same |
US8119896B1 (en) | 2010-06-30 | 2012-02-21 | Smith L Gabriel | Media system and method of progressive musical instruction |
JP5633864B2 (ja) * | 2010-12-28 | 2014-12-03 | ヤマハ株式会社 | タイミング合わせ方法、該タイミング合わせ方法を実現するためのプログラムおよび電子音楽装置 |
KR101747700B1 (ko) * | 2011-01-11 | 2017-06-15 | 삼성전자주식회사 | 통신망을 이용한 원격 합주 방법 및 시스템 |
US8962967B2 (en) * | 2011-09-21 | 2015-02-24 | Miselu Inc. | Musical instrument with networking capability |
JP2013097089A (ja) * | 2011-10-31 | 2013-05-20 | Casio Comput Co Ltd | 演奏動作表示装置、方法及びプログラム |
GB201206121D0 (en) | 2012-04-05 | 2012-05-16 | Bryant Jacklyn | Apparatus and method for aiding the learning of a skill |
CN102789712B (zh) * | 2012-07-10 | 2014-11-26 | 浙江大学 | 基于球形超声电机的激光标识乐器示教系统和示教方法 |
CN102831796B (zh) * | 2012-07-10 | 2015-04-01 | 浙江大学 | 激光标识键盘乐器示教系统和示教方法 |
JP6020189B2 (ja) * | 2013-01-18 | 2016-11-02 | 株式会社デンソー | 音声出力制御装置 |
US9236039B2 (en) * | 2013-03-04 | 2016-01-12 | Empire Technology Development Llc | Virtual instrument playing scheme |
US20160133243A1 (en) * | 2013-06-17 | 2016-05-12 | Yamaha Corporation | Musical performance system, musical performance method and musical performance program |
US9230526B1 (en) * | 2013-07-01 | 2016-01-05 | Infinite Music, LLC | Computer keyboard instrument and improved system for learning music |
JP2015132695A (ja) * | 2014-01-10 | 2015-07-23 | ヤマハ株式会社 | 演奏情報伝達方法、演奏情報伝達システム |
JP6326822B2 (ja) | 2014-01-14 | 2018-05-23 | ヤマハ株式会社 | 録音方法 |
WO2018068316A1 (en) * | 2016-10-14 | 2018-04-19 | Sunland Information Technology Co. , Ltd. | Methods and systems for synchronizing midi file with external information |
US10008190B1 (en) | 2016-12-15 | 2018-06-26 | Michael John Elson | Network musical instrument |
US11151970B2 (en) * | 2017-01-19 | 2021-10-19 | Inmusic Brands, Inc. | Systems and methods for selecting musical sample sections on an electronic drum module |
US10394342B2 (en) * | 2017-09-27 | 2019-08-27 | Facebook Technologies, Llc | Apparatuses, systems, and methods for representing user interactions with real-world input devices in a virtual space |
DE112017008076T5 (de) * | 2017-11-07 | 2020-06-25 | Yamaha Corporation | Datenerzeugungsvorrichtung und -programm |
US10504498B2 (en) * | 2017-11-22 | 2019-12-10 | Yousician Oy | Real-time jamming assistance for groups of musicians |
US10218747B1 (en) * | 2018-03-07 | 2019-02-26 | Microsoft Technology Licensing, Llc | Leveraging geographically proximate devices to reduce network traffic generated by digital collaboration |
US10825351B2 (en) * | 2018-10-24 | 2020-11-03 | Michael Grande | Virtual music lesson system and method of use |
CN109256010A (zh) * | 2018-12-03 | 2019-01-22 | 上和弦(北京)音乐科技有限公司 | 一种音乐教学演示系统 |
CN110517555A (zh) * | 2019-07-19 | 2019-11-29 | 森兰信息科技(上海)有限公司 | 基于钢琴的同步上课状态的方法、系统、存储介质及装置 |
WO2021050728A1 (en) * | 2019-09-12 | 2021-03-18 | Love Turntable, Inc. | Method and system for pairing visual content with audio content |
USD952026S1 (en) | 2020-01-21 | 2022-05-17 | Paul William Wells | Piano teaching aid |
GB2612620A (en) * | 2021-11-05 | 2023-05-10 | Magic Media Works Ltd T/A Roxi | Enabling of display of a music video for any song |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1101477A (zh) * | 1993-06-30 | 1995-04-12 | 三星电子株式会社 | 在带有视频/伴奏音乐唱机的电视机中控制音乐混合功能的方法 |
CN1455409A (zh) * | 2002-01-15 | 2003-11-12 | 雅马哈株式会社 | 用于与可视图像同步记录和/或再现音乐的多媒体平台 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05173546A (ja) | 1991-12-24 | 1993-07-13 | Yamaha Corp | 鍵盤楽器の演奏誘導装置 |
US5416895A (en) * | 1992-04-08 | 1995-05-16 | Borland International, Inc. | System and methods for improved spreadsheet interface with user-familiar objects |
JP3371503B2 (ja) | 1993-12-28 | 2003-01-27 | ヤマハ株式会社 | 集団演奏教習装置 |
JP3058051B2 (ja) | 1995-04-27 | 2000-07-04 | ヤマハ株式会社 | 音楽的アミューズメントシステム |
US5737531A (en) * | 1995-06-27 | 1998-04-07 | International Business Machines Corporation | System for synchronizing by transmitting control packet to omit blocks from transmission, and transmitting second control packet when the timing difference exceeds second predetermined threshold |
US5745716A (en) * | 1995-08-07 | 1998-04-28 | Apple Computer, Inc. | Method and apparatus for tab access and tab cycling in a pen-based computer system |
JP2986078B2 (ja) * | 1995-08-28 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | カレンダーの表示方法及び表示装置 |
US5761439A (en) * | 1995-09-25 | 1998-06-02 | Intel Corporation | Method and apparatus for synchronizing communications between networked computers |
US5864868A (en) * | 1996-02-13 | 1999-01-26 | Contois; David C. | Computer control system and user interface for media playing devices |
JP3120732B2 (ja) * | 1996-05-17 | 2000-12-25 | ヤマハ株式会社 | 演奏指示装置 |
US7098392B2 (en) * | 1996-07-10 | 2006-08-29 | Sitrick David H | Electronic image visualization system and communication methodologies |
JP3255059B2 (ja) * | 1996-12-19 | 2002-02-12 | 日本電気株式会社 | 通信カラオケシステム |
US6449653B2 (en) * | 1997-03-25 | 2002-09-10 | Microsoft Corporation | Interleaved multiple multimedia stream for synchronized transmission over a computer network |
JP3196715B2 (ja) * | 1997-10-22 | 2001-08-06 | ヤマハ株式会社 | 楽音情報の通信装置、通信方法、制御装置、制御方法及びプログラムを記録した媒体 |
US6247072B1 (en) * | 1998-01-27 | 2001-06-12 | Cisco Technology, Inc. | Real-time data rate matching across a medium |
JPH11296166A (ja) * | 1998-04-09 | 1999-10-29 | Yamaha Corp | 音符表示方法及び音符表示プログラムを記録した媒体並びに拍表示方法及び拍表示プログラムを記録した媒体 |
JP3233103B2 (ja) | 1998-06-16 | 2001-11-26 | ヤマハ株式会社 | 運指データ作成装置及び運指表示装置 |
JP3094999B2 (ja) * | 1998-10-15 | 2000-10-03 | 日本電気株式会社 | オーディオ・ビデオ同期再生装置 |
US6842877B2 (en) * | 1998-12-18 | 2005-01-11 | Tangis Corporation | Contextual responses based on automated learning techniques |
US6480902B1 (en) * | 1999-05-25 | 2002-11-12 | Institute For Information Industry | Intermedia synchronization system for communicating multimedia data in a computer network |
US6538998B1 (en) * | 1999-07-02 | 2003-03-25 | Covad Communications Group, Inc. | Rolling out high bandwidth connection services in geographical areas covering several central offices |
JP3941292B2 (ja) * | 1999-07-26 | 2007-07-04 | 日本電気株式会社 | ページ情報表示方法及び装置並びにページ情報表示用のプログラム又はデータを記憶した記憶媒体 |
US6654950B1 (en) * | 1999-08-24 | 2003-11-25 | Bae Systems Mission Solutions Inc. | Software rehosting system and method |
US6388181B2 (en) * | 1999-12-06 | 2002-05-14 | Michael K. Moe | Computer graphic animation, live video interactive method for playing keyboard music |
AU2001251341A1 (en) * | 2000-04-08 | 2001-10-23 | Sun Microsystems, Inc. | Resynchronizing media during streaming |
US6751439B2 (en) * | 2000-05-23 | 2004-06-15 | Great West Music (1987) Ltd. | Method and system for teaching music |
US6691138B1 (en) * | 2000-06-21 | 2004-02-10 | Bellsouth Intellectual Property Corporation | Flexible configuration file manager |
US6667751B1 (en) * | 2000-07-13 | 2003-12-23 | International Business Machines Corporation | Linear web browser history viewer |
AR033549A1 (es) * | 2000-08-07 | 2003-12-26 | Diebold Inc | Maquina automatica para operaciones bancarias, metodos para operarla y medio legible por computadora |
US6660922B1 (en) * | 2001-02-15 | 2003-12-09 | Steve Roeder | System and method for creating, revising and providing a music lesson over a communications network |
US6924425B2 (en) * | 2001-04-09 | 2005-08-02 | Namco Holding Corporation | Method and apparatus for storing a multipart audio performance with interactive playback |
JP3601470B2 (ja) * | 2001-05-07 | 2004-12-15 | ヤマハ株式会社 | 画面移行タブスイッチ制御装置及びプログラム |
US7106298B1 (en) * | 2001-09-19 | 2006-09-12 | Cisco Technology, Inc. | Arrangement for arbitration of display information from multiple applications for a network enabled display device |
JP2003122490A (ja) * | 2001-10-11 | 2003-04-25 | Sony Corp | 情報処理装置、情報処理システム及び情報処理方法、並びに情報処理プログラム |
US7174510B2 (en) * | 2001-10-20 | 2007-02-06 | Hal Christopher Salter | Interactive game providing instruction in musical notation and in learning an instrument |
JP2003204535A (ja) * | 2002-09-17 | 2003-07-18 | Netbreak Inc | 音楽と同期する映像の配信装置及び音楽と同期する映像の配信方法 |
EP1570680A1 (en) * | 2002-12-04 | 2005-09-07 | Koninklijke Philips Electronics N.V. | Synchronization of signals |
JP3856792B2 (ja) * | 2004-01-16 | 2006-12-13 | 松下電器産業株式会社 | 信号処理装置 |
-
2005
- 2005-01-07 US US11/031,724 patent/US7288712B2/en active Active
- 2005-01-10 CN CN2005100036292A patent/CN1637855B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1101477A (zh) * | 1993-06-30 | 1995-04-12 | 三星电子株式会社 | 在带有视频/伴奏音乐唱机的电视机中控制音乐混合功能的方法 |
CN1455409A (zh) * | 2002-01-15 | 2003-11-12 | 雅马哈株式会社 | 用于与可视图像同步记录和/或再现音乐的多媒体平台 |
Also Published As
Publication number | Publication date |
---|---|
US7288712B2 (en) | 2007-10-30 |
CN1637855A (zh) | 2005-07-13 |
US20050150362A1 (en) | 2005-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1637855B (zh) | 用于与乐曲数据代码同时产生可视图像的音乐站 | |
US7129408B2 (en) | Separate-type musical performance system for synchronously producing sound and visual images and audio-visual station incorporated therein | |
EP1808848B1 (en) | Music performance system,music stations synchronized with one another and computer program used therein | |
WO2001053922A2 (en) | System, method and computer program product for collection of opinion data | |
KR20070011183A (ko) | 대화식 멀티미디어 제작 시스템 | |
WO2006051365A3 (en) | Transmission control in multiparty conference | |
US20060014128A1 (en) | Musical training apparatus with lesson scheduler | |
CN112119456A (zh) | 任意信号插入方法以及任意信号插入系统 | |
Davies | The effectiveness of LOLA (LOw LAtency) audiovisual streaming technology for distributed music practice | |
JP2007036523A (ja) | テレビ番組同期連携システム | |
JP2006324779A (ja) | 字幕配信システム、字幕送信装置、字幕合成装置及び字幕配信方法 | |
US7122731B2 (en) | Musical information processing terminal, control method therefor, and program for implementing the method | |
KR102184378B1 (ko) | 인공지능 악기 서비스 제공 시스템 | |
EP1784049A1 (en) | A method and system for sound reproduction, and a program product | |
Smith | Telematic composition | |
JP2004228707A (ja) | コンテンツ提供システム | |
CN111445742B (zh) | 一种基于远程教育系统的声乐教学系统 | |
JP4214917B2 (ja) | 演奏システム | |
KR102452069B1 (ko) | 방송 동기화를 통한 서비스 제공 방법 | |
GB2360171B (en) | Interaction with a television system | |
JP4222211B2 (ja) | 演奏情報表示システム | |
WO2022075418A1 (ja) | 通信方法およびシステム | |
JP4507602B2 (ja) | 演奏情報表示方法及び演奏情報表示装置並びに演奏情報表示システム | |
Battles et al. | The enduring significance of The War of the Worlds as broadcast event | |
WO2020085836A2 (ko) | 인공지능 악기 서비스 제공 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100505 Termination date: 20170110 |