JP2015026069A - 表示コンテンツに対応付けてオーディオを記録する表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置 - Google Patents
表示コンテンツに対応付けてオーディオを記録する表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置 Download PDFInfo
- Publication number
- JP2015026069A JP2015026069A JP2014122160A JP2014122160A JP2015026069A JP 2015026069 A JP2015026069 A JP 2015026069A JP 2014122160 A JP2014122160 A JP 2014122160A JP 2014122160 A JP2014122160 A JP 2014122160A JP 2015026069 A JP2015026069 A JP 2015026069A
- Authority
- JP
- Japan
- Prior art keywords
- recording
- display
- time
- voice
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000002123 temporal effect Effects 0.000 claims abstract description 12
- 230000007704 transition Effects 0.000 claims abstract description 12
- 230000008859 change Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 27
- 238000012545 processing Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/18—Selecting circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/686—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/015—Musical staff, tablature or score displays, e.g. for score reading during a performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/096—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/211—User input interfaces for electrophonic musical instruments for microphones, i.e. control of musical parameters either directly from microphone signals or by physically associated peripherals, e.g. karaoke control switches or rhythm sensing accelerometer within the microphone casing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/221—Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
- G10H2220/236—Keyboards, i.e. configuration of several keys or key-like input devices relative to one another representing an active musical staff or tablature, i.e. with key-like position sensing at the expected note positions on the staff
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/221—Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
- G10H2220/241—Keyboards, i.e. configuration of several keys or key-like input devices relative to one another on touchscreens, i.e. keys, frets, strings, tablature or staff displayed on a touchscreen display for note input purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/005—Device type or category
- G10H2230/015—PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Auxiliary Devices For Music (AREA)
- User Interface Of Digital Computer (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】音楽演奏の時間的推移を表す表示コンテンツの表示に関連付けて、指示またはコメントなどを簡単に記録することが可能となる表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置を提供する。
【解決手段】タッチパネル上に楽譜が表示された状態で、録音開始ボタンがタッチされると、演奏音を含む周囲の音声の録音が開始される。第1回目の演奏で、ユーザは、フレーズAを演奏し、フレーズBに入ったところで、先生から演奏を止められ、まず、フレーズBの2小節目について指示を受ける。この指示音声が音声データV1である((b))。ユーザは、この音声データV1をレッスン終了後、直ぐに聞くことができるように楽譜のフレーズBの2小節目をタッチすると、そのタッチ位置に音声メモアイコンV1が表示される((c))とともに、タッチ時刻T1が検出され((b))、音声メモアイコンV1に対応付けて記憶される。
【選択図】図2
【解決手段】タッチパネル上に楽譜が表示された状態で、録音開始ボタンがタッチされると、演奏音を含む周囲の音声の録音が開始される。第1回目の演奏で、ユーザは、フレーズAを演奏し、フレーズBに入ったところで、先生から演奏を止められ、まず、フレーズBの2小節目について指示を受ける。この指示音声が音声データV1である((b))。ユーザは、この音声データV1をレッスン終了後、直ぐに聞くことができるように楽譜のフレーズBの2小節目をタッチすると、そのタッチ位置に音声メモアイコンV1が表示される((c))とともに、タッチ時刻T1が検出され((b))、音声メモアイコンV1に対応付けて記憶される。
【選択図】図2
Description
本発明は、楽譜などの音楽演奏の時間的推移を表す表示コンテンツを表示し、それに関連するコメントなどを含むオーディオを対応させて記録する表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置に関する。
演奏内容を表示する表示装置は、従来から知られている。
このような表示装置として、演奏内容の代表例である、楽譜を画面上に表示し、表示された楽譜に対して注釈を付加するようにした楽譜編集装置がある(たとえば、特許文献1参照)。この従来の楽譜編集装置では、
A.ユーザが図形の種類を指示し、表示楽譜上、注釈対象の記号を指し示すだけで、記号の大きさに適合したサイズのマークが付加される;
B.ユーザがポインティング・デバイスを使って手書きした線で注釈対象の記号を囲むと、その記号を囲む定型の図形が表示される;
C.テキストで注釈文を入力する場合に、図形入力モードからテキスト入力モードに切り替えることなく、ユーザがテキスト入力位置でマウスをダブルクリックするだけで、テキスト入力が開始される;
などにより、注釈の図形の付加やテキストの書き込みを効率的に行うことができるようにしている。
A.ユーザが図形の種類を指示し、表示楽譜上、注釈対象の記号を指し示すだけで、記号の大きさに適合したサイズのマークが付加される;
B.ユーザがポインティング・デバイスを使って手書きした線で注釈対象の記号を囲むと、その記号を囲む定型の図形が表示される;
C.テキストで注釈文を入力する場合に、図形入力モードからテキスト入力モードに切り替えることなく、ユーザがテキスト入力位置でマウスをダブルクリックするだけで、テキスト入力が開始される;
などにより、注釈の図形の付加やテキストの書き込みを効率的に行うことができるようにしている。
また近年は、タブレット型の携帯端末(以下「タブレット端末」という)が普及しているので、楽器を演奏する場所にタブレット端末を持ち込み、タブレット端末上に楽譜を表示させて、紙の楽譜代わりに用いることもよく行われている。
また、会議等において音声録音を行う場合に、録音データ中の任意の時間位置に対応付けてインデックスマーク若しくはオーディオブックマークを記録し、再生時にインデックスマーク若しくはオーディオブックマークの付いた時間位置の録音データを選択して再生できるようにしたものもある(たとえば、特許文献2あるいは特許文献3参照)。
ところで、アンサンブル演奏時や演奏レッスン受講時など、自分以外の演奏者や指導者などの他者がいる場合に、その他者の指示などを楽譜上にメモしたいことがある。このとき、タブレット端末上に表示された楽譜を使用していれば、表示楽譜上の指定位置に、マークを付与した上で、あるいはマークを付与しないで、メモしたい内容を文字でテキスト入力することになるが、上記特許文献1の楽譜編集装置で開示された技術を使ったとしても、マーク付与とテキスト入力の効率が多少よくなるだけで、マークの種類を選択するには手間がかかり、楽器を持ったままテキスト入力するのは困難である。
さらに特許文献3には、手書き入力した、またはテキスト入力したメモ(ノート)をオーディオブックマークに同期して記録し、このオーディオブックマークされた時間位置の録音データを再生するときに当該メモ若しくはノートを再生表示できるようにした構成も記載されている。しかしこの構成では、楽譜のような音楽演奏の時間的推移を表す表示コンテンツ中の特定の時間位置に関連付けてオーディオブックマークを付与することはできない。
本発明は、この点に着目してなされたものであり、音楽演奏の時間的推移を表す表示コンテンツの表示に関連付けて、指示またはコメントなどを簡単に記録することが可能となる表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置を提供することを目的とする。
上記目的を達成するため、請求項1に記載のプログラムは、表示記録方法をコンピュータに実行させるためのプログラムであって、前記表示記録方法は、演奏内容の時間的推移を表す表示コンテンツを表示手段に表示させる表示ステップと、音声入力手段によって入力された音声を録音する録音ステップと、前記録音ステップによる録音中に前記表示手段に表示された表示コンテンツにおける任意の時間位置を指定する第1のユーザ入力を受け付ける第1の入力ステップと、前記第1のユーザ入力が受け付けられた時点における前記音声の記録時刻と、当該第1のユーザ入力により指定された、前記表示コンテンツにおける時間位置とを対応付けて記憶手段に記憶する記憶ステップとを有することを特徴とする。
請求項2に記載のプログラムは、請求項1のプログラムにおいて、前記表示記録方法はさらに、前記第1のユーザ入力によって指定された、前記表示コンテンツにおける時間位置に関連した表示箇所にマークを付与する付与ステップを有することを特徴とする。
請求項3に記載のプログラムは、請求項2のプログラムにおいて、前記表示記録方法はさらに、前記付与ステップにより付与された、前記表示コンテンツにおけるマークの時間位置を異なる時間位置へ移動させる第2のユーザ入力を受け付ける第2の入力ステップと、前記第2のユーザ入力によるマークの時間位置の移動に応じて、前記第1のユーザ入力が受け付けられた時点における前記音声の記録時刻を、当該第2のユーザ入力によって移動された時間位置に対応付けるように変更制御する制御ステップとを有することを特徴とする。
請求項4に記載のプログラムは、請求項1〜3のプログラムにおいて、前記表示記録方法はさらに、前記音声の記録時刻に対応付けられた時間位置のいずれかを選択可能な選択手段によっていずれかの時間位置が選択された場合、当該選択された時間位置に基づいて、前記録音された音声を再生する再生ステップを有することを特徴とする。
請求項5に記載のプログラムは、請求項4のプログラムにおいて、前記再生ステップでは、前記録音された音声を再生する場合、当該選択された時間位置に対応する音声の記録時刻より所定時間だけ前から、当該音声の再生を開始することを特徴とする。
上記目的を達成するため、請求項6および7にそれぞれ記載の表示記録方法および表示記録装置は、請求項1と同様の技術的思想によって実現できる。
請求項1,6または7に記載の発明によれば、音声入力手段によって入力された音声が録音されるとともに、当該録音中に表示された表示コンテンツにおける、第1のユーザ入力が受け付けられた時点での前記音声の記録時刻と、当該第1のユーザ入力により指定された、前記表示コンテンツにおける時間位置とが対応付けられて記憶されるので、つまり、記録したい内容を、表示された表示コンテンツ上に文字や記号として入力するのではなく、音声で録音するようにしたので、指示またはコメントなどを簡単な操作で表示コンテンツに関連付けて記録することができる。
また、第1のユーザ入力が受け付けられた時点、つまり音声の記録時刻とは無関係に、前記表示コンテンツにおける任意の時間位置を、当該第1のユーザ入力によって指定することができるように構成されているので、記録した音声(指示またはコメントなど)と表示コンテンツによって表される音楽演奏の時間位置との関連付けを任意に定めることができ、好都合である。
請求項2に記載の発明によれば、前記第1のユーザ入力によって指定された、前記表示コンテンツにおける時間位置に関連した表示箇所にマークが付与されるので、録音された音声で、聞き直したいものが表示された表示コンテンツ上のどの部位のものかユーザに一目で分からせることができる。
請求項3に記載の発明によれば、前記付与された、前記表示コンテンツにおけるマークの時間位置を異なる時間位置へ移動させる第2のユーザ入力によるマークの時間位置の移動に応じて、前記第1のユーザ入力が受け付けられた時点における前記音声の記録時刻を、当該第2のユーザ入力によって移動された時間位置に対応付けるように変更されるので、マークを一旦付与した後に、このマークを移動することにより、記録した音声(指示またはコメントなど)と当該表示コンテンツによって表される音楽演奏の時間位置との関連付けを任意に変更することができ、使い勝手がよく、好都合である。
請求項4に記載の発明によれば、選択手段によっていずれかの時間位置が選択された場合、当該選択された時間位置に基づいて、前記録音された音声が再生されるので、録音後に聞きたい位置を表示された表示コンテンツ上で指定しておけば、聞きたい箇所から直ぐに再生することができる。
請求項5に記載の発明によれば、前記録音された音声を再生する場合、当該選択された時間位置に対応する音声の記録時刻より所定時間だけ前から、当該音声の再生が開始されるので、聞きたい箇所の始めから再生することができる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
図1は、本発明の一実施の形態に係る表示記録装置を適用した汎用のタブレット端末1の概略構成を示すブロック図である。
同図に示すように、タブレット端末1は、端末全体の制御を司るCPU(central processing unit)10を備えている。CPU10には、タッチパネル11、操作子12、各種センサ13,メモリ14、タイマ15、音声入力インターフェース(I/F)16、通信インターフェース(I/F)17およびサウンドシステム18が接続されている。
タッチパネル11は、一般的なタブレット端末が備えているものと変わらず、表示デバイスとしての機能と、入力デバイスとしての機能を兼ね備えたものである。ユーザは、たとえば自身の指で、タッチパネル11をタッチすることにより、タッチパネル11の表示画面上の任意の位置を指定することができる。ユーザによって表示画面上の位置が指定されると、その位置情報(座標)がタッチパネル11からCPU10に伝送される。CPU10は、その位置情報に応じた処理を行う(もちろん、その位置によっては処理をしないこともある)。表示画面上には、各種機能のそれぞれの動作を指示するための複数のソフトウェアボタンの他に、表示コンテンツが表示される。本実施の形態では、演奏内容を時間的推移に沿って表示したもの、具体的には五線譜で表現された楽譜が「表示コンテンツ」である(後述する図2(c)参照)。「演奏内容」は、楽譜を構成する音符や休符などの各種要素を意味し、「時間的推移」は、楽曲の時間進行を規定する拍や小節と、音符や休符などの各種要素との関係を意味する。もちろん「演奏内容」は、音符や休符など楽譜を構成する各種要素に限らず、歌詞やコード(和音)名など、ユーザ(演奏者)が演奏の際に参照するものであれば何でもよい。さらに「演奏内容の時間的推移」の表示態様も、五線譜に限らず、タブ譜やコード譜、歌詞表示、曲の構成表など、どのようなものであってもよい。
操作子12は、タッチパネル11上に表示されるソフトウェアボタンではなく、ハードウェアスイッチである。その典型例としては、電源スイッチやリセットスイッチ(ともに図示せず)などを挙げることができる。
各種センサ13には、地磁気センサ、GPS(Global Positioning System)、重力加速度も検出可能な加速度センサ、超音波センサ、カメラ、赤外線または可視光を検出する光センサなどが含まれる。
メモリ14には、CPU10によって実行される制御プログラムや各種アプリケーションプログラム、各プログラムによって画面表示に利用される画像データや発音に利用される音声データを含む各種データ等を記憶するROM(read only memory)と、上記画像データや音声データを含む各種データ、各種入力情報および演算結果等を一時的に記憶するRAM(random access memory)が含まれている。上記制御プログラムや各種アプリケーションプログラム、各種データ等は、本実施の形態では適宜、追加、削除あるいはアップデートできるようにするために、ROMとして、書き換え可能な不揮発性のもの、具体的にはフラッシュメモリを採用している。
タイマ15は、タイマ割込み処理における割込み時間や各種時間を計時する。
音声入力I/F16は、マイクロフォン(以下「マイク」と略す)21を接続し、マイク21を介して入力された周囲のアナログ音声信号をデジタル音声信号(音声データ)に変換し、バッファ(図示せず)に記憶する。
通信I/F17は、タブレット端末1を、たとえばインターネットなどの通信ネットワークに接続させ、通信ネットワークに接続された他の機器との間で各種データの送受信を行う。他の機器として、サーバコンピュータ(図示せず)が接続された場合、前記プログラム等の追加、削除あるいはアップデートは、サーバコンピュータを介して行うようにしてもよい。この場合、通信I/F17は、サーバコンピュータから各種プログラムや各種データをダウンロードするために用いられる。クライアントとなるタブレット端末1は、通信I/F17および通信ネットワークを介してサーバコンピュータへとプログラムやデータのダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求されたプログラムやデータを、通信ネットワークを介してタブレット端末1へと配信し、タブレット端末1が通信I/F17を介して、これらプログラムやデータを受信してメモリ14(のフラッシュメモリ)に蓄積することにより、ダウンロードが完了する。
サウンドシステム18は、たとえば、DAC(digital-to-analog converter)やアンプ、スピーカ等によって構成される。サウンドシステム18は、CPU10が前記制御プログラムや各種アプリケーションプログラムを実行しているときに生成した楽音信号を音響に変換する。楽音信号は、本実施の形態では、CPU10が音源プログラムを実行することによって生成する、いわゆるソフトウェア音源によって生成する。もちろん、ソフトウェア音源を用いて楽音信号を生成する態様に限らず、ハードウェア音源を用いてもよいし、一部をハードウェアで構成し、残りをソフトウェアで構成した音源を用いてもよい。
なお本実施の形態では、表示記録装置としてタブレット端末1を採用したが、これに限らず、携帯型のノートPC(パーソナルコンピュータ)やPDA(Personal Digital Assistant)などを採用してもよい。本実施の形態では、演奏場所に持ち運んで、楽譜を表示するため、携帯型の機器であることが望ましいが、演奏場所の方をその機器がある場所にするなど、携帯できなくてもよいのであれば、据え付け型のPCであってもよい。また、汎用的な装置に限らず、本発明を実施できる最小限要素のみから構成した専用装置上に本発明を構築してもよい。
また本実施の形態では、表示デバイスと入力デバイスを兼ねたタッチパネル11を採用したが、これに限らず、表示デバイスと入力デバイスを別々に構成してもよい。この場合、表示デバイスの表示画面上の位置は、ユーザが、入力デバイスとして設けられたポインティング・デバイス(マウスやホイール、タッチパッドなど)を用いてカーソルを移動させることで、指定するようにすればよい。
以上のように構成されたタブレット端末1が実行する制御処理を、まず図2を参照してその概要を説明し、次に図3および図4を参照して詳細に説明する。
図2(a)は、楽譜表示するためにユーザによって選択された曲31の構成を示し、図示例の選択曲31は、フレーズA〜Dによって構成されている。この選択曲31の楽譜を表示するために表示コンテンツが予め用意されている。すなわち、本実施の形態では、表示コンテンツは、楽譜表示用のデータ(楽譜データ)である。典型的な楽譜データには、楽譜論理データと楽譜画像データがある。楽譜論理データとは、楽譜を構成する各種要素(音符や休符、その他の音楽記号)を表示するために必要な、各要素の種類を示す種類情報とその表示位置を示す位置情報からなるデータである。一方、楽譜画像データとは、そのまま表示するだけで、楽譜が表示される種類のデータであり、そのデータ形式には、たとえば、BMP(bitmap)、JPEG(JointPhotographic Expert Group)、GIF(graphics interchange format)、TIFF(tagged image file format)、PDF(portable document format)などがある。楽譜データとして、そのいずれを採用してもよいが、本実施の形態では便宜上、楽譜論理データを採用することにする。この楽譜論理データに基づき描画処理を行うことにより可視的な楽譜が描画される。
ユーザが選択曲31を選択し、その楽譜表示を指示すると、CPU10は、選択曲31、つまり楽譜データをフラッシュメモリから読み出して、RAM上に確保された選択曲格納領域(図示せず)に格納し、当該楽譜データに基づいてタッチパネル11上に楽譜を表示する。図2(c)は、この楽譜の表示された画面11aを示している。ただし、選択曲31を初めて楽譜表示させた場合、楽譜上には、音声メモアイコンV1〜V3は表示されない(まだ存在していない)。
タッチパネル11上に、図2(c)の楽譜画面11a(音声メモアイコンV1〜V3が表示されていない状態)が表示され、ユーザが演奏を録音するために、タッチパネル11上に表示された録音開始ボタン(図示せず)をタッチすると、CPU10は、マイク21および音声入力I/F16を介して入力された周囲の音声データを、音声入力I/F16の前記バッファから読み出して、RAM上に確保された録音データ格納領域(図示せず)に格納することで、録音する。なお、録音した音声データ(録音データ)のフォーマットは、WAV(RIFF waveform Audio Format)やAIFF(Audio Interchange File Format)など、どのようなフォーマットでもよく、MP3(MPEG Audio Layer-3)などの圧縮フォーマットに変換してから格納してもよい。また格納場所も、RAMに限らず、通信I/F17を介して接続されたサーバコンピュータや記録用メディアなど、格納できて読み出しできるところであればどこでもよい。
図2(b)は、この録音状況の一例を示す図であり、ユーザが、たとえば弦楽器の個人レッスンを受講したときの様子(演奏および会話の音声すべて)を録音したものとする。時刻T0で録音を開始し、演奏を開始する。図2(b)の“A1”から“D3”に至る一まとまりの長方形が一連の、つまり停止操作がなされず録音状態が続いた録音データを表している。そしてこの録音データにおける“A”〜“D”が、それぞれ図2(a)の“A”〜“D”、つまりフレーズA〜Dを示し、その横の数字“1”〜“3”は、録音を開始してからの演奏回数を示している。ただし、この演奏回数は、フレーズ毎の演奏回数ではなく、演奏を停止した後再開した回数を示している。したがって、フレーズCとDには“C1”と“D1”がない。また“V1”〜“V3”は、先生によって発声された音声データを示している。たとえば、そのような音声データは、先生によるコメント、指示、注意などを含む。もちろん、ユーザ自身が発声したコメントなども含み得る。なお図示例では、説明の便宜上、“A1”,“B1”,“V1”などと、録音内容によって録音データを区分けして表示しているが、実際には上述のように、A1からD3までは1つの継続した録音データである。本実施の形態では、レッスン開始(時刻T0)からレッスン終了(時刻T4)までずっと録音を継続する。このように、いわゆる常時録音を行うことで、先生からの指示を受ける度に録音操作を行う必要がなくなる。以下、この録音状況に沿って、制御処理の概要を説明する。
時刻T0で録音を開始し、第1回目の演奏で、ユーザは、フレーズAを演奏し、フレーズBに入ったところで、先生から演奏を止められ、まず、フレーズBの2小節目について指示を先生から受ける。この指示音声が音声データV1である。ユーザは、この音声データV1をレッスン終了後、直ぐに聞くことができるように楽譜上をタッチすることで、マーキング操作(第1のユーザ入力)を行う。これに応じて、そのタッチ位置に音声メモアイコンV1が表示されるとともに、タッチ時刻T1がそのタッチに対応する音声データの記録時刻として検出され、音声メモアイコンV1に対応付けて記憶される。このとき、音声メモアイコンV1が表示されている画面上の座標位置も検出され、音声メモアイコンV1および当該音声データの記録時刻に関連付けて前記メモリ14(のRAM)に記憶される。表示された楽譜(表示コンテンツ)は、音楽演奏の時間的推移を表しているので、楽譜(表示コンテンツ)における音声メモアイコンV1の座標位置は、表示された楽譜(表示コンテンツ)における時間位置に関連している。
音声メモアイコンV1は、録音した音声が対応付けられていることを示す「マーク」の一例である(音声メモアイコンV2,V3も同様)が、この「マーク」の表示形態は、アイコンの形態に限らず、たとえば、指定された位置にある音符の表示色を異ならせたり、指定された位置の五線の太さを変更するなど、ユーザが認識できる形態であれば、どのようなものを採用してもよい。
またタッチ位置は、画面11a上であればどこでもよいが、通常は、図2(c)に示すように、先生の指示を受けた位置(フレーズBの2小節目)の五線譜上、またはその近傍の五線が記載されていない余白部分である。たとえば、
(a)タッチ位置が五線譜上である場合:タッチされた座標位置によって決まる五線譜上の時間位置を示すデータを、そのタッチ操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータとして適宜記憶する;
(b)タッチ位置が五線譜上ではなく、その近傍の余白部分である場合:たとえば、タッチされた座標位置に最も近い五線譜上の位置を特定し、この特定された位置に基づき、そのタッチ操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータを記憶する;
(c)タッチ位置が五線譜上ではなく、その近傍の余白部分若しくは画面上の適宜の位置である場合:所定の基準位置(たとえば、楽譜の先頭位置、あるいはタッチされた座標位置に最も近い楽節若しくは小節等、ある区切り区間の先頭位置など)を特定し、この特定された位置に基づき、そのタッチ操作、つまりマーキング操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータを記憶する;
などで、タッチされた座標から楽譜上の時間位置を決定すればよい。本実施の形態では、タッチ操作の後に、楽譜におけるマーキング位置(時間位置)とそれに関連付ける音声の記録時刻との関係を変更若しくは調整できるので、タッチ操作した画面上の座標位置が不正確であっても問題ない。また、
(d)タッチ位置が五線譜上である場合も、タッチされた座標位置に正確に対応する五線譜上の時間位置ではなく、前記所定の基準位置(たとえば、楽譜の先頭位置、あるいはタッチされた座標位置に最も近い楽節若しくは小節等、ある区切り区間の先頭位置など)を特定し、この特定された位置に基づき、そのタッチ操作、つまりマーキング操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータを記憶する;
ようにしてもよい。なお、タッチ操作に対応して記憶した楽譜における時間位置と、それに対応する音声メモアイコン(マーク)を表示する位置とは、必ずしも正確に一致していなくてもよい。
(a)タッチ位置が五線譜上である場合:タッチされた座標位置によって決まる五線譜上の時間位置を示すデータを、そのタッチ操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータとして適宜記憶する;
(b)タッチ位置が五線譜上ではなく、その近傍の余白部分である場合:たとえば、タッチされた座標位置に最も近い五線譜上の位置を特定し、この特定された位置に基づき、そのタッチ操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータを記憶する;
(c)タッチ位置が五線譜上ではなく、その近傍の余白部分若しくは画面上の適宜の位置である場合:所定の基準位置(たとえば、楽譜の先頭位置、あるいはタッチされた座標位置に最も近い楽節若しくは小節等、ある区切り区間の先頭位置など)を特定し、この特定された位置に基づき、そのタッチ操作、つまりマーキング操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータを記憶する;
などで、タッチされた座標から楽譜上の時間位置を決定すればよい。本実施の形態では、タッチ操作の後に、楽譜におけるマーキング位置(時間位置)とそれに関連付ける音声の記録時刻との関係を変更若しくは調整できるので、タッチ操作した画面上の座標位置が不正確であっても問題ない。また、
(d)タッチ位置が五線譜上である場合も、タッチされた座標位置に正確に対応する五線譜上の時間位置ではなく、前記所定の基準位置(たとえば、楽譜の先頭位置、あるいはタッチされた座標位置に最も近い楽節若しくは小節等、ある区切り区間の先頭位置など)を特定し、この特定された位置に基づき、そのタッチ操作、つまりマーキング操作(第1のユーザ入力)によって指定された楽譜における時間位置を示すデータを記憶する;
ようにしてもよい。なお、タッチ操作に対応して記憶した楽譜における時間位置と、それに対応する音声メモアイコン(マーク)を表示する位置とは、必ずしも正確に一致していなくてもよい。
次に、選択曲31の出だしについて指示を受ける。この指示音声が音声データV2である。ユーザは、この音声データV2についても後から直ぐに聞けるように、楽譜の先頭位置(あるいはその近傍)をタッチすると、そのタッチ位置に音声メモアイコンV2が表示されるとともに、タッチ時刻T2が検出され、音声メモアイコンV2に対応付けて記憶される。
演奏が再開され、第2回目の演奏では、ユーザは、最初のフレーズAから最後のフレーズDまで通して演奏する。そして、先生から選択曲31の終わり方について指示を受ける。この指示音声が音声データV3である。ユーザは、この音声データV3についても後から直ぐに聞けるように、楽譜の末尾位置(あるいはその近傍)をタッチすると、そのタッチ位置に音声メモアイコンV3が表示されるとともに、タッチ時刻T3が検出され、音声メモアイコンV3に対応付けて記憶される。
さらに演奏が再開され、第3回目の演奏では、ユーザは、最後のフレーズDを再度演奏する。そして、時刻T4にて録音が停止される。
レッスン終了後、録音内容、特にレッスンで指示された箇所を重点的に聞き直したい場合、ユーザは、レッスン時に使用した楽譜をタッチパネル11に表示するように、タブレット端末1に指示する。これに応じて、タッチパネル11上には、図2(c)の画面11aが表示される。ユーザが、画面11a内の音声メモアイコンV1〜V3のうち、たとえば、音声メモアイコンV1をタッチして、音声データV1の再生を指示すると、CPU10は、音声メモアイコンV1に対応付けて記憶されているタッチ時刻T1よりΔt時間だけ前の時刻t1から前記録音された音声データ(録音データ)の再生を開始する。再生の停止は、本実施の形態では、(再生)停止ボタン(図示せず)がタッチされた時点とするが、録音データの末尾まで再生が進んだ場合には、その時点で自動的に再生が停止する。なお、音声メモアイコンV2,V3がタッチされて、音声データV2,V3の再生が指示されたときも、同様である。
このように本実施の形態では、記録したい内容(指示またはコメントなど)を、楽譜上に文字や記号として入力するのではなく、音声で録音するようにしたので、簡単な操作で記録することができる。そして、録音位置(記録時刻)と楽譜上の時間位置(タッチ位置)を対応付けるようにしたので、録音後に聞きたい箇所を楽譜上でタッチしておけば、聞きたい箇所から直ぐに再生することができる。
次に、この制御処理を詳細に説明する。
この制御処理の説明では、タッチパネル11には、前記図2(c)のように楽譜が表示されていることを前提とする(ただし楽譜上には、音声メモアイコンV1〜V3はまだ表示されていない)。つまり、ユーザは既に、タブレット端末1上で演奏すべき曲を選択して、その楽譜表示を指示したので、選択された曲の楽譜が既にタッチパネル11上に表示されているとする。なお、楽譜論理データ(楽譜画像データも同様)を用いて楽譜をタッチパネル11上に表示することは、通常よく行われているので、その表示方法の説明は省略する。
タッチパネル11上に楽譜が表示されているときの動作状態には、周囲の音声を録音している状態(録音中)と録音していない状態(録音停止中)の2種類があり、各動作状態で制御処理が異なるので、まず録音中の制御処理、次に録音停止中の制御処理の順に説明する。
録音中に、ユーザが楽譜上またはその近傍をタッチすると、CPU10は、処理を録音中のタッチ処理に進める。図3は、この録音中のタッチ処理の手順を示すフローチャートである。
図3において、まずCPU10は、タッチパネル11上のタッチ位置の座標を検出する(ステップS1)。タッチパネル11上の座標の検出も、一般的な公知技術であるので、その検出方法の説明も省略する。
次にCPU10は、タッチパネル11上、検出されたタッチ位置に関連して音声メモアイコンを表示する(ステップS2)。なお、このステップS2では、前記(a)〜(d)で述べたような手法で、検出されたタッチ位置に応じて楽譜上の時間位置を適宜特定する処理も行われ、この特定した楽譜上の時間位置に関連付けて音声メモアイコンを表示する。これにより、図2(c)の例では、楽譜上に音声メモアイコンV1〜V3が表示される(ただし、1回のタッチで音声メモアイコンは1つ表示される)。なお、音声メモアイコンは、タッチ位置に応じて前述のように特定される楽譜上の時間位置に正確に対応付けて表示する他に、その近傍に表示することも考えられる。たとえば、
(1)タッチ位置に応じて特定される楽譜上の時間位置から、楽譜の音楽的な区切り位置(サビの開始位置、何小節目の何拍目など)を検出して、その位置に表示;
(2)タッチ位置に応じて特定される楽譜上の時間位置から、その近傍の音符または休符を検出して、その位置に表示;
などである。
(1)タッチ位置に応じて特定される楽譜上の時間位置から、楽譜の音楽的な区切り位置(サビの開始位置、何小節目の何拍目など)を検出して、その位置に表示;
(2)タッチ位置に応じて特定される楽譜上の時間位置から、その近傍の音符または休符を検出して、その位置に表示;
などである。
また、後述する編集の結果、楽譜上の同じまたは近傍の時間位置に複数の音声メモアイコンが割り当てられることになった場合は、それらの複数の音声メモアイコンが完全に重複して表示されないように、適宜ずらして表示するようにしてもよい。
次にCPU10は、タッチ操作時の録音時刻(時間情報)を検出し、検出した録音時刻(T)を、音声メモアイコンの識別データと共に、前記検出したタッチ位置に応じて特定した楽譜上の時間位置に関連付けて、メモリ14(のRAM)に記憶した(ステップS3)後、本録音中のタッチ処理を終了する。
録音が開始されると、録音が開始されてから現在までの経過時間が分かるように、CPU10は前記タイマ15に対して計時動作の開始を指示する。これに応じてタイマ15は、計時動作を開始し、その計時動作はCPU10によって停止が指示されるまで継続するので、CPU10は、タイマ15に現在の計時時刻を問い合わせることで、タッチ時の録音時刻を検出することができる。これにより、図2(b)の例では、時刻T1〜T3が各タッチ位置に応じて特定した楽譜上の各時間位置に関連付けて記憶される(ただし、1回のタッチで記憶される時刻は1つである)。なお、複数のタッチ処理に対応する複数の時刻情報は、録音終了時に1つのファイルにまとめられて、録音データの格納場所と同じ場所に保存されるようにしてもよい。あるいは、録音データ自体に時刻情報を埋め込んで保存してもよい。
なお、制御処理の概要の説明では、タッチ時の録音時刻は、音声メモアイコンの識別データと共に、前記検出したタッチ位置に応じて特定した楽譜上の時間位置に関連付けて、記憶されるとしたが、音声メモアイコンの識別データの記憶を省略してもよい。音声メモアイコンを表示すべき画面上の座標位置は、記憶した楽譜上の時間位置から特定することができる。また、後述する編集の結果、楽譜上の同じ時間位置に複数の音声メモアイコンが割り当てられることになったような場合でも、それぞれに関連付けられた録音時刻の違いによって個々の音声メモアイコンを識別し得る。
また、上記制御処理の概要の説明では、タッチ時の録音時刻は、前記検出したタッチ位置に応じて特定した楽譜上の時間位置に関連付けて記憶されるとしているが、これに限らず、タッチ時の録音時刻に関連付けて、前記検出したタッチ位置の座標データ(またはタッチ位置に基づき決定される音声メモアイコンの表示位置の座標データ)そのものを記憶してもよい。これは、表現は異なるものの、同じことを意味している。つまり、前記検出したタッチ位置に応じて特定した楽譜上の時間位置は、それに対応する音声メモアイコンの画面上の表示位置の座標によっても特定され得る。
次に、録音停止中に、ユーザが楽譜上またはその近傍をタッチすると、CPU10は、処理を録音停止中のタッチ処理に進める。図4は、この録音停止中のタッチ処理の手順を示すフローチャートである。
図4において、まずCPU10は、前記図3のステップS1と同様にして、タッチパネル11上のタッチ位置の座標を検出する(ステップS11)。
次にCPU10は、検出されたタッチ位置の座標から、ユーザのタッチ操作がいずれかの音声メモアイコンに対するものかどうか判定する(ステップS12)。この判定の結果、音声メモアイコンに対するタッチ操作であれば、CPU10は処理をステップS13に進める一方、音声メモアイコンに対するタッチ操作でなければ、CPU10は処理をステップS15に進める。
ステップS13では、CPU10は、タッチした音声メモアイコンに対する録音時刻情報(T)を取得する。前述のように、音声メモアイコンが1つ決まれば、タッチ時の録音時刻として記憶された情報、つまり録音時刻情報も1つ決まるので、CPU10は、その録音時刻情報をメモリ14から読み出して取得する。
次にCPU10は、取得した録音時刻情報に基づいて音声データを再生した(ステップS14)後、本録音停止中のタッチ処理を終了する。音声データの再生が開始される実際の時刻は、本実施の形態では、制御処理の概要で説明したように、ステップS13で取得された録音時刻情報が示す時刻、つまりタッチ時の録音時刻(時間情報)から所定時間Δtだけ前の時刻である。たとえば、図2(c)の画面11a内の音声メモアイコンV1がタッチされた場合には、図2(b)の時刻T1から所定時間Δtだけ前の時刻t1から音声データの再生が開始される。このように、再生開始位置をタッチ時の録音時刻より前にずらしたのは、ユーザは、指示を受けた内容を少し聞いてからその指示内容を後から聞き直すためにマーキングを行うかどうか決めるため、タッチ操作(マーキング操作)時の録音時刻から再生を開始すると、聞きたい内容の途中から再生が開始されてしまうことが多いからである。
所定時間Δtは、本実施の形態では、固定的に設定された1つのみが、各音声メモアイコンに対する再生指示に応じて、対応するタッチ時の録音時刻に一律に適用されるが、これに限らず、所定時間Δtはユーザが自由に変更できるようにしてもよい。また、録音音声が演奏から指示に移る時点や指示と指示との境界などを、たとえば公知の音声認識技術を用いて自動的に検出するようにし、その検出結果から個別に所定時間Δtを決定し、当該音声メモアイコンに対応付けて記憶しておくようにしてもよい。この場合には、選択された音声メモアイコン毎に、当該タッチ時の録音時刻から前に戻る時間の幅は変動する。
一方、ステップS15では、CPU10は、その他処理を実行する。その他処理に含まれる処理内容としては、たとえば
(11)再生ボタンの操作:表示楽譜に対応する曲データの再生;
(12)停止ボタンの操作:再生中の曲データまたは音声データ(録音データ)の停止;(13)譜めくり操作 :表示楽譜の次ページまたは前ページの楽譜を表示;
(14)楽譜編集操作 :表示楽譜に対する音符や記号などの入力または削除;
などを挙げることができる。
(11)再生ボタンの操作:表示楽譜に対応する曲データの再生;
(12)停止ボタンの操作:再生中の曲データまたは音声データ(録音データ)の停止;(13)譜めくり操作 :表示楽譜の次ページまたは前ページの楽譜を表示;
(14)楽譜編集操作 :表示楽譜に対する音符や記号などの入力または削除;
などを挙げることができる。
その他処理が終了すると、CPU10は、本録音停止中のタッチ処理を終了する。
以上は、ある楽譜、つまり図2(a)の選択曲に基づいて表示された楽譜を見て行われた演奏レッスンの様子を1回録音した場合について説明したが、次に、同じ楽譜を見て行われた演奏レッスンの様子を複数回録音した場合について説明する。
図5は、図2(a)の選択曲に基づいて表示された楽譜を見て行われた演奏レッスンの様子を3回録音したときに記録された録音データ((a))と、各録音中に表示された楽譜に対するユーザのタッチ操作に応じて記録される情報((b))の一例を示す図である。
図5(a)中、録音データRD1〜RD3は、3回の録音で記録された各録音データを示し、たとえば前記メモリ14に保存されたものである。録音データRD1の録音中には、3回のタッチ操作がなされ、各タッチ操作のタッチ時刻はそれぞれ“T11”,“T12”および“T13”である。録音データRD2の録音中には、2回のタッチ操作がなされ、各タッチ操作のタッチ時刻はそれぞれ“T21”および“T22”である。録音データRD3の録音中には、1回のタッチ操作がなされ、そのタッチ時刻は“T31”である。
ユーザのタッチ操作に応じて記録される情報は、図5(b)に示すように、各録音データRD1〜RD3の録音時にタッチされた楽譜上の座標位置情報とそれに対応する録音時刻(タッチ時間)情報である。この情報も、たとえばメモリ14に保存される。タッチ操作がなされると、前述のように図3の録音中のタッチ処理が起動され、当該録音データに関して、タッチ位置の座標に応じて特定される楽譜上の時間位置とタッチ時の録音時刻(タッチ時間)とが関連付けて記録され(ステップS1,S3)、タッチ回数に応じて図5(b)の行が追加される。図5(b)では、タッチ時間とともに、タッチ時間よりも所定時間Δt(前記図2(b)参照)だけ早い位置である再生開始位置(時間)も記録している。これにより、再生時にこの情報を参照するだけで再生開始位置が決まるので、再生処理(前記図4のステップS14)を簡易に行うことができる。
なお図5(b)では、録音時にタッチされた楽譜上の座標位置そのものを、それに対応する録音時刻に関連付けて記憶しているが、座標でなく、楽譜上の音楽的な位置など(つまり、検出したタッチ位置に応じて特定した楽譜上の時間位置)を記憶してもよい。この点については、前述した通りである。
ユーザが、メモリ14に保存された録音データRD1〜RD3のいずれかの読み出しを指示すると、指示された録音データが前記RAMの作業エリアに読み出されるとともに、読み出された録音データに対応するタッチ位置やタッチ時間の情報が図5(b)を参照して読みだされ、タッチパネル11上のタッチ位置に対応した座標には、前述のように音声メモアイコンが表示される。この状態で、ユーザがいずれかの音声メモアイコンをタッチすると、このタッチされた音声メモアイコンに関連付けられている記録時刻に基づき録音データが再生され、当該録音データ中の聞きたい箇所を直ぐ聞くことができる。
次に、音声メモアイコンの表示位置を任意に変更できるようにする編集処理の一例について図6により説明する。図6は、図4の変更例を示しており、ステップS12とS13の間にステップS121が挿入され、ステップS121が“YES”に分岐するルートにステップS122およびS123が設けられている。図4中のステップと同一番号のステップS11〜S15の処理内容は、図4で説明したものと同様であるので、その詳細な説明は省略する。
ステップS121では、CPU10は、音声メモアイコンへのタッチが所定のアイコン移動操作(第2のユーザ入力)であるかどうか判定する。アイコン移動動作とは、たとえばドラッグ操作、つまり、アイコンにタッチした指を画面から離さずにそのままスライドする操作である。ステップS121の判定の結果、アイコン移動操作でなければ、CPU10は、処理をステップS13およびS14のルートに進め、前述したような録音データの再生を行う。一方、アイコン移動操作であれば、CPU10は、処理をステップS122に進め、当該音声メモアイコンをこの移動操作に応じた表示位置へと移動させる。次いで、ステップS123において、CPU10は、この移動した音声メモアイコンに対応する録音時刻に関連付けてメモリ14(のRAM)内に記憶されている楽譜上の時間位置を、移動後の表示座標位置に対応する楽譜上の時間位置に変更する。こうして、特定の音声メモアイコンを表示する座標位置(つまり、楽譜上の時間位置)を、それに対応する音声データの記録時刻、つまり内容(指示またはコメントなど)を変更することなく、任意に変更することができる。したがって、入力音声に対してリアルタイムに、マーキングのためのタッチ操作(第1のユーザ入力)を急いで行わねばならない場合、そのときのマーキング位置(タッチ位置)が不正確であったとしても、後の編集によって、より適切な楽譜上の時間位置に入力音声を関連付けることができる。
図7は、図4および図6中の「その他処理」(ステップS15)に含まれる、前記「譜めくり操作」に関連する処理の手順を示すフローチャートである。「譜めくり操作」とは、楽譜の頁(ページ)めくり操作であり、楽譜が複数頁からなり、そのうちの一部が画面11a上で表示される場合に、画面11a上で表示する楽譜を現在の頁から次頁へ、または前頁へと切り換える操作である。
ステップS151では、CPU10は、画面11a上の任意の位置でのタッチ操作が所定の次頁めくり操作であるかどうか判定する。この判定の結果、次頁めくり操作であれば、CPU10は、処理をステップS152に進め、画面11a上で表示する楽譜を現頁から次頁へと切り換える。一方、次頁めくり操作でなければ、CPU10は、処理をステップS153に進め、画面11a上の任意の位置でのタッチ操作が所定の前頁めくり操作であるかどうか判定する。この判定の結果、前頁めくり操作であれば、CPU10は、処理をステップS154に進め、画面11a上で表示する楽譜を現頁から前頁へと切り換える。
一例として、次頁めくり操作は、音声メモアイコン(およびその他の移動可能な表示オブジェクト)以外の画面11aの任意の場所にタッチした指を、タッチしたまま左横方向に所定量以上スライドさせる操作からなり、また、前頁めくり操作は、音声メモアイコン(およびその他の移動可能な表示オブジェクト)以外の画面11aの任意の場所にタッチした指を、タッチしたまま右横方向に所定量以上スライドさせる操作からなる。もちろん、次頁めくり操作および前頁めくり操作として、これに限らず、どのようなタッチ操作手法を採用してもよい。あるいは、タッチ操作によらずに、表示したい所望の頁番号を直接指定するようにしてもよい。
次のステップS155では、CPU10は、前記頁めくり操作(次頁めくり操作または前頁めくり操作)と同時に音声メモアイコンの移動操作がなされたかどうかを判定する。たとえば、ある指で特定の音声メモアイコンをタッチした状態で、同時に別の指で前記頁めくり操作を行った場合、CPU10は、前記頁めくり操作と同時に、当該タッチした音声メモアイコンの移動操作がなされたと判定する。ステップS155の判定の結果、“YES”の場合には、CPU10は、ステップS156およびS157の処理を実行する一方、“NO”の場合には、CPU10は、本譜めくり操作処理を終了する。
ステップS156では、CPU10は、切換後の頁を表示している画面11aの適宜の位置に、前記移動操作された音声メモアイコンを表示し、ユーザによる当該音声メモアイコンの移動操作(ドラッグ操作)を更に受け付け、受け付けた移動操作に応じた表示位置へと当該音声メモアイコンを更に移動させる。次のステップS157では、前記ステップS123と同様に、CPU10は、当該移動した音声メモアイコンに対応する録音時刻に関連付けてメモリ14(のRAM)内に記憶されている楽譜上の時間位置を、移動後の表示座標位置に対応する楽譜上の時間位置に変更する。
こうして、特定の音声メモアイコンを表示する座標位置(楽譜上の時間位置)を、それに対応する音声データの記録時刻、つまり内容(指示またはコメントなど)を変更することなく、任意の頁における表示座標位置に変更することができる。したがって、楽譜(表示コンテンツ)が複数頁からなる場合であっても、入力音声に対してリアルタイムに、マーキングのためのタッチ操作(第1のユーザ入力)を急いで行わねばならない場合、そのときのマーキング位置(タッチ位置)が不正確であったとしても、後の編集によって、より適切な任意の頁の楽譜上の時間位置に該入力音声を関連付けることができる。
なお本実施の形態では、前記図3の録音中のタッチ処理により、楽譜上のタッチ位置に音声メモアイコンを表示するようにしたが、これに限らず、楽譜上のタッチ位置に発話内容を文字で表示するようにしてもよい。図8は、この場合のタッチパネル11の画面11a′の一例を示す図である。このように発話内容を文字で表示できれば、楽譜上の同じ場所に複数回のタッチ操作があった場合、再生したい発話内容を簡単に判別することができる。発話内容の文字への変換は、公知の音声認識技術を用いて行えばよい。また、録音データ中、発話内容の文字への変換を行う始点は、タッチ時の録音時刻から所定時間Δtだけ前の時刻とすればよい。あるいは、その近傍で、区切りのよいところを検出し、その検出時点から文字への変換を行うようにしてもよい。さらに、変換後の文字内容は、ユーザが自由に編集可能に構成してもよい。
また本実施の形態では、録音データ、つまり前記録音データ格納領域に格納された音声データを保存することについて言及していないが、そのすべてをフラッシュメモリに保存してもよいし、ユーザが楽譜上にタッチした箇所のみを切り出して保存し、残りは消去するようにしてもよい。後者の保存方法を採ると、保存するデータ容量を削減できるので、有用である。後者の場合、保存データの始点は、タッチ時の録音時刻から所定時間Δtだけ前の時刻とすればよいが、保存データの終点は、次のいずれかの方法で決定する。つまり、
(21)ユーザが手動で終点を指定する;
(22)始点から所定時間(たとえば、10秒間)後を終点とする(所定時間は、予め固定的に決まっていてもよいし、ユーザが自由に変更できるようにしてもよい);
(23)公知の音声認識技術で、発話の終了を検出したときに、その検出点を終点とする;
などである。
(21)ユーザが手動で終点を指定する;
(22)始点から所定時間(たとえば、10秒間)後を終点とする(所定時間は、予め固定的に決まっていてもよいし、ユーザが自由に変更できるようにしてもよい);
(23)公知の音声認識技術で、発話の終了を検出したときに、その検出点を終点とする;
などである。
さらに本実施の形態では、図3のステップS3で前述したように、タッチ時の録音時刻は、録音を開始した時点からの経過時間を記憶するようにしているが、これに限らず、装置が時計機能を持っていたり、サーバなどに問い合わせたりして、現在時刻が分かる場合には、タッチ時の現在時刻を記憶するようにしてもよい。この場合には、録音データに対応付けて「録音の日付、開始時刻、終了時刻」を記憶しておき、タッチ時の録音時刻は、「録音の日付、タッチ時刻」を記憶しておく。そして、たとえば、ある日付の10時00分15秒に録音が開始された録音データに対して、タッチ時刻が、その日付の10時10分30秒であれば、録音経過時間は10分15秒と算出できるので、録音経過時間を記憶しておかなくても、その算出された録音経過時間から録音データを再生することができる。
また本実施の形態では、周囲の音声の録音と楽譜表示を1つの装置で行うようにしたが、これに限らず、周囲の音声の録音と楽譜表示を別々の装置、つまり録音装置と表示装置で行うようにしてもよい。このように構成すると、演奏者が表示装置に表示された楽譜に対する操作を行い、指導者がICレコーダなどの録音装置を操作して指示内容(指導者の声)を含む周囲の音声を録音する、というように、作業を2人以上で分担することができる。
たとえば、録音装置と表示装置が、ネットワークを介してサーバに接続されているとする。録音装置の操作者が、録音装置に対して録音開始を指示すると、録音装置は、「録音中」というステータスをネットワーク経由で表示装置に送信する。録音中の音声データは、録音装置からネットワーク経由でサーバに送信され、サーバ内に記憶される。つまり、サーバが音声データの記憶装置として機能する。ステータスが「録音中」のときに、表示装置の操作者が、表示装置の表示画面上の任意の位置をタッチすると、表示装置は、そのタッチ時の時間情報をネットワーク経由でサーバに送信する。サーバは、この時間情報を当該音声データにおける経過時間に変換して記憶する。あるいは、音声データ自体が「録音開始からの経過時間」ではなく、前述のように、日付と時刻によって時間管理されていてもよい。
録音装置の操作者が、録音装置に対して録音停止を指示すると、録音装置は、「録音停止中」というステータスをネットワーク経由で表示装置に送信する。ステータスが「録音停止中」のときに、表示装置の操作者が、表示装置の画面上の音声メモアイコンにタッチすると、表示装置は、サーバから音声データを取得し、タッチされた音声メモアイコンに対応付けられた時間情報に基づいて、取得した音声データを適切な場所から再生する。
なお、演奏者と指導者は同じ空間にいるので、録音装置と表示装置がネットワークでつながっていなくても、かけ声やアイコンタクトによって、両装置間の同期を取ることができる。表示装置の操作者は、かけ声がかかると、表示装置を「録音モード」に切り替え、経過時間の計測および音声メモアイコンの追加を行える状態にする。録音装置の操作者は、かけ声がかかると、録音装置に対して録音開始を指示する。これにより、表示装置と録音装置との間で、共通の「経過時間」を計測することができる。
録音終了後に、表示装置の操作者は、録音装置内のメモリに記録された音声データを自分の表示装置にコピーすれば、表示装置上で音声メモアイコンにタッチして、音声データを適切な時間位置から再生できるようになる。
これらの例は、複数の演奏者が一人の指導者の下で演奏する場合に、特に有用である。指導者は、各演奏者に対して指示を出し、各演奏者は、自分に対する指示のみを(楽譜上をタッチして)記憶しておけばよい。
また、録音装置と表示装置とを分けた場合、録音装置に代えて、録画装置を用い、音声を録音する代わりに、動画を録画するようにしてもよい。動画の録画は、専用のカメラマンに任せ、演奏者(ユーザ)は、楽譜表示に対するタッチ操作のみ行うようにすることが考えられる。
なお、本発明は音楽以外の分野にも応用できる。表示装置に表示する表示コンテンツは、演奏内容を示すものに限らず、たとえば一般的なテキスト、写真、地図、イラストなど、何でもよい。たとえば複数人で会議を行う際に、会議での会話を録音しておき、会話の内容に合わせてテキストや写真などの任意の位置を指定すれば、会議後にすぐに会議の内容を所望の位置から聞き直せるようになるので、議事録を作成する必要がなくなる。
また本実施の形態では、楽譜をタッチパネル11上に表示し、楽譜への操作を直接行うようにしたが、これに限らず、タッチパネルでない表示器を採用して、その表示器上に楽譜を表示し、楽譜へ位置指定は、マウスなどのポインティング・デバイスによって行ったり、テンキーによって数字(小節番号や拍数など)を入力して行ったりしてもよい。
なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。
また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
10…CPU(録音手段、入力手段),11…タッチパネル(表示手段、入力手段),14…メモリ(録音手段、記憶手段),16…音声入力I/F(音声入力手段)
Claims (7)
- 表示記録方法をコンピュータに実行させるためのプログラムであって、
前記表示記録方法は、
演奏内容の時間的推移を表す表示コンテンツを表示手段に表示させる表示ステップと、
音声入力手段によって入力された音声を録音する録音ステップと、
前記録音ステップによる録音中に前記表示手段に表示された表示コンテンツにおける任意の時間位置を指定する第1のユーザ入力を受け付ける第1の入力ステップと、
前記第1のユーザ入力が受け付けられた時点における前記音声の記録時刻と、当該第1のユーザ入力により指定された、前記表示コンテンツにおける時間位置とを対応付けて記憶手段に記憶する記憶ステップと
を有する
ことを特徴とするプログラム。 - 前記表示記録方法はさらに、
前記第1のユーザ入力によって指定された、前記表示コンテンツにおける時間位置に関連した表示箇所にマークを付与する付与ステップを有する
ことを特徴とする請求項1に記載のプログラム。 - 前記表示記録方法はさらに、
前記付与ステップにより付与された、前記表示コンテンツにおけるマークの時間位置を異なる時間位置へ移動させる第2のユーザ入力を受け付ける第2の入力ステップと、
前記第2のユーザ入力によるマークの時間位置の移動に応じて、前記第1のユーザ入力が受け付けられた時点における前記音声の記録時刻を、当該第2のユーザ入力によって移動された時間位置に対応付けるように変更制御する制御ステップと
を有する
ことを特徴とする請求項2に記載のプログラム。 - 前記表示記録方法はさらに、
前記音声の記録時刻に対応付けられた時間位置のいずれかを選択可能な選択手段によっていずれかの時間位置が選択された場合、当該選択された時間位置に基づいて、前記録音された音声を再生する再生ステップを有する
ことを特徴とする請求項1乃至3のいずれか1項に記載のプログラム。 - 前記再生ステップでは、前記録音された音声を再生する場合、当該選択された時間位置に対応する音声の記録時刻より所定時間だけ前から、当該音声の再生を開始する
ことを特徴とする請求項4に記載のプログラム。 - 演奏内容の時間的推移を表す表示コンテンツを表示手段に表示させる表示ステップと、
音声入力手段によって入力された音声を録音する録音ステップと、
前記録音ステップによる録音中に前記表示手段に表示された表示コンテンツにおける任意の時間位置を指定するユーザ入力を受け付ける入力ステップと、
前記ユーザ入力が受け付けられた時点における前記音声の記録時刻と、当該ユーザ入力により指定された、前記表示コンテンツにおける時間位置とを対応付けて記憶手段に記憶する記憶ステップと
を有することを特徴とする表示記録方法。 - 演奏内容の時間的推移を表す表示コンテンツを表示する表示手段と、
音声を入力する音声入力手段と、
前記音声入力手段によって入力された音声を録音する録音手段と、
前記録音手段による録音中に前記表示手段によって表示された表示コンテンツにおける任意の時間位置を指定するユーザ入力を受け付ける入力手段と、
前記ユーザ入力が受け付けられた時点における前記音声の記録時刻と、当該ユーザ入力により指定された、前記表示コンテンツにおける時間位置とを対応付けて記憶する記憶手段と
を有することを特徴とする表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014122160A JP2015026069A (ja) | 2013-06-17 | 2014-06-13 | 表示コンテンツに対応付けてオーディオを記録する表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013126436 | 2013-06-17 | ||
JP2013126436 | 2013-06-17 | ||
JP2014122160A JP2015026069A (ja) | 2013-06-17 | 2014-06-13 | 表示コンテンツに対応付けてオーディオを記録する表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015026069A true JP2015026069A (ja) | 2015-02-05 |
Family
ID=50942087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014122160A Withdrawn JP2015026069A (ja) | 2013-06-17 | 2014-06-13 | 表示コンテンツに対応付けてオーディオを記録する表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9412352B2 (ja) |
EP (1) | EP2816549B1 (ja) |
JP (1) | JP2015026069A (ja) |
CN (1) | CN104239392B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015146201A1 (ja) * | 2014-03-24 | 2015-10-01 | 株式会社河合楽器製作所 | 楽譜表示・演奏プログラム及び楽譜表示・演奏装置 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2816549B1 (en) * | 2013-06-17 | 2016-08-03 | Yamaha Corporation | User bookmarks by touching the display of a music score while recording ambient audio |
CN103885596B (zh) * | 2014-03-24 | 2017-05-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US10528249B2 (en) * | 2014-05-23 | 2020-01-07 | Samsung Electronics Co., Ltd. | Method and device for reproducing partial handwritten content |
US20160189694A1 (en) * | 2014-10-08 | 2016-06-30 | Richard Lynn Cowan | Systems and methods for generating presentation system page commands |
CN104751846B (zh) * | 2015-03-20 | 2019-03-01 | 努比亚技术有限公司 | 语音到文本转换的方法及装置 |
US9672799B1 (en) * | 2015-12-30 | 2017-06-06 | International Business Machines Corporation | Music practice feedback system, method, and recording medium |
US10348907B1 (en) * | 2016-05-12 | 2019-07-09 | Antony P. Ng | Collaborative data processing |
CN106888269B (zh) * | 2017-03-30 | 2020-09-29 | 成都伟德利普信息技术有限公司 | 一种基于电子白板的会议纪要追踪方法 |
CN107368248B (zh) * | 2017-06-19 | 2020-03-17 | 广东小天才科技有限公司 | 一种书写笔迹的回放方法及装置 |
US11030983B2 (en) | 2017-06-26 | 2021-06-08 | Adio, Llc | Enhanced system, method, and devices for communicating inaudible tones associated with audio files |
US10460709B2 (en) | 2017-06-26 | 2019-10-29 | The Intellectual Property Network, Inc. | Enhanced system, method, and devices for utilizing inaudible tones with music |
JP7064509B2 (ja) * | 2017-12-29 | 2022-05-10 | AlphaTheta株式会社 | 音響機器および音響機器用プログラム |
CN108257615A (zh) * | 2018-01-15 | 2018-07-06 | 北京物灵智能科技有限公司 | 一种用户语言评估方法及系统 |
CN109614030A (zh) * | 2018-11-29 | 2019-04-12 | 广州视源电子科技股份有限公司 | 课件制作、回顾方法、装置、系统、设备和存储介质 |
GB2585177B (en) * | 2019-04-10 | 2023-12-06 | W Cooper Cliff | Online music examination system |
US10885891B2 (en) * | 2020-01-23 | 2021-01-05 | Pallavi Ekaa Desai | System, method and apparatus for directing a presentation of a musical score via artificial intelligence |
CN114117117A (zh) * | 2020-08-25 | 2022-03-01 | 北京金铎领创智能科技有限公司 | 一种基于区域标注的音乐课本乐谱数字化跟踪方法及设备 |
CN112579818B (zh) * | 2020-12-29 | 2021-08-13 | 玖月音乐科技(北京)有限公司 | 一种五线谱语音批注方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003173135A (ja) * | 2001-12-07 | 2003-06-20 | Casio Comput Co Ltd | 楽音教習装置及び楽音教習処理のプログラム |
JP2007264034A (ja) * | 2006-03-27 | 2007-10-11 | Yamaha Corp | 演奏記録装置及びプログラム |
JP2008004134A (ja) * | 2006-06-20 | 2008-01-10 | Sony Corp | 音楽再生方法および音楽再生装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09320148A (ja) | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 音声記録再生装置 |
US6275222B1 (en) * | 1996-09-06 | 2001-08-14 | International Business Machines Corporation | System and method for synchronizing a graphic image and a media event |
US20070089591A1 (en) * | 2002-06-03 | 2007-04-26 | Boys Donald R | Low-Cost, Widely-Applicable Instruction System |
US7827232B2 (en) * | 2003-05-05 | 2010-11-02 | Microsoft Corporation | Record button on a computer system |
US20120057842A1 (en) * | 2004-09-27 | 2012-03-08 | Dan Caligor | Method and Apparatus for Remote Voice-Over or Music Production and Management |
US7605322B2 (en) | 2005-09-26 | 2009-10-20 | Yamaha Corporation | Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor |
JP2007108292A (ja) | 2005-10-12 | 2007-04-26 | Kawai Musical Instr Mfg Co Ltd | 楽譜編集装置および編集プログラム |
US20080060507A1 (en) * | 2006-09-07 | 2008-03-13 | Helmut Welchering | Versatile electronic sheet music device with improved navigation system and method |
US7838755B2 (en) * | 2007-02-14 | 2010-11-23 | Museami, Inc. | Music-based search engine |
US20090251440A1 (en) | 2008-04-03 | 2009-10-08 | Livescribe, Inc. | Audio Bookmarking |
JP5434408B2 (ja) * | 2009-05-15 | 2014-03-05 | 富士通株式会社 | 携帯型情報処理装置、コンテンツ再生方法およびコンテンツ再生プログラム |
US20110289404A1 (en) * | 2010-05-19 | 2011-11-24 | Alexandra Fleur | System and methods for document critique |
JP5422056B2 (ja) * | 2010-09-13 | 2014-02-19 | パイオニア株式会社 | 楽曲情報処理装置及び方法、コンピュータプログラム並びに記録媒体 |
EP2686843A4 (en) * | 2011-03-17 | 2014-11-26 | Charles Moncavage | SYSTEM AND METHOD FOR RECORDING AND SHARING MUSIC |
US8933312B2 (en) * | 2012-06-01 | 2015-01-13 | Makemusic, Inc. | Distribution of audio sheet music as an electronic book |
US20140075281A1 (en) * | 2012-09-13 | 2014-03-13 | David Rubin | Systems and methods for annotating digital documents |
EP2816549B1 (en) * | 2013-06-17 | 2016-08-03 | Yamaha Corporation | User bookmarks by touching the display of a music score while recording ambient audio |
US20150255057A1 (en) * | 2013-11-21 | 2015-09-10 | Chatfish Ltd. | Mapping Audio Effects to Text |
-
2014
- 2014-06-10 EP EP14171747.0A patent/EP2816549B1/en not_active Not-in-force
- 2014-06-13 JP JP2014122160A patent/JP2015026069A/ja not_active Withdrawn
- 2014-06-13 US US14/304,249 patent/US9412352B2/en active Active
- 2014-06-17 CN CN201410270496.4A patent/CN104239392B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003173135A (ja) * | 2001-12-07 | 2003-06-20 | Casio Comput Co Ltd | 楽音教習装置及び楽音教習処理のプログラム |
JP2007264034A (ja) * | 2006-03-27 | 2007-10-11 | Yamaha Corp | 演奏記録装置及びプログラム |
JP2008004134A (ja) * | 2006-06-20 | 2008-01-10 | Sony Corp | 音楽再生方法および音楽再生装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015146201A1 (ja) * | 2014-03-24 | 2015-10-01 | 株式会社河合楽器製作所 | 楽譜表示・演奏プログラム及び楽譜表示・演奏装置 |
US9640161B2 (en) | 2014-03-24 | 2017-05-02 | Kawai Musical Instruments Manufacturing Co., Ltd. | Musical score displaying and performing program, and musical score displaying and performing device |
Also Published As
Publication number | Publication date |
---|---|
EP2816549A1 (en) | 2014-12-24 |
EP2816549B1 (en) | 2016-08-03 |
CN104239392B (zh) | 2017-12-08 |
CN104239392A (zh) | 2014-12-24 |
US20140366709A1 (en) | 2014-12-18 |
US9412352B2 (en) | 2016-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015026069A (ja) | 表示コンテンツに対応付けてオーディオを記録する表示記録方法を実現するためのプログラム、当該表示記録方法および表示記録装置 | |
JP6128146B2 (ja) | 音声検索装置、音声検索方法及びプログラム | |
US9601029B2 (en) | Method of presenting a piece of music to a user of an electronic device | |
US8713069B2 (en) | Playlist search device, playlist search method and program | |
JP2012215630A (ja) | 楽譜演奏装置及び楽譜演奏プログラム | |
WO2017028686A1 (zh) | 一种信息处理方法、终端设备及计算机存储介质 | |
US20210064327A1 (en) | Audio highlighter | |
JP2013024967A (ja) | 表示装置、表示装置の制御方法およびプログラム | |
JP2009283020A (ja) | 記録装置、再生装置、及びプログラム | |
JP4994890B2 (ja) | 録音した自分の歌声と模範歌唱とを厳しく比較できるカラオケ装置 | |
JP2004325905A (ja) | 外国語学習装置および外国語学習プログラム | |
JP2007133921A (ja) | 車載情報端末 | |
JP2017108198A (ja) | 楽譜表示システム、動画データ供給装置、楽譜データ供給装置、及び画像表示装置、並びに楽譜表示プログラム | |
JP2012168803A (ja) | コンテンツ再生装置、楽曲推薦方法およびコンピュータプログラム | |
JP2010008893A (ja) | 電子音楽装置 | |
JP2010109478A (ja) | 情報処理装置、情報処理システム、およびプログラム | |
WO2022209557A1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6587459B2 (ja) | カラオケイントロにおける曲紹介システム | |
JP2012155822A (ja) | 再生装置、再生方法およびコンピュータプログラム | |
WO2024024105A1 (ja) | 音響再生装置、プログラム、及び再生制御方法 | |
KR100912118B1 (ko) | 콘텐츠에 연동된 학습 시스템 및 이를 이용한 학습 방법 | |
JP2007219219A (ja) | 語学学習用電子機器および学習用文章リスト作成方法 | |
JP2017062611A (ja) | 情報処理装置及びプログラム | |
JP2023080398A (ja) | 演奏装置、電子楽器、演奏フレーズ決定方法及びプログラム | |
JP2003242758A (ja) | マルチメディアプレーヤーを使って記録媒体の特定箇所を選択的に再生する方法と装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180213 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20180223 |