JP2008159252A - Method and apparatus for obtaining voice data for selection - Google Patents

Method and apparatus for obtaining voice data for selection Download PDF

Info

Publication number
JP2008159252A
JP2008159252A JP2008005785A JP2008005785A JP2008159252A JP 2008159252 A JP2008159252 A JP 2008159252A JP 2008005785 A JP2008005785 A JP 2008005785A JP 2008005785 A JP2008005785 A JP 2008005785A JP 2008159252 A JP2008159252 A JP 2008159252A
Authority
JP
Japan
Prior art keywords
selection
earphone
data
music
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008005785A
Other languages
Japanese (ja)
Other versions
JP4591512B2 (en
Inventor
Michihiro Kaneko
道博 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008005785A priority Critical patent/JP4591512B2/en
Publication of JP2008159252A publication Critical patent/JP2008159252A/en
Application granted granted Critical
Publication of JP4591512B2 publication Critical patent/JP4591512B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To materialize a simple voice program selection method without using any displays or many keys. <P>SOLUTION: In a method for obtaining voice data for selection is disclosed for obtaining, as voice data for selection, the characteristic part of musical piece data, the method comprises: starting analysis for extracting the characteristic part from the musical piece data; judging whether the characteristic part of the musical piece data has been extracted as a result of the analysis; detecting the start address of the extracted part as a pointer regarding the characteristic part when the characteristic part of the musical piece data has been extracted; making the detected pointer correspond to the musical piece data and storing the detected pointer into a storage part; and obtaining the voice part for selection by reading a part indicated by the pointer from the storage part when the voice data for selection is reproduced. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、音声データによるプログラム(例えば楽曲)を出力(例えば再生出力)することのできる選択用音声データ取得装置、及び再生出力等のための選択用音声データ取得方法に関するものである。 The present invention relates to a selection audio data acquisition apparatus capable of outputting (for example, reproduction output) a program (for example, music) based on audio data , and a selection audio data acquisition method for reproduction output and the like.

例えば複数のプログラム(以下、プログラムとして楽曲データの例で述べていく)を再生出力可能な再生装置では、通常、ユーザーが再生させたい楽曲を選択できるようにされる。
例えばCD(COMPACT DISC)プレーヤやMD(MINI DISC)プレーヤでは、装填されているディスク内に収録されている楽曲について、ユーザーはトラックナンバを指定することで所望の楽曲を再生させることができる。
また比較的大型の表示部を備えた場合や、パーソナルコンピュータ等に接続してそのモニタ画面を利用できる場合などは、再生可能な楽曲を曲名やアイコン等で一覧表示させ、ユーザーがその一覧表示上で楽曲の選択をできるものも開発されている。
For example, in a playback apparatus capable of playing back and outputting a plurality of programs (hereinafter, described as an example of music data as a program), the user can usually select a music to be played back.
For example, in a CD (COMPACT DISC) player or an MD (MINI DISC) player, the user can play back a desired music piece by specifying a track number for the music piece recorded in the loaded disc.
In addition, when a relatively large display unit is provided, or when the monitor screen can be used by connecting to a personal computer, etc., a list of reproducible songs can be displayed with song names, icons, etc. A song that allows you to select songs is also being developed.

ところで、再生装置として表示部が小さく一覧表示ができない機器の場合や、ユーザーが収録されている各楽曲のナンバ(トラックナンバ)がわからず、所望の楽曲をダイレクトに選択できない場合は、面倒な選択操作が必要になる。
即ち、ユーザーは例えば楽曲の頭出し再生操作などを行いながら1曲づつその曲頭部分などを聴いていき、目的の曲であるか否かを判断していくという煩雑かつ時間のかかる操作が必要になってしまう。
By the way, when the playback unit is a small device that cannot display a list, or when the user does not know the number of each song recorded (track number) and the desired song cannot be selected directly, the selection is troublesome. Operation is required.
In other words, the user needs to perform a complicated and time-consuming operation such as listening to the beginning of a song while performing a cue playback operation of the song and determining whether or not the song is the target song. Become.

なお据置型の再生装置では、比較的多数の操作キーを配置できるため、例えば数字キーを用意して上記のようなトラックナンバを直接入力して選曲することも可能となるが、携帯用の小型の再生装置の場合はキー数の削減という観点やスペースの制約などから数字キーを用意することは困難であり、上記のような1曲づつ聴きながら所望の曲を探していくという操作を行わざるを得ない。
また選択の容易性実現には上記のように表示部を有効利用することが通常考えられるが、小型軽量化や省電力という要望がある場合は表示部を利用する選択手法は適切とはいえない。
In a stationary player, since a relatively large number of operation keys can be arranged, for example, it is possible to prepare a numeric key and directly input a track number as described above to select a music. However, it is difficult to prepare numeric keys from the viewpoint of reducing the number of keys and space limitations, and it is necessary to search for a desired song while listening to each song as described above. I do not get.
In order to realize ease of selection, it is usually considered that the display unit is effectively used as described above. However, when there is a demand for reduction in size and weight and power saving, the selection method using the display unit is not appropriate. .

本発明はこのような事情に応じたものであり、基本的には表示を利用しないで、かつ最小限の操作子を必要とするのみで、ユーザーが聴覚によって曲等の音声プログラムの内容を判別し、容易にプログラム選択を行うことができるようにすることを目的とする。   The present invention responds to such a situation, and basically the user does not use a display and only requires a minimum number of controls, so that the user can discriminate the contents of a sound program such as a song by hearing. It is an object of the present invention to enable easy program selection.

このために、楽曲データの特徴的な部分を選択用音声データとして取得する選択用音声データ取得方法において、上記楽曲データから特徴的な部分を抽出する解析を開始し、解析結果として上記楽曲データの特徴的な部分が抽出されたか否かを判断し、上記楽曲データの特徴的な部分が抽出された際に、特徴的な部分に関するポインタとして抽出部分のスタートアドレスを検出し、検出された上記ポインタを上記楽曲データと対応させて記憶部に記憶し、選択用音声データの再生時に、上記ポインタで示される部分を上記記憶部から読み出すことで選択用音声データを取得するようにする。 To this end, in the selection audio data acquisition method for acquiring a characteristic part of music data as selection audio data, an analysis for extracting a characteristic part from the music data is started, and the analysis result of the music data is It is determined whether or not a characteristic part has been extracted, and when the characteristic part of the music data is extracted, the start address of the extracted part is detected as a pointer relating to the characteristic part, and the detected pointer Is stored in the storage unit in association with the music data, and the selection audio data is obtained by reading out the portion indicated by the pointer from the storage unit when reproducing the selection audio data.

また、楽曲データの特徴的な部分を選択用音声データとして取得する選択用音声データ取得装置において、上記楽曲データから特徴的な部分を抽出する解析を開始し、解析結果として上記楽曲データの特徴的な部分が抽出された際に、特徴的な部分に関するポインタとして抽出部分のスタートアドレスを検出する制御部と、上記制御部によって検出された上記ポインタを上記楽曲データと対応させて記憶する記憶部と、選択用音声データの再生時に、上記ポインタで示される部分を上記記憶部から読み出すことで選択用音声データを取得する読出し部と、を備えるようにする。In addition, in the selection voice data acquisition apparatus for acquiring a characteristic part of music data as selection voice data, an analysis for extracting a characteristic part from the music data is started, and the characteristic of the music data is obtained as an analysis result. A control unit that detects a start address of the extracted part as a pointer relating to a characteristic part, and a storage unit that stores the pointer detected by the control unit in association with the music data. A reading unit that acquires the selection audio data by reading out the portion indicated by the pointer from the storage unit when reproducing the selection audio data.

以上の説明からわかるように本発明では以下のような各種効果が得られ、これによってユーザーの使用に好適な選択用音声データ取得装置、及び選択用音声データ取得が実現できる。 As can be seen from the above description, the present invention can provide the following various effects, thereby realizing a selection audio data acquisition apparatus suitable for use by the user and acquisition of selection audio data .

まず本発明では少なくとも2チャンネル以上の音声出力系から、選択候補とされる複数の選択用音声データを、互いに異なる定位で同時に出力させ、出力されている選択用音声データの中から決定操作によって指定された選択用音声データに対応するプログラムが選択決定されるようにしている。つまり、ユーザーは表示でいうアイコンのように、各プログラム(楽曲等)についての選択用音声データ(イヤコン)を立体音像空間内で認識することができ、その中で所望のプログラムを選択できる。従って、表示部のない(もしくは小型の表示部しか持たない)音声出力装置であっても、さらには操作子の少ない音声出力装置であっても、ユーザーは容易かつ迅速にプログラム選択を行うことが可能となるという効果がある。またこれにより装置の小型化や、ユーザーの使用性の向上を実現できる。   First, in the present invention, a plurality of selection voice data, which are selection candidates, are simultaneously output at different positions from a voice output system of at least two channels, and designated by a decision operation from the output selection voice data. The program corresponding to the selected audio data for selection is selected and determined. That is, the user can recognize selection audio data (earphones) for each program (musical piece or the like) in the three-dimensional sound image space like an icon in the display, and can select a desired program therein. Therefore, the user can easily and quickly select a program even if the audio output device has no display unit (or has only a small display unit) and the audio output device has few operators. There is an effect that it becomes possible. This also makes it possible to reduce the size of the device and improve the usability of the user.

またそのようにして選択決定されたプログラムは再生出力(又は受信出力)させるプログラムとして再生出力(又は受信出力)を開始させることで、本発明の音声出力装置を再生装置や受信装置として実現する場合にユーザーの求める適切な動作を効率よく、かつユーザーの操作負担なしに進めることができる。   In addition, when the program selected and determined in this way is started to be played back (or received output) as a program to be played back (or received), the audio output device of the present invention is realized as a playback device or a receiving device. Therefore, it is possible to efficiently perform an appropriate operation requested by the user without any burden on the user.

同時出力する選択用音声データ、つまり各時点での選択候補については、選択操作に応じて、一部又は全部を変更していく(順送りやページ切換)ことで、同時出力数よりも多数のプログラムの選択が容易に実現できる。
また選択操作に応じて、その時点で決定操作が行われた場合に選択決定されることになる選択中の選択用音声データを変更していくことで、各選択用音声データの出力を、ユーザーの操作に対応したユーザーにとってわかりやすいものとできる。
For selection voice data to be output simultaneously, that is, selection candidates at each time point, by changing part or all according to the selection operation (sequential feed or page switching), more programs than the number of simultaneous outputs Can be easily realized.
Also, according to the selection operation, by changing the selection audio data being selected that will be selected and determined at that time, the output of each selection audio data can be It can be easily understood by the user who supports the operation.

各時点で選択中の選択用音声データとしては、特定の音像位置に定位されている選択用音声データと決めることで、ユーザーが選択中であるのがどれであるかを認識できるようになる。
また、選択中の選択用音声データは、同時出力されている中で最も大きい音圧レベルとされるようにすることで、ユーザーにとって選択中の選択用音声データを非常に容易に認識でき、もって選択操作の容易性を向上させるとともに選択ミスが発生しにくいようにすることができる。
さらに、少なくとも選択候補とされて同時出力されている選択用音声データの中で選択中の選択用音声データを示す表示を実行できる表示手段を備えることで、ユーザーにとって選択中のプログラムが何であるか認識しやすいものとできる。
The selection voice data being selected at each time point is determined as the selection voice data localized at a specific sound image position, so that the user can recognize which is being selected.
In addition, since the selected selection voice data is set to the highest sound pressure level among the simultaneous outputs, the selection selection voice data can be easily recognized by the user. It is possible to improve the ease of the selection operation and to prevent the selection mistake from occurring.
Furthermore, what is the program being selected for the user by providing a display means capable of executing a display indicating the selection voice data being selected among the selection voice data being simultaneously output as selection candidates. It can be easily recognized.

選択用音声データについては、出力可能な各プログラムに対応して予め生成して保持しておくことで、プログラム選択時、つまり複数の選択用音声データを出力する際の処理負担を軽減することができる。またこれにより音声出力装置がさほど高度な演算処理能力を備える必要がなくなり、装置コストの削減にもつながる。
一方、高度な演算処理能力を備えた音声出力装置では、選択用音声データは、プログラム選択時に選択候補とされた際に生成され、出力されるようにすることで、特にそれ以前に選択用音声データを生成しておくという準備は不要となる。
The audio data for selection can be generated and stored in advance corresponding to each program that can be output, thereby reducing the processing burden when selecting a program, that is, when outputting a plurality of audio data for selection. it can. This also eliminates the need for the audio output device to have a high level of processing capability, leading to a reduction in device cost.
On the other hand, in an audio output device equipped with advanced arithmetic processing capability, selection audio data is generated and output when it is selected as a selection candidate at the time of program selection, so that the audio for selection is used before that. There is no need to prepare data.

また各プログラムに対するポインタデータを設定し、プログラム選択を行う際には、ポインタデータで示されるプログラム内の一部のデータを選択用音声データとして抽出して出力させることで、選択用音声データを予め抽出して記憶しておくなどの処理は不要となり、記憶に必要な容量も少なくできる。   When pointer data for each program is set and a program is selected, a part of the data in the program indicated by the pointer data is extracted and output as selection voice data, so that the selection voice data is preliminarily output. Processing such as extraction and storage is unnecessary, and the capacity required for storage can be reduced.

以下、本発明の実施の形態としての再生装置について説明していく。なお説明上、再生出力されるプログラムとは1つの楽曲データで或る例とし、また選択動作の際に各プログラムに対応して出力される選択用音声データを「イヤコン」と呼ぶこととする。説明は次の順序で行ない、特に「1.再生装置の構成」「2.曲選択動作」において1つの実施の形態としての再生装置及びそれに採用されているプログラム選択方法を説明した後、「3.再生装置の構成の他の例」〜「11.他の各種変形例」までで、各種部位の変形例を述べていく。
1.再生装置の構成
2.曲選択動作
3.再生装置の構成の他の例
4.イヤコンデータの他の例
5.イヤコンをポインタデータで設定する例
6.記憶形態の他の例
7.イヤコンの出力定位例
8.選択中のイヤコンの識別例
9.選択操作/出力イヤコンの他の例
10.表示部の他の例
11.他の各種変形例
Hereinafter, a reproducing apparatus as an embodiment of the present invention will be described. For the sake of explanation, the program to be reproduced and output is an example of one piece of music data, and the audio data for selection output corresponding to each program at the time of the selection operation is referred to as “earphone”. The description will be given in the following order. In particular, after describing the playback apparatus as one embodiment and the program selection method employed in “1. Configuration of playback apparatus” and “2. Music selection operation”, “3. .. Other examples of configuration of reproducing apparatus ”to“ 11. Other various modifications ”will describe modifications of various parts.
1. 1. Configuration of playback device 2. Song selection operation 3. Another example of configuration of playback device 4. Other examples of earphone data 5. Example of setting earphone with pointer data 6. Other examples of storage form Example of output localization of earphones 8. 8. Identification example of selected earphone Another example of selection operation / output earphone 10. Another example of display unit11. Other various modifications

1.再生装置の構成
図1に再生装置の構成例を示す。
この再生装置はマイクロコンピュータによって形成されたコントローラ1により全体の動作が制御される。
操作部11としてはユーザーが操作する各種の操作子(キーやダイヤル)が用意されている。例えば再生、録音、停止、サーチ、動作モード切換などのための操作子が用意される。また後述するプログラム選択(以下、曲選択ともいう)のために選択操作(選択候補や選択中の曲の切換操作)や決定操作(候補の中で選択中の曲を選択決定する操作)が可能とされる。
1. Configuration of Playback Device FIG. 1 shows a configuration example of a playback device.
The entire operation of this reproducing apparatus is controlled by a controller 1 formed by a microcomputer.
As the operation unit 11, various operators (keys and dials) operated by the user are prepared. For example, operators for playback, recording, stop, search, operation mode switching, etc. are prepared. In addition, a selection operation (selection candidate and switching operation of the currently selected song) and a determination operation (operation for selecting and determining the currently selected song) are possible for program selection (hereinafter also referred to as song selection) described later. It is said.

コントローラ1は操作部11から入力されるユーザーの操作や、ROM2に保持している動作プログラムに応じて、各部に対して所要の制御を行うことになる。また、再生装置で実行している動作に応じて、例えば液晶パネルなどで小型に形成されている表示部10における表示動作を制御する。   The controller 1 performs necessary control on each unit in accordance with a user operation input from the operation unit 11 and an operation program stored in the ROM 2. Further, the display operation in the display unit 10 that is formed in a small size, for example, by a liquid crystal panel or the like is controlled in accordance with the operation being executed by the playback apparatus.

記憶部3は、例えばフラッシュメモリなどの固体メモリや、或いはハードディスクドライブ(HDD)などにより構成される。この例の場合は、記憶部3には楽曲データや、各楽曲に対応するイヤコンとしてのデータが格納されるものとしており、従ってこの再生装置は記憶部3に記憶された楽曲やイヤコンを再生出力できるものとされる。   The storage unit 3 is configured by a solid-state memory such as a flash memory or a hard disk drive (HDD), for example. In the case of this example, it is assumed that music data and data as an earphone corresponding to each music are stored in the storage unit 3, so that this playback device reproduces and outputs the music and earphones stored in the storage unit 3. It is supposed to be possible.

演算処理部4は例えばDSP(DIGITAL SIGNAL PROCESSER)により構成され、各種の信号処理を行う。例えば記憶部3へ格納する楽曲データについての圧縮や所定のエンコード処理、記憶部3から読み出した楽曲データの伸長や所定のデコード処理を行う。また、後述するイヤコン生成のための処理や、複数のイヤコンデータを同時出力する場合の各データの定位や音量(音圧レベル)調整、合成処理なども実行する。なおバッファメモリ13は、例えば複数のイヤコンデータの出力のための合成処理の際などに演算処理部4が一時的にデータを格納する部位として用いられる。   The arithmetic processing unit 4 is configured by a DSP (DIGITAL SIGNAL PROCESSER), for example, and performs various signal processing. For example, compression and predetermined encoding processing for music data stored in the storage unit 3, expansion of music data read from the storage unit 3, and predetermined decoding processing are performed. Also, processing for generating earphones, which will be described later, and localization, volume (sound pressure level) adjustment, synthesis processing, and the like of each data when a plurality of earphone data are output simultaneously are executed. Note that the buffer memory 13 is used as a part where the arithmetic processing unit 4 temporarily stores data, for example, at the time of combining processing for outputting a plurality of earphone data.

記憶部3に格納される楽曲データは、アナログ音声入力部5又はデジタル音声入力部7から入力することができる。
アナログ音声信号が入力された場合は、アナログ音声入力部5で入力ゲイン調整や等が行われた後、A/D変換器6でデジタルデータ化され、演算処理部4に供給される。そして所定の圧縮エンコード等が行われ、記憶部3に格納(録音)される。
またデジタル音声信号が入力された場合は、そのデジタルデータがデジタル音声入力部7から演算処理部4に供給され、所定の圧縮エンコード等が行われて記憶部3に格納(録音)される。
The music data stored in the storage unit 3 can be input from the analog audio input unit 5 or the digital audio input unit 7.
When an analog audio signal is input, input gain adjustment and the like are performed by the analog audio input unit 5, and then converted into digital data by the A / D converter 6 and supplied to the arithmetic processing unit 4. Then, predetermined compression encoding or the like is performed and stored (recorded) in the storage unit 3.
When a digital audio signal is input, the digital data is supplied from the digital audio input unit 7 to the arithmetic processing unit 4, subjected to predetermined compression encoding, etc., and stored (recorded) in the storage unit 3.

記憶部3から読み出された音声データは、演算処理部4でデコードされた後、D/A変換器8でアナログ音声信号(L、Rの2チャンネルステレオ)とされ、ステレオ音声出力処理部9でアナログ系の処理、例えば増幅、マスターレベル調整、イコライジング処理等がおこなわれ、再生音声信号として出力される。例えばヘッドホン、スピーカなどに供給され、ステレオ音声として再生出力される。もしくはラインアウトとして他の機器に供給されることもある。   The audio data read from the storage unit 3 is decoded by the arithmetic processing unit 4 and then converted into an analog audio signal (two-channel stereo of L and R) by the D / A converter 8, and a stereo audio output processing unit 9 Then, analog processing such as amplification, master level adjustment, equalizing processing, etc. is performed and output as a reproduced audio signal. For example, it is supplied to headphones, speakers, etc., and reproduced and output as stereo sound. Or it may be supplied to other devices as a line-out.

2.曲選択動作
このような再生装置において、ユーザーは記憶部3に楽曲を録音しておくことで、その中から再生させたい曲を選んで再生出力させることができる。例えばCDプレーヤやMDプレーヤ、その他の音源となる機器を接続してアナログ音声入力部5もしくはデジタル音声入力部7に音声信号を供給することで、記憶部3に楽曲データを格納できる。
そして、記憶部3に格納されている楽曲データについては、ユーザーはイヤコンとしての再生音声を聞きながら、操作部11での選択操作、決定操作を行うことで、再生させたい所望の曲を探し、選択決定できる。
2. Song Selection Operation In such a playback apparatus, the user can select a song to be played from the recorded music in the storage unit 3 and play it back. For example, music data can be stored in the storage unit 3 by connecting a CD player, an MD player, or other device as a sound source and supplying an audio signal to the analog audio input unit 5 or the digital audio input unit 7.
And about the music data stored in the memory | storage part 3, a user searches for the desired music to reproduce by performing selection operation and determination operation in the operation part 11, listening to the reproduction | regeneration audio | voice as an earphone, You can make a choice.

まず、記憶部3に格納される楽曲データ及びイヤコンデータは例えば図2のようになる。
例えば図2(a)のように複数の楽曲データM1、M2、M3・・・・が格納されるとすると、各楽曲データM1、M2、M3・・・にそれぞれ対応してイヤコンデータEM1、EM2、EM3・・・が生成され格納される。つまり記憶部3内で図2(b)のように楽曲データとイヤコンデータが対応されて管理される状態となる。
ここで、イヤコンデータEM1、EM2、EM3・・・は、図2(a)のように、対応する楽曲データM1、M2、M3・・・の一部分を抽出したデータとされている。即ち各楽曲の特徴となるような部分として、いわゆる曲のサビの部分や、主たるメロディの部分などが抽出されてイヤコンデータとされる。
First, the music data and earphone data stored in the storage unit 3 are as shown in FIG.
For example, if a plurality of music data M1, M2, M3,... Are stored as shown in FIG. 2A, earphone data EM1, corresponding to each music data M1, M2, M3,. EM2, EM3,... Are generated and stored. That is, the music data and the earphone data are managed in correspondence in the storage unit 3 as shown in FIG.
Here, the earphone data EM1, EM2, EM3,... Is data obtained by extracting a part of the corresponding music data M1, M2, M3,. That is, a so-called rust portion of a song, a main melody portion, and the like are extracted as a portion that becomes a feature of each piece of music and used as earphone data.

このように複数の楽曲及びイヤコンが格納されている状態で、再生させる楽曲の選択を行う場合には、再生出力可能な曲(つまり記憶部3に格納された全楽曲)のうち所定数づつが順次選択候補とされて、そのイヤコンデータがステレオ音像空間内で異なる定位にいて同時出力される。
本例では、同時再生数を3とし、つまり3つの曲のイヤコンデータを、左、センター、右という3つの定位でそれぞれ出力する。左右のステレオスピーカもしくはステレオヘッドホンで聴いているユーザーにとっては、図3に音像空間を模式的に示すように、ユーザー位置「U」に対して○で示す左、センター、右という3つの位置から異なる楽曲が聞こえてくることになる。
When a plurality of music pieces and earphones are stored in this manner and a music piece to be played is selected, a predetermined number of the music pieces that can be reproduced and output (that is, all the music pieces stored in the storage unit 3) are selected. The earphone data are sequentially selected as candidates for selection, and are simultaneously output in different positions in the stereo sound image space.
In this example, the number of simultaneous reproductions is set to 3, that is, the earphone data of three songs is output in three positions, left, center and right, respectively. For a user who is listening with the left and right stereo speakers or stereo headphones, as shown schematically in FIG. 3, the sound image space is different from the three positions, left, center, and right, indicated by ○ with respect to the user position “U”. You will hear the music.

さらに、3つのイヤコンのうち、1つのイヤコンを「選択中」としてユーザーに容易に認識させるために、例えばセンターに位置しているイヤコンの音声出力の音圧レベルを左右のそれに対して相対的に大きなものとする。「選択中」とは、いわゆる表示上でのカーソル位置のような意味合いであり、つまりその時点で決定操作を行うことで、選択が確定する状態にあるもののことをいっている。
図4は○の大きさを音圧レベルとして示しているが、センター定位するイヤコン音声を最も大きくすることで、ユーザーにとっては、破線の○で示すようにセンター定位の音声が左右の音声よりも近い位置で際だってはっきり聞こえることになり、例えばこの時点で決定操作を行うことで、その最もはっきり聞こえている楽曲が選択されるということを容易に認識できる。
Furthermore, in order to make the user easily recognize that one of the three earphones is “selected”, for example, the sound pressure level of the sound output of the earphone located in the center is relatively set to the left and right. Let's be big. “Selecting” means a so-called cursor position on the display, that is, a state where the selection is confirmed by performing a determination operation at that time.
In FIG. 4, the size of ○ is shown as the sound pressure level, but by increasing the ear position sound that is localized at the center to the maximum, for the user, the sound at the center location is higher than the left and right audio as indicated by the broken circle ○ For example, by performing a determination operation at this time, it is possible to easily recognize that the most clearly audible music is selected.

また、このように3つのイヤコンを同時再生すると、その時点では選択可能な候補が3つの曲しかないことになるが、もちろん記憶部3に格納されている楽曲データは3曲に限られないため、より多数の曲を選択候補とする必要がある。そこで本例では、ユーザーの選択操作に応じて、選択候補となる3つの楽曲(イヤコン)がスクロールされていくように切り換えられるとともに、選択中のイヤコンが切り換えられていくようにしている。
この選択操作に応じた出力切換を図5で説明する。
Further, when three earphones are simultaneously reproduced in this way, there are only three songs that can be selected at that time, but of course the music data stored in the storage unit 3 is not limited to three songs. It is necessary to select a larger number of songs as selection candidates. Therefore, in this example, according to the selection operation of the user, the three music pieces (earphones) as selection candidates are switched so as to be scrolled, and the selected earphone is switched.
The output switching according to this selection operation will be described with reference to FIG.

例えば記憶部3に10曲分の楽曲データ及びイヤコンが格納されていると仮定する。
まず曲選択が開始される最初の時点では、選択状態SL1として示すように、楽曲M1、M2についてのイヤコンEM1,EM2が同時に出力される。そしてこの状態では楽曲M1についてのイヤコンEM1が選択中となるように、イヤコンEM1がセンター定位、イヤコンEM2が右定位とされるとともに、イヤコンEM1の方が音圧レベルが高いものとされる。
この状態でもしユーザーが選択中であるイヤコンEM1が所望の曲であるとして決定操作を行ったら、曲M1の選択が確定し、曲M1の再生動作に移ることになる。
For example, it is assumed that 10 pieces of music data and earphones are stored in the storage unit 3.
First, at the first time when music selection is started, as shown as the selection state SL1, earphones EM1 and EM2 for the music M1 and M2 are simultaneously output. In this state, the earphone EM1 is set to the center position and the earphone EM2 is set to the right position so that the earphone EM1 for the music piece M1 is being selected, and the earphone EM1 has a higher sound pressure level.
In this state, if the determination operation is performed assuming that the earphone EM1 being selected by the user is a desired song, the selection of the song M1 is confirmed and the reproduction operation of the song M1 is started.

ところがイヤコンEM1が所望の曲でないときは、ユーザーは選択操作を行うことになり、するとイヤコン再生出力は選択状態SL2に移行する。即ち選択候補として楽曲M1、M2、M3についてのイヤコンEM1,EM2、EM3が同時に出力される。そしてこの状態では楽曲M2についてのイヤコンEM2が選択中となるように、イヤコンEM1が左定位、イヤコンEM2がセンター定位、イヤコンEM3が右定位とされるとともに、イヤコンEM2が他のイヤコンより音圧レベルが高いものとされる。
この状態でもしユーザーが決定操作を行ったら、曲M2(イヤコンEM2)の選択が確定し、曲M2の再生動作に移ることになる。
However, when the earphone EM1 is not a desired song, the user performs a selection operation, and the earphone reproduction output shifts to the selection state SL2. That is, the earphones EM1, EM2, and EM3 for the music pieces M1, M2, and M3 are simultaneously output as selection candidates. In this state, the earphone EM1 is selected for the left position, the earphone EM2 is set for the center position, and the earphone EM3 is set for the right position so that the earphone EM2 is selected. Is considered high.
In this state, if the user performs a determination operation, the selection of the music M2 (earcon EM2) is confirmed, and the reproduction operation of the music M2 is started.

また、選択状態SL2からさらにユーザーが選択操作を行なったら、イヤコン再生出力は選択状態SL3に移行する。即ち選択候補として楽曲M2、M3、M4についてのイヤコンEM2、EM3、EM4が同時に出力される。そしてこの状態ではイヤコンEM3が選択中となるように、イヤコンEM2が左定位、イヤコンEM3がセンター定位、イヤコンEM4が右定位とされるとともに、イヤコンEM3が他のイヤコンより音圧レベルが高いものとされる。
この状態でもしユーザーが決定操作を行ったら、曲M3(イヤコンEM3)の選択が確定し、曲M3の再生動作に移ることになる。
When the user further performs a selection operation from the selection state SL2, the earphone reproduction output shifts to the selection state SL3. That is, the earphones EM2, EM3, and EM4 for the music pieces M2, M3, and M4 are simultaneously output as selection candidates. In this state, the earphone EM2 is selected to the left, the earphone EM3 is set to the center position, the earphone EM4 is set to the right position, and the earphone EM3 has a higher sound pressure level than the other earphones. Is done.
In this state, if the user performs a determination operation, the selection of the song M3 (Eacon EM3) is confirmed, and the reproduction operation of the song M3 is started.

つまり、以下同様に選択操作により図示する選択状態SL1〜SL10が切り換えられていくことで、ユーザーは各曲のイヤコンを順次選択中としていくことができ、所望の楽曲(イヤコン)が選択中となった時点で決定操作を行うことである曲の選択が確定される。
また、選択状態SL1〜SL10が切り換えられていくことに応じて選択候補、即ち出力されるイヤコンは1つづつ更新されていくことになり、ユーザーにとっては音像空間内で各曲が右から左に順次スクロールしていくように感じられることになる。
さらに選択中のイヤコンを中心として前後の曲が左右で聞こえる、つまり同時に3曲を確認できるため、所望の曲を探す操作が効率的に実行できる。
In other words, the selection states SL1 to SL10 shown in the drawing are similarly switched in the following manner, so that the user can sequentially select the earphones of each song and the desired song (earphone) is being selected. At this point, the selection of the song to be performed is confirmed.
Further, the selection candidates, that is, the output earphones are updated one by one in accordance with the switching of the selection states SL1 to SL10, and for the user, each song is changed from right to left in the sound image space. It feels like scrolling sequentially.
In addition, since the preceding and following songs can be heard from the left and right with the selected earphone as the center, that is, three songs can be confirmed at the same time, an operation for searching for a desired song can be performed efficiently.

そしてこのような選曲操作を実現するためには図5(b)に示すようにユーザーの操作のために再生装置は選択操作キーと決定操作キーを用意すればよいものとなる。
なお選択操作キーは、1つのキーとして設け、その操作に応じて選択状態SL1→SL2→SL3→・・・・SL10→SL1→・・・というように切り換えられていくようにしてもよいし、選択状態を図5(a)における上下方向に移行させることができるようにアップ/ダウンキーとして形成してもよい。
また決定操作キーは、独立したキーとして設けてもよいし、例えば再生キーを兼用してもよい。但し、後述するが、上記のような曲選択が、再生させる曲の選択以外の目的のためにも実行できるようにする場合は、再生キーとの兼用ではなく、独立したキーとして決定操作キーを設けることが好適である。
In order to realize such a music selection operation, as shown in FIG. 5 (b), the playback apparatus only needs to prepare a selection operation key and a determination operation key for the user's operation.
The selection operation key may be provided as one key, and may be switched in the selection state SL1 → SL2 → SL3 →... SL10 → SL1 →. It may be formed as an up / down key so that the selected state can be shifted in the vertical direction in FIG.
The determination operation key may be provided as an independent key, or may be used as a reproduction key, for example. However, as will be described later, when the song selection as described above can be performed for purposes other than the selection of the song to be played back, the determination operation key is not used as a playback key but as an independent key. It is preferable to provide it.

なお、イヤコンデータは図2に示したように楽曲の一部であり演奏時間長としては短いデータである。例えば各イヤコンは10秒程度の演奏時間のデータとして設定される。このため、或る選択状態(SL1〜SL10)が、ユーザーの選択操作又は決定操作を待機していて10秒程度以上継続される場合などは、各イヤコンは繰り返し再生されることになる。   Note that the earphone data is a part of a piece of music as shown in FIG. For example, each earphone is set as performance time data of about 10 seconds. For this reason, when a certain selection state (SL1 to SL10) continues for about 10 seconds or more while waiting for a user's selection operation or determination operation, each earphone is repeatedly reproduced.

ところで本例の再生装置では表示部10を有し、これによって楽曲の選択動作の際に補助的な表示を実行してユーザーにわかりやすい選択操作を提供できる。
例えば本例の再生装置を、図6(a)に示すような携帯用の小型の機器とし、いわゆるヘッドホンリモコンと呼ばれているようなヘッドホン30のコード上の所定位置に表示部10を備えたリモコン部20が形成されているとする。
このリモコン部20を図6(b)に示すが、例えば操作部11に相当する各種キーとして、再生/ポーズキー21、停止キー22、サーチキー23,24や、上記選択操作キーに相当するアップ/ダウンキー25、上記決定操作キーに相当するエンターキー26などが設けられる。そして表示部10となる小型の液晶モニタが配されている。
By the way, the reproducing apparatus of this example includes the display unit 10, and thus, it is possible to provide an easy-to-understand selection operation by executing an auxiliary display during the music selection operation.
For example, the reproducing apparatus of this example is a portable small device as shown in FIG. 6A, and the display unit 10 is provided at a predetermined position on the cord of the headphone 30 as a so-called headphone remote controller. It is assumed that a remote control unit 20 is formed.
The remote controller 20 is shown in FIG. 6B. For example, as various keys corresponding to the operation unit 11, a play / pause key 21, a stop key 22, search keys 23 and 24, and an up / up key corresponding to the selection operation key. A down key 25, an enter key 26 corresponding to the determination operation key, and the like are provided. A small liquid crystal monitor serving as the display unit 10 is arranged.

このような小型の表示部10であっても、例えば図7のような表示を行うことでユーザーの選択操作のガイドを行うことができる。
即ちイヤコンの再生が図5の選択状態SL1とされている場合は図7(a)のように1曲目、2曲目がセンター及び右に定位されていることを示すとともに、センターを例えば点滅させて、1曲目が選択中の状態にあることを提示する。また選択状態SL2の際には図7(b)のように1曲目、2曲目、3曲目が左、センター、右に定位されていることを示すとともに、センターを点滅させて、2曲目が選択中の状態にあることを提示する。同様に選択状態SL3の際には図7(c)のような表示を行う。
このようなガイドを行うことで、ユーザーは必要に応じて表示を確認しながら、選択操作を進めることができる。
Even such a small display unit 10 can guide the user's selection operation by performing the display as shown in FIG. 7, for example.
That is, when the playback of the earphone is in the selection state SL1 in FIG. 5, it indicates that the first and second songs are localized to the center and the right as shown in FIG. The first song is in the selected state. In the selection state SL2, as shown in FIG. 7B, the first song, the second song, and the third song are localized to the left, center, and right, and the center is blinked to select the second song. Present that you are in the middle state. Similarly, in the selection state SL3, a display as shown in FIG.
By performing such a guide, the user can proceed with the selection operation while confirming the display as necessary.

以上のような曲選択動作を実現するためのコントローラ1の各種処理を、図8〜図11で説明する。   Various processes of the controller 1 for realizing the music selection operation as described above will be described with reference to FIGS.

まず図8でイヤコンを生成するための処理を説明する。
イヤコンは、例えば楽曲データの記録時、即ちユーザーがアナログ音声入力部5又はデジタル音声入力部7から音声信号を入力して記憶部3に格納させる際に同時に生成したり、或いは記録後の所定の時点で、記憶部3に格納されている楽曲データ(まだ対応するイヤコンが生成されていない楽曲データ)に対して処理を行ってイヤコンを生成することが考えられる。
また、演算処理部4の処理性能が高く、或る程度以上の高速処理が可能であれば、予めイヤコンを生成しておくのではなく、楽曲選択のためにイヤコンを出力する際にそのイヤコンを生成するようにしてもよい。
First, a process for generating an earphone will be described with reference to FIG.
For example, when recording music data, that is, when a user inputs an audio signal from the analog audio input unit 5 or the digital audio input unit 7 and stores it in the storage unit 3, At this point, it is conceivable to generate an earphone by performing processing on the music data stored in the storage unit 3 (music data for which a corresponding earphone has not yet been generated).
Also, if the processing performance of the arithmetic processing unit 4 is high and high-speed processing of a certain level or higher is possible, instead of generating an earphone in advance, the earphone is output when the earphone is output for music selection. You may make it produce | generate.

ここでは、楽曲データの記憶部3への録音と同時に、又は記憶部への録音が完了した直後もしくは或る程度後の時点で、イヤコンを生成するとして述べていく。つまり、あくまで楽曲選択動作が実行される時点では、既にイヤコンが生成され記憶部3に図2に示したように格納されているものとする場合である。なお入力された楽曲データを記憶部3へ録音していく際に同時にイヤコンを生成する場合は、演算処理部4では、楽曲データの録音のための処理、即ち圧縮エンコードや記憶部3への転送処理と並行して図8の制御によって指示される処理が行われることになる。   Here, it will be described that the earphone is generated simultaneously with the recording of the music data to the storage unit 3, or immediately after the recording to the storage unit is completed or at a certain time later. That is, it is a case where the earphone is already generated and stored in the storage unit 3 as shown in FIG. When the input music data is recorded in the storage unit 3 and the earphone is generated at the same time, the arithmetic processing unit 4 performs processing for recording the music data, that is, compression encoding and transfer to the storage unit 3. In parallel with the processing, the processing instructed by the control of FIG. 8 is performed.

コントローラ1は録音のために入力された楽曲データ(もしくは記憶部3への録音を完了した楽曲データ)に対して、図8の処理を行って演算処理部4にイヤコンを生成させる。
本例では、図2に示したように楽曲内の特徴的な部分(サビなど)を抽出してイヤコンとするために、まずステップF101では、その特徴部分抽出のためのパラメータを設定する。
The controller 1 performs the process of FIG. 8 on the music data input for recording (or music data that has been recorded in the storage unit 3), and causes the arithmetic processing unit 4 to generate earphones.
In this example, as shown in FIG. 2, in order to extract a characteristic part (such as rust) in a music piece and use it as an earphone, first, in step F101, parameters for extracting the characteristic part are set.

特徴的な部分の抽出のためには多様な方法があるが、例えばサビなど曲の中で最も盛り上がる部分とする場合は、平均音圧や周波数スペクトルに基づく抽出方法が考えられる。即ち音圧の大きくなった部位や、高域周波数成分が多くなった部位が、曲中で最も特徴的な部分であるとする。
そこでステップF101では平均音圧と周波数スペクトル、及び必要なしきい値等をパラメータとし、ステップF102で対象となる楽曲データについて平均音圧とその時間変化、及び周波数スペクトルとその時間変化を検出していくスキャンを実行する。
There are various methods for extracting the characteristic part. For example, in the case where the most prominent part of the music such as rust is selected, an extraction method based on the average sound pressure or the frequency spectrum is conceivable. That is, the part where the sound pressure is increased and the part where the high frequency component is increased are the most characteristic parts in the music.
Therefore, in step F101, the average sound pressure and frequency spectrum, and necessary threshold values are used as parameters, and in step F102, the average sound pressure and its time change, and the frequency spectrum and its time change are detected for the target music data. Run a scan.

このスキャン結果により、平均音圧が或るしきい値を越えた部分がある時間以上継続したこと、及び周波数スペクトルとして或る特徴(例えば高域シフト傾向)が所定時間以上継続しことが認められたら、その部分を特徴部分として認識する。   From this scan result, it is recognized that the portion where the average sound pressure exceeded a certain threshold value continued for a certain period of time, and that a certain characteristic (for example, high frequency shift tendency) continued as a frequency spectrum for a predetermined time period. Then, that part is recognized as a characteristic part.

なお、楽曲データの入力と同時にイヤコン生成する場合は、その入力されてくる楽曲データに対してスキャンを行うことになり、また、既に記憶部3に記憶された楽曲データに対してイヤコンを生成する場合は、例えば記憶部3から一旦楽曲データを読み出してバッファメモリ13に格納しながらスキャンを行うことなどが考えられる。   When the earphone is generated simultaneously with the input of the music data, the input music data is scanned, and the earphone is generated for the music data already stored in the storage unit 3. In this case, for example, it is conceivable to perform scanning while reading music data from the storage unit 3 and storing it in the buffer memory 13.

このような特徴部分が抽出できるまで、もしくはその楽曲データが終了するまで、ステップF103,F104のループでスキャンを続ける。
そして或る時点で特徴部分が抽出できたら、ステップF103からF105に進み、抽出したデータ部分、つまりステレオ音声データである楽曲データの一部を、モノラルデータに変換し、さらにステップF106で圧縮処理を行う。なお既に記憶部3に記憶された圧縮データからデータ抽出を行った場合は、ステップF106の処理は不要となる。
Scanning is continued in a loop of steps F103 and F104 until such a characteristic portion can be extracted or the music data is completed.
If the characteristic part can be extracted at a certain time, the process proceeds from step F103 to F105, the extracted data part, that is, a part of the music data that is stereo audio data is converted into monaural data, and the compression process is further performed in step F106. Do. Note that if data extraction is performed from the compressed data already stored in the storage unit 3, the process of step F106 is not necessary.

モノラル変換、圧縮処理が完了したら、ステップF107で、それをイヤコンデータとして記憶部3に記憶させ、これによって1つの楽曲データに対応するイヤコンが生成されたことになる。
このようなイヤコン生成処理は、入力されてくる楽曲データ毎、もしくは記憶部3に格納されている楽曲データ毎に実行されることになる。
When the monaural conversion and compression processing is completed, it is stored in the storage unit 3 as earphone data in step F107, and thus an earphone corresponding to one piece of music data is generated.
Such an earphone generation process is executed for each piece of music data input or for each piece of music data stored in the storage unit 3.

ところで多様な楽曲を考えると、ステップF104でスキャン終了となっても特徴部分が抽出できないこともあり得る。そこでその様な場合はステップF101に戻ってパラメータを更新する。即ち特徴部分に相当すると判断する条件を変化させる。例えばしきい値を下げたり、音圧パラメータのみを有効とするなどして条件を変化させる。そしてステップF102から再度スキャンを開始することになる。   By the way, considering various music pieces, it may be impossible to extract a feature portion even if the scan ends in step F104. In such a case, the process returns to step F101 to update the parameters. That is, the condition for determining that it corresponds to the characteristic portion is changed. For example, the condition is changed by lowering the threshold value or enabling only the sound pressure parameter. Then, scanning is started again from step F102.

以上の図8のようなイヤコン抽出処理は一例であり、他にも処理例や処理タイミングは各種考えられる。
また、イヤコン生成のための特徴部分は、ユーザーが曲中の任意の位置を指定できるようにしてもよい。
The earphone extraction processing as shown in FIG. 8 is an example, and various other processing examples and processing timings are conceivable.
Further, the feature part for generating the earphone may allow the user to specify an arbitrary position in the song.

例えばこのようにしてイヤコンが生成され、図2のような記憶状態となったら、その後はイヤコンを用いた曲選択動作が実行できる。
再生する曲の選択のためのユーザーの操作に対応する処理を図9に示す。
図9はユーザーの選択操作(例えばアップ/ダウンキー25の操作)又は決定操作(例えばエンターキー26又は再生キー21の操作)を監視する処理を示しており、コントローラ1はステップF201,F202,F203のループでこれらのユーザー操作を監視している。
そしてユーザーが選択操作を行ったらステップF204で選択出力処理、即ち図5で説明した或る選択状態でのイヤコンデータの出力制御を行う。
またユーザーが決定操作(又は再生操作)を行ったら、ステップF205に進んで再生動作を実行すべく制御を行うことになる。
For example, when the earphone is generated in this way and enters the storage state as shown in FIG. 2, a music selection operation using the earphone can be performed thereafter.
FIG. 9 shows a process corresponding to a user operation for selecting a song to be reproduced.
FIG. 9 shows processing for monitoring a user's selection operation (for example, operation of the up / down key 25) or determination operation (for example, operation of the enter key 26 or the reproduction key 21). The controller 1 performs steps F201, F202, F203. These user operations are monitored in a loop.
When the user performs a selection operation, in step F204, selection output processing, that is, output control of the earphone data in a certain selection state described with reference to FIG. 5 is performed.
When the user performs a determination operation (or a reproduction operation), the process proceeds to step F205 and control is performed to execute the reproduction operation.

ステップF204として行われる選択出力処理は、図10に示される処理となる。
まずステップF301で、選択のための同時再生を行う曲(この場合はイヤコン)を設定する。例えば最初に選択操作が行われた時点であれば、図5の選択状態SL1を実現するために、ここではイヤコンEM1,EM2を同時再生曲(選択候補)として設定する。
また、選択状態SL1にあるときに再度ユーザーが選択操作を行って図9のステップF204に進んだ場合は、図10のステップF301で、選択状態SL2を実現するためにイヤコンEM1,EM2,EM3を同時再生曲として設定することになる。
The selection output process performed as step F204 is the process shown in FIG.
First, in step F301, a tune (in this case, earphone) to be played simultaneously for selection is set. For example, at the time when the selection operation is first performed, in order to realize the selection state SL1 in FIG. 5, here, the earphones EM1 and EM2 are set as simultaneous reproduction music (selection candidates).
Further, when the user performs a selection operation again in the selection state SL1 and proceeds to step F204 in FIG. 9, the earphones EM1, EM2, and EM3 are set to realize the selection state SL2 in step F301 in FIG. It will be set as a simultaneous playback song.

選択候補となる同時再生曲を設定したら、ステップF302で設定された各イヤコンが記憶部3に存在するか否かを確認する。そして選択候補とすべき楽曲のなかで対応するイヤコンが存在しないものがあれば、ステップF303でイヤコン生成処理を行う。即ち上述した図8の処理を行ってイヤコンを生成する。   When the simultaneous reproduction music to be selected is set, it is confirmed whether each earphone set in step F302 exists in the storage unit 3 or not. Then, if there is a song that does not have a corresponding earphone among the music to be selected, the earphone generation process is performed in step F303. That is, the process shown in FIG. 8 is performed to generate an earphone.

ただし上述のように楽曲データの記憶時に同時にイヤコンが生成されるのであれば、ステップF302の時点でイヤコンデータは存在するはずであるため、必ずしもこのステップF302,F303のような処理は必要ない。一方、上述したように演算処理部4の処理能力が高ければ、イヤコンは予め生成しておくものではなく選択出力時に生成するものとしてもよい。その様な場合は、選択候補が設定された後にステップF303で必要なイヤコンが生成されることになる。   However, as described above, if the earphone is generated at the same time as the music data is stored, the earphone data should exist at the time of step F302, and thus the processing of steps F302 and F303 is not necessarily required. On the other hand, if the processing capability of the arithmetic processing unit 4 is high as described above, the earphone may be generated at the time of selective output instead of being generated in advance. In such a case, necessary earphones are generated in step F303 after selection candidates are set.

必要なイヤコンが揃ったら、ステップF304で記憶部3からイヤコンを読み出し、例えばバッファメモリ13に格納しながらステップF305で音情報成形処理を実行するように演算処理部4に対して指示する。このステップF304,F305の処理を、選択候補となった各イヤコン(例えば選択状態SL1の出力の場合は、EM1,EM2、選択状態SL5の出力の場合はEM4、EM5、EM6)に対して実行する。   When the necessary earphones are prepared, the operation processing unit 4 is instructed to read the earphones from the storage unit 3 in step F304 and execute the sound information shaping process in step F305 while storing them in the buffer memory 13, for example. The processing of steps F304 and F305 is executed for each earphone selected as a selection candidate (for example, EM1 and EM2 for the output of the selection state SL1, and EM4, EM5, and EM6 for the output of the selection state SL5). .

音情報成形とは次のような処理となる。
まず原曲の特徴を損なわない範囲で、イヤコンデータの定位に寄与しない高域と低域の周波数成分をカット又は減少させるフィルタリング処理が行われる。
またイヤコンデータの演奏時間が、予め設定した一定時間になるように時間軸での圧縮又はカットを行うという時間軸方向の処理が行われる。但し、予めイヤコンが一定の演奏時間のデータとして生成されている場合は必要ない。
さらに音圧に関する処理がある。これは3つ(又は2つ)のイヤコンを同時出力することに際して、合成された音声データの音圧がユーザーにとって過度の音圧レベルにならないようにするための処理であり、このため各イヤコンデータのレベルを所定レベル減衰させる処理を行う。
またピーク音圧が規格値を越えないように各イヤコンデータのリミッタ制御も行うことになる。
また、イヤコンデータ内に無音部分が生じている場合は、その部分をカットするということを行ってもよい。
Sound information shaping is the following process.
First, a filtering process is performed to cut or reduce high frequency components and low frequency components that do not contribute to localization of earphone data within a range that does not impair the characteristics of the original music.
In addition, processing in the time axis direction is performed in which compression or cutting is performed on the time axis so that the performance time of the earphone data becomes a predetermined time set in advance. However, it is not necessary when the earphone is generated in advance as data of a certain performance time.
There is also a process related to sound pressure. This is a process for preventing the sound pressure of the synthesized voice data from becoming an excessive sound pressure level for the user when three (or two) earphones are simultaneously output. A process of attenuating the data level by a predetermined level is performed.
In addition, limiter control of each earphone data is performed so that the peak sound pressure does not exceed the standard value.
Further, when a silent part is generated in the earphone data, the part may be cut.

以上のような各イヤコンデータの読出及び音情報成形が行われ、同時出力するイヤコンデータが揃ったら(例えば音情報成形された2つ又は3つのイヤコンデータがバッファメモリ13に格納された状態となったら)、ステップF306からF307に進み、立体音像合成処理を行う。
立体音像合成処理とは、即ち複数のイヤコン(モノラルデータ)をステレオ音像空間内でそれぞれ異なる定位となるようにして合成する処理である。
例えば各イヤコンデータに対して所要の位相差パラメータ、レベル差パラメータを用いて合成処理を行う。
The reading of each earphone data and the shaping of sound information as described above are performed, and when the earphone data to be output at the same time are prepared (for example, two or three earphone data with sound information shaping stored in the buffer memory 13). When the state is reached), the process advances from step F306 to F307 to perform a three-dimensional sound image synthesis process.
The three-dimensional sound image synthesizing process is a process of synthesizing a plurality of earphones (monaural data) so as to have different localizations in the stereo sound image space.
For example, synthesis processing is performed on each earpiece data using a required phase difference parameter and level difference parameter.

特に本例の場合は、定位として3つのイヤコンを左、センター、右に振り分けること、及びセンター定位の音声が最も高い音圧レベルとなることを実現するための合成処理となる。従って、具体的には、まず音圧レベルに関しては、センター定位すべきイヤコンについては増加させ、左右に定位するイヤコンに関しては減衰させる。
また、定位に関しては、例えばL/R2チャンネルステレオの出力系統に対して、センター定位のイヤコンはL:R=5:5、右定位のイヤコンはL:R=2:8、左定位のイヤコンはL:R=8:2という各音量バランスを与えることで定位を確定させる。
そしてその様に処理した各イヤコンデータを合成し、L、R2チャンネルのステレオ音声出力データとする。このように合成処理により生成されたイヤコン合成データは例えばバッファメモリ13に格納する。以上の処理で、例えば図5の選択状態SL1〜SL10のうちの今回出力すべき或る1つの選択状態を実現するイヤコン合成データが生成されたことになる。
In particular, in the case of this example, it is a synthesis process for realizing that the three earphones are distributed to the left, center, and right as localization, and that the sound of the center localization has the highest sound pressure level. Therefore, specifically, regarding the sound pressure level, the earphone that should be centered is increased, and the earphone that is localized to the left and right is attenuated.
As for localization, for example, L: R = 5: 5 for the center localization earphone, L: R = 2: 8 for the right localization earphone, and L: R = 2: 8 for the right localization earphone. The localization is determined by giving each volume balance of L: R = 8: 2.
Then, the earphone data processed in such a manner is synthesized to obtain L, R2 channel stereo audio output data. The earphone composition data generated by the composition processing in this way is stored in the buffer memory 13, for example. Through the above processing, for example, earphone composition data that realizes one selection state to be output this time among the selection states SL1 to SL10 in FIG. 5 is generated.

そしてステップF308では表示部10の表示状態を、今回出力する選択状態に応じて実行させ(図7参照)、ステップF309で、イヤコン合成データをD/A変換器8、ステレオ音声出力処理部9を介して音声として出力することになる。従って、図3、図4で説明したような定位及び音量バランスで、ユーザーに対して3つ(又は選択状態SL1、SL10の場合は2つ)のイヤコン音声が同時に出力されることになる。   In step F308, the display state of the display unit 10 is executed in accordance with the selection state to be output this time (see FIG. 7), and in step F309, the ear-composited data is converted into the D / A converter 8 and the stereo audio output processing unit 9. To be output as sound. Accordingly, three earphone sounds (or two in the case of the selected states SL1 and SL10) are simultaneously output to the user with the localization and volume balance as described with reference to FIGS.

その後、ユーザーが選択操作を行って図9のステップF204に進むたびに、その操作に応じて出力すべき選択状態(図5参照)に従って、図10の処理が行われ、図5で説明したように各種選択状態がユーザーに提供されていく。つまりユーザーは選択操作を繰り返すことで、所望の楽曲が選択中となっている状態を探していくことができる。   Thereafter, each time the user performs a selection operation and proceeds to step F204 in FIG. 9, the processing in FIG. 10 is performed according to the selection state (see FIG. 5) to be output in accordance with the operation, as described in FIG. Various selection states are provided to the user. That is, the user can search for a state where a desired music piece is being selected by repeating the selection operation.

所望の楽曲が選択中(つまり比較的大音量でのセンター定位)となった時点で、ユーザーは決定操作を行うと、処理は図9のステップF205に進み、図11に示す再生処理が行われて、その選択決定された楽曲が再生される。
即ちステップF401で、記憶部3から選択決定されたイヤコンに対応する楽曲データの読出を開始させ、ステップF402で演算処理部4でのデコード処理を開始させる。
これによって記憶部3から読み出されてくる楽曲データがD/A変換器8、ステレオ音声出力処理部9を介してステレオ音声として出力されることになる。
When the user performs a determination operation when a desired music piece is being selected (that is, center localization at a relatively large volume), the process proceeds to step F205 in FIG. 9 and the reproduction process shown in FIG. 11 is performed. Then, the selected music is played.
That is, reading of music data corresponding to the earphone selected and determined from the storage unit 3 is started in step F401, and decoding processing in the arithmetic processing unit 4 is started in step F402.
As a result, the music data read from the storage unit 3 is output as stereo sound via the D / A converter 8 and the stereo sound output processing unit 9.

このように楽曲データの再生を実行している間は、ステップF403,F404でユーザーの停止操作及び楽曲データの再生終了を監視しており、停止操作又は再生終了となったらステップF405で再生処理を停止させる。   While the music data is being played in this way, the user's stop operation and the end of playback of the music data are monitored in steps F403 and F404, and when the stop operation or playback ends, the playback process is executed in step F405. Stop.

以上の図8〜図11のような処理により、ユーザーは或る曲を再生させたいときに、イヤコンデータを聴きながら目的の曲を探していくことができる。
そしてそのイヤコンデータは、複数のイヤコンデータが立体音像空間内で異なる定位で認識されるものとなり、従って同時に多数のイヤコンを確認できる。これによって迅速かつ簡易に目的の曲を探すことができ、また表示部が小型の(もしくは存在しない)再生装置であっても、さらには操作子の少ない再生装置であっても、選択操作性はよいものとなる。
またそのようにして選択決定された楽曲が再生出力されるようにすることで、選択決定操作が再生操作を兼ねるものとなり、再生のためのユーザーの操作はより簡単なものとなる。
With the processes shown in FIGS. 8 to 11, when the user wants to reproduce a certain song, the user can search for the target song while listening to the earphone data.
The earphone data is obtained by recognizing a plurality of earphone data with different localizations in the three-dimensional sound image space, so that a number of earphones can be confirmed at the same time. This makes it possible to quickly and easily search for a target song, and even if the display unit is a small (or non-existent) playback device or a playback device with few operators, the selection operability is It will be good.
In addition, by making the music selected and determined in this way be reproduced and output, the selection determination operation also serves as the reproduction operation, and the user's operation for reproduction becomes simpler.

また選択時に選択操作に応じて図5の各選択状態が切り換えられていくことは、各イヤコンがスクロールして順次選択中となるようなものとユーザーに認識され、これはユーザー自身が行う選択操作による出力音声の変化をより認識しやすく、また選択操作の意味もわかりやすいものとできる。
さらに選択中の選択用音声データとしては、例えばセンターなどの特定の音像位置に定位され、かつ最も大きい音圧レベルとされるため、同時に複数のイヤコンが聞こえる状態でもユーザーは選択中のイヤコンをはっきり認識でき、各時点で決定操作の実行すべきか否かを迷うことはない。
In addition, the fact that each selection state in FIG. 5 is switched in accordance with the selection operation at the time of selection is recognized by the user as each earphone is scrolling and being sequentially selected. This is the selection operation performed by the user himself / herself. This makes it easier to recognize the change in the output sound due to and the meaning of the selection operation.
Furthermore, as the selected audio data being selected, for example, it is localized at a specific sound image position such as the center and is set to the highest sound pressure level. Therefore, even when a plurality of earphones can be heard at the same time, the user clearly identifies the selected earphone. It can be recognized, and it does not hesitate whether to execute the determination operation at each time point.

また本例の場合は、図7のように表示部10でも、同時再生出力されているイヤコン(楽曲データのナンバ)と、その中で選択中のイヤコン(楽曲データのナンバ)を表示し、ユーザーの選択のための補助となるようにしているため、ユーザーはこれによって選択中の楽曲ナンバを確認できるなど、便利なものとなる。   In the case of this example, as shown in FIG. 7, the display unit 10 also displays the earphones (numbers of music data) that are simultaneously reproduced and output and the earphones currently selected (numbers of music data). As a result, the user can confirm the number of the music piece being selected, which is convenient.

ところでイヤコンデータについては、記憶する(もしくは記憶した)各楽曲データに対応して予め生成して保持しておくことで、曲選択時、つまり複数のイヤコンを出力する際の処理負担を軽減することができる。またこれにより演算処理部4がさほど高度な演算処理能力を備える必要がなくなり、装置コストの削減にもつながる。
一方、演算処理部4が高度な演算処理能力を備えている場合は、曲選択時(イヤコン出力時)にイヤコンを生成するようにすることで、特にそれ以前にイヤコンを生成しておくという準備は不要となり、また当然記憶部3にイヤコンデータの記憶領域も不要となる。
By the way, the earphone data is generated and held in advance corresponding to each piece of music data to be stored (or stored), thereby reducing the processing burden when selecting a song, that is, outputting a plurality of earphones. be able to. This also eliminates the need for the arithmetic processing unit 4 to have a high level of arithmetic processing capability, leading to a reduction in apparatus cost.
On the other hand, if the arithmetic processing unit 4 has a high level of arithmetic processing capability, it is possible to generate an earphone at the time of song selection (when the earphone is output), so that the earphone is generated before that. Of course, and the storage unit 3 also does not need a storage area for earphone data.

3.再生装置の構成の他の例
以下、本発明としての各種の変形例を述べていく。ここではまず再生装置の構成としての例を説明する。
図12は再生装置の他の構成例を示し定る。なお図1と同一部分は同一符号を付し説明を省略する。
この構成例では、再生装置がディスクドライブ12を有するものとなり、これによってCD、MDなどのディスク、つまり楽曲データを収録するディスクの再生が可能とされるものである。
3. Other Examples of Configuration of Reproducing Device Various modifications as the present invention will be described below. Here, an example of the configuration of the playback apparatus will be described first.
FIG. 12 shows another configuration example of the playback apparatus. The same parts as those in FIG.
In this configuration example, the playback apparatus has the disk drive 12, which enables playback of disks such as CDs and MDs, that is, disks that record music data.

この場合、ディスクドライブ12にディスクが装填されることに応じて、そのディスクに収録されているプログラム(楽曲)をスキャンしてイヤコンを生成し、例えばディスクのトラックナンバに対応させて記憶部3に記憶していく。
従って、ユーザーが装填したディスクに収録されている或る楽曲を再生させるために選択操作を行った場合は、記憶部3に収録されているイヤコンを用いて上述してきたような、複数イヤコンを異なる定位で同時再生する動作を行う。
そして或る選択状態で決定操作が行われた場合は、その決定されたイヤコンに対応するディスク上のトラック(楽曲データ)の再生を開始させるようにする。
In this case, in response to the loading of the disk in the disk drive 12, the program (music) recorded on the disk is scanned to generate earphones, and for example, in the storage unit 3 corresponding to the track number of the disk. I will remember it.
Accordingly, when a selection operation is performed in order to reproduce a certain piece of music recorded on a disc loaded by the user, a plurality of earphones as described above using different earphones recorded in the storage unit 3 are different. Performs simultaneous playback in stereo.
When a determination operation is performed in a certain selection state, reproduction of a track (music data) on the disc corresponding to the determined earphone is started.

このようにすることで、いわゆる可搬性メディアで或るCDやMDというディスクに収録されている楽曲に対してユーザーは、上記例と同様に曲選択を実行できる。   By doing in this way, the user can perform song selection similarly to the above-mentioned example with respect to the music recorded on a certain CD or MD disk with what is called a portable medium.

なお、この構成の場合でもアナログ音声入力部5又はデジタル音声入力部7から入力された楽曲データを記憶部3に記憶し、またそれに対応するイヤコンを生成して記憶するようにしてもよい。
またディスクドライブ12がMDに対するドライブなどであって記録機能を有するものである場合は、アナログ音声入力部5又はデジタル音声入力部7から入力された楽曲データを装填されているMDに記録するようにすることもできる。その場合は、記録する各楽曲データに対応するイヤコンを生成して記憶部3に記憶するようにすればよい。
ただしこれらの様な録音機能を設けない構成も考えられ、その場合は一点鎖線で囲った入力系の部位は不要となる。
Even in this configuration, the music data input from the analog audio input unit 5 or the digital audio input unit 7 may be stored in the storage unit 3, and a corresponding earphone may be generated and stored.
When the disk drive 12 is a drive for an MD and has a recording function, the music data input from the analog audio input unit 5 or the digital audio input unit 7 is recorded on the loaded MD. You can also In that case, an earphone corresponding to each piece of music data to be recorded may be generated and stored in the storage unit 3.
However, a configuration in which such a recording function is not provided is also conceivable. In this case, the input system part surrounded by the alternate long and short dash line is unnecessary.

図13は再生装置のさらに他の構成例であり、この場合は、記憶部3を可搬型の固体メモリ91(例えばメモリーカード、メモリスティックなど)に対するメモリドライブとして構成するものである。
この場合は、アナログ音声入力部5又はデジタル音声入力部7から入力された楽曲データを記憶部3に装填されている固体メモリ91に記憶し、またそれに対応するイヤコンを生成して記憶するようにすることで、図1の構成の再生装置と同様に楽曲選択時のイヤコンを用いた再生出力(異定位同時再生)を行うことができる。つまりユーザーは上記同様の選択動作を実行して容易に所望の曲を再生させることができる。
もちろん、楽曲データが記憶された固体メモリ91が装填された際に、収録されている各楽曲データに対応するイヤコンを生成し、固体メモリ91に記憶させるようにすることも考えられる。
FIG. 13 shows still another configuration example of the playback apparatus. In this case, the storage unit 3 is configured as a memory drive for a portable solid-state memory 91 (for example, a memory card, a memory stick, etc.).
In this case, the music data input from the analog audio input unit 5 or the digital audio input unit 7 is stored in the solid-state memory 91 loaded in the storage unit 3, and the corresponding earphone is generated and stored. By doing so, it is possible to perform reproduction output (simultaneous localization simultaneous reproduction) using the earphone at the time of music selection as in the reproduction apparatus configured as shown in FIG. That is, the user can easily reproduce the desired music piece by executing the same selection operation as described above.
Of course, when the solid-state memory 91 storing the music data is loaded, it is also conceivable to generate earphones corresponding to the recorded music data and store them in the solid-state memory 91.

また可搬性の固体メモリ91を用いることで、例えば楽曲データとイヤコンデータを予め記憶した固体メモリ91をユーザーに販売、提供するという方式も考えられる。つまり音楽メディアメーカー側が、収録する各楽曲データに応じた最適なイヤコンデータを予め生成して記憶させておく。このようにすれば再生装置側でイヤコン生成を行う必要はなくなるとともに、楽曲の特徴をよく表す最も好適な部分をイヤコンとして選択時にユーザーに提示できるようにもなる。
また、このように予め楽曲データ及びイヤコンが記憶された固体メモリ91のみを使用可能とするときは、一点鎖線で囲った入力系の部位は不要となる。
In addition, by using the portable solid memory 91, for example, a method of selling and providing the user with a solid memory 91 in which music data and earphone data are stored in advance can be considered. That is, the music media maker generates and stores optimum earphone data corresponding to each piece of music data to be recorded. In this way, it is not necessary to generate earphones on the playback device side, and the most suitable part that well represents the characteristics of the music can be presented to the user as an earphone when selected.
In addition, when only the solid-state memory 91 in which music data and earphones are stored in advance can be used as described above, an input system part surrounded by a one-dot chain line is not necessary.

4.イヤコンデータの他の例
ところでイヤコンデータは、楽曲データの中でサビなどの最も特徴のある部分としてきたが、からなずしもその様な部位をサーチして生成するのではなく、或る程度規則的に抽出してもよい。例えば図14は、各楽曲データの先頭部分の所定時間分を、イヤコンとする例である。
このように規則的に楽曲データ内の或る部分をイヤコンとして抽出するものとすれば、イヤコン抽出処理は非常に簡易化され、例えば処理速度の遅い演算処理部であっても選択のためのイヤコン出力時にイヤコンを生成するということも可能となる。
4). Another example of earphone data Earphone data has been the most characteristic part of music data, such as rust, but it is not generated by searching for such parts. You may extract regularly. For example, FIG. 14 shows an example in which a predetermined time at the beginning of each piece of music data is an earphone.
If a certain part in music data is regularly extracted as an earphone in this way, the earphone extraction process is greatly simplified. For example, even an arithmetic processing unit having a low processing speed can select an earphone for selection. It is also possible to generate earphones when outputting.

もちろん楽曲データの先頭位置に限らず、例えば楽曲の開始から10秒の地点から20秒の地点までをイヤコンとするなど、楽曲データの途中の特定部分としてもよい。   Of course, the position is not limited to the start position of the music data, and may be a specific portion in the middle of the music data, for example, from 10 seconds to 20 seconds from the start of the music.

また上述したようにイヤコンをサビなどの特徴部分とする場合については、そのイヤコン部分としての演奏時間長は、一定時間としてもよいし、特徴部分の長さに応じて可変時間長としてもよい。
さらに、特徴部分とする場合や規則的に抽出する場合に限らず、イヤコンデータを高速再生音声など、通常の再生時とは異なった速度としてユーザーに聞こえるデータ(例えば時間軸方向に間引きを行ったデータ)としてもよい。
Further, as described above, when the earphone is a feature portion such as rust, the performance time length as the earpiece portion may be a fixed time or may be a variable time length according to the length of the feature portion.
Furthermore, it is not limited to the case where it is used as a feature part or the case where it is regularly extracted, but data that can be heard by the user at a speed different from that during normal playback, such as high-speed playback sound (for example, thinning in the time axis direction) Data).

5.イヤコンをポインタデータで設定する例
以上の説明では、イヤコンとして楽曲データの一部を抽出したデータを生成する例を述べてきたが、イヤコンとしてのデータ自体を記憶部3に保存しておく必要はなく、例えばイヤコン再生時にそのイヤコンとすべきデータ部分を指定するポインタデータ(イヤコンポインタ)を記憶するようにすることも考えられる。
例えば図15のように、記憶部3には楽曲データM1、M2・・・に対応してイヤコンポインタP1、P2・・・を記憶するようにする。
5. Example of setting an earphone with pointer data In the above description, an example of generating data obtained by extracting a part of music data as an earphone has been described. However, it is necessary to store the data itself as an earphone in the storage unit 3. Alternatively, for example, it is conceivable to store pointer data (earphone pointer) for designating a data portion to be used as the earphone when reproducing the earphone.
For example, as shown in FIG. 15, the earphone pointers P1, P2,... Are stored in the storage unit 3 corresponding to the music data M1, M2,.

このイヤコンポインタとは、図16に示すように、楽曲データ内の或る部分をアドレス(記憶部3内の楽曲データの記憶されたアドレス)などでイヤコンとして使用する部位を指定するものである。
例えば楽曲データM1について図16(a)に示すようにアドレスad1〜ad2の区間が特徴部分として抽出された場合は、対応するイヤコンポインタP1として図16(b)に示すようにその特徴部分のスタートアドレスをアドレスad1、エンドアドレスをアドレスad2として記憶する。
As shown in FIG. 16, the earphone pointer designates a part to be used as an earphone by an address (address where the music data is stored in the storage unit 3) or the like in a music data. .
For example, when the section of addresses ad1 to ad2 is extracted as a feature portion of the music data M1 as shown in FIG. 16A, the corresponding earpiece pointer P1 is displayed as the feature portion as shown in FIG. 16B. The start address is stored as address ad1, and the end address is stored as address ad2.

或いは楽曲データM1の特徴部分となるアドレスad1〜ad2の区間の演奏時間が10秒であれば、図16(c)のように、対応するイヤコンポインタP1として、その特徴部分のスタートアドレスをアドレスad1と、演奏時間10秒(アドレス長又はデータ長)として記憶する。
このようにイヤコンポインタを記憶しておけば、イヤコンを出力する際には、そのイヤコンポインタに従って実際の楽曲データの一部を抽出して読み出すようにすればよく、実データとしてのイヤコンデータを保存しておく必要はない。これによって記憶部3に必要なデータ容量も削減できる。
Alternatively, if the performance time of the address ad1 to ad2 that is a characteristic part of the music data M1 is 10 seconds, the start address of the characteristic part is addressed as the corresponding ear pointer P1 as shown in FIG. ad1 and the performance time of 10 seconds (address length or data length) are stored.
If the earphone pointer is stored in this way, when outputting the earphone, it is only necessary to extract and read a part of the actual music data according to the earphone pointer, and the earphone as the actual data is read out. There is no need to save the data. As a result, the data capacity required for the storage unit 3 can also be reduced.

なお、イヤコンデータとしてのデータ長(演奏時間長)が可変とされる場合は、図16(b)又は(c)のような形態のイヤコンポインタが必要となるが、イヤコンデータのデータ長が固定とされる場合は、イヤコンポインタはスタートアドレスのみでよいものとなる。
また、図14のように楽曲データ内の特定の部分をイヤコンとする場合でも、イヤコンポインタを記憶する方式を採用できることはいうまでもない。
When the data length (performance time length) as the earphone data is variable, an earpiece pointer having a form as shown in FIG. 16B or FIG. 16C is required. If the length is fixed, the earpiece pointer need only be the start address.
Further, it goes without saying that even when a specific portion in the music data is used as shown in FIG. 14, a method of storing the earpiece pointer can be adopted.

楽曲データ内の特徴的な部分を抽出してイヤコンとする場合の、図16(b)又は(c)のようなイヤコンポインタの設定処理を図17に示す。
この処理においてステップF151〜F154は、図8のステップF101〜F104と同様となるため説明を省略する。
楽曲データをスキャンして特徴部分が抽出できたら、ステップF155で、その特徴部分のスタートアドレスとエンドアドレス(又はスタートアドレスと特徴部分の時間長(データ長))を検出する。
そしてステップF156として、検出したスタートアドレスとエンドアドレス(又はスタートアドレスと特徴部分の時間長(データ長))を、その楽曲データに対応させて記憶部3に記憶する。
これにより図16に示したようなイヤコンポインタを設定できる。
FIG. 17 shows the setting process of the earphone pointer as shown in FIG. 16B or FIG. 16C when extracting the characteristic part in the music data to make the earphone.
In this process, steps F151 to F154 are the same as steps F101 to F104 in FIG.
When the feature portion is extracted by scanning the music data, the start address and end address of the feature portion (or the start address and the time length (data length) of the feature portion) are detected in step F155.
In step F156, the detected start address and end address (or start address and time length (data length) of the characteristic portion) are stored in the storage unit 3 in association with the music data.
Thereby, an earpiece pointer as shown in FIG. 16 can be set.

またイヤコンポインタを保存する方式の場合の、曲選択の際の処理(イヤコン出力処理)は図18のようになる。
ステップF351〜F353、及びステップF358〜F360は図10のステップF301〜F303、及びステップF307〜F309と同様になる。
この場合は、同時に出力する各イヤコンの読出処理としてステップF354〜F357の処理が図10と異なるものとなる。
即ちステップF354では選択候補とされた楽曲に対応するイヤコンポインタに基づいて、その楽曲データの一部、つまりイヤコンポインタで示される部分を記憶部から読み出す。
読み出された楽曲データの一部はステレオ音声データであるので、ステップF355でモノラル音声データに変換する。
そしてステップF356で図10のステップF305と同様に音情報整形処理を行い、イヤコンデータを得ることになる。
In the case of the method of storing the earpiece pointer, the process (earphone output process) at the time of music selection is as shown in FIG.
Steps F351 to F353 and steps F358 to F360 are the same as steps F301 to F303 and steps F307 to F309 in FIG.
In this case, the processes of steps F354 to F357 are different from those in FIG.
That is, in step F354, based on the ear pointer corresponding to the music selected as the selection candidate, a part of the music data, that is, the part indicated by the ear pointer is read from the storage unit.
Since part of the read music data is stereo audio data, it is converted to monaural audio data in step F355.
In step F356, sound information shaping processing is performed in the same manner as in step F305 in FIG.

このようにして選択候補とされる各楽曲のイヤコンを得たら、ステップF358以降で、それらを異なる定位やそれぞれ所要の音節レベルで合成し、同時に再生出力することになる。
従って、イヤコンポインタを記憶する方式の場合でも、ユーザーの選択操作は全く同様に実現される。
In this way, when the earphones of the music pieces that are candidates for selection are obtained, in step F358 and thereafter, they are synthesized with different localizations and required syllable levels, and simultaneously reproduced and output.
Therefore, even in the case of the method of storing the earpiece pointer, the user's selection operation is realized in exactly the same way.

6.記憶形態の他の例
ところで、以上のような再生装置の構成やイヤコン方式の各例に応じて、記憶部3の記憶形態は多様に考えられることが理解される。
即ち図2(b)や図15に示した記憶形態の他にも、図19(a)(b)(c)のような記憶形態が考えられる。
6). Other Examples of Storage Modes By the way, it is understood that the storage modes of the storage unit 3 can be considered variously according to the above-described configuration of the playback apparatus and each example of the earphone system.
That is, in addition to the storage forms shown in FIG. 2B and FIG. 15, storage forms such as FIGS. 19A, 19B, and 19C are conceivable.

図19(a)は記憶部3に楽曲データのみを記憶することとし、イヤコンデータ又はイヤコンポインタを記憶しない例である。これは、イヤコンデータをイヤコンの再生の際(つまり曲選択の際)に生成する処理方式を採用した場合の記憶形態となる。
なお、図12のようにディスクドライブに装填されたディスクの楽曲データを再生対象とするとともに、イヤコンデータについてはイヤコンの再生の際に生成するものとした場合などは、記憶部3を不要とすることも可能である。
FIG. 19A shows an example in which only music data is stored in the storage unit 3 and no earphone data or earphone pointer is stored. This is a storage form in the case where a processing method for generating earphone data when reproducing earphones (that is, when selecting music) is adopted.
Note that the storage unit 3 is not required when the music data of the disc loaded in the disc drive as shown in FIG. 12 is to be played and the earphone data is generated when the earphone is played. It is also possible to do.

図19(b)は、記憶部3にイヤコンデータのみを記憶する形態である。これは図12のようにディスクドライブに装填されたディスクの楽曲データを再生対象とするとともに、ディスク装填に応じて、ディスクに収録された各楽曲データに対応するイヤコンデータを生成して記憶部3に格納していく場合の記憶形態となる。   FIG. 19B shows a form in which only earphone data is stored in the storage unit 3. As shown in FIG. 12, the music data on the disc loaded in the disc drive is to be reproduced, and the earphone data corresponding to each piece of music data recorded on the disc is generated and stored in accordance with the loading of the disc. 3 is stored in the storage format.

図19(c)は、記憶部3にイヤコンポインタのみを記憶する形態である。これは図12のようにディスクドライブに装填されたディスクの楽曲データを再生対象とするとともに、ディスク装填に応じてイヤコンポインタを生成して記憶部3に格納し、イヤコン再生時にイヤコンポインタに応じてディスク上の楽曲データの一部を抽出してイヤコンデータを得るようにした場合の記憶形態となる。   FIG. 19C shows a form in which only the earpiece pointer is stored in the storage unit 3. As shown in FIG. 12, the music data of the disc loaded in the disc drive is to be reproduced, and an earphone pointer is generated according to the loading of the disc and stored in the storage unit 3. Accordingly, it becomes a storage form when a part of the music data on the disc is extracted to obtain the earphone data.

7.イヤコンの出力定位例
イヤコンの出力は3つのイヤコンデータをそれぞれ左、センター、右という各定位とすることとして説明してきたが、それ以外にも多様に考えられる。図20で他の定位例を述べていく。図20の各図において○が音像位置、Uが音像空間内でのユーザー位置を示している。
7). Example of output localization of earphones The output of earphones has been described as having three earphone data as left, center and right localization, but there are many other possibilities. Another localization example will be described with reference to FIG. In each figure of FIG. 20, ◯ indicates the sound image position, and U indicates the user position in the sound image space.

まず図20(a)は、同じく3つのイヤコンデータを左、センター、右という各定位で同時に出力するものである。ただし、上述してきた例は図3のように音像空間内のユーザーの位置Uに対して左の音像は左前方、右の音像は右前方としていたが、この図20(a)の例は、左の音像はユーザー位置Uに対して左真横となる位置、右の音像はユーザー位置Uに対して右真横となる位置となるようにするものである。
これは、例えばL/R2チャンネルステレオの出力系統に対して、センター定位のイヤコンはL:R=5:5、右定位のイヤコンはL:R=0:10、左定位のイヤコンはL:R=10:0という各音量バランスを与えることで実現する。
このようにすることで、ユーザーにとっては左、センター、右という各音像の定位感をよりはっきり認識できるようになる。
First, FIG. 20 (a) outputs three earphone data at the same time for each of the left, center, and right positions. However, in the example described above, the left sound image is the left front and the right sound image is the right front with respect to the position U of the user in the sound image space as shown in FIG. 3, but the example of FIG. The left sound image is positioned to be directly beside the user position U, and the right sound image is positioned to be beside the user position U.
For example, for an L / R 2-channel stereo output system, L: R = 5: 5 for the center localization earphone, L: R = 0: 10 for the right localization earphone, and L: R for the left localization earphone. This is realized by giving each volume balance of 10: 0.
By doing so, it becomes possible for the user to more clearly recognize the sense of localization of the left, center, and right sound images.

図20(b)は、2つのイヤコンを同時に左(ユーザー位置Uの左前方)と右(ユーザー位置Uの右前方)という各定位で出力する例である。
例えばL/R2チャンネルステレオの出力系統に対して、右定位のイヤコンはL:R=3:7、左定位のイヤコンはL:R=7:3という各音量バランスを与えることで実現する。
FIG. 20B is an example in which two earphones are simultaneously output at each localization of left (front left of the user position U) and right (front right of the user position U).
For example, for an L / R 2-channel stereo output system, the right localization earphone is provided with a volume balance of L: R = 3: 7, and the left localization earphone is provided with a volume balance of L: R = 7: 3.

例えばユーザーによっては3つのイヤコンを同時に聴くことが困難であると感じる人もいるため、その様な事情を考慮する場合は、このように同時出力数を2つとして、各音像がよりはっきり聞き取れるようにすることが考えられる。   For example, some users may find it difficult to listen to three earphones at the same time, so when considering such circumstances, the number of simultaneous outputs is two and each sound image can be heard more clearly. Can be considered.

もちろん、L/R2チャンネルステレオの出力系統に対して、右定位のイヤコンはL:R=0:10、左定位のイヤコンはL:R=10:0という各音量バランスを与えることで2つの音像をユーザーにとって左真横と右真横に聞こえるようにしてもよい。   Of course, for the L / R 2-channel stereo output system, two sound images are provided by giving a right balance to each volume balance of L: R = 0: 10 for the right localization and L: R = 10: 0 for the left localization. May be heard by the user just to the left or right.

図20(c)は、4つのイヤコンを、左、センター、右、後方という各定位で同時出力する例である。
このような出力を行うためには、例えばスピーカシステムとして3チャンネル、もしくは4チャンネルのものが用いられている場合は、単純に各イヤコンデータ信号を振り分けることで実現できる。また左右2チャンネルのスピーカシステムもしくはヘッドホンの場合でも、左右出力音声のタイム差(遅延処理)などによりユーザーの後方から聞こえてくるように感じさせる処理が可能であることは既に知られており、そのような手法を採ってもよい。
FIG. 20 (c) is an example in which four earphones are simultaneously output in the respective positions of left, center, right, and rear.
In order to perform such output, for example, when a 3-channel or 4-channel speaker system is used, it can be realized by simply distributing the earphone data signals. In addition, it is already known that even in the case of a speaker system or headphones with two channels on the left and right, it is possible to process the sound so that it can be heard from the back of the user due to the time difference (delay processing) between the left and right output sounds. Such a method may be adopted.

図20(d)は、5つのイヤコンをユーザーが、左真横、左前方、センター、右前方、右真横にそれぞれ感じるように同時に出力する例である。
このようにより多数のイヤコンを同時に聞けるようにすることで、ユーザーの選択操作の効率化することができる。
FIG. 20D is an example in which five earphones are simultaneously output so that the user feels the left side, the left front, the center, the right front, and the right side.
By making it possible to listen to a large number of earphones at the same time, it is possible to improve the efficiency of the user's selection operation.

以上例示した以外にも、イヤコンの同時出力数や各イヤコン音像の定位関係については各種考えられる。   In addition to the above examples, various types of simultaneous output of earphones and localization relationships of each earphone sound image can be considered.

なお、同時出力するイヤコンの数や定位関係は、ユーザーによって好みが分かれるものとなり、また各ユーザーの音像聞き取り能力の差異により好ましい出力状態が異なるものとなる。
例えば聴感の発達した人であれば、多数の音像の聞き分けも容易であり、従って図20(d)のようになるべく多数のイヤコンを出力することで、選択効率の向上を実現できる。
一方、各定位の音像をあまり聞き分けられない人であれば、逆に図20(d)のような出力では音像選択がしずらいものとなり、その様な人は図20(b)のように同時出力数が少ない方が好ましい。
It should be noted that the number of earphones to be output simultaneously and the localization relationship vary depending on the user, and the preferred output state varies depending on the sound image listening ability of each user.
For example, a person who has developed a sense of hearing can easily distinguish a large number of sound images. Therefore, by outputting as many earphones as possible as shown in FIG. 20D, the selection efficiency can be improved.
On the other hand, if the sound image of each localization is not well discernable, it is difficult to select the sound image with the output as shown in FIG. 20 (d). Such a person is as shown in FIG. 20 (b). A smaller number of simultaneous outputs is preferable.

このようにユーザー毎に最適なイヤコン出力数や定位関係は異なるものとなるため、再生装置としてはユーザーが所望のイヤコン出力数や所望の定位関係を選択できるようにすることが望ましい。
また或る定位状態においても、その定位をユーザーが微調整(例えば左音像を若干右側にずらすなど)できるようにし、ユーザーが自分にとって最適な定位関係を作ることができるようにすると好適である。
As described above, since the optimum number of earphone outputs and the localization relationship are different for each user, it is desirable that the user can select the desired number of earphone outputs and the desired localization relationship as a playback device.
Further, even in a certain localization state, it is preferable that the user can finely adjust the localization (for example, the left sound image is slightly shifted to the right side) so that the user can create an optimal localization relationship for himself.

8.選択中のイヤコンの識別例
以上のような同時出力するイヤコン数及び定位関係だけでなく、同時出力されているイヤコンの中で現在選択中のイヤコン(その時点で決定操作を行うことで選択が確定することになるイヤコン)をユーザーに識別させるための手法も各種考えられる。
例えば上述してきた例では図5でも説明したように、選択中のイヤコンがセンター定位であってかつ音圧レベルが最大となるようにしていた。
つまり特定の定位と音量差によってユーザーに選択中の音像を識別させていた。
8). Identification example of the selected earphone In addition to the number of earphones that are simultaneously output and the positional relationship as described above, the earphone that is currently selected among the earphones that are simultaneously output (the selection is confirmed by performing the decision operation at that time) Various methods are also conceivable for allowing the user to identify the earphones to be performed.
For example, in the example described above, as described with reference to FIG. 5, the selected earphone is centered and the sound pressure level is maximized.
In other words, the sound image being selected is identified by the user based on the specific localization and the volume difference.

このような特定定位と音量差により選択中のイヤコンを識別させる方式としての他の例を図21に示す。
図21(a)は、2つのイヤコンを左右の各定位で同時出力する場合に、例えば選択中のイヤコンを左定位とするとともに、その左定位のイヤコンの音圧レベルを右定位のイヤコンよりも大きいものとする例である。(図中、○の大きさが音圧を示すものとしている。)
これによって破線の○で示すようにユーザーにとっては左音像の方が右音像よりも近い位置ではっきりと聞き取れることになり、選択中のイヤコンを識別できる。
FIG. 21 shows another example of a method for identifying the selected earphone based on the specific localization and the volume difference.
FIG. 21 (a) shows that when two earphones are output simultaneously at the left and right positions, for example, the selected earphone is set to the left position and the sound pressure level of the left position is set to be higher than that of the right position. This is an example of a large one. (In the figure, the size of ○ indicates the sound pressure.)
As a result, as indicated by the broken circle, the user can clearly hear the left sound image at a position closer to the right sound image, and can identify the selected earphone.

また図21(b)は、例えば選択中のイヤコンだけでなく、それ以外のイヤコン間でも音量差を持たせる例である。
この場合、3つのイヤコンを左、センター、右の各定位で同時出力する場合に、例えば選択中のイヤコンを左定位とするとともに、その左定位のイヤコンの音圧レベルを最も大きいものとする。
また、例えば選択中でないセンターのイヤコンや右のイヤコンにも音量差を持たせ、例えば右のイヤコンが最も小さい音量となるようにする。
FIG. 21B shows an example in which a volume difference is provided not only between the selected earphones but also between other earphones.
In this case, when three earphones are simultaneously output in the left, center, and right positions, for example, the selected earphone is set to the left position, and the sound pressure level of the left position is set to the highest.
Further, for example, the center earphone and the right earphone that are not selected are given a volume difference so that the right earphone has the lowest volume.

このようにすると、破線の○で示すようにユーザーにとっては左音像の方が最も近い位置ではっきりと聞き取れることになり、選択中のイヤコンを識別できる。そしてさらに、各イヤコンがユーザーの左側から右後方に向かって並んでいるように認識されることになり、例えばこの時点で選択操作を行うと現在センター定位しているイヤコンが左定位となって選択中となること、及び2回選択操作を行うと現在右に定位しているイヤコンが左定位となって選択中となることなどが認識できる。
つまりユーザーにとっては、選択操作に応じて選択候補となる各イヤコンが右遠方から左近傍に向かって近づいてくるように感じられ、これによって選択中のイヤコンや、自分が実行すべき選択操作、決定操作を捉えやすくすることができる。
In this way, the left sound image can be clearly heard at the closest position for the user as indicated by the broken circle, and the selected earphone can be identified. Furthermore, the earphones are recognized as being lined up from the left side of the user toward the right rear. For example, if the selection operation is performed at this time, the earphone currently centered is selected as the left localization. It can be recognized that when the selection operation is performed twice, the earphone currently localized to the right becomes the left localization and is being selected.
In other words, the user feels that each earphone that is a candidate for selection approaches from the far right to the left near the selection operation, so that the selected earcon, the selection operation to be performed, The operation can be easily captured.

ところで、例えば出力されている各音像を全て同等に聞こえるようにしたい場合、つまり音圧レベルとして各イヤコンに差を与えたくないような場合は、特定の定位にあるイヤコンが選択中であるとするようにしてもよい。
例えばユーザーがセンター定位のイヤコンが選択中であるとわかっていれば、特に音量差を設定しなくても、ユーザーは的確に選択操作、決定操作を行うことができる。もちろん、右定位又は左定位のものが選択中であると決めてもよい。
By the way, for example, when it is desired to hear all output sound images equally, that is, when it is not desired to give a difference to each earphone as the sound pressure level, it is assumed that the earphone at a specific localization is being selected. You may do it.
For example, if the user knows that the center-positioned earphone is being selected, the user can accurately perform the selection operation and the determination operation without setting the volume difference. Of course, the right localization or the left localization may be determined to be selected.

一方、音量差を設定して最もよく聞こえる音像が選択中のイヤコンであるとすることは、特定定位を選択中であるとすることに比べて、より多くのユーザーにとってわかりやすいものとなる。
例えば上記のように特定の定位を選択中であるとする場合は、取扱説明書などでユーザーにそのことを伝えなければならないため、取扱説明書を読んでいなかったり使用方法の説明を受けていないユーザーにとってはわかりにくいものとなる。ところが音量差を設けて、1つのイヤコンを最も際だたせるようにすれば、ユーザーは直感的にそのイヤコンが選択中であることが認識できる。
このように音圧レベルに差を持たせて選択中のイヤコンを提示することは有効であるが、この方式を採用する場合は、必ずしも或る特定の定位を選択中とすることにこだわらなくてもよいことになる。
On the other hand, setting the volume difference and assuming that the sound image that can be heard most is the earphone being selected is easier for many users to understand than when the specific localization is being selected.
For example, if you are selecting a specific location as described above, you must tell the user in the instruction manual, so you have not read the instruction manual or received instructions on how to use it. It will be confusing for users who don't. However, if a volume difference is provided so that one earphone is most prominent, the user can intuitively recognize that the earphone is being selected.
In this way, it is effective to present a selected earphone with a difference in sound pressure level. However, when adopting this method, it is not always necessary to select a specific localization. It will be good.

例えば図22に、3つのイヤコンEM1,EM2、EM3を右、センター、左の各定位で同時出力する例を示している。このとき、この3つのイヤコンについては定位に変化がないまま、選択操作に応じて最大音圧となるイヤコンが変化されていくようにするものである。
即ち、ある時点では図22(a)のように右定位されているイヤコンEM1が最大音量とされて選択中であることが提示される。
ここでユーザーが選択操作を行うと、今度は図22(b)のように、選択候補となる3つのイヤコンEM1,EM2、EM3は変わらないが、センター定位のイヤコンEM2が最大音量とされることになって選択中となる。
さらに選択操作が行われると図22(c)のように、左定位のイヤコンEM3が最大音量とされることになって、選択中のイヤコンがEM3となる。
For example, FIG. 22 shows an example in which three earphones EM1, EM2, and EM3 are simultaneously output in the right, center, and left positions. At this time, with respect to the three earphones, the earphone that has the maximum sound pressure is changed in accordance with the selection operation while the localization is not changed.
That is, at a certain point in time, the earphone EM1 that is positioned right as shown in FIG. 22 (a) is set to the maximum volume, indicating that it is being selected.
Here, when the user performs a selection operation, the three earphones EM1, EM2, and EM3 that are selection candidates do not change as shown in FIG. 22B, but the center-positioned earphone EM2 is set to the maximum volume. It becomes selected.
When the selection operation is further performed, as shown in FIG. 22 (c), the left localization earphone EM3 is set to the maximum volume, and the selected earphone becomes EM3.

このようにした場合、出力される各イヤコンの定位は変動しないうえで、選択中のイヤコンをはっきり認識できる。
ユーザーによっては、イヤコンの定位が移動されない方が選択しやすいという人もいるため、その様な要望のある場合に好適である。
In this case, the position of each output earphone does not fluctuate and the selected earphone can be clearly recognized.
Some users say that it is easier to select the position of the earphone that is not moved, which is suitable for such a request.

以上の各例のように選択中のイヤコンをユーザーが識別できるようにする方式としては、特定の定位のイヤコンを選択中とすること、音量差により選択中のイヤコンを提示すること、特定の定位と音量差の両方により選択中のイヤコンを提示することなど、各種の方式が考えられ、これらの各方式において、例示した以外にも多様な例が考えられる。   As shown in the above examples, the user can identify the earphone being selected, such as selecting the earphone with a specific position, presenting the selected earphone with a volume difference, or specifying a specific position. Various methods such as presenting the currently selected earphone based on both the sound volume difference and the volume difference are conceivable, and various examples other than the illustrated examples can be considered in each of these methods.

また、定位や音量で識別させる以外にも、音質的な変化を与えて識別させるといった方式も可能である。
例えば選択中となるイヤコンの音声データには高域を強調するような信号処理を施し、同時出力する他のイヤコンの音声データには高域をカットするようなフィルタリングを行うようにすると、ユーザにとっては選択中のイヤコンがはっきり聞き取れ、逆に他のイヤコンはくぐもった感じに聞き取れることになるため、選択中のイヤコンを識別できる。
In addition to the identification based on the localization and the volume, a method of identifying by changing the sound quality is also possible.
For example, if the earphone audio data that is being selected is subjected to signal processing that emphasizes the high frequency, and the audio data of other earphones that are simultaneously output is filtered to cut the high frequency, the user can Is clearly audible to the selected earphone, and conversely, the other earphones can be heard with a muffled feeling, so that the selected earphone can be identified.

また、選択中のイヤコンの提示をどのような方式で実行するとよいかは、個々のユーザーによって好みや識別の容易性が分かれることになるため、再生装置としてはユーザーが選択中のイヤコンの識別方式を選択できるようにすることが好ましい。   In addition, since the preference and the ease of identification differ depending on the individual user, the type of identification of the earphone currently selected by the user is selected as the playback device. It is preferable to be able to select.

9.選択操作/出力イヤコンの他の例
例えば3つのイヤコンを同時再生するとした場合、図5で説明したようにユーザーの選択操作に従ってイヤコンがスクロールしていくように選択状態(SL1〜SL10)が切り換えられていくとしたが、この選択状態の切換例も各種考えられる。
9. Other examples of selection operation / output earphone For example, when three earphones are reproduced simultaneously, the selection states (SL1 to SL10) are switched so that the earphone scrolls according to the user's selection operation as described in FIG. However, various examples of switching the selection state are also conceivable.

図23は選択操作を階層的に実現する例であり、この場合、ユーザーの操作としては選択状態をページ切り換えしていく操作と、ページ内で選択中のイヤコンを切り換えていく2段階の操作が行われることになる。従って必要な操作キーは図23(b)のようにページ選択のための操作子、曲選択(選択中のイヤコンの切り換え)のための操作子、及び決定操作のための操作子となる。   FIG. 23 shows an example of realizing the selection operation in a hierarchical manner. In this case, the user operation includes an operation of switching the selection state to the page and a two-step operation of switching the earphone currently selected in the page. Will be done. Therefore, the necessary operation keys are an operator for selecting a page, an operator for selecting a song (switching the selected earphone), and an operator for determining, as shown in FIG.

図5の例と同様に、例えば記憶部3に10曲分の楽曲データ及びイヤコンが格納されていると仮定して図23(a)の方式を説明する。
まず曲選択が開始される最初の時点では、ページ選択状態SL11として示すように、楽曲M1、M2、M3についてのイヤコンEM1,EM2,EM3が同時に出力される。
そしてこのページ選択状態SL11では、最初に選択状態SL111として示すように、楽曲M1についてのイヤコンEM1が選択中となるようする。選択中のイヤコンの識別方式としては例えば図22のように、定位位置ではなく音圧レベルのみでユーザーに認識されるようにする。即ちこの例ではページ選択状態SL11ではイヤコンEM1,EM2,EM3がそれぞれ左、センター、右と定位されるため、左定位であるイヤコンEM1の音圧レベルが最大とされる。
As in the example of FIG. 5, the method of FIG. 23A will be described on the assumption that, for example, 10 pieces of music data and earphones are stored in the storage unit 3.
First, as shown in the page selection state SL11, earphones EM1, EM2, and EM3 for the music pieces M1, M2, and M3 are simultaneously output at the first time point when the music selection is started.
In this page selection state SL11, as shown in the selection state SL111, the earphone EM1 for the music piece M1 is being selected. For example, as shown in FIG. 22, the user can recognize the earphone being selected only by the sound pressure level, not the localization position. That is, in this example, in the page selection state SL11, the earphones EM1, EM2, and EM3 are localized to the left, center, and right, respectively, so that the sound pressure level of the earphone EM1 that is the left localization is maximized.

ここで、ページ選択状態SL11として出力されているイヤコンEM1,EM2,EM3の中でユーザーが所望する曲があった場合は、曲選択操作を行って選択状態SL111、SL112、SL113を切り換える。例えばイヤコンEM2が所望の曲であった場合は、選択状態SL112とした時点、つまりユーザーにとってイヤコンEM2が最大音量で聞こえる状態で決定操作を行えばよい。   Here, if there is a song desired by the user in the earphones EM1, EM2, EM3 output as the page selection state SL11, a song selection operation is performed to switch the selection states SL111, SL112, and SL113. For example, when the earphone EM2 is a desired song, the determination operation may be performed when the selection state SL112 is set, that is, when the earphone EM2 can be heard at the maximum volume for the user.

一方、イヤコンEM1,EM2,EM3の中には所望の曲がない場合は、ユーザーはページ選択操作を行って、ページ選択状態SL11、SL12、SL13、SL14を切り換えていく。そして所望の曲が含まれるページ選択状態において、曲選択操作を行って所望の曲(イヤコン)が選択中となるようにし、その状態で決定操作を行う。   On the other hand, if there is no desired song in the earphones EM1, EM2, EM3, the user performs a page selection operation to switch the page selection states SL11, SL12, SL13, SL14. Then, in the page selection state including the desired music, the music selection operation is performed so that the desired music (earphone) is being selected, and the determination operation is performed in that state.

即ちこのような選択操作方式によれば、ページ選択操作によって所望の曲が含まれるページを探していき、そのページとなったら曲選択操作を行って出力されている3つのイヤコンの中から所望の曲のイヤコンを選択して決定操作すればよい。このため、ぺージ選択を有効に利用することで、多数の曲が再生可能な場合に効率よく所望の曲を選択できることになる。   That is, according to such a selection operation method, a page including a desired song is searched by the page selection operation, and when that page is reached, a desired song is selected from the three earphones output by performing the song selection operation. You just have to select the earphone for the song and make a decision. For this reason, by effectively using the page selection, a desired song can be efficiently selected when a large number of songs can be reproduced.

続いて図24(a)にさらに他の選択操作方式の例を示す。
これは、ユーザーの選択操作に応じて選択中のイヤコンがEM1→EM2→EM3→EM4→・・・というように変化していくものであるが、各イヤコンの定位は固定される例である。
またこれも選択中のイヤコンの識別は例えば最大音量レベルのものとして提示するものとする。
Next, FIG. 24A shows another example of the selection operation method.
This is an example in which the earphone being selected changes in the order of EM1, EM2, EM3, EM4,... According to the user's selection operation, but the localization of each earcon is fixed.
Also, the identification of the currently selected earphone is presented as the maximum volume level, for example.

この場合、曲選択が開始される最初の時点では、選択状態SL21として示すように、楽曲M1、M2、M3についてのイヤコンEM1,EM2,EM3が左、センター、右という各定位で同時に出力される。
そしてこのページ選択状態SL21では、左定位であるイヤコンEM1の音圧レベルが最大とされ、イヤコンEM1が選択中であることがユーザーに提示される。
In this case, as shown in the selection state SL21, the earphones EM1, EM2, and EM3 for the music pieces M1, M2, and M3 are simultaneously output in the respective positions of left, center, and right at the first time when the music selection is started. .
In this page selection state SL21, the sound pressure level of the earphone EM1, which is the left localization, is maximized, and it is presented to the user that the earphone EM1 is being selected.

ここでユーザーが選択操作を行うと、選択状態SL22とされ、この場合イヤコンEM1,EM2,EM3が左、センター、右という各定位で同時に出力されることは変わらないが、センター定位であるイヤコンEM2の音圧レベルが最大とされ、イヤコンEM2が選択中であることがユーザーに提示される。
さらにユーザーが選択操作を行うと、選択状態SL23とされ、右定位であるイヤコンEM3の音圧レベルが最大とされてイヤコンEM3が選択中であることがユーザーに提示される。
Here, when the user performs a selection operation, the selection state SL22 is set. In this case, the earphones EM1, EM2, and EM3 are output simultaneously at the left, center, and right positions, but the ear position EM2 that is the center position is unchanged. And the user is presented that the earphone EM2 is being selected.
When the user further performs a selection operation, the selection state is set to SL23, and the sound pressure level of the earphone EM3 that is in the right localization is maximized to indicate to the user that the earphone EM3 is being selected.

さらにユーザーが選択操作を行うと、選択状態SL24として、今度は楽曲M4、M5、M6についてのイヤコンEM4,EM5,EM6が左、センター、右という各定位で同時に出力される。そして、左定位であるイヤコンEM4の音圧レベルが最大とされてイヤコンEM4が選択中であることがユーザーに提示される。   Further, when the user performs a selection operation, the earphones EM4, EM5, and EM6 for the music pieces M4, M5, and M6 are simultaneously output in the selected positions SL24, left, center, and right. Then, the sound pressure level of the earphone EM4 that is the left localization is maximized, and the user is presented that the earphone EM4 is being selected.

このように選択状態を切り換えていきながら、ユーザーは所望の曲が選択中となるようにし、その時点で決定操作を行うことで、曲が選択決定される。   While switching the selection state in this way, the user selects a desired song by making a desired song being selected and performing a decision operation at that time.

この選択操作方式の場合は、必要な操作子は図24(b)に示すように選択操作子(例えばアップ/ダウンキー)と決定操作子となる。
そして、各イヤコンの定位は固定されることから、所望のイヤコンを探しやすいという利点も生じる。
In the case of this selection operation method, necessary operators are a selection operator (for example, an up / down key) and a decision operator as shown in FIG.
And since the localization of each earphone is fixed, there also arises an advantage that it is easy to find a desired earphone.

これらの例以外にも多様な選択操作方式例が考えられる。
またユーザーの方式設定操作(選択操作モードの設定)によって、好ましい選択操作方式が選択できるようにしてもよい。
Various examples of selection operation methods other than these examples are conceivable.
Further, a preferred selection operation method may be selected by a user's method setting operation (selection operation mode setting).

また、以上の例は基本的には選択操作キーの操作に応じて選択中のイヤコンが切り換えられていくものとしているが、このようなキー操作を不要とする例も考えられる。
例えばヘッドホンを使用する場合に、ヘッドホンに加速度センサや回転センサを内蔵するようにし、ユーザーの頭の向きの変化を検出する。そして例えば右を向いたときには右定位のイヤコンが選択中となるようにする。具体的には、ユーザーが正面を向いているときは図24の選択状態SL22とし、右を向いたら選択状態SL23に切り換える。またその状態からさらに右側に首を振ったら選択状態SL24に移行するなど方式とすることで、選択操作をユーザーの動作により実現できる。この場合、選択操作子を不要とすることもできる。
またさらに、ユーザーがうなずくように首を縦に振ったことを決定操作として処理を行うことも考えられる。
In the above example, the selected earphone is basically switched in accordance with the operation of the selection operation key. However, an example in which such a key operation is unnecessary can be considered.
For example, when a headphone is used, an acceleration sensor or a rotation sensor is built in the headphone to detect a change in the orientation of the user's head. For example, when facing right, the right stereo earphone is selected. Specifically, when the user is facing the front, the selection state SL22 of FIG. 24 is selected, and when the user is facing the right, the selection state SL23 is switched. In addition, when the head is further swung from the state to the right side, the selection operation can be realized by the user's operation by shifting to the selection state SL24. In this case, the selection operator can be dispensed with.
Furthermore, it is conceivable that processing is performed by determining that the user has swung his head vertically as he nodded.

また選択操作、決定操作のための操作子は、図6(b)のようなキー操作子ではなく、図25に示すようなダイヤル27としてもよい。このダイヤル27は、上方回動、下方回動、及び押圧が可能とし、上方回動をアップ方向の選択操作、下方回動をダウン方向の選択操作、押圧を決定操作とする例である。
また上方回動、下方回動はその回動角度に応じてアップもしくはダウン方向のステップ数を変動させることで、選択状態を効率よく切り換えていくことも可能となる。
Further, the operator for selection operation and determination operation may be a dial 27 as shown in FIG. 25 instead of the key operator as shown in FIG. The dial 27 is an example in which an upward rotation, a downward rotation, and a press are possible, an upward rotation is a selection operation in the up direction, a downward rotation is a selection operation in the down direction, and a press is a determination operation.
Further, in the upward rotation and the downward rotation, the selection state can be efficiently switched by changing the number of steps in the up or down direction according to the rotation angle.

ところで、イヤコンの再生出力に関しては、 通常の演奏速度よりも高速で再生させるなどの手法も考えられる。   By the way, with regard to the playback output of earphones, a method of playing back at a speed higher than the normal performance speed can be considered.

10.表示部の他の例
本発明では基本的にイヤコンを聴いて曲選択をおこなうものであるため、表示部10において選択のための表示を行うこと、もしくは表示部を設けることは必ずしも必要ではない。但し、表示部10において選択のガイドとなるような表示を行うことで、ユーザーの選択操作、決定操作をわかりやすいものとすることができる。
このため、図7で説明したように例えば小型液晶パネルなどにおいてイヤコン出力状態を表示することが考えられるが、その表示内容、表示形態は、上述してきた各種選択操作方式、イヤコン同時出力数、定位関係などに応じて設定されるものであることはいうまでもない。
10. Other Examples of Display Unit In the present invention, the music is basically selected by listening to the earphones. Therefore, it is not always necessary to perform display for selection on the display unit 10 or to provide a display unit. However, by displaying on the display unit 10 as a guide for selection, the user's selection operation and determination operation can be easily understood.
For this reason, as described with reference to FIG. 7, for example, it is conceivable to display the earphone output state on a small liquid crystal panel or the like, but the display contents and display form are the above-described various selection operation methods, the number of simultaneous earphone outputs, Needless to say, it is set according to the relationship.

また、液晶パネル等の表示素子を用いずに、例えばLEDなどの発光素子で簡易的なガイド表示を行うこともできる。
例えば図26は、図22のように選択中のイヤコンを最大音圧とするとともに、各イヤコンの定位は変更しない方式を採用する場合に好適な表示例を示している。
In addition, a simple guide display can be performed with a light emitting element such as an LED without using a display element such as a liquid crystal panel.
For example, FIG. 26 shows a display example suitable for a case where the selected earphone is set to the maximum sound pressure as shown in FIG. 22 and the localization of each earphone is not changed.

この場合、ヘッドホンリモコンなどの部位に、図26に示すように左、センター、右に対応する3つのLEDによる表示部15を配する。
そして例えば図22(b)のようにセンター定位のイヤコンが選択中の場合には、図26(a)のようにセンタのLEDを発光(又は点滅)させ、左右のLEDはオフ(又は点灯)させる。
また図22(c)のように左定位のイヤコンが選択中の場合には、図26(b)のように左のLEDを発光(又は点滅)させ、センター及び右のLEDはオフ(又は点灯)させる。
このようにすることで、ユーザーは選択中のイヤコンを目でも確認できる。また、LEDを用いることで、表示部を安価でかつ小さいスペース内に設けることが可能となる。
In this case, the display unit 15 including three LEDs corresponding to the left, center, and right is arranged in a part such as a headphone remote controller as shown in FIG.
Then, for example, when the center-positioned earphone is selected as shown in FIG. 22B, the center LED emits light (or blinks) as shown in FIG. 26A, and the left and right LEDs are off (or lit). Let
Further, when the left stereo earphone is selected as shown in FIG. 22C, the left LED emits light (or blinks) as shown in FIG. 26B, and the center and right LED are turned off (or lit). )
In this way, the user can visually confirm the selected earphone. Further, by using the LED, the display portion can be provided at a low cost and in a small space.

11.他の各種変形例
以上、実施の形態として実現できる各種の例を述べてきたが、本発明はさらに多様な変形例が考えられる。
11. Other Various Modifications Various examples that can be realized as embodiments have been described above, but various modifications can be considered for the present invention.

まず、いままでの説明では、楽曲の選択は再生を目的とするものとしてきた。しかしながら再生以外にも楽曲を選択する必要がある場合に本発明の選択方法を適用できることになる。
例えば図1のような再生装置でいえば、記憶部3に記憶させた楽曲のうちで消去したい曲を選択する場合にも、上記同様のイヤコンによる選択動作を適用できる。もちろん消去だけでなく、ある楽曲データを何らかの編集操作のために指定したい場合なども同様である。
First, in the description so far, selection of music has been aimed at reproduction. However, the selection method of the present invention can be applied when it is necessary to select music other than reproduction.
For example, in the case of a playback apparatus such as that shown in FIG. 1, the same selection operation using an earphone can also be applied when selecting a song to be deleted from among the songs stored in the storage unit 3. Of course, the same applies not only to erasing, but also to specifying certain music data for some editing operation.

さらに、一般にプログラム再生と呼ばれているようにユーザーが曲順を指定してその指定順に再生を行っていくような特殊な再生動作方式が知られているが、その様なプログラム再生させる曲を順次選択していく際に、上記同様のイヤコンによる選択を行うことが可能である。
即ち本発明は、各種の目的のために或る楽曲データ等を指定したい場合の選択方式として広く適用できるものである。
In addition, a special playback operation method is known in which the user designates the order of the songs and plays them in the designated order as is generally called program playback. When selecting sequentially, it is possible to perform selection using the same earphone as described above.
That is, the present invention can be widely applied as a selection method when it is desired to designate certain music data for various purposes.

また、本発明のイヤコン選択方式で選択するデータ(再生出力するプログラム)としては、楽曲データに限られず、また記憶部3や図12のディスクドライブ12にから再生されるデータに限られるものではない。
例えば受信したラジオ放送について局別にイヤコンを生成し、その各イヤコン(つまり放送音声)を異なる定位で同時出力してユーザーが聴きたい放送局を選択できるようにすることが考えられる。
同様に有線放送などのチャンネル選択にも本発明は利用できる。
つまり本発明としての音声出力装置は、上述してきた再生装置のみならず、放送受信装置として実現するような例も考えられる。
Further, the data (program to be reproduced and output) selected by the earphone selection method of the present invention is not limited to music data, and is not limited to data reproduced from the storage unit 3 or the disk drive 12 of FIG. .
For example, it is conceivable that an earphone is generated for each received radio broadcast, and each of the earphones (that is, broadcast audio) is simultaneously output at different positions so that the user can select a broadcast station that the user wants to listen to.
Similarly, the present invention can be used for channel selection such as cable broadcasting.
That is, the audio output device according to the present invention can be realized not only as the above-described playback device but also as a broadcast receiving device.

また、選択動作の際に複数のイヤコンを同時再生することに加えて、他の音声データを合成して出力することも考えられる。
例えば選択操作のためのガイド音声をイヤコンとは異なる定位で出力してユーザーに操作を説明するなども可能である。
In addition to simultaneously reproducing a plurality of earphones during the selection operation, it may be possible to synthesize and output other audio data.
For example, it is possible to output the guide voice for the selection operation at a different position from the earphone and explain the operation to the user.

本発明の実施の形態の再生装置のブロック図である。It is a block diagram of the reproducing | regenerating apparatus of embodiment of this invention. 実施の形態の再生装置での楽曲データ及びイヤコンデータの記憶形態の説明図である。It is explanatory drawing of the memory | storage form of the music data and earphone data in the reproducing | regenerating apparatus of embodiment. 実施の形態の複数のイヤコン出力の際の定位の説明図である。It is explanatory drawing of the localization at the time of the some earphone output of embodiment. 実施の形態の複数のイヤコンの音圧レベルの説明図である。It is explanatory drawing of the sound pressure level of the some earphone of embodiment. 実施の形態の選択状態及び選択決定方式の説明図である。It is explanatory drawing of the selection state of embodiment, and a selection determination system. 実施の形態の再生装置の外観例の説明図である。It is explanatory drawing of the example of an external appearance of the reproducing | regenerating apparatus of embodiment. 実施の形態の再生装置の表示部の表示例の説明図である。It is explanatory drawing of the example of a display of the display part of the reproducing | regenerating apparatus of embodiment. 実施の形態のイヤコン抽出処理のフローチャートである。It is a flowchart of the earphone extraction process of an embodiment. 実施の形態の操作対応処理のフローチャートである。It is a flowchart of the operation corresponding | compatible process of embodiment. 実施の形態の選択出力処理のフローチャートである。It is a flowchart of selection output processing of an embodiment. 実施の形態の再生処理のフローチャートである。It is a flowchart of the reproduction | regeneration processing of embodiment. 本発明の他の実施の形態の再生装置のブロック図である。It is a block diagram of the reproducing | regenerating apparatus of other embodiment of this invention. 本発明のさらに他の実施の形態の再生装置のブロック図である。It is a block diagram of the reproducing | regenerating apparatus of other embodiment of this invention. 実施の形態の楽曲データ及びイヤコンデータの記憶形態の他の例の説明図である。It is explanatory drawing of the other example of the memory | storage form of the music data of an embodiment, and earphone data. 実施の形態の楽曲データ及びイヤコンポインタの記憶形態の例の説明図である。It is explanatory drawing of the example of the memory | storage form of the music data of an embodiment, and an earpiece pointer. 実施の形態の楽曲データ及びイヤコンポインタの記憶形態の例の説明図である。It is explanatory drawing of the example of the memory | storage form of the music data of an embodiment, and an earpiece pointer. 実施の形態のイヤコンポインタ抽出処理のフローチャートである。It is a flowchart of the earpiece pointer extraction process of an embodiment. 実施の形態のイヤコンポインタを用いた選択出力処理のフローチャートである。It is a flowchart of the selection output process using the earpiece pointer of embodiment. 実施の形態の記憶部の各種の記憶形態例の説明図である。It is explanatory drawing of the various memory | storage form examples of the memory | storage part of embodiment. 実施の形態のイヤコン出力に関する各種定位例の説明図である。It is explanatory drawing of the various localization examples regarding the earphone output of embodiment. 実施の形態のイヤコン出力に関する音圧レベル例の説明図である。It is explanatory drawing of the example of the sound pressure level regarding the earphone output of embodiment. 実施の形態のイヤコン出力に関する音圧レベル例の説明図である。It is explanatory drawing of the example of the sound pressure level regarding the earphone output of embodiment. 実施の形態の選択操作方式の他の例の説明図である。It is explanatory drawing of the other example of the selection operation system of embodiment. 実施の形態の選択操作方式の他の例の説明図である。It is explanatory drawing of the other example of the selection operation system of embodiment. 実施の形態の操作部の操作子の例の説明図である。It is explanatory drawing of the example of the operation element of the operation part of embodiment. 実施の形態の表示部の他の例の説明図である。It is explanatory drawing of the other example of the display part of embodiment.

符号の説明Explanation of symbols

1 コントローラ、2 ROM、3 記憶部、4 演算処理部、5 アナログ音声入力部、6 A/D変換器、7 デジタル音声入力部、8 D/A変換器、9 ステレオ音声出力処理部、10,15 表示部、11 操作部、12 ディスクドライブ、13 バッファメモリ   1 controller, 2 ROM, 3 storage unit, 4 arithmetic processing unit, 5 analog audio input unit, 6 A / D converter, 7 digital audio input unit, 8 D / A converter, 9 stereo audio output processing unit, 10, 15 display unit, 11 operation unit, 12 disk drive, 13 buffer memory

Claims (8)

楽曲データの特徴的な部分を選択用音声データとして取得する選択用音声データ取得方法において、  In a selection audio data acquisition method for acquiring a characteristic portion of music data as selection audio data,
上記楽曲データから特徴的な部分を抽出する解析を開始し、  Start analysis to extract characteristic parts from the music data,
解析結果として上記楽曲データの特徴的な部分が抽出されたか否かを判断し、  It is determined whether or not a characteristic part of the music data is extracted as an analysis result,
上記楽曲データの特徴的な部分が抽出された際に、特徴的な部分に関するポインタとして抽出部分のスタートアドレスを検出し、  When the characteristic part of the music data is extracted, the start address of the extracted part is detected as a pointer related to the characteristic part,
検出された上記ポインタを上記楽曲データと対応させて記憶部に記憶し、  The detected pointer is stored in the storage unit in association with the music data,
選択用音声データの再生時に、上記ポインタで示される部分を上記記憶部から読み出すことで選択用音声データを取得する  When reproducing the selection audio data, the selection audio data is obtained by reading the portion indicated by the pointer from the storage unit.
ことを特徴とする選択用音声データ取得方法。  An audio data acquisition method for selection, comprising:
上記ポインタは、ディスク装填に応じて検出され、上記記憶部に格納させる  The pointer is detected in response to loading of a disc and stored in the storage unit.
ことを特徴とする請求項1記載の選択用音声データ取得方法。  The method for obtaining audio data for selection according to claim 1.
上記楽曲データの特徴的な部分は、曲のサビ、もしくは、主たるメロディの部分である  The characteristic part of the music data is the chorus of the music or the main melody part
ことを特徴とする請求項1記載の選択用音声データ取得方法。  The method for obtaining audio data for selection according to claim 1.
上記選択用音声データの再生は一定時間とされる  The selection audio data is played back for a certain period of time.
ことを特徴とする請求項3記載の選択用音声データ取得方法。  The method for obtaining audio data for selection according to claim 3.
楽曲データの特徴的な部分を選択用音声データとして取得する選択用音声データ取得装置において、  In a selection audio data acquisition device that acquires characteristic portions of music data as selection audio data,
上記楽曲データから特徴的な部分を抽出する解析を開始し、解析結果として上記楽曲データの特徴的な部分が抽出された際に、特徴的な部分に関するポインタとして抽出部分のスタートアドレスを検出する制御部と、  Control to start extraction of a characteristic part from the music data, and when the characteristic part of the music data is extracted as an analysis result, control to detect the start address of the extraction part as a pointer for the characteristic part And
上記制御部によって検出された上記ポインタを上記楽曲データと対応させて記憶する記憶部と、  A storage unit for storing the pointer detected by the control unit in association with the music data;
選択用音声データの再生時に、上記ポインタで示される部分を上記記憶部から読み出すことで選択用音声データを取得する読出し部と、  A reading unit that acquires the selection audio data by reading out the portion indicated by the pointer from the storage unit when reproducing the selection audio data;
を備えることを特徴とする選択用音声データ取得装置。  A voice data acquisition apparatus for selection, comprising:
上記制御部は、ディスクドライブへのディスク装填に応じて上記ポインタを検出し、上記記憶部に格納させる  The control unit detects the pointer in response to loading of a disk into the disk drive, and stores it in the storage unit
ことを特徴とする請求項5記載の選択用音声データ取得装置。  6. The selection voice data acquisition apparatus according to claim 5, wherein:
上記楽曲データの特徴的な部分は、曲のサビ、もしくは、主たるメロディの部分である  The characteristic part of the music data is the chorus of the music or the main melody part
ことを特徴とする請求項5記載の選択用音声データ取得装置。6. The selection voice data acquisition apparatus according to claim 5, wherein:
上記読出し部によって取得された上記選択用音声データに基づく音声出力は一定時間とされる  The audio output based on the selection audio data acquired by the reading unit is a fixed time.
ことを特徴とする請求項7記載の選択用音声データ取得装置。  The selection voice data acquisition apparatus according to claim 7.
JP2008005785A 2008-01-15 2008-01-15 Audio data acquisition method for selection and audio data acquisition device for selection Expired - Fee Related JP4591512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008005785A JP4591512B2 (en) 2008-01-15 2008-01-15 Audio data acquisition method for selection and audio data acquisition device for selection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008005785A JP4591512B2 (en) 2008-01-15 2008-01-15 Audio data acquisition method for selection and audio data acquisition device for selection

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP36079298A Division JP4672823B2 (en) 1998-12-18 1998-12-18 Audio data selection method, audio output device

Publications (2)

Publication Number Publication Date
JP2008159252A true JP2008159252A (en) 2008-07-10
JP4591512B2 JP4591512B2 (en) 2010-12-01

Family

ID=39659952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008005785A Expired - Fee Related JP4591512B2 (en) 2008-01-15 2008-01-15 Audio data acquisition method for selection and audio data acquisition device for selection

Country Status (1)

Country Link
JP (1) JP4591512B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102456342A (en) * 2010-10-18 2012-05-16 索尼公司 Audio processing apparatus and method, and program
JPWO2020255213A1 (en) * 2019-06-17 2020-12-24

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0432084A (en) * 1990-05-28 1992-02-04 Pioneer Electron Corp Disk player provided with introduction search function
JPH04362586A (en) * 1991-06-10 1992-12-15 Fujitsu Ten Ltd Optical disk and optical disk reproducing device
JPH05128731A (en) * 1991-11-08 1993-05-25 Alpine Electron Inc Reproducing method for digital audio system
JPH06251568A (en) * 1993-03-01 1994-09-09 Matsushita Electric Ind Co Ltd Disk reproducing device
JPH07253794A (en) * 1994-03-15 1995-10-03 Nippon Telegr & Teleph Corp <Ntt> Sound representing device
JPH08147942A (en) * 1994-11-16 1996-06-07 Sony Corp Recording medium and reproducing device
JPH09171660A (en) * 1995-12-20 1997-06-30 Sony Corp Recording device and reproducing device
JPH10124292A (en) * 1996-10-24 1998-05-15 Mitsubishi Electric Corp Speech man-machine interface device
JPH10256858A (en) * 1997-03-10 1998-09-25 Fujitsu Ltd Sound selection device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0432084A (en) * 1990-05-28 1992-02-04 Pioneer Electron Corp Disk player provided with introduction search function
JPH04362586A (en) * 1991-06-10 1992-12-15 Fujitsu Ten Ltd Optical disk and optical disk reproducing device
JPH05128731A (en) * 1991-11-08 1993-05-25 Alpine Electron Inc Reproducing method for digital audio system
JPH06251568A (en) * 1993-03-01 1994-09-09 Matsushita Electric Ind Co Ltd Disk reproducing device
JPH07253794A (en) * 1994-03-15 1995-10-03 Nippon Telegr & Teleph Corp <Ntt> Sound representing device
JPH08147942A (en) * 1994-11-16 1996-06-07 Sony Corp Recording medium and reproducing device
JPH09171660A (en) * 1995-12-20 1997-06-30 Sony Corp Recording device and reproducing device
JPH10124292A (en) * 1996-10-24 1998-05-15 Mitsubishi Electric Corp Speech man-machine interface device
JPH10256858A (en) * 1997-03-10 1998-09-25 Fujitsu Ltd Sound selection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102456342A (en) * 2010-10-18 2012-05-16 索尼公司 Audio processing apparatus and method, and program
JP2012108451A (en) * 2010-10-18 2012-06-07 Sony Corp Audio processor, method and program
JPWO2020255213A1 (en) * 2019-06-17 2020-12-24
WO2020255213A1 (en) * 2019-06-17 2020-12-24 AlphaTheta株式会社 Musical composition structural analysis device and musical composition structural analysis program
JP7175395B2 (en) 2019-06-17 2022-11-18 AlphaTheta株式会社 Music structure analysis device and music structure analysis program

Also Published As

Publication number Publication date
JP4591512B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
US9972297B2 (en) Sound processing device, sound data selecting method and sound data selecting program
US9047920B2 (en) Multitrack recorder and mixdown method
JP4672823B2 (en) Audio data selection method, audio output device
JP4591512B2 (en) Audio data acquisition method for selection and audio data acquisition device for selection
JP2007213040A (en) Apparatus for playing back audio file and method of navigating through audio file using same
JP2010225235A (en) On-vehicle sound reproducing apparatus and sound reproducing method
JP6920489B1 (en) Karaoke equipment
JP5375869B2 (en) Music playback device, music playback method and program
JP4425285B2 (en) Information management device
WO2005091296A1 (en) Audio information output device, audio information output method, and audio information output program
KR20060081510A (en) A character display method of mobile digital device
US20080281450A1 (en) Apparatus and method for reproducing sound
JP5151521B2 (en) Information identification device, information identification method, and program
KR100561315B1 (en) Apparatus and method for automatic setting optimum compass each genre in karaoke device
JP2005056491A (en) Audio device
JP3014848U (en) Video tape recorder with karaoke function
JP2006190471A (en) Acoustic reproducing device and acoustic reproducing method
KR20070103328A (en) Microphone type music accompaniment apparatus having function for playing music video
JP2011065721A (en) Audio device and intro-scan method
US20050254369A1 (en) Disc reproducing apparatus
JPH10149165A (en) Waveform recording and reproducing device
JP2007109271A (en) Music reproducing device
JP2006173765A (en) Audio apparatus
JP2007294040A (en) Audio signal reproduction system and audio signal reproduction setting method
JP2008292931A (en) Display device with karaoke music function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees