JPH08227297A - Mapping method for sound data and display device - Google Patents

Mapping method for sound data and display device

Info

Publication number
JPH08227297A
JPH08227297A JP14894195A JP14894195A JPH08227297A JP H08227297 A JPH08227297 A JP H08227297A JP 14894195 A JP14894195 A JP 14894195A JP 14894195 A JP14894195 A JP 14894195A JP H08227297 A JPH08227297 A JP H08227297A
Authority
JP
Japan
Prior art keywords
sound data
image
sound
data
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP14894195A
Other languages
Japanese (ja)
Inventor
Yuichi Shinohara
裕一 篠原
Akira Morioka
亮 森岡
Tadahide Nishio
宰秀 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP14894195A priority Critical patent/JPH08227297A/en
Publication of JPH08227297A publication Critical patent/JPH08227297A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE: To provide a mapping method for the sound data and a display device in which the sound data are become easy to use for a user of the sound data. CONSTITUTION: This method is constituted of a step extracting an image word capable of showing an image provided in a sound, a step allocating the image word to image axes having the directions showing the strength of the image, a step deciding the values of the sound data in respective axes and a step mapping the sound data to an image space having one or plural image axes.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、サウンド・データを取
り扱う技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for handling sound data.

【0002】[0002]

【従来の技術】データの分類、検索、評価を行うにあた
り、通常はデータにキーを持たせる。例えば、売上デー
タであれば商品コードをキーとして持たせ、金融データ
であれば口座番号をキーとして持たせ、検索や分析を行
う。サウンド・データにおいても、ある種のキーを付与
して検索を行う。
2. Description of the Related Art When data is classified, searched and evaluated, a key is usually added to the data. For example, in the case of sales data, a product code is used as a key, and in the case of financial data, an account number is used as a key, and retrieval and analysis are performed. Even in sound data, a search is performed by adding a certain type of key.

【0003】例えば、サウンド・データには「Musi
c01」や「木陰」といった名前が付くので、この名前
をキーとした検索が行える。名前のみの検索で、所望の
サウンド・データが得られる場合もあるが、現実的には
最適なサウンド・データを得るために全てのサウンド・
データを試聴することになる。また、音楽のデータであ
れば「ジャズ」、「ロックンロール」、「ポップス」、
「効果音」といったジャンル等に基づいた分類が可能で
ある。この場合も、最適なサウンド・データを得るに
は、該当するジャンルに属する全てのサウンド・データ
を試聴する必要がある。それから、サウンド・データは
演奏時間等の物理的な量に基づいて分類することも可能
である。しかし、この分類方法を採った場合も、使用の
場に適したサウンド・データを得るために、数多くのサ
ウンド・データを試聴することになる。
[0003] For example, the sound data includes "Musi".
Since names such as "c01" and "tree shade" are added, a search can be performed using this name as a key. Sometimes you can get the desired sound data by searching only the name, but in reality, all sound
You will listen to the data. In addition, if it is music data, "jazz", "rock and roll", "pops",
Classification based on genres such as "sound effects" is possible. Also in this case, in order to obtain the optimum sound data, it is necessary to audition all the sound data belonging to the relevant genre. Then, the sound data can be classified based on a physical quantity such as playing time. However, even if this classification method is adopted, a large amount of sound data will be listened to in order to obtain the sound data suitable for the place of use.

【0004】また、サウンド・データは、物や場面との
関連で分類されることもある。サウンド・データを物と
の関連によって分類すると、「波の音」、「鳥の声」、
「自動車の音」といったカテゴリーを考えることができ
る。また、場面との関連では、「街のざわめき」、「家
族だんらんの風景に合う」、「夕闇が迫る山々の風景に
合う」といったカテゴリーに分類できる。
Sound data may also be classified in relation to objects and scenes. If you classify the sound data according to the relationship with the object, you will find "sound of waves", "voice of birds",
You can think of categories such as "car sounds". In addition, in relation to the scene, it can be classified into categories such as "the noise of the city", "fits the scenery of the family", "fits the scenery of the mountains when dusk approaches".

【0005】[0005]

【発明が解決しようとする課題】サウンド・データは、
ドラマや映画のBGM、ゲームソフトの効果音、各種イ
ベントでのプレゼンテーションの場などに幅広く利用さ
れる。従って、適切なサウンド・データを適宜利用でき
る様にサウンド・データの分類が為されている必要があ
る。
The sound data is
It is widely used for BGM in dramas and movies, sound effects for game software, and for presentations at various events. Therefore, it is necessary to classify the sound data so that appropriate sound data can be appropriately used.

【0006】ところが従来の分類法では、分類者が決め
たキーのみによってでなければサウンド・データの検索
が行えず、分類者の基準をサウンド・データの利用者に
押し付ける形になっていた。そのため、サウンド・デー
タの利用者は一件のデータも検索できない場合もあり利
便性に欠けるという問題があった。本発明の第一の目的
は、サウンド・データの利用者にとって使い易いよう
に、サウンド・データを分類する方法を提供することで
ある。
However, in the conventional classification method, the sound data can be searched only by the key determined by the classifier, and the classifier's standard is imposed on the user of the sound data. Therefore, there is a problem in that the user of sound data may not be able to search even one piece of data and thus lack convenience. A first object of the present invention is to provide a method for classifying sound data so that it is easy for a user of the sound data to use.

【0007】また、「家族だんらんの風景に合う静かな
曲」と「夕闇が迫る山々の風景に合う静かな曲」とは類
似する曲であり同一カテゴリーに分類すべきであるの
に、従来は異なるカテゴリーに分類されてしまう場合が
少なくなかった。本発明の第二の目的は、サウンド・デ
ータに適した分類基準を提供することである。
[0007] Further, "a quiet song that fits the landscape of a family and a quiet song that fits the landscape of mountains near dusk" are similar songs and should be classified into the same category, but in the past, In many cases, they were classified into different categories. A second object of the present invention is to provide a classification criterion suitable for sound data.

【0008】さらに、従来の物や場面との関連による分
類方法では、具体的な物や場面を特定する必要があるた
め、いずれのカテゴリーにも属さない新たなサウンド・
データが出現するたびに、新しいカテゴリーを作成しな
ければならないという繁雑さがあった。本発明の第三の
目的は、一定の枠組の中に全てのサウンド・データをマ
ッピングする方法を提供することである。
Further, in the conventional classification method based on the relation with an object or a scene, it is necessary to specify a specific object or scene, so that a new sound that does not belong to any category is added.
There was the complexity of having to create a new category each time the data emerged. A third object of the invention is to provide a method of mapping all sound data within a fixed framework.

【0009】また、サウンド・データの検索結果を用い
て、目的とするサウンドを選択する場合、従来では分類
されたカテゴリー中のサウンドを全て聴く必要があるの
で、サウンド・データの数が多かったり、サウンドの出
力時間が長い場合などには特に不都合であった。本発明
の第四の目的は、同一カテゴリー中のサウンド・データ
にも、異なる評価基準を与える方法を提供することであ
る。
Further, when selecting a desired sound using the sound data search result, it is necessary to listen to all the sounds in the conventionally classified categories, so that the number of sound data is large, This was especially inconvenient when the sound output time was long. A fourth object of the present invention is to provide a method of giving different evaluation criteria to sound data in the same category.

【0010】ところで、ユーザはサウンド・データを検
索するときに、「もう少しアップテンポの曲」とか「も
う少しダイナミックな曲」といった要求をする場合があ
る。しかし、従来は、目的とするサウンド・データに近
似するものが見つかっても、そのサウンド・データを基
準とした二次的な検索ができない。本発明の第五の目的
は、あるサウンド・データと比較して「もう少しアップ
テンポの曲」とか「もう少しダイナミックな曲」を表現
できるサウンド・データの表示装置を提供することであ
る。
By the way, the user may request "a song with a little more uptempo" or "a song with a little more dynamic" when searching for sound data. However, conventionally, even if a sound data close to the target sound data is found, a secondary search based on the sound data cannot be performed. A fifth object of the present invention is to provide a sound data display device capable of expressing a "slightly more uptempo song" or a "slightly more dynamic song" as compared with certain sound data.

【0011】また、マルチメディア・コンピュータの普
及により、プレゼンテーションやタイトル開発に不慣れ
なユーザが増加している。そのようなユーザに対して
は、音素材使用のためのガイドラインが提供されるが、
ガイドラインを読むだけでは実際のサウンドを知ること
ができない。本発明の第六の目的は、とりわけガイドラ
インを参考にしてサウンド・データを検索する初心者の
ユーザに対して、サウンドの理解を容易とするインタフ
ェースを持ったサウンド・データの表示装置を提供する
ことである。
Further, the spread of multimedia computers has increased the number of users who are unfamiliar with presentations and title development. For such users, guidelines for using sound materials are provided,
You cannot know the actual sound just by reading the guidelines. A sixth object of the present invention is to provide a sound data display device having an interface for facilitating sound understanding, especially for a beginner user who searches for sound data by referring to guidelines. is there.

【0012】[0012]

【課題を解決するための手段】本発明によれば、上述の
目的は、前記特許請求の範囲に記載した手段にて達成さ
れる。
According to the invention, the above-mentioned object is achieved by the means described in the claims.

【0013】すなわち、請求項1の発明は、サウンドが
持つイメージを表すことができるイメージ語を抽出する
ステップと、イメージ語をイメージの強弱を表す方向を
持ったイメージ軸に割り付けるステップと、そのサウン
ドが持つイメージに基づいて、各イメージ軸におけるサ
ウンド・データの値を決定するステップと、ひとつ又は
複数のイメージ軸を有するイメージ空間へサウンド・デ
ータをマッピングするステップとを有するサウンド・デ
ータのマッピング方法である。
That is, the invention of claim 1 comprises the steps of extracting an image word that can represent an image of a sound, allocating the image word to an image axis having a direction representing the strength of the image, and the sound thereof. A sound data mapping method comprising the steps of determining the value of the sound data on each image axis based on the image of the, and mapping the sound data to an image space having one or more image axes. is there.

【0014】また、請求項2の発明は、前記抽出するス
テップが、イメージ語として色を抽出するサウンド・デ
ータのマッピング方法であり、請求項3の発明は、前記
割り付けるステップが、予めイメージ語を分類し、サウ
ンドのイメージに関して同類のイメージ語に対してひと
つのイメージ軸を割り付けるサウンド・データのマッピ
ング方法であり、請求項4の発明は、前記決定するステ
ップが、聴者試験結果を用いてサウンド・データの値を
決定するサウンド・データのマッピング方法である。
In the invention of claim 2, the extracting step is a sound data mapping method for extracting color as an image word, and in the invention of claim 3, the allocating step preliminarily defines the image word. A sound data mapping method for classifying and assigning one image axis to a similar image word with respect to a sound image, wherein the determining step uses the listener test result for the sound data. This is a sound data mapping method that determines the value of data.

【0015】また、請求項5の発明は、前記方法によっ
てイメージ空間へマッピングされたサウンド・データを
表示する装置であって、所望のイメージ語を選択させる
手段と、そのイメージ語に対応するイメージ軸を座標軸
として、サウンド・データを表示する手段とを具備する
サウンド・データの表示装置である。
According to a fifth aspect of the present invention, there is provided a device for displaying the sound data mapped in the image space by the method, wherein the means for selecting a desired image word and the image axis corresponding to the image word. And a means for displaying sound data with the coordinate axis as the coordinate axis.

【0016】また、請求項6の発明は、イメージ軸にお
ける値を持ったサウンド・データを格納する手段と、そ
れぞれのサウンド・データを一つ又は複数のイメージ軸
によって形成されるイメージ空間上に配置し、シンボル
にて表示する手段と、シンボルの指定を受けて、そのサ
ウンド・データを試聴させる手段とを具備するサウンド
・データの表示装置である。
According to a sixth aspect of the present invention, means for storing sound data having a value on the image axis and each sound data are arranged in an image space formed by one or more image axes. However, the sound data display device has means for displaying the sound data and means for receiving the designation of the symbol and listening to the sound data.

【0017】また、請求項7の発明は、サウンド・デー
タの検索キーについて、イメージ軸の区域或いはイメー
ジ空間の領域を割り当てると共に、検索キーの指定を受
けて、その区域或いは領域に含まれるサウンド・データ
のシンボルを標識する手段を設けるサウンド・データの
表示装置である。
Further, the invention of claim 7 assigns an area of the image axis or an area of the image space to the search key of the sound data, and receives the designation of the search key, and the sound included in the area or the area. It is a sound data display device provided with means for marking data symbols.

【0018】また、請求項8の発明は、音素材使用の説
明文を提示する手段と、説明文中に現われる所定の用語
の指定を受けて、その用語に関連するサウンド・データ
を抽出する手段と、抽出したサウンド・データをイメー
ジ空間上に表示するための手段とを有するサウンド・デ
ータの表示装置である。
Further, the invention of claim 8 includes means for presenting an explanation of the use of a sound material, and means for receiving a designation of a predetermined term appearing in the explanation and extracting sound data related to the term. , A means for displaying the extracted sound data in an image space, and a sound data display device.

【0019】また、請求項9の発明は、サウンド・デー
タの検索キーについて、所定の組み合わせに対応するサ
ウンドの説明文を表示する手段と、その組み合わせの指
定を受けて、該当するサウンド・データを検索する手段
とを具備するサウンド・データの表示装置である。
According to a ninth aspect of the present invention, with respect to a sound data search key, a means for displaying a sound explanation corresponding to a predetermined combination and a designation of the combination are received, and the corresponding sound data is retrieved. It is a display device for sound data, which is provided with a means for searching.

【0020】[0020]

【作用】請求項1の発明では、イメージ語を軸とするイ
メージ空間上にサウンド・データをマッピングして、サ
ウンドとイメージとを結び付けてサウンド・データのマ
ッピングが為される。
According to the first aspect of the present invention, the sound data is mapped on the image space having the image word as the axis, and the sound and the image are linked to perform the mapping of the sound data.

【0021】請求項2の発明では、イメージ空間を媒体
として、サウンドを容易に表現し、また誰にでも馴染み
易い色をサウンドに関連付けてサウンド・データのマッ
ピングが為される。
According to the second aspect of the present invention, the sound data is easily mapped using the image space as a medium, and the sound data is mapped by associating a color that is familiar to anyone with the sound.

【0022】請求項3の発明では、サウンド・データの
性質を的確に表現できるイメージ軸が定まるように、予
めサウンドのイメージに関して同類のイメージ語を同一
分類カテゴリーとして、サウンド・データのマッピング
が為される。
According to the third aspect of the present invention, the sound data is mapped in advance so that the image words of the same kind are set as the same classification category with respect to the image of the sound so that the image axis capable of accurately expressing the property of the sound data is determined. It

【0023】請求項4の発明では、分類者の基準をサウ
ンド・データの利用者に押し付けることなく聴者試験結
果を用いるので、サウンド・データ利用者の立場に非常
に近い形式でサウンド・データのマッピングが為され
る。
According to the invention of claim 4, since the listener test result is used without imposing the classifier's criterion on the user of the sound data, the sound data is mapped in a format very close to that of the sound data user. Is done.

【0024】請求項5の発明では、サウンド・データの
利用者が選択するイメージ軸に沿って、イメージ空間上
にマップされたサウンド・データが表示される。
According to the fifth aspect of the invention, the sound data mapped in the image space is displayed along the image axis selected by the user of the sound data.

【0025】請求項6の発明では、サウンド・データに
対して、イメージ軸における位置を示す尺度値が付与さ
れる。サウンド・データは、この尺度値に従ってイメー
ジ空間上に配置される。サウンド・データの表示はシン
ボルにて行われるが、ポインティング・デバイスなどの
使用により、いずれかのシンボルが指定されると、その
シンボルに対応するサウンド・データが音として出力さ
れる。
According to the sixth aspect of the invention, a scale value indicating the position on the image axis is given to the sound data. The sound data is arranged in the image space according to this scale value. Although the sound data is displayed by symbols, when any symbol is designated by using a pointing device or the like, the sound data corresponding to the symbol is output as a sound.

【0026】請求項7の発明では、検索キーによる検索
が、イメージ空間においてその検索キーが持つ区域又は
領域に基づいて行われる。検索の際には、検索対象のサ
ウンド・データが持つ尺度値を参照することによって、
その尺度値が検索キーの区域又は領域に含まれるか否か
を判定してもよいし、検索キーの区域又は領域をそのま
まイメージ空間にシンボルと共に重ね合わせることによ
って、サウンド・データのシンボルが検索キーの区域又
は領域に含まれるか否かを判定してもよい。ここで、検
索キーの領域は楕円形や四辺形などの幾何学的な図形に
限られるものではなく、雲形の場合等も考えられる。ま
た、複数の検索キーについて、アンドやオア条件が採ら
れることもある。検索でヒットしたサウンド・データ
は、色分けや点滅等の手段によって標識される。
According to the seventh aspect of the present invention, the search by the search key is performed based on the area or region of the search key in the image space. At the time of search, by referring to the scale value of the sound data of the search target,
It may be determined whether or not the scale value is included in the search key area or region, or the sound data symbol is superposed on the search key area or region as it is in the image space. It may be determined whether or not it is included in the area or the area. Here, the area of the search key is not limited to a geometrical figure such as an ellipse or a quadrangle, and a cloud shape or the like may be considered. Also, AND or OR conditions may be adopted for a plurality of search keys. The sound data hit by the search is marked by means such as color coding or blinking.

【0027】請求項8の発明では、特定のサウンド・デ
ータが音素材使用の説明文から抽出される。所定のイン
タフェースによって、このサウンド・データをイメージ
空間上に表現すれば、個々のサウンド・データのイメー
ジ空間への配置態様が視覚的に理解されるので、イメー
ジ空間を二次的な検索に応用、活用できる。
According to the eighth aspect of the invention, the specific sound data is extracted from the description of the use of the sound material. If this sound data is expressed in the image space by a predetermined interface, the arrangement manner of the individual sound data in the image space can be visually understood, so that the image space is applied to the secondary search. Can be utilized.

【0028】請求項9の発明では、検索キーを組み合わ
せた検索によって、どのようなサウンド・データが抽出
されるのかについて、ユーザに対して文章による注意書
きその他の説明が為される。最適と思われる検索キーの
組み合わせを指定すれば、該当するサウンド・データを
検索できる。さらに、ヒットしたサウンド・データをイ
メージ空間にマップすることも可能である。
In the ninth aspect of the present invention, the user is provided with a textual note and other explanations as to what sound data is extracted by the search in combination with the search keys. You can search for the corresponding sound data by specifying the combination of search keys that seems to be the most suitable. Furthermore, it is possible to map hit sound data to the image space.

【0029】[0029]

【実施例】図1は本発明の一実施例を示す図である。図
1に示すサウンド・データのマッピング方法において
は、まず、サウンドをイメージとして捕らえるために、
イメージ語を抽出する(S10)。具体的に「赤い」
「明るい」「楽しい」「暗い」をイメージ語として例示
する。
FIG. 1 is a diagram showing an embodiment of the present invention. In the sound data mapping method shown in FIG. 1, first, in order to capture a sound as an image,
An image word is extracted (S10). Specifically "red"
“Bright”, “happy” and “dark” are illustrated as image words.

【0030】次に、各イメージ語とイメージ空間上の軸
とを対応付ける(S11)。ここで、サウンドのイメー
ジに関して同類のイメージ語に対してはひとつの軸を割
り付ける。例えば、「明るい」と「楽しい」とは同類と
みなせるので、同じイメージ軸Yを割り付ける。また、
「明るい」と「暗い」とは一般概念上は同類とみなせる
が、サウンドのイメージに関しては全く別概念であるの
で、個別にイメージ軸を割り付ける。
Next, each image word is associated with an axis in the image space (S11). Here, for the image of sound, one axis is assigned to the similar image word. For example, since “bright” and “fun” can be regarded as the same type, the same image axis Y is assigned. Also,
“Bright” and “dark” can be regarded as being similar in general concept, but since they are completely different concepts in terms of sound image, the image axes are individually assigned.

【0031】続いて、聴者試験を行い、各イメージ軸
X、Y、Zにおけるサウンド・データの値を決定する
(S12)。例えば100人の試験者を集めてサウンド
・データを聴かせた後に、そのサウンド・データが「赤
い」と感じた試験者の数をイメージ軸Xにおける値と決
定することができる。ここで、サウンド・データは音楽
のデータ、すなわち旋律のデータに限られるものではな
く、笛の音色や弦の音色などの音色のデータも当然含ま
れる。
Then, a listener test is conducted to determine the value of the sound data on each image axis X, Y, Z (S12). For example, after collecting 100 testers and listening to the sound data, the number of testers who felt that the sound data was “red” can be determined as the value on the image axis X. Here, the sound data is not limited to music data, that is, melody data, and naturally includes tone color data such as the tone color of a whistle and the tone color of a string.

【0032】各イメージ軸X、Y、Zにおける値が決定
したら、サウンド・データをイメージ空間上にマップす
る(S13)。例えば、「赤い」のイメージ軸Xの値が
‘60’であり、「明るい」のイメージ軸Yの値が‘1
0’であり、「暗い」のイメージ軸Zの値が‘12’で
あれば、xyz空間座標上の点(60,10,12)に
サウンド・データをマップすることができる。
When the values on the respective image axes X, Y and Z are determined, the sound data is mapped on the image space (S13). For example, the value of the image axis X of “red” is “60”, and the value of the image axis Y of “bright” is “1”.
If it is 0'and the value of the "dark" image axis Z is '12', the sound data can be mapped to the point (60, 10, 12) on the xyz space coordinates.

【0033】表1に、分類したイメージ語を例示する。
ここでは、数多く存在するイメージ語の中からサウンド
・データの表現に適した代表的な19のイメージ語を五
つのカテゴリに分類し、それぞれを第1〜5軸に対応付
けている。例えば、「楽しい」「愉快な」「軽快な」
「明るい」は同類で第1軸に割り付けている。
Table 1 exemplifies the classified image words.
Here, 19 representative image words suitable for expressing sound data are classified into five categories from a large number of image words, and each is associated with the first to fifth axes. For example, “fun”, “pleasant”, “light”
"Bright" is similar and is assigned to the first axis.

【0034】[0034]

【表1】 [Table 1]

【0035】なお、分類は、一般の国語辞典に載ってい
る意味内容に依るのではなく、サウンドのイメージとい
う観点から行う。従って、国語辞典において「明るい」
の反対語が「暗い」と記載されてあっても、サウンドの
イメージという観点からみれば、「明るい」の反対語は
必ずしも「暗い」になるわけではない。
The classification is performed from the viewpoint of the image of the sound, not according to the meaning and contents listed in a general Japanese dictionary. Therefore, it is "bright" in the Japanese dictionary.
Although the opposite word of "is" is described as "dark", from the viewpoint of the image of sound, the opposite word of "bright" does not necessarily become "dark".

【0036】ところで、サウンド・データのマッピング
は、これら五軸を用いた五次元空間上に行うことができ
るが、応用システムにおいては、これらを全て用いても
よいし、五軸中の一部を用いてもよい。特に、画面表示
をする場合には低次元の空間に変換した方が見易くな
る。
By the way, the sound data can be mapped in a five-dimensional space using these five axes, but in the application system, all of them may be used, or a part of the five axes may be used. You may use. In particular, when displaying on a screen, it is easier to see if converted to a low-dimensional space.

【0037】図2は、マッピングされた各サウンド・デ
ータの表示例を示す図である。図2は、利用者が、「や
さしい」及び「すっきりした」の二つのイメージ語を選
択した結果、表1における第2軸をX軸とし、第4軸を
Y軸とした低次のイメージ空間上にサウンド・データを
表示したものである。このように、イメージ空間を二次
元とすれば、マッピングされたサウンド・データの視覚
化が容易となる。
FIG. 2 is a diagram showing a display example of each mapped sound data. FIG. 2 is a low-order image space where the second axis in Table 1 is the X-axis and the fourth axis is the Y-axis, as a result of the user selecting two image words “friendly” and “clean”. The sound data is displayed above. Thus, if the image space is two-dimensional, the mapped sound data can be easily visualized.

【0038】図3に、「明るい」と「やさしい」の二つ
の尺度を用いた二次元空間上に、曲データのシンボル
(以下、ボタンともいう。)を表示した画面例を示す。
この画面で、ユーザは二次元空間上に表示されたボタン
を指定することによって、そのボタンに対応する曲デー
タを試聴することができる。
FIG. 3 shows an example of a screen in which music data symbols (hereinafter, also referred to as buttons) are displayed in a two-dimensional space using two scales of "bright" and "friendly".
On this screen, the user can preview the song data corresponding to the button by designating the button displayed in the two-dimensional space.

【0039】図中、符号(a)によって示されるボタン
は、それぞれ一つの曲データを表わしている。このボタ
ンをマウス等でクリックするとその色が変わると共に、
符号(b)によって示される枠に、クリックされたボタ
ンに対応する曲の題名が表示されて、演奏が始まる。ユ
ーザは、符号(c)によって示される制御盤より、演奏
の停止、再生、一時停止、巻戻し、先送りなどの命令を
表示装置へ送ることができる。試聴の結果、指定の曲デ
ータを欲した場合には、ユーザは「SAVEAS」ボタ
ンをクリックすることによって、ユーザディスクにその
曲データをコピーすることができる。ところで、図3
は、表1における第1軸をX軸に、第2軸をY軸とした
例であるが、他に「ダイナミックな」,「クールな」,
「重々しい」といった軸を選ぶこともできる。
In the figure, each button indicated by reference numeral (a) represents one piece of music data. Clicking this button with a mouse etc. changes its color,
The title of the song corresponding to the clicked button is displayed in the frame indicated by the symbol (b), and the performance starts. The user can send commands such as stop, play, pause, rewind, and advance to the display device from the control panel indicated by the reference numeral (c). If the user wants the designated song data as a result of the audition, the user can copy the song data to the user disc by clicking the "SAVEAS" button. By the way,
Is an example in which the first axis in Table 1 is the X axis and the second axis is the Y axis. In addition, "dynamic", "cool",
You can also choose an axis such as "heavy".

【0040】以上の表示装置における動作を、図4の流
れ図に沿って説明する。図示するように、表示装置はマ
ップ画面を表示してから(S40)、入力待ち状態とな
る。ここで、ユーザからクリックによる入力があると
(S41)、表示装置はその座標を取得する(S4
2)。続いて、取得座標に対応する曲データを指し示す
ポインタを辿って(S43)、クリックされたボタンに
対応する曲データを得る。そして、曲データをD/A変
換することによってサウンド出力する(S44)。その
曲が気に入った場合などには、ユーザからの指示を受け
て曲データのコピーを行う(S45)。また、イメージ
軸による座標空間を変更する旨の指示を受けた場合には
(S46)、所定のマップ画面を表示する(S40)。
The operation of the above display device will be described with reference to the flowchart of FIG. As shown in the figure, after the display device displays the map screen (S40), the display device waits for input. Here, when there is a click input from the user (S41), the display device acquires the coordinates (S4).
2). Then, the pointer indicating the music data corresponding to the acquired coordinates is traced (S43) to obtain the music data corresponding to the clicked button. Then, the music data is D / A converted to output a sound (S44). When the user likes the song, the song data is copied in response to an instruction from the user (S45). When receiving an instruction to change the coordinate space based on the image axis (S46), a predetermined map screen is displayed (S40).

【0041】図4におけるボタン座標取得のステップ以
降の処理(S42,43,44)では、データベース管
理システムの機能を利用することができる。また、デー
タベースに蓄積する曲データは、例えば、図5に示す構
造で定義することができる。図示する曲データには、曲
のタイトルと、各イメージ軸に対する尺度値と、実デー
タへのポインタとを含む付加データを持たせてある。こ
の曲データをボタンとして画面に表示する位置は、該当
する尺度値を参照することによって決定することができ
る。
The functions of the database management system can be used in the processing (S42, 43, 44) after the step of acquiring the button coordinates in FIG. The music data stored in the database can be defined by the structure shown in FIG. 5, for example. The illustrated music data has additional data including a music title, a scale value for each image axis, and a pointer to actual data. The position where this music data is displayed as a button on the screen can be determined by referring to the corresponding scale value.

【0042】次に、キーを用いて音楽データを検索する
ためのインタフェースについて説明する。ここでは、音
楽データのタイプ、音楽データの提供を受ける対象者、
又は音楽データを使用する場面について検索キーを与え
る。図6は、キー設定画面の一例を示す図である。図示
する設定画面より、ユーザは、タイプとして‘学会
系’,‘セミナー系’,‘レポート系’,‘プロモーシ
ョン系’の四種類のキーを選ぶことができる。また、対
象者として、‘トップ(社長や役員)’,‘会社(ビジ
ネスマン)’,‘一般(不特定の者)’の三種類のキー
を選ぶことができる。また、場面として、‘オープニン
グ’,‘本文’,‘エンディング’の三種類のキーを選
ぶことができる。
Next, an interface for searching music data using a key will be described. Here, the type of music data, the target who receives the music data,
Alternatively, a search key is given for the scene where the music data is used. FIG. 6 is a diagram showing an example of the key setting screen. From the setting screen shown in the figure, the user can select four types of keys of "Academic system", "Seminar system", "Report system", and "Promotion system". Also, three types of keys can be selected as the target person: 'top (president or executive)', 'company (businessman)', and'general (unspecified person) '. In addition, as the scene, three kinds of keys of “opening”, “text”, and “ending” can be selected.

【0043】ここで、‘プロモーション系’,‘会
社’,‘本文’の三つのキーのアンド条件が採られたと
する。すると、例えば図7に示すように、表示装置は、
ヒットした曲データに対応するボタンを、色を変えてマ
ップ画面に表示すると共に、その音楽データの名称と演
奏時間とをマップ画面右横のウインドウに表示する。こ
こで、色の異なるボタンをクリックすることにより、ユ
ーザは高い確率で所望のデータを得られると考えられ
る。仮に、ヒットした音楽データが「少しだけ違う」場
合でも、色の異なるボタンの周辺にあるボタンを指定
し、二次的な検索をすれば、最適な音楽データにたどり
着くことができよう。
Here, it is assumed that the AND conditions of three keys of "promotion system", "company", and "text" are adopted. Then, for example, as shown in FIG.
The button corresponding to the hit song data is displayed on the map screen in different colors, and the name of the music data and the playing time are displayed in the window on the right side of the map screen. Here, it is considered that the user can obtain desired data with high probability by clicking the buttons of different colors. Even if the hit music data is "slightly different", you can find the optimum music data by specifying a button around the button with a different color and performing a secondary search.

【0044】ここでの検索キーによる音楽データの検索
方法には、種々の技術手段を適用することができる。例
えば、検索キーに、尺度値についての区域を割り当てる
ことで、音楽データを探索し抽出する方法が考えられ
る。具体的に、‘プロモーション系’という検索キーに
ついて、あかるい軸の区域を”0〜∞”と割り当てたと
すれば、明るさの尺度値が負数である音楽データは検索
候補外となる。この検索処理は、図5に示した付加デー
タを参照することによって、迅速且つ容易に行うことが
できる。
Various technical means can be applied to the music data search method using the search key. For example, a method of searching and extracting music data by assigning an area for the scale value to the search key can be considered. Specifically, if the area of the light axis is assigned to "0 to ∞" for the search key "promotion system", music data whose brightness scale value is a negative number is not a search candidate. This search process can be performed quickly and easily by referring to the additional data shown in FIG.

【0045】その他の検索方法として、検索キーにマッ
プ画面上の領域を割り当てる方法も考えられる。この場
合には、割り当て領域と重なるボタンをそのまま抽出す
ることができる。図8は、割り当て領域の説明図であ
る。図8において、検索キーXに領域Aが、検索キーY
に領域Bが、検索キーZに領域Cがそれぞれ割り当てら
れている。この場合、検索キーX,Y,Zのオア条件が
採られた場合には、領域A,B,Cのいずれかに重なる
ボタンが色を変えて表示されることになる。
As another search method, a method of assigning an area on the map screen to the search key can be considered. In this case, the button that overlaps the allocation area can be extracted as it is. FIG. 8 is an explanatory diagram of the allocation area. In FIG. 8, the area A is the search key X and the search key Y is the search key Y.
Is assigned to the area B, and the search key Z is assigned to the area C. In this case, when the OR condition of the search keys X, Y, Z is adopted, the button overlapping any one of the areas A, B, C is displayed in a different color.

【0046】図9に、ガイドブックの表示画面例を示
す。表示装置は、タイトル作成に不慣れなユーザに対し
て図示するようなガイドブックを提供することができ
る。図中、[3.サウンドの使い方]の説明文が提示さ
れている。[(1)音楽]の欄には、[特徴],[
提示する場面],[設計の基本方針],[プレゼン
テーションタイプと音楽]、その他の項目について解説
が為されている。そして、その文章中には、音楽データ
の検索キーに相当する用語が含まれている。この用語
に、音楽データをリンクさせておけば、ガイドブックか
ら音楽データを検索することが可能となる。そして、ヒ
ットした音楽データを、マップ画面に表示させれば、二
次的な検索により、ヒットした音楽データに近いものを
試聴することも可能となる。
FIG. 9 shows an example of a guidebook display screen. The display device can provide a guidebook as shown to a user who is unfamiliar with title creation. In the figure, [3. How to use sound] is presented. In the [(1) Music] column, [Characteristics], [
Explanations are given on "presenting scenes", "basic design policy", "presentation type and music", and other items. Then, the sentence includes a term corresponding to the search key of the music data. If music data is linked to this term, it is possible to search music data from the guidebook. Then, by displaying the hit music data on the map screen, it is possible to listen to the music data close to the hit music data by secondary search.

【0047】図10は、ガイドブックにおいて、プレゼ
ンテーションのタイプに応じた適切な音楽の選び方を説
明した部分である。このガイドブックでは、表形式で説
明してあり、表の中をいくつかのブロックに分けて音楽
データのタイプを指示している。ここで、表中の任意の
ブロックをマウス等でクリックすると、該当する音楽デ
ータの検索が行われる。この検索は、表の縦方向に並ぶ
タイプについての検索キーと、表の横方向に並ぶ対象者
についての検索キーとのアンド条件を採ればよい。
FIG. 10 is a part of the guidebook explaining how to select appropriate music according to the type of presentation. This guidebook is explained in the form of a table, and the table is divided into some blocks to indicate the type of music data. When any block in the table is clicked on with a mouse or the like, the corresponding music data is searched. This search may be performed by ANDing the search key for the type arranged in the vertical direction of the table and the search key for the target person arranged in the horizontal direction of the table.

【0048】検索が終了すると、図11に示すように、
新しいウインドウが開かれ、ヒットした音楽データを演
奏するためのコントロールパネルが表示される。ユーザ
は、ここで音楽データの名前を指定してその音楽を試聴
することもできるが、コントロールパネルの右上にある
「MAP表示」ボタンをクリックすることによって、図
12に示すようなマップ画面を表示させることもでき
る。このマップ画面でも、ヒットした音楽データは、色
を変えて表示されている。
When the search is completed, as shown in FIG.
A new window will open with a control panel for playing the hit music data. The user can specify the name of the music data and listen to the music here, but by clicking the "MAP display" button in the upper right of the control panel, the map screen as shown in FIG. 12 is displayed. You can also let it. Even on this map screen, the hit music data is displayed in different colors.

【0049】[0049]

【発明の効果】以上説明したように、請求項1の発明で
は、サウンド・データをイメージ語を基準としてマッピ
ングすることができる。請求項2の発明では、サウンド
・データと色とを関連づけたマッピングが可能となる。
請求項3の発明では、同一のイメージ軸に同類のイメー
ジ語を割り付けることができる。請求項4の発明では、
サウンド・データの利用者に都合の良いマッピングがで
きる。請求項5の発明では、サウンド・データの利用者
に所望の形式でマップされたサウンド・データを提示す
ることができる。
As described above, according to the first aspect of the invention, the sound data can be mapped with the image word as a reference. According to the second aspect of the invention, it is possible to perform mapping in which the sound data and the color are associated with each other.
According to the third aspect of the invention, similar image words can be assigned to the same image axis. According to the invention of claim 4,
You can make a convenient mapping for users of sound data. In the invention of claim 5, the sound data mapped in a desired format can be presented to the user of the sound data.

【0050】さらに、請求項6の発明では、シンボル指
定によってサウンド・データの試聴ができ、請求項7の
発明では、イメージ空間を利用したサウンド・データの
検索ができ、請求項8又は9の発明では、ガイドブック
など文章説明に基づいて検索したサウンド・データをマ
ップ画面に表示させて、二次的な検索を行うことができ
る。
Further, in the invention of claim 6, the sound data can be auditioned by designating the symbol, and in the invention of claim 7, the sound data can be searched using the image space, and the invention of claim 8 or 9. Then, you can display the sound data searched based on the text description such as a guidebook on the map screen to perform a secondary search.

【0051】このように、本発明により、従来不可能と
されてきた音楽の持つイメージを数値的に表現すること
ができるようになり、「音を探す時のユーザ側の表現と
システム側の表現の不一致」が解消される。そして、
「もう少しあかるい曲」や「ボタンを押したときの効果
音」といった特異な検索方法も可能となる。また、タイ
トル開発に不慣れなユーザにとっては、「役員向けのプ
レゼンテーションのオープニングにふさわしい曲」とい
うように、感覚的な表現によってもサウンド・データの
検索を可能とする。
As described above, according to the present invention, it is possible to numerically express the image of music which has been considered impossible in the past, and it is possible to express "the expression on the user side and the expression on the system side when searching for a sound". "Mismatch" is resolved. And
Unique search methods such as "a little lighter song" and "sound effect when a button is pressed" are also possible. Also, for users who are unfamiliar with title development, sound data can be searched by a sensory expression such as "a song suitable for the opening of a presentation for executives".

【0052】本発明を、検索システムや作曲支援システ
ム、楽曲評価システムに用いれば、音楽という芸術を工
学的に取り扱うことが可能となる。以上のことから本発
明は、これからますます手軽になってくる音楽や作曲を
支援するシステムの基礎として非常に重要な技術である
と言える。
By using the present invention in a search system, a composition support system, and a music evaluation system, the art of music can be treated in an engineering manner. From the above, it can be said that the present invention is a very important technique as the basis of a system for supporting music and composition which will become easier and easier.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す図である。FIG. 1 is a diagram showing an embodiment of the present invention.

【図2】マッピングされたサウンド・データの表示例を
示す図である。
FIG. 2 is a diagram showing a display example of mapped sound data.

【図3】本発明による表示装置の画面例を示す図であ
る。
FIG. 3 is a diagram showing an example of a screen of a display device according to the present invention.

【図4】表示装置の動作例を説明する流れ図である。FIG. 4 is a flowchart illustrating an operation example of a display device.

【図5】曲データのデータ構造の一例を示す図である。FIG. 5 is a diagram showing an example of a data structure of music data.

【図6】本発明による表示装置の画面例を示す図であ
る。
FIG. 6 is a diagram showing an example of a screen of a display device according to the present invention.

【図7】本発明による表示装置の画面例を示す図であ
る。
FIG. 7 is a diagram showing a screen example of a display device according to the present invention.

【図8】検索キーへの割り当て領域について説明する図
である。
FIG. 8 is a diagram illustrating an area assigned to a search key.

【図9】本発明による表示装置の画面例を示す図であ
る。
FIG. 9 is a diagram showing an example of a screen of a display device according to the present invention.

【図10】本発明による表示装置の画面例を示す図であ
る。
FIG. 10 is a diagram showing an example of a screen of the display device according to the present invention.

【図11】本発明による表示装置の画面例を示す図であ
る。
FIG. 11 is a diagram showing an example of a screen of the display device according to the present invention.

【図12】本発明による表示装置の画面例を示す図であ
る。
FIG. 12 is a diagram showing an example of a screen of a display device according to the present invention.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成7年9月12日[Submission date] September 12, 1995

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図3[Name of item to be corrected] Figure 3

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図3】 [Figure 3]

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図6[Name of item to be corrected] Figure 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図6】 [Figure 6]

【手続補正3】[Procedure 3]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図7[Name of item to be corrected] Figure 7

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図7】 [Figure 7]

【手続補正4】[Procedure amendment 4]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図9[Correction target item name] Figure 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図9】 [Figure 9]

【手続補正5】[Procedure Amendment 5]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図10[Name of item to be corrected] Fig. 10

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図10】 [Figure 10]

【手続補正6】[Procedure correction 6]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図11[Name of item to be corrected] Fig. 11

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図11】 FIG. 11

【手続補正7】[Procedure Amendment 7]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図12[Name of item to be corrected] Fig. 12

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図12】 [Fig. 12]

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 サウンドが持つイメージを表すことがで
きるイメージ語を抽出するステップと、 イメージ語をイメージの強弱を表す方向を持ったイメー
ジ軸に割り付けるステップと、 そのサウンドが持つイメージに基づいて、各イメージ軸
におけるサウンド・データの値を決定するステップと、 ひとつ又は複数のイメージ軸を有するイメージ空間へサ
ウンド・データをマッピングするステップとを有するこ
とを特徴とするサウンド・データのマッピング方法。
1. A step of extracting an image word capable of representing an image of a sound, a step of allocating the image word to an image axis having a direction representing the strength of the image, and an image having the sound, A sound data mapping method comprising: determining a value of sound data on each image axis; and mapping sound data to an image space having one or more image axes.
【請求項2】 前記抽出するステップは、イメージ語と
して色を抽出する請求項1記載のサウンド・データのマ
ッピング方法。
2. The sound data mapping method according to claim 1, wherein the extracting step extracts a color as an image word.
【請求項3】 前記割り付けるステップは、予めイメー
ジ語を分類し、サウンドのイメージに関して同類のイメ
ージ語に対してひとつのイメージ軸を割り付ける請求項
1記載のサウンド・データのマッピング方法。
3. The sound data mapping method according to claim 1, wherein said allocating step classifies the image words in advance and allocates one image axis to the image words of the same kind with respect to the image of the sound.
【請求項4】 前記決定するステップは、聴者試験結果
を用いてサウンド・データの値を決定する請求項1記載
のサウンド・データのマッピング方法。
4. The method for mapping sound data according to claim 1, wherein the determining step determines the value of the sound data using a listener test result.
【請求項5】 前記方法によってイメージ空間へマッピ
ングされたサウンド・データを表示する装置であって、 所望のイメージ語を選択させる手段と、 そのイメージ語に対応するイメージ軸を座標軸として、
サウンド・データを表示する手段とを具備することを特
徴とするサウンド・データの表示装置。
5. An apparatus for displaying sound data mapped to an image space by the method, comprising means for selecting a desired image word, and an image axis corresponding to the image word as coordinate axes.
A device for displaying sound data, comprising: means for displaying sound data.
【請求項6】 イメージ軸における値を持ったサウンド
・データを格納する手段と、 それぞれのサウンド・データを一つ又は複数のイメージ
軸によって形成されるイメージ空間上に配置し、シンボ
ルにて表示する手段と、 シンボルの指定を受けて、そのサウンド・データを試聴
させる手段とを具備することを特徴とするサウンド・デ
ータの表示装置。
6. A means for storing sound data having a value on an image axis, and each sound data is arranged in an image space formed by one or a plurality of image axes and displayed as a symbol. A sound data display device comprising means and means for receiving a designation of a symbol and listening to the sound data.
【請求項7】 サウンド・データの検索キーについて、
イメージ軸の区域或いはイメージ空間の領域を割り当て
ると共に、 検索キーの指定を受けて、その区域或いは領域に含まれ
るサウンド・データのシンボルを標識する手段を設ける
請求項6記載のサウンド・データの表示装置。
7. A search key for sound data,
7. A sound data display device according to claim 6, further comprising means for allocating an area of the image axis or an area of the image space and for receiving a designation of a search key to mark a symbol of sound data included in the area or area. .
【請求項8】 音素材使用の説明文を提示する手段と、 説明文中に現われる所定の用語の指定を受けて、その用
語に関連するサウンド・データを抽出する手段と、 抽出したサウンド・データをイメージ空間上に表示する
ための手段とを有する請求項6記載のサウンド・データ
の表示装置。
8. A means for presenting an explanation of the use of a sound material, a means for receiving a designation of a predetermined term appearing in the explanation, extracting sound data related to the term, and extracting the extracted sound data. 7. A sound data display device as claimed in claim 6, comprising means for displaying in image space.
【請求項9】 サウンド・データの検索キーについて、
所定の組み合わせに対応するサウンドの説明文を表示す
る手段と、 その組み合わせの指定を受けて、該当するサウンド・デ
ータを検索する手段とを具備する請求項7記載のサウン
ド・データの表示装置。
9. A search key for sound data,
8. The sound data display device according to claim 7, further comprising: a unit for displaying a sound description corresponding to a predetermined combination; and a unit for receiving the designated combination and searching for the corresponding sound data.
JP14894195A 1994-12-21 1995-06-15 Mapping method for sound data and display device Withdrawn JPH08227297A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14894195A JPH08227297A (en) 1994-12-21 1995-06-15 Mapping method for sound data and display device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP31866394 1994-12-21
JP6-318663 1994-12-21
JP14894195A JPH08227297A (en) 1994-12-21 1995-06-15 Mapping method for sound data and display device

Publications (1)

Publication Number Publication Date
JPH08227297A true JPH08227297A (en) 1996-09-03

Family

ID=26478982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14894195A Withdrawn JPH08227297A (en) 1994-12-21 1995-06-15 Mapping method for sound data and display device

Country Status (1)

Country Link
JP (1) JPH08227297A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184883A (en) * 1997-12-24 1999-07-09 Canon Inc Music retrieval system and method and record medium
JP2000029885A (en) * 1998-07-09 2000-01-28 Hitachi Ltd Similar image retrieval method and device
WO2002065339A1 (en) * 2001-01-09 2002-08-22 Fujitsu Limited Multimedia information sorting/arranging device and sorting/arranging method
US6504089B1 (en) 1997-12-24 2003-01-07 Canon Kabushiki Kaisha System for and method of searching music data, and recording medium for use therewith
JP2003068060A (en) * 2001-08-27 2003-03-07 Clarion Co Ltd Audio information apparatus
JP2004133684A (en) * 2002-10-10 2004-04-30 Ntt Data Corp Information retrieval system and information retrieval program
JP2005010771A (en) * 2003-05-26 2005-01-13 Matsushita Electric Ind Co Ltd Music retrieval device
WO2006030612A1 (en) * 2004-09-16 2006-03-23 Sony Corporation Content creating device and content creating method
JP2007148891A (en) * 2005-11-29 2007-06-14 Victor Co Of Japan Ltd Apparatus for searching and reproducing music
JP2007172209A (en) * 2005-12-21 2007-07-05 Victor Co Of Japan Ltd Content retrieval device and content retrieval program
JP2008250710A (en) * 2007-03-30 2008-10-16 Clarion Co Ltd Musical piece reproduction control device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6504089B1 (en) 1997-12-24 2003-01-07 Canon Kabushiki Kaisha System for and method of searching music data, and recording medium for use therewith
JPH11184883A (en) * 1997-12-24 1999-07-09 Canon Inc Music retrieval system and method and record medium
JP2000029885A (en) * 1998-07-09 2000-01-28 Hitachi Ltd Similar image retrieval method and device
JPWO2002065339A1 (en) * 2001-01-09 2004-06-17 富士通株式会社 Multimedia information classification arrangement device and classification arrangement method
WO2002065339A1 (en) * 2001-01-09 2002-08-22 Fujitsu Limited Multimedia information sorting/arranging device and sorting/arranging method
JP2003068060A (en) * 2001-08-27 2003-03-07 Clarion Co Ltd Audio information apparatus
JP2004133684A (en) * 2002-10-10 2004-04-30 Ntt Data Corp Information retrieval system and information retrieval program
JP2005010771A (en) * 2003-05-26 2005-01-13 Matsushita Electric Ind Co Ltd Music retrieval device
JP4695853B2 (en) * 2003-05-26 2011-06-08 パナソニック株式会社 Music search device
WO2006030612A1 (en) * 2004-09-16 2006-03-23 Sony Corporation Content creating device and content creating method
US7960638B2 (en) 2004-09-16 2011-06-14 Sony Corporation Apparatus and method of creating content
JP2007148891A (en) * 2005-11-29 2007-06-14 Victor Co Of Japan Ltd Apparatus for searching and reproducing music
JP4622829B2 (en) * 2005-11-29 2011-02-02 日本ビクター株式会社 Music search / playback device, music search / playback method, impression word setting program
JP2007172209A (en) * 2005-12-21 2007-07-05 Victor Co Of Japan Ltd Content retrieval device and content retrieval program
JP2008250710A (en) * 2007-03-30 2008-10-16 Clarion Co Ltd Musical piece reproduction control device

Similar Documents

Publication Publication Date Title
Khulusi et al. A survey on visualizations for musical data
US10417278B2 (en) Systems and methods to facilitate media search
US10096145B2 (en) Method and system for assembling animated media based on keyword and string input
US6880132B2 (en) Method and apparatus for arranging and displaying files or folders in a three-dimensional body
KR0138003B1 (en) Method and system for enabling visually impaired computer users to graphically select displayed objects
US8276076B2 (en) Methods and apparatus for visualizing a media library
Neumayer et al. Playsom and pocketsomplayer, alternative interfaces to large music collections
WO2018072071A1 (en) Knowledge map building system and method
JP4416852B2 (en) A song selection reservation device connected to a karaoke performance device
CN101040340A (en) Apparatus and method for visually generating a playlist
JP2008287125A (en) Method of displaying content, device of displaying content, recording medium and server device
JP4165160B2 (en) Design production support system and design production support program
Baggi et al. Music navigation with symbols and layers: Toward content browsing with IEEE 1599 XML encoding
US8315968B2 (en) Music information processing apparatus, music delivering system, and music information processing method that can satisfy a request from a user
JPH08227297A (en) Mapping method for sound data and display device
JP5926370B2 (en) Display device and program
JP2003242164A (en) Music retrieval and reproducing device, and medium with program for system thereof recorded thereon
CN109791797A (en) According to the systems, devices and methods of chemical structure similarity searching and display available information in large database concept
US20120271830A1 (en) Data processing device
JPH07282079A (en) Linkage displaying method
KR102274842B1 (en) Apparatus for classifying music genres that express genres by color mixing and method thereof
WO2013005262A1 (en) Image extraction method, image extraction device, image extraction system, server, user terminal, communication system and program
JP2698989B2 (en) Inspection method in multimedia database
JP2000331090A (en) Music selection support system for music delivery and music selection and delivery method
JPH0721075A (en) Multi-media filing system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020903