JPH10143155A - Formation of virtual musical instrument - Google Patents

Formation of virtual musical instrument

Info

Publication number
JPH10143155A
JPH10143155A JP8296152A JP29615296A JPH10143155A JP H10143155 A JPH10143155 A JP H10143155A JP 8296152 A JP8296152 A JP 8296152A JP 29615296 A JP29615296 A JP 29615296A JP H10143155 A JPH10143155 A JP H10143155A
Authority
JP
Japan
Prior art keywords
musical instrument
virtual
area
computer
coordinate point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8296152A
Other languages
Japanese (ja)
Inventor
Atsushi Hiroike
敦 廣池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP8296152A priority Critical patent/JPH10143155A/en
Publication of JPH10143155A publication Critical patent/JPH10143155A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for formation of a virtual musical instrument which forms the virtual musical instrument on a computer screen. SOLUTION: An object 111 (musical instrument) which sets the occurrence of a formation event, graphics 112 (pallet) which simulate the keyboard musical instrument and graphics 113 (paintbrush) interlocked to a mouse are displayed on the screen. Button-like regions which generate different intervals are arrayed on a pallet 112. A user brings the paintbrush 113 to his desired interval and selects the interval by clicking the mouse. Next, the user brings the paintbrush onto the musical instrument and moves the paintbrush while pushing the mouse button, thereby successively setting the region where MIDI information is generated. The selected contents are checked by the user as the corresponding sound is generated at the time of clicking with the mouse 131. As a result, the user is capable of designing the musical instrument of the free shape and timbre meeting his own taste.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、計算機による仮想
楽器作成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for creating a virtual musical instrument by a computer.

【0002】[0002]

【従来の技術】情報入力の手段として、矩形領域(ウィ
ンドウ)に機能的に分割された画面上を、座標値を視覚
的に入力できるマウス等の装置を用いて運用するシステ
ム(ウィンドウシステム)が、現在、多くの計算機におい
て主流となっている。このようなシステムでの使用者と
のインターフェイスの開発では、単なる機能だけではな
く、画面上の視覚的なデザインも重要となる。近年、こ
のような開発過程自体も、視覚的に行えるような環境が
整いつつある。
2. Description of the Related Art As a means for inputting information, a system (window system) that uses a device such as a mouse capable of visually inputting coordinate values on a screen functionally divided into rectangular areas (windows) is known. Currently, it is mainstream in many computers. In developing an interface with a user in such a system, not only the function but also the visual design on the screen is important. In recent years, an environment in which such a development process itself can be visually performed has been established.

【0003】計算機と音楽用の音源装置との情報のやり
取りでは、古くからMIDIという形式の標準データが用い
られてきた。これによって計算機や音源の機種に依存し
ない音楽情報を作成・運用することが可能となってい
る。
In exchanging information between a computer and a music sound source device, standard data in the form of MIDI has been used for a long time. This makes it possible to create and operate music information that does not depend on the type of computer or sound source.

【0004】現在、音源を駆動するためのデータを作成
する多くのソフトウェア(音楽ソフト)が存在する。音楽
ソフトで作成されたデータは、計算機による自動演奏に
よって何度でも再現できる。音楽ソフトでのデータ入力
の手段には、MIDI対応の楽器(主にキーボード)からの入
力及び計算機上での入力の2通りがある。後者では、キ
ーボードを模した図形をマウスでクリックする、といっ
たインターフェイスを持つソフトウェアも存在する。
At present, there are many software (music software) for creating data for driving a sound source. Data created by music software can be reproduced many times by automatic performance by a computer. There are two types of data input means in music software: input from a MIDI-compatible instrument (mainly a keyboard) and input on a computer. In the latter case, there is software that has an interface such as clicking a figure imitating a keyboard with a mouse.

【0005】近年、計算機の演算能力の飛躍的向上に伴
い、使用者に対して、計算機画面上に3次元的情報を呈
示する技術が一般化しつつある。また、これと併せて、
3次元情報を作成するソフトウェアも多く開発されてい
る。さらに、使用者の手の3次元的な動きを検出し計算
機に入力できる装置(データグローブ)、使用者の視線の
変化に応じた立体視画像を表示する技術等により、計算
機上の3次元世界(仮想的3次元空間)を使用者が疑似体験
できるシステムも可能となった。
[0005] In recent years, with the dramatic improvement in the computing power of a computer, a technique for presenting three-dimensional information on a computer screen to a user has been generalized. In addition,
Many software for creating three-dimensional information have been developed. Furthermore, a device (data glove) that can detect the three-dimensional movement of the user's hand and input it to the computer, a technology that displays a stereoscopic image according to the change in the user's line of sight, etc. A system that allows users to experience virtual (virtual three-dimensional space) is also possible.

【0006】[0006]

【発明が解決しようとする課題】計算機使用に際して使
用者の多様な嗜好に対応するためには、現行の矩形領域
を主とする画面の機能的分割よりも、より自由度の高い
インターフェイスのデザインが要求される。また、使用
者が自らの嗜好を満足させるためには、使用者自身がデ
ザイン可能であることが望ましい。従って、このような
インターフェイスのデザインを容易に行えるようなソフ
トウェアが必要である。
In order to respond to various user preferences when using a computer, an interface design having a higher degree of freedom than a current functional division of a screen mainly including a rectangular area is required. Required. In addition, in order for the user to satisfy his or her taste, it is desirable that the user himself can design. Therefore, software that can easily design such an interface is required.

【0007】従来の音楽ソフト上では、使用者がMIDI情
報の出力をリアルタイムで計算機に行わせる機能は、デ
ータ作成時のインターフェイスとして提供されている。
従って、その行為自体は日常的な意味での演奏とは言え
ない。使用者の計算機を用いた音楽との係わり合いをよ
り多様にするためには、演奏のためのインターフェイス
としての計算機の利用が必要である。
[0007] In conventional music software, a function for allowing a computer to output MIDI information in real time by a user is provided as an interface at the time of data creation.
Therefore, the act itself is not a performance in a daily sense. In order to further diversify a user's relationship with music using a computer, it is necessary to use the computer as an interface for performing.

【0008】従来、3次元情報は、視覚的表現を中心に
扱われてきた。一方、人間の表現活動において音楽は重
要な地位を占めている。3次元情報を扱うシステム上
で、人間の表現活動がより総合的に行われるためには、
音楽活動を含めたシステム構成が必要である。また、従
来のMIDI情報の楽器入力は鍵盤楽器が主であった。計算
機が人間の創造的活動により貢献するためには、より自
由な形式での楽器入力を実現することが望ましい。
[0008] Conventionally, three-dimensional information has been mainly used for visual expression. On the other hand, music occupies an important position in human expression activities. In order for human expression activities to be more comprehensively performed on systems that handle 3D information,
A system configuration that includes music activities is required. Conventionally, the input of the musical instrument of the MIDI information is mainly a keyboard musical instrument. In order for a computer to contribute more to human creative activities, it is desirable to realize musical input in a more free form.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するた
め、本発明では、従来技術として存在する描画用ソフト
ウェアのインターフェイスを用いて、計算機画面の機能
のデザインを行う。そして、この描画用ソフトウェアの
インターフェイスを用いて、計算機画面上にMIDI情報を
出力する領域を設定する。これにより使用者が、仮想的
3次元空間内で楽器を作成し演奏することができる。
In order to solve the above-mentioned problems, in the present invention, the function of a computer screen is designed using an interface of drawing software existing as a conventional technique. Then, an area for outputting MIDI information is set on the computer screen using the interface of the drawing software. This allows the user to
You can create and play instruments in a three-dimensional space.

【0010】[0010]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(実施例1)本実施例は、計算機画面上の矩形領域中に、
マウスクリックによって計算機にMIDI情報を外部音源に
出力させることが可能な領域を設定するソフトウェアで
ある。これによって、楽器を模した図形が画面上に作成
される。
(Embodiment 1) In this embodiment, a rectangular area on a computer screen is
This software sets the area where the computer can output MIDI information to an external sound source with a mouse click. Thereby, a figure imitating a musical instrument is created on the screen.

【0011】作成過程での使用者の作業手順の例を図1
(a)〜(c)に示す。画面には、作成イベント発生を
設定する対象111(以下、楽器と呼ぶ)、鍵盤楽器を模し
た図形112(以下、パレットと呼ぶ)、マウスと連動した
図形113(以下、絵筆と呼ぶ)が表示される。パレット112
上には、異なる音程を発生するボタン状の領域が配列さ
れている。画面110において、使用者は、自分が望む音
程に絵筆を持っていきマウスクリックすることにより、
その音程を選択する。選択した内容は、クリックした際
に対応する音が発生することによって、使用者に確認さ
れる。次に、楽器上に絵筆を持っていき、マウスボタン
を押しながら絵筆を動かすことにより、画面120のよう
にMIDI情報を発生する領域を設定していく。設定した領
域は、その領域に色が付くことによって使用者に確認さ
れる。この際の使用者の作業は、通常のペイントソフト
と全く同様である。また、透明度を設定することによ
り、複数の音色を楽器上で混合することもできる。楽器
及びパレットの個数は任意であり、使用者が自ら作成し
た楽器をパレットとして用いることもできる。
FIG. 1 shows an example of a user's work procedure in the creation process.
(A) to (c) are shown. On the screen, a target 111 for setting creation event occurrence (hereinafter, referred to as an instrument), a figure 112 imitating a keyboard instrument (hereinafter, referred to as a palette), and a figure 113 (hereinafter, referred to as a paintbrush) linked to a mouse are displayed. Is done. Pallets 112
Above, button-shaped areas that generate different pitches are arranged. On the screen 110, the user brings the paintbrush to the pitch he / she wants and clicks the mouse,
Select that pitch. The selected content is confirmed by the user by generating a corresponding sound when clicked. Next, a paintbrush is brought over the musical instrument, and by moving the paintbrush while holding down the mouse button, an area for generating MIDI information, such as the screen 120, is set. The set area is confirmed by the user by coloring the area. The work of the user at this time is exactly the same as that of ordinary paint software. By setting the transparency, a plurality of timbres can be mixed on a musical instrument. The number of musical instruments and pallets is arbitrary, and musical instruments created by the user himself can be used as pallets.

【0012】使用者がパレット上の音の出ない場所をク
リックすることにより、作成過程は終了する。この場
合、画面130のように、マウスと連動する図形が絵筆と
は異なる図形131になる。この状態で、楽器上をクリッ
クすると、対応する楽音が発生する。また、ボタンを押
したままマウスを動かす(ドラッグする)ことにより、音
程の連続変化やビブラート等の特殊効果を音色に加える
られるように設定することも可能である。マウスドラッ
グの効果の設定は楽器単位で行われる。
When the user clicks on the pallet where no sound is produced, the creation process ends. In this case, as in the case of the screen 130, the graphic linked to the mouse becomes a graphic 131 different from the paintbrush. In this state, clicking on the musical instrument generates a corresponding musical tone. It is also possible to set so that a special effect such as continuous pitch change or vibrato can be added to the timbre by moving (dragging) the mouse while holding down the button. The setting of the mouse drag effect is performed for each instrument.

【0013】本実施例のソフトウェアの基本的なデータ
構造及びアルゴリズムを図2〜図9に示す。
The basic data structure and algorithm of the software of this embodiment are shown in FIGS.

【0014】図2に示すように、パネルは、楽器及びパ
レットを表すデータである。本ソフトウェアは、ウィン
ドウシステム上での動作を前提としており、各パネル
は、1つのウィンドウとして実現される。パネルには、
そのパネルが楽器かパレットかを表す状態、MIDI情報を
発生する領域のリスト、及び、マウスドラッグ時に行わ
れる処理が、データとして含まれる。
As shown in FIG. 2, the panel is data representing a musical instrument and a palette. This software assumes operation on a window system, and each panel is realized as one window. The panel includes:
The state indicating whether the panel is a musical instrument or a palette, a list of areas for generating MIDI information, and a process performed at the time of mouse dragging are included as data.

【0015】これ以外に、ウィンドウシステムと関連す
るデータも含まれるが、これは省略する。パネル上にあ
る各領域は、マウスクリックを受け付けるパネル上の座
標値の集合とクリック時に実行されるプログラムが必要
とするデータ(色及びMIDIデータ)によって定義される。
各領域には、複数のMIDIデータがリストとして割当られ
ている。絵筆データは、絵筆の現在の状態を格納するも
ので、1つのアプリケーションプロセスに対して1つだけ
存在する。絵筆には、最も最近にクリックされた領域の
内容が記憶される。絵筆内の状態のフィールドは、その
内容が、楽器上の領域だったかパレット上の領域だっか
かを示すもので、これによって作成モードと演奏モード
の区別も行われる。その他のフィールドは、ペイントす
る際のブラシのパターンと音色を多重に定義する際の透
明度(加算の仕方)である。
In addition, data related to the window system is also included, but this is omitted. Each area on the panel is defined by a set of coordinate values on the panel that accept mouse clicks and data (color and MIDI data) required by a program executed at the time of clicking.
A plurality of MIDI data is assigned to each area as a list. The paintbrush data stores the current state of the paintbrush, and there is only one for one application process. The content of the area most recently clicked is stored in the paintbrush. The state field in the paintbrush indicates whether the content is an area on a musical instrument or an area on a pallet, thereby distinguishing between a creation mode and a performance mode. The other fields are the transparency (how to add) when the brush pattern and the tone at the time of painting are defined in multiples.

【0016】通常のウィンドウシステム上でのプログラ
ムと同様、本発明のソフトウェアは、マウス操作によっ
てイベントが発生することによって、パネルに対して定
義された手続きが実行される。イベントとして認識され
るのは、図3に示すマウスクリック、図4に示すボタン
を押した状態でのマウスのドラッグ、及び、図5に示す
ボタンの解放の3つである。但し、パネル領域からマウ
スが出た場合もボタンの解放と同じ扱いをする。
Similar to a program on a normal window system, the software of the present invention executes a procedure defined for a panel when an event is generated by a mouse operation. The three events recognized as events are mouse click shown in FIG. 3, dragging the mouse while pressing the button shown in FIG. 4, and releasing the button shown in FIG. However, when the mouse comes out of the panel area, the same operation as releasing the button is performed.

【0017】外部音源に対しては、図6に示すようにマ
ウスクリック時にキーノートオンが、また図7に示すよ
うにマウスリリース時にキーノートオフが送られる。さ
らに図8に示すように、マウスドラッグ時の処理が設定
された楽器の場合、ベンダー情報等が送られる。図8の
例では、マウスを上下に動かすと、音程が連続的に変化
する。外部音源に出力される内容は、絵筆を参照するこ
とによって行われる。
As shown in FIG. 6, a key note on is sent to the external sound source when the mouse is clicked, and a key note off is sent when the mouse is released as shown in FIG. Further, as shown in FIG. 8, in the case of a musical instrument for which processing at the time of mouse dragging is set, vendor information and the like are sent. In the example of FIG. 8, when the mouse is moved up and down, the pitch changes continuously. The content output to the external sound source is performed by referring to a paintbrush.

【0018】楽器作成時の領域の設定は、図9のよう
に、2値画像ブラシパターンのパネル上での軌跡を領域
に加えていくことによって行われる。絵筆の透明度が0
でない場合は、以前に設定された領域との重なりがチェ
ックされる。重なりが存在する場合には、透明度に従っ
て加算された色及びMIDIデータを持つ別の領域が生成さ
れる。なお、同一のパネル上では、領域の内容が一致す
れば、連続領域でなくても同一の領域として管理され
る。
The setting of the area at the time of musical instrument creation is performed by adding the locus of the binary image brush pattern on the panel to the area as shown in FIG. Paintbrush transparency is 0
If not, the overlap with the previously set area is checked. If there is an overlap, another area is created with color and MIDI data added according to the transparency. On the same panel, if the contents of the areas match, the areas are managed as the same area even if they are not continuous areas.

【0019】図10は、実際に使用者が作成した楽器の
例である。マウスの移動によって様々な旋律形が得られ
る。また、反復的な動作を行うことにより打楽器的な演
奏も可能である。
FIG. 10 shows an example of a musical instrument actually created by a user. Various melodic shapes can be obtained by moving the mouse. By performing repetitive operations, it is possible to perform percussion instruments.

【0020】(実施例2)本実施例は、図11に示した使
用者に仮想現実感を体験させるシステム上で、本発明を
実現した例である。画像表示装置1180は、使用者が仮想
空間上の物体の奥行き感を体験できるように計算機1110
が画像生成装置1140を用いて生成した画像を使用者の両
眼に表示する。ヘッドフォン1160は、計算機1110がMIDI
音源1130を用いて生成した音像を提示する。一方、使用
者の頭部の位置及び方向は装置1170を通して、また使用
者の手の動きは装置1190を通して、I01150を経由して
計算機1110に入力される。計算機1110には外部記憶装置
1120が接続されている。このシステム上では、使用者
は、使用者の動きに連動して変化する仮想空間を視聴覚
的に体験できる。これらの技術については、例えば、特
開平6-47170号公報に記載されている。
(Embodiment 2) This embodiment is an example in which the present invention is realized on the system shown in FIG. 11 which allows the user to experience virtual reality. The image display device 1180 is provided with a computer 1110 so that a user can experience a sense of depth of an object in a virtual space.
Displays an image generated using the image generation device 1140 on both eyes of the user. Headphones 1160, MIDI calculator 1110
The sound image generated using the sound source 1130 is presented. On the other hand, the position and direction of the user's head are input to the computer 1110 via the device 1170, and the movement of the user's hand is input to the computer 1110 via the I01150 via the device 1190. Computer 1110 has an external storage device
1120 is connected. On this system, the user can experience a virtual space that changes in conjunction with the movement of the user in an audiovisual manner. These techniques are described in, for example, JP-A-6-47170.

【0021】仮想楽器となる仮想空間中の3次元物体の
形状の作成は、通常のコンピュータグラフィックスシス
テムにおける3次元形状作成ソフトウェア(モデラー)に
よって行う。モデラーが与える形状データは、物体表面
を多角形に区分した面素から構成されている。
The creation of the shape of a three-dimensional object in a virtual space that is to be a virtual musical instrument is performed by three-dimensional shape creation software (modeler) in a general computer graphics system. The shape data given by the modeler is composed of surface elements obtained by dividing the object surface into polygons.

【0022】図12(a)、(b)、図13(a)、
(b)は、仮想楽器の作成における使用者の作業を図示
したものである。図12は、画面1210中に表示される、
仮想空間の設定、ファイル入出力、システム終了等の命
令を実行するためのパネルである。楽器の作成過程で
は、仮想空間中に、以下のような物体が使用者に呈示さ
れる。
FIGS. 12 (a), 12 (b), 13 (a),
(B) illustrates a user's work in creating a virtual musical instrument. FIG. 12 is displayed in screen 1210,
This is a panel for executing commands such as virtual space setting, file input / output, and system termination. In the process of creating the musical instrument, the following objects are presented to the user in the virtual space.

【0023】1. 作成の対象となる物体1311。以下、楽
器と呼ぶ。
1. An object 1311 to be created. Hereinafter, it is called an instrument.

【0024】2. 作成のため参照される予め用意された
仮想楽器1312。以下、パレットと呼ぶ。
2. A virtual instrument 1312 prepared in advance that is referred to for creation. Hereinafter, it is called a pallet.

【0025】3. 使用者の手の動きと連動して動く物体1
313。以下、手のモデルと呼ぶ。
3. Object 1 that moves in conjunction with the movement of the user's hand
313. Hereinafter, it is called a hand model.

【0026】これらは、機能的には実施例1と同様であ
るが、3が、他の2者と同一の仮想空間中の物体というデ
ータ構造を持つ点が異なる。使用者が一人なら手のモデ
ルは1ないし2、複数の使用者が同一の仮想空間を共有す
る場合それ以上となる。
These are functionally similar to the first embodiment, except that 3 has a data structure of an object in the same virtual space as the other two. If there is only one user, there are one or two hand models, and more if multiple users share the same virtual space.

【0027】使用者は、パレット上の絵の具を楽器に塗
布するような動作を行うことによって、楽器の表面に好
みの音色を配置していく。具体的な手順は、以下の通り
である。
The user arranges a desired tone color on the surface of the musical instrument by performing an operation of applying a paint on the pallet to the musical instrument. The specific procedure is as follows.

【0028】1. パレットの選択。図12の画面1220に
示すとおり、パレット化のボタンを押してから、既に存
在する仮想楽器の中より適当なものを選ぶことにより、
その仮想楽器をパレットの状態にする。
1. Palette selection. As shown in the screen 1220 of FIG. 12, by pressing the button of palletizing, by selecting an appropriate one from the already existing virtual instruments,
Put the virtual instrument in a pallet state.

【0029】2. MIDI情報の選択。図13の画面1310に
示すように、手のモデルによってパレット上のある発音
領域に触れる。これによって、対応するMIDI情報が外部
音源に出力され、かつ、手のモデル上の接触した部分の
色が変わる。
2. Selection of MIDI information. As shown on a screen 1310 in FIG. 13, a certain sounding area on the palette is touched by the hand model. As a result, the corresponding MIDI information is output to the external sound source, and the color of the touched portion on the hand model changes.

【0030】3. 発音領域の設定。図13の画面1320に
示すように、手のモデル上の色の変った部分で楽器に触
れる。色の変った部分と接触した楽器上の表面に、選択
されたMIDI情報を発生させる発音領域が設定される。実
施例1と同様、楽器上での音の混合も可能である。
3. Setting of the sounding area. As shown on a screen 1320 in FIG. 13, the instrument is touched by the color-changed part on the hand model. A sounding area for generating the selected MIDI information is set on the surface of the instrument in contact with the changed color part. As in the first embodiment, it is possible to mix sounds on a musical instrument.

【0031】4. 発音領域の消去。一旦設定した領域を
消去する際には、図13の消去用のパレット1321を用い
る。作業は、通常の領域設定と同様である。これは通常
のデータと同じく透明度の属性を持っており、これによ
って、部分的に発音領域の音量を下げることもできる。
4. Deletion of sound generation area. When erasing the area once set, the pallet 1321 for erasure shown in FIG. 13 is used. The operation is the same as the normal area setting. This has the attribute of transparency like ordinary data, and it is also possible to partially lower the volume of the sound generation area.

【0032】作成された仮想楽器は、手のモデルを接触
させることにより演奏が行われる。演奏する過程では、
物体間の接触が起った際の速度から音量データが計算さ
れ、これが、発音領域に設定された音色データととも
に、MIDI情報として外部音源に出力される。図14
(a)、(b)のように、接触後、手のモデルの一部が
楽器1411の内部にめり込んだ状態の間は、そのめり込ん
だ部分の運動1413によって、音色の一時的装飾、例え
ば、めり込み方が大になるとビブラートが深くかかる。
めり込み部分が接触面1421と平行に動くと音程が連続的
に変化する、等の制御を行うことができる。これらの機
能は楽器単位で設定される。
The created virtual musical instrument is played by contacting a hand model. During the performance process,
Volume data is calculated from the speed at which the contact between the objects occurs, and this is output to the external sound source as MIDI information together with the timbre data set in the sounding area. FIG.
As shown in (a) and (b), while a part of the hand model is sunk into the instrument 1411 after the contact, the temporary embellishment of the timbre, for example, Vibrato is applied deeply when the inset is large.
When the recessed portion moves in parallel with the contact surface 1421, the pitch can be continuously changed. These functions are set for each instrument.

【0033】仮想空間内の物体どうしが衝突が起きれ
ば、擬似的な物理法則に従って、それらの空間的配置が
変化する。これは、通常の仮想現実感システムと同様で
ある。本システムでは、これに加え、発音領域への物体
の接触によってMIDI情報が発生する。使用者は、直接手
のモデルで演奏するだけではなく、物体間の接触によっ
て、より意外性の高い音楽を創造することができる。ま
た、外部モデラーによって予め変形した手のモデルを用
いれば、現実には不可能な演奏を容易に行うことが可能
となる。
When objects in the virtual space collide with each other, their spatial arrangement changes according to pseudo-physical rules. This is similar to a normal virtual reality system. In this system, in addition to this, MIDI information is generated by the contact of the object with the sounding area. The user can not only play directly with the hand model, but also create more unexpected music by contact between objects. If a hand model deformed in advance by an external modeler is used, it is possible to easily perform a performance that is impossible in reality.

【0034】本実施例のソフトウェアの基本的なデータ
構造及びアルゴリズムを図15〜図19に示す。
The basic data structure and algorithm of the software of this embodiment are shown in FIGS.

【0035】仮想空間内の存在物は、図12のパネル12
11を除いて、全て図15の物体というデータで表現され
る。各物体は、3次元表現に必要な形状に関するデータ
を持つ。形状データは、各物体を構成する面素及び頂点
データ等からなる。本ソフトウェアでは、手のモデルは
関節を持った運動を行うので、関節情報等もデータとし
て持っている。他の通常の物体は、単純な剛体模型であ
る。物体の属性の質量は、他の物体との接触による動き
にくさを表わす(ただし、手のモデルとの接触では意味
を持たない)。また、本ソフトウェアでは、物体の変形
は考慮していない。属性の固さは、他の物体が、どの位
めり込まないようにするかを表す。これは、図14に示
したような処理を行う際に重要な意味を持つ。硬すぎる
と、手のモデルが楽器の中に入り込まず、楽器がすぐに
動いてしまう。逆に固さが0だと他の物体との接触で動
き出すことはなくなる。
The entity in the virtual space is the panel 12 in FIG.
Except for 11, all are represented by the data of the object in FIG. Each object has data on the shape required for the three-dimensional representation. The shape data includes surface elements and vertex data constituting each object. In this software, since the hand model performs a joint motion, it also has joint information and the like as data. Other ordinary objects are simple rigid models. The mass of the attribute of an object indicates the difficulty of movement due to contact with another object (however, it has no meaning in contact with a hand model). In this software, the deformation of the object is not considered. The stiffness of the attribute indicates how much other objects do not sink. This is important when performing the processing shown in FIG. If it is too hard, the hand model will not get inside the instrument and the instrument will move quickly. Conversely, if the hardness is 0, it will not start moving when it comes into contact with other objects.

【0036】他のフィールドは、図2のパネルのデータ
構造と類似している。ただし、物体の状態として絵筆の
状態が追加される。これは、実施例1でのマウスカーソ
ルにあたるもの(手のモデル)も、物体のデータとして表
現されるためである。また、発音領域は、本実施例で
は、面素の集合として管理される。各面素上には、物体
の内側から外側に向いた法線ベクトルが定義されてい
る。なお、図17において、MIDIデータ内の2つの音量
パラメータは、実際に出力される音量を物体の衝突の速
さから計算するためのものである。
The other fields are similar to the data structure of the panel shown in FIG. However, the state of the paintbrush is added as the state of the object. This is because a mouse cursor (hand model) in the first embodiment is also represented as object data. Further, in the present embodiment, the pronunciation area is managed as a set of face elements. On each surface element, a normal vector from the inside to the outside of the object is defined. In FIG. 17, two volume parameters in the MIDI data are used to calculate the actually output volume from the collision speed of the object.

【0037】図15の最後の接触処理データは、発音す
る領域と他の物体との接触の状態を管理するためのもの
である。図16に、その管理の仕方の基本的なアルゴリ
ズムを示した。基本的な処理の概要は、以下の通りであ
る。
The last contact processing data in FIG. 15 is for managing the state of contact between the sounding area and another object. FIG. 16 shows a basic algorithm of the management method. The outline of the basic processing is as follows.

【0038】ある領域の面素をある物体上の頂点が初め
て通過したなら、その領域と物体の組を、面素と頂点と
共に記憶する。この時、図17の接触処理が呼ばれる。
初めに接した際の面素と頂点は、音量の計算や図19中
のドラッグ処理で用いられる。その物体が領域と空間的
な交わりが無くなったら、図18の解放処理が呼ばれ、
その組は接触管理のテーブルから除かれる。なお、空間
的な配置の変化を引き起す物体間の接触の検出等につい
ては、通常の仮想空間システムと同様なので、図18に
は示さなかった。また、図20の領域設定処理は、基本
的には、実施例1の図9と同様である。
When a vertex on a certain object passes through a plane element in a certain area for the first time, a set of the area and the object is stored together with the plane element and the vertex. At this time, the contact processing of FIG. 17 is called.
The face elements and vertices at the time of the first contact are used in the calculation of the volume and the drag processing in FIG. When the object no longer spatially intersects with the area, the release process of FIG. 18 is called,
The pair is removed from the contact management table. Note that detection of contact between objects causing a change in spatial arrangement and the like are not shown in FIG. 18 because they are the same as in a normal virtual space system. The area setting process in FIG. 20 is basically the same as that in FIG. 9 of the first embodiment.

【0039】[0039]

【発明の効果】本発明により、計算機画面上に、自由な
形状を持つ機能領域を容易にデザインできるようになっ
た。これによって、使用者は、自分の嗜好にあった計算
機のインターフェイスを容易で構成できるようになっ
た。
According to the present invention, a functional area having a free shape can be easily designed on a computer screen. This allows the user to easily configure a computer interface that suits his / her taste.

【0040】本発明により、計算機画面上に、自由な形
状を持つ楽器の機能を模した図形を容易にデザインでき
るようになった。また、これにより、計算機を通して音
楽を演奏するという娯楽を使用者に与えることができ
た。
According to the present invention, it is possible to easily design a figure imitating the function of a musical instrument having a free shape on a computer screen. This also provided the user with the entertainment of playing music through a computer.

【0041】本発明により、仮想3次元の世界で、使用
者は自由な形状の楽器を作成し、演奏することが可能と
なった。これによって、使用者の計算機を通した音楽的
創造性活動に新たな可能性を提供した。
According to the present invention, it becomes possible for a user to create and play a musical instrument having a free shape in a virtual three-dimensional world. This has provided new possibilities for musical creativity activities through the user's computer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)〜(c)はそれぞれ実施例1のソフトウ
ェアで楽器を模擬した図形を作成する作業の概略図。
FIGS. 1A to 1C are schematic diagrams showing operations for creating a figure simulating a musical instrument using the software of the first embodiment.

【図2】実施例1のソフトウェアのデータ構造図。FIG. 2 is a data structure diagram of software according to the first embodiment.

【図3】実施例1のソフトウェアでのマウスクリック時
の処理図。
FIG. 3 is a processing diagram when a mouse is clicked by the software of the first embodiment.

【図4】実施例1のソフトウェアでのマウスドラッグ時
の処理図。
FIG. 4 is a processing diagram at the time of mouse dragging by the software of the first embodiment.

【図5】実施例1のソフトウェアでのマウスリリース時
の処理図。
FIG. 5 is a processing diagram at the time of mouse release by the software of the first embodiment.

【図6】実施例1のソフトウェアでのキーノートオン処
理図。
FIG. 6 is a key note-on processing diagram using software according to the first embodiment.

【図7】実施例1のソフトウェアでのキーノートオフ処
理図。
FIG. 7 is a diagram showing a key note off processing by software of the first embodiment.

【図8】実施例1のソフトウェアでのドラッグ時の音源
制御図。
FIG. 8 is a sound source control diagram at the time of dragging by the software of the first embodiment.

【図9】実施例1のソフトウェアでの発音領域の設定処
理図。
FIG. 9 is a diagram illustrating a setting process of a sound generation area in software according to the first embodiment.

【図10】実施例1のソフトウェアの作成さた図形の例
示図。
FIG. 10 is an exemplary diagram of a graphic created by the software of the first embodiment.

【図11】実施例2の仮想現実感を実現するシステムの
構成図。
FIG. 11 is a configuration diagram of a system that realizes virtual reality according to a second embodiment.

【図12】(a)、(b)はそれぞれ実施例2のソフト
ウェアでのパレットの選択図。
FIGS. 12A and 12B are pallet selection diagrams using software according to the second embodiment.

【図13】(a)、(b)はそれぞれ実施例2のソフト
ウェアでの楽器作成図。
FIGS. 13A and 13B are musical instrument creation diagrams using software according to the second embodiment.

【図14】(a)、(b)はそれぞれ実施例2のソフト
ウェアで楽器演奏時の楽音の一時的変化をもたらす方法
図。
FIGS. 14A and 14B are diagrams showing a method of causing a musical tone to change temporarily when playing a musical instrument using the software of the second embodiment.

【図15】実施例2のソフトウェアのデータ構造図。FIG. 15 is a data structure diagram of software according to the second embodiment.

【図16】実施例2のソフトウェアのメイン部の処理
図。
FIG. 16 is a processing diagram of a main part of software according to the second embodiment.

【図17】実施例2のソフトウェアでの発音領域と物体
との接触の処理図。
FIG. 17 is a processing diagram of contact between a sound generation area and an object by software according to the second embodiment.

【図18】実施例2のソフトウェアでの発音領域と物体
とが離れた場合の処理図。
FIG. 18 is a processing diagram of the software according to the second embodiment when a sound generation area and an object are separated.

【図19】実施例2のソフトウェアでの発音領域に物体
がめり込んでいる場合の処理図。
FIG. 19 is a processing diagram of the software according to the second embodiment when an object is immersed in a sound generation area.

【図20】実施例2のソフトウェアでの発音領域設定処
理図。
FIG. 20 is a diagram illustrating a tone generation area setting process using software according to the second embodiment.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】計算機画面上の座標点を指定する装置を用
いて座標点を指定することにより、プログラム実行命令
を発生させることが可能な座標点を含む計算機画面上の
領域を設定する仮想楽器作成方法において、前記領域に
対応した図形の輪郭線を画面上に描画することによっ
て、前記領域の設定を行うことを特徴とする仮想楽器作
成方法。
1. A virtual musical instrument for setting an area on a computer screen including a coordinate point capable of generating a program execution instruction by specifying a coordinate point using an apparatus for specifying a coordinate point on the computer screen. The method of creating a virtual musical instrument, wherein the setting of the area is performed by drawing an outline of a figure corresponding to the area on a screen.
【請求項2】計算機画面上の座標点を指定する装置を用
いて座標点を指定することにより、プログラム実行命令
を発生させることが可能な座標点を含む計算機画面上の
領域を設定する仮想楽器作成方法において、前記座標点
指定装置によって画具で絵の具を塗布する作業を模擬し
た行為を行うことによって、前記領域の設定を行うこと
を特徴とする仮想楽器作成方法。
2. A virtual musical instrument for setting an area on a computer screen including a coordinate point capable of generating a program execution instruction by specifying a coordinate point using an apparatus for specifying a coordinate point on the computer screen. The method of creating a virtual musical instrument, wherein the area is set by simulating an operation of applying a paint with a paint by the coordinate point specifying device.
【請求項3】計算機画面上の座標点を指定する装置を用
いて座標点を指定することにより、計算機に対してMIDI
情報を外部音源に出力するプログラムの実行命令を発生
させることが可能な座標点を含む計算機画面上の領域を
複数個設定し、前記座標点指定装置によって演奏可能な
楽器を模擬した図形を画面上に作成することを特徴とす
る仮想楽器作成方法。
3. Specifying a coordinate point using an apparatus for specifying a coordinate point on a computer screen allows the computer to receive MIDI data.
A plurality of areas on the computer screen including coordinate points capable of generating an execution instruction of a program for outputting information to an external sound source are set, and a figure simulating a musical instrument playable by the coordinate point specifying device is displayed on the screen. A method for creating a virtual instrument, comprising:
【請求項4】計算機の記憶装置上に構成される複数個の
3次元物体の表示が可能なソフトウェアによって実現さ
れる仮想的3次元空間を用い、3次元物体の表面上に、
異なる3次元物体との接触によって、計算機に対してMI
DI情報を外部音源に出力するプログラムの実行命令を発
生させる領域を設定し、上記3次元物体間の接触を引き
起すことによって、演奏可能となる楽器を模擬した3次
元物体を作成することを特徴とする仮想楽器作成方法。
4. Using a virtual three-dimensional space realized by software capable of displaying a plurality of three-dimensional objects formed on a storage device of a computer,
MI contact the computer by contact with different 3D objects
It is characterized in that an area for generating an execution instruction of a program for outputting DI information to an external sound source is set, and a contact between the three-dimensional objects is generated to create a three-dimensional object simulating a musical instrument that can be played. How to create a virtual instrument.
【請求項5】外部における実3次元空間中での運動を検
知する外部装置と、この装置によって検知された運動を
仮想空間中の3次元物体の運動として呈示するソフトウ
ェアとを備え、3次元物体表面に画具で絵の具を塗布す
る作業を模擬した行為を行い、異なる3次元物体との接
触によって計算機に対してMIDI情報を外部音源に出力す
ることを特徴とする仮想楽器。
5. A three-dimensional object comprising: an external device for detecting a motion in a real three-dimensional space outside; and software for presenting the motion detected by the device as a motion of a three-dimensional object in a virtual space. A virtual musical instrument characterized by performing an act of simulating a work of applying paint with paint on a surface, and outputting MIDI information to an external sound source to a computer by contact with a different three-dimensional object.
JP8296152A 1996-11-08 1996-11-08 Formation of virtual musical instrument Pending JPH10143155A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8296152A JPH10143155A (en) 1996-11-08 1996-11-08 Formation of virtual musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8296152A JPH10143155A (en) 1996-11-08 1996-11-08 Formation of virtual musical instrument

Publications (1)

Publication Number Publication Date
JPH10143155A true JPH10143155A (en) 1998-05-29

Family

ID=17829836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8296152A Pending JPH10143155A (en) 1996-11-08 1996-11-08 Formation of virtual musical instrument

Country Status (1)

Country Link
JP (1) JPH10143155A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051759A (en) * 1999-08-12 2001-02-23 Nec Corp Operation reaction sound generating device and recording medium where operation reaction sound generating program is recorded
JP2009103930A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051759A (en) * 1999-08-12 2001-02-23 Nec Corp Operation reaction sound generating device and recording medium where operation reaction sound generating program is recorded
JP2009103930A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program

Similar Documents

Publication Publication Date Title
Zhang et al. Flowmatic: An immersive authoring tool for creating interactive scenes in virtual reality
US20110191674A1 (en) Virtual musical interface in a haptic virtual environment
Winograd From programming environments to environments for designing
US20040080507A1 (en) Freely specifiable real-time control
Medeiros et al. Challenges in designing new interfaces for musical expression
Eastgate The structured development of virtual environments: enhancing functionality and interactivity
Kurmann Sculptor-A tool for intuitive architectural design
Tormoen et al. The Composing Hand: Musical Creation with Leap Motion and the BigBang Rubette.
Malloch et al. Input devices and music interaction
JPH10143155A (en) Formation of virtual musical instrument
Deacon et al. Spatial Design Considerations for Interactive Audio in Virtual Reality
de Lima Costa et al. Songverse: a digital musical instrument based on virtual reality
Wright et al. CyberBand: a" hands-on" music composition program
Malaka et al. Using Natural User Interfaces for Previsualization.
JP3105421B2 (en) Applied program controller
Ehmann et al. A touch‐enabled system for multi‐resolution modeling and 3D painting
Piccolotto Sketchpad+: architectural modeling through perspective sketching on a pen-based display
JP2000338965A (en) Display method and display device for midi data, and music displayed with midi data
Simsarian et al. Shared Spatial Desktop Development
Ning et al. The music pattern: A creative tabletop music creation platform
Metoyer et al. A Tangible Interface for High-Level Direction of Multiple Animated Characters.
JP3890936B2 (en) Performance learning apparatus and performance learning processing program
JP5099335B2 (en) Sound data generating apparatus and program
Moore et al. Interactive real-time concatenative synthesis in virtual reality
JP3360604B2 (en) Display device for musical tone control element group and recording medium storing display program for musical tone control element group