JP2000276138A - Music sound controller - Google Patents

Music sound controller

Info

Publication number
JP2000276138A
JP2000276138A JP11078035A JP7803599A JP2000276138A JP 2000276138 A JP2000276138 A JP 2000276138A JP 11078035 A JP11078035 A JP 11078035A JP 7803599 A JP7803599 A JP 7803599A JP 2000276138 A JP2000276138 A JP 2000276138A
Authority
JP
Japan
Prior art keywords
area
sounding
tone
display surface
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11078035A
Other languages
Japanese (ja)
Other versions
JP3637802B2 (en
Inventor
Junichi Mishima
順一 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP07803599A priority Critical patent/JP3637802B2/en
Publication of JP2000276138A publication Critical patent/JP2000276138A/en
Application granted granted Critical
Publication of JP3637802B2 publication Critical patent/JP3637802B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Rehabilitation Tools (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To control the issuing of music sound by detecting the position of a mobile operation object. SOLUTION: A position detecting part 21 inputs image data of a subject on an image memory and detects the position of a specified part in the subject on an image display surface obtained by photographing the subject. A sound issuing area setting part 23 sets a plurality of sound issuing areas on the image display surface and also music sound to be issued are assigned to each sound issuing area. A sound issuing indicating part 22 inputs the position detecting output of the part 21 and the setting output of the part 23, and executes judgement concerning the movement condition of the specified part of the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、移動する操作物体
の位置を検出することにより楽音の発音を制御する楽音
制御装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a musical tone control device for controlling the generation of musical tones by detecting the position of a moving operation object.

【0002】[0002]

【従来の技術】手足の麻痺、関節障害、筋力低下等の機
能障害がある障害者のリハビリテーションとして運動療
法が行われている。しかし、単調であるため、リハビリ
テーションに対する意欲がわかないという問題がある。
従来、運動療法において、身体の動きに音楽を連動させ
て、楽しみながら身体能力を回復させるための支援装置
が知られていなかった。一方、電子楽器の操作入力に関
する技術として、従来より、特開平9−68974号公
報等で知られているような、身振りに応じて楽音を発音
する電子楽器がある。しかし、これは健常者が扱う楽器
そのものであり、身体能力を回復させるために使用する
ことも可能であるが、身体能力の回復を支援することを
特に意識して作られたものではない。
2. Description of the Related Art Exercise therapy is used as rehabilitation for persons with dysfunctions such as paralysis of limbs, joint disorders and muscular weakness. However, since it is monotonous, there is a problem that the motivation for rehabilitation is not understood.
Conventionally, in exercise therapy, there has been no known support apparatus for recovering physical ability while having fun by linking music to body movements. On the other hand, as a technique related to operation input of an electronic musical instrument, there is an electronic musical instrument that produces a musical sound in response to a gesture, as is known in Japanese Patent Application Laid-Open No. 9-68974. However, this is the musical instrument used by a healthy person and can be used for restoring physical ability, but it is not made especially with a view to supporting the restoration of physical ability.

【0003】また、これまでの電子楽器の操作入力装置
を考えると、従来、鍵盤などのように、操作にかなりの
熟練を要するものが多い。一方、上述した身振りに応じ
て楽音を発音する電子楽器は、特殊な入力装置を体に装
着しなければ演奏することができず、しかも、発音され
る楽音だけを頼りに入力するものであり、視覚的に確認
しながら楽音の入力を行うことができないという問題が
あった。そのため、操作装置に身体を拘束されることな
く、空間中を操作者が手足を自由に動かすことにより、
空間全体を楽器の鍵盤のような操作部に見立てて、楽音
を発生させることができ、視覚的にも操作の確認が行え
るような楽器が望まれていた。このような楽器であれ
ば、電子楽器の操作入力装置としての改良にとどまら
ず、操作者にうまく演奏しようとする意欲が生まれ、こ
の点から、手足等を動かすリハビリテーション用の支援
装置としても期待できる。
[0003] Considering conventional operation input devices for electronic musical instruments, there are many devices such as a keyboard that require considerable skill in operation. On the other hand, an electronic musical instrument that produces musical sounds in response to the above-described gestures cannot be played unless a special input device is attached to the body, and furthermore, inputs only relying on musical sounds that are produced, There has been a problem that it is not possible to input a musical tone while visually confirming it. Therefore, the operator can freely move his or her limbs in the space without being restrained by the operating device,
There has been a demand for a musical instrument capable of generating a musical sound by visually recognizing an entire space as an operation unit such as a keyboard of the musical instrument and capable of visually confirming the operation. With such a musical instrument, not only the improvement as an operation input device of an electronic musical instrument but also the desire to perform well by the operator is born, and from this point, it can be expected as a support device for rehabilitation for moving limbs and the like. .

【0004】[0004]

【発明が解決しようとする課題】本発明は、上述した問
題点を解決するためになされたもので、特別な操作入力
装置を身体に取り付けることなく、移動する操作物体の
位置を検出することにより簡単に楽音の発音を制御する
ことができる新規な楽音制御装置を提供することを目的
とするものである。電子楽器の入力装置としても、簡単
に演奏することができるようにし、また、リハビリテー
ションの身体能力回復のための支援装置、あるいは身体
機能の向上のための支援装置としても用いることができ
るようにした。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is intended to detect the position of a moving operation object without attaching a special operation input device to the body. It is an object of the present invention to provide a new tone control device capable of easily controlling the tone generation. As an input device for an electronic musical instrument, it can be easily played, and can also be used as a support device for rehabilitation in recovering physical ability or a support device for improving physical functions. .

【0005】[0005]

【課題を解決するための手段】本発明は、請求項1に記
載の発明においては、移動する操作物体の位置を検出し
て楽音の発音を制御する楽音制御装置であって、前記操
作物体の位置を検出する位置検出手段と、前記位置検出
手段の出力を入力し、前記操作物体の任意の基準位置か
ら前記操作物体の現在位置までの移動時間および前記操
作物体の現在位置の両要素に少なくとも応じて前記楽音
を発音させるか否かを決定し、前記楽音を発音させる場
合に前記楽音の発音を指示する発音指示手段とを有する
ものである。したがって、操作物体の任意の基準位置か
ら現在位置までの移動時間および操作物体の現在位置に
関する所定の移動条件を満足したときに、楽音が発音さ
れる。
According to the first aspect of the present invention, there is provided a musical tone control apparatus for detecting a position of a moving operation object and controlling the generation of a musical sound. Position detection means for detecting a position, input of the output of the position detection means, at least the movement time from any reference position of the operation object to the current position of the operation object and the current position of the operation object at least both elements And determining whether or not the musical tone is to be sounded in response thereto, and, when the musical tone is to be sounded, comprising sounding instructing means for instructing the sounding of the musical sound. Therefore, a musical tone is generated when a predetermined moving condition relating to a moving time from an arbitrary reference position of the operation object to the current position and the current position of the operation object is satisfied.

【0006】その結果、操作者の手、頭、あるいは、手
に持つカードや棒等の操作物体が特定の移動条件を満た
す場合にのみ、楽音を発生させる、身振り式の新規な楽
音制御装置としても使用することもできる。また、決め
られた移動条件を意識して操作物体が操作されないと、
望むような楽音を発生しないことから、操作物体の操作
者にうまく演奏しようとする意欲が生まれ、リハビリテ
ーションにつながる支援装置ともなる。より具体的に
は、例えば、操作物体の現在の位置は、特定の1つまた
は複数の発音領域の1つにあることを第1条件とする。
例えば、基準位置から現在位置までの移動するのに要し
た時間が所定時間以上であることを第2条件とする。こ
の所定時間は、操作物体の移動速度等を考慮することに
より、任意に設定変更されるものである。基準位置は、
例えば、操作物体の存在が検出された、最初または直前
の位置、あるいは、操作物体の所定の登録位置とするこ
とができる。複数の発音領域の音高は、絶対座標上にお
ける発音領域の位置に応じて割り当てる。あるいは、基
準位置を所定の音高として、基準位置に対する相対位置
(相対距離である場合を含む)に応じて割り当てる。
As a result, a new gesture-type musical sound control device that generates a musical sound only when an operating object such as a card, a stick, or the like held by the operator's hand, head, or hand holds a specific moving condition. Can also be used. Also, if the operation object is not operated in consideration of the determined moving conditions,
Since the desired musical sound is not generated, the operator of the operation object is motivated to play well, and the support device leads to rehabilitation. More specifically, for example, the first condition is that the current position of the operation object is in one of one or more specific sounding regions.
For example, the second condition is that the time required to move from the reference position to the current position is equal to or longer than a predetermined time. The predetermined time can be arbitrarily set and changed by considering the moving speed of the operation object and the like. The reference position is
For example, it may be the first or immediately preceding position where the presence of the operation object is detected, or a predetermined registration position of the operation object. The pitches of the plurality of sounding regions are assigned according to the positions of the sounding regions on the absolute coordinates. Alternatively, the reference position is assigned as a predetermined pitch in accordance with a relative position (including a relative distance) with respect to the reference position.

【0007】請求項2に記載の発明においては、楽音制
御装置において、被写体を撮影した画像表示面上におけ
る前記被写体の特定部分の位置を検出する位置検出手段
と、前記画像表示面上に少なくとも1つの発音領域を設
定するとともに、前記発音領域に対して発音させる楽音
を割り当てる発音領域設定手段と、前記位置検出手段の
出力を入力し、前記特定部分が、前記画像表示面上の、
ある1つの領域に存在しなくなったと判定されてから所
定時間経過後に、前記ある1つの領域とは異なる前記画
像表示面上の他の領域に存在すると判定され、かつ、前
記他の領域が前記発音領域に属すると判定されたとき
に、現在、前記特定部分が存在する前記発音領域に割り
当てられた楽音の発音を指示する発音指示手段とを有す
るものである。
According to a second aspect of the present invention, in the musical tone control device, position detecting means for detecting a position of a specific portion of the subject on an image display surface on which the subject is photographed, and at least one position on the image display surface. A sounding area setting means for assigning musical tones to be sounded to the sounding area, and an output of the position detecting means, wherein the specific portion is on the image display surface.
After a lapse of a predetermined time since it is determined that the one area does not exist, it is determined that the one area is present in another area on the image display surface different from the one area, and the other area is generated by the sound generation. When it is determined that the tone belongs to the area, the apparatus further comprises a sounding instruction unit that instructs the sounding of the musical tone assigned to the sounding area where the specific portion currently exists.

【0008】したがって、被写体の特定部分の移動状況
を楽音の発音によって知ることができる。また、操作物
体の位置を、この操作物体を被写体の特定部分として撮
影した画像表示面上で容易に認識することができる。被
写体の特定部分が所定の移動条件を満たす場合にのみ、
楽音を発音させることができるから、操作物体を恣意的
に移動しないと、望むような楽音を発生しない。その結
果、操作物体の操作者にうまく演奏しようとする意欲が
生まれるために、操作者の身体、腕、足等を動かすリハ
ビリテーションの支援装置として有効である。また、被
写体の特定部分が真に目的を持って異なる発音領域に移
動したことを、操作者に確認させることができる。
[0008] Therefore, it is possible to know the moving state of a specific part of the subject by the tone generation. Further, the position of the operation object can be easily recognized on an image display surface obtained by photographing the operation object as a specific portion of the subject. Only when the specific part of the subject satisfies the predetermined moving condition,
Since a musical tone can be generated, a desired musical tone is not generated unless the operation object is arbitrarily moved. As a result, the operator of the operation object is motivated to play well, and thus is effective as a rehabilitation support device that moves the body, arms, and legs of the operator. Further, it is possible to make the operator confirm that the specific part of the subject has truly moved to a different sounding area with a purpose.

【0009】なお、1または複数の発音領域は、画像表
示面の絶対座標上で割り当てることができる他、基準位
置からの相対位置(相対距離)によって割り当てること
もできる。この基準位置としては、被写体の特定部分が
最初停止していた位置、画像認識のために最初画像を登
録した位置などとすることができる。上述した発音指示
手段は、より具体的には、最初に前記特定部分が実質的
に停止状態にある時を初期状態として判定を開始し、前
記特定部分が再び実質的に停止状態になったときに、現
在の実質的な停止状態を前記初期状態として再び判定を
開始する構成にすれば、継続的に楽音制御動作を行うこ
とができる。
[0009] One or a plurality of sound emission areas can be assigned on the absolute coordinates of the image display surface, or can be assigned based on a relative position (relative distance) from a reference position. The reference position may be a position where the specific part of the subject is initially stopped, a position where the image is first registered for image recognition, or the like. More specifically, the above-described sounding instruction means starts the determination as the initial state when the specific portion is substantially in the stopped state first, and when the specific portion is substantially again stopped in the initial state. Further, if the determination is started again with the current substantially stopped state as the initial state, the tone control operation can be continuously performed.

【0010】請求項3に記載の発明においては、請求項
2に記載の楽音制御装置において、前記発音指示手段
は、前記特定部分の位置が、前記所定時間経過後に、前
記ある1つの領域と同じ領域にあることが判定され、か
つ、前記ある領域が前記発音領域にあると判定されたと
きにも、現在、前記特定部分が位置する前記発音領域に
割り当てられた楽音の発音を指示するものである。した
がって、画像表示面上において、被写体の特定部分が、
発音領域である、ある1つの領域に存在することが検出
できないような状態に操作すれば、この発音領域に割り
当てられた楽音の発音を再度指示することができる。よ
り具体的な操作としては、被写体の特定部分を、故意に
画面の奥行き方向の、前方あるいは後方に移動させた
り、被写体の特定部分の形を一時的に変化させたりすれ
ばよい。その結果、被写体の特定部分の奥行き方向の移
動や、形を変える運動を楽音によって確認することがで
きる。また、身振り式の楽音制御装置としてみた場合に
は、同じ楽音を繰り返し発音指示することができる。
According to a third aspect of the present invention, in the musical tone control device according to the second aspect, the sound generation instruction means may be configured such that the position of the specific portion is the same as the certain area after the predetermined time has elapsed. It is also instructed to sound a tone assigned to the sounding area where the specific portion is located, even when it is determined that the sound is in the sounding area and when the certain area is judged to be in the sounding area. is there. Therefore, on the image display surface, the specific portion of the subject is
If the operation is performed in such a state that it cannot be detected that the tone is present in a certain sound emitting area, it is possible to instruct the sound generation assigned to the sound emitting area again. As a more specific operation, the specific portion of the subject may be intentionally moved forward or backward in the depth direction of the screen, or the shape of the specific portion of the subject may be temporarily changed. As a result, the movement of the specific part of the subject in the depth direction and the movement of changing the shape can be confirmed by the musical sound. Also, when viewed as a gesture-type tone control device, the same tone can be repeatedly instructed to sound.

【0011】請求項4に記載の発明においては、請求項
2または3に記載の楽音制御装置において、前記発音領
域設定手段は、前記画像表示面上の所定の方向に複数の
発音領域を設定し、前記所定の方向に沿った前記各発音
領域の順序に応じた音高の楽音を割り当てるものであ
る。したがって、この複数の発音領域の配列により音階
スケールを構成することになり、被写体の特定部分の移
動方向を楽音によって知ることができる。なお、このと
き、複数の発音領域の方向と直交する方向には、発音領
域の範囲を制限(矩形状の発音領域とする)したり、あ
るいは、制限しないようにする(帯状の発音領域とす
る)ことができる。発音領域の範囲を制限した場合に
は、さらに音高のオクターブが異なるなどの、異なる楽
音の発音領域の配列を複数列設けることもできる。
According to a fourth aspect of the present invention, in the musical tone control device according to the second or third aspect, the sounding area setting means sets a plurality of sounding areas in a predetermined direction on the image display surface. And assigning musical tones of pitches according to the order of the sounding regions along the predetermined direction. Therefore, the scale of the scale is constituted by the arrangement of the plurality of sounding regions, and the moving direction of the specific portion of the subject can be known by the musical sound. At this time, in the direction orthogonal to the directions of the plurality of sounding regions, the range of the sounding region is limited (a rectangular sounding region) or is not restricted (a band-like sounding region). )be able to. When the range of the tone generation area is limited, a plurality of rows of tone generation areas of different musical tones such as different pitch octaves can be provided.

【0012】請求項5に記載の発明においては、請求項
4に記載の楽音制御装置において、前記発音領域設定手
段は、外部入力信号により、前記所定の方向を設定する
ものである。したがって、被写体の特定部分の動きに合
わせて、複数の発音領域の配列方向を設定することがで
きる。その結果、リハビリテーションの支援装置として
用いたときに、操作者は、身体、腕、足等を動かすこと
が可能な方向に発音領域の配列方向に合わせることによ
り、どこまで動かすことができるかを楽音により確認す
ることができる。身振り式の楽音制御装置としてみた場
合にも、現在の姿勢での身体、腕、足等を動かしやすい
方向に発音領域の配列方向を合わせることができる。
According to a fifth aspect of the present invention, in the tone control device of the fourth aspect, the sounding area setting means sets the predetermined direction by an external input signal. Therefore, the arrangement direction of a plurality of sound emission regions can be set in accordance with the movement of the specific portion of the subject. As a result, when used as a support device for rehabilitation, the operator adjusts the direction of the sounding area to the direction in which the body, arms, feet, etc. can be moved, so that the operator can determine how far the sound can be moved. You can check. Even in the case of a gesture-type musical sound control device, the arrangement direction of the sounding regions can be adjusted to a direction in which the body, arms, legs, and the like in the current posture are easy to move.

【0013】請求項6に記載の発明においては、楽音制
御装置において、被写体を撮影した画像表示面上におけ
る前記被写体の第1および第2の特定部分の位置を検出
する位置検出手段と、前記画像表示面上に少なくとも1
つの発音領域を設定するとともに、前記発音領域に対し
て発音させる楽音を割り当てる発音領域設定手段と、前
記位置検出手段の出力を入力し、前記第1の特定部分
が、前記画像表示面上のある1つの領域に存在しなくな
ったと判定されてから所定時間経過後に、前記ある1つ
の領域とは異なる前記画像表示面上の他の領域に存在す
ると判定され、かつ、前記他の領域が前記発音領域に属
すると判定されたときに、現在、前記第1の特定部分が
存在する前記発音領域に割り当てられた楽音の発音を第
1の音色で行うように指示するとともに、前記第2の特
定部分が、前記画像表示面上のある1つの領域に存在し
なくなったと判定されてから所定時間経過後に、前記あ
る1つの領域とは異なる前記画像表示面上の他の領域に
存在すると判定され、かつ、前記他の領域が前記発音領
域に属すると判定されたときに、現在、前記第2の特定
部分が存在する前記発音領域に割り当てられた楽音の発
音を前記第1の音色とは異なる第2の音色で行うように
指示する発音指示手段とを有するものである。したがっ
て、異なる2つの音色の楽音の発音を指示することがで
きる。その結果、リハビリテーションの支援装置として
用いたときに、操作者は、身体、腕、足等の関連した動
きを音色の違いにより同時に確認することができる。
According to a sixth aspect of the present invention, in the musical tone control device, position detecting means for detecting positions of first and second specific portions of the subject on an image display surface on which the subject is photographed, and At least one on the display surface
Sounding area setting means for setting one sounding area and assigning a musical tone to be sounded to the sounding area, and inputting the output of the position detecting means, wherein the first specific portion is located on the image display surface. After a lapse of a predetermined time since it is determined that the one area does not exist, it is determined that the one area is present in another area on the image display surface different from the one area, and the other area is the sound generation area. When it is determined that the second specific part belongs to the first timbre, it is instructed that the tone assigned to the tone generation area in which the first specific part currently exists is to be produced by the first timbre. After a predetermined period of time has elapsed after it has been determined that there is no longer any one area on the image display surface, it is determined that there is another area on the image display surface different from the one area. And when it is determined that the other area belongs to the sounding area, the tone of the musical tone assigned to the sounding area where the second specific portion is present is different from the first tone color. And sounding instructing means for instructing to perform the second tone. Therefore, it is possible to instruct the tone generation of two different tone colors. As a result, when used as a rehabilitation support device, the operator can simultaneously check related movements of the body, arms, legs, and the like based on differences in timbre.

【0014】請求項7に記載の発明においては、楽音制
御装置において、被写体を撮影した画像表示面上におけ
る前記被写体の第1および第2の特定部分の位置を検出
する位置検出手段と、前記画像表示面上に少なくとも1
つの発音領域を設定するとともに、前記発音領域に対し
て発音させる楽音を割り当てる発音領域設定手段と、前
記位置検出手段の出力を入力し、前記第1の特定部分
が、前記画像表示面上のある1つの領域に存在しなくな
ったと判定されてから所定時間経過後に、前記ある1つ
の領域とは異なる前記画像表示面上の他の領域に存在す
ると判定され、かつ、前記他の領域が前記発音領域に属
すると判定されたときに、前記第1の特定部分が存在す
る前記発音領域に割り当てられた楽音の発音を第1の演
奏パートで行うように指示するとともに、前記第2の特
定部分が、前記画像表示面上のある1つの領域に存在し
なくなったと判定されてから所定時間経過後に、前記あ
る1つの領域とは異なる前記画像表示面上の他の領域に
存在すると判定され、かつ、前記他の領域が前記発音領
域に属すると判定されたときに、前記第2の特定部分が
存在する前記発音領域に割り当てられた楽音の発音を第
1の演奏パートとは異なる第2の演奏パートで行うよう
に指示する発音指示手段とを有するものである。したが
って、異なる2つの演奏パート、例えば、メロディーパ
ート、伴奏パートの発音を指示することができる。その
結果、リハビリテーションの支援装置として用いたとき
に、操作者は、身体、腕、足等の関連した動きを演奏パ
ートの違いにより同時に確認することができる。
According to a seventh aspect of the present invention, in the musical tone control device, position detecting means for detecting positions of first and second specific portions of the subject on an image display surface on which the subject is photographed, and At least one on the display surface
A sound generation area setting means for setting one sound generation area and assigning a musical tone to be sounded to the sound generation area; and an output of the position detection means, wherein the first specific portion is located on the image display surface. After a lapse of a predetermined time after it is determined that the region no longer exists in one region, it is determined that the region is present in another region on the image display surface different from the certain region, and the other region is the sound generation region. When it is determined that the second specific part belongs to the first performance part, it is instructed that the tone assigned to the sound generation area where the first specific part exists is to be performed in the first performance part. After a lapse of a predetermined time after it is determined that the area does not exist in one area on the image display surface, it is determined that the area exists in another area on the image display surface different from the one area. In addition, when it is determined that the other area belongs to the sounding area, the sound of the musical tone assigned to the sounding area where the second specific portion is present is changed to a second sound different from the first performance part. Sounding instruction means for instructing the performance part to perform. Therefore, it is possible to instruct the pronunciation of two different performance parts, for example, a melody part and an accompaniment part. As a result, when used as a support device for rehabilitation, the operator can simultaneously check the related movements of the body, arms, legs, etc., depending on the difference in the performance parts.

【0015】請求項8に記載の発明においては、楽音制
御装置において、被写体を撮影した画像表示面上におけ
る前記被写体の第1および第2の特定部分の位置を検出
する位置検出手段と、前記画像表示面上の所定の方向に
複数の発音領域を設定するとともに、前記所定の方向に
沿った前記発音領域の順序に応じた音高の楽音を割り当
てる発音領域設定手段と、前記位置検出手段の出力を入
力し、前記第2の特定部分の位置の変化方向を検出する
とともに、前記第1の特定部分が、前記画像表示面上の
ある1つの領域に存在しなくなったと判定されてから所
定時間経過後に、前記ある1つの領域とは異なる前記画
像表示面上の他の領域に存在すると判定され、かつ、前
記他の領域が前記発音領域に属すると判定されたとき
に、現在、前記第1の特定部分が存在する前記発音領域
に割り当てられた前記音高を識別し、識別された前記音
高を、前記第2の特定部分の位置の変化方向に応じてオ
クターブシフトさせて、前記楽音の発音を指示する発音
指示手段とを有するものである。したがって、被写体の
第2の特定部分の移動方向、例えば、頭(首曲げ)また
は左手の指示に応じて発音させる楽音のオクターブ上
げ、オクターブ下げを容易に行うことができる。
According to the present invention, in the musical tone control device, position detecting means for detecting positions of first and second specific portions of the subject on an image display surface on which the subject is photographed, and Sounding area setting means for setting a plurality of sounding areas in a predetermined direction on a display surface and allocating musical tones having a pitch according to the order of the sounding areas along the predetermined direction, and an output of the position detecting means To detect the direction of change in the position of the second specific portion, and a predetermined time has elapsed since it was determined that the first specific portion did not exist in a certain area on the image display surface. Later, when it is determined that there is another area on the image display surface different from the certain one area, and it is determined that the other area belongs to the sounding area, the first Identifying the pitch assigned to the sounding area where the specific portion is present, shifting the identified pitch by an octave according to the direction of change in the position of the second specific portion, and Sounding instructing means for instructing sound. Therefore, it is possible to easily raise or lower the octave of the musical sound to be generated in accordance with the moving direction of the second specific portion of the subject, for example, the head (bending of the neck) or the left hand.

【0016】請求項9に記載の発明においては、請求項
2ないし8のいずれか1項に記載の楽音制御装置におい
て、記憶手段を有し、該記憶手段は、前記発音指示手段
が、前記楽音の発音を指示するごとに、前記発音の指示
の前回の時刻から今回の時刻までの時間経過情報を、発
音指示される前記楽音の情報とともに記憶するものであ
る。したがって、発音指示された楽音の情報に加えて、
次の楽音が発音指示されるまでの時間経過情報を、先の
楽音の音符の長さとして記憶することができる。記憶さ
れた楽音の情報および時間経過情報は、適宜、演奏期間
を指定して読み出したり、指定された演奏期間のものを
再記憶させることにより、作曲のためのストックフレー
ズとすることができる。
According to a ninth aspect of the present invention, in the musical tone control device according to any one of the second to eighth aspects, the musical tone control device further comprises a storage unit, wherein the storage instruction unit is configured to: Each time the pronunciation of the sound is instructed, the time lapse information from the previous time to the current time of the sounding instruction is stored together with the information of the musical tone to be sounded. Therefore, in addition to the information of the musical tone for which pronunciation is instructed,
Time lapse information until the next musical tone is instructed to be sounded can be stored as the note length of the previous musical tone. The stored musical tone information and time lapse information can be used as a stock phrase for composing by appropriately reading out a specified performance period or storing the specified performance period again.

【0017】請求項10に記載の発明においては、楽音
制御プログラムが記録された記録媒体において、前記楽
音制御プログラムが、被写体を撮影した画像表示面上に
おける前記被写体の特定部分の位置を検出する位置検出
手段と、前記画像表示面上に少なくとも1つの発音領域
を設定するとともに、前記発音領域に対して発音させる
楽音を割り当てる発音領域設定手段と、前記位置検出手
段の出力を入力し、前記特定部分が、前記画像表示面上
の、ある1つの領域に存在しなくなったと判定されてか
ら所定時間経過後に、前記ある1つの領域とは異なる前
記画像表示面上の他の領域に存在すると判定され、か
つ、前記他の領域が前記発音領域に属すると判定された
ときに、現在、前記特定部分が存在する前記発音領域に
割り当てられた楽音の発音を指示する発音指示手段とし
てコンピュータを機能させるためのものである。したが
って、請求項2に記載の楽音制御装置と同様の機能をコ
ンピュータに実行させる記録媒体を提供することができ
る。
In a tenth aspect of the present invention, in the recording medium storing a tone control program, the tone control program detects a position of a specific portion of the subject on an image display surface on which the subject is photographed. Detecting means, at least one sounding area on the image display surface, sounding area setting means for assigning a musical tone to be sounded to the sounding area, and an output of the position detecting means, Is determined, after a lapse of a predetermined time since it is determined that it does not exist in a certain area on the image display surface, is determined to exist in another area on the image display surface different from the certain one area, And when it is determined that the other area belongs to the sounding area, the tone assigned to the sounding area where the specific portion currently exists. It is for causing a computer to function as a sounding instruction means for instructing the sound. Therefore, it is possible to provide a recording medium that causes a computer to execute the same functions as those of the tone control device according to the second aspect.

【0018】[0018]

【発明の実施の形態】図1は、本発明の楽音制御装置の
実施の一形態の第1の説明図である。図1(a)は使用
状態図、図1(b)は登録時における画像表示面の一部
を示す説明図である。図1(a)において、1は操作
者、1aは手、2はコンピュータ本体部である。コンピ
ュータ本体部2には、キーボード3、画像表示装置(C
RTディスプレイ)4、スピーカ5、ビデオカメラ6が
接続されている。この実施の一形態においては、汎用コ
ンピュータ2は、ビデオカメラ6からの映像信号を処理
するカードと楽音信号を生成するサウンドカードを内蔵
している。操作者1は、画像表示装置4に向かって、手
1aを動かす。操作者1の像は、ビデオカメラ6により
撮影され、コンピュータ本体部2において画像処理さ
れ、同時に画像表示装置4に表示される。操作者1は、
画像表示面を見ながら手1aを動かしたり、ポーズを取
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a first explanatory diagram of an embodiment of a tone control device according to the present invention. FIG. 1A is a use state diagram, and FIG. 1B is an explanatory diagram showing a part of an image display surface at the time of registration. In FIG. 1A, 1 is an operator, 1a is a hand, and 2 is a computer main body. A keyboard 3 and an image display device (C
RT display) 4, a speaker 5, and a video camera 6 are connected. In this embodiment, the general-purpose computer 2 includes a card for processing a video signal from the video camera 6 and a sound card for generating a musical sound signal. The operator 1 moves the hand 1 a toward the image display device 4. The image of the operator 1 is photographed by the video camera 6, image-processed in the computer main body 2, and simultaneously displayed on the image display device 4. Operator 1
Move the hand 1a or take a pose while looking at the image display surface.

【0019】図1(b)に示す登録時における画像表示
面において、11は操作者の表示画像、11aは手の表
示画像、12は認識ウインドウ、13は発音領域であ
る。手1aを被写体の特定部分(パーツ)とする場合を
例示する。登録時には、画像表示面4aの所定領域に、
手の表示画像11aを認識させるための認識ウインドウ
12を画定し、この認識ウインドウ12内の表示画像を
登録する。この後の演奏時に、手1aを動かすと、画像
表示面4a上において、手の表示画像11aが移動する
とともに、これに追従して、認識ウインドウ12を移動
させる。画像表示面4a上の複数の位置に、発音領域1
3が設定されている。
On the image display surface at the time of registration shown in FIG. 1B, 11 is a display image of the operator, 11a is a display image of the hand, 12 is a recognition window, and 13 is a sound generation area. A case where the hand 1a is a specific part (part) of the subject will be exemplified. At the time of registration, in a predetermined area of the image display surface 4a,
A recognition window 12 for recognizing the hand display image 11a is defined, and a display image in the recognition window 12 is registered. When the hand 1a is moved during the subsequent performance, the display image 11a of the hand moves on the image display surface 4a, and the recognition window 12 is moved following the movement. At a plurality of positions on the image display surface 4a,
3 is set.

【0020】図示の例では、登録時の認識ウインドウ1
2の内部に発音領域13が設けられている。演奏中にお
いては、このような発音領域13内に、手の表示画像1
1aの中心が位置することを判定したときには、この発
音領域13に対応した音高の楽音信号を所定期間にわた
って発音させる。なお、画像表示面4aにおける被写体
の表示は、被写体の鏡像を表示するようにすれば、操作
者1が画像表示面4aを見ながら手1a等を動かすのに
好ましい。
In the example shown in FIG.
2, a sound generation area 13 is provided. During the performance, the hand display image 1
When it is determined that the center of 1a is located, a tone signal having a pitch corresponding to the tone generation area 13 is emitted for a predetermined period. The display of the subject on the image display surface 4a is preferably such that the operator 1 moves the hand 1a while looking at the image display surface 4a by displaying a mirror image of the subject.

【0021】図2は、本発明の楽音制御装置の実施の一
形態の第2の説明図である。図2(a)は機能ブロック
図、図2(b)は、発音指示部が行う判断をフローチャ
ート表現で説明する説明図である。図2(a)中、21
は位置検出部、22は発音指示部、23は発音領域設定
部、21aは被写体特定部分の画像記憶部、21bは画
像認識部である。ビデオカメラ6等の画像入力部から被
写体画像データが画像メモリ等に書き込まれる。位置検
出部21は、この画像メモリ上の被写体画像データを入
力して、被写体を撮影した画像表示面上における被写体
の特定部分の位置を検出する。
FIG. 2 is a second explanatory diagram of one embodiment of the tone control device of the present invention. FIG. 2A is a functional block diagram, and FIG. 2B is an explanatory diagram for explaining a determination made by the sounding instruction unit in a flowchart expression. In FIG. 2A, 21
Is a position detection unit, 22 is a sounding instruction unit, 23 is a sounding region setting unit, 21a is an image storage unit of a subject specific part, and 21b is an image recognition unit. Object image data is written from an image input unit such as the video camera 6 to an image memory or the like. The position detection unit 21 inputs the subject image data in the image memory and detects the position of the specific part of the subject on the image display surface where the subject is photographed.

【0022】位置検出部21は、一例として、被写体特
定部分の画像記憶部21bおよび画像認識部21bを有
するものである。登録モード時において、画像メモリ等
に書き込まれている被写体画像データから、被写体の特
定部分の画像、例えば、被写体の一部分の表示画像を、
被写体特定部分の画像記憶部21bに登録する。なお、
被写体の表示画像の全体を、被写体の特定部分として登
録することもできる。演奏モード時において、被写体の
特定部分は、画像表示面上において位置が移動する。画
像認識部21bは、画像入力部から画像メモリを介して
逐次入力された画像と被写体特定部分の画像記憶部21
bに登録された画像とを比較することにより、被写体の
特定部分の位置を検出する。
The position detecting section 21 has, as an example, an image storing section 21b and an image recognizing section 21b for a specific portion of a subject. At the time of the registration mode, an image of a specific portion of the subject, for example, a display image of a part of the subject is obtained from the subject image data written in the image memory or the like.
It is registered in the image storage unit 21b of the specific part of the subject. In addition,
The entire display image of the subject can be registered as a specific portion of the subject. In the performance mode, the position of the specific portion of the subject moves on the image display surface. The image recognizing unit 21b includes an image sequentially input from the image input unit via the image memory and the image storage unit 21 of the subject specifying portion.
The position of the specific portion of the subject is detected by comparing with the image registered in b.

【0023】発音領域設定部23は、画像表示面上に複
数の発音領域を設定するとともに、各発音領域に対して
発音させる楽音を割り当てる。発音指示部22は、位置
検出部21の位置検出出力および発音領域設定部23の
設定出力を入力し、被写体の特定部分の移動条件に関す
る判定を行う。図2(b)に、この移動条件を示す。
The sounding area setting section 23 sets a plurality of sounding areas on the image display surface and assigns musical tones to be sounded to each sounding area. The sounding instructing unit 22 receives the position detection output of the position detecting unit 21 and the setting output of the sounding region setting unit 23, and determines a moving condition of a specific portion of the subject. FIG. 2B shows the moving conditions.

【0024】S24においては、被写体の特定部分の最
初の位置が初期設定される。初期設定位置は、任意の基
準位置でよいが、例えば、被写体の特定部分の画像を登
録する時の停止位置である。なお、初期設定時において
は、特別に発音指示することもできる。S25において
は、位置検出部21から出力される被写体の特定部分の
位置が、直前の位置に存在するか否かが判定される。直
前の位置に存在しないときにはS26の判定に移り、存
在しているときには、再び、S25の判定を行う。な
お、ここで言う位置とは、ピンポイント的な位置ではな
く、直前に存在が検出されていた位置からわずかに移動
しても、所定の範囲内にあるときには同じ位置にあると
している。すなわち、このような場合には、実質的に停
止しているものとしている。また、直前の位置に存在し
ないと判定される場合としては、第1には、被写体の特
定部分が他の位置に移動したことが検出された場合であ
るが、位置検出部21が被写体の特定部分の存在位置を
検出できなくなった場合もある。
In S24, the initial position of the specific part of the subject is initialized. The initial setting position may be an arbitrary reference position, but is, for example, a stop position when registering an image of a specific portion of the subject. At the time of the initial setting, a special sounding instruction can be given. In S25, it is determined whether or not the position of the specific portion of the subject output from the position detection unit 21 is at the immediately preceding position. When it does not exist at the immediately preceding position, the process proceeds to S26, and when it exists, the determination at S25 is performed again. Note that the position referred to here is not a pinpoint position, but is assumed to be at the same position when it is within a predetermined range even if it slightly moves from the position at which the presence was detected immediately before. That is, in such a case, it is assumed that the vehicle is substantially stopped. The first case where it is determined that the object does not exist at the immediately preceding position is a case where it is detected that the specific portion of the subject has moved to another position. In some cases, the location of the part cannot be detected.

【0025】S26の判定においては、S25において
直前の位置に存在しないと判定されてから所定時間が経
過したか否かを判定し、経過していないときには再びS
26の判定に戻るが、所定時間が経過したときには、S
27の判定を行う。S27の判定においては、位置検出
部21により被写体の特定部分の存在が検出されている
か否かを判定する。被写体の特定部分の存在が検出され
ていないときには、再びS27の判断に戻るが、検出さ
れているときには、S28の判定を行う。S28の判定
では、位置検出部21から出力された、被写体の特定部
分の存在位置が、発音領域設定部23により設定された
1または複数の発音領域に属するか否かを判定し、この
発音領域に属しなければ、S25の判定に戻り、この発
音領域に属するときにはS29の処理を行う。S29に
おいては、この発音領域に割り当てられた楽音の発音を
指示して、再び、S25の判定に戻る。あるいは、いず
れの場合も、S25に判定には戻らず、処理を終了する
ようにしてもよい。
In the determination of S26, it is determined whether or not a predetermined time has elapsed since it was determined in S25 that the vehicle does not exist at the immediately preceding position.
Returning to the determination at 26, when the predetermined time has elapsed, S
27 is determined. In the determination of S27, it is determined whether or not the presence of the specific portion of the subject is detected by the position detection unit 21. When the presence of the specific portion of the subject is not detected, the process returns to the determination at S27 again, but when it is detected, the determination at S28 is performed. In the determination of S28, it is determined whether or not the position of the specific portion of the subject output from the position detection unit 21 belongs to one or a plurality of sounding regions set by the sounding region setting unit 23. If not, the process returns to the determination of S25, and if it belongs to this sound generation region, the process of S29 is performed. In S29, an instruction is made to sound the musical tone assigned to this sounding area, and the process returns to S25. Alternatively, in any case, the process may be ended without returning to the determination at S25.

【0026】S25に戻って、S25〜S28の判定を
繰り返し行うようにする場合には、被写体の特定部分の
現在の位置が停止していることを条件として、この停止
位置を、S24における初期位置と同様な直前位置とし
て、再び判定を開始すればよい。さらには、毎回、S2
9において発音指示された時刻を検出し、前回の発音指
示時刻から今回の発音指示時刻までの時間間隔を計算
し、これを前回発音された楽音に対する音符情報として
記録することができる。
Returning to S25, if the determinations in S25 to S28 are to be repeated, the stop position is set to the initial position in S24 on condition that the current position of the specific portion of the subject is stopped. The determination may be started again as the immediately preceding position similar to. Furthermore, every time, S2
In step 9, the time at which the sound is instructed is detected, the time interval from the previous sound instructed time to the current sound instructed time is calculated, and this time can be recorded as note information for the previously sounded tone.

【0027】したがって、異なる領域へ移動したとして
も、移動に要した時間が短いときには、仮に発音領域に
移動しても発音指示がされず、所定時間経過後にも、こ
の異なる領域に存在が検出されているときに限り、発音
が指示される。したがって、所定時間経過するまでの間
に、ある発音領域を通過したとしても、発音されない。
また、位置検出の結果、被写体の特定部分が直前位置か
ら動かず実質的に停止していることが検出されている間
は、この領域が仮に発音領域であって1度発音指示がさ
れた場合でも、発音指示は繰り返されない。
Therefore, even if the user moves to a different area, if the time required for the movement is short, no sound is instructed even if the player moves to the sounding area, and even after a predetermined time has elapsed, the presence of the sound in the different area is detected. The pronunciation is instructed only when Therefore, even if the sound passes through a certain sound generation area until the predetermined time elapses, no sound is generated.
Also, while the position detection detects that the specific part of the subject does not move from the immediately preceding position and is substantially stopped, if this area is a sounding area and sounding is instructed once, However, the pronunciation instruction is not repeated.

【0028】なお、S27の判定において、被写体の特
定部分の存在が検出された領域が、直前に存在が検出さ
れていた領域と異なることを付加的条件として、S28
の判定を行うようにしてもよい。この場合、S25にお
いて被写体の特定部分の存在が1時的に検出できなくな
って、S27の判定で、再び、直前と同じ位置に存在す
ることが判定された場合には、先に説明したS26の判
定条件を満足してもS28の判定に行かないようにする
ことができる。したがって、被写体の特定部分が存在す
る位置が、発音領域であって、1時的に存在が検出でき
なかっただけのときには、2度目の発音を指示しないよ
うにすることもできる。逆に、上述した付加的条件を付
けない場合には、恣意的に、被写体の特定部分の存在が
1時的に検出できないような状態にして、同じ発音領域
の発音を2回以上繰り返して行うようにすることができ
る。
In the determination of S27, an additional condition is that an area in which the presence of the specific portion of the subject is detected is different from an area in which the presence of the specific part is detected immediately before.
May be determined. In this case, in S25, the presence of the specific portion of the subject cannot be detected at one time, and if it is determined in S27 that the subject is present at the same position as immediately before, the process proceeds to S26 described above. Even if the determination condition is satisfied, the determination in S28 can be prevented from being performed. Therefore, when the position where the specific portion of the subject exists is the sounding area, and the presence cannot be detected only temporarily, the second sounding may not be instructed. Conversely, when the above-described additional condition is not set, the sound of the same sounding region is repeated twice or more arbitrarily so that the presence of the specific portion of the subject cannot be detected temporarily. You can do so.

【0029】上述した説明では、S28の判定におい
て、被写体の特定部分の存在が直前に検出されていた領
域が、1または複数の発音領域のいずれかであったこと
を条件としなかったが、この条件を付加的条件としても
よい。この場合、1または複数の発音領域以外の領域に
おいて被写体の特定部分が停止していて位置検出されて
いる場合を除外した移動条件とすることができる。移動
条件としては、リハビリテーションにおいて手等を動か
す状況、あるいは、身振り式の楽音制御装置として操作
する方法を考慮して適切な条件を採用する。
In the above description, in the determination in S28, the condition that the region where the specific portion of the subject was detected immediately before was one of one or a plurality of sounding regions was not used. The condition may be an additional condition. In this case, it is possible to set a moving condition excluding a case where a specific portion of the subject is stopped and a position is detected in an area other than one or a plurality of sound emission areas. As the moving condition, an appropriate condition is adopted in consideration of a situation in which a hand or the like is moved in rehabilitation or a method of operating as a gesture-type musical sound control device.

【0030】図3は、本発明の楽音制御装置の実施の一
形態のハードウエア構成の概要図である。図中、図1と
同様な部分には同じ符号を付して説明を省略する。映像
信号を処理するカードとサウンドカードを内蔵する汎用
コンピュータは、CPU(Central Processing Unit)
31、画像処理部32、外部記憶装置33、ROM(Re
ad Only Memory)34、RAM(Random Access Memor
y)35、楽音発生部36等で構成される。ビデオカメ
ラ6により取り込まれた被写体の画像は画像処理部32
に取り込まれ、A/D変換されてCPU31に入力され
る。ビデオカメラ6に代えて、被写体の静止画像を連続
撮影可能なデジタルカメラを使用してもよい。CPU3
1は、ROM34に記憶された基本入出力システム(B
IOS)プログラムおよび、ハードディスク等の外部記
憶装置33からRAM35にロードされるオペレーティ
ングシステム(OS)プログラム、および、アプリケー
ションプログラムを実行することにより動作する。
FIG. 3 is a schematic diagram of the hardware configuration of an embodiment of the musical sound control device of the present invention. In the figure, the same parts as those in FIG. A general-purpose computer containing a video signal processing card and a sound card is a CPU (Central Processing Unit).
31, image processing unit 32, external storage device 33, ROM (Re
ad Only Memory) 34, RAM (Random Access Memor)
y) 35, a tone generator 36 and the like. The image of the subject captured by the video camera 6 is stored in an image processing unit 32.
Is input to the CPU 31 after being A / D converted. Instead of the video camera 6, a digital camera capable of continuously photographing a still image of a subject may be used. CPU3
1 is a basic input / output system (B
It operates by executing an IOS program, an operating system (OS) program loaded from an external storage device 33 such as a hard disk into the RAM 35, and an application program.

【0031】CPU31は、画像信号を入力し、図2に
示した機能を実現するとともに、画像を表示部4に表示
させる。CPU31は、楽音の発生を指示するととも
に、楽音パラメータを楽音発生部36に出力し、楽音発
生部36は、楽音波形を生成し、楽音波形データをD/
A変換および増幅してスピーカ5より楽音を出力する。
なお、CPU31に、楽音波形の生成までを実行させる
こともできる。自動演奏再生用の楽曲は、RAM35に
一時記憶されるが、最終的に、外部記憶装置33に記憶
させることができ、また、RAM35に読み戻すことも
できる。
The CPU 31 receives an image signal, implements the functions shown in FIG. 2, and displays an image on the display unit 4. The CPU 31 instructs the generation of a musical tone and outputs musical tone parameters to the musical tone generating unit 36. The musical tone generating unit 36 generates a musical tone waveform and converts the musical tone waveform data into D / D.
A conversion and amplification are performed, and a tone is output from the speaker 5.
It should be noted that the CPU 31 can be executed up to the generation of the musical tone waveform. The music for automatic performance reproduction is temporarily stored in the RAM 35, but can be finally stored in the external storage device 33 and can be read back to the RAM 35.

【0032】画像処理部32は、単に画像フレームの処
理やA/D変換の機能だけを備えたものでもよいが、専
用のDSP(Digital Signal Processor)等により画像
認識、または、画像認識のための前処理を行うようにし
てもよい。上述した説明では、汎用のパーソナルコンピ
ュータを用い、プログラムにより楽音制御機能を実現す
る構成を示したが、専用の楽音制御装置としてもよい。
The image processing section 32 may have only a function of image frame processing or A / D conversion. Preprocessing may be performed. In the above description, a configuration in which a general-purpose personal computer is used to realize a tone control function by a program has been described, but a dedicated tone control device may be used.

【0033】図4ないし図6は、本発明の楽音制御装置
の実施の一形態の発音領域の説明図である。発音領域
は、操作者が手などを動かす方向に合うように操作者自
身が設定できる。図4は、画像表示面の絶対位置に対応
させて複数の発音領域を設定するモードにおける画像表
示面である。複数列の発音領域列41〜43が設定され
ているが、登録時においては、発音領域列41中の左端
の発音領域13にその中心がある認識ウインドウ12が
表示され、ここで、手1aの表示画像を記憶する。登録
時において、発音領域13は、例えば、音名C3に対応
させ、矢印43に示す右方向に音高が上昇するように、
音高が割り当てられている。図示の例では、発音領域列
41は、音名C3からB4までの1オクターブが割り当て
られ、この上段に位置する発音領域列42には、音名C
4からB5までが割り当てられ、発音領域列41の下段に
位置する発音領域列43には、音名C2からB3までが割
り当てられている。
FIG. 4 to FIG. 6 are explanatory diagrams of a tone generation area according to an embodiment of the tone control apparatus of the present invention. The sound generation area can be set by the operator himself so as to match the direction in which the operator moves his hand or the like. FIG. 4 is an image display surface in a mode in which a plurality of sound emission areas are set in correspondence with the absolute positions of the image display surface. A plurality of sounding area rows 41 to 43 are set. At the time of registration, a recognition window 12 having its center at the leftmost sounding area 13 in the sounding area row 41 is displayed. The display image is stored. At the time of registration, sound generation area 13, for example, to correspond to the pitch name C 3, as the pitch in the right direction indicated by an arrow 43 is increased,
Pitch is assigned. In the illustrated example, sound generation area column 41 is assigned a one octave from the pitch name C 3 to B 4, the sound generation area column 42 located in this upper stage, the pitch name C
4 to B 5 are assigned to the sound generation area column 43 located in the lower part of sound generation area column 41, it is allocated from the note name C 2 to B 3.

【0034】演奏モードにおいては、登録された手の表
示画像11aの中心点が複数の発音領域13の1つに位
置したときに、この発音領域に割り当てられた音高の、
ピアノ音、打楽器音等の楽音が所定持続時間にわたって
発音される。ただし、図7を参照して後述するように、
手の表示画像11aの中心点が複数の発音領域13の1
つに位置するという条件だけで、楽音を発音させるよう
にはしていない。
In the performance mode, when the center point of the display image 11a of the registered hand is located in one of the plurality of sounding areas 13, the pitch assigned to this sounding area is
Musical sounds such as piano sounds and percussion sounds are produced for a predetermined duration. However, as described later with reference to FIG.
The center point of the hand display image 11a is one of the plurality of sounding regions 13
It does not try to produce musical tones only on the condition that it is located at one position.

【0035】図5は、音高C3に対応する発音領域13
を基準位置とした画像表示面の相対位置に対応させ、か
つ、音高の上昇方向を右上がりに設定するモードの画像
表示面である。登録時に、音高C3に対応する発音領域
13を中心とした認識ウインドウ12が表示される。こ
の発音領域13の位置は、登録時にユーザの入力により
自由に位置を決めることができる。発音領域列41〜4
3は斜めに配置されるとともに、音高C3に対応する発
音領域13から音高の上昇する方向が、矢印44に示す
ように、右上がりに設定されている。
[0035] FIG. 5 is a sound generation area 13 corresponding to the pitch C 3
Is the image display surface in a mode in which the reference position corresponds to the relative position of the image display surface and the rising direction of the pitch is set to the right. During registration, the recognition window 12 around the sound generation area 13 corresponding to the pitch C 3 is displayed. The position of the sound generation area 13 can be freely determined by a user's input at the time of registration. Pronunciation area columns 41-4
3 is arranged obliquely, and the direction in which the pitch rises from the sound generation area 13 corresponding to the pitch C 3 is set to rise to the right as shown by an arrow 44.

【0036】図6は、音高C3に対応する発音領域13
を基準位置とした画像表示面の相対位置に対応させ、か
つ、音高の上昇方向を左下がりに設定するモードの画像
表示面である。登録時に、音高C3に対応する発音領域
13を中心とした認識ウインドウ12が表示される。こ
の発音領域13は、登録時にユーザの入力により自由に
位置を決めることができる。発音領域列41〜43は斜
めに配置されるとともに、音高の上昇する方向が、矢印
44に示すように、左下がりに設定されている。
[0036] FIG. 6 is a sound generation area 13 corresponding to the pitch C 3
Is the image display surface in a mode in which the reference position corresponds to the relative position of the image display surface and the rising direction of the pitch is set to the lower left. During registration, the recognition window 12 around the sound generation area 13 corresponding to the pitch C 3 is displayed. The position of the sound generation area 13 can be freely determined by a user's input at the time of registration. The tone generation area rows 41 to 43 are arranged obliquely, and the direction in which the pitch rises is set to be lower left as indicated by an arrow 44.

【0037】なお、図4〜図6に示した音高の割り当て
は、一例であり、1つの発音領域列に音名C3からC4
でを割り当てたり、白鍵に対応する音高のみを割り当て
たり、黒鍵に対応する音高を割り当てる発音領域列を別
の段に設けてもよい。また、1オクターブ上の音高およ
び1オクターブ下の音高のための発音領域列を設けない
ようにしてもよい。この場合、各発音領域13の形状を
図示のような正方形にせずに、発音領域列41に直交す
る方向に帯状にしてもよい。また、首の曲げなどの動き
に対応させるためには、方向を直線方向とはしないで、
任意の曲線に沿った方向としてもよい。
[0037] Incidentally, the pitch of the assignments shown in FIGS. 4 to 6, is an example, to assign the note name C 3 to one pronunciation region arrays to C 4, only the tone pitch corresponding to the white keys A sounding area sequence for assigning or assigning a pitch corresponding to a black key may be provided in another stage. In addition, it is possible not to provide a tone generation area row for a pitch one octave higher and a pitch one octave lower. In this case, the shape of each sounding area 13 may be a band in a direction orthogonal to the sounding area row 41 instead of a square as shown in the figure. Also, in order to respond to movements such as bending the neck, do not set the direction to a linear direction,
The direction may be along an arbitrary curve.

【0038】複数列の発音領域列41〜43、各発音領
域内の音名表示、および、矢印44は、説明用に記載し
たものであり、実際の画像表示面においては表示しなく
てもよい。演奏動作中において、認識ウインドウ12を
表示してもよいが、図7に示すように確認マーク51を
表示するため、演奏動作中においては、認識ウインドウ
12を表示しなくてもよい。
The plurality of sounding area rows 41 to 43, the display of the sound names in each sounding area, and the arrow 44 are described for explanation, and need not be displayed on the actual image display surface. . During the performance operation, the recognition window 12 may be displayed. However, since the confirmation mark 51 is displayed as shown in FIG. 7, the recognition window 12 may not be displayed during the performance operation.

【0039】図7は、本発明の楽音制御装置の実施の一
形態の楽音制御機能の説明図である。図中、11a−1
〜11a−9は、手1aを動かしているときの、手の表
示画像11aの位置を示す符号である。51は、手1a
を認識している時の確認マークである。手の動きにはさ
まざまなパターンがあるが、ここでは、典型的な4通り
の動きについて説明する。 (1)音高の配列方向に手1aを遅く動かした場合。図
中、手の表示画像11a−1〜11a−5の期間であ
る。 (2)音高の配列方向に手1aを速く動かした場合。図
中、手の表示画像11a−5〜11a−7の期間であ
る。 (3)音高の配列方向には手1aを動かさずに、1時的
に手1aを画像認識できない(存在を検出できない)状
態にした場合。1時的に画像認識できない状態とは、例
えば、手1aをビデオカメラ6に対し遠ざけてまたもと
の位置に戻したり、または、近づけて、その後、元の位
置に戻したときである。図中、手の表示画像11a−7
〜11a−9の期間である。手の表示画像11a−7〜
11a−9は、典型的な例では、画面表示部上で重なる
が、ずらせた状態で図示している。 (4)さらに、手1aを画像認識できない状態にして、
音高の配列方向に手1aを動かした場合。この場合の図
示は省略している。
FIG. 7 is an explanatory diagram of the tone control function of one embodiment of the tone control device of the present invention. In the figure, 11a-1
Numerals 11a-9 indicate the position of the display image 11a of the hand when the hand 1a is moving. 51 is the hand 1a
This is a confirmation mark when recognizing. There are various patterns of hand movements. Here, four typical movements will be described. (1) When the hand 1a is moved slowly in the pitch arrangement direction. In the figure, it is a period of the display images 11a-1 to 11a-5 of the hand. (2) When the hand 1a is moved quickly in the pitch arrangement direction. In the figure, it is a period of display images 11a-5 to 11a-7 of the hand. (3) A case where the hand 1a is temporarily not image-recognized (presence cannot be detected) without moving the hand 1a in the pitch arrangement direction. The state in which the image cannot be temporarily recognized is, for example, when the hand 1a is moved away from the video camera 6, returned to the original position, or moved closer to the video camera 6, and then returned to the original position. In the figure, a hand display image 11a-7
11a-9. Display image 11a-7 of the hand
11a-9 overlaps on the screen display unit in a typical example, but is shown in a shifted state. (4) Further, the hand 1a is set to a state in which image recognition cannot be performed,
When the hand 1a is moved in the pitch arrangement direction. Illustration in this case is omitted.

【0040】(1)音高の配列方向に手1aを遅く動か
した場合。手の表示画像11aの中心が発音領域内に入
ると、楽音を1回だけ所定持続時間発音する。図示の例
では、手の表示画像11a−1のときに、その中心が発
音領域内に入り、音名C3の楽音が発音される。次に、
手の表示画像11a−2のときに、その中心が発音領域
外に移動し、手の表示画像11a−3のときに、その中
心が発音領域内に入り、音名C# 3の楽音が1回だけ所定
持続時間発音される。次に、手の表示画像11a−4の
ときに、その中心が発音領域外に移動し、手の表示画像
11a−5のときに、その中心が発音領域内に入り、音
名D3の楽音が1回だけ所定持続時間発音される。この
ようにして、手1aを音高の配列方向に動かす間におい
て、手1aの移動中の経過音を発生させることができ
る。
(1) When the hand 1a is slowly moved in the pitch arrangement direction. When the center of the hand display image 11a enters the sounding area, the musical sound is sounded only once for a predetermined duration. In the illustrated example, when the display image 11a-1 of the hand, the center enters the sound area, the tone of the pitch name C 3 is pronounced. next,
In the case of the hand display image 11a-2, the center thereof moves out of the sounding area, and in the case of the hand display image 11a-3, the center thereof enters the sounding area, and the musical tone of the note name C # 3 becomes 1 It is pronounced only for a predetermined duration. Then, when the display image 11a-4 of the hand, move the center to the outside of sound generation area, when the display image 11a-5 of the hand, the center enters the sound area, the tone of the pitch names D 3 Is sounded only once for a predetermined duration. In this way, it is possible to generate a passing sound during the movement of the hand 1a while moving the hand 1a in the pitch arrangement direction.

【0041】(2)音高の配列方向に手1aを速く動か
した場合。手の表示画像11a−5の中心が楽音D3
発音領域にあって、楽音D3が1回だけ所定持続時間発
音される。その後、手1aを、音高の配列方向に速く動
かす。手の表示画像11a−5の中心がD3の発音領域
に存在しなくなってから100msecかかって、手の
表示画像11a−7の中心がG3の発音領域に来たとす
る。このとき、音名G3の楽音が1回だけ所定持続時間
発音される。しかし、手の表示画像11a−6の中心が
# 3,E3,F3,F# 3の位置を通過したときには発音さ
れない。すなわち、経過音を発音させないようにするこ
とができる。
(2) When the hand 1a is moved quickly in the pitch arrangement direction. There center of the display image 11a-5 of the hand in the sound region of a tone D 3, tone D 3 is pronounced by a predetermined duration once. Thereafter, the hand 1a is quickly moved in the pitch arrangement direction. The center of the display image 11a-5 of the hand rests 100msec from no longer exists in the sound region of D 3, the center of the display image 11a-7 of the hand is to come to the sound area of G 3. At this time, the tone of the pitch name G 3 is pronounced once a predetermined duration. However, not pronounced when the center of the display image 11a-6 of the hand has passed the position of the D # 3, E 3, F 3, F # 3. That is, it is possible to prevent the elapsing sound from being emitted.

【0042】(3)音高の配列方向には手1aを動かさ
ずに、1時的に手1aを画像認識できない状態にした場
合。まず、手の表示画像11a−7の中心が音名G3
楽音発生領域にあって音名G3の楽音を1回だけ所定持
続時間発音させる。手1aをビデオカメラに対し遠ざけ
ると、焦点の合わないぼけた、または、小さくなった、
あるいは両方の影響を受けた手の画像11a−8が入力
される。そうすると、画像認識の結果、手の表示画像1
1a−8は認識できなくなる。100msec経過後、
再び、手1aをビデオカメラ6に近づけて、もとの位置
に戻すと、手の表示画像11a−9を認識することがで
きる。その結果、手の表示画像11a−7が認識できな
くなってから、100msec経過後に、表示画像11
a−9の中心が音名G3の楽音発生領域にあるために、
音名G3の楽音が再び1回だけ所定持続時間発音され
る。このようにして、同じ音名の楽音の所定持続時間の
発音を複数回行わせることができる。
(3) A case in which the hand 1a is temporarily moved to a state where the image cannot be recognized without moving the hand 1a in the pitch arrangement direction. First, once a tone pitch name G 3 the center of the display image 11a-7 of the hand is in the tone generation region of the pitch name G 3 to sound a predetermined duration. When the hand 1a was moved away from the video camera, it became out of focus or blurred,
Alternatively, an image 11a-8 of both affected hands is input. Then, as a result of the image recognition, the hand display image 1
1a-8 becomes unrecognizable. After 100 msec,
Again, when the hand 1a is brought closer to the video camera 6 and returned to the original position, the display image 11a-9 of the hand can be recognized. As a result, after 100 msec has elapsed since the display image 11a-7 of the hand cannot be recognized, the display image 11a-7
To the center of a-9 is in the tone generation region of the pitch name G 3,
Tone pitch name G 3 is pronounced by a predetermined duration once again. In this way, it is possible to cause a musical tone having the same note name to be generated a plurality of times for a predetermined duration.

【0043】(4)手1aを画像認識できない状態にし
て、音高の配列方向に手1aを動かした場合。手の表示
画像11a−5の中心が楽音D3の発音領域にあって楽
音D3が1回だけ所定持続時間発音される。その後、手
1aをビデオカメラ6に対し遠ざけることにより、画像
認識の結果、手の表示画像11a−5は認識できなくな
る。手1aを遠ざけたまま、手1aを音高の配列方向に
動かす。手の表示画像11a−5が認識できなくなった
後、100msec経過後に、手の表示画像11a−7
の中心が、G3の発音領域に来て、再び、手1aをビデ
オカメラ6に近づけて、もとの距離の位置に戻すと、音
名G3の楽音が1回だけ所定持続時間発音される。この
ようにすれば、手1aを音高の配列方向に動かす速度に
かかわらず、手の表示画像11a−6の中心がD# 3,E
3,F3,F# 3の位置を通過するときには、経過音を発音
させないようにすることができる。
(4) The case where the hand 1a is moved in the pitch arrangement direction with the hand 1a in a state where the image cannot be recognized. The center of the display image 11a-5 of the hand tone D 3 In the sound generation area of the tone D 3 is pronounced by a predetermined duration once. Thereafter, by moving the hand 1a away from the video camera 6, as a result of the image recognition, the display image 11a-5 of the hand cannot be recognized. With the hand 1a kept away, the hand 1a is moved in the pitch arrangement direction. After 100 msec elapses after the hand display image 11a-5 cannot be recognized, the hand display image 11a-7
Center of, come to pronounce region of G 3, again, close the hand 1a to the video camera 6, and back to the position of the original distance, musical pitch name G 3 is pronounced once a predetermined duration You. In this way, the center of the hand display image 11a-6 is D # 3 , E regardless of the speed at which the hand 1a is moved in the pitch arrangement direction.
3, when the F 3, passes through the position of the F # 3 can be prevented to pronounce passing notes.

【0044】本発明の楽音制御装置は、楽音発生部と共
に用いたり、楽音発生部と一体的にされて楽音発生装置
として使用されるが、上述したように、操作者(被写
体)が演奏する意思をもってこれに臨まないと、すなわ
ち、決められた移動条件を意識して手等を動かさなけれ
ば、望むような楽音を発生する楽器とはならない。演奏
意思がなく、無造作に手等を動かすと、聞き苦しい楽音
が発生するだけである。であるからこそ、操作者にうま
く演奏しようとする意欲が生まれ、これが手足等を動か
すリハビリテーションにつながる。
The musical tone control device of the present invention is used together with a musical tone generating unit or is used as a musical tone generating device integrated with a musical tone generating unit. In other words, unless the user moves his / her hand while paying attention to the determined moving conditions, the musical instrument does not produce a desired musical tone. If you have no intention to play and move your hand or the like, you will only hear uncomfortable musical sounds. Therefore, the operator is motivated to perform well, and this leads to rehabilitation in which the limbs are moved.

【0045】上述した楽音制御により、操作者は、手1
aを移動させた位置を、発音される楽音の音高によって
認識することができる。単に、発音領域を通過するだけ
で楽音を発生させるようにすると、単純には、複数の楽
音が発生してしまう。しかし、手1aを速く動かして、
発音領域を通過させれば、途中の楽音(経過音)が発音
されないので、最終移動位置を明確に確認することがで
きる。この場合、もちろん、経過音が発音されるように
設定してもよく、経過音を聞きながらリハビリテーショ
ンを行うようにすることもできる。経過音を発音させる
としても、離散的に設けられたいずれかの発音領域に手
の表示画像11aが存在するときに、所定持続時間の間
だけ楽音が発生されるので、比較的好ましい楽音とな
る。
By the above-described musical tone control, the operator can
The position at which a has been moved can be recognized by the pitch of the musical tone to be generated. If a musical tone is generated simply by passing through the tone generation area, a plurality of musical tones will be generated simply. However, move your hand 1a fast,
If the sound is passed through the sounding area, no middle tone (elapsed sound) is sounded, so that the final movement position can be clearly confirmed. In this case, needless to say, the elapsed sound may be set to be generated, or the rehabilitation may be performed while listening to the elapsed sound. Even if an elapsed sound is produced, a musical tone is generated only for a predetermined duration when the hand display image 11a is present in one of the discretely provided sounding regions. .

【0046】同じ音名の楽音を連続発音することについ
ては、上述したように、恣意的に、一度手1aを遠ざけ
たりして可能としている。これに対し、同じ発音領域に
手1aをとどめておくことによって、同じ音名の音を連
続して発音させるように設定してもよく、その場合で
も、途切れることなく楽音を発生させるのではなく、所
定持続時間長さの楽音が繰り返し発音されるようにした
方が、比較的好ましい楽音となる。
As described above, it is possible to arbitrarily arbitrarily move the hand 1a away once, as described above, to continuously generate musical tones having the same note name. On the other hand, by holding the hand 1a in the same sounding region, the sound having the same note name may be set to be continuously sounded. It is relatively preferable to make a tone having a predetermined duration length repeated.

【0047】次に、図8,図9を参照して説明する画像
認識は、本発明の楽音制御装置の実施の一形態に用いる
画像認識の原理的な一例を示すものである。図8は、本
発明の楽音制御装置の実施の一形態における画像認識の
第1の説明図である。図8(a)は認識ウインドウ中の
被写体の特定部分の表示画像を取り込み、これを登録し
た画像を示す図である。図8(b)〜図8(d)は比較
する画素数の違いにより、画像の一致レベルを変更して
画像識別をする場合の、比較する画素を示す図である。
図8(c)は画像の一致レベルを低くする場合、図8
(d)は画像の一致レベルを中程度にする場合、図8
(e)は画像の一致レベルを高くする場合を示す図であ
る。
Next, the image recognition described with reference to FIGS. 8 and 9 is an example of the principle of image recognition used in an embodiment of the musical tone control device of the present invention. FIG. 8 is a first explanatory diagram of image recognition in one embodiment of the tone control device of the present invention. FIG. 8A is a diagram showing an image in which a display image of a specific portion of a subject in a recognition window is captured and registered. FIGS. 8B to 8D are diagrams illustrating pixels to be compared in the case where the image matching level is changed to perform image identification based on the difference in the number of pixels to be compared.
FIG. 8C shows a case where the matching level of the image is lowered.
FIG. 8D shows a case where the image matching level is set to a medium level.
(E) is a figure which shows the case where the matching level of an image is made high.

【0048】図8(a)において、画像認識は、例え
ば、被写体の色相、明るさ(濃淡)の特徴を抽出するこ
とにより行う。画像認識では、通常、画像強調処理、画
質改善処理等の前処理が行われ、また、特徴抽出処理を
行ってからパターン照合が行われる。しかし、説明を簡
単にするため、単に画素毎の画像データの一致、不一致
により画像認識をするものとして説明する。ここで言う
画素とは、必ずしも画像を表示する最小単位ではなく、
画像比較の最小単位を意味する。手の表示画像11aを
登録する場合、図8(a)に示すように、画素単位で、
背景、被写体の色および明るさが登録画像61としてメ
モリに取り込まれ、画素単位に記憶される。符号62を
付した部分は、手の表示画像に対応する画素の領域を示
す。
In FIG. 8A, image recognition is performed by, for example, extracting features of the hue and brightness (shading) of the subject. In image recognition, usually, preprocessing such as image enhancement processing and image quality improvement processing is performed, and pattern matching is performed after performing feature extraction processing. However, for the sake of simplicity, the description will be made on the assumption that image recognition is performed simply by matching or mismatching image data for each pixel. The pixel here is not necessarily the minimum unit for displaying an image,
It means the minimum unit of image comparison. When registering the hand display image 11a, as shown in FIG.
The background, the color and brightness of the subject are fetched into the memory as a registered image 61, and are stored in pixel units. The portion denoted by reference numeral 62 indicates a pixel region corresponding to the display image of the hand.

【0049】画像認識は、画像表示面上において、登録
された登録画像61の位置検出をする際に行われる。こ
のとき、位置検出の状況に応じて、画像認識の一致レベ
ル(一致していると判定する一致度の閾値レベル)を低
くしたり、高くしたりする。すなわち、ビデオカメラ6
から逐次入力された被写体の画像中に、手の表示画像1
1aの位置が検出できない期間は、画像表示面上におけ
る広範囲の領域に対し、画像認識の一致レベルを相対的
に低くした状態から始めて、登録画像61の画像とを比
較し、手の表示画像11aの位置が検出できているとき
には、画像表示面上における手の表示画像11aの近傍
の領域に対し、画像の一致レベルを相対的に高くした状
態で、登録画像61の画像と比較する。このようにし
て、手の表示画像11aの位置を探しているときの画像
認識には、画像認識の一致レベルを相対的に低く設定す
ることにより、位置検出のための処理時間を短縮し、手
の表示画像11aへの認識ウインドウ12の追従性を大
きくしている。
The image recognition is performed when the position of the registered image 61 is detected on the image display surface. At this time, the matching level of the image recognition (the threshold level of the matching degree for determining the matching) is lowered or increased according to the situation of the position detection. That is, the video camera 6
Display image 1 of the hand in the image of the subject sequentially input from
During the period in which the position of 1a cannot be detected, starting from a state where the matching level of image recognition is relatively low for a wide area on the image display surface, the image of the registered image 61 is compared, and the hand display image 11a is displayed. Is detected, the image is compared with the image of the registered image 61 in a state where the matching level of the image is relatively high with respect to the region near the display image 11a of the hand on the image display surface. In this manner, in image recognition when searching for the position of the display image 11a of the hand, by setting the matching level of image recognition to be relatively low, the processing time for position detection is reduced, The followability of the recognition window 12 to the display image 11a is increased.

【0050】上述した、画像認識の一致レベルを変更す
る具体的な方法としては、例えば、色相だけを比較対象
とすることにより、画像認識の一致レベルを低くする。
色相に加えて濃度変化も比較対象とすることにより、画
像認識の一致レベルを高くすることができる。あるい
は、図8(b)〜図8(d)に示したように、認識ウイ
ンドウ12の中で、比較する対象画素63の数を変更す
ることにより、画像認識の一致レベルを変更することが
できる。例えば、図8(c)においては、認識ウインド
ウ12中の、中心点および対角の4点からなる5個の画
素を、比較する対象画素63としてサンプリングし、登
録画像61の対応する画素との一致を見ることにより、
画像認識の一致レベルを低くする。もちろん、先に説明
したような、濃淡の識別を行うか否かの組み合わせによ
って、画像認識の一致レベルを変更することもできる。
As a specific method of changing the matching level of the image recognition described above, for example, the matching level of the image recognition is lowered by using only the hue as a comparison target.
By using the density change in addition to the hue as a comparison target, the matching level of image recognition can be increased. Alternatively, as shown in FIGS. 8B to 8D, the matching level of image recognition can be changed by changing the number of target pixels 63 to be compared in the recognition window 12. . For example, in FIG. 8C, five pixels including the center point and four diagonal points in the recognition window 12 are sampled as target pixels 63 to be compared, and the corresponding pixels of the registered image 61 are sampled. By looking at the match,
Reduce the matching level of image recognition. Of course, the matching level of the image recognition can be changed depending on the combination of whether or not to perform shading identification as described above.

【0051】図9は、本発明の楽音制御装置の実施の一
形態における画像認識の第2の説明図である。図9
(a)は、画像表示面上の複数の特定ポイント[X,
Y]およびこの特定ポイント[X,Y]を中心とする複
数の位置探索領域を示す説明図である。図9(b)は被
写体の特定部分の動きが小さいときのある1つの特定ポ
イント[X,Y]周囲の説明図、図9(c)は被写体の
特定部分の動きが大きいときのある1つの特定ポイント
[X,Y]周囲の説明図である。図中、71は特定ポイ
ント[X,Y]、72は位置探索領域、12−1,12
−2は移動前と移動後の認識ウインドウ、73−1,7
3−2は移動前と移動後の認識ウインドウの中心点、7
4は認識ウインドウの外周の移動領域である。
FIG. 9 is a second explanatory diagram of image recognition in an embodiment of the musical sound control device of the present invention. FIG.
(A) shows a plurality of specific points [X,
Y] and a plurality of position search areas centered on the specific point [X, Y]. FIG. 9B is an explanatory diagram around one specific point [X, Y] when the movement of the specific portion of the subject is small, and FIG. 9C is one diagram when the motion of the specific portion of the subject is large. FIG. 4 is an explanatory diagram around a specific point [X, Y]. In the figure, 71 is a specific point [X, Y], 72 is a position search area, 12-1, 12
-2 is a recognition window before and after movement, 73-1, 7
3-2 is the center point of the recognition window before and after the movement, 7
Reference numeral 4 denotes a moving area on the outer periphery of the recognition window.

【0052】図9(a)に示すように、画像表示面4a
上に複数の特定ポイント[X,Y]を配置し、画像表示
面4aは、各特定ポイント[X,Y]を中心とする複数
の位置探索領域72で分割されている。認識ウインドウ
12の中心点73は、1つの特定ポイント[X,Y]7
1の位置探索領域72内で移動可能であり、この範囲を
超える場合には、新たに異なる特定ポイント[X,Y]
を指定して、新たな特定ポイント[X,Y]71の位置
探索領域72内で移動可能となる。
As shown in FIG. 9A, the image display surface 4a
A plurality of specific points [X, Y] are arranged on the upper side, and the image display surface 4a is divided by a plurality of position search areas 72 centered on each specific point [X, Y]. The center point 73 of the recognition window 12 is one specific point [X, Y] 7
It is possible to move within the first position search area 72, and if it exceeds this range, a new different specific point [X, Y]
Is designated, and a new specific point [X, Y] 71 can be moved in the position search area 72.

【0053】図9(b)に示すように、被写体の特定部
分の動きが小さいときを説明する。最初に、認識ウイン
ドウの中心点73−1において、認識ウインドウ12−
1内の表示画像に登録画像の特徴データがあったとす
る。認識ウインドウの中心点73を位置探索領域72内
でスキャンさせているので、被写体の特定部分が移動す
ると、73−2の位置において認識ウインドウ12−2
内の表示画像に登録画像の特徴データがあることを検出
する。このときの認識ウインドウの中心点73−1から
73−2への移動ベクトルは小さく、現在の中心点73
−2の位置も考慮すると、次回の画像認識時に、被写体
の特定部分の中心が位置探索領域72の範囲外になるこ
とはないと推測される。このような場合は、継続して、
認識ウインドウの中心点73を、位置探索領域72内を
スキャンさせて認識ウインドウ12内の表示画像に登録
画像の特徴データがあるかどうかを判定する。
A case where the movement of a specific portion of the subject is small as shown in FIG. 9B will be described. First, at the center point 73-1 of the recognition window, the recognition window 12-
It is assumed that the display image in 1 has feature data of the registered image. Since the center point 73 of the recognition window is scanned in the position search area 72, when the specific part of the subject moves, the recognition window 12-2 is moved to the position 73-2.
It is detected that the display image in there is feature data of the registered image. At this time, the movement vector from the center point 73-1 to 73-2 of the recognition window is small, and the current center point 73
Considering the position of -2, it is assumed that the center of the specific portion of the subject will not be out of the range of the position search area 72 in the next image recognition. If this is the case,
The center point 73 of the recognition window is scanned in the position search area 72 to determine whether or not the display image in the recognition window 12 includes the feature data of the registered image.

【0054】図9(c)に示すように、被写体の特定部
分の動きが大きいときを説明する。最初に、認識ウイン
ドウの中心点73−1において、認識ウインドウ12−
1内の表示画像に登録画像の特徴データがあったとす
る。認識ウインドウの中心点73を位置探索領域72内
でスキャンさせているので、被写体の特定部分が移動す
ると、73−2の位置において認識ウインドウ12−2
内の表示画像に登録画像の特徴データがあることを検出
する。このときの認識ウインドウの中心点73−1から
73−2への移動ベクトルは大きく、現在の中心点73
−2の位置も考慮すると、次回の画像認識時に、被写体
の特定部分が位置探索領域72の範囲外になることが推
測される。
A case where the movement of a specific portion of the subject is large as shown in FIG. 9C will be described. First, at the center point 73-1 of the recognition window, the recognition window 12-
It is assumed that the display image in 1 has feature data of the registered image. Since the center point 73 of the recognition window is scanned in the position search area 72, when the specific part of the subject moves, the recognition window 12-2 is moved to the position 73-2.
It is detected that the display image in there is feature data of the registered image. At this time, the movement vector from the center point 73-1 to 73-2 of the recognition window is large, and the current center point 73-3
Considering the position of −2, it is estimated that the specific portion of the subject will be out of the position search area 72 at the next image recognition.

【0055】このような場合は、異なる特定ポイント
[X,Y]71を中心とする位置探索領域72に認識ウ
インドウの中心73を移動させて画像認識を行う。すな
わち、現在の認識ウインドウの中心73の位置、およ
び、移動ベクトル(被写体の特定部分の移動ベクトルで
もある)に基づいて、次回の画像認識時における、被写
体の特定部分の移動先を推定し、移動先の特定ポイント
[X,Y]71を指定して、認識ウインドウの中心点7
3をこの特定ポイント[X,Y]71に移動させ、認識
ウインドウの中心点73を新たな位置探索領域72内で
スキャンさせて、認識ウインドウ12内の表示画像に登
録画像の特徴データがあるかどうかを判定する。
In such a case, image recognition is performed by moving the center 73 of the recognition window to a position search area 72 centered on a different specific point [X, Y] 71. That is, based on the current position of the center 73 of the recognition window and the movement vector (which is also the movement vector of the specific part of the subject), the destination of the specific part of the subject at the next image recognition is estimated, By specifying the specific point [X, Y] 71, the center point 7 of the recognition window
3 is moved to this specific point [X, Y] 71, the center point 73 of the recognition window is scanned in the new position search area 72, and the display image in the recognition window 12 has the registered image feature data. Determine whether

【0056】しかし、新たな位置探索領域72内でスキ
ャンさせて、認識ウインドウ12内の表示画像に登録画
像の特徴データが有るかどうかを判定した結果、特徴デ
ータが検出されなかったときには、図9(a)に示す、
認識ウインドウの中心点73を、全ての特定ポイント
[X,Y]71にわたり、各特定ポイント[X,Y]7
1に順次、位置合わせして、認識ウインドウ12内の表
示画像に登録画像の特徴データがあるか否かを判定す
る。なお、このとき、図8を参照して説明した画像認識
の一致レベルは低く設定する。上述したように、表示画
像に登録画像の特徴データが検出されている間は、認識
ウインドウの中心点71をスキャンする範囲を、言い換
えれば、比較する表示画像の範囲を、位置探索領域72
という全画面の中の一部の領域に限定することにより、
画像認識に要する時間を短縮している。なお、図9を参
照した説明では、特定ポイント[X,Y]71の位置
を、発音領域とは独立して設定している。しかし、複数
の発音領域13の各中心に特定ポイント[X,Y]71
を設定するようにしてもよい。
However, when scanning is performed within the new position search area 72 and it is determined whether or not the display image in the recognition window 12 includes the characteristic data of the registered image, if the characteristic data is not detected, FIG. (A),
The center point 73 of the recognition window extends over all the specific points [X, Y] 71 and each specific point [X, Y] 7
1 and sequentially determine whether or not the display image in the recognition window 12 includes the characteristic data of the registered image. At this time, the matching level of image recognition described with reference to FIG. 8 is set low. As described above, while the feature data of the registered image is detected in the display image, the range of scanning the center point 71 of the recognition window, in other words, the range of the display image to be compared is changed to the position search area 72.
By limiting it to a part of the entire screen,
The time required for image recognition is reduced. In the description with reference to FIG. 9, the position of the specific point [X, Y] 71 is set independently of the sound generation area. However, a specific point [X, Y] 71 is provided at each center of the plurality of sound generation areas 13.
May be set.

【0057】図10ないし図17は、本発明の楽音制御
装置の実施の一形態の動作を説明するためのフローチャ
ートである。図10は、メインルーチンのフローチャー
トである。図11は、パラメータおよびモード設定処理
のフローチャートである。図12は、画像認識登録処理
のフローチャートである。図13は、演奏処理の第1の
フローチャートである。図14は、演奏処理の第2のフ
ローチャートである。図15は、タイマ処理1のフロー
チャートである。図16は、タイマ処理sのフローチャ
ートである。図17は、自動演奏再生処理のフローチャ
ートである。図18は、時間パラメータであるtsパラ
メータ、t1パラメータ、t2パラメータの時間変化を
示す説明図である。
FIGS. 10 to 17 are flow charts for explaining the operation of the embodiment of the tone control apparatus of the present invention. FIG. 10 is a flowchart of the main routine. FIG. 11 is a flowchart of the parameter and mode setting process. FIG. 12 is a flowchart of the image recognition registration process. FIG. 13 is a first flowchart of the performance process. FIG. 14 is a second flowchart of the performance process. FIG. 15 is a flowchart of the timer process 1. FIG. 16 is a flowchart of the timer process s. FIG. 17 is a flowchart of the automatic performance reproduction process. FIG. 18 is an explanatory diagram showing a time change of the ts parameter, the t1 parameter, and the t2 parameter, which are time parameters.

【0058】図10におけるメインルーチンにおいて、
S81においては、各種パラメータの値が初期化され、
S82に処理を進める。S82においては、パラメータ
設定処理として、音色設定等が行われ、S83に処理を
進める。S83においては、登録、演奏、再生の動作モ
ード設定が行われ、S84に処理を進める。S84にお
いては、登録モードであるときに、被写体の特定部分の
表示画像を取り込んで画像登録処理が行なわれ、S85
に処理を進める。S85においては、演奏モードである
ときに、リアルタイムの演奏処理が行われ、S86に処
理を進める。S86においては、再生モードであるとき
に、自動演奏再生処理が行われ、S82に処理を戻す。
S81〜S86のメインルーチンとは別に、タイマ割込
によって動作する、タイマ1処理S87およびタイマs
処理S88がある。
In the main routine in FIG.
In S81, the values of various parameters are initialized,
The process proceeds to S82. In S82, timbre setting and the like are performed as parameter setting processing, and the process proceeds to S83. In S83, operation modes for registration, performance, and reproduction are set, and the process proceeds to S84. In S84, when in the registration mode, a display image of a specific portion of the subject is fetched and image registration processing is performed.
Processing proceeds to In S85, in the performance mode, a real-time performance process is performed, and the process proceeds to S86. In S86, in the playback mode, the automatic performance playback process is performed, and the process returns to S82.
Separately from the main routine of S81 to S86, the timer 1 process S87 and the timer s that operate by the timer interrupt
There is a process S88.

【0059】図11を参照し、パラメータ設定処理およ
びモード設定処理について説明する。S91において
は、いずれかの音色設定スイッチにオンイベントが有る
か否かを判定し、有る場合にはS92に処理を進め、な
い場合にはS93に処理を進める。S92においては、
オンイベントがあった音色設定スイッチに対応した音色
パラメータを楽音信号生成部に送出して、S93に処理
を進める。音色としては楽器音色に限らず、人声音、動
物の鳴き声でもよい。S93においては、他のいずれか
のパラメータ入力スイッチ操作が有ったか否かを判定
し、有った場合にはS94に処理を進め、他のパラメー
タ入力スイッチのいずれも操作がない場合にはS95に
処理を進める。ここで、他のパラメータ入力スイッチと
は、S91で判定した音色設定スイッチ以外の各種パラ
メータを入力するスイッチである。
The parameter setting process and the mode setting process will be described with reference to FIG. In S91, it is determined whether or not any of the tone color setting switches has an ON event. If there is, the process proceeds to S92; otherwise, the process proceeds to S93. In S92,
The timbre parameter corresponding to the timbre setting switch having the ON event is sent to the tone signal generator, and the process proceeds to S93. The timbre is not limited to a musical instrument timbre, but may be a human voice or an animal cry. In S93, it is determined whether or not any other parameter input switch operation has been performed, and if so, the process proceeds to S94, and if none of the other parameter input switches has been operated, S95 is performed. Processing proceeds to Here, the other parameter input switch is a switch for inputting various parameters other than the tone color setting switch determined in S91.

【0060】S94においては、スイッチ操作に対応し
て各種パラメータ(n,n1,n2等)を変更し、S9
5に処理を進める。S95においては、登録スイッチに
オンイベントが有ったか否かを判定し、有る場合にはS
96に処理を進め、ない場合にはS97に処理を進め
る。S96においては、W/R(フラグ)を1に設定す
ることにより登録モードとして、S97に処理を進め
る。S97においては、再生スイッチにオンイベントが
有ったか否かを判定し、有る場合にはS98に処理を進
め、ない場合には処理をメインルーチンに戻す。S98
においては、自動演奏再生用のシーケンスデータQ
(p)の読み出しポインタをリセットし、S99におい
て、W/Rを2に設定することにより、シーケンスデー
タの再生モードとして、メインルーチンに戻る。
In step S94, various parameters (n, n1, n2, etc.) are changed in response to the switch operation.
The process proceeds to 5. In S95, it is determined whether or not the registration switch has an ON event.
The process proceeds to 96, and if not, the process proceeds to S97. In S96, the W / R (flag) is set to 1 to set the registration mode, and the process proceeds to S97. In S97, it is determined whether or not the reproduction switch has an ON event. If there is, the process proceeds to S98. If not, the process returns to the main routine. S98
, The sequence data Q for automatic performance reproduction
The read pointer of (p) is reset, and in S99, W / R is set to 2 to return to the main routine in the sequence data reproduction mode.

【0061】図12を参照して画像登録処理モードにつ
いて説明する。S101においては、W/Rが1である
か否かを判定し、1のときにはS102に処理を進め、
1でないときにはメインルーチンに戻る。S102にお
いては、被写体の特定部分の認識ウインドウの中心を、
基準となる登録時の発音領域内に画定し、認識ウインド
ウを画像表示面に枠表示して、S103に処理を進め
る。ここで、基準となる発音領域とは、図1(b)に示
した、登録時における発音領域13(音名C3)であ
る。このフローチャートにおいては省略したが、登録時
における発音領域13の位置は、操作者が、キーボード
あるいはマウスポインタを用いて、自由に設定できるよ
うにすることが好ましい。
The image registration processing mode will be described with reference to FIG. In S101, it is determined whether or not W / R is 1, and if it is 1, the process proceeds to S102,
If it is not 1, the process returns to the main routine. In S102, the center of the recognition window of the specific part of the subject is
The image is defined in the reference sounding area at the time of registration, a recognition window is displayed on the image display surface as a frame, and the process proceeds to S103. Here, the reference sound generation area is the sound generation area 13 (note name C 3 ) at the time of registration shown in FIG. Although omitted in this flowchart, it is preferable that the position of the sound generation area 13 at the time of registration can be freely set by an operator using a keyboard or a mouse pointer.

【0062】S103においては、RgSW(登録実行
スイッチ)にオンイベントが有るか否かを判定し、有る
場合にはS104に処理を進めるが、ない場合にはS1
02に処理を戻す。S104においては、ビデオカメラ
6に入力された画像データをScacheメモリ(画像
データメモリ)に登録して、S105に処理を進める。
画像データそのものを画素単位に記憶させてもよいが、
特徴抽出を行なってから記憶させてもよい。S105に
おいては、被写体の特定部分(パーツ)の移動ととも
に、音高を変化させる方向を入力し、S106に処理を
進める。ここで、音高を変化させる方向とは、図4にお
いては、矢印43に示す右方向である。図5において
は、矢印44に示す右上方向である。図6においては、
矢印44に示す左下方向である。使用者は、通常、特定
部分を移動させようとする方向、あるいはその正反対の
方向に、上述した音高を変化させる方向を設定する。S
106においては、S105において入力された音高を
変化させる方向に応じて、発音領域の設定と、各発音領
域に割り当てる楽音の音名の決定とが行われ、S107
に処理を進める。ただし、図4に示したような画像表示
面の絶対位置(絶対座標)に対応させて発音領域を設定
するモードと、図5,図6に示したような画像登録時の
発音領域13を基準位置とした相対位置で発音領域を設
定するモードがある。
In S103, it is determined whether or not there is an ON event in the RgSW (registration execution switch), and if there is, the process proceeds to S104.
02 is returned. In S104, the image data input to the video camera 6 is registered in a cache memory (image data memory), and the process proceeds to S105.
Although the image data itself may be stored in pixel units,
It may be stored after the feature extraction. In S105, a direction in which the pitch is changed is input together with the movement of the specific part (part) of the subject, and the process proceeds to S106. Here, the direction in which the pitch is changed is a rightward direction indicated by an arrow 43 in FIG. In FIG. 5, it is the upper right direction indicated by the arrow 44. In FIG.
It is the lower left direction shown by the arrow 44. The user usually sets a direction in which the pitch is changed in a direction in which the specific part is to be moved or in a direction opposite to the direction. S
In step 106, setting of a sounding area and determination of a tone name of a musical tone to be assigned to each sounding area are performed in accordance with the direction in which the pitch input in step S105 is changed.
Processing proceeds to However, a mode in which the sound emission area is set in correspondence with the absolute position (absolute coordinates) of the image display surface as shown in FIG. 4 and a sound emission area 13 at the time of image registration as shown in FIGS. There is a mode in which a sound generation area is set at a relative position.

【0063】S107においては、W/Rに0を設定
し、tsパラメータ(時間パラメータ)に値nを設定
し、t1パラメータ(時間パラメータ)に値n1を設定
し、後述する発音条件に関係するF1フラグを0に設定
し、自動演奏用ポインタ(p)をリセットし、メインル
ーチンに戻る。W/R=0は操作者が手1aを動かして
楽音を発音させる演奏モードを意味する。図18(a)
に示すように、tsパラメータは、10msecの時間
を計数し、その後一定値となるタイマー機能のための時
間パラメータである。S107においてnにセットさ
れ、後述する図13のS121において0にセットさ
れ、後述する図16の割込処理によりカウントアップし
て10msec経過後にnとなり、n以上には増加しな
い。図18(b)に示すように、t1パラメータは、1
00msecの時間を計数し、その後一定値n1となる
タイマ機能のための時間パラメータであり、被写体の特
定部分が、ある直前位置に存在しなくなってからの経過
時間を検出する。図12のS107においてn1にセッ
トされ、後述する図13のS119において0にセット
され、S116または図14のS125において1にセ
ットされ、後述する図15の割込処理によりカウントア
ップして100msec経過後にn1となり、n1以上
には増加しない。
In S107, W / R is set to 0, a value n is set to a ts parameter (time parameter), a value n1 is set to a t1 parameter (time parameter), and F1 related to a sound generation condition described later is set. The flag is set to 0, the pointer for automatic performance (p) is reset, and the process returns to the main routine. W / R = 0 means a performance mode in which the operator moves the hand 1a to generate a musical tone. FIG. 18 (a)
As shown in (1), the ts parameter is a time parameter for the timer function that counts the time of 10 msec and then becomes a constant value. It is set to n in S107, set to 0 in S121 of FIG. 13 described later, and counted up by an interrupt process of FIG. 16 described later, becomes n after 10 msec has elapsed, and does not increase beyond n. As shown in FIG. 18B, the t1 parameter is 1
This is a time parameter for a timer function that counts the time of 00 msec and then becomes a constant value n1, and detects the elapsed time from when the specific part of the subject no longer exists at a position immediately before. 12 is set to n1 in S107 of FIG. 12, set to 0 in S119 of FIG. 13 described later, set to 1 in S116 or S125 of FIG. n1 and does not increase beyond n1.

【0064】図13、図14を参照して演奏処理モード
について説明する。S111においては、W/Rが0で
あるか否かを判定し、0のときにはS112に処理を進
め、0でないときにはメインルーチンにリターンする。
S112においては、タイマ時刻(ts=n)になった
か否かを判定する。初めてts=nになったときには、
S113Cに処理を進め、常にts=n(所定の長い時
間、継続してnの値が持続する)のときには、S113
Aに処理を進める。それ以外の、tsが0〜(n−1)
のときには、演奏処理ルーチンから離脱し、メインルー
チンの他の処理をする。つまり、登録処理直後に演奏処
理に入ると、ts=nにセットされたままなのでS11
3Cに処理を進める。
The performance processing mode will be described with reference to FIGS. In S111, it is determined whether or not W / R is 0. If it is 0, the process proceeds to S112, and if it is not 0, the process returns to the main routine.
In S112, it is determined whether or not the timer time (ts = n) has been reached. When ts = n for the first time,
The process proceeds to S113C, and when ts = n (the value of n is continuously maintained for a predetermined long time), the process proceeds to S113C.
The process proceeds to A. Otherwise, ts is 0 to (n-1)
In this case, the CPU exits the performance processing routine and performs other processing in the main routine. In other words, when the performance process is started immediately after the registration process, since ts = n is still set, S11
The process proceeds to 3C.

【0065】ビデオカメラ6で撮像された全画像データ
中に、登録画像データがあるか否かを抽出する処理は、
S113A〜S113Cによって行われる。登録直後
は、S113Cから処理が始められるが、S113Aか
ら説明した方が理解しやすいので、ここから説明する。
S113Aの処理は、主に登録処理後しばらくたった任
意の時刻においての処理であり、この時刻では登録画像
の特徴データは、すぐにはとらえにくい状態にあること
が多いので、画像認識の一致レベルを下げて処理がスタ
ートされる。時刻は、常にts=nになっているので、
S113Aからの認識処理が始まる。
The process of extracting whether or not registered image data exists in all image data captured by the video camera 6 is as follows.
This is performed by S113A to S113C. Immediately after registration, the process is started from S113C. However, since the description from S113A is easier to understand, the description will be given here.
The processing of S113A is mainly processing at an arbitrary time after a while after the registration processing. At this time, the characteristic data of the registered image is often in a state in which it is difficult to catch immediately. The process is started by lowering it. Since the time is always ts = n,
The recognition process from S113A starts.

【0066】S113Aにおいて、ビデオカメラ6によ
って入力された画像表示面(図9参照)上に複数ある特
定ポイント[X,Y]71に、認識ウインドウ12の中
心点73を順次スキャンさせ、特定ポイント[X,Y]
71にその中心を持つ認識ウインドウ12中に、登録画
像の特徴データがあるか否かを判定する。特徴データが
あるときにはS113Bに処理を進め、ないときにはS
114に処理を進める。ステップS113Aにおける画
像認識では、一致レベルを低くして画像認識をするた
め、被写体の特定部分の登録画像中心が、ある特定ポイ
ント[X,Y]から少しずれた周辺にある状態であって
も、この特定ポイント[X,Y]にその中心を持つ認識
ウインドウで、被写体の特定部分を検出することができ
る。
In S113A, the center point 73 of the recognition window 12 is sequentially scanned at a plurality of specific points [X, Y] 71 on the image display surface (see FIG. 9) input by the video camera 6, and the specific points [ X, Y]
It is determined whether or not there is feature data of the registered image in the recognition window 12 having the center at 71. If there is feature data, the process proceeds to S113B.
The process proceeds to 114. In the image recognition in step S113A, since the image recognition is performed at a low matching level, even if the center of the registered image of the specific part of the subject is in the vicinity slightly shifted from a specific point [X, Y], In the recognition window having the center at the specific point [X, Y], the specific part of the subject can be detected.

【0067】S113Bにおいては、S113Aにおい
て登録画像の特徴を検出できたときの特定ポイント
[X,Y]の周辺を順次スキャンし、この周辺を中心と
する認識ウインドウ中の表示画像に、登録画像の特徴が
あるか否かを判定し、特徴があるときには、S118に
処理を進め、ないときにはS114に処理を進める。こ
のステップS113Bにおける画像認識は、一致レベル
を高くして画像認識を比較的厳密に行う。特定ポイント
[X,Y]の周辺を順次スキャンして画像認識をするこ
とは、図9(b)において、位置探索領域72内におい
て認識ウインドウの中心73を順次スキャンさせること
である。このS113Bにおいてyesとなったとき
に、初めて、被写体の特定部分である、手の表示画像1
1aの中心が特定ポイント[X,Y]を中心とする位置
探索領域72内にあると認識される。
In S113B, the periphery of the specific point [X, Y] when the feature of the registered image is detected in S113A is sequentially scanned, and the display image in the recognition window centered on this periphery is added to the registered image. It is determined whether or not there is a feature. If there is a feature, the process proceeds to S118; otherwise, the process proceeds to S114. In the image recognition in this step S113B, the matching level is increased and the image recognition is performed relatively strictly. To perform image recognition by sequentially scanning the periphery of the specific point [X, Y] means to sequentially scan the center 73 of the recognition window in the position search area 72 in FIG. When “yes” is obtained in S113B, for the first time, the display image 1 of the hand, which is the specific portion of the subject, is displayed.
It is recognized that the center of 1a is within the position search area 72 centered on the specific point [X, Y].

【0068】S113Cには、S112、あるいは、後
述する図14のS123,S128,S129から処理
が進む。すなわち、登録モード直後を含め、登録画像が
画像認識され位置が検出されているときに、S113C
に処理が進む。現在の特定ポイント[X,Y]の周辺、
すなわち、認識ウインドウの中心73が位置する位置探
索領域72、を順次スキャンし、この周辺を中心とする
認識ウインドウ12中の表示画像に、登録画像の特徴が
あるか否かを判定し、特徴があるときには、S118に
処理を進め、ないときにはS114に処理を進める。こ
のステップS113Cにおける画像認識は、図8を参照
して説明した中程度の一致レベルの画像認識によって行
う。
The process proceeds to S113C from S112 or S123, S128 and S129 of FIG. 14 described later. That is, when the registered image is image-recognized and the position is detected, including immediately after the registration mode, the process proceeds to S113C.
The process proceeds to. Around the current specific point [X, Y],
That is, the position search area 72 in which the center 73 of the recognition window is located is sequentially scanned, and it is determined whether or not the display image in the recognition window 12 centered on the periphery has the characteristics of the registered image. If there is, the process proceeds to S118, and if not, the process proceeds to S114. The image recognition in step S113C is performed by the image recognition of the medium matching level described with reference to FIG.

【0069】S114においては、フラグF1を0にセ
ットし、S115に処理を進める。このフラグF1は、
位置検出状態において、1度、S119において、t1
=0にしたことを表すフラグである。位置検出状態を持
続している間に、2度目の発音指示がされないように用
いている。S115〜S116においては、直前の状態
において、被写体の特定部分が検出され、かつ、実質的
に停止状態(F2=1)であったときに、今回のS11
3A〜S113Cにおける判定により、登録画像の認識
ができなくなったときに、t1パラメータを1にセット
して、所定時間経過を見るカウントを開始させる。t1
を0にしないのは、t1=0の値を、100msec経
過したことを表すために使用しているからである。t1
=0からカウントアップするか、t1=1からカウント
アップするかは大差ない。
In S114, flag F1 is set to 0, and the process proceeds to S115. This flag F1 is
In the position detection state, once in S119, t1
= 0. While the position detection state is maintained, it is used so that the second pronunciation instruction is not issued. In S115 to S116, when the specific portion of the subject is detected in the immediately preceding state and the state is substantially stopped (F2 = 1), the current S11
When it is determined that the registered image cannot be recognized by the determination in 3A to S113C, the t1 parameter is set to 1 and a count for elapse of a predetermined time is started. t1
Is not set to 0 because the value of t1 = 0 is used to indicate that 100 msec has elapsed. t1
There is not much difference between counting up from = 0 and counting up from t1 = 1.

【0070】S115においては、フラグF2が1であ
るか否かを判定し、1のときにはS116に処理を進
め、1でなければS117に処理を進める。S116に
おいてはt1パラメータを1にセットし、フラグF2を
0にセットする。以後、S123において実質的な停止
状態(F2=1)になるまで、カウント値はリセットさ
れない。S117においては、演奏モード中に、音色設
定スイッチや、登録スイッチにオンイベントがあるか否
かを判定し、ある場合には、メインルーチンに戻り、な
い場合にはS112に処理を戻す。
In S115, it is determined whether or not the flag F2 is 1, and if it is 1, the process proceeds to S116. If not, the process proceeds to S117. In S116, the t1 parameter is set to 1 and the flag F2 is set to 0. Thereafter, the count value is not reset until a substantial stop state (F2 = 1) is reached in S123. In S117, it is determined whether or not there is an ON event in the tone color setting switch or the registration switch during the performance mode. If there is, the process returns to the main routine. If not, the process returns to S112.

【0071】S118〜S119においては、t1のカ
ウントが開始してから、所定時間n1が経過したとき
に、t1を0にして、後述する割り込み処理のS141
における発音指示の1条件を満足させる。S118にお
いては、F1=0かつt1=n1であるか否かが判定さ
れ、yesであればS119に処理を進め、noであれ
ばS119に処理を進める。S119においては、t2
パラメータ(時間パラメータ)の現在値をt2’パラメ
ータに移し、t2パラメータを0にセットし、t1パラ
メータを0にセットして、S120に処理を進める。図
18(c)に示すように、t2パラメータは、4sec
の時間を計数した後一定値を維持する発音間隔を検出す
るための時間パラメータである。図13のS119にお
いて0にセットされ、図15を参照して後述する割込処
理のS151においてn2までカウントアップされる。
In S118 to S119, when a predetermined time n1 has elapsed from the start of counting of t1, t1 is set to 0, and S141 of interrupt processing to be described later is executed.
Satisfies one condition of the pronunciation instruction in. In S118, it is determined whether or not F1 = 0 and t1 = n1. If yes, the process proceeds to S119, and if no, the process proceeds to S119. In S119, t2
The current value of the parameter (time parameter) is transferred to the t2 ′ parameter, the t2 parameter is set to 0, the t1 parameter is set to 0, and the process proceeds to S120. As shown in FIG. 18C, the t2 parameter is 4 sec.
Is a time parameter for detecting a sound generation interval that maintains a constant value after counting the time of the sound. It is set to 0 in S119 of FIG. 13, and is counted up to n2 in S151 of an interrupt process described later with reference to FIG.

【0072】S120においては、tsがnとなったか
否かを判定し、nであるときには、S121に処理を進
め、nでないときにはS113Cに処理を戻して画像認
識を繰り返す。すなわち、位置探索領域72に被写体の
特定部分を画像認識し続けて10msec経過後に、図
14に示す、被写体の特定部分の移動状態の判定と、次
回に被写体の特定部分を画像認識するための処理を行
う。図14のS122においては、認識ウインドウの中
心点73の位置が、前回(10msec前)の認識ウイ
ンドウの中心点73の位置からの差が大きいか否かを判
定し、変化なしのときを含め、小さいときにはS123
に処理を進め、大きいときにはS124に処理を進め
る。ただし、登録直後は、前回の値がないので、位置差
が0であると判定し、また、前回の認識ウインドウの中
心点73の位置データが移し替えられる。
In S120, it is determined whether or not ts has become n. If it is, the process proceeds to S121, and if not, the process returns to S113C to repeat image recognition. That is, after elapse of 10 msec after the image recognition of the specific portion of the subject in the position search area 72 has been continued, the process of determining the moving state of the specific portion of the subject and the next process of recognizing the specific portion of the subject as shown in FIG. I do. In S122 of FIG. 14, it is determined whether or not the difference between the position of the center point 73 of the recognition window and the position of the center point 73 of the previous recognition window (10 msec before) is large. When small, S123
If it is larger, the process proceeds to S124. However, immediately after registration, since there is no previous value, it is determined that the position difference is 0, and the position data of the center point 73 of the previous recognition window is transferred.

【0073】S123に処理が進むのは、被写体の特定
部分が実質的に停止状態にあるときである。F2=1と
するとともに、現在の認識ウインドウの中心点73の位
置データを、前回の認識ウインドウの中心点73の位置
データとして格納し、図13のS113Cに処理を戻
し、認識ウインドウ12のスキャンを再開してS113
Cにおける画像認識を繰り返す。一方、S124に処理
が進むのは、被写体の特定部分が10msec前の位置
から移動しているときである。S124においては、F
2=1(実質的な停止状態)であるか否かを判定し、1
のときにはS125に処理を進め、1でなければS12
6に処理を進める。S125においてはt1パラメータ
を1にセットし、フラグF2を0にセットする。以後、
S123において、実質的な停止状態(F2=1)にな
るまで、カウント値は1にセットされない。
The process proceeds to S123 when the specific portion of the subject is substantially stopped. F2 = 1, the position data of the center point 73 of the current recognition window is stored as the position data of the center point 73 of the previous recognition window, the process returns to S113C in FIG. Restart and S113
The image recognition in C is repeated. On the other hand, the process proceeds to S124 when the specific portion of the subject is moving from the position 10 msec earlier. In S124, F
It is determined whether or not 2 = 1 (substantial stop state).
In the case of, the process proceeds to S125.
The process proceeds to 6. In S125, the t1 parameter is set to 1 and the flag F2 is set to 0. Since then
In S123, the count value is not set to 1 until a substantial stop state (F2 = 1) is reached.

【0074】S126においては、被写体の特定部分が
直前位置から移動したとして、フラグF1を0にセット
するとともに、前回と今回との認識ウインドウの中心点
73の位置から移動ベクトル(方向と速度)を算出し、
S127に処理を進める。S127においては、認識ウ
インドウの中心点73の現在位置と移動ベクトルに基づ
いて、認識ウインドウの中心点73の位置が、現在の特
定ポイント[Y,Y]の周辺(位置探索領域72)から
外れるか否かを推測し、外れると推測される場合には、
S129に処理を進め、外れないと推測される場合に
は、S128に処理を進める。
In S126, assuming that the specific portion of the subject has moved from the immediately preceding position, the flag F1 is set to 0, and the movement vector (direction and speed) is calculated from the position of the center point 73 of the previous and current recognition windows. Calculate,
The process proceeds to S127. In S127, based on the current position of the center point 73 of the recognition window and the movement vector, whether the position of the center point 73 of the recognition window deviates from the periphery of the current specific point [Y, Y] (the position search area 72). If you guess or not,
The process proceeds to S129, and if it is estimated that it does not deviate, the process proceeds to S128.

【0075】S128においては、移動ベクトルの値を
考慮して、特定ポイント[X,Y]の周辺(位置探索領
域72)であって、次に認識ウインドウの中心点73を
スキャンさせるときのスキャンの開始位置を決定する。
そして、現在の認識ウインドウの中心点73の位置デー
タを前回の認識ウインドウの中心点73の位置データに
移して、S113Cに処理を戻し、決定した開始位置か
ら認識ウインドウのスキャンを再開して画像認識を行
う。
At S128, taking into account the value of the movement vector, the scan of the center point 73 of the recognition window next to the specific point [X, Y] (the position search area 72) and next is performed. Determine the starting position.
Then, the position data of the center point 73 of the current recognition window is moved to the position data of the center point 73 of the previous recognition window, the process returns to S113C, and the scanning of the recognition window is restarted from the determined start position to perform image recognition. I do.

【0076】一方、S129においては、現在の認識ウ
インドウの中心点73の位置と移動ベクトルの値に基づ
いて、次の特定ポイント[X,Y]、すなわち、被写体
の特定部分の移動先であると推定される位置探索領域7
2を決定する。そして、移動先の特定ポイント[X,
Y]の位置を認識ウインドウの中心点73の位置データ
の前回の値として格納し、図13のS113Cに処理を
戻し、新たに指定された特定ポイント[X,Y]の位置
探索領域72において画像認識を実行する。
On the other hand, in step S129, based on the position of the center point 73 of the current recognition window and the value of the movement vector, it is determined that the next specific point [X, Y], that is, the movement destination of the specific part of the subject. Estimated position search area 7
Determine 2. Then, a specific point [X,
Y] is stored as the previous value of the position data of the center point 73 of the recognition window, the process returns to S113C in FIG. 13, and the image is displayed in the position search area 72 of the newly designated specific point [X, Y]. Perform recognition.

【0077】ここで、図12〜図14を通し、被写体の
特定部分の登録時からリアルタイム演奏状態をすること
になるまでに、認識ウインドウ12をどのように移動さ
せて、被写体の特定部分を追跡するかについて、改めて
説明する。図12における登録処理のS107におい
て、W/Rおよび時間パラメータがセットされると、図
13,図14に示す演奏処理モードになる。この登録直
後は、図13のS111,S112,S113Cと処理
が進む。S113Cにおいては、中程度の一致レベルの
画像認識により、位置探索領域72内を認識ウインドウ
の中心点73を移動させて、認識ウインドウ12中の表
示画像と登録画像との比較を行う。
Here, through FIGS. 12 to 14, how the recognition window 12 is moved and the specific part of the object is tracked from the time of registration of the specific part of the object to the time of real-time performance. I will explain again. When the W / R and time parameters are set in S107 of the registration processing in FIG. 12, the performance processing mode shown in FIGS. 13 and 14 is set. Immediately after the registration, the process proceeds to S111, S112, and S113C in FIG. In S113C, the center point 73 of the recognition window is moved in the position search area 72 by the image recognition of the medium matching level, and the display image in the recognition window 12 is compared with the registered image.

【0078】比較の結果、登録画像の特徴データがあれ
ば、S114に処理が進む。登録直後は、S118から
S119,S120,S121,S122,S123,
S113Cと処理が進む。S113Cにおいて、登録画
像の特徴データが検出されたときの認識ウインドウの中
心点73の位置は、被写体の特定部分の中心位置でもあ
る。その後、S120〜S113C間を繰り返すが、1
0msec経過する毎に、S120でyesと判断さ
れ、S121以降、図14に示す以後の処理がなされ
る。
As a result of the comparison, if there is feature data of the registered image, the process proceeds to S114. Immediately after registration, S118 to S119, S120, S121, S122, S123,
The process proceeds to S113C. In S113C, the position of the center point 73 of the recognition window when the characteristic data of the registered image is detected is also the center position of the specific portion of the subject. Thereafter, steps S120 to S113C are repeated,
Every time 0 msec elapses, “yes” is determined in S120, and after S121, the subsequent processing shown in FIG. 14 is performed.

【0079】ループを繰り返し回っている間に、被写体
の特定部分の表示画像が移動する。そのため、前回(1
0msec前)のS113Cの処理において特徴データ
が検出されたときの認識ウインドウの中心点73から、
今回のS113Cの処理で特徴データが検出されたとき
の認識ウインドウの中心点73までの位置差がある程度
大きくなる。そうすると、S122からS124,S1
25と処理が進む。図9(a)に示すように、上述した
位置差がある程度大きくても、所定範囲を超えないとき
には、S126からS127,S128に処理が進み、
次にスキャンを開始させる認識ウインドウの中心点73
の位置を適切な予測位置に決めた上で、S113Cに処
理を戻し、何回か、S113CからS128までの処理
ステップを繰り返す。
While the loop is being repeated, the display image of the specific portion of the subject moves. Therefore, the last time (1
(Before 0 msec) from the center point 73 of the recognition window when the feature data is detected in the process of S113C.
The position difference up to the center point 73 of the recognition window when the feature data is detected in the current process of S113C increases to some extent. Then, S122 to S124, S1
The process advances to 25. As shown in FIG. 9A, if the position difference does not exceed the predetermined range even if the position difference is large to some extent, the process proceeds from S126 to S127 and S128,
Next, the center point 73 of the recognition window to start scanning
Is determined as an appropriate predicted position, the process returns to S113C, and the processing steps from S113C to S128 are repeated several times.

【0080】図9(b)に示すように、上述した位置差
がさらに所定範囲を超えると、S127からS129に
処理が進み、認識ウインドウの中心点73は、新たな特
定ポイント[X,Y]の位置探索領域72内をその中心
として、同様の動作を繰り返す。しかし、この新たな特
定ポイント[X,Y]の周辺に、被写体の特定部分の画
像が来ていないときには、S113Cにおいて、S11
4〜S117に処理が進む。なお、認識ウインドウの中
心が、新たな特定ポイント[X,Y]に移る前の、S1
13A〜S113Cにおいても、画像認識の結果、登録
画像の特徴データがなかったときは、同様に、S114
〜S117に処理が進む。
As shown in FIG. 9B, when the above-mentioned position difference further exceeds the predetermined range, the processing proceeds from S127 to S129, and the center point 73 of the recognition window is set to a new specific point [X, Y]. The same operation is repeated with the position search area 72 as the center. However, when the image of the specific part of the subject does not come around the new specific point [X, Y], in S113C, S11 is executed.
The process proceeds to 4-S117. Note that before the center of the recognition window shifts to a new specific point [X, Y], S1
Also in 13A to S113C, if there is no feature data of the registered image as a result of the image recognition, similarly to S114
The process proceeds to S117.

【0081】S112においては、たまたま、tsが1
0msec経過した瞬間であればS113Cに処理が進
んでしまう。しかし、通常は、S113Aに処理が進
み、画像表示面上の全特定ポイント[X,Y]を中心と
する認識ウインドウ72内の画像表示面を、順次比較対
象とし、かつ、一致レベルを低くした画像認識によって
登録画像の特徴データを検出する。特徴データが検出さ
れたときには、S113Bにおいて、このときの特定ポ
イント[X,Y]の位置探索領域72内において認識ウ
インドウの中心点73を順次スキャンして、認識ウイン
ドウ72内の表示画像を比較対象として、一致レベルの
高い画像認識によって登録画像の特徴データを検出す
る。
In S112, ts happens to be 1
If it is the moment when 0 msec has elapsed, the process proceeds to S113C. However, normally, the process proceeds to S113A, and the image display surface in the recognition window 72 centered on all the specific points [X, Y] on the image display surface is sequentially compared and the matching level is lowered. The feature data of the registered image is detected by image recognition. When the feature data is detected, in S113B, the center point 73 of the recognition window is sequentially scanned in the position search area 72 of the specific point [X, Y] at this time, and the display image in the recognition window 72 is compared with the target image. The feature data of the registered image is detected by image recognition with a high matching level.

【0082】認識ウインドウ中に被写体の特定部分の表
示画像が来ていなければ、S113A,S113B,S
113Cのいずれかの処理ステップで、S114〜S1
17を経由してS112に処理が戻るようになってい
る。特に、認識ウインドウ中に被写体の特定部分の表示
画像が来ていて、中程度の一致レベルにより、登録画像
の特徴データを検出しているときに、被写体の特定部
分、例えば、手1aをビデオカメラ6に近づけるか、遠
ざけるときには、被写体の特定部分の表示画像がピント
の合わない表示画像になったり、あるいは、被写体の特
定部分の表示画像の大きさが変化することになる。その
結果、中程度の一致レベルの画像認識でも、登録画像の
特徴データを検出できなくなり、認識不能状態、すなわ
ち、被写体の特定部分の存在が検出されない状態にな
る。また、手1aを画面上から隠したときにも同様に、
認識不能状態になる。そのため、これらの場合には、S
113Cにおいて、S114〜S117と処理が進む。
その後、認識可能になれば、S113A,S113Bか
らS118に処理が進む。
If the display image of the specific portion of the subject does not come in the recognition window, S113A, S113B, S113
In any of the processing steps of 113C, S114 to S1
The processing returns to S112 via S17. In particular, when a display image of a specific portion of the subject is present in the recognition window and the feature data of the registered image is detected with a medium matching level, the specific portion of the subject, for example, the hand 1a is moved to the video camera. When moving closer to or farther from 6, the display image of the specific portion of the subject becomes an out-of-focus display image, or the size of the display image of the specific portion of the subject changes. As a result, even in the image recognition of the medium matching level, the characteristic data of the registered image cannot be detected, and a state where recognition is not possible, that is, a state where the specific portion of the subject is not detected is set. Similarly, when the hand 1a is hidden from the screen,
It becomes unrecognizable. Therefore, in these cases, S
In 113C, the process proceeds from S114 to S117.
After that, if it becomes recognizable, the process proceeds from S113A, S113B to S118.

【0083】図15を参照して、タイマ処理1について
説明する。このタイマ処理1は、割り込み処理である。
S141においては、t1が0であるか否かを判定す
る。t1が0であればS144に処理を進め、t1が0
でなければS150に処理を進める。図13に示したS
113Cにおいて登録画像の特徴データを検出している
とき(ただし、前回特徴データが検出されない状態にな
ってから100msec経過して、S119でt1が0
にセットされることなどを前提とする)には、S144
に処理が進む。
Referring to FIG. 15, timer processing 1 will be described. This timer process 1 is an interrupt process.
In S141, it is determined whether or not t1 is 0. If t1 is 0, the process proceeds to S144, where t1 is 0
If not, the process proceeds to S150. S shown in FIG.
When the feature data of the registered image is detected in 113C (however, 100 msec has passed since the feature data was not detected last time, and t1 becomes 0 in S119).
S144) is set in S144
The process proceeds to.

【0084】S144においては、認識ウインドウの中
心点73は、図12のS105において入力されS10
6において設定された、画像表示面上に設定された「音
高を変化させる方向」のどの辺にあるかを計算して、基
準長さに対する割合を出し、S145に処理を進める。
このフローチャートにおいては、図4〜図6とは異な
り、画像表示面の左右方向に1つの発音領域列41のみ
を設定し、かつ、この発音領域列41に直交する縦方向
とは無関係に帯状の発音領域を設定している。また、画
像表示面の絶対位置(絶対座標)に対応させて発音領域
を設定するモードでは、画像表示面の横方向の距離を基
準長さとし、画像表示面の左端から認識ウインドウの中
心点73の位置(すなわち特定部分の位置)までの距離
を、基準長さで割ればよい。一方、画像登録時の発音領
域13を基準位置とした相対位置で発音領域を設定する
モードでは、基準となる登録時の発音領域13から音高
を変化させる方向に所定の基準長さを設定し、基準とな
る登録時の発音領域13を原点として、ここから認識ウ
インドウの中心点73の位置までの距離を基準長さで割
ればよい。
In S144, the center point 73 of the recognition window is input in S105 of FIG.
Then, it is calculated which side of the “pitch changing direction” set on the image display surface is set on the image display surface, a ratio to the reference length is calculated, and the process proceeds to S145.
In this flowchart, unlike FIG. 4 to FIG. 6, only one sounding region row 41 is set in the left-right direction of the image display surface, and a band-like shape independent of the vertical direction orthogonal to the sounding region row 41 is set. You have set the pronunciation area. In the mode in which the sound emission area is set in correspondence with the absolute position (absolute coordinates) of the image display surface, the distance in the horizontal direction of the image display surface is set as the reference length, and the center point 73 of the recognition window from the left end of the image display surface is set. The distance to the position (ie, the position of the specific portion) may be divided by the reference length. On the other hand, in the mode in which the sound emission area is set at a relative position with respect to the sound emission area 13 at the time of image registration, a predetermined reference length is set in a direction in which the pitch is changed from the sound emission area 13 at the time of registration as a reference. The distance from this to the position of the center point 73 of the recognition window may be divided by the reference length, with the sounding area 13 at the time of registration serving as the reference as the origin.

【0085】S145においては、この割合が所定割合
であるか否かを判定し、所定割合であるときには、S1
46に処理を進め、所定割合でないときには、S150
に処理を進める。ここで、所定割合であるかどうかの判
定とは、図4〜図6を流用して説明すると、認識ウイン
ドウ12の中心点が発音領域列中の、いずれの発音領域
13に存在するかを判定することである。S146にお
いては、その割合(発音領域)に見合った音名をパラメ
ータKにセットするとともに、先に、図13のS119
において格納したt2’パラメータの値とを合わせたセ
ットデータを、kcパラメータとして取り込み、かつ、
このkcパラメータを、ポインタpのシーケンスデータ
Q(p)に登録し、S147に処理を進める。
In S145, it is determined whether or not this ratio is a predetermined ratio.
The process advances to S46, and if not the predetermined ratio, S150
Processing proceeds to Here, the determination as to whether the ratio is the predetermined ratio will be described with reference to FIGS. 4 to 6. If the center point of the recognition window 12 is present in any of the sounding regions 13 in the sounding region sequence, it is determined. It is to be. In S146, a note name corresponding to the ratio (sound generation area) is set in the parameter K, and first, in S119 of FIG.
The set data obtained by combining with the value of the t2 ′ parameter stored in is taken as the kc parameter, and
This kc parameter is registered in the sequence data Q (p) of the pointer p, and the process proceeds to S147.

【0086】ここで、t2’パラメータの値とは、図1
3のS119において、0にセットされる前のt2の値
である。このt2’の値は、被写体の特定部分が前回の
位置に存在しなくなってから100msec経過した後
に、再び被写体の特定部分の元の位置あるいは新たな位
置が検出されたときまでの経過時間を示す値である。S
119の処理がなされた場合に限り、図15のS141
にてyesと判断され、この位置が、S144,S14
5において、発音領域であると判定されれば、そのとき
のデータt2’が音高データとともに自動演奏用データ
としてシーケンスデータQ(p)に順次レジストされる
とともに、S149にてリアルタイム発音される。した
がって、被写体の特定部分の中心位置が移動して、前
回、被写体の特定部分を画像認識できなくなった時から
100msec以内に、別の発音領域を通過したり、ま
たは、別の発音領域に滞在した場合があったとしても、
この実施の形態では、わざと無視をして発音指示をしな
い。これによって、手を無造作に速く動かした場合の不
用意な経過音を発音されなくするとともに、自動演奏デ
ータとしても取り込まないようにしている。
Here, the value of the t2 'parameter is the value shown in FIG.
3, the value of t2 before being set to 0 in S119. This value of t2 'indicates the elapsed time from when the specific portion of the subject no longer exists at the previous position until 100 msec has elapsed and when the original position or a new position of the specific portion of the subject is detected again. Value. S
Only when the processing of step S119 is performed, S141 of FIG.
Is determined to be yes, and this position is determined in S144 and S14.
If it is determined in step 5 that the area is a sound generation area, the data t2 'at that time is sequentially registered as automatic performance data in the sequence data Q (p) together with the pitch data, and is also sounded in real time in step S149. Therefore, the center position of the specific portion of the subject has moved, and the user passed through or stayed in another sounding region within 100 msec from when the image of the specific portion of the subject could not be recognized last time. If so,
In this embodiment, no sound is instructed by intentionally ignoring. In this way, an inadvertent elapsing sound when the hand is moved quickly and carelessly is not generated, and is not taken in as automatic performance data.

【0087】以上説明した配慮のもとに、S146にお
いて、t2’が、今回の音名Kと共に、kcパラメータ
として取り込まれる。なお、t2’は、前回、被写体の
特定部分が検出されていた位置に存在しなくなったとき
からの経過時間であるため、必ずしも、前回発音指示さ
れたときからの時間ではなく、被写体の特定部分が移動
途中で発音領域外に停止していれば、この領域に存在し
なくなったときからの時間である。しかし、使用者の通
常の動作では、音高の配列方向に沿って被写体の特定部
分を動かすから、発音領域外に停止することはまれであ
る。したがって、t2’は、前回、ある音名の発音が指
示されてから今回、新たな音名の発音が指示されるまで
の時間になる。また、図18(c)に示すように、t2
パラメータは、最大4秒に抑えられているので、t2’
も最大4秒に抑えられる。その結果、前回にある音名の
発音が指示されてから、今回、新たな音名の発音が指示
されるまでの時間が4秒よりも長くなってしまっても、
強制的に4秒の時間間隔として格納される。発音領域外
に停止しているときを誤操作として除外したい場合に
は、t2’の計数を、図15のS146において、毎回
発音指示するときの時刻をレジスタに記憶しておき、前
回と今回の時刻差を計算して、これをt2’とすればよ
い。
Under the consideration described above, at S146, t2 'is fetched as the kc parameter together with the current pitch K. Note that t2 'is the elapsed time from when the specific portion of the subject no longer exists at the position where the specific portion of the subject has been detected. If it stops outside the sounding area during the movement, it is the time from when it no longer exists in this area. However, in a normal operation of the user, since a specific portion of the subject is moved along the pitch arrangement direction, the user rarely stops outside the sound generation area. Therefore, t2 'is the time from when the pronunciation of a certain pitch name was previously instructed to when the pronunciation of a new pitch name is instructed this time. Further, as shown in FIG.
Since the parameter is suppressed to a maximum of 4 seconds, t2 ′
Is also reduced to a maximum of 4 seconds. As a result, even if the time between when the pronunciation of the previous note name was previously instructed and when the pronunciation of the new note name is instructed is longer than 4 seconds,
It is forcibly stored as a time interval of 4 seconds. When it is desired to exclude a time when the vehicle stops outside the sounding area as an erroneous operation, the count of t2 'is stored in a register in S146 of FIG. The difference may be calculated and this may be set as t2 '.

【0088】S147においては、t2’をリセット
し、S148に処理を進める。S148においては、認
識ウインドウ12の中心点をその中心とする所定半径の
円を確認マーク(図7の51)として画面に表示し、S
149に処理を進める。S149においては、音名Kの
楽音を所定の持続時間(ゲートタイム)にわたって発音
させ、S150に処理を進める。S150においては、
t2パラメータの値がn2以上であるか否かを判定し、
n2以上であるときには、S152に処理を進め、n2
未満であるときにはS151に処理を進める。S151
においては、t2パラメータの値に1を加算してカウン
トアップを行い、S153に処理を進める。S152に
おいては、t2パラメータの値をn2にセットしてS1
53に処理を進める。
In S147, t2 'is reset, and the process proceeds to S148. In S148, a circle of a predetermined radius centered on the center point of the recognition window 12 is displayed on the screen as a confirmation mark (51 in FIG. 7).
The process proceeds to 149. In S149, the musical tone of note name K is generated for a predetermined duration (gate time), and the process proceeds to S150. In S150,
determining whether the value of the t2 parameter is equal to or greater than n2,
If n2 or more, the process proceeds to S152, where n2
If it is less than the predetermined value, the process proceeds to S151. S151
In, the count value is incremented by adding 1 to the value of the t2 parameter, and the process proceeds to S153. In S152, the value of the t2 parameter is set to n2 and S1
The process proceeds to 53.

【0089】S153においては、t1パラメータの値
がn1以上であるか否かを判定し、n1以上であるとき
には、S155に処理を進め、n1未満であるときには
S154に処理を進める。S154においては、t1パ
ラメータの値に1を加算してカウントアップを行い、割
り込みルーチンを終了する。S155においては、t1
パラメータの値をn1にセットして割り込みルーチンを
終了する。t1パラメータ,t2パラメータの値の変化
は図18(b),図18(c)に示した通りである。
In S153, it is determined whether or not the value of the t1 parameter is equal to or more than n1, and if it is not less than n1, the process proceeds to S155, and if it is less than n1, the process proceeds to S154. In S154, 1 is added to the value of the t1 parameter to count up, and the interrupt routine ends. In S155, t1
The value of the parameter is set to n1, and the interrupt routine ends. Changes in the values of the t1 parameter and the t2 parameter are as shown in FIGS. 18 (b) and 18 (c).

【0090】図16を参照して、タイマs処理を説明す
る。このタイマs処理も、所定時間間隔の割り込みタイ
ミングで動作を開始する。S161においては、tsパ
ラメータに1を加算しS162に処理を進める。S16
2においては、tsパラメータの値がn以上であるか否
かを判定し、n以上であるときには、割り込みルーチン
を終了し、n未満であるときにはS163に処理を進
め、tsパラメータの値をnにセットして割り込みルー
チンを終了する。tsパラメータの値の時間変化は図1
8(a)に示したとおりである。
The timer s process will be described with reference to FIG. This timer s process also starts operating at interrupt timing at predetermined time intervals. In S161, 1 is added to the ts parameter, and the process proceeds to S162. S16
In 2, it is determined whether or not the value of the ts parameter is equal to or greater than n. If the value is equal to or greater than n, the interrupt routine is terminated. Set and end the interrupt routine. The time change of the value of the ts parameter is shown in FIG.
8 (a).

【0091】ここで、図12〜図14と図15とを関連
させて、認識ウインドウがどのように被写体の特定部分
を追跡しながら、楽音が発音するかについて、改めて説
明を付け加えておく。図15のS141からS144に
処理が進むのは、図13のS118において、被写体の
特定部分が前回の位置に存在しなくなってから、n1に
相当する時間以上経過していることが判定されてS11
9に進み、ここで、t1=0にセットされたときであ
る。n1の値で決まる時間は、上述した例では、100
msecであるが、手等を動かす速度を考慮して決め、
50msec〜100msecが好ましい。そして、現
在、被写体の特定部分が発音領域にあるときに限り、S
145においてyesとなり、S146に処理が進む。
つまり、フローチャート中の処理ステップの諸条件に合
致した時間データt2’パラメータが、S146におい
てシーケンスデータQ(p)に取り込まれる。登録モー
ドから演奏処理モードに移行したときに、初めて図15
のS141〜S149と処理が進んだときには、S14
9において、登録時における発音領域に割り当てられた
音名の楽音が発音される。図1(b)で説明した例で
は、登録時の発音領域に認識ウインドウの中心が必ずあ
るので、S145においてnoとなることはない。
Here, with reference to FIGS. 12 to 14 and FIG. 15, a description will be additionally given of how the recognition window tracks a specific portion of the subject and the tone is generated. The process proceeds from S141 in FIG. 15 to S144 because it is determined in S118 in FIG. 13 that the time corresponding to n1 or more has elapsed since the specific portion of the subject no longer exists at the previous position, and S11 is determined.
Go to No. 9, where t1 = 0 is set. The time determined by the value of n1 is 100 in the above example.
msec, but decided in consideration of the speed of moving the hand, etc.,
50 msec to 100 msec is preferable. Only when the specific part of the subject is currently in the sounding area, S
The determination at 145 is yes, and the process proceeds to S146.
That is, the time data t2 'parameter that matches the conditions of the processing steps in the flowchart is fetched into the sequence data Q (p) in S146. When the mode is shifted from the registration mode to the performance processing mode, FIG.
When the process proceeds from S141 to S149 of S14,
At 9, the tone of the note name assigned to the tone generation area at the time of registration is pronounced. In the example described with reference to FIG. 1B, since the center of the recognition window is always located in the sound generation area at the time of registration, no is set in S145.

【0092】最後に、図17を参照し、自動演奏再生処
理について説明する。S171においては、W/Rが2
であるか否かを判定し、2であるときには、S172に
処理を進め、2でないときにはメインルーチンに戻る。
S172においては、シーケンスデータQ(p)を、最
初のp=1から読み出す。その際、ある音名の楽音Kを
読み出すとともに、次のポインタp+1の位置に、次の
音名Kとともに記録されたt2’パラメータの値を読み
出し、S173に処理を進める。ただし、次のポインタ
p+1の位置に、次のkcデータがないときにはt2’
=0とする。S173においては、音名Kの楽音を発音
させ、S174に処理を進める。S174においては、
シーケンスデータQ(p+1)に、次のkcデータが有
るか否かを判定し、有るときにはS175に処理を進
め、ないときにはS176に処理を進める。
Finally, the automatic performance reproduction process will be described with reference to FIG. In S171, W / R is 2
Is determined, and when it is 2, the process proceeds to S172, and when it is not 2, the process returns to the main routine.
In S172, the sequence data Q (p) is read from the first p = 1. At this time, the tone K of a certain note name is read out, and at the next pointer p + 1, the value of the t2 'parameter recorded together with the next note name K is read out, and the process proceeds to S173. However, when there is no next kc data at the position of the next pointer p + 1, t2 ′
= 0. In S173, a musical tone having the pitch name K is generated, and the process proceeds to S174. In S174,
It is determined whether or not the next kc data exists in the sequence data Q (p + 1). If so, the process proceeds to S175; otherwise, the process proceeds to S176.

【0093】S176においては、読み出されたt2’
の値に等しい時間が経過したか否かを判定し、経過して
いないときには、再びS176に処理を戻し、経過した
ときには、S172に処理を戻す。S175において
は、図12に示したS107と同様な処理を行う、すな
わち、W/Rに0をセットして演奏モードに切り換え、
tsパラメータに値nをセットし、t1パラメータに値
n1をセットし、フラグF1に0をセットして、メイン
ルーチンに戻る。
In S176, the read t2 '
It is determined whether or not the time equal to the value has elapsed. If the time has not elapsed, the process returns to S176. If the time has elapsed, the process returns to S172. In S175, the same processing as in S107 shown in FIG. 12 is performed, that is, W / R is set to 0 and the mode is switched to the performance mode.
The value n is set in the ts parameter, the value n1 is set in the t1 parameter, the flag F1 is set to 0, and the process returns to the main routine.

【0094】なお、上述した説明では、シーケンスデー
タQ(p)を頭から順次、最後まで読み出すようにした
が、これに代えて、シーケンスデータQ(p)の全体を
ピアノロールウインドウや楽譜形式等で表示し、その中
から、気に入ったフレーズを、キーボードによる数値入
力あるいはマウスコントローラで範囲指定し、範囲指定
された期間のシーケンスデータQ(p)のみを読み出し
て発音させたり、作曲のための材料として、改めて、範
囲指定された期間のみのシーケンスデータQ(p)をメ
モリに記憶するようにしてもよい。
In the above description, the sequence data Q (p) is read sequentially from the beginning to the end. , And a favorite phrase is designated by numerical input using a keyboard or a mouse controller, and only the sequence data Q (p) for the designated period is read out to produce a sound, or a material for composing is displayed. Alternatively, the sequence data Q (p) only for the period specified in the range may be stored in the memory again.

【0095】上述した説明では、被写体の特定部分を1
つにして説明したが、2つ以上の特定部分を設けてもよ
い。この場合、例えば、時分割処理で各特定部分を、上
述した説明と同じ条件で位置検出する複数のフローを同
時に実行させる。あるいは、汎用のコンピュータを複数
台用いて、被写体の複数の特定部分を、個別のコンピュ
ータで位置検出するようにして、そのうちの1つのコン
ピュータで、被写体の複数の特定部分の位置検出情報を
収集して楽音の発音指示を行えばよい。
In the above description, the specific part of the subject is 1
However, two or more specific portions may be provided. In this case, for example, a plurality of flows for detecting the position of each specific portion in the time division process under the same conditions as described above are simultaneously executed. Alternatively, a plurality of general-purpose computers are used to detect the positions of a plurality of specific portions of the subject by individual computers, and one of the computers collects position detection information of the plurality of specific portions of the subject. It is only necessary to give a musical tone pronunciation instruction.

【0096】2つの特定部分を設けた場合、第1の特定
部分の移動が、所定の移動条件を満足したときに、発音
領域に割り当てられた楽音の発音を第1の音色で行うよ
うに指示するとともに、第2の特定部分の移動が、所定
の移動条件を満足したときに、発音領域に割り当てられ
た第2の楽音の発音を第1の音色とは異なる第2の音色
で行うように指示することができる。あるいは、第1の
特定部分の移動が、所定の移動条件を満足したときに、
発音領域に割り当てられた楽音の発音を第1の演奏パー
トで行うように指示するとともに、第2の特定部分の移
動が、所定の移動条件を満足したときに、発音領域に割
り当てられた楽音の発音を第1の演奏パートとは異なる
第2の演奏パートで行うように指示することができる。
また、第2の特定部分の移動位置を検出するとともに、
第1の特定部分の移動が、所定の移動条件を満足したと
きに、発音領域に割り当てられた音高を識別し、識別さ
れた音高を、第2の特定部分の位置の変化方向に応じて
オクターブシフトさせて、楽音の発音を指示することが
できる。
In the case where two specific parts are provided, when the movement of the first specific part satisfies a predetermined movement condition, an instruction is given to produce a tone assigned to the tone generation area in the first tone color. In addition, when the movement of the second specific portion satisfies a predetermined movement condition, the second tone assigned to the tone generation area is sounded with a second tone different from the first tone. Can be instructed. Alternatively, when the movement of the first specific portion satisfies a predetermined movement condition,
Instructing the first performance part to produce the musical tone assigned to the pronunciation area, and when the movement of the second specific portion satisfies a predetermined movement condition, the tone of the musical tone assigned to the pronunciation area is given. It is possible to instruct that the pronunciation is to be performed in a second performance part different from the first performance part.
In addition, while detecting the movement position of the second specific portion,
When the movement of the first specific portion satisfies a predetermined movement condition, the pitch assigned to the sound generation area is identified, and the identified pitch is determined according to the direction of change in the position of the second specific portion. To shift the pitch by one octave.

【0097】上述した説明では、画像表示面上の複数の
発音領域に、音名(音高)を割り当てて楽音を発音させ
たが、調を指定した上で、階名を割り当ててもよい。ま
た、画像表示面上の複数の発音領域に、異なる音色を割
り当ててもよい。単に、特定部分が発音領域に位置した
ことを操作者に確認させるだけであれば、複数の発音領
域に全く同じ楽音を割り当ててもよい。
In the above description, a tone is generated by assigning a tone name (pitch) to a plurality of tone generating regions on the image display surface. Further, different timbres may be assigned to a plurality of tone generation areas on the image display surface. If the operator simply confirms that the specific portion is located in the sounding area, the same tone may be assigned to a plurality of sounding areas.

【0098】[0098]

【発明の効果】上述した説明から明らかなように、本発
明によれば、被写体の特定部分がどのように動いたかの
移動状況を、楽音によって確認させることができるとい
う効果がある。本発明の楽音制御装置は、楽音発生部と
共に用いたり、楽音発生部と一体となって楽音発生装置
として使用されるが、操作者が演奏する意思をもってこ
れに臨まないと、望むような楽音を発生する楽器とはな
らないようになっている。その結果、操作者にうまく演
奏しようとする意欲が生まれ、これが手足等を動かすリ
ハビリテーションにつながる。したがって、リハビリテ
ーションの身体能力回復のための支援装置、あるいは身
体機能の向上のための支援装置として用いることができ
る。同時に、身振りに応じて楽音を発音する電子楽器の
機能も備えるため、楽しみながらリハビリテーションを
行うことができる。また、音楽的創造力やダンス的素養
を高めることも期待できる。電子楽器の入力装置として
も、手の位置等で音高を入力することが簡単にできるた
め、楽器をさわったことのない人でも、演奏することが
できる。手に限らず、頭(首)、肘、足の動き、手に持
ったカードや棒の動き等を使って演奏することができ
る。また、発音する楽音を発音時間間隔を含めて記憶す
ることができるので、演奏を入力すると同時に記録を行
い、その後、改めて演奏中のフレーズを取り出すことに
より、簡単に作曲することができる。
As is clear from the above description, according to the present invention, there is an effect that a moving state of how a specific portion of a subject has moved can be confirmed by a musical tone. The tone control device of the present invention is used together with a tone generator or used as a tone generator integrally with a tone generator. However, if the operator does not intend to play the instrument, he or she can produce a desired tone. It does not become a musical instrument. As a result, the operator is motivated to perform well, which leads to rehabilitation in which the limbs are moved. Therefore, it can be used as a support device for recovering the physical ability of rehabilitation or a support device for improving the physical function. At the same time, since it also has the function of an electronic musical instrument that produces musical sounds in response to gestures, it is possible to enjoy rehabilitation. It can also be expected to enhance musical creativity and dance skills. Even as an input device of an electronic musical instrument, it is possible to easily input a pitch at a hand position or the like, so that even a person who has never touched the musical instrument can play. Not only the hands, but also the movements of the head (neck), elbows, legs, the movement of the cards and sticks held in the hands, etc. can be performed. In addition, since the musical tones to be generated can be stored including the sounding time intervals, the performance can be input and recorded at the same time, and then the phrase being played can be taken out again to easily compose the music.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の楽音制御装置の実施の一形態の第1
の説明図である。
FIG. 1 shows a first embodiment of a musical tone control device according to the present invention.
FIG.

【図2】 本発明の楽音制御装置の実施の一形態の第2
の説明図である。
FIG. 2 shows a second embodiment of the musical sound control device according to the present invention.
FIG.

【図3】 本発明の楽音制御装置の実施の一形態のハー
ドウエア構成の概要図である。
FIG. 3 is a schematic diagram of a hardware configuration of an embodiment of a musical sound control device according to the present invention.

【図4】 本発明の楽音制御装置の実施の一形態の発音
領域の第1の説明図である。
FIG. 4 is a first explanatory diagram of a sound generation region of the musical tone control device according to the embodiment of the present invention;

【図5】 本発明の楽音制御装置の実施の一形態の発音
領域の第2の説明図である。
FIG. 5 is a second explanatory diagram of a sound generation area according to the embodiment of the tone control device of the present invention.

【図6】 本発明の楽音制御装置の実施の一形態の発音
領域の第3の説明図である。
FIG. 6 is a third explanatory diagram of a sound generation area according to the embodiment of the tone control device of the present invention.

【図7】 本発明の楽音制御装置の実施の一形態の楽音
制御機能の説明図である。
FIG. 7 is an explanatory diagram of a tone control function according to an embodiment of the tone control device of the present invention.

【図8】 本発明の楽音制御装置の実施の一形態におけ
る画像認識の第1の説明図である。
FIG. 8 is a first explanatory diagram of image recognition in one embodiment of the musical sound control device of the present invention.

【図9】 本発明の楽音制御装置の実施の一形態におけ
る画像認識の第2の説明図である。
FIG. 9 is a second explanatory diagram of image recognition in one embodiment of the musical sound control device of the present invention.

【図10】 本発明の楽音制御装置の実施の一形態のメ
インルーチンのフローチャートである。
FIG. 10 is a flowchart of a main routine according to an embodiment of the tone control device of the present invention.

【図11】 本発明の楽音制御装置の実施の一形態のパ
ラメータおよびモード設定処理のフローチャートであ
る。
FIG. 11 is a flowchart of a parameter and mode setting process according to an embodiment of the tone control device of the present invention.

【図12】 本発明の楽音制御装置の実施の一形態の画
像認識登録処理のフローチャートである。
FIG. 12 is a flowchart of an image recognition registration process according to an embodiment of the tone control device of the present invention.

【図13】 本発明の楽音制御装置の実施の一形態の演
奏処理の第1のフローチャートである。
FIG. 13 is a first flowchart of a performance process according to an embodiment of the tone control device of the present invention.

【図14】 本発明の楽音制御装置の実施の一形態の演
奏処理の第2のフローチャートである。
FIG. 14 is a second flowchart of a performance process according to an embodiment of the musical tone control device of the present invention.

【図15】 本発明の楽音制御装置の実施の一形態のタ
イマ処理1のフローチャートである。
FIG. 15 is a flowchart of a timer process 1 according to the embodiment of the musical sound control device of the present invention.

【図16】 本発明の楽音制御装置の実施の一形態のタ
イマ処理sのフローチャートである。
FIG. 16 is a flowchart of a timer process s according to an embodiment of the musical tone control device of the present invention.

【図17】 本発明の楽音制御装置の実施の一形態の自
動演奏再生処理のフローチャートである。
FIG. 17 is a flowchart of an automatic performance reproduction process according to an embodiment of the tone control device of the present invention.

【図18】 時間パラメータであるtsパラメータ、t
1パラメータ、t2パラメータの時間変化を示す説明図
である。
FIG. 18 shows a time parameter ts and t
FIG. 4 is an explanatory diagram showing a time change of one parameter and a t2 parameter.

【符号の説明】[Explanation of symbols]

1 操作者、1a 手、2 コンピュータ本体部、3
キーボード、4 画像表示装置、5 スピーカ、6 ビ
デオカメラ、11 操作者の表示画像、11aは手の表
示画像、12は認識ウインドウ、13は発音領域、21
位置検出部、21a 被写体特定部分の画像記憶部、
21b 画像認識部、22 発音指示部、23 発音領
域設定部、51 確認マーク、71 特定ポイント、7
2 位置探索領域、73 認識ウインドウの中心点、7
4 認識ウインドウの外周の移動領域
1 operator, 1a hand, 2 computer body, 3
Keyboard, 4 image display device, 5 speaker, 6 video camera, 11 display image of operator, 11a is display image of hand, 12 is recognition window, 13 is sound generation area, 21
A position detection unit, 21a an image storage unit for a subject specific portion,
21b Image recognition unit, 22 sounding instruction unit, 23 sounding region setting unit, 51 confirmation mark, 71 specific point, 7
2 position search area, 73 center point of recognition window, 7
4 Moving area around the recognition window

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 移動する操作物体の位置を検出して楽音
の発音を制御する楽音制御装置であって、 前記操作物体の位置を検出する位置検出手段と、 前記位置検出手段の出力を入力し、前記操作物体の任意
の基準位置から前記操作物体の現在位置までの移動時間
および前記操作物体の現在位置の両要素に少なくとも応
じて前記楽音を発音させるか否かを決定し、前記楽音を
発音させる場合に前記楽音の発音を指示する発音指示手
段と、 を有することを特徴とする楽音制御装置。
1. A musical tone control device for detecting the position of a moving operation object and controlling the generation of musical tones, comprising: a position detection means for detecting a position of the operation object; and an output of the position detection means. Determining whether or not to emit the musical tone in accordance with at least both the movement time from an arbitrary reference position of the operating object to the current position of the operating object and the current position of the operating object; And a sound instructing means for instructing sounding of the musical sound when the musical sound is caused to sound.
【請求項2】 被写体を撮影した画像表示面上における
前記被写体の特定部分の位置を検出する位置検出手段
と、 前記画像表示面上に少なくとも1つの発音領域を設定す
るとともに、前記発音領域に対して発音させる楽音を割
り当てる発音領域設定手段と、 前記位置検出手段の出力を入力し、前記特定部分が、前
記画像表示面上の、ある1つの領域に存在しなくなった
と判定されてから所定時間経過後に、前記ある1つの領
域とは異なる前記画像表示面上の他の領域に存在すると
判定され、かつ、前記他の領域が前記発音領域に属する
と判定されたときに、現在、前記特定部分が存在する前
記発音領域に割り当てられた楽音の発音を指示する発音
指示手段とを有する、 ことを特徴とする楽音制御装置。
2. A position detecting means for detecting a position of a specific portion of the subject on an image display surface on which the subject is photographed, and at least one sounding region is set on the image display surface. Sounding area setting means for assigning musical sounds to be sounded, and an output of the position detecting means is inputted, and a predetermined time elapses after it is determined that the specific portion does not exist in a certain area on the image display surface. Later, when it is determined that the specific area exists in another area on the image display surface different from the certain area, and when it is determined that the other area belongs to the sound generation area, the specific part is currently present. And a tone generation instruction means for instructing the tone generation assigned to the existing tone generation area.
【請求項3】 前記発音指示手段は、前記特定部分の位
置が、前記所定時間経過後に、前記ある1つの領域と同
じ領域にあることが判定され、かつ、前記ある領域が前
記発音領域に属すると判定されたときにも、現在、前記
特定部分が存在する前記発音領域に割り当てられた楽音
の発音を指示する、 ことを特徴とする請求項2に記載の楽音制御装置。
3. The sounding instructing means determines that the position of the specific part is in the same area as the certain one area after the predetermined time has elapsed, and the certain area belongs to the sounding area. 3. The tone control device according to claim 2, wherein when it is determined that the tone is assigned to the tone generation area in which the specific portion is present, the tone control is performed.
【請求項4】 前記発音領域設定手段は、前記画像表示
面上の所定の方向に複数の発音領域を設定し、前記所定
の方向に沿った前記各発音領域の順序に応じた音高の楽
音を割り当てるものである、 ことを特徴とする請求項2または3に記載の楽音制御装
置。
4. The tone generation area setting means sets a plurality of tone generation areas in a predetermined direction on the image display surface, and generates a tone having a pitch according to an order of the tone generation areas along the predetermined direction. The musical tone control device according to claim 2, wherein:
【請求項5】 前記発音領域設定手段は、外部入力信号
により、前記所定の方向を設定するものである、 ことを特徴とする請求項4に記載の楽音制御装置。
5. The musical tone control device according to claim 4, wherein the sounding area setting means sets the predetermined direction according to an external input signal.
【請求項6】 被写体を撮影した画像表示面上における
前記被写体の第1および第2の特定部分の位置を検出す
る位置検出手段と、 前記画像表示面上に少なくとも1つの発音領域を設定す
るとともに、前記発音領域に対して発音させる楽音を割
り当てる発音領域設定手段と、 前記位置検出手段の出力を入力し、前記第1の特定部分
が、前記画像表示面上のある1つの領域に存在しなくな
ったと判定されてから所定時間経過後に、前記ある1つ
の領域とは異なる前記画像表示面上の他の領域に存在す
ると判定され、かつ、前記他の領域が前記発音領域に属
すると判定されたときに、現在、前記第1の特定部分が
存在する前記発音領域に割り当てられた楽音の発音を第
1の音色で行うように指示するとともに、前記第2の特
定部分が、前記画像表示面上のある1つの領域に存在し
なくなったと判定されてから所定時間経過後に、前記あ
る1つの領域とは異なる前記画像表示面上の他の領域に
存在すると判定され、かつ、前記他の領域が前記発音領
域に属すると判定されたときに、現在、前記第2の特定
部分が存在する前記発音領域に割り当てられた楽音の発
音を前記第1の音色とは異なる第2の音色で行うように
指示する発音指示手段とを有する、 ことを特徴とする楽音制御装置。
6. A position detecting means for detecting positions of first and second specific portions of the subject on an image display surface on which the subject is photographed, and at least one sounding area is set on the image display surface. Inputting an output of the position detecting means, wherein the first specific portion is no longer present in a certain area on the image display surface. After a predetermined time has passed since it was determined that the other region is different from the certain region on the image display surface, and when it is determined that the other region belongs to the sound generation region. Instructions that the tone assigned to the tone generation area in which the first specific portion is present is to be produced by the first timbre, and that the second specific portion is in the image table. After a predetermined time elapses after it is determined that the one area does not exist in the area, the area is determined to exist in another area on the image display surface different from the one area, and the other area is determined. Is determined to belong to the sounding region, the tone assigned to the sounding region where the second specific portion is present is sounded with a second tone different from the first tone. And a sound instructing means for instructing the sound control.
【請求項7】 被写体を撮影した画像表示面上における
前記被写体の第1および第2の特定部分の位置を検出す
る位置検出手段と、 前記画像表示面上に少なくとも1つの発音領域を設定す
るとともに、前記発音領域に対して発音させる楽音を割
り当てる発音領域設定手段と、 前記位置検出手段の出力を入力し、前記第1の特定部分
が、前記画像表示面上のある1つの領域に存在しなくな
ったと判定されてから所定時間経過後に、前記ある1つ
の領域とは異なる前記画像表示面上の他の領域に存在す
ると判定され、かつ、前記他の領域が前記発音領域に属
すると判定されたときに、前記第1の特定部分が存在す
る前記発音領域に割り当てられた楽音の発音を第1の演
奏パートで行うように指示するとともに、前記第2の特
定部分が、前記画像表示面上のある1つの領域に存在し
なくなったと判定されてから所定時間経過後に、前記あ
る1つの領域とは異なる前記画像表示面上の他の領域に
存在すると判定され、かつ、前記他の領域が前記発音領
域に属すると判定されたときに、前記第2の特定部分が
存在する前記発音領域に割り当てられた楽音の発音を第
1の演奏パートとは異なる第2の演奏パートで行うよう
に指示する発音指示手段とを有する、 ことを特徴とする楽音制御装置。
7. A position detecting means for detecting positions of first and second specific portions of the subject on an image display surface on which the subject has been photographed, and at least one sounding area is set on the image display surface. Inputting the output of the position detecting means, wherein the first specific portion is no longer present in a certain area on the image display surface. After a predetermined time has passed since it was determined that the other region is different from the certain region on the image display surface, and when it is determined that the other region belongs to the sound generation region. Instructs the first performance part to sound a tone assigned to the sounding area in which the first specific part is present, and the second specific part uses the image table. After a predetermined time elapses after it is determined that the one area does not exist in the area, the area is determined to exist in another area on the image display surface different from the one area, and the other area is determined. Is determined to belong to the sounding area, the tone assigned to the sounding area where the second specific portion is present is sounded in a second performance part different from the first performance part. A tone control device, comprising: a sounding instruction means for instructing.
【請求項8】 被写体を撮影した画像表示面上における
前記被写体の第1および第2の特定部分の位置を検出す
る位置検出手段と、 前記画像表示面上の所定の方向に複数の発音領域を設定
するとともに、前記所定の方向に沿った前記発音領域の
順序に応じた音高の楽音を割り当てる発音領域設定手段
と、 前記位置検出手段の出力を入力し、前記第2の特定部分
の位置の変化方向を検出するとともに、前記第1の特定
部分が、前記画像表示面上のある1つの領域に存在しな
くなったと判定されてから所定時間経過後に、前記ある
1つの領域とは異なる前記画像表示面上の他の領域に存
在すると判定され、かつ、前記他の領域が前記発音領域
に属すると判定されたときに、現在、前記第1の特定部
分が存在する前記発音領域に割り当てられた前記音高を
識別し、識別された前記音高を、前記第2の特定部分の
位置の変化方向に応じてオクターブシフトさせて、前記
楽音の発音を指示する発音指示手段とを有する、 ことを特徴とする楽音制御装置。
8. A position detecting means for detecting positions of first and second specific portions of the subject on an image display surface on which the subject has been photographed, and a plurality of sounding regions in a predetermined direction on the image display surface. A sounding area setting means for setting and assigning a musical tone having a pitch according to an order of the sounding areas along the predetermined direction; and an output of the position detecting means, and inputting a position of the second specific portion. A change direction is detected, and after a predetermined time elapses after it is determined that the first specific portion does not exist in a certain area on the image display surface, the image display different from the certain one area is performed. When it is determined that the first specific portion exists in another sound-generating area, and the other area is determined to belong to the sound-generating area, And a sound instructing means for instructing sounding of the musical tone by octave-shifting the identified pitch and shifting the identified pitch in accordance with the direction of change in the position of the second specific portion. Music control device.
【請求項9】 記憶手段を有し、 該記憶手段は、前記発音指示手段が、前記楽音の発音を
指示するごとに、前記発音の指示の前回の時刻から今回
の時刻までの時間経過情報を、発音指示される前記楽音
の情報とともに記憶するものである、 ことを特徴とする請求項2ないし8のいずれか1項に記
載の楽音制御装置。
9. A storage unit, wherein the storage unit stores time lapse information from the previous time of the sounding instruction to the present time each time the sounding instruction unit instructs sounding of the musical tone. The musical tone control device according to any one of claims 2 to 8, wherein the musical tone control device is stored together with information on the musical tone to be instructed.
【請求項10】 被写体を撮影した画像表示面上におけ
る前記被写体の特定部分の位置を検出する位置検出手段
と、 前記画像表示面上に少なくとも1つの発音領域を設定す
るとともに、前記発音領域に対して発音させる楽音を割
り当てる発音領域設定手段と、 前記位置検出手段の出力を入力し、前記特定部分が、前
記画像表示面上の、ある1つの領域に存在しなくなった
と判定されてから所定時間経過後に、前記ある1つの領
域とは異なる前記画像表示面上の他の領域に存在すると
判定され、かつ、前記他の領域が前記発音領域に属する
と判定されたときに、現在、前記特定部分が存在する前
記発音領域に割り当てられた楽音の発音を指示する発音
指示手段と、 してコンピュータを機能させるための楽音制御プログラ
ムが記録された記録媒体。
10. A position detecting means for detecting a position of a specific portion of the subject on an image display surface on which the subject has been photographed, and at least one sounding region is set on the image display surface. Sounding area setting means for assigning musical sounds to be sounded, and an output of the position detecting means is inputted, and a predetermined time elapses after it is determined that the specific portion does not exist in a certain area on the image display surface. Later, when it is determined that the specific area exists in another area on the image display surface different from the certain area, and when it is determined that the other area belongs to the sound generation area, the specific part is currently present. Sounding instructing means for instructing sounding of a musical sound assigned to the existing sounding area, and a recording medium storing a musical sound control program for causing a computer to function .
JP07803599A 1999-03-23 1999-03-23 Music control device Expired - Fee Related JP3637802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07803599A JP3637802B2 (en) 1999-03-23 1999-03-23 Music control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07803599A JP3637802B2 (en) 1999-03-23 1999-03-23 Music control device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004322403A Division JP3938178B2 (en) 2004-11-05 2004-11-05 Music control device

Publications (2)

Publication Number Publication Date
JP2000276138A true JP2000276138A (en) 2000-10-06
JP3637802B2 JP3637802B2 (en) 2005-04-13

Family

ID=13650572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07803599A Expired - Fee Related JP3637802B2 (en) 1999-03-23 1999-03-23 Music control device

Country Status (1)

Country Link
JP (1) JP3637802B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316300A (en) * 2004-04-30 2005-11-10 Kyushu Institute Of Technology Semiconductor device having musical tone generation function, and mobile type electronic equipment, mobil phone, spectacles appliance and spectacles appliance set using the same
JP2006325740A (en) * 2005-05-24 2006-12-07 Nagasaki Univ Rehabilitation support system and program
EP1760689A1 (en) * 2004-06-09 2007-03-07 Toyota Motor Kyushu Inc. Musical sound producing apparatus, musical sound producing method, musical sound producing program, and recording medium
JP2007520309A (en) * 2004-02-05 2007-07-26 モトリカ インク Music rehabilitation
JP2008165098A (en) * 2006-12-29 2008-07-17 Sounos Co Ltd Electronic musical instrument
JP2009086534A (en) * 2007-10-02 2009-04-23 Yamaha Corp Sound data generation device and direction sensing sound output musical instrument
JP2009169175A (en) * 2008-01-17 2009-07-30 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2011128393A (en) * 2009-12-18 2011-06-30 Korg Inc Controller for electronic musical instrument
JP2011189066A (en) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd Game device, control method for game device, and program
CN103295564A (en) * 2012-03-02 2013-09-11 卡西欧计算机株式会社 Musical performance device, method for controlling musical performance device
JP2015191435A (en) * 2014-03-28 2015-11-02 株式会社ユピテル Electronic information system and program thereof
JP6425287B1 (en) * 2017-10-23 2018-11-21 株式会社mediVR Rehabilitation support system, rehabilitation support method and rehabilitation support program
WO2021038833A1 (en) * 2019-08-30 2021-03-04 ソニフィデア合同会社 Acoustic space creation apparatus

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007520309A (en) * 2004-02-05 2007-07-26 モトリカ インク Music rehabilitation
WO2005106839A1 (en) * 2004-04-30 2005-11-10 Kyushu Institute Of Technology Semiconductor device having music generation function, and mobile electronic device, mobile telephone device, spectacle instrument, and spectacle instrument set using the same
JP2005316300A (en) * 2004-04-30 2005-11-10 Kyushu Institute Of Technology Semiconductor device having musical tone generation function, and mobile type electronic equipment, mobil phone, spectacles appliance and spectacles appliance set using the same
US7655856B2 (en) 2004-06-09 2010-02-02 Toyota Motor Kyushu Inc. Musical sounding producing apparatus, musical sound producing method, musical sound producing program, and recording medium
EP1760689A1 (en) * 2004-06-09 2007-03-07 Toyota Motor Kyushu Inc. Musical sound producing apparatus, musical sound producing method, musical sound producing program, and recording medium
EP1760689A4 (en) * 2004-06-09 2010-07-21 Toyota Motor Kyushu Inc Musical sound producing apparatus, musical sound producing method, musical sound producing program, and recording medium
JP2006325740A (en) * 2005-05-24 2006-12-07 Nagasaki Univ Rehabilitation support system and program
JP2008165098A (en) * 2006-12-29 2008-07-17 Sounos Co Ltd Electronic musical instrument
JP2009086534A (en) * 2007-10-02 2009-04-23 Yamaha Corp Sound data generation device and direction sensing sound output musical instrument
JP2009169175A (en) * 2008-01-17 2009-07-30 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2011128393A (en) * 2009-12-18 2011-06-30 Korg Inc Controller for electronic musical instrument
JP2011189066A (en) * 2010-03-16 2011-09-29 Konami Digital Entertainment Co Ltd Game device, control method for game device, and program
CN103295564A (en) * 2012-03-02 2013-09-11 卡西欧计算机株式会社 Musical performance device, method for controlling musical performance device
CN103295564B (en) * 2012-03-02 2015-09-30 卡西欧计算机株式会社 The control method of music performance apparatus and music performance apparatus
JP2015191435A (en) * 2014-03-28 2015-11-02 株式会社ユピテル Electronic information system and program thereof
JP6425287B1 (en) * 2017-10-23 2018-11-21 株式会社mediVR Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP2019076290A (en) * 2017-10-23 2019-05-23 株式会社mediVR Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
WO2021038833A1 (en) * 2019-08-30 2021-03-04 ソニフィデア合同会社 Acoustic space creation apparatus

Also Published As

Publication number Publication date
JP3637802B2 (en) 2005-04-13

Similar Documents

Publication Publication Date Title
US10825432B2 (en) Smart detecting and feedback system for smart piano
US7605322B2 (en) Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor
US10403254B2 (en) Electronic musical instrument, and control method of electronic musical instrument
JP2000276138A (en) Music sound controller
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
JP4215104B2 (en) Music control device
JP2001269431A (en) Body movement state-evaluating device
KR101535814B1 (en) Piano capable of making playing piano easy
ES2356386T3 (en) METHOD FOR SUPPLYING AN AUDIO SIGNAL AND METHOD FOR GENERATING BACKGROUND MUSIC.
JP2008012102A (en) Method and apparatus for outputting sound linked with image
JP2005103241A (en) Input device, game system, program, and information storage medium
JP7243026B2 (en) Performance analysis method, performance analysis device and program
JP2006259471A (en) Singing practice system and program for singing practice system
JP5803172B2 (en) Evaluation device
JP3938178B2 (en) Music control device
US20130106689A1 (en) Methods of operating systems having optical input devices
JP2007304489A (en) Musical piece practice supporting device, control method, and program
JP2005249844A (en) Device and program for performance indication
KR19990068392A (en) Karaoke system capable of dance training and gaming and method using the same
KR102128315B1 (en) An apparatus for arranging MIDI music based on virtual instrument visualization, method thereof and computer recordable medium storing program to perform the method
JP4054852B2 (en) Musical sound generation method and apparatus
JP5999689B2 (en) Performance system and program
JP4407354B2 (en) Electronic game machine
JP5574130B2 (en) Karaoke device and karaoke program
JP3221331U (en) Animation picture type portable playing practice device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050103

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100121

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120121

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130121

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees