JP7440727B2 - Rhythm comprehension support system - Google Patents
Rhythm comprehension support system Download PDFInfo
- Publication number
- JP7440727B2 JP7440727B2 JP2020108253A JP2020108253A JP7440727B2 JP 7440727 B2 JP7440727 B2 JP 7440727B2 JP 2020108253 A JP2020108253 A JP 2020108253A JP 2020108253 A JP2020108253 A JP 2020108253A JP 7440727 B2 JP7440727 B2 JP 7440727B2
- Authority
- JP
- Japan
- Prior art keywords
- rhythm
- person
- support system
- count
- music
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033764 rhythmic process Effects 0.000 title claims description 99
- 230000033001 locomotion Effects 0.000 claims description 57
- 238000004088 simulation Methods 0.000 claims description 56
- 208000032041 Hearing impaired Diseases 0.000 claims description 12
- 230000008921 facial expression Effects 0.000 claims description 7
- 239000011435 rock Substances 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 description 29
- 238000003786 synthesis reaction Methods 0.000 description 29
- 238000005516 engineering process Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 230000001755 vocal effect Effects 0.000 description 12
- 241000282414 Homo sapiens Species 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000000034 method Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000009527 percussion Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 206010011878 Deafness Diseases 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 239000000779 smoke Substances 0.000 description 3
- 239000002023 wood Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000003595 mist Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 208000023514 Barrett esophagus Diseases 0.000 description 1
- 229910001369 Brass Inorganic materials 0.000 description 1
- 241001342895 Chorus Species 0.000 description 1
- 241001077262 Conga Species 0.000 description 1
- 206010048865 Hypoacusis Diseases 0.000 description 1
- 235000014676 Phragmites communis Nutrition 0.000 description 1
- 241001362551 Samba Species 0.000 description 1
- 235000011312 Silene vulgaris Nutrition 0.000 description 1
- 240000000022 Silene vulgaris Species 0.000 description 1
- 241000982634 Tragelaphus eurycerus Species 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000010951 brass Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- -1 droplets Substances 0.000 description 1
- 210000000031 electric organ Anatomy 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000003205 fragrance Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004020 luminiscence type Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Description
特許法第30条第2項適用 (1)行為時の権利者である庄司英一は、令和2年1月24日に、令和元年度 機械・システム工学科Rコース 卒業研究発表会(令和2年1月28日)の予稿集にて、本発明の支援システムを自ら公開した。 (2)行為時の権利者である庄司英一は、令和2年2月8日にウェブサイトYouTubeのアドレス:https://youtu.be/Eq3oB_o0bekに本発明の支援システムを自ら公開した。 (3)行為時の権利者である庄司英一は、令和2年2月9日にウェブサイトYouTubeのアドレス:https://youtu.be/TtqIDiwaiVYに本発明の支援システムを自ら公開した。 (4)行為時の権利者である庄司英一は、令和2年2月10日にウェブサイトYouTubeのアドレス:https://youtu.be/zsvs8i7WNh0に本発明の支援システムを自ら公開した。 (5)行為時の権利者である庄司英一は、令和2年2月19日にウェブサイトYouTubeのアドレス:https://youtu.be/h29veEQ_rgAに本発明の支援システムを自ら公開した。 (6)行為時の権利者である庄司英一は、令和2年3月5日にウェブサイトYouTubeのアドレス:https://youtu.be/-SbvZpsJQz4に本発明の支援システムを自ら公開した。 (7)行為時の権利者である庄司英一は、令和2年3月8日にウェブサイトYouTubeのアドレス:https://youtu.be/rTJUH2ee35oに本発明の支援システムを自ら公開した。 (8)行為時の権利者である庄司英一は、令和2年3月9日にウェブサイトYouTubeのアドレス:https://youtu.be/ZO38N3uiApUに本発明の支援システムを自ら公開した。 (9)行為時の権利者である庄司英一は、令和2年3月10日にウェブサイトYouTubeのアドレス:https://youtu.be/Yo8SO1KkvL0に本発明の支援システムを自ら公開した。 (10)行為時の権利者である庄司英一は、令和2年3月10日にウェブサイトYouTubeのアドレス:https://youtu.be/2rVaNQadg-4に本発明の支援システムを自ら公開した。 Application of Article 30,
特許法第30条第2項適用 (11)行為時の権利者である庄司英一は、令和2年3月10日にウェブサイトYouTubeのアドレス:https://youtu.be/pzfk-gysWJoに本発明の支援システムを自ら公開した。 (12)行為時の権利者である庄司英一は、令和2年3月15日にウェブサイトYouTubeのアドレス:https://youtu.be/eDiaxqHVbdwに本発明の支援システムを自ら公開した。 (13)行為時の権利者である庄司英一は、令和2年3月15日にウェブサイトYouTubeのアドレス:https://youtu.be/v-PMsjAv-sAに本発明の支援システムを自ら公開した。 (14)行為時の権利者である庄司英一は、令和2年3月19日にウェブサイトYouTubeのアドレス:https://youtu.be/3FnGPHfLrNEに本発明の支援システムを自ら公開した。 (15)行為時の権利者である庄司英一は、令和2年3月20日にウェブサイトYouTubeのアドレス:https://youtu.be/75K-4QyA80Mに本発明の支援システムを自ら公開した。Application of Article 30,
本発明は、リズムを把握するためのリズム把握支援システムに関する。 The present invention relates to a rhythm comprehension support system for grasping rhythm.
耳の不自由な人が音楽に合わせてダンスを踊るために、楽曲のリズムに誘導するような動作を行うカウントマンと呼ばれる人が知られている(例えば、非特許文献1参照)。 2. Description of the Related Art In order for deaf people to dance to music, there is a person known as a count man who performs movements to guide the rhythm of the music (for example, see Non-Patent Document 1).
非特許文献1に示すカウントマンは、耳の不自由な人に対して、流れている楽曲のリズムに合わせるような動作、または、次の動作を示すようなジェスチャーを行う。耳の不自由な人は、カウントマンのジェスチャーを見ながらダンスを行うことにより、楽曲が十分に聞こえていなくても楽曲のリズムに合わせてダンスを行うことができる。
The counting man shown in Non-Patent
しかしながら、カウントマンが行うジェスチャーは、特殊な知識が必要な動作であり、誰しもがそのジェスチャーを行うことができる訳ではない。このため、カウントマンを用意し、耳の不自由な人が上述したようなダンスを手軽に踊って楽しむことが難しい。 However, the gestures performed by the count man require special knowledge, and not everyone can perform them. For this reason, it is difficult for a hearing-impaired person to easily dance and enjoy the above-mentioned dance by preparing a counting man.
本発明の目的は、例えば耳の不自由な人が手軽に音楽に合わせてダンスを踊ったり、合奏を楽しむことができるリズム把握支援システムを提供することにある。 An object of the present invention is to provide a rhythm understanding support system that allows, for example, a hearing-impaired person to easily dance to music or enjoy an ensemble.
このような目的は、下記(1)~(7)の本発明により達成される。
(1) ユーザーがリズムを把握するのを支援するリズム把握支援システムであって、
楽曲データが入力される入力部と、
前記入力部に入力された前記楽曲データに基づいて、カウントパーソンが、前記楽曲データが再生された楽曲のリズムに誘導する補助動作を行うシミュレーション動画を生成するシミュレーション動画生成部と、
前記シミュレーション動画生成部が生成した前記シミュレーション動画を表示する表示制御部と、を備えることを特徴とするリズム把握支援システム。
Such objects are achieved by the present invention described in (1) to (7) below.
(1) A rhythm comprehension support system that supports a user in grasping rhythm,
an input section into which music data is input;
a simulation video generation unit that generates a simulation video in which a count person performs an auxiliary movement to guide the rhythm of a song in which the music data is played, based on the music data input to the input unit;
A rhythm comprehension support system comprising: a display control unit that displays the simulation video generated by the simulation video generation unit.
(2) 前記補助動作は、前記楽曲のリズムに対し、時間的に先行してリズムを示す動作である上記(1)に記載のリズム把握支援システム。 (2) The rhythm comprehension support system according to (1) above, wherein the auxiliary motion is a motion that indicates a rhythm temporally preceding the rhythm of the music.
(3) 前記シミュレーション動画生成部は、前記シミュレーション動画において、前記カウントパーソンの衣装、前記カウントパーソンの表情、前記カウントパーソンの種類、前記カウントパーソンの大きさ、前記カウントパーソンの声質、および、背景のうちの少なくとも1つを前記楽曲データに合わせて変更する上記(1)または(2)に記載のリズム把握支援システム。 (3) In the simulation video, the simulation video generation unit is configured to determine the count person's costume, the count person's facial expression, the count person's type, the count person's size, the count person's voice quality, and the background. The rhythm comprehension support system according to (1) or (2) above, wherein at least one of the rhythms is changed in accordance with the music data.
(4) 前記シミュレーション動画は、前記カウントパーソンとともに、前記カウントパーソンとは別のメインパーソンが前記楽曲データのリズムに合わせてダンスを行う動画である上記(1)ないし(3)のいずれかに記載のリズム把握支援システム。 (4) The simulation video described in any one of (1) to (3) above is a video in which a main person other than the count person dances to the rhythm of the song data together with the count person. rhythm comprehension support system.
(5) 前記シミュレーション動画は、前記カウントパーソンと前記メインパーソンとが並んでいる動画である上記(4)に記載のリズム把握支援システム。 (5) The rhythm comprehension support system according to (4) above, wherein the simulation video is a video in which the count person and the main person are lined up.
(6) 前記補助動作は、前記楽曲データのリズムに合わせて前記カウントパーソンが体の少なくとも一部を左右に揺動させる動作である上記(1)ないし(5)のいずれかに記載のリズム把握支援システム。 (6) The rhythm comprehension according to any one of (1) to (5) above, wherein the auxiliary movement is a movement in which the count person rocks at least a part of his body from side to side in accordance with the rhythm of the music data. support system.
(7) 前記リズム把握支援システムは、聴覚障がい者が楽曲に合わせてダンスを踊る、または、合奏するのを支援するためのシステムである上記(1)ないし(6)のいずれかに記載のリズム把握支援システム。 (7) The rhythm comprehension support system according to any one of (1) to (6) above, which is a system for supporting hearing-impaired people to dance or play in ensemble to music. Grasping support system.
本発明によれば、例えば耳の不自由な人が手軽に音楽に合わせてダンスを踊ったり、合奏を楽しむことができるリズム把握支援システムを提供することができる。 According to the present invention, it is possible to provide a rhythm comprehension support system that allows, for example, a hearing-impaired person to easily dance to music or enjoy an ensemble.
以下、本発明のリズム把握支援システムを添付図面に示す好適な実施形態に基づいて詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS The rhythm understanding support system of the present invention will be described in detail below based on preferred embodiments shown in the accompanying drawings.
<第1実施形態>
図1は、本発明のリズム把握支援システム(第1実施形態)の概略構成図である。図2は、図1に示すリズム把握支援システムのブロック図である。図3~図7は、シミュレーション動画の一例を示す図である。
<First embodiment>
FIG. 1 is a schematic configuration diagram of a rhythm comprehension support system (first embodiment) of the present invention. FIG. 2 is a block diagram of the rhythm comprehension support system shown in FIG. 1. 3 to 7 are diagrams showing examples of simulation videos.
図1に示すリズム把握支援システム1は、健常者(以下、「ユーザー100」と言う)と、耳の不自由な人(軽度、重度問わず)、例えば加齢性難聴等による難聴者を含む聴覚障がい者(以下、「ユーザー200」と言う)と、が楽曲に合わせてダンス(ラジオ体操等の体操等を含む)を踊る、または、合奏するのを支援するシステムである。換言すれば、リズム把握支援システム1は、ユーザー200がダンスを踊る、または、合奏するのを支援するためのシステムである。なお、以下では、一例として、ユーザー200がダンスを踊る場合について説明する。また、本発明は、耳が不自由でないが、ダンスが苦手な人、楽器の演奏でうまくリズムを把握することができない人が、リズムを把握するために用いることもできる。
The rhythm
なお、メインパーソンAおよびカウントパーソンBは、体の動きだけでは無く、楽器演奏音は勿論、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。また、体の動きに合わせて、チャイム音などの効果音、または楽器演奏ロボットにより、ウッドブロックやトライアングル、タンバリン等の楽器が鳴っていてもよい。 In addition, the main person A and the count person B may not only use body movements, but also the sounds of musical instruments, singing voice synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, etc. It may also be accompanied by human utterances, vocal singing, commands, explanations, etc. Further, musical instruments such as wood blocks, triangles, tambourines, etc. may be played by sound effects such as chimes or by a musical instrument playing robot in accordance with the body movements.
また、耳が不自由な場合でも、空気や床などの振動などにより体でリズムを感じ取ることが出来る場合があるので、本システムで音を一緒に鳴らすことは、極めて意味があり、システムの機能として重要であり、そうしたことが出来ることは必要である。 In addition, even if you are deaf or hard of hearing, you may be able to feel the rhythm with your body due to vibrations in the air or the floor, so it is extremely meaningful to play sounds together with this system, and the system functions. It is important to be able to do this, and it is necessary to be able to do so.
図1および図2に示すように、リズム把握支援システム1は、楽曲を再生する再生部2と、楽曲に合わせて動画を表示する表示装置3と、これらの作動を制御する制御装置4と、設定入力装置5と、を備える。また、制御装置4は、ユーザー200が楽曲のリズムを把握することができるように、再生部2が再生する楽曲に合わせたリズムに誘導する動画を生成し、表示装置3に表示させる。これにより、ユーザー200でも楽曲に合わせてダンスを楽しむことができる。
As shown in FIGS. 1 and 2, the rhythm
なお、本明細書における「リズム」とは、テンポの変化は、もちろん、強弱の変化(徐々に強く、徐々に弱く等)を含む概念とする。
以下、詳細に説明する。
Note that the term "rhythm" in this specification includes not only changes in tempo but also changes in dynamics (gradually becoming stronger, gradually becoming weaker, etc.).
This will be explained in detail below.
[再生部]
図1および図2に示すように、再生部2は、スピーカー21を有する。
[Playback section]
As shown in FIGS. 1 and 2, the
スピーカー21は、制御装置4と電気的に接続されており、制御装置4から送信された楽曲データの電気信号を物理信号に変換して音を発して楽曲を再生するものである。この再生において、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。
The
このスピーカー21と制御装置4との通信は、無線、有線の何れであってもよい。また、スピーカー21には、音量を調節する調節部が設けられていてもよい。
Communication between the
また、図示の構成では、再生部2が有するスピーカー21は1つであるが、これに限定されず、再生部2が有するスピーカー21は複数であってもよい。
Further, in the illustrated configuration, the
また、再生部2は、スピーカー21に代えて、例えば、イヤホンやヘッドホン等、ユーザーが装着する機器を用いてもよい。なお、この構成の場合、イヤホンやヘッドホンが接続されるジャックは、制御装置4が収納された筐体(図示せず)や、スピーカー21に設けられた構成とすることができる。
Furthermore, instead of the
[表示装置]
図1および図2に示すように、表示装置3は、投影装置31と、スクリーン32と、を有する。
[Display device]
As shown in FIGS. 1 and 2, the
投影装置31は、例えば、光源を有する光出射装置である。この方式としては、特に限定されないが、液晶方式、DLP方式、LCOS方式等が挙げられる。
The
図1に示すように、スクリーン32は、投影装置31から出射した映像光が投影される投影面を有する。スクリーン32は、図示の構成では、折り畳み、または、巻回して収納、展開可能なシート状をなしている。
As shown in FIG. 1, the
また、スクリーン32は、図示のような反射型に限定されず、光と相互作用(反射、屈折、回折、発光、蛍光、燐光等)して、投影された映像が認識可能なものであれば、透過型であってもよい。
The
なお、本発明では、上記に限定されず、スクリーン32の代わりに、例えば、ミストスクリーンを用いてもよく、建造物の壁等の壁面に投影する構成であってもよい。また、スクリーン32を省略して、空中で映像光を結像させる構成であってもよい。また、映像は、プロジェクションマッピングの手法により透過型スクリーン中の対象物に投影してもよい。また、プロジェクションマッピングの手法を交えて、現実の物体の表面、蒸気、ミスト、飛沫、粉末、や液面にマッピングして投影してもよい。
Note that the present invention is not limited to the above, and instead of the
また、表示装置3は、上記構成に限定されず、液晶、有機EL等の表示装置や、ヘッドマウントディスプレイ等のウェアラブルデバイスであってもよい。また、表示装置3は、映画等で用いる映写機であってもよい。
Further, the
[制御装置]
図1および図2に示すように、制御装置4は、CPU(Central Processing Unit)41と、I/Oインターフェース(受信部)42と、メモリー(記憶部)43とを有している。
[Control device]
As shown in FIGS. 1 and 2, the control device 4 includes a CPU (Central Processing Unit) 41, an I/O interface (receiving section) 42, and a memory (storage section) 43.
CPU41は、メモリー43に記憶された複数のモジュールや、各種プログラム等を実行する。複数のモジュールは、論理ゲート、半導体デバイス、集積回路または他のどのような個別部品を含むハードウエア回路における内蔵コンポーネントを含んでいてもよい。また、モジュールは、ソフトウェアプログラムの一部であってもよい。ソフトウェアプログラムとしてのモジュールの実行は、CPU41または他のどのようなハードウェアエンティティによって実行されるべき論理演算命令のセットを含んでいてもよい。また、モジュールは、インターフェースを用いて、命令やプログラムのセットで具現化されていてもよい。
The
I/Oインターフェース42は、他の通信機器(再生部2、表示装置3等)と通信を行うためのものである。I/Oインターフェース42としては、特に限定されないが、音声、アナログ、デジタル、モノラル、RCA、ステレオ、IEEE-1394、シリアルバス、ユニバーサルシリアルバス(USB)、赤外線、PS/2、BNC、同軸コンポーネント、コンポジット、DVI(Digital Visual Interface)、HDMI(High-Definition Multimedia Interface)(登録商標)、RFアンテナ、S-ビデオ、VGA、ブルートゥース(登録商標)、Cellular(例えば、CDMA(Code-Division Multiple Access)、HSPA+(High-Speed Packet Access)、GSM(Global System for Mobile communications)(登録商標)、LTE(Long-Term Evolution)、WiMax等)、Wi-Fi規格、無線LAN等の通信プロトコル/方法を採用してもよい。
The I/
このI/Oインターフェース42は、外部から楽曲データを取り込む機能を有する。すなわち、I/Oインターフェース42は、外部から楽曲データが入力される入力部として機能する。
This I/
楽曲データとしては、特に限定されないが、例えば、WAVE(RIFF waveform Audio Format)、mp3(MPEG Audio Layer-3)等の音声ファイルフォーマットからなるオーディオデータや、MIDIデータ(MIDI規格(Musical Instrument Digital Interface)(登録商標)の楽曲データ)等が挙げられる。楽曲データは楽器による演奏音だけではなく、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。以下では、MIDIデータとして説明する。MIDIデータを用いることにより、後述するように、シミュレーション動画を生成する際、楽曲のリズムを容易に把握することができ、シミュレーション動画を生成しやすくすることができる。また、MIDIデータは、例えば、楽曲データにマーカー信号を埋め込むという簡単な方法により、後述するシミュレーション動画のデータと同期させることができる。また、シミュレーション動画には、楽器演奏だけではなく、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明、実際の人間による発話、発声による歌唱、号令、説明等を同期しやすくすることができる。また、メモリー43に楽曲データを加工して取り込む際、データの容量が増大してしまうのを抑制することができる。
Song data is not particularly limited, but includes, for example, audio data in audio file formats such as WAVE (RIFF waveform Audio Format) and mp3 (MPEG Audio Layer-3), and MIDI data (MIDI standard (Musical Instrument Digital Intel)). rface) (registered trademark) music data). The music data may include not only the sounds played by musical instruments, but also vocal synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, etc., and includes actual human utterances, vocal singing, commands, explanations, etc. May be accompanied by In the following, it will be explained as MIDI data. By using MIDI data, as will be described later, when generating a simulation video, it is possible to easily grasp the rhythm of a song, making it easier to generate a simulation video. Moreover, MIDI data can be synchronized with data of a simulation video, which will be described later, by, for example, a simple method of embedding a marker signal in music data. In addition, the simulation video includes not only musical instrument performances, but also singing voice synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, utterances by actual humans, vocal singing, commands, explanations, etc. that can be easily synchronized. can do. Further, when processing and importing music data into the
メモリー43は、例えば不揮発性半導体メモリーの一種であるEEPROM(Electrically Erasable Programmable Read-Only Memory)等で構成されている。メモリー43に記憶されたモジュールは、再生モジュール431と、表示制御モジュール432(表示制御部)と、動画生成モジュール433(シミュレーション動画生成部)と、通信モジュール434と、を含む。
The
再生モジュール431は、CPU41によって実行されたとき、再生部2に対する通電条件を制御することにより、I/Oインターフェース42が取り込んだ楽曲データを、再生部2によって再生するよう構成されている。
The
表示制御モジュール432(表示制御部)は、CPU41によって実行されたとき、表示装置3に対する通電条件を制御することにより、表示装置3の光源装置の作動を制御して、動画生成モジュール433が生成したシミュレーション動画を再生(表示)する。
When executed by the
動画生成モジュール433は、CPU41によって実行されたとき、楽曲データの情報に基づいてシミュレーション動画を生成する。動画生成モジュール433は、人が設定入力装置5を用いて指示を行うことにより、その指示を実行する構成であってもよい。また、楽曲データの種類ごとに予め生成したシミュレーション動画をメモリー43に記憶しておき、入力された楽曲データに基づいて、その楽曲データに対応するシミュレーション動画を選択する構成であってもよい。また、ビートトラッキングにより、音楽等の音に合わせて指示を実行する構成であってもよい。
When executed by the
動画生成モジュール433によって生成されたシミュレーション動画は、表示制御モジュール432の作動により、表示装置3に表示される。また、シミュレーション動画が表示される際、再生モジュール431の作動により、楽曲とシミュレーション動画とが同期され、再生部2から楽曲が再生される。また、必要に応じて、歌声合成技術や、声合成技術、実際の人間による発話や発声による歌唱や号令、説明等が同期再生される。シミュレーション動画に関しては、後に詳述する。
The simulation video generated by the
なお、シミュレーション動画の形式は、特に限定されず、例えば、AVI、MP4、MOV、MPEG2-TS、MPEG2-PS、MKV、WMV、FLV、ASF、VOB、WebM、OGM等が挙げられる。また、ファイルフォーマットは、特に限定されず、例えば、avi、mp4、m4A、mov、qt、m2ts、ts、mpeg、mpg、mkv、flv、f4v、asf、wmv、webm、ogm等が挙げられる。また、映像コーディックは、特に限定されず、例えば、VP6、H.263、H.264、Xvid、Divx、MPEG-4、MPEG-2、MPEG-1、WMV9、VP9、VP8等が挙げられる。また、音声コーディックとしては、特に限定されず、AAC、MP3、LPCM、Voribis、AC-3、FLAC、WMA、ADPCM、MP2等が挙げられる。 Note that the format of the simulation video is not particularly limited, and examples thereof include AVI, MP4, MOV, MPEG2-TS, MPEG2-PS, MKV, WMV, FLV, ASF, VOB, WebM, OGM, and the like. Further, the file format is not particularly limited, and examples thereof include avi, mp4, m4A, mov, qt, m2ts, ts, mpeg, mpg, mkv, flv, f4v, asf, wmv, webm, ogm, and the like. Further, the video codec is not particularly limited, and examples include VP6, H. 263, H. Examples include H.264, Xvid, Divx, MPEG-4, MPEG-2, MPEG-1, WMV9, VP9, and VP8. Furthermore, the audio codec is not particularly limited, and examples include AAC, MP3, LPCM, Voribis, AC-3, FLAC, WMA, ADPCM, MP2, and the like.
通信モジュール434は、CPU41によって実行されたとき、他の通信機器の信号出力インターフェース等と通信を行うよう構成されている。
The
また、メモリー43には、上記の他に、後述するような制御プログラム等が記憶されている。このような制御装置4は、表示装置3または設定入力装置5に内蔵されていてもよく、表示装置3または設定入力装置5とは異なる筐体に内蔵されたものであってもよい。
In addition to the above, the
[設定入力装置]
設定入力装置5は、制御装置4と通信し、制御装置4に対して各種設定を入力する機能を有する。設定入力装置5が行う各種設定に関しては、後に詳述する。この設定入力装置5としては、特に限定されず、例えば、スマートフォン、タブレット端末、パーソナルコンピューター等が挙げられる。
[Setting input device]
The setting
[照明装置、演出装置、通信装置]
また、図1に示すように、リズム把握支援システム1は、照明装置11と、演出装置12と、通信装置13と、を有する。
[Lighting equipment, performance equipment, communication equipment]
Further, as shown in FIG. 1, the rhythm
照明装置11としては、特に限定はされないが、ミラーボール、カラーボール、スポットライト、ホリゾントライト、フラットライト、ムービングヘッド、ブルートライト、スモークマシン、バブルマシン、レーザープロジェクター、レーザービーム、レーザーライト、ストロボ、ブラックライト、LEDテープライト、DMX、スイングライト、スピンナー等、指向性の高いレーザー光、拡散光の照明等、視覚的な演出を行うものを用いることができる。また、照明装置11により、光の強弱、色、パターン、タイミング等を曲調に合わせて変化させることができる。照明装置11は、制御装置4によってその作動が制御される。
Examples of the
演出装置12は、スモーク、花火、火炎、紙吹雪、テープ、クラッカーや、特に限定はされず、視覚的な演出や、香りなどの嗅覚的な演出を行う機能を有する。また、強弱、量、タイミング等を曲調に合わせて変化させることができる。演出装置12は、制御装置4によってその作動が制御される。
The
通信装置13は、ブレスレット、クリップ等ウェアラブルデバイスで構成され、振動や光を発生させる機能を有する。通信装置13は、前記I/Oインターフェース42として例示した通信プロトコル/方法により制御装置4と通信を行うことができる。これにより、別会場の演奏システム(即ち上述のリズム把握支援システム1の複製を別会場でも設置)と通信し、リモートで複数の会場で、同時に同期演奏等を行うことにより、より多くの人が同時に楽しむことができる。また、別会場との通信を行う状況では、一人、少人数、大人数等、人数は問わない。
The
以上、リズム把握支援システム1の構成について説明した。
ここで、前述したように、動画生成モジュール433が生成するシミュレーション動画は、図1、図3~図6に示すように、メインパーソンAと、カウントパーソンBとが、それぞれ、異なる動作を行う動画である。
The configuration of the rhythm
Here, as described above, the simulation video generated by the
シミュレーション動画では、メインパーソンAは、楽曲のリズムに合わせてダンスを行う。例えば、メインパーソンAは、足、腰、腕、首等のうちの少なくとも1つを動かしてダンスを踊るメイン動作を行う。また、必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明してもよい。また、必要により、実際の人間が歌を歌ったり、号令し、また説明してもよい。ユーザーは、再生されている楽曲を聞きながら、表示装置3に表示されたメインパーソンAを見て、メインパーソンAと同じダンスを踊って楽しむことができる。
In the simulation video, main person A dances to the rhythm of a song. For example, main person A performs a main movement of dancing by moving at least one of the legs, waist, arms, neck, etc. Further, if necessary, singing, commanding, or explanation may be performed by vocalization or utterance using singing voice synthesis technology or voice synthesis technology. Furthermore, if necessary, an actual person may sing, give commands, or provide explanations. The user can enjoy watching the main person A displayed on the
シミュレーション動画では、カウントパーソンBは、楽曲のリズムに誘導する補助動作を行う。必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明してもよい。また、必要により、人間が歌を歌ったり、号令し、また説明してもよい。カウントパーソンBが行う補助動作は、耳の不自由なユーザー200でも、その動作を見ることにより、再生されている楽曲のリズムを把握することができる動作のことである。補助動作は、再生されている楽曲よりも時間的に先行してまたは遅れて行われる動作であってもよく、再生されている楽曲のリズムと同じリズムで行われる動作であってもよく、これらを組み合わせた動作であってもよい。また、カウントパーソンBによる時間的に遅れた動作は、演奏中に、リアルタイムに、リズムの緩急や強弱がどのように時間的に推移していくかを伝えることができる。
In the simulation video, Count Person B performs auxiliary movements to guide the user to the rhythm of the music. If necessary, a song may be sung, a command may be given, or an explanation may be made by vocalization or utterance using a singing voice synthesis technique or a voice synthesis technique. Also, if necessary, a human may sing a song, give commands, or give an explanation. The auxiliary movement performed by count person B is one that allows even the hearing-
補助動作が、再生されている楽曲よりも時間的に先行して行われる動作である場合、補助動作は、図3に示すような動作が挙げられる。図3では、スクリーン32中、左側に表示されたメインパーソンAがリズムに合わせてダンスを踊る。一方、スクリーン32中右側のカウントパーソンBは、メインパーソンAが踊るダンスの動作とは異なり、再生される楽曲のリズムに対し時間的に先行した動作である。また、時間的に先行して、カウントパーソンBが、体の少なくとも一部を大きく動かし、例えば、小節の頭、四分音符、曲調の変わり目等、緩急のニュアンス、強弱のニュアンスをわかりやすく伝える、表現するような動作を行う。すなわち、カウントパーソンBが、指揮者がタクトを振るように、楽曲のニュアンスを身振り手振りで伝えるような動作を行う。
When the auxiliary action is an action that is performed temporally prior to the music being played, examples of the auxiliary action include actions as shown in FIG. In FIG. 3, main person A displayed on the left side of the
また、照明装置11によって演出を補助することができる。すなわち、光の強弱、色、パターン、タイミング等を曲調に合わせて変化させることにより、楽曲のニュアンスをさらにわかりやすく伝えることができる。
Furthermore, the
また、演出装置12によって演出を補助することができる。すなわち、演出装置12による演出の強弱、量、タイミング等を曲調に合わせて変化させることにより、楽曲のニュアンスをさらにわかりやすく伝えることができる。
In addition, the performance can be assisted by the
また、ユーザー200が通信装置13を装着した状態で、振動の強弱、振動のタイミング、振動のパターン等を曲調に合わせて変化させることにより、楽曲のニュアンスをさらにわかりやすく伝えることができる。こうした装置とカウントパーソンBとの連動は、視覚障がい者が、カウントパーソンBの動きを把握するのに役立つ。
Further, by changing the strength of vibration, timing of vibration, pattern of vibration, etc. in accordance with the melody while the
このように、カウントパーソンBが行う補助動作は、楽曲のリズムに対し、時間的に先行してリズムを示す動作である。これにより、ユーザー200は、楽曲が十分に聞こえないにも関わらず、カウントパーソンBを見ながら、リズムを先行して把握することができる。よって、ユーザー200がユーザー100とともにダンスを踊り、楽しむことができる。
In this way, the auxiliary motion performed by count person B is a motion that temporally precedes the rhythm of the music and indicates the rhythm. Thereby, the
一方、補助動作が、再生されている楽曲のリズムと同じリズムで行われる動作である場合、補助動作は、例えば、図4および図5に示すような動作が挙げられる。図4では、カウントパーソンBが体を図4中右側に傾けた状態であり、図5では、カウントパーソンBが体を図4中左側に傾けた状態である。このような動作を楽曲のリズムに合わせて繰り返すことにより、ユーザー200は、楽曲が十分に聞こえないにも関わらず、カウントパーソンBを見ながら再生されている楽曲のリズムを明確に把握することができる。必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり号令し、また説明していることで、健常者も一緒に楽しむことができる。
On the other hand, when the auxiliary motion is a motion performed in the same rhythm as the rhythm of the music being played, the auxiliary motion may include, for example, the motions shown in FIGS. 4 and 5. In FIG. 4, count person B is in a state where his body is tilted to the right side in FIG. 4, and in FIG. 5, count person B is in a state in which his body is tilted to the left side in FIG. By repeating these actions in accordance with the rhythm of the song, the
また、図4および図5に示す構成では、カウントパーソンBは、メトロノームのような役割を果たす。既存のメトロノームは、例えば、四分音符ごとに第1音を鳴らし、小節ごとに第1音とは異なる第2音を鳴らす構成であるのが一般的である。このような既存のメトロノームを用いた場合、ユーザー200は、リズムを把握することはできるが、曲調、強弱、場面転換等、曲の流れを把握することが困難である。また、音だけでは、瞬時に何拍目の音かはわかりにくい。これに対し、本発明では、前述したように、カウントパーソンBがリズムに合わせて視覚的に左右に体を揺らし、小節ごとに大きくリズムを示し、かつ、体を左右に往復させつつ、腕、首、腰等の動きや、顔の表情で、四分音符のリズム、または、小節内や複数の小節にまたがってのリズムを細かく示すことができる。また、変拍子等のリズムも表現し、このリズムをユーザー200が把握することができる。これは、キャラクターの動きを目で追って予測することができるので、把握することが可能となる。
Furthermore, in the configurations shown in FIGS. 4 and 5, count person B plays a role like a metronome. Existing metronomes generally have a configuration in which, for example, a first note is sounded for each quarter note, and a second note different from the first note is sounded for each bar. When using such an existing metronome, the
例えば、次の小節における曲調が穏やかな曲調になる場合、四分音符のリズムを示す動作を控えめな動作にすることにより、ユーザー200が、次の展開が穏やかな曲調になる旨を予測することができる。また、例えば、次の小節における曲調が激しい曲調になる場合、四分音符のリズムを示す動作を激しい動作にすることにより、ユーザー200が、次の展開が激しい曲調になる旨を予測することができる。このように、リズム把握支援システム1によれば、カウントパーソンBが単にメトロノームの役割を果たすだけでなく、表現豊かにリズムを示すことができる。また、必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明してもよい。また、必要により、実際の人間が歌を歌ったり、号令し、また説明してもよい。
For example, if the melody in the next measure is a gentle melody, the
また、再生されている楽曲ごとにカウントパーソンBの衣装を変更してもよく、再生されている楽曲の途中で、曲調に合わせて、または、例えば、転調部分や間奏部分、サビの部分、Aメロ、Bメロ等の場面に応じて、カウントパーソンBの衣装を変更してもよい。衣装の変更のパターンとしては、例えば、色、種類、描かれているキャラクター等を変更すること等が挙げられる。 In addition, Count Person B's costume may be changed for each song being played. The costume of count person B may be changed depending on the scene of the melody, B melody, etc. Patterns for changing costumes include, for example, changing colors, types, drawn characters, and the like.
また、再生されている楽曲ごとに、カウントパーソンBの歌声や号令、説明の声を変更してもよく、再生されている楽曲の途中で、曲調に合わせて、または、例えば、転調部分や間奏部分、サビの部分、Aメロ、Bメロ等の場面に応じて、カウントパーソンBの歌声や号令、説明の声を変更してもよい。声の変更のパターンとしては、例えば、声質、音高、強弱、イントネーション、別のキャラクターの声などに変更すること等が挙げられる。 In addition, Count Person B's singing voice, commands, and explanatory voice may be changed for each song being played. Count Person B's singing voice, commands, and explanatory voice may be changed depending on the scene, such as the chorus, A melody, B melody, etc. Examples of voice change patterns include changing voice quality, pitch, strength, intonation, and changing to the voice of another character.
また、再生されている楽曲ごとにカウントパーソンBの表情を変更してもよく、再生されている楽曲の途中で、曲調に合わせてカウントパーソンBの表情を変更してもよい。表情は、笑顔、悲しい顔等が挙げられる。 Further, the count person B's facial expression may be changed for each song being played, or the count person B's facial expression may be changed in the middle of the song being played according to the melody. Examples of facial expressions include a smiling face and a sad face.
また、再生されている楽曲ごとにカウントパーソンBの種類を変更してもよく、再生されている楽曲の途中で、曲調に合わせてカウントパーソンBの種類を変更してもよい。すなわち、異なるキャラクターに変更してもよい。視覚的効果をねらって、必要に応じて透明になって消えてもよい。 Further, the type of count person B may be changed for each piece of music being played, or the type of count person B may be changed in the middle of the piece of music being played depending on the melody. In other words, the character may be changed to a different character. It may become transparent and disappear if desired for visual effect.
また、再生されている楽曲ごとにカウントパーソンBの大きさ(体型、体の部位の大きさ)を変更してもよく、再生されている楽曲の途中で、曲調に合わせてカウントパーソンBの前述したような大きさを変更してもよい。 In addition, the size of Count Person B (body shape, size of body parts) may be changed for each song being played, and in the middle of the song being played, Count Person B's size may be changed according to the melody. You may change the size as shown.
また、図6に示すように、再生されている楽曲ごとに背景を変更してもよく、再生されている楽曲の途中で、曲調に合わせて背景を変更してもよい。また、背景は、実写の背景であってもよく、コンピューターグラフィックスであってもよい。 Further, as shown in FIG. 6, the background may be changed for each song being played, or the background may be changed in the middle of the song being played according to the melody. Further, the background may be a real-life background or may be computer graphics.
このように、シミュレーション動画生成部としての動画生成モジュール433は、シミュレーション動画において、カウントパーソンBの衣装、カウントパーソンBの表情、カウントパーソンBの種類、カウントパーソンBの大きさ、カウントパーソンBの声質、および、背景のうちの少なくとも1つを楽曲データに合わせて変更してもよい。これにより、再生される楽曲がさらに表現豊かになるとともに、ユーザー200が、どのようなダンスを踊ればよいか、想起しやすくすることができる。
In this way, the
このような変更は、人が設定入力装置5を操作して行われてもよく、予め設定されたプログラムによって行われてもよい。
Such a change may be made by a person operating the setting
また、設定入力装置5を操作することにより、楽曲のテンポが変更可能に構成されていてもよい。この場合、テンポの変更に合わせて、シミュレーション動画の再生速度も同等に変更される。
Further, by operating the setting
また、前述したように、シミュレーション動画は、カウントパーソンBとともにカウントパーソンBとは別のメインパーソンAが楽曲データのリズムに合わせてダンス(メイン動作)を行う動画である。これにより、ユーザー100およびユーザー200がダンスを楽しむことができる。
Further, as described above, the simulation video is a video in which the main person A, who is different from the count person B, dances (main motion) along with the count person B in accordance with the rhythm of the music data. Thereby,
また、シミュレーション動画は、カウントパーソンBとメインパーソンAとが並んでいる動画である。これにより、ユーザー200は、メインパーソンAおよびカウントパーソンBの双方を見ながらダンスを踊ることができる。よって、ユーザー200がダンスをより楽しむことができる。
Further, the simulation video is a video in which count person B and main person A are lined up. Thereby, the
なお、このような構成に限定されず、シミュレーション動画は、図7に示すように、カウントパーソンBのみが表示される動画であってもよい。その動画は通信装置により他会場に配信してもよい。また、携帯電話やスマホ、タブレット、パソコン端末などで表示できるように配信してもよい。図7では、タブレット端末にシミュレーション動画を表示している。このような構成の場合、ユーザー200が、自宅等において、一人でダンスを踊って楽しんだり、練習を行ったりすることができる。また、他会場にいるユーザー200が、スマホや携帯端末などでそのカウントパーソンBの映像をみながら、また、号令にあわせて、一緒になってダンスを踊ることができる。健常者、障がいを持つ方々が自分の好きな場所で、一緒になってダンスを同時刻に踊ることを実現できるので、一体感が生まれる効果や楽しさがある。
Note that the simulation video is not limited to such a configuration, and the simulation video may be a video in which only count person B is displayed, as shown in FIG. The video may be distributed to other venues using communication devices. Furthermore, it may be distributed so that it can be displayed on a mobile phone, smartphone, tablet, computer terminal, etc. In FIG. 7, a simulation video is displayed on a tablet terminal. In the case of such a configuration, the
また、図7に示す構成では、カウントパーソンBが行う補助動作は、楽曲データのリズムに合わせてカウントパーソンBが体の少なくとも一部を左右に揺動させる動作である。これにより、キャラクターの左右の動きをメトロノームとして使うこともできる。テンポを一定に保ったり、変えたりすることで、これを見ながら楽器演奏や、歌の練習等に利用することができる。 Further, in the configuration shown in FIG. 7, the auxiliary motion performed by count person B is a motion in which count person B rocks at least a portion of his body left and right in accordance with the rhythm of music data. This allows you to use the character's left and right movements as a metronome. By keeping the tempo constant or changing it, you can use it to play instruments or practice singing while watching it.
また、図7に示す構成において、左右の体の動きの速さを可変出来る機能や、左右の動きに合わせて歌声合成技術や、声合成技術により発音、発声させて、歌唱、号令、説明できる機能を有していてもよい。 In addition, in the configuration shown in Figure 7, there is a function that allows the speed of left and right body movements to be varied, and singing, commands, and explanations can be made using singing voice synthesis technology and voice synthesis technology to produce sounds and utterances according to left and right movements. It may have a function.
また、無音にすることで、楽器演奏や、歌の練習等の時以外に、本番の演奏会で、画面のカウントパーソンの動きに合わせて演奏タイミングや演奏意図(演奏開始ポイント、テンポやクレッシェンド、演奏時の注意点)を確認することに使える。特に静粛性の問われる演奏会での無音での使用が要求される場合、上述の様に、キャラクターの色や大きさ、衣装などの変化を利用することで、視覚的に効果的なメトロノームとして使用できる。 In addition, by muting the sound, you can use it not only when playing instruments or practicing singing, but also during the actual concert, to adjust the performance timing and performance intention (starting point, tempo, crescendo, etc.) according to the movements of the count person on the screen. It can be used to check things to keep in mind when playing. Particularly when silence is required at a concert where silence is a concern, by using changes in the character's color, size, costume, etc., as described above, it can be used as a visually effective metronome. Can be used.
また、シミュレーション動画において、メインパーソンAおよびカウントパーソンBに加え、動作を説明する文言、歌詞、作曲者、作詞者、編曲者等の情報を表示してもよいし、歌声合成技術や声合成技術による発話、発声によりこれらを説明させてもよい。楽曲毎に声質を変えても良い。 In addition, in addition to main person A and count person B, information such as text explaining the movement, lyrics, composer, lyricist, arranger, etc. may be displayed in the simulation video, and information such as singing voice synthesis technology and voice synthesis technology may also be displayed. These may be explained using utterances or utterances. The voice quality may be changed for each song.
このように、リズム把握支援システム1は、ユーザー200がリズムを把握するのを支援するものである。また、リズム把握支援システム1は、楽曲データが入力されるI/Oインターフェース42(入力部)と、I/Oインターフェース42に入力された楽曲データに基づいて、カウントパーソンBが、楽曲データが再生された楽曲のリズムに誘導する補助動作を行うシミュレーション動画を生成する動画生成モジュール433(シミュレーション動画生成部)と、動画生成モジュール433が生成したシミュレーション動画を表示する表示制御モジュール432(表示制御部)と、を備える。このような構成によれば、ユーザー200が楽曲のリズムに合わせてダンスを踊って楽しむことができる。また、シミュレーション動画では、カウントパーソンBが体を使ってリズムに誘導するため、ユーザー200にとってわかりやすく、リズムに誘導しやすい。特に、カウントパーソンを実際に用意する必要がなく、シミュレーション動画としてカウントパーソンを表示することができる。よって、耳の不自由な人、すなわち、ユーザー200が手軽に音楽に合わせてダンスを踊って楽しむことができる。
In this way, the rhythm
また、メインパーソンAおよびカウントパーソンBは、体の動きだけでは無く、楽器演奏音は勿論、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。また、体の動きに合わせて、チャイム音などの効果音が鳴ったり、または楽器演奏ロボットにより、ウッドブロックやトライアングル、タンバリン等の楽器が鳴っていてもよい。 In addition, the main person A and the count person B may be accompanied by not only body movements, but also the sounds of musical instruments, singing voice synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, etc. It may also be accompanied by human utterances, vocal singing, commands, explanations, etc. Furthermore, sound effects such as chimes may be played in accordance with the body movements, or musical instruments such as wood blocks, triangles, tambourines, etc. may be played by a musical instrument playing robot.
また、メインパーソンAおよびカウントパーソンBは、ダンスを踊りつつ、歌を歌ったり、掛け声を発したりしてもよい。アニメーションの場合、キャラクターの口を動かしてもよい。ユーザー200は、口元の動きを見て、現在、曲のどの部分が再生されているかを把握することができたり、次にどのような動作を行うかを把握しやすくなる。
Moreover, the main person A and the count person B may sing a song or shout while dancing. For animation, you can also move the character's mouth. By looking at the movements of the mouth, the
また、本実施形態では、メインパーソンAおよびカウントパーソンBは、バーチャルキャラクターである場合について説明したが、本発明ではこれに限定されず、例えば、実写の人間であってもよい。必要により、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明して体が動いてもよい。また、必要に応じて実際の人間が発声や発話により歌を歌ったり、号令し、また説明してもよい。 Further, in this embodiment, the main person A and the count person B are virtual characters, but the present invention is not limited to this, and may be, for example, real-life humans. If necessary, the body may be moved by singing, commanding, or giving explanations using singing voice synthesis technology or voice synthesis technology. Further, if necessary, an actual person may sing a song, give a command, or provide an explanation by voice or utterance.
また、本実施形態では、メインパーソンAおよびカウントパーソンBは、人型のキャラクターである場合について説明したが、本発明ではこれに限定されず、動物や、アニメーションのキャラクターや、外見が初音ミク(登録商標)のようなコンピュータアニメーション、コンピューターグラフィックス(CG)、3DCG、3DCG動画によるキャラクター等であってもよい。具体的には、バーチャルユーチューバー(バーチャルYouTuber)、ブイチューバー(VTuber)、バーチャルライバー、バーチャルアイドル、バーチャルタレント、バーチャルシンガー、バーチャルサインシンガー等が挙げられる。また、これらのキャラクターは、歌声合成技術、声合成技術、音声合成技術、ボーカロイド(登録商標)、VOCALOID(登録商標)、歌声シンセサイザー等により、歌、号令、説明、効果音などの合成音声や音を発してもよい。実際の人間の音声を使ってしゃべっているような効果を出しても良い。また、声以外に、見ている人に合図や意図を知らせるために、そうした合図となるような効果音、ビープ音などを発しても良い。 Furthermore, in this embodiment, the main person A and the count person B are humanoid characters, but the present invention is not limited to this. It may be a character created by computer animation (registered trademark), computer graphics (CG), 3DCG, 3DCG animation, or the like. Specifically, virtual YouTubers, VTubers, virtual livers, virtual idols, virtual talents, virtual singers, virtual autograph singers, etc. may be mentioned. In addition, these characters are able to create synthesized voices and sounds such as songs, commands, explanations, sound effects, etc. using singing voice synthesis technology, voice synthesis technology, voice synthesis technology, VOCALOID (registered trademark), VOCALOID (registered trademark), singing voice synthesizer, etc. may be issued. It is also possible to create the effect of speaking using the voice of an actual human. In addition to voices, sound effects, beeps, and the like may be emitted to notify the viewer of a signal or intention.
また、このようなリズム把握支援システム1は、アミューズメントパーク、コンサート会場、舞台、カラオケ、体育の授業、ダンス教室、音楽教室、各種学校、自宅でのダンス、楽器の演奏の練習等で用いることができる。このため、幅広く、様々な場面で、健常者と聴覚障がい者とがダンス、音楽を楽しむことができる。
Further, such a rhythm grasping
<第2実施形態>
図8は、本発明のリズム把握支援システム(第2実施形態)の概略構成図である。
<Second embodiment>
FIG. 8 is a schematic configuration diagram of the rhythm comprehension support system (second embodiment) of the present invention.
以下、この図を参照しつつ、本発明の第2実施形態について説明するが、前述した第1実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。 Hereinafter, a second embodiment of the present invention will be described with reference to this figure, but the explanation will focus on the differences from the first embodiment described above, and the explanation of similar matters will be omitted.
図8に示すように、本実施形態のリズム把握支援システム1は、第1実施形態で説明した再生部2、表示装置3、制御装置4および前記実施形態で述べた設定入力装置5に加え、楽器6と、楽器6を演奏する演奏装置7と、動作検出部8と、をさらに備える。
As shown in FIG. 8, the rhythm
図8に示す演奏装置7は、楽器6を演奏する演奏装置である。
楽器6としては、特に限定されず、例えば、後述するような打楽器、弦楽器、鍵盤楽器、管楽器等が挙げられるが、本実施形態では、一例として、打楽器であるドラム(スネアドラム、バスドラム、ハイハット、ライドシンバル、クラッシュシンバル)として説明する。
A performance device 7 shown in FIG. 8 is a performance device that plays the musical instrument 6.
The musical instrument 6 is not particularly limited, and includes, for example, percussion instruments, string instruments, keyboard instruments, wind instruments, etc., which will be described later. , ride cymbal, crash cymbal).
なお、本明細書中では、楽器とは、自身が音を発するものや、自身が発した音を増幅させてスピーカー等から出力するものや、自身は音を出さないが電気信号が入力されることによってスピーカー等から音を出力するものを含む。 Note that in this specification, musical instruments include those that themselves emit sound, those that amplify the sounds that they themselves produce and output them from speakers, etc., and those that do not themselves produce sounds but receive electrical signals. This includes devices that output sound from speakers, etc.
演奏装置7は、ドラムの各部(スネアドラム、バスドラム、ハイハット、ライドシンバル、クラッシュシンバル)にそれぞれ設けられた打撃部と、打撃部を駆動する駆動部とを有している。打撃部および駆動部は、特開2019-144360号公報に記載されているような構成とすることができる。 The performance device 7 includes a striking section provided for each part of the drum (snare drum, bass drum, hi-hat, ride cymbal, crash cymbal), and a driving section that drives the striking section. The striking part and the driving part can be configured as described in Japanese Patent Application Laid-open No. 2019-144360.
また、演奏装置7は、制御装置4によって通電条件が制御されることにより、作動が制御される。 Further, the operation of the performance device 7 is controlled by controlling the energization conditions by the control device 4.
このような演奏装置7によれば、例えば、スピーカー等では再現できない楽器の倍音等の臨場感を演出することができる。 According to such a performance device 7, for example, it is possible to create a sense of realism such as overtones of a musical instrument that cannot be reproduced by a speaker or the like.
また、演奏速度を、前記実施形態で説明した楽曲の再生速度およびシミュレーション動画と同期させることにより、再生部2から再生される楽曲に対し、楽器6の演奏を加えて厚みを持たせることができる。
Furthermore, by synchronizing the performance speed with the music playback speed and the simulation video described in the above embodiment, it is possible to add depth to the music played by the musical instrument 6 by adding the performance of the musical instrument 6 to the music played from the
このように、本実施形態では、楽曲は、予め作成された楽曲データを再生した楽曲(再生部2から再生される楽曲)、および、リアルタイムで楽器を演奏して得られた楽曲である。これにより、楽曲に厚みを持たせることができる。なお、この構成に限定されず、予め作成された楽曲データを再生した楽曲、および、リアルタイムで楽器を演奏して得られた楽曲が流れていればよい。 As described above, in this embodiment, the songs are songs that are obtained by playing music data created in advance (music that is played from the playback unit 2), and songs that are obtained by playing musical instruments in real time. This allows the music to have depth. It should be noted that the present invention is not limited to this configuration, and it is sufficient that music played by reproducing music data created in advance and music obtained by playing musical instruments in real time are played.
図示の構成では、楽器6は、ドラム、コンガであるが、楽器6としては、特に限定されず、例えば、その他の打楽器、弦楽器、鍵盤楽器、鍵盤打楽器、管楽器、気鳴楽器等が挙げられる。 In the illustrated configuration, the musical instruments 6 are drums and congas, but the musical instruments 6 are not particularly limited, and examples thereof include other percussion instruments, string instruments, keyboard instruments, keyboard percussion instruments, wind instruments, pneumatic instruments, and the like.
なお、その他の打楽器としては、電子ドラム、和太鼓、カホン、ジャンベ、タンバリン、トライアングル、カスタネット、ウッドブロック、カウベル、拍子木、クラベス、木魚、ボンゴ、ティンパニ、コンサートチャイム、ウインドチャイム、カバサ、スレイベル、ティンパレス、アゴゴ等が挙げられる。 Other percussion instruments include electronic drums, Japanese drums, cajon, djembe, tambourine, triangle, castanet, wood block, cowbell, clapboard, claves, mokugyo, bongo, timpani, concert chime, wind chime, cabasa, sleigh bell, Examples include Tin Palace and Agogo.
弦楽器としては、アコースティックギター、エレキギター、アコースティックベース、エレキベース、ハープ、マンドリン、ヴァイオリン、ヴィオラ、チェロ、コントラバス等が挙げられる。 Stringed instruments include acoustic guitars, electric guitars, acoustic basses, electric basses, harps, mandolins, violins, violas, cellos, double basses, and the like.
鍵盤楽器としては、ピアノ、ホンキートンクピアノ、エレクトリックピアノ、キーボード、チェンバロ、チェレスタ、オルガン、電子オルガン、パイプオルガン、リードオルガン、エレクトーン、鍵盤ハーモニカ、アコーディオン、シンセサイザー等が挙げられる。 Keyboard instruments include pianos, honky-tonk pianos, electric pianos, keyboards, harpsichords, celestas, organs, electronic organs, pipe organs, reed organs, electric tones, keyboard harmonicas, accordions, synthesizers, and the like.
鍵盤打楽器としては、シロフォン、ザイロフォン、シロリンバ、マリンバ、グロッケンシュピール、ビブラフォン、アンティークシンバル、グラス・ハープ、アルモニカ等が上げられる。 Keyboard percussion instruments include the xylophone, xylophone, xirolimba, marimba, glockenspiel, vibraphone, antique cymbals, glass harp, and armonica.
管楽器としては、フルート、リコーダー、オカリナ、尺八、クラリネット、オーボエ、サクスフォーン、ファゴット、笙、バグパイプ等の木管楽器や、トランペット、トロンボーン、ホルン、ユーフォニアム、チューバ、ホイッスル、サンバホイッスル等の金管楽器等が挙げられる。 Wind instruments include woodwind instruments such as the flute, recorder, ocarina, shakuhachi, clarinet, oboe, saxophone, bassoon, sho, and bagpipes, and brass instruments such as the trumpet, trombone, horn, euphonium, tuba, whistle, and samba whistle. etc.
気鳴楽器としては、ハーモニカ、バグパイプ、ホイッスル、調律用笛、気鳴の玩具等が挙げられる。 Examples of air sound instruments include harmonicas, bagpipes, whistles, tuning flutes, air sound toys, and the like.
[動作検出部]
図8に示す動作検出部8は、ユーザー200の体の一部に装着され、ユーザー200の動作を検出する機能を有する。動作検出部8は、本実施形態では、角速度を検出する角速度センサーで構成されている。角速度センサーは、図示しない筐体と、筐体に内蔵された図示しないセンサー素子と、制御装置4と通信を行う図示しない通信部とを有する。
[Motion detection section]
The
筐体は、例えば、ユーザー200の手首にリストバンドによって装着することができる。なお、この構成に限定されず、指、頭部、腹部、足等、任意の部位に装着してもよい。
The housing can be worn on the wrist of the
センサー素子は、静電容量式、歪みゲージ式、圧電式、渦電流式、電磁誘導式、光式のいずれのタイプのものであってもよい。センサー素子が検出した角速度の情報は、電気信号に変換されて通信部によって制御装置4に送信される。通信部と制御装置4との通信は、無線、有線の何れであってもよい。 The sensor element may be of any type including capacitance type, strain gauge type, piezoelectric type, eddy current type, electromagnetic induction type, and optical type. Information on the angular velocity detected by the sensor element is converted into an electrical signal and transmitted to the control device 4 by the communication section. Communication between the communication unit and the control device 4 may be either wireless or wired.
ユーザー200がシミュレーション動画を見ながらダンスを踊った際、手に装着された動作検出部8が移動する。この移動の際の、動作検出部8が検出する角速度の情報を制御装置4に送信する。そして、制御装置4は、角速度のピークを検出し、各ピークの間隔に基づいて、ユーザー200が踊っているテンポを推測することができる。よって、例えば、ユーザー200が踊っているテンポに、楽曲のテンポや、シミュレーション動画の再生速度を合わせるように、再生部2および表示装置3の作動を制御することができる。その結果、ユーザー200が、自分自身が踊っているダンスのテンポが楽曲のテンポと合っているかどうかを気にせずにダンスを楽しむことができる。
When the
なお、本実施形態では、動作検出部8が、角速度センサーである場合について説明したが、本発明ではこれに限定されず、加速度センサー、角加速度センサー、磁気センサー、感圧センサー、変位センサー等を用いてもよい。こうした筐体や、センサーは、特に限定されないが、ユーザー200の身体や、衣装や靴などの物体に取り付けて、ユーザーの動きを検出する構成であってもよい。この場合、振る速さや、振る幅等から、ユーザー200は制御装置4に意図を伝えることができる。
In addition, in this embodiment, the case where the
また、動作検出部8は視線入力装置であってもよい。眼球の動きや、まばたきなどを利用して、ユーザ-200は視線により制御装置4に意図を伝えることができる。
Furthermore, the
以上、本発明のリズム把握支援システムを図示の実施形態について説明したが、本発明は、これに限定されるものではなく、リズム把握支援システムを構成する各部は、同様の機能を発揮し得る任意の構成のものと置換することができる。また、任意の構成物やステップが付加されていてもよい。 Although the rhythm grasping support system of the present invention has been described above with reference to the illustrated embodiment, the present invention is not limited to this, and each part constituting the rhythm grasping support system may be any arbitrary unit that can perform the same function. It can be replaced with the configuration of Moreover, arbitrary components or steps may be added.
また、前記実施形態では、記憶部(メモリー)は、制御装置に内蔵されたものであったが、本発明ではこれに限定されず、外部の機器(例えば、USBフラッシュメモリー)に記憶された構成であってもよい。この場合、外部の装置を制御装置に接続することにより、前記実施形態で述べたような制御を行うことができる。 Further, in the embodiment, the storage unit (memory) is built in the control device, but the present invention is not limited to this, and the storage unit (memory) is stored in an external device (for example, a USB flash memory). It may be. In this case, by connecting an external device to the control device, control as described in the previous embodiment can be performed.
1 リズム把握支援システム
2 再生部
3 表示装置
4 制御装置
5 設定入力装置
6 楽器
7 演奏装置
8 動作検出部
11 照明装置
12 演出装置
13 通信装置
21 スピーカー
31 投影装置
32 スクリーン
41 CPU
42 I/Oインターフェース
43 メモリー
431 再生モジュール
432 表示制御モジュール
433 動画生成モジュール
434 通信モジュール
100 ユーザー
200 ユーザー
A メインパーソン
B カウントパーソン
1 Rhythm
21
42 I/
Claims (7)
楽曲データが入力される入力部と、
前記入力部に入力された前記楽曲データに基づいて、カウントパーソンが、前記楽曲データが再生された楽曲のリズムに誘導する補助動作を行うシミュレーション動画を生成するシミュレーション動画生成部と、
前記シミュレーション動画生成部が生成した前記シミュレーション動画を表示する表示制御部と、を備えることを特徴とするリズム把握支援システム。 A rhythm comprehension support system that assists a user in grasping rhythm,
an input section into which music data is input;
a simulation video generation unit that generates a simulation video in which a count person performs an auxiliary movement to guide the rhythm of a song in which the music data is played, based on the music data input to the input unit;
A rhythm comprehension support system comprising: a display control unit that displays the simulation video generated by the simulation video generation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020108253A JP7440727B2 (en) | 2020-06-23 | 2020-06-23 | Rhythm comprehension support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020108253A JP7440727B2 (en) | 2020-06-23 | 2020-06-23 | Rhythm comprehension support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022003382A JP2022003382A (en) | 2022-01-11 |
JP7440727B2 true JP7440727B2 (en) | 2024-02-29 |
Family
ID=79246885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020108253A Active JP7440727B2 (en) | 2020-06-23 | 2020-06-23 | Rhythm comprehension support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7440727B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108128A (en) | 2001-09-27 | 2003-04-11 | Yamaha Corp | Portable telephone device, music game device, music game program, and program for portable telephone set |
JP2008161552A (en) | 2006-12-28 | 2008-07-17 | Yamaha Corp | Music data reproducing apparatus and progran |
JP2014004119A (en) | 2012-06-22 | 2014-01-16 | Brother Ind Ltd | Exercise support device, exercise support method and program |
JP2014123085A (en) | 2012-12-21 | 2014-07-03 | Sachiko Miki | Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke |
-
2020
- 2020-06-23 JP JP2020108253A patent/JP7440727B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108128A (en) | 2001-09-27 | 2003-04-11 | Yamaha Corp | Portable telephone device, music game device, music game program, and program for portable telephone set |
JP2008161552A (en) | 2006-12-28 | 2008-07-17 | Yamaha Corp | Music data reproducing apparatus and progran |
JP2014004119A (en) | 2012-06-22 | 2014-01-16 | Brother Ind Ltd | Exercise support device, exercise support method and program |
JP2014123085A (en) | 2012-12-21 | 2014-07-03 | Sachiko Miki | Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke |
Also Published As
Publication number | Publication date |
---|---|
JP2022003382A (en) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11341947B2 (en) | System and method for musical performance | |
JP2011048335A (en) | Singing voice synthesis system, singing voice synthesis method and singing voice synthesis device | |
US10418012B2 (en) | Techniques for dynamic music performance and related systems and methods | |
Parker | Good vibrations: The physics of music | |
Kapur | Digitizing North Indian music: preservation and extension using multimodal sensor systems, machine learning and robotics | |
JP7440727B2 (en) | Rhythm comprehension support system | |
Pestova | Models of interaction in works for piano and live electronics | |
US10482858B2 (en) | Generation and transmission of musical performance data | |
Gislason | Sound of Music | |
Menzies | New performance instruments for electroacoustic music | |
Dannenberg | Human computer music performance | |
JP6582517B2 (en) | Control device and program | |
JP2002221978A (en) | Vocal data forming device, vocal data forming method and singing tone synthesizer | |
Merz | Tracing the development of the South African alto saxophone style | |
JP6578725B2 (en) | Control terminal device, synthetic song generator | |
Lee | Unsuk Chin’s Hyper-Sheng: Sonic and Structural Development in Šu for Sheng and Orchestra | |
Pandey | Encyclopaedic dictionary of music | |
Pieptănatu | About Electroacoustic Music: From the Beginning until Our Days | |
JPH1185174A (en) | Karaoke sing-along machine which enables a user to play accompaniment music | |
Winland | A Survey of Chamber Works for Trumpet and Electronics | |
Hall | Folio of compositions | |
Snir | Shards Broken and Reconstructed: A Composition Portfolio | |
Kapur | Preservation and Extension using Multimodal Sensor Systems, Machine Learning and Robotics | |
Lopez | MOVING TOWARDS SYNTHESIS: THE INCORPO-RATION OF TECHNOLOGY IN MUSIC THROUGH A CASE STUDY OF THE FLUTE | |
Fragomeni | Optimality Theory and the Semiotic Triad: A New Approach for Songwriting, Sound Recording, and Artistic Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7440727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |