JP7440727B2 - Rhythm comprehension support system - Google Patents

Rhythm comprehension support system Download PDF

Info

Publication number
JP7440727B2
JP7440727B2 JP2020108253A JP2020108253A JP7440727B2 JP 7440727 B2 JP7440727 B2 JP 7440727B2 JP 2020108253 A JP2020108253 A JP 2020108253A JP 2020108253 A JP2020108253 A JP 2020108253A JP 7440727 B2 JP7440727 B2 JP 7440727B2
Authority
JP
Japan
Prior art keywords
rhythm
person
support system
count
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020108253A
Other languages
Japanese (ja)
Other versions
JP2022003382A (en
Inventor
英一 庄司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Fukui NUC
Original Assignee
University of Fukui NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Fukui NUC filed Critical University of Fukui NUC
Priority to JP2020108253A priority Critical patent/JP7440727B2/en
Publication of JP2022003382A publication Critical patent/JP2022003382A/en
Application granted granted Critical
Publication of JP7440727B2 publication Critical patent/JP7440727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 (1)行為時の権利者である庄司英一は、令和2年1月24日に、令和元年度 機械・システム工学科Rコース 卒業研究発表会(令和2年1月28日)の予稿集にて、本発明の支援システムを自ら公開した。 (2)行為時の権利者である庄司英一は、令和2年2月8日にウェブサイトYouTubeのアドレス:https://youtu.be/Eq3oB_o0bekに本発明の支援システムを自ら公開した。 (3)行為時の権利者である庄司英一は、令和2年2月9日にウェブサイトYouTubeのアドレス:https://youtu.be/TtqIDiwaiVYに本発明の支援システムを自ら公開した。 (4)行為時の権利者である庄司英一は、令和2年2月10日にウェブサイトYouTubeのアドレス:https://youtu.be/zsvs8i7WNh0に本発明の支援システムを自ら公開した。 (5)行為時の権利者である庄司英一は、令和2年2月19日にウェブサイトYouTubeのアドレス:https://youtu.be/h29veEQ_rgAに本発明の支援システムを自ら公開した。 (6)行為時の権利者である庄司英一は、令和2年3月5日にウェブサイトYouTubeのアドレス:https://youtu.be/-SbvZpsJQz4に本発明の支援システムを自ら公開した。 (7)行為時の権利者である庄司英一は、令和2年3月8日にウェブサイトYouTubeのアドレス:https://youtu.be/rTJUH2ee35oに本発明の支援システムを自ら公開した。 (8)行為時の権利者である庄司英一は、令和2年3月9日にウェブサイトYouTubeのアドレス:https://youtu.be/ZO38N3uiApUに本発明の支援システムを自ら公開した。 (9)行為時の権利者である庄司英一は、令和2年3月10日にウェブサイトYouTubeのアドレス:https://youtu.be/Yo8SO1KkvL0に本発明の支援システムを自ら公開した。 (10)行為時の権利者である庄司英一は、令和2年3月10日にウェブサイトYouTubeのアドレス:https://youtu.be/2rVaNQadg-4に本発明の支援システムを自ら公開した。 Application of Article 30, Paragraph 2 of the Patent Act (1) On January 24, 2020, Eiichi Shoji, the right holder at the time of the act, held the 2019 Department of Mechanical and Systems Engineering R Course Graduation Research Presentation (Reiwa He published the support system of the present invention in the proceedings of the paper published on January 28, 2015. (2) Eiichi Shoji, the right holder at the time of the act, posted the address of the website YouTube on February 8, 2020: https://youtu. He published the support system of the present invention on be/Eq3oB_o0bek. (3) Eiichi Shoji, the right holder at the time of the act, posted the address of the website YouTube on February 9, 2020: https://youtu. The support system of the present invention was published on be/TtqIDiwaiVY. (4) Eiichi Shoji, the right holder at the time of the act, posted on February 10, 2020 the address of the website YouTube: https://youtu. He published the support system of the present invention on be/zsvs8i7WNh0. (5) Eiichi Shoji, the right holder at the time of the act, posted on February 19, 2020 the address of the website YouTube: https://youtu. He published the support system of the present invention on be/h29veEQ_rgA. (6) Eiichi Shoji, the right holder at the time of the act, posted on March 5, 2020 the address of the website YouTube: https://youtu. The support system of the present invention was disclosed to be/-SbvZpsJQz4. (7) Eiichi Shoji, the right holder at the time of the act, posted the address of the website YouTube on March 8, 2020: https://youtu. The support system of the present invention was disclosed to be/rTJUH2ee35o. (8) Eiichi Shoji, the right holder at the time of the act, posted the address of the website YouTube on March 9, 2020: https://youtu. The support system of the present invention was disclosed to be/ZO38N3uiApU. (9) Eiichi Shoji, the right holder at the time of the act, posted on March 10, 2020 the address of the website YouTube: https://youtu. The support system of the present invention was disclosed to be/Yo8SO1KkvL0. (10) Eiichi Shoji, the right holder at the time of the act, posted on March 10, 2020 the address of the website YouTube: https://youtu. The support system of the present invention was published on be/2rVaNQadg-4.

特許法第30条第2項適用 (11)行為時の権利者である庄司英一は、令和2年3月10日にウェブサイトYouTubeのアドレス:https://youtu.be/pzfk-gysWJoに本発明の支援システムを自ら公開した。 (12)行為時の権利者である庄司英一は、令和2年3月15日にウェブサイトYouTubeのアドレス:https://youtu.be/eDiaxqHVbdwに本発明の支援システムを自ら公開した。 (13)行為時の権利者である庄司英一は、令和2年3月15日にウェブサイトYouTubeのアドレス:https://youtu.be/v-PMsjAv-sAに本発明の支援システムを自ら公開した。 (14)行為時の権利者である庄司英一は、令和2年3月19日にウェブサイトYouTubeのアドレス:https://youtu.be/3FnGPHfLrNEに本発明の支援システムを自ら公開した。 (15)行為時の権利者である庄司英一は、令和2年3月20日にウェブサイトYouTubeのアドレス:https://youtu.be/75K-4QyA80Mに本発明の支援システムを自ら公開した。Application of Article 30, Paragraph 2 of the Patent Act (11) Eiichi Shoji, the right holder at the time of the act, uploaded the website YouTube address: https://youtu.com on March 10, 2020. The support system of the present invention was disclosed to be/pzfk-gysWJo. (12) Eiichi Shoji, the right holder at the time of the act, posted on March 15, 2020 the address of the website YouTube: https://youtu. The support system of the present invention was published on be/eDiaxqHVbdw. (13) Eiichi Shoji, the right holder at the time of the act, posted on March 15, 2020 the address of the website YouTube: https://youtu. The support system of the present invention was disclosed to be/v-PMsjAv-sA. (14) Eiichi Shoji, the right holder at the time of the act, posted on March 19, 2020 the address of the website YouTube: https://youtu. The support system of the present invention was disclosed to be/3FnGPHfLrNE. (15) Eiichi Shoji, the right holder at the time of the act, posted on March 20, 2020 the address of the website YouTube: https://youtu. The support system of the present invention was published on be/75K-4QyA80M.

本発明は、リズムを把握するためのリズム把握支援システムに関する。 The present invention relates to a rhythm comprehension support system for grasping rhythm.

耳の不自由な人が音楽に合わせてダンスを踊るために、楽曲のリズムに誘導するような動作を行うカウントマンと呼ばれる人が知られている(例えば、非特許文献1参照)。 2. Description of the Related Art In order for deaf people to dance to music, there is a person known as a count man who performs movements to guide the rhythm of the music (for example, see Non-Patent Document 1).

非特許文献1に示すカウントマンは、耳の不自由な人に対して、流れている楽曲のリズムに合わせるような動作、または、次の動作を示すようなジェスチャーを行う。耳の不自由な人は、カウントマンのジェスチャーを見ながらダンスを行うことにより、楽曲が十分に聞こえていなくても楽曲のリズムに合わせてダンスを行うことができる。 The counting man shown in Non-Patent Document 1 performs an action to match the rhythm of a music being played or a gesture indicating the next action to a hearing-impaired person. By dancing while watching the count man's gestures, people with hearing disabilities can dance to the rhythm of the music even if they cannot hear the music well.

しかしながら、カウントマンが行うジェスチャーは、特殊な知識が必要な動作であり、誰しもがそのジェスチャーを行うことができる訳ではない。このため、カウントマンを用意し、耳の不自由な人が上述したようなダンスを手軽に踊って楽しむことが難しい。 However, the gestures performed by the count man require special knowledge, and not everyone can perform them. For this reason, it is difficult for a hearing-impaired person to easily dance and enjoy the above-mentioned dance by preparing a counting man.

日本放送協会、[令和2年4月15日検索]、インターネット<URL:http://www6.nhk.or.jp/baribara/lineup/single.html?i=282>Japan Broadcasting Corporation, [searched on April 15, 2020], Internet <URL: http://www6.nhk.or.jp/baribara/lineup/single.html?i=282>

本発明の目的は、例えば耳の不自由な人が手軽に音楽に合わせてダンスを踊ったり、合奏を楽しむことができるリズム把握支援システムを提供することにある。 An object of the present invention is to provide a rhythm understanding support system that allows, for example, a hearing-impaired person to easily dance to music or enjoy an ensemble.

このような目的は、下記(1)~(7)の本発明により達成される。
(1) ユーザーがリズムを把握するのを支援するリズム把握支援システムであって、
楽曲データが入力される入力部と、
前記入力部に入力された前記楽曲データに基づいて、カウントパーソンが、前記楽曲データが再生された楽曲のリズムに誘導する補助動作を行うシミュレーション動画を生成するシミュレーション動画生成部と、
前記シミュレーション動画生成部が生成した前記シミュレーション動画を表示する表示制御部と、を備えることを特徴とするリズム把握支援システム。
Such objects are achieved by the present invention described in (1) to (7) below.
(1) A rhythm comprehension support system that supports a user in grasping rhythm,
an input section into which music data is input;
a simulation video generation unit that generates a simulation video in which a count person performs an auxiliary movement to guide the rhythm of a song in which the music data is played, based on the music data input to the input unit;
A rhythm comprehension support system comprising: a display control unit that displays the simulation video generated by the simulation video generation unit.

(2) 前記補助動作は、前記楽曲のリズムに対し、時間的に先行してリズムを示す動作である上記(1)に記載のリズム把握支援システム。 (2) The rhythm comprehension support system according to (1) above, wherein the auxiliary motion is a motion that indicates a rhythm temporally preceding the rhythm of the music.

(3) 前記シミュレーション動画生成部は、前記シミュレーション動画において、前記カウントパーソンの衣装、前記カウントパーソンの表情、前記カウントパーソンの種類、前記カウントパーソンの大きさ、前記カウントパーソンの声質、および、背景のうちの少なくとも1つを前記楽曲データに合わせて変更する上記(1)または(2)に記載のリズム把握支援システム。 (3) In the simulation video, the simulation video generation unit is configured to determine the count person's costume, the count person's facial expression, the count person's type, the count person's size, the count person's voice quality, and the background. The rhythm comprehension support system according to (1) or (2) above, wherein at least one of the rhythms is changed in accordance with the music data.

(4) 前記シミュレーション動画は、前記カウントパーソンとともに、前記カウントパーソンとは別のメインパーソンが前記楽曲データのリズムに合わせてダンスを行う動画である上記(1)ないし(3)のいずれかに記載のリズム把握支援システム。 (4) The simulation video described in any one of (1) to (3) above is a video in which a main person other than the count person dances to the rhythm of the song data together with the count person. rhythm comprehension support system.

(5) 前記シミュレーション動画は、前記カウントパーソンと前記メインパーソンとが並んでいる動画である上記(4)に記載のリズム把握支援システム。 (5) The rhythm comprehension support system according to (4) above, wherein the simulation video is a video in which the count person and the main person are lined up.

(6) 前記補助動作は、前記楽曲データのリズムに合わせて前記カウントパーソンが体の少なくとも一部を左右に揺動させる動作である上記(1)ないし(5)のいずれかに記載のリズム把握支援システム。 (6) The rhythm comprehension according to any one of (1) to (5) above, wherein the auxiliary movement is a movement in which the count person rocks at least a part of his body from side to side in accordance with the rhythm of the music data. support system.

(7) 前記リズム把握支援システムは、聴覚障がい者が楽曲に合わせてダンスを踊る、または、合奏するのを支援するためのシステムである上記(1)ないし(6)のいずれかに記載のリズム把握支援システム。 (7) The rhythm comprehension support system according to any one of (1) to (6) above, which is a system for supporting hearing-impaired people to dance or play in ensemble to music. Grasping support system.

本発明によれば、例えば耳の不自由な人が手軽に音楽に合わせてダンスを踊ったり、合奏を楽しむことができるリズム把握支援システムを提供することができる。 According to the present invention, it is possible to provide a rhythm comprehension support system that allows, for example, a hearing-impaired person to easily dance to music or enjoy an ensemble.

図1は、本発明のリズム把握支援システム(第1実施形態)の概略構成図である。FIG. 1 is a schematic configuration diagram of a rhythm comprehension support system (first embodiment) of the present invention. 図2は、図1に示すリズム把握支援システムのブロック図である。FIG. 2 is a block diagram of the rhythm comprehension support system shown in FIG. 1. 図3は、シミュレーション動画の一例を示す図である。FIG. 3 is a diagram showing an example of a simulation video. 図4は、シミュレーション動画の一例を示す図である。FIG. 4 is a diagram showing an example of a simulation video. 図5は、シミュレーション動画の一例を示す図である。FIG. 5 is a diagram showing an example of a simulation video. 図6は、シミュレーション動画の一例を示す図である。FIG. 6 is a diagram showing an example of a simulation video. 図7は、シミュレーション動画の一例を示す図である。FIG. 7 is a diagram showing an example of a simulation video. 図8は、本発明のリズム把握支援システム(第2実施形態)の概略構成図である。FIG. 8 is a schematic configuration diagram of the rhythm comprehension support system (second embodiment) of the present invention.

以下、本発明のリズム把握支援システムを添付図面に示す好適な実施形態に基づいて詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS The rhythm understanding support system of the present invention will be described in detail below based on preferred embodiments shown in the accompanying drawings.

<第1実施形態>
図1は、本発明のリズム把握支援システム(第1実施形態)の概略構成図である。図2は、図1に示すリズム把握支援システムのブロック図である。図3~図7は、シミュレーション動画の一例を示す図である。
<First embodiment>
FIG. 1 is a schematic configuration diagram of a rhythm comprehension support system (first embodiment) of the present invention. FIG. 2 is a block diagram of the rhythm comprehension support system shown in FIG. 1. 3 to 7 are diagrams showing examples of simulation videos.

図1に示すリズム把握支援システム1は、健常者(以下、「ユーザー100」と言う)と、耳の不自由な人(軽度、重度問わず)、例えば加齢性難聴等による難聴者を含む聴覚障がい者(以下、「ユーザー200」と言う)と、が楽曲に合わせてダンス(ラジオ体操等の体操等を含む)を踊る、または、合奏するのを支援するシステムである。換言すれば、リズム把握支援システム1は、ユーザー200がダンスを踊る、または、合奏するのを支援するためのシステムである。なお、以下では、一例として、ユーザー200がダンスを踊る場合について説明する。また、本発明は、耳が不自由でないが、ダンスが苦手な人、楽器の演奏でうまくリズムを把握することができない人が、リズムを把握するために用いることもできる。 The rhythm comprehension support system 1 shown in FIG. 1 includes a healthy person (hereinafter referred to as "user 100") and a hearing-impaired person (regardless of whether it is mild or severe), such as a hearing-impaired person due to age-related hearing loss. This system supports a hearing-impaired person (hereinafter referred to as "user 200") to dance (including gymnastics such as radio gymnastics) or perform in ensemble to music. In other words, the rhythm comprehension support system 1 is a system for supporting the user 200 in dancing or playing in ensemble. Note that, as an example, a case where the user 200 dances will be described below. Furthermore, the present invention can be used by people who are not deaf but are not good at dancing, or who have difficulty grasping rhythm when playing musical instruments, to help them grasp rhythm.

なお、メインパーソンAおよびカウントパーソンBは、体の動きだけでは無く、楽器演奏音は勿論、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。また、体の動きに合わせて、チャイム音などの効果音、または楽器演奏ロボットにより、ウッドブロックやトライアングル、タンバリン等の楽器が鳴っていてもよい。 In addition, the main person A and the count person B may not only use body movements, but also the sounds of musical instruments, singing voice synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, etc. It may also be accompanied by human utterances, vocal singing, commands, explanations, etc. Further, musical instruments such as wood blocks, triangles, tambourines, etc. may be played by sound effects such as chimes or by a musical instrument playing robot in accordance with the body movements.

また、耳が不自由な場合でも、空気や床などの振動などにより体でリズムを感じ取ることが出来る場合があるので、本システムで音を一緒に鳴らすことは、極めて意味があり、システムの機能として重要であり、そうしたことが出来ることは必要である。 In addition, even if you are deaf or hard of hearing, you may be able to feel the rhythm with your body due to vibrations in the air or the floor, so it is extremely meaningful to play sounds together with this system, and the system functions. It is important to be able to do this, and it is necessary to be able to do so.

図1および図2に示すように、リズム把握支援システム1は、楽曲を再生する再生部2と、楽曲に合わせて動画を表示する表示装置3と、これらの作動を制御する制御装置4と、設定入力装置5と、を備える。また、制御装置4は、ユーザー200が楽曲のリズムを把握することができるように、再生部2が再生する楽曲に合わせたリズムに誘導する動画を生成し、表示装置3に表示させる。これにより、ユーザー200でも楽曲に合わせてダンスを楽しむことができる。 As shown in FIGS. 1 and 2, the rhythm comprehension support system 1 includes a playback unit 2 that plays music, a display device 3 that displays videos in accordance with the music, and a control device 4 that controls their operations. A setting input device 5 is provided. Further, the control device 4 generates a video that guides the user 200 to a rhythm that matches the music played by the playback unit 2, and causes the display device 3 to display the video so that the user 200 can understand the rhythm of the music. Thereby, even the user 200 can enjoy dancing to the music.

なお、本明細書における「リズム」とは、テンポの変化は、もちろん、強弱の変化(徐々に強く、徐々に弱く等)を含む概念とする。
以下、詳細に説明する。
Note that the term "rhythm" in this specification includes not only changes in tempo but also changes in dynamics (gradually becoming stronger, gradually becoming weaker, etc.).
This will be explained in detail below.

[再生部]
図1および図2に示すように、再生部2は、スピーカー21を有する。
[Playback section]
As shown in FIGS. 1 and 2, the reproduction section 2 includes a speaker 21. As shown in FIG.

スピーカー21は、制御装置4と電気的に接続されており、制御装置4から送信された楽曲データの電気信号を物理信号に変換して音を発して楽曲を再生するものである。この再生において、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。 The speaker 21 is electrically connected to the control device 4, converts the electrical signal of music data transmitted from the control device 4 into a physical signal, and reproduces the music by emitting sound. This reproduction may be accompanied by singing voice synthesis technology, speech by voice synthesis technology, vocal singing, commands, explanations, etc., or may be accompanied by actual human speech, vocal singing, commands, explanations, etc.

このスピーカー21と制御装置4との通信は、無線、有線の何れであってもよい。また、スピーカー21には、音量を調節する調節部が設けられていてもよい。 Communication between the speaker 21 and the control device 4 may be wireless or wired. Further, the speaker 21 may be provided with an adjustment section that adjusts the volume.

また、図示の構成では、再生部2が有するスピーカー21は1つであるが、これに限定されず、再生部2が有するスピーカー21は複数であってもよい。 Further, in the illustrated configuration, the reproduction section 2 has one speaker 21, but the present invention is not limited to this, and the reproduction section 2 may have a plurality of speakers 21.

また、再生部2は、スピーカー21に代えて、例えば、イヤホンやヘッドホン等、ユーザーが装着する機器を用いてもよい。なお、この構成の場合、イヤホンやヘッドホンが接続されるジャックは、制御装置4が収納された筐体(図示せず)や、スピーカー21に設けられた構成とすることができる。 Furthermore, instead of the speaker 21, the playback unit 2 may use a device worn by the user, such as earphones or headphones. In the case of this configuration, a jack to which earphones or headphones are connected may be provided in a casing (not shown) in which the control device 4 is housed or in the speaker 21.

[表示装置]
図1および図2に示すように、表示装置3は、投影装置31と、スクリーン32と、を有する。
[Display device]
As shown in FIGS. 1 and 2, the display device 3 includes a projection device 31 and a screen 32.

投影装置31は、例えば、光源を有する光出射装置である。この方式としては、特に限定されないが、液晶方式、DLP方式、LCOS方式等が挙げられる。 The projection device 31 is, for example, a light emitting device having a light source. This method includes, but is not particularly limited to, a liquid crystal method, a DLP method, an LCOS method, and the like.

図1に示すように、スクリーン32は、投影装置31から出射した映像光が投影される投影面を有する。スクリーン32は、図示の構成では、折り畳み、または、巻回して収納、展開可能なシート状をなしている。 As shown in FIG. 1, the screen 32 has a projection surface on which the image light emitted from the projection device 31 is projected. In the illustrated configuration, the screen 32 is in the form of a sheet that can be folded or rolled to be stored or expanded.

また、スクリーン32は、図示のような反射型に限定されず、光と相互作用(反射、屈折、回折、発光、蛍光、燐光等)して、投影された映像が認識可能なものであれば、透過型であってもよい。 The screen 32 is not limited to a reflective type as shown in the figure, but may be any type that interacts with light (reflection, refraction, diffraction, luminescence, fluorescence, phosphorescence, etc.) and allows the projected image to be recognized. , may be of a transmission type.

なお、本発明では、上記に限定されず、スクリーン32の代わりに、例えば、ミストスクリーンを用いてもよく、建造物の壁等の壁面に投影する構成であってもよい。また、スクリーン32を省略して、空中で映像光を結像させる構成であってもよい。また、映像は、プロジェクションマッピングの手法により透過型スクリーン中の対象物に投影してもよい。また、プロジェクションマッピングの手法を交えて、現実の物体の表面、蒸気、ミスト、飛沫、粉末、や液面にマッピングして投影してもよい。 Note that the present invention is not limited to the above, and instead of the screen 32, for example, a mist screen may be used, or a configuration may be used in which the image is projected onto a wall surface such as a wall of a building. Alternatively, the screen 32 may be omitted and the image light may be formed in the air. Furthermore, the image may be projected onto an object on a transmissive screen using a projection mapping technique. Alternatively, projection mapping may be used to map and project onto the surface of an actual object, vapor, mist, droplets, powder, or liquid surface.

また、表示装置3は、上記構成に限定されず、液晶、有機EL等の表示装置や、ヘッドマウントディスプレイ等のウェアラブルデバイスであってもよい。また、表示装置3は、映画等で用いる映写機であってもよい。 Further, the display device 3 is not limited to the above configuration, and may be a display device such as a liquid crystal or organic EL, or a wearable device such as a head mounted display. Further, the display device 3 may be a projector used for movies or the like.

[制御装置]
図1および図2に示すように、制御装置4は、CPU(Central Processing Unit)41と、I/Oインターフェース(受信部)42と、メモリー(記憶部)43とを有している。
[Control device]
As shown in FIGS. 1 and 2, the control device 4 includes a CPU (Central Processing Unit) 41, an I/O interface (receiving section) 42, and a memory (storage section) 43.

CPU41は、メモリー43に記憶された複数のモジュールや、各種プログラム等を実行する。複数のモジュールは、論理ゲート、半導体デバイス、集積回路または他のどのような個別部品を含むハードウエア回路における内蔵コンポーネントを含んでいてもよい。また、モジュールは、ソフトウェアプログラムの一部であってもよい。ソフトウェアプログラムとしてのモジュールの実行は、CPU41または他のどのようなハードウェアエンティティによって実行されるべき論理演算命令のセットを含んでいてもよい。また、モジュールは、インターフェースを用いて、命令やプログラムのセットで具現化されていてもよい。 The CPU 41 executes a plurality of modules and various programs stored in the memory 43. Modules may include integrated components in hardware circuits including logic gates, semiconductor devices, integrated circuits, or any other discrete components. A module may also be part of a software program. Execution of a module as a software program may include a set of logical operation instructions to be executed by CPU 41 or any other hardware entity. Additionally, a module may be embodied as a set of instructions or programs using an interface.

I/Oインターフェース42は、他の通信機器(再生部2、表示装置3等)と通信を行うためのものである。I/Oインターフェース42としては、特に限定されないが、音声、アナログ、デジタル、モノラル、RCA、ステレオ、IEEE-1394、シリアルバス、ユニバーサルシリアルバス(USB)、赤外線、PS/2、BNC、同軸コンポーネント、コンポジット、DVI(Digital Visual Interface)、HDMI(High-Definition Multimedia Interface)(登録商標)、RFアンテナ、S-ビデオ、VGA、ブルートゥース(登録商標)、Cellular(例えば、CDMA(Code-Division Multiple Access)、HSPA+(High-Speed Packet Access)、GSM(Global System for Mobile communications)(登録商標)、LTE(Long-Term Evolution)、WiMax等)、Wi-Fi規格、無線LAN等の通信プロトコル/方法を採用してもよい。 The I/O interface 42 is for communicating with other communication devices (playback section 2, display device 3, etc.). Examples of the I/O interface 42 include, but are not limited to, audio, analog, digital, monaural, RCA, stereo, IEEE-1394, serial bus, universal serial bus (USB), infrared, PS/2, BNC, coaxial component, Composite, DVI (Digital Visual Interface), HDMI (High-Definition Multimedia Interface) (registered trademark), RF antenna, S-Video, VGA, Bluetooth (registered trademark), Cellular (for example, CDMA (Code-Di vision (Multiple Access), HSPA+ (High-Speed Packet Access), GSM (Global System for Mobile communications) (registered trademark), LTE (Long-Term Evolution), WiMax, etc.), Wi-Fi standard, wireless L Adopting communication protocols/methods such as AN It's okay.

このI/Oインターフェース42は、外部から楽曲データを取り込む機能を有する。すなわち、I/Oインターフェース42は、外部から楽曲データが入力される入力部として機能する。 This I/O interface 42 has a function of importing music data from the outside. That is, the I/O interface 42 functions as an input section into which music data is input from the outside.

楽曲データとしては、特に限定されないが、例えば、WAVE(RIFF waveform Audio Format)、mp3(MPEG Audio Layer-3)等の音声ファイルフォーマットからなるオーディオデータや、MIDIデータ(MIDI規格(Musical Instrument Digital Interface)(登録商標)の楽曲データ)等が挙げられる。楽曲データは楽器による演奏音だけではなく、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。以下では、MIDIデータとして説明する。MIDIデータを用いることにより、後述するように、シミュレーション動画を生成する際、楽曲のリズムを容易に把握することができ、シミュレーション動画を生成しやすくすることができる。また、MIDIデータは、例えば、楽曲データにマーカー信号を埋め込むという簡単な方法により、後述するシミュレーション動画のデータと同期させることができる。また、シミュレーション動画には、楽器演奏だけではなく、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明、実際の人間による発話、発声による歌唱、号令、説明等を同期しやすくすることができる。また、メモリー43に楽曲データを加工して取り込む際、データの容量が増大してしまうのを抑制することができる。 Song data is not particularly limited, but includes, for example, audio data in audio file formats such as WAVE (RIFF waveform Audio Format) and mp3 (MPEG Audio Layer-3), and MIDI data (MIDI standard (Musical Instrument Digital Intel)). rface) (registered trademark) music data). The music data may include not only the sounds played by musical instruments, but also vocal synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, etc., and includes actual human utterances, vocal singing, commands, explanations, etc. May be accompanied by In the following, it will be explained as MIDI data. By using MIDI data, as will be described later, when generating a simulation video, it is possible to easily grasp the rhythm of a song, making it easier to generate a simulation video. Moreover, MIDI data can be synchronized with data of a simulation video, which will be described later, by, for example, a simple method of embedding a marker signal in music data. In addition, the simulation video includes not only musical instrument performances, but also singing voice synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, utterances by actual humans, vocal singing, commands, explanations, etc. that can be easily synchronized. can do. Further, when processing and importing music data into the memory 43, it is possible to suppress an increase in the data capacity.

メモリー43は、例えば不揮発性半導体メモリーの一種であるEEPROM(Electrically Erasable Programmable Read-Only Memory)等で構成されている。メモリー43に記憶されたモジュールは、再生モジュール431と、表示制御モジュール432(表示制御部)と、動画生成モジュール433(シミュレーション動画生成部)と、通信モジュール434と、を含む。 The memory 43 is composed of, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory), which is a type of nonvolatile semiconductor memory. The modules stored in the memory 43 include a playback module 431, a display control module 432 (display control section), a video generation module 433 (simulation video generation section), and a communication module 434.

再生モジュール431は、CPU41によって実行されたとき、再生部2に対する通電条件を制御することにより、I/Oインターフェース42が取り込んだ楽曲データを、再生部2によって再生するよう構成されている。 The playback module 431 is configured so that when executed by the CPU 41, the playback unit 2 plays the music data taken in by the I/O interface 42 by controlling the energization conditions for the playback unit 2.

表示制御モジュール432(表示制御部)は、CPU41によって実行されたとき、表示装置3に対する通電条件を制御することにより、表示装置3の光源装置の作動を制御して、動画生成モジュール433が生成したシミュレーション動画を再生(表示)する。 When executed by the CPU 41, the display control module 432 (display control unit) controls the operation of the light source device of the display device 3 by controlling the energization conditions for the display device 3, thereby controlling the operation of the light source device of the display device 3. Play (display) the simulation video.

動画生成モジュール433は、CPU41によって実行されたとき、楽曲データの情報に基づいてシミュレーション動画を生成する。動画生成モジュール433は、人が設定入力装置5を用いて指示を行うことにより、その指示を実行する構成であってもよい。また、楽曲データの種類ごとに予め生成したシミュレーション動画をメモリー43に記憶しておき、入力された楽曲データに基づいて、その楽曲データに対応するシミュレーション動画を選択する構成であってもよい。また、ビートトラッキングにより、音楽等の音に合わせて指示を実行する構成であってもよい。 When executed by the CPU 41, the video generation module 433 generates a simulation video based on the information of the music data. The video generation module 433 may have a configuration in which a person issues an instruction using the setting input device 5 and executes the instruction. Alternatively, a configuration may be adopted in which a simulation video generated in advance for each type of music data is stored in the memory 43, and a simulation video corresponding to the music data is selected based on the input music data. Further, the configuration may be such that instructions are executed in accordance with sounds such as music by beat tracking.

動画生成モジュール433によって生成されたシミュレーション動画は、表示制御モジュール432の作動により、表示装置3に表示される。また、シミュレーション動画が表示される際、再生モジュール431の作動により、楽曲とシミュレーション動画とが同期され、再生部2から楽曲が再生される。また、必要に応じて、歌声合成技術や、声合成技術、実際の人間による発話や発声による歌唱や号令、説明等が同期再生される。シミュレーション動画に関しては、後に詳述する。 The simulation video generated by the video generation module 433 is displayed on the display device 3 by the operation of the display control module 432. Further, when the simulation video is displayed, the music and the simulation video are synchronized by the operation of the playback module 431, and the music is played from the playback unit 2. Further, if necessary, singing voice synthesis technology, voice synthesis technology, utterances by actual humans, vocal singing, commands, explanations, etc. are synchronously reproduced. The simulation video will be detailed later.

なお、シミュレーション動画の形式は、特に限定されず、例えば、AVI、MP4、MOV、MPEG2-TS、MPEG2-PS、MKV、WMV、FLV、ASF、VOB、WebM、OGM等が挙げられる。また、ファイルフォーマットは、特に限定されず、例えば、avi、mp4、m4A、mov、qt、m2ts、ts、mpeg、mpg、mkv、flv、f4v、asf、wmv、webm、ogm等が挙げられる。また、映像コーディックは、特に限定されず、例えば、VP6、H.263、H.264、Xvid、Divx、MPEG-4、MPEG-2、MPEG-1、WMV9、VP9、VP8等が挙げられる。また、音声コーディックとしては、特に限定されず、AAC、MP3、LPCM、Voribis、AC-3、FLAC、WMA、ADPCM、MP2等が挙げられる。 Note that the format of the simulation video is not particularly limited, and examples thereof include AVI, MP4, MOV, MPEG2-TS, MPEG2-PS, MKV, WMV, FLV, ASF, VOB, WebM, OGM, and the like. Further, the file format is not particularly limited, and examples thereof include avi, mp4, m4A, mov, qt, m2ts, ts, mpeg, mpg, mkv, flv, f4v, asf, wmv, webm, ogm, and the like. Further, the video codec is not particularly limited, and examples include VP6, H. 263, H. Examples include H.264, Xvid, Divx, MPEG-4, MPEG-2, MPEG-1, WMV9, VP9, and VP8. Furthermore, the audio codec is not particularly limited, and examples include AAC, MP3, LPCM, Voribis, AC-3, FLAC, WMA, ADPCM, MP2, and the like.

通信モジュール434は、CPU41によって実行されたとき、他の通信機器の信号出力インターフェース等と通信を行うよう構成されている。 The communication module 434 is configured to communicate with a signal output interface or the like of another communication device when executed by the CPU 41.

また、メモリー43には、上記の他に、後述するような制御プログラム等が記憶されている。このような制御装置4は、表示装置3または設定入力装置5に内蔵されていてもよく、表示装置3または設定入力装置5とは異なる筐体に内蔵されたものであってもよい。 In addition to the above, the memory 43 also stores control programs, etc., which will be described later. Such a control device 4 may be built in the display device 3 or the setting input device 5, or may be built in a housing different from the display device 3 or the setting input device 5.

[設定入力装置]
設定入力装置5は、制御装置4と通信し、制御装置4に対して各種設定を入力する機能を有する。設定入力装置5が行う各種設定に関しては、後に詳述する。この設定入力装置5としては、特に限定されず、例えば、スマートフォン、タブレット端末、パーソナルコンピューター等が挙げられる。
[Setting input device]
The setting input device 5 has a function of communicating with the control device 4 and inputting various settings to the control device 4. Various settings performed by the setting input device 5 will be described in detail later. The setting input device 5 is not particularly limited, and examples thereof include a smartphone, a tablet terminal, a personal computer, and the like.

[照明装置、演出装置、通信装置]
また、図1に示すように、リズム把握支援システム1は、照明装置11と、演出装置12と、通信装置13と、を有する。
[Lighting equipment, performance equipment, communication equipment]
Further, as shown in FIG. 1, the rhythm comprehension support system 1 includes a lighting device 11, a presentation device 12, and a communication device 13.

照明装置11としては、特に限定はされないが、ミラーボール、カラーボール、スポットライト、ホリゾントライト、フラットライト、ムービングヘッド、ブルートライト、スモークマシン、バブルマシン、レーザープロジェクター、レーザービーム、レーザーライト、ストロボ、ブラックライト、LEDテープライト、DMX、スイングライト、スピンナー等、指向性の高いレーザー光、拡散光の照明等、視覚的な演出を行うものを用いることができる。また、照明装置11により、光の強弱、色、パターン、タイミング等を曲調に合わせて変化させることができる。照明装置11は、制御装置4によってその作動が制御される。 Examples of the lighting device 11 include, but are not limited to, a mirror ball, a color ball, a spotlight, a horizontal light, a flat light, a moving head, a brute light, a smoke machine, a bubble machine, a laser projector, a laser beam, a laser light, a strobe, It is possible to use a black light, an LED tape light, a DMX light, a swing light, a spinner, etc., a highly directional laser light, a diffused light illumination, or the like that provides visual effects. Furthermore, the lighting device 11 allows the intensity, color, pattern, timing, etc. of the light to be changed in accordance with the melody. The operation of the lighting device 11 is controlled by the control device 4.

演出装置12は、スモーク、花火、火炎、紙吹雪、テープ、クラッカーや、特に限定はされず、視覚的な演出や、香りなどの嗅覚的な演出を行う機能を有する。また、強弱、量、タイミング等を曲調に合わせて変化させることができる。演出装置12は、制御装置4によってその作動が制御される。 The effect device 12 has the function of producing visual effects such as smoke, fireworks, flames, confetti, tape, crackers, and other visual effects such as smoke, fireworks, flames, crackers, and olfactory effects such as fragrance. In addition, the strength, amount, timing, etc. can be changed to match the melody. The operation of the production device 12 is controlled by the control device 4.

通信装置13は、ブレスレット、クリップ等ウェアラブルデバイスで構成され、振動や光を発生させる機能を有する。通信装置13は、前記I/Oインターフェース42として例示した通信プロトコル/方法により制御装置4と通信を行うことができる。これにより、別会場の演奏システム(即ち上述のリズム把握支援システム1の複製を別会場でも設置)と通信し、リモートで複数の会場で、同時に同期演奏等を行うことにより、より多くの人が同時に楽しむことができる。また、別会場との通信を行う状況では、一人、少人数、大人数等、人数は問わない。 The communication device 13 is composed of a wearable device such as a bracelet or a clip, and has a function of generating vibration and light. The communication device 13 can communicate with the control device 4 using the communication protocol/method exemplified as the I/O interface 42. This allows more people to communicate with a performance system at another venue (i.e., install a copy of the above-mentioned rhythm comprehension support system 1 at another venue) and remotely perform synchronous performances at multiple venues at the same time. You can enjoy it at the same time. Furthermore, when communicating with another venue, the number of participants does not matter, such as one person, a small number of people, or a large number of people.

以上、リズム把握支援システム1の構成について説明した。
ここで、前述したように、動画生成モジュール433が生成するシミュレーション動画は、図1、図3~図6に示すように、メインパーソンAと、カウントパーソンBとが、それぞれ、異なる動作を行う動画である。
The configuration of the rhythm comprehension support system 1 has been described above.
Here, as described above, the simulation video generated by the video generation module 433 is a video in which the main person A and the count person B perform different actions, as shown in FIGS. 1 and 3 to 6. It is.

シミュレーション動画では、メインパーソンAは、楽曲のリズムに合わせてダンスを行う。例えば、メインパーソンAは、足、腰、腕、首等のうちの少なくとも1つを動かしてダンスを踊るメイン動作を行う。また、必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明してもよい。また、必要により、実際の人間が歌を歌ったり、号令し、また説明してもよい。ユーザーは、再生されている楽曲を聞きながら、表示装置3に表示されたメインパーソンAを見て、メインパーソンAと同じダンスを踊って楽しむことができる。 In the simulation video, main person A dances to the rhythm of a song. For example, main person A performs a main movement of dancing by moving at least one of the legs, waist, arms, neck, etc. Further, if necessary, singing, commanding, or explanation may be performed by vocalization or utterance using singing voice synthesis technology or voice synthesis technology. Furthermore, if necessary, an actual person may sing, give commands, or provide explanations. The user can enjoy watching the main person A displayed on the display device 3 and dancing the same dance as the main person A while listening to the music being played.

シミュレーション動画では、カウントパーソンBは、楽曲のリズムに誘導する補助動作を行う。必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明してもよい。また、必要により、人間が歌を歌ったり、号令し、また説明してもよい。カウントパーソンBが行う補助動作は、耳の不自由なユーザー200でも、その動作を見ることにより、再生されている楽曲のリズムを把握することができる動作のことである。補助動作は、再生されている楽曲よりも時間的に先行してまたは遅れて行われる動作であってもよく、再生されている楽曲のリズムと同じリズムで行われる動作であってもよく、これらを組み合わせた動作であってもよい。また、カウントパーソンBによる時間的に遅れた動作は、演奏中に、リアルタイムに、リズムの緩急や強弱がどのように時間的に推移していくかを伝えることができる。 In the simulation video, Count Person B performs auxiliary movements to guide the user to the rhythm of the music. If necessary, a song may be sung, a command may be given, or an explanation may be made by vocalization or utterance using a singing voice synthesis technique or a voice synthesis technique. Also, if necessary, a human may sing a song, give commands, or give an explanation. The auxiliary movement performed by count person B is one that allows even the hearing-impaired user 200 to grasp the rhythm of the music being played by watching the movement. The auxiliary movement may be an action that is performed temporally ahead or behind the music that is being played, or may be an action that is performed with the same rhythm as the rhythm of the music that is being played. The operation may be a combination of the following. Further, the time-delayed actions by count person B can convey in real time how the rhythm and strength change over time during the performance.

補助動作が、再生されている楽曲よりも時間的に先行して行われる動作である場合、補助動作は、図3に示すような動作が挙げられる。図3では、スクリーン32中、左側に表示されたメインパーソンAがリズムに合わせてダンスを踊る。一方、スクリーン32中右側のカウントパーソンBは、メインパーソンAが踊るダンスの動作とは異なり、再生される楽曲のリズムに対し時間的に先行した動作である。また、時間的に先行して、カウントパーソンBが、体の少なくとも一部を大きく動かし、例えば、小節の頭、四分音符、曲調の変わり目等、緩急のニュアンス、強弱のニュアンスをわかりやすく伝える、表現するような動作を行う。すなわち、カウントパーソンBが、指揮者がタクトを振るように、楽曲のニュアンスを身振り手振りで伝えるような動作を行う。 When the auxiliary action is an action that is performed temporally prior to the music being played, examples of the auxiliary action include actions as shown in FIG. In FIG. 3, main person A displayed on the left side of the screen 32 dances to the rhythm. On the other hand, the count person B on the right side of the screen 32 differs from the dance movement performed by the main person A, and his movement temporally precedes the rhythm of the music being played. In addition, in advance in time, Count Person B moves at least part of his body in a large manner to clearly convey the nuances of speed and strength, such as the beginning of a measure, a quarter note, a change in melody, etc. Perform the action that expresses it. That is, Count Person B performs an action that conveys the nuances of the music through gestures, like a conductor waving a tact.

また、照明装置11によって演出を補助することができる。すなわち、光の強弱、色、パターン、タイミング等を曲調に合わせて変化させることにより、楽曲のニュアンスをさらにわかりやすく伝えることができる。 Furthermore, the lighting device 11 can assist the presentation. In other words, by changing the intensity, color, pattern, timing, etc. of the light to match the melody, the nuances of the song can be conveyed more clearly.

また、演出装置12によって演出を補助することができる。すなわち、演出装置12による演出の強弱、量、タイミング等を曲調に合わせて変化させることにより、楽曲のニュアンスをさらにわかりやすく伝えることができる。 In addition, the performance can be assisted by the performance device 12. That is, by changing the intensity, amount, timing, etc. of the performance by the performance device 12 in accordance with the melody, the nuances of the music can be conveyed more clearly.

また、ユーザー200が通信装置13を装着した状態で、振動の強弱、振動のタイミング、振動のパターン等を曲調に合わせて変化させることにより、楽曲のニュアンスをさらにわかりやすく伝えることができる。こうした装置とカウントパーソンBとの連動は、視覚障がい者が、カウントパーソンBの動きを把握するのに役立つ。 Further, by changing the strength of vibration, timing of vibration, pattern of vibration, etc. in accordance with the melody while the user 200 is wearing the communication device 13, the nuances of the music can be conveyed more clearly. The interlocking of such a device and count person B helps visually impaired people to understand count person B's movements.

このように、カウントパーソンBが行う補助動作は、楽曲のリズムに対し、時間的に先行してリズムを示す動作である。これにより、ユーザー200は、楽曲が十分に聞こえないにも関わらず、カウントパーソンBを見ながら、リズムを先行して把握することができる。よって、ユーザー200がユーザー100とともにダンスを踊り、楽しむことができる。 In this way, the auxiliary motion performed by count person B is a motion that temporally precedes the rhythm of the music and indicates the rhythm. Thereby, the user 200 can grasp the rhythm in advance while looking at the count person B, even though the user 200 cannot hear the music well. Therefore, the user 200 can dance and enjoy the dance together with the user 100.

一方、補助動作が、再生されている楽曲のリズムと同じリズムで行われる動作である場合、補助動作は、例えば、図4および図5に示すような動作が挙げられる。図4では、カウントパーソンBが体を図4中右側に傾けた状態であり、図5では、カウントパーソンBが体を図4中左側に傾けた状態である。このような動作を楽曲のリズムに合わせて繰り返すことにより、ユーザー200は、楽曲が十分に聞こえないにも関わらず、カウントパーソンBを見ながら再生されている楽曲のリズムを明確に把握することができる。必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり号令し、また説明していることで、健常者も一緒に楽しむことができる。 On the other hand, when the auxiliary motion is a motion performed in the same rhythm as the rhythm of the music being played, the auxiliary motion may include, for example, the motions shown in FIGS. 4 and 5. In FIG. 4, count person B is in a state where his body is tilted to the right side in FIG. 4, and in FIG. 5, count person B is in a state in which his body is tilted to the left side in FIG. By repeating these actions in accordance with the rhythm of the song, the user 200 can clearly grasp the rhythm of the song being played while looking at Count Person B, even though the user 200 cannot hear the song well. can. If necessary, healthy people can also enjoy the program by using singing voice synthesis technology or voice synthesis technology to sing, give commands, and provide explanations.

また、図4および図5に示す構成では、カウントパーソンBは、メトロノームのような役割を果たす。既存のメトロノームは、例えば、四分音符ごとに第1音を鳴らし、小節ごとに第1音とは異なる第2音を鳴らす構成であるのが一般的である。このような既存のメトロノームを用いた場合、ユーザー200は、リズムを把握することはできるが、曲調、強弱、場面転換等、曲の流れを把握することが困難である。また、音だけでは、瞬時に何拍目の音かはわかりにくい。これに対し、本発明では、前述したように、カウントパーソンBがリズムに合わせて視覚的に左右に体を揺らし、小節ごとに大きくリズムを示し、かつ、体を左右に往復させつつ、腕、首、腰等の動きや、顔の表情で、四分音符のリズム、または、小節内や複数の小節にまたがってのリズムを細かく示すことができる。また、変拍子等のリズムも表現し、このリズムをユーザー200が把握することができる。これは、キャラクターの動きを目で追って予測することができるので、把握することが可能となる。 Furthermore, in the configurations shown in FIGS. 4 and 5, count person B plays a role like a metronome. Existing metronomes generally have a configuration in which, for example, a first note is sounded for each quarter note, and a second note different from the first note is sounded for each bar. When using such an existing metronome, the user 200 can grasp the rhythm, but it is difficult for the user 200 to grasp the flow of the song, such as the melody, dynamics, scene changes, etc. Also, it is difficult to instantly tell what beat a note is by just looking at the sound. On the other hand, in the present invention, as described above, Count Person B visually sways his body from side to side according to the rhythm, shows a large rhythm for each measure, and while moving his body back and forth from side to side, his arms, The rhythm of a quarter note, or the rhythm within a measure or across multiple measures, can be shown in detail by movements of the neck, hips, etc., and facial expressions. Furthermore, rhythms such as odd time signatures are also expressed, and the user 200 can grasp this rhythm. This makes it possible to predict the movement of the character by visually following it.

例えば、次の小節における曲調が穏やかな曲調になる場合、四分音符のリズムを示す動作を控えめな動作にすることにより、ユーザー200が、次の展開が穏やかな曲調になる旨を予測することができる。また、例えば、次の小節における曲調が激しい曲調になる場合、四分音符のリズムを示す動作を激しい動作にすることにより、ユーザー200が、次の展開が激しい曲調になる旨を予測することができる。このように、リズム把握支援システム1によれば、カウントパーソンBが単にメトロノームの役割を果たすだけでなく、表現豊かにリズムを示すことができる。また、必要に応じて、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明してもよい。また、必要により、実際の人間が歌を歌ったり、号令し、また説明してもよい。 For example, if the melody in the next measure is a gentle melody, the user 200 can predict that the next development will be a gentle melody by making the movement indicating the quarter note rhythm a modest movement. I can do it. Further, for example, if the melody in the next measure is a violent melody, the user 200 can predict that the next development will be a violent melody by making the motion indicating the quarter note rhythm a violent motion. can. In this way, according to the rhythm comprehension support system 1, the count person B can not only play the role of a metronome but also express the rhythm in a richly expressive manner. Further, if necessary, singing, commanding, or explanation may be performed by vocalization or utterance using singing voice synthesis technology or voice synthesis technology. Furthermore, if necessary, an actual person may sing, give commands, or provide explanations.

また、再生されている楽曲ごとにカウントパーソンBの衣装を変更してもよく、再生されている楽曲の途中で、曲調に合わせて、または、例えば、転調部分や間奏部分、サビの部分、Aメロ、Bメロ等の場面に応じて、カウントパーソンBの衣装を変更してもよい。衣装の変更のパターンとしては、例えば、色、種類、描かれているキャラクター等を変更すること等が挙げられる。 In addition, Count Person B's costume may be changed for each song being played. The costume of count person B may be changed depending on the scene of the melody, B melody, etc. Patterns for changing costumes include, for example, changing colors, types, drawn characters, and the like.

また、再生されている楽曲ごとに、カウントパーソンBの歌声や号令、説明の声を変更してもよく、再生されている楽曲の途中で、曲調に合わせて、または、例えば、転調部分や間奏部分、サビの部分、Aメロ、Bメロ等の場面に応じて、カウントパーソンBの歌声や号令、説明の声を変更してもよい。声の変更のパターンとしては、例えば、声質、音高、強弱、イントネーション、別のキャラクターの声などに変更すること等が挙げられる。 In addition, Count Person B's singing voice, commands, and explanatory voice may be changed for each song being played. Count Person B's singing voice, commands, and explanatory voice may be changed depending on the scene, such as the chorus, A melody, B melody, etc. Examples of voice change patterns include changing voice quality, pitch, strength, intonation, and changing to the voice of another character.

また、再生されている楽曲ごとにカウントパーソンBの表情を変更してもよく、再生されている楽曲の途中で、曲調に合わせてカウントパーソンBの表情を変更してもよい。表情は、笑顔、悲しい顔等が挙げられる。 Further, the count person B's facial expression may be changed for each song being played, or the count person B's facial expression may be changed in the middle of the song being played according to the melody. Examples of facial expressions include a smiling face and a sad face.

また、再生されている楽曲ごとにカウントパーソンBの種類を変更してもよく、再生されている楽曲の途中で、曲調に合わせてカウントパーソンBの種類を変更してもよい。すなわち、異なるキャラクターに変更してもよい。視覚的効果をねらって、必要に応じて透明になって消えてもよい。 Further, the type of count person B may be changed for each piece of music being played, or the type of count person B may be changed in the middle of the piece of music being played depending on the melody. In other words, the character may be changed to a different character. It may become transparent and disappear if desired for visual effect.

また、再生されている楽曲ごとにカウントパーソンBの大きさ(体型、体の部位の大きさ)を変更してもよく、再生されている楽曲の途中で、曲調に合わせてカウントパーソンBの前述したような大きさを変更してもよい。 In addition, the size of Count Person B (body shape, size of body parts) may be changed for each song being played, and in the middle of the song being played, Count Person B's size may be changed according to the melody. You may change the size as shown.

また、図6に示すように、再生されている楽曲ごとに背景を変更してもよく、再生されている楽曲の途中で、曲調に合わせて背景を変更してもよい。また、背景は、実写の背景であってもよく、コンピューターグラフィックスであってもよい。 Further, as shown in FIG. 6, the background may be changed for each song being played, or the background may be changed in the middle of the song being played according to the melody. Further, the background may be a real-life background or may be computer graphics.

このように、シミュレーション動画生成部としての動画生成モジュール433は、シミュレーション動画において、カウントパーソンBの衣装、カウントパーソンBの表情、カウントパーソンBの種類、カウントパーソンBの大きさ、カウントパーソンBの声質、および、背景のうちの少なくとも1つを楽曲データに合わせて変更してもよい。これにより、再生される楽曲がさらに表現豊かになるとともに、ユーザー200が、どのようなダンスを踊ればよいか、想起しやすくすることができる。 In this way, the video generation module 433 as a simulation video generation unit generates the costume of count person B, the facial expression of count person B, the type of count person B, the size of count person B, and the voice quality of count person B in the simulation video. , and the background may be changed in accordance with the music data. As a result, the music being played becomes more expressive, and it becomes easier for the user 200 to remember what kind of dance to perform.

このような変更は、人が設定入力装置5を操作して行われてもよく、予め設定されたプログラムによって行われてもよい。 Such a change may be made by a person operating the setting input device 5, or may be made by a preset program.

また、設定入力装置5を操作することにより、楽曲のテンポが変更可能に構成されていてもよい。この場合、テンポの変更に合わせて、シミュレーション動画の再生速度も同等に変更される。 Further, by operating the setting input device 5, the tempo of the music may be changed. In this case, the playback speed of the simulation video is also changed in accordance with the change in tempo.

また、前述したように、シミュレーション動画は、カウントパーソンBとともにカウントパーソンBとは別のメインパーソンAが楽曲データのリズムに合わせてダンス(メイン動作)を行う動画である。これにより、ユーザー100およびユーザー200がダンスを楽しむことができる。 Further, as described above, the simulation video is a video in which the main person A, who is different from the count person B, dances (main motion) along with the count person B in accordance with the rhythm of the music data. Thereby, user 100 and user 200 can enjoy dancing.

また、シミュレーション動画は、カウントパーソンBとメインパーソンAとが並んでいる動画である。これにより、ユーザー200は、メインパーソンAおよびカウントパーソンBの双方を見ながらダンスを踊ることができる。よって、ユーザー200がダンスをより楽しむことができる。 Further, the simulation video is a video in which count person B and main person A are lined up. Thereby, the user 200 can dance while watching both the main person A and the count person B. Therefore, the user 200 can enjoy dancing more.

なお、このような構成に限定されず、シミュレーション動画は、図7に示すように、カウントパーソンBのみが表示される動画であってもよい。その動画は通信装置により他会場に配信してもよい。また、携帯電話やスマホ、タブレット、パソコン端末などで表示できるように配信してもよい。図7では、タブレット端末にシミュレーション動画を表示している。このような構成の場合、ユーザー200が、自宅等において、一人でダンスを踊って楽しんだり、練習を行ったりすることができる。また、他会場にいるユーザー200が、スマホや携帯端末などでそのカウントパーソンBの映像をみながら、また、号令にあわせて、一緒になってダンスを踊ることができる。健常者、障がいを持つ方々が自分の好きな場所で、一緒になってダンスを同時刻に踊ることを実現できるので、一体感が生まれる効果や楽しさがある。 Note that the simulation video is not limited to such a configuration, and the simulation video may be a video in which only count person B is displayed, as shown in FIG. The video may be distributed to other venues using communication devices. Furthermore, it may be distributed so that it can be displayed on a mobile phone, smartphone, tablet, computer terminal, etc. In FIG. 7, a simulation video is displayed on a tablet terminal. In the case of such a configuration, the user 200 can enjoy and practice dancing alone at home or the like. Furthermore, users 200 at other venues can watch the video of Count Person B on their smartphones, mobile terminals, etc. and dance together according to the commands. This allows able-bodied people and people with disabilities to dance together at the same time in a location of their choice, creating a sense of unity and having fun.

また、図7に示す構成では、カウントパーソンBが行う補助動作は、楽曲データのリズムに合わせてカウントパーソンBが体の少なくとも一部を左右に揺動させる動作である。これにより、キャラクターの左右の動きをメトロノームとして使うこともできる。テンポを一定に保ったり、変えたりすることで、これを見ながら楽器演奏や、歌の練習等に利用することができる。 Further, in the configuration shown in FIG. 7, the auxiliary motion performed by count person B is a motion in which count person B rocks at least a portion of his body left and right in accordance with the rhythm of music data. This allows you to use the character's left and right movements as a metronome. By keeping the tempo constant or changing it, you can use it to play instruments or practice singing while watching it.

また、図7に示す構成において、左右の体の動きの速さを可変出来る機能や、左右の動きに合わせて歌声合成技術や、声合成技術により発音、発声させて、歌唱、号令、説明できる機能を有していてもよい。 In addition, in the configuration shown in Figure 7, there is a function that allows the speed of left and right body movements to be varied, and singing, commands, and explanations can be made using singing voice synthesis technology and voice synthesis technology to produce sounds and utterances according to left and right movements. It may have a function.

また、無音にすることで、楽器演奏や、歌の練習等の時以外に、本番の演奏会で、画面のカウントパーソンの動きに合わせて演奏タイミングや演奏意図(演奏開始ポイント、テンポやクレッシェンド、演奏時の注意点)を確認することに使える。特に静粛性の問われる演奏会での無音での使用が要求される場合、上述の様に、キャラクターの色や大きさ、衣装などの変化を利用することで、視覚的に効果的なメトロノームとして使用できる。 In addition, by muting the sound, you can use it not only when playing instruments or practicing singing, but also during the actual concert, to adjust the performance timing and performance intention (starting point, tempo, crescendo, etc.) according to the movements of the count person on the screen. It can be used to check things to keep in mind when playing. Particularly when silence is required at a concert where silence is a concern, by using changes in the character's color, size, costume, etc., as described above, it can be used as a visually effective metronome. Can be used.

また、シミュレーション動画において、メインパーソンAおよびカウントパーソンBに加え、動作を説明する文言、歌詞、作曲者、作詞者、編曲者等の情報を表示してもよいし、歌声合成技術や声合成技術による発話、発声によりこれらを説明させてもよい。楽曲毎に声質を変えても良い。 In addition, in addition to main person A and count person B, information such as text explaining the movement, lyrics, composer, lyricist, arranger, etc. may be displayed in the simulation video, and information such as singing voice synthesis technology and voice synthesis technology may also be displayed. These may be explained using utterances or utterances. The voice quality may be changed for each song.

このように、リズム把握支援システム1は、ユーザー200がリズムを把握するのを支援するものである。また、リズム把握支援システム1は、楽曲データが入力されるI/Oインターフェース42(入力部)と、I/Oインターフェース42に入力された楽曲データに基づいて、カウントパーソンBが、楽曲データが再生された楽曲のリズムに誘導する補助動作を行うシミュレーション動画を生成する動画生成モジュール433(シミュレーション動画生成部)と、動画生成モジュール433が生成したシミュレーション動画を表示する表示制御モジュール432(表示制御部)と、を備える。このような構成によれば、ユーザー200が楽曲のリズムに合わせてダンスを踊って楽しむことができる。また、シミュレーション動画では、カウントパーソンBが体を使ってリズムに誘導するため、ユーザー200にとってわかりやすく、リズムに誘導しやすい。特に、カウントパーソンを実際に用意する必要がなく、シミュレーション動画としてカウントパーソンを表示することができる。よって、耳の不自由な人、すなわち、ユーザー200が手軽に音楽に合わせてダンスを踊って楽しむことができる。 In this way, the rhythm comprehension support system 1 supports the user 200 in grasping the rhythm. In addition, the rhythm comprehension support system 1 includes an I/O interface 42 (input section) into which music data is input, and a count person B who plays music data based on the music data input to the I/O interface 42. A video generation module 433 (simulation video generation unit) that generates a simulation video that performs auxiliary movements to guide the rhythm of the song, and a display control module 432 (display control unit) that displays the simulation video generated by the video generation module 433. and. According to such a configuration, the user 200 can enjoy dancing to the rhythm of the music. Furthermore, in the simulation video, Count Person B uses his body to guide the user to the rhythm, so it is easy for the user 200 to understand and guide the user to the rhythm. In particular, there is no need to actually prepare a count person, and the count person can be displayed as a simulation video. Therefore, a hearing-impaired person, ie, the user 200, can easily enjoy dancing to music.

また、メインパーソンAおよびカウントパーソンBは、体の動きだけでは無く、楽器演奏音は勿論、歌声合成技術や、声合成技術による発話、発声による歌唱、号令、説明等を伴ってもよく、実際の人間による発話、発声による歌唱、号令、説明等を伴ってもよい。また、体の動きに合わせて、チャイム音などの効果音が鳴ったり、または楽器演奏ロボットにより、ウッドブロックやトライアングル、タンバリン等の楽器が鳴っていてもよい。 In addition, the main person A and the count person B may be accompanied by not only body movements, but also the sounds of musical instruments, singing voice synthesis technology, utterances using voice synthesis technology, vocal singing, commands, explanations, etc. It may also be accompanied by human utterances, vocal singing, commands, explanations, etc. Furthermore, sound effects such as chimes may be played in accordance with the body movements, or musical instruments such as wood blocks, triangles, tambourines, etc. may be played by a musical instrument playing robot.

また、メインパーソンAおよびカウントパーソンBは、ダンスを踊りつつ、歌を歌ったり、掛け声を発したりしてもよい。アニメーションの場合、キャラクターの口を動かしてもよい。ユーザー200は、口元の動きを見て、現在、曲のどの部分が再生されているかを把握することができたり、次にどのような動作を行うかを把握しやすくなる。 Moreover, the main person A and the count person B may sing a song or shout while dancing. For animation, you can also move the character's mouth. By looking at the movements of the mouth, the user 200 can easily understand which part of the song is currently being played, and what action to perform next.

また、本実施形態では、メインパーソンAおよびカウントパーソンBは、バーチャルキャラクターである場合について説明したが、本発明ではこれに限定されず、例えば、実写の人間であってもよい。必要により、歌声合成技術や声合成技術により発声や発話により歌を歌ったり、号令し、また説明して体が動いてもよい。また、必要に応じて実際の人間が発声や発話により歌を歌ったり、号令し、また説明してもよい。 Further, in this embodiment, the main person A and the count person B are virtual characters, but the present invention is not limited to this, and may be, for example, real-life humans. If necessary, the body may be moved by singing, commanding, or giving explanations using singing voice synthesis technology or voice synthesis technology. Further, if necessary, an actual person may sing a song, give a command, or provide an explanation by voice or utterance.

また、本実施形態では、メインパーソンAおよびカウントパーソンBは、人型のキャラクターである場合について説明したが、本発明ではこれに限定されず、動物や、アニメーションのキャラクターや、外見が初音ミク(登録商標)のようなコンピュータアニメーション、コンピューターグラフィックス(CG)、3DCG、3DCG動画によるキャラクター等であってもよい。具体的には、バーチャルユーチューバー(バーチャルYouTuber)、ブイチューバー(VTuber)、バーチャルライバー、バーチャルアイドル、バーチャルタレント、バーチャルシンガー、バーチャルサインシンガー等が挙げられる。また、これらのキャラクターは、歌声合成技術、声合成技術、音声合成技術、ボーカロイド(登録商標)、VOCALOID(登録商標)、歌声シンセサイザー等により、歌、号令、説明、効果音などの合成音声や音を発してもよい。実際の人間の音声を使ってしゃべっているような効果を出しても良い。また、声以外に、見ている人に合図や意図を知らせるために、そうした合図となるような効果音、ビープ音などを発しても良い。 Furthermore, in this embodiment, the main person A and the count person B are humanoid characters, but the present invention is not limited to this. It may be a character created by computer animation (registered trademark), computer graphics (CG), 3DCG, 3DCG animation, or the like. Specifically, virtual YouTubers, VTubers, virtual livers, virtual idols, virtual talents, virtual singers, virtual autograph singers, etc. may be mentioned. In addition, these characters are able to create synthesized voices and sounds such as songs, commands, explanations, sound effects, etc. using singing voice synthesis technology, voice synthesis technology, voice synthesis technology, VOCALOID (registered trademark), VOCALOID (registered trademark), singing voice synthesizer, etc. may be issued. It is also possible to create the effect of speaking using the voice of an actual human. In addition to voices, sound effects, beeps, and the like may be emitted to notify the viewer of a signal or intention.

また、このようなリズム把握支援システム1は、アミューズメントパーク、コンサート会場、舞台、カラオケ、体育の授業、ダンス教室、音楽教室、各種学校、自宅でのダンス、楽器の演奏の練習等で用いることができる。このため、幅広く、様々な場面で、健常者と聴覚障がい者とがダンス、音楽を楽しむことができる。 Further, such a rhythm grasping support system 1 can be used in amusement parks, concert venues, stages, karaoke, physical education classes, dance classes, music classes, various schools, dancing at home, practicing playing musical instruments, etc. can. Therefore, both able-bodied people and hearing-impaired people can enjoy dance and music in a wide variety of situations.

<第2実施形態>
図8は、本発明のリズム把握支援システム(第2実施形態)の概略構成図である。
<Second embodiment>
FIG. 8 is a schematic configuration diagram of the rhythm comprehension support system (second embodiment) of the present invention.

以下、この図を参照しつつ、本発明の第2実施形態について説明するが、前述した第1実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。 Hereinafter, a second embodiment of the present invention will be described with reference to this figure, but the explanation will focus on the differences from the first embodiment described above, and the explanation of similar matters will be omitted.

図8に示すように、本実施形態のリズム把握支援システム1は、第1実施形態で説明した再生部2、表示装置3、制御装置4および前記実施形態で述べた設定入力装置5に加え、楽器6と、楽器6を演奏する演奏装置7と、動作検出部8と、をさらに備える。 As shown in FIG. 8, the rhythm comprehension support system 1 of this embodiment includes, in addition to the playback unit 2, display device 3, control device 4, and setting input device 5 described in the first embodiment, described in the first embodiment. The apparatus further includes a musical instrument 6, a performance device 7 for playing the musical instrument 6, and a motion detection section 8.

図8に示す演奏装置7は、楽器6を演奏する演奏装置である。
楽器6としては、特に限定されず、例えば、後述するような打楽器、弦楽器、鍵盤楽器、管楽器等が挙げられるが、本実施形態では、一例として、打楽器であるドラム(スネアドラム、バスドラム、ハイハット、ライドシンバル、クラッシュシンバル)として説明する。
A performance device 7 shown in FIG. 8 is a performance device that plays the musical instrument 6.
The musical instrument 6 is not particularly limited, and includes, for example, percussion instruments, string instruments, keyboard instruments, wind instruments, etc., which will be described later. , ride cymbal, crash cymbal).

なお、本明細書中では、楽器とは、自身が音を発するものや、自身が発した音を増幅させてスピーカー等から出力するものや、自身は音を出さないが電気信号が入力されることによってスピーカー等から音を出力するものを含む。 Note that in this specification, musical instruments include those that themselves emit sound, those that amplify the sounds that they themselves produce and output them from speakers, etc., and those that do not themselves produce sounds but receive electrical signals. This includes devices that output sound from speakers, etc.

演奏装置7は、ドラムの各部(スネアドラム、バスドラム、ハイハット、ライドシンバル、クラッシュシンバル)にそれぞれ設けられた打撃部と、打撃部を駆動する駆動部とを有している。打撃部および駆動部は、特開2019-144360号公報に記載されているような構成とすることができる。 The performance device 7 includes a striking section provided for each part of the drum (snare drum, bass drum, hi-hat, ride cymbal, crash cymbal), and a driving section that drives the striking section. The striking part and the driving part can be configured as described in Japanese Patent Application Laid-open No. 2019-144360.

また、演奏装置7は、制御装置4によって通電条件が制御されることにより、作動が制御される。 Further, the operation of the performance device 7 is controlled by controlling the energization conditions by the control device 4.

このような演奏装置7によれば、例えば、スピーカー等では再現できない楽器の倍音等の臨場感を演出することができる。 According to such a performance device 7, for example, it is possible to create a sense of realism such as overtones of a musical instrument that cannot be reproduced by a speaker or the like.

また、演奏速度を、前記実施形態で説明した楽曲の再生速度およびシミュレーション動画と同期させることにより、再生部2から再生される楽曲に対し、楽器6の演奏を加えて厚みを持たせることができる。 Furthermore, by synchronizing the performance speed with the music playback speed and the simulation video described in the above embodiment, it is possible to add depth to the music played by the musical instrument 6 by adding the performance of the musical instrument 6 to the music played from the playback section 2. .

このように、本実施形態では、楽曲は、予め作成された楽曲データを再生した楽曲(再生部2から再生される楽曲)、および、リアルタイムで楽器を演奏して得られた楽曲である。これにより、楽曲に厚みを持たせることができる。なお、この構成に限定されず、予め作成された楽曲データを再生した楽曲、および、リアルタイムで楽器を演奏して得られた楽曲が流れていればよい。 As described above, in this embodiment, the songs are songs that are obtained by playing music data created in advance (music that is played from the playback unit 2), and songs that are obtained by playing musical instruments in real time. This allows the music to have depth. It should be noted that the present invention is not limited to this configuration, and it is sufficient that music played by reproducing music data created in advance and music obtained by playing musical instruments in real time are played.

図示の構成では、楽器6は、ドラム、コンガであるが、楽器6としては、特に限定されず、例えば、その他の打楽器、弦楽器、鍵盤楽器、鍵盤打楽器、管楽器、気鳴楽器等が挙げられる。 In the illustrated configuration, the musical instruments 6 are drums and congas, but the musical instruments 6 are not particularly limited, and examples thereof include other percussion instruments, string instruments, keyboard instruments, keyboard percussion instruments, wind instruments, pneumatic instruments, and the like.

なお、その他の打楽器としては、電子ドラム、和太鼓、カホン、ジャンベ、タンバリン、トライアングル、カスタネット、ウッドブロック、カウベル、拍子木、クラベス、木魚、ボンゴ、ティンパニ、コンサートチャイム、ウインドチャイム、カバサ、スレイベル、ティンパレス、アゴゴ等が挙げられる。 Other percussion instruments include electronic drums, Japanese drums, cajon, djembe, tambourine, triangle, castanet, wood block, cowbell, clapboard, claves, mokugyo, bongo, timpani, concert chime, wind chime, cabasa, sleigh bell, Examples include Tin Palace and Agogo.

弦楽器としては、アコースティックギター、エレキギター、アコースティックベース、エレキベース、ハープ、マンドリン、ヴァイオリン、ヴィオラ、チェロ、コントラバス等が挙げられる。 Stringed instruments include acoustic guitars, electric guitars, acoustic basses, electric basses, harps, mandolins, violins, violas, cellos, double basses, and the like.

鍵盤楽器としては、ピアノ、ホンキートンクピアノ、エレクトリックピアノ、キーボード、チェンバロ、チェレスタ、オルガン、電子オルガン、パイプオルガン、リードオルガン、エレクトーン、鍵盤ハーモニカ、アコーディオン、シンセサイザー等が挙げられる。 Keyboard instruments include pianos, honky-tonk pianos, electric pianos, keyboards, harpsichords, celestas, organs, electronic organs, pipe organs, reed organs, electric tones, keyboard harmonicas, accordions, synthesizers, and the like.

鍵盤打楽器としては、シロフォン、ザイロフォン、シロリンバ、マリンバ、グロッケンシュピール、ビブラフォン、アンティークシンバル、グラス・ハープ、アルモニカ等が上げられる。 Keyboard percussion instruments include the xylophone, xylophone, xirolimba, marimba, glockenspiel, vibraphone, antique cymbals, glass harp, and armonica.

管楽器としては、フルート、リコーダー、オカリナ、尺八、クラリネット、オーボエ、サクスフォーン、ファゴット、笙、バグパイプ等の木管楽器や、トランペット、トロンボーン、ホルン、ユーフォニアム、チューバ、ホイッスル、サンバホイッスル等の金管楽器等が挙げられる。 Wind instruments include woodwind instruments such as the flute, recorder, ocarina, shakuhachi, clarinet, oboe, saxophone, bassoon, sho, and bagpipes, and brass instruments such as the trumpet, trombone, horn, euphonium, tuba, whistle, and samba whistle. etc.

気鳴楽器としては、ハーモニカ、バグパイプ、ホイッスル、調律用笛、気鳴の玩具等が挙げられる。 Examples of air sound instruments include harmonicas, bagpipes, whistles, tuning flutes, air sound toys, and the like.

[動作検出部]
図8に示す動作検出部8は、ユーザー200の体の一部に装着され、ユーザー200の動作を検出する機能を有する。動作検出部8は、本実施形態では、角速度を検出する角速度センサーで構成されている。角速度センサーは、図示しない筐体と、筐体に内蔵された図示しないセンサー素子と、制御装置4と通信を行う図示しない通信部とを有する。
[Motion detection section]
The motion detection unit 8 shown in FIG. 8 is attached to a part of the body of the user 200 and has a function of detecting the motion of the user 200. In this embodiment, the motion detection section 8 is configured with an angular velocity sensor that detects angular velocity. The angular velocity sensor includes a casing (not shown), a sensor element (not shown) built into the casing, and a communication section (not shown) that communicates with the control device 4 .

筐体は、例えば、ユーザー200の手首にリストバンドによって装着することができる。なお、この構成に限定されず、指、頭部、腹部、足等、任意の部位に装着してもよい。 The housing can be worn on the wrist of the user 200 using a wristband, for example. Note that the device is not limited to this configuration, and may be attached to any desired location such as a finger, head, abdomen, foot, or the like.

センサー素子は、静電容量式、歪みゲージ式、圧電式、渦電流式、電磁誘導式、光式のいずれのタイプのものであってもよい。センサー素子が検出した角速度の情報は、電気信号に変換されて通信部によって制御装置4に送信される。通信部と制御装置4との通信は、無線、有線の何れであってもよい。 The sensor element may be of any type including capacitance type, strain gauge type, piezoelectric type, eddy current type, electromagnetic induction type, and optical type. Information on the angular velocity detected by the sensor element is converted into an electrical signal and transmitted to the control device 4 by the communication section. Communication between the communication unit and the control device 4 may be either wireless or wired.

ユーザー200がシミュレーション動画を見ながらダンスを踊った際、手に装着された動作検出部8が移動する。この移動の際の、動作検出部8が検出する角速度の情報を制御装置4に送信する。そして、制御装置4は、角速度のピークを検出し、各ピークの間隔に基づいて、ユーザー200が踊っているテンポを推測することができる。よって、例えば、ユーザー200が踊っているテンポに、楽曲のテンポや、シミュレーション動画の再生速度を合わせるように、再生部2および表示装置3の作動を制御することができる。その結果、ユーザー200が、自分自身が踊っているダンスのテンポが楽曲のテンポと合っているかどうかを気にせずにダンスを楽しむことができる。 When the user 200 dances while watching the simulation video, the motion detection unit 8 attached to the hand moves. Information on the angular velocity detected by the motion detection section 8 during this movement is transmitted to the control device 4. Then, the control device 4 can detect the peaks of the angular velocity and estimate the tempo at which the user 200 is dancing based on the interval between each peak. Therefore, for example, the operations of the playback unit 2 and the display device 3 can be controlled so that the tempo of the song or the playback speed of the simulation video match the tempo at which the user 200 is dancing. As a result, the user 200 can enjoy dancing without worrying about whether the tempo of the dance he or she is dancing matches the tempo of the song.

なお、本実施形態では、動作検出部8が、角速度センサーである場合について説明したが、本発明ではこれに限定されず、加速度センサー、角加速度センサー、磁気センサー、感圧センサー、変位センサー等を用いてもよい。こうした筐体や、センサーは、特に限定されないが、ユーザー200の身体や、衣装や靴などの物体に取り付けて、ユーザーの動きを検出する構成であってもよい。この場合、振る速さや、振る幅等から、ユーザー200は制御装置4に意図を伝えることができる。 In addition, in this embodiment, the case where the motion detection unit 8 is an angular velocity sensor has been described, but the present invention is not limited to this, and may include an acceleration sensor, an angular acceleration sensor, a magnetic sensor, a pressure-sensitive sensor, a displacement sensor, etc. May be used. These housings and sensors may be configured to be attached to the body of the user 200 or an object such as clothing or shoes to detect the user's movements, although they are not particularly limited. In this case, the user 200 can convey his or her intention to the control device 4 based on the speed of the swing, the width of the swing, and the like.

また、動作検出部8は視線入力装置であってもよい。眼球の動きや、まばたきなどを利用して、ユーザ-200は視線により制御装置4に意図を伝えることができる。 Furthermore, the motion detection unit 8 may be a line of sight input device. The user 200 can convey his/her intention to the control device 4 through his/her line of sight using eye movements, blinking, and the like.

以上、本発明のリズム把握支援システムを図示の実施形態について説明したが、本発明は、これに限定されるものではなく、リズム把握支援システムを構成する各部は、同様の機能を発揮し得る任意の構成のものと置換することができる。また、任意の構成物やステップが付加されていてもよい。 Although the rhythm grasping support system of the present invention has been described above with reference to the illustrated embodiment, the present invention is not limited to this, and each part constituting the rhythm grasping support system may be any arbitrary unit that can perform the same function. It can be replaced with the configuration of Moreover, arbitrary components or steps may be added.

また、前記実施形態では、記憶部(メモリー)は、制御装置に内蔵されたものであったが、本発明ではこれに限定されず、外部の機器(例えば、USBフラッシュメモリー)に記憶された構成であってもよい。この場合、外部の装置を制御装置に接続することにより、前記実施形態で述べたような制御を行うことができる。 Further, in the embodiment, the storage unit (memory) is built in the control device, but the present invention is not limited to this, and the storage unit (memory) is stored in an external device (for example, a USB flash memory). It may be. In this case, by connecting an external device to the control device, control as described in the previous embodiment can be performed.

1 リズム把握支援システム
2 再生部
3 表示装置
4 制御装置
5 設定入力装置
6 楽器
7 演奏装置
8 動作検出部
11 照明装置
12 演出装置
13 通信装置
21 スピーカー
31 投影装置
32 スクリーン
41 CPU
42 I/Oインターフェース
43 メモリー
431 再生モジュール
432 表示制御モジュール
433 動画生成モジュール
434 通信モジュール
100 ユーザー
200 ユーザー
A メインパーソン
B カウントパーソン
1 Rhythm comprehension support system 2 Playback section 3 Display device 4 Control device 5 Setting input device 6 Musical instrument 7 Performance device 8 Movement detection section 11 Lighting device 12 Performance device 13 Communication device
21 Speaker 31 Projection device 32 Screen 41 CPU
42 I/O interface 43 Memory 431 Playback module 432 Display control module 433 Video generation module 434 Communication module 100 User 200 User A Main person B Count person

Claims (7)

ユーザーがリズムを把握するのを支援するリズム把握支援システムであって、
楽曲データが入力される入力部と、
前記入力部に入力された前記楽曲データに基づいて、カウントパーソンが、前記楽曲データが再生された楽曲のリズムに誘導する補助動作を行うシミュレーション動画を生成するシミュレーション動画生成部と、
前記シミュレーション動画生成部が生成した前記シミュレーション動画を表示する表示制御部と、を備えることを特徴とするリズム把握支援システム。
A rhythm comprehension support system that assists a user in grasping rhythm,
an input section into which music data is input;
a simulation video generation unit that generates a simulation video in which a count person performs an auxiliary movement to guide the rhythm of a song in which the music data is played, based on the music data input to the input unit;
A rhythm comprehension support system comprising: a display control unit that displays the simulation video generated by the simulation video generation unit.
前記補助動作は、前記楽曲のリズムに対し、時間的に先行してリズムを示す動作である請求項1に記載のリズム把握支援システム。 2. The rhythm comprehension support system according to claim 1, wherein the auxiliary motion is a motion that indicates a rhythm temporally preceding the rhythm of the music. 前記シミュレーション動画生成部は、前記シミュレーション動画において、前記カウントパーソンの衣装、前記カウントパーソンの表情、前記カウントパーソンの種類、前記カウントパーソンの大きさ、前記カウントパーソンの声質、および、背景のうちの少なくとも1つを前記楽曲データに合わせて変更する請求項1または2に記載のリズム把握支援システム。 The simulation video generation unit is configured to generate at least one of the count person's costume, the count person's facial expression, the count person's type, the count person's size, the count person's voice quality, and the background in the simulation video. The rhythm understanding support system according to claim 1 or 2, wherein one of the rhythms is changed according to the music data. 前記シミュレーション動画は、前記カウントパーソンとともに、前記カウントパーソンとは別のメインパーソンが前記楽曲データのリズムに合わせてダンスを行う動画である請求項1に記載のリズム把握支援システム。 2. The rhythm comprehension support system according to claim 1, wherein the simulation video is a video in which a main person other than the count person dances to the rhythm of the music data along with the count person. 前記シミュレーション動画は、前記カウントパーソンと前記メインパーソンとが並んでいる動画である請求項4に記載のリズム把握支援システム。 5. The rhythm comprehension support system according to claim 4, wherein the simulation video is a video in which the count person and the main person are lined up. 前記補助動作は、前記楽曲データのリズムに合わせて前記カウントパーソンが体の少なくとも一部を左右に揺動させる動作である請求項1ないし5のいずれか1項に記載のリズム把握支援システム。 6. The rhythm comprehension support system according to claim 1, wherein the auxiliary motion is a motion in which the count person rocks at least a portion of his or her body from side to side in accordance with the rhythm of the music data. 前記リズム把握支援システムは、聴覚障がい者が楽曲に合わせてダンスを踊る、または、合奏するのを支援するためのシステムである請求項1ないし6のいずれか1項に記載のリズム把握支援システム。 The rhythm grasping support system according to any one of claims 1 to 6, wherein the rhythm grasping support system is a system for supporting hearing-impaired persons to dance or play in ensemble to music.
JP2020108253A 2020-06-23 2020-06-23 Rhythm comprehension support system Active JP7440727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020108253A JP7440727B2 (en) 2020-06-23 2020-06-23 Rhythm comprehension support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020108253A JP7440727B2 (en) 2020-06-23 2020-06-23 Rhythm comprehension support system

Publications (2)

Publication Number Publication Date
JP2022003382A JP2022003382A (en) 2022-01-11
JP7440727B2 true JP7440727B2 (en) 2024-02-29

Family

ID=79246885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020108253A Active JP7440727B2 (en) 2020-06-23 2020-06-23 Rhythm comprehension support system

Country Status (1)

Country Link
JP (1) JP7440727B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108128A (en) 2001-09-27 2003-04-11 Yamaha Corp Portable telephone device, music game device, music game program, and program for portable telephone set
JP2008161552A (en) 2006-12-28 2008-07-17 Yamaha Corp Music data reproducing apparatus and progran
JP2014004119A (en) 2012-06-22 2014-01-16 Brother Ind Ltd Exercise support device, exercise support method and program
JP2014123085A (en) 2012-12-21 2014-07-03 Sachiko Miki Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108128A (en) 2001-09-27 2003-04-11 Yamaha Corp Portable telephone device, music game device, music game program, and program for portable telephone set
JP2008161552A (en) 2006-12-28 2008-07-17 Yamaha Corp Music data reproducing apparatus and progran
JP2014004119A (en) 2012-06-22 2014-01-16 Brother Ind Ltd Exercise support device, exercise support method and program
JP2014123085A (en) 2012-12-21 2014-07-03 Sachiko Miki Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke

Also Published As

Publication number Publication date
JP2022003382A (en) 2022-01-11

Similar Documents

Publication Publication Date Title
US11341947B2 (en) System and method for musical performance
JP2011048335A (en) Singing voice synthesis system, singing voice synthesis method and singing voice synthesis device
US10418012B2 (en) Techniques for dynamic music performance and related systems and methods
Parker Good vibrations: The physics of music
Kapur Digitizing North Indian music: preservation and extension using multimodal sensor systems, machine learning and robotics
JP7440727B2 (en) Rhythm comprehension support system
Pestova Models of interaction in works for piano and live electronics
US10482858B2 (en) Generation and transmission of musical performance data
Gislason Sound of Music
Menzies New performance instruments for electroacoustic music
Dannenberg Human computer music performance
JP6582517B2 (en) Control device and program
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
Merz Tracing the development of the South African alto saxophone style
JP6578725B2 (en) Control terminal device, synthetic song generator
Lee Unsuk Chin’s Hyper-Sheng: Sonic and Structural Development in Šu for Sheng and Orchestra
Pandey Encyclopaedic dictionary of music
Pieptănatu About Electroacoustic Music: From the Beginning until Our Days
JPH1185174A (en) Karaoke sing-along machine which enables a user to play accompaniment music
Winland A Survey of Chamber Works for Trumpet and Electronics
Hall Folio of compositions
Snir Shards Broken and Reconstructed: A Composition Portfolio
Kapur Preservation and Extension using Multimodal Sensor Systems, Machine Learning and Robotics
Lopez MOVING TOWARDS SYNTHESIS: THE INCORPO-RATION OF TECHNOLOGY IN MUSIC THROUGH A CASE STUDY OF THE FLUTE
Fragomeni Optimality Theory and the Semiotic Triad: A New Approach for Songwriting, Sound Recording, and Artistic Analysis

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240119

R150 Certificate of patent or registration of utility model

Ref document number: 7440727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150