JP2022163281A - robot - Google Patents
robot Download PDFInfo
- Publication number
- JP2022163281A JP2022163281A JP2021068125A JP2021068125A JP2022163281A JP 2022163281 A JP2022163281 A JP 2022163281A JP 2021068125 A JP2021068125 A JP 2021068125A JP 2021068125 A JP2021068125 A JP 2021068125A JP 2022163281 A JP2022163281 A JP 2022163281A
- Authority
- JP
- Japan
- Prior art keywords
- user
- sounds
- rhythm
- robot
- output mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033764 rhythmic process Effects 0.000 claims abstract description 144
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 230000001020 rhythmical effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 12
- 238000000034 method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 2
- 241000287531 Psittacidae Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットに関する。 The present invention relates to robots.
特許文献1には、音楽のテンポが変わった場合でも音楽に対するロボットの動作の追従性を保つことを目的とする動作制御装置が記載されている。動作制御装置は、流れている音楽のMIDI情報に含まれるティックと、タイムベースと、拍子記号とに基づいて、現在流れている小節及び拍を算出し、現在流れている小節及び拍が、ロボットに特定の動作をさせるタイミングであるか否かを判断する。そして、その判断処理結果に基づいて動作指示を出力する。
特許文献2には、エンターテインメント性を向上させることを目的とするロボット装置が記載されている。ロボット装置は、供給される音楽データに基づく音楽からリズムを抽出して、そのリズムに基づいて各腕部の平均移動速度の範囲を決定して、その範囲に合う動作パターンを選択的に読み出す。
Japanese Patent Laid-Open No. 2002-200001 describes a motion control device that aims to keep the motion of a robot following the music even when the tempo of the music changes. The motion control device calculates the current bar and beat based on the tick, time base, and time signature included in the MIDI information of the music being played. determines whether or not it is time to perform a specific action. Then, an operation instruction is output based on the determination processing result.
人間にとっての「ロボット」は、一般的な電化製品とは一線を画す存在であるとされている。つまり、ロボットは、一般的な電化製品では実現できない、人とのコミュニケーションを通じて人の心をケアする、家族や友人に近い存在、あるいは代替し得る存在であるといえる。また、そのような存在であることがロボットの本来的な存在意義であるともいえる。しかしながら、特許文献1や2のような音楽に追従させて動作させるロボットでは、人とのコミュニケーションを十分に図ろうとすると、手足や身体の動きなどの動作を大がかりなものとする必要がある。また、コミュニケーションを図るための表現のバリエーションにも限界があった。
"Robots" for humans are said to be distinct from general electrical appliances. In other words, it can be said that robots are close to, or can substitute for, family and friends, caring for people's minds through communication, which is not possible with ordinary electrical appliances. In addition, it can be said that such an existence is the original significance of the robot's existence. However, in robots that follow music and move as in
本発明の目的は、音楽に追従して動作をするだけの従来のロボットに比べて、人とのコミュニケーションをより強くとることができるロボットを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a robot capable of communicating with a person more strongly than a conventional robot that only moves according to music.
請求項1に記載された発明は、外部より発せられた第1の複数の音の集合が入力されると、当該第1の複数の音の集合の特徴量を検出する検出手段と、検出された前記特徴量と同一または一部が共通する特徴量を有する第2の複数の音の集合を、予め定められた態様にて外部に向けて出力する出力手段と、を備えるロボットである。
請求項2に記載された発明は、前記検出手段は、前記第1の複数の音の集合としての、複数の衝突音の集合または複数の音からなる旋律を取得して、当該複数の衝突音の集合または複数の音からなる旋律の各々の特徴量を検出し、前記出力手段は、前記第2の複数の音の集合としての旋律またはリズム音を、予め定められた態様にて外部に向けて出力する、請求項1に記載のロボットである。
請求項3に記載された発明は、前記出力手段は、前記旋律またはリズム音を、ユーザにより選択された態様にて外部に向けて出力する、請求項2に記載のロボットである。
請求項4に記載された発明は、前記出力手段により外部に向けて出力される前記旋律またはリズム音は、前記第1の複数の音の集合としての複数の衝突音の集合または複数の音からなる旋律に、予め定められた加工が施された旋律またはリズム音である、請求項3に記載のロボットである。
請求項5に記載された発明は、ユーザの特徴に関する情報の入力を受け付ける受付手段をさらに備え、前記出力手段は、前記受付手段により受け付けられた前記ユーザの特徴に関する情報を考慮した態様の前記旋律またはリズム音を外部に向けて出力する、請求項2に記載のロボットである。
According to the invention recited in
In the invention described in
The invention recited in
According to the fourth aspect of the invention, the melody or rhythm sound output to the outside by the output means is a set of a plurality of collision sounds as the first set of sounds or a plurality of sounds. 4. The robot according to
The invention recited in claim 5 further comprises receiving means for receiving an input of information relating to characteristics of a user, and said outputting means outputs said melody in a mode in consideration of the information relating to said characteristics of said user received by said receiving means. Alternatively, the robot according to
本発明によれば、音楽に追従して動作をするだけの従来のロボットに比べて、人とのコミュニケーションをより強くとることができるロボットを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot which can take stronger communication with a person can be provided compared with the conventional robot which only follows music and moves.
〔リズムロボットシステムのハードウェア構成〕
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本実施の形態が適用されるリズムロボットシステム1のハードウェア構成を示す図である。
リズムロボットシステム1は、サービス提供者からユーザUaおよびUbに対して提供される「リズムロボットサービス」(以下、「本サービス」と呼ぶ)を実現させるシステムである。本サービスは、ユーザUaから発せられた複数の音の集合に反応して、その複数の音の集合に合わせた複数の音の集合を出力するリズムロボット10を利用して、ユーザUaを楽ませるサービスである。本サービスを実現させるリズムロボットシステム1は、インターネット等のネットワーク90に接続された、リズムロボット10と、ユーザ端末50と、サーバ70とを有している。
[Hardware configuration of the rhythm robot system]
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a diagram showing the hardware configuration of a
The
ユーザUaは、リズムロボット10とふれあいながらリズムロボット10に向けて複数の音の集合を発し、その複数の音の集合に対するリズムロボット10の反応を楽しむ者である。本実施の形態のユーザUaとしては、幼児および高齢者が挙げられる。ユーザUaから発せられる「複数の音の集合」としては、複数の衝突音の集合、複数の音からなる旋律等が挙げられる。「複数の衝突音の集合」としては、例えば拍手など、ユーザUaの身体の一部を衝突させてときに生じるリズム音や、カスタネットやタンバリン等の楽器の演奏の際に生じるリズム音等が挙げられる。また、「複数の音からなる旋律」としては、例えば鼻歌など、ユーザUaの歌唱により生じる音の集合や、リコーダーや鍵盤ハーモニカ等の楽器の演奏により生じる音の集合等が挙げられる。
The user Ua emits a set of sounds toward the
また、ユーザUbは、リズムロボット10の各種設定のための入力操作を行う者である。本実施の形態のユーザUbとしては、ユーザUaを管理または保護する立場にある母親、保育士、介護士等が挙げられる。ユーザUaとしての幼児および高齢者、またユーザUbとしての母親、保育士、介護士等が本サービスを利用することで、健全な子育ての支援、および高齢者の健康維持の支援等が実現される。なお、本明細書では、ユーザUaとユーザUbとの各々を区別して説明する必要がない場合には、両者をまとめて「ユーザU」と記載する。また、ユーザUには、未だ本サービスの利用を開始していないが、本サービスの利用を希望する者も含まれるものとする。
Also, the user Ub is a person who performs input operations for various settings of the
リズムロボットシステム1を構成するリズムロボット10は、ユーザUaから発せられた複数の音の集合と特徴量が同一または一部が共通する複数の音の集合を、リズム音や歌唱など様々なバリエーションの態様で出力する。具体的には、リズムロボット10は、ユーザUaが一定のリズムで拍手をしたり、鼻歌を口ずさんだり、歌唱したりして複数の音の集合を発すると、そのリズムやテンポ等に合わせた態様のリズム音を出力したり歌唱したりする。以下、リズムロボット10が複数の音の集合を出力する際の出力の態様のことを「出力態様」と呼ぶ。なお、出力態様のバリエーションの詳細については図7を参照して後述する。
A
リズムロボット10は、基本的にはユーザUaから発せられた複数の音の集合の特徴量に基づいて、その特徴量と同一または一部が共通する複数の音の集合の態様を出力態様として決定して出力する。このとき、リズムロボット10は、その出力態様の決定に際して、ユーザUaのユーザ情報が加味されるようにすることができる。出力態様の決定に際してユーザ情報を加味するか否かについては、ユーザUaまたはユーザUbが任意に設定することができる。出力態様の決定に際してユーザ情報を加味するように設定された場合、リズムロボット10は、ユーザUaのユーザ情報を取得する。「ユーザ情報」とは、ユーザUaに関する情報のことをいう。ユーザUaのユーザ情報には、例えばユーザUaの氏名、住所、年齢、性別、好きな楽曲の名称やジャンル等の情報が含まれる。なお、出力態様の決定に際してユーザ情報が加味される場合の具体例については、図7を参照して後述する。
Basically, the
リズムロボット10は、ユーザUaまたはユーザUbの入力操作の結果として受け付けられたユーザに関する情報を、ユーザUaのユーザ情報として取得して、ユーザ情報DB41に記憶して管理する。なお、ここでいう「入力操作」には、リズムロボット10の画面に表示されたユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作が含まれる。
The
また、ユーザUaまたはユーザUbにより入力される情報だけではなく、リズムロボット10から出力された複数の音の集合の態様の履歴といった、ユーザUaによる本サービスの利用実績もユーザ情報として取得される。さらに、ユーザUaが本サービス以外の他サービスにユーザ情報を別途登録している場合であって、本サービスと他サービスとの間にユーザUaのユーザ情報の融通に関する定めが設けられているような場合がある。このような場合には、ユーザUaまたはユーザUaを代理するユーザUbの承諾を条件として、他サービスにてユーザUaのユーザ情報として既に登録されている情報も、本サービスにおけるユーザUaのユーザ情報として取得される。具体的には、他サービスを運営するサーバなど図示しない外部のサーバからユーザUaのユーザ情報を取得する。
In addition to the information input by the user Ua or the user Ub, user Ua's utilization history of the service, such as the history of the set of sounds output from the
また、リズムロボット10は、ユーザUaまたはユーザUbから出力態様の一部が指定された場合には、ユーザUaから発せられた複数の音の集合と特徴量が同一または一部が共通する複数の音の集合を、ユーザUaまたはユーザUbにより指定された出力態様にて出力する。なお、出力態様の「一部」を指定できることとしたのは以下の理由による。すなわち、リズムロボット10から出力される複数の音の集合の態様の「すべて」を予め指定できることとすると、ユーザUaから発せられた複数の音の集合と、リズムロボット10から出力される複数の音の集合との関連性が希薄になり、音を通じてコミュニケーションをとるという本サービスの趣旨を没却してしまうおそれがあるためである。
Further, when the user Ua or the user Ub designates a part of the output mode, the
具体的には、例えば出力態様の一部としての「ハイテンポのリズム音」が指定されたとする。この場合、たとえ出力態様の一部の決定に際してユーザ情報が加味される旨の設定がなされており、かつ、ユーザUaの年齢が85歳である旨がユーザ情報に含まれていたとしても、予め指定されている出力態様である「ハイテンポのリズム音」が優先されて出力される。なお、出力態様の決定に際してユーザUaのユーザ情報が加味されるようにする設定と、出力態様の一部の指定との両方が予め行われている場合において、どちらを優先的に適用すべきかを、ユーザUaまたはユーザUbが予め設定できるようにしてもよい。なお、このような優先適用に関する設定や、上述した出力態様の一部の指定は、いずれもユーザUaまたはユーザUbの入力操作により行われる。 Specifically, for example, it is assumed that "high-tempo rhythm sound" is specified as part of the output mode. In this case, even if a setting is made to the effect that the user information is taken into consideration when determining a part of the output mode, and the fact that the age of the user Ua is 85 years old is included in the user information in advance, The specified output mode of "high tempo rhythm sound" is preferentially output. In the case where both the setting that the user information of the user Ua is taken into consideration when determining the output mode and the designation of a part of the output mode are performed in advance, it is possible to determine which one should be applied preferentially. , can be preset by the user Ua or the user Ub. It should be noted that the setting regarding such priority application and the specification of a part of the output mode described above are both performed by the user Ua or the user Ub through input operations.
また、リズムロボット10は、各種の情報をデータベースに記憶して管理する。例えば上述したように、取得したユーザUaのユーザ情報を、後述する図2の記憶部13の一領域に設けられたユーザ情報DB41に記憶して管理する。また、例えばリズムロボット10は、サーバ70から提供される複数のコンテンツの情報を、後述する図2の記憶部13の一領域に設けられたコンテンツ情報DB42に記憶して管理する。「コンテンツ情報」とは、リズムロボット10から出力される複数の音の集合の候補となる歌唱の楽曲のデータである。コンテンツ情報としては、コンテンツ情報DB42および後述するサーバ70のコンテンツ情報DB82の各々に予め記憶されているものと、図示しない外部のサーバ等から適宜取得されるものとがある。コンテンツ情報は、コンテンツを一意に特定可能にする識別情報に対応付けられており、この識別情報をキーとしていつでも抽出可能な態様で管理されている。
Also, the
リズムロボット10は、上述したようにリズムロボットシステム1を構成するネットワーク型のロボットとして機能させることもできるが、通信環境の悪い場所では、一時的にスタンドアロン型のロボットとして機能させることもできる。また、当初から通信機能を有しないスタンドアロン型のロボットとして機能させることもできる。
The
リズムロボットシステム1を構成するユーザ端末50は、スマートフォン、タブレット、パーソナルコンピュータ等で構成される。ユーザ端末50は、ユーザUbにより所持され、またはユーザUbが生活する空間や業務を行う空間に配置されている。ユーザ端末50は、ユーザUbの入力操作を受け付ける。例えば、ユーザ端末50は、本サービスにユーザ情報を登録するための入力操作を受け付ける。なお、ここでいう「入力操作」には、ユーザ端末50の画面に表示されたユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作が含まれる。
A
ユーザ端末50がスマートフォン、タブレット、パーソナルコンピュータで構成される場合には、本サービスを利用可能にする専用のアプリケーションソフトウェア(以下、「専用アプリ」と呼ぶ)をユーザ端末50にインストールすることができる。また、専用アプリがインストールされない場合であっても、ユーザ端末50のブラウザ機能を用いて、本サービスを利用可能にする専用のウェブサイトにアクセスすることでも本サービスを利用することができる。
When the
リズムロボットシステム1を構成するサーバ70は、システム全体を制御する情報処理装置であり、例えば専用アプリをユーザ端末50に提供する。また、サーバ70は、各種の情報をデータベースに記憶して管理する。具体的には、サーバ70は、取得したユーザ情報を、後述する図2の記憶部13と同様の機能を有する記憶部(図示せず)の一領域に設けられたユーザ情報DB81に記憶して管理する。また、サーバ70は、取得したコンテンツの情報を、後述する図2の記憶部13と同様の機能を有する記憶部(図示せず)の一領域に設けられたコンテンツ情報DB82に記憶して管理する。サーバ70は、これらのデータベースに記憶して管理している情報の一部または全部を、必要に応じてリズムロボット10およびユーザ端末50に向けて送信する。
The
上述したように、ユーザ情報およびコンテンツ情報は、リズムロボット10およびサーバ70の各々のデータベースに記憶されているが、両データベースの同期の有無や、同期が行われる場合の同期のタイミングや間隔は特に限定されない。例えば予め定められたタイミング(例えばリアルタイム、時間単位、分単位、秒単位)で、リズムロボット10のデータベースに記憶されている情報と、サーバ70のデータベースに記憶されている情報とが完全に同期される構成にしてもよい。このような構成にした場合には、リズムロボット10から出力される複数の音の集合の態様のバリエーションをより充実させることが可能となる。
As described above, user information and content information are stored in databases of
また、例えばリズムロボット10が独自にユーザ情報を取得しないこととし、サーバ70のデータベースに記憶されている情報のうちユーザUbにより任意に選択された1以上のコンテンツ情報のみがリズムロボット10に提供される構成にしてもよい。このような構成にした場合には、リズムロボット10が記憶する情報を必要最小限に抑えることが可能になるので、リズムロボット10のデータベースの負荷が軽減化される。
Also, for example, the
〔リズムロボットの構成〕
図2は、リズムロボット10のハードウェア構成を示す図である。
リズムロボット10は、コンピュータ装置を内蔵するいわゆるコミュニケーションロボットで構成される。リズムロボット10は、自機全体を制御するCPU(Central Processing Unit)である制御部11と、演算に際して作業エリアとして用いられるRAM(Random Access Memory)などのメモリ12と、プログラムや各種設定データなどの記憶に用いられるHDD(Hard Disk Drive)や半導体メモリ等の記憶装置である記憶部13とを有している。また、ネットワーク90を介してデータの送受信を行う通信部14を有している。また、ユーザUからの入力操作を受け付けるタッチパネルなどの操作部15と、ユーザUに対して画像やテキスト情報などを表示する液晶ディスプレイなどからなる表示部16と、表示部16を制御する表示制御部17とを有している。また、ユーザから発せられる音を録音するためのマイクなどからなる録音部18と、ユーザUに対して音声を出力するスピーカなどからなる音声出力部19とを有している。さらに、ユーザUのジェスチャの様子を撮像して静止画像または動画像の情報として取得するためのカメラなどからなる撮像部20を有している。
[Configuration of rhythm robot]
FIG. 2 is a diagram showing the hardware configuration of the
The
なお、リズムロボットシステム1を構成するユーザ端末50のハードウェア構成は、図2に示すリズムロボット10のハードウェア構成と同様の構成を備えている。また、リズムロボットシステム1を構成するサーバ70のハードウェア構成は、録音部18、音声出力部19、および撮像部20を除いて図2に示すリズムロボット10のハードウェア構成と同様の構成を備えている。このため、ユーザ端末50およびサーバ70のハードウェア構成の説明は省略する。
The hardware configuration of the
図3は、リズムロボット10の機能構成を示す図である。
リズムロボット10は、複数の音の集合の情報を取得する音取得部31と、複数の音の集合の特徴量を検出する特徴量検出部32とを有している。また、ユーザUaのユーザ情報を取得するユーザ情報取得部33と、ユーザUaのユーザ情報を記憶するユーザ情報記憶部34とを有している。また、リズムロボット10により出力される複数の音の集合の態様の指定を受け付ける出力態様受付部35と、リズムロボット10により出力される複数の音の集合の態様を決定する出力態様決定部36とを有する。また、リズムロボット10により出力される複数の音の集合の態様を加工する加工部37と、複数の音の集合の出力の制御を行う出力制御部38とを有する。
FIG. 3 is a diagram showing the functional configuration of the
The
ユーザUaの拍手、鼻歌、歌唱といった動作によって外部から発せられた複数の音の集合が入力されると、入力された複数の音の集合は、上述した図2の録音部18により録音される。音取得部31は、録音された複数の音の集合の情報を取得する。
When a set of sounds emitted from the outside by user Ua's actions such as clapping, humming, and singing is input, the set of input sounds is recorded by the
特徴量検出部32は、音取得部31により取得された情報における複数の音の集合の特徴量を検出する。具体的には、特徴量検出部32は、複数の音の集合の特徴量として、例えば複数の衝突音の集合の特徴量と、複数の音からなる旋律の特徴量とを検出する。「複数の音の集合の特徴量」としては、テンポ、リズム、ボリューム、トーン、スピード等が挙げられる。なお、複数の音の集合の特徴量の詳細については、図7を参照して後述する。
The feature
ユーザ情報取得部33は、ユーザUaまたはユーザUbの入力操作にて入力されたユーザUaのユーザ情報を取得する。また、ユーザ情報取得部33は、ユーザUaによる本サービスの利用実績をユーザ情報として取得する。また、ユーザ情報取得部33は、他サービスにてユーザUaのユーザ情報として既に登録されている情報のうち、ユーザUa(またはユーザUaを代理するユーザUb)の承諾が得られた情報を、本サービスにおけるユーザUaのユーザ情報として取得する。
The user
ユーザ情報記憶部34は、ユーザ情報取得部33により取得されたユーザUaのユーザ情報を、ユーザ情報DB41に記憶して管理する。具体的には、ユーザ情報記憶部34は、ユーザUaを一意に特定可能にする識別情報にユーザ情報を対応付けて、その識別情報をキーとしていつでも抽出可能な態様で管理する。
The user
出力態様受付部35は、出力態様の一部についての指定を受け付ける。具体的には、出力態様受付部35は、出力態様一部を指定するための入力操作が行われると、その指定を受け付ける。この入力操作としては、上述したように、ユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作等が挙げられる。なお、出力態様を指定するためのユーザインターフェースの具体例については、図8(B)を参照して後述する。
The output
出力態様決定部36は、特徴量検出部32により検出された複数の音の集合の特徴量と、同一または一部が共通する特徴量を有する複数の音の集合の出力態様を決定する。また、出力態様決定部36は、出力態様受付部35により出力態様の指定が受け付けられた場合には、その指定に従った決定を行う。また、出力態様決定部36は、出力態様の決定に際してユーザ情報を加味する旨の設定が行われている場合には、その設定に従った決定を行う。また、出力態様決定部36は、例えば予め定められた選択基準や、AI(人工知能)がユーザUaの利用実績を学習した結果に基づいて出力態様を決定してもよい。また、サーバ70において出力態様の一部が決定された場合には、出力態様決定部36は、出力態様の決定に際してサーバ70における決定の内容を反映させる。
The output
加工部37は、出力態様を、出力態様決定部36により決定された出力態様にするための加工を行う。具体的には、例えば出力態様決定部36の決定が、出力態様受付部35により受け付けられた指定に従ったものである場合には、加工部37は、出力態様を、出力態様受付部35により指定された出力態様にするための加工を行う。また、例えば出力態様決定部36の決定が、出力態様の決定に際しユーザ情報を加味する旨の設定に従ったものである場合には、加工部37は、出力態様を、ユーザ情報が加味された出力態様にするための加工を行う。なお、加工部37による複数の音の集合の加工が具体的にどのような手法により行われるかは特に限定されず、例えば一般的に利用されている音声編集の手法を用いた加工が行われてもよい。この場合、加工部37は、例えば波形編集、ノイズ除去、ボリューム調整、周波数調整、音圧調整、ブレス除去、ピッチ調整、イントネーション調整、音色調整等の手法により、複数の音の集合を加工する。
The
出力制御部38は、出力態様決定部36により決定された出力態様で、複数の音の集合を出力する制御を行う。具体的には、出力制御部38は、出力態様決定部36により決定された出力態様になるように加工された複数の音の集合を、図2の音声出力部19に出力させる制御を行う。なお、出力制御部38が複数の音の集合を出力するタイミングは特に限定されない。例えば、ユーザUaから発せられた複数の音の集合の情報が取得されると、直ちに出力態様の決定と加工とが行われて、音声出力部19から出力されるようにしてもよい。また、例えば複数の音の集合の情報が取得された後、予め設定された時間が経過する間に出力態様の決定と加工とが行われて、音声出力部19から出力されるようにしてもよい。この場合、「予め設定された時間」はユーザUaまたはユーザUbが任意に設定できるものとし、例えば「1秒後」、「3秒後」といったように設定できるようにしてもよい。
The
〔サーバの構成〕
図4は、サーバ70の機能構成を示す図である。
サーバ70は、ユーザ情報を取得するユーザ情報取得部71と、ユーザ情報を記憶するユーザ情報記憶部72と、ユーザ情報の一部または全部をリズムロボット10に送信する制御を行うユーザ情報送信制御部73とを有している。また、リズムロボット10により出力される複数の音の集合の態様の一部の指定を受け付ける出力態様受付部74と、出力態様の一部を決定する出力態様決定部75とを有している。また、その決定内容をリズムロボット10に送信する制御を行う出力態様送信制御部76を有している。
[Server configuration]
FIG. 4 is a diagram showing the functional configuration of the
The
ユーザ情報取得部71は、ユーザUの入力操作にて入力されたユーザUaのユーザ情報を取得する。また、ユーザ情報取得部71は、ユーザUaによる本サービスの利用実績をユーザUaのユーザ情報として取得する。また、ユーザ情報取得部71は、他サービスにてユーザUaのユーザ情報として既に登録されている情報のうち、ユーザUa(またはユーザUaを代理するユーザUb)の承諾が得られた情報を、本サービスにおけるユーザUaのユーザ情報として取得する。
The user
ユーザ情報記憶部72は、ユーザ情報取得部71により取得されたユーザUaのユーザ情報を、ユーザ情報DB81に記憶して管理する。具体的には、ユーザ情報記憶部72は、ユーザUaを一意に特定可能にする識別情報にユーザ情報を対応付けて、その識別情報をキーとしていつでも抽出可能な態様で管理する。
The user
ユーザ情報送信制御部73は、ユーザ情報DB81に記憶されているユーザ情報の一部または全部を、リズムロボット10に送信する制御を行う。なお、サーバ70からリズムロボット10に対するユーザ情報の送信の有無、および送信するユーザ情報の項目は、ユーザUaまたはユーザUbが任意に設定することができる。
The user information
出力態様受付部74は、出力態様の一部の指定を受け付ける。具体的には、出力態様の一部を指定するための入力操作が行われると、その指定を受け付ける。この入力操作は、ユーザ端末50のユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作等が挙げられる。なお、出力態様の一部を指定するためのユーザインターフェースの具体例については、図8(B)を参照して後述する。
The output
出力態様決定部75は、出力態様受付部74により出力態様の一部についての指定が受け付けられた場合には、その指定に従った決定を行う。また、出力態様決定部75は、出力態様の決定に際してユーザ情報を加味する旨の設定が行われている場合には、その設定に従った決定を行う。また、出力態様決定部75は、例えば予め定められた選択基準や、AI(人工知能)を利用した機械学習の結果に基づいて、出力態様の一部を決定してもよい。出力態様送信制御部76は、出力態様決定部75によって出力態様の一部が決定されると、その決定された内容をリズムロボット10に送信する制御を行う。
When the output
〔リズムロボットの処理〕
次に、リズムロボット10の処理について、図5を用いて説明する。
図5は、リズムロボット10の処理の流れを示すフローチャートである。
ユーザUaまたはユーザUbの入力操作によってユーザUaのユーザ情報が入力されると(ステップ101でYES)、ユーザ情報取得部33は、ユーザUaまたはユーザUbの入力操作にて入力されたユーザUaのユーザ情報を取得する(ステップ102)。ユーザ情報取得部33により取得されたユーザUaのユーザ情報は、ユーザ情報記憶部34によりユーザ情報DB41に記憶されて管理される。これに対して、ユーザUaのユーザ情報が入力されていない場合には(ステップ101でNO)、ステップ103の判断に進む。
[Rhythm robot processing]
Next, the processing of the
FIG. 5 is a flow chart showing the processing flow of the
When the user information of the user Ua is input by the input operation of the user Ua or the user Ub (YES in step 101), the user
ユーザUaまたはユーザUbの入力操作によって出力態様の一部が指定されると(ステップ103でYES)、出力態様受付部35がその指定を受け付けて、出力態様決定部36がその指定に従って出力態様の一部を決定する(ステップ104)。これに対して、出力態様の一部が指定されていない場合には(ステップ103でNO)、ステップ105の判断に進む。
When a part of the output mode is specified by the input operation of the user Ua or the user Ub (YES in step 103), the output
ユーザUaから発せられた複数の音の集合が入力されると(ステップ105でYES)、その複数の音の集合を録音部18が録音して、音取得部31が、録音された複数の音の集合の情報を取得する。(ステップ106)。これに対して、複数の音の集合が入力されていない場合には(ステップ105でNO)、複数の音の集合が入力されるまでステップ105の判断が繰り返される。
When a set of sounds uttered by the user Ua is input (YES in step 105), the
特徴量検出部32は、音取得部31により取得された情報における複数の音の集合の特徴量を検出する(ステップ107)。出力態様決定部36は、特徴量検出部32により検出された複数の音の集合の特徴量と、同一または一部が共通する特徴量を有する複数の音の集合の出力態様を決定する(ステップ108)。ここで、出力態様受付部35により出力態様の指定が受け付けられた場合には、その指定に従った決定が行われる。また、出力態様の決定に際してユーザUaのユーザ情報を加味する旨の設定が行われている場合には、その設定に従った決定が行われる。
The feature
加工部37は、出力態様決定部36により決定された出力態様にするための加工を行う(ステップ109)。ここで、出力態様決定部36により決定された出力態様が、ユーザUaまたはユーザUbの指定に従ったものである場合には、加工部37は、その指定された出力態様になるように複数の音の集合を加工する。また、出力態様決定部36により決定された出力態様が、ユーザUaのユーザ情報を加味する旨の設定に従ったものである場合には、加工部37は、ユーザUaのユーザ情報が加味された出力態様になるように、複数の音の集合を加工する。出力制御部38は、出力態様決定部36により決定された出力態様で、複数の音の集合を出力する制御を行う(ステップ110)。
The
〔サーバの処理〕
次に、サーバ70の処理について、図6を用いて説明する。
図6は、サーバ70の処理の流れを示すフローチャートである。
ユーザUの入力操作によってユーザUaのユーザ情報が入力されると(ステップ701でYES)、ユーザ情報取得部71は、ユーザUaまたはユーザUbの入力操作にて入力されたユーザUaのユーザ情報を取得する(ステップ702)。ユーザ情報取得部71により取得されたユーザUaのユーザ情報は、ユーザ情報記憶部72によりユーザ情報DB81に記憶されて管理される。ユーザ情報送信制御部73は、ユーザ情報DB81に記憶されているユーザUaのユーザ情報の一部または全部をリズムロボット10に送信する制御を行う(ステップ703)。これに対して、ユーザUaのユーザ情報が入力されていない場合には(ステップ701でNO)ステップ704の判断に進む。
[Server processing]
Next, processing of the
FIG. 6 is a flow chart showing the processing flow of the
When user Ua's user information is input by user U's input operation (YES in step 701), user
ユーザUaまたはユーザUbの入力操作によって出力態様の一部が指定されると(ステップ704でYES)、出力態様受付部74がその指定を受け付けて、出力態様決定部75がその指定に従って出力態様の一部を決定する(ステップ705)。出力態様の一部が決定されると、出力態様送信制御部76は、その決定内容をリズムロボット10に送信する制御を行う(ステップ706)。これに対して、出力態様の一部が指定されていない場合には(ステップ704でNO)、出力態様の一部が指定されることなく処理は終了する。
When a part of the output mode is specified by the input operation of user Ua or user Ub (YES in step 704), output
以上のように、本実施の形態が適用されるリズムロボットシステム1によれば、ユーザUaがリズムロボット10とふれあいながら一定のリズムで拍手をしたり、鼻歌を歌ったりすると、リズムロボット10は、あたかもユーザUaとコミュニケーションをとるようにそのリズムやテンポに合わせて歌を歌ったり、リズム音を出力したりする。このとき、リズムロボット10から出力される歌唱やリズム音は、ユーザUaがリズムロボット10に向けて拍手をしたり鼻歌を歌ったりしたものに変調やハモリ等の加工を施したものとなるので、ユーザUaはその変化を楽しむことができる。
As described above, according to the
また、上述したように、本サービスでは、ユーザUaまたはユーザUbの入力操作より出力態様を指定することができる。ここで特筆すべき点は、リズムロボット10が、ユーザUaのユーザ情報を取得して、自らの判断で出力態様を決定できる点である。つまり、リズムロボット10は、ユーザUaの個々の特徴に応じて出力態様を変化させることができる。これにより、例えばユーザUaが幼児である場合と、ユーザUaが高齢者である場合との各々に適した態様に変化させることが可能となる。その結果、ユーザUaとしての幼児および高齢者がリズムロボット10との音を通じたコミュニケーションを楽しむことにより、健全な子育ての支援、および高齢者の健康維持の支援等が実現可能となる。
Further, as described above, in this service, the output mode can be designated by the input operation of the user Ua or the user Ub. A point worthy of special mention here is that the
〔具体例〕
次に、本サービスの具体例について、図7および図8を用いて説明する。
図7は、ユーザUaから発せられた複数の音の集合に対してリズムロボット10から出力される複数の音の集合の態様の具体例を示す図である。
〔Concrete example〕
Next, a specific example of this service will be described with reference to FIGS. 7 and 8. FIG.
FIG. 7 is a diagram showing a specific example of a set of sounds output from the
図7には、ユーザUaの動作により発せられる複数の音の集合の種類と、リズムロボットの出力態様と、そのバリエーションとの関係性が示されている。例えば、ユーザUaが拍手をすると、それを聴いたリズムロボット10は、ユーザUaの拍手と特徴量が同一または一部が共通するリズム音を出力する。このとき、リズムロボット10から出力されるリズム音のバリエーションとしては、テンポ、リズム、ボリューム、トーン、スピード、特定の音、ユーザ情報に対応等が挙げられる。
FIG. 7 shows the relationship between the types of sets of sounds emitted by the user Ua's actions, the output modes of the rhythm robot, and variations thereof. For example, when the user Ua clap, the
ここで、ユーザUから、出力態様の一部の指定として、リズム音が出力される場合のテンポおよびトーンが指定されていたとする。この場合、例えばユーザUaが、あるテンポおよびトーンで拍手をすると、リズムロボット10は、予め指定されたテンポおよびトーンに加工したリズム音を出力する。また、出力態様の一部の指定として、リズム音が出力される場合のボリュームが指定されていたとする。この場合、例えばユーザUaが、あるボリュームで拍手をすると、リズムロボット10は、予め指定されたボリュームに加工したリズム音を出力する。
Here, it is assumed that the user U has specified the tempo and tone when rhythm sounds are to be output as part of the specification of the output mode. In this case, for example, when the user Ua clapping at a certain tempo and tone, the
また、ユーザUから、出力態様の一部の指定として、リズム音が出力される場合の音として、特定の音が指定されていたとする。この場合、例えばユーザUaが、あるテンポおよびトーンで拍手をすると、リズムロボット10は、予め指定された特定の音に加工したリズム音を出力する。ここで、「特定の音」としては、太鼓の音、電子音、ホイッスルの音、拍子木の音、水に物が落ちる音、動物の鳴き声などが挙げられる。また、ユーザUから、出力態様の一部の指定として、歌唱が出力される場合の声として、特定の声が指定されていたとする。この場合、例えばユーザUaが、あるテンポおよびトーンで歌唱すると、リズムロボット10は、予め指定された特定の声に加工した歌唱を出力する。ここで、「特定の声」としては、幼児に人気のキャラクターの声等が挙げられる。
It is also assumed that the user U has designated a particular sound as a sound when a rhythm sound is to be output as part of the output mode. In this case, for example, when the user Ua clapping at a certain tempo and tone, the
また、出力態様の決定に際して、年齢、性別、好きな楽曲の名称やジャンルといった、ユーザUaのユーザ情報が加味されるように設定されていたとする。この場合、リズムロボット10は、例えばユーザUaが「年齢5歳」であるというユーザ情報を加味した出力態様として、幼児が好みそうなハイテンポのリズム音や歌唱を選択して出力することができる。また、例えばユーザUaが「年齢85歳」であるというユーザ情報を加味した出力態様として、高齢者が好みそうなローテンポのリズム音や歌唱を選択して出力することができる。この場合、リズムロボット10は、出力するリズム音や歌唱について、例えば1分間に何拍であるかを表す値BPM(Beats Per Minute)を制御することでテンポを調整する。具体的には、例えば幼児(ユーザUa)の拍手の音の特徴量であるテンポが120BPMであったとする。この場合、リズムロボット10は、幼児が好みそうな140BPMのハイテンポのリズム音が出力されるようにBPMを上げる調整を行う。
It is also assumed that user information of the user Ua, such as age, gender, name and genre of favorite music, is taken into consideration when determining the output mode. In this case, the
図8は、ユーザインターフェースの具体例を示す図である。図8(A)は、ユーザ情報を入力する際にリズムロボット10およびユーザ端末50に表示されるユーザインターフェースの具体例を示す図である。図8(B)は、出力態様を設定する際にリズムロボット10およびユーザ端末50に表示されるユーザインターフェースの具体例を示す図である。
FIG. 8 is a diagram showing a specific example of the user interface. FIG. 8A is a diagram showing a specific example of the user interface displayed on the
ユーザUaまたはユーザUb(主にユーザUb)は、ユーザUaのユーザ情報を登録する際、例えばユーザ図8(A)に示すようなユーザインターフェースにユーザ情報を入力する。ユーザ図8(A)に例示するユーザインターフェースは、リズムロボット10およびユーザ端末50の各々の画面に表示させることができる。なお、ユーザUaのユーザ情報の登録の有無、およびユーザUaのユーザ情報として登録する項目については、ユーザUaまたはユーザUbが任意に選択することができる。つまり、ユーザUaのユーザ情報の登録の有無は、本サービスを利用するうえで必須の情報ではなく、出力態様が決定される際にユーザUaのユーザ情報を加味する旨の設定がなされた場合に必要な情報となる。
When user Ua or user Ub (mainly user Ub) registers the user information of user Ua, the user inputs user information into a user interface as shown in FIG. 8A, for example. The user interface illustrated in FIG. 8A can be displayed on the screens of the
ユーザUaまたはユーザUb(主にユーザUb)は、出力態様を指定する際、例えばユーザ図8(B)に示すようなユーザインターフェースで出力態様の指定を行う。ユーザ図8(B)に例示するユーザインターフェースは、リズムロボット10およびユーザ端末50の各々の画面に表示させることができる。出力態様は、例えば図8(B)に示すように、出力対象、加工有無、変調、ハモリ、ユーザ情報適用有無、希望する音・声等について指定することができる。なお、図8(B)のユーザインターフェースに示された出力態様の項目は一例に過ぎない。
When user Ua or user Ub (mainly user Ub) specifies the output mode, the user specifies the output mode using a user interface as shown in FIG. 8B, for example. The user interface illustrated in FIG. 8B can be displayed on the screens of the
図8(B)のユーザインターフェースに示された出力態様の項目のうち、「出力対象」は、リズムロボット10が複数の音の集合を出力する対象となるユーザUaの種別を指定する項目である。図8(B)の例では、「出力対象」として、「幼児」または「高齢者」を選択することができる。「出力対象」について「幼児」が選択された場合には、ユーザUaが「幼児」であることが加味された出力態様が決定されるので、例えばリズムロボット10が歌唱を出力する場合には、童謡などの幼児向けの楽曲が優先的に出力される。また、「出力対象」について「高齢者」が選択された場合には、ユーザUaが「高齢者」であることが加味された出力態様が決定されるので、例えばリズムロボット10が歌唱を出力する場合には、演歌や昭和歌謡などの高齢者向けの楽曲が優先的に出力される。
Among the output mode items shown in the user interface of FIG. 8B, "output target" is an item that specifies the type of user Ua for whom the
また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「加工有無」は、ユーザUaから発せられた複数の音の集合に加工を施すか否かを指定する項目である。「加工有無」について「有」が選択された場合には、「変調」、「ハモリ」、「ユーザ情報適用の有無」、「希望する音・声」等の各項目がアクティブとなる。そして、ユーザUaから発せられた複数の音の集合に加工を施したものがリズムロボット10から出力されることになる。これに対して、「無」が選択された場合には、「変調」、「ハモリ」、「ユーザ情報適用の有無」、「希望する音・声」等の各項目が非アクティブになる。そして、ユーザUaから発せられた複数の音の集合の態様に加工が施されることなく、オウム返しのようにリズムロボット10から出力されることになる。
Among the output mode items shown in the user interface of FIG. 8(B), "processing presence/absence" is an item that specifies whether or not to process a set of sounds emitted by the user Ua. be. When "yes" is selected for "with or without processing", items such as "modulation", "harmony", "with or without user information application", and "desired sound/voice" become active. Then, the
また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「変調」は、ユーザUaから発せられた複数の音の集合に対して「変調」を加えるか否かを指定する項目である。「変調」について「有」が選択された場合には、ユーザUaから発せられた複数の音の集合に対して「変調」が加えられたものがリズムロボット10から出力されることになる。この場合、例えば図7のバリエーションの項目に挙げられているような出力態様の指定が可能になる。これに対して、「変調」について「無」が選択された場合には、ユーザUaから発せられた複数の音の集合の態様に対して「変調」以外のいずれか1以上の項目についての加工が施されたものがリズムロボット10から出力される。
Among the output mode items shown in the user interface of FIG. 8(B), "modulation" designates whether or not to add "modulation" to a set of sounds emitted by the user Ua. It is an item to do. When "yes" is selected for "modulation", the
また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「ハモリ」は、ユーザUaから発せられた複数の音の集合に「ハモリ」を加えるか否かを指定する項目である。「ハモリ」について「有」が選択された場合には、ユーザUaから発せられた複数の音の集合に対して「ハモリ」が加えられたものがリズムロボット10から出力される。これに対して、「ハモリ」について「無」が選択された場合には、ユーザUaから発せられた複数の音の集合の態様に対して「ハモリ」以外のいずれか1以上の項目についての加工が施されたものがリズムロボット10から出力される。
Among the output mode items shown in the user interface of FIG. 8(B), "harmony" is an item for specifying whether or not to add "harmony" to a set of a plurality of sounds uttered by the user Ua. is. When "yes" is selected for "harmony," the
また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「ユーザ情報適用有無」は、出力態様が決定される際にユーザ情報を加味するか否かを設定するための項目である。「ユーザ情報適用有無」について「有」が選択された場合には、出力態様が決定される際にユーザ情報が加味される。これに対して、「ユーザ情報適用有無」について「無」が選択された場合には、出力態様が決定される際にユーザ情報が加味されない。 Among the items of the output mode shown in the user interface of FIG. 8B, "whether to apply user information" is for setting whether or not user information is taken into consideration when determining the output mode. item. When "yes" is selected for "whether user information is applied", user information is taken into account when the output mode is determined. On the other hand, if "no" is selected for "whether user information is applied", user information is not taken into account when the output mode is determined.
また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「希望する音・声」は、ユーザUaから発せられた複数の音の集合に加工を施す際、特定の人物、キャラクター、動物等の音や声に変換させるか否かを指定する項目である。「希望する音・声」について「有」が選択された場合には、ユーザUaから発せられた複数の音の集合を特定の人物、キャラクター、動物等の音・声に変換したものがリズムロボット10から出力される。なお、図8(B)に示すように、「設定する音・声を選択して下さい」と表記された領域の右側には、複数の人物、キャラクター、動物、音の名前等が選択可能な態様で表示される。これに対して、「無」が選択された場合には、ユーザUaから発せられた複数の音の集合の態様に対して「希望する音・声」以外のいずれか1以上の項目についての加工が施されたものがリズムロボット10から出力される。
Among the output mode items shown in the user interface of FIG. , characters, animals, and the like. If "yes" is selected for "desired sound/voice", the rhythm robot is a set of sounds uttered by the user Ua converted into sounds/voices of a specific person, character, animal, etc. 10 is output. In addition, as shown in FIG. 8B, on the right side of the area labeled "Please select the sound/voice to be set", a plurality of persons, characters, animals, names of sounds, etc. can be selected. displayed in the form. On the other hand, if "none" is selected, any one or more items other than the "desired sound/voice" are processed for the form of the set of sounds uttered by the user Ua. is output from the
以上、本実施の形態について説明したが、本発明は上述した本実施の形態に限るものではない。また、本発明による効果も、上述した本実施の形態に記載されたものに限定されない。例えば上述の実施の形態では、ユーザUaから発せられる複数の音の集合の態様として、拍手、鼻歌(歌唱)、楽器による演奏が挙げられているが、これらに限定されない。ユーザUaから発せられるあらゆる複数の音の集合を対象とすることができる。 Although the embodiment has been described above, the present invention is not limited to the embodiment described above. Moreover, the effects of the present invention are not limited to those described in the above embodiment. For example, in the above-described embodiment, clapping, humming (singing), and performance by a musical instrument are cited as examples of a set of sounds emitted by the user Ua, but the present invention is not limited to these. Any set of multiple sounds emitted by the user Ua can be targeted.
また、例えば上述の実施の形態では、ユーザUによる入力操作の態様として、手入力操作、音声による入力操作、ジェスチャによる入力操作を挙げているが、これらの入力操作に限定されず、ユーザUの意思を入力可能なあらゆる入力操作を採用することができる。また、上述した本実施の形態では、ユーザUが出力態様のすべてについては予め指定することができない構成としているが、ユーザUが出力態様のすべてを予め指定することができる構成とすることもできる。また、上述した本実施の形態では、ユーザUbがユーザ端末50を所持する構成となっているが、ユーザUaがユーザ端末50を所持する構成とすることもできる。
Further, for example, in the above-described embodiment, the modes of the input operation by the user U are manual input operation, voice input operation, and gesture input operation, but are not limited to these input operations. Any input operation that can input intention can be adopted. In addition, in the above-described embodiment, the user U cannot specify all the output modes in advance. . Further, in the present embodiment described above, the user Ub possesses the
1…リズムロボットシステム、10…リズムロボット、31…音取得部、32…特徴量検出部、33…ユーザ情報取得部、34…ユーザ情報記憶部、35…出力態様受付部、36…出力態様決定部、37…加工部、38…出力制御部、50…ユーザ端末、70…サーバ、71…ユーザ情報取得部、72…ユーザ情報記憶部、73…ユーザ情報送信制御部、74…出力態様受付部、75…出力態様決定部、76…出力態様送信制御部、90…ネットワーク
REFERENCE SIGNS
Claims (5)
検出された前記特徴量と同一または一部が共通する特徴量を有する第2の複数の音の集合を、予め定められた態様にて外部に向けて出力する出力手段と、
を備えるロボット。 detection means for detecting, when a set of a first plurality of sounds emitted from the outside is input, a feature quantity of the set of the first plurality of sounds;
output means for outputting a second set of sounds having a feature amount that is the same as or partly common to the detected feature amount to the outside in a predetermined manner;
A robot with
前記出力手段は、前記第2の複数の音の集合としての旋律またはリズム音を、予め定められた態様にて外部に向けて出力する、
請求項1に記載のロボット。 The detection means acquires a set of a plurality of collision sounds or a melody consisting of a plurality of sounds as the set of the first plurality of sounds, and obtains a melody consisting of the set of a plurality of collision sounds or a plurality of sounds. Detect each feature value,
The output means outputs the melody or rhythm sound as the set of the second plurality of sounds to the outside in a predetermined manner,
The robot according to claim 1.
請求項2に記載のロボット。 The output means outputs the melody or rhythm sound to the outside in a manner selected by the user.
The robot according to claim 2.
請求項3に記載のロボット。 The melody or rhythm sound output to the outside by the output means is a set of a plurality of collision sounds as the set of the first plurality of sounds, or a melody composed of a plurality of sounds, and is processed in a predetermined manner. is an applied melody or rhythmic sound,
The robot according to claim 3.
前記出力手段は、前記受付手段により受け付けられた前記ユーザの特徴に関する情報を考慮した態様の前記旋律またはリズム音を外部に向けて出力する、
請求項2に記載のロボット。 further comprising receiving means for receiving input of information on user characteristics,
The output means outputs to the outside the melody or rhythm sound in a mode that takes into consideration the information about the characteristics of the user received by the receiving means.
The robot according to claim 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021068125A JP2022163281A (en) | 2021-04-14 | 2021-04-14 | robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021068125A JP2022163281A (en) | 2021-04-14 | 2021-04-14 | robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022163281A true JP2022163281A (en) | 2022-10-26 |
Family
ID=83742253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021068125A Pending JP2022163281A (en) | 2021-04-14 | 2021-04-14 | robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022163281A (en) |
-
2021
- 2021-04-14 JP JP2021068125A patent/JP2022163281A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230414159A1 (en) | System and method for associating music with brain-state data | |
US11881195B2 (en) | Apparatus and methods for cellular compositions | |
US7960638B2 (en) | Apparatus and method of creating content | |
Krueger | Doing things with music | |
TW201434600A (en) | Robot for generating body motion corresponding to sound signal | |
JP2016066389A (en) | Reproduction control device and program | |
Weinberg et al. | Robotic musicianship: embodied artificial creativity and mechatronic musical expression | |
Canazza et al. | Caro 2.0: an interactive system for expressive music rendering | |
JP2023025013A (en) | Singing support device for music therapy | |
Challis | Octonic: an accessible electronic musical instrument | |
JP2014130467A (en) | Information processing device, information processing method, and computer program | |
Copeland et al. | Turing and the history of computer music | |
JP2022163281A (en) | robot | |
US9293124B2 (en) | Tempo-adaptive pattern velocity synthesis | |
Aroso | The Gesture's Narrative: Contemporary Music for Percussion | |
WO2021186928A1 (en) | Method, system and program for inferring evaluation of performance information | |
Jylhä et al. | Design and evaluation of human-computer rhythmic interaction in a tutoring system | |
Campos Calvo-Sotelo | Sonic affinity | |
Monaghan | Harp and electronics: Composition, design, and performance | |
Di Donato et al. | HarpCI, empowering performers to control and transform harp sounds in live performance | |
Winters IV | Exploring music through sound: Sonification of emotion, gesture, and corpora | |
JP2022169067A (en) | Robot and robot system | |
US20220319477A1 (en) | System and method for creating a sensory experience by merging biometric data with user-provided content | |
WO2023139849A1 (en) | Emotion estimation method, content determination method, program, emotion estimation system, and content determination system | |
Kokoras | The Sound is the Music-From Shamanism to Quantum Sound |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240711 |