JP2022163281A - robot - Google Patents

robot Download PDF

Info

Publication number
JP2022163281A
JP2022163281A JP2021068125A JP2021068125A JP2022163281A JP 2022163281 A JP2022163281 A JP 2022163281A JP 2021068125 A JP2021068125 A JP 2021068125A JP 2021068125 A JP2021068125 A JP 2021068125A JP 2022163281 A JP2022163281 A JP 2022163281A
Authority
JP
Japan
Prior art keywords
user
sounds
rhythm
robot
output mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021068125A
Other languages
Japanese (ja)
Inventor
朋佳 大橋
Tomoka Ohashi
峻 戸村
Shun Tomura
登 宮本
Noboru Miyamoto
奈津子 榎本
Natsuko Enomoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Gas Co Ltd
Original Assignee
Tokyo Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Gas Co Ltd filed Critical Tokyo Gas Co Ltd
Priority to JP2021068125A priority Critical patent/JP2022163281A/en
Publication of JP2022163281A publication Critical patent/JP2022163281A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

To provide a robot capable of communicating with a human more closely than a conventional robot that is simply operated following music.SOLUTION: A rhythm robot 10 includes: a feature amount detection unit 32 for detecting a feature amount of an aggregate of a plurality of sounds when the aggregate of the plurality of sounds uttered from a user Ua is recorded by a recording unit 18 and acquired by a sound acquisition unit 31; and an output control unit 38 for executing control to output an aggregate of a plurality of sounds having a feature amount the same as the detected feature amount or a feature amount, a part of which is in common with the detected feature amount toward the user Ua in a mode determined by an output mode determination unit 36.SELECTED DRAWING: Figure 3

Description

本発明は、ロボットに関する。 The present invention relates to robots.

特許文献1には、音楽のテンポが変わった場合でも音楽に対するロボットの動作の追従性を保つことを目的とする動作制御装置が記載されている。動作制御装置は、流れている音楽のMIDI情報に含まれるティックと、タイムベースと、拍子記号とに基づいて、現在流れている小節及び拍を算出し、現在流れている小節及び拍が、ロボットに特定の動作をさせるタイミングであるか否かを判断する。そして、その判断処理結果に基づいて動作指示を出力する。
特許文献2には、エンターテインメント性を向上させることを目的とするロボット装置が記載されている。ロボット装置は、供給される音楽データに基づく音楽からリズムを抽出して、そのリズムに基づいて各腕部の平均移動速度の範囲を決定して、その範囲に合う動作パターンを選択的に読み出す。
Japanese Patent Laid-Open No. 2002-200001 describes a motion control device that aims to keep the motion of a robot following the music even when the tempo of the music changes. The motion control device calculates the current bar and beat based on the tick, time base, and time signature included in the MIDI information of the music being played. determines whether or not it is time to perform a specific action. Then, an operation instruction is output based on the determination processing result.
Patent Literature 2 describes a robot device intended to improve entertainment. The robot device extracts a rhythm from music based on the supplied music data, determines the range of the average moving speed of each arm based on the rhythm, and selectively reads out motion patterns that match the range.

特開2017-196675号公報JP 2017-196675 A 特開2005-231012号公報Japanese Patent Application Laid-Open No. 2005-231012

人間にとっての「ロボット」は、一般的な電化製品とは一線を画す存在であるとされている。つまり、ロボットは、一般的な電化製品では実現できない、人とのコミュニケーションを通じて人の心をケアする、家族や友人に近い存在、あるいは代替し得る存在であるといえる。また、そのような存在であることがロボットの本来的な存在意義であるともいえる。しかしながら、特許文献1や2のような音楽に追従させて動作させるロボットでは、人とのコミュニケーションを十分に図ろうとすると、手足や身体の動きなどの動作を大がかりなものとする必要がある。また、コミュニケーションを図るための表現のバリエーションにも限界があった。 "Robots" for humans are said to be distinct from general electrical appliances. In other words, it can be said that robots are close to, or can substitute for, family and friends, caring for people's minds through communication, which is not possible with ordinary electrical appliances. In addition, it can be said that such an existence is the original significance of the robot's existence. However, in robots that follow music and move as in Patent Documents 1 and 2, it is necessary to make large-scale movements such as limbs and body movements in order to fully communicate with people. In addition, there was a limit to the variation of expressions used for communication.

本発明の目的は、音楽に追従して動作をするだけの従来のロボットに比べて、人とのコミュニケーションをより強くとることができるロボットを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a robot capable of communicating with a person more strongly than a conventional robot that only moves according to music.

請求項1に記載された発明は、外部より発せられた第1の複数の音の集合が入力されると、当該第1の複数の音の集合の特徴量を検出する検出手段と、検出された前記特徴量と同一または一部が共通する特徴量を有する第2の複数の音の集合を、予め定められた態様にて外部に向けて出力する出力手段と、を備えるロボットである。
請求項2に記載された発明は、前記検出手段は、前記第1の複数の音の集合としての、複数の衝突音の集合または複数の音からなる旋律を取得して、当該複数の衝突音の集合または複数の音からなる旋律の各々の特徴量を検出し、前記出力手段は、前記第2の複数の音の集合としての旋律またはリズム音を、予め定められた態様にて外部に向けて出力する、請求項1に記載のロボットである。
請求項3に記載された発明は、前記出力手段は、前記旋律またはリズム音を、ユーザにより選択された態様にて外部に向けて出力する、請求項2に記載のロボットである。
請求項4に記載された発明は、前記出力手段により外部に向けて出力される前記旋律またはリズム音は、前記第1の複数の音の集合としての複数の衝突音の集合または複数の音からなる旋律に、予め定められた加工が施された旋律またはリズム音である、請求項3に記載のロボットである。
請求項5に記載された発明は、ユーザの特徴に関する情報の入力を受け付ける受付手段をさらに備え、前記出力手段は、前記受付手段により受け付けられた前記ユーザの特徴に関する情報を考慮した態様の前記旋律またはリズム音を外部に向けて出力する、請求項2に記載のロボットである。
According to the invention recited in claim 1, when a set of first plurality of sounds emitted from the outside is input, detection means for detecting a feature amount of the set of first plurality of sounds; an output means for outputting a second plurality of sets of sounds having a feature amount that is the same as or partly common to the feature amount that is set to the outside in a predetermined manner.
In the invention described in claim 2, the detection means acquires a set of a plurality of collision sounds or a melody composed of a plurality of sounds as the set of the first plurality of sounds, and obtains the plurality of collision sounds. or the feature amount of each of the melody consisting of a plurality of sounds, and the output means directs the melody or rhythm sound as the second set of sounds to the outside in a predetermined manner. 2. The robot according to claim 1, which outputs by
The invention recited in claim 3 is the robot according to claim 2, wherein the output means outputs the melody or rhythm sound to the outside in a manner selected by the user.
According to the fourth aspect of the invention, the melody or rhythm sound output to the outside by the output means is a set of a plurality of collision sounds as the first set of sounds or a plurality of sounds. 4. The robot according to claim 3, wherein the melody is a melody or rhythm sound obtained by performing predetermined processing on the melody.
The invention recited in claim 5 further comprises receiving means for receiving an input of information relating to characteristics of a user, and said outputting means outputs said melody in a mode in consideration of the information relating to said characteristics of said user received by said receiving means. Alternatively, the robot according to claim 2, which outputs rhythm sounds to the outside.

本発明によれば、音楽に追従して動作をするだけの従来のロボットに比べて、人とのコミュニケーションをより強くとることができるロボットを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot which can take stronger communication with a person can be provided compared with the conventional robot which only follows music and moves.

本実施の形態が適用されるリズムロボットシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the rhythm robot system to which this Embodiment is applied. リズムロボットのハードウェア構成を示す図である。FIG. 2 is a diagram showing the hardware configuration of a rhythm robot; FIG. リズムロボットの機能構成を示す図である。FIG. 4 is a diagram showing a functional configuration of a rhythm robot; FIG. サーバの機能構成を示す図である。It is a figure which shows the functional structure of a server. リズムロボットの処理の流れを示すフローチャートである。4 is a flow chart showing the flow of processing of the rhythm robot; サーバの処理の流れを示すフローチャートである。4 is a flow chart showing the flow of server processing. ユーザから発せられた複数の音の集合に対してリズムロボットから出力される複数の音の集合の態様の具体例を示す図である。FIG. 10 is a diagram showing a specific example of a mode of a set of sounds output from a rhythm robot in response to a set of sounds uttered by a user; ユーザインターフェースの具体例を示す図である。(A)は、ユーザ情報を入力する際にリズムロボットおよびユーザ端末に表示されるユーザインターフェースの具体例を示す図である。(B)は、出力態様を設定する際にリズムロボットおよびユーザ端末に表示されるユーザインターフェースの具体例を示す図である。FIG. 4 is a diagram showing a specific example of a user interface; (A) is a diagram showing a specific example of a user interface displayed on the rhythm robot and the user terminal when user information is input. (B) is a diagram showing a specific example of a user interface displayed on the rhythm robot and the user terminal when setting the output mode.

〔リズムロボットシステムのハードウェア構成〕
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本実施の形態が適用されるリズムロボットシステム1のハードウェア構成を示す図である。
リズムロボットシステム1は、サービス提供者からユーザUaおよびUbに対して提供される「リズムロボットサービス」(以下、「本サービス」と呼ぶ)を実現させるシステムである。本サービスは、ユーザUaから発せられた複数の音の集合に反応して、その複数の音の集合に合わせた複数の音の集合を出力するリズムロボット10を利用して、ユーザUaを楽ませるサービスである。本サービスを実現させるリズムロボットシステム1は、インターネット等のネットワーク90に接続された、リズムロボット10と、ユーザ端末50と、サーバ70とを有している。
[Hardware configuration of the rhythm robot system]
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a diagram showing the hardware configuration of a rhythm robot system 1 to which this embodiment is applied.
The rhythm robot system 1 is a system that implements a "rhythm robot service" (hereinafter referred to as "this service") provided by a service provider to users Ua and Ub. This service entertains the user Ua by using a rhythm robot 10 that responds to a set of sounds uttered by the user Ua and outputs a set of sounds that match the set of sounds. Service. A rhythm robot system 1 that implements this service includes a rhythm robot 10, a user terminal 50, and a server 70, which are connected to a network 90 such as the Internet.

ユーザUaは、リズムロボット10とふれあいながらリズムロボット10に向けて複数の音の集合を発し、その複数の音の集合に対するリズムロボット10の反応を楽しむ者である。本実施の形態のユーザUaとしては、幼児および高齢者が挙げられる。ユーザUaから発せられる「複数の音の集合」としては、複数の衝突音の集合、複数の音からなる旋律等が挙げられる。「複数の衝突音の集合」としては、例えば拍手など、ユーザUaの身体の一部を衝突させてときに生じるリズム音や、カスタネットやタンバリン等の楽器の演奏の際に生じるリズム音等が挙げられる。また、「複数の音からなる旋律」としては、例えば鼻歌など、ユーザUaの歌唱により生じる音の集合や、リコーダーや鍵盤ハーモニカ等の楽器の演奏により生じる音の集合等が挙げられる。 The user Ua emits a set of sounds toward the rhythm robot 10 while interacting with the rhythm robot 10, and enjoys the response of the rhythm robot 10 to the set of sounds. The user Ua of the present embodiment includes infants and elderly people. The "set of multiple sounds" emitted by the user Ua includes a set of multiple collision sounds, a melody composed of multiple sounds, and the like. Examples of the "set of multiple collision sounds" include rhythm sounds such as clapping that are generated when parts of the user Ua's body collide, and rhythm sounds that are generated when playing musical instruments such as castanets and tambourines. mentioned. The "melody consisting of a plurality of sounds" includes, for example, a set of sounds such as a humming sound produced by singing by the user Ua, and a set of sounds produced by playing a musical instrument such as a recorder or a keyboard harmonica.

また、ユーザUbは、リズムロボット10の各種設定のための入力操作を行う者である。本実施の形態のユーザUbとしては、ユーザUaを管理または保護する立場にある母親、保育士、介護士等が挙げられる。ユーザUaとしての幼児および高齢者、またユーザUbとしての母親、保育士、介護士等が本サービスを利用することで、健全な子育ての支援、および高齢者の健康維持の支援等が実現される。なお、本明細書では、ユーザUaとユーザUbとの各々を区別して説明する必要がない場合には、両者をまとめて「ユーザU」と記載する。また、ユーザUには、未だ本サービスの利用を開始していないが、本サービスの利用を希望する者も含まれるものとする。 Also, the user Ub is a person who performs input operations for various settings of the rhythm robot 10 . Examples of the user Ub in the present embodiment include mothers, nursery teachers, and caregivers who are in a position to manage or protect the user Ua. Infants and the elderly as user Ua, and mothers, nursery teachers, and caregivers as user Ub use this service to realize support for healthy child-rearing and support for maintaining the health of the elderly. . In this specification, when it is not necessary to distinguish between the user Ua and the user Ub, they are collectively referred to as "user U". The user U also includes a person who has not yet started using this service but wishes to use this service.

リズムロボットシステム1を構成するリズムロボット10は、ユーザUaから発せられた複数の音の集合と特徴量が同一または一部が共通する複数の音の集合を、リズム音や歌唱など様々なバリエーションの態様で出力する。具体的には、リズムロボット10は、ユーザUaが一定のリズムで拍手をしたり、鼻歌を口ずさんだり、歌唱したりして複数の音の集合を発すると、そのリズムやテンポ等に合わせた態様のリズム音を出力したり歌唱したりする。以下、リズムロボット10が複数の音の集合を出力する際の出力の態様のことを「出力態様」と呼ぶ。なお、出力態様のバリエーションの詳細については図7を参照して後述する。 A rhythm robot 10 that constitutes the rhythm robot system 1 generates a set of sounds that have the same or a part of the same features as a set of sounds emitted by the user Ua, and generates various variations such as rhythm sounds and singing. output in the form. Specifically, when the user Ua clap, hum, or sing a set of sounds in a certain rhythm, the rhythm robot 10 adjusts the rhythm to the rhythm, tempo, or the like. Outputs and sings the rhythm sound of Hereinafter, the mode of output when the rhythm robot 10 outputs a set of sounds will be referred to as "output mode". The details of the variation of the output mode will be described later with reference to FIG.

リズムロボット10は、基本的にはユーザUaから発せられた複数の音の集合の特徴量に基づいて、その特徴量と同一または一部が共通する複数の音の集合の態様を出力態様として決定して出力する。このとき、リズムロボット10は、その出力態様の決定に際して、ユーザUaのユーザ情報が加味されるようにすることができる。出力態様の決定に際してユーザ情報を加味するか否かについては、ユーザUaまたはユーザUbが任意に設定することができる。出力態様の決定に際してユーザ情報を加味するように設定された場合、リズムロボット10は、ユーザUaのユーザ情報を取得する。「ユーザ情報」とは、ユーザUaに関する情報のことをいう。ユーザUaのユーザ情報には、例えばユーザUaの氏名、住所、年齢、性別、好きな楽曲の名称やジャンル等の情報が含まれる。なお、出力態様の決定に際してユーザ情報が加味される場合の具体例については、図7を参照して後述する。 Basically, the rhythm robot 10 determines, as an output mode, the mode of a set of sounds that are the same as or partly common to the feature amount, based on the feature amount of the set of sounds uttered by the user Ua. and output. At this time, the rhythm robot 10 can take into consideration the user information of the user Ua when determining the output mode. The user Ua or the user Ub can arbitrarily set whether or not to take the user information into consideration when determining the output mode. If the user information is taken into consideration when determining the output mode, the rhythm robot 10 acquires the user information of the user Ua. "User information" means information about the user Ua. The user information of the user Ua includes, for example, the user Ua's name, address, age, gender, name and genre of favorite music, and other information. A specific example in which user information is taken into account when determining the output mode will be described later with reference to FIG.

リズムロボット10は、ユーザUaまたはユーザUbの入力操作の結果として受け付けられたユーザに関する情報を、ユーザUaのユーザ情報として取得して、ユーザ情報DB41に記憶して管理する。なお、ここでいう「入力操作」には、リズムロボット10の画面に表示されたユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作が含まれる。 The rhythm robot 10 acquires user-related information received as a result of an input operation by the user Ua or the user Ub as user information on the user Ua, and stores and manages it in the user information DB 41 . Note that the "input operation" here includes a manual input operation to the user interface displayed on the screen of the rhythm robot 10, a voice input operation to a microphone or the like, and a gesture input operation to a camera or the like.

また、ユーザUaまたはユーザUbにより入力される情報だけではなく、リズムロボット10から出力された複数の音の集合の態様の履歴といった、ユーザUaによる本サービスの利用実績もユーザ情報として取得される。さらに、ユーザUaが本サービス以外の他サービスにユーザ情報を別途登録している場合であって、本サービスと他サービスとの間にユーザUaのユーザ情報の融通に関する定めが設けられているような場合がある。このような場合には、ユーザUaまたはユーザUaを代理するユーザUbの承諾を条件として、他サービスにてユーザUaのユーザ情報として既に登録されている情報も、本サービスにおけるユーザUaのユーザ情報として取得される。具体的には、他サービスを運営するサーバなど図示しない外部のサーバからユーザUaのユーザ情報を取得する。 In addition to the information input by the user Ua or the user Ub, user Ua's utilization history of the service, such as the history of the set of sounds output from the rhythm robot 10, is also acquired as user information. Furthermore, in the case where the user Ua has separately registered user information in another service other than this service, and there is a provision regarding the interchange of the user information of the user Ua between this service and the other service. Sometimes. In such a case, subject to the consent of the user Ua or the user Ub who acts for the user Ua, the information already registered as the user information of the user Ua in other services may also be used as the user information of the user Ua in this service. is obtained. Specifically, the user information of the user Ua is acquired from an external server (not shown) such as a server that manages other services.

また、リズムロボット10は、ユーザUaまたはユーザUbから出力態様の一部が指定された場合には、ユーザUaから発せられた複数の音の集合と特徴量が同一または一部が共通する複数の音の集合を、ユーザUaまたはユーザUbにより指定された出力態様にて出力する。なお、出力態様の「一部」を指定できることとしたのは以下の理由による。すなわち、リズムロボット10から出力される複数の音の集合の態様の「すべて」を予め指定できることとすると、ユーザUaから発せられた複数の音の集合と、リズムロボット10から出力される複数の音の集合との関連性が希薄になり、音を通じてコミュニケーションをとるという本サービスの趣旨を没却してしまうおそれがあるためである。 Further, when the user Ua or the user Ub designates a part of the output mode, the rhythm robot 10 generates a plurality of sounds having the same feature amount or a part thereof as a set of sounds emitted by the user Ua. A set of sounds is output in an output mode designated by user Ua or user Ub. The reason why "partial" of the output mode can be specified is as follows. In other words, assuming that "all" of the set of sounds output from the rhythm robot 10 can be designated in advance, the set of sounds emitted by the user Ua and the set of sounds output from the rhythm robot 10 can be designated in advance. This is because the relevance to the collection of the information may become weak, and the purpose of this service, which is to communicate through sound, may be lost.

具体的には、例えば出力態様の一部としての「ハイテンポのリズム音」が指定されたとする。この場合、たとえ出力態様の一部の決定に際してユーザ情報が加味される旨の設定がなされており、かつ、ユーザUaの年齢が85歳である旨がユーザ情報に含まれていたとしても、予め指定されている出力態様である「ハイテンポのリズム音」が優先されて出力される。なお、出力態様の決定に際してユーザUaのユーザ情報が加味されるようにする設定と、出力態様の一部の指定との両方が予め行われている場合において、どちらを優先的に適用すべきかを、ユーザUaまたはユーザUbが予め設定できるようにしてもよい。なお、このような優先適用に関する設定や、上述した出力態様の一部の指定は、いずれもユーザUaまたはユーザUbの入力操作により行われる。 Specifically, for example, it is assumed that "high-tempo rhythm sound" is specified as part of the output mode. In this case, even if a setting is made to the effect that the user information is taken into consideration when determining a part of the output mode, and the fact that the age of the user Ua is 85 years old is included in the user information in advance, The specified output mode of "high tempo rhythm sound" is preferentially output. In the case where both the setting that the user information of the user Ua is taken into consideration when determining the output mode and the designation of a part of the output mode are performed in advance, it is possible to determine which one should be applied preferentially. , can be preset by the user Ua or the user Ub. It should be noted that the setting regarding such priority application and the specification of a part of the output mode described above are both performed by the user Ua or the user Ub through input operations.

また、リズムロボット10は、各種の情報をデータベースに記憶して管理する。例えば上述したように、取得したユーザUaのユーザ情報を、後述する図2の記憶部13の一領域に設けられたユーザ情報DB41に記憶して管理する。また、例えばリズムロボット10は、サーバ70から提供される複数のコンテンツの情報を、後述する図2の記憶部13の一領域に設けられたコンテンツ情報DB42に記憶して管理する。「コンテンツ情報」とは、リズムロボット10から出力される複数の音の集合の候補となる歌唱の楽曲のデータである。コンテンツ情報としては、コンテンツ情報DB42および後述するサーバ70のコンテンツ情報DB82の各々に予め記憶されているものと、図示しない外部のサーバ等から適宜取得されるものとがある。コンテンツ情報は、コンテンツを一意に特定可能にする識別情報に対応付けられており、この識別情報をキーとしていつでも抽出可能な態様で管理されている。 Also, the rhythm robot 10 stores and manages various kinds of information in a database. For example, as described above, the acquired user information of the user Ua is stored and managed in the user information DB 41 provided in one area of the storage unit 13 shown in FIG. 2, which will be described later. Also, for example, the rhythm robot 10 stores and manages a plurality of pieces of content information provided by the server 70 in a content information DB 42 provided in one area of the storage unit 13 shown in FIG. 2, which will be described later. The “content information” is data of songs to be sung as candidates for a set of sounds output from the rhythm robot 10 . The content information includes information stored in advance in each of the content information DB 42 and the content information DB 82 of the server 70, which will be described later, and information obtained as appropriate from an external server or the like (not shown). The content information is associated with identification information that uniquely identifies the content, and is managed in such a manner that it can be extracted at any time using this identification information as a key.

リズムロボット10は、上述したようにリズムロボットシステム1を構成するネットワーク型のロボットとして機能させることもできるが、通信環境の悪い場所では、一時的にスタンドアロン型のロボットとして機能させることもできる。また、当初から通信機能を有しないスタンドアロン型のロボットとして機能させることもできる。 The rhythm robot 10 can function as a network type robot that constitutes the rhythm robot system 1 as described above, but it can also temporarily function as a stand-alone type robot in places where the communication environment is poor. In addition, it can be made to function as a stand-alone type robot that does not have a communication function from the beginning.

リズムロボットシステム1を構成するユーザ端末50は、スマートフォン、タブレット、パーソナルコンピュータ等で構成される。ユーザ端末50は、ユーザUbにより所持され、またはユーザUbが生活する空間や業務を行う空間に配置されている。ユーザ端末50は、ユーザUbの入力操作を受け付ける。例えば、ユーザ端末50は、本サービスにユーザ情報を登録するための入力操作を受け付ける。なお、ここでいう「入力操作」には、ユーザ端末50の画面に表示されたユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作が含まれる。 A user terminal 50 that configures the rhythm robot system 1 is configured by a smart phone, a tablet, a personal computer, or the like. The user terminal 50 is possessed by the user Ub or placed in a space where the user Ub lives or works. The user terminal 50 receives an input operation from the user Ub. For example, the user terminal 50 accepts an input operation for registering user information in this service. Note that the “input operation” here includes a manual input operation to the user interface displayed on the screen of the user terminal 50, a voice input operation to a microphone or the like, and a gesture input operation to a camera or the like.

ユーザ端末50がスマートフォン、タブレット、パーソナルコンピュータで構成される場合には、本サービスを利用可能にする専用のアプリケーションソフトウェア(以下、「専用アプリ」と呼ぶ)をユーザ端末50にインストールすることができる。また、専用アプリがインストールされない場合であっても、ユーザ端末50のブラウザ機能を用いて、本サービスを利用可能にする専用のウェブサイトにアクセスすることでも本サービスを利用することができる。 When the user terminal 50 is composed of a smart phone, a tablet, or a personal computer, dedicated application software (hereinafter referred to as “dedicated application”) that enables use of this service can be installed on the user terminal 50 . In addition, even if the dedicated application is not installed, the service can be used by accessing a dedicated website that enables the use of the service using the browser function of the user terminal 50.例文帳に追加

リズムロボットシステム1を構成するサーバ70は、システム全体を制御する情報処理装置であり、例えば専用アプリをユーザ端末50に提供する。また、サーバ70は、各種の情報をデータベースに記憶して管理する。具体的には、サーバ70は、取得したユーザ情報を、後述する図2の記憶部13と同様の機能を有する記憶部(図示せず)の一領域に設けられたユーザ情報DB81に記憶して管理する。また、サーバ70は、取得したコンテンツの情報を、後述する図2の記憶部13と同様の機能を有する記憶部(図示せず)の一領域に設けられたコンテンツ情報DB82に記憶して管理する。サーバ70は、これらのデータベースに記憶して管理している情報の一部または全部を、必要に応じてリズムロボット10およびユーザ端末50に向けて送信する。 The server 70 that configures the rhythm robot system 1 is an information processing device that controls the entire system, and provides the user terminal 50 with a dedicated application, for example. The server 70 also stores and manages various kinds of information in a database. Specifically, the server 70 stores the acquired user information in a user information DB 81 provided in one area of a storage section (not shown) having the same function as the storage section 13 of FIG. 2, which will be described later. to manage. In addition, the server 70 stores and manages the acquired content information in a content information DB 82 provided in one area of a storage unit (not shown) having the same function as the storage unit 13 of FIG. 2, which will be described later. . The server 70 transmits part or all of the information stored and managed in these databases to the rhythm robot 10 and the user terminal 50 as necessary.

上述したように、ユーザ情報およびコンテンツ情報は、リズムロボット10およびサーバ70の各々のデータベースに記憶されているが、両データベースの同期の有無や、同期が行われる場合の同期のタイミングや間隔は特に限定されない。例えば予め定められたタイミング(例えばリアルタイム、時間単位、分単位、秒単位)で、リズムロボット10のデータベースに記憶されている情報と、サーバ70のデータベースに記憶されている情報とが完全に同期される構成にしてもよい。このような構成にした場合には、リズムロボット10から出力される複数の音の集合の態様のバリエーションをより充実させることが可能となる。 As described above, user information and content information are stored in databases of rhythm robot 10 and server 70, respectively. Not limited. For example, the information stored in the database of the rhythm robot 10 and the information stored in the database of the server 70 are completely synchronized at a predetermined timing (eg, real time, hourly, minutely, secondly). It may be configured to In the case of such a configuration, it is possible to further enhance the variation of the form of the set of sounds output from the rhythm robot 10 .

また、例えばリズムロボット10が独自にユーザ情報を取得しないこととし、サーバ70のデータベースに記憶されている情報のうちユーザUbにより任意に選択された1以上のコンテンツ情報のみがリズムロボット10に提供される構成にしてもよい。このような構成にした場合には、リズムロボット10が記憶する情報を必要最小限に抑えることが可能になるので、リズムロボット10のデータベースの負荷が軽減化される。 Also, for example, the rhythm robot 10 does not acquire user information on its own, and only one or more pieces of content information arbitrarily selected by the user Ub from among the information stored in the database of the server 70 are provided to the rhythm robot 10. It may be configured to With such a configuration, the amount of information stored by the rhythm robot 10 can be minimized, so the load on the database of the rhythm robot 10 can be reduced.

〔リズムロボットの構成〕
図2は、リズムロボット10のハードウェア構成を示す図である。
リズムロボット10は、コンピュータ装置を内蔵するいわゆるコミュニケーションロボットで構成される。リズムロボット10は、自機全体を制御するCPU(Central Processing Unit)である制御部11と、演算に際して作業エリアとして用いられるRAM(Random Access Memory)などのメモリ12と、プログラムや各種設定データなどの記憶に用いられるHDD(Hard Disk Drive)や半導体メモリ等の記憶装置である記憶部13とを有している。また、ネットワーク90を介してデータの送受信を行う通信部14を有している。また、ユーザUからの入力操作を受け付けるタッチパネルなどの操作部15と、ユーザUに対して画像やテキスト情報などを表示する液晶ディスプレイなどからなる表示部16と、表示部16を制御する表示制御部17とを有している。また、ユーザから発せられる音を録音するためのマイクなどからなる録音部18と、ユーザUに対して音声を出力するスピーカなどからなる音声出力部19とを有している。さらに、ユーザUのジェスチャの様子を撮像して静止画像または動画像の情報として取得するためのカメラなどからなる撮像部20を有している。
[Configuration of rhythm robot]
FIG. 2 is a diagram showing the hardware configuration of the rhythm robot 10. As shown in FIG.
The rhythm robot 10 is composed of a so-called communication robot that incorporates a computer device. The rhythm robot 10 has a control section 11 that is a CPU (Central Processing Unit) that controls the entire robot, a memory 12 such as a RAM (Random Access Memory) that is used as a work area for calculation, and programs and various setting data. It has a storage unit 13 which is a storage device such as an HDD (Hard Disk Drive) used for storage and a semiconductor memory. It also has a communication unit 14 that transmits and receives data via the network 90 . Further, an operation unit 15 such as a touch panel for receiving input operations from the user U, a display unit 16 such as a liquid crystal display for displaying images and text information to the user U, and a display control unit for controlling the display unit 16. 17. It also has a recording unit 18 such as a microphone for recording sounds emitted by the user, and an audio output unit 19 such as a speaker for outputting audio to the user U. FIG. Further, it has an imaging unit 20 including a camera or the like for capturing an image of the gesture of the user U and acquiring it as information of a still image or a moving image.

なお、リズムロボットシステム1を構成するユーザ端末50のハードウェア構成は、図2に示すリズムロボット10のハードウェア構成と同様の構成を備えている。また、リズムロボットシステム1を構成するサーバ70のハードウェア構成は、録音部18、音声出力部19、および撮像部20を除いて図2に示すリズムロボット10のハードウェア構成と同様の構成を備えている。このため、ユーザ端末50およびサーバ70のハードウェア構成の説明は省略する。 The hardware configuration of the user terminal 50 that constitutes the rhythm robot system 1 is similar to the hardware configuration of the rhythm robot 10 shown in FIG. The hardware configuration of the server 70 that constitutes the rhythm robot system 1 is similar to the hardware configuration of the rhythm robot 10 shown in FIG. ing. Therefore, descriptions of the hardware configurations of the user terminal 50 and the server 70 are omitted.

図3は、リズムロボット10の機能構成を示す図である。
リズムロボット10は、複数の音の集合の情報を取得する音取得部31と、複数の音の集合の特徴量を検出する特徴量検出部32とを有している。また、ユーザUaのユーザ情報を取得するユーザ情報取得部33と、ユーザUaのユーザ情報を記憶するユーザ情報記憶部34とを有している。また、リズムロボット10により出力される複数の音の集合の態様の指定を受け付ける出力態様受付部35と、リズムロボット10により出力される複数の音の集合の態様を決定する出力態様決定部36とを有する。また、リズムロボット10により出力される複数の音の集合の態様を加工する加工部37と、複数の音の集合の出力の制御を行う出力制御部38とを有する。
FIG. 3 is a diagram showing the functional configuration of the rhythm robot 10. As shown in FIG.
The rhythm robot 10 has a sound acquisition section 31 that acquires information on a set of sounds, and a feature amount detection section 32 that detects a feature amount of the set of sounds. It also has a user information acquisition unit 33 that acquires the user information of the user Ua, and a user information storage unit 34 that stores the user information of the user Ua. Also, an output mode accepting unit 35 that accepts specification of the mode of the set of sounds output by the rhythm robot 10, and an output mode determination unit 36 that determines the mode of the set of sounds output by the rhythm robot 10. have It also has a processing unit 37 that processes the form of the set of sounds output by the rhythm robot 10, and an output control unit 38 that controls the output of the set of sounds.

ユーザUaの拍手、鼻歌、歌唱といった動作によって外部から発せられた複数の音の集合が入力されると、入力された複数の音の集合は、上述した図2の録音部18により録音される。音取得部31は、録音された複数の音の集合の情報を取得する。 When a set of sounds emitted from the outside by user Ua's actions such as clapping, humming, and singing is input, the set of input sounds is recorded by the recording unit 18 shown in FIG. 2 described above. The sound acquisition unit 31 acquires information on a set of recorded sounds.

特徴量検出部32は、音取得部31により取得された情報における複数の音の集合の特徴量を検出する。具体的には、特徴量検出部32は、複数の音の集合の特徴量として、例えば複数の衝突音の集合の特徴量と、複数の音からなる旋律の特徴量とを検出する。「複数の音の集合の特徴量」としては、テンポ、リズム、ボリューム、トーン、スピード等が挙げられる。なお、複数の音の集合の特徴量の詳細については、図7を参照して後述する。 The feature amount detection unit 32 detects feature amounts of a set of sounds in the information acquired by the sound acquisition unit 31 . Specifically, the feature amount detection unit 32 detects, for example, a feature amount of a set of multiple collision sounds and a feature amount of a melody composed of a plurality of sounds as the feature amount of the set of multiple sounds. The "feature amount of a set of sounds" includes tempo, rhythm, volume, tone, speed, and the like. Note that details of the feature amount of a set of sounds will be described later with reference to FIG. 7 .

ユーザ情報取得部33は、ユーザUaまたはユーザUbの入力操作にて入力されたユーザUaのユーザ情報を取得する。また、ユーザ情報取得部33は、ユーザUaによる本サービスの利用実績をユーザ情報として取得する。また、ユーザ情報取得部33は、他サービスにてユーザUaのユーザ情報として既に登録されている情報のうち、ユーザUa(またはユーザUaを代理するユーザUb)の承諾が得られた情報を、本サービスにおけるユーザUaのユーザ情報として取得する。 The user information acquisition unit 33 acquires the user information of the user Ua input by the input operation of the user Ua or the user Ub. In addition, the user information acquisition unit 33 acquires the usage history of this service by the user Ua as user information. In addition, the user information acquisition unit 33 acquires information that has been approved by the user Ua (or the user Ub who acts for the user Ua) among the information already registered as the user information of the user Ua in other services. Acquired as user information of the user Ua in the service.

ユーザ情報記憶部34は、ユーザ情報取得部33により取得されたユーザUaのユーザ情報を、ユーザ情報DB41に記憶して管理する。具体的には、ユーザ情報記憶部34は、ユーザUaを一意に特定可能にする識別情報にユーザ情報を対応付けて、その識別情報をキーとしていつでも抽出可能な態様で管理する。 The user information storage unit 34 stores and manages the user information of the user Ua acquired by the user information acquisition unit 33 in the user information DB 41 . Specifically, the user information storage unit 34 associates the user information with identification information that uniquely identifies the user Ua, and manages the user information in a manner that can be extracted at any time using the identification information as a key.

出力態様受付部35は、出力態様の一部についての指定を受け付ける。具体的には、出力態様受付部35は、出力態様一部を指定するための入力操作が行われると、その指定を受け付ける。この入力操作としては、上述したように、ユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作等が挙げられる。なお、出力態様を指定するためのユーザインターフェースの具体例については、図8(B)を参照して後述する。 The output mode accepting unit 35 accepts designation of part of the output mode. Specifically, when an input operation for specifying a part of the output mode is performed, the output mode accepting unit 35 accepts the specification. As described above, the input operation includes a manual input operation to a user interface, an input operation by voice to a microphone or the like, an input operation by a gesture to a camera or the like, and the like. A specific example of the user interface for designating the output mode will be described later with reference to FIG. 8(B).

出力態様決定部36は、特徴量検出部32により検出された複数の音の集合の特徴量と、同一または一部が共通する特徴量を有する複数の音の集合の出力態様を決定する。また、出力態様決定部36は、出力態様受付部35により出力態様の指定が受け付けられた場合には、その指定に従った決定を行う。また、出力態様決定部36は、出力態様の決定に際してユーザ情報を加味する旨の設定が行われている場合には、その設定に従った決定を行う。また、出力態様決定部36は、例えば予め定められた選択基準や、AI(人工知能)がユーザUaの利用実績を学習した結果に基づいて出力態様を決定してもよい。また、サーバ70において出力態様の一部が決定された場合には、出力態様決定部36は、出力態様の決定に際してサーバ70における決定の内容を反映させる。 The output mode determining unit 36 determines an output mode for a plurality of sound sets having the same or partially common feature amount as the feature amount of the set of sounds detected by the feature amount detection unit 32 . Further, when the specification of the output mode is received by the output mode receiving section 35, the output mode determination section 36 makes a determination according to the specification. In addition, when the output mode determination unit 36 is set to take user information into account when determining the output mode, the output mode determination unit 36 makes a determination according to the setting. In addition, the output mode determination unit 36 may determine the output mode based on, for example, a predetermined selection criterion or a result of AI (artificial intelligence) learning the usage history of the user Ua. Further, when a part of the output mode is determined by the server 70, the output mode determining unit 36 reflects the content of the determination by the server 70 when determining the output mode.

加工部37は、出力態様を、出力態様決定部36により決定された出力態様にするための加工を行う。具体的には、例えば出力態様決定部36の決定が、出力態様受付部35により受け付けられた指定に従ったものである場合には、加工部37は、出力態様を、出力態様受付部35により指定された出力態様にするための加工を行う。また、例えば出力態様決定部36の決定が、出力態様の決定に際しユーザ情報を加味する旨の設定に従ったものである場合には、加工部37は、出力態様を、ユーザ情報が加味された出力態様にするための加工を行う。なお、加工部37による複数の音の集合の加工が具体的にどのような手法により行われるかは特に限定されず、例えば一般的に利用されている音声編集の手法を用いた加工が行われてもよい。この場合、加工部37は、例えば波形編集、ノイズ除去、ボリューム調整、周波数調整、音圧調整、ブレス除去、ピッチ調整、イントネーション調整、音色調整等の手法により、複数の音の集合を加工する。 The processing unit 37 performs processing for making the output mode the output mode determined by the output mode determination unit 36 . Specifically, for example, when the determination of the output mode determining unit 36 is in accordance with the designation received by the output mode receiving unit 35, the processing unit 37 causes the output mode receiving unit 35 to set the output mode to Perform processing to achieve the specified output mode. Further, for example, when the determination of the output mode determination unit 36 is in accordance with the setting to the effect that the user information is taken into consideration when determining the output mode, the processing unit 37 determines the output mode to be based on the user information. Processing for output mode is performed. It should be noted that there is no particular limitation as to what method the processing unit 37 uses to process the set of sounds. may In this case, the processing unit 37 processes a set of sounds by methods such as waveform editing, noise removal, volume adjustment, frequency adjustment, sound pressure adjustment, breath removal, pitch adjustment, intonation adjustment, and timbre adjustment.

出力制御部38は、出力態様決定部36により決定された出力態様で、複数の音の集合を出力する制御を行う。具体的には、出力制御部38は、出力態様決定部36により決定された出力態様になるように加工された複数の音の集合を、図2の音声出力部19に出力させる制御を行う。なお、出力制御部38が複数の音の集合を出力するタイミングは特に限定されない。例えば、ユーザUaから発せられた複数の音の集合の情報が取得されると、直ちに出力態様の決定と加工とが行われて、音声出力部19から出力されるようにしてもよい。また、例えば複数の音の集合の情報が取得された後、予め設定された時間が経過する間に出力態様の決定と加工とが行われて、音声出力部19から出力されるようにしてもよい。この場合、「予め設定された時間」はユーザUaまたはユーザUbが任意に設定できるものとし、例えば「1秒後」、「3秒後」といったように設定できるようにしてもよい。 The output control section 38 performs control to output a set of sounds in the output mode determined by the output mode determination section 36 . Specifically, the output control unit 38 controls the audio output unit 19 shown in FIG. The timing at which the output control unit 38 outputs a set of sounds is not particularly limited. For example, when information on a set of sounds uttered by the user Ua is acquired, the output mode may be determined and processed immediately, and the sounds may be output from the audio output unit 19 . Alternatively, for example, after information on a set of sounds is acquired, the output mode may be determined and processed while a preset time elapses, and output from the sound output unit 19. good. In this case, the "preset time" can be arbitrarily set by the user Ua or the user Ub, for example, "after 1 second" or "after 3 seconds".

〔サーバの構成〕
図4は、サーバ70の機能構成を示す図である。
サーバ70は、ユーザ情報を取得するユーザ情報取得部71と、ユーザ情報を記憶するユーザ情報記憶部72と、ユーザ情報の一部または全部をリズムロボット10に送信する制御を行うユーザ情報送信制御部73とを有している。また、リズムロボット10により出力される複数の音の集合の態様の一部の指定を受け付ける出力態様受付部74と、出力態様の一部を決定する出力態様決定部75とを有している。また、その決定内容をリズムロボット10に送信する制御を行う出力態様送信制御部76を有している。
[Server configuration]
FIG. 4 is a diagram showing the functional configuration of the server 70. As shown in FIG.
The server 70 includes a user information acquisition section 71 that acquires user information, a user information storage section 72 that stores user information, and a user information transmission control section that controls transmission of part or all of the user information to the rhythm robot 10. 73. It also has an output mode accepting section 74 that accepts designation of a part of the mode of a set of sounds to be output by the rhythm robot 10, and an output mode determining section 75 that determines a part of the output mode. It also has an output mode transmission control section 76 for controlling transmission of the content of the determination to the rhythm robot 10 .

ユーザ情報取得部71は、ユーザUの入力操作にて入力されたユーザUaのユーザ情報を取得する。また、ユーザ情報取得部71は、ユーザUaによる本サービスの利用実績をユーザUaのユーザ情報として取得する。また、ユーザ情報取得部71は、他サービスにてユーザUaのユーザ情報として既に登録されている情報のうち、ユーザUa(またはユーザUaを代理するユーザUb)の承諾が得られた情報を、本サービスにおけるユーザUaのユーザ情報として取得する。 The user information acquisition unit 71 acquires the user information of the user Ua input by the user U's input operation. In addition, the user information acquisition unit 71 acquires the usage history of this service by the user Ua as the user information of the user Ua. In addition, the user information acquisition unit 71 acquires information that has been approved by the user Ua (or the user Ub who acts for the user Ua) among the information that has already been registered as the user information of the user Ua in other services. Acquired as user information of the user Ua in the service.

ユーザ情報記憶部72は、ユーザ情報取得部71により取得されたユーザUaのユーザ情報を、ユーザ情報DB81に記憶して管理する。具体的には、ユーザ情報記憶部72は、ユーザUaを一意に特定可能にする識別情報にユーザ情報を対応付けて、その識別情報をキーとしていつでも抽出可能な態様で管理する。 The user information storage unit 72 stores and manages the user information of the user Ua acquired by the user information acquisition unit 71 in the user information DB 81 . Specifically, the user information storage unit 72 associates the user information with identification information that uniquely identifies the user Ua, and manages the user information in a manner that can be extracted at any time using the identification information as a key.

ユーザ情報送信制御部73は、ユーザ情報DB81に記憶されているユーザ情報の一部または全部を、リズムロボット10に送信する制御を行う。なお、サーバ70からリズムロボット10に対するユーザ情報の送信の有無、および送信するユーザ情報の項目は、ユーザUaまたはユーザUbが任意に設定することができる。 The user information transmission control section 73 controls transmission of part or all of the user information stored in the user information DB 81 to the rhythm robot 10 . The user Ua or Ub can arbitrarily set whether or not to transmit user information from the server 70 to the rhythm robot 10 and the items of user information to be transmitted.

出力態様受付部74は、出力態様の一部の指定を受け付ける。具体的には、出力態様の一部を指定するための入力操作が行われると、その指定を受け付ける。この入力操作は、ユーザ端末50のユーザインターフェースへの手入力操作、マイク等への音声による入力操作、カメラ等へのジェスチャによる入力操作等が挙げられる。なお、出力態様の一部を指定するためのユーザインターフェースの具体例については、図8(B)を参照して後述する。 The output mode accepting unit 74 accepts designation of a part of the output mode. Specifically, when an input operation for specifying a part of the output mode is performed, the specification is accepted. This input operation includes a manual input operation to the user interface of the user terminal 50, a voice input operation to a microphone or the like, a gesture input operation to a camera or the like, and the like. A specific example of the user interface for specifying part of the output mode will be described later with reference to FIG. 8(B).

出力態様決定部75は、出力態様受付部74により出力態様の一部についての指定が受け付けられた場合には、その指定に従った決定を行う。また、出力態様決定部75は、出力態様の決定に際してユーザ情報を加味する旨の設定が行われている場合には、その設定に従った決定を行う。また、出力態様決定部75は、例えば予め定められた選択基準や、AI(人工知能)を利用した機械学習の結果に基づいて、出力態様の一部を決定してもよい。出力態様送信制御部76は、出力態様決定部75によって出力態様の一部が決定されると、その決定された内容をリズムロボット10に送信する制御を行う。 When the output mode accepting portion 74 accepts the specification of a part of the output mode, the output mode determining portion 75 makes a determination according to the specification. In addition, when the output mode determination unit 75 is set to consider the user information when determining the output mode, the output mode determination unit 75 makes a determination according to the setting. In addition, the output mode determination unit 75 may determine a part of the output mode, for example, based on predetermined selection criteria or results of machine learning using AI (artificial intelligence). When part of the output mode is determined by the output mode determination section 75 , the output mode transmission control section 76 performs control to transmit the determined content to the rhythm robot 10 .

〔リズムロボットの処理〕
次に、リズムロボット10の処理について、図5を用いて説明する。
図5は、リズムロボット10の処理の流れを示すフローチャートである。
ユーザUaまたはユーザUbの入力操作によってユーザUaのユーザ情報が入力されると(ステップ101でYES)、ユーザ情報取得部33は、ユーザUaまたはユーザUbの入力操作にて入力されたユーザUaのユーザ情報を取得する(ステップ102)。ユーザ情報取得部33により取得されたユーザUaのユーザ情報は、ユーザ情報記憶部34によりユーザ情報DB41に記憶されて管理される。これに対して、ユーザUaのユーザ情報が入力されていない場合には(ステップ101でNO)、ステップ103の判断に進む。
[Rhythm robot processing]
Next, the processing of the rhythm robot 10 will be explained using FIG.
FIG. 5 is a flow chart showing the processing flow of the rhythm robot 10. As shown in FIG.
When the user information of the user Ua is input by the input operation of the user Ua or the user Ub (YES in step 101), the user information acquiring unit 33 acquires the user information of the user Ua input by the input operation of the user Ua or the user Ub. Information is obtained (step 102). The user information of the user Ua acquired by the user information acquisition unit 33 is stored and managed in the user information DB 41 by the user information storage unit 34 . On the other hand, if the user information of the user Ua has not been input (NO in step 101), the process proceeds to step 103 for determination.

ユーザUaまたはユーザUbの入力操作によって出力態様の一部が指定されると(ステップ103でYES)、出力態様受付部35がその指定を受け付けて、出力態様決定部36がその指定に従って出力態様の一部を決定する(ステップ104)。これに対して、出力態様の一部が指定されていない場合には(ステップ103でNO)、ステップ105の判断に進む。 When a part of the output mode is specified by the input operation of the user Ua or the user Ub (YES in step 103), the output mode accepting unit 35 accepts the specification, and the output mode determining unit 36 selects the output mode according to the specification. A portion is determined (step 104). On the other hand, if part of the output mode is not specified (NO in step 103), the process proceeds to step 105 for determination.

ユーザUaから発せられた複数の音の集合が入力されると(ステップ105でYES)、その複数の音の集合を録音部18が録音して、音取得部31が、録音された複数の音の集合の情報を取得する。(ステップ106)。これに対して、複数の音の集合が入力されていない場合には(ステップ105でNO)、複数の音の集合が入力されるまでステップ105の判断が繰り返される。 When a set of sounds uttered by the user Ua is input (YES in step 105), the recording unit 18 records the set of sounds, and the sound acquisition unit 31 collects the recorded sounds. Get information about the set of . (Step 106). On the other hand, if a set of multiple sounds has not been input (NO in step 105), the determination of step 105 is repeated until a set of multiple sounds is input.

特徴量検出部32は、音取得部31により取得された情報における複数の音の集合の特徴量を検出する(ステップ107)。出力態様決定部36は、特徴量検出部32により検出された複数の音の集合の特徴量と、同一または一部が共通する特徴量を有する複数の音の集合の出力態様を決定する(ステップ108)。ここで、出力態様受付部35により出力態様の指定が受け付けられた場合には、その指定に従った決定が行われる。また、出力態様の決定に際してユーザUaのユーザ情報を加味する旨の設定が行われている場合には、その設定に従った決定が行われる。 The feature quantity detection unit 32 detects the feature quantity of a set of sounds in the information acquired by the sound acquisition unit 31 (step 107). The output mode determination unit 36 determines the output mode of a plurality of sound sets having the same feature amount or a feature amount that is partially common to the feature amount of the plurality of sound sets detected by the feature amount detection unit 32 (step 108). Here, when the designation of the output mode is received by the output mode receiving unit 35, determination is made according to the designation. In addition, if a setting is made to consider the user information of the user Ua when determining the output mode, the determination is made according to the setting.

加工部37は、出力態様決定部36により決定された出力態様にするための加工を行う(ステップ109)。ここで、出力態様決定部36により決定された出力態様が、ユーザUaまたはユーザUbの指定に従ったものである場合には、加工部37は、その指定された出力態様になるように複数の音の集合を加工する。また、出力態様決定部36により決定された出力態様が、ユーザUaのユーザ情報を加味する旨の設定に従ったものである場合には、加工部37は、ユーザUaのユーザ情報が加味された出力態様になるように、複数の音の集合を加工する。出力制御部38は、出力態様決定部36により決定された出力態様で、複数の音の集合を出力する制御を行う(ステップ110)。 The processing unit 37 performs processing to achieve the output mode determined by the output mode determination unit 36 (step 109). Here, when the output mode determined by the output mode determination unit 36 is in accordance with the designation of the user Ua or the user Ub, the processing unit 37 processes a plurality of Process a set of sounds. Further, when the output mode determined by the output mode determination unit 36 is in accordance with the setting to the effect that the user information of the user Ua is taken into consideration, the processing unit 37 determines that the user information of the user Ua is added A set of multiple sounds is processed so as to have an output mode. The output control unit 38 performs control to output a set of sounds in the output mode determined by the output mode determination unit 36 (step 110).

〔サーバの処理〕
次に、サーバ70の処理について、図6を用いて説明する。
図6は、サーバ70の処理の流れを示すフローチャートである。
ユーザUの入力操作によってユーザUaのユーザ情報が入力されると(ステップ701でYES)、ユーザ情報取得部71は、ユーザUaまたはユーザUbの入力操作にて入力されたユーザUaのユーザ情報を取得する(ステップ702)。ユーザ情報取得部71により取得されたユーザUaのユーザ情報は、ユーザ情報記憶部72によりユーザ情報DB81に記憶されて管理される。ユーザ情報送信制御部73は、ユーザ情報DB81に記憶されているユーザUaのユーザ情報の一部または全部をリズムロボット10に送信する制御を行う(ステップ703)。これに対して、ユーザUaのユーザ情報が入力されていない場合には(ステップ701でNO)ステップ704の判断に進む。
[Server processing]
Next, processing of the server 70 will be described using FIG.
FIG. 6 is a flow chart showing the processing flow of the server 70. As shown in FIG.
When user Ua's user information is input by user U's input operation (YES in step 701), user information acquisition unit 71 acquires user Ua's user information input by user Ua's or user Ub's input operation. (step 702). The user information of the user Ua acquired by the user information acquisition unit 71 is stored and managed in the user information DB 81 by the user information storage unit 72 . The user information transmission control section 73 controls transmission of part or all of the user information of the user Ua stored in the user information DB 81 to the rhythm robot 10 (step 703). On the other hand, if the user information of the user Ua has not been input (NO in step 701), the process proceeds to step 704 for determination.

ユーザUaまたはユーザUbの入力操作によって出力態様の一部が指定されると(ステップ704でYES)、出力態様受付部74がその指定を受け付けて、出力態様決定部75がその指定に従って出力態様の一部を決定する(ステップ705)。出力態様の一部が決定されると、出力態様送信制御部76は、その決定内容をリズムロボット10に送信する制御を行う(ステップ706)。これに対して、出力態様の一部が指定されていない場合には(ステップ704でNO)、出力態様の一部が指定されることなく処理は終了する。 When a part of the output mode is specified by the input operation of user Ua or user Ub (YES in step 704), output mode accepting unit 74 accepts the specification, and output mode determining unit 75 selects the output mode according to the specification. A portion is determined (step 705). When a part of the output mode is determined, the output mode transmission control section 76 performs control to transmit the content of the determination to the rhythm robot 10 (step 706). On the other hand, if part of the output mode is not specified (NO in step 704), the process ends without part of the output mode being specified.

以上のように、本実施の形態が適用されるリズムロボットシステム1によれば、ユーザUaがリズムロボット10とふれあいながら一定のリズムで拍手をしたり、鼻歌を歌ったりすると、リズムロボット10は、あたかもユーザUaとコミュニケーションをとるようにそのリズムやテンポに合わせて歌を歌ったり、リズム音を出力したりする。このとき、リズムロボット10から出力される歌唱やリズム音は、ユーザUaがリズムロボット10に向けて拍手をしたり鼻歌を歌ったりしたものに変調やハモリ等の加工を施したものとなるので、ユーザUaはその変化を楽しむことができる。 As described above, according to the rhythm robot system 1 to which the present embodiment is applied, when the user Ua clap or hum in a certain rhythm while interacting with the rhythm robot 10, the rhythm robot 10 It sings a song or outputs a rhythm sound in accordance with the rhythm and tempo as if communicating with the user Ua. At this time, the singing and rhythm sounds output from the rhythm robot 10 are the result of the user Ua clapping or humming toward the rhythm robot 10 and then modulating, harmonizing, and so on. The user Ua can enjoy the change.

また、上述したように、本サービスでは、ユーザUaまたはユーザUbの入力操作より出力態様を指定することができる。ここで特筆すべき点は、リズムロボット10が、ユーザUaのユーザ情報を取得して、自らの判断で出力態様を決定できる点である。つまり、リズムロボット10は、ユーザUaの個々の特徴に応じて出力態様を変化させることができる。これにより、例えばユーザUaが幼児である場合と、ユーザUaが高齢者である場合との各々に適した態様に変化させることが可能となる。その結果、ユーザUaとしての幼児および高齢者がリズムロボット10との音を通じたコミュニケーションを楽しむことにより、健全な子育ての支援、および高齢者の健康維持の支援等が実現可能となる。 Further, as described above, in this service, the output mode can be designated by the input operation of the user Ua or the user Ub. A point worthy of special mention here is that the rhythm robot 10 can acquire the user information of the user Ua and determine the output mode by its own judgment. In other words, the rhythm robot 10 can change the output mode according to the individual characteristics of the user Ua. As a result, it is possible to change to a mode suitable for, for example, the case where the user Ua is an infant and the case where the user Ua is an elderly person. As a result, an infant and an elderly person as the user Ua can enjoy communication with the rhythm robot 10 through sound, which makes it possible to support sound parenting and maintain the health of the elderly.

〔具体例〕
次に、本サービスの具体例について、図7および図8を用いて説明する。
図7は、ユーザUaから発せられた複数の音の集合に対してリズムロボット10から出力される複数の音の集合の態様の具体例を示す図である。
〔Concrete example〕
Next, a specific example of this service will be described with reference to FIGS. 7 and 8. FIG.
FIG. 7 is a diagram showing a specific example of a set of sounds output from the rhythm robot 10 in response to a set of sounds uttered by the user Ua.

図7には、ユーザUaの動作により発せられる複数の音の集合の種類と、リズムロボットの出力態様と、そのバリエーションとの関係性が示されている。例えば、ユーザUaが拍手をすると、それを聴いたリズムロボット10は、ユーザUaの拍手と特徴量が同一または一部が共通するリズム音を出力する。このとき、リズムロボット10から出力されるリズム音のバリエーションとしては、テンポ、リズム、ボリューム、トーン、スピード、特定の音、ユーザ情報に対応等が挙げられる。 FIG. 7 shows the relationship between the types of sets of sounds emitted by the user Ua's actions, the output modes of the rhythm robot, and variations thereof. For example, when the user Ua clap, the rhythm robot 10 that listens to the clap outputs a rhythm sound that has the same or a part of the feature amount as the user Ua's clapping. At this time, variations of the rhythm sound output from the rhythm robot 10 include tempo, rhythm, volume, tone, speed, specific sound, response to user information, and the like.

ここで、ユーザUから、出力態様の一部の指定として、リズム音が出力される場合のテンポおよびトーンが指定されていたとする。この場合、例えばユーザUaが、あるテンポおよびトーンで拍手をすると、リズムロボット10は、予め指定されたテンポおよびトーンに加工したリズム音を出力する。また、出力態様の一部の指定として、リズム音が出力される場合のボリュームが指定されていたとする。この場合、例えばユーザUaが、あるボリュームで拍手をすると、リズムロボット10は、予め指定されたボリュームに加工したリズム音を出力する。 Here, it is assumed that the user U has specified the tempo and tone when rhythm sounds are to be output as part of the specification of the output mode. In this case, for example, when the user Ua clapping at a certain tempo and tone, the rhythm robot 10 outputs rhythm sounds processed to a predesignated tempo and tone. It is also assumed that the volume at which rhythm sounds are to be output has been specified as part of the specification of the output mode. In this case, for example, when the user Ua clapping at a certain volume, the rhythm robot 10 outputs rhythm sounds processed to a volume specified in advance.

また、ユーザUから、出力態様の一部の指定として、リズム音が出力される場合の音として、特定の音が指定されていたとする。この場合、例えばユーザUaが、あるテンポおよびトーンで拍手をすると、リズムロボット10は、予め指定された特定の音に加工したリズム音を出力する。ここで、「特定の音」としては、太鼓の音、電子音、ホイッスルの音、拍子木の音、水に物が落ちる音、動物の鳴き声などが挙げられる。また、ユーザUから、出力態様の一部の指定として、歌唱が出力される場合の声として、特定の声が指定されていたとする。この場合、例えばユーザUaが、あるテンポおよびトーンで歌唱すると、リズムロボット10は、予め指定された特定の声に加工した歌唱を出力する。ここで、「特定の声」としては、幼児に人気のキャラクターの声等が挙げられる。 It is also assumed that the user U has designated a particular sound as a sound when a rhythm sound is to be output as part of the output mode. In this case, for example, when the user Ua clapping at a certain tempo and tone, the rhythm robot 10 outputs a rhythm sound processed into a specific sound specified in advance. Here, the "specific sound" includes the sound of a drum, an electronic sound, a whistle, a clapper, a sound of an object falling into water, an animal's cry, and the like. It is also assumed that the user U has designated a specific voice as a voice when singing is output as part of the output mode. In this case, for example, when the user Ua sings with a certain tempo and tone, the rhythm robot 10 outputs a song processed into a specific voice specified in advance. Here, the "specific voice" includes the voice of a character that is popular with young children.

また、出力態様の決定に際して、年齢、性別、好きな楽曲の名称やジャンルといった、ユーザUaのユーザ情報が加味されるように設定されていたとする。この場合、リズムロボット10は、例えばユーザUaが「年齢5歳」であるというユーザ情報を加味した出力態様として、幼児が好みそうなハイテンポのリズム音や歌唱を選択して出力することができる。また、例えばユーザUaが「年齢85歳」であるというユーザ情報を加味した出力態様として、高齢者が好みそうなローテンポのリズム音や歌唱を選択して出力することができる。この場合、リズムロボット10は、出力するリズム音や歌唱について、例えば1分間に何拍であるかを表す値BPM(Beats Per Minute)を制御することでテンポを調整する。具体的には、例えば幼児(ユーザUa)の拍手の音の特徴量であるテンポが120BPMであったとする。この場合、リズムロボット10は、幼児が好みそうな140BPMのハイテンポのリズム音が出力されるようにBPMを上げる調整を行う。 It is also assumed that user information of the user Ua, such as age, gender, name and genre of favorite music, is taken into consideration when determining the output mode. In this case, the rhythm robot 10 can select and output high-tempo rhythm sounds and singing that infants seem to like, for example, as an output mode that takes into account the user information that the user Ua is "5 years old". Also, for example, as an output mode that takes into account the user information that the user Ua is "85 years old", it is possible to select and output low-tempo rhythm sounds and singing that elderly people seem to like. In this case, the rhythm robot 10 adjusts the tempo of the output rhythm sounds and singing by controlling, for example, a value BPM (Beats Per Minute) representing the number of beats per minute. Specifically, for example, it is assumed that the tempo, which is the characteristic value of the clapping sound of an infant (user Ua), is 120 BPM. In this case, the rhythm robot 10 adjusts the BPM so that a high-tempo rhythm sound of 140 BPM that infants seem to like is output.

図8は、ユーザインターフェースの具体例を示す図である。図8(A)は、ユーザ情報を入力する際にリズムロボット10およびユーザ端末50に表示されるユーザインターフェースの具体例を示す図である。図8(B)は、出力態様を設定する際にリズムロボット10およびユーザ端末50に表示されるユーザインターフェースの具体例を示す図である。 FIG. 8 is a diagram showing a specific example of the user interface. FIG. 8A is a diagram showing a specific example of the user interface displayed on the rhythm robot 10 and the user terminal 50 when user information is input. FIG. 8B is a diagram showing a specific example of the user interface displayed on the rhythm robot 10 and the user terminal 50 when setting the output mode.

ユーザUaまたはユーザUb(主にユーザUb)は、ユーザUaのユーザ情報を登録する際、例えばユーザ図8(A)に示すようなユーザインターフェースにユーザ情報を入力する。ユーザ図8(A)に例示するユーザインターフェースは、リズムロボット10およびユーザ端末50の各々の画面に表示させることができる。なお、ユーザUaのユーザ情報の登録の有無、およびユーザUaのユーザ情報として登録する項目については、ユーザUaまたはユーザUbが任意に選択することができる。つまり、ユーザUaのユーザ情報の登録の有無は、本サービスを利用するうえで必須の情報ではなく、出力態様が決定される際にユーザUaのユーザ情報を加味する旨の設定がなされた場合に必要な情報となる。 When user Ua or user Ub (mainly user Ub) registers the user information of user Ua, the user inputs user information into a user interface as shown in FIG. 8A, for example. The user interface illustrated in FIG. 8A can be displayed on the screens of the rhythm robot 10 and the user terminal 50 respectively. The user Ua or the user Ub can arbitrarily select whether or not to register the user information of the user Ua and the items to be registered as the user information of the user Ua. In other words, whether or not the user information of user Ua is registered is not essential information for using this service. be the necessary information.

ユーザUaまたはユーザUb(主にユーザUb)は、出力態様を指定する際、例えばユーザ図8(B)に示すようなユーザインターフェースで出力態様の指定を行う。ユーザ図8(B)に例示するユーザインターフェースは、リズムロボット10およびユーザ端末50の各々の画面に表示させることができる。出力態様は、例えば図8(B)に示すように、出力対象、加工有無、変調、ハモリ、ユーザ情報適用有無、希望する音・声等について指定することができる。なお、図8(B)のユーザインターフェースに示された出力態様の項目は一例に過ぎない。 When user Ua or user Ub (mainly user Ub) specifies the output mode, the user specifies the output mode using a user interface as shown in FIG. 8B, for example. The user interface illustrated in FIG. 8B can be displayed on the screens of the rhythm robot 10 and the user terminal 50 respectively. As shown in FIG. 8B, for example, the output mode can be specified for output target, processing presence/absence, modulation, harmonization, user information application/non-applicability, desired sound/voice, and the like. Note that the output mode items shown in the user interface of FIG. 8B are merely examples.

図8(B)のユーザインターフェースに示された出力態様の項目のうち、「出力対象」は、リズムロボット10が複数の音の集合を出力する対象となるユーザUaの種別を指定する項目である。図8(B)の例では、「出力対象」として、「幼児」または「高齢者」を選択することができる。「出力対象」について「幼児」が選択された場合には、ユーザUaが「幼児」であることが加味された出力態様が決定されるので、例えばリズムロボット10が歌唱を出力する場合には、童謡などの幼児向けの楽曲が優先的に出力される。また、「出力対象」について「高齢者」が選択された場合には、ユーザUaが「高齢者」であることが加味された出力態様が決定されるので、例えばリズムロボット10が歌唱を出力する場合には、演歌や昭和歌謡などの高齢者向けの楽曲が優先的に出力される。 Among the output mode items shown in the user interface of FIG. 8B, "output target" is an item that specifies the type of user Ua for whom the rhythm robot 10 outputs a set of multiple sounds. . In the example of FIG. 8B, "infant" or "elderly" can be selected as the "output target". When "infant" is selected as the "output target", the output mode is determined taking into consideration that the user Ua is an "infant". Songs for young children such as nursery rhymes are preferentially output. Further, when the "elderly" is selected as the "output target", the output mode is determined in consideration of the fact that the user Ua is an "elderly", so for example the rhythm robot 10 outputs singing. In this case, songs for the elderly such as Enka and Showa Kayo are preferentially output.

また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「加工有無」は、ユーザUaから発せられた複数の音の集合に加工を施すか否かを指定する項目である。「加工有無」について「有」が選択された場合には、「変調」、「ハモリ」、「ユーザ情報適用の有無」、「希望する音・声」等の各項目がアクティブとなる。そして、ユーザUaから発せられた複数の音の集合に加工を施したものがリズムロボット10から出力されることになる。これに対して、「無」が選択された場合には、「変調」、「ハモリ」、「ユーザ情報適用の有無」、「希望する音・声」等の各項目が非アクティブになる。そして、ユーザUaから発せられた複数の音の集合の態様に加工が施されることなく、オウム返しのようにリズムロボット10から出力されることになる。 Among the output mode items shown in the user interface of FIG. 8(B), "processing presence/absence" is an item that specifies whether or not to process a set of sounds emitted by the user Ua. be. When "yes" is selected for "with or without processing", items such as "modulation", "harmony", "with or without user information application", and "desired sound/voice" become active. Then, the rhythm robot 10 outputs a processed set of a plurality of sounds uttered by the user Ua. On the other hand, when "no" is selected, each item such as "modulation", "harmony", "whether or not user information is applied", and "desired sound/voice" becomes inactive. Then, the set of sounds uttered by the user Ua is output from the rhythm robot 10 like a parrot return without being processed.

また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「変調」は、ユーザUaから発せられた複数の音の集合に対して「変調」を加えるか否かを指定する項目である。「変調」について「有」が選択された場合には、ユーザUaから発せられた複数の音の集合に対して「変調」が加えられたものがリズムロボット10から出力されることになる。この場合、例えば図7のバリエーションの項目に挙げられているような出力態様の指定が可能になる。これに対して、「変調」について「無」が選択された場合には、ユーザUaから発せられた複数の音の集合の態様に対して「変調」以外のいずれか1以上の項目についての加工が施されたものがリズムロボット10から出力される。 Among the output mode items shown in the user interface of FIG. 8(B), "modulation" designates whether or not to add "modulation" to a set of sounds emitted by the user Ua. It is an item to do. When "yes" is selected for "modulation", the rhythm robot 10 outputs a set of sounds uttered by the user Ua that have been "modulated". In this case, it is possible to specify the output mode as listed in the variation item in FIG. 7, for example. On the other hand, if "none" is selected for "modulation", any one or more items other than "modulation" are processed for the manner of a set of a plurality of sounds uttered by user Ua. is output from the rhythm robot 10.

また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「ハモリ」は、ユーザUaから発せられた複数の音の集合に「ハモリ」を加えるか否かを指定する項目である。「ハモリ」について「有」が選択された場合には、ユーザUaから発せられた複数の音の集合に対して「ハモリ」が加えられたものがリズムロボット10から出力される。これに対して、「ハモリ」について「無」が選択された場合には、ユーザUaから発せられた複数の音の集合の態様に対して「ハモリ」以外のいずれか1以上の項目についての加工が施されたものがリズムロボット10から出力される。 Among the output mode items shown in the user interface of FIG. 8(B), "harmony" is an item for specifying whether or not to add "harmony" to a set of a plurality of sounds uttered by the user Ua. is. When "yes" is selected for "harmony," the rhythm robot 10 outputs a set of sounds uttered by the user Ua with "harmony." On the other hand, if "none" is selected for "harmony," then any one or more items other than "harmony" are processed for the mode of the set of a plurality of sounds uttered by the user Ua. is output from the rhythm robot 10.

また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「ユーザ情報適用有無」は、出力態様が決定される際にユーザ情報を加味するか否かを設定するための項目である。「ユーザ情報適用有無」について「有」が選択された場合には、出力態様が決定される際にユーザ情報が加味される。これに対して、「ユーザ情報適用有無」について「無」が選択された場合には、出力態様が決定される際にユーザ情報が加味されない。 Among the items of the output mode shown in the user interface of FIG. 8B, "whether to apply user information" is for setting whether or not user information is taken into consideration when determining the output mode. item. When "yes" is selected for "whether user information is applied", user information is taken into account when the output mode is determined. On the other hand, if "no" is selected for "whether user information is applied", user information is not taken into account when the output mode is determined.

また、図8(B)のユーザインターフェースに示された出力態様の項目のうち、「希望する音・声」は、ユーザUaから発せられた複数の音の集合に加工を施す際、特定の人物、キャラクター、動物等の音や声に変換させるか否かを指定する項目である。「希望する音・声」について「有」が選択された場合には、ユーザUaから発せられた複数の音の集合を特定の人物、キャラクター、動物等の音・声に変換したものがリズムロボット10から出力される。なお、図8(B)に示すように、「設定する音・声を選択して下さい」と表記された領域の右側には、複数の人物、キャラクター、動物、音の名前等が選択可能な態様で表示される。これに対して、「無」が選択された場合には、ユーザUaから発せられた複数の音の集合の態様に対して「希望する音・声」以外のいずれか1以上の項目についての加工が施されたものがリズムロボット10から出力される。 Among the output mode items shown in the user interface of FIG. , characters, animals, and the like. If "yes" is selected for "desired sound/voice", the rhythm robot is a set of sounds uttered by the user Ua converted into sounds/voices of a specific person, character, animal, etc. 10 is output. In addition, as shown in FIG. 8B, on the right side of the area labeled "Please select the sound/voice to be set", a plurality of persons, characters, animals, names of sounds, etc. can be selected. displayed in the form. On the other hand, if "none" is selected, any one or more items other than the "desired sound/voice" are processed for the form of the set of sounds uttered by the user Ua. is output from the rhythm robot 10.

以上、本実施の形態について説明したが、本発明は上述した本実施の形態に限るものではない。また、本発明による効果も、上述した本実施の形態に記載されたものに限定されない。例えば上述の実施の形態では、ユーザUaから発せられる複数の音の集合の態様として、拍手、鼻歌(歌唱)、楽器による演奏が挙げられているが、これらに限定されない。ユーザUaから発せられるあらゆる複数の音の集合を対象とすることができる。 Although the embodiment has been described above, the present invention is not limited to the embodiment described above. Moreover, the effects of the present invention are not limited to those described in the above embodiment. For example, in the above-described embodiment, clapping, humming (singing), and performance by a musical instrument are cited as examples of a set of sounds emitted by the user Ua, but the present invention is not limited to these. Any set of multiple sounds emitted by the user Ua can be targeted.

また、例えば上述の実施の形態では、ユーザUによる入力操作の態様として、手入力操作、音声による入力操作、ジェスチャによる入力操作を挙げているが、これらの入力操作に限定されず、ユーザUの意思を入力可能なあらゆる入力操作を採用することができる。また、上述した本実施の形態では、ユーザUが出力態様のすべてについては予め指定することができない構成としているが、ユーザUが出力態様のすべてを予め指定することができる構成とすることもできる。また、上述した本実施の形態では、ユーザUbがユーザ端末50を所持する構成となっているが、ユーザUaがユーザ端末50を所持する構成とすることもできる。 Further, for example, in the above-described embodiment, the modes of the input operation by the user U are manual input operation, voice input operation, and gesture input operation, but are not limited to these input operations. Any input operation that can input intention can be adopted. In addition, in the above-described embodiment, the user U cannot specify all the output modes in advance. . Further, in the present embodiment described above, the user Ub possesses the user terminal 50, but the user Ua may possess the user terminal 50 as well.

1…リズムロボットシステム、10…リズムロボット、31…音取得部、32…特徴量検出部、33…ユーザ情報取得部、34…ユーザ情報記憶部、35…出力態様受付部、36…出力態様決定部、37…加工部、38…出力制御部、50…ユーザ端末、70…サーバ、71…ユーザ情報取得部、72…ユーザ情報記憶部、73…ユーザ情報送信制御部、74…出力態様受付部、75…出力態様決定部、76…出力態様送信制御部、90…ネットワーク REFERENCE SIGNS LIST 1 Rhythm robot system 10 Rhythm robot 31 Sound acquisition unit 32 Feature amount detection unit 33 User information acquisition unit 34 User information storage unit 35 Output mode reception unit 36 Output mode determination Unit 37 Processing unit 38 Output control unit 50 User terminal 70 Server 71 User information acquisition unit 72 User information storage unit 73 User information transmission control unit 74 Output mode reception unit , 75... Output mode determination unit, 76... Output mode transmission control unit, 90... Network

Claims (5)

外部より発せられた第1の複数の音の集合が入力されると、当該第1の複数の音の集合の特徴量を検出する検出手段と、
検出された前記特徴量と同一または一部が共通する特徴量を有する第2の複数の音の集合を、予め定められた態様にて外部に向けて出力する出力手段と、
を備えるロボット。
detection means for detecting, when a set of a first plurality of sounds emitted from the outside is input, a feature quantity of the set of the first plurality of sounds;
output means for outputting a second set of sounds having a feature amount that is the same as or partly common to the detected feature amount to the outside in a predetermined manner;
A robot with
前記検出手段は、前記第1の複数の音の集合としての、複数の衝突音の集合または複数の音からなる旋律を取得して、当該複数の衝突音の集合または複数の音からなる旋律の各々の特徴量を検出し、
前記出力手段は、前記第2の複数の音の集合としての旋律またはリズム音を、予め定められた態様にて外部に向けて出力する、
請求項1に記載のロボット。
The detection means acquires a set of a plurality of collision sounds or a melody consisting of a plurality of sounds as the set of the first plurality of sounds, and obtains a melody consisting of the set of a plurality of collision sounds or a plurality of sounds. Detect each feature value,
The output means outputs the melody or rhythm sound as the set of the second plurality of sounds to the outside in a predetermined manner,
The robot according to claim 1.
前記出力手段は、前記旋律またはリズム音を、ユーザにより選択された態様にて外部に向けて出力する、
請求項2に記載のロボット。
The output means outputs the melody or rhythm sound to the outside in a manner selected by the user.
The robot according to claim 2.
前記出力手段により外部に向けて出力される前記旋律またはリズム音は、前記第1の複数の音の集合としての複数の衝突音の集合または複数の音からなる旋律に、予め定められた加工が施された旋律またはリズム音である、
請求項3に記載のロボット。
The melody or rhythm sound output to the outside by the output means is a set of a plurality of collision sounds as the set of the first plurality of sounds, or a melody composed of a plurality of sounds, and is processed in a predetermined manner. is an applied melody or rhythmic sound,
The robot according to claim 3.
ユーザの特徴に関する情報の入力を受け付ける受付手段をさらに備え、
前記出力手段は、前記受付手段により受け付けられた前記ユーザの特徴に関する情報を考慮した態様の前記旋律またはリズム音を外部に向けて出力する、
請求項2に記載のロボット。
further comprising receiving means for receiving input of information on user characteristics,
The output means outputs to the outside the melody or rhythm sound in a mode that takes into consideration the information about the characteristics of the user received by the receiving means.
The robot according to claim 2.
JP2021068125A 2021-04-14 2021-04-14 robot Pending JP2022163281A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021068125A JP2022163281A (en) 2021-04-14 2021-04-14 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021068125A JP2022163281A (en) 2021-04-14 2021-04-14 robot

Publications (1)

Publication Number Publication Date
JP2022163281A true JP2022163281A (en) 2022-10-26

Family

ID=83742253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021068125A Pending JP2022163281A (en) 2021-04-14 2021-04-14 robot

Country Status (1)

Country Link
JP (1) JP2022163281A (en)

Similar Documents

Publication Publication Date Title
US20230414159A1 (en) System and method for associating music with brain-state data
US11881195B2 (en) Apparatus and methods for cellular compositions
US7960638B2 (en) Apparatus and method of creating content
Krueger Doing things with music
TW201434600A (en) Robot for generating body motion corresponding to sound signal
JP2016066389A (en) Reproduction control device and program
Weinberg et al. Robotic musicianship: embodied artificial creativity and mechatronic musical expression
Canazza et al. Caro 2.0: an interactive system for expressive music rendering
JP2023025013A (en) Singing support device for music therapy
Challis Octonic: an accessible electronic musical instrument
JP2014130467A (en) Information processing device, information processing method, and computer program
Copeland et al. Turing and the history of computer music
JP2022163281A (en) robot
US9293124B2 (en) Tempo-adaptive pattern velocity synthesis
Aroso The Gesture's Narrative: Contemporary Music for Percussion
WO2021186928A1 (en) Method, system and program for inferring evaluation of performance information
Jylhä et al. Design and evaluation of human-computer rhythmic interaction in a tutoring system
Campos Calvo-Sotelo Sonic affinity
Monaghan Harp and electronics: Composition, design, and performance
Di Donato et al. HarpCI, empowering performers to control and transform harp sounds in live performance
Winters IV Exploring music through sound: Sonification of emotion, gesture, and corpora
JP2022169067A (en) Robot and robot system
US20220319477A1 (en) System and method for creating a sensory experience by merging biometric data with user-provided content
WO2023139849A1 (en) Emotion estimation method, content determination method, program, emotion estimation system, and content determination system
Kokoras The Sound is the Music-From Shamanism to Quantum Sound

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240711