JP2021028649A - Information processor and program - Google Patents
Information processor and program Download PDFInfo
- Publication number
- JP2021028649A JP2021028649A JP2019147200A JP2019147200A JP2021028649A JP 2021028649 A JP2021028649 A JP 2021028649A JP 2019147200 A JP2019147200 A JP 2019147200A JP 2019147200 A JP2019147200 A JP 2019147200A JP 2021028649 A JP2021028649 A JP 2021028649A
- Authority
- JP
- Japan
- Prior art keywords
- reference timing
- terminals
- data
- sound
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005540 biological transmission Effects 0.000 claims abstract description 33
- 230000010365 information processing Effects 0.000 claims description 14
- 230000033001 locomotion Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 12
- 239000004020 conductor Substances 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 11
- 238000012937 correction Methods 0.000 abstract description 5
- 239000000284 extract Substances 0.000 abstract description 4
- 238000013139 quantization Methods 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 39
- 238000000034 method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 230000011664 signaling Effects 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000009527 percussion Methods 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、複数の演奏者が遠隔で合奏を行うための技術に関する。 The present invention relates to a technique for a plurality of performers to perform an ensemble remotely.
第5世代移動通信システム(いわゆる5G)の特徴として通信の低遅延があり、この特徴を活かしたサービスが検討されている。そのサービスの1つに、離れた場所に居る複数のユーザがネットワーク経由でタイミングを合わせて合奏を行い得るようにするサービスが検討されている。例えば特許文献1には、ネットワーク接続されたあるミキサーから他のミキサーに対してミキサー間の通信の遅延時間に応じたタイミングで演奏開始信号を送信し、以降は、各ミキサーが自身の電波時計に従ってクリック音を発生することにより、各演奏者に演奏のテンポを知らせる仕組みが開示されている。 A feature of the 5th generation mobile communication system (so-called 5G) is low communication delay, and services that take advantage of this feature are being studied. As one of the services, a service that enables a plurality of users in remote locations to perform an ensemble in a timely manner via a network is being studied. For example, in Patent Document 1, a performance start signal is transmitted from a network-connected mixer to another mixer at a timing corresponding to the delay time of communication between the mixers, and thereafter, each mixer follows its own radio clock. A mechanism for notifying each performer of the tempo of the performance by generating a click sound is disclosed.
演奏のテンポは、その楽譜上において予め決まっているが、そのテンポの基準となる行為(例えばドラムの演奏や指揮者の指揮等)によって微妙に変化することがある。そこで、本発明は、複数の演奏者が遠隔でお互いの演奏を聴きながら適切なテンポに合わせて合奏するための仕組みを提供することを目的とする。 The tempo of the performance is predetermined on the score, but it may change slightly depending on the action that is the basis of the tempo (for example, playing a drum or conducting a conductor). Therefore, an object of the present invention is to provide a mechanism for a plurality of performers to perform an ensemble at an appropriate tempo while listening to each other's performances remotely.
上記課題を解決するため、本発明は、演奏された音を示す音データ又は演奏のための動作を示す画像データを生成する複数の端末から、前記音データ又は前記画像データを取得する取得部と、前記複数の端末のうちいずれかの端末を、前記複数の端末において演奏が行われるときの基準タイミングを生成するための基準端末として特定する特定部と、前記取得部により前記基準端末から取得された前記音データ又は前記画像データに基づいて、前記基準タイミングを各々の前記端末において演奏者に提示するための基準タイミングデータを生成する生成部と、生成された前記基準タイミングデータを、前記複数の端末に送信する基準タイミングデータ送信部と、前記複数の端末のうち一の端末に対して、当該一の端末以外の複数の端末から前記取得部によりそれぞれ取得された複数の前記音データをミキシングして送信する音データ送信部とを備えることを特徴とする情報処理装置を提供する。 In order to solve the above problems, the present invention includes an acquisition unit that acquires the sound data or the image data from a plurality of terminals that generate sound data indicating the played sound or image data indicating the operation for the performance. , A specific unit that specifies one of the plurality of terminals as a reference terminal for generating a reference timing when a performance is performed on the plurality of terminals, and a specific unit that is acquired from the reference terminal by the acquisition unit. A generation unit that generates reference timing data for presenting the reference timing to the performer at each terminal based on the sound data or the image data, and the generated reference timing data are generated by the plurality of the reference timing data. The reference timing data transmission unit to be transmitted to the terminal and a plurality of the sound data acquired by the acquisition unit from a plurality of terminals other than the one terminal are mixed with one terminal of the plurality of terminals. Provided is an information processing apparatus including a sound data transmitting unit for transmitting data.
前記特定部は、前記複数の前記端末のうち少なくともいずれか一の端末に対して入力された指示に基づいて、前記基準端末を特定するようにしてもよい。 The specifying unit may specify the reference terminal based on an instruction input to at least one of the plurality of terminals.
前記特定部は、前記複数の前記端末のうち少なくともいずれか一の端末から前記取得部により取得された前記音データ又は前記画像データに基づいて、前記基準端末を特定するようにしてもよい。 The specific unit may specify the reference terminal based on the sound data or the image data acquired by the acquisition unit from at least one of the plurality of terminals.
前記画像データは、演奏を行う演奏者の動作を撮像した画像データ、又は、演奏を指揮する指揮者の動作を撮像した画像を示す画像データを含むようにしてもよい。 The image data may include image data that captures the movement of the performer who performs the performance, or image data that shows an image that captures the movement of the conductor who directs the performance.
前記生成部は、前記演奏が行われる期間のうち、第1の期間においては、前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔を補正した一定の時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成し、第2の期間においては、前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔に応じた、一定ではない時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成するようにしてもよい。 In the first period of the period in which the performance is performed, the generation unit corrects the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit. The reference timing data for presenting the reference timing is generated at the time interval, and in the second period, the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit is set. Corresponding, reference timing data for presenting the reference timing may be generated at non-constant time intervals.
前記生成部は、前記第1の期間においては、まず、予め決められた一定の時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成し、次に、前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔を補正した一定の時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成するようにしてもよい。 In the first period, the generation unit first generates reference timing data for presenting the reference timing at predetermined fixed time intervals, and then the acquisition unit generates the reference timing data from the reference terminal. The reference timing data for presenting the reference timing may be generated at a fixed time interval corrected for the time interval extracted from the acquired sound data or the image data.
前記生成部は、前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔が所定の範囲に収まらない場合に、前記第2の期間における基準タイミングデータを生成するようにしてもよい。 The generation unit generates reference timing data in the second period when the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit does not fall within a predetermined range. You may try to do it.
前記特定部は、2以上の前記端末を前記基準端末として特定し、前記生成部は、前記取得部により前記2以上の基準端末から取得された前記音データ又は前記画像データに基づいて、前記基準タイミングを各々の前記端末において提示するための基準タイミングデータを生成するようにしてもよい。 The specific unit specifies two or more of the terminals as the reference terminal, and the generation unit uses the reference unit based on the sound data or the image data acquired from the two or more reference terminals by the acquisition unit. Reference timing data for presenting the timing at each terminal may be generated.
また、本発明は、コンピュータを、演奏された音を示す音データ又は演奏のための動作を示す画像データを生成する複数の端末から、前記音データ又は前記画像データを取得する取得部と、前記複数の端末のうちいずれかの端末を、前記複数の端末において演奏が行われるときの基準タイミングを生成するための基準端末として特定する特定部と、前記取得部により前記基準端末から取得された前記音データ又は前記画像データに基づいて、前記基準タイミングを各々の前記端末において演奏者に提示するための基準タイミングデータを生成する生成部と、生成された前記基準タイミングデータを、前記複数の端末に送信する基準タイミングデータ送信部と、前記複数の端末のうち一の端末に対して、当該一の端末以外の複数の端末から前記取得部によりそれぞれ取得された複数の前記音データをミキシングして送信する音データ送信部として機能させるためのプログラムを提供する。 In addition, the present invention comprises an acquisition unit that acquires the sound data or the image data from a plurality of terminals that generate sound data indicating the played sound or image data indicating the operation for the performance of the computer. A specific unit that specifies one of the plurality of terminals as a reference terminal for generating a reference timing when a performance is performed on the plurality of terminals, and the said unit acquired from the reference terminal by the acquisition unit. A generation unit that generates reference timing data for presenting the reference timing to the performer at each of the terminals based on the sound data or the image data, and the generated reference timing data are transmitted to the plurality of terminals. A plurality of the sound data acquired by the acquisition unit from a plurality of terminals other than the one terminal are mixed and transmitted to the reference timing data transmission unit to be transmitted and one of the plurality of terminals. Provide a program for functioning as a sound data transmitter.
本発明によれば、複数の演奏者が遠隔でお互いの演奏を聴きながらタイミングを合わせて合奏することが可能となる。 According to the present invention, it is possible for a plurality of performers to perform an ensemble at the same timing while listening to each other's performances remotely.
[構成]
図1は、本実施形態の合奏システム1の一例を示す図である。合奏システム1は、例えばスマートホン、タブレット、ウェアラブル端末又はパーソナルコンピュータ等の、本発明に係る端末としてそれぞれ機能する複数のユーザ端末10a,10b,10c(以下、ユーザ端末10と総称する)と、本発明に係る情報処理装置として機能するサーバ装置20とを備える。ネットワーク2は、これらユーザ端末10及びサーバ装置20を通信可能に接続する。ネットワーク2は、例えばLAN(Local Area Network)又はWAN(Wide Area Network)、若しくはこれらの組み合わせであり、有線区間又は無線区間を含んでいる。ネットワーク2は、低遅延が特徴である第5世代移動通信システムに準拠したネットワークであることが望ましいが、必ずしもこれに限らない。なお、図1には、ユーザ端末として、ユーザ端末10a,10b,10cの3つを示しているが、これらは4以上であってもよい。
[Constitution]
FIG. 1 is a diagram showing an example of the ensemble system 1 of the present embodiment. The ensemble system 1 includes a plurality of user terminals 10a, 10b, 10c (hereinafter collectively referred to as user terminals 10) that function as terminals according to the present invention, such as a smart phone, a tablet, a wearable terminal, or a personal computer. A server device 20 that functions as an information processing device according to the present invention is provided. The network 2 connects the user terminal 10 and the server device 20 in a communicable manner. The network 2 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), or a combination thereof, and includes a wired section or a wireless section. The network 2 is preferably, but is not necessarily limited to, a network compliant with the 5th generation mobile communication system characterized by low latency. Although FIG. 1 shows three user terminals 10a, 10b, and 10c as user terminals, these may be four or more.
合奏システム1において、それぞれが演奏者たる複数のユーザは互いに離れた場所においてネットワーク2を介してタイミングを合わせた楽器の演奏(つまり合奏)を行うことができるようになっている。合奏を行う一つのグループに属する各ユーザは、例えばギター、ドラム、ベース、ピアノ等の各種楽器を演奏するときにユーザ端末10を自身の近くに置き、ユーザ端末10に実装されているプログラムを起動する。図1の例では、ユーザ端末10a,10b,10cをそれぞれ利用する3人のユーザによって、合奏を行う一つのグループが構成されているものとする。各ユーザの演奏が開始されると、各ユーザ端末10は、その演奏に係る音を収音して、その音を示す音データをネットワーク2経由でサーバ装置20に送信する。サーバ装置20は、同一グループに属する各ユーザ端末10から送信されてくる音データをミキシングして、同一グループに属する他のユーザ端末10に送信する。各ユーザ端末10は、ミキシングされた音データに応じた音を出力する。これにより各ユーザは互いの演奏を聴きながら自身の演奏を行うことができる。ただし、ネットワーク2を介した通信においては、少なからず遅延が生じる。そこで、本実施形態に係る合奏システム1は、以下に説明するような特徴を有している。 In the ensemble system 1, a plurality of users, each of whom is a performer, can perform timed musical instruments (that is, ensemble) via a network 2 at locations separated from each other. Each user who belongs to one group performing an ensemble places the user terminal 10 near himself / herself when playing various musical instruments such as a guitar, drums, bass, and piano, and activates a program implemented in the user terminal 10. To do. In the example of FIG. 1, it is assumed that one group for performing an ensemble is composed of three users who use the user terminals 10a, 10b, and 10c, respectively. When the performance of each user is started, each user terminal 10 collects the sound related to the performance and transmits the sound data indicating the sound to the server device 20 via the network 2. The server device 20 mixes the sound data transmitted from each user terminal 10 belonging to the same group and transmits it to another user terminal 10 belonging to the same group. Each user terminal 10 outputs a sound corresponding to the mixed sound data. As a result, each user can perform his / her own performance while listening to each other's performance. However, in communication via the network 2, there is a considerable delay. Therefore, the ensemble system 1 according to the present embodiment has the features as described below.
図2は、ユーザ端末10のハードウェア構成の一例を示す図である。ユーザ端末10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。ユーザ端末10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 FIG. 2 is a diagram showing an example of the hardware configuration of the user terminal 10. The user terminal 10 is physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus connecting them, and the like. In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the user terminal 10 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.
ユーザ端末10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 For each function in the user terminal 10, the processor 1001 performs an operation by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, and controls the communication by the communication device 1004, or the memory 1002. And by controlling at least one of reading and writing of data in the storage 1003.
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ1001によって実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. Further, for example, a baseband signal processing unit, a call processing unit, and the like may be realized by the processor 1001.
プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。ユーザ端末10の機能ブロックは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ1001によって実行されてもよいが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワーク2からユーザ端末10に送信されてもよい。 The processor 1001 reads a program (program code), a software module, data, and the like from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described later is used. The functional block of the user terminal 10 may be realized by a control program stored in the memory 1002 and operating in the processor 1001. Various processes may be executed by one processor 1001, but may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be implemented by one or more chips. The program may be transmitted from the network 2 to the user terminal 10 via a telecommunication line.
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to carry out the method according to the present embodiment.
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。ストレージ1003は、演奏評価プログラムや後述する楽譜データ群を記憶する。 The storage 1003 is a computer-readable recording medium, and is, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, or a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage 1003 stores a performance evaluation program and a musical score data group described later.
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、通信装置1004によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. Communication device 1004 includes, for example, a high frequency switch, a duplexer, a filter, a frequency synthesizer, etc. in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). It may be composed of. For example, the transmission / reception antenna, the amplifier unit, the transmission / reception unit, the transmission line interface, and the like may be realized by the communication device 1004. The transmission / reception unit may be physically or logically separated from each other in the transmission unit and the reception unit.
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キー、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチスクリーン)であってもよい。 The input device 1005 is an input device (for example, a key, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch screen).
プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Each device such as the processor 1001 and the memory 1002 is connected by a bus for communicating information. The bus may be configured by using a single bus, or may be configured by using a different bus for each device.
また、ユーザ端末10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 Further, the user terminal 10 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured, and the hardware may realize a part or all of each functional block. For example, processor 1001 may be implemented using at least one of these hardware.
図3は、サーバ装置20のハードウェア構成を示す図である。サーバ装置20のハードウェア構成は、図2に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。また、それぞれ筐体が異なる複数の装置が通信接続されて、サーバ装置20を構成してもよい。 FIG. 3 is a diagram showing a hardware configuration of the server device 20. The hardware configuration of the server device 20 may be configured to include one or more of the devices shown in FIG. 2, or may be configured not to include some of the devices. Further, a plurality of devices having different housings may be connected by communication to form the server device 20.
サーバ装置20は、物理的には、プロセッサ2001、メモリ2002、ストレージ2003、通信装置2004、入力装置2005、出力装置2006、及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。サーバ装置20における各機能は、プロセッサ2001、メモリ2002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ2001が演算を行い、通信装置2004による通信を制御したり、メモリ2002及びストレージ2003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。プロセッサ2001、メモリ2002、ストレージ2003、通信装置2004、入力装置2005、出力装置2006、及びこれらを接続するバスは、ユーザ端末10について説明したプロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、及びこれらを接続するバスと、ハードウェアとしては同様であるため、その説明を省略する。ただし、通信装置2004は、無線通信の通信規格に従って通信を行うためのハードウェアである必要はなく、任意の有線通信の通信規格に従ってネットワーク2を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であってもよい。 The server device 20 is physically configured as a computer device including a processor 2001, a memory 2002, a storage 2003, a communication device 2004, an input device 2005, an output device 2006, a bus connecting them, and the like. For each function in the server device 20, by loading predetermined software (program) on hardware such as the processor 2001 and the memory 2002, the processor 2001 performs an operation and controls communication by the communication device 2004, or the memory 2002. And by controlling at least one of reading and writing of data in the storage 2003. The processor 2001, the memory 2002, the storage 2003, the communication device 2004, the input device 2005, the output device 2006, and the bus connecting them are the processor 1001, the memory 1002, the storage 1003, the communication device 1004, and the input device described for the user terminal 10. Since the hardware is the same as that of 1005, the output device 1006, and the bus connecting them, the description thereof will be omitted. However, the communication device 2004 does not have to be the hardware for performing communication according to the communication standard of wireless communication, and the hardware for performing communication between computers via the network 2 according to the communication standard of arbitrary wired communication (the hardware for performing communication between computers. It may be a transmission / reception device).
図4は、合奏システム1の機能構成の一例を示すブロック図である。図3に示すように、ユーザ端末10においては、入力部11と、出力部12という機能が実現される。また、サーバ装置20においては、取得部21と、特定部22と、生成部23と、基準タイミングデータ送信部24と、音データ送信部25という機能が実現される。 FIG. 4 is a block diagram showing an example of the functional configuration of the ensemble system 1. As shown in FIG. 3, in the user terminal 10, the functions of the input unit 11 and the output unit 12 are realized. Further, in the server device 20, the functions of the acquisition unit 21, the specific unit 22, the generation unit 23, the reference timing data transmission unit 24, and the sound data transmission unit 25 are realized.
各ユーザ端末10において、入力部11は、ユーザが楽器を演奏したときの音(演奏音という)を収音し、その演奏音を示す音データを生成してネットワーク2経由でサーバ装置20に送信する。 In each user terminal 10, the input unit 11 collects a sound (referred to as a performance sound) when the user plays a musical instrument, generates sound data indicating the performance sound, and transmits the sound data to the server device 20 via the network 2. To do.
サーバ装置20において、取得部21は、各々のユーザ端末10からネットワーク2経由で各種データを取得する。例えば、取得部21は、各々のユーザ端末10からネットワーク2経由で、各々のユーザ端末10の入力部11により生成された音データを取得する。 In the server device 20, the acquisition unit 21 acquires various data from each user terminal 10 via the network 2. For example, the acquisition unit 21 acquires the sound data generated by the input unit 11 of each user terminal 10 from each user terminal 10 via the network 2.
サーバ装置20において、特定部22は、同一グループに属する複数のユーザ端末10のうちいずれかのユーザ端末10を、これらのユーザ端末10において演奏が行われるときの基準タイミングを生成するために用いる端末(以下、基準端末という)として特定する。より具体的には、特定部22は、同一グループに属する複数のユーザ端末10のうち少なくともいずれか一のユーザ端末10に対してユーザにより入力された指示に基づいて、基準端末を特定する。例えば、特定部22は、ドラムの演奏音に基づいて基準タイミングが生成されるという条件において、ドラムの演奏音を収音する旨の指示がユーザにより入力されたユーザ端末10、又は、基準端末として機能する旨の指示がユーザにより入力されたユーザ端末10を、基準端末として特定する。基準タイミングは、例えば楽曲のテンポ(拍子又はリズムとも呼ばれる)に相当するものであり、例えば楽曲のテンポが一定であるならば、同一グループに属する各ユーザ端末10において基準タイミングが一定間隔で繰り返しユーザに提示されることになる。各ユーザは、各ユーザ端末10において提示される基準タイミングに合わせて、自身の演奏を行う。 In the server device 20, the specific unit 22 uses any of a plurality of user terminals 10 belonging to the same group to generate a reference timing when a performance is performed on these user terminals 10. (Hereinafter referred to as a reference terminal). More specifically, the specifying unit 22 identifies the reference terminal based on the instruction input by the user to at least one of the plurality of user terminals 10 belonging to the same group. For example, the specific unit 22 can be used as a user terminal 10 or a reference terminal in which an instruction to collect the drum performance sound is input by the user on the condition that the reference timing is generated based on the drum performance sound. The user terminal 10 for which the instruction to function is input by the user is specified as a reference terminal. The reference timing corresponds to, for example, the tempo of a musical piece (also called a time signature or a rhythm). For example, if the tempo of the musical piece is constant, the reference timing is repeated at regular intervals in each user terminal 10 belonging to the same group. Will be presented to. Each user performs his / her own performance in accordance with the reference timing presented at each user terminal 10.
サーバ装置20において、生成部23は、同一グループに属する各々のユーザ端末10において基準タイミングを提示するための基準タイミングデータを生成する。 In the server device 20, the generation unit 23 generates reference timing data for presenting the reference timing in each user terminal 10 belonging to the same group.
サーバ装置20において、基準タイミングデータ送信部24は、生成部23により生成された基準タイミングデータを、同一グループに属する各ユーザ端末10に送信する。 In the server device 20, the reference timing data transmission unit 24 transmits the reference timing data generated by the generation unit 23 to each user terminal 10 belonging to the same group.
サーバ装置20において、音データ送信部25は、同一グループに属するユーザ端末10群のうち一のユーザ端末10に対して、当該一のユーザ端末10以外の複数のユーザ端末10から取得部21によりそれぞれ取得された音データをミキシングして送信する。 In the server device 20, the sound data transmission unit 25 receives from a plurality of user terminals 10 other than the one user terminal 10 for one user terminal 10 in the user terminal 10 group belonging to the same group, respectively. The acquired sound data is mixed and transmitted.
各ユーザ端末10において、出力部12は、サーバ装置20の基準タイミングデータ送信部24から送信されてくる基準タイミングデータに応じて基準タイミングをユーザに提示する。また、出力部12は、サーバ装置20の音データ送信部25から送信されてくる音データに応じた音(演奏音)を出力する。 In each user terminal 10, the output unit 12 presents the reference timing to the user according to the reference timing data transmitted from the reference timing data transmission unit 24 of the server device 20. Further, the output unit 12 outputs a sound (performance sound) corresponding to the sound data transmitted from the sound data transmission unit 25 of the server device 20.
[動作]
図5〜図7を参照して、サーバ装置20の動作について説明する。図5に示す各処理の手順は、サーバ装置20に実装されているプログラムに記述されている。図5において、1の楽曲を合奏する複数(ここでは3人とする)のユーザはそれぞれ、自身のユーザ端末10a,10b,10cを操作して、楽曲の演奏を開始する日時や、その楽曲及び自身が演奏する楽器(パートともいう)を指定する情報等を含む設定情報を入力する。ここでは、楽曲の演奏を開始する日時として「10時10分」が入力され、演奏される楽曲として「楽曲a」が指定され、さらに、ユーザ端末10aのユーザがドラムを演奏し、ユーザ端末10bのユーザがギターを演奏し、ユーザ端末10cのユーザがベースを演奏することが指定されたとする。サーバ装置20の取得部21は、これらの設定情報を各ユーザ端末10からネットワーク2経由で取得する(ステップS11)。
[motion]
The operation of the server device 20 will be described with reference to FIGS. 5 to 7. The procedure of each process shown in FIG. 5 is described in the program implemented in the server device 20. In FIG. 5, a plurality of users (here, three people) who play one musical piece ensemble each of them by operating their own user terminals 10a, 10b, and 10c, the date and time when the music starts to be played, the music, and the music. Enter setting information including information that specifies the instrument (also called a part) to be played by oneself. Here, "10:10" is input as the date and time when the performance of the music is started, "music a" is specified as the music to be played, and the user of the user terminal 10a plays the drum, and the user terminal 10b Is specified to play the guitar and the user of the user terminal 10c to play the bass. The acquisition unit 21 of the server device 20 acquires these setting information from each user terminal 10 via the network 2 (step S11).
サーバ装置20において、特定部22は、上記設定情報に基づいて基準端末を特定する(ステップS12)。ここでは、ドラムの演奏音に基づいて基準タイミングが生成されるという条件において、特定部22は、演奏される楽器としてドラムを指定する情報が入力されたユーザ端末10aを基準端末として特定する。 In the server device 20, the specifying unit 22 specifies the reference terminal based on the above setting information (step S12). Here, on the condition that the reference timing is generated based on the playing sound of the drum, the specifying unit 22 specifies the user terminal 10a into which the information for designating the drum as the musical instrument to be played is input as the reference terminal.
サーバ装置20において、生成部23は、上記設定情報に基づいて基準タイミングデータを生成する(ステップS13)。具体的には、生成部23は、楽曲の楽曲名とその楽曲の楽譜上のテンポとを対応付けたデータベースを記憶しており、上記設定情報に含まれる楽曲名「楽曲a」に対応するテンポ(例えば60bpm)を特定する。テンポが60bpmである場合、生成部23は、1秒おきに基準タイミングを提示するための基準タイミングデータを生成することになる。この基準タイミングデータは、例えば、基準タイミングの提示開始時期(例えば10時10分)と基準タイミングの時間間隔(例えば1秒)とを指定して、指定した提示開始時期から指定した時間間隔で基準タイミングをユーザに提示することをユーザ端末10に指示するデータであってもよい。また、この基準タイミングデータは、例えば基準タイミングを提示する時期を都度指定してその時期に基準タイミングをユーザに提示することをユーザ端末10に指示するデータであってもよい。なお、前者のように、指定した提示開始時期から指定した時間間隔で基準タイミングを提示することをユーザ端末10に指示する場合は、各ユーザ端末10とサーバ装置20とが備えるタイマが同期していることが必要となる。 In the server device 20, the generation unit 23 generates reference timing data based on the above setting information (step S13). Specifically, the generation unit 23 stores a database in which the music name of the music and the tempo on the score of the music are associated with each other, and the tempo corresponding to the music name "music a" included in the above setting information. (Eg 60 bpm) is specified. When the tempo is 60 bpm, the generation unit 23 will generate reference timing data for presenting the reference timing every second. For this reference timing data, for example, the presentation start time of the reference timing (for example, 10:10) and the time interval of the reference timing (for example, 1 second) are specified, and the reference is performed at the specified time interval from the specified presentation start time. It may be data instructing the user terminal 10 to present the timing to the user. Further, the reference timing data may be data for instructing the user terminal 10 to specify, for example, a time for presenting the reference timing each time and to present the reference timing to the user at that time. When instructing the user terminal 10 to present the reference timing at the specified time interval from the specified presentation start time as in the former case, the timers provided by each user terminal 10 and the server device 20 synchronize with each other. It is necessary to be there.
次に、サーバ装置20において、基準タイミングデータ送信部24は、各ユーザ端末10a,10b,10cに対して、基準タイミングを各ユーザに提示させるべく、基準タイミングデータの送信を開始する(ステップS14)。まず、基準タイミングデータ送信部24は、サーバ装置20と各ユーザ端末10a,10b,10cとの間の通信経路における通信の遅延量を測定する。この遅延量の測定は、例えば基準タイミングデータ送信部24から各ユーザ端末10a,10b,10cに遅延量の測定用パケットを送信し、その応答が返ってくるまでの時間に基づいて計算する等の方法や、逆に、各ユーザ端末10a,10b,10cからサーバ装置20に遅延量の測定用パケットを送信し、その応答が返ってくるまでの時間に基づいて各ユーザ端末10a,10b,10が計算した遅延量を基準タイミングデータ送信部24が取得する等の方法がある。ここでは、このような測定の結果、サーバ装置20とユーザ端末10aとの間の通信経路の遅延量が10ms(同通信経路の往復で20ms)であり、サーバ装置20とユーザ端末10bとの間の通信経路の遅延量が20ms(同通信経路の往復で40ms)であり、サーバ装置20とユーザ端末10cとの間の通信経路の遅延量が30ms(同通信経路の往復で60ms)であったとする。 Next, in the server device 20, the reference timing data transmission unit 24 starts transmitting reference timing data to each user terminal 10a, 10b, 10c so that each user can present the reference timing (step S14). .. First, the reference timing data transmission unit 24 measures the amount of communication delay in the communication path between the server device 20 and each user terminal 10a, 10b, 10c. The delay amount is measured, for example, by transmitting a delay amount measurement packet from the reference timing data transmission unit 24 to each user terminal 10a, 10b, 10c, and calculating based on the time until the response is returned. The method, or conversely, each user terminal 10a, 10b, 10c transmits a delay amount measurement packet from each user terminal 10a, 10b, 10c to the server device 20, and each user terminal 10a, 10b, 10 is based on the time until the response is returned. There is a method such that the reference timing data transmission unit 24 acquires the calculated delay amount. Here, as a result of such measurement, the delay amount of the communication path between the server device 20 and the user terminal 10a is 10 ms (20 ms for the round trip of the same communication path), and between the server device 20 and the user terminal 10b. The delay amount of the communication path was 20 ms (40 ms for the round trip of the same communication path), and the delay amount of the communication path between the server device 20 and the user terminal 10c was 30 ms (60 ms for the round trip of the same communication path). To do.
ここで、図6は、サーバ装置20における音データ(図の最上段)と、ユーザ端末10aにおける音データ(上から2段目)と、ユーザ端末10bにおける音データ(上から3段目)と、ユーザ端末10cにおける音データ(最下段)との時系列の関係を説明する図である。図6において横軸は時間である。図6に示すように、サーバ装置20において、ユーザ端末10aに入力されてサーバ装置20に送信されてくるドラムの音データ(以下、P1音源という)と、ユーザ端末10bに入力されてサーバ装置20に送信されてくるギターの音データ(以下、P2音源という)と、ユーザ端末10cに入力されてサーバ装置20に送信されてくるベースの音データ(以下、P3音源という)とが、サーバ装置20に同時に到達することで、これらのP1音源、P2音源、P3音源とが同期した音データ(以下、合奏音源という)が生成される。 Here, FIG. 6 shows the sound data in the server device 20 (top of the figure), the sound data in the user terminal 10a (second from the top), and the sound data in the user terminal 10b (third from the top). , Is a diagram for explaining the time-series relationship with the sound data (bottom) in the user terminal 10c. In FIG. 6, the horizontal axis is time. As shown in FIG. 6, in the server device 20, the drum sound data (hereinafter referred to as P1 sound source) input to the user terminal 10a and transmitted to the server device 20 and the drum sound data input to the user terminal 10b and transmitted to the server device 20 The guitar sound data (hereinafter referred to as P2 sound source) transmitted to the server device 20 and the base sound data (hereinafter referred to as P3 sound source) input to the user terminal 10c and transmitted to the server device 20 are the server device 20. At the same time, sound data (hereinafter referred to as an ensemble sound source) synchronized with these P1 sound source, P2 sound source, and P3 sound source is generated.
この場合、ユーザ端末10aにおいては前述したように遅延量が10msであるから、例えば演奏開始の10時10分の10ms前からドラムの演奏を開始すると、その音データがサーバ装置20に到達する時刻が、ちょうど演奏開始の10時10分となる。同様に、ユーザ端末10bにおいては前述したように遅延量が20msであるから、例えば演奏開始の10時10分の20ms前からギターの演奏を開始すると、その音データがサーバ装置20に到達する時刻が、ちょうど演奏開始の10時10分となる。同様に、ユーザ端末10cにおいては前述したように遅延量が30msであるから、例えば演奏開始の10時10分の30ms前からベースの演奏を開始すると、その音データがサーバ装置20に到達する時刻が、ちょうど演奏開始の10時10分となる。このため、基準タイミングデータ送信部24は、各ユーザ端末10に対して、対応する遅延量に相当する期間だけ早く基準タイミングを提示することを指示する基準タイミングデータを送信する。 In this case, since the delay amount is 10 ms in the user terminal 10a as described above, for example, if the drum performance is started 10 ms before the start of the performance, the time when the sound data reaches the server device 20. However, it is just 10:10 when the performance starts. Similarly, since the delay amount of the user terminal 10b is 20 ms as described above, for example, when the guitar performance is started 20 ms before the start of the performance, the time when the sound data reaches the server device 20. However, it is just 10:10 when the performance starts. Similarly, since the delay amount of the user terminal 10c is 30 ms as described above, for example, if the bass performance is started 30 ms before the start of the performance, the time when the sound data reaches the server device 20. However, it is just 10:10 when the performance starts. Therefore, the reference timing data transmission unit 24 transmits reference timing data instructing each user terminal 10 to present the reference timing earlier by a period corresponding to the corresponding delay amount.
ここで、図7は、各ユーザ端末10における基準タイミングの提示の方法を例示した図である。図7において、横軸は時間である。基準タイミングは、各ユーザ端末10において、楽曲のテンポに応じて放音されるクリッカー音のような音で提示してもよいし(図7の最上段)、楽曲のテンポに応じて動きが変化する、いわゆるレベルメータのような動画で提示してもよいし(図7の上から2段目)、楽曲のテンポをカウントする数字の表示によって提示してもよいし(図7の上から3段目)、楽曲のテンポに応じて各ユーザ端末10の表示領域の背景色が反転するような色の変化によって提示してもよい(図7の最下段)。なお、図7において、ボーカル映像、ギター映像、ドラム映像、ベース映像と表記された表示エリアには、例えばボーカル、ギター、ドラム、ベースのそれぞれの演奏を模したイラスト画像などが表示されるようになっている。 Here, FIG. 7 is a diagram illustrating a method of presenting a reference timing in each user terminal 10. In FIG. 7, the horizontal axis is time. The reference timing may be presented on each user terminal 10 as a sound such as a clicker sound emitted according to the tempo of the musical piece (top of FIG. 7), or the movement changes according to the tempo of the musical piece. It may be presented as a moving image such as a so-called level meter (second row from the top of FIG. 7), or it may be presented by displaying a number that counts the tempo of the music (3 from the top of FIG. 7). The stage) may be presented by changing the color so that the background color of the display area of each user terminal 10 is inverted according to the tempo of the music (bottom of FIG. 7). In FIG. 7, in the display area described as vocal image, guitar image, drum image, and bass image, for example, illustration images simulating the performances of vocal, guitar, drum, and bass are displayed. It has become.
そして、各ユーザが指示された演奏開始の時期から演奏を開始すると、各ユーザ端末10の入力部11は、ユーザによる楽器の演奏音を収音して、その演奏音を示す音データを生成してネットワーク2経由でサーバ装置20に送信する。サーバ装置20の取得部21はこれらの音データを取得し、音データ送信部25は、これら音データをミキシングして各ユーザ端末10に送信する処理を開始する(ステップS15)。 Then, when the performance is started from the time when each user is instructed to start the performance, the input unit 11 of each user terminal 10 collects the performance sound of the musical instrument by the user and generates sound data indicating the performance sound. Is transmitted to the server device 20 via the network 2. The acquisition unit 21 of the server device 20 acquires these sound data, and the sound data transmission unit 25 starts a process of mixing these sound data and transmitting them to each user terminal 10 (step S15).
ここで、前述したように、各ユーザ端末10においては、演奏開始10時10分よりも各々の遅延量に応じた期間だけ早く演奏が開始されるが、各ユーザ端末10において生成された音データがサーバ装置20に到達する時刻は、ちょうど演奏開始の10時10分となる。サーバ装置20に到達してミキシングされた音データ(合奏音源)は、サーバ装置20から各ユーザ端末10に送信されることになるが、このとき、音データが各ユーザ端末10に到達する時期は、サーバ装置20から各ユーザ端末10に送信されてから、各ユーザ端末10に対応する遅延量だけ遅くなる。このため、図6に示したように、ユーザ端末10aから出力される合奏音源(ユーザ端末10b,10cに入力されたギター及びベースの音データ)は、本来の演奏開始10時10分よりも10msよりも遅いタイミングで出力が開始される。同様に、ユーザ端末10bから出力される合奏音源(ユーザ端末10a,10cに入力されたドラム及びベースの音データ)は、本来の演奏開始10時10分よりも20msよりも遅いタイミングで出力が開始される。同様に、ユーザ端末10cから出力される合奏音源(ユーザ端末10a,10bに入力されたドラム及びギターの音データ)は、本来の演奏開始10時10分よりも30msよりも遅いタイミングで出力が開始される。 Here, as described above, in each user terminal 10, the performance is started earlier than 10:10, which is the period corresponding to each delay amount, but the sound data generated in each user terminal 10 is generated. The time when the player reaches the server device 20 is exactly 10:10 when the performance starts. The sound data (ensemble sound source) that has reached the server device 20 and is mixed is transmitted from the server device 20 to each user terminal 10. At this time, the time when the sound data reaches each user terminal 10 is After being transmitted from the server device 20 to each user terminal 10, the delay is increased by the amount of delay corresponding to each user terminal 10. Therefore, as shown in FIG. 6, the ensemble sound source (guitar and bass sound data input to the user terminals 10b and 10c) output from the user terminal 10a is 10 ms from the original start of performance at 10:10. Output starts at a later timing. Similarly, the ensemble sound source (drum and bass sound data input to the user terminals 10a and 10c) output from the user terminal 10b starts to be output at a timing later than 20 ms from the original performance start of 10:10. Will be done. Similarly, the ensemble sound source (drum and guitar sound data input to the user terminals 10a and 10b) output from the user terminal 10c starts to be output at a timing later than 30 ms from the original performance start of 10:10. Will be done.
従って、各ユーザは、自身が行う演奏とユーザ端末10から出力される合奏音源と間に、上記のような遅延量に相当するズレを感じることがある。ただし、そのズレは数msから数十ms程度なので、ユーザの演奏行為に対して大きな支障はないと考えられる。各ユーザは自身の演奏を合奏音源に合わせるのではなく、あくまで、ユーザ端末10から提示される基準タイミングに合わせて自身の演奏を行えばよい。 Therefore, each user may feel a deviation corresponding to the above-mentioned delay amount between the performance performed by himself / herself and the ensemble sound source output from the user terminal 10. However, since the deviation is about several ms to several tens of ms, it is considered that there is no major hindrance to the user's playing behavior. Each user does not adjust his / her own performance to the ensemble sound source, but may perform his / her own performance according to the reference timing presented from the user terminal 10.
上記のように、演奏の開始時においては楽曲ごとに楽譜上で定められたテンポに従い、各ユーザによる合奏が行われる。ただし、楽曲のテンポは、例えば演奏中のドラムの演奏によって微妙に変化することがある。このため本実施形態において、サーバ装置20の生成部23は、演奏の開始時における楽譜上のテンポに応じた基準タイミングから、実際の演奏(基準端末における演奏)に即したテンポに応じた基準タイミングへと変更する(図5:ステップS16)。 As described above, at the start of the performance, each user performs an ensemble according to the tempo determined on the score for each song. However, the tempo of the music may change slightly depending on, for example, the performance of the drum being played. Therefore, in the present embodiment, the generation unit 23 of the server device 20 changes from the reference timing according to the tempo on the score at the start of the performance to the reference timing according to the tempo according to the actual performance (performance on the reference terminal). (Fig. 5: Step S16).
具体的には、生成部23は、演奏開始の時点から、特定部22により特定された基準端末から取得した音データを蓄積しておき、蓄積した音データからテンポを抽出する。このテンポの抽出は、例えば基準端末から取得した音データを解析して音圧のピークを検出し、そのピーク間の時間を算出するとか、基準端末から取得した音データを解析して所定周波数域に属する音のタイミングを検出し、そのタイミング間の時間を算出する等の方法で実現される。そして、生成部23は、抽出したテンポがn(nは所定の閾値)回連続して、演奏開始時に設定したテンポを中心とした所定範囲内(例えば演奏開始時に設定したテンポ100bpmに対して、±5bpmの95bpm〜105bpm)に属する場合、その抽出したn個のテンポについてクオンタイズ等の補正処理を経た値を基準タイミングとして、基準タイミングデータを生成する。このような基準端末における演奏に基づく基準タイミングデータの生成は、楽曲の演奏終了に至るまで常時繰り返し実行される。基準タイミングデータが変更されると、基準タイミングデータ送信部24は、各ユーザ端末10に対して、新たに生成された基準タイミングデータを送信する。このステップS16の処理は、演奏が終了するまで(ステップS17;NO)繰り返される。 Specifically, the generation unit 23 accumulates sound data acquired from the reference terminal specified by the specific unit 22 from the start of the performance, and extracts the tempo from the accumulated sound data. For this tempo extraction, for example, the sound data acquired from the reference terminal is analyzed to detect the peak of the sound pressure and the time between the peaks is calculated, or the sound data acquired from the reference terminal is analyzed to determine a predetermined frequency range. It is realized by a method such as detecting the timing of the sound belonging to the above and calculating the time between the timings. Then, the generation unit 23 continuously extracts the extracted tempo n (n is a predetermined threshold value) within a predetermined range centered on the tempo set at the start of the performance (for example, with respect to the tempo 100 bpm set at the start of the performance). When it belongs to (95 bpm to 105 bpm of ± 5 bpm), the reference timing data is generated by using the value of the extracted n tempos that have undergone correction processing such as quantizing as the reference timing. The generation of the reference timing data based on the performance on the reference terminal is always and repeatedly executed until the end of the performance of the music. When the reference timing data is changed, the reference timing data transmission unit 24 transmits the newly generated reference timing data to each user terminal 10. The process of step S16 is repeated until the performance is completed (step S17; NO).
以上説明した実施形態によれば、同一グループに属するユーザ端末10のうち、基準タイミングを生成するために適したユーザ端末10が基準端末として特定されるから、複数のユーザが遠隔でお互いの演奏を聴きながら適切なテンポで合奏することが可能となる。 According to the embodiment described above, among the user terminals 10 belonging to the same group, the user terminal 10 suitable for generating the reference timing is specified as the reference terminal, so that a plurality of users can remotely play each other. It is possible to perform ensemble at an appropriate tempo while listening.
[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
本発明における演奏とは、実施形態で例示した楽器の演奏に限らず、歌唱或いは声楽による演奏をも含む概念である。
[Modification example]
The present invention is not limited to the embodiments described above. The above-described embodiment may be modified as follows. Further, the following two or more modified examples may be combined and carried out.
[Modification 1]
The performance in the present invention is a concept that includes not only the performance of the musical instrument exemplified in the embodiment but also the performance by singing or vocal music.
[変形例2]
上記実施形態においては、基準端末における演奏の音データに基づいて基準タイミングデータを生成していたが、基準タイミングデータの生成方法はこれに限らない。例えば、サーバ装置20の生成部23は、演奏のための動作を示す画像データに基づいて基準タイミングデータを生成するようにしてもよい。演奏のための動作を示す画像データとは、演奏を行うユーザの演奏動作を示す画像データ、又は、演奏を指揮する指揮者の動作を撮像した画像を示す画像データを含む。この場合、サーバ装置20の取得部21は、基準端末の入力部11に含まれる撮像装置によって上記動作が撮像された画像データを、ネットワーク2経由で取得する。そして、サーバ装置20の生成部23は、取得部21により基準端末から取得された画像データに基づいて、基準タイミングを各々のユーザ端末10においてユーザに提示するための基準タイミングデータを生成する。具体的には、生成部23は、基準端末から取得された画像データを画像解析して、楽曲のテンポに相当するタイミングで行われる特徴的な動作(例えばドラムを叩く動作や、指揮棒を振り上げる/振り下げる動作)を画像パターンマッチング等の技術によって抽出し、その動作間の時間を算出することで基準タイミングを特定する。
[Modification 2]
In the above embodiment, the reference timing data is generated based on the sound data of the performance on the reference terminal, but the method of generating the reference timing data is not limited to this. For example, the generation unit 23 of the server device 20 may generate reference timing data based on image data indicating an operation for playing. The image data showing the movement for performance includes image data showing the performance movement of the user performing the performance or image data showing an image of the movement of the conductor who directs the performance. In this case, the acquisition unit 21 of the server device 20 acquires the image data in which the above operation is captured by the image pickup device included in the input unit 11 of the reference terminal via the network 2. Then, the generation unit 23 of the server device 20 generates reference timing data for presenting the reference timing to the user at each user terminal 10 based on the image data acquired from the reference terminal by the acquisition unit 21. Specifically, the generation unit 23 analyzes the image data acquired from the reference terminal and performs a characteristic operation (for example, a drum striking operation or a baton swinging up) performed at a timing corresponding to the tempo of the music. The reference timing is specified by extracting the motion of swinging down) by a technique such as image pattern matching and calculating the time between the motions.
[変形例3]
上記実施形態においては、ユーザ端末10に対してユーザにより入力された指示に基づいて、基準端末を特定していたが、基準端末の特定方法はこれに限らない。例えば、サーバ装置20の特定部22は、
同一グループに属する複数のユーザ端末10のうち少なくともいずれか一のユーザ端末10から取得部21により取得された音データ又は画像データに基づいて、基準端末を特定するようにしてもよい。この音データは、ユーザ端末10において生成された、ユーザの演奏音を示す音データである。また、この画像データは、変形例2で説明したような、演奏を行うユーザの演奏動作を示す画像データ、又は、演奏を指揮する指揮者の動作を撮像した画像を示す画像データである。具体的には、特定部22は、ドラムの演奏音に基づいて基準タイミングが生成されるという条件において、各ユーザ端末10から取得された音データを周波数解析してドラムの演奏音を識別し、そのドラムの演奏音を収音しているユーザ端末10を基準端末として特定する。また、特定部22は、ドラムの演奏音に基づいて基準タイミングが生成されるという条件において、各ユーザ端末10から取得された画像データを画像解析して、ドラムの演奏と推定される動作を画像パターンマッチング等の技術によって識別し、そのドラムの演奏音を収音しているユーザ端末10を基準端末として特定する。また、特定部22は、指揮者の指揮に基づいて基準タイミングが生成されるという条件において、各ユーザ端末10から取得された画像データを画像解析して、演奏の指揮と推定される動作を画像パターンマッチング等の技術によって識別し、その指揮者の動作を撮像しているユーザ端末10を基準端末として特定する。
[Modification 3]
In the above embodiment, the reference terminal is specified based on the instruction input by the user to the user terminal 10, but the method for specifying the reference terminal is not limited to this. For example, the specific unit 22 of the server device 20 may be
The reference terminal may be specified based on the sound data or the image data acquired by the acquisition unit 21 from the user terminal 10 of at least one of the plurality of user terminals 10 belonging to the same group. This sound data is sound data indicating a user's performance sound generated by the user terminal 10. Further, the image data is image data showing the performance operation of the user performing the performance as described in the second modification, or image data showing the image obtained by capturing the operation of the conductor who directs the performance. Specifically, the specific unit 22 frequency-analyzes the sound data acquired from each user terminal 10 on the condition that the reference timing is generated based on the playing sound of the drum, and identifies the playing sound of the drum. The user terminal 10 that collects the performance sound of the drum is specified as a reference terminal. Further, the specific unit 22 analyzes the image data acquired from each user terminal 10 on the condition that the reference timing is generated based on the performance sound of the drum, and images the operation estimated to be the performance of the drum. The user terminal 10 that is identified by a technique such as pattern matching and collects the performance sound of the drum is specified as a reference terminal. Further, the specific unit 22 analyzes the image data acquired from each user terminal 10 on the condition that the reference timing is generated based on the command of the conductor, and images the motion presumed to be the command of the performance. The user terminal 10 that is identified by a technique such as pattern matching and images the movement of the conductor is specified as a reference terminal.
また、例えばドラムの演奏音に基づいて基準タイミングが生成されるという条件から、パーカッションの演奏音に基づいて基準タイミングが生成されるという条件へと演奏中に変更する場合において、上記のような音データ又は画像データに基づいて基準端末を特定するような方法を適用して、基準端末を演奏中に変更するようにしてもよい。楽曲中のどの区間において、ドラムの演奏音に基づいて基準タイミングが生成されるという条件とし、また、パーカッションの演奏音に基づいて基準タイミングが生成されるという条件とするかは、楽曲ごとに予め決められているか、又は、ユーザが指定するようにすればよい。 Further, for example, when changing from the condition that the reference timing is generated based on the playing sound of the drum to the condition that the reference timing is generated based on the playing sound of the percussion during the performance, the above-mentioned sound is obtained. A method of identifying a reference terminal based on data or image data may be applied to change the reference terminal during performance. In which section of the song, the condition that the reference timing is generated based on the playing sound of the drum and the condition that the reference timing is generated based on the playing sound of the percussion are determined in advance for each song. It may be decided or specified by the user.
また、特定部22は、楽器における一時的な消音等の事由により基準端末から音データが取得できなくなった場合には、予め定めた優先順位に従い、その優先順位が次順のユーザ端末10を基準端末として特定してもよい。具体的には、優先順位としてドラムを第1優先順位とし、ベースを第2優先順位として予め決められている場合、ドラムの演奏音を収音していたユーザ端末10(つまりこの時点での基準端末)から消音等により音データが取得できなくなった場合には、特定部22は、優先順位が次順のベースの演奏音を収音していたユーザ端末10を基準端末として特定すればよい。 Further, when the sound data cannot be acquired from the reference terminal due to a reason such as temporary muffling of the musical instrument, the specific unit 22 follows the predetermined priority and refers to the user terminal 10 having the next priority. It may be specified as a terminal. Specifically, when the drum is set as the first priority and the bass is set as the second priority in advance as the priority, the user terminal 10 that has picked up the playing sound of the drum (that is, the reference at this point). When the sound data cannot be acquired from the terminal) due to muffling or the like, the specifying unit 22 may specify the user terminal 10 that has picked up the performance sound of the bass having the next priority as the reference terminal.
[変形例4]
楽曲において、基準タイミングを一定にしたい区間(第1の期間)と、演奏等に応じて意図的に変更したい区間(第2の期間)とがあるケースも考えられる。基準タイミングを一定にしたい区間においては、基準端末における演奏者によって生み出されるテンポのズレを補正することで、規則正しいテンポに従う合奏となる。一方、基準タイミングを演奏等に応じて意図的に変更したい区間においては、基準端末における演奏者によって生み出されるテンポが基準タイミングとなるから、情感やアドリブにあふれる合奏となる。この場合、生成部23は、演奏が行われる期間のうち、第1の期間においては、取得部21により基準端末から取得された音データ又は画像データから抽出される時間間隔を補正した一定の時間間隔で基準タイミングを出力するための基準タイミングデータを生成する。具体的には、実施形態で説明したように、生成部23は、予め決められた一定の時間間隔で基準タイミングを出力するための基準タイミングデータを生成し、次に、抽出したテンポがn(nは所定の閾値)回連続して、演奏開始時に設定したテンポを中心とした所定範囲内(例えば演奏開始時に設定したテンポ100bpmに対して、±5bpmの95bpm〜105bpm)に属する場合、その抽出したn個のテンポについてクオンタイズ等の補正処理を経た値を基準タイミングとして、基準タイミングデータを生成する。一方、生成部23は、抽出したテンポがn(nは所定の閾値)回連続して、演奏開始時に設定したテンポを中心とした所定範囲内(例えば演奏開始時に設定したテンポ100bpmに対して、±5bpmの95bpm〜105bpm)に属しない場合、上記のような補正処理は行わずに、抽出したテンポをそのまま基準タイミングとして基準タイミングデータを生成する。つまり、生成部23は、基準端末から取得した音データに基づいて抽出したテンポを、その次に各ユーザ端末10において提示する基準タイミングのテンポとする。よって、基準端末における演奏者によって生み出されるテンポが、少し遅れた時期から基準タイミングに相当することになる。このように、生成部23は、取得部21により基準端末から取得された音データ又は画像データから抽出される時間間隔が所定の範囲に収まらない場合に、第2の期間における基準タイミングデータを生成するようにしてもよい。なお、上述した第1の期間と第2の期間は動的に判断されるのではなく、楽曲全体にわたって第1の期間と第2の期間とが予め決められていてもよい。
[Modification example 4]
In a musical piece, there may be a section in which the reference timing is desired to be constant (first period) and a section in which the reference timing is intentionally changed according to the performance or the like (second period). In the section where the reference timing is desired to be constant, the ensemble follows a regular tempo by correcting the tempo deviation created by the performer on the reference terminal. On the other hand, in the section where the reference timing is intentionally changed according to the performance or the like, the tempo generated by the performer on the reference terminal becomes the reference timing, so that the ensemble is full of emotion and ad lib. In this case, the generation unit 23 corrects the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit 21 in the first period of the period in which the performance is performed. Generate reference timing data to output the reference timing at intervals. Specifically, as described in the embodiment, the generation unit 23 generates reference timing data for outputting the reference timing at a predetermined fixed time interval, and then the extracted tempo is n ( n is a predetermined threshold), and if it belongs to a predetermined range centered on the tempo set at the start of the performance (for example, 95 bpm to 105 bpm of ± 5 bpm with respect to the tempo 100 bpm set at the start of the performance), the extraction thereof. Reference timing data is generated using the values of the n tempos that have undergone correction processing such as quantizing as the reference timing. On the other hand, the generation unit 23 continuously extracts the extracted tempo n (n is a predetermined threshold value) within a predetermined range centered on the tempo set at the start of the performance (for example, with respect to the tempo 100 bpm set at the start of the performance). If it does not belong to ± 5 bpm (95 bpm to 105 bpm), the reference timing data is generated using the extracted tempo as the reference timing without performing the above correction processing. That is, the generation unit 23 uses the tempo extracted based on the sound data acquired from the reference terminal as the tempo of the reference timing subsequently presented by each user terminal 10. Therefore, the tempo produced by the performer on the reference terminal corresponds to the reference timing from a slightly delayed time. In this way, the generation unit 23 generates the reference timing data in the second period when the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit 21 does not fall within the predetermined range. You may try to do it. The first period and the second period described above are not dynamically determined, and the first period and the second period may be predetermined over the entire music.
[変形例5]
特定部22は、2以上のユーザ端末10を基準端末として特定し、生成部23は、取得部21によりその2以上の基準端末から取得された音データ又は画像データに基づいて基準タイミングデータを生成するようにしてもよい。例えば特定部22は、ドラムとパーカッションの演奏音をそれぞれ収音する2つのユーザ端末10を基準端末として特定し、生成部23は、取得部21によりその2以上の基準端末から取得された音データ又は画像データに基づいて基準タイミングを求め、さらにこの2つの基準タイミングについて平均化する等の補正を行って算出した値を、真の基準タイミングとしてもよい。
[Modification 5]
The identification unit 22 specifies two or more user terminals 10 as reference terminals, and the generation unit 23 generates reference timing data based on sound data or image data acquired from the two or more reference terminals by the acquisition unit 21. You may try to do it. For example, the specific unit 22 specifies two user terminals 10 that collect the performance sounds of the drum and the percussion as reference terminals, and the generation unit 23 specifies the sound data acquired from the two or more reference terminals by the acquisition unit 21. Alternatively, the value calculated by obtaining the reference timing based on the image data and further performing correction such as averaging the two reference timings may be used as the true reference timing.
[変形例6]
本発明に係る情報処理装置の一例として、ユーザ端末10とは異なるサーバ装置20を例示したが、図4に例示した機能ブロックを実現する情報処理装置であれば本発明を適用可能である。また、合奏を行う同一グループに含まれるユーザ端末10のうちいずれかが本発明に係る情報処理装置として機能してもよい。
[Modification 6]
As an example of the information processing device according to the present invention, a server device 20 different from the user terminal 10 has been illustrated, but the present invention can be applied to any information processing device that realizes the functional block illustrated in FIG. Further, any one of the user terminals 10 included in the same group performing the ensemble may function as the information processing device according to the present invention.
[そのほかの変形例]
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
[Other variants]
The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Further, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized by using one physically or logically connected device, or directly or indirectly (for example, two or more physically or logically separated devices). , Wired, wireless, etc.) and may be realized using these plurality of devices. The functional block may be realized by combining the software with the one device or the plurality of devices.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. There are broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but only these. I can't. For example, a functional block (constituent unit) for functioning transmission is called a transmitting unit or a transmitter. As described above, the method of realizing each of them is not particularly limited.
例えば、本開示の一実施の形態におけるユーザ端末10は、本開示の無線通信方法の処理を行うコンピュータとして機能してもよい。 For example, the user terminal 10 in one embodiment of the present disclosure may function as a computer that processes the wireless communication method of the present disclosure.
情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 The notification of information is not limited to the embodiments / embodiments described in the present disclosure, and may be performed by other methods. For example, information notification includes physical layer signaling (for example, DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (for example, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by notification information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE−Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), and 5G (5th generation mobile communication). system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark)) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize and extend based on these. It may be applied to at least one of the next generation systems. Further, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G).
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described in the present disclosure present elements of various steps using exemplary order, and are not limited to the particular order presented.
情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information and the like can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific location (for example, a memory), or may be managed using a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
Each aspect / embodiment described in the present disclosure may be used alone, in combination, or switched with execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.
Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as an amendment or modification without departing from the purpose and scope of the present disclosure, which is determined by the description of the scope of claims. Therefore, the description of this disclosure is for purposes of illustration only and does not have any restrictive meaning to this disclosure.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
Software is an instruction, instruction set, code, code segment, program code, program, subprogram, software module, whether called software, firmware, middleware, microcode, hardware description language, or another name. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted to mean.
Further, software, instructions, information and the like may be transmitted and received via a transmission medium. For example, a website, where the software uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and wireless technology (infrared, microwave, etc.). When transmitted from a server, or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。
The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be voltage, current, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.
The terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, at least one of a channel and a symbol may be a signal (signaling). Also, the signal may be a message. Further, the component carrier (CC: Component Carrier) may be referred to as a carrier frequency, a cell, a frequency carrier, or the like.
本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
In addition, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, relative values from predetermined values, or using other corresponding information. It may be represented. For example, the radio resource may be indexed.
The names used for the above parameters are not limited in any way. Further, mathematical formulas and the like using these parameters may differ from those explicitly disclosed in this disclosure. Since the various channels (eg, PUCCH, PDCCH, etc.) and information elements can be identified by any suitable name, the various names assigned to these various channels and information elements are in any respect limited names. is not it.
本開示においては、「移動局(MS:Mobile Station)」、「ユーザ端末10(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」などの用語は、互換的に使用され得る。
移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
In the present disclosure, terms such as "mobile station (MS)", "user terminal 10 (user terminal)", "user equipment (UE)", and "terminal" are used interchangeably. obtain.
Mobile stations can be subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless, depending on the trader. It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.
ユーザ端末10は、送信装置、受信装置、通信装置などと呼ばれてもよい。なお、ユーザ端末10の少なくとも一方は、移動体に搭載されたデバイス、移動体自体などであってもよい。当該移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、ユーザ端末10は、必ずしも通信動作時に移動しない装置も含む。例えば、ユーザ端末10は、センサなどのIoT(Internet of Things)機器であってもよい。本開示におけるユーザ端末10は、基地局で読み替えてもよい。この場合、上述のユーザ端末10が有する機能を基地局が有する構成としてもよい。 The user terminal 10 may be called a transmitting device, a receiving device, a communication device, or the like. At least one of the user terminals 10 may be a device mounted on the mobile body, the mobile body itself, or the like. The moving body may be a vehicle (eg, car, airplane, etc.), an unmanned moving body (eg, drone, self-driving car, etc.), or a robot (manned or unmanned). ) May be. The user terminal 10 also includes a device that does not necessarily move during a communication operation. For example, the user terminal 10 may be an IoT (Internet of Things) device such as a sensor. The user terminal 10 in the present disclosure may be read as a base station. In this case, the base station may have the functions of the user terminal 10 described above.
「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), search (looking up, search, inquiry). It may include (eg, searching in a table, database or another data structure), ascertaining as "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" mean that the things such as solving, selecting, choosing, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include that some action is regarded as "judgment" and "decision". Further, "judgment (decision)" may be read as "assuming", "expecting", "considering" and the like.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements, and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in the present disclosure, the two elements use at least one of one or more wires, cables and printed electrical connections, and, as some non-limiting and non-comprehensive examples, the radio frequency domain. Can be considered to be "connected" or "coupled" to each other using electromagnetic energies having wavelengths in the microwave and light (both visible and invisible) regions.
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first", "second" as used in this disclosure does not generally limit the quantity or order of those elements. These designations can be used in the present disclosure as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted, or that the first element must somehow precede the second element.
上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 The "means" in the configuration of each of the above devices may be replaced with a "part", a "circuit", a "device" and the like.
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 When "include", "including" and variations thereof are used in the present disclosure, these terms are as comprehensive as the term "comprising". Is intended. Furthermore, the term "or" used in the present disclosure is intended not to be an exclusive OR.
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example a, an and the in English, the disclosure may include the nouns that follow these articles in the plural.
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".
1…合奏システム、2…ネットワーク、10…ユーザ端末、11…入力部、12…出力部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、20…サーバ装置、21…取得部、22…特定部、23…生成部、24…基準タイミングデータ送信部、25…音データ送信部、2001…プロセッサ、2002…メモリ、2003…ストレージ、2004…通信装置、2005…入力装置、2006…出力装置 1 ... Ensemble system, 2 ... Network, 10 ... User terminal, 11 ... Input unit, 12 ... Output unit, 1001 ... Processor, 1002 ... Memory, 1003 ... Storage, 1004 ... Communication device, 1005 ... Input device, 1006 ... Output device , 20 ... server device, 21 ... acquisition unit, 22 ... specific unit, 23 ... generation unit, 24 ... reference timing data transmission unit, 25 ... sound data transmission unit, 2001 ... processor, 2002 ... memory, 2003 ... storage, 2004 ... Communication device, 2005 ... Input device, 2006 ... Output device
Claims (9)
前記複数の端末のうちいずれかの端末を、前記複数の端末において演奏が行われるときの基準タイミングを生成するための基準端末として特定する特定部と、
前記取得部により前記基準端末から取得された前記音データ又は前記画像データに基づいて、前記基準タイミングを各々の前記端末において演奏者に提示するための基準タイミングデータを生成する生成部と、
生成された前記基準タイミングデータを、前記複数の端末に送信する基準タイミングデータ送信部と、
前記複数の端末のうち一の端末に対して、当該一の端末以外の複数の端末から前記取得部によりそれぞれ取得された複数の前記音データをミキシングして送信する音データ送信部と
を備えることを特徴とする情報処理装置。 An acquisition unit that acquires the sound data or the image data from a plurality of terminals that generate sound data indicating the played sound or image data indicating the operation for the performance.
A specific unit that specifies one of the plurality of terminals as a reference terminal for generating a reference timing when a performance is performed on the plurality of terminals.
A generation unit that generates reference timing data for presenting the reference timing to a performer at each of the terminals based on the sound data or the image data acquired from the reference terminal by the acquisition unit.
A reference timing data transmission unit that transmits the generated reference timing data to the plurality of terminals,
A sound data transmission unit that mixes and transmits a plurality of the sound data acquired by the acquisition unit from a plurality of terminals other than the one terminal is provided to one of the plurality of terminals. An information processing device characterized by.
ことを特徴とする請求項1記載の情報処理装置。 The information processing device according to claim 1, wherein the identification unit identifies the reference terminal based on an instruction input to at least one of the plurality of terminals.
ことを特徴とする請求項1記載の情報処理装置。 A claim, wherein the specific unit identifies the reference terminal based on the sound data or the image data acquired by the acquisition unit from at least one of the plurality of terminals. 1. The information processing apparatus according to 1.
ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。 The image data according to any one of claims 1 to 3, wherein the image data includes image data that captures the movement of a performer who performs a performance, or image data that captures an image of the movement of a conductor who directs a performance. The information processing device according to item 1.
第1の期間においては、前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔を補正した一定の時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成し、
第2の期間においては、前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔に応じた、一定ではない時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成する
ことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。 The generator is used during the period during which the performance is performed.
In the first period, the reference timing data for presenting the reference timing at a fixed time interval corrected for the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit. To generate
In the second period, a reference for presenting the reference timing at a non-constant time interval according to the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit. The information processing apparatus according to any one of claims 1 to 4, wherein the information processing apparatus is characterized by generating timing data.
まず、予め決められた一定の時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成し、
次に、前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔を補正した一定の時間間隔で前記基準タイミングを提示するための基準タイミングデータを生成する
ことを特徴とする請求項5記載の情報処理装置。 In the first period, the generator is
First, the reference timing data for presenting the reference timing is generated at a predetermined fixed time interval, and then the reference timing data is generated.
Next, the acquisition unit generates reference timing data for presenting the reference timing at a fixed time interval corrected for the time interval extracted from the sound data or the image data acquired from the reference terminal. 5. The information processing apparatus according to claim 5.
前記取得部により前記基準端末から取得された前記音データ又は前記画像データから抽出される時間間隔が所定の範囲に収まらない場合に、前記第2の期間における基準タイミングデータを生成する
ことを特徴とする請求項5又は6に記載の情報処理装置。 The generator
When the time interval extracted from the sound data or the image data acquired from the reference terminal by the acquisition unit does not fall within a predetermined range, the reference timing data in the second period is generated. The information processing apparatus according to claim 5 or 6.
前記生成部は、前記取得部により前記2以上の基準端末から取得された前記音データ又は前記画像データに基づいて、前記基準タイミングを各々の前記端末において提示するための基準タイミングデータを生成する
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。 The specific unit identifies two or more of the terminals as the reference terminal,
The generation unit generates reference timing data for presenting the reference timing at each of the terminals based on the sound data or the image data acquired from the two or more reference terminals by the acquisition unit. The information processing apparatus according to any one of claims 1 to 7.
演奏された音を示す音データ又は演奏のための動作を示す画像データを生成する複数の端末から、前記音データ又は前記画像データを取得する取得部と、
前記複数の端末のうちいずれかの端末を、前記複数の端末において演奏が行われるときの基準タイミングを生成するための基準端末として特定する特定部と、
前記取得部により前記基準端末から取得された前記音データ又は前記画像データに基づいて、前記基準タイミングを各々の前記端末において演奏者に提示するための基準タイミングデータを生成する生成部と、
生成された前記基準タイミングデータを、前記複数の端末に送信する基準タイミングデータ送信部と、
前記複数の端末のうち一の端末に対して、当該一の端末以外の複数の端末から前記取得部によりそれぞれ取得された複数の前記音データをミキシングして送信する音データ送信部と
して機能させるためのプログラム。 Computer,
An acquisition unit that acquires the sound data or the image data from a plurality of terminals that generate sound data indicating the played sound or image data indicating the operation for the performance.
A specific unit that specifies one of the plurality of terminals as a reference terminal for generating a reference timing when a performance is performed on the plurality of terminals.
A generation unit that generates reference timing data for presenting the reference timing to a performer at each of the terminals based on the sound data or the image data acquired from the reference terminal by the acquisition unit.
A reference timing data transmission unit that transmits the generated reference timing data to the plurality of terminals,
It functions as a sound data transmission unit that mixes and transmits a plurality of the sound data acquired by the acquisition unit from a plurality of terminals other than the one terminal to one of the plurality of terminals. Program to let you.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019147200A JP7323374B2 (en) | 2019-08-09 | 2019-08-09 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019147200A JP7323374B2 (en) | 2019-08-09 | 2019-08-09 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021028649A true JP2021028649A (en) | 2021-02-25 |
JP7323374B2 JP7323374B2 (en) | 2023-08-08 |
Family
ID=74667056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019147200A Active JP7323374B2 (en) | 2019-08-09 | 2019-08-09 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7323374B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023080080A1 (en) * | 2021-11-08 | 2023-05-11 | ヤマハ株式会社 | Performance analysis method, performance analysis system, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02204794A (en) * | 1989-02-02 | 1990-08-14 | Ricoh Co Ltd | Ensemble system |
JP2004325775A (en) * | 2003-04-24 | 2004-11-18 | Kawai Musical Instr Mfg Co Ltd | Mixing server and playing instrument for ensemble |
JP2005128296A (en) * | 2003-10-24 | 2005-05-19 | Yamaha Corp | Audio mixer device |
JP2018155936A (en) * | 2017-03-17 | 2018-10-04 | ヤマハ株式会社 | Sound data edition method |
-
2019
- 2019-08-09 JP JP2019147200A patent/JP7323374B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02204794A (en) * | 1989-02-02 | 1990-08-14 | Ricoh Co Ltd | Ensemble system |
JP2004325775A (en) * | 2003-04-24 | 2004-11-18 | Kawai Musical Instr Mfg Co Ltd | Mixing server and playing instrument for ensemble |
JP2005128296A (en) * | 2003-10-24 | 2005-05-19 | Yamaha Corp | Audio mixer device |
JP2018155936A (en) * | 2017-03-17 | 2018-10-04 | ヤマハ株式会社 | Sound data edition method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023080080A1 (en) * | 2021-11-08 | 2023-05-11 | ヤマハ株式会社 | Performance analysis method, performance analysis system, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7323374B2 (en) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10200634B2 (en) | Video generation method, apparatus and terminal | |
WO2019101015A1 (en) | Audio data processing method and apparatus, and storage medium | |
CN109819179B (en) | Video editing method and device | |
CN104967801B (en) | A kind of video data handling procedure and device | |
CN112242980B (en) | Screen projection method and device | |
CN107396137A (en) | The method, apparatus and system of online interaction | |
CN106210755B (en) | A kind of methods, devices and systems playing live video | |
CN106528545B (en) | Voice information processing method and device | |
CN110797055B (en) | Multimedia resource synthesis method and device, electronic equipment and storage medium | |
US20160173982A1 (en) | Wearable audio mixing | |
CN103686246B (en) | Player method, device, equipment and system when transmission stream video is selected | |
CN106686519B (en) | The method, apparatus and terminal of the stereo pairing of audio-frequence player device | |
CN104052917A (en) | Notification control device, notification control method and storage medium | |
KR100678163B1 (en) | Apparatus and method for operating play function in a portable terminal unit | |
JP2011081364A (en) | Storage system and storage device | |
JP7323374B2 (en) | Information processing device and program | |
CN115604621A (en) | Earphone testing method, device, equipment and computer readable storage medium | |
CN108337719A (en) | wireless network scanning method, device, terminal device and storage medium | |
WO2020118560A1 (en) | Recording method and apparatus, electronic device and computer readable storage medium | |
CN104967598B (en) | The acquisition methods of a kind of customer multi-media authority information and device | |
WO2021251187A1 (en) | Prediction device | |
JP7453093B2 (en) | management device | |
CN108337715A (en) | Wireless network connecting method, device, terminal device and storage medium | |
JP2021016012A (en) | Subnet information generation device and subnet information generation method | |
JP7232011B2 (en) | Information processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7323374 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |