WO2021192437A1 - 情報処理方法、情報処理システムおよびプログラム - Google Patents

情報処理方法、情報処理システムおよびプログラム Download PDF

Info

Publication number
WO2021192437A1
WO2021192437A1 PCT/JP2020/045808 JP2020045808W WO2021192437A1 WO 2021192437 A1 WO2021192437 A1 WO 2021192437A1 JP 2020045808 W JP2020045808 W JP 2020045808W WO 2021192437 A1 WO2021192437 A1 WO 2021192437A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
storage device
data
detected
operation surface
Prior art date
Application number
PCT/JP2020/045808
Other languages
English (en)
French (fr)
Inventor
入山 達也
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2021192437A1 publication Critical patent/WO2021192437A1/ja
Priority to US17/950,737 priority Critical patent/US20230019428A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/941Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated using an optical detector
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/96Touch switches
    • H03K17/962Capacitive touch switches
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K2217/00Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00
    • H03K2217/94Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated
    • H03K2217/965Switches controlled by moving an element forming part of the switch
    • H03K2217/9651Switches controlled by moving an element forming part of the switch the moving element acting on a force, e.g. pressure sensitive element

Definitions

  • the present disclosure relates to a technique for reading data into a storage device.
  • This application claims priority on the basis of Japanese Patent Application No. 2020-050818 filed on March 23, 2020 and incorporates all of its disclosures herein.
  • Patent Document 1 A configuration that realizes high-speed access to the data by temporarily storing the data stored in the storage device in the cache memory has been widely used in the past (see, for example, Patent Document 1).
  • an object of one aspect of the present disclosure is to promptly start processing on the data stored in the storage device.
  • the information processing method is executed by a computer, detects a first state in which an object is separated from an operation surface by a predetermined distance, and after the first state is detected, the object performs the operation.
  • a first state including detecting a second state in contact with a surface, reading data from a first storage device and reading the read data into a second storage device when the first state is detected.
  • the process is executed, and when the second state is detected, the second process is executed for the data read into the second storage device.
  • the information processing system detects a first state in which an object is separated from an operation surface by a predetermined distance, and the object comes into contact with the operation surface after the first state is detected.
  • a state detection unit that detects the second state, and when the first state is detected, the second state includes reading data from the first storage device and reading the read data into the second storage device. It includes a first processing unit that executes one process, and a second processing unit that executes a second process on the data read into the second storage device when the second state is detected.
  • the program detects a first state in which an object is separated from an operation surface by a predetermined distance, and after the first state is detected, the object comes into contact with the operation surface in a second state. Is detected, and when the first state is detected, the first process including reading the data from the first storage device and reading the read data into the second storage device is executed, and the first process is executed. When the two states are detected, the computer is made to execute the second process on the data read into the second storage device.
  • FIG. 1 is a block diagram illustrating the configuration of the information processing system 100 according to the first embodiment of the present disclosure.
  • the information processing system 100 is a computer system that executes processing according to a user's operation.
  • the information processing system 100 includes a control system 1 and a detection unit 2.
  • the detection unit 2 is an input device that detects an operation by the user.
  • the control system 1 executes processing according to the operation detected by the detection unit 2.
  • the control system 1 includes a control device 10, a first storage device 11, a second storage device 12, and a sound emitting device 13.
  • the control system 1 is realized by an information terminal such as a smartphone, a tablet terminal, or a personal computer.
  • the control system 1 may be realized by a single device, or may be realized by a plurality of devices configured as separate bodies from each other.
  • the control device 10 is a single or a plurality of processors that control each element of the control system 1. Specifically, for example, one or more types of processors such as CPU (Central Processing Unit), SPU (Sound Processing Unit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), or ASIC (Application Specific Integrated Circuit).
  • the control device 10 is configured by the above.
  • the control device 10 generates an acoustic signal X according to the operation of the user.
  • the sound emitting device 13 emits a sound represented by the acoustic signal X generated by the control device 10 (hereinafter referred to as “target sound”).
  • the sound emitting device 13 is, for example, a speaker or headphones.
  • the D / A converter that converts the acoustic signal X from digital to analog and the amplifier that amplifies the acoustic signal X are not shown for convenience. Further, in the example shown in FIG. 1, a configuration in which the sound emitting device 13 is mounted on the control system 1 is shown. In another example, a sound emitting device 13 separate from the control system 1 may be connected to the control system 1 by wire or wirelessly.
  • the first storage device 11 is composed of a single or a plurality of recording media for storing a program executed by the control device 10 and various data used by the control device 10.
  • the first storage device 11 is a recording medium having a larger storage capacity and a slower read speed than the second storage device 12.
  • a storage device including a non-volatile recording medium such as a magnetic recording medium or an optical recording medium is used as the first storage device 11.
  • the first storage device 11 stores the control data C used for generating the acoustic signal X in addition to the program executed by the control device 10.
  • the control data C is, for example, waveform data in a time domain representing a sound waveform.
  • control data C representing the performance sounds of various musical instruments such as percussion instruments is stored in the first storage device 11.
  • the second storage device 12 is composed of a single or a plurality of recording media for storing a program executed by the control device 10 and various data used by the control device 10.
  • the second storage device 12 is a recording medium having a smaller storage capacity and a higher read speed than the first storage device 11.
  • a volatile or non-volatile storage device including a recording medium such as a semiconductor recording medium is used as the second storage device 12.
  • the main storage device or the cache memory is used as the second storage device 12.
  • the control device 10 realizes various functions by executing a program read from the first storage device 11 to the second storage device 12.
  • FIG. 2 is a schematic diagram illustrating the configuration of the detection unit 2.
  • the detection unit 2 includes an accommodating body 20, a first detector 21, and a second detector 22.
  • the accommodating body 20 is a hollow structure accommodating the first detector 21 and the second detector 22.
  • the housing 20 includes a housing portion 20a and a translucent portion 20b.
  • the housing portion 20a is a box-shaped structure having an internal space having an opening at the upper side.
  • the light transmitting portion 20b is a plate-shaped member that closes the opening of the housing portion 20a.
  • the light transmitting unit 20b transmits light in a wavelength range that can be detected by the first detector 21.
  • the light transmitting portion 20b has an operation surface (striking surface) F which is a surface opposite to the surface facing the housing portion 20a. The user can approach or separate the user's own hand H from the operation surface F and hit the operation surface F with the hand H.
  • the user's hand H is an example of an "object”.
  • the first detector 21 is an optical sensor that detects the state of the user's hand H.
  • the first detector 21 is installed near the midpoint (center) on the bottom surface of the housing portion 20a.
  • a distance measuring sensor that measures the distance between the subject and the light receiving surface is used as the first detector 21.
  • the first detector 21 receives the reflected light from the hand H transmitted through the light transmitting portion 20b, so that the position of the hand H in the direction perpendicular to the operation surface F (specifically, the hand H from the light receiving surface).
  • the detection signal Q1 is transmitted to the control system 1 by wired communication or wireless communication.
  • the light detected by the first detector 21 is not limited to visible light.
  • the first detector 21 may detect invisible light such as infrared light.
  • the second detector 22 is a sensor for detecting the contact of the hand H with the operation surface F.
  • a sound collecting device that collects ambient sound is used as the second detector 22.
  • the second detector 22 collects the hitting sound generated when the user's hand H hits the operation surface F.
  • the second detector 22 generates a detection signal Q2 representing an ambient sound including a striking sound.
  • the detection signal Q2 is transmitted to the control system 1 by wired communication or wireless communication.
  • the second detector 22 may be installed outside the housing 20.
  • FIG. 3 is a block diagram illustrating the functional configuration of the control system 1.
  • the control device 10 of the control system 1 has a plurality of functions (state detection unit 30, first processing unit 31, and second processing) by reading and executing the program stored in the first storage device 11 into the second storage device 12. Part 32) is realized.
  • the state detection unit 30 detects the state of the user's hand H according to the detection result (detection signal Q1 and detection signal Q2) by the detection unit 2. Specifically, the state detection unit 30 detects the first state or the second state as the state of the hand H. As illustrated in FIG. 2, the first state is a state in which the hand H is separated from the operation surface F by a predetermined distance (hereinafter referred to as “reference value”) Dref. The second state is a state in which the hand H comes into contact with the operation surface F.
  • FIG. 4 is an explanatory diagram regarding the state of the hand H.
  • the state detection unit 30 detects that the hand H is in the first state by analyzing the detection signal Q1 generated by the first detector 21. Specifically, the state detection unit 30 calculates the distance D between the operation surface F and the hand H by analyzing the detection signal Q1. The calculation of the distance D is repeated at a predetermined cycle. That is, data representing the distance D in time series is generated. A known technique is arbitrarily adopted for calculating the distance D.
  • FIG. 4 illustrates the temporal change of the distance D. The state detection unit 30 determines that the hand H is in the first state when the distance D between the operation surface F and the hand H matches the reference value Dref.
  • the state detection unit 30 may determine that the hand H is in the first state.
  • the reference value Dref is a preset fixed value. However, the reference value Dref may be changed according to the instruction from the user.
  • the state detection unit 30 detects that the hand H is in the second state by analyzing the detection signal Q2 generated by the second detector 22. Specifically, the state detection unit 30 calculates the volume V of the sound represented by the detection signal Q2. The calculation of the volume V is repeated at a predetermined cycle. That is, data representing the volume V in chronological order is generated. A known technique is arbitrarily adopted for calculating the volume V.
  • FIG. 4 illustrates the temporal change of the volume V. The volume V sharply increases due to the hitting sound generated by the hitting of the operation surface F.
  • the state detection unit 30 determines that the hand H is in the second state when the volume V exceeds a predetermined numerical value (hereinafter referred to as “reference value”) Vref (that is, when the striking sound is picked up).
  • the reference value Vref is a preset fixed value. However, the reference value Vref may be changed according to the instruction from the user.
  • the user's hand H is sequentially in the first state and the second state in a series of processes of approaching the operation surface F. Specifically, the hand H is in the first state at the time point t1 in the process of approaching the operation surface F, and the hand H is in the second state at the time point t2 after the lapse of the time point t1. That is, the hand H goes into the first state before the second state.
  • the time point t1 and the time point t2 move back and forth at intervals on the time axis.
  • the first processing unit 31 of FIG. 3 reads the control data C stored in the first storage device 11 into the second storage device 12. Execute the first process of including. That is, the first process is executed at the time t1 when the distance D reaches the reference value Dref in the process of the hand H approaching the operation surface F.
  • the first process includes a process of reading the control data C from the first storage device 11 and a process of writing the control data C into the second storage device 12.
  • the second processing unit 32 executes the second processing on the control data C read into the second storage device 12. That is, after the lapse of the first state in the process in which the hand H approaches the operation surface F, the second process is executed at the time t2 when the volume V reaches the reference value Vref.
  • the second process is an acoustic process that generates an acoustic signal X by using the control data C read into the second storage device 12. Specifically, the second process generates an acoustic signal X by adjusting the pitch of the sound represented by the control data C according to the volume V of the detection signal Q2. Therefore, an acoustic signal X representing a target sound having a pitch corresponding to the intensity with which the hand H hits the operation surface F is generated. For example, the higher the strength of the impact on the operation surface F, the higher the pitch of the acoustic signal X is generated.
  • the content of the second process is not limited to the above examples.
  • the second processing unit 32 executes an effect imparting process for imparting an acoustic effect such as a reverberation effect to the control data C, or a filter process for changing the frequency characteristic of the sound represented by the control data C, as the second process.
  • the target sound is produced by supplying the acoustic signal X generated by the second processing unit 32 by the second processing described above to the sound emitting device 13.
  • the second process includes a process of sounding according to the control data C read into the second storage device 12.
  • FIG. 5 is a flowchart illustrating a specific procedure of the process (hereinafter referred to as “control process”) Sa executed by the control device 10.
  • control process is repeated at a cycle sufficiently shorter than the cycle in which the user's hand H approaches and separates from the operation surface F.
  • the control device 10 detects the state of the user's hand H by analyzing the detection signal Q1 and the detection signal Q2 supplied from the detection unit 2 (the state of the user's hand H). Sa1).
  • the control device 10 determines whether or not the state detection unit 30 has detected that the hand H is in the first state (Sa2).
  • the control device 10 reads the control data C stored in the first storage device 11 into the second storage device 12. Execute the process (Sa3).
  • the hand H is not in the first state (Sa2: NO)
  • the first process is not executed.
  • the control device 10 When the hand H is not in the first state (Sa2: NO), or when the first process is executed, the control device 10 (second processing unit 32) detects that the hand H is in the second state. It is determined whether or not 30 is detected (Sa4). When the hand H is in the second state (Sa4: YES), the control device 10 (second processing unit 32) executes the second process on the control data C read into the second storage device 12 (Sa5). ). The target sound is produced by supplying the acoustic signal X generated by the second process to the sound emitting device 13. On the other hand, if the hand H is not in the second state (Sa4: NO), the second process is not executed.
  • FIG. 4 the configuration in which the first process is started at the time t2 when the hand H hits the operation surface F is shown in inverse proportion.
  • the second process is started at time point t3 after the end of the first process started at time point t2. Therefore, the target sound represented by the acoustic signal X is emitted from the sound emitting device 13 when it is delayed from the contact of the operation surface F by the user.
  • control data C is read into the second storage device 12 when it is detected that the hand H is in the first state. That is, the control data C is prepared in the second storage device 12 before the hand H comes into contact with the operation surface F. Therefore, the second process can be started more quickly than in inverse proportion. Specifically, the second process can be started from t2 when the user comes into contact with the operation surface F. Therefore, the delay from the contact of the user's hand H with the operation surface F until the target sound is produced is reduced as compared with the inverse proportion.
  • the first process and the second process are sequentially executed in a series of processes until the user's hand H approaches the operation surface F and finally comes into contact with the operation surface F. Therefore, there is an advantage that the first process is executed without the user being particularly aware that the hand H is in the first state. That is, it is sufficient for the user to come into contact with the operation surface F at the time when the target sound should be sounded, and it is not necessary for the user to consciously instruct the first process before the target sound is sounded.
  • the information processing system 100 of the second embodiment pronounces a target sound having acoustic characteristics according to a position where the hand H contacts the operation surface F (hereinafter referred to as a "striking position").
  • the first storage device 11 stores M (N0) control data C (M is a natural number of 2 or more) corresponding to a plurality of different striking positions.
  • the acoustic characteristics (for example, timbre) of the sound represented by the control data C are different for each control data C.
  • the first processing unit 31 of the first embodiment reads one control data C from the first storage device 11 and reads it into the second storage device 12. Include.
  • the first processing unit 31 of the second embodiment has N (N) of the M control data C stored in the first storage device 11. Reads the control data C (a natural number of 2 or more equal to or less than M) from the first storage device 11 and reads it into the second storage device 12.
  • the first processing unit 31 specifies the position of the hand H at the time t1 when it is detected that the hand H is in the first state (hereinafter referred to as "provisional position").
  • the provisional position is the position of the hand H in a plane parallel to the operation surface F, and corresponds to the provisional striking position until the hand H actually contacts the operation surface F.
  • the actual striking position does not exactly match the provisional position, but is expected to be close to the provisional position.
  • the first processing unit 31 reads N pieces of control data C corresponding to the striking position close to the provisional position among the M pieces of control data C stored in the first storage device 11 into the second storage device 12.
  • control data C corresponding to the striking position predicted from the provisional position of the hand H in the first state is read into the second storage device 12. Therefore, of the M control data C stored in the first storage device 11, the combination of N control data C read into the second storage device 12 changes according to the provisional position at the time point t1.
  • the N control data Cs are also paraphrased as candidates for control data Cs for which the second process should be executed.
  • N pieces of control data C are an example of "plurality of data”.
  • the second processing unit 32 executes the second processing on one control data C corresponding to the actual striking position among the N control data C read into the second storage device 12. For example, one control data C corresponding to the striking position closest to the position of the hand H on the operating surface F at the time point t2 (that is, the actual striking position with respect to the operating surface F) is stored in the second storage device 12. It is selected as the target of the second processing from N control data Cs.
  • the content of the second process is the same as that of the first embodiment. That is, the target sound having the acoustic characteristics corresponding to the striking position is emitted from the sound emitting device 13.
  • the second process in the second embodiment is a process of pronouncing according to any one of the N plurality of data read into the second storage device 12.
  • the first embodiment is compared with the first embodiment in which only one control data C is read into the second storage device 12. It takes a long time to process. Therefore, when a plurality of control data Cs are read into the second storage device 12 in inverse proportion to start the first processing at the time t2 when the hand H hits the operation surface F, the delay in the pronunciation of the target sound is particularly remarkable. Become. Considering the above circumstances, the configuration for reducing the delay of the target sound by executing the first process at the time t1 when the first state is detected is such that a plurality of control data Cs are second as in the second embodiment. It is particularly effective in the configuration of reading into the storage device 12.
  • N of the M control data C corresponding to the different striking positions are read into the second storage device 12 according to the provisional position, but N pieces are illustrated.
  • the conditions for selecting the control data C of the above are not limited to the above examples.
  • the first aspect of producing a target sound having acoustic characteristics according to the direction in which the hand H moves with respect to the operation surface F (hereinafter referred to as "moving direction") is assumed.
  • the moving direction is the angle of movement of the hand H with respect to the operating surface F (or the normal of the operating surface F).
  • M pieces of control data C corresponding to a plurality of different moving directions are stored in the first storage device 11.
  • the first processing unit 31 reads N control data C corresponding to the provisional moving direction at the time point t1 into the second storage device 12.
  • the second processing unit 32 executes the second processing on one control data C corresponding to the deterministic movement direction at the time point t2 among the N control data C read into the second storage device 12. do.
  • a second mode is also assumed in which a target sound having acoustic characteristics is produced according to the speed at which the hand H moves with respect to the operation surface F (hereinafter referred to as “moving speed”).
  • M control data C corresponding to different moving speeds are stored in the first storage device 11.
  • the first processing unit 31 reads N control data C corresponding to the provisional moving speed at the time point t1 into the second storage device 12.
  • the second processing unit 32 executes the second processing on one control data C corresponding to the deterministic movement speed at the time point t2 among the N control data C read into the second storage device 12. do.
  • FIG. 6 is a block diagram illustrating the configuration of the communication system S in the third embodiment.
  • the communication system S is a server client system including an information processing system 100 and a storage system 200.
  • the information processing system 100 and the storage system 200 can communicate with each other via a communication network 300 such as the Internet.
  • the information processing system 100 has a configuration in which the first storage device 11 in the first embodiment is replaced with a communication device 14.
  • the communication device 14 communicates with the storage system 200 via the communication network 300.
  • the storage system 200 is a server system including a first storage device 11 that stores control data C.
  • FIG. 7 is a flowchart illustrating a specific procedure of the first process (Sa3) of the control process Sa of the third embodiment.
  • the control device 10 first process unit 31
  • the transmission process is a process of transmitting the request R of the control data C from the communication device 14 to the storage system 200 (first storage device 11) via the communication network 300.
  • the storage system 200 When the request R is received from the information processing system 100 (Sb1), the storage system 200 reads out the control data C stored in the first storage device 11 (Sb2). The storage system 200 transmits the control data C to the requesting information processing system 100 (Sb3).
  • the control device 10 (first processing unit 31) of the information processing system 100 executes reception processing (Sa32).
  • the reception process is a process of receiving the control data C transmitted from the storage system 200 by the communication device 14 and storing the control data C in the second storage device 12.
  • the first process in the third embodiment includes a transmission process (Sa31) and a reception process (Sa32).
  • the control data C stored in the first storage device 11 is stored in the second storage device. Read in 12.
  • the same effect as that of the first embodiment is realized in the third embodiment. Further, in the third embodiment, since the control data C is stored in the first storage device 11 of the storage system 200, the information processing system 100 does not need to hold the first storage device 11. Therefore, there is an advantage that the storage capacity required for the information processing system 100 is reduced.
  • the first Processing may take a long time. Therefore, when the information processing system 100 acquires the control data C via the communication network 300 in inverse proportion to start the first processing at the time t2 when the hand H hits the operation surface F, the delay in the sound of the target sound is delayed. This is especially noticeable.
  • the configuration for reducing the delay of the target sound by executing the first process at the time t1 when the first state is detected is the control data via the communication network 300 as in the third embodiment. It is exceptionally effective in the configuration where C is given and received.
  • the embodiment based on the first embodiment has been illustrated, but the same configuration as that of the third embodiment is applied to the second embodiment in which N control data Cs are read into the second storage device 12. Will be done. That is, the first processing unit 31 receives N of the M control data C stored in the first storage device 11 from the storage system 200 via the communication network 300, and N of the control data C are received from the storage system 200 via the communication network 300. The control data C is stored in the second storage device 12.
  • the first detector 21 is a distance measuring sensor
  • the type of the first detector 21 is not limited to the above examples.
  • an image sensor that captures an image of the user's hand H may be used as the first detector 21.
  • the state detection unit 30 calculates the distance D by analyzing the image of the hand H taken by the first detector 21, and detects the first state according to the distance D.
  • an infrared sensor that emits and receives infrared light may be used as the first detector 21.
  • the state detection unit 30 calculates the distance D from the light receiving intensity of the infrared light reflected on the surface of the hand H.
  • the position where the first detector 21 is installed is arbitrary.
  • the first detector 21 may take an image of the hand H from the side.
  • the second state is detected by analyzing the detection signal Q2 representing the sound including the striking sound, but the configuration and method for detecting the contact of the hand H with the operation surface F.
  • the contact of the hand H with the operation surface F may be detected by analyzing the detection signal Q1 generated by the first detector 21.
  • the state detection unit 30 determines that the user's hand H is in the second state when the distance D specified from the detection signal Q1 reaches zero. In the configuration in which the detection signal Q1 is used to detect the second state, the second detector 22 is omitted.
  • a contact sensor for example, a capacitance type sensor
  • a vibration sensor that detects the vibration of the operation surface F (translucent portion 20b)
  • an operation A pressure sensor that detects the pressure acting on the surface F from the hand H may be used as the second detector 22.
  • the configuration in which the user's hand H contacts the operation surface F is illustrated, but the object that contacts the operation surface F is not limited to the hand H.
  • the user may hit the operation surface F with a striking member such as a stick for a percussion instrument.
  • the object in contact with the operation surface F includes both a part of the user's body (typically the hand H) and the striking member operated by the user.
  • the striking member may be equipped with the first detector 21 or the second detector 22.
  • the configuration of the housing 20 of the detection unit 2 is arbitrary. Further, the structure in which the first detector 21 and the second detector 22 are housed in the housing body 20 is not essential. That is, as long as the detection unit 2 includes the operation surface F to which an object such as the user's hand H comes into contact, the specific structure and presence / absence of the housing 20 are not particularly limited.
  • an information processing system 100 including one detection unit 2 is illustrated.
  • the information processing system 100 may include a plurality of detection units 2 corresponding to a plurality of different pitches.
  • the state detection unit 30 detects the first state or the second state for each of the plurality of detection units 2.
  • the first processing unit 31 secondly uses one or more control data C having a pitch corresponding to the detection unit 2 in which the first state is detected, among a plurality of control data C corresponding to a plurality of different pitches.
  • the second processing unit 32 executes the second processing on the pitch control data C corresponding to the detection unit 2 in which the second state is detected.
  • the acoustic signal X is generated by executing the second process on the control data C representing the sound waveform, but the contents of the control data C and the second process are as described above. Not limited to the examples.
  • the voice synthesis process for generating the acoustic signal X representing the spoken voice is executed as the second process.
  • the decoding process for generating the acoustic signal X from the control data C is executed as the second process.
  • the storage system 200 may execute a part of the second process.
  • the control data C in which a part of the second process is executed is stored in the second storage device 12 of the information processing system 100.
  • the second processing unit 32 of the information processing system 100 executes the remaining portion of the second processing on the control data C stored in the second storage device 12.
  • the configuration in which the user's hand H actually contacts the operation surface F is illustrated, but for example, a virtual operation using a tactile technique (haptics) using tactile feedback is used.
  • a configuration may be adopted in which the user contacts the surface F.
  • the user touches the operation surface F installed in the virtual space by operating a pseudo hand existing in the virtual space.
  • the operation surface F may be a virtual surface in the virtual space.
  • the object in contact with the operation surface F (for example, the hand H) may be a virtual object in the virtual space.
  • the functions of the information processing system 100 include the single or multiple processors constituting the control device 10 and the program read into the second storage device 12. It will be realized in collaboration with.
  • the program according to the present disclosure may be provided and installed on a computer in a form stored in a computer-readable recording medium.
  • the recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disc) such as a CD-ROM is a good example, but a known arbitrary such as a semiconductor recording medium or a magnetic recording medium is used. It may be a recording medium in the format of.
  • the non-transient recording medium includes any recording medium except for a transient propagation signal (transitory, propagating signal), and a volatile recording medium is not excluded. Further, in the configuration in which the distribution device distributes the program via the communication network 300, the storage device that stores the program in the distribution device corresponds to the above-mentioned non-transient recording medium.
  • the information processing method is executed by a computer, detects a first state in which an object is separated from an operation surface by a predetermined distance, and after the first state is detected, the information processing method is described.
  • a second state in which an object comes into contact with the operation surface is detected, and when the first state is detected, data is read from the first storage device and the read data is read into the second storage device.
  • the first process including the above is executed, and when the second state is detected, the second process is executed for the data read into the second storage device.
  • the first process and the first process are performed after the object is detected to be in the second state.
  • the second process can be started quickly as compared with the configuration in which the second process is executed.
  • the first process and the second process are sequentially executed in a series of processes until the object approaches the operation surface and finally comes into contact with the operation surface. Therefore, the first process can be executed without the user being aware that the object is in the first state.
  • the first process transmits a request for the data to the first storage device via a communication network, and is transmitted from the first storage device in response to the request. It further includes receiving the data via the communication network.
  • the start of the second process is particularly likely to be delayed due to the communication delay in the communication network. Therefore, the configuration of the present disclosure, which executes the first process when the object is detected to be in the first state, is particularly suitable for the configuration of receiving data from the first storage device via the communication network.
  • the second process includes sounding according to the data read into the second storage device.
  • the delay in pronunciation can be reduced as compared with the configuration in which the first process and the second process are executed after the object is detected to be in the second state.
  • the data includes a plurality of data
  • the second processing is performed according to any one of the plurality of data read into the second storage device.
  • Including pronouncing In a configuration in which a plurality of data are read into the second storage device, a longer time is required for the first processing as compared with a configuration in which a single data is read into the second storage device. Therefore, the configuration of the present disclosure in which the first process is executed when the object is detected to be in the first state is particularly preferable.
  • a typical example of a plurality of data is data for pronouncing different musical tones, for example. That is, a plurality of data for producing a plurality of different musical tones are read into the second storage device before the transition to the second state. Then, for example, among the plurality of data read into the second storage device, the musical sound is pronounced using the data selected according to the position of the object in the second state.
  • the information processing system detects a first state in which an object is separated from an operation surface by a predetermined distance, and after the first state is detected, the object is said to be said.
  • a state detection unit that detects a second state in contact with the operation surface, and when the first state is detected, data is read from the first storage device and the read data is read into the second storage device.
  • a first processing unit that executes the first processing including the above, and a second processing unit that executes the second processing on the data read into the second storage device when the second state is detected. Equipped with.
  • the program according to one aspect (aspect 6) of the present disclosure detects a first state in which an object is separated from an operation surface by a predetermined distance, and after the first state is detected, the object comes into contact with the operation surface.
  • the first process including reading the data from the first storage device and reading the read data into the second storage device is executed.
  • the computer is made to execute the second process on the data read into the second storage device.
  • This disclosure may be applied to information processing methods, information processing systems and programs.
  • S Communication system 100 ... Information processing system 200 ... Storage system 300 ... Communication network 1 ... Control system 10 ; Control device 11 ... First storage device 12 ... Second storage device 13 ... Sound emitting device 14 ... Communication device 2 ... Detection unit 20 ... Accommodating body 20a ... Housing unit 20b ... Translucent unit 21 ... First detector 22 ... Second detector 30 ... State detection unit 31 ... First processing unit 32 ... Second processing unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

情報処理システムは、物体が操作面から所定の距離だけ離間する第1状態を検出し、また、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出する状態検出部と、前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行する第1処理部と、前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行する第2処理部とを具備する。

Description

情報処理方法、情報処理システムおよびプログラム
 本開示は、記憶装置に対するデータの読込のための技術に関する。
 この出願は、2020年3月23日に出願された日本国特願2020-050818号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 記憶装置に記憶されたデータをキャッシュメモリに一時的に格納することで、そのデータに対する高速なアクセスを実現する構成が、従来から広く普及している(例えば特許文献1参照)。
日本国特許第981960号公報
 しかし、従来の構成においては、例えば利用者によりデータの使用が指示されてからデータの読込みが実行されるため、利用者による指示から実際にデータが処理されるまでの遅延を充分に低減することが困難である。以上の事情を考慮して、本開示のひとつの態様の目的は、記憶装置に記憶されたデータに対する処理を迅速に開始することである。
 本開示のひとつの態様に係る情報処理方法は、コンピュータにより実行され、物体が操作面から所定の距離だけ離間する第1状態を検出し、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出し、前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行し、前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行することを含む。
 本開示のひとつの態様に係る情報処理システムは、物体が操作面から所定の距離だけ離間する第1状態を検出し、また、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出する状態検出部と、前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行する第1処理部と、前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行する第2処理部とを具備する。
 本開示のひとつの態様に係るプログラムは、物体が操作面から所定の距離だけ離間する第1状態を検出し、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出し、前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行し、前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行することをコンピュータに実行させる。
情報処理システムの構成を例示するブロック図である。 検出ユニットの構成を例示する模式図である。 制御システムの機能的な構成を例示するブロック図である。 利用者の手の状態に関する説明図である。 制御処理の具体的な手順を例示するフローチャートである。 第3実施形態における通信システムの構成を例示するブロック図である。 第3実施形態における第1処理の具体的な手順を例示するフローチャートである。
A:第1実施形態
 図1は、本開示の第1実施形態に係る情報処理システム100の構成を例示するブロック図である。情報処理システム100は、利用者の操作に応じた処理を実行するコンピュータシステムである。情報処理システム100は、制御システム1と検出ユニット2とを具備する。検出ユニット2は、利用者による操作を検出する入力機器である。制御システム1は、検出ユニット2が検出した操作に応じた処理を実行する。
 制御システム1は、制御装置10と第1記憶装置11と第2記憶装置12と放音装置13とを具備する。制御システム1は、例えばスマートフォン,タブレット端末またはパーソナルコンピュータ等の情報端末により実現される。なお、制御システム1は、単体の装置で実現されてもよく、相互に別体で構成された複数の装置で実現されてもよい。
 制御装置10は、制御システム1の各要素を制御する単数または複数のプロセッサである。具体的には、例えばCPU(Central Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより、制御装置10が構成される。制御装置10は、利用者の操作に応じた音響信号Xを生成する。
 放音装置13は、制御装置10が生成する音響信号Xが表す音(以下「目標音」という)を放音する。放音装置13は、例えばスピーカまたはヘッドホンである。音響信号Xをデジタルからアナログに変換するD/A変換器と、音響信号Xを増幅する増幅器とは、便宜的に図示が省略されている。また、図1に示す例においては、放音装置13を制御システム1に搭載した構成を示している。別の例においては、制御システム1とは別体の放音装置13が有線または無線により制御システム1に接続されてもよい。
 第1記憶装置11は、制御装置10が実行するプログラムと制御装置10が使用する各種のデータとを記憶する単数または複数の記録媒体で構成される。第1記憶装置11は、第2記憶装置12と比較して記憶容量が大きくかつ読出速度が遅い記録媒体である。例えば、磁気記録媒体または光記録媒体等の不揮発性の記録媒体を含む記憶装置が第1記憶装置11として利用される。第1記憶装置11は、制御装置10が実行するプログラムに加えて、音響信号Xの生成に利用される制御データCを記憶する。制御データCは、例えば、音の波形を表す時間領域の波形データである。具体的には、例えば打楽器等の各種の楽器の演奏音を表す制御データCが第1記憶装置11に記憶される。
 第2記憶装置12は、第1記憶装置11と同様に、制御装置10が実行するプログラムと制御装置10が使用する各種のデータとを記憶する単数または複数の記録媒体で構成される。第2記憶装置12は、第1記憶装置11と比較して記憶容量が小さくかつ読出速度が速い記録媒体である。例えば、半導体記録媒体等の記録媒体を含む揮発性または不揮発性の記憶装置が第2記憶装置12として利用される。例えば主記憶装置またはキャッシュメモリが第2記憶装置12として利用される。制御装置10は、第1記憶装置11から第2記憶装置12に読込まれたプログラムを実行することで各種の機能を実現する。
 図2は、検出ユニット2の構成を例示する模式図である。検出ユニット2は、収容体20と第1検出器21と第2検出器22とを具備する。収容体20は、第1検出器21と第2検出器22とを収容する中空の構造体である。具体的には、収容体20は、筐体部20aと透光部20bとを具備する。筐体部20aは、上方に開口を有する内部空間を有する箱形の構造体である。透光部20bは、筐体部20aの開口を閉塞する板状部材である。透光部20bは、第1検出器21が検出可能な波長域の光を透過させる。透光部20bは、筐体部20aと対向する表面とは反対側の表面である操作面(打撃面)Fを有する。利用者は、操作面Fに対して利用者自身の手Hを接近または離間させ、操作面Fを手Hで打撃することが可能である。利用者の手Hは「物体」の一例である。
 第1検出器21は、利用者の手Hの状態を検出する光学センサである。第1検出器21は、筐体部20aの底面における中点(中央)の近傍に設置される。具体的には、被写体と受光面との距離を測定する測距センサが第1検出器21として利用される。例えば、第1検出器21は、透光部20bを透過する手Hからの反射光を受光することで、操作面Fに垂直な方向における手Hの位置(具体的には受光面から手Hまでの距離)を時系列に表す検出信号Q1を生成する。検出信号Q1は、有線通信または無線通信により制御システム1に送信される。第1検出器21が検出する光は可視光に限定されない。例えば赤外光等の非可視光を第1検出器21が検出してもよい。
 第2検出器22は、操作面Fに対する手Hの接触を検出するためのセンサである。例えば周囲の音を収音する収音装置が第2検出器22として利用される。第2検出器22は、利用者の手Hが操作面Fを打撃したときに発生する打撃音を収音する。第2検出器22は、打撃音を含む周囲の音を表す検出信号Q2を生成する。検出信号Q2は、有線通信または無線通信により制御システム1に送信される。第2検出器22を収容体20の外側に設置してもよい。
 図3は、制御システム1の機能的な構成を例示するブロック図である。制御システム1の制御装置10は、第1記憶装置11に記憶されたプログラムを第2記憶装置12に読込および実行することで複数の機能(状態検出部30,第1処理部31および第2処理部32)を実現する。
 状態検出部30は、検出ユニット2による検出の結果(検出信号Q1および検出信号Q2)に応じて利用者の手Hの状態を検出する。具体的には、状態検出部30は、第1状態または第2状態を手Hの状態として検出する。図2に例示される通り、第1状態は、手Hが操作面Fから所定の距離(以下「基準値」という)Drefだけ離間する状態である。第2状態は、手Hが操作面Fに接触する状態である。
 図4は、手Hの状態に関する説明図である。状態検出部30は、第1検出器21が生成する検出信号Q1を解析することで、手Hが第1状態にあることを検出する。具体的には、状態検出部30は、検出信号Q1を解析することで操作面Fと手Hとの距離Dを算定する。距離Dの算定は所定の周期で反復される。すなわち、距離Dを時系列で表すデータが生成される。距離Dの算定には公知の技術が任意に採用される。図4には、距離Dの時間的な変化が図示されている。状態検出部30は、操作面Fと手Hとの距離Dが基準値Drefに一致した場合に、手Hが第1状態にあると判定する。基準値Drefを含む所定の許容範囲内に距離Dが含まれる場合に、手Hが第1状態にあると状態検出部30が判定してもよい。基準値Drefは、事前に設定された固定値である。ただし、利用者からの指示に応じて基準値Drefが変更されてもよい。
 また、状態検出部30は、第2検出器22が生成する検出信号Q2を解析することで、手Hが第2状態にあることを検出する。具体的には、状態検出部30は、検出信号Q2が表す音の音量Vを算定する。音量Vの算定は所定の周期で反復される。すなわち、音量Vを時系列で表すデータが生成される。音量Vの算定には公知の技術が任意に採用される。図4には、音量Vの時間的な変化が図示されている。操作面Fの打撃により打撃音が発生することで音量Vは急峻に増加する。状態検出部30は、音量Vが所定の数値(以下「基準値」という)Vrefを上回る場合(すなわち打撃音が収音された場合)に、手Hが第2状態にあると判定する。基準値Vrefは、事前に設定された固定値である。ただし、利用者からの指示に応じて基準値Vrefが変更されてもよい。
 利用者の手Hは、操作面Fに接近する一連の過程において順次に第1状態および第2状態となる。具体的には、操作面Fに手Hが接近する過程の時点t1において手Hは第1状態となり、時点t1の経過後の時点t2において手Hは第2状態となる。すなわち、手Hは第2状態の前に第1状態となる。時点t1と時点t2とは時間軸上で間隔をあけて前後する。
 図3の第1処理部31は、手Hが第1状態にあることを状態検出部30が検出した場合に、第1記憶装置11に記憶された制御データCを第2記憶装置12に読込む第1処理を実行する。すなわち、手Hが操作面Fに接近する過程において距離Dが基準値Drefに到達した時点t1において第1処理が実行される。第1処理は、第1記憶装置11から制御データCを読出す処理と、その制御データCを第2記憶装置12に書込む処理とを含む。
 第2処理部32は、手Hが第2状態にあることを状態検出部30が検出した場合に、第2記憶装置12に読込まれた制御データCに対して第2処理を実行する。すなわち、手Hが操作面Fに接近する過程における第1状態の経過後に、音量Vが基準値Vrefに到達した時点t2において第2処理が実行される。
 第2処理は、第2記憶装置12に読込まれた制御データCを利用して音響信号Xを生成する音響処理である。具体的には、第2処理は、制御データCが表す音の音高を検出信号Q2の音量Vに応じて調整することで音響信号Xを生成する。したがって、操作面Fを手Hが打撃する強度に応じた音高の目標音を表す音響信号Xが生成される。例えば、操作面Fに対する打撃の強度が高いほど高い音高の音響信号Xが生成される。第2処理の内容は以上の例示に限定されない。例えば、残響効果等の音響効果を制御データCに対して付与する効果付与処理、または、制御データCが表す音の周波数特性を変化させるフィルタ処理を、第2処理部32が第2処理として実行してもよい。以上に説明した第2処理により第2処理部32が生成した音響信号Xが放音装置13に供給されることで目標音が発音される。以上の説明から理解される通り、第2処理は、第2記憶装置12に読込まれた制御データCに応じて発音する処理を含む。
 図5は、制御装置10が実行する処理(以下「制御処理」という)Saの具体的な手順を例示するフローチャートである。例えば、利用者の手Hが操作面Fに対して接近および離間する周期よりも充分に短い周期で制御処理Saが反復される。
 制御処理Saが開始されると、制御装置10(状態検出部30)は、検出ユニット2から供給される検出信号Q1および検出信号Q2を解析することで利用者の手Hの状態を検出する(Sa1)。制御装置10(第1処理部31)は、手Hが第1状態にあることを状態検出部30が検出したか否かを判定する(Sa2)。手Hが第1状態にある場合(Sa2:YES)、制御装置10(第1処理部31)は、第1記憶装置11に記憶された制御データCを第2記憶装置12に読込む第1処理を実行する(Sa3)。他方、手Hが第1状態にない場合(Sa2:NO)、第1処理は実行されない。
 手Hが第1状態にない場合(Sa2:NO)、または第1処理が実行された場合、制御装置10(第2処理部32)は、手Hが第2状態にあることを状態検出部30が検出したか否かを判定する(Sa4)。手Hが第2状態にある場合(Sa4:YES)、制御装置10(第2処理部32)は、第2記憶装置12に読込まれた制御データCに対して第2処理を実行する(Sa5)。第2処理により生成された音響信号Xが放音装置13に供給されることで目標音が発音される。他方、手Hが第2状態にない場合(Sa4:NO)、第2処理は実行されない。
 図4には、操作面Fを手Hが打撃した時点t2において第1処理を開始する構成が対比例として併記されている。対比例では、時点t2で開始された第1処理の終了後の時点t3において第2処理が開始される。したがって、音響信号Xが表す目標音は、利用者による操作面Fの接触から遅延した時点で放音装置13から放音される。対比例とは対照的に、第1実施形態においては、手Hが第1状態にあることが検出された場合に制御データCが第2記憶装置12に読込まれる。すなわち、操作面Fに対する手Hの接触前に制御データCが第2記憶装置12に準備される。したがって、対比例と比較して第2処理を迅速に開始できる。具体的には、利用者が操作面Fに接触した時点t2から第2処理を開始できる。したがって、利用者の手Hが操作面Fに接触してから目標音が発音されるまでの遅延が対比例と比較して低減される。
 また、第1実施形態においては、利用者の手Hが操作面Fに接近して最終的に接触するまでの一連の過程において、第1処理および第2処理が順次に実行される。したがって、手Hが第1状態にあることを利用者が特に意識することなく第1処理が実行されるという利点がある。すなわち、利用者は、目標音が発音されるべき時点において操作面Fに接触すれば充分であり、目標音の発音前に利用者が第1処理を意識的に指示する必要はない。
B:第2実施形態
 第2実施形態を以下に説明する。以下に例示する各形態において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号と同じ符号を用いて各々の詳細な説明を適宜に省略する。
 第2実施形態の情報処理システム100は、操作面Fに対して手Hが接触する位置(以下「打撃位置」という)に応じた音響特性の目標音を発音する。第1記憶装置11は、互いに異なる複数の打撃位置にそれぞれ対応するM(N0)個(Mは2以上の自然数)の制御データCを記憶する。制御データCが表す音の音響特性(例えば音色)は制御データC毎に相違する。
 第1実施形態の第1処理部31は、手Hが第1状態にあることが検出された場合に、1個の制御データCを第1記憶装置11から読出して第2記憶装置12に読込む。第2実施形態の第1処理部31は、手Hが第1状態にあることが検出された場合に、第1記憶装置11に記憶されたM個の制御データCのうちのN個(NはM以下の2以上の自然数)の制御データCを第1記憶装置11から読出して第2記憶装置12に読込む。
 具体的には、第1処理部31は、手Hが第1状態にあることが検出された時点t1におけるその手Hの位置(以下「暫定位置」という)を特定する。暫定位置は、操作面Fに平行な平面内における手Hの位置であり、実際に手Hが操作面Fに接触するまでの暫定的な打撃位置に相当する。実際の打撃位置は、暫定位置とは厳密には一致しないが、当該暫定位置に近い位置であると予測される。第1処理部31は、第1記憶装置11に記憶されたM個の制御データCのうち暫定位置に近い打撃位置に対応するN個の制御データCを第2記憶装置12に読込む。すなわち、第1状態における手Hの暫定位置から予測される打撃位置に対応する制御データCが第2記憶装置12に読込まれる。したがって、第1記憶装置11に記憶されたM個の制御データCのうち、第2記憶装置12に読込まれるN個の制御データCの組合せは、時点t1における暫定位置に応じて変化する。N個の制御データCは、第2処理が実行されるべき制御データCの候補とも換言される。N個の制御データCは「複数のデータ」の一例である。
 利用者の手Hが第2状態になることで操作面Fに対する打撃位置が確定する。第2処理部32は、第2記憶装置12に読込まれたN個の制御データCのうち実際の打撃位置に対応する1個の制御データCに対して第2処理を実行する。例えば、時点t2における操作面F上の手Hの位置(すなわち操作面Fに対する実際の打撃位置)に最も近い打撃位置に対応する1個の制御データCが、第2記憶装置12に記憶されたN個の制御データCから第2処理の対象として選択される。第2処理の内容は第1実施形態と同様である。すなわち、打撃位置に対応する音響特性の目標音が放音装置13から放音される。以上の説明から理解される通り、第2実施形態における第2処理は、第2記憶装置12に読込まれたN個の複数のデータのうちの何れか一つに応じて発音する処理である。
 第2実施形態においても第1実施形態と同様の効果が実現される。第2記憶装置12にN個(複数)の制御データCが読込まれる構成においては、第2記憶装置12に1個の制御データCのみが読込まれる第1実施形態と比較して第1処理に長時間が必要である。したがって、操作面Fを手Hが打撃した時点t2において第1処理を開始する対比例において、複数の制御データCを第2記憶装置12に読込む場合、目標音の発音の遅延が特に顕著となる。以上の事情を考慮すると、第1状態が検出された時点t1で第1処理を実行することにより目標音の遅延を低減する構成は、第2実施形態のように複数の制御データCを第2記憶装置12に読込む構成において格別に有効である。
 第2実施形態においては、相異なる打撃位置に対応するM個の制御データCのうち暫定位置に応じたN個の制御データCを第2記憶装置12に読込む場合を例示したが、N個の制御データCを選択する条件は以上の例示に限定されない。
 例えば、操作面Fに対して手Hが移動する方向(以下「移動方向」という)に応じた音響特性の目標音を発音する第1態様が想定される。移動方向は、操作面F(または操作面Fの法線)に対する手Hの移動の角度である。第1態様においては、互いに異なる複数の移動方向にそれぞれ対応するM個の制御データCが第1記憶装置11に記憶される。第1処理部31は、第1記憶装置11に記憶されたM個の制御データCのうち、時点t1における暫定的な移動方向に対応するN個の制御データCを第2記憶装置12に読込む。第2処理部32は、第2記憶装置12に読込まれたN個の制御データCのうち時点t2での確定的な移動方向に対応する1個の制御データCに対して第2処理を実行する。
 また、操作面Fに対して手Hが移動する速度(以下「移動速度」という)に応じた音響特性の目標音を発音する第2態様も想定される。第2態様においては、相異なる移動速度に対応するM個の制御データCが第1記憶装置11に記憶される。第1処理部31は、第1記憶装置11に記憶されたM個の制御データCのうち、時点t1における暫定的な移動速度に対応するN個の制御データCを第2記憶装置12に読込む。第2処理部32は、第2記憶装置12に読込まれたN個の制御データCのうち時点t2での確定的な移動速度に対応する1個の制御データCに対して第2処理を実行する。
C:第3実施形態
 図6は、第3実施形態における通信システムSの構成を例示するブロック図である。通信システムSは、情報処理システム100と記憶システム200とを具備するサーバクライアントシステムである。情報処理システム100と記憶システム200とは、例えばインターネット等の通信網300を介して相互に通信可能である。
 情報処理システム100は、第1実施形態における第1記憶装置11を通信装置14に置換した構成である。通信装置14は、通信網300を介して記憶システム200と通信する。記憶システム200は、制御データCを記憶する第1記憶装置11を具備するサーバシステムである。
 図7は、第3実施形態の制御処理Saのうち第1処理(Sa3)の具体的な手順を例示するフローチャートである。第1処理が開始されると、制御装置10(第1処理部31)は、送信処理を実行する(Sa31)。送信処理は、制御データCの要求Rを通信装置14から通信網300を介して記憶システム200(第1記憶装置11)に送信する処理である。
 情報処理システム100から要求Rを受信すると(Sb1)、記憶システム200は、第1記憶装置11に記憶された制御データCを読出する(Sb2)。記憶システム200は、その制御データCを要求元の情報処理システム100に送信する(Sb3)。
 情報処理システム100の制御装置10(第1処理部31)は、受信処理を実行する(Sa32)。受信処理は、記憶システム200から送信された制御データCを通信装置14により受信し、その制御データCを第2記憶装置12に格納する処理である。以上の説明から理解される通り、第3実施形態における第1処理は、送信処理(Sa31)と受信処理(Sa32)とを含む。第2実施形態においても第1実施形態と同様に、利用者の手Hが第1状態にあることが検出された場合に、第1記憶装置11に記憶された制御データCが第2記憶装置12に読込まれる。
 第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態においては、記憶システム200の第1記憶装置11に制御データCが記憶されるから、情報処理システム100が第1記憶装置11を保持する必要がない。したがって、情報処理システム100に要求される記憶容量が削減されるという利点がある。
 第3実施形態のように第1記憶装置11から通信網300を経由して情報処理システム100が制御データCを受信する構成においては、例えば通信網300における通信の遅延に起因して、第1処理に長時間が必要である場合がある。したがって、操作面Fを手Hが打撃した時点t2において第1処理を開始する対比例において、情報処理システム100が通信網300を介して制御データCを取得する場合、目標音の発音の遅延が特に顕著となる。以上の事情を考慮すると、第1状態が検出された時点t1で第1処理を実行することにより目標音の遅延を低減する構成は、第3実施形態のように通信網300を介して制御データCが授受される構成において格別に有効である。
 以上の説明においては第1実施形態を基礎とした形態を例示したが、N個の制御データCを第2記憶装置12に読込む第2実施形態にも第3実施形態と同様の構成が適用される。すなわち、第1処理部31は、第1記憶装置11に記憶されたM個の制御データCのうちN個の制御データCを記憶システム200から通信網300を介して受信し、そのN個の制御データCを第2記憶装置12に格納する。
D:変形例
 以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各実施形態においては、第1検出器21が測距センサである場合を例示したが、第1検出器21の種類は以上の例示に限定されない。例えば、利用者の手Hの画像を撮影する画像センサを第1検出器21として利用してもよい。この場合、状態検出部30は、第1検出器21が撮影した手Hの画像を解析することで距離Dを算定し、その距離Dに応じて第1状態を検出する。また、赤外光を出射および受光する赤外線センサを第1検出器21として利用してもよい。この場合、状態検出部30は、手Hの表面で反射した赤外光の受光強度から距離Dを算定する。また、第1検出器21が設置される位置は任意である。例えば、第1検出器21が手Hの画像を側方から撮影してもよい。
(2)前述の各実施形態においては、打撃音を含む音を表す検出信号Q2を解析することで第2状態を検出したが、操作面Fに対する手Hの接触を検出するための構成および方法は以上の例示に限定されない。例えば、第1検出器21が生成する検出信号Q1を解析することで操作面Fに対する手Hの接触(すなわち第2状態)を検出してもよい。例えば、状態検出部30は、検出信号Q1から特定される距離Dがゼロに到達した場合に、利用者の手Hが第2状態にあると判定する。第2状態の検出に検出信号Q1を利用する構成では、第2検出器22は省略される。また、操作面F(透光部20b)に対する手Hの接触を検出する接触センサ(例えば静電容量式センサ)、操作面F(透光部20b)の振動を検出する振動センサ、または、操作面Fに手Hから作用する圧力を検出する圧力センサを、第2検出器22として利用してもよい。
(3)前述の各実施形態においては、利用者の手Hが操作面Fに接触する構成を例示したが、操作面Fに接触する物体は手Hに限定されない。例えば、打楽器用のスティック等の打撃部材により利用者が操作面Fを打撃してもよい。以上の例示から理解される通り、操作面Fに接触する物体は、利用者の身体の一部(典型的には手H)と、利用者が操作する打撃部材との双方が包含される。打撃部材が操作面Fを打撃する構成においては、打撃部材に第1検出器21または第2検出器22を搭載してもよい。
(4)検出ユニット2の収容体20の構成は任意である。また、第1検出器21および第2検出器22が収容体20に収容される構造は必須ではない。すなわち、利用者の手H等の物体が接触する操作面Fを検出ユニット2が含む構成であれば、収容体20の具体的な構造および有無は特に限定されない。
(5)前述の各実施形態においては、1個の検出ユニット2を具備する情報処理システム100を例示した。別の例としては、互いに異なる複数の音高にそれぞれ対応する複数の検出ユニット2を情報処理システム100が具備してもよい。この場合、状態検出部30は、複数の検出ユニット2の各々について第1状態または第2状態を検出する。第1処理部31は、互いに異なる複数の音高にそれぞれ対応する複数の制御データCのうち、第1状態が検出された検出ユニット2に対応する音高の1以上の制御データCを第2記憶装置12に読込み、第2処理部32は、第2状態が検出された検出ユニット2に対応する音高の制御データCに対して第2処理を実行する。
(6)前述の各実施形態においては、音の波形を表す制御データCに対して第2処理を実行することで音響信号Xを生成したが、制御データCおよび第2処理の内容は以上の例示に限定されない。例えば、発話音声の条件(音韻または音高等)を表す制御データCを利用する構成においては、発話音声を表す音響信号Xを生成する音声合成処理が第2処理として実行される。また、例えば音響信号に対する圧縮処理で生成された制御データCを利用する構成においては、その制御データCから音響信号Xを生成する復号処理が第2処理として実行される。
(7)第1記憶装置11が記憶システム200に設置された第3実施形態において、第2処理の一部を記憶システム200が実行してもよい。この場合、第2処理の一部が実行された制御データCが情報処理システム100の第2記憶装置12に格納される。情報処理システム100の第2処理部32は、第2記憶装置12に記憶された制御データCに対して第2処理の残余の部分を実行する。
(8)前述の各実施形態においては、利用者の手Hが操作面Fに実際に接触する構成を例示したが、例えば触覚フィードバックを利用した触覚技術(ハプティクス)を利用して仮想的な操作面Fを利用者が接触する構成を採用してもよい。この場合、利用者は、仮想空間内に存在する擬似的な手を操作することで、その仮想空間内に設置された操作面Fに接触する。仮想空間内の操作面Fに接触したときに振動する振動体を利用することで、利用者は操作面Fに実際に接触しているように知覚する。以上の説明から理解される通り、操作面Fは仮想空間内における仮想的な面でもよい。同様に、操作面Fに接触する物体(例えば手H)は、仮想空間内における仮想的な物体でもよい。
(9)以上に例示した情報処理システム100の機能(特に制御システム1の機能)は、前述の通り、制御装置10を構成する単数または複数のプロセッサと、第2記憶装置12に読込まれたプログラムとの協働により実現される。本開示に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体であってもよい。非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網300を介してプログラムを配信する構成では、その配信装置においてプログラムを記憶する記憶装置が、前述の非一過性の記録媒体に相当する。
E:付記
 以上に例示した実施形態から、例えば以下の構成が把握される。
 本開示のひとつの態様(態様1)に係る情報処理方法は、コンピュータにより実行され、物体が操作面から所定の距離だけ離間する第1状態を検出し、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出し、前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行し、前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行することを含む。
 以上の態様によれば、物体が第1状態にあることが検出された場合にデータが第2記憶装置に読込まれるから、物体が第2状態にあることが検出されてから第1処理および第2処理を実行する構成と比較して、第2処理を迅速に開始できる。また、物体が操作面に接近して最終的に接触するまでの一連の過程において、第1処理および第2処理が順次に実行される。したがって、物体が第1状態にあることを利用者が意識することなく第1処理を実行できる。
 態様1の具体例(態様2)において、前記第1処理は、通信網を介して前記第1記憶装置に前記データの要求を送信し、前記要求に応じて前記第1記憶装置から送信された前記データを、前記通信網を介して受信する、ことをさらに含む。第1記憶装置から通信網を経由してデータを受信する構成においては、通信網における通信遅延に起因して、第2処理の開始が特に遅延し易い。したがって、物体が第1状態にあることが検出された段階で第1処理を実行する本開示の構成は、第1記憶装置から通信網を経由してデータを受信する構成に特に好適である。
 態様1または態様2の具体例(態様3)において、前記第2処理は、前記第2記憶装置に読込まれたデータに応じて発音することを含む。以上の態様によれば、物体が第2状態にあることが検出されてから第1処理および第2処理を実行する構成と比較して、発音の遅延を低減できる。
 態様3の具体例(態様4)において、前記データは、複数のデータを含み、前記第2処理は、前記第2記憶装置に読込まれた前記複数のデータのうちの何れか一つに応じて発音することを含む。第2記憶装置に複数のデータが読込まれる構成においては、第2記憶装置に単数のデータが読込まれる構成と比較して第1処理に長時間が必要である。したがって、物体が第1状態にあることが検出された段階で第1処理を実行する本開示の構成が特に好適である。
 複数のデータの典型例は、例えば相異なる楽音を発音するためのデータである。すなわち、互いに異なる複数の楽音をそれぞれ発音する複数のデータが、第2状態への遷移前に第2記憶装置に読込まれる。そして、例えば、第2記憶装置に読込まれた複数のデータのうち、第2状態にある物体の位置に応じて選択されたデータを利用して楽音が発音される。
 本開示のひとつの態様(態様5)に係る情報処理システムは、物体が操作面から所定の距離だけ離間する第1状態を検出し、また、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出する状態検出部と、前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行する第1処理部と、前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行する第2処理部とを具備する。
 本開示のひとつの態様(態様6)に係るプログラムは、物体が操作面から所定の距離だけ離間する第1状態を検出し、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出し、前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行し、前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行することをコンピュータに実行させる。
 本開示は、情報処理方法、情報処理システムおよびプログラムに適用してもよい。
S…通信システム
100…情報処理システム
200…記憶システム
300…通信網
1…制御システム
10…制御装置
11…第1記憶装置
12…第2記憶装置
13…放音装置
14…通信装置
2…検出ユニット
20…収容体
20a…筐体部
20b…透光部
21…第1検出器
22…第2検出器
30…状態検出部
31…第1処理部
32…第2処理部

Claims (6)

  1.  コンピュータにより実行される情報処理方法であって、
     物体が操作面から所定の距離だけ離間する第1状態を検出し、
     前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出し、
     前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行し、
     前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行する
     ことを含む情報処理方法。
  2.  前記第1処理は、
     通信網を介して前記第1記憶装置に前記データの要求を送信し、
     前記要求に応じて前記第1記憶装置から送信された前記データを、前記通信網を介して受信する、ことをさらに含む
     請求項1の情報処理方法。
  3.  前記第2処理は、前記第2記憶装置に読込まれたデータに応じて発音することを含む
     請求項1または請求項2の情報処理方法。
  4.  前記データは、複数のデータを含み、
     前記第2処理は、前記第2記憶装置に読込まれた前記複数のデータのうちの何れか一つに応じて発音することを含む
     請求項3の情報処理方法。
  5.  物体が操作面から所定の距離だけ離間する第1状態を検出し、また、前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出する状態検出部と、
     前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行する第1処理部と、
     前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行する第2処理部と
     を具備する情報処理システム。
  6.  物体が操作面から所定の距離だけ離間する第1状態を検出し、
     前記第1状態が検出された後に前記物体が前記操作面に接触する第2状態を検出し、
     前記第1状態が検出された場合に、第1記憶装置からデータを読み出して前記読み出されたデータを第2記憶装置に読込むことを含む第1処理を実行し、
     前記第2状態が検出された場合に、前記第2記憶装置に読込まれたデータに対して第2処理を実行する
     ことをコンピュータに実行させるプログラム。
PCT/JP2020/045808 2020-03-23 2020-12-09 情報処理方法、情報処理システムおよびプログラム WO2021192437A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/950,737 US20230019428A1 (en) 2020-03-23 2022-09-22 Information processing method, information processing system, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020050818A JP2021149759A (ja) 2020-03-23 2020-03-23 情報処理方法、情報処理システムおよびプログラム
JP2020-050818 2020-03-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/950,737 Continuation US20230019428A1 (en) 2020-03-23 2022-09-22 Information processing method, information processing system, and program

Publications (1)

Publication Number Publication Date
WO2021192437A1 true WO2021192437A1 (ja) 2021-09-30

Family

ID=77849104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045808 WO2021192437A1 (ja) 2020-03-23 2020-12-09 情報処理方法、情報処理システムおよびプログラム

Country Status (3)

Country Link
US (1) US20230019428A1 (ja)
JP (1) JP2021149759A (ja)
WO (1) WO2021192437A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265447A (ja) * 1992-03-18 1993-10-15 Kawai Musical Instr Mfg Co Ltd 鍵盤を操作する手の指の判定が可能な電子楽器
WO2007145003A1 (ja) * 2006-06-14 2007-12-21 Mitsubishi Electric Corporation 車載情報装置
JP2009109465A (ja) * 2007-11-01 2009-05-21 Clarion Co Ltd ナビゲーション装置、基地局、渋滞情報処理システム、その制御方法及び制御プログラム、渋滞情報処理方法
JP2011118006A (ja) * 2009-11-30 2011-06-16 Pioneer Electronic Corp 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP2015075805A (ja) * 2013-10-07 2015-04-20 Necエンジニアリング株式会社 情報処理装置、渋滞情報取得手段、及びプログラム
JP2017146555A (ja) * 2016-02-19 2017-08-24 ヤマハ株式会社 演奏支援のための装置および方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265447A (ja) * 1992-03-18 1993-10-15 Kawai Musical Instr Mfg Co Ltd 鍵盤を操作する手の指の判定が可能な電子楽器
WO2007145003A1 (ja) * 2006-06-14 2007-12-21 Mitsubishi Electric Corporation 車載情報装置
JP2009109465A (ja) * 2007-11-01 2009-05-21 Clarion Co Ltd ナビゲーション装置、基地局、渋滞情報処理システム、その制御方法及び制御プログラム、渋滞情報処理方法
JP2011118006A (ja) * 2009-11-30 2011-06-16 Pioneer Electronic Corp 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP2015075805A (ja) * 2013-10-07 2015-04-20 Necエンジニアリング株式会社 情報処理装置、渋滞情報取得手段、及びプログラム
JP2017146555A (ja) * 2016-02-19 2017-08-24 ヤマハ株式会社 演奏支援のための装置および方法

Also Published As

Publication number Publication date
JP2021149759A (ja) 2021-09-27
US20230019428A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
US9099069B2 (en) Signal processing device
CN107408374B (zh) 发声设备、键盘乐器和发声控制方法
US11138961B2 (en) Sound output device and non-transitory computer-readable storage medium
JP6789975B2 (ja) 管楽器と組み合わせ可能な、電子音を発生させるための電子システムおよびこのようなシステムを含む楽器
US7343777B2 (en) Striking member vibration measurement device
WO2021192437A1 (ja) 情報処理方法、情報処理システムおよびプログラム
JP7140083B2 (ja) 電子管楽器、電子管楽器の制御方法及びプログラム
US20230013425A1 (en) Reproduction control method, reproduction control system, and program
WO2015111657A1 (ja) 音響効果設定方法
Curtin Measuring violin sound radiation using an impact hammer
WO2021192438A1 (ja) 再生制御方法、再生制御システムおよびプログラム
Neubauer et al. An active-system approach for eliminating the wolf note on a cello
JPH0580750A (ja) 鍵盤楽器
JP2021051249A (ja) 発音制御方法および発音制御装置
CN216527988U (zh) 用于对演奏信号进行处理的电子设备以及演奏乐器
JP6119422B2 (ja) 情報処理装置及び楽器
JP2010271440A (ja) 演奏制御装置およびプログラム
EP4083994A1 (en) Electronic percussion instrument, control device for electronic percussion instrument, and control method therefor
JP6651898B2 (ja) 楽器
TR2023011200A2 (tr) Di̇ji̇tal lazer enstrüman
JP2023007982A (ja) 木管楽器のための演奏者運指検知システム
JP2013195966A (ja) 発音制御装置、携帯情報機器及びプログラム
JP2017151303A (ja) 楽器
Sunderland et al. by Stephen Emsen, Christopher Heal
JP2014134602A (ja) 電子弦楽器、楽音生成方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20927295

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20927295

Country of ref document: EP

Kind code of ref document: A1