WO2021153214A1 - 情報処理装置及び情報処理方法 - Google Patents
情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- WO2021153214A1 WO2021153214A1 PCT/JP2021/000674 JP2021000674W WO2021153214A1 WO 2021153214 A1 WO2021153214 A1 WO 2021153214A1 JP 2021000674 W JP2021000674 W JP 2021000674W WO 2021153214 A1 WO2021153214 A1 WO 2021153214A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- information processing
- information
- amount
- unit
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 499
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000029058 respiratory gaseous exchange Effects 0.000 claims abstract description 253
- 238000012545 processing Methods 0.000 claims description 60
- 230000008859 change Effects 0.000 claims description 49
- 230000007423 decrease Effects 0.000 claims description 26
- 230000003434 inspiratory effect Effects 0.000 claims description 23
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 93
- 230000000241 respiratory effect Effects 0.000 description 84
- 230000008569 process Effects 0.000 description 67
- 230000006870 function Effects 0.000 description 60
- 230000005540 biological transmission Effects 0.000 description 47
- 125000000205 L-threonino group Chemical group [H]OC(=O)[C@@]([H])(N([H])[*])[C@](C([H])([H])[H])([H])O[H] 0.000 description 39
- 238000004364 calculation method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 18
- 230000009467 reduction Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 13
- 238000006073 displacement reaction Methods 0.000 description 13
- 230000004044 response Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 102100030704 Interleukin-21 Human genes 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 108010074108 interleukin-21 Proteins 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/285—Memory allocation or algorithm optimisation to reduce hardware requirements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Definitions
- This disclosure relates to an information processing device and an information processing method.
- Patent Document 1 a technique for determining an utterance timing in a voice dialogue system is known (for example, Patent Document 1).
- the utterance timing of the voice dialogue system is determined based on the timing when the user's breathing changes from exhalation to inspiration.
- the conventional technology cannot always reduce the operation load of the user. For example, in the prior art, only the timing at which the system side speaks to the user is determined, and the load of the user performing the operation by speaking or the like is not considered. Therefore, it is desired to reduce the operation load of the user.
- the information processing apparatus of one form according to the present disclosure includes an acquisition unit that acquires respiration information indicating the user's respiration and the user's respiration information acquired by the acquisition unit.
- a determination unit for determining an operation amount related to the operation by the user based on the breathing is provided.
- Embodiment 1-1 Outline of information processing according to the embodiment of the present disclosure 1-1-1. Background and effects 1-1-2. Display example based on the amount of operation 1-1-2-1. Absolute value display example 1-1-2-2. Relative value display example 1-1-3. Determining the subject using pre-breathing utterance 1-1-4. Sensor example 1-1-4-1. Contact type 1-1-4-2. Non-contact type 1-2. Configuration of Information Processing System According to Embodiment 1-3. Configuration of Information Processing Device According to Embodiment 1-4. Configuration of the terminal device according to the embodiment 1-5. Information processing procedure according to the embodiment 1-5-1. Procedure for processing related to information processing equipment 1-5-2. Procedure for processing related to information processing system 1-5-3.
- processing related to information processing systems 1-6 Example of reflection on the amount of respiratory manipulation 1-6-1. Example of reflection at the time of sudden inspiration 1-6-2. Example of reflection in exhaust operation amount 1-6-3. Example that does not reflect the exhaust at the time of intake 1-6-4. Example that does not reflect the intake air at the time of exhaust 1-7. Prediction processing 1-7-1. Example of operation amount prediction 1-7-2. Display example of predicted manipulated variable 1-8. Other application examples 1-8-1. Operation of selector indicator 1-8-2. Example of switching display / non-display of indicator 1-8-3. GUI operation target switching example 2. Other Embodiments 2-1. Modification example (example of performing decision processing on the client side) 2-2. Configuration example of the information processing device according to the modified example 2-3. Others 3. Effect of this disclosure 4. Hardware configuration
- FIG. 1 is a diagram showing an example of information processing according to the embodiment of the present disclosure.
- the information processing according to the embodiment of the present disclosure is realized by the information processing system 1 (see FIG. 5) including the information processing device 100 (see FIG. 6) and the terminal device 10 (see FIG. 8).
- the information processing device 100 is an information processing device that executes information processing according to the embodiment.
- the information processing apparatus 100 determines an amount related to an operation by the user (hereinafter, also referred to as "operation amount") based on the user's respiration, and determines an operation target based on the subsequent utterance of the user. Show the case. After determining the operation target based on the user's utterance, the operation amount related to the operation by the user may be determined based on the subsequent breathing of the user, which will be described later. Further, in the example of FIG. 1, a case where the sensor information detected by the respiration sensor 171 (see FIG. 8) of the terminal device 10 used by the user is used as the respiration information is shown. In the example of FIG.
- the respiration sensor 171 using the millimeter-wave radar detects the respiration information indicating the user's respiration is shown, but it is not limited to the millimeter-wave radar and if the respiration information of the user can be detected. , Any sensor may be used. This point will be described later.
- FIG. 1 Each process shown in FIG. 1 may be performed by either the information processing device 100 or the terminal device 10 of the information processing system 1. Any device included in the information processing system 1 may perform the processing in which the information processing system 1 is described as the main body of the processing.
- a case where the information processing device 100 performs a process (determination process) for determining the operation amount related to the operation by the user U1 will be described as an example using the respiration information indicating the respiration of the user U1 detected by the terminal device 10. .
- the terminal device 10 may perform the determination process (information processing). This point will be described later.
- the user U1 speaks WUW (Wake up Word) (step S11).
- the user U1 makes an utterance to activate the voice recognition of the information processing system 1.
- the information processing system 1 activates voice recognition in response to a WUW utterance by the user U1.
- the information processing device 100 or the terminal device 10 activates voice recognition in response to a WUW utterance by the user U1.
- the terminal device 10 is a tablet type terminal having a display unit 16 which is a display (display screen) and an output unit 13 (see FIG. 8) which outputs audio is shown.
- the terminal device 10 is not limited to the tablet-type terminal as shown in FIG. 1, and may be any device such as a smart speaker or a smartphone, and details of this point will be described later.
- the terminal device 10 activates voice recognition in response to a WUW utterance by the user U1.
- the terminal device 10 processes a predetermined voice output when voice recognition is activated.
- voice recognition is activated.
- the terminal device 10-1 "How can I help?" Is output as a voice.
- the terminal device 10 may be described separately from the terminal devices 10-1, 10-2, and 10-3 according to the change in the display of the terminal device 10.
- the terminal devices 10-1, 10-2, and 10-3 are the same terminal devices 10, and will be referred to as the terminal device 10 when they are described without distinction.
- the display unit 16 of the terminal device 10 displays the indicator ID1 which is an indicator (intake amount indicator) corresponding to the intake amount of the user U1.
- the indicator ID1 is a display object whose size changes according to the respiration of the user U1. That is, the indicator ID1 is a display object indicating the amount of operation determined based on the user's respiration by its size.
- the indicator ID 1-1 shown in the terminal device 10-1 indicates the initial state of the indicator ID1.
- the indicator ID1 may be described separately from the indicator ID1-1 and the ID1-2 according to the change in the display of the indicator ID1.
- indicator ID1-1 and ID1-2 are described without distinction, they are described as indicator ID1.
- Pre-utterance inspiration by user U1 is performed (step S12).
- the user U1 breathes before speaking, and the information processing device 100 acquires breathing information indicating the breathing of the user U1.
- the information processing device 100 acquires respiration information indicating the respiration of the user U1 from the terminal device 10 used by the user U1.
- the information processing device 100 uses the acquired respiration information to perform a determination process for determining the operation amount related to the operation by respiration of the user U1.
- FIG. 2 is a diagram showing an example of reflection on the amount of operation of the user's breathing.
- Graph GR1 in FIG. 2 is a graph showing the relationship between the user's respiration and the amount of operation. Specifically, the graph GR1 in FIG. 2 is a graph showing the relationship between the intake amount of the user and the size of the indicator (indicator size) based on the operation amount.
- the vertical axis represents the intake amount and the size of the indicator
- the horizontal axis is a graph showing time.
- the line indicating the respiratory volume (line LN11) is indicated by a solid line
- the line indicating the indicator size (line LN12) is indicated by a alternate long and short dash line.
- the current intake amount “B_curent” indicates the current intake amount of the user.
- the current intake amount “B_curent” indicates the latest user intake amount acquired at the time of the determination process.
- the maximum inspiratory volume “B_max” indicates the maximum inspiratory volume reached by one breath.
- the maximum intake amount “B_max” indicates the maximum intake amount reached between one continuous intake and exhaust.
- the amount of increase in inspiration “B_increase” indicates the amount of increase in inspiration during inspiration. That is, the inspiratory increase amount “B_increase” indicates the amount of change (increase amount) in the inspiratory amount at the time of inspiration.
- the intake increase amount “B_increase” may be information indicating the ratio of the increase amount of the intake amount to the passage of time (increase amount). For example, the intake increase amount “B_increase” may be a slope (rate of change).
- the increase amount threshold value “B_increase_thres” indicates a threshold value used for comparison with the inspiratory increase amount.
- the amount of increase in exhaust gas “B_decrease” indicates the amount of increase in exhaust gas at the time of exhaust gas.
- the exhaust increase amount "B_decrease” indicates the change amount (decrease amount) of the intake air amount at the time of exhaust.
- the exhaust gas increase amount “B_decrease” may be information indicating the ratio of the decrease amount of the intake air amount to the passage of time (increase amount).
- the exhaust gas increase amount “B_decrease” may be a slope (rate of change).
- the displacement threshold value "B_decrease_thres” indicates a threshold value used for comparison with the displacement increase amount.
- the indicator parameter "P_indicator” indicates the indicator parameter.
- the indicator parameter “P_indicator” indicates the size of the indicator.
- the indicator parameter “P_indicator” may indicate the manipulated variable. In the following, the indicator parameter “P_indicator” will be described as indicating the manipulated variable.
- the time variable “Time” indicates a time-based value.
- the time variable “Time” indicates a value that changes with the passage of time from the time point of the maximum inspiratory amount "B_max”. For example, the time variable “Time” becomes a larger value as the difference from the time point of the maximum intake amount "B_max" becomes larger.
- the indicator parameter "P_indicator” increases until the maximum inspiration is reached.
- the indicator parameter "P_indicator” increases in proportion to the intake amount until the time t11 when the maximum intake amount "B_max” is reached.
- the information processing apparatus 100 calculates the indicator parameter "P_indicator” indicating the operation amount by using the current intake amount "B_curent” and the following equation (1) until the maximum intake. For example, the information processing apparatus 100 calculates an indicator parameter "P_indicator” indicating an operation amount by using the equation (1) while the user is inhaling.
- the information processing apparatus 100 increases the operation amount in proportion to the intake amount at the time of intake.
- the information processing system 1 increases the operation amount in proportion to the intake amount at the time of intake.
- the information processing system 1 increases the indicator size in proportion to the amount of intake air at the time of intake air.
- the information processing apparatus 100 may determine the indicator size by using the value of the indicator parameter "P_indicator” and a predetermined conversion formula after calculating the indicator parameter "P_indicator” indicating the operation amount.
- the above equation (1) is an example of calculation of the indicator parameter "P_indicator” when the inspiratory increase amount “B_increase” is less than the increase amount threshold “B_increase_thres” until the maximum inspiration, and is an example of calculation of the indicator parameter "P_indicator”.
- Various mathematical formulas may be used for the calculation. For example, when the inspiratory increase amount “B_increase” becomes equal to or greater than the increase amount threshold value “B_increase_thres”, another calculation formula (the following formula (3)) is used, and details of this point will be described later.
- the indicator parameter "P_indicator” changes constantly after the maximum inspiration.
- the indicator parameter “P_indicator” decreases constantly with the passage of time during the time t11 when the maximum inspiratory amount “B_max” is reached.
- the information processing apparatus 100 calculates the indicator parameter "P_indicator” indicating the operation amount by using the maximum intake amount "B_max", the time variable "Time”, and the following equation (2) after the maximum intake. For example, the information processing apparatus 100 calculates an indicator parameter "P_indicator” indicating an operation amount by using the equation (2) while the user is exhausting air.
- C in the above equation (2) indicates a predetermined constant.
- the information processing apparatus 100 reduces the operation amount to a constant value at the time of exhaust and increases the operation amount in proportion to the intake amount at the time of intake.
- the information processing system 1 constantly reduces the indicator size at the time of exhaust.
- the above equation (2) is an example of calculation of the indicator parameter "P_indicator” when the exhaust gas increase amount “B_decrease” is larger than the exhaust gas threshold value “B_decrease_thres” after the maximum intake, and is an example of the calculation of the indicator parameter "P_indicator”.
- Various mathematical formulas may be used for the calculation. For example, when the exhaust gas increase amount “B_decrease” is equal to or less than the exhaust gas threshold value “B_decrease_thres”, another calculation formula (the following formula (6)) is used, and the details of this point will be described later.
- the information processing apparatus 100 uses the above equation (2) and the exhaust gas increase amount "B_decrease” becomes less than the displacement threshold value "B_decrease_thres".
- the following equation (6) may be used.
- the information processing device 100 determines the operation amount related to the operation by the user U1 by calculating the operation amount (indicator parameter) by the above-mentioned processing. In this way, the information processing apparatus 100 can appropriately calculate the operation amount by determining the operation amount using the user's breathing information.
- the information processing apparatus 100 is an example of the processing using the above equations (1) and (2), and is not limited to the above-mentioned processing, and the determination processing may be performed by various methods.
- the information processing apparatus 100 may perform a determination process using a technique related to machine learning.
- the information processing device 100 may perform the determination process using a model that outputs the manipulated variable when the respiratory information is input. Even if the information processing device 100 learns the relationship between the respiratory volume and the manipulated volume indicated by the respiratory information and performs the determination process using a model that outputs the manipulated volume corresponding to the respiratory volume in response to the input of the respiratory volume. good.
- the information processing apparatus 100 may learn a model using learning data including a combination of respiratory information indicating the user's respiratory volume and an operation amount corresponding to the respiratory volume, or the model may be external information. It may be obtained from a processing device.
- the information processing system 1 changes the size of the indicator ID 1 displayed on the terminal device 10 by using the operation amount (indicator parameter) determined by the information processing device 100 (step S13). For example, the information processing device 100 transmits information on the determined operation amount (indicator parameter) to the terminal device 10. The terminal device 10 that has received the information on the operation amount (indicator parameter) from the information processing device 100 changes the size of the displayed indicator ID1.
- the terminal device 10 changes the display of the indicator ID 1 from the terminal device 10-1 to the terminal device 10-2.
- the terminal device 10 uses the operation amount (indicator parameter) received from the information processing device 100 to change the display from the indicator ID 1-1 in the initial state to the indicator ID 1-2 whose size is enlarged.
- the display unit 16 of the terminal device 10 displays the indicator ID 1 whose size has been changed from the indicator ID 1-1 to the indicator ID 1-2, as shown in the terminal device 10-2.
- the display mode of the indicator ID1 changes according to the intake amount of the user U1.
- the information processing system 1 can display an intake guide UI (User Interface) that serves as a guide for the amount.
- UI User Interface
- the information processing device 100 may transmit the content in which the size of the indicator ID 1 is changed (corresponding to the display screen of the terminal device 10-2) to the terminal device 10, and the terminal device 10 may display the received content.
- the user U1 speaks (step S14). For example, the user U1 performs voice input to the terminal device 10 to request processing using the operation amount indicated by the indicator ID 1.
- the user U1 speaks "Turn up volume” as shown in the utterance information IN11, and performs a voice input requesting the terminal device 10 to raise the volume of the device.
- the user U1 speaks "Turn up volume” and performs a voice input requesting an operation to raise the volume of the terminal device 10.
- the information processing system 1 performs processing using the input by the utterance by the user U1 and the operation amount (step S15).
- the information processing system 1 processes the voice dialogue system in response to the input by the user U1.
- the information processing system 1 interprets a user's input by natural language understanding (NLU) and executes a corresponding process (Action).
- the information processing device 100 or the terminal device 10 interprets the user's input by natural language understanding (NLU) and executes the corresponding process (Action).
- the terminal device 10 performs a process of raising the volume by using the utterance information IN11 and the operation amount.
- the terminal device 10 performs a process in which the size of the indicator ID 1-2 raises the volume by the amount of operation.
- the terminal device 10 performs a volume raising process as shown in the terminal device 10-3.
- the information processing system 1 makes it possible to change the amount according to the amount of intake air of the user.
- the display unit 16 of the terminal device 10 displays information corresponding to the volume raising process.
- the information processing system 1 determines the operation amount by using the user's breathing, and uses the operation amount for the processing corresponding to the operation to the user, so that the user has to input the operation amount by voice or the like. Since it can be omitted, the operation load of the user can be reduced.
- the case where the user's intake is associated with the increase in the operation amount and the indicator size and the user's exhaust is associated with the decrease in the operation amount and the indicator size is shown.
- the user's intake and the operation amount and the indicator size are shown. The association with is not limited to that.
- the information processing system 1 may associate the user's intake with the decrease in the manipulated variable and the indicator size, and the user's exhaust with the increase in the manipulated variable and the indicator size.
- the information processing system 1 may reduce the operation amount and the indicator size when the user takes in air, and may increase the operation amount and the indicator size when the user exhausts air.
- the information processing system 1 may decrease the operation amount and the indicator size according to the increase of the user's intake amount, and may increase the operation amount and the indicator size according to the decrease of the user's intake amount.
- the information processing system 1 determines the amount of operation related to the operation by the user based on the respiration of the user. As a result, the information processing system 1 can save the user the trouble of inputting information indicating a specific operation amount such as a numerical value by utterance. Therefore, the information processing system 1 can reduce the operation load of the user and improve the usability.
- the information processing system 1 uses the respiratory state before the utterance as a parameter associated with the voice operation, and the user performs the expected operation without inputting specific numerical information in the utterance. To enable.
- the information processing system 1 when a user inhales a large amount and then utters a command after a while, the operation amount is determined at the time of inspiration, and the processing content such as an operation target is determined based on the command utterance. Things can be made possible.
- the information processing system 1 appropriately adjusts the amount of operation related to the operation by the user by using the breathing information such as the breathing state, the amount of inhaled breath, the amount of increase in the amount of inhalation, the amount of exhausted breath, and the amount of increase in the amount of exhausted air. Can be decided.
- FIGS. 3 and 4 are diagrams showing an example of display based on the operation amount.
- the terminal device 10 may display an object corresponding to the device 50 as an operation target candidate (operation target candidate) and an operation amount corresponding to the device 50 as an absolute value together with the indicator ID 1.
- the terminal device 10 displays the objects OB1, OB2, and OB3 corresponding to each of the three devices of the lighting device, the music player, and the television as the device 50 as the operation target candidate.
- the object OB1 corresponds to a lighting device
- the object OB2 corresponds to a music player
- the object OB3 corresponds to a television.
- the terminal device 10 displays the operation amount as an absolute value within the range from the lower limit value to the upper limit value of the settable value of each operation target.
- the terminal device 10 displays the operation amount for each operation target as an absolute value.
- the user speaks "Change TV volume” as shown in the utterance information IN21, and performs voice input requesting the information processing system 1 to change the volume of the television.
- the information processing system 1 performs a process of changing the volume of the television by using the utterance information IN21 and the operation amount.
- the information processing system 1 performs a process of changing the volume of the television to "32" by using the utterance information IN21 and the operation amount.
- the terminal device 10 may display an object corresponding to the device 50 as an operation target candidate (operation target candidate) and an operation amount corresponding to the device 50 as relative values together with the indicator ID 1.
- the terminal device 10 may display it as a relative value indicating how much the operation amount is changed from the current value.
- the terminal device 10 may display the operation amount as the amount of change from the current value.
- the terminal device 10 displays the operation amount as a relative value within the range from the lower limit value to the upper limit value of the settable value of each operation target.
- the terminal device 10 displays the operation amount for each operation target as a relative value.
- the relative value is displayed in this way, the rise or fall is judged from the utterance command. That is, in the case of the relative value display, the information processing system 1 determines whether the parameter (set value) is increased (increased) or decreased (decreased) based on the user's utterance.
- the information processing system 1 determines that a voice input requesting an operation to raise the volume of the television has been performed.
- the information processing system 1 performs a process of raising the volume of the television by using the utterance information IN31 and the operation amount.
- the information processing system 1 performs a process of increasing the volume of the television by "20" by using the utterance information IN31 and the operation amount.
- the information processing system 1 determines that the voice input requesting the operation of lowering the volume of the music player has been performed.
- the information processing system 1 performs a process of lowering the volume of the music player by using the utterance information IN32 and the operation amount.
- the information processing system 1 performs a process of reducing the volume of the music player by "10" by using the utterance information IN32 and the operation amount.
- the above-mentioned absolute value display and relative value display are examples, and the information processing system 1 does not limit the use as an absolute value or a relative value at the time of indicator display, and determines which one to use from the utterance command. May be good.
- the information processing device 100 may determine the operation target based on the utterance of the user, and then determine the operation amount related to the operation by the user based on the subsequent breathing of the user.
- the information processing system 1 may change the parameters to be operated in real time according to the amount of operation by the user's breathing. For example, when the brightness (parameter) of the lighting device is determined as the operation target, the information processing system 1 may change the brightness of the lighting device in real time according to the amount of operation by the user's breathing.
- the information processing system 1 allows the user to intuitively grasp the change due to the operation by the user's breathing.
- respiration sensor 171 using the millimeter-wave radar that is, the detection of respiration information using a non-contact type sensor has been described as an example, but the sensor used for detecting (acquiring) respiration information is non-contact.
- the type is not limited to the contact type. An example of the contact type sensor will be described below.
- the respiration sensor 171 may be a wearable sensor.
- contact type sensors of various modes such as a band type, a jacket type, and a mask type may be used.
- the information processing system 1 acquires the displacement amount of breathing from the expansion and contraction of the band wrapped around the user's chest or abdomen.
- the information processing system 1 embeds a band in a jacket worn by the user.
- the accuracy of respiration detection can be improved by equipping sensors at a plurality of locations (directions).
- the information processing system 1 When an acceleration sensor is used for the breathing sensor 171, the information processing system 1 observes the movement of the chest by an acceleration sensor mounted on a wearable device such as a neck-hanging device or a smartphone worn on the user's upper body, and breathes. The amount may be estimated. When a mask type sensor is used for the breathing sensor 171, the information processing system 1 detects the exhalation and inspiration speeds by the air volume sensor or the pressure sensor mounted on the mask, and calculates the depth and period from the accumulated displacement amount. presume.
- a VR (Virtual Reality) headset that covers the user's mouth may be used for the breathing sensor 171.
- the information processing system 1 recognizes the sound of exhaled breath by the proximity microphone, recognizes the amount of time change in exhalation, and estimates the depth and speed of breathing.
- the information processing system 1 recognizes the sound of noise generated when the exhaled breath hits the microphone by the proximity microphone, recognizes the amount of time change of exhalation, and estimates the depth and speed of breathing.
- non-contact type sensor is not limited to the millimeter wave radar, and various non-contact type sensors may be used for the respiration sensor 171.
- An example of a non-contact type sensor other than the millimeter wave radar will be described below.
- a radar other than an image sensing method a respiration detection method from the temperature around the nose, a proximity sensor, and a millimeter wave radar may be used.
- the information processing system 1 When image sensing is used for the respiration sensor 171, the information processing system 1 recognizes the amount of time change between exhalation and inspiration at different temperatures with a thermo camera, and estimates the depth, cycle, and speed of respiration. Further, the information processing system 1 may perform image sensing of the exhaled breath that becomes white when it is cold, recognize the amount of time change of the exhaled breath, and estimate the depth, cycle, and speed of the breath.
- ⁇ Capacitive film-like proximity sensor that monitors human movement and breathing ⁇ https://www.aist.go.jp/aist_j/press_release/pr2016/pr20160125/pr20160125.html>
- Heart rate / respiration detection sensor "GZS-350 series” https://www.ipros.jp/product/detail/2000348329/>
- the information processing system 1 detects the movement of the user's chest by the phase difference of the received signal of the millimeter-wave radar and estimates the respiratory volume.
- the terminal device 10 uses the sensor information detected by the respiration sensor 171 to detect the movement of the user's chest by the phase difference of the received signal of the millimeter wave radar, and estimates the respiration volume to respire the user. Generate information. Then, the terminal device 10 transmits the generated user's breathing information to the information processing device 100.
- the information processing device 100 may generate the user's breathing information.
- the terminal device 10 transmits the sensor information detected by the respiration sensor 171 to the information processing device 100. Then, using the sensor information received by the information processing device 100 that has received the sensor information, the movement of the user's chest is detected by the phase difference of the received signal of the millimeter wave radar, and the respiration volume is estimated to respire the user. Information may be generated.
- the above sensor is merely an example of a sensor used for acquiring respiratory information, and any sensor may be used as long as it can acquire respiratory information.
- the information processing system 1 may use any sensor to detect the respiration information as long as it can detect the respiration information indicating the user's respiration.
- the sensor unit 17 of the terminal device 10 has at least one of the above-mentioned sensors, and the sensor detects respiratory information.
- the information processing system 1 may generate respiration information using the sensor information detected by the sensor of the sensor unit 17.
- the terminal device 10 and the information processing device 100 may generate respiration information using sensor information (point group data) detected by the respiration sensor 171 (millimeter wave radar).
- the terminal device 10 and the information processing device 100 may generate respiration information from the sensor information (point group data) detected by the respiration sensor 171 (millimeter wave radar) by appropriately using various techniques.
- the information processing system 1 shown in FIG. 5 will be described.
- the information processing system 1 includes a terminal device 10, an information processing device 100, and a plurality of devices 50-1, 50-2, and 50-3.
- devices 50-1 to 50-3 and the like when devices 50-1 to 50-3 and the like are not distinguished, they may be referred to as device 50.
- the information processing system 1 has a number of devices 50 that is more than three (for example, 20 or 100 or more). May be included.
- the terminal device 10, the information processing device 100, and the device 50 are connected to each other via a predetermined communication network (network N) so as to be communicable by wire or wirelessly.
- FIG. 5 is a diagram showing a configuration example of the information processing system according to the embodiment.
- the information processing system 1 shown in FIG. 5 may include a plurality of terminal devices 10 and a plurality of information processing devices 100.
- the information processing device 100 is a computer that predicts whether or not the user speaks after the user's inspiration based on the respiration information indicating the user's respiration. The information processing device 100 classifies the user's inspiration based on the user's respiratory information. Further, the information processing device 100 is a computer that transmits various information to the terminal device 10. The information processing device 100 is a server device used to provide services related to various functions.
- the information processing device 100 may have software modules such as voice signal processing, voice recognition, utterance semantic analysis, and dialogue control.
- the information processing device 100 may have a voice recognition function.
- the information processing apparatus 100 may have functions of natural language understanding (NLU) and automatic speech recognition (ASR: Automatic Speech Recognition).
- NLU natural language understanding
- ASR Automatic Speech Recognition
- the information processing device 100 may estimate information about a user's intent (intention) or entity (target) from input information uttered by the user.
- the information processing device 100 functions as a voice recognition server having functions of natural language understanding and automatic voice recognition.
- the terminal device 10 is a terminal device that detects breathing information indicating the user's breathing by a sensor. For example, the terminal device 10 detects respiration information indicating the user's respiration by the respiration sensor 171.
- the terminal device 10 is an information processing device that transmits the user's breathing information to a server device such as the information processing device 100.
- the terminal device 10 may have a voice recognition function such as natural language understanding and automatic voice recognition. For example, the terminal device 10 may estimate information about a user's intent (intention) or entity (target) from input information uttered by the user.
- the terminal device 10 is a device device used by the user.
- the terminal device 10 accepts input by the user.
- the terminal device 10 accepts voice input by the user's utterance and input by the user's operation.
- the terminal device 10 displays information according to the input of the user.
- the terminal device 10 may be any device as long as the processing in the embodiment can be realized.
- the terminal device 10 may be any device as long as it has a function of detecting the user's breathing information and transmitting it to the information processing device 100.
- the terminal device 10 is a device such as a smartphone, a smart speaker, a television, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, or a PDA (Personal Digital Assistant). You may.
- the terminal device 10 may be a wearable terminal (Wearable Device) or the like that the user can wear.
- the terminal device 10 may be a wristwatch-type terminal, a glasses-type terminal, or the like.
- the device 50 is various devices used by the user.
- the device 50 is various devices such as IoT (Internet of Things) devices.
- the device 50 is an IoT device such as a home electric appliance.
- the device 50 has a communication function, communicates with the information processing device 100 and the terminal device 10, and can be processed according to an operation request from the information processing device 100 or the terminal device 10.
- the device 50 may be a so-called home electric appliance such as a lighting fixture (lighting device), a music player, a television, a radio, an air conditioner (air conditioner), a washing machine, a refrigerator, or is installed in a house such as a ventilation fan or floor heating. It may be a product that has been made.
- the device 50-1 may be a lighting device
- the device 50-2 may be a music player
- the device 50-3 may be a television.
- the device 50 may be, for example, an information processing device such as a smartphone, a tablet terminal, a notebook PC, a desktop PC, a mobile phone, or a PDA. Further, for example, the device 50 may be any device as long as the processing in the embodiment can be realized.
- the device 50 may include the terminal device 10. That is, the device to be operated using the operation amount based on the user's respiration may be the terminal device 10.
- FIG. 6 is a diagram showing a configuration example of the information processing apparatus 100 according to the embodiment of the present disclosure.
- the information processing device 100 includes a communication unit 110, a storage unit 120, and a control unit 130.
- the information processing device 100 includes an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the information processing device 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. You may have.
- the communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network N (see FIG. 5) by wire or wirelessly, and transmits / receives information to / from another information processing device such as the terminal device 10. Further, the communication unit 110 may send and receive information to and from a user terminal (not shown) used by the user.
- a NIC Network Interface Card
- the storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 6, the storage unit 120 according to the embodiment includes a respiratory information storage unit 121, a user information storage unit 122, a threshold information storage unit 123, and a functional information storage unit 124.
- a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory)
- flash memory Flash Memory
- FIG. 6 the storage unit 120 according to the embodiment includes a respiratory information storage unit 121, a user information storage unit 122, a threshold information storage unit 123, and a functional information storage unit 124.
- the storage unit 120 stores various information other than the above.
- the storage unit 120 stores information of a voice recognition application (program) that realizes a voice recognition function.
- the information processing device 100 can execute voice recognition by activating a voice recognition application (also simply referred to as "voice recognition").
- the storage unit 120 stores various information used for voice recognition.
- the storage unit 120 stores the information of the dictionary (speech recognition dictionary) used for the voice recognition dictionary.
- the storage unit 120 stores information from a plurality of voice recognition dictionaries.
- the storage unit 120 stores information such as a voice recognition dictionary for long sentences (dictionary for long sentences), a voice recognition dictionary for Chinese sentences (dictionary for Chinese sentences), and a voice recognition dictionary for short sentences (dictionary for words / phrases).
- the respiratory information storage unit 121 stores various information related to the user's respiration.
- the respiration information storage unit 121 stores various information such as respiration information of each user in association with the identification information (user ID) of each user.
- the respiration information storage unit 121 stores respiration information indicating the user's respiration.
- the respiratory information storage unit 121 stores respiratory information including the amount of inspiration of the user.
- the respiratory information storage unit 121 stores respiratory information including the amount of change in the user's breathing.
- the respiratory information storage unit 121 stores utterance information indicating utterance by the user after the user's respiration.
- the respiratory information storage unit 121 stores utterance information indicating utterance by the user before the user's respiration.
- the respiratory information storage unit 121 is not limited to the above, and may store various information depending on the purpose.
- the respiratory information storage unit 121 may store various types of information necessary for generating the graphs GR1 to GR6.
- the respiratory information storage unit 121 may store various types of information shown in the graphs GR1 to GR6.
- the user information storage unit 122 stores various information about the user.
- the user information storage unit 122 stores various information such as attribute information of each user.
- the user information storage unit 122 stores information about the user such as the user ID, age, gender, and place of residence.
- the user information storage unit 122 stores information about the user U1 such as the age, gender, and place of residence of the user U1 in association with the user ID "U1" that identifies the user U1.
- the user information storage unit 122 stores information for identifying a device (television, smartphone, etc.) used by each user in association with the user.
- the user information storage unit 122 stores information (terminal ID, etc.) that identifies the terminal device 10 used by each user in association with the user.
- the user information storage unit 122 is not limited to the above, and may store various information depending on the purpose.
- the user information storage unit 122 may store other demographic attribute information and psychographic attribute information regardless of age and gender.
- the user information storage unit 122 may store information such as a name, a home, a place of work, an interest, a family structure, an income, and a lifestyle.
- the threshold information storage unit 123 stores various information related to the threshold value.
- the threshold information storage unit 123 stores various information regarding the threshold value used for determining the manipulated variable.
- FIG. 7 is a diagram showing an example of the threshold information storage unit according to the embodiment.
- the threshold information storage unit 123 shown in FIG. 7 includes items such as "threshold ID”, “use”, “threshold name”, and "value”.
- Theshold ID indicates identification information for identifying the threshold value.
- Use indicates the use of the threshold.
- the “threshold name” indicates the name (character string) of the threshold (variable) used as the threshold identified by the corresponding threshold ID.
- the “value” indicates a specific value of the threshold value identified by the corresponding threshold ID.
- threshold value TH1 the threshold value used for comparison with the (inspiratory) increase amount.
- the threshold TH1 indicates that it is used as the threshold name "B_increase_thres”.
- the value of the threshold TH1 indicates that it is "VL1".
- the value is indicated by an abstract code such as "VL1”, but the value is assumed to be a specific numerical value such as "0.5” or "1.8”.
- threshold value TH2 the threshold value used for comparison with the increase amount of exhaust gas (exhaust increase amount).
- the threshold TH2 indicates that it is used as the threshold name "B_decrease_thres”.
- the value of the threshold TH2 indicates that it is "VL2".
- the value is indicated by an abstract code such as “VL2”, but the value is assumed to be a specific numerical value such as “ ⁇ 0.3” or “ ⁇ 2.5”.
- the threshold value information storage unit 123 may also store the threshold value used for switching between display and non-display of the indicator. Further, the threshold information storage unit 123 is not limited to the above, and may store various information depending on the purpose.
- the functional information storage unit 124 stores various information related to the function.
- the function information storage unit 124 stores information about each function executed in response to user input.
- the function information storage unit 124 stores information regarding inputs required for executing the function.
- the function information storage unit 124 stores input items necessary for executing each function.
- the functional information storage unit 124 may store various information related to the device.
- the function information storage unit 124 stores various information related to the device corresponding to each function.
- the functional information storage unit 124 can communicate with the information processing device 100 and stores various information of a device that can be operated.
- the function information storage unit 124 may store a device ID indicating identification information for identifying a device and device type information indicating the type of the corresponding device.
- the function information storage unit 124 stores the functions and parameters of each device in association with each device.
- the functional information storage unit 124 stores information indicating the state of the device in association with each device.
- the functional information storage unit 124 stores various information such as parameter values at that time of each device in association with each device.
- the functional information storage unit 124 stores various information such as parameter values at the present time (when the information is last acquired) of each device in association with each device.
- the function information storage unit 124 stores the current on / off state, volume, brightness, channel, etc. in association with the device ID.
- the function information storage unit 124 stores the current on / off state, brightness, color, etc. in association with the device ID.
- the functional information storage unit 124 is not limited to the above, and may store various information depending on the purpose.
- control unit 130 for example, a program (for example, an information processing program according to the present disclosure) stored inside the information processing apparatus 100 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like is stored in a RAM (Random Access). It is realized by executing Memory) etc. as a work area. Further, the control unit 130 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
- ASIC Application Specific Integrated Circuit
- FPGA Field Programmable Gate Array
- control unit 130 includes an acquisition unit 131, a prediction unit 132, a determination unit 133, an execution unit 134, and a transmission unit 135, and functions and operations of information processing described below. To realize or execute.
- the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 6, and may be another configuration as long as it is a configuration for performing information processing described later.
- connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 6, and may be another connection relationship.
- the acquisition unit 131 acquires various information.
- the acquisition unit 131 acquires various information from an external information processing device.
- the acquisition unit 131 acquires various information from the terminal device 10.
- the acquisition unit 131 acquires various information from the terminal device 10 from the information detected by the sensor unit 17 of the terminal device 10.
- the acquisition unit 131 acquires various information from the terminal device 10 from the information detected by the breathing sensor 171 of the sensor unit 17.
- the acquisition unit 131 acquires various information from the storage unit 120.
- the acquisition unit 131 acquires various information from the respiratory information storage unit 121, the user information storage unit 122, the threshold information storage unit 123, and the functional information storage unit 124.
- the acquisition unit 131 acquires various information predicted by the prediction unit 132.
- the acquisition unit 131 acquires various information determined by the determination unit 133.
- the acquisition unit 131 acquires respiration information indicating the user's respiration.
- the acquisition unit 131 acquires respiratory information including the amount of inspiration of the user.
- the acquisition unit 131 acquires respiratory information including the amount of change in the user's breathing.
- the acquisition unit 131 acquires utterance information indicating utterance by the user after the user breathes.
- the acquisition unit 131 acquires utterance information indicating utterance by the user before the user breathes.
- the acquisition unit 131 acquires respiration information indicating the respiration of the user U1 from the terminal device 10 used by the user U1.
- the prediction unit 132 predicts various types of information.
- the prediction unit 132 classifies various types of information.
- the prediction unit 132 calculates various types of information.
- the prediction unit 132 determines various information.
- the prediction unit 132 makes various determinations.
- the prediction unit 132 determines various information. For example, the prediction unit 132 predicts various types of information based on information from an external information processing device and information stored in the storage unit 120.
- the prediction unit 132 predicts various types of information based on information from other information processing devices such as the terminal device 10.
- the prediction unit 132 predicts various types of information based on the information stored in the respiratory information storage unit 121, the user information storage unit 122, the threshold information storage unit 123, and the functional information storage unit 124.
- the prediction unit 132 classifies various types of information. For example, the prediction unit 132 classifies various types of information based on information from an external information processing device and information stored in the storage unit 120.
- the prediction unit 132 predicts various information based on various information acquired by the acquisition unit 131.
- the prediction unit 132 predicts various information based on various information determined by the determination unit 133.
- the prediction unit 132 makes various judgments based on the prediction. Various judgments are made based on the information acquired by the acquisition unit 131.
- the prediction unit 132 calculates the score based on the respiratory information.
- the prediction unit 132 calculates a score used for predicting the user's utterance based on the respiratory information.
- the prediction unit 132 predicts the operation amount based on the respiration information acquired by the acquisition unit 131.
- the prediction unit 132 predicts the inspiratory amount of the user based on the breathing information acquired by the acquisition unit 131.
- the prediction unit 132 predicts the operation amount (predicted operation amount) based on the predicted intake amount (predicted intake amount).
- the prediction unit 132 calculates the predicted operation amount based on the predicted intake amount.
- the decision unit 133 decides various information.
- the determination unit 133 determines various information.
- the determination unit 133 calculates various information.
- the determination unit 133 extracts various information.
- the determination unit 133 identifies various types of information.
- the determination unit 133 selects various types of information.
- the determination unit 133 determines various information based on the information from the external information processing device and the information stored in the storage unit 120.
- the determination unit 133 determines various types of information based on information from other information processing devices such as the terminal device 10.
- the determination unit 133 determines various information based on the information stored in the respiratory information storage unit 121, the user information storage unit 122, the threshold information storage unit 123, and the functional information storage unit 124.
- the determination unit 133 determines various information based on the various information acquired by the acquisition unit 131.
- the determination unit 133 determines various information based on the various information predicted by the prediction unit 132.
- the determination unit 133 determines various information based on the processing executed by the execution unit 134.
- the determination unit 133 determines the operation amount related to the operation by the user based on the user's respiration indicated by the respiration information acquired by the acquisition unit 131. The determination unit 133 determines the operation amount according to the amount related to the user's breathing. The determination unit 133 determines the operation amount based on the intake amount. The determination unit 133 determines the operation amount based on the change amount. For example, the determination unit 133 calculates the indicator parameter “P_indicator” indicating the operation amount by using the current intake amount “B_curent” and the following equation (1) until the maximum intake.
- the determination unit 133 calculates the indicator parameter "P_indicator” indicating the operation amount by using the maximum intake amount "B_max", the time variable "Time”, and the following equation (2). For example, the determination unit 133 determines the operation amount related to the operation by the user U1 by using the calculated operation amount (indicator parameter). For example, the determination unit 133 determines the calculated operation amount (indicator parameter) as the operation amount related to the operation by the user U1.
- the determination unit 133 increases the operation amount according to either the intake air or the exhaust air of the user.
- the determination unit 133 reduces the amount of operation according to the other of the user's intake and exhaust, which is different from one.
- the determination unit 133 increases the operation amount according to the intake air of the user.
- the determination unit 133 increases the operation amount according to the increase in the intake amount at the time of intake by the user.
- the determination unit 133 increases the operation amount according to the increase amount of the intake air.
- the determination unit 133 constantly reduces the amount of operation while the user is exhausted.
- the determination unit 133 reduces the amount of operation according to the exhaust of the user.
- the determination unit 133 reduces the operation amount according to the decrease in the intake amount at the time of exhausting by the user.
- the determination unit 133 reduces the operation amount according to the increase amount of the exhaust gas.
- the determination unit 133 determines the target of the operation by the user based on the utterance information.
- the determination unit 133 determines the target of the operation by the user based on the utterance information. The determination unit 133 determines the operation amount corresponding to the parameter of the device. The determination unit 133 determines the operation amount corresponding to the position change of the target displayed on the screen.
- Execution unit 134 executes various processes.
- the execution unit 134 determines the execution of various processes.
- the execution unit 134 executes various processes based on information from an external information processing device.
- the execution unit 134 executes various processes based on the information stored in the storage unit 120.
- the execution unit 134 executes various processes based on the information stored in the respiratory information storage unit 121, the user information storage unit 122, the threshold information storage unit 123, and the functional information storage unit 124.
- the execution unit 134 executes various processes based on various information acquired by the acquisition unit 131.
- the execution unit 134 executes various processes based on various information predicted by the prediction unit 132.
- the execution unit 134 executes various processes based on various information determined by the determination unit 133.
- Execution unit 134 generates various information.
- the execution unit 134 generates various information based on the information from the external information processing device and the information stored in the storage unit 120.
- the execution unit 134 generates various information based on information from other information processing devices such as the terminal device 10.
- the execution unit 134 generates various information based on the information stored in the respiratory information storage unit 121, the user information storage unit 122, the threshold information storage unit 123, and the functional information storage unit 124.
- the execution unit 134 executes the process according to the operation amount determined by the determination unit 133.
- the execution unit 134 executes the process according to the prediction result by the prediction unit 132.
- the transmission unit 135 transmits various information.
- the transmission unit 135 transmits various information to an external information processing device.
- the transmission unit 135 provides various information to an external information processing device.
- the transmission unit 135 transmits various information to another information processing device such as the terminal device 10.
- the transmission unit 135 provides the information stored in the storage unit 120.
- the transmission unit 135 transmits the information stored in the storage unit 120.
- the transmission unit 135 provides various types of information based on information from other information processing devices such as the terminal device 10.
- the transmission unit 135 provides various types of information based on the information stored in the storage unit 120.
- the transmission unit 135 provides various information based on the information stored in the respiratory information storage unit 121, the user information storage unit 122, the threshold information storage unit 123, and the functional information storage unit 124.
- the transmission unit 135 transmits information indicating a function to be executed by the terminal device 10 to the terminal device 10.
- the transmission unit 135 transmits information indicating the function determined to be executed by the execution unit 134 to the terminal device 10.
- the transmission unit 135 transmits various types of information to the terminal device 10 in response to an instruction from the execution unit 134.
- the transmission unit 135 transmits information instructing the terminal device 10 to start the voice recognition application.
- the transmission unit 135 transmits a sound to the terminal device 10 indicating information indicating the operation amount determined by the determination unit 133.
- the transmission unit 135 transmits a sound to the terminal device 10 with the predicted operation amount predicted by the prediction unit 132.
- FIG. 8 is a diagram showing a configuration example of the terminal device according to the embodiment of the present disclosure.
- the terminal device 10 includes a communication unit 11, an input unit 12, an output unit 13, a storage unit 14, a control unit 15, a display unit 16, and a sensor unit 17.
- the communication unit 11 is realized by, for example, a NIC or a communication circuit.
- the communication unit 11 is connected to the network N (Internet or the like) by wire or wirelessly, and transmits / receives information to / from other devices such as the information processing device 100 via the network N.
- the input unit 12 accepts various inputs.
- the input unit 12 receives the detection by the sensor unit 17 as an input.
- the input unit 12 receives input of respiration information indicating the user's respiration.
- the input unit 12 receives the input of the respiratory information detected by the sensor unit 17.
- the input unit 12 receives the input of the respiration information detected by the respiration sensor 171.
- the input unit 12 receives input of respiratory information based on the point cloud data detected by the respiratory sensor 171.
- the input unit 12 accepts the input of the user's utterance information.
- the input unit 12 receives the input of the respiratory information of the user who inputs by the body movement.
- the input unit 12 accepts the user's gesture and line of sight as input.
- the input unit 12 receives sound as input by a sensor unit 17 having a function of detecting voice.
- the input unit 12 receives the voice information detected by the microphone (sound sensor) that detects the voice as the input information.
- the input unit 12 receives the voice spoken by the user as input information.
- the input unit 12 may accept an operation (user operation) on the terminal device 10 used by the user as an operation input by the user.
- the input unit 12 may receive information regarding the operation of the user using the remote controller (remote controller) via the communication unit 11.
- the input unit 12 may have a button provided on the terminal device 10 or a keyboard or mouse connected to the terminal device 10.
- the input unit 12 may have a touch panel capable of realizing functions equivalent to those of a remote controller, a keyboard, and a mouse.
- various information is input to the input unit 12 via the display unit 16.
- the input unit 12 receives various operations from the user via the display screen by the function of the touch panel realized by various sensors. That is, the input unit 12 receives various operations from the user via the display unit 16 of the terminal device 10.
- the input unit 12 receives an operation such as a user's designated operation via the display unit 16 of the terminal device 10.
- the input unit 12 functions as a reception unit that receives a user's operation by the function of the touch panel.
- the input unit 12 and the reception unit 153 may be integrated.
- the capacitance method is mainly adopted in the tablet terminal, but other detection methods such as the resistance film method, the surface acoustic wave method, the infrared method, and the electromagnetic induction method are used. Any method may be adopted as long as the user's operation can be detected and the touch panel function can be realized.
- the input unit 12 accepts the utterance of the user U1 as an input.
- the input unit 12 receives the utterance of the user U1 detected by the sensor unit 17 as an input.
- the input unit 12 receives the utterance of the user U1 detected by the sound sensor of the sensor unit 17 as an input.
- the output unit 13 outputs various information.
- the output unit 13 has a function of outputting audio.
- the output unit 13 has a speaker that outputs sound.
- the output unit 13 outputs various information by voice according to the control by the execution unit 152.
- the output unit 13 outputs information by voice to the user.
- the output unit 13 outputs the information displayed on the display unit 16 by voice.
- the storage unit 14 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk.
- the storage unit 14 stores information of a voice recognition application (program) that realizes the voice recognition function.
- the terminal device 10 can execute voice recognition by activating a voice recognition application.
- the storage unit 14 stores various information used for displaying the information.
- the storage unit 14 stores various information used for voice recognition.
- the storage unit 14 stores the information of the dictionary (speech recognition dictionary) used for the voice recognition dictionary.
- the control unit 15 is realized by, for example, a CPU, an MPU, or the like executing a program stored inside the terminal device 10 (for example, an information processing program according to the present disclosure) using a RAM or the like as a work area. Further, the control unit 15 may be realized by an integrated circuit such as an ASIC or FPGA.
- control unit 15 includes a reception unit 151, an execution unit 152, a reception unit 153, and a transmission unit 154, and realizes or executes the information processing functions and operations described below. ..
- the internal configuration of the control unit 15 is not limited to the configuration shown in FIG. 8, and may be another configuration as long as it is a configuration for performing information processing described later.
- the receiving unit 151 receives various information.
- the receiving unit 151 receives various information from an external information processing device.
- the receiving unit 151 receives various information from other information processing devices such as the information processing device 100.
- the receiving unit 151 receives information instructing the activation of voice recognition from the information processing device 100.
- the receiving unit 151 receives information instructing the activation of the voice recognition application from the information processing device 100.
- the receiving unit 151 receives execution instructions of various functions from the information processing device 100. For example, the receiving unit 151 receives information specifying a function from the information processing device 100 as a function execution instruction. The receiving unit 151 receives the content. The receiving unit 151 receives the content to be displayed from the information processing device 100. The receiving unit 151 receives information indicating the amount of operation determined by the information processing device 100. The receiving unit 151 displays the content including the indicator corresponding to the operation amount.
- Execution unit 152 executes various processes.
- the execution unit 152 determines the execution of various processes.
- the execution unit 152 executes various processes based on information from an external information processing device.
- the execution unit 152 executes various processes based on the information from the information processing device 100.
- the execution unit 152 executes various processes in response to an instruction from the information processing device 100.
- the execution unit 152 executes various processes based on the information stored in the storage unit 14.
- the execution unit 152 activates voice recognition.
- the execution unit 152 controls various outputs.
- the execution unit 152 controls the audio output by the output unit 13.
- the execution unit 152 controls various displays.
- the execution unit 152 controls the display of the display unit 16.
- the execution unit 152 controls the display of the display unit 16 in response to the reception by the reception unit 151.
- the execution unit 152 controls the display of the display unit 16 based on the information received by the reception unit 151.
- the execution unit 152 controls the display of the display unit 16 based on the information received by the reception unit 153.
- the execution unit 152 controls the display of the display unit 16 in response to the reception by the reception unit 153.
- Reception department 153 receives various information.
- the reception unit 153 receives input by the user via the input unit 12.
- the reception unit 153 accepts the utterance by the user as an input.
- the reception unit 153 accepts operations by the user.
- the reception unit 153 accepts the user's operation on the information displayed by the display unit 16.
- the reception unit 153 accepts character input by the user.
- the transmission unit 154 transmits various information to an external information processing device.
- the transmission unit 154 transmits various information to another information processing device such as the terminal device 10.
- the transmission unit 154 transmits the information stored in the storage unit 14.
- the transmission unit 154 transmits various types of information based on information from other information processing devices such as the information processing device 100.
- the transmission unit 154 transmits various types of information based on the information stored in the storage unit 14.
- the transmission unit 154 transmits the sensor information detected by the sensor unit 17 to the information processing device 100.
- the transmission unit 154 transmits the respiration information of the user U1 detected by the respiration sensor 171 of the sensor unit 17 to the information processing device 100.
- the transmission unit 154 transmits the input information input by the user to the information processing device 100.
- the transmission unit 154 transmits the input information voice-input by the user to the information processing device 100.
- the transmission unit 154 transmits the input information input by the user's operation to the information processing device 100.
- the transmission unit 154 transmits respiration information indicating the user's respiration to the information processing device 100.
- the transmission unit 154 transmits breathing information including the amount of intake air of the user to the information processing device 100.
- the transmission unit 154 transmits the respiration information including the amount of change in the respiration of the user to the information processing device 100.
- the transmission unit 154 transmits the utterance information indicating the utterance by the user after the user's breathing to the information processing device 100.
- the transmission unit 154 transmits the utterance information indicating the utterance by the user before the user's breathing to the information processing device 100.
- the display unit 16 is provided on the terminal device 10 and displays various information.
- the display unit 16 is realized by, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.
- the display unit 16 may be realized by any means as long as the information provided by the information processing device 100 can be displayed.
- the display unit 16 displays various information according to the control by the execution unit 152.
- the display unit 16 displays various information based on the information from the information processing device 100.
- the display unit 16 displays the information received from the information processing device 100.
- the display unit 16 displays information indicating the amount of operation received from the information processing device 100.
- the display unit 16 displays information indicating the amount of operation determined by the information processing device 100.
- the display unit 16 displays an indicator corresponding to the operation amount.
- the display unit 16 displays the content received from the information processing device 100.
- the display unit 16 displays the content including the indicator corresponding to the operation amount.
- the display unit 16 displays the content.
- the display unit 16 displays the content received by the reception unit 151.
- the sensor unit 17 detects predetermined information.
- the sensor unit 17 detects the user's respiratory information.
- the sensor unit 17 has a respiration sensor 171 as a means for detecting respiration information indicating the user's respiration.
- the sensor unit 17 detects respiration information by the respiration sensor 171.
- the sensor unit 17 detects respiration information by the respiration sensor 171.
- the sensor unit 17 detects respiration information by a respiration sensor 171 using a millimeter-wave radar. Further, the sensor unit 17 is not limited to the millimeter wave radar, and may have a respiration sensor 171 having any configuration as long as it can detect the respiration information of the user.
- the respiration sensor 171 may be an image sensor.
- the respiration sensor 171 may be a wearable sensor. As the respiration sensor 171, either a contact type sensor or a non-contact type sensor may be used.
- the sensor unit 17 is not limited to the above, and may have various sensors.
- the sensor unit 17 may have a sensor (position sensor) that detects position information such as a GPS (Global Positioning System) sensor.
- the sensor unit 17 is not limited to the above, and may have various sensors.
- the terminal device 10 may have a light source (light source unit) such as an LED (Light Emitting Diode) for notifying the user by light. For example, the light source unit blinks according to the control by the execution unit 152.
- FIG. 9 is a flowchart showing a processing procedure of the information processing apparatus according to the embodiment of the present disclosure. Specifically, FIG. 9 is a flowchart showing a procedure of information processing by the information processing apparatus 100.
- the information processing device 100 acquires respiration information indicating the respiration of the user (step S101). Then, the information processing device 100 determines the operation amount related to the operation by the user based on the user's respiration indicated by the respiration information (step S102).
- FIG. 10 is a sequence diagram showing a processing procedure of the information processing system according to the embodiment of the present disclosure.
- the terminal device 10 detects respiration information indicating the respiration of the user (step S201). For example, the terminal device 10 acquires the user's respiration information detected by the respiration sensor 171. Then, the terminal device 10 transmits the respiration information indicating the user's respiration to the information processing device 100 (step S202).
- the information processing device 100 determines the operation amount related to the operation by the user based on the user's respiration indicated by the respiration information acquired from the terminal device 10 (step S203). In the example of FIG. 10, the information processing device 100 determines the operation amount to the value "10" based on the respiration information acquired from the terminal device 10.
- the information processing device 100 transmits the determined operation amount to the terminal device 10 (step S204). For example, the information processing device 100 transmits the determined manipulated variable value "10" to the terminal device 10. Then, the terminal device 10 displays an indicator corresponding to the operation amount value "10" received from the information processing device 100 (step S205). For example, the terminal device 10 displays an indicator having a size corresponding to the operation amount value “10” on a display (display unit 16 or the like).
- FIG. 11 is a flowchart showing processing of the information processing system according to the embodiment of the present disclosure.
- the processing shown in FIG. 11 is performed by any of the information processing device 100 and the terminal device 10 included in the information processing system 1. May be good.
- the information processing system 1 acquires Wuw (Wake up Word) or a trigger (step S301).
- Wuw Wuw up Word
- a trigger For example, the information processing system 1 acquires an utterance for activating voice recognition by a user and a predetermined input that serves as a trigger.
- the information processing system 1 acquires intake / exhaust data (step S302). For example, the information processing system 1 acquires data (breathing information) indicating inspiration and exhaust of the user in a unit time.
- the information processing system 1 calculates parameters such as an increase amount and a decrease amount (step S303). For example, the information processing system 1 calculates the amount of change in respiration, which is the amount of increase or decrease in inspiration in a unit time.
- the information processing system 1 determines processing conditions such as sudden intake and exhaust (step S304). For example, when there is a sudden intake or exhaust, the information processing system 1 determines the operation amount by a calculation method corresponding to the sudden intake or exhaust. For example, the information processing system 1 determines the operation amount by the calculation method corresponding to the respiratory state of the user among the calculation methods shown in the graphs GR1 to GR5 and the like.
- the information processing system 1 reflects the parameters in the GUI (Graphical User Interface) (step S305). For example, the information processing system 1 displays an indicator corresponding to the determined manipulated variable (parameter).
- step S306 when the utterance is not started (step S306: No), the information processing system 1 returns to step S302 and repeats the process.
- the information processing system 1 acquires the user's utterance (step S307). For example, the information processing system 1 detects a user's utterance by a terminal device 10 used by the user. In the case of input area selection, the information processing system 1 inputs to the selected area and ends. For example, in the case of input area selection, the information processing system 1 inputs information corresponding to the utterance in the selected area and ends the process.
- the information processing system 1 determines whether or not the action requires a parameter (step S308). For example, the information processing system 1 determines whether or not the process (action) corresponding to the user's utterance is an action that requires an operation amount (parameter).
- the information processing system 1 executes an action (step S309) when the parameter is not a necessary action (step S308: No). For example, the information processing system 1 executes a process (action) corresponding to a user's utterance when the process (action) corresponding to the user's utterance is not an action that requires an operation amount (parameter).
- the information processing system 1 determines whether or not there is linguistic parameter information (step S310). For example, the information processing system 1 determines whether or not the user's utterance includes information indicating an operation amount (parameter).
- the information processing system 1 uses respiratory data as an execution parameter when there is no linguistic parameter information (step S310: No) (step S311). For example, when the information processing system 1 does not include information indicating an operation amount (parameter) in the user's utterance, the information processing system 1 executes a process (action) using the operation amount (parameter) determined based on the user's respiration.
- step S310 when the information processing system 1 has linguistic parameter information (step S310: Yes), the information processing system 1 acquires the parameter from the linguistic information and executes it (step S312). For example, when the information processing system 1 includes information indicating an operation amount (parameter) in the user's utterance, the information processing system 1 executes a process (action) using the operation amount (parameter) based on the user's utterance.
- FIG. 12 is a diagram showing an example of reflection on the amount of operation of the user's breathing.
- Graph GR2 in FIG. 12 is a graph showing the relationship between the user's respiration and the amount of operation. Specifically, the graph GR2 in FIG. 12 is a graph showing the relationship between the intake amount of the user and the size of the indicator (indicator size) based on the operation amount.
- the vertical axis indicates the intake amount and the size of the indicator
- the horizontal axis indicates the time.
- the line indicating the respiratory volume (line LN21) is indicated by a solid line
- the line indicating the indicator size line LN22
- the line LN1 in FIG. 2 is shown by the alternate long and short dash line LN23 as an example of the comparison target of the change in respiratory volume.
- the indicator parameter "P_indicator” increases until the maximum inspiration is reached.
- the indicator parameter “P_indicator” is increased in consideration of the intake increase amount until the time t21 when the maximum intake amount “B_max” is reached.
- the intake increase amount IL21 in FIG. 12 indicates the intake increase amount at a certain point in time until the maximum intake is reached.
- the information processing apparatus 100 when the intake increase amount “B_increase” becomes larger than the increase amount threshold “B_increase_thres” until the maximum intake, the current intake amount “B_curent” and the intake increase amount “B_increase” are expressed by the following equations.
- the indicator parameter "P_indicator” indicating the manipulated variable is calculated. For example, when the intake increase amount "B_increase” becomes larger than the increase amount threshold value "B_increase_thres" while the user is inhaling, the information processing apparatus 100 uses the equation (3) to indicate an indicator parameter indicating the operation amount. Calculate "P_indicator".
- the information processing apparatus 100 increases the operation amount in proportion to the intake amount and the intake increase amount at the time of sudden intake.
- the information processing system 1 increases the operation amount in proportion to the intake amount and the intake increase amount at the time of sudden intake.
- the information processing system 1 expands the indicator in proportion to the intake amount and the intake increase amount at the time of sudden intake. In this way, the information processing system 1 can reduce the burden of increasing the operation amount and expanding the indicator by increasing the operation amount in consideration of the increase amount of intake air and expanding the indicator at the time of sudden intake. ..
- Equation (3) is an example of calculation of the indicator parameter "P_indicator” when the inspiratory increase amount “B_increase” becomes larger than the increase amount threshold value “B_increase_thres” until the maximum inspiration.
- Various mathematical formulas may be used for the calculation of "P_parameter”. For example, when the inspiratory increase amount “B_increase” is equal to or less than the increase amount threshold value “B_increase_thres”, another calculation formula (Equation (1)) is used.
- the information processing apparatus 100 uses the above equation (3) to make the inspiratory increase amount "B_increase” less than the increase amount threshold "B_increase_thres".
- the following equation (1) may be used.
- the indicator parameter "P_indicator” changes constantly after the maximum inspiration.
- the indicator parameter “P_indicator” decreases constantly with the passage of time during the time t21 when the maximum inspiratory amount “B_max” is reached.
- the intake reduction amount DL21 in FIG. 12 indicates the intake reduction amount (exhaust increase amount) at a certain time after reaching the maximum intake.
- the information processing apparatus 100 calculates the indicator parameter "P_indicator” indicating the operation amount by using the maximum intake amount "B_max", the time variable "Time”, and the following equation (4) after the maximum intake. For example, the information processing apparatus 100 uses the equation (4) to indicate the operation amount of the indicator parameter " Calculate "P_indicator”.
- “C” in the above equation (4) indicates a predetermined constant.
- the value of “c” in the formula (4) may be different from the value of the “c” in the formula (2) and the formula (3).
- the value of “c” in the formula (4) may be the same as the value of "c” in the formula (2).
- the information processing apparatus 100 reduces the operation amount to a constant value at the time of exhaust and increases the operation amount in proportion to the intake amount at the time of intake.
- the information processing system 1 constantly reduces the indicator size at the time of exhaust.
- the above equation (4) is an example of calculation of the indicator parameter "P_indicator" when the exhaust gas increase amount “B_decrease” is larger than the exhaust gas threshold value “B_decrease_thres” after the maximum intake, and is an example of the calculation of the indicator parameter "P_indicator”.
- Various mathematical formulas may be used for the calculation. For example, when the exhaust gas increase amount “B_decrease” is equal to or less than the exhaust gas threshold value “B_decrease_thres”, another calculation formula (the following formula (6)) is used, and the details of this point will be described later.
- the information processing apparatus 100 uses the above equation (4) and the exhaust gas increase amount "B_decrease” becomes less than the displacement threshold value "B_decrease_thres".
- the following equation (6) may be used.
- the information processing device 100 calculates the operation amount (indicator parameter) by the above-mentioned processing, and determines the operation amount related to the operation by the user, reflecting the sudden intake of the user. In this way, the information processing apparatus 100 can appropriately calculate the operation amount even at the time of sudden inspiration by determining the operation amount using the information of the user's breathing.
- FIG. 13 is a diagram showing an example of reflection on the amount of operation of the user's breathing. The same points as in FIG. 12 will be omitted as appropriate.
- Graph GR3 in FIG. 13 is a graph showing the relationship between the user's respiration and the amount of operation. Specifically, the graph GR3 in FIG. 13 is a graph showing the relationship between the intake amount of the user and the size of the indicator (indicator size) based on the operation amount.
- the vertical axis represents the intake amount and the size of the indicator
- the horizontal axis is a graph showing time.
- the line indicating the respiratory volume (line LN31) is indicated by a solid line
- the line indicating the indicator size (line LN32) is indicated by a alternate long and short dash line.
- the line LN1 in FIG. 2 is shown by the alternate long and short dash line LN33 as an example of the comparison target of the change in the respiratory volume.
- the indicator parameter "P_indicator” increases until the maximum inspiration is reached.
- the indicator parameter “P_indicator” increases according to the intake amount until the time t31 when the maximum intake amount “B_max” is reached.
- the information processing apparatus 100 calculates an indicator parameter "P_indicator” indicating an operation amount by using the following equation (5) when a sudden intake is performed until the maximum intake. For example, when the intake increase amount "B_increase” becomes larger than the increase amount threshold value "B_increase_thres" while the user is inhaling, the information processing apparatus 100 uses the equation (5) to indicate an indicator parameter indicating the operation amount. Calculate "P_indicator".
- equation (5) is the same as equation (3), the description thereof will be omitted. Further, the information processing apparatus 100 calculates an indicator parameter "P_indicator" indicating an operation amount by using the equation (1) when normal intake is performed until the maximum intake. Note that FIG. 13 is mainly for explaining the determination of the operation amount at the time of exhaust and the change of the indicator size, and the processing at the time of intake is not limited to the above.
- the indicator parameter "P_indicator” decreases after the maximum inspiration.
- the indicator parameter “P_indicator” decreases in proportion to the displacement during the time t31 when the maximum intake amount “B_max” is reached.
- the intake reduction amount DL31 in FIG. 13 indicates the intake reduction amount (exhaust increase amount) at a certain time after reaching the maximum intake.
- the information processing apparatus 100 uses the maximum intake air amount “B_max”, the exhaust gas increase amount “B_decrease”, and the following equation (6). It is used to calculate the indicator parameter "P_indicator” indicating the operation amount. For example, in the information processing apparatus 100, when the exhaust increase amount “B_decrease” is less than the exhaust amount threshold value “B_decrease_thres” while the user is exhausting, the indicator parameter “P_indicator” indicating the operation amount is used by using the equation (6). Is calculated.
- the information processing apparatus 100 reduces the operating amount in proportion to the exhaust amount when the exhaust is larger than usual.
- the information processing system 1 reduces the operating amount in proportion to the exhaust amount when the exhaust is larger than usual.
- the information processing system 1 can accelerate the decrease in the operation amount with a larger exhaust increase amount (intake decrease amount) than usual.
- the information processing system 1 can accelerate the reduction of the indicator with a larger exhaust gas increase (decrease) than usual.
- the information processing system 1 reduces the operation amount by adding the exhaust increase amount (intake reduction amount) when the exhaust is larger than usual, and reduces the indicator, thereby reducing the operation amount and the burden of reducing the indicator. Can be reduced. This makes it possible for the information processing system 1 to correct the overshoot in a short time.
- the above equation (6) is an example of calculation of the indicator parameter "P_indicator" when the exhaust gas increase amount “B_decrease” is less than the exhaust gas threshold value “B_decrease_thres” after the maximum intake, and the calculation of the indicator parameter "P_indicator".
- Various mathematical formulas may be used for. For example, when the exhaust gas increase amount “B_decrease” becomes equal to or more than the exhaust gas threshold value “B_decrease_thres”, another calculation formula (formula (2) or formula (4)) is used.
- the information processing device 100 calculates the operation amount (indicator parameter) by the above-mentioned processing, and determines the operation amount related to the operation by the user, reflecting a larger exhaust gas than usual of the user. In this way, the information processing apparatus 100 can appropriately calculate the operation amount even when the exhaust is larger than usual by determining the operation amount using the user's breathing information.
- FIG. 14 is a diagram showing an example of reflection on the amount of operation of the user's breathing. The same points as those in FIGS. 12 and 13 will be omitted as appropriate.
- Graph GR4 in FIG. 14 is a graph showing the relationship between the user's respiration and the amount of operation. Specifically, the graph GR4 in FIG. 14 is a graph showing the relationship between the intake amount of the user and the size of the indicator (indicator size) based on the operation amount. In the graph GR4 in FIG. 14, the vertical axis represents the intake amount and the size of the indicator, and the horizontal axis is a graph showing time. Further, in the graph GR4 in FIG. 14, the line indicating the respiratory volume (line LN41) is indicated by a solid line, and the line indicating the indicator size (line LN42) is indicated by a alternate long and short dash line.
- the intake increase amount IL41 in FIG. 14 indicates the intake increase amount at a certain point in time up to the time t41.
- the intake increase amount IL42 in FIG. 14 indicates the intake increase amount at a certain point in time after the time t41 until the time t42.
- the information processing apparatus 100 has "T_ignore" ("exhaust ignoring period") for a certain period of time from the time when the intake is switched from intake to exhaust (intake / exhaust conversion point) after the intake increase amount equal to or higher than the increase amount threshold "B_increase_thres" is observed.
- the exhaust during (also called) is not used to determine the amount of operation.
- the exhaust gas during a certain period of time “T_ignore” (exhaust neglect period) from the intake / exhaust conversion point is used for indicator size adjustment. do not.
- the information processing apparatus 100 operates according to the user's exhaust from the time t41, which is the intake / exhaust conversion point after the intake increase amount equal to or higher than the increase amount threshold “B_increase_thres” is observed. Does not reduce the amount.
- the information processing apparatus 100 does not reduce the operation amount according to the exhaust of the user during the period from the time t41 to the time t42 when the exhaust ignoring period elapses.
- the information processing device 100 is not limited to the case where the user's exhaust gas is not used at all during the exhaust gas ignoring period, and the influence of the user's exhaust gas may be reduced during the exhaust gas ignoring period.
- the information processing apparatus 100 may reduce the decrease in the amount of operation due to the exhaust gas of the user in the exhaust gas ignoring period as compared with the normal time.
- the intake air during a certain period of time “T_ignore” (exhaust ignoring period) from the intake / exhaust conversion point determines the operation amount.
- the information processing apparatus 100 adjusts the operation amount according to the intake air within the exhaust neglect period from the time t41, which is the intake / exhaust conversion point after the intake increase amount equal to or higher than the increase amount threshold “B_increase_thres” is observed. increase. As shown in the graph GR4 in FIG. 14, the information processing apparatus 100 increases the indicator size according to the intake air of the user between the time t41 and the time t42 (exhaust gas neglect period).
- the information processing apparatus 100 can appropriately calculate the operation amount (indicator parameter) and adjust the indicator size by ignoring the exhaust after the sudden intake by the above-mentioned processing. ..
- FIG. 15 is a diagram showing an example of reflection on the amount of operation of the user's breathing. The same points as those in FIGS. 12 to 14 will be omitted as appropriate.
- Graph GR5 in FIG. 15 is a graph showing the relationship between the user's respiration and the amount of operation. Specifically, the graph GR5 in FIG. 15 is a graph showing the relationship between the intake amount of the user and the size of the indicator (indicator size) based on the operation amount. In the graph GR5 in FIG. 15, the vertical axis represents the intake amount and the size of the indicator, and the horizontal axis is a graph showing time. Further, in the graph GR5 in FIG. 15, the line indicating the respiratory volume (line LN51) is indicated by a solid line, and the line indicating the indicator size (line LN52) is indicated by a alternate long and short dash line.
- the intake reduction amount IL51 in FIG. 15 indicates the intake reduction amount (exhaust increase amount) at a certain point in time up to the time t51.
- the intake reduction amount IL52 in FIG. 15 indicates the intake reduction amount (exhaust increase amount) at a certain point in time after the time t51 until the time t52.
- the time when the exhaust is switched to the intake is "T_ignore" ("intake ignore period") for a certain period of time.
- the intake air during (also called) is not used to determine the amount of operation.
- the value of the fixed time “T_ignore” in FIG. 15 may be different from the value of the fixed time “T_ignore” in FIG.
- the intake air during a certain period of time "T_ignore” (intake air neglect period) from the exhaust air intake conversion point is used for indicator size adjustment. do not.
- the information processing apparatus 100 operates the intake ignoring period from the time t51, which is the exhaust intake conversion point after the intake reduction amount equal to or less than the displacement threshold "B_decrease_thres" is observed, according to the intake of the user. Do not increase the amount.
- the information processing apparatus 100 does not increase the operation amount according to the user's intake air during the period from the time t51 to the time t52 when the intake air ignoring period elapses.
- the information processing device 100 is not limited to the case where the user's intake air is not used at all during the intake air ignoring period, and the influence of the user's intake air may be reduced during the intake air ignoring period.
- the information processing apparatus 100 may reduce the increase in the amount of operation due to the user's inspiration in the intake ignoring period as compared with the normal time.
- the exhaust for a certain period of time "T_ignore" (intake ignoring period) from the exhaust intake conversion point determines the operation amount.
- the information processing apparatus 100 adjusts the operation amount according to the exhaust within the intake ignore period from the time t51, which is the exhaust intake conversion point after the intake decrease amount equal to or less than the displacement threshold "B_decrease_thres" is observed. Reduce. As shown in the graph GR5 in FIG. 15, the information processing apparatus 100 reduces the indicator size to the user's exhaust during the time t51 to the time t52 (intake ignoring period).
- the information processing apparatus 100 can appropriately calculate the operation amount (indicator parameter) and adjust the indicator size by ignoring the intake air after the sudden exhaust gas by the above processing. ..
- the information processing system 1 may perform prediction processing for predicting the user's respiration and the amount of operation based on the respiration. This point will be described with reference to FIGS. 16 and 17.
- FIG. 16 is a diagram showing an example of predicting the amount of operation.
- the information processing apparatus 100 predicts the operation amount (prediction operation amount) and the indicator size (prediction size) by using the intake amount (current intake amount) and the increase amount at the time of prediction.
- Graph GR6 in FIG. 16 is a graph showing the relationship between the user's breathing and the manipulated variable and the predicted manipulated variable. Specifically, the graph GR6 in FIG. 16 is a graph showing the relationship between the intake amount of the user and the size of the indicator and the predicted size based on the operation amount. In the graph GR6 in FIG. 16, the vertical axis represents the intake amount, the size of the indicator, and the predicted size, and the horizontal axis is a graph showing time. Further, in the graph GR6 in FIG. 16, a line (line LN61) indicating the respiratory volume is shown by a solid line. Further, in the graph GR6 in FIG.
- the line (line LN62) indicating the size of the indicator is indicated by the alternate long and short dash line portion, and the predicted size portion is indicated by the dotted line.
- the size of the indicator based on the manipulated variable determined based on the respiratory information up to that time is shown up to time t61, and the prediction predicted based on the respiratory information up to time t61 from time t61 to time t62.
- the predicted size based on the manipulated variable is shown.
- the information processing apparatus 100 predicts the subsequent predicted operation amount and the predicted size based on the intake air that the user has performed by the time t61.
- the intake increase amount IL61 in FIG. 16 indicates the intake increase amount at a certain point in time up to the time t61.
- the intake increase amount IL61 indicates the intake increase amount at time t61.
- Point CR61 in FIG. 16 indicates the amount of intake air (current amount of intake air) at the present time (time t61).
- the information processing apparatus 100 calculates the indicator prediction arrival point "Point_pr” indicating the prediction operation amount by using the current intake amount "B_curent", the increase amount "B_increase” and the following equation (7). As a result, the indicator prediction arrival point "Point_pr” becomes a value in consideration of the current intake amount "B_curent” and the increase amount "B_increase”.
- the above equation (7) is an example of the calculation of the indicator prediction arrival point "Point_pr", and various mathematical formulas may be used for the calculation of the indicator prediction arrival point "Point_pr". For example, in the case of sudden intake, the information processing apparatus 100 may predict the indicator prediction arrival point "Point_pr” in consideration of the sudden reflection as in the equation (3). Further, the information processing apparatus 100 may predict the indicator prediction arrival point "Point_pr” based on the past user's breathing history.
- the information processing apparatus 100 predicts the indicator prediction arrival point "Point_pr” by using a model that outputs the indicator prediction arrival point "Point_pr” when the current intake amount "B_curent” and the increase amount “B_increase” are input. You may.
- the information processing apparatus 100 predicts the indicator prediction arrival point "Point_pr” by using a model learned by using a combination of the amount of intake air and the amount of increase in intake air at a certain point in time of the past user and the maximum amount of intake air thereafter. May be good.
- the information processing apparatus 100 may predict the time (prediction required time) required to reach the indicator prediction arrival point "Point_pr” by using the current intake amount “B_curent” and the increase amount “B_increase”. ..
- the information processing device 100 may predict the time required to reach the indicator prediction arrival point "Point_pr” (prediction required time) based on the past user's breathing history.
- the information processing apparatus 100 uses a model that outputs the predicted time required to reach the maximum intake amount when the current intake amount "B_curent” and the increase amount "B_increase” are input, and sets the maximum intake amount from the present time. You may predict the time to reach.
- the information processing apparatus 100 uses a model learned by using a combination of a certain time point of a past user, an inspiratory amount and an inspiratory increase amount at that time, and a time when the maximum inspiratory amount is reached thereafter, and is maximum from the present time.
- the estimated time required to reach the intake amount may be predicted.
- the information processing apparatus 100 determines the time obtained by adding the predicted required time to the current time as the time point (time) when the indicator prediction reaching point "Point_pr" is reached. In the example of FIG. 16, the information processing apparatus 100 predicts the time to reach the indicator prediction arrival point “Point_pr” as the time t62.
- the information processing apparatus 100 may predict the time to reach the indicator prediction arrival point "Point_pr” by appropriately using various information.
- the information processing apparatus 100 may predict the time required to reach the indicator prediction arrival point "Point_pr” by using the current intake amount "B_curent”, the increase amount "B_increase”, and the time information indicating the current time. good.
- the information processing apparatus 100 predicts that the operation amount (indicator parameter) increases to the value of the indicator prediction arrival point “Point_pr” at time t62.
- the point PR61 in FIG. 16 indicates a predicted operation amount and a predicted size that are predicted to reach the time t62.
- the information processing system 1 can predict the arrival point of the maximum intake air from the current intake air amount and the intake air increase amount.
- FIG. 17 is a diagram showing an example of displaying the predicted operation amount.
- FIG. 17 shows an example of UI display by predicting the intake air amount in advance.
- the mark MK11 in FIG. 17 is a figure in which three circles of different sizes are arranged around the indicator ID11.
- the indicator ID 11 is resized according to the user's breathing.
- the circular prediction line PP11 indicated by the dotted line superimposed on the mark MK11 indicates the prediction size.
- the mark MK11, the indicator ID11, and the prediction line PP11 are displayed on the terminal device 10.
- the indicator ID 11 is an indicator that reacts according to the actual respiration volume.
- the prediction line PP11 is a region showing the predicted arrival point information based on the current intake amount.
- the information processing system 1 can indicate whether or not the user needs additional intake air by displaying it as a GUI in advance using the predicted arrival point of the maximum intake air. As a result, the information processing system 1 can improve usability.
- the information processing system 1 is not limited to the above, and may be used for operations of various objects. This point will be described with reference to FIGS. 18 to 20.
- FIG. 18 is a diagram showing an example of using the manipulated variable.
- FIG. 18 shows a selector (indicator) for selecting a GUI as an adaptation destination for reflecting the operation amount (parameter) according to the intake amount. In this way, the operation amount may be used for GUI operation target switching. Note that the same points as in FIG. 1 in FIG. 18 will be omitted as appropriate.
- user U1 speaks WUW (step S21).
- the user U1 makes an utterance to activate the voice recognition of the information processing system 1.
- the terminal device 10 activates voice recognition in response to the utterance of WUW by the user U1.
- the terminal device 10 processes a predetermined voice output when voice recognition is activated.
- the terminal device 10-1 As shown in the terminal device 10-1, "How can I help?" Is output as a voice.
- the terminal device 10 may be described separately from the terminal devices 10-1, 10-2, and 10-3 according to the change in the display of the terminal device 10.
- the terminal devices 10-1, 10-2, and 10-3 are the same terminal devices 10, and will be referred to as the terminal device 10 when they are described without distinction.
- a plurality of objects are arranged side by side in a predetermined direction on the display unit 16 of the terminal device 10.
- the objects OB1 to OB3 are arranged side by side in the vertical direction on the display unit 16 of the terminal device 10 as shown in the terminal device 10-1.
- the objects OB1 to OB3 may have a plurality of input areas.
- Each of the objects OB1 to OB3 may be an input area for each of the destination, title, and sentence of Email.
- the object OB1 may be an input area for an Email destination.
- the object OB2 may be an input area for the title of Email.
- the object OB3 may be an input area for an Email text.
- the selector indicator ID 21 which is an indicator (intake amount indicator) corresponding to the intake amount of the user U1 is not displayed on the display unit 16 of the terminal device 10. ..
- the selector indicator ID 21 is a display object whose position changes according to the respiration of the user U1. In the terminal device 10, the object corresponding to the position of the selector indicator ID 21 is selected according to the position.
- the selector indicator ID 21 may be displayed at the initial position on the terminal device 10-1.
- Pre-utterance inspiration by user U1 is performed (step S22).
- the user U1 breathes before speaking, and the information processing device 100 acquires breathing information indicating the breathing of the user U1.
- the information processing device 100 acquires respiration information indicating the respiration of the user U1 from the terminal device 10 used by the user U1.
- the information processing device 100 uses the acquired respiration information to perform a determination process for determining the operation amount related to the operation by respiration of the user U1. Since this point is the same as in FIG. 1, the description thereof will be omitted.
- the information processing system 1 changes the position of the selector indicator ID 21 displayed on the terminal device 10 by using the operation amount (indicator parameter) determined by the information processing device 100 (step S23). For example, the information processing device 100 transmits information on the determined operation amount (indicator parameter) to the terminal device 10. The terminal device 10 that has received the information on the operation amount (indicator parameter) from the information processing device 100 changes the position of the displayed selector indicator ID 21.
- the terminal device 10 changes the position of the selector indicator ID 21 upward as shown in the terminal device 10-2. That is, the terminal device 10 moves the selector indicator ID 21 upward.
- the terminal device 10 changes the display by changing the position of the selector indicator ID 21 upward from the initial position by using the operation amount (indicator parameter) received from the information processing device 100.
- the terminal device 10 selects the object OB2 corresponding to the position of the selector indicator ID 21.
- the terminal device 10 selects the object OB2, which is an input area for the title of Email, based on the position of the selector indicator ID 21.
- the information processing system 1 changes the selector indicator according to the intake air amount, and changes the target input area (object).
- the information processing system 1 can switch the GUI operation target by changing the display or determining the target to be selected by using the user's breathing.
- the information processing device 100 may transmit the content in which the position of the selector indicator ID 21 is changed (corresponding to the display screen of the terminal device 10-2) to the terminal device 10, and the terminal device 10 may display the received content. ..
- the user U1 speaks (step S24). For example, the user U1 performs voice input of information to be input to the object OB2 which is an input area selected based on the selector indicator ID 21 to the terminal device 10. In the example of FIG. 18, the user U1 speaks "Hello" and inputs information to the terminal device 10 by voice.
- the information processing system 1 performs a process of adding the input by the utterance by the user U1 to the object OB2 which is the input area selected based on the selector indicator ID 21 (step S25).
- the terminal device 10 adds the character string "Hello” to the title of the Email corresponding to the object OB2.
- the terminal device 10 displays the character string "Hello" in the object OB2 which is an input area.
- the information processing system 1 enables information input to the target selected according to the intake amount of the user.
- the information processing system 1 determines the operation amount by using the user's breathing, and uses the operation amount for the processing corresponding to the operation to the user, so that the user has to input the operation amount by voice or the like. Since it can be omitted, the operation load of the user can be reduced.
- the indicator may be hidden.
- the selector indicator as shown in FIG. 18 may be switched between display and non-display according to the respiratory volume.
- an area for displaying and hiding the indicator may be set, such as displaying the indicator only when the intake amount is equal to or higher than a certain level. This point will be described with reference to FIG.
- FIG. 19 is a diagram showing an example of switching the display / non-display of the indicator. The same points as in FIGS. 2 and 12 to 16 will be omitted as appropriate.
- Graph GR7 in FIG. 19 is a graph showing the relationship between the user's respiration and the amount of operation. Specifically, the graph GR7 in FIG. 19 is a graph showing the relationship between the intake amount of the user and the size of the indicator (indicator size) based on the operation amount.
- the vertical axis represents the intake amount and the size of the indicator
- the horizontal axis is a graph showing time.
- the line indicating the respiratory volume (line LN71) is indicated by a solid line
- the line indicating the indicator size (line LN72) is indicated by a alternate long and short dash line.
- the threshold value EV71 in the graph GR7 in FIG. 19 is a value indicating the minimum intake amount of the indicator display.
- the information processing system 1 displays an indicator when the respiratory volume is equal to or higher than the threshold value EV71, and hides the indicator when the respiratory volume is less than the threshold value EV71.
- the information processing device 100 compares the current respiration volume with the threshold value EV71, and determines whether to display or hide the indicator based on the comparison result.
- the information processing device 100 determines to display an indicator when the current respiratory volume is equal to or higher than the threshold value EV71.
- the information processing device 100 determines to hide the indicator when the current respiratory volume is less than the threshold EV71.
- the information processing apparatus 100 decides to hide the indicator because the current respiratory volume is less than the threshold value EV71 until the time t71.
- the information processing system 1 hides the indicator until the time t71.
- the terminal device 10 hides the indicator until time t71.
- the information processing apparatus 100 determines to display an indicator during the period from time t71 to time t72 because the current respiratory volume is equal to or higher than the threshold value EV71.
- the information processing system 1 displays an indicator from time t71 to time t72.
- the terminal device 10 displays an indicator from time t71 to time t72.
- the terminal device 10 switches the indicator from non-display to display at time t71.
- the information processing apparatus 100 decides to hide the indicator because the current respiratory volume is less than the threshold value EV71 after the time t72.
- the information processing system 1 hides the indicator after the time t72.
- the terminal device 10 hides the indicator after time t72.
- the terminal device 10 switches the indicator from display to non-display at time t72.
- the information processing system 1 processes the user's voice utterance as an input or a command to the selected GUI when the indicator is displayed. Further, for example, when the indicator is not displayed, the information processing system 1 processes the user's voice utterance as a general command unrelated to the GUI.
- the information processing system 1 switches the processing using the user's voice utterance according to whether the indicator is displayed or hidden, so that the information processing system 1 is appropriate according to the indicator display / non-display. Processing can be performed.
- GUI operation target switching example Further, the operation amount may be used for switching the GUI operation target. This point will be described with reference to FIG. FIG. 20 is a diagram showing an example of switching GUI operation targets.
- FIG. 20 shows an example of GUI operation target switching.
- the content CT1 may be described separately from the content CT1-1, CT1-2, CT1-3, and CT1-4 according to the change of the display.
- the contents CT1-1, CT1-2, CT1-3, and CT1-4 are the same contents CT1, and when they are described without distinction, they are described as the contents CT1.
- the content CT1 is displayed on the display unit 16 of the terminal device 10.
- the content CT1 includes the mark MK31 and the elements EL1, EL2, and EL3.
- the mark MK31 is a figure in which a plurality of circles having different sizes are arranged around the indicator ID31.
- the indicator ID 31 is resized according to the user's breathing.
- the indicator ID 31 is a display object whose size changes according to the respiration of the user U1. That is, the indicator ID 31 is a display object indicating the amount of operation determined based on the user's respiration by its size.
- the indicator ID 31-1 shown in the content CT1-1 indicates the initial state of the indicator ID 31. As described above, in FIG.
- the indicator ID 31 may be described separately from the indicator ID31-1, ID31-2, ID31-3, and ID31-4 according to the change in the display of the indicator ID31.
- the indicators ID31-1, ID31-2, ID31-3, and ID31-4 are described without distinction, they are described as indicator ID31.
- Element EL1 is an input area corresponding to the destination (To) of Email.
- the element EL2 is an input area corresponding to the subject (Title) of Email.
- the element EL3 is an input area corresponding to the text of the Email. As shown in FIG. 20, it is assumed that the area occupied by the element EL1, the element EL2, and the element EL3 increases in this order, and the amount of information input in the order of the element EL1, the element EL2, and the element EL3 increases.
- the information processing system 1 changes the display of the indicator ID 31 according to the breathing of the user, as in FIG. Further, in the example of FIG. 20, the information processing system 1 changes the input area (element) to be selected according to the breathing of the user, as in FIG.
- the content CT1-1 in FIG. 20 shows a non-selected state in which the input area (element) is not selected. In this case, the information processing system 1 recognizes the user's utterance as a general-purpose command. Further, the contents CT1-1 to CT1-4 show changes in the indicator ID 31 and the selected input area (element) according to the change in the intake air amount before the user speaks.
- the information processing system 1 changes the display mode of the content CT1 from the content CT1-1 to the content CT1-2 according to the increase in the respiratory volume of the user.
- the information processing system 1 changes the display size of the indicator ID 31 from the indicator ID 31-1 to the indicator ID 31-2 according to the increase in the respiratory volume of the user.
- the information processing system 1 selects the element EL1 which is an input area corresponding to the destination (To) of the mail according to the increase in the respiratory volume of the user.
- the information processing system 1 changes the size of the indicator ID 31 according to the intake air amount of the user, and selects the input area (element). For example, when the user utters in the state of the content CT1-2, the input information by the user's utterance is added to the element EL1 which is the input area corresponding to the destination (To) of the mail.
- the information processing system 1 changes the display mode of the content CT1 from the content CT1-2 to the content CT1-3 according to the increase in the respiratory volume of the user.
- the information processing system 1 changes the display size of the indicator ID 31 from the indicator ID 31-2 to the indicator ID 31-3 according to the increase in the respiratory volume of the user.
- the information processing system 1 changes the selected input area (element) from the input area (element EL1) corresponding to the destination (To) of the mail to the subject (Title) of the mail according to the increase in the respiratory volume of the user. Change to the corresponding input area (element EL2).
- the information processing system 1 changes the size of the indicator ID 31 according to the intake air amount of the user, and changes the selected input area (element). For example, when the user utters in the state of the content CT1-3, the input information by the user's utterance is added to the element EL2 which is the input area corresponding to the subject (Title) of the Email.
- the information processing system 1 changes the display mode of the content CT1 from the content CT1-3 to the content CT1-4 according to the increase in the respiratory volume of the user.
- the information processing system 1 changes the display size of the indicator ID 31 from the indicator ID 31-3 to the indicator ID 31-4 in accordance with the increase in the respiratory volume of the user.
- the information processing system 1 changes the selected input area (element) from the input area (element EL2) corresponding to the subject (Title) of the Email to the text (Message) of the Email according to the increase in the respiratory volume of the user. Change to the corresponding input area (element EL3).
- the information processing system 1 changes the size of the indicator ID 31 according to the intake air amount of the user, and changes the selected input area (element). For example, when the user utters in the state of the content CT1-4, the input information by the user's utterance is added to the element EL3 which is an input area corresponding to the text (Message) of the Email.
- the information processing system 1 displays an indicator whose size changes according to the user's respiratory volume and a plurality of elements (input areas) selected according to the user's respiratory volume.
- the information processing system 1 allows the user to intuitively grasp the relationship between the change in the user's respiration and the change in the selection of the element, so that the user can more easily select the element by respiration. To. Therefore, since the information processing system 1 can save the user from the trouble of inputting by voice or the like, the operation load of the user can be reduced and the usability can be improved.
- the terminal device 10 may determine and predict the operation amount. That is, the terminal device 10 which is a device on the client side may be an information processing device that determines and predicts the operation amount described above.
- the system configuration of the information processing system 1 is not limited to the configuration in which the information processing device 100, which is the device on the server side, determines and predicts the operation amount, and the terminal device 10 which is the device on the client side performs the above-described operations. It may be configured to determine or predict the amount.
- the information processing system 1 determines and predicts the operation amount on the client side (terminal device 10). Then, the server side (information processing device 100) acquires information on the operation amount and the predicted operation amount from the terminal device 10 and performs various processes.
- the terminal device 10 may have a prediction unit that realizes the same function as the prediction unit 132 described above, and a determination unit that realizes the same function as the determination unit 133. Further, in this case, the information processing apparatus 100 does not have to have the prediction unit 132 and the determination unit 133.
- the information processing system 1 may have a system configuration in which the operation amount is determined on the client side (terminal device 10) and the operation amount is predicted on the server side (information processing device 100).
- the determination unit of the terminal device 10 performs the determination process
- the prediction unit 132 of the information processing apparatus 100 performs the prediction process.
- the information processing system 1 may have a system configuration in which either the client-side device (terminal device 10) or the server-side device (information processing device 100) performs each process.
- FIG. 21 is a diagram showing a configuration example of an information processing device according to a modified example of the present disclosure.
- the information processing system 1 may include an information processing device 100A, which is a terminal device on the client side, and a server device that communicates various information between the information processing device 100A.
- the information processing device 100A used as a device (terminal device) on the client side has a function of determining an operation amount and a function of displaying according to the operation amount. For example, the information processing device 100A acquires various information from a server device that provides a voice recognition service, and executes various processes using the acquired information. For example, the information processing device 100A transmits the user's utterance information to the server device, acquires information indicating a voice recognition result from the server device, and executes various processes using the acquired information.
- the same points as those of the information processing device 100 shown in FIG. 6 and the terminal device 10 shown in FIG. 8 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
- the information processing device 100A includes a communication unit 110, an input unit 12, an output unit 13, a storage unit 120, a control unit 130, a display unit 16, and a sensor unit 17.
- the communication unit 110 transmits / receives information to / from the server device. Various operations are input from the user to the input unit 12.
- the output unit 13 outputs various information.
- the user information storage unit 122 stores various information of the user who uses the information processing device 100A.
- the acquisition unit 131 of the information processing device 100A has the functions described with reference to FIG. 6 and the same functions as the reception unit 151 and the reception unit 153.
- the acquisition unit 131 receives various information.
- the acquisition unit 131 receives various information from an external information processing device.
- the acquisition unit 131 receives various information from other information processing devices such as a server device.
- the acquisition unit 131 acquires the information detected by the sensor unit 17.
- the acquisition unit 131 acquires the information detected by the respiration sensor 171 of the sensor unit 17.
- the acquisition unit 131 receives information instructing the activation of voice recognition from the server device.
- the acquisition unit 131 receives information instructing the start of the voice recognition application from the server device.
- the acquisition unit 131 receives execution instructions for various functions from the server device. For example, the acquisition unit 131 receives information for designating a function from the server device as a function execution instruction. The acquisition unit 131 receives the content. The acquisition unit 131 receives the content to be displayed from the server device.
- the acquisition unit 131 receives various information.
- the acquisition unit 131 receives input by the user via the input unit 12.
- the acquisition unit 131 accepts an utterance by the user as an input.
- the acquisition unit 131 accepts an operation by the user.
- the acquisition unit 131 accepts the user's operation on the information displayed by the display unit 16.
- the acquisition unit 131 accepts character input by the user.
- the execution unit 134 of the information processing device 100A has the functions described with reference to FIG. 6 and the same functions as the execution unit 152.
- the execution unit 134 executes various processes based on the information from the server device.
- the execution unit 134 executes various processes in response to an instruction from the server device.
- the transmission unit 135 of the information processing device 100A has the functions described with reference to FIG. 6 and the functions of the transmission unit 154.
- the transmission unit 135 transmits various types of information based on information from other information processing devices such as a server device.
- the transmission unit 135 transmits the operation amount determined by the determination unit 133 to the server device.
- the transmission unit 135 transmits the operation amount (prediction operation amount) predicted by the prediction unit 132 to the server device.
- the transmission unit 135 transmits respiration information indicating the user's respiration to the server device.
- the transmission unit 135 transmits the respiration information including the inspiratory amount of the user to the server device.
- the transmission unit 135 transmits the respiration information including the amount of change in the respiration of the user to the server device.
- the transmission unit 135 transmits the utterance information indicating the utterance by the user after the user's breathing to the server device.
- the transmission unit 135 transmits the utterance information indicating the utterance by the user before the user's breathing to the server device.
- the transmission unit 135 transmits the sensor information detected by the sensor unit 17 to the server device.
- the transmission unit 135 transmits the respiration information of the user U1 detected by the respiration sensor 171 of the sensor unit 17 to the server device.
- the transmission unit 135 transmits the input information input by the user to the server device.
- the transmission unit 135 transmits the input information voice-input by the user to the server device.
- the transmission unit 135 transmits the input information input by the user's operation to the server device.
- the display unit 16 has the function described with reference to FIG.
- the display unit 16 displays the information received from the server device.
- the display unit 16 displays information indicating the operation amount determined by the determination unit 133.
- the display unit 16 displays an indicator corresponding to the operation amount.
- each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
- the information processing apparatus includes an acquisition unit (acquisition unit 131 in the embodiment) and a determination unit (determination unit 133 in the embodiment). ..
- the acquisition unit acquires respiration information indicating the user's respiration.
- the determination unit determines the operation amount related to the operation by the user based on the user's respiration indicated by the respiration information acquired by the acquisition unit.
- the information processing apparatus can save the trouble of inputting the operation amount by the user by determining the operation amount related to the operation by the user based on the respiration of the user.
- the load can be reduced.
- the determination unit determines the operation amount according to the amount related to the user's breathing. In this way, the information processing device can reduce the operation load of the user by determining the operation amount according to the amount related to the user's breathing.
- the acquisition unit acquires respiratory information including the amount of inspiration of the user.
- the determination unit determines the operation amount based on the intake amount. In this way, the information processing device can accurately determine the operation amount by using the inspiratory amount of the user's breathing.
- the acquisition unit acquires respiratory information including the amount of change in the user's breathing.
- the determination unit determines the operation amount based on the change amount. In this way, the information processing device can accurately predict the presence or absence of the user's utterance by using the amount of change in the user's respiration.
- the determination unit increases the amount of operation according to either the intake air or the exhaust air of the user.
- the information processing apparatus can reduce the operation load of the user because it is possible to save the trouble of inputting the operation amount by the user by increasing the operation amount in conjunction with the respiration of the user.
- the determination unit reduces the amount of operation according to the other of the user's intake and exhaust, which is different from the other.
- the information processing device saves the user the trouble of inputting an increase or decrease in the operation amount by using the other of the user's intake and exhaust, which is different from the one used for increasing the operation amount, for reducing the operation amount. Therefore, the operation load of the user can be reduced.
- the determination unit increases the amount of operation according to the intake air of the user.
- the information processing apparatus can reduce the operation load of the user because it is possible to save the trouble of inputting the operation amount by the user by increasing the operation amount according to the intake air of the user.
- the determination unit increases the operation amount according to the increase in the intake amount at the time of the user's intake.
- the information processing device can reduce the time and effort of inputting the operation amount by the user by increasing the operation amount according to the increase in the intake amount at the time of the user's intake, so that the operation load of the user can be reduced. It can be mitigated.
- the determination unit increases the operation amount according to the increase amount of the intake air.
- the information processing device is linked to the user's intake air by increasing the operation amount according to the increase amount of the intake air. The amount of operation can be increased more appropriately.
- the determination unit constantly reduces the amount of operation while the user is exhausting.
- the information processing device can use the time for exhausting by the user to reduce the operating amount by constantly reducing the operating amount while the user is exhausting, so that the operating load of the user can be used. Can be reduced.
- the determination unit reduces the amount of operation according to the exhaust of the user.
- the information processing apparatus can reduce the operation amount according to the exhaust of the user, thereby eliminating the trouble of inputting the operation amount by the user, so that the operation load of the user can be reduced.
- the determination unit reduces the operation amount according to the decrease in the intake amount at the time of exhausting by the user.
- the information processing device reduces the operation amount according to the decrease in the intake amount at the time of exhausting by the user, so that the user can save the trouble of inputting the operation amount, so that the operation load of the user can be reduced. It can be mitigated.
- the determination unit reduces the operation amount according to the exhaust gas increase amount.
- the information processing device is linked to the user's exhaust gas by reducing the operation amount according to the increase amount of the exhaust gas. Therefore, the amount of operation can be reduced more appropriately.
- the acquisition unit acquires utterance information indicating utterance by the user after the user breathes.
- the determination unit determines the target of the operation by the user based on the utterance information.
- the information processing device can appropriately determine the target to which the operation amount is applied by determining the target of the operation by the user using the utterance after the user's breathing.
- the information processing device determines the operation amount by the user's breathing and determines the operation target by the user's utterance, so that the user can perform the operation by speaking only the operation target.
- the load can be reduced.
- the acquisition unit acquires utterance information indicating utterance by the user before the user breathes.
- the determination unit determines the target of the operation by the user based on the utterance information.
- the information processing device can appropriately determine the target to which the operation amount is applied by determining the target of the operation by the user using the utterance before the user's breathing.
- the information processing device determines the operation amount by the user's breathing and determines the operation target by the user's utterance, so that the user can perform the operation by speaking only the operation target.
- the load can be reduced.
- the determination unit determines the amount of operation corresponding to the parameters of the device. In this way, the information processing device can reduce the operation load of the user because the operation amount corresponding to the parameter of the device can be determined, so that the user can save the trouble of inputting the parameter of the device. can.
- the determination unit determines the amount of operation corresponding to the position change of the target displayed on the screen. In this way, the information processing apparatus can save the user the trouble of changing the position of the target by determining the amount of operation corresponding to the change in the position of the target displayed on the screen. The operation load can be reduced.
- the information processing device includes a display unit (display unit 16 in the embodiment).
- the display unit displays information indicating the operation amount determined by the determination unit. In this way, the information processing device can improve usability because the user can visually recognize the state of the operation amount by breathing by displaying the information indicating the operation amount. ..
- the display unit displays an indicator corresponding to the amount of operation.
- the information processing apparatus can improve the usability because the user can intuitively understand the operation amount by displaying the indicator corresponding to the operation amount.
- FIG. 22 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the information processing device.
- the computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface 1500, and an input / output interface 1600.
- Each part of the computer 1000 is connected by a bus 1050.
- the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part. For example, the CPU 1100 expands the program stored in the ROM 1300 or the HDD 1400 into the RAM 1200 and executes processing corresponding to various programs.
- the ROM 1300 stores a boot program such as a BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, a program that depends on the hardware of the computer 1000, and the like.
- BIOS Basic Input Output System
- the HDD 1400 is a computer-readable recording medium that non-temporarily records a program executed by the CPU 1100 and data used by the program.
- the HDD 1400 is a recording medium for recording an information processing program according to the present disclosure, which is an example of program data 1450.
- the communication interface 1500 is an interface for the computer 1000 to connect to an external network 1550 (for example, the Internet).
- the CPU 1100 receives data from another device or transmits data generated by the CPU 1100 to another device via the communication interface 1500.
- the input / output interface 1600 is an interface for connecting the input / output device 1650 and the computer 1000.
- the CPU 1100 receives data from an input device such as a keyboard or mouse via the input / output interface 1600. Further, the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input / output interface 1600. Further, the input / output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium (media).
- the media is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.
- an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk)
- a magneto-optical recording medium such as an MO (Magneto-Optical disk)
- a tape medium such as a magnetic tape
- magnetic recording medium such as a magnetic tape
- semiconductor memory for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.
- the CPU 1100 of the computer 1000 realizes the functions of the control unit 130 and the like by executing the information processing program loaded on the RAM 1200.
- the information processing program according to the present disclosure and the data in the storage unit 120 are stored in the HDD 1400.
- the CPU 1100 reads the program data 1450 from the HDD 1400 and executes the program, but as another example, these programs may be acquired from another device via the external network 1550.
- the present technology can also have the following configurations.
- An acquisition unit that acquires respiration information indicating the user's respiration A determination unit that determines an operation amount related to an operation by the user based on the respiration of the user indicated by the respiration information acquired by the acquisition unit.
- Information processing device equipped with (2) The decision unit The amount of operation is determined according to the amount of breathing of the user.
- the acquisition unit The breathing information including the inspiratory amount of the user is acquired, and the breathing information is acquired.
- the decision unit The operation amount is determined based on the intake amount.
- the acquisition unit Acquire the respiration information including the change amount of the respiration of the user, and obtain the respiration information.
- the decision unit The operation amount is determined based on the change amount.
- the information processing device according to any one of (1) to (3). (5)
- the decision unit The operation amount is increased according to either the intake air or the exhaust air of the user.
- the information processing device according to any one of (1) to (4).
- the decision unit The amount of operation is reduced according to the other of the user's intake and exhaust, which is different from the one.
- the information processing device according to (5).
- the decision unit The operation amount is increased according to the intake of the user.
- the information processing device according to (5) or (6).
- the decision unit The operation amount is increased according to the increase in the intake amount at the time of intake by the user.
- the information processing device according to (5) or (7).
- the decision unit When the comparison result between the increase amount of the intake air of the user and the threshold value satisfies a predetermined condition, the operation amount is increased according to the increase amount of the intake air.
- the information processing device according to (7) or (8).
- the decision unit While the user is exhausted, the operation amount is constantly reduced.
- the information processing device according to any one of (7) to (9).
- the decision unit The amount of operation is reduced according to the exhaust of the user.
- (12) The decision unit The operation amount is reduced according to the decrease in the intake amount at the time of exhaust of the user.
- the decision unit When the comparison result between the increase amount of the exhaust gas of the user and the threshold value satisfies a predetermined condition, the operation amount is decreased according to the increase amount of the exhaust gas.
- the information processing device according to (11) or (12).
- the acquisition unit The utterance information indicating the utterance by the user after the breathing of the user is acquired, and the utterance information is acquired.
- the decision unit The target of the operation by the user is determined based on the utterance information.
- the information processing device according to any one of (1) to (13).
- the acquisition unit The utterance information indicating the utterance by the user before the breathing of the user is acquired, and the utterance information is acquired.
- the decision unit The target of the operation by the user is determined based on the utterance information.
- the information processing device according to any one of (1) to (13).
- (16) The decision unit Determining the amount of operation corresponding to the parameters of the device, The information processing device according to any one of (1) to (15).
- (17) The decision unit Determine the amount of operation corresponding to the change in the position of the target displayed on the screen.
- the information processing device according to any one of (1) to (15).
- a display unit that displays information indicating the operation amount determined by the determination unit, The information processing apparatus according to any one of (1) to (17).
- (19) The display unit Display the indicator corresponding to the operation amount,
- the information processing device according to (18).
- An information processing method that executes processing.
- Information processing system 100 100A Information processing device 110 Communication unit 120 Storage unit 121 Respiratory information storage unit 122 User information storage unit 123 Threshold information storage unit 124 Functional information storage unit 130 Control unit 131 Acquisition unit 132 Prediction unit 133 Decision unit 134 Execution Unit 135 Transmitter 10 Terminal device 11 Communication unit 12 Input unit 13 Output unit 14 Storage unit 15 Control unit 151 Receiver unit 152 Execution unit 153 Reception unit 154 Transmitter unit 16 Display unit 17 Sensor unit 171 Breath sensor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本開示に係る情報処理装置は、ユーザの呼吸を示す呼吸情報を取得する取得部と、前記取得部により取得された前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する決定部と、を備える。
Description
本開示は、情報処理装置及び情報処理方法に関する。
近年、ユーザと音声によるコミュニケーション(対話)を行う音声対話システムの技術が提供されている。例えば、音声対話システムにおいて発話タイミングを決定する技術が知られている(例えば特許文献1)。
従来技術によれば、ユーザの呼吸が呼気から吸気に変わるタイミングに基づいて音声対話システムの発話タイミングを決定する。
しかしながら、従来技術では、ユーザの操作負荷を軽減することができるとは限らない。例えば、従来技術では、ユーザにシステム側が発話するタイミングを決定しているに過ぎず、ユーザが発話等により操作を行う負荷について考慮されていない。そのため、ユーザの操作負荷を軽減することが望まれている。
そこで、本開示では、ユーザの操作負荷を軽減することができる情報処理装置及び情報処理方法を提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、ユーザの呼吸を示す呼吸情報を取得する取得部と、前記取得部により取得された前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する決定部と、を備える。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、この実施形態により本願にかかる情報処理装置及び情報処理方法が限定されるものではない。また、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
以下に示す項目順序に従って本開示を説明する。
1.実施形態
1-1.本開示の実施形態に係る情報処理の概要
1-1-1.背景及び効果等
1-1-2.操作量に基づく表示例
1-1-2-1.絶対値表示例
1-1-2-2.相対値表示例
1-1-3.呼吸前の発話を用いた対象の決定
1-1-4.センサ例
1-1-4-1.接触型
1-1-4-2.非接触型
1-2.実施形態に係る情報処理システムの構成
1-3.実施形態に係る情報処理装置の構成
1-4.実施形態に係る端末装置の構成
1-5.実施形態に係る情報処理の手順
1-5-1.情報処理装置に係る処理の手順
1-5-2.情報処理システムに係る処理の手順
1-5-3.情報処理システムに係る処理の具体例
1-6.呼吸の操作量への反映例
1-6-1.急激な吸気時の反映例
1-6-2.排気の操作量への反映例
1-6-3.吸気時の排気を反映しない例
1-6-4.排気時の吸気を反映しない例
1-7.予測処理
1-7-1.操作量の予測例
1-7-2.予測した操作量の表示例
1-8.その他の適用例
1-8-1.セレクタインジケータの操作
1-8-2.インジケータの表示・非表示の切換え例
1-8-3.GUI操作ターゲットの切換え例
2.その他の実施形態
2-1.変形例(クライアント側で決定処理等を行う例)
2-2.変形例に係る情報処理装置の構成例
2-3.その他
3.本開示に係る効果
4.ハードウェア構成
1.実施形態
1-1.本開示の実施形態に係る情報処理の概要
1-1-1.背景及び効果等
1-1-2.操作量に基づく表示例
1-1-2-1.絶対値表示例
1-1-2-2.相対値表示例
1-1-3.呼吸前の発話を用いた対象の決定
1-1-4.センサ例
1-1-4-1.接触型
1-1-4-2.非接触型
1-2.実施形態に係る情報処理システムの構成
1-3.実施形態に係る情報処理装置の構成
1-4.実施形態に係る端末装置の構成
1-5.実施形態に係る情報処理の手順
1-5-1.情報処理装置に係る処理の手順
1-5-2.情報処理システムに係る処理の手順
1-5-3.情報処理システムに係る処理の具体例
1-6.呼吸の操作量への反映例
1-6-1.急激な吸気時の反映例
1-6-2.排気の操作量への反映例
1-6-3.吸気時の排気を反映しない例
1-6-4.排気時の吸気を反映しない例
1-7.予測処理
1-7-1.操作量の予測例
1-7-2.予測した操作量の表示例
1-8.その他の適用例
1-8-1.セレクタインジケータの操作
1-8-2.インジケータの表示・非表示の切換え例
1-8-3.GUI操作ターゲットの切換え例
2.その他の実施形態
2-1.変形例(クライアント側で決定処理等を行う例)
2-2.変形例に係る情報処理装置の構成例
2-3.その他
3.本開示に係る効果
4.ハードウェア構成
[1.実施形態]
[1-1.本開示の実施形態に係る情報処理の概要]
図1は、本開示の実施形態に係る情報処理の一例を示す図である。本開示の実施形態に係る情報処理は、情報処理装置100(図6参照)や端末装置10(図8参照)を含む情報処理システム1(図5参照)によって実現される。
[1-1.本開示の実施形態に係る情報処理の概要]
図1は、本開示の実施形態に係る情報処理の一例を示す図である。本開示の実施形態に係る情報処理は、情報処理装置100(図6参照)や端末装置10(図8参照)を含む情報処理システム1(図5参照)によって実現される。
情報処理装置100は、実施形態に係る情報処理を実行する情報処理装置である。図1の例では、情報処理装置100は、ユーザの呼吸に基づいて、ユーザによる操作に関する量(以下「操作量」ともいう)を決定し、その後のユーザの発話を基に操作対象を決定する場合を示す。なお、ユーザの発話を基に操作対象を決定した後、その後のユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定してもよいが、この点については後述する。また、図1の例では、ユーザが利用する端末装置10の呼吸センサ171(図8参照)により検知されたセンサ情報を呼吸情報として用いる場合を示す。なお、図1の例では、ミリ波レーダを用いた呼吸センサ171によりユーザの呼吸を示す呼吸情報を検知する場合を示すが、ミリ波レーダに限らず、ユーザの呼吸情報を検知可能であれば、どのようなセンサが用いられてもよい。この点については後述する。
以下、図1について具体的に説明する。図1に示す各処理は、情報処理システム1の情報処理装置100及び端末装置10のいずれの装置が行ってもよい。情報処理システム1が処理の主体として記載されている処理については、情報処理システム1に含まれるいずれの装置が行ってもよい。以下では、端末装置10により検知されたユーザU1の呼吸を示す呼吸情報を用いて、情報処理装置100がユーザU1による操作に関する操作量を決定する処理(決定処理)を行う場合を一例として説明する。なお、図1では、情報処理装置100が決定処理(情報処理)を行う場合を一例として説明するが、端末装置10が決定処理(情報処理)を行ってもよい。この点については後述する。
まず、図1の例では、ユーザU1がWUW(Wake up Word)を発話する(ステップS11)。例えば、ユーザU1が情報処理システム1の音声認識を起動させるための発話を行う。情報処理システム1は、ユーザU1によるWUWの発話に応じて音声認識の起動を行う。情報処理装置100または端末装置10は、ユーザU1によるWUWの発話に応じて音声認識を起動する。図1の例では、端末装置10がディスプレイ(表示画面)である表示部16や音声を出力する出力部13(図8参照)を有するタブレット型端末である場合を示す。なお、端末装置10は、図1に示すようなタブレット型端末に限らず、スマートスピーカやスマートフォンなどどのような機器であってもよいが、この点についての詳細は後述する。
図1の例では、端末装置10は、ユーザU1によるWUWの発話に応じて音声認識を起動する。端末装置10は、音声認識の起動時の所定の音声出力の処理を行う。図1の例では、端末装置10-1に示すように「How can I help ?」と音声出力がされる。このように、図1では、端末装置10の表示の変更に応じて、端末装置10を端末装置10-1、10-2、10-3と区別して記載する場合がある。なお、端末装置10-1、10-2、10-3は同じ端末装置10であり、区別せずに説明する場合は端末装置10と記載する。
図1の例では、端末装置10の表示部16には、端末装置10-1に示すように、ユーザU1の吸気量に対応するインジケータ(吸気量インジケータ)であるインジケータID1が表示される。インジケータID1は、ユーザU1の呼吸に応じてサイズが変化する表示物である。すなわち、インジケータID1は、ユーザの呼吸に基づいて決定された操作量をその大きさにより示す表示物である。例えば、端末装置10-1に示すインジケータID1-1は、インジケータID1の初期状態を示す。このように、図1では、インジケータID1の表示の変更に応じて、インジケータID1をインジケータID1-1、ID1-2と区別して記載する場合がある。なお、インジケータID1-1、ID1-2を、区別せずに説明する場合はインジケータID1と記載する。
ユーザU1による発話前吸気が行われる(ステップS12)。例えば、ユーザU1は、発話を行う前に呼吸し、情報処理装置100は、そのユーザU1の呼吸を示す呼吸情報を取得する。例えば、情報処理装置100は、ユーザU1が利用する端末装置10からユーザU1の呼吸を示す呼吸情報を取得する。情報処理装置100は、取得した呼吸情報を用いて、ユーザU1の呼吸による操作に関する操作量を決定する決定処理を行う。
以下、情報処理装置100が行う上述の決定処理について、図2を用いて具体的に説明する。図2は、ユーザの呼吸の操作量への反映の一例を示す図である。
図2中のグラフGR1は、ユーザの呼吸と操作量との関係を示すグラフである。具体的には、図2中のグラフGR1は、ユーザの吸気量と、操作量に基づくインジケータのサイズ(インジケータサイズ)との関係を示すグラフである。図2中のグラフGR1は、縦軸が吸気量やインジケータのサイズを示し、横軸は時間を示すグラフである。また、図2中のグラフGR1では、呼吸量を示す線(線LN11)を実線で示し、インジケータサイズを示す線(線LN12)を一点鎖線で示す。
また、以下の説明で用いる各値について記載する。現在吸気量「B_current」は、現時点でのユーザの吸気量を示す。例えば、現在吸気量「B_current」は、決定処理の時点で取得されている最新のユーザの吸気量を示す。最大吸気量「B_max」は、一回の呼吸で到達する最大の吸気量を示す。最大吸気量「B_max」は、連続する一回の吸気及び排気の間で到達する最大の吸気量を示す。
吸気増加量「B_increase」は、吸気時の吸気の増加量を示す。すなわち、吸気増加量「B_increase」は、吸気時の吸気量の変化量(増加量)を示す。なお、吸気増加量「B_increase」は、時間の経過(増加量)に対する吸気量の増加量の比率を示す情報であってもよい。例えば、吸気増加量「B_increase」は、傾き(変化の割合)であってもよい。増加量閾値「B_increase_thres」は、吸気増加量との比較に用いる閾値を示す。排気増加量「B_decrease」は、排気時の排気の増加量を示す。すなわち、排気増加量「B_decrease」は、排気時の吸気量の変化量(減少量)を示す。なお、排気増加量「B_decrease」は、時間の経過(増加量)に対する吸気量の減少量の比率を示す情報であってもよい。例えば、排気増加量「B_decrease」は、傾き(変化の割合)であってもよい。排気量閾値「B_decrease_thres」は、排気増加量との比較に用いる閾値を示す。
インジケータパラメータ「P_indicator」は、インジケータのパラメータを示す。インジケータパラメータ「P_indicator」は、インジケータのサイズを示す。インジケータパラメータ「P_indicator」は、操作量を示してもよい。以下では、インジケータパラメータ「P_indicator」は、操作量を示すものとして説明する。時間変数「Time」は、時間に基づく値を示す。時間変数「Time」は、最大吸気量「B_max」の時点からの時間経過に応じて変化する値を示す。例えば、時間変数「Time」は、最大吸気量「B_max」の時点との差が大きい程大きい値となる。
インジケータパラメータ「P_indicator」は、最大吸気に達するまで増加する。図2の例では、インジケータパラメータ「P_indicator」は、最大吸気量「B_max」に達する時間t11までの間、吸気量に比例して増加する。
例えば、情報処理装置100は、最大吸気までの間、現在吸気量「B_current」と以下の式(1)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、情報処理装置100は、ユーザが吸気を行っている間、式(1)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。
上記の式(1)中の「a」や「b」は、所定の定数を示す。このように、情報処理装置100は、吸気時は吸気量に比例して操作量を増加させる。情報処理システム1は、吸気時は吸気量に比例して操作量を増加させる。これにより、情報処理システム1は、吸気時は吸気量に比例してインジケータサイズを拡大させる。なお、情報処理装置100は、操作量を示すインジケータパラメータ「P_indicator」を算出した後、そのインジケータパラメータ「P_indicator」の値と所定の変換式を用いて、インジケータサイズを決定してもよい。
なお、上記の式(1)は、最大吸気までの間、吸気増加量「B_increase」が増加量閾値「B_increase_thres」未満である場合のインジケータパラメータ「P_indicator」の算出の一例であり、インジケータパラメータ「P_indicator」の算出には種々の数式が用いられてもよい。例えば、吸気増加量「B_increase」が増加量閾値「B_increase_thres」以上となった場合については、別の算出式(下記の式(3))が用いられるが、この点についての詳細は後述する。
なお、閾値と等しい場合をいずれに含めるかは適宜設定されてもよい。情報処理装置100は、吸気増加量「B_increase」が増加量閾値「B_increase_thres」以下である場合、上記の式(1)を用い、吸気増加量「B_increase」が増加量閾値「B_increase_thres」より大きくなった場合に下記の式(3)を用いてもよい。
また、インジケータパラメータ「P_indicator」は、最大吸気以降に一定変化する。図2の例では、インジケータパラメータ「P_indicator」は、最大吸気量「B_max」に達する時間t11後の間、時間経過に応じて一定に減少する。
例えば、情報処理装置100は、最大吸気以降、最大吸気量「B_max」と時間変数「Time」と以下の式(2)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、情報処理装置100は、ユーザが排気を行っている間、式(2)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。
上記の式(2)中の「c」は、所定の定数を示す。このように、情報処理装置100は、排気時は操作量を一定に減少吸気時は吸気量に比例して操作量を増加させる。情報処理システム1は、排気時はインジケータサイズを一定に減少させる。
なお、上記の式(2)は、最大吸気以降、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」よりも大きい場合のインジケータパラメータ「P_indicator」の算出の一例であり、インジケータパラメータ「P_indicator」の算出には種々の数式が用いられてもよい。例えば、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」以下となった場合については、別の算出式(下記の式(6))が用いられるが、この点についての詳細は後述する。
なお、閾値と等しい場合をいずれに含めるかは適宜設定されてもよい。情報処理装置100は、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」以上である場合、上記の式(2)を用い、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」未満となった場合に下記の式(6)を用いてもよい。
情報処理装置100は、上述の処理により操作量(インジケータパラメータ)を算出することで、ユーザU1による操作に関する操作量を決定する。このように、情報処理装置100は、ユーザの呼吸の情報を用いて操作量を決定することにより、適切に操作量を算出することができる。
なお、情報処理装置100は、上述の式(1)や(2)を用いた処理は一例であり、上述した処理に限らず、種々の手法により決定処理を行ってもよい。例えば、情報処理装置100は、機械学習に関する技術を用いて、決定処理を行ってもよい。この場合、情報処理装置100は、呼吸情報を入力した場合に操作量を出力するモデルを用いて、決定処理を行ってもよい。情報処理装置100は、呼吸情報が示す呼吸量と操作量との関係を学習し、呼吸量の入力に応じて呼吸量に対応する操作量を出力するモデルを用いて、決定処理を行ってもよい。例えば、情報処理装置100は、ユーザの呼吸量を示す呼吸情報と、その呼吸量に対応する操作量との組合せを含む学習データを用いてモデルを学習してもよいし、モデルを外部の情報処理装置から取得してもよい。
ここから、図1に戻って説明を続ける。情報処理システム1は、情報処理装置100により決定された操作量(インジケータパラメータ)を用いて、端末装置10に表示されたインジケータID1のサイズを変更する(ステップS13)。例えば、情報処理装置100は、決定した操作量(インジケータパラメータ)の情報を端末装置10に送信する。情報処理装置100から操作量(インジケータパラメータ)の情報を受信した端末装置10は、表示されたインジケータID1のサイズを変更する。
図1の例では、端末装置10は、端末装置10-1から端末装置10-2にインジケータID1の表示を変更する。端末装置10は、情報処理装置100から受信した操作量(インジケータパラメータ)を用いて、初期状態のインジケータID1-1からサイズを拡大したインジケータID1-2に表示を変更する。これにより、端末装置10の表示部16には、端末装置10-2に示すように、インジケータID1-1からインジケータID1-2に、サイズが変更されたインジケータID1が表示される。このように、インジケータID1は、ユーザU1の吸気量に応じて表示態様が変化する。これにより、情報処理システム1は、量の目安になる吸気ガイドUI(User Interface)を表示することができる。
なお、情報処理装置100は、インジケータID1のサイズを変更したコンテンツ(端末装置10-2の表示画面に対応)を端末装置10に送信し、端末装置10は受信したコンテンツを表示してもよい。
そして、ユーザU1が発話を行う(ステップS14)。例えば、ユーザU1は、端末装置10に対して、インジケータID1が示す操作量を用いた処理を要求する音声入力を行う。図1の例では、ユーザU1は、発話情報IN11に示すように「Turn up volume」と発話し、端末装置10に対して機器の音量を上げる操作を要求する音声入力を行う。例えば、ユーザU1は、「Turn up volume」と発話し、端末装置10の音量を上げる操作を要求する音声入力を行う。
そして、情報処理システム1は、ユーザU1による発話による入力と、操作量とを用いて処理を行う(ステップS15)。情報処理システム1は、ユーザU1による入力に対して音声対話システムの処理を行う。例えば、情報処理システム1は、自然言語理解(NLU:Natural language understanding)により、ユーザの入力を解釈し、対応する処理(Action)を実行する。情報処理装置100または端末装置10は、自然言語理解(NLU)によりユーザの入力を解釈し、対応する処理(Action)を実行する。
図1の例では、端末装置10は、発話情報IN11と操作量とを用いて、音量(Volume)を上げる処理を行う。端末装置10は、インジケータID1-2のサイズが操作量だけ音量を上げる処理を行う。端末装置10は、端末装置10-3に示すように、音量を上げる処理を行う。これにより、情報処理システム1は、ユーザの吸気量に応じた量変化を可能にする。端末装置10の表示部16には、端末装置10-3に示すように、音量を上げる処理に対応する情報が表示される。
このように、情報処理システム1は、ユーザの呼吸を用いて操作量を決定し、その操作量をユーザに操作に対応する処理に用いることで、ユーザが操作量を音声などにより入力する手間を省くことができるため、ユーザの操作負荷を軽減することができる。なお、上述した例では、ユーザの吸気を操作量やインジケータサイズの増加に対応付け、ユーザの排気を操作量やインジケータサイズの減少に対応付ける場合を示したが、ユーザの吸気と操作量やインジケータサイズとの対応付けは、それに限られない。情報処理システム1は、ユーザの吸気を操作量やインジケータサイズの減少に対応付け、ユーザの排気を操作量やインジケータサイズの増加に対応付けてもよい。この場合、情報処理システム1は、ユーザの吸気時に操作量やインジケータサイズを減少させ、ユーザの排気時を操作量やインジケータサイズを増加させてもよい。情報処理システム1は、ユーザの吸気量の増加に応じて操作量やインジケータサイズを減少させ、ユーザの吸気量の減少に応じて操作量やインジケータサイズを増加させてもよい。
[1-1-1.背景及び効果等]
既存の音声UIでは、量の調整や位置調整などをユーザの所望の通りに行う場合、システムが理解できる具体的な情報をユーザが発話の中に含ませること等が必要となる。そのため、ユーザの発話が長くなり発話負荷が大きい。例えば、既存の音声UIでは、「音量を50にして」や「左に3cm動かして」等のように、ユーザが発話の中に具体的な数値等の操作量を含める必要があり、ユーザの発話が長くなり発話負荷が大きくなる。
既存の音声UIでは、量の調整や位置調整などをユーザの所望の通りに行う場合、システムが理解できる具体的な情報をユーザが発話の中に含ませること等が必要となる。そのため、ユーザの発話が長くなり発話負荷が大きい。例えば、既存の音声UIでは、「音量を50にして」や「左に3cm動かして」等のように、ユーザが発話の中に具体的な数値等の操作量を含める必要があり、ユーザの発話が長くなり発話負荷が大きくなる。
一方で、情報処理システム1は、ユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定する。これにより、情報処理システム1は、ユーザが発話により具体的な数値等の操作量を示す情報を入力する手間を省略することができる。したがって、情報処理システム1は、ユーザの操作負荷を軽減し、ユーザビリティを向上させることができる。図1の例では、情報処理システム1は、発話する前の呼吸状態を音声操作に紐づくパラメータとして利用し、ユーザが発話内に具体的な数値情報を入れなくても期待の操作を行うことを可能にする。このような情報処理システム1は、例えばユーザが大きめに吸気した後、少しまってからコマンド発話した場合に、吸気時に操作量を決定し、コマンド発話を基に操作対象などの処理内容を決定すること等を可能にすることができる。例えば、情報処理システム1は、呼吸状態や息の吸込み量や吸込み量の増加量や息の排気量や排気量の増加量等の呼吸情報を用いることで、ユーザによる操作に関する操作量を適切に決定することができる。
[1-1-2.操作量に基づく表示例]
なお、操作量に基づく表示は、図1に示す例に限らず、種々の態様であってもよい。この点について図3及び図4を用いて説明する。図3及び図4は、操作量に基づく表示の一例を示す図である。
なお、操作量に基づく表示は、図1に示す例に限らず、種々の態様であってもよい。この点について図3及び図4を用いて説明する。図3及び図4は、操作量に基づく表示の一例を示す図である。
[1-1-2-1.絶対値表示例]
まず、図3を用いて操作量を絶対値表示する場合について説明する。例えば、端末装置10は、インジケータID1とともに、操作対象の候補(操作対象候補)となる機器50に対応するオブジェクトやその機器50に対応する操作量を絶対値として表示してもよい。図3の例では、端末装置10は、操作対象候補となる機器50として、照明装置、音楽プレイヤ、テレビの3つの機器の各々に対応するオブジェクトOB1、OB2、OB3を表示する。オブジェクトOB1は、照明装置に対応し、オブジェクトOB2は、音楽プレイヤに対応し、オブジェクトOB3は、テレビに対応する。例えば、端末装置10は、各操作対象の設定可能な値の下限値から上限値の範囲内で操作量を絶対値表示する。
まず、図3を用いて操作量を絶対値表示する場合について説明する。例えば、端末装置10は、インジケータID1とともに、操作対象の候補(操作対象候補)となる機器50に対応するオブジェクトやその機器50に対応する操作量を絶対値として表示してもよい。図3の例では、端末装置10は、操作対象候補となる機器50として、照明装置、音楽プレイヤ、テレビの3つの機器の各々に対応するオブジェクトOB1、OB2、OB3を表示する。オブジェクトOB1は、照明装置に対応し、オブジェクトOB2は、音楽プレイヤに対応し、オブジェクトOB3は、テレビに対応する。例えば、端末装置10は、各操作対象の設定可能な値の下限値から上限値の範囲内で操作量を絶対値表示する。
端末装置10の表示部16には、照明装置に対応するオブジェクトOB1の下部に操作量を絶対値で示す「20」が表示される。この場合、操作対象として照明装置が選択された場合、例えば照明装置の明るさが「20」に設定されることを示す。
端末装置10の表示部16には、音楽プレイヤに対応するオブジェクトOB2の下部に操作量を絶対値で示す「10」が表示される。この場合、操作対象として音楽プレイヤが選択された場合、例えば音楽プレイヤの音量が「10」に設定されることを示す。
端末装置10の表示部16には、テレビに対応するオブジェクトOB3の下部に操作量を絶対値で示す「32」が表示される。この場合、操作対象としてテレビが選択された場合、例えばテレビの音量が「32」に設定されることを示す。
このように、図3の例では、端末装置10は、各操作対象別の操作量を絶対値で表示する。例えば、ユーザは、発話情報IN21に示すように「Change TV volume」と発話し、情報処理システム1に対してテレビの音量を変更する操作を要求する音声入力を行う。情報処理システム1は、発話情報IN21と操作量とを用いて、テレビの音量(Volume)を変更する処理を行う。具体的には、情報処理システム1は、発話情報IN21と操作量とを用いて、テレビの音量(Volume)を「32」に変更する処理を行う。
[1-1-2-2.相対値表示例]
まず、図4を用いて操作量を相対値表示する場合について説明する。なお、図3と同様の点については適宜説明を省略する。例えば、端末装置10は、インジケータID1とともに、操作対象の候補(操作対象候補)となる機器50に対応するオブジェクトやその機器50に対応する操作量を相対値として表示してもよい。端末装置10は、操作量を現在の値からどれだけ変更するかを示す相対値として表示してもよい。例えば、端末装置10は、現在値からの変化量として操作量を表示してもよい。例えば、端末装置10は、各操作対象の設定可能な値の下限値から上限値の範囲内で操作量を相対値表示する。
まず、図4を用いて操作量を相対値表示する場合について説明する。なお、図3と同様の点については適宜説明を省略する。例えば、端末装置10は、インジケータID1とともに、操作対象の候補(操作対象候補)となる機器50に対応するオブジェクトやその機器50に対応する操作量を相対値として表示してもよい。端末装置10は、操作量を現在の値からどれだけ変更するかを示す相対値として表示してもよい。例えば、端末装置10は、現在値からの変化量として操作量を表示してもよい。例えば、端末装置10は、各操作対象の設定可能な値の下限値から上限値の範囲内で操作量を相対値表示する。
端末装置10の表示部16には、照明装置に対応するオブジェクトOB1の下部に操作量を相対値で示す「5」が表示される。この場合、操作対象として照明装置が選択された場合、例えば照明装置の明るさが「5」だけ変更されることを示す。
端末装置10の表示部16には、音楽プレイヤに対応するオブジェクトOB2の下部に操作量を相対値で示す「10」が表示される。この場合、操作対象として音楽プレイヤが選択された場合、例えば音楽プレイヤの音量が「10」だけ変更されることを示す。
端末装置10の表示部16には、テレビに対応するオブジェクトOB3の下部に操作量を相対値で示す「20」が表示される。この場合、操作対象としてテレビが選択された場合、例えばテレビの音量が「20」だけ変更されることを示す。
このように、図4の例では、端末装置10は、各操作対象別の操作量を相対値で表示する。このように相対値表示された場合、上昇や下降は発話コマンドから判断される。なわわち、相対値表示の場合、情報処理システム1は、パラメータ(設定値)の上昇(増加)及び下降(減少)のいずれであるかはユーザの発話に基づいて決定する。
例えば、ユーザは、発話情報IN31に示すように「Turn up TV volume」と発話した場合、情報処理システム1は、テレビの音量を上げる操作を要求する音声入力が行われたと判定する。情報処理システム1は、発話情報IN31と操作量とを用いて、テレビの音量(Volume)を上げる処理を行う。具体的には、情報処理システム1は、発話情報IN31と操作量とを用いて、テレビの音量(Volume)を「20」だけ増加させる処理を行う。
また、例えば、ユーザは、発話情報IN32に示すように「Turn down music」と発話した場合、情報処理システム1は、音楽プレイヤの音量を下げる操作を要求する音声入力が行われたと判定する。情報処理システム1は、発話情報IN32と操作量とを用いて、音楽プレイヤの音量(Volume)を下げる処理を行う。具体的には、情報処理システム1は、発話情報IN32と操作量とを用いて、音楽プレイヤの音量(Volume)を「10」だけ減少させる処理を行う。
なお、上述した絶対値表示及び相対値表示は一例であり、情報処理システム1は、インジケータ表示時は絶対値または相対値としての利用を限定せず、発話コマンドからどちらで利用するか決定してもよい。
[1-1-3.呼吸前の発話を用いた対象の決定]
図1の例では、操作量の決定、操作対象の決定の順で処理を行ったが、情報処理システム1は、操作対象の決定、操作量の決定の順で処理を行ってもよい。
図1の例では、操作量の決定、操作対象の決定の順で処理を行ったが、情報処理システム1は、操作対象の決定、操作量の決定の順で処理を行ってもよい。
例えば、情報処理装置100は、ユーザの発話を基に操作対象を決定した後、その後のユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定してもよい。この場合、情報処理システム1は、ユーザの呼吸による操作量に応じて、リアルタイムに操作対象のパラメータを変更してもよい。例えば、操作対象に照明装置の明るさ(のパラメータ)に決定した場合、情報処理システム1は、ユーザの呼吸による操作量に応じて、リアルタイムに照明装置の明るさを変更してもよい。これにより、情報処理システム1は、ユーザの呼吸による操作による変更を、ユーザに直感的に把握させることができる。
[1-1-4.センサ例]
図1の例では、ユーザの呼吸を示す呼吸情報を検知する呼吸センサ171の一例としてミリ波レーダを用いた場合を説明したが、呼吸センサ171は、ミリ波レーダに限らず、ユーザの呼吸情報を検知可能であれば、どのようなセンサであってもよい。この点について以下、例示を記載する。
図1の例では、ユーザの呼吸を示す呼吸情報を検知する呼吸センサ171の一例としてミリ波レーダを用いた場合を説明したが、呼吸センサ171は、ミリ波レーダに限らず、ユーザの呼吸情報を検知可能であれば、どのようなセンサであってもよい。この点について以下、例示を記載する。
[1-1-4-1.接触型]
図1の例では、ミリ波レーダを用いた呼吸センサ171、すなわち非接触型のセンサを用いた呼吸情報の検知を例として説明したが、呼吸情報の検知(取得)に用いるセンサは、非接触型に限らず接触型であってもよい。以下、接触型のセンサの例示を記載する。
図1の例では、ミリ波レーダを用いた呼吸センサ171、すなわち非接触型のセンサを用いた呼吸情報の検知を例として説明したが、呼吸情報の検知(取得)に用いるセンサは、非接触型に限らず接触型であってもよい。以下、接触型のセンサの例示を記載する。
呼吸センサ171は、ウェアラブルセンサであってもよい。呼吸センサ171は、バンド式、ジャケット式、マスク式等の種々の態様の接触型のセンサが用いられてもよい。
呼吸センサ171にバンド式のセンサが用いられる場合、情報処理システム1は、ユーザの胸や腹に巻いたバンドの伸縮から呼吸の変位量を取得する。呼吸センサ171にジャケット式のセンサが用いられる場合、情報処理システム1は、ユーザが着用するジャケット内にバンドを埋め込む。また、複数個所(方向)へのセンサを装備することにより呼吸検出の精度を向上させることができる。
また、呼吸センサ171に加速度センサが用いられる場合、情報処理システム1は、首掛け機器やユーザの上半身に装着したスマートフォンなどのウェアラブル機器に搭載されている加速度センサにより胸部の動きを観測し、呼吸量を推定してもよい。また、呼吸センサ171にマスク式のセンサが用いられる場合、情報処理システム1は、マスクに搭載された風量センサもしくは気圧センサにより呼気及び吸気の速度を検知し、累積した変位量から深さと周期を推定する。
また、呼吸センサ171にユーザの口まで覆うVR(Virtual Reality)ヘッドセットが用いられてもよい。この場合、ノイズ遮断マイク付きの呼吸センシングを行う呼吸センサ171により、VR使用中なので実世界での不利益は無視することができる。また、呼吸センサ171に近接マイクが用いられる場合、情報処理システム1は、近接マイクにより吐く息の音を認識して、呼気の時間変化量を認識し、呼吸の深さ・速度を推定する。例えば、情報処理システム1は、近接マイクにより吐く息がマイクにあたった時に発生するノイズの音を認識して、呼気の時間変化量を認識し、呼吸の深さ・速度を推定する。
[1-1-4-2.非接触型]
また、非接触型のセンサもミリ波レーダに限らず、呼吸センサ171には、種々の非接触型のセンサが用いられてもよい。以下、ミリ波レーダ以外の非接触型のセンサの例示を記載する。
また、非接触型のセンサもミリ波レーダに限らず、呼吸センサ171には、種々の非接触型のセンサが用いられてもよい。以下、ミリ波レーダ以外の非接触型のセンサの例示を記載する。
呼吸センサ171は、画像センシングの手法、鼻周辺の温度からの呼吸検出の手法、近接センサ、ミリ波レーダ以外のレーダが用いられてもよい。
呼吸センサ171に画像センシングが用いられる場合、情報処理システム1は、サーモカメラで温度の異なる呼気と吸気の時間変化量を認識し、呼吸の深さ・周期・速度を推定する。また、情報処理システム1は、寒い時に白くなる吐く息を画像センシングして呼気の時間変化量を認識し、呼吸の深さ・周期・速度を推定してもよい。
例えば、鼻周辺の温度からの呼吸検出の手法に関しては、下記のような開示がされている。
・煩わしさのない呼吸センシング方法<https://shingi.jst.go.jp/past_abst/abst/p/09/919/tama2.pdf>
・煩わしさのない呼吸センシング方法<https://shingi.jst.go.jp/past_abst/abst/p/09/919/tama2.pdf>
例えば、近接センサを用いた呼吸検知に関しては、下記のような開示がされている。
・人の動きや呼吸を見守る静電容量型フィルム状近接センサ<https://www.aist.go.jp/aist_j/press_release/pr2016/pr20160125/pr20160125.html>
・人の動きや呼吸を見守る静電容量型フィルム状近接センサ<https://www.aist.go.jp/aist_j/press_release/pr2016/pr20160125/pr20160125.html>
例えば、レーダを用いた呼吸検知に関しては、下記のような開示がされている。
・心拍・呼吸検出センサー『GZS-350シリーズ』<https://www.ipros.jp/product/detail/2000348329/>
・心拍・呼吸検出センサー『GZS-350シリーズ』<https://www.ipros.jp/product/detail/2000348329/>
また、図1のように、呼吸センサ171にミリ波レーダを用いる場合、情報処理システム1は、ユーザの胸部の動きをミリ波レーダの受信信号の位相差で検知し、呼吸量を推定する。例えば、端末装置10は、呼吸センサ171により検知されたセンサ情報を用いて、ユーザの胸部の動きをミリ波レーダの受信信号の位相差で検知し、呼吸量を推定することにより、ユーザの呼吸情報を生成する。そして、端末装置10は、生成したユーザの呼吸情報を情報処理装置100に送信する。
また、情報処理装置100がユーザの呼吸情報を生成してもよい。この場合、端末装置10は、呼吸センサ171により検知されたセンサ情報を情報処理装置100に送信する。そして、センサ情報を受信した情報処理装置100が受信したセンサ情報を用いて、ユーザの胸部の動きをミリ波レーダの受信信号の位相差で検知し、呼吸量を推定することにより、ユーザの呼吸情報を生成してもよい。
なお、上記のセンサは、呼吸情報を取得するための用いるセンサの例示に過ぎす、呼吸情報を取得可能であれば、どのようなセンサが用いられてもよい。ユーザの呼吸を示す呼吸情報を検知可能であれば、情報処理システム1は、どのようなセンサを用いて呼吸情報を検知してもよい。
端末装置10のセンサ部17は、上述したセンサの少なくとも1つを有し、そのセンサにより呼吸情報を検知する。なお、情報処理システム1は、センサ部17のセンサにより検知されたセンサ情報を用いて呼吸情報を生成してもよい。例えば、端末装置10や情報処理装置100は、呼吸センサ171(ミリ波レーダ)により検知されたセンサ情報(点群データ)を用いて、呼吸情報を生成してもよい。この場合、端末装置10や情報処理装置100は、種々の技術を適宜用いて、呼吸センサ171(ミリ波レーダ)により検知されたセンサ情報(点群データ)から呼吸情報を生成してもよい。
[1-2.実施形態に係る情報処理システムの構成]
図5に示す情報処理システム1について説明する。図5に示すように、情報処理システム1は、端末装置10と、情報処理装置100と、複数の機器50-1、50-2、50-3とが含まれる。以下では、機器50-1~50-3等を区別しない場合、機器50と記載する場合がある。なお、図5では、3個の機器50-1、50-2、50-3を図示するが、情報処理システム1には、3個より多い数(例えば20個や100個以上)の機器50が含まれてもよい。端末装置10と、情報処理装置100と、機器50とは所定の通信網(ネットワークN)を介して、有線または無線により通信可能に接続される。図5は、実施形態に係る情報処理システムの構成例を示す図である。なお、図5に示した情報処理システム1には、複数台の端末装置10や、複数台の情報処理装置100が含まれてもよい。
図5に示す情報処理システム1について説明する。図5に示すように、情報処理システム1は、端末装置10と、情報処理装置100と、複数の機器50-1、50-2、50-3とが含まれる。以下では、機器50-1~50-3等を区別しない場合、機器50と記載する場合がある。なお、図5では、3個の機器50-1、50-2、50-3を図示するが、情報処理システム1には、3個より多い数(例えば20個や100個以上)の機器50が含まれてもよい。端末装置10と、情報処理装置100と、機器50とは所定の通信網(ネットワークN)を介して、有線または無線により通信可能に接続される。図5は、実施形態に係る情報処理システムの構成例を示す図である。なお、図5に示した情報処理システム1には、複数台の端末装置10や、複数台の情報処理装置100が含まれてもよい。
情報処理装置100は、ユーザの呼吸を示す呼吸情報に基づいて、ユーザの吸気の後にユーザが発話するか否かを予測するコンピュータである。情報処理装置100は、ユーザの呼吸情報に基づいて、ユーザの吸気を分類する。また、情報処理装置100は、各種情報を端末装置10に送信するコンピュータである。情報処理装置100は、各種機能に関するサービスを提供するために用いられるサーバ装置である。
また、情報処理装置100は、音声信号処理や音声認識や発話意味解析や対話制御等のソフトウェアモジュールを有してもよい。情報処理装置100は、音声認識の機能を有してもよい。例えば、情報処理装置100は、自然言語理解(NLU)や自動音声認識(ASR:Automatic Speech Recognition)の機能を有してもよい。例えば、情報処理装置100は、ユーザの発話による入力情報からユーザのインテント(意図)やエンティティ(対象)に関する情報を推定してもよい。情報処理装置100は、自然言語理解や自動音声認識の機能を有する音声認識サーバとして機能する。
端末装置10は、センサによりユーザの呼吸を示す呼吸情報を検知する端末装置である。例えば、端末装置10は、呼吸センサ171によりユーザの呼吸を示す呼吸情報を検知する。端末装置10は、ユーザの呼吸情報を情報処理装置100等のサーバ装置へ送信する情報処理装置である。また、端末装置10は、自然言語理解や自動音声認識等の音声認識の機能を有してもよい。例えば、端末装置10は、ユーザの発話による入力情報からユーザのインテント(意図)やエンティティ(対象)に関する情報を推定してもよい。
端末装置10は、ユーザによって利用されるデバイス装置である。端末装置10は、ユーザによる入力を受け付ける。端末装置10は、ユーザの発話による音声入力や、ユーザの操作による入力を受け付ける。端末装置10は、ユーザの入力に応じた情報を表示する。端末装置10は、実施形態における処理を実現可能であれば、どのような装置であってもよい。端末装置10は、ユーザの呼吸情報を検知し、情報処理装置100へ送信する機能を有する構成であれば、どのような装置であってもよい。例えば、端末装置10は、スマートフォンや、スマートスピーカや、テレビや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等の装置であってもよい。端末装置10は、ユーザが身に着けるウェアラブル端末(Wearable Device)等であってもよい。例えば、端末装置10は、腕時計型端末やメガネ型端末等であってもよい。
機器50は、ユーザによって利用される各種装置である。機器50は、IoT(Internet of Things)機器等の各種装置である。機器50は、家電製品等のIoT機器である。例えば、機器50は、通信機能を有し、情報処理装置100や端末装置10と通信し、情報処理装置100や端末装置10からの操作要求に応じた処理が可能であればどのような装置であってもよい。例えば、機器50は、照明器具(照明装置)、音楽プレイヤ、テレビ、ラジオ、エアコン(空調機器)、洗濯機、冷蔵庫等のいわゆる家電製品であってもよいし、換気扇や床暖房など住宅に設置された製品であってもよい。図5の例では、機器50-1は、照明装置であり、機器50-2は、音楽プレイヤであり、機器50-3は、テレビであってもよい。
また、機器50は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等の情報処理装置であってもよい。また、例えば、機器50は、実施形態における処理を実現可能であれば、どのような装置であってもよい。なお、機器50には、端末装置10が含まれてもよい。すなわち、ユーザの呼吸に基づく操作量を用いた操作対象となる機器は、端末装置10であってもよい。
[1-3.実施形態に係る情報処理装置の構成]
次に、実施形態に係る情報処理を実行する情報処理装置の一例である情報処理装置100の構成について説明する。図6は、本開示の実施形態に係る情報処理装置100の構成例を示す図である。
次に、実施形態に係る情報処理を実行する情報処理装置の一例である情報処理装置100の構成について説明する。図6は、本開示の実施形態に係る情報処理装置100の構成例を示す図である。
図6に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークN(図5参照)と有線または無線で接続され、端末装置10等の他の情報処理装置との間で情報の送受信を行う。また、通信部110は、ユーザが利用するユーザ端末(図示省略)との間で情報の送受信を行ってもよい。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図6に示すように、呼吸情報記憶部121と、ユーザ情報記憶部122と、閾値情報記憶部123と、機能情報記憶部124とを有する。
記憶部120は、上記以外にも各種情報を記憶する。記憶部120は、音声認識機能を実現する音声認識アプリケーション(プログラム)の情報を記憶する。例えば、情報処理装置100は、音声認識アプリケーション(単に「音声認識」ともいう)を起動することにより、音声認識が実行可能になる。記憶部120は、音声認識に用いる各種情報を記憶する。記憶部120は、音声認識辞書に用いる辞書(音声認識辞書)の情報を記憶する。記憶部120は、複数の音声認識辞書の情報を記憶する。記憶部120は、長文用の音声認識辞書(長文用辞書)や中文用の音声認識辞書(中文用辞書)や短文用の音声認識辞書(単語・語句用辞書)等の情報を記憶する。
実施形態に係る呼吸情報記憶部121は、ユーザの呼吸に関する各種情報を記憶する。呼吸情報記憶部121は、各ユーザの識別情報(ユーザID)に対応付けて各ユーザの呼吸情報等の各種情報を記憶する。呼吸情報記憶部121は、ユーザの呼吸を示す呼吸情報を記憶する。呼吸情報記憶部121は、ユーザの吸気量を含む呼吸情報を記憶する。呼吸情報記憶部121は、ユーザの呼吸の変化量を含む呼吸情報を記憶する。呼吸情報記憶部121は、ユーザの呼吸後のユーザによる発話を示す発話情報を記憶する。呼吸情報記憶部121は、ユーザの呼吸前のユーザによる発話を示す発話情報を記憶する。
なお、呼吸情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、呼吸情報記憶部121は、グラフGR1~GR6の生成に必要な各種の情報を記憶してもよい。例えば、呼吸情報記憶部121は、グラフGR1~GR6に示す各種の情報を記憶してもよい。
実施形態に係るユーザ情報記憶部122は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部122は、各ユーザの属性情報等の種々の情報を記憶する。
ユーザ情報記憶部122は、ユーザID、年齢、性別、居住地といったユーザに関する情報を記憶する。例えば、ユーザ情報記憶部122は、ユーザU1を識別するユーザID「U1」に対応付けて、ユーザU1の年齢、性別、居住地といったユーザU1に関する情報を記憶する。
また、ユーザ情報記憶部122は、各ユーザが利用する装置(テレビやスマートフォン等)を識別する情報をユーザに対応付けて記憶する。ユーザ情報記憶部122は、各ユーザが利用する端末装置10を識別する情報(端末ID等)をユーザに対応付けて記憶する。
なお、ユーザ情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部122は、年齢や性別に限らず他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ情報記憶部122は、氏名、自宅、勤務地、興味、家族構成、収入、ライフスタイル等の情報を記憶してもよい。
実施形態に係る閾値情報記憶部123は、閾値に関する各種情報を記憶する。閾値情報記憶部123は、操作量の決定に用いる閾値に関する各種情報を記憶する。図7は、実施形態に係る閾値情報記憶部の一例を示す図である。図7に示す閾値情報記憶部123には、「閾値ID」、「用途」、「閾値名」、「値」といった項目が含まれる。
「閾値ID」は、閾値を識別するための識別情報を示す。「用途」は、閾値の用途を示す。「閾値名」は、対応する閾値IDにより識別される閾値として用いられる閾値(変数)の名称(文字列)を示す。「値」は、対応する閾値IDにより識別される閾値の具体的な値を示す。
図7の例では、閾値ID「TH1」により識別される閾値(閾値TH1)の用途は、(吸気の)増加量との比較に用いる閾値であることを示す。閾値TH1は、閾値名「B_increase_thres」として用いられることを示す。閾値TH1の値は、「VL1」であることを示す。なお、図7では、値を「VL1」等の抽象的な符号で示すが、値は、「0.5」や「1.8」等の具体的な数値であるものとする。
また、図7の例では、閾値ID「TH2」により識別される閾値(閾値TH2)の用途は、排気の増加量(排気増加量)との比較に用いる閾値であることを示す。閾値TH2は、閾値名「B_decrease_thres」として用いられることを示す。閾値TH2の値は、「VL2」であることを示す。なお、図7では、値を「VL2」等の抽象的な符号で示すが、値は、「-0.3」や「-2.5」等の具体的な数値であるものとする。
なお、図7では、操作量の決定に用いる閾値TH1、TH2のみを図示するが、閾値情報記憶部123には、インジケータの表示と非表示との切換えに用いられる閾値も記憶されてもよい。また、閾値情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
実施形態に係る機能情報記憶部124は、機能に関する各種情報を記憶する。機能情報記憶部124は、ユーザの入力に応じて実行される各機能に関する情報を記憶する。機能情報記憶部124は、機能の実行に必要な入力に関する情報を記憶する。機能情報記憶部124は、各機能の実行に必要な入力項目を記憶する。
また、機能情報記憶部124は、機器に関する各種情報を記憶してもよい。機能情報記憶部124は、各機能に対応する機器に関する各種情報を記憶する。例えば、機能情報記憶部124は、情報処理装置100と通信可能であり、操作対象となり得る機器の各種情報を記憶する。機能情報記憶部124には、機器を識別するための識別情報を示す機器IDや、対応する機器の種別を示す機器種別情報が記憶されてもよい。機能情報記憶部124は、各機器に対応付けて各機器が有する機能やパラメータを記憶する。機能情報記憶部124は、各機器に対応付けて機器の状態を示す情報を記憶する。例えば、機能情報記憶部124は、各機器に対応付けて各機器のその時点でのパラメータの値等の各種情報を記憶する。例えば、機能情報記憶部124は、各機器に対応付けて各機器の現時点(最後に情報を取得した時点)でのパラメータの値等の各種情報を記憶する。機能情報記憶部124は、機器がテレビである場合、現時点でのオンオフの状態や音量や明るさやチャンネル等を機器IDに対応付けて記憶する。また、機能情報記憶部124は、機器が照明器具である場合、現時点でのオンオフの状態や明るさや色味等を機器IDに対応付けて記憶する。
なお、機能情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
図6に戻り、説明を続ける。制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部に記憶されたプログラム(例えば、本開示に係る情報処理プログラム等)がRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図6に示すように、制御部130は、取得部131と、予測部132と、決定部133と、実行部134と、送信部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
取得部131は、各種情報を取得する。取得部131は、外部の情報処理装置から各種情報を取得する。取得部131は、端末装置10から各種情報を取得する。取得部131は、端末装置10のセンサ部17が検知した情報を端末装置10から各種情報を取得する。取得部131は、センサ部17の呼吸センサ171が検知した情報を端末装置10から各種情報を取得する。
取得部131は、記憶部120から各種情報を取得する。取得部131は、呼吸情報記憶部121やユーザ情報記憶部122や閾値情報記憶部123や機能情報記憶部124から各種情報を取得する。取得部131は、予測部132が予測した各種情報を取得する。取得部131は、決定部133が決定した各種情報を取得する。
取得部131は、ユーザの呼吸を示す呼吸情報を取得する。取得部131は、ユーザの吸気量を含む呼吸情報を取得する。取得部131は、ユーザの呼吸の変化量を含む呼吸情報を取得する。取得部131は、ユーザの呼吸後のユーザによる発話を示す発話情報を取得する。取得部131は、ユーザの呼吸前のユーザによる発話を示す発話情報を取得する。取得部131は、ユーザU1が利用する端末装置10からユーザU1の呼吸を示す呼吸情報を取得する。
予測部132は、各種情報を予測する。予測部132は、各種情報を分類する。予測部132は、各種情報を算出する。予測部132は、各種情報を決定する。予測部132は、各種の判断を行う。予測部132は、各種情報を判定する。例えば、予測部132は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を予測する。予測部132は、端末装置10等の他の情報処理装置からの情報に基づいて、各種情報を予測する。予測部132は、呼吸情報記憶部121やユーザ情報記憶部122や閾値情報記憶部123や機能情報記憶部124に記憶された情報に基づいて、各種情報を予測する。予測部132は、各種情報を分類する。例えば、予測部132は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を分類する。
予測部132は、取得部131により取得された各種情報に基づいて、各種情報を予測する。予測部132は、決定部133により決定された各種情報に基づいて、各種情報を予測する。予測部132は、予測に基づいて、各種の判断を行う。取得部131により取得された情報に基づいて、各種の判断を行う。予測部132は、呼吸情報に基づいてスコアを算出する。予測部132は、呼吸情報に基づいて、ユーザの発話予測に用いるスコアを算出する。
予測部132は、取得部131により取得された呼吸情報に基づいて、操作量を予測する。予測部132は、取得部131により取得された呼吸情報に基づいて、ユーザの吸気量を予測する。予測部132は、予測した吸気量(予測吸気量)に基づいて、操作量(予測操作量)を予測する。予測部132は、予測した吸気量に基づいて、予測操作量を算出する。
決定部133は、各種情報を決定する。決定部133は、各種情報を判定する。決定部133は、各種情報を算出する。決定部133は、各種情報を抽出する。決定部133は、各種情報を特定する。決定部133は、各種情報を選択する。決定部133は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を決定する。決定部133は、端末装置10等の他の情報処理装置からの情報に基づいて、各種情報を決定する。決定部133は、呼吸情報記憶部121やユーザ情報記憶部122や閾値情報記憶部123や機能情報記憶部124に記憶された情報に基づいて、各種情報を決定する。
決定部133は、取得部131により取得された各種情報に基づいて、各種情報を決定する。決定部133は、予測部132により予測された各種情報に基づいて、各種情報を決定する。決定部133は、実行部134により実行された処理に基づいて、各種情報を決定する。
決定部133は、取得部131により取得された呼吸情報が示すユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定する。決定部133は、ユーザの呼吸に関する量に応じて、操作量を決定する。決定部133は、吸気量に基づいて、操作量を決定する。決定部133は、変化量に基づいて、操作量を決定する。例えば、決定部133は、最大吸気までの間、現在吸気量「B_current」と以下の式(1)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、決定部133は、最大吸気以降、最大吸気量「B_max」と時間変数「Time」と以下の式(2)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、決定部133は、算出した操作量(インジケータパラメータ)を用いて、ユーザU1による操作に関する操作量を決定する。例えば、決定部133は、算出した操作量(インジケータパラメータ)を、ユーザU1による操作に関する操作量に決定する。
決定部133は、ユーザの吸気及び排気のうちいずれか一方に応じて、操作量を増加させる。決定部133は、ユーザの吸気及び排気のうち一方とは異なる他方に応じて、操作量を減少させる。決定部133は、ユーザの吸気に応じて、操作量を増加させる。決定部133は、ユーザの吸気時の吸気量の増加に応じて、操作量を増加させる。決定部133は、ユーザの吸気の増加量と閾値との比較結果が所定の条件を満たす場合、吸気の増加量に応じて、操作量を増加させる。決定部133は、ユーザの排気が行われている間、一定に操作量を減少させる。
決定部133は、ユーザの排気に応じて、操作量を減少させる。決定部133は、ユーザの排気時の吸気量の減少に応じて、操作量を減少させる。決定部133は、ユーザの排気の増加量と閾値との比較結果が所定の条件を満たす場合、排気の増加量に応じて、操作量を減少させる。決定部133は、発話情報に基づいて、ユーザによる操作の対象を決定する。
決定部133は、発話情報に基づいて、ユーザによる操作の対象を決定する。決定部133は、機器のパラメータに対応する操作量を決定する。決定部133は、画面に表示された対象の位置変化に対応する操作量を決定する。
実行部134は、各種処理を実行する。実行部134は、各種処理の実行を決定する。実行部134は、外部の情報処理装置からの情報に基づいて、各種処理を実行する。実行部134は、記憶部120に記憶された情報に基づいて、各種処理を実行する。実行部134は、呼吸情報記憶部121やユーザ情報記憶部122や閾値情報記憶部123や機能情報記憶部124に記憶された情報に基づいて、各種処理を実行する。
実行部134は、取得部131により取得された各種情報に基づいて、各種処理を実行する。実行部134は、予測部132により予測された各種情報に基づいて、各種処理を実行する。実行部134は、決定部133により決定された各種情報に基づいて、各種処理を実行する。
実行部134は、各種情報を生成する。実行部134は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を生成する。実行部134は、端末装置10等の他の情報処理装置からの情報に基づいて、各種情報を生成する。実行部134は、呼吸情報記憶部121やユーザ情報記憶部122や閾値情報記憶部123や機能情報記憶部124に記憶された情報に基づいて、各種情報を生成する。
実行部134は、決定部133により決定された操作量に応じて処理を実行する。実行部134は、予測部132による予測結果に応じて処理を実行する。
送信部135は、各種情報を送信する。送信部135は、外部の情報処理装置へ各種情報を送信する。送信部135は、外部の情報処理装置へ各種情報を提供する。例えば、送信部135は、端末装置10等の他の情報処理装置へ各種情報を送信する。送信部135は、記憶部120に記憶された情報を提供する。送信部135は、記憶部120に記憶された情報を送信する。
送信部135は、端末装置10等の他の情報処理装置からの情報に基づいて、各種情報を提供する。送信部135は、記憶部120に記憶された情報に基づいて、各種情報を提供する。送信部135は、呼吸情報記憶部121やユーザ情報記憶部122や閾値情報記憶部123や機能情報記憶部124に記憶された情報に基づいて、各種情報を提供する。
送信部135は、端末装置10に実行させる機能を示す情報を端末装置10に送信する。送信部135は、実行部134による実行が決定された機能を示す情報を端末装置10に送信する。送信部135は、実行部134による指示に応じて、端末装置10に各種の情報を送信する。送信部135は、端末装置10に音声認識アプリケーションの起動を指示する情報を送信する。
送信部135は、決定部133により決定された操作量を示す情報を端末装置10に音を送信する。送信部135は、予測部132により予測された予測操作量を端末装置10に音を送信する。
[1-4.実施形態に係る端末装置の構成]
次に、実施形態に係る情報処理を実行する情報処理装置の一例である端末装置10の構成について説明する。図8は、本開示の実施形態に係る端末装置の構成例を示す図である。
次に、実施形態に係る情報処理を実行する情報処理装置の一例である端末装置10の構成について説明する。図8は、本開示の実施形態に係る端末装置の構成例を示す図である。
図8に示すように、端末装置10は、通信部11と、入力部12と、出力部13と、記憶部14と、制御部15と、表示部16と、センサ部17とを有する。
通信部11は、例えば、NICや通信回路等によって実現される。通信部11は、ネットワークN(インターネット等)と有線又は無線で接続され、ネットワークNを介して、情報処理装置100等の他の装置等との間で情報の送受信を行う。
入力部12は、各種入力を受け付ける。入力部12は、センサ部17による検知を入力として受け付ける。入力部12は、ユーザの呼吸を示す呼吸情報の入力を受け付ける。入力部12は、センサ部17により検知された呼吸情報の入力を受け付ける。入力部12は、呼吸センサ171により検知された呼吸情報の入力を受け付ける。入力部12は、呼吸センサ171により検知された点群データに基づく呼吸情報の入力を受け付ける。入力部12は、ユーザの発話情報の入力を受け付ける。入力部12は、身体動作により入力を行うユーザの呼吸情報の入力を受け付ける。入力部12は、ユーザのジェスチャや視線を入力として受け付ける。
入力部12は、ユーザから各種操作が入力される。入力部12は、音声を検知する機能を有するセンサ部17により音を入力として受け付ける。入力部12は、音声を検知するマイク(音センサ)により検知された音声情報を入力情報として受け付ける。入力部12は、ユーザの発話による音声を入力情報として受け付ける。
また、入力部12は、ユーザが利用する端末装置10への操作(ユーザ操作)をユーザによる操作入力として受け付けてもよい。入力部12は、通信部11を介して、リモコン(リモートコントローラー:remote controller)を用いたユーザの操作に関する情報を受け付けてもよい。また、入力部12は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスを有してもよい。
例えば、入力部12は、リモコンやキーボードやマウスと同等の機能を実現できるタッチパネルを有してもよい。この場合、入力部12は、表示部16を介して各種情報が入力される。入力部12は、各種センサにより実現されるタッチパネルの機能により、表示画面を介してユーザから各種操作を受け付ける。すなわち、入力部12は、端末装置10の表示部16を介してユーザから各種操作を受け付ける。例えば、入力部12は、端末装置10の表示部16を介してユーザの指定操作等の操作を受け付ける。例えば、入力部12は、タッチパネルの機能によりユーザの操作を受け付ける受付部として機能する。この場合、入力部12と受付部153とは一体であってもよい。なお、入力部12によるユーザの操作の検知方式には、タブレット端末では主に静電容量方式が採用されるが、他の検知方式である抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式など、ユーザの操作を検知できタッチパネルの機能が実現できればどのような方式を採用してもよい。
例えば、入力部12は、ユーザU1の発話を入力として受け付ける。入力部12は、センサ部17により検知されたユーザU1の発話を入力として受け付ける。入力部12は、センサ部17の音センサにより検知されたユーザU1の発話を入力として受け付ける。
出力部13は、各種情報を出力する。出力部13は、音声を出力する機能を有する。例えば、出力部13は、音声を出力するスピーカーを有する。出力部13は、実行部152による制御に応じて、各種情報を音声出力する。出力部13は、ユーザに対して音声による情報の出力を行う。出力部13は、表示部16に表示される情報を音声により出力する。
記憶部14は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、音声認識機能を実現する音声認識アプリケーション(プログラム)の情報を記憶する。例えば、端末装置10は、音声認識アプリケーションを起動することにより、音声認識が実行可能になる。記憶部14は、情報の表示に用いる各種情報を記憶する。記憶部14は、音声認識に用いる各種情報を記憶する。記憶部14は、音声認識辞書に用いる辞書(音声認識辞書)の情報を記憶する。
図8に戻り、説明を続ける。制御部15は、例えば、CPUやMPU等によって、端末装置10内部に記憶されたプログラム(例えば、本開示に係る情報処理プログラム)がRAM等を作業領域として実行されることにより実現される。また、制御部15は、例えば、ASICやFPGA等の集積回路により実現されてもよい。
図8に示すように、制御部15は、受信部151と、実行部152と、受付部153と、送信部154とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図8に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
受信部151は、各種情報を受信する。受信部151は、外部の情報処理装置から各種情報を受信する。受信部151は、情報処理装置100等の他の情報処理装置から各種情報を受信する。
受信部151は、情報処理装置100から音声認識の起動を指示する情報を受信する。受信部151は、情報処理装置100から音声認識アプリケーションの起動を指示する情報を受信する。
受信部151は、情報処理装置100から各種機能の実行指示を受信する。例えば、受信部151は、情報処理装置100から機能を指定する情報を機能の実行指示として受信する。受信部151は、コンテンツを受信する。受信部151は、情報処理装置100から表示するコンテンツを受信する。受信部151は、情報処理装置100により決定された操作量を示す情報を受信する。受信部151は、操作量に対応するインジケータを含むコンテンツを表示する。
実行部152は、各種処理を実行する。実行部152は、各種処理の実行を決定する。実行部152は、外部の情報処理装置からの情報に基づいて、各種処理を実行する。実行部152は、情報処理装置100からの情報に基づいて、各種処理を実行する。実行部152は、情報処理装置100からの指示に応じて、各種処理を実行する。実行部152は、記憶部14に記憶された情報に基づいて、各種処理を実行する。実行部152は、音声認識を起動する。
実行部152は、各種出力を制御する。実行部152は、出力部13による音声出力を制御する。実行部152は、各種表示を制御する。実行部152は、表示部16の表示を制御する。実行部152は、受信部151による受信に応じて、表示部16の表示を制御する。実行部152は、受信部151により受信された情報に基づいて、表示部16の表示を制御する。実行部152は、受付部153により受け付けられた情報に基づいて、表示部16の表示を制御する。実行部152は、受付部153による受付けに応じて、表示部16の表示を制御する。
受付部153は、各種情報を受け付ける。受付部153は、入力部12を介してユーザによる入力を受け付ける。受付部153は、ユーザによる発話を入力として受け付ける。受付部153は、ユーザによる操作を受け付ける。受付部153は、表示部16により表示された情報に対するユーザの操作を受け付ける。受付部153は、ユーザによる文字入力を受け付ける。
送信部154は、外部の情報処理装置へ各種情報を送信する。例えば、送信部154は、端末装置10等の他の情報処理装置へ各種情報を送信する。送信部154は、記憶部14に記憶された情報を送信する。
送信部154は、情報処理装置100等の他の情報処理装置からの情報に基づいて、各種情報を送信する。送信部154は、記憶部14に記憶された情報に基づいて、各種情報を送信する。
送信部154は、センサ部17により検知されたセンサ情報を情報処理装置100へ送信する。送信部154は、センサ部17の呼吸センサ171により検知されたユーザU1の呼吸情報を情報処理装置100へ送信する。
送信部154は、ユーザにより入力された入力情報を情報処理装置100へ送信する。送信部154は、ユーザにより音声入力された入力情報を情報処理装置100へ送信する。送信部154は、ユーザの操作により入力された入力情報を情報処理装置100へ送信する。
送信部154は、ユーザの呼吸を示す呼吸情報を情報処理装置100へ送信する。送信部154は、ユーザの吸気量を含む呼吸情報を情報処理装置100へ送信する。送信部154は、ユーザの呼吸の変化量を含む呼吸情報を情報処理装置100へ送信する。送信部154は、ユーザの呼吸後のユーザによる発話を示す発話情報を情報処理装置100へ送信する。送信部154は、ユーザの呼吸前のユーザによる発話を示す発話情報を情報処理装置100へ送信する。
表示部16は、端末装置10に設けられ各種情報を表示する。表示部16は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現される。表示部16は、情報処理装置100から提供される情報を表示可能であれば、どのような手段により実現されてもよい。表示部16は、実行部152による制御に応じて、各種情報を表示する。
表示部16は、情報処理装置100からの情報を基に、各種情報を表示する。表示部16は、情報処理装置100から受信した情報を表示する。表示部16は、情報処理装置100から受信した操作量を示す情報を表示する。表示部16は、情報処理装置100により決定された操作量を示す情報を表示する。表示部16は、操作量に対応するインジケータを表示する。表示部16は、情報処理装置100から受信したコンテンツを表示する。表示部16は、操作量に対応するインジケータを含むコンテンツを表示する。
表示部16は、コンテンツを表示する。表示部16は、受信部151により受信されたコンテンツを表示する。
センサ部17は、所定の情報を検知する。センサ部17は、ユーザの呼吸情報を検知する。センサ部17は、ユーザの呼吸を示す呼吸情報を検知する手段として呼吸センサ171を有する。センサ部17は、呼吸センサ171により呼吸情報を検知する。
センサ部17は、呼吸センサ171により呼吸情報を検知する。センサ部17は、ミリ波レーダを用いた呼吸センサ171により呼吸情報を検知する。また、センサ部17は、ミリ波レーダに限らず、ユーザの呼吸情報を検知可能であれば、どのような構成の呼吸センサ171を有してもよい。呼吸センサ171は、画像センサであってもよい。呼吸センサ171は、ウェアラブルセンサであってもよい。呼吸センサ171は、接触型及び非接触型のいずれのセンサが用いられてもよい。
また、センサ部17は、上記に限らず、各種センサを有してもよい。センサ部17は、GPS(Global Positioning System)センサ等の位置情報を検知するセンサ(位置センサ)を有してもよい。なお、センサ部17は、上記に限らず、種々のセンサを有してもよい。また、端末装置10は、光によりユーザに通知を行うためのLED(Light Emitting Diode)等の光源(光源部)を有してもよい。例えば、光源部は、実行部152による制御に応じて点滅する。
[1-5.実施形態に係る情報処理の手順]
次に、図9~図11を用いて、実施形態に係る各種情報処理の手順について説明する。
次に、図9~図11を用いて、実施形態に係る各種情報処理の手順について説明する。
[1-5-1.情報処理装置に係る処理の手順]
まず、図9を用いて、本開示の実施形態に係る情報処理装置に係る処理の流れについて説明する。図9は、本開示の実施形態に係る情報処理装置の処理手順を示すフローチャートである。具体的には、図9は、情報処理装置100による情報処理の手順を示すフローチャートである。
まず、図9を用いて、本開示の実施形態に係る情報処理装置に係る処理の流れについて説明する。図9は、本開示の実施形態に係る情報処理装置の処理手順を示すフローチャートである。具体的には、図9は、情報処理装置100による情報処理の手順を示すフローチャートである。
図9に示すように、情報処理装置100は、ユーザの呼吸を示す呼吸情報を取得する(ステップS101)。そして、情報処理装置100は、呼吸情報が示すユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定する(ステップS102)。
[1-5-2.情報処理システムに係る処理の手順]
次に、図10を用いて、本開示の実施形態に係る情報処理システムに係る処理の流れについて説明する。図10は、本開示の実施形態に係る情報処理システムの処理手順を示すシーケンス図である。
次に、図10を用いて、本開示の実施形態に係る情報処理システムに係る処理の流れについて説明する。図10は、本開示の実施形態に係る情報処理システムの処理手順を示すシーケンス図である。
図10に示すように、端末装置10は、ユーザの呼吸を示す呼吸情報を検知する(ステップS201)。例えば、端末装置10は、呼吸センサ171により検知されたユーザの呼吸情報を取得する。そして、端末装置10は、ユーザの呼吸を示す呼吸情報を情報処理装置100へ送信する(ステップS202)。
情報処理装置100は、端末装置10から取得した呼吸情報が示すユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定する(ステップS203)。図10の例では、情報処理装置100は、端末装置10から取得した呼吸情報に基づいて、操作量を値「10」に決定する。
そして、情報処理装置100は、決定した操作量を端末装置10に送信する(ステップS204)。例えば、情報処理装置100は、決定した操作量の値「10」を端末装置10に送信する。そして、端末装置10は、情報処理装置100から受信した操作量の値「10」に対応するインジケータを表示する(ステップS205)。例えば、端末装置10は、操作量の値「10」に対応するサイズのインジケータをディスプレイ(表示部16等)に表示する。
[1-5-3.情報処理システムに係る処理の具体例]
次に、図11を用いて、情報処理システムに係る具体的な処理の一例について説明する。図11は、本開示の実施形態に係る情報処理システムの処理を示すフローチャートである。なお、以下では、情報処理システム1が処理を行う場合を一例として説明するが、図11に示す処理は、情報処理システム1に含まれる情報処理装置100及び端末装置10のいずれの装置が行ってもよい。
次に、図11を用いて、情報処理システムに係る具体的な処理の一例について説明する。図11は、本開示の実施形態に係る情報処理システムの処理を示すフローチャートである。なお、以下では、情報処理システム1が処理を行う場合を一例として説明するが、図11に示す処理は、情報処理システム1に含まれる情報処理装置100及び端末装置10のいずれの装置が行ってもよい。
図11に示すように、情報処理システム1は、Wuw(Wake up Word)もしくはトリガーを取得する(ステップS301)。例えば、情報処理システム1は、ユーザによる音声認識を起動させるための発話や、トリガーとなる所定の入力を取得する。
そして、情報処理システム1は、吸気・排気データを取得する(ステップS302)。例えば、情報処理システム1は、単位時間でのユーザの吸気や排気を示すデータ(呼吸情報)を取得する。
そして、情報処理システム1は、増加量・減少量などのパラメータ計算する(ステップS303)。例えば、情報処理システム1は、単位時間での吸気の増加量や減少量等である呼吸の変化量を算出する。
そして、情報処理システム1は、急な吸気や排気などの処理条件を判定する(ステップS304)。例えば、情報処理システム1は、急な吸気や排気があった場合、それに対応する算出方法により操作量を決定する。例えば、情報処理システム1は、グラフGR1~GR5等に示す各算出方法のうち、ユーザの呼吸状態に対応する算出方法により操作量を決定する。
そして、情報処理システム1は、GUI(Graphical User Interface)へパラメータを反映する(ステップS305)。例えば、情報処理システム1は、決定した操作量(パラメータ)に対応するインジケータを表示する。
そして、情報処理システム1は、発話が開始されていない場合(ステップS306:No)、ステップS302に戻って処理を繰り返す。
また、情報処理システム1は、発話が開始された場合(ステップS306:Yes)、ユーザの発話を取得する(ステップS307)。例えば、情報処理システム1は、ユーザが利用する端末装置10によりユーザの発話を検知する。なお、入力エリア選択の場合、情報処理システム1は、選択されたエリアに入力して終了する。例えば、入力エリア選択の場合情報処理システム1は、選択されたエリアに発話に対応する情報を入力して処理を終了する。
そして、情報処理システム1は、パラメータが必要なアクションかどうかを判定する(ステップS308)。例えば、情報処理システム1は、ユーザの発話に対応する処理(アクション)が操作量(パラメータ)を必要とするアクションかどうかを判定する。
情報処理システム1は、パラメータが必要なアクションではない場合(ステップS308:No)、アクションを実行する(ステップS309)。例えば、情報処理システム1は、ユーザの発話に対応する処理(アクション)が操作量(パラメータ)を必要とするアクションではない場合、ユーザの発話に対応する処理(アクション)を実行する。
情報処理システム1は、パラメータが必要なアクションである場合(ステップS308:Yes)、言語的なパラメータ情報があるかを判定する(ステップS310)。例えば、情報処理システム1は、ユーザの発話に操作量(パラメータ)を示す情報が含まれるかどうかを判定する。
情報処理システム1は、言語的なパラメータ情報がない場合(ステップS310:No)、呼吸データを実行パラメータに利用する(ステップS311)。例えば、情報処理システム1は、ユーザの発話に操作量(パラメータ)を示す情報が含まれない場合、ユーザの呼吸に基づいて決定した操作量(パラメータ)を用いて処理(アクション)を実行する。
一方情報処理システム1は、言語的なパラメータ情報がある場合(ステップS310:Yes)、言語情報からパラメータを取得して実行する(ステップS312)。例えば、情報処理システム1は、ユーザの発話に操作量(パラメータ)を示す情報が含まれる場合、ユーザの発話に基づく操作量(パラメータ)を用いて処理(アクション)を実行する。
[1-6.呼吸の操作量への反映例]
呼吸の操作量への反映は、上述した態様に限らず、種々の態様を行ってもよい。この点について、以下説明する。なお、以下の説明では、図2と同様の点については適宜説明を省略する。
呼吸の操作量への反映は、上述した態様に限らず、種々の態様を行ってもよい。この点について、以下説明する。なお、以下の説明では、図2と同様の点については適宜説明を省略する。
[1-6-1.急激な吸気時の反映例]
急激な吸気時の反映例について、図12を用いて説明する。図12は、ユーザの呼吸の操作量への反映の一例を示す図である。
急激な吸気時の反映例について、図12を用いて説明する。図12は、ユーザの呼吸の操作量への反映の一例を示す図である。
図12中のグラフGR2は、ユーザの呼吸と操作量との関係を示すグラフである。具体的には、図12中のグラフGR2は、ユーザの吸気量と、操作量に基づくインジケータのサイズ(インジケータサイズ)との関係を示すグラフである。図12中のグラフGR2は、縦軸が吸気量やインジケータのサイズを示し、横軸は時間を示すグラフである。また、図12中のグラフGR2では、呼吸量を示す線(線LN21)を実線で示し、インジケータサイズを示す線(線LN22)を一点鎖線で示す。なお、図12中のグラフGR2には、呼吸量の変化の比較対象の一例として、図2中の線LN1を二点鎖線の線LN23で示す。
インジケータパラメータ「P_indicator」は、最大吸気に達するまで増加する。図12の例では、インジケータパラメータ「P_indicator」は、最大吸気量「B_max」に達する時間t21までの間、吸気増加量を加味して増加する。図12中の吸気増加量IL21は、最大吸気に達するまでの間のある時点での吸気増加量を示す。
例えば、情報処理装置100は、最大吸気までの間、吸気増加量「B_increase」が増加量閾値「B_increase_thres」より大きくなった場合、現在吸気量「B_current」と吸気増加量「B_increase」と以下の式(3)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、情報処理装置100は、ユーザが吸気を行っている間、吸気増加量「B_increase」が増加量閾値「B_increase_thres」より大きくなった場合、式(3)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。
上記の式(3)中の「a」や「b」や「c」は、所定の定数を示す。式(3)の「a」や「b」や「c」の値が、式(1)や式(2)の「a」や「b」や「c」の値とは異なってもよい。このように、情報処理装置100は、急激な吸気時は吸気量と吸気増加量に比例して操作量を増加させる。情報処理システム1は、急激な吸気時は吸気量と吸気増加量に比例して操作量を増加させる。これにより、情報処理システム1は、急激な吸気時は吸気量と吸気増加量に比例してインジケータを拡大させる。このように、情報処理システム1は、急激な吸気時は吸気増加量を加味して操作量を増加させ、インジケータを拡大することで、操作量の増加やインジケータ拡大の負担を軽減させることができる。
なお、上記の式(3)は、最大吸気までの間、吸気増加量「B_increase」が増加量閾値「B_increase_thres」より大きくなった場合、のインジケータパラメータ「P_indicator」の算出の一例であり、インジケータパラメータ「P_indicator」の算出には種々の数式が用いられてもよい。例えば、吸気増加量「B_increase」が増加量閾値「B_increase_thres」以下となった場合については、別の算出式(式(1))が用いられる。
なお、閾値と等しい場合をいずれに含めるかは適宜設定されてもよい。情報処理装置100は、吸気増加量「B_increase」が増加量閾値「B_increase_thres」以上である場合、上記の式(3)を用い、吸気増加量「B_increase」が増加量閾値「B_increase_thres」未満となった場合に下記の式(1)を用いてもよい。
また、インジケータパラメータ「P_indicator」は、最大吸気以降に一定変化する。図12の例では、インジケータパラメータ「P_indicator」は、最大吸気量「B_max」に達する時間t21後の間、時間経過に応じて一定に減少する。図12中の吸気減少量DL21は、最大吸気に達した後のある時点での吸気減少量(排気増加量)を示す。
例えば、情報処理装置100は、最大吸気以降、最大吸気量「B_max」と時間変数「Time」と以下の式(4)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、情報処理装置100は、吸気増加量「B_increase」が増加量閾値「B_increase_thres」より大きくなった後にユーザが排気を行っている間、式(4)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。
上記の式(4)中の「c」は、所定の定数を示す。式(4)の「c」の値が、式(2)や式(3)の「c」の値とは異なってもよい。なお、式(4)の「c」の値は式(2)の「c」の値と同じであってもよい。このように、情報処理装置100は、排気時は操作量を一定に減少吸気時は吸気量に比例して操作量を増加させる。情報処理システム1は、排気時はインジケータサイズを一定に減少させる。
なお、上記の式(4)は、最大吸気以降、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」よりも大きい場合のインジケータパラメータ「P_indicator」の算出の一例であり、インジケータパラメータ「P_indicator」の算出には種々の数式が用いられてもよい。例えば、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」以下となった場合については、別の算出式(下記の式(6))が用いられるが、この点についての詳細は後述する。
なお、閾値と等しい場合をいずれに含めるかは適宜設定されてもよい。情報処理装置100は、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」以上である場合、上記の式(4)を用い、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」未満となった場合に下記の式(6)を用いてもよい。
情報処理装置100は、上述の処理により操作量(インジケータパラメータ)を算出することで、ユーザの急激な吸気を反映してユーザによる操作に関する操作量を決定する。このように、情報処理装置100は、ユーザの呼吸の情報を用いて操作量を決定することにより、急激な吸気時においても適切に操作量を算出することができる。
[1-6-2.排気の操作量への反映例]
排気の操作量への反映例について、図13を用いて説明する。図13は、ユーザの呼吸の操作量への反映の一例を示す図である。なお、図12と同様の点については適宜説明を省略する。
排気の操作量への反映例について、図13を用いて説明する。図13は、ユーザの呼吸の操作量への反映の一例を示す図である。なお、図12と同様の点については適宜説明を省略する。
図13中のグラフGR3は、ユーザの呼吸と操作量との関係を示すグラフである。具体的には、図13中のグラフGR3は、ユーザの吸気量と、操作量に基づくインジケータのサイズ(インジケータサイズ)との関係を示すグラフである。図13中のグラフGR3は、縦軸が吸気量やインジケータのサイズを示し、横軸は時間を示すグラフである。また、図13中のグラフGR3では、呼吸量を示す線(線LN31)を実線で示し、インジケータサイズを示す線(線LN32)を一点鎖線で示す。なお、図13中のグラフGR3には、呼吸量の変化の比較対象の一例として、図2中の線LN1を二点鎖線の線LN33で示す。
インジケータパラメータ「P_indicator」は、最大吸気に達するまで増加する。図13の例では、インジケータパラメータ「P_indicator」は、最大吸気量「B_max」に達する時間t31までの間、吸気量に応じて増加する。
例えば、情報処理装置100は、最大吸気までの間、急激な吸気が行われた場合、以下の式(5)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、情報処理装置100は、ユーザが吸気を行っている間、吸気増加量「B_increase」が増加量閾値「B_increase_thres」より大きくなった場合、式(5)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。
式(5)は式(3)と同様であるため、説明を省略する。また、情報処理装置100は、最大吸気までの間、通常の吸気が行われた場合、式(1)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。なお、図13は、排気時の操作量の決定やインジケータサイズの変更を主に説明するためのものであり、吸気時の処理については上記に限られない。
また、インジケータパラメータ「P_indicator」は、最大吸気以降に減少する。図13の例では、インジケータパラメータ「P_indicator」は、最大吸気量「B_max」に達する時間t31後の間、排気量に比例して減少する。図13中の吸気減少量DL31は、最大吸気に達した後のある時点での吸気減少量(排気増加量)を示す。
例えば、情報処理装置100は、最大吸気以降、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」未満の場合、最大吸気量「B_max」と排気増加量「B_decrease」と以下の式(6)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。例えば、情報処理装置100は、ユーザが排気を行っている間、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」未満の場合、式(6)を用いて、操作量を示すインジケータパラメータ「P_indicator」を算出する。
上記の式(6)中の「b」や「c」は、所定の定数を示す。式(6)の「b」や「c」の値が、式(1)~式(5)の「b」や「c」の値とは異なってもよい。このように、情報処理装置100は、通常より大きな排気時は排気量に比例して操作量を減少させる。情報処理システム1は、通常より大きな排気時は排気量に比例して操作量を減少させる。これにより、情報処理システム1は、通常より大きな排気増加量(吸気減少量)で操作量の減少を加速させることができる。情報処理システム1は、通常より大きな排気増加量(減少量)でインジケータの縮小を加速させることができる。このように、情報処理システム1は、通常より大きな排気時は排気増加量(吸気減少量)を加味して操作量を減少させ、インジケータを縮小することで、操作量の減少やインジケータ縮小の負担を軽減させることができる。これにより、情報処理システム1は、オーバーシュートを短時間で修正することを可能にする。
なお、上記の式(6)は、最大吸気以降、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」未満の場合のインジケータパラメータ「P_indicator」の算出の一例であり、インジケータパラメータ「P_indicator」の算出には種々の数式が用いられてもよい。例えば、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」以上となった場合については、別の算出式(式(2)や式(4))が用いられる。
なお、閾値と等しい場合をいずれに含めるかは適宜設定されてもよい。情報処理装置100は、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」以下である場合、上記の式(6)を用い、排気増加量「B_decrease」が排気量閾値「B_decrease_thres」よりも大きくとなった場合に式(2)や式(4)を用いてもよい。
情報処理装置100は、上述の処理により操作量(インジケータパラメータ)を算出することで、ユーザの通常より大きな排気を反映してユーザによる操作に関する操作量を決定する。このように、情報処理装置100は、ユーザの呼吸の情報を用いて操作量を決定することにより、通常より大きな排気時においても適切に操作量を算出することができる。
[1-6-3.吸気時の排気を反映しない例]
例えば、操作量やインジケータを大きく増減させようとする場合、1回の吸気や排気では十分でない場合があり、再度吸気や排気をする場合、必ずその前に吸気もしくは排気が行われる。そのため、情報処理システム1では、これらの吸気や排気を操作量やインジケータへ影響を与えないように無視してもよい。例えば、情報処理システム1は、急な吸気の後の排気を無視してもよい。例えば、情報処理システム1は、急な排気の後の吸気を無視してもよい。これらの点について以下説明する。
例えば、操作量やインジケータを大きく増減させようとする場合、1回の吸気や排気では十分でない場合があり、再度吸気や排気をする場合、必ずその前に吸気もしくは排気が行われる。そのため、情報処理システム1では、これらの吸気や排気を操作量やインジケータへ影響を与えないように無視してもよい。例えば、情報処理システム1は、急な吸気の後の排気を無視してもよい。例えば、情報処理システム1は、急な排気の後の吸気を無視してもよい。これらの点について以下説明する。
まず、吸気時の排気を反映しない例について、図14を用いて説明する。図14は、ユーザの呼吸の操作量への反映の一例を示す図である。なお、図12や図13と同様の点については適宜説明を省略する。
図14中のグラフGR4は、ユーザの呼吸と操作量との関係を示すグラフである。具体的には、図14中のグラフGR4は、ユーザの吸気量と、操作量に基づくインジケータのサイズ(インジケータサイズ)との関係を示すグラフである。図14中のグラフGR4は、縦軸が吸気量やインジケータのサイズを示し、横軸は時間を示すグラフである。また、図14中のグラフGR4では、呼吸量を示す線(線LN41)を実線で示し、インジケータサイズを示す線(線LN42)を一点鎖線で示す。
図14の例では、ユーザが時間t41までの間で急激な吸気を行い、その後に続けて時間t41から間もない時間t42から吸気を再開した場合を一例として示す。図14中の吸気増加量IL41は、時間t41までの間のある時点での吸気増加量を示す。図14中の吸気増加量IL42は、時間t41より後で時間t42までの間のある時点での吸気増加量を示す。
例えば、情報処理装置100は、増加量閾値「B_increase_thres」以上の吸気増加量が観測された後、吸気から排気へ切り替わった時点(吸気排気変換点)から一定時間「T_ignore」(「排気無視期間」ともいう)の間の排気は操作量の決定に利用しない。例えば、情報処理装置100は、増加量閾値「B_increase_thres」以上の吸気増加量が観測された後、吸気排気変換点から一定時間「T_ignore」(排気無視期間)の間の排気はインジケータサイズ調整に利用しない。
図14の例では、情報処理装置100は、増加量閾値「B_increase_thres」以上の吸気増加量が観測された後の吸気排気変換点である時間t41から排気無視期間は、ユーザの排気に応じて操作量を減少させない。例えば、情報処理装置100は、時間t41から排気無視期間が経過する時間t42までの間は、ユーザの排気に応じて操作量を減少させない。なお、情報処理装置100は、排気無視期間においてユーザの排気の全く利用しない場合に限らず、排気無視期間においてはユーザの排気の影響を小さくしてもよい。例えば、情報処理装置100は、排気無視期間においては通常時に比べて、ユーザの排気による操作量の減少を小さくしてもよい。
また、情報処理装置100は、増加量閾値「B_increase_thres」以上の吸気増加量が観測された後、吸気排気変換点から一定時間「T_ignore」(排気無視期間)の間の吸気は操作量の決定に利用する。図14の例では、情報処理装置100は、増加量閾値「B_increase_thres」以上の吸気増加量が観測された後の吸気排気変換点である時間t41から排気無視期間内の吸気に応じて操作量を増加させる。図14中のグラフGR4に示すように、情報処理装置100は、時間t41から時間t42の間(排気無視期間)のユーザの吸気に応じてインジケータサイズを拡大する。
例えば、インジケータを大きく増減させようとする場合、1回の吸気では十分でない場合があり、再度吸気をする場合、必ずその前に排気が行われるが、情報処理装置100は、この排気をインジケータへ影響を与えないように無視する。このように、情報処理装置100は、上述の処理により急な吸気の後の排気を無視することで、適切に操作量(インジケータパラメータ)を算出したり、インジケータサイズを調整したりすることができる。
[1-6-4.排気時の吸気を反映しない例]
次に排気時の吸気を反映しない例について、図15を用いて説明する。図15は、ユーザの呼吸の操作量への反映の一例を示す図である。なお、図12~図14と同様の点については適宜説明を省略する。
次に排気時の吸気を反映しない例について、図15を用いて説明する。図15は、ユーザの呼吸の操作量への反映の一例を示す図である。なお、図12~図14と同様の点については適宜説明を省略する。
図15中のグラフGR5は、ユーザの呼吸と操作量との関係を示すグラフである。具体的には、図15中のグラフGR5は、ユーザの吸気量と、操作量に基づくインジケータのサイズ(インジケータサイズ)との関係を示すグラフである。図15中のグラフGR5は、縦軸が吸気量やインジケータのサイズを示し、横軸は時間を示すグラフである。また、図15中のグラフGR5では、呼吸量を示す線(線LN51)を実線で示し、インジケータサイズを示す線(線LN52)を一点鎖線で示す。
図15の例では、ユーザが時間t51までの間で急激な排気を行い、その後に続けて時間t51から間もない時間t52から排気を再開した場合を一例として示す。図15中の吸気減少量IL51は、時間t51までの間のある時点での吸気減少量(排気増加量)を示す。図15中の吸気減少量IL52は、時間t51より後で時間t52までの間のある時点での吸気減少量(排気増加量)を示す。
例えば、情報処理装置100は、排気量閾値「B_decrease_thres」以下の吸気減少量が観測された後、排気から吸気へ切り替わった時点(排気吸気変換点)から一定時間「T_ignore」(「吸気無視期間」ともいう)の間の吸気は操作量の決定に利用しない。なお、図15中の一定時間「T_ignore」の値と、図14中の一定時間「T_ignore」の値とは異なる値であってもよい。例えば、情報処理装置100は、排気量閾値「B_decrease_thres」以下の吸気減少量が観測された後、排気吸気変換点から一定時間「T_ignore」(吸気無視期間)の間の吸気はインジケータサイズ調整に利用しない。
図15の例では、情報処理装置100は、排気量閾値「B_decrease_thres」以下の吸気減少量が観測された後の排気吸気変換点である時間t51から吸気無視期間は、ユーザの吸気に応じて操作量を増加させない。例えば、情報処理装置100は、時間t51から吸気無視期間が経過する時間t52までの間は、ユーザの吸気に応じて操作量を増加させない。なお、情報処理装置100は、吸気無視期間においてユーザの吸気の全く利用しない場合に限らず、吸気無視期間においてはユーザの吸気の影響を小さくしてもよい。例えば、情報処理装置100は、吸気無視期間においては通常時に比べて、ユーザの吸気による操作量の増加を小さくしてもよい。
また、情報処理装置100は、排気量閾値「B_decrease_thres」以下の吸気減少量が観測された後、排気吸気変換点から一定時間「T_ignore」(吸気無視期間)の間の排気は操作量の決定に利用する。図15の例では、情報処理装置100は、排気量閾値「B_decrease_thres」以下の吸気減少量が観測された後の排気吸気変換点である時間t51から吸気無視期間内の排気に応じて操作量を減少させる。図15中のグラフGR5に示すように、情報処理装置100は、時間t51から時間t52の間(吸気無視期間)のユーザの排気にインジケータサイズを縮小する。例えば、インジケータを大きく増減させようとする場合、1回の排気では十分でない場合があり、再度排気をする場合、必ずその前に吸気が行われるが、情報処理装置100は、この吸気をインジケータへ影響を与えないように無視する。このように、情報処理装置100は、上述の処理により急な排気の後の吸気を無視することで、適切に操作量(インジケータパラメータ)を算出したり、インジケータサイズを調整したりすることができる。
[1-7.予測処理]
情報処理システム1は、ユーザの呼吸や呼吸に基づく操作量を予測する予測処理を行ってもよい。この点について、図16及び図17を用いて説明する。
情報処理システム1は、ユーザの呼吸や呼吸に基づく操作量を予測する予測処理を行ってもよい。この点について、図16及び図17を用いて説明する。
[1-7-1.操作量の予測例]
まず、図16を用いて、操作量の予測の一例を説明する。図16は、操作量の予測の一例を示す図である。以下に示す例では、情報処理装置100は、予測時点の吸気量(現時点吸気量)と増加量を用いて、操作量(予測操作量)やインジケータサイズ(予測サイズ)を予測する。
まず、図16を用いて、操作量の予測の一例を説明する。図16は、操作量の予測の一例を示す図である。以下に示す例では、情報処理装置100は、予測時点の吸気量(現時点吸気量)と増加量を用いて、操作量(予測操作量)やインジケータサイズ(予測サイズ)を予測する。
図16中のグラフGR6は、ユーザの呼吸と、操作量及び予測操作量との関係を示すグラフである。具体的には、図16中のグラフGR6は、ユーザの吸気量と、操作量に基づくインジケータのサイズ及び予測サイズとの関係を示すグラフである。図16中のグラフGR6は、縦軸が吸気量やインジケータのサイズや予測サイズを示し、横軸は時間を示すグラフである。また、図16中のグラフGR6では、呼吸量を示す線(線LN61)を実線で示す。また、図16中のグラフGR6では、インジケータのサイズを示す線(線LN62)を、インジケータのサイズを一点鎖線の部分で示し、予測サイズの部分を点線で示す。具体的には、時間t61までがその時点までの呼吸情報を基に決定された操作量に基づくインジケータのサイズを示し、時間t61から時間t62までが時間t61までの呼吸情報を基に予測した予測操作量に基づく予測サイズを示す。
このように、図16の例では、情報処理装置100は、ユーザが時間t61までに行った吸気を基にその後の予測操作量や予想サイズを予測する。図16中の吸気増加量IL61は、時間t61までの間のある時点での吸気増加量を示す。例えば、吸気増加量IL61は、時間t61での吸気増加量を示す。図16中のポイントCR61は、現時点(時間t61)での吸気量(現在吸気量)を示す。
情報処理装置100は、現在吸気量「B_current」と増加量「B_increase」と以下の式(7)を用いて、予測操作量を示すインジケータ予測到達点「Point_pr」を算出する。これにより、インジケータ予測到達点「Point_pr」は、現在吸気量「B_current」と増加量「B_increase」とを考慮した値となる。
上記の式(7)中の「a」や「b」は、所定の定数を示す。式(7)の「a」や「b」の値が、式(1)~式(6)の「a」や「b」の値とは異なってもよい。なお、上記の式(7)は、インジケータ予測到達点「Point_pr」の算出の一例であり、インジケータ予測到達点「Point_pr」の算出には種々の数式が用いられてもよい。例えば、情報処理装置100は、急激な吸気の場合、式(3)のように急激な反映を考慮してインジケータ予測到達点「Point_pr」を予測してもよい。また、情報処理装置100は、過去のユーザの呼吸の履歴に基づいて、インジケータ予測到達点「Point_pr」を予測してもよい。情報処理装置100は、現在吸気量「B_current」と増加量「B_increase」とが入力された場合にインジケータ予測到達点「Point_pr」を出力するモデルを用いて、インジケータ予測到達点「Point_pr」を予測してもよい。情報処理装置100は、過去のユーザのある時点での吸気量及び吸気増加量とその後の最大吸気量との組合せを用いて学習したモデルを用いて、インジケータ予測到達点「Point_pr」を予測してもよい。
また、情報処理装置100は、現在吸気量「B_current」と増加量「B_increase」とを用いて、インジケータ予測到達点「Point_pr」に到達するまでに要する時間(予測所要時間)を予測してもよい。情報処理装置100は、過去のユーザの呼吸の履歴に基づいて、インジケータ予測到達点「Point_pr」に到達するまでに要する時間(予測所要時間)を予測してもよい。情報処理装置100は、現在吸気量「B_current」と増加量「B_increase」とが入力された場合に最大吸気量に到達するまでの予測所要時間を出力するモデルを用いて、現時点から最大吸気量に到達するまでの時間を予測してもよい。情報処理装置100は、過去のユーザのある時点と、その時点での吸気量及び吸気増加量とその後の最大吸気量に到達した時間との組合せを用いて学習したモデルを用いて、現時点から最大吸気量に到達するまでの予測所要時間を予測してもよい。そして、情報処理装置100は、現時点の時間に予測所要時間を加算した時間をインジケータ予測到達点「Point_pr」に到達した時点(時間)として決定する。図16の例では、情報処理装置100は、インジケータ予測到達点「Point_pr」に到達する時間を時間t62と予測する。なお、上記は一例であり、情報処理装置100は、種々の情報を適宜用いてインジケータ予測到達点「Point_pr」に到達する時間を予測してもよい。例えば、情報処理装置100は、現在吸気量「B_current」と増加量「B_increase」と現時点を示す時間情報とを用いて、インジケータ予測到達点「Point_pr」に到達するまでに要する時間を予測してもよい。
上述した処理により、図16の例では、情報処理装置100は、時間t62にインジケータ予測到達点「Point_pr」の値まで操作量(インジケータパラメータ)が増加すると予測する。図16中のポイントPR61は、時間t62に到達すると予測される予測操作量や予測サイズを示す。
これにより、情報処理システム1は、現在の吸気量と吸気増加量から最大吸気の到達点を予測することができる。
[1-7-2.予測した操作量の表示例]
また、情報処理システム1は、予測した情報を表示してもよい。この点について、図17を用いて説明する。図17は、予測した操作量の表示の一例を示す図である。例えば、図17は、吸気量の事前予測によるUI表示の一例を示す。
また、情報処理システム1は、予測した情報を表示してもよい。この点について、図17を用いて説明する。図17は、予測した操作量の表示の一例を示す図である。例えば、図17は、吸気量の事前予測によるUI表示の一例を示す。
図17中のマークMK11は、インジケータID11を中心として、3つの大きさの異なる円が配置された図形である。インジケータID11は、ユーザの呼吸に応じてサイズが変更される。また、マークMK11に重畳して配置される点線で示す円形の予測線PP11は、予測サイズを示す。マークMK11やインジケータID11や予測線PP11は、端末装置10に表示される。
例えば、インジケータID11は、実際の呼吸量に応じて反応しているインジケータである。例えば、予測線PP11は、現在の吸気量に基づいて予想された到達点情報を示した領域である。これにより、情報処理システム1は、ユーザは今の吸気で到達し得るポイントを知ることが可能で、必要に応じてもう一度吸気を行うかどうかの目安として利用できる。
このように、情報処理システム1は、予測した最大吸気の到達点を用いて、事前にGUIとして表示する事でユーザがさらに追加の吸気が必要かどうかを示すことができる。これにより、情報処理システム1は、ユーザビリティを向上させることができる。
[1-8.その他の適用例]
なお、情報処理システム1は、上記に限らず、種々の対象の操作に用いられてもよい。この点について、図18~図20を用いて説明する。
なお、情報処理システム1は、上記に限らず、種々の対象の操作に用いられてもよい。この点について、図18~図20を用いて説明する。
[1-8-1.セレクタインジケータの操作]
まず、操作量の利用の一例を説明する。例えば、決定した操作量はセレクタインジケータの位置変更(移動)に用いられてもよい。この点について、図18を用いて説明する。図18は、操作量の利用の一例を示す図である。図18は、吸気量による操作量(パラメータ)の反映の適応先を、GUIを選択するセレクタ(インジケータ)としたものである。このように、操作量は、GUI操作ターゲット切り替えに用いられてもよい。なお、図18において図1と同様の点については適宜説明を省略する。
まず、操作量の利用の一例を説明する。例えば、決定した操作量はセレクタインジケータの位置変更(移動)に用いられてもよい。この点について、図18を用いて説明する。図18は、操作量の利用の一例を示す図である。図18は、吸気量による操作量(パラメータ)の反映の適応先を、GUIを選択するセレクタ(インジケータ)としたものである。このように、操作量は、GUI操作ターゲット切り替えに用いられてもよい。なお、図18において図1と同様の点については適宜説明を省略する。
まず、図18の例では、ユーザU1がWUWを発話する(ステップS21)。例えば、ユーザU1が情報処理システム1の音声認識を起動させるための発話を行う。
図18の例では、端末装置10は、ユーザU1によるWUWの発話に応じて音声認識を起動する。端末装置10は、音声認識の起動時の所定の音声出力の処理を行う。図18の例では、端末装置10-1に示すように「How can I help ?」と音声出力がされる。このように、図18では、端末装置10の表示の変更に応じて、端末装置10を端末装置10-1、10-2、10-3と区別して記載する場合がある。なお、端末装置10-1、10-2、10-3は同じ端末装置10であり、区別せずに説明する場合は端末装置10と記載する。
端末装置10の表示部16には、複数のオブジェクトが所定の方向に並べて配置される。図18の例では、端末装置10の表示部16には、端末装置10-1に示すように、オブジェクトOB1~OB3が上下方向に並べて配置される。例えば、オブジェクトOB1~OB3は、複数の入力エリアであってもよい。オブジェクトOB1~OB3の各々は、Emailの宛先、題名、文章の各々の入力エリアであってもよい。オブジェクトOB1は、Emailの宛先の入力エリアであってもよい。オブジェクトOB2は、Emailの題名の入力エリアであってもよい。オブジェクトOB3は、Emailの文章の入力エリアであってもよい。
また、図18の例では、端末装置10の表示部16には、端末装置10-1に示すように、ユーザU1の吸気量に対応するインジケータ(吸気量インジケータ)であるセレクタインジケータID21は表示されない。セレクタインジケータID21は、ユーザU1の呼吸に応じて位置が変化する表示物である。端末装置10においては、セレクタインジケータID21の位置に応じて、その位置に対応するオブジェクトが選択される。なお、端末装置10-1には、セレクタインジケータID21が初期位置に表示されてもよい。
ユーザU1による発話前吸気が行われる(ステップS22)。例えば、ユーザU1は、発話を行う前に呼吸し、情報処理装置100は、そのユーザU1の呼吸を示す呼吸情報を取得する。例えば、情報処理装置100は、ユーザU1が利用する端末装置10からユーザU1の呼吸を示す呼吸情報を取得する。情報処理装置100は、取得した呼吸情報を用いて、ユーザU1の呼吸による操作に関する操作量を決定する決定処理を行う。この点については、図1と同様であるため説明を省略する。
情報処理システム1は、情報処理装置100により決定された操作量(インジケータパラメータ)を用いて、端末装置10に表示されたセレクタインジケータID21の位置を変更する(ステップS23)。例えば、情報処理装置100は、決定した操作量(インジケータパラメータ)の情報を端末装置10に送信する。情報処理装置100から操作量(インジケータパラメータ)の情報を受信した端末装置10は、表示されたセレクタインジケータID21の位置を変更する。
図18の例では、端末装置10は、端末装置10-2に示すように、セレクタインジケータID21の位置を上方向に変更する。すなわち、端末装置10は、セレクタインジケータID21を上方向に移動させる。端末装置10は、情報処理装置100から受信した操作量(インジケータパラメータ)を用いて、セレクタインジケータID21の位置を初期位置から上方向に変更させることにより、表示を変更する。これにより、端末装置10は、セレクタインジケータID21の位置に対応するオブジェクトOB2を選択する。例えば、端末装置10は、セレクタインジケータID21の位置に基づいて、Emailの題名の入力エリアであるオブジェクトOB2を選択する。このように、情報処理システム1は、吸気量に応じてセレクタインジケータを変化させ、ターゲットとなる入力エリア(オブジェクト)が変化させる。情報処理システム1は、ユーザの呼吸を用いて、表示を変更したり、選択する対象を決定したりすることで、GUI操作ターゲット切り替えることができる。
なお、情報処理装置100は、セレクタインジケータID21の位置を変更したコンテンツ(端末装置10-2の表示画面に対応)を端末装置10に送信し、端末装置10は受信したコンテンツを表示してもよい。
そして、ユーザU1が発話を行う(ステップS24)。例えば、ユーザU1は、端末装置10に対して、セレクタインジケータID21に基づいて選択された入力エリアであるオブジェクトOB2に入力する情報の音声入力を行う。図18の例では、ユーザU1は、「Hello」と発話し、端末装置10に対して情報の音声入力を行う。
そして、情報処理システム1は、ユーザU1による発話による入力を、セレクタインジケータID21に基づいて選択された入力エリアであるオブジェクトOB2に追加する処理を行う(ステップS25)。端末装置10は、オブジェクトOB2に対応するEmailの題名に文字列「Hello」を追加する。端末装置10は、端末装置10-3に示すように、入力エリアであるオブジェクトOB2に文字列「Hello」を表示する。これにより、情報処理システム1は、ユーザの吸気量に応じて選択した対象に対する情報入力を可能にする。
このように、情報処理システム1は、ユーザの呼吸を用いて操作量を決定し、その操作量をユーザに操作に対応する処理に用いることで、ユーザが操作量を音声などにより入力する手間を省くことができるため、ユーザの操作負荷を軽減することができる。
[1-8-2.インジケータの表示・非表示の切換え例]
また、インジケータは非表示にされてもよい。例えば、図18に示すようなセレクタインジケータは呼吸量に応じて表示と非表示とが切換え可能であってもよい。例えば、音声認識の処理では、GUI操作には関係が無いコマンドも受け付けるため、一定以上の吸気量以上でないとインジケータを表示しない等、インジケータ表示と非表示との領域を設定してもよい。この点について、図19を用いて説明する。図19は、インジケータの表示・非表示の切換えの一例を示す図である。なお、図2や図12~図16と同様の点については適宜説明を省略する。
また、インジケータは非表示にされてもよい。例えば、図18に示すようなセレクタインジケータは呼吸量に応じて表示と非表示とが切換え可能であってもよい。例えば、音声認識の処理では、GUI操作には関係が無いコマンドも受け付けるため、一定以上の吸気量以上でないとインジケータを表示しない等、インジケータ表示と非表示との領域を設定してもよい。この点について、図19を用いて説明する。図19は、インジケータの表示・非表示の切換えの一例を示す図である。なお、図2や図12~図16と同様の点については適宜説明を省略する。
図19中のグラフGR7は、ユーザの呼吸と操作量との関係を示すグラフである。具体的には、図19中のグラフGR7は、ユーザの吸気量と、操作量に基づくインジケータのサイズ(インジケータサイズ)との関係を示すグラフである。図19中のグラフGR7は、縦軸が吸気量やインジケータのサイズを示し、横軸は時間を示すグラフである。また、図19中のグラフGR7では、呼吸量を示す線(線LN71)を実線で示し、インジケータサイズを示す線(線LN72)を一点鎖線で示す。
図19中のグラフGR7中の閾値EV71は、インジケータ表示の最少吸気量を示す値である。例えば、情報処理システム1は、呼吸量が閾値EV71以上である場合にインジケータを表示し、呼吸量が閾値EV71未満である場合にインジケータを非表示にする。情報処理装置100は、現在呼吸量と閾値EV71とを比較し、その比較結果を基に、インジケータを表示するか非表示にするかを決定する。情報処理装置100は、現在呼吸量が閾値EV71以上である場合、インジケータを表示すると決定する。情報処理装置100は、現在呼吸量が閾値EV71未満である場合、インジケータを非表示にすると決定する。
図19の例では、情報処理装置100は、時間t71までの間、現在呼吸量が閾値EV71未満であるため、インジケータを非表示にすると決定する。情報処理システム1は、時間t71までの間、インジケータを非表示にする。例えば、端末装置10は、時間t71までの間、インジケータを非表示にする。
図19の例では、情報処理装置100は、時間t71から時間t72までの間、現在呼吸量が閾値EV71以上であるため、インジケータを表示すると決定する。情報処理システム1は、時間t71から時間t72までの間、インジケータを表示する。例えば、端末装置10は、時間t71から時間t72までの間、インジケータを表示する。端末装置10は、時間t71において、インジケータを非表示から表示に切り替える。
図19の例では、情報処理装置100は、時間t72以降、現在呼吸量が閾値EV71未満であるため、インジケータを非表示にすると決定する。情報処理システム1は、時間t72以降、インジケータを非表示にする。例えば、端末装置10は、時間t72以降、インジケータを非表示にする。端末装置10は、時間t72において、インジケータを表示から非表示に切り替える。
例えば、情報処理システム1は、インジケータ表示時では、ユーザの音声発話を選択されているGUIへの入力やコマンドとして処理する。また、例えば、情報処理システム1は、インジケータ非表示時では、ユーザの音声発話をGUIとは関係ない汎用的(General)なコマンドとして処理する。
このように、情報処理システム1は、インジケータ表示、非表示のいずれの状態であるかに応じて、ユーザの音声発話を用いた処理を切り替えることで、インジケータ表示・非表示に応じて、適切な処理を行うことができる。
[1-8-3.GUI操作ターゲットの切換え例]
また、操作量はGUI操作ターゲットの切換えに用いられてもよい。この点について、図20を用いて説明する。図20は、GUI操作ターゲットの切換えの一例を示す図である。
また、操作量はGUI操作ターゲットの切換えに用いられてもよい。この点について、図20を用いて説明する。図20は、GUI操作ターゲットの切換えの一例を示す図である。
図20は、GUI操作ターゲット切り替えの一例を示す。図20では、表示の変更に応じて、コンテンツCT1をコンテンツCT1-1、CT1-2、CT1-3、CT1-4と区別して記載する場合がある。なお、コンテンツCT1-1、CT1-2、CT1-3、CT1-4は同じコンテンツCT1であり、区別せずに説明する場合はコンテンツCT1と記載する。例えば、コンテンツCT1は、端末装置10の表示部16に表示される。
コンテンツCT1には、マークMK31やエレメントEL1、EL2、EL3が含まれる。マークMK31は、インジケータID31を中心として、複数の大きさの異なる円が配置された図形である。インジケータID31は、ユーザの呼吸に応じてサイズが変更される。インジケータID31は、ユーザU1の呼吸に応じてサイズが変化する表示物である。すなわち、インジケータID31は、ユーザの呼吸に基づいて決定された操作量をその大きさにより示す表示物である。例えば、コンテンツCT1-1に示すインジケータID31-1は、インジケータID31の初期状態を示す。このように、図1では、インジケータID31の表示の変更に応じて、インジケータID31をインジケータID31-1、ID31-2、ID31-3、ID31-4と区別して記載する場合がある。なお、インジケータID31-1、ID31-2、ID31-3、ID31-4を、区別せずに説明する場合はインジケータID31と記載する。
エレメントEL1は、Emailの宛先(To)に対応する入力エリアである。エレメントEL2は、Emailの件名(Title)に対応する入力エリアである。エレメントEL3は、Emailの本文(Message)に対応する入力エリアである。図20に示すように、エレメントEL1、エレメントEL2、エレメントEL3の順に占める領域が大きくなり、エレメントEL1、エレメントEL2、エレメントEL3の順に入力される情報量が多くなることが想定される。
図20の例では、情報処理システム1は、図1と同様に、ユーザの呼吸に応じてインジケータID31の表示を変更する。また、図20の例では、情報処理システム1は、図18と同様に、ユーザの呼吸に応じて選択する入力エリア(エレメント)を変更する。図20中のコンテンツCT1-1は、入力エリア(エレメント)が選択されていない無選択状態を示す。この場合、情報処理システム1は、ユーザの発話を汎用コマンドとして認識する。また、コンテンツCT1-1~CT1-4は、ユーザの発話前の吸気量の変化に応じた、インジケータID31や選択された入力エリア(エレメント)の変化を示す。
例えば、情報処理システム1は、ユーザの呼吸量の増加に応じて、コンテンツCT1の表示態様を、コンテンツCT1-1からコンテンツCT1-2に変更する。情報処理システム1は、ユーザの呼吸量の増加に応じて、インジケータID31の表示サイズをインジケータID31-1からインジケータID31-2に変更する。また、情報処理システム1は、ユーザの呼吸量の増加に応じて、Emailの宛先(To)に対応する入力エリアであるエレメントEL1を選択する。このように、情報処理システム1は、ユーザの吸気量に応じてインジケータID31のサイズを変更し、入力エリア(エレメント)を選択する。例えば、コンテンツCT1-2の状態でユーザの発話が行われた場合、ユーザの発話による入力情報がEmailの宛先(To)に対応する入力エリアであるエレメントEL1に追加される。
また、例えば、情報処理システム1は、ユーザの呼吸量の増加に応じて、コンテンツCT1の表示態様を、コンテンツCT1-2からコンテンツCT1-3に変更する。情報処理システム1は、ユーザの呼吸量の増加に応じて、インジケータID31の表示サイズをインジケータID31-2からインジケータID31-3に変更する。また、情報処理システム1は、ユーザの呼吸量の増加に応じて、選択した入力エリア(エレメント)を、Emailの宛先(To)に対応する入力エリア(エレメントEL1)からEmailの件名(Title)に対応する入力エリア(エレメントEL2)に変更する。このように、情報処理システム1は、ユーザの吸気量に応じてインジケータID31のサイズを変更し、選択した入力エリア(エレメント)を変更する。例えば、コンテンツCT1-3の状態でユーザの発話が行われた場合、ユーザの発話による入力情報がEmailの件名(Title)に対応する入力エリアであるエレメントEL2に追加される。
また、例えば、情報処理システム1は、ユーザの呼吸量の増加に応じて、コンテンツCT1の表示態様を、コンテンツCT1-3からコンテンツCT1-4に変更する。情報処理システム1は、ユーザの呼吸量の増加に応じて、インジケータID31の表示サイズをインジケータID31-3からインジケータID31-4に変更する。また、情報処理システム1は、ユーザの呼吸量の増加に応じて、選択した入力エリア(エレメント)を、Emailの件名(Title)に対応する入力エリア(エレメントEL2)からEmailの本文(Message)に対応する入力エリア(エレメントEL3)に変更する。このように、情報処理システム1は、ユーザの吸気量に応じてインジケータID31のサイズを変更し、選択した入力エリア(エレメント)を変更する。例えば、コンテンツCT1-4の状態でユーザの発話が行われた場合、ユーザの発話による入力情報がEmailの本文(Message)に対応する入力エリアであるエレメントEL3に追加される。
このように、情報処理システム1は、ユーザの呼吸量に応じてサイズが変化するインジケータと、ユーザの呼吸量に応じて選択される複数のエレメント(入力エリア)を表示する。これにより、情報処理システム1は、ユーザの呼吸の変化とエレメントの選択の変更との関係をユーザに直感的に把握させることができるため、ユーザがより容易に呼吸によるエレメント選択を行うことを可能にする。したがって、情報処理システム1は、ユーザが音声などにより入力する手間を省くことができるため、ユーザの操作負荷を軽減することができ、ユーザビリティを向上させることができる。
[2.その他の実施形態]
上述した各実施形態に係る処理は、上記各実施形態や変形例以外にも種々の異なる形態(変形例)にて実施されてよい。
上述した各実施形態に係る処理は、上記各実施形態や変形例以外にも種々の異なる形態(変形例)にて実施されてよい。
[2-1.変形例(クライアント側で決定処理等を行う例)]
実施形態においては、システム構成の一例として、情報処理装置100が操作量の決定や予測等を行う場合を示したが、端末装置10が操作量の決定や予測を行ってもよい。すなわち、クライアント側の装置である端末装置10が上述した操作量の決定や予測を行う情報処理装置であってもよい。このように、情報処理システム1のシステム構成は、サーバ側の装置である情報処理装置100が操作量の決定や予測を行う構成に限らず、クライアント側の装置である端末装置10が上述した操作量の決定や予測を行う構成であってもよい。
実施形態においては、システム構成の一例として、情報処理装置100が操作量の決定や予測等を行う場合を示したが、端末装置10が操作量の決定や予測を行ってもよい。すなわち、クライアント側の装置である端末装置10が上述した操作量の決定や予測を行う情報処理装置であってもよい。このように、情報処理システム1のシステム構成は、サーバ側の装置である情報処理装置100が操作量の決定や予測を行う構成に限らず、クライアント側の装置である端末装置10が上述した操作量の決定や予測を行う構成であってもよい。
端末装置10が上述した操作量の決定や予測を行う情報処理装置である場合、情報処理システム1では、クライアント側(端末装置10)で操作量の決定や予測を行う。そして、サーバ側(情報処理装置100)は、操作量や予測操作量の情報を端末装置10から取得して、各種の処理を行う。この場合、端末装置10は、上述した予測部132と同様の機能を実現する予測部や、決定部133と同様の機能を実現する決定部を有してもよい。また、この場合、情報処理装置100は、予測部132や決定部133を有しなくてもよい。
また、情報処理システム1は、クライアント側(端末装置10)で操作量の決定を行い、サーバ側(情報処理装置100)で操作量の予測を行うシステム構成であってもよい。この場合、クライアント側の装置である端末装置10が上述した操作量の決定処理を行う情報処理装置であり、サーバ側の装置である情報処理装置100が上述した操作量の予測決定処理を行う情報処理装置であってもよい。この場合、端末装置10の決定部が決定処理を行い、情報処理装置100の予測部132が予測処理を行う。
なお、上記は一例であり、情報処理システム1においては、各処理をいずれの装置が行ってもよい。このように、情報処理システム1は、各処理について、クライアント側の装置(端末装置10)及びサーバ側の装置(情報処理装置100)のいずれが行うシステム構成であってもよい。
[2-2.変形例に係る情報処理装置の構成例]
なお、上記のようにクライアント側(端末装置)で操作量の決定を行う場合、操作量を決定する情報処理装置が端末装置として機能する。この場合、クライアント側の装置である端末装置は、操作量を決定する機能と、その操作量に応じた表示を行う機能とを有する。この点について、図21を用いて説明する。図21は、本開示の変形例に係る情報処理装置の構成例を示す図である。この場合、情報処理システム1には、クライアント側の端末装置である情報処理装置100Aと、情報処理装置100Aとの間で各種情報を通信するサーバ装置とが含まれてもよい。
なお、上記のようにクライアント側(端末装置)で操作量の決定を行う場合、操作量を決定する情報処理装置が端末装置として機能する。この場合、クライアント側の装置である端末装置は、操作量を決定する機能と、その操作量に応じた表示を行う機能とを有する。この点について、図21を用いて説明する。図21は、本開示の変形例に係る情報処理装置の構成例を示す図である。この場合、情報処理システム1には、クライアント側の端末装置である情報処理装置100Aと、情報処理装置100Aとの間で各種情報を通信するサーバ装置とが含まれてもよい。
クライアント側の装置(端末装置)として用いられる情報処理装置100Aは、操作量を決定する機能と、その操作量に応じた表示を行う機能とを有する。例えば、情報処理装置100Aは、音声認識サービスを提供するサーバ装置から各種情報を取得し、取得した情報を用いて各種処理を実行する。例えば、情報処理装置100Aは、サーバ装置にユーザの発話情報を送信し、サーバ装置から音声認識結果を示す情報を取得し、取得した情報を用いて各種処理を実行する。なお、以下の情報処理装置100Aの説明では、図6に示す情報処理装置100や図8に示す端末装置10と同様の点については同様の符号を付す等により、適宜説明を省略する。
図21に示すように、情報処理装置100Aは、通信部110と、入力部12と、出力部13と、記憶部120と、制御部130と、表示部16と、センサ部17とを有する。
通信部110は、サーバ装置との間で情報の送受信を行う。入力部12は、ユーザから各種操作が入力される。出力部13は、各種情報を出力する。ユーザ情報記憶部122は、情報処理装置100Aを利用するユーザの各種情報を記憶する。
情報処理装置100Aの取得部131は、図6で説明した機能や受信部151や受付部153と同様の機能を有する。取得部131は、各種情報を受信する。取得部131は、外部の情報処理装置から各種情報を受信する。取得部131は、サーバ装置等の他の情報処理装置から各種情報を受信する。
取得部131は、センサ部17が検知した情報を取得する。取得部131は、センサ部17の呼吸センサ171が検知した情報を取得する。取得部131は、サーバ装置から音声認識の起動を指示する情報を受信する。取得部131は、サーバ装置から音声認識アプリケーションの起動を指示する情報を受信する。
取得部131は、サーバ装置から各種機能の実行指示を受信する。例えば、取得部131は、サーバ装置から機能を指定する情報を機能の実行指示として受信する。取得部131は、コンテンツを受信する。取得部131は、サーバ装置から表示するコンテンツを受信する。
取得部131は、各種情報を受け付ける。取得部131は、入力部12を介してユーザによる入力を受け付ける。取得部131は、ユーザによる発話を入力として受け付ける。取得部131は、ユーザによる操作を受け付ける。取得部131は、表示部16により表示された情報に対するユーザの操作を受け付ける。取得部131は、ユーザによる文字入力を受け付ける。
情報処理装置100Aの実行部134は、図6で説明した機能や実行部152と同様の機能を有する。実行部134は、サーバ装置からの情報に基づいて、各種処理を実行する。実行部134は、サーバ装置からの指示に応じて、各種処理を実行する。
情報処理装置100Aの送信部135は、図6で説明した機能や送信部154の機能を有する。送信部135は、サーバ装置等の他の情報処理装置からの情報に基づいて、各種情報を送信する。送信部135は、決定部133により決定された操作量をサーバ装置へ送信する。送信部135は、予測部132により予測された操作量(予測操作量)をサーバ装置へ送信する。
送信部135は、ユーザの呼吸を示す呼吸情報をサーバ装置へ送信する。送信部135は、ユーザの吸気量を含む呼吸情報をサーバ装置へ送信する。送信部135は、ユーザの呼吸の変化量を含む呼吸情報をサーバ装置へ送信する。送信部135は、ユーザの呼吸後のユーザによる発話を示す発話情報をサーバ装置へ送信する。送信部135は、ユーザの呼吸前のユーザによる発話を示す発話情報をサーバ装置へ送信する。
送信部135は、センサ部17により検知されたセンサ情報をサーバ装置へ送信する。送信部135は、センサ部17の呼吸センサ171により検知されたユーザU1の呼吸情報をサーバ装置へ送信する。送信部135は、ユーザにより入力された入力情報をサーバ装置へ送信する。送信部135は、ユーザにより音声入力された入力情報をサーバ装置へ送信する。送信部135は、ユーザの操作により入力された入力情報をサーバ装置へ送信する。
表示部16は、図8で説明した機能を有する。表示部16は、サーバ装置から受信した情報を表示する。表示部16は、決定部133により決定された操作量を示す情報を表示する。表示部16は、操作量に対応するインジケータを表示する。
[2-3.その他]
また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
[3.本開示に係る効果]
上述のように、本開示に係る情報処理装置(実施形態では情報処理装置100、100A)は、取得部(実施形態では取得部131)と、決定部(実施形態では決定部133)とを備える。取得部は、ユーザの呼吸を示す呼吸情報を取得する。決定部は、取得部により取得された呼吸情報が示すユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定する。
上述のように、本開示に係る情報処理装置(実施形態では情報処理装置100、100A)は、取得部(実施形態では取得部131)と、決定部(実施形態では決定部133)とを備える。取得部は、ユーザの呼吸を示す呼吸情報を取得する。決定部は、取得部により取得された呼吸情報が示すユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定する。
このように、本開示に係る情報処理装置は、ユーザの呼吸に基づいて、ユーザによる操作に関する操作量を決定することで、ユーザによる操作量の入力の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの呼吸に関する量に応じて、操作量を決定する。このように、情報処理装置は、ユーザの呼吸に関する量に応じて操作量を決定することで、ユーザの操作負荷を軽減することができる。
また、取得部は、ユーザの吸気量を含む呼吸情報を取得する。決定部は、吸気量に基づいて、操作量を決定する。このように、情報処理装置は、ユーザの呼吸の吸気量を用いることで、精度よく操作量を決定することができる。
また、取得部は、ユーザの呼吸の変化量を含む呼吸情報を取得する。決定部は、変化量に基づいて、操作量を決定する。このように、情報処理装置は、ユーザの呼吸の変化量を用いることで、精度よくユーザの発話有無を予測することができる。
また、決定部は、ユーザの吸気及び排気のうちいずれか一方に応じて、操作量を増加させる。このように、情報処理装置は、ユーザの呼吸に連動して操作量を増加させることで、ユーザによる操作量の入力の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの吸気及び排気のうち一方とは異なる他方に応じて、操作量を減少させる。このように、情報処理装置は、ユーザの吸気及び排気のうち、操作量の増加に用いる方とは異なる他方を操作量の減少に用いることで、ユーザが操作量の増減を入力する手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの吸気に応じて、操作量を増加させる。このように、情報処理装置は、ユーザの吸気に応じて、操作量を増加させることで、ユーザによる操作量の入力の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの吸気時の吸気量の増加に応じて、操作量を増加させる。このように、情報処理装置は、ユーザの吸気時の吸気量の増加に応じて、操作量を増加させることで、ユーザによる操作量の入力の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの吸気の増加量と閾値との比較結果が所定の条件を満たす場合、吸気の増加量に応じて、操作量を増加させる。このように、情報処理装置は、ユーザの吸気の増加量と閾値との比較結果が所定の条件を満たす場合、吸気の増加量に応じて操作量を増加させることで、ユーザの吸気に連動してより適切に操作量を増加させることができる。
また、決定部は、ユーザの排気が行われている間、一定に操作量を減少させる。このように、情報処理装置は、ユーザの排気が行われている間、一定に操作量を減少させることで、ユーザが排気する時間を操作量の減少に用いることができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの排気に応じて、操作量を減少させる。このように、情報処理装置は、ユーザの排気に応じて、操作量を減少させることで、ユーザによる操作量の入力の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの排気時の吸気量の減少に応じて、操作量を減少させる。このように、情報処理装置は、ユーザの排気時の吸気量の減少に応じて、操作量を減少させることで、ユーザによる操作量の入力の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、ユーザの排気の増加量と閾値との比較結果が所定の条件を満たす場合、排気の増加量に応じて、操作量を減少させる。このように、情報処理装置は、ユーザの排気の増加量と閾値との比較結果が所定の条件を満たす場合、排気の増加量に応じて、操作量を減少させることで、ユーザの排気に連動してより適切に操作量を減少させることができる。
また、取得部は、ユーザの呼吸後のユーザによる発話を示す発話情報を取得する。決定部は、発話情報に基づいて、ユーザによる操作の対象を決定する。このように、情報処理装置は、ユーザの呼吸後の発話を用いてユーザによる操作の対象を決定することで、操作量を適用する対象を適切に決定することができる。これにより、情報処理装置は、操作量をユーザの呼吸で決定し、操作対象をユーザの発話で決定することで、ユーザは操作対象のみを発話すれば操作を行うことができるため、ユーザの操作負荷を軽減することができる。
また、取得部は、ユーザの呼吸前のユーザによる発話を示す発話情報を取得する。決定部は、発話情報に基づいて、ユーザによる操作の対象を決定する。このように、情報処理装置は、ユーザの呼吸前の発話を用いてユーザによる操作の対象を決定することで、操作量を適用する対象を適切に決定することができる。これにより、情報処理装置は、操作量をユーザの呼吸で決定し、操作対象をユーザの発話で決定することで、ユーザは操作対象のみを発話すれば操作を行うことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、機器のパラメータに対応する操作量を決定する。このように、情報処理装置は、機器のパラメータに対応する操作量を決定することで、ユーザによる機器のパラメータ入力の操作等の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、決定部は、画面に表示された対象の位置変化に対応する操作量を決定する。このように、情報処理装置は、画面に表示された対象の位置変化に対応する操作量を決定することで、ユーザによる対象の位置を変化させる操作等の手間を省くことができるため、ユーザの操作負荷を軽減することができる。
また、本開示に係る情報処理装置は、表示部(実施形態では表示部16)を備える。表示部は、決定部により決定された操作量を示す情報を表示する。このように、情報処理装置は、操作量を示す情報を表示することで、呼吸による操作量がどのような状態になっているかをユーザが視認させることができるため、ユーザビリティを向上させることができる。
また、表示部は、操作量に対応するインジケータを表示する。このように、情報処理装置は、操作量に対応するインジケータを表示することで、操作量をユーザに直感的に理解させることができるため、ユーザビリティを向上させることができる。
[4.ハードウェア構成]
上述してきた各実施形態に係る情報処理装置100、100Aや端末装置10等の情報機器は、例えば図22に示すような構成のコンピュータ1000によって実現される。図22は、情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。以下、実施形態に係る情報処理装置100を例に挙げて説明する。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
上述してきた各実施形態に係る情報処理装置100、100Aや端末装置10等の情報機器は、例えば図22に示すような構成のコンピュータ1000によって実現される。図22は、情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。以下、実施形態に係る情報処理装置100を例に挙げて説明する。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部130等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部120内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの呼吸を示す呼吸情報を取得する取得部と、
前記取得部により取得された前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する決定部と、
を備える情報処理装置。
(2)
前記決定部は、
前記ユーザの前記呼吸に関する量に応じて、前記操作量を決定する、
(1)に記載の情報処理装置。
(3)
前記取得部は、
前記ユーザの吸気量を含む前記呼吸情報を取得し、
前記決定部は、
前記吸気量に基づいて、前記操作量を決定する、
(1)または(2)に記載の情報処理装置。
(4)
前記取得部は、
前記ユーザの前記呼吸の変化量を含む前記呼吸情報を取得し、
前記決定部は、
前記変化量に基づいて、前記操作量を決定する、
(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
前記決定部は、
前記ユーザの吸気及び排気のうちいずれか一方に応じて、前記操作量を増加させる、
(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
前記決定部は、
前記ユーザの吸気及び排気のうち前記一方とは異なる他方に応じて、前記操作量を減少させる、
(5)に記載の情報処理装置。
(7)
前記決定部は、
前記ユーザの吸気に応じて、前記操作量を増加させる、
(5)または(6)に記載の情報処理装置。
(8)
前記決定部は、
前記ユーザの吸気時の吸気量の増加に応じて、前記操作量を増加させる、
(5)または(7)に記載の情報処理装置。
(9)
前記決定部は、
前記ユーザの吸気の増加量と閾値との比較結果が所定の条件を満たす場合、前記吸気の増加量に応じて、前記操作量を増加させる、
(7)または(8)に記載の情報処理装置。
(10)
前記決定部は、
前記ユーザの排気が行われている間、一定に前記操作量を減少させる、
(7)~(9)のいずれか1項に記載の情報処理装置。
(11)
前記決定部は、
前記ユーザの排気に応じて、前記操作量を減少させる、
(7)~(9)のいずれか1項に記載の情報処理装置。
(12)
前記決定部は、
前記ユーザの排気時の吸気量の減少に応じて、前記操作量を減少させる、
(11)に記載の情報処理装置。
(13)
前記決定部は、
前記ユーザの排気の増加量と閾値との比較結果が所定の条件を満たす場合、前記排気の増加量に応じて、前記操作量を減少させる、
(11)または(12)に記載の情報処理装置。
(14)
前記取得部は、
前記ユーザの前記呼吸後の前記ユーザによる発話を示す発話情報を取得し、
前記決定部は、
前記発話情報に基づいて、前記ユーザによる操作の対象を決定する、
(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
前記取得部は、
前記ユーザの前記呼吸前の前記ユーザによる発話を示す発話情報を取得し、
前記決定部は、
前記発話情報に基づいて、前記ユーザによる操作の対象を決定する、
(1)~(13)のいずれか1項に記載の情報処理装置。
(16)
前記決定部は、
機器のパラメータに対応する前記操作量を決定する、
(1)~(15)のいずれか1項に記載の情報処理装置。
(17)
前記決定部は、
画面に表示された対象の位置変化に対応する前記操作量を決定する、
(1)~(15)のいずれか1項に記載の情報処理装置。
(18)
前記決定部により決定された前記操作量を示す情報を表示する表示部、
をさらに備える(1)~(17)のいずれか1項に記載の情報処理装置。
(19)
前記表示部は、
前記操作量に対応するインジケータを表示する、
(18)に記載の情報処理装置。
(20)
ユーザの呼吸を示す呼吸情報を取得し、
取得した前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する、
処理を実行する情報処理方法。
(1)
ユーザの呼吸を示す呼吸情報を取得する取得部と、
前記取得部により取得された前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する決定部と、
を備える情報処理装置。
(2)
前記決定部は、
前記ユーザの前記呼吸に関する量に応じて、前記操作量を決定する、
(1)に記載の情報処理装置。
(3)
前記取得部は、
前記ユーザの吸気量を含む前記呼吸情報を取得し、
前記決定部は、
前記吸気量に基づいて、前記操作量を決定する、
(1)または(2)に記載の情報処理装置。
(4)
前記取得部は、
前記ユーザの前記呼吸の変化量を含む前記呼吸情報を取得し、
前記決定部は、
前記変化量に基づいて、前記操作量を決定する、
(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
前記決定部は、
前記ユーザの吸気及び排気のうちいずれか一方に応じて、前記操作量を増加させる、
(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
前記決定部は、
前記ユーザの吸気及び排気のうち前記一方とは異なる他方に応じて、前記操作量を減少させる、
(5)に記載の情報処理装置。
(7)
前記決定部は、
前記ユーザの吸気に応じて、前記操作量を増加させる、
(5)または(6)に記載の情報処理装置。
(8)
前記決定部は、
前記ユーザの吸気時の吸気量の増加に応じて、前記操作量を増加させる、
(5)または(7)に記載の情報処理装置。
(9)
前記決定部は、
前記ユーザの吸気の増加量と閾値との比較結果が所定の条件を満たす場合、前記吸気の増加量に応じて、前記操作量を増加させる、
(7)または(8)に記載の情報処理装置。
(10)
前記決定部は、
前記ユーザの排気が行われている間、一定に前記操作量を減少させる、
(7)~(9)のいずれか1項に記載の情報処理装置。
(11)
前記決定部は、
前記ユーザの排気に応じて、前記操作量を減少させる、
(7)~(9)のいずれか1項に記載の情報処理装置。
(12)
前記決定部は、
前記ユーザの排気時の吸気量の減少に応じて、前記操作量を減少させる、
(11)に記載の情報処理装置。
(13)
前記決定部は、
前記ユーザの排気の増加量と閾値との比較結果が所定の条件を満たす場合、前記排気の増加量に応じて、前記操作量を減少させる、
(11)または(12)に記載の情報処理装置。
(14)
前記取得部は、
前記ユーザの前記呼吸後の前記ユーザによる発話を示す発話情報を取得し、
前記決定部は、
前記発話情報に基づいて、前記ユーザによる操作の対象を決定する、
(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
前記取得部は、
前記ユーザの前記呼吸前の前記ユーザによる発話を示す発話情報を取得し、
前記決定部は、
前記発話情報に基づいて、前記ユーザによる操作の対象を決定する、
(1)~(13)のいずれか1項に記載の情報処理装置。
(16)
前記決定部は、
機器のパラメータに対応する前記操作量を決定する、
(1)~(15)のいずれか1項に記載の情報処理装置。
(17)
前記決定部は、
画面に表示された対象の位置変化に対応する前記操作量を決定する、
(1)~(15)のいずれか1項に記載の情報処理装置。
(18)
前記決定部により決定された前記操作量を示す情報を表示する表示部、
をさらに備える(1)~(17)のいずれか1項に記載の情報処理装置。
(19)
前記表示部は、
前記操作量に対応するインジケータを表示する、
(18)に記載の情報処理装置。
(20)
ユーザの呼吸を示す呼吸情報を取得し、
取得した前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する、
処理を実行する情報処理方法。
1 情報処理システム
100、100A 情報処理装置
110 通信部
120 記憶部
121 呼吸情報記憶部
122 ユーザ情報記憶部
123 閾値情報記憶部
124 機能情報記憶部
130 制御部
131 取得部
132 予測部
133 決定部
134 実行部
135 送信部
10 端末装置
11 通信部
12 入力部
13 出力部
14 記憶部
15 制御部
151 受信部
152 実行部
153 受付部
154 送信部
16 表示部
17 センサ部
171 呼吸センサ
100、100A 情報処理装置
110 通信部
120 記憶部
121 呼吸情報記憶部
122 ユーザ情報記憶部
123 閾値情報記憶部
124 機能情報記憶部
130 制御部
131 取得部
132 予測部
133 決定部
134 実行部
135 送信部
10 端末装置
11 通信部
12 入力部
13 出力部
14 記憶部
15 制御部
151 受信部
152 実行部
153 受付部
154 送信部
16 表示部
17 センサ部
171 呼吸センサ
Claims (20)
- ユーザの呼吸を示す呼吸情報を取得する取得部と、
前記取得部により取得された前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する決定部と、
を備える情報処理装置。 - 前記決定部は、
前記ユーザの前記呼吸に関する量に応じて、前記操作量を決定する、
請求項1に記載の情報処理装置。 - 前記取得部は、
前記ユーザの吸気量を含む前記呼吸情報を取得し、
前記決定部は、
前記吸気量に基づいて、前記操作量を決定する、
請求項1に記載の情報処理装置。 - 前記取得部は、
前記ユーザの前記呼吸の変化量を含む前記呼吸情報を取得し、
前記決定部は、
前記変化量に基づいて、前記操作量を決定する、
請求項1に記載の情報処理装置。 - 前記決定部は、
前記ユーザの吸気及び排気のうちいずれか一方に応じて、前記操作量を増加させる、
請求項1に記載の情報処理装置。 - 前記決定部は、
前記ユーザの吸気及び排気のうち前記一方とは異なる他方に応じて、前記操作量を減少させる、
請求項5に記載の情報処理装置。 - 前記決定部は、
前記ユーザの吸気に応じて、前記操作量を増加させる、
請求項5に記載の情報処理装置。 - 前記決定部は、
前記ユーザの吸気時の吸気量の増加に応じて、前記操作量を増加させる、
請求項5に記載の情報処理装置。 - 前記決定部は、
前記ユーザの吸気の増加量と閾値との比較結果が所定の条件を満たす場合、前記吸気の増加量に応じて、前記操作量を増加させる、
請求項7に記載の情報処理装置。 - 前記決定部は、
前記ユーザの排気が行われている間、一定に前記操作量を減少させる、
請求項7に記載の情報処理装置。 - 前記決定部は、
前記ユーザの排気に応じて、前記操作量を減少させる、
請求項7に記載の情報処理装置。 - 前記決定部は、
前記ユーザの排気時の吸気量の減少に応じて、前記操作量を減少させる、
請求項11に記載の情報処理装置。 - 前記決定部は、
前記ユーザの排気の増加量と閾値との比較結果が所定の条件を満たす場合、前記排気の増加量に応じて、前記操作量を減少させる、
請求項11に記載の情報処理装置。 - 前記取得部は、
前記ユーザの前記呼吸後の前記ユーザによる発話を示す発話情報を取得し、
前記決定部は、
前記発話情報に基づいて、前記ユーザによる操作の対象を決定する、
請求項1に記載の情報処理装置。 - 前記取得部は、
前記ユーザの前記呼吸前の前記ユーザによる発話を示す発話情報を取得し、
前記決定部は、
前記発話情報に基づいて、前記ユーザによる操作の対象を決定する、
請求項1に記載の情報処理装置。 - 前記決定部は、
機器のパラメータに対応する前記操作量を決定する、
請求項1に記載の情報処理装置。 - 前記決定部は、
画面に表示された対象の位置変化に対応する前記操作量を決定する、
請求項1に記載の情報処理装置。 - 前記決定部により決定された前記操作量を示す情報を表示する表示部、
をさらに備える請求項1に記載の情報処理装置。 - 前記表示部は、
前記操作量に対応するインジケータを表示する、
請求項18に記載の情報処理装置。 - ユーザの呼吸を示す呼吸情報を取得し、
取得した前記呼吸情報が示す前記ユーザの前記呼吸に基づいて、前記ユーザによる操作に関する操作量を決定する、
処理を実行する情報処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21748097.9A EP4099317A4 (en) | 2020-01-31 | 2021-01-12 | INFORMATION PROCESSING DEVICE AND METHOD |
US17/793,415 US20230045458A1 (en) | 2020-01-31 | 2021-01-12 | Information processing apparatus and information processing method |
JP2021574596A JPWO2021153214A1 (ja) | 2020-01-31 | 2021-01-12 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-014528 | 2020-01-31 | ||
JP2020014528 | 2020-01-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021153214A1 true WO2021153214A1 (ja) | 2021-08-05 |
Family
ID=77078754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/000674 WO2021153214A1 (ja) | 2020-01-31 | 2021-01-12 | 情報処理装置及び情報処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230045458A1 (ja) |
EP (1) | EP4099317A4 (ja) |
JP (1) | JPWO2021153214A1 (ja) |
WO (1) | WO2021153214A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013542470A (ja) * | 2009-09-11 | 2013-11-21 | ノヴォディジット・ソシエテ・ア・レスポンサビリテ・リミテ | 人間の呼気を使用してデバイスのユーザインタフェースを制御するための方法およびシステム |
JP2014092892A (ja) * | 2012-11-02 | 2014-05-19 | Nec Casio Mobile Communications Ltd | 入力装置、入力制御方法及びプログラム |
JP2017211596A (ja) | 2016-05-27 | 2017-11-30 | トヨタ自動車株式会社 | 音声対話システムおよび発話タイミング決定方法 |
JP2019028702A (ja) * | 2017-07-28 | 2019-02-21 | シャープ株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4030162B2 (ja) * | 1997-11-04 | 2008-01-09 | 富士通株式会社 | 息検出機能付情報処理装置及び息検出による画像表示制御方法 |
JP4630646B2 (ja) * | 2004-11-19 | 2011-02-09 | 任天堂株式会社 | 息吹きかけ判別プログラム、息吹きかけ判別装置、ゲームプログラムおよびゲーム装置 |
JP3734823B1 (ja) * | 2005-01-26 | 2006-01-11 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
US9753533B2 (en) * | 2008-03-26 | 2017-09-05 | Pierre Bonnat | Method and system for controlling a user interface of a device using human breath |
KR20100036739A (ko) * | 2008-09-30 | 2010-04-08 | 삼성전자주식회사 | 입김의 세기에 따라 변하는 인터액티브 사용자 인터페이스 제공 장치 및 방법 |
KR101509007B1 (ko) * | 2009-03-03 | 2015-04-14 | 엘지전자 주식회사 | 진동 모듈을 구비하는 휴대 단말기 및 그 동작방법 |
JP5344698B2 (ja) * | 2009-10-30 | 2013-11-20 | 任天堂株式会社 | 息判別プログラム、息判別装置、息判別システム、および息判別方法 |
WO2011138794A1 (en) * | 2010-04-29 | 2011-11-10 | Narasingh Pattnaik | A breath actuated system and method |
WO2012112277A1 (en) * | 2011-01-26 | 2012-08-23 | Novodigit Sarl | Breath-sensitive digital interface |
US9288840B2 (en) * | 2012-06-27 | 2016-03-15 | Lg Electronics Inc. | Mobile terminal and controlling method thereof using a blowing action |
US9147398B2 (en) * | 2013-01-23 | 2015-09-29 | Nokia Technologies Oy | Hybrid input device for touchless user interface |
CN104853025B (zh) * | 2014-02-18 | 2017-11-14 | 联发科技(新加坡)私人有限公司 | 一种移动终端的控制方法及装置 |
WO2017111811A1 (en) * | 2015-12-26 | 2017-06-29 | Intel Corporation | Interfacing with a computing device |
-
2021
- 2021-01-12 JP JP2021574596A patent/JPWO2021153214A1/ja active Pending
- 2021-01-12 WO PCT/JP2021/000674 patent/WO2021153214A1/ja unknown
- 2021-01-12 US US17/793,415 patent/US20230045458A1/en not_active Abandoned
- 2021-01-12 EP EP21748097.9A patent/EP4099317A4/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013542470A (ja) * | 2009-09-11 | 2013-11-21 | ノヴォディジット・ソシエテ・ア・レスポンサビリテ・リミテ | 人間の呼気を使用してデバイスのユーザインタフェースを制御するための方法およびシステム |
JP2014092892A (ja) * | 2012-11-02 | 2014-05-19 | Nec Casio Mobile Communications Ltd | 入力装置、入力制御方法及びプログラム |
JP2017211596A (ja) | 2016-05-27 | 2017-11-30 | トヨタ自動車株式会社 | 音声対話システムおよび発話タイミング決定方法 |
JP2019028702A (ja) * | 2017-07-28 | 2019-02-21 | シャープ株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Non-Patent Citations (1)
Title |
---|
See also references of EP4099317A4 |
Also Published As
Publication number | Publication date |
---|---|
EP4099317A4 (en) | 2023-07-05 |
EP4099317A1 (en) | 2022-12-07 |
JPWO2021153214A1 (ja) | 2021-08-05 |
US20230045458A1 (en) | 2023-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11430428B2 (en) | Method, apparatus, and storage medium for segmenting sentences for speech recognition | |
US10909982B2 (en) | Electronic apparatus for processing user utterance and controlling method thereof | |
US11435980B2 (en) | System for processing user utterance and controlling method thereof | |
JP2022537011A (ja) | 人工知能に基づく音声駆動アニメーション方法及び装置、デバイス及びコンピュータプログラム | |
US11145299B2 (en) | Managing voice interface devices | |
KR20190094307A (ko) | 다른 기기의 동작을 제어할 수 있는 인공 지능 기기 및 그의 동작 방법 | |
US11314548B2 (en) | Electronic device and server for processing data received from electronic device | |
KR102348758B1 (ko) | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 | |
KR20170054707A (ko) | 전자 장치 및 그 제어 방법 | |
JPWO2016157650A1 (ja) | 情報処理装置、制御方法、およびプログラム | |
EP2959474A2 (en) | Hybrid performance scaling or speech recognition | |
WO2019107145A1 (ja) | 情報処理装置、及び情報処理方法 | |
KR102391298B1 (ko) | 음성 인식 서비스를 제공하는 전자 장치 및 그 방법 | |
WO2019077897A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20190090424A (ko) | 사용자 발화 응답 방법 및 이를 지원하는 전자 장치 | |
KR20190002073A (ko) | 기계의 자동 활성을 위한 방법 및 시스템 | |
CN113519022B (zh) | 电子设备及其控制方法 | |
JP2023552704A (ja) | 第2のデバイスの近接性ベースの制御 | |
WO2016206643A1 (zh) | 机器人交互行为的控制方法、装置及机器人 | |
US20200090663A1 (en) | Information processing apparatus and electronic device | |
WO2021153214A1 (ja) | 情報処理装置及び情報処理方法 | |
US12114075B1 (en) | Object selection in computer vision | |
JPWO2020021861A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム | |
KR20190018666A (ko) | 기계의 자동 활성을 위한 방법 및 시스템 | |
CN112823047A (zh) | 用于控制网络应用程序的系统和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21748097 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021574596 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2021748097 Country of ref document: EP Effective date: 20220831 |