WO2019163255A1 - 情報処理装置、情報処理方法、および、プログラム - Google Patents

情報処理装置、情報処理方法、および、プログラム Download PDF

Info

Publication number
WO2019163255A1
WO2019163255A1 PCT/JP2018/044834 JP2018044834W WO2019163255A1 WO 2019163255 A1 WO2019163255 A1 WO 2019163255A1 JP 2018044834 W JP2018044834 W JP 2018044834W WO 2019163255 A1 WO2019163255 A1 WO 2019163255A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
interface
user interface
control unit
information processing
Prior art date
Application number
PCT/JP2018/044834
Other languages
English (en)
French (fr)
Inventor
真一 河野
祐平 滝
広 岩瀬
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/970,080 priority Critical patent/US11803352B2/en
Publication of WO2019163255A1 publication Critical patent/WO2019163255A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 describes a technique for determining the proficiency level of a user's dialogue behavior and changing dialogue control based on the proficiency level.
  • Patent Document 1 does not consider switching the user interface used by the user.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of adaptively switching the user interface used by the user to environmental information.
  • a user interface to be used by a first user is an environment between at least a first user interface using sound and a second user interface different from the first user interface.
  • An information processing apparatus including an interface control unit that switches based on information is provided.
  • the user interface used by the first user is at least between the first user interface using sound and the second user interface different from the first user interface.
  • an information processing method including a processor switching based on environmental information.
  • a user interface that causes the first user to use the computer includes at least a first user interface that uses sound, and a second user interface that is different from the first user interface. Is provided as a program for functioning as an interface control unit that switches based on environment information.
  • the user interface used by the user can be adaptively switched to the environment information.
  • the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • a plurality of components having substantially the same functional configuration are distinguished as the terminal 20a and the terminal 20b as necessary.
  • only the same reference numerals are given.
  • the terminal 20 when there is no need to distinguish between the terminal 20a and the terminal 20b, they are simply referred to as the terminal 20.
  • the information processing system according to the present embodiment includes a server 10, a terminal 20, and a communication network 22.
  • the server 10 is an example of an information processing apparatus according to the present disclosure.
  • the server 10 can control the operation of the terminal 20 via the communication network 22 described later.
  • the server 10 causes the terminal 20 to output a predetermined moving image or predetermined sound based on a user instruction or the like.
  • the terminal 20 outputs various information according to the control of the server 10, for example.
  • the terminal 20 is, for example, a general-purpose PC, a tablet-type terminal, a game machine, a mobile phone such as a smartphone, a portable music player, a speaker, a projector, a wearable device such as an HMD (Head Mounted Display) or a smart watch, an in-vehicle device ( A car navigation device or the like) or a robot (such as a humanoid robot or an autonomous driving vehicle).
  • HMD Head Mounted Display
  • a smart watch such as an in-vehicle device ( A car navigation device or the like) or a robot (such as a humanoid robot or an autonomous driving vehicle).
  • FIG. 2 is a block diagram illustrating a functional configuration example of the terminal 20.
  • the terminal 20 includes a control unit 200, a communication unit 220, a sensor unit 222, an output unit 224, and a storage unit 226.
  • the control unit 200 may include a processing circuit such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the control unit 200 comprehensively controls the operation of the terminal 20.
  • the control unit 200 causes the communication unit 220 to transmit various sensing results sensed by the sensor unit 222 described later. Further, the control unit 200 causes the output unit 224 to output information indicated by the output control information according to the output control information received from the server 10.
  • the sensor unit 222 can include a microphone.
  • the sensor unit 222 can pick up sounds emitted in the surroundings.
  • the sensor unit 222 includes, for example, a camera (image sensor), a distance sensor (for example, a time of flight type sensor, or a stereo camera), a temperature sensor, a biological sensor, an acceleration sensor, an orientation sensor, and a myoelectric sensor. May be further included.
  • the sensor unit 222 may further include a receiver that receives a positioning signal from a positioning satellite such as GPS (Global Positioning System) or GLONASS (Global Navigation Satellite System).
  • GPS Global Positioning System
  • GLONASS Global Navigation Satellite System
  • individual sensors included in the sensor unit 222 may be constantly sensed, periodically sensed, or in a specific case (for example, when an instruction from the control unit 200 is given). ) May only be sensed.
  • the communication unit 220 transmits and receives information to and from other devices by, for example, wireless communication and / or wired communication.
  • the communication unit 220 transmits various sensing results (for example, voice data collected by a microphone) by the sensor unit 222 to the server 10 under the control of the control unit 200. Further, the communication unit 220 receives output control information of various videos and various sounds from the server 10.
  • Output unit 224 The output unit 224 outputs various types of information (video, sound, etc.) under the control of the control unit 200.
  • the output unit 224 may include an audio output unit.
  • the audio output unit includes, for example, a speaker, an earphone, or a headphone.
  • the sound output unit outputs sound (sound, music, etc.) according to the control of the control unit 200.
  • the output unit 224 may have a display unit.
  • the display unit includes, for example, an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), or a projector.
  • the display unit displays (projects or the like) an image according to the control of the control unit 200.
  • Storage unit 226 The storage unit 226 stores various data and various software.
  • the communication network 22 is a wired or wireless transmission path for information transmitted from a device connected to the communication network 22.
  • the communication network 22 may include a public line network such as a telephone line network, the Internet, and a satellite communication network, various LANs including the Ethernet (registered trademark), a wide area network (WAN), and the like.
  • the communication network 22 may include a dedicated network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • the optimum user interface to be used by the user may differ depending on the situation.
  • the optimal user interface varies depending on the ease of voice input such as the volume of ambient noise, the degree of voice input tolerance in the environment where the user is located, the user's physical condition, or the voice usage situation immediately before the user. obtain.
  • the server 10 according to the present embodiment has been created with the above circumstances taken into consideration.
  • the user interface used by the user is at least a first user interface using voice (hereinafter also referred to as “voice UI”) and a second user interface different from the first user interface. Between the user interface (hereinafter also referred to as “second UI”) based on the environment information. Therefore, the user interface suitable for the situation can be used by the user.
  • the environment information includes a detection result of the degree of concentration of the corresponding user, a detection result of the distance between the system (for example, the output unit 224 or the sensor unit 222) and the user,
  • the specific contents of the environmental information will be described later. Hereinafter, the contents of the present embodiment will be described in detail sequentially.
  • FIG. 4 is a block diagram illustrating a functional configuration example of the server 10 according to the present embodiment.
  • the server 10 includes a control unit 100, a communication unit 120, and a storage unit 122.
  • Control unit 100 may include a processing circuit such as a CPU 150 or a GPU described later.
  • the control unit 100 comprehensively controls the operation of the server 10.
  • the control unit 100 includes a recognition unit 102 and an interface control unit 104.
  • the recognition unit 102 performs various recognition processes on various sensing results received from the terminal 20.
  • the recognition unit 102 performs voice recognition on the voice data collected by the terminal 20, and acquires text data corresponding to the voice recognition.
  • the recognition unit 102 performs image recognition on the image captured by the terminal 20, and recognizes each object shown in the image based on the image recognition result. For example, the recognizing unit 102 identifies an individual person shown in the image, and recognizes an individual person's action (for example, whether or not he / she is speaking).
  • Interface control unit 104 switches a user interface to be used by the user between at least the voice UI and a second UI different from the voice UI based on the environment information.
  • the second UI may be a user interface related to one or more of the five senses.
  • the second UI may be a graphical user interface (hereinafter also referred to as a GUI) (for example, a drill-down UI), a gaze user interface (hereinafter also referred to as a gaze UI), or a gesture user interface (hereinafter, referred to as a GUI).
  • a GUI graphical user interface
  • a gaze UI hereinafter also referred to as a gaze UI
  • a gesture user interface hereinafter, referred to as a GUI
  • It may be a visual user interface such as a gesture UI.
  • the second UI may be a tactile user interface such as a touch user interface (hereinafter also referred to as a touch UI).
  • the second UI may be a user interface related to olfaction such as an interface using an aroma diffuser, or may be a user interface related to taste.
  • the interface control unit 104 stores the environment information, the attribute information of the corresponding user stored in the attribute information DB 124 as shown in FIG. 5, for example, and the proficiency DB 126 as shown in FIG.
  • the user interface to be used by the user is switched at least between the voice UI and the second UI based on the combination with the voice UI of the corresponding user or the proficiency level of the second UI.
  • the attribute information DB 124 is a database that stores attribute information of each user.
  • the proficiency level DB 126 is a database in which proficiency levels relating to voice input of each user are stored.
  • the interface control unit 104 can cause the output unit 224 to display a UI screen corresponding to the user interface after switching. For example, when the user interface to be used by the user is switched to the voice UI, the interface control unit 104 causes the output unit 224 to display the voice UI screen 40a as illustrated in FIG. In addition, when the user interface to be used by the user is switched to a GUI (for example, a drill-down UI), the interface control unit 104 displays a GUI screen 40b on the output unit 224 as illustrated in FIG.
  • a GUI for example, a drill-down UI
  • the interface control unit 104 uses at least a user interface to be used by the user based on the attribute information (for example, age) of the user stored in the attribute information DB 124. You may switch between the voice UI and the second UI. As an example, when other conditions are the same and the user is “child”, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. When other conditions are the same and the user is “adult”, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • attribute information for example, age
  • FIG. 5 is a diagram showing a configuration example of the attribute information DB 124.
  • a user name 1240 may store the name of each user.
  • age 1242 can store the age of each user.
  • gender 1244 can store the gender of each user.
  • the interface control unit 104 sets at least the voice UI and the user interface to be used by the user based on the user's proficiency stored in the proficiency level DB 126. You may switch between two UIs.
  • the interface control unit 104 is used by the corresponding user to operate the input unit (for example, a controller or a mouse) connected to the terminal 20 by wire or wirelessly. Based on whether or not, the user interface to be used by the user may be switched at least between the voice UI and the second UI. As an example, when the user is accustomed to the operation on the input unit, the interface control unit 104 may determine the user interface to be used by the user as the GUI. Further, when the user is not familiar with the operation on the input unit, the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the interface control unit 104 uses at least the voice UI and the second UI as a user interface to be used by the user based on the length of the game usage history of the user. You may switch between UIs. For example, when the length of the game usage history of the user is equal to or greater than a predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the GUI. When the length of the user's game usage history is less than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the interface control unit 104 uses at least the voice UI and the second user interface to be used by the user based on the length of the voice input history of the user. You may switch between UIs. For example, when the length of the voice input history of the user is equal to or greater than a predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. Further, when the length of the voice input history of the user is less than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the interface control unit 104 sets at least the voice UI and the user interface to be used by the user based on the length of usage history of the user for the target service. You may switch between 2nd UI. For example, when the length of usage history of the corresponding user for the target service is equal to or greater than a predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. Further, when the length of usage history of the corresponding user for the target service is less than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • FIG. 6 is a diagram illustrating a configuration example of the proficiency level DB 126.
  • a user name 1260 may store the name of each user.
  • the proficiency level 1262 of the operation of the game machine can store the proficiency level of the corresponding user regarding the operation of the game machine (for example, whether or not he / she is used to it).
  • the game usage history 1264 may store the game usage history of the corresponding user.
  • the proficiency level 1266 for voice input may store the proficiency level of the corresponding user regarding voice input (for example, whether or not he / she is accustomed).
  • the target service usage history 1268 may store the usage history of the target service of the corresponding user.
  • the environment information may include a detection result of the degree of concentration of the corresponding user.
  • the interface control unit 104 determines a user interface to be used by the user based on a comparison between the sensed concentration level of the corresponding user and a predetermined threshold. You may switch between the voice UI and the second UI. For example, when the degree of concentration of the sensed corresponding user is equal to or greater than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. Further, when the degree of concentration of the corresponding user sensed is less than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the user's concentration level may be determined based on, for example, whether or not the position of the user's point of interest within the video game display screen is small during the video game. Good. For example, when the change in the position of the user's point of interest in the display screen is small, it may be determined that the concentration level of the user is high. In addition, when the variation of the position of the user's point of interest in the display screen is large, it may be determined that the degree of concentration of the user is low. Alternatively, the degree of concentration of the user may be determined based on whether or not the degree of increase in the user's heart rate per unit time is equal to or greater than a predetermined threshold.
  • the degree of increase in the user's heart rate per unit time when it is detected that the degree of increase in the user's heart rate per unit time is greater than or equal to a predetermined threshold, it may be determined that the user's concentration is high. Further, when it is detected that the degree of increase in the user's heart rate per unit time is less than the predetermined threshold value, it may be determined that the user's concentration is low.
  • the environment information may include a detection result of the distance between the corresponding system (for example, the output unit 224 or the sensor unit 222) and the user.
  • the interface control unit 104 determines the user interface to be used by the user based on a comparison between a sensing result of a distance between the system and the user and a predetermined threshold.
  • the voice UI and the second UI may be switched. For example, when the sensing result of the distance between the corresponding system and the user is equal to or greater than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. Further, when the sensing result of the distance between the corresponding system and the user is less than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the interface control unit 104 may determine the user interface to be used by the user as the voice UI. If it is detected that the distance between the user and the system is continuously less than the predetermined distance, the interface control unit 104 determines the user interface to be used by the user as the GUI. Also good.
  • the environmental information may include a detection result of the corresponding user's posture.
  • the interface control unit 104 sets the user interface to be used by the user to the voice UI. You may decide. Further, when it is detected that other conditions are the same and the corresponding user is standing, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. . Further, when it is detected that other conditions are the same and the corresponding user is lying, for example, as illustrated in FIG. 7, the interface control unit 104 causes the user interface to be used by the user. May be determined as the voice UI. Further, when it is detected that other conditions are the same and the corresponding user is sitting, for example, as illustrated in FIG. 8, the interface control unit 104 causes the user interface to be used by the user. May be determined as the GUI.
  • the interface control unit 104 may determine the voice UI.
  • a specific example of such a case is a case where the user is cooking.
  • the interface control unit 104 is The user interface to be used by the user may be determined by the GUI.
  • a specific example of such a case is when a user is sitting on a sofa and reading a book.
  • the environmental information may include a detection result related to the user's consciousness.
  • the interface control unit 104 determines the user interface to be used by the user as the voice UI. May be. Further, when it is detected that other conditions are the same and the user's consciousness is not concentrated (for example, it is blurred), the interface control unit 104 uses the user.
  • the user interface to be used may be determined by the GUI.
  • the environment information may include an estimation result of an action purpose of the corresponding user (for example, an estimation result of a user interface that the user wants to use).
  • the interface control unit 104 may determine that the user uses the user interface indicated by the estimation result of the user interface that the user wants to use.
  • the user interface that the user wants to use can be estimated using the following method, for example. For example, when it is detected that the user repeatedly hits a button in a predetermined controller connected to the terminal 20 by wire or wireless while loading an application (for example, a game) that the user intends to use.
  • the control unit 100 may estimate a user interface that the user wants to use as a GUI. Further, when it is detected that the user has spoken a predetermined activation word corresponding to the voice UI a plurality of times during activation of the application or utilization target device of the user, the control unit 100
  • the user interface that the user wants to use may be estimated as a voice UI.
  • the environmental information may include a result of detecting the fatigue level of the corresponding user.
  • the interface control unit 104 uses the user's fatigue degree calculated based on the sensing result and a predetermined threshold value to make the user use the user.
  • the interface may be switched at least between the voice UI and the second UI. For example, when the calculated fatigue level of the user is equal to or greater than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the GUI. When the calculated fatigue level of the user is less than the predetermined threshold, the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the fatigue level of the user while the user is playing the video game may be determined based on whether or not the duration of the video game by the user exceeds a predetermined time. For example, when the duration of the video game by the user exceeds the predetermined time, it may be determined that the fatigue level of the user is high. In addition, when the duration of the video game by the user is within the predetermined time, it may be determined that the fatigue level of the user is low.
  • the environmental information may include a detection result related to the field of view of the corresponding user.
  • the interface control unit 104 is based on the determination result based on the sensing result by the terminal 20 regarding whether or not the user can visually recognize the front of the user.
  • the user interface used by the user may be switched at least between the voice UI and the second UI. For example, when it is determined that the user cannot see the front of the user, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. When it is determined that the user can visually recognize the front of the user, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • Whether or not the user can visually recognize the front of the user is determined based on, for example, the degree of opening of the user's pupil or the presence or absence of an obstruction in front of the user's eyes. May be.
  • the environment information may include information indicating a usage status of voice input by the corresponding user (for example, a usage status of voice input using another device).
  • the interface control unit 104 causes the user to use the user based on the detection result regarding whether or not the user has used the voice input within a predetermined time.
  • the interface may be switched at least between the voice UI and the second UI. For example, when it is determined that the user has used voice input within the predetermined time from the present time, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. Further, when it is determined that the user has not used voice input within the predetermined time from the present time, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the control unit 100 first determines the user 2 based on a sensing result (for example, a captured image by a camera included in the sensor unit 222) received from the terminal 20 within a predetermined time from the present by the sensor unit 222. Is determined to have used voice input immediately before.
  • the interface control part 104 may determine making the user 2 use audio
  • the interface control unit 104 may cause the terminal 20 (output unit 224) to display a voice UI screen 40a.
  • the control unit 100 uses the voice input immediately before the user 2 based on a sensing result (for example, a captured image) within a predetermined time from the current time received by the sensor unit 222. Judge that it was not. And the interface control part 104 may determine making the user 2 use GUI during cooking based on the result of the said determination. Furthermore, as illustrated in FIG. 10, the interface control unit 104 may display a GUI screen 40 b on the terminal 20 (output unit 224).
  • a sensing result for example, a captured image
  • the environmental information can include a sensing result of noise around the corresponding system (for example, the output unit 224 or the sensor unit 222).
  • the interface control unit 104 determines the user interface to be used by the user based on a comparison between a sensing result of noise volume around the corresponding system and a predetermined threshold.
  • the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the noise is, for example, the speech of another user located around the target user, the output sound from a device other than the terminal 20 (for example, a television receiver), the monologue of the target user, or the pet's It may include animal calls and the like.
  • a frequently used word eg, “Eh. ”Or“ Majiyo ”etc.
  • OOD OutOfDomain
  • the utterance may be determined to be monologue. .
  • the volume of the utterance is relatively small.
  • the output unit 224 outputs a sound that cancels the surrounding noise (for example, a sound having a phase opposite to that of the noise) by a technique such as echo cancellation or noise cancellation.
  • the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the environment information may include information indicating approval or disapproval regarding use of the user's voice by other users located in the periphery of the user (in real space).
  • the interface control unit 104 may determine the voice UI as a user interface to be used by the user. Further, when it is determined that other conditions are the same and other users located around the user have a negative intention regarding the voice use of the user, the interface control unit 104 The GUI may determine the user interface to be used by the user.
  • the control unit 100 recognizes the sound collection result of the utterance 60a received from the terminal 20 by the sensor unit 222, and the meaning corresponding to the utterance 60a is positive with respect to the voice usage of the user 2b.
  • the interface control unit 104 may determine, for example, that the user 2b uses the voice UI when the user 2b tries to cook on another day. At this time, as shown in FIG. 11, the voice UI screen 40 a may be displayed on the terminal 20 (the output unit 224).
  • the control unit 100 recognizes the sound collection result of the utterance 60b received from the terminal 20 by the sensor unit 222, and the meaning corresponding to the utterance 60b is negative with respect to the user's 2b voice use. Judgment is significant.
  • the interface control unit 104 may determine, for example, that the user 2b uses the GUI when the user 2b tries to cook on another day. At this time, as shown in FIG. 12, the interface control unit 104 may display the GUI screen 40 b on the terminal 20 (the output unit 224).
  • the environment information may include information indicating the status of other users located around the user (in real space).
  • the interface control unit 104 uses at least the voice UI and the second UI as a user interface to be used by the user based on the information indicating the status of the other user. You may switch between UIs. For example, when it is determined that at least one of the other users is concentrated on the work, the interface control unit 104 may determine the user interface to be used by the user as the GUI. If it is determined that all of the other users are not working or not working, the interface control unit 104 determines the user interface to be used by the user as a voice UI. Also good.
  • the environment information may include at least one of pieces of information indicating approval / disapproval regarding use of the user's voice by another user who is using the virtual reality application.
  • the other user may be another user located in the vicinity of the user (in real space) or another user who is using the virtual reality application together. Also good.
  • the interface control unit 104 may determine the user interface to be used by the user as the voice UI. Also, when it is determined that other conditions are the same and the other user has a negative intention regarding the voice usage of the user during the use of the virtual reality application of the user. The interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the interface control unit 104 may determine the type of user interface to be used by the user based on a combination of a plurality of types of information included in the environment information described above. For example, the interface control unit 104 evaluates the “degree of noise around the system” and the “distance between the system and the user” preferentially over other types of information among the plurality of types of information. The type of user interface to be used by the user may be determined.
  • the interface control unit 104 prioritizes “low noise volume” over “low user concentration”, thereby determining the user interface to be used by the user as the voice UI. May be. Further, it is assumed that the user is busy and the noise volume is larger than a predetermined threshold. In this case, the interface control unit 104 preferentially evaluates “the noise volume is large” over “the user's movement is large”, so that the user interface to be used by the user is determined as the GUI. Good.
  • the user may be able to select information that is preferentially evaluated over other types of information among the plurality of types of information. For example, if the user's child is an examinee and the months prior to the date of the test, the most preferentially evaluated information among the multiple types of information is “the voice usage of the user by other users” Pros and cons ”.
  • the communication unit 120 can be configured to include a communication device 166 described later.
  • the communication unit 120 transmits and receives information to and from other devices. For example, the communication unit 120 transmits control information for executing switching of the user interface determined by the interface control unit 104 to the terminal 20 according to the control of the interface control unit 104. Further, the communication unit 120 receives various sensing results from the terminal 20.
  • Storage unit 122 can be configured to include a storage device 164 described later.
  • the storage unit 122 stores various data and various software. For example, as illustrated in FIG. 4, the storage unit 122 stores an attribute information DB 124 and a proficiency level DB 126.
  • FIG. 13 is a flowchart illustrating an example of a processing flow according to the present embodiment.
  • the control unit 100 of the server 10 acquires user information of a user who uses the corresponding system (for example, the terminal 20).
  • the control unit 100 first identifies a user who uses the corresponding system based on information (for example, a captured image) received from the terminal 20, and stores the user information of the identified user, for example, the storage unit 122. (S101).
  • control unit 100 acquires attribute information of each user who uses the corresponding system from the attribute information DB 124 (S103).
  • control unit 100 acquires the proficiency level of each user related to the UI type from the proficiency level DB 126 (S105).
  • control unit 100 acquires user status information of each user. For example, for each user, the control unit 100 specifies the status of the user based on various sensing results by the terminal 20, and acquires the specified result as the status information of the user (S107).
  • control unit 100 determines a target user (for example, a target user of the system) based on a predetermined standard (S109).
  • control unit 100 specifies the surrounding situation of the corresponding system based on various sensing results by the terminal 20 (S111).
  • the interface control unit 104 uses the target user based on the environment information corresponding to the user status information of the user acquired in the latest S107 and the peripheral status of the system specified in the latest S111.
  • the user interface to be executed is determined (S113).
  • the interface control unit 104 presents the user interface determined in S113 to the target user so that the target user is used (S115).
  • the interface control unit 104 determines whether or not to end the presentation of the user interface to the target user (S117). If it is determined that the presentation of the user interface is to be terminated (S117: Yes), the flow of the process is terminated.
  • the server 10 repeats the processing after S107 again.
  • the server 10 switches the user interface used by the user between at least the voice UI and the second UI based on the environment information. For this reason, it is possible to allow the user to use a user interface most suitable for the situation.
  • the server 10 uses an optimum user interface according to the volume of ambient noise, the degree of sound input tolerance in the environment where the user is located, the user's physical condition, or the voice usage situation immediately before the user. Can be made. As a result, user convenience can be improved.
  • the environment information is not limited to the example described above.
  • the environment information may include information indicating a user's action situation.
  • the interface control unit 104 may determine the type of user interface to be used by the user based on the distance between a microphone included in the sensor unit 222 and the user's mouth, for example. For example, when the distance between the microphone and the user's mouth is equal to or greater than a predetermined distance, the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the predetermined distance may be determined based on, for example, performance information of the corresponding microphone.
  • the interface control unit 104 may determine the type of user interface to be used by the user based on the distance between the input unit and the user's body. For example, when the distance between the input unit and the user's body is equal to or greater than a predetermined distance, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. When the distance between the input unit and the user's body is less than the predetermined distance, the interface control unit 104 may determine the user interface to be used by the user as the GUI.
  • the interface control unit 104 may determine the type of user interface to be used by the user based on whether the user is in conversation. For example, when the user is in a conversation, the interface control unit 104 may determine the user interface to be used by the user as the GUI. When the user is not talking, the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the environment information may include information indicating the type of environment where the user is located. For example, while the user is on the train, the user can be tempted to speak. Therefore, while the user is on the train, the interface control unit 104 may determine the user interface to be used by the user as the second UI (for example, the gesture UI or the line-of-sight UI). When the user gets off the train, the interface control unit 104 may seamlessly switch the user interface to be used by the user from the gesture UI to the voice UI.
  • the second UI for example, the gesture UI or the line-of-sight UI
  • the interface control unit 104 may determine the type of user interface to be used by the user based on the seat on which the user is sitting. For example, when the user is sitting in the driver's seat (that is, when he is a driver), the user needs to hold the handle. Therefore, in this case, the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the interface control unit 104 may determine the type of user interface to be used by the user based on who the passenger is. For example, when the passenger is a family member or a friend of the user, the interface control unit 104 may determine the user interface to be used by the user as the voice UI. For example, when the user is a taxi driver and the passenger is a customer, the interface control unit 104 may determine the user interface to be used by the user as the line of sight UI. According to this method, since the user does not need to speak to operate the system, it can be avoided that the customer is disturbed.
  • the interface control unit 104 may determine the user interface to be used by the user as the voice UI.
  • the interface control unit 104 can switch the user interface to be used by the user between at least the voice UI and the second UI based only on the user attribute information.
  • the interface control unit 104 determines a user interface to be used by the target user determined in S205 based only on the attribute information of the user (S207).
  • S209 shown in FIG. 14 is the same as S115 shown in FIG.
  • Interface control unit 104 determines the type of user interface to be used by the user based on, for example, a user operation on the user interface selection screen or a user operation on the input unit.
  • the user selects a desired user interface by pressing a selection button displayed on the selection screen. Then, the interface control unit 104 determines that the user is to use the selected user interface (S301).
  • S303 shown in FIG. 15 is the same as S115 shown in FIG.
  • the interface control unit 104 allows the user to use the user based on the determination result regarding which user interface is to be used by the user according to the service or the system to be used by the user.
  • the interface is switched at least between the voice UI and the second UI.
  • the interface control unit 104 changes the user interface to be used by the user to the predetermined user interface ( (Force) switch.
  • the target service is a service related to shopping (such as EC (Electronic Commerce) service), and it is determined that the target service causes the user to use the voice UI at the time of shopping, for example. To do.
  • the interface control unit 104 may forcibly switch the user interface used by the user to the voice UI.
  • the target service (or target system) recognizes that the sensitivity of the microphone included in the sensor unit 222 is extremely poor
  • the target service or target system It may be determined that the user uses the GUI. Then, the interface control unit 104 forcibly switches the user interface to be used by the user to the GUI based on the determination result.
  • the target service or target system may be a service or system that the target user is using or intends to use.
  • the target service or the target system may be managed by the server 10 or may be managed by another device (not shown) connected to the communication network 22.
  • the target service or the target system determines the type of user interface to be used by the user based on a predetermined criterion. Then, the interface control unit 104 determines to allow the user to use the determined user interface (S401).
  • S403 shown in FIG. 16 is the same as S115 shown in FIG.
  • Application Example 5 The application example 4 has been described above. Next, application example 5 according to the present embodiment will be described. As will be described later, according to the application example 5, the type of the user interface can be appropriately determined in a scene where a plurality of users use one user interface together.
  • Interface control unit 104 uses a user interface to be used by a plurality of users based on a sensing result of each state of the plurality of users when the plurality of users are located within a predetermined range. , And at least switch between the voice UI and the second UI. For example, the interface control unit 104 determines to allow the plurality of users to use a user interface that is determined to be easier to use between the voice UI and the second UI.
  • the above functions will be described in more detail with reference to FIG.
  • the user 2a is lying down and the user 2b is sitting on the sofa.
  • the user interface type most suitable for the user may be a voice UI.
  • the most suitable user interface type for the user may be GUI.
  • the interface control unit 104 determines that the GUI is easier to use than the voice UI, and causes two users to use the GUI based on the determination result. May be determined. Further, as illustrated in FIG. 17, the interface control unit 104 may display the GUI screen 40 b on the terminal 20 (output unit 224).
  • the server 10 includes a CPU 150, a ROM (Read Only Memory) 152, a RAM (Random Access Memory) 154, a bus 156, an interface 158, an input device 160, an output device 162, a storage device 164, and A communication device 166 is provided.
  • the CPU 150 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the server 10 according to various programs. Further, the CPU 150 realizes the function of the control unit 100 in the server 10.
  • the CPU 150 is configured by a processor such as a microprocessor.
  • the ROM 152 stores programs used by the CPU 150 and control data such as calculation parameters.
  • the RAM 154 temporarily stores, for example, a program executed by the CPU 150 and data in use.
  • the bus 156 includes a CPU bus and the like.
  • the bus 156 connects the CPU 150, the ROM 152, and the RAM 154 to each other.
  • the interface 158 connects the input device 160, the output device 162, the storage device 164, and the communication device 166 with the bus 156.
  • the input device 160 includes, for example, input means for a user to input information such as a touch panel, buttons, switches, levers, and microphones, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 150. Composed.
  • the output device 162 includes, for example, a display such as an LCD or an OLED, or a display device such as a projector.
  • the output device 162 includes an audio output device such as a speaker.
  • the storage device 164 is a data storage device that functions as the storage unit 122.
  • the storage device 164 includes, for example, a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, or a deletion device that deletes data recorded on the storage medium.
  • the communication device 166 is a communication interface configured by a communication device (for example, a network card) for connecting to the communication network 22 or the like, for example.
  • the communication device 166 may be a wireless LAN compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device that performs wired communication.
  • the communication device 166 functions as the communication unit 120.
  • the configuration of the terminal 20 is not limited to the example illustrated in FIG.
  • the terminal 20 may include all the components included in the control unit 100 of the server 10 described above.
  • the information processing apparatus according to the present disclosure may be the terminal 20.
  • the server 10 does not necessarily need to be installed.
  • the information processing apparatus is not limited to the server 10 and may be another apparatus including all the components included in the control unit 100 of the server 10 described above.
  • the information processing apparatus includes a general-purpose PC, a tablet terminal, a game machine, a mobile phone such as a smartphone, a portable music player, a speaker, a projector, a wearable device such as an HMD or a smart watch, an in-vehicle apparatus (a car navigation apparatus, etc.) Or a robot (such as a humanoid robot or an autonomous vehicle).
  • each step in the processing flow of the above-described embodiment does not necessarily have to be processed in the order described.
  • the steps may be processed by changing the order as appropriate.
  • Each step may be processed in parallel or individually instead of being processed in time series. Further, some of the described steps may be omitted, or another step may be further added.
  • Control unit An information processing apparatus comprising: (2) The environment information includes a detection result of the concentration degree of the first user, an output unit that outputs information related to the user interface, or a distance between the sensor unit that performs sensing related to the first user and the first user.
  • a detection result of the first user includes at least one of information indicating approval or disapproval for voice use of the first user by another user in the use of virtual reality applications, the information processing apparatus according to (1).
  • the information processing apparatus is a graphical user interface, a touch user interface, a line-of-sight user interface, or a gesture user interface.
  • the information processing apparatus is the graphical user interface.
  • the interface control unit causes the first user to use the interface based on a determination result regarding which user interface is to be used by the first user according to a service or application targeted for use by the first user.
  • the information processing apparatus according to (3) or (4), wherein a user interface is switched at least between the first user interface and the second user interface.
  • the interface control unit uses the first user interface as the first user interface.
  • the information processing apparatus determines to be used by a user.
  • the interface control unit further sets a user interface to be used by the first user based on the attribute information of the first user between at least the first user interface and the second user interface.
  • the information processing apparatus according to any one of (3) to (6), wherein switching is performed.
  • the interface control unit further includes at least a first user interface to be used by the first user based on a proficiency level of the first user interface or the second user interface of the first user.
  • the information processing apparatus according to (7), wherein switching between the user interface and the second user interface is performed.
  • the environmental information includes a detection result of a distance between the output unit or the sensor unit and the first user, When the distance between the output unit or the sensor unit and the first user is equal to or greater than a predetermined threshold, the interface control unit uses a user interface to be used by the first user as the first user interface. Switch to When the distance between the output unit or the sensor unit and the first user is less than the predetermined threshold, the interface control unit sets a user interface to be used by the first user to the second user.
  • the information processing apparatus according to any one of (3) to (8), wherein the information processing apparatus is switched to an interface.
  • the environmental information includes a sensing result of noise around the output unit or the sensor unit,
  • the interface control unit uses a user interface to be used by the first user as the second user interface.
  • the interface control unit uses a user interface to be used by the first user as the first user.
  • the information processing apparatus according to any one of (3) to (8), wherein the information processing apparatus is switched to an interface.
  • the environmental information includes a detection result of the concentration level of the first user, If the concentration level of the sensed first user is equal to or greater than a predetermined threshold, the interface control unit switches the user interface to be used by the first user to the first user interface, When the concentration level of the sensed first user is less than the predetermined threshold, the interface control unit switches the user interface to be used by the first user to the second user interface.
  • the information processing apparatus according to any one of (8).
  • the environment information includes information indicating approval / disapproval regarding the voice usage of the first user by the other user, If it is determined that the other user has an affirmative intention regarding the voice usage of the first user, the interface control unit sets a user interface to be used by the first user to the first user.
  • the interface control unit sets a user interface to be used by the first user to the first user.
  • the information processing apparatus according to any one of (3) to (8), wherein the information processing apparatus is switched to a user interface of 2. (13)
  • the environmental information includes information indicating the status of the other user, When it is determined that at least one of the other users is concentrated on work, the interface control unit switches the user interface to be used by the first user to the second user interface, When it is determined that all of the other users are not concentrated on the work or are not working, the interface control unit causes a user interface to be used by the first user to the first user.
  • the information processing apparatus according to any one of (3) to (8), wherein the information interface is switched to a user interface.
  • the environmental information includes a detection result of the posture of the first user, When it is detected that the first user is standing, the interface control unit switches the user interface to be used by the first user to the first user interface, When it is detected that the first user is sitting, the interface control unit switches the user interface to be used by the first user to the second user interface, (3) to (3) The information processing apparatus according to any one of 8).
  • the environmental information includes a detection result relating to the field of view of the first user, When it is determined that the first user cannot see the front of the first user, the interface control unit uses a user interface to be used by the first user as the first user interface.
  • the interface control unit uses a user interface to be used by the first user as the second user interface.
  • the information processing apparatus according to any one of (3) to (8), wherein switching is performed.
  • the environment information includes information indicating a usage status of voice input by the first user, If the first user has used voice input within a predetermined time, the interface control unit switches the user interface to be used by the first user to the first user interface, If the first user has not used voice input within the predetermined time, the interface control unit switches the user interface to be used by the first user to the second user interface.
  • the information processing apparatus according to any one of (3) to (8).
  • the interface control unit detects the sensing result of the state of the first user and the sensing result of the state of the second user.
  • the user interfaces to be used by the first user and the second user are switched between at least the first user interface and the second user interface based on the above (3) to (16 ).
  • the information processing apparatus according to any one of (18)
  • the interface control unit causes the first user and the second user to use a user interface that is determined to be easier to use between the first user interface and the second user interface.
  • the user interface to be used by the first user is at least between the first user interface using voice and the second user interface different from the first user interface based on the environment information.
  • Switching Including an information processing method.
  • Control unit Program to function as.
  • server 20 terminal 22 communication network 100, 200 control unit 102 recognition unit 104 interface control unit 120, 220 communication unit 122, 226 storage unit 124 attribute information DB 126 Proficiency DB 222 Sensor unit 224 Output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Software Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザーに使用させるユーザーインターフェースを環境情報に適応的に切り替えることが可能な、情報処理装置、情報処理方法、および、プログラムを提案する。 【解決手段】第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、環境情報に基づいて切り替えるインターフェース制御部、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、および、プログラム
 本開示は、情報処理装置、情報処理方法、および、プログラムに関する。
 従来、例えば汎用PC(Personal Computer)などの情報処理装置に対する操作性の向上を目的として、UI(User Interface)に関する研究が行われている。
 例えば、下記特許文献1には、ユーザーの対話行動の習熟度を判定し、そして、当該習熟度に基づいて対話制御を変化させる技術が記載されている。
国際公開第2010/84881号
 しかしながら、特許文献1に記載の技術では、ユーザーに使用させるユーザーインターフェースを切り替えることは考慮されていない。
 そこで、本開示では、ユーザーに使用させるユーザーインターフェースを環境情報に適応的に切り替えることが可能な、新規かつ改良された情報処理装置、情報処理方法、および、プログラムを提案する。
 本開示によれば、第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、環境情報に基づいて切り替えるインターフェース制御部、を備える、情報処理装置が提供される。
 また、本開示によれば、第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、プロセッサが環境情報に基づいて切り替えること、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、環境情報に基づいて切り替えるインターフェース制御部、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、ユーザーに使用させるユーザーインターフェースを環境情報に適応的に切り替えることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態に係る情報処理システムの構成例を示した説明図である。 同実施形態に係る端末20の機能構成例を示したブロック図である。 同実施形態に係る環境情報の構成例を概略的に示した図である。 同実施形態に係るサーバ10の機能構成例を示したブロック図である。 同実施形態に係る属性情報DB124の構成例を示した図である。 同実施形態に係る習熟度DB126の構成例を示した図である。 同実施形態に係る、ユーザーに使用させるユーザーインターフェースの切り替え例を示した図である。 同実施形態に係る、ユーザーに使用させるユーザーインターフェースの切り替え例を示した図である。 同実施形態に係る、ユーザーに使用させるユーザーインターフェースの切り替え例を示した図である。 同実施形態に係る、ユーザーに使用させるユーザーインターフェースの切り替え例を示した図である。 同実施形態に係る、ユーザーに使用させるユーザーインターフェースの切り替え例を示した図である。 同実施形態に係る、ユーザーに使用させるユーザーインターフェースの切り替え例を示した図である。 同実施形態に係る処理の流れの一例を示した図である。 同実施形態の応用例2に係る処理の流れの一例を示した図である。 同実施形態の応用例3に係る処理の流れの一例を示した図である。 同実施形態の応用例4に係る処理の流れの一例を示した図である。 同実施形態の応用例5に係る、ユーザーに使用させるユーザーインターフェースの切り替え例を示した図である。 サーバ10のハードウェア構成例を示した図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成要素を、必要に応じて端末20aおよび端末20bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、端末20aおよび端末20bを特に区別する必要が無い場合には、単に端末20と称する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.情報処理システムの構成
 2.実施形態の詳細な説明
 3.応用例
 4.ハードウェア構成
 5.変形例
<<1.情報処理システムの構成>>
 まず、本開示の実施形態に係る情報処理システムの構成例について、図1を参照して説明する。図1に示すように、本実施形態に係る情報処理システムは、サーバ10、端末20、および、通信網22を有する。
 <1-1.サーバ10>
 サーバ10は、本開示に係る情報処理装置の一例である。サーバ10は、後述する通信網22を介して、端末20の動作を制御し得る。例えば、サーバ10は、ユーザの指示などに基づいて、所定の動画や所定の音声を端末20に出力させる。
 <1-2.端末20>
 端末20は、例えばサーバ10の制御に従って、各種の情報を出力する。この端末20は、例えば、汎用PC、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、スピーカ、プロジェクタ、例えばHMD(Head Mounted Display)やスマートウォッチなどのウェアラブルデバイス、車載装置(カーナビゲーション装置など)、または、ロボット(例えばヒューマノイド型ロボットまたは自動運転車など)であってもよい。
 ここで、図2を参照して、端末20の機能構成について説明する。図2は、端末20の機能構成例を示したブロック図である。図2に示したように、端末20は、制御部200、通信部220、センサ部222、出力部224、および、記憶部226を有する。
 {1-2-1.制御部200}
 制御部200は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。制御部200は、端末20の動作を統括的に制御する。例えば、制御部200は、後述するセンサ部222によりセンシングされた各種のセンシング結果をサーバ10へ通信部220に送信させる。また、制御部200は、サーバ10から受信される出力制御情報に従って、当該出力制御情報が指示する情報を出力部224に出力させる。
 {1-2-2.センサ部222}
 センサ部222は、マイクロフォンを有し得る。センサ部222は、周囲で発せられた音声を収音し得る。
 また、センサ部222は、例えば、カメラ(イメージセンサ)、距離センサ(例えばtime of flight方式のセンサ、または、ステレオカメラなど)、温度センサ、生体センサ、加速度センサ、方位センサ、および、筋電センサのうちの少なくとも一つをさらに含んでもよい。また、センサ部222は、例えばGPS(Global Positioning System)やGLONASS(Global Navigation Satellite System)などの測位衛星から測位信号を受信する受信機をさらに含んでもよい。
 なお、センサ部222に含まれる個々のセンサは、常時センシングをしてもよいし、定期的にセンシングしてもよいし、または、特定の場合(例えば制御部200からの指示があった場合など)にのみセンシングしてもよい。
 {1-2-3.通信部220}
 通信部220は、例えば無線通信および/または有線通信により、他の装置との間で情報の送受信を行う。例えば、通信部220は、制御部200の制御に従って、センサ部222による各種のセンシング結果(例えばマイクロフォンにより収音された音声データなど)をサーバ10へ送信する。また、通信部220は、各種の映像や各種の音の出力制御情報をサーバ10から受信する。
 {1-2-4.出力部224}
 出力部224は、制御部200の制御に従って各種の情報(映像や音など)を出力する。出力部224は、音声出力部を有し得る。当該音声出力部は、例えばスピーカ、イヤフォン、または、ヘッドフォンなどを含んで構成される。当該音声出力部は、制御部200の制御に従って音(音声や音楽など)を出力する。
 さらに、出力部224は、表示部を有し得る。当該表示部は、例えば、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)など)、または、プロジェクタなどを含んで構成される。当該表示部は、制御部200の制御に従って映像を表示(投影など)する。
 {1-2-5.記憶部226}
 記憶部226は、各種のデータや各種のソフトウェアを記憶する。
 <1-3.通信網22>
 通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 <1-4.課題の整理>
 以上、本実施形態に係る情報処理システムの構成について説明した。ところで、ユーザーが使用すべき最適なユーザーインターフェースは、状況に応じて異なり得る。例えば、周辺の雑音の音量などの音声入力の容易さ、ユーザーが位置する環境における音声入力の許容度合い、ユーザーの身体状況、または、ユーザーの直前の音声利用状況などによって、最適なユーザーインターフェースは異なり得る。
 そこで、上記事情を一着眼点にして、本実施形態に係るサーバ10を創作するに至った。本実施形態に係るサーバ10は、ユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェース(以下では「音声UI」とも称する)と、第1のユーザーインターフェースとは異なる第2のユーザーインターフェース(以下では「第2のUI」とも称する)との間で環境情報に基づいて切り替えることが可能である。このため、状況に適したユーザーインターフェースをユーザーに使用させることができる。
 ここで、当該環境情報は、例えば図3に示したように、該当のユーザーの集中度の検出結果、システム(例えば、出力部224またはセンサ部222など)と当該ユーザーとの距離の検出結果、当該ユーザーの姿勢の検出結果、当該ユーザーの意識に関する検出結果、当該ユーザーの行動目的の推定結果、当該ユーザーの疲労度の検出結果、当該ユーザーの視界に関する検出結果、当該ユーザーによる音声入力の利用状況を示す情報、システム(例えば、出力部224またはセンサ部222など)の周辺の雑音のセンシング結果、当該ユーザーの周囲に位置する他のユーザーによる当該ユーザーの音声利用に関する賛否を示す情報、当該他のユーザーの状況を示す情報、および、当該ユーザーが仮想現実のアプリケーションを利用中における他のユーザーによる当該ユーザーの音声利用に関する賛否を示す情報のうちの少なくとも一つを含み得る。なお、当該環境情報の具体的な内容については後述する。以下では、本実施形態の内容について順次詳細に説明を行う。
<<2.実施形態の詳細な説明>>
 <2-1.構成>
 まず、本実施形態に係る構成について説明する。図4は、本実施形態に係るサーバ10の機能構成例を示したブロック図である。図4に示したように、サーバ10は、制御部100、通信部120、および、記憶部122を有する。
 {2-1-1.制御部100}
 制御部100は、例えば、後述するCPU150やGPUなどの処理回路を含んで構成され得る。制御部100は、サーバ10の動作を統括的に制御する。また、図4に示したように、制御部100は、認識部102、および、インターフェース制御部104を有する。
 {2-1-2.認識部102}
 認識部102は、例えば端末20から受信された各種のセンシング結果に対して各種の認識処理を行う。例えば、認識部102は、端末20により収音された音声データに対して音声認識を行い、そして、当該音声認識に対応するテキストデータを取得する。
 また、認識部102は、端末20により撮像された画像に対して画像認識を行い、そして、当該画像認識結果に基づいて、当該画像に写っている個々の物体を認識する。例えば、認識部102は、当該画像に写っている個々の人物を識別したり、また、個々の人物の行動(例えば発話しているか否かなど)を認識する。
 {2-1-3.インターフェース制御部104}
 インターフェース制御部104は、ユーザーに使用させるユーザーインターフェースを、少なくとも、音声UIと、当該音声UIとは異なる第2のUIとの間で環境情報に基づいて切り替える。
 ここで、当該第2のUIは、五感のうちの一以上に関連するユーザーインターフェースであり得る。例えば、当該第2のUIは、グラフィカルユーザーインターフェース(以下では、GUIとも称する)(例えばドリルダウンUIなど)、視線ユーザーインターフェース(以下では、視線UIとも称する)、または、ジェスチャユーザーインターフェース(以下では、ジェスチャUIとも称する)などの視覚に関するユーザーインターフェースであってもよい。または、当該第2のUIは、例えばタッチユーザーインターフェース(以下では、タッチUIとも称する)などの触覚に関するユーザーインターフェースであってもよい。または、当該第2のUIは、例えば、アロマディフューザーを用いたインターフェースなどの嗅覚に関するユーザーインターフェースであってもよいし、または、味覚に関するユーザーインターフェースであってもよい。
 例えば、インターフェース制御部104は、当該環境情報と、例えば図5に示したような属性情報DB124に格納されている該当のユーザーの属性情報と、例えば図6に示したような習熟度DB126に格納されている該当のユーザーの音声UIまたは第2のUIの習熟度との組み合わせに基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替える。なお、属性情報DB124は、各ユーザーの属性情報が格納されるデーターベースである。また、習熟度DB126は、各ユーザーの例えば音声入力などに関する習熟度が格納されるデーターベースである。
 さらに、当該ユーザーに使用させるユーザーインターフェースの種類を切り替えた場合には、インターフェース制御部104は、切り替え後のユーザーインターフェースに対応するUI画面を出力部224に表示させ得る。例えば、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに切り替えた場合には、図7に示したように音声UIの画面40aを出力部224に表示させる。また、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUI(例えばドリルダウンUIなど)に切り替えた場合には、図8に示したようにGUIの画面40bを出力部224に表示させる。
 (2-1-3-1.属性情報)
 以下では、インターフェース制御部104によるユーザーインターフェースの切り替えの内容に関してさらに詳細に説明する。例えば、他の条件が同一である場合には、インターフェース制御部104は、属性情報DB124に格納されているユーザーの属性情報(例えば年齢など)に基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。一例として、他の条件が同一であり、かつ、当該ユーザーが「子ども」である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、他の条件が同一であり、かつ、当該ユーザーが「大人」である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 図5は、属性情報DB124の構成例を示した図である。図5に示したように、属性情報DB124では、例えば、ユーザー名1240、年齢1242、および、性別1244が関連付けられている。ここで、ユーザー名1240には、各ユーザーの名前が格納され得る。また、年齢1242には、各ユーザーの年齢が格納され得る。また、性別1244には、各ユーザーの性別が格納され得る。
 (2-1-3-2.習熟度)
 または、他の条件が同一である場合には、インターフェース制御部104は、習熟度DB126に格納されているユーザーの習熟度に基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。
 例えば、他の条件が同一である場合には、インターフェース制御部104は、端末20と有線または無線により接続されている入力部(例えば、コントローラやマウスなど)に対する操作に該当のユーザーが慣れているか否かに基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。一例として、当該ユーザーが当該入力部に対する操作に慣れている場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。また、当該ユーザーが当該入力部に対する操作に慣れていない場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 または、他の条件が同一である場合には、インターフェース制御部104は、該当のユーザーのゲーム使用歴の長さに基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、当該ユーザーのゲーム使用歴の長さが所定の閾値以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。また、当該ユーザーのゲーム使用歴の長さが当該所定の閾値未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 または、他の条件が同一である場合には、インターフェース制御部104は、該当のユーザーの音声入力歴の長さに基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、当該ユーザーの音声入力歴の長さが所定の閾値以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、当該ユーザーの音声入力歴の長さが当該所定の閾値未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 または、他の条件が同一である場合には、インターフェース制御部104は、対象のサービスに対する該当のユーザーの使用歴の長さに基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、対象のサービスに対する該当のユーザーの使用歴の長さが所定の閾値以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、対象のサービスに対する該当のユーザーの使用歴の長さが当該所定の閾値未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 図6は、習熟度DB126の構成例を示した図である。図6に示したように、習熟度DB126では、例えば、ユーザー名1260、ゲーム機の操作の習熟度1262、ゲーム使用歴1264、音声入力の習熟度1266、および、対象サービス使用歴1268が関連付けられている。ここで、ユーザー名1260には、各ユーザーの名前が格納され得る。また、ゲーム機の操作の習熟度1262には、ゲーム機の操作に関する該当のユーザーの習熟度(例えば、慣れているか否かなど)が格納され得る。また、ゲーム使用歴1264には、該当のユーザーのゲーム使用歴が格納され得る。また、音声入力の習熟度1266には、音声入力に関する該当のユーザーの習熟度(例えば、慣れているか否かなど)が格納され得る。また、対象サービス使用歴1268には、該当のユーザーの対象のサービスの使用歴が格納され得る。
 (2-1-3-3.ユーザーの集中度)
 以下では、前述した環境情報の内容に関してより詳細に説明する。例えば、当該環境情報は、該当のユーザーの集中度の検出結果を含み得る。この場合、他の条件が同一である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを、センシングされた該当のユーザーの集中度と所定の閾値との比較に基づいて、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、センシングされた該当のユーザーの集中度が当該所定の閾値以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、センシングされた該当のユーザーの集中度が当該所定の閾値未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 なお、ユーザーの集中度は、例えば当該ユーザーがビデオゲームをしている間では、当該ビデオゲームの表示画面内の当該ユーザーの注視点の位置の変動が小さいか否かに基づいて判定されてもよい。例えば、当該表示画面内の当該ユーザーの注視点の位置の変動が小さい場合には、当該ユーザーの集中度が高いと判定されてもよい。また、当該表示画面内の当該ユーザーの注視点の位置の変動が大きい場合には、当該ユーザーの集中度が低いと判定されてもよい。または、当該ユーザーの集中度は、単位時間当たりのユーザーの心拍度の上昇度が所定の閾値以上であるか否かに基づいて判定されてもよい。例えば、単位時間当たりのユーザーの心拍度の上昇度が所定の閾値以上であることが検出された場合には、ユーザーの集中度が高いと判定されてもよい。また、単位時間当たりのユーザーの心拍度の上昇度が当該所定の閾値未満であることが検出された場合には、ユーザーの集中度が低いと判定されてもよい。
 (2-1-3-4.システムとユーザーとの距離)
 また、当該環境情報は、該当のシステム(例えば、出力部224またはセンサ部222)と当該ユーザーとの距離の検出結果を含み得る。この場合、他の条件が同一である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを、該当のシステムと当該ユーザーとの距離のセンシング結果と所定の閾値との比較に基づいて、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、該当のシステムと当該ユーザーとの距離のセンシング結果が当該所定の閾値以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、該当のシステムと当該ユーザーとの距離のセンシング結果が当該所定の閾値未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 一例として、ユーザーが炊事をしている間において、当該ユーザーと該当のシステムとの距離が継続的に所定の距離以上である場合や、当該ユーザーと該当のシステムとの距離が頻繁に変わる場合などには、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、当該ユーザーと該当のシステムとの距離が継続的に当該所定の距離未満であることが検出された場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 (2-1-3-5.ユーザーの姿勢)
 また、当該環境情報は、該当のユーザーの姿勢の検出結果を含み得る。この場合、他の条件が同一であり、かつ、該当のユーザーの姿勢がリラックスした姿勢であることが検出された場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、他の条件が同一であり、かつ、該当のユーザーが立っていることが検出された場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、他の条件が同一であり、かつ、該当のユーザーが寝転がっていることが検出された場合には、例えば図7に示したように、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、他の条件が同一であり、かつ、該当のユーザーが座っていることが検出された場合には、例えば図8に示したように、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 例えば当該ユーザーの一以上の部位(手、足、または頭部)が継続的に動いている時間の長さが当該所定時間以上であることが検出された場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。このようなケースの具体例としては、ユーザーが炊事をしている場合などが挙げられる。また、当該ユーザーの身体が継続的に動いている時間の長さが当該所定時間未満である場合、または、当該ユーザーの一以上の部位がほとんど動いていない場合などには、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。このようなケースの具体例として、ユーザーがソファに座って本を読んでいる場合などが挙げられる。
 (2-1-3-6.ユーザーの意識)
 また、当該環境情報は、該当のユーザーの意識に関する検出結果を含み得る。この場合、他の条件が同一であり、かつ、該当のユーザーの意識が集中していることが検出された場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、他の条件が同一であり、かつ、該当のユーザーの意識が集中していないこと(例えば、ぼーっとしていること)が検出された場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 (2-1-3-7.ユーザーの行動目的の推定結果)
 また、当該環境情報は、該当のユーザーの行動目的の推定結果(例えば、当該ユーザーが使用したいユーザーインターフェースの推定結果など)を含み得る。例えば、他の条件が同一である場合には、インターフェース制御部104は、当該ユーザーが使用したいユーザーインターフェースの推定結果が示すユーザーインターフェースを当該ユーザーに使用させることを決定してもよい。
 なお、当該ユーザーが使用したいユーザーインターフェースに関しては、例えば以下のような方法を用いて推定され得る。例えば、当該ユーザーが利用しようとしているアプリケーション(例えばゲームなど)のローディング中に、端末20と有線または無線により接続されている所定のコントローラ中のボタンを当該ユーザーが連打したことが検出された場合には、制御部100は、当該ユーザーが使用したいユーザーインターフェースをGUIと推定してもよい。また、当該ユーザーの利用対象のアプリケーションまたは利用対象の機器の起動中に、音声UIに対応する所定の起動ワードを該当のユーザーが複数回発話したことが検出された場合には、制御部100は、当該ユーザーが使用したいユーザーインターフェースを音声UIと推定してもよい。
 (2-1-3-8.ユーザーの疲労度)
 また、当該環境情報は、該当のユーザーの疲労度の検出結果を含み得る。この場合、他の条件が同一である場合には、インターフェース制御部104は、センシング結果に基づいて算出された当該ユーザーの疲労度と所定の閾値との比較に基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、算出された当該ユーザーの疲労度が当該所定の閾値以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。また、算出された当該ユーザーの疲労度が当該所定の閾値未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 なお、例えば当該ユーザーがビデオゲームをしている間におけるユーザーの疲労度に関しては、当該ユーザーによるビデオゲームの継続時間が所定の時間を超えているか否かに基づいて判定されてもよい。例えば、当該ユーザーによるビデオゲームの継続時間が当該所定の時間を超えている場合には、当該ユーザーの疲労度は高いと判定されてもよい。また、当該ユーザーによるビデオゲームの継続時間が当該所定の時間以内である場合には、当該ユーザーの疲労度は低いと判定されてもよい。
 (2-1-3-9.ユーザーの視界)
 また、当該環境情報は、該当のユーザーの視界に関する検出結果を含み得る。この場合、他の条件が同一である場合には、インターフェース制御部104は、当該ユーザーが当該ユーザーの前方を視認可能であるか否かに関する、端末20によるセンシング結果に基づいた判定結果に基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、当該ユーザーが当該ユーザーの前方を視認不能であると判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、当該ユーザーが当該ユーザーの前方を視認可能であると判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 なお、当該ユーザーが当該ユーザーの前方を視認可能であるか否かに関しては、例えば、当該ユーザーの瞳孔の開き具合、または、当該ユーザーの両眼の前における遮蔽物の有無などに基づいて判定されてもよい。
 (2-1-3-10.音声入力の利用状況)
 また、当該環境情報は、該当のユーザーによる音声入力の利用状況(例えば、別の機器を用いた音声入力の利用状況など)を示す情報を含み得る。この場合、他の条件が同一である場合には、インターフェース制御部104は、当該ユーザーが所定の時間内に音声入力を利用していたか否かに関する検出結果に基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、当該ユーザーが現在から当該所定の時間内に音声入力を利用していたと判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、当該ユーザーが現在から当該所定の時間内に音声入力を利用していなかったと判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 ここで、図9および図10を参照して、上記の機能についてより詳細に説明する。図9に示したように、ユーザー2は、直前に、(端末20とは異なる機器である)スマートフォン50を用いて音声検索を行っていたとする。その後、図9に示したように、ユーザー2は、家の中で炊事を開始したとする。この場合、まず、制御部100は、端末20から受信された、センサ部222による現在から所定の時間内のセンシング結果(例えばセンサ部222に含まれるカメラによる撮像画像など)に基づいて、ユーザー2が直前に音声入力を利用したと判定する。そして、図9に示したように、インターフェース制御部104は、当該判定の結果に基づいて、当該炊事中にユーザー2に音声UIを使用させることを決定してもよい。さらに、図9に示したように、インターフェース制御部104は、音声UIの画面40aを端末20(出力部224)に表示させてもよい。
 または、図10に示したように、ユーザー2は、直前に、スマートフォン50をタッチ操作していたとする。その後、図10に示したように、ユーザー2は、家の中で炊事を開始したとする。この場合、まず、制御部100は、端末20から受信された、センサ部222による現在から所定の時間内のセンシング結果(例えば撮像画像など)に基づいて、ユーザー2が直前に音声入力を利用していなかったと判定する。そして、インターフェース制御部104は、当該判定の結果に基づいて、炊事中にユーザー2にGUIを使用させることを決定してもよい。さらに、図10に示したように、インターフェース制御部104は、GUIの画面40bを端末20(出力部224)に表示させてもよい。
 (2-1-3-11.周辺雑音)
 また、当該環境情報は、該当のシステム(例えば、出力部224またはセンサ部222)の周辺の雑音のセンシング結果を含み得る。この場合、他の条件が同一である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを、該当のシステムの周辺の雑音の音量のセンシング結果と所定の閾値との比較に基づいて、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、当該システムの周辺の雑音の音量が当該所定の閾値以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。また、当該システムの周辺の雑音の音量が当該所定の閾値未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 一例として、ユーザーが料理をしている場面において、ユーザーの方向から端末20(センサ部222)が収音した雑音の音量が継続的に所定の閾値以上である場合(例えば食器を洗っている場合など)には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。また、ユーザーの方向から端末20(センサ部222)が収音した雑音の音量が当該所定の閾値未満である場合(例えば鍋の火加減を見ている場合など)には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 ここで、雑音とは、例えば、対象のユーザーの周囲に位置する他のユーザーの発話、端末20以外の機器(例えばテレビジョン受信機など)による出力音声、対象のユーザーの独り言、または、ペットの動物の鳴き声などを含み得る。なお、収音された発話が独り言であるかどうかに関しては、例えば、センサ部222により収音された発話に対する音声認識結果の中に、独り言として利用される頻度の高い言葉(例えば「えーー。」や「まじかよ。」など)が含まれているか否かに基づいて判定されてもよい。または、センサ部222により収音された発話の音声認識結果に対応する意味が特定不能である(OOD:OutOfDomain)と判定された場合には、当該発話は独り言であると判定されてもよい。または、センサ部222により収音された発話の音量が、過去の音声入力時の音量と比較して相対的に小さいと判定された場合には、当該発話は独り言であると判定されてもよい。この背景として、例えば、自信のない発話や、意図が曖昧な発話の際には、当該発話の音量が相対的に小さくなることが挙げられる。
 変形例として、例えばエコーキャンセルやノイズキャンセルなどの技術により、周辺の雑音をキャンセルする音(例えば当該雑音の位相の逆位相の音など)を出力部224が出力する場合も考えられる。このような場合には、周辺の雑音の音量が小さくなるので、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 (2-1-3-12.他のユーザーによる当該ユーザーの音声利用に関する賛否)
 また、当該環境情報は、(実空間において)当該ユーザーの周囲に位置する他のユーザーによる当該ユーザーの音声利用に関する賛否を示す情報を含み得る。この場合、他の条件が同一であり、かつ、当該ユーザーの周囲に位置する他のユーザーが当該ユーザーの音声利用に関して肯定的な意思を有していると判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、他の条件が同一であり、かつ、当該ユーザーの周囲に位置する他のユーザーが当該ユーザーの音声利用に関して否定的な意思を有していると判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 ここで、図11および図12を参照して、上記の機能についてより詳細に説明する。図11に示した例では、ユーザー2bは、直前に炊事をしており、かつ、ユーザー2aは、ユーザー2bの手伝いをしていたとする。さらに、ユーザー2bは、当該炊事中に、GUIを用いて端末20に対して何らかの操作を行ったとする。その後、図11に示したように、ユーザー2aは、例えば「音声とかで操作できるとよさそうだね」のような、ユーザー2bの音声利用に関して肯定的な発話60aをしたとする。この場合、まず、制御部100は、端末20から受信された、センサ部222による発話60aの収音結果を音声認識し、そして、発話60aに対応する意味がユーザー2bの音声利用に関して肯定的な意味であると判定する。そこで、インターフェース制御部104は、例えば別の日にユーザー2bが炊事をしようとする際にユーザー2bに音声UIを使用させることを決定してもよい。そして、この際、図11に示したように、音声UIの画面40aを端末20(出力部224)に表示させてもよい。
 または、図12に示したように、ユーザー2bは、直前に炊事をしており、かつ、ユーザー2aは、ユーザー2bの近くで読書をしていたとする。さらに、ユーザー2bは、当該炊事中に、音声入力を用いて端末20に対して何らかの操作を行ったとする。その後、図12に示したように、ユーザー2aは、例えば「勉強中だから声で操作してほしくない」のような、ユーザー2bの音声利用に関して否定的な発話60bをしたとする。この場合、まず、制御部100は、端末20から受信された、センサ部222による発話60bの収音結果を音声認識し、そして、発話60bに対応する意味がユーザー2bの音声利用に関して否定的な意味であると判定する。そこで、インターフェース制御部104は、例えば別の日にユーザー2bが炊事をしようとする際にユーザー2bにGUIを使用させることを決定してもよい。そして、この際、図12に示したように、インターフェース制御部104は、GUIの画面40bを端末20(出力部224)に表示させてもよい。
 (2-1-3-13.周囲のユーザーの状況)
 また、当該環境情報は、(実空間において)当該ユーザーの周囲に位置する他のユーザーの状況を示す情報を含み得る。この場合、他の条件が同一である場合には、インターフェース制御部104は、当該他のユーザーの状況を示す情報に基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと当該第2のUIとの間で切り替えてもよい。例えば、当該他のユーザーのうちの少なくとも一人が作業に集中していると判断される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。また、当該他のユーザーの全員が作業に集中していない、または、作業していないと判断される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 (2-1-3-14.仮想空間の周囲の音声利用の賛否)
 また、当該環境情報は、当該ユーザーが仮想現実のアプリケーションを利用中における他のユーザーによる当該ユーザーの音声利用に関する賛否を示す情報のうちの少なくとも一つを含み得る。ここで、当該他のユーザーは、(実空間において)当該ユーザーの周囲に位置する他のユーザーであってもよいし、または、仮想現実のアプリケーションを一緒に利用している他のユーザーであってもよい。
 この場合、他の条件が同一であり、かつ、当該ユーザーの当該仮想現実のアプリケーションの利用中における当該ユーザーの音声利用に関して当該他のユーザーが肯定的な意思を有していると判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、他の条件が同一であり、かつ、当該ユーザーの当該仮想現実のアプリケーションの利用中における当該ユーザーの音声利用に関して当該他のユーザーが否定的な意思を有していると判定される場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 (2-1-3-15.変形例)
 変形例として、インターフェース制御部104は、前述した環境情報に含まれる複数の種類の情報の組み合わせに基づいて、当該ユーザーに使用させるユーザーインターフェースの種類を決定してもよい。例えば、インターフェース制御部104は、当該複数の種類の情報のうち、「システムの周辺の雑音の度合い」および「システムとユーザーとの距離」を他の種類の情報よりも優先的に評価することにより、当該ユーザーに使用させるユーザーインターフェースの種類を決定してもよい。
 一例として、今、何らかの作業に対するユーザーの集中度が低く、かつ、雑音の音量が所定の閾値以下であるとする。この場合、インターフェース制御部104は、「ユーザーの集中度が低いこと」よりも「雑音の音量が小さいこと」を優先的に評価することにより、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、今、ユーザーが忙しく動き回っており、かつ、雑音の音量が所定の閾値よりも大きいとする。この場合、インターフェース制御部104は、「ユーザーの動きが大きいこと」よりも「雑音の音量が大きいこと」を優先的に評価することにより、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 あるいは、当該複数の種類の情報のうち他の種類の情報よりも優先的に評価される情報をユーザーが選択可能であってもよい。例えば、ユーザーの子どもが受験生であり、かつ、受験日の前の数か月間に関しては、当該複数の種類の情報のうち最も優先的に評価される情報が「他のユーザーによる当該ユーザーの音声利用に関する賛否」に定められてもよい。
 {2-1-4.通信部120}
 通信部120は、後述する通信装置166を含んで構成され得る。通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、インターフェース制御部104が決定したユーザーインターフェースの切り替えを実行させるための制御情報を、インターフェース制御部104の制御に従って端末20へ送信する。また、通信部120は、各種のセンシング結果を端末20から受信する。
 {2-1-5.記憶部122}
 記憶部122は、後述するストレージ装置164を含んで構成され得る。記憶部122は、各種のデータや、各種のソフトウェアを記憶する。例えば、図4に示したように、記憶部122は、属性情報DB124および習熟度DB126を記憶する。
 <2-2.処理の流れ>
 以上、本実施形態の構成について説明した。次に、本実施形態に係る処理の流れについて説明する。図13は、本実施形態に係る処理の流れの一例を示したフローチャートである。図13に示したように、まず、サーバ10の制御部100は、該当のシステム(例えば端末20など)を使用するユーザーのユーザー情報を取得する。例えば、制御部100は、まず、該当のシステムを使用するユーザーを、端末20から受信された情報(例えば撮像画像など)に基づいて特定し、そして、特定したユーザーのユーザー情報を例えば記憶部122から取得する(S101)。
 続いて、制御部100は、該当のシステムを使用する各ユーザーの属性情報を属性情報DB124から取得する(S103)。
 続いて、制御部100は、該当のシステムで提供可能なUI種類ごとに、当該UI種類に関する当該各ユーザーの習熟度を習熟度DB126から取得する(S105)。
 続いて、制御部100は、当該各ユーザーのユーザー状況情報を取得する。例えば、制御部100は、ユーザーごとに、端末20による各種のセンシング結果に基づいて当該ユーザーの状況を特定し、そして、特定した結果を当該ユーザーの状況情報として取得する(S107)。
 続いて、制御部100は、対象のユーザー(例えば当該システムの使用対象のユーザー)を所定の基準に基づいて決定する(S109)。
 続いて、制御部100は、端末20による各種のセンシング結果などに基づいて、該当のシステムの周辺状況を特定する(S111)。
 続いて、インターフェース制御部104は、最新のS107で取得された当該ユーザーのユーザー状況情報と最新のS111で特定された当該システムの周辺状況とに対応する環境情報に基づいて、対象のユーザーに使用させるユーザーインターフェースを決定する(S113)。
 続いて、インターフェース制御部104は、S113で決定されたユーザーインターフェースを対象のユーザーを使用させるように、対象のユーザーに対して提示する(S115)。
 その後、インターフェース制御部104は、対象のユーザーに対するユーザーインターフェースの提示を終了するか否かを判定する(S117)。当該ユーザーインターフェースの提示を終了すると判定された場合には(S117:Yes)、当該処理の流れは終了する。
 一方、当該ユーザーインターフェースの提示を継続すると判定された場合には(S117:No)、サーバ10は、再びS107以降の処理を繰り返す。
 <2-3.効果>
 以上説明したように、本実施形態に係るサーバ10は、ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと第2のUIとの間で環境情報に基づいて切り替える。このため、状況に最適なユーザーインターフェースをユーザーに使用させることができる。例えば、サーバ10は、周辺の雑音の音量、ユーザーが位置する環境における音声入力の許容度合い、ユーザーの身体状況、または、ユーザーの直前の音声利用状況などに応じた最適なユーザーインターフェースをユーザーに使用させることができる。その結果、ユーザーの利便性が向上し得る。
<<3.応用例>>
 本実施形態は、前述した例に限定されず、各種の応用例が適用可能である。次に、本実施形態の応用例について、「3-1.応用例1」~「3-5.応用例5」において説明する。なお、各応用例に係るサーバ10に含まれる各構成要素は、図4に示した例と同様である。以下では、前述した実施形態とは異なる機能を有する構成要素についてのみ説明することとし、同一の内容については説明を省略する。
 <3-1.応用例1>
 {3-1-1.ユーザーの行動状況}
 例えば、本実施形態に係る環境情報は、前述した例に限定されない。一例として、当該環境情報は、ユーザーの行動状況を示す情報を含んでもよい。例えば、インターフェース制御部104は、例えばセンサ部222などに含まれるマイクロフォンとユーザーの口との距離に基づいて、当該ユーザーに使用させるユーザーインターフェースの種類を決定してもよい。例えば、当該マイクロフォンと当該ユーザーの口との距離が所定の距離以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、当該マイクロフォンと当該ユーザーの口との距離が当該所定の距離未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。なお、当該所定の距離は、例えば該当のマイクロフォンの性能情報などに基づいて定められてもよい。
 または、インターフェース制御部104は、上記の入力部とユーザーの身体との距離に基づいて、当該ユーザーに使用させるユーザーインターフェースの種類を決定してもよい。例えば、当該入力部とユーザーの身体との距離が所定の距離以上である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、当該入力部とユーザーの身体との距離が当該所定の距離未満である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。
 または、インターフェース制御部104は、該当のユーザーが会話中であるか否かに基づいて、当該ユーザーに使用させるユーザーインターフェースの種類を決定してもよい。例えば、当該ユーザーが会話中である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをGUIに決定してもよい。また、当該ユーザーが会話をしていない場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 {3-1-2.ユーザーが位置する環境}
 または、当該環境情報は、ユーザーが位置する環境の種類を示す情報を含んでもよい。例えば、ユーザーが電車に乗っている間は、ユーザーが声を出すことは憚られ得る。そこで、ユーザーが電車に乗っている間は、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを第2のUI(例えばジェスチャUIまたは視線UI)に決定してもよい。そして、当該ユーザーが電車から降りた際には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースをジェスチャUIから音声UIへシームレスに切り替えてもよい。
 または、ユーザーが車に乗っている場合には、インターフェース制御部104は、ユーザーが座っている座席に基づいて、当該ユーザーに使用させるユーザーインターフェースの種類を決定してもよい。例えば、ユーザーが運転席に座っている場合(つまり、運転者である場合)には、ユーザーはハンドルを握る必要性がある。そこで、この場合、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 または、ユーザーが車の運転席に座っている場合には、インターフェース制御部104は、同乗者が誰であるかに基づいて、当該ユーザーに使用させるユーザーインターフェースの種類を決定してもよい。例えば、同乗者が当該ユーザーの家族や友人である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。また、例えばユーザーがタクシーの運転手であり、かつ、同乗者が客である場合には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを視線UIに決定してもよい。この方法によれば、システムを操作するために当該ユーザーは発話する必要がないので、当該客の妨げになることを回避できる。
 または、ユーザーが医療スタッフ(医者や看護師など)であり、かつ、手術室内にいる場合には、ユーザーは例えば手術器具などを把持する必要性がある。そこで、この場合、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに決定してもよい。
 <3-2.応用例2>
 {3-2-1.インターフェース制御部104}
 以上、応用例1について説明した。次に、本実施形態に係る応用例2について説明する。応用例2に係るインターフェース制御部104は、ユーザーに使用させるユーザーインターフェースを、少なくとも、音声UIと第2のUIとの間でユーザーの属性情報のみに基づいて切り替え得る。
 {3-2-2.処理の流れ}
 ここで、図14を参照して、応用例2に係る処理の流れについて説明する。なお、図14に示したS201~S203は、図13に示したS101~S103と同様である。また、図14に示したS205は、図13に示したS109と同様である。
 図14に示したように、S205の後、インターフェース制御部104は、S205で決定された対象のユーザーに使用させるユーザーインターフェースを当該ユーザーの属性情報のみに基づいて決定する(S207)。
 なお、図14に示したS209は、図13に示したS115と同様である。
 <3-3.応用例3>
 以上、応用例2について説明した。次に、本実施形態に係る応用例3について説明する。応用例3によれば、ユーザーの明示の意思に基づいて、ユーザーに使用させるユーザーインターフェースが切り替えられ得る。
 {3-3-1.インターフェース制御部104}
 応用例3に係るインターフェース制御部104は、例えば、ユーザーインターフェースの選択画面に対するユーザーの操作や、上記の入力部に対するユーザーの操作などに基づいて、ユーザーに使用させるユーザーインターフェースの種類を決定する。
 {3-3-2.処理の流れ}
 ここで、図15を参照して、応用例3に係る処理の流れについて説明する。なお、図15に示した例では、ユーザーインターフェースの選択画面が出力部224により表示されている場面を想定する。
 図15に示したように、まず、ユーザーは、当該選択画面に表示されている選択ボタンの押下などにより、使用希望のユーザーインターフェースを選択する。そして、インターフェース制御部104は、選択されたユーザーインターフェースを当該ユーザーに使用させることを決定する(S301)。
 なお、図15に示したS303は、図13に示したS115と同様である。
 <3-4.応用例4>
 以上、応用例3について説明した。次に、本実施形態に係る応用例4について説明する。
 {3-4-1.インターフェース制御部104}
 応用例4に係るインターフェース制御部104は、該当のユーザーの利用対象のサービスまたは利用対象のシステムによる、いずれのユーザーインターフェースを当該ユーザーに使用させるかに関する判断結果に基づいて、当該ユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと第2のUIとの間で切り替える。例えば、対象のサービスまたは対象のシステムが所定のユーザーインターフェースを該当のユーザーに使用させることを判断した際には、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを当該所定のユーザーインターフェースに(強制的に)切り替える。一例として、対象のサービスが買い物に関連するサービス(EC(Electronic Commerce)サービスなど)であり、かつ、例えば買い物時などに当該対象のサービスが音声UIを該当のユーザーに使用させることを判断したとする。この場合、インターフェース制御部104は、当該ユーザーに使用させるユーザーインターフェースを音声UIに強制的に切り替えてもよい。
 または、例えばセンサ部222に含まれているマイクロフォンの感度が極端に悪いことを対象のサービス(または対象のシステム)が認識している場合には、対象のサービス(または対象のシステム)は、当該ユーザーにGUIを使用させることを判断し得る。そして、インターフェース制御部104は、当該判断結果に基づいて、当該ユーザーに使用させるユーザーインターフェースをGUIに強制的に切り替える。
 ここで、対象のサービスまたは対象のシステムは、対象のユーザーが使用中または使用予定のサービスまたはシステムであってよい。また、対象のサービスまたは対象のシステムは、サーバ10が管理していてもよいし、または、通信網22に接続されている他の装置(図示省略)が管理していてもよい。
 {3-4-2.処理の流れ}
 ここで、図16を参照して、応用例4に係る処理の流れについて説明する。図16に示したように、まず、対象のサービスまたは対象のシステムが、現在ユーザーに使用させるユーザーインターフェースの種類を所定の基準に基づいて決定する。そして、インターフェース制御部104は、当該決定されたユーザーインターフェースを、当該ユーザーに使用させることを決定する(S401)。
 なお、図16に示したS403は、図13に示したS115と同様である。
 <3-5.応用例5>
 以上、応用例4について説明した。次に、本実施形態に係る応用例5について説明する。後述するように、応用例5によれば、複数のユーザーが一つのユーザーインターフェースを一緒に使用する場面において当該ユーザーインターフェースの種類を適切に決定することができる。
 {3-5-1.インターフェース制御部104}
 応用例5に係るインターフェース制御部104は、複数のユーザーが所定の範囲内に位置する場合に、当該複数のユーザーの各々の状態のセンシング結果に基づいて、当該複数のユーザーに使用させるユーザーインターフェースを、少なくとも音声UIと第2のUIとの間で切り替える。例えば、インターフェース制御部104は、音声UIと第2のUIとのうち、より使用が容易であると判定されるユーザーインターフェースを当該複数のユーザーに使用させることを決定する。
 ここで、図17を参照して、上記の機能についてより詳細に説明する。図17に示した例では、2人のユーザーが一緒に所定のアプリケーションを利用しようとしているものとする。また、図17に示したように、ユーザー2aは、寝転がっており、かつ、ユーザー2bは、ソファに座っている。例えば、ユーザーが寝転がっている場合には、当該ユーザーにとって最適なユーザーインターフェースの種類は音声UIであり得る。また、ユーザーがソファに座っている場合には、当該ユーザーにとって最適なユーザーインターフェースの種類はGUIであり得る。
 図17に示した例において、インターフェース制御部104は、音声UIよりもGUIの方が使用がより容易であると判定し、そして、当該判定結果に基づいて2人のユーザーにGUIを使用させることを決定してもよい。さらに、図17に示したように、インターフェース制御部104は、GUIの画面40bを端末20(出力部224)に表示させてもよい。
<<4.ハードウェア構成>>
 次に、本実施形態に係るサーバ10のハードウェア構成例について、図18を参照して説明する。図18に示したように、サーバ10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を備える。
 CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ10内の動作全般を制御する。また、CPU150は、サーバ10において制御部100の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
 ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 RAM154は、例えば、CPU150により実行されるプログラムや、使用中のデータなどを一時的に記憶する。
 バス156は、CPUバスなどから構成される。このバス156は、CPU150、ROM152、および、RAM154を相互に接続する。
 インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を、バス156と接続する。
 入力装置160は、例えばタッチパネル、ボタン、スイッチ、レバー、マイクロフォンなどユーザーが情報を入力するための入力手段、および、ユーザーによる入力に基づいて入力信号を生成し、CPU150に出力する入力制御回路などから構成される。
 出力装置162は、例えばLCDやOLEDなどのディスプレイ、または、プロジェクタなどの表示装置を含む。また、出力装置162は、スピーカなどの音声出力装置を含む。
 ストレージ装置164は、記憶部122として機能する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または、記憶媒体に記録されたデータを削除する削除装置などを含む。
 通信装置166は、例えば通信網22などに接続するための通信デバイス(例えばネットワークカードなど)等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、通信部120として機能する。
<<5.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <5-1.変形例1>
 例えば、端末20の構成は、図2に示した例に限定されない。一例として、端末20は、前述したサーバ10の制御部100に含まれる全ての構成要素を含んでもよい。この場合、本開示に係る情報処理装置は端末20であり得る。また、この変形例では、サーバ10が必ずしも設置されなくてもよい。
 <5-2.変形例2>
 別の変形例として、本開示に係る情報処理装置は、サーバ10に限定されず、前述したサーバ10の制御部100に含まれる全ての構成要素を含む他の装置であってもよい。例えば、当該情報処理装置は、汎用PC、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、スピーカ、プロジェクタ、例えばHMDやスマートウォッチなどのウェアラブルデバイス、車載装置(カーナビゲーション装置など)、または、ロボット(例えばヒューマノイド型ロボットまたは自動運転車など)であってもよい。
 <5-3.変形例3>
 前述した実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
 また、前述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、本実施形態に係るサーバ10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、環境情報に基づいて切り替えるインターフェース制御部、
を備える、情報処理装置。
(2)
 前記環境情報は、前記第1のユーザーの集中度の検出結果、前記ユーザーインターフェースに関連する情報を出力する出力部または前記第1のユーザーに関するセンシングを行うセンサ部と前記第1のユーザーとの距離の検出結果、前記第1のユーザーの姿勢の検出結果、前記第1のユーザーの意識に関する検出結果、前記第1のユーザーの行動目的の推定結果、前記第1のユーザーの疲労度の検出結果、前記第1のユーザーの視界に関する検出結果、前記第1のユーザーによる音声入力の利用状況を示す情報、前記出力部または前記センサ部の周辺の雑音のセンシング結果、前記第1のユーザーの周囲に位置する他のユーザーによる前記第1のユーザーの音声利用に関する賛否を示す情報、前記他のユーザーの状況を示す情報、および、前記第1のユーザーが仮想現実のアプリケーションを利用中における他のユーザーによる前記第1のユーザーの音声利用に関する賛否を示す情報のうちの少なくとも一つを含む、前記(1)に記載の情報処理装置。
(3)
 前記第2のユーザーインターフェースは、グラフィカルユーザーインターフェース、タッチユーザーインターフェース、視線ユーザーインターフェース、または、ジェスチャユーザーインターフェースである、前記(2)に記載の情報処理装置。
(4)
 前記第2のユーザーインターフェースは、前記グラフィカルユーザーインターフェースである、前記(3)に記載の情報処理装置。
(5)
 前記インターフェース制御部は、前記第1のユーザーの利用対象のサービスまたはアプリケーションによる、いずれのユーザーインターフェースを前記第1のユーザーに使用させるかに関する判断結果にさらに基づいて、前記第1のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、前記(3)または(4)に記載の情報処理装置。
(6)
 前記第1のユーザーが使用中のサービスまたはアプリケーションが、いずれかのユーザーインターフェースを前記第1のユーザーに使用させることを判断した際には、前記インターフェース制御部は、当該ユーザーインターフェースを前記第1のユーザーに使用させることを決定する、前記(5)に記載の情報処理装置。
(7)
 前記インターフェース制御部は、さらに、前記第1のユーザーの属性情報に基づいて、前記第1のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、前記(3)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記インターフェース制御部は、さらに、前記第1のユーザーの前記第1のユーザーインターフェースまたは前記第2のユーザーインターフェースの習熟度に基づいて、前記第1のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、前記(7)に記載の情報処理装置。
(9)
 前記環境情報は、前記出力部または前記センサ部と前記第1のユーザーとの距離の検出結果を含み、
 前記出力部または前記センサ部と前記第1のユーザーとの距離が所定の閾値以上である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
 前記出力部または前記センサ部と前記第1のユーザーとの距離が前記所定の閾値未満である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(10)
 前記環境情報は、前記出力部または前記センサ部の周辺の雑音のセンシング結果を含み、
 センシングされた前記出力部または前記センサ部の周辺の雑音の音量が所定の閾値以上である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替え、
 センシングされた前記出力部または前記センサ部の周辺の雑音の音量が前記所定の閾値未満である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(11)
 前記環境情報は、前記第1のユーザーの集中度の検出結果を含み、
 センシングされた前記第1のユーザーの集中度が所定の閾値以上である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
 センシングされた前記第1のユーザーの集中度が前記所定の閾値未満である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(12)
 前記環境情報は、前記他のユーザーによる前記第1のユーザーの音声利用に関する賛否を示す情報を含み、
 前記他のユーザーが前記第1のユーザーの音声利用に関して肯定的な意思を有していると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
 前記他のユーザーが前記第1のユーザーの音声利用に関して否定的な意思を有していると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(13)
 前記環境情報は、前記他のユーザーの状況を示す情報を含み、
 前記他のユーザーのうちの少なくとも一人が作業に集中していると判断される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替え、
 前記他のユーザーの全員が前記作業に集中していない、または、作業していないと判断される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(14)
 前記環境情報は、前記第1のユーザーの姿勢の検出結果を含み、
 前記第1のユーザーが立っていることが検出された場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
 前記第1のユーザーが座っていることが検出された場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(15)
 前記環境情報は、前記第1のユーザーの視界に関する検出結果を含み、
 前記第1のユーザーが前記第1のユーザーの前方を視認不能であると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
 前記第1のユーザーが前記第1のユーザーの前方を視認可能であると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(16)
 前記環境情報は、前記第1のユーザーによる音声入力の利用状況を示す情報を含み、
 前記第1のユーザーが所定の時間内に音声入力を利用していた場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
 前記第1のユーザーが前記所定の時間内に音声入力を利用していなかった場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(17)
 前記第1のユーザーと第2のユーザーとが所定の範囲内に位置する場合には、前記インターフェース制御部は、前記第1のユーザーの状態のセンシング結果と前記第2のユーザーの状態のセンシング結果とに基づいて、前記第1のユーザーおよび前記第2のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、前記(3)~(16)のいずれか一項に記載の情報処理装置。
(18)
 前記インターフェース制御部は、前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとのうち、より使用が容易であると判定されるユーザーインターフェースを前記第1のユーザーおよび前記第2のユーザーに使用させることを決定する、前記(17)に記載の情報処理装置。
(19)
 第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、プロセッサが環境情報に基づいて切り替えること、
を含む、情報処理方法。
(20)
 コンピュータを、
 第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、環境情報に基づいて切り替えるインターフェース制御部、
として機能させるためのプログラム。
10 サーバ
20 端末
22 通信網
100、200 制御部
102 認識部
104 インターフェース制御部
120、220 通信部
122、226 記憶部
124 属性情報DB
126 習熟度DB
222 センサ部
224 出力部

Claims (20)

  1.  第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、環境情報に基づいて切り替えるインターフェース制御部、
    を備える、情報処理装置。
  2.  前記環境情報は、前記第1のユーザーの集中度の検出結果、前記ユーザーインターフェースに関連する情報を出力する出力部または前記第1のユーザーに関するセンシングを行うセンサ部と前記第1のユーザーとの距離の検出結果、前記第1のユーザーの姿勢の検出結果、前記第1のユーザーの意識に関する検出結果、前記第1のユーザーの行動目的の推定結果、前記第1のユーザーの疲労度の検出結果、前記第1のユーザーの視界に関する検出結果、前記第1のユーザーによる音声入力の利用状況を示す情報、前記出力部または前記センサ部の周辺の雑音のセンシング結果、前記第1のユーザーの周囲に位置する他のユーザーによる前記第1のユーザーの音声利用に関する賛否を示す情報、前記他のユーザーの状況を示す情報、および、前記第1のユーザーが仮想現実のアプリケーションを利用中における他のユーザーによる前記第1のユーザーの音声利用に関する賛否を示す情報のうちの少なくとも一つを含む、請求項1に記載の情報処理装置。
  3.  前記第2のユーザーインターフェースは、グラフィカルユーザーインターフェース、タッチユーザーインターフェース、視線ユーザーインターフェース、または、ジェスチャユーザーインターフェースである、請求項2に記載の情報処理装置。
  4.  前記第2のユーザーインターフェースは、前記グラフィカルユーザーインターフェースである、請求項3に記載の情報処理装置。
  5.  前記インターフェース制御部は、前記第1のユーザーの利用対象のサービスまたはアプリケーションによる、いずれのユーザーインターフェースを前記第1のユーザーに使用させるかに関する判断結果にさらに基づいて、前記第1のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、請求項3に記載の情報処理装置。
  6.  前記第1のユーザーが使用中のサービスまたはアプリケーションが、いずれかのユーザーインターフェースを前記第1のユーザーに使用させることを判断した際には、前記インターフェース制御部は、当該ユーザーインターフェースを前記第1のユーザーに使用させることを決定する、請求項5に記載の情報処理装置。
  7.  前記インターフェース制御部は、さらに、前記第1のユーザーの属性情報に基づいて、前記第1のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、請求項3に記載の情報処理装置。
  8.  前記インターフェース制御部は、さらに、前記第1のユーザーの前記第1のユーザーインターフェースまたは前記第2のユーザーインターフェースの習熟度に基づいて、前記第1のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、請求項7に記載の情報処理装置。
  9.  前記環境情報は、前記出力部または前記センサ部と前記第1のユーザーとの距離の検出結果を含み、
     前記出力部または前記センサ部と前記第1のユーザーとの距離が所定の閾値以上である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
     前記出力部または前記センサ部と前記第1のユーザーとの距離が前記所定の閾値未満である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  10.  前記環境情報は、前記出力部または前記センサ部の周辺の雑音のセンシング結果を含み、
     センシングされた前記出力部または前記センサ部の周辺の雑音の音量が所定の閾値以上である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替え、
     センシングされた前記出力部または前記センサ部の周辺の雑音の音量が前記所定の閾値未満である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  11.  前記環境情報は、前記第1のユーザーの集中度の検出結果を含み、
     センシングされた前記第1のユーザーの集中度が所定の閾値以上である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
     センシングされた前記第1のユーザーの集中度が前記所定の閾値未満である場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  12.  前記環境情報は、前記他のユーザーによる前記第1のユーザーの音声利用に関する賛否を示す情報を含み、
     前記他のユーザーが前記第1のユーザーの音声利用に関して肯定的な意思を有していると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
     前記他のユーザーが前記第1のユーザーの音声利用に関して否定的な意思を有していると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  13.  前記環境情報は、前記他のユーザーの状況を示す情報を含み、
     前記他のユーザーのうちの少なくとも一人が作業に集中していると判断される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替え、
     前記他のユーザーの全員が前記作業に集中していない、または、作業していないと判断される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  14.  前記環境情報は、前記第1のユーザーの姿勢の検出結果を含み、
     前記第1のユーザーが立っていることが検出された場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
     前記第1のユーザーが座っていることが検出された場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  15.  前記環境情報は、前記第1のユーザーの視界に関する検出結果を含み、
     前記第1のユーザーが前記第1のユーザーの前方を視認不能であると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
     前記第1のユーザーが前記第1のユーザーの前方を視認可能であると判定される場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  16.  前記環境情報は、前記第1のユーザーによる音声入力の利用状況を示す情報を含み、
     前記第1のユーザーが所定の時間内に音声入力を利用していた場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第1のユーザーインターフェースに切り替え、
     前記第1のユーザーが前記所定の時間内に音声入力を利用していなかった場合には、前記インターフェース制御部は、前記第1のユーザーに使用させるユーザーインターフェースを前記第2のユーザーインターフェースに切り替える、請求項3に記載の情報処理装置。
  17.  前記第1のユーザーと第2のユーザーとが所定の範囲内に位置する場合には、前記インターフェース制御部は、前記第1のユーザーの状態のセンシング結果と前記第2のユーザーの状態のセンシング結果とに基づいて、前記第1のユーザーおよび前記第2のユーザーに使用させるユーザーインターフェースを、少なくとも前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとの間で切り替える、請求項3に記載の情報処理装置。
  18.  前記インターフェース制御部は、前記第1のユーザーインターフェースと前記第2のユーザーインターフェースとのうち、より使用が容易であると判定されるユーザーインターフェースを前記第1のユーザーおよび前記第2のユーザーに使用させることを決定する、請求項17に記載の情報処理装置。
  19.  第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、プロセッサが環境情報に基づいて切り替えること、
    を含む、情報処理方法。
  20.  コンピュータを、
     第1のユーザーに使用させるユーザーインターフェースを、少なくとも、音声を用いた第1のユーザーインターフェースと、前記第1のユーザーインターフェースとは異なる第2のユーザーインターフェースとの間で、環境情報に基づいて切り替えるインターフェース制御部、
    として機能させるためのプログラム。
PCT/JP2018/044834 2018-02-23 2018-12-06 情報処理装置、情報処理方法、および、プログラム WO2019163255A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/970,080 US11803352B2 (en) 2018-02-23 2018-12-06 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-031185 2018-02-23
JP2018031185 2018-02-23

Publications (1)

Publication Number Publication Date
WO2019163255A1 true WO2019163255A1 (ja) 2019-08-29

Family

ID=67687530

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/044834 WO2019163255A1 (ja) 2018-02-23 2018-12-06 情報処理装置、情報処理方法、および、プログラム

Country Status (2)

Country Link
US (1) US11803352B2 (ja)
WO (1) WO2019163255A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007511833A (ja) * 2003-11-18 2007-05-10 マイクロソフト コーポレーション 環境適応型計算機
JP2014085954A (ja) * 2012-10-25 2014-05-12 Kyocera Corp 携帯端末装置、プログラムおよび入力操作受け付け方法
JP2015090547A (ja) * 2013-11-05 2015-05-11 ソニー株式会社 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP2015517149A (ja) * 2012-04-08 2015-06-18 サムスン エレクトロニクス カンパニー リミテッド ユーザ端末装置及びその制御方法
WO2016158792A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP2017120550A (ja) * 2015-12-28 2017-07-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110276329A1 (en) 2009-01-20 2011-11-10 Masaaki Ayabe Speech dialogue apparatus, dialogue control method, and dialogue control program
US9417665B2 (en) * 2010-06-28 2016-08-16 Apple Inc. Providing an alternative human interface
US20120030584A1 (en) * 2010-07-30 2012-02-02 Brian Bian Method and apparatus for dynamically switching between scalable graphical user interfaces for mobile devices
US9436301B2 (en) * 2011-06-29 2016-09-06 Google Technology Holdings LLC Portable electronic device having interchangeable user interfaces and method thereof
US9465633B2 (en) * 2011-08-05 2016-10-11 Vmware, Inc. Displaying applications of a virtual mobile device in a user interface of a mobile device
US9135914B1 (en) * 2011-09-30 2015-09-15 Google Inc. Layered mobile application user interfaces
US9584642B2 (en) * 2013-03-12 2017-02-28 Google Technology Holdings LLC Apparatus with adaptive acoustic echo control for speakerphone mode
US9672336B1 (en) * 2014-08-29 2017-06-06 ProfileCorrect LLC Security system for verification of user credentials
US10891397B2 (en) * 2015-04-30 2021-01-12 Huawei Technologies Co., Ltd. User interface display method for terminal, and terminal
US10678326B2 (en) * 2015-09-25 2020-06-09 Microsoft Technology Licensing, Llc Combining mobile devices with people tracking for large display interactions
US10788966B2 (en) * 2016-02-10 2020-09-29 Disney Enterprises, Inc. Systems and methods for interacting with a virtual interface
US20190079657A1 (en) * 2016-03-08 2019-03-14 Futureplay Inc. Control Device For Dynamically Providing Control Interface On Basis Of Change In Position Of User, Method For Dynamically Providing Control Interface In Control Device, And Computer Readable Recording Medium With Computer Program For Executing Method Recorded Thereon
US10359993B2 (en) * 2017-01-20 2019-07-23 Essential Products, Inc. Contextual user interface based on environment
US20180241870A1 (en) * 2017-02-17 2018-08-23 Samsung Electronics Co., Ltd. Method and electronic device for managing information of application
US10496162B2 (en) * 2017-07-26 2019-12-03 Microsoft Technology Licensing, Llc Controlling a computer using eyegaze and dwell
US10922391B2 (en) * 2018-01-03 2021-02-16 Wells Fargo Bank, N.A. User interface competence based authentication

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007511833A (ja) * 2003-11-18 2007-05-10 マイクロソフト コーポレーション 環境適応型計算機
JP2015517149A (ja) * 2012-04-08 2015-06-18 サムスン エレクトロニクス カンパニー リミテッド ユーザ端末装置及びその制御方法
JP2014085954A (ja) * 2012-10-25 2014-05-12 Kyocera Corp 携帯端末装置、プログラムおよび入力操作受け付け方法
JP2015090547A (ja) * 2013-11-05 2015-05-11 ソニー株式会社 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
WO2016158792A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP2017120550A (ja) * 2015-12-28 2017-07-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20210157545A1 (en) 2021-05-27
US11803352B2 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
US10546582B2 (en) Information processing device, method of information processing, and program
EP3647915A1 (en) Systems and methods for providing customizable haptic playback
AU2018241137A1 (en) Dynamic thresholds for always listening speech trigger
US20190019512A1 (en) Information processing device, method of information processing, and program
CN105009031A (zh) 上下文知晓增强现实对象命令
EP3705241A1 (en) Information processing device, information processing method, and program
US10946280B2 (en) In-game reactions to interruptions
US20200269421A1 (en) Information processing device, information processing method, and program
WO2017221492A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102525108B1 (ko) 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
JP6841232B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018154933A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200075008A1 (en) Voice data processing method and electronic device for supporting same
WO2018131251A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20160132811A (ko) 주의 기반 렌더링 및 피델리티
WO2015104883A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN109164908B (zh) 一种界面控制方法及移动终端
CN112074804A (zh) 信息处理系统、信息处理方法和记录介质
US20180063283A1 (en) Information processing apparatus, information processing method, and program
WO2016206642A1 (zh) 机器人的控制数据的生成方法及装置
WO2019163255A1 (ja) 情報処理装置、情報処理方法、および、プログラム
WO2019198299A1 (ja) 情報処理装置及び情報処理方法
CN116762055A (zh) 同步虚拟现实通知
EP3858450A1 (en) Electronic device for providing interactive game and operating method therefor
KR20200077936A (ko) 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18907314

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18907314

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP