WO2019073668A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2019073668A1
WO2019073668A1 PCT/JP2018/028959 JP2018028959W WO2019073668A1 WO 2019073668 A1 WO2019073668 A1 WO 2019073668A1 JP 2018028959 W JP2018028959 W JP 2018028959W WO 2019073668 A1 WO2019073668 A1 WO 2019073668A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
information processing
information
learning
learning progress
Prior art date
Application number
PCT/JP2018/028959
Other languages
English (en)
French (fr)
Inventor
邦在 鳥居
典史 吉川
佐藤 直之
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/650,430 priority Critical patent/US20200234187A1/en
Priority to JP2019547925A priority patent/JPWO2019073668A1/ja
Publication of WO2019073668A1 publication Critical patent/WO2019073668A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program.
  • Patent Document 1 discloses a technique in which the quality of information presentation is defined based on the degree of information search, and output control is performed according to the degree of information search.
  • the present disclosure proposes a novel and improved information processing apparatus, information processing method, and program that can make a user more naturally and intuitively perceive the learning progress related to information presentation.
  • the output control unit controls output of response information to the user, and the output control unit is configured to output an output representation of the response information based on a learning progress of learning related to generation of the response information.
  • An information processing apparatus for controlling is provided.
  • the processor controls the output of response information to the user, wherein the controlling is performed based on the learning progress of learning related to generation of the response information.
  • An information processing method is provided, further comprising controlling an output representation.
  • the computer is provided with an output control unit that controls an output of response information to the user, and the output control unit is configured to respond based on a learning progress of learning related to generation of the response information.
  • a program for functioning as an information processing apparatus, which controls an output expression of information, is provided.
  • the quality of the response information output by the agent device has a close correlation with the learning progress related to the generation of the response information. For this reason, in order for the agent device to output highly useful response information, a mechanism for collecting user feedback on response information and reflecting the feedback in learning is important.
  • An information processing apparatus, an information processing method, and a program according to an embodiment of the present disclosure are conceived based on the above points, and allow the user to more naturally perceive the learning progress related to information presentation. Make it possible to realize more efficient collection of feedback.
  • an information processing apparatus for realizing the information processing method according to the present embodiment is characterized in that the output representation of the response information is controlled based on the learning progress related to the generation of the response information.
  • FIG. 1 is a diagram for describing an overview of an embodiment of the present disclosure.
  • the upper part of FIG. 1 shows a user U1 who performs a user utterance UO1a related to a restaurant inquiry and an information processing terminal 10 which outputs response information to the user utterance UO1a by a voice utterance SO1a.
  • FIG. 1 an example in which the learning progress regarding recommendation of a restaurant is relatively low is shown. That is, the example shown in the upper part of FIG. 1 shows a situation where the usefulness of the response information related to the restaurant recommended by the system may not be high for the user U1 due to a factor such as low learning frequency regarding the preference of the user U1. It is done.
  • the information processing server 20 which concerns on this embodiment determines the output expression which suggests said condition based on the learning progress which concerns on recommendation of a restaurant being comparatively low,
  • combined the said output expression Can be output to the information processing terminal 10.
  • the information processing server 20 may combine, with the response information, an output expression indicating that the user is not confident about the usefulness of the response information.
  • the information processing server 20 inserts the sentence "Uh ... I do not know whether you like it or not" at the beginning of the sentence, and the certainty that "the evaluation seems to be high” is relatively The low expression is synthesized into the response information.
  • the information processing server 20 may synthesize an output expression in which the volume and intonation related to the voice utterance SO1a are suppressed, into the response information.
  • the font size and character decoration of the text corresponding to the speech utterance correspond to the volume and intonation of the speech utterance, respectively.
  • the user can naturally and intuitively perceive that the learning progress is low by controlling the output expression of the response information. It is possible to effectively encourage positive feedback by the user.
  • the information processing server 20 determines an output expression that indicates that the user U1 has determined that the usefulness of the response information is high for the user U1, and sets the response information obtained by combining the output expressions as the speech utterance SO1b. It can be output to the information processing terminal 10.
  • the information processing server 20 may combine, with the response information, an output expression indicating that the user is confident about the usefulness of the response information. Specifically, in the case of this example, the information processing server 20 inserts the sentence “with confidence” at the beginning of the sentence, and combines the assertive expression into the response information.
  • the information processing server 20 may synthesize an output expression in which the volume and the intonation related to the voice utterance SO1b are enhanced into the response information.
  • the user by controlling the output expression of the response information, the user can naturally and intuitively perceive that the learning progress is high, for example, It is possible to emphasize to the user that feedback by the user is appropriately reflected in learning.
  • FIG. 2 is a block diagram showing an exemplary configuration of the information processing system according to the present embodiment.
  • the information processing system according to the present embodiment includes an information processing terminal 10 and an information processing server 20. Further, the information processing terminal 10 and the information processing server 20 are connected via the network 30 so as to be able to communicate with each other.
  • the information processing terminal 10 is an information processing apparatus that outputs response information using voice and visual information to a user based on control by the information processing server 20.
  • the information processing terminal 10 according to the present embodiment is characterized in that the information processing server 20 outputs the response information based on the output expression dynamically determined based on the learning progress.
  • the information processing terminal 10 according to the present embodiment can be realized as various devices having a function of outputting voice and visual information.
  • the information processing terminal 10 according to the present embodiment may be, for example, a mobile phone, a smartphone, a tablet, a wearable device, a general-purpose computer, or a dedicated device of a stationary type or an autonomous moving type.
  • the information processing terminal 10 has a function of collecting various information related to the user and the surrounding environment.
  • the information processing terminal 10 collects, for example, sound information including the user's utterance, an input sentence input by the user through the device operation, image information obtained by imaging the user and the surroundings, and various other sensor information. Send.
  • the information processing server 20 is an information processing apparatus that controls the output of response information to the user.
  • the information processing server 20 according to the present embodiment is characterized in that an output expression of the response information is controlled based on the learning progress of learning related to generation of the response information.
  • the information processing server 20 according to the present embodiment may combine the output representation determined based on the learning progress with the response information generated based on the input information.
  • the network 30 has a function of connecting the information processing terminal 10 and the information processing server 20.
  • the network 30 may include the Internet, a public network such as a telephone network, a satellite communication network, various LANs (Local Area Networks) including Ethernet (registered trademark), a WAN (Wide Area Network), and the like.
  • the network 30 may include a leased line network such as an Internet Protocol-Virtual Private Network (IP-VPN).
  • IP-VPN Internet Protocol-Virtual Private Network
  • the network 30 may also include a wireless communication network such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).
  • the configuration example of the information processing system according to the present embodiment has been described above.
  • the configuration described above with reference to FIG. 2 is merely an example, and the configuration of the information processing system according to the present embodiment is not limited to such an example.
  • the functions of the information processing terminal 10 and the information processing server 20 according to the present embodiment may be realized by a single device.
  • the configuration of the information processing system according to the present embodiment can be flexibly deformed according to the specification and the operation.
  • FIG. 3 is a block diagram showing an example of a functional configuration of the information processing terminal 10 according to the present embodiment.
  • the information processing terminal 10 according to the present embodiment includes a display unit 110, an audio output unit 120, an audio input unit 130, an imaging unit 140, a sensor input unit 150, a control unit 160, and a server communication unit 170. Prepare.
  • the display unit 110 has a function of outputting visual information such as an image or text.
  • the display unit 110 according to the present embodiment displays, for example, text or an image corresponding to response information based on control by the information processing server 20.
  • the display unit 110 includes a display device or the like that presents visual information.
  • the display device include a liquid crystal display (LCD) device, an organic light emitting diode (OLED) device, and a touch panel.
  • the display unit 110 according to the present embodiment may output visual information by a projection function.
  • the voice output unit 120 has a function of outputting various sounds including voiced speech.
  • the voice output unit 120 according to the present embodiment outputs a voice utterance corresponding to the response information, for example, based on control by the information processing server 20.
  • the audio output unit 120 according to the present embodiment includes an audio output device such as a speaker or an amplifier.
  • the voice input unit 130 has a function of collecting sound information such as an utterance by a user and an ambient sound generated around the information processing terminal 10.
  • the sound information collected by the voice input unit 130 is used for voice recognition by the information processing server 20, recognition of the surrounding environment, and the like.
  • the voice input unit 130 according to the present embodiment includes a microphone for collecting sound information.
  • the imaging unit 140 has a function of capturing an image of the user or the surrounding environment.
  • the image information captured by the imaging unit 140 is used for action recognition and state recognition of the user by the information processing server 20, and recognition of the surrounding environment.
  • the imaging unit 140 according to the present embodiment includes an imaging device capable of capturing an image. Note that the above image includes moving images as well as still images.
  • the sensor input unit 150 has a function of collecting various sensor information related to the surrounding environment, the action of the user, and the state.
  • the sensor information collected by the sensor input unit 150 is used for recognition of the surrounding environment by the information processing server 20, action recognition of the user, and state recognition.
  • the sensor input unit 150 includes, for example, an optical sensor including an infrared sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, a thermal sensor, a vibration sensor, a GNSS (Global Navigation Satellite System) signal receiving device, and the like.
  • the sensor input unit 150 has a function of detecting an input sentence input by the user through the device operation.
  • the sensor input unit 150 according to the present embodiment includes, for example, a keyboard, a touch panel, a mouse, and various buttons.
  • Control unit 160 The control part 160 which concerns on this embodiment has a function which controls each structure with which the information processing terminal 10 is provided.
  • the control unit 160 controls, for example, start and stop of each component. Further, the control unit 160 inputs a control signal generated by the information processing server 20 to the display unit 110 or the audio output unit 120. Further, the control unit 160 according to the present embodiment may have the same function as the output control unit 270 of the information processing server 20 described later.
  • the server communication unit 170 has a function of performing information communication with the information processing server 20 via the network 30. Specifically, the server communication unit 170 transmits, to the information processing server 20, the sound information collected by the voice input unit 130, the image information captured by the imaging unit 140, and the sensor information collected by the sensor input unit 150. The server communication unit 170 also receives, from the information processing server 20, a control signal and the like relating to the output of the response information.
  • the example of the functional configuration of the information processing terminal 10 according to the present embodiment has been described above.
  • the above configuration described with reference to FIG. 3 is merely an example, and the functional configuration of the information processing terminal 10 according to the present embodiment is not limited to such an example.
  • the information processing terminal 10 according to the present embodiment may not necessarily include all of the configurations shown in FIG. 3.
  • the information processing terminal 10 can be configured not to include the display unit 110, the sensor input unit 150, and the like.
  • the control unit 160 according to the present embodiment may have the same function as the output control unit 270 of the information processing server 20.
  • the functional configuration of the information processing terminal 10 according to the present embodiment can be flexibly deformed according to the specification and the operation.
  • FIG. 4 is a block diagram showing an example of a functional configuration of the information processing server 20 according to the present embodiment.
  • the information processing server 20 according to the present embodiment includes an input analysis unit 210, a context analysis unit 220, a category extraction unit 230, a learning progress management unit 240, a learning function unit 250, a response generation unit 260, and output control. And a terminal communication unit 280.
  • the output control unit 270 according to the present embodiment includes an expression determination unit 272 and a combining unit 274.
  • the input analysis unit 210 analyzes sound information related to the user's utterance collected by the information processing terminal 10 and an input sentence input by the device operation, and converts the information into information that can be used by other configurations. It has a function.
  • the input analysis unit 210 according to the present embodiment may convert, for example, sound information related to the user's utterance into text at the word level.
  • the input analysis unit 210 may perform recognition regarding the state or behavior of the user and the surrounding environment.
  • the input analysis unit 210 can recognize, for example, the user's gaze, expression, emotion, behavior, and the like based on the collected image information.
  • the input analysis unit 210 can also estimate the characteristics of the place where the user is located based on, for example, image information and sensor information.
  • the context analysis unit 220 has a function of analyzing the context related to the user's input based on the information analyzed and converted by the input analysis unit 210.
  • the above context may include, for example, elements such as WHERE, WHEN, WHO, WHAT and the like according to the input content.
  • the category extraction unit 230 has a function of extracting a learning category related to generation of response information based on the information analyzed by the input analysis unit 210 and the context extracted by the context analysis unit 220.
  • the category which concerns on this embodiment refers to the unit which concerns on management of learning progress. That is, the learning progress according to the present embodiment may be calculated for each category.
  • the category according to the present embodiment may be determined based on the nature of the learning device.
  • the category according to the present embodiment may include, for example, image recognition, voice recognition, machine control and the like.
  • the learning progress management unit 240 has a function of dynamically calculating the learning progress for each of the categories described above.
  • the learning progress management unit 240 according to the present embodiment can calculate, for the category extracted by the category extraction unit 230, a learning progress that comprehensively takes into consideration judgment factors such as the number of times of learning, learning history, reliability, and the like. .
  • the functions possessed by the learning progress management unit 240 according to the present embodiment will be separately described in detail.
  • the learning function unit 250 has a function of performing learning based on input information using an algorithm such as Deep Learning. As described above, the learning function unit 250 according to the present embodiment may perform learning related to image recognition, voice recognition, and machine control, in addition to learning such as an answer to a user's inquiry. Further, the learning algorithm according to the present embodiment is not limited to the above example, and may be adopted appropriately according to the characteristics of the generated response information.
  • the response generation unit 260 has a function of generating response information using the knowledge learned by the learning function unit 250.
  • the output control unit 270 has a function of controlling the output of response information to the user. At this time, the output control unit 270 according to the present embodiment is characterized in that the output representation of the response information is controlled based on the learning progress calculated by the learning progress managing unit 240.
  • the output control unit 270 further controls the output of additional information that requests the user to provide feedback on response information.
  • the above-described functions of the output control unit 270 according to the present embodiment will be separately described in detail.
  • the output control unit 270 may include, for example, the expression determination unit 272 and the combining unit 274.
  • the expression determination unit 272 has a function of determining an output expression to be combined with response information based on the learning progress calculated by the learning progress management unit 240. At this time, the expression determination unit 272 according to the present embodiment may determine the above output expression based on the learning progress calculated for each category.
  • the expression determination unit 272 can determine the output expression for causing the user to perceive the learning progress based on the learning progress calculated by the learning progress management unit 240.
  • the expression determination unit 272 may determine an output expression that indicates that the usefulness of the response information for the user may not be high when the learning progress is low.
  • the expression determination unit 272 may determine an output expression indicating that the user is not confident about the usefulness of the response information, as in the example illustrated in FIG. More specifically, for example, the expression determination unit 272 reduces the volume associated with the speech utterance, shakes the voice, makes it difficult to hear, and so forth, and reduces or thins the characters associated with the visual information.
  • the output representation may be determined such as selecting a font with low visibility.
  • the expression determination unit 272 may determine an output expression that indicates that the user has determined that the response information is highly useful. For example, as in the example illustrated in FIG. 1, the expression determination unit 272 can determine an output expression indicating confidence in the usefulness of response information. More specifically, the expression determination unit 272 is, for example, an output expression such as raising the volume related to speech utterance or making it pronounce clearly, or a font having high visibility, which enlarges characters related to visual information, The output expression such as selecting may be determined.
  • the expression determining unit 272 moves the text content, the output mode, the output operation, etc. related to the response information based on the learning progress calculated for each category. Have the ability to change
  • the above output mode refers to an auditory or visual expression relating to the output of response information.
  • the expression determination unit 272 can control, for example, voice quality, size, prosody, output timing, effects, and the like of the speech utterance.
  • the above prosody includes the rhythm of the sound, strength and weakness, long and short, and the like.
  • the expression determination unit 272 can control, for example, the font, size, color, character decoration, arrangement, animation, and the like of the response information. According to the above-described function of the expression determination unit 272 according to the present embodiment, it is possible for the user to effectively perceive the learning progress by changing the aural or visual expression related to the response information according to the learning progress. Is possible.
  • the above output operation refers to an operation of a character or the like to be displayed as physical operation or visual information of the information processing terminal 10 according to the output of the response information.
  • the output operation may include the movement of parts such as limbs, an expression including sight line or blink, and the like.
  • the output operation includes, for example, various physical operations using light and vibration. According to the above-described function of the expression determination unit 272 according to the present embodiment, it is possible to cause the information processing terminal 10 to perform a more flexible output operation according to the learning progress.
  • the combining unit 274 has a function of combining the output information determined by the expression determining unit 272 based on the learning progress with respect to the response information generated by the response generating unit 260.
  • the terminal communication unit 280 has a function of performing information communication with the information processing terminal 10 via the network 30. Specifically, the terminal communication unit 280 receives sound information, input sentences, image information, and sensor information from the information processing terminal 10. Also, the terminal communication unit 280 transmits a control signal related to the output of the response information to the information processing terminal 10.
  • the input analysis unit 210, the context analysis unit 220, the category extraction unit 230, the learning progress management unit 240, the learning function unit 250, and the response generation unit 260 may be provided in another device different from the information processing server 20. It is possible.
  • the function of the output control unit 270 according to the present embodiment may be realized as a function of the control unit 160 of the information processing terminal 10. That is, the function of the output control unit 270 according to the present embodiment can be realized as a function on both the server side and the client side. For example, when the function is provided as a function of the information processing server 20, the user can receive services on various information processing terminals 10. On the other hand, when the information processing terminal 10 has the same function as the output control unit 270, the learning progress management unit 240, the learning function unit 250, and the response generation unit 260, more secure storage such as offline use or personal information Is possible.
  • the functional configuration of the information processing server 20 according to the present embodiment can be flexibly deformed according to the specification and the operation.
  • the learning progress management unit 240 can dynamically calculate the learning progress for each category.
  • the learning progress management unit 240 according to the present embodiment may calculate the learning progress using the element value according to the judgment element and the weighting factor for each judgment element.
  • the above-described determination factors may include, for example, the number of times of learning, the learning history, and the reliability.
  • the above-mentioned number of times of learning includes the number of times of use, the number of times of feedback from the user, and the like.
  • the learning progress management unit 240 may calculate the element value of the number of times of learning high, for example, when the number of times of log application, rule application, feedback, etc. is large.
  • the above-mentioned learning history may include the period since the last use, the frequency and the number of negative feedback in the latest, and the like.
  • the learning progress management unit 240 may calculate the element value of the learning history to be higher as the period is shorter after the last use, or when the frequency or the number of negative feedbacks in the last time is large, the element The value may be calculated low.
  • the result of the output by the learning function unit 250 may be taken into consideration for the above-mentioned reliability.
  • the learning progress management unit 240 may calculate the element value high when the range of the data search is wide or the error of the data search determination result is small.
  • the learning progress management unit 240 can use the value of the reliability of the recognition result determined by the recognition module as an element value.
  • w a to w c in the above equations are weighting coefficients for the learning frequency f, the learning history g, and the reliability q, respectively.
  • the learning progress management unit 240 may be determined dynamically weighting factors w a ⁇ w c in accordance with the characteristics of the learning categories.
  • the learning progress management unit 240 sets larger the weighting coefficient w a and w b, may be set smaller the weighting factor w c.
  • the learning progress management unit 240 sets the weighting factor w b large. You may
  • the learning progress management unit 240 may set a larger weighting coefficient w a and w c.
  • the learning progress management unit 240 may set the weighting factor w c large, since the range and accuracy of data search become dominant. However, in the case of a field where the term of validity of information is short, the freshness of data becomes important. Therefore, learning progress management unit 240 emphasizes the period since the last use and sets weighting coefficient w b large. It is also good.
  • the learning progress management unit 240 can dynamically calculate the learning progress according to various situations. For this reason, it can be said that the learning progress according to the present embodiment does not irreversibly increase, but a value that reversibly increases and decreases.
  • the weighting coefficient w b with respect to the learning history g becomes dominant, and then the element value of the learning history g becomes smaller, so that the learning progress decreases.
  • the unlearned area increases, for example, the number of targets to be recognized increases, the element value of the reliability q decreases, and the learning progress level decreases.
  • the learning progress management unit 240 As described above, according to the learning progress management unit 240 according to the present embodiment, it is possible to dynamically and reversibly calculate the high learning progress according to the situation.
  • the learning progress management unit 240 may perform recalculation of the learning progress at the timing when the user's feedback on the response information is received.
  • FIG. 5 is a diagram for explaining calculation of a learning progress based on feedback according to the present embodiment.
  • FIG. 5 shows an example in which the user U1 performs the user utterance UO 5a as negative feedback with respect to the response information output from the information processing terminal 10.
  • the user utterance UO 5a shown in FIG. 5 may be performed on the speech utterance SO1b shown in FIG.
  • the number of times of learning increases due to receiving negative feedback, it can be said that the learning progress is not good as the accuracy of learning.
  • the learning progress management unit 240 may calculate the element value so that the learning history g becomes smaller while increasing the number of times of learning f. Further, the learning progress management unit 240, after the above processing, so that the decrease of the learning history g is conspicuous, may adjust the weighting factors w a ⁇ w c, respectively.
  • the learning progress management unit 240 receives, for example, negative feedback with respect to the response information output in the state of having determined that the learning progress is high, the learning progress g has more influence than in the normal case. It is also possible to calculate to be large. In this case, it is possible to prevent erroneous learning from proceeding and to ask the user for correct feedback.
  • the output control unit 270 determines the output expression based on the learning progress that has been recalculated as described above, so that response information based on the learning progress that is high in accuracy each time to the information processing terminal 10 It can be output.
  • the output control unit 270 causes the information processing terminal 10 to output the speech utterance SO5a and the visual information SV5a in which the output representation suggesting the lack of confidence is synthesized based on the decreased learning progress. .
  • the learning progress management unit 240 and the output control unit 270 it is possible to calculate the learning progress with high accuracy and allow the user to naturally and intuitively perceive the learning progress. Become.
  • the output control unit 270 is characterized in that, in addition to the control of the output expression described above, the output control unit 270 further controls the output of additional information for requesting a feedback from the user.
  • the expression determination unit 272 determines the output content, the output timing, the output modal, the number of outputs, and the target of the additional information based on the learning progress that is dynamically calculated by the learning progress management unit 240.
  • the user etc. may be controlled.
  • the combining unit 274 according to the present embodiment can combine the above-described additional information generated by the expression determining unit 272 with the response information, and output the response information.
  • FIG. 6 is a diagram for describing output control of additional information according to a request for feedback according to the present embodiment.
  • FIG. 6 shows an example of the case where the output control unit 270 causes the additional information to be output when the learning progress is relatively low.
  • the output control unit 270 causes the information processing terminal 10 to output the additional information related to the feedback request at the timing when the action of the user corresponding to the response information is completed. Good.
  • the output control unit 270 may output additional information according to a feedback request at the timing when the user finishes eating at the restaurant. it can.
  • the output control unit 270 may cause the information processing terminal 10 to repeatedly output the additional information until the learning progress becomes sufficiently high.
  • the output control unit 270 may dynamically determine the output content related to the additional information based on the learning progress.
  • the above output contents include, for example, feedback items.
  • the output control unit 270 according to the present embodiment can determine, for example, the content, granularity, number, feedback method, and the like of feedback items based on the learning progress. That is, the output control unit 270 according to the present embodiment can cause the information processing terminal 10 to output the additional information from which more detailed feedback can be obtained as the learning progress is lower.
  • the output control unit 270 causes the information processing terminal 10 to output the option C1 for obtaining an overall evaluation related to the restaurant C and the field F1 for obtaining an input of an evaluation reason as the visual information SV6. There is.
  • the output control unit 270 can generate additional information for obtaining, as feedback, information necessary to increase the accuracy of the response information according to the learning progress.
  • the output control unit 270 for example, the reason for selecting a restaurant, improvement request, food preference, atmosphere preference, location preference, relevance to a situation (for example, companion), budget, Additional information for feedback on items such as recent history (most recently eaten, shops visited, etc.) can be determined each time based on learning progress. More specifically, when the learning progress is high, the output control unit 270 may output additional information for obtaining only the right or wrong for the response information as an option.
  • the output control unit 270 can request the user for detailed feedback by increasing the number of items described above and the free-entry feedback. At this time, the output control unit 270 may narrow down the items based on the priority according to the learning progress.
  • the output control unit 270 may also request feedback for other users who accompany the inquiring user.
  • the output control unit 270 can output the additional information for which feedback is required, to the user U2 who has eaten at the restaurant with the user U1.
  • the output control unit 270 uses all available output modals, or the user can By using the output modal that is in use, it is possible to increase the opportunity to get feedback from the user.
  • output modals for example, voice and visual information
  • the output control unit 270 for example, when it is determined that it is difficult for the user to perform immediate feedback from the result of the user's state recognition or the like, additional information indicating that feedback is requested later Can also be output.
  • the output control unit 270 causes the information processing terminal 10 to output the additional information including the above as the speech utterance SO6a.
  • the output control unit 270 when the learning progress is relatively low, the effective output content, output timing, output modal, number of outputs, target user, and target user are set to the user. Feedback can be requested, and efficient learning can be realized.
  • the output control unit 270 may output the additional information which requests the simple feedback only when the user is not busy or when the feedback is not received for a while. At this time, the output control unit 270 may give priority to not inhibiting the user's action, and may output the additional information only to the output modal not used by the user.
  • FIG. 7 is a flowchart showing a flow of control of an output expression based on the learning progress by the information processing server 20 according to the present embodiment.
  • the terminal communication unit 280 receives collected information from the information processing terminal 10 (S1101).
  • the collected information includes sound information including the user's uttered voice, an input sentence based on the device operation, image information, and sensor information.
  • the input analysis unit 210 executes input analysis based on the collected information received in step S1101 (S1102).
  • the input analysis in step S1102 includes text conversion of speech utterance and various recognition processes.
  • the context analysis unit 220 extracts the contest based on the result of the input analysis in step S1102 (S1103).
  • the category extraction unit 230 executes category extraction based on the result of the input analysis in step S1102 and the context extracted in step S1103 (S1104).
  • the response generation unit 260 generates response information based on the result of the input analysis in step S1102, the context extracted in step S1103 and the knowledge learned by the learning function unit 250 (S1105).
  • the learning progress management unit 240 calculates the learning progress with respect to the category extracted in step 1104 (S1106). At this time, the learning progress management unit 240 may dynamically calculate the learning progress based on the number of times of learning, the learning history, the reliability, and the like.
  • the output control unit 270 determines an output expression based on the learning progress calculated in step S1106, and combines it with the response information generated in step S1105 (S1107).
  • the terminal communication unit 280 transmits, to the information processing terminal 10, a control signal relating to the response information whose output representation has been combined in step S1107, and the response information is output (S1108).
  • FIG. 8 is a flowchart showing a flow of output control of additional information related to a feedback request by the information processing server 20 according to the present embodiment.
  • the output control unit 270 determines whether the learning progress calculated by the learning progress managing unit 240 has a sufficiently high value (S1201).
  • the output control unit 270 may end the process related to the output control of the additional information. On the other hand, as described above, the output control unit 270 may output the additional information according to the situation even when the learning progress is high.
  • the output control unit 270 subsequently determines whether the user is in a situation where immediate feedback is possible (S1202).
  • the output control unit 270 when the user is not in a situation where immediate feedback is possible (S1202: No), the output control unit 270 generates additional information for requesting feedback later (S1203), and outputs the additional information to the information processing terminal 10. (S1204).
  • the output control unit 270 repeatedly determines the situation until the feedback request timing, that is, the state where the user can perform feedback is reached (S1205).
  • the output control unit 270 learns The additional information related to the feedback request is generated on the basis of (S1206), and the information processing terminal 10 is made to output (S1207).
  • FIG. 9 is a flowchart showing a flow of updating of the learning function based on feedback by the information processing server 20 according to the present embodiment.
  • the terminal communication unit 280 receives feedback information from the information processing terminal 10 (S1301).
  • the input analysis unit 210 analyzes the feedback information received in step S1301 (S1302).
  • the context analysis unit 220 extracts context information for narrowing down the update target of the learning function (S1303).
  • the category extraction unit 230 extracts a category for narrowing down the update target of the learning function (S1304).
  • the learning function unit 250 executes the learning function update process based on the feedback information received in step S1301 (S1305).
  • the learning progress management unit 240 recalculates the learning progress based on the feedback information received in step S1301 and the update result of the learning function in step S1305 (S1306).
  • FIG. 10 is a block diagram showing an exemplary hardware configuration of the information processing server 20 according to an embodiment of the present disclosure.
  • the information processing server 20 includes, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, and an output device 879.
  • Storage 880, drive 881, connection port 882, and communication device 883 Note that the hardware configuration shown here is an example, and some of the components may be omitted. In addition, components other than the components shown here may be further included.
  • the CPU 871 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation or a part of each component based on various programs recorded in the ROM 872, the RAM 873, the storage 880, or the removable recording medium 901.
  • the ROM 872 is a means for storing a program read by the CPU 871, data used for an operation, and the like.
  • the RAM 873 temporarily or permanently stores, for example, a program read by the CPU 871 and various parameters appropriately changed when the program is executed.
  • the CPU 871, the ROM 872, and the RAM 873 are mutually connected via, for example, a host bus 874 capable of high-speed data transmission.
  • host bus 874 is connected to external bus 876, which has a relatively low data transmission speed, via bridge 875, for example.
  • the external bus 876 is connected to various components via an interface 877.
  • Input device 8708 For the input device 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, and the like are used. Furthermore, as the input device 878, a remote controller (hereinafter, remote control) capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • the input device 878 also includes a voice input device such as a microphone.
  • the output device 879 is a display device such as a CRT (Cathode Ray Tube), an LCD, or an organic EL, a speaker, an audio output device such as a headphone, a printer, a mobile phone, or a facsimile. It is a device that can be notified visually or aurally. Also, the output device 879 according to the present disclosure includes various vibration devices capable of outputting haptic stimulation.
  • the storage 880 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information on the removable recording medium 901, for example.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, DVD media, Blu-ray (registered trademark) media, HD DVD media, various semiconductor storage media, and the like.
  • the removable recording medium 901 may be, for example, an IC card equipped with a non-contact IC chip, an electronic device, or the like.
  • connection port 882 is, for example, a port for connecting an externally connected device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • an externally connected device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • the external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, an IC recorder, or the like.
  • the communication device 883 is a communication device for connecting to a network.
  • a communication card for wired or wireless LAN Bluetooth (registered trademark) or WUSB (Wireless USB), a router for optical communication, ADSL (Asymmetric Digital) (Subscriber Line) router, or modem for various communications.
  • Bluetooth registered trademark
  • WUSB Wireless USB
  • ADSL Asymmetric Digital
  • Subscriber Line Subscriber Line
  • the information processing server 20 has a function of controlling output of response information to the user.
  • the information processing server 20 has a feature of controlling an output expression of the response information based on the learning progress of learning related to generation of the response information. According to the configuration, it is possible to make the user perceive the learning progress related to the information presentation more naturally and intuitively. Is possible.
  • each step concerning processing of information processing server 20 of this specification does not necessarily need to be processed in chronological order according to the order described in the flowchart.
  • the steps related to the processing of the information processing server 20 may be processed in an order different from the order described in the flowchart or may be processed in parallel.
  • An output control unit that controls output of response information to the user; Equipped with The output control unit controls an output expression of the response information based on a learning progress of learning related to generation of the response information.
  • Information processing device (2) The output control unit combines the output expression determined based on the learning progress with response information generated based on input information. The information processing apparatus according to (1). (3) The output control unit controls the output expression based on the learning progress calculated for each category of learning related to generation of the response information. The information processing apparatus according to (1) or (2). (4) The learning progress is dynamically calculated based on at least one of the number of times of learning, learning history, and reliability. The information processing apparatus according to any one of the above (1) to (3).
  • the learning progress is dynamically calculated using an element value related to a judgment element and a weighting factor for each judgment element.
  • the weighting factor for each judgment element is determined according to the characteristics of a category of learning related to generation of the response information.
  • the learning progress is dynamically calculated based on user feedback on response information.
  • the output representation includes at least one of sentence content, an output mode, and an output operation related to the response information,
  • the output control unit dynamically changes at least one of the sentence content, the output mode, and the output operation based on the learning progress.
  • the information processing apparatus according to any one of the above (1) to (6).
  • the output control unit determines the output expression for causing a user to perceive the learning progress based on the learning progress.
  • the information processing apparatus according to any one of the above (1) to (7).
  • the output control unit determines an output expression that suggests that the availability of the response information to the user may not be high when the learning progress is low.
  • the output control unit determines an output expression that indicates that it is determined that the response information is highly useful to the user.
  • the output control unit further controls output of additional information that requests a user to provide feedback on the response information.
  • the information processing apparatus according to any one of the above (1) to (10).
  • the output control unit controls at least one of an output content of the additional information, an output timing, an output modal, a number of outputs, or a target user based on the learning progress.
  • the output control unit when the learning progress is low, causes the additional information to be output at a timing at which the action of the user corresponding to the response information is completed.
  • the output control unit causes the additional information to be output when the user is not busy when the learning progress is high.
  • the output control unit outputs additional information for requesting feedback later, when the learning progress is low and it is difficult for the user to perform immediate feedback.
  • the information processing apparatus according to any one of the above (12) to (14).
  • the output content of the additional information includes a feedback item, The output control unit determines at least one of an item content, a granularity, a number, and a feedback method related to a feedback back item, based on the learning progress.
  • the information processing apparatus according to any one of the above (12) to (15).
  • a learning progress management unit that calculates the learning progress; Further comprising The information processing apparatus according to any one of the above (1) to (16).
  • the output control unit controls at least an output expression of a speech utterance related to the response information.
  • the information processing apparatus according to any one of the above (1) to (17).
  • the processor controlling output of response information to the user; Including The controlling may control an output expression of the response information based on a learning progress of learning related to generation of the response information. Further include, Information processing method. (20) Computer, An output control unit that controls output of response information to the user; Equipped with The output control unit controls an output expression of the response information based on a learning progress of learning related to generation of the response information.
  • Information processing device Program to function as.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】情報提示に係る学習進度をより自然かつ直観的にユーザに知覚させる。 【解決手段】ユーザに対する応答情報の出力を制御する出力制御部、を備え、前記出力制御部は、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御する、情報処理装置が提供される。また、プロセッサが、ユーザに対する応答情報の出力を制御すること、を含み、前記制御することは、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御すること、をさらに含む、情報処理方法が提供される。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 近年、ユーザに対し音声や視覚情報を用いて情報提示を行う種々の装置が普及している。また、上記のような情報提示に係るユーザの利便性を向上させる技術も多く開発されている。例えば、特許文献1には、情報提示の質を情報探索度に基づいて定義し、当該情報探索度に応じて出力制御を行う技術が開示されている。
特開2016-136355号公報
 ところで、上記のような装置により出力される情報の質は、情報提示に係る学習進度と密な相関を有する。しかし、特許文献1に記載されるような技術では、ユーザが装置の学習進度を把握することが困難である。
 そこで、本開示では、情報提示に係る学習進度をより自然かつ直観的にユーザに知覚させることが可能な、新規かつ改良された情報処理装置および情報処理方法、およびプログラムを提案する。
 本開示によれば、ユーザに対する応答情報の出力を制御する出力制御部、を備え、前記出力制御部は、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御する、情報処理装置が提供される。
 また、本開示によれば、プロセッサが、ユーザに対する応答情報の出力を制御すること、を含み、前記制御することは、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御すること、をさらに含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、ユーザに対する応答情報の出力を制御する出力制御部、を備え、前記出力制御部は、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御する、情報処理装置、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、情報提示に係る学習進度をより自然かつ直観的にユーザに知覚させることが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る出力制御の概要について説明するための図である。 同実施形態に係る情報処理システムの構成例を示すブロック図である。 同実施形態に係る情報処理端末の機能構成例を示すブロック図である。 同実施形態に係る情報処理サーバの機能構成例を示すブロック図である。 同実施形態に係るフィードバックに基づく学習進度の算出について説明するための図である。 同実施形態に係るフィードバックの要求に係る付加情報の出力制御について説明するための図である。 同実施形態に係る情報処理サーバによる学習進度に基づく出力表現の制御の流れを示すフローチャートである。 同実施形態に係る情報処理サーバによるフィードバック要求に係る付加情報の出力制御の流れを示すフローチャートである。 同実施形態に係る情報処理サーバによるフィードバックに基づく学習機能の更新の流れを示すフローチャートである。 本開示の一実施形態に係る情報処理サーバのハードウェア構成例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.実施形態
  1.1.概要
  1.2.システム構成例
  1.3.情報処理端末10の機能構成例
  1.4.情報処理サーバ20の機能構成例
  1.5.学習進度の算出
  1.6.フィードバックの要求に係る付加情報の出力制御
  1.7.制御の流れ
 2.ハードウェア構成例
 3.まとめ
 <1.第1の実施形態>
 <<1.1.概要>>
 近年、機械学習などの手法を用いてユーザに情報提示を行う種々の装置が普及している。上記のような装置には、例えば、音声発話や視覚情報を用いてユーザに情報を提示するエージェント装置が挙げられる。エージェント装置は、例えば、ユーザの問い合わせに対する応答情報などを、音声発話の出力や視覚情報の表示などにより行うことができる。
 この際、エージェント装置が出力する応答情報の質は、当該応答情報の生成に係る学習の進度と密な相関を有する。このため、エージェント装置がより有益度の高い応答情報を出力するためには、応答情報に対するユーザのフィードバックを収集し、当該フィードバックを学習に反映する機構が重要となる。
 上記のようなフィードバックの収集手段としては、例えば、出力された応答情報に対する評価を、ボタン押下やアンケート記入により収集する手法が挙げられる。しかし、多くの場合、評価項目や評価タイミングは、学習進度に依らず静的に決定されているのが実情である。
 このため、エージェント装置の利用初期段階や、発生頻度の低いユースケースに直面した場合など、フィードバックがより重要となる状況であっても、ユーザが当該状況を把握することができず、効率的な学習を実現することが困難であった。
 また、学習進度に依らず常に詳細なフィードバックをユーザに求め続けることも想定されるが、この場合、ユーザの入力負担が増大することとなる。さらには、度重なる内容の重複したフードバックの要求にユーザが辟易とし、フィードバック自体が収集できなくなる事態も想定される。
 本開示の一実施形態に係る情報処理装置、情報処理方法、およびプログラムは、上記の点に着目して発想されたものであり、情報提示に係る学習進度をより自然にユーザに知覚させることで、より効率的なフィードバックの収集を実現することを可能とする。このために、本実施形態に係る情報処理方法を実現する情報処理装置は、応答情報の生成に係る学習進度に基づいて、当該応答情報の出力表現を制御すること、を特徴の一つとする。
 図1は、本開示の一実施形態の概要について説明するための図である。図1の上部には、レストランの問い合わせに係るユーザ発話UO1aを行うユーザU1と、ユーザ発話UO1aに対する応答情報を音声発話SO1aにより出力する情報処理端末10が示されている。
 なお、図1の上部では、レストランの推薦に係る学習進度が比較的低い場合の一例が示されている。すなわち、図1の上部に示す一例では、ユーザU1の嗜好に関する学習回数が低いなどの要因から、システムが推薦するレストランに係る応答情報の有益度がユーザU1にとって高くない可能性がある状況が示されている。
 この際、本実施形態に係る情報処理サーバ20は、レストランの推薦に係る学習進度が比較的低いことに基づいて、上記の状況を示唆する出力表現を決定し、当該出力表現を合成した応答情報を情報処理端末10に出力させることができる。
 例えば、本実施形態に係る情報処理サーバ20は、応答情報の有益度に関し自信がないことを示す出力表現を応答情報に合成してもよい。具体的には、本例の場合、情報処理サーバ20は、「ええと…お気に召すか分かりませんが」という文章を文頭に挿入するとともに、「評価が高いようです」という確度が比較的低い表現を応答情報に合成している。
 また、情報処理サーバ20は、音声発話SO1aに係る音量や抑揚を抑えた出力表現を応答情報に合成してもよい。なお、本開示で用いられる図面において、音声発話に対応する文章のフォントの大きさや文字装飾は、音声発話の音量や抑揚にそれぞれ対応するものとする。
 このように、本実施形態に係る情報処理サーバ20と情報処理端末10によれば、応答情報の出力表現を制御することで、学習進度が低いことを自然かつ直観的にユーザに知覚させることができ、ユーザによる積極的なフィードバックを効果的に促すことが可能となる。
 一方、図1の下段には、レストランの推薦に係る学習進度が比較的高い場合の一例が示されている。この際、本実施形態に係る情報処理サーバ20は、応答情報の有益度がユーザU1にとって高いと判断したことを示唆する出力表現を決定し、当該出力表現を合成した応答情報を音声発話SO1bとして情報処理端末10に出力させることができる。
 例えば、本実施形態に係る情報処理サーバ20は、応答情報の有益度に関し自信があることを示す出力表現を応答情報に合成してもよい。具体的には、本例の場合、情報処理サーバ20は、「自信を持って」という文章を文頭に挿入するとともに、断定的な表現を応答情報に合成している。
 また、情報処理サーバ20は、音声発話SO1bに係る音量や抑揚を高めた出力表現を応答情報に合成してもよい。
 本実施形態に係る情報処理サーバ20と情報処理端末10によれば、応答情報の出力表現を制御することで、学習進度が高いことを自然かつ直観的にユーザに知覚させることができ、例えば、ユーザによるフィードバックが適切に学習に反映されていることなどを、ユーザに強調することが可能となる。
 <<1.2.システム構成例>>
 次に、本実施形態に係る情報処理システムの構成例について説明する。図2は、本実施形態に係る情報処理システムの構成例を示すブロック図である。図2を参照すると、本実施形態に係る情報処理システムは、情報処理端末10および情報処理サーバ20を備える。また、情報処理端末10と情報処理サーバ20は、ネットワーク30を介して互いに通信が行えるように接続される。
 (情報処理端末10)
 本実施形態に係る情報処理端末10は、情報処理サーバ20による制御に基づいて、ユーザに対し音声や視覚情報を用いた応答情報の出力を行う情報処理装置である。本実施形態に係る情報処理端末10は、情報処理サーバ20が学習進度に基づいて動的に決定した出力表現に基づいて応答情報の出力を行うことを特徴の一つとする。
 本実施形態に係る情報処理端末10は、音声や視覚情報を出力する機能を有する種々の装置として実現され得る。本実施形態に係る情報処理端末10は、例えば、携帯電話、スマートフォン、タブレット、ウェアラブル装置、汎用コンピュータ、据え置き型または自律移動型の専用装置などであってもよい。
 また、本実施形態に係る情報処理端末10は、ユーザや周囲環境に係る種々の情報を収集する機能を有する。情報処理端末10は、例えば、ユーザの発話を含む音情報、ユーザが機器操作により入力した入力文章、ユーザや周囲を撮像した画像情報、その他の種々のセンサ情報を収集し、情報処理サーバ20に送信する。
 (情報処理サーバ20)
 本実施形態に係る情報処理サーバ20は、ユーザに対する応答情報の出力を制御する情報処理装置である。この際、本実施形態に係る情報処理サーバ20は、応答情報の生成に係る学習の学習進度に基づいて、当該応答情報の出力表現を制御することを特徴の一つとする。具体的には、本実施形態に係る情報処理サーバ20は、入力情報に基づいて生成した応答情報に対し、学習進度に基づいて決定した前記出力表現を合成してよい。
 (ネットワーク30)
 ネットワーク30は、情報処理端末10と情報処理サーバ20とを接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
 以上、本実施形態に係る情報処理システムの構成例について説明した。なお、図2を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの構成は係る例に限定されない。例えば、本実施形態に係る情報処理端末10および情報処理サーバ20が有する機能は、単一の装置により実現されてもよい。本実施形態に係る情報処理システムの構成は、仕様や運用に応じて柔軟に変形可能である。
 <<1.3.情報処理端末10の機能構成例>>
 次に、本実施形態に係る情報処理端末10の機能構成例について説明する。図3は、本実施形態に係る情報処理端末10の機能構成例を示すブロック図である。図3を参照すると、本実施形態に係る情報処理端末10は、表示部110、音声出力部120、音声入力部130、撮像部140、センサ入力部150、制御部160、およびサーバ通信部170を備える。
 (表示部110)
 本実施形態に係る表示部110は、画像やテキストなどの視覚情報を出力する機能を有する。本実施形態に係る表示部110は、例えば、情報処理サーバ20による制御に基づいて、応答情報に対応するテキストや画像を表示する。
 このために、本実施形態に係る表示部110は、視覚情報を提示する表示デバイスなどを備える。上記の表示デバイスには、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネルなどが挙げられる。また、本実施形態に係る表示部110は、プロジェクション機能により視覚情報を出力してもよい。
 (音声出力部120)
 本実施形態に係る音声出力部120は、音声発話を含む種々の音を出力する機能を有する。本実施形態に係る音声出力部120は、例えば、情報処理サーバ20による制御に基づいて、応答情報に対応する音声発話を出力する。このために、本実施形態に係る音声出力部120は、スピーカやアンプなどの音声出力装置を備える。
 (音声入力部130)
 本実施形態に係る音声入力部130は、ユーザによる発話や、情報処理端末10の周囲で発生する周囲音などの音情報を収集する機能を有する。音声入力部130が収集する音情報は、情報処理サーバ20による音声認識や周囲環境の認識などに用いられる。本実施形態に係る音声入力部130は、音情報を収集するためのマイクロフォンを備える。
 (撮像部140)
 本実施形態に係る撮像部140は、ユーザや周囲環境の画像を撮像する機能を有する。撮像部140が撮像した画像情報は、情報処理サーバ20によるユーザの行動認識や状態認識、周囲環境の認識に用いられる。本実施形態に係る撮像部140は、画像を撮像することが可能な撮像装置を備える。なお、上記の画像には、静止画像のほか動画像が含まれる。
 (センサ入力部150)
 本実施形態に係るセンサ入力部150は、周囲環境やユーザの行動、状態に関する種々のセンサ情報を収集する機能を有する。センサ入力部150が収集したセンサ情報は、情報処理サーバ20による周囲環境の認識やユーザの行動認識、状態認識に用いられる。センサ入力部150は、例えば、赤外線センサを含む光センサ、加速度センサ、ジャイロセンサ、地磁気センサ、熱センサ、振動センサ、GNSS(Global Navigation Satellite System)信号受信装置などを備える。
 また、本実施形態に係るセンサ入力部150は、ユーザが機器操作により入力した入力文章を検出する機能を有する。このために、本実施形態に係るセンサ入力部150は、例えば、キーボード、タッチパネル、マウス、各種のボタンなどを備える。
 (制御部160)
 本実施形態に係る制御部160は、情報処理端末10が備える各構成を制御する機能を有する。制御部160は、例えば、各構成の起動や停止を制御する。また、制御部160は、情報処理サーバ20により生成される制御信号を表示部110や音声出力部120に入力する。また、本実施形態に係る制御部160は、後述する情報処理サーバ20の出力制御部270と同等の機能を有してもよい。
 (サーバ通信部170)
 本実施形態に係るサーバ通信部170は、ネットワーク30を介して情報処理サーバ20との情報通信を行う機能を有する。具体的には、サーバ通信部170は、音声入力部130が収集した音情報や、撮像部140が撮像した画像情報、センサ入力部150が収集したセンサ情報を情報処理サーバ20に送信する。また、サーバ通信部170は、情報処理サーバ20から応答情報の出力に係る制御信号などを受信する。
 以上、本実施形態に係る情報処理端末10の機能構成例について説明した。なお、図3を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理端末10の機能構成は係る例に限定されない。例えば、本実施形態に係る情報処理端末10は、図3に示す構成のすべてを必ずしも備えなくてもよい。例えば、情報処理端末10は、表示部110やセンサ入力部150などを備えない構成をとることもできる。また、上述したように、本実施形態に係る制御部160は、情報処理サーバ20の出力制御部270と同等の機能を有してもよい。本実施形態に係る情報処理端末10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 <<1.4.情報処理サーバ20の機能構成例>>
 次に、本実施形態に係る情報処理サーバ20の機能構成例について詳細に説明する。図4は、本実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。図4を参照すると、本実施形態に係る情報処理サーバ20は、入力解析部210、コンテクスト解析部220、カテゴリ抽出部230、学習進度管理部240、学習機能部250、応答生成部260、出力制御部270、および端末通信部280を備える。また、本実施形態に係る出力制御部270は、表現決定部272および合成部274を備える。
 (入力解析部210)
 本実施形態に係る入力解析部210は、情報処理端末10が収集したユーザの発話に係る音情報や、機器操作により入力された入力文章を解析し、他の構成が利用可能な情報に変換する機能を有する。本実施形態に係る入力解析部210は、例えば、ユーザの発話に係る音情報を単語レベルのテキストに変換してもよい。
 また、本実施形態に係る入力解析部210は、ユーザの状態や行動、周囲環境に係る認識を行ってよい。入力解析部210は、例えば、収集された画像情報に基づいて、ユーザの視線や表情、感情、行動などを認識することが可能である。また、入力解析部210は、例えば、画像情報やセンサ情報に基づいて、ユーザが位置する場所の特性を推定することも可能である。
 (コンテクスト解析部220)
 本実施形態に係るコンテクスト解析部220は、入力解析部210が解析、変換した情報に基づいて、ユーザの入力に係るコンテクストを解析する機能を有する。ここで、上記のコンテクストには、例えば、入力内容に係るWHERE、WHEN、WHO、WHATなどの要素を含んでよい。
 例えば、図1に示したユーザ発話SO1の場合、コンテクスト解析部220は、入力解析部210が変換したテキストに基づいて、WHERE=この辺、WHAT=おすすめのレストラン、を抽出することができる。また、この場合、コンテクスト解析部220は、明示されなかった要素に対して、WHEN=現時刻、WHO=ユーザU1、などの情報を補完して抽出してもよい。
 (カテゴリ抽出部230)
 本実施形態に係るカテゴリ抽出部230は、入力解析部210が解析した情報、およびコンテクスト解析部220が抽出したコンテクストに基づいて、応答情報の生成に係る学習のカテゴリを抽出する機能を有する。
 本実施形態に係るカテゴリとは、学習進度の管理に係る単位を指す。すなわち、本実施形態に係る学習進度は、カテゴリごとに算出されてよい。本実施形態に係るカテゴリには、例えば、旅行先やレストランなどの問い合わせ目的(=WHAT)に基づいて決定されてもよい。また、本実施形態に係るカテゴリは、例えば、ユーザ個人またはユーザの家族などの対象ユーザ(=WHO)に基づいて決定されてもよい。
 また、本実施形態に係るカテゴリは、学習器の性質に基づいて定められてもよい。本実施形態に係るカテゴリには、例えば、画像認識、音声認識、機械制御なども含まれ得る。
 (学習進度管理部240)
 本実施形態に係る学習進度管理部240は、上述したカテゴリごとに学習進度を動的に算出する機能を有する。本実施形態に係る学習進度管理部240は、カテゴリ抽出部230が抽出したカテゴリについて、例えば、学習回数、学習履歴、信頼度などの判断要素を総合的に加味した学習進度を算出することができる。なお、本実施形態に係る学習進度管理部240が有する機能については別途詳細に説明する。
 (学習機能部250)
 本実施形態に係る学習機能部250は、Deep Learningなどのアルゴリズムを用いて入力情報に基づく学習を行う機能を有する。上述したように、本実施形態に係る学習機能部250は、ユーザの問い合わせに対する回答などの学習の他、画像認識、音声認識、機械制御に係る学習を行ってもよい。また、本実施形態に係る学習アルゴリズムは、上記の例に限定されず、生成される応答情報の特性に応じて適宜採択され得る。
 (応答生成部260)
 本実施形態に係る応答生成部260は、学習機能部250が学習した知識を用いて応答情報を生成する機能を有する。
 (出力制御部270)
 本実施形態に係る出力制御部270は、ユーザに対する応答情報の出力を制御する機能を有する。この際、本実施形態に係る出力制御部270は、学習進度管理部240が算出した学習進度に基づいて応答情報の出力表現を制御することを特徴の一つとする。
 また、本実施形態に係る出力制御部270は、応答情報に対するフィードバックをユーザに要求する付加情報の出力をさらに制御する。本実施形態に係る出力制御部270が有する上記の機能については、別途詳細に説明する。
 本実施形態に係る出力制御部270は、例えば、表現決定部272および合成部274を備えてもよい。
 ((表現決定部272))
 本実施形態に係る表現決定部272は、学習進度管理部240が算出した学習進度に基づいて、応答情報に合成する出力表現を決定する機能を有する。この際、本実施形態に係る表現決定部272は、カテゴリごとに算出された学習進度に基づいて、上記の出力表現を決定してよい。
 より詳細には、本実施形態に係る表現決定部272は、学習進度管理部240が算出した学習進度に基づいて、ユーザに当該学習進度を知覚させるための前記出力表現を決定することができる。
 例えば、本実施形態に係る表現決定部272は、学習進度が低い場合、ユーザに対する応答情報の有益度が高くない可能性があることを示唆する出力表現を決定してよい。表現決定部272は、図1に示した一例のように、応答情報の有益度に関し自信がないことを示す出力表現を決定してよい。より具体的には、表現決定部272は、例えば、音声発話に係る音量を低下させる、声を震えさせる、聞き取りづらく出力させる、などの出力表現や、視覚情報に係る文字を小さくする、薄くする、視認性の低いフォントを選択するなどの出力表現を決定してもよい。
 一方、表現決定部272は、学習進度が高い場合、ユーザに対する応答情報の有益度が高いと判断したことを示唆する出力表現を決定してよい。例えば、表現決定部272は、図1に示した一例のように、応答情報の有益度に関し自信があることを示す出力表現を決定することができる。より具体的には、表現決定部272は、例えば、音声発話に係る音量を上昇させる、はっきりと発音させるなどの出力表現や、視覚情報に係る文字を大きくする、濃くする、視認性の高いフォントを選択するなどの出力表現を決定してもよい。
 上記のような出力表現を実現するために、本実施形態に係る表現決定部272は、カテゴリごとに算出された学習進度に基づいて、応答情報に係る文章内容、出力態様、出力動作などを動的に変化させる機能を有する。
 ここで、上記の出力態様とは、応答情報の出力に係る聴覚的または視覚的な表現を指す。応答情報を音声発話により出力させる場合、表現決定部272は、例えば、音声発話の声質、大きさ、韻律、出力タイミング、効果などの制御を行うことができる。なお、上記の韻律には、音のリズム、強弱、長短などが含まれる。
 また、応答情報を視覚情報により出力させる場合、表現決定部272は、例えば、応答情報のフォント、大きさ、色、文字装飾、配置、アニメーションなどを制御することができる。本実施形態に係る表現決定部272が有する上記の機能によれば、学習進度に応じて応答情報に係る聴覚的または視覚的表現を変化させることで、ユーザにより効果的に学習進度を知覚させることが可能となる。
 また、上記の出力動作とは、応答情報の出力に係る情報処理端末10の物理的動作または視覚情報として表示させるキャラクターなどの動作を指す。例えば、情報処理端末10が人間や動物を模したロボットである場合、出力動作には、四肢などのパーツの動き、視線やまばたきなどを含む表情などが含まれてよい。また、出力動作には、例えば、光や振動を用いた種々の物理的動作が含まれる。本実施形態に係る表現決定部272が有する上記の機能によれば、情報処理端末10に学習進度に応じたより柔軟な出力動作を行わせることが可能となる。
 ((合成部274))
 本実施形態に係る合成部274は、応答生成部260が生成した応答情報に対し、表現決定部272が学習進度に基づいて決定した出力表現を合成する機能を有する。
 (端末制御部280)
 本実施形態に係る端末通信部280は、ネットワーク30を介して情報処理端末10との情報通信を行う機能を有する。具体的には、端末通信部280は、情報処理端末10から音情報、入力文章、画像情報、センサ情報を受信する。また、端末通信部280は、応答情報の出力に係る制御信号を情報処理端末10に送信する。
 以上、本実施形態に係る情報処理サーバ20の機能構成例について説明した。なお、図4を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理サーバ20の機能構成は係る例に限定されない。例えば、入力解析部210、コンテクスト解析部220、カテゴリ抽出部230、学習進度管理部240、学習機能部250、および応答生成部260などは、情報処理サーバ20とは異なる別の装置に備えることも可能である。
 また、上述したように、本実施形態に係る出力制御部270が有する機能は、情報処理端末10の制御部160の機能として実現されてもよい。すなわち、本実施形態に係る出力制御部270の機能は、サーバ側およびクライアント側の両方の機能として実現され得る。例えば、当該機能を情報処理サーバ20の機能として備える場合、ユーザは、様々な情報処理端末10においてサービスを享受することが可能である。一方、情報処理端末10が出力制御部270と同等の機能や、学習進度管理部240、学習機能部250、および応答生成部260などを備える場合、オフラインにおける使用や個人情報などのよりセキュアな保管が可能となる。本実施形態に係る情報処理サーバ20の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 <<1.5.学習進度の算出>>
 次に、本実施形態に係る学習進度の算出について詳細に説明する。上述したように、本実施形態に係る学習進度管理部240は、カテゴリごとに学習進度を動的に算出することが可能である。この際、本実施形態に係る学習進度管理部240は、判断要素に係る要素値と当該判断要素ごとに対する重み係数を用いて学習進度を算出してもよい。
 ここで、上記の判断要素には、例えば、学習回数、学習履歴、および信頼度などが含まれてよい。なお、上記の学習回数とは、利用回数やユーザからのフィードバック回数などが含まれる。学習進度管理部240は、例えば、ログやルール適用回数、フィードバック回数などが多い場合、学習回数の要素値を高く算出してよい。
 また、上記の学習履歴には、最後に利用されてからの期間や、直近における否定的なフィードバックの頻度や回数などが含まれてもよい。学習進度管理部240は、例えば、最後に利用されてから期間が短いほど学習履歴の要素値を高く算出してもよいし、直近における否定的なフィードバックの頻度や回数が多い場合には、要素値を低く算出してもよい。
 また、上記の信頼度には、学習機能部250による出力の結果が考慮されてよい。例えば、情報検索などの汎用的な事項に対する学習においては、学習進度管理部240は、データ検索の範囲が広い場合や、データ検索判断結果の誤差が小さい場合に、要素値を高く算出してよい。また、画像認識や音声認識などの認識処理においては、学習進度管理部240は、認識モジュールが判断した認識結果に対する信頼度の値を要素値として用いることもできる。
 ここで、学習回数をf、学習履歴をg、信頼度をqとした場合、本実施形態に係る学習進度は、例えば、学習進度=w*f+w*g+w*q、として算出されてもよい。ただし、上記の式におけるw~wは、それぞれ、学習回数f、学習履歴g、信頼度qに対する重み係数である。
 また、この際、本実施形態に係る学習進度管理部240は、例えば、学習のカテゴリの特性に応じて動的に重み係数w~wを決定してよい。
 例えば、ユーザの嗜好など、ユーザの特性に係る学習については、学習回数fと学習履歴gが重要な判断要素となる。このため、学習進度管理部240は、重み係数wおよびwを大きく設定し、重み係数wを小さく設定してよい。
 また、例えば、世間のトレンドなど短期間において比較的変化の大きい分野に関する学習に対しては、直近の学習履歴gが重要となることから、学習進度管理部240は、重み係数wを大きく設定してよい。
 また、例えば、画像認識や音声認識の場合、学習回数fと信頼度をqが重要な判断要素となる。このため、学習進度管理部240は、重み係数wおよびwを大きく設定してよい。
 また、例えば、情報検索などの汎用的な事項の場合、データ検索の範囲や精度が支配的となるため、学習進度管理部240は、重み係数wを大きく設定してよい。ただし、情報の有効期限が短い分野の場合、データの鮮度が重要となることから、学習進度管理部240は、最後に利用されてからの期間を重視し、重み係数wを大きく設定してもよい。
 このように、本実施形態に係る学習進度管理部240は、種々の状況に応じて学習進度を動的に算出することが可能である。このため、本実施形態に係る学習進度は、不可逆的に増大するものではなく、可逆的に増減する値であるといえる。
 例えば、変化の大きい分野において、しばらく利用されていない場合、学習履歴gに対する重み係数wが支配的となったうえで、学習履歴gの要素値が小さくなるため、学習進度は低下することとなる。
 また、学習回数fの要素値が高い場合であっても、直近におけるネガティブフィードバックの頻度や回数が多い場合には、学習履歴gの要素値が小さくなるため、学習進度は低下する。
 また、例えば、認識すべき対象が増加するなど、未学習の領域が増えた場合、信頼度qの要素値が小さくなることから、学習進度は低下する。
 このように、本実施形態に係る学習進度管理部240によれば、状況に応じた精度の高い学習進度を動的かつ可逆的に算出することが可能となる。
 また、本実施形態に係る学習進度管理部240は、応答情報に対するユーザのフィードバックを受けたタイミングで学習進度の再算出を行ってもよい。図5は、本実施形態に係るフィードバックに基づく学習進度の算出について説明するための図である。
 図5の上段には、情報処理端末10が出力した応答情報に対し、ユーザU1が否定的なフィードバックとしてユーザ発話UO5aを行った場合の一例が示されている。なお、図5に示すユーザ発話UO5aは、図1に示した音声発話SO1bに対して行われたものであってよい。この場合、否定的なフィードバックを受けたことにより学習回数は増加するものの、学習の精度としては、学習進度が芳しくない状態といえる。
 このため、本実施形態に係る学習進度管理部240は、学習回数fを高くする一方、学習履歴gが小さくなるよう要素値を算出してよい。また、学習進度管理部240は、上記の処理の後、学習履歴gの低下が顕著となるよう、重み係数w~wをそれぞれ調整してよい。
 また、学習進度管理部240は、例えば、学習進度が高いと判断した状態において出力された応答情報に対し否定的なフィードバックを受けた場合、通常の場合と比較してより学習履歴gの影響が大きくなるよう算出を行うことも可能である。この場合、誤った学習が進むことを防止し、ユーザに正しいフィードバックを仰ぐことが可能となる。
 また、本実施形態に係る出力制御部270は、上記のように算出され直した学習進度に基づき出力表現を決定することで、都度精度の高い学習進度に基づいた応答情報を情報処理端末10に出力させることができる。図5に示す一例の場合、出力制御部270が、低下した学習進度に基づいて、自信のなさを示唆する出力表現を合成した音声発話SO5aや視覚情報SV5aを情報処理端末10に出力させている。
 以上説明したように、本実施形態に係る学習進度管理部240および出力制御部270によれば、学習進度を精度高く算出し、当該学習進度をユーザにより自然かつ直観的に知覚させることが可能となる。
 <<1.6.フィードバックの要求に係る付加情報の出力制御>>
 次に、本実施形態に係るフィードバックの要求に係る付加情報の出力制御について詳細に説明する。本実施形態に係る出力制御部270は、上述した出力表現の制御に加え、フィードバックをユーザに要求するための付加情報の出力をさらに制御することを特徴の一つとする。
 この際、本実施形態に係る表現決定部272は、学習進度管理部240が動的に算出した学習進度に基づいて、上記の付加情報の出力内容、出力タイミング、出力モーダル、出力回数、および対象ユーザなどを制御してよい。また、本実施形態に係る合成部274は、表現決定部272が生成した上記の付加情報を応答情報に合成して出力することが可能である。
 図6は、本実施形態に係るフィードバックの要求に係る付加情報の出力制御について説明するための図である。図6には、学習進度が比較的低い場合において、出力制御部270が上記の付加情報を出力させる場合の一例が示されている。
 例えば、本実施形態に係る出力制御部270は、学習進度が比較的低い場合、応答情報に対応するユーザの行動が完了したタイミングでフィードバック要求に係る付加情報を情報処理端末10に出力させてもよい。
 例えば、応答情報として、レストランの推薦に係る情報提示を行った場合、本実施形態に出力制御部270は、ユーザが当該レストランで食事を終えたタイミングでフィードバック要求に係る付加情報を出力させることができる。出力制御部270は、学習進度が十分高くなるまで、付加情報の出力を情報処理端末10に繰り返し実行させてよい。
 この際、出力制御部270は、学習進度に基づいて、付加情報に係る出力内容を動的に決定してよい。上記の出力内容には、例えば、フィードバック項目が含まれる。本実施形態に係る出力制御部270は、例えば、学習進度に基づいて、フィードバック項目の内容、粒度、数、フィードバック方法などを決定することができる。すなわち、本実施形態に係る出力制御部270は、学習進度が低いほど、より詳細なフィードバックが得られる付加情報を情報処理端末10に出力させることができる。
 例えば、図6に示す一例の場合、出力制御部270は、レストランCに係る全体的な評価を求める選択肢C1や評価理由の入力を求めるフィールドF1を視覚情報SV6として情報処理端末10に出力させている。
 このように、本実施形態に係る出力制御部270は、学習進度に応じて、応答情報の精度を上げるために必要な情報をフィードバックとして求める付加情報を生成することができる。出力制御部270は、図6に示す項目のほか、例えば、レストランを選択した理由、改善要望、料理の好み、雰囲気の好み、場所の好み、シチュエーション(例えば、同行者)に対する適切度、予算、直近の履歴(最近食べた物や、行った店など)などの項目に関するフィードバックを求める付加情報を、学習進度に基づいて都度決定することができる。より具体的には、学習進度が高い場合には、出力制御部270は、応答情報に対する是非のみを選択肢として求める付加情報を出力してもよい。また、学習進度が低い場合には、出力制御部270は、上記の項目の数や自由記入形式のフィードバックを増やすことで、詳細なフィードバックをユーザに求めることが可能である。この際、出力制御部270は学習進度に応じた優先度に基づいて項目の絞込みを行ってよい。
 また、本実施形態に係る出力制御部270は、学習進度が低い場合においては、問い合わせを行ったユーザに同行している他のユーザに対してもフィードバックを求めてもよい。図6に示す一例の場合、出力制御部270は、ユーザU1と共にレストランで食事をしたユーザU2に対して、フィードバックを求める付加情報を出力させることができる。
 また、本実施形態に係る出力制御部270は、情報処理端末10が複数の出力モーダル(例えば、音声および視覚情報)を備えている場合には、利用可能な出力モーダルをすべて用いたり、ユーザが利用中である出力モーダルを用いることで、ユーザからフィードバックを得る機会を高めることが可能である。
 また、本実施形態に係る出力制御部270は、例えば、ユーザの状態認識の結果などから、ユーザが即時フィードバックを行うことが困難であると判断した場合には、後にフィードバックを求める旨の付加情報を出力させることもできる。図6に示す一例の場合、出力制御部270は、上記の旨を含む付加情報を音声発話SO6aとして情報処理端末10に出力させている。
 このように、本実施形態に係る出力制御部270によれば、学習進度が比較的低い場合において、効果的な出力内容、出力タイミング、出力モーダル、出力回数、対象ユーザを設定して、ユーザにフィードバックを要求することができ、効率的な学習を実現することが可能となる。
 一方、学習進度が十分に高い場合には、出力制御部270は、ユーザが多忙でないタイミングや、しばらくフィードバックを受けていない場合にのみ、簡易なフィードバックを要求する付加情報を出力させてよい。この際、出力制御部270は、ユーザの行動を阻害しないことを優先し、ユーザが用いていない出力モーダルにのみ付加情報を出力させてもよい。
 本実施形態に係る出力制御部270が有する上記の機能によれば、必要以上にユーザの負担を増やすことなく、かつ十分な学習進度を維持する効果が期待される。
 <<1.7.制御の流れ>>
 次に、本実施形態に係る情報処理サーバ20による制御の流れについて説明する。まず、情報処理サーバ20による学習進度に基づく出力表現の制御について述べる。
 図7は、本実施形態に係る情報処理サーバ20による学習進度に基づく出力表現の制御の流れを示すフローチャートである。
 図7を参照すると、まず、端末通信部280が情報処理端末10から収集情報を受信する(S1101)。上記の収集情報には、ユーザの発話音声を含む音情報、機器操作に基づく入力文章、画像情報、センサ情報が含まれる。
 次に、入力解析部210が、ステップS1101において受信された収集情報に基づく入力解析を実行する(S1102)。なお、ステップS1102における入力解析には、音声発話のテキスト変換や、種々の認識処理が含まれる。
 次に、コンテクスト解析部220が、ステップS1102における入力解析の結果に基づいて、コンテストを抽出する(S1103)。
 次に、カテゴリ抽出部230がステップS1102における入力解析の結果と、ステップS1103において抽出されたコンテクストとに基づいて、カテゴリ抽出を実行する(S1104)。
 次に、応答生成部260が、ステップS1102における入力解析の結果、ステップS1103において抽出されたコンテクスト、および学習機能部250によって学習された知識に基づいて応答情報を生成する(S1105)。
 次に、学習進度管理部240が、ステップ1104において抽出されたカテゴリに対する学習進度を算出する(S1106)。この際、学習進度管理部240は、学習回数、学習履歴、信頼度などに基づいて動的に学習進度を算出してよい。
 次に、出力制御部270が、ステップS1106において算出された学習進度に基づいて出力表現を決定し、ステップS1105において生成された応答情報に合成する(S1107)。
 次に、端末通信部280がステップS1107において出力表現が合成された応答情報に係る制御信号を情報処理端末10に送信し、当該応答情報が出力される(S1108)。
 次に、フィードバック要求に係る付加情報の出力制御の流れについて述べる。図8は、本実施形態に係る情報処理サーバ20によるフィードバック要求に係る付加情報の出力制御の流れを示すフローチャートである。
 図8を参照すると、まず、出力制御部270が、学習進度管理部240が算出した学習進度が十分に高い値であるか否かを判定する(S1201)。
 ここで、学習進度が十分に高い値である場合(S1201:Yes)、出力制御部270は、付加情報の出力制御に係る処理を終了してもよい。一方、上述したように、出力制御部270は、学習進度が高い場合であっても、状況に応じて付加情報を出力させてもよい。
 一方、学習進度が十分ではない場合(S1201:No)、出力制御部270は、続いて、ユーザが即時フィードバックが可能な状況であるか否かを判定する(S1202)。
 ここで、ユーザが即時フィードバックが可能な状況ではない場合(S1202:No)、出力制御部270は、後にフィードバックを求める旨の付加情報を生成し(S1203)、情報処理端末10に付加情報を出力させる(S1204)。
 次に、出力制御部270は、フィードバックの要求タイミング、すなわちユーザがフィードバック可能な状態となるまで、繰り返し状況の判定を行う(S1205)。
 ここで、ユーザがフィードバック可能な状態となった場合(S1205:Yes)、または、ステップS1202において、ユーザが即時フィードバックが可能な状態である場合(S1202:Yes)、出力制御部270は、学習進度に基づいてフィードバック要求に係る付加情報を生成し、(S1206)、情報処理端末10に出力させる(S1207)。
 次に、本実施形態に係る情報処理サーバ20によるフィードバックに基づく学習機能の更新の流れについて説明する。図9は、本実施形態に係る情報処理サーバ20によるフィードバックに基づく学習機能の更新の流れを示すフローチャートである。
 図9を参照すると、まず、端末通信部280が情報処理端末10からフィードバック情報を受信する(S1301)。
 次に、入力解析部210がステップS1301において受信されたフィードバック情報の解析を実行する(S1302)。
 次に、コンテクスト解析部220が、学習機能の更新対象を絞り込むためのコンテクスト情報を抽出する(S1303)。
 次に、カテゴリ抽出部230が、学習機能の更新対象を絞り込むためのカテゴリを抽出する(S1304)。
 次に、学習機能部250が、ステップS1301において受信されたフィードバック情報に基づいて、学習機能の更新処理を実行する(S1305)。
 次に、学習進度管理部240が、ステップS1301において受信されたフィードバック情報と、ステップS1305における学習機能の更新結果とに基づいて、学習進度を再算出する(S1306)。
 <2.ハードウェア構成例>
 次に、本開示の一実施形態に係る情報処理端末10および情報処理サーバ20に共通するハードウェア構成例について説明する。図10は、本開示の一実施形態に係る情報処理サーバ20のハードウェア構成例を示すブロック図である。図10を参照すると、情報処理サーバ20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 (CPU871)
 CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 (ROM872、RAM873)
 ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 (ホストバス874、ブリッジ875、外部バス876、インターフェース877)
 CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
 (入力装置878)
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
 (出力装置879)
 出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
 (ストレージ880)
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 (ドライブ881)
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 (リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 (接続ポート882)
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 (外部接続機器902)
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 (通信装置883)
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
 <3.まとめ>
 以上説明したように、本開示の一実施形態に係る情報処理サーバ20は、ユーザに対する応答情報の出力を制御する機能を有する。この際、本開示の一実施形態に係る情報処理サーバ20は、応答情報の生成に係る学習の学習進度に基づいて、当該応答情報の出力表現を制御すること、を特徴の一つとする。係る構成によれば、情報提示に係る学習進度をより自然かつ直観的にユーザに知覚させることが可能となる。が可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書の情報処理サーバ20の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理サーバ20の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザに対する応答情報の出力を制御する出力制御部、
 を備え、
 前記出力制御部は、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御する、
情報処理装置。
(2)
 前記出力制御部は、入力情報に基づいて生成される応答情報に対し、前記学習進度に基づいて決定した前記出力表現を合成する、
前記(1)に記載の情報処理装置。
(3)
 前記出力制御部は、前記応答情報の生成に係る学習のカテゴリごとに算出された前記学習進度に基づいて、前記出力表現を制御する、
前記(1)または(2)に記載の情報処理装置。
(4)
 前記学習進度は、学習回数、学習履歴、または信頼度のうち少なくともいずれかに基づいて動的に算出される、
前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
 前記学習進度は、判断要素に係る要素値と前記判断要素ごとに対する重み係数を用いて動的に算出され、
 前記判断要素ごとに対する前記重み係数は、前記応答情報の生成に係る学習のカテゴリの特性に応じて決定される、
前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
 前記学習進度は、応答情報に対するユーザのフィードバックに基づいて、動的に算出される、
前記(1)~(5)のいずれかに記載の情報処理装置。
(7)
 前記出力表現は、前記応答情報に係る文章内容、出力態様、または出力動作のうち少なくともいずれかを含み、
 前記出力制御部は、前記学習進度に基づいて、前記文章内容、前記出力態様、または前記出力動作のうち少なくともいずれかを動的に変化させる、
前記(1)~(6)のいずれかに記載の情報処理装置。
(8)
 前記出力制御部は、前記学習進度に基づいて、ユーザに前記学習進度を知覚させるための前記出力表現を決定する、
前記(1)~(7)のいずれかに記載の情報処理装置。
(9)
 前記出力制御部は、前記学習進度が低い場合、ユーザに対する前記応答情報の有益度が高くない可能性があることを示唆する出力表現を決定する、
前記(8)に記載の情報処理装置。
(10)
 前記出力制御部は、前記学習進度が高い場合、ユーザに対する前記応答情報の有益度が高いと判断したことを示唆する出力表現を決定する、
前記(8)または(9)に記載の情報処理装置。
(11)
 前記出力制御部は、前記応答情報に対するフィードバックをユーザに要求する付加情報の出力をさらに制御する、
前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
 前記出力制御部は、前記学習進度に基づいて、前記付加情報の出力内容、出力タイミング、出力モーダル、出力回数、または対象ユーザのうち少なくともいずれかを制御する、
前記(11)に記載の情報処理装置。
(13)
 前記出力制御部は、前記学習進度が低い場合、前記応答情報に対応するユーザの行動が完了したタイミングで前記付加情報を出力させる、
前記(12)に記載の情報処理装置。
(14)
 前記出力制御部は、前記学習進度が高い場合、ユーザが多忙でないタイミングで前記付加情報を出力させる、
前記(12)または(13)に記載の情報処理装置。
(15)
 前記出力制御部は、前記学習進度が低い場合であって、かつユーザが即時フィードバックを行うことが困難である場合、後にフィードバックを求める旨の付加情報を出力させる、
前記(12)~(14)のいずれかに記載の情報処理装置。
(16)
 前記付加情報の出力内容は、フィードバック項目を含み、
 前記出力制御部は、前記学習進度に基づいて、フィードバックバック項目に係る項目内容、粒度、数、またはフィードバック方法のうち少なくともいずれかを決定する、
前記(12)~(15)のいずれかに記載の情報処理装置。
(17)
 前記学習進度を算出する学習進度管理部、
 をさらに備える、
前記(1)~(16)のいずれかに記載の情報処理装置。
(18)
 前記出力制御部は、少なくとも前記応答情報に係る音声発話の出力表現を制御する、
前記(1)~(17)のいずれかに記載の情報処理装置。
(19)
 プロセッサが、ユーザに対する応答情報の出力を制御すること、
 を含み、
 前記制御することは、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御すること、
 をさらに含む、
情報処理方法。
(20)
 コンピュータを、
 ユーザに対する応答情報の出力を制御する出力制御部、
 を備え、
 前記出力制御部は、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御する、
 情報処理装置、
として機能させるためのプログラム。
 10   情報処理端末
 110  表示部
 120  音声出力部
 130  音声入力部
 140  撮像部
 150  センサ入力部
 160  制御部
 170  サーバ通信部
 20   情報処理サーバ
 210  入力解析部
 220  コンテクスト解析部
 230  カテゴリ抽出部
 240  学習進度管理部
 250  学習機能部
 260  応答生成部
 270  出力制御部
 272  表現決定部
 274  合成部
 280  端末通信部

Claims (20)

  1.  ユーザに対する応答情報の出力を制御する出力制御部、
     を備え、
     前記出力制御部は、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御する、
    情報処理装置。
  2.  前記出力制御部は、入力情報に基づいて生成される応答情報に対し、前記学習進度に基づいて決定した前記出力表現を合成する、
    請求項1に記載の情報処理装置。
  3.  前記出力制御部は、前記応答情報の生成に係る学習のカテゴリごとに算出された前記学習進度に基づいて、前記出力表現を制御する、
    請求項1に記載の情報処理装置。
  4.  前記学習進度は、学習回数、学習履歴、または信頼度のうち少なくともいずれかに基づいて動的に算出される、
    請求項1に記載の情報処理装置。
  5.  前記学習進度は、判断要素に係る要素値と前記判断要素ごとに対する重み係数を用いて動的に算出され、
     前記判断要素ごとに対する前記重み係数は、前記応答情報の生成に係る学習のカテゴリの特性に応じて決定される、
    請求項1に記載の情報処理装置。
  6.  前記学習進度は、応答情報に対するユーザのフィードバックに基づいて、動的に算出される、
    請求項1に記載の情報処理装置。
  7.  前記出力表現は、前記応答情報に係る文章内容、出力態様、または出力動作のうち少なくともいずれかを含み、
     前記出力制御部は、前記学習進度に基づいて、前記文章内容、前記出力態様、または前記出力動作のうち少なくともいずれかを動的に変化させる、
    請求項1に記載の情報処理装置。
  8.  前記出力制御部は、前記学習進度に基づいて、ユーザに前記学習進度を知覚させるための前記出力表現を決定する、
    請求項1に記載の情報処理装置。
  9.  前記出力制御部は、前記学習進度が低い場合、ユーザに対する前記応答情報の有益度が高くない可能性があることを示唆する出力表現を決定する、
    請求項8に記載の情報処理装置。
  10.  前記出力制御部は、前記学習進度が高い場合、ユーザに対する前記応答情報の有益度が高いと判断したことを示唆する出力表現を決定する、
    請求項8に記載の情報処理装置。
  11.  前記出力制御部は、前記応答情報に対するフィードバックをユーザに要求する付加情報の出力をさらに制御する、
    請求項1に記載の情報処理装置。
  12.  前記出力制御部は、前記学習進度に基づいて、前記付加情報の出力内容、出力タイミング、出力モーダル、出力回数、または対象ユーザのうち少なくともいずれかを制御する、
    請求項11に記載の情報処理装置。
  13.  前記出力制御部は、前記学習進度が低い場合、前記応答情報に対応するユーザの行動が完了したタイミングで前記付加情報を出力させる、
    請求項12に記載の情報処理装置。
  14.  前記出力制御部は、前記学習進度が高い場合、ユーザが多忙でないタイミングで前記付加情報を出力させる、
    請求項12に記載の情報処理装置。
  15.  前記出力制御部は、前記学習進度が低い場合であって、かつユーザが即時フィードバックを行うことが困難である場合、後にフィードバックを求める旨の付加情報を出力させる、
    請求項12に記載の情報処理装置。
  16.  前記付加情報の出力内容は、フィードバック項目を含み、
     前記出力制御部は、前記学習進度に基づいて、フィードバックバック項目に係る項目内容、粒度、数、またはフィードバック方法のうち少なくともいずれかを決定する、
    請求項12に記載の情報処理装置。
  17.  前記学習進度を算出する学習進度管理部、
     をさらに備える、
    請求項1に記載の情報処理装置。
  18.  前記出力制御部は、少なくとも前記応答情報に係る音声発話の出力表現を制御する、
    請求項1に記載の情報処理装置。
  19.  プロセッサが、ユーザに対する応答情報の出力を制御すること、
     を含み、
     前記制御することは、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御すること、
     をさらに含む、
    情報処理方法。
  20.  コンピュータを、
     ユーザに対する応答情報の出力を制御する出力制御部、
     を備え、
     前記出力制御部は、前記応答情報の生成に係る学習の学習進度に基づいて、前記応答情報の出力表現を制御する、
     情報処理装置、
    として機能させるためのプログラム。
PCT/JP2018/028959 2017-10-11 2018-08-02 情報処理装置、情報処理方法、およびプログラム WO2019073668A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/650,430 US20200234187A1 (en) 2017-10-11 2018-08-02 Information processing apparatus, information processing method, and program
JP2019547925A JPWO2019073668A1 (ja) 2017-10-11 2018-08-02 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-197576 2017-10-11
JP2017197576 2017-10-11

Publications (1)

Publication Number Publication Date
WO2019073668A1 true WO2019073668A1 (ja) 2019-04-18

Family

ID=66101390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/028959 WO2019073668A1 (ja) 2017-10-11 2018-08-02 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20200234187A1 (ja)
JP (1) JPWO2019073668A1 (ja)
WO (1) WO2019073668A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188808A1 (ja) * 2022-03-30 2023-10-05 株式会社Nttドコモ レコメンドシステム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018132511A1 (en) 2017-01-13 2018-07-19 Matsing Inc. Multi-beam mimo antenna systems and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076258A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. ユーザ適応型装置およびその制御方法
JP2006526826A (ja) * 2003-06-04 2006-11-24 ソニー ネットサービシーズ ゲゼルシャフト ミット ベシュレンクテル ハフツング 配列エンジンを有するコンテンツ推薦装置
WO2012127757A1 (ja) * 2011-03-22 2012-09-27 日本電気株式会社 履歴収集装置、推薦装置、履歴収集方法、およびコンピュータ読み取り可能な記録媒体
JP2014067206A (ja) * 2012-09-26 2014-04-17 Sony Corp 情報処理装置及び情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7721310B2 (en) * 2000-12-05 2010-05-18 Koninklijke Philips Electronics N.V. Method and apparatus for selective updating of a user profile
US8032480B2 (en) * 2007-11-02 2011-10-04 Hunch Inc. Interactive computing advice facility with learning based on user feedback
US20170357901A1 (en) * 2016-06-12 2017-12-14 The HintBox!, Inc. Proactive data gathering and user profile generation using deep analysis for a rapid onboarding process
US20180054523A1 (en) * 2016-08-16 2018-02-22 Rulai, Inc. Method and system for context sensitive intelligent virtual agents
US10455087B2 (en) * 2017-06-15 2019-10-22 Microsoft Technology Licensing, Llc Information retrieval using natural language dialogue
US20190272764A1 (en) * 2018-03-03 2019-09-05 Act, Inc. Multidimensional assessment scoring using machine learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006526826A (ja) * 2003-06-04 2006-11-24 ソニー ネットサービシーズ ゲゼルシャフト ミット ベシュレンクテル ハフツング 配列エンジンを有するコンテンツ推薦装置
WO2005076258A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. ユーザ適応型装置およびその制御方法
WO2012127757A1 (ja) * 2011-03-22 2012-09-27 日本電気株式会社 履歴収集装置、推薦装置、履歴収集方法、およびコンピュータ読み取り可能な記録媒体
JP2014067206A (ja) * 2012-09-26 2014-04-17 Sony Corp 情報処理装置及び情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188808A1 (ja) * 2022-03-30 2023-10-05 株式会社Nttドコモ レコメンドシステム

Also Published As

Publication number Publication date
JPWO2019073668A1 (ja) 2020-11-05
US20200234187A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
US11593984B2 (en) Using text for avatar animation
US10853650B2 (en) Information processing apparatus, information processing method, and program
CN109313898A (zh) 提供低声语音的数字助理
EP3438974A1 (en) Information processing device, information processing method, and program
JP2018072876A (ja) 感情推定システム、感情推定モデル生成システム
US11244682B2 (en) Information processing device and information processing method
JP6122792B2 (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JPWO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20180218728A1 (en) Domain-Specific Speech Recognizers in a Digital Medium Environment
WO2019073668A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6596373B6 (ja) 表示処理装置及び表示処理プログラム
WO2021153101A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
WO2017029850A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7230803B2 (ja) 情報処理装置および情報処理方法
WO2018198447A1 (ja) 情報処理装置および情報処理方法
JPWO2018116556A1 (ja) 情報処理装置、および情報処理方法
WO2019146199A1 (ja) 情報処理装置、及び情報処理方法
WO2019026396A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018051596A1 (ja) 情報処理装置
CN111971670A (zh) 在对话中生成响应
US20240179113A1 (en) Methods and devices for communication with multimodal compositions
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023536813A (ja) 環境信号に基づくプライバシーに配慮したクエリ活動を提示するための方法およびシステム
KR20170093631A (ko) 적응적 컨텐츠 출력 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019547925

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18867166

Country of ref document: EP

Kind code of ref document: A1