WO2020202719A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2020202719A1
WO2020202719A1 PCT/JP2020/002043 JP2020002043W WO2020202719A1 WO 2020202719 A1 WO2020202719 A1 WO 2020202719A1 JP 2020002043 W JP2020002043 W JP 2020002043W WO 2020202719 A1 WO2020202719 A1 WO 2020202719A1
Authority
WO
WIPO (PCT)
Prior art keywords
comparison
control unit
information processing
output control
user
Prior art date
Application number
PCT/JP2020/002043
Other languages
English (en)
French (fr)
Inventor
広 岩瀬
祐平 滝
邦仁 澤井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/441,070 priority Critical patent/US20220157295A1/en
Priority to DE112020001627.7T priority patent/DE112020001627T5/de
Priority to JP2021511131A priority patent/JP7416053B2/ja
Publication of WO2020202719A1 publication Critical patent/WO2020202719A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/904Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/954Navigation, e.g. using categorised browsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • This disclosure relates to an information processing device and an information processing method.
  • Patent Document 1 discloses a technique for improving searchability by extracting applications and characteristics from user reviews of products.
  • the output control unit includes an output control unit that controls the display of a chart summarizing the user's subjective evaluation of the content based on the extracted user's utterance intention, and the output control unit is a plurality of comparison targets.
  • An information processing apparatus is provided that generates a comparison table comparing the subjective evaluations for each content related to the above and displays the comparison table.
  • the processor controls the display of a chart summarizing the user's subjective evaluations on the content based on the extracted user's utterance intention, and the control may be a plurality.
  • An information processing method is provided that further includes generating a comparison table comparing the subjective evaluations for each content related to the comparison target and displaying the comparison table.
  • FIG. 1 It is a figure which shows the structural example of the information processing system which concerns on one Embodiment of this disclosure. It is a block diagram which shows the functional structure example of the information processing terminal 10 which concerns on the same embodiment. It is a block diagram which shows the functional structure example of the information processing server 20 which concerns on the same embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment. It is a figure for demonstrating the generation of the comparison table which concerns on this embodiment.
  • the current voice input UI is often provided for the purpose of interpreting the utterance intention related to the operation request from the user to the agent device having the voice dialogue function.
  • voice recognition and natural language are provided. Techniques such as understanding and meaning interpretation are utilized.
  • the information processing method is that the processor controls the display of a chart summarizing the user's subjective evaluation of the content based on the extracted user's utterance intention. Including. Further, the above control further includes generating a comparison table comparing subjective evaluations for each content related to a plurality of comparison targets and displaying the comparison table.
  • FIG. 1 is a diagram showing a configuration example of an information processing system according to the present embodiment.
  • the information processing system according to the present embodiment includes an information processing terminal 10 and an information processing server 20. Further, the information processing terminal 10 and the information processing server 20 are connected via a network 30 so that they can communicate with each other.
  • the information processing terminal 10 is an information processing device that collects user's utterances and presents various information based on the results of voice recognition and natural language understanding by the information processing server 20.
  • the information processing terminal 10 may be, for example, a smartphone, a tablet, a PC (Personal Computer), a wearable device, or the like. Further, the information processing terminal 10 according to the present embodiment may be a stationary type or an autonomous mobile type dedicated terminal.
  • the information processing server 20 performs voice recognition and natural language understanding based on the user's utterances collected by the information processing terminal 10, and compares the subjective evaluations of the users for each content related to a plurality of comparison targets. It is an information processing device that generates. Further, the information processing server 20 has a function of controlling the information processing terminal 10 and displaying the above comparison table.
  • the network 30 has a function of connecting the information processing terminal 10 and the information processing server 20.
  • the network 30 may include a public network such as the Internet, a telephone line network, a satellite communication network, various LANs (Local Area Network) including Ethernet (registered trademark), and a WAN (Wide Area Network). Further, the network 30 may include a dedicated network such as IP-VPN (Internet Protocol-Virtual Private Network). Further, the network 30 may include a wireless communication network such as Wi-Fi (registered trademark) and Bluetooth (registered trademark).
  • the configuration example of the information processing system according to the embodiment of the present disclosure has been described above.
  • the above configuration described with reference to FIG. 1 is merely an example, and the configuration of the information processing system according to the present embodiment is not limited to such an example.
  • the functions of the information processing terminal 10 and the information processing server 20 according to the present embodiment may be realized by a single information processing device.
  • the configuration of the information processing system according to the present embodiment can be flexibly modified according to specifications and operations.
  • FIG. 2 is a block diagram showing a functional configuration example of the information processing terminal 10 according to the present embodiment.
  • the information processing terminal 10 according to the present embodiment includes a voice input unit 110, a photographing unit 120, a control unit 130, a voice output unit 140, a display unit 150, and a server communication unit 160.
  • the voice input unit 110 has a function of mainly collecting voices related to the user's utterance.
  • the voice collected by the voice input unit 110 is used for voice recognition processing and natural language understanding by the information processing server 20.
  • the voice input unit 110 according to the present embodiment includes a microphone for collecting voice. If it is assumed that the information processing terminal 10 is used by a plurality of users, the voice input unit 110 may be provided with a plurality of microphones for detecting the sound source direction.
  • the photographing unit 120 mainly has a function of photographing a user's image.
  • the photographing unit 120 according to the present embodiment includes an image sensor.
  • Control unit 130 The control unit 130 according to the present embodiment has a function of controlling each configuration included in the information processing terminal 10.
  • the control unit 130 may control, for example, the start and start of each configuration. Further, the control unit 130 according to the present embodiment may have the same function as the output control unit 250 of the information processing server 20.
  • the voice output unit 140 has a function of outputting synthetic voice related to system utterance mainly based on control by the output control unit 250 of the information processing server 20.
  • the audio output unit 140 according to the present embodiment includes a speaker and an amplifier.
  • the display unit 150 has a function of displaying contents and a comparison table related to a comparison target mainly based on control by an output control unit of the information processing server 20.
  • the display unit 150 according to the present embodiment includes various display devices, projectors, and the like.
  • the server communication unit 160 performs information communication with the information processing server 20 via the network 30. For example, the server communication unit 160 transmits the voice data related to the user's utterance collected by the voice input unit 110 to the information processing server 20. Further, for example, the server communication unit 160 receives the content related to the comparison target, the comparison table generated by the output control unit 250, and the like from the information processing server 20.
  • the functional configuration example of the information processing terminal 10 according to the present embodiment has been described above.
  • the above configuration described with reference to FIG. 2 is merely an example, and the functional configuration of the information processing terminal 10 according to the present embodiment is not limited to such an example.
  • the functional configuration of the information processing terminal 10 according to the present embodiment can be flexibly modified according to specifications and operations.
  • FIG. 3 is a block diagram showing a functional configuration example of the information processing server 20 according to the present embodiment.
  • the information processing server 20 according to the present embodiment includes a voice recognition unit 210, a natural language understanding unit 220, an image recognition unit 230, a speaker identification unit 240, an output control unit 250, and a speech synthesis unit 260. And a communication unit 270.
  • the voice recognition unit 210 has a function of performing voice recognition (ASR: Automatic Speech Recognition) on the voice data related to the user's utterance collected by the information processing terminal 10 and converting the user's utterance into text. ..
  • ASR Automatic Speech Recognition
  • the natural language understanding unit 220 performs natural language understanding (NLU: Natural Language Understanding) for the user's utterance converted into text by the voice recognition unit 210, and extracts intents and entities related to the utterance.
  • NLU Natural Language Understanding
  • the natural language understanding unit 220 may extract a comparison item as an intent and a subjective expression as an entity, and calculate a subjective evaluation score from the subjective expression. Details of the function of the natural language understanding unit 220 according to this embodiment will be described later.
  • the image recognition unit 230 has a function of identifying a user and recognizing a user's position mainly based on a user's image taken by the information processing terminal 10.
  • the speaker identification unit 240 has a function of identifying the user who has made an utterance in a situation where the information processing system is used by a plurality of users.
  • the speaker identification unit 240 detects the direction of the sound source based on the voice collected by a plurality of microphones included in the voice input unit 110 of the information processing terminal 10, and is input from the image recognition unit 230.
  • the user who exists in the direction of the detected sound source may be identified as the speaker based on the information.
  • the speaker identification unit 240 can learn the voice quality of the spoken voice of each user in advance and identify the speaker based on the characteristics of the voice quality.
  • the output control unit 250 has a function of controlling the display of a chart summarizing the user's subjective evaluation of the content based on the user's utterance intention extracted by the natural language understanding unit 220. At this time, the output control unit 250 according to the present embodiment generates a comparison table comparing subjective evaluations for each content related to a plurality of comparison targets, and displays the comparison table on the display unit 150 of the information processing terminal 10. , Is one of the features. At this time, the output control unit 250 according to the present embodiment may generate a comparison table comparing subjective evaluations for each comparison item of the content related to the comparison target.
  • the above subjective evaluation may include a subjective expression for the comparison item extracted from the user's utterance and a subjective evaluation score calculated from the subjective expression.
  • the output control unit 250 according to the present embodiment generates a comparison table comparing the subjective expression and the subjective evaluation score for each comparison item. Details of the functions of the output control unit 250 according to this embodiment will be described later.
  • the voice synthesis unit 260 has a function of performing voice synthesis (TTS: Text To Speech) based on the control by the output control unit 250 and generating a synthetic voice related to system utterance.
  • TTS Text To Speech
  • the synthetic voice generated by the voice synthesis unit 260 is transmitted to the information processing terminal 10 and output by the voice output unit 140.
  • the communication unit 270 performs information communication with the information processing terminal 10 via the network 30. For example, the communication unit 270 receives voice data related to the user's utterance from the information processing terminal 10. Further, for example, the communication unit 270 transmits the content related to the comparison target, the comparison table generated by the output control unit 250, and the synthetic voice generated by the voice synthesis unit 260 to the information processing terminal 10.
  • the functional configuration example of the information processing server 20 according to the embodiment of the present disclosure has been described above.
  • the above-mentioned functional configuration described with reference to FIG. 3 is merely an example, and the functional configuration of the information processing server 20 according to the present embodiment is not limited to such an example.
  • the functional configuration of the information processing server 20 according to the present embodiment can be flexibly modified according to specifications and operations.
  • FIGS. 4 to 8 show an example in which the user U performs a preview while viewing an image of a real estate property displayed by the information processing terminal 10 which is an agent device.
  • the user U performs the utterance UO1 requesting the search for the real estate property, that is, the content related to the comparison target.
  • the natural language understanding unit 220 understands the natural language for the utterance UO1 converted into text by the voice recognition unit 210, and as the utterance intention, "search by the condition (near Shinagawa / living alone)". Extract.
  • the output control unit 250 searches the property database based on the above-mentioned utterance intention extracted by the natural language understanding unit 220, and obtains image information and the like related to the properties A to C as the contents related to the comparison target. get.
  • the output control unit 250 acquires the initial comparison item and its attribute value according to the acquired comparison target from the property database, and generates a comparison table CT including the comparison item and its attribute value. ..
  • the output control unit 250 uses the "location” that is the condition for the search instruction by the user U, the "rent” and “size” that statistically many people have subjectively evaluated, and the "area”. "Guarantor”, which can be a constraint condition, is acquired as a comparison item.
  • the attribute value of the comparison item "location" is the distance from the nearest station
  • the attribute value of the comparison item "rent” is the monthly amount
  • the attribute value of the comparison item "area” is.
  • the occupancy area and the content expressed as a subjective evaluation by the statistically largest number of people have been acquired as the attribute value of the comparison item "guarantor”.
  • the output control unit 250 has acquired comparison items “location”, “rent”, and “wide” with the properties A to C to be compared as the horizontal axis.
  • a list-type comparison table CT having "sa” and “guarantor” as the vertical axis may be generated, and the attribute values for each comparison item may be presented to the user U.
  • the comparison table CT does not include the subjective evaluation of the user U, and only the above-mentioned attribute values are displayed.
  • the output control unit 250 controls the display unit 150 of the information processing terminal 10 and presents the content related to the comparison target. To start. At this time, the output control unit 250 may control the display of the comparison table CT including the initial comparison items and attribute values shown in FIG. 4 to be stopped once, or a position that does not interfere with the viewing of the content related to the comparison target. You may move it to.
  • subjective evaluation utterances UO2 and UO3 by the user U who inspected the property A with the content related to the comparison target whose presentation is controlled by the output control unit 250 are shown.
  • the subjective evaluation utterance according to the present embodiment refers to an utterance related to the evaluation of the user's subjective impressions and opinions regarding the content related to the comparison target.
  • the natural language understanding unit 220 extracts the comparison item as an intent and the subjective expression as an entity from the subjective evaluation utterance by the user. For example, the natural language understanding unit 220 learns a sentence example in which the comparison item and the subjective expression are linked in advance, so that the comparison item and the subjective expression are input based on the learned data even if the utterance is made by an unknown user. Can be extracted as tents and entities.
  • the natural language understanding unit 220 calculates a subjective evaluation score indicating a measure of whether the user's utterance (subjective expression) is negative or positive by means of sentiment analysis processing or the like.
  • the subjective evaluation score may be defined, for example, in the range of ⁇ 1.0 (negative) to 0.0 (neutral) to 1.0 (positive).
  • the natural language understanding unit 220 calculates the subjective evaluation score as -0.3. You may.
  • the output control unit 250 stores the comparison items, the subjective expressions, and the subjective evaluation scores extracted from the subjective evaluation utterances UO2 and UO3 by the natural language understanding unit 220, and the horizontal axis is the comparison target.
  • a comparison table CT with the vertical axis as the property A and the comparison items "rent” and “size” may be generated, and the subjective expressions “just within the budget” and "a little narrow” may be displayed in the cells of each comparison item. ..
  • the output control unit 250 may also display the attribute values of each comparison item obtained from the property database.
  • the character color, character type, decoration, and the like may be changed in order to distinguish the user's subjective expression from the attribute value.
  • the output control unit 250 shifts to the presentation control of the property B.
  • the intent comparison items "interior” and "storage” extracted from the subjective evaluation utterance UO5 are comparison items that do not exist in the initial comparison table CT based on the property database.
  • the output control unit 250 may add the new comparison item to the comparison table CT. According to such control, it is possible to generate a comparison table CT that includes the elements that the user places importance on as comparison items regardless of the initial settings.
  • the comparison items “rent” and “size” in which the user U who has completed the preview of the property B made a subjective evaluation utterance in the previous property A are not mentioned. ..
  • the output control unit 250 transmits the system utterance SO1 and SO2 for prompting the user's subjective evaluation utterance for the comparison item to the voice output unit 140 of the information processing terminal 10. May be output to.
  • the output control unit 250 can perform subjective evaluation on all the contents related to the comparison target with respect to the comparison item for which the subjective evaluation is obtained on the content related to one or more comparison targets. Control the system utterance so that it can be done.
  • the output control unit 250 extracts the subjective expression "it seems to be considerably cheaper” from the subjective evaluation utterance UO7 and compares it. Add to table CT. Further, the output control unit 250 calculates and stores the subjective evaluation score from the subjective expression "it seems to be considerably cheaper”.
  • the output control unit 250 extracts the subjective expression "feels unexpectedly narrow” from the subjective evaluation utterance UO7 and compares it. Add to table CT. Further, the output control unit 250 calculates and stores the subjective evaluation score from the subjective expression "feels unexpectedly narrow”.
  • the output control unit 250 further controls the voice dialogue with the user regarding the content related to the comparison target, and generates the comparison table based on the utterance intention of the user extracted in the voice dialogue. be able to.
  • comparison items "interior” and “storage” are newly added depending on the preview of the property B, but the user U is subjective about the above two comparison items for the property A. No evaluation utterance is given.
  • the output control unit 250 when there is a comparison item for which the subjective evaluation has not been obtained in the content related to the presented comparison target, the output control unit 250 according to the present embodiment re-presents the content related to the presented comparison target. Such proposals may be controlled. In the case of the example shown in FIG. 6, the output control unit 250 outputs the system utterance SO3, which proposes to return the interior and storage of the property A, to the voice output unit 140 of the information processing terminal 10.
  • the content related to all the comparison targets can be compared later by creating an opportunity to obtain the user's subjective evaluation utterance for the same comparison item. It is possible to standardize the criteria at the time of examination.
  • the subjective evaluation utterances UO9 and UO10 of the user U who inspected the property C are shown.
  • the output control unit 250 extracts the subjective expressions corresponding to the comparison items "interior”, “size”, “rent”, and “bath” and calculates the subjective evaluation score. ..
  • the output control unit 250 may output the system utterance SO4 that prompts the subjective evaluation utterance to the voice output unit 140 of the information processing terminal 10 with respect to the comparison item "storage" for which the subjective evaluation has not been obtained in the property C.
  • the output control unit 250 can acquire attributes from the property database. , The attribute value may be added to the comparison table CT, and then the system utterance SO5 to propose the re-presentation of the property A and the property B may be output. In this way, when there are comparison items for which subjective evaluation has not been obtained for the contents related to the plurality of comparison targets, the output control unit 250 considers the burden on the user who previews the contents related to the plurality of comparison targets again. The attribute value may be displayed.
  • the output control unit 250 receives the final comparison table CT reflecting the subjective evaluation score related to each comparison item calculated in FIGS. 5 to 7. To generate. At this time, the output control unit 250 according to the present embodiment may generate a comparison table CT in which the subjective evaluation score is expressed in the background of the comparison items.
  • the output control unit 250 generates a comparison table CT in which the polarity and intensity of the subjective evaluation score are expressed by the background color and pattern type of the comparison item and the shade thereof. , May be displayed on the display unit 150.
  • the output control unit 250 colors the background color of the cell of the comparison item in blue when the subjective evaluation score is negative and red when the subjective evaluation score is positive, and the absolute value of the score. May be expressed by shades of color.
  • the user can visually and intuitively grasp the subjective evaluation performed on each comparison item of the content related to each comparison target, and effectively assist the user in the comparison study. Is possible.
  • the output control unit 250 uses the user U based on the subjective evaluation score. You may estimate the comparison items that were the decisive factors in the judgment of.
  • the output control unit 250 estimates, for example, among the comparison items of the selected property B, the comparison item having the largest difference in the subjective evaluation score between the non-selected properties A and C in the positive direction as a decisive factor. You may. Alternatively, the output control unit 250 may estimate the comparison item having the highest subjective evaluation score among the comparison items of the selected property B as a deciding factor.
  • the output control unit 250 may estimate a comparison item that has become a (negative) limiting factor for the content related to the comparison target not selected by the user U based on the subjective evaluation score. ..
  • the output control unit 250 may estimate, for example, the comparison item having the largest difference in the subjective evaluation score from the selected property B as a limiting factor among the comparison items of the unselected properties. Good. Alternatively, the output control unit 250 may estimate the comparison item having the lowest subjective evaluation score among the comparison items of the unselected properties as a limiting factor.
  • the output control unit 250 may output the system utterance SO6 or SO7 to the voice output unit 140 to confirm the comparison item estimated as a deciding factor or a limiting factor to the user U.
  • the output control unit 250 has a function of accumulating the decisive factors and limiting factors estimated as described above and statistically analyzing them.
  • the output control unit 250 may accumulate the factor indicated by the user. For example, when the user responds to the system utterance SO, such as "No, because the bath is clean", the output control unit 250 accumulates the "bath” indicated by the user as a decisive factor instead of the estimated "rent". You can do it.
  • the output control unit 250 according to the present embodiment can provide useful information for business improvement on the content providing side by accumulating the decisive factors and limiting factors estimated as described above and statistically analyzing them. Is.
  • the deciding factor that occupies the majority statistically is considered to be useful as a sale point for other properties, it is presumed that many users use rent as the deciding factor as a result of analysis by the output control unit 250. In that case, it is expected that sales will increase further by increasing the handling of properties with low rent and promoting them.
  • the content provider is proposed to improve the limiting factors of the content related to the comparison target that was not selected.
  • the comparison term limiting factor of the property A is the comparison item “bath”.
  • information may be provided such as proposing a remodeling of the bath of Property A to the owner.
  • the generation of the comparison table according to this embodiment has been described above.
  • the case where the output control unit 250 generates a comparison table based on the subjective evaluation utterance of a single user has been described, but the output control unit 250 according to the present embodiment is used for a comparative study by a plurality of users.
  • the output control unit 250 may add a comparison item newly extracted from the subjective evaluation utterance to the comparison table. Further, the output control unit 250 may perform control for prompting the user's subjective evaluation utterance for the comparison item for which the subjective evaluation has not been obtained from any user.
  • FIG. 9 is a diagram showing an example of a comparison table based on subjective evaluation utterances of a plurality of users according to the present embodiment.
  • a list-type comparison table CT is generated in which the comparison target is the horizontal axis and the comparison item is the vertical axis, as in the case of a single user.
  • the output control unit 250 can generate a comparison table CT comparing the subjective evaluations of a plurality of users with respect to the content related to the comparison target.
  • the output control unit 250 may generate a comparison table CT expressing the comprehensive evaluation based on the subjective evaluation of the plurality of users for each comparison item.
  • the output control unit 250 expresses the average value of the subjective evaluation scores in shades of red for all the evaluation items for which positive subjective evaluation scores are obtained from all users.
  • the average value of the subjective evaluation score is expressed in shades of blue.
  • the output control unit 250 may generate a coordinated comparison table using other colors or the like for comparison items in which subjective evaluations are in conflict among a plurality of users. For example, in the case of the example shown in FIG. 9, there are disagreements among users regarding the comparison item "access" of restaurants B and C. In such a case, the output control unit 250 arranges a color different from the comparison item for which a positive or negative subjective evaluation score is obtained from all users, for example, yellow, and expresses the dispersion value by the shade of the color. By doing so, the comparison item can be emphasized.
  • the output control unit 250 may generate the comparison target and the comparison item, or the comparison table whose display can be switched around the comparison target and the user.
  • FIG. 10 is an example of a comparison table centered on the comparison target and the user according to the present embodiment.
  • the comparison table CT shown in FIG. 10 unlike FIG. 9, the user is on the vertical axis, and the comparison items are represented in each cell. According to the display format, it is possible to clearly express the subjective evaluation score of each individual for the content related to the comparison target.
  • the output control unit 250 relates to the content related to the finally selected comparison target and the content related to the non-selected comparison target, as in the case of the individual. Analysis may be performed.
  • the output control unit 250 may analyze which user's subjective evaluation is strongly reflected in the final judgment, and accumulate and utilize the result. For example, in an environment where a good relationship is required, such as in the home, the subjective evaluation is reflected in the final judgment less frequently. By performing the first content search according to the preference of the user, the subjective evaluation is reflected more evenly. It becomes possible to do such things as.
  • the output control unit 250 can also analyze and utilize the difference between the subjective evaluation before the selection judgment and the post-selection evaluation after the selection judgment.
  • FIG. 11 is a diagram for explaining the utilization of the ex post facto subjective evaluation according to the present embodiment.
  • FIG. 11 an example of a voice dialogue when the users who actually visited the restaurant A returned home after the restaurant A was selected based on the comparison table CT shown in FIGS. 9 and 10 is shown. ing.
  • the output control unit 250 detects that all the users are present, and causes the voice output unit 140 to output the system utterance SO8 that prompts the ex post facto subjective evaluation utterance regarding the restaurant A. There is. At this time, the output control unit 250 may again present to the users a comparison table summarizing the subjective evaluations before the selection determination and the contents related to the comparison target.
  • the output control unit 250 sequentially adds subjective expressions extracted from the subsequently issued subjective evaluation utterances UO15 to UO18 to the comparison table CT. If there is a comparison item for which no ex post facto subjective expression has been obtained from any user, the output control unit 250 sends the system utterance SO9 that prompts the ex post facto subjective evaluation utterance related to the comparison item to the voice output unit 140. You may output it.
  • the output control unit 250 calculates the subjective evaluation score after the fact and displays the comparison table CT expressed in different colors on the display unit 150. Display it.
  • the output control unit 250 extracts and accumulates the difference in the subjective evaluation score and the subjective expression before and after the comparison item in which the difference between the subjective evaluation score before and after is equal to or more than a predetermined threshold value.
  • the output control unit 250 can make various improvement proposals to the content provider side by analyzing the accumulated information.
  • FIG. 12 to 14 are diagrams for explaining the generation of a comparison table relating to the content related to the comparison target in which some of the comparison items according to the present embodiment are not common.
  • the upper part of FIG. 12 shows a dialogue between the user U who is considering a Christmas present for his son and the information processing terminal 10.
  • the output control unit 250 sets the comparison items and the subjective expressions extracted from the user U's subjective evaluation utterances UO20 to UO21 with respect to the content C related to the comparison target acquired as a result of the search, as in the case of real estate or restaurants. Based on this, a comparison table CT is generated and displayed on the display unit 150.
  • the characteristics between the comparison targets are significantly different. Specifically, in this example, as shown in FIG. 13, the user U is studying a comparison target having significantly different characteristics of a soccer ball and a book. Therefore, some of the comparison items are not common among the above comparison targets.
  • the user U confirms the content C related to the displayed book to be compared, and makes subjective expression utterances UO23 and UO24 regarding the comparison items "delivery date” and "content".
  • the output control unit 250 gives the subjective evaluation utterance for the size of the book.
  • the system utterance SO9 that prompts the user is output to the voice output unit 140.
  • the user U makes an utterance UO25 to the system utterance SO9 to the effect that the size of the book is not important in the comparative study.
  • the output control unit 250 may determine that "size" is not a common comparison item based on the fact that the natural language understanding unit 220 determines that the utterance UO25 is not a subjective evaluation utterance.
  • the output control unit 250 since the output control unit 250 does not obtain the subjective expression utterance for the comparison item "content” mentioned in the content C related to the book in the content C related to the soccer ball, the output control unit 250 uses the user U. In order to confirm the "content" of the soccer ball, the audio output unit 140 is made to output the system speech SO10 that proposes the re-presentation of the content C related to the soccer ball.
  • the user U makes an utterance UO26 indicating that it is not necessary to re-present the content C.
  • the output control unit 250 may determine that the "content" is not a common comparison item based on the fact that the natural language understanding unit 220 determines that the utterance UO26 is not a subjective evaluation utterance.
  • the output control unit 250 provides an item “other” for displaying items that are not common among the comparison targets, and is subjective about the items that are not common to the items.
  • the expression may be displayed.
  • the output control unit 250 may determine the background color of the comparison items common among the comparison targets based on the calculated subjective evaluation score as described above. On the other hand, for the item "Other", it is not necessary to control the background color because the comparison cannot be performed for each item.
  • the output control unit 250 is subjective depending on, for example, the color and size of the character string related to the subjective expression, character decoration, and the like.
  • the evaluation score may be expressed.
  • the output control unit 250 can generate a comparison table of contents related to a plurality of comparison targets in which at least one comparison item is not common.
  • FIG. 15 is a flowchart showing the overall flow of control by the information processing server 20 according to the present embodiment.
  • the natural language understanding unit 220 determines whether or not the user's utterance intention is a subjective evaluation of the content being presented, that is, whether or not the user's utterance is a subjective evaluation utterance (). S1101).
  • the natural language understanding unit 220 stores the comparison item, the subjective expression, and the subjective evaluation score as the comparison data to be compared. (S1102).
  • the output control unit 250 generates a comparison table based on the stored comparison data and controls the display (S1103).
  • the operation of the information processing server 20 branches according to the user's utterance intention (S1104).
  • the output control unit 250 searches for a comparison target based on the utterance intention condition, acquires the initial comparison items and attribute values from the database, and generates a comparison table. (S1105).
  • the information processing server 20 transitions to the selection determination dialogue control flow described later (S1111).
  • the operation of the information processing server 20 branches according to the content operation type (S1106).
  • the output control unit 250 gives an output instruction of the content related to the first comparison target (S1107).
  • the output control unit 250 gives an output instruction of the content related to the designated comparison target (S1108).
  • the output control unit 250 when the user's content operation request is the end of the content (S1106: end), the output control unit 250 generates a comparison table reflecting the subjective evaluation score and instructs the display (S1109).
  • the output control unit 250 instructs the display of the comparison table in which one axis of the comparison table is switched by the comparison item or the user based on the display switching instruction utterance by the user (S1110). ).
  • FIG. 16 is a flowchart showing a flow of selection determination dialogue control by the information processing server 20 according to the present embodiment.
  • the output control unit 250 estimates the (positive) deciding factor of the selection judgment by the user from the subjective evaluation score of each comparison item (S1201).
  • the subsequent operation of the output control unit 250 branches according to the confirmation response result of the user for the estimated decisive candidate item (S1202).
  • the output control unit 250 determines the estimated comparison item as a deciding factor (S1203).
  • the output control unit 250 determines the comparison item indicated by the confirmation response result as a decisive factor (S1204). ..
  • the output control unit 250 After determining the deciding factor in step S1203 or S1204, the output control unit 250 then estimates the (negative) limiting factor of the user's selection decision from the subjective evaluation score of each comparison item (the output control unit 250). S1205).
  • the subsequent operation of the output control unit 250 branches according to the confirmation response result of the user for the estimated constraint candidate item (S1206).
  • the output control unit 250 determines the estimated comparison item as a limiting factor (S1207).
  • the output control unit 250 determines the comparison item indicated by the confirmation response result as a limiting factor (S1208). ..
  • the output control unit 250 sets the user having the most positive subjective evaluation score for the selected comparison target as the user whose opinion is most reflected in the selection determination. Estimate (S1209).
  • the output control unit accumulates the determined deciding factor, the limiting factor, and, when there are a plurality of users, the user whose opinion is most reflected in the selection judgment in the database and statistically analyzes it (S1210). ).
  • 17A and 17B are flowcharts showing a flow of constant control of comparative evaluation criteria by the information processing server 20 by the information processing server 20 according to the present embodiment.
  • the output control unit 250 determines whether or not there is a comparison item in which the subjective evaluation is obtained in the other comparison target and the subjective evaluation is not obtained in the nth comparison target. (S1401).
  • the output control unit 250 sets the following steps S1402 to S1402 for the corresponding comparison item for which the subjective evaluation has not been obtained in the nth comparison target.
  • the operation of S1406 is repeatedly executed and the processing for all the corresponding comparison items is completed, the state A is entered.
  • the output control unit 250 instructs the output of the system utterance that prompts the subjective evaluation utterance for the corresponding comparison item for which the subjective evaluation has not been obtained (S1402).
  • the natural language understanding unit 220 determines whether or not the user's response utterance is a subjective evaluation utterance for the corresponding comparison item (S1403).
  • the natural language understanding unit 220 uses the response utterance (subjective expression) and its subjective evaluation score as comparison data of the corresponding comparison item. Additional storage (S1404).
  • the output control unit 250 sets the comparison data of the corresponding comparison item for which the subjective evaluation was obtained in another comparison target as the item "Other”. And memorize it (S1405).
  • the output control unit 250 When the process in step S1404 or S1405 is completed, the output control unit 250 generates a comparison table based on the stored comparison data and instructs the display (S1406).
  • the output control unit 250 determines whether or not there is a comparison item in which the subjective evaluation is obtained in the nth comparison target and the subjective evaluation is not obtained in the other comparison target (S1407).
  • the information processing server 20 ends a series of processes.
  • the output control unit 250 sets the following steps S1408 to S1409 for the corresponding comparison item for which the subjective evaluation has not been obtained in other comparison targets. Repeat the operation of.
  • the output control unit 250 determines whether or not there is a subjective evaluation in other comparison targets for which the corresponding comparison item is present (S1408).
  • the output control unit 250 acquires the attribute value of the corresponding comparison item from the database and displays it in the comparison table. Give an instruction (S1409).
  • the output control unit 250 gives an output instruction of the system utterance that proposes the re-presentation of the content related to the comparison target in which the comparison item for which the subjective evaluation has not been obtained exists ( S1410).
  • the natural language understanding unit 220 determines whether or not the user's response utterance requires the re-presentation of the content (S1411).
  • the output control unit 250 re-presents the content related to the comparison target for the comparison item for which the subjective evaluation has not been obtained. Instruct (S1412).
  • the output control unit 250 sets the comparison data of the comparison items for which the subjective evaluation has not been obtained in other comparison targets as the item ". Move to "Other” and memorize it (S1413).
  • the output control unit 250 may determine the search conditions to be compared according to various profiles such as the age and gender of the user.
  • the comparison item extracted from the subjective evaluation utterance is inserted at the lower part of the comparison table is described as an example, but when it is detected that the priority of the user is high, it is rearranged at the top. Etc. may be controlled.
  • the output control unit 250 may raise the priority of the subjective evaluation performed by the user with the first impression on the comparison target and display it in the information of the comparison table that is easier to see. Further, the output control unit 250 may perform control such as displaying the comparison item in which the difference in the subjective evaluation score is difficult to appear and the comparison item having a small variance in the lower part.
  • the output control unit 250 may make a selection judgment on behalf of the user based on the current subjective evaluation score when the selection judgment cannot be obtained by a plurality of users. Further, the output control unit 250 may, for example, add up the subjective evaluation scores of each user related to all the comparison items of each comparison target and display the total score for each comparison target. Further, the output control unit 250 can output a system utterance that proposes a comparison target having the highest overall score.
  • the information processing system may be applied to, for example, a car navigation system.
  • the car navigation system may detect that the passengers on board are talking about the destination, and may display a comparison table or the like reflecting the evaluation of the hot water canal for each destination.
  • the output control unit 250 according to the present embodiment can also generate a comparison table based on a subjective evaluation extracted from a dialogue between a living agent, concierge, operator, or the like and a user, for example.
  • the output control unit 250 when a user makes a preview with a living agent who handles real estate, the output control unit 250 generates a comparison table based on subjective evaluations obtained from the utterances of both parties collected by a tablet or the like formed by the agent. Then, it may be displayed on the tablet.
  • the agent can confirm the comparison item for which the subjective evaluation has not been obtained in the comparison table, and directly visit the user about the subjective evaluation for the comparison item.
  • the information processing system according to the present embodiment can also be used as a sales support tool.
  • FIG. 18 is a block diagram showing a hardware configuration example of the information processing terminal 10 and the information processing server 20 according to the embodiment of the present disclosure.
  • the information processing terminal 10 and the information processing server 20 include, for example, a processor 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, and an input device. It has an 878, an output device 879, a storage 880, a drive 881, a connection port 882, and a communication device 883.
  • the hardware configuration shown here is an example, and some of the components may be omitted. Further, components other than the components shown here may be further included.
  • the processor 871 functions as, for example, an arithmetic processing unit or a control device, and controls all or a part of the operation of each component based on various programs recorded in the ROM 872, the RAM 873, the storage 880, or the removable recording medium 901. ..
  • the ROM 872 is a means for storing a program read into the processor 871 and data used for calculation.
  • a program read into the processor 871 and various parameters that change as appropriate when the program is executed are temporarily or permanently stored.
  • the processors 871, ROM 872, and RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission.
  • the host bus 874 is connected to the external bus 876, which has a relatively low data transmission speed, via, for example, the bridge 875.
  • the external bus 876 is connected to various components via the interface 877.
  • Input device 8708 For the input device 878, for example, a mouse, a keyboard, a touch panel, buttons, switches, levers, and the like are used. Further, as the input device 878, a remote controller (hereinafter, remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used. Further, the input device 878 includes a voice input device such as a microphone.
  • the output device 879 provides the user with acquired information such as a display device such as a CRT (Cathode Ray Tube), an LCD, or an organic EL, an audio output device such as a speaker or headphones, a printer, a mobile phone, or a facsimile. It is a device that can notify visually or audibly. Further, the output device 879 according to the present disclosure includes various vibration devices capable of outputting tactile stimuli.
  • the storage 880 is a device for storing various types of data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like is used.
  • the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information on the removable recording medium 901.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, a DVD media, a Blu-ray (registered trademark) media, an HD DVD media, various semiconductor storage media, and the like.
  • the removable recording medium 901 may be, for example, an IC card equipped with a non-contact type IC chip, an electronic device, or the like.
  • connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (SCSI Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
  • an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (SCSI Computer System Interface), an RS-232C port, or an optical audio terminal.
  • the externally connected device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, an IC recorder, or the like.
  • the communication device 883 is a communication device for connecting to a network, and is, for example, a communication card for wired or wireless LAN, Wireless (registered trademark), or WUSB (Wireless USB), a router for optical communication, and ADSL (Asymmetric Digital). A router for Subscriber Line), a modem for various communications, and the like.
  • the information processing server 20 is an output control unit that controls the display of a chart summarizing the user's subjective evaluation of the content based on the extracted user's utterance intention. It has 250. Further, one of the features of the output control unit 250 according to the embodiment of the present disclosure is that a comparison table comparing the subjective evaluations for each content related to a plurality of comparison targets is generated and the comparison table is displayed. To do. According to such a configuration, it is possible to accurately shape the divergent impressions and opinions of the user with respect to a plurality of comparison objects without burdening the user.
  • each step related to the processing of the information processing server 20 of the present specification does not necessarily have to be processed in chronological order in the order described in the flowchart.
  • each step related to the processing of the information processing server 20 may be processed in an order different from the order described in the flowchart, or may be processed in parallel.
  • An output control unit that controls the display of a chart summarizing the user's subjective evaluation of the content based on the extracted user's utterance intention. With The output control unit generates a comparison table comparing the subjective evaluations for each content related to a plurality of comparison targets, and displays the comparison table. Information processing device. (2) The output control unit generates the comparison table comparing the subjective evaluations for each comparison item of the content related to the comparison target. The information processing device according to (1) above. (3) The subjective evaluation includes a subjective expression for the comparison item extracted from the utterance of the user and a subjective evaluation score calculated from the subjective expression. The output control unit generates the comparison table comparing the subjective expression and the subjective evaluation score for each comparison item.
  • the information processing device according to (2) above.
  • the output control unit adds the new comparison item to the comparison table.
  • the information processing device according to (3) above.
  • the output control unit generates the comparison table in which the subjective evaluation score is expressed in the background of the comparison item.
  • the information processing device according to (3) or (4) above.
  • the output control unit generates the comparison table in which the polarity and intensity of the subjective evaluation score are expressed by any type and shade of the background color or pattern of the comparison item.
  • the information processing device according to (5) above.
  • the output control unit further controls the voice dialogue with the user regarding the content related to the comparison target, and generates the comparison table based on the utterance intention of the user extracted in the voice dialogue.
  • the information processing device according to any one of (3) to (6) above.
  • the output control unit outputs a system utterance that prompts the user's subjective evaluation utterance for the comparison item for which the subjective evaluation has not been obtained.
  • the information processing device according to (6) above.
  • the output control unit makes a system utterance so that the subjective evaluation can be obtained for all the contents related to the comparison target with respect to the comparison item for which the subjective evaluation is obtained for the contents related to one or more comparison targets.
  • Control The information processing device according to (8) above.
  • the output control unit further controls the presentation of the content related to the comparison target.
  • the information processing device according to any one of (3) to (9) above.
  • the output control unit controls a proposal for re-presenting the presented content related to the comparison target when there is a comparison item for which the subjective evaluation has not been obtained in the presented content related to the comparison target.
  • the information processing device according to (10) above.
  • the output control unit generates the comparison table comparing the subjective evaluations of the plurality of users with respect to the content related to the comparison target.
  • the information processing device according to any one of (3) to (11).
  • the output control unit generates the comparison table expressing the comprehensive evaluation based on the subjective evaluation score for the plurality of users for each comparison item.
  • the output control unit generates the comparison table emphasizing the comparison items in which the subjective evaluations are in conflict among the plurality of users.
  • the information processing device according to (13) above.
  • the output control unit generates the comparison target and the comparison item, or the comparison table whose display can be switched around the comparison target and the user.
  • the information processing device according to any one of (12) to (14).
  • the output control unit generates the comparison table of the contents related to the plurality of comparison targets in which at least one comparison item is not common.
  • the information processing device according to any one of (3) to (15).
  • the output control unit determines the comparison item, which is a decisive factor in the determination of the user, based on the subjective evaluation score. presume, The information processing device according to any one of (3) to (16).
  • the output control unit determines which of the contents related to the comparison target is selected by the user, the output control unit restricts the content related to the comparison target that the user did not select based on the subjective evaluation score.
  • Estimate the comparison item that caused the factor The information processing device according to (17) above.
  • a natural language understanding unit that extracts the comparison item and the subjective evaluation based on the utterance of the user. Further prepare The information processing device according to any one of (3) to (18).
  • the processor controls the display of a chart summarizing the user's subjective evaluation of the content based on the extracted user's utterance intention.
  • the control is to generate a comparison table comparing the subjective evaluations for each content related to a plurality of comparison targets and display the comparison table. Including, Information processing method.
  • Information processing terminal 110 Voice input unit 120 Imaging unit 130 Control unit 140 Voice output unit 150 Display unit 20 Information processing server 210 Voice recognition unit 220 Natural language understanding unit 230 Image recognition unit 240 Speaker identification unit 250 Output control unit 260 Speech synthesis Department

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Databases & Information Systems (AREA)
  • Finance (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御する出力制御部、を備え、前記出力制御部は、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させる、情報処理装置が提供される。また、プロセッサが、抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御すること、を含み、前記制御することは、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させること、をさらに含む、情報処理方法が提供される。

Description

情報処理装置および情報処理方法
 本開示は、情報処理装置および情報処理方法に関する。
 近年、音声認識処理の性能向上により、音声を用いたテキスト入力が普及している。係る技術によれば、例えば、ある対象に関するユーザの感想や意見などの主観的な評価に係る発話をテキスト化し、メモとして記録することも可能である。
 また、例えば、日常においては、複数の対象に係る比較検討を行い、なんらかの判断を行いたいケースが多々起こり得るが、上記のような判断を補助する仕組みも多く提案されている。例えば、特許文献1には、商品のユーザレビューから用途や特性を抽出して検索性の向上を図る技術が開示されている。
特開2012-168925号公報
 しかし、複数の比較対象に関するユーザの主観的評価に係る発話をテキスト化し、またユーザの判断を補助することが可能な状態に整形して提示する手法は未だ取られていない。
 本開示によれば、抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御する出力制御部、を備え、前記出力制御部は、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させる、情報処理装置が提供される。
 また、本開示によれば、プロセッサが、抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御すること、を含み、前記制御することは、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させること、をさらに含む、情報処理方法が提供される。
本開示の一実施形態に係る情報処理システムの構成例を示す図である。 同実施形態に係る情報処理端末10の機能構成例を示すブロック図である。 同実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。 同実施形態に係る比較表の生成について説明するための図である。 同実施形態に係る比較表の生成について説明するための図である。 同実施形態に係る比較表の生成について説明するための図である。 同実施形態に係る比較表の生成について説明するための図である。 同実施形態に係る比較表の生成について説明するための図である。 同実施形態に係る複数のユーザの主観評価発話に基づく比較表の一例を示す図である。 同実施形態に係る比較対象およびユーザを軸とした比較表の一例である。 同実施形態に係る事後的な主観評価の活用について説明するための図である。 同実施形態に係る一部の比較項目が共通ではない比較対象に係るコンテンツに係る比較表の生成について説明するための図である。 同実施形態に係る一部の比較項目が共通ではない比較対象に係るコンテンツに係る比較表の生成について説明するための図である。 同実施形態に係る一部の比較項目が共通ではない比較対象に係るコンテンツに係る比較表の生成について説明するための図である。 同実施形態に係る情報処理サーバ20による制御全体の流れ示すフローチャートである。 同実施形態に係る情報処理サーバ20による選択判断対話制御の流れを示すフローチャートである。 同実施形態に係る情報処理サーバ20による情報処理サーバ20による比較評価基準の一定化制御の流れを示すフローチャートである。 同実施形態に係る情報処理サーバ20による情報処理サーバ20による比較評価基準の一定化制御の流れを示すフローチャートである。 本開示の一実施形態に係るハードウェア構成例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.実施形態
  1.1.背景
  1.2.システム構成例
  1.3.情報処理端末10の機能構成例
  1.4.情報処理サーバ20の機能構成例
  1.5.機能の詳細
    1.6.動作の流れ
  1.7.その他の制御
 2.ハードウェア構成例
 3.まとめ
 <1.実施形態>
 <<1.1.背景>>
 上述したように、近年においては、マイクロフォンなどの集音デバイスや音声認識処理の性能向上に伴い音声によるテキスト入力が普及しており、今後は多岐に渡る製品やサービスに音声入力UIが搭載され、発話による文字入力がより身近なものとなることが期待されている。
 一方、現状における音声入力UIは、ユーザから音声対話機能を有するエージェント機器への操作依頼に係る発話意図解釈を目的として具備される場合が多く、上記のようなエージェント機器では、音声認識、自然言語理解、意味解釈といった技術が活用されている。
 他方、ある対象に関するユーザの感想や意見などの主観的な評価に係る発話(以下、主観評価発話、とも称する)をテキスト化し、メモとして記録する技術も知られている。しかし、例えば、ユーザが複数の対象に係る比較検討を行う場合において、上記のような主観評価発話をテキストメモとして記録し提示するだけでは、対象が有する比較項目に関する複合要因やトレードオフの関係を直感的に把握することが困難であり、十分な判断材料として機能しないことが想定される。
 本開示に係る技術思想は上記の点に着目して発想されたものであり、複数の比較対象に対するユーザの発散的な感想や意見をユーザの負担なしに精度高く整形することを可能とする。このために、本開示の一実施形態に係る情報処理方法は、プロセッサが、抽出されたユーザの発話意図に基づいて、コンテンツに対する当該ユーザの主観評価をまとめた図表の表示を制御すること、を含む。また、上記制御することは、複数の比較対象に係るコンテンツごとに主観評価を比較した比較表を生成し、当該比較表を表示させること、をさらに含む。
 以下、上記の特徴を有する情報処理方法を実現するシステム構成について詳細に説明する。
 <<1.2.システム構成例>>
 図1は本実施形態に係る情報処理システムの構成例を示す図である。図1に示すように、本実施形態に係る情報処理システムは、情報処理端末10および情報処理サーバ20を備える。また、情報処理端末10と情報処理サーバ20は、互いに通信が可能なようにネットワーク30を介して接続される。
 (情報処理端末10)
 本実施形態に係る情報処理端末10は、ユーザの発話を収集し、情報処理サーバ20による音声認識および自然言語理解の結果に基づいて各種の情報提示を行う情報処理装置である。
 本実施形態に係る情報処理端末10は、例えば、スマートフォン、タブレット、PC(Personal Computer)、ウェアラブル装置などであってもよい。また、本実施形態に係る情報処理端末10は、据え置き型または自律移動型の専用端末であってもよい。
 (情報処理サーバ20)
 本実施形態に係る情報処理サーバ20は、情報処理端末10が収集したユーザの発話に基づく音声認識および自然言語理解を行い、複数の比較対象に係るコンテンツごとにユーザの主観評価を比較した比較表を生成する情報処理装置である。また、情報処理サーバ20は、情報処理端末10を制御し、上記の比較表を表示させる機能を有する。
 (ネットワーク30)
 ネットワーク30は、情報処理端末10と情報処理サーバ20とを接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
 以上、本開示の一実施形態に係る情報処理システムの構成例について説明した。なお、図1を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの構成は係る例に限定されない。例えば、本実施形態に係る情報処理端末10および情報処理サーバ20が有する機能は、単一の情報処理装置により実現されてもよい。本実施形態に係る情報処理システムの構成は、仕様や運用に応じて柔軟に変形可能である。
 <<1.3.情報処理端末10の機能構成例>>
 次に、本実施形態に係る情報処理端末10の機能構成例について述べる。図2は、本実施形態に係る情報処理端末10の機能構成例を示すブロック図である。図2に示すように、本実施形態に係る情報処理端末10は、音声入力部110、撮影部120、制御部130、音声出力部140、表示部150、およびサーバ通信部160を備える。
 (音声入力部110)
 本実施形態に係る音声入力部110は、主にユーザの発話に係る音声を収集する機能を有する。音声入力部110が収集する音声は、情報処理サーバ20による音声認識処理や自然言語理解などに用いられる。本実施形態に係る音声入力部110は、音声を収集するためのマイクロフォンを備える。なお、情報処理端末10が複数のユーザにより使用されることを想定する場合、音声入力部110は、音源方向の検出のために複数のマイクロフォンを備えてもよい。
 (撮影部120)
 本実施形態に係る撮影部120は、主にユーザの画像を撮影する機能を有する。このために、本実施形態に係る撮影部120は、撮像素子を備える。
 (制御部130)
 本実施形態に係る制御部130は、情報処理端末10が備える各構成を制御する機能を有する。制御部130は、例えば、各構成の起動や開始などを制御してよい。また、本実施形態に係る制御部130は、情報処理サーバ20の出力制御部250と同等の機能を有してもよい。
 (音声出力部140)
 本実施形態に係る音声出力部140は、主に情報処理サーバ20の出力制御部250による制御に基づいて、システム発話に係る合成音声を出力する機能を有する。このために、本実施形態に係る音声出力部140は、スピーカやアンプを備える。
 (表示部150)
 本実施形態に係る表示部150は、主に情報処理サーバ20の出力制御部による制御に基づいて、比較対象に係るコンテンツや比較表を表示する機能を有する。このために、本実施形態に係る表示部150は、各種のディスプレイ装置や、プロジェクタなどを備える。
 (サーバ通信部160)
 本実施形態に係るサーバ通信部160は、ネットワーク30を介して情報処理サーバ20との情報通信を行う。例えば、サーバ通信部160は、音声入力部110が収集したユーザの発話に係る音声データを情報処理サーバ20に送信する。また、例えば、サーバ通信部160は、比較対象に係るコンテンツや、出力制御部250が生成した比較表などを情報処理サーバ20から受信する。
 以上、本実施形態に係る情報処理端末10の機能構成例について説明した。なお、図2を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理端末10の機能構成は係る例に限定されない。本実施形態に係る情報処理端末10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 <<1.4.情報処理サーバ20の機能構成例>>
 次に、本実施形態に係る情報処理サーバ20の機能構成例について述べる。図3は、本実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。図3に示すように、本実施形態に係る情報処理サーバ20は、音声認識部210、自然言語理解部220、画像認識部230、話者識別部240、出力制御部250、音声合成部260、および通信部270を備える。
 (音声認識部210)
 本実施形態に係る音声認識部210は、情報処理端末10が収集したユーザの発話に係る音声データに対し、音声認識(ASR:Automatic Speech Recognition)を行い、ユーザの発話をテキスト化する機能を有する。
 (自然言語理解部220)
 本実施形態に係る自然言語理解部220は、音声認識部210によりテキスト化されたユーザの発話に対する自然言語理解(NLU:Natural Language Understanding)を行い、発話に係るインテントとエンティティを抽出する。なお、ユーザの発話が主観評価発話である場合には、自然言語理解部220は、インテントとして比較項目を、エンティティとして主観表現を抽出し、また主観表現から主観評価スコアを算出してよい。本実施形態に係る自然言語理解部220が有する機能の詳細については、別途後述する。
 (画像認識部230)
 本実施形態に係る画像認識部230は、主に情報処理端末10が撮影したユーザの画像に基づいて、ユーザの識別やユーザの位置を認識する機能を有する。
 (話者識別部240)
 本実施形態に係る話者識別部240は、複数人のユーザにより情報処理システムが利用される状況において、発話を行ったユーザを識別する機能を有する。本実施形態に係る話者識別部240は、例えば、情報処理端末10の音声入力部110が備える複数のマイクロフォンが収集した音声に基づいて音源の方向を検出し、また画像認識部230から入力される情報に基づいて、検出した音源の方向に存在するユーザを話者として識別してもよい。また、話者識別部240は、事前に各ユーザの発話音声の声質などを学習し、当該声質の特徴に基づいて話者識別を行うことも可能である。
 (出力制御部250)
 本実施形態に係る出力制御部250は、自然言語理解部220が抽出したユーザの発話意図に基づいて、コンテンツに対する当該ユーザの主観評価をまとめた図表の表示を制御する機能を有する。この際、本実施形態に係る出力制御部250は、複数の比較対象に係るコンテンツごとに主観評価を比較した比較表を生成し、当該比較表を情報処理端末10の表示部150に表示させること、を特徴の一つとする。この際、本実施形態に係る出力制御部250は、比較対象に係るコンテンツが有する比較項目ごとに主観評価を比較した比較表を生成してもよい。
 また、上記の主観評価は、ユーザの発話から抽出された比較項目に対する主観表現と、当該主観表現から算出された主観評価スコアとを含んでもよい。この場合、本実施形態に係る出力制御部250は、比較項目ごとに主観表現および主観評価スコアを比較した比較表を生成する。本実施形態に係る出力制御部250が有する機能の詳細については、別途後述する。
 (音声合成部260)
 本実施形態に係る音声合成部260は、出力制御部250による制御に基づいて、音声合成(TTS:Text To Speech)を行い、システム発話に係る合成音声を生成する機能を有する。音声合成部260が生成した合成音声は、情報処理端末10に送信され、音声出力部140により出力される。
 (通信部270)
 本実施形態に係る通信部270は、ネットワーク30を介して情報処理端末10との情報通信を行う。例えば、通信部270は、情報処理端末10からユーザの発話に係る音声データを受信する。また、例えば、通信部270は、比較対象に係るコンテンツや、出力制御部250が生成した比較表、音声合成部260が生成した合成音声を情報処理端末10に送信する。
 以上、本開示の一実施形態に係る情報処理サーバ20の機能構成例について説明した。なお、図3を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理サーバ20の機能構成は係る例に限定されない。本実施形態に係る情報処理サーバ20の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 <<1.5.機能の詳細>>
 次に、本実施形態に係る情報処理サーバ20が有する機能について具体例を挙げながら詳細に説明する。まず、ユーザがVR機器である情報処理端末10や、エージェント機器である情報処理端末10を用いて仮想的に不動産物件の内見を行う場合の一例を示す。図4~図8は、本実施形態に係る比較表の生成について説明するための図である。なお、図4~図8では、ユーザUがエージェント機器である情報処理端末10が表示する不動産物件の画像を視聴しながら内見を行う場合の一例が示されている。
 まず、ユーザUは、図4の上段に示すように、不動産物件、すなわち比較対象に係るコンテンツの検索を依頼する発話UO1を行う。この際、本実施形態に係る自然言語理解部220は、音声認識部210によりテキスト化された発話UO1に対する自然言語理解を行い、発話意図として、「(品川近辺・ひとり暮らし)の条件による検索」抽出する。
 続いて、本実施形態に係る出力制御部250は、自然言語理解部220が抽出した上記の発話意図に基づいて物件データベースを検索し、比較対象に係るコンテンツとして物件A~Cに関する画像情報等を取得する。
 また、本実施形態に係る出力制御部250は、取得した比較対象に応じた初期の比較項目およびその属性値を物件データベースから取得し、当該比較項目およびその属性値を含む比較表CTを生成する。
 図4に示す一例の場合、出力制御部250は、ユーザUによる検索指示の条件となった「場所」、統計的に多くの人が主観評価を行った「家賃」と「広さ」、また制約条件となり得る「保証人」を比較項目として取得している。
 また、図4に示す一例の場合、比較項目「場所」の属性値としては最寄り駅からの距離が、比較項目「家賃」の属性値としては月額が、比較項目「広さ」の属性としては占有面積と統計的に最も多くの人が主観評価として表現した内容が、比較項目「保証人」の属性値としてはその要否が取得されている。
 この際、本実施形態に係る出力制御部250は、例えば、図示するように、比較対象である物件A~Cを横軸に、取得した比較項目である「場所」、「家賃」、「広さ」、「保証人」を縦軸とする一覧形式の比較表CTを生成し、比較項目ごとの属性値をユーザUに提示してもよい。
 なお、図4の時点においては、比較表CTにはユーザUの主観評価が含まれておらず、上述の属性値のみが表示されている。
 ここで、ユーザUが「順番に見せて」などの発話を行った場合、本実施形態に係る出力制御部250は、情報処理端末10の表示部150を制御し、比較対象に係るコンテンツの提示を開始する。この際、出力制御部250は、図4に示す初期の比較項目および属性値を含む比較表CTの表示が一度停止するよう制御してもよいし、比較対象に係るコンテンツの視聴を妨げない位置に移動させてもよい。
 図5の上部には、出力制御部250が提示を制御する比較対象に係るコンテンツで物件Aの内見を行ったユーザUによる主観評価発話UO2およびUO3が示されている。ここで、本実施形態に係る主観評価発話とは、比較対象に係るコンテンツに対するユーザの主観的な感想や意見などの評価に係る発話を指す。
 この際、本実施形態に係る自然言語理解部220は、ユーザによる主観評価発話からインテントとして比較項目を、エンティティとして主観表現を抽出する。自然言語理解部220は、例えば、予め比較項目と主観表現が紐づけられた文例を学習することにより、未知のユーザによる発話であっても学習済みデータに基づいて比較項目と主観表現をそれぞれインテントとエンティティとして抽出することができる。
 より具体的には、自然言語理解部220は、例えば、事前に「部屋は少し汚いかな」という文例と共に、インテント=比較項目「内装」、エンティティ=主観表現「少し汚い」、などの教師データを用いた学習を行うことで、類似する発話に対しても、インテントおよびエンティティを正しく抽出することができる。
 また、自然言語理解部220は、感情分析処理などにより、ユーザの発話(主観表現)が否定的であるか肯定的であるかの尺度を示す主観評価スコアを算出する。主観評価スコアは、例えば、-1.0(否定的)~0.0(中立)~1.0(肯定的)の範囲で定義されてもよい。
 例えば、前述の「部屋は少し汚いかな」から抽出される主観表現「少し汚い」は、やや否定的な表現であることから、自然言語理解部220は、主観評価スコアを-0.3として算出してもよい。
 また、図5に示す主観評価UO2の場合、自然言語理解部220は、インテント=比較項目「家賃」、エンティティ=主観表現「ちょうど予算内」を抽出したうえで、主観評価スコアを0.3としてもよい。
 また、主観評価UO3の場合、自然言語理解部220は、インテント=比較項目「広さ」、エンティティ=主観表現「ちょっと狭い」を抽出したうえで、主観評価スコアを-0.3としてもよい。
 この際、本実施形態に係る出力制御部250は、自然言語理解部220が主観評価発話UO2およびUO3から抽出した比較項目、主観表現、および主観評価スコアを記憶し、横軸を比較対象である物件Aとし、縦軸を比較項目「家賃」および「広さ」とした比較表CTを生成し、各比較項目のセル内に主観表現「ちょうど予算内」や「ちょっと狭い」を表示させてよい。
 また、出力制御部250は、物件データベースから得られた各比較項目の属性値を併せて表示させてもよい。なお、この場合、ユーザの主観表現と属性値とを区別するために、文字の色や、文字種、装飾などを変化させてもよい。
 ここで、ユーザUが次の比較対象に係るコンテンツの提示を指示する発話UO4を行った場合、出力制御部250は、物件Bの提示制御に移行する。
 図6の上部には、出力制御部250が提示を制御する比較対象である物件Bの内見を行ったユーザUによる主観評価発話UO5およびUO6が示されている。この際、出力制御部250は、図5に示した場合と同様に、各主観表現から比較項目と主観表現を抽出し、主観表現から主観評価スコアを算出する。また、出力制御部250は、抽出した比較項目と主観表現を比較表CTに追加する。
 ここで、主観評価発話UO5から抽出されたインテント=比較項目「内装」および「収納」は、物件データベースに基づく初期の比較表CTには存在しない比較項目である。このように、本実施形態に係る出力制御部250は、ユーザの主観評価発話から新たな比較項目が抽出された場合、当該新たな比較項目を比較表CTに追加してよい。係る制御によれば、初期設定に依らずユーザの重要視する要素を比較項目として含む比較表CTを生成することが可能である。
 また、図6に示す一例では、物件Bの内見を終えたユーザUが、先の物件Aで主観評価発話を行った比較項目「家賃」や「広さ」については、言及を行っていない。このように、主観評価が得られていない比較項目が存在する場合、出力制御部250は、当該比較項目に対するユーザの主観評価発話を促すシステム発話SO1やSO2を情報処理端末10の音声出力部140に出力させてもよい。
 より詳細には、本実施形態に係る出力制御部250は、1つ以上の比較対象に係るコンテンツにおいて主観評価が得られている比較項目に対し、すべての比較対象に係るコンテンツにおいて主観評価がえられるようシステム発話を制御する。
 ここで、システム発話SO1に対し、ユーザUが比較項目「家賃」に対する主観評価発話UO7を行った場合、出力制御部250は、主観評価発話UO7から主観表現「かなり安く済みそう」を抽出し比較表CTに追加する。また、出力制御部250は、主観表現「かなり安く済みそう」から主観評価スコアを算出し記憶する。
 同様に、システム発話SO2に対し、ユーザUが比較項目「広さ」に対する主観評価発話UO7を行った場合、出力制御部250は、主観評価発話UO7から主観表現「意外と狭く感じる」を抽出し比較表CTに追加する。また、出力制御部250は、主観表現「意外と狭く感じる」から主観評価スコアを算出し記憶する。
 このように、本実施形態に係る出力制御部250は、比較対象に係るコンテンツに関するユーザとの音声対話をさらに制御し、音声対話において抽出されたユーザの発話意図に基づいて前記比較表を生成することができる。
 また、図6に示す一例では、物件Bの内見により新たに比較項目「内装」および「収納」が追加されているが、ユーザUは物件Aに対しては、上記2つの比較項目に関する主観評価発話を行っていない。
 このように、提示済みの比較対象に係るコンテンツにおいて主観評価が得られていない比較項目が存在する場合、本実施形態に係る出力制御部250は、提示済みの比較対象に係るコンテンツの再提示に係る提案を制御してもよい。図6に示す一例の場合、出力制御部250は、物件Aの内装と収納を身に戻る旨を提案するシステム発話SO3を情報処理端末10の音声出力部140に出力させている。
 本実施形態に係る出力制御部250による上記のような制御によれば、すべての比較対象に係るコンテンツに関し、同一の比較項目に対するユーザの主観評価発話を得る機会を創出することで、後の比較検討時における基準を一定化することが可能となる。
 また、図7の上部には、物件Cを内見したユーザUの主観評価発話UO9およびUO10が示されている。この場合も同様に、出力制御部250は、比較項目「内装」、「広さ」、「家賃」、および「風呂」と各比較項目に対応する主観表現を抽出し、主観評価スコアを算出する。
 また、出力制御部250は、物件Cで主観評価が得らえていない比較項目「収納」に関し、主観評価発話を促すシステム発話SO4を情報処理端末10の音声出力部140に出力させてよい。
 また、物件Cの内見において主観評価発話を行っており、他の物件では行っていない新規の比較項目「風呂」については、出力制御部250は、物件データベースから属性が取得可能な場合には、当該属性値を比較表CTに追加したうえで、物件Aおよび物件Bに係る再提示を提案する旨のシステム発話SO5を出力させてもよい。このように、複数の比較対象に係るコンテンツにおいて主観評価が得られていない比較項目が存在する場合、出力制御部250は複数の比較対象に係るコンテンツを再度内見するユーザの負担を考慮し、属性値を表示させてよい。
 以上のように、すべての比較対象に係るコンテンツによる内見が終了すると、出力制御部250は、図5~図7において算出した各比較項目に係る主観評価スコアを反映した最終的な比較表CTを生成する。この際、本実施形態に係る出力制御部250は、主観評価スコアを比較項目の背景で表現した比較表CTを生成してもよい。
 例えば、本実施形態に係る出力制御部250は、図8に示すように、主観評価スコアの極性および強度を比較項目の背景の色や模様の種別、その濃淡により表現した比較表CTを生成し、表示部150に表示させてもよい。出力制御部250は、例えば、比較項目のセルの背景色を、主観評価スコアが否定的である場合には青、主観評価スコアが肯定的である場合には赤で配色し、スコアの絶対値を色の濃淡で表現してもよい。
 上記のような比較表によれば、各比較対象に係るコンテンツの各比較項目に行った主観評価をユーザが視覚的に直感に把握することができ、効果的にユーザの比較検討を補助することが可能となる。
 また、図8に示すように、比較表CTを確認したユーザUが物件を決定する旨の発話UO12を行った場合、本実施形態に係る出力制御部250は、主観評価スコアに基づいてユーザUの判断の決め手要因となった比較項目を推定してよい。
 この際、出力制御部250は、例えば、選択された物件Bの比較項目のうち、選択されなかった物件AおよびCとの主観評価スコアの差分がプラス方向に最も大きい比較項目を決め手要因として推定してもよい。または、出力制御部250は、選択された物件Bの比較項目のうち最も主観評価スコアが高い比較項目を決め手要因として推定してもよい。
 また、本実施形態に係る出力制御部250は、主観評価スコアに基づいてユーザUが選択しなかった比較対象に係るコンテンツの(否定的な)制約要因となった比較項目を推定してもよい。
 この際、出力制御部250は、例えば、選択されなかった物件の比較項目のうち、選択された物件Bとの主観評価スコアの差分が-方向に最も大きい比較項目を制約要因として推定してもよい。または、出力制御部250は、選択されなかった物件の比較項目のうち最も主観評価スコアが低い比較項目を制約要因として推定してもよい。
 さらには、出力制御部250は、決め手要因や制約要因として推定した比較項目をユーザUに確認する旨のシステム発話SO6やSO7を音声出力部140に出力させてもよい。
 また、本実施形態に係る出力制御部250は、上記のように推定した決め手要因および制約要因を蓄積し、統計的に分析する機能を有する。なお、推定した決め手要因や制約要因をシステム発話などを用いてユーザに確認した際に、ユーザが異なる要因を示した場合、出力制御部250は、ユーザが示した要因を蓄積してよい。例えば、システム発話SOに対し、ユーザが、「いや、風呂がきれいだから」などと応答した場合、出力制御部250は推定した「家賃」ではなく、ユーザが示した「風呂」を決め手要因として蓄積してよい。本実施形態に係る出力制御部250は、上記のように推定した決め手要因および制約要因を蓄積し、統計的に分析することで、コンテンツ提供側の業務改善に有用な情報を提供することが可能である。
 例えば、統計的に多数を占める決め手要因は他の物件のセールポイントとしても有用だと考えられることから、出力制御部250による分析の結果、多くのユーザが家賃を決め手要因としていることが推測された場合、家賃の安い物件の取り扱いを増やし宣伝を行うことで、より売り上げが増加することが期待される。
 また、例えば、選択されなかった比較対象に係るコンテンツの制約要因の改善をコンテンツ提供側に提案することなども想定される。例えば、図8に示す一例の場合、物件Aの比較項制約要因は比較項目「風呂」であることが推定される。この場合、物件Aの風呂のリフォームをオーナーに提案するなどの情報提供がなされてもよい。
 以上、本実施形態に係る比較表の生成について説明した。なお、上記では、出力制御部250が単一のユーザの主観評価発話に基づいて比較表を生成する場合を述べたが、本実施形態に係る出力制御部250は、複数のユーザによる比較検討に際し、当該複数のユーザの主観評価発話に基づいて、各ユーザの主観評価を反映した統合的な比較表を生成することも可能である。
 以下では、父、母、姉、弟の4人のユーザが、ホームエージェント機器である情報処理端末10にレストランの検索を依頼し、提示された複数のレストラン、すなわち比較対象に係るコンテンツを視聴しながら主観評価発話を行った場合の一例を挙げて説明する。なお、この場合も単一ユーザの場合と同様に、出力制御部250は、主観評価発話から新たに抽出された比較項目を比較表に追加してよい。また、出力制御部250は、どのユーザからも主観評価が得られていない比較項目については、ユーザの主観評価発話を促すための制御を行ってよい。
 図9は、本実施形態に係る複数のユーザの主観評価発話に基づく比較表の一例を示す図である。図9に示す一例では、単一ユーザの場合と同様に、比較対象を横軸に、比較項目を縦軸とする一覧形式の比較表CTが生成されている。
 一方、図9に示す一例では、単一ユーザの場合とは異なり、各セル内における主観表現については、発話者を示す符号が追加されている。このように、本実施形態に係る出力制御部250は、比較対象に係るコンテンツに対する複数のユーザの主観評価を比較した比較表CTを生成することができる。
 また、複数人のユーザによる比較検討の場合、本実施形態に係る出力制御部250は、複数のユーザに係る主観評価に基づく総合評価を比較項目ごとに表現した比較表CTを生成してよい。
 例えば、図9に示す一例の場合、出力制御部250は、すべてのユーザから肯定的な主観評価スコアが得られた評価項目については、主観評価スコアの平均値を赤の濃淡で表現し、すべてのユーザから否定的な主観評価スコアが得られた評価項目については、主観評価スコアの平均値を青の濃淡で表現している。
 また、本実施形態に係る出力制御部250は、複数のユーザの間で主観評価が対立している比較項目については、他の色などを用いて協調した比較表を生成してもよい。例えば、図9に示す一例の場合、レストランBおよびCの比較項目「アクセス」については、ユーザの間で意見が対立している。このような場合、出力制御部250は、全ユーザから肯定的または否定的な主観評価スコアが得られた比較項目とは異なる色、例えば黄色などを配色し、分散値を色の濃淡で表現することで、当該比較項目を強調することができる。
 本実施形態に係る出力制御部250による上記の制御によれば、主観評価が対立している比較項目を直感的に把握することができ、議論の収束のために当該比較項目について妥協案を探るなどの対応が可能となる。
 また、複数人のユーザによる比較検討の場合、出力制御部250は、比較対象および比較項目、または比較対象およびユーザを軸に表示切替が可能な前記比較表を生成してもよい。
 図10は、本実施形態に係る比較対象およびユーザを軸とした比較表の一例である。図10に示す比較表CTの場合、図9とは異なり、ユーザが縦軸となっており、比較項目については各セル内で表現されている。係る表示形式によれば、比較対象に係るコンテンツに対する個人ごとの主観評価スコアを明確に表現することが可能である。
 また、複数人のユーザによる比較検討の場合も、個人の場合と同様に、出力制御部250は、最終的に選択された比較対象に係るコンテンツや、選択されなかった比較対象に係るコンテンツに係る分析を行ってよい。
 さらには、複数人のユーザによる比較検討の場合、出力制御部250は、最終的な判断に関し、どのユーザの主観評価が強く反映されたかを分析し、その結果を蓄積し活用してもよい。例えば、家庭内など円満な関係性が求められる環境の場合、主観評価が最終判断に反映された回数の少ないユーザの嗜好に合わせて最初のコンテンツ検索を行うことで、より均等な主観評価の反映を行うことなどが可能となる。
 一方、組織内における会議など迅速な意思決定が求められる環境の場合、主観評価の反映回数が多い個人の指向に合わせて最初のコンテンツ検索を行うことで、より短い時間での議論の終結を期待できる。
 なお、本実施形態に係る出力制御部250は、選択判断前の主観評価と選択判断後の事後的な主観評価との差分を分析し、活用することも可能である。図11は、本実施形態に係る事後的な主観評価の活用について説明するための図である。
 図11の上部には、図9および図10に示した比較表CTに基づいてレストランAが選択された後、実際にレストランAを訪問したユーザたちが帰宅した際の音声対話の一例が示されている。
 図11に示す一例では、まず、出力制御部250が、すべてのユーザがそろっていることを検出し、レストランAに関する事後的な主観評価発話を促すシステム発話SO8を音声出力部140に出力させている。この際、出力制御部250は、選択判断前の主観評価をまとめた比較表と比較対象に係るコンテンツとを再度ユーザたちに提示してもよい。
 また、出力制御部250は、続いて発せられた主観評価発話UO15~UO18から抽出された主観表現を比較表CTに順次追加していく。なお、どのユーザからも事後的な主観表現が得られていない比較項目がある場合、出力制御部250は、当該比較項目に係る事後的な主観評価発話を促すシステム発話SO9を音声出力部140に出力させてよい。
 ここで、ユーザの主観評価発話UO19によりすべての比較項目に係る主観評価が得られると、出力制御部250は、事後における主観評価スコアを算出し色分けして表現した比較表CTを表示部150に表示させる。
 また、出力制御部250は、事前と事後で主観評価スコアの差分が所定の閾値以上となった比較項目について、主観評価スコアの差分と事前および事後における主観表現とを抽出、蓄積する。出力制御部250は蓄積した上記の情報を分析することで、コンテンツ提供側に種々の改善提案を行うことができる。
 例えば、図11に示す一例の場合、比較項目「内装」に関し事前には否定的な主観評価をしていたユーザが、事後には肯定的な主観評価をしていることから、内装に係る写真の撮り直しなどをコンテンツ提供側に提案してもよい。また、比較項目「メニュー」に関し事前には肯定的な主観評価をしていたユーザが、事後には否定的な主観評価をしていることから、メニュー自体の改善や調理方法の改善などをコンテンツ提供側に提案してもよい。
 次に、本実施形態に係る一部の比較項目が共通ではない比較対象に係るコンテンツに係る比較表の生成について述べる。上記では、複数の比較対象に係るコンテンツが同一の特性を有しており、また完全に同一の比較項目で比較を行える場合の例について述べた。
 一方、例えば、誕生日プレゼントの検討などにおいては、特性の異なる複数の比較対象に係るコンテンツを比較することなども想定される。この場合、比較対象に係るコンテンツ間には、共通しない比較項目が生じる可能性がある。
 図12~図14は、本実施形態に係る一部の比較項目が共通ではない比較対象に係るコンテンツに係る比較表の生成について説明するための図である。図12の上部には、息子へのクリスマスプレゼントを検討しているユーザUと情報処理端末10との対話が示されている。
 この際、出力制御部250は、不動産やレストランの場合と同様に、検索の結果取得した比較対象に係るコンテンツCに対するユーザUの主観評価発話UO20~UO21から抽出された比較項目と主観表現とに基づいて比較表CTを生成し、表示部150に表示させる。
 一方、本例の場合、前述の例とは異なり、比較対象間の特性が大きく異なっている。具体的には、本例では、図13に示すように、ユーザUは、サッカーボールと本という特性が大きく異なる比較対象に関する検討を行っている。このため、上記の比較対象間では比較項目の一部が共通していない。
 例えば、ユーザUは、表示された比較対象である本に係るコンテンツCを確認し、比較項目「お届け日」および「内容」に関する主観表現発話UO23およびUO24を行っている。
 この際、サッカーボールに係るコンテンツCにおいて言及された比較項目「サイズ」に対する主観表現発話が、本に係るコンテンツCでは得られていないことから、出力制御部250は、本のサイズに対する主観評価発話を促すシステム発話SO9を音声出力部140に出力させている。
 しかしながら、一般的にプレゼントとしての本のサイズは重要ではないことから、ユーザUは、システム発話SO9に対して、本のサイズは比較検討において重要ではない旨の発話UO25を行っている。
 この際、出力制御部250は、自然言語理解部220が発話UO25を主観評価発話ではないと判定したことに基づいて、「サイズ」は共通の比較項目ではないと判断してよい。
 また、出力制御部250は、本に係るコンテンツCにおいて言及された比較項目「内容」に対する主観表現発話が、サッカーボールに係るコンテンツCでは得られていないことから、出力制御部250は、ユーザUがサッカーボールの「内容」を確認するために、サッカーボールに係るコンテンツCの再提示を提案するシステム発話SO10を音声出力部140に出力させている。
 しかし、一般的にサッカーボールに「内容」は存在しないことから、ユーザUはコンテンツCの再提示は不要であることを示す発話UO26を行っている。
 この際、出力制御部250は、自然言語理解部220が発話UO26を主観評価発話ではないと判定したことに基づいて、「内容」は共通の比較項目ではないと判断してよい。
 このような場合、本実施形態に係る出力制御部250は、図14に示すように、比較対象間で共通しない項目を表示するための項目「その他」を設け、当該項目に共通しない項目に対する主観表現を表示させてよい。
 この際、出力制御部250は、比較対象の間で共通する比較項目については、前述したように、算出された主観評価スコアに基づいて背景色を決定してよい。一方、項目「その他」については、項目単位での比較を行うことができないため、背景色の制御は行わなくてよい。
 他方、項目「その他」においても各主観表現に係る主観評価スコアの提示は重要であることから、出力制御部250は、例えば、主観表現に係る文字列の色や大きさ、文字装飾などにより主観評価スコアを表現してよい。
 このように、本実施形態に係る出力制御部250は、少なくとも一つの比較項目が共通しない複数の比較対象に係るコンテンツの比較表を生成することが可能である。
 <<1.6.動作の流れ>>
 次に、本実施形態に係る情報処理サーバ20に動作の流れについて詳細に説明する。まず、情報処理サーバ20による制御全体の流れについて述べる。図15は、本実施形態に係る情報処理サーバ20による制御全体の流れ示すフローチャートである。
 図15を参照すると、まず、自然言語理解部220が、ユーザの発話意図が提示中のコンテンツに対する主観評価であるか否か、すなわちユーザの発話が主観評価発話であるか否かを判定する(S1101)。
 ここで、ユーザの発話意図が提示中のコンテンツに対する主観評価である場合(S1101:YES)、自然言語理解部220は、比較項目と主観表現、および主観評価スコアを、比較対象の比較データとして記憶する(S1102)。
 次に、出力制御部250は、記憶されている比較データに基づいて比較表を生成し、表示を制御する(S1103)。
 一方、ユーザの発話意図が提示中のコンテンツに対する主観評価ではない場合(S1101:NO)、情報処理サーバ20の動作は、ユーザの発話意図に応じて分岐する(S1104)。
 ユーザの発話意図が検索である場合(S1104:検索)、出力制御部250は、発話意図の条件で比較対象を検索し、データベースから初期の比較項目と属性値を取得し、比較表を生成する(S1105)。
 一方、ユーザの発話意図が選択判断である場合(S1104:選択判断)、情報処理サーバ20は、後述する選択判断対話制御フローに遷移する(S1111)。
 他方、ユーザの発話意図がコンテンツ操作依頼である場合(S1104:コンテンツ操作依頼)、情報処理サーバ20の動作は、コンテンツ操作種別に応じて分岐する(S1106)。
 ここで、ユーザのコンテンツ操作依頼がコンテンツの開始である場合(S1106:開始)、出力制御部250は、最初の比較対象に係るコンテンツの出力指示を行う(S1107)。
 一方、ユーザのコンテンツ操作依頼がコンテンツの指定である場合(S1106:コンテンツ指定)、出力制御部250は、指定された比較対象に係るコンテンツの出力指示を行う(S1108)。
 他方、ユーザのコンテンツ操作依頼がコンテンツの終了である場合(S1106:終了)、出力制御部250は、主観評価スコアを反映した比較表を生成し、表示を指示する(S1109)。
 また、ここで、複数人のユーザが存在する場合、出力制御部250は、ユーザによる表示切替指示発話に基づいて比較表の一軸を比較項目またはユーザで切り替えた比較表の表示を指示する(S1110)。
 以上、情報処理サーバ20による制御全体の流れについて述べた。続いて、本実施形態に係る情報処理サーバ20による選択判断対話制御の流れについて説明する。図16は、本実施形態に係る情報処理サーバ20による選択判断対話制御の流れを示すフローチャートである。
 図16を参照すると、まず、出力制御部250は、ユーザによる選択判断の(肯定的な)決め手要因を各比較項目の主観評価スコアから推定する(S1201)。
 続く出力制御部250の動作は、推定した決め手候補項目に対するユーザの確認応答結果に応じて分岐する(S1202)。
 ここで、ユーザの確認応答結果が肯定を示す場合(S1202:肯定)、出力制御部250は、推定した比較項目を決め手要因として決定する(S1203)。
 一方、ユーザの確認応答結果が推定とは異なる比較項目を示す場合(S1202:推定とは異なる比較項目)、出力制御部250は、確認応答結果が示す比較項目を決め手要因として決定する(S1204)。
 ステップS1203またはS1204において決め手要因を決定すると、続いて、出力制御部250は、出力制御部250は、ユーザによる選択判断の(否定的な)制約要因を各比較項目の主観評価スコアから推定する(S1205)。
 続く出力制御部250の動作は、推定した制約候補項目に対するユーザの確認応答結果に応じて分岐する(S1206)。
 ここで、ユーザの確認応答結果が肯定を示す場合(S1206:肯定)、出力制御部250は、推定した比較項目を制約要因として決定する(S1207)。
 一方、ユーザの確認応答結果が推定とは異なる比較項目を示す場合(S1206:推定とは異なる比較項目)、出力制御部250は、確認応答結果が示す比較項目を制約要因として決定する(S1208)。
 また、ここで、複数人のユーザが存在する場合、出力制御部250は、選択された比較対象に係る主観評価スコアが最も肯定的であるユーザを、選択判断において最も意見が反映されたユーザとして推定する(S1209)。
 次に、出力制御部は、決定した決め手要因、制約要因、また複数人ユーザが存在する場合には、選択判断において最も意見が反映されたユーザをデータベースに蓄積し、統計的に分析する(S1210)。
 以上、情報処理サーバ20による選択判断対話制御の流れについて述べた。続いて、本実施形態に係る情報処理サーバ20による比較評価基準の一定化制御の流れについて説明する。図17Aおよび図17Bは、本実施形態に係る情報処理サーバ20による情報処理サーバ20による比較評価基準の一定化制御の流れを示すフローチャートである。
 図17Aを参照すると、まず、出力制御部250は、他の比較対象で主観評価が得られており、n番目の比較対象で主観評価が得られていない比較項目が存在するか否かを判定する(S1401)。
 ここで、上記の条件に該当する比較項目が存在しない場合(S1401:NO)、出力制御部250は、状態Aに遷移する。
 一方、上記の条件に該当する比較項目が存在する場合(S1401:YES)、出力制御部250は、n番目の比較対象で主観評価が得られていない該当比較項目に対し、下記のステップS1402~S1406の動作を繰り返し実行し、該当するすべての比較項目に対する処理が完了した場合、状態Aに遷移する。
 まず、出力制御部250は、主観評価が得られていない該当比較項目に対する主観評価発話を促すシステム発話の出力を指示する(S1402)。
 次に、自然言語理解部220は、ユーザの応答発話が該当比較項目に対する主観評価発話であるか否かを判定する(S1403)。
 ここで、ユーザの応答発話が該当比較項目に対する主観評価発話である場合(S1403:YES)、自然言語理解部220は、応答発話(主観表現)とその主観評価スコアを該当比較項目の比較データとして追加記憶する(S1404)。
 一方、ユーザの応答発話が該当比較項目に対する主観評価発話ではない場合(S1403:NO)、出力制御部250は、他の比較対象で主観評価が得られた該当比較項目の比較データを項目「その他」に移動して記憶する(S1405)。
 ステップS1404またはS1405における処理が完了すると、出力制御部250は、記憶されている比較データに基づいた比較表を生成し、表示を指示する(S1406)。
 続いて、状態Aへの遷移後の動作の流れを図17Bを参照して説明する。
 出力制御部250は、n番目の比較対象で主観評価が得られており、他の比較対象で主観評価が得られていない比較項目が存在するか否かを判定する(S1407)。
 ここで、上記の条件に該当する比較項目が存在しない場合(S1407:NO)、情報処理サーバ20は、一連の処理を終了する。
 一方、上記の条件に該当する比較項目が存在する場合(S1407:YES)、出力制御部250は、他の比較対象で主観評価が得られていない該当比較項目に対し、下記のステップS1408~S1409の動作を繰り返し実行する。
 出力制御部250は、該当比較項目が複数の他の比較対象において主観評価が存在しないか否かを判定する(S1408)。
 ここで、該当比較項目が複数の他の比較対象において主観評価が存在しない場合(S1408:YES)、出力制御部250は、該当比較項目の属性値をデータベースから取得し、比較表に表示するよう指示を行う(S1409)。
 ステップS1408~S1409に係る繰り返し処理が終了した場合、出力制御部250は、主観評価が得られていない比較項目が存在する比較対象に係るコンテンツの再提示を提案するシステム発話の出力指示を行う(S1410)。
 次に、自然言語理解部220は、ユーザの応答発話がコンテンツの再提示を要求するものか否かを判定する(S1411)。
 ここで、ユーザの応答発話がコンテンツの再提示を要求するものである場合(S1411:YES)、出力制御部250は、主観評価が得られていない比較項目が比較対象に係るコンテンツの再提示を指示する(S1412)。
 一方、ユーザの応答発話がコンテンツの再提示を要求するものではない場合(S1411:NO)、出力制御部250は、他の比較対象で主観評価が得られていない比較項目の比較データを項目「その他」に移動して記憶する(S1413)。
 <<1.7.その他の制御>>
 以上、本実施形態に係る情報処理サーバ20が有する機能について説明した。一方、本実施形態に係る情報処理サーバ20は上記で挙げた制御に限定されず、種々の制御を追加で行ってもよい。
 例えば、本実施形態に係る出力制御部250は、は、ユーザの年齢や性別などの各種のプロファイルに応じて比較対象の検索条件を決定してもよい。
 また、上記では、主観評価発話から抽出された比較項目が比較表の下方に挿入される場合を例に述べたが、ユーザの優先度が高いことが検出された場合には、上位に並べ直すなどの制御が行われてもよい。例えば、出力制御部250は、比較対象に対しユーザが第一印象で行った主観評価の優先度を上げて、より視認しやすい比較表の情報に表示させてもよい。また、出力制御部250は、主観評価スコアの差が出づらい比較項目、分散が小さい比較項目については、下方に表示させるなどの制御を行ってもよい。
 また、出力制御部250は、複数人のユーザにより選択判断が得られない場合には現状の主観評価スコアに基づき、ユーザに代わり選択判断を行ってもよい。また、出力制御部250は、例えば、各比較対象の全比較項目に係る各ユーザの主観評価スコアを合算し、比較対象ごとの総合スコアを表示してもよい。また、出力制御部250は、最も総合スコアが高い比較対象を提案するシステム発話を出力させることも可能である。
 また、本実施形態に係る情報処理システムは、例えば、カーナビゲーションシステムに適用されてもよい。この場合、乗車しているユーザ同士が行き先について会話していることをカーナビゲーションシステムが検出し、行き先別の湯かん評価を反映した比較表などを表示してもよい。
 また、上記では、本実施形態に係る出力制御部250が、ユーザとの音声対話を介して比較表を生成する場合を述べたが、音声対話は必ずしも必要とはされない。本実施形態に係る出力制御部250は、例えば、生身のエージェントやコンシェルジュ、オペレータ等とユーザとの対話から抽出された主観評価に基づいて比較表を生成することも可能である。
 例えば、ユーザが不動産を取り扱う生身のエージェントと内見を行う場合、出力制御部250は、当該エージェントが形態するタブレットなどにより収集された両者の発話から得られた主観評価に基づいて比較表を生成し、タブレットに表示させてもよい。
 この場合、エージェントは、比較表において主観評価が得られていない比較項目を確認し、当該比較項目に対する主観評価についてユーザに直接訪ねることが可能である。このように、本実施形態に係る情報処理システムは、営業支援ツールとしても活用が可能である。
 <2.ハードウェア構成例>
 次に、本開示の一実施形態に係る情報処理端末10および情報処理サーバ20のハードウェア構成例について説明する。図18は、本開示の一実施形態に係る情報処理端末10および情報処理サーバ20のハードウェア構成例を示すブロック図である。図18に示すように、情報処理端末10および情報処理サーバ20は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インタフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 (プロセッサ871)
 プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 (ROM872、RAM873)
 ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 (ホストバス874、ブリッジ875、外部バス876、インタフェース877)
 プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インタフェース877を介して種々の構成要素と接続される。
 (入力装置878)
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
 (出力装置879)
 出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
 (ストレージ880)
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 (ドライブ881)
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 (リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 (接続ポート882)
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 (外部接続機器902)
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 (通信装置883)
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
 <3.まとめ>
 以上説明したように、本開示の一実施形態に係る情報処理サーバ20は、抽出されたユーザの発話意図に基づいて、コンテンツに対する当該ユーザの主観評価をまとめた図表の表示を制御する出力制御部250を備える。また、本開示の一実施形態に係る出力制御部250は、複数の比較対象に係るコンテンツごとに上記主観評価を比較した比較表を生成し、上記比較表を表示させること、を特徴の一つとする。係る構成によれば、複数の比較対象に対するユーザの発散的な感想や意見をユーザの負担なしに精度高く整形することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、情報処理サーバ20が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な非一過性の記録媒体も提供され得る。
 また、本明細書の情報処理サーバ20の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理サーバ20の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御する出力制御部、
 を備え、
 前記出力制御部は、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させる、
情報処理装置。
(2)
 前記出力制御部は、前記比較対象に係るコンテンツが有する比較項目ごとに前記主観評価を比較した前記比較表を生成する、
前記(1)に記載の情報処理装置。
(3)
 前記主観評価は、前記ユーザの発話から抽出された前記比較項目に対する主観表現と、前記主観表現から算出された主観評価スコアとを含み、
 前記出力制御部は、前記比較項目ごとに前記主観表現および前記主観評価スコアを比較した前記比較表を生成する、
前記(2)に記載の情報処理装置。
(4)
 前記出力制御部は、前記ユーザの発話から新たな前記比較項目が抽出された場合、新たな前記比較項目を前記比較表に追加する、
前記(3)に記載の情報処理装置。
(5)
 前記出力制御部は、前記主観評価スコアを前記比較項目の背景で表現した前記比較表を生成する、
前記(3)または(4)に記載の情報処理装置。
(6)
 前記出力制御部は、前記主観評価スコアの極性および強度を、前記比較項目の背景の色または模様のいずれかの種別および濃淡により表現した前記比較表を生成する、
前記(5)に記載の情報処理装置。
(7)
 前記出力制御部は、前記比較対象に係るコンテンツに関する前記ユーザとの音声対話をさらに制御し、前記音声対話において抽出された前記ユーザの発話意図に基づいて前記比較表を生成する、
前記(3)~(6)のいずれかに記載の情報処理装置。
(8)
 前記出力制御部は、前記主観評価が得られていない前記比較項目に対する前記ユーザの主観評価発話を促すシステム発話を出力させる、
前記(6)に記載の情報処理装置。
(9)
 前記出力制御部は、1つ以上の前記比較対象に係るコンテンツにおいて前記主観評価が得られている前記比較項目に対し、すべての前記比較対象に係るコンテンツにおいて前記主観評価が得られるようシステム発話を制御する、
前記(8)に記載の情報処理装置。
(10)
 前記出力制御部は、前記比較対象に係るコンテンツの提示をさらに制御する、
前記(3)~(9)のいずれかに記載の情報処理装置。
(11)
 前記出力制御部は、提示済みの前記比較対象に係るコンテンツにおいて前記主観評価が得られていない前記比較項目が存在する場合、提示済みの前記比較対象に係るコンテンツの再提示に係る提案を制御する、
前記(10)に記載の情報処理装置。
(12)
 前記出力制御部は、前記比較対象に係るコンテンツに対する複数の前記ユーザの前記主観評価を比較した前記比較表を生成する、
前記(3)~(11)のいずれかに記載の情報処理装置。
(13)
 前記出力制御部は、複数の前記ユーザに係る前記主観評価スコアに基づく総合評価を前記比較項目ごとに表現した前記比較表を生成する、
前記(12)に記載の情報処理装置。
(14)
 前記出力制御部は、複数の前記ユーザの間で前記主観評価が対立している前記比較項目を強調した前記比較表を生成する、
前記(13)に記載の情報処理装置。
(15)
 前記出力制御部は、前記比較対象および前記比較項目、または前記比較対象および前記ユーザを軸に表示切替が可能な前記比較表を生成する、
前記(12)~(14)のいずれかに記載の情報処理装置。
(16)
 前記出力制御部は、少なくとも一つの前記比較項目が共通しない複数の前記比較対象に係るコンテンツの前記比較表を生成する、
前記(3)~(15)のいずれかに記載の情報処理装置。
(17)
 前記出力制御部は、前記ユーザにより前記比較対象に係るコンテンツのうちのいずれを選択する判断がなされた場合、前記主観評価スコアに基づいて前記ユーザの前記判断の決め手要因となった前記比較項目を推定する、
前記(3)~(16)のいずれかに記載の情報処理装置。
(18)
 前記出力制御部は、前記ユーザにより前記比較対象に係るコンテンツのうちのいずれを選択する判断がなされた場合、前記主観評価スコアに基づいて前記ユーザが選択しなかった前記比較対象に係るコンテンツの制約要因となった前記比較項目を推定する、
前記(17)に記載の情報処理装置。
(19)
 前記ユーザの発話に基づいて前記比較項目および前記主観評価を抽出する自然言語理解部、
 をさらに備える、
前記(3)~(18)のいずれかに記載の情報処理装置。
(20)
 プロセッサが、抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御すること、
 を含み、
 前記制御することは、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させること、
 をさらに含む、
情報処理方法。
 10   情報処理端末
 110  音声入力部
 120  撮影部
 130  制御部
 140  音声出力部
 150  表示部
 20   情報処理サーバ
 210  音声認識部
 220  自然言語理解部
 230  画像認識部
 240  話者識別部
 250  出力制御部
 260  音声合成部

Claims (20)

  1.  抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御する出力制御部、
     を備え、
     前記出力制御部は、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させる、
    情報処理装置。
  2.  前記出力制御部は、前記比較対象に係るコンテンツが有する比較項目ごとに前記主観評価を比較した前記比較表を生成する、
    請求項1に記載の情報処理装置。
  3.  前記主観評価は、前記ユーザの発話から抽出された前記比較項目に対する主観表現と、前記主観表現から算出された主観評価スコアとを含み、
     前記出力制御部は、前記比較項目ごとに前記主観表現および前記主観評価スコアを比較した前記比較表を生成する、
    請求項2に記載の情報処理装置。
  4.  前記出力制御部は、前記ユーザの発話から新たな前記比較項目が抽出された場合、新たな前記比較項目を前記比較表に追加する、
    請求項3に記載の情報処理装置。
  5.  前記出力制御部は、前記主観評価スコアを前記比較項目の背景で表現した前記比較表を生成する、
    請求項3に記載の情報処理装置。
  6.  前記出力制御部は、前記主観評価スコアの極性および強度を、前記比較項目の背景の色または模様のいずれかの種別および濃淡により表現した前記比較表を生成する、
    請求項5に記載の情報処理装置。
  7.  前記出力制御部は、前記比較対象に係るコンテンツに関する前記ユーザとの音声対話をさらに制御し、前記音声対話において抽出された前記ユーザの発話意図に基づいて前記比較表を生成する、
    請求項3に記載の情報処理装置。
  8.  前記出力制御部は、前記主観評価が得られていない前記比較項目に対する前記ユーザの主観評価発話を促すシステム発話を出力させる、
    請求項6に記載の情報処理装置。
  9.  前記出力制御部は、1つ以上の前記比較対象に係るコンテンツにおいて前記主観評価が得られている前記比較項目に対し、すべての前記比較対象に係るコンテンツにおいて前記主観評価が得られるようシステム発話を制御する、
    請求項8に記載の情報処理装置。
  10.  前記出力制御部は、前記比較対象に係るコンテンツの提示をさらに制御する、
    請求項3に記載の情報処理装置。
  11.  前記出力制御部は、提示済みの前記比較対象に係るコンテンツにおいて前記主観評価が得られていない前記比較項目が存在する場合、提示済みの前記比較対象に係るコンテンツの再提示に係る提案を制御する、
    請求項10に記載の情報処理装置。
  12.  前記出力制御部は、前記比較対象に係るコンテンツに対する複数の前記ユーザの前記主観評価を比較した前記比較表を生成する、
    請求項3に記載の情報処理装置。
  13.  前記出力制御部は、複数の前記ユーザに係る前記主観評価スコアに基づく総合評価を前記比較項目ごとに表現した前記比較表を生成する、
    請求項12に記載の情報処理装置。
  14.  前記出力制御部は、複数の前記ユーザの間で前記主観評価が対立している前記比較項目を強調した前記比較表を生成する、
    請求項13に記載の情報処理装置。
  15.  前記出力制御部は、前記比較対象および前記比較項目、または前記比較対象および前記ユーザを軸に表示切替が可能な前記比較表を生成する、
    請求項12に記載の情報処理装置。
  16.  前記出力制御部は、少なくとも一つの前記比較項目が共通しない複数の前記比較対象に係るコンテンツの前記比較表を生成する、
    請求項3に記載の情報処理装置。
  17.  前記出力制御部は、前記ユーザにより前記比較対象に係るコンテンツのうちのいずれを選択する判断がなされた場合、前記主観評価スコアに基づいて前記ユーザの前記判断の決め手要因となった前記比較項目を推定する、
    請求項3に記載の情報処理装置。
  18.  前記出力制御部は、前記ユーザにより前記比較対象に係るコンテンツのうちのいずれを選択する判断がなされた場合、前記主観評価スコアに基づいて前記ユーザが選択しなかった前記比較対象に係るコンテンツの制約要因となった前記比較項目を推定する、
    請求項17に記載の情報処理装置。
  19.  前記ユーザの発話に基づいて前記比較項目および前記主観評価を抽出する自然言語理解部、
     をさらに備える、
    請求項3に記載の情報処理装置。
  20.  プロセッサが、抽出されたユーザの発話意図に基づいて、コンテンツに対する前記ユーザの主観評価をまとめた図表の表示を制御すること、
     を含み、
     前記制御することは、複数の比較対象に係るコンテンツごとに前記主観評価を比較した比較表を生成し、前記比較表を表示させること、
     をさらに含む、
    情報処理方法。
PCT/JP2020/002043 2019-03-29 2020-01-22 情報処理装置および情報処理方法 WO2020202719A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/441,070 US20220157295A1 (en) 2019-03-29 2020-01-22 Information processing apparatus and information processing method
DE112020001627.7T DE112020001627T5 (de) 2019-03-29 2020-01-22 Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
JP2021511131A JP7416053B2 (ja) 2019-03-29 2020-01-22 情報処理装置および情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019066979 2019-03-29
JP2019-066979 2019-03-29

Publications (1)

Publication Number Publication Date
WO2020202719A1 true WO2020202719A1 (ja) 2020-10-08

Family

ID=72668848

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/002043 WO2020202719A1 (ja) 2019-03-29 2020-01-22 情報処理装置および情報処理方法

Country Status (4)

Country Link
US (1) US20220157295A1 (ja)
JP (1) JP7416053B2 (ja)
DE (1) DE112020001627T5 (ja)
WO (1) WO2020202719A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062446A (ja) * 2002-07-26 2004-02-26 Ibm Japan Ltd 情報収集システム、アプリケーションサーバ、情報収集方法、およびプログラム
JP2005063428A (ja) * 2003-07-29 2005-03-10 Matsushita Electric Ind Co Ltd 情報表示装置、方法及びプログラム
JP2018092582A (ja) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置、及び、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8272874B2 (en) * 2004-11-22 2012-09-25 Bravobrava L.L.C. System and method for assisting language learning
US20080109232A1 (en) * 2006-06-07 2008-05-08 Cnet Networks, Inc. Evaluative information system and method
US10235025B2 (en) * 2010-03-23 2019-03-19 VoteBlast, Inc. Various systems and methods for expressing an opinion
US20120209751A1 (en) 2011-02-11 2012-08-16 Fuji Xerox Co., Ltd. Systems and methods of generating use-based product searching
JP2014219727A (ja) 2013-05-01 2014-11-20 株式会社ネクスト 不動産情報システム及び不動産情報携帯端末
JP6764703B2 (ja) 2016-06-16 2020-10-07 株式会社Casa 不動産管理支援サービスシステム
US11068043B2 (en) * 2017-07-21 2021-07-20 Pearson Education, Inc. Systems and methods for virtual reality-based grouping evaluation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062446A (ja) * 2002-07-26 2004-02-26 Ibm Japan Ltd 情報収集システム、アプリケーションサーバ、情報収集方法、およびプログラム
JP2005063428A (ja) * 2003-07-29 2005-03-10 Matsushita Electric Ind Co Ltd 情報表示装置、方法及びプログラム
JP2018092582A (ja) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置、及び、プログラム

Also Published As

Publication number Publication date
US20220157295A1 (en) 2022-05-19
JP7416053B2 (ja) 2024-01-17
JPWO2020202719A1 (ja) 2020-10-08
DE112020001627T5 (de) 2021-12-23

Similar Documents

Publication Publication Date Title
JP6947852B2 (ja) 複数のコンピューティングデバイスを使用したインターホン式の通信
US10853650B2 (en) Information processing apparatus, information processing method, and program
JP6819672B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6656447B1 (ja) 動画出力システム
CN113572889B (zh) 简化用户接口生成
KR102253279B1 (ko) 인공지능을 사용하는 키오스크 기반 무인결제시스템 및 그 방법
CN112166424A (zh) 用于识别和提供关于音频信号中的语义实体的信息的系统和方法
JP2010224715A (ja) 画像表示システム、デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
JP6914724B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020202719A1 (ja) 情報処理装置および情報処理方法
WO2020116280A1 (ja) 学習支援装置、学習支援方法および記録媒体
KR102226427B1 (ko) 호칭 결정 장치, 이를 포함하는 대화 서비스 제공 시스템, 호칭 결정을 위한 단말 장치 및 호칭 결정 방법
WO2019073668A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11430429B2 (en) Information processing apparatus and information processing method
WO2022180860A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP7468360B2 (ja) 情報処理装置および情報処理方法
JP7152825B1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022145039A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022180862A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP7408518B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム
WO2022180853A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022145038A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022180852A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180861A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180859A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20784395

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511131

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20784395

Country of ref document: EP

Kind code of ref document: A1