WO2019044485A1 - 情報処理装置、及び情報処理方法 - Google Patents

情報処理装置、及び情報処理方法 Download PDF

Info

Publication number
WO2019044485A1
WO2019044485A1 PCT/JP2018/030251 JP2018030251W WO2019044485A1 WO 2019044485 A1 WO2019044485 A1 WO 2019044485A1 JP 2018030251 W JP2018030251 W JP 2018030251W WO 2019044485 A1 WO2019044485 A1 WO 2019044485A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
behavior
processing apparatus
information processing
Prior art date
Application number
PCT/JP2018/030251
Other languages
English (en)
French (fr)
Inventor
鶴田 泰士
浩明 小川
東山 恵祐
栗屋 志伸
加奈 西川
淳己 大村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP18851129.9A priority Critical patent/EP3678034A1/en
Priority to US16/640,144 priority patent/US20200293563A1/en
Priority to CN201880053926.3A priority patent/CN110998559A/zh
Publication of WO2019044485A1 publication Critical patent/WO2019044485A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems

Definitions

  • the present technology relates to an information processing device and an information processing method, and more particularly to an information processing device and an information processing method capable of improving the quality of a dialog system.
  • Patent Document 1 discloses a body-mounted life support device that measures and determines various states with wearable devices, and implements life support such as health management and information services for personal navigation tailored to the user's situation. There is.
  • the present technology has been made in view of such circumstances, and is capable of improving the quality of a dialogue system by enabling acquisition of higher-order information than primary information. .
  • An information processing apparatus is a higher-order information than the first-order information based on the first-order information which is the first-order information, and is a high-order information according to a user's reply. It is an information processing apparatus provided with the 1st generation part which generates the question for acquiring information.
  • the information processing device in the information processing method of an information processing device, is a higher order than the primary information based on primary information which is primary information.
  • the information is a higher-order information than the primary information, and is a response from the user Questions are generated to obtain higher-order information according to.
  • primary information including at least one of sensor information obtained as a result of sensing and estimation information estimated from the sensor information is referred to as low level behavior information.
  • the question generation unit 102 generates, based on the habitual action information supplied from the action information processing unit 101, the question content as a question for obtaining high level information according to the reply of the user 2.
  • the question generation unit 102 causes the generated question content to be output from the output unit 107 and presented to the user 2.
  • the question generation unit 102 refers to the question content DB 111 to make the user 2 the same question in the fixed period. It is possible not to do against As a result, questions to user 2 are only questions that have not been made within a certain period of time.
  • the intention understanding unit 103 understands (estimates) the intention of the response of the user 2 based on the information indicating the content of the response (the response to the inquiry to the user 2) supplied from the input unit 108.
  • the intention understanding unit 103 supplies the query generation unit 104 with information indicating the understood (predicted) response intention.
  • the voice recognition process using the database for voice-to-text conversion is performed, so that the voice signal corresponding to the voice emitted by the user 2 is generated. , Converted to text data.
  • processing of converting a speech recognition result (text data of an utterance) that is a natural language into a representation that can be understood by a machine is performed.
  • the query generation unit 104 is a query for inquiring the server 20 based on the information indicating the response intention supplied from the intention understanding unit 103, and generates an inquiry content for the user to obtain meaningful information.
  • the query generation unit 104 causes the communication unit 106 to transmit the generated query to the server 20 via the Internet 30.
  • the recommendation / proposed content generation unit 105 is supplied from the communication unit 106 with the inquiry result (the list of the search results according to the query) received from the server 20.
  • the recommendation / suggestion content generation unit 105 generates, based on the query result, the content of the recommendation / suggestion for the user 2 (information meaningful to the user 2) as presentation information for the user 2.
  • the recommendation / suggestion content generation unit 105 causes the generated recommendation / suggestion content to be output from the output unit 107 and presented to the user 2.
  • the presentation information for the user 2 includes recommendation information for recommending meaningful information to the user, or proposal information for proposing meaningful information for the user.
  • the functions provided by the behavior information processing unit 101, the question generation unit 102, the intention understanding unit 103, the query generation unit 104, and the recommendation / suggestion content generation unit 105 may be, for example, a CPU (Central Processing Unit) incorporated in the processing device 10.
  • a processing unit), a microprocessor or the like is realized by executing a program recorded in a memory.
  • the communication unit 106 includes, for example, a communication interface circuit.
  • the communication unit 106 accesses the server 20 connected to the Internet 30 to exchange various data.
  • the output unit 107 includes, for example, a speaker, and outputs a sound corresponding to data supplied thereto.
  • the output unit 107 is not limited to a speaker, and may be, for example, a display such as a liquid crystal display or an organic EL display, a projector for projecting an image or video, or the like that can output information according to data supplied thereto. I hope there is.
  • the input unit 108 is not limited to a microphone, and is configured as, for example, a button, a keyboard, a touch panel in which a touch sensor and a display unit are integrated, and the like. You may
  • the output unit 107 functions as a presentation unit for presenting a question (content of inquiry) to the user 2 or presentation information (content of recommendation / suggestion). Further, the input unit 108 functions as a receiving unit that receives the reply of the user 2 to the question (content of the question).
  • FIG. 2 shows a functional configuration example of the terminal device 11.
  • the terminal device 11 includes an action information determination unit 151, a sensor unit 152, and a communication unit 153.
  • the behavior information determination unit 151 determines the behavior of the user 2 such as “walking”, “stopping”, “running”, “sit”, etc., based on the sensor information.
  • the function provided by the behavior information determination unit 151 is realized, for example, by a CPU or the like incorporated in the terminal device 11 executing a program stored in the memory.
  • the sensor unit 152 is composed of various sensors.
  • the sensor unit 152 performs sensing for obtaining various information related to the user 2 and its surroundings, and supplies sensor information according to the sensing result to the behavior information determination unit 151.
  • the sensor unit 152 may be a GPS sensor that detects position information calculated from a GPS (Global Positioning System) signal or the like, a magnetic sensor that detects the magnitude or direction of a magnetic field (magnetic field), an acceleration sensor that detects acceleration,
  • GPS Global Positioning System
  • a magnetic sensor that detects the magnitude or direction of a magnetic field (magnetic field)
  • an acceleration sensor that detects acceleration
  • sensors can be included, such as a gyro sensor that detects angle (posture), angular velocity, and angular acceleration, or a proximity sensor that detects something close.
  • the sensor unit 152 includes, for example, an image sensor for imaging a subject, a biological sensor for detecting biological information such as a fingerprint, an iris, and a pulse, a temperature sensor for detecting temperature, a humidity sensor for detecting humidity, A sensor for measuring the ambient environment, such as an ambient light sensor that detects ambient brightness, may also be included.
  • the sensor information is not limited to that obtained from the sensor unit 152 incorporated in the terminal device 11, and is detected by, for example, a sensor device provided outside the terminal device 11 or an external device such as a smartphone. It may be.
  • FIG. 2 shows a functional configuration example of the server 20.
  • the server 20 includes an information processing unit 201 and a communication unit 202. Further, the server 20 has an action log DB 211 and various content DBs 212 referred to by the information processing unit 201.
  • the information processing unit 201 can write the low level action information in association with time information, position information, a user ID, etc., when writing the action log DB 211. On the other hand, when reading out the low level action information from the action log DB 211, the information processing unit 201 can simultaneously read out the time information, the position information, the user ID and the like linked to the low level action information.
  • the query received from the processing device 10 is supplied from the communication unit 202 to the information processing unit 201.
  • the information processing unit 201 performs various types of information such as information recorded in a database such as the action log DB 211 and various content DBs 212 and public information disclosed to the server 21 on the Internet 30 according to the content of the query indicated by the query. Is used to generate a list of search results according to the query.
  • the various content DB 212 as information for presenting (recommending or proposing) to the user 2 by the processing apparatus 10, for example, various contents of information related to a restaurant, a cafe, music, etc. are recorded together with metadata There is.
  • the public information includes, for example, any information published on the Internet 30, such as map information, incident information, web page and blog information.
  • the information processing unit 201 can use not only public information but also private information.
  • the function provided by the information processing unit 201 is realized, for example, by a CPU or the like incorporated in the server 20 executing a program stored in the memory.
  • the communication unit 202 includes, for example, a communication interface circuit.
  • the communication unit 202 exchanges various types of data with the processing device 10, the terminal device 11, or the server 21 connected to the Internet 30.
  • the processing device 10 determines the user based on the low level behavior information. It is possible to grasp 2 low-level actions (for example, “walking”, “running”, etc.).
  • the processing device 10 further asks the user 2 "What is the purpose?" As a question for obtaining high level information. Ask.
  • the processing device 10 uses "the user 2 according to the response of the user 2 as high level information. You can get the information that you are running for your health.
  • the processing apparatus 10 sends information meaningful to the user 2 (for example, recommendation information and proposal information) to the user 2 such as “a cafe providing healthy food and drink”.
  • information meaningful to the user 2 for example, recommendation information and proposal information
  • the meaningful information can be acquired by the processing device 10 inquiring the server 20 via the Internet 30.
  • the server 20 In response to a request from the processing apparatus 10, the server 20 refers to, for example, a product for sun cream or oil by referring to databases such as the action log DB 211 and various content DBs 212, public information provided by the server 21, and the like. , And a list of stores of tanning salons within the action range of the user 2 and a list of running courses suitable for tanning, etc.
  • the processing apparatus 10 recommends or proposes, for example, a cream for sunburn, a sunburn salon, a running course, or the like to the user 2 based on the inquiry result from the server 20. Thereby, the user 2 can obtain more meaningful information for tanning simply by answering the question.
  • the server 20 searches a restaurant based on the query from the processing apparatus 10, in order to recognize whether the restaurant to be searched is a store that provides "food and drink that are good for health", For example, it may be determined based on whether metadata related to "health" is given to a restaurant to be searched.
  • the server 20 is, for example, in the action range of the user 2 by referring to the database such as the action log DB 211 and the various content DB 212, the public information provided by the server 21 and the like in response to the request from the processing device 10. Respond by generating a list of pet friendly restaurants among the restaurants.
  • the processing device 10 recommends, for example, a pet-friendly restaurant to the user 2 based on the query result from the server 20. Thereby, the user 2 can obtain meaningful information when running with the dog by merely answering the question.
  • the processing device 10 asks the user 2 "What kind of goal do you set?" If, on the other hand, the user 2 responds, for example, "I want to be able to run 10 km within one hour", the processing device 10 uses the information indicating the response intention obtained from the response contents of this user 2 , Generate a query for search, and query the server 20.
  • the server 20 responds by, for example, generating a list of other users who have set similar goals by referring to a database such as the action log DB 211 or the like.
  • a list of other users can be realized because the low-level behavior information of each user is managed by the behavior log DB 211 in the server 20 on the cloud side.
  • the processing device 10 recognizes that “the user 2 is running a park near the neighborhood every Sunday morning” by using the low level behavior information. .
  • the server 20 generates a list of safer running courses, for example, by referring to the databases such as the action log DB 211 and the various content DBs 212 and the public information provided by the server 21 in response to a request from the processing device 10 To respond.
  • the processing device 10 proposes, for example, a safer running course to the user 2 based on the query result from the server 20. Thereby, the user 2 can obtain meaningful information for running more safely by merely answering the question.
  • Website 3 Ministry of Land, Infrastructure, Transport and Tourism Geographical Survey Institute "Geography Institute Map", [August 16, 2017 search], Internet ⁇ URL: http://www.gsi.go.jp/johofukyu/hyoko_system.html>
  • running course for example, by using public information such as map information and a smoking area map, there is no running area with few middle-to-high-rise buildings in the vicinity or no smoking area near the course (or smoking area) It is also possible to propose a running course and the like.
  • the processing device 10 recognizes that “the user 2 is running a park near the neighborhood every Sunday morning” by using the low level behavior information. .
  • the server 20 refers to, for example, a restaurant on the park exit side by referring to databases such as the action log DB 211 and various content DBs 212 and public information provided by the server 21 in response to a request from the processing apparatus 10. Generate and respond to information. At this time, the information on the restaurant on the exit side of the park is estimated from, for example, map information, action information of the user, and the like.
  • the processing apparatus 10 recommends information to the user 2 on the basis of the inquiry result from the server 20, for example, by displaying information on a restaurant on the exit side of the park.
  • the user 2 can obtain meaningful information on what he / she was conscious of, simply by answering the question.
  • the processing device 10 recognizes that “the user 2 is running a park near the neighborhood every Sunday morning” by using the low level behavior information. .
  • the processing apparatus 10 asks the user 2 about what he / she thinks during the action, “What did you think during running?” Or what it thought. If, on the other hand, the user 2 responds, for example, “I was thinking about the rise of Nishigo because I saw the image of Mr. Nishigo.”, The processing device 10 indicates the response intention obtained from the contents of the response of this user 2 Using the information, a query for search is generated and the server 20 is inquired.
  • the server 20 refers to a database such as the action log DB 211 and various content DBs 212 and public information provided by the server 21 in response to a request from the processing device 10, for example, a list of books related to Saigo Saikyo, and the like Create a list of other users who were thinking about and respond.
  • the processing device 10 recommends, for example, related books to the user 2 or recommends (introduces) other users who are thinking of similar things, based on the query result from the server 20.
  • the user 2 can obtain meaningful information on what he / she was conscious of, simply by answering the question.
  • the high-level information is behavior-related information (action motive information or action emotion information) related to the action of the user 2, the purpose of the action, the companion of the action , The goal of the action, the purpose of performing the action at the target location, the emotion during the action, or a question that can be obtained consciously during the action, and the user 2 responds by asking the user 2 From the content, desired high level information can be obtained.
  • behavior-related information action motive information or action emotion information
  • the user 2 for example, a restaurant providing healthy food and drink, a more optimal running course, etc., utilizing the high level information obtained in this way and the information attached thereto.
  • This meaningful information is information that can not be obtained only by low-level behavior information, and is information that captures the intent of user 2's behavior, so the content of the dialogue between user 2 and dialogue system 1 becomes dense. As a result, the quality of the dialogue system 1 can be improved.
  • step S11 the communication unit 106 periodically receives low level behavior information of the user 2 wearing the terminal device 11 from the server 20 via the Internet 30. At this time, whether or not they are the same user is identified by using a user ID.
  • step S12 the behavior information processing unit 101 determines habitual behavior for the user 2 wearing the terminal device 11 based on the low level behavior information received in the process of step S11.
  • habituation for example, when the same action is performed three times or more every day, or when the same action is performed every week, it is considered to be habitual.
  • step S13 If it is determined in step S13 that there is no habitual behavior, the process returns to step S11, and the processes in steps S11 to S13 are periodically repeated. On the other hand, if it is determined in step S13 that there is a habitual behavior, the process proceeds to the process of step S21 in FIG.
  • step S21 the question generation unit 102 generates a question asking question to the user 2 based on the habitual behavior information.
  • step S22 the question generation unit 102 refers to the question content DB 111, and determines whether the question content generated in the process of step S21 matches the questioned content in a predetermined period in the past.
  • step S22 If it is determined in step S22 that the inquired content matches the inquired content within a predetermined period in the past, the process returns to step S21, and the processes in steps S21 to S22 are repeated.
  • questions to the user 2 include, for example, information that can not be obtained from the sensor unit 152 of the terminal device 11, such as the purpose, companions, targets, etc. of the action. It can be like that. That is, for example, in order not to ask the same question within a certain period, the dialogue content of the past certain period is recorded in the question content DB 111, and the user 2 is asked about the question which is not within the certain period. To be done.
  • step S22 determines whether the generated inquiry content matches the content inquired within the past fixed period. If it is determined in step S22 that the generated inquiry content does not match the content inquired within the past fixed period, the process proceeds to step S23.
  • step S24 the input unit 108 receives the response of the user 2 in response to the inquiry made in the process of step S23.
  • the processing device 10 is, for example, a smart speaker or a home agent and has a microphone function and a voice recognition function
  • the user 2 responds by the voice accepted by the input unit 108 as a microphone.
  • the processing device 10 has the function of a display or a projector
  • the reply of the user 2 is accepted by the input unit 108 as a button, a keyboard, a touch panel or the like.
  • step S25 the intention understanding unit 103 understands the intention of the user 2's response based on the information indicating the user's response content (the response to the inquiry to the user 2) received in the process of step S24.
  • the user 2's response is estimated by performing language processing on the user 2's response content.
  • step S28 the communication unit 106 receives the inquiry result transmitted from the server 20 via the Internet 30.
  • the server 20 receives the query transmitted in the process of step S27, and in accordance with the inquiry content indicated by the query, information recorded in the database such as the action log DB 211 and various content DB 212, etc., on the Internet 30 A list of search results according to the query is generated using various types of information such as public information published to the server 21 and is received as a query result.
  • step S29 the recommendation and proposal content generation unit 105 generates the recommendation and proposal content (information meaningful to the user) to the user 2 based on the inquiry result received in the process of step S28.
  • step S30 the output unit 107 makes a recommendation / suggestion to the user 2 based on the content of the recommendation / suggestion generated in the process of the step S29.
  • the processing apparatus 10 is, for example, a smart speaker or a home agent, and has a speaker function and a voice synthesis function, it is recommended or suggested to the user 2 by the voice output from the output unit 107 as a speaker. Is done. Further, when the processing device 10 has a function of a display or a projector, a recommendation or suggestion to the user 2 is performed by a character string or an image of a UI screen output from the output unit 107 as a display or a projector. .
  • step S30 ends, the process returns to the process of step S11 of FIG. 5, and the processes of steps S11 to S13 described above are periodically repeated, and it is determined that habitual action is present in the determination process of step S13. If it is determined, the process of each step shown in FIG. 6 is performed again.
  • the action information processing unit 101 to the recommendation / proposed content generation unit 105 are incorporated into the processing device 10 (FIG. 1), and the action information determination unit 151 (FIG. 2)
  • the information processing unit 201 is incorporated in the server 20 (FIG. 1)
  • each of the information processing units 201 may be incorporated in any of the processing device 10, the terminal device 11, and the server 20.
  • all of the action information processing unit 101 to the recommendation / proposed content generation unit 105, the action information determination unit 151, and the information processing unit 201 are incorporated into the processing apparatus 10 on the local side, and the processing is completed on the local side. You may do so.
  • various databases such as the action log DB 211 and the various content DB 212 can be held by a server on the Internet 30.
  • FIG. 7 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 1001, a read only memory (ROM) 1002, and a random access memory (RAM) 1003 are mutually connected by a bus 1004.
  • An input / output interface 1005 is further connected to the bus 1004.
  • An input unit 1006, an output unit 1007, a recording unit 1008, a communication unit 1009, and a drive 1010 are connected to the input / output interface 1005.
  • the input unit 1006 includes a keyboard, a mouse, a microphone and the like.
  • the output unit 1007 includes a display, a speaker, and the like.
  • the recording unit 1008 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 1009 includes a network interface or the like.
  • the drive 1010 drives a removable recording medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 1001 loads the program stored in the ROM 1002 or the recording unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004, and executes the program. A series of processing is performed.
  • the program executed by the computer 1000 can be provided by being recorded on, for example, a removable recording medium 1011 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 1008 via the input / output interface 1005 by attaching the removable recording medium 1011 to the drive 1010. Also, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the recording unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the recording unit 1008.
  • the processing performed by the computer according to the program does not necessarily have to be performed chronologically in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or separately (for example, parallel processing or processing by an object). Further, the program may be processed by one computer (processor) or may be distributed and processed by a plurality of computers.
  • the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present technology.
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • each step of the recommendation / proposition processing according to the high level information shown in FIG. 5 and FIG. 6 can be executed by being shared by a plurality of devices in addition to being executed by one device. Furthermore, in the case where a plurality of processes are included in one step, the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • the present technology can be configured as follows.
  • An information processing apparatus comprising: (2) The information processing apparatus according to (1), wherein the high-order information includes action related information related to the action of the user. (3) The information processing apparatus according to (2), wherein the behavior related information includes at least one of behavior motive information on a motive of the user and behavior and emotion information on an emotion in the behavior of the user. (4) The information processing apparatus according to (3), wherein the behavior motive information includes information regarding a purpose of action, a companion of the action, a goal of the action, or a purpose of performing the action at a target location.
  • the behavior emotion information includes information on emotions during behavior or things conscious during behavior.
  • the primary information includes at least one of sensor information obtained from a sensor and estimated information estimated from the sensor information.
  • a second generation unit that generates presentation information for the user based on the high-order information obtained in response to the user's response to the question;
  • An information processing apparatus according to any one of (1) to (6), further comprising: a presentation unit that presents the presentation information.
  • the presentation information includes recommendation information for recommending meaningful information to the user, or proposal information for proposing meaningful information to the user.
  • the information processing apparatus further comprises a determination unit that determines whether the user has habitual behavior based on the primary information.
  • the first generation unit generates the question according to the habitual behavior of the user when it is determined that the habitual behavior is present, according to any one of (1) to (8).
  • Information processing device (10) A presentation unit that presents the question to the user; The information processing apparatus according to any one of (1) to (9), further comprising: a receiving unit that receives the user's response to the question.
  • (12) In an information processing method of an information processing apparatus, The information processing apparatus Based on primary information which is primary information, it is a higher-order information than the primary information, and generates a question for obtaining high-order information according to the user's reply Method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本技術は、対話システムの質を向上させることができるようにする情報処理装置、及び情報処理方法に関する。 1次的な情報である1次の情報に基づいて、1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問を生成する生成部を備える情報処理装置が提供されることで、1次的な情報よりも高次な情報が得られるため、対話システムの質を向上させることができる。本技術は、例えば、音声対話システムに適用することができる。

Description

情報処理装置、及び情報処理方法
 本技術は、情報処理装置、及び情報処理方法に関し、特に、対話システムの質を向上させることができるようにした情報処理装置、及び情報処理方法に関する。
 近年、ユーザが身につけて持ち歩くことができるウェアラブルコンピュータ(Wearable Computer)に関する研究や開発が盛んに行われている(例えば、特許文献1参照)。
 特許文献1には、ウェアラブル機器により様々な状態を計測、判断して、健康管理やユーザの状況に合わせたパーソナルナビゲーションの情報サービスといった生活支援を実施する身体装着型の生活支援装置が開示されている。
特開2001-344352号公報
 ところで、ウェアラブル機器等の端末装置から得られる1次的な情報を利用するに際して、1次的な情報よりも高次な情報が得られるようにして、対話システムの質を向上させるようにしたい、という要求がある。
 本技術はこのような状況に鑑みてなされたものであり、1次的な情報よりも高次な情報が得られるようにして、対話システムの質を向上させることができるようにするものである。
 本技術の一側面の情報処理装置は、1次的な情報である1次の情報に基づいて、前記1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問を生成する第1の生成部を備える情報処理装置である。
 本技術の一側面の情報処理方法は、情報処理装置の情報処理方法において、前記情報処理装置が、1次的な情報である1次の情報に基づいて、前記1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問を生成する情報処理方法である。
 本技術の一側面の情報処理装置、及び情報処理方法においては、1次的な情報である1次の情報に基づいて、前記1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問が生成される。
 本技術の一側面の情報処理装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
 本技術の一側面によれば、対話システムの質を向上させることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した対話システムの一実施の形態の構成例を示すブロック図である。 本技術を適用した対話システムの機能的構成の例を示すブロック図である。 対話サービスの具体的な例を示す図である。 対話サービスの具体的な例を示す図である。 ハイレベル情報に応じた推薦・提案処理の流れを示すフローチャートである。 ハイレベル情報に応じた推薦・提案処理の流れを示すフローチャートである。 コンピュータの構成例を示すブロック図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.本技術の実施の形態
2.変形例
3.コンピュータの構成
<1.本技術の実施の形態>
(対話システムの構成例)
 図1は、本技術を適用した対話システムの一実施の形態の構成例を示すブロック図である。
 対話システム1は、ユーザ宅等のローカル側に設置される処理装置10と、ユーザが身につけたり所持したりする端末装置11と、データセンタ等のクラウド側に設置されるサーバ20と、インターネット30上に各種の情報を公開しているサーバ21を含んで構成される。
 また、対話システム1において、処理装置10、端末装置11、サーバ20、及びサーバ21は、インターネット30を介して相互に接続可能である。
 処理装置10は、例えば、家庭内LAN(Local Area Network)等のネットワークに接続可能なスピーカであって、いわゆるスマートスピーカやホームエージェントなどとも称される。この種のスピーカは、音楽の再生のほか、例えば、照明器具や空調設備などの機器に対する音声操作などを行うことができる。
 なお、処理装置10は、スピーカに限らず、例えば、スマートフォンや携帯電話機等のモバイル機器や、タブレット型のコンピュータやパーソナルコンピュータ等の情報機器などとして構成されるようにしてもよい。
 処理装置10は、インターネット30を介してサーバ20と連携することで、対話システム1により提供される対話サービスを実現するための処理を行うほか、対話サービスのユーザインターフェース(UI:User Interface)としても機能する。
 端末装置11は、ユーザが身につけて持ち歩くことができるウェアラブルコンピュータ(ウェアラブル機器)であって、例えば、腕時計型やブレスレット型、眼鏡型、指輪型など様々なタイプが存在している。なお、端末装置11は、ウェアラブル機器に限らず、例えば、スマートフォンや携帯電話機等のモバイル機器などであってもよい。
 端末装置11は、ユーザに身につけられることで、ユーザやその周辺に関する様々な情報を得るためのセンシングを行い、そのセンシングの結果得られるデータを、インターネット30を介して、サーバ20に送信する。
 サーバ20は、インターネット30を介して処理装置10、端末装置11、及びサーバ21と連携することで、処理装置10からの要求に応じた処理を行う専用のサーバである。サーバ20は、処理装置10からの要求に応じた処理を行い、その結果得られる処理結果を、インターネット30を介して、処理装置10に応答する。
 また、サーバ20は、端末装置11から、インターネット30を介して送信されてくるデータを受信して処理する。さらに、サーバ20は、処理したデータを、インターネット30を介して処理装置10に送信する。
 サーバ21は、インターネット30上に各種の情報を公開している一般的なサーバである。サーバ21は、サーバ20からの要求に応じた公開情報として、例えば、地図情報や事件事故発生情報、ウェブページやブログの情報等の各種の情報を、インターネット30を介して、サーバ20に応答する。
(対話システムの機能的構成例)
 図2は、本技術を適用した対話システムの機能的な構成例を示すブロック図である。
 なお、以下の説明では、センシングの結果得られるセンサ情報、及びセンサ情報から推定される推定情報の少なくとも一方の情報を含む1次的な情報(1次の情報)を、ローレベル行動情報という。
 例えば、センサ情報は、GPSセンサやジャイロセンサ、加速度センサなどの各種のセンサにより検出される情報である。また、例えば、推定情報は、ユーザが、「歩いている」や「止まっている」、「走っている」、「座っている」などのセンサ情報から推定されるユーザの行動の情報である。
 また、センサ情報や推定情報等の1次の情報よりも高次な情報(高次の情報)を、ハイレベル情報という。このハイレベル情報は、高次の情報を得るための質問に対するユーザの返答に応じて得られる。
 例えば、ハイレベル情報は、ユーザの行動に関連した行動関連情報であって、ユーザの行動の動機に関する行動動機情報、及びユーザの行動中の感情に関する行動感情情報の少なくとも一方の情報を含んでいる。行動動機情報は、例えば、行動の目的、行動の同伴者、行動の目標、又は行動を対象の場所で行う目的に関する情報を含む。行動感情情報は、例えば、行動中の喜怒哀楽、又は行動中に意識したものに関する情報を含む。
(処理装置の構成例)
 図2には、処理装置10の機能的な構成例を示している。
 図2において、処理装置10は、行動情報処理部101、質問生成部102、意図理解部103、クエリ生成部104、推薦・提案内容生成部105、通信部106、出力部107、及び入力部108を含んで構成される。また、処理装置10は、質問生成部102により参照される質問内容DB111を有している。
 行動情報処理部101には、サーバ20から受信したローレベル行動情報が、通信部106から供給される。行動情報処理部101は、ローレベル行動情報に基づいて、端末装置11を身につけたユーザ2について、習慣性のある行動があるかどうかを判定する。行動情報処理部101は、習慣的な行動があると判定した場合、ローレベル行動情報から得られる習慣的行動情報を、質問生成部102に供給する。
 質問生成部102は、行動情報処理部101から供給される習慣的行動情報に基づいて、ユーザ2の返答に応じたハイレベル情報を得るための質問として、問いかけ内容を生成する。質問生成部102は、生成した問いかけ内容が出力部107から出力され、ユーザ2に対して提示されるようにする。
 このとき、質問内容DB111には、例えば過去の一定期間の対話内容が記録されているため、質問生成部102は、質問内容DB111を参照することで、一定期間内に同一の質問を、ユーザ2に対して行わないようにすることができる。その結果として、ユーザ2に対する問いかけは、一定期間内にされていない質問のみが行われる。
 意図理解部103は、入力部108から供給される返答内容(ユーザ2への問いかけに対する返答)を示す情報に基づいて、ユーザ2の返答の意図を理解(推定)する。意図理解部103は、理解(推定)した返答意図を示す情報を、クエリ生成部104に供給する。
 なお、ここでは、ユーザ2の音声による返答を受け付けた場合には、音声テキスト変換用のデータベース等を用いた音声認識処理が行われることで、ユーザ2により発せられた音声に応じた音声信号が、テキストデータに変換される。そして、意図理解部103では、例えば、自然言語である音声認識結果(発話のテキストデータ)を、機械が理解できる表現に変換する処理などが行われる。
 クエリ生成部104は、意図理解部103から供給される返答意図を示す情報に基づいて、サーバ20に問い合わせるためのクエリであって、ユーザが有意義な情報を得るための問い合わせ内容を生成する。クエリ生成部104は、生成したクエリが、通信部106から、インターネット30を介してサーバ20に送信されるようにする。
 推薦・提案内容生成部105には、サーバ20から受信した問い合わせ結果(クエリに応じた検索結果のリスト)が、通信部106から供給される。推薦・提案内容生成部105は、問い合わせ結果に基づいて、ユーザ2に対する提示情報として、ユーザ2への推薦・提案内容(ユーザ2にとって有意義な情報)を生成する。推薦・提案内容生成部105は、生成した推薦・提案内容が出力部107から出力され、ユーザ2に対して提示されるようにする。
 ここで、ユーザ2に対する提示情報には、ユーザに有意義な情報を推薦するため推薦情報、又はユーザに有意義な情報を提案するための提案情報が含まれる。
 なお、行動情報処理部101、質問生成部102、意図理解部103、クエリ生成部104、及び推薦・提案内容生成部105により提供される機能は、例えば、処理装置10に内蔵されたCPU(Central Processing Unit)やマイクロプロセッサ等が、メモリに記録されたプログラムを実行することで実現される。
 通信部106は、例えば、通信インターフェース回路等から構成される。通信部106は、インターネット30に接続されたサーバ20にアクセスして、各種のデータをやり取りする。
 出力部107は、例えば、スピーカから構成され、そこに供給されるデータに応じた音を出力する。
 なお、出力部107は、スピーカに限らず、例えば、液晶ディスプレイや有機ELディスプレイ等のディスプレイや、画像や映像を投影するプロジェクタなど、そこに供給されるデータに応じた情報を出力可能なものであればよい。
 入力部108は、例えば、マイクロフォンから構成され、外部からの音を電気信号に変換し、後段のブロックに出力する。
 なお、入力部108は、マイクロフォンに限らず、例えば、ボタンやキーボード、タッチセンサと表示部とが一体化されたタッチパネルなどとして構成され、ユーザの操作に応じた操作信号が後段のブロックに出力されるようにしてもよい。
 すなわち、出力部107は、ユーザ2に対する質問(問いかけ内容)、又は提示情報(推薦・提案内容)を提示するための提示部として機能する。また、入力部108は、質問(問いかけ内容)に対するユーザ2の返答を受け付ける受付部として機能する。
 質問内容DB111は、処理装置10の内部又は外部に設けられる記憶装置に記録されている。この記憶装置としては、例えば、HDD(Hard Disk Drive)や半導体メモリなどを用いることができる。
(端末装置の構成例)
 また、図2には、端末装置11の機能的な構成例を示している。
 図2において、端末装置11は、行動情報判定部151、センサ部152、及び通信部153を含んで構成される。
 行動情報判定部151には、センサ部152から、センサ情報が供給される。行動情報判定部151は、センサ情報に基づいて、例えば「歩いている」や「止まっている」、「走っている」、「座っている」等のユーザ2の行動を判定する。
 行動情報判定部151は、ユーザ2の行動の判定結果が、ローレベル行動情報として、通信部153から、インターネット30を介してサーバ20に送信されるようにする。なお、このローレベル行動情報は、例えば、ユーザ2が行動を行った時刻を示す時間情報や、ユーザ2が行動を行った場所を示す位置情報、行動を行ったユーザ2を識別するユーザIDなどと紐付けて、サーバ20に送信されるようにすることができる。
 なお、行動情報判定部151により提供される機能は、例えば、端末装置11に内蔵されたCPU等が、メモリに記録されたプログラムを実行することで実現される。
 センサ部152は、各種のセンサから構成される。センサ部152は、ユーザ2やその周辺に関する様々な情報を得るためのセンシングを行い、そのセンシング結果に応じたセンサ情報を、行動情報判定部151に供給する。
 例えば、センサ部152としては、GPS(Global Positioning System)信号などから算出される位置情報を検出するGPSセンサや、磁場(磁界)の大きさや方向を検出する磁気センサ、加速度を検出する加速度センサ、角度(姿勢)や角速度、角加速度を検出するジャイロセンサ、あるいは近接するものを検出する近接センサなど、各種のセンサを含めることができる。
 また、センサ部152には、例えば、被写体を撮像するイメージセンサや、指紋や虹彩、脈拍などの生体情報を検出する生体センサのほか、温度を検出する温度センサや、湿度を検出する湿度センサ、周囲の明るさを検出する環境光センサなどの周囲の環境を測定するためのセンサなども含めることができる。なお、センサ情報は、端末装置11に内蔵されたセンサ部152から得られるものに限らず、例えば、端末装置11の外部に設けられたセンサ装置や、スマートフォン等の外部機器によって検出されたものであってもよい。
 通信部153は、例えば、通信インターフェース回路等から構成される。通信部153は、インターネット30に接続されたサーバ20にアクセスして、各種のデータをやり取りする。
(サーバの構成例)
 また、図2には、サーバ20の機能的な構成例を示している。
 図2において、サーバ20は、情報処理部201、及び通信部202を含んで構成される。また、サーバ20は、情報処理部201により参照される行動ログDB211及び各種コンテンツDB212を有している。
 情報処理部201には、端末装置11から受信したローレベル行動情報が、通信部202から供給される。情報処理部201は、ローレベル行動情報を、行動ログDB211に記録する。また、情報処理部201は、行動ログDB211に記録されたローレベル行動情報が定期的に、通信部202から、インターネット30を介して処理装置10に送信されるようにする。
 ここで、図2では図示を省略しているが、実際には、ユーザごとに所持された端末装置11からのローレベル行動情報が受信されるため、行動ログDB211には、多数のユーザのローレベル行動情報が記録されている。したがって、各ユーザの自宅などに設置された処理装置10に対しても同様に、対象のユーザのローレベル行動情報が、定期的に送信されることになる。
 なお、情報処理部201は、ローレベル行動情報を行動ログDB211に書き込むときに、時間情報や位置情報、ユーザIDなどと紐付けて書き込むことができる。一方で、情報処理部201は、行動ログDB211からローレベル行動情報を読み出すときに、ローレベル行動情報に紐付けられた時間情報や位置情報、ユーザIDなどを同時に読み出すことができる。
 また、情報処理部201には、処理装置10から受信したクエリが、通信部202から供給される。情報処理部201は、クエリが示す問い合わせ内容に合わせて、行動ログDB211や各種コンテンツDB212等のデータベースに記録されている情報、インターネット30上のサーバ21に公開されている公開情報などの各種の情報を用いて、クエリに応じた検索結果のリストを生成する。
 ここで、各種コンテンツDB212には、処理装置10にてユーザ2に提示(推薦又は提案)するための情報として、例えば、レストランやカフェ、音楽等に関する情報の各種のコンテンツがメタデータとともに記録されている。また、公開情報としては、例えば、地図情報や事件事故発生情報、ウェブページやブログの情報など、インターネット30上に公開されているあらゆる情報が含まれる。ただし、情報処理部201は、公開情報だけでなく、非公開の情報を用いることもできる。
 情報処理部201は、クエリに応じた検索結果のリストが、問い合わせ結果として、通信部202から、インターネット30を介して処理装置10に送信されるようにする。
 なお、情報処理部201により提供される機能は、例えば、サーバ20に内蔵されたCPU等が、メモリに記録されたプログラムを実行することで実現される。
 通信部202は、例えば、通信インターフェース回路等から構成される。通信部202は、インターネット30に接続された処理装置10、端末装置11、又はサーバ21との間で、各種のデータをやり取りする。
 行動ログDB211と各種コンテンツDB212は、サーバ20の内部又は外部に設けられる記憶装置に記録されている。この記憶装置としては、例えば、HDDや半導体メモリなどを用いることができる。
 対話システム1は、以上のように構成される。
 なお、図1の対話システム1においては、説明の都合上、1台の処理装置10と、1台の端末装置11が設けられる場合を示しているが、例えば、ユーザごとに、処理装置10と端末装置11を設けることができる。
 また、図1の対話システム1では、サーバ20とサーバ21の2台のサーバが設けられる場合を示しているが、例えば、機能(モジュール)ごとに、サーバを設けることができる。例えば、行動ログDB211を管理するサーバと、各種コンテンツDB212を管理するサーバを、個別のサーバとして設けることができる。
 さらに、説明の都合上、図1の対話システム1では、公開情報を提供するサーバとして、1台のサーバ21のみを図示しているが、実際には、例えば、地図情報を提供するサーバや、事件事故発生情報を提供するサーバなど、公開情報ごとにサーバが設けられることになる。
(対話サービスの例)
 次に、図3及び図4を参照して、対話システム1により提供される対話サービスの具体的な例を示す。
 図3においては、ユーザ2が身につけた機器(ウェアラブル機器)である端末装置11によって、センサ情報に応じたローレベル行動情報が得られるので、処理装置10は、ローレベル行動情報に基づき、ユーザ2のローレベルな行動(例えば、「歩いている」や「走っている」等)を把握することができる。
 例えば、処理装置10は、ローレベル行動情報に基づいて、ユーザ2の習慣的な行動として、「ユーザ2が毎週日曜日に、xx公園をランニングしている」ことを認識する。このとき、処理装置10は、ユーザ2の習慣的な行動の認識結果に基づき、ユーザ2に対し、「あなたは毎週日曜日、xx公園を走っていますね?」と問いかける。
 この1つ目の問いかけに対し、ユーザ2が、「はい。」と返答した場合に、処理装置10は、ユーザ2に対し、ハイレベル情報を得るための質問として、「目的は?」とさらに問いかける。
 この2つ目の問いかけに対し、ユーザ2が、「健康のためにランニングしている。」と返答した場合、処理装置10は、ハイレベル情報として、ユーザ2の返答に応じた「ユーザ2が健康のためにランニングしている」という情報を得ることができる。
 そして、処理装置10は、ハイレベル情報に基づき、ユーザ2に対し、例えば、「健康にいい料理や飲み物を提供するカフェ」など、ユーザ2にとって有意義な情報(例えば、推薦情報や提案情報)を提示する。なお、この有意義な情報は、処理装置10が、インターネット30を介してサーバ20に問い合わせることで、取得することができる。
 ここでは、例えば、図4に示すように、処理装置10は、ユーザ2に対し、スピーカ機能で、「ランニングの帰りに健康にいいカフェはどうでしょうか?」である音声を出力するとともに、プロジェクタ機能で、「健康にいい料理や飲み物を提供するカフェ」に関する情報を、スクリーンや壁などの投影対象に投影している。
 ここで、カフェに関する情報としては、カフェの画像や映像のほか、例えば、カフェの店舗名や営業時間帯、メニュー、店舗の場所を示す地図などの情報を表示することができる。なお、ここでは、カフェに関する情報を、プロジェクタにより投影する場合を例示したが、例えば、カフェに関する情報を、ディスプレイに表示したり、あるいはスピーカから音声として出力したりしてもよい。
 以下、対話サービスの具体的な例として、さらに、第1の使用シーン乃至第7の使用シーンの7つの使用シーンを例示する。
 ただし、ここでは、ハイレベル情報として、ユーザ2の行動の目的、ユーザ2の行動の同伴者、ユーザ2の行動の目標、ユーザ2の行動を対象の場所で行う目的、ユーザ2の行動中の喜怒哀楽、又はユーザ2の行動中に意識したものが得られるような場面を想定した使用の例を示すものとする。
(1)第1の使用シーン
 まず、第1の使用シーンとして、ユーザ2の行動の目的について問いかける場面の例を示す。
 例えば、ユーザ2が身につけた端末装置11のセンサ部152から得られるセンサ情報(ローレベル行動情報)に基づき、「ユーザ2が、毎週日曜日の朝に、近所の近くの公園をランニングしている」ことが、処理装置10により認識された場面を想定する。
 このとき、処理装置10は、ユーザ2に対し、「なぜ、ランニングをしているのですか?」と行動の目的についての問いかけを行う。それに対し、ユーザ2が、例えば「日焼けをしたいからです。」と返答したとすると、処理装置10は、このユーザ2の返答内容から得られる返答意図を示す情報を用いて検索用のクエリを生成し、サーバ20に問い合わせを行う。
 サーバ20は、処理装置10からの要求に応じて、行動ログDB211や各種コンテンツDB212等のデータベース、サーバ21により提供される公開情報などを参照することで、例えば、日焼け用のクリームやオイルの商品のリストや、ユーザ2の行動範囲内にある日焼けサロンの店舗のリスト、より日焼けをするのに適したランニングコースのリストなどを生成して応答する。
 処理装置10は、サーバ20からの問い合わせ結果に基づき、ユーザ2に対し、例えば、日焼け用のクリームや、日焼けサロン、ランニングコースなどを推薦又は提案する。これにより、ユーザ2は、単に質問に答えるだけで、日焼けをするためのより有意義な情報を得ることができる。
 また、「なぜ、ランニングをしているのですか?」との問いかけに対し、例えば、ユーザ2が、「おいしいビールを飲むためです。」と返答したときには、人気のビールや、ユーザ2の行動範囲内にあるビールを飲める飲食店などが推薦されるようにすればよい。
 さらに、「なぜ、ランニングをしているのですか?」との問いかけに対し、例えば、ユーザ2が、「健康のためです。」と返答したときには、ユーザ2の行動範囲内にある、健康にいい料理や飲み物を提供するレストランやカフェなどが推薦されるようにすればよい。
 なお、サーバ20が、処理装置10からのクエリに基づき、レストランを検索するに際して、検索対象のレストランが、「健康にいい料理や飲み物を提供する」店舗であるかどうかを認識するためには、例えば、検索対象のレストランに対して、「健康」に関するメタデータが付与されているかどうかにより判定すればよい。
(2)第2の使用シーン
 次に、第2の使用シーンとして、ユーザ2の行動の同伴者について問いかける場面の例を示す。
 例えば、ここでも、ローレベル行動情報を用いることで、「ユーザ2が、毎週日曜日の朝に、近所の近くの公園をランニングしている」ことが、処理装置10により認識された場面を想定する。
 このとき、処理装置10が、ユーザ2に対し、「誰とランニングをしているのですか?」と行動の同伴者についての問いかけを行う。それに対し、ユーザ2が、例えば「犬と」と返答したとすると、処理装置10は、このユーザ2の返答内容から得られる返答意図を示す情報を用いてレストランの検索用のクエリを生成し、サーバ20に問い合わせを行う。
 サーバ20は、処理装置10からの要求に応じて、行動ログDB211や各種コンテンツDB212等のデータベース、サーバ21により提供される公開情報などを参照することで、例えば、ユーザ2の行動範囲内にあるレストランのうち、ペット同伴可能なレストランのリストなどを生成して応答する。
 処理装置10は、サーバ20からの問い合わせ結果に基づき、ユーザ2に対し、例えば、ペット同伴可能なレストランを推薦する。これにより、ユーザ2は、単に質問に答えるだけで、犬とランニングする際の有意義な情報を得ることができる。
 なお、サーバ20が、処理装置10からのクエリに基づき、ペット同伴可能なレストランを検索するに際して、検索対象のレストランが、「ペット同伴可能」であるかどうかを認識するためには、例えば、検索対象のレストランに対して、「ペット同伴可」に関するメタデータが付与されているかどうかにより判定すればよい。
 また、「誰とランニングをしているのですか?」との問いかけに対し、例えば、ユーザ2が、「犬のリハビリのために、犬と一緒に走っています。」と返答したときには、ユーザ2の行動範囲内で、よりリハビリテーションに適したランニングコースなどが提案されるようにすればよい。
(3)第3の使用シーン
 次に、第3の使用シーンとして、ユーザ2の行動の目標について問いかける場面の例を示す。
 例えば、ここでも、ローレベル行動情報を用いることで、「ユーザ2が、毎週日曜日の朝に、近所の近くの公園をランニングしている」ことが、処理装置10により認識された場面を想定する。
 このとき、処理装置10が、ユーザ2に対し、「どのような目標を立てていますか?」と行動の目的についての問いかけを行う。それに対し、ユーザ2が、例えば「10kmを1時間以内で走れるようにしたいです。」と返答したとすると、処理装置10は、このユーザ2の返答内容から得られる返答意図を示す情報を用いて、検索用のクエリを生成し、サーバ20に問い合わせを行う。
 サーバ20は、処理装置10からの要求に応じて、行動ログDB211等のデータベースを参照することで、例えば、同様の目標を立てている他のユーザのリストを生成して応答する。このような他のユーザのリストは、クラウド側のサーバ20にて、行動ログDB211によって、各ユーザのローレベル行動情報を管理しているために実現可能とされる。
 処理装置10は、サーバ20からの問い合わせ結果に基づき、ユーザ2に対し、例えば、同様の目標を立てている他のユーザを推薦(紹介)する。これにより、ユーザ2は、単に質問に答えるだけで、ランニングをする際の有意義な情報を得ることができる。
 なお、ここでの他のユーザの紹介方法としては、例えば、他のユーザのうち、検索用のクエリの内容に類似している情報が登録されている他のユーザ(例えば5kmを30分程度で走ることを目標としているユーザ)や、ユーザ2と行動が類似している他のユーザ(例えば日曜日の早朝に公園をランニングしているユーザ)などを推薦(紹介)することができる。
(4)第4の使用シーン
 次に、第4の使用シーンとして、ユーザ2が行動をそこで行う理由について問いかける場面の例を示す。
 例えば、ここでも、ローレベル行動情報を用いることで、「ユーザ2が、毎週日曜日の朝に、近所の近くの公園をランニングしている」ことが、処理装置10により認識された場面を想定する。
 このとき、処理装置10が、ユーザ2に対し、「なぜ、そこでランニングを行いますか?」と行動をそこで行う理由についての問いかけを行う。それに対し、ユーザ2が、例えば「安全だから」と返答したとすると、処理装置10は、このユーザ2の返答内容から得られる返答意図を示す情報を用いて、検索用のクエリを生成し、サーバ20に問い合わせを行う。
 サーバ20は、処理装置10からの要求に応じて、行動ログDB211や各種コンテンツDB212等のデータベース、サーバ21により提供される公開情報を参照することで、例えば、さらに安全なランニングコースのリストを生成して応答する。
 処理装置10は、サーバ20からの問い合わせ結果に基づき、ユーザ2に対し、例えば、さらに安全なランニングコースを提案する。これにより、ユーザ2は、単に質問に答えるだけで、より安全にランニングするための有意義な情報を得ることができる。
 ここで、さらに安全なランニングコースの提案方法であるが、例えば、インターネット30上のサーバ21から得られるランニングコースの地図情報や事件事故発生情報などを分析することで、さらに安全なランニングコースを提案することができる。
 また、このとき、ユーザ2に対し、ランニングコースを提示する際に、例えば、ヒートマップによって、コース付近のより安全な領域を緑で表す一方で、コース付近のより危険な場所を赤で表すなどして、安全性に応じた複数の色レベルでコース付近の各領域を表すことで、ユーザ2は、より直感的に安全の度合いを認識することが可能となる。
 なお、ランニングコースの事件事故発生情報であるが、例えば、下記のウェブサイト1,2に公開されている公開情報などから得ることができる。
 ウェブサイト1:警視庁 "犯罪情報マップ" [平成29年8月16日検索],インターネット<URL: http://www2.wagmap.jp/jouhomap/Portal>
 ウェブサイト2:警視庁 "交通事故発生マップ" [平成29年8月16日検索],インターネット<URL: http://www3.wagamachi-guide.com/jikomap/>
 また、「なぜ、そこでランニングを行いますか?」との問いかけに対し、例えば、ユーザ2が、「景色がよいから。」と返答したときには、ユーザ2の行動範囲内で、さらに景色がよいランニングコースなどが提案されるようにすればよい。ここで、景色がよいかどうかは、例えば、インターネット30上のサーバ21から得られるランニングコースの地図情報と、インターネット30上にアップロードされた写真の数や写真の画像データ、個人のブログに公開された情報などから判定することができる。
(5)第5の使用シーン
 次に、第5の使用シーンとして、ユーザ2の行動中の感情や気分について問いかける場面の例を示す。
 例えば、ここでも、ローレベル行動情報を用いることで、「ユーザ2が、毎週日曜日の朝に、近所の近くの公園をランニングしている」ことが、処理装置10により認識された場面を想定する。
 このとき、処理装置10が、ユーザ2に対し、「ランニングをしていて気分はどうですか?」と行動中の感情や気分についての問いかけを行う。それに対し、ユーザ2が、例えば「楽しくない。」と返答したとすると、処理装置10は、このユーザ2の返答内容から得られる返答意図を示す情報を用いて、検索用のクエリを生成し、サーバ20に問い合わせを行う。
 サーバ20は、処理装置10からの要求に応じて、行動ログDB211や各種コンテンツDB212等のデータベース、サーバ21により提供される公開情報を参照することで、例えば、楽しくなる音楽のリストや、より楽なランニングコースのリストなどを生成して応答する。
 処理装置10は、サーバ20からの問い合わせ結果に基づき、ユーザ2に対し、例えば、楽しくなる音楽を推薦したり、あるいはより楽なランニングコースを提案したりする。これにより、ユーザ2は、単に質問に答えるだけで、楽しくランニングするための有意義な情報を得ることができる。
 なお、サーバ20が、処理装置10からのクエリに基づき、楽しくなる音楽を検索するに際して、検索対象の音楽が、「楽しくなる」ものであるかどうかを認識するためには、例えば、検索対象の音楽に対して、「楽しくなる」に関するメタデータが付与されているかどうかにより判定すればよい。
 また、「ランニングをしていて気分はどうですか?」との問いかけに対し、例えば、ユーザ2が、「苦しい」と返答したときには、ユーザ2の行動範囲内で、より楽なランニングコースなどが提案されるようにすればよい。ここで、楽なランニングコースの提案方法であるが、例えば、インターネット30上のサーバ21から得られるランニングコースの地図情報や高低差情報などを分析することで、より高低差の少ないランニングコースなどを提案することができる。
 なお、ランニングコースの高低差情報であるが、例えば、下記のウェブサイト3に公開されている公開情報などから得ることができる。
 ウェブサイト3:国土交通省 国土地理院 "地理院地図", [平成29年8月16日検索],インターネット<URL: http://www.gsi.go.jp/johofukyu/hyoko_system.html>
 また、ランニングコースとしては、例えば、地図情報や喫煙所マップなどの公開情報を利用することで、周辺に中高層の建物の少ないランニングコースや、コース付近に喫煙所がない(又は喫煙所がある)ランニングコースなどを提案することもできる。
(6)第6の使用シーン
 次に、第6の使用シーンとして、ユーザ2の行動中に興味をひかれたものについて問いかける場面の例を示す。
 例えば、ここでも、ローレベル行動情報を用いることで、「ユーザ2が、毎週日曜日の朝に、近所の近くの公園をランニングしている」ことが、処理装置10により認識された場面を想定する。
 このとき、処理装置10が、ユーザ2に対し、「ランニング中に何か興味を引かれたものは?」と行動中に興味を引かれたものについての問いかけを行う。それに対し、ユーザ2が、例えば、「公園の出口の側にあるレストランに行列ができていた。」と返答したとすると、処理装置10は、このユーザ2の返答内容から得られる返答意図を示す情報を用いて、検索用のクエリを生成し、サーバ20に問い合わせを行う。
 サーバ20は、処理装置10からの要求に応じて、行動ログDB211や各種コンテンツDB212等のデータベース、サーバ21により提供される公開情報を参照することで、例えば、公園の出口の側にあるレストランに関する情報を生成して応答する。なお、このとき、公園の出口の側にあるレストランに関する情報は、例えば、地図情報や、ユーザの行動情報などから推定される。
 処理装置10は、サーバ20からの問い合わせ結果に基づき、ユーザ2に対し、例えば、公園の出口の側にあるレストランに関する情報を表示して、当該レストランを推薦する。これにより、ユーザ2は、単に質問に答えるだけで、自身が意識していたことに関する有意義な情報を得ることができる。
(7)第7の使用シーン
 最後に、第7の使用シーンとして、ユーザ2の行動中に考えたことや、思いついたことについて問いかける場面の例を示す。
 例えば、ここでも、ローレベル行動情報を用いることで、「ユーザ2が、毎週日曜日の朝に、近所の近くの公園をランニングしている」ことが、処理装置10により認識された場面を想定する。
 このとき、処理装置10が、ユーザ2に対し、「ランニング中に考えていたことは?」と行動中に考えていたことや、思いついたことについての問いかけを行う。それに対し、ユーザ2が、例えば「西郷さんの像が見えたので、西郷隆盛について考えていた。」と返答したとすると、処理装置10は、このユーザ2の返答内容から得られる返答意図を示す情報を用いて、検索用のクエリを生成し、サーバ20に問い合わせを行う。
 サーバ20は、処理装置10からの要求に応じて、行動ログDB211や各種コンテンツDB212等のデータベース、サーバ21により提供される公開情報を参照することで、例えば、西郷隆盛に関する書籍のリストや、同様のことを考えていた他のユーザのリストなどを生成して応答する。
 処理装置10は、サーバ20からの問い合わせ結果に基づき、ユーザ2に対し、例えば、関連書籍を推薦したり、あるいは同様のことを考えていた他のユーザを推薦(紹介)したりする。これにより、ユーザ2は、単に質問に答えるだけで、自身が意識していたことに関する有意義な情報を得ることができる。
 以上、対話サービスの具体的な例として、7つの使用シーンを説明した。これらの使用シーンで説明したように、対話システム1では、ハイレベル情報として、ユーザ2の行動に関連した行動関連情報(行動動機情報又は行動感情情報)である、行動の目的、行動の同伴者、行動の目標、行動を対象の場所で行う目的、行動中の喜怒哀楽、又は行動中に意識したものが得られるような質問を生成して、ユーザ2に問いかけることで、ユーザ2の返答内容から、所望のハイレベル情報を得ることができる。
 そして、対話システム1では、このようにして得られたハイレベル情報やそれに付随する情報を活用して、例えば、健康にいい料理や飲み物を提供するレストランや、より最適なランニングコースなど、ユーザ2にとって、より有意義な情報を提示(推薦又は提案)することができる。この有意義な情報は、ローレベル行動情報のみでは得られない情報であって、ユーザ2の行動の真意を捉えた情報となるため、ユーザ2と対話システム1との間の対話の内容が密となり、結果として、対話システム1の質を向上させることができる。
(推薦・提案処理の流れ)
 次に、図5及び図6のフローチャートを参照して、対話システム1における処理装置10により実行される、ハイレベル情報に応じた推薦・提案処理の流れについて説明する。
 ステップS11において、通信部106は、インターネット30を介して、サーバ20から定期的に、端末装置11を身につけたユーザ2のローレベル行動情報を受信する。このとき、同一のユーザであるかどうかは、ユーザIDを用いることで識別される。
 ステップS12において、行動情報処理部101は、ステップS11の処理で受信されたローレベル行動情報に基づいて、端末装置11を身につけたユーザ2について、習慣性のある行動を判定する。ここで、習慣性については、例えば、同一の行動を3回以上毎日行っていたとき、あるいは同一の行動を毎週行っていたとき、習慣性があるとみなす。
 ステップS13において、習慣的な行動がないと判定された場合、ステップS11の処理に戻り、ステップS11乃至S13の処理が、定期的に繰り返される。一方で、ステップS13において、習慣的な行動があると判定された場合、処理は、図6のステップS21の処理に進められる。
 ステップS21において、質問生成部102は、習慣的行動情報に基づいて、ユーザ2に対する質問の問いかけ内容を生成する。
 ステップS22において、質問生成部102は、質問内容DB111を参照して、ステップS21の処理で生成された問いかけ内容が、過去の一定期間内に問いかけた内容と一致するかどうかを判定する。
 ステップS22において、問いかけ内容が、過去の一定期間内に問いかけた内容と一致すると判定された場合、ステップS21の処理に戻り、ステップS21乃至S22の処理が繰り返される。
 なお、ここでは、例えば、取得すべきハイレベル情報が複数存在する場合には、その取得対象のハイレベル情報の数に応じて、ステップS21乃至S22の処理のループ(i = 0, 1, 2, ・・・ , n)が繰り返されることで、取得対象のハイレベル情報ごとに、質問が生成されることになる。
 ここで、ユーザ2に対する問いかけとしては、例えば、その行動の目的や同伴者、目標など、端末装置11のセンサ部152からは得ることができない情報があり、どの問いかけを行うかは、例えば、次のようにすることができる。すなわち、例えば、一定期間内に同一の質問をしないように、質問内容DB111に、過去の一定期間の対話内容を記録しておき、一定期間内にしていない質問について、ユーザ2に対し、問いかけが行われるようにする。
 そして、ステップS22において、生成した問いかけ内容が、過去の一定期間内に問いかけた内容と一致しないと判定された場合、処理は、ステップS23に進められる。
 ステップS23において、出力部107は、ステップS21の処理で生成された問いかけ内容に基づいて、ユーザ2への問いかけを行う。
 ここで、処理装置10が、例えばスマートスピーカやホームエージェントであって、スピーカ機能と音声合成機能を有する場合には、スピーカとしての出力部107から出力される音声によって、ユーザ2への問いかけが行われる。また、処理装置10が、ディスプレイやプロジェクタの機能を有する場合には、ディスプレイやプロジェクタとしての出力部107から出力されるUI画面の文字列や画像などによって、ユーザ2への問いかけが行われる。
 ただし、ユーザ2への問いかけは、例えば、端末装置11のセンサ部152から得られる位置情報などに基づき、ユーザ2が、ユーザ宅等に設置された処理装置10の近傍にいる場合に行われる。また、ユーザ2が、ユーザ宅等に設置された処理装置10の近傍にいない場合には、ウェアラブル機器や、スマートフォン等の端末装置11によって、ユーザ2への問いかけが行われるようにしてもよい。
 ステップS24において、入力部108は、ステップS23の処理で行われた問いかけに応じたユーザ2の返答を受け付ける。
 ここで、処理装置10が、例えばスマートスピーカやホームエージェントであって、マイクロフォン機能と音声認識機能を有する場合には、マイクロフォンとしての入力部108により受け付けられる音声によって、ユーザ2の返答が行われる。また、処理装置10が、ディスプレイやプロジェクタの機能を有する場合には、ボタンやキーボード、タッチパネル等としての入力部108によって、ユーザ2の返答が受け付けられる。
 ステップS25において、意図理解部103は、ステップS24の処理で受け付けたユーザの返答内容(ユーザ2への問いかけに対する返答)を示す情報に基づいて、ユーザ2の返答の意図を理解する。ここでは、例えば、ユーザ2の返答内容に対する言語処理が行われることで、ユーザ2の返答が推定される。
 ステップS26において、クエリ生成部104は、ステップS25の処理で推定される返答意図を示す情報に基づいて、サーバ20に問い合わせるためのクエリを生成する。ここでは、クエリとして、ユーザ2が有意義な情報を得るための問い合わせ内容が含められる。
 ステップS27において、通信部106は、ステップS26の処理で生成されたクエリを、インターネット30を介してサーバ20に送信することで、サーバ20への問い合わせを行う。
 ステップS28において、通信部106は、インターネット30を介して、サーバ20から送信されてくる問い合わせ結果を受信する。
 ここでは、サーバ20にて、ステップS27の処理で送信したクエリが受け取られ、そのクエリが示す問い合わせ内容に合わせて、行動ログDB211や各種コンテンツDB212等のデータベースに記録されている情報、インターネット30上のサーバ21に公開されている公開情報などの各種の情報を用いて、クエリに応じた検索結果のリストが生成され、問い合わせ結果として受信される。
 ステップS29において、推薦・提案内容生成部105は、ステップS28の処理で受信された問い合わせ結果に基づいて、ユーザ2への推薦・提案内容(ユーザにとって有意義な情報)を生成する。
 ステップS30において、出力部107は、ステップS29の処理で生成された推薦・提案内容に基づいて、ユーザ2への推薦・提案を行う。
 ここで、処理装置10が、例えばスマートスピーカやホームエージェントであって、スピーカ機能と音声合成機能を有する場合には、スピーカとしての出力部107から出力される音声によって、ユーザ2への推薦・提案が行われる。また、処理装置10が、ディスプレイやプロジェクタの機能を有する場合には、ディスプレイやプロジェクタとしての出力部107から出力されるUI画面の文字列や画像などによって、ユーザ2への推薦・提案が行われる。
 ステップS30の処理が終了すると、処理は、図5のステップS11の処理に戻り、上述したステップS11乃至S13の処理が定期的に繰り返され、ステップS13の判定処理で、習慣的な行動があると判定された場合には、再度、図6に示した各ステップの処理が実行されることになる。
 以上、ハイレベル情報に応じた推薦・提案処理の流れを説明した。
 このハイレベル情報に応じた推薦・提案処理では、ハイレベル情報を得るための質問を生成して、ユーザ2に問いかけることで、ユーザ2の返答からハイレベル情報を取得するとともに、そのハイレベル情報やそれに付随する情報を活用して、ユーザ2にとって、より有意義な情報を提示している。この有意義な情報は、ローレベル行動情報のみでは得られない情報であって、ユーザ2の行動の真意を捉えた情報となるため、ユーザ2と対話システム1との間の対話の内容が密となり、結果として、対話システム1の質を向上させることができる。
<2.変形例>
 上述した説明では、行動情報処理部101乃至推薦・提案内容生成部105(図2)は、処理装置10(図1)に組み込まれ、行動情報判定部151(図2)は、端末装置11(図1)に組み込まれ、情報処理部201(図2)は、サーバ20(図1)に組み込まれるとして説明したが、行動情報処理部101乃至推薦・提案内容生成部105、行動情報判定部151、及び情報処理部201のそれぞれは、処理装置10、端末装置11、及びサーバ20のうち、いずれの機器に組み込まれてもよい。
 例えば、行動情報処理部101乃至推薦・提案内容生成部105、行動情報判定部151、及び情報処理部201のすべてが、サーバ20に組み込まれ、クラウド側のサーバ20で、対話サービスに関する処理が行われ、ローカル側の処理装置10は、対話サービスのユーザインターフェースとしてのみ機能するようにしてもよい。
 また、例えば、行動情報処理部101乃至推薦・提案内容生成部105、行動情報判定部151、及び情報処理部201のすべてが、ローカル側の処理装置10に組み込まれ、ローカル側で処理が完結するようにしてもよい。ただし、このような構成を採用した場合でも、行動ログDB211や各種コンテンツDB212などの各種のデータベースは、インターネット30上のサーバが保持することができる。
<3.コンピュータの構成>
 上述した一連の処理(例えば、図5及び図6に示したハイレベル情報に応じた推薦・提案処理)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、各装置のコンピュータにインストールされる。図7は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及び、ドライブ1010が接続されている。
 入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
 以上のように構成されるコンピュータ1000では、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
 コンピュータ1000では、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、図5及び図6に示したハイレベル情報に応じた推薦・提案処理の各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本技術は、以下のような構成をとることができる。
(1)
 1次的な情報である1次の情報に基づいて、前記1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問を生成する第1の生成部を備える
 情報処理装置。
(2)
 前記高次の情報は、前記ユーザの行動に関連した行動関連情報を含む
 前記(1)に記載の情報処理装置。
(3)
 前記行動関連情報は、前記ユーザの行動の動機に関する行動動機情報、及び前記ユーザの行動中の感情に関する行動感情情報の少なくとも一方の情報を含む
 前記(2)に記載の情報処理装置。
(4)
 前記行動動機情報は、行動の目的、行動の同伴者、行動の目標、又は行動を対象の場所で行う目的に関する情報を含む
 前記(3)に記載の情報処理装置。
(5)
 前記行動感情情報は、行動中の喜怒哀楽、又は行動中に意識したものに関する情報を含む
 前記(3)又は(4)に記載の情報処理装置。
(6)
 前記1次の情報は、センサから得られるセンサ情報、及び前記センサ情報から推定される推定情報の少なくとも一方の情報を含む
 前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記質問に対する前記ユーザの返答に応じて得られる前記高次の情報に基づいて、前記ユーザに対する提示情報を生成する第2の生成部と、
 前記提示情報を提示する提示部と
 をさらに備える前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記提示情報は、前記ユーザに有意義な情報を推薦するための推薦情報、又は前記ユーザに有意義な情報を提案するための提案情報を含む
 前記(7)に記載の情報処理装置。
(9)
 前記1次の情報に基づいて、前記ユーザに、習慣的な行動があるかどうかを判定する判定部をさらに備え、
 前記第1の生成部は、習慣性な行動があると判定された場合に、前記ユーザの習慣的な行動に応じた前記質問を生成する
 前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記ユーザに対する前記質問を提示する提示部と、
 前記質問に対する前記ユーザの返答を受け付ける受付部と
 をさらに備える前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記提示部は、前記質問のうち、過去の一定期間内に未提示である質問を提示する
 前記(10)に記載の情報処理装置。
(12)
 情報処理装置の情報処理方法において、
 前記情報処理装置が、
 1次的な情報である1次の情報に基づいて、前記1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問を生成する
 情報処理方法。
 1 対話システム, 10 処理装置, 11 端末装置, 20 サーバ, 21 サーバ, 30 インターネット, 101 行動情報処理部, 102 質問生成部, 103 意図理解部, 104 クエリ生成部, 105 推薦・提案内容生成部, 106 通信部, 107 出力部, 108 入力部, 111 質問内容DB, 151 行動情報判定部, 152 センサ部, 153 通信部, 201 情報処理部, 202 通信部, 211 行動ログDB, 212 各種コンテンツDB, 1000 コンピュータ, 1001 CPU

Claims (12)

  1.  1次的な情報である1次の情報に基づいて、前記1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問を生成する第1の生成部を備える
     情報処理装置。
  2.  前記高次の情報は、前記ユーザの行動に関連した行動関連情報を含む
     請求項1に記載の情報処理装置。
  3.  前記行動関連情報は、前記ユーザの行動の動機に関する行動動機情報、及び前記ユーザの行動中の感情に関する行動感情情報の少なくとも一方の情報を含む
     請求項2に記載の情報処理装置。
  4.  前記行動動機情報は、行動の目的、行動の同伴者、行動の目標、又は行動を対象の場所で行う目的に関する情報を含む
     請求項3に記載の情報処理装置。
  5.  前記行動感情情報は、行動中の喜怒哀楽、又は行動中に意識したものに関する情報を含む
     請求項3に記載の情報処理装置。
  6.  前記1次の情報は、センサから得られるセンサ情報、及び前記センサ情報から推定される推定情報の少なくとも一方の情報を含む
     請求項1に記載の情報処理装置。
  7.  前記質問に対する前記ユーザの返答に応じて得られる前記高次の情報に基づいて、前記ユーザに対する提示情報を生成する第2の生成部と、
     前記提示情報を提示する提示部と
     をさらに備える請求項1に記載の情報処理装置。
  8.  前記提示情報は、前記ユーザに有意義な情報を推薦するための推薦情報、又は前記ユーザに有意義な情報を提案するための提案情報を含む
     請求項7に記載の情報処理装置。
  9.  前記1次の情報に基づいて、前記ユーザに、習慣的な行動があるかどうかを判定する判定部をさらに備え、
     前記第1の生成部は、習慣性な行動があると判定された場合に、前記ユーザの習慣的な行動に応じた前記質問を生成する
     請求項1に記載の情報処理装置。
  10.  前記ユーザに対する前記質問を提示する提示部と、
     前記質問に対する前記ユーザの返答を受け付ける受付部と
     をさらに備える請求項1に記載の情報処理装置。
  11.  前記提示部は、前記質問のうち、過去の一定期間内に未提示である質問を提示する
     請求項10に記載の情報処理装置。
  12.  情報処理装置の情報処理方法において、
     前記情報処理装置が、
     1次的な情報である1次の情報に基づいて、前記1次の情報よりも高次な情報であって、ユーザの返答に応じた高次の情報を得るための質問を生成する
     情報処理方法。
PCT/JP2018/030251 2017-08-28 2018-08-14 情報処理装置、及び情報処理方法 WO2019044485A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18851129.9A EP3678034A1 (en) 2017-08-28 2018-08-14 Information processing device and information processing method
US16/640,144 US20200293563A1 (en) 2017-08-28 2018-08-14 Information processor and information processing method
CN201880053926.3A CN110998559A (zh) 2017-08-28 2018-08-14 信息处理装置与信息处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017163006 2017-08-28
JP2017-163006 2017-08-28

Publications (1)

Publication Number Publication Date
WO2019044485A1 true WO2019044485A1 (ja) 2019-03-07

Family

ID=65526335

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/030251 WO2019044485A1 (ja) 2017-08-28 2018-08-14 情報処理装置、及び情報処理方法

Country Status (4)

Country Link
US (1) US20200293563A1 (ja)
EP (1) EP3678034A1 (ja)
CN (1) CN110998559A (ja)
WO (1) WO2019044485A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748644B2 (en) 2018-06-19 2020-08-18 Ellipsis Health, Inc. Systems and methods for mental health assessment
US11120895B2 (en) 2018-06-19 2021-09-14 Ellipsis Health, Inc. Systems and methods for mental health assessment

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7120060B2 (ja) * 2019-02-06 2022-08-17 トヨタ自動車株式会社 音声対話装置、音声対話装置の制御装置及び制御プログラム
US20220335698A1 (en) * 2019-12-17 2022-10-20 Ashley SinHee Kim System and method for transforming mapping information to an illustrated map

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282807A (ja) * 2000-03-31 2001-10-12 Keio Gijuku 行動支援エンジン及び自己認知エンジン
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
JP2002108934A (ja) * 2000-09-29 2002-04-12 Sony Corp 情報提供装置及び情報提供方法並びにデータ記録媒体
JP2005018642A (ja) * 2003-06-27 2005-01-20 Sharp Corp 電子ダイアリー作成装置、電子ダイアリー作成方法、電子ダイアリー作成プログラム、および該プログラムを記録した記録媒体
JP2013003643A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016134109A (ja) * 2015-01-22 2016-07-25 日本電信電話株式会社 サーバ装置の動作方法、サーバ装置およびコンピュータプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7055101B2 (en) * 1998-12-18 2006-05-30 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US9373208B2 (en) * 2013-09-11 2016-06-21 Sony Corporation Secure remote control for operating closures such as garage doors
EP3097458B1 (en) * 2014-01-22 2019-07-24 Sony Corporation Directing audio output based on gestures
WO2017112813A1 (en) * 2015-12-22 2017-06-29 Sri International Multi-lingual virtual personal assistant

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282807A (ja) * 2000-03-31 2001-10-12 Keio Gijuku 行動支援エンジン及び自己認知エンジン
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
JP2002108934A (ja) * 2000-09-29 2002-04-12 Sony Corp 情報提供装置及び情報提供方法並びにデータ記録媒体
JP2005018642A (ja) * 2003-06-27 2005-01-20 Sharp Corp 電子ダイアリー作成装置、電子ダイアリー作成方法、電子ダイアリー作成プログラム、および該プログラムを記録した記録媒体
JP2013003643A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016134109A (ja) * 2015-01-22 2016-07-25 日本電信電話株式会社 サーバ装置の動作方法、サーバ装置およびコンピュータプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Map of Geospatial Information Authority", 16 August 2017, THE MINISTRY OF LAND, INFRASTRUCTURE, TRANSPORT AND TOURISM
HAYASHI, MASAYUKI ET AL.: "Life-logging framework for collecting location and purpose information by virtual agent on smart phone", IEICE TECHNICAL REPORT, vol. 114, no. 32, 8 May 2014 (2014-05-08), pages 57 - 62, XP009519088 *
NAGAI, YOSUKE ET AL.: "Life activity recording method using interactive character agent for the elderly", IEICE TECHNICAL REPORT, vol. 114, no. 227, 14 September 2014 (2014-09-14), pages 33 - 38, XP009519089 *
See also references of EP3678034A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748644B2 (en) 2018-06-19 2020-08-18 Ellipsis Health, Inc. Systems and methods for mental health assessment
US11120895B2 (en) 2018-06-19 2021-09-14 Ellipsis Health, Inc. Systems and methods for mental health assessment
US11942194B2 (en) 2018-06-19 2024-03-26 Ellipsis Health, Inc. Systems and methods for mental health assessment

Also Published As

Publication number Publication date
EP3678034A4 (en) 2020-07-08
EP3678034A1 (en) 2020-07-08
US20200293563A1 (en) 2020-09-17
CN110998559A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
US11107368B1 (en) System for wireless devices and intelligent glasses with real-time connectivity
Huang et al. Location based services: ongoing evolution and research agenda
US20200334712A1 (en) Using environment and user data to deliver advertisements targeted to user interests, e.g. based on a single command
KR102125991B1 (ko) 선택적 센서 폴링
Gardony et al. How navigational aids impair spatial memory: Evidence for divided attention
WO2019044485A1 (ja) 情報処理装置、及び情報処理方法
US20200004291A1 (en) Wearable apparatus and methods for processing audio signals
CN110996796A (zh) 信息处理设备、方法和程序
CN105229688A (zh) 环境人口统计学确定系统
JP2011215964A (ja) サーバ装置、クライアント装置、コンテンツ推薦方法及びプログラム
US20200302487A1 (en) System for generating advertisement and method for generating advertisement
JPWO2016181670A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN110692042B (zh) 在基于音频的计算环境中执行请求的动作的平台选择
US20160117732A1 (en) User Need Estimation On Mobile Device And Its Applications
US11289084B2 (en) Sensor based semantic object generation
WO2023018908A1 (en) Conversational artificial intelligence system in a virtual reality space
WO2020116026A1 (ja) 応答処理装置、応答処理方法及び応答処理プログラム
WO2015190141A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20190303967A1 (en) System and method to characterize a user of a handheld device
JP6282839B2 (ja) 情報処理装置、情報提供システム、情報提供方法及びプログラム
WO2022009504A1 (ja) 情報検索装置
WO2018051596A1 (ja) 情報処理装置
Tsepapadakis et al. 3D Audio+ Augmented Reality+ AI Chatbots+ IoT: An Immersive Conversational Cultural Guide
US20190095956A1 (en) Information control apparatus, information control system and information control method
US11270682B2 (en) Information processing device and information processing method for presentation of word-of-mouth information

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018851129

Country of ref document: EP

Effective date: 20200330

NENP Non-entry into the national phase

Ref country code: JP