WO2019142664A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
WO2019142664A1
WO2019142664A1 PCT/JP2019/000049 JP2019000049W WO2019142664A1 WO 2019142664 A1 WO2019142664 A1 WO 2019142664A1 JP 2019000049 W JP2019000049 W JP 2019000049W WO 2019142664 A1 WO2019142664 A1 WO 2019142664A1
Authority
WO
WIPO (PCT)
Prior art keywords
privacy level
response
information
registered
user
Prior art date
Application number
PCT/JP2019/000049
Other languages
English (en)
French (fr)
Inventor
井原 圭吾
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/960,916 priority Critical patent/US20200349948A1/en
Priority to CN201980005690.0A priority patent/CN111344692A/zh
Publication of WO2019142664A1 publication Critical patent/WO2019142664A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Definitions

  • the present technology relates to an information processing apparatus, an information processing method, and a program, and more particularly to an information processing apparatus, an information processing method, and a program that can limit the content of personal information to be disclosed according to the other party. .
  • Patent Document 1 describes a technique for recommending content to a user using a public profile information portion which is permitted to be publicized according to the privacy level.
  • a child may be called out by a stranger, encounter a crime, or may be able to hear personal information.
  • the child can determine by himself if he or she is an acquaintance. However, if the other person is, for example, an acquaintance of one's own parent, or a familiar person who the child does not know, such as a school or local caretaker, the child is judged as a malicious suspicious person. It is difficult.
  • an adult can decide how much his / her personal information is to be spoken according to the other party, and can change the contents of the response according to the other party.
  • it is difficult for a child to determine how far to talk personal information according to the other party there is a risk of talking personal information that should not be told to a malicious suspicious person.
  • the present technology has been made in view of such a situation, and makes it possible to limit the content of personal information to be disclosed according to the other party.
  • a signal processing device or program according to the present technology is a privacy level representing a degree of disclosing personal information about a user according to a responding party to which the response privacy level is a privacy level at the time of responding to the responding party. It has an output part which is a response message which is set and which responds to the utterance of the response partner collected by a microphone, and which outputs the response message obtained by generating the response message according to the response privacy level. It is a program for causing a computer to function as an information processing apparatus or such a signal processing apparatus.
  • a signal processing method is a privacy level representing a degree of disclosing personal information about a user according to a voice collecting and a responding party responding, and the privacy level at the time of responding to the responding party
  • a privacy level indicating a degree of disclosing personal information about a user according to a responding party to be responded, the privacy at the time of responding to the responding party. It is a response message which sets a response privacy level which is a level, and which is a response message which responds to an utterance of said response partner collected by a microphone, said response message obtained by generating said response message according to said response privacy level Is output.
  • FIG. 2 is a block diagram showing a configuration example of a server 20. It is a figure which shows the structural example of the user management database 22 of FIG. It is a figure which shows the structural example of the profile data genre and profile data which are registered into the user management table of FIG. It is a figure which shows the structural example of the privacy level management database 23 of FIG. It is a figure which shows the structural example of the suspicious person management database 24 of FIG. It is an external view which shows the outline
  • FIG. 2 is a block diagram showing a configuration example of an agent robot 30.
  • FIG. 6 is a diagram for describing an outline of acquisition of privacy level management information in the agent robot 30.
  • FIG. 6 is a diagram showing an example of a user information registration screen displayed on the communication terminal 10 when registering user information in the server 20.
  • FIG. 6 is a diagram showing an example of a user information registration screen displayed on the communication terminal 10 when registering user information in the server 20. It is a figure which shows the example of the privacy level management information registration screen displayed when registering privacy level management information with the server 20.
  • FIG. FIG. 7 is a diagram for explaining an example of the response of the agent robot 30.
  • FIG. 6 is a diagram for describing an outline of processing of the agent robot 30. It is a flowchart explaining registration processing of privacy level management information.
  • FIG. Fig. 21 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present technology is applied.
  • FIG. 1 is a block diagram showing a configuration example of an information processing system to which the present technology is applied.
  • the information processing system shown in FIG. 1 includes a communication terminal 10, a server 20, and an agent robot 30. Further, wired or wireless communication is performed among the communication terminal 10, the server 20, and the agent robot 30, respectively, via the Internet and other networks (not shown).
  • the communication terminal 10 communicates with the server 20 to transmit information to be registered (stored) on the server 20. Further, the communication terminal 10 communicates with the agent robot 30 to receive the information transmitted from the agent robot 30.
  • the server 20 receives the information transmitted from the communication terminal 10 and registers the information in the database. Further, the server 20 communicates with the agent robot 30 to transmit the information registered in the database to the agent robot 30. Furthermore, the server 20 receives the information transmitted from the agent robot 30.
  • the agent robot 30 receives (acquires) the information registered in the database from the server 20. Also, the agent robot 30 transmits the information acquired by itself to the communication terminal 10 and the server 20.
  • FIG. 2 is a block diagram showing an exemplary configuration of the server 20. As shown in FIG.
  • the server 20 includes a communication unit 21, a user management database 22, a privacy level management database 23, a suspicious person management database 24, and an area security information database 25.
  • the communication unit 21 communicates with other devices, for example, the communication terminal 10 and the agent robot 30 in FIG. 1 to transmit and receive information.
  • User information including personal information related to the user is registered in the user management database 22.
  • the privacy level management database 23 includes, for example, personal information related to a person including human face and voice feature amounts, and a registered privacy level which is a privacy level indicating the degree of disclosure of the user's personal information to the person. be registered.
  • suspicious person personal information which is personal information of a suspicious person provided (shared) by a public organization such as the police is registered.
  • An area security information database 25 registers security levels indicating the level of security for each area.
  • the server 20 may be virtually constructed on the cloud.
  • FIG. 3 is a view showing a configuration example of the user management database 22 of FIG.
  • User information is registered in the user management database 22 for each user.
  • user information is registered as a user management table.
  • user ID Identity
  • agent individual ID area information
  • profile data genre personal information
  • the user ID is, for example, a unique identification number assigned to the user who owns the agent robot 30.
  • the agent individual ID is a unique identification number individually given to the agent robot 30, and is registered in the form of an agent individual ID management table. As shown in FIG. 3, in the agent individual ID management table, agent individual IDs are registered in association with sequential numbers. A plurality of agent individual IDs can be registered in the agent individual ID management table. Therefore, when the user owns a plurality of agent robots 30, the agent individual ID of each of the plurality of agent robots 30 can be registered in the agent individual ID management table.
  • the area information is information on an area in which the user of the user ID (a user identified by the user ID) appears, and is registered in the form of an area ID management table.
  • an area name which is an area name and a latitude and a longitude (latitude and longitude) of the area of the area name are registered in association with sequential numbers.
  • FIG. 4 is a view showing a configuration example of profile data genre and profile data registered in the user management table of FIG.
  • the profile data genre indicates the genre of profile data, and is registered in the form of a profile data genre management table. As shown in FIG. 4, in the profile data genre management table, for example, a profile data genre and a confidential check indicating whether the profile data genre is a (secret) genre that the user wants to keep secret are sequential numbers. It is registered in association with.
  • the profile data is personal information of the user, and is registered in the form of a profile management table. As shown in FIG. 4, in the profile management table, for example, profile data and genres are registered in association with sequential numbers. Profile data is composed of a question and an answer to the question. In the genre, in the profile data genre management table, a number associated with a profile data genre representing a genre of profile data is registered.
  • FIG. 5 is a view showing a configuration example of the privacy level management database 23 of FIG.
  • a privacy level management table is registered in the privacy level management database 23 for each user. That is, the privacy level management table is associated with the user ID.
  • privacy level management information for managing the privacy of the user is registered for each person.
  • the privacy level management information is configured by associating person information with a registered privacy level, an area ID, sharing availability information, and an update date and time.
  • the personal information includes a personal ID, face feature data, voiceprint data, and a name.
  • the person ID is a sequential identification number individually given to the person registered in the privacy level management table.
  • the face feature amount data is an image feature amount extracted from face image data of a person specified by the person ID.
  • the voiceprint data is a voice feature extracted from the voice of the person specified by the person ID.
  • the name represents the name of a person identified by the person ID.
  • the registered privacy level is a privacy level registered for the person specified by the person ID.
  • the privacy level represents the degree of disclosure of personal information about the user.
  • the privacy level registered for the person specified by the person ID is referred to as a registration privacy level.
  • the registration privacy level takes a binary value of 0 or 1.
  • the registration privacy level is 1, it indicates that the disclosure is permitted (disclosure of personal information), and when the registration privacy level is 0, it indicates that the disclosure is prohibited (disclosure of personal information).
  • FIG. 5 registered privacy levels are registered for each profile data genre.
  • numerals 1, 2, 3,... In the lower part of the registered privacy level represent numbers associated with the profile data genre in the profile data genre management table (FIG. 4).
  • the area ID represents a number registered in the area ID management table (FIG. 3), which is associated with the area name (FIG. 3) of the area where the person specified by the person ID appears (well meets).
  • the sharing availability information is the personal information registered in the privacy level management table of the user specified by the user ID, between the privacy level management table of other users registered in the privacy level management database 23 on the server 20. Indicates whether to allow sharing by.
  • a circle ( ⁇ ) of the sharing availability information indicates that sharing personal information with other users is permitted, and a cross ( ⁇ ) of sharing availability information indicates personal information with other users. Indicates that sharing is prohibited.
  • the update date indicates the date when the privacy level management information is updated (registered).
  • FIG. 6 is a view showing a configuration example of the suspicious person management database 24 of FIG.
  • a suspicious person management database 24 for example, suspicious person information which is personal information on a suspicious person is registered for each person.
  • the suspicious individual information is comprised of a person ID, face feature amount data, voiceprint data, and a name.
  • FIG. 7 is an external view showing an outline of a configuration example of the agent robot 30 of FIG.
  • the agent robot 30 has, for example, the shape of an animal such as a chick, and the camera 31 is placed at the position of the eye of the agent robot 30 in order to recognize a person as a response counterpart.
  • the microphone 32 is disposed at the position of the ear, and the sensor unit 33 is disposed at the position of the head.
  • a speaker 36 is disposed at the mouth of the agent robot 30 in order to output a response to the speech of a person as a response partner.
  • the agent robot 30 has a communication function in order to perform communication such as Internet communication.
  • FIG. 8 is a view showing an application example of the agent robot 30 of FIG.
  • the agent robot 30 can be configured, for example, as a stuffed toy or a badge imitating a character so that a child can easily wear it.
  • the agent robot 30 can be configured as a so-called portable type, for example, configured in a shape that can be placed on a shoulder, hung from a neck, or attached to a hat, a parcel or the like.
  • FIG. 9 is a block diagram showing a configuration example of the agent robot 30. As shown in FIG.
  • the agent robot 30 includes a camera 31, a microphone 32, a sensor unit 33, a communication unit 34, an information processing unit 35, and a speaker 36.
  • the camera 31 captures an image of the face of a person facing the agent robot 30 as a response partner, and supplies face image data obtained by the imaging to the communication unit 34.
  • the microphone 32 picks up the voice of the response partner, and supplies voice data obtained by the voice pick-up to the communication unit 34.
  • the sensor unit 33 includes, for example, a laser range finder (distance sensor) that measures a distance, a GPS (Global Positioning System) that measures a current location, a clock that clocks time, and a sensor that senses various other physical quantities.
  • the sensor unit 33 supplies information acquired by the sensor unit 33, such as distance, current location, time, etc., to the communication unit 34 as sensor information.
  • the communication unit 34 receives the face image data from the camera 31, the sound data from the microphone 32, and the sensor information from the sensor unit 33, and supplies the information to the information processing unit 35.
  • the communication unit 34 also transmits face image data from the camera 31, voice data from the microphone 32, and sensor information from the sensor unit 33 to the communication terminal 10 or the server 20.
  • the communication unit 34 receives the privacy level management information transmitted from the server 20 and supplies the privacy level management information to the information processing unit 35.
  • the communication unit 34 transmits and receives necessary information to and from the communication terminal 10 and the server 20.
  • the information processing unit 35 includes an utterance analysis unit 41, a privacy level management database 42, a privacy level determination engine 43, an automatic response engine 44, and a voice synthesis unit 45, and performs various information processing.
  • the utterance analysis unit 41 analyzes the utterance content of the response partner using the voice data of the response partner supplied from the communication unit 34.
  • the utterance analysis unit 41 supplies the automatic response engine 44 with the utterance analysis result obtained as a result of analyzing the utterance content.
  • the privacy level management database 42 stores privacy level management information supplied from the communication unit 34.
  • the privacy level determination engine 43 extracts face feature amount data and voiceprint data from the face image data and voice data of the response partner supplied from the communication unit 34.
  • the privacy level determination engine 43 matches the extracted face feature data and voiceprint data with the personal information of the privacy level management information stored in the privacy level management database 42, and matches (matches) the response counterpart. Identify the person information to be
  • the privacy level determination engine 43 sets the response privacy level, which is the privacy level at the time of response to the responding party, according to the registered privacy level associated with the person information matching the responding party, Supply.
  • the privacy level determination engine 43 can set the response privacy level (change the setting of the response privacy level) in accordance with, for example, the sensor information supplied from the communication unit 34.
  • the privacy level determination engine 43 functions as a setting unit that sets the response privacy level at the time of responding to the responding party.
  • the automatic response engine 44 responds to the utterance analysis result (the content of the utterance of the other party of the response) according to the utterance analysis result supplied from the utterance analysis unit 41 and the response privacy level supplied from the privacy level determination engine 43. And generate a response message according to the response privacy level (which restricts the disclosure of personal information).
  • the automatic response engine 44 supplies the generated response message to the speech synthesis unit 45.
  • the automatic response engine 44 accesses the server 20 via the communication unit 34 when generating the response message, and acquires personal information necessary for generating the response message from the profile data of the profile data management table (FIG. 4). Do.
  • the automatic response engine 44 functions as a generation unit that generates a response message.
  • the speech synthesis unit 45 performs speech synthesis on the response message from the automatic response engine 44, generates a synthesized sound corresponding to the response message, and supplies the synthesized sound to the speaker 36.
  • the speaker 36 outputs the synthesized sound supplied from the voice synthesis unit 45. Thus, a voice response message is output.
  • the speaker 36 functions as an output unit that outputs a response message.
  • the response message can also be displayed on the display (not shown) provided on the agent robot 30 (output from the display).
  • FIG. 10 is a diagram for explaining an outline of acquisition of privacy level management information in the agent robot 30. As shown in FIG.
  • a parent / guardian of a child accesses the server 20 by operating the communication terminal 10, and from the communication terminal 10 to the server 20, for example, persons such as acquaintances and friends Information necessary for generating privacy level management information, such as personal information such as face image data and voice data, closeness level, and which information is to be disclosed.
  • the server 20 generates privacy level management information using information necessary for generating privacy level management information transmitted from the communication terminal 10, and registers it in the privacy level management table (FIG. 5) of the privacy level management database 23. Do.
  • the agent robot 30 requests the server 20 to acquire privacy level management information, and acquires privacy level management information registered in the privacy level management database 23 (FIG. 2) of the server 20.
  • the agent robot 30 stores the privacy level management information acquired from the server 20 in its own privacy level management database 42 (FIG. 9).
  • the agent robot 30 sets the response privacy level for the response partner according to the privacy level management information stored in its own privacy level management database 42, and generates a response message according to the response privacy level.
  • FIGS. 11 and 12 are views showing examples of the user information registration screen displayed on the communication terminal 10 when the user information is registered in the server 20.
  • FIG. 11 is a diagram showing examples of the user information registration screen displayed on the communication terminal 10 when the user information is registered in the server 20.
  • a parent / guardian needs to register user information in order to receive a service from the server 20. Registration of user information is performed, for example, by accessing the server 20 from the communication terminal 10. The user can register user information after having the server 20 issue a user ID and a password.
  • the user who has purchased the agent robot 30 operates the communication terminal 10 to input a user ID and a password, logs on to the server 20, and requests registration of user information.
  • the server 20 transmits a user information registration screen for registration of user information to the communication terminal 10, whereby, as shown in FIG. A window 100 as a screen is displayed.
  • a "user ID”, a "list of registered agents", and a "list of registered areas" are displayed.
  • the “user ID” displays the user ID input by the user at the time of logging on to the server 20.
  • a list of agent individual IDs registered in the agent individual ID management table associated with the user ID in the user management table is displayed. Further, on the right side of the “list of registered agents”, a new registration button 101 operated when newly registering an agent individual ID of the agent robot 30 is provided.
  • the user can perform so-called product registration of the agent robot 30.
  • the user operates the new registration button 101.
  • the communication terminal 10 displays a window 110.
  • the user inputs the individual agent ID of the agent robot 30 which wants to register the product into the window 110 and operates the registration button 111 at the bottom of the window 110 to register the individual agent ID of the agent robot 30 which wants to register the product. be able to. That is, the agent individual ID input to the window 110 is registered in the agent individual ID management table (FIG. 3) associated with the user ID of the user in the server 20, whereby the agent individual input to the window 110 The ID is added to the "registered agent list" of the window 100.
  • the agent individual ID management table FIG. 3
  • a list of area information registered in the area information ID management table associated with the user ID is displayed in the user management table (FIG. 3). Further, on the right side of the "list of registered areas", a new registration button 102 operated when registering area information newly is provided.
  • the user can register the area.
  • area registration the user operates a new registration button 102.
  • a window 120 is displayed on the communication terminal 10.
  • the user may enter, for example, the area name, latitude, and longitude of the area to be registered into the window 120 and operate the registration button 121 at the bottom of the window 120 to register the area to be registered. it can. That is, the area name, latitude, and longitude input to the window 120 are registered in the area ID management table (FIG. 3) associated with the user ID of the user in the server 20, and are thereby input to the window 120
  • the acquired area information is added to the "registered area list" of the window 100.
  • the user can register an area name, latitude, and longitude, such as a home, a school, a school, a frequently visited area such as the nearest station, in the area ID management table.
  • an area name, latitude, and longitude such as a home, a school, a school, a frequently visited area such as the nearest station.
  • a predetermined range centered on the latitude and longitude registered in the area ID management table for example, a range within a radius of 500 m or the like is treated as an area where the user appears.
  • a list of profile data genres registered in the profile data genre management table (FIG. 4) is displayed. Further, on the right side of the “profile data genre list”, a new registration button 103 operated when registering a profile data genre anew is provided.
  • the user can register the profile genre.
  • the user operates the new registration button 103.
  • the communication terminal 10 displays a window 130.
  • the user inputs a profile data genre to be registered in the window 130, checks the confidential check box 132 as necessary, and operates the registration button 131 at the bottom of the window 130 to make a new entry.
  • Profile data genre can be registered. That is, the new profile data genre input to the window 130 is registered in the profile data genre management table (FIG. 4) associated with the user ID of the user in the server 20, and is thereby input to the window 130.
  • the profile data genre is added to the “profile data genre list” of the window 100.
  • a top secret check indicating whether the profile data genre input to the window 130 is a (top secret) genre that the user wants to keep secret is the profile data genre management table (FIG. 4). Registered in).
  • the profile data of the profile data genre for which the top secret check is registered is the one other than the person whose conversation permission is explicitly registered in the privacy level management information registration screen (FIG. 13) described later. Not disclosed (not included in response message).
  • a list of (the questions of) profile data registered in the profile data management table (FIG. 4) is displayed. Further, on the right side of the "profile data list", a new registration button 104 operated when registering profile data anew is provided.
  • the user can register the profile data.
  • the user operates the new registration button 104.
  • the communication terminal 10 displays a window 140.
  • the window 140 has a selection box 142 for displaying a profile data genre registered in the profile data genre management table (FIG. 4) in a pull-down menu, an input box 143 for inputting a question of profile data, and ) An input box 144 for inputting an answer is displayed.
  • the user selects a profile data genre from the pull-down menu of the selection box 142 in the window 140, and inputs a question serving as profile data and an answer to the question in the input boxes 143 and 144, respectively.
  • New profile data can be registered by operating the registration button 141 at the bottom. That is, the new profile data input in window 140, that is, the profile data genre selected in selection box 142, the question input in input box 143, and the answer input in input box 144 are stored in server 20.
  • Profile data management table (FIG. 4) associated with the user ID of the user of the communication terminal 10, thereby causing (the question of) profile data newly input in the window 140 to Added to "Data List".
  • the profile data genre displayed in the pull-down menu in the selection box 142 of the window 140 is the profile data genre registered in the profile data genre management table (FIG. 4) of the user management database 22 (FIG. 2). Further, the questions input in the input boxes 143 and 144 of the window 140 and the answers to the questions are paired and registered as profile data in the profile data management table (FIG. 4) of the user management database 22.
  • the registration button 105 at the bottom of the window 100 is, for example, similar to the registration button 111, the registration button 121, the registration button 131, and the registration button 141, the information input to the window 100 is stored in the user management database of the server 20. It is operated when registering in 22 (FIG. 3).
  • FIG. 13 is a diagram showing an example of the privacy level management information registration screen displayed when the privacy level management information is registered in the server 20. As shown in FIG.
  • the user operates the communication terminal 10 to input a user ID and a password, logs on to the server 20, and requests registration of privacy level management information.
  • the server 20 transmits the privacy level management information registration screen to the communication terminal 10 in response to the request from the communication terminal 10, and as a result, as shown in FIG. Window 150 is displayed.
  • a name input field 151 a face picture selection button 152, a face picture icon 153, an audio file input button 154, an audio file file name 155, a conversation permission field 156, An area column 158 and a check box 160 are displayed.
  • the name of the person registering the privacy level management information is input.
  • the user inputs the name of a person who wants to register privacy level management information in the input field 151.
  • the name entered in the input field 151 is registered as the name of the personal information in the privacy level management table (FIG. 5).
  • the face picture selection button 152 is operated to designate (a file of) face image data of a person whose privacy level management information is to be registered.
  • face picture selection button 152 is operated and face image data is designated, an icon obtained by reducing the face image data is displayed as a face picture icon 153.
  • (the file of) face image data specified by the operation of the face picture selection button 152 is transmitted from the communication terminal 10 to the server 20.
  • the server 20 receives face image data from the communication terminal 10, and extracts face feature data from the face image data.
  • the face feature amount data is registered in the personal information of the privacy level management table (FIG. 5).
  • the audio file input button 154 is operated to designate (a file of) audio data of a person who registers privacy level management information.
  • the audio file input button 154 is operated and audio data is designated, the file name of the audio data is displayed as the file name 155 of the audio file.
  • (the file of) the audio data designated by the operation of the audio file input button 154 is transmitted from the communication terminal 10 to the server 20.
  • the server 20 receives voice data from the communication terminal 10 and extracts voiceprint data from the voice data. This voiceprint data is registered in the personal information of the privacy level management table (FIG. 5).
  • the conversation permission column 156 the profile data genres registered in the profile data genre management table (FIG. 4) of the user management database 22 are displayed. Further, on the right side of each of the profile data genres displayed in the conversation permission column 156, a button 157 operated when setting the registered privacy level is provided.
  • conversation permission column 156 the user can register a genre (profile data genre) for permitting conversation with a person who registers privacy level management information in window 150 by operating button 157. For example, each time the button 157 is operated, it is alternately switched between permission (circle) and disapproval (cross) in the conversation.
  • the privacy level management table FIG. 5
  • the registered privacy level of the profile data genre in which the conversation is permitted is registered in 1
  • the registered privacy level of the profile data genre in which the conversation is disapproved is registered in 0. Ru.
  • the area column 158 displays the area name of the area registered in the area ID management table (FIG. 3) of the user management database 22. Further, on the right side of each area name displayed in the area column 158, a button 159 operated when setting an area where a person who registers privacy level management information meets is provided.
  • the user can register an area in the window 150 where a person who registers privacy level management information is met by operating the button 159.
  • the button 159 For example, each time the button 159 is operated, it is an area where the area name of the area on the left side may meet the person who registers the privacy level management information in the window 150 (circle) and the area not so It is alternately switched to the (cross).
  • the area ID of the area name for the button 159 switched to a circle is registered in the privacy level management information (FIG. 5).
  • the check box 160 is checked when sharing personal information of a person who registers privacy level management information in the window 150 (hereinafter, also referred to as a registration target person) with other users.
  • the personal information of the privacy level management information obtained from the information input to the window 150 in which the check box 160 is checked is copied in the server 20 as the personal information of the privacy level management information of the other user.
  • the server 20 generates privacy level management information for the registration target person using the copied person information of the registration target person for the other users, and registers the privacy level management information in the privacy level management table (FIG. 5) of the other users.
  • the user checks the check box 160 in the window 150 to share the person information of the person to be registered, and in turn, the privacy level management information for the person to be registered with other users.
  • the privacy level management information for the registration target person by checking the check box 160, the privacy level management information for the person who has contact with a large number of people in a certain area It is possible to reduce the burden without the operation of registering the.
  • the sharing of privacy level management information as described above even when another user has never met the person to be registered (when the person of the person to be registered does not have face image data or voice data)
  • the privacy level management information for the registration target person is registered (added) in the privacy level management table of another user. Therefore, for example, when registering privacy level management information for a suspicious person who has encountered a user, the check box 160 is checked, and privacy level management information for the suspicious person is shared with other users. It can help.
  • FIG. 14 is a view for explaining a response example of the agent robot 30. As shown in FIG. 14
  • the agent robot 30 acquires face image data and voice data of the response partner by the camera 31 and the microphone 32 mounted on the agent robot 30, and extracts face feature data and voiceprint data from the face image data and voice data.
  • the agent robot 30 detects (specifies) personal information matching the face feature amount data and voiceprint data of the response partner from the privacy level management table (FIG. 5), and the registered privacy level associated with the personal information is Set the response privacy level for the response partner.
  • the agent robot 30 generates and outputs a response message according to the response privacy level for the response partner. For example, when the response privacy level to the correspondent is high, a response message disclosing personal information is generated and output from the speaker 36. That is, for example, as shown in FIG. 14A, if the response privacy level is high for the responder who is talking "Does your father stay at home?" "The father is away at present. Response message is generated and output from the speaker 36.
  • a response message (a response message in which disclosure of personal information is restricted) that does not disclose personal information is generated and output from the speaker 36. That is, for example, as shown to B of FIG. 14, when the response privacy level with respect to the response partner who has said "I'm alone?" Is low, a response message "Can't answer" is generated and output from the speaker 36 Be done.
  • the agent robot 30 determines the height or spine of the response partner based on the distance measured by the laser range finder. Can be recognized, and it can be determined whether the response partner is an adult or a child (for example, whether the height is 145 cm or less) based on the height or height of the response partner.
  • the agent robot 30 If it is determined that the response partner is an adult, the agent robot 30 is inferred that the response partner is a suspicious person (there is a high possibility), so the response privacy level is set low (so that personal information is not disclosed). can do. That is, the agent robot 30 sets the response privacy level to, for example, 0.
  • the agent robot 30 determines that the response partner is a child, it is inferred that the response partner is not a suspicious person (there is a high possibility), so the response privacy level is high (as personal information is disclosed). It can be set. That is, the agent robot 30 sets the response privacy level to, for example, one.
  • the agent robot 30 determines that the response partner is an adult, when the response partner has a child, there is a high possibility that the response partner is not a suspicious person, so the response privacy level is high (personal information Can be configured to publish
  • the agent robot 30 acquires the current location by the GPS, transmits it to the server 20, and acquires security information of the current location. be able to. Furthermore, the agent robot 30 can set the response privacy level based on the security information acquired from the server 20.
  • the agent robot 30 can set the response privacy level to be low (not to disclose personal information).
  • the agent robot 30 can set the response privacy level high (to release personal information).
  • the agent robot 30 acquires the current time by the clock, and sets the response privacy level based on the current time. be able to.
  • the agent robot 30 can set the response privacy level low (so as not to disclose personal information).
  • the agent robot 30 can set the response privacy level to be high (to disclose personal information) when the current time is a time of a time zone in which a suspicious person hardly finds out (for example, daytime time zone) .
  • the agent robot 30 can set the response privacy level, which is the privacy level at the time of response to the response partner, according to the information acquired by the camera 31, the microphone 32, and the sensor unit 33. Then, the agent robot 30 can generate a response message according to the response privacy level, and can respond to the utterance of the response partner.
  • FIG. 15 shows the persons of the privacy level management database 23 (FIG. 5) and the suspicious person management database 24 (FIG. 6), the face feature data extracted from the face image data of the response partner and the voiceprint data extracted from the voice data. It is a figure explaining an outline of processing of agent robot 30 when it does not match either of information.
  • the agent robot 30 receives the face image data of the answering party obtained by the camera 31 and the microphone 32, and It is possible to transmit voice data to the communication terminal 10, and entrust setting (determination) of the registration privacy level of the response partner to a parent / guardian as a user who uses the communication terminal 10.
  • the agent robot 30 transmits, for example, face image data of the response partner acquired by the camera 31 to the communication terminal 10.
  • the parent / guardian as the user of the communication terminal 10 receiving the face image data of the response partner from the agent robot 30 sees the face image data (the response partner shown in) displayed on the communication terminal 10 and On the other hand, in the window 150 (FIG. 13) as the privacy level management information registration screen, by operating the button 157, the registered privacy level (in the present embodiment, permission (circle) or disapproval (cross) in the conversation Set (input).
  • the setting of the registered privacy level is transmitted from the communication terminal 10 to the server 20, and newly registered as privacy level management information in the privacy level management table (FIG. 5) of the privacy level management database 23 (FIG. 5) of the server 20. Ru.
  • the agent robot 30 can subsequently specify a response partner that could not be specified this time.
  • FIG. 16 is a flowchart for explaining registration processing of privacy level management information.
  • privacy level management information registration process privacy level management information is registered in the server 20 according to the operation of the communication terminal 10.
  • step S11 the user (parent / guardian) of communication terminal 10 operates face photograph selection button 152 in window 150 (FIG. 13) to register face image data of a person to be registered whose registration privacy level is to be registered. After waiting, the communication terminal 10 transmits the face image data to the server 20, and the process proceeds to step S21.
  • step S21 the server 20 receives face image data from the communication terminal 10, extracts face feature amount data from the face image data, and the process proceeds to step S12.
  • step S12 the user (parent / guardian) of the communication terminal 10 waits for the voice data of the person to be registered to be registered by operating the voice file input button 154 in the window 150 (FIG. 13).
  • the terminal 10 transmits the voice data to the server 20, and the process proceeds to step S22.
  • step S22 the server 20 receives voice data from the communication terminal 10, extracts voiceprint data from the voice data, and the process proceeds to step S13.
  • step S13 after waiting for the user of communication terminal 10 to operate button 157 of conversation permission column 156 in window 150 (FIG. 13), communication terminal 10 responds to the operation of button 157 to register the person to be registered.
  • the registration privacy level is set, and the process proceeds to step S14.
  • step S14 after waiting for the user of the communication terminal 10 to operate the button 159 of the area column 158 in the window 150 (FIG. 13), the communication terminal 10 displays a person to be registered according to the operation of the button 159.
  • An area hereinafter, also referred to as an appearance area
  • the process proceeds to step S15.
  • step S15 the communication terminal 10 causes the person information of the person to be registered to appear in the appearance area of the person to be registered, depending on whether the user of the communication terminal 10 checks the check box 160 in the window 150 (FIG. 13). Shareability information indicating whether to share with another user is set, and the process proceeds to step S16.
  • step S16 the communication terminal 10 transmits the registered privacy level, appearance area, and sharing availability information set in steps S13 to S15 to the server 20, and the process proceeds to step S23.
  • step S23 the server 20 receives the registration privacy level, the appearance area, the sharing availability information, and the name of the registration target person transmitted from the communication terminal 10. Furthermore, the server 20 adds person ID to the face feature amount data and voiceprint data extracted in steps S21 and S22 and the name of the registration target person from the communication terminal 10 to generate person information. Then, the server 20 associates the person information with the registration privacy level of the person to be registered from the communication terminal 10, the appearance area (the area ID representing the area), the sharing availability information, and the default update date and time. Generate privacy level management information for the person to be registered.
  • the server 20 registers the privacy level management information generated for the registration target person in the form of adding it to the privacy level management table (FIG. 5) of the privacy level management database 23, and the process proceeds from step S23 to step S24. .
  • step S24 the server 20 updates the update date and time of the privacy level management information registered in the privacy level management table (FIG. 5) with the current date and time, and the registration process of the privacy level management information ends.
  • the face image data and voice data of the person to be registered are transmitted from the communication terminal 10 to the server 20
  • the server 20 privacy level management information in which a registration privacy level or the like is associated with personal information including face feature amount data and voiceprint data is registered.
  • FIGS. 17 and 18 are flowcharts for explaining the sharing process of the privacy level management information.
  • personal information of privacy level management information of one user is shared as personal information of privacy level management information of another user, so that privacy level management information of the other user is Automatically generated. Therefore, it is possible to reduce the burden of an operation of another user registering privacy level management information.
  • step S31 the communication terminal 10 performs the same process as the registration process of the privacy level management information of FIG. 16, and the process proceeds from step S31 to step S41.
  • step S41 the server 20 performs the same process as the registration process of the privacy level management information of FIG. 16, and processes the privacy level management information for the person to be registered in the privacy level management table of the privacy level management database 23 (FIG. 5). Register on Then, the process proceeds from step S41 to step S42.
  • step S42 the server 20 determines whether the sharing availability information of the privacy level management information for the person to be registered indicates that the person information of the person to be registered is to be shared with other users.
  • step S42 If it is determined in step S42 that the sharing availability information indicates that personal information is to be shared with another user, the process proceeds to step S43. On the other hand, in step S42, when the sharing availability information does not indicate that the personal information is to be shared with other users, the sharing processing of the privacy level management information ends.
  • step S43 the server 20 displays another user (other than the user of the communication terminal 10 who has registered the privacy level management information of the registration target person) appearing in the appearance area represented by the area ID of the privacy level management information (FIG. 5) for the registration target person. Search for).
  • the server 20 searches other users who have registered in the area ID management table (FIG. 3) an area overlapping the appearance area represented by the area ID of the privacy level management information (FIG. 5) for the person to be registered. Then, the process proceeds from step S43 to step S44.
  • step S44 the server 20 searches another user who registers in the area ID management table (FIG. 3) an area overlapping the appearance area represented by the area ID of the privacy level management information (FIG. 5) for the person to be registered. Based on the result, it is determined whether such other users (hereinafter also referred to as overlapping area users) exist.
  • step S44 If it is determined in step S44 that the overlapping area user is present, the process proceeds to step S45. On the other hand, when it is determined in step S44 that the overlapping area user does not exist, the sharing process of the privacy level management information ends.
  • step S45 the server 20 copies the privacy level management information for the registration target person by copying the personal information of the privacy level management information for the registration target person as the personal information for the privacy level management information of the duplicate area user.
  • the privacy level management table FIG. 5
  • the server 20 generates privacy level management information for the registration target person of the overlapping area user by copying the privacy level management information for the registration target person of the user of the communication terminal 10 other than the registration privacy level. .
  • the profile data genre of the registered privacy level may differ depending on the individual user, that is, the profile data genre registered by the user of the communication terminal 10 (FIG. 4) and the overlapping area user Since the registered profile data genre may be different from the registered profile data genre, the server 20 sets the registered privacy level of the privacy level management information for the registration target person of the overlapping area user as follows.
  • step S45 the server 20 calculates the average value of registered privacy levels registered for each profile data genre in the privacy level management information for the registration target person of the user of the communication terminal 10, and the process proceeds to step S46. Go to
  • step S46 the server 20 determines whether the average value of the registered privacy levels in the privacy level management information for the registration target person of the user of the communication terminal 10 exceeds a certain value, for example, 50%.
  • step S46 If it is determined in step S46 that the average value of the registered privacy levels exceeds the predetermined value, the process proceeds to step S47 in FIG.
  • the server 20 is profile data that is not strictly checked in the profile data genre management table (FIG. 4) of the profile data genres in the privacy level management information (FIG. 5) for the registration target person of the overlapping area user. For the genre, set the registration privacy level to make the profile data public (set the registration privacy level to 1).
  • the server 20 does not disclose the profile data for the registration privacy level of the profile data genre for which the confidential check is attached in the profile data genre management table. Set the level (set the registration privacy level to 0). Then, the process proceeds from step S47 to step S49.
  • step S46 of FIG. 17 determines whether the average value of the registered privacy levels does not exceed the predetermined value.
  • step S48 the server 20 sets the registration privacy level so as not to disclose the profile data for the profile data genre in the privacy level management information (FIG. 5) for the registration target person of the overlapping area user (registration privacy Set the level to 0). Then, the process proceeds from step S48 to step 49.
  • step S49 the server 20 updates the update date and time of the privacy level management information for the registration target person of the overlapping area user to the current date and time, and the sharing process of the privacy level management information ends.
  • the personal information of the privacy level management information for the registration target person is shared with the overlapping area user as the personal information of the privacy level management information of the overlapping area user. Furthermore, in the sharing process of the privacy level management information, privacy level management information for the registration target person is generated using the shared person information, and registered in the privacy level management table (FIG. 5) of the overlapping area user. Thus, the burden of the overlapping area user on setting the registration privacy level can be reduced.
  • FIG. 19 is a flowchart illustrating the process of acquiring privacy level management information.
  • the privacy level management information (FIG. 5) stored in the privacy level management database 42 (FIG. 9) of the agent robot 30 is updated.
  • step S71 the agent robot 30 transmits the agent individual ID of its own to the server 20, and makes a request for acquiring the update date and time of the privacy level management information (FIG. 5). Then, the process proceeds from step S71 to step S61.
  • step S61 the server 20 refers to the user management database 22 (FIG. 3) and the privacy level management database 23 (FIG. 5) in response to the acquisition request from the agent robot 30, and transmits the agent transmitted from the agent robot 30. From the individual ID, the update date and time of the privacy level management information (FIG. 5) of the user of the user ID associated with the agent individual ID is specified and transmitted to the agent robot 30. Then, the process proceeds from step S61 to step S72.
  • step S72 the agent robot 30 updates the privacy level management information from the server 20 and the privacy level management information already downloaded (stored) in its own privacy level management database 42 (FIG. 9) (FIG. 5). The comparison is made with the date and time of the update and it is determined whether or not there is privacy level management information not downloaded to the privacy level management database 42 in the server 20.
  • step S72 If it is determined in step S72 that the agent robot 30 has privacy level management information that has not been downloaded to its own privacy level management database 42 in the privacy level management database 23 of the server 20, the process proceeds to step S73. On the other hand, when the agent robot 30 determines in step S72 that there is no privacy level management information not downloaded to the privacy level management database 42 in the privacy level management database 23 of the server 20, privacy level management information acquisition processing Finish.
  • step S73 the agent robot 30 transmits the agent individual ID of itself to the server 20, makes a request for acquiring privacy level management information not downloaded to the privacy level management database 42, and the process proceeds to step S62.
  • step S62 the server 20 receives the privacy level of the privacy level management information of the user of the user ID associated with the agent individual ID transmitted from the agent robot 30 in response to the acquisition request from the agent robot 30.
  • the privacy level management information not downloaded to the management database 42 is transmitted to the agent robot 30. Then, the process proceeds from step S62 to step S74.
  • step S74 the agent robot 30 stores the privacy level management information transmitted from the server 20 in its own privacy level management database 42. Then, the process of acquiring the privacy level management information ends.
  • the agent robot 30 acquires (downloads) privacy level management information not downloaded to the privacy level management database 42 according to the update date and time of the privacy level management information. Since the stored contents of the privacy level management database 42 are updated, the privacy level management information stored in the privacy level management database 42 can be updated quickly.
  • FIG. 20 to FIG. 24 are flowcharts for explaining the response privacy level setting process.
  • the response privacy level at the time of response to the response partner is set.
  • step S81 the agent robot 30 captures an image of the face of the response partner with the camera 31, extracts face feature amount data from the captured face image data, and the process proceeds to step S82.
  • step S82 the agent robot 30 collects the voice of the response partner with the microphone 32, extracts voiceprint data from the collected voice data, and the process proceeds to step S83.
  • step S83 the agent robot 30 matches the face feature amount data and voiceprint data of the other party of the response with any one of the personal information registered in the privacy level management information (FIG. 5) stored in the privacy level management database 42. Determine if you want to
  • step S83 the agent robot 30 determines in step S83 that the face feature amount data and voiceprint data of the other party of the response match any of the personal information registered in the privacy level management information stored in the privacy level management database 42.
  • step S83 the agent robot 30 receives the face feature amount data and voiceprint data of the other party of the response as well as the personal information registered in the privacy level management information (FIG. 5) stored in the privacy level management database 42. If it is determined that they do not match, the process proceeds to step S101 in FIG.
  • step S84 the agent robot 30 acquires the registered privacy level associated with the person's information matching the face feature amount data and voiceprint data of the response partner, sets the response privacy level as the response privacy process shown in FIG. The process proceeds to step S151.
  • step S101 of FIG. 21 the agent robot 30 transmits the face feature amount data and voiceprint data of the response partner to the server 20, and the suspicious person personal information of the suspicious person registered in the suspicious person management database 24 (FIG. 6) The process proceeds to step S91, requesting to inquire whether it matches any of.
  • step S91 the server 20 refers to the suspicious person management database 24 in response to a request for inquiry from the agent robot 30, and matches the face feature data and voiceprint data of the response partner transmitted from the agent robot 30. Search for suspicious person information. Then, the server 20 transmits the search result of the suspicious person personal information to the agent robot 30, and the process proceeds from step S91 to step S102.
  • step S102 the agent robot 30 determines, based on the search result of the suspicious person personal information transmitted from the server 20, whether the response partner is a suspicious person.
  • step S102 When it is determined in step S102 that the response partner is a suspicious person, that is, the face feature amount data and voiceprint data of the response partner match any of the suspicious person personal information registered in the suspicious person management database 24. In the case, the process proceeds to step S103. On the other hand, when it is determined in step S102 that the answering partner is not a suspicious person, that is, the face feature amount data and voiceprint data of the answering opponent do not match any of the suspicious person personal information registered in the suspicious person management database 24. In the case, the process proceeds to step S131 in FIG.
  • step S103 the agent robot 30 sets the response privacy level so that the conversation is disabled for all profile data genres with respect to the response partner who is a suspicious person. Then, the process proceeds to step S151 in FIG.
  • step S131 of FIG. 22 the agent robot 30 is registered in the personal information of the privacy level management information stored in the privacy level management database 42 (FIG. 9) and the suspicious person management database 24 (FIG. 6) Person) Because there is no person information that matches the face feature amount data and voiceprint data of the answering party in the person information, the agent robot 30 determines that the answering party is an unknown person and the answering party is unknown A message (hereinafter, also referred to as an unknown message) to the communication terminal 10. In addition, the agent robot 30 transmits, to the communication terminal 10, the face image data and the voice data of the response partner who is an unknown person, together with the unknown message. Then, the process proceeds from step S131 to step S111.
  • the agent robot 30 transmits, to the communication terminal 10, the face image data and the voice data of the response partner who is an unknown person, together with the unknown message.
  • step S111 the communication terminal 10 receives the face image data and the voice data of the response partner who is the unknown person from the agent robot 30. Then, the user of the communication terminal 10 sees an unknown person reflected in the face image data of the other party who is the unknown person received from the agent robot 30, and operates as a privacy level management information registration screen for the unknown person. By operating the button 157 in the window 150 (FIG. 13), the registered privacy level is set. The communication terminal 10 transmits, to the server 20, face image data and voice data of an unknown person together with the registered privacy level set by the user. Then, the process proceeds from step S111 to step S121.
  • step S121 the server 20 extracts face feature amount data and voiceprint data from the face image data and voice data of the response partner who is the unknown person transmitted from the communication terminal 10, and the face feature amount data and By associating the registered privacy level from the communication terminal 10 with the personal information including voiceprint data, privacy level management information (FIG. 5) for an unknown person is generated.
  • the server 20 registers the privacy level management information in the privacy level management database 23 (FIG. 5), and the process proceeds from step S121 to step S122.
  • step S122 the server 20 updates the update date and time of the privacy level management information for the unknown person to the current date and time, and transmits to the communication terminal 10 that the privacy level management information has been registered. Then, the process proceeds from step S122 to step S112.
  • step S112 in response to the fact that the privacy level management information transmitted from the server 20 has been registered, the communication terminal 10 completes the setting of the registration privacy level in the agent robot 30 (the privacy level management information is registered). Send a message. Then, the process proceeds from step S112 to step S132.
  • step S132 in response to the completion of the setting of the privacy level from the communication terminal 10, the agent robot 30 performs the privacy level management information acquisition process described in FIG. 19, and the privacy level management database 42 (FIG. 9). The stored contents of are updated to the state where the privacy level management information (FIG. 5) for the unknown person is registered. Then, the process proceeds from step S132 to step S133.
  • step S133 the agent robot 30 matches the face feature amount data and voiceprint data of the other party who is the unknown person from the privacy level management information (FIG. 5) stored in the privacy level management database 42 (FIG. 9).
  • the registered privacy level associated with the person information to be acquired is acquired, and the registered privacy level is set to the response privacy level. Then, the process proceeds from step S133 to step S151 in FIG.
  • step S151 the agent robot 30 acquires the current location by the GPS function of the sensor unit 33 (FIG. 9), transmits the current location to the server 20, and requests security information on security of the current location. Then, the process proceeds from step S151 to step S141.
  • step S141 the server 20 receives the current location from the agent robot 30.
  • the server 20 refers to the local security information database 25 and acquires the security level indicating the security level of the agent robot 30 at the current location.
  • the server 20 transmits the security level acquired from the local security information database 25 to the agent robot 30. Then, the process proceeds from step S141 to step S152.
  • step S152 the agent robot 30 determines whether the security level of the current location is low (poor security) based on the security level transmitted from the server 20.
  • step S152 determines in step S152 that the security level of the current location is lower (than a predetermined threshold)
  • the process proceeds to step S153.
  • the agent robot 30 determines in step S152 that the security level of the current location is high (security is good)
  • the process skips step S153 and proceeds to step S154.
  • step S153 since the security level of the current location is bad, the agent robot 30 sets the response privacy level so as to disable the conversation for all profile data genres. For example, the agent robot 30 sets the response privacy level (for all profile data genres) to zero. Then, the process proceeds from step S153 to step S154.
  • step S154 the agent robot 30 recognizes the current time by the clock of the sensor unit 33 (FIG. 9), and the current time is a time zone in which a suspicious person is likely to appear, for example, night (21: 00-5: It is determined whether it is the time of the time zone of 00).
  • step S154 If it is determined in step S154 that the current time is the time in a time zone in which a suspicious person is likely to come out, the process proceeds to step S155. On the other hand, when it is determined in step S154 that the current time is not the time of the time zone in which a suspicious person is likely to come out, the process skips step S155 and proceeds to step S161 in FIG.
  • step S155 since the current time is a time zone during which a suspicious person is likely to appear, the agent robot 30 sets the response privacy level so as to disallow conversation for all profile data genres. For example, the agent robot 30 sets the response privacy level to 0. Then, the process proceeds from step S155 to step S161 in FIG.
  • step S161 the agent robot 30 calculates the heights of all persons shown in the face image data captured by the camera 31, using the distance obtained by the laser range finder of the sensor unit 33 (FIG. 9). Then, the process proceeds from step S161 to step S162.
  • step S162 the agent robot 30 determines whether the height of any person shown in the face image data is, for example, less than 145 cm.
  • step S162 determines in step S162 that the height of any person in the face image data is less than 145 cm, that is, there is a high possibility that a child is included in the person in the face image data.
  • the process proceeds to step S163.
  • the agent robot 30 determines in step S162 that the height of any person in the face image data is not less than 145 cm, that is, there is a high possibility that no child is included in the person in the face image data. If so, the response privacy level setting process ends.
  • step S163 if the person included in the face image data includes a child, it is inferred that the response partner is unlikely to be a malicious suspicious person, so the agent robot 30 performs a confidential check.
  • Set response privacy level to allow conversation for profile data genres that are not on. For example, the agent robot 30 sets the response privacy level (of the profile data genre without any top secret check out of all profile data genres) to 1. Then, the response privacy level setting process ends.
  • FIG. 25 is a flowchart for explaining the response process.
  • a response message for the utterance of the response partner is generated and output.
  • step S171 the agent robot 30 analyzes the utterance content of the response partner using the voice data of the response partner collected by the microphone 32, and the process proceeds to step S172.
  • step S172 the agent robot 30 intermingles the contents of the profile data of the profile data genre for which the conversation is permitted according to the response privacy level set in the response privacy level setting process of FIGS. 20 to 24.
  • a response message is generated in which the content of the message (text data), that is, the profile data of the profile data genre for which the conversation is disallowed is restricted. Then, the process proceeds from step S172 to step S173.
  • step S173 the agent robot 30 performs speech synthesis on the generated response message, and generates a synthesized sound corresponding to the response message. Then, the agent robot 30 outputs the synthesized sound from the speaker 36, and in response to the other party, the response process ends.
  • the agent robot 30 sets the response privacy level representing the degree of disclosure of the profile data according to the response partner, and generates a response message according to the response privacy level. Therefore, the agent robot 30 can make a response in which the content of the disclosed personal information is limited, according to the other party.
  • agent robot 30 by wearing and carrying the agent robot 30, it is judged (to the privacy level of) how far personal information is to be spoken, according to the person who talks to the child, Can respond according to the
  • the agent robot 30 can appropriately respond the personal information in accordance with the response partner.
  • the agent robot 30 can refer to the personal information registered by the parent or the protector who is the user of the agent robot 30 in the server 20, and can share the personal information registered by other users, so that the user is a person Even if the response partner does not register information, it is possible to specify the response partner.
  • the agent robot 30 has a laser range finder (distance sensor), GPS, and a sensor unit 33 for sensing a clock and various other physical quantities, thereby taking into consideration the current situation of the child carrying the agent robot 30. You can set the response privacy level.
  • part or all of the information processing unit 35 can be provided in the server 20 instead of the agent robot 30.
  • setting of the response privacy level is performed by the privacy level determination engine 43 of the agent robot 30 as the setting unit
  • setting of the response privacy level is performed by the agent robot 30 to the server 20 May be performed by the server 20 by transmitting the face image data and the voice data.
  • the server 20 identifies a person from the face image data and voice data of the response partner transmitted from the agent robot 30, that is, it extracts the face feature data extracted from the face image data of the response partner and the voice data. It is possible to specify person information matching the voiceprint data, set a response privacy level according to the registered privacy level associated with the person information, and transmit it to the agent robot 30.
  • the generation of the response message is performed by the automatic response engine 44 of the agent robot 30 as the generation unit
  • the generation of the response message is performed by the agent robot 30 to the server 20 and a face image of the response partner. It may be performed by the server 20 by transmitting data and voice data.
  • the server 20 can set the response privacy level from the face image data and the voice data of the response partner transmitted from the agent robot 30 in the same manner as the agent robot 30. Further, the server 20 can generate a response message responsive to the voice data from the agent robot 30 according to the response privacy level, and can transmit the response message to the agent robot 30.
  • response message is output as voice in FIG. 9, the response message may be displayed on the screen instead of output as voice.
  • the agent robot 30 disclosed personal information when the response privacy level is 1 and does not disclose personal information when the response privacy level is 0, but the response privacy level is three or more.
  • the response privacy level a real value in the range of 0 to 1 can be adopted. Then, according to such a real-valued response privacy level, it is possible to generate a response message in which the content of personal information is limited.
  • the registration privacy level a value in the same range as the response privacy level can be adopted.
  • the relationship between the actual value response privacy level and the response message in which the content of personal information is restricted according to the response privacy level is learned, for example, by deep learning, and the response message is generated using the learning result. can do.
  • FIG. 26 is a view for explaining another application example of the agent robot 30. As shown in FIG.
  • FIG. 26 shows, for example, a usage example of an agent robot 30 used as a home agent, having a relationship between a child who is adolescent and does not talk very much with his / her parents, and a parent whose children try to talk with concern. It is done.
  • the agent robot 30 When the agent robot 30 is used as a home agent as described above, the agent robot 30 is used at home. Therefore, the agent robot 30 as a home agent can be configured as a stationary type instead of the portable type for carrying shown in FIG.
  • a child uses the communication terminal 10 to transmit, to the server 20, personal level information such as face image data and voice data of a parent, and privacy level management information including a registered privacy level.
  • the agent robot 30 uses the privacy level management information registered in the privacy level management database 23 of the server 20 to the parent instead of the child by registering in advance in the privacy level management database 23 (FIG. 2). Response can be made.
  • FIG. 27 is a flowchart for explaining registration processing of privacy level management information when the agent robot 30 is used as a home agent.
  • privacy level management information (FIG. 5) is registered in the server 20 according to the operation of the communication terminal 10 by a child.
  • the communication terminal 10 waits for the child to operate the face picture selection button 152 in the window 150 displayed on the communication terminal 10 to register face image data of the parent whose registration privacy level is to be registered, and the communication terminal 10 performs step S201. , The face image data of the parent is transmitted to the server 20, and the process proceeds to step S211.
  • step S211 the server 20 receives the face image data of the parent transmitted from the communication terminal 10, extracts the face feature amount data from the face image data of the parent, and the process proceeds to step S202.
  • step S202 the voice data of the parent is transmitted to the server 20, and the process proceeds to step S212.
  • step S212 the server 20 receives the voice data of the parent transmitted from the communication terminal 10, extracts voiceprint data from the voice data of the parent, and the process proceeds to step S203.
  • step S203 After waiting for the child to operate button 157 of conversation permission column 156 in window 150 (FIG. 13) displayed on communication terminal 10, communication terminal 10 receives the parent in response to the operation of button 157 in step S203. Is set, and the process proceeds to step S204.
  • step S204 After waiting for the child to operate the button 159 of the area column 158 in the window 150 (FIG. 13) displayed on the communication terminal 10, the communication terminal 10 responds to the operation of the button 159 in step S204. An appearance area is set, and the process proceeds to step S205.
  • step S205 the communication terminal 10 sets the sharing availability information according to whether the user of the communication terminal 10 checks the check box 160 in the window 150 (FIG. 13), and the process proceeds to step S206.
  • the sharing availability information is set to not share (the check box 160 is not checked) by default.
  • step S206 the communication terminal 10 transmits the registered privacy level, appearance area, and sharing availability information set in steps S203 to S205 to the server 20, and the process proceeds to step S213.
  • step S213 the server 20 receives the registered privacy level, the appearance area, the sharing availability information, and the name of the parent transmitted from the communication terminal 10. Furthermore, the server 20 generates person information by adding a person ID to the face feature amount data and voiceprint data extracted in steps S211 and S212 and the name of the parent from the communication terminal 10. Then, the server 20 associates the personal information with the registered privacy level of the parent from the communication terminal 10, the (area ID representing the appearance area), the sharing availability information, and the default update date and time, Generate privacy level management information (FIG. 5).
  • the server 20 registers the privacy level management information (FIG. 5) generated for the parent in a form to be added to the privacy level management table (FIG. 5) of the privacy level management database 23, and the processing is from step S213 to step S214. Go to
  • step S214 the server 20 updates the update date and time of the privacy level management information (FIG. 5) registered in the privacy level management table (FIG. 5) with the current date and time, and the registration process of the privacy level management information ends.
  • the privacy level management information (FIG. 5) in which the registered privacy level and the like are associated with the personal information including the face feature amount data and voiceprint data of the parent.
  • the agent robot 30 sets the response message whose content is restricted according to the response privacy level set according to the registration privacy level set by the child. It can be output.
  • the child can cause the agent robot 30 to output a response message having different contents between the father and the mother, for example, by setting different registration privacy levels for the father and the mother.
  • FIG. 28 is a view for explaining still another use example of the agent robot 30. As shown in FIG.
  • FIG. 28 shows, for example, a situation in which a home delivery clerk visits a house where a parent goes shopping at a supermarket and a child is away at home alone.
  • the agent robot 30 can respond to the courier instead of the child without the child leaving the intercom.
  • the agent robot 30 can confirm a parent's schedule managed on the Internet, and generate and output a response message for prompting redelivery according to the response partner being a courier.
  • the agent robot 30 can also be used as a so-called smart speaker or the like.
  • FIG. 29 illustrates an example configuration of an embodiment of a computer in which a program for executing the above-described series of processes is installed.
  • a central processing unit (CPU) 201 executes various processes according to a program stored in a read only memory (ROM) 202 or a program loaded from a storage unit 108 to a random access memory (RAM) 203. Run.
  • the RAM 203 also stores data necessary for the CPU 201 to execute various processes.
  • the CPU 201, the ROM 202, and the RAM 203 are interconnected via a bus 204.
  • An input / output interface 205 is also connected to the bus 204.
  • the input / output interface 205 includes an input unit 206 including a keyboard and a mouse, an output unit 207 including a display including an LCD (liquid crystal display) and a speaker, a storage unit 208 including a hard disk and the like, a modem and a terminal.
  • a communication unit 209 configured of an adapter or the like is connected. The communication unit 209 performs communication processing via a network such as the Internet, for example.
  • a drive 210 is connected to the input / output interface 205 as necessary, and removable media 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory are appropriately attached, and a computer program read from them is It is installed in the storage unit 208 as necessary.
  • the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
  • the present technology can be configured as follows. (1) With a microphone that picks up sound, According to the responding counterparty, a privacy level representing the degree of disclosure of personal information about the user, which is the privacy level at the time of responding to the responder, is set. A response message responsive to the response partner's utterance collected by the microphone, the output unit outputting the response message obtained by generating the response message according to the response privacy level; Processing unit. (2) The information processing apparatus according to (1), wherein the output unit outputs the voice response message. (3) The information processing apparatus according to (1) or (2), further including: a setting unit configured to set the response privacy level. (4) The information processing apparatus according to any one of (1) to (3), further including: a generation unit that generates the response message.
  • the information processing apparatus according to any one of (1) to (4), wherein the response privacy level is set according to a registration privacy level which is the privacy level registered for the response counterpart.
  • the response privacy level is associated with the person information matching the response partner in privacy level management information in which person information on the person and the registered privacy level on the person corresponding to the person information are associated with each other.
  • the information processing apparatus which is set according to the registered privacy level.
  • the information processing apparatus according to (6).
  • the response privacy level corresponds to the registered privacy level associated with the person information matching the voice feature amount of the response partner obtained from the voice collected by the microphone in the privacy level management information.
  • the information processing apparatus according to (6) which is set.
  • (11) The information processing apparatus according to any one of (1) to (10), wherein the response privacy level is further set according to the current time.
  • the privacy level management information of the other user is generated by sharing the personal information of the privacy level management information of the user as the personal information of the privacy level management information of the other user (6
  • the information processing apparatus according to any one of (1) to (8).
  • the privacy level management information is associated with the person information, the registered privacy level, and area information representing an area in which the person corresponding to the person information appears.
  • the personal information of the privacy level management information of the user is shared as the personal information of the privacy level management information of the other user appearing in an area represented by the area information of the privacy level management information of the user
  • the information processing apparatus according to (13), wherein the privacy level management information of the other user is generated.
  • the information processing apparatus according to any one of (1) to (14), further including: a communication unit that receives the response message from the server.
  • a privacy level representing the degree of disclosure of personal information about the user, which is the privacy level at the time of responding to the responder, is set.
  • An information processing method including outputting and.
  • a privacy level representing the degree of disclosure of personal information about the user, which is the privacy level at the time of responding to the responder is set.
  • a response message responsive to the response partner's utterance collected by a microphone, wherein the response message obtained by generating the response message in which the disclosure of the personal information is restricted according to the response privacy level is output.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本技術は、相手に応じて開示する個人情報の内容を制限することができるようにする情報処理装置、情報処理方法、及び、プログラムに関する。 応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、応答相手に対する応答時のプライバシーレベルである応答プライバシーレベルが設定される。そして、マイクにより集音された応答相手の発話に応答する応答メッセージであって、応答プライバシーレベルに応じた応答メッセージが生成されて出力される。本技術は、例えば、ユーザの代わりに応答を行うエージェントロボットに適用できる。

Description

情報処理装置、情報処理方法、及び、プログラム
 本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、相手に応じて開示する個人情報の内容を制限することができるようにする情報処理装置、情報処理方法、及び、プログラムに関する。
 例えば、特許文献1には、プライバシーレベルにより公開が許容される公開プロファイル情報部分を用いて、ユーザにコンテンツ等の推薦を行う技術が記載されている。
特開2009-140051号公報
 例えば、子供が、街を歩いているときに、見知らぬ不審者から声をかけられて、犯罪に遭遇したり、個人情報を聞き取られたりする恐れがある。
 子供は、相手が知り合いである場合、自身で相手がだれであるかを判断することができる。しかしながら、相手が、例えば、自分の親の知り合い、又は、学校や地域の世話役等の子供が知らない身近な人物である場合、子供は、悪意を持った不審者であるかの判断をすることが困難である。
 一方、大人は、自分の個人情報をどこまで話すかを相手に応じて判断し、相手に応じて応答内容を変えることができる。しかしながら、子供は、個人情報をどこまで話すかを相手に応じて判断することが困難であるため、悪意をもった不審者に対して、話すべきではない個人情報を話す恐れがある。
 本技術は、このような状況に鑑みてなされたものであり、相手に応じて開示する個人情報の内容を制限することができるようにするものである。
 本技術の信号処理装置又はプログラムは、応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じた前記応答メッセージを生成することにより得られる前記応答メッセージを出力する出力部を備える情報処理装置又はそのような信号処理装置としてコンピュータを機能させるためのプログラムである。
 本技術の信号処理方法は、音声を集音することと、応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、前記マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じた前記応答メッセージを生成することにより得られる前記応答メッセージを出力することとを含む情報処理方法である。
 本技術の信号処理装置、信号処理方法、及び、プログラムにおいては、応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じた前記応答メッセージを生成することにより得られる前記応答メッセージが出力される。
 本技術によれば、相手に応じて開示する個人情報の内容を制限することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した情報処理システムの構成例を示すブロック図である。 サーバ20の構成例を示すブロック図である。 図2のユーザ管理データベース22の構成例を示す図である。 図3のユーザ管理テーブルに登録されるプロフィールデータジャンル及びプロフィールデータの構成例を示す図である。 図2のプライバシーレベル管理データベース23の構成例を示す図である。 図2の不審者管理データベース24の構成例を示す図である。 図1のエージェントロボット30の構成例の概要を示す外観図である。 図1のエージェントロボット30の利用例を示す図である。 エージェントロボット30の構成例を示すブロック図である。 エージェントロボット30におけるプライバシーレベル管理情報の取得の概要を説明する図である。 サーバ20にユーザ情報を登録するときに、通信端末10に表示されるユーザ情報登録画面の例を示す図である。 サーバ20にユーザ情報を登録するときに、通信端末10に表示されるユーザ情報登録画面の例を示す図である。 サーバ20にプライバシーレベル管理情報を登録するときに表示されるプライバシーレベル管理情報登録画面の例を示す図である。 エージェントロボット30の応答例を説明する図である。 エージェントロボット30の処理の概要を説明する図である。 プライバシーレベル管理情報の登録処理について説明するフローチャートである。 プライバシーレベル管理情報の共有処理について説明するフローチャートである。 プライバシーレベル管理情報の共有処理について説明するフローチャートである。 プライバシーレベル管理情報の取得処理について説明するフローチャートである。 応答プライバシーレベル設定処理について説明するフローチャートである。 応答プライバシーレベル設定処理について説明するフローチャートである。 応答プライバシーレベル設定処理について説明するフローチャートである。 応答プライバシーレベル設定処理について説明するフローチャートである。 応答プライバシーレベル設定処理について説明するフローチャートである。 応答処理について説明するフローチャートである。 エージェントロボット30の他の利用例を説明する図である。 エージェントロボット30がホームエージェントとして利用される場合の、プライバシーレベル管理情報の登録処理について説明するフローチャートである。 エージェントロボット30のさらに他の利用例を説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
 <1.第1の実施の形態>
 図1は、本技術を適用した情報処理システムの構成例を示すブロック図である。
 図1に示される情報処理システムは、通信端末10、サーバ20、及び、エージェントロボット30を備えて構成される。また、通信端末10、サーバ20、及び、エージェントロボット30それぞれの間では、インターネット、その他の図示せぬネットワークを介して、有線又は無線による通信が、必要に応じて行われる。
 通信端末10は、サーバ20と通信を行うことで、サーバ20上に登録(保管)する情報を送信する。また、通信端末10は、エージェントロボット30と通信を行うことで、エージェントロボット30から送信されてくる情報を受信する。
 サーバ20は、通信端末10から送信されてくる情報を受信してデータベースに登録する。また、サーバ20は、エージェントロボット30と通信を行うことで、データベースに登録されている情報をエージェントロボット30に送信する。さらに、サーバ20は、エージェントロボット30から送信されてくる情報を受信する。
 エージェントロボット30は、サーバ20からデータベースに登録されている情報を受信(取得)する。また、エージェントロボット30は、自身で取得した情報を通信端末10及びサーバ20に送信する。
 図2は、サーバ20の構成例を示すブロック図である。
 図2に示すように、サーバ20は、通信部21、ユーザ管理データベース22、プライバシーレベル管理データベース23、不審者管理データベース24、及び、地域の治安情報データベース25を備えて構成される。
 通信部21は、他の装置、例えば、図1の通信端末10やエージェントロボット30と通信し、情報の送受信を行う。
 ユーザ管理データベース22には、ユーザに関する個人情報を含むユーザ情報が登録される。
 プライバシーレベル管理データベース23には、例えば、人物の顔や音声の特徴量等を含む人物に関する人物情報、及び、その人物に対するユーザの個人情報の開示の程度を示すプライバシーレベルである登録プライバシーレベル等が登録される。
 不審者管理データベース24には、例えば、警察等の公共機関から提供(共有)される不審者の人物情報である不審者人物情報が登録される。
 地域の治安情報データベース25には、地域ごとの治安の程度を示す治安度が登録される。
 ここで、サーバ20は、クラウド上に仮想的に構築されていてもよい。
 図3は、図2のユーザ管理データベース22の構成例を示す図である。
 ユーザ管理データベース22には、ユーザ情報が、ユーザごとに登録される。図3では、ユーザ情報が、ユーザ管理テーブルとして登録される。
 図3に示すように、ユーザ管理テーブルには、ユーザ情報としての、例えば、ユーザID(Identification)、エージェント個体ID、エリア情報、プロフィールデータジャンル、及び、プロフィールデータ(個人情報)等が登録される。すなわち、ユーザ管理テーブルには、ユーザIDと、エージェント個体ID、エリア情報、プロフィールデータジャンル、及び、プロフィールデータとが対応付けられて登録される。
 ユーザIDは、例えば、エージェントロボット30を所有するユーザに対して割り当てられるユニークな識別番号である。
 エージェント個体IDは、エージェントロボット30に個々に与えられるユニークな識別番号であり、エージェント個体ID管理テーブルの形で登録される。図3に示すように、エージェント個体ID管理テーブルには、エージェント個体IDが、シーケンシャルな番号と対応付けられて登録される。エージェント個体ID管理テーブルには、複数のエージェント個体IDを登録することができる。したがって、ユーザは、複数のエージェントロボット30を所有している場合には、その複数のエージェントロボット30それぞれのエージェント個体IDをエージェント個体ID管理テーブルに登録することができる。
 エリア情報は、ユーザIDのユーザ(ユーザIDによって特定されるユーザ)が現れるエリアに関する情報であり、エリアID管理テーブルの形で登録される。エリアID管理テーブルには、例えば、エリア名称であるエリア名、及び、そのエリア名のエリアの緯度及び経度(緯度経度)が、シーケンシャルな番号と対応付けられて登録される。
 図4は、図3のユーザ管理テーブルに登録されるプロフィールデータジャンル及びプロフィールデータの構成例を示す図である。
 プロフィールデータジャンルは、プロフィールデータのジャンルを表し、プロフィールデータジャンル管理テーブルの形で登録される。図4に示すように、プロフィールデータジャンル管理テーブルには、例えば、プロフィールデータジャンル、及び、プロフィールデータジャンルがユーザにとって秘密にしたい(極秘の)ジャンルであるかどうかを表す極秘チェックが、シーケンシャルな番号と対応付けられて登録される。
 プロフィールデータは、ユーザの個人情報であり、プロフィール管理テーブルの形で登録される。図4に示すように、プロフィール管理テーブルには、例えば、プロフィールデータ及びジャンルが、シーケンシャルな番号と対応付けられて登録される。プロフィールデータは、質問と、その質問に対する回答とで構成される。ジャンルには、プロフィールデータジャンル管理テーブルにおいて、プロフィールデータのジャンルを表すプロフィールデータジャンルに対応付けられた番号が登録される。
 図5は、図2のプライバシーレベル管理データベース23の構成例を示す図である。
 プライバシーレベル管理データベース23には、プライバシーレベル管理テーブルが、ユーザごとに登録される。すなわち、プライバシーレベル管理テーブルは、ユーザIDに対応付けられている。
 プライバシーレベル管理テーブルには、例えば、ユーザのプライバシーを管理するためのプライバシーレベル管理情報が人物ごとに登録される。プライバシーレベル管理情報は、人物情報と、登録プライバシーレベル、エリアID、共有可否情報、及び、更新日時とが対応付けられて構成される。
 人物情報は、人物ID、顔特徴量データ、声紋データ、及び、氏名から構成される。
 人物IDは、プライバシーレベル管理テーブルに登録される人物に個々に与えられるシーケンシャルな識別番号である。
 顔特徴量データは、人物IDによって特定される人物の顔画像データから抽出された画像特徴量である。
 声紋データは、人物IDによって特定される人物の音声から抽出された音声特徴量である。
 氏名は、人物IDによって特定される人物の名前を表す。
 登録プライバシーレベルは、人物IDによって特定される人物に対して登録されたプライバシーレベルである。プライバシーレベルは、ユーザに関する個人情報を開示する程度を表し、以下では、人物IDによって特定される人物に対して登録されたプライバシーレベルを、登録プライバシーレベルという。
 ここでは、説明を簡単にするため、登録プライバシーレベルは、0又は1の2値をとることとする。登録プライバシーレベルが1である場合は、公開を許容する(個人情報を開示する)ことを表し、登録プライバシーレベルが0である場合は、公開を禁止する(個人情報を開示しない)ことを表す。
 図5では、登録プライバシーレベルは、プロフィールデータジャンルごとに登録されている。図5において、登録プライバシーレベルの下部の数字1,2,3,…は、プロフィールデータジャンル管理テーブル(図4)において、プロフィールデータジャンルに対応付けられた番号を表す。
 エリアIDは、人物IDによって特定される人物が現れる(とよく出会う)エリアのエリア名(図3)に対応付けられた、エリアID管理テーブル(図3)に登録された番号を表す。
 共有可否情報は、ユーザIDによって特定されるユーザのプライバシーレベル管理テーブルに登録された人物情報を、サーバ20上のプライバシーレベル管理データベース23に登録されている他のユーザのプライバシーレベル管理テーブルとの間で共有することを許可するかどうかを表す。図5において、共有可否情報の丸印(〇)は、他のユーザと人物情報を共有することを許可することを表し、共有可否情報のバツ印(×)は、他のユーザと人物情報を共有することを禁止することを表す。
 更新日時は、プライバシーレベル管理情報が更新(登録)されたときの日時を表す。
 図6は、図2の不審者管理データベース24の構成例を示す図である。
 不審者管理データベース24、例えば、不審者人物に関する人物情報である不審者人物情報が人物ごとに登録される。不審者人物情報は、プライバシーレベル管理テーブル(図5)の人物情報と同様に、人物ID、顔特徴量データ、声紋データ、及び、氏名から構成される。
 図7は、図1のエージェントロボット30の構成例の概要を示す外観図である。
 図7に示すように、エージェントロボット30は、例えば、ひよこ等の動物の形状をしており、応答する応答相手としての人物を認識するために、エージェントロボット30の目の位置にカメラ31が、耳の位置にマイク32が、頭部の位置にセンサ部33が、それぞれ配置されている。また、応答相手としての人物の発話に対する応答を出力するために、エージェントロボット30の口の位置にスピーカ36が配置されている。さらに、エージェントロボット30は、インターネット通信等の通信を行うために、通信機能を有している。
 図8は、図1のエージェントロボット30の利用例を示す図である。
 図8に示すように、エージェントロボット30は、子供が身に着けやすいように、例えば、キャラクターを模したぬいぐるみやバッジとして構成することができる。また、エージェントロボット30は、例えば、肩に乗せたり、首からぶら下げたり、帽子やランドセル等に装着したりすることができる形状に構成すること、所謂ポータブルタイプに構成することができる。
 図9は、エージェントロボット30の構成例を示すブロック図である。
 エージェントロボット30は、カメラ31、マイク32、センサ部33、通信部34、情報処理部35、及び、スピーカ36を備えて構成される。
 カメラ31は、応答相手としての、エージェントロボット30に相対する人物の顔を撮像し、その撮像により得られる顔画像データを通信部34に供給する。
 マイク32は、応答相手の音声を集音し、その集音により得られる音声データを通信部34に供給する。
 センサ部33は、例えば、距離を計測するレーザーレンジファインダ(距離センサ)、現在地を計測するGPS(Global Positioning System)、及び、時刻を計時する時計、その他の各種の物理量をセンシングするセンサを有する。センサ部33は、例えば、距離、現在地、時刻等のセンサ部33で取得される情報をセンサ情報として通信部34に供給する。
 通信部34は、カメラ31からの顔画像データ、マイク32からの音声データ、及び、センサ部33からのセンサ情報を受信し、情報処理部35に供給する。また、通信部34は、カメラ31からの顔画像データ、マイク32からの音声データ、及び、センサ部33からのセンサ情報を通信端末10又はサーバ20に送信する。さらに、通信部34は、サーバ20から送信されてくるプライバシーレベル管理情報を受信し、情報処理部35に供給する。その他、通信部34は、通信端末10やサーバ20との間で必要な情報を送受信する。
 情報処理部35は、発話解析部41、プライバシーレベル管理データベース42、プライバシーレベル判別エンジン43、自動応答エンジン44、及び、音声合成部45を備えて構成され、各種の情報処理を行う。
 発話解析部41は、通信部34から供給される応答相手の音声データを用いて、応答相手の発話内容の解析を行う。発話解析部41は、発話内容の解析を行った結果得られる発話解析結果を自動応答エンジン44に供給する。
 プライバシーレベル管理データベース42は、通信部34から供給されるプライバシーレベル管理情報を保存する。
 プライバシーレベル判別エンジン43は、通信部34から供給される応答相手の顔画像データ及び音声データから、顔特徴量データ及び声紋データをそれぞれ抽出する。
 また、プライバシーレベル判別エンジン43は、抽出した顔特徴量データ及び声紋データと、プライバシーレベル管理データベース42に記憶されているプライバシーレベル管理情報の人物情報とのマッチングを行い、応答相手にマッチ(合致)する人物情報を特定する。
 さらに、プライバシーレベル判別エンジン43は、応答相手にマッチする人物情報に対応付けられた登録プライバシーレベルに応じて、応答相手に対する応答時のプライバシーレベルである応答プライバシーレベルを設定し、自動応答エンジン44に供給する。
 なお、プライバシーレベル判別エンジン43は、その他、例えば、通信部34から供給されるセンサ情報に応じて、応答プライバシーレベルを設定する(応答プライバシーレベルの設定の変更を行う)ことができる。
 以上のように、プライバシーレベル判別エンジン43は、応答相手に対する応答時の応答プライバシーレベルを設定する設定部として機能する。
 自動応答エンジン44は、発話解析部41から供給される発話解析結果、及び、プライバシーレベル判別エンジン43から供給される応答プライバシーレベルに応じて、発話解析結果(応答相手の発話内容)に対する応答メッセージであって、応答プライバシーレベルに応じ(て個人情報の開示を制限し)た応答メッセージを生成する。自動応答エンジン44は、生成した応答メッセージを音声合成部45に供給する。
 なお、自動応答エンジン44は、応答メッセージの生成にあたり、通信部34を介してサーバ20にアクセスし、応答メッセージの生成に必要な個人情報を、プロフィールデータ管理テーブル(図4)のプロフィールデータから取得する。
 以上のように、自動応答エンジン44は、応答メッセージを生成する生成部として機能する。
 音声合成部45は、自動応答エンジン44からの応答メッセージを対象として、音声合成を行い、応答メッセージに対応する合成音を生成して、スピーカ36に供給する。
 スピーカ36は、音声合成部45から供給される合成音を出力する。これにより、音声の応答メッセージが出力される。
 以上のように、スピーカ36は、応答メッセージを出力する出力部として機能する。なお、応答メッセージは、エージェントロボット30に設けられた図示せぬディスプレイに表示する(ディスプレイから出力する)こともできる。
 図10は、エージェントロボット30におけるプライバシーレベル管理情報の取得の概要を説明する図である。
 エージェントロボット30を購入したユーザとしての、例えば、子供の親・保護者は、通信端末10を操作することによりサーバ20にアクセスし、通信端末10からサーバ20に、例えば、知り合いや友人等の人物の顔画像データや音声データ等の人物情報、親密度レベル、及び、どの情報を開示するか等の、プライバシーレベル管理情報の生成に必要な情報を送信する。
 サーバ20は、通信端末10から送信されてくるプライバシーレベル管理情報の生成に必要な情報を用いて、プライバシーレベル管理情報を生成し、プライバシーレベル管理データベース23のプライバシーレベル管理テーブル(図5)に登録する。
 エージェントロボット30は、サーバ20にプライバシーレベル管理情報の取得要求を行い、サーバ20のプライバシーレベル管理データベース23(図2)に登録されているプライバシーレベル管理情報を取得する。エージェントロボット30は、サーバ20から取得したプライバシーレベル管理情報を自身のプライバシーレベル管理データベース42(図9)に保存する。エージェントロボット30は、自身のプライバシーレベル管理データベース42に保存したプライバシーレベル管理情報に応じて、応答相手に対する応答プライバシーレベルを設定し、その応答プライバシーレベルに応じた応答メッセージを生成する。
 図11及び図12は、サーバ20にユーザ情報を登録するときに、通信端末10に表示されるユーザ情報登録画面の例を示す図である。
 エージェントロボット30を購入したユーザとしての、例えば、親・保護者は、サーバ20からサービスの提供を受けるために、ユーザ情報の登録を行う必要がある。ユーザ情報の登録は、例えば、通信端末10からサーバ20にアクセスすることで行われる。なお、ユーザは、サーバ20から、ユーザIDとパスワードとを発行してもらってから、ユーザ情報の登録を行うことができる。
 エージェントロボット30を購入したユーザは、通信端末10を操作することにより、ユーザID及びパスワードを入力して、サーバ20にログオンし、ユーザ情報の登録を要求する。サーバ20は、通信端末10からの要求に応じて、ユーザ情報の登録用のユーザ情報登録画面を通信端末10に送信し、これにより、図11に示すように、通信端末10では、ユーザ情報登録画面としてのウィンドウ100が表示される。ウィンドウ100には、例えば、「ユーザID」、「登録されたエージェント一覧」、及び、「登録されたエリア一覧」が表示される。
 「ユーザID」には、サーバ20へのログオン時にユーザが入力したユーザIDが表示される。
 「登録されたエージェント一覧」には、ユーザ管理テーブル(図3)において、ユーザIDに対応付けされたエージェント個体ID管理テーブルに登録されたエージェント個体IDの一覧が表示される。また、「登録されたエージェント一覧」の右側には、エージェントロボット30のエージェント個体IDを新規に登録するときに操作される新規登録ボタン101が設けられている。
 ユーザは、エージェントロボット30を新たに購入した場合、そのエージェントロボット30の、所謂製品登録を行うことができる。製品登録では、ユーザは、新規登録ボタン101を操作する。新規登録ボタン101の操作に応じて、通信端末10では、ウィンドウ110が表示される。ユーザは、製品登録したいエージェントロボット30のエージェント個体IDをウィンドウ110に入力し、そのウィンドウ110の最下部にある登録ボタン111を操作することで、製品登録したいエージェントロボット30のエージェント個体IDを登録することができる。すなわち、ウィンドウ110に入力されたエージェント個体IDは、サーバ20において、ユーザのユーザIDに対応付けられたエージェント個体ID管理テーブル(図3)に登録され、これにより、ウィンドウ110に入力されたエージェント個体IDは、ウィンドウ100の「登録されたエージェント一覧」に追加される。
 「登録されたエリア一覧」には、ユーザ管理テーブル(図3)において、ユーザIDに対応付けされたエリア情報ID管理テーブルに登録されたエリア情報の一覧が表示される。また、「登録されたエリア一覧」の右側には、エリア情報を新規に登録するときに操作される新規登録ボタン102が設けられている。
 ユーザは、新たにエリアを登録したい場合に、そのエリアの登録を行うことができる。エリアの登録では、ユーザは、新規登録ボタン102を操作する。新規登録ボタン102の操作に応じて、通信端末10では、ウィンドウ120が表示される。ユーザは、登録したいエリアの、例えば、エリア名、緯度、及び、経度をウィンドウ120に入力し、そのウィンドウ120の最下部にある登録ボタン121を操作することで、登録したいエリアを登録することができる。すなわち、ウィンドウ120に入力されるエリア名、緯度、及び、経度は、サーバ20において、ユーザのユーザIDに対応付けられたエリアID管理テーブル(図3)に登録され、これにより、ウィンドウ120に入力されたエリア情報は、ウィンドウ100の「登録されたエリア一覧」に追加される。
 ユーザは、例えば、自宅、学校、塾、最寄り駅等の頻繁に行き来するエリア等のエリア名、緯度、及び、経度を、エリアID管理テーブルに登録することができる。ここで、エリアID管理テーブルに登録された緯度及び経度を中心とする所定の範囲、例えば、半径500m以内等の範囲が、ユーザが現れるエリアとして扱われる。
 ウィンドウ100においては、スクロールやページ切り替えにより、図12に示すように、「プロフィールデータジャンル一覧」、及び、「プロフィールデータ一覧」が表示される。
 「プロフィールデータジャンル一覧」には、プロフィールデータジャンル管理テーブル(図4)に登録されたプロフィールデータジャンルの一覧が表示される。また、「プロフィールデータジャンル一覧」の右側には、プロフィールデータジャンルを新規に登録するときに操作される新規登録ボタン103が設けられている。
 ユーザは、新たにプロフィールデータジャンルを登録したい場合に、そのプロフィールジャンルの登録を行うことができる。プロフィールデータジャンルの登録では、ユーザは、新規登録ボタン103を操作する。新規登録ボタン103の操作に応じて、通信端末10では、ウィンドウ130が表示される。ユーザは、ウィンドウ130に対して、登録したいプロフィールデータジャンルを入力し、必要に応じて、極秘チェックボックス132をチェックし、そのウィンドウ130の最下部にある登録ボタン131を操作することで、新たなプロフィールデータジャンルを登録することができる。すなわち、ウィンドウ130に入力される新たなプロフィールデータジャンルは、サーバ20において、ユーザのユーザIDに対応付けられたプロフィールデータジャンル管理テーブル(図4)に登録され、これにより、ウィンドウ130に入力されたプロフィールデータジャンルは、ウィンドウ100の「プロフィールデータジャンル一覧」に追加される。
 なお、極秘チェックボックス132がチェックされた場合、ウィンドウ130に入力されたプロフィールデータジャンルがユーザにとって秘密にしたい(極秘の)ジャンルであるかどうかを表す極秘チェックが、プロフィールデータジャンル管理テーブル(図4)に登録される。プロフィールデータジャンル管理テーブルにおいて、極秘チェックが登録されているプロフィールデータジャンルのプロフィールデータは、後述するプライバシーレベル管理情報登録画面(図13)において、明示的に会話許可が登録されている人物以外には開示されない(応答メッセージに含められない)。
 「プロフィールデータ一覧」には、プロフィールデータ管理テーブル(図4)に登録されたプロフィールデータ(の質問)の一覧が表示される。また、「プロフィールデータ一覧」の右側には、プロフィールデータを新規に登録するときに操作される新規登録ボタン104が設けられている。
 ユーザは、新たにプロフィールデータを登録したい場合に、そのプロフィールデータの登録を行うことができる。プロフィールデータの登録では、ユーザは、新規登録ボタン104を操作する。新規登録ボタン104の操作に応じて、通信端末10では、ウィンドウ140が表示される。ウィンドウ140には、プロフィールデータジャンル管理テーブル(図4)に登録されたプロフィールデータジャンルをプルダウンメニューで表示する選択ボックス142、プロフィールデータの質問を入力する入力ボックス143、及び、プロフィールデータの(質問に対する)回答を入力する入力ボックス144が表示される。
 ユーザは、ウィンドウ140に対して、選択ボックス142のプルダウンメニューから、プロフィールデータジャンルを選択し、プロフィールデータとなる質問、及び、その質問に対する回答を入力ボックス143及び144にそれぞれ入力し、ウィンドウ140の最下部にある登録ボタン141を操作することで、新たなプロフィールデータを登録することができる。すなわち、ウィンドウ140に入力された新たなプロフィールデータ、つまり、選択ボックス142で選択されたプロフィールデータジャンル、入力ボックス143に入力された質問、及び、入力ボックス144に入力された回答は、サーバ20において、通信端末10のユーザのユーザIDに対応付けられたプロフィールデータ管理テーブル(図4)に登録され、これにより、ウィンドウ140に新たに入力されたプロフィールデータ(の質問)が、ウィンドウ100の「プロフィールデータ一覧」に追加される。
 ここで、ウィンドウ140の選択ボックス142でプルダウンメニューで表示されるプロフィールデータジャンルは、ユーザ管理データベース22(図2)のプロフィールデータジャンル管理テーブル(図4)に登録されているプロフィールデータジャンルである。また、ウィンドウ140の入力ボックス143及び144に入力される質問、及び、その質問に対する回答が対となって、プロフィールデータとして、ユーザ管理データベース22のプロフィールデータ管理テーブル(図4)に登録される。
 ウィンドウ100の最下部にある登録ボタン105は、例えば、登録ボタン111、登録ボタン121、登録ボタン131、及び、登録ボタン141と同様に、ウィンドウ100に入力された情報を、サーバ20のユーザ管理データベース22(図3)に登録するときに操作される。
 図13は、サーバ20にプライバシーレベル管理情報を登録するときに表示されるプライバシーレベル管理情報登録画面の例を示す図である。
 ユーザは、通信端末10を操作することにより、ユーザID及びパスワードを入力して、サーバ20にログオンし、プライバシーレベル管理情報の登録を要求する。サーバ20は、通信端末10からの要求に応じて、プライバシーレベル管理情報登録画面を通信端末10に送信し、これにより、図13に示すように、通信端末10では、プライバシーレベル管理情報登録画面としてのウィンドウ150が表示される。
 図13に示すように、ウィンドウ150には、例えば、氏名の入力欄151、顔写真選択ボタン152、顔写真のアイコン153、音声ファイル入力ボタン154、音声ファイルのファイル名155、会話許可欄156、エリア欄158、及び、チェックボックス160が表示される。
 入力欄151には、ウィンドウ150において、プライバシーレベル管理情報を登録する人物の名前が入力される。ユーザは、入力欄151にプライバシーレベル管理情報を登録したい人物の名前を入力する。入力欄151に入力された名前は、プライバシーレベル管理テーブル(図5)において、人物情報の氏名として登録される。
 顔写真選択ボタン152は、プライバシーレベル管理情報を登録する人物の顔画像データ(のファイル)を指定するときに操作される。顔写真選択ボタン152が操作され、顔画像データが指定されると、その顔画像データを縮小したアイコンが、顔写真のアイコン153として表示される。
 さらに、顔写真選択ボタン152の操作によって指定された顔画像データ(のファイル)が、通信端末10からサーバ20に送信される。サーバ20は、通信端末10からの顔画像データを受信し、その顔画像データから顔特徴量データを抽出する。この顔特徴量データは、プライバシーレベル管理テーブル(図5)の人物情報に登録される。
 音声ファイル入力ボタン154は、プライバシーレベル管理情報を登録する人物の音声データ(のファイル)を指定するときに操作される。音声ファイル入力ボタン154が操作され、音声データが指定されると、その音声データのファイル名が、音声ファイルのファイル名155として表示される。
 さらに、音声ファイル入力ボタン154の操作によって指定された音声データ(のファイル)が、通信端末10からサーバ20に送信される。サーバ20は、通信端末10からの音声データを受信し、その音声データから声紋データを抽出する。この声紋データは、プライバシーレベル管理テーブル(図5)の人物情報に登録される。
 会話許可欄156には、ユーザ管理データベース22のプロフィールデータジャンル管理テーブル(図4)に登録されているプロフィールデータジャンルが表示される。また、会話許可欄156に表示されるプロフィールデータジャンルそれぞれの右側には、登録プライバシーレベルを設定するときに操作されるボタン157が設けられている。
 会話許可欄156では、ユーザは、ボタン157を操作することにより、ウィンドウ150においてプライバシーレベル管理情報を登録する人物との会話を許可するジャンル(プロフィールデータジャンル)を登録することができる。ボタン157は、例えば、操作されるごとに、会話の許可(丸印)と不許可(バツ印)とに交互に切り換えられる。プライバシーレベル管理テーブル(図5)において、会話が許可にされたプロフィールデータジャンルの登録プライバシーレベルは、1に登録され、会話が不許可にされたプロフィールデータジャンルの登録プライバシーレベルは、0に登録される。
 エリア欄158には、ユーザ管理データベース22のエリアID管理テーブル(図3)に登録されているエリアのエリア名が表示される。また、エリア欄158に表示されるエリア名それぞれの右側には、プライバシーレベル管理情報を登録する人物と出会うエリアを設定するときに操作されるボタン159が設けられている。
 エリア欄158では、ユーザは、ボタン159を操作することにより、ウィンドウ150においてプライバシーレベル管理情報を登録する人物と出会うエリアを登録することができる。ボタン159は、例えば、操作されるごとに、左側のエリアのエリア名が、ウィンドウ150においてプライバシーレベル管理情報を登録する人物と出会うことがあるエリアであるのか(丸印)とそうでないエリアであるのか(バツ印)とに交互に切り換えられる。丸印に切り替えられたボタン159に対するエリア名のエリアIDが、プライバシーレベル管理情報(図5)に登録される。
 チェックボックス160は、ウィンドウ150においてプライバシーレベル管理情報を登録する人物(以下、登録対象人物ともいう)の人物情報を、他のユーザと共有する場合にチェックされる。チェックボックス160がチェックされたウィンドウ150に入力された情報から得られるプライバシーレベル管理情報の人物情報は、サーバ20において、他のユーザのプライバシーレベル管理情報の人物情報としてコピーされる。サーバ20は、他のユーザについて、コピーした登録対象人物の人物情報を用いて、登録対象人物に対するプライバシーレベル管理情報を生成し、その他のユーザのプライバシーレベル管理テーブル(図5)に登録する。
 以上のように、ユーザは、ウィンドウ150におけるチェックボックス160にチェックをしておくことで、登録対象人物の人物情報、ひいては、その登録対象人物に対するプライバシーレベル管理情報を、他のユーザと共有することができる。したがって、あるエリアで多数の人と接触がある、そのエリアで信頼されている人、例えば、町内会の役員、公共施設の職員、又は、緑のおばさん(学童擁護員)等を、登録対象人物として、その登録対象人物に対するプライバシーレベル管理情報を登録する場合に、チェックボックス160のチェックをしておくことにより、他のユーザは、あるエリアで多数の人と接触がある人に対するプライバシーレベル管理情報を登録する操作をせずに済み、負担を軽減することができる。
 また、以上のようなプライバシーレベル管理情報の共有によれば、他のユーザが、登録対象人物と出会ったことがない場合(登録対象人物の顔画像データや音声データを所持していない場合)でも、その登録対象人物に対するプライバシーレベル管理情報が他のユーザのプライバシーレベル管理テーブルに登録(追加)される。したがって、例えば、ユーザが出会った不審者に対するプライバシーレベル管理情報を登録する場合に、チェックボックス160のチェックをして、その不審者に対するプライバシーレベル管理情報を他のユーザと共有することにより、防犯に資することができる。
 図14は、エージェントロボット30の応答例を説明する図である。
 エージェントロボット30は、自身に搭載されているカメラ31及びマイク32により、応答相手の顔画像データ及び音声データを取得し、顔画像データ及び音声データから顔特徴量データ及び声紋データを抽出する。
 エージェントロボット30は、プライバシーレベル管理テーブル(図5)から応答相手の顔特徴量データ及び声紋データにマッチする人物情報を検出(特定)し、その人物情報に対応付けられている登録プライバシーレベルを、応答相手に対する応答プライバシーレベルに設定する。
 エージェントロボット30は、応答相手に対する応答プライバシーレベルに応じて、応答メッセージを生成して出力する。例えば、応答相手に対する応答プライバシーレベルが高い場合には、個人情報を開示する応答メッセージが生成され、スピーカ36から出力される。すなわち、例えば、図14のAに示すように、「お父さんは家にいますか?」と話しかけてきた応答相手に対する応答プライバシーレベルが高い場合、「お父さんは今留守です。でも夜にはかえってきます。」という応答メッセージが生成され、スピーカ36から出力される。
 また、例えば、応答相手に対する応答プライバシーレベルが低い場合には、個人情報を開示しない応答メッセージ(個人情報の開示を制限した応答メッセージ)が生成され、スピーカ36から出力される。すなわち、例えば、図14のBに示すように、「ぼうやひとりかい?」と話しかけてきた応答相手に対する応答プライバシーレベルが低い場合、「お答えできません。」という応答メッセージが生成され、スピーカ36から出力される。
 ここで、エージェントロボット30のセンサ部33に、例えば、レーザーレンジファインダ(距離センサ)を採用する場合、エージェントロボット30は、レーザーレンジファインダで計測された距離に基づいて、応答相手の身長や背格好を認識し、その応答相手の身長や背格好に基づいて、応答相手が大人であるか、又は、子供であるか(例えば、身長が145cm以下であるか)を判定することができる。
 エージェントロボット30は、応答相手が大人であると判定した場合、応答相手が不審者である(可能性が高い)と推認されるので、応答プライバシーレベルを低く(個人情報を公開しないように)設定することができる。すなわち、エージェントロボット30は、応答プライバシーレベルを、例えば、0に設定する。
 一方、エージェントロボット30は、応答相手が子供であると判定した場合、応答相手が不審者でない(可能性が高い)と推認されるので、応答プライバシーレベルを高く(個人情報を公開するように)設定することができる。すなわち、エージェントロボット30は、応答プライバシーレベルを、例えば、1に設定する。
 また、エージェントロボット30は、応答相手が大人であると判定した場合でも、その応答相手が子供を連れているとき、応答相手が不審者でない可能性が高いので、応答プライバシーレベルを高く(個人情報を公開するように)設定することができる。
 その他、エージェントロボット30のセンサ部33に、例えば、GPS等の測位機能を採用する場合、エージェントロボット30は、GPSによって、現在地を取得し、サーバ20に送信して、現在地の治安情報を取得することができる。さらに、エージェントロボット30は、サーバ20から取得した治安情報に基づいて、応答プライバシーレベルを設定することができる。
 治安情報が、現在地の治安度が低いことを表している場合、エージェントロボット30は、応答プライバシーレベルを低く(個人情報を公開しないように)設定することができる。
 一方、治安情報が、現在地の治安度が高いことを表している場合、エージェントロボット30は、応答プライバシーレベルを高く(個人情報を公開するように)設定することができる。
 また、エージェントロボット30のセンサ部33に、例えば、時刻を示す時計を採用する場合、エージェントロボット30は、その時計によって、現在時刻を取得し、その現在時刻に基づいて、応答プライバシーレベルを設定することができる。
 現在時刻が不審者の出やすい時間帯(例えば、夜の時間帯)の時刻である場合、エージェントロボット30は、応答プライバシーレベルを低く(個人情報を公開しないように)設定することができる。
 一方、現在時刻が不審者の出にくい時間帯(例えば、昼の時間帯)の時刻である場合、エージェントロボット30は、応答プライバシーレベルを高く(個人情報を公開するように)設定することができる。
 以上のように、エージェントロボット30は、カメラ31、マイク32、及び、センサ部33で取得した情報に応じて、応答相手に対する応答時のプライバシーレベルである応答プライバシーレベルを設定することができる。そして、エージェントロボット30は、その応答プライバシーレベルに応じた応答メッセージを生成し、応答相手の発話に対しての応答を行うことができる。
 図15は、応答相手の顔画像データから抽出された顔特徴量データ及び音声データから抽出された声紋データが、プライバシーレベル管理データベース23(図5)及び不審者管理データベース24(図6)の人物情報のいずれにもマッチしなかった場合のエージェントロボット30の処理の概要を説明する図である。
 応答相手の顔画像データから抽出された顔特徴量データ及び音声データから抽出された声紋データが、プライバシーレベル管理データベース23及び不審者管理データベース24の人物情報のいずれにもマッチしなかった場合、すなわち、応答相手を特定することができない場合、ひいては、その応答相手の登録プライバシーレベルを取得することができない場合、エージェントロボット30は、カメラ31、及び、マイク32で取得した応答相手の顔画像データ及び音声データを通信端末10に送信し、通信端末10を使用するユーザとしての親・保護者に、応答相手の登録プライバシーレベルの設定(判定)を委ねることができる。
 図15に示すように、エージェントロボット30が応答相手を特定することができない場合には、エージェントロボット30は、例えば、カメラ31で取得した応答相手の顔画像データを通信端末10に送信する。
 エージェントロボット30から応答相手の顔画像データを受信した通信端末10のユーザとしての親・保護者は、通信端末10に表示される顔画像データ(に映る応答相手)を見て、その応答相手に対し、プライバシーレベル管理情報登録画面としてのウィンドウ150(図13)において、ボタン157を操作することにより、登録プライバシーレベル(本実施の形態では、会話の許可(丸印)又は不許可(バツ印))を設定(入力)する。その登録プライバシーレベルの設定は、通信端末10からサーバ20に送信され、サーバ20のプライバシーレベル管理データベース23(図5)のプライバシーレベル管理テーブル(図5)に、プライバシーレベル管理情報として新たに登録される。この登録により、以降は、エージェントロボット30において、今回特定することができなかった応答相手を特定することができる。
 図16は、プライバシーレベル管理情報の登録処理について説明するフローチャートである。
 プライバシーレベル管理情報の登録処理では、サーバ20において、通信端末10の操作に応じて、プライバシーレベル管理情報が登録される。
 ステップS11において、通信端末10のユーザ(親・保護者)が、ウィンドウ150(図13)における顔写真選択ボタン152を操作することにより、登録プライバシーレベルを登録する登録対象人物の顔画像データを登録するのを待って、通信端末10は、その顔画像データをサーバ20に送信し、処理は、ステップS21に進む。
 ステップS21では、サーバ20は、通信端末10からの顔画像データを受信し、その顔画像データから顔特徴量データを抽出して、処理は、ステップS12に進む。
 ステップS12において、通信端末10のユーザ(親・保護者)が、ウィンドウ150(図13)における音声ファイル入力ボタン154を操作することにより、登録対象人物の音声データを登録するのを待って、通信端末10は、その音声データをサーバ20に送信し、処理は、ステップS22に進む。
 ステップS22では、サーバ20は、通信端末10からの音声データを受信し、その音声データから声紋データを抽出して、処理は、ステップS13に進む。
 ステップS13において、通信端末10のユーザが、ウィンドウ150(図13)における会話許可欄156のボタン157を操作するのを待って、通信端末10は、ボタン157の操作に応じて、登録対象人物の登録プライバシーレベルを設定し、処理は、ステップS14に進む。
 ステップS14において、通信端末10のユーザが、ウィンドウ150(図13)におけるエリア欄158のボタン159を操作するのを待って、通信端末10は、ボタン159の操作に応じて、登録対象人物が現れるエリア(以下、出現エリアともいう)を設定し、処理は、ステップS15に進む。
 ステップS15において、通信端末10は、通信端末10のユーザの、ウィンドウ150(図13)におけるチェックボックス160のチェックの有無に応じて、登録対象人物の人物情報を、登録対象人物の出現エリアに現れる他のユーザと共有するかどうかを表す共有可否情報を設定し、処理は、ステップS16に進む。
 ステップS16において、通信端末10は、ステップS13ないしS15で設定された登録プライバシーレベル、出現エリア、及び、共有可否情報をサーバ20に送信し、処理は、ステップS23に進む。
 なお、ウィンドウ150(図13)において、通信端末10のユーザが、氏名の入力欄151に、登録対象人物の氏名を入力した場合には、ステップS16では、その氏名も送信される。
 ステップS23では、サーバ20は、通信端末10から送信されてくる登録対象人物の登録プライバシーレベル、出現エリア、共有可否情報、及び、氏名を受信する。さらに、サーバ20は、ステップS21及びS22で抽出された顔特徴量データ及び声紋データと、通信端末10からの登録対象人物の氏名とに、人物IDを付加して、人物情報を生成する。そして、サーバ20は、人物情報に、通信端末10からの登録対象人物の登録プライバシーレベル、出現エリア(を表すエリアID)、及び、共有可否情報、さらには、デフォルトの更新日時を対応付けて、登録対象人物に対するプライバシーレベル管理情報を生成する。
 サーバ20は、登録対象人物に対して生成したプライバシーレベル管理情報を、プライバシーレベル管理データベース23のプライバシーレベル管理テーブル(図5)に追加する形で登録し、処理は、ステップS23からステップS24に進む。
 ステップS24では、サーバ20は、プライバシーレベル管理テーブル(図5)に登録したプライバシーレベル管理情報の更新日時を、現在の日時に更新し、プライバシーレベル管理情報の登録処理は終了する。
 以上のように、プライバシーレベル管理情報の登録処理では、通信端末10から、登録対象人物についての顔画像データ及び音声データ、登録プライバシーレベル、出現エリア、及び、共有可否情報等がサーバ20に送信されることにより、サーバ20において、顔特徴量データ及び声紋データを含む人物情報に、登録プライバシーレベル等が対応付けられたプライバシーレベル管理情報が登録される。
 図17及び図18は、プライバシーレベル管理情報の共有処理について説明するフローチャートである。
 プライバシーレベル管理情報の共有処理では、あるユーザのプライバシーレベル管理情報の人物情報が、他のユーザのプライバシーレベル管理情報の人物情報として共有されることにより、他のユーザのプライバシーレベル管理情報が、いわば自動生成される。したがって、他のユーザが、プライバシーレベル管理情報を登録する操作の負担を軽減することができる。
 ステップS31において、通信端末10は、図16のプライバシーレベル管理情報の登録処理と同様の処理を行って、処理は、ステップS31からステップS41に進む。
 ステップS41において、サーバ20は、図16のプライバシーレベル管理情報の登録処理と同様の処理を行って、登録対象人物に対するプライバシーレベル管理情報を、プライバシーレベル管理データベース23のプライバシーレベル管理テーブル(図5)に登録する。そして、処理は、ステップS41からステップS42に進む。
 ステップS42において、サーバ20は、登録対象人物に対するプライバシーレベル管理情報の共有可否情報が、その登録対象人物の人物情報を他のユーザと共有する旨を表しているかどうかを判定する。
 ステップS42において、共有可否情報が、人物情報を他のユーザと共有する旨を表していると判定された場合、処理は、ステップS43に進む。一方、ステップS42において、共有可否情報が、人物情報を他のユーザと共有する旨を表していない場合、プライバシーレベル管理情報の共有処理は終了する。
 ステップS43において、サーバ20は、登録対象人物に対するプライバシーレベル管理情報(図5)のエリアIDが表す出現エリアに現れる他のユーザ(登録対象人物のプライバシーレベル管理情報を登録した通信端末10のユーザ以外のユーザ)を検索する。
 すなわち、サーバ20は、登録対象人物に対するプライバシーレベル管理情報(図5)のエリアIDが表す出現エリアと重複するエリアをエリアID管理テーブル(図3)に登録している他のユーザを検索する。そして、処理は、ステップS43からステップS44に進む。
 ステップS44において、サーバ20は、登録対象人物に対するプライバシーレベル管理情報(図5)のエリアIDが表す出現エリアと重複するエリアをエリアID管理テーブル(図3)に登録している他のユーザを検索した結果に基づき、そのような他のユーザ(以下、重複エリアユーザともいう)が存在するかどうかを判定する。
 ステップS44において、重複エリアユーザが存在すると判定された場合、処理はステップS45に進む。一方、ステップS44において、重複エリアユーザが存在しないと判定された場合、プライバシーレベル管理情報の共有処理は終了する。
 ステップS45において、サーバ20は、登録対象人物に対するプライバシーレベル管理情報の人物情報を、重複エリアユーザのプライバシーレベル管理情報の人物情報としてコピーすることにより、重複エリアユーザの登録対象人物に対するプライバシーレベル管理情報を生成し、その重複エリアユーザのプライバシーレベル管理テーブル(図5)に登録する。
 ここで、サーバ20は、通信端末10のユーザの登録対象人物に対するプライバシーレベル管理情報のうちの、登録プライバシーレベル以外をコピーすることにより、重複エリアユーザの登録対象人物に対するプライバシーレベル管理情報を生成する。
 プライバシーレベル管理情報において、登録プライバシーレベルのプロフィールデータジャンルは、個々のユーザによって違うことがあるため、すなわち、通信端末10のユーザが登録しているプロフィールデータジャンル(図4)と、重複エリアユーザが登録しているプロフィールデータジャンルとは、異なることがあるため、サーバ20では、重複エリアユーザの登録対象人物に対するプライバシーレベル管理情報の登録プライバシーレベルは、以下のように設定される。
 すなわち、ステップS45において、サーバ20は、通信端末10のユーザの登録対象人物に対するプライバシーレベル管理情報において、プロフィールデータジャンルごとに登録されている登録プライバシーレベルの平均値を算出し、処理は、ステップS46に進む。
 ステップS46において、サーバ20は、通信端末10のユーザの登録対象人物に対するプライバシーレベル管理情報における登録プライバシーレベルの平均値が一定の値、例えば、5割を超えているかどうかを判定する。
 ステップS46において、登録プライバシーレベルの平均値が一定の値を超えていると判定された場合、処理は、図18のステップS47に進む。
 ここで、登録プライバシーレベルの平均値が一定の値を超えている場合(登録対象人物が、個人情報を開示してよい程度が大きい人物である場合)には、登録対象人物が「公人」等の、ある程度、信頼してよい人物であると推認することができる。そこで、ステップS47では、サーバ20は、重複エリアユーザの登録対象人物に対するプライバシーレベル管理情報(図5)におけるプロフィールデータジャンルのうちのプロフィールデータジャンル管理テーブル(図4)で極秘チェックがついていないプロフィールデータジャンルに対して、プロフィールデータを公開するように登録プライバシーレベルを設定する(登録プライバシーレベルを1に設定する)。
 さらに、サーバ20は、重複エリアユーザの登録対象人物に対するプライバシーレベル管理情報において、プロフィールデータジャンル管理テーブルで極秘チェックがついているプロフィールデータジャンルの登録プライバシーレベルについては、プロフィールデータを公開しないように登録プライバシーレベルを設定する(登録プライバシーレベルを0に設定する)。そして、処理は、ステップS47からステップS49に進む。
 一方、図17のステップS46において、登録プライバシーレベルの平均値が一定の値を超えていないと判定された場合、処理は、図18のステップS48に進む。
ここで、登録プライバシーレベルの平均値が一定の値を超えていない場合(登録対象人物が、個人情報を開示してよい程度が小さい人物である場合)には、登録対象人物が「不審者」等の、信頼されていない人物であると推認することができる。そこで、ステップS48では、サーバ20は、重複エリアユーザの登録対象人物に対するプライバシーレベル管理情報(図5)におけるプロフィールデータジャンルに対して、プロフィールデータを公開しないように登録プライバシーレベルを設定する(登録プライバシーレベルを0に設定する)。そして、処理は、ステップS48からステップ49に進む。
 ステップS49において、サーバ20は、重複エリアユーザの登録対象人物に対するプライバシーレベル管理情報の更新日時を、現在の日時に更新し、プライバシーレベル管理情報の共有処理は終了する。
 以上のように、プライバシーレベル管理情報の共有処理では、登録対象人物に対するプライバシーレベル管理情報の人物情報が、重複エリアユーザのプライバシーレベル管理情報の人物情報として、重複エリアユーザと共有される。さらに、プライバシーレベル管理情報の共有処理では、共有された人物情報を用いて、登録対象人物に対するプライバシーレベル管理情報が生成され、その重複エリアユーザのプライバシーレベル管理テーブル(図5)に登録される。したがって、重複エリアユーザが、登録プライバシーレベルを設定する負担を軽減することができる。
 図19は、プライバシーレベル管理情報の取得処理について説明するフローチャートである。
 プライバシーレベル管理情報の取得処理では、エージェントロボット30のプライバシーレベル管理データベース42(図9)に記憶されたプライバシーレベル管理情報(図5)が更新される。
 ステップS71において、エージェントロボット30は、自身のエージェント個体IDをサーバ20に送信し、プライバシーレベル管理情報(図5)の更新日時の取得要求を行う。そして、処理は、ステップS71からステップS61に進む。
 ステップS61において、サーバ20は、エージェントロボット30からの取得要求に応じて、ユーザ管理データベース22(図3)及びプライバシーレベル管理データベース23(図5)を参照し、エージェントロボット30から送信されてきたエージェント個体IDから、そのエージェント個体IDが対応付けられたユーザIDのユーザのプライバシーレベル管理情報(図5)の更新日時を特定して、エージェントロボット30に送信する。そして、処理は、ステップS61からステップS72に進む。
 ステップS72において、エージェントロボット30は、サーバ20からのプライバシーレベル管理情報の更新日時と、自身のプライバシーレベル管理データベース42(図9)にダウンロード済の(記憶されている)プライバシーレベル管理情報(図5)の更新日時との比較を行い、プライバシーレベル管理データベース42にダウンロードされていないプライバシーレベル管理情報がサーバ20に存在するかどうかを判定する。
 ステップS72において、エージェントロボット30が、サーバ20のプライバシーレベル管理データベース23に、自身のプライバシーレベル管理データベース42にダウンロードされていないプライバシーレベル管理情報が存在すると判定した場合、処理はステップS73に進む。一方、ステップS72において、エージェントロボット30が、サーバ20のプライバシーレベル管理データベース23に、プライバシーレベル管理データベース42にダウンロードされていないプライバシーレベル管理情報が存在しないと判定した場合、プライバシーレベル管理情報の取得処理を終了する。
 ステップS73において、エージェントロボット30は、自身のエージェント個体IDをサーバ20に送信し、プライバシーレベル管理データベース42にダウンロードされていないプライバシーレベル管理情報の取得要求を行って、処理は、ステップS62に進む。
 ステップS62において、サーバ20は、エージェントロボット30からの取得要求に応じて、エージェントロボット30から送信されてきたエージェント個体IDに対応付けられたユーザIDのユーザのプライバシーレベル管理情報のうちの、プライバシーレベル管理データベース42にダウンロードされていないプライバシーレベル管理情報をエージェントロボット30に送信する。そして、処理は、ステップS62からステップS74に進む。
 ステップS74において、エージェントロボット30は、サーバ20から送信されてきたプライバシーレベル管理情報を、自身のプライバシーレベル管理データベース42に保存する。そして、プライバシーレベル管理情報の取得処理は終了する。
 以上のように、プライバシーレベル管理情報の取得処理では、エージェントロボット30は、プライバシーレベル管理情報の更新日時に応じて、プライバシーレベル管理データベース42にダウンロードされていないプライバシーレベル管理情報を取得(ダウンロード)して、プライバシーレベル管理データベース42の記憶内容を更新するので、プライバシーレベル管理データベース42に保存されるプライバシーレベル管理情報の更新を迅速に行うことができる。
 図20ないし図24は、応答プライバシーレベル設定処理について説明するフローチャートである。
 応答プライバシーレベル設定処理では、応答相手に対する応答時の応答プライバシーレベルが設定される。
 ステップS81において、エージェントロボット30は、応答相手の顔をカメラ31で撮像し、撮像した顔画像データから顔特徴量データを抽出して、処理は、ステップS82に進む。
 ステップS82において、エージェントロボット30は、応答相手の音声をマイク32で集音し、集音した音声データから声紋データを抽出して、処理は、ステップS83に進む。
 ステップS83において、エージェントロボット30は、応答相手の顔特徴量データ及び声紋データが、プライバシーレベル管理データベース42に保存されているプライバシーレベル管理情報(図5)に登録されている人物情報のいずれかとマッチするかどうかを判定する。
 ステップS83において、エージェントロボット30が、応答相手の顔特徴量データ及び声紋データがプライバシーレベル管理データベース42に保存されているプライバシーレベル管理情報に登録されている人物情報のいずれかとマッチすると判定した場合、処理は、ステップS84に進む。一方、ステップS83において、エージェントロボット30が、応答相手の顔特徴量データ及び声紋データがプライバシーレベル管理データベース42に保存されているプライバシーレベル管理情報(図5)に登録されている人物情報のいずれともマッチしないと判定した場合、処理は図21のステップS101に進む。
 ステップS84において、エージェントロボット30は、応答相手の顔特徴量データ及び声紋データとマッチする人物情報に対応付けられた登録プライバシーレベルを取得し、応答プライバシーレベルに設定して、処理は、図23のステップS151に進む。
 図21のステップS101において、エージェントロボット30は、応答相手の顔特徴量データ及び声紋データをサーバ20に送信し、不審者管理データベース24に登録されている不審者の不審者人物情報(図6)のいずれかにマッチするかどうかを照会することを要求して、処理は、ステップS91に進む。
 ステップS91において、サーバ20は、エージェントロボット30からの照会の要求に応じて、不審者管理データベース24を参照し、エージェントロボット30から送信されてきた応答相手の顔特徴量データ及び声紋データにマッチする不審者人物情報を検索する。そして、サーバ20は、不審者人物情報の検索結果をエージェントロボット30に送信して、処理は、ステップS91からステップS102に進む。
 ステップS102において、エージェントロボット30は、サーバ20から送信されてきた不審者人物情報の検索結果に基づいて、応答相手が不審者であるかどうかを判定する。
 ステップS102において、応答相手が不審者であると判定された場合、すなわち、応答相手の顔特徴量データ及び声紋データが不審者管理データベース24に登録されている不審者人物情報のいずれかにマッチする場合、処理はステップS103に進む。一方、ステップS102において、応答相手が不審者でないと判定された場合、すなわち、応答相手の顔特徴量データ及び声紋データが不審者管理データベース24に登録されている不審者人物情報のいずれともマッチしない場合、処理は、図22のステップS131に進む。
 ステップS103において、エージェントロボット30は、不審者である応答相手に対して、全てのプロフィールデータジャンルについて会話を不可とするように応答プライバシーレベルを設定する。そして、処理は、図23のステップS151に進む。
 図22のステップS131において、エージェントロボット30は、プライバシーレベル管理データベース42(図9)に保存されたプライバシーレベル管理情報の人物情報、及び、不審者管理データベース24(図6)に登録された(不審者)人物情報の中に、応答相手の顔特徴量データ及び声紋データにマッチする人物情報が存在しないので、エージェントロボット30は、応答相手が不明な人物であると判定して、応答相手が不明な人物である旨のメッセージ(以下、不明メッセージともいう)を、通信端末10に送信する。また、エージェントロボット30は、不明メッセージとともに、不明な人物である応答相手の顔画像データ及び音声データを、通信端末10に送信する。そして、処理は、ステップS131からステップS111に進む。
 ステップS111では、通信端末10は、エージェントロボット30からの不明な人物である応答相手の顔画像データ及び音声データを受信する。そして、通信端末10のユーザは、エージェントロボット30から受信した不明な人物である応答相手の顔画像データに映る不明な人物を見て、その不明な人物に対し、プライバシーレベル管理情報登録画面としてのウィンドウ150(図13)において、ボタン157を操作することにより、登録プライバシーレベルを設定する。通信端末10は、ユーザにより設定された登録プライバシーレベルとともに、不明な人物の顔画像データ及び音声データをサーバ20に送信する。そして、処理は、ステップS111からステップS121に進む。
 ステップS121において、サーバ20は、通信端末10から送信されてきた不明な人物である応答相手の顔画像データ及び音声データから、顔特徴量データ及び声紋データをそれぞれ抽出し、その顔特徴量データ及び声紋データを含む人物情報に、通信端末10からの登録プライバシーレベルを対応付けることで、不明な人物に対するプライバシーレベル管理情報(図5)を生成する。サーバ20は、そのプライバシーレベル管理情報を、プライバシーレベル管理データベース23(図5)に登録し、処理は、ステップS121からステップS122に進む。
 ステップS122において、サーバ20は、不明な人物に対するプライバシーレベル管理情報の更新日時を現在の日時に更新し、プライバシーレベル管理情報を登録した旨を通信端末10に送信する。そして、処理は、ステップS122からステップS112に進む。
 ステップS112において、通信端末10は、サーバ20から送信されてくるプライバシーレベル管理情報を登録した旨に応じて、エージェントロボット30に、登録プライバシーレベルの設定を完了した(プライバシーレベル管理情報を登録した)旨を送信する。そして、処理は、ステップS112からステップS132に進む。
 ステップS132において、エージェントロボット30は、通信端末10からのプライバシーレベルの設定を完了した旨に応じて、図19で説明したプライバシーレベル管理情報の取得処理を行い、プライバシーレベル管理データベース42(図9)の記憶内容を、不明な人物に対するプライバシーレベル管理情報(図5)が登録された状態に更新する。そして、処理は、ステップS132からステップS133に進む。
 ステップS133において、エージェントロボット30は、プライバシーレベル管理データベース42(図9)に記憶されているプライバシーレベル管理情報(図5)から、不明な人物である応答相手の顔特徴量データ及び声紋データにマッチする人物情報に対応付けられた登録プライバシーレベルを取得し、その登録プライバシーレベルを、応答プライバシーレベルに設定する。そして、処理は、ステップS133から図23のステップS151に進む。
 ステップS151において、エージェントロボット30は、センサ部33(図9)が有するGPS機能により、現在地を取得し、その現在地をサーバ20に送信することにより、現在地の治安に関する治安情報を要求する。そして、処理は、ステップS151からステップS141に進む。
 ステップS141において、サーバ20は、エージェントロボット30からの現在地を受信する。サーバ20は、地域の治安情報データベース25を参照し、エージェントロボット30の現在地の治安の程度を表す治安度を取得する。サーバ20は、地域の治安情報データベース25から取得した治安度をエージェントロボット30に送信する。そして、処理は、ステップS141からステップS152に進む。
 ステップS152において、エージェントロボット30は、サーバ20から送信されてきた治安度に基づいて、現在地の治安度が低い(治安が悪い)かを判定する。
 ステップS152において、エージェントロボット30が、現在地の治安度が(所定の閾値より)低いと判定した場合、処理は、ステップS153に進む。一方、ステップS152において、エージェントロボット30が、現在地の治安度が高い(治安が良い)と判定した場合、処理は、ステップS153をスキップして、ステップS154に進む。
 ステップS153では、現在地の治安度が悪いので、エージェントロボット30は、全てのプロフィールデータジャンルについて会話を不可にするように応答プライバシーレベルを設定する。例えば、エージェントロボット30は、(全てのプロフィールデータジャンルの)応答プライバシーレベルを0に設定する。そして、処理は、ステップS153からステップS154に進む。
 ステップS154において、エージェントロボット30は、センサ部33(図9)が有する時計により現在の時刻を認識し、現在の時刻が、不審者が出やすい時間帯、例えば、夜間(21:00~5:00)の時間帯の時刻であるかを判定する。
 ステップS154において、現在の時刻が、不審者が出やすい時間帯の時刻であると判定された場合、処理はステップS155に進む。一方、ステップS154において、現在の時刻が、不審者が出やすい時間帯の時刻でないと判定された場合、処理は、ステップS155をスキップして、図24のステップS161に進む。
 ステップS155では、現在の時刻が、不審者が出やすい時間帯の時刻であるので、エージェントロボット30は、全てのプロフィールデータジャンルについて会話を不可にするように応答プライバシーレベルを設定する。例えば、エージェントロボット30は、応答プライバシーレベルを0に設定する。そして、処理は、ステップS155から図24のステップS161に進む。
 ステップS161において、エージェントロボット30は、センサ部33(図9)が有するレーザーレンジファインダによって得られる距離を用いて、カメラ31で撮像した顔画像データに映る全ての人物の身長を算出する。そして、処理は、ステップS161からステップS162に進む。
 ステップS162において、エージェントロボット30は、顔画像データに映るいずれかの人物の身長が、例えば、145cm未満であるかどうかを判定する。
 ステップS162において、エージェントロボット30が、顔画像データに映るいずれかの人物の身長が145cm未満であると判定した場合、すなわち、顔画像データに映る人物の中に子供が含まれる可能性が高い場合、処理は、ステップS163に進む。一方、ステップS162において、エージェントロボット30が、顔画像データに映るいずれの人物の身長も145cm未満でないと判定した場合、すなわち、顔画像データに映る人物の中に子供が含まれない可能性が高い場合、応答プライバシーレベル設定処理は終了する。
 ステップS163では、顔画像データに映る人物の中に子供が含まれる場合には、応答相手が悪意を持った不審者である可能性が低いと推認されるので、エージェントロボット30は、極秘チェックがついていないプロフィールデータジャンルについて会話を許可にするように応答プライバシーレベルを設定する。例えば、エージェントロボット30は、(全てのプロフィールデータジャンルのうちの極秘チェックがついていないプロフィールデータジャンルの)応答プライバシーレベルを1に設定する。そして、応答プライバシーレベル設定処理は終了する。
 図25は、応答処理について説明するフローチャートである。
 応答処理では、応答相手の発話に対する応答メッセージが生成されて出力される。
 ステップS171において、エージェントロボット30は、マイク32で集音した応答相手の音声データを用いて、応答相手の発話内容の解析を行い、処理は、ステップS172に進む。
 ステップS172において、エージェントロボット30は、図20ないし図24の応答プライバシーレベル設定処理で設定された応答プライバシーレベルに応じて、会話が許可されているプロフィールデータジャンルのプロフィールデータの内容を織り交ぜた応答メッセージ(文章データ)、すなわち、会話が不許可になっているプロフィールデータジャンルのプロフィールデータの内容が制限された応答メッセージを生成する。そして、処理は、ステップS172からステップS173に進む。
 ステップS173において、エージェントロボット30は、生成した応答メッセージを対象に音声合成を行い、応答メッセージに対応する合成音を生成する。そして、エージェントロボット30は、スピーカ36から合成音を出力することにより、応答相手に応答して、応答処理は終了する。
 以上のように、エージェントロボット30では、応答相手に応じて、プロフィールデータの開示の程度を表す応答プライバシーレベルが設定され、その応答プライバシーレベルに応じた応答メッセージが生成される。したがって、エージェントロボット30は、応答相手に応じて、開示する個人情報の内容を制限した応答を行うことができる。
 以上のようなエージェントロボット30によれば、子供が、エージェントロボット30を身に着けて持ち歩くことで、子供に話しかける人物に応じて、どこまで個人情報を話すか(のプライバシーレベル)を判定し、相手に応じた応答を行うことができる。
 したがって、子供が応答相手を判断できない場合でも、エージェントロボット30は、その応答相手に応じて、適切に個人情報を制限した応答を行うことができる。
 また、エージェントロボット30は、エージェントロボット30のユーザである親や保護者がサーバ20に登録した人物情報を参照する他、他のユーザが登録した人物情報を共有することができるので、ユーザが人物情報を登録していない応答相手であっても、その応答相手を特定することが可能となる。
 さらに、エージェントロボット30は、レーザーレンジファインダ(距離センサ)、GPS、及び、時計、その他の各種の物理量をセンシングするセンサ部33を有することで、エージェントロボット30を携帯する子供の現在の状況を考慮した応答プライバシーレベルの設定を行うことができる。
 なお、図9において、情報処理部35の一部又は全部は、エージェントロボット30ではなく、サーバ20に設けることができる。
 すなわち、図9では、応答プライバシーレベルの設定を、設定部としてのエージェントロボット30のプライバシーレベル判別エンジン43で行うこととしたが、応答プライバシーレベルの設定は、エージェントロボット30からサーバ20に、応答相手の顔画像データ及び音声データを送信することでサーバ20で行われてもよい。サーバ20は、エージェントロボット30から送信されてくる応答相手の顔画像データ及び音声データから人物を特定、すなわち、応答相手の顔画像データから抽出される顔特徴量データ、及び、音声データから抽出される声紋データにマッチする人物情報を特定し、その人物情報に対応付けられている登録プライバシーレベルに応じて、応答プライバシーレベルを設定して、エージェントロボット30に送信することができる。
 また、図9では、応答メッセージの生成を、生成部としてのエージェントロボット30の自動応答エンジン44で行うこととしたが、応答メッセージの生成は、エージェントロボット30からサーバ20に、応答相手の顔画像データ及び音声データを送信することでサーバ20で行われてもよい。サーバ20は、エージェントロボット30から送信されてくる応答相手の顔画像データ及び音声データから、エージェントロボット30と同様にして、応答プライバシーレベルを設定することができる。さらに、サーバ20は、その応答プライバシーレベルに応じて、エージェントロボット30からの音声データに応答する応答メッセージを生成し、その応答メッセージをエージェントロボット30に送信することができる。
 さらに、図9では、応答メッセージを音声で出力することとしたが、応答メッセージは、音声での出力ではなく画面に表示されてもよい。
 その他、エージェントロボット30では、応答プライバシーレベルが1である場合、個人情報を開示し、応答プライバシーレベルが0である場合は、個人情報を開示しないこととしたが、応答プライバシーレベルは、3値以上の値をとることができる。例えば、応答プライバシーレベルとしては、0ないし1の範囲の実数値を採用することができる。そして、そのような実数値の応答プライバシーレベルに応じて、個人情報の内容を制限した応答メッセージを生成することができる。また、登録プライバシーレベルとしては、応答プライバシーレベルと同一範囲の値を採用することができる。
 実数値の応答プライバシーレベル(及び登録プライバシーレベル)を採用する場合には、現在の時刻や、応答相手が子供であるかどうか等に応じて、登録プライバシーレベルに応じて設定された応答プライバシーレベルを増減することができる。実数値の応答プライバシーレベルと、その応答プライバシーレベルに応じて、個人情報の内容を制限した応答メッセージとの関係は、例えば、ディープラーニング等で学習し、その学習結果を用いて、応答メッセージを生成することができる。
 図26は、エージェントロボット30の他の利用例を説明する図である。
 図26では、例えば、家庭において、思春期になり親とあまり話さなくなった子供と、子供が心配で話しかけようとする親の間を取り持つ、いわばホームエージェントとして利用するエージェントロボット30の利用例が示されている。
 エージェントロボット30を、上述のような、ホームエージェントとして利用する場合、エージェントロボット30は、家庭内で使用される。そこで、ホームエージェントとしてのエージェントロボット30は、図8で示した持ち運ぶためのポータブルタイプではなく、据え置きタイプに構成することができる。
 エージェントロボット30を、ホームエージェントとして利用する場合、子供が、通信端末10を用いて、親の顔画像データ及び音声データ等の人物情報、及び、登録プライバシーレベルを含むプライバシーレベル管理情報を、サーバ20のプライバシーレベル管理データベース23(図2)にあらかじめ登録しておくことで、エージェントロボット30は、サーバ20のプライバシーレベル管理データベース23に登録されたプライバシーレベル管理情報を用いて、子供の代わりに親への応答を行うことができる。
 図27は、エージェントロボット30がホームエージェントとして利用される場合の、プライバシーレベル管理情報の登録処理について説明するフローチャートである。
 図27のプライバシーレベル管理情報の登録処理では、サーバ20において、子供による通信端末10の操作に応じて、プライバシーレベル管理情報(図5)が登録される。
 子供が、通信端末10に表示されたウィンドウ150における顔写真選択ボタン152を操作することにより、登録プライバシーレベルを登録する親の顔画像データを登録するのを待って、通信端末10は、ステップS201において、その親の顔画像データをサーバ20に送信し、処理は、ステップS211に進む。
 ステップS211では、サーバ20は、通信端末10から送信されてくる親の顔画像データを受信し、その親の顔画像データから顔特徴量データを抽出して、処理は、ステップステップS202に進む。
 子供が、通信端末10に表示されたウィンドウ150(図13)における音声ファイル入力ボタン154を操作することにより、登録プライバシーレベルを登録する親の音声データを登録するのを待って、通信端末10は、ステップS202において、その親の音声データをサーバ20に送信し、処理は、ステップS212に進む。
 ステップS212では、サーバ20は、通信端末10から送信されてくる親の音声データを受信し、その親の音声データから声紋データを抽出して、処理は、ステップS203に進む。
 子供が、通信端末10に表示されたウィンドウ150(図13)における会話許可欄156のボタン157を操作するのを待って、通信端末10は、ステップS203において、ボタン157の操作に応じて、親の登録プライバシーレベルを設定し、処理は、ステップS204に進む。
 子供が、通信端末10に表示されたウィンドウ150(図13)におけるエリア欄158のボタン159を操作するのを待って、通信端末10は、ステップS204において、ボタン159の操作に応じて、親の出現エリアを設定し、処理は、ステップS205に進む。
 ステップS205において、通信端末10は、通信端末10のユーザの、ウィンドウ150(図13)におけるチェックボックス160のチェックの有無に応じて、共有可否情報を設定し、処理は、ステップS206に進む。ここでは、共有可否情報は、デフォルトで、共有しない(チェックボックス160にチェックがされていない)設定にされる。
 ステップS206において、通信端末10は、ステップS203ないしS205で設定された登録プライバシーレベル、出現エリア、及び、共有可否情報をサーバ20に送信し、処理は、ステップS213に進む。
 なお、ウィンドウ150(図13)において、子供が、氏名の入力欄151に、親の氏名を入力した場合には、ステップS206では、その氏名も送信される。
 ステップS213では、サーバ20は、通信端末10から送信されてくる親の登録プライバシーレベル、出現エリア、共有可否情報、及び、氏名を受信する。さらに、サーバ20は、ステップS211及びS212で抽出された顔特徴量データ及び声紋データと、通信端末10からの親の氏名とに、人物IDを付加して、人物情報を生成する。そして、サーバ20は、人物情報に、通信端末10からの親の登録プライバシーレベル、出現エリア(を表すエリアID)、及び、共有可否情報、さらには、デフォルトの更新日時を対応付けて、親に対するプライバシーレベル管理情報(図5)を生成する。
 サーバ20は、親に対して生成したプライバシーレベル管理情報(図5)を、プライバシーレベル管理データベース23のプライバシーレベル管理テーブル(図5)に追加する形で登録し、処理は、ステップS213からステップS214に進む。
 ステップS214では、サーバ20は、プライバシーレベル管理テーブル(図5)に登録したプライバシーレベル管理情報(図5)の更新日時を、現在の日時に更新し、プライバシーレベル管理情報の登録処理は終了する。
 以上のように、プライバシーレベル管理情報の登録処理において、親の顔特徴量データ及び声紋データを含む人物情報に、登録プライバシーレベル等が対応付けられたプライバシーレベル管理情報(図5)が、サーバ20に登録されることにより、親がエージェントロボット30に話しかけた場合に、エージェントロボット30は、子供が設定した登録プライバシーレベルに応じて設定される応答プライバシーレベルに応じて内容が制限された応答メッセージを出力することができる。
 したがって、子供は、例えば、父親と母親とに対して、異なる登録プライバシーレベルを設定しておくことにより、父親と母親で異なる内容の応答メッセージを、エージェントロボット30から出力させることができる。
 ここで、エージェントロボット30が、親に応答をする場合の応答プライバシーレベル設定処理、及び、応答処理としては、図20ないし図25で説明したフローチャートと同様の処理が行われる。
 図28は、エージェントロボット30のさらに他の利用例を説明する図である。
 図28では、例えば、親がスーパーマーケットに買い物に出かけていて、子供が一人で家で留守番をしている状況に、宅配員が家に訪ねてきた状況が示されている。
 例えば、家のインターホンとしてエージェントロボット30を設置することで、子供がインターホンに出ることなく、エージェントロボット30が子供の代わりに宅配員に応答を行うことができる。例えば、エージェントロボット30は、インターネット上で管理された親のスケジュールを確認し、応答相手が宅配員であることに応じて、再配達を促す応答メッセージを生成して出力することができる。
 エージェントロボット30は、その他、所謂スマートスピーカ等として利用することができる。
 <2.本技術を適用したコンピュータの説明>
 次に、上述したサーバ20や情報処理部35の一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。
 そこで、図29は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
 図29において、CPU(Central Processing Unit)201は、ROM(Read Only Memory)202に記憶されているプログラム、又は記憶部108からRAM(Random Access Memory)203にロードされたプログラムにしたがって各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU201、ROM202、及びRAM203は、バス204を介して相互接続されている。このバス204にはまた、入出力インタフェース205も接続されている。
 入出力インタフェース205には、キーボード、マウスなどによりなる入力部206、LCD(liquid crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部207、ハードディスクなどより構成される記憶部208、モデム、ターミナルアダプタなどより構成される通信部209が接続されている。通信部209は、例えばインターネットなどのネットワークを介しての通信処理を行う。
 入出力インタフェース205にはまた、必要に応じてドライブ210が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部208にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外に効果があってもよい。
 <その他>
 本技術は、以下のような構成をとることができる。
(1)
 音声を集音するマイクと、
  応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、
  前記マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じた前記応答メッセージを生成する
 ことにより得られる前記応答メッセージを出力する出力部と
 を備える情報処理装置。
(2)
 前記出力部は、音声の前記応答メッセージを出力する
 (1)に記載の情報処理装置。
(3)
 前記応答プライバシーレベルを設定する設定部をさらに備える
 (1)又は(2)に記載の情報処理装置。
(4)
 前記応答メッセージを生成する生成部をさらに備える
 (1)ないし(3)のいずれかに記載の情報処理装置。
(5)
 前記応答プライバシーレベルは、前記応答相手に対して登録された前記プライバシーレベルである登録プライバシーレベルに応じて設定される
 (1)ないし(4)のいずれかに記載の情報処理装置。
(6)
 前記応答プライバシーレベルは、人物に関する人物情報と、前記人物情報に対応する前記人物に対する前記登録プライバシーレベルとが対応付けられたプライバシーレベル管理情報において、前記応答相手にマッチする前記人物情報に対応付けられた前記登録プライバシーレベルに応じて設定される
 (5)に記載の情報処理装置。
(7)
 画像を撮像するカメラをさらに備え、
 前記応答プライバシーレベルは、前記プライバシーレベル管理情報において、前記カメラで撮像された前記画像から得られる前記応答相手の画像特徴量にマッチする前記人物情報に対応付けられた前記登録プライバシーレベルに応じて設定される
 (6)に記載の情報処理装置。
(8)
 前記応答プライバシーレベルは、前記プライバシーレベル管理情報において、前記マイクで集音された前記音声から得られる前記応答相手の音声特徴量にマッチする前記人物情報に対応付けられた前記登録プライバシーレベルに応じて設定される
 (6)に記載の情報処理装置。
(9)
 前記登録プライバシーレベルは、前記個人情報のジャンルごとに登録される
 (5)ないし(8)に記載の情報処理装置。
(10)
 前記応答プライバシーレベルは、さらに、現在地の治安情報に応じて設定される
 (1)ないし(9)のいずれかに記載の情報処理装置。
(11)
 前記応答プライバシーレベルは、さらに、現在時刻に応じて設定される
 (1)ないし(10)のいずれかに記載の情報処理装置。
(12)
 前記応答プライバシーレベルは、さらに、前記応答相手の身長に応じて設定される
 (1)ないし(11)のいずれかに記載の情報処理装置。
(13)
 前記ユーザの前記プライバシーレベル管理情報の前記人物情報が、他のユーザの前記プライバシーレベル管理情報の前記人物情報として共有されることにより、前記他のユーザの前記プライバシーレベル管理情報が生成される
 (6)ないし(8)のいずれかに記載の情報処理装置。
(14)
 前記プライバシーレベル管理情報には、前記人物情報と、前記登録プライバシーレベル、及び、前記人物情報に対応する前記人物が現れるエリアを表すエリア情報とが対応付けられており、
 前記ユーザの前記プライバシーレベル管理情報の前記人物情報が、前記ユーザの前記プライバシーレベル管理情報の前記エリア情報が表すエリアに現れる前記他のユーザの前記プライバシーレベル管理情報の前記人物情報として共有されることにより、前記他のユーザの前記プライバシーレベル管理情報が生成される
 (13)に記載の情報処理装置。
(15)
 サーバから、前記応答メッセージを受信する通信部をさらに備える
 (1)ないし(14)のいずれかに記載の情報処理装置。
(16)
 音声を集音することと、
  応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、
  前記マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じて前記個人情報の開示を制限した前記応答メッセージを生成する
 ことにより得られる前記応答メッセージを出力することと
 を含む情報処理方法。
(17)
 応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、
 マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じて前記個人情報の開示を制限した前記応答メッセージを生成する
 ことにより得られる前記応答メッセージを出力する出力部 として、コンピュータを機能させるためのプログラム。
 10 通信端末, 20 サーバ, 21 通信部, 22 ユーザ管理データベース, 23 プライバシーレベル管理データベース, 24 不審者管理データベース, 25 地域の治安情報データベース, 30 エージェントロボット, 31 カメラ, 32 マイク, 33 センサ部, 34 通信部, 35 情報処理部, 36 出力部, 41 発話解析部, 42 プライバシーレベル管理データベース, 43 プライバシーレベル判定エンジン, 44 自動応答エンジン, 45 音声合成部, 100 ウィンドウ, 101ないし104 新規登録ボタン, 105 登録ボタン, 110 ウィンドウ, 111 登録ボタン, 120 ウィンドウ, 121 登録ボタン, 130 ウィンドウ, 131 登録ボタン, 132 極秘チェックボックス, 140 ウィンドウ, 141 登録ボタン, 142 選択ボックス, 143,144 入力ボックス, 150 ウィンドウ, 151 氏名の入力欄, 152 顔写真選択ボタン, 153 顔写真アイコン, 154 音声ファイル入力ボタン, 155 音声ファイルのファイル名, 156 会話許可欄, 157 ボタン, 158 エリア欄, 159 ボタン, 160 チェックボックス, 201 CPU, 202 ROM, 203 RAM, 204 バス, 205 入出力インタフェース, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ, 211 リムーバブルディスク

Claims (17)

  1.  音声を集音するマイクと、
      応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、
      前記マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じた前記応答メッセージを生成する
     ことにより得られる前記応答メッセージを出力する出力部と
     を備える情報処理装置。
  2.  前記出力部は、音声の前記応答メッセージを出力する
     請求項1に記載の情報処理装置。
  3.  前記応答プライバシーレベルを設定する設定部をさらに備える
     請求項1に記載の情報処理装置。
  4.  前記応答メッセージを生成する生成部をさらに備える
     請求項1に記載の情報処理装置。
  5.  前記応答プライバシーレベルは、前記応答相手に対して登録された前記プライバシーレベルである登録プライバシーレベルに応じて設定される
     請求項1に記載の情報処理装置。
  6.  前記応答プライバシーレベルは、人物に関する人物情報と、前記人物情報に対応する前記人物に対する前記登録プライバシーレベルとが対応付けられたプライバシーレベル管理情報において、前記応答相手にマッチする前記人物情報に対応付けられた前記登録プライバシーレベルに応じて設定される
     請求項5に記載の情報処理装置。
  7.  画像を撮像するカメラをさらに備え、
     前記応答プライバシーレベルは、前記プライバシーレベル管理情報において、前記カメラで撮像された前記画像から得られる前記応答相手の画像特徴量にマッチする前記人物情報に対応付けられた前記登録プライバシーレベルに応じて設定される
     請求項6に記載の情報処理装置。
  8.  前記応答プライバシーレベルは、前記プライバシーレベル管理情報において、前記マイクで集音された前記音声から得られる前記応答相手の音声特徴量にマッチする前記人物情報に対応付けられた前記登録プライバシーレベルに応じて設定される
     請求項6に記載の情報処理装置。
  9.  前記登録プライバシーレベルは、前記個人情報のジャンルごとに登録される
     請求項5に記載の情報処理装置。
  10.  前記応答プライバシーレベルは、さらに、現在地の治安情報に応じて設定される
     請求項1に記載の情報処理装置。
  11.  前記応答プライバシーレベルは、さらに、現在時刻に応じて設定される
     請求項1に記載の情報処理装置。
  12.  前記応答プライバシーレベルは、さらに、前記応答相手の身長に応じて設定される
     請求項1に記載の情報処理装置。
  13.  前記ユーザの前記プライバシーレベル管理情報の前記人物情報が、他のユーザの前記プライバシーレベル管理情報の前記人物情報として共有されることにより、前記他のユーザの前記プライバシーレベル管理情報が生成される
     請求項6に記載の情報処理装置。
  14.  前記プライバシーレベル管理情報には、前記人物情報と、前記登録プライバシーレベル、及び、前記人物情報に対応する前記人物が現れるエリアを表すエリア情報とが対応付けられており、
     前記ユーザの前記プライバシーレベル管理情報の前記人物情報が、前記ユーザの前記プライバシーレベル管理情報の前記エリア情報が表すエリアに現れる前記他のユーザの前記プライバシーレベル管理情報の前記人物情報として共有されることにより、前記他のユーザの前記プライバシーレベル管理情報が生成される
     請求項13に記載の情報処理装置。
  15.  サーバから、前記応答メッセージを受信する通信部をさらに備える
     請求項1に記載の情報処理装置。
  16.  音声を集音することと、
      応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、
      前記マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じた前記応答メッセージを生成する
     ことにより得られる前記応答メッセージを出力することと
     を含む情報処理方法。
  17.  応答する応答相手に応じて、ユーザに関する個人情報を開示する程度を表すプライバシーレベルであって、前記応答相手に対する応答時の前記プライバシーレベルである応答プライバシーレベルを設定し、
     マイクにより集音された前記応答相手の発話に応答する応答メッセージであって、前記応答プライバシーレベルに応じた前記応答メッセージを生成する
     ことにより得られる前記応答メッセージを出力する出力部
     として、コンピュータを機能させるためのプログラム。
PCT/JP2019/000049 2018-01-16 2019-01-07 情報処理装置、情報処理方法、及び、プログラム WO2019142664A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/960,916 US20200349948A1 (en) 2018-01-16 2019-01-07 Information processing device, information processing method, and program
CN201980005690.0A CN111344692A (zh) 2018-01-16 2019-01-07 信息处理装置、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018004982 2018-01-16
JP2018-004982 2018-01-16

Publications (1)

Publication Number Publication Date
WO2019142664A1 true WO2019142664A1 (ja) 2019-07-25

Family

ID=67302397

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000049 WO2019142664A1 (ja) 2018-01-16 2019-01-07 情報処理装置、情報処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20200349948A1 (ja)
CN (1) CN111344692A (ja)
WO (1) WO2019142664A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11413764B2 (en) * 2019-06-07 2022-08-16 Lg Electronics Inc. Serving robot and method for receiving customer using the same
CN114765625A (zh) * 2020-12-31 2022-07-19 新智云数据服务有限公司 基于联合学习的信息交互方法、装置和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007145200A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 車両用認証装置及び車両用認証方法
JP2009208741A (ja) * 2008-03-06 2009-09-17 Aisin Seiki Co Ltd 支援システム
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
JP2015064450A (ja) * 2013-09-24 2015-04-09 シャープ株式会社 情報処理装置、サーバ、および、制御プログラム
WO2016035759A1 (ja) * 2014-09-03 2016-03-10 インターマン株式会社 人型ロボット
JP2017058749A (ja) * 2015-09-14 2017-03-23 ヤフー株式会社 認証装置、認証方法及び認証プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007145200A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 車両用認証装置及び車両用認証方法
JP2009208741A (ja) * 2008-03-06 2009-09-17 Aisin Seiki Co Ltd 支援システム
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
JP2015064450A (ja) * 2013-09-24 2015-04-09 シャープ株式会社 情報処理装置、サーバ、および、制御プログラム
WO2016035759A1 (ja) * 2014-09-03 2016-03-10 インターマン株式会社 人型ロボット
JP2017058749A (ja) * 2015-09-14 2017-03-23 ヤフー株式会社 認証装置、認証方法及び認証プログラム

Also Published As

Publication number Publication date
US20200349948A1 (en) 2020-11-05
CN111344692A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
US20220374438A1 (en) Personalized concontextual suggestion engine
CN107924506B (zh) 用于推断用户可用性的方法、系统及计算机存储介质
JP6397416B2 (ja) 拡張現実感を伴う存在の粒度に関連する方法
US11146526B2 (en) Social networking service collaboration
AU2017321747A1 (en) Real estate management system, method, and program
US20220286438A1 (en) Machine learning techniques for mitigating aggregate exposure of identifying information
JP2022168015A (ja) 応対ロボット、応対方法及びプログラム
US20180082387A1 (en) Information processing device, information processing method, and program
Oh et al. A mobile context sharing system using activity and emotion recognition with Bayesian networks
WO2019142664A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2022022083A (ja) 入退場管理装置、入退場管理方法、入退場管理プログラム、および入退場管理システム
KR101693429B1 (ko) 대인 관계 유형 파악을 통한 코칭 정보 제공 시스템
JP6114773B2 (ja) 情報処理装置及び方法
JP6242359B2 (ja) 情報処理装置及び方法
US10943117B2 (en) Translation to braille
US20220279065A1 (en) Information processing terminal and automatic response method
WO2016176376A1 (en) Personalized contextual suggestion engine
JP7495134B2 (ja) 捜索システム
Gaete et al. Visitrack: A pervasive service for monitoring the social activity of older adults living at home
US20210383441A1 (en) Service providing apparatus
JP2024049246A (ja) コミュニケーション支援ロボット、コミュニケーション支援方法及びプログラム
JP6230560B2 (ja) 情報処理装置及び方法
JP2021040351A (ja) 情報処理端末および自動応答方法
JP2018125036A (ja) 情報処理装置及び方法
JPWO2019106734A1 (ja) コンピュータシステム、機器制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19741795

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19741795

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP