WO2016067765A1 - 情報処理装置、情報処理方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
WO2016067765A1
WO2016067765A1 PCT/JP2015/075629 JP2015075629W WO2016067765A1 WO 2016067765 A1 WO2016067765 A1 WO 2016067765A1 JP 2015075629 W JP2015075629 W JP 2015075629W WO 2016067765 A1 WO2016067765 A1 WO 2016067765A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information processing
processing apparatus
information
context information
Prior art date
Application number
PCT/JP2015/075629
Other languages
English (en)
French (fr)
Inventor
茶谷 公之
明宏 庵
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2016556426A priority Critical patent/JP6645438B2/ja
Priority to US15/514,590 priority patent/US9936355B2/en
Priority to CN201580053515.0A priority patent/CN106796570B/zh
Priority to EP15854364.5A priority patent/EP3214555B1/en
Publication of WO2016067765A1 publication Critical patent/WO2016067765A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/0816Configuration setting characterised by the conditions triggering a change of settings the condition being an adaptation, e.g. in response to network events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/14Session management
    • H04L67/148Migration or transfer of sessions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/54Presence management, e.g. monitoring or registration for receipt of user log-on information, or the connection status of the users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a computer program.
  • Patent Document 1 proposes a technology that provides support over a plurality of networks that use different radio access technologies.
  • an information processing apparatus that detects at least one of the context information that has been exchanged with the user until the detection of the user's departure from the information processing apparatus toward the other apparatus.
  • An information processing apparatus is provided that includes a control unit that controls to transmit the unit.
  • the information processing device detects proximity of the user to the information processing device, and at least a part of the context information that has been exchanged with the user from other devices until then.
  • An information processing apparatus including a control unit that controls reception is provided.
  • detection of a user leaving the information processing apparatus is detected, and control is performed so that at least a part of the context information that has been exchanged with the user is transmitted to another apparatus.
  • An information processing method including the above is provided.
  • detection of a user leaving the information processing apparatus is detected, and control is performed so that at least a part of the context information that has been exchanged with the user is transmitted to another apparatus.
  • a computer program is provided that causes a computer to execute.
  • the computer detects the proximity of the user to the information processing device and controls to receive at least a part of the context information that has been exchanged with the user from other devices.
  • a computer program is provided for execution.
  • FIG. 11 is an explanatory diagram showing an outline of operations of the information processing apparatus 100 and the information processing apparatus 200. It is a flowchart which shows an operation example. It is a flowchart which shows an operation example. It is a flowchart which shows an operation example. It is a flowchart which shows an operation example. It is a flowchart which shows an operation example. It is a block diagram which shows the hardware structural example.
  • IoT Internet Of Things
  • IoT devices devices that can be connected to the Internet and can exchange information may be collectively referred to as “IoT devices”.
  • the user has a plurality of IoT devices and can send instructions to the IoT device while switching the IoT devices to be operated, and can listen to and listen to contents acquired by the IoT device.
  • This input / output information between the user and the IoT device is hereinafter referred to as “context information”.
  • a certain IoT device has a voice recognition function, and the user inputs a command to the IoT device by speaking to the IoT device, and the IoT device executes a predetermined process based on the input command. Can be output. If the IoT device is the same, when the user utters an instruction word such as “it” or “sakino”, the IoT device analyzes the content uttered by the user, and displays the context information with the user so far. Based on this, it is possible to determine what these directives specifically refer to and execute appropriate processing.
  • the IoT device can be recognized as the user said “it” or “Sakino” by using the voice recognition function, but what the instructions specifically refer to Since it cannot be determined that the information is not based on the context information with the IoT device before switching, appropriate processing cannot be executed.
  • the above-mentioned point is solved.
  • the present disclosure has intensively studied a technology that enables context information to be efficiently linked to a plurality of IoT devices.
  • the present disclosure person has devised a technique that can detect a user's behavior and efficiently link context information to a plurality of IoT devices based on the user's behavior.
  • FIG. 1 is an explanatory diagram illustrating an overall configuration example of an information processing system 1 according to an embodiment of the present disclosure.
  • context information is linked between the information processing apparatuses 100 and 200 that are IoT devices so that the information processing apparatus 200 can take over the processing performed by the user with the information processing apparatus 100.
  • An example of the overall configuration of the information processing system 1 is shown.
  • the information processing system 1 includes information processing apparatuses 100 and 200, a sensor 300, and input / output devices 400a and 400b.
  • the information processing apparatuses 100 and 200 receive an operation input from the user and execute various information processes according to the operation input.
  • the information processing apparatus 100 in the information processing system 1 includes a control unit 110, a detection unit 120, and a context information management unit 130. .
  • the control unit 110 is a block that controls the operation of the information processing apparatus 100, and may be configured by a CPU, a ROM, a RAM, and the like, for example.
  • the control unit 110 sends an instruction to the context information management unit 130 based on an instruction from the detection unit 120, and selects a content output destination from the input / output devices 400a and 400b. Execute the process.
  • the processing executed by the control unit 110 is not limited to this example.
  • the detecting unit 120 detects the state of the user who uses the information processing apparatus 100 that is an IoT device. As shown in FIG. 1, the detection unit 120 includes a recognition unit 122.
  • the recognition unit 122 acquires sensing data from the sensor 300 that senses the situation of the user who uses the information processing apparatus 100, and detects the state of the user who uses the information processing apparatus 100 based on the sensing data acquired from the sensor 300. .
  • the sensor 300 will be described later.
  • sensors constituting the sensor 300 for example, a GPS (Global Positioning System), a GLONASS (Global Navigation Satellite System), a BDS (BeiDou Navigation Satellite System), a current sensor acquiring position, and the like.
  • a camera with depth information, a human sensor, a microphone, and the like may be included.
  • the sensor 300 detects acceleration, angular velocity, azimuth, illuminance, temperature, atmospheric pressure and the like applied to the apparatus.
  • the various sensors described above can detect various information as information related to the user, for example, information indicating the user's movement and orientation.
  • the sensor 300 may include a sensor that detects biological information of the user such as a pulse, sweating, brain waves, touch, smell, and taste.
  • the recognition unit 122 detects the state of the user who uses the information processing apparatus 100 based on the sensing data acquired from the sensor 300, and performs a predetermined notification to the control unit 110 based on the detection result.
  • the notification from the recognition unit 122 to the control unit 110 is, for example, that the user may try to use the information processing apparatus 100 by moving the position of the user.
  • the control unit 110 instructs the context information management unit 130 to acquire context information.
  • the context information management unit 130 manages context information.
  • the context information management unit 130 holds the content of context information that is the content of interaction with the IoT device.
  • the context information management unit 130 executes a process of acquiring context information from another IoT device based on an instruction from the control unit 110.
  • the dialogue content to the IoT device includes voice, text, image, biometric data, and other input from the user to the IoT device.
  • Information included in the context information includes, for example, information that identifies the user who is operating, information that identifies the application that the user is using, or content that the user is browsing, the execution status of the application, Information specifying a browsing location or the like may be included.
  • the information included in the context information is not limited to this example.
  • the context information management unit 130 stores the context information in association with information that uniquely identifies the user (for example, information such as a user ID).
  • the context information management unit 130 stores context information in association with information that uniquely identifies a user, so that processing such as specifying the context information holding source and acquiring context information corresponding to the context information holding source is performed. It becomes possible.
  • Table 1 is an example of context information managed by the context information management unit 130.
  • Table 1 shows an example of context information when context information is managed in units of user IDs.
  • the information processing apparatus 200 may have a configuration similar to that of the information processing apparatus 100.
  • the information processing apparatus 100 determines the status of the user who uses the information processing apparatus 100 using the sensing data obtained by sensing by the sensor 300.
  • the user status determined by the information processing apparatus 100 using the sensing data obtained by sensing by the sensor 300 may include, for example, the user's moving direction, moving speed, and the like.
  • the sensor 300 is provided to detect that the user is likely to use the information processing apparatus 100 next when the user approaches the information processing apparatus 100. In addition, the sensor 300 is provided to detect that the possibility that the user will not use the information processing apparatus 100 increases when the user leaves the information processing apparatus 100.
  • the senor 300 be installed at a position and orientation in which the corresponding information processing apparatus 100 can determine the proximity or separation of the user.
  • the sensor 300 is preferably provided in the vicinity of the information processing apparatus 100, but may be provided on the movement path of the user to the information processing apparatus 100.
  • the senor 300 can be provided not only to detect the proximity of a person but also to recognize who is in proximity. Therefore, as described above, the sensor 300 preferably includes a device that can acquire information for identifying a person, such as a camera or a microphone. Therefore, for example, if information such as a human figure, a human voice, and vibration is obtained by sensing by the sensor 300, the information processing apparatus 100 can discriminate nearby humans using the sensing data. Of course, if there is only one user using the IoT device, the sensor 300 may have only a function of detecting the proximity of a person.
  • the information processing apparatus 100 can detect the proximity of the user. Then, the information processing apparatus 100 detects the proximity of the user by acquiring sensing data from the sensor 300, acquires context information from another IoT device (for example, the information processing apparatus 200), and continues the dialogue with the user. Can do.
  • FIG. 1 shows information processing apparatuses 100 and 200 of two IoT devices. For example, when the user is interacting with the information processing apparatus 200 and the sensor 300 detects that the user is heading toward the information processing apparatus 100, the information processing apparatus 100 receives the context information from the information processing apparatus 200. Acquire.
  • a case where an area in charge of a certain IoT device is in contact with or a part of the area in charge of another IoT device is expressed as “adjacent”, and a case where it is not in contact is expressed as “proximity”
  • proximity For example, when a user exists in a place where the areas covered by a plurality of IoT devices overlap, it is necessary to consider which IoT device should pick up audio or which IoT device should be responsible for output. It is better to consider.
  • the assigned areas overlap it may be determined which IoT device executes the processing by, for example, image recognition using an image captured by a camera or voice recognition collected by a microphone. For example, an IoT device that has been determined that the user is facing the front as a result of image recognition or voice recognition may execute processing.
  • FIG. 2 is an explanatory diagram showing an outline of operations of the information processing apparatus 100 and the information processing apparatus 200. For example, it is assumed that a user is interacting with the information processing apparatus 200 and the user is moving to a place where the information processing apparatus 100 is placed while moving. When the sensor 300 detects that the user has approached, the sensor 300 notifies the information processing apparatus 100 of the proximity of the user.
  • the information processing apparatus 100 When the information processing apparatus 100 receives the notification from the sensor 300, the information processing apparatus 100 determines that the user is approaching, and acquires context information from the information processing apparatus 200. By acquiring the context information from the information processing apparatus 200, the information processing apparatus 100 can take over the conversation that the user has been performing on the information processing apparatus 200.
  • the information processing apparatus 200 illustrated in the example of FIG. 2 is also referred to as “proximity IoT device”, and the information processing apparatus 100 is also referred to as “proximity IoT device”.
  • the information processing apparatus 100 and the information processing apparatus 200 are in a range where direct communication is possible, the information processing apparatus 100 can directly acquire the context information from the information processing apparatus 200.
  • the information processing apparatus 100 and the information processing apparatus 200 are not in a range where direct communication is possible, the information processing apparatus 100 acquires context information from, for example, the cloud server 10. Therefore, each of the information processing apparatuses 100 and 200 has a function of transmitting context information to the cloud server 10 and receiving it from the cloud server 10.
  • all of the held context information may be transmitted from the neighboring IoT device to the neighboring IoT device.
  • transmission may take time. Therefore, there is a possibility that the transmission of the context information may not be in time for the start of the dialogue process in the adjacent IoT device. Therefore, only a part of the held context information may be transmitted from the neighboring IoT device to the neighboring IoT device.
  • context information transmitted by the neighboring IoT device for example, context information generated most recently in time, or only context that is considered to be optimal based on past context information and current user situations There is information.
  • Current user situations include time, place, and the person with whom they are together.
  • the current user situation is determined by the proximity IoT device from sensing data obtained by the sensor 300, for example.
  • Whether or not the information processing apparatus 100 and the information processing apparatus 200 are in a range in which direct communication is possible may be determined by, for example, detecting the strength of radio waves used by the information processing apparatus 200 for wireless communication. That is, the information processing apparatus 100 does not detect radio waves from the information processing apparatus 200 at all, or the range in which the information processing apparatus 200 can communicate directly with the information processing apparatus 200 when the radio waves are detected but the intensity is less than a predetermined value. It may be judged that there is not.
  • radio wave used by the information processing apparatus 200 for wireless communication for example, a radio wave in a frequency band used in Wi-Fi, Bluetooth (registered trademark) or the like can be used, but the radio wave is limited to a specific band or radio wave. It is not a thing.
  • the information processing apparatus 100 acquires context information managed by the information processing apparatus 200 directly from the information processing apparatus 200 or via the cloud server 10, so that the user can access the information processing apparatus 200. You can take over the dialogue you have been doing.
  • an example in which input / output devices 400 a and 400 b that output content and receive input from a user are provided in the information processing system 1.
  • the present disclosure is not limited to such an example, and the information processing apparatus 100 may be configured to output content or accept input from a user.
  • the information processing apparatus 100 When the voice or image input from the user is obtained by the plurality of input / output devices 400a and 400b, the information processing apparatus 100 adopts the input having the best quality. In addition, when there are a plurality of input / output devices 400a and 400b as output destination candidates, the information processing apparatus 100 may specify, for example, all the input / output devices 400a and 400b as output destinations and specify the output destination for the user. You may be allowed to ask.
  • FIG. 3 is an operation example of the information processing system 1 according to an embodiment of the present disclosure, and is a flowchart illustrating an operation example of a proximity IoT device (for example, the information processing apparatus 200 in FIG. 2).
  • a proximity IoT device for example, the information processing apparatus 200 in FIG. 2.
  • the neighboring IoT device determines whether there is a request for context information from another IoT device (step S101). If there is a request for context information from another IoT device (step S101, Yes), the neighboring IoT device The context information is transmitted to the IoT device that transmitted the request for the context information (step S102).
  • the neighboring IoT device waits until there is a request for context information from another IoT device.
  • the proximity IoT device may transmit the context information to the cloud server 10 instead of directly transmitting the context information to the other IoT devices.
  • FIG. 4 is an operation example of the information processing system 1 according to an embodiment of the present disclosure, and is a flowchart illustrating an operation example of the approached IoT device (for example, the information processing apparatus 100 in FIG. 2).
  • the proximity IoT device in the information processing system 1 according to an embodiment of the present disclosure will be described with reference to FIG.
  • the proximity IoT device acquires sensing data from the sensor 300 (step S111), and determines whether the user is approaching based on the sensing data acquired from the sensor 300 (step S112).
  • the method is not limited to a specific method. For example, if the acquired sensing data includes an image captured by a camera and the image of the human face grows with time, it can be determined that the human is facing the camera. Further, for example, if the acquired sensing data includes an image captured by the camera and the image is such that the back of the human head becomes smaller with time, it can be determined that the human is coming from the camera.
  • a detection target for example, it is not only a video in which a human face grows with time, but also whether the detected face is the detection target user's face, It is possible to determine whether the detection target user is approaching.
  • step S112 if it is determined that the user is not approaching (No in step S112), the adjacent IoT device returns to the sensing data acquisition process in step S111.
  • step S112 if it is determined that the user is approaching (step S112, Yes), the adjacent IoT device subsequently discovers the context information holding source (step S113), and The context information is acquired from the holding source, and the context information is interpreted (step S114).
  • the proximity IoT device may receive context information from the cloud server 10 instead of directly receiving the context information from the proximity IoT device.
  • FIG. 5 is an operation example of the information processing system 1 according to an embodiment of the present disclosure, and is a flowchart illustrating an operation example of the approached IoT device (for example, the information processing apparatus 100 in FIG. 2).
  • FIG. 5 shows an operation example when the user leaves the proximity IoT device.
  • an operation example of the proximity IoT device in the information processing system 1 according to an embodiment of the present disclosure will be described with reference to FIG.
  • the proximate IoT device acquires sensing data from the sensor 300 (step S121), and determines whether the user has left the proximate IoT device based on the sensing data acquired from the sensor 300 (step S122).
  • step S122 If it is determined as a result of the determination in step S122 that the user has not left (No in step S122), the adjacent IoT device returns to the sensing data acquisition process in step S121.
  • step S122 if it is determined that the user has left as a result of the determination in step S122 (step S122, Yes), the adjacent IoT device subsequently saves the context information in the cloud server 10 (step S123).
  • each device configuring the information processing system 1 sends context information to each other by approaching or leaving the user, or stores the context information in the cloud server 10.
  • FIG. 6 is a flowchart illustrating an operation example of the proximity IoT device configuring the information processing system 1 according to an embodiment of the present disclosure.
  • FIG. 6 shows an operation example of the proximity IoT device when context information is exchanged via the cloud server 10.
  • FIG. 6 shows an operation example of the proximity IoT device when context information is exchanged via the cloud server 10.
  • the proximity IoT device acquires sensing data from the sensor 300 (step S131), and determines whether the user is approaching based on the sensing data acquired from the sensor 300 (step S132).
  • step S132 if it is determined that the user is not approaching (No in step S132), the approached IoT device returns to the sensing data acquisition process in step S131.
  • step S132 if it is determined that the user is approaching (step S132, Yes), then the adjacent IoT device discovers the source of the context information (step S133), and The context information is acquired from the holding source, and the context information is interpreted (step S134). At this time, the adjacent IoT device receives the context information from the cloud server 10.
  • the proximate IoT device processes the user request using the context information acquired from the proximate IoT device (step S135).
  • the proximate IoT device acquires sensing data from the sensor 300 (step S136), and determines whether the user has left the proximate IoT device based on the sensing data acquired from the sensor 300 (step S137).
  • step S137 If it is determined as a result of the determination in step S137 that the user has not left (step S137, No), the adjacent IoT device returns to the user request processing in step S135.
  • step S137 if it is determined that the user has left (step S137, Yes), then the adjacent IoT device stores the context information in the cloud server 10 (step S138).
  • the proximate IoT device may be in a sleep state before executing the series of processes shown in FIG.
  • the proximity IoT device detects the proximity of the user, it cancels the sleep state and shifts to a mode for performing a normal operation.
  • the proximity IoT device can exchange context information with the proximity IoT device via the cloud server 10 by executing a series of operations as shown in FIG. Then, the proximity IoT device acquires a context information via the cloud server 10 with the proximity IoT device by executing a series of operations as shown in FIG. 6, and the user has performed so far.
  • the dialogue processing can be continued by taking over the dialogue processing.
  • FIG. 7 is a flowchart illustrating an operation example of the proximity IoT device configuring the information processing system 1 according to an embodiment of the present disclosure.
  • FIG. 7 shows an operation example of the proximity IoT device when context information is directly exchanged without using the cloud server 10.
  • FIG. 7 shows an operation example of the proximity IoT device when context information is directly exchanged without using the cloud server 10.
  • the proximity IoT device acquires sensing data from the sensor 300 (step S141), and determines whether the user is approaching based on the sensing data acquired from the sensor 300 (step S142).
  • step S142 if it is determined that the user is not approaching (No in step S142), the approached IoT device returns to the sensing data acquisition process in step S141.
  • step S142 if it is determined that the user is approaching (step S142, Yes), then the adjacent IoT device discovers the source of the context information (step S143), and The context information is acquired from the holding source, and the context information is interpreted (step S144).
  • the proximity IoT device processes the user's request using the context information acquired from the proximity IoT device (step S145).
  • the proximate IoT device acquires sensing data from the sensor 300 (step S146), and determines whether the user has left the proximate IoT device based on the sensing data acquired from the sensor 300 (step S147).
  • step S147 If it is determined as a result of the determination in step S147 that the user has not left (step S147, No), the adjacent IoT device returns to the user request process in step S145.
  • step S147 if it is determined that the user has left (step S147, Yes), then the adjacent IoT device determines whether a request for context information has been received from another IoT device ( Step S148).
  • step S148 If it is determined in step S148 that there is a request for context information from another IoT device (Yes in step S148), the adjacent IoT device transmits the context information to the IoT device that transmitted the request for the context information. (Step S149).
  • step S 148, No the adjacent IoT device acquires sensing data from the sensor 300 (step S 150), and uses the sensing data acquired from the sensor 300. Then, it is determined whether or not the user who once left is approaching again (step S151).
  • step S151 if it is determined that the user is not approaching again (No in step S151), the adjacent IoT device returns to the determination processing for determining whether or not there is a request for context information in step S148. On the other hand, as a result of the determination in step S151, if it is determined that the user has approached again (step S151, Yes), the adjacent IoT device returns to the user request process in step S145 and executes the subsequent process.
  • the proximity IoT device may shift from a mode in which a normal operation is performed to a sleep state when detecting the user's detachment.
  • the proximity IoT device can exchange context information with the proximity IoT device without passing through the cloud server 10 by executing a series of operations as shown in FIG. Then, the proximity IoT device performs a series of operations as shown in FIG. 7 to obtain context information directly with the proximity IoT device without going through the cloud server 10,
  • the dialog processing can be continued by taking over the dialog processing that has been performed.
  • the IoT device detects the proximity of a user, and performs processing for requesting context information from another IoT device based on the proximity of the user. By executing, context information can be acquired from another IoT device.
  • the proximity IoT device can be a candidate for the context information request source when the context information request source is unclear but the context information request source is unknown or when there are a plurality of context information request sources.
  • the context information may be broadcasted to one or more IoT devices.
  • a method for determining an IoT device that can be a candidate for example, a method of acquiring information on an IoT device that is adjacent or close to the current position and determining the adjacent or adjacent IoT device as a candidate of a context information request source and so on.
  • the IoT device constantly monitors microphone input and detects “start of dialog” in response to a specific keyword in order to determine that the user wants to perform the dialog processing or starts the dialog.
  • the IoT device may start accepting voice commands when a predetermined keyword is spoken.
  • the IoT device may start monitoring the microphone input by detecting the proximity or presence of the user with the sensor 300, for example.
  • the proximity of the user is detected by the sensor 300 and the proximity IoT device acquires context information from the proximity IoT device, but the present disclosure is not limited to such an example.
  • the movement of the user who uses the proximity IoT device is detected by the sensor 300, and the moving direction of the user is detected based on the movement of the user. Then, based on the moving direction of the user, the proximity IoT device may select a proximity IoT device that the user will approach next. Then, the proximity IoT device sends information after the user selects the next closest IoT device to be approached.
  • a rule that can identify the IoT device that the user will appear next may be registered in each IoT device. For example, if a sensor senses the approach of a person in the order of A and B, then a rule in which a correspondence relationship is defined such that the next IoT device to be approached is this IoT device is registered in each IoT device. Good.
  • each IoT device may gradually learn rules that associate the order in which the sensor 300 senses a person with the IoT device. For example, if the sensor detects a person approaching in a certain order, the IoT device may be made to learn a rule that the IoT device is likely to be used later.
  • identification information such as the IP address of each IoT device and the actual position are associated and listed, and when the sensor reacts, the context information is passed to a specific IoT device corresponding to the location of the sensor. You may do it.
  • the adjacent IoT device that the user approaches next may not be specified. That is, the installer of the IoT device designates all adjacent IoT devices. The neighboring IoT device may then transfer the context to all those IoT devices.
  • the information processing system according to the present embodiment is particularly useful in the following cases.
  • a user who was watching a video on a certain IoT device placed in the living room moved to another room and told the IoT device in that room “Show me the continuation of the previous video”. This is when speaking.
  • the IoT device in the room acquires the context information from the IoT device placed in the living room by the user's movement, and refers to the context information without requiring the user's logon process and by the utterance of the user's utterance. Then you can play the same video continuously.
  • the IoT device downloads the recipe.
  • the IoT device for example, a tablet terminal
  • the IoT device placed in the kitchen acquires context information from the IoT device that has downloaded the recipe.
  • the user utters “Put out a previous recipe” on an IoT device placed in the kitchen, the IoT device placed in the kitchen is separated by referring to the context information without requiring user logon processing.
  • the recipe downloaded by the IoT device can be displayed.
  • a user ID and a user ID of a user's close relative for example, father, mother, brother, etc.
  • context information associated with these user IDs is extracted, and until then, IoT It is also possible to continue the dialogue based on what the close relative was talking to the device. For example, when a user asks the IoT device, “Where did your dad say you want to go?”, The IoT device inquired identifies the user ID of “dad” From the context information associated with the user ID, it is possible to extract the contents related to the trip and create an answer.
  • the adjacent IoT device can acquire the context information directly or indirectly from the adjacent IoT device.
  • the adjacent IoT device may store the context information for a while. If there is an extremely high need to avoid the loss of context information, the proximity IoT device may store the context information in a home server, a cloud server, or the like.
  • the neighboring IoT device may hold the context information for a while after obtaining the context information from the neighboring IoT device.
  • the context information passed from the neighboring IoT device to the neighboring IoT device all data may be transmitted. However, when the amount is enormous and transmission is not in time, processing performed by the neighboring IoT device is performed. Only the necessary amount may be transmitted from the neighboring IoT device to the neighboring IoT device.
  • the neighboring IoT device transmits the information necessary to continue the dialogue processing with the neighboring IoT device, and the rest resumes the dialogue processing with the neighboring IoT device. Then, it may be transmitted in the background.
  • the video data itself being browsed is included in the context information, that is, when the content file exists only in the neighboring IoT device, the content is streamed from the neighboring IoT device to the neighboring IoT device. You may make it do.
  • the processing itself may be outsourced to another IoT device. That is, the main part of the process continues to run on the server (or the user's nearest terminal), but may follow the user by cooperating with the surrounding IoT devices.
  • this method is also referred to as “distributed agent method”.
  • an IoT device As a consignee and a processing time limit for consignment processing, and appropriately set which IoT device should perform context information and consignment processing.
  • the context information transmission from the neighboring IoT device to the neighboring IoT device is not in time or the context information transmission fails. That is, this is a case where the user starts a dialogue process with respect to the adjacent IoT device while the context information is being transmitted from the adjacent IoT device to the adjacent IoT device.
  • the neighboring IoT device and the neighboring IoT device perform the following processing, for example.
  • the proximity IoT device or the proximity IoT device may make the user wait until the transfer of the context information is completed. Further, if possible, the adjacent IoT device may transfer the remaining context information in the background while restarting the dialogue processing using only the partial context information for which transmission has been completed. The proximate IoT device may give up taking over the context information from the proximate IoT device, and the proximate IoT device may ask the user again.
  • the IoT device may return to an initial state, that is, a state without context information.
  • the IoT device may store the context information itself so that it can be resumed at any time.
  • the IoT device stores the context information itself so that, for example, a dialogue process with the user such as “It was a trip that was considered last week” or “In the middle of searching for an inn”. Can be resumed.
  • the IoT device may define a specific keyword for resetting the previous interaction processing. For example, when the user speaks the specific keyword again, the IoT device may return to the state before starting the interactive process with the user. Further, when the user utters a switching-specific keyword such as “by the way ...”, the IoT device may return to the state before starting the interactive process with the user.
  • the IoT device may save the context information itself so that it can be resumed at any time.
  • the adjacent IoT device When acquiring the context information from the adjacent IoT device, acquires new context information in terms of time when acquiring the context information for the first time, and acquires past data when the user designates the content specifying the time. It may be.
  • the proximity IoT device acquires new context information in terms of time when it is first acquired, but when the user designates content specifying a time such as “one week ago”, the specified one week ago
  • the context information may be acquired from the proximity IoT device or the cloud server 10.
  • the proximity IoT device receives sensing data from the sensor 300 and estimates a user's moving direction from the sensing data, thereby determining a proximity IoT device that is considered to be operated next by the user, and the proximity
  • the context information may be transmitted to the IoT device. If the adjacent IoT device has stopped operating, the adjacent IoT device may transmit the context information after transmitting a command for starting the adjacent IoT device.
  • the proximity IoT device receives the context information from the adjacent IoT device and further detects the movement of the user, the received context information is transmitted to another IoT device that is considered to be located in the movement direction of the user. May be.
  • the neighboring IoT device transmits the received context information to another IoT device, the neighboring IoT device may delete the context information received from the neighboring IoT device.
  • FIG. 8 is a block diagram illustrating a hardware configuration example of the information processing apparatus 100 according to the embodiment of the present disclosure.
  • Each of the above algorithms can be executed using, for example, the hardware configuration of the information processing apparatus shown in FIG. That is, the processing of each algorithm is realized by controlling the hardware shown in FIG. 8 using a computer program.
  • the form of this hardware is arbitrary, for example, personal information terminals such as personal computers, mobile phones, PHS, PDAs, game machines, contact or non-contact IC chips, contact or non-contact ICs This includes cards, speakers, televisions, monitors, wearable devices, or various information appliances.
  • PHS is an abbreviation of Personal Handy-phone System.
  • the PDA is an abbreviation for Personal Digital Assistant.
  • this hardware mainly includes a CPU 902, a ROM 904, a RAM 906, a host bus 908, and a bridge 910. Further, this hardware includes an external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926.
  • the CPU is an abbreviation for Central Processing Unit.
  • the ROM is an abbreviation for Read Only Memory.
  • the RAM is an abbreviation for Random Access Memory.
  • the CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928.
  • the ROM 904 is a means for storing a program read by the CPU 902, data used for calculation, and the like.
  • a program read by the CPU 902 various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.
  • a host bus 908 capable of high-speed data transmission.
  • the host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example.
  • a bridge 910 for example.
  • the input unit 916 for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used.
  • a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • a display device such as a CRT, LCD, PDP, or ELD
  • an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, etc.
  • the above CRT is an abbreviation of Cathode Ray Tube.
  • the LCD is an abbreviation for Liquid Crystal Display.
  • the PDP is an abbreviation for Plasma Display Panel.
  • the above ELD is an abbreviation for Electro-Luminescence Display.
  • the storage unit 920 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • HDD hard disk drive
  • the above HDD is an abbreviation for Hard Disk Drive.
  • the drive 922 is a device that reads information recorded on a removable recording medium 928 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 928.
  • the removable recording medium 928 is, for example, a DVD medium, a Blu-ray medium, an HD DVD medium, various semiconductor storage media, or the like.
  • the removable recording medium 928 may be, for example, an IC card on which a non-contact type IC chip is mounted, an electronic device, or the like.
  • the above IC is an abbreviation for Integrated Circuit.
  • the connection port 924 is a port for connecting an external connection device 930 such as a USB port, an IEEE 1394 port, a SCSI, an RS-232C port, or an optical audio terminal.
  • the external connection device 930 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.
  • the USB is an abbreviation for Universal Serial Bus.
  • the SCSI is an abbreviation for Small Computer System Interface.
  • the communication unit 926 is a communication device for connecting to the network 932.
  • a wired or wireless LAN for example, a wired or wireless LAN, Bluetooth (registered trademark), or a WUSB communication card, an optical communication router, an ADSL router, or a contact Or a device for non-contact communication.
  • the network 932 connected to the communication unit 926 is configured by a wired or wireless network, such as the Internet, home LAN, infrared communication, visible light communication, broadcast, or satellite communication.
  • the above LAN is an abbreviation for Local Area Network.
  • the WUSB is an abbreviation for Wireless USB.
  • the above ADSL is an abbreviation for Asymmetric Digital Subscriber Line.
  • Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • the proximity of a user is detected, and based on the proximity of the user, context information that is processing content between the user and another device is transmitted from another device.
  • An information processing apparatus 100 to be acquired is provided.
  • the information processing apparatus 100 acquires the context information from another apparatus based on the proximity of the user, thereby performing processing (interaction processing) performed between the other apparatus and the user. ) Can be taken over.
  • the information processing apparatus 200 that provides context information to other devices based on a request for context information from another device that has detected the proximity of the user is provided.
  • the information processing apparatus 200 provides context information to other apparatuses based on a request for context information from another apparatus that has detected the proximity of the user. It is possible to take over the processing (interactive processing) performed between the two devices to another device.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • An information processing apparatus An information unit comprising: a control unit that detects a user's departure from the information processing device and controls to send at least a part of the context information that has been exchanged with the user until then to another device; Processing equipment.
  • the information processing apparatus according to (1) wherein the control unit performs control to directly transmit the context information to the other apparatus.
  • the control unit controls the context information to be transmitted to the other apparatus via a server apparatus.
  • control unit detects a source of the context information using a user ID and extracts the context information.
  • control unit extracts the context information based on the user ID.
  • control unit extracts the context information based on another user ID different from the user ID.
  • control unit detects a user's movement based on sensing data to detect a moving direction of the user.
  • the said control part is information processing apparatus as described in said (8) which detects a user's behavior using the image imaged with the imaging device, and detects this user's moving direction.
  • the control unit broadcasts the context information to a possible device. Processing equipment.
  • the information processing apparatus according to any one of (1) to (12), wherein the context information is information based on a voice input by a user.
  • An information processing apparatus An information processing apparatus, An information processing apparatus comprising: a control unit that detects proximity of the user to the information processing apparatus, and controls to receive at least a part of the context information that has been exchanged with the user from another apparatus.
  • the control unit controls the context information to be received directly from another apparatus with which the user has exchanged.
  • the information processing apparatus according to (14) or (15), wherein the control unit controls the context information to be received from another apparatus that the user has exchanged so far via a server apparatus.
  • the information processing apparatus according to any one of (14) to (16), wherein the control unit detects a user's movement based on sensing data to detect a moving direction of the user.
  • the said control part is information processing apparatus as described in said (17) which detects a user's movement using the image imaged with the imaging device, and detects this user's moving direction.
  • the control unit controls to receive the context information generated in a part of a time period.
  • the control unit determines a reception source of the context information using information in which an apparatus and a position of the apparatus are associated with each other.
  • control unit When the control unit further detects the movement of the user, the control unit performs control to transmit at least a part of the context information to another device in the detected moving direction, any one of (14) to (20) The information processing apparatus described in 1.
  • control unit controls to delete the received context information.
  • control unit controls to delete the received context information.
  • context information is information based on a voice input by a user.
  • An information processing method comprising: detecting a user's departure from an information processing device, and controlling to send at least part of the context information that has been exchanged with the user until then to another device .

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】ユーザの行動を検出し、ユーザが操作する機器間でのデータ連携を先回りすることでユーザの利便性を飛躍的に向上させることが可能な情報処理装置を提供する。 【解決手段】情報処理装置であって、ユーザの前記情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御する制御部を備える、情報処理装置が提供される。かかる情報処理装置は、コンテキスト情報の取得により、ユーザの利便性を飛躍的に向上させることが可能となる。

Description

情報処理装置、情報処理方法およびコンピュータプログラム
 本開示は、情報処理装置、情報処理方法およびコンピュータプログラムに関する。
 情報処理技術や通信技術の発達に伴い、インターネットに接続することが出来る機器が、数だけではなく、その種類においても急激に増加している。そのような多くの機器を接続し、よりダイナミックで自律的な情報のやり取りを実現しようという、IoT(Internet Of Things)と呼ばれるコンセプトが注目を浴びつつある。特許文献1には、異なる無線アクセス技術を使用する複数のネットワークに渡って支援を提供する技術が提案されている。
特表2013-516912号公報
 ユーザが、インターネットに繋がる機器を複数持つことは当たり前になってきており、ユーザがある機器に対する操作を行っていた状態で、ユーザが場所を移動して別の機器に対して操作を行おうとした場合に、それまで行っていた操作の内容を継続できると利便性が飛躍的に向上する。
 そこで、本開示では、ユーザの行動を検出し、ユーザが操作する機器間でのデータ連携を先回りすることでユーザの利便性を飛躍的に向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法およびコンピュータプログラムを提案する。
 本開示によれば、情報処理装置であって、ユーザの前記情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御する制御部を備える、情報処理装置が提供される。
 また本開示によれば、情報処理装置であって、ユーザの前記情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御する制御部を備える、情報処理装置が提供される。
 また本開示によれば、ユーザの情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御することを含む、情報処理方法が提供される。
 また本開示によれば、ユーザの情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御することをコンピュータに実行させる、コンピュータプログラムが提供される。
 また本開示によれば、ユーザの情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御することを含む、情報処理方法が提供される。
 また本開示によれば、ユーザの情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御することをコンピュータに実行させる、コンピュータプログラムが提供される。
 以上説明したように本開示によれば、ユーザの行動を検出し、ユーザが操作する機器間でのデータ連携を先回りすることでユーザの利便性を飛躍的に向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法およびコンピュータプログラムを提供することが出来る。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システム1の全体構成例を示す説明図である。 情報処理装置100と情報処理装置200との動作の概要を示す説明図である。 動作例を示す流れ図である。 動作例を示す流れ図である。 動作例を示す流れ図である。 動作例を示す流れ図である。 動作例を示す流れ図である。 ハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の一実施形態
  1.1.背景
  1.2.構成例
  1.3.動作例
 2.ハードウェア構成例
 3.まとめ
 <1.本開示の一実施形態>
 [1.1.背景]
 本開示の実施形態について詳細に説明する前に、まず本開示の実施形態の背景について説明する。背景について説明した後に、本開示の実施形態について詳細に説明する。
 上述したように、情報処理技術や通信技術の発達に伴い、インターネットに接続することが出来る機器の数および種類の増加が著しい。ユーザは、このようにインターネットに接続できる様々な機器を用いてインターネットに接続して、情報を取得したり、ある機器から別の機器へ指示を送ったりすることが出来るようになってきている。そして上述したように、多くの機器を接続し、よりダイナミックで自律的な情報のやり取りを実現しようという、IoT(Internet Of Things)というコンセプトが注目を浴びつつある。
 なお、以下においては、インターネットに接続することが出来て情報の授受が可能な機器を「IoTデバイス」とも総称することがある。
 ユーザは、複数のIoTデバイスを有し、操作するIoTデバイスを切り替えながら、IoTデバイスに対して指示を送ったり、IoTデバイスが取得したコンテンツなどを見聞きしたりすることが出来る。このユーザとIoTデバイスとの間の入出力の情報を以下では「コンテキスト情報」と称する。
 ただ、操作するIoTデバイスを切り替えながら、IoTデバイスに対して指示を送る場合、各IoTデバイスが連携されておらず、それぞれ独立に動作していると、すなわちコンテキスト情報が連携されていないと、ユーザは、IoTデバイスを切り替えた際に、今まで操作していたIoTデバイスに対する処理を、また最初から行わなければならない。
 一例を挙げて説明する。あるIoTデバイスが音声認識機能を有しており、ユーザがそのIoTデバイスに対して話しかけることでIoTデバイスへの命令を入力し、IoTデバイスが入力された命令に基づいて、所定の処理を実行して出力することが出来るとする。同一のIoTデバイスであれば、ユーザが「それ」や「さっきの」等の指示語を発話した場合、そのIoTデバイスは、ユーザが発した内容を解析し、それまでのユーザとのコンテキスト情報に基づいて、それらの指示語が具体的に何を指すのかを判断して、適切な処理を実行することが出来る。
 しかし、ユーザが別のIoTデバイスに対話先を切り替えた場合に、切り替え前後のIoTデバイスが連携されていなければ、ユーザは、切り替え前のIoTデバイスへのコンテキストが、切り替え後のIoTデバイスに引き継がれていないので、ユーザは、それまでのコンテキスト情報を、切り替え後のIoTデバイスとの対話で利用することが出来ず、新たな対話をゼロから開始する必要がある。つまり、IoTデバイス間でのコンテキスト情報の引き継ぎが無ければ、切り替え後のIoTデバイスに対して、ユーザが「それ」や「さっきの」等の指示語を発話したとしても、そのIoTデバイスは、ユーザが発した内容を、音声認識機能を用いてテキスト変換し、「それ」や「さっきの」とユーザが言ったと認識することは出来るが、それらの指示語が具体的に何を指すのかは、切り替え前のIoTデバイスとのコンテキスト情報に基づかないと判断することが出来ないため、適切な処理を実行することが出来ない。
 ユーザが使用する全てのIoTデバイスに、あるIoTデバイスに対するコンテキスト情報の内容を全て連携させれば、上述した点は解消する。しかし、あるIoTデバイスに対するコンテキスト情報を、ユーザが使用する全てのIoTデバイスに連携させるのは効率的ではない。このため、ユーザが次に操作するIoTデバイスに対してのみ、予めコンテキスト情報を連携させることで、ユーザが操作しないIoTデバイスは無駄にコンテキスト情報を保持せずに済む。
 そこで本件開示者は、上述した点に鑑み、複数のIoTデバイスに対して効率的にコンテキスト情報が連携できる技術について鋭意検討を行った。その結果、本件開示者は、ユーザの行動を検出し、ユーザの行動に基づいて複数のIoTデバイスに対して効率的にコンテキスト情報が連携できる技術を考案するに至った。
 以上、本開示の実施形態の背景について説明した。続いて、本開示の実施の形態について詳細に説明する。
 [1.2.構成例]
 まず、本開示の一実施形態に係る情報処理システムの全体構成例について説明する。図1は、本開示の一実施形態に係る情報処理システム1の全体構成例を示す説明図である。図1には、IoTデバイスである情報処理装置100、200の間でコンテキスト情報を連携させて、ユーザが情報処理装置100との間で行ってきた処理を情報処理装置200が引き継げるようにした、情報処理システム1の全体構成例が示されている。
 図1に示したように、本開示の一実施形態に係る情報処理システム1は、情報処理装置100、200と、センサ300と、入出力デバイス400a、400bと、を含んで構成される。
 情報処理装置100、200は、ユーザからの操作入力を受け付け、その操作入力に応じた各種情報処理を実行する。図1に示したように、本開示の一実施形態に係る情報処理システム1における情報処理装置100は、制御部110と、検出部120と、コンテキスト情報管理部130と、を含んで構成される。
 制御部110は、情報処理装置100の動作を制御するブロックであり、例えばCPU、ROM、RAM等で構成され得る。本実施形態では、制御部110は、検出部120からの指示に基づいてコンテキスト情報管理部130に対して指示を送出したり、またコンテンツの出力先を入出力デバイス400a、400bの中から選択したりする処理を実行する。もちろん制御部110が実行する処理は係る例に限定されるものではない。
 検出部120は、IoTデバイスである情報処理装置100を使用するユーザの状態を検出する。図1に示したように、検出部120は、認識部122を含んで構成される。
 認識部122は、情報処理装置100を使用するユーザの状況をセンシングするセンサ300からセンシングデータを取得し、センサ300から取得したセンシングデータに基づいて情報処理装置100を使用するユーザの状態を検出する。センサ300については後述するが、センサ300を構成するセンサとして、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)等の現在位置を取得するセンサ、カメラ、深度情報付きカメラ、人感センサ、マイク等が含まれ得る。センサ300は、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センサは、例えばセンサを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センサ300は、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。
 認識部122は、センサ300から取得したセンシングデータに基づいて情報処理装置100を使用するユーザの状態を検出し、その検出結果に基づいて制御部110に所定の通知を行う。ここで、認識部122から制御部110への通知としては、例えば、ユーザが、ユーザの位置の移動によって情報処理装置100を使用しようとする可能性のあることである。そして制御部110は、認識部122からの通知に基づいて、コンテキスト情報管理部130に対してコンテキスト情報の取得を指示する。
 コンテキスト情報管理部130は、コンテキスト情報を管理する。本実施形態では、コンテキスト情報管理部130は、IoTデバイスへの対話内容であるコンテキスト情報の内容を保持する。また本実施形態では、コンテキスト情報管理部130は、制御部110からの指示に基づいて、他のIoTデバイスからコンテキスト情報を取得する処理を実行する。なお、IoTデバイスへの対話内容には、音声、テキスト、画像、生体データその他のユーザからIoTデバイスへのあらゆる入力が含まれる。
 コンテキスト情報に含まれる情報として、例えば操作しているユーザを特定する情報、ユーザが使用しているアプリケーション、またはユーザが閲覧しているコンテンツを特定する情報、上記アプリケーションの実行状態や、上記コンテンツの閲覧箇所などを特定する情報などが含まれ得る。もちろんコンテキスト情報に含まれる情報は係る例に限定されるものではない。
 またコンテキスト情報管理部130は、ユーザを一意に識別する情報(例えばユーザIDのような情報)に紐付けてコンテキスト情報を保存する。コンテキスト情報管理部130が、ユーザを一意に識別する情報に紐付けてコンテキスト情報を保存することで、コンテキスト情報の保有元の特定や、コンテキスト情報の保有元に対応するコンテキスト情報の取得といった処理が可能になる。
 表1は、コンテキスト情報管理部130が管理するコンテキスト情報の一例である。表1には、ユーザID単位でコンテキスト情報を管理する場合の、コンテキスト情報の例が示されている。
Figure JPOXMLDOC01-appb-T000001
 なお図1には、情報処理装置200はコンテキスト情報管理部230しか示していないが、情報処理装置100と同様の構成を有し得る。
 センサ300は、様々な状態をセンシングする。情報処理装置100は、センサ300によるセンシングで得られたセンシングデータを用いて、情報処理装置100を使用するユーザの状況を判断する。センサ300によるセンシングで得られたセンシングデータを用いて、情報処理装置100で判断するユーザの状況としては、例えばユーザの移動方向、移動速度、などが含まれ得る。
 センサ300は、ユーザが情報処理装置100に近接することで、ユーザが次に情報処理装置100を使用する可能性が高くなることを検出するために設けられる。またセンサ300は、ユーザが情報処理装置100から離脱することで、ユーザが情報処理装置100を使用しなくなる可能性が高くなることを検出するために設けられる。
 従って、センサ300は、対応する情報処理装置100が、ユーザの近接や離脱を判断できるような位置や向きに設置されることが望ましい。またセンサ300は、情報処理装置100の近傍に設けられることが望ましいが、ユーザの情報処理装置100への移動経路上に設けられるものであっても良い。
 またセンサ300は、単に人の近接を検出するだけでなく、近接した人が誰であるのかを認識するために設けられ得る。従ってセンサ300には、上述したように、カメラやマイク等の、人を識別するための情報が取得できるデバイスが含まれていることが望ましい。従って、例えば人間の姿、人間の声、振動などの情報がセンサ300によるセンシングで得られれば、情報処理装置100は、そのセンシングデータを用いて、近接する人間を判別することが出来る。もちろん、IoTデバイスを使用するユーザが1人しかいなければ、センサ300には、単に人の近接を検出する機能のみを有していても良い。
 このようにセンサ300が設けられていることで、情報処理装置100は、ユーザの近接を検知することができる。そして情報処理装置100は、センサ300からセンシングデータを取得することでユーザの近接を検知し、別のIoTデバイス(例えば情報処理装置200)からコンテキスト情報を取得し、ユーザとの対話を継続することができる。
 図1では2つのIoTデバイスの情報処理装置100、200が示されている。例えば、ユーザが情報処理装置200に対して対話を行っており、そのユーザが情報処理装置100に向かってくることをセンサ300で検出すると、情報処理装置100は、情報処理装置200からコンテキスト情報の取得を行う。
 本実施形態では、あるIoTデバイスの担当エリアと、別のIoTデバイスの担当エリアが接している、もしくは一部重なっている場合を「隣接」と表現し、接していない場合を「近接」と表現する。例えば、複数のIoTデバイスの担当エリアが重なり合った場所にユーザが存在すると、どちらのIoTデバイスが音声を拾うべきか、または、どちらのIoTデバイスが出力を担うべきかを考慮しなければならないケースを考慮するほうが望ましい。担当エリアが重なりあった場合、例えばカメラで撮像した画像を用いた画像認識や、マイクで集音した音声認識等によって、どのIoTデバイスが処理を実行するかを判断してもよい。例えば、画像認識や音声認識の結果、ユーザが正面を向いていると判断したIoTデバイスが処理を実行するようにしてもよい。
 図2は、情報処理装置100と情報処理装置200との動作の概要を示す説明図である。例えばユーザが情報処理装置200に対する対話を行っており、そのユーザが移動しながら、情報処理装置100が置かれている場所へ移動しているとする。センサ300が、ユーザが接近してきたことを検出すると、センサ300は、ユーザの近接を情報処理装置100に通知する。
 情報処理装置100は、センサ300からの通知を受け取ると、ユーザが近接していると判断し、情報処理装置200からコンテキスト情報の取得を行う。情報処理装置100は、情報処理装置200からコンテキスト情報を取得することで、ユーザが情報処理装置200に対して行ってきていた対話を引き継ぐことが可能になる。
 なお以下の説明では、図2の例で示した情報処理装置200を「近接IoTデバイス」とも称し、情報処理装置100を「被近接IoTデバイス」とも称する。
 ここで、情報処理装置100と情報処理装置200とが直接通信可能な範囲にある場合は、情報処理装置100は情報処理装置200からコンテキスト情報を直接取得することができる。一方、情報処理装置100と情報処理装置200とが直接通信可能な範囲にない場合は、情報処理装置100は、例えばクラウドサーバ10からコンテキスト情報を取得する。そのため、情報処理装置100、200は、いずれもコンテキスト情報をクラウドサーバ10に送信したり、クラウドサーバ10から受信したりする機能を有する。
 本実施形態においては、近接IoTデバイスから被近接IoTデバイスへ、保持しているコンテキスト情報の全てを送信してもよいが、コンテキスト情報の全てを送信すると、コンテキスト情報の量によっては送信に時間が掛かり、被近接IoTデバイスでの対話処理の開始にコンテキスト情報の伝送が間に合わないおそれがある。従って、近接IoTデバイスから被近接IoTデバイスへ、保持しているコンテキスト情報の一部のみを送信してもよい。
 近接IoTデバイスが送信する一部のコンテキスト情報としては、例えば、時間的に直近で生成されたコンテキスト情報、または、過去のコンテキスト情報及び現在のユーザのシチュエーションに基づいて最適と考えられるもののみのコンテキスト情報等がある。現在のユーザのシチュエーションとしては、時間、場所、一緒にいる人物等がある。現在のユーザのシチュエーションは、例えば、センサ300によって得られるセンシングデータから、近接IoTデバイスが判断する。
 情報処理装置100と情報処理装置200とが直接通信可能な範囲にあるかどうかは、例えば情報処理装置200が無線通信に用いる電波の強度を検出することで判断してもよい。すなわち情報処理装置100は、情報処理装置200からの電波を全く検出しないか、または電波を検出してもその強度が所定値未満であるような場合に、情報処理装置200と直接通信可能な範囲に無いと判断してもよい。
 なお、情報処理装置200が無線通信に用いる電波としては、例えばWi-FiやBluetooth(登録商標)などで用いられる周波数帯の電波が用いられうるが、特定の帯域や強度の電波に限定されるものではない。
 情報処理装置100は、このように、情報処理装置200から直接、またはクラウドサーバ10を経由して、情報処理装置200が管理しているコンテキスト情報を取得することで、ユーザが情報処理装置200に対して行ってきた対話を引き継ぐことができる。
 なお図1に示した構成例では、情報処理装置100とは別に、コンテンツを出力したり、ユーザからの入力を受け付けたりする入出力デバイス400a、400bが情報処理システム1に設けられている例を示したが、本開示は係る例に限定されるものではなく、情報処理装置100がコンテンツを出力したり、ユーザからの入力を受け付けたりする構成を備えていても良い。
 ユーザからの音声や画像での入力が複数の入出力デバイス400a、400bで得られる場合は、情報処理装置100は、その入力の中で品質が最も良いものを採用する。また、出力先の候補として複数の入出力デバイス400a、400bが存在する場合は、情報処理装置100は、例えば全ての入出力デバイス400a、400bを出力先としてもよく、ユーザに出力先を指定してもらうようにしてもよい。
 以上、図1を用いて本開示の一実施形態に係る情報処理システム1の全体構成例について説明した。続いて、本開示の一実施形態に係る情報処理システム1を構成する各装置の動作例について説明する。
 まず、図3~図5を用いて、本開示の一実施形態に係る情報処理システム1を構成する各装置の動作を概略的に説明する。
 図3は、本開示の一実施形態に係る情報処理システム1の動作例であり、近接IoTデバイス(例えば図2の情報処理装置200)の動作例を示す流れ図である。以下、図3を用いて本開示の一実施形態に係る情報処理システム1における近接IoTデバイスの動作例について説明する。
 近接IoTデバイスは、他のIoTデバイスからのコンテキスト情報の要求があったかどうかを判断し(ステップS101)、他のIoTデバイスからのコンテキスト情報の要求があれば(ステップS101、Yes)、近接IoTデバイスは、そのコンテキスト情報の要求を送信したIoTデバイスへコンテキスト情報を送信する(ステップS102)。
 他のIoTデバイスからのコンテキスト情報の要求が無ければ(ステップS101、No)、近接IoTデバイスは、他のIoTデバイスからのコンテキスト情報の要求があるまで待機する。
 以上、図3を用いて本開示の一実施形態に係る情報処理システム1における近接IoTデバイスの動作例について説明した。なお、近接IoTデバイスは、コンテキスト情報を他のIoTデバイスへ直接送信するのではなく、クラウドサーバ10に送信するようにしても良い。
 図4は、本開示の一実施形態に係る情報処理システム1の動作例であり、被近接IoTデバイス(例えば図2の情報処理装置100)の動作例を示す流れ図である。以下、図4を用いて本開示の一実施形態に係る情報処理システム1における被近接IoTデバイスの動作例について説明する。
 被近接IoTデバイスは、センサ300からセンシングデータを取得し(ステップS111)、センサ300から取得したセンシングデータによって、ユーザが接近してきているかどうかを判断する(ステップS112)。
 ここで、被近接IoTデバイスによるユーザが接近してきているかどうかの判断方法には様々な方法があり、特定の方法に限定されるものではない。例えば、取得したセンシングデータにカメラで撮像した映像が含まれ、人間の顔が時間とともに大きくなるような映像であれば、カメラに向かって人間が向かってきていると判断することが可能である。また例えば、取得したセンシングデータにカメラで撮像した映像が含まれ、人間の後頭部が時間とともに小さくなるような映像であれば、カメラから人間が向かってきていると判断することが可能である。
 また特定のユーザのみを検出対象とするならば、例えば、単に人間の顔が時間とともに大きくなるような映像であるだけでなく、検出した顔がその検出対象のユーザの顔であるかどうで、その検出対象のユーザが接近しているかどうかを判断することが可能である。
 上記ステップS112の判断の結果、ユーザが接近していないと判断した場合は(ステップS112、No)、被近接IoTデバイスは上記ステップS111のセンシングデータの取得処理に戻る。
 一方、上記ステップS112の判断の結果、ユーザが接近していると判断した場合は(ステップS112、Yes)、続いて被近接IoTデバイスは、コンテキスト情報の保有元を発見し(ステップS113)、当該保有元からコンテキスト情報を取得するとともに、そのコンテキスト情報に対する解釈を実行する(ステップS114)。
 以上、図4を用いて本開示の一実施形態に係る情報処理システム1における被近接IoTデバイスの動作例について説明した。なお、被近接IoTデバイスは、コンテキスト情報を近接IoTデバイスから直接受信するのではなく、クラウドサーバ10から受信するようにしても良い。
 図5は、本開示の一実施形態に係る情報処理システム1の動作例であり、被近接IoTデバイス(例えば図2の情報処理装置100)の動作例を示す流れ図である。図5に示したのは、ユーザが被近接IoTデバイスから離脱していく場合の動作例である。以下、図5を用いて本開示の一実施形態に係る情報処理システム1における近接IoTデバイスの動作例について説明する。
 被近接IoTデバイスは、センサ300からセンシングデータを取得し(ステップS121)、センサ300から取得したセンシングデータによって、ユーザが被近接IoTデバイスから離脱しているかどうかを判断する(ステップS122)。
 上記ステップS122の判断の結果、ユーザが離脱していないと判断した場合は(ステップS122、No)、被近接IoTデバイスは上記ステップS121のセンシングデータの取得処理に戻る。
 一方、上記ステップS122の判断の結果、ユーザが離脱したと判断した場合は(ステップS122、Yes)、続いて被近接IoTデバイスは、コンテキスト情報をクラウドサーバ10に保存する(ステップS123)。
 以上、図5を用いて本開示の一実施形態に係る情報処理システム1における被近接IoTデバイスの動作例について説明した。
 本開示の一実施形態に係る情報処理システム1を構成する各装置は、このように、ユーザの近接または離脱によってコンテキスト情報を送り合ったり、コンテキスト情報をクラウドサーバ10に保存したりする。
 続いて本開示の一実施形態に係る情報処理システム1を構成する被近接IoTデバイスの動作の詳細について説明する。まず、クラウドサーバ10を介してコンテキスト情報をやり取りする場合の被近接IoTデバイスの動作例について説明する。
 図6は、本開示の一実施形態に係る情報処理システム1を構成する被近接IoTデバイスの動作例を示す流れ図である。図6に示したのは、クラウドサーバ10を介してコンテキスト情報をやり取りする場合の、被近接IoTデバイスの動作例である。以下、図6を用いて本開示の一実施形態に係る情報処理システム1を構成する被近接IoTデバイスの動作例について説明する。
 被近接IoTデバイスは、センサ300からセンシングデータを取得し(ステップS131)、センサ300から取得したセンシングデータによって、ユーザが接近してきているかどうかを判断する(ステップS132)。
 上記ステップS132の判断の結果、ユーザが接近していないと判断した場合は(ステップS132、No)、被近接IoTデバイスは上記ステップS131のセンシングデータの取得処理に戻る。
 一方、上記ステップS132の判断の結果、ユーザが接近していると判断した場合は(ステップS132、Yes)、続いて被近接IoTデバイスは、コンテキスト情報の保有元を発見し(ステップS133)、当該保有元からコンテキスト情報を取得するとともに、そのコンテキスト情報に対する解釈を実行する(ステップS134)。この際、被近接IoTデバイスは、コンテキスト情報をクラウドサーバ10から受信する。
 被近接IoTデバイスは、近接IoTデバイスから取得したコンテキスト情報を用いて、ユーザの要求を処理する(ステップS135)。
 その後、被近接IoTデバイスは、センサ300からセンシングデータを取得し(ステップS136)、センサ300から取得したセンシングデータによって、ユーザが被近接IoTデバイスから離脱しているかどうかを判断する(ステップS137)。
 上記ステップS137の判断の結果、ユーザが離脱していないと判断した場合は(ステップS137、No)、被近接IoTデバイスは上記ステップS135のユーザの要求処理に戻る。
 一方、上記ステップS137の判断の結果、ユーザが離脱したと判断した場合は(ステップS137、Yes)、続いて被近接IoTデバイスは、コンテキスト情報をクラウドサーバ10に保存する(ステップS138)。
 被近接IoTデバイスは、図6に示した一連の処理の実行前にはスリープ状態になっていてもよい。そして被近接IoTデバイスは、ユーザの近接を検出すると、スリープ状態を解除して、通常の動作を行なうモードに移行する。
 以上、図6を用いて本開示の一実施形態に係る情報処理システム1を構成する被近接IoTデバイスの動作例について説明した。被近接IoTデバイスは、図6に示したような一連の動作を実行することで、近接IoTデバイスとの間で、クラウドサーバ10を介してコンテキスト情報をやり取りすることができる。そして被近接IoTデバイスは、図6に示したような一連の動作を実行することで、近接IoTデバイスとの間で、クラウドサーバ10を介してコンテキスト情報を取得して、ユーザがそれまで行ってきていた対話処理を引き継いで、対話処理を継続することが出来る。
 続いて、クラウドサーバ10を介さずに直接コンテキスト情報をやり取りする場合の被近接IoTデバイスの動作例について説明する。
 図7は、本開示の一実施形態に係る情報処理システム1を構成する被近接IoTデバイスの動作例を示す流れ図である。図7に示したのは、クラウドサーバ10を介さずに直接コンテキスト情報をやり取りする場合の、被近接IoTデバイスの動作例である。以下、図7を用いて本開示の一実施形態に係る情報処理システム1を構成する被近接IoTデバイスの動作例について説明する。
 被近接IoTデバイスは、センサ300からセンシングデータを取得し(ステップS141)、センサ300から取得したセンシングデータによって、ユーザが接近してきているかどうかを判断する(ステップS142)。
 上記ステップS142の判断の結果、ユーザが接近していないと判断した場合は(ステップS142、No)、被近接IoTデバイスは上記ステップS141のセンシングデータの取得処理に戻る。
 一方、上記ステップS142の判断の結果、ユーザが接近していると判断した場合は(ステップS142、Yes)、続いて被近接IoTデバイスは、コンテキスト情報の保有元を発見し(ステップS143)、当該保有元からコンテキスト情報を取得するとともに、そのコンテキスト情報に対する解釈を実行する(ステップS144)。
 被近接IoTデバイスは、近接IoTデバイスから取得したコンテキスト情報を用いて、ユーザの要求を処理する(ステップS145)。
 その後、被近接IoTデバイスは、センサ300からセンシングデータを取得し(ステップS146)、センサ300から取得したセンシングデータによって、ユーザが被近接IoTデバイスから離脱しているかどうかを判断する(ステップS147)。
 上記ステップS147の判断の結果、ユーザが離脱していないと判断した場合は(ステップS147、No)、被近接IoTデバイスは上記ステップS145のユーザの要求処理に戻る。
 一方、上記ステップS147の判断の結果、ユーザが離脱したと判断した場合は(ステップS147、Yes)、続いて被近接IoTデバイスは、コンテキスト情報の要求が他のIoTデバイスからあったかどうかを判断する(ステップS148)。
 上記ステップS148の判断の結果、他のIoTデバイスからのコンテキスト情報の要求があれば(ステップS148、Yes)、被近接IoTデバイスは、そのコンテキスト情報の要求を送信したIoTデバイスへコンテキスト情報を送信する(ステップS149)。
 一方、他のIoTデバイスからのコンテキスト情報の要求が無ければ(ステップS148、No)、被近接IoTデバイスは、センシングデータをセンサ300から取得して(ステップS150)、センサ300から取得したセンシングデータによって、一度離脱したユーザが再接近してきているかどうかを判断する(ステップS151)。
 上記ステップS151の判断の結果、ユーザが再接近していないと判断した場合は(ステップS151、No)、被近接IoTデバイスは上記ステップS148のコンテキスト情報の要求の有無の判断処理に戻る。一方、上記ステップS151の判断の結果、ユーザが再接近してきたと判断した場合は(ステップS151、Yes)、被近接IoTデバイスは上記ステップS145のユーザの要求処理に戻り、後続の処理を実行する。
 なお、被近接IoTデバイスは、ユーザの離脱を検出すると、通常の動作を行なうモードから、スリープ状態に移行してもよい。
 以上、図7を用いて本開示の一実施形態に係る情報処理システム1を構成する被近接IoTデバイスの動作例について説明した。被近接IoTデバイスは、図7に示したような一連の動作を実行することで、近接IoTデバイスとの間で、クラウドサーバ10を介さなくても、コンテキスト情報をやり取りすることができる。そして被近接IoTデバイスは、図7に示したような一連の動作を実行することで、近接IoTデバイスとの間で、クラウドサーバ10を介さずに直接コンテキスト情報を取得して、ユーザがそれまで行ってきていた対話処理を引き継いで、対話処理を継続することが出来る。
 このように、本開示の一実施形態に係る情報処理システム1は、IoTデバイスがユーザの近接を検知し、そのユーザの近接に基づいて、別のIoTデバイスに対してコンテキスト情報を要求する処理を実行することで、別のIoTデバイスからコンテキスト情報を取得することが出来る。
 なお、近接IoTデバイスは、コンテキスト情報の要求は確かにあったが、コンテキスト情報の要求元が不明な場合、またはコンテキスト情報の要求元が複数存在する場合は、コンテキスト情報の要求元として候補となりうる1または2以上のIoTデバイスに対し、コンテキスト情報をブロードキャスト送信しても良い。候補となりうるIoTデバイスの決定方法としては、例えば、現在の位置から隣接、または近接するIoTデバイスの情報を取得し、その隣接、または近接するIoTデバイスをコンテキスト情報の要求元の候補として決定する方法などがある。
 ここで、IoTデバイスによるユーザとの対話処理について説明する。IoTデバイスは、ユーザが対話処理を希望している、または対話を開始したと判断するために、例えば常時マイク入力を監視し、特定のキーワードに反応して「対話の開始」を検知してもよい。例えばIoTデバイスは、所定のキーワードが発話されると、音声によるコマンドの受け付けを開始するようにしてもよい。
 なおIoTデバイスは、例えばセンサ300によってユーザの近接や存在を検知して、マイク入力の監視を始めるようにしてもよい。
 本実施形態では、センサ300でユーザの近接を検知し、被近接IoTデバイスが近接IoTデバイスからコンテキスト情報を取得するようにしているが、本開示は係る例に限定されない。例えば、センサ300で近接IoTデバイスを使用するユーザの動きを検出し、そのユーザの動きに基づいてユーザの移動方向を検出する。そしてユーザの移動方向に基づいて、ユーザが次に近づく被近接IoTデバイスを近接IoTデバイスが選び出してもよい。そして近接IoTデバイスは、ユーザが次に近づく被近接IoTデバイスを選び出した後に情報を送付する。
 またセンサ300から取得したセンシングデータに応じて、次にユーザが近くに現れるであろうIoTデバイスが特定できるようなルールを、各IoTデバイスに登録するようにしてもよい。例えばあるセンサがA、Bの順に人の接近を感知したら、次に近づくIoTデバイスはこのIoTデバイスである、というように対応関係が定義されたルールを、各IoTデバイスに登録するようにしてもよい。
 また機械学習などを通じて、センサ300が人を感知した順序とIoTデバイスとを対応付けるルールを徐々に各IoTデバイスに習得させるようにしてもよい。例えば、ある順序でセンサが人の接近を検知するパターンだと、このIoTデバイスがその後に使用される可能性が高い、というようなルールを各IoTデバイスに習得させるようにしてもよい。
 またこの他にも、各IoTデバイスのIPアドレス等の識別情報と実際の位置とを対応付けてリスト化しておき、センサが反応したらそのセンサの場所に対応した特定のIoTデバイスにコンテキスト情報を渡すようにしてもよい。
 もっとも単純な方法として、ユーザが次に近づく被近接IoTデバイスを特定しないようにしてもよい。すなわち、IoTデバイスの設置者が、隣接するIoTデバイスを全て指定しておく。そして近接IoTデバイスは、それら全てのIoTデバイスにコンテキストを転送してもよい。
 本実施形態に係る情報処理システムは、以下の様な場合において特に有益である。
 例えば、リビングに置かれたあるIoTデバイス(例えばパーソナルコンピュータ)でビデオを見ていたユーザが、別の部屋に移動し、その部屋のIoTデバイスに対して「さっきのビデオの続きを見せて」と発話する場合である。この場合、その部屋のIoTデバイスは、ユーザの移動により、リビングに置かれたIoTデバイスからコンテキスト情報を取得し、ユーザのログオン処理を要すること無く、またユーザの発話の発話によって、コンテキスト情報を参照して、同じビデオを続きから再生することが出来る。
 また例えば、料理番組をIoTデバイス(例えばテレビ)で見ていて、そのIoTデバイスに対して「レシピをダウンロード」と言う場合である。この場合、当該IoTデバイスはそのレシピをダウンロードする。そしてユーザがキッチンへ移動すると、ユーザの移動により、キッチンに置かれているIoTデバイス(例えばタブレット型端末)は、レシピをダウンロードしたIoTデバイスからコンテキスト情報を取得する。ユーザがキッチンに置かれているIoTデバイスに「さっきのレシピを出して」と発話すると、そのキッチンに置かれているIoTデバイスは、ユーザのログオン処理を要すること無く、コンテキスト情報の参照により、別のIoTデバイスがダウンロードしたレシピを表示することが出来る。
 また例えば、あるユーザIDと、当該ユーザIDに対応するユーザの近親者(例えば父親、母親、兄弟等)のユーザIDを特定し、これらのユーザIDに紐づくコンテキスト情報を抽出し、それまでIoTデバイスに対して近親者が話していたことに基づく対話の継続なども可能になる。例えば、あるユーザが「さっきお父さんはどこの辺りに旅行に行きたいとか言っていた?」とIoTデバイスに対して問いかけると、問いかけられたIoTデバイスは、「お父さん」のユーザIDを特定し、そのユーザIDに紐付くコンテキスト情報から、旅行に関する内容を抽出し、回答を作成することが可能になる。
 上述したように、被近接IoTデバイスは、近接IoTデバイスからコンテキスト情報を直接、または間接的に取得することが出来る。ここで、被近接IoTデバイスに実際にはユーザが接近しなかった、または被近接IoTデバイスで何らかのトラブルが発生した等のケースを考慮し、近接IoTデバイスはコンテキスト情報をしばらく保存してもよい。またコンテキスト情報の消失を避ける必要性が極めて高いのであれば、近接IoTデバイスは家庭内のサーバや、クラウドサーバなどにコンテキスト情報を保管するようにしてもよい。
 もちろん、被近接IoTデバイスは、近接IoTデバイスからコンテキスト情報を取得した後に、コンテキスト情報をしばらく保持してもよい。
 近接IoTデバイスから被近接IoTデバイスへと渡されるコンテキスト情報は、全てのデータが伝送されても良いが、量が膨大で、伝送が間に合わない等の場合は、被近接IoTデバイスが実行する処理に必要な量のみを近接IoTデバイスから被近接IoTデバイスへ伝送してもよい。
 またコンテキスト情報が膨大で伝送が間に合わない場合は、近接IoTデバイスは、被近接IoTデバイスで対話処理を継続するのに必要な情報から先に伝送し、残りは被近接IoTデバイスで対話処理が再開された後にバックグラウンドで伝送するようにしてもよい。
 例えば、コンテキスト情報に閲覧中のビデオデータ自体が含まれるような場合、つまり、コンテンツファイルの実体が近接IoTデバイスにしか存在しないような場合は、近接IoTデバイスから被近接IoTデバイスへコンテンツをストリーミング送信するようにしてもよい。
 また例えば、処理自体(対話処理、演算処理、知識処理その他の処理)の一部だけを他のIoTデバイスに委託するようにしてもよい。すなわち、処理の主要部分はサーバ(もしくはユーザの最寄の端末)で動き続けるが、周辺のIoTデバイスと連携することでユーザに追従するようにしてもよい。このような委託により、伝達すべきコンテキスト情報を一部だけに限定できるようになる。以後、この方式を「分散エージェント方式」とも称する。
 「分散エージェント方式」の場合は、委託先となるIoTデバイスや委託処理の処理期限を設定し、コンテキスト情報や委託処理がどのIoTデバイスで行うべきかを適切に設定することが望ましい。
 近接IoTデバイスから被近接IoTデバイスへのコンテキスト情報の伝送が間に合わない場合や、コンテキスト情報の伝送に失敗する場合も考えられ得る。すなわち、近接IoTデバイスから被近接IoTデバイスへのコンテキスト情報の伝送の途中で、ユーザが被近接IoTデバイスに対して対話処理を開始してしまった場合などである。
 近接IoTデバイスから被近接IoTデバイスへのコンテキスト情報の伝送が間に合わない場合や、コンテキスト情報の伝送に失敗する場合は、近接IoTデバイスや被近接IoTデバイスは、例えば以下の処理を行う。
 例えば、近接IoTデバイスや被近接IoTデバイスは、コンテキスト情報の転送が終わるまでユーザを待たせてもよい。また可能であれば、被近接IoTデバイスは、伝送が完了した、部分的なコンテキスト情報のみを用いて対話処理を再開しつつ、残りのコンテキスト情報の転送をバックグラウンドで行ってもよい。また被近接IoTデバイスは、近接IoTデバイスからのコンテキスト情報の引き継ぎを諦め、被近接IoTデバイスがあらためてユーザに問いかけてもよい。
 IoTデバイスとユーザとの対話が所定時間断絶する場合もあり得る。IoTデバイスとユーザとの対話が所定時間断絶した場合は、IoTデバイスは、初期状態に、すなわちコンテキスト情報が無い状態に戻っても良い。IoTデバイスは、初期状態に戻る際に、それまでのコンテキスト情報自体は保管しておき、いつでも再開できるようにしておいてもよい。すなわち、IoTデバイスは、コンテキスト情報自体を保管しておくことで、例えばユーザとの間で、「先週、検討した旅行の件だけど」「そういえば宿の検索途中でしたね」というような対話処理の再開を行うことが可能になる。
 ユーザは、IoTデバイスとの間で連続的な対話をしたくないと考える場合があり得る。ユーザがIoTデバイスとの間で連続的な対話をしたくないと考える場合を考慮し、IoTデバイスは、これまでの対話処理をリセットするための特定キーワードを規定してもよい。例えば、ユーザが上記の特定キーワードを再度発声すると、IoTデバイスは、ユーザとの対話処理を開始する前の状態に戻してもよい。また、ユーザが「ところで・・・」というような切り替え専用のキーワードを発声すると、IoTデバイスは、ユーザとの対話処理を開始する前の状態に戻してもよい。
 このように対話処理をリセットした場合、IoTデバイスは、それまでのコンテキスト情報自体は保管しておき、いつでも再開できるようにしておいてもよい。
 被近接IoTデバイスは、近接IoTデバイスからコンテキスト情報を取得する際に、最初に取得する時は時間的に新しいコンテキスト情報を取得し、ユーザが時間を指定する内容を指示したら過去データを取得するようにしてもよい。例えば被近接IoTデバイスは、最初に取得する時は時間的に新しいコンテキスト情報を取得したが、ユーザが「1週間前」等の時間を指定する内容を指示すると、その指定された1週間前のコンテキスト情報を近接IoTデバイスやクラウドサーバ10から取得するようにしても良い。
 上述した一連の処理は、被近接IoTデバイスが近接IoTデバイスからコンテキスト情報を取得する場合について示したものであるが、逆に、近接IoTデバイスから被近接IoTデバイスへコンテキスト情報を、いわゆるプッシュ送信する場合についても同様に上述した一連の処理の適用が可能である。
 すなわち、近接IoTデバイスは、センサ300からのセンシングデータを受信して、センシングデータからユーザの移動方向を推測することで、ユーザが次に操作すると考えられる被近接IoTデバイスを決定し、その被近接IoTデバイスに対してコンテキスト情報を送信するようにしても良い。仮にその被近接IoTデバイスが動作を停止していれば、近接IoTデバイスは、被近接IoTデバイスを起動させるためのコマンドを送信してから、コンテキスト情報を送信するようにしても良い。
 また、近接IoTデバイスが被近接IoTデバイスからコンテキスト情報を受信した後、さらにユーザの移動を検知した場合は、そのユーザの移動方向に位置すると考えられる別のIoTデバイスへ、受信したコンテキスト情報を送信してもよい。近接IoTデバイスは、受信したコンテキスト情報を別のIoTデバイスへ送信すると、被近接IoTデバイスから受信したコンテキスト情報を消去してもよい。
 <2.ハードウェア構成例>
 次に、図8を参照して、本開示の一実施形態にかかる情報処理装置100のハードウェア構成について説明する。図8は、本開示の実施形態にかかる情報処理装置100のハードウェア構成例を示すブロック図である。上記の各アルゴリズムは、例えば、図8に示す情報処理装置のハードウェア構成を用いて実行することが可能である。つまり、当該各アルゴリズムの処理は、コンピュータプログラムを用いて図8に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、接触式又は非接触式のICチップ、接触式又は非接触式のICカード、スピーカ、テレビ、モニタ、ウェアラブル機器、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy-phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
 図8に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
 CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
 出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro-Luminescence Displayの略である。
 記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
 ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu-rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
 接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS-232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
 通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は接触又は非接触通信用のデバイス等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
 以上、情報処理装置100のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 <3.まとめ>
 以上説明したように本開示の一実施形態によれば、ユーザの近接を検知し、そのユーザの近接に基づいて、ユーザと他の装置との間の処理内容であるコンテキスト情報を他の装置から取得する、情報処理装置100が提供される。
 本開示の一実施形態に係る情報処理装置100は、ユーザの近接に基づいて、コンテキスト情報を他の装置から取得することで、他の装置とユーザとの間で行われていた処理(対話処理)を引き継ぐことが可能になる。
 また本開示の一実施形態によれば、ユーザの近接を検知した他の装置からのコンテキスト情報の要求に基づいて、その他の装置にコンテキスト情報を提供する情報処理装置200が提供される。
 本開示の一実施形態に係る情報処理装置200は、ユーザの近接を検知した他の装置からのコンテキスト情報の要求に基づいて、その他の装置にコンテキスト情報を提供することで、自装置とユーザとの間で行われていた処理(対話処理)を他の装置へ引き継ぐことが可能になる。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 情報処理装置であって、
 ユーザの前記情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御する制御部を備える、情報処理装置。
(2)
 前記制御部は、前記コンテキスト情報を前記他の装置へ直接送信するよう制御する、前記(1)に記載の情報処理装置。
(3)
 前記制御部は、前記コンテキスト情報を、サーバ装置を介して前記他の装置へ送信するよう制御する、前記(1)に記載の情報処理装置。
(4)
 前記制御部は、ユーザの前記情報処理装置からの移動方向を検出する、前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
 前記制御部は、ユーザIDを用いて前記コンテキスト情報の保有元を検出して、前記コンテキスト情報を抽出する、前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
 前記制御部は、前記ユーザIDに基づく前記コンテキスト情報を抽出する、前記(5)に記載の情報処理装置。
(7)
 前記制御部は、前記ユーザIDとは異なる他のユーザIDに基づく前記コンテキスト情報を抽出する、前記(5)に記載の情報処理装置。
(8)
 前記制御部は、センシングデータに基づいてユーザの挙動を検知して該ユーザの移動方向を検出する、前記(1)~(7)のいずれかに記載の情報処理装置。
(9)
 前記制御部は、撮像装置で撮像された画像を用いてユーザの挙動を検知して該ユーザの移動方向を検出する、前記(8)に記載の情報処理装置。
(10)
 前記制御部は、一部の時間帯で発生した前記コンテキスト情報を送信するよう制御する、前記(1)~(9)のいずれかに記載の情報処理装置。
(11)
 前記制御部は、装置と、該装置の位置とが対応付けられた情報を用いて前記コンテキスト情報の送信先を決定する、前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
 前記制御部は、前記コンテキスト情報の送信先を一意に決定できない場合は、可能性のある装置に向けて前記コンテキスト情報をブロードキャスト送信する、前記(1)~(10)のいずれかに記載の情報処理装置。
(13)
 前記コンテキスト情報は、ユーザによる音声入力に基づいた情報である、前記(1)~(12)のいずれかに記載の情報処理装置。
(14)
 情報処理装置であって、
 ユーザの前記情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御する制御部を備える、情報処理装置。
(15)
 前記制御部は、前記コンテキスト情報を、前記ユーザがそれまでやり取りしていた他の装置から直接受信するよう制御する、前記(14)に記載の情報処理装置。
(16)
 前記制御部は、前記コンテキスト情報を、サーバ装置を介して前記ユーザがそれまでやり取りしていた他の装置から受信するよう制御する、前記(14)または(15)に記載の情報処理装置。
(17)
 前記制御部は、センシングデータに基づいてユーザの挙動を検知して該ユーザの移動方向を検出する、前記(14)~(16)のいずれかに記載の情報処理装置。
(18)
 前記制御部は、撮像装置で撮像された画像を用いてユーザの挙動を検知して該ユーザの移動方向を検出する、前記(17)に記載の情報処理装置。
(19)
 前記制御部は、一部の時間帯で発生した前記コンテキスト情報を受信するよう制御する、前記(14)~(18)のいずれかに記載の情報処理装置。
(20)
 前記制御部は、装置と、該装置の位置とが対応付けられた情報を用いて前記コンテキスト情報の受信元を決定する、前記(14)~(19)のいずれかに記載の情報処理装置。
(21)
 前記制御部は、さらにユーザの移動を検出すると、検出した移動方向にある他の装置に向けて前記コンテキスト情報の少なくとも一部を送信するよう制御する、前記(14)~(20)のいずれかに記載の情報処理装置。
(22)
 前記制御部は、ユーザとの間のやりとりの前に、ユーザの移動を検出すると、受信した前記コンテキスト情報を消去するよう制御する、前記(21)に記載の情報処理装置。
(23)
 前記コンテキスト情報は、ユーザによる音声入力に基づいた情報である、前記(14)~(22)のいずれかに記載の情報処理装置。
(24)
 ユーザの情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御することを含む、情報処理方法。
(25)
 ユーザの情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御することをコンピュータに実行させる、コンピュータプログラム。
(26)
 ユーザの情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御することを含む、情報処理方法。
(27)
 ユーザの情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御することをコンピュータに実行させる、コンピュータプログラム。
 100、200  情報処理装置
 110  制御部
 120  検出部
 130  コンテキスト情報管理部
 300  センサ
 400a、400b  入出力デバイス

Claims (27)

  1.  情報処理装置であって、
     ユーザの前記情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御する制御部を備える、情報処理装置。
  2.  前記制御部は、前記コンテキスト情報を前記他の装置へ直接送信するよう制御する、請求項1に記載の情報処理装置。
  3.  前記制御部は、前記コンテキスト情報を、サーバ装置を介して前記他の装置へ送信するよう制御する、請求項1に記載の情報処理装置。
  4.  前記制御部は、ユーザの前記情報処理装置からの移動方向を検出する、請求項1に記載の情報処理装置。
  5.  前記制御部は、ユーザIDを用いて前記コンテキスト情報の保有元を検出して、前記コンテキスト情報を抽出する、請求項1に記載の情報処理装置。
  6.  前記制御部は、前記ユーザIDに基づく前記コンテキスト情報を抽出する、請求項5に記載の情報処理装置。
  7.  前記制御部は、前記ユーザIDとは異なる他のユーザIDに基づく前記コンテキスト情報を抽出する、請求項5に記載の情報処理装置。
  8.  前記制御部は、センシングデータに基づいてユーザの挙動を検知して該ユーザの移動方向を検出する、請求項1に記載の情報処理装置。
  9.  前記制御部は、撮像装置で撮像された画像を用いてユーザの挙動を検知して該ユーザの移動方向を検出する、請求項8に記載の情報処理装置。
  10.  前記制御部は、一部の時間帯で発生した前記コンテキスト情報を送信するよう制御する、請求項1に記載の情報処理装置。
  11.  前記制御部は、装置と、該装置の位置とが対応付けられた情報を用いて前記コンテキスト情報の送信先を決定する、請求項1に記載の情報処理装置。
  12.  前記制御部は、前記コンテキスト情報の送信先を一意に決定できない場合は、可能性のある装置に向けて前記コンテキスト情報をブロードキャスト送信する、請求項1に記載の情報処理装置。
  13.  前記コンテキスト情報は、ユーザによる音声入力に基づいた情報である、請求項1に記載の情報処理装置。
  14.  情報処理装置であって、
     ユーザの前記情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御する制御部を備える、情報処理装置。
  15.  前記制御部は、前記コンテキスト情報を、前記ユーザがそれまでやり取りしていた他の装置から直接受信するよう制御する、請求項14に記載の情報処理装置。
  16.  前記制御部は、前記コンテキスト情報を、サーバ装置を介して前記ユーザがそれまでやり取りしていた他の装置から受信するよう制御する、請求項14に記載の情報処理装置。
  17.  前記制御部は、センシングデータに基づいてユーザの挙動を検知して該ユーザの移動方向を検出する、請求項14に記載の情報処理装置。
  18.  前記制御部は、撮像装置で撮像された画像を用いてユーザの挙動を検知して該ユーザの移動方向を検出する、請求項17に記載の情報処理装置。
  19.  前記制御部は、一部の時間帯で発生した前記コンテキスト情報を受信するよう制御する、請求項14に記載の情報処理装置。
  20.  前記制御部は、装置と、該装置の位置とが対応付けられた情報を用いて前記コンテキスト情報の受信元を決定する、請求項14に記載の情報処理装置。
  21.  前記制御部は、さらにユーザの移動を検出すると、検出した移動方向にある他の装置に向けて前記コンテキスト情報の少なくとも一部を送信するよう制御する、請求項14に記載の情報処理装置。
  22.  前記制御部は、ユーザとの間のやりとりの前に、ユーザの移動を検出すると、受信した前記コンテキスト情報を消去するよう制御する、請求項21に記載の情報処理装置。
  23.  前記コンテキスト情報は、ユーザによる音声入力に基づいた情報である、請求項14に記載の情報処理装置。
  24.  ユーザの情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御することを含む、情報処理方法。
  25.  ユーザの情報処理装置からの離脱を検出し、他の装置に向けて、それまで前記ユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を送信するよう制御することをコンピュータに実行させる、コンピュータプログラム。
  26.  ユーザの情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御することを含む、情報処理方法。
  27.  ユーザの情報処理装置への近接を検出し、他の装置から、それまでユーザとの間でやり取りされていたコンテキスト情報の少なくとも一部を受信するよう制御することをコンピュータに実行させる、コンピュータプログラム。
PCT/JP2015/075629 2014-10-27 2015-09-09 情報処理装置、情報処理方法およびコンピュータプログラム WO2016067765A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016556426A JP6645438B2 (ja) 2014-10-27 2015-09-09 情報処理装置、情報処理方法およびコンピュータプログラム
US15/514,590 US9936355B2 (en) 2014-10-27 2015-09-09 Information processing apparatus, information processing method, and computer program
CN201580053515.0A CN106796570B (zh) 2014-10-27 2015-09-09 信息处理设备、信息处理方法和计算机程序
EP15854364.5A EP3214555B1 (en) 2014-10-27 2015-09-09 Information processing device, information processing method, and computer program for context sharing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-218111 2014-10-27
JP2014218111 2014-10-27

Publications (1)

Publication Number Publication Date
WO2016067765A1 true WO2016067765A1 (ja) 2016-05-06

Family

ID=55857111

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/075629 WO2016067765A1 (ja) 2014-10-27 2015-09-09 情報処理装置、情報処理方法およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US9936355B2 (ja)
EP (1) EP3214555B1 (ja)
JP (1) JP6645438B2 (ja)
CN (1) CN106796570B (ja)
WO (1) WO2016067765A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215639A (ja) * 2016-05-30 2017-12-07 シャープ株式会社 ネットワークシステム、音声出力方法、サーバおよび電気機器
JP2019527403A (ja) * 2016-06-23 2019-09-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 通知に対するユーザ可用性又は受容性を測定する方法、装置及び機械可読媒体
WO2020026799A1 (ja) * 2018-07-31 2020-02-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020049921A1 (ja) * 2018-09-07 2020-03-12 ソニー株式会社 端末装置、端末装置の制御方法および記憶媒体
JP2020521164A (ja) * 2017-05-16 2020-07-16 グーグル エルエルシー デバイス間ハンドオフ

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040468A (ja) * 2017-08-25 2019-03-14 富士ゼロックス株式会社 情報処理装置及びプログラム
US10877781B2 (en) * 2018-07-25 2020-12-29 Sony Corporation Information processing apparatus and information processing method
JP7180330B2 (ja) * 2018-11-30 2022-11-30 株式会社リコー 情報処理システム、情報処理装置、および方法
US11568239B2 (en) * 2019-08-13 2023-01-31 Lg Electronics Inc. Artificial intelligence server and method for providing information to user
CN117396848A (zh) * 2021-06-22 2024-01-12 瑞典爱立信有限公司 通过i/o设备向用户提供通信服务

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003158664A (ja) * 2001-11-21 2003-05-30 Matsushita Electric Ind Co Ltd カメラ制御装置
WO2004077291A1 (ja) * 2003-02-25 2004-09-10 Matsushita Electric Industrial Co., Ltd. アプリケーションプログラムの予測方法及び移動体端末
JP2006172440A (ja) * 2004-11-19 2006-06-29 Fujitsu Ltd アプリケーション状態情報転送システム
JP2010205111A (ja) * 2009-03-05 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> コンテキスト再現システム、コンテキスト再現方法、第1端末装置、第2端末装置、コンテキスト取得装置、または蓄積装置、それらのプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0200451L (sv) * 2002-02-15 2003-04-15 Hotsip Ab Ett förfarande för att distribuera information
JP3698716B2 (ja) * 2003-02-25 2005-09-21 松下電器産業株式会社 アプリケーションプログラムの予測方法及び移動体端末
JP2007074710A (ja) * 2005-08-12 2007-03-22 Mitsubishi Materials Corp オーディオ・ビジュアルデータ通信システム、オーディオ・ビジュアルデータ通信方法、オーディオ・ビジュアルデータ通信プログラム及びオーディオ・ビジュアルデータ通信システム用の鑑賞空間切替装置
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
CA2786596C (en) 2010-01-06 2017-03-21 Interdigital Patent Holdings, Inc. Method and apparatus for assisted/coordinated intra-home communications
US8880051B2 (en) * 2012-11-16 2014-11-04 Intel Corporation Automatic seamless context sharing across multiple devices
JP5356615B1 (ja) * 2013-02-01 2013-12-04 パナソニック株式会社 顧客行動分析装置、顧客行動分析システムおよび顧客行動分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003158664A (ja) * 2001-11-21 2003-05-30 Matsushita Electric Ind Co Ltd カメラ制御装置
WO2004077291A1 (ja) * 2003-02-25 2004-09-10 Matsushita Electric Industrial Co., Ltd. アプリケーションプログラムの予測方法及び移動体端末
JP2006172440A (ja) * 2004-11-19 2006-06-29 Fujitsu Ltd アプリケーション状態情報転送システム
JP2010205111A (ja) * 2009-03-05 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> コンテキスト再現システム、コンテキスト再現方法、第1端末装置、第2端末装置、コンテキスト取得装置、または蓄積装置、それらのプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3214555A4 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215639A (ja) * 2016-05-30 2017-12-07 シャープ株式会社 ネットワークシステム、音声出力方法、サーバおよび電気機器
JP2019527403A (ja) * 2016-06-23 2019-09-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 通知に対するユーザ可用性又は受容性を測定する方法、装置及び機械可読媒体
US11166087B2 (en) 2017-05-16 2021-11-02 Google Llc Cross-device handoffs
JP2020521164A (ja) * 2017-05-16 2020-07-16 グーグル エルエルシー デバイス間ハンドオフ
JP2021007057A (ja) * 2017-05-16 2021-01-21 グーグル エルエルシーGoogle LLC デバイス間ハンドオフ
JP2021072137A (ja) * 2017-05-16 2021-05-06 グーグル エルエルシーGoogle LLC デバイス間ハンドオフ
JP7216751B2 (ja) 2017-05-16 2023-02-01 グーグル エルエルシー デバイス間ハンドオフ
US11641535B2 (en) 2017-05-16 2023-05-02 Google Llc Cross-device handoffs
JPWO2020026799A1 (ja) * 2018-07-31 2021-08-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020026799A1 (ja) * 2018-07-31 2020-02-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7290154B2 (ja) 2018-07-31 2023-06-13 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020049921A1 (ja) * 2018-09-07 2020-03-12 ソニー株式会社 端末装置、端末装置の制御方法および記憶媒体
JPWO2020049921A1 (ja) * 2018-09-07 2021-09-16 ソニーグループ株式会社 端末装置、端末装置の制御方法および記憶媒体
JP7396286B2 (ja) 2018-09-07 2023-12-12 ソニーグループ株式会社 端末装置、端末装置の制御方法および記憶媒体
US11979511B2 (en) 2018-09-07 2024-05-07 Sony Group Corporation Terminal device, terminal device control method, and memory medium

Also Published As

Publication number Publication date
EP3214555A1 (en) 2017-09-06
CN106796570A (zh) 2017-05-31
US9936355B2 (en) 2018-04-03
JP6645438B2 (ja) 2020-02-14
JPWO2016067765A1 (ja) 2017-08-31
EP3214555B1 (en) 2019-12-25
US20170238144A1 (en) 2017-08-17
EP3214555A4 (en) 2018-05-16
CN106796570B (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
WO2016067765A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US11212486B1 (en) Location based device grouping with voice control
US20210050013A1 (en) Information processing device, information processing method, and program
US20200349940A1 (en) Server for determining target device based on speech input of user and controlling target device, and operation method of the server
US11514917B2 (en) Method, device, and system of selectively using multiple voice data receiving devices for intelligent service
CN109508167B (zh) 显示装置和在语音识别系统中控制显示装置的方法
US9729821B1 (en) Sensor fusion for location based device grouping
JP6503557B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20190035398A1 (en) Apparatus, method and system for voice recognition
CN112740626B (zh) 用于通过使多个电子装置协同工作来提供通知的方法和设备
US11172007B2 (en) Technologies for a seamless data streaming experience
US20200053399A1 (en) Method for contents playback with continuity and electronic device therefor
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
JP6973380B2 (ja) 情報処理装置、および情報処理方法
WO2017215615A1 (zh) 一种音效处理方法及移动终端
US20210224066A1 (en) Information processing device and information processing method
CN106535136B (zh) 电子装置的侦测注册方法及系统
US20240129370A1 (en) A computer software module arrangement, a circuitry arrangement, an arrangement and a method for an improved user interface for internet of things devices

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15854364

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016556426

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15514590

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015854364

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015854364

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE