WO2022019036A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2022019036A1
WO2022019036A1 PCT/JP2021/023663 JP2021023663W WO2022019036A1 WO 2022019036 A1 WO2022019036 A1 WO 2022019036A1 JP 2021023663 W JP2021023663 W JP 2021023663W WO 2022019036 A1 WO2022019036 A1 WO 2022019036A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
visual obstruction
information
information processing
action
Prior art date
Application number
PCT/JP2021/023663
Other languages
English (en)
French (fr)
Inventor
佑典 大嶋
大地 川島
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to JP2022538651A priority Critical patent/JPWO2022019036A1/ja
Publication of WO2022019036A1 publication Critical patent/WO2022019036A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Definitions

  • the present disclosure relates to a technique for executing and canceling visual obstruction control for a display being viewed by a user.
  • Patent Document 1 discloses a display device that visually displays that a break is urged when a user's continuous work time exceeds a set time and changes the display color on the display screen. There is. Then, the display device returns the screen display state to the original state when the user leaves the seat promptly by the display.
  • This disclosure is made to solve the above problem, and provides a technology that can confirm that the user has actually taken an action to refresh and promote the maintenance of the user's health.
  • the purpose is to do.
  • the information processing apparatus includes a visual obstruction execution unit that executes visual obstruction control for a display at a predetermined timing, and behavioral information regarding an action performed by a user to refresh after the visual obstruction control is executed.
  • the behavior information acquisition unit for acquiring the information processing
  • the cancellation determination unit for determining whether or not the behavior information satisfies the cancellation condition of the visual obstruction control
  • the visual recognition unit when the behavior information is determined to satisfy the cancellation condition. It is provided with a visual obstruction canceling unit that cancels the obstruction control.
  • Embodiment 1 of this disclosure It is a figure which shows the structure of the information processing system in Embodiment 1 of this disclosure. It is a flowchart for demonstrating the visual control processing by an information processing apparatus in Embodiment 1 of this disclosure. It is a figure which shows the structure of the information processing system in Embodiment 2 of this disclosure. It is a flowchart for demonstrating visual control processing by an information processing apparatus in Embodiment 2 of this disclosure. It is a figure which shows the structure of the information processing system in Embodiment 3 of this disclosure. It is a figure which shows the appearance of the information processing apparatus in Embodiment 3 of this disclosure.
  • the information processing apparatus includes a visual obstruction executing unit that executes visual obstruction control for a display at a predetermined timing, and after the visual obstruction control is executed.
  • the action information acquisition unit that acquires the action information related to the action performed by the user for refreshing
  • the release determination unit that determines whether or not the action information satisfies the cancellation condition of the visual obstruction control, and the action information are the above.
  • the visual obstruction canceling unit for canceling the visual obstruction control is provided.
  • the visual obstruction control for the display is executed at a predetermined timing, and when it is determined that the action information regarding the action performed by the user for refreshing satisfies the cancellation condition, the visual obstruction control is canceled. ..
  • the visual obstruction control is released, so that it can be confirmed that the user has actually performed the action for refreshing, and the health of the user can be maintained. Can be promoted.
  • a state information acquisition unit that acquires state information representing the user's state and a centralized state determination unit that determines whether or not the user is in a concentrated state based on the state information.
  • the visual obstruction execution unit may execute the visual obstruction control at a timing when it is determined that the user is not in the centralized state.
  • the visual obstruction control is executed at the timing when it is determined that the user is not in the concentrated state. Therefore, when the user is no longer in a concentrated state, the user can be made to take an action for refreshing.
  • the state information may be at least one of eye movement, heart rate, blood pressure, respiratory rate and brain wave.
  • a measurement unit that measures the elapsed time since the power of the information processing device is turned on
  • a time determination unit that determines whether or not the elapsed time is equal to or longer than a predetermined time
  • a unit that determines whether or not the elapsed time is equal to or longer than a predetermined time
  • the visual obstruction execution unit may execute the visual obstruction control at a timing when it is determined that the elapsed time is equal to or longer than the predetermined time.
  • the elapsed time since the power of the information processing apparatus is turned on is measured, and the visual obstruction control is executed at the timing when it is determined that the measured elapsed time is equal to or longer than the predetermined time. Therefore, it is possible to make the user perform an action for refreshing at the timing when the elapsed time from the power of the information processing apparatus is turned on becomes a predetermined time or more.
  • a measuring unit that measures the elapsed time since the visual obstruction control is canceled by the visual obstruction canceling unit, and a time for determining whether or not the elapsed time is a predetermined time or more.
  • a determination unit may be further provided, and the visual obstruction execution unit may execute the visual obstruction control at a timing when it is determined that the elapsed time is equal to or longer than the predetermined time.
  • the elapsed time since the visual obstruction control is released is measured, and the visual obstruction control is executed at the timing when it is determined that the measured elapsed time is equal to or longer than the predetermined time. Therefore, it is possible to make the user perform an action for refreshing at the timing when the elapsed time from the release of the visual obstruction control becomes a predetermined time or more.
  • a detection unit that detects the user in front of the display, a measurement unit that measures the elapsed time since the user is detected by the detection unit, and the elapsed time are predetermined. Further provided with a time determination unit for determining whether or not the time is equal to or longer than the time, the visual obstruction execution unit executes the visual obstruction control at a timing when it is determined that the elapsed time is equal to or longer than the predetermined time. You may.
  • the elapsed time since the user in front of the display is detected is measured, and the visual obstruction control is executed at the timing when it is determined that the measured elapsed time is equal to or longer than the predetermined time. Therefore, it is possible to make the user perform an action for refreshing at the timing when the elapsed time from the detection of the user in front of the display exceeds a predetermined time.
  • the action information includes the number of steps of the user, and the release determination unit determines that the action information satisfies the release condition when the number of steps is a predetermined number or more. May be good.
  • the action performed by the user to refresh is walking, and when the number of steps of the user is equal to or more than a predetermined number, the visual obstruction control for the display is released, so that the user is in a refreshed state. Work can be resumed.
  • the behavior information includes at least one of the user's heart rate, blood pressure, and respiratory rate
  • the release determination unit includes at least one of the heart rate, the blood pressure, and the respiratory rate. If one is within a predetermined range, it may be determined that the action information satisfies the cancellation condition.
  • the visual obstruction control for the display is released, so that the user can resume the work in a refreshed state. Can be done.
  • the action information includes an image captured by capturing the face of the user, and the release determination unit determines the action when a smile is detected from the captured image. It may be determined that the information satisfies the cancellation condition.
  • the visual obstruction control for the display is released, so that the user can resume the work in a refreshed state. Can be done.
  • the behavior information includes an image captured by imaging the user's body
  • the release determination unit detects an action of extending the body from the captured image. In that case, it may be determined that the action information satisfies the cancellation condition.
  • the visual obstruction control for the display is released, so that the user can work in a refreshed state. Can be resumed.
  • the action information includes voice information obtained by collecting voices around the user, and the release determination unit detects the user's singing voice from the voice information. If so, it may be determined that the action information satisfies the cancellation condition.
  • the visual obstruction control for the display is released, so that the user can work in a refreshed state. Can be restarted.
  • the action information includes operation information for a device that refreshes the user
  • the release determination unit uses the action information when the activation of the device is detected from the operation information. It may be determined that the cancellation condition is satisfied.
  • the visual obstruction control for the display is canceled, so that the user can resume the work in the refreshed state.
  • a screen attached to the display surface of the display and switching between a transparent state and an opaque state is further provided, and when the visual obstruction executing unit executes the visual obstruction control, the screen is displayed.
  • the visual obstruction canceling unit may switch the screen from the opaque state to the transparent state.
  • the present disclosure can be realized not only as an information processing apparatus having the above-mentioned characteristic configuration, but also an information processing method for executing characteristic processing corresponding to the characteristic configuration of the information processing apparatus. It can also be realized as such. It can also be realized as a computer program that causes a computer to execute characteristic processing included in such an information processing method. Therefore, the same effect as that of the above-mentioned information processing apparatus can be obtained in the following other aspects as well.
  • the computer executes the visual obstruction control for the display at a predetermined timing, and after executing the visual obstruction control, the action related to the action performed by the user to refresh.
  • Information is acquired, it is determined whether or not the action information satisfies the cancellation condition of the visual obstruction control, and when it is determined that the action information satisfies the cancellation condition, the visual obstruction control is canceled.
  • the information processing program is performed to perform a visual obstruction execution unit that executes visual obstruction control for a display at a predetermined timing, and a user to refresh after the visual obstruction control is executed. It is determined that the behavior information acquisition unit that acquires the behavior information related to the behavior, the cancellation determination unit that determines whether or not the behavior information satisfies the cancellation condition of the visual obstruction control, and the behavior information satisfy the cancellation condition.
  • the computer is made to function as a visual obstruction canceling unit that cancels the visual obstruction control.
  • FIG. 1 is a diagram showing a configuration of an information processing system according to the first embodiment of the present disclosure.
  • the information processing system shown in FIG. 1 includes an information processing device 1, a user state detection device 2, and a user behavior detection device 3.
  • the user state detection device 2 is, for example, a mobile terminal such as a smartphone, a glasses-type wearable terminal, a wristwatch-type wearable terminal, or a head-mounted wearable terminal.
  • the user state detection device 2 detects the user's state and acquires the state information indicating the user's state.
  • the state information is, for example, biometric information.
  • the biological information is, for example, at least one of eye movement, heart rate, blood pressure, respiratory rate and brain wave.
  • the user state detection device 2 includes a sensor that measures the biometric information of the user. Further, the user state detection device 2 measures the biometric information of the user at predetermined time intervals. The user state detection device 2 transmits state information to the information processing device 1 at predetermined time intervals.
  • the user behavior detection device 3 is, for example, a mobile terminal such as a smartphone.
  • the user behavior detection device 3 detects the behavior performed by the user to refresh, and acquires the behavior information regarding the behavior performed by the user to refresh.
  • the action taken by the user to refresh is, for example, walking.
  • the behavior information includes, for example, the number of steps of the user.
  • the user behavior detection device 3 detects the user's behavior at predetermined time intervals.
  • the user behavior detection device 3 transmits behavior information to the information processing device 1 at predetermined time intervals.
  • the information processing device 1 is, for example, a notebook type or desktop type personal computer.
  • the information processing device 1 is used by a user who works from home.
  • the information processing device 1 is communicably connected to the user state detection device 2 and the user behavior detection device 3.
  • the information processing device 1 receives information from the user state detection device 2 and the user behavior detection device 3 in accordance with a short-range wireless communication standard such as Bluetooth (registered trademark), and also receives information from the user state detection device 2 and the user behavior detection device 2. Information is transmitted to 3.
  • a short-range wireless communication standard such as Bluetooth (registered trademark)
  • the information processing device 1 includes a processor 11, a display 12, and a communication unit 13.
  • the display 12 is, for example, a liquid crystal display and displays various information. The user works toward the display 12 built in or external to the personal computer.
  • the communication unit 13 communicates with the user state detection device 2 and the user behavior detection device 3.
  • the communication unit 13 receives the state information from the user state detection device 2. Further, the communication unit 13 receives the action information from the user action detection device 3.
  • the processor 11 is, for example, a CPU (Central Processing Unit).
  • the processor 11 realizes a state information acquisition unit 101, a centralized state determination unit 102, a visual obstruction execution unit 103, an action information acquisition unit 104, a release determination unit 105, and a visual obstruction release unit 106.
  • the status information acquisition unit 101 acquires status information representing the user's status.
  • the state information acquisition unit 101 acquires the state information transmitted by the user state detection device 2 via the communication unit 13.
  • the centralized state determination unit 102 determines whether or not the user is in a centralized state based on the state information acquired by the state information acquisition unit 101.
  • the concentration state determination unit 102 counts the number of times the user's line of sight is directed to a direction other than the front within a predetermined time (for example, 1 minute), and the user's line of sight is counted. It is determined whether or not the number of times that is directed to a direction other than the front is equal to or more than a predetermined number of times.
  • the concentration state determination unit 102 determines that the number of times the user's line of sight is directed to a direction other than the front is less than the predetermined number of times, the concentration state determination unit 102 determines that the user is in the concentration state.
  • the concentration state determination unit 102 determines that the number of times the user's line of sight is directed to a direction other than the front is a predetermined number or more, the concentration state determination unit 102 determines that the user is not in the concentration state.
  • the concentration state determination unit 102 determines whether or not the heart rate, blood pressure, or respiratory rate is equal to or less than a predetermined value.
  • the concentration state determination unit 102 determines that the heart rate, blood pressure, or respiratory rate is higher than a predetermined value, the concentration state determination unit 102 determines that the user is in the concentration state.
  • the concentration state determination unit 102 determines that the heart rate, blood pressure, or respiratory rate is equal to or less than a predetermined value
  • the concentration state determination unit 102 determines that the user is not in the concentration state.
  • the concentration state determination unit 102 determines whether or not the brain wave related to the concentration power is equal to or less than a predetermined value.
  • the brain wave related to concentration is, for example, at least one of alpha wave, beta wave and theta wave.
  • the concentration state determination unit 102 determines that the brain wave is higher than a predetermined value, the concentration state determination unit 102 determines that the user is in the concentration state.
  • the concentration state determination unit 102 determines that the brain wave is equal to or less than a predetermined value, the concentration state determination unit 102 determines that the user is not in the concentration state.
  • the method for determining whether or not the user is in a concentrated state is not limited to the above, and other known determination methods using biometric information may be used.
  • the visual obstruction execution unit 103 executes the visual obstruction control for the display 12 at a predetermined timing.
  • As the visual obstruction control for example, a control of changing the display color of the entire screen of the display 12 to black, a control of displaying an image for prompting a refreshing action on the screen of the display 12, or a mosaic process on the screen of the display 12 is performed. There is control.
  • the visual obstruction execution unit 103 executes the visual obstruction control at the timing when the concentration state determination unit 102 determines that the user is not in the concentration state.
  • the action information acquisition unit 104 acquires action information related to the action taken by the user to refresh after the visual obstruction control is executed by the visual obstruction execution unit 103.
  • the behavior information acquisition unit 104 acquires the behavior information transmitted by the user behavior detection device 3 via the communication unit 13.
  • the cancellation determination unit 105 determines whether or not the behavior information acquired by the behavior information acquisition unit 104 satisfies the cancellation condition of the visual obstruction control. For example, when the action information is the number of steps, the release determination unit 105 determines whether or not the number of steps is a predetermined number or more. Then, when the release determination unit 105 determines that the number of steps is a predetermined number or more, the release determination unit 105 determines that the action information satisfies the release condition. On the other hand, when the release determination unit 105 determines that the number of steps is less than the predetermined number, the release determination unit 105 determines that the action information does not satisfy the release condition.
  • the visual obstruction release unit 106 cancels the visual obstruction control when the release determination unit 105 determines that the action information satisfies the release condition.
  • the display 12 displays the screen before the visual obstruction control is executed.
  • FIG. 2 is a flowchart for explaining the visual recognition control process by the information processing apparatus 1 in the first embodiment of the present disclosure.
  • step S1 the communication unit 13 transmits a state detection instruction for starting the user state detection device 2 to detect the user state to the user state detection device 2.
  • the communication unit 13 automatically transmits a state detection instruction to the user state detection device 2.
  • the communication unit 13 may perform pairing with the user state detection device 2, and when the user state detection device 2 is recognized, the communication unit 13 may transmit a state detection instruction to the user state detection device 2. Further, when the pairing between the information processing device 1 and the user state detection device 2 has already been completed and the power of the information processing device 1 and the user state detection device 2 is turned on, the communication unit 13 detects the state. The instruction may be automatically transmitted to the user state detection device 2. Further, an input unit (not shown) may accept an input by the user instructing the start of the visual control process. When the input unit receives the input of the start instruction of the visual control process, the communication unit 13 may transmit the state detection instruction to the user state detection device 2.
  • the user state detection device 2 When the user state detection device 2 receives the state detection instruction, it periodically acquires the state information and periodically transmits the acquired state information to the information processing device 1. For example, the user state detection device 2 may acquire state information every second and transmit the acquired state information to the information processing device 1 every second. Further, for example, the user state detection device 2 may acquire the state information every second, and may collectively transmit the acquired state information to the information processing device 1 every minute.
  • step S2 the state information acquisition unit 101 acquires the state information transmitted by the user state detection device 2.
  • step S3 it is determined whether or not the user is in a concentrated state based on the state information acquired by the state information acquisition unit 101.
  • step S3 if it is determined that the user is in a concentrated state (YES in step S3), the process returns to step S2.
  • step S4 the visual obstruction executing unit 103 executes the visual obstruction control for the display 12 that the user is looking at.
  • the visual obstruction executing unit 103 changes the display color of the entire screen of the display 12 to black. This makes it difficult for the user to visually recognize the display 12, and the user cannot continue the work using the information processing device 1.
  • the display color of the entire screen changed in the visual obstruction control is not limited to black, and may be another color.
  • the visual obstruction executing unit 103 may display an image for encouraging a refreshing action on the screen of the display 12.
  • the image for encouraging the refreshing action is, for example, the sentence "I am out of concentration. Please perform the refreshing action.”
  • the visual obstruction executing unit 103 may display a landscape image on the screen of the display 12. Further, the visual obstruction executing unit 103 may perform mosaic processing on the screen of the display 12, or display the entire screen of the display 12 in monochrome.
  • step S5 the communication unit 13 transmits an action detection instruction for starting the user action detection device 3 to detect the user's action to the user action detection device 3.
  • the communication unit 13 may perform pairing with the user behavior detection device 3, and when the user behavior detection device 3 is recognized, the communication unit 13 may transmit a behavior detection instruction to the user behavior detection device 3. Further, when the pairing between the information processing device 1 and the user behavior detection device 3 has already been completed and the power of the information processing device 1 and the user behavior detection device 3 are turned on, the communication unit 13 detects the behavior. The instruction may be automatically transmitted to the user behavior detection device 3.
  • the user behavior detection device 3 When the user behavior detection device 3 receives the behavior detection instruction, it detects the behavior performed by the user to refresh and activates an application for acquiring the behavior information related to the behavior performed by the user to refresh.
  • the application displays an image to encourage the user to perform a refresh action.
  • the refreshing behavior is, for example, walking.
  • the behavior information is, for example, the number of steps.
  • the user walks with the user behavior detection device 3.
  • the user behavior detection device 3 periodically acquires behavior information, and periodically transmits the acquired behavior information to the information processing device 1. For example, the user behavior detection device 3 may acquire behavior information every second and transmit the acquired behavior information to the information processing device 1 every second. Further, for example, the user behavior detection device 3 may acquire the behavior information every second, and the acquired behavior information may be collectively transmitted to the information processing device 1 every minute.
  • step S6 the behavior information acquisition unit 104 acquires the behavior information transmitted by the user behavior detection device 3.
  • the release determination unit 105 determines whether or not the action information acquired by the action information acquisition unit 104 satisfies the release condition of the visual obstruction control. For example, when the action information is the number of steps, the release determination unit 105 determines whether or not the cumulative number of steps is a predetermined number, for example, 500 steps or more. For example, when the release determination unit 105 determines that the cumulative number of steps is less than the predetermined number, the release determination unit 105 determines that the action information does not satisfy the release condition. Further, when the release determination unit 105 determines that the cumulative number of steps is equal to or greater than a predetermined number, the release determination unit 105 determines that the action information satisfies the release condition.
  • the action information is the number of steps
  • the release determination unit 105 determines whether or not the cumulative number of steps is a predetermined number, for example, 500 steps or more. For example, when the release determination unit 105 determines that the cumulative number of steps is less than the predetermined number, the release determination unit 105 determines that
  • step S7 if it is determined that the action information does not satisfy the condition for canceling the visual obstruction control (NO in step S7), the process returns to step S6.
  • step S7 when it is determined that the action information satisfies the condition for canceling the visual obstruction control (YES in step S7), the visual obstruction canceling unit 106 cancels the visual obstruction control for the display 12 in step S8. Then, after the processing of step S8 is performed, the processing returns to step S2.
  • the visual obstruction control for the display is executed at a predetermined timing, and when it is determined that the action information regarding the action performed by the user for refreshing satisfies the cancellation condition, the visual obstruction control is canceled.
  • the visual obstruction control is released, so that it can be confirmed that the user has actually performed the action for refreshing, and the health of the user can be maintained. Can be promoted.
  • the information processing apparatus 1 is provided with the display 12, but the present disclosure is not particularly limited to this, and the information processing apparatus 1 may not be provided with the display 12. That is, when the information processing device 1 is a notebook type personal computer, the information processing device 1 includes a display 12. On the other hand, when the information processing device 1 is a desktop personal computer, the information processing device 1 does not have a display 12 and is connected to an external display.
  • the information processing system individually includes the user state detection device 2 and the user behavior detection device 3, but the present disclosure is not particularly limited to this, and the user state detection device 2 and the user One device having both functions of the action detection device 3 may be provided. That is, one mobile terminal may have the functions of both the user state detection device 2 and the user behavior detection device 3.
  • the behavioral information may include at least one of the user's heart rate, blood pressure, and respiratory rate.
  • the release determination unit 105 may determine that the behavior information satisfies the release condition. That is, when at least one of the user's heart rate, blood pressure, and respiratory rate is within a predetermined range, it is presumed that the user has actually performed an action for refreshing. Further, the release determination unit 105 may determine that the behavior information does not satisfy the release condition when at least one of the heart rate, the blood pressure, and the respiratory rate is out of the predetermined range.
  • the behavior information may include an captured image obtained by imaging the user's face.
  • the release determination unit 105 detects a smile from the captured image by motion detection or pattern recognition, which are well-known techniques. When the smile is detected from the captured image, the release determination unit 105 may determine that the action information satisfies the release condition. That is, when the user laughs, it is presumed that the user actually took an action to refresh. Further, the release determination unit 105 may determine that the action information does not satisfy the release condition when the smile is not detected from the captured image.
  • the action performed by the user to refresh may be the action of stretching the body.
  • the behavior information may include a captured image obtained by imaging the user's body.
  • the release determination unit 105 detects the user's stretching motion from the captured image by motion detection or pattern recognition, which is a well-known technique.
  • the release determination unit 105 may determine that the action information satisfies the release condition when the motion of stretching the body is detected from the captured image. Further, the release determination unit 105 may determine that the action information does not satisfy the release condition when the motion of stretching the body is not detected from the captured image.
  • the behavior information may include the voice information obtained by collecting the voice around the user.
  • the release determination unit 105 may determine that the action information satisfies the release condition. That is, when the user sings, it is presumed that the user actually performed an action for refreshing. Further, the release determination unit 105 may determine that the action information does not satisfy the release condition when the user's song is not detected from the voice information.
  • the action information may include the operation information for the device that refreshes the user.
  • the release determination unit 105 may determine that the action information satisfies the release condition. Further, the release determination unit 105 may determine that the action information does not satisfy the release condition when the activation of the device is not detected from the operation information.
  • the device that refreshes the user is, for example, a music player that outputs music, a device that opens a curtain, or a device that opens a window.
  • the user behavior detection device 3 can be remotely controlled for these devices, and accepts activation operations by the user for these devices.
  • the visual obstruction control is executed at the timing when it is determined that the user is not in the concentrated state.
  • the visual obstruction control is executed at the timing when it is determined that the elapsed time after the power of the information processing apparatus is turned on is equal to or longer than a predetermined time.
  • FIG. 3 is a diagram showing a configuration of an information processing system according to the second embodiment of the present disclosure.
  • the information processing system shown in FIG. 3 includes an information processing device 1A and a user behavior detection device 3.
  • the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the information processing device 1A includes a processor 11A, a display 12, and a communication unit 13.
  • the processor 11A realizes a visual obstruction execution unit 103A, an action information acquisition unit 104, a release determination unit 105, a visual obstruction release unit 106, a time measurement unit 107, and an elapsed time determination unit 108.
  • the time measuring unit 107 measures the elapsed time since the power of the information processing apparatus 1A is turned on. Further, the time measuring unit 107 measures the elapsed time after the visual obstruction control is canceled by the visual obstruction canceling unit 106.
  • the elapsed time determination unit 108 determines whether or not the elapsed time since the power of the information processing apparatus 1A measured by the time measurement unit 107 is turned on is equal to or longer than a predetermined time. Further, the elapsed time determination unit 108 determines whether or not the elapsed time after the visual obstruction control measured by the time measuring unit 107 is released is equal to or longer than a predetermined time.
  • the predetermined time is, for example, one hour.
  • the visual obstruction execution unit 103A executes the visual obstruction control at the timing when the elapsed time determination unit 108 determines that the elapsed time is a predetermined time or longer.
  • FIG. 4 is a flowchart for explaining the visual recognition control process by the information processing apparatus 1A in the second embodiment of the present disclosure.
  • step S11 the time measuring unit 107 measures the elapsed time since the power of the information processing apparatus 1A is turned on.
  • step S12 the elapsed time determination unit 108 determines whether or not the elapsed time since the power of the information processing apparatus 1A measured by the time measuring unit 107 is turned on is equal to or longer than a predetermined time.
  • step S12 when it is determined that the elapsed time since the power of the information processing apparatus 1A is turned on is not more than a predetermined time (NO in step S12), the process returns to step S11 and the power of the information processing apparatus 1A is turned on. The elapsed time since it was done will continue to be measured.
  • step S13 the visual obstruction executing unit 103A is viewed by the user.
  • the visual obstruction control for the display 12 is executed.
  • steps S14 to S17 Since the processing of steps S14 to S17 is the same as the processing of steps S5 to S8 shown in FIG. 2, the description thereof will be omitted.
  • step S18 the time measuring unit 107 measures the elapsed time after the visual obstruction control is released by the visual obstruction release unit 106.
  • the elapsed time determination unit 108 determines whether or not the elapsed time since the visual obstruction control measured by the time measurement unit 107 is released is equal to or longer than a predetermined time.
  • the predetermined time to be compared with the elapsed time after the power is turned on and the predetermined time to be compared with the elapsed time after the visual obstruction control is released may be the same or different. ..
  • the predetermined time to be compared with the elapsed time after the power is turned on may be longer than the predetermined time to be compared with the elapsed time after the visual obstruction control is released.
  • step S19 if it is determined that the elapsed time since the visual obstruction control is released is not longer than the predetermined time (NO in step S19), the process returns to step S18 and the elapsed time since the visual obstruction control is released. Will continue to be measured.
  • step S19 when it is determined that the elapsed time from the release of the visual obstruction control is equal to or longer than a predetermined time (YES in step S19), the process returns to step S13, and the visual obstruction execution unit 103A is viewed by the user.
  • the visual obstruction control for the display 12 is executed.
  • the time measuring unit 107 measures the elapsed time since the power of the information processing apparatus 1A is turned on, but the present disclosure is not particularly limited to this.
  • the information processing device 1A may further include a user detection unit that detects a user in front of the display. Then, the time measuring unit 107 may measure the elapsed time after the user is detected by the user detecting unit.
  • the elapsed time determination unit 108 may determine whether or not the elapsed time measured by the time measuring unit 107 is equal to or longer than a predetermined time.
  • the user detection unit may detect the user from the captured image acquired by the camera built in the information processing apparatus 1A. Further, the user detection unit may be a motion sensor.
  • the time measuring unit 107 measures the elapsed time after the power of the information processing apparatus 1A is turned on and the elapsed time after the visual obstruction control is released.
  • the present disclosure is not particularly limited to this, and only the elapsed time since the power of the information processing apparatus 1A is turned on may be measured. In this case, the visual recognition control process may be completed after the process of step S17 in FIG. 4 is performed.
  • the visual obstruction executing units 103 and 103A execute the visual obstruction control for the display 12 by controlling the display screen of the display 12.
  • the visual obstruction executing unit executes the visual obstruction control for the display 12 by controlling the transmittance of the screen attached to the display surface of the display.
  • FIG. 5 is a diagram showing the configuration of the information processing system according to the third embodiment of the present disclosure
  • FIG. 6 is a diagram showing the appearance of the information processing apparatus 1B according to the third embodiment of the present disclosure.
  • the information processing system shown in FIG. 5 includes an information processing device 1B, a user state detection device 2, and a user behavior detection device 3.
  • the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the information processing apparatus 1B in the third embodiment is not a notebook-type or desktop-type personal computer, but a screen apparatus attached to the display surface of the display 41 built in or external to the personal computer 4. Is.
  • the information processing device 1B includes a processor 11B, a communication unit 13, and a liquid crystal screen 14.
  • the liquid crystal screen 14 is attached to the display surface of the display 41 and electrically switches between a transparent state and an opaque state.
  • the liquid crystal screen 14 can adjust the transmittance of the display surface from 100% (transparent state) to 0% (opaque state).
  • the processor 11B realizes a state information acquisition unit 101, a centralized state determination unit 102, a visual obstruction execution unit 103B, an action information acquisition unit 104, a release determination unit 105, and a visual obstruction release unit 106B.
  • the visual obstruction execution unit 103B switches the liquid crystal screen 14 from the transparent state to the opaque state when executing the visual obstruction control. That is, when the visual obstruction execution unit 103B executes the visual obstruction control, the transmittance of the liquid crystal screen 14 is set to 0%.
  • the visual obstruction executing unit 103B does not need to be completely opaque, that is, the transmittance does not need to be 0%, and the transmittance may be set to a predetermined ratio such as 30% or less.
  • the visual obstruction canceling unit 106B switches the liquid crystal screen 14 from the opaque state to the transparent state when canceling the visual obstruction control. That is, when the visual obstruction execution unit 103B cancels the visual obstruction control, the transmittance of the liquid crystal screen 14 is set to 100%.
  • the visual control process by the information processing apparatus 1B of the third embodiment is the same as the visual control process of the information processing apparatus 1 of the first embodiment except that the liquid crystal screen 14 is controlled, and thus the description thereof will be omitted. ..
  • the third embodiment is also applicable to the second embodiment, and the information processing apparatus 1A of the second embodiment shown in FIG. 3 is provided with a liquid crystal screen 14 instead of the display 12, and is a visual obstruction executing unit.
  • the visual obstruction executing unit 103B may be provided in place of the 103A, and the visual obstruction canceling unit 106B may be provided in place of the visual obstruction releasing unit 106.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the program may also be implemented by another independent computer system by recording and transporting the program on a recording medium or by transporting the program over a network.
  • LSI Large Scale Integration
  • FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used.
  • a part or all of the functions of the apparatus according to the embodiment of the present disclosure may be realized by executing a program by a processor such as a CPU.
  • each step shown in the above flowchart is executed is for exemplifying the present disclosure in detail, and may be an order other than the above as long as the same effect can be obtained. .. Further, a part of the above steps may be executed simultaneously with other steps (parallel).
  • the technology according to the present disclosure can confirm that the user has actually performed an action for refreshing, and can promote the maintenance of the user's health. It is useful as a technique to execute and release.

Abstract

情報処理装置(1)は、所定のタイミングで、ディスプレイ(12)に対する視認妨害制御を実行する視認妨害実行部(103)と、視認妨害制御が実行された後、ユーザがリフレッシュするために行った行動に関する行動情報を取得する行動情報取得部(104)と、行動情報が視認妨害制御の解除条件を満たすか否かを判定する解除判定部(105)と、行動情報が解除条件を満たすと判定された場合、視認妨害制御を解除する視認妨害解除部(106)とを備える。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本開示は、ユーザが見ているディスプレイに対する視認妨害制御を実行及び解除する技術に関するものである。
 例えば、特許文献1には、利用者の一連続作業時間が設定時間を超過した場合に、休憩を促す旨を可視表示するとともに、ディスプレイ画面上での表示色を変更するディスプレイ装置が開示されている。そして、上記のディスプレイ装置は、表示に促されて利用者が離席した場合、画面表示状態を元の状態に復帰させる。
 しかしながら、上記従来の技術では、ユーザが実際にリフレッシュするための行動を行ったことを確認することはできず、更なる改善が必要とされていた。
特開平8-160926号公報
 本開示は、上記の問題を解決するためになされたもので、ユーザが実際にリフレッシュするための行動を行ったことを確認することができ、ユーザの健康維持を促進させることができる技術を提供することを目的とするものである。
 本開示に係る情報処理装置は、所定のタイミングで、ディスプレイに対する視認妨害制御を実行する視認妨害実行部と、前記視認妨害制御が実行された後、ユーザがリフレッシュするために行った行動に関する行動情報を取得する行動情報取得部と、前記行動情報が前記視認妨害制御の解除条件を満たすか否かを判定する解除判定部と、前記行動情報が前記解除条件を満たすと判定された場合、前記視認妨害制御を解除する視認妨害解除部と、を備える。
 本開示によれば、ユーザが実際にリフレッシュするための行動を行ったことを確認することができ、ユーザの健康維持を促進させることができる。
本開示の実施の形態1における情報処理システムの構成を示す図である。 本開示の実施の形態1における情報処理装置による視認制御処理について説明するためのフローチャートである。 本開示の実施の形態2における情報処理システムの構成を示す図である。 本開示の実施の形態2における情報処理装置による視認制御処理について説明するためのフローチャートである。 本開示の実施の形態3における情報処理システムの構成を示す図である。 本開示の実施の形態3における情報処理装置の外観を示す図である。
 (本開示の基礎となった知見)
 近年、在宅勤務が普及している。在宅勤務においては、ユーザは、パーソナルコンピュータに向かって長時間作業を行う傾向があり、体をリフレッシュさせることが困難である。例えば、会社で仕事をしていれば、ユーザは、会議などで席を移動することで体をリフレッシュさせることも可能である。しかしながら、在宅勤務の場合、ユーザは、会議もパーソナルコンピュータを用いて遠隔で行うため、体を動かす機会が少なくなり、体をリフレッシュすることができない。
 上記の従来技術では、ユーザに休憩を促すことはできるが、実際にユーザが休憩したことを確認することが困難である。すなわち、ユーザは、パーソナルコンピュータに向かって作業を行っていないが、書類の確認などの他の作業を行っている可能性もある。また、単に、休憩をとるだけではなく、歩いたりするなどの体をリフレッシュさせる行動を行うことがユーザの健康維持の促進に効果的である。
 以上の課題を解決するために、本開示の一態様に係る情報処理装置は、所定のタイミングで、ディスプレイに対する視認妨害制御を実行する視認妨害実行部と、前記視認妨害制御が実行された後、ユーザがリフレッシュするために行った行動に関する行動情報を取得する行動情報取得部と、前記行動情報が前記視認妨害制御の解除条件を満たすか否かを判定する解除判定部と、前記行動情報が前記解除条件を満たすと判定された場合、前記視認妨害制御を解除する視認妨害解除部と、を備える。
 この構成によれば、所定のタイミングで、ディスプレイに対する視認妨害制御が実行され、ユーザがリフレッシュするために行った行動に関する行動情報が解除条件を満たすと判定された場合、視認妨害制御が解除される。
 したがって、ユーザが実際にリフレッシュするための行動を行った後、視認妨害制御が解除されるので、ユーザが実際にリフレッシュするための行動を行ったことを確認することができ、ユーザの健康維持を促進させることができる。
 また、上記の情報処理装置において、前記ユーザの状態を表す状態情報を取得する状態情報取得部と、前記状態情報に基づいて、前記ユーザが集中状態であるか否かを判定する集中状態判定部と、をさらに備え、前記視認妨害実行部は、前記ユーザが前記集中状態ではないと判定されたタイミングで、前記視認妨害制御を実行してもよい。
 この構成によれば、ユーザの状態を表す状態情報に基づいて、ユーザが集中状態であるか否かが判定され、ユーザが集中状態ではないと判定されたタイミングで、視認妨害制御が実行されるので、ユーザが集中状態ではなくなったタイミングで、ユーザにリフレッシュするための行動を行わせることができる。
 また、上記の情報処理装置において、前記状態情報は、眼球の動き、心拍数、血圧、呼吸数及び脳波の少なくとも1つであってもよい。
 この構成によれば、眼球の動き、心拍数、血圧、呼吸数及び脳波の少なくとも1つに基づいて、ユーザが集中状態であるか否かを判定することができる。
 また、上記の情報処理装置において、前記情報処理装置の電源がオンされてからの経過時間を計測する計測部と、前記経過時間が所定時間以上であるか否かを判定する時間判定部と、をさらに備え、前記視認妨害実行部は、前記経過時間が前記所定時間以上であると判定されたタイミングで、前記視認妨害制御を実行してもよい。
 この構成によれば、情報処理装置の電源がオンされてからの経過時間が計測され、計測された経過時間が所定時間以上であると判定されたタイミングで、視認妨害制御が実行される。したがって、情報処理装置の電源がオンされてからの経過時間が所定時間以上になったタイミングで、ユーザにリフレッシュするための行動を行わせることができる。
 また、上記の情報処理装置において、前記視認妨害解除部によって前記視認妨害制御が解除されてからの経過時間を計測する計測部と、前記経過時間が所定時間以上であるか否かを判定する時間判定部と、をさらに備え、前記視認妨害実行部は、前記経過時間が前記所定時間以上であると判定されたタイミングで、前記視認妨害制御を実行してもよい。
 この構成によれば、視認妨害制御が解除されてからの経過時間が計測され、計測された経過時間が所定時間以上であると判定されたタイミングで、視認妨害制御が実行される。したがって、視認妨害制御が解除されてからの経過時間が所定時間以上になったタイミングで、ユーザにリフレッシュするための行動を行わせることができる。
 また、上記の情報処理装置において、前記ディスプレイの前にいる前記ユーザを検知する検知部と、前記検知部によって前記ユーザが検知されてからの経過時間を計測する計測部と、前記経過時間が所定時間以上であるか否かを判定する時間判定部と、をさらに備え、前記視認妨害実行部は、前記経過時間が前記所定時間以上であると判定されたタイミングで、前記視認妨害制御を実行してもよい。
 この構成によれば、ディスプレイの前にいるユーザが検知されてからの経過時間が計測され、計測された経過時間が所定時間以上であると判定されたタイミングで、視認妨害制御が実行される。したがって、ディスプレイの前にいるユーザが検知されてからの経過時間が所定時間以上になったタイミングで、ユーザにリフレッシュするための行動を行わせることができる。
 また、上記の情報処理装置において、前記行動情報は、前記ユーザの歩数を含み、前記解除判定部は、前記歩数が所定数以上である場合、前記行動情報が前記解除条件を満たすと判定してもよい。
 この構成によれば、ユーザがリフレッシュするために行う行動は、歩くことであり、ユーザの歩数が所定数以上である場合、ディスプレイに対する視認妨害制御が解除されるので、ユーザはリフレッシュした状態で、作業を再開することができる。
 また、上記の情報処理装置において、前記行動情報は、前記ユーザの心拍数、血圧及び呼吸数の少なくとも1つを含み、前記解除判定部は、前記心拍数、前記血圧及び前記呼吸数の少なくとも1つが所定の範囲内である場合、前記行動情報が前記解除条件を満たすと判定してもよい。
 この構成によれば、ユーザの心拍数、血圧及び呼吸数の少なくとも1つが所定の範囲内である場合、ディスプレイに対する視認妨害制御が解除されるので、ユーザはリフレッシュした状態で、作業を再開することができる。
 また、上記の情報処理装置において、前記行動情報は、前記ユーザの顔を撮像することによって得られた撮像画像を含み、前記解除判定部は、前記撮像画像から笑顔が検知された場合、前記行動情報が前記解除条件を満たすと判定してもよい。
 この構成によれば、ユーザの顔を撮像することによって得られた撮像画像から笑顔が検知された場合、ディスプレイに対する視認妨害制御が解除されるので、ユーザはリフレッシュした状態で、作業を再開することができる。
 また、上記の情報処理装置において、前記行動情報は、前記ユーザの体を撮像することによって得られた撮像画像を含み、前記解除判定部は、前記撮像画像から前記体を伸ばす動作が検知された場合、前記行動情報が前記解除条件を満たすと判定してもよい。
 この構成によれば、ユーザの体を撮像することによって得られた撮像画像から体を伸ばす動作が検知された場合、ディスプレイに対する視認妨害制御が解除されるので、ユーザはリフレッシュした状態で、作業を再開することができる。
 また、上記の情報処理装置において、前記行動情報は、前記ユーザの周囲の音声を収集することによって得られた音声情報を含み、前記解除判定部は、前記音声情報から前記ユーザの歌声が検知された場合、前記行動情報が前記解除条件を満たすと判定してもよい。
 この構成によれば、ユーザの周囲の音声を収集することによって得られた音声情報からユーザの歌声が検知された場合、ディスプレイに対する視認妨害制御が解除されるので、ユーザはリフレッシュした状態で、作業を再開することができる。
 また、上記の情報処理装置において、前記行動情報は、前記ユーザをリフレッシュさせる機器に対する操作情報を含み、前記解除判定部は、前記操作情報から前記機器の起動が検知された場合、前記行動情報が前記解除条件を満たすと判定してもよい。
 この構成によれば、ユーザをリフレッシュさせる機器に対する操作情報から機器の起動が検知された場合、ディスプレイに対する視認妨害制御が解除されるので、ユーザはリフレッシュした状態で、作業を再開することができる。
 また、上記の情報処理装置において、前記ディスプレイの表示面に取り付けられ、透明状態と不透明状態とを切り替えるスクリーンをさらに備え、前記視認妨害実行部は、前記視認妨害制御を実行する場合、前記スクリーンを前記透明状態から前記不透明状態に切り替え、前記視認妨害解除部は、前記視認妨害制御を解除する場合、前記スクリーンを前記不透明状態から前記透明状態に切り替えてもよい。
 この構成によれば、透明状態と不透明状態とを切り替えるスクリーンをディスプレイに取り付けることにより、視認妨害制御を簡単に実行したり解除したりすることができる。
 また、本開示は、以上のような特徴的な構成を備える情報処理装置として実現することができるだけでなく、情報処理装置が備える特徴的な構成に対応する特徴的な処理を実行する情報処理方法などとして実現することもできる。また、このような情報処理方法に含まれる特徴的な処理をコンピュータに実行させるコンピュータプログラムとして実現することもできる。したがって、以下の他の態様でも、上記の情報処理装置と同様の効果を奏することができる。
 本開示の他の態様に係る情報処理方法は、コンピュータが、所定のタイミングで、ディスプレイに対する視認妨害制御を実行し、前記視認妨害制御を実行した後、ユーザがリフレッシュするために行った行動に関する行動情報を取得し、前記行動情報が前記視認妨害制御の解除条件を満たすか否かを判定し、前記行動情報が前記解除条件を満たすと判定された場合、前記視認妨害制御を解除する。
 本開示の他の態様に係る情報処理プログラムは、所定のタイミングで、ディスプレイに対する視認妨害制御を実行する視認妨害実行部と、前記視認妨害制御が実行された後、ユーザがリフレッシュするために行った行動に関する行動情報を取得する行動情報取得部と、前記行動情報が前記視認妨害制御の解除条件を満たすか否かを判定する解除判定部と、前記行動情報が前記解除条件を満たすと判定された場合、前記視認妨害制御を解除する視認妨害解除部としてコンピュータを機能させる。
 以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
 (実施の形態1)
 図1は、本開示の実施の形態1における情報処理システムの構成を示す図である。
 図1に示す情報処理システムは、情報処理装置1、ユーザ状態検知装置2及びユーザ行動検知装置3を備える。
 ユーザ状態検知装置2は、例えば、スマートフォン等の携帯端末、眼鏡型のウエアラブル端末、腕時計型のウエアラブル端末、又はヘッドマウント型のウエアラブル端末である。
 ユーザ状態検知装置2は、ユーザの状態を検知し、ユーザの状態を表す状態情報を取得する。状態情報は、例えば、生体情報である。生体情報は、例えば、眼球の動き、心拍数、血圧、呼吸数及び脳波の少なくとも1つである。ユーザ状態検知装置2は、ユーザの生体情報を測定するセンサを備える。また、ユーザ状態検知装置2は、所定の時間間隔でユーザの生体情報を測定する。ユーザ状態検知装置2は、所定の時間間隔で状態情報を情報処理装置1へ送信する。
 ユーザ行動検知装置3は、例えば、スマートフォン等の携帯端末である。ユーザ行動検知装置3は、ユーザがリフレッシュするために行った行動を検知し、ユーザがリフレッシュするために行った行動に関する行動情報を取得する。ユーザがリフレッシュするために行った行動は、例えば歩くことである。行動情報は、例えば、ユーザの歩数を含む。ユーザ行動検知装置3は、所定の時間間隔でユーザの行動を検知する。ユーザ行動検知装置3は、所定の時間間隔で行動情報を情報処理装置1へ送信する。
 情報処理装置1は、例えば、ノート型又はデスクトップ型のパーソナルコンピュータである。情報処理装置1は、在宅で仕事をするユーザによって使用される。情報処理装置1は、ユーザ状態検知装置2及びユーザ行動検知装置3と互いに通信可能に接続されている。情報処理装置1は、例えば、ブルートゥース(登録商標)などの近距離無線通信規格に従って、ユーザ状態検知装置2及びユーザ行動検知装置3から情報を受信するとともに、ユーザ状態検知装置2及びユーザ行動検知装置3へ情報を送信する。
 情報処理装置1は、プロセッサ11、ディスプレイ12及び通信部13を備える。
 ディスプレイ12は、例えば、液晶ディスプレイであり、種々の情報を表示する。ユーザは、パーソナルコンピュータに内蔵又は外付けされたディスプレイ12に向かって作業を行う。
 通信部13は、ユーザ状態検知装置2及びユーザ行動検知装置3と通信する。通信部13は、ユーザ状態検知装置2から状態情報を受信する。また、通信部13は、ユーザ行動検知装置3から行動情報を受信する。
 プロセッサ11は、例えば、CPU(中央演算処理装置)である。プロセッサ11により、状態情報取得部101、集中状態判定部102、視認妨害実行部103、行動情報取得部104、解除判定部105及び視認妨害解除部106が実現される。
 状態情報取得部101は、ユーザの状態を表す状態情報を取得する。状態情報取得部101は、通信部13を介して、ユーザ状態検知装置2によって送信された状態情報を取得する。
 集中状態判定部102は、状態情報取得部101によって取得された状態情報に基づいて、ユーザが集中状態であるか否かを判定する。
 例えば、状態情報がユーザの眼球の動きを含む場合、集中状態判定部102は、所定時間(例えば、1分)内においてユーザの視線が正面以外の方向に向いた回数をカウントし、ユーザの視線が正面以外の方向に向いた回数が所定回数以上であるか否かを判定する。集中状態判定部102は、ユーザの視線が正面以外の方向に向いた回数が所定回数より少ないと判定した場合、ユーザが集中状態であると判定する。一方、集中状態判定部102は、ユーザの視線が正面以外の方向に向いた回数が所定回数以上であると判定した場合、ユーザが集中状態ではないと判定する。
 また、例えば、状態情報がユーザの心拍数、血圧又は呼吸数を含む場合、集中状態判定部102は、心拍数、血圧又は呼吸数が所定値以下であるか否かを判定する。集中状態判定部102は、心拍数、血圧又は呼吸数が所定値より高いと判定した場合、ユーザが集中状態であると判定する。一方、集中状態判定部102は、心拍数、血圧又は呼吸数が所定値以下であると判定した場合、ユーザが集中状態ではないと判定する。
 また、例えば、状態情報がユーザの脳波を含む場合、集中状態判定部102は、集中力に関係する脳波が所定値以下であるか否かを判定する。集中力に関係する脳波は、例えば、アルファ波、ベータ波及びシータ波の少なくとも1つである。集中状態判定部102は、脳波が所定値より高いと判定した場合、ユーザが集中状態であると判定する。一方、集中状態判定部102は、脳波が所定値以下であると判定した場合、ユーザが集中状態ではないと判定する。
 なお、ユーザが集中状態であるか否かの判定方法は、上記に限定されず、生体情報を用いた既知の他の判定方法が用いられてもよい。
 視認妨害実行部103は、所定のタイミングで、ディスプレイ12に対する視認妨害制御を実行する。視認妨害制御としては、例えば、ディスプレイ12の画面全体の表示色を黒色に変更する制御、ディスプレイ12の画面にリフレッシュ行動を促すための画像を表示する制御、又はディスプレイ12の画面にモザイク処理を施す制御がある。視認妨害実行部103は、集中状態判定部102によってユーザが集中状態ではないと判定されたタイミングで、視認妨害制御を実行する。
 行動情報取得部104は、視認妨害実行部103によって視認妨害制御が実行された後、ユーザがリフレッシュするために行った行動に関する行動情報を取得する。行動情報取得部104は、通信部13を介して、ユーザ行動検知装置3によって送信された行動情報を取得する。
 解除判定部105は、行動情報取得部104によって取得された行動情報が視認妨害制御の解除条件を満たすか否かを判定する。例えば、行動情報が歩数である場合、解除判定部105は、歩数が所定数以上であるか否かを判定する。そして、解除判定部105は、歩数が所定数以上であると判定した場合、行動情報が解除条件を満たすと判定する。一方、解除判定部105は、歩数が所定数より少ないと判定した場合、行動情報が解除条件を満たさないと判定する。
 視認妨害解除部106は、解除判定部105によって行動情報が解除条件を満たすと判定された場合、視認妨害制御を解除する。視認妨害制御が解除されると、ディスプレイ12は、視認妨害制御が実行される前の画面を表示する。
 続いて、本開示の実施の形態1における情報処理装置1による視認制御処理について説明する。
 図2は、本開示の実施の形態1における情報処理装置1による視認制御処理について説明するためのフローチャートである。
 まず、ステップS1において、通信部13は、ユーザ状態検知装置2にユーザの状態の検知を開始させるための状態検知指示をユーザ状態検知装置2へ送信する。なお、情報処理装置1の電源がオンされると、通信部13は、状態検知指示を自動的にユーザ状態検知装置2へ送信する。
 また、通信部13は、ユーザ状態検知装置2とのペアリングを行い、ユーザ状態検知装置2を認識した場合、状態検知指示をユーザ状態検知装置2へ送信してもよい。また、情報処理装置1とユーザ状態検知装置2とのペアリングが既に完了しており、情報処理装置1及びユーザ状態検知装置2の電源がそれぞれオンされている場合、通信部13は、状態検知指示を自動的にユーザ状態検知装置2へ送信してもよい。さらに、不図示の入力部が、視認制御処理の開始指示のユーザによる入力を受け付けてもよい。入力部によって視認制御処理の開始指示の入力が受け付けられた場合、通信部13は、状態検知指示をユーザ状態検知装置2へ送信してもよい。
 ユーザ状態検知装置2は、状態検知指示を受信すると、定期的に状態情報を取得し、取得した状態情報を定期的に情報処理装置1へ送信する。例えば、ユーザ状態検知装置2は、1秒毎に状態情報を取得し、取得した状態情報を1秒毎に情報処理装置1へ送信してもよい。また、例えば、ユーザ状態検知装置2は、1秒毎に状態情報を取得し、取得した状態情報を1分毎にまとめて情報処理装置1へ送信してもよい。
 次に、ステップS2において、状態情報取得部101は、ユーザ状態検知装置2によって送信された状態情報を取得する。
 次に、ステップS3において、状態情報取得部101によって取得された状態情報に基づいて、ユーザが集中状態であるか否かを判定する。
 ここで、ユーザが集中状態であると判定された場合(ステップS3でYES)、ステップS2に処理が戻る。
 一方、ユーザが集中状態ではないと判定された場合(ステップS3でNO)、ステップS4において、視認妨害実行部103は、ユーザが見ているディスプレイ12に対する視認妨害制御を実行する。例えば、視認妨害実行部103は、ディスプレイ12の画面全体の表示色を黒色に変更する。これにより、ユーザは、ディスプレイ12の視認が困難になり、情報処理装置1を利用した作業を継続することができなくなる。
 なお、視認妨害制御において変更される画面全体の表示色は、黒色に限定されず、他の色であってもよい。また、視認妨害実行部103は、ディスプレイ12の画面にリフレッシュ行動を促すための画像を表示してもよい。リフレッシュ行動を促すための画像は、例えば、「集中力が途切れています。リフレッシュ行動を行ってください。」という文章である。また、視認妨害実行部103は、ディスプレイ12の画面に風景画像を表示してもよい。また、視認妨害実行部103は、ディスプレイ12の画面にモザイク処理を施したり、ディスプレイ12の画面全体をモノクロで表示したりしてもよい。
 次に、ステップS5において、通信部13は、ユーザ行動検知装置3にユーザの行動の検知を開始させるための行動検知指示をユーザ行動検知装置3へ送信する。
 なお、通信部13は、ユーザ行動検知装置3とのペアリングを行い、ユーザ行動検知装置3を認識した場合、行動検知指示をユーザ行動検知装置3へ送信してもよい。また、情報処理装置1とユーザ行動検知装置3とのペアリングが既に完了しており、情報処理装置1及びユーザ行動検知装置3の電源がそれぞれオンされている場合、通信部13は、行動検知指示を自動的にユーザ行動検知装置3へ送信してもよい。
 ユーザ行動検知装置3は、行動検知指示を受信すると、ユーザがリフレッシュするために行った行動を検知するとともに、ユーザがリフレッシュするために行った行動に関する行動情報を取得するためのアプリケーションを起動する。このアプリケーションでは、ユーザにリフレッシュ行動を行うように促すための画像が表示される。リフレッシュ行動は、例えば、歩くことである。行動情報は、例えば、歩数である。ユーザは、ユーザ行動検知装置3を持って歩く。ユーザ行動検知装置3は、定期的に行動情報を取得し、取得した行動情報を定期的に情報処理装置1へ送信する。例えば、ユーザ行動検知装置3は、1秒毎に行動情報を取得し、取得した行動情報を1秒毎に情報処理装置1へ送信してもよい。また、例えば、ユーザ行動検知装置3は、1秒毎に行動情報を取得し、取得した行動情報を1分毎にまとめて情報処理装置1へ送信してもよい。
 次に、ステップS6において、行動情報取得部104は、ユーザ行動検知装置3によって送信された行動情報を取得する。
 次に、ステップS7において、解除判定部105は、行動情報取得部104によって取得された行動情報が視認妨害制御の解除条件を満たすか否かを判定する。例えば、行動情報が歩数である場合、解除判定部105は、歩数の累計が所定数、例えば、500歩以上であるか否かを判定する。例えば、解除判定部105は、歩数の累計が所定数より少ないと判定した場合、行動情報が解除条件を満たさないと判定する。また、解除判定部105は、歩数の累計が所定数以上であると判定した場合、行動情報が解除条件を満たすと判定する。
 ここで、行動情報が視認妨害制御の解除条件を満たさないと判定された場合(ステップS7でNO)、ステップS6に処理が戻る。
 一方、行動情報が視認妨害制御の解除条件を満たすと判定された場合(ステップS7でYES)、ステップS8において、視認妨害解除部106は、ディスプレイ12に対する視認妨害制御を解除する。そして、ステップS8の処理が行われた後、ステップS2に処理が戻る。
 このように、所定のタイミングで、ディスプレイに対する視認妨害制御が実行され、ユーザがリフレッシュするために行った行動に関する行動情報が解除条件を満たすと判定された場合、視認妨害制御が解除される。
 したがって、ユーザが実際にリフレッシュするための行動を行った後、視認妨害制御が解除されるので、ユーザが実際にリフレッシュするための行動を行ったことを確認することができ、ユーザの健康維持を促進させることができる。
 なお、本実施の形態1では、情報処理装置1はディスプレイ12を備えているが、本開示は特にこれに限定されず、情報処理装置1はディスプレイ12を備えていなくてもよい。すなわち、情報処理装置1がノート型のパーソナルコンピュータである場合、情報処理装置1はディスプレイ12を備える。一方、情報処理装置1がデスクトップ型のパーソナルコンピュータである場合、情報処理装置1はディスプレイ12を備えておらず、外付けのディスプレイと接続されている。
 また、本実施の形態1では、情報処理システムは、ユーザ状態検知装置2及びユーザ行動検知装置3を個別に備えているが、本開示は特にこれに限定されず、ユーザ状態検知装置2及びユーザ行動検知装置3の両方の機能を有する1つの装置を備えてもよい。すなわち、1台の携帯端末が、ユーザ状態検知装置2及びユーザ行動検知装置3の両方の機能を有しもよい。
 また、本実施の形態1の変形例1において、行動情報は、ユーザの心拍数、血圧及び呼吸数の少なくとも1つを含んでもよい。解除判定部105は、心拍数、血圧及び呼吸数の少なくとも1つが所定の範囲内である場合、行動情報が解除条件を満たすと判定してもよい。すなわち、ユーザの心拍数、血圧及び呼吸数の少なくとも1つが所定の範囲内である場合、ユーザによって実際にリフレッシュするための行動が行われたと推定される。また、解除判定部105は、心拍数、血圧及び呼吸数の少なくとも1つが所定の範囲外である場合、行動情報が解除条件を満たさないと判定してもよい。
 また、本実施の形態1の変形例2において、行動情報は、ユーザの顔を撮像することによって得られた撮像画像を含んでもよい。解除判定部105は、周知技術である動き検知又はパターン認識により、撮像画像から笑顔を検知する。解除判定部105は、撮像画像から笑顔が検知された場合、行動情報が解除条件を満たすと判定してもよい。すなわち、ユーザが笑った場合、ユーザによって実際にリフレッシュするための行動が行われたと推定される。また、解除判定部105は、撮像画像から笑顔が検知されない場合、行動情報が解除条件を満たさないと判定してもよい。
 また、本実施の形態1の変形例3において、ユーザがリフレッシュするために行う行動は、体を伸ばす動作を行うことであってもよい。行動情報は、ユーザの体を撮像することによって得られた撮像画像を含んでもよい。解除判定部105は、周知技術である動き検知又はパターン認識により、撮像画像からユーザが体を伸ばす動作を検知する。解除判定部105は、撮像画像から体を伸ばす動作が検知された場合、行動情報が解除条件を満たすと判定してもよい。また、解除判定部105は、撮像画像から体を伸ばす動作が検知されない場合、行動情報が解除条件を満たさないと判定してもよい。
 また、本実施の形態1の変形例4において、行動情報は、ユーザの周囲の音声を収集することによって得られた音声情報を含んでもよい。解除判定部105は、音声情報からユーザの歌声が検知された場合、行動情報が解除条件を満たすと判定してもよい。すなわち、ユーザが歌った場合、ユーザによって実際にリフレッシュするための行動が行われたと推定される。また、解除判定部105は、音声情報からユーザの歌が検知されない場合、行動情報が解除条件を満たさないと判定してもよい。
 また、本実施の形態1の変形例5において、行動情報は、ユーザをリフレッシュさせる機器に対する操作情報を含んでもよい。解除判定部105は、操作情報から機器の起動が検知された場合、行動情報が解除条件を満たすと判定してもよい。また、解除判定部105は、操作情報から機器の起動が検知されない場合、行動情報が解除条件を満たさないと判定してもよい。ユーザをリフレッシュさせる機器は、例えば、音楽を出力する音楽プレーヤ、カーテンを開ける機器、又は窓を開ける機器である。ユーザ行動検知装置3は、これらの機器に対して遠隔操作可能であり、これらの機器に対するユーザによる起動操作を受け付ける。
 (実施の形態2)
 上記の実施の形態1では、ユーザが集中状態ではないと判定されたタイミングで、視認妨害制御が実行される。これに対し、実施の形態2では、情報処理装置の電源がオンされてからの経過時間が所定時間以上であると判定されたタイミングで、視認妨害制御が実行される。
 図3は、本開示の実施の形態2における情報処理システムの構成を示す図である。
 図3に示す情報処理システムは、情報処理装置1A及びユーザ行動検知装置3を備える。なお、本実施の形態2において、実施の形態1と同じ構成については、同じ符号を付し、説明を省略する。
 情報処理装置1Aは、プロセッサ11A、ディスプレイ12及び通信部13を備える。
 プロセッサ11Aにより、視認妨害実行部103A、行動情報取得部104、解除判定部105、視認妨害解除部106、時間計測部107及び経過時間判定部108が実現される。
 時間計測部107は、情報処理装置1Aの電源がオンされてからの経過時間を計測する。また、時間計測部107は、視認妨害解除部106によって視認妨害制御が解除されてからの経過時間を計測する。
 経過時間判定部108は、時間計測部107によって計測された情報処理装置1Aの電源がオンされてからの経過時間が所定時間以上であるか否かを判定する。また、経過時間判定部108は、時間計測部107によって計測された視認妨害制御が解除されてからの経過時間が所定時間以上であるか否かを判定する。所定時間は、例えば、1時間である。
 視認妨害実行部103Aは、経過時間判定部108によって経過時間が所定時間以上であると判定されたタイミングで、視認妨害制御を実行する。
 続いて、本開示の実施の形態2における情報処理装置1Aによる視認制御処理について説明する。
 図4は、本開示の実施の形態2における情報処理装置1Aによる視認制御処理について説明するためのフローチャートである。
 まず、ステップS11において、時間計測部107は、情報処理装置1Aの電源がオンされてからの経過時間を計測する。
 次に、ステップS12において、経過時間判定部108は、時間計測部107によって計測された情報処理装置1Aの電源がオンされてからの経過時間が所定時間以上であるか否かを判定する。
 ここで、情報処理装置1Aの電源がオンされてからの経過時間が所定時間以上ではないと判定された場合(ステップS12でNO)、ステップS11に処理が戻り、情報処理装置1Aの電源がオンされてからの経過時間が引き続き計測される。
 一方、情報処理装置1Aの電源がオンされてからの経過時間が所定時間以上であると判定された場合(ステップS12でYES)、ステップS13において、視認妨害実行部103Aは、ユーザが見ているディスプレイ12に対する視認妨害制御を実行する。
 ステップS14~ステップS17の処理は、図2に示すステップS5~ステップS8の処理と同じであるので、説明を省略する。
 次に、ステップS18において、時間計測部107は、視認妨害解除部106によって視認妨害制御が解除されてからの経過時間を計測する。
 次に、ステップS19において、経過時間判定部108は、時間計測部107によって計測された視認妨害制御が解除されてからの経過時間が所定時間以上であるか否かを判定する。なお、電源がオンされてからの経過時間と比較する所定時間と、視認妨害制御が解除されてからの経過時間と比較する所定時間とは、同じであってもよいし、異なっていてもよい。例えば、電源がオンされてからの経過時間と比較する所定時間が、視認妨害制御が解除されてからの経過時間と比較する所定時間よりも長くてもよい。
 ここで、視認妨害制御が解除されてからの経過時間が所定時間以上ではないと判定された場合(ステップS19でNO)、ステップS18に処理が戻り、視認妨害制御が解除されてからの経過時間が引き続き計測される。
 一方、視認妨害制御が解除されてからの経過時間が所定時間以上であると判定された場合(ステップS19でYES)、ステップS13に処理が戻り、視認妨害実行部103Aは、ユーザが見ているディスプレイ12に対する視認妨害制御を実行する。
 なお、本実施の形態2では、時間計測部107は、情報処理装置1Aの電源がオンされてからの経過時間を計測しているが、本開示は特にこれに限定されない。情報処理装置1Aは、ディスプレイの前にいるユーザを検知するユーザ検知部をさらに備えてもよい。そして、時間計測部107は、ユーザ検知部によってユーザが検知されてからの経過時間を計測してもよい。経過時間判定部108は、時間計測部107によって計測された経過時間が所定時間以上であるか否かを判定してもよい。ユーザ検知部は、情報処理装置1Aに内蔵されたカメラにより取得された撮像画像からユーザを検知してもよい。また、ユーザ検知部は、人感センサであってもよい。
 また、本実施の形態2において、時間計測部107は、情報処理装置1Aの電源がオンされてからの経過時間と、視認妨害制御が解除されてからの経過時間とを計測しているが、本開示は特にこれに限定されず、情報処理装置1Aの電源がオンされてからの経過時間のみを計測してもよい。この場合、図4のステップS17の処理が行われた後、視認制御処理が終了してもよい。
 (実施の形態3)
 上記の実施の形態1,2では、視認妨害実行部103,103Aは、ディスプレイ12の表示画面を制御することにより、ディスプレイ12に対する視認妨害制御を実行している。これに対し、実施の形態3では、視認妨害実行部は、ディスプレイの表示面に取り付けられるスクリーンの透過率を制御することにより、ディスプレイ12に対する視認妨害制御を実行する。
 図5は、本開示の実施の形態3における情報処理システムの構成を示す図であり、図6は、本開示の実施の形態3における情報処理装置1Bの外観を示す図である。
 図5に示す情報処理システムは、情報処理装置1B、ユーザ状態検知装置2及びユーザ行動検知装置3を備える。なお、本実施の形態3において、実施の形態1と同じ構成については、同じ符号を付し、説明を省略する。
 図6に示すように、本実施の形態3における情報処理装置1Bは、ノート型又はデスクトップ型のパーソナルコンピュータではなく、パーソナルコンピュータ4に内蔵又は外付けされるディスプレイ41の表示面に取り付けられるスクリーン装置である。
 情報処理装置1Bは、プロセッサ11B、通信部13及び液晶スクリーン14を備える。
 液晶スクリーン14は、ディスプレイ41の表示面に取り付けられ、透明状態と不透明状態とを電気的に切り替える。液晶スクリーン14は、表示面の透過率を100%(透明状態)から0%(不透明状態)に調節することが可能である。
 プロセッサ11Bにより、状態情報取得部101、集中状態判定部102、視認妨害実行部103B、行動情報取得部104、解除判定部105及び視認妨害解除部106Bが実現される。
 視認妨害実行部103Bは、視認妨害制御を実行する場合、液晶スクリーン14を透明状態から不透明状態に切り替える。すなわち、視認妨害実行部103Bは、視認妨害制御を実行する場合、液晶スクリーン14の透過率を0%にする。なお、視認妨害実行部103Bは、完全に不透明状態にする、すなわち透過率を0%にする必要はなく、透過率を例えば30%以下などの所定の割合以下にしてもよい。
 視認妨害解除部106Bは、視認妨害制御を解除する場合、液晶スクリーン14を不透明状態から透明状態に切り替える。すなわち、視認妨害実行部103Bは、視認妨害制御を解除する場合、液晶スクリーン14の透過率を100%にする。
 なお、本実施の形態3の情報処理装置1Bによる視認制御処理は、液晶スクリーン14を制御する以外は、実施の形態1の情報処理装置1の視認制御処理と同じであるので、説明を省略する。
 また、本実施の形態3は、実施の形態2にも適用可能であり、図3に示す実施の形態2の情報処理装置1Aは、ディスプレイ12に替えて液晶スクリーン14を備え、視認妨害実行部103Aに替えて視認妨害実行部103Bを備え、視認妨害解除部106に替えて視認妨害解除部106Bを備えてもよい。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。また、プログラムを記録媒体に記録して移送することにより、又はプログラムをネットワークを経由して移送することにより、独立した他のコンピュータシステムによりプログラムが実施されてもよい。
 本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
 また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。
 また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 本開示に係る技術は、ユーザが実際にリフレッシュするための行動を行ったことを確認することができ、ユーザの健康維持を促進させることができるので、ユーザが見ているディスプレイに対する視認妨害制御を実行及び解除する技術として有用である。

Claims (15)

  1.  所定のタイミングで、ディスプレイに対する視認妨害制御を実行する視認妨害実行部と、
     前記視認妨害制御が実行された後、ユーザがリフレッシュするために行った行動に関する行動情報を取得する行動情報取得部と、
     前記行動情報が前記視認妨害制御の解除条件を満たすか否かを判定する解除判定部と、
     前記行動情報が前記解除条件を満たすと判定された場合、前記視認妨害制御を解除する視認妨害解除部と、
     を備える情報処理装置。
  2.  前記ユーザの状態を表す状態情報を取得する状態情報取得部と、
     前記状態情報に基づいて、前記ユーザが集中状態であるか否かを判定する集中状態判定部と、
     をさらに備え、
     前記視認妨害実行部は、前記ユーザが前記集中状態ではないと判定されたタイミングで、前記視認妨害制御を実行する、
     請求項1記載の情報処理装置。
  3.  前記状態情報は、眼球の動き、心拍数、血圧、呼吸数及び脳波の少なくとも1つである、
     請求項2記載の情報処理装置。
  4.  前記情報処理装置の電源がオンされてからの経過時間を計測する計測部と、
     前記経過時間が所定時間以上であるか否かを判定する時間判定部と、
     をさらに備え、
     前記視認妨害実行部は、前記経過時間が前記所定時間以上であると判定されたタイミングで、前記視認妨害制御を実行する、
     請求項1記載の情報処理装置。
  5.  前記視認妨害解除部によって前記視認妨害制御が解除されてからの経過時間を計測する計測部と、
     前記経過時間が所定時間以上であるか否かを判定する時間判定部と、
     をさらに備え、
     前記視認妨害実行部は、前記経過時間が前記所定時間以上であると判定されたタイミングで、前記視認妨害制御を実行する、
     請求項4記載の情報処理装置。
  6.  前記ディスプレイの前にいる前記ユーザを検知する検知部と、
     前記検知部によって前記ユーザが検知されてからの経過時間を計測する計測部と、
     前記経過時間が所定時間以上であるか否かを判定する時間判定部と、
     をさらに備え、
     前記視認妨害実行部は、前記経過時間が前記所定時間以上であると判定されたタイミングで、前記視認妨害制御を実行する、
     請求項1記載の情報処理装置。
  7.  前記行動情報は、前記ユーザの歩数を含み、
     前記解除判定部は、前記歩数が所定数以上である場合、前記行動情報が前記解除条件を満たすと判定する、
     請求項1~6のいずれか1項に記載の情報処理装置。
  8.  前記行動情報は、前記ユーザの心拍数、血圧及び呼吸数の少なくとも1つを含み、
     前記解除判定部は、前記心拍数、前記血圧及び前記呼吸数の少なくとも1つが所定の範囲内である場合、前記行動情報が前記解除条件を満たすと判定する、
     請求項1~6のいずれか1項に記載の情報処理装置。
  9.  前記行動情報は、前記ユーザの顔を撮像することによって得られた撮像画像を含み、
     前記解除判定部は、前記撮像画像から笑顔が検知された場合、前記行動情報が前記解除条件を満たすと判定する、
     請求項1~6のいずれか1項に記載の情報処理装置。
  10.  前記行動情報は、前記ユーザの体を撮像することによって得られた撮像画像を含み、
     前記解除判定部は、前記撮像画像から前記体を伸ばす動作が検知された場合、前記行動情報が前記解除条件を満たすと判定する、
     請求項1~6のいずれか1項に記載の情報処理装置。
  11.  前記行動情報は、前記ユーザの周囲の音声を収集することによって得られた音声情報を含み、
     前記解除判定部は、前記音声情報から前記ユーザの歌声が検知された場合、前記行動情報が前記解除条件を満たすと判定する、
     請求項1~6のいずれか1項に記載の情報処理装置。
  12.  前記行動情報は、前記ユーザをリフレッシュさせる機器に対する操作情報を含み、
     前記解除判定部は、前記操作情報から前記機器の起動が検知された場合、前記行動情報が前記解除条件を満たすと判定する、
     請求項1~6のいずれか1項に記載の情報処理装置。
  13.  前記ディスプレイの表示面に取り付けられ、透明状態と不透明状態とを切り替えるスクリーンをさらに備え、
     前記視認妨害実行部は、前記視認妨害制御を実行する場合、前記スクリーンを前記透明状態から前記不透明状態に切り替え、
     前記視認妨害解除部は、前記視認妨害制御を解除する場合、前記スクリーンを前記不透明状態から前記透明状態に切り替える、
     請求項1~12のいずれか1項に記載の情報処理装置。
  14.  コンピュータが、
     所定のタイミングで、ディスプレイに対する視認妨害制御を実行し、
     前記視認妨害制御を実行した後、ユーザがリフレッシュするために行った行動に関する行動情報を取得し、
     前記行動情報が前記視認妨害制御の解除条件を満たすか否かを判定し、
     前記行動情報が前記解除条件を満たすと判定された場合、前記視認妨害制御を解除する、
     情報処理方法。
  15.  所定のタイミングで、ディスプレイに対する視認妨害制御を実行する視認妨害実行部と、
     前記視認妨害制御が実行された後、ユーザがリフレッシュするために行った行動に関する行動情報を取得する行動情報取得部と、
     前記行動情報が前記視認妨害制御の解除条件を満たすか否かを判定する解除判定部と、
     前記行動情報が前記解除条件を満たすと判定された場合、前記視認妨害制御を解除する視認妨害解除部としてコンピュータを機能させる、
     情報処理プログラム。
PCT/JP2021/023663 2020-07-20 2021-06-22 情報処理装置、情報処理方法及び情報処理プログラム WO2022019036A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022538651A JPWO2022019036A1 (ja) 2020-07-20 2021-06-22

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063053959P 2020-07-20 2020-07-20
US63/053,959 2020-07-20
JP2021-090413 2021-05-28
JP2021090413 2021-05-28

Publications (1)

Publication Number Publication Date
WO2022019036A1 true WO2022019036A1 (ja) 2022-01-27

Family

ID=79729416

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/023663 WO2022019036A1 (ja) 2020-07-20 2021-06-22 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (2)

Country Link
JP (1) JPWO2022019036A1 (ja)
WO (1) WO2022019036A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130005303A1 (en) * 2011-06-29 2013-01-03 Song Seungkyu Terminal and control method thereof
US20140333529A1 (en) * 2013-05-09 2014-11-13 Samsung Electronics Co., Ltd. Apparatus and method of controlling display apparatus
JP2016136234A (ja) * 2015-01-17 2016-07-28 アルパイン株式会社 表示装置
CN105893825A (zh) * 2016-04-25 2016-08-24 广东欧珀移动通信有限公司 一种基于音乐识符的显示屏解锁方法、装置及移动终端
US20200160038A1 (en) * 2018-01-10 2020-05-21 Huaian Imaging Device Manufacturer Corporation Electronic Device, and Visual Recognition System and Method Thereof
CN111415722A (zh) * 2020-03-20 2020-07-14 维沃移动通信有限公司 一种屏幕控制方法及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130005303A1 (en) * 2011-06-29 2013-01-03 Song Seungkyu Terminal and control method thereof
US20140333529A1 (en) * 2013-05-09 2014-11-13 Samsung Electronics Co., Ltd. Apparatus and method of controlling display apparatus
JP2016136234A (ja) * 2015-01-17 2016-07-28 アルパイン株式会社 表示装置
CN105893825A (zh) * 2016-04-25 2016-08-24 广东欧珀移动通信有限公司 一种基于音乐识符的显示屏解锁方法、装置及移动终端
US20200160038A1 (en) * 2018-01-10 2020-05-21 Huaian Imaging Device Manufacturer Corporation Electronic Device, and Visual Recognition System and Method Thereof
CN111415722A (zh) * 2020-03-20 2020-07-14 维沃移动通信有限公司 一种屏幕控制方法及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FUJII, TOMOY A: "A Break Recognition Method by Detection of Stretch", LECTURE PROCEEDINGS 2 OF THE 2013 COMMUNICATION SOCIETY CONFERENCE OF IEICE, vol. 2, 18 September 2013 (2013-09-18), pages 444 *

Also Published As

Publication number Publication date
JPWO2022019036A1 (ja) 2022-01-27

Similar Documents

Publication Publication Date Title
US20210350900A1 (en) Physical activity and workout monitor with a progress indicator
US20210113116A1 (en) Workout monitor interface
US11726324B2 (en) Display system
CN110520824B (zh) 多模式眼睛跟踪
RU2644265C2 (ru) Устройство отображения изображения и устройство для ввода информации
TWI509535B (zh) 控制具有一顯示器之一計算器件的方法、系統及電腦可記錄媒體
US20170143246A1 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
US20160004323A1 (en) Methods, systems, and apparatuses to update screen content responsive to user gestures
US20160241553A1 (en) Wearable device and operating method thereof
KR20160015785A (ko) 비접촉 체온 측정 시 정확도를 향상시키기 위한 장치 및 방법
US10536852B2 (en) Electronic apparatus, method for authenticating the same, and recording medium
US11209908B2 (en) Information processing apparatus and information processing method
EP3586733B1 (en) Information processing method, information processing device, and program
JP6334484B2 (ja) メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー
WO2022019036A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP6996379B2 (ja) 学習システム、及び、学習システム用プログラム
WO2016143415A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2022232414A9 (en) Methods, systems, and related aspects for determining a cognitive load of a sensorized device user
KR101805749B1 (ko) 사용자 인증 장치
KR101643744B1 (ko) 시선고정 눈 반응 감지장치 및 방법
US20180239487A1 (en) Information processing device, information processing method, and program
US20220225936A1 (en) Contactless vitals using smart glasses
US11854575B1 (en) System for presentation of sentiment data
US20220360847A1 (en) Systems and methods for characterizing joint attention during real world interaction
Akshay et al. An Eye Movement Based Patient Assistance System

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21847047

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022538651

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21847047

Country of ref document: EP

Kind code of ref document: A1