WO2017094346A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- WO2017094346A1 WO2017094346A1 PCT/JP2016/079503 JP2016079503W WO2017094346A1 WO 2017094346 A1 WO2017094346 A1 WO 2017094346A1 JP 2016079503 W JP2016079503 W JP 2016079503W WO 2017094346 A1 WO2017094346 A1 WO 2017094346A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- information
- gesture
- user operation
- condition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1636—Sensing arrangement for detection of a tap gesture on the housing
Definitions
- the present disclosure relates to an information processing apparatus, an information processing method, and a program.
- Patent Document 1 describes a technique assuming that appropriate gesture feedback is performed using gesture prediction information.
- Motion recognition gestures on wristwatch-type terminals and other wearable terminals can be operated without the user directly operating the buttons and touch panel of the terminal, and can provide convenience to the user. However, when the user's movement is smaller than expected, a case where the operation cannot be performed occurs. On the other hand, if the conditions for recognizing gestures are relaxed, there is an increase in the number of cases where gestures are recognized even in situations where it is not desired to recognize the gestures, resulting in a decrease in convenience and satisfaction for the user.
- acceleration sensors there are acceleration sensors, gyro sensors, atmospheric pressure sensors, etc. as sensors for recognizing the movement of the user, but if all the sensors are moved at the same time, there is a problem that the power consumption is increased while the accuracy is improved.
- an acquisition unit that acquires operation information based on a user's gesture operation and a processing unit that performs processing based on the operation information
- the processing unit includes a first user operation based on a first user operation.
- the operation information is acquired, predetermined processing is performed, second operation information based on the second user operation related to the first user operation is acquired, and within a predetermined time after the second user operation
- an information processing apparatus that performs the predetermined process is provided.
- the operation information based on the user's gesture operation is acquired, and the processing is performed based on the operation information, and the first operation information based on the first user operation is acquired.
- the second operation information based on the second user operation related to the first user operation is acquired, and the second operation information performed within a predetermined time after the second user operation is performed.
- An information processing method is provided in which the predetermined processing is performed when third operation information based on the third user operation is acquired.
- a program for causing a computer to function as means for acquiring operation information based on a user's gesture operation and means for performing processing based on the operation information Means for performing a predetermined process when acquiring the first operation information based on the second operation information based on the second user operation related to the first user operation, and acquiring the second operation information after the second user operation.
- a program for causing a computer to function as means for performing the predetermined processing when third operation information based on a third user operation performed within a predetermined time is acquired is provided.
- FIG. 4 is a flowchart showing a process for realizing the process shown in FIGS. 3A to 3D.
- FIG. It is a characteristic view showing the relationship between the detection value of the acceleration sensor and the feature quantity v. If the action (arm swinging) performed by the user for igniting the gesture does not satisfy the first ignition condition but satisfies the second ignition condition that is looser than the first ignition condition, the terminal device is notified accordingly.
- HMD head mounted display
- TV television receiver
- movement when a message arrives at a terminal device It is a schematic diagram which shows operation
- movement when a message arrives at a terminal device It is a schematic diagram which shows operation
- flowchart which shows the process in 2nd Embodiment.
- FIG. 1 is a schematic diagram illustrating an appearance of a terminal device 100 according to an embodiment of the present disclosure.
- the terminal device 100 is configured as a wristwatch type device including a display unit 102 (display) and a sensor such as an acceleration sensor, and, like a smartphone or a tablet terminal, a website browsing function, an email function, music, It has a viewing function for moving images, a position detection function using GPS, a navigation function, and the like.
- the terminal device 100 constantly senses the value of a sensor such as an acceleration sensor, applies the value of the sensor to a gesture determination function (gesture determination condition), and determines whether the gesture is fired or not based on the result.
- a sensor such as an acceleration sensor
- a gesture determination function gesture determination condition
- the most common example of a gesture is one whose screen turns on when the arm is raised. Other gestures include twisting the arm and tapping the index and middle fingers.
- FIG. 2 is a block diagram illustrating a functional configuration of the terminal device 100.
- the terminal device 100 in addition to the display unit (output unit) 102, the terminal device 100 includes an acceleration sensor 104, a gyro sensor 106, a vibrator (output unit) 107, a microcomputer 110, a RAM 120, a storage (storage unit) 122, A wireless connection unit (wireless communication unit) 124 and a main CPU 130 are included.
- the terminal device 100 can be connected to the parent smartphone via the wireless connection unit 124 or directly connected to the Internet.
- the acceleration sensor 104 and the gyro sensor 106 are once connected to a sensor processing microcomputer 110 and then connected to a main CPU 130 (application processor) that performs main processing.
- a simple gesture determination may be performed by the microcomputer 110 for sensor processing.
- the main CPU 130 functions as an application processor, and executes the above-described website browsing function, mail function, music / video viewing function, GPS position detection function, navigation function, and the like.
- the terminal device 100 turns off the power supply due to time-up or the like, and constantly senses the detection values of the acceleration sensor 104 and the gyro sensor 106 by the microcomputer 110. Then, the detection values of these sensors are applied to the gesture determination function, and the firing and non-firing of the gesture are determined based on the result. Since the power consumption of the microcomputer 110 is significantly smaller than that of the main CPU 130, the power consumption can be greatly reduced by stopping the main CPU 130 when the power is turned off and starting only the microcomputer 110.
- 3A to 3D are schematic diagrams illustrating an example in which the display screen of the display unit 102 is turned on when the arm is raised as the most common example of the gesture.
- the user tried to ignite a gesture by swinging up the terminal device 100.
- the amount of the swing up was insufficient, and the screen (backlight) of the display unit 102 did not light up as shown in FIG. 3B.
- the display information is not displayed on the screen and the gesture is not ignited.
- FIG. 3C when the user performs an additional small gesture that further brings the terminal device 100 closer to the user, the display screen of the display unit 102 is lit as illustrated in FIG.
- the desired operation of turning on the display screen (displaying display information) can be realized.
- the first, second, and third determination conditions (gesture firing conditions) will be described.
- the first judgment condition is arm swinging
- the second judgment condition is arm swinging under a looser condition than the first judgment condition
- the third judgment condition is changing the arm angle with the arm raised, Triggered (fired) by shaking lightly.
- the first determination condition is an operation of tapping the index finger and the middle finger
- the second determination condition is a detection of a tap operation under a looser condition than the first determination condition
- the third determination condition is a second determination condition. It is assumed that tap detection is performed under a condition that is stricter than the first determination condition but looser than the first determination condition. The tap operation will be described later.
- the gesture judgment value for turning on the screen is reduced, the gesture can be ignited even when the arm swing amount is small.
- the gesture is ignited even when the user does not intend to ignite the gesture, for example, when the user grasps the strap in the train.
- FIG. 4 is a block diagram showing a functional configuration realized by the microcomputer 110 for the gesture firing.
- the configuration for igniting the gesture includes an acceleration sensor 104, a sensor monitoring module 230, a gesture determination module 240, and a display module (processing unit) 220.
- the sensor value of the acceleration sensor 104 is processed by the sensor monitoring module 230. While the sensor monitoring module 230 performs only relatively simple processing, it can operate with low power consumption.
- the gesture determination module 240 is activated and processed as necessary. When movement is detected by the sensor monitoring module 230, gesture determination is performed by the gesture determination module 240, and when it is recognized as a gesture, the processing unit 220 notifies the display module and various applications.
- the processing of the sensor monitoring module 230 can be separated into a motion noise removal unit 214, a determination function acquisition unit 216, and a threshold determination unit 218.
- the three-dimensional input from the acceleration sensor 104 is subjected to noise removal by the motion noise removal unit 214 and converted to a one-dimensional value such as a norm calculation by the determination function acquisition unit 216.
- the threshold value determination unit 218 compares with the threshold value.
- the gesture determination module 240 is activated to perform detailed processing.
- An example of the motion noise removal unit 214 is a low-pass filter (low-pass filter LPF), which removes high-frequency components (motion noise) such as noise from the detection value of the acceleration sensor 104. 4 can be configured by a circuit (hardware) or a microcomputer 110 and a program (software) for causing the microcomputer 110 to function.
- the movement noise removal unit 214 is configured by, for example, a low-pass filter (LPF),
- FIG. 5 is a flowchart showing a process for realizing the process shown in FIGS. 3A to 3D.
- the process shown in FIG. 5 is mainly performed in the microcomputer 110.
- a first operation is performed by the user.
- the first operation corresponds to an operation of swinging up the arm.
- the detection value of the acceleration sensor 104 is acquired.
- a feature amount v used for the first gesture determination is calculated.
- FIG. 6 is a characteristic diagram showing the relationship between the detection value of the acceleration sensor 104 and the feature value v.
- each characteristic indicated by two types of broken lines indicates the sensor value of the acceleration sensor 104, and indicates an acceleration xy in the xy axis direction and an acceleration z in the z axis direction.
- the sensor value acquisition unit 212 acquires the characteristic indicated by the broken line in FIG. 6 in step S11 in FIG.
- Each characteristic (bold line and thin line) indicated by two solid lines in FIG. 6 indicates the sensor value of the acceleration sensor 104 after the noise is removed by the motion noise removing unit 214, and the thin line indicates the sensor value LP in the xy axis direction.
- the determination function acquisition unit 216 acquires the characteristics indicated by the solid line in FIG. 6, in which high-frequency components such as noise are removed by the motion noise removal unit 214 and converted into one-dimensional values in step S ⁇ b> 12 of FIG. 5.
- the characteristic indicated by the solid line in FIG. 6 corresponds to the feature amount v.
- each characteristic indicated by two types of one-dot chain lines indicates a threshold value for determining the characteristic indicated by the solid line, and a threshold value TH_xy for determining the characteristic in the xy axis direction , A threshold value TH_z for determining the characteristic in the z-axis direction.
- the threshold value determination unit 218 compares the characteristics LP (xy) and LP (z) indicated by solid lines in FIG. 6 with the threshold values TH_xy and TH_z, and the characteristics LP (xy) and LP Based on whether or not the value of (z) exceeds the threshold values TH_xy and TH_z, it is determined whether or not the firing condition for the gesture is satisfied.
- the processing unit 220 By setting the threshold values TH_xy and TH_z in advance to desired values and registering them, it is possible to determine whether or not the first operation (the operation of lifting the terminal device 100) satisfies the gesture firing condition. it can.
- the threshold determination unit 218 determines that the gesture firing condition is satisfied, the processing unit 220 performs a process of firing the gesture.
- the processing unit 220 performs a process of changing the state of the application or outputting information indicating that the firing condition is satisfied.
- step S18 it is determined whether or not the feature quantity v satisfies the second ignition condition. If the second ignition condition is satisfied, the process proceeds to step S20.
- the second ignition condition is a condition for detecting a gesture similar to the first ignition condition, and is a condition that is looser than the first ignition condition. That is, when the first ignition condition is satisfied, the second ignition condition is always satisfied, while the first ignition condition may not be satisfied even when the second ignition condition is satisfied. Are included in the first ignition condition.
- the second firing condition may be a condition for detecting a gesture different from the first firing condition.
- step S ⁇ b> 18 the threshold determination unit 218 performs determination using a threshold that has a looser determination condition than the thresholds TH_xy and TH_z.
- next step S20 when the user performs the second operation, the detection value of the acceleration sensor 104 is acquired in the next step S21.
- the second operation corresponds to a gesture of bringing the terminal device 100 illustrated in FIG. 3C closer to the user.
- step S21 the process proceeds to step S22, and the feature amount u used for the second gesture determination is calculated.
- the feature quantity u corresponds to the characteristics LP (xy) and LP (z) indicated by solid lines in FIG.
- step S24 it is determined whether or not the feature quantity u satisfies the third ignition condition. If the third ignition condition is satisfied, the process proceeds to step S26 to ignite the gesture.
- the gesture that satisfies the third firing condition is an additional small gesture that brings the terminal device 100 closer to the user as illustrated in FIG. 3C, for example.
- the process ends.
- the threshold determination unit 218 performs determination using a threshold different from the thresholds TH_xy and TH_z.
- the threshold value TH_xy for determining the characteristic in the xy axis direction and the threshold value TH_z for determining the characteristic in the z axis direction are set in advance to desired values and registered, as shown in FIG. 3C. A gesture that brings the terminal device 100 closer to the user can be detected.
- the gesture determination for the first operation is performed based on the feature amount v. If the feature amount v does not satisfy the first normal firing condition (step S14), the second determination is performed.
- the ignition condition is checked (step S18).
- the second ignition condition is an ignition condition that is looser than the first ignition condition, and if the second ignition condition is a case that ignites under the first ignition condition, all the second ignition conditions are ignited.
- the movement that is similar to the first ignition condition but does not satisfy the first ignition condition is also configured to ignite the second ignition condition.
- the second ignition condition is a looser condition including the first ignition condition.
- step S21 When the feature amount v satisfies the second ignition condition, the value of the acceleration sensor 104 after that is detected (step S21), and when the user tries an additional gesture, a third value different from the first ignition condition is detected. Evaluation is performed under firing conditions (step S24), and if this is satisfied, the gesture is fired (step S26).
- an additional A simple gesture is evaluated at the third firing condition. If the additional gesture satisfies the third firing condition, the gesture is fired. As a result, when the user tries to ignite the gesture, if the gesture is not ignited because the swing amount of the arm is small, the gesture can be surely ignited by performing an additional gesture. If the action performed by the user for gesture firing (arm swinging) satisfies the second firing condition, the action performed by the user for gesture firing (arm swinging) or at the same time If an additional gesture is performed within a predetermined time from the action performed for firing, the gesture is fired.
- FIG. 7 shows a case where the action (arm swinging) performed by the user for gesture ignition does not satisfy the first ignition condition but satisfies the second ignition condition that is looser than the first ignition condition.
- 4 is a flowchart illustrating an example of displaying the fact on the apparatus 100.
- FIG. 7 shows the case where the action (arm swinging) performed by the user for gesture ignition does not satisfy the first ignition condition but satisfies the second ignition condition that is looser than the first ignition condition.
- An example is shown in which the gyro sensor 106 is activated to relax the ignition condition.
- step S30 a first operation is performed by the user.
- the first operation corresponds to an operation of swinging up the arm.
- step S31 the detection value of the acceleration sensor 104 is acquired.
- step S32 a feature value v used for the first gesture determination is calculated.
- step S34 it is determined whether or not the feature quantity v satisfies the gesture firing condition. If the gesture firing condition is satisfied, the process proceeds to step S36, where the gesture is fired.
- step S38 it is determined whether or not the feature quantity v satisfies the second ignition condition. If the second ignition condition is satisfied, the process proceeds to step S40. On the other hand, if the second ignition condition is not satisfied in step S38, the process ends.
- step S40 the user is notified that the gesture has been recognized, but the gesture firing threshold is not sufficient.
- This notification to the user can be performed by a method such as displaying on the display unit 102 or starting the vibrator 107. That is, the display unit 102 and the vibrator 107 function as an output unit for prompting the second operation in the next step S43. Further, the notification to the user may indicate to the user that the threshold value for the gesture firing becomes small by turning on the backlight of the terminal device 100 for a moment or vibrating the vibrator 107 for a short time.
- a display prompting the user to perform a re-operation may be performed on the screen.
- output information for notifying the user that the gesture firing threshold is insufficient is output.
- the output information is display information for displaying on the display unit 102, audio information, or information for controlling the vibrator.
- the output information may be information detected by any of the five senses including information such as taste and smell.
- next step S42 the sensor mode of the terminal device 100 is changed and the gyro sensor 106 is activated.
- the user who has received the notification in step S40 performs the second operation.
- the second operation corresponds to a gesture for bringing the terminal device 100 illustrated in FIG. 3C closer to the user.
- step S44 detection values of the acceleration sensor 104 and the gyro sensor 106 are acquired.
- step S44 the process proceeds to step S46, and the feature amount u used for the second gesture determination is calculated.
- step S47 it is determined whether or not the feature quantity u satisfies the third ignition condition. If the third ignition condition is satisfied, the process proceeds to step S48 to ignite the gesture. Whether or not the third ignition condition is satisfied is determined using the detection value of the gyro sensor 106 in addition to the detection value of the acceleration sensor 104. On the other hand, if the third ignition condition is not satisfied in step S47, the process ends.
- the notification in step S40 is performed, the user is more likely to perform the second operation, so the determination condition as to whether or not the third ignition condition is satisfied is based on the normal condition (step S24 in FIG. 5).
- the firing condition of the gesture can be changed dynamically.
- Such a change of the determination condition (threshold value) is performed by a threshold value changing unit that changes the threshold value based on the threshold value changing condition.
- the threshold value changing unit can be included in the threshold value determining unit 218 and the processing unit 220 as an example.
- the display unit 102 is displayed.
- the user is notified that the ignition condition is alleviated. Therefore, it is possible to notify the user that the first operation is not close enough to satisfy the first ignition condition and that the ignition condition is relaxed.
- the user who has received the notification can recognize that the gesture is ignited by performing an additional operation, and performs the second operation in step S43. Thereby, the gesture can be ignited when the feature amount u by the second operation satisfies the third ignition condition.
- the gesture detection is normally performed only by the acceleration sensor 104, but when the user's first operation is similar to the swing-up operation, the gyro sensor which is not normally used is used. 106 is also activated and can be used to detect the next second operation. Thereby, the accuracy of detection of the second operation can be increased, and as a result, the requirements for gesture detection can be relaxed.
- the ignition condition when the second operation is detected using the gyro sensor 106 is relaxed.
- the thresholds TH_xy and TH_z of the determination conditions when detecting the second operation are themselves. May be relaxed.
- the gyro sensor 106 when the user's first operation is similar to the swing-up operation, the gyro sensor 106 is also activated and used for detection of the next second operation. Temporarily increase the frequency or increase the clock of the microcomputer 110 and the main CPU 130 to temporarily change the mode of the terminal device 100 or sensor so as to increase the recognition accuracy when detecting the second operation.
- the acceleration sensor 104 can obtain a detection value with higher accuracy by increasing the sampling frequency, but power consumption also increases. For this reason, for newly activated sensors and once changed modes, if a certain time-out period has elapsed or if a second gesture is detected, the newly activated sensor is stopped or the mode is Return to
- FIG. 8 is a schematic diagram illustrating an example applied to a gesture of tapping the terminal device 100, and illustrates an example of a function for stopping an alarm with a finger tap.
- the user performs a finger tap operation for tapping the index finger and the middle finger to stop the alarm, but the tap strength is insufficient and the operation for stopping the alarm is not actually performed.
- the terminal device 100 when the terminal device 100 generates an alarm for notifying the time and the user performs a finger tap operation to stop the alarm, but the tap is weak and does not react to the first firing condition, the system performs this tap operation. If the tap satisfies the second firing condition, the animation indicating that the tap was tried on the screen of the display unit 102 and prompting the user to tap again (Tap Again) ) Is displayed. Further, while the animation is displayed, the threshold for detecting the tap is lowered. Thus, the user can easily perform the next tap, and when the tap satisfies the third ignition condition, the next tap can be easily detected.
- the display of the animation disappears when the timeout elapses, and the third judgment condition that has been temporarily applied Instead, the first determination condition is applied again.
- the button color of the terminal device 100 is changed or deformed, or the gesture determination function itself is displayed as a gauge, and it is necessary to add a little more to the user. You can also show this visually.
- the menu appears to be deformed in the direction in which the arm is moved. You may be encouraged to make another gesture.
- the timeout expires, the menu changes back.
- FIG. 10 is a schematic diagram showing an example in which the present embodiment is applied to a head mounted display (HMD) 200.
- HMD head mounted display
- gestures such as a user's whirling and swinging can be acquired by a built-in sensor such as an acceleration sensor, a camera, and IR.
- a wireless receiver Such a gesture can be processed in the same manner as the wristwatch type device described above.
- FIG. 11 shows an example in which gesture recognition is performed using a camera 310 provided in the TV 300 or an acceleration sensor of a remote controller held by the user when operating the television receiver (TV) 300 (or a projector or the like). It is a schematic diagram shown.
- the camera 310 or the acceleration sensor can recognize the gesture and operate the TV 300.
- the camera 310 recognizes a gesture, in the configuration of FIG. 4, the gesture detected by the camera 310 is sent to the sensor monitoring module 230 to perform gesture determination. Feedback to the user can be performed by the screen, sound, and lighting of the TV 300.
- the volume can be increased or decreased by a gesture for raising or lowering the palm
- the menu can be selected by moving the palm to the left or right
- the power can be turned on or off by pointing at the screen.
- the present embodiment can also be applied to a gesture operation in a game.
- an operation of changing the viewpoint by shaking the remote controller to the left and right can be realized by changing the gesture firing condition according to the scene in the game.
- Second Embodiment> [2.1. Change of gesture recognition function based on user operation history]
- the basic configuration of the terminal device 100 according to the second embodiment is the same as that of the first embodiment.
- the gesture firing condition is changed according to various situations of the terminal device 100.
- the change of the gesture recognition function based on the user operation history will be described.
- FIG. 9 is a flowchart showing a process of changing the reaction function of the gesture.
- step S50 a first operation is performed by the user.
- the first operation corresponds to an operation of swinging up the arm.
- step S51 the detection value of the acceleration sensor 104 is acquired.
- step S52 a feature amount v used for the first gesture determination is calculated.
- step S54 it is determined whether or not the feature quantity v satisfies the gesture firing condition. If the gesture firing condition is satisfied, the process proceeds to step S56, where the gesture is fired. Even if the gesture is ignited in step S56, the condition of step S54 may be satisfied with a large margin or may be satisfied with a slight difference.
- step S56 the process proceeds to step S57, and the determination function used in step S54 is updated based on the information that the condition of step S54 is satisfied with a large margin or whether the condition is satisfied with a slight difference. . This change is made every time or whenever a certain number of logs are accumulated.
- step S58 it is determined whether or not the feature amount v satisfies the second ignition condition. If the second ignition condition is satisfied, the process proceeds to step S60.
- the second ignition condition is a condition that is looser than the first ignition condition. On the other hand, if the second ignition condition is not satisfied in step S58, the process ends.
- step S60 since the gesture does not ignite, the user taps the screen, or manually operates the power button to turn on the terminal device 100, thereby performing an operation equivalent to that achieved by the gesture. .
- this operation it is considered that the initial gesture operation performed in step S50 was intended by the user and should have been ignited.
- step S62 the determination function used in step S54 is updated to loosen the determination function.
- step S64 the user is notified by screen display that the determination function has been updated.
- the determination threshold value for gesture firing can be changed. Therefore, even when there is a difference between individuals in the strength of the user's action, it is possible to optimally adjust the threshold value for gesture firing.
- the judgment condition of the arm swing gesture is relaxed for a certain period of time, and even a motion that does not respond normally is raised. Leave to react.
- the screen can be easily turned on, and a desired operation such as browsing the message can be realized.
- FIG. 12A to 12D are schematic diagrams showing an operation when a message arrives at the terminal device 100.
- FIG. FIG. 12A shows a normal display. In this state, the time is displayed on the display unit 102.
- a message arrives at the terminal device 100 as shown in FIG. 12B, a part of the message is displayed on the screen of the display unit 102 along with the vibration by the vibrator 107, and the user is notified that the message has arrived.
- the state shifts to the state shown in FIG. 12C, and the user can check the details of the message.
- FIG. 12B when the user leaves the arm up and does not tap the screen for a certain period of time, the screen shifts to the state of FIG. 12D and returns to the clock display, and a simple notification icon is displayed.
- FIG. 13 is a flowchart showing processing in the second embodiment.
- step S ⁇ b> 70 a message arrives at the user of the terminal device 100.
- the system of the terminal device 100 notifies the user by screen display, LED lighting, vibration, etc. in order to notify the user that the message has arrived.
- the user performs a swing-up gesture to confirm the terminal device 100.
- the sensor value of the acceleration sensor 104 is acquired, and in the next step S77, a feature value v used for gesture determination is calculated.
- step S78 it is confirmed whether or not a predetermined time has elapsed since the previous unconfirmed notification has been received. If there is an unconfirmed notification within the predetermined time, the process proceeds to step S80, where the determination condition is looser than usual.
- a gesture function is used to determine gesture up. As a result, when it is determined as a gesture, the screen is turned on (step S84).
- step S78 if the predetermined time has elapsed in step S78, the process proceeds to step S82, and the swing-up determination is performed based on the normal first determination condition. As a result, when it is determined as a gesture, the screen is turned on (step S86).
- the second determination function which has a looser determination condition than usual, is applied, so the possibility that the user will fail to swing is reduced, and convenience and availability are improved. improves.
- the conditions used for selecting the determination function include the following elements in addition to the incoming message.
- step S72 may be a display (UI) indicating that the user can easily recognize the gesture.
- the second determination function is applied from the determination in step S78 to step S80, which corresponds to the period of FIG. 12B, and the user knows that the gesture is activated by a simple swing during this period. I can do it.
- a motion noise removal unit 214 can be used.
- the low-pass filter can absorb stationary noise, so that it is possible to prevent misfiring of gestures during exercise, but a delay occurs due to the application of the filter, making it relatively difficult to react immediately after operation. For example, when the user is exercising such as walking or running, the cut-off frequency of the filter of the movement noise removing unit 214 is lowered, and the cut-off frequency is increased when there is little movement such as sitting.
- the low pass filter itself is not used. By doing so, it is possible to ignite a gesture with a small latency when stopping, while preventing erroneous firing of the gesture during exercise.
- an acquisition unit that acquires operation information based on a user's gesture operation;
- a processing unit that performs processing based on the operation information, The processing unit performs a predetermined process when acquiring the first operation information based on the first user operation, The second operation information based on the second user operation related to the first user operation is acquired, and the third operation based on the third user operation performed within a predetermined time after the second user operation is acquired.
- An information processing apparatus that performs the predetermined processing when operation information is acquired.
- the second condition for determining that the second user operation has been performed is included in the first condition for determining that the first user operation has been performed, The information processing apparatus according to (2).
- the information processing apparatus according to (6), wherein the output information is display information for display on a display unit.
- the information processing apparatus is information for controlling a vibrator that generates vibration for prompting the user to perform the third user operation.
- the determination unit for determining that the user's gesture operation has been performed changes a threshold value for determining that the user's gesture operation has been performed based on the threshold value changing condition.
- the information processing apparatus according to any one of (1) to (9), further including a threshold value changing unit.
- the threshold value changing condition is a condition related to a device status.
- the threshold value changing unit reduces the third threshold value for determining that the third user operation has been performed based on whether or not the output information is output, according to (11).
- Information processing device (13) The information processing apparatus according to (11), wherein the threshold value changing condition is a condition related to user information. (14) The information processing apparatus according to (11), wherein the threshold value changing condition is a condition related to content information. (15) The information processing apparatus according to (11), wherein the threshold change condition is a condition related to environmental information.
- the information processing apparatus Provided with a display unit, The information processing apparatus according to any one of (1) to (15), wherein the predetermined process is a process of displaying display information on the display unit.
- the predetermined process is a process of turning on a backlight.
- the information processing apparatus according to any one of (1) to (17), wherein the information processing apparatus is a wristwatch type device.
- (20) means for acquiring operation information based on a user's gesture operation;
- the second operation information based on the second user operation related to the first user operation is acquired, and the third operation based on the third user operation performed within a predetermined time after the second user operation is acquired.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
ユーザーの利便性を損なうことなく、ジェスチャを高精度に認識する。本開示に係る情報処理装置は、ユーザーのジェスチャ操作に基づく操作情報を取得する取得部と、前記操作情報に基づいて処理を行う処理部とを備え、前記処理部は、第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合は、前記所定の処理を行う。
Description
本開示は、情報処理装置、情報処理方法及びプログラムに関する。
従来、例えば下記の特許文献1には、ジェスチャの予測情報を用いて、適切なジェス
チャフィードバックを行うことを想定した技術が記載されている。
チャフィードバックを行うことを想定した技術が記載されている。
腕時計型端末やその他のウェアラブル端末での動き認識ジェスチャは、ユーザーが端末のボタンやタッチパネルを直接操作しなくても操作でき、ユーザーに利便性を提供できる。しかし、ユーザーの動きが想定よりも小さかった場合は、操作できない場合が発生する。一方、ジェスチャ認識の条件を緩くすると、ジェスチャを認識させたくない状況でもジェスチャを認識してしまうケースが増加し、ユーザーにとっての利便性、満足度が低下してしまう問題がある。
また、ユーザーの動きが想定しているジェスチャに類似していたが、ジェスチャと認識されなかった場合、ユーザーはジェスチャ認識を望んだ確率が高いと考えられるが、ジェスチャ認識をさせるためには現状では同じジェスチャを再び試すしか方法がない。
また、ユーザーの動きを認識するセンサーとしては、加速度センサー、ジャイロセンサー、気圧センサー等があるが、全てのセンサーを同時に動かすと精度は上がる一方、消費電力が上昇してしまう問題がある。
そこで、ユーザーの利便性を損なうことなく、ジェスチャを高精度に認識することが求められていた。
本開示によれば、ユーザーのジェスチャ操作に基づく操作情報を取得する取得部と、前記操作情報に基づいて処理を行う処理部とを備え、前記処理部は、第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合は、前記所定の処理を行う、情報処理装置が提供される。
また、本開示によれば、ユーザーのジェスチャ操作に基づく操作情報を取得することと、前記操作情報に基づいて処理を行うこととを備え、第1のユーザ操作に基づく第1の操作情報を取得した場合に所定の処理を行い、第1のユーザ操作と関連する第2のユーザ操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザ操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う、情報処理方法が提供される。
また、本開示によれば、ユーザーのジェスチャ操作に基づく操作情報を取得する手段、前記操作情報に基づいて処理を行う手段、としてコンピュータを機能させるためのプログラムであって、第1のユーザ操作に基づく第1の操作情報を取得した場合に所定の処理を行う手段、第1のユーザ操作と関連する第2のユーザ操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザ操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う手段、としてコンピュータを機能させるためのプログラムが提供される。
本開示によれば、ユーザーの利便性を損なうことなく、ジェスチャを高精度に認識することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.端末装置の外観例
1.2.端末装置の機能構成
1.3.ジェスチャ発火の代表的な例
1.4.ジェスチャ発火の処理
1.5.ジェスチャ発火の処理の他の例
1.6.他のデバイスへの適用例
2.第2の実施形態
2.1.ユーザーの操作履歴によるジェスチャ認識関数の変更について
2.2.通知によるジェスチャ認識関数の変更について
2.3.ユーザーの行動によるLPフィルターの変更について
1.第1の実施形態
1.1.端末装置の外観例
1.2.端末装置の機能構成
1.3.ジェスチャ発火の代表的な例
1.4.ジェスチャ発火の処理
1.5.ジェスチャ発火の処理の他の例
1.6.他のデバイスへの適用例
2.第2の実施形態
2.1.ユーザーの操作履歴によるジェスチャ認識関数の変更について
2.2.通知によるジェスチャ認識関数の変更について
2.3.ユーザーの行動によるLPフィルターの変更について
<1.第1の実施形態>
[1.1.端末装置の外観例]
図1は、本開示の一実施形態に係る端末装置100の外観を示す模式図である。この端末装置100は、表示部102(ディスプレイ)と加速度センサー等のセンサーを備えた腕時計型デバイスとして構成されており、スマートフォンやタブレット端末等と同様に、ウェブサイトの閲覧機能、メール機能、音楽や動画等の視聴機能、GPS等による位置検出機能、ナビゲーション機能等を備えている。
[1.1.端末装置の外観例]
図1は、本開示の一実施形態に係る端末装置100の外観を示す模式図である。この端末装置100は、表示部102(ディスプレイ)と加速度センサー等のセンサーを備えた腕時計型デバイスとして構成されており、スマートフォンやタブレット端末等と同様に、ウェブサイトの閲覧機能、メール機能、音楽や動画等の視聴機能、GPS等による位置検出機能、ナビゲーション機能等を備えている。
端末装置100は、加速度センサー等のセンサーの値を常時センシングしていて、センサーの値をジェスチャ判定関数(ジェスチャ判定条件)に適用し、この結果によりジェスチャの発火、非発火を決定する。ジェスチャとして最も一般的な例として、腕を振り上げたときに画面が点灯するものがあげられる。他にも、腕をひねる、人差し指と中指をタップする等のジェスチャが挙げられる。
[1.2.端末装置の機能構成]
図2は、端末装置100の機能構成を示すブロック図である。図2に示すように、端末装置100は、表示部(出力部)102に加え、加速度センサー104、ジャイロセンサー106、バイブレータ(出力部)107、マイクロコンピュータ110、RAM120、ストレージ(記憶部)122、無線接続部(無線通信部)124、メインCPU130、を有して構成されている。端末装置100は、無線接続部124により親機のスマートフォンに接続したり、直接インターネットに接続することができる。
図2は、端末装置100の機能構成を示すブロック図である。図2に示すように、端末装置100は、表示部(出力部)102に加え、加速度センサー104、ジャイロセンサー106、バイブレータ(出力部)107、マイクロコンピュータ110、RAM120、ストレージ(記憶部)122、無線接続部(無線通信部)124、メインCPU130、を有して構成されている。端末装置100は、無線接続部124により親機のスマートフォンに接続したり、直接インターネットに接続することができる。
加速度センサー104、ジャイロセンサー106は、一旦センサー処理用のマイクロコンピュータ110に接続され、その後メインの処理を行うメインCPU130(アプリケーションプロセッサ)に接続されている。センサー処理用のマイクロコンピュータ110で簡単なジェスチャの判別を行ってもよい。
端末装置100の起動中は、メインCPU130がアプリケーションプロセッサとして機能し、上述したウェブサイトの閲覧機能、メール機能、音楽や動画等の視聴機能、GPS等による位置検出機能、ナビゲーション機能等を実行する。一方、端末装置100は、一定時間ユーザーの操作が無い場合、電源をタイムアップ等によりオフにして、マイクロコンピュータ110により加速度センサー104、ジャイロセンサー106の検出値を常時センシングする。そして、これらのセンサーの検出値をジェスチャ判定関数に適用し、その結果によりジェスチャの発火、非発火を決定する。マイクロコンピュータ110はメインCPU130に比べて大幅に消費電力が小さいため、電源オフ時にメインCPU130を停止させ、マイクロコンピュータ110のみ起動しておくことで、消費電力を大幅に削減することができる。
[1.3.ジェスチャ発火の代表的な例]
端末装置100の電源オフ時に、センサーの検出値に基づいてジェスチャが発火すると、端末装置100の電源がオンとなり、表示部102の表示画面が点灯する。図3A~図3Dは、ジェスチャの最も一般的な例として、腕を振り上げたときに表示部102の表示画面が点灯する例を示す模式図である。
端末装置100の電源オフ時に、センサーの検出値に基づいてジェスチャが発火すると、端末装置100の電源がオンとなり、表示部102の表示画面が点灯する。図3A~図3Dは、ジェスチャの最も一般的な例として、腕を振り上げたときに表示部102の表示画面が点灯する例を示す模式図である。
ここで、基本的な動作として、腕を振り上げたときの加速度センサー104の検出値が、画面を点灯させるためのジェスチャの判定値に比べて大きい場合、表示画面を点灯させる。一方、ユーザーが表示画面を点灯させようとしているにも関わらず、センサーの検出値が判定値に達していない場合、もう一度同じ動作をユーザーに行わせると、ユーザーにとって煩雑な動作が必要となり利便性が低下する。このため、本実施形態では、腕を振り上げたときのセンサーの検出値が、画面を点灯させるジェスチャの判定値に比べて少し小さかった時、ユーザーが手首を少し動かして止めると、画面を点灯させる。この様子を図3A~図3Dに示す。
先ず、図3Aに示すように、ユーザーが端末装置100を振り上げてジェスチャの発火を試したが、振り上げ量が足りず、図3Bに示すように表示部102の画面(バックライト)が点灯せず、あるいは画面に表示情報が表示されず、ジェスチャが発火しなかったものとする。この場合、図3Cに示すように、ユーザーがさらに端末装置100をユーザーの側に近づける追加の小さなジェスチャを行うことにより、図3Dに示すように表示部102の表示画面が点灯し、ユーザーはジェスチャによる表示画面の点灯(表示情報の表示)という所望の動作を実現できる。
図3A~図3Dにおいて、第1、第2、第3の判定条件(ジェスチャ発火条件)について説明する。第1の判定条件は腕の振り上げ、第2の判定条件は第1の判定条件よりも緩い条件の腕の振り上げ、第3の判定条件は腕を振り上げた状態で腕の角度を変えたり、腕を軽く振るシェイクを行ったりしたことで発動(発火)する。また指タップ操作においては、第1の判定条件は人差し指と中指をタップさせる操作、第2の判定条件は第1の判定条件よりも緩い条件のタップ操作の検出、第3の判定条件は第2の判定条件よりは厳しいものの、第1の判定条件よりは緩い条件でタップ検出を行うものとする。なお、タップ操作については後述する。
図3A~図3Dに示す処理によれば、ユーザーがジェスチャにより表示画面を点灯しようとした場合に、腕の振り上げ量が少ないためにジェスチャが発火しなかった場合は、追加的な動作を行うことでジェスチャを発火させることができる。これにより、ユーザーは、ジェスチャが発火しなかった場合に、腕の振り上げを再度行うことなく、小さな動作でジェスチャを発火させることができる。
一方、画面を点灯させるためのジェスチャの判定値を小さくすると、腕の振り上げ量が少ない場合であってもジェスチャを発火させることができる。しかし、この場合、例えばユーザーが電車内でつり革を握った場合など、ユーザーがジェスチャの発火を意図していない場合であってもジェスチャが発火してしまうことが想定される。
従って、本実施形態の手法によれば、意図しないジェスチャの発火を確実に抑えるとともに、ジェスチャが発火しなかった場合は追加的な動作で確実にジェスチャを発火させることができる。
[1.4.ジェスチャ発火の処理]
図4は、ジャスチャ発火のためマイクロコンピュータ110によって実現される機能構成を示すブロック図である。図4に示すように、ジャスチャ発火のための構成として、加速度センサー104、センサー監視モジュール230、ジェスチャ判定モジュール240、表示モジュール(処理部)220を有する。
図4は、ジャスチャ発火のためマイクロコンピュータ110によって実現される機能構成を示すブロック図である。図4に示すように、ジャスチャ発火のための構成として、加速度センサー104、センサー監視モジュール230、ジェスチャ判定モジュール240、表示モジュール(処理部)220を有する。
図4に示す例では、加速度センサー104のセンサー値を、センサー監視モジュール230で処理する。センサー監視モジュール230は比較的簡単な処理のみを行う一方、低消費電力で動作することができる。また、必要に応じてジェスチャ判定モジュール240を起動して処理させる。センサー監視モジュール230で動きが検知された場合は、ジェスチャ判定モジュール240でジェスチャ判定が行われ、ジェスチャと認識された場合は処理部220によって表示モジュールや各種アプリケーションに通知が行われる。
センサー監視モジュール230の処理は、運動ノイズ除去部214、判定関数取得部216、しきい値判定部218に分離できる。先ず、加速度センサー104からの三次元の入力は、運動ノイズ除去部214でノイズ除去が行われ、判定関数取得部216でノルム計算など一次元の値に変換される。さらにしきい値判定部218でしきい値との比較を行い、しきい値の条件を満たす場合はジェスチャ判定モジュール240を起動して詳細な処理を行う。運動ノイズ除去部214としては、低域通過フィルター(ローパスフィルタLPF)が一例として挙げられ、加速度センサー104の検出値からノイズなどの高周波成分(運動ノイズ)を除去する。図4に示す構成要素は、回路(ハードウェア)、またはマイクロコンピュータ110と、これを機能させるためのプログラム(ソフトウェア)によって構成されることができる。運動ノイズ除去部214は、例えばローパスフィルタ(LPF)によって構成され、
図5は、図3A~図3Dに示す処理を実現するための処理を示すフローチャートである。図5に示す処理は、主としてマイクロコンピュータ110において行われる。先ず、ステップS10では、ユーザーにより第1の操作が行われる。ここで、第1の操作は、腕を振り上げる動作に相当する。次に、ステップS11では、加速度センサー104の検出値を取得する。次のステップS12では、第1ジェスチャ判定に用いる特徴量vを算出する。次のステップS14では、特徴量vがジェスチャの発火条件を満たすか否かを判定し、ジェスチャの発火条件を満たす場合はステップS16へ進み、ジェスチャを発火させる。
図6は、加速度センサー104の検出値と、特徴量vとの関係を示す特性図である。図6において、2種類の破線で示すそれぞれの特性は、加速度センサー104のセンサー値を示しており、xy軸方向の加速度xyとz軸方向の加速度zをそれぞれ示している。センサー値取得部212は、図5のステップS11において、図6の破線で示す特性を取得する。図6の2つの実線で示すそれぞれの特性(太線、細線)は、運動ノイズ除去部214でノイズを除去した後の加速度センサー104のセンサー値を示しており、細線はxy軸方向のセンサー値LP(xy)、太線はz軸方向のセンサー値LP(z)をそれぞれ示している。判定関数取得部216は、図5のステップS12において、運動ノイズ除去部214によってノイズなどの高周波成分が除去され、一次元の値に変換された、図6に実線で示す特性を取得する。図6に実線で示す特性は、特徴量vに相当する。
また、図6において、2種類の一点鎖線で示すそれぞれの特性は、実線で示す特性を判定するためのしきい値を示しており、xy軸方向の特性を判定するためのしきい値TH_xyと、z軸方向の特性を判定するためのしきい値TH_zを示している。しきい値判定部218は、図5のステップS14において、図6に実線で示す特性LP(xy),LP(z)と各しきい値TH_xy,TH_zを比較し、特性LP(xy),LP(z)の値が各しきい値TH_xy,TH_zを超えているか否かに基づいて、ジェスチャの発火条件を満たすか否かを判定する。しきい値TH_xy,TH_zを予め所望の値に設定し、登録しておくことで、第1の操作(端末装置100を振り上げる操作)がジェスチャの発火条件を満たすか否かを判定することができる。処理部220は、しきい値判定部218によってジェスチャの発火条件が満たされたことが判定されると、ジェスチャを発火する処理を行う。また、処理部220は、ジェスチャの発火条件が満たされると、アプリケーションの状態を変化させたり、発火条件が満たされた旨の情報を出力する処理を行う。
図5のステップS14で特徴量vがジェスチャの発火条件を満たさない場合はステップS18へ進む。ステップS18では、特徴量vが第2の発火条件を満たすか否かを判定し、第2の発火条件を満たす場合はステップS20へ進む。第2の発火条件は、第1の発火条件と類似するジェスチャを検出する条件であり、第1の発火条件よりも緩い条件である。つまり、第1の発火条件を満たす場合は常に第2の発火条件を満たす一方、第2の発火条件を満たす場合であっても第1の発火条件を満たさない場合があり、第2の発火条件は第1の発火条件に含まれる関係にある。一方、第2の発火条件は、第1の発火条件と異なるジェスチャを検出する条件であっても良い。一方、ステップS18で第2の発火条件を満たさない場合は、処理を終了する。ステップS18では、しきい値判定部218は、しきい値TH_xy,TH_zよりも判定条件の緩いしきい値を用いて判定を行う。
次のステップS20において、ユーザーが第2の操作を行うと、次のステップS21では加速度センサー104の検出値を取得する。ここで、第2の操作は、図3Cに示した端末装置100をユーザーの側に近づけるジェスチャに相当する。ステップS21の後はステップS22へ進み、第2ジェスチャ判定に用いる特徴量uを計算する。特徴量uは、特徴量vと同様に、図6に実線で示す特性LP(xy),LP(z)に相当する。
次のステップS24では、特徴量uが第3の発火条件を満たすか否かを判定し、第3の発火条件を満たす場合はステップS26へ進み、ジェスチャを発火させる。第3の発火条件を満たすジェスチャは、例えば図3Cに示したような、端末装置100をユーザーの側に近づける追加の小さなジェスチャである。一方、ステップS24で第3の発火条件を満たさない場合は、処理を終了する。
ステップS24では、しきい値判定部218は、しきい値TH_xy,TH_zとは異なるしきい値を用いて判定を行う。xy軸方向の特性を判定するためのしきい値TH_xyと、z軸方向の特性を判定するためのしきい値TH_zを予め所望の値に設定し、登録しておくことで、図3Cに示した端末装置100をユーザーの側に近づけるジェスチャを検出することができる。
図5の処理では、第1の操作についてのジェスチャ判定を特徴量vに基づいて用いて行うが、特徴量vが1回目の通常の発火条件(ステップS14)を満たさなかった場合、第2の発火条件をチェックする(ステップS18)。第2の発火条件は第1の発火条件よりも緩い発火条件であり、第1の発火条件で発火するケースであれば第2の発火条件は全て発火する。これに加えて、第1の発火条件に似ている動きであるが第1の発火条件を満たさない動きも第2の発火条件を発火するように構成されている。換言すれば、第2の発火条件は、第1の発火条件を包含するより緩い条件である。特徴量vが第2の発火条件を満たす場合、それ以降の加速度センサー104の値を検知し(ステップS21)、ユーザーが追加のジェスチャを試した場合、第1の発火条件とは異なる第3の発火条件で評価し(ステップS24)、これを満たす場合はジェスチャを発火させる(ステップS26)。
従って、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)が、第1の発火条件は満たさないが、第1の発火条件よりも緩い第2の発火条件を満たす場合は、追加的な簡単なジェスチャが第3の発火条件で評価される。そして、追加的なジェスチャが第3の発火条件を満たす場合は、ジェスチャが発火する。これにより、ユーザーがジェスチャを発火させようとした場合に、腕の振り量が少なくてジェスチャが発火しなかった場合は、追加的なジャスチャを行うことでジャスチャを確実に発火させることができる。なお、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)が第2の発火条件を満たした場合、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)と同時、又はユーザーがジェスチャ発火のために行った動作から所定の時間内に追加的なジェスチャが行われた場合は、ジェスチャが発火する。この場合に、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)を実行してからその動作情報が実際に取得されるまでのタイムラグ、又は追加的なジェスチャを実行してからその動作情報が実際に取得されるまでのタイムラグがあることも想定される。このため、腕の振り上げと追加的なジェスチャの双方の操作情報が同時に取得される場合、異なるタイミングで取得される場合の双方が想定できる。
[1.5.ジェスチャ発火の処理の他の例]
図7は、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)が、第1の発火条件は満たさないが、第1の発火条件よりも緩い第2の発火条件を満たす場合は、端末装置100にその旨を表示する例を示すフローチャートである。また、図7は、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)が、第1の発火条件は満たさないが、第1の発火条件よりも緩い第2の発火条件を満たす場合は、ジャイロセンサー106を起動して発火条件を緩める例を示している。
図7は、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)が、第1の発火条件は満たさないが、第1の発火条件よりも緩い第2の発火条件を満たす場合は、端末装置100にその旨を表示する例を示すフローチャートである。また、図7は、ユーザーがジェスチャ発火のために行った動作(腕の振り上げ)が、第1の発火条件は満たさないが、第1の発火条件よりも緩い第2の発火条件を満たす場合は、ジャイロセンサー106を起動して発火条件を緩める例を示している。
先ず、ステップS30では、ユーザーにより第1の操作が行われる。ここで、第1の操作は、腕を振り上げる動作に相当する。次に、ステップS31では、加速度センサー104の検出値を取得する。次のステップS32では、第1ジェスチャ判定に用いる特徴量vを算出する。次のステップS34では、特徴量vがジェスチャの発火条件を満たすか否かを判定し、ジェスチャの発火条件を満たす場合はステップS36へ進み、ジェスチャを発火させる。
一方、ステップS34で特徴量vがジェスチャの発火条件を満たさない場合はステップS38へ進む。ステップS38では、特徴量vが第2の発火条件を満たすか否かを判定し、第2の発火条件を満たす場合はステップS40へ進む。一方、ステップS38で第2の発火条件を満たさない場合は、処理を終了する。
ステップS40では、ユーザーに対し、ジェスチャは認識されたが、ジェスチャ発火のしきい値に足りないことをユーザーに通知する。このユーザーへの通知は、表示部102へ表示する、バイブレータ107を起動する、等の方法により行うことができる。つまり、表示部102、バイブレータ107は、次のステップS43における第2の操作を促すための出力部として機能する。また、ユーザーへの通知は、端末装置100のバックライトを一瞬点灯したり、バイブレータ107を短く振動したりして、ユーザーにジェスチャ発火のしきい値が小さくなることを示してもよい。あるいは、振り上げジェスチャではなく、画面表示中の指タップジェスチャやテレビでのジェスチャ操作の場合は、画面上にユーザーに再操作を促す表示を行ってもよい。このようにして、ジェスチャ発火のしきい値に足りないことをユーザーに通知する出力情報が出力される。一例として、出力情報は、表示部102に表示するための表示情報、音声情報、またはバイブレータを制御するための情報である。また、出力情報は、味覚、嗅覚などの情報を含む、五感のいずれかで検出される情報であっても良い。
次のステップS42では、端末装置100のセンサーのモードを変更し、ジャイロセンサー106を起動する。次のステップS43では、ステップS40の通知を受けたユーザーが第2の操作を行う。第2の操作は、図3Cに示した端末装置100をユーザーの側に近づけるジェスチャに相当する。
次のステップS44では、加速度センサー104、ジャイロセンサー106の検出値を取得する。
ステップS44の後はステップS46へ進み、第2ジェスチャ判定に用いる特徴量uを計算する。次のステップS47では、特徴量uが第3の発火条件を満たすか否かを判定し、第3の発火条件を満たす場合はステップS48へ進み、ジェスチャを発火させる。第3の発火条件を満たすか否かの判定は、加速度センサー104の検出値に加え、ジャイロセンサー106の検出値を用いて行われる。一方、ステップS47で第3の発火条件を満たさない場合は、処理を終了する。ステップS40の報知を行った場合は、ユーザーが第2の操作を行う可能性が高くなるため、第3の発火条件を満たすか否かの判定条件を通常の条件(図5のステップS24)よりも緩くしても良い。このように、ジェスチャの発火条件は動的に変更することができる。このような判定条件(しきい値)の変更は、しきい値変更条件に基づいてしきい値を変更するしきい値変更部によって行われる。しきい値変更部は、一例としてしきい値判定部218、処理部220に含まれることができる。
図7の処理によれば、ユーザーの動作(腕の振り上げ)が、第1の発火条件は満たさないが、第1の発火条件よりも緩い第2の発火条件を満たす場合は、表示部102へ表示を行う、バイブレータ107を駆動する、などの方法で通知を行うことで、ユーザーに発火条件が緩和されることを通知する。従って、ユーザーに対して第1の操作が僅差で第1の発火条件を満たさなかったこと、発火条件が緩和されることを通知することができる。通知を受けたユーザーは、追加的な動作を行うことでジャスチャが発火することを認識することができ、ステップS43で第2の操作を行う。これにより、第2の操作による特徴量uが第3の発火条件を満たすことで、ジェスチャを発火させることができる。
また、図7の処理によれば、通常時は加速度センサー104のみでジェスチャ検知を行っているが、ユーザーの第1の操作が振り上げ動作に類似していた場合、通常は使用していないジャイロセンサー106も起動して次の第2の操作の検出に利用することができる。これにより、第2の操作の検出の精度を高めることができ、結果としてジェスチャ検出の要件を緩和できる。なお、図7では、ジャイロセンサー106を併用して第2の操作を検出する際の発火条件を緩和しているが、第2の操作を検出する際の判定条件のしきい値TH_xy,TH_z自体を緩和しても良い。
また、上述した例では、ユーザーの第1の操作が振り上げ動作に類似していた場合、ジャイロセンサー106も起動して次の第2の操作の検出に利用しているが、加速度センサー104のサンプリング周波数を一時的に上げたり、マイクロコンピュータ110、メインCPU130のクロックを上げるなどして端末装置100、またはセンサーのモードを一時的に変更し、第2の操作を検出する際の認識精度を上げるようにしても良い。加速度センサー104はサンプリング周波数を上げることでより高精度な検出値を得られるが、消費電力も上がってしまう。このため、新たな起動したセンサーや、一度変更したモードについては、一定のタイムアウト時間が経過した場合、又は2回目のジェスチャ検知で発火した場合、新たに起動したセンサーを停止したり、モードを元に戻すものとする。
なお、上述した例では、ユーザーが腕を振り上げるジェスチャを行った場合の適用例について説明したが、腕を振り上げるジェスチャの他に、ユーザーが端末装置100に指をタップしたことを検出するジェスチャにも適用可能である。図8は、端末装置100をタップするジェスチャに適用した例を示す模式図であり、指タップでアラームを止める機能における例を示している。この例では、ユーザーがアラームを止めるために人差し指と中指をタップさせる指タップ操作を行ったが、タップの強さが足りず、アラームを止める動作が実際には行われなかったものとする。
例えば、端末装置100が時刻を知らせるアラームを発生させ、ユーザーがアラームを停止するため指タップ操作を行ったが、タップが弱くて第1の発火条件に反応しなかった場合、システムがこのタップ操作が意図的なものか判断できなかったため、タップが第2の発火条件を満たしていれば、表示部102の画面上にタップが試されたことを示すとともに、且つ再タップを促すアニメーション(Tap Again)を表示する。さらに、アニメーションが表示されている間は、タップを検出するためのしきい値を低くする。これにより、ユーザーが次回のタップを容易に行えるようにするとともに、タップが第3の発火条件を満たしている場合は、次回のタップを容易に検出することができる。
一方、タップが弱くて第1の発火条件に反応しなかった場合であっても、タイムアウトが経過すると、アニメーション(Tap Again)の表示は消えて、一時的に適用されていた第3の判定条件ではなく、第1の判定条件が再び適用されるようになる。
図8のように文字列を表示する他には、端末装置100のボタンの色が変わったり、変形したり、あるいはジェスチャの判定関数自体をゲージとして表示して、ユーザーにもう少し追加が必要であることをビジュアルで示すこともできる。また、テレビや大画面ディスプレイで手のひらを左右に動かすことによって画面上のメニューをめくる操作に適用した場合、メニューが腕を動かした方向に変形しているような表示がされることで、ユーザーにもう一度ジェスチャをすることを促すようにしても良い。タイムアウトが経過すると、メニューの変形は元に戻る。
[1.6.他のデバイスへの適用例]
上述した例では、端末装置100として腕時計型のデバイスを例示したが、ヘッドマウントディスプレイやワイヤレスレシーバー等、頭部に装着してユーザーの動きを検知して端末を操作するデバイスに適用することもできる。図10は、本実施形態をヘッドマウントディスプレイ(HMD)200に適用した例を示す模式図である。ヘッドマウントディスプレイ200では、内蔵された加速度センサー、カメラ、IR等のセンサーにより、ユーザーの頷きや首振り等のジェスチャを取得することができる。ワイヤレスレシーバーの場合も同様である。このようなジェスチャに対して、上述した腕時計型デバイスと同様の処理を行うことができる。
上述した例では、端末装置100として腕時計型のデバイスを例示したが、ヘッドマウントディスプレイやワイヤレスレシーバー等、頭部に装着してユーザーの動きを検知して端末を操作するデバイスに適用することもできる。図10は、本実施形態をヘッドマウントディスプレイ(HMD)200に適用した例を示す模式図である。ヘッドマウントディスプレイ200では、内蔵された加速度センサー、カメラ、IR等のセンサーにより、ユーザーの頷きや首振り等のジェスチャを取得することができる。ワイヤレスレシーバーの場合も同様である。このようなジェスチャに対して、上述した腕時計型デバイスと同様の処理を行うことができる。
図11は、テレビ受像機(TV)300(またはプロジェクター等)を操作する際に、TV300に設けられたカメラ310、またはユーザーが手にするリモートコントローラの加速度センサーを用いたジェスチャ認識を行う例を示す模式図である。この例では、ユーザーが腕、頭、その他、体を動かす操作を行うことで、カメラ310または加速度センサーがジェスチャを認識し、TV300を操作できる。カメラ310がジェスチャを認識する場合は、図4の構成において、カメラ310が検出したジェスチャがセンサー監視モジュール230に送られてジェスチャ判定が行われる。ユーザーへのフィードバックはTV300の画面や音、照明で行うことができる。例えば手のひらを上げ下げするジェスチャによってボリュームを上下させたり、手のひらを左右に動かしてメニューを選択したり、画面を指差すことで電源をオン、オフすることができる。また、本実施形態はゲーム内でのジェスチャ操作にも適用が可能である。例えば、リモートコントローラを左右に振って視点を変える操作も、ゲーム内の場面に応じてジェスチャ発火条件を変えることで、快適な操作を実現できる。他のプレーヤーと会話しているときには、視点を代えにくくして、移動中は機敏に変えられるようにするなどの適用も可能である。武器で攻撃する操作も、敵を目の前にした時により簡単に行えるようにすると、快適にプレイすることができる。
<2.第2の実施形態>
[2.1.ユーザーの操作履歴によるジェスチャ認識関数の変更について]
次に、本開示の第2の実施形態について説明する。第2の実施形態に係る端末装置100の基本的な構成は、第1の実施形態と同様である。第2の実施形態では、端末装置100の様々な状況に応じてジェスチャ発火条件を変更する。最初に、ユーザーの操作履歴によるジェスチャ認識関数の変更について説明する。
[2.1.ユーザーの操作履歴によるジェスチャ認識関数の変更について]
次に、本開示の第2の実施形態について説明する。第2の実施形態に係る端末装置100の基本的な構成は、第1の実施形態と同様である。第2の実施形態では、端末装置100の様々な状況に応じてジェスチャ発火条件を変更する。最初に、ユーザーの操作履歴によるジェスチャ認識関数の変更について説明する。
上述した腕を振り上げるジェスチャを行う場合に、振り上げの動作の強弱はユーザーによって個人差がある。つまり、ジェスチャ操作は、動きがはっきりしているユーザーと、動きが弱いユーザーなど個人差がある。しかし、端末装置100を当初から個々のユーザーの違い応じてカスタマイズするのは困難なので、使用中の操作ログをもとにジェスチャの反応関数をユーザーに合うように変えていく。図9は、ジェスチャの反応関数を変更する処理を示すフローチャートである。
先ず、ステップS50では、ユーザーにより第1の操作が行われる。ここで、第1の操作は、腕を振り上げる動作に相当する。次に、ステップS51では、加速度センサー104の検出値を取得する。次のステップS52では、第1ジェスチャ判定に用いる特徴量vを算出する。次のステップS54では、特徴量vがジェスチャの発火条件を満たすか否かを判定し、ジェスチャの発火条件を満たす場合はステップS56へ進み、ジェスチャを発火させる。ステップS56でジェスチャが発火した場合でも、ステップS54の条件を大きな余裕を持って満たしていた場合と、わずかな差で満たしていた場合がある。前者の場合はユーザーがはっきりしたジェスチャを行う傾向があると考えられ、後者の場合は弱い動きでジェスチャを行う傾向があると考えられる。そこで、ステップS56の後はステップS57へ進み、ステップS54の条件を大きな余裕を持って満たしていたか、若しくはわずかな差で満たしていたかという情報をもとに、ステップS54で用いる判定関数を更新する。この変更は毎回、または一定回数のログが溜まるごとに行われる。
一方、ステップS54で特徴量vがジェスチャの発火条件を満たさない場合はステップS58へ進む。ステップS58では、特徴量vが第2の発火条件を満たすか否かを判定し、第2の発火条件を満たす場合はステップS60へ進む。第2の発火条件は、第1の発火条件よりも緩い条件である。一方、ステップS58で第2の発火条件を満たさない場合は、処理を終了する。
ステップS60では、ジェスチャが発火しないため、ユーザーが画面タップをしたり、手動で電源ボタンを操作して端末装置100の電源を入れるなどして、ジェスチャで達成しようとしたのと同等な操作を行う。この操作が行われた場合、ステップS50で行われた当初のジェスチャ操作は、ユーザーが意図したもので、それを発火させるべきだったと考えられる。このため、ステップS62では、ステップS54で使用する判定関数を更新し、判定関数を緩くする。次のステップS64では、判定関数が更新されたことを画面表示でユーザーに通知する。
以上のように図9のフローチャートによれば、第1の操作が発火しなかった場合、ユーザーが電源ボタンを押して端末装置100を起動するなどして所望の操作を実現したときは、次回からのジェスチャ発火の判定しきい値を変更することができる。従って、ユーザーの動作の強弱に個人差がある場合であっても、ジェスチャ発火のためのしきい値を最適に調整することが可能となる。
[2.2.通知によるジェスチャ認識関数の変更について]
次に、通知によるジェスチャ認識関数の変更について説明する。上述したように、端末装置100はメール機能を備えている。メールによりメッセージが着信すると、ユーザーが振り上げ動作により端末装置100を起動させようとする可能性が高くなる。このため、第2の実施形態では、振り上げによるジェスチャ発火において、メッセージの着信の情報を利用してジェスチャ発火の判定関数を変更する。
次に、通知によるジェスチャ認識関数の変更について説明する。上述したように、端末装置100はメール機能を備えている。メールによりメッセージが着信すると、ユーザーが振り上げ動作により端末装置100を起動させようとする可能性が高くなる。このため、第2の実施形態では、振り上げによるジェスチャ発火において、メッセージの着信の情報を利用してジェスチャ発火の判定関数を変更する。
具体的には、端末装置100にメッセージの着信があり、この着信をユーザーに振動で通知してから一定時間は、腕の振り上げジェスチャの判定条件を緩くして、普段は反応しない動きでも振り上げとして反応するようにしておく。これにより、この一定時間内にユーザーが腕を振り上げてメッセージを確認しようとした場合、容易に画面を点灯することができ、メッセージの閲覧など所望の操作を実現できる。
図12A~図12Dは、端末装置100にメッセージが着信した際の動作を示す模式図である。図12Aは、通常の表示を示しており、この状態では表示部102に時刻が表示されている。端末装置100にメッセージが着信すると、図12Bに示すように、バイブレータ107による振動とともに、表示部102の画面にメッセージの一部が表示され、ユーザーにメッセージが到着したことが通知される。次に、ユーザーが腕を振り上げたり、画面をタップしたりすることで、図12Cに示す状態に移行し、ユーザーはメッセージの詳細を確認することができる。一方、図12Bに示す状態から、ユーザーが腕の振り上げや画面タップを一定時間行わず放置した場合、画面は図12Dの状態に移行して時計表示に戻り、簡単な通知アイコンが表示される。
図13は、第2の実施形態における処理を示すフローチャートである。先ず、ステップS70では、端末装置100のユーザー宛にメッセージが到着する。次のステップS72において、端末装置100のシステムは、メッセージが到着したことをユーザーに知らせるために、画面表示、LED点灯、振動などでユーザーに通知を行う。次のステップS74では、ユーザーが端末装置100を確認するために振り上げジェスチャを行う。次のステップS76では加速度センサー104のセンサー値を取得して、次のステップS77ではジェスチャ判定に用いる特徴量vを計算する。
ステップS78では、直前の未確認通知が来てから一定時間が経過しているか否かを確認し、一定時間内に未確認の通知があった場合はステップS80へ進み、通常より判定条件がゆるい第2判定関数でジェスチャ振り上げを判定する。この結果、ジェスチャと判定されると画面を点灯させる(ステップS84)。
一方、ステップS78で一定時間が経過していた場合は、ステップS82へ進み、通常の第1判定条件による振り上げ判定を行う。この結果、ジェスチャと判定されると画面を点灯させる(ステップS86)。
これにより、メッセージを通知した後にユーザーがそれを確認しようとした場合、通常より判定条件がゆるい第2判定関数が適用されるため、ユーザーが振り上げに失敗する可能性が下がり、利便性、可用性が向上する。
ステップS78において、判定関数の選択に用いる条件としては、メッセージ着信の他に、以下のような要素が挙げられる。
(1)メッセージ内容:宛先が特定の人の場合は緊急通知として判定関数を緩くする。宣伝メールの場合は判定関数を緩くしない(厳しくする)。
(2)電話着信、アラーム: 電話着信中に腕の振り上げが行われた場合は判定関数を緩くする。アラームが鳴っている時も判定関数を緩くする。
(3)スケジュール、位置、行動:スケジュールやGPS、加速度センサー104から判断した行動解析の結果、例えば映画鑑賞中の場合は判定関数を緩くしない(厳しくする)。移動中や予定と予定の間、予定の終わりごろには判定関数を緩くする。深夜は判定関数を緩くしない。朝は判定関数を緩くする。例えば、列車への乗車時刻、会議の開催時刻などが予め端末装置100に登録されていれば、その時刻の前にはユーザーが腕を振り上げて表示部102上の表示画面を見る可能性が高くなる。従って、ジェスチャの判定関数を緩くすることで、ユーザーが乗車時刻、または会議開催時刻の前に腕を振り上げた際に確実に点灯させることが可能となる。
(4)アプリケーションや場面:同じジェスチャであっても、その操作の重要度によって判定関数を変更する。例えばメッセージの送信ボタンを指タップで操作する場合は、誤送信してしまった場合は問題が大きいので、判定関数を厳しくする。メッセージや予定の削除の操作をする場合も、判定関数を厳しくする。一方、通知を既読にする操作は、頻繁に行い重要度も高くないので判定関数を緩くする。
(5)ユーザーの履歴:位置や時間、曜日等に応じて、ユーザーが画面を見た履歴がある場所、時間、曜日では、判定関数を緩くする。
(6)バッテリの状態:バッテリ残量が少ない場合はジェスチャの判定条件を厳しくすることで、表示画面を点灯し難くすることができ、バッテリ残量の低下を抑えることができる。
(1)メッセージ内容:宛先が特定の人の場合は緊急通知として判定関数を緩くする。宣伝メールの場合は判定関数を緩くしない(厳しくする)。
(2)電話着信、アラーム: 電話着信中に腕の振り上げが行われた場合は判定関数を緩くする。アラームが鳴っている時も判定関数を緩くする。
(3)スケジュール、位置、行動:スケジュールやGPS、加速度センサー104から判断した行動解析の結果、例えば映画鑑賞中の場合は判定関数を緩くしない(厳しくする)。移動中や予定と予定の間、予定の終わりごろには判定関数を緩くする。深夜は判定関数を緩くしない。朝は判定関数を緩くする。例えば、列車への乗車時刻、会議の開催時刻などが予め端末装置100に登録されていれば、その時刻の前にはユーザーが腕を振り上げて表示部102上の表示画面を見る可能性が高くなる。従って、ジェスチャの判定関数を緩くすることで、ユーザーが乗車時刻、または会議開催時刻の前に腕を振り上げた際に確実に点灯させることが可能となる。
(4)アプリケーションや場面:同じジェスチャであっても、その操作の重要度によって判定関数を変更する。例えばメッセージの送信ボタンを指タップで操作する場合は、誤送信してしまった場合は問題が大きいので、判定関数を厳しくする。メッセージや予定の削除の操作をする場合も、判定関数を厳しくする。一方、通知を既読にする操作は、頻繁に行い重要度も高くないので判定関数を緩くする。
(5)ユーザーの履歴:位置や時間、曜日等に応じて、ユーザーが画面を見た履歴がある場所、時間、曜日では、判定関数を緩くする。
(6)バッテリの状態:バッテリ残量が少ない場合はジェスチャの判定条件を厳しくすることで、表示画面を点灯し難くすることができ、バッテリ残量の低下を抑えることができる。
なお、ステップS72の表示において、ユーザーにジェスチャが認識しやすくなっていることを示すような表示(UI)にしても良い。また、ステップS78の判定からステップS80に進んで第二判定関数が適用されるのは、図12Bの期間に対応していて、ユーザーもこの期間は簡単な振り上げでジェスチャが発動するのを知ることが出来る。
[2.3.ユーザーの行動によるLPフィルターの変更について]
次に、ユーザーの行動によるLPフィルターの変更について説明する。ジェスチャ判定を高精度に行うためには、ユーザーが意図してジェスチャを行った操作と、それ以外の操作を分離する必要がある。この分離のため、運動ノイズ除去部214を用いることができる。低域通過フィルターは定常的なノイズを吸収できるので、運動時のジェスチャの誤発火を防止できるが、フィルターの適用によって遅延が生じ、操作後すぐに反応させることは比較的難しくなる。例えば、ユーザーが歩行中やランニング中など運動している場合は、運動ノイズ除去部214のフィルターのカットオフ周波数を低くして、座っている時など動きが少ない時にはカットオフ周波数を高くしたり、ローパスフィルターそのものを使用しないようにしたりする。こうすることで、運動時のジェスチャ誤発火を防ぎつつ、停止時は少ないレイテンシでジェスチャを発火させることができる。
次に、ユーザーの行動によるLPフィルターの変更について説明する。ジェスチャ判定を高精度に行うためには、ユーザーが意図してジェスチャを行った操作と、それ以外の操作を分離する必要がある。この分離のため、運動ノイズ除去部214を用いることができる。低域通過フィルターは定常的なノイズを吸収できるので、運動時のジェスチャの誤発火を防止できるが、フィルターの適用によって遅延が生じ、操作後すぐに反応させることは比較的難しくなる。例えば、ユーザーが歩行中やランニング中など運動している場合は、運動ノイズ除去部214のフィルターのカットオフ周波数を低くして、座っている時など動きが少ない時にはカットオフ周波数を高くしたり、ローパスフィルターそのものを使用しないようにしたりする。こうすることで、運動時のジェスチャ誤発火を防ぎつつ、停止時は少ないレイテンシでジェスチャを発火させることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) ユーザーのジェスチャ操作に基づく操作情報を取得する取得部と、
前記操作情報に基づいて処理を行う処理部とを備え、
前記処理部は、第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合は、前記所定の処理を行う、情報処理装置。
(2) 前記第1のユーザー操作と前記第2のユーザー操作は類似する、前記(1)に記載の情報処理装置。
(3) 前記第2のユーザー操作が行われたことを判定するための第2の条件は、前記第1のユーザー操作が行われたことを判定するための第1の条件に含まれる、前記(2)に記載の情報処理装置。
(4) 前記第3のユーザー操作は、前記第1のユーザー操作と類似する操作である、前記(2)又は(3)に記載の情報処理装置。
(5) 前記第3のユーザー操作は、前記第1のユーザー操作と異なる操作である、前記(2)又は(3)に記載の情報処理装置。
(6) 前記第2のユーザー操作が行われた場合、前記第3のユーザー操作をユーザーに促す出力情報を出力する出力部を備える、前記(1)~(5)のいずれかに記載の情報処理装置。
(7) 前記出力情報は、表示部に表示するための表示情報である、前記(6)に記載の情報処理装置。
(8) 前記出力情報は、前記第3のユーザー操作をユーザーに促すための振動を発生させるバイブレータを制御するための情報である、前記(6)に記載の情報処理装置。
(9) 前記出力情報は、音声情報である、前記(6)に記載の情報処理装置。
(10) 前記ユーザーのジェスチャ操作が行われたことを判定する判定部が前記ユーザーのジェスチャ操作が行われたことを判定するためのしきい値を、しきい値変更条件に基づいて変更するしきい値変更部を備える、前記(1)~(9)のいずれかに記載の情報処理装置。
(11) 前記しきい値変更条件は、デバイスの状況に関する条件である、前記(10)に記載の情報処理装置。
(12) 前記第2のユーザー操作が行われた場合、前記第3のユーザー操作をユーザーに促す出力情報を出力する出力部を備え、
前記しきい値変更部は、前記出力情報の出力有無に基づいて、前記第3のユーザー操作が行われたことを判定するための第3のしきい値を低下させる、前記(11)に記載の情報処理装置。
(13) 前記しきい値変更条件は、ユーザー情報に関する条件である、前記(11)に記載の情報処理装置。
(14) 前記しきい値変更条件は、コンテンツ情報に関する条件である、前記(11)に記載の情報処理装置。
(15) 前記しきい変更条件は、環境情報に関する条件である、前記(11)に記載の情報処理装置。
(16) 表示部を備え、
前記所定の処理は、前記表示部に表示情報を表示させる処理である、前記(1)~(15)のいずれかに記載の情報処理装置。
(17) 表示部を備え、
前記所定の処理は、バックライトを点灯させる処理である、前記(1)~(15)のいずれかに記載の情報処理装置。
(18) 腕時計型デバイスである、前記(1)~(17)のいずれかに記載の情報処理装置。
(19) ユーザーのジェスチャ操作に基づく操作情報を取得することと、
前記操作情報に基づいて処理を行うこととを備え、
第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う、情報処理方法。
(20) ユーザーのジェスチャ操作に基づく操作情報を取得する手段、
前記操作情報に基づいて処理を行う手段、としてコンピュータを機能させるためのプログラムであって、
第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行う手段、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う手段、としてコンピュータを機能させるためのプログラム。
(1) ユーザーのジェスチャ操作に基づく操作情報を取得する取得部と、
前記操作情報に基づいて処理を行う処理部とを備え、
前記処理部は、第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合は、前記所定の処理を行う、情報処理装置。
(2) 前記第1のユーザー操作と前記第2のユーザー操作は類似する、前記(1)に記載の情報処理装置。
(3) 前記第2のユーザー操作が行われたことを判定するための第2の条件は、前記第1のユーザー操作が行われたことを判定するための第1の条件に含まれる、前記(2)に記載の情報処理装置。
(4) 前記第3のユーザー操作は、前記第1のユーザー操作と類似する操作である、前記(2)又は(3)に記載の情報処理装置。
(5) 前記第3のユーザー操作は、前記第1のユーザー操作と異なる操作である、前記(2)又は(3)に記載の情報処理装置。
(6) 前記第2のユーザー操作が行われた場合、前記第3のユーザー操作をユーザーに促す出力情報を出力する出力部を備える、前記(1)~(5)のいずれかに記載の情報処理装置。
(7) 前記出力情報は、表示部に表示するための表示情報である、前記(6)に記載の情報処理装置。
(8) 前記出力情報は、前記第3のユーザー操作をユーザーに促すための振動を発生させるバイブレータを制御するための情報である、前記(6)に記載の情報処理装置。
(9) 前記出力情報は、音声情報である、前記(6)に記載の情報処理装置。
(10) 前記ユーザーのジェスチャ操作が行われたことを判定する判定部が前記ユーザーのジェスチャ操作が行われたことを判定するためのしきい値を、しきい値変更条件に基づいて変更するしきい値変更部を備える、前記(1)~(9)のいずれかに記載の情報処理装置。
(11) 前記しきい値変更条件は、デバイスの状況に関する条件である、前記(10)に記載の情報処理装置。
(12) 前記第2のユーザー操作が行われた場合、前記第3のユーザー操作をユーザーに促す出力情報を出力する出力部を備え、
前記しきい値変更部は、前記出力情報の出力有無に基づいて、前記第3のユーザー操作が行われたことを判定するための第3のしきい値を低下させる、前記(11)に記載の情報処理装置。
(13) 前記しきい値変更条件は、ユーザー情報に関する条件である、前記(11)に記載の情報処理装置。
(14) 前記しきい値変更条件は、コンテンツ情報に関する条件である、前記(11)に記載の情報処理装置。
(15) 前記しきい変更条件は、環境情報に関する条件である、前記(11)に記載の情報処理装置。
(16) 表示部を備え、
前記所定の処理は、前記表示部に表示情報を表示させる処理である、前記(1)~(15)のいずれかに記載の情報処理装置。
(17) 表示部を備え、
前記所定の処理は、バックライトを点灯させる処理である、前記(1)~(15)のいずれかに記載の情報処理装置。
(18) 腕時計型デバイスである、前記(1)~(17)のいずれかに記載の情報処理装置。
(19) ユーザーのジェスチャ操作に基づく操作情報を取得することと、
前記操作情報に基づいて処理を行うこととを備え、
第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う、情報処理方法。
(20) ユーザーのジェスチャ操作に基づく操作情報を取得する手段、
前記操作情報に基づいて処理を行う手段、としてコンピュータを機能させるためのプログラムであって、
第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行う手段、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う手段、としてコンピュータを機能させるためのプログラム。
212 センサー監視モジュール
218 しきい値判定部
220 処理部
240 ジェスチャ判定モジュール
218 しきい値判定部
220 処理部
240 ジェスチャ判定モジュール
Claims (20)
- ユーザーのジェスチャ操作に基づく操作情報を取得する取得部と、
前記操作情報に基づいて処理を行う処理部とを備え、
前記処理部は、第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合は、前記所定の処理を行う、情報処理装置。 - 前記第1のユーザー操作と前記第2のユーザー操作は類似する、請求項1に記載の情報処理装置。
- 前記第2のユーザー操作が行われたことを判定するための第2の条件は、前記第1のユーザー操作が行われたことを判定するための第1の条件に含まれる、請求項2に記載の情報処理装置。
- 前記第3のユーザー操作は、前記第1のユーザー操作と類似する操作である、請求項2に記載の情報処理装置。
- 前記第3のユーザー操作は、前記第1のユーザー操作と異なる操作である、請求項2に記載の情報処理装置。
- 前記第2のユーザー操作が行われた場合、前記第3のユーザー操作をユーザーに促す出力情報を出力する出力部を備える、請求項1に記載の情報処理装置。
- 前記出力情報は、表示部に表示するための表示情報である、請求項6に記載の情報処理装置。
- 前記出力情報は、前記第3のユーザー操作をユーザーに促すための振動を発生させるバイブレータを制御するための情報である、請求項6に記載の情報処理装置。
- 前記出力情報は、音声情報である、請求項6に記載の情報処理装置。
- 前記ユーザーのジェスチャ操作が行われたことを判定する判定部が前記ユーザーのジェスチャ操作が行われたことを判定するためのしきい値を、しきい値変更条件に基づいて変更するしきい値変更部を備える、請求項1に記載の情報処理装置。
- 前記しきい値変更条件は、デバイスの状況に関する条件である、請求項10に記載の情報処理装置。
- 前記第2のユーザー操作が行われた場合、前記第3のユーザー操作をユーザーに促す出力情報を出力する出力部を備え、
前記しきい値変更部は、前記出力情報の出力有無に基づいて、前記第3のユーザー操作が行われたことを判定するための第3のしきい値を低下させる、請求項11に記載の情報処理装置。 - 前記しきい値変更条件は、ユーザー情報に関する条件である、請求項11に記載の情報処理装置。
- 前記しきい値変更条件は、コンテンツ情報に関する条件である、請求項11に記載の情報処理装置。
- 前記しきい変更条件は、環境情報に関する条件である、請求項11に記載の情報処理装置。
- 表示部を備え、
前記所定の処理は、前記表示部に表示情報を表示させる処理である、請求項1に記載の情報処理装置。 - 表示部を備え、
前記所定の処理は、バックライトを点灯させる処理である、請求項1に記載の情報処理装置。 - 腕時計型デバイスである、請求項1に記載の情報処理装置。
- ユーザーのジェスチャ操作に基づく操作情報を取得することと、
前記操作情報に基づいて処理を行うこととを備え、
第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行い、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う、情報処理方法。 - ユーザーのジェスチャ操作に基づく操作情報を取得する手段、
前記操作情報に基づいて処理を行う手段、としてコンピュータを機能させるためのプログラムであって、
第1のユーザー操作に基づく第1の操作情報を取得した場合に所定の処理を行う手段、
第1のユーザー操作と関連する第2のユーザー操作に基づく第2の操作情報を取得して、第2のユーザー操作後の所定の時間内に行われた第3のユーザー操作に基づく第3の操作情報を取得した場合に前記所定の処理を行う手段、としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/777,524 US10754432B2 (en) | 2015-12-01 | 2016-10-04 | Information processing device and information processing method for detecting gesture manipulation |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015234939 | 2015-12-01 | ||
JP2015-234939 | 2015-12-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017094346A1 true WO2017094346A1 (ja) | 2017-06-08 |
Family
ID=58796900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/079503 WO2017094346A1 (ja) | 2015-12-01 | 2016-10-04 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10754432B2 (ja) |
WO (1) | WO2017094346A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096497A (ja) * | 2019-12-13 | 2021-06-24 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT201700088977A1 (it) * | 2017-08-02 | 2019-02-02 | St Microelectronics Srl | Procedimento per il riconoscimento di gesti, circuito, dispositivo e prodotto informatico corrispondenti |
DE102020209939A1 (de) * | 2020-08-06 | 2022-02-10 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Erkennen von Kopfgesten |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09206469A (ja) * | 1996-02-02 | 1997-08-12 | Ricoh Elemex Corp | 遊戯対戦装置 |
JP2007531113A (ja) * | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
JP2008027252A (ja) * | 2006-07-21 | 2008-02-07 | Brother Ind Ltd | 操作信号出力装置及び操作システム |
JP2008027253A (ja) * | 2006-07-21 | 2008-02-07 | Brother Ind Ltd | 操作装置及び操作システム |
JP2011239029A (ja) * | 2010-05-06 | 2011-11-24 | Hitachi Consumer Electronics Co Ltd | 映像表示装置、省電力制御装置、及び省電力方法 |
JP2013048652A (ja) * | 2011-08-30 | 2013-03-14 | Namco Bandai Games Inc | プログラム、情報記憶媒体、端末及びサーバ |
JP2015022371A (ja) * | 2013-07-16 | 2015-02-02 | ラピスセミコンダクタ株式会社 | 操作装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7301528B2 (en) | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Distinguishing tilt and translation motion components in handheld devices |
US7301526B2 (en) * | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Dynamic adaptation of gestures for motion controlled handheld devices |
US7847789B2 (en) * | 2004-11-23 | 2010-12-07 | Microsoft Corporation | Reducing accidental touch-sensitive device activation |
WO2008010581A1 (fr) * | 2006-07-21 | 2008-01-24 | Brother Kogyo Kabushiki Kaisha | Dispositif opérationnel et système opérationnel |
CN102326133B (zh) * | 2009-02-20 | 2015-08-26 | 皇家飞利浦电子股份有限公司 | 用于使得设备进入活动模式的系统、方法和装置 |
GB2474536B (en) * | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
JP5601045B2 (ja) | 2010-06-24 | 2014-10-08 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
US20130212416A1 (en) * | 2012-02-10 | 2013-08-15 | Sony Corporation | Motion on computer |
US8826382B2 (en) * | 2012-09-14 | 2014-09-02 | Apple Inc. | Antibot mechanisms optimized for mobile computing |
US20140208333A1 (en) * | 2013-01-22 | 2014-07-24 | Motorola Mobility Llc | Initialize a Computing Device to Perform an Action |
KR102179056B1 (ko) * | 2013-07-19 | 2020-11-16 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
JP5905434B2 (ja) * | 2013-11-07 | 2016-04-20 | 株式会社東海理化電機製作所 | 操作装置 |
KR101918421B1 (ko) * | 2014-07-18 | 2018-11-13 | 애플 인크. | 디바이스에서의 들어올림 제스처 검출 |
US9886953B2 (en) * | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
KR102398716B1 (ko) * | 2015-08-12 | 2022-05-17 | 삼성전자주식회사 | 생체 정보 검출 방법 및 그 방법을 처리하는 전자 장치 |
-
2016
- 2016-10-04 US US15/777,524 patent/US10754432B2/en active Active
- 2016-10-04 WO PCT/JP2016/079503 patent/WO2017094346A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09206469A (ja) * | 1996-02-02 | 1997-08-12 | Ricoh Elemex Corp | 遊戯対戦装置 |
JP2007531113A (ja) * | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
JP2008027252A (ja) * | 2006-07-21 | 2008-02-07 | Brother Ind Ltd | 操作信号出力装置及び操作システム |
JP2008027253A (ja) * | 2006-07-21 | 2008-02-07 | Brother Ind Ltd | 操作装置及び操作システム |
JP2011239029A (ja) * | 2010-05-06 | 2011-11-24 | Hitachi Consumer Electronics Co Ltd | 映像表示装置、省電力制御装置、及び省電力方法 |
JP2013048652A (ja) * | 2011-08-30 | 2013-03-14 | Namco Bandai Games Inc | プログラム、情報記憶媒体、端末及びサーバ |
JP2015022371A (ja) * | 2013-07-16 | 2015-02-02 | ラピスセミコンダクタ株式会社 | 操作装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096497A (ja) * | 2019-12-13 | 2021-06-24 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7330507B2 (ja) | 2019-12-13 | 2023-08-22 | 株式会社Agama-X | 情報処理装置、プログラム、及び、方法 |
US11868529B2 (en) | 2019-12-13 | 2024-01-09 | Agama-X Co., Ltd. | Information processing device and non-transitory computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
US20180329505A1 (en) | 2018-11-15 |
US10754432B2 (en) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9268524B2 (en) | Information processing apparatus, information processing method, and computer readable medium | |
US9952675B2 (en) | Methods, systems, and apparatuses to display visibility changes responsive to user gestures | |
US11340560B2 (en) | Information processing apparatus, control method, and program | |
US9946229B2 (en) | Smart watch and method for controlling the same | |
EP3301560A1 (en) | Intelligent wearable apparatus and control method thereof | |
WO2017094346A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP4706629B2 (ja) | 携帯端末機器 | |
CN108345442B (zh) | 一种操作识别方法及移动终端 | |
JP6750697B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2017094443A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN106033248A (zh) | 一种信息处理方法及电子设备 | |
US10156932B2 (en) | Mobile electronic device, method of controlling mobile electronic device, and recording medium | |
US11327576B2 (en) | Information processing apparatus, information processing method, and program | |
US20180063283A1 (en) | Information processing apparatus, information processing method, and program | |
CN112202957B (zh) | 终端控制方法与控制装置 | |
CN107888780B (zh) | 一种移动终端的照明控制方法及移动终端 | |
TWI381655B (zh) | 遙控裝置及其遙控方法 | |
WO2011151754A1 (en) | A method and system for controlling the status of a device | |
CN111124240A (zh) | 一种控制方法及可穿戴设备 | |
WO2018155123A1 (ja) | 表示装置、表示方法、制御装置および車両 | |
US9946353B2 (en) | Portable electronic device and message processing method therefor | |
US20200246695A1 (en) | Gaming system | |
TWI556135B (zh) | 可攜式電子裝置及其訊息處理方法 | |
JP2015023355A (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16870286 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15777524 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16870286 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |