WO2015104884A1 - 情報処理システム、情報処理方法およびプログラム - Google Patents

情報処理システム、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2015104884A1
WO2015104884A1 PCT/JP2014/078117 JP2014078117W WO2015104884A1 WO 2015104884 A1 WO2015104884 A1 WO 2015104884A1 JP 2014078117 W JP2014078117 W JP 2014078117W WO 2015104884 A1 WO2015104884 A1 WO 2015104884A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
processing system
control unit
predetermined
detected
Prior art date
Application number
PCT/JP2014/078117
Other languages
English (en)
French (fr)
Inventor
安田 亮平
野田 卓郎
山本 一幸
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP14878312.9A priority Critical patent/EP3093738A4/en
Priority to CN201480072110.7A priority patent/CN105874409A/zh
Priority to JP2015556712A priority patent/JP6504058B2/ja
Priority to US15/038,329 priority patent/US20160291692A1/en
Publication of WO2015104884A1 publication Critical patent/WO2015104884A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects

Definitions

  • This disclosure relates to an information processing system, an information processing method, and a program.
  • a technique for determining a pointing position based on a motion detected by a sensor is disclosed.
  • a method for determining a pointing position based on an angular velocity detected by a gyro sensor is disclosed (for example, see Patent Document 1).
  • a line-of-sight detection unit that detects a user's line of sight
  • an operation detection unit that detects an operation in space by the user
  • a position control unit that determines a pointing position based on the operation.
  • An information processing system is provided in which the position control unit moves the pointing position based on the line of sight when a predetermined operation is detected.
  • a predetermined operation is performed by a processor including detecting a user's line of sight, detecting an operation in space by the user, and determining a pointing position based on the operation.
  • An information processing method is provided that includes moving the pointing position based on the line of sight when detected.
  • the computer includes a line-of-sight detection unit that detects a user's line of sight, an operation detection unit that detects an operation in space by the user, a position control unit that determines a pointing position based on the operation,
  • the position control unit is provided with a program for functioning as an information processing system that moves the pointing position based on the line of sight when a predetermined operation is detected.
  • the pointing position when controlling the pointing position, the pointing position can be easily moved to a position desired by the user.
  • the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
  • FIG. 5 is a flowchart showing a flow of operations of an information processing system according to an embodiment of the present disclosure. It is a figure which shows the 1st example of a cursor display in case a pointing position reaches the edge part of a display area. It is a figure which shows the 1st example of a cursor display in case a pointing position does not fit in the inside of a display area. It is a figure which shows the 2nd example of a cursor display when a pointing position reaches the edge part of a display area.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets or numbers after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.
  • FIG. 1 is a diagram for describing an overview of an information processing system 10 according to an embodiment of the present disclosure.
  • the information processing system 10 includes a detection unit 120, an imaging unit 130, and a display unit 150.
  • the display unit 150 has a display area 151 and displays a screen in the display area 151.
  • the screen displayed in the display area 151 is not particularly limited.
  • the user U may be present at a position where the screen displayed in the display area 151 can be viewed.
  • the detection unit 120 detects predetermined detection data.
  • the detection data detected by the detection unit 120 is used for the determination of the pointing position P by the user U.
  • the detection unit 120 includes a gyro sensor and the XY coordinates in the display area 151 corresponding to the initial posture of the detection unit 120 and the angular velocity detected by the gyro sensor is calculated as the pointing position P mainly.
  • Details of the calculation of the pointing position P are disclosed in Patent Document 1 (International Publication No. 2009/008372).
  • the determination of the pointing position P by the user U may be made in any way as will be described later.
  • the display unit 150 may display a cursor Cu at the pointing position P.
  • the cursor Cu is indicated by a white arrow with high definition, but the color, shape, and definition of the cursor Cu are not limited.
  • the shape of the cursor Cu may be an ellipse or a circle as will be described later.
  • the cursor Cu may have a lower definition than other objects displayed in the display area 151.
  • the display unit 150 may not display the cursor Cu at the pointing position P.
  • an operation corresponding to the object may be executed.
  • the object displayed in the display area 151 is not particularly limited, and may be a still image, a moving image, a button, or a character string.
  • the predetermined determination operation is not particularly limited, and may be an operation of pressing a button provided on the detection unit 120, or an operation of moving the detection unit 120 so that the detection unit 120 exhibits a predetermined movement. May be.
  • the operation corresponding to the object is not particularly limited, and may be a transition to a screen corresponding to the object.
  • the imaging unit 130 has a function of capturing an image including part or all of the user U's body. When a part of the body of the user U is imaged, the part of the body of the user U may be the face area of the user U or the eye area of the user U.
  • the pointing position P is determined based on the detection data detected by the detection unit 120, it is desirable to provide a technique that can easily move the pointing position P to a position desired by the user. . Therefore, in the present specification, when the pointing position P is determined based on the detection data detected by the detection unit 120, a technique that can easily move the pointing position P to a position desired by the user is proposed. To do.
  • the pointing position P deviates from the position desired by the user.
  • the reasons why the pointing position P deviates from the position desired by the user in this way are the drift phenomenon in which the pointing position P moves regardless of the intention of the user U, and the initial position of the pointing position P is desired by the user. It is assumed that it is out of position.
  • a technique for easily moving the pointing position P to a position desired by the user can be particularly effectively applied to such a situation.
  • FIG. 2 is a diagram illustrating a functional configuration example of the information processing system 10 according to the embodiment of the present disclosure.
  • the information processing system 10 includes a control unit 110, a detection unit 120, an imaging unit 130, a storage unit 140, and a display unit 150.
  • the control unit 110 exhibits various functions of the control unit 110 by executing a program stored in the storage unit 140 or another storage medium. As illustrated in FIG. 2, the control unit 110 includes functional blocks such as a line-of-sight detection unit 111, an operation detection unit 112, a position control unit 113, and a display control unit 114. Details of the functions of each functional block will be described later.
  • the control unit 110 may be configured by a processor such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or a SoC (System on Chip). Moreover, the control part 110 may be comprised with the electronic circuit for performing various arithmetic processing.
  • a processor such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or a SoC (System on Chip).
  • the control part 110 may be comprised with the electronic circuit for performing various arithmetic processing.
  • the detection unit 120 detects predetermined detection data and outputs it to the control unit 110.
  • the detection unit 120 may include other sensors.
  • the detection unit 120 may include a triaxial acceleration sensor.
  • the information processing system 10 may not include the detection unit 120.
  • the detection unit 120 is integrated with the information processing system 10, but the detection unit 120 may be configured separately from the information processing system 10.
  • the imaging unit 130 is a camera module that captures an image.
  • the imaging unit 130 images an actual space using an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) to generate an image.
  • An image generated by the imaging unit 130 is output to the control unit 110.
  • the imaging unit 130 is integrated with the information processing system 10, but the imaging unit 130 may be configured separately from the information processing system 10.
  • an imaging device connected to the information processing system 10 by wire or wireless may be handled as the imaging unit 130.
  • the storage unit 140 stores a program for operating the control unit 110 using a storage medium such as a semiconductor memory or a hard disk. Further, for example, the storage unit 140 can store various data used by the program. In the example illustrated in FIG. 2, the storage unit 140 is integrated with the information processing system 10, but the storage unit 140 may be configured separately from the information processing system 10.
  • the display unit 150 displays various information according to control by the control unit 110.
  • the display unit 150 may be realized by an LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, a projector, or a hologram display. Also good.
  • the display unit 150 is integrated with the information processing system 10, but the display unit 150 may be configured separately from the information processing system 10.
  • a display device connected to the information processing system 10 by wire or wireless may be handled as the display unit 150.
  • the line-of-sight detection unit 111 detects the user's line of sight.
  • the detection method of the user's gaze by the gaze detection unit 111 is not particularly limited.
  • the line-of-sight detection unit 111 may detect the user's line of sight based on the eye area. More specifically, the line-of-sight detection unit 111 may detect the user's line of sight by pattern matching with respect to the eye region.
  • the operation detection unit 112 detects a space operation by the user based on the detection data. Then, the position control unit 113 determines the pointing position P based on the operation detected by the operation detection unit 112.
  • the position control unit 113 calculates the XY coordinates in the display area 151 according to the initial posture of the detection unit 120 and the angular velocity detected by the gyro sensor as the pointing position P will be mainly described. However, the determination of the pointing position P may be made in any way as will be described later.
  • the position control unit 113 moves the pointing position P based on the user's line of sight when a predetermined operation is detected by the operation detection unit 112. Then, the pointing position P can be easily moved to a position desired by the user.
  • the predetermined operation detected by the operation detection unit 112 is not particularly limited.
  • the operation detection unit 112 may detect a predetermined operation based on the detection data.
  • the operation detection unit 112 may detect a predetermined movement recognized from the detection data as a predetermined operation.
  • a predetermined change in the XY coordinates in the display area 151 according to the initial posture of the detection unit 120 and the angular velocity detected by the gyro sensor is treated as a predetermined movement
  • the predetermined movement is not particularly limited.
  • a predetermined change in acceleration detected by the acceleration sensor may be treated as a predetermined movement, or a predetermined change in angular velocity detected by the gyro sensor may be treated as a predetermined movement.
  • the operation detection unit 112 may detect a predetermined state recognized from the detection data as a predetermined operation.
  • FIG. 3 and FIG. 3 and 4 are diagrams for explaining examples of conditions for detecting a user operation as a predetermined operation.
  • FIG. 3 shows a locus of the pointing position P, and shows a start position Ps and an end position Pe.
  • the operation detection unit 112 may detect a predetermined operation when a change in movement in a predetermined direction satisfies a predetermined condition.
  • FIG. 3 shows an example in which a predetermined operation is detected by the operation detection unit 112 when the horizontal inversion exceeds the upper limit number of times within a predetermined time.
  • the upper limit number is 3 is shown as an example in FIG. 3, the upper limit number is not particularly limited.
  • the predetermined direction is not limited to the horizontal direction, and may be the vertical direction or another direction.
  • the predetermined time is not particularly limited.
  • the operation detection unit 112 may detect a predetermined operation when the third inversion is detected between the first inversion and the predetermined time t.
  • the predetermined time t is not particularly limited, but may be 400 ms, for example. Further, the operation detecting unit 112 may reset the elapsed time from the first reversal when the third reversal is not detected between the first reversal and the predetermined time t.
  • FIG. 3 shows an example in which a predetermined operation is detected by the operation detection unit 112 when the horizontal inversion exceeds the upper limit number of times within a predetermined time, but an example in which the predetermined operation is detected is shown. It is not limited to examples.
  • the predetermined operation may be detected by the operation detection unit 112 when a predetermined locus is drawn by the movement recognized from the detection data.
  • the predetermined locus is not particularly limited, but may be a circle or a handwriting such as a predetermined character or a predetermined symbol.
  • a predetermined operation can be detected by the operation detection unit 112, but the predetermined operation may be erroneously detected.
  • the detection unit 120 may vibrate in the horizontal direction, and the horizontal inversion may exceed the upper limit number of times within a predetermined time. Therefore, even if a predetermined movement is detected, there may be a case where a predetermined operation is not detected.
  • a specific example will be described in more detail with reference to FIG.
  • FIG. 5 is a diagram for explaining an example of a condition for not detecting an operation by the user as a predetermined operation. For example, even if the horizontal reversal exceeds the upper limit number of times within a predetermined time, the operation detection unit 112 determines that the amount of movement M (see FIG. 5) of the pointing position P in the predetermined time exceeds the upper limit amount. Therefore, it is not necessary to detect a predetermined operation. Further, for example, even if the horizontal reversal exceeds the upper limit number of times within a predetermined time, if the horizontal displacement W (see FIG. 5) of the pointing position P at the predetermined time exceeds the lower limit amount, It is not necessary to detect the operation.
  • FIG. 6 is a diagram illustrating a cursor display example before moving the position when a predetermined operation is detected.
  • the display control unit 114 displays the cursor Cu at the pointing position P.
  • the user U wants to move the pointing position P.
  • the user U swings the detection unit 120 in the horizontal direction, and moves the line of sight to a position where the pointing position P is desired to be moved.
  • a predetermined operation is detected by the operation detection unit 112, and the pointing position P is moved based on the line of sight.
  • the destination of the pointing position P may be an intersection of the user U's line of sight and the display area 151. Referring to FIG. 6, such an intersection is shown as viewpoint V.
  • FIG. 7 is a diagram showing an object display example when a predetermined operation is detected. As illustrated in FIG. 7, the display control unit 114 may display the object Obj when a predetermined operation is detected.
  • the object Obj may be any object, but may be an object based on the pointing position P.
  • FIG. 7 shows an example where the object Obj is a circle centered on the pointing position P.
  • the control of the pointing position P may be continued. However, if the pointing position P moves while the user U is performing a gesture so that the predetermined operation is detected. The pointing position P may move against the will of the user U. Therefore, the position control unit 113 may fix the pointing position P until a predetermined time elapses after at least the object Obj is displayed.
  • FIG. 7 shows a moving image in which the object Obj gradually becomes smaller and the object Obj converges to the viewpoint V and the display of the object Obj ends when a predetermined time has elapsed since the display of the object Obj was started.
  • the display control unit 114 may display an object such that the user U can grasp the period during which the pointing position P is fixed. Then, the user U can grasp the timing when the movement of the pointing position P is resumed.
  • FIG. 8 is a diagram illustrating a cursor display example after the position is moved when a predetermined operation is detected.
  • the display control unit 114 may display the cursor Cu at the pointing position P that has been moved based on the line of sight of the user U in this way.
  • the position control unit 113 can control the pointing position P based on the detection data. In such a case, the display control unit 114 may move the cursor Cu in accordance with the movement of the pointing position P.
  • the display control unit 114 may display a predetermined indicator when the line of sight is not detected.
  • the indicator is not particularly limited, and may be a display of an object (for example, a message) indicating that the line of sight is not detected.
  • the display control unit 114 may change the cursor Cu when the line of sight is not detected.
  • how to change cursor Cu is not limited, You may change at least any one of the color of a cursor Cu, a shape, and a sharpness.
  • the display control unit 114 may perform predetermined feedback when a predetermined operation is detected when the line of sight is not detected.
  • the feedback method is not particularly limited, and may be a display of an object (for example, a message) indicating that the line of sight is not detected.
  • the cursor Cu may always be displayed, but may be hidden when a predetermined cursor non-display condition is satisfied. That is, the display control unit 114 may hide the cursor Cu when a predetermined cursor non-display condition is satisfied. Although the cursor non-display condition is not particularly limited, the display control unit 114 may hide the cursor Cu when the amount of movement detected from the detected data is below a threshold for a predetermined time. In such a case, it is considered that the user U does not intend to change the pointing position P.
  • the display control unit 114 may perform predetermined feedback when a predetermined operation is detected when the line of sight is not detected in a state where the cursor Cu is displayed.
  • the feedback method is not particularly limited, and may be a display of an object (for example, a message) indicating that the line of sight is not detected.
  • the position control unit 113 may move the pointing position P based on the line of sight when a predetermined operation is detected in a state where the cursor Cu is hidden. If it does so, there exists an effect that it becomes possible to reduce possibility that a user will lose sight of the pointing position P.
  • the destination of the pointing position P may be an intersection of the user U's line of sight and the display area 151.
  • the position control unit 113 does not move the pointing position P according to the line of sight when a predetermined redisplay operation is detected when the line of sight is not detected in the state where the cursor Cu is hidden. Therefore, in such a case, the position control unit 113 may determine the pointing position P at the position of the cursor Cu when the cursor Cu is not displayed.
  • the predetermined redisplay operation is not particularly limited, and may be a transition from a state of no motion detected based on detection data to a state of motion.
  • FIG. 9 is a flowchart showing a flow of operations of the information processing system 10 according to the embodiment of the present disclosure.
  • the operation flow illustrated in FIG. 9 is merely an example of the operation flow of the information processing system 10. Therefore, the operation flow of the information processing system 10 is not limited to the example shown in FIG.
  • the operation detection unit 112 detects an operation on the space by the user based on the detection data (S11). Subsequently, the position control unit 113 determines a pointing position based on the operation detected by the operation detection unit 112 (S12). Subsequently, the display control unit 114 displays a cursor at the pointing position (S13). Note that the cursor may not be displayed. Subsequently, the line-of-sight detection unit 111 detects the user's line of sight (S14).
  • S14 line-of-sight detection unit 111 detects the user's line of sight
  • the position control unit 113 determines whether a predetermined operation has been detected by the operation detection unit 112 (S15). When a predetermined operation is not detected by the operation detection unit 112 (“No” in S15), the position control unit 113 shifts the operation to S11. On the other hand, when a predetermined operation is detected by the operation detection unit 112 (“Yes” in S15), the position control unit 113 moves the pointing position based on the line of sight (S16). If the pointing position is moved in this manner, the pointing position can be easily moved to a position desired by the user.
  • the display control unit 114 displays a predetermined object (S17).
  • the position control unit 113 fixes the pointing position until a predetermined time elapses after at least the object is displayed (S18). Further, the display control unit 114 moves the cursor to the pointing position (S19).
  • Control unit 110 determines whether or not to continue the operation (S20), and when it is determined that the operation is to be continued (“Yes” in S20), the operation is shifted to S11. On the other hand, when it is determined that the operation is to be ended (“No” in S20), control unit 110 ends the operation.
  • the pointing position may be inside the display area 151 or outside the display area 151. That is, the position control unit 113 may determine the pointing position inside or outside the display area 151 based on an operation in space by the user. As a first example, the position control unit 113 may fix the pointing position to the end of the display area 151 when the pointing position does not fit within the display area 151. According to the first example, when the pointing position is deviated from the position desired by the user, the pointing position can be fixed to the end of the display area 151 and corrected. The first example will be described in detail with reference to FIGS. 10 and 11.
  • FIG. 10 is a diagram illustrating a first example of cursor display when the pointing position P reaches the end of the display area 151.
  • the position control unit 113 determines the pointing position P based on a spatial operation by the user
  • the pointing position P has reached the end of the display area 151.
  • the display control unit 114 displays the position of the cursor Cu at the pointing position P. In this situation, it is assumed that an operation is performed in which the pointing position P is moved outside the display area 151.
  • FIG. 11 is a diagram showing a first example of cursor display when the pointing position P does not fit inside the display area 151.
  • the display control unit 114 displays the position of the cursor Cu in the display area. 151 is fixed to the end. Further, the position control unit 113 fixes the pointing position P to the end of the display area 151 when the pointing position P does not fit inside the display area 151.
  • the pointing position when the pointing position does not fit within the display area 151, the pointing position is fixed to the end of the display area 151. However, the pointing position is controlled by other methods. Also good.
  • the position control unit 113 may move the pointing position to the outside of the display area 151 when the pointing position does not fit inside the display area 151. According to the second example, even when a situation where the pointing position does not fit in the display area 151 occurs, the possibility that the pointing position shifts from a position desired by the user can be reduced. The second example will be described in detail with reference to FIGS. 12 and 13.
  • FIG. 12 is a diagram showing a second example of the cursor display when the pointing position P reaches the end of the display area 151.
  • the position control unit 113 determines the pointing position P based on a spatial operation by the user, the pointing position P has reached the end of the display area 151.
  • the display control unit 114 displays the position of the cursor Cu at the pointing position P. In this situation, it is assumed that an operation is performed in which the pointing position P is moved outside the display area 151.
  • FIG. 13 is a diagram showing a second example of the cursor display when the pointing position P does not fit inside the display area 151.
  • the display control unit 114 displays the position of the cursor Cu in the display area. 151 is fixed to the end.
  • the position control unit 113 determines the pointing position P at the XY coordinates on the virtual plane obtained by expanding the display area 151.
  • the display control unit 114 moves the cursor Cu according to the distance D between the pointing position P and the end of the display area 151. It is good to change.
  • FIG. 13 shows an example in which the display control unit 114 increases the degree of deformation of the cursor Cu as the distance D increases.
  • the change of the cursor Cu may be a change of the color of the cursor Cu.
  • the display control unit 114 may increase the color change of the cursor Cu as the distance D increases.
  • the change of the cursor Cu may be the sharpness of the cursor Cu.
  • the display control unit 114 may increase the change in the sharpness of the cursor Cu as the distance D increases.
  • the operation detection unit 112 detects an operation in space by the user based on the detection data.
  • an image captured by the imaging unit 130 may be used instead of the detection data detected by the detection unit 120.
  • FIG. 14 is a diagram illustrating a modification of the functional configuration of the information processing system 10 according to the embodiment of the present disclosure.
  • the information processing system 10 may not include the detection unit 120.
  • the operation detection unit 112 may recognize a predetermined recognition target from the image captured by the imaging unit 130 and detect an operation based on the movement or state of the recognition target.
  • the recognition target may be an object moved by the user or the user's own body.
  • the user's own body may be a part of the user's own body or the entire user's own body.
  • the position control unit 113 may determine the pointing position based on the direction of the object.
  • the position control unit 113 may determine the pointing position based on the movement of the object.
  • the operation detection unit 112 may detect a predetermined operation when the object shows a predetermined movement, or may detect a predetermined operation when the object enters a predetermined state. .
  • the position control unit 113 may determine the pointing position based on the direction of the user's own body.
  • the direction of the user's own body may be the direction indicated by the user's finger or the direction from the elbow to the fingertip.
  • the position control unit 113 may determine the pointing position based on the movement of the user's own body.
  • the operation detection unit 112 may detect a predetermined operation when the user's own body shows a predetermined movement, or when the user's own body enters a predetermined state. May be detected.
  • the predetermined movement may be a movement in which the user shakes his hand, or may be another movement.
  • the predetermined state may be a state where the user has spread his hand, a state where the user has held his hand, or another state.
  • FIG. 15 is a diagram illustrating a hardware configuration example of the information processing system 10 according to the embodiment of the present disclosure.
  • the hardware configuration example illustrated in FIG. 15 is merely an example of the hardware configuration of the information processing system 10. Therefore, the hardware configuration of the information processing system 10 is not limited to the example illustrated in FIG.
  • the information processing system 10 includes a CPU (Central Processing Unit) 801, a ROM (Read Only Memory) 802, a RAM (Random Access Memory) 803, a sensor 804, an input device 808, An output device 810, a storage device 811, a drive 812, an imaging device 813, and a communication device 815 are provided.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 801 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing system 10 according to various programs. Further, the CPU 801 may be a microprocessor.
  • the ROM 802 stores programs used by the CPU 801, calculation parameters, and the like.
  • the RAM 803 temporarily stores programs used in the execution of the CPU 801, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus including a CPU bus.
  • the sensor 804 includes various detection sensors such as a state detection sensor for detecting the state of the information processing system 10 and its peripheral circuits.
  • Examples of the sensor 804 include a positioning sensor, an inclination sensor, an acceleration sensor, a gyro sensor, an orientation sensor, a temperature sensor, a humidity sensor, and an illuminance sensor.
  • a detection signal from the sensor 804 is sent to the CPU 801. Thereby, the CPU 801 can know the state of the information processing system 10 (position, inclination, acceleration, angular velocity, direction, temperature, humidity, illuminance, etc.).
  • the input device 808 generates an input signal based on an input by the user, such as a mouse, a keyboard, a touch panel, a button (power button, etc.), a microphone, a switch, a dial, and a lever, and an operation unit for the user to input information.
  • An input control circuit for outputting to the CPU 801 is configured.
  • a user of the information processing system 10 can input various data and instruct a processing operation to the information processing system 10 by operating the input device 808.
  • the position in which these operation parts are provided is not specifically limited.
  • the operation unit may be provided on the side surface of the housing of the information processing system 10 or may be provided on the same surface as the surface on which the display is provided.
  • the output device 810 may include a display device such as an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), and a lamp. Further, the output device 810 may include an audio output device such as a speaker and headphones. For example, the display device displays a captured image or a generated image. On the other hand, the audio output device converts audio data or the like into audio and outputs it.
  • a display device such as an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), and a lamp.
  • the output device 810 may include an audio output device such as a speaker and headphones.
  • the display device displays a captured image or a generated image.
  • the audio output device converts audio data or the like into audio and outputs it.
  • the storage device 811 is a data storage device configured as an example of a storage unit of the information processing system 10.
  • the storage device 811 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 811 stores programs executed by the CPU 801 and various data.
  • the drive 812 is a reader / writer for a storage medium, and is built in or externally attached to the information processing system 10.
  • the drive 812 reads information recorded on a removable storage medium such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 803.
  • the drive 812 can also write information in a removable storage medium.
  • the image pickup apparatus 813 uses various members such as an image pickup element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and a lens for controlling the formation of a subject image on the image pickup element. It is an apparatus that images a real space and generates a captured image.
  • the imaging device 813 may capture a still image, or may capture a moving image.
  • the communication device 815 communicates with an external device via a network (or directly).
  • the communication device 815 may be an interface for wireless communication, and may include, for example, a communication antenna, an RF (Radio Frequency) circuit, a baseband processor, and the like.
  • a specific example of an interface for wireless communication is CDMA (Code Division Multiple). Access), W-CDMA (Wideband Code Division Multiple Access), LTE (Long Term Evolution), and communication units such as modems corresponding to Wi-fi (registered trademark) (Wireless Fidelity).
  • the communication device 815 may be an interface for wired communication, and may include, for example, a connection terminal, a transmission circuit, and other communication processing circuits. Further, the CPU 801 and the communication device 815 may be configured by one chip or may be realized as separate devices. Although not shown in FIG. 15, the information processing system 10 may be driven by power supplied from a power source such as a rechargeable battery, and the power source is connected to the information processing system 10. On the other hand, it may be configured to be detachable.
  • a power source such as a rechargeable battery
  • the display unit 150 and the storage unit 140 can be realized by the output device 810 and the storage device 811, respectively.
  • the control unit 110 can be realized by the CPU 801. Therefore, a program for causing a computer to function as the information processing system 10 having the control unit 110 is held in the storage device 811, the ROM 802, or the RAM 803, and the CPU 801 can execute the program.
  • the configuration for outputting the display control information to the display unit 150 corresponds to an example of the “output unit”.
  • the output unit may be realized by a device such as a signal line positioned between the CPU 801 and the bus illustrated in FIG.
  • the display control information can be realized by, for example, a video signal such as an RGB signal or an HDMI (High-Definition Multimedia Interface) signal for the CPU 801 to control the output device 810 (for example, a display).
  • each of the detection unit 120, the display unit 150, the control unit 110, and the storage unit 140 may be provided in different information processing apparatuses connected via a network.
  • the information processing apparatus provided with the control unit 110 and the storage unit 140 corresponds to, for example, a server such as a web server or a cloud server, and the detection unit 120 and the display unit 150 are connected to the server via the network.
  • a configuration in which the server having the control unit 110 transmits display control information to the client via a network (for example, a modem) Communication interface) corresponds to an example of an “output unit”.
  • the content of the display control information may be changed as appropriate according to the system configuration.
  • the display control information is HTML (HyperText Markup Language), SGML (Standard Generalized Markup Language), XML (Extensible Markup), etc. It may be realized by a markup language.
  • the display control information described above is merely an example, and a method for transmitting / receiving information between the display control unit 114 and the display unit 150, a type of transmission path, or a medium used for transmission / reception of information (for example, , And may be appropriately changed according to a radio signal or light).
  • the line-of-sight detection unit that detects the line of sight of the user
  • the operation detection unit that detects an operation in space by the user
  • the pointing position is determined based on the operation.
  • An information processing system is provided that moves the pointing position based on the line of sight when a predetermined operation is detected. According to such a configuration, the pointing position can be easily moved to a position desired by the user.
  • the position control unit 113 may determine the pointing positions of each of the plurality of users. Further, when a predetermined operation is detected, the position control unit 113 may move the user's pointing position according to the line of sight of the user who performed the operation.
  • the display control unit 114 may display a cursor at the pointing position of each of a plurality of users. At this time, the cursors of the plurality of users may be different for each user. For example, the display control unit 114 may display the cursor in a different color for each user. In such a case, the display control unit 114 may match the color of the cursor with the color of the detection unit 120 operated by the user. The color of the detection unit 120 may be recognized from the image by the display control unit 114, or may be determined according to the ID of the detection unit 120 registered in the information processing system 10.
  • the operation of the information processing system 10 does not necessarily have to be performed in chronological order in the order described in the flowchart.
  • the operation of the information processing system 10 may be performed in an order different from the order described in the flowchart, or at least some of the operations described in the flowchart may be performed in parallel.
  • a line-of-sight detector that detects the line of sight of the user; An operation detection unit for detecting an operation in space by the user; A position controller that determines a pointing position based on the operation, The position control unit moves the pointing position based on the line of sight when a predetermined operation is detected; Information processing system.
  • the information processing system includes a display control unit that displays a predetermined object when the predetermined operation is detected. The information processing system according to (1).
  • the position control unit fixes the pointing position until a predetermined time elapses after at least the predetermined object is displayed; The information processing system according to (2).
  • the display control unit performs a predetermined feedback when the predetermined operation is detected when the line of sight is not detected.
  • the display control unit displays a predetermined indicator when the line of sight is not detected.
  • the display control unit changes a cursor when the line of sight is not detected.
  • the operation detection unit detects the predetermined operation based on detection data.
  • the operation detection unit detects a predetermined state recognized from the detection data as the predetermined operation;
  • the operation detection unit detects a predetermined movement recognized from the detection data as the predetermined operation; The information processing system according to (7).
  • the display control unit displays a cursor at the pointing position; The information processing system according to any one of (2) to (9).
  • the display control unit performs predetermined feedback when the predetermined operation is detected when the line of sight is not detected in a state where the cursor is displayed.
  • (12) The display control unit hides the cursor when a predetermined cursor non-display condition is satisfied, The information processing system according to any one of (2) to (11).
  • the position control unit moves the pointing position based on the line of sight when the predetermined operation is detected in a state where the cursor is hidden.
  • the position control unit when a predetermined redisplay operation is detected at the time of non-detection of the line of sight in a state where the cursor is hidden, the pointing at the position of the cursor when the cursor is hidden Determine the position, The information processing system according to (12).
  • the position control unit determines the pointing position inside or outside a display area based on the operation; The information processing system according to any one of (2) to (14).
  • the display control unit fixes the position of the cursor to an end of the display area when the pointing position does not fit inside the display area.
  • the display control unit changes the cursor according to a distance between the pointing position and an end of the display area when the pointing position does not fit inside the display area.
  • the position control unit fixes the pointing position to an end of the display area when the pointing position does not fit inside the display area.
  • Computer A line-of-sight detector that detects the line of sight of the user; An operation detection unit for detecting an operation in space by the user; A position controller that determines a pointing position based on the operation, The position control unit moves the pointing position based on the line of sight when a predetermined operation is detected; A program for functioning as an information processing system.

Abstract

【課題】ポインティング位置をユーザの所望する位置に容易に移動させることが可能な技術を提供する。 【解決手段】ユーザの視線を検出する視線検出部と、前記ユーザによる空間上の操作を検出する操作検出部と、前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、情報処理システムが提供される。

Description

情報処理システム、情報処理方法およびプログラム
 本開示は、情報処理システム、情報処理方法およびプログラムに関する。
 近年、ユーザによるポインティング位置を制御する手法として様々な手法が開示されている。例えば、センサによって検出された動きに基づいてポインティング位置を決定させる手法が開示されている。一例として、ジャイロセンサによって検出された角速度に基づいてポインティング位置を決定する手法が開示されている(例えば、特許文献1参照)。
国際公開第2009/008372号
 しかしながら、ポインティング位置を制御するに際して、ポインティング位置をユーザの所望する位置に容易に移動させることが可能な技術が提供されることが望ましい。
 本開示によれば、ユーザの視線を検出する視線検出部と、前記ユーザによる空間上の操作を検出する操作検出部と、前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、情報処理システムが提供される。
 本開示によれば、ユーザの視線を検出することと、前記ユーザによる空間上の操作を検出することと、前記操作に基づいてポインティング位置を決定することと、を含み、プロセッサにより所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させること、を含む、情報処理方法が提供される。
 本開示によれば、コンピュータを、ユーザの視線を検出する視線検出部と、前記ユーザによる空間上の操作を検出する操作検出部と、前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、情報処理システムとして機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、ポインティング位置を制御するに際して、ポインティング位置をユーザの所望する位置に容易に移動させることが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの概要を説明するための図である。 同実施形態に係る情報処理システムの機能構成例を示す図である。 ユーザによる操作を所定の操作として検出するための条件の例を説明するための図である。 ユーザによる操作を所定の操作として検出するための条件の例を説明するための図である。 ユーザによる操作を所定の操作として検出しないための条件の例を説明するための図である。 所定の操作が検出された場合における位置移動前のカーソル表示例を示す図である。 所定の操作が検出された場合におけるオブジェクト表示例を示す図である。 所定の操作が検出された場合における位置移動後のカーソル表示例を示す図である。 本開示の実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 ポインティング位置が表示領域の端部に達した場合におけるカーソル表示の第一の例を示す図である。 ポインティング位置が表示領域の内部に収まらない場合におけるカーソル表示の第一の例を示す図である。 ポインティング位置が表示領域の端部に達した場合におけるカーソル表示の第二の例を示す図である。 ポインティング位置が表示領域の内部に収まらない場合におけるカーソル表示の第二の例を示す図である。 本開示の実施形態に係る情報処理システムの機能構成の変形例を示す図である。 同実施形態に係る情報処理システムのハードウェア構成例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 1.情報処理システムの概要
 2.情報処理システムの機能構成例
 3.情報処理システムの機能詳細
 4.情報処理システムの機能構成の変形例
 5.情報処理システムのハードウェア構成例
 6.むすび
 <1.情報処理システムの概要>
 まず、本開示の実施形態に係る情報処理システム10の概要について説明する。図1は、本開示の実施形態に係る情報処理システム10の概要を説明するための図である。図1を参照すると、情報処理システム10は、検出部120、撮像部130および表示部150を備えている。表示部150は表示領域151を有し、表示領域151に画面を表示する。表示領域151に表示される画面は特に限定されない。図1に示したように、ユーザUは、表示領域151に表示された画面を閲覧可能な位置に存在してよい。
 検出部120は、所定の検出データを検出する。検出部120によって検出された検出データは、ユーザUによるポインティング位置Pの決定に用いられる。本明細書においては、検出部120がジャイロセンサを含み、検出部120の初期姿勢とジャイロセンサによって検出された角速度とに応じた表示領域151におけるXY座標をポインティング位置Pとして算出する例を主に説明する。かかるポインティング位置Pの算出の詳細は、特許文献1(国際公開第2009/008372号)に開示されている。しかし、ユーザUによるポインティング位置Pの決定は、後に説明するようにどのようになされてもよい。
 また、図1に示すように、表示部150は、ポインティング位置PにカーソルCuを表示してよい。図1に示した例では、カーソルCuは、鮮明度の高い白抜きの矢印によって示されているが、カーソルCuの色、形状、鮮明度などは限定されない。例えば、カーソルCuの形状は、後に説明するように楕円や円などであってもよい。また、カーソルCuは、表示領域151に表示される他のオブジェクトよりも鮮明度が低くてもよい。また、表示部150は、ポインティング位置PにカーソルCuを表示しなくてもよい。
 例えば、表示領域151にオブジェクトが表示されている場合、そのオブジェクトにポインティング位置Pが合わせられた状態においてユーザUによって所定の決定操作がなされると、このオブジェクトに対応する動作が実行されてよい。表示領域151に表示されるオブジェクトは特に限定されず、静止画であってもよいし、動画であってもよいし、ボタンであってもよいし、文字列であってもよい。
 また、所定の決定操作も特に限定されず、検出部120に設けられたボタンを押下する操作であってもよいし、検出部120が所定の動きを示すように検出部120を動かす操作であってもよい。オブジェクトに対応する動作も特に限定されず、オブジェクトに対応する画面への遷移であってよい。撮像部130は、ユーザUの身体の一部または全部を含む画像を撮像する機能を有する。ユーザUの身体の一部が撮像される場合、ユーザUの身体の一部は、ユーザUの顔領域であってもよいし、ユーザUの目領域であってもよい。
 ここで、検出部120によって検出された検出データに基づいてポインティング位置Pが決定される場合、ポインティング位置Pをユーザの所望する位置に容易に移動させることが可能な技術が提供されることが望ましい。そこで、本明細書においては、検出部120によって検出された検出データに基づいてポインティング位置Pが決定される場合、ポインティング位置Pをユーザの所望する位置に容易に移動させることが可能な技術を提案する。
 具体的な事例としては、ポインティング位置Pがユーザの所望する位置から外れてしまう可能性もある。このようにポインティング位置Pがユーザの所望する位置から外れてしまう原因としては、ユーザUの意図とは無関係にポインティング位置Pが動いてしまうドリフト現象や、ポインティング位置Pの初期位置がユーザの所望する位置から外れてしまっていることなどが想定される。ポインティング位置Pをユーザの所望する位置に容易に移動させる技術は、このような状況に対して特に有効に適用され得る。
 以上、本開示の実施形態に係る情報処理システム10の概要について説明した。
 <2.情報処理システムの機能構成例>
 続いて、本開示の実施形態に係る情報処理システム10の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理システム10の機能構成例を示す図である。図2に示すように、情報処理システム10は、制御部110、検出部120、撮像部130、記憶部140および表示部150を備える。
 制御部110は、記憶部140または他の記憶媒体に記憶されるプログラムを実行することにより制御部110が有する様々な機能を発揮する。図2に示すように、制御部110は、視線検出部111、操作検出部112、位置制御部113および表示制御部114などの各機能ブロックを有する。これら各機能ブロックが有する機能の詳細については後に説明する。
 なお、制御部110は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、SoC(System on Chip)などのプロセッサにより構成されてよい。また、制御部110は、各種の演算処理を実行するための電子回路により構成されてよい。
 検出部120は、所定の検出データを検出して制御部110に出力する。本明細書においては、検出部120がジャイロセンサを含む場合を主に説明するが、検出部120は他のセンサを含んでもよい。例えば、検出部120は3軸加速度センサを含んでもよい。また、後に説明するように、撮像部130によってユーザによる空間上の動きが検出される場合には、情報処理システム10は、検出部120を備えなくてもよい。なお、図2に示した例では、検出部120は情報処理システム10と一体化されているが、検出部120は、情報処理システム10と別体に構成されていてもよい。
 撮像部130は、画像を撮像するカメラモジュールである。撮像部130は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、画像を生成する。撮像部130により生成される画像は、制御部110に出力される。なお、図2に示した例では、撮像部130は情報処理システム10と一体化されているが、撮像部130は、情報処理システム10と別体に構成されていてもよい。例えば、情報処理システム10と有線または無線で接続される撮像装置が撮像部130として扱われてもよい。
 記憶部140は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部140は、プログラムによって使用される各種のデータを記憶することもできる。なお、図2に示した例では、記憶部140は情報処理システム10と一体化されているが、記憶部140は情報処理システム10と別体に構成されていてもよい。
 表示部150は、制御部110による制御に従って、各種情報の表示を行う。表示部150は、LCD(Liquid Crystal Display)により実現されてもよいし、有機EL(Electro-luminescence)ディスプレイにより実現されてもよいし、プロジェクタにより実現されてもよいし、ホログラムディスプレイにより実現されてもよい。なお、図2に示した例では、表示部150は情報処理システム10と一体化されているが、表示部150は情報処理システム10と別体に構成されていてもよい。例えば、情報処理システム10と有線または無線で接続される表示装置が表示部150として扱われてもよい。
 以上、本開示の実施形態に係る情報処理システム10の機能構成例について説明した。
 <3.情報処理システムの機能詳細>
 続いて、本開示の実施形態に係る情報処理システム10の機能詳細について説明する。情報処理システム10において、視線検出部111は、ユーザの視線を検出する。視線検出部111によるユーザの視線の検出手法は特に限定されない。例えば、視線検出部111は、撮像部130によって撮像された画像に目領域が映っている場合には、目領域に基づいてユーザの視線を検出すればよい。より詳細には、視線検出部111は、目領域に対するパターンマッチングによりユーザの視線を検出してよい。
 操作検出部112は、検出データに基づいてユーザによる空間上の操作を検出する。そして、位置制御部113は、操作検出部112によって検出された操作に基づいてポインティング位置Pを決定する。本明細書においては、位置制御部113が、検出部120の初期姿勢とジャイロセンサによって検出された角速度とに応じた表示領域151におけるXY座標をポインティング位置Pとして算出する例を主に説明する。しかし、ポインティング位置Pの決定は、後に説明するようにどのようになされてもよい。
 また、位置制御部113は、操作検出部112によって所定の操作が検出された場合にユーザの視線に基づいてポインティング位置Pを移動させる。そうすれば、ポインティング位置Pをユーザの所望する位置に容易に移動させることが可能となる。操作検出部112によって検出される所定の操作は特に限定されない。例えば、操作検出部112は、検出データに基づいて所定の操作を検出してよい。例えば、操作検出部112は、検出データから認識される所定の動きを所定の操作として検出してよい。
 なお、本明細書においては、検出部120の初期姿勢とジャイロセンサによって検出された角速度とに応じた表示領域151におけるXY座標の所定の変化を所定の動きとして扱う場合を主に説明するが、所定の動きは特に限定されない。例えば、加速度センサによって検出される加速度の所定の変化が所定の動きとして扱われてもよいし、ジャイロセンサによって検出される角速度の所定の変化が所定の動きとして扱われてもよい。また、後に説明するように、操作検出部112は、検出データから認識される所定の状態を所定の操作として検出してもよい。
 ここで、所定の操作の例について、図3および図4を参照しながら、さらに詳細に説明する。図3および図4は、ユーザによる操作を所定の操作として検出するための条件の例を説明するための図である。図3には、ポインティング位置Pの軌跡が示されており、開始位置Psおよび終了位置Peが示されている。例えば、操作検出部112は、所定方向の動きの変化が所定の条件を満たした場合に、所定の操作を検出してもよい。図3には、所定時間内に水平方向の反転が上限回数を超えた場合に、操作検出部112によって所定の操作が検出される例が示されている。
 なお、図3には、上限回数が3回である場合が例として示されているが、上限回数は特に限定されない。また、所定方向も水平方向に限定されず、垂直方向であってもよく、他の方向であってもよい。また、所定時間も特に限定されない。例えば、図4に示したように、操作検出部112は、反転1回目から所定時間tの間に反転3回目を検出した場合には、所定の操作を検出してもよい。所定時間tは特に限定されないが、例えば、400msであってもよい。また、操作検出部112は、反転1回目から所定時間tの間に反転3回目が検出されなかった場合には、反転1回目からの経過時間をリセットしてよい。
 図3には、所定時間内に水平方向の反転が上限回数を超えた場合に、操作検出部112によって所定の操作が検出される例を示したが、所定の操作が検出される例はかかる例に限定されない。例えば、検出データから認識される動きによって所定の軌跡が描かれた場合に、操作検出部112によって所定の操作が検出されてもよい。所定の軌跡は特に限定されないが、円であってもよいし、所定の文字や所定の記号などの筆跡であってもよい。
 以上に説明したようにして、操作検出部112によって所定の操作が検出され得るが、所定の操作は誤って検出されてしまう可能性もある。例えば、ユーザが垂直方向に検出部120を持ち上げた場合、検出部120が水平方向にも振動してしまい、所定時間内に水平方向の反転が上限回数を超えてしまう場合もあり得る。そこで、所定の動きが検出されたとしても、所定の操作が検出されない場合があってもよい。具体的な例について図5を参照しながら、さらに詳細に説明する。
 図5は、ユーザによる操作を所定の操作として検出しないための条件の例を説明するための図である。例えば、操作検出部112は、所定時間内に水平方向の反転が上限回数を超えたとしても、所定時間におけるポインティング位置Pの垂直方向への移動量M(図5参照)が上限量を超える場合には、所定の操作を検出しなくてよい。また、例えば、所定時間内に水平方向の反転が上限回数を超えたとしても、所定時間におけるポインティング位置Pの水平方向への振れ幅W(図5参照)が下限量を超える場合には、所定の操作を検出しなくてよい。
 図6~図8を参照しながら、情報処理システム10の機能についてさらに詳細に説明する。図1に示した例において、ユーザUがポインティング位置Pを移動させたいと考えた場合を想定する。かかる場合、ユーザUは所定の操作が検出されるようにジェスチャを行う。そうすれば、操作検出部112によって所定の操作が検出され、位置制御部113によってポインティング位置Pが視線に基づいて移動される。図6は、所定の操作が検出された場合における位置移動前のカーソル表示例を示す図である。
 図6を参照すると、表示制御部114がポインティング位置PにカーソルCuを表示させている。ここで、ユーザUがポインティング位置Pを移動させたいと考えた場合を想定する。かかる場合、ユーザUは、検出部120を水平方向に振り、ポインティング位置Pを移動させたいと考える位置に視線を移動させる。すると、例えば、所定時間内に水平方向の反転が上限回数を超えた場合に、操作検出部112によって所定の操作が検出され、視線に基づいてポインティング位置Pが移動される。例えば、ポインティング位置Pの移動先は、ユーザUの視線と表示領域151との交点であってよい。図6を参照すると、かかる交点は視点Vとして示されている。
 所定の操作が検出された旨はユーザに把握されるのがよい。そこで、表示制御部114は、所定の操作が検出された場合に所定のオブジェクトを表示させるようにするとよい。図7は、所定の操作が検出された場合におけるオブジェクト表示例を示す図である。図7に示すように、表示制御部114は、所定の操作が検出された場合に、オブジェクトObjを表示させてよい。オブジェクトObjは、どのようなオブジェクトであってもよいが、ポインティング位置Pを基準としたオブジェクトであるとよい。図7には、オブジェクトObjがポインティング位置Pを中心とした円である場合が例として示されている。
 所定の操作が検出された場合、ポインティング位置Pの制御は継続されてもよいが、所定の操作が検出されるようにユーザUがジェスチャを行っている間もポインティング位置Pが移動してしまうと、ポインティング位置PがユーザUの意志に反して移動してしまう可能性もある。そこで、位置制御部113は、少なくともオブジェクトObjが表示されてから所定時間が経過するまでポインティング位置Pを固定するとよい。
 図7には、徐々にオブジェクトObjが小さくなっていき、オブジェクトObjの表示が開始されてから所定時間が経過したときには、オブジェクトObjが視点Vに収束してオブジェクトObjの表示が終了される動画である場合が例として示されている。この例のように、表示制御部114は、ポインティング位置Pが固定されている期間がユーザUに把握されるようなオブジェクトを表示させるとよい。そうすれば、ユーザUは、ポインティング位置Pの移動が再開されるタイミングを把握することが可能となる。
 図8は、所定の操作が検出された場合における位置移動後のカーソル表示例を示す図である。図8に示すように、表示制御部114は、このようにしてユーザUの視線に基づいて移動されたポインティング位置PにカーソルCuを表示させてよい。また、ポインティング位置Pが固定されていない場合には、位置制御部113は、検出データに基づいてポインティング位置Pを制御することが可能となる。かかる場合、表示制御部114は、ポインティング位置Pの移動に合わせてカーソルCuを移動させてよい。
 なお、ユーザUの視線が検出されていないときには、所定の操作が検出されても視線に応じたポインティング位置Pの移動がなされないため、ユーザUにフィードバックがなされるとよい。例えば、表示制御部114は、視線の非検出時に所定のインジケータを表示させてもよい。インジケータは特に限定されないが、視線が検出されていない旨を示すオブジェクト(例えば、メッセージなど)の表示であってもよい。また、表示制御部114は、視線の非検出時にカーソルCuを変化させてもよい。カーソルCuをどのように変化させるかは限定されないが、カーソルCuの色、形状および鮮明度の少なくとも何れか1つを変化させてもよい。
 また、ユーザUの視線が検出されていないときに所定の操作が検出された場合には、視線に応じたポインティング位置Pの移動がなされないため、ユーザUにフィードバックがなされるとよい。すなわち、表示制御部114は、視線の非検出時に所定の操作が検出された場合には、所定のフィードバックを行うとよい。フィードバックの手法は特に限定されないが、視線が検出されていない旨を示すオブジェクト(例えば、メッセージなど)の表示であってもよい。
 カーソルCuは常に表示され続けてもよいが、所定のカーソル非表示条件が満たされた場合には非表示にされてもよい。すなわち、表示制御部114は、所定のカーソル非表示条件が満たされた場合にカーソルCuを非表示にしてもよい。カーソル非表示条件は特に限定されないが、表示制御部114は、検出データから検出される動き量が閾値を下回る時間が所定時間継続された場合には、カーソルCuを非表示にしてもよい。かかる場合には、ユーザUがポインティング位置Pを変更する意図を有していないと考えられるからである。
 また、カーソルCuが表示されているか否かによって異なる制御がなされてもよい。例えば、表示制御部114は、カーソルCuが表示されている状態において視線の非検出時に所定の操作が検出された場合に、所定のフィードバックを行ってもよい。フィードバックの手法は特に限定されないが、視線が検出されていない旨を示すオブジェクト(例えば、メッセージなど)の表示であってもよい。
 一方、位置制御部113は、カーソルCuが非表示にされた状態において所定の操作が検出された場合に、視線に基づいてポインティング位置Pを移動させてよい。そうすれば、ポインティング位置Pをユーザが見失う可能性を低減することが可能になるという効果を奏し得る。表示領域151が大きくなるほど、かかる効果が顕著になり得る。ポインティング位置Pの移動先は、ユーザUの視線と表示領域151との交点であってよい。
 また、位置制御部113は、カーソルCuが非表示にされた状態において視線の非検出時に所定の再表示操作が検出された場合には、視線に応じたポインティング位置Pの移動がなされない。そのため、かかる場合には、位置制御部113は、カーソルCuを非表示にしたときのカーソルCuの位置にポインティング位置Pを決定してもよい。所定の再表示操作は特に限定されないが、検出データに基づいて検出される動きのない状態から動きのある状態への遷移であってもよい。
 続いて、図9を参照しながら、本開示の実施形態に係る情報処理システム10の動作の流れを説明する。図9は、本開示の実施形態に係る情報処理システム10の動作の流れを示すフローチャートである。なお、図9に示した動作の流れは、情報処理システム10の動作の流れの一例を示したに過ぎない。したがって、情報処理システム10の動作の流れは、図9に示した例に限定されない。
 操作検出部112は、検出データに基づいてユーザによる空間上の操作を検出する(S11)。続いて、位置制御部113は、操作検出部112によって検出された操作に基づいてポインティング位置を決定する(S12)。続いて、表示制御部114は、ポインティング位置にカーソルを表示させる(S13)。なお、カーソルは表示されなくてもよい。続いて、視線検出部111は、ユーザの視線を検出する(S14)。ここでは、S13の後に、視線検出部111による視線検出がなされる例が示されているが、視線検出部111による視線検出のタイミングは、S13の後に限定されない。
 続いて、位置制御部113は、操作検出部112によって所定の操作が検出されたか否かを判断する(S15)。位置制御部113は、操作検出部112によって所定の操作が検出されなかった場合には(S15において「No」)、制御部110は、動作をS11に移行させる。一方、位置制御部113は、操作検出部112によって所定の操作が検出された場合には(S15において「Yes」)、視線に基づいてポインティング位置を移動させる(S16)。このようにしてポインティング位置が移動されれば、ポインティング位置をユーザの所望する位置に容易に移動させることが可能となる。
 所定の操作が検出された旨はユーザに把握されるのがよい。そこで、表示制御部114は、所定のオブジェクトを表示させる(S17)。また、所定の操作が検出されるようにユーザがジェスチャを行っている間もポインティング位置が移動してしまうと、ポインティング位置がユーザの意志に反して移動してしまう可能性もある。そのため、位置制御部113は、少なくともオブジェクトが表示されてから所定時間が経過するまでポインティング位置を固定する(S18)。また、表示制御部114は、ポインティング位置にカーソルを移動させる(S19)。
 制御部110は、動作を継続させるか否かを判断し(S20)、動作を継続させると判断した場合には(S20において「Yes」)、動作をS11に移行させる。一方、制御部110は、動作を終了させると判断した場合には(S20において「No」)、動作を終了させる。以上、図9を参照しながら、本開示の実施形態に係る情報処理システム10の動作の流れを説明した。
 ユーザによる空間上の操作に基づいてポインティング位置が移動された場合、ポインティング位置が表示領域151に収まらなくなるような状況も想定される。かかる状況においては、カーソルの位置は表示領域151の外部に表示され得ないため、ポインティング位置が表示領域151の内部に収まらない場合、表示制御部114は、カーソルの位置を表示領域151の端部に固定すればよい。
 一方、ポインティング位置は、表示領域151の内部であってもよいし、表示領域151の外部であってもよい。すなわち、位置制御部113は、ユーザによる空間上の操作に基づいてポインティング位置を表示領域151の内部または外部に決定してよい。第一の例として、位置制御部113は、ポインティング位置が表示領域151の内部に収まらない場合、ポインティング位置を表示領域151の端部に固定してよい。かかる第一の例によれば、ポインティング位置がユーザの所望する位置からずれてしまった場合に、ポインティング位置を表示領域151の端部に固定して補正することができる。かかる第一の例について、図10および図11を参照しながら、詳細に説明する。
 図10は、ポインティング位置Pが表示領域151の端部に達した場合におけるカーソル表示の第一の例を示す図である。図10を参照すると、位置制御部113がユーザによる空間上の操作に基づいてポインティング位置Pを決定した結果、ポインティング位置Pが表示領域151の端部に達している。また、表示制御部114は、ポインティング位置PにカーソルCuの位置を表示させている。この状況において、ポインティング位置Pが表示領域151の外部に移動されるような操作がなされることを想定する。
 図11は、ポインティング位置Pが表示領域151の内部に収まらない場合におけるカーソル表示の第一の例を示す図である。図11を参照すると、カーソルCuの位置は表示領域151の外部に表示され得ないため、ポインティング位置Pが表示領域151の内部に収まらない場合、表示制御部114は、カーソルCuの位置を表示領域151の端部に固定している。また、位置制御部113は、ポインティング位置Pが表示領域151の内部に収まらない場合、ポインティング位置Pを表示領域151の端部に固定している。
 以上、第一の例においては、ポインティング位置が表示領域151の内部に収まらない場合、ポインティング位置が表示領域151の端部に固定されることとしたが、ポインティング位置は他の手法により制御されてもよい。第二の例として、位置制御部113は、ポインティング位置が表示領域151の内部に収まらない場合、ポインティング位置を表示領域151の外部に移動させるようにしてもよい。かかる第二の例によれば、ポインティング位置が表示領域151に収まらない状況が生じても、ポインティング位置がユーザの所望する位置からずれてしまう可能性が低減され得る。かかる第二の例について、図12および図13を参照しながら、詳細に説明する。
 図12は、ポインティング位置Pが表示領域151の端部に達した場合におけるカーソル表示の第二の例を示す図である。図12を参照すると、位置制御部113がユーザによる空間上の操作に基づいてポインティング位置Pを決定した結果、ポインティング位置Pが表示領域151の端部に達している。また、表示制御部114は、ポインティング位置PにカーソルCuの位置を表示させている。この状況において、ポインティング位置Pが表示領域151の外部に移動されるような操作がなされることを想定する。
 図13は、ポインティング位置Pが表示領域151の内部に収まらない場合におけるカーソル表示の第二の例を示す図である。図13を参照すると、カーソルCuの位置は表示領域151の外部に表示され得ないため、ポインティング位置Pが表示領域151の内部に収まらない場合、表示制御部114は、カーソルCuの位置を表示領域151の端部に固定している。また、図13を参照すると、位置制御部113は、ポインティング位置Pが表示領域151の内部に収まらない場合、表示領域151を拡張した仮想平面におけるXY座標にポインティング位置Pを決定している。
 ここで、ポインティング位置Pが表示領域151の外部に存在する場合、カーソルCuの位置は表示領域151の内部にしか表示されないため、ユーザは、ポインティング位置Pがどこにあるのかを把握できない状況が起こり得る。そこで、図13に示したように、表示制御部114は、ポインティング位置Pが表示領域151の内部に収まらない場合、ポインティング位置Pと表示領域151の端部との距離Dに応じてカーソルCuを変化させるとよい。
 図13には、表示制御部114が、距離Dが大きくなるほどカーソルCuの変形度合いを強める例が示されている。しかし、カーソルCuの変化は、カーソルCuの色の変化であってもよい。例えば、表示制御部114は、距離Dが大きくなるほどカーソルCuの色の変化を大きくしてもよい。また、カーソルCuの変化は、カーソルCuの鮮明度であってもよい。例えば、表示制御部114は、距離Dが大きくなるほどカーソルCuの鮮明度の変化を大きくしてもよい。
 以上、本開示の実施形態に係る情報処理システム10の機能詳細について説明した。
 <4.情報処理システムの機能構成の変形例>
 以上に説明したように、操作検出部112は、検出データに基づいてユーザによる空間上の操作を検出する。上記では、検出データが検出部120によって検出される例を示したが、検出部120によって検出される検出データの代わりに、撮像部130によって撮像された画像が用いられてもよい。
 図14は、本開示の実施形態に係る情報処理システム10の機能構成の変形例を示す図である。図14に示したように、検出部120によって検出される検出データの代わりに、撮像部130によって撮像された画像が用いられる場合、情報処理システム10は検出部120を有していなくてもよい。例えば、操作検出部112は、撮像部130によって撮像された画像から所定の認識対象を認識し、認識対象の動きまたは状態に基づいて操作を検出してよい。認識対象は、ユーザによって動かされる物体であってもよいし、ユーザ自身の身体であってもよい。ユーザ自身の身体は、ユーザ自身の身体の一部であってもよいし、ユーザ自身の身体の全部であってもよい。
 例えば、ユーザによって動かされる物体の方向が操作検出部112によって検出された場合、位置制御部113は、物体の方向に基づいてポインティング位置を決定してもよい。また、物体の動きが操作検出部112によって検出された場合、位置制御部113は、物体の動きに基づいてポインティング位置を決定してもよい。さらに、操作検出部112は、物体が所定の動きを示した場合に、所定の操作を検出してもよいし、物体が所定の状態となった場合に、所定の操作を検出してもよい。
 例えば、ユーザ自身の身体の方向が操作検出部112によって検出された場合、位置制御部113は、ユーザ自身の身体の方向に基づいてポインティング位置を決定してもよい。ユーザ自身の身体の方向は、ユーザの指が示す方向であってもよいし、肘から指先までの方向であってもよい。また、ユーザ自身の身体の動きが操作検出部112によって検出された場合、位置制御部113は、ユーザ自身の身体の動きに基づいてポインティング位置を決定してもよい。
 さらに、操作検出部112は、ユーザ自身の身体が所定の動きを示した場合に、所定の操作を検出してもよいし、ユーザ自身の身体が所定の状態となった場合に、所定の操作を検出してもよい。所定の動きは、ユーザが手を振る動きであってもよいし、他の動きであってもよい。また、所定の状態は、ユーザが手を広げた状態であってもよいし、ユーザが手を握った状態であってもよいし、他の状態であってもよい。
 <5.情報処理システムのハードウェア構成例>
 続いて、本開示の実施形態に係る情報処理システム10のハードウェア構成例について説明する。図15は、本開示の実施形態に係る情報処理システム10のハードウェア構成例を示す図である。ただし、図15に示したハードウェア構成例は、情報処理システム10のハードウェア構成の一例を示したに過ぎない。したがって、情報処理システム10のハードウェア構成は、図15に示した例に限定されない。
 図15に示したように、情報処理システム10は、CPU(Central Processing Unit)801と、ROM(Read Only Memory)802と、RAM(Random Access Memory)803と、センサ804と、入力装置808と、出力装置810と、ストレージ装置811と、ドライブ812と、撮像装置813と、通信装置815とを備える。
 CPU801は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理システム10内の動作全般を制御する。また、CPU801は、マイクロプロセッサであってもよい。ROM802は、CPU801が使用するプログラムや演算パラメータなどを記憶する。RAM803は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
 センサ804は、情報処理システム10の状態を検知するための状態検知センサなどの各種検知用センサとその周辺回路とを含む。センサ804としては、例として、測位センサ、傾きセンサ、加速度センサ、ジャイロセンサ、方位センサ、温度センサ、湿度センサ、照度センサなどを挙げることができる。センサ804による検知信号は、CPU801に送られる。これにより、CPU801は、情報処理システム10の状態(位置、傾き、加速度、角速度、方位、温度、湿度、照度など)を知ることができる。
 入力装置808は、マウス、キーボード、タッチパネル、ボタン(電源ボタンなど)、マイクロフォン、スイッチ、ダイヤルおよびレバーなどユーザが情報を入力するための操作部と、ユーザによる入力に基づいて入力信号を生成し、CPU801に出力する入力制御回路などから構成されている。情報処理システム10のユーザは、該入力装置808を操作することにより、情報処理システム10に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、これらの操作部が設けられる位置は特に限定されない。例えば、情報処理システム10の筐体側面に当該操作部が設けられてもよいし、ディスプレイが設けられる面と同一面上に設けられてもよい。
 出力装置810は、例えば、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)およびランプなどの表示装置を含んでよい。さらに、出力装置810は、スピーカおよびヘッドホンなどの音声出力装置を含んでもよい。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。
 ストレージ装置811は、情報処理システム10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置811は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置811は、CPU801が実行するプログラムや各種データを格納する。
 ドライブ812は、記憶媒体用リーダライタであり、情報処理システム10に内蔵、あるいは外付けされる。ドライブ812は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記憶媒体に記録されている情報を読み出して、RAM803に出力する。また、ドライブ812は、リムーバブル記憶媒体に情報を書き込むこともできる。
 撮像装置813は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置813は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
 通信装置815は、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信装置815は、無線通信用のインタフェースであってもよく、例えば、通信アンテナ、RF(Radio Frequency)回路、ベースバンドプロセッサなどを含んでもよい。無線通信用のインタフェースの具体的な例としては、CDMA(Code Division Multiple
Access)、W-CDMA(Wideband Code Division Multiple Access)、LTE(Long Term Evolution)、Wi-fi(登録商標)(Wireless Fidelity)のような通信方式に対応したモデムなどの通信ユニットが挙げられる。
 また、通信装置815は、有線通信用のインタフェースであってもよく、例えば、接続端子、伝送回路およびその他の通信処理用の回路を含んでもよい。また、CPU801と通信装置815とは1つのチップにより構成されてもよいし、別々のデバイスとして実現されてもよい。また、図15には図示していないが、情報処理システム10は、例えば、充電式電池のような電力源から供給される電力により駆動してもよく、当該電力源は、情報処理システム10に対して着脱可能に構成されていてもよい。
 以上、本開示の実施形態に係る情報処理システム10のハードウェア構成例について説明した。例えば、表示部150および記憶部140は、出力装置810およびストレージ装置811によりそれぞれ実現され得る。また、制御部110は、CPU801により実現され得る。したがって、コンピュータを制御部110を有する情報処理システム10として機能させるためのプログラムがストレージ装置811、ROM802またはRAM803に保持され、CPU801が当該プログラムを実行し得る。
 また、表示制御情報を表示部150に出力するための構成が、「出力部」の一例に相当する。具体的な一例として、出力部は、図15に示したCPU801とバスとの間に位置する信号線などのデバイスにより実現され得る。また、表示制御情報は、例えば、CPU801が出力装置810(例えば、ディスプレイなど)を制御するための、RGB信号やHDMI(High-Definition Multimedia Interface)信号などの映像信号により実現され得る。
 なお、上述した情報処理システム10の動作が実現されれば、図5に示した各構成の位置は特に限定されない。具体的な一例として、検出部120および表示部150と制御部110および記憶部140とのそれぞれが、ネットワークを介して接続された互いに異なる情報処理装置に設けられてもよい。この場合には、制御部110および記憶部140が設けられた情報処理装置が、例えば、ウェブサーバやクラウドサーバのようなサーバに相当し、検出部120および表示部150が当該サーバにネットワークを介して接続されたクライアントに相当し得る。
 上記に示すように、情報処理システム10が有する機能をクライアントおよびサーバにより実現した場合、制御部110を有するサーバが、ネットワークを介してクライアントに表示制御情報を送信するための構成(例えば、モデムなどの通信インタフェース)が、「出力部」の一例に相当する。
 また、情報処理システム10が有する機能をクライアントおよびサーバにより実現した場合には、表示制御情報の内容がシステム構成にあわせて適宜変更されてよい。具体的な一例として、クライアント側においてブラウザ上に前述した画面を表示させる場合には、表示制御情報は、HTML(HyperText Markup Language)、SGML(Standard Generalized Markup Language)、XML(Extensible Markup Language)などのマークアップ言語により実現されてもよい。
 また、上記に示す表示制御情報は、あくまで一例であり、表示制御部114と表示部150との間で情報を送受信するための方式、伝送路の種別、または、情報の送受信に用いる媒体(例えば、無線信号や光)に応じて適宜変更されてもよい。
 <6.むすび>
 以上説明したように、本開示の実施形態によれば、ユーザの視線を検出する視線検出部と、前記ユーザによる空間上の操作を検出する操作検出部と、前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、情報処理システムが提供される。かかる構成によれば、ポインティング位置をユーザの所望する位置に容易に移動させることが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記した例では、空間上の操作を行うユーザが1人である場合を主に説明したが、空間上の操作を行うユーザは複数人であってもよい。かかる場合には、位置制御部113によって複数のユーザそれぞれのポインティング位置が決定されてよい。また、位置制御部113は、所定の操作が検出された場合、その操作を行ったユーザの視線に応じてそのユーザのポインティング位置を移動させてよい。
 また、表示制御部114は、複数のユーザそれぞれのポインティング位置にカーソルを表示させてよい。このとき、複数のユーザそれぞれのカーソルはユーザごとに異なっていてもよい。例えば、表示制御部114は、ユーザごとに異なった色でカーソルを表示させてもよい。かかる場合、表示制御部114は、ユーザによって操作される検出部120の色にカーソルの色を合わせてもよい。検出部120の色は、表示制御部114によって画像から認識されてもよいし、情報処理システム10に登録されている検出部120のIDに応じて決められてもよい。
 また、例えば、情報処理システム10の動作は、必ずしもフローチャートに記載された順序に沿って時系列になされる必要はない。例えば、情報処理システム10の動作は、フローチャートに記載した順序と異なる順序でなされてもよいし、フローチャートに記載された動作の少なくとも一部が並列的になされてもよい。
 また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した情報処理システム10が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザの視線を検出する視線検出部と、
 前記ユーザによる空間上の操作を検出する操作検出部と、
 前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、
 前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、
 情報処理システム。
(2)
 前記情報処理システムは、前記所定の操作が検出された場合に所定のオブジェクトを表示させる表示制御部を備える、
 前記(1)に記載の情報処理システム。
(3)
 前記位置制御部は、少なくとも前記所定のオブジェクトが表示されてから所定時間が経過するまで前記ポインティング位置を固定する、
 前記(2)に記載の情報処理システム。
(4)
 前記表示制御部は、前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
 前記(2)または(3)に記載の情報処理システム。
(5)
 前記表示制御部は、前記視線の非検出時に所定のインジケータを表示させる、
 前記(2)~(4)のいずれか一項に記載の情報処理システム。
(6)
 前記表示制御部は、前記視線の非検出時にカーソルを変化させる、
 前記(2)~(4)のいずれか一項に記載の情報処理システム。
(7)
 前記操作検出部は、検出データに基づいて前記所定の操作を検出する、
 前記(1)~(6)のいずれか一項に記載の情報処理システム。
(8)
 前記操作検出部は、前記検出データから認識される所定の状態を前記所定の操作として検出する、
 前記(7)に記載の情報処理システム。
(9)
 前記操作検出部は、前記検出データから認識される所定の動きを前記所定の操作として検出する、
 前記(7)に記載の情報処理システム。
(10)
 前記表示制御部は、前記ポインティング位置にカーソルを表示させる、
 前記(2)~(9)のいずれか一項に記載の情報処理システム。
(11)
 前記表示制御部は、前記カーソルが表示されている状態において前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
 前記(10)に記載の情報処理システム。
(12)
 前記表示制御部は、所定のカーソル非表示条件が満たされた場合に前記カーソルを非表示にする、
 前記(2)~(11)のいずれか一項に記載の情報処理システム。
(13)
 前記位置制御部は、前記カーソルが非表示にされた状態において前記所定の操作が検出された場合に、前記視線に基づいて前記ポインティング位置を移動させる、
 前記(12)に記載の情報処理システム。
(14)
 前記位置制御部は、前記カーソルが非表示にされた状態において前記視線の非検出時に所定の再表示操作が検出された場合に、前記カーソルを非表示にしたときの前記カーソルの位置に前記ポインティング位置を決定する、
 前記(12)に記載の情報処理システム。
(15)
 前記位置制御部は、前記操作に基づいて前記ポインティング位置を表示領域の内部または外部に決定する、
 前記(2)~(14)のいずれか一項に記載の情報処理システム。
(16)
 前記表示制御部は、前記ポインティング位置が前記表示領域の内部に収まらない場合、前記カーソルの位置を前記表示領域の端部に固定する、
 前記(15)に記載の情報処理システム。
(17)
 前記表示制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置と前記表示領域の端部との距離に応じて前記カーソルを変化させる、
 前記(16)に記載の情報処理システム。
(18)
 前記位置制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置を前記表示領域の端部に固定する、
 前記(1)~(14)のいずれか一項に記載の情報処理システム。
(19)
 ユーザの視線を検出することと、
 前記ユーザによる空間上の操作を検出することと、
 前記操作に基づいてポインティング位置を決定することと、を含み、
 プロセッサにより所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させること、
 を含む、情報処理方法。
(20)
 コンピュータを、
 ユーザの視線を検出する視線検出部と、
 前記ユーザによる空間上の操作を検出する操作検出部と、
 前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、
 前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、
 情報処理システムとして機能させるためのプログラム。
 10  情報処理システム
 110 制御部
 111 視線検出部
 112 操作検出部
 113 位置制御部
 114 表示制御部
 120 検出部
 130 撮像部
 140 記憶部
 150 表示部
 151 表示領域
 Cu  カーソル
 D   距離
 Obj オブジェクト
 P   ポインティング位置
 U   ユーザ

Claims (20)

  1.  ユーザの視線を検出する視線検出部と、
     前記ユーザによる空間上の操作を検出する操作検出部と、
     前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、
     前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、
     情報処理システム。
  2.  前記情報処理システムは、前記所定の操作が検出された場合に所定のオブジェクトを表示させる表示制御部を備える、
     請求項1に記載の情報処理システム。
  3.  前記位置制御部は、少なくとも前記所定のオブジェクトが表示されてから所定時間が経過するまで前記ポインティング位置を固定する、
     請求項2に記載の情報処理システム。
  4.  前記表示制御部は、前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
     請求項2に記載の情報処理システム。
  5.  前記表示制御部は、前記視線の非検出時に所定のインジケータを表示させる、
     請求項2に記載の情報処理システム。
  6.  前記表示制御部は、前記視線の非検出時にカーソルを変化させる、
     請求項2に記載の情報処理システム。
  7.  前記操作検出部は、検出データに基づいて前記所定の操作を検出する、
     請求項1に記載の情報処理システム。
  8.  前記操作検出部は、前記検出データから認識される所定の状態を前記所定の操作として検出する、
     請求項7に記載の情報処理システム。
  9.  前記操作検出部は、前記検出データから認識される所定の動きを前記所定の操作として検出する、
     請求項7に記載の情報処理システム。
  10.  前記表示制御部は、前記ポインティング位置にカーソルを表示させる、
     請求項2に記載の情報処理システム。
  11.  前記表示制御部は、前記カーソルが表示されている状態において前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
     請求項10に記載の情報処理システム。
  12.  前記表示制御部は、所定のカーソル非表示条件が満たされた場合に前記カーソルを非表示にする、
     請求項2に記載の情報処理システム。
  13.  前記位置制御部は、前記カーソルが非表示にされた状態において前記所定の操作が検出された場合に、前記視線に基づいて前記ポインティング位置を移動させる、
     請求項12に記載の情報処理システム。
  14.  前記位置制御部は、前記カーソルが非表示にされた状態において前記視線の非検出時に所定の再表示操作が検出された場合に、前記カーソルを非表示にしたときの前記カーソルの位置に前記ポインティング位置を決定する、
     請求項12に記載の情報処理システム。
  15.  前記位置制御部は、前記操作に基づいて前記ポインティング位置を表示領域の内部または外部に決定する、
     請求項2に記載の情報処理システム。
  16.  前記表示制御部は、前記ポインティング位置が前記表示領域の内部に収まらない場合、カーソルの位置を前記表示領域の端部に固定する、
     請求項15に記載の情報処理システム。
  17.  前記表示制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置と前記表示領域の端部との距離に応じて前記カーソルを変化させる、
     請求項16に記載の情報処理システム。
  18.  前記位置制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置を前記表示領域の端部に固定する、
     請求項1に記載の情報処理システム。
  19.  ユーザの視線を検出することと、
     前記ユーザによる空間上の操作を検出することと、
     前記操作に基づいてポインティング位置を決定することと、を含み、
     プロセッサにより所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させること、
     を含む、情報処理方法。
  20.  コンピュータを、
     ユーザの視線を検出する視線検出部と、
     前記ユーザによる空間上の操作を検出する操作検出部と、
     前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、
     前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、
     情報処理システムとして機能させるためのプログラム。
     
PCT/JP2014/078117 2014-01-08 2014-10-22 情報処理システム、情報処理方法およびプログラム WO2015104884A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP14878312.9A EP3093738A4 (en) 2014-01-08 2014-10-22 Information processing system, information processing method, and program
CN201480072110.7A CN105874409A (zh) 2014-01-08 2014-10-22 信息处理系统、信息处理方法及程序
JP2015556712A JP6504058B2 (ja) 2014-01-08 2014-10-22 情報処理システム、情報処理方法およびプログラム
US15/038,329 US20160291692A1 (en) 2014-01-08 2014-10-22 Information processing system, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-001763 2014-01-08
JP2014001763 2014-01-08

Publications (1)

Publication Number Publication Date
WO2015104884A1 true WO2015104884A1 (ja) 2015-07-16

Family

ID=53523726

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/078117 WO2015104884A1 (ja) 2014-01-08 2014-10-22 情報処理システム、情報処理方法およびプログラム

Country Status (5)

Country Link
US (1) US20160291692A1 (ja)
EP (1) EP3093738A4 (ja)
JP (1) JP6504058B2 (ja)
CN (1) CN105874409A (ja)
WO (1) WO2015104884A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091327A (ja) * 2015-11-12 2017-05-25 富士通株式会社 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
WO2020195201A1 (ja) * 2019-03-25 2020-10-01 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
US11233941B2 (en) 2019-10-24 2022-01-25 Canon Kabushiki Kaisha Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium
JP7383471B2 (ja) 2019-12-20 2023-11-20 キヤノン株式会社 電子機器およびその制御方法
JP7455764B2 (ja) 2018-06-02 2024-03-26 マーシブ テクノロジーズ,インコーポレイティド モバイルデバイスを使用した共有ディスプレイの注釈システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107402691A (zh) * 2017-07-13 2017-11-28 深圳Tcl新技术有限公司 终端光标的显示方法、显示装置及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009008372A1 (ja) 2007-07-06 2009-01-15 Sony Corporation 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
WO2009072504A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
JP2012048568A (ja) * 2010-08-27 2012-03-08 Canon Inc 情報処理装置及び方法
JP2012105034A (ja) * 2010-11-10 2012-05-31 Panasonic Corp リモートコントロールシステム
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2013120447A (ja) * 2011-12-06 2013-06-17 Nippon Soken Inc 表示制御システム
JP2013125985A (ja) * 2011-12-13 2013-06-24 Sharp Corp 表示システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US8896527B2 (en) * 2009-04-07 2014-11-25 Samsung Electronics Co., Ltd. Multi-resolution pointing system
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
WO2011148951A1 (ja) * 2010-05-26 2011-12-01 日立化成工業株式会社 波長変換型太陽電池封止材、及び太陽電池モジュール
US8395362B2 (en) * 2010-10-29 2013-03-12 R2 Semiconductor, Inc. Controlling a dead time of a switching voltage regulator
JP5387557B2 (ja) * 2010-12-27 2014-01-15 カシオ計算機株式会社 情報処理装置及び方法、並びにプログラム
JP2013134717A (ja) * 2011-12-27 2013-07-08 Aisin Aw Co Ltd 操作入力システム
GB2504492A (en) * 2012-07-30 2014-02-05 John Haddon Gaze detection and physical input for cursor symbol
JP2016529635A (ja) * 2013-08-27 2016-09-23 オークランド ユニサービシズ リミテッド 凝視制御インターフェース方法およびシステム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009008372A1 (ja) 2007-07-06 2009-01-15 Sony Corporation 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
WO2009072504A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
JP2012048568A (ja) * 2010-08-27 2012-03-08 Canon Inc 情報処理装置及び方法
JP2012105034A (ja) * 2010-11-10 2012-05-31 Panasonic Corp リモートコントロールシステム
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2013120447A (ja) * 2011-12-06 2013-06-17 Nippon Soken Inc 表示制御システム
JP2013125985A (ja) * 2011-12-13 2013-06-24 Sharp Corp 表示システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3093738A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091327A (ja) * 2015-11-12 2017-05-25 富士通株式会社 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
JP7455764B2 (ja) 2018-06-02 2024-03-26 マーシブ テクノロジーズ,インコーポレイティド モバイルデバイスを使用した共有ディスプレイの注釈システム
WO2020195201A1 (ja) * 2019-03-25 2020-10-01 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
US11587534B2 (en) 2019-03-25 2023-02-21 Fujifilm Corporation Projection control device, projection apparatus, projection control method, and projection control program
US11233941B2 (en) 2019-10-24 2022-01-25 Canon Kabushiki Kaisha Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium
JP7383471B2 (ja) 2019-12-20 2023-11-20 キヤノン株式会社 電子機器およびその制御方法

Also Published As

Publication number Publication date
EP3093738A4 (en) 2017-06-21
US20160291692A1 (en) 2016-10-06
JPWO2015104884A1 (ja) 2017-03-23
CN105874409A (zh) 2016-08-17
EP3093738A1 (en) 2016-11-16
JP6504058B2 (ja) 2019-04-24

Similar Documents

Publication Publication Date Title
US10761610B2 (en) Vehicle systems and methods for interaction detection
US10318011B2 (en) Gesture-controlled augmented reality experience using a mobile communications device
WO2015104884A1 (ja) 情報処理システム、情報処理方法およびプログラム
US8549418B2 (en) Projected display to enhance computer device use
EP2832107B1 (en) Information processing apparatus, information processing method, and program
US9952667B2 (en) Apparatus and method for calibration of gaze detection
US9690475B2 (en) Information processing apparatus, information processing method, and program
JP4384240B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
US11572653B2 (en) Interactive augmented reality
JP6252409B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20180307309A1 (en) Information processing apparatus, information processing method, and computer program
JP2016521894A (ja) 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
JPWO2012011263A1 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP2011081506A (ja) 映像表示装置、および、その表示制御方法
JP2010237765A (ja) 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
JP5976787B2 (ja) レーザー・ダイオード・モード
KR20160132811A (ko) 주의 기반 렌더링 및 피델리티
CN106201284B (zh) 用户界面同步系统、方法
JP6575518B2 (ja) 表示制御装置、表示制御方法およびプログラム
JP4945617B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP2016109726A (ja) 情報処理装置、情報処理方法およびプログラム
US9727778B2 (en) System and method for guided continuous body tracking for complex interaction
JP2010237766A (ja) 情報処理装置、コマンド実行制御方法及びコマンド実行制御プログラム
CN108521545B (zh) 基于增强现实的图像调整方法、装置、存储介质和电子设备
US10855639B2 (en) Information processing apparatus and information processing method for selection of a target user

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14878312

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15038329

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2015556712

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014878312

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014878312

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE