WO2015008654A1 - 検出装置および方法 - Google Patents

検出装置および方法 Download PDF

Info

Publication number
WO2015008654A1
WO2015008654A1 PCT/JP2014/068126 JP2014068126W WO2015008654A1 WO 2015008654 A1 WO2015008654 A1 WO 2015008654A1 JP 2014068126 W JP2014068126 W JP 2014068126W WO 2015008654 A1 WO2015008654 A1 WO 2015008654A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
eyeball
detection device
light receiving
user
Prior art date
Application number
PCT/JP2014/068126
Other languages
English (en)
French (fr)
Inventor
正則 岩崎
佐古 曜一郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2015527261A priority Critical patent/JP6380814B2/ja
Priority to KR1020157036928A priority patent/KR102376854B1/ko
Priority to BR112016000639-9A priority patent/BR112016000639B1/pt
Priority to US14/902,953 priority patent/US9996151B2/en
Priority to CN201480039759.9A priority patent/CN105378598B/zh
Priority to EP14826483.1A priority patent/EP3023864B1/en
Priority to RU2016100860A priority patent/RU2682798C2/ru
Publication of WO2015008654A1 publication Critical patent/WO2015008654A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6821Eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present technology relates to a detection device and method, and more particularly, to a detection device and method that can improve operability with a simple configuration.
  • a user interface for moving a cursor or pointer on the screen requires an operation means.
  • a method for detecting a user operation for moving a cursor or the like a method for detecting a movement of a user's limb or finger operation part photographed by a camera from a position of the operation part in the image, or a user's limb
  • a method of detecting movement from a signal of a gyro sensor attached to a finger is also a method of detecting movement from a signal of a gyro sensor attached to a finger.
  • an external detector such as a camera or a gyro sensor is required.
  • a search coil method that utilizes the fact that a potential proportional to the angle between the magnetic field and the coil is generated in the coil placed in the magnetic field.
  • a detection coil is incorporated into a contact lens and attached to an eyeball.
  • a magnetic coil that applies a horizontal and vertical magnetic field to the outside is provided, and induction induced in the detection coil incorporated in the contact lens with respect to the magnetic field applied from the outside.
  • the movement of the eyeball is detected by detecting the electric power.
  • an electrode is attached around the eye using the fact that the cornea has a positive potential of 10-30 ⁇ V compared to the retina, and EOG (Electro oculography) is also known.
  • scleral reflection method corneal reflection method
  • pupillary corneal reflection method are known as methods for measuring the position and movement of the eyeball.
  • the scleral reflection method is a method of detecting eye movement by photographing the light reflected by the eyeball with an externally prepared camera, utilizing the fact that the reflectance of infrared light hitting the eyes is different between white eyes and black eyes. .
  • the corneal reflection method is a method in which a virtual image of infrared LED light on the cornea by an infrared LED (Light Emitting Diode) applied to the eye moves in parallel with the eye movement due to the difference in rotation center between the cornea and the eyeball.
  • This is a method for detecting eye movement by taking a virtual image of infrared LED light reflected by the eyeball using an externally prepared camera.
  • the pupil corneal reflection method has the same basic principle as the corneal reflection method, but differs from the corneal reflection method in that it is based on the center of the pupil. That is, the pupil corneal reflection method is a method in which the center of the pupil is detected by an externally prepared camera, and the eye movement is detected from the difference from the position of the virtual image of the infrared LED light.
  • a contact lens type display device has been proposed as a small image display device (see, for example, Patent Document 1). Since this display device is used by being mounted on the user's eyeball, an image can be presented to the user regardless of the location of the user.
  • the user interface for moving the cursor or pointer by the above-described method is externally detected to detect the operation means.
  • a device is required.
  • a contact lens type display device is used wirelessly because it is attached to a user's eyeball, but using an external detection device to operate a cursor or pointer causes the user who is a user to carry extra equipment. That would be a burden.
  • the user in the method of detecting a motion photographed by a camera, the user needs to be positioned within the angle of view of the camera, and the user's action range is limited. Therefore, it is difficult to take the display device outdoors.
  • the operation range in the camera screen is reduced, so that the number of pixels for detecting the user's movement is relatively reduced, so that the detection accuracy is lowered.
  • the gyro sensor detects the relative position, in the method of detecting the user's movement by the gyro sensor, it is necessary to designate the reference position for each operation.
  • the search coil method it is necessary to provide a magnetic coil that applies a horizontal and vertical magnetic field to the outside.
  • the electromotive force generated by the detection coil moving with respect to the magnetic field emitted from the magnetic field coil is used, the position of the user's head is fixed so as not to move with respect to the magnetic field coil. There is a need.
  • the EOG method has a wide detection range and can detect the movement of the eyeball even when the user closes his eyes, but the detection accuracy is low because it is vulnerable to external electromagnetic noise and cannot be detected with an accuracy of 1 degree or less. .
  • the scleral reflection method, corneal reflection method, and pupillary corneal reflection method all have a small burden on the human body.
  • these methods require an external camera.
  • it since it is vulnerable to the influence of ambient light, it is necessary to prepare an environment with less disturbance light in order to improve detection accuracy.
  • the above-described technique cannot improve the operability of a contact lens type display device with a simple configuration without using an external detection device.
  • the present technology has been made in view of such a situation, and is intended to improve operability with a simple configuration.
  • a detection device is a detection device that can be attached to an eyeball, and includes a light receiving element that receives light incident from the eyeball.
  • the detection device may further include a light emitting element that outputs light, and the light receiving element may be provided in the vicinity of the light emitting element.
  • the light emitting element can be composed of a plurality of light emitting parts, and the light receiving element can be provided in the vicinity of the light emitting part.
  • the light receiving element receives the light output from the light emitting part and reflected by the eyeball, and detects the amount of light received by the plurality of light receiving elements arranged in each region of the detection device. Can be further provided.
  • the light emitting unit can be a display pixel for displaying information.
  • the detection device can be configured to cover the entire cornea when attached to the eyeball.
  • At least one of the light emitting unit or the light receiving element is provided in a region of the detection device that faces a region where the pupil of the eyeball can move. Can be.
  • the width in the horizontal direction can be made wider than the width in the vertical direction where the detection device covers the eyeball.
  • An element different from the light emitting element and the light receiving element can be disposed in the vicinity of the lateral end of the detection device.
  • the detection device may have a structure for fixing the detection device to a head having the eyeball.
  • the signal processing unit can determine the orientation of the eyeball based on the amount of light received by the plurality of light receiving elements.
  • the signal processing unit calculates the amount of convergence of the left and right eyes based on the direction of the eyeball and the direction of the eyeball paired with the eyeball, and based on the amount of convergence, to the object being watched Can be calculated.
  • the signal processing unit can determine the diameter of the pupil of the eyeball based on the amount of light received by the plurality of light receiving elements.
  • the signal processing unit can detect the state of the living body based on the amount of light received by the plurality of light receiving elements.
  • the light emitting unit irradiates the eyeball with light of a predetermined wavelength, or sequentially irradiates the eyeball with a plurality of different wavelengths of light, and the signal processing unit irradiates the predetermined wavelength with which the eyeball is irradiated.
  • the state of the living body can be detected based on the amount of light received by the light receiving element of the light or the light of the plurality of different wavelengths.
  • the light emitting unit may be a display pixel that displays information, and the light emitting unit may irradiate the eyeball with light of the predetermined wavelength or the plurality of different wavelengths after a period of displaying the information. .
  • a detection method includes a light receiving element that receives light incident from an eyeball, and a signal processing unit that detects the amount of light received by the light receiving element, and detects a detection device that can be attached to the eyeball
  • the light emitting element provided in the detection device further includes a light emitting step for outputting light, and in the light receiving step, the light receiving element can receive light output from the light emitting element and reflected by the eyeball. .
  • the signal processing unit may further include a calculation step of obtaining the orientation of the eyeball based on the amount of light received by the plurality of light receiving elements.
  • the signal processing unit calculates the amount of convergence of the left and right eyes based on the direction of the eyeball and the direction of the eyeball paired with the eyeball, and is watched based on the amount of convergence.
  • the distance to the target object can be calculated.
  • a light receiving element that receives light incident from the eyeball is provided, and in the detection device that can be attached to the eyeball, the light reflected by the eyeball is received by the light receiving element.
  • operability can be improved with a simple configuration.
  • the present technology relates to a contact lens type display device.
  • the contact lens type display device is mounted on the user's eyeball and used wirelessly, so when using it as a display device function, the user can move around freely while wearing the display device. is there.
  • performing a selective movement operation such as a cursor or pointer on the information in the displayed screen with an external device such as a camera or a detection device places a burden on the user or imposes restrictions. .
  • the light reflected from the eyeball surface of the light emitted from the display element is detected by the light receiving element.
  • reflected light is detected by the white eye or iris on the surface of the eyeball.
  • the reflected light is small. Therefore, a portion where the reflected light is weak is detected as a pupil, and the line of sight is detected from the detected movement of the pupil.
  • the contact lens type display device is attached to the user's eyeball as shown in FIG.
  • a contact lens type display device 11 is mounted on the surface of the user's eyeball EY11.
  • the display device 11 has a shape that can be attached to and detached from the user's eyeball EY11 like a so-called contact lens.
  • Such a display device 11 is configured as shown in FIG. 2, for example.
  • the display device 11 includes a display area 21, a power feeding antenna 22, a signal antenna 23, a power generation unit 24, a sensor 25, a signal processing unit 26, and a display element driving unit 27.
  • FIG. 2 is a view of the display device 11 viewed from the left to the right in FIG. 1, that is, a view of the user wearing the display device 11 from the front.
  • the display device 11 has a circular shape. ing.
  • the display area 21 is arranged adjacent to the display element, which includes a plurality of display pixels that display information such as images and characters to be presented to the user, and receives light reflected from the surface of the user's eyeball. And a light receiving element.
  • the feeding antenna 22 is provided so as to surround the display area 21 and receives an induced electromotive force due to a magnetic field or an electric field supplied from the outside.
  • the signal antenna 23 transmits information supplied from the signal processing unit 26 such as a result of performing a user interface operation based on the user's line of sight, or has been transmitted from the outside such as information displayed on a display pixel. Information is received and supplied to the signal processing unit 26.
  • the power generation unit 24 obtains and stores electric power by rectifying the induced current generated in the power supply antenna 22 by electromagnetic induction caused by an external magnetic field or the like, and supplies the electric power to each unit of the display device 11.
  • the display antenna 11 may not be provided with the power feeding antenna 22.
  • the sensor 25 is composed of a gyro sensor, a gravity sensor, or the like, detects the posture or movement of the user wearing the display device 11, and supplies the detection result to the signal processing unit 26. For example, the sensor 25 detects the movement of the user's head.
  • the signal processing unit 26 controls the entire display device 11. For example, the signal processing unit 26 detects a difference (difference) in the amount of light received by the light receiving elements arranged in each area of the display device 11 based on a signal supplied from the light receiving elements in the display area 21. The user's line of sight is detected. In addition, the signal processing unit 26 controls the display element driving unit 27 based on the detection result supplied from the sensor 25, the line-of-sight detection result, information received by the signal antenna 23, and the like in the display area 21. Is displayed.
  • a difference difference in the amount of light received by the light receiving elements arranged in each area of the display device 11 based on a signal supplied from the light receiving elements in the display area 21. The user's line of sight is detected.
  • the signal processing unit 26 controls the display element driving unit 27 based on the detection result supplied from the sensor 25, the line-of-sight detection result, information received by the signal antenna 23, and the like in the display area 21. Is displayed.
  • the signal processing unit 26 controls the display element driving unit 27 to display the display area 21 by the rotation amount of the display device 11 in the direction opposite to the rotation direction of the display device 11 with respect to the eyeball supplied from the sensor 25. Rotate the image. As a result, even if the display device 11 rotates on the user's eyeball, the resulting image rotation can be corrected and presented to the user in an easy-to-view manner.
  • the display element driving unit 27 drives the display elements in the display area 21 under the control of the signal processing unit 26 to display an image, or supplies a signal supplied from the light receiving elements in the display area 21 to the signal processing unit 26. Or Hereinafter, a signal corresponding to the amount of light received by the light receiving element output from the light receiving element in the display area 21 will be referred to as a light receiving signal.
  • the display area 21 of the display device 11 is configured as shown in FIG. 3, for example. 3 shows a part of a cross section of the display device 11 when the display device 11 is viewed in the depth direction in FIG.
  • the display area 21 of the display device 11 includes display pixels 51-1 to 51-7 for displaying information such as images, and a light receiving element 52-1 for receiving reflected light incident from the surface of the user's eyeball. Or a light receiving element 52-7.
  • One display device including the display pixels 51-1 to 51-7 is used as the display element 53.
  • the display pixels 51-1 to 51-7 are also simply referred to as display pixels 51 when it is not necessary to distinguish them.
  • the light receiving elements 52-1 to 52-7 are also simply referred to as the light receiving elements 52 when it is not necessary to distinguish them.
  • the display element 53 includes, for example, a liquid crystal display element or an organic electroluminescence (OLED (Organic Light Emitting Diode)) display element.
  • OLED Organic Light Emitting Diode
  • the display pixels 51 and the light receiving elements 52 are alternately arranged in the vertical direction on the right side in the drawing of the display device 11, that is, on the user's eyeball side. Therefore, for example, in FIG. 2, the display pixels 51 and the light receiving elements 52 are alternately arranged in the vertical direction and the horizontal direction in FIG.
  • a lubricating layer 54 is provided on the left side in the drawing of the display pixel 51 and the light receiving element 52 in the display device 11, that is, on the outside of the display device 11.
  • the lubrication layer 54 is made of, for example, a transparent synthetic resin, and the lubrication layer 54 allows the user's eyelid to move smoothly when the user wears the display device 11 on the eyes.
  • the display pixel 51 and the light receiving element 52 are in close contact with each other.
  • the display pixel 51 and the light receiving element 52 are not necessarily in close contact with each other. A gap may be provided between them.
  • one light receiving element 52 is provided for one display pixel 51, but one light receiving element 52 may be provided for a plurality of display pixels 51.
  • the display device 11 attached to the user's eyeball EY11 is provided with display pixels 51-1 to 51-11 and light receiving elements 52-1 to 52-12.
  • a part of the display area 21 of the display device 11 that is different from the pupil BE11 in the user's eyeball EY11, for example, a region facing a white eye or an iris part is the area A, and the pupil BE11 of the display area 21 is the same as the pupil BE11.
  • the area facing each other is referred to as area B.
  • each display pixel 51 provided in such areas A and B emits light
  • the light emitted from the display pixel 51 travels toward the eyeball EY11 as shown by the solid line arrow in the figure, and the eyeball Reach EY11.
  • the pupil BE11 since the pupil BE11 is transparent, the light that has entered the pupil BE11 out of the light output from the display pixel 51 is hardly reflected by the pupil BE11, and reaches the retina in the eyeball EY11. Absorbed in. In other words, in the region B as shown by the solid line arrow in the figure, the light output from the display pixel 51 is absorbed by the retina with almost no reflection on the surface of the eyeball EY11. Therefore, in the region B, the light output from the display pixel 51 in the light receiving element 52 is hardly detected.
  • the orientation of the eyeball EY11 indicating the direction in which the eyeball EY11 (pupil BE11) is directed that is, The direction of the user's line of sight can be specified.
  • the direction of the user's line of sight at each time can be specified, the movement of the eyeball, that is, the movement of the line of sight can be detected, and the psychological state and emotion of the user can be estimated from the movement of the line of sight.
  • the light receiving element 52 In the state where the user closes his eyes, only the light output from the display pixel 51 and reflected by the eyeball EY11 enters the light receiving element 52.
  • the light receiving element 52 enters the eyeball EY11 from the outside through the display area 21 in addition to the light output from the display pixel 51. Then, ambient light reflected by the eyeball EY11 also enters.
  • the ambient light incident on an opaque part of the eyeball EY11 such as the white eye or the iris is reflected by the eyeball EY11 and enters the light receiving element 52, whereas the environment light of the eyeball EY11 Most of the ambient light incident on the pupil BE11 passes through the pupil BE11 and reaches the retina. That is, the ambient light incident on the pupil BE11 is hardly reflected and the amount of ambient light received by the light receiving element 52 is reduced. Therefore, it is possible to distinguish between the area A and the area B regardless of whether the user opens or closes the eyes.
  • the signal processing unit 26 obtains a received light signal map indicated by the arrow Q12.
  • the light reception signal map indicated by the arrow Q12 is image data indicating the amount of light received by each light receiving element 52.
  • the shading of each circle on the light reception signal map indicates the value of the light reception signal output from the light receiving element 52 on the display area 21 having the same positional relationship as those circles on the light reception signal map.
  • the brighter the circle on the light reception signal map the greater the amount of light received by the light receiving element 52 corresponding to that circle, and the greater the value of the light reception signal.
  • circles corresponding to the respective light receiving elements 52 are also arranged in the vertical direction and the horizontal direction on the light reception signal map. ing.
  • the pupil BE11 In the state indicated by the arrow Q11, the pupil BE11 is directed leftward in the figure, so that the user's line-of-sight direction is substantially the front direction. Therefore, in the light reception signal map indicated by the arrow Q12, a substantially central region of the light reception signal map corresponding to the pupil BE11 is darker than the surrounding region, and the darkened region has the same circular shape as the pupil BE11. It has become. This is because almost no reflection occurs in the pupil BE11 as described above.
  • the area around the central area corresponding to the pupil BE11 indicates the position of the portion of the eyeball EY11 where the amount of reflected light such as white eyes and iris is large.
  • the center position of the pupil BE11 that is, the direction of the line of sight can be easily calculated based on the light reception signal map. it can.
  • the detection result of the user's line-of-sight direction is a position where the center of the pupil BE11 is directed in a region in contact with the eyeball EY11 of the display device 11, that is, a position in contact with the center of the pupil BE11 (hereinafter also referred to as a line-of-sight position) And so on. Therefore, for example, in the example indicated by the arrow Q11, the position at the substantially center of the display device 11 is the line-of-sight position.
  • the display device 11 can also calculate the diameter of the pupil BE11 from the light reception signal map. For example, a region where the value of the light reception signal is equal to or less than a predetermined value is the region of the pupil BE11, and the diameter of the region is the diameter of the pupil BE11.
  • the signal processing unit 26 obtains a received light signal map indicated by the arrow Q14.
  • the pupil BE11 faces slightly upward in the figure, so that the user's line-of-sight direction is slightly upward. Therefore, in the light reception signal map indicated by the arrow Q14, the region of the light reception signal map corresponding to the pupil BE11 is located slightly upward compared to the case of the light reception signal map indicated by the arrow Q12.
  • the signal processing unit 26 determines the line-of-sight position, that is, the orientation of the eyeball EY11 by detecting the position of the pupil BE11 based on the light reception signal map obtained from the light reception signal output from each light receiving element 52. Can do. Further, the signal processing unit 26 can calculate the vertical and horizontal positions of the object on the image displayed in the display area 21 or in the real space from the orientation of the eyeball EY11.
  • the distance to the target object which the user is gazing at can also be calculated
  • the predetermined object OB11 is watched.
  • the display device DP11L and the display device DP11R are devices corresponding to the display device 11, respectively.
  • the object OB11 is at the gaze position AT11, and the object OB12 is at the gaze position AT12.
  • the distance from the user to the gaze position AT11 is longer than the distance from the user to the gaze position AT12. That is, the gaze position AT11 is farther from the user than the gaze position AT12.
  • the user is gazing at the object OB11 that is substantially at the gazing position AT11 at the front.
  • the angle formed by the straight line connecting the center of the pupil BE21L of the left eyeball EY21L of the user and the object OB11 and the straight line connecting the center of the pupil BE21R of the right eyeball EY21R and the object OB11 is determined by the object OB11. This is the convergence angle of the viewing user. This convergence angle indicates the amount of convergence of the left and right eyes of the user.
  • the left eye light reception signal map RM11L is obtained in the display device DP11L mounted on the left eyeball EY21L, and the right eye is displayed on the display device DP11R mounted on the right eyeball EY21R.
  • a light reception signal map RM11R is obtained.
  • the user is gazing at the object OB12 substantially at the gaze position AT12 at the front.
  • the angle formed by the straight line connecting the center of the pupil BE21L of the left eyeball EY21L of the user and the object OB12 and the straight line connecting the center of the pupil BE21R of the right eyeball EY21R and the object OB12 is determined by the object OB12. This is the convergence angle of the viewing user.
  • the left eye light reception signal map RM12L is obtained in the display device DP11L attached to the left eyeball EY21L, and the right eye in the display device DP11R attached to the right eyeball EY21R.
  • a light reception signal map RM12R is obtained.
  • the shorter the distance from the user to the target object the greater the convergence angle of the user when viewing the target object.
  • the convergence angle when viewing the object OB12 is larger than the convergence angle when viewing the object OB11.
  • the user's pupil position (line-of-sight position) in the received light signal map also changes.
  • the pupil position when looking at the object OB12 is located more inside the user (center side of the user) than the pupil position when looking at the object OB11 in the received light signal map. I understand that.
  • the display device 11 it is possible to calculate the convergence angle of the left and right eyes of the user from the orientations of the paired left and right eyeballs obtained from the light detection result of the light receiving element 52, that is, the pupil position on the light reception signal map. Yes, the distance from the obtained convergence angle to the gaze object and the vertical and horizontal positions of the gaze object can be obtained.
  • the distance to the gaze object can be obtained in this way, the position in the depth direction as well as the left-right direction can be distinguished. Therefore, for example, when an image or a button with parallax is displayed on the left and right eyes, an operation with depth can be realized.
  • the convergence angle may be calculated, for example, using only the light reception signal map obtained from the light reception signal of the light receiving element 52 included in the display device DP11L and the display device DP11R. It may be calculated from the light reception signal map of the eye.
  • the display device DP11L communicates with the display device DP11R and receives the light reception signal map obtained by the display device DP11R. Then, the display device DP11L calculates a convergence angle from the light reception signal map obtained by the display device DP11L and the light reception signal map received from the display device DP11R, and transmits the obtained convergence angle to the display device DP11R. At the time of calculating the convergence angle, the convergence angle is calculated from the azimuth of the eyeball indicating the pupil position in the light reception signal map of the left eye and the azimuth of the eyeball indicating the pupil position in the light reception signal map of the right eye.
  • the signal processor 26 calculates the convergence angle, and the signal antenna 23 transmits and receives the convergence angle. Further, the signal processing unit 26 obtains the distance to the gaze object and the vertical and horizontal positions of the gaze object using the convergence angle as necessary. The distances to these gaze objects may be transmitted from the display device DP11L to the display device DP11R.
  • the convergence angle is calculated based on the pupil position in the left eye or right eye light reception signal map. Therefore, when the object is not in front of the user, the convergence angles obtained by the display device DP11L and the display device DP11R are different angles. That is, the convergence angle is asymmetric on the left and right. However, it is possible to determine the distance to the target object and the left, right, top and bottom positions of the target object from the left and right convergence angles.
  • another device may calculate the convergence angle based on the light reception signal map obtained by the display device DP11L and the light reception signal map obtained by the display device DP11R.
  • control device 81 communicates with the display device DP11L and the display device DP11R and receives the light reception signal map.
  • control device 81 calculates a convergence angle based on the light reception signal map received from the display device DP11L and the light reception signal map received from the display device DP11R, and the obtained convergence angles are displayed on the display device DP11L and the display device DP11R. Send to.
  • control device 81 may calculate the distance to the target object, the position of the target object, and the like based on the convergence angle, and transmit the calculated distance to the display device DP11L and the display device DP11R.
  • the display device 11 it is possible to detect the movement of the eyeball, that is, the azimuth of the eyeball (line-of-sight position) at each time by directly receiving the reflected light from the eyeball.
  • the display area 21 by providing a plurality of light receiving elements 52 in the display area 21, it is possible to accurately detect minute movements of the eyeball.
  • microsaccade ⁇ Detection of microsaccade>
  • the direction of the fine movement of the eyeball is not irregular, even if the line of sight is pointing elsewhere, it is biased towards the object that is secretly paying attention, and the microsaccade is hiding people. Thoughts and desires are expressed.
  • microsaccade is detected in the display device 11, it is possible to identify not only the object that the user is gazing at, but also the object that the user is potentially interested in.
  • the signal processing unit 26 detects the orientation of the eyeball at each time, that is, the line-of-sight position, based on the light reception signal map at each time. At this time, when the same line-of-sight position is detected at almost all times in the predetermined period, the line-of-sight position is the position where the user is gazing, that is, the position of the object focused on by the user.
  • the signal processing unit 26 is configured so that the user has a potential gaze position at the time when the amount of movement of the eyeball direction is the largest among the gaze positions different from the position where the user is gazing in the predetermined period.
  • the display device 11 can also detect the state of the living body.
  • the display device 11 can detect the heartbeat of the user as the state of the living body.
  • the principle of detecting pulsation will be described.
  • the display pixel 51 outputs light having a predetermined wavelength, and the light receiving element 52 receives reflected light generated by reflection of the light on the eyeball surface. Then, the signal processing unit 26 detects the pulsation of the heartbeat of the user wearing the display device 11 based on the value of the light reception signal supplied from the light receiving element 52 via the display element driving unit 27.
  • the pulsation of the heartbeat occurs periodically as shown in FIG. 8, the pulsation time is shorter than the period, and blood flow is generated at the timing of the pulsation.
  • the horizontal axis indicates time
  • the vertical axis indicates the value of the received light signal, that is, the amount of blood flow.
  • deoxyhemoglobin has a higher extinction coefficient on the shorter wavelength side than 805 nm, and oxyhemoglobin is higher on the longer wavelength side than 805 nm Absorption coefficient.
  • the signal processing unit 26 controls the display element driving unit 27 to sequentially (alternately) light having a predetermined wavelength shorter than 805 nm and light having a predetermined wavelength longer than 805 nm from the display pixel 51. Output. Further, the signal processing unit 26 causes the light receiving element 52 to receive the light output from the display pixel 51 and reflected from the eyeball surface.
  • the light having a wavelength shorter than 805 nm may be visible light.
  • the signal processing unit 26 obtains the difference between the value of the light reception signal obtained when outputting light with a short wavelength and the value of the light reception signal obtained when outputting light with a long wavelength, Determine whether the blood contains more oxyhemoglobin or deoxyhemoglobin. Further, the signal processing unit 26 determines the specific result obtained from the difference between the received light signals and the change in the value of the received light signal at each time in a predetermined period, that is, the time variation of the intensity of the reflected light received by the light receiving element 52. Based on this, blood flow (change in blood flow) is detected, and pulsation is obtained from the blood flow detection result.
  • Hemoglobin in blood has a strong absorption spectrum for light in a specific wavelength band, and the reflected light from the blood (blood vessel) when irradiated with light in the specific wavelength band changes in hemoglobin due to changes in the volume of the blood vessel. Varies depending on the amount. Therefore, the blood flow rate can be detected from the intensity of the reflected light of the light irradiated on the eyeball (capillary blood vessel) surface.
  • the blood flow volume itself may be detected by the signal processing unit 26 as the state of the living body.
  • the display device 11 can detect the degree of redness of the eyeball.
  • Eye redness is a phenomenon in which the blood vessels on the surface of the white eye dilate and float up due to some influence, causing the eyes to appear red, and the amount of blood flowing at the time of redness is greater than normal.
  • the eye when the surface of the eye causes conjunctivitis due to infection with bacteria or viruses, the eye becomes red.
  • the eye is overworked, such as personal computers, video games, and excessive reading, the effects of contact lenses, and when the eye is not adequately rested, blood is sent to the eye to supplement oxygen and nutrients. If the blood vessels dilate when trying to get in, it will cause the eyes to become congested.
  • the signal processing unit 26 of the display device 11 performs the same processing as described in the above-described detection of the heartbeat, detects the blood flow in the user's eyeball, and detects the normal blood flow and the detected blood.
  • the degree of hyperemia is obtained by comparing the flow rate. In this way, it is possible to detect that the amount of blood flowing is larger than that in the normal state by comparing the blood flow amounts, such as obtaining a difference in blood flow amount.
  • the normal blood flow volume may be a predetermined value or may be a value obtained from a past blood flow volume.
  • the display device 11 detects the degree of redness of the user's eyes, it is possible to determine that the eyeball is not normal due to fatigue or illness.
  • the display device 11 detects the state of the living body (the state of the human body) such as the heart rate and the degree of hyperemia, the detection result can be used for various application programs.
  • the display device 11 detects that the user is annoyed or excited and the heart rate increases, and the display device 11 detects the object of the surprise or excitement as the user's line of sight (movement of the eyeball) and the microsoccer. It becomes possible to specify from the detection result of the switch.
  • the display device 11 is configured to cover a range wider than the cornea of the eyeball shown in FIG.
  • the hatched portion in the eyeball EY31 represents the cornea CO11.
  • the display device 11 is sized and shaped so that the entire cornea CO11 is covered by the display device 11 when the display device 11 is attached to the eyeball EY31.
  • the pupil BE11 of the eyeball EY11 is also facing the front.
  • the same reference numerals are given to the portions corresponding to those in FIG. 4, and description thereof will be omitted as appropriate.
  • the pupil BE11 faces the front, and the light output from each display pixel 51 of the display device 11 travels toward the eyeball EY11.
  • solid arrows indicate light that has reached the retina through the pupil BE11 out of the light output from the display pixel 51.
  • the dotted arrow indicates that the light output from the display pixel 51 that is absorbed or reflected by the eyeball EY11 without passing through the pupil BE11 is not absorbed or reflected by the surface of the eyeball EY11. Represents the light beam when it reaches.
  • the light output from the display pixel 51 in the region facing the pupil BE11 in the display device 11 reaches the retina, and from the display pixel 51 in the region facing a portion different from the pupil BE11. It can be seen that the output light does not reach the retina.
  • the state of the eyeball EY11 when the user is facing upward is shown on the lower side.
  • the pupil BE11 moves in the end direction (peripheral direction) of the display device 11 as compared with the upper example in the figure, and the light output from the display pixels 51 near the upper end of the display device 11 is displayed. It can be seen that it reaches the retina through the pupil BE11. It can also be seen that the light output from the display pixel 51 near the center of the display device 11 does not pass through the pupil BE11 but is reflected or absorbed by the surface of the eyeball EY11.
  • the display pixel 51 and the light receiving element 52 are provided in the entire region facing the. In other words, the display pixel 51 and the light receiving element 52 are arranged in the vicinity of the region of the display device 11 facing the pupil BE11 regardless of which direction the eyeball EY11 faces.
  • the display pixel 51 can present information to the user, and the light receiving element 52 can detect the position of the user's line of sight. In this case, light for displaying an image is emitted from the entire field of view of the user, and the image is displayed in the entire field of view of the user.
  • the display pixel 51 or the light receiving element 52 is provided in an area wider than the center of the display device 11 (pupil movement range), and the display pixels are always included in the entire range in which the eyeball moves. 51 and the light receiving element 52 do not need to be provided.
  • the display device 11 performs a calibration process so that the position of the user's line of sight and the position of the information displayed in the display area 21 are obtained. The positional relationship can be corrected correctly.
  • This calibration process is started, for example, when the user wears the contact lens type display device 11 on the eyeball.
  • step S11 the signal processing unit 26 controls the display element driving unit 27 to cause the display pixels 51 to emit light.
  • the display pixel 51 emits light according to the control of the display element driving unit 27 and outputs light for displaying a predetermined image.
  • step S12 the light receiving element 52 starts detecting light incident from the eyeball. That is, the light receiving element 52 receives the light incident on the eyeball from the outside of the display device 11 or from the display pixel 51 and reflected on the surface of the eyeball, photoelectrically converts the received light signal according to the amount of received light, to the display element driving unit. 27 to the signal processing unit 26.
  • step S13 the signal processing unit 26 controls the display element driving unit 27 to display the calibration positioning image on the display pixel 51.
  • the display pixel 51 displays a calibration positioning image by emitting light according to the control of the display element driving unit 27.
  • the calibration positioning image is an image of a calibration mark or the like, and the calibration positioning image is displayed in order at a total of five positions in the center of the display area 21 and up / down / left / right.
  • step S13 the signal processing unit 26 selects one position where the calibration positioning image is not yet displayed from among the center, the upper, lower, left, and right positions, and displays the calibration positioning image at the selected position.
  • a message that prompts the user to perform a position fixing operation by viewing the calibration positioning image may be displayed together with the calibration positioning image, if necessary.
  • the calibration positioning image When the calibration positioning image is displayed, light for displaying the calibration positioning image is output from the display pixel 51, and a part of the light is reflected by the eyeball surface and received by the light receiving element 52. Then, the light receiving element 52 supplies a light reception signal corresponding to the amount of received light to the signal processing unit 26 via the display element driving unit 27.
  • the user performs a predetermined position determination operation such as turning the line of sight toward the calibration positioning image, gazing at the calibration positioning image for a predetermined time or blinking.
  • step S14 the signal processing unit 26 determines the user's line-of-sight position based on the light reception signal supplied from the light receiving element 52.
  • the signal processing unit 26 when the operation of gazing at the same position for a predetermined time or longer is a position fixing operation by the user, the signal processing unit 26 generates a light reception signal map based on the light reception signal, and each of the obtained light reception signal maps The user's gaze position at the time is obtained.
  • the signal processing unit 26 sets the same line-of-sight position detected continuously for a predetermined time or more among the obtained line-of-sight positions at each time as the line-of-sight position for the calibration positioning image. That is, the determined line-of-sight position is the line-of-sight position when the user is looking at the calibration positioning image.
  • the signal processing unit 26 when the blinking operation is a position fixing operation by the user, the signal processing unit 26 generates a received light signal map based on the received light signal, and the user's blink is determined based on the received light signal map at each time. In addition to detection, the user's line-of-sight position at each time is obtained.
  • the signal processing unit 26 sets the user's line-of-sight position at the time when blinking is detected as the line-of-sight position with respect to the calibration positioning image.
  • the blink detection is performed based on, for example, the intensity of light detected by the light receiving element 52, that is, the value at each position of the light reception signal map (value of the light reception signal).
  • the light received by the light receiving element 52 includes ambient light in addition to the light from the display pixel 51.
  • the intensity of light received by the light receiving element 52 is different. Therefore, the user's blink can be detected from the change in the light amount level detected by the light receiving element 52, that is, the change in the value of the light reception signal. Note that the blink detection accuracy can be further improved by considering temporal variation in addition to the change in the light amount level.
  • step S15 the signal processing unit 26 determines whether or not processing has been performed for all positions. For example, when calibration positioning images are displayed at the center and the vertical and horizontal positions of the display device 11 and the line-of-sight position is obtained for each position, it is determined that the processing has been performed for all positions.
  • step S15 If it is determined in step S15 that processing has not yet been performed for all positions, the processing returns to step S13, and the above-described processing is repeated. That is, the calibration positioning image is displayed at the next position, and the line-of-sight position is obtained.
  • step S15 if it is determined in step S15 that processing has been performed for all positions, the signal processing unit 26 performs calibration in step S16, and the calibration processing ends.
  • the signal processing unit 26 obtains a deviation amount between the display position of the calibration positioning image for each position and the line-of-sight position when the calibration positioning image is displayed at the position, and performs calibration. That is, a correction value for matching the display position of the image in the display area 21 with the line-of-sight position when the user actually gazes at the image is obtained.
  • the display device 11 displays the calibration positioning image, and performs calibration based on the display position and the line-of-sight position of the user.
  • the calibration in this way, the deviation between the display position and the line-of-sight position can be corrected correctly, and the operability of the display device 11 can be improved.
  • the display device 11 when executing the application program, the user can perform various operations by moving the line of sight.
  • the display device 11 performs a line-of-sight detection process to detect the user's line-of-sight position, and performs a process according to the detection result.
  • step S41 the signal processing unit 26 controls the display element driving unit 27 to cause the display pixel 51 to emit light.
  • the display pixel 51 emits light according to the control of the display element driving unit 27 and outputs light for displaying a predetermined image. Thereby, for example, buttons and pointers for selecting information are displayed in the display area 21 as necessary.
  • step S42 the light receiving element 52 starts detecting light incident from the eyeball. That is, the light receiving element 52 receives the light incident on the eyeball from the outside of the display device 11 or from the display pixel 51 and reflected on the surface of the eyeball, photoelectrically converts the received light signal according to the amount of received light, to the display element driving unit. 27 to the signal processing unit 26.
  • step S43 the signal processing unit 26 obtains the user's line-of-sight position based on the light reception signal supplied from the light receiving element 52. That is, the signal processing unit 26 generates a light reception signal map based on the light reception signal, and obtains the user's line-of-sight position by detecting the pupil center (eyeball orientation) of the user from the obtained light reception signal map.
  • step S44 the signal processing unit 26 performs a selection process based on the line-of-sight position.
  • the signal processing unit 26 controls the display element driving unit 27 to drive the display pixel 51 according to the movement of the line-of-sight position.
  • the pointer or cursor displayed on the pixel 51) is moved.
  • the display is controlled so that a pointer or the like is positioned at the line-of-sight position.
  • the pointer or cursor that is, the user's line-of-sight position is located in a selection target area such as a button or icon displayed in the display area 21, it is assumed that the selection target is selected. .
  • the selection target may be selected when the user's line-of-sight position is at the selection target position for a predetermined time or more.
  • the selection target may be selected when the line-of-sight position is located in the selection target area such as a button.
  • the signal processing unit 26 detects a blink or a time when the user closes the eyes together with the line-of-sight position based on the light reception signal map, and the selection process for the selection target is performed.
  • the selection process is performed using the distance from the user to the gaze position.
  • the signal antenna 23 receives the azimuth of the eyeball or the received light signal map from the display device 11 attached to another pair of eyeballs and supplies the received signal map to the signal processing unit 26.
  • the signal processing unit 26 calculates a convergence angle from the azimuth (line-of-sight position) of the eyeball obtained in step S43 and the received azimuth of the eyeball or the light reception signal map, and from the obtained convergence angle to the gaze position. Calculate the distance.
  • the signal processing unit 26 controls the display pixel 51 via the display element driving unit 27, and the selection target such as the selected button is different from the color or shape of the other selection target that is not in the selected state. Alternatively, it may be displayed in a different display format. Thereby, the user can easily know which selection target is in the selected state.
  • the selection target is not limited to a button or the like, and may be any object that can be a selection target, such as an image or text information.
  • step S45 the signal processing unit 26 executes a process according to the selection by the selection process in step S44, and the line-of-sight detection process ends.
  • the signal processing unit 26 executes software or calculation processing associated with the selected selection target, or controls the display pixel 51 to enlarge and display the image or character information to be selected. To do. Further, according to the selection by the selection process, for example, the diameter of the pupil may be obtained from the received light signal map as information used in the application program.
  • step S45 a process corresponding to the detection result of the living body state or the detection result of the microsaccade described above and the selection by the selection process may be executed.
  • the display device 11 receives the light from the display pixels 51 and the like by the light receiving element 52, detects the line-of-sight position based on the obtained light-receiving signal, performs the selection process based on the line-of-sight position, Processing according to the selection result is executed.
  • the operability of the display device 11 can be improved with a simple configuration.
  • the display device 11 can detect the orientation of the eyeball, that is, the line-of-sight position with high accuracy even when the user closes his eyes. At this time, the detection accuracy of the line-of-sight position can be improved as the distance (pitch) between the light receiving elements 52 adjacent to each other in the display region 21 is shortened.
  • the display device 11 can detect the state of the living body.
  • this biological state detection process is performed alternately with, for example, the line-of-sight detection process described with reference to FIG. That is, the line-of-sight detection process is performed during a period in which information such as an image is displayed in the display area 21, and after that period, the biological state detection process is performed to detect the state of the biological body. An image or the like is displayed on the screen 21 and a line-of-sight detection process is performed. After that, the line-of-sight detection process and the biological state detection process are alternately performed.
  • step S71 the signal processing unit 26 controls the display element driving unit 27 to cause the display pixel 51 to emit light.
  • the display pixel 51 emits light according to the control of the display element driving unit 27 and outputs light in a predetermined wavelength band set in advance.
  • step S72 the light receiving element 52 detects light incident from the eyeball. That is, the light receiving element 52 receives the light incident on the eyeball from the outside of the display device 11 or from the display pixel 51 and reflected on the surface of the eyeball, photoelectrically converts the received light signal according to the amount of received light, to the display element driving unit. 27 to the signal processing unit 26.
  • step S71 and step S72 is alternately performed a predetermined number of times for each wavelength of light output from the display pixel 51.
  • step S73 the signal processing unit 26 obtains the difference between the received light signals at each time. For example, by calculating the difference between the light reception signal obtained when light with a short wavelength is output and the light reception signal obtained when light with a long wavelength is output, either oxyhemoglobin or deoxyhemoglobin is present in the blood. It can be specified whether a lot of ingredients are contained.
  • step S74 the signal processing unit 26 obtains the state of the living body based on the light reception signal at each time obtained in step S72.
  • the signal processing unit 26 calculates blood based on the difference obtained in step S73 and the change in the received light signal at each time in the predetermined period obtained in step S72.
  • the flow (change in blood flow) is detected, and the pulsation is obtained from the blood flow detection result.
  • the signal processing unit 26 detects the blood flow volume in the user's eyeball based on a change in the light reception signal at each time in a predetermined period, and holds it in advance.
  • the degree of hyperemia is obtained by comparing the normal blood flow rate with the detected blood flow rate. Note that the blood flow itself may be detected as the state of the living body.
  • the signal processing unit 26 When the signal processing unit 26 obtains the state of the living body such as the beat of the heartbeat or the degree of redness, the signal processing unit 26 outputs information indicating the obtained state of the living body to an application program that uses the state of the living body. finish.
  • information indicating the state of the living body is recorded in the signal processing unit 26 for use in an application program, or transmitted to the outside from the signal processing unit 26 via the signal antenna 23.
  • information indicating the state of the living body may be used in the selection processing of the selection target in the signal processing unit 26.
  • the display device 11 outputs light of a specific wavelength from the display pixel 51, receives the light by the light receiving element 52, and detects the state of the living body from the light reception signal obtained as a result.
  • the state of the living body can be easily detected, and more information can be obtained from the detection result of the living body state. For example, if the beat of the user's heartbeat is detected as the state of the living body, it becomes possible to estimate the user's emotions and psychological state such as being throbbing.
  • a display area 14 includes a display area 21, a power feeding antenna 22, a signal antenna 23, a power generation unit 24, a sensor 25, a signal processing unit 26, and a display element driving unit 27.
  • the display area 21 to the display element driving section 27 of the display device 101 have the same configuration and operation as the display area 21 to the display element driving section 27 of the display apparatus 11, and the display apparatus 101 and the display apparatus 11 are the overall appearance of the apparatus. And only the shape of the display area 21 are different.
  • FIG. 14 is a view of the display device 101 viewed from the same direction as when the user wearing the contact lens type display device 101 is viewed from the front.
  • the display device 101 has an elliptical shape that is long in the horizontal direction. ing. Therefore, when the user wears the display device 101 on the eyeball, the display device 101 is less likely to rotate with respect to the eyeball compared to the circular display device 11. Thereby, the rotation shift with respect to the eyeball of the display apparatus 101 can be suppressed.
  • the display area 21 of the display device 101 has an elliptical shape that is long in the horizontal direction.
  • the display device 101 has a shape that is longer in the horizontal direction than in the vertical direction in the figure, the region of the portion adjacent to the left and right of the display region 21 is larger than the region of the portion adjacent to the top and bottom of the display region 21.
  • the area is larger.
  • the area on the display device 101 that is not the display area 21 is an area outside the moving range of the user's pupil.
  • the power generation unit 24 to the display element driving unit 27 are arranged in a region near the left and right (lateral direction) ends of the display device 101 adjacent to the left and right in the drawing of the display region 21.
  • these elements hinder the image display. Can be prevented.
  • FIG. 15 shows a mounting structure when the user wears the contact lens type display device 101 as viewed from the front of the user.
  • the display device 101 has a longer width in the horizontal direction than in the vertical direction in the figure. Therefore, in a state where the display device 101 is attached to the user's eyeball, the width in the horizontal direction is wider than the width in the vertical direction in which the display device 101 covers the eyeball. Further, the position of the vertical end of the display device 101 is set to a position just before the user's eyelid and the base of the eyeball, and the width in the left-right direction is set to a width up to a range in which the eyeball moves to the left and right. It is getting longer.
  • the display device 101 has a structure that is fixed to the head so that the display device 101 does not move relative to the user's head.
  • the absolute position of the information (image) displayed by the display area 21 with respect to the user's head Will also move. Since the movement of the absolute position of information (image) with respect to the user's head is recognized as the movement of the display position, it is desirable to always fix the position of the contact lens type display device 101 with respect to the user's head.
  • a convex portion is provided in the vicinity of the outer periphery of the display device 101.
  • the display device 101 is mounted so as to cover the entire cornea CO21 of the user's eyeball.
  • the upper and lower ends of the display device 101 are positioned on the near side of the base of the portion where the eyelid and the eyeball are connected at the upper and lower ends, that is, in the vicinity of the ring portion.
  • a convex portion 141 and a convex portion 142 projecting outward are provided on the surface.
  • the projections 141 and 142 are fixed so that the display device 101 does not move with respect to the user's head even when the eyeball moves or when the user blinks.
  • the high friction part 151 and the high friction part 152 are provided in the upper and lower outer periphery vicinity of the display apparatus 101.
  • the display device 101 may be fixed to the user's head.
  • the high-friction part 151 and the high-friction part 152 are subjected to a process in which the friction with the heel is increased as compared with the central part of the display device 101. Therefore, when the display device 101 is attached to the user's eyeball, the display device 101 moves relative to the user's head due to friction between the high friction portion 151 and the high friction portion 152 and the user's eyelid (conjunctiva). It is fixed so that there is no.
  • the convex portion and the high friction portion are provided in the region SR11 and the region SR12 illustrated in FIG. Provided.
  • FIG. 18 shows the display device 101 viewed from the same direction as when the user wearing the display device 101 is viewed from the front. Accordingly, the upper side of the display device 101 corresponds to the upper side of the user's eyes, and the lower side of the display device 101 corresponds to the lower side of the user's eyes.
  • the convex portion 141 shown in FIG. 16 or the high friction portion 151 shown in FIG. 17 is provided in the region SR11 provided along the upper end of the display device 101. Further, the convex portion 142 shown in FIG. 16 or the high friction portion 152 shown in FIG. 17 is provided in the region SR12 provided along the lower end of the display device 101.
  • the convex portion 141 and the convex portion 142, or the high friction portion 151 and the high friction portion 152 are provided on the near side in the drawing of the display device 101, that is, on the outside side.
  • a convex part and a high friction part may be provided along the upper and lower ends of the display apparatus 11 shown in FIG. .
  • the display area 21 is configured as shown in FIG. 19, for example.
  • the vertical direction and the horizontal direction in FIG. 19 correspond to, for example, the vertical direction and the horizontal direction in FIG. In FIG. 19, one rectangular area represents the display pixel 51, the light receiving element 52, or the transmissive area.
  • the black square represents the area of one display pixel 51
  • the hatched square represents the area of one light receiving element 52
  • the white square represents the transmissive area.
  • the transmissive region is a region having a higher light transmittance (transparency) than the display pixel 51 and the light receiving element 52.
  • a quadrangle indicated by an arrow Q31 represents a region of one display pixel 51, and in the figure of the display pixel 51, the top, bottom, left and right are transmissive regions.
  • a light receiving element 52 is disposed obliquely above and obliquely below the display pixel 51 indicated by the arrow Q31. Therefore, each display pixel 51 is surrounded by four light receiving elements 52 and four transmission regions.
  • a display area 21 may be configured as shown in FIG. In FIG. 20, one rectangular area represents the display pixel 51, the light receiving element 52, or the transmission area.
  • the black square represents the area of one display pixel 51
  • the hatched square represents the area of one light receiving element 52
  • the white square represents the transmissive area
  • a square indicated by an arrow Q41 represents a region of one display pixel 51, and the display pixel 51 is surrounded by a transmission region.
  • a square indicated by an arrow Q42 represents a region of one display pixel 51.
  • one light receiving element 52 is disposed diagonally to the right, and is indicated by an arrow Q42.
  • Another area adjacent to the display pixel 51 is a transmission area.
  • the number of light receiving elements 52 provided in the display area 21 is smaller than the number of display pixels 51 provided in the display area 21, so that a larger number of transmission areas are provided. ing.
  • the number of light receiving elements 52 By providing a smaller number of light receiving elements 52 than the number of display pixels 51 in this way, more light (environment light) can be transmitted through the display region 21 from the outside of the display device. Compared with the example shown, the user can see the surroundings more brightly.
  • ⁇ Modification 3> ⁇ Example of display area configuration> Furthermore, when the display pixel 51 provided in the display area 21 has transmission performance, the user can see the surroundings through the display pixel 51 without providing the transmission area in the display area 21. In such a case, the display area 21 is configured as shown in FIG.
  • the black area represents the area of the display pixel 51
  • the hatched square represents the area of one light receiving element 52.
  • a light receiving element 52 is provided adjacent to the display pixel 51. Further, the light transmittance of the display pixel 51 is higher than the light transmittance of the light receiving element 52, and the user can see the user's surroundings through the display pixel 51.
  • a pressure sensor may be provided in the display device 101 so as to detect opening / closing of the user's heel wearing the display device 101 or detecting pressure when the user strongly closes the heel.
  • the display device 101 is configured as shown in FIG. 22, for example.
  • parts corresponding to those in FIG. 14 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the display device 101 shown in FIG. 22 is different from the display device 101 in FIG. 14 in that a pressure sensor 181 is further provided for the display device 101 shown in FIG. It is the same composition as.
  • the display device 101 in FIG. 22 includes a display area 21, a power supply antenna 22, a signal antenna 23, a power generation unit 24, a sensor 25, a signal processing unit 26, a display element driving unit 27, and a pressure sensor 181.
  • the pressure sensor 181 is located in the vicinity of the right end in the figure and operates by receiving electric power from the power generation unit 24.
  • the pressure sensor 181 detects the pressure applied in the depth direction in the drawing of the display device 101, and supplies the detection result to the signal processing unit 26 via the display element driving unit 27.
  • the signal processing unit 26 detects the opening / closing of the user's bag based on the detection result of the pressure supplied from the pressure sensor 181. For example, when the user closes the bag, the signal processing unit 26 determines the selection of the selection target. When the bag is strongly closed, that is, when a pressure higher than a predetermined value is detected, the selection of the selection target is determined.
  • the operability of the display device 101 can be further improved.
  • FIG. 23 is a diagram illustrating a configuration example of a visual line detection device to which the present technology is applied.
  • the same reference numerals are given to the portions corresponding to those in FIG. 2, and the description thereof will be omitted as appropriate.
  • the contact lens type gaze detection device 211 has a shape that can be attached to the user's eyeball. When the gaze detection device 211 is worn on the eyeball, the gaze detection device 211 covers the entire cornea of the user's eyeball. Has been made.
  • the line-of-sight detection device 211 includes a detection area 221, a power feeding antenna 22, a signal antenna 23, a power generation unit 24, a sensor 25, a signal processing unit 26, and a light emitting element driving unit 222.
  • FIG. 23 is a view of the line-of-sight detection device 211 viewed from the same direction as when the user wearing the line-of-sight detection device 211 is viewed from the front.
  • the line-of-sight detection device 211 has an elliptical shape.
  • the detection area 221 is arranged adjacent to the light emitting element, which is a light emitting element composed of a plurality of light emitting units that emit light for detecting the line of sight to the user's eyeball surface, and receives light reflected from the user's eyeball surface. And a light receiving element.
  • the detection area 221 similarly to the display area 21 described above, at least one of a light emitting unit and a light receiving element is provided in an area in the detection area 221 that faces an area in which the pupil of the user's eyeball can move. Yes.
  • the light emitting element driving unit 222 drives the light emitting elements in the detection region 221 according to the control of the signal processing unit 26, emits light from each light emitting unit, or performs signal processing on the light reception signals supplied from the light receiving elements in the detection region 221. Or supplied to the unit 26.
  • the arrangement positions of the feeding antenna 22 to the signal processing unit 26 are the same as those in the display apparatus 101 of FIG.
  • the detection area 221 of the visual line detection device 211 is configured as shown in FIG. 24, for example. 24 shows a part of a cross section of the line-of-sight detection device 211 when the line-of-sight detection device 211 is viewed from the horizontal direction in FIG. In FIG. 24, parts corresponding to those in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the detection region 221 of the line-of-sight detection device 211 receives light emitting units 251-1 to 251-7 that emit light for detecting the direction of the line of sight, and reflected light incident from the surface of the user's eyeball.
  • Light receiving elements 52-1 to 52-7 are provided.
  • One light-emitting device including the light-emitting portions 251-1 to 251-7 serves as the light-emitting element 252.
  • the light emitting units 251-1 to 251-7 are also simply referred to as the light emitting units 251 when it is not necessary to distinguish them.
  • the light emitting unit 251 has a function of emitting light for line-of-sight detection by emitting light, but does not have a function of displaying information like the display pixel 51 shown in FIG.
  • light emitting units 251 and light receiving elements 52 are alternately arranged in the vertical direction on the right side, that is, on the user's eyeball side in the drawing of the line-of-sight detection device 211. Therefore, for example, in FIG. 23, the light emitting units 251 and the light receiving elements 52 are alternately arranged in the vertical direction and the horizontal direction in FIG. 23 in the detection region 221.
  • FIG. 24 illustrates an example in which the light emitting unit 251 and the light receiving element 52 are in close contact with each other, but the light emitting unit 251 and the light receiving element 52 are not necessarily in close contact with each other. A gap may be provided between them.
  • one light receiving element 52 is provided for one light emitting unit 251, but one light receiving element 52 may be provided for a plurality of light emitting units 251.
  • the light emitting element 252 including the plurality of light emitting units 251 is provided in the detection region 221
  • the light emitting element 252 including one light emitting unit that emits light in the entire detection region 221 is provided in the detection region 221. It may be.
  • a light receiving element 52 for detecting the amount of light received in each region of the light emitting element 252 may be provided.
  • the light-emitting element 252 is not necessarily provided in the line-of-sight detection device 211.
  • the calibration process is started.
  • the calibration process by the visual line detection device 211 will be described.
  • step S101 the signal processing unit 26 controls the light emitting element driving unit 222 to cause the light emitting unit 251 to emit light.
  • the light emitting unit 251 emits light according to the control of the light emitting element driving unit 222 and outputs light for detecting the user's line-of-sight direction.
  • step S102 the light receiving element 52 starts detecting light incident from the eyeball. That is, the light receiving element 52 receives the light incident on the eyeball from the outside of the line-of-sight detection device 211 or the light emitting unit 251 and reflected on the surface of the eyeball, performs photoelectric conversion, and drives the light receiving signal corresponding to the amount of received light to the light emitting element The signal is supplied to the signal processing unit 26 via the unit 222.
  • the user turns his / her line of sight in a predetermined direction. For example, the user moves the line of sight up, down, left, and right as much as possible in accordance with voice guidance or the like output from a control device that is wirelessly connected to the line-of-sight detection device 211.
  • the light emitting unit 251 outputs light for detecting the direction of the line of sight
  • the light receiving element 52 is output from the light emitting unit 251 and reflected by the eyeball.
  • the light received from the eyeball surface, such as the received light, is received, and a light reception signal corresponding to the received light amount is supplied to the signal processing unit 26 via the light emitting element driving unit 222.
  • step S103 the signal processing unit 26 obtains the user's line-of-sight position based on the light reception signal supplied from the light receiving element 52.
  • the signal processing unit 26 obtains the position of each end of the line of sight moved by the user as the line-of-sight position. Thereby, the range in which the user can move the line of sight from each line-of-sight position can be obtained. Note that when calculating the line-of-sight position, for example, processing similar to step S14 in FIG. 11 is performed.
  • step S104 the signal processing unit 26 performs calibration based on the obtained line-of-sight position, and the calibration process ends.
  • the line-of-sight detection result by the line-of-sight detection device 211 is used for a process of moving a cursor on an external display different from the line-of-sight detection device 211 when the user moves the line of sight.
  • the signal processing unit 26 obtains a range in which the user's line of sight can move based on the line-of-sight position for each of the upper, lower, left, and right positions obtained in step S103. Then, the signal processing unit 26 performs calibration by associating each position of the region obtained by subtracting the margin from the range in which the user's line of sight is movable and each position of the display.
  • the line-of-sight detection device 211 performs calibration based on several line-of-sight positions. By performing calibration in this way, correspondence between a specific area such as an external display and a movement destination area of the user's line of sight can be taken, and the operability of the interface operation by the user can be improved. .
  • ⁇ Description of gaze detection processing> For example, when the line-of-sight detection device 211 and an external control device are connected wirelessly, when calibration processing is performed, the user can activate an arbitrary application program and execute desired processing.
  • the line-of-sight detection device 211 performs a line-of-sight detection process to detect the user's line-of-sight position and outputs the detection result to an external control device.
  • step S131 the signal processing unit 26 controls the light emitting element driving unit 222 to cause the light emitting unit 251 to emit light.
  • the light emitting unit 251 emits light according to the control of the light emitting element driving unit 222 and outputs light for detecting the user's line-of-sight direction.
  • step S132 the light receiving element 52 starts detecting light incident from the eyeball. That is, the light receiving element 52 receives the light incident on the eyeball from the outside of the line-of-sight detection device 211 or the light emitting unit 251 and reflected on the surface of the eyeball, performs photoelectric conversion, and drives the light receiving signal corresponding to the amount of received light to the light emitting element.
  • the signal is supplied to the signal processing unit 26 via the unit 222.
  • step S133 the signal processing unit 26 obtains the user's line-of-sight position based on the light reception signal supplied from the light receiving element 52. That is, the signal processing unit 26 generates a light reception signal map based on the light reception signal, and obtains the user's line-of-sight position by detecting the pupil center (eyeball orientation) of the user from the obtained light reception signal map.
  • step S134 the signal processing unit 26 outputs the obtained line-of-sight position, and the line-of-sight detection process ends.
  • the signal processing unit 26 supplies the obtained line-of-sight position to the signal antenna 23 and transmits it to the control device.
  • the control device executes processing corresponding to the line-of-sight position, such as moving a cursor or the like according to the line-of-sight position received from the line-of-sight detection device 211, for example.
  • the line-of-sight detection device 211 receives the light from the light emitting unit 251 and the like by the light receiving element 52, detects the line-of-sight position based on the obtained light reception signal, and outputs the detection result.
  • the user's operation can be easily specified without requiring an external device other than the line-of-sight detection device 211. In other words, operability can be improved with a simple configuration.
  • the gaze detection apparatus 211 outputs the light of a specific wavelength from the light emission part 251, or detects a biological state, The amount of convergence of the left and right eyes and the distance to the object may be calculated, or the diameter of the pupil may be obtained.
  • the light reception signal value in the pupil region on the light reception signal map is smaller than the light reception signal value in the white eye or iris region, and the pupil region, that is, the line of sight An example of detecting the position has been described.
  • the reflectance of the retina may be larger than the reflectance of the white eye or the iris portion.
  • the value of the light reception signal in the pupil region is larger than the value of the light reception signal in the white eye or iris region.
  • the signal processing unit 26 uses the light reception signal map. It is possible to detect the pupil region. In this case, the signal processing unit 26 detects a region where the value of the light reception signal in the light reception signal map is large as a pupil region.
  • the signal processing unit 26 can detect the pupil region (line-of-sight position) based on the value of the light reception signal in each region of the light reception signal map. At this time, whether the region where the light reception signal value is large is the pupil region or the region where the light reception signal value is small is the pupil region, the wavelength of light output from the display pixel 51 or the light emitting unit 251, and the white eye and iris Or the spectral reflectance characteristics of the retina.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can be configured as follows.
  • a detection device that can be attached to an eyeball, A detection apparatus comprising a light receiving element that receives light incident from the eyeball. [2] It further includes a light emitting element that outputs light, The detection device according to [1], wherein the light receiving element is provided in the vicinity of the light emitting element. [3] The light emitting element comprises a plurality of light emitting portions, The detection device according to [2], wherein the light receiving element is provided in the vicinity of the light emitting unit. [4] The light receiving element receives light output from the light emitting unit and reflected by the eyeball, The detection device according to [3], further including a signal processing unit that detects the amount of light received by the plurality of light receiving elements arranged in each region of the detection device.
  • the signal processing unit calculates the amount of convergence of the left and right eyes based on the orientation of the eyeball and the orientation of the eyeball paired with the eyeball, and based on the convergence amount, The detection device according to [11], wherein the distance is calculated. [13] The detection device according to [4], wherein the signal processing unit obtains the diameter of the pupil of the eyeball based on the amount of light received by the plurality of light receiving elements. [14] The detection device according to [4], wherein the signal processing unit detects a state of a living body based on the amount of light received by the plurality of light receiving elements.
  • the light emitting unit irradiates the eyeball with light of a predetermined wavelength, or sequentially irradiates the eyeball with light of a plurality of different wavelengths
  • the detection apparatus according to [14], wherein the signal processing unit detects the state of the living body based on a light reception amount of the light having a predetermined wavelength or the light having a plurality of different wavelengths irradiated on the eyeball.
  • the detection unit according to [15] wherein the light emitting unit is a display pixel that displays information, and irradiates the eyeball with the light having the predetermined wavelength or the light with the plurality of different wavelengths after the period for displaying the information. apparatus.
  • a light receiving element that receives light incident from the eyeball;
  • a signal processing unit that detects the amount of light received by the light receiving element, and a detection method of a detection device that can be attached to the eyeball,
  • a light receiving step in which the light receiving element receives light reflected by the eyeball;
  • a detection method comprising: a detection step in which the signal processing unit detects the amount of light received by the plurality of light receiving elements arranged in each region of the detection device.
  • the light emitting element provided in the detection device further includes a light emitting step of outputting light, The detection method according to [17], wherein in the light receiving step, the light receiving element receives light output from the light emitting element and reflected by the eyeball.
  • the signal processing unit further includes a calculation step of obtaining an azimuth of the eyeball based on the amount of light received by the plurality of light receiving elements.
  • the signal processing unit calculates the amount of convergence of the left and right eyes based on the orientation of the eyeball and the orientation of the eyeball paired with the eyeball, and is watched based on the amount of convergence.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 本技術は、簡単な構成で操作性を向上させることができるようにする検出装置および方法に関する。 コンタクトレンズ型の視線検出装置はユーザの眼球に装着可能な形状とされている。また、視線検出装置には光を出力する発光部と、眼球表面で反射された光を受光する受光素子とが複数配置されている。受光素子は、発光部から出力され、眼球表面で反射された光を受光して、その受光量に応じた受光信号を出力する。信号処理部は、各受光素子の受光信号に基づいて、ユーザの視線を検出する。本技術は、コンタクトレンズ型の視線検出装置や表示装置に適用することができる。

Description

検出装置および方法
 本技術は検出装置および方法に関し、特に、簡単な構成で操作性を向上させることができるようにした検出装置および方法に関する。
 例えば、画面上のカーソルやポインタを動かすユーザインターフェースには、操作手段が必要である。また、カーソル等を移動させるためのユーザの操作を検出する方法として、カメラで撮影したユーザの手足や指の操作部位の動きを、画像内の操作部位の位置から検出する方法や、ユーザの手足や指に装着したジャイロセンサの信号から動きを検出する方法がある。
 このように、カーソルやポインタのユーザインターフェース操作にユーザの四肢や指などを利用する場合には、カメラやジャイロセンサなどの外部検出器が必要となる。
 また、ユーザの視線を利用してカーソルやポインタを動かす操作が行なわれる場合には、ユーザの眼球の動きを検出する必要がある。
 例えば、眼球の位置や運動を測定する方法として、磁界に置かれたコイルに、磁界とコイルのなす角に比例した電位が発生することを利用するサーチコイル法がある。サーチコイル法では、コンタクトレンズに検出コイルを組み込んで眼球に装着し、外部に水平垂直磁場を与える磁場コイルを設けて、外部から与えた磁場に対してコンタクトレンズに組み込んだ検出コイルに生じる誘導起電力を検出することで眼球の動きが検出される。
 また、眼球の位置や運動を測定する方法として、角膜部が網膜部に比べて10乃30μVの正の電位を有することを利用して目の周囲に電極を貼り、電位差を検出するEOG(Electro oculography)法も知られている。
 その他、眼球の位置や運動を測定する方法として強膜反射法、角膜反射法、および瞳孔角膜反射法が知られている。
 強膜反射法は、目に当てた赤外光の反射率が白目と黒目で異なること利用して、外部に用意したカメラにより眼球で反射した光を撮影し、眼球運動を検出する方法である。
 また角膜反射法は、目に当てた赤外光LED(Light Emitting Diode)による角膜上の赤外LED光の虚像が、角膜と眼球の回転中心の違いにより、眼球運動に伴い平行移動するのを利用して、外部に用意したカメラにより眼球で反射した赤外LED光の虚像を撮影し、眼球運動を検出する方法である。
 瞳孔角膜反射法は、基本原理は角膜反射法と同じであるが瞳孔の中心を基準とする点で角膜反射法と異なる。すなわち、瞳孔角膜反射法は外部に用意したカメラで瞳孔の中心を検出し、赤外LED光の虚像の位置との差異から眼球運動を検出する方法である。
 ところで、小型な画像表示装置として、コンタクトレンズ型の表示装置が提案されている(例えば、特許文献1参照)。この表示装置はユーザの眼球に装着されて使用されるので、ユーザの居場所によらず、ユーザに対して画像を提示することができる。
特許第4752309号公報
 しかしながら、このようなコンタクトレンズ型の表示装置でカーソルやポインタを表示させてユーザ操作を行なおうとすると、上述した方法によりカーソルやポインタを動かすユーザインターフェースには、操作手段を検出するために外部検出装置が必要となる。
 コンタクトレンズ型の表示装置はユーザの眼球に装着されるためワイヤレスで使用されるが、カーソルやポインタを操作するために外部検出装置を用いることは、使用者であるユーザに余分な機器を持ち歩かせることになり負担となってしまう。
 例えば、カメラで撮影した動きを検出する方法では、カメラの画角内にユーザが位置する必要がありユーザの行動範囲が限られるため、表示装置を屋外に持ち出すことは困難である。また、操作距離が離れるとカメラ画面内の操作範囲が小さくなるため、相対的にユーザの動きを検出するための画素数が減ることから検出精度が低下してしまう。
 さらに、ジャイロセンサは相対位置を検出するため、ジャイロセンサでユーザの動きを検出する方法では、操作のたびに基準位置を指定する必要がある。
 サーチコイル法では、外部に水平垂直磁場を与える磁場コイルを設ける必要がある。また、サーチコイル法では、磁場コイルから出る磁界に対して検出コイルが移動することで生じる起電力を利用しているので、ユーザの頭部の位置が磁場コイルに対して動かないように固定する必要がある。
 EOG法は検出範囲が広く、ユーザが目を閉じていても眼球の動きを検出することができるが、外部の電磁ノイズに弱いため検出精度は低く、1度以下の精度で検出することができない。
 強膜反射法、角膜反射法、および瞳孔角膜反射法は、何れも人体への負担は少ないが、これらの方法では外部にカメラを用意する必要がある。また環境光の影響に弱いので、検出精度を上げるには外乱光が少ない環境を用意する必要がある。
 さらに、外部からユーザをカメラで撮影して眼球の動きを検出する方法では、ユーザが目を閉じていると眼球を検出することが不可能であるので、ユーザが目を閉じている間はユーザインターフェースの操作をすることができない。
 以上のように、上述した技術では外部検出装置を用いずに、簡単な構成でコンタクトレンズ型の表示装置の操作性を向上させることができなかった。
 本技術は、このような状況に鑑みてなされたものであり、簡単な構成で操作性を向上させることができるようにするものである。
 本技術の一側面の検出装置は、眼球に装着可能な検出装置であって、前記眼球から入射する光を受光する受光素子を備える。
 検出装置には、光を出力する発光素子をさらに設け、前記受光素子を、前記発光素子近傍に設けることができる。
 前記発光素子を複数の発光部から構成し、前記受光素子を前記発光部近傍に設けることができる。
 前記受光素子には、前記発光部から出力されて前記眼球で反射された光を受光させ、前記検出装置の各領域に配置された複数の前記受光素子による光の受光量を検出する信号処理部をさらに設けることができる。
 前記発光部を、情報を表示する表示画素とすることができる。
 前記検出装置を、前記眼球に装着されたときに角膜全体を覆うようにすることができる。
 前記検出装置が前記眼球に装着された状態において、前記眼球の瞳孔が移動可能な範囲の領域に対向する前記検出装置の領域に、前記発光部または前記受光素子の少なくとも一方が設けられているようにすることができる。
 前記検出装置が前記眼球を覆う縦方向の幅よりも横方向の幅が広くなるようにすることができる。
 前記検出装置における横方向の端近傍に、前記発光素子および前記受光素子とは異なる素子を配置することができる。
 前記検出装置が、前記眼球を有する頭部に対して前記検出装置を固定する構造を有するようにすることができる。
 前記信号処理部には、前記複数の前記受光素子の受光量に基づいて前記眼球の方位を求めさせることができる。
 前記信号処理部には、前記眼球の方位と、前記眼球と対となる眼球の方位とに基づいて左右の目の輻輳量を算出させ、前記輻輳量に基づいて、注視されている対象物までの距離を算出させることができる。
 前記信号処理部には、前記複数の前記受光素子の受光量に基づいて前記眼球の瞳孔の直径を求めさせることができる。
 前記信号処理部には、前記複数の前記受光素子の受光量に基づいて生体の状態を検出させることができる。
 前記発光部には、所定波長の光を前記眼球に照射させるか、または複数の異なる波長の光を順番に前記眼球に照射させ、前記信号処理部には、前記眼球に照射された前記所定波長の光または前記複数の異なる波長の光の前記受光素子における受光量に基づいて前記生体の状態を検出させることができる。
 前記発光部を、情報を表示する表示画素とし、前記発光部には前記情報を表示する期間の後に、前記所定波長の光、または前記複数の異なる波長の光を前記眼球に照射させることができる。
 本技術の一側面の検出方法は、眼球から入射する光を受光する受光素子と、前記受光素子による光の受光量を検出する信号処理部とを備え、前記眼球に装着可能な検出装置の検出方法であって、前記受光素子が前記眼球で反射された光を受光する受光ステップと、前記信号処理部が、前記検出装置の各領域に配置された複数の前記受光素子による光の受光量を検出する検出ステップとを含む。
 前記検出装置に設けられた発光素子が光を出力する発光ステップをさらに含み、前記受光ステップにおいて、前記受光素子には前記発光素子から出力され、前記眼球で反射された光を受光させることができる。
 前記信号処理部が、前記複数の前記受光素子の受光量に基づいて前記眼球の方位を求める算出ステップをさらに含むことができる。
 前記算出ステップにおいて、前記信号処理部に、前記眼球の方位と、前記眼球と対となる眼球の方位とに基づいて左右の目の輻輳量を算出し、前記輻輳量に基づいて、注視されている対象物までの距離を算出させることができる。
 本技術の一側面においては、眼球から入射する光を受光する受光素子を備え、前記眼球に装着可能な検出装置において、前記受光素子により前記眼球で反射された光が受光される。
 本技術の一側面によれば、簡単な構成で操作性を向上させることができる。
表示装置の外観の構成例を示す図である。 表示装置の構成例を示す図である。 表示領域の構成例を示す図である。 視線検出について説明する図である。 視線検出について説明する図である。 注視位置の検出について説明する図である。 制御装置による処理について説明する図である。 心拍の拍動を示す図である。 眼球を示す図である。 瞳孔の移動範囲について説明する図である。 キャリブレーション処理を説明するフローチャートである。 視線検出処理を説明するフローチャートである。 生体状態検出処理を説明するフローチャートである。 表示装置の他の構成例を示す図である。 表示装置の装着状態を示す図である。 表示装置の凸部について説明する図である。 表示装置の高摩擦部について説明する図である。 表示装置の凸部または高摩擦部の領域について説明する図である。 表示領域の他の構成例を示す図である。 表示領域の他の構成例を示す図である。 表示領域の他の構成例を示す図である。 表示装置の他の構成例を示す図である。 視線検出装置の構成例を示す図である。 検出領域の構成例を示す図である。 キャリブレーション処理を説明するフローチャートである。 視線検出処理を説明するフローチャートである。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈コンタクトレンズ型の表示装置の構成例〉
 本技術は、コンタクトレンズ型の表示装置に関するものである。コンタクトレンズ型の表示装置はユーザの眼球に装着されてワイヤレスで使用されるため、表示装置としての機能で使用する際には、ユーザは表示装置を装着したまま自由に歩き回るなどの動作が可能である。しかし、表示される画面内の情報に対してカーソルやポインタなどの選択移動操作をカメラや検出装置等の外部機器にて行うことは、使用者に負担を与えたり制約を与えたりすることになる。
 そこで、本技術では、画像を表示する表示素子近傍に受光素子を設けることで、表示装置以外に外部の装置を必要とせずにカーソルやポインタなどの操作を行うためのユーザインターフェースを実現することができるようにした。
 コンタクトレンズ型の表示装置では、表示素子が発する光の眼球表面における反射光が受光素子で検出される。この場合、眼球表面の白目や虹彩では反射光が検出される。これに対して瞳孔部では眼球内に光が透過するため反射光が少ない。そこで、反射光の弱い部分が瞳孔として検知され、検知された瞳孔の動きから視線が検出される。
 これにより、眼球の向いている方位を特定することが可能となるので、外部装置を用いずにカーソルやポインタなどの操作を行うためのユーザインターフェースを提供することが可能となり、簡単な構成で表示装置の操作性を向上させることができる。
 次に、本技術を適用したコンタクトレンズ型の表示装置の具体的な実施の形態について説明する。
 コンタクトレンズ型の表示装置は、図1に示すようにユーザの眼球に装着される。
 図1では、ユーザの眼球EY11の表面にコンタクトレンズ型の表示装置11が装着されている。表示装置11は、いわゆるコンタクトレンズのように、ユーザの眼球EY11に装着したり、離脱したりすることが可能な形状となっている。
 このような表示装置11は、例えば図2に示すように構成される。
 すなわち、表示装置11は表示領域21、給電アンテナ22、信号アンテナ23、発電部24、センサ25、信号処理部26、および表示素子駆動部27から構成される。
 なお、図2は表示装置11を図1中、左から右方向に見た図、つまり表示装置11を装着したユーザを正面から見た図であり、図2では表示装置11は円形状となっている。
 表示領域21は、ユーザに対して提示する画像や文字等の情報を表示する複数の表示画素からなる表示素子と、表示画素に隣接して配置され、ユーザの眼球表面で反射した光を受光する受光素子とを有している。
 給電アンテナ22は、表示領域21を囲むように設けられており、外部から供給される磁界または電界による誘導起電力を受ける。信号アンテナ23は、ユーザの視線に基づいてユーザインターフェース操作を行なった結果などの信号処理部26から供給された情報を外部に送信したり、表示画素に表示する情報などの外部から送信されてきた情報を受信して信号処理部26に供給したりする。
 発電部24は、外部からの磁界等による電磁誘導によって給電アンテナ22で生じた誘導電流を整流することで電力を得て蓄電し、表示装置11の各部に電力を供給する。なお、発電部24が所定方法により自ら発電を行なう場合や、充電池を有している場合には、表示装置11に給電アンテナ22を設けなくてもよい。
 センサ25は、ジャイロセンサまたは重力センサなどからなり、表示装置11が装着されたユーザの姿勢や動きを検出し、その検出結果を信号処理部26に供給する。例えばセンサ25により、ユーザの頭部の動きが検出される。
 信号処理部26は、表示装置11全体を制御する。例えば信号処理部26は、表示領域21の受光素子から供給された信号に基づいて、表示装置11の各領域に配置された受光素子における光の受光量の違い(差)を検出することで、ユーザの視線を検出する。また、信号処理部26は、センサ25から供給された検出結果や、視線の検出結果、信号アンテナ23により受信された情報などに基づいて表示素子駆動部27を制御し、表示領域21に画像等を表示させる。
 具体的には、例えば表示装置11がユーザの眼球に対して回転した場合、センサ25ではその回転方向と回転量を検出することができる。そこで、信号処理部26は表示素子駆動部27を制御して、センサ25から供給された眼球に対する表示装置11の回転方向とは逆方向に表示装置11の回転量だけ、表示領域21に表示されている画像を回転させる。これにより、表示装置11がユーザの眼球上で回転してしまうことがあっても、その結果生じる画像の回転を補正し、ユーザに対して画像を見やすく提示することができる。
 表示素子駆動部27は、信号処理部26の制御にしたがって表示領域21の表示素子を駆動させ、画像を表示させたり、表示領域21の受光素子から供給された信号を信号処理部26に供給したりする。なお、以下、表示領域21の受光素子から出力される、受光素子の受光量に応じた信号を受光信号と称することとする。
 また、表示装置11の表示領域21は、例えば図3に示すように構成される。なお、図3は、図1中、奥行き方向に表示装置11を見たときの表示装置11の断面の一部を示している。
 図3では表示装置11の表示領域21には、画像等の情報を表示する表示画素51-1乃至表示画素51-7と、ユーザの眼球表面から入射する反射光を受光する受光素子52-1乃至受光素子52-7とが設けられている。そして、表示画素51-1乃至表示画素51-7からなる1つの表示デバイスが表示素子53とされる。
 なお、以下、表示画素51-1乃至表示画素51-7を特に区別する必要のない場合、単に表示画素51とも称する。また、以下、受光素子52-1乃至受光素子52-7を特に区別する必要のない場合、単に受光素子52とも称する。
 表示素子53は、例えば液晶表示素子や有機エレクトロルミネッセンス(OLED(Organic Light Emitting Diode))表示素子などから構成される。図3の例では、表示装置11の図中、右側、つまりユーザの眼球側に縦方向に表示画素51と受光素子52とが交互に並べられて配置されている。したがって、例えば図2では、表示領域21内の図2中、縦方向および横方向に表示画素51と受光素子52とが交互に並べられて配置される。
 また、表示装置11における表示画素51と受光素子52の図中、左側、つまり表示装置11の外界側には潤滑層54が設けられている。潤滑層54は例えば透明な合成樹脂などからなり、この潤滑層54によって、ユーザが表示装置11を目に装着したときに、ユーザの瞼が円滑に移動できるようになされている。
 なお、図3では、表示画素51と受光素子52が密着している例について説明したが、これらの表示画素51と受光素子52は必ずしも密着している必要はなく、表示画素51と受光素子52の間に隙間が設けられていてもよい。また、図3では、1つの表示画素51に対して1つの受光素子52が設けられているが、複数の表示画素51に対して1つの受光素子52が設けられるようにしてもよい。
〈視線検出について〉
 続いて、表示装置11によるユーザの視線の検出について説明する。
 例えば、図4に示すようにユーザの眼球EY11に装着された表示装置11に、表示画素51-1乃至表示画素51-11と、受光素子52-1乃至受光素子52-12が設けられているとする。また、表示装置11の表示領域21のうち、ユーザの眼球EY11における瞳孔BE11とは異なる部位、例えば白目や虹彩の部分と対向している領域を領域Aとし、表示領域21のうち、瞳孔BE11と対向している領域を領域Bとする。
 このような領域Aと領域Bに設けられた各表示画素51が発光すると、図中、実線の矢印で表されるように、表示画素51から射出された光は眼球EY11に向かって進み、眼球EY11に到達する。
 例えば、表示画素51から出力された光のうち、眼球EY11における白目や虹彩などの不透明な部分に入射した光は、眼球EY11の表面で吸収および反射される。したがって、領域Aでは表示画素51から出力された光の一部は、点線の矢印で表されるように眼球EY11表面で反射されて受光素子52により受光(検出)される。
 これに対して、瞳孔BE11は透明であるので、表示画素51から出力された光のうち、瞳孔BE11に入射した光は瞳孔BE11において殆ど反射されず、眼球EY11内の網膜へと到達し、網膜で吸収される。すなわち、図中、実線の矢印で表されるように領域Bでは表示画素51から出力された光は、眼球EY11表面で殆ど反射されることなく網膜に吸収される。したがって、領域Bでは、受光素子52において表示画素51から出力された光は殆ど検出されない。
 このように、各受光素子52により受光された表示画素51からの光の量の違い(差)を検出することによって、眼球EY11(瞳孔BE11)が向いている方向を示す眼球EY11の方位、つまりユーザの視線の方向を特定することができる。特に各時刻におけるユーザの視線の方向を特定することができれば、眼球の動き、つまり視線の動きを検出することができ、その視線の動きからユーザの心理状況や感情を推定することもできる。
 なお、厳密には、眼球EY11の何れの界面においても僅かな反射は生じるが、領域Aでの反射光の光量に対して、領域Bでの反射光の光量は非常に少なくなるため、領域Aと領域Bの判別は十分に可能である。
 また、ユーザが目を閉じている状態では、受光素子52には、表示画素51から出力され、眼球EY11において反射した光のみが入射する。一方、ユーザが目を開けている場合、表示領域21がある程度光を透過させるときには、受光素子52には表示画素51から出力された光の他、外部から表示領域21を通って眼球EY11に入射し、眼球EY11で反射された環境光も入射することになる。
 しかし、このような場合においても、眼球EY11のうちの白目や虹彩などの不透明な部位に入射した環境光は、眼球EY11で反射されて受光素子52に入射するのに対して、眼球EY11のうち瞳孔BE11に入射した環境光は、その殆どが瞳孔BE11を透過して網膜に到達する。つまり、瞳孔BE11に入射した環境光は殆ど反射せず、受光素子52での環境光の受光量も少なくなる。そのため、ユーザが目を開けていても閉じていても、領域Aと領域Bの判別は十分に可能である。
 具体的には、例えば図5の矢印Q11に示すように、ユーザが正面を向いている場合には、信号処理部26では矢印Q12に示す受光信号マップが得られる。
 例えば、矢印Q12に示す受光信号マップは、各受光素子52において受光された光の光量を示す画像データとされる。また、受光信号マップ上の各円の濃淡は、受光信号マップ上におけるそれらの円と同じ位置関係にある表示領域21上の受光素子52から出力された受光信号の値を示している。
 例えば受光信号マップ上の円が明るいほど、その円に対応する受光素子52の受光量が多く、受光信号の値が大きいことを示している。また、この例では、受光素子52は表示領域21上にアレイ状に配置されているので、受光信号マップ上においても各受光素子52に対応する円が縦方向および横方向に並べられて配置されている。
 矢印Q11に示す状態では、瞳孔BE11は図中、左方向を向いているので、ユーザの視線方向はほぼ正面の方向となっている。そのため、矢印Q12に示す受光信号マップでは、瞳孔BE11に対応する受光信号マップのほぼ中央の領域が周囲の領域と比べて暗くなっており、その暗くなっている領域は瞳孔BE11と同じ円形状となっている。これは、上述したように瞳孔BE11では殆ど反射が生じないからである。
 また、受光信号マップでは、瞳孔BE11に対応する中央の領域の周囲の領域は、眼球EY11における白目や虹彩などの反射光の光量が多い部分の位置を示している。
 表示装置11では、アレイ状に並べられた各受光素子52の間隔は設計段階で確定しているので、受光信号マップに基づいて瞳孔BE11の中心位置、つまり視線の方向を容易に算出することができる。
 例えばユーザの視線方向の検出結果は、表示装置11の眼球EY11と接する領域における、瞳孔BE11の中心が向けられている位置、つまり瞳孔BE11の中心と接している位置(以下、視線位置とも称する)などとされる。したがって、例えば矢印Q11に示す例では、表示装置11のほぼ中央の位置が視線位置とされる。
 また、表示装置11では、受光信号マップから瞳孔BE11の直径も算出することが可能である。例えば受光信号の値が所定値以下である領域が瞳孔BE11の領域とされ、その領域の直径が瞳孔BE11の直径とされる。
 また、矢印Q13に示すように、ユーザがやや上方を向いている場合には、信号処理部26では矢印Q14に示す受光信号マップが得られる。
 矢印Q13に示す状態では、瞳孔BE11は図中、やや上方向を向いているので、ユーザの視線方向はやや上方向となっている。そのため、矢印Q14に示す受光信号マップでは、瞳孔BE11に対応する受光信号マップの領域は矢印Q12に示した受光信号マップにおける場合と比べてやや上方向に位置している。
 このように、信号処理部26では、各受光素子52から出力される受光信号から得られる受光信号マップに基づいて瞳孔BE11の位置を検出することで、視線位置、つまり眼球EY11の方位を求めることができる。さらに、信号処理部26では眼球EY11の方位から、表示領域21に表示されている画像上、または実空間上のユーザが注視している対象物の上下左右の位置を算出することができる。
〈注視位置までの距離について〉
 また、表示装置11では、受光信号マップに基づいて、ユーザが注視している対象物までの距離を求めることもできる。
 ここで、図6を参照して、ユーザの左右の眼球の方位に基づいて、注視位置までの距離を検出する原理について説明する。
 例えば、図6に示すように、ユーザが左の眼球EY21L(左眼)に表示装置DP11Lを装着し、右の眼球EY21R(右眼)に表示装置DP11Rを装着した状態で、所定の対象物OB11または対象物OB12を注視したとする。
 ここで、表示装置DP11Lおよび表示装置DP11Rは、それぞれ表示装置11に対応する装置である。
 また、図6では対象物OB11が注視位置AT11にあり、対象物OB12が注視位置AT12にある。そして、ユーザから注視位置AT11までの距離は、ユーザから注視位置AT12までの距離よりも長くなっている。つまり、注視位置AT11が注視位置AT12よりも、よりユーザから遠い位置にある。
 一般的に人が何かを見る際には、物体までの距離に応じて左右の目に輻輳が生じる。つまり、左右の眼球がそれぞれ内側に回転し、その回転角度は注視している物体までの距離によって変化する。
 例えば図中、左側に示す例では、ユーザは、ほぼ正面の注視位置AT11にある対象物OB11を注視している。この例では、ユーザの左の眼球EY21Lの瞳孔BE21Lの中心および対象物OB11を結ぶ直線と、右の眼球EY21Rの瞳孔BE21Rの中心および対象物OB11を結ぶ直線とがなす角度が、対象物OB11を見ているユーザの輻輳角度となる。この輻輳角度は、ユーザの左右の目の輻輳量を示している。
 このようにユーザが対象物OB11を見ているときには、左の眼球EY21Lに装着された表示装置DP11Lでは左目の受光信号マップRM11Lが得られ、右の眼球EY21Rに装着された表示装置DP11Rでは右目の受光信号マップRM11Rが得られる。
 受光信号マップRM11Lおよび受光信号マップRM11Rから、ユーザの左右の瞳孔BE21Lおよび瞳孔BE21Rは、ユーザから見てやや内側を向いていることが分かる。
 また、例えば図中、右側に示す例では、ユーザは、ほぼ正面の注視位置AT12にある対象物OB12を注視している。この例では、ユーザの左の眼球EY21Lの瞳孔BE21Lの中心および対象物OB12を結ぶ直線と、右の眼球EY21Rの瞳孔BE21Rの中心および対象物OB12を結ぶ直線とがなす角度が、対象物OB12を見ているユーザの輻輳角度となる。
 このようにユーザが対象物OB12を見ているときには、左の眼球EY21Lに装着された表示装置DP11Lでは左目の受光信号マップRM12Lが得られ、右の眼球EY21Rに装着された表示装置DP11Rでは右目の受光信号マップRM12Rが得られる。
 図6に示す例から分かるように、ユーザから注視している対象物までの距離が短くなるほど、その対象物を見るときのユーザの輻輳角度は大きくなる。例えば図6の例では、対象物OB11を見ているときの輻輳角度よりも、対象物OB12を見ているときの輻輳角度がより大きくなっている。
 また、この輻輳角度の変化に伴って、受光信号マップにおけるユーザの瞳孔位置(視線位置)も変化する。図6の例では、受光信号マップにおいて対象物OB11を見ているときの瞳孔位置よりも、対象物OB12を見ているときの瞳孔位置がよりユーザの内側(ユーザの中心側)に位置していることが分かる。
 表示装置11では、受光素子52での光の検出結果から得られる対となる左右の眼球の方位、すなわち受光信号マップ上の瞳孔位置からユーザの左右の目の輻輳角度を算出することが可能であり、得られた輻輳角度から注視物体までの距離と、注視物体の上下左右の位置を求めることができる。
 このように注視物体までの距離を求めることができれば、左右方向だけでなく奥行き方向の位置も区別することができる。したがって、例えば左右の目に視差のある画像やボタン等を表示したときに、奥行きのある操作を実現することができる。
 なお、輻輳角度は、例えば表示装置DP11Lと表示装置DP11Rにおいて、それぞれ自身が有する受光素子52の受光信号から得られた受光信号マップのみが用いられて算出されるようにしてもよいし、左右の目の受光信号マップから算出されるようにしてもよい。
 左右の目の受光信号マップから輻輳角度が算出される場合、例えば表示装置DP11Lは表示装置DP11Rと通信し、表示装置DP11Rで得られた受光信号マップを受信する。そして、表示装置DP11Lは、表示装置DP11Lで得られた受光信号マップと、表示装置DP11Rから受信した受光信号マップとから輻輳角度を算出し、得られた輻輳角度を表示装置DP11Rに送信する。輻輳角度の算出時には、左目の受光信号マップにおける瞳孔位置を示す眼球の方位と、右目の受光信号マップにおける瞳孔位置を示す眼球の方位とから輻輳角度が算出される。
 これにより、表示装置DP11Lと表示装置DP11Rにおいて、共通の輻輳角度を得ることができる。この場合、信号処理部26により輻輳角度の算出が行なわれ、信号アンテナ23により輻輳角度の送受信が行なわれる。また、信号処理部26は、必要に応じて輻輳角度を用いて注視物体までの距離と、注視物体の上下左右の位置を求める。これらの注視物体までの距離等が表示装置DP11Lから表示装置DP11Rに送信されてもよい。
 さらに、左右の表示装置DP11Lと表示装置DP11Rが、それぞれ1つの受光信号マップに基づいて輻輳角度を算出する場合、左目または右目の受光信号マップにおける瞳孔位置に基づいて、輻輳角度が算出される。そのため、対象物がユーザの正面にないときには、表示装置DP11Lと表示装置DP11Rで得られる輻輳角度が異なる角度となる。つまり、左右で非対称な輻輳角度となる。しかし、左右それぞれの輻輳角度から、対象物体までの距離や対象物体の左右上下の位置を求めることが可能である。
 なお、表示装置DP11Lで得られた受光信号マップと、表示装置DP11Rで得られた受光信号マップとに基づいて、他の装置が輻輳角度を算出するようにしてもよい。
 そのような場合、例えば図7に示すように、制御装置81が表示装置DP11Lおよび表示装置DP11Rと通信し、受光信号マップを受信する。
 そして、制御装置81は、表示装置DP11Lから受信した受光信号マップと、表示装置DP11Rから受信した受光信号マップとに基づいて輻輳角度を算出し、得られた輻輳角度を表示装置DP11Lおよび表示装置DP11Rに送信する。
 なお、制御装置81が輻輳角度に基づいて、対象物体までの距離や対象物体の位置などを算出し、表示装置DP11Lおよび表示装置DP11Rに送信するようにしてもよい。
 以上のように、表示装置11によれば、眼球からの反射光を直接受光して眼球の動き、つまり各時刻における眼球の方位(視線位置)を検出することができる。特に、表示領域21に複数の受光素子52を設けることで、眼球の微小な動きを精度よく検出することが可能となる。
〈マイクロサッカードの検出について〉
 ところで、眼球運動にはサッカードと呼ばれる微動があることが知られている。特に視線が留まっている間の無意識の眼球運動の中で、1回の動きの幅が最も大きいものはマイクロサッカードと呼ばれている。
 このような眼球の微動の向きは不規則ではなく、例え視線が別の場所に向いていたとしても、密かに注意を向けている物体の方に偏っており、マイクロサッカードには人の隠れた考えや欲望が表れていると考えられている。
 そこで、表示装置11においてマイクロサッカードを検出すれば、ユーザが注視している対象物だけでなく、ユーザが潜在的に興味を持っている対象物を特定することが可能となる。
 具体的には、例えば信号処理部26は、各時刻における受光信号マップに基づいて、それらの各時刻における眼球の方位、つまり視線位置を検出する。このとき、所定の期間において殆どの時刻で同じ視線位置が検出された場合、その視線位置がユーザの注視している位置、つまりユーザが注目している対象物の位置である。
 また、信号処理部26は、上述した所定の期間において、ユーザが注視している位置とは異なる視線位置のうち、眼球の方位の動き量が最も大きかった時刻の視線位置を、ユーザが潜在的に興味を持っている対象物の位置とする。つまり、最も大きかった眼球の動きがマイクロサッカードとして検出される。
〈生態状態の検出について〉
 また、表示装置11では、生体の状態を検出することも可能である。
 例えば表示装置11では、生体の状態としてユーザの心拍の拍動を検出することができる。以下、拍動を検出する原理について説明する。
 表示装置11では、表示画素51が所定波長の光を出力し、その光の眼球表面における反射により生じた反射光を受光素子52が受光する。そして、信号処理部26は、表示素子駆動部27を介して受光素子52から供給された受光信号の値に基づいて、表示装置11を装着しているユーザの心拍の拍動を検出する。
 例えば、心拍の拍動は図8に示すように周期的に生じ、拍動の時間は周期に対して短く、拍動のタイミングで血流が生じている。なお、図8において、横軸は時間を示しており、縦軸は受光信号の値、つまり血流の量を示している。
 図8では、血流量が急峻に変化している部分が拍動の部分であり、拍動が周期的に生じていることが分かる。
 拍動で血流が多いタイミングでは、毛細血管を流れる血液が多くなるため、血流の有無から拍動を検出することが可能となる。眼球には毛細血管が通っており、心拍の拍動に合わせて血流がある。
 血液中の成分であるオキシヘモグロビンとデオキシヘモグロビンでは光吸収の分光特性が異なり、805nmよりも短波長側ではデオキシヘモグロビンの方が高い吸光係数となり、805nmよりも長波長側ではオキシヘモグロビンの方が高い吸光係数となる。
 そこで、信号処理部26は表示素子駆動部27を制御して、表示画素51から805nmよりも波長の短い所定波長の光と、805nmよりも波長の長い所定波長の光とを順番(交互)に出力させる。また、信号処理部26は表示画素51から出力され、眼球表面で反射した光を受光素子52に受光させる。ここで、805nmよりも波長の短い光は、可視光とされてもよい。
 そして、信号処理部26は、短い波長の光を出力したときに得られた受光信号の値と、長い波長の光を出力したときに得られた受光信号の値との差分を求めることで、血液中にオキシヘモグロビンとデオキシヘモグロビンのどちらの成分が多く含まれているかを特定する。さらに、信号処理部26は、受光信号の差分から得られた特定結果と、所定期間における各時刻の受光信号の値の変化、つまり受光素子52で受光される反射光の強度の時間変動とに基づいて血流(血流量の変化)を検出し、血流の検出結果から拍動を求める。
 血液中のヘモグロビンは、特定波長帯の光に強い吸収スペクトルを有しており、その特定波長帯の光を照射したときの血液(血管)での反射光は、血管の容量変動によって変化するヘモグロビンの量に応じて変化する。そのため、眼球(毛細血管)表面に照射した光の反射光の強度から血流量を検出することができる。
 なお、血流量自体が生体の状態として信号処理部26により検出されてもよい。
 また、表示装置11では、眼球の充血度合いを検出することも可能である。
 眼球の充血は、何らかの影響を原因として白目表面の血管が拡張して浮き上がってしまうために目が赤く充血して見える現象であり、充血時には正常時よりも血液が流れる量が多くなっている。
 例えば、目の表面が細菌やウイルスの感染から結膜炎を起こした場合などに目が充血してしまう。また、パーソナルコンピュータやテレビゲーム、読書のし過ぎなどの目の酷使や、コンタクトレンズの影響、目の休養が十分になされていない場合に、目に酸素や栄養分を補足するために血液を多く送り込もうとして血管が拡張するといったことも、目が充血する原因となる。
 表示装置11の信号処理部26は、上述した心拍の拍動の検出において説明した場合と同様の処理を行なって、ユーザの眼球における血流量を検出し、正常時の血流量と、検出した血流量とを比較することで、充血度合いを求める。このように、血流量の差分を求めるなど、血流量を比較することで、正常時よりも血液の流れる量が多いことを検出することができる。なお、正常時の血流量は、予め定められた値とされてもよいし、過去の血流量から求められた値とされてもよい。
 表示装置11がユーザの目の充血度合いを検出することにより、眼球が疲労や病気で正常でないことを判断することが可能となる。
 以上のように、表示装置11が心拍や充血度合いなどの生体の状態(人体の状況)を検出することで、その検出結果を様々なアプリケーションプログラム等に利用することができるようになる。
 例えば、ユーザが驚いたり興奮したりして心拍が上昇することを表示装置11が検出し、さらに、表示装置11がその驚きや興奮の対象物を、ユーザの視線(眼球の動き)とマイクロサッカードの検出結果から特定することが可能となる。
〈表示領域について〉
 ところで、表示装置11は、図9に示す眼球の角膜よりも広い範囲を覆う構造とされている。図9では、眼球EY31において斜線が施された部分が角膜CO11を表している。
 表示装置11は眼球EY31に装着されたときに、表示装置11により角膜CO11全体が覆われるような大きさおよび形状とされる。
 また、例えば図10の上側に示すように、ユーザが正面を見ている状態では、眼球EY11の瞳孔BE11も正面を向いている。なお、図10において図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図10の上側に示す例では、瞳孔BE11が正面を向いている状態であり、表示装置11の各表示画素51から出力された光は眼球EY11へと向かって進む。
 なお、図中、実線の矢印は表示画素51から出力された光のうち、瞳孔BE11を通って網膜に到達した光を表している。また、図中、点線の矢印は表示画素51から出力された光のうち、瞳孔BE11を通らずに眼球EY11で吸収または反射される光が、仮に眼球EY11表面で吸収も反射もされずに網膜に到達したとしたときの光線を表している。
 図中、上側の例では、表示装置11における瞳孔BE11に対向する領域にある表示画素51から出力された光が網膜に到達し、瞳孔BE11とは異なる部分に対向する領域にある表示画素51から出力された光は網膜には到達しないことが分かる。
 また、図中、下側にはユーザが上方を向いているときの眼球EY11の状態が示されている。この例では、図中、上側の例と比較して瞳孔BE11が表示装置11の端方向(周囲方向)に移動しており、表示装置11の上端付近にある表示画素51から出力された光が瞳孔BE11を通って網膜に到達していることが分かる。また、表示装置11の中央付近にある表示画素51から出力された光は瞳孔BE11を通らず、眼球EY11表面で反射または吸収されることが分かる。
 表示装置11では、表示装置11全体の領域のうち、図10に示すように眼球EY11の移動に伴って瞳孔BE11が移動可能な範囲、より詳細には日常生活で使う瞳孔BE11の移動範囲の領域に対向する領域全体に表示画素51と受光素子52が設けられる。換言すれば、眼球EY11がどの方向を向いているときでも、瞳孔BE11と対向する表示装置11の領域近傍に表示画素51と受光素子52が配置されているようになされる。
 これにより、ユーザインターフェース操作の際に眼球EY11が移動しても、表示画素51により表示される情報が欠けることで情報が減少することを回避することが可能となる。すなわち、ユーザの視線がどの方向に向けられていても、表示画素51によりユーザに対して情報を提示することができるとともに、受光素子52によりユーザの視線位置を検出することができる。この場合、ユーザの全視野から画像を表示するための光が発せられ、ユーザの視界全体に画像が表示されることになる。
 なお、表示装置11の中央よりも広い範囲(瞳孔の移動範囲)の領域には、表示画素51または受光素子52の少なくとも一方が設けられていればよく、眼球が移動する範囲全てに必ず表示画素51と受光素子52が設けられている必要はない。
〈キャリブレーション処理の説明〉
 次に、表示装置11の動作について説明する。
 例えば、ユーザの視線の移動による眼球の動きでユーザインターフェース操作を行う際には、表示装置11がキャリブレーション処理を行うことで、ユーザの視線位置と表示領域21に表示される情報の位置との位置関係を正しく補正することができる。
 以下、図11のフローチャートを参照して、表示装置11によるキャリブレーション処理について説明する。このキャリブレーション処理は、例えばユーザがコンタクトレンズ型の表示装置11を眼球に装着すると開始される。
 ステップS11において、信号処理部26は表示素子駆動部27を制御して、表示画素51を発光させる。表示画素51は、表示素子駆動部27の制御に従って発光し、所定の画像を表示させる光を出力する。
 ステップS12において、受光素子52は眼球から入射してくる光の検出を開始する。すなわち、受光素子52は、表示装置11の外部や表示画素51から眼球に入射し、眼球表面で反射された光を受光して光電変換し、受光量に応じた受光信号を、表示素子駆動部27を介して信号処理部26に供給する。
 ステップS13において、信号処理部26は、表示素子駆動部27を制御して表示画素51にキャリブレーション位置決め画像を表示させる。表示画素51は、表示素子駆動部27の制御に従って発光することで、キャリブレーション位置決め画像を表示する。
 例えば、キャリブレーション位置決め画像はキャリブレーション用のマークの画像などとされ、キャリブレーション位置決め画像は、表示領域21の中央と上下左右の合計5つの各位置に順番に表示される。
 ステップS13では、信号処理部26は、中央と上下左右の各位置のなかから、まだキャリブレーション位置決め画像が表示されていない位置を1つ選択し、選択した位置にキャリブレーション位置決め画像を表示させる。
 また、表示領域21にはキャリブレーション位置決め画像とともに、必要に応じて、ユーザに対してキャリブレーション位置決め画像を見て位置確定の操作を行なうことを促すメッセージが表示されるようにしてもよい。
 キャリブレーション位置決め画像が表示されると、表示画素51からはキャリブレーション位置決め画像を表示するための光が出力され、その光の一部は眼球表面で反射されて受光素子52により受光される。すると、受光素子52は、受光した光の量に応じた受光信号を、表示素子駆動部27を介して信号処理部26に供給する。
 また、ユーザは、視線をキャリブレーション位置決め画像に向けて、キャリブレーション位置決め画像を所定時間以上注視したり、瞬きをしたりするなど予め定められた位置確定操作を行う。
 ステップS14において、信号処理部26は、受光素子52から供給された受光信号に基づいて、ユーザの視線位置を確定する。
 例えば、所定時間以上同じ位置を注視する動作が、ユーザによる位置確定操作とされている場合、信号処理部26は、受光信号に基づいて受光信号マップを生成し、得られた受光信号マップから各時刻におけるユーザの視線位置を求める。
 そして、信号処理部26は求めた各時刻の視線位置のうち、所定時間以上連続して検出された同じ視線位置を、キャリブレーション位置決め画像に対する視線位置とする。つまり、定められた視線位置が、ユーザがキャリブレーション位置決め画像を見ているときの視線の位置であるとされる。
 また、例えば瞬きをする動作がユーザによる位置確定操作とされている場合、信号処理部26は受光信号に基づいて受光信号マップを生成し、各時刻の受光信号マップに基づいて、ユーザの瞬きを検出するとともに各時刻におけるユーザの視線位置を求める。
 そして、信号処理部26は、瞬きが検出された時刻におけるユーザの視線位置を、キャリブレーション位置決め画像に対する視線位置とする。
 瞬きの検出は、例えば受光素子52で検出される光の強度、すなわち受光信号マップの各位置における値(受光信号の値)に基づいて行なわれる。
 ユーザが瞼を開けている場合、受光素子52により受光される光には、表示画素51からの光に加えて環境光も含まれているので、ユーザが瞼を開けている状態と、瞼を閉じている状態とでは、受光素子52により受光される光の強度が異なる。そのため、受光素子52で検出される光量レベルの変化、つまり受光信号の値の変化からユーザの瞬きを検出することができる。なお、光量レベルの変化に加えて時間的変動も考慮することで瞬きの検出精度をさらに向上させることができる。
 ステップS15において、信号処理部26は全ての位置について、処理を行なったか否かを判定する。例えば、表示装置11の中央と上下左右の各位置にキャリブレーション位置決め画像が表示され、それらの位置ごとに視線位置が求められた場合、全ての位置について処理を行なったと判定される。
 ステップS15において、まだ全ての位置について処理を行なっていないと判定された場合、処理はステップS13に戻り、上述した処理が繰り返される。すなわち、次の位置にキャリブレーション位置決め画像が表示され、視線位置が求められる。
 これに対して、ステップS15において、全ての位置について処理を行なったと判定された場合、ステップS16において、信号処理部26はキャリブレーションを行い、キャリブレーション処理は終了する。
 例えば信号処理部26は、各位置についてキャリブレーション位置決め画像の表示位置と、その位置にキャリブレーション位置決め画像を表示したときの視線位置とのずれ量を求め、キャリブレーションを行なう。すなわち、表示領域21における画像の表示位置と、実際にその画像をユーザが注視したときの視線位置とを一致させるための補正値が求められる。
 以上のようにして表示装置11は、キャリブレーション位置決め画像を表示させ、その表示位置とユーザの視線位置とに基づいてキャリブレーションを行なう。このようにキャリブレーションを行なうことで、表示位置と視線位置とのずれを正しく補正することができ、表示装置11の操作性を向上させることができる。
〈視線検出処理の説明〉
 キャリブレーション処理が行なわれると、ユーザは任意のアプリケーションプログラムを起動させて、所望の処理を実行させることができる。
 例えば、アプリケーションプログラムの実行時には、ユーザは視線を移動させて各種の操作を行なうことができる。そのような場合、表示装置11は、視線検出処理を行なってユーザの視線位置を検出し、その検出結果に応じた処理を行なう。
 以下、図12のフローチャートを参照して、表示装置11による視線検出処理を説明する。
 ステップS41において、信号処理部26は表示素子駆動部27を制御して、表示画素51を発光させる。表示画素51は、表示素子駆動部27の制御に従って発光し、所定の画像を表示させる光を出力する。これにより、表示領域21には、例えば情報選択のためのボタンやポインタなどが必要に応じて表示される。
 ステップS42において、受光素子52は眼球から入射してくる光の検出を開始する。すなわち、受光素子52は、表示装置11の外部や表示画素51から眼球に入射し、眼球表面で反射された光を受光して光電変換し、受光量に応じた受光信号を、表示素子駆動部27を介して信号処理部26に供給する。
 ステップS43において、信号処理部26は、受光素子52から供給された受光信号に基づいて、ユーザの視線位置を求める。すなわち、信号処理部26は受光信号に基づいて受光信号マップを生成し、得られた受光信号マップからユーザの瞳孔中心(眼球の方位)を検出することでユーザの視線位置を求める。
 ステップS44において、信号処理部26は視線位置に基づいて選択処理を行なう。
 例えば、表示領域21にポインタやカーソルが表示されている場合、信号処理部26は視線位置の移動に応じて、表示素子駆動部27を制御して表示画素51を駆動させ、表示領域21(表示画素51)に表示されているポインタやカーソルを移動させる。例えば、視線位置にポインタ等が位置するように表示が制御される。
 また、信号処理部26は、ポインタやカーソル、すなわちユーザの視線位置が表示領域21に表示されているボタンやアイコンなどの選択対象の領域に位置している場合、その選択対象が選択されたとする。なお、ユーザの視線位置が所定時間以上、選択対象の位置にある場合に、選択対象が選択されたとされるようにしてもよい。
 さらに、例えば表示領域21にポインタ等の指示手段が表示されない場合でも、視線位置がボタン等の選択対象の領域に位置しているときに、選択対象が選択されたとするようにしてもよい。
 その他、ユーザの視線位置がボタン等の選択対象にある状態で、ユーザが1回または複数回などの所定回数だけ瞬きをした場合や、視線位置がボタン等の選択対象にある状態で、ユーザが所定時間以上、瞼を閉じている場合に、選択対象が選択されたとされてもよい。この場合、信号処理部26は、受光信号マップに基づいて、視線位置とともに瞬きやユーザが目を閉じている時間を検出して、選択対象に対する選択処理が行なわれる。
 また、対となるユーザの左右の目に視差がある画像が提示されている場合には、ユーザから注視位置までの距離が用いられて選択処理が行なわれる。この場合、信号アンテナ23は、対となる他の眼球に装着されている表示装置11から眼球の方位または受光信号マップを受信して信号処理部26に供給する。そして信号処理部26は、ステップS43で得られた眼球の方位(視線位置)と、受信された眼球の方位または受光信号マップとから輻輳角度を算出し、得られた輻輳角度から注視位置までの距離を算出する。
 さらに、信号処理部26が、表示素子駆動部27を介して表示画素51を制御し、選択されたボタン等の選択対象を、選択状態となっていない他の選択対象の色や形状と異なる色や形状、すなわち異なる表示形式で表示させるようにしてもよい。これにより、ユーザは、どの選択対象が選択状態となっているかを容易に知ることができる。
 なお、選択対象は、ボタンなどに限らず、画像や文字情報など、選択の対象となり得るものであればどのようなものであってもよい。
 ステップS45において、信号処理部26は、ステップS44の選択処理による選択に応じた処理を実行し、視線検出処理は終了する。
 例えば、信号処理部26は、選択された選択対象に対応付けられたソフトウェアや計算処理を実行したり、表示画素51を制御して、選択対象とされている画像や文字情報を拡大表示させたりする。また、選択処理による選択に応じて、例えばアプリケーションプログラムで利用される情報として、受光信号マップから瞳孔の直径などが求められてもよい。
 なお、ステップS45においては、上述した生体の状態の検出結果やマイクロサッカードの検出結果と、選択処理による選択とに応じた処理が実行されるようにしてもよい。
 以上のようにして表示装置11は、表示画素51等からの光を受光素子52で受光し、得られた受光信号に基づいて視線位置を検出するとともに、視線位置に基づいて選択処理を行い、その選択結果に応じた処理を実行する。
 このように、受光素子52で得られる受光信号に基づいて視線位置を検出することで、表示装置11以外に外部の装置を必要とせずに簡単にユーザの操作を特定することができる。換言すれば、簡単な構成で表示装置11の操作性を向上させることができる。
 また、表示装置11では、ユーザが目を閉じた状態であっても眼球の方位、つまり視線位置を高精度に検出することができる。このとき、表示領域21において互いに隣接する受光素子52間の距離(ピッチ)を短くするほど、視線位置の検出精度を向上させることができる。
〈生体状態検出処理の説明〉
 さらに、表示装置11では生体の状態を検出することができる。
 以下、図13のフローチャートを参照して、表示装置11による生体状態検出処理について説明する。
 なお、この生体状態検出処理は、例えば図12を参照して説明した視線検出処理と交互に行なわれる。すなわち、表示領域21に画像等の情報が表示されている期間に視線検出処理が行なわれ、その期間の後、生体状態検出処理が行なわれて生体の状態が検出され、さらにその後、再び表示領域21に画像等が表示されて視線検出処理が行なわれる。そして、それ以降においても視線検出処理と生体状態検出処理とが交互に行なわれる。
 ステップS71において、信号処理部26は表示素子駆動部27を制御して、表示画素51を発光させる。表示画素51は、表示素子駆動部27の制御に従って発光し、予め定められた所定の波長帯域の光を出力する。
 ステップS72において、受光素子52は眼球から入射してくる光を検出する。すなわち、受光素子52は、表示装置11の外部や表示画素51から眼球に入射し、眼球表面で反射された光を受光して光電変換し、受光量に応じた受光信号を、表示素子駆動部27を介して信号処理部26に供給する。
 なお、ステップS71とステップS72の処理は、表示画素51から出力される光の波長ごとに所定回数だけ交互に行なわれる。
 例えば生体状態として、心拍の拍動や血流量、充血度合いなどが検出される場合、上述したように805nmよりも短い所定波長の光の出力および受光と、805nmよりも長い所定波長の光の出力および受光とが交互に行なわれる。
 生体状態を検出する場合には、視線検出処理が行なわれていない状態で、受光素子52において表示画素51からの光が検出される。そのため、生体状態の検出時には受光素子52は、視線検出処理が行なわれているときに表示画素51から出力される、画像表示のための光の影響を受けないですむので、より正確に生体状態を検出することができる。
 なお、ここでは2つの特定の波長の光を表示画素51から出力させる例について説明したが、表示画素51から出力させる光の波長を時間とともに変化させながら、特定の波長帯域の3以上の各波長の光を順番に眼球に照射するようにしてもよい。
 ステップS73において、信号処理部26は、各時刻の受光信号の差分を求める。例えば、短い波長の光を出力したときに得られた受光信号と、長い波長の光を出力したときに得られた受光信号との差分を求めることで、血液中にオキシヘモグロビンとデオキシヘモグロビンのどちらの成分が多く含まれているかを特定することができる。
 ステップS74において、信号処理部26は、ステップS72で得られた各時刻の受光信号に基づいて生体の状態を求める。
 例えば生体の状態として心拍の拍動が検出される場合、信号処理部26はステップS73で得られた差分と、ステップS72で得られた所定期間の各時刻の受光信号の変化とに基づいて血流(血流量の変化)を検出し、血流の検出結果から拍動を求める。
 また、例えば生体の状態として眼球の充血度合いを検出する場合、信号処理部26は、所定期間の各時刻の受光信号の変化に基づいてユーザの眼球における血流量を検出し、予め保持している正常時の血流量と、検出した血流量とを比較して充血度合いを求める。なお、血流量自体が生体の状態として検出されてもよい。
 信号処理部26は、心拍の拍動や充血度合い等の生体の状態を求めると、得られた生体の状態を示す情報を、生体の状態を利用するアプリケーションプログラムに出力し、生体状態検出処理は終了する。
 例えば、生体の状態を示す情報は、アプリケーションプログラムで利用するために信号処理部26に記録されたり、信号処理部26から信号アンテナ23を介して外部に送信されたりする。また、生体の状態を示す情報が信号処理部26において、選択対象の選択処理等に利用されるようにしてもよい。
 以上のようにして表示装置11は、特定波長の光を表示画素51から出力させるとともに、その光を受光素子52により受光し、その結果得られた受光信号から生体の状態を検出する。
 このように表示画素51からの光を受光素子52で受光することで、簡単に生体の状態を検出することができ、生体状態の検出結果からより多くの情報を得ることができる。例えば、生体の状態としてユーザの心拍の拍動を検出すれば、どきどきしているなどのユーザの感情や心理状況を推定することが可能となる。
 なお、上述したキャリブレーション処理や視線検出処理、生体状態検出処理では、全ての処理が表示装置11により行なわれると説明したが、一部の処理が図7に示した制御装置81により行なわれるようにしてもよい。
〈第2の実施の形態〉
〈コンタクトレンズ型の表示装置の外観の構成例〉
 また、以上においては、図2に示したように表示装置11を正面から見たときの形状が円形である例について説明したが、例えば図14に示すように楕円形状とされてもよい。なお、図14において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図14に示す表示装置101は、表示領域21、給電アンテナ22、信号アンテナ23、発電部24、センサ25、信号処理部26、および表示素子駆動部27から構成される。
 表示装置101の表示領域21乃至表示素子駆動部27は、表示装置11の表示領域21乃至表示素子駆動部27と構成も動作も同じであり、表示装置101と表示装置11とは装置全体の外観の形状と、表示領域21の形状のみが異なる。
 図14は、コンタクトレンズ型の表示装置101を装着したユーザを正面から見たときと同じ方向から表示装置101を見た図であり、図14では表示装置101は横方向に長い楕円形状となっている。そのため、ユーザが表示装置101を眼球に装着した状態では、円形状の表示装置11と比べて表示装置101が眼球に対して回転しにくくなる。これにより、表示装置101の眼球に対する回転ずれを抑制することができる。
 また、図14の例では、表示装置101の表示領域21も横方向に長い楕円形状となっている。
 さらに、表示装置101は図中、縦方向よりも横方向に長い形状となっているため、表示領域21の上下に隣接する部分の領域よりも、表示領域21の左右に隣接する部分の領域の方が、より面積が広くなっている。これらの表示領域21ではない表示装置101上の領域は、ユーザの瞳孔の移動範囲外の領域である。
 そこで、表示装置101では表示領域21の図中、左右に隣接する、表示装置101の左右(横方向)の端近傍の領域に発電部24乃至表示素子駆動部27が配置されている。このように表示領域21の左右に隣接する領域に発電部24乃至表示素子駆動部27などの表示装置101を駆動するための素子を配置することで、これらの素子が画像表示の妨げとなってしまうことを防止することができる。
 図15は、ユーザがコンタクトレンズ型の表示装置101を装着した状態を、ユーザの正面から見た装着構造を示している。
 表示装置101は図中、縦方向に比べて横方向の幅が長くなっている。したがって、表示装置101がユーザの眼球に装着された状態では、表示装置101が眼球を覆う縦方向の幅よりも横方向の幅がより広くなる。また、表示装置101の上下方向の端の位置はユーザの瞼と眼球の付け根の手前までとされ、左右方向の幅は眼球が左右に移動する範囲までの幅とされて、左右方向の幅が長くなっている。
 また、表示装置101は、表示装置101がユーザの頭部に対して動かないように頭部に対して固定しておく構造を有している。
 例えば、ユーザの視線の変動に伴う眼球の移動に対して、コンタクトレンズ型の表示装置101が眼球とともに移動すると、表示領域21により表示されている情報(画像)の、ユーザの頭部に対する絶対位置も移動してしまう。ユーザの頭部に対する情報(画像)の絶対位置の移動は表示位置の移動として認識されることから、ユーザの頭部に対して常にコンタクトレンズ型の表示装置101の位置を固定することが望ましい。
 そこで、例えば図16に示すように、表示装置101の外周近傍には凸部が設けられている。図16に示す例では、表示装置101は、ユーザの眼球の角膜CO21全体を覆うように装着されている。
 また、この例では表示装置101の上下の端が、瞼と眼球が上下端でつながる部分の付け根の手前側、つまり輪部近傍に位置しており、表示装置101の上下の端部分の外界側表面に、外界側に突出した凸部141と凸部142が設けられている。これらの凸部141と凸部142が瞼(瞼結膜)にあたり、これにより眼球が動いたときや、ユーザが瞬きをしたときでも表示装置101がユーザの頭部に対して動かないように固定される。
 なお、表示装置101に凸部141と凸部142を設ける例について説明したが、例えば図17に示すように、表示装置101の上下の外周近傍に高摩擦部151と高摩擦部152を設けることで、表示装置101をユーザの頭部に対して固定するようにしてもよい。
 高摩擦部151と高摩擦部152は、表示装置101の中央部に比べて瞼との摩擦を高めた処理が施されている。そのため、表示装置101をユーザの眼球に装着した状態では、高摩擦部151および高摩擦部152と、ユーザの瞼(瞼結膜)との摩擦により、表示装置101がユーザの頭部に対して動かないように固定される。
 このように、表示装置101に凸部141と凸部142、または高摩擦部151と高摩擦部152が設けられる場合、これらの凸部や高摩擦部は図18に示す領域SR11および領域SR12に設けられる。
 なお、図18は表示装置101を装着したユーザを正面から見たときと同じ方向から表示装置101を見た図を示している。したがって、表示装置101の図中、上側がユーザの目の上側に対応し、表示装置101の図中、下側がユーザの目の下側に対応する。
 この場合、表示装置101の上側の端に沿って設けられた領域SR11に図16に示した凸部141、または図17に示した高摩擦部151が設けられる。また、表示装置101の下側の端に沿って設けられた領域SR12に図16に示した凸部142、または図17に示した高摩擦部152が設けられる。
 ここで、凸部141と凸部142、または高摩擦部151と高摩擦部152は、表示装置101の図中、手前側、つまり外界側に設けられる。
 なお、ここでは表示装置101に凸部や高摩擦部が設けられる例について説明したが、図2に示した表示装置11の上下の端に沿って凸部や高摩擦部が設けられてもよい。
〈変形例1〉
〈表示領域の構成例〉
 また、以上においては、図3に示したように表示領域21内に表示画素51と受光素子52とが密着して設けられている例について説明したが、表示領域21に外部からの環境光を透過させる透過領域が設けられるようにしてもよい。
 そのような場合、表示領域21は、例えば図19に示すように構成される。なお、図19における縦方向および横方向は、例えば図14における縦方向および横方向に対応する。また、図19において、1つの四角形の領域は、表示画素51、受光素子52、または透過領域を表している。
 具体的には、黒い四角形は1つの表示画素51の領域を表しており、斜線が施された四角形は1つの受光素子52の領域を表しており、白い四角形は透過領域を表している。ここで、透過領域は、表示画素51や受光素子52よりも光の透過率(透明度)の高い領域である。
 例えば矢印Q31に示される四角形は、1つの表示画素51の領域を表しており、その表示画素51の図中、上下左右は透過領域とされている。また、矢印Q31に示される表示画素51の斜め上および斜め下には、受光素子52が配置されている。したがって、各表示画素51は、4つの受光素子52と4つの透過領域とに囲まれている。
 このように各表示画素51周辺に表示装置11または表示装置101を通した外界の光(環境光)を透過する透過領域を設けることで、ユーザが表示装置11や表示装置101を装着した際にも周囲を見ることが可能となる。また、この例では、各表示画素51に隣接して受光素子52が設けられているので、表示画素51から出力され、眼球で反射された光を受光素子52で受光することができる。
〈変形例2〉
〈表示領域の構成例〉
 また、図20に示すように表示領域21が構成されるようにしてもよい。なお、図20において、1つの四角形の領域は、表示画素51、受光素子52、または透過領域を表している。
 具体的には黒い四角形は1つの表示画素51の領域を表しており、斜線が施された四角形は1つの受光素子52の領域を表しており、白い四角形は透過領域を表している。
 例えば矢印Q41に示される四角形は1つの表示画素51の領域を表しており、その表示画素51は透過領域に囲まれている。
 また、矢印Q42に示される四角形は1つの表示画素51の領域を表しており、その表示画素51の図中、右斜め上には1つの受光素子52が配置されており、矢印Q42に示される表示画素51に隣接する他の領域は透過領域となっている。
 図20に示す例では、表示領域21に設けられた受光素子52の数は、表示領域21に設けられた表示画素51の数よりも少なくなっており、その分だけ多くの透過領域が設けられている。このように表示画素51数よりも少ない数の受光素子52が設けられるようにすることで、表示装置外部から表示領域21を透過する光(環境光)をより多くすることができ、図19に示した例と比べて、ユーザがより明るく周囲を見ることができる。
〈変形例3〉
〈表示領域の構成例〉
 さらに、表示領域21に設けられる表示画素51が透過性能を有する場合には、表示領域21に透過領域を設けなくても、ユーザは表示画素51を通して周囲を見ることができる。そのような場合、表示領域21は例えば図21に示すように構成される。
 なお、図21において、黒い領域は表示画素51の領域を表しており、斜線が施された四角形は1つの受光素子52の領域を表している。
 この例では、表示画素51に隣接して受光素子52が設けられている。また、表示画素51における光の透過率が、受光素子52における光の透過率よりも高くなっており、ユーザは表示画素51を通してユーザの周囲を見ることができる。
〈第3の実施の形態〉
〈コンタクトレンズ型の表示装置の構成例〉
 さらに、表示装置101に圧力センサを設け、表示装置101を装着したユーザの瞼の開閉を検出したり、ユーザが瞼を強く閉じたときの圧力を検出したりするようにしてもよい。そのような場合、表示装置101は例えば図22に示すように構成される。なお、図22において、図14における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図22に示す表示装置101は、図14に示した表示装置101に対してさらに圧力センサ181が設けられている点で図14の表示装置101と異なり、他の点では図14の表示装置101と同じ構成とされている。
 すなわち、図22の表示装置101は、表示領域21、給電アンテナ22、信号アンテナ23、発電部24、センサ25、信号処理部26、表示素子駆動部27、および圧力センサ181から構成される。
 圧力センサ181は図中、右側の端近傍に位置し、発電部24から電力を受けて動作する。また、圧力センサ181は表示装置101の図中、奥行き方向に対して加えられた圧力を検出し、その検出結果を、表示素子駆動部27を介して信号処理部26に供給する。
 信号処理部26は、圧力センサ181から供給された圧力の検出結果に基づいてユーザの瞼の開閉等を検出し、例えばユーザが瞼を閉じたときに選択対象の選択を決定したり、ユーザが瞼を強く閉じたとき、つまり所定値以上の圧力が検出されたときに選択対象の選択を決定したりする。
 このように圧力センサ181による圧力の検出結果に基づいてユーザ操作を検出することにより、表示装置101の操作性をさらに向上させることができる。
〈第4の実施の形態〉
〈コンタクトレンズ型の視線検出装置の構成例〉
 なお、以上においては、ユーザの視線方向を検出する本技術を表示装置に適用する例について説明したが、本技術は表示装置に限らず、ユーザの視線方向(眼球の方位)を検出する装置全般に対して適用可能である。以下では、ユーザの視線方向を検出する視線検出装置に本技術を適用した実施の形態について説明する。
 図23は、本技術を適用した視線検出装置の構成例を示す図である。なお、図23において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 コンタクトレンズ型の視線検出装置211は、ユーザの眼球に装着可能な形状となっており、視線検出装置211が眼球に装着された状態では、視線検出装置211がユーザの眼球の角膜全体を覆うようになされている。
 視線検出装置211は、検出領域221、給電アンテナ22、信号アンテナ23、発電部24、センサ25、信号処理部26、および発光素子駆動部222から構成される。
 なお、図23は視線検出装置211を装着したユーザを正面から見たときと同じ方向から視線検出装置211を見た図であり、図23では視線検出装置211は楕円形状となっている。
 検出領域221は、ユーザの眼球表面に対して視線検出用の光を射出する複数の発光部からなる発光素子と、発光部に隣接して配置され、ユーザの眼球表面で反射した光を受光する受光素子とを有している。また、検出領域221では上述した表示領域21と同様に、ユーザの眼球の瞳孔が移動可能な範囲の領域に対向する検出領域221内の領域に、発光部または受光素子の少なくとも一方が設けられている。
 発光素子駆動部222は、信号処理部26の制御にしたがって検出領域221の発光素子を駆動させ、各発光部から光を射出させたり、検出領域221の受光素子から供給された受光信号を信号処理部26に供給したりする。
 視線検出装置211では、給電アンテナ22乃至信号処理部26の配置位置は、図14の表示装置101における場合と同じ配置位置となっている。
 また、視線検出装置211の検出領域221は、例えば図24に示すように構成される。なお、図24は、図23中、横方向から視線検出装置211を見たときの視線検出装置211の断面の一部を示している。なお、図24において図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図24では視線検出装置211の検出領域221には、視線方向を検出するための光を射出する発光部251-1乃至発光部251-7と、ユーザの眼球表面から入射する反射光を受光する受光素子52-1乃至受光素子52-7とが設けられている。そして、発光部251-1乃至発光部251-7からなる1つの発光デバイスが発光素子252とされる。
 なお、以下、発光部251-1乃至発光部251-7を特に区別する必要のない場合、単に発光部251とも称する。
 発光部251は、発光することで、視線検出のための光を射出する機能を有するが、図3に示した表示画素51のように情報を表示する機能は有していない。
 図24の例では、視線検出装置211の図中、右側、つまりユーザの眼球側に縦方向に発光部251と受光素子52とが交互に並べられて配置されている。したがって、例えば図23では、検出領域221内の図23中、縦方向および横方向に発光部251と受光素子52とが交互に並べられて配置される。
 なお、図24では、発光部251と受光素子52が密着している例について説明したが、これらの発光部251と受光素子52は必ずしも密着している必要はなく、発光部251と受光素子52の間に隙間が設けられていてもよい。また、図24では、1つの発光部251に対して1つの受光素子52が設けられているが、複数の発光部251に対して1つの受光素子52が設けられるようにしてもよい。
 さらに検出領域221に、複数の発光部251からなる発光素子252が設けられる例について説明したが、検出領域221全体の領域で発光する1つの発光部からなる発光素子252を検出領域221に設けるようにしてもよい。この場合、発光素子252の各領域に、それらの領域における受光量を検出するための受光素子52を設ければよい。
 また、外界から眼球に入射してくる光のみを利用してユーザの視線方向を検出する場合には、視線検出装置211に必ずしも発光素子252を設ける必要はない。
〈キャリブレーション処理の説明〉
 次に、視線検出装置211の動作について説明する。
 例えば、視線検出装置211がユーザに装着されるとキャリブレーション処理が開始される。以下、図25のフローチャートを参照して、視線検出装置211によるキャリブレーション処理について説明する。
 ステップS101において、信号処理部26は発光素子駆動部222を制御して、発光部251を発光させる。発光部251は、発光素子駆動部222の制御に従って発光し、ユーザの視線方向を検出するための光を出力する。
 ステップS102において、受光素子52は眼球から入射してくる光の検出を開始する。すなわち、受光素子52は、視線検出装置211の外部や発光部251から眼球に入射し、眼球表面で反射された光を受光して光電変換し、受光量に応じた受光信号を、発光素子駆動部222を介して信号処理部26に供給する。
 また、キャリブレーション処理が開始されると、ユーザは予め定められた方向へと視線を向ける。例えばユーザが、視線検出装置211と無線により接続されている制御装置から出力される音声ガイダンス等に従って、可能な限り大きく視線を上下左右に移動させる。
 このようにユーザが視線を上下左右に移動させている間、発光部251からは、その視線方向を検出するための光が出力され、受光素子52では、発光部251から出力されて眼球で反射された光など、眼球表面から入射した光を受光し、その受光量に応じた受光信号を、発光素子駆動部222を介して信号処理部26に供給する。
 ステップS103において、信号処理部26は、受光素子52から供給された受光信号に基づいて、ユーザの視線位置を求める。
 例えば、ユーザが上下左右に大きく視線を動かす場合、信号処理部26は、ユーザにより動かされた視線の上下左右の各端の位置を視線位置として求める。これにより、各視線位置からユーザが視線を移動可能な範囲を求めることができる。なお、視線位置の算出時には、例えば図11のステップS14と同様の処理が行われる。
 ステップS104において、信号処理部26は求めた視線位置に基づいてキャリブレーションを行い、キャリブレーション処理は終了する。
 例えばキャリブレーション後において、視線検出装置211による視線の検出結果が、ユーザが視線を移動させることで、視線検出装置211とは異なる外部のディスプレイ上のカーソルを移動させる処理に利用されるとする。
 そのような場合、信号処理部26は、ステップS103の処理で求めた、上下左右の各位置に対する視線位置に基づいて、ユーザの視線が移動可能な範囲を求める。そして、信号処理部26は、ユーザの視線が移動可能な範囲からマージンを差し引いて得られた領域の各位置と、ディスプレイの各位置とを対応付けることでキャリブレーションを行う。
 以上のようにして視線検出装置211は、いくつかの視線位置に基づいてキャリブレーションを行なう。このようにキャリブレーションを行なうことで、外部のディスプレイ等の特定領域と、ユーザの視線の移動先の領域との対応等をとることができ、ユーザによるインターフェース操作の操作性を向上させることができる。
〈視線検出処理の説明〉
 例えば視線検出装置211と外部の制御装置とが無線により接続されている場合、キャリブレーション処理が行なわれると、ユーザは任意のアプリケーションプログラムを起動させて、所望の処理を実行させることができる。
 例えば、アプリケーションプログラムの実行時には、ユーザは視線を移動させて各種の操作を行なうことができる。そのような場合、視線検出装置211は、視線検出処理を行なってユーザの視線位置を検出し、その検出結果を外部の制御装置に出力する。
 以下、図26のフローチャートを参照して、視線検出装置211による視線検出処理を説明する。
 ステップS131において、信号処理部26は発光素子駆動部222を制御して、発光部251を発光させる。発光部251は、発光素子駆動部222の制御に従って発光し、ユーザの視線方向を検出するための光を出力する。
 ステップS132において、受光素子52は眼球から入射してくる光の検出を開始する。すなわち、受光素子52は、視線検出装置211の外部や発光部251から眼球に入射し、眼球表面で反射された光を受光して光電変換し、受光量に応じた受光信号を、発光素子駆動部222を介して信号処理部26に供給する。
 ステップS133において、信号処理部26は、受光素子52から供給された受光信号に基づいて、ユーザの視線位置を求める。すなわち、信号処理部26は受光信号に基づいて受光信号マップを生成し、得られた受光信号マップからユーザの瞳孔中心(眼球の方位)を検出することでユーザの視線位置を求める。
 ステップS134において、信号処理部26は求めた視線位置を出力し、視線検出処理は終了する。
 例えば、信号処理部26は、求めた視線位置を信号アンテナ23に供給し、制御装置に送信させる。制御装置は、例えば視線検出装置211から受信した視線位置に応じてカーソル等を移動させるなど、視線位置に応じた処理を実行する。
 以上のようにして視線検出装置211は、発光部251等からの光を受光素子52で受光し、得られた受光信号に基づいて視線位置を検出して、その検出結果を出力する。
 このように、受光素子52で得られる受光信号に基づいて視線位置を検出することで、視線検出装置211以外に外部の装置を必要とせずに簡単にユーザの操作を特定することができる。換言すれば、簡単な構成で操作性を向上させることができる。
 なお、ここでは視線検出装置211がユーザの視線位置を検出する処理について説明したが、視線検出装置211が、発光部251から特定の波長の光を出力させて生体状態を検出するようにしたり、左右の目の輻輳量や対象物までの距離を算出したり、瞳孔の直径を求めたりするようにしてもよい。
 さらに、以上においては、受光信号マップ上の瞳孔領域における受光信号の値が、白目や虹彩部分の領域における受光信号の値よりも小さくなることを利用して、受光信号マップから瞳孔領域、つまり視線位置を検出する例について説明した。
 これは、換言すれば、瞳孔を透過した光が到達する網膜の分光反射率と、白目や虹彩部分の分光反射率との差を利用して受光信号マップからユーザの瞳孔領域を検出することである。
 したがって、表示画素51や発光部251などから射出させる光の波長によっては、白目や虹彩部分の反射率よりも、網膜の反射率の方が大きくなることもある。そのような場合、受光信号マップ上においては、瞳孔領域における受光信号の値が、白目や虹彩部分の領域における受光信号の値よりも大きくなる。
 このように、白目や虹彩部分の反射率よりも、網膜の反射率の方が大きくなる光を表示画素51や発光部251から出力させる場合であっても、信号処理部26において受光信号マップから瞳孔領域を検出することが可能である。この場合、信号処理部26は、受光信号マップにおける受光信号の値が大きい領域を、瞳孔領域として検出する。
 何れにしても信号処理部26は、受光信号マップの各領域における受光信号の値に基づいて、瞳孔領域(視線位置)を検出することが可能である。このとき、受光信号の値が大きい領域を瞳孔領域とするか、受光信号の値が小さい領域を瞳孔領域とするかは、表示画素51や発光部251から出力させる光の波長、および白目と虹彩や網膜の分光反射率特性などに応じて定めればよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
[1]
 眼球に装着可能な検出装置であって、
 前記眼球から入射する光を受光する受光素子を備える検出装置。
[2]
 光を出力する発光素子をさらに備え、
 前記受光素子は、前記発光素子近傍に設けられている
 [1]に記載の検出装置。
[3]
 前記発光素子は複数の発光部からなり、
 前記受光素子は前記発光部近傍に設けられている
 [2]に記載の検出装置。
[4]
 前記受光素子は、前記発光部から出力されて前記眼球で反射された光を受光し、
 前記検出装置の各領域に配置された複数の前記受光素子による光の受光量を検出する信号処理部をさらに備える
 [3]に記載の検出装置。
[5]
 前記発光部は、情報を表示する表示画素である
 [3]または[4]に記載の検出装置。
[6]
 前記検出装置は、前記眼球に装着されたときに角膜全体を覆うようになされている
 [2]乃至[5]の何れか一項に記載の検出装置。
[7]
 前記検出装置が前記眼球に装着された状態において、前記眼球の瞳孔が移動可能な範囲の領域に対向する前記検出装置の領域に、前記発光部または前記受光素子の少なくとも一方が設けられている
 [3]乃至[6]の何れか一項に記載の検出装置。
[8]
 前記検出装置が前記眼球を覆う縦方向の幅よりも横方向の幅が広くなるようになされている
 [2]乃至[7]の何れか一項に記載の検出装置。
[9]
 前記検出装置における横方向の端近傍に、前記発光素子および前記受光素子とは異なる素子が配置されている
 [8]に記載の検出装置。
[10]
 前記検出装置は、前記眼球を有する頭部に対して前記検出装置を固定する構造を有している
 [2]乃至[9]の何れか一項に記載の検出装置。
[11]
 前記信号処理部は、前記複数の前記受光素子の受光量に基づいて前記眼球の方位を求める
 [4]に記載の検出装置。
[12]
 前記信号処理部は、前記眼球の方位と、前記眼球と対となる眼球の方位とに基づいて左右の目の輻輳量を算出し、前記輻輳量に基づいて、注視されている対象物までの距離を算出する
 [11]に記載の検出装置。
[13]
 前記信号処理部は、前記複数の前記受光素子の受光量に基づいて前記眼球の瞳孔の直径を求める
 [4]に記載の検出装置。
[14]
 前記信号処理部は、前記複数の前記受光素子の受光量に基づいて生体の状態を検出する
 [4]に記載の検出装置。
[15]
 前記発光部は、所定波長の光を前記眼球に照射するか、または複数の異なる波長の光を順番に前記眼球に照射し、
 前記信号処理部は、前記眼球に照射された前記所定波長の光または前記複数の異なる波長の光の前記受光素子における受光量に基づいて前記生体の状態を検出する
 [14]に記載の検出装置。
[16]
 前記発光部は、情報を表示する表示画素であり、前記情報を表示する期間の後に、前記所定波長の光、または前記複数の異なる波長の光を前記眼球に照射する
 [15]に記載の検出装置。
[17]
 眼球から入射する光を受光する受光素子と、
 前記受光素子による光の受光量を検出する信号処理部と
 を備え、前記眼球に装着可能な検出装置の検出方法であって、
 前記受光素子が前記眼球で反射された光を受光する受光ステップと、
 前記信号処理部が、前記検出装置の各領域に配置された複数の前記受光素子による光の受光量を検出する検出ステップと
 を含む検出方法。
[18]
 前記検出装置に設けられた発光素子が光を出力する発光ステップをさらに含み、
 前記受光ステップにおいて、前記受光素子は前記発光素子から出力され、前記眼球で反射された光を受光する
 [17]に記載の検出方法。
[19]
 前記信号処理部が、前記複数の前記受光素子の受光量に基づいて前記眼球の方位を求める算出ステップをさらに含む
 [18]に記載の検出方法。
[20]
 前記算出ステップにおいて、前記信号処理部は、前記眼球の方位と、前記眼球と対となる眼球の方位とに基づいて左右の目の輻輳量を算出し、前記輻輳量に基づいて、注視されている対象物までの距離を算出する
 [19]に記載の検出方法。
 11 表示装置, 21 表示領域, 23 信号アンテナ, 25 センサ, 26 信号処理部, 27 表示素子駆動部, 51-1乃至51-7,51 表示画素, 52-1乃至52-7,52 受光素子, 53 表示素子, 81 制御装置, 101 表示装置, 141 凸部, 142 凸部, 151 高摩擦部, 152 高摩擦部, 181 圧力センサ, 211 視線検出装置, 251-1乃至251-7,251 発光部, 252 発光素子

Claims (20)

  1.  眼球に装着可能な検出装置であって、
     前記眼球から入射する光を受光する受光素子を備える検出装置。
  2.  光を出力する発光素子をさらに備え、
     前記受光素子は、前記発光素子近傍に設けられている
     請求項1に記載の検出装置。
  3.  前記発光素子は複数の発光部からなり、
     前記受光素子は前記発光部近傍に設けられている
     請求項2に記載の検出装置。
  4.  前記受光素子は、前記発光部から出力されて前記眼球で反射された光を受光し、
     前記検出装置の各領域に配置された複数の前記受光素子による光の受光量を検出する信号処理部をさらに備える
     請求項3に記載の検出装置。
  5.  前記発光部は、情報を表示する表示画素である
     請求項3に記載の検出装置。
  6.  前記検出装置は、前記眼球に装着されたときに角膜全体を覆うようになされている
     請求項2に記載の検出装置。
  7.  前記検出装置が前記眼球に装着された状態において、前記眼球の瞳孔が移動可能な範囲の領域に対向する前記検出装置の領域に、前記発光部または前記受光素子の少なくとも一方が設けられている
     請求項3に記載の検出装置。
  8.  前記検出装置が前記眼球を覆う縦方向の幅よりも横方向の幅が広くなるようになされている
     請求項2に記載の検出装置。
  9.  前記検出装置における横方向の端近傍に、前記発光素子および前記受光素子とは異なる素子が配置されている
     請求項8に記載の検出装置。
  10.  前記検出装置は、前記眼球を有する頭部に対して前記検出装置を固定する構造を有している
     請求項2に記載の検出装置。
  11.  前記信号処理部は、前記複数の前記受光素子の受光量に基づいて前記眼球の方位を求める
     請求項4に記載の検出装置。
  12.  前記信号処理部は、前記眼球の方位と、前記眼球と対となる眼球の方位とに基づいて左右の目の輻輳量を算出し、前記輻輳量に基づいて、注視されている対象物までの距離を算出する
     請求項11に記載の検出装置。
  13.  前記信号処理部は、前記複数の前記受光素子の受光量に基づいて前記眼球の瞳孔の直径を求める
     請求項4に記載の検出装置。
  14.  前記信号処理部は、前記複数の前記受光素子の受光量に基づいて生体の状態を検出する
     請求項4に記載の検出装置。
  15.  前記発光部は、所定波長の光を前記眼球に照射するか、または複数の異なる波長の光を順番に前記眼球に照射し、
     前記信号処理部は、前記眼球に照射された前記所定波長の光または前記複数の異なる波長の光の前記受光素子における受光量に基づいて前記生体の状態を検出する
     請求項14に記載の検出装置。
  16.  前記発光部は、情報を表示する表示画素であり、前記情報を表示する期間の後に、前記所定波長の光、または前記複数の異なる波長の光を前記眼球に照射する
     請求項15に記載の検出装置。
  17.  眼球から入射する光を受光する受光素子と、
     前記受光素子による光の受光量を検出する信号処理部と
     を備え、前記眼球に装着可能な検出装置の検出方法であって、
     前記受光素子が前記眼球で反射された光を受光する受光ステップと、
     前記信号処理部が、前記検出装置の各領域に配置された複数の前記受光素子による光の受光量を検出する検出ステップと
     を含む検出方法。
  18.  前記検出装置に設けられた発光素子が光を出力する発光ステップをさらに含み、
     前記受光ステップにおいて、前記受光素子は前記発光素子から出力され、前記眼球で反射された光を受光する
     請求項17に記載の検出方法。
  19.  前記信号処理部が、前記複数の前記受光素子の受光量に基づいて前記眼球の方位を求める算出ステップをさらに含む
     請求項18に記載の検出方法。
  20.  前記算出ステップにおいて、前記信号処理部は、前記眼球の方位と、前記眼球と対となる眼球の方位とに基づいて左右の目の輻輳量を算出し、前記輻輳量に基づいて、注視されている対象物までの距離を算出する
     請求項19に記載の検出方法。
PCT/JP2014/068126 2013-07-19 2014-07-08 検出装置および方法 WO2015008654A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2015527261A JP6380814B2 (ja) 2013-07-19 2014-07-08 検出装置および方法
KR1020157036928A KR102376854B1 (ko) 2013-07-19 2014-07-08 검출 장치 및 방법
BR112016000639-9A BR112016000639B1 (pt) 2013-07-19 2014-07-08 Aparelho e método de detecção
US14/902,953 US9996151B2 (en) 2013-07-19 2014-07-08 Detecting eye movement based on a wearable detection apparatus
CN201480039759.9A CN105378598B (zh) 2013-07-19 2014-07-08 检测装置和方法
EP14826483.1A EP3023864B1 (en) 2013-07-19 2014-07-08 Detection device and method
RU2016100860A RU2682798C2 (ru) 2013-07-19 2014-07-08 Устройство обнаружения и способ

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-150433 2013-07-19
JP2013150433 2013-07-19

Publications (1)

Publication Number Publication Date
WO2015008654A1 true WO2015008654A1 (ja) 2015-01-22

Family

ID=52346122

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/068126 WO2015008654A1 (ja) 2013-07-19 2014-07-08 検出装置および方法

Country Status (8)

Country Link
US (1) US9996151B2 (ja)
EP (1) EP3023864B1 (ja)
JP (1) JP6380814B2 (ja)
KR (1) KR102376854B1 (ja)
CN (1) CN105378598B (ja)
BR (1) BR112016000639B1 (ja)
RU (1) RU2682798C2 (ja)
WO (1) WO2015008654A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019514092A (ja) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company タッチレス制御グラフィカルユーザインターフェース
WO2020016969A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
WO2020016970A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
JP2020514831A (ja) * 2017-03-21 2020-05-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. 光走査プロジェクタと連動した眼移動の追跡のための方法およびシステム
JP2020141772A (ja) * 2019-03-05 2020-09-10 Kikura株式会社 瞳孔測定器具及び瞳孔測定装置
JP2022532806A (ja) * 2019-07-23 2022-07-19 インプランダータ オフタルミック プロドゥクツ ゲーエムベーハー 視野を測定するための配置および方法ならびにインプラントの使用

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9699433B2 (en) * 2013-01-24 2017-07-04 Yuchen Zhou Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye
US9880401B2 (en) * 2014-06-13 2018-01-30 Verily Life Sciences Llc Method, device and system for accessing an eye-mountable device with a user interface
EP3163410A4 (en) * 2014-06-30 2017-12-13 Toppan Printing Co., Ltd. Line-of-sight measurement system, line-of-sight measurement method, and program
EP3234920A4 (en) 2014-12-23 2017-10-25 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
US10353463B2 (en) * 2016-03-16 2019-07-16 RaayonNova LLC Smart contact lens with eye driven control system and method
US11030975B2 (en) * 2016-07-04 2021-06-08 Sony Corporation Information processing apparatus and information processing method
WO2018098436A1 (en) 2016-11-28 2018-05-31 Spy Eye, Llc Unobtrusive eye mounted display
US20180239422A1 (en) * 2017-02-17 2018-08-23 International Business Machines Corporation Tracking eye movements with a smart device
US11157073B2 (en) * 2017-10-04 2021-10-26 Tectus Corporation Gaze calibration for eye-mounted displays
US11333902B2 (en) * 2017-12-12 2022-05-17 RaayonNova LLC Smart contact lens with embedded display and image focusing system
US11534065B2 (en) * 2017-12-15 2022-12-27 Sony Corporation Contact lens and communication system
US10673414B2 (en) 2018-02-05 2020-06-02 Tectus Corporation Adaptive tuning of a contact lens
CN108459720B (zh) * 2018-04-19 2023-11-21 京东方科技集团股份有限公司 视控装置及用视控装置控制终端的方法
US10505394B2 (en) 2018-04-21 2019-12-10 Tectus Corporation Power generation necklaces that mitigate energy absorption in the human body
US10895762B2 (en) 2018-04-30 2021-01-19 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10838239B2 (en) 2018-04-30 2020-11-17 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10528131B2 (en) * 2018-05-16 2020-01-07 Tobii Ab Method to reliably detect correlations between gaze and stimuli
US10790700B2 (en) 2018-05-18 2020-09-29 Tectus Corporation Power generation necklaces with field shaping systems
US11137622B2 (en) 2018-07-15 2021-10-05 Tectus Corporation Eye-mounted displays including embedded conductive coils
WO2020032239A1 (ja) * 2018-08-09 2020-02-13 株式会社ジオクリエイツ 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム
US10529107B1 (en) 2018-09-11 2020-01-07 Tectus Corporation Projector alignment in a contact lens
US10838232B2 (en) 2018-11-26 2020-11-17 Tectus Corporation Eye-mounted displays including embedded solenoids
US10644543B1 (en) 2018-12-20 2020-05-05 Tectus Corporation Eye-mounted display system including a head wearable object
EP3939837A1 (en) * 2019-05-17 2022-01-19 Kabushiki Kaisha Tokai Rika Denki Seisakusho Control system and presentation system
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
US10944290B2 (en) 2019-08-02 2021-03-09 Tectus Corporation Headgear providing inductive coupling to a contact lens
CN114371555A (zh) * 2020-10-14 2022-04-19 Oppo广东移动通信有限公司 穿戴式电子设备
CN115670368A (zh) * 2021-07-23 2023-02-03 京东方科技集团股份有限公司 一种成像调整装置及方法、可穿戴设备、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121114A (ja) * 1993-10-22 1995-05-12 Hitachi Ltd 表示装置
US20030020477A1 (en) * 2001-07-30 2003-01-30 Tim Goldstein System and method for providing power to electrical devices
JP2003177449A (ja) * 2001-07-30 2003-06-27 Hewlett Packard Co <Hp> 電子装置を制御するシステム及び方法
JP2005535942A (ja) * 2002-08-09 2005-11-24 イー・ビジョン・エルエルシー 電気駆動のコンタクトレンズ系
JP4752309B2 (ja) 2005-04-07 2011-08-17 ソニー株式会社 画像表示装置および方法
GB2497424A (en) * 2011-12-06 2013-06-12 E Vision Smart Optics Inc Contact lens providing images to a wearer.

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW275112B (en) * 1995-03-15 1996-05-01 Ciba Geigy Ag Rotationally stabilized contact lens and methods of lens stabilization
US6120460A (en) * 1996-09-04 2000-09-19 Abreu; Marcio Marc Method and apparatus for signal acquisition, processing and transmission for evaluation of bodily functions
US6544193B2 (en) * 1996-09-04 2003-04-08 Marcio Marc Abreu Noninvasive measurement of chemical substances
US20020024631A1 (en) * 1999-08-31 2002-02-28 Roffman Jeffrey H. Rotationally stabilized contact lenses
EP1755441B1 (en) * 2004-04-01 2015-11-04 Eyefluence, Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US7350919B2 (en) * 2004-12-03 2008-04-01 Searete Llc Vision modification with reflected image
US8446341B2 (en) * 2007-03-07 2013-05-21 University Of Washington Contact lens with integrated light-emitting component
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
JP5622431B2 (ja) * 2010-04-21 2014-11-12 オリンパス株式会社 頭部装着型瞳孔検出装置
US8446676B2 (en) * 2010-09-16 2013-05-21 Olympus Corporation Head-mounted display device
US8184069B1 (en) * 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US8971978B2 (en) * 2012-08-21 2015-03-03 Google Inc. Contact lens with integrated pulse oximeter
US8888277B2 (en) * 2012-10-26 2014-11-18 Johnson & Johnson Vision Care, Inc. Contact lens with improved fitting characteristics
CN105122119B (zh) * 2012-12-06 2017-06-09 E-视觉有限公司 提供影像的系统、装置、和/或方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121114A (ja) * 1993-10-22 1995-05-12 Hitachi Ltd 表示装置
US20030020477A1 (en) * 2001-07-30 2003-01-30 Tim Goldstein System and method for providing power to electrical devices
JP2003177449A (ja) * 2001-07-30 2003-06-27 Hewlett Packard Co <Hp> 電子装置を制御するシステム及び方法
JP2005535942A (ja) * 2002-08-09 2005-11-24 イー・ビジョン・エルエルシー 電気駆動のコンタクトレンズ系
JP4752309B2 (ja) 2005-04-07 2011-08-17 ソニー株式会社 画像表示装置および方法
GB2497424A (en) * 2011-12-06 2013-06-12 E Vision Smart Optics Inc Contact lens providing images to a wearer.

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3023864A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019514092A (ja) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company タッチレス制御グラフィカルユーザインターフェース
JP7273720B2 (ja) 2017-03-21 2023-05-15 マジック リープ, インコーポレイテッド 光走査プロジェクタと連動した眼移動の追跡のための方法およびシステム
JP2020514831A (ja) * 2017-03-21 2020-05-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. 光走査プロジェクタと連動した眼移動の追跡のための方法およびシステム
US11838496B2 (en) 2017-03-21 2023-12-05 Magic Leap, Inc. Method and system for tracking eye movement in conjunction with a light scanning projector
WO2020016970A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
JPWO2020016970A1 (ja) * 2018-07-18 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
US11243609B2 (en) 2018-07-18 2022-02-08 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, and program
JP7181293B2 (ja) 2018-07-18 2022-11-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
WO2020016969A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
JP2020141772A (ja) * 2019-03-05 2020-09-10 Kikura株式会社 瞳孔測定器具及び瞳孔測定装置
JP7284498B2 (ja) 2019-03-05 2023-05-31 Kikura株式会社 瞳孔測定装置
JP2022532806A (ja) * 2019-07-23 2022-07-19 インプランダータ オフタルミック プロドゥクツ ゲーエムベーハー 視野を測定するための配置および方法ならびにインプラントの使用
JP7354406B2 (ja) 2019-07-23 2023-10-02 インプランダータ オフタルミック プロドゥクツ ゲーエムベーハー 視野を測定するための配置および方法ならびにインプラントの使用

Also Published As

Publication number Publication date
RU2016100860A (ru) 2017-07-17
US20160147301A1 (en) 2016-05-26
EP3023864A1 (en) 2016-05-25
KR102376854B1 (ko) 2022-03-21
CN105378598B (zh) 2018-12-25
BR112016000639B1 (pt) 2022-08-09
KR20160032043A (ko) 2016-03-23
BR112016000639A2 (pt) 2017-07-25
RU2682798C2 (ru) 2019-03-21
EP3023864B1 (en) 2022-12-21
JPWO2015008654A1 (ja) 2017-03-02
BR112016000639A8 (pt) 2020-01-14
EP3023864A4 (en) 2017-03-22
JP6380814B2 (ja) 2018-08-29
CN105378598A (zh) 2016-03-02
US9996151B2 (en) 2018-06-12

Similar Documents

Publication Publication Date Title
JP6380814B2 (ja) 検出装置および方法
US10231614B2 (en) Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
CN106663183B (zh) 眼睛跟踪及用户反应探测
US9994228B2 (en) Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
ES2957329T3 (es) Sistemas y métodos para el seguimiento ocular en aplicaciones de realidad virtual y de realidad aumentada
CN109997174B (zh) 可穿戴光谱检查系统
CN106132284B (zh) 光学眼动追踪
CA3081251C (en) Systems and methods for identifying gaze tracking scene reference locations
US20190235624A1 (en) Systems and methods for predictive visual rendering
CN104755023B (zh) 图像显示设备和信息输入设备
US20170172476A1 (en) Body worn measurement device
KR20190138852A (ko) 다중 모드 눈 추적
US10901505B1 (en) Eye-based activation and tool selection systems and methods
US20190101984A1 (en) Heartrate monitor for ar wearables
CN110621212A (zh) 用于评估用户健康状况的系统
WO2015172988A1 (en) Display cap
JP2020077271A (ja) 表示装置、学習装置、及び、表示装置の制御方法
US20100134297A1 (en) Activity monitoring eyewear
KR102315680B1 (ko) 가상현실 기반 조리개 운동 유도를 통한 시력 회복 장치
US20230368478A1 (en) Head-Worn Wearable Device Providing Indications of Received and Monitored Sensor Data, and Methods and Systems of Use Thereof
Guo et al. A wearable non-contact optical system based on muscle tracking for ultra-long-term and indirect eye-tracking
CN118402771A (zh) 使用头戴式设备的面向内的眼动追踪摄像头来测量心率的技术、以及使用这些技术的系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14826483

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015527261

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20157036928

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14902953

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2014826483

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016100860

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112016000639

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112016000639

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20160112