WO2018168644A1 - アイウェア - Google Patents

アイウェア Download PDF

Info

Publication number
WO2018168644A1
WO2018168644A1 PCT/JP2018/008988 JP2018008988W WO2018168644A1 WO 2018168644 A1 WO2018168644 A1 WO 2018168644A1 JP 2018008988 W JP2018008988 W JP 2018008988W WO 2018168644 A1 WO2018168644 A1 WO 2018168644A1
Authority
WO
WIPO (PCT)
Prior art keywords
mode
control unit
unit
eyewear
storage unit
Prior art date
Application number
PCT/JP2018/008988
Other languages
English (en)
French (fr)
Inventor
昭宏 村松
暁史 青野
竜貴 菅
孝文 大戸
奨 田中
Original Assignee
三井化学株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三井化学株式会社 filed Critical 三井化学株式会社
Priority to JP2019505939A priority Critical patent/JP6792699B2/ja
Priority to US16/493,773 priority patent/US11614641B2/en
Priority to CN201880015589.9A priority patent/CN110383147B/zh
Priority to EP18767781.0A priority patent/EP3598207B1/en
Publication of WO2018168644A1 publication Critical patent/WO2018168644A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/08Auxiliary lenses; Arrangements for varying focal length
    • G02C7/081Ophthalmic lenses with variable focal length
    • G02C7/083Electrooptic lenses
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C9/00Measuring inclination, e.g. by clinometers, by levels
    • G01C9/02Details
    • G01C9/06Electric or photoelectric indication or reading means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/12Fluid-filled or evacuated lenses
    • G02B3/14Fluid-filled or evacuated lenses of variable focal length
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/10Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses
    • G02C7/101Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses having an electro-optical light valve
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C9/00Measuring inclination, e.g. by clinometers, by levels
    • G01C9/02Details
    • G01C9/06Electric or photoelectric indication or reading means
    • G01C2009/066Electric or photoelectric indication or reading means optical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/14Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of gyroscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Definitions

  • the present invention relates to eyewear.
  • Patent Document 1 describes eyewear (glasses) that automatically changes a focal length by controlling an electrical signal to a liquid crystal lens according to an inclination angle of a spectacle body.
  • Patent Document 2 discloses eyewear equipped with a function of adjusting a refractive index based on a detection result of a range finder or the like.
  • an optical module in which optical characteristics change an input unit that receives an instruction from a user, a sensing unit for detecting a use environment of the optical module, and a condition for changing the optical characteristics of the optical module are provided.
  • a storage unit that stores at least a control unit that changes the optical characteristics of the optical module by electrical control in accordance with the setting mode, and the setting mode includes at least the conditions stored in the storage unit and detection of the sensing unit
  • the condition stored in the storage unit is updated based on the detection value of the sensing unit when the input unit receives an instruction in the second mode.
  • eyewear that can change conditions for expressing functions according to user-specific information and user preferences, and that can automatically execute predetermined functions.
  • FIG. 1 is a perspective view showing eyewear according to the first embodiment of the present invention.
  • FIG. 2 is another perspective view showing the eyewear according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram showing a functional configuration of the eyewear according to the first embodiment of the present invention.
  • FIG. 4 is a schematic cross-sectional view of the AA portion of the electrically controlled lens included in the eyewear according to the first embodiment of the present invention.
  • FIG. 5 is a schematic diagram showing a hierarchy of modes for eyewear control according to the first embodiment of the present invention.
  • FIG. 6 is a flowchart when the eyewear mode according to the first embodiment of the present invention is selected.
  • FIG. 7 is a flowchart showing an operation example of the eyewear according to the first embodiment of the present invention.
  • FIG. 1 is a perspective view showing eyewear according to the first embodiment of the present invention.
  • FIG. 2 is another perspective view showing the eyewear according to the first embodiment of the present invention.
  • FIG. 3 is a
  • FIG. 8 is a graph showing the relationship (initial setting value) between the illuminance of light sensed by the eyewear and the visible light transmittance of the electrically controlled lens in the dimming correction mode and the visual acuity dimming correction mode.
  • FIG. 9 is a schematic diagram illustrating a hierarchy of modes for eyewear control according to the second embodiment of the present invention.
  • FIG. 10 is a flowchart showing an operation example of eyewear according to the second embodiment of the present invention.
  • FIG. 11 is a part of the flowchart shown in FIG.
  • FIG. 12 is a block diagram illustrating an exemplary functional configuration of eyewear according to another embodiment of the present invention.
  • FIGS. 1 and 2 are perspective views showing an eyewear 100 according to the first embodiment of the present invention.
  • the eyewear includes, for example, a so-called glasses (including electronic glasses and sunglasses) or goggles having an auxiliary mechanism for improving the user's eyesight, such as a vision correction lens, and a mechanism for presenting information to the user's field of view or eyes.
  • glasses including electronic glasses and sunglasses
  • goggles having an auxiliary mechanism for improving the user's eyesight, such as a vision correction lens, and a mechanism for presenting information to the user's field of view or eyes.
  • glasses-type wearable terminal, head-mounted display, etc. glasses-type wearable terminal, head-mounted display, etc.
  • electronic glasses for both eyes having a pair of lenses will be described as an example, but the eyewear according to the present invention is not limited to this aspect.
  • the eyewear may be configured to hold an auxiliary mechanism for improving visual acuity or visibility and a mechanism for presenting information to the eye by being worn, and is not limited to a spectacle type that is worn on both ears. Instead, it may be a device worn only on the head or
  • the eyewear 100 includes a frame 110 having a front 110 and a pair of temples 120 a and 120 b, an input unit 140, and a pair of electric control types that are optical modules whose optical characteristics are changed by electric control.
  • CPU unit 165 including a lens 150, a sensing unit 170, a CPU (Central Processing Unit) and RAM (Random Access Memory) that also function as a control unit 160, and a ROM (Read Only Memory) that also functions as a storage unit 194 And a power supply 180.
  • the CPU reads a program for executing the function of the eyewear 100 from the ROM, expands the program in the RAM, and controls the operation of each functional unit of the eyewear 100 by executing the expanded program.
  • the portion where the pair of electrically controlled lenses 150 is disposed is referred to as the front (front) of the eyewear 100.
  • FIG. 3 is a block diagram showing a functional configuration of the eyewear 100
  • each functional unit included in the eyewear 100 is connected by a bus B.
  • bus B a bus
  • the front 110 holds a pair of electrically controlled lenses 150.
  • the front 110 includes a pair of rims 112 that respectively support the pair of electrically controlled lenses 150, and a bridge 114 that connects the pair of rims 112.
  • the rim 112 has a shape corresponding to the shape of the electrically controlled lens 150.
  • wiring for electrically connecting the electric control type lens 150 and the CPU unit 165 (control unit 160) is arranged inside the front 110.
  • the material of the front 110 is not particularly limited, and may be a known material used as the front material of the glasses.
  • materials for the front 110 include polyamide, acetate, carbon, celluloid, polyetherimide, and polyurethane.
  • the pair of temples 120a and 120b is a rod-like member connected to the front 110 so as to be symmetric, and is connected to the front 110 at the front end thereof.
  • An input unit 140, a CPU unit 165 (a control unit 160 and a storage unit 194), a sensing unit 170, and a power source 180 are arranged in one of the pair of temples 120a and 120b (the right temple 120a in FIGS. 1 and 2).
  • the material of the temples 120a and 120b is not particularly limited, and may be a known material used as a temple material for glasses.
  • Examples of materials for temples 120a and 120b include polyamide, acetate, carbon, celluloid, polyetherimide and polyurethane.
  • the input unit 140 receives an input operation from the user.
  • the structure of the input unit 140 is not particularly limited.
  • the input unit 140 can be, for example, a plurality of capacitive touch sensors arranged in a row from the front to the rear in a region outside and on the front of the temple 120a. In this case, the user moves (swipes) a finger or the like along a plurality of touch sensors from the front to the back or from the back to the front, or touches (tap) without moving the finger, or the finger for a predetermined time.
  • the input unit 140 can accept an instruction from the user by a touching (long pressing) operation or the like.
  • the input unit 140 may be able to identify and accept the operation amount (movement amount) of the input operation from the number of touch sensors whose capacitance has changed due to the swipe operation.
  • the pair of electrically controlled lenses 150 are held on the front 110 of the frame.
  • the electrically controlled lens 150 has an electrically active portion whose optical characteristics change with application of a voltage.
  • Each electrically controlled lens may be a spherical lens or an aspheric lens.
  • Each electrically controlled lens has a first region 150a whose focal length (frequency) can be changed by applying a voltage, and a second region 150b outside the first region.
  • FIG. 4 shows a schematic cross-sectional view of the AA portion of the electric control type lens 150.
  • the first transparent substrate 1510, the first transparent electrode 1520, the refractive index variable layer 1530 as the electroactive portion, the second The transparent electrode 1540, the second transparent substrate 1550, the third transparent electrode 1560, the transmittance variable layer 1570 as the electroactive portion, the fourth transparent electrode 1580, and the third transparent substrate 1590 are laminated in this order. ing.
  • the first transparent substrate 1510 and the first transparent electrode 1520, or the second transparent substrate 1550 and the second transparent electrode 1540 have a Fresnel lens shape in the first region 150a. May be.
  • the first transparent substrate 1510, the first transparent electrode 1520, the adhesive layer 1535, the second transparent electrode 1540, A second transparent substrate 1550, a third transparent electrode 1560, a transmittance variable layer 1570 as an electroactive portion, a fourth transparent electrode 1580, and a third transparent substrate 1590 are laminated in this order.
  • the second transparent electrode 1540 and the third transparent electrode 1560 may be a common electrode. At this time, the arrangement of the second transparent substrate 1550 can be omitted.
  • the first transparent substrate 1510, the second transparent substrate 1550, and the third transparent substrate 1590 are transparent members that are curved so as to be convex toward the front side of the eyewear 100.
  • the material of the first transparent substrate 1510, the second transparent substrate 1550, and the third transparent substrate 1590 is not particularly limited as long as it has a light-transmitting property with respect to visible light, and can be used as a lens material.
  • materials of the first transparent substrate 1510, the second transparent substrate 1550, and the third transparent substrate 1590 include glass and resin.
  • the resin include polymethyl methacrylate, polycarbonate, polydiethylene glycol bisallyl carbonate, and polystyrene.
  • the materials of the first transparent substrate 1510, the second transparent substrate 1550, and the third transparent substrate 1590 may be the same or different.
  • the first transparent electrode 1520 and the second transparent electrode 1540, and the third transparent electrode 1560 and the fourth transparent electrode 1580 are transparent electrodes having translucency, respectively.
  • the first transparent electrode 1520 and the second transparent electrode 1540 are disposed at least in a range where the voltage can be applied to the refractive index variable layer 1530 (first region 150a).
  • the third transparent electrode 1560 and the fourth transparent electrode 1580 are disposed at least in a range where the voltage can be applied to the transmittance variable layer 1570 (the first region 150a and the second region 150b).
  • the material of the first transparent electrode 1520, the second transparent electrode 1540, the third transparent electrode 1560, and the fourth transparent electrode 1580 is particularly limited as long as it has translucency and conductivity with respect to visible light. Not. Examples of these materials include indium tin oxide (ITO) and zinc oxide (ZnO).
  • ITO indium tin oxide
  • ZnO zinc oxide
  • the materials of the first transparent electrode 1520, the second transparent electrode 1540, the third transparent electrode 1560, and the fourth transparent electrode 1580 may be the same or different.
  • the refractive index variable layer 1530 is a layer in which the refractive index of visible light changes when a voltage is applied.
  • Examples of the material of the refractive index variable layer 1530 include cholesteric liquid crystal and nematic liquid crystal.
  • the transmittance variable layer 1570 is a layer in which the transmittance of visible light (hereinafter also simply referred to as “transmittance”) is changed by application of a voltage.
  • Examples of the material of the transmittance variable layer 1570 include an electrochromic device and a guest-host liquid crystal.
  • the transmittance variable layer is caused by an oxidation-reduction reaction caused by the supplied electrons or a change in the orientation of liquid crystal molecules.
  • the transmittance of 1570 changes reversibly. Therefore, when a voltage is applied to the transmittance variable layer 1570, the visible light transmittance of the first region 150a and the second region 150b changes.
  • the adhesive layer 1535 is disposed between the first transparent substrate 1510 and the second transparent substrate 1550 in the second region 150b, and bonds the first transparent substrate 1510 and the second transparent substrate 1550. .
  • the adhesive layer 1535 is formed between the first transparent electrode 1520 and the second transparent electrode 1540. Arranged between.
  • the adhesive layer 1535 also has a function of sealing the material forming the refractive index variable layer 1530.
  • the material of the adhesive layer 1535 is not particularly limited as long as it is a cured product of an adhesive having a property of transmitting visible light.
  • the sensing unit 170 detects an inclination angle of the eyewear 100 vertically downward with respect to the horizontal axis (hereinafter also simply referred to as “inclination angle”), and an illuminance sensor that detects the illuminance of light to the eyewear 100. At least.
  • the sensing unit 170 outputs the tilt angle sensed by the tilt sensor and the illuminance sensed by the illuminance sensor to the control unit 160, respectively.
  • the storage unit 194 transmits the refractive index of the first region 150a of the electrically controlled lens 150 and the transmission of the first region 150a and the second region 150b of the electrically controlled lens 150 in an auto mode in the eyewear control described later.
  • the condition (threshold value) for changing the rate or both of them is stored.
  • control unit 160 based on the input operation received by the input unit 140, the conditions stored in the storage unit 194, and the detection value of the sensing unit 170 according to the setting mode, Change optical properties.
  • the control unit 160 includes a first transparent electrode 1520, a second transparent electrode 1540, a third transparent electrode 1560, and a fourth transparent electrode 1580 of the electrically controlled lens 150, and an input unit 140, a sensing unit 170,
  • the storage unit 194 is electrically connected. Electrical control is performed by applying a voltage between the first transparent electrode 1520 and the second transparent electrode 1540 and / or between the third transparent electrode 1560 and the fourth transparent electrode 1580 by the control described later.
  • the optical characteristics (refractive index or transmittance) of the mold lens 150 are changed.
  • the control unit 160 changes the refractive index of the electric control type lens 150 to correct visual acuity (hereinafter, also simply referred to as “visual correction function”), an electric control type lens.
  • visual correction function an electric control type lens.
  • the function of performing light adjustment correction by changing the transmittance of 150 hereinafter also simply referred to as “light adjustment correction function”
  • the refractive index and transmittance of the electrically controlled lens 150 are independently changed, thereby correcting visual acuity and
  • a function for simultaneously performing dimming correction hereinafter also simply referred to as “sight dimming correction function” is executed.
  • the power source 180 is a rechargeable battery pack that is detachably held at the rear end of the temple 120a, and supplies power to functional units that consume power, such as the input unit 140, the control unit 160, and the sensing unit 170.
  • An example of the power supply 180 includes a nickel metal hydride rechargeable battery.
  • a plurality of modes for implementing the above-described visual acuity correction function, dimming correction function, and visual acuity dimming correction function are arranged in a hierarchical manner as shown in the schematic diagram of FIG. Is set to In the eyewear 100, the user can cause the control unit 160 to perform a desired operation by selecting a mode of each layer through the input unit 140.
  • the controller 160 of the eyewear 100 controls the voltage applied between the first transparent electrode 1520 and the second transparent electrode 1540 according to a set mode among the plurality of modes, thereby Control optical properties.
  • a plurality of modes are set in three layers as shown in FIG.
  • the first layer of the eyewear 100 of the present embodiment to execute the visual acuity correction mode for executing the visual acuity correction function, the dimming correction mode for executing the dimming correction function, and the visual acuity dimming correction function.
  • Visual acuity dimming correction mode to execute the visual acuity correction mode for executing the visual acuity correction function, the dimming correction mode for executing the dimming correction function, and the visual acuity dimming correction function.
  • the user manually turns on the visual acuity correction function, the dimming correction function, or the visual acuity dimming correction function.
  • the control unit 160 Based on the mode to be turned off (hereinafter also referred to as “manual mode”), the condition stored in the storage unit 194 and the detection value detected by the sensing unit 170, the control unit 160 has a visual acuity correction function, a dimming correction function, Alternatively, a mode for turning on or off the visual acuity dimming correction function (hereinafter also referred to as “auto mode”) is included.
  • an automatic learning mode for learning a condition for turning on or off the visual acuity correction function, the dimming correction function, or the visual acuity dimming correction function in the auto mode described above is provided in a lower layer (third hierarchy) of each manual mode. Is included.
  • the user changes the mode of each layer through the input unit 140.
  • the input unit 140 is a plurality of capacitive touch sensors arranged in a row from the front to the rear, a finger or the like is moved (swipe) from the front to the rear along the plurality of touch sensors.
  • the first hierarchical mode can be changed by one step by the first instruction operation.
  • the second layer mode is changed by a second instruction operation that moves (swipes) a finger or the like from the rear to the front along the plurality of touch sensors, which is substantially opposite to the first direction.
  • One stage transition can be made.
  • the mode of the third hierarchy can be shifted by one step by the third instruction operation of tapping any of the plurality of touch sensors without swiping.
  • FIG. 6 illustrates an operation example of the eyewear 100 when the user of the eyewear 100 according to the present embodiment selects a mode to be executed by the control unit 160 of the eyewear 100 and causes the control unit 160 to execute various functions. It is a flowchart to show. The operation illustrated in FIG. 6 is started when, for example, the input unit 140, the control unit 160, and the sensing unit 170 are turned on by the attachment of the power supply 180.
  • control unit 160 sets the vision correction mode as the first layer mode, the manual mode as the second layer mode, and the automatic learning mode as the third layer mode. (On) is assumed to be executed.
  • the input unit 140 detects a change in the capacitance of the touch sensor due to a user's finger contact or the like, and accepts it as an input operation (step S10).
  • the control unit 160 that has received the signal indicating that the input operation has been received from the input unit 140 determines whether or not the instruction operation is the first instruction operation (swipe from the front to the back) (step S11).
  • step S11 determines in step S11 that the instruction operation is the first instruction operation
  • the control unit 160 changes the mode of the first layer in one step (step S12).
  • the control unit 160 executes the visual acuity correction mode as the first layer mode. Therefore, when it is determined that the instruction operation is the first instruction operation, the control unit 160 changes the mode of the first layer to the light adjustment correction mode and executes the light adjustment correction mode.
  • the process transitions to step S40.
  • control unit 160 determines in step S11 that the instruction operation is not the first instruction operation, the control unit 160 then determines whether or not the instruction operation is a second instruction operation (swipe from the rear to the front). Is determined (step S21).
  • step S21 If it is determined in step S21 that the instruction operation is the second instruction operation, the control unit 160 determines whether there is a second layer mode corresponding to the currently executed first layer mode. (Step S22).
  • step S22 determines in step S22 that the second layer mode corresponding to the currently executed first layer mode exists, the control unit 160 executes the second layer mode while executing the currently executed first layer mode.
  • the mode of the second layer is changed to execute the changed mode of the second hierarchy (step S23).
  • the control unit 160 executes the vision correction mode as the first layer mode and the manual mode as the second layer mode. Therefore, in step S23, the control unit 160 changes the second layer mode to the auto mode and executes it while executing the visual acuity correction mode that is the first layer mode. If control part 160 changes and performs the mode of the 2nd hierarchy, processing will change to Step S40.
  • step S22 if the control unit 160 determines that there is no corresponding second layer mode in step S22, the process transitions to step S40.
  • control unit 160 determines whether the instruction operation is a third instruction operation (tap without movement). Is determined (step S31).
  • controller 160 determines whether there is a third layer mode corresponding to the currently executed second layer mode. (Step S32).
  • controller 160 determines in step S32 that there is a third hierarchy mode corresponding to the currently executed second hierarchy mode, controller 160 executes the currently executed first hierarchy mode and second hierarchy mode. As it is, the mode of the third hierarchy is changed by one step, and the changed mode of the third hierarchy is executed (step S33).
  • the control unit 160 executes the vision correction mode as the first layer mode, the manual mode as the second layer mode, and the automatic learning mode as the third layer mode. . Therefore, in step S33, the control unit 160 changes the mode of the third layer to the automatic learning mode off while executing the vision correction mode that is the first layer mode and the manual mode that is the second layer mode. Execute. If control part 160 changes and executes the mode of the 3rd hierarchy, processing will change to Step S40.
  • step S32 determines that there is no corresponding third layer mode in step S32.
  • step S31 determines in step S31 that the instruction operation is not the third instruction operation, the process proceeds to step S40.
  • control unit 160 determines whether or not it is necessary to end the processing (step S40). For example, the control unit 160 determines that the process needs to be ended when a condition for ending the predetermined process is satisfied. On the other hand, when the above condition is not satisfied, it is determined that it is not necessary to end the process. As a result of the determination, when it is necessary to end the process, the control unit 160 ends the process in FIG. On the other hand, if it is not necessary to end the process, the process returns to before step S10.
  • the eyewear 100 of this embodiment performs each function based on the mode selected by the user as mentioned above.
  • the control unit 160 displays the visual acuity correction function, the dimming correction function, and Of the visual acuity dimming correction function, a function corresponding to each mode is executed.
  • the control unit 160 can detect the vision correction function, the dimming correction function, or the vision dimming correction only when the input unit 140 receives an instruction operation from the user. Change function on / off.
  • the control unit 160 causes the visual acuity correction function, the dimming correction function, or the visual acuity dimming based on the condition stored in the storage unit 194 and the detection value detected by the sensing unit 170. Change the correction function on / off. Furthermore, when the automatic learning mode is selected as the above-described third hierarchy mode, the control unit 160 turns on or off the visual acuity correction function, the dimming correction function, or the visual acuity dimming correction function in the auto mode. The above conditions are updated as appropriate.
  • FIG. 7 is a flowchart illustrating an operation example of the eyewear 100 when the user uses the eyewear 100 according to the present embodiment.
  • the operation illustrated in FIG. 7 is started when, for example, the input unit 140, the control unit 160, and the sensing unit 170 are turned on by the attachment of the power supply 180.
  • the vision correction mode is set as the first layer mode
  • the manual mode is set as the second layer mode
  • the automatic learning mode is set as the third layer mode.
  • the visual acuity correction function is off.
  • the control unit 160 first refers to which mode is being executed as the mode of the second layer (step S110). Then, the control unit 160 determines whether or not the second layer mode currently being executed is the manual mode (step S111).
  • the input unit 140 detects a change in the capacitance of the touch sensor and accepts a user instruction operation (step S121). Then, the input unit 140 transmits a signal indicating that the instruction operation has been received to the control unit 160.
  • the control unit 160 that has received the signal from the input unit 140 determines whether the instruction operation is a fourth instruction operation different from the first to third instruction operations (for example, any one of the plurality of touch sensors without swiping). It is determined whether or not it is touched with a finger or the like for a predetermined time (long press) (step S122).
  • the control unit 160 receives the tilt angle and / or the illuminance when the input unit 140 receives the instruction operation from the sensing unit 170 (step S123). At this time, the type of data received by the control unit 160 is selected according to the mode of the first hierarchy. In this description, when the flow shown in FIG. 7 is started, it is assumed that the visual acuity correction mode is executed as the first layer mode. Therefore, the control unit 160 receives data related to the tilt angle from the sensing unit 170. Note that “when the input unit 140 receives an instruction operation” may be at substantially the same timing as the reception of the instruction operation, and does not have to be completely coincident.
  • control unit 160 determines whether or not the instruction operation is accepted again within a predetermined time after the input unit 140 accepts the instruction operation in step S121 (step S124). If the control unit 160 determines that the instruction operation has been received again within the predetermined time, the process proceeds to step S128 on the assumption that the instruction from the previous user has been canceled.
  • the control unit 160 switches the correction function corresponding to the mode of the first hierarchy on or off (step S125).
  • the eyesight correction mode is executed as the mode of the first hierarchy, and the eyesight correction function is set to OFF. Therefore, the control unit 160 applies a voltage between the first transparent electrode 1520 and the second transparent electrode 1540 to turn on the visual acuity correction function.
  • control unit 160 refers to the mode of the third hierarchy and determines whether or not the automatic learning mode is on (step S126). If the control unit 160 determines in step S126 that the automatic learning mode of the eyewear 100 is off, the process transitions to step S128, assuming that automatic learning is not necessary.
  • step S126 when it is determined in step S126 that the automatic learning mode of the eyewear 100 is on, the control unit 160 updates the condition corresponding to the first hierarchy mode among the conditions stored in the storage unit 194 ( Step S127).
  • the control unit 160 receives the instruction operation from the user by the input unit 140, the tilt angle detected by the sensing unit 170 in step S123, and the instruction content from the user (for example, to turn on the vision correction function). And the like are stored in the storage unit 194. Then, the threshold value for turning on the visual acuity correction function stored in the storage unit 194 is replaced with the inclination angle detected by the sensing unit 170 in step S123. Thereafter, the process proceeds to step S128.
  • control part 160 determines whether it is necessary to complete
  • step S111 when determining in step S111 that the auto mode is being executed, the control unit 160 receives the tilt angle and / or illuminance of the eyewear 100 from the sensing unit 170 (step S131). At this time, the type of data received by the control unit 160 is also selected in accordance with the mode of the first hierarchy, and in this description, is the inclination angle.
  • control part 160 determines whether the correction
  • control unit 160 determines whether or not the detection value detected by the sensing unit 170 in step S131 is equal to or less than the threshold value read in step S133 (step S135). If it is determined in step S135 that the detected value is equal to or smaller than the threshold value, the control unit 160 turns off the correction function (step S137). In this description, the application of voltage between the first transparent electrode 1520 and the second transparent electrode 1540 of the electrically controlled lens 150 is canceled. Then, the process transitions to step S139. On the other hand, when the control unit 160 determines that the detected value is higher than the threshold value, it is not necessary to turn off the correction function, and the process proceeds to step S139.
  • step S132 when it is determined in step S132 that the correction function (in this description, the vision correction function) corresponding to the mode of the first hierarchy is off, the control unit 160 and the inclination angle for turning on the correction function and / or A threshold value related to illuminance (in this description, a threshold value related to the tilt angle) is read from the storage unit 194 (step S134). Also in this case, the threshold value when the eyewear 100 is used for the first time is set to a preset value. On the other hand, when the above-described automatic learning mode is performed and the threshold value is updated, the control unit 160 reads the threshold value updated in the automatic learning mode from the storage unit 194.
  • the threshold value for turning on the correction function may be the same as or different from the threshold value for turning off the correction function.
  • the threshold value (initial setting value) for turning on the visual acuity correction function can be set to 20 °
  • the threshold value (initial setting value) for turning off the visual acuity correction function can be set to 5 °.
  • control unit 160 determines whether or not the detection value detected by the sensing unit 170 in step S131 is greater than or equal to the threshold value read in step S134 (step S136). If it is determined in step S136 that the detected value is greater than or equal to the threshold value, the control unit 160 turns on the correction function (step S138). In this description, a voltage is applied between the first transparent electrode 1520 and the second transparent electrode 1540 of the electrically controlled lens 150. Then, the process transitions to step S139. On the other hand, when the control unit 160 determines that the detected value is lower than the threshold value, it is not necessary to turn on the correction function, and the process transitions to step S139.
  • control unit 160 determines whether or not it is necessary to end the process (step S139). For example, the control unit 160 determines that the process needs to be ended when a condition for ending the predetermined process is satisfied. On the other hand, when the above condition is not satisfied, it is determined that it is not necessary to end the process. As a result of the determination, when it is necessary to end the process, the control unit 160 ends the process in FIG. On the other hand, if it is not necessary to end the process, the process returns to before step S131.
  • step S123 and step S131 described above the control unit 160 receives illuminance as a detection value from the sensing unit 170. Further, in step S127, the condition relating to the illuminance is updated among the conditions stored in the storage unit 194.
  • step S123 and step S131 described above the control unit 160 receives both the tilt angle and the illuminance as detection values from the sensing unit 170.
  • step S127 the conditions regarding the tilt angle and the illuminance among the conditions stored in the storage unit 194 are updated.
  • the visual acuity correction function, the dimming correction function, or the visual acuity correction dimming function is performed based on the information regarding the tilt angle and / or illuminance collected in the manual mode. Can be turned on or off automatically. Therefore, according to the eyewear 100 of the present embodiment, it is possible to set conditions for expressing each function in accordance with the user's preference and the like.
  • step S127 when the input unit 140 accepts an instruction operation when the automatic learning mode is on, it is stored in the storage unit 194 in step S127.
  • the updated conditions are constantly updated.
  • the eyewear 100 of this embodiment may update the condition in step S127 only when the control unit 160 determines that the condition needs to be updated.
  • the control unit 160 performs a step (not shown) of comparing the detection value detected in step S123 with the threshold value stored in the storage unit 194, and determination that the detection value is shifted from the threshold value by a predetermined value or more. Only in this case, the process may proceed to step S126 and the conditions stored in the storage unit 194 may be updated.
  • control unit 160 performs a step (not shown) for determining whether the value detected in step S126 is included in the same range as the detection value previously detected by the sensing unit 170 a predetermined number of times. Good.
  • the process proceeds to step S126, and the control unit 160 updates the conditions stored in the storage unit 194.
  • the condition stored in the storage unit 194 may be updated when the same value is detected a predetermined number of times.
  • the conditions stored in the storage unit 194 may be updated according to the number of detection values acquired by the sensing unit 160 when the input unit 140 receives an instruction operation. For example, you may perform the step (not shown) which calculates the average value of the value detected by step S126, and the detected value for the predetermined number of times detected in the past. In this case, in step S126, the control unit 160 updates the condition stored in the storage unit 194 based on the average value.
  • step S127 may not be immediately after the input unit 140 receives the instruction operation.
  • the detection value detected in step S123 is stored separately from the threshold value stored in the storage unit 194, and step S127 is performed at an arbitrary timing (for example, timing when the auto mode is selected).
  • the conditions stored in the storage unit 194 may be updated.
  • the hierarchy may be further divided.
  • various modes may be included between the first hierarchy and the second hierarchy shown in FIG.
  • a reading mode, a mobile device usage mode, and the like may be included below the visual acuity correction mode.
  • an auto mode and a manual mode can be included below each of these modes.
  • a color dimming mode may be included.
  • the relationship between the illuminance and the transmittance shown in FIG. 8 is an initial setting value, and a condition for changing the transmittance may be learned in the automatic learning mode and updated as appropriate.
  • the instruction operation received by the input unit 140 in step S121 in FIG. instead of an instruction regarding on or off, an instruction for decreasing or increasing the transmittance of the electrically controlled lens 150 may be used.
  • the control unit 160 does not switch the dimming correction function on or off, but the amount of visible light transmitted through the electrically controlled lens 150 (the third transparent electrode 1560 or the fourth transparent electrode). The amount of voltage applied to 1580).
  • step S127 the date and time when the input unit 140 received the instruction in step S121, the illuminance of the light to the eyewear 100 when the input unit 140 received the instruction operation, and the transmittance set by the user
  • the control unit 160 causes the storage unit 194 to store the information. Then, the upper limit value or lower limit value of the illuminance shown in FIG. 8 is replaced in accordance with the detected value.
  • the fourth instruction operation at this time may be a swipe operation.
  • the operation amount (movement amount) of the input operation is identified from the number of touch sensors whose capacitance has changed, and how much the transmittance of the electrically controlled lens 150 is set. Can be accepted.
  • control unit 160 may be able to execute functions other than those described above.
  • control unit 160 may be capable of executing a sleep function that supplies electricity only to some functional units such as the sensing unit 170, an off function that does not supply electricity to almost all functional units, and the like.
  • the standby time (change condition) until the control unit 160 transitions to these functions may be changed by an instruction operation from the user.
  • the sleep function or the off function automatically transitions to the sleep function or the off function as a lower-layer function when the time (standby time) during which the instruction operation is not input to the input unit 140 is 1 minute.
  • the instruction operation from the user in the above description may not be an instruction operation from the user wearing the eyewear 100, but may be an instruction operation from a non-wearing person in the vicinity of the eyewear 100.
  • the swipe from the front to the back is described as the first instruction operation
  • the swipe from the back to the front is described as the second instruction operation.
  • the swipe from the rear to the front can be appropriately changed based on the configuration of the input unit 140. is there.
  • the first instruction operation, the second instruction operation, the third instruction operation, and the fourth instruction operation are the same operations (for example, the number of taps) in which the number of times is changed as long as the instruction operations can be distinguished from each other. Or the number of swipes), or a combination of different input operations and the number of times.
  • the sensing unit 170 includes a position detection sensor such as a Global Positioning System (GPS), an acceleration sensor, an angular velocity sensor, a gyro sensor, a proximity sensor, a contact sensor, a vibration sensor, and an orientation sensor, in addition to the tilt sensor and the illuminance sensor.
  • GPS Global Positioning System
  • Bluetooth (“Bluetooth” is a registered trademark of Bluetooth SIG) and the like
  • a communication element that can be connected to a predetermined mobile device such as a smartphone
  • an imaging element such as a camera for identifying and sensing natural light and light from a fluorescent lamp
  • sensors or elements selected from mechanical switches are included in the eyewear 100 is appropriately selected according to the use and usage pattern of the eyewear 100.
  • these sensors or elements may be provided outside the eyewear 100, and for example, detection values may be output to the control unit 160 via a communication element.
  • the control unit 160 can acquire the following information, for example.
  • a plurality of modes are set in three layers as shown in FIG.
  • the first layer of the eyewear 100 of the present embodiment to execute the visual acuity correction mode for executing the visual acuity correction function, the dimming correction mode for executing the dimming correction function, and the visual acuity dimming correction function.
  • Visual acuity dimming correction mode to execute the visual acuity correction mode for executing the visual acuity correction function, the dimming correction mode for executing the dimming correction function, and the visual acuity dimming correction function.
  • the control unit 160 turns on or off the visual acuity correction function, the dimming correction function, or the visual acuity dimming correction function ( Hereinafter, it is also referred to as “intelligent mode”.
  • an automatic learning mode for learning the timing for turning on or off the visual acuity correction function, the dimming correction function, or the visual acuity dimming correction function in the auto mode described above is provided in the lower layer (third hierarchy) of each manual mode. Is included.
  • operation movement of the eyewear 100 when the eyewear 100 performs various functions based on the mode selected by the user is demonstrated.
  • the control unit 160 causes the visual acuity correction function, the dimming correction function, and the visual acuity correction mode to be selected.
  • the function corresponding to each mode is executed.
  • the control unit 160 can detect the vision correction function, the dimming correction function, or the vision dimming correction only when the input unit 140 receives an instruction operation from the user.
  • the control unit 160 causes the visual acuity correction function, the dimming correction function, or the visual acuity dimming based on the condition stored in the storage unit 194 and the detection value detected by the sensing unit 170. Change the correction function on / off.
  • the control unit 160 causes the conditions stored in the storage unit 194 and the detection values detected by the sensing unit 170 (inclination angle and / or illuminance, and detection values by the sensors and elements).
  • control unit 160 sets a condition for turning on or off the visual acuity correction function, the dimming correction function, or the visual acuity dimming correction function in the auto mode. Update as appropriate.
  • FIG. 10 is a flowchart showing an operation example of the eyewear 100 when the user uses the eyewear 100 according to the present embodiment
  • FIG. 11 is a flowchart showing a part of the flow (intelligent mode) in FIG. It is. Further, the operation illustrated in FIG. 10 is started when, for example, the input unit 140, the control unit 160, and the sensing unit 170 are turned on by the attachment of the power supply 180.
  • the visual correction mode is set as the first layer mode
  • the manual mode is set as the second layer mode
  • the third layer mode is automatically learned. Assume that each mode (ON) is executed. At this time, it is assumed that the visual acuity correction function is off.
  • control unit 160 refers to which mode is executed as the mode of the second hierarchy (step S210). Then, the control unit 160 determines whether or not the second layer mode currently being executed is the manual mode (step S211).
  • the input unit 140 detects a change in the capacitance of the touch sensor and receives a user instruction operation (step S221). Then, the input unit 140 transmits a signal indicating that the instruction operation has been received to the control unit 160.
  • the control unit 160 that has received the signal from the input unit 140 determines whether the instruction operation is a fourth instruction operation different from the first to third instruction operations (for example, any one of the plurality of touch sensors without swiping). It is determined whether the finger is touched with a finger or the like for a predetermined time (long press) (step S222).
  • the control unit 160 receives the tilt angle and / or illuminance and acceleration of the eyewear 100 when the input unit 140 receives the instruction operation from the sensing unit 170 (Ste S223). At this time, the type of data received by the control unit 160 is selected according to the mode of the first hierarchy. In this description, when the flow shown in FIG. 10 is started, it is assumed that the visual acuity correction mode is executed as the above-described first layer mode. Therefore, the control unit 160 receives data regarding the tilt angle and acceleration detected by the sensing unit 170.
  • control unit 160 determines again whether or not the instruction operation is received within a predetermined time after the input unit 140 receives the instruction operation in step S221 (step S224). If the control unit 160 determines that the instruction operation has been received again within the predetermined time, the process proceeds to step S228 on the assumption that the instruction from the previous user has been canceled.
  • control unit 160 turns on or off the correction function (the vision correction function in this description) corresponding to the first layer mode. Switching (step S225).
  • control unit 160 refers to the mode of the third layer and determines whether or not the automatic learning mode is on (step S226).
  • step S226 when the control unit 160 determines that the automatic learning mode of the eyewear 100 is off, the process transitions to step S228, assuming that automatic learning is not necessary.
  • the control unit 160 updates the condition corresponding to the first hierarchy mode among the conditions stored in the storage unit 194 (Ste S227).
  • the control unit 160 displays the date and time when the input unit 140 accepts an instruction operation from the user, the tilt angle and the acceleration detected by the sensing unit 170 in step S223, and the instruction content from the user (for example, turns on the vision correction function). And the like are stored in the storage unit 194.
  • the threshold values (tilt angle and acceleration) for turning on the vision correction function stored in the storage unit 194 are replaced with the tilt angle and acceleration detected by the sensing unit 170 in step S223, respectively. Thereafter, the process proceeds to step S228.
  • control part 160 determines whether it is necessary to complete
  • step S212 determines whether or not the auto mode is selected. If it is determined in step S212 that the auto mode is selected, the control unit 160 receives the tilt angle and / or illuminance of the eyewear 100 from the sensing unit 170 (step S231). At this time, the type of data received by the control unit 160 is selected according to the mode of the first hierarchy, and in this description, is the inclination angle.
  • the control unit 160 determines whether the correction function (in this description, the visual acuity adjustment function) corresponding to the mode of the first hierarchy is on (step S232). If it is determined in step S232 that the correction function is on, the control unit 160 obtains a threshold value related to the tilt angle and / or illuminance for turning off the correction function (in this description, a threshold value related to the tilt angle) from the storage unit 194. Read (step S233). The threshold when the eyewear 100 is used for the first time is set to a preset value. On the other hand, when the above-described automatic learning mode is performed and the threshold value is updated, the control unit 160 reads the threshold value updated in the automatic learning mode from the storage unit 194.
  • control unit 160 determines whether or not the detection value detected by the sensing unit 170 in step S231 is equal to or less than the threshold value read in step S233 (step S235). If it is determined in step S235 that the detected value is equal to or smaller than the threshold value, the control unit 160 turns off the correction function (step S237), and the process transitions to step S239. On the other hand, when the control unit 160 determines that the detected value is higher than the threshold value, it is not necessary to turn off the correction function, and the process proceeds to step S239.
  • the control unit 160 stores a threshold value related to the tilt angle and / or illuminance for turning on the correction function (in this description, a threshold value related to the tilt angle) to the storage unit. Read from 194 (step S234). Also in this case, the threshold value when the eyewear 100 is used for the first time is set to a preset value. On the other hand, when the above-described automatic learning mode is performed and the threshold value is updated, the control unit 160 reads the threshold value updated in the automatic learning mode from the storage unit 194. Note that the threshold value for turning on the correction function may be the same as or different from the threshold value for turning off the correction function.
  • step S231 the control unit 160 determines whether or not the detection value detected by the sensing unit 170 is greater than or equal to the threshold value read in step S234 (step S236). If it is determined in step S236 that the detected value is greater than or equal to the threshold value, the control unit 160 turns on the visual acuity correction function (step S238), and the process transitions to step S239. On the other hand, when the control unit 160 determines that the detected value is lower than the threshold value, it is not necessary to turn on the correction function, and the process proceeds to step S239.
  • control unit 160 determines whether or not it is necessary to end the process (step S239). For example, the control unit 160 determines that the process needs to be ended when a condition for ending the predetermined process is satisfied. On the other hand, when the above condition is not satisfied, it is determined that it is not necessary to end the process. As a result of the determination, when it is necessary to end the process, the control unit 160 ends the process in FIG. On the other hand, if it is not necessary to end the process, the process returns to before step S231.
  • step S212 determines in step S212 that a mode other than the auto mode has been selected, the process transitions to the intelligent mode (step S240).
  • the control unit 160 receives the tilt angle and / or illuminance and acceleration of the eyewear 100 from the sensing unit 170 (step S241). At this time, the type of data received by the control unit 160 is also selected according to the mode of the first hierarchy, and in this description, it is set as the tilt angle and the acceleration.
  • control part 160 determines whether the correction
  • amendment function in this description, visual acuity correction function
  • control part 160 determines whether acceleration is more than the threshold value read by step S243 among the detected values detected by step S241 (step S245). If the control unit 160 determines that the detected value is equal to or greater than the threshold value in step S245, the control unit 160 turns off the visual acuity correction function (step S248), and the process transitions to step S255, assuming that the user is moving. On the other hand, when determining that the detected value is lower than the threshold value, the control unit 160 reads from the storage unit 194 a threshold value related to the tilt angle and / or illuminance for turning off the correction function (step S247).
  • control unit 160 determines whether or not the detection value (inclination angle in this description) detected in step S241 is equal to or less than the threshold value read in step S247 (step S251). If it is determined in step S251 that the detected value is equal to or smaller than the threshold value, the control unit 160 turns off the correction function (step S253), and the process transitions to step S255. On the other hand, when the control unit 160 determines that the detected value is higher than the threshold value, it is not necessary to turn off the visual acuity correction function, and the process proceeds to step S255.
  • step S242 determines whether or not the correction function is off. If it is determined in step S242 that the correction function is off, the control unit 160 reads a threshold value related to acceleration for turning on the correction function from the storage unit 194 (step S244). Then, the control unit 160 determines whether or not the detection value (acceleration) detected in step S241 is equal to or less than the threshold value read in step S244 (step S246). If the control unit 160 determines that the detected value is higher than the threshold value in step S246, the process transitions to step S255, assuming that the user is moving and it is not necessary to turn on the visual acuity correction function.
  • the control unit 160 reads from the storage unit 194 a threshold value related to the tilt angle for turning on the correction function (step S250). Then, it is determined whether or not the detected value (inclination angle in this description) detected in step S241 is equal to or larger than the threshold value read in step S250 (step S252). If it is determined in step S252 that the detected value is greater than or equal to the threshold value, the control unit 160 turns on the visual acuity correction function (step S254), and the process transitions to step S255. On the other hand, when the control unit 160 determines that the detected value is lower than the threshold value, it is not necessary to turn on the visual acuity correction function, and the process proceeds to step S255.
  • control unit 160 determines whether or not it is necessary to end the process (step S255). For example, the control unit 160 determines that the process needs to be ended when a condition for ending the predetermined process is satisfied. On the other hand, when the above condition is not satisfied, it is determined that it is not necessary to end the process. As a result of the determination, when it is necessary to end the process, the control unit 160 ends the process in FIG. On the other hand, if it is not necessary to end the process, the process returns to before step S241.
  • the condition stored in the storage unit 194 is constantly updated in step S227.
  • the control unit 160 determines that the condition needs to be updated.
  • the condition may be updated in step S227.
  • each mode may be further subdivided, and a reading mode and a mobile device usage mode may be included below the visual acuity correction mode.
  • the lower layer may include a light color dimming mode, an intermediate color dimming mode, a dark color dimming mode, and the like.
  • the eyewear 100 in which the sensing unit 170 includes an acceleration sensor has been described.
  • control can be performed in the same manner.
  • the sensing unit 170 includes a position detection sensor, an image sensor, or the like
  • step S245 or step S246 in the intelligent mode it is determined whether the sensor is outdoors or indoors, and the dimming correction function is turned on or off. Or the transmittance of the electrically controlled lens 150 can be adjusted.
  • the sensing unit 170 includes a proximity sensor or a communication element
  • steps S245 and S246 of the intelligent mode the distance from the eyewear 100 to a visual target (for example, a communication device such as a mobile phone) is determined.
  • the visual acuity correction function and the dimming correction function can be turned on or off, and the transmittance of the electrically controlled lens 150 can be adjusted.
  • the control unit 160 determines the user's state (for example, posture, drowsiness, etc.) in steps S245 and S246 in the intelligent mode, and the visual acuity
  • the correction function and the light adjustment correction function can be turned on or off, and the transmittance of the electrically controlled lens 150 can be adjusted.
  • the visual acuity correction function, the dimming correction function, or the visual acuity correction dimming function is performed based on the information regarding the tilt angle and / or illuminance collected in the manual mode. Can be turned on or off automatically.
  • the intelligent mode not only the inclination angle and illuminance collected in the manual mode, but also information detected by various sensors and elements included in the sensing unit 170 (external environment of the eyewear or user state).
  • the visual acuity correction function, the dimming correction function, or the visual acuity correction dimming function can be automatically turned on or off. That is, according to the eyewear 100 of the present embodiment, it is possible to set conditions for causing each function to be expressed more finely in accordance with the user's preference, environment, user state, and the like.
  • the eyewear 100 can execute both the vision correction function and the dimming correction function has been described.
  • the eyewear may be able to execute only one of these.
  • the above-described electrically controlled lens is configured such that the first transparent substrate, the first transparent electrode, the refractive index variable layer, the second, from the rear (user side) The first transparent substrate, the first transparent electrode, the adhesive layer, the second transparent electrode, and the first region where the second transparent substrate is disposed, and the rear (user side), And a second region where the second transparent substrate is disposed.
  • the above-described electrically controlled lens includes the first transparent substrate, the first transparent electrode, the transmittance variable layer, the second transparent electrode, and the second The transparent substrate should just be provided.
  • the eyewear 100 has the single input unit 140 that can accept a plurality of instruction operations, but the input unit includes a plurality of frames. It may be arranged at a location.
  • the control unit may execute the functions of the same hierarchy by the same instruction operation received by the plurality of input units arranged in the plurality of places, or for each input unit by the received instruction operation. Different hierarchy functions may be performed.
  • the above-described frame is a pair of nose pads that contact the user's nose to fix the position of the eyewear, a hinge portion that rotatably connects the temple to the front rim, and an electric control type lens disposed at both ends of the rim.
  • a rim lock portion and an armor portion for screwing the rim to the rim may be provided, a modern portion having a shape for hanging the temple on the ear, and the like.
  • the input unit, the control unit, the sensing unit, and the like may be disposed on any of these members.
  • FIG. 12 is a block diagram showing an exemplary functional configuration of the eyewear of the present invention.
  • the eyewear includes a communication unit 192 that can communicate with other devices, a display device such as a display, or a function change such as an LED lamp. You may have the output part 196 etc. which can be connected with the external notification apparatus to notify by a wire or radio
  • Each functional unit included in the eyewear is connected by a bus B.
  • an electric control type lens has been described as an example of an optical module whose optical characteristics are changed by electric control.
  • the optical module is transparent so that an image and a video can be projected by the projection unit 198.
  • a board etc. may be sufficient.
  • the control unit 160 may execute a function related to the type of image or video to be projected and a function related to the pattern in the first instruction operation and the second instruction operation.
  • the eyewear of the present invention can change conditions for automatically expressing functions according to user-specific information and user preferences. Therefore, the eyewear of the present invention is expected to contribute to the spread and advancement of eyewear in this field.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Engineering & Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Eyeglasses (AREA)

Abstract

アイウェアは、光学特性が変化する光学モジュールと、ユーザからの指示を受け付ける入力部と、光学モジュールの使用環境を検出する感知部と、光学モジュールの光学特性を変化させる条件を少なくとも記憶する記憶部と、設定モードに応じて、電気制御により光学モジュールの電気制御を行う制御部と、を有する。設定モードは、記憶部に記憶された条件および感知部の検出値に基づいて、制御部が光学モジュールの電気制御を行う第1モードと、入力部が受け付けた指示に基づいて、制御部が光学モジュールの電気制御を行う第2モードとを有する。記憶部に記憶された条件は、第2モードにて入力部が指示を受け付けたときの感知部の検出値に基づき更新される。これによりユーザ固有の情報やユーザの嗜好に合わせて機能を発現させる条件を変更することが可能であり、かつ、所定の機能を自動で実行可能なアイウェアを提供する。

Description

アイウェア
 本発明は、アイウェアに関する。
 近年、ユーザが装着可能な電子機器(ウェアラブルデバイス)の開発が行われている。これらウェアラブルデバイスは身に着けるという性質上、小型のデバイスであることが多い。また、ユーザが身に着けた状態では、操作を行い難いことも多く、ユーザによるウェアラブルデバイスに対する操作入力はある程度制限されたものとなっている。
 一方で、ウェアラブルデバイスを、ユーザの使用状態等に合わせて機能させることが提案されている。例えば、特許文献1には、眼鏡本体の傾斜角度によって液晶レンズへの電気信号を制御して、焦点距離を自動的に可変にするアイウェア(眼鏡)が記載されている。また、特許文献2には、レンジファインダー等の検出結果に基づき、屈折率を調整する機能が搭載されているアイウェアが開示されている。
特開昭62-009315号公報 米国特許第6517203号明細書
 上記特許文献1および特許文献2に記載のアイウェアでは、予め設定された情報に基づいて、その焦点距離や、屈折率等が制御されるのみであり、ユーザ固有の情報や、ユーザの嗜好に合わせて、機能を発現する条件を変えられるものではなかった。
 本発明は、ユーザ固有の情報やユーザの嗜好に合わせて機能を発現させる条件を変更することが可能であり、かつ、所定の機能を自動で実行可能なアイウェアを提供することを目的とする。
 本発明の一態様は、光学特性が変化する光学モジュールと、ユーザからの指示を受け付ける入力部と、光学モジュールの使用環境を検出するための感知部と、光学モジュールの光学特性を変化させる条件を少なくとも記憶する記憶部と、設定モードに応じて、電気制御により光学モジュールの光学特性を変化させる制御部と、を有し、設定モードは、少なくとも、記憶部に記憶された条件および感知部の検出値に基づいて、制御部が光学モジュールに対する電気制御を行う第1のモードと、入力部が受け付けた指示に基づいて、制御部が光学モジュールに対する電気制御を行う第2のモードと、を含み、第2のモードにおいて入力部が指示を受け付けたときの感知部の検出値に基づき、記憶部に記憶された条件が更新される、アイウェアに関する。
 本発明によれば、ユーザ固有の情報やユーザの嗜好に合わせて機能を発現させる条件を変更することが可能であり、かつ、所定の機能を自動で実行可能なアイウェアが提供される。
図1は、本発明の第1の実施形態に係るアイウェアを示す斜視図である。 図2は、本発明の第1の実施形態に係るアイウェアを示す別の斜視図である。 図3は、本発明の第1の実施形態に係るアイウェアの機能構成を表すブロック図である。 図4は、本発明の第1の実施形態に係るアイウェアが有する電気制御型レンズのA-A部分の模式断面図である。 図5は、本発明の第1の実施形態に係るアイウェアの制御のためのモードの階層を示す模式図である。 図6は、本発明の第1の実施形態に係るアイウェアのモードが選択される際のフローチャートである。 図7は、本発明の第1の実施形態に係るアイウェアの動作例を示すフローチャートである。 図8は、調光補正モードおよび視力調光補正モードにおいて、アイウェアが感知する光の照度と電気制御型レンズの可視光の透過率との関係(初期設定値)を示すグラフである。 図9は、本発明の第2の実施形態に係るアイウェアの制御のためのモードの階層を示す模式図である。 図10は、本発明の第2の実施形態に係るアイウェアの動作例を示すフローチャートである。 図11は、図10に示すフローチャートの一部である。 図12は、本発明の別の実施形態におけるアイウェアの例示的な機能構成を表すブロック図である。
 以下、複数の実施形態を用いて、本発明のアイウェアを説明する。
 [第1の実施形態]
 (アイウェアの構造)
 図1および図2は、本発明の第1の実施形態に係るアイウェア100を示す斜視図である。
 アイウェアには、例えば、視力補正レンズのようにユーザの視力向上のための補助機構を有するいわゆる眼鏡(電子メガネ、サングラスを含む)やゴーグル、ユーザの視界あるいは眼に対して情報提示を行う機構を有する種々のデバイス(例えば、眼鏡型ウェアラブル端末、ヘッドマウントディスプレイ等)が含まれる。以下の本実施形態では、一対のレンズを有する両目用の電子眼鏡を例に説明するが、本発明に係るアイウェアは、この態様に限定されない。アイウェアは、装着されることにより、眼に対して視力または視界向上のための補助機構や情報提示のための機構を保持する構成であればよく、両方の耳に装着される眼鏡型に限らず、頭部や片方の耳のみに装着される装置であってもよい。また、両眼用ではなく、片眼のみに作用するアイウェアであってもよい。
 図1および図2に示すように、アイウェア100は、フロント110および一対のテンプル120aおよび120bを有するフレーム130、入力部140、電気制御により光学特性が変化する光学モジュールである一対の電気制御型レンズ150、感知部170、制御部160としても機能するCPU(Central Processing Unit)およびRAM(Random Access Memory)、ならびに記憶部194としても機能するROM(Read Only Memory)などが含まれるCPUユニット165などの演算装置、ならびに電源180を有する。CPUは、アイウェア100の機能を実行するためのプログラムをROMから読み出してRAMに展開し、展開したプログラムを実行してアイウェア100の各機能部の動作を制御する。なお、以下の記載では、一対の電気制御型レンズ150が配置されている部分をアイウェア100の正面(前方)とする。
 また、アイウェア100の機能構成を表すブロック図である図3に示すように、アイウェア100が備える各機能部は、バスBにより接続される。
 以下、本実施形態のアイウェア100の各構成について説明する。
 フロント110は、一対の電気制御型レンズ150を保持する。フロント110は、上記一対の電気制御型レンズ150をそれぞれ支持する一対のリム112と、上記一対のリム112を接続するブリッジ114と、を有する。リム112は、電気制御型レンズ150の形状に対応する形状を有する。特に図示しないが、フロント110の内部には、電気制御型レンズ150とCPUユニット165(制御部160)とを電気的に接続するための配線が配置されている。
 フロント110の材料は、特に限定されず、メガネのフロントの材料として使用されている公知の材料とすることができる。フロント110の材料の例には、ポリアミド、アセテート、カーボン、セルロイド、ポリエーテルイミドおよびポリウレタンが含まれる。
 一対のテンプル120aおよび120bは、左右対称となるようにフロント110に接続された棒状の部材であり、その前端部においてフロント110に接続される。一対のテンプル120aおよび120bの一方(図1および図2では右側のテンプル120a)には、入力部140、CPUユニット165(制御部160および記憶部194)、感知部170、および電源180が配置される。
 テンプル120aおよび120bの材料は、特に限定されず、メガネのテンプルの材料として使用されている公知の材料とすることができる。テンプル120aおよび120bの材料の例には、ポリアミド、アセテート、カーボン、セルロイド、ポリエーテルイミドおよびポリウレタンが含まれる。
 入力部140は、ユーザからの入力動作を受け付ける。入力部140の構造は特に制限されない。入力部140は、例えば、テンプル120aの外側かつ前方の領域に、前方から後方に向けて列状に配置された複数の静電容量型のタッチセンサとすることができる。この場合、ユーザが複数のタッチセンサに沿って前方から後方、もしくは後方から前方へ指などを移動させる(スワイプする)動作や、指などを移動させずに触れる(タップする)動作、所定時間指などで触れる(長押しする)動作等によって、入力部140は、ユーザからの指示を受け付けることができる。
 また、入力部140は、上記スワイプ動作によって静電容量が変化したタッチセンサの数から、入力動作の動作量(移動量)を識別して受け付け可能であってもよい。
 一対の電気制御型レンズ150は、フレームのフロント110に保持されている。電気制御型レンズ150は、電圧の印加により光学特性が変化する電気活性部を有する。それぞれの電気制御型レンズは、球面レンズであってもよく、非球面レンズであってもよい。それぞれの電気制御型レンズは、電圧の印加によりその焦点距離(度数)を変更可能な第1の領域150aと、当該第1の領域外の第2の領域150bとを有する。
 電気制御型レンズ150のA-A部分の模式断面図を図4に示す。図4に示すように、第1の領域150aには、後方(使用者側)から、第1の透明基板1510、第1の透明電極1520、電気活性部としての屈折率可変層1530、第2の透明電極1540、第2の透明基板1550、第3の透明電極1560、電気活性部としての透過率可変層1570、第4の透明電極1580、および第3の透明基板1590が、この順に積層されている。
 なお、特に図示しないが、第1の透明基板1510および第1の透明電極1520、または第2の透明基板1550および第2の透明電極1540は、第1の領域150aにおいてフレネルレンズ形状を有していてもよい。
 一方、第2の領域150bには、図4に示すように、後方(使用者側)から、第1の透明基板1510、第1の透明電極1520、接着層1535、第2の透明電極1540、第2の透明基板1550、第3の透明電極1560、電気活性部としての透過率可変層1570、第4の透明電極1580、および第3の透明基板1590がこの順に積層されている。
 なお、第2の透明電極1540と第3の透明電極1560とは、共通電極であってもよい。このとき、第2の透明基板1550は、その配置を省略することができる。
 第1の透明基板1510、第2の透明基板1550、および第3の透明基板1590は、アイウェア100の前方側に向かって凸状となるように湾曲した透明部材である。
 第1の透明基板1510、第2の透明基板1550、および第3の透明基板1590の材料は、可視光に対する透光性を有していれば特に限定されず、レンズの材料として使用されうる公知の材料とすることができる。第1の透明基板1510、第2の透明基板1550、および第3の透明基板1590の材料の例には、ガラスおよび樹脂が含まれる。上記樹脂の例には、ポリメチルメタクリレート、ポリカーボネート、ポリジエチレングリコールビスアリルカーボネートおよびポリスチレンが含まれる。第1の透明基板1510、第2の透明基板1550、および第3の透明基板1590の材料は、同一であってもよいし、異なっていてもよい。
 第1の透明電極1520および第2の透明電極1540、ならびに第3の透明電極1560および第4の透明電極1580は、それぞれ透光性を有する透明電極である。第1の透明電極1520および第2の透明電極1540は、少なくとも屈折率可変層1530に電圧を印加しうる範囲(第1の領域150a)に配置される。一方、第3の透明電極1560および第4の透明電極1580は、少なくとも透過率可変層1570に電圧を印加しうる範囲(第1の領域150aおよび第2の領域150b)に配置される。
 第1の透明電極1520、第2の透明電極1540、第3の透明電極1560、および第4の透明電極1580の材料は、可視光に対する透光性と導電性とを有するものであれば特に限定されない。これらの材料の例には、酸化インジウムスズ(ITO)および酸化亜鉛(ZnO)が含まれる。第1の透明電極1520、第2の透明電極1540、第3の透明電極1560、および第4の透明電極1580の材料は、同一であってもよく、異なっていてもよい。
 屈折率可変層1530は、電圧の印加により可視光の屈折率が変化する層である。屈折率可変層1530の材料の例には、コレステリック液晶およびネマティック液晶などが含まれる。第1の透明電極1520および第2の透明電極1540によって屈折率可変層1530に電圧が印加されると、液晶分子の配向が変化することなどにより、屈折率可変層1530の屈折率が可逆的に変化する。そのため、屈折率可変層1530に電圧を印加すると、第1の領域150aの焦点距離(度数)が変化する。
 透過率可変層1570は、電圧の印加によって可視光の透過率(以下、単に「透過率」とも称する)が変化する層である。透過率可変層1570の材料の例には、エレクトロクロミック素子およびゲスト-ホスト液晶などが含まれる。第3の透明電極1560および第4の透明電極1580によって透過率可変層1570に電圧が印加されると、供給された電子による酸化還元反応や、液晶分子の配向の変化などにより、透過率可変層1570の透過率が可逆的に変化する。そのため、透過率可変層1570に電圧を印加すると、第1の領域150aおよび第2の領域150bの可視光の透過率が変化する。
 接着層1535は、第2の領域150bにおいて、第1の透明基板1510と第2の透明基板1550との間に配置されて、第1の透明基板1510と第2の透明基板1550とを接着する。ただし第1の透明電極1520および第2の透明電極1540が、第2の領域150bにも配置される場合には、接着層1535は、第1の透明電極1520と第2の透明電極1540との間に配置される。また、接着層1535は、屈折率可変層1530を構成する材料を封止する機能も有する。接着層1535の材料は、可視光に対する透光性を有する、接着剤の硬化物であれば特に限定されない。
 感知部170は、水平軸に対する鉛直下方へのアイウェア100の傾斜角度(以下、単に「傾斜角度」ともいう。)を感知する傾斜センサ、およびアイウェア100への光の照度を感知する照度センサを少なくとも含む。感知部170は、上記傾斜センサが感知した傾斜角度、および照度センサが感知した照度を、それぞれ制御部160に出力する。
 記憶部194は、後述するアイウェアの制御におけるオートモードにおいて、電気制御型レンズ150の第1の領域150aの屈折率、電気制御型レンズ150の第1の領域150aおよび第2の領域150bの透過率、もしくはこれらの両方を変化させるための条件(閾値)を記憶する。
 制御部160は、後述するように設定モードに応じて、入力部140が受け付けた入力動作や、記憶部194に記憶された条件、および感知部170の検出値に基づき、電気制御型レンズ150の光学特性を変化させる。
 制御部160は、電気制御型レンズ150の第1の透明電極1520、第2の透明電極1540、第3の透明電極1560、および第4の透明電極1580、ならびに、入力部140、感知部170、および記憶部194に電気的に接続されている。後述する制御によって、第1の透明電極1520と第2の透明電極1540との間、および/または第3の透明電極1560と第4の透明電極1580との間に電圧を印加して、電気制御型レンズ150の光学特性(屈折率または透過率)をそれぞれ変化させる。つまり、本実施形態のアイウェア100は、制御部160が、電気制御型レンズ150の屈折率を変化させて視力補正を行う機能(以下、単に「視力補正機能」とも称する)、電気制御型レンズ150の透過率を変化させて調光補正を行う機能(以下、単に「調光補正機能」とも称する)、および電気制御型レンズ150の屈折率および透過率を独立に変化させて、視力補正および調光補正を同時に行う機能(以下、単に「視力調光補正機能」とも称する)をそれぞれ実行する。
 電源180は、テンプル120aの後端部に着脱可能に保持される充電式のバッテリーパックであり、入力部140、制御部160および感知部170などの電力を消費する機能部に電力を供給する。電源180の例には、ニッケル水素充電池が含まれる。
 (アイウェアの制御)
 ・モードについて
 本実施形態のアイウェア100には、上述の視力補正機能、調光補正機能、および視力調光補正機能を実施するための複数のモードが図5の模式図に示すように階層状に設定されている。当該アイウェア100では、ユーザが入力部140を通じて、各階層のモードを選択することで、制御部160に所望の動作を実行させることができる。アイウェア100の制御部160は、複数のモードのうち、設定されたモードに従って、第1の透明電極1520及び第2の透明電極1540の間に印加する電圧を制御することにより、電気活性部の光学特性を制御する。
 本実施形態のアイウェア100では、図5に示すように、複数のモードが3階層にわけて設定されている。本実施形態のアイウェア100の第1階層には、視力補正機能を実行するための視力補正モード、調光補正機能を実行するための調光補正モード、ならびに視力調光補正機能を実行するための視力調光補正モード、が含まれる。
 また、視力補正モード、調光補正モード、および視力調光補正モードの下層(第2階層)には、視力補正機能、調光補正機能、または視力調光補正機能を、ユーザが手動でオンまたはオフにするモード(以下、「マニュアルモード」とも称する)と、記憶部194に記憶された条件および感知部170で検出された検出値に基づき、制御部160が視力補正機能、調光補正機能、または視力調光補正機能をオンまたはオフにするモード(以下、「オートモード」とも称する)とがそれぞれ含まれる。
 さらに、各マニュアルモードの下層(第3階層)には、上記オートモードにおいて、視力補正機能、調光補正機能、または視力調光補正機能をオンまたはオフにする条件を学習するための自動学習モードが含まれる。
 ユーザは各階層のモードを、入力部140を通じて変更する。例えば、入力部140が前方から後方に向けて列状に配置された複数の静電容量型のタッチセンサである場合、複数のタッチセンサに沿って前方から後方へ指などを移動させる(スワイプする)第1の指示動作によって第1階層のモードを1段階遷移させることができる。同様に、上記第1の方向とは略反対方向である、上記複数のタッチセンサに沿って後方から前方へ指などを移動させる(スワイプする)第2の指示動作によって、第2階層のモードを1段階遷移させることができる。さらに、スワイプせずに上記複数のタッチセンサのいずれかをタップする第3の指示動作によって、第3階層のモードを1段階遷移させることができる。
 図6は、本実施形態に係るアイウェア100のユーザが、アイウェア100の制御部160が実行するモードを選択し、制御部160に各種機能を実行させるときの、アイウェア100の動作例を示すフローチャートである。図6に示す動作は、例えば、電源180の取り付けによって入力部140、制御部160および感知部170がオン状態になることにより開始される。
 以下の説明において、図6に示すフローを開始するときに、制御部160は第1階層のモードとして視力補正モードを、第2階層のモードとしてマニュアルモードを、第3階層のモードとして自動学習モード(オン)を、それぞれ実行していると仮定する。
 まず、入力部140は、ユーザの指の接触などによるタッチセンサの静電容量の変化を検出して、入力動作として受け付ける(ステップS10)。上記入力動作を受け付けた旨の信号を入力部140から受信した制御部160は、当該指示動作が第1の指示動作(前方から後方へのスワイプ)か否かを判定する(ステップS11)。
 制御部160は、ステップS11において上記指示動作が第1の指示動作であると判定すると、第1階層のモードを一段階遷移させる(ステップS12)。本説明では、フロー開始時、制御部160が、第1階層のモードとして視力補正モードを実行している。そこで、上記指示動作が第1の指示動作であると判定したとき、制御部160は、第1階層のモードを調光補正モードに遷移して、調光補正モードを実行する。制御部160が上記第1階層のモードを遷移して実行することで、処理はステップS40に遷移する。
 一方で、制御部160は、ステップS11において上記指示動作が第1の指示動作ではないと判定すると、次に、上記指示動作が第2の指示動作(後方から前方へのスワイプ)であるか否かを判定する(ステップS21)。
 制御部160は、ステップS21において上記指示動作が第2の指示動作であると判定すると、現在実行している第1階層のモードに対応する第2階層のモードが存在するか否かを判定する(ステップS22)。
 制御部160は、ステップS22において現在実行している第1階層のモードに対応する第2階層のモードが存在すると判定すると、現在実行している第1階層のモードを実行したまま、第2階層のモードを遷移して、遷移された第2階層のモードを実行する(ステップS23)。本説明では、フロー開始時に、制御部160は、第1階層のモードとして視力補正モードを、第2階層のモードとしてマニュアルモードを、それぞれ実行している。そのため、制御部160は、ステップS23において、第1階層のモードである視力補正モードを実行したまま、第2階層のモードをオートモードに遷移して実行する。制御部160が第2階層のモードを遷移して実行すると、処理はステップS40に遷移する。
 一方で、ステップS22において対応する第2階層のモードは存在しないと制御部160が判定すると、処理はステップS40に遷移する。
 また、ステップS21において上記指示動作は第2の指示動作ではないと制御部160が判定すると、制御部160は、上記指示動作が第3の指示動作(移動を伴わないタップ)であるか否かを判定する(ステップS31)。
 制御部160は、ステップS31において上記指示動作が第3の指示動作であると判定すると、現在実行している第2階層のモードに対応する第3階層のモードが存在するか否かを判定する(ステップS32)。
 制御部160は、ステップS32において現在実行している第2階層のモードに対応する第3階層のモードが存在すると判定すると、現在実行している第1階層のモードおよび第2階層のモードを実行したまま、第3階層のモードを一段階遷移して、遷移された第3階層のモードを実行する(ステップS33)。本説明では、フロー開始時に、制御部160は、第1階層のモードとして視力補正モードを、第2階層のモードとしてマニュアルモードを、第3階層のモードとして自動学習モードを、それぞれ実行している。そのため、制御部160は、ステップS33において、第1階層のモードである視力補正モードおよび第2階層のモードであるマニュアルモードを実行したまま、第3階層のモードを自動学習モードオフに遷移して実行する。制御部160が第3階層のモードを遷移して実行すると、処理はステップS40に遷移する。
 一方で、ステップS32において対応する第3階層のモードは存在しないと制御部160が判定すると、処理はステップS40に遷移する。
 また、ステップS31において上記指示動作は第3の指示動作ではないと制御部160が判定すると、処理はステップS40に遷移する。
 その後、制御部160は、処理を終了させる必要があるか否かについて判定する(ステップS40)。例えば、制御部160は、予め定められた処理を終了させる条件が満たされているときは、処理を終了させる必要があると判定する。一方、上記条件が満たされていないときは、処理を終了させる必要がないと判定する。判定の結果、処理を終了させる必要がある場合、制御部160は、図6における処理を終了する。一方、処理を終了させる必要がない場合、処理はステップS10の前に戻る。
 ・アイウェアの動作について
 本実施形態のアイウェア100は、上述のようにユーザに選択されたモードに基づき、各機能を実行する。ユーザによって上述の第1階層のモードとして、視力補正モード、調光補正モード、および視力調光補正モードのいずれかが選択されると、制御部160は、視力補正機能、調光補正機能、および視力調光補正機能のうち、各モードに対応する機能を実行する。また、第2階層のモードとして、マニュアルモードが選択されると、制御部160は、入力部140がユーザから指示動作を受け付けたときのみ、視力補正機能、調光補正機能、または視力調光補正機能のオン/オフを変更する。一方、オートモードが選択されると、制御部160は、記憶部194に記憶された条件および感知部170で検出された検出値に基づいて、視力補正機能、調光補正機能、または視力調光補正機能のオン/オフを変更する。さらに、上述の第3階層のモードとして、自動学習モードが選択されると、制御部160は、オートモードにおいて視力補正機能、調光補正機能、または視力調光補正機能をオンまたはオフにするための条件を、適宜更新する。
 以下、上記アイウェア100の動作について説明する。図7は、本実施形態に係るアイウェア100をユーザが使用するときの、アイウェア100の動作例を示すフローチャートである。図7に示す動作は、例えば、電源180の取り付けによって入力部140、制御部160および感知部170がオン状態になることにより開始される。なお、以下の説明では、図7に示すフローを開始するときに、第1階層のモードとして視力補正モードを、第2階層のモードとしてマニュアルモードを、第3階層のモードとして自動学習モード(オン)を、それぞれ実行していると仮定する。またこのとき、視力補正機能はオフとなっている、と仮定する。
 制御部160は、まず、第2階層のモードとして、いずれのモードが実行されているかを参照する(ステップS110)。そして、制御部160は、現在実行されている第2階層のモードが、マニュアルモードであるか否かを判定する(ステップS111)。
 マニュアルモードが実行されていると制御部160が判定すると、入力部140は、タッチセンサの静電容量変化を検出し、ユーザの指示動作を受け付ける(ステップS121)。そして、入力部140は、指示動作を受け付けた旨の信号を制御部160に伝える。入力部140からの信号を受信した制御部160は、当該指示動作が、第1~第3の指示動作とは異なる第4の指示動作(例えばスワイプせずに上記複数のタッチセンサのいずれかを所定時間指等で触る(長押し)等)であるかを判定する(ステップS122)。
 上記指示動作が第4の指示動作であると判定すると、制御部160は、入力部140が指示動作を受け付けたときの傾斜角度および/または照度を感知部170から受け取る(ステップS123)。このとき、制御部160が受け取るデータの種類は、第1階層のモードに応じて選択される。本説明では、図7に示すフローを開始するとき、第1階層のモードとして視力補正モードが実行されていると仮定している。そこで、制御部160は、感知部170から傾斜角度に関するデータを受け取る。なお、「入力部140が指示動作を受け付けたとき」とは、指示動作の受け付けと略同一のタイミングであればよく、完全に一致していなくてもよい。
 続いて、制御部160は、入力部140がステップS121において指示動作を受け付けてから所定の時間内に、再度、指示動作を受け付けたか否かを判定する(ステップS124)。所定時間内に再度、指示動作を受け付けたと制御部160が判定すると、先のユーザからの指示は取り消されたものとして、処理はステップS128に遷移する。
 一方、所定時間内に再度、入力部140が指示動作を受け付けなかったと判定すると、制御部160は第1階層のモードに対応する補正機能をオンまたはオフに切り替える(ステップS125)。本説明では、第1階層のモードとして視力補正モードが実行されており、視力補正機能がオフに設定されている。そこで、制御部160は、第1の透明電極1520および第2の透明電極1540の間に電圧を印加し、視力補正機能をオンにする。
 そしてさらに制御部160は、第3階層のモードを参照し、自動学習モードがオンであるか否かを判定する(ステップS126)。ステップS126において、アイウェア100の自動学習モードがオフであると制御部160が判定すると、自動学習は不要であるとして、処理はステップS128に遷移する。
 一方、ステップS126において、アイウェア100の自動学習モードがオンであると判定すると、制御部160は、記憶部194に記憶された条件のうち、第1階層のモードに対応する条件を更新する(ステップS127)。本説明では、図7に示すフローを開始するときに、第1階層のモードとして視力補正モードが実行されており、視力補正機能がオフであると仮定している。そこで、制御部160は、入力部140がユーザからの指示動作を受け付けた日時、ステップS123で感知部170が検出した傾斜角度、およびユーザからの指示内容(例えば、視力補正機能をオンにするための指示であったこと)等を記憶部194に記憶させる。そして、記憶部194に記憶されている、視力補正機能をオンにするための閾値を、ステップS123で感知部170が検出した傾斜角度と置き換える。その後、処理はステップS128に遷移する。
 そして、制御部160は、処理を終了させる必要があるか否かについて判定する(ステップS128)。例えば、制御部160は、予め定められた処理を終了させる条件が満たされているときは、処理を終了させる必要があると判定する。一方、上記条件が満たされていないときは、処理を終了させる必要がないと判定する。判定の結果、処理を終了させる必要がある場合、制御部160は、図7における処理を終了する。一方、処理を終了させる必要がない場合、処理はステップS121の前に戻る。
 一方、ステップS111においてオートモードが実行されていると判定すると、制御部160は、アイウェア100の傾斜角度および/または照度を感知部170から受け取る(ステップS131)。このとき、制御部160が受け取るデータの種類も、第1階層のモードに応じて選択され、本説明では、傾斜角度とされる。
 そして、制御部160は、第1階層のモードに対応する補正機能(本説明では、視力補正機能)がオンになっているかを判定する(ステップS132)。補正機能がオンであると判定すると、制御部160は補正機能をオフにするための傾斜角度および/または照度に関する閾値(本説明では、傾斜角度に関する閾値)を、記憶部194から読み出す(ステップS133)。アイウェア100の初回使用時の閾値は、予め設定された値とされる。一方、前述の自動学習モードが行われ、閾値が更新されている場合、制御部160は、自動学習モードで更新された後の閾値を記憶部194から読み出す。
 続いて制御部160は、ステップS131において感知部170で検出された検出値が、ステップS133で読み出された閾値以下であるか否かを判定する(ステップS135)。ステップS135において、検出値が閾値以下であると判定すると、制御部160は補正機能をオフにする(ステップS137)。本説明では、電気制御型レンズ150の第1の透明電極1520および第2の透明電極1540の間への電圧の印加を取りやめる。そして、処理はステップS139に遷移する。一方、検出値が閾値より高いと制御部160が判定すると、補正機能をオフにする必要はないとして、処理はステップS139に遷移する。
 一方、ステップS132において、第1階層のモードに対応する補正機能(本説明では、視力補正機能)がオフであると判定すると、制御部160は補正機能をオンにするための傾斜角度および/または照度に関する閾値(本説明では、傾斜角度に関する閾値)を記憶部194から読み出す(ステップS134)。この場合も、アイウェア100の初回使用時の閾値は、予め設定された値とされる。一方、前述の自動学習モードが行われ、閾値が更新されている場合、制御部160は、自動学習モードで更新された後の閾値を記憶部194から読み出す。なお、補正機能をオンにするための閾値は、上記補正機能をオフにするための閾値と同一であってもよく、異なっていてもよい。例えば、視力補正機能をオンにするための閾値(初期設定値)を20°、視力補正機能をオフにするための閾値(初期設定値)を5°等と設定することができる。
 続いて制御部160は、ステップS131において感知部170で検出された検出値が、ステップS134で読み出された閾値以上であるか否かを判定する(ステップS136)。ステップS136において、検出値が閾値以上であると判定すると、制御部160は補正機能をオンにする(ステップS138)。本説明では、電気制御型レンズ150の第1の透明電極1520および第2の透明電極1540の間に電圧を印加する。そして、処理はステップS139に遷移する。一方、検出値が閾値より低いと制御部160が判定すると、補正機能をオンにする必要はないとして、処理はステップS139に遷移する。
 その後、制御部160は、処理を終了させる必要があるか否かについて判定する(ステップS139)。例えば、制御部160は、予め定められた処理を終了させる条件が満たされているときは、処理を終了させる必要があると判定する。一方、上記条件が満たされていないときは、処理を終了させる必要がないと判定する。判定の結果、処理を終了させる必要がある場合、制御部160は、図7における処理を終了する。一方、処理を終了させる必要がない場合、処理はステップS131の前に戻る。
 なお、上述の説明では、図7に示すフローを開始するときに、第1階層のモードとして視力補正モードが実行されていると仮定して説明したが、第1階層のモードとして調光補正モードが実行されている場合、上述のステップS123やステップS131において、制御部160は感知部170から照度を検出値として受け取る。また、ステップS127では、記憶部194に記憶された条件のうち、照度に関する条件を更新する。
 一方、第1階層のモードとして、視力調光補正モードが実行されている場合、上述のステップS123やステップS131において、制御部160は感知部170から傾斜角度および照度の両方を検出値として受け取る。また、ステップS127では、記憶部194に記憶された条件のうち、傾斜角度および照度に関する条件を更新する。
 以上のように、本実施形態のアイウェア100のオートモードでは、マニュアルモードで収集された傾斜角度および/または照度に関する情報に基づき、視力補正機能、調光補正機能、または視力補正調光機能を自動でオンまたはオフにすることができる。したがって、本実施形態のアイウェア100によれば、ユーザの嗜好等に合わせて、各機能を発現させる条件を設定することが可能である。
 ・・アイウェアの動作の変形例
 上述の説明(図7に示すフロー)では、自動学習モードがオンである場合に入力部140が指示動作を受け付けると、ステップS127において、記憶部194に記憶された条件が常に更新される。ただし、本実施形態のアイウェア100は、制御部160が、条件の更新が必要であると判定した場合にのみ、ステップS127で条件を更新してもよい。例えば、制御部160が、ステップS123で検出された検出値と記憶部194に記憶された閾値とを比較するステップ(図示せず)を行い、検出値が閾値と所定の値以上ずれている判定した場合にのみ、ステップS126に遷移し、記憶部194に記憶された条件を更新してもよい。
 また、ステップS126で検出された値が、過去に感知部170によって検出された検出値と所定の回数同一の範囲に含まれるかを制御部160が判定するステップ(図示せず)を行ってもよい。この場合、ステップS126において、所定の回数、同一の範囲に含まれる値が検出された場合にはじめて、ステップS126に遷移し、制御部160は、記憶部194に記憶された条件を更新する。また、所定の回数、同一の値が検出された場合に、記憶部194に記憶された条件を更新してもよい。
 さらに、入力部140が指示動作を受け付けたときの、感知部160の検出値取得回数に応じて、記憶部194に記憶された条件が更新されてもよい。例えば、ステップS126で検出された値と、過去に検出された所定の回数分の検出値の平均値を演算するステップ(図示せず)を行ってもよい。この場合、ステップS126では、制御部160は、記憶部194に記憶された条件を、上記平均値に基づいて更新する。
 さらに、ステップS127が行われるタイミングは、入力部140が指示動作を受け付けた直後でなくてもよい。例えば、ステップS123で検出された検出値を、記憶部194に記憶された閾値とは別に記憶しておき、任意のタイミング(例えば、オートモードが選択されたタイミング等)で、ステップS127を行い、記憶部194に記憶された条件を更新してもよい。
 また、上記では、階層が3つにわかれている例を挙げて説明したが、階層はさらに細かく分かれていてもよい。例えば、図5に示す第1階層と第2階層との間に、種々のモードが含まれていてもよい。例えば、視力補正モードの下層に、読書モードやモバイル機器使用モード等が含まれていてもよい。この場合、これらの各モードのさらに下層にそれぞれオートモードおよびマニュアルモードを含めることができる。一方、調光補正モードの下層に、アイウェア100への光の照度に対して電気制御型レンズ150の透過率を図8に示すように変化させる淡色調光モード、中間色調光モード、および濃色調光モードが含まれていてもよい。図8に示す照度と透過率との関係は、初期設定値であり、透過率を変化させる条件を自動学習モードで学習させ、適宜更新してもよい。
 なお、調光補正モードの下層に、淡色調光モード、中間色調光モード、および濃色調光モードが含まれる場合、図7のステップS121で入力部140が受け付ける指示動作は、調光補正機能のオンまたはオフに関する指示ではなく、電気制御型レンズ150の透過率を低くまたは高くする指示であってもよい。この場合、ステップS125では、制御部160が、調光補正機能のオンまたはオフを切り替えるのではなく、電気制御型レンズ150の可視光の透過量(第3の透明電極1560または第4の透明電極1580に印加する電圧の量)を変更する。
 またこの場合、ステップS127では、ステップS121において入力部140が指示を受け付けた日時、入力部140が指示動作を受け付けたときのアイウェア100への光の照度、およびユーザが設定した透過率を、制御部160が記憶部194に記憶させる。そして、図8に示す照度の上限値または下限値を、当該検出値に合わせて置き換える。
 なお、このときの第4の指示動作は、スワイプ動作としてもよい。第4指示動作がスワイプ動作であると、静電容量が変化したタッチセンサの数から、入力動作の動作量(移動量)を識別し、電気制御型レンズ150の透過率をどの程度とするかの指示を受け付けることが可能となる。
 また、本実施形態のアイウェア100は、制御部160が、上述した以外の機能を実行可能であってもよい。例えば、制御部160が、感知部170等の一部の機能部にのみ電気を供給するスリープ機能や、略全ての機能部に電気を供給しないオフ機能等を実行可能であってもよい。また、制御部160がこれらの機能に遷移するまでの待機時間(変化条件)をユーザからの指示動作によって変更可能としてもよい。
 例えば、上記スリープ機能またはオフ機能は、下位階層の機能として、入力部140への指示動作の入力がなされない時間(待機時間)が1分であるときに自動でスリープ機能またはオフ機能に遷移する短時間オフ機能、上記待機時間が3分であるときに自動でスリープ機能またはオフ機能に遷移する中間時間オフ機能、および待機時間が5分であるときに自動でスリープ機能またはオフ機能に遷移する長時間オフ機能等を含んでいてもよい。
 また、上記の説明におけるユーザからの指示動作は、アイウェア100を装着したユーザからの指示動作でなくてもよく、アイウェア100の近傍にいる非装着者からの指示動作であってもよい。
 さらに、上記説明では、前方から後方へのスワイプを第1の指示動作、後方から前方へのスワイプを第2の指示動作等として説明したが、入力部140の構成に基づいて、適宜変更可能である。さらに、第1の指示動作、第2の指示動作、第3の指示動作、および第4の指示動作は、指示動作同士を識別可能な限りにおいて、回数を変更した同一の動作(例えばタップの回数やスワイプの回数)であってもよく、異なる入力動作とその回数の組み合わせ等であってもよい。
 [第2の実施形態]
 (アイウェア)
 本発明の第2の実施形態に係るアイウェアの構成は、図1および図2に示す第1の実施形態のアイウェア100の構成と、感知部170以外は同様である。そこで、感知部170以外の構成要素に関する説明は省略し、以下、感知部170についてのみ説明する。
 本実施形態における感知部170は、傾斜センサおよび照度センサの他に、Global Positioning System(GPS)などの位置検出センサ、加速度センサ、角速度センサ、ジャイロセンサ、近接センサ、接触センサ、振動センサ、方位センサ、Bluetooth(「Bluetooth」はBluetooth SIGの登録商標)などでスマートフォンなどの所定のモバイル機器と接続可能な通信素子、自然光と蛍光灯からの光とを識別して感知するためのカメラなどの撮像素子、およびメカニカルスイッチから選ばれる一つ以上のセンサまたは素子を含む。アイウェア100が、いずれのセンサまたは素子を含むかは、アイウェア100の用途や使用形態に応じて適宜選択される。また、これらのセンサまたは素子は、アイウェア100の外部に設けられていてもよく、例えば通信素子を介して制御部160に検出値を出力するものであってもよい。
 感知部170が、傾斜センサおよび照度センサの他に、上記センサや素子が含まれることで、例えば以下のような情報を制御部160が取得することができる。
Figure JPOXMLDOC01-appb-T000001
 (アイウェアの制御)
 ・モードについて
 本実施形態のアイウェア100には、上述の視力補正機能、調光補正機能、および視力調光補正機能を行うための複数のモードが図9の模式図に示すように階層状に設定されている。当該アイウェア100でも、ユーザが入力部140を通じて、各階層のモードを選択することで、制御部160に所望の動作を実行させることができる。
 本実施形態のアイウェア100では、図9に示すように、複数のモードが3階層にわけて設定されている。本実施形態のアイウェア100の第1階層には、視力補正機能を実行するための視力補正モード、調光補正機能を実行するための調光補正モード、ならびに視力調光補正機能を実行するための視力調光補正モード、が含まれる。
 また、視力補正モード、調光補正モード、および視力調光補正モードの下層(第2階層)には、マニュアルモード、オートモード、ならびに記憶部194に記憶された条件および感知部170で検出された各種検出値(傾斜角度および/または照度、ならびにこれら以外の検出値)に基づき、制御部160が視力補正機能、調光補正機能、または視力調光補正機能をオンまたはオフにする第3モード(以下、「インテリジェントモード」とも称する)が含まれる。
 さらに、各マニュアルモードの下層(第3階層)には、上記オートモードにおいて、視力補正機能、調光補正機能、または視力調光補正機能をオンまたはオフにするタイミングを学習するための自動学習モードが含まれる。
 なお、ユーザが各階層のモードを選択するときのアイウェア100の動作は、第1の実施形態と同様(図6に示すフロー)であるため、説明を省略する。
 ・アイウェアの動作について
 以下、ユーザに選択されたモードに基づき、アイウェア100が各種機能を実行するときのアイウェア100の動作について説明する。上述の第1階層のモードとして、視力補正モード、調光補正モード、および視力調光補正モードのいずれかが選択されると、制御部160は、視力補正機能、調光補正機能、および視力調光補正機能のうち、各モードに対応する機能を実行する。また、第2階層のモードとして、マニュアルモードが選択されると、制御部160は、入力部140がユーザから指示動作を受け付けたときのみ、視力補正機能、調光補正機能、または視力調光補正機能のオン/オフを変更する。一方、オートモードが選択されると、制御部160は、記憶部194に記憶された条件および感知部170で検出された検出値に基づいて、視力補正機能、調光補正機能、または視力調光補正機能のオン/オフを変更する。また、インテリジェントモードが選択されると、制御部160は、記憶部194に記憶された条件および感知部170で検出された検出値(傾斜角度および/または照度、ならびに上記センサや素子による検出値)に基づいて、視力補正機能、調光補正機能、または視力調光補正機能のオン/オフを変更する。さらに、上述の第3階層において、自動学習モードが選択されると、制御部160は、オートモードにおいて視力補正機能、調光補正機能、または視力調光補正機能をオンまたはオフにする条件を、適宜更新する。
 以下、感知部170が、傾斜センサ、照度センサ、および加速度センサを備えるアイウェア100の動作について説明する。図10は、本実施形態に係るアイウェア100をユーザが使用するときの、アイウェア100の動作例を示すフローチャートであり、図11は、図10におけるフローの一部(インテリジェントモード)を示すフローチャートである。また、図10に示す動作は、例えば、電源180の取り付けによって入力部140、制御部160および感知部170がオン状態になることにより開始される。
 また、以下の説明では、図10に示すフローを開始するときに、上述の第1階層のモードとして視力補正モードを、第2階層のモードとしてマニュアルモードを、第3階層のモードとして、自動学習モード(オン)をそれぞれ実行している、と仮定する。またこのとき、視力補正機能はオフである、と仮定する。
 まず、制御部160は、第2階層のモードとして、いずれのモードが実行されているかを参照する(ステップS210)。そして、制御部160は、現在実行されている第2階層のモードが、マニュアルモードであるか否かを判定する(ステップS211)。
 制御部160がステップS211においてマニュアルモードが実行されていると判定すると、入力部140は、タッチセンサの静電容量変化を検出し、ユーザの指示動作を受け付ける(ステップS221)。そして、入力部140は、指示動作を受け付けた旨の信号を制御部160に伝える。入力部140からの信号を受信した制御部160は、当該指示動作が、第1~第3の指示動作とは異なる第4の指示動作(例えばスワイプせずに上記複数のタッチセンサのいずれかを所定時間指等で触る(長押し)等)であるかを判定する(ステップS222)。
 上記指示動作が第4の指示動作であると判定すると、制御部160は入力部140が指示動作を受け付けたときのアイウェア100の傾斜角度および/または照度、ならびに加速度を感知部170から受け取る(ステップS223)。このとき、制御部160が受け取るデータの種類は、第1階層のモードに応じて選択される。本説明では、図10に示すフローを開始するときに、上述の第1階層のモードとして、視力補正モードが実行されていると仮定している。そこで、制御部160は、感知部170が検出した傾斜角および加速度に関するデータを受け取る。
 続いて、制御部160は、入力部140がステップS221において指示動作を受け付けてから所定の時間内に、再度、指示動作を受け付けたか否かを判定する(ステップS224)。所定時間内に再度、指示動作を受け付けたと制御部160が判定すると、先のユーザからの指示は取り消されたものとして、処理はステップS228に遷移する。
 一方、所定時間内に再度、入力部140が指示動作を受け付けなかったと判定すると、制御部160は、第1階層のモードに対応する補正機能(本説明では、視力補正機能)をオンまたはオフに切り替える(ステップS225)。
 その後、制御部160は、第3階層のモードを参照し、自動学習モードがオンであるか否かを判定する(ステップS226)。ステップS226において、アイウェア100の自動学習モードがオフであると制御部160が判定すると、自動学習は不要であるとして、処理はステップS228に遷移する。
 一方、ステップ226において、アイウェア100の自動学習モードがオンであると判定すると、制御部160は、記憶部194に記憶された条件のうち、第1階層のモードに対応する条件を更新する(ステップS227)。本説明では、図10に示すフローを開始するときに、第1階層のモードとして視力補正モードが実行されており、視力補正機能がオフであると仮定している。そこで、制御部160は、入力部140がユーザからの指示動作を受け付けた日時、ステップS223で感知部170が検出した傾斜角度等および加速度、ならびにユーザからの指示内容(例えば、視力補正機能をオンにするための指示であったこと等)を記憶部194に記憶させる。そして、記憶部194に記憶されていた、視力補正機能をオンにするための閾値(傾斜角度および加速度)をそれぞれ、ステップS223で感知部170が検出した傾斜角度および加速度と置き換える。その後、処理はステップS228に遷移する。
 そして、制御部160は、処理を終了させる必要があるか否かについて判定する(ステップS228)。例えば、制御部160は、予め定められた処理を終了させる条件が満たされているときは、処理を終了させる必要があると判定する。一方、上記条件が満たされていないときは、処理を終了させる必要がないと判定する。判定の結果、処理を終了させる必要がある場合、制御部160は、図10における処理を終了する。一方、処理を終了させる必要がない場合、処理はステップS221の前に戻る。
 一方、ステップS211においてマニュアルモード以外が実行されていると判定すると、制御部160は、オートモードが選択されているか否かを判定する(ステップS212)。そして、ステップS212において、オートモードが選択されていると判定すると、制御部160は、アイウェア100の傾斜角度および/または照度を感知部170から受け取る(ステップS231)。このとき、制御部160が受け取るデータの種類は、第1階層のモードに応じて選択され、本説明では、傾斜角度とされる。
 制御部160は、第1階層のモードに対応する補正機能(本説明では、視力調整機能)がオンになっているかを判定する(ステップS232)。ステップS232において、補正機能がオンであると判定すると、制御部160は補正機能をオフにするための傾斜角度および/または照度に関する閾値(本説明では、傾斜角度に関する閾値)を、記憶部194から読み出す(ステップS233)。アイウェア100の初回使用時の閾値は、予め設定された値とされる。一方、前述の自動学習モードが行われ、閾値が更新されている場合、制御部160は、自動学習モードで更新された後の閾値を記憶部194から読み出す。
 続いて、制御部160は、ステップS231において感知部170で検出された検出値が、ステップS233で読み出された閾値以下であるか否かを判定する(ステップS235)。ステップS235において、検出値が閾値以下であると判定すると、制御部160は、補正機能をオフにし(ステップS237)、処理はステップS239に遷移する。一方、検出値が閾値より高いと制御部160が判定すると、補正機能をオフにする必要はないとして、処理はステップS239に遷移する。
 一方、ステップS232において、補正機能がオフであると判定すると、制御部160は補正機能をオンにするための傾斜角度および/または照度に関する閾値(本説明では、傾斜角度に関する閾値)を、記憶部194から読み出す(ステップS234)。この場合も、アイウェア100の初回使用時の閾値は、予め設定された値とされる。一方、前述の自動学習モードが行われ、閾値が更新されている場合、制御部160は、自動学習モードで更新された後の閾値を記憶部194から読み出す。なお、補正機能をオンにするための閾値は、上記補正機能をオフにするための閾値と同一であってもよく、異なっていてもよい。
 続いて、制御部160は、ステップS231において、感知部170で検出された検出値が、ステップS234で読み出された閾値以上であるか否かを判定する(ステップS236)。ステップS236において、検出値が閾値以上であると判定すると、制御部160は視力補正機能をオンにし(ステップS238)、処理はステップS239に遷移する。一方、検出値が閾値より低いと制御部160が判定すると、補正機能をオンにする必要はないとして、処理はステップS239に遷移する。
 その後、制御部160は、処理を終了させる必要があるか否かについて判定する(ステップS239)。例えば、制御部160は、予め定められた処理を終了させる条件が満たされているときは、処理を終了させる必要があると判定する。一方、上記条件が満たされていないときは、処理を終了させる必要がないと判定する。判定の結果、処理を終了させる必要がある場合、制御部160は、図10における処理を終了する。一方、処理を終了させる必要がない場合、処理はステップS231の前に戻る。
 また、ステップS212において、オートモード以外が選択されたと制御部160が判定すると、処理はインテリジェントモード(ステップS240)に遷移する。
 図11に示すように、ステップ212において、オートモード以外が選択されたと判定すると、制御部160は、アイウェア100の傾斜角度および/または照度、ならびに加速度を感知部170から受け取る(ステップS241)。このとき、制御部160が受け取るデータの種類も、第1階層のモードに応じて選択され、本説明では、傾斜角度および加速度とされる。
 そして、制御部160は、アイウェア100の補正機能(本説明では、視力補正機能)がオンになっているかを判定する(ステップS242)。ステップS242において、補正機能がオンであると判定すると、制御部160は補正機能をオフにするための加速度に関する閾値を、記憶部194から読み出す(ステップS243)。アイウェア100の初回使用時の閾値は、予め設定された値とされる。一方、前述の自動学習モードが行われ、閾値が更新されている場合、制御部160は、自動学習モードで更新された後の閾値を記憶部194から読み出す。
 そして、ステップS241で検出された検出値のうち、加速度が、ステップS243で読み出された閾値以上であるか否かを制御部160が判定する(ステップS245)。ステップS245において、検出値が閾値以上であると制御部160が判定すると、ユーザが移動中であるとして、制御部160は視力補正機能をオフにし(ステップS248)、処理はステップS255に遷移する。一方、検出値が閾値より低いと判定すると、制御部160は、補正機能をオフにするための傾斜角度および/または照度に関する閾値を記憶部194から読み出す(ステップS247)。そして、ステップS241で検出された検出値(本説明では、傾斜角度)が、ステップS247で読み出された閾値以下であるか否かを制御部160が判定する(ステップS251)。ステップS251において、検出値が閾値以下であると判定すると、制御部160は補正機能をオフにし(ステップS253)、処理はステップS255に遷移する。一方、検出値が閾値より高いと制御部160が判定すると、視力補正機能をオフにする必要はないとして、処理はステップS255に遷移する。
 一方、ステップS242において、補正機能がオフであると判定すると、制御部160は補正機能をオンにするための加速度に関する閾値を、記憶部194から読み出す(ステップS244)。そして、制御部160は、ステップS241で検出された検出値(加速度)が、ステップS244で読み出された閾値以下であるか否かを判定する(ステップS246)。ステップS246において、検出値が閾値より高いと制御部160が判定すると、ユーザが移動中であり、視力補正機能をオンにする必要がないとして、処理はステップS255に遷移する。一方、検出値が閾値以下であると判定すると、制御部160は、補正機能をオンにするための傾斜角度に関する閾値を記憶部194から読み出す(ステップS250)。そして、ステップS241で検出された検出値(本説明では傾斜角度)が、ステップS250で読み出された閾値以上であるか否かを判定する(ステップS252)。ステップS252において、検出値が閾値以上であると判定すると、制御部160は、視力補正機能をオンにし(ステップS254)、処理はステップS255に遷移する。一方、検出値が閾値より低いと制御部160が判定すると、視力補正機能をオンにする必要はないとして、処理はステップS255に遷移する。
 その後、制御部160は、処理を終了させる必要があるか否かについて判定する(ステップS255)。例えば、制御部160は、予め定められた処理を終了させる条件が満たされているときは、処理を終了させる必要があると判定する。一方、上記条件が満たされていないときは、処理を終了させる必要がないと判定する。判定の結果、処理を終了させる必要がある場合、制御部160は、図10における処理を終了する。一方、処理を終了させる必要がない場合、処理はステップS241の前に戻る。
 なお、上記では、第1階層のモードとして視力補正モードが実行されている場合のみを説明したが、第1階層のモードとして調光補正モードが実行されている場合や、視力調光補正モードが実行されている場合にも、上記と同様の制御を行うことができる。また上記では、ステップS227で常に記憶部194に記憶された条件を更新しているが、第1の実施形態と同様に、制御部160が、条件の更新が必要であると判定した場合にのみ、ステップS227で条件を更新してもよい。
 また、第1の実施形態と同様に、各モードの階層はさらに細かく分かれていてもよく、視力補正モードの下層に読書モードやモバイル機器使用モードが含まれていてもよく、調光補正モードの下層に、淡色調光モード、中間色調光モード、および濃色調光モード等が含まれていてもよい。
 上記では、感知部170が加速度センサを備えるアイウェア100について説明したが、感知部170が他のセンサや素子を備える場合にも、同様に制御を行うことができる。例えば、感知部170が位置検出センサや撮像素子等を備える場合には、インテリジェントモードのステップS245やステップS246において、屋外であるか屋内であるかを判定し、調光補正機能をオンまたはオフにしたり、電気制御型レンズ150の透過率を調整したりすること等ができる。また、感知部170が近接センサや通信素子を備える場合には、インテリジェントモードのステップS245やステップS246において、アイウェア100から視認対象物(例えばモバイルフォン等の通信機器)までの距離を判定し、視力補正機能や調光補正機能をオンまたはオフにしたり、電気制御型レンズ150の透過率を調整したりすることができる。
 また、感知部170が加速度センサや角速度センサ、ジャイロセンサを備える場合には、インテリジェントモードのステップS245やステップS246において、制御部160がユーザの状態(例えば、姿勢や眠気等)を判定し、視力補正機能や調光補正機能をオンまたはオフにしたり、電気制御型レンズ150の透過率を調整したりすることができる。
 以上のように、本実施形態のアイウェア100のオートモードでは、マニュアルモードで収集された傾斜角度および/または照度に関する情報に基づき、視力補正機能、調光補正機能、または視力補正調光機能を自動でオンまたはオフにすることができる。一方、インテリジェントモードでは、マニュアルモードで収集された傾斜角度や照度だけでなく、感知部170が含む各種センサや素子で検出される情報(アイウェアの外的環境、またはユーザの状態)に基づいて、視力補正機能、調光補正機能、または視力補正調光機能を自動でオンまたはオフにすることが可能である。つまり、本実施形態のアイウェア100によれば、ユーザの嗜好や、環境、ユーザの状態等に合わせて、より細かく各機能を発現させる条件を設定することが可能である。
 [その他の実施形態]
 なお、上述の実施形態はそれぞれ本発明の一例を示すものであり、本発明は上述の実施形態に限定されるものではなく、本発明の思想の範囲内において、他の種々多様な実施形態も可能であることは言うまでもない。
 例えば、上記第1の実施形態および第2の実施形態では、アイウェア100が、視力補正機能および調光補正機能の両方を実行可能な形態を説明した。ただし、アイウェアは、これらのうちいずれか一方のみを実行可能であってもよい。
 例えば、視力補正機能を実行可能なアイウェアとする場合、上述の電気制御型レンズは、後方(使用者側)から、第1の透明基板、第1の透明電極、屈折率可変層、第2の透明電極、および第2の透明基板が配置された第1の領域と、後方(使用者側)から、第1の透明基板、第1の透明電極、接着層、第2の透明電極、および第2の透明基板が配置された第2の領域と、を備えていればよい。
 また、調光補正機能を実行可能なアイウェアとする場合、上述の電気制御型レンズは、第一の透明基板、第1の透明電極、透過率可変層、第2の透明電極、および第2の透明基板を備えていればよい。
 また、上述の第1の実施形態または第2の実施形態に係るアイウェア100は、複数の指示動作を受け付け可能な単一の入力部140を有していたが、入力部は、フレームの複数個所に配置されてもよい。このとき、制御部は、上記複数個所に配置された複数の入力部が受け付ける同一の指示動作によって、いずれも同一の階層の機能を実行してもよいし、受け付ける指示動作によって、入力部ごとに異なる階層の機能を実行してもよい。
 また、上述のフレームは、ユーザの鼻に接触してアイウェアを位置固定する一対の鼻パッド、テンプルを回転可能にフロントのリムに接続するヒンジ部、リムの両端に配置されて電気制御型レンズをリムにねじ止めするリムロック部およびヨロイ部、テンプルを耳に掛ける形状を有するモダン部などを有していてもよい。入力部、制御部および感知部などは、これらの部材のうちいずれに配置されてもよい。
 また、図12に、本発明のアイウェアの例示的な機能構成を表すブロック図を示す。図12に示すように、アイウェアは、上述の実施形態で説明した各構成の他に、他のデバイスと通信可能な通信部192、ディスプレイなどの表示装置またはLEDランプなどの機能の変更などを通知する外部の通知装置と有線または無線で接続可能な出力部196などを有していてもよい。アイウェアが備える各機能部は、バスBにより接続される。
 なお、上記説明では、電気制御により光学特性が変化する光学モジュールの例として電気制御型レンズを挙げて説明していたが、上記光学モジュールは、投射部198により画像および映像などを投射可能な透明板などであってもよい。このとき、制御部160は、投射される画像または映像などの種類に関する機能およびそのパターンに関する機能などを第1の指示動作および第2の指示動作で実行してもよい。
 2017年3月13日出願の特願2017-047407号の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本発明のアイウェアは、ユーザ固有の情報やユーザの嗜好に合わせて自動で機能を発現させる条件を変更することが可能である。そのため、本発明のアイウェアは、当分野におけるアイウェアの普及および進歩に貢献することが期待される。
 100 アイウェア
 110 フロント
 112 リム
 114 ブリッジ
 120a、120b テンプル
 130 フレーム
 140 入力部
 150 電気制御型レンズ
 150a 第1の領域
 150b 第2の領域
 160 制御部
 165 CPUユニット
 170 感知部
 180 電源
 192 通信部
 194 記憶部
 196 出力部
 198 投射部
 1510 第1の透明基板
 1520 第1の透明電極
 1530 屈折率可変層
 1535 接着層
 1540 第2の透明電極
 1550 第2の透明基板
 1560 第3の透明電極
 1570 透過率可変層
 1580 第4の透明電極
 1590 第3の透明基板

Claims (10)

  1.  光学特性が変化する光学モジュールと、
     ユーザからの指示を受け付ける入力部と、
     前記光学モジュールの使用環境を検出するための感知部と、
     前記光学モジュールの光学特性を変化させる条件を少なくとも記憶する記憶部と、
     設定モードに応じて、電気制御により前記光学モジュールの光学特性を変化させる制御部と、
     を有し、
     前記設定モードは、少なくとも、前記記憶部に記憶された条件および前記感知部の検出値に基づいて、前記制御部が前記光学モジュールに対する電気制御を行う第1のモードと、
     前記入力部が受け付けた指示に基づいて、前記制御部が前記光学モジュールに対する電気制御を行う第2のモードと、を含み、
     前記第2のモードにおいて前記入力部が指示を受け付けたときの前記感知部の検出値に基づき、前記記憶部に記憶された条件が更新される、
     アイウェア。
  2.  前記第1のモードにおいて、前記制御部は、前記第2のモードにおいて前記入力部が指示を受け付けたときの前記感知部の検出値に基づき更新された条件に基づいて、前記光学モジュールに対する電気制御を行う、請求項1に記載のアイウェア。
  3.  前記感知部は、傾斜センサおよび照度センサのいずれか一方を少なくとも含む、
     請求項1または2に記載のアイウェア。
  4.  前記感知部は、メカニカルスイッチ、位置検出センサ、加速度センサ、角速度センサ、ジャイロセンサ、近接センサ、接触センサ、通信素子、撮像素子、またはこれらの組み合わせをさらに含む、
     請求項3に記載のアイウェア。
  5.  前記制御部が、前記光学モジュールの屈折率、および/または光学モジュールの可視光の透過率を変化させる、
     請求項1~4のいずれか一項に記載のアイウェア。
  6.  前記第2モードにおいて前記入力部が指示を受け付けたときの前記感知部の検出値に基づき、前記記憶部に記憶された条件が、常に更新される、
     請求項1~5のいずれか一項に記載のアイウェア。
  7.  前記第2モードにおいて前記入力部が指示を受け付けたときの前記感知部の検出値と前記記憶部に記憶された条件とを比較した結果に応じて、前記記憶部に記憶された条件が、前記検出値に基づき更新される、
     請求項1~5のいずれか一項に記載のアイウェア。
  8.  前記第2モードにおいて前記入力部が指示を受け付けたときの前記感知部の検出値が、前記記憶部に記憶された条件から所定値以上ずれていた場合に、前記記憶部に記憶された条件が、前記検出値に基づき更新される、
     請求項7に記載のアイウェア。
  9.  前記第2モードにおいて前記入力部が指示を受け付けたときの前記感知部の検出値取得回数に応じて、前記記憶部に記憶された条件が、前記検出値に基づき、更新される、
     請求項1~5のいずれか一項に記載のアイウェア。
  10.  前記第2モードにおいて前記入力部が指示を受け付けたときの前記感知部の検出値が、所定の回数同一の範囲に含まれる場合に、前記記憶部に記憶された条件が、前記検出値に基づき、更新される、
     請求項9に記載のアイウェア。
PCT/JP2018/008988 2017-03-13 2018-03-08 アイウェア WO2018168644A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019505939A JP6792699B2 (ja) 2017-03-13 2018-03-08 アイウェア
US16/493,773 US11614641B2 (en) 2017-03-13 2018-03-08 Eyewear
CN201880015589.9A CN110383147B (zh) 2017-03-13 2018-03-08 眼睛佩戴物
EP18767781.0A EP3598207B1 (en) 2017-03-13 2018-03-08 Eyewear

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017047407 2017-03-13
JP2017-047407 2017-03-13

Publications (1)

Publication Number Publication Date
WO2018168644A1 true WO2018168644A1 (ja) 2018-09-20

Family

ID=63523736

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/008988 WO2018168644A1 (ja) 2017-03-13 2018-03-08 アイウェア

Country Status (5)

Country Link
US (1) US11614641B2 (ja)
EP (1) EP3598207B1 (ja)
JP (1) JP6792699B2 (ja)
CN (1) CN110383147B (ja)
WO (1) WO2018168644A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020067265A1 (ja) * 2018-09-27 2020-04-02 三井化学株式会社 アイウェア、及び、プログラム
US11693261B2 (en) 2020-05-19 2023-07-04 Konica Minolta, Inc. Focus adjusting tool and focus adjusting set

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11212509B2 (en) 2018-12-20 2021-12-28 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
USD1019747S1 (en) * 2019-09-09 2024-03-26 Amazon Technologies, Inc. Wearable device
US10965931B1 (en) * 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
EP4222951A1 (en) * 2020-09-30 2023-08-09 Snap Inc. Multi-purpose cameras for augmented reality and computer vision applications
IT202100021212A1 (it) * 2021-08-05 2023-02-05 Luxottica Srl Occhiale elettronico.
USD1019746S1 (en) * 2023-02-09 2024-03-26 Innovative Eyewear, Inc. Smartglasses
USD1020857S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020856S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020852S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc Smartglasses
USD1024177S1 (en) * 2023-02-09 2024-04-23 Innovative Eyewear, Inc. Smartglasses
USD1020853S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020850S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020849S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020851S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1019750S1 (en) * 2023-02-09 2024-03-26 Innovative Eyewear, Inc. Smartglasses
USD1020855S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020854S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020858S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020863S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1023123S1 (en) * 2023-02-13 2024-04-16 Innovative Eyewear, Inc. Smartglasses temples

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS629315A (ja) 1985-10-09 1987-01-17 Olympus Optical Co Ltd 焦点距離自動可変眼鏡
US6517203B1 (en) 1999-07-02 2003-02-11 E-Vision, Llc System, apparatus, and method for correcting vision using electro-active spectacles
WO2011127015A1 (en) * 2010-04-05 2011-10-13 Alphamicron Incorporated Electronically switchable optical device with a multi-functional optical control apparatus and methods for operating the same
WO2013088630A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 可変焦点レンズの制御装置、可変焦点レンズの制御方法、および電子メガネ
JP2015222324A (ja) * 2014-05-22 2015-12-10 Kddi株式会社 眼鏡型ウェアラブル装置、温冷感変化誘発方法、およびプログラム
JP2016161807A (ja) * 2015-03-03 2016-09-05 株式会社半導体エネルギー研究所 調光装置、調光システム、及び給電システム
JP2017047407A (ja) 2015-08-31 2017-03-09 エイヴァント 株式會社 炭酸水浄水器及びその制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06130473A (ja) * 1992-10-19 1994-05-13 Canon Inc カメラ
US5654786A (en) * 1996-01-11 1997-08-05 Robert C. Burlingame Optical lens structure and control system for maintaining a selected constant level of transmitted light at a wearer's eyes
US6491394B1 (en) * 1999-07-02 2002-12-10 E-Vision, Llc Method for refracting and dispensing electro-active spectacles
US8778022B2 (en) * 2004-11-02 2014-07-15 E-Vision Smart Optics Inc. Electro-active intraocular lenses
US7828434B2 (en) * 2006-08-31 2010-11-09 Nike, Inc. Zone switched sports training eyewear
US8203502B1 (en) * 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
CN102265252B (zh) * 2011-06-24 2013-04-24 华为终端有限公司 一种调整红外接近传感器的感知阈值的方法和装置
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
GB201216600D0 (en) * 2012-09-18 2012-10-31 Silver Joshua D A novel optical device
US8941488B2 (en) * 2013-05-17 2015-01-27 Johnson & Johnson Vision Care, Inc. System and method for a processor controlled ophthalmic lens
KR20150010229A (ko) * 2013-07-18 2015-01-28 삼성디스플레이 주식회사 투명 디스플레이를 적용한 안경 및 그 제어 방법
CN107209400A (zh) * 2014-12-30 2017-09-26 依视路国际集团(光学总公司) 有源装置的管理系统及方法
JP6811257B2 (ja) * 2016-12-27 2021-01-13 三井化学株式会社 センサーモジュール、テンプル、フレームおよびアイウェア
CN113253485A (zh) * 2016-12-27 2021-08-13 三井化学株式会社 镜片及眼睛佩戴物

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS629315A (ja) 1985-10-09 1987-01-17 Olympus Optical Co Ltd 焦点距離自動可変眼鏡
US6517203B1 (en) 1999-07-02 2003-02-11 E-Vision, Llc System, apparatus, and method for correcting vision using electro-active spectacles
WO2011127015A1 (en) * 2010-04-05 2011-10-13 Alphamicron Incorporated Electronically switchable optical device with a multi-functional optical control apparatus and methods for operating the same
WO2013088630A1 (ja) * 2011-12-16 2013-06-20 パナソニック株式会社 可変焦点レンズの制御装置、可変焦点レンズの制御方法、および電子メガネ
JP2015222324A (ja) * 2014-05-22 2015-12-10 Kddi株式会社 眼鏡型ウェアラブル装置、温冷感変化誘発方法、およびプログラム
JP2016161807A (ja) * 2015-03-03 2016-09-05 株式会社半導体エネルギー研究所 調光装置、調光システム、及び給電システム
JP2017047407A (ja) 2015-08-31 2017-03-09 エイヴァント 株式會社 炭酸水浄水器及びその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3598207A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020067265A1 (ja) * 2018-09-27 2020-04-02 三井化学株式会社 アイウェア、及び、プログラム
CN112771439A (zh) * 2018-09-27 2021-05-07 三井化学株式会社 眼睛佩带物及程序
JPWO2020067265A1 (ja) * 2018-09-27 2021-08-30 三井化学株式会社 アイウェア、及び、プログラム
JP7108701B2 (ja) 2018-09-27 2022-07-28 三井化学株式会社 アイウェア、及び、プログラム
TWI830785B (zh) * 2018-09-27 2024-02-01 日商三井化學股份有限公司 眼鏡與程式
US11934045B2 (en) 2018-09-27 2024-03-19 Mitsui Chemicals, Inc. Eyewear, and non-transitory computer-readable recording medium
US11693261B2 (en) 2020-05-19 2023-07-04 Konica Minolta, Inc. Focus adjusting tool and focus adjusting set

Also Published As

Publication number Publication date
EP3598207A4 (en) 2021-01-13
US11614641B2 (en) 2023-03-28
JPWO2018168644A1 (ja) 2019-11-14
EP3598207B1 (en) 2024-05-01
JP6792699B2 (ja) 2020-11-25
CN110383147A (zh) 2019-10-25
US20200133031A1 (en) 2020-04-30
CN110383147B (zh) 2020-11-27
EP3598207A1 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
JP6792699B2 (ja) アイウェア
JP6824380B2 (ja) アイウェア
JP6811305B2 (ja) アイウェア
US11042045B2 (en) Electronic eyewear and display
US20050237485A1 (en) Method and apparatus for correcting vision
CN210348106U (zh) 一种智能眼镜
CN104102022A (zh) 动态式视力矫正眼镜
WO2022159630A1 (en) Gaze sensors and display elements for detection of gaze vectors and user control at headset
JP6754775B2 (ja) 電子眼鏡
CN111279249B (zh) 透光率可调眼镜
US20140092328A1 (en) Electro-Optical Anti-Glare Device Comprising Plano Lenses
JP7108701B2 (ja) アイウェア、及び、プログラム
US20240142802A1 (en) Glasses with customizable tint-adjusting experience
JP2023040833A (ja) レンズ制御装置、眼用レンズ装置、眼鏡、制御方法、プログラム
JP2023040844A (ja) レンズ制御装置、眼用レンズ装置、眼鏡、制御方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18767781

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019505939

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018767781

Country of ref document: EP

Effective date: 20191014