WO2019092906A1 - 電子ミラー - Google Patents

電子ミラー Download PDF

Info

Publication number
WO2019092906A1
WO2019092906A1 PCT/JP2018/019922 JP2018019922W WO2019092906A1 WO 2019092906 A1 WO2019092906 A1 WO 2019092906A1 JP 2018019922 W JP2018019922 W JP 2018019922W WO 2019092906 A1 WO2019092906 A1 WO 2019092906A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging
image
electronic mirror
illumination
Prior art date
Application number
PCT/JP2018/019922
Other languages
English (en)
French (fr)
Inventor
八木 健
英治 小野寺
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2019092906A1 publication Critical patent/WO2019092906A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an electronic mirror.
  • an electronic mirror is utilized for makeup etc. (for example, refer to the following patent documents 1).
  • the electronic mirror includes a camera and a display, and displays the face of the user imaged by the camera on the display.
  • an electronic mirror for displaying an image based on an imaging result obtained by imaging a user's face, the first imaging unit and the second imaging unit being disposed away from the first imaging unit in a predetermined direction.
  • An imaging unit including an imaging unit; a display unit disposed between the first imaging unit and the second imaging unit, having a screen elongated in a predetermined direction, and displaying an image based on an imaging result of the imaging unit;
  • An electronic mirror comprising the
  • the first embodiment will be described. 1 to 3 are views showing an electronic mirror according to the first embodiment.
  • the electronic mirror 1 is an electronic device that displays an image based on an imaging result obtained by imaging the face of the user U.
  • the electronic mirror 1 has a first mode in which an image is displayed in real time based on an imaging result, and a second mode in which a recorded image is acquired.
  • the first mode is, for example, a makeup mode used when makeup is performed while the user U looks at the electronic mirror 1.
  • the second mode is a still image mode used when the user U records an image of his face.
  • the electronic mirror 1 is provided with a screen 2 elongated in a predetermined direction.
  • the electronic mirror 1 is arranged such that, in use, the longitudinal direction (predetermined direction) of the screen 2 is substantially parallel to the line connecting the forehead of the user U and the chin.
  • an XYZ orthogonal coordinate system shown in FIG. 1 and the like will be referred to as appropriate.
  • the same side as the tip of the arrow is referred to as the + side (eg, + Z side), and the side opposite to the tip of the arrow is referred to as the-side (eg, -Z side).
  • the Z direction is the above-mentioned predetermined direction, which is a direction (longitudinal direction) parallel to the long side of the screen 2.
  • the X direction is a direction (short direction) parallel to the short side of the screen 2 and is a direction crossing (orthogonal to) the predetermined direction described above.
  • the Y direction is a direction orthogonal to each of the X direction and the Z direction, and is the thickness direction of the electron mirror 1.
  • the -Y side is a front side directed to the user U at the time of use
  • the + Y side is a back side (back side) facing the opposite side to the user U at the time of use.
  • FIG. 1 is a front view seen from the ⁇ Y side
  • FIG. 2 is a side view seen from the + X side
  • FIG. 3 is a back view seen from the + Y side.
  • the electronic mirror 1 is disposed so that the X direction and the Y direction are substantially horizontal, and the Z direction is generally vertical.
  • the electronic mirror 1 is appropriately disposed such that the predetermined direction (Z direction) is tilted from the vertical direction so that the user U can easily view the screen 2.
  • the electronic mirror 1 includes an imaging unit 3, a display unit 4, a housing 5, and a first support 6 (see FIG. 2).
  • the imaging unit 3 includes a first imaging unit 3A and a second imaging unit 3B.
  • the first imaging unit 3A is disposed on the upper side (+ Z side) on the ⁇ Y side (front side) of the housing 5.
  • the first imaging unit 3A is disposed at a central portion of the housing 5 in the X direction (short side direction).
  • the first imaging unit 3A is disposed on the + Z side with respect to the screen 2 and is disposed above the screen 2 (for example, the forehead side) when the electronic mirror 1 is used.
  • the second imaging unit 3 ⁇ / b> B is disposed in the lower part on the front side of the housing 5.
  • the second imaging unit 3 ⁇ / b> B is disposed at a central portion of the housing 5 in the X direction.
  • the second imaging unit 3B is disposed on the ⁇ Z side with respect to the screen 2 and is disposed below the screen 2 (eg, on the chin side) when the electronic mirror 1 is used.
  • the second imaging unit 3B is disposed toward the user U side ( ⁇ Y side).
  • the second imaging unit 3B captures the face of the user U from below and captures an image.
  • the second imaging unit 3B is disposed toward the upper side (+ Z side). For example, the second imaging unit 3B captures an image in a direction from the lower side to the upper side such that a portion near the eyes in the face of the user U is at the center.
  • the display unit 4 is disposed at a central portion on the front side of the housing 5.
  • the display unit 4 is disposed between the first imaging unit 3A and the second imaging unit 3B.
  • the second imaging unit 3B is disposed apart from the first imaging unit 3A in a predetermined direction (Z direction).
  • the display unit 4 displays an image based on the imaging result of the imaging unit 3.
  • the imaging unit 3 captures an image of the same side as the viewpoint with respect to the display unit 4, and the display unit 4 displays an image of the user U as if the user U's face was reflected on the mirror.
  • the housing 5 holds (eg, supports, accommodates) the imaging unit 3 and the display unit 4. In addition, the housing 5 holds (for example, supports and stores) each part of the electronic mirror 1 (shown later in FIG. 4 and the like). As shown in FIG. 2, the housing 5 has a first portion 11 and a second portion 12. The first portion 11 is disposed on the front side ( ⁇ Y side), and has a rectangular parallelepiped shape (rectangular plate shape). The first portion 11 has a rounded corner.
  • the first imaging unit 3A, the second imaging unit 3B, the display unit 4 and the like are arranged on the front side ( ⁇ Y side) of the first portion 11. For example, the longitudinal direction of the first portion 11 is set to be parallel to the vertical direction.
  • the second portion 12 has, for example, a disk shape (see FIG. 3), and protrudes from the back side (+ Y side) of the first portion 11 to the + Y side.
  • the second portion 12 accommodates the control unit 41 and the processing unit 42 shown later in FIG.
  • casing 5 are not limited to the example shown in FIG. 1 grade
  • the housing 5 (first portion 11) may have a square shape or an oval shape when viewed from the -Y side (in plan view), and the housing 5 includes the second portion 12 In this case, the control unit 41 and the processing unit 42 described later may be accommodated in the first portion 11.
  • the first support 6 supports the housing 5 from below.
  • the first support portion 6 extends to the ⁇ Z side with the housing 5 as a base end.
  • the first support portion 6 is inclined with respect to the housing 5 so that the tip of the electronic mirror 1 moves away from the housing 5 to the + Y side as the tip thereof moves to the ⁇ Z side.
  • the electronic mirror 1 is supported by the mounting surface PF with the tip of the first support 6 and the end on the ⁇ Z side of the housing 5 in contact with the mounting surface PF.
  • the installation surface PF is an upper surface of, for example, a desk, a table, or a shelf.
  • the first imaging unit 3A is disposed at a position farther from the tip of the first support unit 6 (the contact portion with the installation surface PF) than the second imaging unit 3B in the predetermined direction (Z direction). Further, the first imaging unit 3A is disposed at a position farther than the second imaging unit 3B with respect to the contact portion (lower end portion) with the installation surface PF in the housing 5 in the predetermined direction (Z direction). Ru.
  • the first support 6 includes a first member 13 and a second member 14.
  • Each of the first member 13 and the second member 14 is rod-like or plate-like.
  • One end (a base end, an end on the + Z side) of the first member 13 is connected to the back side (the + Y side) of the second portion 12, and the other end (a tip, an end on the -Z side) is It is connected to the second member 14.
  • the first member 13 is connected at its proximal end to the housing 5 via a hinge member, and is rotatable about an axis parallel to the X direction.
  • the first member 13 rotates with respect to the housing 5 about its base end, and is held at a predetermined position inclined with respect to the Z direction. Further, the first member 13 is removable and attachable to the housing 5.
  • the second member 14 is removable and attachable to the first member 13.
  • the electronic mirror 1 is portable in a compact state because the first member 13 and the second member 14 are respectively removable.
  • the 1st support part 6 is not limited to the example shown in FIG. 2, Another structure may be sufficient.
  • the first support portion 6 may be extendable and retractable as the second member 14 advances and retracts with respect to the first member 13.
  • the first support portion 6 may be one in which the first member 13 and the second member 14 are integrally formed.
  • the electronic mirror 1 can be installed by being suspended instead of being mounted on the installation surface PF.
  • the housing 5 is provided with a mounting portion 16 connected to the second support portion 15.
  • the second support portion 15 is, for example, a hook fixed to a wall surface
  • the attachment portion 16 is, for example, a hole that is engaged with the second support portion 15.
  • the second support 15 supports the housing 5 from above.
  • the first imaging unit 3A illustrated in FIG. 1 is disposed at a position closer to the second support unit 15 or the attachment unit 16 than the second imaging unit 3B in a predetermined direction (Z direction).
  • the second support 15 is, for example, a member different from the electronic mirror 1, but the electronic mirror 1 may include the second support 15.
  • the electronic mirror 1 may be a pendant electronic device, and the second support 15 may be a chain or the like.
  • the electronic mirror 1 further includes an illumination unit 21, a light detection unit 22, an input unit 23, an audio output unit 24, and an interface 25 (shown in FIG. 2).
  • the illumination unit 21 (irradiation unit) is disposed in a cross direction (X direction) with respect to the screen 2 of the display unit 4 in a predetermined direction (Z direction).
  • the illumination unit 21 is provided on both sides (+ X side and ⁇ X side) of the display unit 4 in the above-mentioned cross direction (X direction).
  • the illumination unit 21 emits illumination light to an imaging target (a face of the user U, an imaging range, a visual field) of the imaging unit 3.
  • the illumination unit 21 emits light toward the front side ( ⁇ Y side).
  • the illumination unit 21 can adjust the brightness and color temperature of the illumination light.
  • the illumination unit 21 has a plurality of light sources 31.
  • the plurality of light sources 31 are disposed, for example, across the display unit 4.
  • the plurality of light sources 31 are arranged, for example, along a side different from the side adjacent to the imaging unit 3 in the screen 2.
  • the plurality of light sources 31 are, for example, linearly arranged at a predetermined interval on the + X side of the display unit 4 and arranged at a predetermined interval on the ⁇ X side of the display unit 4.
  • the plurality of light sources 31 are disposed at predetermined intervals in portions from the top to the bottom of the housing 5.
  • Each light source 31 includes, for example, a plurality of light emitting elements (for example, LEDs) emitting light of different wavelengths, and the lighting state (lighting or extinguishing) of each light emitting element and the output (light intensity) of each light emitting element are individually It is controllable.
  • Each light source 31 can adjust the color temperature of the illumination light by adjusting the output of each light emitting element.
  • the illumination part 21 is not limited to the example shown in FIG. 1, Another structure may be sufficient.
  • the illumination unit 21 at least one of the number of light sources 31, the size of the light sources 31, the shape of the light sources 31, and the position of the light sources 31 is arbitrary.
  • the light source 31 may be disposed above or below the display unit 4.
  • FIG. 4 is a diagram showing a second example of the illumination unit.
  • the illumination unit 21 includes a light guide plate 32 on the user side ( ⁇ Y side) with respect to the plurality of light sources 31, and emits illumination light through the light guide plate 32.
  • the illumination unit 21 may diffuse the light from the light source 31 with a diffusion plate or the like and may emit the diffused light.
  • the light source 31 may be a solid light source such as a laser diode or a surface light source.
  • the light detection unit 22 illustrated in FIG. 1 detects ambient light that illuminates an imaging target (a face of the user U, an imaging range, a visual field) of the imaging unit 3.
  • the ambient light is, for example, light from a room light in a room where the electronic mirror 1 is installed, external light emitted from the outside of the electronic mirror 1 or the like.
  • the light detection unit 22 is a sensor that detects the brightness and the color temperature of ambient light.
  • the light detection unit 22 is provided in the housing 5 or the first support 6.
  • the light detection unit 22 is disposed, for example, apart from the light source 31. When the light detection unit 22 is disposed apart from the light source 31, the light emitted from the light source 31 can be prevented from affecting the detection result of the light detection unit 22.
  • the light detection unit 22 may detect ambient light that does not include light derived from illumination light (eg, illumination light reflected or scattered by an object, return light). For example, the light detection unit 22 may detect ambient light in a state where the illumination unit 21 does not emit illumination light.
  • the light detection unit 22 is disposed, for example, in the vicinity of the first imaging unit 3A. For example, the light detection unit 22 is disposed at a position closer to the first imaging unit 3A than the illumination unit 21.
  • the light detection unit 22 is not limited to the example illustrated in FIG. 1 and may have another configuration.
  • the number of light detection units 22 may be one, or two or more.
  • the position of the light detection unit 22 may not be in the vicinity of the first imaging unit 3A.
  • the electronic mirror 1 may not include the light detection unit 22.
  • the input unit 23 is provided in the housing 5 or the first support unit 6 (see FIG. 2), and receives an input from the outside.
  • the user U can input various information (for example, a command) to the electronic mirror 1 through the input unit 23.
  • the input unit 23 includes a touch sensor 35, an audio input unit 36, and a release switch 37.
  • the touch sensor 35 and the release switch 37 are operation units that the user U touches and operates.
  • the touch sensor 35 and the release switch 37 are operated by the user U to receive an instruction from the user U for causing the electronic mirror 1 to execute a predetermined operation.
  • the voice input unit 36 receives a command to cause the electronic mirror 1 to execute a predetermined operation by voice.
  • the user U operates the electronic mirror 1 contactlessly by transmitting a command by voice via the voice input unit 36, for example, in a state in which the hand is closed during makeup or in a state in which cosmetics etc. are attached to the hand. be able to.
  • the touch sensor 35 is a pressure-sensitive or capacitive two-dimensional sensor (for example, a touch pad).
  • the touch sensor 35 detects the position where the touch is made on the sensor surface.
  • the touch sensor 35 is disposed on the screen 2, and the touch sensor 35 and the display unit 4 (screen 2) constitute a touch panel.
  • the voice input unit 36 includes a microphone or the like to which voice is input from the outside.
  • the voice input unit 36 is housed inside the housing 5 (see FIG. 1).
  • the voice input unit 36 is disposed, for example, on the lower side (+ Z side) with respect to the screen 2.
  • the casing 5 in the vicinity of the voice input unit 36 is provided with a through hole 38 through which voice is passed. The sound from the outside of the housing 5 can easily reach the sound input unit 36 when at least a part thereof passes through the through hole 38.
  • the release switch 37 receives a command to cause the electronic mirror 1 to execute acquisition (recording) of a still image.
  • the release switch 37 is, for example, a button, and the electronic mirror 1 executes acquisition of a still image when the release switch 37 is pressed.
  • the release switch 37 is disposed, for example, on the top of the housing 5.
  • the position of the release switch 37 is arbitrary.
  • the release switch 37 may be disposed, for example, on the side (+ X side or ⁇ X side) of the housing 5 or may be disposed on the lower portion ( ⁇ Z side) of the housing 5.
  • the electronic mirror 1 may not have the release switch 37. In this case, in response to an instruction input to the touch sensor 35 or the voice input unit 36, the electronic mirror 1 may execute acquisition of a still image. In addition, the electronic mirror 1 may not have the function of acquiring a still image.
  • the audio output unit 24 includes, for example, a speaker and outputs audio.
  • the audio output unit 24 is provided on the same side ( ⁇ Y side) as the screen 2 in the housing 5 or on the side (+ X side, ⁇ X side) of the screen 2.
  • the voice output unit 24 outputs voice toward the same side ( ⁇ Y side) as the screen 2 or the side (+ X side, ⁇ X side) of the screen 2 in the housing 5.
  • the audio output unit 24 is provided at the + X side end and the ⁇ X side end of the lower side of the screen 2.
  • a through hole 39 for passing audio is provided in the housing 5, in the vicinity of the audio output unit 24, a through hole 39 for passing audio is provided.
  • the voice output from the voice output unit 24 can easily reach the outside (for example, the user U) of the housing 5 by passing through the through hole 39.
  • the audio output unit 24 reproduces, for example, a music file and outputs the audio.
  • the user U can perform makeup while listening to the music output from the audio output unit 24.
  • the audio file may be stored in advance in the storage unit 43 (shown later in FIG. 5) or may be obtained via the communication unit 44 (shown later in FIG. 5).
  • the voice output unit 24 may output, for example, a voice (for example, voice guidance) related to the operation of the electronic mirror 1 or a voice for notifying of an operation (for example, an error occurrence or completion of processing) of the electronic mirror 1 May be output.
  • An interface 25 (hereinafter referred to as an input / output IF 25) is provided in the housing 5 or the first support 6.
  • the input / output IF is provided in the second portion 12 of the housing 5, and the plug can be inserted from the side (+ X side).
  • the input / output IF 25 is, for example, a port whose communication standard is a universal serial bus (USB) standard.
  • the input / output IF 25 is used to connect the inside of the housing 5 to the outside (for example, a peripheral device).
  • FIG. 5 is a block diagram showing the electronic mirror 1 according to the present embodiment.
  • the electronic mirror 1 includes a control unit 41, a processing unit 42, a storage unit 43, a communication unit 44, a power input terminal 45, and a skin condition detection unit 47.
  • the power supply input terminal 45 is provided in the housing 5 or the first support 6 shown in FIG.
  • the skin condition detection unit 47 is a peripheral device, and is connected via the input / output IF 25 (for example, a USB port).
  • the control unit 41, the processing unit 42, the storage unit 43, and the communication unit 44 are accommodated in the housing 5.
  • the control unit 41 controls each unit of the electronic mirror 1.
  • the control unit 41 includes an imaging control unit 51, a lighting control unit 52, a display control unit 53, and a voice operation unit 54.
  • the processing unit 42 includes an image processing unit 55 and a skin condition evaluation unit 56.
  • the image processing unit 55 processes the image captured by the imaging unit 3.
  • the skin condition evaluation unit 56 processes the detection result of the skin condition detection unit 47.
  • the storage unit 43 is a non-volatile memory such as a flash memory or a storage device such as a hard disk.
  • the storage unit 43 stores (stores) various data.
  • each part of the electronic mirror 1 will be described.
  • the power supply input terminal 45 is connected to a power supply that supplies at least a part of the power consumed by the electronic mirror 1 via a power supply cable or the like.
  • the electronic mirror 1 is operable by the power supplied via the power input terminal 45 in a state where the power input terminal 45 is connected to the power supply.
  • the electronic mirror 1 incorporates a battery such as a lithium ion secondary battery, for example, and the battery is charged by the power supplied via the power supply input terminal 45.
  • the electronic mirror 1 is operable by the power supplied from the above-mentioned battery in a state where the power supply input terminal 45 is not connected to the power supply.
  • the illumination control unit 52 controls the illumination unit 21.
  • the illumination control unit 52 controls the plurality of light sources 31 individually.
  • cosmetics are designed to have a predetermined color when irradiated with sunlight.
  • ambient light for example, the light of a room light
  • the coloration of makeup is suppressed in this environment. Makeup may be excessive, and makeup in a state of being illuminated by sunlight may be different from the intention.
  • the illumination control unit 52 controls the illumination unit 21 (light source 31) based on the detection result of the light detection unit 22.
  • the light detection unit 22 detects the luminance and color temperature of ambient light of ambient light, and outputs the detection result to the illumination control unit 52.
  • the illumination control unit 52 controls the illumination unit 21 so that the illumination state by the ambient light and the illumination light emitted by the illumination unit 21 satisfies a predetermined condition based on the brightness and the color temperature of the ambient light detected by the light detection unit 22.
  • Control controls the brightness of the illumination light emitted by the illumination unit 21 so that the illumination state of the imaging target of the imaging unit 3 (for example, the face of the user U) approaches the state illuminated by sunlight. Control color temperature.
  • Each light source 31 (see FIG. 1) of the illumination unit 21 is controlled by the illumination control unit 52, and emits illumination light so that combined light obtained by combining illumination light and ambient light becomes similar light of sunlight.
  • the similar light described above is light having similar brightness and spectrum to sunlight. Note that the above-described illumination state may be different from the state in which the imaging target is illuminated by sunlight, and may be, for example, a state in which the skin of the user U looks more white.
  • the first imaging unit 3A and the second imaging unit 3B each include a two-dimensional image sensor (imaging device) such as a CMOS image sensor or a CCD image sensor.
  • the imaging unit 3 is controlled by the imaging control unit 51 to execute imaging.
  • the imaging control unit 51 controls the first imaging unit 3A and the second imaging unit 3B individually.
  • the imaging control unit 51 controls imaging conditions such as imaging timing, gain of an imaging element, exposure time, and frame rate for each of the first imaging unit 3A and the second imaging unit 3B.
  • the imaging control unit 51 can cause only one of the first imaging unit 3A and the second imaging unit 3B to perform imaging, or causes the first imaging unit 3A and the second imaging unit 3B to perform imaging in parallel. It can also be done.
  • the first imaging unit 3A and the second imaging unit 3B have an optical zoom function, and can also perform imaging by controlling the magnification.
  • the imaging unit 3 outputs an imaging result (captured image) to the image processing unit 55.
  • the image processing unit 55 processes the captured image by the imaging unit 3 and generates, for example, a reverse image (mirror image) in which the left and right of the captured image are reversed. Further, the image processing unit 55 generates an image including a figure (eg, a reference line, a grid line) indicating a position on the captured image by the imaging unit 3. This image is, for example, an additional image (shown later in FIG. 7) obtained by adding a figure to a reverse image. Further, the image processing unit 55 processes the image captured by the imaging unit 3 and generates, for example, an enlarged image (shown later in FIG. 9) obtained by enlarging a part of the above-mentioned inverted image. For example, the image processing unit 55 cuts out a region (partial image) specified by the user from the reverse image, enlarges the cut-out region to match the size of the screen 2 of the display unit 4, and generates an enlarged image.
  • a reverse image mirror image
  • the image processing unit 55 generates an image including
  • the image processing unit 55 may generate an image other than the above-mentioned inverted image, enlarged image, or additional image, for example, generates a corrected image in which the color tone or brightness is adjusted (corrected) with respect to the captured image. It is also good.
  • the image processing unit 55 performs a process of whitening the color of the skin part, a process of warming the color of the skin part, and a change of a part such as wrinkles or spots in the captured image (eg, It is also possible to carry out processing such as erasing, blurring, and changing the skin lightening or dullness portion. Note that whether or not the image processing unit 55 performs image processing is optional.
  • the display unit 4 is, for example, a liquid crystal display or the like, and displays various information.
  • the display unit 4 displays, for example, an image based on the imaging result of the imaging unit 3, a menu image when operating the electronic mirror 1, and an evaluation image (shown later in FIG. 10) showing the evaluation result of the skin condition evaluation unit 56.
  • the image based on the imaging result of the imaging unit 3 is, for example, an image captured by the first imaging unit 3A, an image captured by the second imaging unit 3B, an image obtained by processing the captured image by the image processing unit 55, and an image It includes at least one of the images generated by the processing unit 55.
  • the display unit 4 is provided with a touch sensor 35, and the user can input information (for example, a command) to the electronic mirror 1 by touching a portion on the menu image with the touch sensor 35.
  • the display control unit 53 controls the display unit 4. For example, the display control unit 53 outputs the data of the reverse image to the display unit 4 and causes the display unit 4 to display the reverse image.
  • the display control unit 53 updates the image displayed on the display unit 4 at a predetermined time interval in response to the imaging unit 3 repeatedly performing imaging, and the display unit 4 displays the image of the user U as a moving image or live view Display in real time like. Further, the display control unit 53 selects (determines) an image to be displayed on the display unit 4 according to a predetermined setting or a command of the user U. For example, the display control unit 53 causes the display unit 4 to display an image based on an imaging result of the first imaging unit 3A and an image based on an imaging result of the second imaging unit 3B according to a command of the user U. Switch
  • FIG. 6 is a view showing an image displayed on the display unit based on the imaging result of the first imaging unit.
  • the display control unit 53 causes the display unit 4 to display an image (for example, a reverse image Im1) based on the imaging result of the first imaging unit 3A according to the instruction of the user U.
  • the display unit 4 displays a reverse image Im1 in which the user U is viewed from the front based on the imaging result of the first imaging unit 3A.
  • the user U can perform makeup on the cheek or the like while looking at such a reverse image Im1.
  • the user U can perform makeup while confirming the progress of makeup because the image is displayed on the display unit 4 in real time.
  • the first imaging unit 3A may be provided with an optical system (for example, a peripheral optical system) so as to correct the image of the object to be imaged from an oblique direction to a front view.
  • FIG. 7 is a diagram showing an image generated by the image processing unit and displayed on the display unit.
  • the display control unit 53 causes the display unit 4 to display the additional image Im2 in accordance with a command from the user.
  • the additional image Im2 is an image obtained by adding a figure (eg, reference line L) to the reverse image Im1 shown in FIG.
  • the reference line L is, for example, a grid-like line (e.g., a grid line) arranged at predetermined intervals in the X direction and the Y direction.
  • the user U can confirm the position where makeup is to be performed by the additional image Im2, and can make makeup at a desired position.
  • the figure added by the image processing unit 55 is not limited to the grid-like reference line L illustrated in FIG. 7, and may be another shape.
  • the graphic added by the image processing unit 55 may include the center line in the horizontal direction of the image, or may include the center line in the vertical direction of the image.
  • the image processing unit 55 may add a figure (for example, a circle, a rectangle) of the size and the shape designated by the user U.
  • the image processing unit 55 may add the above-mentioned figure (eg, line, circle, rectangle) to a position or area (eg, substantially, eyes) specified by the user U.
  • FIG. 8 is a diagram showing an image displayed on the display unit based on the imaging result of the second imaging unit.
  • the display control unit 53 causes the display unit 4 to display an image (for example, a reverse image Im3) based on the imaging result of the second imaging unit 3B according to the instruction of the user U.
  • the display unit 4 displays a reverse image Im3 in which the user U is viewed from below based on the imaging result of the second imaging unit 3B.
  • the user can make makeup such as eyes while viewing such an image. For example, by looking at the reverse image Im3, the user can perform makeup on a portion (for example, a portion that is difficult to appear in the reverse image Im1 of FIG. 6) or the like that is difficult to see from the front. Since the user U displays the image on the display unit 4 in real time, the user U can make makeup while confirming the progress of makeup.
  • FIG. 9 is a diagram showing an image generated by the image processing unit and displayed on the display unit.
  • the display control unit 53 causes the display unit 4 to display the enlarged image Im4 in accordance with a command from the user.
  • the enlarged image Im4 is an image obtained by enlarging a part of the reverse image Im3 shown in FIG.
  • the user U can perform makeup while confirming details with the magnified image Im4.
  • the image processing unit 55 can also generate an enlarged image based on the imaging result of the first imaging unit.
  • the image processing unit 55 can also perform second image processing on the image subjected to the first image processing to generate an image.
  • the image processing unit 55 can also generate an additional image in which a figure indicating the position on the image is added to the enlarged image.
  • the display control unit 53 can also simultaneously display on the display unit 4 both the image captured by the first imaging unit and the image captured by the second imaging unit.
  • the electronic mirror 1 has a still image mode in addition to the makeup mode.
  • the imaging control unit 51 causes the imaging unit 3 to capture one image.
  • the image processing unit 55 generates a reverse image of the captured image captured by the imaging unit 3 and causes the storage unit 43 to store data of the reverse image.
  • the display control unit 53 supplies the data of the reverse image stored in the storage unit 43 to the display unit 4 and causes the display unit 4 to display the reverse image.
  • the display control unit 53 displays one reverse image over a predetermined period.
  • the length of the predetermined period may be a predetermined time, or may be a time until the user instructs the end of the display.
  • the electronic mirror 1 may not display the image acquired in the still image mode on the display unit 4.
  • the image processing unit 55 may not perform one or more types of image processing on the image captured by the imaging unit 3 in the still image mode.
  • the image processing unit 55 may not generate a reverse image of the image captured by the imaging unit 3 in the still image mode.
  • the voice operation unit 54 determines a command indicated by the voice based on the voice input to the voice input unit 36. For example, the voice operation unit 54 collates the voice pattern input to the voice input unit 36 with the reference information to determine the command.
  • the reference information is information in which the voice pattern and the command are associated with each other, and is stored in advance in the storage unit 43.
  • the voice operation unit 54 transmits the determined command to the control unit (the imaging control unit 51, the illumination control unit 52, or the display control unit 53) that executes the command according to the content. For example, when the voice operation unit 54 determines that a voice requesting to switch the display has been input to the voice input unit 36, it transmits a command corresponding to the voice to the display control unit 53, and the display control unit 53 Run.
  • the skin condition detection unit 47 detects the condition of the skin.
  • the skin condition detection unit 47 is, for example, a module (unit) independent of the housing 5.
  • the skin condition detection unit 47 detects, for example, the amount of water in the stratum corneum of the skin, the oil content of the skin, the fineness of the texture of the skin, and the color of the skin.
  • the skin condition detection unit 47 includes, for example, a moisture detection sensor and an imaging element.
  • the skin condition detection unit 47 detects, for example, the moisture in the stratum corneum of the skin by a moisture detection sensor.
  • the skin condition detection unit 47 detects the oil content of the skin, the fineness of the skin texture, and the color of the skin, for example, by processing the image of the skin acquired by the imaging device.
  • the detection result of the skin condition detection unit 47 is stored (stored) in the storage unit 43 in association with the date when the detection is performed.
  • the detection result of the skin condition detection unit 47 may be stored (stored) in the storage unit 43 in association with the imaging result of the imaging unit 3.
  • the skin condition evaluation unit 56 evaluates the condition of the skin based on the detection result of the skin condition detection unit 47.
  • the skin condition evaluation unit 56 reads the detection result of the skin condition detection unit 47 from the storage unit 43, and evaluates the skin condition.
  • the evaluation result of the skin condition evaluation unit 56 is stored (stored) in the storage unit 43 in association with the date when the skin condition detection unit 47 detects the skin condition.
  • the evaluation result of the skin condition evaluation unit 56 may be stored (stored) in the storage unit 43 in association with the imaging result of the imaging unit 3.
  • the skin condition evaluation unit 56 evaluates, for example, the moisture of the skin, the oil content of the skin, the skin age, and the skin lightening degree. For example, the skin condition evaluation unit 56 obtains the skin age using the result of the skin fineness detected by the skin condition detection unit 47. For example, the skin condition evaluation unit 56 collates the result of the fineness of the skin detected by the skin condition detection unit 47 with the information of the fineness of the skin texture at each age stored in the storage unit 43 in advance. Determine the skin age. For example, the skin condition evaluation unit 56 collates the detection result of the skin condition detection unit 47 with the information stored in the storage unit 43 using an approximation such as Euclidean distance.
  • the skin condition evaluation unit 56 may obtain the skin age using the age of the user U and the physiological cycle information (profile information of the user U) previously input by the user U. When the skin age is determined using the information of the age of the user U and the menstrual cycle, the skin age can be accurately determined.
  • at least a part of the skin condition evaluation unit 56 may be provided outside the housing 5 and may be provided, for example, in the same module (unit) as the skin condition detection unit 47.
  • the skin condition evaluation unit 56 also determines the skin whitening degree based on the result of the skin color detected by the skin condition detection unit 47.
  • the skin condition evaluation unit 56 uses the result of the skin color detected by the skin condition detection unit 47 as skin color information in which the average of the Japanese skin colors stored in advance in the storage unit 43 is 50.
  • the color of the skin is quantified by collation, and it is assumed that the lower the skin color, the higher the skin lightening degree.
  • FIGS. 10A and 10B are diagrams showing images representing the evaluation results by the skin condition evaluation unit 56.
  • FIG. An image (evaluation image Im5) illustrated in FIG. 10A is an image in which a plurality of sheets Sx are arranged and the evaluation result for each date and time when the skin condition is detected is represented on the sheet Sx.
  • the evaluation result may be represented by the numerical value of each item, or the numerical value of each item may be represented by a plurality of levels (eg, “good”, “normal”) or the like.
  • the user U can view the evaluation result at the desired date and time when the data exists by selecting the sheet.
  • the skin condition evaluation unit 56 may evaluate the user's skin condition based on only the image data captured by the imaging unit 3.
  • the skin condition evaluation unit 56 can compare skin moisture, skin oil content, skin age, and skin lightening degree with a plurality of evaluation results with different dates and times.
  • the image (evaluation image Im6) shown in FIG. 10 (B) is an image representing the history of the evaluation results of the skin condition by a graph.
  • the user U can know the time change of the skin condition by looking at the image of FIG. 10 (B).
  • FIG. 10 (B) shows a line graph as an example of a graph, this graph may be a radar chart or the like, or may be a bar graph.
  • the communication unit 44 is communicably connected to the outside of the electronic mirror 1 by wire or wirelessly.
  • the communication unit 44 is, for example, a communication device that performs network connection wirelessly, such as Wi-Fi.
  • the electronic mirror 1 can transfer the information stored in the storage unit 43 to another device via the communication unit 44.
  • the other device may be a mobile terminal such as a smartphone, a mobile phone, a tablet, a watch, a stationary computer, or a cloud.
  • the electronic mirror 1 transmits an image to the portable terminal of the user U in response to a command from the user U, and the user U can view the image acquired by the electronic mirror 1 on the portable terminal.
  • the electronic mirror 1 can also transmit (post) an image to an SNS (social networking service) or the like in response to a command from the user U.
  • SNS social networking service
  • the communication unit 44 transmits, for example, an image captured by the imaging unit 3 or an image obtained by processing the captured image by the image processing unit 55.
  • the communication unit 44 reads from the storage unit 43 the image acquired in the still image mode or the image obtained by processing the image and transmits the image.
  • the communication unit 44 communicates, for example, information based on the detection result of the skin condition detection unit 47 with the outside.
  • the communication unit 44 transmits an image representing the evaluation result of the skin condition evaluation unit 56.
  • the electronic mirror 1 can also acquire date and time information from the Internet or the like through the communication unit 44.
  • the electronic mirror 1 may perform data communication by connecting to another portable terminal or a computer device by Bluetooth (registered trademark) or infrared communication, instead of the communication unit 44.
  • the electronic mirror 1 may not include the communication unit 44.
  • the electronic mirror 1 includes, for example, a computer including a CPU, a main memory, and the like.
  • the computer reads a program stored in the storage unit 43 and executes various processes in accordance with the program.
  • the above program causes the computer to function as a control unit 41 (imaging control unit 51, illumination control unit 52, display control unit 53, voice operation unit 54) that performs various controls of the electronic mirror 1.
  • the above program causes the computer to function as a processing unit 42 (image processing unit 55, skin condition evaluation unit 56) that performs various processes of the electronic mirror 1.
  • the program may be provided by being recorded on a recording medium (storage medium) such as an optical disc.
  • control unit 41 and the processing unit 42 may be configured by a logic circuit (hardware).
  • the image processing unit 55 may be an ISP (image signal processor) or the like. In this case, when displaying an image in real time, it is possible to suppress the occurrence of delay by speeding up the process.
  • FIGS. 1 to 9 the operation of the electronic mirror 1 will be described.
  • the user U uses the electronic mirror 1 in the makeup mode, as shown in FIG. 1, the user U places a face on the front side ( ⁇ Y side) of the electronic mirror 1.
  • the light detection unit 22 detects the brightness and color temperature of the ambient light at the installation place of the electronic mirror 1.
  • the illumination control unit 52 controls the illumination unit 21 based on the detection result of the light detection unit 22 and causes the illumination unit 21 to emit illumination light.
  • the imaging control unit 51 causes the imaging unit 3 to perform imaging in a state where the adjusted illumination light is emitted to the imaging target (the face of the user U).
  • the imaging control unit 51 may determine an imaging condition (for example, shutter speed, exposure) of the imaging unit 3 based on the detection result of the light detection unit 22. In this case, the imaging control unit 51 can set the imaging conditions of the imaging unit 3 with high accuracy.
  • the imaging unit 3 captures the face of the user U illuminated by the illumination light adjusted by the illumination unit 21.
  • the first imaging unit 3A horizontally captures an image of the face of the user U from the front of the user U in accordance with an instruction from the user U.
  • the second imaging unit 3B images the face of the user U so that the eyes of the user U are positioned at the center of the image, from the lower side to the upper side of the face of the user U according to the user's command.
  • the image processing unit 55 processes the imaging result of the imaging unit 3, and the display unit 4 displays the image processed by the image processing unit 55 in real time.
  • the illumination unit 21 can adjust the brightness and color temperature of illumination light with high accuracy. Then, since the combined light of the illumination light and the environmental light is adjusted to be similar to sunlight, the image displayed on the display unit 4 has the same appearance of makeup as the state of being illuminated by sunlight, The user U can confirm the makeup of makeup and the like in a desired illumination state.
  • FIG. 11 and 12 are views showing the electronic mirror according to the present embodiment.
  • FIG. 11 is a side view of the electron mirror as viewed from the + X side.
  • FIG. 12 is a front view as viewed from the -Y side.
  • the electronic mirror 1 of the present embodiment is different from that of the first embodiment in the housing 5, the first support portion 6, and the illumination portion 21.
  • the housing 5 of the present embodiment is in the shape of a rectangular parallelepiped (rectangular plate) as shown in FIG.
  • the first support portion 6 is connected to the housing 5 via the hinge member 57.
  • the first support 6 is in the form of a rectangular parallelepiped.
  • the first support portion 6 is rotatable around an axis parallel to the X direction, and can hold the housing 5 in a predetermined posture.
  • the first support portion 6 can hold the housing 5 in a posture parallel to the vertical direction, or can hold the housing 5 in a posture inclined with respect to the vertical direction.
  • the first support portion 6 can be folded so as to overlap with the housing 5 by rotating the first support portion 6 around the axis of the hinge member 57 so as to be close to the housing 5.
  • a power supply input terminal 45 and an input / output IF 25 are disposed on the side of the first support portion 6. Since the power supply input terminal 45 and the input / output IF 25 are disposed on the first support portion 6, the housing 5 can be made compact.
  • the illumination part 21 of this embodiment is provided with the four light sources 31, as shown in FIG. Two light sources 31 are disposed on each of the left and right sides (+ X side and ⁇ X side) of the display unit 4.
  • the housing 5 can be made compact.
  • SYMBOLS 1 electronic mirror, 2 ... screen, 3A ... 1st imaging part, 3B ... 2nd imaging part, 4 ... display part, 5 ... housing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】利便性が高い電子ミラーを提供する。 【解決手段】電子ミラーは、ユーザの顔を撮像した撮像結果に基づいて画像を表示する電子ミラーであって、第1撮像部、及び第1撮像部から所定方向に離れて配置される第2撮像部を含む撮像部と、第1撮像部と第2撮像部との間に配置され、所定方向に長手の画面を有し、撮像部の撮像結果に基づいて画像を表示する表示部と、を備える。

Description

電子ミラー
 本発明は、電子ミラーに関する。
 電子ミラーは、化粧などに利用される(例えば、下記の特許文献1参照)。例えば、電子ミラーは、カメラおよびディスプレイを備え、カメラで撮像したユーザの顔をディスプレイに表示する。
特開2015-29168号公報
 本発明の態様に従えば、ユーザの顔を撮像した撮像結果に基づいて画像を表示する電子ミラーであって、第1撮像部、及び第1撮像部から所定方向に離れて配置される第2撮像部を含む撮像部と、第1撮像部と第2撮像部との間に配置され、所定方向に長手の画面を有し、撮像部の撮像結果に基づいて画像を表示する表示部と、を備える電子ミラーが提供される。
第1実施形態に係る電子ミラーを示す正面図である。 第1実施形態に係る電子ミラーを示す側面図である。 第1実施形態に係る電子ミラーを示す裏面図である。 照明部の第2の例を示す図である。 第1実施形態に係る電子ミラーを示すブロック図である。 第1撮像部の撮像結果に基づいて表示部に表示される画像を示す図である。 画像処理部に生成されて表示部に表示された画像を示す図である。 第2撮像部の撮像結果に基づいて表示部に表示される画像を示す図である。 画像処理部に生成されて表示部に表示された画像を示す図である。 肌状態評価部による評価結果を表す画像を示す図である。 第2実施形態に係る電子ミラーを示す正面図である。 第2実施形態に係る電子ミラーを示す側面図である。
[第1実施形態]
 第1実施形態について説明する。図1から図3は、第1実施形態に係る電子ミラーを示す図である。電子ミラー1は、ユーザUの顔を撮像した撮像結果に基づいて画像を表示する電子機器である。電子ミラー1は、撮像結果に基づいてリアルタイムで画像を表示する第1モードと、記録画像を取得する第2モードとを有する。第1モードは、例えば、ユーザUが電子ミラー1を見ながら化粧を行う際に利用される化粧モードである。第2モードは、ユーザUが自身の顔の画像を記録に残す際に利用される静止画モードである。
 電子ミラー1は、所定方向に長手の画面2を備える。電子ミラー1は、使用時において、ユーザUの顔の額と顎とを結ぶ線に対して、画面2の長手方向(所定方向)が概ね平行になるように配置される。以下の説明において、適宜、図1などに示すXYZ直交座標系を参照する。また、各方向において、適宜、矢印の先端と同じ側を+側(例、+Z側)、矢印の先端と反対側を-側(例、-Z側)と称す。
 このXYZ直交座標系において、Z方向は、上記の所定方向であり、画面2の長辺に平行な方向(長手方向)である。また、X方向は、画面2の短辺に平行な方向(短手方向)であり、上記の所定方向に交差(直交)する方向である。Y方向は、X方向およびZ方向のそれぞれに直交する方向であり、電子ミラー1の厚み方向である。電子ミラー1において、-Y側は使用時にユーザUに向けられる正面側であり、+Y側は使用時にユーザUと反対側を向く裏側(裏面側)である。図1は-Y側から見た正面図であり、図2は+X側から見た側面図であり、図3は+Y側から見た裏面図である。
 電子ミラー1は、使用時において、X方向およびY方向が概ね水平方向となり、かつZ方向が概ね鉛直方向となるように配置される。なお、電子ミラー1は、ユーザUが画面2を見やすいように、適宜、上記の所定方向(Z方向)が鉛直方向から傾くように配置される。
 電子ミラー1は、撮像部3、表示部4、筐体5、及び第1支持部6(図2参照)を備える。撮像部3は、第1撮像部3Aおよび第2撮像部3Bを含む。第1撮像部3Aは、筐体5の-Y側(正面側)における上側(+Z側)に配置される。第1撮像部3Aは、筐体5のX方向(短手方向)における中央部分に配置される。第1撮像部3Aは、画面2に対して+Z側に配置され、電子ミラー1の使用時に画面2の上方(例、額側)に配置される。
 第2撮像部3Bは、筐体5の正面側の下部に配置される。第2撮像部3Bは、筐体5のX方向における中央部分に配置される。第2撮像部3Bは、画面2に対して-Z側に配置され、電子ミラー1の使用時に画面2の下方(例、顎側)に配置される。第2撮像部3Bは、ユーザU側(-Y側)に向けて配置される。第2撮像部3Bは、ユーザUの顔を下方からあおって撮像する。第2撮像部3Bは、上側(+Z側)に向けて配置される。第2撮像部3Bは、例えば、ユーザUの顔における目元の部分が中心になるように、下側から上側に向かった方向に撮像する。
 表示部4は、筐体5の正面側の中央部分に配置される。表示部4は第1撮像部3Aと第2撮像部3Bとの間に配置される。第2撮像部3Bは、第1撮像部3Aから所定方向(Z方向)に離れて配置される。表示部4は、撮像部3の撮像結果に基づいて画像を表示する。撮像部3は、表示部4に対する視点と同じ側を撮像し、表示部4には、ユーザUの顔を鏡に映したようにユーザUの画像が表示される。
 筐体5は、撮像部3および表示部4を保持(例、支持、収容)する。また、筐体5は、電子ミラー1の各部(後に図4等に示す)を保持(例、支持、収容)する。図2に示すように、筐体5は、第1部分11および第2部分12を有する。第1部分11は、正面側(-Y側)に配置され、直方体状(矩形板状)である。第1部分11は、その角が丸みを帯びた形状である。第1部分11の正面側(-Y側)には、第1撮像部3A、第2撮像部3B、表示部4などが配置される。第1部分11は、例えば、その長手方向が、鉛直方向と平行な方向に設定される。
 第2部分12は、例えば円板状(図3参照)であり、第1部分11の裏側(+Y側)から+Y側に突出している。第2部分12は、後に図4に示す制御部41および処理部42を収容する。なお、筐体5の大きさ及び形状は、図1等に示す例に限定されず、それぞれ、任意である。例えば、筐体5(第1部分11)は、-Y側から見て(平面視で)、正方形状でもよいし、楕円形状でもよいし、また、筐体5は、第2部分12を備えなくてもよく、この場合に後述する制御部41および処理部42は第1部分11に収容されてもよい。
 第1支持部6は、筐体5を下方から支持する。第1支持部6は、筐体5を基端として-Z側に延びている。電子ミラー1の使用時において、第1支持部6は、その先端が-Z側に向かうにつれて筐体5から+Y側に離れるように、筐体5に対して傾斜する。そして、電子ミラー1は、第1支持部6の先端および筐体5の-Z側の端が設置面PFに接触し、設置面PFに支持される。設置面PFは、例えば机、テーブル、棚などの上面である。第1撮像部3Aは、所定方向(Z方向)において、第1支持部6の先端(設置面PFとの接触部)に対して第2撮像部3Bよりも離れた位置に配置される。また、第1撮像部3Aは、所定方向(Z方向)において、筐体5における設置面PFとの接触部(下方の端部)に対して第2撮像部3Bよりも離れた位置に配置される。
 第1支持部6は、第1部材13、及び第2部材14を備える。第1部材13及び第2部材14は、それぞれ、棒状あるいは板状である。第1部材13は、一方の端部(基端、+Z側の端部)が第2部分12の裏側(+Y側)に接続され、他方の端部(先端、-Z側の端部)が第2部材14と接続される。第1部材13は、その基端が筐体5にヒンジ部材を介して接続され、X方向と平行な軸の周りで回転可能である。第1部材13は、その基端を中心として筐体5に対して回転し、Z方向に対して傾いた所定位置に保持される。また、第1部材13は、筐体5に対して、取り外しが可能、かつ取り付け可能である。
 また、第2部材14は、第1部材13に対して、取り外し可能、かつ取り付け可能である。電子ミラー1は、第1部材13及び第2部材14が、それぞれ、取り外し可能であるので、コンパクトな状態で持ち運び可能である。なお、第1支持部6は、図2に示す例に限定されず、他の構成でもよい。例えば、第1支持部6は、第1部材13及び第2部材14のうち少なくとも1つは取り外し可能でなくてもよい。また、第1支持部6は、第2部材14が第1部材13に対して進退することで、伸縮可能でもよい。また、第1支持部6は、第1部材13と第2部材14とが一体的に形成されたものでもよい。
 本実施形態において、電子ミラー1は、設置面PF上に載置される代わりに、吊り下げられることによっても設置可能である。図3に示すように、筐体5には、第2支持部15と接続される取り付け部16が設けられる。第2支持部15は、例えば壁面に固定されたフックなどであり、取り付け部16は、例えば、第2支持部15と係止される穴などである。第2支持部15は、筐体5を上方から支持する。図1に示した第1撮像部3Aは、第2支持部15あるいは取り付け部16に対して、所定方向(Z方向)において第2撮像部3Bよりも近い位置に配置される。第2支持部15は、例えば電子ミラー1と別の部材であるが、電子ミラー1は、第2支持部15を備えてもよい。例えば、電子ミラー1は、ペンダント型の電子機器であって、第2支持部15がチェーンなどであってもよい。
 また、電子ミラー1は、照明部21、光検出部22、入力部23、音声出力部24、及びインターフェース25(図2に示す)を備える。照明部21(照射部)は、表示部4の画面2に対して所定方向(Z方向)の交差方向(X方向)に配置される。照明部21は、表示部4に対して上記の交差方向(X方向)の両側(+X側および-X側)に設けられる。照明部21は、撮像部3の撮像対象(ユーザUの顔、撮像範囲、視野)に照明光を照射する。照明部21は、正面側(-Y側)に向けて光を照射する。
 照明部21は、照明光の輝度及び色温度を調節可能である。照明部21は、複数の光源31を有する。複数の光源31は、例えば、表示部4を挟んで配置される。複数の光源31は、例えば、画面2において撮像部3が隣接する辺と異なる辺に沿って配置される。複数の光源31は、例えば、表示部4の+X側に直線的に所定の間隔で配置され、かつ表示部4の-X側に直線的に所定の間隔で配置される。複数の光源31は、筐体5の上部から下部までの部分に、所定の間隔で配置される。各光源31は、例えば、異なる波長の光を発する複数の発光素子(例、LED)を含み、各発光素子の点灯状態(点灯または消灯)、及び各発光素子の出力(光強度)を個別に制御可能である。各光源31は、各発光素子の出力を調整することにより、照明光の色温度を調節可能である。
 なお、照明部21は、図1に示す例に限定されず、他の構成でもよい。例えば、照明部21において、光源31の数、光源31の大きさ、光源31の形状、及び光源31の位置の少なくとも1つは、任意である。また、光源31は、表示部4の上方に配置されてもよいし、下方に配置されてもよい。図4は、照明部の第2の例を示す図である。この照明部21は、複数の光源31に対してユーザ側(-Y側)に導光板32を備え、導光板32を介して照明光を照射する。なお、照明部21は、光源31からの光を拡散板などで拡散し、拡散した光を照射してもよい。また、光源31は、レーザダイオードなどの固体光源でもよいし、面発光型の光源でもよい。
 図1に示す光検出部22は、撮像部3の撮像対象(ユーザUの顔、撮像範囲、視野)を照らす環境光を検出する。環境光は、例えば電子ミラー1が設置される室内の室内灯からの光、電子ミラー1の外部から発せられる外光などである。光検出部22は、環境光の輝度及び色温度を検出するセンサである。光検出部22は、筐体5または第1支持部6に設けられる。光検出部22は、例えば光源31から離れて配置される。光検出部22が光源31から離れて配置される場合、光源31から発せられる光が、光検出部22の検出結果に影響を及ぼすことを抑制できる。
 光検出部22は、照明光に由来する光(例、物体で反射、散乱した照明光、戻り光)を含まない環境光を検出してもよい。例えば、光検出部22は、照明部21が照明光を照射しない状態で、環境光を検出してもよい。光検出部22は、例えば、第1撮像部3Aの近傍に配置される。例えば、光検出部22は、照明部21よりも第1撮像部3Aに近い位置に配置される。
 なお、光検出部22は、図1の例に限定されず、他の構成でもよい。例えば、光検出部22の数は、1つでもよいし、2つ以上でもよい。光検出部22の位置は、第1撮像部3Aの近傍でなくてもよい。また、電子ミラー1は、光検出部22を備えなくてもよい。
 入力部23は、筐体5または第1支持部6(図2参照)に設けられ、外部からの入力を受け付ける。ユーザUは、入力部23を介して、各種情報(例、指令)を電子ミラー1に入力可能である。入力部23は、タッチセンサ35、音声入力部36、及びレリーズスイッチ37を含む。
 タッチセンサ35およびレリーズスイッチ37は、それぞれ、ユーザUが触れて操作する操作部である。タッチセンサ35およびレリーズスイッチ37は、ユーザUに操作されることで、電子ミラー1に所定の動作を実行させる指令をユーザUから受け付ける。音声入力部36は、電子ミラー1に所定の動作を実行させる指令を音声によって受け付ける。ユーザUは、例えば、化粧中に手がふさがった状態、あるいは化粧品などが手に付着した状態において、音声入力部36を介して音声で指令を伝えることによって、電子ミラー1を非接触で操作することができる。
 タッチセンサ35は、感圧式あるいは静電容量式の二次元センサ(例、タッチパッド)である。タッチセンサ35は、そのセンサ面において接触があった位置を検出する。タッチセンサ35は、画面2上に配置され、タッチセンサ35および表示部4(画面2)は、タッチパネルを構成する。
 音声入力部36は、外部から音声が入力されるマイク等を含む。音声入力部36は、筐体5(図1参照)の内部に収容される。音声入力部36は、例えば、画面2に対して下方(+Z側)に配置される。音声入力部36の近傍における筐体5には、音声を通す貫通孔38が設けられる。筐体5の外部からの音声は、その少なくとも一部が貫通孔38を通ることで、音声入力部36に届きやすい。
 レリーズスイッチ37は、電子ミラー1に静止画の取得(記録)を実行させる指令を受け付ける。レリーズスイッチ37は、例えばボタンであり、電子ミラー1は、レリーズスイッチ37が押し下げられることで静止画の取得を実行する。レリーズスイッチ37は、例えば、筐体5の上部に配置される。なお、レリーズスイッチ37の位置は、任意である。例えば、レリーズスイッチ37は、例えば、筐体5の側部(+X側、あるいは-X側)に配置されてもよいし、筐体5の下部(-Z側)に配置されてもよい。また、電子ミラー1は、レリーズスイッチ37を備えなくてもよい。この場合、電子ミラー1は、タッチセンサ35あるいは音声入力部36に指令が入力されたことを受けて、静止画の取得を実行してもよい。また、電子ミラー1は、静止画を取得する機能を備えなくてもよい。
 音声出力部24は、例えばスピーカを含み、音声を出力する。音声出力部24は、筐体5において画面2と同じ側(-Y側)または画面2の側方(+X側、-X側)に設けられる。音声出力部24は、筐体5において画面2と同じ側(-Y側)または画面2の側方(+X側、-X側)に向けて音声を出力する。図1において、音声出力部24は、画面2の下方における+X側の端部と-X側の端部とに設けられる。筐体5において音声出力部24の近傍には、音声を通す貫通孔39が設けられる。音声出力部24から出力される音声は、貫通孔39を通ることで、筐体5の外部(例、ユーザU)に届きやすい。
 音声出力部24は、例えば、音楽のファイルを再生し、その音声を出力する。ユーザUは、音声出力部24から出力された音楽を聴きながら、化粧を行うことができる。なお、上記の音声のファイルは、記憶部43(後に図5に示す)に予め記憶されてもよいし、通信部44(後に図5に示す)を介して取得されてもよい。また、音声出力部24は、例えば、電子ミラー1の操作に関する音声(例、音声ガイダンス)を出力してもよいし、電子ミラー1の動作(例、エラー発生、処理の完了)を報知する音声を出力してもよい。
 インターフェース25(以下、入出力IF25と称す)は、筐体5または第1支持部6に設けられる。図2において、入出力IFは、筐体5の第2部分12に設けられ、側方(+X側)からプラグを挿入可能である。入出力IF25は、例えば、通信規格がユニバーサルシリアルバス(USB)の規格のポートである。入出力IF25は、筐体5の内部と外部(例、周辺機器)との接続に用いられる。
 図5は、本実施形態に係る電子ミラー1を示すブロック図である。電子ミラー1は、制御部41、処理部42、記憶部43、通信部44、電源入力端子45、及び肌状態検出部47を備える。電源入力端子45は、図2に示した筐体5あるいは第1支持部6に設けられる。肌状態検出部47は、周辺機器であり、入出力IF25(例、USBポート)を介して接続される。
 制御部41、処理部42、記憶部43、及び通信部44は、筐体5に収容される。制御部41は、電子ミラー1の各部を制御する。制御部41は、撮像制御部51、照明制御部52、表示制御部53、及び音声操作部54を備える。処理部42は、画像処理部55および肌状態評価部56を備える。画像処理部55は、撮像部3が撮像した画像を処理する。肌状態評価部56は、肌状態検出部47の検出結果を処理する。記憶部43は、フラッシュメモリなどの不揮発性メモリ、あるいはハードディスクなどの記憶デバイスである。記憶部43は、各種データを記憶(格納)する。以下、電子ミラー1の各部について説明する。
 電源入力端子45は、電子ミラー1で消費される電力の少なくとも一部を供給する電源に対して、電源ケーブルなどを介して接続される。電子ミラー1は、電源入力端子45が電源と接続されている状態において、電源入力端子45を介して供給される電力によって動作可能である。電子ミラー1は、例えばリチウムイオン二次電池などのバッテリーを内蔵し、このバッテリーは、電源入力端子45を介して供給される電力によって、充電される。電子ミラー1は、電源入力端子45が電源と接続されていない状態において、上記のバッテリーから供給される電力によって動作可能である。
 照明制御部52は、照明部21を制御する。照明制御部52は、複数の光源31を個別に制御する。一般的に、化粧品は、太陽光が照射された状態で所定の色味になるように、設計されている。ユーザは、太陽光に対して輝度あるいは色温度が異なる環境光(例、室内灯の光)で照らされた自身の像をみながら化粧を行うと、この環境で化粧の発色が抑えられることで化粧が過剰になり、太陽光で照らされている状態での化粧が意図と異なる場合がある。
 本実施形態において、照明制御部52は、光検出部22の検出結果に基づいて、照明部21(光源31)を制御する。例えば、光検出部22は、環境光の環境光の輝度および色温度を検出し、その検出結果を照明制御部52に出力する。照明制御部52は、光検出部22が検出した環境光の輝度および色温度に基づいて、環境光および照明部21が照射する照明光による照明状態が所定の条件を満たすように、照明部21を制御する。例えば、照明制御部52は、撮像部3の撮像対象(例、ユーザUの顔)の照明状態を太陽光に照らされている状態に近づけるように、照明部21が照射する照明光の輝度および色温度を制御する。
 照明部21の各光源31(図1参照)は、照明制御部52により制御され、照明光と環境光とを合成した合成光が太陽光の類似光となるように、照明光を照射する。上記の類似光は、太陽光と輝度及びスペクトルが類似する光である。なお、上記の照明状態は、撮像対象が太陽光に照らされている状態と異なってもよく、例えば、ユーザUの肌がより白く見える状態などでもよい。
 第1撮像部3Aおよび第2撮像部3Bは、それぞれ、CMOSイメージセンサあるいはCCDイメージセンサなどの二次元イメージセンサ(撮像素子)を含む。撮像部3は、撮像制御部51に制御されて撮像を実行する。撮像制御部51は、第1撮像部3A及び第2撮像部3Bを個別に制御する。撮像制御部51は、第1撮像部3A及び第2撮像部3Bのそれぞれについて、撮像タイミング、撮像素子のゲイン、露光時間、フレームレートなどの撮像条件を制御する。撮像制御部51は、第1撮像部3Aと第2撮像部3Bの一方のみに撮像を実行させることもできるし、第1撮像部3Aと第2撮像部3Bとで並行して撮像を実行させることもできる。また、第1撮像部3Aと第2撮像部3Bは光学ズーム機能を有しており、倍率を制御して撮像することもできる。撮像部3は、撮像結果(撮像画像)を画像処理部55に出力する。
 画像処理部55は、撮像部3による撮像画像を処理し、例えば撮像画像の左右が反転した反転画像(鏡像画像)を生成する。また、画像処理部55は、撮像部3による撮像画像上の位置を示す図形(例、基準線、グリッド線)を含む画像を生成する。この画像は、例えば、反転画像に図形を付加した付加画像(後に図7に示す)である。また、画像処理部55は、撮像部3による撮像画像を処理し、例えば、上記の反転画像の一部を拡大した拡大画像(後に図9に示す)を生成する。例えば、画像処理部55は、反転画像からユーザが指定する領域(部分画像)を切り出し、切り出した領域を表示部4の画面2のサイズに整合するように拡大して、拡大画像を生成する。
 画像処理部55は、上記の反転画像、拡大画像、あるいは付加画像以外の画像を生成してもよく、例えば、撮像画像に対して色調あるいは明るさを調整(補正)した補正画像を生成してもよい。例えば、画像処理部55は、撮像画像に対して、肌の部分の色味を白くする処理、あるいは、肌の部分の色味を暖色化する処理、皺あるいはしみなどの部分を変更(例、消す、ぼかす)処理、肌のてかりあるいはくすみの部分を変更する処理等を行ってもよい。なお、画像処理部55による画像の処理を行うか否かは任意である。
 表示部4は、例えば液晶ディスプレイ等であり、各種情報を表示する。表示部4は、例えば、撮像部3の撮像結果に基づく画像、電子ミラー1を操作する際のメニュー画像、肌状態評価部56の評価結果を示す評価画像(後に図10に示す)を表示する。撮像部3の撮像結果に基づく画像は、例えば、第1撮像部3Aによる撮像画像、第2撮像部3Bによる撮像画像、撮像画像を画像処理部55が処理した画像、及び撮像画像に基づいて画像処理部55が生成した画像の少なくとも1つを含む。表示部4にはタッチセンサ35が設けられ、ユーザは、タッチセンサ35においてメニュー画像上の部分を触れることで、電子ミラー1に情報(例、指令)を入力可能である。
 表示制御部53は、表示部4を制御する。例えば、表示制御部53は、上記の反転画像のデータを表示部4に出力し、表示部4に反転画像を表示させる。表示制御部53は、撮像部3が繰り返し撮像を実行することに応じて、表示部4に表示させる画像を所定の時間間隔で更新し、表示部4は、ユーザUの画像を動画あるいはライブビューのようにリアルタイムで表示する。また、表示制御部53は、予め定められた設定あるいはユーザUの指令に応じて、表示部4に表示させる画像を選択(決定)する。例えば、表示制御部53は、ユーザUの指令に応じて、第1撮像部3Aの撮像結果に基づく画像と、第2撮像部3Bの撮像結果に基づく画像とのうち表示部4に表示させる画像を切り換える。
 図6は、第1撮像部の撮像結果に基づいて表示部に表示される画像を示す図である。表示制御部53は、ユーザUの指令に応じて、第1撮像部3Aの撮像結果に基づく画像(例、反転画像Im1)を表示部4に表示させる。表示部4には、第1撮像部3Aの撮像結果に基づいて、ユーザUを正面から見た反転画像Im1が表示される。ユーザUは、このような反転画像Im1を見ながら頬などの化粧を行うことができる。ユーザUは、表示部4に画像がリアルタイムで表示されるので、化粧の進行を確認しながら化粧を行うことができる。なお、第1撮像部3Aには、撮像対象を斜方から見た像を正面からみた図に補正するように光学系(例、煽りの光学系)が設けられてもよい。
 図7は、画像処理部に生成されて表示部に表示される画像を示す図である。表示制御部53は、ユーザの指令に応じて、付加画像Im2を表示部4に表示させる。付加画像Im2は、図6に示した反転画像Im1に図形(例、基準線L)を付加した画像である。基準線Lは、例えば、X方向およびY方向に所定の間隔で並ぶ方眼状の線(例、グリッド線)である。ユーザUは、付加画像Im2によって化粧を行う位置を確認し、所望の位置に化粧を行うことができる。
 なお、画像処理部55が付加する図形は、図7に示す方眼状の基準線Lに限定されず、他の形状でもよい。例えば、画像処理部55が付加する図形は、画像における左右方向の中心線を含んでもよいし、画像における上下方向における中心線を含んでもよい。また、画像処理部55は、ユーザUが指定した大きさおよび形状の図形(例、円、矩形)を付加してもよい。また、画像処理部55は、ユーザUが指定した位置あるいは領域(例、ほぼ、目元)に上記の図形(例、線、円、矩形)を付加してもよい。
 図8は、第2撮像部の撮像結果に基づいて表示部に表示される画像を示す図である。表示制御部53は、ユーザUの指令に応じて、第2撮像部3Bの撮像結果に基づく画像(例、反転画像Im3)を表示部4に表示させる。表示部4には、第2撮像部3Bの撮像結果に基づいて、ユーザUを下方から見た反転画像Im3が表示される。ユーザは、このような画像を見ながら目元などの化粧を行うことができる。例えば、ユーザは、反転画像Im3を見ることで、正面から見えにくい瞼の下など部分(例、図6の反転画像Im1に写りにくい部分)の化粧を行うことができる。ユーザUは、表示部4に画像がリアルタイムで表示させるので、化粧の進行を確認しながら化粧を行うことができる。
 図9は、画像処理部に生成されて表示部に表示される画像を示す図である。表示制御部53は、ユーザの指令に応じて、拡大画像Im4を表示部4に表示させる。拡大画像Im4は、図8に示した反転画像Im3の一部を拡大した画像である。ユーザUは、拡大画像Im4によって細部を確認しながら、化粧を行うことができる。
 なお、画像処理部55は、第1撮像部の撮像結果に基づいて拡大画像を生成することもできる。また、画像処理部55は、第1の画像処理が施された画像に対して第2の画像処理を施して、画像を生成することもできる。例えば、画像処理部55は、拡大画像に画像上の位置を示す図を付加した付加画像を生成することもできる。また、表示制御部53は、第1撮像部で撮像された画像と第2撮像部で撮像された画像の両方を同時に表示部4に表示することもできる。
 図5の説明に戻り、電子ミラー1は、化粧モードの他に静止画モードを有する。静止画モードにおいて、撮像制御部51は、レリーズスイッチ37が操作された際に、撮像部3に1枚の画像の撮像を実行させる。画像処理部55は、撮像部3が撮像した撮像画像の反転画像を生成し、記憶部43に反転画像のデータを記憶させる。表示制御部53は、記憶部43に記憶された反転画像のデータを表示部4に供給し、反転画像を表示部4に表示させる。表示制御部53は、1枚の反転画像を所定の期間にわたって表示させる。上記の所定の期間の長さは、予め定められた時間でもよいし、ユーザが表示の終了を指令するまでの時間でもよい。
 なお、電子ミラー1は、静止画モードにおいて取得した画像を表示部4に表示させなくてもよい。また、画像処理部55は、静止画モードにおいて撮像部3が撮像した画像について1種類以上の画像処理を行わなくてもよい。例えば、画像処理部55は、静止画モードにおいて撮像部3が撮像した画像の反転画像を生成しなくてもよい。
 音声操作部54は、音声入力部36に入力された音声に基づいて、この音声が示す指令を判別する。例えば、音声操作部54は、音声入力部36に入力された音声のパターンを参照情報と照合し、指令を判別する。この参照情報は、音声のパターンと指令とを関連付けた情報であり、記憶部43にあらかじめ記憶されている。音声操作部54は、判別した指令をその内容に応じて、実行する制御部(撮像制御部51、照明制御部52、又は表示制御部53)に伝える。例えば、音声操作部54は、表示の切り替えを要求する音声が音声入力部36に入力されたと判定した場合、この音声に対応する指令を表示制御部53に伝え、表示制御部53は、この指令を実行する。
 肌状態検出部47は、肌の状態を検出する。肌状態検出部47は、例えば、筐体5と独立したモジュール(ユニット)である。肌状態検出部47は、例えば、肌の角質層における水分量、肌の油分、肌のきめの細かさ、及び肌の色を検出する。肌状態検出部47は、例えば、水分検出センサ、及び撮像素子を備える。肌状態検出部47は、例えば、水分検出センサにより、肌の角質層における水分を検出する。肌状態検出部47は、例えば、撮像素子により取得した肌の画像を処理することにより、肌の油分、肌のきめの細かさ、及び肌の色を検出する。肌状態検出部47の検出結果は、検出が実行された日付と関連付けられて、記憶部43に記憶(保存)される。肌状態検出部47の検出結果は、撮像部3の撮像結果と関連付けられて、記憶部43に記憶(保存)されてもよい。
 肌状態評価部56は、肌状態検出部47の検出結果に基づいて、肌の状態を評価する。肌状態評価部56は、記憶部43から肌状態検出部47の検出結果を読み出し、肌の状態を評価する。肌状態評価部56の評価結果は、肌状態検出部47が肌の状態を検出した日付と関連付けられて、記憶部43に記憶(保存)される。肌状態評価部56の評価結果は、撮像部3の撮像結果と関連付けられて、記憶部43に記憶(保存)されてもよい。
 肌状態評価部56は、例えば、肌の水分、肌の油分、肌年齢、及び肌の美白度を評価する。例えば、肌状態評価部56は、肌状態検出部47が検出した肌のきめ細かさの結果を用いて、肌年齢を求める。例えば、肌状態評価部56は、肌状態検出部47が検出した肌のきめ細かさの結果と、記憶部43に予め記憶された各年齢における肌のきめの細かさの情報と照合することにより、肌年齢をもとめる。肌状態評価部56は、例えば、肌状態検出部47の検出結果と記憶部43に記憶された情報とを、ユークリッド距離などの近似度を使って照合する。
 なお、肌状態評価部56は、ユーザUにより予め入力されるユーザUの年齢、生理周期の情報(ユーザUのプロファイル情報)を用いて、肌年齢を求めてもよい。ユーザUの年齢、生理周期の情報を使って、肌年齢を求める場合、精度よく肌年齢を求めることができる。また、肌状態評価部56の少なくとも一部は、筐体5の外部に設けられてもよく、例えば肌状態検出部47と同じモジュール(ユニット)に設けられてもよい。
 また、肌状態評価部56は、肌状態検出部47が検出した肌の色の結果に基づいて、肌の美白度を求める。肌状態評価部56は、例えば、肌状態検出部47が検出した肌の色の結果を、記憶部43に予め記憶された日本人の肌の色の平均を50とした肌の色の情報に照合して、肌の色を数値化し、肌の色の数値が低いほど肌の美白度が高いとする。
 表示制御部53は、肌状態評価部56の評価結果を表す画像を表示部4に表示させる。図10(A)及び(B)は、肌状態評価部56による評価結果を表す画像を示す図である。図10(A)に示す画像(評価画像Im5)は、肌の状態が検出された日時ごとの評価結果をシートSxに表し、複数のシートSxを並べた画像である。評価結果は、各項目の数値で表されてもよいし、各項目の数値を複数のレベル(例、「良」、「普通」)などで表されてもよい。ユーザUは、シートを選択することで、データが存在する所望の日時における評価結果を見ることができる。なお、上述の態様では、肌状態検出部47として筐体5と独立したモジュール(ユニット)を用い、肌状態を評価する場合について述べたが、これに限られない。例えば、撮像部3が撮像した画像データのみに基づいて、肌状態評価部56がユーザの肌状態を評価してもよい。
 また、肌状態評価部56は、肌の水分、肌の油分、肌年齢、及び肌の美白度を、日時が異なる複数の評価結果で比較することができる。図10(B)に示す画像(評価画像Im6)は、肌の状態の評価結果の履歴をグラフで表した画像である。ユーザUは、図10(B)の画像を見ることによって、肌の状態の時間変化を知ることができる。図10(B)には、グラフの一例として折れ線グラフを示したが、このグラフは、レーダーチャートなどでもよいし、棒グラフでもよい。
 図5の説明に戻り、通信部44は、電子ミラー1の外部と有線または無線によって通信可能に接続される。通信部44は、例えば、Wi-Fi等のように無線によってネットワーク接続を行う通信デバイスである。電子ミラー1は、記憶部43に記憶された情報を、通信部44を介して他の装置へ転送することができる。他の装置は、スマートフォン、携帯電話、タブレット、時計などの携帯端末でもよいし、据え置き型のコンピュータでもよく、クラウドなどでもよい。例えば、電子ミラー1は、ユーザUの指令に応じてユーザUの携帯端末へ画像を送信し、ユーザUは、電子ミラー1で取得した画像を携帯端末で見ることができる。また、電子ミラー1は、ユーザUの指令に応じて、SNS(ソーシャルネットワーキングサービス)等へ画像を送信(投稿)することもできる。
 通信部44は、例えば、撮像部3による撮像画像、あるいは画像処理部55が撮像画像を処理した画像を送信する。例えば、通信部44は、静止画モードにおいて取得された画像、あるいはこの画像を加工した画像を記憶部43から読み出して送信する。また、通信部44は、例えば、肌状態検出部47の検出結果に基づく情報を外部と通信する。例えば、通信部44は、肌状態評価部56の評価結果を表す画像を送信する。
 また、電子ミラー1は、通信部44を介して、日付及び時刻情報をインターネットなどから取得することができる。なお、電子ミラー1は、通信部44に代えて、Bluetooth(登録商標)、あるいは赤外線通信などにより、他の携帯端末あるいはコンピュータ装置と接続し、データ通信を行ってもよい。なお、電子ミラー1は、通信部44を備えなくてもよい。
 電子ミラー1は、例えば、CPU、メインメモリ等を備えるコンピュータを含む。このコンピュータは、記憶部43に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。上記のプログラムは、コンピュータを、電子ミラー1の各種の制御を行う制御部41(撮像制御部51、照明制御部52、表示制御部53、音声操作部54)として機能させる。また、上記のプログラムは、コンピュータを、電子ミラー1の各種の処理を行う処理部42(画像処理部55、肌状態評価部56)として機能させる。上記プログラムは、光学ディスクなどの記録媒体(記憶媒体)に記録されて提供されてもよい。
 なお、制御部41及び処理部42の少なくとも一部は、論理回路(ハードウエア)で構成されてもよい。例えば、画像処理部55は、ISP(イメージシグナルプロセッサ)などでもよい。この場合、リアルタイムで画像を表示させる際に、処理の高速化によって遅延の発生を抑制することができる。
 次に、電子ミラー1の動作を説明する。なお、以下の電子ミラー1の動作の説明において、適宜、図1から図9を参照する。ユーザUは、電子ミラー1を化粧モードで使用する際、図1に示すように、電子ミラー1の正面側(-Y側)に顔を配置する。続いて、光検出部22は、電子ミラー1が設置場所における環境光の輝度及び色温度を検出する。続いて、照明制御部52は、光検出部22の検出結果に基づいて照明部21を制御し、照明部21から照明光を照射させる。
 また、撮像制御部51は、調整された照明光が撮像対象(ユーザUの顔)に照射されている状態で、撮像部3に撮像を実行させる。撮像制御部51は、光検出部22の検出結果に基づいて、撮像部3の撮像条件(例、シャッタ速度、露出)を決定してもよい。この場合、撮像制御部51は、撮像部3の撮像条件を精度よく設定することができる。
 続いて、撮像部3は、照明部21によって調整された照明光によって照明されているユーザUの顔を撮像する。例えば、第1撮像部3Aは、ユーザUの指令に応じて、ユーザUの顔を水平方向にユーザUの正面から撮像する。また、第2撮像部3Bは、ユーザの指令に応じて、ユーザUの顔の下方から上方に向けて、ユーザUの目元が画像の中心に位置するようにユーザUの顔を撮像する。画像処理部55は、撮像部3の撮像結果を処理し、表示部4は、画像処理部55が処理した画像をリアルタイムで表示する。
 本実施形態において、光検出部22は、環境光の輝度及び色温度を検出するので、照明部21は、照明光の輝度及び色温度を精度よく調整することができる。そして、照明光および環境光の合成光が太陽光と類似するように調整されるので、表示部4に表示される画像は、太陽光で照明されている状態と化粧の映えが同様になり、ユーザUは、所望の照明状態における化粧の映えなどを確認することができる。
[第2実施形態]
 第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図11および図12は、本実施形態に係る電子ミラーを示す図である。図11は、電子ミラーを+X側から見た側面図である。図12は、-Y側から見た正面図である。本実施形態の電子ミラー1は、筐体5、第1支持部6、及び照明部21が第1実施形態と異なる。
 本実施形態の筐体5は、図11に示すように、直方体状(矩形板状)である。また、図12に示すように、第1支持部6は、ヒンジ部材57を介して筐体5と接続される。第1支持部6は、直方体状である。第1支持部6は、X方向と平行な軸の周りで回転可能であり、筐体5を所定の姿勢で保持することができる。例えば、第1支持部6は、筐体5を鉛直方向と平行な姿勢で保持することもできるし、筐体5を鉛直方向に対して傾いた姿勢で保持することもできる。
 また、第1支持部6は、筐体5に近づけるようにヒンジ部材57の軸の周りで回転させることにより、筐体5と重なるように折り畳むことができる。第1支持部6の側方には、電源入力端子45、及び入出力IF25が配置される。電源入力端子45及び入出力IF25が第1支持部6に配置されるので、筐体5をコンパクトにすることができる。本実施形態の照明部21は、図11に示すように、4つの光源31を備える。光源31は、表示部4の左右の両側(+X側及び-X側)に、2個ずつ配置される。
 以上のように、本実施形態の電子ミラー1は、内部に物品を収容可能な第1支持部6を備えるので、筐体5をコンパクトにすることができる。
 なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
 1・・・電子ミラー、2・・・画面、3A・・・第1撮像部、3B・・・第2撮像部、4・・・表示部、5・・・筐体、6・・・第1支持部、L・・・基準線(図形)、21・・・照明部、22・・・光検出部、36・・・音声入力部、47・・・肌状態検出部、55・・・画像処理部

Claims (21)

  1.  撮像結果に基づいて画像を表示する電子ミラーであって、
     第1撮像部、及び前記第1撮像部から所定方向に離れて配置される第2撮像部を含む撮像部と、
     前記第1撮像部と前記第2撮像部との間に配置され、前記所定方向に長手の画面を有し、前記撮像部の撮像結果に基づいて画像を表示する表示部と、を備える電子ミラー。
  2.  前記撮像部および前記表示部を保持する筐体と、
     前記筐体を下方から支持する第1支持部と、を備え、
     前記第1撮像部は、前記所定方向において、前記第1支持部に対して前記第2撮像部よりも離れた位置に配置される、請求項1に記載の電子ミラー。
  3.  前記筐体または前記第1支持部に設けられ、外部からの入力を受け付ける入力部を備える請求項2に記載の電子ミラー。
  4.  前記入力部は、前記画面上に配置されるタッチセンサを含む、請求項3に記載の電子ミラー。
  5.  前記入力部は、外部から音声が入力される音声入力部を含む、請求項3または請求項4に記載の電子ミラー。
  6.  前記筐体において前記画面と同じ側または前記画面の側方に設けられ、音声を出力する音声出力部を備える請求項3から請求項5のいずれか一項に記載の電子ミラー。
  7.  前記筐体または前記第1支持部に設けられ、外部と接続するインターフェースを備える請求項3から請求項6のいずれか一項に記載の電子ミラー。
  8.  前記撮像部および前記表示部を保持する筐体を備え、
     前記第1撮像部は、前記筐体を上方から支持する第2支持部に対して、前記所定方向において前記第2撮像部よりも近い位置に配置される、請求項1から請求項7のいずれか一項に記載の電子ミラー。
  9.  前記第1撮像部の撮像結果に基づく画像と、前記第2撮像部の撮像結果に基づく画像とのうち前記表示部に表示させる画像を切り換える表示制御部を備える請求項1から請求項8のいずれか一項に記載の電子ミラー。
  10.  前記表示部に対して前記所定方向の交差方向に配置される照明部を備える請求項1から請求項9のいずれか一項に記載の電子ミラー。
  11.  前記照明部は、前記表示部に対して前記交差方向の両側に設けられる請求項10に記載の電子ミラー。
  12.  前記撮像部の撮像対象を照らす環境光を検出する光検出部と、
     前記光検出部の検出結果に基づいて前記照明部を制御する照明制御部と、を備える、請求項10または請求項11に記載の電子ミラー。
  13.  前記照明制御部は、前記環境光および前記照明部が照射する照明光による照明状態が所定の条件を満たすように、前記照明部を制御する、請求項12に記載の電子ミラー。
  14.  前記光検出部は、前記環境光の輝度および色温度を検出し、
     前記照明制御部は、前記撮像部の撮像対象の照明状態を太陽光に照らされる状態に近づけるように、前記照明部が照射する照明光の輝度および色温度を制御する、請求項13に記載の電子ミラー。
  15.  前記撮像部が撮像した画像を処理する画像処理部を備え、
     前記表示部は、前記画像処理部が処理した画像を表示する、請求項1から請求項14のいずれか一項に記載の電子ミラー。
  16.  前記画像処理部は、前記撮像部が撮像した画像上の位置を示す図形を含む画像を生成し、
     前記表示部は、前記画像処理部が生成した画像を表示する、請求項15に記載の電子ミラー。
  17.  前記撮像部の撮像結果に基づく情報を外部と通信する通信部を備える請求項1から請求項16のいずれか一項に記載の電子ミラー。
  18.  ユーザの肌の状態を検出する肌状態検出部を備える請求項1から請求項17のいずれか一項に記載の電子ミラー。
  19.  前記肌状態検出部は、前記肌の状態として、肌の水分、肌の油分、肌のキメ、及び肌の色のうち少なくとも1つを検出する、請求項18に記載の電子ミラー。
  20.  前記肌状態検出部の検出結果を記憶する記憶部を備え、
     前記表示部は、前記肌状態検出部が検出した前記肌の状態の履歴を表す画像を表示する、請求項18または請求項19のいずれか一項に記載の電子ミラー。
  21.  前記肌状態検出部の検出結果に基づく情報を外部と通信する通信部を備える請求項18から請求項20のいずれか一項に記載の電子ミラー。
PCT/JP2018/019922 2017-11-10 2018-05-24 電子ミラー WO2019092906A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017216970 2017-11-10
JP2017-216970 2017-11-10

Publications (1)

Publication Number Publication Date
WO2019092906A1 true WO2019092906A1 (ja) 2019-05-16

Family

ID=66437615

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019922 WO2019092906A1 (ja) 2017-11-10 2018-05-24 電子ミラー

Country Status (1)

Country Link
WO (1) WO2019092906A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015308A (ja) * 2007-06-08 2009-01-22 Nikon Corp カメラおよびカメラシステム
JP2014157428A (ja) * 2013-02-14 2014-08-28 Panasonic Corp 画像表示装置、画像表示方法、及び、プログラム
JP2014238442A (ja) * 2013-06-06 2014-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 撮像表示装置
JP2016112024A (ja) * 2013-08-08 2016-06-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置の制御方法および画像処理方法
JP2016136710A (ja) * 2014-05-16 2016-07-28 パナソニックIpマネジメント株式会社 画像撮影表示装置および画像撮影表示装置の動作方法
JP2017173455A (ja) * 2016-03-22 2017-09-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6219456B1 (ja) * 2016-07-20 2017-10-25 株式会社日本ビデオシステム ビデオカメラから色温度制御ができるビデオ撮影用照明

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015308A (ja) * 2007-06-08 2009-01-22 Nikon Corp カメラおよびカメラシステム
JP2014157428A (ja) * 2013-02-14 2014-08-28 Panasonic Corp 画像表示装置、画像表示方法、及び、プログラム
JP2014238442A (ja) * 2013-06-06 2014-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 撮像表示装置
JP2016112024A (ja) * 2013-08-08 2016-06-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置の制御方法および画像処理方法
JP2016136710A (ja) * 2014-05-16 2016-07-28 パナソニックIpマネジメント株式会社 画像撮影表示装置および画像撮影表示装置の動作方法
JP2017173455A (ja) * 2016-03-22 2017-09-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6219456B1 (ja) * 2016-07-20 2017-10-25 株式会社日本ビデオシステム ビデオカメラから色温度制御ができるビデオ撮影用照明

Similar Documents

Publication Publication Date Title
EP3005682B1 (en) Manipulation of virtual object in augmented reality via intent
US10617301B2 (en) Information processing device and information processing method
AU2014275189B2 (en) Manipulation of virtual object in augmented reality via thought
CN108700934A (zh) 能够进行眼睛追踪的可穿戴设备
KR20160128119A (ko) 이동 단말기 및 이의 제어방법
JP5879562B2 (ja) カメラ付きミラー装置、ミラー付き什器
US10855925B2 (en) Information processing device, information processing method, and program
JP2014535096A (ja) 視覚ベースの対話式投影システム
JPWO2014125831A1 (ja) 電子ミラー装置
KR20150018125A (ko) 전자 디바이스 및 전자 디바이스와 통신하는 단말기
KR102667064B1 (ko) 전자 장치 및 이를 이용한 카메라 기능과 연동하여 이모지 편집을 위한 사용자 인터페이스를 제공하는 방법
JPWO2015049866A1 (ja) インターフェース装置、モジュール、制御部品、制御方法およびコンピュータプログラム
TWM538349U (zh) 鏡面設備及其系統
WO2019092906A1 (ja) 電子ミラー
US20230205271A1 (en) Housing Structures and Input-Output Devices For Electronic Devices
CN112612387A (zh) 展示信息的方法、装置、设备及存储介质
KR102093666B1 (ko) 발광 밀러를 이용한 피부분석에 의한 스킨케어와 색조화장 정보제공 방법 및 시스템
JP3205814U (ja) リアルタイム映像伝送の携帯型ミラーの構造
KR20190074479A (ko) 피부분석용 발광 밀러 및 피부분석용 발광 밀러의 전원 제어방법
US11161048B2 (en) Interactive table covering device and electronic interactive table system
JP2023522235A (ja) 光ベース体毛除去を行うように構成されている個人用ケアデバイス
JP2001133728A5 (ja)
KR20200046417A (ko) 보정 이미지 기반 아바타 생성 방법 및 장치
CN113631094A (zh) 身心状态的判定系统、判定装置、方法及计算机程序
JP3201596U (ja) 操作入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18875990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18875990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP