WO2018025625A1 - 光学装置および情報処理方法 - Google Patents

光学装置および情報処理方法 Download PDF

Info

Publication number
WO2018025625A1
WO2018025625A1 PCT/JP2017/025893 JP2017025893W WO2018025625A1 WO 2018025625 A1 WO2018025625 A1 WO 2018025625A1 JP 2017025893 W JP2017025893 W JP 2017025893W WO 2018025625 A1 WO2018025625 A1 WO 2018025625A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
light
posture
subject
image
Prior art date
Application number
PCT/JP2017/025893
Other languages
English (en)
French (fr)
Inventor
中村 憲一郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2018025625A1 publication Critical patent/WO2018025625A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light

Definitions

  • the present technology relates to an optical device and an information processing method, and more particularly, to an optical device and an information processing method capable of controlling the posture more easily.
  • This technology has been proposed in view of such circumstances, and aims to more easily control the posture.
  • An optical device includes an irradiation unit that irradiates light to a subject, an imaging unit that captures a predetermined range including a portion of the subject irradiated with the light by the irradiation unit, And a display unit that superimposes and displays an image indicating a target shape of the light emitted to the subject by the irradiation unit on a captured image obtained by imaging the subject by the imaging unit.
  • the image showing the target shape of the light may be an image showing an outer frame of the target shape.
  • the image showing the target shape of the light can be an image showing each vertex of the target shape.
  • the image showing the target shape of the light may be an image in which the transmittance of the region outside the target shape is lower than the transmittance of the region inside the target shape.
  • An information processing method is an image obtained by irradiating a subject with light, imaging a predetermined range including a portion of the subject irradiated with the light, and imaging the subject.
  • an image indicating a target shape of the light emitted to the subject is superimposed on an image and displayed.
  • An optical device includes an irradiation unit that irradiates light to a subject, an imaging unit that images a predetermined range of the subject including a portion irradiated with the light by the irradiation unit,
  • An optical apparatus comprising: a setting unit that sets information related to a posture with respect to the subject based on a captured image obtained by imaging the subject by the imaging unit.
  • the information on the posture may be information on a deviation between the target posture and the actual posture.
  • the information on the deviation may include at least one of the direction of the deviation and the amount of the deviation.
  • a notification unit for notifying information on the posture can be further provided.
  • the notification unit can notify information on the posture by sound, vibration, or an image.
  • the analyzer further includes an analysis unit that analyzes a deviation between the target posture and the actual posture, and the setting unit analyzes the target posture and the actual posture analyzed by the analysis unit. It may be configured to set information regarding a deviation from the posture.
  • the analysis unit can analyze at least one of the direction of displacement and the amount of displacement.
  • a correction unit that performs correction related to the imaging can be further provided based on the analysis result by the analysis unit.
  • the correction unit can correct the direction of imaging by the imaging unit or the captured image.
  • a convex part formed so as to protrude forward from the irradiation part and the imaging part can be further provided.
  • An information processing method is obtained by irradiating a subject with light, capturing a predetermined range of the subject including a portion irradiated with the light, and capturing the subject
  • This is an information processing method for setting information related to the posture of the subject based on a captured image.
  • a subject is irradiated with light, a predetermined range including a portion of the subject irradiated with the light is captured, and a captured image obtained by capturing the subject is An image indicating the target shape of the light irradiated on the subject is displayed superimposed.
  • a subject is irradiated with light, a predetermined range of the subject including a portion irradiated with the light is captured, and the captured image obtained by capturing the subject is captured. Based on this, information on the posture with respect to the subject is set.
  • information processing using light can be performed. Further, according to the present technology, the posture can be controlled more easily.
  • FIG. 1 It is a figure which shows the example of the external appearance of a measuring apparatus. It is a figure which shows the example of the external appearance of a measurement probe. It is a block diagram which shows the main structural examples of a measuring apparatus. It is a figure which shows the example of the suitable attitude
  • FIG. 20 is a block diagram illustrating a main configuration example of a computer.
  • First embodiment (measuring device: superimposed display) 2.
  • Second embodiment (measuring device: notification of information on posture) 3.
  • Third embodiment (measuring device: control based on posture information) 4).
  • First Embodiment> ⁇ Attitude control of measuring device>
  • a biological information measuring device that optically measures biological information
  • a biological information measuring device that measures the intensity of fluorescence excited by a fluorescent substance such as AGEs (Advanced Glycation Endproducts) by irradiating the skin with ultraviolet light
  • correct measurement is possible if the fluorescent sensor is not at an angle to face the skin. It becomes difficult to do.
  • the distance between the sensor and the skin changes, the measured value is directly affected, so it is important to keep the distance between the sensor and the skin constant.
  • the two-point discrimination threshold in human skin is the fingertip Except for the part where sensory nerves are concentrated, it is generally several centimeters or more, and it is virtually impossible to perceive the contact state of a plurality of protrusions in a narrow region at the tip of the measurement probe.
  • a device that detects a contact state electrically by providing a contact sensor may increase cost and failure rate due to an increase in the number of components.
  • ⁇ Measurement device> Therefore, the subject is irradiated with light, a predetermined range including the portion irradiated with the light is imaged, and an image indicating the target shape of the light irradiated on the subject is superimposed on the captured image and displayed. To do.
  • FIG. 1 is a block diagram illustrating a main configuration example of a measurement apparatus which is an embodiment of an optical apparatus to which the present technology is applied.
  • the measurement apparatus 100 shown in FIG. 1 measures a predetermined measurement target parameter such as a predetermined substance or a predetermined component with respect to the measurement target object.
  • the measuring apparatus 100 can use a human body (skin) or the like as a measurement target object, and can use an index related to the terminal glycation products (AGEs) contained in the human body as a measurement target parameter.
  • AGEs terminal glycation products
  • the measuring device 100 includes a measuring probe 101 and a display device 103.
  • the measurement probe 101 and the display device 103 are connected to each other via a cable 102 (in a state where information can be exchanged).
  • the measurement probe 101 is a device that performs measurement.
  • the measurement probe 101 uses a human body (skin) or the like positioned in front of a predetermined surface 101A as a measurement target object, and uses an index or the like related to terminal glycation products (AGEs) contained in the human body (skin) as a measurement target parameter.
  • the measurement target parameter can be measured.
  • the measurement probe 101 includes, for example, an image sensor 111, a light emitting unit 112, a light shielding member 113, and a guide 114 on a predetermined surface 101A.
  • the image sensor 111 photoelectrically converts light from the measurement target object in front of the surface 101A to obtain image data. That is, the image sensor 111 is an embodiment of an imaging unit that images a subject. The captured image obtained by being imaged by the image sensor 111 is used for, for example, calculation of a measurement result, posture control of the measurement probe 101, and the like.
  • the light emitting unit 112 emits light emitted to the measurement target object located in front of the surface 101A (to a part or all of the measurement target object within the imaging range of the image sensor 111). That is, the light emitting unit 112 is an embodiment of an irradiating unit that irradiates light onto a subject imaged by the image sensor.
  • the light shielding member 113 is configured to limit the range irradiated with the light emitted from the light emitting unit 112.
  • the guide 114 is a configuration for assisting in bringing the position and posture of the measurement probe 101 (the configuration of the measurement probe 101 such as the image sensor 111 and the light emitting unit 112) with respect to the measurement target object into an appropriate state.
  • the display device 103 has a monitor 121.
  • the monitor 121 displays image information such as a captured image obtained by the measurement probe 101. That is, the monitor 121 is an embodiment of a display unit that displays an image.
  • ⁇ Measurement probe> 2A is an external view of the measurement probe 101 viewed from the surface 101A side.
  • an image sensor 111 is formed in the vicinity of the center, and light emitting units 112-1 to 112-4 are formed in the periphery thereof.
  • a light shielding member 113 is formed so as to surround, and a guide 114 is formed on the outermost periphery.
  • the irradiation range of the light irradiated from the light emitting unit 112 to the human body 130 is limited to the range 131 by the light shielding member 113.
  • the light shielding member 113 is formed as a wall-shaped member so as to surround the light emitting portion 112 (the light emitting portions 112-1 to 112-4) in a square shape. ing. Therefore, ideally, the light emitted from the light emitting unit 112 is applied to the human body 130 in a square shape.
  • the image sensor 111 images a predetermined range 132 of the human body 130 that includes the entire range 131. That is, an imaged image of the region (for example, the range 132) including the region (for example, the range 131) irradiated with the light emitted from the light emitting unit 112 of the human body 130 is obtained by the image sensor 111.
  • the specifications of the image sensor 111, the light emitting unit 112, and the light shielding member 113 are arbitrary.
  • the type (kind) of the image sensor 111 is arbitrary.
  • the image sensor 111 may be constituted by a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a CCD (Charge Coupled Device) image sensor, or any other arbitrary one. You may make it comprise with an image sensor.
  • the position and shape of the image sensor 111 are arbitrary, and are not limited to the examples of FIGS.
  • the image sensor 111 may protrude larger than the light emitting unit 112 from the surface 101A. Further, a wide-angle lens may be used for the light receiving part of the image sensor 111 to widen the imaging range.
  • the number of image sensors and the number of pixels constituting the image sensor 111 are arbitrary.
  • the image sensor 111 may be configured by a single image sensor or may be configured by a plurality of image sensors. That is, there may be a plurality of light receiving units that receive light from the human body 130.
  • an image sensor that performs imaging for obtaining a captured image used for calculation of the measurement result and an image sensor that performs imaging for obtaining a captured image used for attitude control of the measurement probe 101 are provided. It may be.
  • the light emitting unit 112 may be configured by an LED (Light Emitting Diode), or may be configured by another type of light emitting device such as a fluorescent lamp.
  • the shape of the light emitting unit 112 and the irradiation direction of the emitted light are arbitrary.
  • the number of light emitting devices constituting the light emitting unit 112 is arbitrary, and may be singular or plural as in the example of A of FIG. That is, the light emitting unit 112 may emit a single light or a plurality of lights.
  • the wavelength of light emitted from the light emitting unit 112 is arbitrary. For example, visible light may be used, and ultraviolet light or infrared light may be used. Further, the wavelength of this light may be variable.
  • the light emitting unit 112 when configured by a plurality of light emitting devices, all the light emitting devices may emit light having the same wavelength, or some or all of the light emitting devices may emit light having different wavelengths from others. You may make it light-emit.
  • a plurality of light emitting devices that emit light having different wavelengths are provided as the light emitting unit 112, and the light emitting unit 112 is used as a light source for posture estimation and a case where it is used as a light source for measuring a measurement target parameter.
  • the light emitting device to be used that is, the wavelength of light to be irradiated
  • the wavelength of light to be irradiated may be switched.
  • the shape, number, position, material, and how the light shielding member 113 limits the light irradiation range of the light shielding member 113 are all arbitrary, and are not limited to the examples of FIGS.
  • the light emitted from the light emitting unit 112 may be applied to any shape other than a quadrangle (rectangle) such as a triangle or a circle.
  • a quadrangle rectangle
  • the irradiation range into a shape including a parallel straight line such as a rectangle, it becomes easier to identify the shape change of the irradiation range due to the change in the posture of the measurement probe 101, and the posture control becomes easier.
  • the light shielding member 113 may be integrated with the light emitting unit 112, and the emission direction of the emitted light in the light emitting unit 112 may be limited in the same manner as in the case where the light shielding member 113 is provided.
  • the guide 114 is a convex part formed so as to protrude from the surface 101A (forward) larger than the image sensor 111, the light emitting part 112, and the light shielding member 113.
  • the guide 114 has an appropriate approximate distance from the measurement probe 101 (the image sensor 111, the light emitting unit 112, etc.) to the human body 130 in a state in which the human body 130 is in contact with the most protruding part of the guide 114 from the surface 101A. It is made like that. Note that the shape, number, position, material, and the like of this guide 114 are all arbitrary. Further, this guide 114 may be omitted. However, the provision of the guide 114 makes it easier to control the position and orientation of the measurement probe 101.
  • ⁇ Attitude control> The user places the measurement probe 101 of the measurement apparatus 100 in a predetermined posture (including position) with respect to the human body (skin) that is the measurement target object.
  • the measurement probe 101 images a human body (skin) and measures a measurement target parameter from the captured image.
  • the user controls the posture of the measurement probe 101 and keeps it in an appropriate state so that a highly reliable measurement result can be obtained.
  • the measurement probe 101 emits light from the light emitting unit 112, and the image sensor 111 images a region of the human body (skin) including a region irradiated with light emitted from the light emitting unit 112. .
  • the monitor 121 of the display device 103 irradiates the human body (skin) with, for example, this captured image (that is, the shape of the region of the human body (skin) where the light emitted by the light emitting unit 112 is actually irradiated).
  • An image indicating a target shape of light (a target shape of a region of the human body (skin) irradiated with light emitted from the light emitting unit 112) is superimposed and displayed. That is, the user can more easily grasp the difference (displacement) between the actual shape of the human body (skin) and the region irradiated with the light emitted from the light emitting unit 112 and the target shape. .
  • This deviation is caused by a deviation between the actual posture of the measurement probe 101 and the target posture. That is, the user can more easily adjust the actual shape of the region of the human body (skin) irradiated with the light emitted from the light emitting unit 112 to the target shape based on this image.
  • the attitude can be controlled. That is, the posture can be controlled more easily.
  • FIG. 3 is a block diagram illustrating an internal configuration example of the measurement apparatus 100.
  • the measurement apparatus 100 includes a control unit 151, a light irradiation unit 161, an imaging unit 162, an acceleration sensor 163, an image processing unit 164, a display unit 165, a measurement unit 166, and an output unit 167.
  • Each of these processing units may be formed on the measurement probe 101 of the measurement device 100 or may be formed on the display device 103.
  • the control unit 151 performs processing related to control of each processing unit of the measuring apparatus 100.
  • the light irradiation unit 161 performs processing related to light irradiation, for example.
  • the light irradiation unit 161 controls the light emitting unit 112 to turn on (emit light) or turn off.
  • the imaging unit 162 performs processing related to imaging of the subject.
  • the imaging unit 162 controls the image sensor 111 to capture an image of a subject (human body 130 (skin)) and obtain captured image data (captured image data).
  • the imaging unit 162 supplies the obtained captured image data to the image processing unit 164 and the measurement unit 166.
  • the acceleration sensor 163 is composed of, for example, a gyro sensor and detects the posture of the measurement probe 101 or a change in the posture.
  • the acceleration sensor 163 supplies the detection result to the image processing unit 164.
  • the image processing unit 164 synthesizes the captured image supplied from the imaging unit 162 so as to superimpose an image indicating the target shape of light irradiated on the human body (skin).
  • the image processing unit 164 supplies the composite image to the display unit 165. Further, the image processing unit 164 identifies the posture of the measurement probe 101 based on the detection result (information on the posture of the measurement probe 101 or a change in the posture) supplied from the acceleration sensor 163, and is necessary based on the posture. If so, the display direction of the captured image can be updated.
  • the image processing unit 164 can control the orientation of the captured image displayed on the monitor 121 according to the detection result of the acceleration sensor 163 to the orientation corresponding to the current posture of the measurement probe 101.
  • the vertical direction or horizontal direction in the captured image supplied from the imaging unit 162 may differ from the vertical direction or horizontal direction outside the captured image depending on the posture of the measurement probe 101.
  • the vertical direction in the captured image may be reversed from the vertical direction outside the captured image (real world).
  • the image processing unit 164 may update the orientation of the captured image so that the vertical direction and the horizontal direction in the captured image match the real world.
  • the display unit 165 controls the monitor 121 and performs processing related to image display on the monitor 121.
  • the display unit 165 can display the composite image supplied from the image processing unit 164 on the monitor 121.
  • the measurement unit 166 uses the captured image supplied from the imaging unit 162 to perform processing related to the measurement of the measurement target parameter. For example, the measurement unit 166 can measure an index related to terminal glycation products (AGEs) contained in the human body using a captured image of the human body 130. The measurement unit 166 supplies data indicating the measurement result to the output unit 167.
  • AGEs terminal glycation products
  • the output unit 167 includes, for example, an external output terminal, an output device, or a communication device, and performs processing related to output of data indicating the measurement result supplied from the measurement unit 166.
  • the output unit 167 performs processing related to supplying the measurement result to the outside (for example, another device).
  • FIG. 4 is a diagram illustrating an example when the measurement probe 101 is in an appropriate posture.
  • the measurement probe 101 in this case is in a state in which the human body 130 is in contact with the entire portion of the guide 114 that protrudes most from the surface 101A.
  • FIG. 4B in this case, the entire portion of the guide 114 that protrudes most from the surface 101A is in contact with the human body 130 uniformly (without deviation).
  • FIG. 4C is a diagram illustrating an example of an image displayed on the monitor 121. As shown in FIG.
  • the monitor 121 displays a composite image in which the captured image 171 and the image 173 indicating the target shape of the light irradiated on the human body 130 are combined.
  • a region 172 of the captured image 171 is a region of the human body 130 where light emitted from the light emitting unit 112 is actually irradiated.
  • the image 173 shows the outer frame of the target shape of the light irradiated on the human body 130 by dotted lines.
  • the image 173 matches the shape (outer frame) of the region 172. That is, the area where light is actually irradiated matches the target shape.
  • the posture of the measurement probe 101 in this state with respect to the measurement target object (human body 130) is an appropriate posture, and the measurement probe 101 can obtain an appropriate measurement result by performing measurement in this posture.
  • FIG. 5 is a diagram illustrating an example in which the measurement probe 101 is too close to the human body 130 as compared to the case of FIG. As shown in FIG. 5A and FIG. 5B, in this case, the most protruding portion of the guide 114 as seen from the surface 101A is buried in the human body 130, and the human body is equivalently removed from the image sensor 111 and the light emitting unit 112. The distance to 130 is shortened. That is, in the state of FIG. 5, the measurement probe 101 is too close to the human body 130, and in this state, the measurement probe 101 may not be able to obtain an appropriate measurement result.
  • the region 172 where the light included in the captured image 171 is actually irradiated is irradiated with the image 173 (that is, the human body 130). Wider than the target shape of light). Therefore, the user can more easily grasp that the measurement probe 101 is too close to the human body 130 based on the magnitude relationship between the region 172 and the image 173 in such a display image.
  • the posture of the measurement probe 101 may be brought close to the state shown in FIG. 4 (that is, an appropriate state). By checking the image displayed on the monitor 121, the user can more easily control the posture of the measurement probe 101 to approach the state shown in FIG. 4 (ie, an appropriate state).
  • FIG. 6 is a diagram illustrating an example in which the measurement probe 101 is too far from the human body 130 as compared to the case of FIG. As shown in FIG. 6A and FIG. 6B, in this case, the most protruding portion of the guide 114 as viewed from the surface 101A is away from the human body 130, and the human body is separated from the image sensor 111 and the light emitting unit 112 accordingly. The distance to 130 is longer. That is, in the state of FIG. 6, the measurement probe 101 is too far from the human body 130, and in this state, there is a possibility that the measurement probe 101 cannot obtain an appropriate measurement result.
  • the region 172 where the light included in the captured image 171 is actually irradiated is irradiated with the image 173 (that is, the human body 130). It becomes narrower than the target shape of light. Therefore, the user can easily understand that the measurement probe 101 is too far from the human body 130 based on the magnitude relationship between the region 172 and the image 173 in such a display image.
  • the posture of the measurement probe 101 may be brought close to the state shown in FIG. 4 (that is, an appropriate state). By checking the image displayed on the monitor 121, the user can more easily control the posture of the measurement probe 101 to approach the state shown in FIG. 4 (ie, an appropriate state).
  • FIG. 7 is a diagram illustrating an example in which the measurement probe 101 is inclined in one axial direction with respect to the human body 130.
  • the measurement probe 101 is inclined in one axial direction with respect to the human body 130.
  • the uniaxial tilt indicates that the tilt is parallel to any side of the quadrangular target shape.
  • the posture of the measurement probe 101 may be brought close to the state shown in FIG. 4 (that is, an appropriate state). By checking the image displayed on the monitor 121, the user can more easily control the posture of the measurement probe 101 to approach the state shown in FIG. 4 (ie, an appropriate state).
  • FIG. 8 is a diagram illustrating an example when the measurement probe 101 is inclined in the biaxial direction with respect to the human body 130.
  • the measurement probe 101 is inclined in the biaxial direction with respect to the human body 130.
  • Biaxial tilt indicates tilting in a direction not parallel to any side of the quadrangular target shape. Also in this case, as in the case of FIG. 7, not only the shape of the measurement range is deformed, but also the distance between the measurement probe 101 and the human body 130 changes within the measurement range. It may not be possible to obtain accurate measurement results.
  • the image displayed on the monitor 121 is deformed into a quadrangle in which the shape of the region 172 that was a quadrangle in FIG. Yes. Therefore, the user can more easily grasp the inclination of the measurement probe 101 with respect to the human body 130 based on the deformation of the region 172 in such a display image.
  • the posture of the measurement probe 101 may be brought close to the state shown in FIG. 4 (that is, an appropriate state). By checking the image displayed on the monitor 121, the user can more easily control the posture of the measurement probe 101 to approach the state shown in FIG. 4 (ie, an appropriate state).
  • the measurement apparatus 100 superimposes and synthesizes an image indicating the target shape of the portion irradiated with light on the captured image obtained by capturing the actual shape of the portion irradiated with light of the measurement target object.
  • the user can control the posture more easily.
  • the light irradiation unit 161 controls the light emitting unit 112 to irradiate the measurement target object (for example, the human body 130) with light having a predetermined wavelength in step S101.
  • the imaging unit 162 controls the image sensor 111 to capture an area of the measurement target object including the area irradiated with light in step S101, and obtain the captured image.
  • step S103 the image processing unit 164 obtains the attitude of the measurement probe 101 based on the detection result of the acceleration sensor 163, and based on the attitude, the vertical and horizontal orientations (in the captured image obtained in step S102) ( It is determined whether the orientation of the captured image is the same as the orientation in the vertical direction and the horizontal direction (display orientation) when displaying the captured image. If it is determined that the orientation of the captured image does not match the display orientation, the process proceeds to step S104.
  • step S104 the image processing unit 164 performs image processing on the captured image obtained in step S102, and updates the orientation of the captured image so that the orientation of the captured image matches the display orientation.
  • step S104 proceeds to step S105. If it is determined in step S103 that the orientation of the captured image matches the display orientation, the process proceeds to step S105.
  • step S105 the image processing unit 164 superimposes and synthesizes an image indicating the target shape of the portion irradiated with light on the captured image.
  • the display unit 165 displays the composite image on the monitor 121.
  • step S106 the control unit 151 determines whether or not to start measurement, and waits until it is determined to start. If it is determined to start measurement, the process proceeds to step S107.
  • step S107 the measurement unit 166 measures the processing target parameter using the captured image obtained in step S102.
  • step S108 the output unit 167 outputs the measurement result obtained in step S107.
  • the measuring apparatus 100 can allow the user to more easily control the posture.
  • the image 173 indicating the target shape of the light irradiated on the human body 130 has been described as an image showing the outer frame of the target shape by a dotted line.
  • the image showing the outer frame of the target shape 173 may be an arbitrary line other than the dotted line such as a solid line, a chain line, a double line, and the like.
  • the image 173 is described as an image showing the outer frame of the target shape, but the image 173 may be an image showing the target shape, and is not limited to this example.
  • the target shape may be indicated by each vertex.
  • the image 173 may be an image showing each vertex of the target shape.
  • the target shape may be indicated by color, texture, image processing effect, or the like.
  • the image 173 may be an image in which the portion irradiated with light is transparent and the other portion (portion where no light is irradiated) is a translucent image. That is, in the display image (composite image), the captured image of the part irradiated with light may be clearly displayed, and the captured image of the other part may be displayed lightly (or displayed in gray).
  • the target shape may be indicated by other methods.
  • the configuration of the measuring apparatus 100 is arbitrary, and may be a configuration other than the example shown in FIG.
  • the measurement probe 101 and the display device 103 may exchange information by wireless communication, and the cable 102 may be omitted.
  • the measurement apparatus 100 is described as having one measurement probe 101 and one display apparatus 103, but a plurality of measurement probes 101 may be provided, or a plurality of display apparatuses 103 may be provided. It may be provided. In that case, the numbers of the measurement probes 101 and the display devices 103 may or may not match. Further, the measurement probe 101 and the display device 103 may be integrally formed.
  • the shape of the measurement probe 101 is arbitrary and is not limited to the above-described example. The same applies to the display device 103.
  • the measurement apparatus 100 may set information related to the posture with respect to the measurement target object (subject) based on the captured image. By setting information on the posture in this way, the information on the posture can be used for posture control of the measurement probe 101. That is, the posture can be controlled more easily.
  • Information regarding this posture may be any content, but for example, information regarding a deviation between a target posture and an actual posture may be set. By setting information regarding deviation in this way, information regarding the deviation can be used for posture control of the measurement probe 101. That is, the posture can be controlled more easily.
  • FIG. 10 is a block diagram showing a main configuration example inside the measurement apparatus 100 in that case.
  • the measurement apparatus 100 includes a control unit 151, a light irradiation unit 161, an imaging unit 162, a measurement unit 166, an output unit 167, an analysis unit 201, a setting unit 202, and a notification unit 203.
  • a control unit 151 controls the measurement apparatus 100 to generate measurement data.
  • the control unit 151, the light irradiation unit 161, the imaging unit 162, the measurement unit 166, and the output unit 167 are as described in the first embodiment (FIG. 3).
  • the analysis unit 201 acquires a captured image obtained by the imaging unit 162 from the imaging unit 162. Based on the captured image, the analysis unit 201 analyzes information about the posture, for example, a deviation between the target posture and the actual posture. As described later, the analysis unit 201 analyzes the deviation between the target posture and the actual posture, so that the setting unit 202 sets information regarding the deviation between the target posture and the actual posture as described later. can do. Therefore, as described above, the posture can be controlled more easily.
  • the analysis unit 201 analyzes, for example, the direction of deviation and the magnitude (deviation amount) of deviation as a deviation between the target posture and the actual posture.
  • the analysis unit 201 may analyze at least one of the deviation direction and the deviation amount between the target posture and the actual posture.
  • FIG. 11A it is assumed that light is irradiated by a light irradiation unit 161 to a partial region 212 in a captured image 211.
  • the analysis unit 201 obtains a binarized captured image 213 by binarizing the captured image 211 as illustrated in FIG. 11B.
  • the analysis unit 201 detects a straight line 214 that is an outer frame of the region 212 in the binarized captured image 213.
  • the analysis unit 201 detects the vertex of the outer frame of the region 212.
  • each intersection of the four straight lines 214 is the vertex.
  • the analysis unit 201 sets an image 215 including only the four straight lines 214 and detects the vertices (P 1 to P 4 ) of the outer frame of the region 212 in the image 215.
  • the analysis unit 201 sets an image 216 including the target shape of the region irradiated with light by the light irradiation unit 161, and in the image 216, the target shape region is set.
  • each vertex (R 1 to R 4 ) is detected.
  • the analysis unit 201 sets a composite image 217 obtained by superimposing the images 215 and 216 and combining them.
  • the analysis unit 201 analyzes the deviation between the target posture and the actual posture based on the positional relationship between the vertices (P 1 to P 4 and R 1 to R 4 ) in the composite image 217.
  • the coordinates of the point P 1 are (P 1x , P 1y ), the coordinates of the point P 2 are (P 2x , P 2y ), the coordinates of the point P 3 are (P 3x , P 3y ), and the point P 4
  • the coordinates of (P 4x , P 4y ), the coordinates of point R 1 are (R 1x , R 1y ), the coordinates of point R 2 are (R 2x , R 2y ), and the coordinates of point R 3 are (R 3x, and R 3y), the coordinates of the point R 4 and (R 4x, R 4y).
  • the upper side is the lower side (line segment P 3 P 4 ) in the region 212 having vertices P 1 to P 4 shown in D of FIG. Shorter than).
  • the measurement probe 101 is inclined so as to face upward in the drawing.
  • the upper side (line segment P 1 P 2 ) is the lower side (line segment P 3 P 4 ) in the region 212 having vertices P 1 to P 4 shown in D of FIG. ) Longer than.
  • the measurement probe 101 is inclined so as to face downward in the drawing.
  • the left side (line segment P 1 P 4 ) is the right side (line segment P 2 P 3 ) in the region 212 having vertices P 1 to P 4 shown in D of FIG. Shorter than).
  • the measurement probe 101 is inclined so as to face the left in the figure.
  • the left side is the right side (line segment P 2 P 3 ) in the region 212 having vertices P 1 to P 4 shown in D of FIG. ) Longer than.
  • the measurement probe 101 is inclined so as to face the right in the figure.
  • the upper side (line segment P 1 P 2 ) is the upper side (line segment R) of the target shape. 1 R 2) shorter than.
  • the measurement probe 101 is set at a position farther from the human body 130 than the optimum distance.
  • the upper side is the upper side of the target shape (line segment R) in the region 212 having vertices P 1 to P 4 shown in D of FIG. 1 R 2 ) longer than.
  • the measurement probe 101 is set at a position closer than the optimum distance from the human body 130.
  • the deviation between the target posture and the actual posture may be analyzed.
  • the analysis method of the deviation between the target posture and the actual posture by the analysis unit 201 is arbitrary, and is not limited to the above example.
  • a method for estimating the posture of a camera from a projection image including general three-axis rotation is described in International Publication No. 2013/038656 (Projection Image Automatic Correction System, Projection Image Automatic Correction Method and Program).
  • a technique or the like may be applied.
  • other techniques may be applied.
  • the setting unit 202 sets information related to the posture with respect to the human body 130 (subject) based on the analysis result, that is, based on the captured image.
  • the setting unit 202 may set information regarding a deviation between a target posture and an actual posture as information regarding the posture.
  • the information regarding the deviation between the target posture and the actual posture may be any information, but for example, information indicating the direction of the deviation may be included.
  • difference Moreover, you may make it include both the information which shows the direction of deviation, and the information which shows the amount of deviation.
  • the information regarding the deviation between the target posture and the actual posture may include at least one of information indicating the direction of deviation and information indicating the amount of deviation. In this way, by setting the direction and amount of deviation, these pieces of information can be used for posture control of the measurement probe 101. That is, the posture can be controlled more easily.
  • the setting unit 202 may set, for example, notification information for notifying information on a deviation (posture deviation) between a target posture analyzed by the analysis unit 201 and an actual posture as information on the posture.
  • This notification information may be any information.
  • information for notifying how to control the posture of the measurement probe 101 may be included.
  • the setting unit 202 may generate notification information for notifying the measurement probe 101 so as to be directed downward in the drawing. Further, for example, when the expression (2) is satisfied, the setting unit 202 may generate notification information for notifying the measurement probe 101 so as to be turned upward in the drawing. Further, for example, when Expression (3) is satisfied, the setting unit 202 may generate notification information that notifies the measurement probe 101 to turn to the right in the drawing. For example, when Expression (4) is satisfied, the setting unit 202 may generate notification information that notifies the measurement probe 101 to turn to the left in the drawing. Further, for example, when Expression (5) is satisfied, the setting unit 202 may generate notification information that notifies the measurement probe 101 to approach the human body 130. For example, when Expression (6) is satisfied, the setting unit 202 may generate notification information that notifies the measurement probe 101 to move away from the human body 130. The setting unit 202 supplies information regarding the set posture to the notification unit 203.
  • the notification unit 203 performs processing related to notification of information supplied from the setting unit 202.
  • the notification unit 203 acquires information (notification information) related to the posture supplied from the setting unit 202.
  • the notification unit 203 generates image information (characters, patterns, etc.) of information (notification information) related to the posture supplied from the setting unit 202 and displays it on the monitor 121 of the display device 103 (that is, the posture information).
  • FIG. 12A shows an example of such notification.
  • an image indicating the target shape of the light irradiated on the human body 130 may be superimposed and displayed on the captured image.
  • a message related to posture control such as “tilt. Please align with the frame line” may be displayed.
  • the notification unit 203 has a sound output device (for example, a speaker) that outputs sound, converts information (notification information) about the posture supplied from the setting unit 202 into a sound signal, and notifies the sound signal.
  • the data may be output from the unit 203.
  • the speaker 221 may be provided in the measurement probe 101 and the notification unit 203 may output a sound signal of notification information from the speaker 221.
  • a message related to posture control such as “tilt. Please tilt to the right” may be output from the speaker 221 as voice.
  • the notification information in this case is information that indicates the amount of displacement and the direction of the displacement, for example, by the pitch or period of an audio signal such as “beep-beep-beep-beep-beep-beep-beep-beep” instead of the voice of the message. May be.
  • the measuring apparatus 100 may have a vibrator, and the notification unit 203 may vibrate the vibrator according to information (notification information) on the posture supplied from the setting unit 202. That is, the notification unit 203 may notify the information regarding the posture by vibration. At this time, for example, the amount of deviation and the direction of deviation may be expressed by the magnitude and period of vibration.
  • the notification information may be notified as any information, and may be notified by a method other than the above-described image, sound, and vibration.
  • the above-described notification by image, sound, and vibration may be used in combination. That is, notification may be performed by a plurality of methods.
  • the notification device 203 notifies the posture information, so that the measuring apparatus 100 can allow the user to more easily control the posture.
  • the light irradiation unit 161 controls the light emitting unit 112 to irradiate the measurement target object (for example, the human body 130) with light having a predetermined wavelength in step S201.
  • the imaging unit 162 controls the image sensor 111 to capture an area of the measurement target object including the area irradiated with light in step S101, and obtain the captured image.
  • step S203 the analysis unit 201 analyzes the deviation (posture deviation) between the target posture and the actual posture based on the captured image obtained in step S102.
  • step S204 the setting unit 202 sets notification information related to posture deviation based on the analysis result obtained in step S203.
  • the notification unit 203 notifies the notification information.
  • or step S208 is performed similarly to each process of step S106 thru
  • the measurement apparatus 100 By performing the measurement process as described above, it is possible to set information regarding the posture with respect to the subject based on the captured image, and thus the measurement apparatus 100 allows the user to more easily control the posture. be able to.
  • the measurement apparatus 100 may perform processing related to the correction related to imaging so as to reduce the deviation based on the analysis result of the deviation between the target posture and the actual posture. By performing such correction, it is possible to reduce the load on the user of posture control. That is, the posture can be controlled more easily.
  • FIG. 14 is a block diagram illustrating a main configuration example of the inside of the measurement apparatus 100 in that case.
  • the measurement apparatus 100 includes a control unit 151, a light irradiation unit 161, an imaging unit 162, an output unit 167, an analysis unit 201, an imaging control unit 301, a correction unit 302, and a measurement unit 303.
  • the control unit 151, the light irradiation unit 161, the imaging unit 162, the output unit 167, and the analysis unit 201 are as described in the second embodiment (FIG. 10).
  • the imaging control unit 301 controls the light irradiation unit 161 and the imaging unit 162 based on the analysis result supplied from the analysis unit 201, thereby determining the light irradiation direction by the light emitting unit 112, the imaging direction by the image sensor 111, and the like. Control.
  • the measurement probe 101 is provided with a movable optical unit 311.
  • the image sensor 111, the light emitting unit 112, and the light shielding member 113 are provided in the movable optical unit 311.
  • the movable optical unit 311 is provided so as to be movable with respect to the housing of the measurement probe 101. That is, in this case, the image sensor 111, the light emitting unit 112, and the light shielding member 113 are movable with respect to the housing of the measurement probe 101. Therefore, in this case, the light irradiation direction, the imaging direction, and the like are variable with respect to the housing of the measurement probe 101.
  • the imaging unit 162 can control the orientation of the movable optical unit 311, thereby controlling the light irradiation direction and the imaging direction.
  • the imaging control unit 301 controls the direction of the movable optical unit 311 via the imaging unit 162, so that the light irradiation direction and imaging are performed.
  • the direction or the like can be corrected in a direction that reduces the influence of the inclination of the housing of the measurement probe 101. That is, in this case, since the posture control by the user is reduced, the posture can be controlled more easily.
  • the correction unit 302 corrects the parameters used for measurement of the measurement target parameter based on the analysis result supplied from the analysis unit 201 so as to reduce the influence of the tilt of the measurement probe 101. For example, the illuminance and area of the portion irradiated with the light change as shown in FIG. 16 depending on whether the light strikes the human body 130 vertically or obliquely. For example, the correction unit 302 calculates and corrects the correction amount of each parameter based on such a theoretical value. The correction unit 302 supplies the corrected value to the measurement unit 303. The measurement unit 303 performs measurement using the value supplied from the correction unit 302.
  • step S304 determines whether or not to correct the parameter used in the measurement in step S304. If it is determined to be corrected, the process proceeds to step S305. In step S305, the correction unit 302 corrects the parameter based on the analysis result obtained in step S303. When the correction is completed, the process proceeds to step S307.
  • step S304 If it is determined in step S304 that the parameter is not corrected, the process proceeds to step S306.
  • step S306 the imaging control unit 301 updates the imaging range and the like based on the analysis result obtained in step S303. When the update ends, the process proceeds to step S307.
  • step S307 to step S309 is executed in the same manner as each processing from step S206 to step S208 in FIG.
  • the measurement process ends.
  • correction related to imaging can be performed based on the captured image, and thus the measuring apparatus 100 can allow the user to more easily control the posture. .
  • the configuration of the measurement system to which the present technology can be applied is arbitrary and is not limited to the above examples.
  • the part where measurement is performed by the measuring apparatus 100 is arbitrary.
  • it may be the user's foot (the sole of the foot, the back of the foot, fingers, shin, calf, thigh, etc.) or the user's arm (shoulder, elbow, palm, back of the hand, fingers, etc.).
  • It may be the user's torso (chest, abdomen, lower abdomen, buttocks, buttocks, etc.), or the user's head (frontal head, back of head, top of head, face, jaw, ears, Neck etc.).
  • other parts may be used.
  • the measurement apparatus 100 measures an index related to weekend glycation products (AGEs) contained in the human body.
  • the index measured by the measurement apparatus 100 is arbitrary.
  • the measuring apparatus 100 may measure indices relating to the skin condition such as color, stain, sunburn, blood circulation, skin texture, moisture content, and oil content.
  • the measuring apparatus 100 may measure an index related to the state of injury or inflammation.
  • the measuring apparatus 100 may measure an index related to the state of the scalp or hair.
  • the measurement apparatus 100 may measure an index related to a state such as a fingerprint or a sweat gland.
  • the measuring apparatus 100 may measure other indicators. Further, the measuring apparatus 100 may measure a plurality of types of indices. Even in these cases, the present technology can be applied to the measurement apparatus 100 as in the above-described example. That is, the present technology can be applied to a measuring device that measures an arbitrary index.
  • the measurement conditions for example, the distance and angle to the skin (measurement target object) at the time of imaging
  • the measurement conditions should be made more stable (ideally the same).
  • a more important effect can be obtained by applying the present technology to a measuring apparatus that requires the above.
  • the posture of the measuring device can be controlled more easily, so that the measurement conditions can be made more stable and the index can be made more accurate. Will be able to measure.
  • the present technology can be applied not only to the measurement apparatus described above but also to any apparatus.
  • the present invention can be applied to any optical device, electronic device, imaging device, information processing device, and the like.
  • the measurement target is arbitrary, and may be a living body other than the human body (for example, an animal such as a dog or a cat or a plant) or an object that is not a living body.
  • an inorganic substance may be used.
  • the present technology can also be applied to a system that displays, projects, or images an image used for viewing.
  • the present technology can also be applied to a system provided for transportation.
  • the present technology can also be applied to a system provided for security.
  • the present technology can be applied to a system used for sports.
  • the present technology can be applied to a system provided for agriculture.
  • the present technology can also be applied to a system provided for livestock industry.
  • the present technology can be applied to systems that monitor natural conditions such as volcanoes, forests, and oceans, meteorological observation systems that observe weather, temperature, humidity, wind speed, sunshine hours, and so on, such as birds, fish, and reptiles. It can also be applied to a system for observing the ecology of wildlife such as moss, amphibians, mammals, insects and plants.
  • ⁇ Computer> The series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 18 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 410 is also connected to the bus 404.
  • An input unit 411, an output unit 412, a storage unit 413, a communication unit 414, and a drive 415 are connected to the input / output interface 410.
  • the input unit 411 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like.
  • the output unit 412 includes, for example, a display, a speaker, an output terminal, and the like.
  • the storage unit 413 includes, for example, a hard disk, a RAM disk, a nonvolatile memory, and the like.
  • the communication unit 414 is composed of a network interface, for example.
  • the drive 415 drives a removable medium 421 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 401 loads the program stored in the storage unit 413 into the RAM 403 via the input / output interface 410 and the bus 404 and executes the program, for example. A series of processing is performed.
  • the RAM 403 also appropriately stores data necessary for the CPU 401 to execute various processes.
  • the program executed by the computer 400 can be recorded and applied to, for example, a removable medium 421 as a package medium or the like.
  • the program can be installed in the storage unit 413 via the input / output interface 410 by attaching the removable medium 421 to the drive 415.
  • This program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In that case, the program can be received by the communication unit 414 and installed in the storage unit 413.
  • a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be received by the communication unit 414 and installed in the storage unit 413.
  • this program can be installed in advance in the ROM 402, the storage unit 413, or the like.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit).
  • a configuration other than that described above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). .
  • the present technology can take a configuration of cloud computing in which one function is shared and processed by a plurality of devices via a network.
  • each step described in the above flowchart can be executed by one device or can be executed by a plurality of devices. Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology is not only implemented as a device or system, but also any configuration mounted on a device constituting the device or system, for example, a processor as a system LSI (Large Scale Integration) or the like, a module using a plurality of processors, etc. It can also be implemented as a unit using a plurality of modules or the like, a set in which other functions are further added to the unit, or the like (that is, a partial configuration of the apparatus).
  • LSI Large Scale Integration
  • the technologies described in this specification can be implemented independently.
  • any of a plurality of present technologies can be used in combination.
  • the present technology described in any of the embodiments can be implemented in combination with the present technology described in other embodiments.
  • a part of the present technology described in any of the embodiments can be combined with (a part or all of) the present technology described in the other embodiments.
  • the present technology (a part or all) described in the three or more embodiments may be implemented in combination.
  • any of the above-described techniques can be implemented in combination with other techniques not described above.
  • this technique can also take the following structures.
  • an irradiation unit for irradiating the subject with light An imaging unit for imaging a predetermined range of the subject including a portion irradiated with the light by the irradiation unit;
  • An optical device comprising: a display unit that superimposes and displays an image indicating a target shape of the light emitted to the subject by the irradiation unit on a captured image obtained by imaging the subject by the imaging unit.
  • the optical device according to (1) wherein the image showing the target shape of the light is an image showing an outer frame of the target shape.
  • the image indicating the target shape of the light is an image indicating each vertex of the target shape.
  • the image showing the target shape of the light is an image in which the transmittance of the region outside the target shape is lower than the transmittance of the region inside the target shape (1) to (3)
  • the image processing apparatus further includes a display control unit that controls the direction of the captured image displayed on the display unit according to the detection result of the detection unit to a direction corresponding to the current posture of the optical device. ).
  • irradiate the subject with light Imaging a predetermined range of the subject including a portion irradiated with the light; An information processing method of superimposing and displaying an image indicating a target shape of the light emitted to the subject on a captured image obtained by imaging the subject.
  • an irradiation unit for irradiating the subject with light An imaging unit for imaging a predetermined range of the subject including a portion irradiated with the light by the irradiation unit;
  • An optical apparatus comprising: a setting unit that sets information related to a posture with respect to the subject based on a captured image obtained by imaging the subject by the imaging unit.
  • the optical device according to (8) wherein the information related to the posture is information related to a deviation between the target posture and the actual posture.
  • the notification unit notifies information about the posture by sound, vibration, or an image.
  • An analysis unit that analyzes a deviation between the target posture and the actual posture based on the captured image
  • the optical unit according to any one of (8) to (12) wherein the setting unit is configured to set information regarding a deviation between the target posture analyzed by the analysis unit and the actual posture. apparatus.
  • the correction unit corrects a direction of imaging by the imaging unit or the captured image.
  • the optical device according to any one of (8) to (16), further including a measurement unit that performs measurement on a predetermined parameter of the subject based on the captured image.
  • the apparatus according to any one of (8) to (17), further including: a light blocking unit that blocks a part of the light irradiated by the irradiation unit to limit an irradiation range of the light to the subject.
  • Optical device (19) The optical device according to any one of (8) to (18), further including a convex portion formed so as to protrude forward from the irradiation unit and the imaging unit.
  • 100 measuring device 101 measuring probe, 102 cable, 103 display device, 111 image sensor, 112 light emitting unit, 113 shading member, 114 guide, 121 monitor, 130 human body, 151 control unit, 161 light irradiation unit, 162 imaging unit, 163 Acceleration sensor, 164 image processing unit, 165 display unit, 166 measurement unit, 167 output unit, 201 analysis unit, 202 setting unit, 203 notification unit, 221 speaker, 301 imaging control unit, 302 correction unit, 303 measurement unit, 311 movable Optical unit, 400 computer

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本技術は、より容易に姿勢を制御することができるようにする光学装置および情報処理方法に関する。 本技術の光学装置は、被写体に対して光を照射し、その被写体の、その光が照射された部分を含む所定の範囲を撮像し、その被写体が撮像されて得られた撮像画像を用いて姿勢制御に関する処理を行う。例えば、この光学装置は、被写体に照射された光の目標形状を示す画像を撮像画像に重畳して表示する。また、例えば、この光学装置は、撮像画像に基づいて、被写体に対する姿勢に関する情報を設定する。本技術は、例えば、光学装置、電子機器、情報処理装置等に適用することができる。

Description

光学装置および情報処理方法
 本技術は、光学装置および情報処理方法に関し、特に、より容易に姿勢を制御することができるようにした光学装置および情報処理方法に関する。
 従来、測定プローブを肌に当てる等して、光学的に生体情報を測定する生体情報測定装置があった。このような生体情報の測定の場合、より正確な測定を行うためには、測定プローブに設けられたセンサを、測定対象の肌に対して適切な角度と距離に保持することが重要である。つまり、測定中において、肌(生体)に対する測定プローブの姿勢を適切な状態に維持するように、測定プローブの姿勢を制御しなければならない。しかしながら、生体(人体)の形状は複雑であり、曲面も多く、柔らかい。そのため、そのような姿勢制御を手作業のみで実現することは困難であった。
 そこで、プローブ先端に複数の突起を設け、肌との接触状態をユーザ自身が直接知覚するものや、プローブ先端に接触センサを複数配置し、肌との接触状態をユーザに通知するものが考えられた(例えば特許文献1参照)。
特開2013-132542号公報
 しかしながら、この特許文献1に記載の方法のように、プローブ先端の狭い領域にある複数の突起の接触状態を細かく知覚するのは事実上不可能である。そのため、適切な姿勢制御を実現することは困難であった。また、特許文献1に記載の方法のように、接触センサを設ける場合、部品点数の増加によりコストや故障率が増大するおそれがあった。
 本技術は、このような状況に鑑みて提案されたものであり、より容易に姿勢を制御することを目的とする。
 本技術の一側面の光学装置は、被写体に対して光を照射する照射部と、前記被写体の、前記照射部により前記光が照射された部分を含む所定の範囲を撮像する撮像部と、前記撮像部により前記被写体が撮像されて得られた撮像画像に、前記照射部により前記被写体に照射された前記光の目標形状を示す画像を重畳して表示する表示部とを備える光学装置である。
 前記光の目標形状を示す画像は、前記目標形状の外枠を示す画像であるようにすることができる。
 前記光の目標形状を示す画像は、前記目標形状の各頂点を示す画像であるようにすることができる。
 前記光の目標形状を示す画像は、前記目標形状の外側の領域の透過率が、前記目標形状の内側の領域の透過率よりも低い画像であるようにすることができる。
 前記光学装置の姿勢または前記姿勢の変化を検出する検出部をさらに備えるようにすることができる。
 前記検出部の検出結果に従って、前記表示部に表示させる前記撮像画像の向きを、前記光学装置の現在の姿勢に応じた向きに制御する表示制御部をさらに備えるようにすることができる。
 本技術の一側面の情報処理方法は、被写体に対して光を照射し、前記被写体の、前記光が照射された部分を含む所定の範囲を撮像し、前記被写体が撮像されて得られた撮像画像に、前記被写体に照射された前記光の目標形状を示す画像を重畳して表示する情報処理方法である。
 本技術の他の側面の光学装置は、被写体に対して光を照射する照射部と、前記被写体の、前記照射部により前記光が照射された部分を含む所定の範囲を撮像する撮像部と、前記撮像部により前記被写体が撮像されて得られた撮像画像に基づいて、前記被写体に対する姿勢に関する情報を設定する設定部とを備える光学装置である。
 前記姿勢に関する情報は、目標とする前記姿勢と実際の前記姿勢とのズレに関する情報であるようにすることができる。
 前記ズレに関する情報は、前記ズレの方向および前記ズレの量の内、少なくとも一方を含むようにすることができる。
 前記姿勢に関する情報を通知する通知部をさらに備えるようにすることができる。
 前記通知部は、前記姿勢に関する情報を、音、振動、または画像により通知することができる。
 前記撮像画像に基づいて、前記目標とする前記姿勢と実際の前記姿勢とのズレを解析する解析部をさらに備え、前記設定部は、前記解析部により解析された前記目標とする前記姿勢と実際の前記姿勢とのズレに関する情報を設定するように構成されるようにすることができる。
 前記解析部は、前記ズレの方向および前記ズレの量の内、少なくとも一方を解析することができる。
 前記解析部による解析結果に基づいて、前記撮像に関する補正を行う補正部をさらに備えるようにすることができる。
 前記補正部は、前記撮像部による撮像の方向または前記撮像画像を補正することができる。
 前記撮像画像に基づいて、前記被写体の所定のパラメータについての測定を行う測定部をさらに備えるようにすることができる。
 前記照射部により照射される前記光の一部を遮光することにより、前記被写体に対する前記光の照射範囲を制限する遮光部をさらに備えるようにすることができる。
 前記照射部および前記撮像部よりも前方に突き出るように形成される凸部をさらに備えるようにすることができる。
 本技術の他の側面の情報処理方法は、被写体に対して光を照射し、前記被写体の、前記光が照射された部分を含む所定の範囲を撮像し、前記被写体が撮像されて得られた撮像画像に基づいて、前記被写体に対する姿勢に関する情報を設定する情報処理方法である。
 本技術の一側面においては、被写体に対して光が照射され、その被写体の、その光が照射された部分を含む所定の範囲が撮像され、その被写体が撮像されて得られた撮像画像に、その被写体に照射されたその光の目標形状を示す画像が重畳して表示される。
 本技術の他の側面においては、被写体に対して光が照射され、その被写体の、その光が照射された部分を含む所定の範囲が撮像され、その被写体が撮像されて得られた撮像画像に基づいて、その被写体に対する姿勢に関する情報が設定される。
 本技術によれば、光を利用した情報処理を行うことが出来る。また本技術によれば、より容易に姿勢を制御することができる。
測定装置の外観の例を示す図である。 測定プローブの外観の例を示す図である。 測定装置の主な構成例を示すブロック図である。 測定プローブの適切な姿勢の例を示す図である。 測定プローブが測定対象に近過ぎる様子の例を示す図である。 測定プローブが測定対象から遠すぎる様子の例を示す図である。 測定プローブが測定対象に対して1軸方向について傾斜している様子の例を示す図である。 測定プローブが測定対象に対して2軸方向について傾斜している様子の例を示す図である。 測定処理の流れの例を説明するフローチャートである。 測定装置の主な構成例を示すブロック図である。 補正量算出の様子の例を説明する図である。 通知の様子の例を説明する図である。 測定処理の流れの例を説明するフローチャートである。 測定装置の主な構成例を示すブロック図である。 可変光学ユニットの姿勢制御の様子の例を説明する図である。 補正の様子の例を説明する図である。 測定処理の流れの例を説明するフローチャートである。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(測定装置:重畳表示)
2.第2の実施の形態(測定装置:姿勢に関する情報の通知)
3.第3の実施の形態(測定装置:姿勢に関する情報に基づく制御)
4.その他
 <1.第1の実施の形態>
  <測定装置の姿勢制御>
 光学的に生体情報を測定する生体情報測定装置において、測定プローブを肌に当てる際、正確な測定結果を得るためには、センサを肌に対して適切な角度と距離に保持することが重要である。例えば、肌に紫外線を照射して、AGEs(Advanced Glycation Endproducts)等の蛍光物質によって励起される蛍光の強度を測定する生体情報測定装置では、蛍光センサが肌に正対する角度になければ正しい測定が行うことが困難になる。また、センサと肌の距離が変化すると、測定値に直接影響が及ぶため、センサと肌の距離も一定に保つことが重要になる。
 このため、専門知識を有するユーザが使用する生体情報測定装置においては、肌の測定部位に測定プローブを確実に固定するために、時間と手間がかかる装具を用いるのが一般的であった。しかしながら、十分な訓練を受けていないユーザにとってはそのような装具を使いこなすことは困難であり、測定プローブの状態が不確実な状況での測定が行われる場面が発生することがあった。
 特に、顔面のように立体的な形状を持ち、かつプローブの状態を目視できない部位の測定は、測定プローブの状態を測定に適した状態に保持することが大変困難であった。そこで、肌へのプローブの接触状態を認識し、測定に適した状態に修正するための仕組みが考えられた。例えば、肌に測定プローブが斜めに当たっていることを認識し、これをユーザに通知することにより、測定プローブが正しい角度に修正されるように促すことが考えられた。例えば、特許文献1には、測定プローブの先端に複数の突起を設け、肌との接触状態をユーザ自身が直接知覚するものや、プローブ先端に接触センサを複数配置し、肌との接触状態をユーザに通知するものが開示された。
 しかしながら、人間の肌における二点弁別閾(体表面上の2点に機械的刺激を与えたとき,視覚によらずにこれらが別々の刺激によるものであると識別できる最小の距離)は、指先など感覚神経が集中している部位を除いては一般に数センチメートル以上であり、測定プローブ先端の狭い領域にある複数の突起の接触状態を細かく知覚するのは事実上不可能であった。また、接触センサを設けることによって電気的に接触状態を検知するものは、部品点数の増加によるコストと故障率が増大するおそれがあった。
  <測定装置>
 そこで、被写体に対して光を照射し、その光が照射された部分を含む所定の範囲を撮像し、その撮像画像に、被写体に照射された前記光の目標形状を示す画像を重畳して表示するようにする。
 図1は、本技術を適用した光学装置の一実施の形態である測定装置の主な構成例を示すブロック図である。図1に示される測定装置100は、測定対象物体について、例えば所定の物質や所定の成分等の所定の測定対象パラメータを測定する。例えば、測定装置100は、人体(肌)等を測定対象物体とし、その人体内に含まれる終末糖化生成物(AGEs)に関する指標を測定対象パラメータとすることができる。
 図1に示されるように、測定装置100は、測定プローブ101および表示装置103を有する。測定プローブ101と表示装置103とは、ケーブル102を介して互いに通信可能に(情報の授受が可能な状態で)接続されている。
 測定プローブ101は、測定を行う装置である。例えば、測定プローブ101は、所定の面101Aの前方に位置する人体(肌)等を測定対象物体とし、その人体(肌)に含まれる終末糖化生成物(AGEs)に関する指標等を測定対象パラメータとし、その測定対象パラメータの測定を行うことができる。図1に示されるように、測定プローブ101は、その所定の面101Aに、例えば、イメージセンサ111、発光部112、遮光部材113、およびガイド114を有する。
 イメージセンサ111は、面101A前方の測定対象物体からの光を光電変換して画像データを得る。つまり、イメージセンサ111は、被写体を撮像する撮像部の一実施の形態である。イメージセンサ111により撮像されて得られた撮像画像は、例えば、測定結果の算出や、測定プローブ101の姿勢制御等に利用される。発光部112は、面101A前方に位置する測定対象物体に対して(測定対象物体の、イメージセンサ111による撮像範囲内の一部または全部に対して)照射される光を発光する。つまり、発光部112は、イメージセンサが撮像する被写体に対して光を照射する照射部の一実施の形態である。遮光部材113は、発光部112により発光された光が照射される範囲を制限する構成である。ガイド114は、測定対象物体に対する測定プローブ101(イメージセンサ111や発光部112等の、測定プローブ101の構成)の位置や姿勢を適正な状態にするのを支援するための構成である。
 表示装置103は、モニタ121を有する。モニタ121は、測定プローブ101において得られた撮像画像等の画像情報を表示する。つまり、モニタ121は、画像を表示する表示部の一実施の形態である。
  <測定プローブ>
 図2のAは、測定プローブ101を面101A側から見た外観図である。測定プローブ101の面101Aには、図2のAに示されるように、中央付近にイメージセンサ111が形成され、その周囲に発光部112-1乃至発光部112-4が形成され、さらにそれらを囲むように遮光部材113が形成され、最外周にガイド114が形成されている。
 例えば、図2のBに示されるように、発光部112から人体130に照射される光は、遮光部材113によりその照射範囲が範囲131に制限される。図2のAに示されるように、この例の場合、遮光部材113は、発光部112(発光部112-1乃至発光部112-4)を四角形に囲むように、壁状の部材として形成されている。したがって、理想的には、発光部112により発光された光は、人体130に四角形状に照射される。イメージセンサ111は、人体130の、範囲131を全て含む所定の範囲132を撮像する。つまり、イメージセンサ111の撮像により、人体130の、発光部112により発光された光が照射される領域(例えば範囲131)が含まれる領域(例えば範囲132)の撮像画像が得られる。
 これらのイメージセンサ111、発光部112、および遮光部材113の仕様は任意である。例えば、イメージセンサ111のタイプ(種類)は任意である。例えば、イメージセンサ111がCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成されるようにしてもよいし、CCD(Charge Coupled Device)イメージセンサにより構成されるようにしてもよいし、それ以外の任意のイメージセンサにより構成されるようにしてもよい。また、イメージセンサ111の位置や形状も任意であり、図1や図2の例に限定されない。例えば、イメージセンサ111の撮像範囲(範囲132)を光の照射範囲(範囲131)よりも広くするために、イメージセンサ111の方が発光部112よりも大きく面101Aから突き出るようにしてもよい。また、イメージセンサ111の受光部に広角レンズを用いて撮像範囲を広くするようにしてもよい。また、イメージセンサ111を構成するイメージセンサの数や画素数等も任意である。例えば、イメージセンサ111が単数のイメージセンサにより構成されるようにしてもよいし、複数のイメージセンサにより構成されるようにしてもよい。すなわち、人体130からの光を受光する受光部が複数存在するようにしてもよい。また、測定結果の算出に利用される撮像画像を得るための撮像を行うイメージセンサと、測定プローブ101の姿勢制御等に利用される撮像画像を得るための撮像を行うイメージセンサとをそれぞれ設けるようにしてもよい。
 また、例えば、発光部112がLED(Light Emitting Diode)により構成されるようにしてもよいし、蛍光灯等の他の種類の発光デバイスにより構成させるようにしてもよい。また、発光部112の形状や発光した光の照射方向は任意である。また発光部112を構成する発光デバイスの数は任意であり、単数であってもよいし、図2のAの例のように複数であってもよい。つまり、発光部112が、単数の光を発光するようにしてもよいし、複数の光を発光するようにしてもよい。また、発光部112が発光する光の波長は任意である。例えば、可視光であってもよいし、紫外光や赤外光であってもよい。また、この光の波長が可変であってもよい。また、発光部112が複数の発光デバイスにより構成される場合、全ての発光デバイスが同一の波長光を発光するようにしてもよいし、一部または全部の発光デバイスが他と異なる波長の光を発光するようにしてもよい。例えば、発光部112として、互いに異なる波長光を発光する発光デバイスを複数設け、発光部112を、姿勢推定のための光源として用いる場合と、測定対象パラメータの測定を行うための光源として用いる場合とで、利用する発光デバイス(つまり、照射する光の波長)を切り替えるようにしてもよい。
 また、例えば、遮光部材113の形状、数、位置、素材、遮光部材113が光の照射範囲をどのように制限するか等は全て任意であり、図1や図2の例に限定されない。例えば、遮光部材113の制限によって、発光部112により発光された光が三角形や円形状等、四角形(矩形)以外の任意の形状に照射されるようにしてもよい。ただし、照射範囲を矩形のように平行な直線を含む形とすることにより、測定プローブ101の姿勢変化による照射範囲の形状変化を識別がより容易になるため、姿勢制御がより容易になる。なお、遮光部材113を発光部112と一体化し、発光部112において、発光された光の照射方向が、遮光部材113を設ける場合と同様に制限されるようにしてもよい。
 ガイド114は、イメージセンサ111、発光部112、および遮光部材113よりも大きく面101Aから(前方に)突き出るように形成される凸部である。ガイド114は、そのガイド114の面101Aからみて最も付き出た部分に人体130が接する状態において、測定プローブ101(イメージセンサ111や発光部112等)から人体130までのおおよその距離が適切となるようになされている。なお、このガイド114も形状、数、位置、素材等は全て任意である。また、このガイド114を省略するようにしてもよい。ただし、このガイド114を設けることにより、測定プローブ101の位置や姿勢の制御がより容易になる。
  <姿勢制御>
 ユーザは、測定装置100の測定プローブ101を、測定対象物体である人体(肌)に対して所定の姿勢(位置も含む)にする。測定プローブ101は、人体(肌)を撮像し、その撮像画像から測定対象パラメータを測定する。その際、ユーザは、信頼性の高い測定結果が得られるように、測定プローブ101の姿勢を制御し、適切な状態に保つ。そのような姿勢制御の為に、測定プローブ101は、発光部112が発光し、イメージセンサ111が、人体(肌)の、発光部112が発光した光が照射された領域を含む領域を撮像する。
 表示装置103のモニタ121は、例えば、この撮像画像(つまり、人体(肌)の、発光部112により発光された光が実際に照射された領域の形状)に、人体(肌)に照射される光の目標形状(人体(肌)の、発光部112により発光された光が照射される領域の目標形状)を示す画像を重畳して表示する。つまり、ユーザは、この画像から、人体(肌)の、発光部112により発光された光が照射された領域の実際の形状と目標形状との差(ズレ)をより容易に把握することができる。そしてこのズレは、測定プローブ101の実際の姿勢と目標とする姿勢とのズレに起因する。つまり、ユーザは、この画像に基づいて、より容易に、人体(肌)の、発光部112により発光された光が照射された領域の実際の形状を目標形状に近づけるように、測定プローブ101の姿勢を制御することができる。つまり、より容易に姿勢を制御することができる。
  <測定装置の内部の構成>
 図3は、測定装置100の内部の構成例を示すブロック図である。図3に示されるように、測定装置100は、制御部151、光照射部161、撮像部162、加速度センサ163、画像処理部164、表示部165、測定部166、および出力部167を有する。なお、これらの各処理部は、それぞれ、測定装置100の測定プローブ101に形成されるようにしてもよいし、表示装置103に形成されるようにしてもよい。
 制御部151は、測定装置100の各処理部の制御に関する処理を行う。光照射部161は、例えば光の照射に関する処理を行う。例えば、光照射部161は、発光部112を制御し、点灯(発光)させたり、消灯させたりする。撮像部162は、被写体の撮像に関する処理を行う。例えば、撮像部162は、イメージセンサ111を制御し、被写体(人体130(肌))を撮像させ、撮像画像のデータ(撮像画像データ)を得る。撮像部162は、得られた撮像画像データを画像処理部164および測定部166に供給する。
 加速度センサ163は、例えばジャイロセンサ等により構成され、測定プローブ101の姿勢または姿勢の変化を検出する。加速度センサ163は、検出結果を画像処理部164に供給する。画像処理部164は、撮像部162より供給される撮像画像に、人体(肌)に照射される光の目標形状を示す画像を重畳するように合成する。画像処理部164は、その合成画像を表示部165に供給する。また、画像処理部164は、加速度センサ163から供給される検出結果(測定プローブ101の姿勢または姿勢の変化に関する情報)に基づいて、測定プローブ101の姿勢を特定し、その姿勢に基づいて必要であれば、撮像画像の表示の向きを更新することもできる。つまり、画像処理部164は、加速度センサ163の検出結果に従って、モニタ121に表示させる撮像画像の向きを、測定プローブ101の現在の姿勢に応じた向きに制御することができる。例えば、撮像部162から供給される撮像画像内における垂直方向や水平方向は、測定プローブ101の姿勢によって、撮像画像外の垂直方向や水平方向と異なってくる場合がある。例えば、ユーザが測定プローブ101を上下逆さまに持つと、撮像画像内における上下の向きが撮像画像外(現実世界)の上下の向きと逆になる可能性がある。このような場合において、画像処理部164が、撮像画像の向きを更新して、その撮像画像内の垂直方向や水平方向が、現実世界と一致するようにしてもよい。このようにすることにより、表示部165に表示させる画像をユーザにとってより見やすい画像とすることができる。これにより、より容易に姿勢を制御することができる。なお、このように撮像画像の向きの更新に伴って、その撮像画像に合成する画像の向きも更新することができるようにしてもよい。表示部165は、モニタ121を制御し、モニタ121による画像表示に関する処理を行う。例えば、表示部165は、画像処理部164から供給された合成画像をモニタ121に表示させることができる。
 測定部166は、撮像部162より供給される撮像画像を用いて、測定対象パラメータの測定に関する処理を行う。例えば、測定部166は、人体130の撮像画像を用いて、その人体内に含まれる終末糖化生成物(AGEs)に関する指標を測定することができる。測定部166は、測定結果を示すデータを出力部167に供給する。
 出力部167は、例えば、外部出力端子、出力デバイス、または、通信デバイス等を有し、測定部166から供給される測定結果を示すデータの出力に関する処理を行う。例えば、出力部167は、測定結果を、外部(例えば他の装置)への供給に関する処理を行う。
  <測定プローブの姿勢>
 次に、測定プローブ101の測定対象物体(人体130)に対する姿勢と画像表示の例について説明する。図4は、測定プローブ101が適切な姿勢である場合の例を示す図である。図4のAに示されるように、この場合の測定プローブ101は、ガイド114の面101Aからみて最も付き出た部分の全体に人体130が接する状態である。図4のBに示されるように、この場合、ガイド114の面101Aからみて最も付き出た部分の全体が、一様に(偏りなく)人体130に接している。図4のCは、モニタ121に表示される画像の例を示す図である。図4のCに示されるように、モニタ121には、撮像画像171と人体130に照射される光の目標形状を示す画像173とが合成された合成画像が表示される。撮像画像171の領域172は、人体130の、発光部112により発光された光が実際に照射された領域である。画像173は、人体130に照射される光の目標形状の外枠を点線示している。そしてその画像173は、領域172の形状(外枠)と一致している。つまり、光が実際に照射された領域が、目標形状と一致している。この状態の測定プローブ101の測定対象物体(人体130)に対する姿勢が適切な姿勢であり、この姿勢において測定を行うことにより、測定プローブ101は、適切な測定結果を得ることができる。
 図5は、図4の場合に比べて測定プローブ101が人体130から近過ぎる場合の例を示す図である。図5のAや図5のBに示されるように、この場合、ガイド114の面101Aからみて最も付き出た部分が人体130に埋まっており、その分、イメージセンサ111や発光部112から人体130までの距離が短くなっている。つまり、図5の状態は、測定プローブ101が人体130に近づきすぎており、この状態では、測定プローブ101が適切な測定結果を得ることができない可能性がある。
 この場合、モニタ121に表示される画像は、図5のCに示されるように、撮像画像171に含まれる光が実際に照射された領域172が、画像173(つまり、人体130に照射される光の目標形状)よりも広くなる。したがって、ユーザは、このような表示画像における、領域172と画像173との大小関係に基づいて、より容易に、測定プローブ101が人体130に近づきすぎていることを把握することができる。また、この場合、より適切な測定結果を得るためには、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるようにすればよい。ユーザは、モニタ121に表示される画像を確認することにより、より容易に、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるように制御することができる。
 図6は、図4の場合に比べて測定プローブ101が人体130から遠過ぎる場合の例を示す図である。図6のAや図6のBに示されるように、この場合、ガイド114の面101Aからみて最も付き出た部分が人体130から離れており、その分、イメージセンサ111や発光部112から人体130までの距離が長くなっている。つまり、図6の状態は、測定プローブ101が人体130に遠ざかりすぎており、この状態では、測定プローブ101が適切な測定結果を得ることができない可能性がある。
 この場合、モニタ121に表示される画像は、図6のCに示されるように、撮像画像171に含まれる光が実際に照射された領域172が、画像173(つまり、人体130に照射される光の目標形状)よりも狭くなる。したがって、ユーザは、このような表示画像における、領域172と画像173との大小関係に基づいて、より容易に、測定プローブ101が人体130に遠ざかりすぎていることを把握することができる。また、この場合、より適切な測定結果を得るためには、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるようにすればよい。ユーザは、モニタ121に表示される画像を確認することにより、より容易に、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるように制御することができる。
 図7は、測定プローブ101が人体130に対して1軸方向に傾斜している場合の例を示す図である。図7のAや図7のBに示されるように、この場合、測定プローブ101が、人体130に対して、1軸方向に傾斜している。1軸方向の傾斜とは、四角形の目標形状のいずれかの辺に平行に傾いていることを示す。このように測定プローブ101が傾くと、測定範囲の形状が変形するだけでなく、その測定範囲内で測定プローブ101と人体130との距離が変化することになるので、測定プローブ101が適切な測定結果を得ることができない可能性がある。
 この場合、モニタ121に表示される画像は、図7のCに示されるように、図4の場合四角形であった領域172の形状が歪み台形に変形している。したがって、ユーザは、このような表示画像における、領域172の変形に基づいて、より容易に、測定プローブ101の人体130に対する傾きを把握することができる。また、この場合、より適切な測定結果を得るためには、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるようにすればよい。ユーザは、モニタ121に表示される画像を確認することにより、より容易に、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるように制御することができる。
 なお、測定プローブの傾きはどのような方向であってもよく、1軸方向以外であってもよい。図8は、測定プローブ101が人体130に対して2軸方向に傾斜している場合の例を示す図である。図8のAや図8のBに示されるように、この場合、測定プローブ101が、人体130に対して、2軸方向に傾斜している。2軸方向の傾斜とは、四角形の目標形状のいずれの辺にも平行で無い向きに傾いていることを示す。この場合も、図7の場合と同様に、測定範囲の形状が変形するだけでなく、その測定範囲内で測定プローブ101と人体130との距離が変化することになるので、測定プローブ101が適切な測定結果を得ることができない可能性がある。
 この場合、モニタ121に表示される画像は、図8のCに示されるように、図4の場合四角形であった領域172の形状が歪み、対向する各辺が非平行な四角形に変形している。したがって、ユーザは、このような表示画像における、領域172の変形に基づいて、より容易に、測定プローブ101の人体130に対する傾きを把握することができる。また、この場合、より適切な測定結果を得るためには、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるようにすればよい。ユーザは、モニタ121に表示される画像を確認することにより、より容易に、測定プローブ101の姿勢を図4の状態(すなわち適切な状態)に近づけるように制御することができる。
 以上のように、測定装置100は、測定対象物体の光が照射された部分の実際の形状を撮像した撮像画像に、その光の照射された部分の目標形状を示す画像を重畳して合成し、その合成画像を表示することにより、ユーザがより容易に姿勢を制御することができるようにすることができる。
  <測定処理の流れ>
 この場合の、測定装置100により実行される測定処理の流れの例を、図9のフローチャートを参照して説明する。
 測定処理が開始されると、光照射部161は、ステップS101において、発光部112を制御し、所定の波長の光を測定対象物体(例えば人体130)に照射する。ステップS102において、撮像部162は、イメージセンサ111を制御し、測定対象物体の、ステップS101において光が照射された領域を含む領域を撮像し、その撮像画像を得る。
 ステップS103において、画像処理部164は、加速度センサ163の検出結果に基づいて測定プローブ101の姿勢を求め、その姿勢に基づいて、ステップS102において得られた撮像画像における垂直方向および水平方向の向き(撮像画像の向き)が、その撮像画像を表示する際の垂直方向および水平方向の向き(表示の向き)と同一であるか否かを判定する。撮像画像の向きが表示の向きと一致しないと判定された場合、処理はステップS104に進む。
 ステップS104において、画像処理部164は、ステップS102において得られた撮像画像に対して画像処理を行い、撮像画像の向きと表示の向きとを一致させるように、撮像画像の向きを更新する。ステップS104の処理が終了すると処理はステップS105に進む。また、ステップS103において、撮像画像の向きが表示の向きと一致すると判定された場合、処理はステップS105に進む。
 ステップS105において、画像処理部164は、その撮像画像に、光の照射された部分の目標形状を示す画像を重畳して合成する。表示部165は、その合成画像をモニタ121に表示させる。ステップS106において、制御部151は、測定を開始するか否かを判定し、開始すると判定されるまで待機する。測定を開始すると判定された場合、処理はステップS107に進む。
 ステップS107において、測定部166は、ステップS102において得られた撮像画像を用いて、処理対象パラメータの測定を行う。ステップS108において、出力部167は、ステップS107において得られた測定結果を出力する。ステップS108の処理が終了すると、測定処理が終了する。
 以上のように測定処理を行うことにより、測定対象物体の光が照射された部分の実際の形状を撮像した撮像画像に、その光の照射された部分の目標形状を示す画像を重畳して合成し、その合成画像を表示することができるので、測定装置100は、ユーザがより容易に姿勢を制御することができるようにすることができる。
  <その他>
 なお、以上においては、人体130に照射される光の目標形状を示す画像173が、その目標形状の外枠を点線により示す画像であるように説明したが、この目標形状の外枠を示す画像173は、例えば実線、鎖線、二重線等、点線以外の任意の線であってもよい。
 また、以上においては、画像173が、目標形状の外枠を示す画像であるように説明したが、画像173は、目標形状を示す画像であればよく、この例に限定されない。例えば、目標形状を各頂点によって示すようにしてもよい。例えば、画像173が、目標形状の各頂点を示す画像であるようにしてもよい。また、例えば、目標形状を色、テクスチャ、または画像処理効果等によって示すようにしてもよい。例えば、画像173が、光が照射される部分が透明で、それ以外の部分(光が照射されない部分)が半透明の画像であるようにしてもよい。つまり、表示画像(合成画像)においては、光が照射される部分の撮像画像が鮮明に表示され、その他の部分の撮像画像が薄く表示(またはグレー表示)されるようにしてもよい。もちろん、これら以外の方法で、目標形状が示されるようにしてもよい。
 また、測定装置100の構成は任意であり、図1に示される例以外の構成であってもよい。例えば、測定プローブ101と表示装置103とが無線通信により情報を授受するようにし、ケーブル102を省略するようにしてもよい。また、図1においては、測定装置100が、測定プローブ101と表示装置103とを1つずつ有するように説明したが、測定プローブ101が複数設けられるようにしてもよいし、表示装置103が複数設けられるようにしてもよい。その場合、測定プローブ101と表示装置103との数が一致していてもよいし、一致しなくてもよい。また、測定プローブ101と表示装置103とが一体化して形成されるようにしてもよい。また、測定プローブ101の形状は任意であり、上述した例に限定されない。表示装置103も同様である。
 <2.第2の実施の形態>
  <測定装置の内部の構成>
 また、測定装置100が、撮像画像に基づいて、測定対象物体(被写体)に対する姿勢に関する情報を設定するようにしてもよい。このように姿勢に関する情報を設定することにより、その姿勢に関する情報を測定プローブ101の姿勢制御に利用することができる。つまり、より容易に姿勢を制御することができる。
 この姿勢に関する情報はどのような内容であってもよいが、例えば、目標とする姿勢と実際の姿勢とのズレに関する情報を設定するようにしてもよい。このようにズレに関する情報を設定することにより、そのズレに関する情報を測定プローブ101の姿勢制御に利用することができる。つまり、より容易に姿勢を制御することができる。
 図10は、その場合の測定装置100の内部の主な構成例を示すブロック図である。図10に示されるように、この場合、測定装置100は、制御部151、光照射部161、撮像部162、測定部166、出力部167、解析部201、設定部202、および通知部203を有する。
 制御部151、光照射部161、撮像部162、測定部166、および出力部167は、第1の実施の形態で説明した通りである(図3)。解析部201は、撮像部162が撮像して得られた撮像画像を撮像部162から取得する。解析部201は、その撮像画像に基づいて、姿勢に関する情報、例えば、目標とする姿勢と実際の姿勢とのズレを解析する。このように解析部201が、目標とする姿勢と実際の姿勢とのズレを解析することにより、後述するように、設定部202が、目標とする姿勢と実際の姿勢とのズレに関する情報を設定することができる。したがって、上述のように、より容易に姿勢を制御することができる。
 解析部201は、例えば、その目標とする姿勢と実際の姿勢とのズレとして、そのズレの方向やズレの大きさ(ズレ量)を解析する。例えば、解析部201が、目標とする姿勢と実際の姿勢とのズレの方向およびズレ量の内、少なくとも一方を解析するようにしてもよい。例えば、図11のAに示されるように、撮像画像211において、その一部の領域212に、光照射部161により光が照射されているとする。解析部201は、図11のBに示されるように、その撮像画像211を2値化することにより、2値化された撮像画像213を得る。次に、解析部201は、2値化された撮像画像213において、領域212の外枠となる直線214を検出する。例えば、図11のCの例の場合、領域212の外枠となる直線214は、4本検出される。次に、解析部201は、領域212の外枠の頂点を検出する。図11のDの例の場合、4本の直線214の各交点がその頂点となる。解析部201は、この4本の直線214のみを含む画像215を設定し、その画像215において、このような領域212の外枠の頂点(P1乃至P4)を検出する。また、解析部201は、図11のEに示されるように、光照射部161により光が照射されている領域の目標形状を含む画像216を設定し、その画像216において、目標形状の領域の各頂点(R1乃至R4)を検出する。解析部201は、図11のFに示されるように、画像215と画像216とを重畳して合成した合成画像217を設定する。解析部201は、この合成画像217において、各頂点(P1乃至P4、並びに、R1乃至R4)の位置関係に基づいて、目標とする姿勢と実際の姿勢とのズレを解析する。
 例えば、点P1の座標を(P1x,P1y)とし、点P2の座標を(P2x,P2y)とし、点P3の座標を(P3x,P3y)とし、点P4の座標を(P4x,P4y)とし、点R1の座標を(R1x,R1y)とし、点R2の座標を(R2x,R2y)とし、点R3の座標を(R3x,R3y)とし、点R4の座標を(R4x,R4y)とする。
 |P1x - P2x| < |P3x - P4x| ・・・(1)
 例えば、この式(1)を満たす場合、図11のDに示されるP1乃至P4を頂点とする領域212において、その上辺(線分P1P2)が下辺(線分P3P4)よりも短い。この場合、図11のAの撮像画像211において、測定プローブ101は、図中の上を向くように傾斜している。
 |P1x - P2x| > |P3x - P4x| ・・・(2)
 例えば、この式(2)を満たす場合、図11のDに示されるP1乃至P4を頂点とする領域212において、その上辺(線分P1P2)が下辺(線分P3P4)よりも長い。この場合、図11のAの撮像画像211において、測定プローブ101は、図中の下を向くように傾斜している。
 |P1y - P4y| < |P2y - P3y| ・・・(3)
 例えば、この式(3)を満たす場合、図11のDに示されるP1乃至P4を頂点とする領域212において、その左辺(線分P1P4)が右辺(線分P2P3)よりも短い。この場合、図11のAの撮像画像211において、測定プローブ101は、図中の左を向くように傾斜している。
 |P1y - P4y| > |P2y - P3y| ・・・(4)
 例えば、この式(4)を満たす場合、図11のDに示されるP1乃至P4を頂点とする領域212において、その左辺(線分P1P4)が右辺(線分P2P3)よりも長い。この場合、図11のAの撮像画像211において、測定プローブ101は、図中の右を向くように傾斜している。
 |P1x - P2x| < |R1x - R2x| ・・・(5)
 例えば、この式(5)を満たす場合、図11のDに示されるP1乃至P4を頂点とする領域212において、その上辺(線分P1P2)が目標形状の上辺(線分R1R2)よりも短い。この場合、測定プローブ101が、人体130から最適な距離よりも遠い位置に設定されている。
 |P1x - P2x| > |R1x - R2x| ・・・(6)
 例えば、この式(6)を満たす場合、図11のDに示されるP1乃至P4を頂点とする領域212において、その上辺(線分P1P2)が目標形状の上辺(線分R1R2)よりも長い。この場合、測定プローブ101が、人体130から最適な距離よりも近い位置に設定されている。
 以上のように目標とする姿勢と実際の姿勢とのズレ(ズレの方向やズレ量等)を解析するようにしてもよい。もちろん、この解析部201による目標とする姿勢と実際の姿勢とのズレの解析方法は任意であり、上述の例に限定されない。例えば、一般的な3軸の回転を含む、投影画像からカメラの姿勢を推定する方法については、国際公開第2013/038656号(投影像自動補正システム、投影像自動補正方法およびプログラム)に記載される技術等を適用するようにしてもよい。もちろん、他の技術を適用するようにしてもよい。解析部201は、以上のようにズレを解析すると、その解析結果を設定部202に供給する。
 設定部202は、その解析結果に基づいて、すなわち、撮像画像に基づいて、人体130(被写体)に対する姿勢に関する情報を設定する。例えば、設定部202は、その姿勢に関する情報として、目標とする姿勢と実際の姿勢とのズレに関する情報を設定するようにしてもよい。この目標とする姿勢と実際の姿勢とのズレに関する情報はどのような情報であってもよいが、例えば、そのズレの方向を示す情報を含むようにしてもよい。また、そのズレの大きさ(ズレ量)を示す情報を含むようにしてもよい。また、ズレの方向を示す情報およびズレ量を示す情報の両方を含むようにしてもよい。すなわち、目標とする姿勢と実際の姿勢とのズレに関する情報が、ズレの方向を示す情報およびズレ量を示す情報の内、少なくとも一方を含むようにしてもよい。このように、ズレの方向やズレ量を設定することにより、これらの情報を測定プローブ101の姿勢制御に利用することができる。つまり、より容易に姿勢を制御することができる。
 設定部202は、例えば、解析部201が解析した目標とする姿勢と実際の姿勢とのズレ(姿勢ズレ)に関する情報を通知する通知情報を、姿勢に関する情報として設定するようにしてもよい。この通知情報はどのような情報であってもよい。例えば、測定プローブ101の姿勢をどのように制御すれば良いか(例えば、測定プローブ101をどの向きにどの程度傾ければよいか)等を通知する情報を含むようにしてもよい。
 例えば、式(1)を満たす場合、設定部202が、測定プローブ101を図中下にむけるように通知する通知情報を生成するようにしてもよい。また、例えば、式(2)を満たす場合、設定部202が、測定プローブ101を図中上にむけるように通知する通知情報を生成するようにしてもよい。また、例えば、式(3)を満たす場合、設定部202が、測定プローブ101を図中右にむけるように通知する通知情報を生成するようにしてもよい。また、例えば、式(4)を満たす場合、設定部202が、測定プローブ101を図中左にむけるように通知する通知情報を生成するようにしてもよい。また、例えば、式(5)を満たす場合、設定部202が、測定プローブ101を人体130に近づけるように通知する通知情報を生成するようにしてもよい。また、例えば、式(6)を満たす場合、設定部202が、測定プローブ101を人体130から遠ざけるように通知する通知情報を生成するようにしてもよい。設定部202は、設定した姿勢に関する情報を、通知部203に供給する。
 通知部203は、設定部202から供給される情報の通知に関する処理を行う。例えば、通知部203は、設定部202から供給される姿勢に関する情報(通知情報)を取得する。例えば、通知部203は、設定部202から供給される姿勢に関する情報(通知情報)の画像情報(文字や絵柄等)を生成し、それを表示装置103のモニタ121に表示させる(つまり、姿勢に関する情報を通知する)。図12のAにそのような通知の様子の例を示す。例えば、第1の実施の形態の場合と同様に、撮像画像に、人体130に照射される光の目標形状を示す画像を重畳して表示するようにしてもよい。また、例えば、図12のAに示されるような、「傾いています。枠線に合わせて下さい。」等の、姿勢制御に関するメッセージが表示されるようにしてもよい。
 また、例えば、通知部203が、音声を出力する音声出力デバイス(例えばスピーカ)を有し、設定部202から供給される姿勢に関する情報(通知情報)を音声信号に変換し、その音声信号を通知部203から出力するようにしてもよい。例えば、図12のBに示されるように、測定プローブ101にスピーカ221を設け、通知部203が、通知情報の音声信号を、そのスピーカ221から出力させるようにしてもよい。例えば、図12のBに示されるように、スピーカ221から「傾いています。右に傾けて下さい」等の、姿勢制御に関するメッセージが音声として出力されるようにしてもよい。また、この場合の通知情報は、メッセージの音声の代わりに、例えば、「ピッ ピッ… ピピピピ… ピー」のような音声信号の音程や周期等によってズレ量やズレの方向を示すようなものであってもよい。
 また、例えば、測定装置100が、バイブレータを有し、通知部203が、設定部202から供給される姿勢に関する情報(通知情報)に応じてそのバイブレータを振動させるようにしてもよい。つまり、通知部203が、その姿勢に関する情報を、振動により通知するようにしてもよい。その際、例えば、振動の大きさや周期等によって、ズレ量やズレの方向が表現されるようにしてもよい。
 なお、通知情報は、どのような情報として通知されるようにしてもよく、上述の画像、音声、振動以外の方法で通知されるようにしてもよい。また、例えば、上述の画像、音声、振動による通知を、組み合わせて用いるようにしてもよい。すなわち、複数の方法で通知を行うようにしてもよい。
 以上のように、通知部203が姿勢に関する情報を通知することにより、測定装置100は、ユーザがより容易に姿勢を制御することができるようにすることができる。
  <測定処理の流れ>
 この場合の、測定装置100により実行される測定処理の流れの例を、図13のフローチャートを参照して説明する。
 測定処理が開始されると、光照射部161は、ステップS201において、発光部112を制御し、所定の波長の光を測定対象物体(例えば人体130)に照射する。ステップS202において、撮像部162は、イメージセンサ111を制御し、測定対象物体の、ステップS101において光が照射された領域を含む領域を撮像し、その撮像画像を得る。
 ステップS203において、解析部201は、ステップS102において得られた撮像画像に基づいて、目標とする姿勢と実際の姿勢とのズレ(姿勢ズレ)を解析する。ステップS204において、設定部202は、ステップS203において得られた解析結果に基づいて、姿勢ズレに関する通知情報を設定する。ステップS204において、通知部203は、その通知情報の通知を行う。
 ステップS206乃至ステップS208の各処理は、図9のステップS106乃至ステップS108の各処理と同様に実行される。ステップS208の処理が終了すると、測定処理が終了する。
 以上のように測定処理を行うことにより、撮像画像に基づいて、被写体に対する姿勢に関する情報を設定することができるので、測定装置100は、ユーザがより容易に姿勢を制御することができるようにすることができる。
 <3.第3の実施の形態>
  <測定装置の内部の構成>
 また、測定装置100が、目標とする姿勢と実際の姿勢とのズレの解析結果に基づいて、そのズレを低減させるような、撮像に関する補正に関する処理を行うようにしてもよい。このような補正を行うことにより、姿勢制御のユーザへの負荷を低減させることができる。つまり、より容易に姿勢を制御することができる。
 図14は、その場合の測定装置100の内部の主な構成例を示すブロック図である。図14に示されるように、この場合、測定装置100は、制御部151、光照射部161、撮像部162、出力部167、解析部201、撮像制御部301、補正部302、および測定部303を有する。
 制御部151、光照射部161、撮像部162、出力部167、および解析部201は、第2の実施の形態で説明した通りである(図10)。撮像制御部301は、解析部201から供給される解析結果に基づいて、光照射部161や撮像部162を制御することにより、発光部112による光照射方向や、イメージセンサ111による撮像方向等を制御する。
 例えば、この場合、図15のAに示されるように、測定プローブ101には、可動光学ユニット311が設けられている。そして、イメージセンサ111、発光部112、および遮光部材113は、この可動光学ユニット311に設けられている。図15のAや図15のBに示されるように、この可動光学ユニット311は、測定プローブ101の筐体に対して可動に設けられている。つまり、この場合、イメージセンサ111、発光部112、および遮光部材113は、測定プローブ101の筐体に対して可動である。したがって、この場合、光の照射方向や撮像方向等が、測定プローブ101の筐体に対して可変である。撮像部162は、この可動光学ユニット311の向きを制御することができ、それによって、光の照射方向や撮像方向を制御することができる。
 例えば、測定プローブ101の筐体が人体130に対して傾いている場合、撮像制御部301は、撮像部162を介してこの可動光学ユニット311の向きを制御することにより、光の照射方向や撮像方向等を、測定プローブ101の筐体の傾きによる影響を低減させる方向に補正することができる。つまり、この場合、ユーザの手動による姿勢制御が低減されるので、より容易に姿勢を制御することができる。
 図14に戻り、補正部302は、解析部201から供給される解析結果に基づいて、測定対象パラメータの測定に用いられるパラメータを、測定プローブ101の傾きによる影響を低減させるように補正する。例えば、人体130に光が垂直にあたる場合と、斜めにあたる場合とで、その光が照射された部分の照度や面積が、図16に示されるように変化する。補正部302は、例えば、このような理論値に基づいて、各パラメータの補正量を求め、補正する。補正部302は、その補正後の値を測定部303に供給する。測定部303は、その補正部302から供給された値を用いて測定を行う。
 このようにすることにより、ユーザの手動による姿勢制御が低減されるので、より容易に姿勢を制御することができる。
  <測定処理の流れ>
 この場合の、測定装置100により実行される測定処理の流れの例を、図17のフローチャートを参照して説明する。
 測定処理が開始されると、ステップS301乃至ステップS303の各処理が、図13のステップS201乃至ステップS203の各処理と同様に実行される。
 姿勢ズレが解析されると、補正部302は、ステップS304において、測定の際に用いられるパラメータの補正を行うか否かを判定する。補正すると判定された場合、処理はステップS305に進む。ステップS305において、補正部302は、ステップS303において得られた解析結果に基づいて、パラメータの補正を行う。補正が終了すると、処理はステップS307に進む。
 また、ステップS304において、パラメータを補正しないと判定された場合、処理はステップS306に進む。ステップS306において、撮像制御部301は、ステップS303において得られた解析結果に基づいて、撮像範囲等の更新を行う。更新が終了すると、処理はステップS307に進む。
 ステップS307乃至ステップS309の各処理は、図13のステップS206乃至ステップS208の各処理と同様に実行される。ステップS309の処理が終了すると、測定処理が終了する。
 以上のように測定処理を行うことにより、撮像画像に基づいて、撮像に関する補正を行うことができるので、測定装置100は、ユーザがより容易に姿勢を制御することができるようにすることができる。
 本技術を適用することができる測定システムの構成は、任意であり、上述した各例に限定されない。
  <その他>
 測定装置100により測定が行われる部位は任意である。例えば、利用者の足(足の裏、足の甲、指、脛、ふくらはぎ、腿部等)であってもよいし、利用者の腕(肩、肘、手の平、手の甲、指等)であってもよいし、利用者の胴体(胸、腹、下腹部、臀部、腋等)であってもよいし、利用者の頭部(前頭部、後頭部、頭頂部、顔、顎、耳、首等)であってもよい。もちろん、これら以外の部位であってもよい。
 また、以上においては測定装置100が人体内に含まれる週末糖化生成物(AGEs)に関する指標を測定する例について説明したが、測定装置100が測定する指標は任意である。例えば、測定装置100が、色、シミ、日焼け、血行、肌キメ、水分量、油分量等の肌の状態に関する指標を測定するようにしてもよい。また、例えば、測定装置100が、怪我や炎症の状態に関する指標を測定するようにしてもよい。また、例えば、測定装置100が、頭皮や毛髪の状態に関する指標を測定するようにしてもよい。また、例えば、測定装置100が、指紋や汗腺等の状態に関する指標を測定するようにしてもよい。
 もちろん、測定装置100が、これら以外の指標を測定するようにしてもよい。また、測定装置100が、複数種類の指標を測定するようにしてもよい。これらの場合であっても上述の例と同様に、測定装置100に本技術を適用することができる。つまり、本技術は、任意の指標を測定する測定装置に適用することができる。
 特に、指標をより正確に測定するために、その測定の条件(例えば、撮像の際の肌(測定対象物体)までの距離や角度等)をより安定させる(理想的には同一とする)ことが求められる測定装置に本技術を適用することにより、より重要な効果を得ることができる。つまり、本技術をそのような測定装置に適用することにより、より容易にその測定装置の姿勢を制御することができるようになるので、測定の条件をより安定させることができ、指標をより正確に測定することができるようになる。
 さらに、本技術は、上述した測定装置に限らず、任意の装置に適用することができる。例えば、任意の光学装置、電子機器、撮像装置、情報処理装置等に適用することができる。つまり、測定を行う対象は任意であり、例えば人体以外の生体(例えば犬や猫等の動物や植物等)であってもよいし、生体で無い物体であってもよい。例えば、無機物であってもよい。
 <4.その他>
  <本技術の適用例>
 上述した実施形態に係るシステムや装置は、任意のシステムや電子機器に応用され得る。また、本技術は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野の画像処理システムや画像処理装置に適用することができる。
 例えば、本技術は、鑑賞の用に供される画像を表示、投影、または撮像するシステムにも適用することができる。また、例えば、本技術は、交通の用に供されるシステムにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムにも適用することができる。また、例えば、本技術は、スポーツの用に供されるシステムにも適用することができる。さらに、例えば、本技術は、農業の用に供されるシステムにも適用することができる。また、例えば、本技術は、畜産業の用に供されるシステムにも適用することができる。さらに、本技術は、例えば火山、森林、海洋等の自然の状態を監視するシステムや、例えば天気、気温、湿度、風速、日照時間等を観測する気象観測システムや、例えば鳥類、魚類、ハ虫類、両生類、哺乳類、昆虫、植物等の野生生物の生態を観測するシステム等にも適用することができる。
  <コンピュータ>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図18に示されるコンピュータ400において、CPU(Central Processing Unit)401、ROM(Read Only Memory)402、RAM(Random Access Memory)403は、バス404を介して相互に接続されている。
 バス404にはまた、入出力インタフェース410も接続されている。入出力インタフェース410には、入力部411、出力部412、記憶部413、通信部414、およびドライブ415が接続されている。
 入力部411は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部412は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部413は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部414は、例えば、ネットワークインタフェースよりなる。ドライブ415は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア421を駆動する。
 以上のように構成されるコンピュータ400では、CPU401が、例えば、記憶部413に記憶されているプログラムを、入出力インタフェース410およびバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。RAM403にはまた、CPU401が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータ400が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア421に記録して適用することができる。その場合、プログラムは、リムーバブルメディア421をドライブ415に装着することにより、入出力インタフェース410を介して、記憶部413にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部414で受信し、記憶部413にインストールすることができる。
 その他、このプログラムは、ROM402や記憶部413等に、あらかじめインストールしておくこともできる。
  <その他>
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本技術は、装置やシステムとして実施するだけでなく、装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
 なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術を、他の実施の形態において説明した本技術と組み合わせて実施することもできる。また、例えば、いずれかの実施の形態において説明した本技術の一部を、他の実施の形態において説明した本技術(の一部または全部)と組み合わせて実施することもできる。さらに、3つ以上の実施の形態において説明した各本技術(の一部または全部)を、組み合わせて実施することもできる。また、上述した任意の本技術を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) 被写体に対して光を照射する照射部と、
 前記被写体の、前記照射部により前記光が照射された部分を含む所定の範囲を撮像する撮像部と、
 前記撮像部により前記被写体が撮像されて得られた撮像画像に、前記照射部により前記被写体に照射された前記光の目標形状を示す画像を重畳して表示する表示部と
 を備える光学装置。
 (2) 前記光の目標形状を示す画像は、前記目標形状の外枠を示す画像である
 (1)に記載の光学装置。
 (3) 前記光の目標形状を示す画像は、前記目標形状の各頂点を示す画像である
 (1)または(2)に記載の光学装置。
 (4) 前記光の目標形状を示す画像は、前記目標形状の外側の領域の透過率が、前記目標形状の内側の領域の透過率よりも低い画像である
 (1)乃至(3)のいずれかに記載の光学装置。
 (5) 前記光学装置の姿勢または前記姿勢の変化を検出する検出部をさらに備える
 (1)乃至(4)のいずれかに記載の光学装置。
 (6) 前記検出部の検出結果に従って、前記表示部に表示させる前記撮像画像の向きを、前記光学装置の現在の姿勢に応じた向きに制御する表示制御部をさらに備える
 (1)乃至(5)のいずれかに記載の光学装置。
 (7) 被写体に対して光を照射し、
 前記被写体の、前記光が照射された部分を含む所定の範囲を撮像し、
 前記被写体が撮像されて得られた撮像画像に、前記被写体に照射された前記光の目標形状を示す画像を重畳して表示する
 情報処理方法。
 (8) 被写体に対して光を照射する照射部と、
 前記被写体の、前記照射部により前記光が照射された部分を含む所定の範囲を撮像する撮像部と、
 前記撮像部により前記被写体が撮像されて得られた撮像画像に基づいて、前記被写体に対する姿勢に関する情報を設定する設定部と
 を備える光学装置。
 (9) 前記姿勢に関する情報は、目標とする前記姿勢と実際の前記姿勢とのズレに関する情報である
 (8)に記載の光学装置。
 (10) 前記ズレに関する情報は、前記ズレの方向および前記ズレの量の内、少なくとも一方を含む
 (8)または(9)に記載の光学装置。
 (11) 前記姿勢に関する情報を通知する通知部をさらに備える
 (8)乃至(10)のいずれかに記載の光学装置。
 (12) 前記通知部は、前記姿勢に関する情報を、音、振動、または画像により通知する
 (8)乃至(11)のいずれかに記載の光学装置。
 (13) 前記撮像画像に基づいて、前記目標とする前記姿勢と実際の前記姿勢とのズレを解析する解析部をさらに備え、
 前記設定部は、前記解析部により解析された前記目標とする前記姿勢と実際の前記姿勢とのズレに関する情報を設定するように構成される
 (8)乃至(12)のいずれかに記載の光学装置。
 (14) 前記解析部は、前記ズレの方向および前記ズレの量の内、少なくとも一方を解析する
 (8)乃至(13)のいずれかに記載の光学装置。
 (15) 前記解析部による解析結果に基づいて、前記撮像に関する補正を行う補正部をさらに備える
 (8)乃至(14)のいずれかに記載の光学装置。
 (16) 前記補正部は、前記撮像部による撮像の方向または前記撮像画像を補正する
 (8)乃至(15)のいずれかに記載の光学装置。
 (17) 前記撮像画像に基づいて、前記被写体の所定のパラメータについての測定を行う測定部をさらに備える
 (8)乃至(16)のいずれかに記載の光学装置。
 (18) 前記照射部により照射される前記光の一部を遮光することにより、前記被写体に対する前記光の照射範囲を制限する遮光部をさらに備える
 (8)乃至(17)のいずれかに記載の光学装置。
 (19) 前記照射部および前記撮像部よりも前方に突き出るように形成される凸部をさらに備える
 (8)乃至(18)のいずれかに記載の光学装置。
 (20) 被写体に対して光を照射し、
 前記被写体の、前記光が照射された部分を含む所定の範囲を撮像し、
 前記被写体が撮像されて得られた撮像画像に基づいて、前記被写体に対する姿勢に関する情報を設定する
 情報処理方法。
 100 測定装置, 101 測定プローブ, 102 ケーブル, 103 表示装置, 111 イメージセンサ, 112 発光部, 113 遮光部材, 114 ガイド, 121 モニタ, 130 人体, 151 制御部, 161 光照射部, 162 撮像部, 163 加速度センサ, 164 画像処理部, 165 表示部, 166 測定部, 167 出力部, 201 解析部, 202 設定部, 203 通知部, 221 スピーカ, 301 撮像制御部, 302 補正部, 303 測定部, 311 可動光学ユニット, 400 コンピュータ

Claims (20)

  1.  被写体に対して光を照射する照射部と、
     前記被写体の、前記照射部により前記光が照射された部分を含む所定の範囲を撮像する撮像部と、
     前記撮像部により前記被写体が撮像されて得られた撮像画像に、前記照射部により前記被写体に照射された前記光の目標形状を示す画像を重畳して表示する表示部と
     を備える光学装置。
  2.  前記光の目標形状を示す画像は、前記目標形状の外枠を示す画像である
     請求項1に記載の光学装置。
  3.  前記光の目標形状を示す画像は、前記目標形状の各頂点を示す画像である
     請求項1に記載の光学装置。
  4.  前記光の目標形状を示す画像は、前記目標形状の外側の領域の透過率が、前記目標形状の内側の領域の透過率よりも低い画像である
     請求項1に記載の光学装置。
  5.  前記光学装置の姿勢または前記姿勢の変化を検出する検出部をさらに備える
     請求項1に記載の光学装置。
  6.  前記検出部の検出結果に従って、前記表示部に表示させる前記撮像画像の向きを、前記光学装置の現在の姿勢に応じた向きに制御する表示制御部をさらに備える
     請求項5に記載の光学装置。
  7.  被写体に対して光を照射し、
     前記被写体の、前記光が照射された部分を含む所定の範囲を撮像し、
     前記被写体が撮像されて得られた撮像画像に、前記被写体に照射された前記光の目標形状を示す画像を重畳して表示する
     情報処理方法。
  8.  被写体に対して光を照射する照射部と、
     前記被写体の、前記照射部により前記光が照射された部分を含む所定の範囲を撮像する撮像部と、
     前記撮像部により前記被写体が撮像されて得られた撮像画像に基づいて、前記被写体に対する姿勢に関する情報を設定する設定部と
     を備える光学装置。
  9.  前記姿勢に関する情報は、目標とする前記姿勢と実際の前記姿勢とのズレに関する情報である
     請求項8に記載の光学装置。
  10.  前記ズレに関する情報は、前記ズレの方向および前記ズレの量の内、少なくとも一方を含む
     請求項9に記載の光学装置。
  11.  前記姿勢に関する情報を通知する通知部をさらに備える
     請求項8に記載の光学装置。
  12.  前記通知部は、前記姿勢に関する情報を、音、振動、または画像により通知する
     請求項11に記載の光学装置。
  13.  前記撮像画像に基づいて、前記目標とする前記姿勢と実際の前記姿勢とのズレを解析する解析部をさらに備え、
     前記設定部は、前記解析部により解析された前記目標とする前記姿勢と実際の前記姿勢とのズレに関する情報を設定するように構成される
     請求項9に記載の光学装置。
  14.  前記解析部は、前記ズレの方向および前記ズレの量の内、少なくとも一方を解析する
     請求項13に記載の光学装置。
  15.  前記解析部による解析結果に基づいて、前記撮像に関する補正を行う補正部をさらに備える
     請求項8に記載の光学装置。
  16.  前記補正部は、前記撮像部による撮像の方向または前記撮像画像を補正する
     請求項15に記載の光学装置。
  17.  前記撮像画像に基づいて、前記被写体の所定のパラメータについての測定を行う測定部をさらに備える
     請求項8に記載の光学装置。
  18.  前記照射部により照射される前記光の一部を遮光することにより、前記被写体に対する前記光の照射範囲を制限する遮光部をさらに備える
     請求項8に記載の光学装置。
  19.  前記照射部および前記撮像部よりも前方に突き出るように形成される凸部をさらに備える
     請求項8に記載の光学装置。
  20.  被写体に対して光を照射し、
     前記被写体の、前記光が照射された部分を含む所定の範囲を撮像し、
     前記被写体が撮像されて得られた撮像画像に基づいて、前記被写体に対する姿勢に関する情報を設定する
     情報処理方法。
PCT/JP2017/025893 2016-08-01 2017-07-18 光学装置および情報処理方法 WO2018025625A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-151359 2016-08-01
JP2016151359 2016-08-01

Publications (1)

Publication Number Publication Date
WO2018025625A1 true WO2018025625A1 (ja) 2018-02-08

Family

ID=61073571

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/025893 WO2018025625A1 (ja) 2016-08-01 2017-07-18 光学装置および情報処理方法

Country Status (1)

Country Link
WO (1) WO2018025625A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062726A (ja) * 2008-09-02 2010-03-18 Sharp Corp 撮像位置決定補助装置、撮像位置決定補助方法、及びコンピュータプログラム
JP2012193980A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理装置および画像処理プログラム
JP2014145646A (ja) * 2013-01-29 2014-08-14 Ihi Corp 原子力設備用観察装置及び原子力設備用観察システム
JP2015195888A (ja) * 2014-03-31 2015-11-09 株式会社ニデック 光断層像撮影装置
JP2017129394A (ja) * 2016-01-19 2017-07-27 三菱電機株式会社 輝度ムラ測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062726A (ja) * 2008-09-02 2010-03-18 Sharp Corp 撮像位置決定補助装置、撮像位置決定補助方法、及びコンピュータプログラム
JP2012193980A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理装置および画像処理プログラム
JP2014145646A (ja) * 2013-01-29 2014-08-14 Ihi Corp 原子力設備用観察装置及び原子力設備用観察システム
JP2015195888A (ja) * 2014-03-31 2015-11-09 株式会社ニデック 光断層像撮影装置
JP2017129394A (ja) * 2016-01-19 2017-07-27 三菱電機株式会社 輝度ムラ測定装置

Similar Documents

Publication Publication Date Title
US9370658B2 (en) System and a method for transcranial stimulation of a head region of a subject
JP6083638B2 (ja) 動物体の体重推定装置、及び体重推定方法
EP2973417B1 (en) A method and system for three-dimensional imaging
CA2856932C (en) Devices and methods for identifying and monitoring changes of a suspect area on a patient
KR101382515B1 (ko) 의료용 테크닉 평가 시스템, 테크닉 평가 장치 및 테크닉 평가 장치용 프로그램
CN109069008B (zh) 光学设备和信息处理方法
EP3437557B1 (en) Gait analyzing device, gait analyzing method, and computer-readable recording medium
US20150145953A1 (en) Image completion system for in-image cutoff region, image processing device, and program therefor
EP3349643B1 (en) Methods, systems and computer program products for determining object distances and target dimensions using light emitters
US9107613B2 (en) Handheld scanning device
JP2015177397A (ja) ヘッドマウントディスプレイおよび農作業補助システム
JP2021530319A (ja) 身体部位のサーマル画像データを取得するシステムおよび方法とサーマルイメージャ
US20190349518A1 (en) Body Part Color Measurement Detection and Method
JP2017109016A (ja) 皮膚状態測定装置、皮膚状態測定モジュール及び皮膚状態測定方法
WO2018025625A1 (ja) 光学装置および情報処理方法
Quiñones et al. HIVE Tracker: a tiny, low-cost, and scalable device for sub-millimetric 3D positioning
EP2901928B1 (en) Non-invasive living body measurement device
Juston et al. Hyperacute edge and bar detection in a bioinspired optical position sensing device
US20180368693A1 (en) Device and method for acquisition of medical images for the analysis of ulcers
KR101606768B1 (ko) 모션 추출기반의 보행 자세 교정장치
KR20180021338A (ko) 엘이디를 이용한 피부 관리장치 및 방법
US10796449B2 (en) Measurement device, measurement method, and computer readable recording medium
WO2017170804A1 (ja) 生体計測装置、情報処理プログラム、及び、生体計測方法
Robledo et al. Coregistered and segmented tissue oxygenation maps onto white light images of diabetic foot ulcers
JP2017038878A (ja) 生体光計測装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17836731

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 17836731

Country of ref document: EP

Kind code of ref document: A1