JP6310792B2 - Skin property evaluation device - Google Patents

Skin property evaluation device Download PDF

Info

Publication number
JP6310792B2
JP6310792B2 JP2014134895A JP2014134895A JP6310792B2 JP 6310792 B2 JP6310792 B2 JP 6310792B2 JP 2014134895 A JP2014134895 A JP 2014134895A JP 2014134895 A JP2014134895 A JP 2014134895A JP 6310792 B2 JP6310792 B2 JP 6310792B2
Authority
JP
Japan
Prior art keywords
unit
light
position information
skin
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014134895A
Other languages
Japanese (ja)
Other versions
JP2016011935A (en
Inventor
寛一 ▲徳▼田
寛一 ▲徳▼田
酒井 潤
潤 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2014134895A priority Critical patent/JP6310792B2/en
Priority to PCT/JP2015/066308 priority patent/WO2016002432A1/en
Publication of JP2016011935A publication Critical patent/JP2016011935A/en
Application granted granted Critical
Publication of JP6310792B2 publication Critical patent/JP6310792B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements

Description

この発明は、被検者の皮膚の性状を評価するための装置に関する。   The present invention relates to an apparatus for evaluating the properties of a subject's skin.

皮膚の性状を評価するための技術として、皮膚の応力に対応する表面特性を評価するために、皮膚表面に圧縮ガスを吹き付け、それによる皮膚表面の変位を測定する方法が知られている(たとえば、特許文献1、特許文献2を参照)。これら方法においては、レーザ変位計、超音波変位計、赤外線変位計、赤色LED(Light Emitting Diode)変位計、高速度カメラなどを用いて、皮膚表面の変位の測定が行われている。   As a technique for evaluating the properties of the skin, in order to evaluate the surface characteristics corresponding to the stress of the skin, a method of blowing a compressed gas on the skin surface and measuring the displacement of the skin surface due to this is known (for example, , See Patent Document 1 and Patent Document 2). In these methods, the displacement of the skin surface is measured using a laser displacement meter, an ultrasonic displacement meter, an infrared displacement meter, a red LED (Light Emitting Diode) displacement meter, a high-speed camera, or the like.

被測定物体の断層データを取得するための技術として、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)が知られている。OCTは、干渉光学系を用いて被測定物体の断面における反射強度プロファイルを取得するデータ収集およびデータ処理技術である。OCTには、スペクトラルドメイン方式(たとえば、特許文献3を参照)、スウェプトソース方式(たとえば、特許文献4を参照)、フルフィールド(或いはインファス)方式(たとえば、特許文献5を参照)などがある。   As a technique for acquiring tomographic data of an object to be measured, optical coherence tomography (OCT) is known. OCT is a data collection and data processing technique for obtaining a reflection intensity profile in a cross section of an object to be measured using an interference optical system. OCT includes a spectral domain method (see, for example, Patent Document 3), a swept source method (see, for example, Patent Document 4), a full field (or interface) method (see, for example, Patent Document 5), and the like.

特開2004−108794号公報JP 2004-108794 A 特開2006−346020号公報JP 2006-346020 A 特開2007−185244号公報JP 2007-185244 A 特開2007−24677号公報JP 2007-24677 A 特開2006−153838号公報JP 2006-153838 A

従来の皮膚性状評価技術は、非接触での評価が可能であるというメリットを有する一方、皮膚の深さ方向への変位を正面側から測定しているため、或る点における変位や或る領域における変位の分布を高確度で測定できないというデメリットも有していた。   While conventional skin property evaluation techniques have the advantage that non-contact evaluation is possible, the displacement in the depth direction of the skin is measured from the front side. In addition, there was a demerit that the distribution of the displacement in the can not be measured with high accuracy.

この発明は、高確度な皮膚の性状評価を非接触で行うことが可能な技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of performing highly accurate skin property evaluation without contact.

上記目的を達成するために、請求項1に記載の発明は、被検者の皮膚表面に気体を吹き付ける吹付部と、前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部と、被検者を異なる方向から実質的に同時に撮影する2以上の撮影部と、前記2以上の撮影部により取得された2以上の撮影画像を解析することにより、被検者に関する3次元位置情報を取得する解析部と、前記解析部により取得された前記3次元位置情報に基づいて、前記吹付部による気体の吹き付け領域、および前記断層データ取得部による光コヒーレンストモグラフィの実行領域の少なくとも一方の位置情報を取得する位置情報取得部とを備える皮膚性状評価装置である。
また、請求項に記載の発明は、請求項に記載の皮膚性状評価装置であって、前記2以上の撮影部による撮影野は、被検者の顔の少なくとも一部を含むことを特徴とする。
また、請求項に記載の発明は、請求項または請求項に記載の皮膚性状評価装置であって、前記解析部は、前記2以上の撮影画像に基づいて、被検者の顔の3次元画像を生成する3次元画像生成部と、前記3次元位置情報として、前記3次元画像生成部により生成された3次元画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた対応情報を生成する対応情報生成部とを備えることを特徴とする。
また、請求項に記載の発明は、請求項に記載の皮膚性状評価装置であって、前記3次元画像を表示手段に表示させる表示制御部をさらに備え、前記表示手段に表示された前記3次元画像中の位置が指定されたときに、前記位置情報取得部は、前記対応情報に基づいて、前記第1の座標系における当該指定位置の座標値に対応する前記第2の座標系における座標値を取得することを特徴とする。
また、請求項に記載の発明は、請求項に記載の皮膚性状評価装置であって、前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、前記プローブを移動させるための移動機構と、前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御する移動制御部とをさらに備えることを特徴とする。
また、請求項に記載の発明は、請求項に記載の皮膚性状評価装置であって、光束を出力する投光部と、前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御する投光制御部とをさらに備えることを特徴とする。
また、請求項に記載の発明は、請求項に記載の皮膚性状評価装置であって、前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、前記プローブを移動させるための移動機構と、前記移動機構を制御する移動制御部と、前記吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶された記憶部とをさらに備え、前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、前記移動制御部は、前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御することを特徴とする。
また、請求項に記載の発明は、請求項に記載の皮膚性状評価装置であって、前記吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶された記憶部と、光束を出力する投光部と、前記投光部を制御する投光制御部と、をさらに備え、前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、前記投光制御部は、前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御することを特徴とする。
また、請求項に記載の発明は、請求項または請求項に記載の皮膚性状評価装置であって、前記対象位置情報は、当該被検者に対する過去の評価における前記吹き付け対象領域の位置、または前記気体の吹き付け対象領域のデフォルト位置であることを特徴とする。
また、請求項10に記載の発明は、請求項に記載の皮膚性状評価装置であって、前記2以上の撮影部は、動画撮影を実行し、前記解析部は、前記動画撮影により実質的に同時に取得された2以上のフレームをリアルタイムかつ順次に解析することにより、時系列に沿った複数の前記3次元位置情報を取得し、前記位置情報取得部は、前記複数の3次元位置情報に基づいて、時系列に沿った複数の前記位置情報をリアルタイムかつ順次に取得することを特徴とする。
また、請求項11に記載の発明は、請求項10に記載の皮膚性状評価装置であって、前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、前記プローブを移動させるための移動機構と、前記位置情報取得部により順次に取得される前記3次元位置情報に基づいて前記移動機構をリアルタイムで制御することにより、被検者の動きに対して前記プローブを追従させる移動制御部とをさらに備えることを特徴とする。
また、請求項12に記載の発明は、請求項11に記載の皮膚性状評価装置であって、前記移動制御部により前記移動機構が制御されているときに、前記位置情報取得部によりリアルタイムかつ順次に取得される前記位置情報に基づいて、被検者と前記プローブとの位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する第1の位置関係判定部をさらに含み、前記断層データ取得部は、前記第1の位置関係判定部により被検者と前記プローブとの位置関係が所定の位置関係であると判定されたことを受けて、光コヒーレンストモグラフィを開始することを特徴とする。
また、請求項13に記載の発明は、請求項に記載の皮膚性状評価装置であって、前記2以上の撮影部は、第1の撮影野で撮影を行う第1群の撮影部と、前記第1の撮影野に含まれる第2の撮影野で撮影を行う第2群の撮影部とを含み、前記解析部は、前記第1群の撮影部により実質的に同時に取得された第1群のフレームを解析することにより、被検者に関する第1の3次元位置情報を取得し、前記第2群の撮影部により実質的に同時に取得された第2群のフレームを解析することにより、第2の3次元位置情報を取得し、前記第1の3次元位置情報と前記第2の3次元位置情報とを対応付けし、前記位置情報取得部は、前記第1の3次元位置情報および前記第2の3次元位置情報に基づいて、前記位置情報を取得することを特徴とする。
また、請求項14に記載の発明は、被検者の皮膚表面に気体を吹き付ける吹付部と、前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部とを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記測定アームと前記参照アームとの間の光路長差が実質的に固定された状態で、前記光学系は、前記干渉光の検出を反復的に実行し、前記光学系によりリアルタイムかつ反復的に取得される前記干渉光の検出結果に基づいて、被検者と前記光学系との位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する第2の位置関係判定部をさらに含み、前記断層データ取得部は、前記第2の位置関係判定部により被検者と前記光学系との位置関係が所定の位置関係であると判定されたことを受けて、前記断層データの取得を開始することを特徴とする皮膚性状評価装置である。
In order to achieve the above-mentioned object, the invention described in claim 1 is directed to a spray unit that blows gas onto the skin surface of a subject, and tomographic data of skin in a state where gas is sprayed by the spray unit. A tomographic data acquisition unit acquired using coherence tomography, an information generation unit that generates evaluation information on the skin properties of the subject based on the tomographic data acquired by the tomographic data acquisition unit, and the subject Analysis of acquiring three-dimensional position information on a subject by analyzing two or more imaging units that capture images of the subject substantially simultaneously from different directions and two or more captured images acquired by the two or more imaging units. And the optical coherence tomography by the tomographic data acquisition unit based on the three-dimensional position information acquired by the analysis unit and the gas spray region by the spray unit A skin property-evaluating apparatus and a position information acquisition unit that acquires at least one of the position information of I execution region.
The invention according to claim 2 is the skin property evaluation apparatus according to claim 1 , wherein the imaging field by the two or more imaging units includes at least a part of the face of the subject. And
The invention according to claim 3 is the skin property evaluation apparatus according to claim 1 or claim 2 , wherein the analysis unit is configured to detect the face of the subject based on the two or more captured images. A three-dimensional image generating unit for generating a three-dimensional image, a first coordinate system set in the three-dimensional image generated by the three-dimensional image generating unit as the three-dimensional position information, and a real space And a correspondence information generation unit that generates correspondence information associated with the second coordinate system.
The invention according to claim 4 is the skin property evaluation apparatus according to claim 3 , further comprising a display control unit that displays the three-dimensional image on a display unit, and the display unit displays the three-dimensional image. When a position in the three-dimensional image is designated, the position information acquisition unit is configured to, based on the correspondence information, in the second coordinate system corresponding to the coordinate value of the designated position in the first coordinate system. A coordinate value is acquired.
The invention according to claim 5 is the skin property evaluation apparatus according to claim 4 , wherein the spray unit includes a nozzle having a gas outlet formed at a tip thereof, and the tomographic data acquisition unit Splits the light from the light source into measurement light and reference light, irradiates the measurement light on the skin through the measurement arm, and passes the measurement light return light and the reference arm through the measurement arm. An optical system that detects interference light with reference light, a probe provided with at least the nozzle and at least the tip of the measurement arm, and a moving mechanism for moving the probe; And a movement control unit that controls the movement mechanism based on the coordinate values acquired by the position information acquisition unit.
The invention according to claim 6 is the skin property evaluation apparatus according to claim 4 , wherein the light projection unit that outputs a light beam and the position indicated by the coordinate value acquired by the position information acquisition unit are provided. And a light projection control unit that controls the light projection unit so that a light beam is projected.
The invention described in Claim 7 is a skin conditions evaluation device according to claim 3, wherein the blowing unit includes a nozzle spout of the gas is formed at the distal end, the tomographic data acquisition unit Splits the light from the light source into measurement light and reference light, irradiates the measurement light on the skin through the measurement arm, and passes the measurement light return light and the reference arm through the measurement arm. An optical system that detects interference light with reference light, a probe provided with at least the nozzle and at least the tip of the measurement arm, and a moving mechanism for moving the probe; The movement control unit that controls the movement mechanism, and a storage unit that stores in advance target position information that represents the position of the gas blowing target region by the blowing unit, and the position information acquisition unit includes the correspondence information Based on the coordinate value acquired in the second coordinate system corresponding to the position represented in the target position information, the movement control unit based on the coordinate value acquired by the position information acquisition unit The moving mechanism is controlled.
The invention according to claim 8 is the skin property evaluation apparatus according to claim 3 , wherein the storage unit stores in advance target position information representing the position of the gas spray target region by the spray unit; A light projecting unit that outputs a light beam; and a light projecting control unit that controls the light projecting unit, wherein the position information acquisition unit is located at the position represented by the target position information based on the correspondence information. The coordinate value in the corresponding second coordinate system is acquired, and the light projection control unit controls the light projection unit so that a light beam is projected at a position indicated by the coordinate value acquired by the position information acquisition unit. It is characterized by controlling.
The invention according to claim 9 is the skin property evaluation apparatus according to claim 7 or claim 8 , wherein the target position information is a position of the spray target area in a past evaluation with respect to the subject. Or a default position of the gas spray target area.
The invention described in claim 10 is the skin property evaluation apparatus according to claim 1 , wherein the two or more imaging units perform moving image shooting, and the analysis unit substantially performs the moving image shooting. By simultaneously analyzing two or more frames acquired simultaneously in real time, a plurality of the three-dimensional position information along a time series is acquired, and the position information acquisition unit includes the plurality of three-dimensional position information. Based on this, the plurality of pieces of position information along a time series are sequentially acquired in real time.
The invention according to claim 11 is the skin property evaluation apparatus according to claim 10 , wherein the spray unit includes a nozzle having a gas outlet formed at a tip thereof, and the tomographic data acquisition unit Splits the light from the light source into measurement light and reference light, irradiates the measurement light on the skin through the measurement arm, and passes the measurement light return light and the reference arm through the measurement arm. An optical system that detects interference light with reference light, a probe provided with at least the nozzle and at least the tip of the measurement arm, and a moving mechanism for moving the probe; A movement control unit for causing the probe to follow the movement of the subject by controlling the movement mechanism in real time based on the three-dimensional position information sequentially acquired by the position information acquisition unit; Characterized in that it comprises further.
The invention according to claim 12 is the skin property evaluation apparatus according to claim 11 , wherein when the movement mechanism is controlled by the movement control unit, the position information acquisition unit sequentially and in real time. A first positional relationship determination unit that repeatedly determines in real time whether the positional relationship between the subject and the probe is a predetermined positional relationship based on the positional information acquired in The tomographic data acquisition unit starts optical coherence tomography when the first positional relationship determination unit determines that the positional relationship between the subject and the probe is a predetermined positional relationship. It is characterized by.
The invention described in claim 13 is the skin property evaluation apparatus according to claim 1 , wherein the two or more imaging units include a first group of imaging units that perform imaging in a first imaging field; A second group of imaging units that perform imaging in a second imaging field included in the first imaging field, wherein the analysis unit is acquired substantially simultaneously by the first group of imaging units. By analyzing the frame of the group, to obtain the first three-dimensional position information about the subject, and by analyzing the frame of the second group acquired substantially simultaneously by the imaging unit of the second group, Second 3D position information is acquired, the first 3D position information is associated with the second 3D position information, and the position information acquisition unit includes the first 3D position information and The position information is acquired based on the second three-dimensional position information .
In addition, the invention according to claim 14 uses optical coherence tomography for the tomographic data of the sprayed part that sprays gas on the skin surface of the subject and the skin in which the gas is sprayed by the sprayed part. A tomographic data acquisition unit for acquiring, and an information generation unit for generating evaluation information related to the properties of the skin of the subject based on the tomographic data acquired by the tomographic data acquisition unit, the tomographic data acquisition unit, The light from the light source is divided into measurement light and reference light, the measurement light is irradiated on the skin through the measurement arm, the return light of the measurement light that has passed through the measurement arm, and the reference light that has passed through the reference arm The optical system repeatedly detects the interference light in a state where the optical path length difference between the measurement arm and the reference arm is substantially fixed. Run and before Based on the detection result of the interference light acquired repeatedly in real time by the optical system, it is determined in real time and repeatedly whether the positional relationship between the subject and the optical system is a predetermined positional relationship. The tomographic data acquisition unit further includes a second positional relationship determination unit, and the tomographic data acquisition unit determines that the positional relationship between the subject and the optical system is a predetermined positional relationship by the second positional relationship determination unit. And receiving the tomographic data and starting to acquire the tomographic data.

この発明によれば、高確度な皮膚の性状評価を非接触で行うことが可能である。   According to this invention, it is possible to perform highly accurate skin property evaluation in a non-contact manner.

実施形態に係る皮膚性状評価装置の構成の一例を表す概略図である。It is the schematic showing an example of the structure of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の構成の一例を表す概略図である。It is the schematic showing an example of the structure of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を説明するための概略図である。It is the schematic for demonstrating the operation example of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の構成の一例を表す概略図である。It is the schematic showing an example of the structure of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the skin property evaluation apparatus which concerns on embodiment. 変形例に係る皮膚性状評価装置の構成の一例を表す概略図である。It is the schematic showing an example of the structure of the skin property evaluation apparatus which concerns on a modification. 変形例に係る皮膚性状評価装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the skin property evaluation apparatus which concerns on a modification. 変形例に係る皮膚性状評価装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the skin property evaluation apparatus which concerns on a modification. 実施形態に係る皮膚性状評価装置の構成の一例を表す概略図である。It is the schematic showing an example of the structure of the skin property evaluation apparatus which concerns on embodiment. 実施形態に係る皮膚性状評価装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the skin property evaluation apparatus which concerns on embodiment. 変形例に係る皮膚性状評価装置の構成の一例を表す概略図である。It is the schematic showing an example of the structure of the skin property evaluation apparatus which concerns on a modification. 変形例に係る皮膚性状評価装置の動作例を表すフローチャートである。It is a flowchart showing the operation example of the skin property evaluation apparatus which concerns on a modification.

この発明の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る皮膚性状評価装置は、たとえば美容目的または医療目的で使用され、皮膚の性状の評価、特に弾性特性に関する評価に用いられる。弾性特性は、外力に対する皮膚の形態の変化(または機能の変化)に関する特性であり、たとえば、弾力性、柔軟性、弛み、ハリ、つっぱり度、つっぱり方向等の特性のいずれかを含んでよい。なお、この明細書において引用された文献の記載内容を、この発明の実施形態の内容として援用することが可能である。   An example of an embodiment of the present invention will be described in detail with reference to the drawings. The skin property evaluation apparatus according to the present invention is used, for example, for cosmetic purposes or medical purposes, and is used for evaluation of skin properties, particularly for evaluation of elastic properties. The elastic property is a property related to a change in skin shape (or a change in function) with respect to an external force, and may include, for example, any of properties such as elasticity, flexibility, looseness, firmness, tightness, and tightness direction. In addition, it is possible to use the description content of the literature referred in this specification as the content of embodiment of this invention.

この明細書において、OCTによって取得されるデータを断層データと総称する。断層データは、たとえば、干渉光を検出するための検出器からの出力信号、および/または、この出力信号を処理して得られるデータ(処理データ)を含む。処理データとしては、たとえば、皮膚の深さ位置ごとの反射強度(後方散乱強度)を表す反射強度プロファイル(データ列、データ群、グラフ等)、この反射強度プロファイルから得られる画像データなどがある。画像データとしては、たとえば、深さ方向に沿う1次元画像データ(Aスキャンデータ)、深さ方向およびそれに直交する1方向に沿う2次元断面を表す2次元画像データ(Bスキャンデータ)、深さ方向に直交する2次元断面を表す2次元画像データ(Cスキャンデータ)、任意方向の2次元断面を表す2次元画像データ(多断面再構成像(MPR)等)、3次元領域を表す3次元画像データ(ボリュームデータ、ボクセルデータ、スタックデータ等)、位相の変化を表す位相画像データなどがある。さらに、たとえば疑似カラーやセグメンテーション情報(層または層境界を強調する情報)のような外部情報が付与された画像データを適用することも可能である。   In this specification, data acquired by OCT is collectively referred to as tomographic data. The tomographic data includes, for example, an output signal from a detector for detecting interference light and / or data (processing data) obtained by processing this output signal. The processing data includes, for example, a reflection intensity profile (data string, data group, graph, etc.) representing the reflection intensity (backscattering intensity) at each skin depth position, and image data obtained from the reflection intensity profile. As image data, for example, one-dimensional image data (A scan data) along the depth direction, two-dimensional image data (B scan data) representing a two-dimensional cross section along the depth direction and one direction orthogonal thereto, depth Two-dimensional image data (C scan data) representing a two-dimensional cross section orthogonal to the direction, two-dimensional image data representing a two-dimensional cross section in an arbitrary direction (multi-section reconstructed image (MPR), etc.), three-dimensional representing a three-dimensional region There are image data (volume data, voxel data, stack data, etc.), phase image data representing a phase change, and the like. Furthermore, it is also possible to apply image data to which external information such as pseudo color and segmentation information (information that emphasizes a layer or a layer boundary) is added.

〈第1の実施形態〉
[構成]
実施形態に係る皮膚性状評価装置の構成の一例を図1に示す。皮膚性状評価装置1は、被検者の皮膚表面Sに気体を吹き付ける機能を有する。この機能は、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含む構成によって実現される。また、皮膚性状評価装置1は、気体が吹き付けられている状態の皮膚の断層データをOCTを用いて取得する機能を有する。この機能は、OCTユニット20を含む構成によって実現される。さらに、皮膚性状評価装置1は、取得された断層データに基づいて皮膚の性状の評価情報を生成する機能を有する。この機能は、演算制御ユニット100を含む構成によって実現される。以下、皮膚性状評価装置1の各部についてより詳細に説明する。
<First Embodiment>
[Constitution]
An example of the configuration of the skin property evaluation apparatus according to the embodiment is shown in FIG. The skin property evaluation apparatus 1 has a function of blowing gas to the skin surface S of the subject. This function is realized by a configuration including the compressed gas generation unit 11, the communication pipe 12, the head unit 13, and the nozzle 14. Further, the skin property evaluation apparatus 1 has a function of acquiring tomographic data of skin in a state where gas is blown using OCT. This function is realized by a configuration including the OCT unit 20. Furthermore, the skin property evaluation apparatus 1 has a function of generating evaluation information of skin properties based on the acquired tomographic data. This function is realized by a configuration including the arithmetic control unit 100. Hereinafter, each part of the skin property evaluation apparatus 1 will be described in more detail.

(気体を吹き付けるための構成)
まず、皮膚表面Sに気体を吹き付けるための構成について説明する。この構成は、前述のように、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含んでいてよい。
(Configuration for blowing gas)
First, the structure for spraying gas on the skin surface S will be described. As described above, this configuration may include the compressed gas generation unit 11, the communication pipe 12, the head unit 13, and the nozzle 14.

圧縮ガス生成部11は、気体を圧縮する作用を有する。そのために、圧縮ガス生成部11は、たとえば、シリンダと、このシリンダ内を移動するピストンと、このピストンを往復動させるアクチュエータ(ロータリーソレノイド等)とを有する(図示省略)。圧縮ガス生成部11(たとえばアクチュエータ)は、演算制御ユニット100によって制御される。   The compressed gas generation part 11 has the effect | action which compresses gas. For this purpose, the compressed gas generator 11 includes, for example, a cylinder, a piston that moves within the cylinder, and an actuator (such as a rotary solenoid) that reciprocates the piston (not shown). The compressed gas generator 11 (for example, an actuator) is controlled by the arithmetic control unit 100.

連通管12は、圧縮ガス生成部11とヘッド部13とを連通する管状部材である。より具体的には、連通管12は、圧縮ガス生成部11の内部空間(シリンダ内の空間)と、ヘッド部13の内部空間とを連通する管状部材である。圧縮ガス生成部11により生成された圧縮ガスは、連通管12を通じてヘッド部13の内部空間に供給される。   The communication pipe 12 is a tubular member that communicates the compressed gas generation unit 11 and the head unit 13. More specifically, the communication pipe 12 is a tubular member that communicates the internal space of the compressed gas generation unit 11 (the space in the cylinder) with the internal space of the head unit 13. The compressed gas generated by the compressed gas generation unit 11 is supplied to the internal space of the head unit 13 through the communication pipe 12.

ヘッド部13は、圧縮ガス生成部11により生成された圧縮ガスが収容される内部空間(チャンバ)を有する。ヘッド部13の前面(皮膚表面S側の面)にはノズル14が設けられている。ノズル14の中空領域の一端(後端)はチャンバに開放され、かつ、他端(前端)は前方に向かって開放されている。ヘッド部13の後面(皮膚表面Sとは反対側の面)13aの少なくとも一部は透光部材(ガラス板など)によって形成されている。   The head unit 13 has an internal space (chamber) in which the compressed gas generated by the compressed gas generation unit 11 is accommodated. A nozzle 14 is provided on the front surface (surface on the skin surface S side) of the head portion 13. One end (rear end) of the hollow region of the nozzle 14 is opened to the chamber, and the other end (front end) is opened forward. At least a part of the rear surface (surface opposite to the skin surface S) 13a of the head portion 13 is formed of a light transmitting member (glass plate or the like).

図示は省略するが、チャンバ内の気体の圧力を監視するための圧力センサを設けることができる。この圧力センサからの出力は演算制御ユニット100に送られる。演算制御ユニット100は、入力された圧力値に応じた制御を行う。この制御としては、たとえば、圧力値の表示制御、チャンバ内の気体の吹き付けタイミングの制御(たとえば開閉弁の制御)、圧縮ガス生成部11の動作制御などがある。なお、開閉弁は、たとえば電磁弁により構成される。開閉弁が閉状態であるときにはチャンバ内は遮蔽空間とされ、開閉弁が開状態であるときにはチャンバ内の気体がノズル14を介して放出される。   Although illustration is omitted, a pressure sensor for monitoring the pressure of the gas in the chamber can be provided. The output from the pressure sensor is sent to the arithmetic control unit 100. The arithmetic control unit 100 performs control according to the input pressure value. Examples of this control include display control of the pressure value, control of the timing of blowing the gas in the chamber (for example, control of the on-off valve), and operation control of the compressed gas generation unit 11. The on-off valve is constituted by, for example, an electromagnetic valve. When the on-off valve is in the closed state, the inside of the chamber is a shielded space, and when the on-off valve is in the open state, the gas in the chamber is released through the nozzle 14.

また、ノズル14の向きを変更するための機構や、ノズル14の中空領域の径(または中空領域の前端の開口径)を変更するための機構を設けることが可能である。これら機構の制御は演算制御ユニット100により実行される。   It is also possible to provide a mechanism for changing the orientation of the nozzle 14 and a mechanism for changing the diameter of the hollow region of the nozzle 14 (or the opening diameter of the front end of the hollow region). Control of these mechanisms is executed by the arithmetic control unit 100.

(OCTユニット)
続いて、OCTユニット20の構成の一例を説明する。OCTユニット20には、被検者の皮膚の断層データを取得するための光学系が設けられている。この光学系は、従来のOCT装置と同様の構成を有する。すなわち、この光学系は、光源からの光を測定光と参照光とに分割し、測定アームを介して測定光を皮膚表面Sに照射し、測定アームを通過した測定光の戻り光と参照アームを通過した参照光との干渉光を検出するように構成されている。光学系による検出結果(検出信号)は演算制御ユニット100に送られる。
(OCT unit)
Next, an example of the configuration of the OCT unit 20 will be described. The OCT unit 20 is provided with an optical system for acquiring tomographic data of the subject's skin. This optical system has the same configuration as a conventional OCT apparatus. That is, this optical system divides the light from the light source into measurement light and reference light, irradiates the measurement surface with the measurement light on the skin surface S, and returns the measurement light that has passed through the measurement arm and the reference arm. It is configured to detect interference light with reference light that has passed through. A detection result (detection signal) by the optical system is sent to the arithmetic control unit 100.

スペクトラルドメイン方式のOCTが適用される場合、低コヒーレンス光源(広帯域光源)が用いられ、かつ、干渉光の複数のスペクトル成分が分光器(スペクトロメータ)により同時に検出される。スペクトロメータは、たとえば、回折格子とラインセンサとを含んで構成される。   When spectral domain OCT is applied, a low-coherence light source (broadband light source) is used, and a plurality of spectral components of interference light are simultaneously detected by a spectroscope (spectrometer). The spectrometer includes, for example, a diffraction grating and a line sensor.

一方、スウェプトソース方式のOCTが適用される場合、出力波長を時間的に高速で変化可能な波長走査型光源(波長掃引光源)が用いられ、かつ、この時間的な波長掃引に対応する複数の干渉光が光検出器によって順次に検出される。なお、これら方式以外にも、インファス方式やタイムドメイン方式のOCTを適用することも可能であるが、その場合には、OCTの方式に応じた公知の技術が適用される。   On the other hand, when a swept source type OCT is applied, a wavelength scanning light source (wavelength swept light source) capable of changing the output wavelength at a high speed in time is used, and a plurality of wavelength sweeping light sources corresponding to this temporal wavelength sweeping are used. Interfering light is sequentially detected by the photodetector. In addition to these methods, it is possible to apply the OCT of the interface method or the time domain method, but in this case, a known technique according to the OCT method is applied.

光源ユニット21は、所定の波長帯の光を出力する。たとえば、光源ユニット21は、1300nm付近に中心波長を有する波長帯の光、または1400nm付近に中心波長を有する波長帯の光を出力する。使用される波長帯は、たとえば、皮膚性状評価装置1の用途に応じて任意に設定される。たとえば、より深部の断層データの収集するためにより長波長帯に設定することができる。或いは、観察対象の組織に含まれる物質の吸光特性や、観察に悪影響を及ぼす物質の吸光特性などを考慮して波長帯を設定することができる。また、光源ユニット21は、複数の波長帯の光を同時にまたは別々のタイミングで出力可能に構成されていてよい。その場合、光源ユニット21に複数の光源が設けられていてよい。   The light source unit 21 outputs light of a predetermined wavelength band. For example, the light source unit 21 outputs light in a wavelength band having a center wavelength near 1300 nm, or light in a wavelength band having a center wavelength near 1400 nm. The wavelength band to be used is arbitrarily set according to the application of the skin property evaluation apparatus 1, for example. For example, a longer wavelength band can be set in order to collect deeper tomographic data. Alternatively, the wavelength band can be set in consideration of the light absorption characteristics of substances contained in the tissue to be observed and the light absorption characteristics of substances that adversely affect observation. The light source unit 21 may be configured to be able to output light of a plurality of wavelength bands simultaneously or at different timings. In that case, the light source unit 21 may be provided with a plurality of light sources.

光源ユニット21は、たとえば、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)や等の光出力デバイスを含んで構成される。また、スウェプトソースOCTが適用される場合、光源ユニット21は、このような光出力デバイスに加えて、ファイバーリンク共振器や波長選択フィルタ(たとえば、回折格子とポリゴンミラーとの組み合わせ、またはファブリー・ペロー・エタロン等)を含んでいてよい。光源ユニット21は、演算制御ユニット100によって制御される。   The light source unit 21 includes, for example, a light output device such as a super luminescent diode (SLD), an LED, an SOA (Semiconductor Optical Amplifier), or the like. When the swept source OCT is applied, the light source unit 21 includes, in addition to such an optical output device, a fiber link resonator, a wavelength selection filter (for example, a combination of a diffraction grating and a polygon mirror, or a Fabry-Perot). -Etalon etc.) may be included. The light source unit 21 is controlled by the arithmetic control unit 100.

光源ユニット21から出力された光は、光ファイバ22によりファイバカプラ23に導かれて測定光と参照光に分割される。   The light output from the light source unit 21 is guided to the fiber coupler 23 by the optical fiber 22 and is divided into measurement light and reference light.

ファイバカプラ23により生成された測定光は、光ファイバ24により導かれ、コリメータレンズユニット25により平行光束とされる。さらに、測定光は、光スキャナ26を経由してビームスプリッタ50に到達する。   The measurement light generated by the fiber coupler 23 is guided by the optical fiber 24 and converted into a parallel light beam by the collimator lens unit 25. Further, the measurement light reaches the beam splitter 50 via the optical scanner 26.

光スキャナ26は、1次元的にまたは2次元的に測定光を偏向可能なデバイスである。光スキャナ26は、たとえば、ガルバノミラー、MEMS光スキャナ、ポリゴンミラー、レゾナントスキャナなどの任意のスキャニングデバイスを含む。光スキャナ26は、演算制御ユニット100によって制御される。   The optical scanner 26 is a device that can deflect measurement light in one or two dimensions. The optical scanner 26 includes an arbitrary scanning device such as a galvano mirror, a MEMS optical scanner, a polygon mirror, and a resonant scanner. The optical scanner 26 is controlled by the arithmetic control unit 100.

なお、図示は省略するが、測定光の光路(測定アーム)には、合焦レンズ、リレーレンズ、対物レンズなどが設けられていてよい。   Although illustration is omitted, a focusing lens, a relay lens, an objective lens, and the like may be provided in the optical path (measurement arm) of the measurement light.

また、ビームスプリッタ50は、OCTで使用される測定光と、表面観察光学系40(後述)で使用される光とを合成し、かつ分離するための構成を有する。ビームスプリッタ50としては、双方の光の波長帯に応じて、ハーフミラー、ダイクロイックミラーまたは偏光ビームスプリッタなどが適用される。   The beam splitter 50 has a configuration for combining and separating measurement light used in OCT and light used in the surface observation optical system 40 (described later). As the beam splitter 50, a half mirror, a dichroic mirror, a polarization beam splitter, or the like is applied according to the wavelength bands of both lights.

ビームスプリッタ50に到達した測定光は、ビームスプリッタ50により反射され、ヘッド部13の後面13aの透光部材を通じてヘッド部13の内部空間に入射し、ノズル14の中空領域を通過し、皮膚表面Sに照射される。測定光は、皮膚の様々な深さ位置において散乱(反射)される。皮膚からの測定光の戻り光(後方散乱光)は、往路と同じ経路を逆向きに進行してファイバカプラ23に導かれる。   The measurement light that has reached the beam splitter 50 is reflected by the beam splitter 50, enters the internal space of the head portion 13 through the translucent member on the rear surface 13 a of the head portion 13, passes through the hollow region of the nozzle 14, and is then on the skin surface S. Is irradiated. The measurement light is scattered (reflected) at various depth positions on the skin. The return light (backscattered light) of the measurement light from the skin travels in the opposite direction on the same path as the forward path and is guided to the fiber coupler 23.

一方、ファイバカプラ23により生成された参照光は、光ファイバ27により導かれ、コリメータレンズユニット28により平行光束とされる。さらに、参照光は、参照ミラー29により反射され、往路と同じ経路を逆向きに進行してファイバカプラ23に導かれる。   On the other hand, the reference light generated by the fiber coupler 23 is guided by the optical fiber 27 and converted into a parallel light beam by the collimator lens unit 28. Further, the reference light is reflected by the reference mirror 29, travels in the reverse direction on the same path as the forward path, and is guided to the fiber coupler 23.

参照ミラー29は、コリメータレンズユニット28から出射した参照光の進行方向に対して実質的に直交する反射面を有する。参照ミラー29は、参照ミラー駆動部29Aにより、その反射面の法線方向に移動される。参照ミラー駆動部29Aの制御は、演算制御ユニット100により実行される。   The reference mirror 29 has a reflecting surface that is substantially orthogonal to the traveling direction of the reference light emitted from the collimator lens unit 28. The reference mirror 29 is moved in the normal direction of the reflecting surface by the reference mirror driving unit 29A. The control of the reference mirror driving unit 29A is executed by the arithmetic control unit 100.

なお、図示は省略するが、参照光の光路(参照アーム)には、参照光の光量を調整するための光アッテネータや、参照光の偏光状態を調整するための偏光コントローラなどが設けられていてよい。光アッテネータおよび偏光コントローラの制御は、演算制御ユニット100により実行される。   Although not shown, the optical path (reference arm) of the reference light is provided with an optical attenuator for adjusting the amount of the reference light, a polarization controller for adjusting the polarization state of the reference light, and the like. Good. Control of the optical attenuator and the polarization controller is executed by the arithmetic control unit 100.

ファイバカプラ23は、測定光の戻り光と、参照ミラー29を経由した参照光とを干渉させる。これにより生成された干渉光は、光ファイバ30によって検出部31に導かれる。検出部31は、干渉光(またはその各スペクトル成分)を検出して信号を生成し、この検出信号を演算制御ユニット100に送る。   The fiber coupler 23 causes the return light of the measurement light to interfere with the reference light that has passed through the reference mirror 29. The interference light generated thereby is guided to the detection unit 31 by the optical fiber 30. The detection unit 31 detects the interference light (or each spectrum component thereof) to generate a signal, and sends this detection signal to the arithmetic control unit 100.

(表面観察光学系)
表面観察光学系40は、皮膚表面Sの画像を取得する。表面観察光学系40は、たとえば、皮膚表面Sの動画撮影を行う。表面観察光学系40は、演算制御ユニット100によって制御される。なお、表面観察光学系40は、実施形態において必須の構成要素ではない。表面観察光学系40が設けられない場合、ビームスプリッタ50も不要である。このような構成については後述する。
(Surface observation optical system)
The surface observation optical system 40 acquires an image of the skin surface S. The surface observation optical system 40 performs moving image shooting of the skin surface S, for example. The surface observation optical system 40 is controlled by the arithmetic control unit 100. The surface observation optical system 40 is not an essential component in the embodiment. If the surface observation optical system 40 is not provided, the beam splitter 50 is also unnecessary. Such a configuration will be described later.

表面観察光学系40は、皮膚表面Sを照明するための照明光学系を含んでいてよい。照明光学系は、所定の波長帯の光(たとえば赤外光、近赤外光、可視光など)を皮膚表面Sに照射する。照明光学系は、たとえばノズル14の周囲の位置など、皮膚表面Sの近傍位置に設けられた、1以上の光源を含んでいてよい。或いは、照明光学系は、ビームスプリッタ50を介して皮膚表面Sを照明するように構成されていてよい。照明光学系を設ける代わりに、環境光(室内の照明設備からの光、太陽光など)を利用するように構成してもよい。   The surface observation optical system 40 may include an illumination optical system for illuminating the skin surface S. The illumination optical system irradiates the skin surface S with light of a predetermined wavelength band (for example, infrared light, near infrared light, visible light, etc.). The illumination optical system may include one or more light sources provided in the vicinity of the skin surface S, such as the position around the nozzle 14. Alternatively, the illumination optical system may be configured to illuminate the skin surface S via the beam splitter 50. Instead of providing the illumination optical system, ambient light (light from indoor lighting equipment, sunlight, etc.) may be used.

表面観察光学系40は、撮影光学系を含む。撮影光学系は、CCDイメージセンサやCMOSイメージセンサなどの撮像素子と、皮膚表面Sにて反射された光をこの撮像素子に導くための光学素子群を含む。この光学素子群は、たとえば、対物レンズ、合焦レンズ、リレーレンズ、結像レンズ、絞り部材、フィルタなどを含んでいてよい。   The surface observation optical system 40 includes a photographing optical system. The photographing optical system includes an image sensor such as a CCD image sensor or a CMOS image sensor, and an optical element group for guiding light reflected by the skin surface S to the image sensor. This optical element group may include, for example, an objective lens, a focusing lens, a relay lens, an imaging lens, a diaphragm member, a filter, and the like.

(演算制御ユニット)
演算制御ユニット100は、皮膚性状評価装置1の各部の制御を実行する。さらに、演算制御ユニット100は、各種の演算処理(算出処理、解析処理など)を実行する。たとえば、演算制御ユニット100は、OCTユニット20により取得された断層データに基づいて、皮膚の性状の評価情報を生成する。また、演算制御ユニット100は、OCTユニット20からの検出信号に基づいてOCT画像(Bスキャン像、Cスキャン像、3次元画像など)を生成するよう構成されていてよい。これら処理については後述する。
(Calculation control unit)
The arithmetic control unit 100 executes control of each part of the skin property evaluation apparatus 1. Furthermore, the arithmetic control unit 100 executes various arithmetic processes (calculation process, analysis process, etc.). For example, the arithmetic control unit 100 generates skin property evaluation information based on the tomographic data acquired by the OCT unit 20. The arithmetic control unit 100 may be configured to generate an OCT image (B scan image, C scan image, three-dimensional image, etc.) based on a detection signal from the OCT unit 20. These processes will be described later.

演算制御ユニット100は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、皮膚性状評価装置1を制御するためのコンピュータプログラムが記憶される。演算制御ユニット100は、各種の回路基板、たとえばOCT画像を生成するための回路基板を備えていてもよい。また、演算制御ユニット100は、操作デバイス(入力デバイス)や表示デバイスを備えていてもよい。或いは、外部の操作デバイス(入力デバイス)や表示デバイスを利用するよう構成してもよい。   The arithmetic control unit 100 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, like a conventional computer. A computer program for controlling the skin property evaluation apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 100 may include various circuit boards, for example, a circuit board for generating an OCT image. The arithmetic control unit 100 may include an operation device (input device) and a display device. Alternatively, an external operation device (input device) or a display device may be used.

気体を吹き付けるための構成、OCTユニット20および演算制御ユニット100は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。たとえば、皮膚性状評価装置1は、プローブと、本体部と、プローブと本体部とを接続するケーブルとを備えていてよい。プローブは、被検者の皮膚表面Sに近接配置されるユニットであり、気体を吹き付けるための構成のうちの少なくともノズル14と、測定アームの少なくとも先端部とを含む。ケーブルには、連通管12や、測定光を導く光ファイバなどが設けられる。本体部には、それら以外の構成要素が設けられる。この場合、表面観察光学系40は、別個に設けられていてよい。   The configuration for blowing gas, the OCT unit 20 and the arithmetic control unit 100 may be configured integrally (that is, in a single casing), or configured separately in two or more housings. Also good. For example, the skin property evaluation apparatus 1 may include a probe, a main body, and a cable that connects the probe and the main body. The probe is a unit that is disposed in proximity to the skin surface S of the subject, and includes at least the nozzle 14 and at least the tip of the measurement arm in the configuration for blowing gas. The cable is provided with a communication pipe 12 and an optical fiber for guiding measurement light. The main body is provided with other components. In this case, the surface observation optical system 40 may be provided separately.

[制御系の構成]
皮膚性状評価装置1の制御系の構成について図2を参照しつつ説明する。なお、図2に示す構成要素のうちいずれかが搭載されていなくてもよい。たとえば、図2に示す構成から表面観察光学系40を削除することができる。
[Control system configuration]
The configuration of the control system of the skin property evaluation apparatus 1 will be described with reference to FIG. Note that any of the components shown in FIG. 2 may not be mounted. For example, the surface observation optical system 40 can be deleted from the configuration shown in FIG.

(制御部)
皮膚性状評価装置1の制御系は、制御部110を中心に構成される。制御部110は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部110には、主制御部111と記憶部112が設けられている。
(Control part)
The control system of the skin property evaluation apparatus 1 is configured around the control unit 110. The control unit 110 includes, for example, a microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 110 is provided with a main control unit 111 and a storage unit 112.

(主制御部)
主制御部111は前述の各種制御を行う。たとえば、制御部110は、圧縮ガス生成部11の制御、気体の吹き付けタイミングの制御(開閉弁13bの制御)、OCTユニット20の各部の制御、ユーザインターフェイス200の制御などを行う。また、主制御部111は、記憶部112にデータを書き込む処理や、記憶部112からデータを読み出す処理を行う。
(Main control unit)
The main control unit 111 performs the various controls described above. For example, the control unit 110 performs control of the compressed gas generation unit 11, control of gas blowing timing (control of the on-off valve 13b), control of each part of the OCT unit 20, control of the user interface 200, and the like. Further, the main control unit 111 performs processing for writing data into the storage unit 112 and processing for reading data from the storage unit 112.

(記憶部)
記憶部112は、各種のデータを記憶する。記憶部112に記憶されるデータとしては、たとえば、OCTにより取得された断層データ、表面観察光学系40により取得された画像データ、被検者情報などがある。被検者情報は、被検者IDや氏名などの被検者に関する情報を含む。また、記憶部112には、皮膚性状評価装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The storage unit 112 stores various data. Examples of data stored in the storage unit 112 include tomographic data acquired by OCT, image data acquired by the surface observation optical system 40, and subject information. The subject information includes information about the subject such as a subject ID and a name. The storage unit 112 stores various programs and data for operating the skin property evaluation apparatus 1.

(断層データ生成部)
断層データ生成部120は、検出部31からの検出信号に基づいて、断層データを生成する。スペクトラルドメインOCTやスウェプトソースOCTが適用される場合、断層データ生成部120は、従来と同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理を実行する。他の方式のOCTが適用される場合、断層データ生成部120は、その方式に応じた公知の処理を実行する。
(Fault data generator)
The tomographic data generation unit 120 generates tomographic data based on the detection signal from the detection unit 31. When the spectral domain OCT or the swept source OCT is applied, the tomographic data generation unit 120 executes processes such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform), as in the past. When another method of OCT is applied, the tomographic data generation unit 120 executes a known process according to the method.

なお、前述したように、断層データは、反射強度プロファイル、Aスキャンデータ、Bスキャンデータ、Cスキャンデータ、MPRデータ、ボリュームデータ、スタックデータ、位相画像データなどのうち、少なくとも1つを含んでいてよい。また、断層データは、疑似カラー情報やセグメンテーション情報などを含んでいてもよい。また、断層データ生成部120は、画像データの輝度補正や分散補正を実行するよう構成されてもよい。このような断層データの生成には公知の技術が適用される。   As described above, the tomographic data includes at least one of a reflection intensity profile, A scan data, B scan data, C scan data, MPR data, volume data, stack data, phase image data, and the like. Good. The tomographic data may include pseudo color information, segmentation information, and the like. In addition, the tomographic data generation unit 120 may be configured to execute brightness correction and dispersion correction of image data. A known technique is applied to generate such tomographic data.

断層データ生成部120は、たとえば、前述の回路基板および/またはマイクロプロセッサを含んで構成される。すなわち、断層データ生成部120は、ハードウェア的および/またはソフトウェア的に断層データを生成する。なお、この明細書において、「画像データ」と、それに基づく「画像」とを同一視することがある。   The tomographic data generation unit 120 includes, for example, the circuit board and / or the microprocessor described above. That is, the tomographic data generation unit 120 generates tomographic data in terms of hardware and / or software. In this specification, “image data” and an “image” based on the “image data” may be identified.

(データ処理部)
データ処理部130は、各種のデータ処理を実行する。データ処理部130は、断層データ生成部120により生成された断層データにデータ処理(信号処理、画像処理、解析処理等)を施す。たとえば、データ処理部130は、断層データ生成部120により生成された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する。また、データ処理部130は、断層データ生成部120により生成された断層データに基づいて、被検者の皮膚の所定の組織の形態を表す形態情報を生成することができる。また、データ処理部130は、表面観察光学系40により取得された画像データにデータ処理(画像処理、解析処理等)を施すことができる。
(Data processing part)
The data processing unit 130 executes various types of data processing. The data processing unit 130 performs data processing (signal processing, image processing, analysis processing, etc.) on the tomographic data generated by the tomographic data generation unit 120. For example, the data processing unit 130 generates evaluation information related to the properties of the subject's skin based on the tomographic data generated by the tomographic data generating unit 120. In addition, the data processing unit 130 can generate morphological information representing the form of a predetermined tissue on the subject's skin based on the tomographic data generated by the tomographic data generating unit 120. Further, the data processing unit 130 can perform data processing (image processing, analysis processing, etc.) on the image data acquired by the surface observation optical system 40.

(評価情報を生成するための構成)
被検者の皮膚の性状に関する評価情報を生成するための構成についていくつかの例を説明する。
(Configuration for generating evaluation information)
Several examples of the configuration for generating evaluation information regarding the properties of the subject's skin will be described.

(第1の構成例)
評価情報を生成するための第1の構成例を説明する。本例において、データ処理部130は、データ位置特定部131と、評価情報生成部132とを備える。
(First configuration example)
A first configuration example for generating evaluation information will be described. In this example, the data processing unit 130 includes a data position specifying unit 131 and an evaluation information generating unit 132.

データ位置特定部131は、断層データ生成部120により生成された断層データにおいて皮膚の所定の層に相当するデータ位置を特定する。所定の層は、皮膚表面Sを含む1以上の層であってよい。皮膚は、表皮、真皮および皮下組織からなる多層組織である。表皮の表面が皮膚表面Sである。真皮には、毛細血管、乳頭層、乳頭下層、網状層、マイスナー小体、血管、汗腺、神経線維などが存在する。皮下組織には、血管、皮下脂肪、汗腺、パチニ小体などが存在する。データ位置特定部131は、これら組織(層組織)のうちのいずれかに相当する画像領域を特定する。   The data position specifying unit 131 specifies a data position corresponding to a predetermined layer of the skin in the tomographic data generated by the tomographic data generating unit 120. The predetermined layer may be one or more layers including the skin surface S. The skin is a multilayered tissue consisting of the epidermis, dermis and subcutaneous tissue. The surface of the epidermis is the skin surface S. In the dermis, there are capillaries, nipple layers, nipple sublayers, reticular layers, Meissner bodies, blood vessels, sweat glands, nerve fibers, and the like. In the subcutaneous tissue, there are blood vessels, subcutaneous fat, sweat glands, Patini bodies and the like. The data position specifying unit 131 specifies an image region corresponding to any one of these tissues (layer tissues).

データ位置特定部131は、断層データの種別に応じた処理を実行する実行される。一例として、断層データは図3Aに示す反射強度プロファイルPであるとする。データ位置特定部131は、反射強度プロファイルPの特徴値(最大値、最小値、極大値、極小値等)や、反射強度プロファイルPの形状や、皮膚の解剖学的データや臨床データ(たとえば、組織と深さ位置(z座標値)との一般的なまたは個別的な関連)などに基づいて、皮膚の所定の層の深さ位置を特定する。   The data position specifying unit 131 is executed to execute processing according to the type of tomographic data. As an example, it is assumed that the tomographic data is a reflection intensity profile P shown in FIG. 3A. The data position specifying unit 131 includes feature values (maximum value, minimum value, maximum value, minimum value, etc.) of the reflection intensity profile P, the shape of the reflection intensity profile P, skin anatomical data, and clinical data (for example, The depth position of a predetermined layer of the skin is specified based on the tissue and depth position (z-coordinate value or general relationship).

たとえば、データ位置特定部131は、反射光量Lが非ゼロである最小のz座標値であるzを特定し、これを当該計測位置(Aライン)における皮膚表面Sの位置とする。或いは、データ位置特定部131は、反射光量Lが最大値をとるz座標値であるzを特定し、これを当該Aラインにおける皮膚表面Sの位置とする。また、データ位置特定部131は、反射強度プロファイルPの極小値が存在するz座標値のうち最小のz座標値であるzを特定し、これを当該Aラインにおける表皮と真皮との境界(表皮の下面、真皮の上面)の位置とする。同様にして、真皮と皮下組織との境界の位置zや、乳頭層、乳頭下層、網状層等の組織の位置が特定される。 For example, the data position specifying unit 131 specifies z 0 that is the minimum z coordinate value with the reflected light amount L being non-zero, and sets this as the position of the skin surface S at the measurement position (A line). Alternatively, the data position specifying unit 131, the reflected light amount L is to identify the z 0 is the z coordinate value takes the maximum value, this is the position of the skin surface S in the A-line. Further, the data position specifying unit 131 specifies z 1 which is the minimum z coordinate value among the z coordinate values where the minimum value of the reflection intensity profile P exists, and this is specified as the boundary between the epidermis and the dermis in the A line ( The lower surface of the epidermis, the upper surface of the dermis). Similarly, the position z 2 and the boundary between the dermis and subcutaneous tissue, papillary layer, papillary layer, the position of the tissue of the reticular layer, etc. are identified.

他の例として、断層データは図3Bに示す画像Gであるとする。画像Gは、x方向に配列された複数のAスキャンデータにより形成される。各Aスキャンデータは、反射強度プロファイルの光量の値に輝度値を割り当てることにより得られる画像データである。画像Gにおいてx座標値xに配置されたAスキャンデータAは、図3Aの反射強度プロファイルPに相当する。符号Hは皮膚表面Sに相当する画像領域であり、符号Hは表皮と真皮との境界に相当する画像領域であり、符号Hは真皮と皮下組織との境界に相当する画像領域である。 As another example, it is assumed that the tomographic data is an image G shown in FIG. 3B. The image G is formed by a plurality of A scan data arranged in the x direction. Each A scan data is image data obtained by assigning a luminance value to the light amount value of the reflection intensity profile. The A scan data A k arranged at the x coordinate value x k in the image G corresponds to the reflection intensity profile P in FIG. 3A. Symbol H 0 is an image region corresponding to the skin surface S, symbol H 1 is an image region corresponding to the boundary between the epidermis and dermis, and symbol H 2 is an image region corresponding to the boundary between the dermis and subcutaneous tissue. is there.

データ位置特定部131は、画像Gの画素値(輝度値)や、描画されているオブジェクトの形態(組織のサイズ、形状、位置等)などに基づいて、皮膚の所定の層の深さ位置を特定する。たとえば、データ位置特定部131は、OCT分野において公知のセグメンテーション処理を実行することにより、皮膚表面Sに相当する画像領域Hを特定し、その深さ位置を特定する。画像領域Hの深さ位置は、画像領域Hを構成する複数の画素に相当する複数の位置のうちの1つ以上の値(たとえば最大値、最小値、極大値、極小値等)でもよいし、これら複数の位置に演算処理を施して得られる1つ以上の値(たとえば、平均値、中央値、最頻値等の統計値)でもよい。 The data position specifying unit 131 determines the depth position of a predetermined layer of the skin based on the pixel value (luminance value) of the image G, the form of the object being drawn (such as the size, shape, and position of the tissue). Identify. For example, the data position specifying unit 131 specifies an image region H 0 corresponding to the skin surface S by executing a segmentation process known in the OCT field, and specifies its depth position. The depth position of the image region H 0 is one or more values of the plurality of positions corresponding to a plurality of pixels constituting the image region H 0 (e.g. maximum, minimum, maximum value, minimum value, etc.) but Alternatively, it may be one or more values (for example, statistical values such as an average value, a median value, and a mode value) obtained by performing arithmetic processing on the plurality of positions.

評価情報生成部132は、データ位置特定部131により特定されたデータ位置に処理(演算処理、解析処理等)を施すことにより、皮膚の性状に関する評価情報を生成する。皮膚の弾性特性に関する評価情報が生成される場合の例を説明する。   The evaluation information generation unit 132 generates evaluation information related to skin properties by performing processing (calculation processing, analysis processing, etc.) on the data position specified by the data position specifying unit 131. An example in which evaluation information relating to the elastic properties of the skin is generated will be described.

第1の例において、皮膚性状評価装置1は、断層データの取得を少なくとも2回実行する。2回以上の断層データ取得処理のうち少なくとも1回は、気体の吹き付け中に実行されてよい。データ位置特定部131は、取得された2以上の断層データのそれぞれについて、上記のようなデータ位置特定処理を実行する。   In the first example, the skin property evaluation apparatus 1 executes tomographic data acquisition at least twice. At least one of the two or more tomographic data acquisition processes may be executed during gas blowing. The data position specifying unit 131 executes the data position specifying process as described above for each of the two or more acquired tomographic data.

図4は、2回の断層データ取得処理により得られた2つの画像G1およびG2を示す。画像G1は、皮膚表面Sに気体が吹き付けられていない状態で実行されたOCTに基づく。画像G2は、皮膚表面Sに気体が吹き付けられている状態で実行されたOCTに基づく。画像G2においては、皮膚表面Sに相当する画像領域H’が、x座標値xを中心に凹んでいる(つまり−z方向に撓んでいる)。 FIG. 4 shows two images G1 and G2 obtained by two tomographic data acquisition processes. The image G1 is based on OCT performed in a state where no gas is blown onto the skin surface S. The image G2 is based on OCT performed in a state where gas is sprayed on the skin surface S. In the image G2, the image region H 0 ′ corresponding to the skin surface S is recessed with respect to the x coordinate value x k (that is, bent in the −z direction).

データ位置特定部131は、少なくともx座標値xにおけるAスキャンデータAについて、皮膚表面Sに相当する位置のz座標値を取得する。それにより、画像G1における座標値zと、画像G2における座標値z’とが得られる。なお、他のx座標値におけるAスキャンデータを処理することもできるし、皮膚の他の層に相当する画像領域のz座標値(たとえば、表皮と真皮との境界に相当する画像領域HおよびH’のz座標値zおよびz’、真皮と皮下組織との境界に相当する画像領域HおよびH’のz座標値zおよびz’)を求めることもできる。 The data position specifying unit 131 acquires the z coordinate value of the position corresponding to the skin surface S with respect to at least the A scan data A k at the x coordinate value x k . Thereby, the coordinate value z 0 in the image G1 and the coordinate value z 0 ′ in the image G2 are obtained. Note that A scan data at other x-coordinate values can be processed, and z-coordinate values of image areas corresponding to other layers of the skin (for example, an image area H 1 corresponding to the boundary between the epidermis and dermis and H 1 'z coordinate value z 1 and z 1 of', 'z coordinate value z 2 and z 2' of dermis and image areas H 2 and H 2 corresponding to the boundary between the subcutaneous tissue) can also be obtained.

評価情報生成部132は、データ位置特定部131により取得された一対のz座標値zおよびz’の差を算出することにより、x座標値xにおける2つの画像G1およびG2の間の変位を求める。この変位は、x座標値xに相当する皮膚表面Sの位置における、気体の吹き付けによる皮膚の変位量(凹み量)を表す。なお、変位の次元は任意であり、たとえば、実空間における距離の次元(mm等)や、画像空間における距離の次元(ピクセル数、座標系のスケールによる距離の次元等)であってよい。また、2つのz座標値の差の算出処理は、一方から他方を減算する処理を少なくとも含み、その差の値の絶対値を算出する処理をさらに含んでいてよい。また、2つのz座標値に対して順序を付与し、第1のz座標値から第2のz座標値を減算するように構成してよい。また、2つのz座標値を比較し、値の大きい側から値の小さい側を減算するように構成してよい。 The evaluation information generating unit 132 calculates the difference between the pair of z coordinate values z 0 and z 0 ′ acquired by the data position specifying unit 131, thereby obtaining a difference between the two images G1 and G2 at the x coordinate value x k . Find the displacement. This displacement in the position of the skin surface S which corresponds to the x-coordinate value x k, indicating the amount of displacement of the skin by blowing gas (the dented). The dimension of the displacement is arbitrary, and may be, for example, a distance dimension in real space (mm or the like) or a distance dimension in image space (number of pixels, distance dimension by a coordinate system scale, etc.). In addition, the calculation process of the difference between two z coordinate values may include at least a process of subtracting the other from one, and may further include a process of calculating an absolute value of the difference value. Further, an order may be given to the two z-coordinate values, and the second z-coordinate value may be subtracted from the first z-coordinate value. Further, the two z coordinate values may be compared, and the smaller value side may be subtracted from the larger value side.

さらに、評価情報生成部132は、求められた変位に基づいて評価情報を生成する。評価情報は、この変位の値自体を含んでもよいし、この変位の値を処理して得られた情報を含んでもよい。後者の例として、弾力特性の指標(たとえば、弾力性、柔軟性、弛み、ハリ、つっぱり度等)に関する複数の範囲(程度)と変位の値とが関連付けられた関連情報をあらかじめ記憶しておき、取得された変位の値に対応する範囲(程度)を求めて評価情報として用いることができる。   Furthermore, the evaluation information generation unit 132 generates evaluation information based on the obtained displacement. The evaluation information may include the displacement value itself, or may include information obtained by processing the displacement value. As an example of the latter, related information in which a plurality of ranges (degrees) related to elasticity characteristic indicators (for example, elasticity, flexibility, slackness, tension, degree of grip, etc.) and displacement values are associated with each other is stored in advance. A range (degree) corresponding to the obtained displacement value can be obtained and used as evaluation information.

一例として、関連情報は、指標「弾力性」に関する複数の程度「高」「中」「低」と、変位の値(D)とを次のようにして関連付けているとする:「高:D≧D」「中:D>D≧D」「低:D>D」。評価情報生成部132は、取得された変位の値Dと2つの閾値DおよびDとを比較することにより、この変位の値Dが含まれる範囲を特定し、この範囲に関連付けられた「弾力性の程度」を特定し、特定された「弾力性の程度」を含む評価情報を生成する。 As an example, it is assumed that the related information associates a plurality of degrees “high”, “medium”, and “low” with respect to the index “elasticity” and the displacement value (D) as follows: “High: D ≧ D 1 ”“ Medium: D 1 > D ≧ D 2 ”“ Low: D 2 > D ”. The evaluation information generating unit 132 compares the acquired displacement value D with the two threshold values D 1 and D 2 to identify a range in which the displacement value D is included, and associates “ The “degree of elasticity” is specified, and evaluation information including the specified “degree of elasticity” is generated.

なお、指標に関する複数の範囲はこのような「程度」に限定されず、たとえば年齢やスコア等の数値情報などであってもよい。また、評価情報は、文字列情報や数値情報には限定されず、画像情報であってもよい。たとえば、指標の数値情報の大きさが表示色で表現された画像情報を作成することができる。或いは、複数のAスキャンデータについて変位が算出された場合、これらAスキャンデータの位置に対応する変位の分布情報が得られる。この場合、変位の分布情報を表す画像情報(マップ)を作成することが可能である。図4に示す例においては、x方向における変位の分布を表すマップが得られる。なお、画像として取得される断層データはAスキャンデータやBスキャンデータ(図4の例)には限定されず、ボリュームデータ等であってよい。ボリュームデータの一部または全体について変位が算出される場合、2次元マップ(z方向に直交するxy面における分布情報)を作成することが可能である。複数の層についてそれぞれ変位が求められる場合、上記のような文字列情報や数値情報や画像情報を層ごとに生成し、それらを含む評価情報を生成することができる。   The plurality of ranges related to the index is not limited to such “degree”, and may be numerical information such as age and score, for example. Further, the evaluation information is not limited to character string information and numerical information, and may be image information. For example, it is possible to create image information in which the size of the numerical information of the index is expressed in display colors. Alternatively, when displacements are calculated for a plurality of A scan data, displacement distribution information corresponding to the positions of these A scan data is obtained. In this case, it is possible to create image information (map) representing displacement distribution information. In the example shown in FIG. 4, a map representing the distribution of displacement in the x direction is obtained. The tomographic data acquired as an image is not limited to A scan data or B scan data (example in FIG. 4), and may be volume data or the like. When the displacement is calculated for part or all of the volume data, it is possible to create a two-dimensional map (distribution information in the xy plane orthogonal to the z direction). When displacement is calculated for each of a plurality of layers, character string information, numerical information, and image information as described above can be generated for each layer, and evaluation information including them can be generated.

(第2の構成例)
評価情報を生成するための第2の構成例を説明する。本例においては、気体が吹き付けられている状態の皮膚の断層データが所定の時間間隔で反復的に取得される。なお、気体の吹き付けの終了後にも断層データの反復的な取得を継続してもよい。また、気体の吹き付けの開始前に、断層データの反復的な取得を開始するようにしてもよい。断層データの反復的な取得は、皮膚の実質的に同じ領域に対して実行される。それにより、皮膚の実質的に同じ領域に関する、時系列に並ぶ複数の断層データが得られる。さらに、このようにして反復的に取得された複数の断層データに基づいて評価情報が生成される。
(Second configuration example)
A second configuration example for generating evaluation information will be described. In this example, tomographic data of skin in a state where gas is blown is repeatedly acquired at predetermined time intervals. Note that iterative acquisition of tomographic data may be continued even after the end of gas blowing. Further, it is also possible to start to acquire tomographic data repeatedly before the start of gas blowing. Iterative acquisition of tomographic data is performed on substantially the same area of skin. Thereby, a plurality of tomographic data arranged in time series regarding substantially the same region of the skin is obtained. Furthermore, evaluation information is generated based on a plurality of pieces of tomographic data repeatedly acquired in this way.

本例においても、データ処理部130は、データ位置特定部131と、評価情報生成部132とを備える。データ位置特定部131は、時系列に並ぶ複数の断層データのそれぞれにおいて皮膚の所定の層に相当するデータ位置を特定する。各断層データに対して実行される処理は、第1の構成例の場合と同様である。   Also in this example, the data processing unit 130 includes a data position specifying unit 131 and an evaluation information generating unit 132. The data position specifying unit 131 specifies a data position corresponding to a predetermined layer of the skin in each of a plurality of tomographic data arranged in time series. The processing executed for each tomographic data is the same as in the case of the first configuration example.

時系列に並ぶ複数の断層データから取得された変位の値のデータ列の例を図5に示す。横軸は時間tを表し、縦軸は変位Dを表す。グラフMは、時系列(時間軸t)に沿って並ぶ複数の変位の値をプロットし、これらプロット点をつなげることにより得られる。複数のプロット点を接続する処理は、たとえば、近似曲線を求める処理を含む。   An example of a data string of displacement values acquired from a plurality of tomographic data arranged in time series is shown in FIG. The horizontal axis represents time t, and the vertical axis represents displacement D. The graph M is obtained by plotting a plurality of displacement values arranged along the time series (time axis t) and connecting these plot points. The process of connecting a plurality of plot points includes, for example, a process of obtaining an approximate curve.

時間t=tは気体の吹き付けが開始されたタイミングを表し、時間t=tは気体の吹き付けが終了されたタイミングを表す。すなわち、グラフMを作成するために実行された断層データの反復的な取得は、気体の吹き付けの開始よりも前に開始され(t=0)、気体が吹き付けられている間に継続され(t=t〜t)、気体の吹き付けが停止された後に終了された(t>t)。 Time t = t 0 represents the timing at which gas blowing has started, and time t = t 1 represents the timing at which gas blowing has ended. That is, iterative acquisition of the tomographic data performed to create the graph M is started before the start of gas blowing (t = 0) and continues while the gas is being blown (t = T 0 to t 1 ), after the gas blowing was stopped (t> t 1 ).

評価情報生成部132は、このような変位の時系列変化に基づいて評価情報を生成する。この処理は、たとえば、変位の変化量や変化速度や変化時間に基づいて実行される。変化量に基づく処理の例として、変位の最大値や極大値を求め、その値から評価情報を生成することができる。変化速度に基づく処理の例として、グラフMの傾きを求め、その値から評価情報を生成することができる。変化時間に基づく処理の例として、変位が第1の値から第2の値まで変化するのに掛かった時間を求め、その値から評価情報を生成することができる。   The evaluation information generation unit 132 generates evaluation information based on such a time-series change in displacement. This process is executed based on, for example, the displacement change amount, change speed, and change time. As an example of processing based on the amount of change, a maximum value or maximum value of displacement can be obtained, and evaluation information can be generated from the value. As an example of processing based on the change rate, the slope of the graph M can be obtained, and evaluation information can be generated from the value. As an example of processing based on the change time, the time taken for the displacement to change from the first value to the second value can be obtained, and evaluation information can be generated from the value.

グラフ等のデータ列を用いて評価情報を生成する処理の例を説明する。図6には、2つのグラフM1およびM2が示されている。これらグラフM1およびM2は、たとえば、異なる被検者の皮膚に関するデータ、同じ被検者の異なる部位に関するデータ、または、同じ被検者の同じ部位について異なるタイミングで得られたデータである。異なるデータを比較する場合、所定のタイミングに相当するデータ位置が一致するように複数のデータを重ね合わせることができる。たとえば、図6に示す例では、気体の吹き付けが終了された時間t=tに相当するデータ位置が一致するように2つのグラフM1およびM2が重ね合わされている。なお、複数のデータを実際に重ね合わせる必要はなく、基準となるデータ位置(たとえば時間t=tに相当するデータ位置)を設定するだけでもよい。基準となるデータ位置は、データの比較方法に応じて設定される。 An example of processing for generating evaluation information using a data string such as a graph will be described. In FIG. 6, two graphs M1 and M2 are shown. These graphs M1 and M2 are, for example, data on the skin of different subjects, data on different parts of the same subject, or data obtained at different timings on the same part of the same subject. When comparing different data, a plurality of data can be overlaid so that data positions corresponding to predetermined timings coincide. For example, in the example shown in FIG. 6, two graphs M1 and M2 so that the data positions match corresponding to the time spraying of gas is terminated t = t 1 is superposed. Note that it is not necessary to actually superimpose a plurality of data, and a reference data position (for example, a data position corresponding to time t = t 1 ) may be set. The reference data position is set according to the data comparison method.

グラフM1とグラフM2との顕著な違いは、気体の吹き付けを停止した後の変位Dの時系列変化である。具体的には、グラフM1においては、気体の吹き付けが停止された後、変位Dが緩やかに減少しているが、グラフM2においては、気体の吹き付けが停止された後、変位Dが急速に減少している。また、気体の吹き付けが停止されてから変位Dが所定値(たとえばD=0、D=(最大値)/2など)まで低下するのに掛かる時間は、グラフM1よりもグラフM2の方が短い。このようなグラフの状態の相違は、気体が吹き付けられた部位の弾性の違い(皮膚のハリの違い)を反映している。   A significant difference between the graph M1 and the graph M2 is a time-series change of the displacement D after the gas blowing is stopped. Specifically, in the graph M1, the displacement D gradually decreases after the gas blowing is stopped, but in the graph M2, the displacement D rapidly decreases after the gas blowing is stopped. doing. The time taken for the displacement D to decrease to a predetermined value (for example, D = 0, D = (maximum value) / 2, etc.) after the gas blowing is stopped is shorter in the graph M2 than in the graph M1. . Such a difference in the state of the graph reflects a difference in elasticity (a difference in the elasticity of the skin) at the site where the gas is sprayed.

評価情報生成部132は、たとえば、気体の吹き付けが停止された後の任意の1以上の時間tにおけるグラフの傾きを算出し、この傾きの値に基づいて弾性の程度を表す情報を取得する。このとき、評価情報生成部132は、あらかじめ作成されて記憶された、傾きと弾性の程度とが関連付けられた情報を参照する。   For example, the evaluation information generation unit 132 calculates the slope of the graph at any one or more times t after the gas blowing is stopped, and acquires information indicating the degree of elasticity based on the value of the slope. At this time, the evaluation information generation unit 132 refers to information that is created and stored in advance and that is associated with the inclination and the degree of elasticity.

第2の例として、評価情報生成部132は、気体の吹き付けが停止されてから特定時間が経過したタイミングにおける変位Dの値を取得し、この変位Dの値に基づいて弾性の程度を表す情報を取得する。このとき、評価情報生成部132は、あらかじめ作成されて記憶された、変位と弾性の程度とが関連付けられた情報を参照する。   As a second example, the evaluation information generation unit 132 acquires the value of the displacement D at a timing when a specific time has elapsed since the gas blowing was stopped, and represents the degree of elasticity based on the value of the displacement D. To get. At this time, the evaluation information generation unit 132 refers to information that is created and stored in advance and that is associated with the displacement and the degree of elasticity.

第3の例として、評価情報生成部132は、気体の吹き付けが停止された後において、特定の変位Dの値に対応する時間tを取得し、この時間tの値に基づいて弾性の程度を表す情報を取得する。このとき、たとえば、取得された時間tと、吹き付け停止時間tとの差Δtに基づいて処理が実行される。なお、評価情報生成部132は、あらかじめ作成されて記憶された、時間t(または経過時間Δt)と弾性の程度とが関連付けられた情報を参照して処理を実行する。 As a third example, the evaluation information generating unit 132 acquires a time t corresponding to a specific displacement D value after the gas blowing is stopped, and determines the degree of elasticity based on the value of the time t. Get the information to represent. In this case, for example, and the obtained time t, the process is executed based on the difference Δt between the blowing stopping time t 1. The evaluation information generation unit 132 executes processing with reference to information that is created and stored in advance and that associates the time t (or elapsed time Δt) with the degree of elasticity.

(第3の構成例)
評価情報を生成するための第3の構成例を説明する。本例においては、気体の吹き付け圧を変更可能な構成が適用される。吹き付け圧の値は、たとえば、前述の圧力センサにより取得される。或いは、制御部110による圧縮ガス生成部11の制御内容(たとえばピストンの位置)に基づいて吹き付け圧を求めることも可能である。
(Third configuration example)
A third configuration example for generating evaluation information will be described. In this example, a configuration in which the gas blowing pressure can be changed is applied. The value of spray pressure is acquired by the above-mentioned pressure sensor, for example. Or it is also possible to obtain | require a spraying pressure based on the control content (for example, position of a piston) of the compressed gas production | generation part 11 by the control part 110. FIG.

データ処理部130は、断層データ生成部120により生成された断層データと、圧力センサや制御部11等によって取得された気体の吹き付け圧とに基づいて、評価情報の生成を行う。この処理の具体例として、まず、データ処理部130は、断層データに基づいて皮膚表面Sの変位を算出する。次に、データ処理部130は、算出された変位を吹き付け圧で除算することにより、単位圧力当たりの変位を求める。或いは、データ処理部130は、吹き付け圧を変位で除算することにより、単位変位量を引き起こすための吹き付け圧を求める。そして、データ処理部130は、求められた値に基づいて評価情報を生成する。   The data processing unit 130 generates evaluation information based on the tomographic data generated by the tomographic data generation unit 120 and the gas blowing pressure acquired by the pressure sensor, the control unit 11 and the like. As a specific example of this process, first, the data processing unit 130 calculates the displacement of the skin surface S based on the tomographic data. Next, the data processing unit 130 obtains a displacement per unit pressure by dividing the calculated displacement by the spray pressure. Alternatively, the data processing unit 130 obtains the spray pressure for causing the unit displacement amount by dividing the spray pressure by the displacement. Then, the data processing unit 130 generates evaluation information based on the obtained value.

以上、3つの構成例を説明したが、評価情報を生成するための構成はこれらに限定されない。また、3つの構成例のうちの2つ以上を任意に組み合わせることが可能である。   Although three configuration examples have been described above, the configuration for generating evaluation information is not limited to these. Further, two or more of the three configuration examples can be arbitrarily combined.

(形態情報生成部)
形態情報生成部133は、皮膚の所定の組織の形態を表す形態情報を生成する。形態情報は、組織に関するサイズ情報、形状情報、位置情報、分布情報、個数情報、推定重量などがある。また、形態情報は、皮膚の2次元断面または3次元ボリュームの形態を表す画像(形態画像)であってもよい。
(Form information generator)
The form information generation unit 133 generates form information representing the form of a predetermined tissue of the skin. The shape information includes size information, shape information, position information, distribution information, number information, estimated weight, and the like regarding the tissue. Further, the shape information may be an image (morphological image) representing the shape of the two-dimensional cross section or three-dimensional volume of the skin.

形態情報の生成が行われる場合、皮膚の2次元領域または3次元領域に対するOCTが実行される。2次元領域のOCTから得られる断層データは、皮膚の2次元断面に相当する断層データであり、その一例として、2次元断面における反射強度プロファイル、Bスキャンデータ、Cスキャンデータなどがある。3次元領域のOCTから得られる断層データは、皮膚の3次元ボリュームに相当する断層データであり、その一例として、3次元領域における反射強度プロファイル、複数のBスキャンデータ、複数のCスキャンデータ、ボリュームデータなどがある。2次元領域や3次元領域は、気体の吹き付け領域の少なくとも一部を含む皮膚の部位に相当する。すなわち、気体が吹き付けられる皮膚表面Sの範囲の一部または全部が、OCT計測の対象領域として設定される。   When generation of morphological information is performed, OCT is performed on a two-dimensional region or a three-dimensional region of skin. The tomographic data obtained from the OCT of the two-dimensional region is tomographic data corresponding to the two-dimensional cross section of the skin, and examples thereof include a reflection intensity profile, B scan data, and C scan data in the two dimensional cross section. The tomographic data obtained from the OCT of the three-dimensional region is tomographic data corresponding to the three-dimensional volume of the skin. As an example, the reflection intensity profile, the plurality of B scan data, the plurality of C scan data, the volume in the three dimensional region There is data. The two-dimensional region and the three-dimensional region correspond to a portion of the skin including at least a part of the gas blowing region. That is, part or all of the range of the skin surface S to which the gas is blown is set as a target region for OCT measurement.

この場合、データ処理部130は、2次元領域または3次元領域について取得された断層データに基づいて、皮膚の性状に関する分布情報または統計値を表す評価情報を生成する。分布情報(マップ等)や統計値(平均値等)については前述した。   In this case, the data processing unit 130 generates evaluation information representing distribution information or statistical values related to skin properties based on the tomographic data acquired for the two-dimensional region or the three-dimensional region. Distribution information (such as a map) and statistical values (such as an average value) have been described above.

形態情報生成部133の説明に戻る。形態情報が形態画像を含む場合、形態情報生成部133は、OCT画像を生成するための公知の処理を実行する。なお、断層データ自体が画像であり、かつ形態情報が形態画像のみである場合、形態情報生成部133は特に処理を行う必要はない。なお、断層データがOCT画像であり、このOCT画像を加工することによって形態画像が生成される場合(たとえば、セグメンテーション情報を付加する場合)、形態情報生成部133はOCT画像を加工する処理を実行する。   Returning to the description of the form information generation unit 133. When the morphological information includes a morphological image, the morphological information generation unit 133 executes a known process for generating an OCT image. If the tomographic data itself is an image and the morphological information is only the morphological image, the morphological information generation unit 133 does not need to perform any particular processing. When the tomographic data is an OCT image and a morphological image is generated by processing this OCT image (for example, when segmentation information is added), the morphological information generation unit 133 executes processing for processing the OCT image. To do.

分布情報(評価情報)および形態情報の双方が同じ断層データから生成される場合、分布情報中の位置と形態情報中の位置との間に自然な対応関係を付与することができる。たとえば、変位マップと形態画像とを重ね合わせて表示させることができる。或いは、変位マップおよび形態画像の一方における位置が指定されたときに、この指定位置に対応する他方における位置を提示することができる。   When both distribution information (evaluation information) and form information are generated from the same tomographic data, a natural correspondence can be given between a position in the distribution information and a position in the form information. For example, the displacement map and the morphological image can be displayed in a superimposed manner. Or when the position in one of a displacement map and a form image is designated, the position in the other corresponding to this designated position can be shown.

なお、異なる断層データから生成された分布情報と形態情報との間に、位置の対応関係を付与することも可能である。たとえば、分布情報の基になった第1の断層データから得られる第1の画像と、形態情報の基になった第2の断層データから得られる第2の画像との位置合わせ(画像マッチング)を実行し、この画像マッチングの結果(アフィン変換等の座標変換)を、分布情報と形態情報との間の位置の対応関係として用いることができる。   It is also possible to give a positional correspondence between distribution information and form information generated from different tomographic data. For example, alignment (image matching) between a first image obtained from first tomographic data based on distribution information and a second image obtained from second tomographic data based on morphological information And the result of this image matching (coordinate transformation such as affine transformation) can be used as a positional correspondence between distribution information and form information.

以上のように機能するデータ処理部130は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。   The data processing unit 130 that functions as described above includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.

(ユーザインターフェイス)
ユーザインターフェイス200は、皮膚性状評価装置1とそのユーザとの間のマンマシンインターフェイスである。ユーザインターフェイス220は、情報を表示する機能と、皮膚性状評価装置1を操作するための機能と、皮膚性状評価装置1に情報を入力するための機能とを有する。ユーザインターフェイス200の少なくとも一部は、皮膚性状評価装置1の外部に設けられていてよい。たとえば、ユーザインターフェイス200の機能の少なくとも一部を、皮膚性状評価装置1との間でデータの送信および/または受信が可能なデバイスやコンピュータに設けることができる。
(User interface)
The user interface 200 is a man-machine interface between the skin property evaluation apparatus 1 and the user. The user interface 220 has a function for displaying information, a function for operating the skin property evaluation apparatus 1, and a function for inputting information to the skin property evaluation apparatus 1. At least a part of the user interface 200 may be provided outside the skin property evaluation apparatus 1. For example, at least a part of the functions of the user interface 200 can be provided in a device or a computer that can transmit and / or receive data to and from the skin property evaluation apparatus 1.

ユーザインターフェイス200には、表示デバイス210と操作デバイス220とが含まれる。表示デバイス210は、制御部110による制御を受けて情報を表示する。表示デバイス210の例として、皮膚性状評価装置1に設けられている表示デバイスや、外部ディスプレイや、携帯端末(たとえばタブレット端末やスマートフォン)などがある。   The user interface 200 includes a display device 210 and an operation device 220. The display device 210 displays information under the control of the control unit 110. Examples of the display device 210 include a display device provided in the skin property evaluation apparatus 1, an external display, and a mobile terminal (for example, a tablet terminal or a smartphone).

操作デバイス220は、皮膚性状評価装置1の操作、および/または、皮膚性状評価装置1への情報入力に用いられる。制御部110は、操作デバイス220からの信号に応じた処理を実行する。操作デバイス220の例として、皮膚性状評価装置1に設けられている操作デバイス(たとえばボタンやスイッチやキー)や、外部コンピュータの操作デバイス(たとえばキーボードやマウスやトラックボール)や、携帯端末(たとえばタブレット端末やスマートフォン)などがある。   The operation device 220 is used to operate the skin property evaluation apparatus 1 and / or to input information to the skin property evaluation apparatus 1. The control unit 110 executes processing according to the signal from the operation device 220. Examples of the operation device 220 include an operation device (for example, a button, a switch, or a key) provided in the skin property evaluation apparatus 1, an operation device for an external computer (for example, a keyboard, a mouse, or a trackball), or a portable terminal (for example, a tablet). Terminal or smartphone).

表示デバイス210と操作デバイス220は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。また、表示デバイス210に表示されたグラフィカルユーザインターフェイス(GUI)と、操作デバイス220とを用いて、操作や情報入力を行うようにしてもよい。   The display device 210 and the operation device 220 do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display device 210 and the operation device 220.

[作用および効果]
実施形態の皮膚性状評価装置の作用および効果について説明する。
[Action and effect]
The operation and effect of the skin property evaluation apparatus according to the embodiment will be described.

実施形態の皮膚性状評価装置は、吹付部と、断層データ取得部と、情報生成部とを含む。吹付部は、被検者の皮膚表面に気体を吹き付ける。この実施形態において、吹付部は、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含む。断層データ取得部は、吹付部により気体が吹き付けられている状態の皮膚の断層データを、OCTを用いて取得する。この実施形態において、断層データ取得部は、OCTユニット20と、断層データ生成部120とを含む。情報生成部は、断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する。この実施形態において、情報生成部は、データ処理部130を含む。   The skin property evaluation apparatus according to the embodiment includes a spraying unit, a tomographic data acquisition unit, and an information generation unit. A spraying part sprays gas on the subject's skin surface. In this embodiment, the spray unit includes a compressed gas generation unit 11, a communication pipe 12, a head unit 13, and a nozzle 14. The tomographic data acquisition unit acquires the tomographic data of the skin in a state where gas is sprayed by the spraying unit using OCT. In this embodiment, the tomographic data acquisition unit includes an OCT unit 20 and a tomographic data generation unit 120. The information generation unit generates evaluation information related to the skin property of the subject based on the tomographic data acquired by the tomographic data acquisition unit. In this embodiment, the information generation unit includes a data processing unit 130.

このような皮膚性状評価装置によれば、気体の吹き付けによる皮膚の状態の変化(変位等)の検出をOCTを利用して高精度かつ高確度で行えるので、高確度な皮膚の性状評価を非接触で行うことが可能である。   According to such a skin property evaluation apparatus, a change in skin state (displacement, etc.) due to gas blowing can be detected with high accuracy and high accuracy using OCT, so that highly accurate skin property evaluation is not possible. It can be done in contact.

実施形態の皮膚性状評価装置において、断層データ取得部が、気体が吹き付けられている状態の皮膚の断層データを少なくとも1回取得し、かつ、情報生成部が、断層データ取得部により取得された1以上の断層データに基づいて評価情報を生成するように構成することができる。この構成の例として、皮膚表面から所定距離だけ離れた位置にプローブが配置された状態で、気体の吹き付け中に1回OCTを実行し、この所定距離から得られる皮膚表面の位置と、1つの断層データから得られる皮膚表面の位置との差分(気体の吹き付けによる皮膚表面の変位に相当する)を求め、この差分の値に基づいて評価情報を生成するように構成することが可能である。或いは、気体が吹き付けられていない状態で1回OCTを実行し、さらに、気体が吹き付けられている状態で1回OCTを実行することにより、気体の吹き付けによる皮膚表面の変位を求めるように構成することも可能である。   In the skin property evaluation apparatus of the embodiment, the tomographic data acquisition unit acquires the tomographic data of the skin in a state where gas is blown at least once, and the information generation unit is acquired by the tomographic data acquisition unit 1 The evaluation information can be generated based on the above fault data. As an example of this configuration, in a state where the probe is disposed at a position away from the skin surface by a predetermined distance, OCT is executed once during the gas blowing, and the position of the skin surface obtained from this predetermined distance and one It is possible to obtain a difference (corresponding to displacement of the skin surface due to gas blowing) from the position of the skin surface obtained from the tomographic data, and to generate evaluation information based on the value of this difference. Alternatively, the OCT is performed once in a state where no gas is sprayed, and further, the OCT is performed once in a state where the gas is sprayed, whereby the displacement of the skin surface due to the spraying of the gas is obtained. It is also possible.

実施形態の皮膚性状評価装置において、断層データ取得部が、気体が吹き付けられている状態の皮膚の断層データを所定の時間間隔で反復的に取得し、かつ、情報生成部が、断層データ取得部により反復的に取得された複数の断層データに基づいて評価情報を生成するように構成することができる。この構成によれば、断層データの時系列変化に基づいて評価情報を生成することが可能である。   In the skin property evaluation apparatus according to the embodiment, the tomographic data acquisition unit repeatedly acquires the tomographic data of the skin in a state where the gas is being sprayed at predetermined time intervals, and the information generation unit includes the tomographic data acquisition unit. The evaluation information can be generated based on a plurality of pieces of tomographic data repeatedly obtained by the above. According to this configuration, it is possible to generate evaluation information based on time-series changes in tomographic data.

さらに、断層データ取得部が、気体の吹き付けの終了後にも皮膚の断層データを所定の時間間隔で反復的に取得し、かつ、情報生成部が、気体の吹き付け中および吹き付けの終了後に断層データ取得部により反復的に取得された複数の断層データに基づいて評価情報を生成するように構成することができる。この構成によれば、吹き付けの終了後における断層データの時系列変化に基づいて評価情報を生成することが可能である。   Furthermore, the tomographic data acquisition unit repeatedly acquires the tomographic data of the skin at predetermined time intervals even after the completion of the gas blowing, and the information generating unit acquires the tomographic data during the gas blowing and after the completion of the blowing. The evaluation information can be generated based on a plurality of pieces of tomographic data repeatedly acquired by the unit. According to this configuration, it is possible to generate the evaluation information based on the time series change of the tomographic data after the completion of the spraying.

さらに、断層データ取得部が、気体の吹き付けの開始前に断層データの反復的な取得を開始し、かつ、情報生成部が、気体の吹き付けの開始前、吹き付け中および吹き付けの終了後に断層データ取得部により反復的に取得された複数の断層データに基づいて評価情報を生成するように構成することができる。この構成によれば、気体が吹き付けられていない状態における層の位置を参照して層の性状を求めることができ、さらには、吹き付けの終了後における断層データの時系列変化に基づいて評価情報を生成することができる。   Furthermore, the tomographic data acquisition unit starts to acquire tomographic data repeatedly before the start of gas blowing, and the information generation unit acquires tomographic data before the start of gas blowing, during the blowing, and after the end of the blowing. The evaluation information can be generated based on a plurality of pieces of tomographic data repeatedly acquired by the unit. According to this configuration, it is possible to obtain the properties of the layer with reference to the position of the layer in a state where no gas is blown, and furthermore, evaluation information is obtained based on the time-series change of the tomographic data after the completion of the blowing. Can be generated.

実施形態において、情報生成部は、データ位置特定部(131)と、評価情報生成部(132)とを含んでいてよい。データ位置特定部は、断層データ取得部により取得された断層データにおいて皮膚の所定の層に相当するデータ位置を特定するよう構成される。評価情報生成部は、データ位置特定部により特定されたデータ位置に基づいて評価情報を生成するよう構成される。この構成によれば、所定の層の位置の特定結果から評価情報を生成することができる。   In the embodiment, the information generating unit may include a data position specifying unit (131) and an evaluation information generating unit (132). The data position specifying unit is configured to specify a data position corresponding to a predetermined layer of the skin in the tomographic data acquired by the tomographic data acquiring unit. The evaluation information generating unit is configured to generate evaluation information based on the data position specified by the data position specifying unit. According to this configuration, the evaluation information can be generated from the result of specifying the position of the predetermined layer.

さらに、断層データ取得部が、断層データの取得を少なくとも2回実行し、データ位置特定部が、断層データ取得部により取得された2以上の断層データのそれぞれについてデータ位置の特定を実行し、かつ、評価情報生成部が、データ位置特定部により特定された2以上のデータ位置の間の変位に基づいて評価情報を生成するように構成することができる。この構成によれば、所定の層の変位から、気体の吹き付けによる皮膚の変位に基づく評価情報を生成することができる。   Further, the tomographic data acquisition unit executes tomographic data acquisition at least twice, the data position specifying unit executes data position specification for each of the two or more tomographic data acquired by the tomographic data acquisition unit, and The evaluation information generating unit can be configured to generate the evaluation information based on the displacement between two or more data positions specified by the data position specifying unit. According to this configuration, it is possible to generate evaluation information based on the displacement of the skin due to the blowing of gas from the displacement of the predetermined layer.

実施形態において、情報生成部は、データ位置特定部(131)と、評価情報生成部(132)とを含んでいてよい。データ位置特定部は、断層データ取得部により反復的に取得された複数の断層データのそれぞれにおいて皮膚の所定の層に相当するデータ位置を特定するよう構成される。評価情報生成部は、データ位置特定部により特定された複数のデータ位置の時系列変化に基づいて評価情報を生成するよう構成される。この構成によれば、所定の層の位置の時系列変化から評価情報を生成することができる。なお、データ位置の時系列変化に基づく評価情報の生成処理には、たとえば、データ位置の変化量に基づく処理、データ位置の変化速度に基づく処理、第1のデータ位置から第2のデータ位置までの移行に掛かった時間に基づく処理などがある。   In the embodiment, the information generating unit may include a data position specifying unit (131) and an evaluation information generating unit (132). The data position specifying unit is configured to specify a data position corresponding to a predetermined layer of the skin in each of the plurality of tomographic data repeatedly acquired by the tomographic data acquiring unit. The evaluation information generation unit is configured to generate evaluation information based on a time series change of a plurality of data positions specified by the data position specifying unit. According to this configuration, the evaluation information can be generated from the time series change of the position of the predetermined layer. The evaluation information generation process based on the time-series change of the data position includes, for example, a process based on the change amount of the data position, a process based on the change speed of the data position, and from the first data position to the second data position. Processing based on the time taken for migration.

実施形態において、異なる2以上の層のそれぞれについて評価情報を生成することができる。より具体的には、データ位置特定部が、2以上の層のそれぞれについてデータ位置の特定を実行し、かつ、評価情報生成部が、2以上の層のそれぞれについて評価情報の生成を個別に実行するように構成することができる。この構成によれば、皮膚の性状の評価を複数の層について個別に行うことができる。   In the embodiment, evaluation information can be generated for each of two or more different layers. More specifically, the data position specifying unit executes data position specification for each of two or more layers, and the evaluation information generation unit individually executes generation of evaluation information for each of two or more layers. Can be configured to. According to this configuration, the evaluation of skin properties can be performed individually for a plurality of layers.

実施形態において、気体の吹き付け圧を変更可能に構成することができる。この場合、情報生成部は、断層データと気体の吹き付け圧とに基づいて評価情報を生成するように構成されていてよい。この構成によれば、気体の吹き付け圧を適宜に変更しつつ評価を行うことが可能である。   In the embodiment, the gas spraying pressure can be configured to be changeable. In this case, the information generation unit may be configured to generate evaluation information based on the tomographic data and the gas blowing pressure. According to this configuration, the evaluation can be performed while appropriately changing the gas blowing pressure.

実施形態において、断層データ取得部が、吹付部による気体の吹き付け領域の少なくとも一部を含む皮膚の2次元領域または3次元領域に対して光コヒーレンストモグラフィを実行し、かつ、情報生成部が、2次元領域または3次元領域について取得された断層データに基づいて、皮膚の性状に関する分布情報または統計値を表す評価情報を生成するよう構成することができる。この構成によれば、皮膚の性状がどのように分布しているか、または、或る領域における皮膚の性状の傾向を取得することができる。   In the embodiment, the tomographic data acquisition unit performs optical coherence tomography on the two-dimensional region or the three-dimensional region of the skin including at least a part of the gas spray region by the spray unit, and the information generation unit includes: Based on the tomographic data acquired for the two-dimensional region or the three-dimensional region, it is possible to generate evaluation information representing distribution information or statistical values related to skin properties. According to this configuration, it is possible to acquire how the skin properties are distributed or the tendency of the skin properties in a certain region.

さらに、情報生成部は、皮膚の2次元領域または3次元領域について取得された断層データに基づいて、皮膚の所定の組織の形態を表す形態情報を生成する形態情報生成部を含んでいてよい。この構成によれば、皮膚の性状と皮膚の形態の双方を把握することができ、さらには、これらを関連付けて把握することができる。   Furthermore, the information generation unit may include a morphological information generation unit that generates morphological information representing a predetermined tissue form of the skin based on the tomographic data acquired for the two-dimensional region or the three-dimensional region of the skin. According to this configuration, it is possible to grasp both the properties of the skin and the form of the skin, and furthermore it is possible to grasp them in association with each other.

〈第2の実施形態〉
この実施形態に係る皮膚性状評価装置は、被検者をステレオ撮影する機能を有し、それにより取得されたステレオ撮影画像を利用して各種の処理を実行する。この実施形態の皮膚性状評価装置の構成要素は、特に言及しない限り、第1の実施形態における同じ符号の構成要素と同様であってよい。
<Second Embodiment>
The skin property evaluation apparatus according to this embodiment has a function of photographing a subject in stereo, and executes various processes using a stereo image obtained thereby. The components of the skin property evaluation apparatus of this embodiment may be the same as those of the first embodiment unless otherwise specified.

[構成]
この実施形態の皮膚性状評価装置の構成例を図7に示す。この皮膚性状評価装置は、第1の実施形態の構成に加えて、2以上の撮影部300と、プローブ移動機構310とを有する。なお、図7に示す構成要素のうちいずれかが搭載されていなくてもよい。たとえば、図7に示す構成から表面観察光学系40を削除することができる。
[Constitution]
A configuration example of the skin property evaluation apparatus of this embodiment is shown in FIG. This skin property evaluation apparatus includes two or more imaging units 300 and a probe moving mechanism 310 in addition to the configuration of the first embodiment. Note that any of the components shown in FIG. 7 may not be mounted. For example, the surface observation optical system 40 can be deleted from the configuration shown in FIG.

(撮影部)
2以上の撮影部300は、被検者を異なる方向から実質的に同時に撮影する。この実施形態では、2つの撮影部を含む場合について特に詳しく説明するが、撮影部の個数は2以上の任意の個数であってよい。また、この実施形態では、表面観察光学系40とは別個に撮影部300を設けているが、表面観察光学系40を用いて被検者の撮影を行うことができる。つまり、2以上の撮影部300のうちの1つを表面観察光学系40が担うようにしてもよい。
(Shooting part)
The two or more imaging units 300 image the subject from different directions substantially simultaneously. In this embodiment, a case where two imaging units are included will be described in detail. However, the number of imaging units may be an arbitrary number of two or more. In this embodiment, the imaging unit 300 is provided separately from the surface observation optical system 40, but the subject can be imaged using the surface observation optical system 40. That is, the surface observation optical system 40 may be responsible for one of the two or more imaging units 300.

なお、「実質的に同時」とは、2以上の撮影部300による撮影において、被検者の動きを無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検者が実質的に同じ位置(向き)にあるときの画像を2以上の撮影部300によって取得することができる。   Note that “substantially simultaneously” indicates that, in imaging by two or more imaging units 300, an imaging timing shift that allows the movement of the subject to be ignored is allowed. Thereby, an image when the subject is at substantially the same position (orientation) can be acquired by two or more imaging units 300.

また、2以上の撮影部300による撮影は動画撮影でも静止画撮影でもよい。動画撮影の場合、撮影開始タイミングを合わせるための制御や、フレームレートや各フレームの撮影タイミングの制御などを行うことにより、上記した実質的な同時撮影を実現することができる。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。各撮影部300の制御は主制御部111によって実行される。   Further, the shooting by the two or more shooting units 300 may be moving image shooting or still image shooting. In the case of moving image shooting, the above-described substantial simultaneous shooting can be realized by performing control for adjusting the shooting start timing, control of the frame rate and shooting timing of each frame, and the like. On the other hand, in the case of still image shooting, this can be realized by controlling to match the shooting timing. Control of each photographing unit 300 is executed by the main control unit 111.

(プローブ移動機構)
プローブ移動機構310は、プローブを移動させるために用いられる。第1の実施形態において説明したように、プローブは、被検者の皮膚表面Sに近接配置されるユニットであり、気体を吹き付けるための構成のうちの少なくともノズル14と、OCTのための手段のうち測定アームの少なくとも先端部とを含む。プローブ移動機構310は、駆動力を発生するアクチュエータと、発生された駆動力をプローブに伝達する伝達機構とを含む。アクチュエータは、後述する移動制御部114の制御を受けて動作する。
(Probe moving mechanism)
The probe moving mechanism 310 is used to move the probe. As described in the first embodiment, the probe is a unit that is disposed close to the skin surface S of the subject, and includes at least the nozzle 14 and the means for OCT in the configuration for blowing gas. Of these, at least the tip of the measurement arm is included. The probe moving mechanism 310 includes an actuator that generates a driving force and a transmission mechanism that transmits the generated driving force to the probe. The actuator operates under the control of a movement control unit 114 described later.

(制御部)
制御部110は、主制御部111および記憶部112に加えて、表示制御部113と、移動制御部114とを含む。表示制御部113は、第1の実施形態の主制御部111と同様の表示制御機能を有し、表示デバイス210を制御する。移動制御部114は、プローブ移動機構310を制御する。表示制御部113および移動制御部114が実行する制御の内容については後述する。
(Control part)
The control unit 110 includes a display control unit 113 and a movement control unit 114 in addition to the main control unit 111 and the storage unit 112. The display control unit 113 has a display control function similar to that of the main control unit 111 of the first embodiment, and controls the display device 210. The movement control unit 114 controls the probe moving mechanism 310. Details of the control executed by the display control unit 113 and the movement control unit 114 will be described later.

(データ処理部)
データ処理部130は、解析部140を含む。解析部140は、3次元画像生成部141と、対応情報生成部142とを含む。さらに、データ処理部130は、位置情報取得部143を含む。
(Data processing part)
The data processing unit 130 includes an analysis unit 140. The analysis unit 140 includes a three-dimensional image generation unit 141 and a correspondence information generation unit 142. Further, the data processing unit 130 includes a position information acquisition unit 143.

(解析部)
解析部140は、2つの撮影部300により実質的に同時に取得された2つの撮影画像を解析することにより、被検者に関する3次元位置情報を取得する。3次元位置情報は、たとえば、被検者の所定部位の3次元位置を含む。この所定部位は、たとえば、気体が吹き付けられる領域、またはその近傍位置である。この実施形態において、気体が吹き付けられる領域は、顔の部分(たとえば頬)であるとする。3次元位置情報は、3次元画像生成部141および対応情報生成部142が以下の処理を実行することによって生成される。
(Analysis Department)
The analysis unit 140 acquires three-dimensional position information related to the subject by analyzing two captured images acquired substantially simultaneously by the two imaging units 300. The three-dimensional position information includes, for example, a three-dimensional position of a predetermined part of the subject. This predetermined part is, for example, a region where gas is sprayed or a position in the vicinity thereof. In this embodiment, it is assumed that the region where the gas is blown is a face portion (for example, a cheek). The three-dimensional position information is generated when the three-dimensional image generation unit 141 and the correspondence information generation unit 142 execute the following processing.

(3次元画像生成部)
3次元画像生成部141は、2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の顔の3次元画像(立体顔画像)を生成する。この処理は、公知の画像合成処理によって行われる。なお、立体顔画像は、たとえば、立体写真、または立体モデルである。立体モデルは、各撮影画像または立体写真をモデル化(抽象化、模式化)して得られる画像であり、たとえばポリゴンモデルやワイヤーフレームである。立体モデルを生成する処理には公知の技術が用いられる。
(3D image generator)
The three-dimensional image generation unit 141 generates a three-dimensional image (three-dimensional face image) of the subject's face based on the two captured images acquired substantially simultaneously by the two imaging units 300. This process is performed by a known image composition process. Note that the stereoscopic face image is, for example, a stereoscopic photograph or a stereoscopic model. The stereoscopic model is an image obtained by modeling (abstracting or modeling) each captured image or stereoscopic photograph, and is, for example, a polygon model or a wire frame. A known technique is used for the process of generating the three-dimensional model.

なお、立体顔画像を生成する処理においては、2つの撮影部300の設置位置(視差)を示す情報が用いられる。各撮影部300の設置位置を示す情報は、あらかじめ取得される。撮影部300が移動可能である場合には、たとえば、位置センサにより検出された撮影部300の位置に基づいて、または、撮影部300を移動するための制御の内容に基づいて、撮影時における撮影部300の位置を取得することができる。   Note that in the process of generating a stereoscopic face image, information indicating the installation positions (parallax) of the two photographing units 300 is used. Information indicating the installation position of each photographing unit 300 is acquired in advance. When the photographing unit 300 is movable, for example, based on the position of the photographing unit 300 detected by the position sensor or based on the content of the control for moving the photographing unit 300, photographing at the time of photographing is performed. The position of the unit 300 can be acquired.

(対応情報生成部)
対応情報生成部142は、3次元位置情報として、対応情報を生成する。対応情報は、3次元画像生成部141により生成された立体顔画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた情報である。
(Correspondence information generator)
The correspondence information generation unit 142 generates correspondence information as the three-dimensional position information. The correspondence information is information in which the first coordinate system set in the stereoscopic face image generated by the three-dimensional image generation unit 141 is associated with the second coordinate system set in the real space.

立体顔画像を構成する画素の位置は、3次元座標系である第1の座標系(画像座標系)により定義される。また、被検者が存在する実空間内の位置は、3次元座標系である第2の座標系(実空間座標系)により定義される。実空間座標系の原点は、皮膚性状評価装置の近傍の所定位置に設定される。この原点位置は、たとえば、2つの撮影部300の設置位置を基準にあらかじめ設定される。また、実空間座標系の3つの座標軸は、たとえば、鉛直方向の第1の座標軸と、この第1の座標軸に直交する面内に位置し、互いに直交する第2および第3の座標軸である。   The positions of the pixels constituting the stereoscopic face image are defined by a first coordinate system (image coordinate system) which is a three-dimensional coordinate system. The position in the real space where the subject exists is defined by a second coordinate system (real space coordinate system) which is a three-dimensional coordinate system. The origin of the real space coordinate system is set at a predetermined position in the vicinity of the skin property evaluation apparatus. This origin position is set in advance with reference to the installation positions of the two photographing units 300, for example. The three coordinate axes of the real space coordinate system are, for example, the first coordinate axis in the vertical direction and the second and third coordinate axes that are located in a plane orthogonal to the first coordinate axis and orthogonal to each other.

画像座標系と実空間座標系との対応付けは、たとえば、2つの撮影部300の設置位置を介して行われる。すなわち、上記のように2つの撮影部300の設置位置に基づき実空間座標系を定義し、かつ、2つの撮影部300の設置位置(視差)に基づき撮影画像の合成処理を実行することにより画像座標系を定義する。それにより、実空間座標系と画像座標系との間の対応関係(座標変換)を取得することができる。   The association between the image coordinate system and the real space coordinate system is performed via the installation positions of the two photographing units 300, for example. That is, as described above, the real space coordinate system is defined based on the installation positions of the two imaging units 300, and the combined image of the captured images is executed based on the installation positions (parallax) of the two imaging units 300. Define a coordinate system. Thereby, the correspondence (coordinate transformation) between the real space coordinate system and the image coordinate system can be acquired.

或いは、撮影画像または立体顔画像に描出されているオブジェクト(被検者の一部、装置の一部、被検者および装置の近傍に位置する物体の一部など)を基準位置(たとえば原点)とし、それに基づいて双方の座標系を設定することにより、実空間座標系と画像座標系との間の対応関係(座標変換)を取得してもよい。   Alternatively, an object (a part of the subject, a part of the device, a part of the subject and a part of the object located in the vicinity of the device, etc.) depicted in the photographed image or the three-dimensional face image is a reference position (for example, the origin) Then, by setting both coordinate systems based on this, the correspondence (coordinate transformation) between the real space coordinate system and the image coordinate system may be acquired.

対応情報(3次元位置情報)は、たとえば上記のようにして取得された対応関係を含む。   The correspondence information (three-dimensional position information) includes, for example, the correspondence acquired as described above.

(位置情報取得部)
位置情報取得部143は、解析部140により取得された3次元位置情報(たとえば対応情報)に基づいて、気体の吹き付け領域およびOCTの実行領域のうちの一方または双方の位置を表す位置情報を取得する。この処理については後述する。なお、吹き付け領域の位置情報は、たとえば、気体の吹き付け対象となる被検者の皮膚表面上の位置を表す情報でもよいし、この吹き付け対象位置に気体を吹き付けるためのプローブの位置を表す情報でもよい。また、OCTの実行領域の位置情報は、たとえば、OCTによる画像化対象領域(走査領域)となる被検者の皮膚表面上の位置および/または皮膚内部の位置を表す情報でもよいし、この画像化対象領域のOCTを行うためのプローブの位置を表す情報でもよい。
(Location information acquisition unit)
The position information acquisition unit 143 acquires position information representing the position of one or both of the gas blowing region and the OCT execution region based on the three-dimensional position information (for example, correspondence information) acquired by the analysis unit 140. To do. This process will be described later. The position information of the spray region may be, for example, information representing a position on the skin surface of the subject to be gas sprayed, or information representing a position of a probe for spraying gas to the spray target position. Good. Further, the position information of the OCT execution area may be, for example, information indicating the position on the skin surface of the subject and / or the position inside the skin, which is the imaging target area (scanning area) by OCT. It may be information indicating the position of the probe for performing OCT of the target region.

[動作]
実施形態の皮膚性状評価装置の動作について説明する。以下、いくつかの典型的な動作例を説明するが、実施形態に係る動作はこれらに限定されるものではない。
[Operation]
The operation of the skin property evaluation apparatus according to the embodiment will be described. Hereinafter, some typical operation examples will be described, but the operation according to the embodiment is not limited thereto.

(第1の動作例:図8)
第1の動作例において、皮膚性状評価装置は、立体顔画像に対して手動で指定された検査位置(皮膚の性状の評価対象となる位置)にプローブを移動して検査を実施するよう構成される。
(First operation example: FIG. 8)
In the first operation example, the skin property evaluation device is configured to perform an inspection by moving the probe to an inspection position (a position to be evaluated for skin properties) manually specified for a stereoscopic face image. The

(S1:被検者の顔の立体撮影を行う)
椅子に腰掛けた状態またはベッドに横になっている状態の被検者の顔が撮影野に含まれるように、2つの撮影部300を用いて撮影を行う。この撮影は、静止画撮影でもよいし、動画撮影でもよい。静止画撮影の場合、主制御部111は、実質的に同時に撮影を行うように2つの撮影部300を制御する。動画撮影の場合、主制御部111は、2つの撮影部300の撮影タイミング(フレームレート)を同期させる処理を行ってよい。また、動画撮影の場合、主制御部111は、2つの撮影部300により実質的に同時に取得された一対の撮影画像を対応付けて後段の処理に送る(つまり、データ処理部130に送る)。
(S1: Performs stereoscopic shooting of the face of the subject)
Photographing is performed using the two photographing units 300 such that the face of the subject sitting on a chair or lying on the bed is included in the photographing field. This shooting may be a still image shooting or a moving image shooting. In the case of still image shooting, the main control unit 111 controls the two shooting units 300 to perform shooting substantially simultaneously. In the case of moving image shooting, the main control unit 111 may perform processing for synchronizing shooting timings (frame rates) of the two shooting units 300. In the case of moving image shooting, the main control unit 111 associates a pair of captured images acquired substantially simultaneously by the two shooting units 300 and sends them to the subsequent processing (that is, sends them to the data processing unit 130).

(S2:立体顔画像を生成する)
3次元画像生成部141は、ステップS1において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S2: Generate a 3D face image)
The three-dimensional image generation unit 141 generates a three-dimensional face image of the subject based on the two captured images acquired substantially simultaneously by the two imaging units 300 in step S1.

(S3:対応情報を生成する)
対応情報生成部142は、ステップS2において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S3: Generate correspondence information)
The correspondence information generation unit 142 associates the image coordinate system of the three-dimensional face image with the real space coordinate system of the space where the subject's face is located based on the three-dimensional face image generated in step S2. Generate information.

(S4:立体顔画像を表示する)
表示制御部113は、ステップS2において生成された立体顔画像を表示デバイス210に表示させる。
(S4: Display a 3D face image)
The display control unit 113 causes the display device 210 to display the stereoscopic face image generated in step S2.

(S5:立体顔画像に対して検査位置を指定する)
ユーザは、操作デバイス220を用いることにより、ステップS4において表示された立体顔画像に対して検査位置を指定する。この操作の一例として、ユーザは、立体顔画像とともに表示デバイス210に表示されているカーソル(たとえばマウスポインタ)を立体顔画像上の所望の位置に移動し、指定位置を確定する操作(たとえばマウスクリック)を実行する。
(S5: Specify the inspection position for the 3D face image)
The user uses the operation device 220 to specify the inspection position for the stereoscopic face image displayed in step S4. As an example of this operation, the user moves a cursor (for example, a mouse pointer) displayed on the display device 210 together with the three-dimensional face image to a desired position on the three-dimensional face image, and confirms a designated position (for example, a mouse click). ).

他の例として、主制御部111は、検査位置の候補のリスト(たとえばドロップダウンリストやチェックボックス)を立体顔画像とともに表示させる。ユーザは、このリストに列挙されている候補のうち所望のものを選択する。この操作は、たとえばマウスを用いて行われる。   As another example, the main control unit 111 displays a list of inspection position candidates (for example, a drop-down list or a check box) together with a stereoscopic face image. The user selects a desired one of the candidates listed in this list. This operation is performed using a mouse, for example.

検査位置の候補は、顔の部位名であってよい。たとえば、候補として「頬の中心部」、「頬の上部」、「頬の下部」などが設けられる。この場合、解析部140(または記憶部112)は、各候補に関する位置情報をあらかじめ記憶している。この位置情報は、たとえば、顔のいくつかの特徴点(たとえば、目頭、目尻、頬の頂点、鼻の頂点、口角、正中線などのうちのいくつか)に対する当該候補の相対位置を示す情報を含む。リスト中の候補が指定されると、解析部140は、ステップS2で生成された立体顔画像(またはステップS1で取得された撮影画像)を解析することによりいくつかの特徴点を特定し、これら特徴点と位置情報とに基づいて、指定された候補に対応する検査位置(立体顔画像中の位置、画像座標系における座標値)を求める。   The candidate for the inspection position may be a face part name. For example, “center of cheek”, “upper cheek”, “lower cheek”, and the like are provided as candidates. In this case, the analysis unit 140 (or the storage unit 112) stores in advance position information regarding each candidate. This position information includes, for example, information indicating the relative position of the candidate with respect to some feature points of the face (for example, some of the corners of the eyes, the corners of the eyes, the apex of the cheeks, the apex of the nose, the mouth corner, the midline) Including. When candidates in the list are specified, the analysis unit 140 identifies some feature points by analyzing the stereoscopic face image generated in step S2 (or the captured image acquired in step S1), Based on the feature point and the position information, an inspection position (a position in the stereoscopic face image, a coordinate value in the image coordinate system) corresponding to the designated candidate is obtained.

指定可能な検査位置の個数は1つには限定されず、2以上であってもよい。その場合、ユーザは、上記のような典型的な操作を所望の検査位置ごとに実行する。   The number of inspection positions that can be specified is not limited to one, and may be two or more. In that case, the user performs a typical operation as described above for each desired inspection position.

指定された検査位置を示す情報は位置情報取得部143に送られる。この情報は、たとえば、この立体顔画像の画像座標系により表現された座標値である。   Information indicating the designated inspection position is sent to the position information acquisition unit 143. This information is, for example, a coordinate value expressed by the image coordinate system of this stereoscopic face image.

(S6:顔における検査対象領域を特定する)
位置情報取得部143は、ステップS3において生成された対応情報と、ステップS5において指定された検査位置とに基づいて、被検者の顔における検査対象領域を特定する。検査対象領域とは、後段の処理において検査が実施される皮膚の範囲(または、この検査を行うためのプローブの位置)を示す。
(S6: Specify the inspection target area in the face)
The position information acquisition unit 143 specifies the inspection target region in the subject's face based on the correspondence information generated in step S3 and the inspection position specified in step S5. The region to be inspected indicates the range of the skin (or the position of the probe for performing this inspection) where the inspection is performed in the subsequent processing.

この処理の一例として、位置情報取得部143は、ステップS5において取得された画像座標系の座標値に対応する実空間座標系の座標値を、対応情報を参照して特定する。   As an example of this process, the position information acquisition unit 143 specifies the coordinate value of the real space coordinate system corresponding to the coordinate value of the image coordinate system acquired in step S5 with reference to the correspondence information.

(S7:プローブを移動する)
移動制御部114は、ステップS6において特定された検査対象領域にプローブを移動させるようにプローブ移動機構310を制御する。この処理は、たとえば、ステップS6で取得された実空間座標系の座標値が示す位置にプローブを移動させるようにして実行される。
(S7: Move the probe)
The movement control unit 114 controls the probe moving mechanism 310 so as to move the probe to the inspection target area specified in step S6. This process is executed, for example, by moving the probe to the position indicated by the coordinate value of the real space coordinate system acquired in step S6.

(S8:検査を行う)
ステップS7においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。この検査は、たとえば、第1の実施形態において説明されたいずれかの手法によって実行される。また、検査の開始トリガは、ステップS7におけるプローブの移動の終了でもよいし、ユーザによる指示でもよいし、これら以外でもよい。
(S8: Perform inspection)
After the probe is moved in step S7, the main control unit 111 executes an inspection that is a combination of gas blowing and OCT measurement. This inspection is executed by, for example, any of the methods described in the first embodiment. Further, the inspection start trigger may be the end of the probe movement in step S7, an instruction by the user, or other than these.

なお、ステップS5において2以上の検査位置が指定された場合、ステップS7におけるプローブの移動とステップS8における検査との組み合わせが、少なくとも検査位置の個数と同数だけ実行される。たとえば、3つの検査位置が指定された場合、主制御部111は、第1の検査位置へのプローブの移動と当該検査位置での検査を実行させ、次に、第2の検査位置へのプローブの移動と当該検査位置での検査を実行させ、さらに、第3の検査位置へのプローブの移動と当該検査位置での検査を実行させる。   When two or more inspection positions are designated in step S5, the combination of the probe movement in step S7 and the inspection in step S8 is executed at least as many times as the number of inspection positions. For example, when three inspection positions are designated, the main control unit 111 causes the probe to move to the first inspection position and execute the inspection at the inspection position, and then the probe to the second inspection position. And the inspection at the inspection position are executed, and further, the probe is moved to the third inspection position and the inspection at the inspection position is executed.

(S9:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS8における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報(ID、氏名等)や立体顔画像等の任意の情報をさらに関連付けてもよい。
(S9: Save evaluation information and inspection position information)
The main control unit 111 stores the evaluation information generated by the inspection in step S8 in the storage unit 112 in association with information (inspection position information) indicating the position where the inspection is performed. At this time, arbitrary information such as examination date / time, subject identification information (ID, name, etc.), stereoscopic face image, and the like may be further associated.

検査位置情報は、皮膚の性状評価の対象となった位置を示す情報である。検査位置情報は、たとえば、ステップS5において立体顔画像に対して指定された検査位置を示す情報(画像座標系における座標値)、および、ステップS6において特定された位置(実空間座標系における座標値)のうち、少なくとも一方を含む。   The examination position information is information indicating a position that is an object of skin property evaluation. The inspection position information includes, for example, information indicating the inspection position designated for the stereoscopic face image in step S5 (coordinate values in the image coordinate system) and the position specified in step S6 (coordinate values in the real space coordinate system). ) At least one of them.

以上で、この動作例に関する処理は終了となる。   This is the end of the processing related to this operation example.

なお、この動作例により取得された評価情報を出力(表示、印刷、データ送信等)する場合、評価情報のみを出力してもよいし、評価情報およびその関連情報(検査位置情報、立体顔画像、被検者識別情報、検査日時等、評価情報に関連する各種情報のうちの少なくとも1つ)を出力してもよい。たとえば、検査位置を示す情報(マーカ等)がオーバーレイされた立体顔画像とともに評価情報を出力することができる。   When the evaluation information acquired by this operation example is output (display, printing, data transmission, etc.), only the evaluation information may be output, or the evaluation information and related information (examination position information, stereoscopic face image) , At least one of various types of information related to the evaluation information, such as the subject identification information and the examination date / time, may be output. For example, evaluation information can be output together with a three-dimensional face image on which information (marker or the like) indicating an inspection position is overlaid.

他の例として、2以上の検査位置における評価情報が取得された場合、これら検査位置の分布を示す分布情報と、検査位置ごとの評価情報とを関連付けて出力することができる。分布情報の具体例として、2以上の検査位置に関する上記候補の名称を示す文字列情報や、2以上の検査位置を示すマーカがオーバーレイされた立体顔画像がある。また、出力における関連付けの例として、上記の文字列情報(またはマーカ)と評価情報との配置を関連付けたり、それらの表示色を関連付けたりすることができる。   As another example, when evaluation information at two or more inspection positions is acquired, distribution information indicating the distribution of these inspection positions and evaluation information for each inspection position can be output in association with each other. Specific examples of the distribution information include character string information indicating the names of the candidates related to two or more inspection positions and a three-dimensional face image overlaid with markers indicating two or more inspection positions. Moreover, as an example of the association in the output, the arrangement of the character string information (or marker) and the evaluation information can be associated, or the display colors thereof can be associated.

(第2の動作例:図9)
第2の動作例において、皮膚性状評価装置は、あらかじめ記憶された1以上の検査位置にプローブを移動して検査を実施するよう構成される。
(Second operation example: FIG. 9)
In the second operation example, the skin property evaluation apparatus is configured to perform the inspection by moving the probe to one or more inspection positions stored in advance.

あらかじめ記憶された検査位置は、気体が吹き付けられる領域(吹き付け対象領域)の位置を表す情報である対象位置情報を含む。対象位置情報は、皮膚の部分領域の位置を示す情報でもよいし、その部分領域に気体を吹き付けるためのプローブの位置を示す情報でもよい。また、気体の吹き付け対象領域とOCT計測の対象領域とは互いの少なくとも一部同士が重なっているので、対象位置情報は、OCT計測の対象領域を示す情報であってもよい。   The inspection position stored in advance includes target position information that is information indicating the position of a region to which gas is sprayed (a spray target region). The target position information may be information indicating the position of the partial area of the skin, or information indicating the position of the probe for blowing gas to the partial area. Further, since at least a part of the gas spray target region and the target region for OCT measurement overlap each other, the target position information may be information indicating the target region for OCT measurement.

また、対象位置情報は、過去に実施された検査の位置を示す情報を含んでもよいし、典型的な検査位置を示す情報を含んでもよい。前者の情報の例として、第1の動作例のステップS9において保存された検査位置情報がある。後者の情報の例として、第1の動作例のステップS5において説明した検査位置の候補およびその位置情報がある。以下、前者の例について説明する。   Further, the target position information may include information indicating the position of an inspection performed in the past, or may include information indicating a typical inspection position. As an example of the former information, there is inspection position information stored in step S9 of the first operation example. As an example of the latter information, there are the inspection position candidate and its position information described in step S5 of the first operation example. Hereinafter, the former example will be described.

(S21:検査位置情報を読み出す)
主制御部111は、記憶部112(または、通信回線上の記憶装置や可搬記録媒体等)に記憶されている検査位置情報を読み出す。この処理は、たとえば次のようにして実行される。まず、記憶部112には、被検者識別情報に関連付けられて検査位置情報が保存されている。皮膚性状評価装置は、手入力や被検者カードの読み取りなどの入力手法によって入力された被検者識別情報を受け付ける。主制御部111は、この被検者識別情報に関連付けられた検査位置情報を記憶部112から検索する。それにより、当該被検者に対して過去に実施された検査で適用された検査位置が取得される。
(S21: Read inspection position information)
The main control unit 111 reads the inspection position information stored in the storage unit 112 (or a storage device or a portable recording medium on a communication line). This process is executed as follows, for example. First, in the storage unit 112, examination position information is stored in association with the subject identification information. The skin property evaluation apparatus accepts subject identification information input by an input method such as manual input or reading of a subject card. The main control unit 111 searches the storage unit 112 for examination position information associated with the subject identification information. Thereby, the examination position applied in the examination conducted in the past for the subject is acquired.

なお、当該被検者について複数の検査位置情報が記憶されている場合、これらのうち所定の1つ(たとえば最新のもの)を選択的に取得するようにしてよい。また、複数の検査位置情報が記憶されている場合であって、一の検査位置情報に含まれる1以上の検査位置と、他の検査位置情報に含まれる1以上の検査位置とが少なくとも一部異なる場合、これら検査位置の集合のうちから任意の検査位置を読み出すようにしてもよい。或いは、1以上の検査位置情報が含まれている場合であって、2以上の検査位置が含まれている場合、全ての検査位置情報を読み出し、これらに含まれる全ての検査位置を表示し、これら検査位置のうちユーザが選択した検査位置を後段の処理において適用するように構成することも可能である。   In addition, when several test | inspection position information is memorize | stored about the said subject, you may make it acquire selectively predetermined one (for example, the newest thing) among these. Further, when a plurality of inspection position information is stored, at least a part of one or more inspection positions included in one inspection position information and one or more inspection positions included in other inspection position information is stored. If they are different, an arbitrary inspection position may be read from the set of inspection positions. Alternatively, when one or more inspection position information is included, and when two or more inspection positions are included, all inspection position information is read, and all inspection positions included in these are displayed. Of these inspection positions, the inspection position selected by the user can be applied in the subsequent processing.

(S22:被検者の顔の立体撮影を行う)
次に、2つの撮影部300を用いた立体撮影を実行される。
(S22: Perform stereoscopic shooting of the face of the subject)
Next, stereoscopic imaging using the two imaging units 300 is executed.

(S23:立体顔画像を生成する)
3次元画像生成部141は、ステップS22において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S23: Generate a 3D face image)
The three-dimensional image generation unit 141 generates a three-dimensional face image of the subject based on the two captured images acquired substantially simultaneously by the two imaging units 300 in step S22.

(S24:対応情報を生成する)
対応情報生成部142は、ステップS23において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S24: Generate correspondence information)
The correspondence information generation unit 142 associates the image coordinate system of the stereoscopic face image with the real space coordinate system of the space where the face of the subject is located based on the stereoscopic face image generated in step S23. Generate information.

(S25:顔における検査対象領域を特定する)
位置情報取得部143は、ステップ21において読み出された検査位置情報と、ステップS25において生成された対応情報とに基づいて、被検者の顔における検査対象領域を特定する。
(S25: Specify the inspection target area in the face)
The position information acquisition unit 143 specifies an inspection target region in the face of the subject based on the inspection position information read in step 21 and the correspondence information generated in step S25.

この処理の具体例を説明する。位置情報取得部143は、検査位置情報が示す座標値(画像座標系における座標値であるとする)に対応する、ステップS23で生成された立体顔画像の画像座標系における座標値を特定する。被検者の顔を実質的に同一の位置に固定した状態で検査を行う構成が適用される場合、検査位置情報が示す座標値をそのまま検査対象領域として適用することができる。   A specific example of this process will be described. The position information acquisition unit 143 identifies the coordinate value in the image coordinate system of the three-dimensional face image generated in step S23 corresponding to the coordinate value indicated by the examination position information (assumed to be the coordinate value in the image coordinate system). When a configuration in which an inspection is performed with the subject's face fixed at substantially the same position is applied, the coordinate value indicated by the inspection position information can be applied as it is as the inspection target region.

一方、検査ごとに被検者の顔の位置が異なることが想定されている場合には、過去の検査で適用された画像座標系(第1の画像座標系)と、今回の検査で適用される画像座標系(第2の画像座標系)との間の対応付けが行われる。この場合における処理は、たとえば次のようにして実行される:ステップS21において、過去の検査で適用された立体顔画像を読み出す;この過去の立体顔画像とステップS23で生成された立体顔画像との位置合わせ(画像マッチング)を実行する;この位置合わせの結果(アフィン変換等の座標変換)を用いて検査位置情報が示す座標値(第1の画像座標系における座標値)を変換することにより、今回の検査で適用される第2の画像座標系における座標値を求める。それにより、検査対象領域が得られる。   On the other hand, when it is assumed that the position of the subject's face is different for each examination, it is applied in the image coordinate system (first image coordinate system) applied in the past examination and the current examination. Is associated with the image coordinate system (second image coordinate system). The processing in this case is executed, for example, as follows: In step S21, the stereoscopic face image applied in the past examination is read; the past stereoscopic face image and the stereoscopic face image generated in step S23 By performing the alignment (image matching) of this position; by converting the coordinate value (coordinate value in the first image coordinate system) indicated by the inspection position information using the result of this alignment (coordinate conversion such as affine transformation) Then, coordinate values in the second image coordinate system applied in the current examination are obtained. Thereby, an inspection object area is obtained.

(S26:プローブを移動する)
移動制御部114は、ステップS25において特定された検査対象領域にプローブを移動させるようにプローブ移動機構310を制御する。
(S26: Move the probe)
The movement control unit 114 controls the probe moving mechanism 310 so as to move the probe to the inspection target area specified in step S25.

(S27:検査を行う)
ステップS26においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S27: Perform inspection)
After the probe is moved in step S26, the main control unit 111 executes an inspection that is a combination of gas blowing and OCT measurement.

(S28:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS27における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。
(S28: Save evaluation information and inspection position information)
The main control unit 111 stores the evaluation information generated by the inspection in step S27 in the storage unit 112 in association with information (inspection position information) indicating the position where the inspection is performed. At this time, arbitrary information such as the examination date and time, the subject identification information, and the three-dimensional face image may be further associated. This is the end of the processing related to this operation example.

この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第1の動作例と同様であってよい。   The output (display, printing, data transmission, etc.) of the evaluation information acquired by this operation example may be the same as that of the first operation example.

なお、この動作例においては、過去の評価情報と最新の評価情報とを比較可能に出力することが可能である。たとえば、これら評価情報を並べて提示するように出力を行うことが可能である。   In this operation example, it is possible to output past evaluation information and latest evaluation information so that they can be compared. For example, it is possible to output so that these pieces of evaluation information are presented side by side.

また、評価情報の時系列変化を表す情報(を表示することができる。具体的には、たとえば、横軸が時間を表し、縦軸が評価値を表す座標系に、過去の1回以上の検査でそれぞれ得られた評価結果と、今回の検査で得られた評価結果とをプロットすることにより、折れ線グラフや棒グラフ等の時系列変化情報を提示するように出力を行うことが可能である。   In addition, information indicating a time-series change of evaluation information can be displayed. Specifically, for example, a coordinate system in which the horizontal axis represents time and the vertical axis represents an evaluation value can be displayed at least once in the past. By plotting the evaluation results obtained in the inspection and the evaluation results obtained in the current inspection, it is possible to perform output so as to present time-series change information such as a line graph or a bar graph.

[変形例]
気体の吹き付けやOCT計測が実際に適用される部位を視覚的に認識可能とするための構成を説明する。
[Modification]
A configuration for visually recognizing a site where gas blowing or OCT measurement is actually applied will be described.

この変形例に係る皮膚性状評価装置の構成の一例を図10に示す。図10に示す構成と、図7に示す構成との相違は、投光部320と、投光制御部115とが設けられている点である。なお、表面観察光学系40は含まれていてもよいし、含まれていなくてもよい。また、プローブ移動機構310および移動制御部114が設けられていない構成や、表示制御部113が設けられていない構成を適用することも可能である。   An example of the configuration of the skin property evaluation apparatus according to this modification is shown in FIG. The difference between the configuration illustrated in FIG. 10 and the configuration illustrated in FIG. 7 is that a light projecting unit 320 and a light projecting control unit 115 are provided. Note that the surface observation optical system 40 may or may not be included. It is also possible to apply a configuration in which the probe moving mechanism 310 and the movement control unit 114 are not provided or a configuration in which the display control unit 113 is not provided.

投光部320は、たとえばLEDやレーザ光源のような光束を出力するデバイスを含み、被検者の皮膚表面にスポット光を投影するために用いられる。投光部320は、被検者の臨む位置に設けられている。投光部320は、光束の出力方向を変更する機能を有する。   The light projecting unit 320 includes a device that outputs a light beam, such as an LED or a laser light source, and is used to project spot light onto the skin surface of the subject. The light projecting unit 320 is provided at a position facing the subject. The light projecting unit 320 has a function of changing the output direction of the light beam.

投光制御部115は、投光部320の制御を行う。この制御には、光束の出力のオン/オフの切り替え、出力方向の変更、出力強度の変更、出力波長(出力色)の変更、光束径(スポット径)の変更等のうちのいずれかが含まれていてよい。   The light projecting control unit 115 controls the light projecting unit 320. This control includes any one of switching on / off of the light beam output, changing the output direction, changing the output intensity, changing the output wavelength (output color), changing the light beam diameter (spot diameter), etc. It may be.

この変形例に係る皮膚性状評価装置の動作について説明する。以下、いくつかの典型的な動作例を説明するが、変形例に係る動作はこれらに限定されるものではない。   The operation of the skin property evaluation apparatus according to this modification will be described. Hereinafter, some typical operation examples will be described, but the operation according to the modification is not limited thereto.

(第1の動作例:図11)
第1の動作例において、皮膚性状評価装置は、立体顔画像に対して手動で指定された検査位置にスポット光を投影し、この投影位置に配置されたプローブを用いて検査を実施するよう構成される。
(First operation example: FIG. 11)
In the first operation example, the skin property evaluation device is configured to project spot light onto an inspection position manually designated for a three-dimensional face image, and to perform an inspection using a probe arranged at the projection position. Is done.

(S41:被検者の顔の立体撮影を行う)
2つの撮影部300を用いて立体撮影が行われる。
(S41: Perform stereoscopic shooting of the face of the subject)
Stereo imaging is performed using the two imaging units 300.

(S42:立体顔画像を生成する)
3次元画像生成部141は、ステップS41において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S42: Generate a 3D face image)
The three-dimensional image generation unit 141 generates a stereoscopic face image of the subject based on the two captured images acquired substantially simultaneously by the two imaging units 300 in step S41.

(S43:対応情報を生成する)
対応情報生成部142は、ステップS42において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S43: Generate correspondence information)
The correspondence information generation unit 142 associates the image coordinate system of the three-dimensional face image with the real space coordinate system of the space where the subject's face is located based on the three-dimensional face image generated in step S42. Generate information.

(S44:立体顔画像を表示する)
表示制御部113は、ステップS42において生成された立体顔画像を表示デバイス210に表示させる。
(S44: Display a 3D face image)
The display control unit 113 causes the display device 210 to display the stereoscopic face image generated in step S42.

(S45:立体顔画像に対して検査位置を指定する)
ユーザは、操作デバイス220を用いることにより、ステップS44において表示された立体顔画像に対して検査位置を指定する。
(S45: Specify the inspection position for the 3D face image)
The user uses the operation device 220 to specify the inspection position for the stereoscopic face image displayed in step S44.

(S46:顔における検査対象領域を特定する)
位置情報取得部143は、ステップS43において生成された対応情報と、ステップS45において指定された検査位置とに基づいて、被検者の顔における検査対象領域(実空間座標系における座標値)を特定する。
(S46: Specify the inspection target area in the face)
The position information acquisition unit 143 specifies the inspection target region (the coordinate value in the real space coordinate system) on the face of the subject based on the correspondence information generated in step S43 and the inspection position specified in step S45. To do.

(S47:検査対象領域にスポット光を投影する)
投光制御部115は、ステップS46において特定された座標値にスポット光が投影されるように投光部320を制御する。この処理において、投光制御部115は、たとえば、実空間座標系における検査対象領域の座標値および投光部320の設置位置の座標値に基づいて、光束の出力方向を決定する。また、検査対象領域における肌の色に応じて出力波長を決定するようにしてもよい。たとえば、皮膚性状評価装置は、ステップS41においてカラー撮影画像を取得し、このカラー撮影画像から肌の色を判定し、この肌の色と異なる色の光束を出力するように動作する。
(S47: Spot light is projected onto the inspection target area)
The light projection control unit 115 controls the light projection unit 320 so that the spot light is projected onto the coordinate value specified in step S46. In this process, the light projection control unit 115 determines the output direction of the light flux based on, for example, the coordinate value of the inspection target area in the real space coordinate system and the coordinate value of the installation position of the light projection unit 320. Further, the output wavelength may be determined according to the skin color in the inspection target region. For example, the skin property evaluation apparatus operates to acquire a color photographed image in step S41, determine a skin color from the color photographed image, and output a light flux having a color different from the skin color.

(S48:プローブを移動する)
ユーザまたは皮膚性状評価装置は、ステップS46において特定された検査対象領域に基づいてプローブを移動させる。
(S48: Move the probe)
The user or the skin property evaluation apparatus moves the probe based on the examination target area specified in step S46.

ユーザが移動操作を行う場合、ユーザは、ステップS47においてスポット光が投影された皮膚表面の領域に気体や測定光が適用されるようにプローブを配置させる。このとき、プローブから照準光を出力するように構成してよい。この照準光は、たとえば図示しない可視光源から出力される可視光である。ユーザは、照準光の投影位置がスポット光の投影位置に重なるようにプローブの位置を調整することができる。なお、専らユーザが移動操作を行う場合、プローブ移動機構310および移動制御部114が設けられている必要はない。ただし、操作デバイス220等を用いてプローブ移動機構310を電動制御することによりプローブを移動させる構成などが適用される場合には、専らユーザによる移動操作を想定する場合であっても、プローブ移動機構310および移動制御部114が設けられる。   When the user performs a moving operation, the user arranges the probe so that gas or measurement light is applied to the area of the skin surface onto which the spot light is projected in step S47. At this time, you may comprise so that aiming light may be output from a probe. This aiming light is, for example, visible light output from a visible light source (not shown). The user can adjust the position of the probe so that the projection position of the aiming light overlaps the projection position of the spot light. Note that when the user performs a moving operation exclusively, the probe moving mechanism 310 and the movement control unit 114 do not need to be provided. However, in the case where a configuration in which the probe is moved by electrically controlling the probe moving mechanism 310 using the operation device 220 or the like is applied, even if a moving operation by the user is exclusively assumed, the probe moving mechanism 310 and a movement control unit 114 are provided.

皮膚性状評価装置が移動操作を行う場合、移動制御部114は、ステップS46において特定された検査対象領域にプローブを移動させるようにプローブ移動機構310を制御する。   When the skin property evaluation apparatus performs a moving operation, the movement control unit 114 controls the probe moving mechanism 310 so as to move the probe to the examination target area specified in step S46.

(S49:検査を行う)
ステップS48においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S49: Perform inspection)
After the probe is moved in step S48, the main control unit 111 executes an inspection that is a combination of gas blowing and OCT measurement.

(S50:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS8における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報(ID、氏名等)や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第2の実施形態における第1の動作例と同様であってよい。
(S50: Save evaluation information and inspection position information)
The main control unit 111 stores the evaluation information generated by the inspection in step S8 in the storage unit 112 in association with information (inspection position information) indicating the position where the inspection is performed. At this time, arbitrary information such as examination date / time, subject identification information (ID, name, etc.), stereoscopic face image, and the like may be further associated. This is the end of the processing related to this operation example. The output (display, printing, data transmission, etc.) of the evaluation information acquired by this operation example may be the same as that of the first operation example in the second embodiment.

(第2の動作例:図12)
第2の動作例において、皮膚性状評価装置は、あらかじめ記憶された検査位置にスポット光を投影し、この投影位置に配置されたプローブを用いて検査を実施するよう構成される。
(Second operation example: FIG. 12)
In the second operation example, the skin property evaluation apparatus is configured to project spot light onto a pre-stored inspection position, and to perform inspection using a probe arranged at the projection position.

(S61:検査位置情報を読み出す)
主制御部111は、記憶部112(または、通信回線上の記憶装置や可搬記録媒体等)に記憶されている検査位置情報を読み出す。
(S61: Read inspection position information)
The main control unit 111 reads the inspection position information stored in the storage unit 112 (or a storage device or a portable recording medium on a communication line).

(S62:被検者の顔の立体撮影を行う)
次に、2つの撮影部300を用いた立体撮影を実行される。
(S62: Perform stereoscopic imaging of the subject's face)
Next, stereoscopic imaging using the two imaging units 300 is executed.

(S63:立体顔画像を生成する)
3次元画像生成部141は、ステップS62において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S63: Generate a 3D face image)
The three-dimensional image generation unit 141 generates a stereoscopic face image of the subject based on the two captured images acquired substantially simultaneously by the two imaging units 300 in step S62.

(S64:対応情報を生成する)
対応情報生成部142は、ステップS63において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S64: Generate correspondence information)
The correspondence information generation unit 142 associates the image coordinate system of the three-dimensional face image with the real space coordinate system of the space where the subject's face is located based on the three-dimensional face image generated in step S63. Generate information.

(S65:顔における検査対象領域を特定する)
位置情報取得部143は、ステップ61において読み出された検査位置情報と、ステップS65において生成された対応情報とに基づいて、被検者の顔における検査対象領域(実空間座標系における座標値)を特定する。
(S65: Specify the inspection target area in the face)
The position information acquisition unit 143, based on the inspection position information read out in step 61 and the correspondence information generated in step S65, the inspection target area (coordinate value in the real space coordinate system) in the subject's face. Is identified.

(S66:検査対象領域にスポット光を投影する)
投光制御部115は、ステップS65において特定された座標値にスポット光が投影されるように投光部320を制御する。
(S66: Spot light is projected onto the inspection target area)
The light projecting control unit 115 controls the light projecting unit 320 so that the spot light is projected on the coordinate value specified in step S65.

(S67:プローブを移動する)
ユーザまたは皮膚性状評価装置は、ステップS65において特定された検査対象領域に基づいて(またはステップS66においてスポット光が投影された位置を参照して)、プローブを移動させる。
(S67: Move the probe)
The user or the skin property evaluation apparatus moves the probe based on the examination target area specified in step S65 (or referring to the position where the spot light is projected in step S66).

(S68:検査を行う)
ステップS67においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S68: Perform inspection)
After the probe is moved in step S67, the main control unit 111 executes an inspection that is a combination of gas blowing and OCT measurement.

(S69:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS68における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第2の実施形態における第2の動作例と同様であってよい。
(S69: Save evaluation information and inspection position information)
The main control unit 111 stores the evaluation information generated by the inspection in step S68 in the storage unit 112 in association with information indicating the position where the inspection is performed (inspection position information). At this time, arbitrary information such as the examination date and time, the subject identification information, and the three-dimensional face image may be further associated. This is the end of the processing related to this operation example. The output (display, printing, data transmission, etc.) of the evaluation information acquired by this operation example may be the same as that of the second operation example in the second embodiment.

[作用および効果]
この実施形態に係る皮膚性状評価装置は、第1の実施形態におけるいずれかの構成に加え、2以上の撮影部と、解析部と、位置情報取得部とを有する。2以上の撮影部は、被検者を異なる方向から実質的に同時に撮影するよう構成される。実施形態において、2以上の撮影部は、2以上の撮影部300を含んで構成される。なお、2以上の撮影部のいずれかは表面観察光学系40であってよい。解析部は、2以上の撮影部により取得された2以上の撮影画像を解析することにより、被検者に関する3次元位置情報を取得する。実施形態において、解析部は、解析部140を含んで構成される。位置情報取得部は、解析部により取得された3次元位置情報に基づいて、吹付部による気体の吹き付け領域の位置情報、および/または断層データ取得部による光コヒーレンストモグラフィの実行領域の位置情報を取得する。実施形態において、位置情報取得部は、位置情報取得部143を含んで構成される。
[Action and effect]
The skin property evaluation apparatus according to this embodiment includes two or more imaging units, an analysis unit, and a position information acquisition unit in addition to any of the configurations in the first embodiment. The two or more imaging units are configured to image the subject substantially simultaneously from different directions. In the embodiment, two or more imaging units are configured to include two or more imaging units 300. Any of the two or more photographing units may be the surface observation optical system 40. The analysis unit acquires three-dimensional position information related to the subject by analyzing two or more captured images acquired by the two or more imaging units. In the embodiment, the analysis unit includes the analysis unit 140. The position information acquisition unit obtains the position information of the gas blowing region by the spraying unit and / or the position information of the optical coherence tomography execution region by the tomographic data acquisition unit based on the three-dimensional position information acquired by the analysis unit. get. In the embodiment, the position information acquisition unit includes a position information acquisition unit 143.

このような実施形態によれば、第1の実施形態と同様に、高確度な皮膚の性状評価を非接触で行うことができる。さらに、被検者を異なる方向から撮影することにより被検者の現在位置を検出し、この現在位置に基づいて検査位置(評価対象である位置)を特定することが可能である。   According to such an embodiment, as in the first embodiment, highly accurate skin property evaluation can be performed in a non-contact manner. Furthermore, it is possible to detect the current position of the subject by photographing the subject from different directions, and specify the examination position (position to be evaluated) based on the current position.

実施形態において、2以上の撮影部による撮影野は、被検者の顔の少なくとも一部を含んでいてよい。この場合、皮膚性状評価装置は、被検者の顔の皮膚の性状を評価することが可能である。なお、被検者の顔が撮影野に含まれるように撮影野探索処理を実行するように構成することが可能である。この処理は、たとえば、撮影部による動画撮影と、この動画撮影により取得されたフレームに対する公知の画像処理(パターンマッチングや顔検出処理や顔認証処理等)とを含む。   In the embodiment, the imaging field by the two or more imaging units may include at least a part of the face of the subject. In this case, the skin property evaluation apparatus can evaluate the skin property of the face of the subject. Note that it is possible to perform the imaging field search process so that the face of the subject is included in the imaging field. This processing includes, for example, moving image shooting by the shooting unit and known image processing (pattern matching, face detection processing, face authentication processing, etc.) for the frame acquired by the moving image shooting.

実施形態において、解析部は、3次元画像生成部と、対応情報生成部とを含んでいてよい。3次元画像生成部は、2以上の撮影部による取得された2以上の撮影画像に基づいて、被検者の顔の3次元画像を生成する。実施形態において、3次元画像生成部は、3次元画像生成部141を含んで構成される。対応情報生成部は、3次元画像生成部により生成された3次元画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた対応情報を生成する。生成された対応情報は、被検者に関する上記3次元位置情報として用いられる。この構成によれば、被検者の立体顔画像に設定された3次元座標系(画像座標系)と、実空間に設定された3次元座標系(実空間座標系)との間の対応関係(座標変換等)を取得することが可能である。それにより、立体顔画像中の任意の位置(座標値)に対応する実空間中の位置(座標値)を特定することができる。逆に、実空間中の任意の位置(座標値)に対応する立体顔画像中の位置(座標値)を特定することもできる。   In the embodiment, the analysis unit may include a three-dimensional image generation unit and a correspondence information generation unit. The three-dimensional image generation unit generates a three-dimensional image of the subject's face based on the two or more captured images acquired by the two or more imaging units. In the embodiment, the three-dimensional image generation unit includes a three-dimensional image generation unit 141. The correspondence information generation unit generates correspondence information in which the first coordinate system set in the three-dimensional image generated by the three-dimensional image generation unit is associated with the second coordinate system set in the real space. To do. The generated correspondence information is used as the three-dimensional position information related to the subject. According to this configuration, the correspondence between the three-dimensional coordinate system (image coordinate system) set for the three-dimensional face image of the subject and the three-dimensional coordinate system (real space coordinate system) set for the real space. (Coordinate transformation etc.) can be acquired. Thereby, a position (coordinate value) in the real space corresponding to an arbitrary position (coordinate value) in the stereoscopic face image can be specified. Conversely, a position (coordinate value) in the stereoscopic face image corresponding to an arbitrary position (coordinate value) in the real space can also be specified.

実施形態において、3次元画像を表示手段に表示させる表示制御部(表示制御部113)を設けることが可能である。なお、表示手段は、皮膚性状評価装置の一部として設けられた表示デバイス、または皮膚性状評価装置に接続された表示デバイスを含んで構成される。表示手段に表示された3次元画像中の位置が指定されると、位置情報取得部は、被検者の3次元画像(立体顔画像)中の位置と実空間中の位置とが対応付けられた対応情報に基づいて、3次元画像の座標系における当該指定位置の座標値に対応する実空間の座標系における座標値を取得する。この構成によれば、立体顔画像中にユーザが指定した位置に対応する実空間中の位置を特定することが可能である。   In the embodiment, it is possible to provide a display control unit (display control unit 113) that displays a three-dimensional image on a display unit. The display means includes a display device provided as a part of the skin property evaluation apparatus or a display device connected to the skin property evaluation apparatus. When the position in the three-dimensional image displayed on the display unit is designated, the position information acquisition unit associates the position in the three-dimensional image (three-dimensional face image) of the subject with the position in the real space. Based on the correspondence information, the coordinate value in the coordinate system of the real space corresponding to the coordinate value of the designated position in the coordinate system of the three-dimensional image is acquired. According to this configuration, it is possible to specify the position in the real space corresponding to the position designated by the user in the stereoscopic face image.

実施形態において、吹付部は、気体の噴出口が先端に形成されたノズルを備えていてよい。さらに、断層データ取得部は、光源(光源ユニット21)からの光を測定光と参照光とに分割し、測定アームを介して測定光を皮膚に照射し、測定アームを通過した測定光の戻り光と参照アームを通過した参照光との干渉光を検出する光学系(OCTユニット20)を備えていてよい。なお、光源は皮膚性状評価装置の構成要素である必要はなく、たとえば外部の光源装置からの光を光ファイバで皮膚性状評価装置に導くように構成することが可能である。加えて、皮膚性状評価装置は、プローブと、移動機構と、移動制御部とを含んでいてよい。プローブには、吹付部のうちの少なくともノズルと、測定アームの少なくとも先端部とが設けられている。移動機構(プローブ移動機構310)は、プローブを移動させるよう構成されている。移動制御部(移動制御部114)は、位置情報取得部により取得された実空間中の座標値に基づいて移動機構を制御する。この制御は、たとえば、位置情報取得部により取得された実空間中の位置にプローブを配置させるための制御、または、位置情報取得部により取得された実空間中の位置の近傍位置にプローブを配置させるための制御を含む。後者の例として、位置情報取得部により取得された実空間中の位置が皮膚表面の位置を示す場合、上記近傍位置は、この皮膚表面の位置から、皮膚表面に対して垂直な方向に所定距離だけ離れた位置である。この所定距離は、気体の吹き付け状態や、OCTにおける干渉状態(たとえば、測定アームと参照アームとの光路長の差)などに応じて事前にまたはリアルタイムで設定される。このような構成によれば、立体顔画像中にユーザが指定した位置に対応する実空間中の位置にプローブを自動で配置することができる。   In the embodiment, the spray unit may include a nozzle having a gas outlet formed at the tip. Furthermore, the tomographic data acquisition unit divides the light from the light source (light source unit 21) into measurement light and reference light, irradiates the measurement light on the skin via the measurement arm, and returns the measurement light that has passed through the measurement arm. An optical system (OCT unit 20) that detects interference light between the light and the reference light that has passed through the reference arm may be provided. The light source does not need to be a component of the skin property evaluation apparatus, and can be configured to guide light from an external light source device to the skin property evaluation apparatus through an optical fiber, for example. In addition, the skin property evaluation apparatus may include a probe, a movement mechanism, and a movement control unit. The probe is provided with at least a nozzle of the spraying portion and at least a tip portion of the measurement arm. The moving mechanism (probe moving mechanism 310) is configured to move the probe. The movement control unit (movement control unit 114) controls the movement mechanism based on the coordinate value in the real space acquired by the position information acquisition unit. This control is performed, for example, by controlling the probe to be arranged at a position in the real space acquired by the position information acquisition unit, or by arranging the probe at a position near the position in the real space acquired by the position information acquisition unit. Including control to As an example of the latter, when the position in the real space acquired by the position information acquisition unit indicates the position of the skin surface, the vicinity position is a predetermined distance from the position of the skin surface in a direction perpendicular to the skin surface. It is only a position away. This predetermined distance is set in advance or in real time in accordance with a gas blowing state, an interference state in OCT (for example, a difference in optical path length between the measurement arm and the reference arm), or the like. According to such a configuration, the probe can be automatically arranged at a position in the real space corresponding to the position designated by the user in the stereoscopic face image.

実施形態において、光束を出力する投光部(投光部320)と、この投光部を制御する投光制御部(投光制御部115)とを含んでいてよい。投光制御部は、位置情報取得部により取得された実空間中の座標値が示す位置に光束が投影されるように投光部の制御を行う。この構成によれば、ユーザが指定した位置に対応する実空間中の位置を視覚的に提示することが可能である。それにより、たとえば、ユーザは、光束が投影されている位置を目標としてプローブの位置決めを行うことが可能である。すなわち、プローブの位置決めを容易に行うことができる。   In the embodiment, a light projecting unit (light projecting unit 320) that outputs a light beam and a light projecting control unit (light projecting control unit 115) that controls the light projecting unit may be included. The light projection control unit controls the light projection unit so that the light beam is projected at the position indicated by the coordinate value in the real space acquired by the position information acquisition unit. According to this configuration, it is possible to visually present a position in the real space corresponding to the position designated by the user. Thereby, for example, the user can position the probe with the position where the light beam is projected as a target. That is, the probe can be easily positioned.

実施形態において、吹付部がノズルを備え、断層データ取得部が上記光学系を備え、さらに、皮膚性状評価装置が、プローブと、移動機構と、移動制御部とを含む場合、皮膚性状評価装置は、さらに記憶部(記憶部112)を備えていてよい。記憶部には、吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶される。この場合、位置情報取得部は、被検者の3次元画像(立体顔画像)中の位置と実空間中の位置とが対応付けられた対応情報に基づいて、対象位置情報に表された位置に対応する実空間座標系における座標値を取得する。さらに、移動制御部は、位置情報取得部により取得された座標値に基づいて移動機構を制御する。この制御は、たとえば、位置情報取得部により取得された実空間中の位置にプローブを配置させるための制御、または、位置情報取得部により取得された実空間中の位置の近傍位置にプローブを配置させるための制御を含む。このような構成によれば、あらかじめ決められた位置にプローブを自動で配置させることが可能である。   In the embodiment, when the spray unit includes a nozzle, the tomographic data acquisition unit includes the optical system, and the skin property evaluation device includes a probe, a movement mechanism, and a movement control unit, the skin property evaluation device is Further, a storage unit (storage unit 112) may be provided. The storage unit stores in advance target position information that represents the position of the target area of the gas sprayed by the spraying unit. In this case, the position information acquisition unit is configured to display the position represented in the target position information based on correspondence information in which a position in the subject's three-dimensional image (three-dimensional face image) is associated with a position in the real space. The coordinate value in the real space coordinate system corresponding to is obtained. Further, the movement control unit controls the movement mechanism based on the coordinate value acquired by the position information acquisition unit. This control is performed, for example, by controlling the probe to be arranged at a position in the real space acquired by the position information acquisition unit, or by arranging the probe at a position near the position in the real space acquired by the position information acquisition unit. Including control to According to such a configuration, it is possible to automatically arrange the probe at a predetermined position.

実施形態において、皮膚性状評価装置は、記憶部(記憶部112)と、投光部(投光部320)と、これを制御する投光制御部(投光制御部115)とを含んでいてよい。記憶部には、吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶される。さらに、位置情報取得部は、被検者の3次元画像(立体顔画像)中の位置と実空間中の位置とが対応付けられた対応情報に基づいて、対象位置情報に表された位置に対応する実空間座標系における座標値を取得する。投光制御部は、位置情報取得部により取得された座標値が示す位置に光束が投影されるように投光部を制御する。このような構成によれば、あらかじめ決められた位置に対応する実空間中の位置を視覚的に提示することが可能である。それにより、プローブの位置決めの容易化を図ることができる。   In the embodiment, the skin property evaluation apparatus includes a storage unit (storage unit 112), a light projecting unit (light projecting unit 320), and a light projecting control unit (light projecting control unit 115) that controls the memory unit. Good. The storage unit stores in advance target position information that represents the position of the target area of the gas sprayed by the spraying unit. Further, the position information acquisition unit obtains the position indicated in the target position information based on the correspondence information in which the position in the three-dimensional image (three-dimensional face image) of the subject is associated with the position in the real space. Get the coordinate value in the corresponding real space coordinate system. The light projection control unit controls the light projection unit so that the light beam is projected at the position indicated by the coordinate value acquired by the position information acquisition unit. According to such a configuration, it is possible to visually present a position in the real space corresponding to a predetermined position. Thereby, the positioning of the probe can be facilitated.

上記の対象位置情報は、当該被検者に対する過去の評価(過去の検査)における吹き付け対象領域の位置であってよい。この場合、皮膚の性状評価が過去に実施された位置の再度の評価を容易に行うことができる。それにより、たとえば、皮膚の同一部位の性状の時系列変化を把握することが可能となる。   The target position information may be the position of the spray target area in the past evaluation (past inspection) for the subject. In this case, the re-evaluation of the position where the skin property evaluation has been performed in the past can be easily performed. Thereby, for example, it becomes possible to grasp a time-series change in properties of the same part of the skin.

或いは、上記の対象位置情報は、気体の吹き付け対象領域のデフォルト位置であってよい。このデフォルト位置は、たとえば、他の被検者との比較や、標準値や基準値との比較などを行うために事前に設定される皮膚の部位であって、頬の中心位置などが適用される。   Alternatively, the target position information may be a default position of a gas spray target area. This default position is a part of the skin that is set in advance for comparison with other subjects, comparison with standard values or reference values, and the center position of the cheek is applied. The

〈第3の実施形態〉
ステレオ撮影の利用に関するいくつかの実施形態を説明する。特に、動画撮影が可能な2以上の撮影部を用いたステレオ動画撮影により取得されたステレオ動画像(立体動画像)の利用に関する実施形態を説明する。
<Third Embodiment>
Several embodiments relating to the use of stereo shooting are described. In particular, an embodiment relating to the use of a stereo moving image (stereoscopic moving image) acquired by stereo moving image shooting using two or more shooting units capable of moving image shooting will be described.

[構成]
この実施形態に係る皮膚性状評価装置の構成の一例を図13に示す。図13に示す構成は、図7に示す構成と類似している。しかし、この実施形態に係る構成においては、表示制御部113が設けられていなくてよく、また、データ処理部130の構成が図7に示す構成と異なる。また、図13に示す構成から表面観察光学系40を削除することができる。
[Constitution]
An example of the configuration of the skin property evaluation apparatus according to this embodiment is shown in FIG. The configuration shown in FIG. 13 is similar to the configuration shown in FIG. However, in the configuration according to this embodiment, the display control unit 113 may not be provided, and the configuration of the data processing unit 130 is different from the configuration illustrated in FIG. Further, the surface observation optical system 40 can be deleted from the configuration shown in FIG.

図13に示す2以上の撮影部300は動画撮影が可能である。各撮影部300は、たとえばビデオカメラを含んで構成される。各撮影部300により順次に取得される撮影画像(フレーム)は、制御部110を介してデータ処理部130に順次に送られる。この転送処理は、リアルタイムで実行される。また、この転送処理において、主制御部111は、2以上の撮影部300により実質的に同時に取得された2以上のフレームを関連付けてデータ処理部130に送る。   Two or more photographing units 300 shown in FIG. 13 can shoot moving images. Each photographing unit 300 includes a video camera, for example. The captured images (frames) acquired sequentially by the respective imaging units 300 are sequentially sent to the data processing unit 130 via the control unit 110. This transfer process is executed in real time. In this transfer process, the main control unit 111 associates two or more frames acquired by the two or more imaging units 300 substantially simultaneously and sends them to the data processing unit 130.

データ処理部130は、解析部140と、位置情報取得部143と、位置関係判定部150とを含む。   The data processing unit 130 includes an analysis unit 140, a position information acquisition unit 143, and a positional relationship determination unit 150.

解析部140は、2以上の撮影部300により実質的に同時に取得された2以上のフレームを順次に解析することにより、時系列に沿った複数の3次元位置情報を取得する。この処理は、たとえば第2の実施形態と同様の処理を、主制御部111から逐次に入力される2以上のフレーム(これらは互いに関連付けられている)に対して順々に施すことにより実行される。なお、3次元位置情報は、たとえば、被検者の顔の部分(頬など)の3次元位置を含む。解析部140は、第2の実施形態と同様に、3次元画像生成部(141)および対応情報生成部(142)を含んでいてよい。この場合、解析部140は、2以上のフレームから3次元画像を生成する処理と、この3次元画像の座標系と実空間の座標系とが対応付けられた対応情報を3次元位置情報として生成する処理とを含む。   The analysis unit 140 acquires a plurality of pieces of three-dimensional position information along a time series by sequentially analyzing two or more frames acquired substantially simultaneously by two or more imaging units 300. This process is executed, for example, by sequentially performing the same process as in the second embodiment on two or more frames (they are associated with each other) sequentially input from the main control unit 111. The Note that the three-dimensional position information includes, for example, the three-dimensional position of the face portion (cheek etc.) of the subject. Similarly to the second embodiment, the analysis unit 140 may include a three-dimensional image generation unit (141) and a correspondence information generation unit (142). In this case, the analysis unit 140 generates processing information for generating a three-dimensional image from two or more frames and correspondence information in which the coordinate system of the three-dimensional image is associated with the coordinate system of the real space as three-dimensional position information. Processing.

このような処理により、解析部140は、時系列に沿った複数の3次元位置情報、すなわち、取得時間(取得タイミング)が異なる複数の3次元位置情報を取得する。これら3次元位置情報に時間情報が付与されていてもよい。時間情報は、これら3次元位置情報が取得された時間的な順序を示す情報であり、たとえば、これら3次元位置情報の取得タイミングを表す時間軸の座標値である。なお、これら3次元位置情報に基づく後段の処理において時系列に沿った複数の情報が生成されるので、生成された情報に対して時間情報を割り当てるように構成してもよい。   By such processing, the analysis unit 140 acquires a plurality of pieces of three-dimensional position information along time series, that is, a plurality of pieces of three-dimensional position information having different acquisition times (acquisition timings). Time information may be given to these three-dimensional position information. The time information is information indicating a temporal order in which the three-dimensional position information is acquired, and is, for example, a coordinate value on the time axis representing the acquisition timing of the three-dimensional position information. Since a plurality of pieces of information are generated in time series in the subsequent processing based on these three-dimensional position information, time information may be assigned to the generated information.

位置情報取得部143は、解析部140により取得された複数の3次元位置情報に基づいて、時系列に沿った複数の位置情報を取得する。位置情報取得部143は、たとえば第2の実施形態と同様の処理を各3次元位置情報に施すことにより、時系列に沿った複数の位置情報を取得する。なお、位置情報は、第2の実施形態と同様に、気体の吹き付け領域およびOCTの実行領域のうちの一方または双方の位置を表す。時系列に沿った複数の位置情報には、前述したような時間情報が付与されている。   The position information acquisition unit 143 acquires a plurality of position information along a time series based on the plurality of three-dimensional position information acquired by the analysis unit 140. The position information acquisition unit 143 acquires a plurality of pieces of position information along a time series by performing, for example, the same processing as in the second embodiment on each three-dimensional position information. The position information represents the position of one or both of the gas blowing area and the OCT execution area, as in the second embodiment. The time information as described above is given to the plurality of position information along the time series.

位置関係判定部150は、トラッキングが実行される場合に動作する。ここでトラッキングについて説明する。トラッキングは、被検者(気体の吹き付け領域やOCTの実行領域)の動きに追従するようにプローブをリアルタイムで移動させる動作である。以下、トラッキングに関する処理の具体例を説明する。   The positional relationship determination unit 150 operates when tracking is executed. Here, the tracking will be described. The tracking is an operation of moving the probe in real time so as to follow the movement of the subject (gas blowing region or OCT execution region). Hereinafter, a specific example of processing related to tracking will be described.

位置情報取得部143は、上記のように、気体の吹き付け領域やOCTの実行領域の現在位置を示す位置情報をリアルタイムで反復的に取得する。つまり、位置情報取得部143は、被検者の現在位置をリアルタイムで反復的に取得する。   As described above, the position information acquisition unit 143 repeatedly acquires, in real time, position information indicating the current position of the gas blowing region or the OCT execution region. That is, the position information acquisition unit 143 repeatedly acquires the current position of the subject in real time.

また、主制御部111は、プローブの現在位置を認識する。プローブの現在位置は、たとえば、主制御部111によるプローブ移動機構310の制御内容(たとえば現時点までの制御の履歴)から取得される。或いは、プローブの位置を検出する位置センサ(図示省略)からの出力に基づいてプローブの現在位置を認識するよう構成してもよい。他の例として、2以上の撮影部300による2以上の撮影画像(フレーム)またはそれらに基づく立体画像を解析してプローブに相当する画像領域を特定し、特定された画像領域の座標値(画像座標系における座標値)を求めるように構成してもよい。   The main controller 111 recognizes the current position of the probe. The current position of the probe is acquired from, for example, the control contents of the probe moving mechanism 310 by the main control unit 111 (for example, control history up to the present time). Or you may comprise so that the present position of a probe may be recognized based on the output from the position sensor (illustration omitted) which detects the position of a probe. As another example, two or more captured images (frames) by two or more imaging units 300 or a stereoscopic image based on them are analyzed to identify an image area corresponding to the probe, and the coordinate values (images) of the identified image area The coordinate value in the coordinate system may be obtained.

主制御部111は、位置情報が示す被検者の現在位置と、認識されたプローブの現在位置との差分を求める。この差分は、たとえば、画像座標系または実空間座標系における座標値の差(位置ベクトルの差)として算出される。なお、前述の対応情報が生成された場合、画像座標系と実空間座標系との対応関係(座標変換)は既知であり、画像座標系における座標値と実空間座標における座標値とを同一視できる。すなわち、被検者の現在位置を表す座標系とプローブの現在位置を表す座標系とが異なる場合であっても、対応情報を用いることにより被検者の現在位置とプローブの現在位置とを比較することができる。   The main control unit 111 obtains a difference between the current position of the subject indicated by the position information and the current position of the recognized probe. This difference is calculated, for example, as a difference in coordinate values (position vector difference) in the image coordinate system or the real space coordinate system. When the above correspondence information is generated, the correspondence (coordinate transformation) between the image coordinate system and the real space coordinate system is known, and the coordinate value in the image coordinate system and the coordinate value in the real space coordinate are regarded as the same. it can. That is, even if the coordinate system representing the current position of the subject is different from the coordinate system representing the current position of the probe, the current position of the subject is compared with the current position of the probe by using correspondence information. can do.

主制御部111は、算出された差分(すなわち、現時点における被検者とプローブとの間の変位)がキャンセルされるようにプローブ移動機構310の制御を行う。そのための例として、主制御部111は、算出された差分が所定の許容範囲に含まれるようにプローブ移動機構310の制御を行う。この許容範囲は、たとえば、気体の吹き付け領域やOCTの実行領域の位置(つまり被検者の位置)に対するプローブの変位の許容範囲として設定される。この許容範囲の向きやサイズは、たとえば、気体の吹き付け条件や、OCTにおける干渉条件(たとえば、測定アームと参照アームとの光路長の差)などに応じて事前に設定される。   The main control unit 111 controls the probe moving mechanism 310 so that the calculated difference (that is, the displacement between the subject and the probe at the current time) is cancelled. For example, the main control unit 111 controls the probe moving mechanism 310 so that the calculated difference is included in a predetermined allowable range. This permissible range is set, for example, as a permissible range of displacement of the probe with respect to the position of the gas blowing region or the OCT execution region (ie, the position of the subject). The direction and size of the permissible range are set in advance according to, for example, gas blowing conditions, interference conditions in OCT (for example, a difference in optical path length between the measurement arm and the reference arm), and the like.

このような処理によれば、被検者の現在位置とプローブの現在位置との差分(Δx、Δy、Δz)が得られた場合に、プローブを(−Δx、−Δy、−Δz)だけ移動させるようにプローブ移動機構310の制御が行われる。そして、このような処理を繰り返し実行することで、被検者の動きを追従するようにプローブの位置が制御される。   According to such processing, when a difference (Δx, Δy, Δz) between the current position of the subject and the current position of the probe is obtained, the probe is moved by (−Δx, −Δy, −Δz). The probe moving mechanism 310 is controlled so that Then, by repeatedly executing such processing, the position of the probe is controlled so as to follow the movement of the subject.

位置関係判定部150は、トラッキングが実行されているときに、被検者とプローブとの位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する。換言すると、位置関係判定部150は、被検者とプローブとが所定の位置関係になったことを検出する機能を有する。   The positional relationship determination unit 150 repeatedly determines in real time whether the positional relationship between the subject and the probe is a predetermined positional relationship when tracking is being performed. In other words, the positional relationship determination unit 150 has a function of detecting that the subject and the probe are in a predetermined positional relationship.

前述したように、トラッキングにおいては、被検者の現在位置とプローブの現在位置とが取得され、さらに、それらの差分(変位)が求められる。位置関係判定部150は、この差分に基づいて、被検者とプローブとの間の位置関係が所定の位置関係であるか否かを判定する。この判定処理は、たとえば、逐次に算出される差分ごとに実行される。それにより、撮影部300による動画フレームの取得間隔(フレームレート)と実質的に同一の反復レートで判定処理が繰り返される。   As described above, in tracking, the current position of the subject and the current position of the probe are acquired, and the difference (displacement) between them is obtained. Based on this difference, the positional relationship determination unit 150 determines whether or not the positional relationship between the subject and the probe is a predetermined positional relationship. This determination process is executed for each difference calculated sequentially, for example. Accordingly, the determination process is repeated at a repetition rate substantially the same as the moving image frame acquisition interval (frame rate) by the imaging unit 300.

「所定の位置関係」について説明する。位置情報取得部143により取得される位置情報は、気体の吹き付け領域やOCTの実行領域に相当する実空間中の位置を示す。位置情報が皮膚表面の位置を示す場合、「所定の位置関係」は、たとえば、この皮膚表面の位置(つまり被検者の位置)とプローブの位置とが、皮膚表面に対して垂直な方向に所定距離だけ離れていることを示す。この所定距離は、たとえば、トラッキングにおける「許容範囲」と等しいか或いはそれより小さく設定される。この所定距離は、たとえば、気体の吹き付け状態や、OCTにおける干渉状態(たとえば、測定アームと参照アームとの光路長の差)などに応じて事前に設定される。すなわち、「所定の位置関係」は、評価対象となる皮膚表面の領域とプローブとの最適な位置関係として設定される。   The “predetermined positional relationship” will be described. The position information acquired by the position information acquisition unit 143 indicates a position in the real space corresponding to a gas blowing area or an OCT execution area. When the position information indicates the position of the skin surface, the “predetermined positional relationship” means, for example, that the position of the skin surface (that is, the position of the subject) and the position of the probe are perpendicular to the skin surface. Indicates that the distance is a predetermined distance. This predetermined distance is set to be equal to or smaller than the “allowable range” in tracking, for example. This predetermined distance is set in advance according to, for example, a gas blowing state, an interference state in OCT (for example, a difference in optical path length between the measurement arm and the reference arm), or the like. That is, the “predetermined positional relationship” is set as an optimal positional relationship between the skin surface region to be evaluated and the probe.

なお、「所定の位置関係」は、1次元的、2次元的または3次元的な広がりを有していてもよい。この範囲についても、たとえば、トラッキングにおける「許容範囲」と等しいか或いはそれより小さく設定される。   The “predetermined positional relationship” may have a one-dimensional, two-dimensional, or three-dimensional spread. This range is also set to be equal to or smaller than the “allowable range” in tracking, for example.

[動作]
実施形態の皮膚性状評価装置の動作について説明する。以下、図14に示す典型的な動作例を説明するが、実施形態に係る動作はこれらに限定されるものではない。
[Operation]
The operation of the skin property evaluation apparatus according to the embodiment will be described. Hereinafter, a typical operation example illustrated in FIG. 14 will be described, but the operation according to the embodiment is not limited thereto.

(S81:被検者の立体動画撮影を開始する)
2つの撮影部300が、主制御部111による制御を受けて、立体動画撮影を開始する。
(S81: Start the subject's stereoscopic video shooting)
Under the control of the main control unit 111, the two shooting units 300 start stereoscopic video shooting.

(S82:トラッキングを開始する)
主制御部111(およびデータ処理部130)が、ステップS81にて開始された立体動画撮影により逐次に取得される2以上のフレームに基づくトラッキングを開始する。それにより、被検者の動きを追従するようにプローブの位置が自動調整される。
(S82: Start tracking)
The main control unit 111 (and the data processing unit 130) starts tracking based on two or more frames that are sequentially acquired by the stereoscopic video shooting started in step S81. Thereby, the position of the probe is automatically adjusted so as to follow the movement of the subject.

(S83:被検者とプローブとが所定の位置関係になった?)
ステップS82におけるトラッキングが開始されたことに対応し、位置関係判定部150は、被検者とプローブとが所定の位置関係になったか判定する。この判定処理は、少なくとも、それらが所定の位置関係になったと判定されるまで繰り返し実行される(S83:NO)。なお、トラッキングは、少なくとも、後段のステップS84における検査の完了まで継続される。
(S83: Is the subject and the probe in a predetermined positional relationship?)
In response to the start of tracking in step S82, the positional relationship determination unit 150 determines whether the subject and the probe have a predetermined positional relationship. This determination process is repeatedly executed at least until it is determined that they have a predetermined positional relationship (S83: NO). Note that the tracking is continued at least until the completion of the inspection in the subsequent step S84.

(S84:検査を行う)
ステップS83において、被検者とプローブとが所定の位置関係になったと判定されると(S83:YES)、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S84: Perform inspection)
If it is determined in step S83 that the subject and the probe have a predetermined positional relationship (S83: YES), the main control unit 111 executes an inspection that is a combination of gas blowing and OCT measurement.

(S85:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS84における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第2の実施形態におけるいずれかの動作例と同様であってよい。
(S85: Save evaluation information and inspection position information)
The main control unit 111 stores the evaluation information generated by the inspection in step S84 in the storage unit 112 in association with information (inspection position information) indicating the position where the inspection is performed. At this time, arbitrary information such as the examination date and time, the subject identification information, and the three-dimensional face image may be further associated. This is the end of the processing related to this operation example. The output (display, printing, data transmission, etc.) of the evaluation information acquired by this operation example may be the same as any operation example in the second embodiment.

[作用および効果]
この実施形態に係る皮膚性状評価装置は、第2の実施形態におけるいずれかの構成に加え、次の構成を有する。まず、2以上の撮影部(撮影部300)は、動画撮影を実行可能に構成される。また、解析部(解析部140)は、この動画撮影により実質的に同時に取得された2以上のフレームをリアルタイムかつ順次に解析することにより、時系列に沿った複数の3次元位置情報を取得する。各3次元位置情報は、被検者の3次元的な位置に関する情報である。さらに、位置情報取得部(位置情報取得部143)は、これら3次元位置情報に基づいて、時系列に沿った複数の位置情報をリアルタイムかつ順次に取得する。各位置情報は、気体の吹き付け領域および/またはOCTの実行領域の少なくとも一方の位置を示す。
[Action and effect]
The skin property evaluation apparatus according to this embodiment has the following configuration in addition to any of the configurations in the second embodiment. First, the two or more imaging units (imaging unit 300) are configured to be able to perform moving image imaging. In addition, the analysis unit (analysis unit 140) acquires a plurality of pieces of three-dimensional position information in time series by sequentially analyzing two or more frames acquired substantially simultaneously by the moving image shooting in real time. . Each three-dimensional position information is information regarding the three-dimensional position of the subject. Further, the position information acquisition unit (position information acquisition unit 143) acquires a plurality of position information along the time series sequentially in real time based on the three-dimensional position information. Each position information indicates a position of at least one of a gas spray area and / or an OCT execution area.

このような構成によれば、被検者の位置をリアルタイムで監視することができ、より具体的には、気体の吹き付け領域やOCTの実行領域をリアルタイムで監視することができる。この処理により得られる情報の用途は任意である(たとえば、トラッキングや検査開始トリガに限定されない)。   According to such a configuration, the position of the subject can be monitored in real time, and more specifically, the gas blowing area and the OCT execution area can be monitored in real time. The use of the information obtained by this processing is arbitrary (for example, it is not limited to tracking or an inspection start trigger).

実施形態において、吹付部がノズルを備え、断層データ取得部が上記光学系を備え、さらに、皮膚性状評価装置が、プローブと、このプローブを移動させるための移動機構(プローブ移動機構310)と、この移動機構を制御する移動制御部(移動制御部114)とを備える場合、移動制御部を次のように構成することができる。すなわち、移動制御部は、位置情報取得部により順次に取得される3次元位置情報に基づいて移動機構をリアルタイムで制御することにより、被検者の動きに対してプローブを追従させるように構成されてよい。   In the embodiment, the spray unit includes a nozzle, the tomographic data acquisition unit includes the optical system, and the skin property evaluation apparatus further includes a probe and a moving mechanism (probe moving mechanism 310) for moving the probe, In the case of including a movement control unit (movement control unit 114) that controls the movement mechanism, the movement control unit can be configured as follows. That is, the movement control unit is configured to cause the probe to follow the movement of the subject by controlling the movement mechanism in real time based on the three-dimensional position information sequentially acquired by the position information acquisition unit. It's okay.

このような構成によれば、気体の吹き付け領域やOCTの実行領域の位置の変化に対してプローブを追従させることができる(オートトラッキング)。それにより、被検者に動きが伴う場合であっても、プローブを好適な位置に継続的に配置させることができる。   According to such a configuration, the probe can be made to follow changes in the position of the gas blowing region or the OCT execution region (auto tracking). Thereby, even if it is a case where a subject moves, a probe can be continuously arranged in a suitable position.

実施形態において、オートトラッキングが実行されているときに次の処理を行う第1の位置関係判定部(位置関係判定部150)がさらに設けられていてよい。第1の位置関係判定部は、位置情報取得部によりリアルタイムかつ順次に取得される位置情報に基づいて、被検者とプローブとの位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する。このような第1の位置関係判定部が設けられている場合において、断層データ取得部は、第1の位置関係判定部により被検者とプローブとの位置関係が所定の位置関係であると判定されたことを受けてOCTを開始するように構成されていてよい。なお、吹付部による気体の吹付け開始のタイミングは任意であってよい。たとえば、吹付部は、第1の位置関係判定部により被検者とプローブとの位置関係が所定の位置関係であると判定されたことを受けて気体の吹き付けを開始するように構成されていてよい。また、OCTが開始される前の任意のタイミングで気体の吹き付けを開始するよう構成することもできるし、OCTが開始された後の任意のタイミングで気体の吹き付けを開始するよう構成することもできる。   In the embodiment, a first positional relationship determination unit (the positional relationship determination unit 150) that performs the following processing when auto-tracking is being performed may be further provided. The first positional relationship determination unit repeats in real time whether or not the positional relationship between the subject and the probe is a predetermined positional relationship based on the positional information sequentially acquired in real time by the positional information acquisition unit. Judgment. In the case where such a first positional relationship determination unit is provided, the tomographic data acquisition unit determines that the positional relationship between the subject and the probe is a predetermined positional relationship by the first positional relationship determination unit. In response to this, the OCT may be configured to start. In addition, the timing of the gas spray start by the spray unit may be arbitrary. For example, the spraying unit is configured to start the gas spraying when the first positional relationship determination unit determines that the positional relationship between the subject and the probe is a predetermined positional relationship. Good. Moreover, it can also be comprised so that the spraying of gas may be started at the arbitrary timing before OCT is started, and it can also be comprised so that the spraying of gas may be started at the arbitrary timing after OCT is started. .

この構成によれば、被検者とプローブとが好適な位置関係になったタイミングで検査を実行することができる。また、検査中にもトラッキングを継続することにより、被検者とプローブとの間の好適な位置関係を維持した状態で検査を実行することができる。   According to this structure, a test | inspection can be performed at the timing when the subject and the probe became suitable positional relationship. Further, by continuing the tracking even during the inspection, the inspection can be executed in a state in which a suitable positional relationship between the subject and the probe is maintained.

なお、トラッキングとOCT計測とを並行して実行することができる。このOCT計測は、たとえば、同じ走査パターンで繰り返し実行される。それにより、OCT動画像が取得される。さらに、このOCT動画像に基づいて気体の吹き付けを開始したり、走査パターンを切り替えたりすることができる。たとえば、Bスキャン動画像における皮膚表面の描出位置が所定位置(たとえば干渉感度が最大の位置)に配置されたことに対応して、気体の吹き付けを開始したり、3次元スキャンや円スキャンに切り替えたりすることが可能である。また、Bスキャン動画像や3次元動画像に皮膚の所定部位が描出されたことに対応して、気体の吹き付けを開始したり、走査パターンの切り替えを行ったりすることもできる。このような構成によれば、OCT動画像を用いた精密なトラッキングや検査開始トリガの入力が可能である。   Note that tracking and OCT measurement can be executed in parallel. This OCT measurement is repeatedly executed with the same scanning pattern, for example. Thereby, an OCT moving image is acquired. Furthermore, it is possible to start the gas blowing or switch the scanning pattern based on the OCT moving image. For example, in response to the drawing position of the skin surface in a B-scan moving image being located at a predetermined position (for example, the position where the interference sensitivity is maximum), gas blowing is started, or switching to a three-dimensional scan or a circle scan is performed. It is possible to Further, in response to the drawing of a predetermined part of the skin in the B-scan moving image or the three-dimensional moving image, it is possible to start blowing gas or switch the scanning pattern. According to such a configuration, precise tracking using an OCT moving image and input of an inspection start trigger are possible.

〈変形例〉
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。また、上記の実施形態や変形例のうちのいくつかを任意に組み合わせることが可能である。
<Modification>
The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate. Moreover, it is possible to arbitrarily combine some of the above-described embodiments and modifications.

上記の実施形態では、2つの撮影部を用いる場合について特に詳しく説明したが、3つ以上の撮影部を用いることも可能である。たとえば、広域のステレオ撮影を行うための2以上の撮影部と、狭域のステレオ撮影を行うための2以上の撮影部とを設け、これらにより取得された広域のステレオ画像と狭域のステレオ画像とを対応付けることが可能である。ここで、広域ステレオ撮影の倍率と狭域ステレオ撮影の倍率とは、同じでもよいし、異なってもよい。   In the above embodiment, the case where two imaging units are used has been described in detail. However, it is possible to use three or more imaging units. For example, two or more photographing units for performing wide-area stereo photographing and two or more photographing units for performing narrow-area stereo photographing are provided, and a wide-area stereo image and a narrow-area stereo image acquired by these are provided. Can be associated with each other. Here, the magnification for wide-area stereo photography and the magnification for narrow-area stereo photography may be the same or different.

より具体的には、このような構成はたとえば次のようにして実現される。まず、2以上の撮影部は、第1の撮影野で撮影を行う第1群の撮影部と、第1の撮影野に含まれる第2の撮影野で撮影を行う第2群の撮影部とを含む。第1群の撮影部は狭域撮影用であり、第2群の撮影部は広域撮影用である。   More specifically, such a configuration is realized as follows, for example. First, the two or more imaging units include a first group of imaging units that perform imaging in the first imaging field, and a second group of imaging units that perform imaging in the second imaging field included in the first imaging field. including. The first group of imaging units is for narrow-area imaging, and the second group of imaging units is for wide-area imaging.

解析部は、狭域撮影用の撮影部により実質的に同時に取得された第1群のフレーム(狭域フレーム)を解析することにより、被検者に関する第1の3次元位置情報(狭域3次元位置情報)を取得する。また、解析部は、広域撮影用の撮影部により実質的に同時に取得された第2群のフレームを解析することにより、第2の3次元位置情報(広域3次元位置情報)を取得する。さらに、解析部は、狭域3次元位置情報と広域3次元位置情報との対応付けを行う。なお、互いに対応付けられる狭域3次元位置情報および広域3次元位置情報は、実質的に同時に取得された狭域フレームおよび広域フレームに基づく。   The analysis unit analyzes the first group of frames (narrow region frames) acquired substantially simultaneously by the imaging unit for narrow region imaging, thereby obtaining first three-dimensional position information (narrow region 3) on the subject. Dimensional position information). The analysis unit acquires second 3D position information (wide area 3D position information) by analyzing the second group of frames acquired substantially simultaneously by the imaging unit for wide area imaging. Further, the analysis unit associates the narrow area three-dimensional position information with the wide area three-dimensional position information. Note that the narrow area three-dimensional position information and the wide area three-dimensional position information associated with each other are based on the narrow area frame and the wide area frame acquired substantially simultaneously.

狭域3次元位置情報と広域3次元位置情報との対応付けは、たとえば次のようにして行われる。狭域撮影用の撮影部および広域撮影用の撮影部が固定されている場合や、これらの位置が認識可能である場合、これらの相対位置を取得することができる。或いは、実空間座標系や画像座標系におけるそれぞれの撮影部の位置を求めることができる。このような位置関係(座標値)に基づいて、第2の撮影野における第1の撮影野の位置を特定することができ、さらに、広域3次元位置情報と狭域3次元位置情報との位置関係を求めることができる。   The association between the narrow area three-dimensional position information and the wide area three-dimensional position information is performed as follows, for example. When the imaging unit for narrow-area imaging and the imaging unit for wide-area imaging are fixed, or when these positions are recognizable, their relative positions can be acquired. Alternatively, the position of each imaging unit in the real space coordinate system or the image coordinate system can be obtained. Based on such a positional relationship (coordinate values), the position of the first imaging field in the second imaging field can be specified, and the position between the wide-area three-dimensional position information and the narrow-area three-dimensional position information. A relationship can be sought.

位置情報取得部は、第1の3次元位置情報および第2の3次元位置情報に基づいて、吹付部による気体の吹き付け領域や、断層データ取得部によるOCTの実行領域の位置を表す位置情報を取得することができる。   The position information acquisition unit, based on the first three-dimensional position information and the second three-dimensional position information, displays position information indicating the position of the gas spray region by the spray unit and the position of the OCT execution region by the tomographic data acquisition unit. Can be acquired.

このような変形例によれば、広域ステレオ画像と狭域ステレオ画像との組み合わせによって各種の処理を実現することが可能である。たとえば、広域ステレオ画像によって評価対象領域のおおよその位置を特定した後、狭域ステレオ画像によって評価対象領域を詳細に観察することができる。   According to such a modification, various processes can be realized by a combination of a wide-area stereo image and a narrow-area stereo image. For example, after specifying the approximate position of the evaluation target area by the wide-area stereo image, the evaluation target area can be observed in detail by the narrow-area stereo image.

前述したように、皮膚の表面の画像を取得するための表面観察光学系40が設けられない構成を適用することが可能である。そのような皮膚性状評価装置の構成の一例を図15に示す。図1と同じ符号が付された構成要素は、上記実施形態と同様の構成および機能を有するものとし、その詳細な説明は省略する。また、図15に示す構成要素に対する制御の態様についても上記実施形態と同様であってよい。   As described above, it is possible to apply a configuration in which the surface observation optical system 40 for acquiring an image of the skin surface is not provided. An example of the configuration of such a skin property evaluation apparatus is shown in FIG. Components having the same reference numerals as those in FIG. 1 have the same configurations and functions as those of the above-described embodiment, and detailed descriptions thereof are omitted. Further, the control mode for the components shown in FIG. 15 may be the same as in the above embodiment.

図15に示す皮膚性状評価装置1000は、図1に示す皮膚性状評価装置1と同様に、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含む。また、皮膚性状評価装置1000は、OCTを用いて皮膚の断層データを取得するためのOCTユニット20Aを含む。OCTユニット20Aは、上記実施形態におけるOCTユニット20と同様の構成要素を含むが、それらの配置が異なる。さらに、皮膚性状評価装置1000は、OCTユニット20Aにより取得された断層データに基づいて皮膚の性状の評価情報を生成するための演算制御ユニット100を含む。演算制御ユニット100の構成は上記実施形態と同様である。   A skin property evaluation apparatus 1000 shown in FIG. 15 includes a compressed gas generation unit 11, a communication pipe 12, a head unit 13, and a nozzle 14, similarly to the skin property evaluation apparatus 1 shown in FIG. 1. Skin property evaluation apparatus 1000 includes an OCT unit 20A for acquiring skin tomographic data using OCT. The OCT unit 20A includes the same components as the OCT unit 20 in the above embodiment, but their arrangement is different. Furthermore, the skin property evaluation apparatus 1000 includes an arithmetic control unit 100 for generating skin property evaluation information based on the tomographic data acquired by the OCT unit 20A. The configuration of the arithmetic control unit 100 is the same as that of the above embodiment.

この変形例の皮膚性状評価装置1000においては、表面観察光学系40が設けられていないだけでなく、表面観察光学系40の光路と測定光の光路(測定アーム)とを合成するビームスプリッタ50も設けられていない。すなわち、この変形例においては、OCTユニット20Aから延びる測定アームは、ビームスプリッタを経由することなくヘッド部13に導かれている。   In the skin property evaluation apparatus 1000 of this modification, not only the surface observation optical system 40 is provided, but also a beam splitter 50 that combines the optical path of the surface observation optical system 40 and the optical path of the measurement light (measurement arm). Not provided. That is, in this modification, the measurement arm extending from the OCT unit 20A is guided to the head unit 13 without passing through the beam splitter.

OCTユニット20Aには、上記実施形態のOCTユニット20と同様の構成要素(光学素子、機構等)が設けられている。具体的には、OCTユニット20Aは、光源ユニット21と、この光源ユニット21から出力された光を導く光ファイバ22と、この光を測定光と参照光とに分割するファイバカプラ23とを含む。   The OCT unit 20A is provided with the same components (optical elements, mechanisms, etc.) as the OCT unit 20 of the above embodiment. Specifically, the OCT unit 20A includes a light source unit 21, an optical fiber 22 that guides light output from the light source unit 21, and a fiber coupler 23 that divides the light into measurement light and reference light.

測定光の光路(測定アーム)には、光ファイバ24と、コリメータレンズユニット25と、光スキャナ26とが設けられている。なお、図示は省略するが、測定光の光路(測定アーム)には、合焦レンズ、リレーレンズ、対物レンズなどが設けられていてよい。   An optical fiber 24, a collimator lens unit 25, and an optical scanner 26 are provided in the optical path (measurement arm) of the measurement light. Although illustration is omitted, a focusing lens, a relay lens, an objective lens, and the like may be provided in the optical path (measurement arm) of the measurement light.

参照光の光路(参照アーム)には、光ファイバ27と、コリメータレンズユニット28と、参照ミラー29とが設けられている。参照ミラー29は、参照ミラー駆動部29Aにより、参照アームの光軸に沿う方向に移動される。なお、図示は省略するが、参照光の光路(参照アーム)には、参照光の光量を調整するための光アッテネータや、参照光の偏光状態を調整するための偏光コントローラなどが設けられていてよい。   An optical fiber 27, a collimator lens unit 28, and a reference mirror 29 are provided in the optical path (reference arm) of the reference light. The reference mirror 29 is moved in the direction along the optical axis of the reference arm by the reference mirror driving unit 29A. Although not shown, the optical path (reference arm) of the reference light is provided with an optical attenuator for adjusting the amount of the reference light, a polarization controller for adjusting the polarization state of the reference light, and the like. Good.

さらに、OCTユニット20Aには、ファイバカプラ23により生成された測定光の戻り光と参照光の戻り光との干渉光を導く光ファイバ30と、この干渉光を検出して信号を生成する検出部31とが設けられている。検出部31により生成された信号(検出信号)は演算制御ユニット100に送られる。   Further, the OCT unit 20A includes an optical fiber 30 that guides interference light between the return light of the measurement light and the return light of the reference light generated by the fiber coupler 23, and a detection unit that detects the interference light and generates a signal. 31 is provided. A signal (detection signal) generated by the detection unit 31 is sent to the arithmetic control unit 100.

このような構成の皮膚性状評価装置1000によっても、上記実施形態と同様に、高確度な皮膚の性状評価を非接触で行うことが可能である。   Also with the skin property evaluation apparatus 1000 having such a configuration, it is possible to perform highly accurate skin property evaluation in a non-contact manner, as in the above embodiment.

上記第3の実施形態において、被検者とプローブとが所定の位置関係になったことに対応してOCTを開始する動作について説明した。このような動作は「オートシュート」などと呼ばれる。第3の実施形態では、ステレオ撮影により取得される被検者のステレオ撮影画像を利用してオートシュートを実行しているが、他の情報を利用してオートシュートを行う構成を採用することも可能である。このような構成の一例として、OCTにより取得されるデータを利用する場合を以下に説明する。   In the third embodiment, the operation of starting OCT in response to the subject and the probe having a predetermined positional relationship has been described. Such an operation is called “auto-shoot”. In the third embodiment, auto-shooting is performed using a subject's stereo image acquired by stereo imaging, but it is also possible to employ a configuration in which auto-shooting is performed using other information. Is possible. As an example of such a configuration, a case where data acquired by OCT is used will be described below.

本変形例に係る皮膚性状評価装置は、第3の実施形態と同様の構成を有していてよい。ただし、図13における撮影部300(および表面観察光学系40)は不要である。さらに、本変形例の皮膚性状評価装置のデータ処理部130は、第3の実施形態のそれと異なる構成を有する。すなわち、本変形例のデータ処理部130は、第3の実施形態における解析部140、位置情報取得部143および位置関係判定部150を含んでいる必要はない。このような相違点を考慮しつつ図13を参照し、本変形例の説明を行う。   The skin property evaluation apparatus according to this modification may have the same configuration as that of the third embodiment. However, the imaging unit 300 (and the surface observation optical system 40) in FIG. 13 is not necessary. Furthermore, the data processing unit 130 of the skin property evaluation apparatus according to this modification has a configuration different from that of the third embodiment. That is, the data processing unit 130 of this modification need not include the analysis unit 140, the position information acquisition unit 143, and the positional relationship determination unit 150 in the third embodiment. This modification will be described with reference to FIG. 13 in consideration of such differences.

本変形例のOCTユニット20は、光源ユニット21からの光を測定光と参照光とに分割し、測定アームを介して測定光を皮膚に照射する。さらに、OCTユニット20は、測定アームを通過した測定光の戻り光と参照アームを通過した参照光との干渉光を検出する。干渉光を検出した検出部31は、断層データ生成部120に検出信号を送る。断層データ生成部120は、検出信号に基づいて断層データを生成する。生成された断層データは、制御部110を介してデータ処理部130に送られる。   The OCT unit 20 of this modification divides the light from the light source unit 21 into measurement light and reference light, and irradiates the skin with the measurement light via the measurement arm. Further, the OCT unit 20 detects interference light between the return light of the measurement light that has passed through the measurement arm and the reference light that has passed through the reference arm. The detection unit 31 that has detected the interference light sends a detection signal to the tomographic data generation unit 120. The tomographic data generation unit 120 generates tomographic data based on the detection signal. The generated tomographic data is sent to the data processing unit 130 via the control unit 110.

特に、主制御部110は、次のような制御を実行する。まず、主制御部110は、参照ミラー駆動部29Aを制御し、参照ミラー29を移動させる。参照ミラー29の位置は、デフォルト位置であってもよい。或いは、リアルタイムで取得された断層データに基づいて参照ミラー29の位置を決定してもよい。具体的には、皮膚の所定部位(たとえば皮膚表面S)がOCT画像のフレーム内の所定範囲に含まれるような参照ミラー29の位置を探索するように構成することが可能である。このようにして設定された参照ミラー29の位置を固定する。   In particular, the main control unit 110 executes the following control. First, the main control unit 110 controls the reference mirror driving unit 29A to move the reference mirror 29. The position of the reference mirror 29 may be a default position. Alternatively, the position of the reference mirror 29 may be determined based on the tomographic data acquired in real time. Specifically, the position of the reference mirror 29 can be searched such that a predetermined part of the skin (for example, the skin surface S) is included in a predetermined range within the frame of the OCT image. The position of the reference mirror 29 set in this way is fixed.

参照ミラー29の位置が固定されたら、次の段階に移行する。参照ミラー29の位置を固定することは、測定アームと参照アームとの間の光路長差を固定することに相当する。この状態において、主制御部110は、OCTユニット20を制御することにより、OCTを反復的に実行させる(つまり、干渉光の検出を反復的に実行させる)。この反復的なOCTにより取得されるデータ(検出部31からの検出信号、断層データ生成部120により生成される断層データなど)は、データ処理部130に入力される。なお、反復的なOCTにおいては、たとえば、Aスキャンの反復やBスキャンの反復や3次元スキャンの反復のように、同じスキャンパターンによるOCTが繰り返し実行される。当該スキャンパターンに対応する一連のデータが、OCTの反復レートと同等のレートで逐次にかつリアルタイムでデータ処理部130に入力される。   When the position of the reference mirror 29 is fixed, the process proceeds to the next stage. Fixing the position of the reference mirror 29 corresponds to fixing the optical path length difference between the measurement arm and the reference arm. In this state, the main control unit 110 controls the OCT unit 20 to repeatedly execute OCT (that is, repeatedly detect interference light). Data acquired by this repetitive OCT (detection signal from the detection unit 31, tomographic data generated by the tomographic data generation unit 120, etc.) is input to the data processing unit 130. In repetitive OCT, for example, OCT with the same scan pattern is repeatedly executed, such as repetition of A scan, repetition of B scan, and repetition of three-dimensional scan. A series of data corresponding to the scan pattern is input to the data processing unit 130 sequentially and in real time at a rate equivalent to the OCT repetition rate.

データ処理部130は、被検者と光学系(プローブ、皮膚性状評価装置など)との位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する。この処理は、上記一連のデータを単位として実行される。この処理を実行するデータ処理部130は、第2の位置関係判定部に相当する。   The data processing unit 130 repeatedly determines in real time whether the positional relationship between the subject and the optical system (probe, skin property evaluation device, etc.) is a predetermined positional relationship. This process is executed in units of the series of data. The data processing unit 130 that executes this process corresponds to a second positional relationship determination unit.

データ処理部130が実行する処理の具体例を説明する。まず、データ処理部130は、一連のデータを解析することにより、皮膚の所定部位(たとえば皮膚表面S)に相当するデータ領域を特定する。一連のデータが反射強度プロファイルを含む場合、たとえば、この反射強度プロファイルにおいて皮膚表面Sに相当するピークの位置が特定される(図3Aに示すz座標値zを参照)。或いは、一連のデータがBスキャンデータである場合、たとえば、このBスキャンデータにおいて皮膚表面Sに相当する画像領域が特定される(図3Bに示す画像領域Hを参照)。 A specific example of processing executed by the data processing unit 130 will be described. First, the data processing unit 130 analyzes a series of data to identify a data region corresponding to a predetermined part of the skin (for example, the skin surface S). When the series of data includes a reflection intensity profile, for example, the position of the peak corresponding to the skin surface S is specified in the reflection intensity profile (see z coordinate value z 0 shown in FIG. 3A). Alternatively, when the series of data is B scan data, for example, an image region corresponding to the skin surface S is specified in the B scan data (see image region H 0 shown in FIG. 3B).

次に、データ処理部130は、特定されたデータ領域(上記のピーク位置や画像領域)が、フレームの所定範囲(許容範囲)に含まれているか否か判定する。フレームの許容範囲は、たとえば、特定対象のデータ領域の種別や、評価対象の部位などに基づいて、事前に設定される。フレームの許容範囲は、少なくとも、深さ方向(z方向)について設定される。すなわち、フレームの許容範囲は、少なくとも、深さ方向の許容範囲(z≦z≦z)を含む。なお、フレームの許容範囲は、深さ方向に直交する方向における許容範囲を含んでいてもよい。たとえば一連のデータがxz断面を表すBスキャンデータである場合、フレームの許容範囲は、z方向の許容範囲に加え、x方向の許容範囲を含んでいてよい。或いは、一連のデータが3次元画像データである場合、フレームの許容範囲は、z方向の許容範囲に加え、x方向の許容範囲および/またはy方向の許容範囲を含んでいてよい。データ処理部130は、特定されたデータ領域の座標値が許容範囲に示す座標範囲に含まれているか否か判定する。 Next, the data processing unit 130 determines whether or not the specified data region (the above-described peak position or image region) is included in a predetermined range (allowable range) of the frame. The allowable range of the frame is set in advance based on, for example, the type of the data area to be specified and the part to be evaluated. The allowable range of the frame is set at least in the depth direction (z direction). That is, the allowable range of the frame includes at least an allowable range in the depth direction (z a ≦ z ≦ z b ). The allowable range of the frame may include an allowable range in a direction orthogonal to the depth direction. For example, when the series of data is B scan data representing an xz cross section, the allowable range of the frame may include an allowable range in the x direction in addition to the allowable range in the z direction. Alternatively, when the series of data is three-dimensional image data, the allowable range of the frame may include an allowable range in the x direction and / or an allowable range in the y direction in addition to the allowable range in the z direction. The data processing unit 130 determines whether or not the coordinate value of the specified data area is included in the coordinate range indicated in the allowable range.

本変形例の動作について説明する。以下、図16に示す典型的な動作例を説明するが、実施形態に係る動作はこれらに限定されるものではない。   The operation of this modification will be described. Hereinafter, a typical operation example illustrated in FIG. 16 will be described, but the operation according to the embodiment is not limited thereto.

(S101:参照ミラーの位置を固定する)
まず、主制御部111が、参照ミラー29Aを好適な位置に移動させ、その位置を固定する。
(S101: Fix the position of the reference mirror)
First, the main control unit 111 moves the reference mirror 29A to a suitable position and fixes the position.

(S102:反復的なOCTを開始する)
参照ミラー29の位置が固定されたら、主制御部111は、OCTユニット20(および断層データ生成部120)を制御し、反復的なOCTを開始させる。
(S102: Start repetitive OCT)
When the position of the reference mirror 29 is fixed, the main control unit 111 controls the OCT unit 20 (and the tomographic data generation unit 120) to start repetitive OCT.

(S103:被検者と光学系とが所定の位置関係になった?)
ステップS102における反復的なOCTが開始されたことに対応し、データ処理部130は、被検者と光学系とが所定の位置関係になったか判定する。この判定処理は、少なくとも、それらが所定の位置関係になったと判定されるまで繰り返し実行される(S103:NO)。
(S103: Is the subject and the optical system in a predetermined positional relationship?)
In response to the start of repetitive OCT in step S102, the data processing unit 130 determines whether or not the subject and the optical system have a predetermined positional relationship. This determination process is repeatedly executed at least until it is determined that they have a predetermined positional relationship (S103: NO).

(S104:検査を行う)
ステップS103において、被検者と光学系とが所定の位置関係になったと判定されると(S103:YES)、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S104: Perform inspection)
If it is determined in step S103 that the subject and the optical system have a predetermined positional relationship (S103: YES), the main control unit 111 executes an examination that is a combination of gas blowing and OCT measurement. .

(S105:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS104における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、上記実施形態におけるいずれかの動作例と同様であってよい。
(S105: Save evaluation information and inspection position information)
The main control unit 111 stores the evaluation information generated by the inspection in step S104 in the storage unit 112 in association with information (inspection position information) indicating the position where the inspection is performed. At this time, arbitrary information such as the examination date and time, the subject identification information, and the three-dimensional face image may be further associated. This is the end of the processing related to this operation example. The output (display, printing, data transmission, etc.) of the evaluation information acquired by this operation example may be the same as any operation example in the above embodiment.

なお、本変形例に係る判定処理と第3の実施形態に係る判定処理とを組み合わせ、双方が満足されたことに対応して検査を開始するように構成することが可能である。この構成によれば、第3の実施形態による大域的な位置関係の判定(粗判定)と、本変形例による局所的な位置関係の判定(詳細判定)とを行うことができる。また、大域的な位置関係が満足されたことに対応して局所的な位置関係の判定に移行するように制御を行うことが可能である。また、局所的な位置関係のズレが閾値を超えたことに対応し、大域的な位置関係の判定に移行するように制御を行うことも可能である。   Note that it is possible to combine the determination process according to the present modification example and the determination process according to the third embodiment so that the inspection is started when both are satisfied. According to this configuration, it is possible to perform global positional relationship determination (coarse determination) according to the third embodiment and local positional relationship determination (detailed determination) according to this modification. Further, it is possible to perform control so as to shift to the determination of the local positional relationship in response to the satisfaction of the global positional relationship. It is also possible to perform control so as to shift to the determination of the global positional relationship in response to the deviation of the local positional relationship exceeding the threshold value.

上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。   A computer program for realizing the above embodiment can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.

また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。   It is also possible to transmit / receive this program through a network such as the Internet or a LAN.

1 皮膚性状評価装置
11 圧縮ガス生成部
12 連通管
13 ヘッド部
14 ノズル
20 OCTユニット
21 光源ユニット
23 ファイバカプラ
26 光スキャナ
29 参照ミラー
29A 参照ミラー駆動部
31 検出部
100 演算制御ユニット
110 制御部
111 主制御部
112 記憶部
113 表示制御部
114 移動制御部
115 投光制御部
120 断層データ生成部
130 データ処理部
131 データ位置特定部
132 評価情報生成部
133 形態情報生成部
140 解析部
141 3次元画像生成部
142 対応情報生成部
143 位置情報生成部
150 位置関係判定部
200 ユーザインターフェイス
210 表示デバイス
220 操作デバイス
300 撮影部
310 プローブ移動機構
320 投光部
S 皮膚表面
DESCRIPTION OF SYMBOLS 1 Skin property evaluation apparatus 11 Compressed gas production | generation part 12 Communication pipe 13 Head part 14 Nozzle 20 OCT unit 21 Light source unit 23 Fiber coupler 26 Optical scanner 29 Reference mirror 29A Reference mirror drive part 31 Detection part 100 Arithmetic control unit 110 Control part 111 Main Control unit 112 Storage unit 113 Display control unit 114 Movement control unit 115 Light projection control unit 120 Tomographic data generation unit 130 Data processing unit 131 Data position specifying unit 132 Evaluation information generation unit 133 Form information generation unit 140 Analysis unit 141 Three-dimensional image generation Unit 142 Corresponding Information Generation Unit 143 Position Information Generation Unit 150 Positional Relationship Determination Unit 200 User Interface 210 Display Device 220 Operation Device 300 Imaging Unit 310 Probe Movement Mechanism 320 Projection Unit S Skin Surface

Claims (14)

被検者の皮膚表面に気体を吹き付ける吹付部と、
前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、
前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部と
被検者を異なる方向から実質的に同時に撮影する2以上の撮影部と、
前記2以上の撮影部により取得された2以上の撮影画像を解析することにより、被検者に関する3次元位置情報を取得する解析部と、
前記解析部により取得された前記3次元位置情報に基づいて、前記吹付部による気体の吹き付け領域、および前記断層データ取得部による光コヒーレンストモグラフィの実行領域の少なくとも一方の位置情報を取得する位置情報取得部と
を備える皮膚性状評価装置。
A spraying part that blows gas onto the skin surface of the subject;
A tomographic data acquisition unit for acquiring tomographic data of skin in a state where gas is being sprayed by the spraying unit, using optical coherence tomography;
Based on the tomographic data acquired by the tomographic data acquiring unit, an information generating unit that generates evaluation information related to the properties of the subject's skin ;
Two or more imaging units for imaging a subject substantially simultaneously from different directions;
An analysis unit that acquires three-dimensional position information about the subject by analyzing two or more captured images acquired by the two or more imaging units;
Position information for acquiring at least one position information of a gas blowing area by the blowing section and an execution area of optical coherence tomography by the tomographic data acquiring section based on the three-dimensional position information acquired by the analysis section A skin property evaluation apparatus comprising an acquisition unit .
前記2以上の撮影部による撮影野は、被検者の顔の少なくとも一部を含む
ことを特徴とする請求項1に記載の皮膚性状評価装置。
The skin property evaluation apparatus according to claim 1, wherein the imaging field by the two or more imaging units includes at least a part of the face of the subject .
前記解析部は、
前記2以上の撮影画像に基づいて、被検者の顔の3次元画像を生成する3次元画像生成部と、
前記3次元位置情報として、前記3次元画像生成部により生成された3次元画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた対応情報を生成する対応情報生成部と
を備える
ことを特徴とする請求項1または請求項2に記載の皮膚性状評価装置。
The analysis unit
A three-dimensional image generation unit that generates a three-dimensional image of the face of the subject based on the two or more captured images;
Correspondence information in which the first coordinate system set in the three-dimensional image generated by the three-dimensional image generation unit and the second coordinate system set in the real space are associated as the three-dimensional position information. A corresponding information generation unit for generating
Skin property-evaluating apparatus according to claim 1 or claim 2, characterized in that it comprises a.
前記3次元画像を表示手段に表示させる表示制御部をさらに備え、
前記表示手段に表示された前記3次元画像中の位置が指定されたときに、前記位置情報取得部は、前記対応情報に基づいて、前記第1の座標系における当該指定位置の座標値に対応する前記第2の座標系における座標値を取得する
ことを特徴とする請求項3に記載の皮膚性状評価装置。
A display control unit for displaying the three-dimensional image on a display unit;
When the position in the three-dimensional image displayed on the display unit is designated, the position information acquisition unit corresponds to the coordinate value of the designated position in the first coordinate system based on the correspondence information. The skin property evaluation apparatus according to claim 3, wherein coordinate values in the second coordinate system are acquired .
前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、
前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、
前記プローブを移動させるための移動機構と、
前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御する移動制御部と
をさらに備える
ことを特徴とする請求項4に記載の皮膚性状評価装置。
The spray unit includes a nozzle having a gas outlet formed at a tip thereof,
The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
A probe provided with at least the nozzle and at least the tip of the measurement arm of the spraying part;
A moving mechanism for moving the probe;
A movement control unit that controls the movement mechanism based on the coordinate values acquired by the position information acquisition unit;
The skin property evaluation apparatus according to claim 4, further comprising:
光束を出力する投光部と、
前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御する投光制御部と
をさらに備える
ことを特徴とする請求項に記載の皮膚性状評価装置。
A light projecting unit that outputs a luminous flux;
A light projection control unit that controls the light projection unit so that a light beam is projected at a position indicated by the coordinate value acquired by the position information acquisition unit;
The skin property evaluation apparatus according to claim 4 , further comprising:
前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、
前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、
前記プローブを移動させるための移動機構と、
前記移動機構を制御する移動制御部と、
前記吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶された記憶部と
をさらに備え、
前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、
前記移動制御部は、前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御する
ことを特徴とする請求項に記載の皮膚性状評価装置。
The spray unit includes a nozzle having a gas outlet formed at a tip thereof,
The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
A probe provided with at least the nozzle and at least the tip of the measurement arm of the spraying part;
A moving mechanism for moving the probe;
A movement control unit for controlling the movement mechanism;
A storage unit in which target position information representing a position of a target region of gas sprayed by the spray unit is stored in advance;
Further comprising
The position information acquisition unit acquires a coordinate value in the second coordinate system corresponding to the position represented in the target position information based on the correspondence information,
The skin property evaluation apparatus according to claim 3 , wherein the movement control unit controls the movement mechanism based on the coordinate values acquired by the position information acquisition unit .
前記吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶された記憶部と、
光束を出力する投光部と、
前記投光部を制御する投光制御部と、
をさらに備え、
前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、
前記投光制御部は、前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御する
ことを特徴とする請求項に記載の皮膚性状評価装置。
A storage unit in which target position information representing the position of the target area of the gas sprayed by the spray unit is stored in advance;
A light projecting unit that outputs a luminous flux;
A light projecting control unit for controlling the light projecting unit;
Further comprising
The position information acquisition unit acquires a coordinate value in the second coordinate system corresponding to the position represented in the target position information based on the correspondence information,
4. The skin property according to claim 3 , wherein the light projection control unit controls the light projection unit so that a light beam is projected at a position indicated by the coordinate value acquired by the position information acquisition unit. Evaluation device.
前記対象位置情報は、当該被検者に対する過去の評価における前記吹き付け対象領域の位置、または前記気体の吹き付け対象領域のデフォルト位置である
ことを特徴とする請求項7または請求項8に記載の皮膚性状評価装置。
The skin according to claim 7 or 8 , wherein the target position information is a position of the spray target area in a past evaluation for the subject or a default position of the gas spray target area. Property evaluation device.
前記2以上の撮影部は、動画撮影を実行し、
前記解析部は、前記動画撮影により実質的に同時に取得された2以上のフレームをリアルタイムかつ順次に解析することにより、時系列に沿った複数の前記3次元位置情報を取得し、
前記位置情報取得部は、前記複数の3次元位置情報に基づいて、時系列に沿った複数の前記位置情報をリアルタイムかつ順次に取得する
ことを特徴とする請求項に記載の皮膚性状評価装置。
The two or more photographing units perform moving image photographing,
The analysis unit acquires a plurality of the three-dimensional position information along a time series by sequentially analyzing two or more frames acquired substantially simultaneously by the moving image shooting in real time,
The skin property evaluation apparatus according to claim 1 , wherein the position information acquisition unit sequentially acquires a plurality of the position information in time series in real time based on the plurality of three-dimensional position information. .
前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、
前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、
前記プローブを移動させるための移動機構と、
前記位置情報取得部により順次に取得される前記3次元位置情報に基づいて前記移動機構をリアルタイムで制御することにより、被検者の動きに対して前記プローブを追従させる移動制御部と
をさらに備える
ことを特徴とする請求項10に記載の皮膚性状評価装置。
The spray unit includes a nozzle having a gas outlet formed at a tip thereof,
The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
A probe provided with at least the nozzle and at least the tip of the measurement arm of the spraying part;
A moving mechanism for moving the probe;
A movement control unit for causing the probe to follow the movement of the subject by controlling the movement mechanism in real time based on the three-dimensional position information sequentially acquired by the position information acquisition unit;
The skin property evaluation apparatus according to claim 10, further comprising:
前記移動制御部により前記移動機構が制御されているときに、前記位置情報取得部によりリアルタイムかつ順次に取得される前記位置情報に基づいて、被検者と前記プローブとの位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する第1の位置関係判定部をさらに含み、
前記断層データ取得部は、前記第1の位置関係判定部により被検者と前記プローブとの位置関係が所定の位置関係であると判定されたことを受けて、光コヒーレンストモグラフィを開始する
ことを特徴とする請求項11に記載の皮膚性状評価装置。
When the movement mechanism is controlled by the movement control unit, the positional relationship between the subject and the probe is a predetermined position based on the position information acquired in real time and sequentially by the position information acquisition unit. A first positional relationship determination unit that repeatedly determines whether the relationship is real-time and repetitively;
The tomographic data acquisition unit starts optical coherence tomography when the first positional relationship determination unit determines that the positional relationship between the subject and the probe is a predetermined positional relationship. The skin property evaluation apparatus according to claim 11 .
前記2以上の撮影部は、
第1の撮影野で撮影を行う第1群の撮影部と、
前記第1の撮影野に含まれる第2の撮影野で撮影を行う第2群の撮影部と
を含み、
前記解析部は、前記第1群の撮影部により実質的に同時に取得された第1群のフレームを解析することにより、被検者に関する第1の3次元位置情報を取得し、前記第2群の撮影部により実質的に同時に取得された第2群のフレームを解析することにより、第2の3次元位置情報を取得し、前記第1の3次元位置情報と前記第2の3次元位置情報とを対応付けし、
前記位置情報取得部は、前記第1の3次元位置情報および前記第2の3次元位置情報に基づいて、前記位置情報を取得する
ことを特徴とする請求項に記載の皮膚性状評価装置。
The two or more photographing units are
A first group of photographing units for photographing in a first field;
A second group of imaging units that perform imaging in a second imaging field included in the first imaging field;
Including
The analysis unit acquires first three-dimensional position information related to the subject by analyzing the first group of frames acquired substantially simultaneously by the first group of imaging units, and the second group The second three-dimensional position information is acquired by analyzing the second group of frames acquired substantially simultaneously by the imaging unit, and the first three-dimensional position information and the second three-dimensional position information are acquired. And
The skin property evaluation apparatus according to claim 1 , wherein the position information acquisition unit acquires the position information based on the first three-dimensional position information and the second three-dimensional position information .
被検者の皮膚表面に気体を吹き付ける吹付部と、A spraying part that blows gas onto the skin surface of the subject;
前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、A tomographic data acquisition unit for acquiring tomographic data of skin in a state where gas is being sprayed by the spraying unit, using optical coherence tomography;
前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部とAn information generating unit that generates evaluation information related to the condition of the skin of the subject based on the tomographic data acquired by the tomographic data acquiring unit;
を備え、With
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
前記測定アームと前記参照アームとの間の光路長差が実質的に固定された状態で、前記光学系は、前記干渉光の検出を反復的に実行し、With the optical path length difference between the measurement arm and the reference arm substantially fixed, the optical system repeatedly performs the detection of the interference light,
前記光学系によりリアルタイムかつ反復的に取得される前記干渉光の検出結果に基づいて、被検者と前記光学系との位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する第2の位置関係判定部をさらに含み、Based on the detection result of the interference light acquired repeatedly in real time by the optical system, it is determined in real time and repeatedly whether the positional relationship between the subject and the optical system is a predetermined positional relationship. A second positional relationship determining unit that includes:
前記断層データ取得部は、前記第2の位置関係判定部により被検者と前記光学系との位置関係が所定の位置関係であると判定されたことを受けて、前記断層データの取得を開始するThe tomographic data acquisition unit starts acquiring the tomographic data when the second positional relationship determination unit determines that the positional relationship between the subject and the optical system is a predetermined positional relationship. Do
ことを特徴とする皮膚性状評価装置。An apparatus for evaluating skin properties.
JP2014134895A 2014-06-30 2014-06-30 Skin property evaluation device Active JP6310792B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014134895A JP6310792B2 (en) 2014-06-30 2014-06-30 Skin property evaluation device
PCT/JP2015/066308 WO2016002432A1 (en) 2014-06-30 2015-06-05 Apparatus for evaluating skin conditions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014134895A JP6310792B2 (en) 2014-06-30 2014-06-30 Skin property evaluation device

Publications (2)

Publication Number Publication Date
JP2016011935A JP2016011935A (en) 2016-01-21
JP6310792B2 true JP6310792B2 (en) 2018-04-11

Family

ID=55018981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014134895A Active JP6310792B2 (en) 2014-06-30 2014-06-30 Skin property evaluation device

Country Status (2)

Country Link
JP (1) JP6310792B2 (en)
WO (1) WO2016002432A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6245590B1 (en) * 2016-06-20 2017-12-13 公立大学法人大阪市立大学 Skin diagnostic device, skin condition output method, program, and recording medium
US10129448B2 (en) 2016-07-20 2018-11-13 Dental Imaging Technologies Corporation Optical coherence tomography imaging system
JP6768500B2 (en) * 2016-12-28 2020-10-14 株式会社キーエンス Optical scanning height measuring device
JP6831700B2 (en) * 2016-12-28 2021-02-17 株式会社キーエンス Optical scanning height measuring device
JP6829992B2 (en) * 2016-12-28 2021-02-17 株式会社キーエンス Optical scanning height measuring device
JP6826496B2 (en) * 2017-06-07 2021-02-03 タツタ電線株式会社 Optical interference unit and optical interference measuring device
JP2022012564A (en) * 2020-07-01 2022-01-17 京セラ株式会社 Image processing apparatus and distance measuring device

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003294598A (en) * 2002-04-03 2003-10-15 Shiseido Co Ltd Method and system for measuring resilient characteristic
JP3726794B2 (en) * 2002-09-13 2005-12-14 花王株式会社 Method for evaluating surface characteristics against stress
JP4790231B2 (en) * 2004-06-17 2011-10-12 花王株式会社 Skin analysis method
US7254429B2 (en) * 2004-08-11 2007-08-07 Glucolight Corporation Method and apparatus for monitoring glucose levels in a biological tissue
US8133180B2 (en) * 2004-10-06 2012-03-13 Guided Therapy Systems, L.L.C. Method and system for treating cellulite
JP2006320380A (en) * 2005-05-17 2006-11-30 Spectratech Inc Optical interference tomograph meter
JP4894991B2 (en) * 2005-06-14 2012-03-14 花王株式会社 Evaluation method of skin properties
US7823782B2 (en) * 2005-11-22 2010-11-02 Shofu Inc. Dental optical coherence tomograph
JP4583296B2 (en) * 2005-12-14 2010-11-17 国立大学法人広島大学 Method and apparatus for measuring skin age
JP4831327B2 (en) * 2006-07-28 2011-12-07 花王株式会社 Skin property evaluation method
JP2008203234A (en) * 2007-02-23 2008-09-04 Matsushita Electric Works Ltd Blood component concentration analysis method and device
JP2011521747A (en) * 2008-06-02 2011-07-28 ライトラブ イメージング, インコーポレイテッド Quantitative method for obtaining tissue features from optical coherence tomography images
JP5778762B2 (en) * 2010-05-25 2015-09-16 ザ ジェネラル ホスピタル コーポレイション Apparatus and method for spectral analysis of optical coherence tomography images
JP5706226B2 (en) * 2011-05-09 2015-04-22 株式会社 資生堂 Evaluation method for collagen state in skin and evaluation method for skin aging
JP6059600B2 (en) * 2012-06-18 2017-01-11 富士フイルム株式会社 Method for operating skin evaluation apparatus and skin evaluation apparatus
US9261349B2 (en) * 2012-11-08 2016-02-16 Kabushiki Kaisha Topcon Optical imaging apparatus, optical imaging method, apparatus for setting characteristics of a light source, and method for setting characteristics of a light source

Also Published As

Publication number Publication date
WO2016002432A1 (en) 2016-01-07
JP2016011935A (en) 2016-01-21

Similar Documents

Publication Publication Date Title
JP6310792B2 (en) Skin property evaluation device
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
US10278584B2 (en) Method and system for three-dimensional imaging
US7905596B2 (en) Fundus observation device, an ophthalmologic image processing unit, an ophthalmologic image processing program, and an ophthalmologic image processing method
JP4971864B2 (en) Optical image measuring device and program for controlling the same
JP5061380B2 (en) Fundus observation apparatus, ophthalmologic image display apparatus, and program
JP4869756B2 (en) Fundus observation device
JP4971863B2 (en) Optical image measuring device
US7971999B2 (en) Method and apparatus for retinal diagnosis
JP4896794B2 (en) Optical image measuring apparatus, program for controlling the same, and optical image measuring method
CN102058391B (en) Apparatus and method for imaging optical coherence tomographic image
CN102670165B (en) Image photographing apparatus and image photographing method
JP6702764B2 (en) Optical coherence tomographic data processing method, program for executing the method, and processing apparatus
US20120184846A1 (en) Imaging and visualization systems, instruments, and methods using optical coherence tomography
JP6798095B2 (en) Optical coherence tomography equipment and control programs used for it
JP6900651B2 (en) OCT device and OCT control program
JP2017047127A (en) Oct motion contrast data analysis device and oct motion contrast data analysis program
JP6624641B2 (en) Ophthalmic equipment
KR20200042895A (en) OCT in the oral cavity with color texture
JP2012016620A (en) Fundus observation device
JP2017136213A (en) Optical interference tomography device
JP6606846B2 (en) OCT signal processing apparatus and OCT signal processing program
JP6788397B2 (en) Image processing device, control method of image processing device, and program
CN110226915A (en) OCT data processing unit and method, storage medium
KR20200066593A (en) Devices, methods and programs for visualizing the vascular network of skin

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20161226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6310792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250