JP6310792B2 - Skin property evaluation device - Google Patents
Skin property evaluation device Download PDFInfo
- Publication number
- JP6310792B2 JP6310792B2 JP2014134895A JP2014134895A JP6310792B2 JP 6310792 B2 JP6310792 B2 JP 6310792B2 JP 2014134895 A JP2014134895 A JP 2014134895A JP 2014134895 A JP2014134895 A JP 2014134895A JP 6310792 B2 JP6310792 B2 JP 6310792B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- light
- position information
- skin
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 234
- 239000000523 sample Substances 0.000 claims description 124
- 238000012014 optical coherence tomography Methods 0.000 claims description 114
- 238000005259 measurement Methods 0.000 claims description 105
- 238000003384 imaging method Methods 0.000 claims description 99
- 230000003287 optical effect Effects 0.000 claims description 89
- 238000007664 blowing Methods 0.000 claims description 69
- 230000007246 mechanism Effects 0.000 claims description 48
- 238000004458 analytical method Methods 0.000 claims description 40
- 239000007921 spray Substances 0.000 claims description 40
- 238000003860 storage Methods 0.000 claims description 34
- 238000005507 spraying Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 21
- 230000004907 flux Effects 0.000 claims description 4
- 210000003491 skin Anatomy 0.000 description 246
- 238000007689 inspection Methods 0.000 description 134
- 238000012545 processing Methods 0.000 description 98
- 238000000034 method Methods 0.000 description 70
- 238000006073 displacement reaction Methods 0.000 description 57
- 230000008569 process Effects 0.000 description 48
- 230000008859 change Effects 0.000 description 23
- 230000004048 modification Effects 0.000 description 23
- 238000012986 modification Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 20
- 238000009826 distribution Methods 0.000 description 17
- 230000000877 morphologic effect Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 210000001519 tissue Anatomy 0.000 description 11
- 239000000835 fiber Substances 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 239000013307 optical fiber Substances 0.000 description 10
- 210000004207 dermis Anatomy 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000009434 installation Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 210000002615 epidermis Anatomy 0.000 description 6
- 230000010287 polarization Effects 0.000 description 6
- 238000007639 printing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 206010033675 panniculitis Diseases 0.000 description 5
- 230000003252 repetitive effect Effects 0.000 description 5
- 210000004304 subcutaneous tissue Anatomy 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000031700 light absorption Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 210000002445 nipple Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 210000000106 sweat gland Anatomy 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000004126 nerve fiber Anatomy 0.000 description 1
- 238000011867 re-evaluation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 210000004003 subcutaneous fat Anatomy 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
Description
この発明は、被検者の皮膚の性状を評価するための装置に関する。 The present invention relates to an apparatus for evaluating the properties of a subject's skin.
皮膚の性状を評価するための技術として、皮膚の応力に対応する表面特性を評価するために、皮膚表面に圧縮ガスを吹き付け、それによる皮膚表面の変位を測定する方法が知られている(たとえば、特許文献1、特許文献2を参照)。これら方法においては、レーザ変位計、超音波変位計、赤外線変位計、赤色LED(Light Emitting Diode)変位計、高速度カメラなどを用いて、皮膚表面の変位の測定が行われている。
As a technique for evaluating the properties of the skin, in order to evaluate the surface characteristics corresponding to the stress of the skin, a method of blowing a compressed gas on the skin surface and measuring the displacement of the skin surface due to this is known (for example, , See
被測定物体の断層データを取得するための技術として、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)が知られている。OCTは、干渉光学系を用いて被測定物体の断面における反射強度プロファイルを取得するデータ収集およびデータ処理技術である。OCTには、スペクトラルドメイン方式(たとえば、特許文献3を参照)、スウェプトソース方式(たとえば、特許文献4を参照)、フルフィールド(或いはインファス)方式(たとえば、特許文献5を参照)などがある。 As a technique for acquiring tomographic data of an object to be measured, optical coherence tomography (OCT) is known. OCT is a data collection and data processing technique for obtaining a reflection intensity profile in a cross section of an object to be measured using an interference optical system. OCT includes a spectral domain method (see, for example, Patent Document 3), a swept source method (see, for example, Patent Document 4), a full field (or interface) method (see, for example, Patent Document 5), and the like.
従来の皮膚性状評価技術は、非接触での評価が可能であるというメリットを有する一方、皮膚の深さ方向への変位を正面側から測定しているため、或る点における変位や或る領域における変位の分布を高確度で測定できないというデメリットも有していた。 While conventional skin property evaluation techniques have the advantage that non-contact evaluation is possible, the displacement in the depth direction of the skin is measured from the front side. In addition, there was a demerit that the distribution of the displacement in the can not be measured with high accuracy.
この発明は、高確度な皮膚の性状評価を非接触で行うことが可能な技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of performing highly accurate skin property evaluation without contact.
上記目的を達成するために、請求項1に記載の発明は、被検者の皮膚表面に気体を吹き付ける吹付部と、前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部と、被検者を異なる方向から実質的に同時に撮影する2以上の撮影部と、前記2以上の撮影部により取得された2以上の撮影画像を解析することにより、被検者に関する3次元位置情報を取得する解析部と、前記解析部により取得された前記3次元位置情報に基づいて、前記吹付部による気体の吹き付け領域、および前記断層データ取得部による光コヒーレンストモグラフィの実行領域の少なくとも一方の位置情報を取得する位置情報取得部とを備える皮膚性状評価装置である。
また、請求項2に記載の発明は、請求項1に記載の皮膚性状評価装置であって、前記2以上の撮影部による撮影野は、被検者の顔の少なくとも一部を含むことを特徴とする。
また、請求項3に記載の発明は、請求項1または請求項2に記載の皮膚性状評価装置であって、前記解析部は、前記2以上の撮影画像に基づいて、被検者の顔の3次元画像を生成する3次元画像生成部と、前記3次元位置情報として、前記3次元画像生成部により生成された3次元画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた対応情報を生成する対応情報生成部とを備えることを特徴とする。
また、請求項4に記載の発明は、請求項3に記載の皮膚性状評価装置であって、前記3次元画像を表示手段に表示させる表示制御部をさらに備え、前記表示手段に表示された前記3次元画像中の位置が指定されたときに、前記位置情報取得部は、前記対応情報に基づいて、前記第1の座標系における当該指定位置の座標値に対応する前記第2の座標系における座標値を取得することを特徴とする。
また、請求項5に記載の発明は、請求項4に記載の皮膚性状評価装置であって、前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、前記プローブを移動させるための移動機構と、前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御する移動制御部とをさらに備えることを特徴とする。
また、請求項6に記載の発明は、請求項4に記載の皮膚性状評価装置であって、光束を出力する投光部と、前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御する投光制御部とをさらに備えることを特徴とする。
また、請求項7に記載の発明は、請求項3に記載の皮膚性状評価装置であって、前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、前記プローブを移動させるための移動機構と、前記移動機構を制御する移動制御部と、前記吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶された記憶部とをさらに備え、前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、前記移動制御部は、前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御することを特徴とする。
また、請求項8に記載の発明は、請求項3に記載の皮膚性状評価装置であって、前記吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶された記憶部と、光束を出力する投光部と、前記投光部を制御する投光制御部と、をさらに備え、前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、前記投光制御部は、前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御することを特徴とする。
また、請求項9に記載の発明は、請求項7または請求項8に記載の皮膚性状評価装置であって、前記対象位置情報は、当該被検者に対する過去の評価における前記吹き付け対象領域の位置、または前記気体の吹き付け対象領域のデフォルト位置であることを特徴とする。
また、請求項10に記載の発明は、請求項1に記載の皮膚性状評価装置であって、前記2以上の撮影部は、動画撮影を実行し、前記解析部は、前記動画撮影により実質的に同時に取得された2以上のフレームをリアルタイムかつ順次に解析することにより、時系列に沿った複数の前記3次元位置情報を取得し、前記位置情報取得部は、前記複数の3次元位置情報に基づいて、時系列に沿った複数の前記位置情報をリアルタイムかつ順次に取得することを特徴とする。
また、請求項11に記載の発明は、請求項10に記載の皮膚性状評価装置であって、前記吹付部は、前記気体の噴出口が先端に形成されたノズルを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、前記プローブを移動させるための移動機構と、前記位置情報取得部により順次に取得される前記3次元位置情報に基づいて前記移動機構をリアルタイムで制御することにより、被検者の動きに対して前記プローブを追従させる移動制御部とをさらに備えることを特徴とする。
また、請求項12に記載の発明は、請求項11に記載の皮膚性状評価装置であって、前記移動制御部により前記移動機構が制御されているときに、前記位置情報取得部によりリアルタイムかつ順次に取得される前記位置情報に基づいて、被検者と前記プローブとの位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する第1の位置関係判定部をさらに含み、前記断層データ取得部は、前記第1の位置関係判定部により被検者と前記プローブとの位置関係が所定の位置関係であると判定されたことを受けて、光コヒーレンストモグラフィを開始することを特徴とする。
また、請求項13に記載の発明は、請求項1に記載の皮膚性状評価装置であって、前記2以上の撮影部は、第1の撮影野で撮影を行う第1群の撮影部と、前記第1の撮影野に含まれる第2の撮影野で撮影を行う第2群の撮影部とを含み、前記解析部は、前記第1群の撮影部により実質的に同時に取得された第1群のフレームを解析することにより、被検者に関する第1の3次元位置情報を取得し、前記第2群の撮影部により実質的に同時に取得された第2群のフレームを解析することにより、第2の3次元位置情報を取得し、前記第1の3次元位置情報と前記第2の3次元位置情報とを対応付けし、前記位置情報取得部は、前記第1の3次元位置情報および前記第2の3次元位置情報に基づいて、前記位置情報を取得することを特徴とする。
また、請求項14に記載の発明は、被検者の皮膚表面に気体を吹き付ける吹付部と、前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部とを備え、前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、前記測定アームと前記参照アームとの間の光路長差が実質的に固定された状態で、前記光学系は、前記干渉光の検出を反復的に実行し、前記光学系によりリアルタイムかつ反復的に取得される前記干渉光の検出結果に基づいて、被検者と前記光学系との位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する第2の位置関係判定部をさらに含み、前記断層データ取得部は、前記第2の位置関係判定部により被検者と前記光学系との位置関係が所定の位置関係であると判定されたことを受けて、前記断層データの取得を開始することを特徴とする皮膚性状評価装置である。
In order to achieve the above-mentioned object, the invention described in
The invention according to claim 2 is the skin property evaluation apparatus according to
The invention according to
The invention according to
The invention according to
The invention according to claim 6 is the skin property evaluation apparatus according to
The invention described in Claim 7 is a skin conditions evaluation device according to
The invention according to claim 8 is the skin property evaluation apparatus according to
The invention according to claim 9 is the skin property evaluation apparatus according to claim 7 or claim 8 , wherein the target position information is a position of the spray target area in a past evaluation with respect to the subject. Or a default position of the gas spray target area.
The invention described in claim 10 is the skin property evaluation apparatus according to
The invention according to
The invention according to
The invention described in
In addition, the invention according to
この発明によれば、高確度な皮膚の性状評価を非接触で行うことが可能である。 According to this invention, it is possible to perform highly accurate skin property evaluation in a non-contact manner.
この発明の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る皮膚性状評価装置は、たとえば美容目的または医療目的で使用され、皮膚の性状の評価、特に弾性特性に関する評価に用いられる。弾性特性は、外力に対する皮膚の形態の変化(または機能の変化)に関する特性であり、たとえば、弾力性、柔軟性、弛み、ハリ、つっぱり度、つっぱり方向等の特性のいずれかを含んでよい。なお、この明細書において引用された文献の記載内容を、この発明の実施形態の内容として援用することが可能である。 An example of an embodiment of the present invention will be described in detail with reference to the drawings. The skin property evaluation apparatus according to the present invention is used, for example, for cosmetic purposes or medical purposes, and is used for evaluation of skin properties, particularly for evaluation of elastic properties. The elastic property is a property related to a change in skin shape (or a change in function) with respect to an external force, and may include, for example, any of properties such as elasticity, flexibility, looseness, firmness, tightness, and tightness direction. In addition, it is possible to use the description content of the literature referred in this specification as the content of embodiment of this invention.
この明細書において、OCTによって取得されるデータを断層データと総称する。断層データは、たとえば、干渉光を検出するための検出器からの出力信号、および/または、この出力信号を処理して得られるデータ(処理データ)を含む。処理データとしては、たとえば、皮膚の深さ位置ごとの反射強度(後方散乱強度)を表す反射強度プロファイル(データ列、データ群、グラフ等)、この反射強度プロファイルから得られる画像データなどがある。画像データとしては、たとえば、深さ方向に沿う1次元画像データ(Aスキャンデータ)、深さ方向およびそれに直交する1方向に沿う2次元断面を表す2次元画像データ(Bスキャンデータ)、深さ方向に直交する2次元断面を表す2次元画像データ(Cスキャンデータ)、任意方向の2次元断面を表す2次元画像データ(多断面再構成像(MPR)等)、3次元領域を表す3次元画像データ(ボリュームデータ、ボクセルデータ、スタックデータ等)、位相の変化を表す位相画像データなどがある。さらに、たとえば疑似カラーやセグメンテーション情報(層または層境界を強調する情報)のような外部情報が付与された画像データを適用することも可能である。 In this specification, data acquired by OCT is collectively referred to as tomographic data. The tomographic data includes, for example, an output signal from a detector for detecting interference light and / or data (processing data) obtained by processing this output signal. The processing data includes, for example, a reflection intensity profile (data string, data group, graph, etc.) representing the reflection intensity (backscattering intensity) at each skin depth position, and image data obtained from the reflection intensity profile. As image data, for example, one-dimensional image data (A scan data) along the depth direction, two-dimensional image data (B scan data) representing a two-dimensional cross section along the depth direction and one direction orthogonal thereto, depth Two-dimensional image data (C scan data) representing a two-dimensional cross section orthogonal to the direction, two-dimensional image data representing a two-dimensional cross section in an arbitrary direction (multi-section reconstructed image (MPR), etc.), three-dimensional representing a three-dimensional region There are image data (volume data, voxel data, stack data, etc.), phase image data representing a phase change, and the like. Furthermore, it is also possible to apply image data to which external information such as pseudo color and segmentation information (information that emphasizes a layer or a layer boundary) is added.
〈第1の実施形態〉
[構成]
実施形態に係る皮膚性状評価装置の構成の一例を図1に示す。皮膚性状評価装置1は、被検者の皮膚表面Sに気体を吹き付ける機能を有する。この機能は、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含む構成によって実現される。また、皮膚性状評価装置1は、気体が吹き付けられている状態の皮膚の断層データをOCTを用いて取得する機能を有する。この機能は、OCTユニット20を含む構成によって実現される。さらに、皮膚性状評価装置1は、取得された断層データに基づいて皮膚の性状の評価情報を生成する機能を有する。この機能は、演算制御ユニット100を含む構成によって実現される。以下、皮膚性状評価装置1の各部についてより詳細に説明する。
<First Embodiment>
[Constitution]
An example of the configuration of the skin property evaluation apparatus according to the embodiment is shown in FIG. The skin
(気体を吹き付けるための構成)
まず、皮膚表面Sに気体を吹き付けるための構成について説明する。この構成は、前述のように、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含んでいてよい。
(Configuration for blowing gas)
First, the structure for spraying gas on the skin surface S will be described. As described above, this configuration may include the compressed
圧縮ガス生成部11は、気体を圧縮する作用を有する。そのために、圧縮ガス生成部11は、たとえば、シリンダと、このシリンダ内を移動するピストンと、このピストンを往復動させるアクチュエータ(ロータリーソレノイド等)とを有する(図示省略)。圧縮ガス生成部11(たとえばアクチュエータ)は、演算制御ユニット100によって制御される。
The compressed
連通管12は、圧縮ガス生成部11とヘッド部13とを連通する管状部材である。より具体的には、連通管12は、圧縮ガス生成部11の内部空間(シリンダ内の空間)と、ヘッド部13の内部空間とを連通する管状部材である。圧縮ガス生成部11により生成された圧縮ガスは、連通管12を通じてヘッド部13の内部空間に供給される。
The
ヘッド部13は、圧縮ガス生成部11により生成された圧縮ガスが収容される内部空間(チャンバ)を有する。ヘッド部13の前面(皮膚表面S側の面)にはノズル14が設けられている。ノズル14の中空領域の一端(後端)はチャンバに開放され、かつ、他端(前端)は前方に向かって開放されている。ヘッド部13の後面(皮膚表面Sとは反対側の面)13aの少なくとも一部は透光部材(ガラス板など)によって形成されている。
The
図示は省略するが、チャンバ内の気体の圧力を監視するための圧力センサを設けることができる。この圧力センサからの出力は演算制御ユニット100に送られる。演算制御ユニット100は、入力された圧力値に応じた制御を行う。この制御としては、たとえば、圧力値の表示制御、チャンバ内の気体の吹き付けタイミングの制御(たとえば開閉弁の制御)、圧縮ガス生成部11の動作制御などがある。なお、開閉弁は、たとえば電磁弁により構成される。開閉弁が閉状態であるときにはチャンバ内は遮蔽空間とされ、開閉弁が開状態であるときにはチャンバ内の気体がノズル14を介して放出される。
Although illustration is omitted, a pressure sensor for monitoring the pressure of the gas in the chamber can be provided. The output from the pressure sensor is sent to the
また、ノズル14の向きを変更するための機構や、ノズル14の中空領域の径(または中空領域の前端の開口径)を変更するための機構を設けることが可能である。これら機構の制御は演算制御ユニット100により実行される。
It is also possible to provide a mechanism for changing the orientation of the
(OCTユニット)
続いて、OCTユニット20の構成の一例を説明する。OCTユニット20には、被検者の皮膚の断層データを取得するための光学系が設けられている。この光学系は、従来のOCT装置と同様の構成を有する。すなわち、この光学系は、光源からの光を測定光と参照光とに分割し、測定アームを介して測定光を皮膚表面Sに照射し、測定アームを通過した測定光の戻り光と参照アームを通過した参照光との干渉光を検出するように構成されている。光学系による検出結果(検出信号)は演算制御ユニット100に送られる。
(OCT unit)
Next, an example of the configuration of the
スペクトラルドメイン方式のOCTが適用される場合、低コヒーレンス光源(広帯域光源)が用いられ、かつ、干渉光の複数のスペクトル成分が分光器(スペクトロメータ)により同時に検出される。スペクトロメータは、たとえば、回折格子とラインセンサとを含んで構成される。 When spectral domain OCT is applied, a low-coherence light source (broadband light source) is used, and a plurality of spectral components of interference light are simultaneously detected by a spectroscope (spectrometer). The spectrometer includes, for example, a diffraction grating and a line sensor.
一方、スウェプトソース方式のOCTが適用される場合、出力波長を時間的に高速で変化可能な波長走査型光源(波長掃引光源)が用いられ、かつ、この時間的な波長掃引に対応する複数の干渉光が光検出器によって順次に検出される。なお、これら方式以外にも、インファス方式やタイムドメイン方式のOCTを適用することも可能であるが、その場合には、OCTの方式に応じた公知の技術が適用される。 On the other hand, when a swept source type OCT is applied, a wavelength scanning light source (wavelength swept light source) capable of changing the output wavelength at a high speed in time is used, and a plurality of wavelength sweeping light sources corresponding to this temporal wavelength sweeping are used. Interfering light is sequentially detected by the photodetector. In addition to these methods, it is possible to apply the OCT of the interface method or the time domain method, but in this case, a known technique according to the OCT method is applied.
光源ユニット21は、所定の波長帯の光を出力する。たとえば、光源ユニット21は、1300nm付近に中心波長を有する波長帯の光、または1400nm付近に中心波長を有する波長帯の光を出力する。使用される波長帯は、たとえば、皮膚性状評価装置1の用途に応じて任意に設定される。たとえば、より深部の断層データの収集するためにより長波長帯に設定することができる。或いは、観察対象の組織に含まれる物質の吸光特性や、観察に悪影響を及ぼす物質の吸光特性などを考慮して波長帯を設定することができる。また、光源ユニット21は、複数の波長帯の光を同時にまたは別々のタイミングで出力可能に構成されていてよい。その場合、光源ユニット21に複数の光源が設けられていてよい。
The
光源ユニット21は、たとえば、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)や等の光出力デバイスを含んで構成される。また、スウェプトソースOCTが適用される場合、光源ユニット21は、このような光出力デバイスに加えて、ファイバーリンク共振器や波長選択フィルタ(たとえば、回折格子とポリゴンミラーとの組み合わせ、またはファブリー・ペロー・エタロン等)を含んでいてよい。光源ユニット21は、演算制御ユニット100によって制御される。
The
光源ユニット21から出力された光は、光ファイバ22によりファイバカプラ23に導かれて測定光と参照光に分割される。
The light output from the
ファイバカプラ23により生成された測定光は、光ファイバ24により導かれ、コリメータレンズユニット25により平行光束とされる。さらに、測定光は、光スキャナ26を経由してビームスプリッタ50に到達する。
The measurement light generated by the
光スキャナ26は、1次元的にまたは2次元的に測定光を偏向可能なデバイスである。光スキャナ26は、たとえば、ガルバノミラー、MEMS光スキャナ、ポリゴンミラー、レゾナントスキャナなどの任意のスキャニングデバイスを含む。光スキャナ26は、演算制御ユニット100によって制御される。
The
なお、図示は省略するが、測定光の光路(測定アーム)には、合焦レンズ、リレーレンズ、対物レンズなどが設けられていてよい。 Although illustration is omitted, a focusing lens, a relay lens, an objective lens, and the like may be provided in the optical path (measurement arm) of the measurement light.
また、ビームスプリッタ50は、OCTで使用される測定光と、表面観察光学系40(後述)で使用される光とを合成し、かつ分離するための構成を有する。ビームスプリッタ50としては、双方の光の波長帯に応じて、ハーフミラー、ダイクロイックミラーまたは偏光ビームスプリッタなどが適用される。
The
ビームスプリッタ50に到達した測定光は、ビームスプリッタ50により反射され、ヘッド部13の後面13aの透光部材を通じてヘッド部13の内部空間に入射し、ノズル14の中空領域を通過し、皮膚表面Sに照射される。測定光は、皮膚の様々な深さ位置において散乱(反射)される。皮膚からの測定光の戻り光(後方散乱光)は、往路と同じ経路を逆向きに進行してファイバカプラ23に導かれる。
The measurement light that has reached the
一方、ファイバカプラ23により生成された参照光は、光ファイバ27により導かれ、コリメータレンズユニット28により平行光束とされる。さらに、参照光は、参照ミラー29により反射され、往路と同じ経路を逆向きに進行してファイバカプラ23に導かれる。
On the other hand, the reference light generated by the
参照ミラー29は、コリメータレンズユニット28から出射した参照光の進行方向に対して実質的に直交する反射面を有する。参照ミラー29は、参照ミラー駆動部29Aにより、その反射面の法線方向に移動される。参照ミラー駆動部29Aの制御は、演算制御ユニット100により実行される。
The
なお、図示は省略するが、参照光の光路(参照アーム)には、参照光の光量を調整するための光アッテネータや、参照光の偏光状態を調整するための偏光コントローラなどが設けられていてよい。光アッテネータおよび偏光コントローラの制御は、演算制御ユニット100により実行される。
Although not shown, the optical path (reference arm) of the reference light is provided with an optical attenuator for adjusting the amount of the reference light, a polarization controller for adjusting the polarization state of the reference light, and the like. Good. Control of the optical attenuator and the polarization controller is executed by the
ファイバカプラ23は、測定光の戻り光と、参照ミラー29を経由した参照光とを干渉させる。これにより生成された干渉光は、光ファイバ30によって検出部31に導かれる。検出部31は、干渉光(またはその各スペクトル成分)を検出して信号を生成し、この検出信号を演算制御ユニット100に送る。
The
(表面観察光学系)
表面観察光学系40は、皮膚表面Sの画像を取得する。表面観察光学系40は、たとえば、皮膚表面Sの動画撮影を行う。表面観察光学系40は、演算制御ユニット100によって制御される。なお、表面観察光学系40は、実施形態において必須の構成要素ではない。表面観察光学系40が設けられない場合、ビームスプリッタ50も不要である。このような構成については後述する。
(Surface observation optical system)
The surface observation
表面観察光学系40は、皮膚表面Sを照明するための照明光学系を含んでいてよい。照明光学系は、所定の波長帯の光(たとえば赤外光、近赤外光、可視光など)を皮膚表面Sに照射する。照明光学系は、たとえばノズル14の周囲の位置など、皮膚表面Sの近傍位置に設けられた、1以上の光源を含んでいてよい。或いは、照明光学系は、ビームスプリッタ50を介して皮膚表面Sを照明するように構成されていてよい。照明光学系を設ける代わりに、環境光(室内の照明設備からの光、太陽光など)を利用するように構成してもよい。
The surface observation
表面観察光学系40は、撮影光学系を含む。撮影光学系は、CCDイメージセンサやCMOSイメージセンサなどの撮像素子と、皮膚表面Sにて反射された光をこの撮像素子に導くための光学素子群を含む。この光学素子群は、たとえば、対物レンズ、合焦レンズ、リレーレンズ、結像レンズ、絞り部材、フィルタなどを含んでいてよい。
The surface observation
(演算制御ユニット)
演算制御ユニット100は、皮膚性状評価装置1の各部の制御を実行する。さらに、演算制御ユニット100は、各種の演算処理(算出処理、解析処理など)を実行する。たとえば、演算制御ユニット100は、OCTユニット20により取得された断層データに基づいて、皮膚の性状の評価情報を生成する。また、演算制御ユニット100は、OCTユニット20からの検出信号に基づいてOCT画像(Bスキャン像、Cスキャン像、3次元画像など)を生成するよう構成されていてよい。これら処理については後述する。
(Calculation control unit)
The
演算制御ユニット100は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、皮膚性状評価装置1を制御するためのコンピュータプログラムが記憶される。演算制御ユニット100は、各種の回路基板、たとえばOCT画像を生成するための回路基板を備えていてもよい。また、演算制御ユニット100は、操作デバイス(入力デバイス)や表示デバイスを備えていてもよい。或いは、外部の操作デバイス(入力デバイス)や表示デバイスを利用するよう構成してもよい。
The
気体を吹き付けるための構成、OCTユニット20および演算制御ユニット100は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。たとえば、皮膚性状評価装置1は、プローブと、本体部と、プローブと本体部とを接続するケーブルとを備えていてよい。プローブは、被検者の皮膚表面Sに近接配置されるユニットであり、気体を吹き付けるための構成のうちの少なくともノズル14と、測定アームの少なくとも先端部とを含む。ケーブルには、連通管12や、測定光を導く光ファイバなどが設けられる。本体部には、それら以外の構成要素が設けられる。この場合、表面観察光学系40は、別個に設けられていてよい。
The configuration for blowing gas, the
[制御系の構成]
皮膚性状評価装置1の制御系の構成について図2を参照しつつ説明する。なお、図2に示す構成要素のうちいずれかが搭載されていなくてもよい。たとえば、図2に示す構成から表面観察光学系40を削除することができる。
[Control system configuration]
The configuration of the control system of the skin
(制御部)
皮膚性状評価装置1の制御系は、制御部110を中心に構成される。制御部110は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部110には、主制御部111と記憶部112が設けられている。
(Control part)
The control system of the skin
(主制御部)
主制御部111は前述の各種制御を行う。たとえば、制御部110は、圧縮ガス生成部11の制御、気体の吹き付けタイミングの制御(開閉弁13bの制御)、OCTユニット20の各部の制御、ユーザインターフェイス200の制御などを行う。また、主制御部111は、記憶部112にデータを書き込む処理や、記憶部112からデータを読み出す処理を行う。
(Main control unit)
The
(記憶部)
記憶部112は、各種のデータを記憶する。記憶部112に記憶されるデータとしては、たとえば、OCTにより取得された断層データ、表面観察光学系40により取得された画像データ、被検者情報などがある。被検者情報は、被検者IDや氏名などの被検者に関する情報を含む。また、記憶部112には、皮膚性状評価装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The
(断層データ生成部)
断層データ生成部120は、検出部31からの検出信号に基づいて、断層データを生成する。スペクトラルドメインOCTやスウェプトソースOCTが適用される場合、断層データ生成部120は、従来と同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理を実行する。他の方式のOCTが適用される場合、断層データ生成部120は、その方式に応じた公知の処理を実行する。
(Fault data generator)
The tomographic
なお、前述したように、断層データは、反射強度プロファイル、Aスキャンデータ、Bスキャンデータ、Cスキャンデータ、MPRデータ、ボリュームデータ、スタックデータ、位相画像データなどのうち、少なくとも1つを含んでいてよい。また、断層データは、疑似カラー情報やセグメンテーション情報などを含んでいてもよい。また、断層データ生成部120は、画像データの輝度補正や分散補正を実行するよう構成されてもよい。このような断層データの生成には公知の技術が適用される。
As described above, the tomographic data includes at least one of a reflection intensity profile, A scan data, B scan data, C scan data, MPR data, volume data, stack data, phase image data, and the like. Good. The tomographic data may include pseudo color information, segmentation information, and the like. In addition, the tomographic
断層データ生成部120は、たとえば、前述の回路基板および/またはマイクロプロセッサを含んで構成される。すなわち、断層データ生成部120は、ハードウェア的および/またはソフトウェア的に断層データを生成する。なお、この明細書において、「画像データ」と、それに基づく「画像」とを同一視することがある。
The tomographic
(データ処理部)
データ処理部130は、各種のデータ処理を実行する。データ処理部130は、断層データ生成部120により生成された断層データにデータ処理(信号処理、画像処理、解析処理等)を施す。たとえば、データ処理部130は、断層データ生成部120により生成された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する。また、データ処理部130は、断層データ生成部120により生成された断層データに基づいて、被検者の皮膚の所定の組織の形態を表す形態情報を生成することができる。また、データ処理部130は、表面観察光学系40により取得された画像データにデータ処理(画像処理、解析処理等)を施すことができる。
(Data processing part)
The
(評価情報を生成するための構成)
被検者の皮膚の性状に関する評価情報を生成するための構成についていくつかの例を説明する。
(Configuration for generating evaluation information)
Several examples of the configuration for generating evaluation information regarding the properties of the subject's skin will be described.
(第1の構成例)
評価情報を生成するための第1の構成例を説明する。本例において、データ処理部130は、データ位置特定部131と、評価情報生成部132とを備える。
(First configuration example)
A first configuration example for generating evaluation information will be described. In this example, the
データ位置特定部131は、断層データ生成部120により生成された断層データにおいて皮膚の所定の層に相当するデータ位置を特定する。所定の層は、皮膚表面Sを含む1以上の層であってよい。皮膚は、表皮、真皮および皮下組織からなる多層組織である。表皮の表面が皮膚表面Sである。真皮には、毛細血管、乳頭層、乳頭下層、網状層、マイスナー小体、血管、汗腺、神経線維などが存在する。皮下組織には、血管、皮下脂肪、汗腺、パチニ小体などが存在する。データ位置特定部131は、これら組織(層組織)のうちのいずれかに相当する画像領域を特定する。
The data position specifying
データ位置特定部131は、断層データの種別に応じた処理を実行する実行される。一例として、断層データは図3Aに示す反射強度プロファイルPであるとする。データ位置特定部131は、反射強度プロファイルPの特徴値(最大値、最小値、極大値、極小値等)や、反射強度プロファイルPの形状や、皮膚の解剖学的データや臨床データ(たとえば、組織と深さ位置(z座標値)との一般的なまたは個別的な関連)などに基づいて、皮膚の所定の層の深さ位置を特定する。
The data position specifying
たとえば、データ位置特定部131は、反射光量Lが非ゼロである最小のz座標値であるz0を特定し、これを当該計測位置(Aライン)における皮膚表面Sの位置とする。或いは、データ位置特定部131は、反射光量Lが最大値をとるz座標値であるz0を特定し、これを当該Aラインにおける皮膚表面Sの位置とする。また、データ位置特定部131は、反射強度プロファイルPの極小値が存在するz座標値のうち最小のz座標値であるz1を特定し、これを当該Aラインにおける表皮と真皮との境界(表皮の下面、真皮の上面)の位置とする。同様にして、真皮と皮下組織との境界の位置z2や、乳頭層、乳頭下層、網状層等の組織の位置が特定される。
For example, the data
他の例として、断層データは図3Bに示す画像Gであるとする。画像Gは、x方向に配列された複数のAスキャンデータにより形成される。各Aスキャンデータは、反射強度プロファイルの光量の値に輝度値を割り当てることにより得られる画像データである。画像Gにおいてx座標値xkに配置されたAスキャンデータAkは、図3Aの反射強度プロファイルPに相当する。符号H0は皮膚表面Sに相当する画像領域であり、符号H1は表皮と真皮との境界に相当する画像領域であり、符号H2は真皮と皮下組織との境界に相当する画像領域である。 As another example, it is assumed that the tomographic data is an image G shown in FIG. 3B. The image G is formed by a plurality of A scan data arranged in the x direction. Each A scan data is image data obtained by assigning a luminance value to the light amount value of the reflection intensity profile. The A scan data A k arranged at the x coordinate value x k in the image G corresponds to the reflection intensity profile P in FIG. 3A. Symbol H 0 is an image region corresponding to the skin surface S, symbol H 1 is an image region corresponding to the boundary between the epidermis and dermis, and symbol H 2 is an image region corresponding to the boundary between the dermis and subcutaneous tissue. is there.
データ位置特定部131は、画像Gの画素値(輝度値)や、描画されているオブジェクトの形態(組織のサイズ、形状、位置等)などに基づいて、皮膚の所定の層の深さ位置を特定する。たとえば、データ位置特定部131は、OCT分野において公知のセグメンテーション処理を実行することにより、皮膚表面Sに相当する画像領域H0を特定し、その深さ位置を特定する。画像領域H0の深さ位置は、画像領域H0を構成する複数の画素に相当する複数の位置のうちの1つ以上の値(たとえば最大値、最小値、極大値、極小値等)でもよいし、これら複数の位置に演算処理を施して得られる1つ以上の値(たとえば、平均値、中央値、最頻値等の統計値)でもよい。
The data position specifying
評価情報生成部132は、データ位置特定部131により特定されたデータ位置に処理(演算処理、解析処理等)を施すことにより、皮膚の性状に関する評価情報を生成する。皮膚の弾性特性に関する評価情報が生成される場合の例を説明する。
The evaluation
第1の例において、皮膚性状評価装置1は、断層データの取得を少なくとも2回実行する。2回以上の断層データ取得処理のうち少なくとも1回は、気体の吹き付け中に実行されてよい。データ位置特定部131は、取得された2以上の断層データのそれぞれについて、上記のようなデータ位置特定処理を実行する。
In the first example, the skin
図4は、2回の断層データ取得処理により得られた2つの画像G1およびG2を示す。画像G1は、皮膚表面Sに気体が吹き付けられていない状態で実行されたOCTに基づく。画像G2は、皮膚表面Sに気体が吹き付けられている状態で実行されたOCTに基づく。画像G2においては、皮膚表面Sに相当する画像領域H0’が、x座標値xkを中心に凹んでいる(つまり−z方向に撓んでいる)。 FIG. 4 shows two images G1 and G2 obtained by two tomographic data acquisition processes. The image G1 is based on OCT performed in a state where no gas is blown onto the skin surface S. The image G2 is based on OCT performed in a state where gas is sprayed on the skin surface S. In the image G2, the image region H 0 ′ corresponding to the skin surface S is recessed with respect to the x coordinate value x k (that is, bent in the −z direction).
データ位置特定部131は、少なくともx座標値xkにおけるAスキャンデータAkについて、皮膚表面Sに相当する位置のz座標値を取得する。それにより、画像G1における座標値z0と、画像G2における座標値z0’とが得られる。なお、他のx座標値におけるAスキャンデータを処理することもできるし、皮膚の他の層に相当する画像領域のz座標値(たとえば、表皮と真皮との境界に相当する画像領域H1およびH1’のz座標値z1およびz1’、真皮と皮下組織との境界に相当する画像領域H2およびH2’のz座標値z2およびz2’)を求めることもできる。
The data position specifying
評価情報生成部132は、データ位置特定部131により取得された一対のz座標値z0およびz0’の差を算出することにより、x座標値xkにおける2つの画像G1およびG2の間の変位を求める。この変位は、x座標値xkに相当する皮膚表面Sの位置における、気体の吹き付けによる皮膚の変位量(凹み量)を表す。なお、変位の次元は任意であり、たとえば、実空間における距離の次元(mm等)や、画像空間における距離の次元(ピクセル数、座標系のスケールによる距離の次元等)であってよい。また、2つのz座標値の差の算出処理は、一方から他方を減算する処理を少なくとも含み、その差の値の絶対値を算出する処理をさらに含んでいてよい。また、2つのz座標値に対して順序を付与し、第1のz座標値から第2のz座標値を減算するように構成してよい。また、2つのz座標値を比較し、値の大きい側から値の小さい側を減算するように構成してよい。
The evaluation
さらに、評価情報生成部132は、求められた変位に基づいて評価情報を生成する。評価情報は、この変位の値自体を含んでもよいし、この変位の値を処理して得られた情報を含んでもよい。後者の例として、弾力特性の指標(たとえば、弾力性、柔軟性、弛み、ハリ、つっぱり度等)に関する複数の範囲(程度)と変位の値とが関連付けられた関連情報をあらかじめ記憶しておき、取得された変位の値に対応する範囲(程度)を求めて評価情報として用いることができる。
Furthermore, the evaluation
一例として、関連情報は、指標「弾力性」に関する複数の程度「高」「中」「低」と、変位の値(D)とを次のようにして関連付けているとする:「高:D≧D1」「中:D1>D≧D2」「低:D2>D」。評価情報生成部132は、取得された変位の値Dと2つの閾値D1およびD2とを比較することにより、この変位の値Dが含まれる範囲を特定し、この範囲に関連付けられた「弾力性の程度」を特定し、特定された「弾力性の程度」を含む評価情報を生成する。
As an example, it is assumed that the related information associates a plurality of degrees “high”, “medium”, and “low” with respect to the index “elasticity” and the displacement value (D) as follows: “High: D ≧ D 1 ”“ Medium: D 1 > D ≧ D 2 ”“ Low: D 2 > D ”. The evaluation
なお、指標に関する複数の範囲はこのような「程度」に限定されず、たとえば年齢やスコア等の数値情報などであってもよい。また、評価情報は、文字列情報や数値情報には限定されず、画像情報であってもよい。たとえば、指標の数値情報の大きさが表示色で表現された画像情報を作成することができる。或いは、複数のAスキャンデータについて変位が算出された場合、これらAスキャンデータの位置に対応する変位の分布情報が得られる。この場合、変位の分布情報を表す画像情報(マップ)を作成することが可能である。図4に示す例においては、x方向における変位の分布を表すマップが得られる。なお、画像として取得される断層データはAスキャンデータやBスキャンデータ(図4の例)には限定されず、ボリュームデータ等であってよい。ボリュームデータの一部または全体について変位が算出される場合、2次元マップ(z方向に直交するxy面における分布情報)を作成することが可能である。複数の層についてそれぞれ変位が求められる場合、上記のような文字列情報や数値情報や画像情報を層ごとに生成し、それらを含む評価情報を生成することができる。 The plurality of ranges related to the index is not limited to such “degree”, and may be numerical information such as age and score, for example. Further, the evaluation information is not limited to character string information and numerical information, and may be image information. For example, it is possible to create image information in which the size of the numerical information of the index is expressed in display colors. Alternatively, when displacements are calculated for a plurality of A scan data, displacement distribution information corresponding to the positions of these A scan data is obtained. In this case, it is possible to create image information (map) representing displacement distribution information. In the example shown in FIG. 4, a map representing the distribution of displacement in the x direction is obtained. The tomographic data acquired as an image is not limited to A scan data or B scan data (example in FIG. 4), and may be volume data or the like. When the displacement is calculated for part or all of the volume data, it is possible to create a two-dimensional map (distribution information in the xy plane orthogonal to the z direction). When displacement is calculated for each of a plurality of layers, character string information, numerical information, and image information as described above can be generated for each layer, and evaluation information including them can be generated.
(第2の構成例)
評価情報を生成するための第2の構成例を説明する。本例においては、気体が吹き付けられている状態の皮膚の断層データが所定の時間間隔で反復的に取得される。なお、気体の吹き付けの終了後にも断層データの反復的な取得を継続してもよい。また、気体の吹き付けの開始前に、断層データの反復的な取得を開始するようにしてもよい。断層データの反復的な取得は、皮膚の実質的に同じ領域に対して実行される。それにより、皮膚の実質的に同じ領域に関する、時系列に並ぶ複数の断層データが得られる。さらに、このようにして反復的に取得された複数の断層データに基づいて評価情報が生成される。
(Second configuration example)
A second configuration example for generating evaluation information will be described. In this example, tomographic data of skin in a state where gas is blown is repeatedly acquired at predetermined time intervals. Note that iterative acquisition of tomographic data may be continued even after the end of gas blowing. Further, it is also possible to start to acquire tomographic data repeatedly before the start of gas blowing. Iterative acquisition of tomographic data is performed on substantially the same area of skin. Thereby, a plurality of tomographic data arranged in time series regarding substantially the same region of the skin is obtained. Furthermore, evaluation information is generated based on a plurality of pieces of tomographic data repeatedly acquired in this way.
本例においても、データ処理部130は、データ位置特定部131と、評価情報生成部132とを備える。データ位置特定部131は、時系列に並ぶ複数の断層データのそれぞれにおいて皮膚の所定の層に相当するデータ位置を特定する。各断層データに対して実行される処理は、第1の構成例の場合と同様である。
Also in this example, the
時系列に並ぶ複数の断層データから取得された変位の値のデータ列の例を図5に示す。横軸は時間tを表し、縦軸は変位Dを表す。グラフMは、時系列(時間軸t)に沿って並ぶ複数の変位の値をプロットし、これらプロット点をつなげることにより得られる。複数のプロット点を接続する処理は、たとえば、近似曲線を求める処理を含む。 An example of a data string of displacement values acquired from a plurality of tomographic data arranged in time series is shown in FIG. The horizontal axis represents time t, and the vertical axis represents displacement D. The graph M is obtained by plotting a plurality of displacement values arranged along the time series (time axis t) and connecting these plot points. The process of connecting a plurality of plot points includes, for example, a process of obtaining an approximate curve.
時間t=t0は気体の吹き付けが開始されたタイミングを表し、時間t=t1は気体の吹き付けが終了されたタイミングを表す。すなわち、グラフMを作成するために実行された断層データの反復的な取得は、気体の吹き付けの開始よりも前に開始され(t=0)、気体が吹き付けられている間に継続され(t=t0〜t1)、気体の吹き付けが停止された後に終了された(t>t1)。 Time t = t 0 represents the timing at which gas blowing has started, and time t = t 1 represents the timing at which gas blowing has ended. That is, iterative acquisition of the tomographic data performed to create the graph M is started before the start of gas blowing (t = 0) and continues while the gas is being blown (t = T 0 to t 1 ), after the gas blowing was stopped (t> t 1 ).
評価情報生成部132は、このような変位の時系列変化に基づいて評価情報を生成する。この処理は、たとえば、変位の変化量や変化速度や変化時間に基づいて実行される。変化量に基づく処理の例として、変位の最大値や極大値を求め、その値から評価情報を生成することができる。変化速度に基づく処理の例として、グラフMの傾きを求め、その値から評価情報を生成することができる。変化時間に基づく処理の例として、変位が第1の値から第2の値まで変化するのに掛かった時間を求め、その値から評価情報を生成することができる。
The evaluation
グラフ等のデータ列を用いて評価情報を生成する処理の例を説明する。図6には、2つのグラフM1およびM2が示されている。これらグラフM1およびM2は、たとえば、異なる被検者の皮膚に関するデータ、同じ被検者の異なる部位に関するデータ、または、同じ被検者の同じ部位について異なるタイミングで得られたデータである。異なるデータを比較する場合、所定のタイミングに相当するデータ位置が一致するように複数のデータを重ね合わせることができる。たとえば、図6に示す例では、気体の吹き付けが終了された時間t=t1に相当するデータ位置が一致するように2つのグラフM1およびM2が重ね合わされている。なお、複数のデータを実際に重ね合わせる必要はなく、基準となるデータ位置(たとえば時間t=t1に相当するデータ位置)を設定するだけでもよい。基準となるデータ位置は、データの比較方法に応じて設定される。 An example of processing for generating evaluation information using a data string such as a graph will be described. In FIG. 6, two graphs M1 and M2 are shown. These graphs M1 and M2 are, for example, data on the skin of different subjects, data on different parts of the same subject, or data obtained at different timings on the same part of the same subject. When comparing different data, a plurality of data can be overlaid so that data positions corresponding to predetermined timings coincide. For example, in the example shown in FIG. 6, two graphs M1 and M2 so that the data positions match corresponding to the time spraying of gas is terminated t = t 1 is superposed. Note that it is not necessary to actually superimpose a plurality of data, and a reference data position (for example, a data position corresponding to time t = t 1 ) may be set. The reference data position is set according to the data comparison method.
グラフM1とグラフM2との顕著な違いは、気体の吹き付けを停止した後の変位Dの時系列変化である。具体的には、グラフM1においては、気体の吹き付けが停止された後、変位Dが緩やかに減少しているが、グラフM2においては、気体の吹き付けが停止された後、変位Dが急速に減少している。また、気体の吹き付けが停止されてから変位Dが所定値(たとえばD=0、D=(最大値)/2など)まで低下するのに掛かる時間は、グラフM1よりもグラフM2の方が短い。このようなグラフの状態の相違は、気体が吹き付けられた部位の弾性の違い(皮膚のハリの違い)を反映している。 A significant difference between the graph M1 and the graph M2 is a time-series change of the displacement D after the gas blowing is stopped. Specifically, in the graph M1, the displacement D gradually decreases after the gas blowing is stopped, but in the graph M2, the displacement D rapidly decreases after the gas blowing is stopped. doing. The time taken for the displacement D to decrease to a predetermined value (for example, D = 0, D = (maximum value) / 2, etc.) after the gas blowing is stopped is shorter in the graph M2 than in the graph M1. . Such a difference in the state of the graph reflects a difference in elasticity (a difference in the elasticity of the skin) at the site where the gas is sprayed.
評価情報生成部132は、たとえば、気体の吹き付けが停止された後の任意の1以上の時間tにおけるグラフの傾きを算出し、この傾きの値に基づいて弾性の程度を表す情報を取得する。このとき、評価情報生成部132は、あらかじめ作成されて記憶された、傾きと弾性の程度とが関連付けられた情報を参照する。
For example, the evaluation
第2の例として、評価情報生成部132は、気体の吹き付けが停止されてから特定時間が経過したタイミングにおける変位Dの値を取得し、この変位Dの値に基づいて弾性の程度を表す情報を取得する。このとき、評価情報生成部132は、あらかじめ作成されて記憶された、変位と弾性の程度とが関連付けられた情報を参照する。
As a second example, the evaluation
第3の例として、評価情報生成部132は、気体の吹き付けが停止された後において、特定の変位Dの値に対応する時間tを取得し、この時間tの値に基づいて弾性の程度を表す情報を取得する。このとき、たとえば、取得された時間tと、吹き付け停止時間t1との差Δtに基づいて処理が実行される。なお、評価情報生成部132は、あらかじめ作成されて記憶された、時間t(または経過時間Δt)と弾性の程度とが関連付けられた情報を参照して処理を実行する。
As a third example, the evaluation
(第3の構成例)
評価情報を生成するための第3の構成例を説明する。本例においては、気体の吹き付け圧を変更可能な構成が適用される。吹き付け圧の値は、たとえば、前述の圧力センサにより取得される。或いは、制御部110による圧縮ガス生成部11の制御内容(たとえばピストンの位置)に基づいて吹き付け圧を求めることも可能である。
(Third configuration example)
A third configuration example for generating evaluation information will be described. In this example, a configuration in which the gas blowing pressure can be changed is applied. The value of spray pressure is acquired by the above-mentioned pressure sensor, for example. Or it is also possible to obtain | require a spraying pressure based on the control content (for example, position of a piston) of the compressed gas production |
データ処理部130は、断層データ生成部120により生成された断層データと、圧力センサや制御部11等によって取得された気体の吹き付け圧とに基づいて、評価情報の生成を行う。この処理の具体例として、まず、データ処理部130は、断層データに基づいて皮膚表面Sの変位を算出する。次に、データ処理部130は、算出された変位を吹き付け圧で除算することにより、単位圧力当たりの変位を求める。或いは、データ処理部130は、吹き付け圧を変位で除算することにより、単位変位量を引き起こすための吹き付け圧を求める。そして、データ処理部130は、求められた値に基づいて評価情報を生成する。
The
以上、3つの構成例を説明したが、評価情報を生成するための構成はこれらに限定されない。また、3つの構成例のうちの2つ以上を任意に組み合わせることが可能である。 Although three configuration examples have been described above, the configuration for generating evaluation information is not limited to these. Further, two or more of the three configuration examples can be arbitrarily combined.
(形態情報生成部)
形態情報生成部133は、皮膚の所定の組織の形態を表す形態情報を生成する。形態情報は、組織に関するサイズ情報、形状情報、位置情報、分布情報、個数情報、推定重量などがある。また、形態情報は、皮膚の2次元断面または3次元ボリュームの形態を表す画像(形態画像)であってもよい。
(Form information generator)
The form
形態情報の生成が行われる場合、皮膚の2次元領域または3次元領域に対するOCTが実行される。2次元領域のOCTから得られる断層データは、皮膚の2次元断面に相当する断層データであり、その一例として、2次元断面における反射強度プロファイル、Bスキャンデータ、Cスキャンデータなどがある。3次元領域のOCTから得られる断層データは、皮膚の3次元ボリュームに相当する断層データであり、その一例として、3次元領域における反射強度プロファイル、複数のBスキャンデータ、複数のCスキャンデータ、ボリュームデータなどがある。2次元領域や3次元領域は、気体の吹き付け領域の少なくとも一部を含む皮膚の部位に相当する。すなわち、気体が吹き付けられる皮膚表面Sの範囲の一部または全部が、OCT計測の対象領域として設定される。 When generation of morphological information is performed, OCT is performed on a two-dimensional region or a three-dimensional region of skin. The tomographic data obtained from the OCT of the two-dimensional region is tomographic data corresponding to the two-dimensional cross section of the skin, and examples thereof include a reflection intensity profile, B scan data, and C scan data in the two dimensional cross section. The tomographic data obtained from the OCT of the three-dimensional region is tomographic data corresponding to the three-dimensional volume of the skin. As an example, the reflection intensity profile, the plurality of B scan data, the plurality of C scan data, the volume in the three dimensional region There is data. The two-dimensional region and the three-dimensional region correspond to a portion of the skin including at least a part of the gas blowing region. That is, part or all of the range of the skin surface S to which the gas is blown is set as a target region for OCT measurement.
この場合、データ処理部130は、2次元領域または3次元領域について取得された断層データに基づいて、皮膚の性状に関する分布情報または統計値を表す評価情報を生成する。分布情報(マップ等)や統計値(平均値等)については前述した。
In this case, the
形態情報生成部133の説明に戻る。形態情報が形態画像を含む場合、形態情報生成部133は、OCT画像を生成するための公知の処理を実行する。なお、断層データ自体が画像であり、かつ形態情報が形態画像のみである場合、形態情報生成部133は特に処理を行う必要はない。なお、断層データがOCT画像であり、このOCT画像を加工することによって形態画像が生成される場合(たとえば、セグメンテーション情報を付加する場合)、形態情報生成部133はOCT画像を加工する処理を実行する。
Returning to the description of the form
分布情報(評価情報)および形態情報の双方が同じ断層データから生成される場合、分布情報中の位置と形態情報中の位置との間に自然な対応関係を付与することができる。たとえば、変位マップと形態画像とを重ね合わせて表示させることができる。或いは、変位マップおよび形態画像の一方における位置が指定されたときに、この指定位置に対応する他方における位置を提示することができる。 When both distribution information (evaluation information) and form information are generated from the same tomographic data, a natural correspondence can be given between a position in the distribution information and a position in the form information. For example, the displacement map and the morphological image can be displayed in a superimposed manner. Or when the position in one of a displacement map and a form image is designated, the position in the other corresponding to this designated position can be shown.
なお、異なる断層データから生成された分布情報と形態情報との間に、位置の対応関係を付与することも可能である。たとえば、分布情報の基になった第1の断層データから得られる第1の画像と、形態情報の基になった第2の断層データから得られる第2の画像との位置合わせ(画像マッチング)を実行し、この画像マッチングの結果(アフィン変換等の座標変換)を、分布情報と形態情報との間の位置の対応関係として用いることができる。 It is also possible to give a positional correspondence between distribution information and form information generated from different tomographic data. For example, alignment (image matching) between a first image obtained from first tomographic data based on distribution information and a second image obtained from second tomographic data based on morphological information And the result of this image matching (coordinate transformation such as affine transformation) can be used as a positional correspondence between distribution information and form information.
以上のように機能するデータ処理部130は、たとえば、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
The
(ユーザインターフェイス)
ユーザインターフェイス200は、皮膚性状評価装置1とそのユーザとの間のマンマシンインターフェイスである。ユーザインターフェイス220は、情報を表示する機能と、皮膚性状評価装置1を操作するための機能と、皮膚性状評価装置1に情報を入力するための機能とを有する。ユーザインターフェイス200の少なくとも一部は、皮膚性状評価装置1の外部に設けられていてよい。たとえば、ユーザインターフェイス200の機能の少なくとも一部を、皮膚性状評価装置1との間でデータの送信および/または受信が可能なデバイスやコンピュータに設けることができる。
(User interface)
The
ユーザインターフェイス200には、表示デバイス210と操作デバイス220とが含まれる。表示デバイス210は、制御部110による制御を受けて情報を表示する。表示デバイス210の例として、皮膚性状評価装置1に設けられている表示デバイスや、外部ディスプレイや、携帯端末(たとえばタブレット端末やスマートフォン)などがある。
The
操作デバイス220は、皮膚性状評価装置1の操作、および/または、皮膚性状評価装置1への情報入力に用いられる。制御部110は、操作デバイス220からの信号に応じた処理を実行する。操作デバイス220の例として、皮膚性状評価装置1に設けられている操作デバイス(たとえばボタンやスイッチやキー)や、外部コンピュータの操作デバイス(たとえばキーボードやマウスやトラックボール)や、携帯端末(たとえばタブレット端末やスマートフォン)などがある。
The
表示デバイス210と操作デバイス220は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。また、表示デバイス210に表示されたグラフィカルユーザインターフェイス(GUI)と、操作デバイス220とを用いて、操作や情報入力を行うようにしてもよい。
The
[作用および効果]
実施形態の皮膚性状評価装置の作用および効果について説明する。
[Action and effect]
The operation and effect of the skin property evaluation apparatus according to the embodiment will be described.
実施形態の皮膚性状評価装置は、吹付部と、断層データ取得部と、情報生成部とを含む。吹付部は、被検者の皮膚表面に気体を吹き付ける。この実施形態において、吹付部は、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含む。断層データ取得部は、吹付部により気体が吹き付けられている状態の皮膚の断層データを、OCTを用いて取得する。この実施形態において、断層データ取得部は、OCTユニット20と、断層データ生成部120とを含む。情報生成部は、断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する。この実施形態において、情報生成部は、データ処理部130を含む。
The skin property evaluation apparatus according to the embodiment includes a spraying unit, a tomographic data acquisition unit, and an information generation unit. A spraying part sprays gas on the subject's skin surface. In this embodiment, the spray unit includes a compressed
このような皮膚性状評価装置によれば、気体の吹き付けによる皮膚の状態の変化(変位等)の検出をOCTを利用して高精度かつ高確度で行えるので、高確度な皮膚の性状評価を非接触で行うことが可能である。 According to such a skin property evaluation apparatus, a change in skin state (displacement, etc.) due to gas blowing can be detected with high accuracy and high accuracy using OCT, so that highly accurate skin property evaluation is not possible. It can be done in contact.
実施形態の皮膚性状評価装置において、断層データ取得部が、気体が吹き付けられている状態の皮膚の断層データを少なくとも1回取得し、かつ、情報生成部が、断層データ取得部により取得された1以上の断層データに基づいて評価情報を生成するように構成することができる。この構成の例として、皮膚表面から所定距離だけ離れた位置にプローブが配置された状態で、気体の吹き付け中に1回OCTを実行し、この所定距離から得られる皮膚表面の位置と、1つの断層データから得られる皮膚表面の位置との差分(気体の吹き付けによる皮膚表面の変位に相当する)を求め、この差分の値に基づいて評価情報を生成するように構成することが可能である。或いは、気体が吹き付けられていない状態で1回OCTを実行し、さらに、気体が吹き付けられている状態で1回OCTを実行することにより、気体の吹き付けによる皮膚表面の変位を求めるように構成することも可能である。
In the skin property evaluation apparatus of the embodiment, the tomographic data acquisition unit acquires the tomographic data of the skin in a state where gas is blown at least once, and the information generation unit is acquired by the tomographic
実施形態の皮膚性状評価装置において、断層データ取得部が、気体が吹き付けられている状態の皮膚の断層データを所定の時間間隔で反復的に取得し、かつ、情報生成部が、断層データ取得部により反復的に取得された複数の断層データに基づいて評価情報を生成するように構成することができる。この構成によれば、断層データの時系列変化に基づいて評価情報を生成することが可能である。 In the skin property evaluation apparatus according to the embodiment, the tomographic data acquisition unit repeatedly acquires the tomographic data of the skin in a state where the gas is being sprayed at predetermined time intervals, and the information generation unit includes the tomographic data acquisition unit. The evaluation information can be generated based on a plurality of pieces of tomographic data repeatedly obtained by the above. According to this configuration, it is possible to generate evaluation information based on time-series changes in tomographic data.
さらに、断層データ取得部が、気体の吹き付けの終了後にも皮膚の断層データを所定の時間間隔で反復的に取得し、かつ、情報生成部が、気体の吹き付け中および吹き付けの終了後に断層データ取得部により反復的に取得された複数の断層データに基づいて評価情報を生成するように構成することができる。この構成によれば、吹き付けの終了後における断層データの時系列変化に基づいて評価情報を生成することが可能である。 Furthermore, the tomographic data acquisition unit repeatedly acquires the tomographic data of the skin at predetermined time intervals even after the completion of the gas blowing, and the information generating unit acquires the tomographic data during the gas blowing and after the completion of the blowing. The evaluation information can be generated based on a plurality of pieces of tomographic data repeatedly acquired by the unit. According to this configuration, it is possible to generate the evaluation information based on the time series change of the tomographic data after the completion of the spraying.
さらに、断層データ取得部が、気体の吹き付けの開始前に断層データの反復的な取得を開始し、かつ、情報生成部が、気体の吹き付けの開始前、吹き付け中および吹き付けの終了後に断層データ取得部により反復的に取得された複数の断層データに基づいて評価情報を生成するように構成することができる。この構成によれば、気体が吹き付けられていない状態における層の位置を参照して層の性状を求めることができ、さらには、吹き付けの終了後における断層データの時系列変化に基づいて評価情報を生成することができる。 Furthermore, the tomographic data acquisition unit starts to acquire tomographic data repeatedly before the start of gas blowing, and the information generation unit acquires tomographic data before the start of gas blowing, during the blowing, and after the end of the blowing. The evaluation information can be generated based on a plurality of pieces of tomographic data repeatedly acquired by the unit. According to this configuration, it is possible to obtain the properties of the layer with reference to the position of the layer in a state where no gas is blown, and furthermore, evaluation information is obtained based on the time-series change of the tomographic data after the completion of the blowing. Can be generated.
実施形態において、情報生成部は、データ位置特定部(131)と、評価情報生成部(132)とを含んでいてよい。データ位置特定部は、断層データ取得部により取得された断層データにおいて皮膚の所定の層に相当するデータ位置を特定するよう構成される。評価情報生成部は、データ位置特定部により特定されたデータ位置に基づいて評価情報を生成するよう構成される。この構成によれば、所定の層の位置の特定結果から評価情報を生成することができる。 In the embodiment, the information generating unit may include a data position specifying unit (131) and an evaluation information generating unit (132). The data position specifying unit is configured to specify a data position corresponding to a predetermined layer of the skin in the tomographic data acquired by the tomographic data acquiring unit. The evaluation information generating unit is configured to generate evaluation information based on the data position specified by the data position specifying unit. According to this configuration, the evaluation information can be generated from the result of specifying the position of the predetermined layer.
さらに、断層データ取得部が、断層データの取得を少なくとも2回実行し、データ位置特定部が、断層データ取得部により取得された2以上の断層データのそれぞれについてデータ位置の特定を実行し、かつ、評価情報生成部が、データ位置特定部により特定された2以上のデータ位置の間の変位に基づいて評価情報を生成するように構成することができる。この構成によれば、所定の層の変位から、気体の吹き付けによる皮膚の変位に基づく評価情報を生成することができる。 Further, the tomographic data acquisition unit executes tomographic data acquisition at least twice, the data position specifying unit executes data position specification for each of the two or more tomographic data acquired by the tomographic data acquisition unit, and The evaluation information generating unit can be configured to generate the evaluation information based on the displacement between two or more data positions specified by the data position specifying unit. According to this configuration, it is possible to generate evaluation information based on the displacement of the skin due to the blowing of gas from the displacement of the predetermined layer.
実施形態において、情報生成部は、データ位置特定部(131)と、評価情報生成部(132)とを含んでいてよい。データ位置特定部は、断層データ取得部により反復的に取得された複数の断層データのそれぞれにおいて皮膚の所定の層に相当するデータ位置を特定するよう構成される。評価情報生成部は、データ位置特定部により特定された複数のデータ位置の時系列変化に基づいて評価情報を生成するよう構成される。この構成によれば、所定の層の位置の時系列変化から評価情報を生成することができる。なお、データ位置の時系列変化に基づく評価情報の生成処理には、たとえば、データ位置の変化量に基づく処理、データ位置の変化速度に基づく処理、第1のデータ位置から第2のデータ位置までの移行に掛かった時間に基づく処理などがある。 In the embodiment, the information generating unit may include a data position specifying unit (131) and an evaluation information generating unit (132). The data position specifying unit is configured to specify a data position corresponding to a predetermined layer of the skin in each of the plurality of tomographic data repeatedly acquired by the tomographic data acquiring unit. The evaluation information generation unit is configured to generate evaluation information based on a time series change of a plurality of data positions specified by the data position specifying unit. According to this configuration, the evaluation information can be generated from the time series change of the position of the predetermined layer. The evaluation information generation process based on the time-series change of the data position includes, for example, a process based on the change amount of the data position, a process based on the change speed of the data position, and from the first data position to the second data position. Processing based on the time taken for migration.
実施形態において、異なる2以上の層のそれぞれについて評価情報を生成することができる。より具体的には、データ位置特定部が、2以上の層のそれぞれについてデータ位置の特定を実行し、かつ、評価情報生成部が、2以上の層のそれぞれについて評価情報の生成を個別に実行するように構成することができる。この構成によれば、皮膚の性状の評価を複数の層について個別に行うことができる。 In the embodiment, evaluation information can be generated for each of two or more different layers. More specifically, the data position specifying unit executes data position specification for each of two or more layers, and the evaluation information generation unit individually executes generation of evaluation information for each of two or more layers. Can be configured to. According to this configuration, the evaluation of skin properties can be performed individually for a plurality of layers.
実施形態において、気体の吹き付け圧を変更可能に構成することができる。この場合、情報生成部は、断層データと気体の吹き付け圧とに基づいて評価情報を生成するように構成されていてよい。この構成によれば、気体の吹き付け圧を適宜に変更しつつ評価を行うことが可能である。 In the embodiment, the gas spraying pressure can be configured to be changeable. In this case, the information generation unit may be configured to generate evaluation information based on the tomographic data and the gas blowing pressure. According to this configuration, the evaluation can be performed while appropriately changing the gas blowing pressure.
実施形態において、断層データ取得部が、吹付部による気体の吹き付け領域の少なくとも一部を含む皮膚の2次元領域または3次元領域に対して光コヒーレンストモグラフィを実行し、かつ、情報生成部が、2次元領域または3次元領域について取得された断層データに基づいて、皮膚の性状に関する分布情報または統計値を表す評価情報を生成するよう構成することができる。この構成によれば、皮膚の性状がどのように分布しているか、または、或る領域における皮膚の性状の傾向を取得することができる。 In the embodiment, the tomographic data acquisition unit performs optical coherence tomography on the two-dimensional region or the three-dimensional region of the skin including at least a part of the gas spray region by the spray unit, and the information generation unit includes: Based on the tomographic data acquired for the two-dimensional region or the three-dimensional region, it is possible to generate evaluation information representing distribution information or statistical values related to skin properties. According to this configuration, it is possible to acquire how the skin properties are distributed or the tendency of the skin properties in a certain region.
さらに、情報生成部は、皮膚の2次元領域または3次元領域について取得された断層データに基づいて、皮膚の所定の組織の形態を表す形態情報を生成する形態情報生成部を含んでいてよい。この構成によれば、皮膚の性状と皮膚の形態の双方を把握することができ、さらには、これらを関連付けて把握することができる。 Furthermore, the information generation unit may include a morphological information generation unit that generates morphological information representing a predetermined tissue form of the skin based on the tomographic data acquired for the two-dimensional region or the three-dimensional region of the skin. According to this configuration, it is possible to grasp both the properties of the skin and the form of the skin, and furthermore it is possible to grasp them in association with each other.
〈第2の実施形態〉
この実施形態に係る皮膚性状評価装置は、被検者をステレオ撮影する機能を有し、それにより取得されたステレオ撮影画像を利用して各種の処理を実行する。この実施形態の皮膚性状評価装置の構成要素は、特に言及しない限り、第1の実施形態における同じ符号の構成要素と同様であってよい。
<Second Embodiment>
The skin property evaluation apparatus according to this embodiment has a function of photographing a subject in stereo, and executes various processes using a stereo image obtained thereby. The components of the skin property evaluation apparatus of this embodiment may be the same as those of the first embodiment unless otherwise specified.
[構成]
この実施形態の皮膚性状評価装置の構成例を図7に示す。この皮膚性状評価装置は、第1の実施形態の構成に加えて、2以上の撮影部300と、プローブ移動機構310とを有する。なお、図7に示す構成要素のうちいずれかが搭載されていなくてもよい。たとえば、図7に示す構成から表面観察光学系40を削除することができる。
[Constitution]
A configuration example of the skin property evaluation apparatus of this embodiment is shown in FIG. This skin property evaluation apparatus includes two or
(撮影部)
2以上の撮影部300は、被検者を異なる方向から実質的に同時に撮影する。この実施形態では、2つの撮影部を含む場合について特に詳しく説明するが、撮影部の個数は2以上の任意の個数であってよい。また、この実施形態では、表面観察光学系40とは別個に撮影部300を設けているが、表面観察光学系40を用いて被検者の撮影を行うことができる。つまり、2以上の撮影部300のうちの1つを表面観察光学系40が担うようにしてもよい。
(Shooting part)
The two or
なお、「実質的に同時」とは、2以上の撮影部300による撮影において、被検者の動きを無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検者が実質的に同じ位置(向き)にあるときの画像を2以上の撮影部300によって取得することができる。
Note that “substantially simultaneously” indicates that, in imaging by two or
また、2以上の撮影部300による撮影は動画撮影でも静止画撮影でもよい。動画撮影の場合、撮影開始タイミングを合わせるための制御や、フレームレートや各フレームの撮影タイミングの制御などを行うことにより、上記した実質的な同時撮影を実現することができる。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。各撮影部300の制御は主制御部111によって実行される。
Further, the shooting by the two or
(プローブ移動機構)
プローブ移動機構310は、プローブを移動させるために用いられる。第1の実施形態において説明したように、プローブは、被検者の皮膚表面Sに近接配置されるユニットであり、気体を吹き付けるための構成のうちの少なくともノズル14と、OCTのための手段のうち測定アームの少なくとも先端部とを含む。プローブ移動機構310は、駆動力を発生するアクチュエータと、発生された駆動力をプローブに伝達する伝達機構とを含む。アクチュエータは、後述する移動制御部114の制御を受けて動作する。
(Probe moving mechanism)
The
(制御部)
制御部110は、主制御部111および記憶部112に加えて、表示制御部113と、移動制御部114とを含む。表示制御部113は、第1の実施形態の主制御部111と同様の表示制御機能を有し、表示デバイス210を制御する。移動制御部114は、プローブ移動機構310を制御する。表示制御部113および移動制御部114が実行する制御の内容については後述する。
(Control part)
The
(データ処理部)
データ処理部130は、解析部140を含む。解析部140は、3次元画像生成部141と、対応情報生成部142とを含む。さらに、データ処理部130は、位置情報取得部143を含む。
(Data processing part)
The
(解析部)
解析部140は、2つの撮影部300により実質的に同時に取得された2つの撮影画像を解析することにより、被検者に関する3次元位置情報を取得する。3次元位置情報は、たとえば、被検者の所定部位の3次元位置を含む。この所定部位は、たとえば、気体が吹き付けられる領域、またはその近傍位置である。この実施形態において、気体が吹き付けられる領域は、顔の部分(たとえば頬)であるとする。3次元位置情報は、3次元画像生成部141および対応情報生成部142が以下の処理を実行することによって生成される。
(Analysis Department)
The
(3次元画像生成部)
3次元画像生成部141は、2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の顔の3次元画像(立体顔画像)を生成する。この処理は、公知の画像合成処理によって行われる。なお、立体顔画像は、たとえば、立体写真、または立体モデルである。立体モデルは、各撮影画像または立体写真をモデル化(抽象化、模式化)して得られる画像であり、たとえばポリゴンモデルやワイヤーフレームである。立体モデルを生成する処理には公知の技術が用いられる。
(3D image generator)
The three-dimensional
なお、立体顔画像を生成する処理においては、2つの撮影部300の設置位置(視差)を示す情報が用いられる。各撮影部300の設置位置を示す情報は、あらかじめ取得される。撮影部300が移動可能である場合には、たとえば、位置センサにより検出された撮影部300の位置に基づいて、または、撮影部300を移動するための制御の内容に基づいて、撮影時における撮影部300の位置を取得することができる。
Note that in the process of generating a stereoscopic face image, information indicating the installation positions (parallax) of the two photographing
(対応情報生成部)
対応情報生成部142は、3次元位置情報として、対応情報を生成する。対応情報は、3次元画像生成部141により生成された立体顔画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた情報である。
(Correspondence information generator)
The correspondence
立体顔画像を構成する画素の位置は、3次元座標系である第1の座標系(画像座標系)により定義される。また、被検者が存在する実空間内の位置は、3次元座標系である第2の座標系(実空間座標系)により定義される。実空間座標系の原点は、皮膚性状評価装置の近傍の所定位置に設定される。この原点位置は、たとえば、2つの撮影部300の設置位置を基準にあらかじめ設定される。また、実空間座標系の3つの座標軸は、たとえば、鉛直方向の第1の座標軸と、この第1の座標軸に直交する面内に位置し、互いに直交する第2および第3の座標軸である。
The positions of the pixels constituting the stereoscopic face image are defined by a first coordinate system (image coordinate system) which is a three-dimensional coordinate system. The position in the real space where the subject exists is defined by a second coordinate system (real space coordinate system) which is a three-dimensional coordinate system. The origin of the real space coordinate system is set at a predetermined position in the vicinity of the skin property evaluation apparatus. This origin position is set in advance with reference to the installation positions of the two photographing
画像座標系と実空間座標系との対応付けは、たとえば、2つの撮影部300の設置位置を介して行われる。すなわち、上記のように2つの撮影部300の設置位置に基づき実空間座標系を定義し、かつ、2つの撮影部300の設置位置(視差)に基づき撮影画像の合成処理を実行することにより画像座標系を定義する。それにより、実空間座標系と画像座標系との間の対応関係(座標変換)を取得することができる。
The association between the image coordinate system and the real space coordinate system is performed via the installation positions of the two photographing
或いは、撮影画像または立体顔画像に描出されているオブジェクト(被検者の一部、装置の一部、被検者および装置の近傍に位置する物体の一部など)を基準位置(たとえば原点)とし、それに基づいて双方の座標系を設定することにより、実空間座標系と画像座標系との間の対応関係(座標変換)を取得してもよい。 Alternatively, an object (a part of the subject, a part of the device, a part of the subject and a part of the object located in the vicinity of the device, etc.) depicted in the photographed image or the three-dimensional face image is a reference position (for example, the origin) Then, by setting both coordinate systems based on this, the correspondence (coordinate transformation) between the real space coordinate system and the image coordinate system may be acquired.
対応情報(3次元位置情報)は、たとえば上記のようにして取得された対応関係を含む。 The correspondence information (three-dimensional position information) includes, for example, the correspondence acquired as described above.
(位置情報取得部)
位置情報取得部143は、解析部140により取得された3次元位置情報(たとえば対応情報)に基づいて、気体の吹き付け領域およびOCTの実行領域のうちの一方または双方の位置を表す位置情報を取得する。この処理については後述する。なお、吹き付け領域の位置情報は、たとえば、気体の吹き付け対象となる被検者の皮膚表面上の位置を表す情報でもよいし、この吹き付け対象位置に気体を吹き付けるためのプローブの位置を表す情報でもよい。また、OCTの実行領域の位置情報は、たとえば、OCTによる画像化対象領域(走査領域)となる被検者の皮膚表面上の位置および/または皮膚内部の位置を表す情報でもよいし、この画像化対象領域のOCTを行うためのプローブの位置を表す情報でもよい。
(Location information acquisition unit)
The position
[動作]
実施形態の皮膚性状評価装置の動作について説明する。以下、いくつかの典型的な動作例を説明するが、実施形態に係る動作はこれらに限定されるものではない。
[Operation]
The operation of the skin property evaluation apparatus according to the embodiment will be described. Hereinafter, some typical operation examples will be described, but the operation according to the embodiment is not limited thereto.
(第1の動作例:図8)
第1の動作例において、皮膚性状評価装置は、立体顔画像に対して手動で指定された検査位置(皮膚の性状の評価対象となる位置)にプローブを移動して検査を実施するよう構成される。
(First operation example: FIG. 8)
In the first operation example, the skin property evaluation device is configured to perform an inspection by moving the probe to an inspection position (a position to be evaluated for skin properties) manually specified for a stereoscopic face image. The
(S1:被検者の顔の立体撮影を行う)
椅子に腰掛けた状態またはベッドに横になっている状態の被検者の顔が撮影野に含まれるように、2つの撮影部300を用いて撮影を行う。この撮影は、静止画撮影でもよいし、動画撮影でもよい。静止画撮影の場合、主制御部111は、実質的に同時に撮影を行うように2つの撮影部300を制御する。動画撮影の場合、主制御部111は、2つの撮影部300の撮影タイミング(フレームレート)を同期させる処理を行ってよい。また、動画撮影の場合、主制御部111は、2つの撮影部300により実質的に同時に取得された一対の撮影画像を対応付けて後段の処理に送る(つまり、データ処理部130に送る)。
(S1: Performs stereoscopic shooting of the face of the subject)
Photographing is performed using the two photographing
(S2:立体顔画像を生成する)
3次元画像生成部141は、ステップS1において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S2: Generate a 3D face image)
The three-dimensional
(S3:対応情報を生成する)
対応情報生成部142は、ステップS2において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S3: Generate correspondence information)
The correspondence
(S4:立体顔画像を表示する)
表示制御部113は、ステップS2において生成された立体顔画像を表示デバイス210に表示させる。
(S4: Display a 3D face image)
The
(S5:立体顔画像に対して検査位置を指定する)
ユーザは、操作デバイス220を用いることにより、ステップS4において表示された立体顔画像に対して検査位置を指定する。この操作の一例として、ユーザは、立体顔画像とともに表示デバイス210に表示されているカーソル(たとえばマウスポインタ)を立体顔画像上の所望の位置に移動し、指定位置を確定する操作(たとえばマウスクリック)を実行する。
(S5: Specify the inspection position for the 3D face image)
The user uses the
他の例として、主制御部111は、検査位置の候補のリスト(たとえばドロップダウンリストやチェックボックス)を立体顔画像とともに表示させる。ユーザは、このリストに列挙されている候補のうち所望のものを選択する。この操作は、たとえばマウスを用いて行われる。
As another example, the
検査位置の候補は、顔の部位名であってよい。たとえば、候補として「頬の中心部」、「頬の上部」、「頬の下部」などが設けられる。この場合、解析部140(または記憶部112)は、各候補に関する位置情報をあらかじめ記憶している。この位置情報は、たとえば、顔のいくつかの特徴点(たとえば、目頭、目尻、頬の頂点、鼻の頂点、口角、正中線などのうちのいくつか)に対する当該候補の相対位置を示す情報を含む。リスト中の候補が指定されると、解析部140は、ステップS2で生成された立体顔画像(またはステップS1で取得された撮影画像)を解析することによりいくつかの特徴点を特定し、これら特徴点と位置情報とに基づいて、指定された候補に対応する検査位置(立体顔画像中の位置、画像座標系における座標値)を求める。
The candidate for the inspection position may be a face part name. For example, “center of cheek”, “upper cheek”, “lower cheek”, and the like are provided as candidates. In this case, the analysis unit 140 (or the storage unit 112) stores in advance position information regarding each candidate. This position information includes, for example, information indicating the relative position of the candidate with respect to some feature points of the face (for example, some of the corners of the eyes, the corners of the eyes, the apex of the cheeks, the apex of the nose, the mouth corner, the midline) Including. When candidates in the list are specified, the
指定可能な検査位置の個数は1つには限定されず、2以上であってもよい。その場合、ユーザは、上記のような典型的な操作を所望の検査位置ごとに実行する。 The number of inspection positions that can be specified is not limited to one, and may be two or more. In that case, the user performs a typical operation as described above for each desired inspection position.
指定された検査位置を示す情報は位置情報取得部143に送られる。この情報は、たとえば、この立体顔画像の画像座標系により表現された座標値である。
Information indicating the designated inspection position is sent to the position
(S6:顔における検査対象領域を特定する)
位置情報取得部143は、ステップS3において生成された対応情報と、ステップS5において指定された検査位置とに基づいて、被検者の顔における検査対象領域を特定する。検査対象領域とは、後段の処理において検査が実施される皮膚の範囲(または、この検査を行うためのプローブの位置)を示す。
(S6: Specify the inspection target area in the face)
The position
この処理の一例として、位置情報取得部143は、ステップS5において取得された画像座標系の座標値に対応する実空間座標系の座標値を、対応情報を参照して特定する。
As an example of this process, the position
(S7:プローブを移動する)
移動制御部114は、ステップS6において特定された検査対象領域にプローブを移動させるようにプローブ移動機構310を制御する。この処理は、たとえば、ステップS6で取得された実空間座標系の座標値が示す位置にプローブを移動させるようにして実行される。
(S7: Move the probe)
The
(S8:検査を行う)
ステップS7においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。この検査は、たとえば、第1の実施形態において説明されたいずれかの手法によって実行される。また、検査の開始トリガは、ステップS7におけるプローブの移動の終了でもよいし、ユーザによる指示でもよいし、これら以外でもよい。
(S8: Perform inspection)
After the probe is moved in step S7, the
なお、ステップS5において2以上の検査位置が指定された場合、ステップS7におけるプローブの移動とステップS8における検査との組み合わせが、少なくとも検査位置の個数と同数だけ実行される。たとえば、3つの検査位置が指定された場合、主制御部111は、第1の検査位置へのプローブの移動と当該検査位置での検査を実行させ、次に、第2の検査位置へのプローブの移動と当該検査位置での検査を実行させ、さらに、第3の検査位置へのプローブの移動と当該検査位置での検査を実行させる。
When two or more inspection positions are designated in step S5, the combination of the probe movement in step S7 and the inspection in step S8 is executed at least as many times as the number of inspection positions. For example, when three inspection positions are designated, the
(S9:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS8における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報(ID、氏名等)や立体顔画像等の任意の情報をさらに関連付けてもよい。
(S9: Save evaluation information and inspection position information)
The
検査位置情報は、皮膚の性状評価の対象となった位置を示す情報である。検査位置情報は、たとえば、ステップS5において立体顔画像に対して指定された検査位置を示す情報(画像座標系における座標値)、および、ステップS6において特定された位置(実空間座標系における座標値)のうち、少なくとも一方を含む。 The examination position information is information indicating a position that is an object of skin property evaluation. The inspection position information includes, for example, information indicating the inspection position designated for the stereoscopic face image in step S5 (coordinate values in the image coordinate system) and the position specified in step S6 (coordinate values in the real space coordinate system). ) At least one of them.
以上で、この動作例に関する処理は終了となる。 This is the end of the processing related to this operation example.
なお、この動作例により取得された評価情報を出力(表示、印刷、データ送信等)する場合、評価情報のみを出力してもよいし、評価情報およびその関連情報(検査位置情報、立体顔画像、被検者識別情報、検査日時等、評価情報に関連する各種情報のうちの少なくとも1つ)を出力してもよい。たとえば、検査位置を示す情報(マーカ等)がオーバーレイされた立体顔画像とともに評価情報を出力することができる。 When the evaluation information acquired by this operation example is output (display, printing, data transmission, etc.), only the evaluation information may be output, or the evaluation information and related information (examination position information, stereoscopic face image) , At least one of various types of information related to the evaluation information, such as the subject identification information and the examination date / time, may be output. For example, evaluation information can be output together with a three-dimensional face image on which information (marker or the like) indicating an inspection position is overlaid.
他の例として、2以上の検査位置における評価情報が取得された場合、これら検査位置の分布を示す分布情報と、検査位置ごとの評価情報とを関連付けて出力することができる。分布情報の具体例として、2以上の検査位置に関する上記候補の名称を示す文字列情報や、2以上の検査位置を示すマーカがオーバーレイされた立体顔画像がある。また、出力における関連付けの例として、上記の文字列情報(またはマーカ)と評価情報との配置を関連付けたり、それらの表示色を関連付けたりすることができる。 As another example, when evaluation information at two or more inspection positions is acquired, distribution information indicating the distribution of these inspection positions and evaluation information for each inspection position can be output in association with each other. Specific examples of the distribution information include character string information indicating the names of the candidates related to two or more inspection positions and a three-dimensional face image overlaid with markers indicating two or more inspection positions. Moreover, as an example of the association in the output, the arrangement of the character string information (or marker) and the evaluation information can be associated, or the display colors thereof can be associated.
(第2の動作例:図9)
第2の動作例において、皮膚性状評価装置は、あらかじめ記憶された1以上の検査位置にプローブを移動して検査を実施するよう構成される。
(Second operation example: FIG. 9)
In the second operation example, the skin property evaluation apparatus is configured to perform the inspection by moving the probe to one or more inspection positions stored in advance.
あらかじめ記憶された検査位置は、気体が吹き付けられる領域(吹き付け対象領域)の位置を表す情報である対象位置情報を含む。対象位置情報は、皮膚の部分領域の位置を示す情報でもよいし、その部分領域に気体を吹き付けるためのプローブの位置を示す情報でもよい。また、気体の吹き付け対象領域とOCT計測の対象領域とは互いの少なくとも一部同士が重なっているので、対象位置情報は、OCT計測の対象領域を示す情報であってもよい。 The inspection position stored in advance includes target position information that is information indicating the position of a region to which gas is sprayed (a spray target region). The target position information may be information indicating the position of the partial area of the skin, or information indicating the position of the probe for blowing gas to the partial area. Further, since at least a part of the gas spray target region and the target region for OCT measurement overlap each other, the target position information may be information indicating the target region for OCT measurement.
また、対象位置情報は、過去に実施された検査の位置を示す情報を含んでもよいし、典型的な検査位置を示す情報を含んでもよい。前者の情報の例として、第1の動作例のステップS9において保存された検査位置情報がある。後者の情報の例として、第1の動作例のステップS5において説明した検査位置の候補およびその位置情報がある。以下、前者の例について説明する。 Further, the target position information may include information indicating the position of an inspection performed in the past, or may include information indicating a typical inspection position. As an example of the former information, there is inspection position information stored in step S9 of the first operation example. As an example of the latter information, there are the inspection position candidate and its position information described in step S5 of the first operation example. Hereinafter, the former example will be described.
(S21:検査位置情報を読み出す)
主制御部111は、記憶部112(または、通信回線上の記憶装置や可搬記録媒体等)に記憶されている検査位置情報を読み出す。この処理は、たとえば次のようにして実行される。まず、記憶部112には、被検者識別情報に関連付けられて検査位置情報が保存されている。皮膚性状評価装置は、手入力や被検者カードの読み取りなどの入力手法によって入力された被検者識別情報を受け付ける。主制御部111は、この被検者識別情報に関連付けられた検査位置情報を記憶部112から検索する。それにより、当該被検者に対して過去に実施された検査で適用された検査位置が取得される。
(S21: Read inspection position information)
The
なお、当該被検者について複数の検査位置情報が記憶されている場合、これらのうち所定の1つ(たとえば最新のもの)を選択的に取得するようにしてよい。また、複数の検査位置情報が記憶されている場合であって、一の検査位置情報に含まれる1以上の検査位置と、他の検査位置情報に含まれる1以上の検査位置とが少なくとも一部異なる場合、これら検査位置の集合のうちから任意の検査位置を読み出すようにしてもよい。或いは、1以上の検査位置情報が含まれている場合であって、2以上の検査位置が含まれている場合、全ての検査位置情報を読み出し、これらに含まれる全ての検査位置を表示し、これら検査位置のうちユーザが選択した検査位置を後段の処理において適用するように構成することも可能である。 In addition, when several test | inspection position information is memorize | stored about the said subject, you may make it acquire selectively predetermined one (for example, the newest thing) among these. Further, when a plurality of inspection position information is stored, at least a part of one or more inspection positions included in one inspection position information and one or more inspection positions included in other inspection position information is stored. If they are different, an arbitrary inspection position may be read from the set of inspection positions. Alternatively, when one or more inspection position information is included, and when two or more inspection positions are included, all inspection position information is read, and all inspection positions included in these are displayed. Of these inspection positions, the inspection position selected by the user can be applied in the subsequent processing.
(S22:被検者の顔の立体撮影を行う)
次に、2つの撮影部300を用いた立体撮影を実行される。
(S22: Perform stereoscopic shooting of the face of the subject)
Next, stereoscopic imaging using the two
(S23:立体顔画像を生成する)
3次元画像生成部141は、ステップS22において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S23: Generate a 3D face image)
The three-dimensional
(S24:対応情報を生成する)
対応情報生成部142は、ステップS23において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S24: Generate correspondence information)
The correspondence
(S25:顔における検査対象領域を特定する)
位置情報取得部143は、ステップ21において読み出された検査位置情報と、ステップS25において生成された対応情報とに基づいて、被検者の顔における検査対象領域を特定する。
(S25: Specify the inspection target area in the face)
The position
この処理の具体例を説明する。位置情報取得部143は、検査位置情報が示す座標値(画像座標系における座標値であるとする)に対応する、ステップS23で生成された立体顔画像の画像座標系における座標値を特定する。被検者の顔を実質的に同一の位置に固定した状態で検査を行う構成が適用される場合、検査位置情報が示す座標値をそのまま検査対象領域として適用することができる。
A specific example of this process will be described. The position
一方、検査ごとに被検者の顔の位置が異なることが想定されている場合には、過去の検査で適用された画像座標系(第1の画像座標系)と、今回の検査で適用される画像座標系(第2の画像座標系)との間の対応付けが行われる。この場合における処理は、たとえば次のようにして実行される:ステップS21において、過去の検査で適用された立体顔画像を読み出す;この過去の立体顔画像とステップS23で生成された立体顔画像との位置合わせ(画像マッチング)を実行する;この位置合わせの結果(アフィン変換等の座標変換)を用いて検査位置情報が示す座標値(第1の画像座標系における座標値)を変換することにより、今回の検査で適用される第2の画像座標系における座標値を求める。それにより、検査対象領域が得られる。 On the other hand, when it is assumed that the position of the subject's face is different for each examination, it is applied in the image coordinate system (first image coordinate system) applied in the past examination and the current examination. Is associated with the image coordinate system (second image coordinate system). The processing in this case is executed, for example, as follows: In step S21, the stereoscopic face image applied in the past examination is read; the past stereoscopic face image and the stereoscopic face image generated in step S23 By performing the alignment (image matching) of this position; by converting the coordinate value (coordinate value in the first image coordinate system) indicated by the inspection position information using the result of this alignment (coordinate conversion such as affine transformation) Then, coordinate values in the second image coordinate system applied in the current examination are obtained. Thereby, an inspection object area is obtained.
(S26:プローブを移動する)
移動制御部114は、ステップS25において特定された検査対象領域にプローブを移動させるようにプローブ移動機構310を制御する。
(S26: Move the probe)
The
(S27:検査を行う)
ステップS26においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S27: Perform inspection)
After the probe is moved in step S26, the
(S28:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS27における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。
(S28: Save evaluation information and inspection position information)
The
この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第1の動作例と同様であってよい。 The output (display, printing, data transmission, etc.) of the evaluation information acquired by this operation example may be the same as that of the first operation example.
なお、この動作例においては、過去の評価情報と最新の評価情報とを比較可能に出力することが可能である。たとえば、これら評価情報を並べて提示するように出力を行うことが可能である。 In this operation example, it is possible to output past evaluation information and latest evaluation information so that they can be compared. For example, it is possible to output so that these pieces of evaluation information are presented side by side.
また、評価情報の時系列変化を表す情報(を表示することができる。具体的には、たとえば、横軸が時間を表し、縦軸が評価値を表す座標系に、過去の1回以上の検査でそれぞれ得られた評価結果と、今回の検査で得られた評価結果とをプロットすることにより、折れ線グラフや棒グラフ等の時系列変化情報を提示するように出力を行うことが可能である。 In addition, information indicating a time-series change of evaluation information can be displayed. Specifically, for example, a coordinate system in which the horizontal axis represents time and the vertical axis represents an evaluation value can be displayed at least once in the past. By plotting the evaluation results obtained in the inspection and the evaluation results obtained in the current inspection, it is possible to perform output so as to present time-series change information such as a line graph or a bar graph.
[変形例]
気体の吹き付けやOCT計測が実際に適用される部位を視覚的に認識可能とするための構成を説明する。
[Modification]
A configuration for visually recognizing a site where gas blowing or OCT measurement is actually applied will be described.
この変形例に係る皮膚性状評価装置の構成の一例を図10に示す。図10に示す構成と、図7に示す構成との相違は、投光部320と、投光制御部115とが設けられている点である。なお、表面観察光学系40は含まれていてもよいし、含まれていなくてもよい。また、プローブ移動機構310および移動制御部114が設けられていない構成や、表示制御部113が設けられていない構成を適用することも可能である。
An example of the configuration of the skin property evaluation apparatus according to this modification is shown in FIG. The difference between the configuration illustrated in FIG. 10 and the configuration illustrated in FIG. 7 is that a
投光部320は、たとえばLEDやレーザ光源のような光束を出力するデバイスを含み、被検者の皮膚表面にスポット光を投影するために用いられる。投光部320は、被検者の臨む位置に設けられている。投光部320は、光束の出力方向を変更する機能を有する。
The
投光制御部115は、投光部320の制御を行う。この制御には、光束の出力のオン/オフの切り替え、出力方向の変更、出力強度の変更、出力波長(出力色)の変更、光束径(スポット径)の変更等のうちのいずれかが含まれていてよい。
The light projecting
この変形例に係る皮膚性状評価装置の動作について説明する。以下、いくつかの典型的な動作例を説明するが、変形例に係る動作はこれらに限定されるものではない。 The operation of the skin property evaluation apparatus according to this modification will be described. Hereinafter, some typical operation examples will be described, but the operation according to the modification is not limited thereto.
(第1の動作例:図11)
第1の動作例において、皮膚性状評価装置は、立体顔画像に対して手動で指定された検査位置にスポット光を投影し、この投影位置に配置されたプローブを用いて検査を実施するよう構成される。
(First operation example: FIG. 11)
In the first operation example, the skin property evaluation device is configured to project spot light onto an inspection position manually designated for a three-dimensional face image, and to perform an inspection using a probe arranged at the projection position. Is done.
(S41:被検者の顔の立体撮影を行う)
2つの撮影部300を用いて立体撮影が行われる。
(S41: Perform stereoscopic shooting of the face of the subject)
Stereo imaging is performed using the two
(S42:立体顔画像を生成する)
3次元画像生成部141は、ステップS41において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S42: Generate a 3D face image)
The three-dimensional
(S43:対応情報を生成する)
対応情報生成部142は、ステップS42において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S43: Generate correspondence information)
The correspondence
(S44:立体顔画像を表示する)
表示制御部113は、ステップS42において生成された立体顔画像を表示デバイス210に表示させる。
(S44: Display a 3D face image)
The
(S45:立体顔画像に対して検査位置を指定する)
ユーザは、操作デバイス220を用いることにより、ステップS44において表示された立体顔画像に対して検査位置を指定する。
(S45: Specify the inspection position for the 3D face image)
The user uses the
(S46:顔における検査対象領域を特定する)
位置情報取得部143は、ステップS43において生成された対応情報と、ステップS45において指定された検査位置とに基づいて、被検者の顔における検査対象領域(実空間座標系における座標値)を特定する。
(S46: Specify the inspection target area in the face)
The position
(S47:検査対象領域にスポット光を投影する)
投光制御部115は、ステップS46において特定された座標値にスポット光が投影されるように投光部320を制御する。この処理において、投光制御部115は、たとえば、実空間座標系における検査対象領域の座標値および投光部320の設置位置の座標値に基づいて、光束の出力方向を決定する。また、検査対象領域における肌の色に応じて出力波長を決定するようにしてもよい。たとえば、皮膚性状評価装置は、ステップS41においてカラー撮影画像を取得し、このカラー撮影画像から肌の色を判定し、この肌の色と異なる色の光束を出力するように動作する。
(S47: Spot light is projected onto the inspection target area)
The light
(S48:プローブを移動する)
ユーザまたは皮膚性状評価装置は、ステップS46において特定された検査対象領域に基づいてプローブを移動させる。
(S48: Move the probe)
The user or the skin property evaluation apparatus moves the probe based on the examination target area specified in step S46.
ユーザが移動操作を行う場合、ユーザは、ステップS47においてスポット光が投影された皮膚表面の領域に気体や測定光が適用されるようにプローブを配置させる。このとき、プローブから照準光を出力するように構成してよい。この照準光は、たとえば図示しない可視光源から出力される可視光である。ユーザは、照準光の投影位置がスポット光の投影位置に重なるようにプローブの位置を調整することができる。なお、専らユーザが移動操作を行う場合、プローブ移動機構310および移動制御部114が設けられている必要はない。ただし、操作デバイス220等を用いてプローブ移動機構310を電動制御することによりプローブを移動させる構成などが適用される場合には、専らユーザによる移動操作を想定する場合であっても、プローブ移動機構310および移動制御部114が設けられる。
When the user performs a moving operation, the user arranges the probe so that gas or measurement light is applied to the area of the skin surface onto which the spot light is projected in step S47. At this time, you may comprise so that aiming light may be output from a probe. This aiming light is, for example, visible light output from a visible light source (not shown). The user can adjust the position of the probe so that the projection position of the aiming light overlaps the projection position of the spot light. Note that when the user performs a moving operation exclusively, the
皮膚性状評価装置が移動操作を行う場合、移動制御部114は、ステップS46において特定された検査対象領域にプローブを移動させるようにプローブ移動機構310を制御する。
When the skin property evaluation apparatus performs a moving operation, the
(S49:検査を行う)
ステップS48においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S49: Perform inspection)
After the probe is moved in step S48, the
(S50:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS8における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報(ID、氏名等)や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第2の実施形態における第1の動作例と同様であってよい。
(S50: Save evaluation information and inspection position information)
The
(第2の動作例:図12)
第2の動作例において、皮膚性状評価装置は、あらかじめ記憶された検査位置にスポット光を投影し、この投影位置に配置されたプローブを用いて検査を実施するよう構成される。
(Second operation example: FIG. 12)
In the second operation example, the skin property evaluation apparatus is configured to project spot light onto a pre-stored inspection position, and to perform inspection using a probe arranged at the projection position.
(S61:検査位置情報を読み出す)
主制御部111は、記憶部112(または、通信回線上の記憶装置や可搬記録媒体等)に記憶されている検査位置情報を読み出す。
(S61: Read inspection position information)
The
(S62:被検者の顔の立体撮影を行う)
次に、2つの撮影部300を用いた立体撮影を実行される。
(S62: Perform stereoscopic imaging of the subject's face)
Next, stereoscopic imaging using the two
(S63:立体顔画像を生成する)
3次元画像生成部141は、ステップS62において2つの撮影部300により実質的に同時に取得された2つの撮影画像に基づいて、被検者の立体顔画像を生成する。
(S63: Generate a 3D face image)
The three-dimensional
(S64:対応情報を生成する)
対応情報生成部142は、ステップS63において生成された立体顔画像に基づいて、この立体顔画像の画像座標系と被検者の顔が位置する空間の実空間座標系とが対応付けられた対応情報を生成する。
(S64: Generate correspondence information)
The correspondence
(S65:顔における検査対象領域を特定する)
位置情報取得部143は、ステップ61において読み出された検査位置情報と、ステップS65において生成された対応情報とに基づいて、被検者の顔における検査対象領域(実空間座標系における座標値)を特定する。
(S65: Specify the inspection target area in the face)
The position
(S66:検査対象領域にスポット光を投影する)
投光制御部115は、ステップS65において特定された座標値にスポット光が投影されるように投光部320を制御する。
(S66: Spot light is projected onto the inspection target area)
The light projecting
(S67:プローブを移動する)
ユーザまたは皮膚性状評価装置は、ステップS65において特定された検査対象領域に基づいて(またはステップS66においてスポット光が投影された位置を参照して)、プローブを移動させる。
(S67: Move the probe)
The user or the skin property evaluation apparatus moves the probe based on the examination target area specified in step S65 (or referring to the position where the spot light is projected in step S66).
(S68:検査を行う)
ステップS67においてプローブが移動された後、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S68: Perform inspection)
After the probe is moved in step S67, the
(S69:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS68における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第2の実施形態における第2の動作例と同様であってよい。
(S69: Save evaluation information and inspection position information)
The
[作用および効果]
この実施形態に係る皮膚性状評価装置は、第1の実施形態におけるいずれかの構成に加え、2以上の撮影部と、解析部と、位置情報取得部とを有する。2以上の撮影部は、被検者を異なる方向から実質的に同時に撮影するよう構成される。実施形態において、2以上の撮影部は、2以上の撮影部300を含んで構成される。なお、2以上の撮影部のいずれかは表面観察光学系40であってよい。解析部は、2以上の撮影部により取得された2以上の撮影画像を解析することにより、被検者に関する3次元位置情報を取得する。実施形態において、解析部は、解析部140を含んで構成される。位置情報取得部は、解析部により取得された3次元位置情報に基づいて、吹付部による気体の吹き付け領域の位置情報、および/または断層データ取得部による光コヒーレンストモグラフィの実行領域の位置情報を取得する。実施形態において、位置情報取得部は、位置情報取得部143を含んで構成される。
[Action and effect]
The skin property evaluation apparatus according to this embodiment includes two or more imaging units, an analysis unit, and a position information acquisition unit in addition to any of the configurations in the first embodiment. The two or more imaging units are configured to image the subject substantially simultaneously from different directions. In the embodiment, two or more imaging units are configured to include two or
このような実施形態によれば、第1の実施形態と同様に、高確度な皮膚の性状評価を非接触で行うことができる。さらに、被検者を異なる方向から撮影することにより被検者の現在位置を検出し、この現在位置に基づいて検査位置(評価対象である位置)を特定することが可能である。 According to such an embodiment, as in the first embodiment, highly accurate skin property evaluation can be performed in a non-contact manner. Furthermore, it is possible to detect the current position of the subject by photographing the subject from different directions, and specify the examination position (position to be evaluated) based on the current position.
実施形態において、2以上の撮影部による撮影野は、被検者の顔の少なくとも一部を含んでいてよい。この場合、皮膚性状評価装置は、被検者の顔の皮膚の性状を評価することが可能である。なお、被検者の顔が撮影野に含まれるように撮影野探索処理を実行するように構成することが可能である。この処理は、たとえば、撮影部による動画撮影と、この動画撮影により取得されたフレームに対する公知の画像処理(パターンマッチングや顔検出処理や顔認証処理等)とを含む。 In the embodiment, the imaging field by the two or more imaging units may include at least a part of the face of the subject. In this case, the skin property evaluation apparatus can evaluate the skin property of the face of the subject. Note that it is possible to perform the imaging field search process so that the face of the subject is included in the imaging field. This processing includes, for example, moving image shooting by the shooting unit and known image processing (pattern matching, face detection processing, face authentication processing, etc.) for the frame acquired by the moving image shooting.
実施形態において、解析部は、3次元画像生成部と、対応情報生成部とを含んでいてよい。3次元画像生成部は、2以上の撮影部による取得された2以上の撮影画像に基づいて、被検者の顔の3次元画像を生成する。実施形態において、3次元画像生成部は、3次元画像生成部141を含んで構成される。対応情報生成部は、3次元画像生成部により生成された3次元画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた対応情報を生成する。生成された対応情報は、被検者に関する上記3次元位置情報として用いられる。この構成によれば、被検者の立体顔画像に設定された3次元座標系(画像座標系)と、実空間に設定された3次元座標系(実空間座標系)との間の対応関係(座標変換等)を取得することが可能である。それにより、立体顔画像中の任意の位置(座標値)に対応する実空間中の位置(座標値)を特定することができる。逆に、実空間中の任意の位置(座標値)に対応する立体顔画像中の位置(座標値)を特定することもできる。
In the embodiment, the analysis unit may include a three-dimensional image generation unit and a correspondence information generation unit. The three-dimensional image generation unit generates a three-dimensional image of the subject's face based on the two or more captured images acquired by the two or more imaging units. In the embodiment, the three-dimensional image generation unit includes a three-dimensional
実施形態において、3次元画像を表示手段に表示させる表示制御部(表示制御部113)を設けることが可能である。なお、表示手段は、皮膚性状評価装置の一部として設けられた表示デバイス、または皮膚性状評価装置に接続された表示デバイスを含んで構成される。表示手段に表示された3次元画像中の位置が指定されると、位置情報取得部は、被検者の3次元画像(立体顔画像)中の位置と実空間中の位置とが対応付けられた対応情報に基づいて、3次元画像の座標系における当該指定位置の座標値に対応する実空間の座標系における座標値を取得する。この構成によれば、立体顔画像中にユーザが指定した位置に対応する実空間中の位置を特定することが可能である。 In the embodiment, it is possible to provide a display control unit (display control unit 113) that displays a three-dimensional image on a display unit. The display means includes a display device provided as a part of the skin property evaluation apparatus or a display device connected to the skin property evaluation apparatus. When the position in the three-dimensional image displayed on the display unit is designated, the position information acquisition unit associates the position in the three-dimensional image (three-dimensional face image) of the subject with the position in the real space. Based on the correspondence information, the coordinate value in the coordinate system of the real space corresponding to the coordinate value of the designated position in the coordinate system of the three-dimensional image is acquired. According to this configuration, it is possible to specify the position in the real space corresponding to the position designated by the user in the stereoscopic face image.
実施形態において、吹付部は、気体の噴出口が先端に形成されたノズルを備えていてよい。さらに、断層データ取得部は、光源(光源ユニット21)からの光を測定光と参照光とに分割し、測定アームを介して測定光を皮膚に照射し、測定アームを通過した測定光の戻り光と参照アームを通過した参照光との干渉光を検出する光学系(OCTユニット20)を備えていてよい。なお、光源は皮膚性状評価装置の構成要素である必要はなく、たとえば外部の光源装置からの光を光ファイバで皮膚性状評価装置に導くように構成することが可能である。加えて、皮膚性状評価装置は、プローブと、移動機構と、移動制御部とを含んでいてよい。プローブには、吹付部のうちの少なくともノズルと、測定アームの少なくとも先端部とが設けられている。移動機構(プローブ移動機構310)は、プローブを移動させるよう構成されている。移動制御部(移動制御部114)は、位置情報取得部により取得された実空間中の座標値に基づいて移動機構を制御する。この制御は、たとえば、位置情報取得部により取得された実空間中の位置にプローブを配置させるための制御、または、位置情報取得部により取得された実空間中の位置の近傍位置にプローブを配置させるための制御を含む。後者の例として、位置情報取得部により取得された実空間中の位置が皮膚表面の位置を示す場合、上記近傍位置は、この皮膚表面の位置から、皮膚表面に対して垂直な方向に所定距離だけ離れた位置である。この所定距離は、気体の吹き付け状態や、OCTにおける干渉状態(たとえば、測定アームと参照アームとの光路長の差)などに応じて事前にまたはリアルタイムで設定される。このような構成によれば、立体顔画像中にユーザが指定した位置に対応する実空間中の位置にプローブを自動で配置することができる。 In the embodiment, the spray unit may include a nozzle having a gas outlet formed at the tip. Furthermore, the tomographic data acquisition unit divides the light from the light source (light source unit 21) into measurement light and reference light, irradiates the measurement light on the skin via the measurement arm, and returns the measurement light that has passed through the measurement arm. An optical system (OCT unit 20) that detects interference light between the light and the reference light that has passed through the reference arm may be provided. The light source does not need to be a component of the skin property evaluation apparatus, and can be configured to guide light from an external light source device to the skin property evaluation apparatus through an optical fiber, for example. In addition, the skin property evaluation apparatus may include a probe, a movement mechanism, and a movement control unit. The probe is provided with at least a nozzle of the spraying portion and at least a tip portion of the measurement arm. The moving mechanism (probe moving mechanism 310) is configured to move the probe. The movement control unit (movement control unit 114) controls the movement mechanism based on the coordinate value in the real space acquired by the position information acquisition unit. This control is performed, for example, by controlling the probe to be arranged at a position in the real space acquired by the position information acquisition unit, or by arranging the probe at a position near the position in the real space acquired by the position information acquisition unit. Including control to As an example of the latter, when the position in the real space acquired by the position information acquisition unit indicates the position of the skin surface, the vicinity position is a predetermined distance from the position of the skin surface in a direction perpendicular to the skin surface. It is only a position away. This predetermined distance is set in advance or in real time in accordance with a gas blowing state, an interference state in OCT (for example, a difference in optical path length between the measurement arm and the reference arm), or the like. According to such a configuration, the probe can be automatically arranged at a position in the real space corresponding to the position designated by the user in the stereoscopic face image.
実施形態において、光束を出力する投光部(投光部320)と、この投光部を制御する投光制御部(投光制御部115)とを含んでいてよい。投光制御部は、位置情報取得部により取得された実空間中の座標値が示す位置に光束が投影されるように投光部の制御を行う。この構成によれば、ユーザが指定した位置に対応する実空間中の位置を視覚的に提示することが可能である。それにより、たとえば、ユーザは、光束が投影されている位置を目標としてプローブの位置決めを行うことが可能である。すなわち、プローブの位置決めを容易に行うことができる。 In the embodiment, a light projecting unit (light projecting unit 320) that outputs a light beam and a light projecting control unit (light projecting control unit 115) that controls the light projecting unit may be included. The light projection control unit controls the light projection unit so that the light beam is projected at the position indicated by the coordinate value in the real space acquired by the position information acquisition unit. According to this configuration, it is possible to visually present a position in the real space corresponding to the position designated by the user. Thereby, for example, the user can position the probe with the position where the light beam is projected as a target. That is, the probe can be easily positioned.
実施形態において、吹付部がノズルを備え、断層データ取得部が上記光学系を備え、さらに、皮膚性状評価装置が、プローブと、移動機構と、移動制御部とを含む場合、皮膚性状評価装置は、さらに記憶部(記憶部112)を備えていてよい。記憶部には、吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶される。この場合、位置情報取得部は、被検者の3次元画像(立体顔画像)中の位置と実空間中の位置とが対応付けられた対応情報に基づいて、対象位置情報に表された位置に対応する実空間座標系における座標値を取得する。さらに、移動制御部は、位置情報取得部により取得された座標値に基づいて移動機構を制御する。この制御は、たとえば、位置情報取得部により取得された実空間中の位置にプローブを配置させるための制御、または、位置情報取得部により取得された実空間中の位置の近傍位置にプローブを配置させるための制御を含む。このような構成によれば、あらかじめ決められた位置にプローブを自動で配置させることが可能である。 In the embodiment, when the spray unit includes a nozzle, the tomographic data acquisition unit includes the optical system, and the skin property evaluation device includes a probe, a movement mechanism, and a movement control unit, the skin property evaluation device is Further, a storage unit (storage unit 112) may be provided. The storage unit stores in advance target position information that represents the position of the target area of the gas sprayed by the spraying unit. In this case, the position information acquisition unit is configured to display the position represented in the target position information based on correspondence information in which a position in the subject's three-dimensional image (three-dimensional face image) is associated with a position in the real space. The coordinate value in the real space coordinate system corresponding to is obtained. Further, the movement control unit controls the movement mechanism based on the coordinate value acquired by the position information acquisition unit. This control is performed, for example, by controlling the probe to be arranged at a position in the real space acquired by the position information acquisition unit, or by arranging the probe at a position near the position in the real space acquired by the position information acquisition unit. Including control to According to such a configuration, it is possible to automatically arrange the probe at a predetermined position.
実施形態において、皮膚性状評価装置は、記憶部(記憶部112)と、投光部(投光部320)と、これを制御する投光制御部(投光制御部115)とを含んでいてよい。記憶部には、吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶される。さらに、位置情報取得部は、被検者の3次元画像(立体顔画像)中の位置と実空間中の位置とが対応付けられた対応情報に基づいて、対象位置情報に表された位置に対応する実空間座標系における座標値を取得する。投光制御部は、位置情報取得部により取得された座標値が示す位置に光束が投影されるように投光部を制御する。このような構成によれば、あらかじめ決められた位置に対応する実空間中の位置を視覚的に提示することが可能である。それにより、プローブの位置決めの容易化を図ることができる。 In the embodiment, the skin property evaluation apparatus includes a storage unit (storage unit 112), a light projecting unit (light projecting unit 320), and a light projecting control unit (light projecting control unit 115) that controls the memory unit. Good. The storage unit stores in advance target position information that represents the position of the target area of the gas sprayed by the spraying unit. Further, the position information acquisition unit obtains the position indicated in the target position information based on the correspondence information in which the position in the three-dimensional image (three-dimensional face image) of the subject is associated with the position in the real space. Get the coordinate value in the corresponding real space coordinate system. The light projection control unit controls the light projection unit so that the light beam is projected at the position indicated by the coordinate value acquired by the position information acquisition unit. According to such a configuration, it is possible to visually present a position in the real space corresponding to a predetermined position. Thereby, the positioning of the probe can be facilitated.
上記の対象位置情報は、当該被検者に対する過去の評価(過去の検査)における吹き付け対象領域の位置であってよい。この場合、皮膚の性状評価が過去に実施された位置の再度の評価を容易に行うことができる。それにより、たとえば、皮膚の同一部位の性状の時系列変化を把握することが可能となる。 The target position information may be the position of the spray target area in the past evaluation (past inspection) for the subject. In this case, the re-evaluation of the position where the skin property evaluation has been performed in the past can be easily performed. Thereby, for example, it becomes possible to grasp a time-series change in properties of the same part of the skin.
或いは、上記の対象位置情報は、気体の吹き付け対象領域のデフォルト位置であってよい。このデフォルト位置は、たとえば、他の被検者との比較や、標準値や基準値との比較などを行うために事前に設定される皮膚の部位であって、頬の中心位置などが適用される。 Alternatively, the target position information may be a default position of a gas spray target area. This default position is a part of the skin that is set in advance for comparison with other subjects, comparison with standard values or reference values, and the center position of the cheek is applied. The
〈第3の実施形態〉
ステレオ撮影の利用に関するいくつかの実施形態を説明する。特に、動画撮影が可能な2以上の撮影部を用いたステレオ動画撮影により取得されたステレオ動画像(立体動画像)の利用に関する実施形態を説明する。
<Third Embodiment>
Several embodiments relating to the use of stereo shooting are described. In particular, an embodiment relating to the use of a stereo moving image (stereoscopic moving image) acquired by stereo moving image shooting using two or more shooting units capable of moving image shooting will be described.
[構成]
この実施形態に係る皮膚性状評価装置の構成の一例を図13に示す。図13に示す構成は、図7に示す構成と類似している。しかし、この実施形態に係る構成においては、表示制御部113が設けられていなくてよく、また、データ処理部130の構成が図7に示す構成と異なる。また、図13に示す構成から表面観察光学系40を削除することができる。
[Constitution]
An example of the configuration of the skin property evaluation apparatus according to this embodiment is shown in FIG. The configuration shown in FIG. 13 is similar to the configuration shown in FIG. However, in the configuration according to this embodiment, the
図13に示す2以上の撮影部300は動画撮影が可能である。各撮影部300は、たとえばビデオカメラを含んで構成される。各撮影部300により順次に取得される撮影画像(フレーム)は、制御部110を介してデータ処理部130に順次に送られる。この転送処理は、リアルタイムで実行される。また、この転送処理において、主制御部111は、2以上の撮影部300により実質的に同時に取得された2以上のフレームを関連付けてデータ処理部130に送る。
Two or more photographing
データ処理部130は、解析部140と、位置情報取得部143と、位置関係判定部150とを含む。
The
解析部140は、2以上の撮影部300により実質的に同時に取得された2以上のフレームを順次に解析することにより、時系列に沿った複数の3次元位置情報を取得する。この処理は、たとえば第2の実施形態と同様の処理を、主制御部111から逐次に入力される2以上のフレーム(これらは互いに関連付けられている)に対して順々に施すことにより実行される。なお、3次元位置情報は、たとえば、被検者の顔の部分(頬など)の3次元位置を含む。解析部140は、第2の実施形態と同様に、3次元画像生成部(141)および対応情報生成部(142)を含んでいてよい。この場合、解析部140は、2以上のフレームから3次元画像を生成する処理と、この3次元画像の座標系と実空間の座標系とが対応付けられた対応情報を3次元位置情報として生成する処理とを含む。
The
このような処理により、解析部140は、時系列に沿った複数の3次元位置情報、すなわち、取得時間(取得タイミング)が異なる複数の3次元位置情報を取得する。これら3次元位置情報に時間情報が付与されていてもよい。時間情報は、これら3次元位置情報が取得された時間的な順序を示す情報であり、たとえば、これら3次元位置情報の取得タイミングを表す時間軸の座標値である。なお、これら3次元位置情報に基づく後段の処理において時系列に沿った複数の情報が生成されるので、生成された情報に対して時間情報を割り当てるように構成してもよい。
By such processing, the
位置情報取得部143は、解析部140により取得された複数の3次元位置情報に基づいて、時系列に沿った複数の位置情報を取得する。位置情報取得部143は、たとえば第2の実施形態と同様の処理を各3次元位置情報に施すことにより、時系列に沿った複数の位置情報を取得する。なお、位置情報は、第2の実施形態と同様に、気体の吹き付け領域およびOCTの実行領域のうちの一方または双方の位置を表す。時系列に沿った複数の位置情報には、前述したような時間情報が付与されている。
The position
位置関係判定部150は、トラッキングが実行される場合に動作する。ここでトラッキングについて説明する。トラッキングは、被検者(気体の吹き付け領域やOCTの実行領域)の動きに追従するようにプローブをリアルタイムで移動させる動作である。以下、トラッキングに関する処理の具体例を説明する。
The positional
位置情報取得部143は、上記のように、気体の吹き付け領域やOCTの実行領域の現在位置を示す位置情報をリアルタイムで反復的に取得する。つまり、位置情報取得部143は、被検者の現在位置をリアルタイムで反復的に取得する。
As described above, the position
また、主制御部111は、プローブの現在位置を認識する。プローブの現在位置は、たとえば、主制御部111によるプローブ移動機構310の制御内容(たとえば現時点までの制御の履歴)から取得される。或いは、プローブの位置を検出する位置センサ(図示省略)からの出力に基づいてプローブの現在位置を認識するよう構成してもよい。他の例として、2以上の撮影部300による2以上の撮影画像(フレーム)またはそれらに基づく立体画像を解析してプローブに相当する画像領域を特定し、特定された画像領域の座標値(画像座標系における座標値)を求めるように構成してもよい。
The
主制御部111は、位置情報が示す被検者の現在位置と、認識されたプローブの現在位置との差分を求める。この差分は、たとえば、画像座標系または実空間座標系における座標値の差(位置ベクトルの差)として算出される。なお、前述の対応情報が生成された場合、画像座標系と実空間座標系との対応関係(座標変換)は既知であり、画像座標系における座標値と実空間座標における座標値とを同一視できる。すなわち、被検者の現在位置を表す座標系とプローブの現在位置を表す座標系とが異なる場合であっても、対応情報を用いることにより被検者の現在位置とプローブの現在位置とを比較することができる。
The
主制御部111は、算出された差分(すなわち、現時点における被検者とプローブとの間の変位)がキャンセルされるようにプローブ移動機構310の制御を行う。そのための例として、主制御部111は、算出された差分が所定の許容範囲に含まれるようにプローブ移動機構310の制御を行う。この許容範囲は、たとえば、気体の吹き付け領域やOCTの実行領域の位置(つまり被検者の位置)に対するプローブの変位の許容範囲として設定される。この許容範囲の向きやサイズは、たとえば、気体の吹き付け条件や、OCTにおける干渉条件(たとえば、測定アームと参照アームとの光路長の差)などに応じて事前に設定される。
The
このような処理によれば、被検者の現在位置とプローブの現在位置との差分(Δx、Δy、Δz)が得られた場合に、プローブを(−Δx、−Δy、−Δz)だけ移動させるようにプローブ移動機構310の制御が行われる。そして、このような処理を繰り返し実行することで、被検者の動きを追従するようにプローブの位置が制御される。
According to such processing, when a difference (Δx, Δy, Δz) between the current position of the subject and the current position of the probe is obtained, the probe is moved by (−Δx, −Δy, −Δz). The
位置関係判定部150は、トラッキングが実行されているときに、被検者とプローブとの位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する。換言すると、位置関係判定部150は、被検者とプローブとが所定の位置関係になったことを検出する機能を有する。
The positional
前述したように、トラッキングにおいては、被検者の現在位置とプローブの現在位置とが取得され、さらに、それらの差分(変位)が求められる。位置関係判定部150は、この差分に基づいて、被検者とプローブとの間の位置関係が所定の位置関係であるか否かを判定する。この判定処理は、たとえば、逐次に算出される差分ごとに実行される。それにより、撮影部300による動画フレームの取得間隔(フレームレート)と実質的に同一の反復レートで判定処理が繰り返される。
As described above, in tracking, the current position of the subject and the current position of the probe are acquired, and the difference (displacement) between them is obtained. Based on this difference, the positional
「所定の位置関係」について説明する。位置情報取得部143により取得される位置情報は、気体の吹き付け領域やOCTの実行領域に相当する実空間中の位置を示す。位置情報が皮膚表面の位置を示す場合、「所定の位置関係」は、たとえば、この皮膚表面の位置(つまり被検者の位置)とプローブの位置とが、皮膚表面に対して垂直な方向に所定距離だけ離れていることを示す。この所定距離は、たとえば、トラッキングにおける「許容範囲」と等しいか或いはそれより小さく設定される。この所定距離は、たとえば、気体の吹き付け状態や、OCTにおける干渉状態(たとえば、測定アームと参照アームとの光路長の差)などに応じて事前に設定される。すなわち、「所定の位置関係」は、評価対象となる皮膚表面の領域とプローブとの最適な位置関係として設定される。
The “predetermined positional relationship” will be described. The position information acquired by the position
なお、「所定の位置関係」は、1次元的、2次元的または3次元的な広がりを有していてもよい。この範囲についても、たとえば、トラッキングにおける「許容範囲」と等しいか或いはそれより小さく設定される。 The “predetermined positional relationship” may have a one-dimensional, two-dimensional, or three-dimensional spread. This range is also set to be equal to or smaller than the “allowable range” in tracking, for example.
[動作]
実施形態の皮膚性状評価装置の動作について説明する。以下、図14に示す典型的な動作例を説明するが、実施形態に係る動作はこれらに限定されるものではない。
[Operation]
The operation of the skin property evaluation apparatus according to the embodiment will be described. Hereinafter, a typical operation example illustrated in FIG. 14 will be described, but the operation according to the embodiment is not limited thereto.
(S81:被検者の立体動画撮影を開始する)
2つの撮影部300が、主制御部111による制御を受けて、立体動画撮影を開始する。
(S81: Start the subject's stereoscopic video shooting)
Under the control of the
(S82:トラッキングを開始する)
主制御部111(およびデータ処理部130)が、ステップS81にて開始された立体動画撮影により逐次に取得される2以上のフレームに基づくトラッキングを開始する。それにより、被検者の動きを追従するようにプローブの位置が自動調整される。
(S82: Start tracking)
The main control unit 111 (and the data processing unit 130) starts tracking based on two or more frames that are sequentially acquired by the stereoscopic video shooting started in step S81. Thereby, the position of the probe is automatically adjusted so as to follow the movement of the subject.
(S83:被検者とプローブとが所定の位置関係になった?)
ステップS82におけるトラッキングが開始されたことに対応し、位置関係判定部150は、被検者とプローブとが所定の位置関係になったか判定する。この判定処理は、少なくとも、それらが所定の位置関係になったと判定されるまで繰り返し実行される(S83:NO)。なお、トラッキングは、少なくとも、後段のステップS84における検査の完了まで継続される。
(S83: Is the subject and the probe in a predetermined positional relationship?)
In response to the start of tracking in step S82, the positional
(S84:検査を行う)
ステップS83において、被検者とプローブとが所定の位置関係になったと判定されると(S83:YES)、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S84: Perform inspection)
If it is determined in step S83 that the subject and the probe have a predetermined positional relationship (S83: YES), the
(S85:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS84における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、第2の実施形態におけるいずれかの動作例と同様であってよい。
(S85: Save evaluation information and inspection position information)
The
[作用および効果]
この実施形態に係る皮膚性状評価装置は、第2の実施形態におけるいずれかの構成に加え、次の構成を有する。まず、2以上の撮影部(撮影部300)は、動画撮影を実行可能に構成される。また、解析部(解析部140)は、この動画撮影により実質的に同時に取得された2以上のフレームをリアルタイムかつ順次に解析することにより、時系列に沿った複数の3次元位置情報を取得する。各3次元位置情報は、被検者の3次元的な位置に関する情報である。さらに、位置情報取得部(位置情報取得部143)は、これら3次元位置情報に基づいて、時系列に沿った複数の位置情報をリアルタイムかつ順次に取得する。各位置情報は、気体の吹き付け領域および/またはOCTの実行領域の少なくとも一方の位置を示す。
[Action and effect]
The skin property evaluation apparatus according to this embodiment has the following configuration in addition to any of the configurations in the second embodiment. First, the two or more imaging units (imaging unit 300) are configured to be able to perform moving image imaging. In addition, the analysis unit (analysis unit 140) acquires a plurality of pieces of three-dimensional position information in time series by sequentially analyzing two or more frames acquired substantially simultaneously by the moving image shooting in real time. . Each three-dimensional position information is information regarding the three-dimensional position of the subject. Further, the position information acquisition unit (position information acquisition unit 143) acquires a plurality of position information along the time series sequentially in real time based on the three-dimensional position information. Each position information indicates a position of at least one of a gas spray area and / or an OCT execution area.
このような構成によれば、被検者の位置をリアルタイムで監視することができ、より具体的には、気体の吹き付け領域やOCTの実行領域をリアルタイムで監視することができる。この処理により得られる情報の用途は任意である(たとえば、トラッキングや検査開始トリガに限定されない)。 According to such a configuration, the position of the subject can be monitored in real time, and more specifically, the gas blowing area and the OCT execution area can be monitored in real time. The use of the information obtained by this processing is arbitrary (for example, it is not limited to tracking or an inspection start trigger).
実施形態において、吹付部がノズルを備え、断層データ取得部が上記光学系を備え、さらに、皮膚性状評価装置が、プローブと、このプローブを移動させるための移動機構(プローブ移動機構310)と、この移動機構を制御する移動制御部(移動制御部114)とを備える場合、移動制御部を次のように構成することができる。すなわち、移動制御部は、位置情報取得部により順次に取得される3次元位置情報に基づいて移動機構をリアルタイムで制御することにより、被検者の動きに対してプローブを追従させるように構成されてよい。 In the embodiment, the spray unit includes a nozzle, the tomographic data acquisition unit includes the optical system, and the skin property evaluation apparatus further includes a probe and a moving mechanism (probe moving mechanism 310) for moving the probe, In the case of including a movement control unit (movement control unit 114) that controls the movement mechanism, the movement control unit can be configured as follows. That is, the movement control unit is configured to cause the probe to follow the movement of the subject by controlling the movement mechanism in real time based on the three-dimensional position information sequentially acquired by the position information acquisition unit. It's okay.
このような構成によれば、気体の吹き付け領域やOCTの実行領域の位置の変化に対してプローブを追従させることができる(オートトラッキング)。それにより、被検者に動きが伴う場合であっても、プローブを好適な位置に継続的に配置させることができる。 According to such a configuration, the probe can be made to follow changes in the position of the gas blowing region or the OCT execution region (auto tracking). Thereby, even if it is a case where a subject moves, a probe can be continuously arranged in a suitable position.
実施形態において、オートトラッキングが実行されているときに次の処理を行う第1の位置関係判定部(位置関係判定部150)がさらに設けられていてよい。第1の位置関係判定部は、位置情報取得部によりリアルタイムかつ順次に取得される位置情報に基づいて、被検者とプローブとの位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する。このような第1の位置関係判定部が設けられている場合において、断層データ取得部は、第1の位置関係判定部により被検者とプローブとの位置関係が所定の位置関係であると判定されたことを受けてOCTを開始するように構成されていてよい。なお、吹付部による気体の吹付け開始のタイミングは任意であってよい。たとえば、吹付部は、第1の位置関係判定部により被検者とプローブとの位置関係が所定の位置関係であると判定されたことを受けて気体の吹き付けを開始するように構成されていてよい。また、OCTが開始される前の任意のタイミングで気体の吹き付けを開始するよう構成することもできるし、OCTが開始された後の任意のタイミングで気体の吹き付けを開始するよう構成することもできる。 In the embodiment, a first positional relationship determination unit (the positional relationship determination unit 150) that performs the following processing when auto-tracking is being performed may be further provided. The first positional relationship determination unit repeats in real time whether or not the positional relationship between the subject and the probe is a predetermined positional relationship based on the positional information sequentially acquired in real time by the positional information acquisition unit. Judgment. In the case where such a first positional relationship determination unit is provided, the tomographic data acquisition unit determines that the positional relationship between the subject and the probe is a predetermined positional relationship by the first positional relationship determination unit. In response to this, the OCT may be configured to start. In addition, the timing of the gas spray start by the spray unit may be arbitrary. For example, the spraying unit is configured to start the gas spraying when the first positional relationship determination unit determines that the positional relationship between the subject and the probe is a predetermined positional relationship. Good. Moreover, it can also be comprised so that the spraying of gas may be started at the arbitrary timing before OCT is started, and it can also be comprised so that the spraying of gas may be started at the arbitrary timing after OCT is started. .
この構成によれば、被検者とプローブとが好適な位置関係になったタイミングで検査を実行することができる。また、検査中にもトラッキングを継続することにより、被検者とプローブとの間の好適な位置関係を維持した状態で検査を実行することができる。 According to this structure, a test | inspection can be performed at the timing when the subject and the probe became suitable positional relationship. Further, by continuing the tracking even during the inspection, the inspection can be executed in a state in which a suitable positional relationship between the subject and the probe is maintained.
なお、トラッキングとOCT計測とを並行して実行することができる。このOCT計測は、たとえば、同じ走査パターンで繰り返し実行される。それにより、OCT動画像が取得される。さらに、このOCT動画像に基づいて気体の吹き付けを開始したり、走査パターンを切り替えたりすることができる。たとえば、Bスキャン動画像における皮膚表面の描出位置が所定位置(たとえば干渉感度が最大の位置)に配置されたことに対応して、気体の吹き付けを開始したり、3次元スキャンや円スキャンに切り替えたりすることが可能である。また、Bスキャン動画像や3次元動画像に皮膚の所定部位が描出されたことに対応して、気体の吹き付けを開始したり、走査パターンの切り替えを行ったりすることもできる。このような構成によれば、OCT動画像を用いた精密なトラッキングや検査開始トリガの入力が可能である。 Note that tracking and OCT measurement can be executed in parallel. This OCT measurement is repeatedly executed with the same scanning pattern, for example. Thereby, an OCT moving image is acquired. Furthermore, it is possible to start the gas blowing or switch the scanning pattern based on the OCT moving image. For example, in response to the drawing position of the skin surface in a B-scan moving image being located at a predetermined position (for example, the position where the interference sensitivity is maximum), gas blowing is started, or switching to a three-dimensional scan or a circle scan is performed. It is possible to Further, in response to the drawing of a predetermined part of the skin in the B-scan moving image or the three-dimensional moving image, it is possible to start blowing gas or switch the scanning pattern. According to such a configuration, precise tracking using an OCT moving image and input of an inspection start trigger are possible.
〈変形例〉
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。また、上記の実施形態や変形例のうちのいくつかを任意に組み合わせることが可能である。
<Modification>
The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate. Moreover, it is possible to arbitrarily combine some of the above-described embodiments and modifications.
上記の実施形態では、2つの撮影部を用いる場合について特に詳しく説明したが、3つ以上の撮影部を用いることも可能である。たとえば、広域のステレオ撮影を行うための2以上の撮影部と、狭域のステレオ撮影を行うための2以上の撮影部とを設け、これらにより取得された広域のステレオ画像と狭域のステレオ画像とを対応付けることが可能である。ここで、広域ステレオ撮影の倍率と狭域ステレオ撮影の倍率とは、同じでもよいし、異なってもよい。 In the above embodiment, the case where two imaging units are used has been described in detail. However, it is possible to use three or more imaging units. For example, two or more photographing units for performing wide-area stereo photographing and two or more photographing units for performing narrow-area stereo photographing are provided, and a wide-area stereo image and a narrow-area stereo image acquired by these are provided. Can be associated with each other. Here, the magnification for wide-area stereo photography and the magnification for narrow-area stereo photography may be the same or different.
より具体的には、このような構成はたとえば次のようにして実現される。まず、2以上の撮影部は、第1の撮影野で撮影を行う第1群の撮影部と、第1の撮影野に含まれる第2の撮影野で撮影を行う第2群の撮影部とを含む。第1群の撮影部は狭域撮影用であり、第2群の撮影部は広域撮影用である。 More specifically, such a configuration is realized as follows, for example. First, the two or more imaging units include a first group of imaging units that perform imaging in the first imaging field, and a second group of imaging units that perform imaging in the second imaging field included in the first imaging field. including. The first group of imaging units is for narrow-area imaging, and the second group of imaging units is for wide-area imaging.
解析部は、狭域撮影用の撮影部により実質的に同時に取得された第1群のフレーム(狭域フレーム)を解析することにより、被検者に関する第1の3次元位置情報(狭域3次元位置情報)を取得する。また、解析部は、広域撮影用の撮影部により実質的に同時に取得された第2群のフレームを解析することにより、第2の3次元位置情報(広域3次元位置情報)を取得する。さらに、解析部は、狭域3次元位置情報と広域3次元位置情報との対応付けを行う。なお、互いに対応付けられる狭域3次元位置情報および広域3次元位置情報は、実質的に同時に取得された狭域フレームおよび広域フレームに基づく。 The analysis unit analyzes the first group of frames (narrow region frames) acquired substantially simultaneously by the imaging unit for narrow region imaging, thereby obtaining first three-dimensional position information (narrow region 3) on the subject. Dimensional position information). The analysis unit acquires second 3D position information (wide area 3D position information) by analyzing the second group of frames acquired substantially simultaneously by the imaging unit for wide area imaging. Further, the analysis unit associates the narrow area three-dimensional position information with the wide area three-dimensional position information. Note that the narrow area three-dimensional position information and the wide area three-dimensional position information associated with each other are based on the narrow area frame and the wide area frame acquired substantially simultaneously.
狭域3次元位置情報と広域3次元位置情報との対応付けは、たとえば次のようにして行われる。狭域撮影用の撮影部および広域撮影用の撮影部が固定されている場合や、これらの位置が認識可能である場合、これらの相対位置を取得することができる。或いは、実空間座標系や画像座標系におけるそれぞれの撮影部の位置を求めることができる。このような位置関係(座標値)に基づいて、第2の撮影野における第1の撮影野の位置を特定することができ、さらに、広域3次元位置情報と狭域3次元位置情報との位置関係を求めることができる。 The association between the narrow area three-dimensional position information and the wide area three-dimensional position information is performed as follows, for example. When the imaging unit for narrow-area imaging and the imaging unit for wide-area imaging are fixed, or when these positions are recognizable, their relative positions can be acquired. Alternatively, the position of each imaging unit in the real space coordinate system or the image coordinate system can be obtained. Based on such a positional relationship (coordinate values), the position of the first imaging field in the second imaging field can be specified, and the position between the wide-area three-dimensional position information and the narrow-area three-dimensional position information. A relationship can be sought.
位置情報取得部は、第1の3次元位置情報および第2の3次元位置情報に基づいて、吹付部による気体の吹き付け領域や、断層データ取得部によるOCTの実行領域の位置を表す位置情報を取得することができる。 The position information acquisition unit, based on the first three-dimensional position information and the second three-dimensional position information, displays position information indicating the position of the gas spray region by the spray unit and the position of the OCT execution region by the tomographic data acquisition unit. Can be acquired.
このような変形例によれば、広域ステレオ画像と狭域ステレオ画像との組み合わせによって各種の処理を実現することが可能である。たとえば、広域ステレオ画像によって評価対象領域のおおよその位置を特定した後、狭域ステレオ画像によって評価対象領域を詳細に観察することができる。 According to such a modification, various processes can be realized by a combination of a wide-area stereo image and a narrow-area stereo image. For example, after specifying the approximate position of the evaluation target area by the wide-area stereo image, the evaluation target area can be observed in detail by the narrow-area stereo image.
前述したように、皮膚の表面の画像を取得するための表面観察光学系40が設けられない構成を適用することが可能である。そのような皮膚性状評価装置の構成の一例を図15に示す。図1と同じ符号が付された構成要素は、上記実施形態と同様の構成および機能を有するものとし、その詳細な説明は省略する。また、図15に示す構成要素に対する制御の態様についても上記実施形態と同様であってよい。
As described above, it is possible to apply a configuration in which the surface observation
図15に示す皮膚性状評価装置1000は、図1に示す皮膚性状評価装置1と同様に、圧縮ガス生成部11と、連通管12と、ヘッド部13と、ノズル14とを含む。また、皮膚性状評価装置1000は、OCTを用いて皮膚の断層データを取得するためのOCTユニット20Aを含む。OCTユニット20Aは、上記実施形態におけるOCTユニット20と同様の構成要素を含むが、それらの配置が異なる。さらに、皮膚性状評価装置1000は、OCTユニット20Aにより取得された断層データに基づいて皮膚の性状の評価情報を生成するための演算制御ユニット100を含む。演算制御ユニット100の構成は上記実施形態と同様である。
A skin
この変形例の皮膚性状評価装置1000においては、表面観察光学系40が設けられていないだけでなく、表面観察光学系40の光路と測定光の光路(測定アーム)とを合成するビームスプリッタ50も設けられていない。すなわち、この変形例においては、OCTユニット20Aから延びる測定アームは、ビームスプリッタを経由することなくヘッド部13に導かれている。
In the skin
OCTユニット20Aには、上記実施形態のOCTユニット20と同様の構成要素(光学素子、機構等)が設けられている。具体的には、OCTユニット20Aは、光源ユニット21と、この光源ユニット21から出力された光を導く光ファイバ22と、この光を測定光と参照光とに分割するファイバカプラ23とを含む。
The
測定光の光路(測定アーム)には、光ファイバ24と、コリメータレンズユニット25と、光スキャナ26とが設けられている。なお、図示は省略するが、測定光の光路(測定アーム)には、合焦レンズ、リレーレンズ、対物レンズなどが設けられていてよい。
An
参照光の光路(参照アーム)には、光ファイバ27と、コリメータレンズユニット28と、参照ミラー29とが設けられている。参照ミラー29は、参照ミラー駆動部29Aにより、参照アームの光軸に沿う方向に移動される。なお、図示は省略するが、参照光の光路(参照アーム)には、参照光の光量を調整するための光アッテネータや、参照光の偏光状態を調整するための偏光コントローラなどが設けられていてよい。
An
さらに、OCTユニット20Aには、ファイバカプラ23により生成された測定光の戻り光と参照光の戻り光との干渉光を導く光ファイバ30と、この干渉光を検出して信号を生成する検出部31とが設けられている。検出部31により生成された信号(検出信号)は演算制御ユニット100に送られる。
Further, the
このような構成の皮膚性状評価装置1000によっても、上記実施形態と同様に、高確度な皮膚の性状評価を非接触で行うことが可能である。
Also with the skin
上記第3の実施形態において、被検者とプローブとが所定の位置関係になったことに対応してOCTを開始する動作について説明した。このような動作は「オートシュート」などと呼ばれる。第3の実施形態では、ステレオ撮影により取得される被検者のステレオ撮影画像を利用してオートシュートを実行しているが、他の情報を利用してオートシュートを行う構成を採用することも可能である。このような構成の一例として、OCTにより取得されるデータを利用する場合を以下に説明する。 In the third embodiment, the operation of starting OCT in response to the subject and the probe having a predetermined positional relationship has been described. Such an operation is called “auto-shoot”. In the third embodiment, auto-shooting is performed using a subject's stereo image acquired by stereo imaging, but it is also possible to employ a configuration in which auto-shooting is performed using other information. Is possible. As an example of such a configuration, a case where data acquired by OCT is used will be described below.
本変形例に係る皮膚性状評価装置は、第3の実施形態と同様の構成を有していてよい。ただし、図13における撮影部300(および表面観察光学系40)は不要である。さらに、本変形例の皮膚性状評価装置のデータ処理部130は、第3の実施形態のそれと異なる構成を有する。すなわち、本変形例のデータ処理部130は、第3の実施形態における解析部140、位置情報取得部143および位置関係判定部150を含んでいる必要はない。このような相違点を考慮しつつ図13を参照し、本変形例の説明を行う。
The skin property evaluation apparatus according to this modification may have the same configuration as that of the third embodiment. However, the imaging unit 300 (and the surface observation optical system 40) in FIG. 13 is not necessary. Furthermore, the
本変形例のOCTユニット20は、光源ユニット21からの光を測定光と参照光とに分割し、測定アームを介して測定光を皮膚に照射する。さらに、OCTユニット20は、測定アームを通過した測定光の戻り光と参照アームを通過した参照光との干渉光を検出する。干渉光を検出した検出部31は、断層データ生成部120に検出信号を送る。断層データ生成部120は、検出信号に基づいて断層データを生成する。生成された断層データは、制御部110を介してデータ処理部130に送られる。
The
特に、主制御部110は、次のような制御を実行する。まず、主制御部110は、参照ミラー駆動部29Aを制御し、参照ミラー29を移動させる。参照ミラー29の位置は、デフォルト位置であってもよい。或いは、リアルタイムで取得された断層データに基づいて参照ミラー29の位置を決定してもよい。具体的には、皮膚の所定部位(たとえば皮膚表面S)がOCT画像のフレーム内の所定範囲に含まれるような参照ミラー29の位置を探索するように構成することが可能である。このようにして設定された参照ミラー29の位置を固定する。
In particular, the
参照ミラー29の位置が固定されたら、次の段階に移行する。参照ミラー29の位置を固定することは、測定アームと参照アームとの間の光路長差を固定することに相当する。この状態において、主制御部110は、OCTユニット20を制御することにより、OCTを反復的に実行させる(つまり、干渉光の検出を反復的に実行させる)。この反復的なOCTにより取得されるデータ(検出部31からの検出信号、断層データ生成部120により生成される断層データなど)は、データ処理部130に入力される。なお、反復的なOCTにおいては、たとえば、Aスキャンの反復やBスキャンの反復や3次元スキャンの反復のように、同じスキャンパターンによるOCTが繰り返し実行される。当該スキャンパターンに対応する一連のデータが、OCTの反復レートと同等のレートで逐次にかつリアルタイムでデータ処理部130に入力される。
When the position of the
データ処理部130は、被検者と光学系(プローブ、皮膚性状評価装置など)との位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する。この処理は、上記一連のデータを単位として実行される。この処理を実行するデータ処理部130は、第2の位置関係判定部に相当する。
The
データ処理部130が実行する処理の具体例を説明する。まず、データ処理部130は、一連のデータを解析することにより、皮膚の所定部位(たとえば皮膚表面S)に相当するデータ領域を特定する。一連のデータが反射強度プロファイルを含む場合、たとえば、この反射強度プロファイルにおいて皮膚表面Sに相当するピークの位置が特定される(図3Aに示すz座標値z0を参照)。或いは、一連のデータがBスキャンデータである場合、たとえば、このBスキャンデータにおいて皮膚表面Sに相当する画像領域が特定される(図3Bに示す画像領域H0を参照)。
A specific example of processing executed by the
次に、データ処理部130は、特定されたデータ領域(上記のピーク位置や画像領域)が、フレームの所定範囲(許容範囲)に含まれているか否か判定する。フレームの許容範囲は、たとえば、特定対象のデータ領域の種別や、評価対象の部位などに基づいて、事前に設定される。フレームの許容範囲は、少なくとも、深さ方向(z方向)について設定される。すなわち、フレームの許容範囲は、少なくとも、深さ方向の許容範囲(za≦z≦zb)を含む。なお、フレームの許容範囲は、深さ方向に直交する方向における許容範囲を含んでいてもよい。たとえば一連のデータがxz断面を表すBスキャンデータである場合、フレームの許容範囲は、z方向の許容範囲に加え、x方向の許容範囲を含んでいてよい。或いは、一連のデータが3次元画像データである場合、フレームの許容範囲は、z方向の許容範囲に加え、x方向の許容範囲および/またはy方向の許容範囲を含んでいてよい。データ処理部130は、特定されたデータ領域の座標値が許容範囲に示す座標範囲に含まれているか否か判定する。
Next, the
本変形例の動作について説明する。以下、図16に示す典型的な動作例を説明するが、実施形態に係る動作はこれらに限定されるものではない。 The operation of this modification will be described. Hereinafter, a typical operation example illustrated in FIG. 16 will be described, but the operation according to the embodiment is not limited thereto.
(S101:参照ミラーの位置を固定する)
まず、主制御部111が、参照ミラー29Aを好適な位置に移動させ、その位置を固定する。
(S101: Fix the position of the reference mirror)
First, the
(S102:反復的なOCTを開始する)
参照ミラー29の位置が固定されたら、主制御部111は、OCTユニット20(および断層データ生成部120)を制御し、反復的なOCTを開始させる。
(S102: Start repetitive OCT)
When the position of the
(S103:被検者と光学系とが所定の位置関係になった?)
ステップS102における反復的なOCTが開始されたことに対応し、データ処理部130は、被検者と光学系とが所定の位置関係になったか判定する。この判定処理は、少なくとも、それらが所定の位置関係になったと判定されるまで繰り返し実行される(S103:NO)。
(S103: Is the subject and the optical system in a predetermined positional relationship?)
In response to the start of repetitive OCT in step S102, the
(S104:検査を行う)
ステップS103において、被検者と光学系とが所定の位置関係になったと判定されると(S103:YES)、主制御部111は、気体の吹き付けとOCT計測との組み合わせである検査を実行する。
(S104: Perform inspection)
If it is determined in step S103 that the subject and the optical system have a predetermined positional relationship (S103: YES), the
(S105:評価情報と検査位置情報とを保存する)
主制御部111は、ステップS104における検査により生成された評価情報を、当該検査が実施された位置を示す情報(検査位置情報)と関連付けて記憶部112に格納する。このとき、検査日時や被検者識別情報や立体顔画像等の任意の情報をさらに関連付けてもよい。以上で、この動作例に関する処理は終了となる。この動作例により取得された評価情報の出力(表示、印刷、データ送信等)は、上記実施形態におけるいずれかの動作例と同様であってよい。
(S105: Save evaluation information and inspection position information)
The
なお、本変形例に係る判定処理と第3の実施形態に係る判定処理とを組み合わせ、双方が満足されたことに対応して検査を開始するように構成することが可能である。この構成によれば、第3の実施形態による大域的な位置関係の判定(粗判定)と、本変形例による局所的な位置関係の判定(詳細判定)とを行うことができる。また、大域的な位置関係が満足されたことに対応して局所的な位置関係の判定に移行するように制御を行うことが可能である。また、局所的な位置関係のズレが閾値を超えたことに対応し、大域的な位置関係の判定に移行するように制御を行うことも可能である。 Note that it is possible to combine the determination process according to the present modification example and the determination process according to the third embodiment so that the inspection is started when both are satisfied. According to this configuration, it is possible to perform global positional relationship determination (coarse determination) according to the third embodiment and local positional relationship determination (detailed determination) according to this modification. Further, it is possible to perform control so as to shift to the determination of the local positional relationship in response to the satisfaction of the global positional relationship. It is also possible to perform control so as to shift to the determination of the global positional relationship in response to the deviation of the local positional relationship exceeding the threshold value.
上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。 A computer program for realizing the above embodiment can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.
また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。 It is also possible to transmit / receive this program through a network such as the Internet or a LAN.
1 皮膚性状評価装置
11 圧縮ガス生成部
12 連通管
13 ヘッド部
14 ノズル
20 OCTユニット
21 光源ユニット
23 ファイバカプラ
26 光スキャナ
29 参照ミラー
29A 参照ミラー駆動部
31 検出部
100 演算制御ユニット
110 制御部
111 主制御部
112 記憶部
113 表示制御部
114 移動制御部
115 投光制御部
120 断層データ生成部
130 データ処理部
131 データ位置特定部
132 評価情報生成部
133 形態情報生成部
140 解析部
141 3次元画像生成部
142 対応情報生成部
143 位置情報生成部
150 位置関係判定部
200 ユーザインターフェイス
210 表示デバイス
220 操作デバイス
300 撮影部
310 プローブ移動機構
320 投光部
S 皮膚表面
DESCRIPTION OF
Claims (14)
前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、
前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部と、
被検者を異なる方向から実質的に同時に撮影する2以上の撮影部と、
前記2以上の撮影部により取得された2以上の撮影画像を解析することにより、被検者に関する3次元位置情報を取得する解析部と、
前記解析部により取得された前記3次元位置情報に基づいて、前記吹付部による気体の吹き付け領域、および前記断層データ取得部による光コヒーレンストモグラフィの実行領域の少なくとも一方の位置情報を取得する位置情報取得部と
を備える皮膚性状評価装置。 A spraying part that blows gas onto the skin surface of the subject;
A tomographic data acquisition unit for acquiring tomographic data of skin in a state where gas is being sprayed by the spraying unit, using optical coherence tomography;
Based on the tomographic data acquired by the tomographic data acquiring unit, an information generating unit that generates evaluation information related to the properties of the subject's skin ;
Two or more imaging units for imaging a subject substantially simultaneously from different directions;
An analysis unit that acquires three-dimensional position information about the subject by analyzing two or more captured images acquired by the two or more imaging units;
Position information for acquiring at least one position information of a gas blowing area by the blowing section and an execution area of optical coherence tomography by the tomographic data acquiring section based on the three-dimensional position information acquired by the analysis section A skin property evaluation apparatus comprising an acquisition unit .
ことを特徴とする請求項1に記載の皮膚性状評価装置。 The skin property evaluation apparatus according to claim 1, wherein the imaging field by the two or more imaging units includes at least a part of the face of the subject .
前記2以上の撮影画像に基づいて、被検者の顔の3次元画像を生成する3次元画像生成部と、
前記3次元位置情報として、前記3次元画像生成部により生成された3次元画像に設定された第1の座標系と、実空間に設定された第2の座標系とが対応付けられた対応情報を生成する対応情報生成部と
を備える
ことを特徴とする請求項1または請求項2に記載の皮膚性状評価装置。 The analysis unit
A three-dimensional image generation unit that generates a three-dimensional image of the face of the subject based on the two or more captured images;
Correspondence information in which the first coordinate system set in the three-dimensional image generated by the three-dimensional image generation unit and the second coordinate system set in the real space are associated as the three-dimensional position information. A corresponding information generation unit for generating
Skin property-evaluating apparatus according to claim 1 or claim 2, characterized in that it comprises a.
前記表示手段に表示された前記3次元画像中の位置が指定されたときに、前記位置情報取得部は、前記対応情報に基づいて、前記第1の座標系における当該指定位置の座標値に対応する前記第2の座標系における座標値を取得する
ことを特徴とする請求項3に記載の皮膚性状評価装置。 A display control unit for displaying the three-dimensional image on a display unit;
When the position in the three-dimensional image displayed on the display unit is designated, the position information acquisition unit corresponds to the coordinate value of the designated position in the first coordinate system based on the correspondence information. The skin property evaluation apparatus according to claim 3, wherein coordinate values in the second coordinate system are acquired .
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、
前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、
前記プローブを移動させるための移動機構と、
前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御する移動制御部と
をさらに備える
ことを特徴とする請求項4に記載の皮膚性状評価装置。 The spray unit includes a nozzle having a gas outlet formed at a tip thereof,
The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
A probe provided with at least the nozzle and at least the tip of the measurement arm of the spraying part;
A moving mechanism for moving the probe;
A movement control unit that controls the movement mechanism based on the coordinate values acquired by the position information acquisition unit;
The skin property evaluation apparatus according to claim 4, further comprising:
前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御する投光制御部と
をさらに備える
ことを特徴とする請求項4に記載の皮膚性状評価装置。 A light projecting unit that outputs a luminous flux;
A light projection control unit that controls the light projection unit so that a light beam is projected at a position indicated by the coordinate value acquired by the position information acquisition unit;
The skin property evaluation apparatus according to claim 4 , further comprising:
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、
前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、
前記プローブを移動させるための移動機構と、
前記移動機構を制御する移動制御部と、
前記吹付部による気体の吹き付け対象領域の位置を表す対象位置情報があらかじめ記憶された記憶部と
をさらに備え、
前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、
前記移動制御部は、前記位置情報取得部により取得された前記座標値に基づいて前記移動機構を制御する
ことを特徴とする請求項3に記載の皮膚性状評価装置。 The spray unit includes a nozzle having a gas outlet formed at a tip thereof,
The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
A probe provided with at least the nozzle and at least the tip of the measurement arm of the spraying part;
A moving mechanism for moving the probe;
A movement control unit for controlling the movement mechanism;
A storage unit in which target position information representing a position of a target region of gas sprayed by the spray unit is stored in advance;
Further comprising
The position information acquisition unit acquires a coordinate value in the second coordinate system corresponding to the position represented in the target position information based on the correspondence information,
The skin property evaluation apparatus according to claim 3 , wherein the movement control unit controls the movement mechanism based on the coordinate values acquired by the position information acquisition unit .
光束を出力する投光部と、
前記投光部を制御する投光制御部と、
をさらに備え、
前記位置情報取得部は、前記対応情報に基づいて、前記対象位置情報に表された位置に対応する前記第2の座標系における座標値を取得し、
前記投光制御部は、前記位置情報取得部により取得された前記座標値が示す位置に光束が投影されるように前記投光部を制御する
ことを特徴とする請求項3に記載の皮膚性状評価装置。 A storage unit in which target position information representing the position of the target area of the gas sprayed by the spray unit is stored in advance;
A light projecting unit that outputs a luminous flux;
A light projecting control unit for controlling the light projecting unit;
Further comprising
The position information acquisition unit acquires a coordinate value in the second coordinate system corresponding to the position represented in the target position information based on the correspondence information,
4. The skin property according to claim 3 , wherein the light projection control unit controls the light projection unit so that a light beam is projected at a position indicated by the coordinate value acquired by the position information acquisition unit. Evaluation device.
ことを特徴とする請求項7または請求項8に記載の皮膚性状評価装置。 The skin according to claim 7 or 8 , wherein the target position information is a position of the spray target area in a past evaluation for the subject or a default position of the gas spray target area. Property evaluation device.
前記解析部は、前記動画撮影により実質的に同時に取得された2以上のフレームをリアルタイムかつ順次に解析することにより、時系列に沿った複数の前記3次元位置情報を取得し、
前記位置情報取得部は、前記複数の3次元位置情報に基づいて、時系列に沿った複数の前記位置情報をリアルタイムかつ順次に取得する
ことを特徴とする請求項1に記載の皮膚性状評価装置。 The two or more photographing units perform moving image photographing,
The analysis unit acquires a plurality of the three-dimensional position information along a time series by sequentially analyzing two or more frames acquired substantially simultaneously by the moving image shooting in real time,
The skin property evaluation apparatus according to claim 1 , wherein the position information acquisition unit sequentially acquires a plurality of the position information in time series in real time based on the plurality of three-dimensional position information. .
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、
前記吹付部のうちの少なくとも前記ノズルと前記測定アームの少なくとも先端部とが設けられたプローブと、
前記プローブを移動させるための移動機構と、
前記位置情報取得部により順次に取得される前記3次元位置情報に基づいて前記移動機構をリアルタイムで制御することにより、被検者の動きに対して前記プローブを追従させる移動制御部と
をさらに備える
ことを特徴とする請求項10に記載の皮膚性状評価装置。 The spray unit includes a nozzle having a gas outlet formed at a tip thereof,
The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
A probe provided with at least the nozzle and at least the tip of the measurement arm of the spraying part;
A moving mechanism for moving the probe;
A movement control unit for causing the probe to follow the movement of the subject by controlling the movement mechanism in real time based on the three-dimensional position information sequentially acquired by the position information acquisition unit;
The skin property evaluation apparatus according to claim 10, further comprising:
前記断層データ取得部は、前記第1の位置関係判定部により被検者と前記プローブとの位置関係が所定の位置関係であると判定されたことを受けて、光コヒーレンストモグラフィを開始する
ことを特徴とする請求項11に記載の皮膚性状評価装置。 When the movement mechanism is controlled by the movement control unit, the positional relationship between the subject and the probe is a predetermined position based on the position information acquired in real time and sequentially by the position information acquisition unit. A first positional relationship determination unit that repeatedly determines whether the relationship is real-time and repetitively;
The tomographic data acquisition unit starts optical coherence tomography when the first positional relationship determination unit determines that the positional relationship between the subject and the probe is a predetermined positional relationship. The skin property evaluation apparatus according to claim 11 .
第1の撮影野で撮影を行う第1群の撮影部と、
前記第1の撮影野に含まれる第2の撮影野で撮影を行う第2群の撮影部と
を含み、
前記解析部は、前記第1群の撮影部により実質的に同時に取得された第1群のフレームを解析することにより、被検者に関する第1の3次元位置情報を取得し、前記第2群の撮影部により実質的に同時に取得された第2群のフレームを解析することにより、第2の3次元位置情報を取得し、前記第1の3次元位置情報と前記第2の3次元位置情報とを対応付けし、
前記位置情報取得部は、前記第1の3次元位置情報および前記第2の3次元位置情報に基づいて、前記位置情報を取得する
ことを特徴とする請求項1に記載の皮膚性状評価装置。 The two or more photographing units are
A first group of photographing units for photographing in a first field;
A second group of imaging units that perform imaging in a second imaging field included in the first imaging field;
Including
The analysis unit acquires first three-dimensional position information related to the subject by analyzing the first group of frames acquired substantially simultaneously by the first group of imaging units, and the second group The second three-dimensional position information is acquired by analyzing the second group of frames acquired substantially simultaneously by the imaging unit, and the first three-dimensional position information and the second three-dimensional position information are acquired. And
The skin property evaluation apparatus according to claim 1 , wherein the position information acquisition unit acquires the position information based on the first three-dimensional position information and the second three-dimensional position information .
前記吹付部により気体が吹き付けられている状態の皮膚の断層データを、光コヒーレンストモグラフィを用いて取得する断層データ取得部と、A tomographic data acquisition unit for acquiring tomographic data of skin in a state where gas is being sprayed by the spraying unit, using optical coherence tomography;
前記断層データ取得部により取得された断層データに基づいて、被検者の皮膚の性状に関する評価情報を生成する情報生成部とAn information generating unit that generates evaluation information related to the condition of the skin of the subject based on the tomographic data acquired by the tomographic data acquiring unit;
を備え、With
前記断層データ取得部は、光源からの光を測定光と参照光とに分割し、測定アームを介して前記測定光を皮膚に照射し、前記測定アームを通過した前記測定光の戻り光と参照アームを通過した前記参照光との干渉光を検出する光学系を備え、The tomographic data acquisition unit divides light from a light source into measurement light and reference light, irradiates the measurement light on the skin through a measurement arm, and returns the reference light and the measurement light that has passed through the measurement arm. An optical system that detects interference light with the reference light that has passed through the arm;
前記測定アームと前記参照アームとの間の光路長差が実質的に固定された状態で、前記光学系は、前記干渉光の検出を反復的に実行し、With the optical path length difference between the measurement arm and the reference arm substantially fixed, the optical system repeatedly performs the detection of the interference light,
前記光学系によりリアルタイムかつ反復的に取得される前記干渉光の検出結果に基づいて、被検者と前記光学系との位置関係が所定の位置関係であるか否かをリアルタイムかつ反復的に判定する第2の位置関係判定部をさらに含み、Based on the detection result of the interference light acquired repeatedly in real time by the optical system, it is determined in real time and repeatedly whether the positional relationship between the subject and the optical system is a predetermined positional relationship. A second positional relationship determining unit that includes:
前記断層データ取得部は、前記第2の位置関係判定部により被検者と前記光学系との位置関係が所定の位置関係であると判定されたことを受けて、前記断層データの取得を開始するThe tomographic data acquisition unit starts acquiring the tomographic data when the second positional relationship determination unit determines that the positional relationship between the subject and the optical system is a predetermined positional relationship. Do
ことを特徴とする皮膚性状評価装置。An apparatus for evaluating skin properties.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014134895A JP6310792B2 (en) | 2014-06-30 | 2014-06-30 | Skin property evaluation device |
PCT/JP2015/066308 WO2016002432A1 (en) | 2014-06-30 | 2015-06-05 | Apparatus for evaluating skin conditions |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014134895A JP6310792B2 (en) | 2014-06-30 | 2014-06-30 | Skin property evaluation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016011935A JP2016011935A (en) | 2016-01-21 |
JP6310792B2 true JP6310792B2 (en) | 2018-04-11 |
Family
ID=55018981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014134895A Active JP6310792B2 (en) | 2014-06-30 | 2014-06-30 | Skin property evaluation device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6310792B2 (en) |
WO (1) | WO2016002432A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6245590B1 (en) * | 2016-06-20 | 2017-12-13 | 公立大学法人大阪市立大学 | Skin diagnostic device, skin condition output method, program, and recording medium |
US10129448B2 (en) | 2016-07-20 | 2018-11-13 | Dental Imaging Technologies Corporation | Optical coherence tomography imaging system |
JP6768500B2 (en) * | 2016-12-28 | 2020-10-14 | 株式会社キーエンス | Optical scanning height measuring device |
JP6831700B2 (en) * | 2016-12-28 | 2021-02-17 | 株式会社キーエンス | Optical scanning height measuring device |
JP6829992B2 (en) * | 2016-12-28 | 2021-02-17 | 株式会社キーエンス | Optical scanning height measuring device |
JP6826496B2 (en) * | 2017-06-07 | 2021-02-03 | タツタ電線株式会社 | Optical interference unit and optical interference measuring device |
JP2022012564A (en) * | 2020-07-01 | 2022-01-17 | 京セラ株式会社 | Image processing apparatus and distance measuring device |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003294598A (en) * | 2002-04-03 | 2003-10-15 | Shiseido Co Ltd | Method and system for measuring resilient characteristic |
JP3726794B2 (en) * | 2002-09-13 | 2005-12-14 | 花王株式会社 | Method for evaluating surface characteristics against stress |
JP4790231B2 (en) * | 2004-06-17 | 2011-10-12 | 花王株式会社 | Skin analysis method |
US7254429B2 (en) * | 2004-08-11 | 2007-08-07 | Glucolight Corporation | Method and apparatus for monitoring glucose levels in a biological tissue |
US8133180B2 (en) * | 2004-10-06 | 2012-03-13 | Guided Therapy Systems, L.L.C. | Method and system for treating cellulite |
JP2006320380A (en) * | 2005-05-17 | 2006-11-30 | Spectratech Inc | Optical interference tomograph meter |
JP4894991B2 (en) * | 2005-06-14 | 2012-03-14 | 花王株式会社 | Evaluation method of skin properties |
US7823782B2 (en) * | 2005-11-22 | 2010-11-02 | Shofu Inc. | Dental optical coherence tomograph |
JP4583296B2 (en) * | 2005-12-14 | 2010-11-17 | 国立大学法人広島大学 | Method and apparatus for measuring skin age |
JP4831327B2 (en) * | 2006-07-28 | 2011-12-07 | 花王株式会社 | Skin property evaluation method |
JP2008203234A (en) * | 2007-02-23 | 2008-09-04 | Matsushita Electric Works Ltd | Blood component concentration analysis method and device |
JP2011521747A (en) * | 2008-06-02 | 2011-07-28 | ライトラブ イメージング, インコーポレイテッド | Quantitative method for obtaining tissue features from optical coherence tomography images |
JP5778762B2 (en) * | 2010-05-25 | 2015-09-16 | ザ ジェネラル ホスピタル コーポレイション | Apparatus and method for spectral analysis of optical coherence tomography images |
JP5706226B2 (en) * | 2011-05-09 | 2015-04-22 | 株式会社 資生堂 | Evaluation method for collagen state in skin and evaluation method for skin aging |
JP6059600B2 (en) * | 2012-06-18 | 2017-01-11 | 富士フイルム株式会社 | Method for operating skin evaluation apparatus and skin evaluation apparatus |
US9261349B2 (en) * | 2012-11-08 | 2016-02-16 | Kabushiki Kaisha Topcon | Optical imaging apparatus, optical imaging method, apparatus for setting characteristics of a light source, and method for setting characteristics of a light source |
-
2014
- 2014-06-30 JP JP2014134895A patent/JP6310792B2/en active Active
-
2015
- 2015-06-05 WO PCT/JP2015/066308 patent/WO2016002432A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2016002432A1 (en) | 2016-01-07 |
JP2016011935A (en) | 2016-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6310792B2 (en) | Skin property evaluation device | |
US10660515B2 (en) | Image display method of providing diagnosis information using three-dimensional tomographic data | |
US10278584B2 (en) | Method and system for three-dimensional imaging | |
US7905596B2 (en) | Fundus observation device, an ophthalmologic image processing unit, an ophthalmologic image processing program, and an ophthalmologic image processing method | |
JP4971864B2 (en) | Optical image measuring device and program for controlling the same | |
JP5061380B2 (en) | Fundus observation apparatus, ophthalmologic image display apparatus, and program | |
JP4869756B2 (en) | Fundus observation device | |
JP4971863B2 (en) | Optical image measuring device | |
US7971999B2 (en) | Method and apparatus for retinal diagnosis | |
JP4896794B2 (en) | Optical image measuring apparatus, program for controlling the same, and optical image measuring method | |
CN102058391B (en) | Apparatus and method for imaging optical coherence tomographic image | |
CN102670165B (en) | Image photographing apparatus and image photographing method | |
JP6702764B2 (en) | Optical coherence tomographic data processing method, program for executing the method, and processing apparatus | |
US20120184846A1 (en) | Imaging and visualization systems, instruments, and methods using optical coherence tomography | |
JP6798095B2 (en) | Optical coherence tomography equipment and control programs used for it | |
JP6900651B2 (en) | OCT device and OCT control program | |
JP2017047127A (en) | Oct motion contrast data analysis device and oct motion contrast data analysis program | |
JP6624641B2 (en) | Ophthalmic equipment | |
KR20200042895A (en) | OCT in the oral cavity with color texture | |
JP2012016620A (en) | Fundus observation device | |
JP2017136213A (en) | Optical interference tomography device | |
JP6606846B2 (en) | OCT signal processing apparatus and OCT signal processing program | |
JP6788397B2 (en) | Image processing device, control method of image processing device, and program | |
CN110226915A (en) | OCT data processing unit and method, storage medium | |
KR20200066593A (en) | Devices, methods and programs for visualizing the vascular network of skin |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20161226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6310792 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |