JP2018068362A - Measuring apparatus and measuring method - Google Patents

Measuring apparatus and measuring method Download PDF

Info

Publication number
JP2018068362A
JP2018068362A JP2016207923A JP2016207923A JP2018068362A JP 2018068362 A JP2018068362 A JP 2018068362A JP 2016207923 A JP2016207923 A JP 2016207923A JP 2016207923 A JP2016207923 A JP 2016207923A JP 2018068362 A JP2018068362 A JP 2018068362A
Authority
JP
Japan
Prior art keywords
unit
subject
image
dimensional data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016207923A
Other languages
Japanese (ja)
Inventor
俊成 秋元
Toshinari Akimoto
俊成 秋元
信幸 寺田
Nobuyuki Terada
信幸 寺田
郁穂 米澤
Ikuo Yonezawa
郁穂 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A & A System Co Ltd
Original Assignee
A & A System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A & A System Co Ltd filed Critical A & A System Co Ltd
Priority to JP2016207923A priority Critical patent/JP2018068362A/en
Publication of JP2018068362A publication Critical patent/JP2018068362A/en
Priority to JP2021130905A priority patent/JP2021180904A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To grasp a measurement result easily.SOLUTION: A measuring apparatus 1 includes an imaging part 2 for imaging a back part of a subject H, a three-dimensional data acquisition part 3 for acquiring three-dimensional data on the back part of the subject H, a state detection part 4 for detecting a state of a feature site of the back part based on the three-dimensional data, and a display part 5 for displaying an actual image Im1 by the imaging part 2, a processing image Im2 on the basis of the three-dimensional data, and a detection result D1 by the state detection part 4.SELECTED DRAWING: Figure 1

Description

本発明は、測定装置、及び測定方法に関する。   The present invention relates to a measuring apparatus and a measuring method.

脊柱側弯症は、背骨が曲がってしまう病気で、原因が解明されていないため、事前に予防したりすることは、困難である。脊柱側弯症は、一方で、その発症率は、100人に1人程度と言われ、非常に発症率が高い病気の一つである。例えば、この脊柱側弯症で、わが国で最も発症が多いのが突発性側弯症で、脊柱側弯症全体の80〜90%を占めていると言われている。突発性側弯症は、思春期に発症することが最も多く、小学校高学年から中学校時代に発症することが多い。10〜15歳頃の成長の最も著しい時期に、脊柱の湾曲が強くなり、成長期を過ぎる17〜18際頃には湾曲の進行も止まるとされている。脊柱側弯症の症状は、背骨が左右に曲がると同時に背骨にねじれが発生し、その結果、肋骨に変形が起こり隆起が生じる。脊柱側弯症は、変形が進行すると心肺機能が低下し、腰背部痛によって著しく日常生活が障害される疾患である。脊柱側弯症は、早期に発見し装置治療を適切な時期に行えば、76%は変形角度の進行を10°以内にすることが可能であると報告されている(下記の非特許文献1)。さらに、chiari奇形と脊椎空洞証の早期発見と治療が脊柱変形の進行の予防に極めて重要であることも明らかにされている(下記の非特許文献2)。わが国では、昭和54年度から、学校保健法の施行規則に基づき、小中学校では脊柱の検診が義務付けられている。学校における検診等では、多数の被験者を検診する必要があり、また、従来行われてきた医師による視診あるいは触診では、簡便性等の点で問題があるため、背骨の歪みを検出する装置が要求されている。   Scoliosis is a disease that causes the spine to bend and its cause has not been elucidated, so it is difficult to prevent it beforehand. Scoliosis, on the other hand, is said to have an incidence of about 1 in 100 people, and is one of the diseases with a very high incidence. For example, it is said that scoliosis is the most frequently occurring scoliosis in Japan and accounts for 80 to 90% of all scoliosis. Idiopathic scoliosis most often develops in adolescence, and often occurs in elementary school to middle school. It is said that the curvature of the spinal column becomes stronger at the most remarkable time of growth around 10 to 15 years old, and the progress of the curvature stops at around 17 to 18 after the growth period. The symptom of scoliosis is that the spine bends to the left and right, and at the same time, the spine twists, resulting in deformation of the ribs and bulges. Scoliosis is a disease in which cardiopulmonary function declines as deformation progresses, and daily life is significantly impaired by back and back pain. If scoliosis is detected early and device treatment is performed at an appropriate time, it is reported that 76% can make the progression of the deformation angle within 10 ° (Non-patent Document 1 below). . Furthermore, it has also been clarified that early detection and treatment of chiari malformation and spinal cavity identification are extremely important in preventing the progression of spinal deformity (Non-patent Document 2 below). In Japan, since 1979, vertebral column screening has been obligatory at elementary and junior high schools in accordance with the enforcement regulations of the School Health Law. It is necessary to examine a large number of subjects for screening at school, etc., and the conventional inspection and palpation by doctors has a problem in terms of convenience, etc., so a device for detecting spinal distortion is required. Has been.

従来、脊椎側弯症の検査等において、X線撮影装置を用いたX線検査法が多く用いられている。X線検査法は、X線で胸部を撮影し、脊柱の湾曲度を医師の判定により計測する手法であり、X線撮影画像により、脊柱の側方への湾曲度を把握することができる。しかし、一般的なX線検査法では、側方への湾曲度合いは判定できても、体表面の凹凸の程度は判定できないという難点があった。また、人体の被曝の観点からX線撮影の回数が限られ、検査可能な項目が限定される。また、X線検査法は、X線を扱うため、専門の技師が必要になり、検査を簡便に行うことが難しい。   Conventionally, X-ray examination methods using an X-ray imaging apparatus are often used in scoliosis examination and the like. The X-ray examination method is a method in which the chest is imaged with X-rays and the degree of curvature of the spinal column is measured by a doctor's judgment, and the degree of curvature of the spinal column to the side can be grasped from the X-ray image. However, in a general X-ray inspection method, there is a problem that even if the degree of lateral curvature can be determined, the degree of unevenness on the body surface cannot be determined. Further, the number of X-ray imaging is limited from the viewpoint of human exposure, and the items that can be inspected are limited. Further, since the X-ray inspection method handles X-rays, a specialized engineer is required, and it is difficult to easily perform the inspection.

また、背骨の歪みの検出法として、CT(Computed Tomography)装置を用いた計測も考えられるが、装置が高価で大型であるため、小規模の施設では適用が難しいという問題がある。また、CT検査では、X線検査法と同様に人体の被曝を考慮する必要がある。また、脊柱側弯症は、症状の進行度合いを評価するため、時系列データが必要になり、計測データの数値化も求められている。X線撮影装置やCT装置を用いず、計測データの数値化ができる検出装置としては、例えば、特許文献1に開示の3次元センサを用いる技術が挙げられる。   In addition, as a method for detecting strain of the spine, measurement using a CT (Computed Tomography) apparatus is also conceivable. However, since the apparatus is expensive and large, there is a problem that it is difficult to apply in a small facility. In CT examination, it is necessary to consider exposure of the human body as in X-ray examination. In addition, scoliosis requires time series data in order to evaluate the degree of progression of symptoms, and the measurement data is required to be digitized. An example of a detection apparatus that can digitize measurement data without using an X-ray imaging apparatus or a CT apparatus is a technique using a three-dimensional sensor disclosed in Patent Document 1.

国際公開2013/081030号International Publication No. 2013/081030

百村 励、米澤 郁穂、J Spine Res, 2010, 1:1960-1963Toru Momomura, Mizuho Yonezawa, J Spine Res, 2010, 1: 1960-1963 Nakahara D, Yonezawa I, J Spine Res, 2011, 36:E482-485Nakahara D, Yonezawa I, J Spine Res, 2011, 36: E482-485

ところで、背骨の歪みを検出する装置は、測定結果(結果)が容易に把握可能であることが要求される。本発明は、上記の事情に鑑みなされたものであり、測定結果を容易に把握することができる測定装置、及び測定方法を提供することを目的とする。   By the way, an apparatus for detecting spinal distortion is required to be able to easily grasp a measurement result (result). The present invention has been made in view of the above circumstances, and an object thereof is to provide a measuring apparatus and a measuring method capable of easily grasping a measurement result.

本発明の第1の態様の測定装置は、被験者の背部を撮像する撮像部と、被験者の背部の3次元データを取得する3次元データ取得部と、背部の特徴部位の状態を3次元データに基づいて検出する状態検出部と、撮像部による実画像、3次元データに基づく処理画像、及び状態検出部の検出結果を表示する表示部と、を備える。   The measuring device according to the first aspect of the present invention includes an imaging unit that images the back of the subject, a three-dimensional data acquisition unit that acquires three-dimensional data of the back of the subject, and the state of the characteristic part of the back as three-dimensional data. A state detection unit that detects based on the image, a real image obtained by the imaging unit, a processed image based on three-dimensional data, and a display unit that displays a detection result of the state detection unit.

本発明の第2の態様の測定方法は、被験者の背部を撮像することと、被験者の背部の3次元データを取得することと、背部の特徴部位の状態を3次元データに基づいて検出することと、撮像部による実画像及び3次元データに基づく処理画像を表示部に表示することと、を含む。   The measurement method according to the second aspect of the present invention includes imaging the back of the subject, acquiring three-dimensional data of the back of the subject, and detecting the state of the characteristic part of the back based on the three-dimensional data. And displaying a processed image based on the real image and the three-dimensional data by the imaging unit on the display unit.

実施形態に係る測定装置を示す概念図である。It is a conceptual diagram which shows the measuring apparatus which concerns on embodiment. 実施形態に係る測定装置のブロック図である。It is a block diagram of the measuring device concerning an embodiment. 実施形態に係る測定装置を示す図である。It is a figure which shows the measuring apparatus which concerns on embodiment. 実施形態に係る撮像部及び3次元データ取得部を示す図である。It is a figure which shows the imaging part and three-dimensional data acquisition part which concern on embodiment. ポジショナーを示す側面図である。It is a side view which shows a positioner. 図5のポジショナーを示す正面図である。It is a front view which shows the positioner of FIG. 実画像及び3次元データを示す画像を示す図である。It is a figure which shows the image which shows a real image and three-dimensional data. 第1の脊柱検出部を説明する図である。It is a figure explaining a 1st spinal column detection part. 第2の脊柱検出部を説明する図である。It is a figure explaining a 2nd spinal column detection part. 表示部による表示を示す図である。It is a figure which shows the display by a display part. 実施形態に係る測定方法のフローチャートである。It is a flowchart of the measuring method which concerns on embodiment. 図11に続いて、測定方法のフローチャートである。FIG. 12 is a flowchart of the measurement method following FIG.

以下、本発明の実施形態について図面を参照しながら説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部または全部を模式的に記載するとともに、一部分を大きくまたは強調して記載する等適宜縮尺を変更して表現した部分を含んでいる。以下の各図において、XYZ座標系を用いて図中の方向を説明する。このXYZ座標系においては、水平面に平行な平面をXY平面とする。このXY平面に平行な任意の方向をX方向と表記し、X方向に直交する方向をY方向と表記する。また、XY平面に垂直な方向(上下方向)はZ方向と表記する。また、各方向において、適宜、矢印の先端と同じ側を+側(例、+Z側)、矢印の先端と反対側を−側(例、−Z側)と称す。例えば、鉛直方向(Z方向)において、上方が+Z側であり、下方が−Z側である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to describe the embodiment, a part or the whole is schematically described, and a part expressed by changing the scale as appropriate, such as a part being enlarged or emphasized, is included. In the following drawings, directions in the drawings will be described using an XYZ coordinate system. In this XYZ coordinate system, a plane parallel to the horizontal plane is defined as an XY plane. An arbitrary direction parallel to the XY plane is expressed as an X direction, and a direction orthogonal to the X direction is expressed as a Y direction. A direction perpendicular to the XY plane (up and down direction) is referred to as a Z direction. In each direction, the same side as the tip of the arrow is appropriately referred to as a + side (eg, + Z side), and the opposite side of the arrow is referred to as a − side (eg, −Z side). For example, in the vertical direction (Z direction), the upper side is the + Z side and the lower side is the -Z side.

図1は、実施形態に係る測定装置を示す概念図である。本実施形態の測定装置1は、被験者Hの背部を撮像する撮像部2と、被験者Hの背部の3次元データを取得する3次元データ取得部3と、被験者Hの背部の特徴部位の状態を3次元データに基づいて検出する状態検出部4と、撮像部2による実画像Im1、3次元データに基づく処理画像Im2、及び状態検出部4の検出結果D1を表示する表示部5と、を備える。   FIG. 1 is a conceptual diagram illustrating a measurement apparatus according to an embodiment. The measuring device 1 of the present embodiment includes an imaging unit 2 that images the back of the subject H, a three-dimensional data acquisition unit 3 that acquires three-dimensional data of the back of the subject H, and the state of the characteristic part of the back of the subject H. A state detection unit 4 that detects based on three-dimensional data, a real image Im1 obtained by the imaging unit 2, a processed image Im2 based on three-dimensional data, and a display unit 5 that displays a detection result D1 of the state detection unit 4 are provided. .

図2は、実施形態に係る測定装置を示すブロック図である。測定装置1は、撮像部2と、3次元データ取得部3と、コンピュータ装置CPと、を備える。撮像部2、3次元データ取得部3(3次元センサ)、表示部5、及び入力部6は、それぞれ、コンピュータ装置CPに、有線または無線により通信可能に接続される。コンピュータ装置CPは、CPUおよびメモリを備えるパーソナルコンピュータ等である。コンピュータ装置CPは、記憶部16に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。   FIG. 2 is a block diagram illustrating the measurement apparatus according to the embodiment. The measuring device 1 includes an imaging unit 2, a three-dimensional data acquisition unit 3, and a computer device CP. The imaging unit 2, the three-dimensional data acquisition unit 3 (three-dimensional sensor), the display unit 5, and the input unit 6 are each connected to the computer device CP so as to be communicable by wire or wirelessly. The computer device CP is a personal computer provided with a CPU and a memory. The computer device CP reads a program stored in the storage unit 16 and executes various processes according to the program.

コンピュータ装置CPは、状態検出部4と、抽出部10と、正中線検出部11と、特徴部位指定部12と、自動評価部13と、表示制御部14と、操作部15と、記憶部16と、を備える。上記のプログラムは、コンピュータを、各種の処理を行う処理部PU(状態検出部4、抽出部10、正中線検出部11、特徴部位指定部12、自動評価部13)、各種の制御を行う制御部CU(表示制御部14、操作部15)として機能させる。   The computer device CP includes a state detection unit 4, an extraction unit 10, a midline detection unit 11, a feature part designation unit 12, an automatic evaluation unit 13, a display control unit 14, an operation unit 15, and a storage unit 16. And comprising. The program described above is a control unit that performs various controls on the computer, a processing unit PU (a state detection unit 4, an extraction unit 10, a midline detection unit 11, a feature part designation unit 12, an automatic evaluation unit 13) that performs various processes. Function as a unit CU (display control unit 14, operation unit 15).

図3は、本実施形態の測定装置1を示す斜視図である。図3に示す測定装置1は、立位状態の被験者Hの測定を行う状態を示している。測定装置1は、例えば、上記した撮像部2、3次元データ取得部3及びコンピュータ装置CPと、下部フレーム21と、鉛直フレーム22と、支持フレーム23と、支柱部25と、支持部26と、テーブル27と、複数の車輪28と、を備える。   FIG. 3 is a perspective view showing the measuring apparatus 1 of the present embodiment. The measuring apparatus 1 shown in FIG. 3 shows a state in which the subject H in a standing position is measured. The measuring device 1 includes, for example, the imaging unit 2, the three-dimensional data acquisition unit 3, the computer device CP, the lower frame 21, the vertical frame 22, the support frame 23, the support column 25, the support unit 26, and the like. A table 27 and a plurality of wheels 28 are provided.

下部フレーム21は、測定装置1の下部に配置される。鉛直フレーム22は、鉛直方向(Z方向)に延びており、下部フレーム21の上部に固定される。支持フレーム23は、鉛直フレーム22に固定され、支柱部25を支持する。支柱部25は、鉛直方向(Z方向)に延びており、上下方向(Z方向、鉛直方向)に伸縮可能である。支柱部25は、例えば、上下方向に伸縮可能(移動可能)な伸縮部25aと、伸縮部25aを支持する伸縮部支持部25bを備える。図2は、支柱部25が伸長した状態(伸縮部25aが上方に移動した状態)を示す。また、図3は、支柱部25が収縮した状態(伸縮部25aが下方に移動した状態)を示す。また、支柱部25は、図3に示す状態よりもさらに収縮させることができ、測定装置1のサイズをコンパクトにすることができる。伸縮部25aおよび伸縮部支持部25bには、その内部に不図示の空間部(空洞部)が設けられており、この空間部には、撮像部2及び3次元データ取得部3のそれぞれとコンピュータ装置CPとを接続するケーブル30などが収容される。伸縮部支持部25bは、その内部に伸縮部25aの一部を収容可能であり、伸縮部25aを上下方向に移動可能なように支持する。テーブル27は、鉛直フレーム22の上部に設けられる。テーブル27は、上面に物品を載置可能である。テーブル27の上面には、例えば、ノート型のコンピュータ装置CPが載置される。テーブル27には、鉛直フレーム22の上端部および支柱部25の側方に接続され、鉛直フレーム22および支柱部25に支持される。コンピュータ装置CPは、ケーブル30により3次元データ取得部3に接続される。   The lower frame 21 is disposed at the lower part of the measuring apparatus 1. The vertical frame 22 extends in the vertical direction (Z direction) and is fixed to the upper portion of the lower frame 21. The support frame 23 is fixed to the vertical frame 22 and supports the column portion 25. The support column 25 extends in the vertical direction (Z direction) and can be expanded and contracted in the vertical direction (Z direction, vertical direction). The column part 25 includes, for example, an expandable part 25a that can be expanded and contracted (movable) in the vertical direction and an expandable part support part 25b that supports the expandable part 25a. FIG. 2 shows a state in which the column part 25 is extended (a state in which the expansion / contraction part 25a is moved upward). FIG. 3 shows a state in which the column part 25 is contracted (a state in which the expansion / contraction part 25a is moved downward). Moreover, the support | pillar part 25 can be further contracted rather than the state shown in FIG. 3, and the size of the measuring apparatus 1 can be made compact. The expansion / contraction part 25a and the expansion / contraction part support part 25b are provided with a space part (hollow part) (not shown) in the interior thereof. In this space part, each of the imaging unit 2 and the three-dimensional data acquisition unit 3 and a computer are provided. A cable 30 or the like for connecting the device CP is accommodated. The expansion / contraction part support part 25b can accommodate a part of the expansion / contraction part 25a therein, and supports the expansion / contraction part 25a so as to be movable in the vertical direction. The table 27 is provided on the upper part of the vertical frame 22. The table 27 can place an article on the upper surface. On the upper surface of the table 27, for example, a notebook computer device CP is placed. The table 27 is connected to the upper end of the vertical frame 22 and the side of the support column 25 and is supported by the vertical frame 22 and the support column 25. The computer device CP is connected to the three-dimensional data acquisition unit 3 by a cable 30.

伸縮部25aの上側(+Z側)の端部には、支持部26が接続される。支持部26は、支持部26に撮像部2及び3次元データ取得部3を取り付けるための取り付け部32が設けられる。支持部26は、取り付け部32を介して、撮像部2及び3次元データ取得部3を支持する。撮像部2及び3次元データ取得部3は、後述すKinectセンサSをケースに収容したものであり、このケースが支持部26に支持される。支持部26は、Y方向に平行な軸AX1周りに回転可能に、支柱部25の伸縮部25aに接続される。すなわち、支持部26は、図3に示すように、支柱部25に近づく方向に移動可能である。これにより、測定装置1のサイズをコンパクトにすることができる。取り付け部32は、撮像部2及び3次元データ取得部3を、支持部26に対して回転可能に支持する。例えば、図2に示す例において、取り付け部32は、3次元データ取得部3を、X方向に平行な軸AX2周りに回転可能に支持する。これにより、撮像部2及び3次元データ取得部3の向きを変えることができる。撮像部2及び3次元データ取得部3の向きを下向きに変えることにより、測定装置1は、横臥状態の被験者Hを測定することができる。また、撮像部2及び3次元データ取得部3の向きを変えることができる場合、撮像部2及び3次元データ取得部3の向きを被験者Hに対してより正確に向けることができる。   A support portion 26 is connected to the upper end (+ Z side) of the extendable portion 25a. The support unit 26 is provided with an attachment unit 32 for attaching the imaging unit 2 and the three-dimensional data acquisition unit 3 to the support unit 26. The support unit 26 supports the imaging unit 2 and the three-dimensional data acquisition unit 3 via the attachment unit 32. The imaging unit 2 and the three-dimensional data acquisition unit 3 contain a Kinect sensor S described later in a case, and this case is supported by the support unit 26. The support part 26 is connected to the expansion / contraction part 25a of the column part 25 so as to be rotatable around an axis AX1 parallel to the Y direction. That is, the support part 26 is movable in the direction approaching the support | pillar part 25, as shown in FIG. Thereby, the size of the measuring apparatus 1 can be made compact. The attachment unit 32 supports the imaging unit 2 and the three-dimensional data acquisition unit 3 so as to be rotatable with respect to the support unit 26. For example, in the example illustrated in FIG. 2, the attachment unit 32 supports the three-dimensional data acquisition unit 3 so as to be rotatable around an axis AX2 parallel to the X direction. Thereby, the directions of the imaging unit 2 and the three-dimensional data acquisition unit 3 can be changed. By changing the orientation of the imaging unit 2 and the three-dimensional data acquisition unit 3 downward, the measuring device 1 can measure the subject H in the lying state. In addition, when the orientation of the imaging unit 2 and the three-dimensional data acquisition unit 3 can be changed, the orientation of the imaging unit 2 and the three-dimensional data acquisition unit 3 can be more accurately directed toward the subject H.

複数の車輪28は、下部フレーム21の下部に設けられる。複数の車輪28は、撮像部2及び3次元データ取得部3を少なくとも含むユニット(下部フレーム21の上方の構造物)を移動可能である。本実施形態において、下部フレーム21に測定装置1の他の部分が支持されており、測定装置1は、その全体が床面上を走行可能である。   The plurality of wheels 28 are provided below the lower frame 21. The plurality of wheels 28 can move a unit (a structure above the lower frame 21) including at least the imaging unit 2 and the three-dimensional data acquisition unit 3. In this embodiment, the other part of the measuring device 1 is supported by the lower frame 21, and the measuring device 1 can travel on the floor as a whole.

なお、測定装置1は、図3に示す構成は一例であり、他の構成でもよい。例えば、上記した下部フレーム21、鉛直フレーム22、支持フレーム23、支柱部25、支持部26及びテーブル27の形状、大きさ等の構成は、図3に示すものに限定されず、任意である。また、コンピュータ装置CPは、ノート型のものに限定されず、任意のものを用いることができる。例えば、コンピュータ装置CPは、デスクトップ型でもよいし、タブレット型でもよい。   In addition, the structure shown in FIG. 3 is an example for the measuring apparatus 1, and another structure may be sufficient as it. For example, the configurations of the shape, size, and the like of the lower frame 21, the vertical frame 22, the support frame 23, the support column 25, the support unit 26, and the table 27 described above are not limited to those illustrated in FIG. Further, the computer apparatus CP is not limited to a notebook type, and an arbitrary one can be used. For example, the computer device CP may be a desktop type or a tablet type.

次に、撮像部2及び3次元データ取得部3について説明する。図4は、本実施形態に係る撮像部2及び3次元データ取得部3を示す図である。撮像部2及び3次元データ取得部3は、例えば、Kinect(登録商標)(v2)センサS(以下、「Kinectセンサ」と略称する。)を用いている。なお、撮像部2及び3次元データ取得部3としては、例えば、レーザパターン投影方式の3次元センサ(例、Kinectセンサ(v1))を用いることもできる。   Next, the imaging unit 2 and the three-dimensional data acquisition unit 3 will be described. FIG. 4 is a diagram illustrating the imaging unit 2 and the three-dimensional data acquisition unit 3 according to the present embodiment. The imaging unit 2 and the three-dimensional data acquisition unit 3 use, for example, a Kinect (registered trademark) (v2) sensor S (hereinafter, abbreviated as “Kinect sensor”). As the imaging unit 2 and the three-dimensional data acquisition unit 3, for example, a laser pattern projection type three-dimensional sensor (eg, Kinect sensor (v1)) may be used.

KinectセンサSは、図4に示すように、RGBカメラSa、赤外線レーザ発光部Sb、及び測定用赤外線カメラScを搭載している。KinectセンサSは、RGBカメラSaで、RGBカラーの画像(動画)を取得する。また、KinectセンサSは、物体に対して、赤外線レーザ発光部Sbでアクティブに近赤外光(LED光)を照射し、測定用赤外線カメラScで受光することにより、反射光の飛行時間を測定して、この飛行時間に基づいて物体との距離を測定する。これにより、KinectセンサSは、物体の3次元データ(3次元デプスデータ)を取得する。KinectセンサSは、いわゆる、TOF(Time of Flight)方式の3次元センサである。KinectセンサSは、当初ゲーム機用のセンサであったが、コンピュータ装置(パーソナルコンピュータ)CP(図2参照)等にもUSb端子を介して接続可能である。   As shown in FIG. 4, the Kinect sensor S includes an RGB camera Sa, an infrared laser light emitting unit Sb, and a measurement infrared camera Sc. The Kinect sensor S acquires an RGB color image (moving image) with the RGB camera Sa. The Kinect sensor S actively irradiates an object with near-infrared light (LED light) by the infrared laser emitting unit Sb and receives the light with the measuring infrared camera Sc, thereby measuring the flight time of the reflected light. Then, the distance to the object is measured based on this flight time. Thereby, the Kinect sensor S acquires three-dimensional data (three-dimensional depth data) of the object. The Kinect sensor S is a so-called TOF (Time of Flight) type three-dimensional sensor. The Kinect sensor S was originally a sensor for game machines, but can also be connected to a computer device (personal computer) CP (see FIG. 2) or the like via a USb terminal.

また、KinectセンサSは、例えば、マイクロソフトリサーチ社が提供する「Kinect for Windows(登録商標) SDK(Software Development Kit)」を用いれば、C言語で記述したプログラムによりKinectセンサをコンピュータ装置CPから制御することできる。また、KinectセンサSが出力するデータの処理は、Point Cloud Library等のソフトウェアを用いることができる。このように、KinectセンサSを用いる場合、開発環境やデータ処理環境が整っているため、制御プログラムや解析プログラム等を容易に開発することができる。また、KinectセンサSは、装置及び制御ソフトを安価で入手可能であるため、3次元センサとしてKinectセンサSを用いる場合、測定装置1を低コストで製造することができる。   The Kinect sensor S controls the Kinect sensor from the computer device CP using a program written in C language, for example, by using “Kinect for Windows (registered trademark) SDK (Software Development Kit)” provided by Microsoft Research. I can. In addition, software such as Point Cloud Library can be used for processing data output from the Kinect sensor S. As described above, when the Kinect sensor S is used, since the development environment and the data processing environment are prepared, a control program, an analysis program, and the like can be easily developed. In addition, since the Kinect sensor S can be obtained at low cost, the measurement apparatus 1 can be manufactured at a low cost when the Kinect sensor S is used as a three-dimensional sensor.

本実施形態の撮像部2は、KinectセンサSのRGBカメラSaである。これにより、撮像部2は、画像(画像データ)を取得する。また、本実施形態の3次元データ取得部3は、赤外線レーザ発光部Sb、及び測定用赤外線カメラScである。これにより、3次元データ取得部3は、物体の3次元データを取得する。   The imaging unit 2 of the present embodiment is an RGB camera Sa of the Kinect sensor S. Thereby, the imaging unit 2 acquires an image (image data). Further, the three-dimensional data acquisition unit 3 of the present embodiment is an infrared laser emission unit Sb and a measurement infrared camera Sc. Thereby, the three-dimensional data acquisition unit 3 acquires the three-dimensional data of the object.

なお、撮像部2及びRGBカメラSaは、それぞれ、KinectセンサSを用いなくてもよい。例えば、撮像部2は、画像を撮像可能なビデオカメラ(デジタルビデオカメラ)などを用いてもよい。また、3次元データ取得部3は、物体の3次元データを取得可能なセンサあるいは3Dスキャナなどを用いてもよい。   Note that the imaging unit 2 and the RGB camera Sa may not use the Kinect sensor S, respectively. For example, the imaging unit 2 may use a video camera (digital video camera) that can capture an image. The three-dimensional data acquisition unit 3 may use a sensor or a 3D scanner that can acquire three-dimensional data of an object.

また、本実施形態では、撮像部2の光の入射側に、基準部31が設けられている。なお、図4には、基準部31を点線で示している。基準部31は、撮像部2が取得した画像に基準を付与する。基準部31は、例えば、ガラス、樹脂などの透光部材の表面の中心に、基準となる十字形状の中心線31aを有している。中心線31aは、水平方向と平行な所定の長さの直線及び鉛直方向と平行な所定の長さの直線であり、これらはそれぞれの中心で直交している。基準(中心線31a)は、例えば、取得した画像あるいは3次元データの所定位置に設定される。本実施形態では、中心線31aの十字形状の交点が、撮像部2が取得する画像の中心に位置するように設定されている。これにより、撮像部2が取得した画像の中心に、中心線31a(中心線31aのデータ)が付与される。このように、撮像部2が取得した画像の中心に基準(中心線31a)が付与される場合、画像処理において、中心線31aを用いて処理を行うこともできる。なお、画像に付与された中心線31a(中心線31aのデータ)のうち、床面に対して鉛直方向と平行な線を、「上下中心線」と称すことがあり、また、床面に対して平行な線を、「左右中心線」と称すことがある。   In the present embodiment, the reference unit 31 is provided on the light incident side of the imaging unit 2. In FIG. 4, the reference portion 31 is indicated by a dotted line. The reference unit 31 gives a reference to the image acquired by the imaging unit 2. The reference part 31 has a cross-shaped center line 31a serving as a reference at the center of the surface of a translucent member such as glass or resin. The center line 31a is a straight line having a predetermined length parallel to the horizontal direction and a straight line having a predetermined length parallel to the vertical direction, which are orthogonal to each other. The reference (center line 31a) is set at a predetermined position of the acquired image or three-dimensional data, for example. In the present embodiment, the cross-shaped intersection of the center line 31a is set to be positioned at the center of the image acquired by the imaging unit 2. Thereby, the center line 31a (data of the center line 31a) is given to the center of the image acquired by the imaging unit 2. As described above, when the reference (center line 31a) is given to the center of the image acquired by the imaging unit 2, it is also possible to perform processing using the center line 31a in the image processing. Of the center line 31a (data of the center line 31a) assigned to the image, a line parallel to the vertical direction with respect to the floor surface may be referred to as “vertical center line”. The parallel lines are sometimes referred to as “left and right center lines”.

なお、基準部31の画像上の設定位置は、上記した中心の位置に限定されず、任意である。例えば、基準部31の位置は、中心から所定の距離に、1つあるいは複数配置されてもよい。また、基準部31の形状は、上記した十字形状に限定されず、任意である。例えば、基準部31の形状は、点でもよいし、点線でもよいし、所定の形状のマークなどでもよい。また、基準部31は、撮像部2及び3次元データ取得部3のそれぞれに設けられてもよい。また、測定装置1が、基準部31を備えるか否かは任意である。また、上記した上下中心線及び左右中心線のうち少なくとも1つは、基準部31により画像に付与されたものでなくてもよい。例えば、上記した上下中心線及び左右中心線のうち少なくとも1つは、撮像部2に取得された画像に基づいて、求めたものでもよい。   Note that the setting position on the image of the reference unit 31 is not limited to the center position described above, and is arbitrary. For example, one or a plurality of reference portions 31 may be arranged at a predetermined distance from the center. Further, the shape of the reference portion 31 is not limited to the cross shape described above, and is arbitrary. For example, the shape of the reference portion 31 may be a point, a dotted line, a mark having a predetermined shape, or the like. Further, the reference unit 31 may be provided in each of the imaging unit 2 and the three-dimensional data acquisition unit 3. Further, whether or not the measuring apparatus 1 includes the reference unit 31 is arbitrary. In addition, at least one of the above-described upper and lower center lines and the left and right center lines may not be provided to the image by the reference unit 31. For example, at least one of the above-described vertical center line and the horizontal center line may be obtained based on an image acquired by the imaging unit 2.

撮像部2は、被験者Hの背部を撮像する。撮像部2は、被験者Hの背部を撮像して画像を取得する。3次元データ取得部3は、被験者Hの背部を撮影して背部の3次元データを取得する。この3次元データは、被験者Hの背部の3次元形状データとなる。測定装置1は、例えば、3次元データを用いて、被験者Hの背部の状態を測定することができる。   The imaging unit 2 images the back of the subject H. The imaging unit 2 captures the back of the subject H and acquires an image. The three-dimensional data acquisition unit 3 captures the back of the subject H and acquires three-dimensional data of the back. This three-dimensional data becomes the three-dimensional shape data of the back of the subject H. The measuring device 1 can measure the state of the back of the subject H using, for example, three-dimensional data.

なお、背部は、被験者Hの背側部分であり、頭部から足の先端までの部分を含む。3次元データは、例えば、被験者Hの背部の表面上の複数の点の三次元座標を含むデータである。例えば、3次元データは、被験者の背部の表面における各点の相対的な座標のデータを含むデータである。例えば、相対的な座標のデータは、被験者Hの背部における所定位置(例、後頭部の所定位置)の座標を基準に対する相対的な座標である。相対的な座標を用いる場合、3次元データ取得部3から被験者Hの背部上の各点までの距離のキャリブレーション用の基準部材を用いなくても被験者Hの背部の表面形状を取得することができ、簡便に3次元データを取得することができる。なお、座標データは、被験者Hの背部の表面における各点の相対的な座標のデータ以外に、絶対座標データでもよいし、被験者Hの背部以外に配置される基準に対する相対座標データでもよい。3次元データの解像度は、例えば、1mm〜10mmの解像度である。   In addition, a back part is a test subject's H back part, and includes the part from a head to the front-end | tip of a leg | foot. The three-dimensional data is data including three-dimensional coordinates of a plurality of points on the surface of the back of the subject H, for example. For example, the three-dimensional data is data including data on relative coordinates of each point on the surface of the back of the subject. For example, the relative coordinate data is a relative coordinate with respect to a coordinate of a predetermined position (eg, a predetermined position of the back of the head) on the back of the subject H. When using relative coordinates, the surface shape of the back of the subject H can be acquired without using a reference member for calibration of the distance from the three-dimensional data acquisition unit 3 to each point on the back of the subject H. The three-dimensional data can be easily acquired. The coordinate data may be absolute coordinate data or relative coordinate data with respect to a reference other than the back of the subject H, in addition to the relative coordinate data of each point on the surface of the back of the subject H. The resolution of the three-dimensional data is, for example, 1 mm to 10 mm.

撮像部2が撮像した画像と3次元データ取得部3が取得した3次元データとは、関連付けられて、記憶部16に記憶され、処理部PUあるいは制御部CUにより処理される。本明細書では、撮像部2が撮像した画像を「実画像」と称す。なお、実画像は、撮像部2が撮像した画像が処理された処理された画像でもよい。   The image captured by the imaging unit 2 and the 3D data acquired by the 3D data acquisition unit 3 are associated with each other, stored in the storage unit 16, and processed by the processing unit PU or the control unit CU. In this specification, an image captured by the imaging unit 2 is referred to as a “real image”. The real image may be a processed image obtained by processing an image captured by the imaging unit 2.

図5は、撮像部2が取得した実画像、及び3次元データ取得部3が取得した3次元データに基づく処理画像(以下、「3次元データを示す画像」と称す。)を示す図である。図5には、撮像部2が取得した画像Im1、及び3次元データを示す画像Im2を、表示部5に表示した画像である。この画像Im1は、撮像部2が取得した動画の一部である。画像Im2は、連続して取得した3次元データの一部のデータを処理した画像である。撮像部2が取得した画像Im1は、例えば、3次元データ取得部3が取得した3次元データに対応する実画像である。画像Im1は、上記した基準部31の十字状の中心線31aを含んでいる。画像Im2は、3次元データに基づいて処理された処理画像であり、3次元データを示す画像である。3次元データを示す画像Im2を生成する処理は、例えば、処理部PUにより行われる。例えば、図5に示す3次元データを示す画像Im2は、等高線に関する情報を含む等高線画像である。等高線画像は、例えば、3次元データの座標データを処理することにより、生成することができる。   FIG. 5 is a diagram showing a real image acquired by the imaging unit 2 and a processed image based on the three-dimensional data acquired by the three-dimensional data acquisition unit 3 (hereinafter referred to as “image showing three-dimensional data”). . In FIG. 5, an image Im1 acquired by the imaging unit 2 and an image Im2 indicating three-dimensional data are displayed on the display unit 5. The image Im1 is a part of the moving image acquired by the imaging unit 2. The image Im2 is an image obtained by processing a part of the three-dimensional data acquired continuously. The image Im1 acquired by the imaging unit 2 is a real image corresponding to the three-dimensional data acquired by the three-dimensional data acquisition unit 3, for example. The image Im1 includes the cross-shaped center line 31a of the reference portion 31 described above. The image Im2 is a processed image processed based on the three-dimensional data, and is an image indicating the three-dimensional data. The process of generating the image Im2 indicating the three-dimensional data is performed by the processing unit PU, for example. For example, the image Im2 indicating the three-dimensional data illustrated in FIG. 5 is a contour image including information regarding contour lines. The contour image can be generated, for example, by processing coordinate data of three-dimensional data.

なお、等高線画像は、等高線に関する情報を含んでいれば、図5に示す画像に限定されず、任意である。例えば、等高線画像は、所定の間隔の等高線を線状(例、実線、点線状)で示してもよいし、高さを示す情報を色あるいは濃度に変換してグラデーションで表してもよいし、長さあるいは高さなどの、等高線を示す情報以外の他の情報(画像)を含んでもよい。   Note that the contour image is not limited to the image shown in FIG. 5 as long as it includes information on contour lines, and is arbitrary. For example, the contour image may represent contour lines at a predetermined interval in a linear form (eg, solid line, dotted line form), or may represent gradation information by converting the information indicating the height into a color or density, Other information (image) such as length or height other than information indicating contour lines may be included.

画像Im1及び3次元データを示す画像Im2は、処理部PUあるいは制御部CUによって、所定の処理及び制御を受け、表示部5に並べて表示される。また、実画像Im1及び画像Im2は、それぞれ、隣接して表示される。また、実画像Im1及び画像Im2は、それぞれ、リアルタイムで表示される。また、図5に示す例では、実画像Im1及び画像Im2は、それぞれ、処理部PUあるいは制御部CUにより、同一の大きさになるように処理され、表示部5に表示される。   The image Im1 and the image Im2 indicating three-dimensional data are subjected to predetermined processing and control by the processing unit PU or the control unit CU, and are displayed side by side on the display unit 5. In addition, the real image Im1 and the image Im2 are displayed adjacent to each other. The real image Im1 and the image Im2 are each displayed in real time. In the example shown in FIG. 5, the actual image Im1 and the image Im2 are processed so as to have the same size by the processing unit PU or the control unit CU, and are displayed on the display unit 5.

図6及び図7は、ポジショナーの一例を示す図であり、図6は正面図、図7は側面図である。測定装置1は、ポジショナー33を備える。ポジショナー33は、測定装置1による測定時に被験者Hを支持する。ポジショナー33は、支持部34、支持部材35、足部支持部36、及びスクリーン37を備える。支持部34は、被験者Hを支持する。支持部34は、被験者Hの背面あるいは被験者Hの前面を支持する。足部支持部36は、被験者Hの足を下方から支持する。支持部34は、被験者Hの上半身の左右方向の中央部分に対応する部分、及び被験者Hの足先に対応する部分に、空間部38a、38bを有している。被験者Hは、支持部34に支持される際、この空間部38a、38bに被験者Hの上半身の左右方向の中央部分及び足先をいれることができる。この場合、支持部34は、支持部34に支持される際の被験者Hの負担を軽減し、確実に被験者Hを支持することができる。   6 and 7 are views showing an example of the positioner. FIG. 6 is a front view and FIG. 7 is a side view. The measuring device 1 includes a positioner 33. The positioner 33 supports the subject H during measurement by the measuring device 1. The positioner 33 includes a support part 34, a support member 35, a foot part support part 36, and a screen 37. The support unit 34 supports the subject H. The support unit 34 supports the back surface of the subject H or the front surface of the subject H. The foot support part 36 supports the foot of the subject H from below. The support part 34 has space parts 38a and 38b in a part corresponding to the center part in the left-right direction of the upper half of the subject H and a part corresponding to the toes of the subject H. When the subject H is supported by the support portion 34, the center portion and the tip of the left and right direction of the upper half of the subject H can be placed in the space portions 38a and 38b. In this case, the support part 34 can reduce the burden on the subject H when supported by the support part 34 and can support the subject H reliably.

また、支持部34は、図6に示すように、支持部材35に下方から支持され、鉛直方向に対して、所定の角度で傾いて配置されている。この傾きは、例えば、鉛直方向に対して10°程度傾くように設定される。被験者Hは、測定時に、支持部34に体重をあずけて、鉛直方向に対して傾いた状態で、支持される。なお、足部支持部36も、上記した支持部34の傾きに対応して配置され、被験者Hの足部を支持する支持面が、支持部34が人体を支持する支持面に対して、直交するように配置されている。   Further, as shown in FIG. 6, the support portion 34 is supported by the support member 35 from below, and is inclined at a predetermined angle with respect to the vertical direction. This inclination is set so as to incline about 10 ° with respect to the vertical direction, for example. At the time of measurement, the subject H is supported in a state in which the weight is applied to the support portion 34 and tilted with respect to the vertical direction. In addition, the foot part support part 36 is also arranged corresponding to the inclination of the support part 34 described above, and the support surface that supports the foot part of the subject H is orthogonal to the support surface that the support part 34 supports the human body. Are arranged to be.

ところで、測定装置1による測定時には、測定する項目の種類にもよるが、被験者Hは静止状態であるのが望まれる。上記のように支持部34が鉛直方向に対して所定の角度で傾いている場合、被験者Hは支持部34に体重をあずけることができるので、被験者Hが測定時に静止する際の負担を軽減することができる。また、測定装置1は、被験者Hをポジショナー33で支持して測定するので、静止状態の被験者Hを容易に測定することができる。被験者Hが子供などの場合、測定時に動いてしまうことがあるが、ポジショナー33を用いることにより、被験者Hを容易に静止させることができる。   By the way, at the time of measurement by the measuring device 1, it is desirable that the subject H is in a stationary state, depending on the type of item to be measured. When the support part 34 is inclined at a predetermined angle with respect to the vertical direction as described above, the subject H can apply weight to the support part 34, so that the burden on the subject H when stationary during measurement is reduced. be able to. Moreover, since the measuring apparatus 1 supports and measures the subject H with the positioner 33, the subject H in a stationary state can be easily measured. When the subject H is a child or the like, the subject H may move during measurement, but the subject H can be easily stopped by using the positioner 33.

また、支持部34の表面には、基準線40が設けられている。この基準線40は、例えば、所定の高さに配置される。基準線40は、撮像部2により撮像可能に設けられている。このような基準線40がある場合、被験者Hの伸長を容易に把握することができる。また、撮像部2は、基準線40を含んで被験者Hを撮像する場合、撮像部2が取得した画像に基準線40に関する情報が付与することができる。この場合、基準線40に関する情報を画像の処理に用いることができる。   A reference line 40 is provided on the surface of the support portion 34. For example, the reference line 40 is arranged at a predetermined height. The reference line 40 is provided so as to be imaged by the imaging unit 2. When there is such a reference line 40, it is possible to easily grasp the extension of the subject H. In addition, when the imaging unit 2 captures the subject H including the reference line 40, information regarding the reference line 40 can be added to the image acquired by the imaging unit 2. In this case, information regarding the reference line 40 can be used for image processing.

スクリーン37は、支持部34が被験者Hを支持する面と反対側に設けられている。スクリーン37は、支持部34に対して所定の位置(距離、角度)で設けられている。スクリーン37は、撮像部2により撮像された画像においては、背景になる。スクリーン37がある場合、撮像部2により撮像した画像、あるいは3次元データ取得部3により取得した3次元データに、被験者H以外の物体の情報が含まれるのを防止することができるので、画像および3次元データの精度を向上させることができる。また、スクリーン37は、支持部34に対して所定の距離で設けられているので、3次元データ取得部3が取得した3次元データにおいて、スクリーン部分を基準とすることができ、これにより、3次元データの精度を向上させることができる。   The screen 37 is provided on the side opposite to the surface on which the support portion 34 supports the subject H. The screen 37 is provided at a predetermined position (distance, angle) with respect to the support portion 34. The screen 37 serves as a background in the image captured by the imaging unit 2. When there is the screen 37, it is possible to prevent the information captured by the imaging unit 2 or the 3D data acquired by the 3D data acquisition unit 3 from including information on an object other than the subject H. The accuracy of the three-dimensional data can be improved. Further, since the screen 37 is provided at a predetermined distance with respect to the support portion 34, the screen portion can be used as a reference in the three-dimensional data acquired by the three-dimensional data acquisition unit 3, thereby The accuracy of the dimension data can be improved.

なお、ポジショナー33の構成は、図5等に示す例に限定されず、任意である。例えば、ポジショナー33は、スクリーン37を備えなくてもよい。また、測定装置1がポジショナー33を備えるか否かは、任意である。   The configuration of the positioner 33 is not limited to the example shown in FIG. For example, the positioner 33 may not include the screen 37. Further, whether or not the measuring apparatus 1 includes the positioner 33 is arbitrary.

図2の説明に戻り、抽出部10は、3次元データ取得部3により取得した3次元データ(以下、「3次元計測データ」という)から、被験者Hの表面形状に関するデータ(以下、表面形状データという)を抽出する。例えば、抽出部10は、予め人体の背部のパターンを記憶部16等に保存しておき、そのパターンと3次元計測データとのパターンマッチング処理等を用いて人体の判定を行い、3次元計測データから表面形状データを抽出する。例えば、抽出部10は、被験者Hの外形線(エッジ)を抽出する。抽出部10は、例えば、3次元計測データあるいは撮像部2が取得した画像データ(以下、単に「画像データ」と称すこともある)が表す物体の外形線を検出することにより、被験者Hの外形線の抽出を行う。抽出部10は、抽出した外形線に基づき、3次元計測データから表面形状データを抽出する。例えば、抽出部10は、3次元計測データから、表面形状データとして被験者Hの外形線の内側部分のデータを抽出する。抽出部10が人体の判定を行う場合、以降の処理を自動化することができる。例えば、3次元データ取得部3による3次元計測データの取得状態を継続し、被験者Hが3次元データ取得部3側に背部を向けて所定の姿勢をとった際に、人体であると判定することにより、以降の処理に自動的に移行させることができ、効率的に検査を行うことができる。また、抽出部10が3次元計測データから被験者Hの表面形状に関するデータを抽出することにより、処理に用いられるデータ量を減らすことができるため、以降の処理(例、各種画像処理、状態検出部4による状態の検出(算出)、正中線検出部11による中心線の検出等)を効率的に行うことができる。   Returning to the description of FIG. 2, the extraction unit 10 uses the three-dimensional data acquired by the three-dimensional data acquisition unit 3 (hereinafter referred to as “three-dimensional measurement data”) to obtain data relating to the surface shape of the subject H (hereinafter, surface shape data). Extract). For example, the extraction unit 10 stores a pattern of the back of the human body in the storage unit 16 or the like in advance, and performs a human body determination using a pattern matching process between the pattern and the three-dimensional measurement data. Extract surface shape data from For example, the extraction unit 10 extracts the outline (edge) of the subject H. For example, the extraction unit 10 detects the outline of the object represented by the three-dimensional measurement data or the object outline represented by the image data acquired by the imaging unit 2 (hereinafter, also simply referred to as “image data”). Extract lines. The extraction unit 10 extracts surface shape data from the three-dimensional measurement data based on the extracted outline. For example, the extraction unit 10 extracts data of the inner portion of the outline of the subject H as surface shape data from the three-dimensional measurement data. When the extraction unit 10 determines a human body, the subsequent processing can be automated. For example, the acquisition state of the three-dimensional measurement data by the three-dimensional data acquisition unit 3 is continued, and the subject H is determined to be a human body when taking a predetermined posture with the back facing the three-dimensional data acquisition unit 3 side. As a result, it is possible to automatically shift to subsequent processing, and to perform inspection efficiently. In addition, since the extraction unit 10 extracts data related to the surface shape of the subject H from the three-dimensional measurement data, the amount of data used for the processing can be reduced, so that subsequent processing (eg, various image processing, state detection unit) (Detection (calculation) of a state by 4 and detection of a center line by the midline detection unit 11) can be efficiently performed.

なお、抽出部10は、3次元計測データから被験者Hの表面形状に関するデータを抽出する前に、3次元計測データと画像データとの少なくとも一方から背景データを削除する処理を行ってもよい。例えば、抽出部10は、3次元計測データから被験者Hの背部の表面に対して、所定の距離以上の部分を背景データであると推定して、削除してもよい。例えば、3次元データ取得部3と被験者Hとのおおよその距離が予めわかっている場合、この距離を上記の所定の距離として用いることができる。また、抽出部10は、3次元計測データと画像データとの少なくとも一方に対して、フィルタリング等のノイズの軽減処理、コントラストや明るさなどを変更する処理等の画像処理を行ってもよい。なお、測定装置1は、抽出部10を備えなくてもよいし、抽出部10は、測定装置1の外部の装置に設けられてもよい。例えば、測定装置1は、上記の外部の装置において抽出部10により処理されたデータを用いて、各種の処理を行ってもよい。   In addition, the extraction part 10 may perform the process which deletes background data from at least one of 3D measurement data and image data, before extracting the data regarding the surface shape of the test subject H from 3D measurement data. For example, the extraction unit 10 may estimate a portion that is a predetermined distance or more away from the surface of the back of the subject H from the three-dimensional measurement data and delete it. For example, when the approximate distance between the three-dimensional data acquisition unit 3 and the subject H is known in advance, this distance can be used as the predetermined distance. Further, the extraction unit 10 may perform image processing such as noise reduction processing such as filtering and processing such as changing contrast and brightness on at least one of the three-dimensional measurement data and the image data. Note that the measurement device 1 may not include the extraction unit 10, and the extraction unit 10 may be provided in a device outside the measurement device 1. For example, the measurement apparatus 1 may perform various processes using data processed by the extraction unit 10 in the external apparatus.

正中線検出部11は、3次元計測データに基づいて、被験者Hの背部の正中線を検出する。正中線は、被験者Hの頭頂から縦(上下方向、身長の方向)に延びる直線であり、被験者Hの左右方向(幅方向)の中心線である。以下の説明において、正中線と平行な方向を、適宜、正中線方向という。この正中線は、例えば、被験者Hの背部を左右に分けて評価を行う基準として用いられる。正中線検出部11は、例えば、上記した被験者Hの背部の外形線に基づく背部の幅(左右方向の長さ)から正中線を検出する。例えば、正中線検出部11は、上記した被験者Hの背部の外形線に基づいて被験者Hの背部の各位置における幅を取得し、例えばその幅の1/2の位置(背部の幅方向の中心位置)を結んで正中線とする。なお、正中線検出部11で検出した正中線は、表示部5に表示してもよい。   The midline detection unit 11 detects the midline on the back of the subject H based on the three-dimensional measurement data. The median line is a straight line extending vertically (vertical direction, height direction) from the top of the subject H, and is a center line of the subject H in the left-right direction (width direction). In the following description, a direction parallel to the midline is appropriately referred to as a midline direction. This midline is used, for example, as a reference for evaluation by dividing the back of the subject H into left and right. For example, the midline detection unit 11 detects the midline from the width (length in the left-right direction) of the back based on the outline of the back of the subject H described above. For example, the midline detection unit 11 acquires the width at each position of the back of the subject H based on the outline of the back of the subject H described above. For example, the midline detection unit 11 has a position that is ½ of the width (the center in the width direction of the back). Position) to the midline. The midline detected by the midline detection unit 11 may be displayed on the display unit 5.

なお、正中線検出部11が、被験者Hの背部の正中線を検出する手法は、上記した例に限定されず任意である。例えば、例えば、人体の背部において脊柱の位置は、一般的に凹状態(くぼみ)となっているため、正中線検出部11は、背部の凹凸状態のデータにおいて略中央で凹状態の底(極値)となっている位置を結んだ線、あるいはこの線を、頭頂を通る直線で近似した線を正中線としてもよい。また、正中線検出部11は、撮像部2が取得した画像データを用いて、被験者Hの背部の正中線を検出してもよい。また、正中線検出部11は、被験者Hの背部のX線撮影画像データが表す形状(画像)と、3次元計測データが表す形状(画像)とを重ね合わせて、正中線を検出するようにしてもよい。例えば、評価(検出)の精度を高める場合には、正中線検出部11は、X線撮影画像を参照して正中線を決定(検出)してもよい。また、正中線検出部11は、被験者Hの背部のモアレ画像データが表す形状(画像)と、3次元計測データが表す形状(画像)とを重ね合わせて、正中線を検出してもよい。例えば、評価(検出)の精度を高める場合には、正中線検出部11は、モアレ画像を参照して正中線を決定してもよい。また、正中線検出部11は、例えば、被験者Hの脊柱を示す位置に反射テープ等で構成したマーカを予め貼付し、撮像部2が撮像した画像からマーカの位置を検出し、正中線を決定してもよい。なお、測定装置1は、正中線検出部11を備えなくてもよいし、正中線検出部11は、測定装置1の外部の装置に設けられてもよい。例えば、測定装置1は、上記の外部の装置において正中線検出部11により処理されたデータを用いて、各種の処理を行ってもよい。   In addition, the method in which the midline detection part 11 detects the midline of the back part of the test subject H is not limited to the above example, but is arbitrary. For example, since the position of the spinal column is generally concave (indentation) on the back of the human body, for example, the midline detection unit 11 has a concave bottom (pole) at the approximate center in the unevenness data of the back. A line connecting the positions (value) or a line approximating this line with a straight line passing through the top of the head may be used as the midline. Further, the midline detection unit 11 may detect the midline on the back of the subject H using the image data acquired by the imaging unit 2. Further, the midline detection unit 11 detects the midline by superimposing the shape (image) represented by the X-ray image data of the back of the subject H and the shape (image) represented by the three-dimensional measurement data. May be. For example, when enhancing the accuracy of evaluation (detection), the midline detection unit 11 may determine (detect) the midline with reference to an X-ray image. Further, the midline detection unit 11 may detect the midline by superimposing the shape (image) represented by the moire image data on the back of the subject H and the shape (image) represented by the three-dimensional measurement data. For example, when improving the accuracy of evaluation (detection), the midline detection unit 11 may determine a midline with reference to a moire image. For example, the midline detection unit 11 affixes a marker composed of a reflective tape or the like in advance at a position indicating the spinal column of the subject H, detects the position of the marker from the image captured by the imaging unit 2, and determines the midline May be. Note that the measurement device 1 may not include the midline detection unit 11, and the midline detection unit 11 may be provided in a device outside the measurement device 1. For example, the measurement apparatus 1 may perform various processes using data processed by the midline detection unit 11 in the external apparatus.

特徴部位指定部12は、被験者Hの背部における測定すべき特徴部位を指定する。特徴部位指定部12は、例えば、3次元計測データ、あるいは抽出部10により抽出された表面形状データから被験者Hの背部における測定すべき特徴部位を指定する。特徴部位指定部12は、例えば、測定すべき特徴部位を自動的に検出して指定する。例えば、特徴部位指定部12は、予め測定すべき特徴部位に関するデータを記憶部16に登録し、そのデータに基づいて特徴部位を検出する。特徴部位指定部12は、例えば、3次元計測データに基づいて被験者Hの背部の各部位を推定する処理を行う。例えば、特徴部位指定部12は、特徴部位を「第7頚椎」として、被験者Hの「第7頚椎」の位置を3次元データ、あるいは撮像部2による画像データに基づいて自動的に検出する。特徴部位指定部12は、これと同様にして、「頸椎」、「胸椎」、「腰椎」、「肩部」、「肩甲骨」、「腰部」、「骨盤」、「かかと」、「ひざ」等の各部位(各領域)を特徴部位として検出する。なお、特徴部位指定部12が検出した各部位は、各部位を示す画像を生成して、表示部5により表示してもよい。   The feature site designation unit 12 designates a feature site to be measured on the back of the subject H. The feature part designation | designated part 12 designates the characteristic part which should be measured in the back part of the test subject H from 3D measurement data or the surface shape data extracted by the extraction part 10, for example. For example, the feature part designating unit 12 automatically detects and designates a feature part to be measured. For example, the feature site designation unit 12 registers data related to the feature site to be measured in advance in the storage unit 16 and detects the feature site based on the data. The feature part designation | designated part 12 performs the process which estimates each site | part of the back part of the test subject H based on three-dimensional measurement data, for example. For example, the characteristic part designating unit 12 automatically detects the position of the “seventh cervical vertebra” of the subject H based on the three-dimensional data or the image data obtained by the imaging unit 2 with the characteristic part as the “seventh cervical vertebra”. In the same manner as this, the feature part specifying unit 12 is “cervical vertebra”, “thoracic vertebra”, “lumbar vertebra”, “shoulder”, “scapula”, “lumbar”, “pelvis”, “heel”, “knee”. Etc. are detected as characteristic parts. In addition, each part detected by the characteristic part specifying unit 12 may be displayed on the display unit 5 by generating an image indicating each part.

なお、特徴部位指定部12は、これらの各部位(各領域)を特徴部位として推定してもよい。なお、特徴部位指定部12が腰部や臀部の位置を推定し、その部位を捻じれ(歪み)の基準としてもよい。一般的に、腰部や臀部は略水平面を形成すると考えることができるので、この腰部や臀部を「第7頚椎」や「肩部」等の特徴部位の捻じれ(歪み)具合の基準とすることができる。また、特徴部位指定部12は、正中線検出部11により検出した正中線に基づいて、測定すべき特徴部位を自動的に検出してもよい。なお、特徴部位指定部12が指定する被験者Hの部位は、上記に限定されず任意である。   In addition, the characteristic part designation | designated part 12 may estimate these each part (each area | region) as a characteristic part. In addition, the characteristic site | part designation | designated part 12 is good also as the reference | standard of twist (distortion) estimating the position of a waist | hip | lumbar part or a buttocks. Generally, it can be considered that the waist and buttocks form a substantially horizontal plane, so this waist and buttocks should be used as a standard for the twisting (distortion) of characteristic parts such as the “seventh cervical vertebra” and “shoulder” Can do. Further, the feature part specifying unit 12 may automatically detect the feature part to be measured based on the median line detected by the median line detection unit 11. In addition, the site | part of the test subject H which the characteristic site | part designation | designated part 12 designates is not limited above, but is arbitrary.

また、特徴部位指定部12は、操作者が手動で指定した特徴部位を、測定すべき特徴部位として指定することができる。例えば、3次元計測データあるいは画像データに相当する画像を表示部5に表示し、操作者は、マウス、タッチペン等の入力部6を用いて、表示部5に表示された画像上の位置を選択する。入力部6は、ユーザが指定した特徴部位の情報を取得し、特徴部位指定部12は、この情報に基づいて特徴部位を指定(決定)する。なお、各状態検出部4における、被験者Hの背部における測定すべき特徴部位については、後に説明する。   In addition, the feature site designation unit 12 can designate a feature site manually designated by the operator as a feature site to be measured. For example, an image corresponding to three-dimensional measurement data or image data is displayed on the display unit 5, and the operator selects a position on the image displayed on the display unit 5 using the input unit 6 such as a mouse or a touch pen. To do. The input unit 6 acquires information on the characteristic part designated by the user, and the characteristic part designation unit 12 designates (determines) the characteristic part based on this information. In addition, the characteristic site | part which should be measured in the test subject's H back in each state detection part 4 is demonstrated later.

自動評価部13は、例えば、後述する状態検出部4の各部で検出された特徴部位の状態を自動的に評価する。自動評価部13は、例えば、予め設定される閾値との比較によって、状態検出部4の各部で検出された特徴部位の状態を自動的に評価する。これにより、被験者Hの特徴部位の状態を、簡便に把握することができる。上記の閾値としては、例えば、健常者について状態検出部4の各部で検出された値等を用いることができる。自動評価部13は、例えば、被験者Hについて状態検出部4の各部で検出された値が上記の閾値を超えた場合に、被験者Hに対する検出値と閾値との差に応じて、「・・・の部分に軽度の歪みがみられます」、「・・・の部分に中度の歪みがみられ、要観察と思われます」、「・・・の部分に重度の歪みがみられ、手術等の治療が必要と思われます」等のメッセージを表示するようにしてもよい。また、自動評価部13は、被験者Hについて過去の測定により得られた特徴部位の状態を示すデータと、被験者Hについて今回の測定により得られる特徴部位の状態を示すデータとを比較して、特徴部位の状態を自動的に評価してもよい。なお、本明細書において、自動評価部13の評価結果は、状態検出部4の検出結果に含まれるものとする。   For example, the automatic evaluation unit 13 automatically evaluates the state of the characteristic part detected by each unit of the state detection unit 4 described later. For example, the automatic evaluation unit 13 automatically evaluates the state of the characteristic part detected by each unit of the state detection unit 4 by comparison with a preset threshold value. Thereby, the state of the characteristic site | part of the test subject H can be grasped | ascertained simply. As said threshold value, the value etc. which were detected by each part of state detection part 4 about a healthy person can be used, for example. For example, when the value detected by each part of the state detection unit 4 for the subject H exceeds the threshold value, the automatic evaluation unit 13 determines whether the value of the detected value for the subject H and the threshold value are different from each other. "Slight distortion is seen in the part of" "," Middle distortion is seen in the part of ... seems to be necessary "," Severe distortion is seen in the part of ... Or the like "may be displayed. Further, the automatic evaluation unit 13 compares the data indicating the state of the characteristic part obtained by the past measurement for the subject H with the data indicating the state of the characteristic part obtained by the current measurement for the subject H, The state of the part may be automatically evaluated. In this specification, the evaluation result of the automatic evaluation unit 13 is included in the detection result of the state detection unit 4.

なお、体の歪み(例、脊椎側弯症)についての手術や各種治療の要否等の最終判断は、医師等(例、専門医)によって行われる。また、測定装置1は、自動評価部13を備えなくてもよいし、自動評価部13は、測定装置1の外部の装置に設けられてもよい。例えば、上記の外部の装置において自動評価部13は、測定装置1により得られる特徴部位の状態を示すデータを用いて、特徴部位の状態を自動的に評価してもよい。   Note that the final judgment on the necessity of surgery or various treatments for body distortion (eg, scoliosis) is made by a doctor or the like (eg, a specialist). Further, the measuring device 1 may not include the automatic evaluation unit 13, and the automatic evaluation unit 13 may be provided in a device outside the measuring device 1. For example, in the above-described external device, the automatic evaluation unit 13 may automatically evaluate the state of the characteristic part using data indicating the state of the characteristic part obtained by the measuring device 1.

次に状態検出部4について説明する。状態検出部4は、3次元データ取得部3で取得される3次元データに基づいて、特徴部位指定部12で指定された特徴部位の状態を検出する。本実施形態の状態検出部4は、脊柱の歪みを検出する。状態検出部4は、例えば、第1の脊柱検出部4a、及び第2の脊柱検出部4bを備える。なお、状態検出部4は、被験者Hの背部の歪みに関連する複数の項目(肩部、肩甲骨、腰部、下半身、骨盤、足部)を検出してもよい。   Next, the state detection unit 4 will be described. The state detection unit 4 detects the state of the feature part specified by the feature part specification unit 12 based on the three-dimensional data acquired by the three-dimensional data acquisition unit 3. The state detection unit 4 of the present embodiment detects spinal distortion. The state detection unit 4 includes, for example, a first spine column detection unit 4a and a second spine column detection unit 4b. Note that the state detection unit 4 may detect a plurality of items (shoulder, scapula, waist, lower body, pelvis, and foot) related to the distortion of the back of the subject H.

第1の脊柱検出部4aは、特徴部位の状態として、被験者Hの左右方向の体表面の凹凸状態を検出する。図8(A)〜(D)は、第1の脊柱検出部4aを説明するための図である。図8(A)は、第1の脊柱検出部4aにおける測定すべき特徴部位を示す図である。図8(A)の3次元データに基づく処理画像は、例えば表示部5に表示される。第1の脊柱検出部4aは、例えば、測定すべき特徴部位を、正中線の方向における頸椎から股間までの所定部分R1に設定し、この所定部分R1において、正中線を境にした左右のピーク位置の高低差を示す情報(以下、高低差情報)を算出する。   The first spine detection unit 4a detects the uneven state of the body surface in the left-right direction of the subject H as the state of the characteristic part. FIGS. 8A to 8D are diagrams for explaining the first spine detection unit 4a. FIG. 8A is a diagram showing a characteristic portion to be measured in the first spinal column detector 4a. The processed image based on the three-dimensional data in FIG. 8A is displayed on the display unit 5, for example. For example, the first spine detection unit 4a sets the characteristic site to be measured to a predetermined portion R1 from the cervical vertebra to the crotch in the direction of the midline, and in this predetermined portion R1, the left and right peaks with the midline as the boundary Information indicating the height difference of the position (hereinafter referred to as height difference information) is calculated.

図8(B)は、正中線に直交する面における被験者Hの体表面の形状を示す図である。図8(B)において、符号MLは正中線であり、符号PE1は正中線MLに対して左側のピーク(例、極大)であり、符号PE2は正中線MLに対して右側のピーク(例、極小)である。第1の脊柱検出部4aは、例えば、正中線に直交する面内の所定部分R2について、正中線を境界線とする左右の領域のうち、一方の領域(例、左の領域)における高さの極大値(ピークPE1の高さ)と、他方の領域(例、右の領域)における極小値(ピークPE2の高さ)との差分を、高低差hとして算出する。高低差hは、上記の高低差情報の一例である。また、第1の脊柱検出部4aは、ピークPE1とピークPE2を通る直線L1が、水平線HLと交わる角度θ1を算出する。角度θ1は、上記の高低差情報の一例である。   FIG. 8B is a diagram illustrating the shape of the body surface of the subject H in a plane orthogonal to the median line. In FIG. 8B, the symbol ML is a midline, the symbol PE1 is a peak on the left side (eg, local maximum) with respect to the median line ML, and the symbol PE2 is a peak on the right side (eg, with respect to the midline ML). Minimal). The first spine detection unit 4a, for example, for a predetermined portion R2 in a plane orthogonal to the midline, the height in one of the left and right regions (eg, the left region) having the midline as a boundary line. The difference between the local maximum value (the height of the peak PE1) and the local minimum value (the height of the peak PE2) in the other region (eg, the right region) is calculated as the height difference h. The height difference h is an example of the height difference information. Further, the first spine detection unit 4a calculates an angle θ1 at which the straight line L1 passing through the peak PE1 and the peak PE2 intersects the horizontal line HL. The angle θ1 is an example of the height difference information.

また、第1の脊柱検出部4aは、被験者Hの左右方向の脊柱の歪みの程度(レベル)を定量的に検出する。第1の脊柱検出部4aは、例えば、図8(A)に示した部分R1において正中線の方向における複数の各位置において、図8(B)に示したように正中線MLに対する左右のピーク位置の高低差情報として、例えば角度θ1を算出する。図8(C)は、第1の脊柱検出部4aが算出した角度θ1の、正中線の方向における分布を示す図である。図8(C)の画像は、例えば表示部5に表示される。図8(C)において、縦軸は正中線の方向における位置であり、横軸は角度θ1である。なお、横軸の角度θ1は、図8(B)の直線L1のように左から右に向かって高さが減少する場合に正(+)とし、その反対の場合に負(−)とした値である。   The first spine detection unit 4a quantitatively detects the degree (level) of the spinal column distortion of the subject H in the left-right direction. For example, the first spine detection unit 4a has left and right peaks with respect to the midline ML as shown in FIG. 8B at a plurality of positions in the direction of the midline in the portion R1 shown in FIG. 8A. For example, the angle θ1 is calculated as the position difference information. FIG. 8C is a diagram showing a distribution in the direction of the median line of the angle θ1 calculated by the first spine detection unit 4a. The image in FIG. 8C is displayed on the display unit 5, for example. In FIG. 8C, the vertical axis is the position in the direction of the midline, and the horizontal axis is the angle θ1. The angle θ1 on the horizontal axis is positive (+) when the height decreases from left to right as shown by the straight line L1 in FIG. 8B, and negative (−) in the opposite case. Value.

また、第1の脊柱検出部4aは、例えば、部分R1における、ピーク位置の高低差を示す角度θ1において、最大値と最小値とを算出し、最大値の絶対値と最小値の絶対値との和を「弯曲度」として算出する。この「弯曲度」は、被験者Hの脊柱の左右方向の歪みの程度を定量的に示す値である。第1の脊柱検出部4aが算出した「弯曲度」を用いると、例えば、被験者Hの脊柱の左右方向の歪みの程度を簡便且つ精度よく評価することができる。   Further, the first spine detection unit 4a calculates the maximum value and the minimum value, for example, at the angle θ1 indicating the height difference of the peak position in the portion R1, and calculates the absolute value of the maximum value and the absolute value of the minimum value. Is calculated as “curvature”. This “curvature” is a value that quantitatively indicates the degree of lateral distortion of the spine of subject H. When the “curvature” calculated by the first spine detection unit 4a is used, for example, the degree of lateral distortion of the spine of the subject H can be easily and accurately evaluated.

図8(C)に示す例では、正の角度(+の角度)の最大値を矢印Bで示し、負の角度(−の角度)の最小値を矢印Aで示した。なお、図8(A)において、この矢印AはA−A線の部分に相当し、矢印BはB−B線の部分に相当する。なお、このA−A線およびB−B線は、第1の脊柱検出部のAの検出結果として、撮像部2による実画像及び/又は3次元データに基づく画像に重ねられて、表示部5に表示される。また、第1の脊柱検出部4aは、図8(D)に示すように、A−A線における体表面の凹凸状態(符号Aで示す)、及びB−B線における体表面の凹凸状態を検出結果(符号Bで示す)として出力する。   In the example shown in FIG. 8C, the maximum value of the positive angle (+ angle) is indicated by arrow B, and the minimum value of the negative angle (− angle) is indicated by arrow A. In FIG. 8A, the arrow A corresponds to the line AA, and the arrow B corresponds to the line BB. The AA line and the BB line are superimposed on the actual image and / or the image based on the three-dimensional data by the imaging unit 2 as a detection result of A of the first spinal column detection unit, and the display unit 5 Is displayed. Further, as shown in FIG. 8D, the first spine detection unit 4a shows the uneven state of the body surface at the AA line (indicated by reference numeral A) and the uneven state of the body surface at the BB line. It outputs as a detection result (it shows with the code | symbol B).

図9は、第2の脊柱検出部4bを説明するための図である。図9(A)は、第2の脊柱検出部4bにおける測定すべき特徴部位を示す図である。図9(A)の画像は、例えば表示部5に表示される。第2の脊柱検出部4bは、特徴部位の状態として、被験者Hの前後方向(背腹方向)の体表面の凹凸状態を検出する。第2の脊柱検出部4bは、例えば、被験者Hの脊柱における前後方向の歪みの程度を定量的に検出する。第2の脊柱検出部4bは、例えば、測定すべき特徴部位を、被験者Hの背部の部分R3に設定し、この特徴部位における体表面の凹凸状態を検出する。部分R3は、例えば、被験者Hの背部の幅方向における中心位置を結んだ線に相当する部分である。部分R3の体表面の凹凸状態には、脊柱の前後方向の位置が反映されている。したがって、第2の脊柱検出部4bは、部分R3の体表面の凹凸状態を検出することにより、脊柱における前後方向の歪みを検出することができる。   FIG. 9 is a diagram for explaining the second spinal column detector 4b. FIG. 9A is a diagram showing a characteristic portion to be measured in the second spinal column detector 4b. The image in FIG. 9A is displayed on the display unit 5, for example. The second spine detection unit 4b detects the uneven state of the body surface in the front-rear direction (dorso-abdominal direction) of the subject H as the state of the characteristic part. For example, the second spine detection unit 4b quantitatively detects the degree of distortion in the front-rear direction of the spine of the subject H. For example, the second spine detection unit 4b sets a characteristic part to be measured in the back part R3 of the subject H, and detects the uneven state of the body surface at the characteristic part. The portion R3 is, for example, a portion corresponding to a line connecting the center positions in the width direction of the back of the subject H. The concavo-convex state of the body surface of the portion R3 reflects the position of the spinal column in the front-rear direction. Therefore, the second spine detection unit 4b can detect the distortion in the front-rear direction of the spine by detecting the uneven state of the body surface of the portion R3.

図9(B)は、第2の脊柱検出部4bの検出結果の例を示す図である。図9(B)の画像は、例えば、表示部5に表示される。図9(B)において、横軸は正中線の方向における体表面の位置であり、横軸は前後方向における体表面の位置である。第2の脊柱検出部4bは、例えば、正中線の方向における体表面の位置に対する前後方向における体表面の位置の分布を検出結果として出力する。図9(B)の符号L2は、被験者の上下方向に対応する線を示す。この分布は、例えば、前後方向への背骨の反りを評価すること等に利用される。なお、第2の脊柱検出部4bにおける特徴部位は、被験者Hの背部の中心線の部分R3でなくてもよく、例えば、被験者Hの背部から選択される、正中線と平行な部分でもよい。   FIG. 9B is a diagram illustrating an example of a detection result of the second spinal column detection unit 4b. The image of FIG. 9B is displayed on the display unit 5, for example. In FIG. 9B, the horizontal axis is the position of the body surface in the direction of the midline, and the horizontal axis is the position of the body surface in the front-rear direction. For example, the second spine detection unit 4b outputs a distribution of the position of the body surface in the front-rear direction with respect to the position of the body surface in the direction of the midline as a detection result. A symbol L2 in FIG. 9B indicates a line corresponding to the vertical direction of the subject. This distribution is used, for example, to evaluate the curvature of the spine in the front-rear direction. In addition, the characteristic site | part in the 2nd spinal column detection part 4b may not be the part R3 of the centerline of the back part of the test subject H, for example, may be a part parallel to the median line selected from the back part of the test subject H.

上記のように本実施形態の測定装置1は、被験者Hの脊柱の歪みを簡単かつ精度よく検出することができる。また、測定装置1は、被験者Hの脊柱における左右方向の歪みを検出することができるので、被験者Hが脊柱側弯症であることを検出することができる。また、測定装置1は、被験者Hの脊柱における前後方向の歪みを検出することができるので、被験者Hが脊柱前湾症、あるいは脊柱後湾症であることを検出することができる。このような測定装置1は、学校検診における脊柱側弯症のスクリーニング、病院・診療所での脊柱側弯症の検出、脊柱側弯症手術前後の経過観察などに好適に用いることができる。   As described above, the measuring apparatus 1 according to the present embodiment can easily and accurately detect the distortion of the spine of the subject H. Moreover, since the measuring apparatus 1 can detect the lateral distortion in the spine of the subject H, it can detect that the subject H has scoliosis. Moreover, since the measuring apparatus 1 can detect the distortion | strain of the front-back direction in the spinal column of the test subject H, it can detect that the test subject H has the lordosis or the kyphosis. Such a measuring apparatus 1 can be suitably used for scoliosis screening in school screening, detection of scoliosis in hospitals / clinics, and follow-up before and after scoliosis surgery.

なお、上記した第1の脊柱検出部4aおよび第2の脊柱検出部4bは、例えば静止状態の被験者Hの画像および3次元データを用いて状態の検出を行うが、所定の動作を行う被験者Hの動画を用いて、評価を総合的に行ってもよい。なお、第1の脊柱検出部4aおよび第2の脊柱検出部4bのうち少なくとも1つは、なくてもよい。   The first spine detection unit 4a and the second spine detection unit 4b described above detect the state using, for example, the image of the stationary subject H and the three-dimensional data, but the subject H performing a predetermined operation. Evaluation may be performed comprehensively using the moving image. Note that at least one of the first spine detection unit 4a and the second spine detection unit 4b may be omitted.

図2の説明に戻り、入力部6は、ユーザから各種操作指令の入力を受け付ける。入力部6としては、例えば、キーボード、マウス、ボタン、ジョイスティック、タッチパネル等の入力装置を用いることができる。   Returning to the description of FIG. 2, the input unit 6 receives input of various operation commands from the user. As the input unit 6, for example, an input device such as a keyboard, a mouse, a button, a joystick, or a touch panel can be used.

記憶部16は、コンピュータ装置CPの動作に必要な各種プログラム、各種データを記憶(格納)する。記憶部16としては、例えば、ハードディスク、フラッシュメモリ等の記憶装置を用いることができる。   The storage unit 16 stores (stores) various programs and various data necessary for the operation of the computer apparatus CP. As the storage unit 16, for example, a storage device such as a hard disk or a flash memory can be used.

表示部5は、各種情報を表示する。例えば、表示部5は、図5に示した撮像部2が取得した実画像Im1、3次元データを示す画像Im2、状態検出部4の検出結果、自動評価部13の評価結果、測定装置1の操作を行う操作部15、測定装置1の操作に関する情報、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1以外の被験者Hの背部に関する情報(例、正中線ML(図8(A)参照))等を表示する。なお、実画像Im1については、上記した中心線31aを含む画像が表示される。   The display unit 5 displays various information. For example, the display unit 5 includes the real image Im1 acquired by the imaging unit 2 illustrated in FIG. 5, the image Im2 indicating three-dimensional data, the detection result of the state detection unit 4, the evaluation result of the automatic evaluation unit 13, and the measurement device 1. Information related to the back of the subject H other than the operation unit 15 that performs the operation, information related to the operation of the measuring device 1, the real image Im1, the image Im2 that indicates three-dimensional data, and the detection result D1 of the state detection unit 4 (for example, the midline ML ( 8) and the like are displayed. As for the actual image Im1, an image including the above-described center line 31a is displayed.

表示部5の表示は、表示制御部14により制御される。表示制御部14は、上記したような表示部5に表示する情報を表示部5に表示させる。表示部5としては、例えば、ディスプレイ、液晶モニタ、タッチパネル等の表示装置等を用いることができる。また、表示部5は、被験者Hの3次元データ等を、ポリゴンやワイヤーフレーム等を用い3次元画像で表示するようにしてもよい。また、ボタン操作やポインティングデバイス操作により、3次元画像の視点等を切り換えるようにしてもよい。   The display on the display unit 5 is controlled by the display control unit 14. The display control unit 14 causes the display unit 5 to display information to be displayed on the display unit 5 as described above. As the display unit 5, for example, a display device such as a display, a liquid crystal monitor, or a touch panel can be used. The display unit 5 may display the 3D data of the subject H as a 3D image using polygons, wire frames, or the like. Further, the viewpoint of the three-dimensional image may be switched by a button operation or a pointing device operation.

図10は、表示部による表示例を示す図である。図10に示すように、表示部5は、表示制御部14の制御により、撮像部2が取得した実画像Im1、3次元データを示す画像Im2、状態検出部4の検出結果D1、測定日時D2、被験者Hの氏名D3、被験者Hの識別番号(ID)D4、操作メニューM1(操作部15)、被験者Hの背部に関する情報I、上記した自動評価部13の評価結果(図示せず)等を表示する。表示部5は、これらの情報をリアルタイムで表示することができる。   FIG. 10 is a diagram illustrating a display example by the display unit. As shown in FIG. 10, the display unit 5 is controlled by the display control unit 14, the real image Im <b> 1 acquired by the imaging unit 2, the image Im <b> 2 indicating three-dimensional data, the detection result D <b> 1 of the state detection unit 4, and the measurement date / time D <b> 2. The name D3 of the subject H, the identification number (ID) D4 of the subject H, the operation menu M1 (operation unit 15), the information I on the back of the subject H, the evaluation result (not shown) of the automatic evaluation unit 13 described above, etc. indicate. The display unit 5 can display these pieces of information in real time.

例えば、表示部5は、実画像Im1と3次元データを示す画像Im2とを、並べて表示する。例えば、表示部5は、実画像Im1と3次元データを示す画像Im2とを、並べて同一の大きさで表示する。また、表示部5は、実画像Im1に中心線31a(左右中心線及び上下中心線)を重ねて表示する。   For example, the display unit 5 displays the actual image Im1 and the image Im2 indicating three-dimensional data side by side. For example, the display unit 5 displays the actual image Im1 and the image Im2 indicating three-dimensional data side by side with the same size. Further, the display unit 5 displays the center line 31a (left and right center lines and upper and lower center lines) superimposed on the actual image Im1.

状態検出部4の検出結果D1は、状態検出部4の検出結果D1は、状態検出部4(第1の脊柱検出部4a、第2の脊柱検出部4b)の検出結果を示す情報である。例えば、図10に示す例では、表示部5は、状態検出部4の検出結果D1として、図8(C)に示した第1の脊柱検出部4aが算出した角度θ1の正中線の方向における分布を示す画像Im3、及び「弯曲度」D5を表示する。このように、表示部5は、状態検出部4の検出結果D1を、実画像Im1及び3次元データを示す画像Im2に、並べて表示することができる。本実施形態では、表示部5は、図8(D)に示したA−A線における体表面の凹凸状態、B−B線における体表面の凹凸状態を検出結果、図9(B)に示した正中線の方向における体表面の位置に対する前後方向における体表面の位置の分布なども表示することができる。   The detection result D1 of the state detection unit 4 is information indicating the detection result of the state detection unit 4 (the first spine detection unit 4a and the second spine detection unit 4b). For example, in the example shown in FIG. 10, the display unit 5 displays the detection result D1 of the state detection unit 4 in the direction of the midline of the angle θ1 calculated by the first spinal column detection unit 4a shown in FIG. An image Im3 indicating the distribution and a “curvature” D5 are displayed. As described above, the display unit 5 can display the detection result D1 of the state detection unit 4 side by side on the real image Im1 and the image Im2 indicating the three-dimensional data. In the present embodiment, the display unit 5 detects the uneven state of the body surface along the line AA shown in FIG. 8D and the uneven state of the body surface along the line BB shown in FIG. The distribution of the position of the body surface in the front-rear direction relative to the position of the body surface in the direction of the midline can also be displayed.

被験者Hの背部に関する情報Iは、被験者Hの背部に関する情報であれば任意である。例えば、図10に示す例では、被験者Hの背部に関する情報Iは、正中線MLである。被験者Hの背部に関する情報Iは、特徴部位指定部12が検出した各部位を示す情報などが挙げられる。   The information I relating to the back of the subject H is arbitrary as long as it is information relating to the back of the subject H. For example, in the example illustrated in FIG. 10, the information I regarding the back of the subject H is the median line ML. The information I related to the back of the subject H includes information indicating each part detected by the characteristic part designating unit 12.

また、操作メニューM1は、測定装置1の各種操作を行う操作部15として用いられる。操作メニューM1は、例えば、表示部5にボタンとして表示される。図10に示す例では、操作メニューM1は、「保存」、「再生/停止」、「比較」、「印刷」、「読み込み」、「設定表示」、及び「終了」の操作をするボタンとして表示される。例えば、「保存」は、取得した画像データおよび3次元データを保存する操作を行う。「再生/停止」は、画像Im1および画像Im2をリアルタイムによる表示と、記憶したデータを再生することによる表示の切り替え操作を行う。「比較」は、複数のデータの比較する操作を行う。「印刷」は、表示している画像をプリントアウトする操作を行う。「設定表示」は設定を表示する操作を行う。「読み込み」は記憶部16に格納される各種データ(例、実画像、3次元データ)を読み込んで、表示部5に表示させる操作を行う。「終了」は、アプリケーションを終了する操作を行う。このように、表示部5が操作部15を表示する場合、ユーザは、簡単に操作することができる。なお、操作部15は、図10に示す操作部15は、一例であり、これに限定されない。例えば、本実施形態の操作部15は、図には示さないが、各画像の縮尺の変更なども行うことができる。   The operation menu M1 is used as an operation unit 15 that performs various operations of the measuring apparatus 1. The operation menu M1 is displayed as a button on the display unit 5, for example. In the example shown in FIG. 10, the operation menu M1 is displayed as buttons for performing operations of “save”, “play / stop”, “compare”, “print”, “read”, “setting display”, and “end”. Is done. For example, “Save” performs an operation of saving the acquired image data and three-dimensional data. “Play / Stop” performs a display switching operation by displaying the image Im1 and the image Im2 in real time and reproducing the stored data. “Comparison” performs an operation of comparing a plurality of data. “Print” performs an operation of printing out the displayed image. “Setting display” is an operation for displaying the setting. “Read” performs an operation of reading various data (eg, real image, three-dimensional data) stored in the storage unit 16 and displaying the data on the display unit 5. “End” performs an operation to end the application. Thus, when the display unit 5 displays the operation unit 15, the user can easily operate. Note that the operation unit 15 illustrated in FIG. 10 is an example, and the present invention is not limited to this. For example, although not shown in the drawing, the operation unit 15 of the present embodiment can also change the scale of each image.

以上のように、本実施形態では、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1を表示するので、測定結果を容易に把握することができる。また、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1をリアルタイムで表示するので、測定結果を、迅速かつより容易に把握することができる。   As described above, in the present embodiment, the display unit 5 displays the actual image Im1, the image Im2 indicating three-dimensional data, and the detection result D1 of the state detection unit 4, so that the measurement result can be easily grasped. . Further, since the display unit 5 displays the real image Im1, the image Im2 indicating three-dimensional data, and the detection result D1 of the state detection unit 4 in real time, the measurement result can be grasped quickly and more easily.

また、表示部5は、上記した実画像Im1及び3次元データを示す画像Im2を並べて表示するので、測定結果を容易に把握することができる。また、表示部5は、実画像Im1、3次元データを示す画像Im2、及び状態検出部4の検出結果D1を並べて表示するので、測定結果を、さらに容易に把握することができる。   Further, since the display unit 5 displays the actual image Im1 and the image Im2 indicating three-dimensional data side by side, the measurement result can be easily grasped. Further, since the display unit 5 displays the actual image Im1, the image Im2 indicating three-dimensional data, and the detection result D1 of the state detection unit 4 side by side, the measurement result can be grasped more easily.

また、表示部5は、上記した実画像Im1及び3次元データを示す画像Im2を並べて表示するので、3次元データを取得したときの被験者Hの状態(測定状態)を実画像Im1により、より簡単に把握することができる。また、この場合、測定時において、撮像部2の撮像位置が正常であったか否かなども確認することができる。また、この場合、通常、3次元データを示す画像のみでは被験者Hを識別することは困難であるが、実画像Im1により被験者Hを識別することができる。   In addition, since the display unit 5 displays the above-described real image Im1 and the image Im2 indicating the three-dimensional data side by side, the state (measurement state) of the subject H when the three-dimensional data is acquired can be more easily represented by the real image Im1. Can grasp. In this case, it can also be confirmed whether or not the imaging position of the imaging unit 2 is normal at the time of measurement. Further, in this case, it is usually difficult to identify the subject H only by the image showing the three-dimensional data, but the subject H can be identified by the actual image Im1.

また、表示部5は、中心線31aの左右中心線及び上下中心線を、実画像Im1に重ねて表示するので、画像あるいは3次元データが取得されたときの撮像部2による撮像位置(撮像範囲)を、簡単に確認することができる。この場合、測定時において、撮像部2の撮像位置が正常であったか否か、例えば、撮像部2が傾いたりしていないかどうか等を簡単に確認し、把握することができる。また、画像Im1に左右中心線がある場合、被験者Hの左右中心線に対する傾きを簡単に把握することができる。   Further, since the display unit 5 displays the left and right center lines and the upper and lower center lines of the center line 31a so as to be superimposed on the actual image Im1, the imaging position (imaging range) by the imaging unit 2 when an image or three-dimensional data is acquired is displayed. ) Can be easily confirmed. In this case, at the time of measurement, it is possible to easily confirm and grasp whether or not the imaging position of the imaging unit 2 is normal, for example, whether or not the imaging unit 2 is tilted. Moreover, when the image Im1 has a left-right center line, the inclination of the subject H with respect to the left-right center line can be easily grasped.

なお、表示部5の表示態様は、図10、図11等に示す例に限定されず任意である。例えば、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1は、リアルタイムで表示しなくてもよい。また、例えば、表示部5は、実画像Im1と3次元データを示す画像Im2とを並べて表示しなくてもよいし、同一の大きさになるように表示しなくてもよい。また、表示部5は、表示部5は、中心線31aの左右中心線及び上下中心線を、実画像Im1に重ねて表示しなくてもよい。   The display mode of the display unit 5 is not limited to the examples shown in FIGS. 10 and 11 and is arbitrary. For example, the display unit 5 may not display the real image Im1, the image Im2 indicating three-dimensional data, and the detection result D1 of the state detection unit 4 in real time. Further, for example, the display unit 5 may not display the actual image Im1 and the image Im2 indicating the three-dimensional data side by side, or may not display the same size. Further, the display unit 5 may not display the left and right center lines and the upper and lower center lines of the center line 31a so as to overlap the actual image Im1.

また、測定装置1は、各種データ(例、各種検出結果(検出データ))等を外部に出力する出力部(図示せず)を備える。出力部としては、例えば、プリンター、データ出力装置(USbインターフェース、ネットワークインターフェース等のデータ出力インターフェース)等が挙げられる。   The measuring device 1 also includes an output unit (not shown) that outputs various data (eg, various detection results (detection data)) to the outside. Examples of the output unit include a printer and a data output device (a data output interface such as a USb interface or a network interface).

次に、本実施形態に係る測定方法を上記した測定装置1の動作に基づいて説明する。なお、以下の説明は、本実施形態に係る測定方法の一例であり、本実施形態に係る測定方法はこれに限定されない。図11及び図12は、実施形態に係る測定方法のフローチャートである。   Next, the measurement method according to the present embodiment will be described based on the operation of the measurement apparatus 1 described above. The following description is an example of the measurement method according to the present embodiment, and the measurement method according to the present embodiment is not limited to this. 11 and 12 are flowcharts of the measurement method according to the embodiment.

本測定方法は、ステップS1において、被験者Hの背部を撮像する。例えば、上記のように、撮像部2により、被験者Hの背部を撮像する。撮像部2により取得した画像は、記憶部16に格納され、後の処理が行われる。   In this measurement method, the back of the subject H is imaged in step S1. For example, as described above, the imaging unit 2 images the back of the subject H. The image acquired by the imaging unit 2 is stored in the storage unit 16, and subsequent processing is performed.

続いて、ステップS2において、被験者Hの背部の3次元データを取得する。例えば、上記のように、3次元データ取得部3により、被験者Hの背部の3次元データを取得する。3次元データ取得部3により取得した3次元データは、記憶部16に格納され、後の処理が行われる。   Subsequently, in step S2, three-dimensional data of the back of the subject H is acquired. For example, as described above, the three-dimensional data acquisition unit 3 acquires the three-dimensional data of the back of the subject H. The three-dimensional data acquired by the three-dimensional data acquisition unit 3 is stored in the storage unit 16, and subsequent processing is performed.

ステップS3において、抽出部10は、3次元計測データから被験者Hの表面形状データを抽出する。例えば、ステップS3のステップS31において、抽出部10は、3次元計測データに人体のデータが含まれるか否かを判定する。例えば、抽出部10は、3次元計測データと、予め準備した人体の3次元形状データとをパターンマッチング等を行うことにより、3次元計測データに人体のデータが含まれるか否か判定する。   In step S3, the extraction unit 10 extracts the surface shape data of the subject H from the three-dimensional measurement data. For example, in step S31 of step S3, the extraction unit 10 determines whether human body data is included in the three-dimensional measurement data. For example, the extraction unit 10 determines whether or not human body data is included in the three-dimensional measurement data by performing pattern matching or the like on the three-dimensional measurement data and the three-dimensional shape data of the human body prepared in advance.

抽出部10が、3次元計測データに人体のデータが含まれないと判定した場合(ステップS31;No)、ステップS1に戻り、被験者Hの背部を撮像する。抽出部10が、3次元計測データに人体のデータが含まれると判定した場合(ステップS31;Yes)、ステップS32において、3次元計測データからノイズを除去、あるいは低減する。例えば、抽出部10は、フィルタリングなどの処理により、3次元計測データからノイズを除去する。   When the extraction unit 10 determines that the human body data is not included in the three-dimensional measurement data (step S31; No), the process returns to step S1 and the back of the subject H is imaged. When the extraction unit 10 determines that the human body data is included in the three-dimensional measurement data (step S31; Yes), noise is removed or reduced from the three-dimensional measurement data in step S32. For example, the extraction unit 10 removes noise from the three-dimensional measurement data by a process such as filtering.

ステップS33において、抽出部10は、3次元計測データから背景データを削除する。例えば、抽出部10は、3次元データ取得部3との距離が予め設定された所定距離よりも遠い部分を背景と推定し、背景に相当するデータを除去する。   In step S33, the extraction unit 10 deletes the background data from the three-dimensional measurement data. For example, the extraction unit 10 estimates a portion where the distance from the three-dimensional data acquisition unit 3 is longer than a predetermined distance set in advance as a background, and removes data corresponding to the background.

続いて、ステップS34において、抽出部10は、人体部分の外形線を抽出する。例えば、抽出部10は、人体部分のエッジを検出する。例えば、抽出部10は、3次元計測データあるいは画像データが表す物体の外形線を検出することにより、被験者Hの外形線の抽出を行う。画像のエッジを検出して、被験者Hの背部の外形線を取得する。ステップS35において、抽出部10は、人体部分のデータを抽出する。例えば、抽出部10は、3次元計測データから、表面形状データとして被験者Hの外形線の内側部分のデータを抽出する。なお、ステップS31からステップS35を行うか否かは任意である。   Subsequently, in step S34, the extraction unit 10 extracts the outline of the human body part. For example, the extraction unit 10 detects an edge of a human body part. For example, the extraction unit 10 extracts the outline of the subject H by detecting the outline of the object represented by the three-dimensional measurement data or the image data. The edge of the image is detected, and the outline of the back of the subject H is acquired. In step S35, the extraction unit 10 extracts data of the human body part. For example, the extraction unit 10 extracts data of the inner portion of the outline of the subject H as surface shape data from the three-dimensional measurement data. Note that whether or not to perform Step S31 to Step S35 is arbitrary.

ステップS4において、正中線検出部11は、抽出部10により抽出された表面形状データから被験者Hの背部の正中線を検出する。なお、ステップS4を行うか否かは任意である。   In step S <b> 4, the midline detection unit 11 detects the midline on the back of the subject H from the surface shape data extracted by the extraction unit 10. Note that whether or not to perform step S4 is arbitrary.

ステップS5において、特徴部位指定部12は、抽出部10により抽出された表面形状データから被験者Hの背部における測定すべき特徴部位を指定する。なお、ステップS5を行うか否かは任意である。   In step S <b> 5, the feature site designation unit 12 designates a feature site to be measured on the back of the subject H from the surface shape data extracted by the extraction unit 10. Whether or not step S5 is performed is arbitrary.

ステップS6において、状態検出部4は、3次元データに基づいて、指定された特徴部位の状態を検出する。図12(A)に示すステップS61において、脊柱の歪みを検出する。例えば、ステップS62において、第1の脊柱検出部4aは、特徴部位として指定される被験者の脊柱に対し、3次元データに基づいて、被験者の左右方向における脊柱の歪みを特徴部位の状態として検出する(図8参照)。ステップS62において、第2の脊柱検出部4bは、特徴部位として指定される被験者の脊柱に対し、3次元データに基づいて、被験者Hの前後方向における脊柱の歪みを特徴部位の状態として検出する(図9参照)。   In step S6, the state detection unit 4 detects the state of the designated feature portion based on the three-dimensional data. In step S61 shown in FIG. 12A, spinal column distortion is detected. For example, in step S62, the first spinal column detection unit 4a detects, as a characteristic part state, distortion of the spinal column in the left-right direction of the subject based on the three-dimensional data with respect to the spine of the subject designated as the characteristic part. (See FIG. 8). In step S62, the second spine detection unit 4b detects the distortion of the spinal column in the front-rear direction of the subject H as the characteristic part state based on the three-dimensional data with respect to the spine of the subject designated as the characteristic part ( (See FIG. 9).

続いて、図12(B)に示すステップS7において、自動評価部8は、状態検出部4で検出された特徴部位の状態を自動的に評価する。なお、ステップS8を行うか否かは任意である。   Subsequently, in step S <b> 7 shown in FIG. 12B, the automatic evaluation unit 8 automatically evaluates the state of the characteristic part detected by the state detection unit 4. Whether or not step S8 is performed is arbitrary.

続いて、ステップS8において、実画像、3次元データを示す画像を表示する。例えば、上記のように、表示部5は、実画像Im1及び3次元データを示す画像Im2を表示する。この際、上記したように、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1を表示してもよい。また、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1をリアルタイムで表示してもよい。また、表示部5は、上記した実画像Im1及び3次元データを示す画像Im2を並べて表示してもよい。また、表示部5は、実画像Im1、3次元データを示す画像Im2、及び状態検出部4の検出結果D1を並べて表示してもよい。表示部5は、中心線31aの左右中心線及び上下中心線を、実画像Im1に重ねて表示してもよい。   Subsequently, in step S8, an actual image and an image showing three-dimensional data are displayed. For example, as described above, the display unit 5 displays the actual image Im1 and the image Im2 indicating the three-dimensional data. At this time, as described above, the display unit 5 may display the real image Im1, the image Im2 indicating three-dimensional data, and the detection result D1 of the state detection unit 4. The display unit 5 may display the real image Im1, the image Im2 indicating three-dimensional data, and the detection result D1 of the state detection unit 4 in real time. The display unit 5 may display the above-described actual image Im1 and the image Im2 indicating three-dimensional data side by side. The display unit 5 may display the actual image Im1, the image Im2 indicating three-dimensional data, and the detection result D1 of the state detection unit 4 side by side. The display unit 5 may display the left and right center lines and the upper and lower center lines of the center line 31a so as to overlap the actual image Im1.

以上のように、本実施形態の測定装置1及び測定方法は、測定結果を容易に把握することができる   As described above, the measurement apparatus 1 and the measurement method of the present embodiment can easily grasp the measurement result.

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。   The technical scope of the present invention is not limited to the aspects described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, as long as it is permitted by law, the disclosure of all documents cited in the above-described embodiments and the like is incorporated as a part of the description of the text.

なお、計測結果の表示について、3次元計測データに基づく体表面の凹凸を強調する処理を行なって、操作者や医師が凹凸状態をより把握し易くするようにしてもよい。また、3次元計測データに基づく体表面の凹凸に適当な彩色を施す処理を行なって、操作者や医師が、凹凸状態をより把握し易くするように表示してもよい。   In addition, about the display of a measurement result, the process which emphasizes the unevenness | corrugation of the body surface based on three-dimensional measurement data may be performed, and it may make it easy for an operator and a doctor to grasp | ascertain an uneven state. Moreover, it may be displayed so as to make it easier for the operator or doctor to grasp the uneven state by performing an appropriate coloring process on the uneven surface of the body based on the three-dimensional measurement data.

例えば、上述の実施形態の状態検出部4は、第1の脊柱検出部4a及び第2の脊柱検出部4bである例を説明したが、状態検出部4は、これに限定されず、任意である。例えば、本願発明者らによる国際出願PCT/JP2015/082887に記載するように、状態検出部4は、3次元データに基づいて、被験者Hの背部の正中線に対する左右の肩の傾きを検出してもよいし、被験者Hの左右の肩甲骨の歪みを検出してもよいし、被験者Hの骨盤の歪みを検出してもよいし、被験者Hの背部の所望の位置に標識がされる場合に、被験者Hにおいて前記標識が設けられる部分の位置及び高さを検出してもよい。   For example, although the example in which the state detection unit 4 of the above-described embodiment is the first spine column detection unit 4a and the second spine column detection unit 4b has been described, the state detection unit 4 is not limited thereto, and is optional. is there. For example, as described in the international application PCT / JP2015 / 082887 by the inventors of the present application, the state detection unit 4 detects the inclination of the left and right shoulders with respect to the midline of the back of the subject H based on the three-dimensional data. Alternatively, the distortion of the left and right scapulas of the subject H may be detected, the distortion of the pelvis of the subject H may be detected, or when a desired position on the back of the subject H is marked The position and height of the portion where the marker is provided in the subject H may be detected.

1・・・測定装置
2・・・撮像部
3・・・3次元データ取得部
4・・・状態検出部
4a・・・第1の脊柱検出部(状態検出部)
4b・・・第2の脊柱検出部(状態検出部)
5・・・表示部
6・・・入力部
8・・・自動評価部
9・・・状態検出部
10・・・抽出部
11・・・正中線検出部
12・・・特徴部位指定部
13・・・自動評価部
14・・・表示制御部
15・・・操作部
16・・・記憶部
31・・・基準部
31a・・・中心線
33・・・ポジショナー
CP・・・コンピュータ装置
CU・・・制御部
PU・・・処理部
S・・・Kinectセンサ
Sa・・・RGBカメラ(撮像部)
Sb・・・赤外線レーザ発光部(3次元データ取得部)
Sc・・・測定用赤外線カメラ(3次元データ取得部)
Im1・・・実画像(画像)
Im2・・・画像(3次元データを示す画像)
M1・・・操作メニュー(操作部)
D1・・・状態検出部の検出結果
DESCRIPTION OF SYMBOLS 1 ... Measuring apparatus 2 ... Imaging part 3 ... Three-dimensional data acquisition part 4 ... State detection part 4a ... 1st spinal column detection part (state detection part)
4b... Second spine detection unit (state detection unit)
5 ... Display unit 6 ... Input unit 8 ... Automatic evaluation unit 9 ... State detection unit 10 ... Extraction unit 11 ... Midline detection unit 12 ... Feature site designation unit 13 ··· Automatic evaluation unit 14 ··· Display control unit 15 ··· Operation unit 16 ··· Storage unit 31 ··· Reference unit 31a · · · Center line 33 · · · Positioner CP · · · Computer device CU ··· -Control unit PU ... Processing unit S ... Kinect sensor Sa ... RGB camera (imaging unit)
Sb: Infrared laser emission unit (three-dimensional data acquisition unit)
Sc: Infrared camera for measurement (three-dimensional data acquisition unit)
Im1 ... Real image (image)
Im2 ... image (image showing three-dimensional data)
M1 ... operation menu (operation unit)
D1 ... Detection result of the state detection unit

Claims (7)

被験者の背部を撮像する撮像部と、
被験者の背部の3次元データを取得する3次元データ取得部と、
前記背部の特徴部位の状態を前記3次元データに基づいて検出する状態検出部と、
前記撮像部による実画像、前記3次元データに基づく処理画像、及び前記状態検出部の検出結果を表示する表示部と、を備える、測定装置。
An imaging unit for imaging the back of the subject;
A three-dimensional data acquisition unit for acquiring three-dimensional data of the back of the subject;
A state detector that detects the state of the characteristic part of the back based on the three-dimensional data;
A measurement apparatus comprising: a real image by the imaging unit; a processed image based on the three-dimensional data; and a display unit that displays a detection result of the state detection unit.
前記状態検出部は、前記被験者の脊柱の歪みを前記特徴部位の状態として検出する、請求項1に記載の測定装置。   The measurement apparatus according to claim 1, wherein the state detection unit detects a distortion of the spine of the subject as the state of the characteristic part. 前記表示部は、前記3次元データに基づく処理画像として等高線画像を表示する、請求項1または請求項2に記載の測定装置。   The measurement apparatus according to claim 1, wherein the display unit displays a contour image as a processed image based on the three-dimensional data. 前記表示部は、前記実画像と前記処理画像とを並べて同一の大きさで表示する、請求項1から請求項3のいずれか1項に記載の測定装置。   The measurement device according to any one of claims 1 to 3, wherein the display unit displays the actual image and the processed image side by side with the same size. 前記表示部は、前記撮像部が撮像した実画像に左右中心線及び上下中心線を重ねて表示する、請求項1から請求項4のいずれか1項に記載の測定装置。   The measurement device according to any one of claims 1 to 4, wherein the display unit displays a left and right center line and a vertical center line superimposed on a real image captured by the imaging unit. 前記表示部は、前記測定装置の各部を操作する操作部を表示する、請求項1から請求項5のいずれか1項に記載の測定装置。   The measurement device according to claim 1, wherein the display unit displays an operation unit that operates each unit of the measurement device. 被験者の背部を撮像することと、
被験者の背部の3次元データを取得することと、
前記背部の特徴部位の状態を前記3次元データに基づいて検出することと、
撮像部による実画像及び前記3次元データに基づく処理画像を表示部に表示することと、を含む測定方法。
Imaging the subject's back,
Obtaining 3D data of the subject's back,
Detecting the state of the characteristic part of the back based on the three-dimensional data;
Displaying a real image by the imaging unit and a processed image based on the three-dimensional data on a display unit.
JP2016207923A 2016-10-24 2016-10-24 Measuring apparatus and measuring method Pending JP2018068362A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016207923A JP2018068362A (en) 2016-10-24 2016-10-24 Measuring apparatus and measuring method
JP2021130905A JP2021180904A (en) 2016-10-24 2021-08-10 Measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016207923A JP2018068362A (en) 2016-10-24 2016-10-24 Measuring apparatus and measuring method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021130905A Division JP2021180904A (en) 2016-10-24 2021-08-10 Measuring apparatus

Publications (1)

Publication Number Publication Date
JP2018068362A true JP2018068362A (en) 2018-05-10

Family

ID=62111744

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016207923A Pending JP2018068362A (en) 2016-10-24 2016-10-24 Measuring apparatus and measuring method
JP2021130905A Pending JP2021180904A (en) 2016-10-24 2021-08-10 Measuring apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021130905A Pending JP2021180904A (en) 2016-10-24 2021-08-10 Measuring apparatus

Country Status (1)

Country Link
JP (2) JP2018068362A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076154B1 (en) 2020-12-17 2022-05-27 株式会社スペースビジョン Spinal sequence estimation device, method and program
CN117731244A (en) * 2024-02-19 2024-03-22 天津医科大学总医院 Scoliosis risk early warning system based on infrared thermal imaging

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108983A (en) * 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd Eye image pickup device, iris authentication device, and portable terminal device with iris authentication function
JP2012245222A (en) * 2011-05-30 2012-12-13 Fujifilm Corp Image processing device, method and program
WO2013081030A1 (en) * 2011-11-29 2013-06-06 学校法人 東洋大学 Scoliosis evaluation system and evaluation instrument applied to same system
JP2014014629A (en) * 2012-07-11 2014-01-30 Kitasato Institute Contour image generation method for use in morphological observation of subject and scoliosis screening system using the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5319088Y2 (en) * 1973-02-27 1978-05-20
JPS5839683Y2 (en) * 1980-04-10 1983-09-07 富士写真光機株式会社 Body-close fixation stand for moiré stripe photography
JPS60142838A (en) * 1983-10-28 1985-07-29 吉澤 徹 Method and apparatus for diagnosis of spine disease
JPH07136148A (en) * 1993-06-17 1995-05-30 Sekisui Chem Co Ltd Body figure diagnosing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108983A (en) * 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd Eye image pickup device, iris authentication device, and portable terminal device with iris authentication function
JP2012245222A (en) * 2011-05-30 2012-12-13 Fujifilm Corp Image processing device, method and program
WO2013081030A1 (en) * 2011-11-29 2013-06-06 学校法人 東洋大学 Scoliosis evaluation system and evaluation instrument applied to same system
JP2014014629A (en) * 2012-07-11 2014-01-30 Kitasato Institute Contour image generation method for use in morphological observation of subject and scoliosis screening system using the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
秋元 俊成 他: "3Dカメラを用いた脊柱測弯症計測システムの開発", 電気学会論文誌C, vol. 133, no. 11, JPN6021012662, 1 November 2013 (2013-11-01), pages 2082 - 2088, ISSN: 0004634155 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076154B1 (en) 2020-12-17 2022-05-27 株式会社スペースビジョン Spinal sequence estimation device, method and program
JP2022096047A (en) * 2020-12-17 2022-06-29 株式会社スペースビジョン Spine alignment estimation device, method, and program
CN117731244A (en) * 2024-02-19 2024-03-22 天津医科大学总医院 Scoliosis risk early warning system based on infrared thermal imaging
CN117731244B (en) * 2024-02-19 2024-05-10 天津医科大学总医院 Scoliosis risk early warning system based on infrared thermal imaging

Also Published As

Publication number Publication date
JP2021180904A (en) 2021-11-25

Similar Documents

Publication Publication Date Title
JP6132354B2 (en) Evaluation system for scoliosis and evaluation instrument applied to the system
JP5849048B2 (en) Three-dimensional (3D) ultrasound imaging system for scoliosis evaluation
RU2549141C2 (en) Generating object data
JP2005224452A (en) Posture diagnostic apparatus and program thereof
WO2018087853A1 (en) Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
JP2021180904A (en) Measuring apparatus
CA3022142A1 (en) Method and device for measuring spinal column curvature
Chiu et al. Automated body volume acquisitions from 3D structured-light scanning
EP3047455A1 (en) Method and system for spine position detection
WO2015040547A1 (en) Method and system for spine position detection
US11179096B2 (en) Scoliosis diagnosis assistance device, scoliosis diagnosis assistance method, and program
WO2017090083A1 (en) Measurement apparatus, measurement method, and program
EP3438601B1 (en) Measurement device, measurement method, and computer program
JP6598422B2 (en) Medical information processing apparatus, system, and program
JP4401121B2 (en) Abnormal shadow detection device
JP5009744B2 (en) X-ray measuring device for forearm
JP6200618B1 (en) Medical image diagnosis support system and apparatus, and program
JP6940139B2 (en) Physical characteristic analyzer, physical characteristic analysis method, and program
JP6738506B1 (en) Image interpretation support device for back image, image interpretation support method, and program
JP2017093789A (en) Measurement device, measurement method and program
JP2016106720A (en) Medical x-ray measuring apparatus
Alothmany et al. Accuracy of joint angles tracking using markerless motion system
US20230218197A1 (en) Setting device, setting method, and setting program
Shanyu et al. Development of Assessment System for Spine Curvature Angle Measurement
Daoud et al. 3D reconstruction of the human trunk for designing personalized braces: Precision study

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200814

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211109