JP2021180904A - Measuring apparatus - Google Patents

Measuring apparatus Download PDF

Info

Publication number
JP2021180904A
JP2021180904A JP2021130905A JP2021130905A JP2021180904A JP 2021180904 A JP2021180904 A JP 2021180904A JP 2021130905 A JP2021130905 A JP 2021130905A JP 2021130905 A JP2021130905 A JP 2021130905A JP 2021180904 A JP2021180904 A JP 2021180904A
Authority
JP
Japan
Prior art keywords
unit
image
subject
dimensional data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021130905A
Other languages
Japanese (ja)
Inventor
俊成 秋元
Toshinari Akimoto
信幸 寺田
Nobuyuki Terada
郁穂 米澤
Ikuo Yonezawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A & A Kk
Original Assignee
A & A Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A & A Kk filed Critical A & A Kk
Priority to JP2021130905A priority Critical patent/JP2021180904A/en
Publication of JP2021180904A publication Critical patent/JP2021180904A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To provide a measuring apparatus which facilitates grasping a result of measuring backbone distortion, and a measuring method.SOLUTION: A measuring apparatus 1 includes an imaging unit 2 for imaging the back part of a subject H, a three-dimensional data acquisition unit 3 for acquiring three-dimensional data on the back part of the subject H, a state detection unit 4 for detecting the state of a feature site of the back part based on the three-dimensional data, and a display unit 5 for displaying an actual image Im1 captured by the imaging unit 2, a processing image Im2 based on the three-dimensional data, and a detection result D1 obtained by the state detection unit 4.SELECTED DRAWING: Figure 1

Description

本発明は、測定装置、及び測定方法に関する。 The present invention relates to a measuring device and a measuring method.

脊柱側弯症は、背骨が曲がってしまう病気で、原因が解明されていないため、事前に予防したりすることは、困難である。脊柱側弯症は、一方で、その発症率は、100人に1人程度と言われ、非常に発症率が高い病気の一つである。例えば、この脊柱側弯症で、わが国で最も発症が多いのが突発性側弯症で、脊柱側弯症全体の80〜90%を占めていると言われている。突発性側弯症は、思春期に発症することが最も多く、小学校高学年から中学校時代に発症することが多い。10〜15歳頃の成長の最も著しい時期に、脊柱の湾曲が強くなり、成長期を過ぎる17〜18際頃には湾曲の進行も止まるとされている。脊柱側弯症の症状は、背骨が左右に曲がると同時に背骨にねじれが発生し、その結果、肋骨に変形が起こり隆起が生じる。脊柱側弯症は、変形が進行すると心肺機能が低下し、腰背部痛によって著しく日常生活が障害される疾患である。脊柱側弯症は、早期に発見し装置治療を適切な時期に行えば、76%は変形角度の進行を10°以内にすることが可能であると報告されている(下記の非特許文献1)。さらに、chiari奇形と脊椎空洞証の早期発見と治療が脊柱変形の進行の予防に極めて重要であることも明らかにされている(下記の非特許文献2)。わが国では、昭和54年度から、学校保健法の施行規則に基づき、小中学校では脊柱の検診が義務付けられている。学校における検診等では、多数の被験者を検診する必要があり、また、従来行われてきた医師による視診あるいは触診では、簡便性等の点で問題があるため、背骨の歪みを検出する装置が要求されている。 Scoliosis is a disease in which the spine bends, and the cause has not been clarified, so it is difficult to prevent it in advance. Scoliosis, on the other hand, is said to have an incidence of about 1 in 100, and is one of the diseases with a very high incidence. For example, it is said that the most common scoliosis in Japan is idiopathic scoliosis, which accounts for 80 to 90% of all scoliosis. Idiopathic scoliosis most often develops during puberty, often from the upper grades of elementary school to junior high school. It is said that the curvature of the spinal column becomes stronger at the time of the most remarkable growth around the age of 10 to 15, and the progress of the curvature stops around 17 to 18 after the growth period. The symptom of scoliosis is that the spine bends from side to side and at the same time twists the spine, resulting in deformed ribs and ridges. Scoliosis is a disease in which cardiopulmonary function declines as the deformity progresses, and low back pain significantly impairs daily life. It has been reported that, if scoliosis is detected early and treatment with a device is performed at an appropriate time, 76% can make the progression of the deformation angle within 10 ° (Non-Patent Document 1 below). .. Furthermore, it has been clarified that early detection and treatment of chiari malformation and syringomyelia are extremely important for prevention of progression of spinal deformity (Non-Patent Document 2 below). In Japan, from 1979, elementary and junior high schools are obliged to have a spinal examination based on the enforcement regulations of the School Health Law. In school examinations, etc., it is necessary to examine a large number of subjects, and in the conventional inspection or palpation by a doctor, there is a problem in terms of convenience, etc., so a device for detecting spinal strain is required. Has been done.

従来、脊椎側弯症の検査等において、X線撮影装置を用いたX線検査法が多く用いられている。X線検査法は、X線で胸部を撮影し、脊柱の湾曲度を医師の判定により計測する手法であり、X線撮影画像により、脊柱の側方への湾曲度を把握することができる。しかし、一般的なX線検査法では、側方への湾曲度合いは判定できても、体表面の凹凸の程度は判定できないという難点があった。また、人体の被曝の観点からX線撮影の回数が限られ、検査可能な項目が限定される。また、X線検査法は、X線を扱うため、専門の技師が必要になり、検査を簡便に行うことが難しい。 Conventionally, in the examination of scoliosis and the like, an X-ray examination method using an X-ray imaging device is often used. The X-ray examination method is a method of photographing the chest with X-rays and measuring the degree of curvature of the spinal column by a doctor's judgment, and the degree of lateral curvature of the spinal column can be grasped from the X-ray photographed image. However, the general X-ray inspection method has a drawback that the degree of lateral curvature can be determined, but the degree of unevenness on the body surface cannot be determined. In addition, the number of X-rays taken is limited from the viewpoint of radiation exposure to the human body, and the items that can be inspected are limited. Further, since the X-ray inspection method handles X-rays, a specialized engineer is required, and it is difficult to carry out the inspection easily.

また、背骨の歪みの検出法として、CT(Computed Tomography)装置を用いた計測も考えられるが、装置が高価で大型であるため、小規模の施設では適用が難しいという問題がある。また、CT検査では、X線検査法と同様に人体の被曝を考慮する必要がある。また、脊柱側弯症は、症状の進行度合いを評価するため、時系列データが必要になり、計測データの数値化も求められている。X線撮影装置やCT装置を用いず、計測データの数値化ができる検出装置としては、例えば、特許文献1に開示の3次元センサを用いる技術が挙げられる。 Further, as a method for detecting the distortion of the spine, measurement using a CT (Computed Tomography) device can be considered, but there is a problem that it is difficult to apply it in a small facility because the device is expensive and large. Moreover, in the CT examination, it is necessary to consider the exposure of the human body as in the X-ray examination method. In addition, for scoliosis, time-series data is required to evaluate the degree of symptom progression, and measurement data is also required to be quantified. As a detection device capable of digitizing measurement data without using an X-ray imaging device or a CT device, for example, a technique using a three-dimensional sensor disclosed in Patent Document 1 can be mentioned.

国際公開2013/081030号International Publication No. 2013/081030

百村 励、米澤 郁穂、J Spine Res, 2010, 1:1960-1963Satoshi Hyakumura, Ikuho Yonezawa, J Spine Res, 2010, 1: 1960-1963 Nakahara D, Yonezawa I, J Spine Res, 2011, 36:E482-485Nakahara D, Yonezawa I, J Spine Res, 2011, 36: E482-485

ところで、背骨の歪みを検出する装置は、測定結果(結果)が容易に把握可能であることが要求される。本発明は、上記の事情に鑑みなされたものであり、測定結果を容易に把握することができる測定装置、及び測定方法を提供することを目的とする。 By the way, the device for detecting the strain of the spine is required to be able to easily grasp the measurement result (result). The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a measuring device and a measuring method capable of easily grasping a measurement result.

本発明の第1の態様の測定装置は、被験者の背部を撮像する撮像部と、被験者の背部の3次元データを取得する3次元データ取得部と、背部の特徴部位の状態を3次元データに基づいて検出する状態検出部と、撮像部による実画像、3次元データに基づく処理画像、及び状態検出部の検出結果を表示する表示部と、を備える。 The measuring device according to the first aspect of the present invention has an imaging unit that images the back of the subject, a three-dimensional data acquisition unit that acquires three-dimensional data on the back of the subject, and a state of a characteristic portion of the back as three-dimensional data. It includes a state detection unit for detecting based on, a processed image based on an actual image by an imaging unit and three-dimensional data, and a display unit for displaying the detection result of the state detection unit.

本発明の第2の態様の測定方法は、被験者の背部を撮像することと、被験者の背部の3次元データを取得することと、背部の特徴部位の状態を3次元データに基づいて検出することと、撮像部による実画像及び3次元データに基づく処理画像を表示部に表示することと、を含む。 The measuring method of the second aspect of the present invention is to image the back of the subject, acquire three-dimensional data of the back of the subject, and detect the state of the characteristic portion of the back based on the three-dimensional data. And displaying the actual image by the imaging unit and the processed image based on the three-dimensional data on the display unit.

実施形態に係る測定装置を示す概念図である。It is a conceptual diagram which shows the measuring apparatus which concerns on embodiment. 実施形態に係る測定装置のブロック図である。It is a block diagram of the measuring apparatus which concerns on embodiment. 実施形態に係る測定装置を示す図である。It is a figure which shows the measuring apparatus which concerns on embodiment. 実施形態に係る撮像部及び3次元データ取得部を示す図である。It is a figure which shows the image pickup part and 3D data acquisition part which concerns on embodiment. ポジショナーを示す側面図である。It is a side view which shows the positioner. 図5のポジショナーを示す正面図である。It is a front view which shows the positioner of FIG. 実画像及び3次元データを示す画像を示す図である。It is a figure which shows the image which shows the real image and 3D data. 第1の脊柱検出部を説明する図である。It is a figure explaining the 1st spinal column detection part. 第2の脊柱検出部を説明する図である。It is a figure explaining the 2nd spinal column detection part. 表示部による表示を示す図である。It is a figure which shows the display by a display part. 実施形態に係る測定方法のフローチャートである。It is a flowchart of the measurement method which concerns on embodiment. 図11に続いて、測定方法のフローチャートである。Following FIG. 11, it is a flowchart of the measurement method.

以下、本発明の実施形態について図面を参照しながら説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部または全部を模式的に記載するとともに、一部分を大きくまたは強調して記載する等適宜縮尺を変更して表現した部分を含んでいる。以下の各図において、XYZ座標系を用いて図中の方向を説明する。このXYZ座標系においては、水平面に平行な平面をXY平面とする。このXY平面に平行な任意の方向をX方向と表記し、X方向に直交する方向をY方向と表記する。また、XY平面に垂直な方向(上下方向)はZ方向と表記する。また、各方向において、適宜、矢印の先端と同じ側を+側(例、+Z側)、矢印の先端と反対側を−側(例、−Z側)と称す。例えば、鉛直方向(Z方向)において、上方が+Z側であり、下方が−Z側である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to explain the embodiment, a part or the whole is schematically described, and a part expressed by changing the scale as appropriate, such as describing a part in a large or emphasized manner, is included. In each of the following figures, the directions in the figure will be described using the XYZ coordinate system. In this XYZ coordinate system, a plane parallel to the horizontal plane is defined as an XY plane. An arbitrary direction parallel to the XY plane is referred to as an X direction, and a direction orthogonal to the X direction is referred to as a Y direction. Further, the direction perpendicular to the XY plane (vertical direction) is expressed as the Z direction. Further, in each direction, the same side as the tip of the arrow is referred to as a + side (eg, + Z side), and the side opposite to the tip of the arrow is referred to as a − side (eg, −Z side). For example, in the vertical direction (Z direction), the upper side is the + Z side and the lower side is the −Z side.

図1は、実施形態に係る測定装置を示す概念図である。本実施形態の測定装置1は、被験者Hの背部を撮像する撮像部2と、被験者Hの背部の3次元データを取得する3次元データ取得部3と、被験者Hの背部の特徴部位の状態を3次元データに基づいて検出する状態検出部4と、撮像部2による実画像Im1、3次元データに基づく処理画像Im2、及び状態検出部4の検出結果D1を表示する表示部5と、を備える。 FIG. 1 is a conceptual diagram showing a measuring device according to an embodiment. The measuring device 1 of the present embodiment captures the state of the imaging unit 2 that images the back of the subject H, the three-dimensional data acquisition unit 3 that acquires the three-dimensional data of the back of the subject H, and the characteristic portion of the back of the subject H. It includes a state detection unit 4 that detects based on 3D data, a processed image Im2 based on the actual image Im1 by the imaging unit 2, a processed image Im2 based on the 3D data, and a display unit 5 that displays the detection result D1 of the state detection unit 4. ..

図2は、実施形態に係る測定装置を示すブロック図である。測定装置1は、撮像部2と、3次元データ取得部3と、コンピュータ装置CPと、を備える。撮像部2、3次元データ取得部3(3次元センサ)、表示部5、及び入力部6は、それぞれ、コンピュータ装置CPに、有線または無線により通信可能に接続される。コンピュータ装置CPは、CPUおよびメモリを備えるパーソナルコンピュータ等である。コンピュータ装置CPは、記憶部16に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。 FIG. 2 is a block diagram showing a measuring device according to an embodiment. The measuring device 1 includes an imaging unit 2, a three-dimensional data acquisition unit 3, and a computer device CP. The image pickup unit 2, the three-dimensional data acquisition unit 3 (three-dimensional sensor), the display unit 5, and the input unit 6 are connected to the computer device CP so as to be communicable by wire or wirelessly, respectively. The computer device CP is a personal computer or the like including a CPU and a memory. The computer device CP reads out the program stored in the storage unit 16 and executes various processes according to this program.

コンピュータ装置CPは、状態検出部4と、抽出部10と、正中線検出部11と、特徴部位指定部12と、自動評価部13と、表示制御部14と、操作部15と、記憶部16と、を備える。上記のプログラムは、コンピュータを、各種の処理を行う処理部PU(状態検出部4、抽出部10、正中線検出部11、特徴部位指定部12、自動評価部13)、各種の制御を行う制御部CU(表示制御部14、操作部15)として機能させる。 The computer device CP includes a state detection unit 4, an extraction unit 10, a median line detection unit 11, a feature site designation unit 12, an automatic evaluation unit 13, a display control unit 14, an operation unit 15, and a storage unit 16. And. In the above program, the computer is controlled by a processing unit PU (state detection unit 4, extraction unit 10, median line detection unit 11, feature site designation unit 12, automatic evaluation unit 13) that performs various processes, and various controls. It functions as a unit CU (display control unit 14, operation unit 15).

図3は、本実施形態の測定装置1を示す斜視図である。図3に示す測定装置1は、立位状態の被験者Hの測定を行う状態を示している。測定装置1は、例えば、上記した撮像部2、3次元データ取得部3及びコンピュータ装置CPと、下部フレーム21と、鉛直フレーム22と、支持フレーム23と、支柱部25と、支持部26と、テーブル27と、複数の車輪28と、を備える。 FIG. 3 is a perspective view showing the measuring device 1 of the present embodiment. The measuring device 1 shown in FIG. 3 shows a state in which the subject H in a standing state is measured. The measuring device 1 includes, for example, the image pickup unit 2, the three-dimensional data acquisition unit 3, the computer device CP, the lower frame 21, the vertical frame 22, the support frame 23, the support column 25, and the support unit 26. A table 27 and a plurality of wheels 28 are provided.

下部フレーム21は、測定装置1の下部に配置される。鉛直フレーム22は、鉛直方向(Z方向)に延びており、下部フレーム21の上部に固定される。支持フレーム23は、鉛直フレーム22に固定され、支柱部25を支持する。支柱部25は、鉛直方向(Z方向)に延びており、上下方向(Z方向、鉛直方向)に伸縮可能である。支柱部25は、例えば、上下方向に伸縮可能(移動可能)な伸縮部25aと、伸縮部25aを支持する伸縮部支持部25bを備える。図2は、支柱部25が伸長した状態(伸縮部25aが上方に移動した状態)を示す。また、図3は、支柱部25が収縮した状態(伸縮部25aが下方に移動した状態)を示す。また、支柱部25は、図3に示す状態よりもさらに収縮させることができ、測定装置1のサイズをコンパクトにすることができる。伸縮部25aおよび伸縮部支持部25bには、その内部に不図示の空間部(空洞部)が設けられており、この空間部には、撮像部2及び3次元データ取得部3のそれぞれとコンピュータ装置CPとを接続するケーブル30などが収容される。伸縮部支持部25bは、その内部に伸縮部25aの一部を収容可能であり、伸縮部25aを上下方向に移動可能なように支持する。テーブル27は、鉛直フレーム22の上部に設けられる。テーブル27は、上面に物品を載置可能である。テーブル27の上面には、例えば、ノート型のコンピュータ装置CPが載置される。テーブル27には、鉛直フレーム22の上端部および支柱部25の側方に接続され、鉛直フレーム22および支柱部25に支持される。コンピュータ装置CPは、ケーブル30により3次元データ取得部3に接続される。 The lower frame 21 is arranged at the lower part of the measuring device 1. The vertical frame 22 extends in the vertical direction (Z direction) and is fixed to the upper part of the lower frame 21. The support frame 23 is fixed to the vertical frame 22 and supports the support column 25. The strut portion 25 extends in the vertical direction (Z direction) and can be expanded and contracted in the vertical direction (Z direction, vertical direction). The support column 25 includes, for example, a stretchable portion 25a that can be expanded and contracted (movable) in the vertical direction, and a stretchable portion support portion 25b that supports the stretchable portion 25a. FIG. 2 shows a state in which the support column portion 25 is extended (a state in which the expansion / contraction portion 25a is moved upward). Further, FIG. 3 shows a state in which the strut portion 25 is contracted (a state in which the telescopic portion 25a is moved downward). Further, the support column portion 25 can be further contracted as compared with the state shown in FIG. 3, and the size of the measuring device 1 can be made compact. The expansion / contraction portion 25a and the expansion / contraction portion support portion 25b are provided with a space portion (cavity portion) (not shown) inside thereof, and in this space portion, each of the image pickup unit 2 and the three-dimensional data acquisition unit 3 and a computer. A cable 30 or the like for connecting to the device CP is accommodated. The stretchable portion support portion 25b can accommodate a part of the stretchable portion 25a inside, and supports the stretchable portion 25a so as to be movable in the vertical direction. The table 27 is provided on the upper part of the vertical frame 22. An article can be placed on the upper surface of the table 27. For example, a notebook computer device CP is placed on the upper surface of the table 27. The table 27 is connected to the upper end portion of the vertical frame 22 and the side of the support column 25, and is supported by the vertical frame 22 and the support column 25. The computer device CP is connected to the three-dimensional data acquisition unit 3 by the cable 30.

伸縮部25aの上側(+Z側)の端部には、支持部26が接続される。支持部26は、支持部26に撮像部2及び3次元データ取得部3を取り付けるための取り付け部32が設けられる。支持部26は、取り付け部32を介して、撮像部2及び3次元データ取得部3を支持する。撮像部2及び3次元データ取得部3は、後述すKinectセンサSをケースに収容したものであり、このケースが支持部26に支持される。支持部26は、Y方向に平行な軸AX1周りに回転可能に、支柱部25の伸縮部25aに接続される。すなわち、支持部26は、図3に示すように、支柱部25に近づく方向に移動可能である。これにより、測定装置1のサイズをコンパクトにすることができる。取り付け部32は、撮像部2及び3次元データ取得部3を、支持部26に対して回転可能に支持する。例えば、図2に示す例において、取り付け部32は、3次元データ取得部3を、X方向に平行な軸AX2周りに回転可能に支持する。これにより、撮像部2及び3次元データ取得部3の向きを変えることができる。撮像部2及び3次元データ取得部3の向きを下向きに変えることにより、測定装置1は、横臥状態の被験者Hを測定することができる。また、撮像部2及び3次元データ取得部3の向きを変えることができる場合、撮像部2及び3次元データ取得部3の向きを被験者Hに対してより正確に向けることができる。 The support portion 26 is connected to the upper end (+ Z side) of the telescopic portion 25a. The support unit 26 is provided with an attachment unit 32 for attaching the image pickup unit 2 and the three-dimensional data acquisition unit 3 to the support unit 26. The support unit 26 supports the image pickup unit 2 and the three-dimensional data acquisition unit 3 via the mounting unit 32. The image pickup unit 2 and the three-dimensional data acquisition unit 3 accommodate a Kinect sensor S, which will be described later, in a case, and this case is supported by the support unit 26. The support portion 26 is rotatably connected to the telescopic portion 25a of the strut portion 25 around the axis AX1 parallel to the Y direction. That is, as shown in FIG. 3, the support portion 26 can move in the direction approaching the support portion 25. As a result, the size of the measuring device 1 can be made compact. The mounting unit 32 rotatably supports the image pickup unit 2 and the three-dimensional data acquisition unit 3 with respect to the support unit 26. For example, in the example shown in FIG. 2, the mounting unit 32 rotatably supports the three-dimensional data acquisition unit 3 around the axis AX2 parallel to the X direction. As a result, the orientations of the image pickup unit 2 and the three-dimensional data acquisition unit 3 can be changed. By changing the orientation of the image pickup unit 2 and the three-dimensional data acquisition unit 3 downward, the measuring device 1 can measure the subject H in the lying state. Further, when the orientations of the imaging unit 2 and the three-dimensional data acquisition unit 3 can be changed, the orientations of the imaging unit 2 and the three-dimensional data acquisition unit 3 can be more accurately directed with respect to the subject H.

複数の車輪28は、下部フレーム21の下部に設けられる。複数の車輪28は、撮像部2及び3次元データ取得部3を少なくとも含むユニット(下部フレーム21の上方の構造物)を移動可能である。本実施形態において、下部フレーム21に測定装置1の他の部分が支持されており、測定装置1は、その全体が床面上を走行可能である。 The plurality of wheels 28 are provided at the lower part of the lower frame 21. The plurality of wheels 28 can move a unit (a structure above the lower frame 21) including at least the image pickup unit 2 and the three-dimensional data acquisition unit 3. In the present embodiment, another part of the measuring device 1 is supported by the lower frame 21, and the measuring device 1 can travel on the floor as a whole.

なお、測定装置1は、図3に示す構成は一例であり、他の構成でもよい。例えば、上記した下部フレーム21、鉛直フレーム22、支持フレーム23、支柱部25、支持部26及びテーブル27の形状、大きさ等の構成は、図3に示すものに限定されず、任意である。また、コンピュータ装置CPは、ノート型のものに限定されず、任意のものを用いることができる。例えば、コンピュータ装置CPは、デスクトップ型でもよいし、タブレット型でもよい。 The configuration shown in FIG. 3 is an example of the measuring device 1, and other configurations may be used. For example, the configurations such as the shape and size of the lower frame 21, the vertical frame 22, the support frame 23, the support column 25, the support portion 26, and the table 27 described above are not limited to those shown in FIG. 3, and are arbitrary. Further, the computer device CP is not limited to the notebook type, and any computer device CP can be used. For example, the computer device CP may be a desktop type or a tablet type.

次に、撮像部2及び3次元データ取得部3について説明する。図4は、本実施形態に係る撮像部2及び3次元データ取得部3を示す図である。撮像部2及び3次元データ取得部3は、例えば、Kinect(登録商標)(v2)センサS(以下、「Kinectセンサ」と略称する。)を用いている。なお、撮像部2及び3次元データ取得部3としては、例えば、レーザパターン投影方式の3次元センサ(例、Kinectセンサ(v1))を用いることもできる。 Next, the image pickup unit 2 and the three-dimensional data acquisition unit 3 will be described. FIG. 4 is a diagram showing an image pickup unit 2 and a three-dimensional data acquisition unit 3 according to the present embodiment. The image pickup unit 2 and the three-dimensional data acquisition unit 3 use, for example, a Kinect (registered trademark) (v2) sensor S (hereinafter, abbreviated as “Kinect sensor”). As the image pickup unit 2 and the three-dimensional data acquisition unit 3, for example, a laser pattern projection type three-dimensional sensor (eg, Kinect sensor (v1)) can also be used.

KinectセンサSは、図4に示すように、RGBカメラSa、赤外線レーザ発光部Sb、及び測定用赤外線カメラScを搭載している。KinectセンサSは、RGBカメラSaで、RGBカラーの画像(動画)を取得する。また、KinectセンサSは、物体に対して、赤外線レーザ発光部Sbでアクティブに近赤外光(LED光)を照射し、測定用赤外線カメラScで受光することにより、反射光の飛行時間を測定して、この飛行時間に基づいて物体との距離を測定する。これにより、KinectセンサSは、物体の3次元データ(3次元デプスデータ)を取得する。KinectセンサSは、いわゆる、TOF(Time of Flight)方式の3次元センサである。KinectセンサSは、当初ゲーム機用のセンサであったが、コンピュータ装置(パーソナルコンピュータ)CP(図2参照)等にもUSb端子を介して接続可能である。 As shown in FIG. 4, the Kinect sensor S is equipped with an RGB camera Sa, an infrared laser light emitting unit Sb, and an infrared camera Sc for measurement. The Kinect sensor S acquires an RGB color image (moving image) with the RGB camera Sa. Further, the Kinect sensor S measures the flight time of the reflected light by actively irradiating the object with near infrared light (LED light) by the infrared laser light emitting unit Sb and receiving the light by the infrared camera Sc for measurement. Then, the distance to the object is measured based on this flight time. As a result, the Kinect sensor S acquires three-dimensional data (three-dimensional depth data) of the object. The Kinect sensor S is a so-called TOF (Time of Flight) type three-dimensional sensor. The Kinect sensor S was originally a sensor for a game machine, but it can also be connected to a computer device (personal computer) CP (see FIG. 2) or the like via a USb terminal.

また、KinectセンサSは、例えば、マイクロソフトリサーチ社が提供する「Kinect for Windows(登録商標) SDK(Software Development Kit)」を用いれば、C言語で記述したプログラムによりKinectセンサをコンピュータ装置CPから制御することできる。また、KinectセンサSが出力するデータの処理は、Point Cloud Library等のソフトウェアを用いることができる。このように、KinectセンサSを用いる場合、開発環境やデータ処理環境が整っているため、制御プログラムや解析プログラム等を容易に開発することができる。また、KinectセンサSは、装置及び制御ソフトを安価で入手可能であるため、3次元センサとしてKinectセンサSを用いる場合、測定装置1を低コストで製造することができる。 Further, the Kinect sensor S controls the Kinect sensor from the computer device CP by a program written in C language by using, for example, "Kinect for Windows (registered trademark) SDK (Software Development Kit)" provided by Microsoft Research. Can be done. Further, software such as Point Cloud Library can be used for processing the data output by the Kinect sensor S. As described above, when the Kinect sensor S is used, since the development environment and the data processing environment are prepared, it is possible to easily develop a control program, an analysis program, and the like. Further, since the Kinect sensor S has a device and control software available at low cost, when the Kinect sensor S is used as the three-dimensional sensor, the measuring device 1 can be manufactured at low cost.

本実施形態の撮像部2は、KinectセンサSのRGBカメラSaである。これにより、撮像部2は、画像(画像データ)を取得する。また、本実施形態の3次元データ取得部3は、赤外線レーザ発光部Sb、及び測定用赤外線カメラScである。これにより、3次元データ取得部3は、物体の3次元データを取得する。 The image pickup unit 2 of the present embodiment is an RGB camera Sa of the Kinect sensor S. As a result, the image pickup unit 2 acquires an image (image data). Further, the three-dimensional data acquisition unit 3 of the present embodiment is an infrared laser light emitting unit Sb and an infrared camera Sc for measurement. As a result, the three-dimensional data acquisition unit 3 acquires the three-dimensional data of the object.

なお、撮像部2及びRGBカメラSaは、それぞれ、KinectセンサSを用いなくてもよい。例えば、撮像部2は、画像を撮像可能なビデオカメラ(デジタルビデオカメラ)などを用いてもよい。また、3次元データ取得部3は、物体の3次元データを取得可能なセンサあるいは3Dスキャナなどを用いてもよい。 The image pickup unit 2 and the RGB camera Sa do not have to use the Kinect sensor S, respectively. For example, the image pickup unit 2 may use a video camera (digital video camera) capable of capturing an image. Further, the 3D data acquisition unit 3 may use a sensor or a 3D scanner capable of acquiring 3D data of an object.

また、本実施形態では、撮像部2の光の入射側に、基準部31が設けられている。なお、図4には、基準部31を点線で示している。基準部31は、撮像部2が取得した画像に基準を付与する。基準部31は、例えば、ガラス、樹脂などの透光部材の表面の中心に、基準となる十字形状の中心線31aを有している。中心線31aは、水平方向と平行な所定の長さの直線及び鉛直方向と平行な所定の長さの直線であり、これらはそれぞれの中心で直交している。基準(中心線31a)は、例えば、取得した画像あるいは3次元データの所定位置に設定される。本実施形態では、中心線31aの十字形状の交点が、撮像部2が取得する画像の中心に位置するように設定されている。これにより、撮像部2が取得した画像の中心に、中心線31a(中心線31aのデータ)が付与される。このように、撮像部2が取得した画像の中心に基準(中心線31a)が付与される場合、画像処理において、中心線31aを用いて処理を行うこともできる。なお、画像に付与された中心線31a(中心線31aのデータ)のうち、床面に対して鉛直方向と平行な線を、「上下中心線」と称すことがあり、また、床面に対して平行な線を、「左右中心線」と称すことがある。 Further, in the present embodiment, the reference unit 31 is provided on the incident side of the light of the image pickup unit 2. In FIG. 4, the reference portion 31 is shown by a dotted line. The reference unit 31 gives a reference to the image acquired by the image pickup unit 2. The reference portion 31 has a cross-shaped center line 31a as a reference at the center of the surface of a translucent member such as glass or resin. The center line 31a is a straight line having a predetermined length parallel to the horizontal direction and a straight line having a predetermined length parallel to the vertical direction, and these are orthogonal to each other at their centers. The reference (center line 31a) is set at a predetermined position of the acquired image or three-dimensional data, for example. In the present embodiment, the intersection of the cross-shaped center lines 31a is set to be located at the center of the image acquired by the image pickup unit 2. As a result, the center line 31a (data of the center line 31a) is added to the center of the image acquired by the image pickup unit 2. As described above, when the reference (center line 31a) is given to the center of the image acquired by the image pickup unit 2, the center line 31a can be used for the image processing. Of the center lines 31a (data of the center lines 31a) given to the image, the lines parallel to the vertical direction with respect to the floor surface may be referred to as "upper and lower center lines", and with respect to the floor surface. Lines that are parallel to each other are sometimes called "left and right center lines".

なお、基準部31の画像上の設定位置は、上記した中心の位置に限定されず、任意である。例えば、基準部31の位置は、中心から所定の距離に、1つあるいは複数配置されてもよい。また、基準部31の形状は、上記した十字形状に限定されず、任意である。例えば、基準部31の形状は、点でもよいし、点線でもよいし、所定の形状のマークなどでもよい。また、基準部31は、撮像部2及び3次元データ取得部3のそれぞれに設けられてもよい。また、測定装置1が、基準部31を備えるか否かは任意である。また、上記した上下中心線及び左右中心線のうち少なくとも1つは、基準部31により画像に付与されたものでなくてもよい。例えば、上記した上下中心線及び左右中心線のうち少なくとも1つは、撮像部2に取得された画像に基づいて、求めたものでもよい。 The setting position of the reference unit 31 on the image is not limited to the above-mentioned center position and is arbitrary. For example, the position of the reference unit 31 may be one or more at a predetermined distance from the center. Further, the shape of the reference portion 31 is not limited to the cross shape described above, and is arbitrary. For example, the shape of the reference portion 31 may be a point, a dotted line, a mark having a predetermined shape, or the like. Further, the reference unit 31 may be provided in each of the image pickup unit 2 and the three-dimensional data acquisition unit 3. Further, it is arbitrary whether or not the measuring device 1 includes the reference unit 31. Further, at least one of the above-mentioned vertical center line and left-right center line does not have to be attached to the image by the reference unit 31. For example, at least one of the above-mentioned vertical center line and left-right center line may be obtained based on the image acquired by the image pickup unit 2.

撮像部2は、被験者Hの背部を撮像する。撮像部2は、被験者Hの背部を撮像して画像を取得する。3次元データ取得部3は、被験者Hの背部を撮影して背部の3次元データを取得する。この3次元データは、被験者Hの背部の3次元形状データとなる。測定装置1は、例えば、3次元データを用いて、被験者Hの背部の状態を測定することができる。 The imaging unit 2 images the back of the subject H. The image pickup unit 2 captures the back of the subject H and acquires an image. The three-dimensional data acquisition unit 3 photographs the back of the subject H and acquires the three-dimensional data of the back. This three-dimensional data becomes the three-dimensional shape data of the back of the subject H. The measuring device 1 can measure the state of the back of the subject H by using, for example, three-dimensional data.

なお、背部は、被験者Hの背側部分であり、頭部から足の先端までの部分を含む。3次元データは、例えば、被験者Hの背部の表面上の複数の点の三次元座標を含むデータである。例えば、3次元データは、被験者の背部の表面における各点の相対的な座標のデータを含むデータである。例えば、相対的な座標のデータは、被験者Hの背部における所定位置(例、後頭部の所定位置)の座標を基準に対する相対的な座標である。相対的な座標を用いる場合、3次元データ取得部3から被験者Hの背部上の各点までの距離のキャリブレーション用の基準部材を用いなくても被験者Hの背部の表面形状を取得することができ、簡便に3次元データを取得することができる。なお、座標データは、被験者Hの背部の表面における各点の相対的な座標のデータ以外に、絶対座標データでもよいし、被験者Hの背部以外に配置される基準に対する相対座標データでもよい。3次元データの解像度は、例えば、1mm〜10mmの解像度である。 The back portion is the dorsal portion of the subject H, and includes a portion from the head to the tip of the foot. The three-dimensional data is, for example, data including three-dimensional coordinates of a plurality of points on the surface of the back of the subject H. For example, the three-dimensional data is data including data on the relative coordinates of each point on the surface of the back of the subject. For example, the relative coordinate data is the coordinates relative to the coordinates of the predetermined position (eg, the predetermined position of the back of the head) on the back of the subject H. When relative coordinates are used, it is possible to acquire the surface shape of the back of the subject H without using a reference member for calibrating the distance from the three-dimensional data acquisition unit 3 to each point on the back of the subject H. It is possible to easily acquire three-dimensional data. In addition to the relative coordinate data of each point on the surface of the back surface of the subject H, the coordinate data may be absolute coordinate data or relative coordinate data with respect to a reference arranged outside the back of the subject H. The resolution of the three-dimensional data is, for example, a resolution of 1 mm to 10 mm.

撮像部2が撮像した画像と3次元データ取得部3が取得した3次元データとは、関連付けられて、記憶部16に記憶され、処理部PUあるいは制御部CUにより処理される。本明細書では、撮像部2が撮像した画像を「実画像」と称す。なお、実画像は、撮像部2が撮像した画像が処理された処理された画像でもよい。 The image captured by the imaging unit 2 and the three-dimensional data acquired by the three-dimensional data acquisition unit 3 are associated with each other, stored in the storage unit 16, and processed by the processing unit PU or the control unit CU. In the present specification, the image captured by the image pickup unit 2 is referred to as a “real image”. The actual image may be a processed image obtained by processing the image captured by the image pickup unit 2.

図5は、撮像部2が取得した実画像、及び3次元データ取得部3が取得した3次元データに基づく処理画像(以下、「3次元データを示す画像」と称す。)を示す図である。図5には、撮像部2が取得した画像Im1、及び3次元データを示す画像Im2を、表示部5に表示した画像である。この画像Im1は、撮像部2が取得した動画の一部である。画像Im2は、連続して取得した3次元データの一部のデータを処理した画像である。撮像部2が取得した画像Im1は、例えば、3次元データ取得部3が取得した3次元データに対応する実画像である。画像Im1は、上記した基準部31の十字状の中心線31aを含んでいる。画像Im2は、3次元データに基づいて処理された処理画像であり、3次元データを示す画像である。3次元データを示す画像Im2を生成する処理は、例えば、処理部PUにより行われる。例えば、図5に示す3次元データを示す画像Im2は、等高線に関する情報を含む等高線画像である。等高線画像は、例えば、3次元データの座標データを処理することにより、生成することができる。 FIG. 5 is a diagram showing an actual image acquired by the imaging unit 2 and a processed image based on the three-dimensional data acquired by the three-dimensional data acquisition unit 3 (hereinafter, referred to as “an image showing the three-dimensional data”). .. FIG. 5 is an image in which the image Im1 acquired by the image pickup unit 2 and the image Im2 showing the three-dimensional data are displayed on the display unit 5. This image Im1 is a part of the moving image acquired by the imaging unit 2. The image Im2 is an image obtained by processing a part of continuously acquired three-dimensional data. The image Im1 acquired by the image pickup unit 2 is, for example, an actual image corresponding to the three-dimensional data acquired by the three-dimensional data acquisition unit 3. The image Im1 includes the cross-shaped center line 31a of the reference portion 31 described above. The image Im2 is a processed image processed based on the three-dimensional data, and is an image showing the three-dimensional data. The process of generating the image Im2 showing the three-dimensional data is performed by, for example, the processing unit PU. For example, the image Im2 showing the three-dimensional data shown in FIG. 5 is a contour line image including information about the contour lines. The contour image can be generated, for example, by processing the coordinate data of the three-dimensional data.

なお、等高線画像は、等高線に関する情報を含んでいれば、図5に示す画像に限定されず、任意である。例えば、等高線画像は、所定の間隔の等高線を線状(例、実線、点線状)で示してもよいし、高さを示す情報を色あるいは濃度に変換してグラデーションで表してもよいし、長さあるいは高さなどの、等高線を示す情報以外の他の情報(画像)を含んでもよい。 The contour image is not limited to the image shown in FIG. 5 and is arbitrary as long as it contains information about the contour lines. For example, the contour line image may show contour lines at predetermined intervals in a linear shape (eg, solid line, dotted line shape), or may convert height information into color or density and represent it as a gradation. Other information (image) other than the information indicating the contour lines, such as length or height, may be included.

画像Im1及び3次元データを示す画像Im2は、処理部PUあるいは制御部CUによって、所定の処理及び制御を受け、表示部5に並べて表示される。また、実画像Im1及び画像Im2は、それぞれ、隣接して表示される。また、実画像Im1及び画像Im2は、それぞれ、リアルタイムで表示される。また、図5に示す例では、実画像Im1及び画像Im2は、それぞれ、処理部PUあるいは制御部CUにより、同一の大きさになるように処理され、表示部5に表示される。 The image Im1 and the image Im2 showing the three-dimensional data are subjected to predetermined processing and control by the processing unit PU or the control unit CU, and are displayed side by side on the display unit 5. Further, the actual image Im1 and the image Im2 are displayed adjacent to each other. Further, the actual image Im1 and the image Im2 are displayed in real time, respectively. Further, in the example shown in FIG. 5, the actual image Im1 and the image Im2 are processed by the processing unit PU or the control unit CU so as to have the same size, and are displayed on the display unit 5.

図6及び図7は、ポジショナーの一例を示す図であり、図6は正面図、図7は側面図である。測定装置1は、ポジショナー33を備える。ポジショナー33は、測定装置1による測定時に被験者Hを支持する。ポジショナー33は、支持部34、支持部材35、足部支持部36、及びスクリーン37を備える。支持部34は、被験者Hを支持する。支持部34は、被験者Hの背面あるいは被験者Hの前面を支持する。足部支持部36は、被験者Hの足を下方から支持する。支持部34は、被験者Hの上半身の左右方向の中央部分に対応する部分、及び被験者Hの足先に対応する部分に、空間部38a、38bを有している。被験者Hは、支持部34に支持される際、この空間部38a、38bに被験者Hの上半身の左右方向の中央部分及び足先をいれることができる。この場合、支持部34は、支持部34に支持される際の被験者Hの負担を軽減し、確実に被験者Hを支持することができる。 6 and 7 are views showing an example of a positioner, FIG. 6 is a front view, and FIG. 7 is a side view. The measuring device 1 includes a positioner 33. The positioner 33 supports the subject H during measurement by the measuring device 1. The positioner 33 includes a support portion 34, a support member 35, a foot portion support portion 36, and a screen 37. The support unit 34 supports the subject H. The support portion 34 supports the back surface of the subject H or the front surface of the subject H. The foot support portion 36 supports the foot of the subject H from below. The support portion 34 has spatial portions 38a and 38b in a portion corresponding to the central portion of the upper body of the subject H in the left-right direction and a portion corresponding to the toes of the subject H. When the subject H is supported by the support portion 34, the central portion and the toes of the upper body of the subject H in the left-right direction can be inserted into the space portions 38a and 38b. In this case, the support portion 34 can reduce the burden on the subject H when being supported by the support portion 34, and can reliably support the subject H.

また、支持部34は、図6に示すように、支持部材35に下方から支持され、鉛直方向に対して、所定の角度で傾いて配置されている。この傾きは、例えば、鉛直方向に対して10°程度傾くように設定される。被験者Hは、測定時に、支持部34に体重をあずけて、鉛直方向に対して傾いた状態で、支持される。なお、足部支持部36も、上記した支持部34の傾きに対応して配置され、被験者Hの足部を支持する支持面が、支持部34が人体を支持する支持面に対して、直交するように配置されている。 Further, as shown in FIG. 6, the support portion 34 is supported by the support member 35 from below, and is arranged so as to be tilted at a predetermined angle with respect to the vertical direction. This inclination is set so as to be inclined by, for example, about 10 ° with respect to the vertical direction. At the time of measurement, the subject H is supported in a state of leaning with respect to the vertical direction by giving a weight to the support portion 34. The foot support portion 36 is also arranged corresponding to the inclination of the support portion 34 described above, and the support surface that supports the foot portion of the subject H is orthogonal to the support surface on which the support portion 34 supports the human body. Arranged to do.

ところで、測定装置1による測定時には、測定する項目の種類にもよるが、被験者Hは静止状態であるのが望まれる。上記のように支持部34が鉛直方向に対して所定の角度で傾いている場合、被験者Hは支持部34に体重をあずけることができるので、被験者Hが測定時に静止する際の負担を軽減することができる。また、測定装置1は、被験者Hをポジショナー33で支持して測定するので、静止状態の被験者Hを容易に測定することができる。被験者Hが子供などの場合、測定時に動いてしまうことがあるが、ポジショナー33を用いることにより、被験者Hを容易に静止させることができる。 By the way, at the time of measurement by the measuring device 1, it is desirable that the subject H is in a stationary state, although it depends on the type of the item to be measured. When the support portion 34 is tilted at a predetermined angle with respect to the vertical direction as described above, the subject H can give weight to the support portion 34, so that the burden when the subject H stands still at the time of measurement is reduced. be able to. Further, since the measuring device 1 supports the subject H with the positioner 33 and measures the subject H, the subject H in a stationary state can be easily measured. If the subject H is a child or the like, it may move at the time of measurement, but by using the positioner 33, the subject H can be easily stopped.

また、支持部34の表面には、基準線40が設けられている。この基準線40は、例えば、所定の高さに配置される。基準線40は、撮像部2により撮像可能に設けられている。このような基準線40がある場合、被験者Hの伸長を容易に把握することができる。また、撮像部2は、基準線40を含んで被験者Hを撮像する場合、撮像部2が取得した画像に基準線40に関する情報が付与することができる。この場合、基準線40に関する情報を画像の処理に用いることができる。 Further, a reference line 40 is provided on the surface of the support portion 34. The reference line 40 is arranged at a predetermined height, for example. The reference line 40 is provided so that it can be imaged by the image pickup unit 2. When there is such a reference line 40, the elongation of the subject H can be easily grasped. Further, when the image pickup unit 2 captures the subject H including the reference line 40, the image pickup unit 2 can add information about the reference line 40 to the image acquired by the image pickup unit 2. In this case, the information about the reference line 40 can be used for image processing.

スクリーン37は、支持部34が被験者Hを支持する面と反対側に設けられている。スクリーン37は、支持部34に対して所定の位置(距離、角度)で設けられている。スクリーン37は、撮像部2により撮像された画像においては、背景になる。スクリーン37がある場合、撮像部2により撮像した画像、あるいは3次元データ取得部3により取得した3次元データに、被験者H以外の物体の情報が含まれるのを防止することができるので、画像および3次元データの精度を向上させることができる。また、スクリーン37は、支持部34に対して所定の距離で設けられているので、3次元データ取得部3が取得した3次元データにおいて、スクリーン部分を基準とすることができ、これにより、3次元データの精度を向上させることができる。 The screen 37 is provided on the side opposite to the surface on which the support portion 34 supports the subject H. The screen 37 is provided at a predetermined position (distance, angle) with respect to the support portion 34. The screen 37 serves as a background in the image captured by the image pickup unit 2. When the screen 37 is present, it is possible to prevent the image captured by the imaging unit 2 or the three-dimensional data acquired by the three-dimensional data acquisition unit 3 from including information on an object other than the subject H, so that the image and the image and the three-dimensional data can be prevented from being included. The accuracy of 3D data can be improved. Further, since the screen 37 is provided at a predetermined distance from the support portion 34, the screen portion can be used as a reference in the three-dimensional data acquired by the three-dimensional data acquisition unit 3, whereby 3 The accuracy of dimensional data can be improved.

なお、ポジショナー33の構成は、図5等に示す例に限定されず、任意である。例えば、ポジショナー33は、スクリーン37を備えなくてもよい。また、測定装置1がポジショナー33を備えるか否かは、任意である。 The configuration of the positioner 33 is not limited to the example shown in FIG. 5 and the like, and is arbitrary. For example, the positioner 33 does not have to include the screen 37. Further, it is arbitrary whether or not the measuring device 1 includes the positioner 33.

図2の説明に戻り、抽出部10は、3次元データ取得部3により取得した3次元データ(以下、「3次元計測データ」という)から、被験者Hの表面形状に関するデータ(以下、表面形状データという)を抽出する。例えば、抽出部10は、予め人体の背部のパターンを記憶部16等に保存しておき、そのパターンと3次元計測データとのパターンマッチング処理等を用いて人体の判定を行い、3次元計測データから表面形状データを抽出する。例えば、抽出部10は、被験者Hの外形線(エッジ)を抽出する。抽出部10は、例えば、3次元計測データあるいは撮像部2が取得した画像データ(以下、単に「画像データ」と称すこともある)が表す物体の外形線を検出することにより、被験者Hの外形線の抽出を行う。抽出部10は、抽出した外形線に基づき、3次元計測データから表面形状データを抽出する。例えば、抽出部10は、3次元計測データから、表面形状データとして被験者Hの外形線の内側部分のデータを抽出する。抽出部10が人体の判定を行う場合、以降の処理を自動化することができる。例えば、3次元データ取得部3による3次元計測データの取得状態を継続し、被験者Hが3次元データ取得部3側に背部を向けて所定の姿勢をとった際に、人体であると判定することにより、以降の処理に自動的に移行させることができ、効率的に検査を行うことができる。また、抽出部10が3次元計測データから被験者Hの表面形状に関するデータを抽出することにより、処理に用いられるデータ量を減らすことができるため、以降の処理(例、各種画像処理、状態検出部4による状態の検出(算出)、正中線検出部11による中心線の検出等)を効率的に行うことができる。 Returning to the explanation of FIG. 2, the extraction unit 10 obtains data regarding the surface shape of the subject H (hereinafter, surface shape data) from the three-dimensional data (hereinafter referred to as “three-dimensional measurement data”) acquired by the three-dimensional data acquisition unit 3. ) Is extracted. For example, the extraction unit 10 stores the pattern of the back of the human body in the storage unit 16 or the like in advance, determines the human body by using pattern matching processing between the pattern and the three-dimensional measurement data, and the three-dimensional measurement data. Extract surface shape data from. For example, the extraction unit 10 extracts the outline (edge) of the subject H. The extraction unit 10 detects the outline of the object represented by the three-dimensional measurement data or the image data acquired by the image pickup unit 2 (hereinafter, may be simply referred to as “image data”), thereby detecting the outline of the subject H. Extract the line. The extraction unit 10 extracts surface shape data from the three-dimensional measurement data based on the extracted outline. For example, the extraction unit 10 extracts the data of the inner portion of the outline of the subject H as the surface shape data from the three-dimensional measurement data. When the extraction unit 10 determines the human body, the subsequent processing can be automated. For example, when the subject H continues to acquire the three-dimensional measurement data by the three-dimensional data acquisition unit 3 and takes a predetermined posture with the back facing the three-dimensional data acquisition unit 3, it is determined to be a human body. As a result, it is possible to automatically shift to the subsequent processing, and the inspection can be performed efficiently. Further, since the extraction unit 10 can reduce the amount of data used for the processing by extracting the data related to the surface shape of the subject H from the three-dimensional measurement data, the subsequent processing (eg, various image processing, state detection unit). The state detection (calculation) by 4 and the detection of the center line by the median line detection unit 11) can be efficiently performed.

なお、抽出部10は、3次元計測データから被験者Hの表面形状に関するデータを抽出する前に、3次元計測データと画像データとの少なくとも一方から背景データを削除する処理を行ってもよい。例えば、抽出部10は、3次元計測データから被験者Hの背部の表面に対して、所定の距離以上の部分を背景データであると推定して、削除してもよい。例えば、3次元データ取得部3と被験者Hとのおおよその距離が予めわかっている場合、この距離を上記の所定の距離として用いることができる。また、抽出部10は、3次元計測データと画像データとの少なくとも一方に対して、フィルタリング等のノイズの軽減処理、コントラストや明るさなどを変更する処理等の画像処理を行ってもよい。なお、測定装置1は、抽出部10を備えなくてもよいし、抽出部10は、測定装置1の外部の装置に設けられてもよい。例えば、測定装置1は、上記の外部の装置において抽出部10により処理されたデータを用いて、各種の処理を行ってもよい。 The extraction unit 10 may perform a process of deleting background data from at least one of the three-dimensional measurement data and the image data before extracting the data relating to the surface shape of the subject H from the three-dimensional measurement data. For example, the extraction unit 10 may estimate from the three-dimensional measurement data that the portion at least a predetermined distance with respect to the surface of the back of the subject H is the background data, and delete the portion. For example, when the approximate distance between the three-dimensional data acquisition unit 3 and the subject H is known in advance, this distance can be used as the above-mentioned predetermined distance. Further, the extraction unit 10 may perform image processing such as noise reduction processing such as filtering and processing for changing contrast and brightness on at least one of the three-dimensional measurement data and the image data. The measuring device 1 may not be provided with the extraction unit 10, and the extraction unit 10 may be provided in an external device of the measuring device 1. For example, the measuring device 1 may perform various processes using the data processed by the extraction unit 10 in the above-mentioned external device.

正中線検出部11は、3次元計測データに基づいて、被験者Hの背部の正中線を検出する。正中線は、被験者Hの頭頂から縦(上下方向、身長の方向)に延びる直線であり、被験者Hの左右方向(幅方向)の中心線である。以下の説明において、正中線と平行な方向を、適宜、正中線方向という。この正中線は、例えば、被験者Hの背部を左右に分けて評価を行う基準として用いられる。正中線検出部11は、例えば、上記した被験者Hの背部の外形線に基づく背部の幅(左右方向の長さ)から正中線を検出する。例えば、正中線検出部11は、上記した被験者Hの背部の外形線に基づいて被験者Hの背部の各位置における幅を取得し、例えばその幅の1/2の位置(背部の幅方向の中心位置)を結んで正中線とする。なお、正中線検出部11で検出した正中線は、表示部5に表示してもよい。 The median line detection unit 11 detects the median line on the back of the subject H based on the three-dimensional measurement data. The median line is a straight line extending vertically (vertical direction, height direction) from the crown of the subject H, and is a center line in the left-right direction (width direction) of the subject H. In the following description, the direction parallel to the median line is appropriately referred to as the median line direction. This median line is used, for example, as a reference for evaluating the back of the subject H by dividing it into left and right. The median line detection unit 11 detects the median line from, for example, the width (length in the left-right direction) of the back part based on the outline of the back part of the back part of the subject H described above. For example, the median line detection unit 11 acquires the width at each position of the back of the subject H based on the outline of the back of the subject H described above, and for example, the position of 1/2 of the width (the center in the width direction of the back). Position) is connected to form the median line. The median line detected by the median line detection unit 11 may be displayed on the display unit 5.

なお、正中線検出部11が、被験者Hの背部の正中線を検出する手法は、上記した例に限定されず任意である。例えば、例えば、人体の背部において脊柱の位置は、一般的に凹状態(くぼみ)となっているため、正中線検出部11は、背部の凹凸状態のデータにおいて略中央で凹状態の底(極値)となっている位置を結んだ線、あるいはこの線を、頭頂を通る直線で近似した線を正中線としてもよい。また、正中線検出部11は、撮像部2が取得した画像データを用いて、被験者Hの背部の正中線を検出してもよい。また、正中線検出部11は、被験者Hの背部のX線撮影画像データが表す形状(画像)と、3次元計測データが表す形状(画像)とを重ね合わせて、正中線を検出するようにしてもよい。例えば、評価(検出)の精度を高める場合には、正中線検出部11は、X線撮影画像を参照して正中線を決定(検出)してもよい。また、正中線検出部11は、被験者Hの背部のモアレ画像データが表す形状(画像)と、3次元計測データが表す形状(画像)とを重ね合わせて、正中線を検出してもよい。例えば、評価(検出)の精度を高める場合には、正中線検出部11は、モアレ画像を参照して正中線を決定してもよい。また、正中線検出部11は、例えば、被験者Hの脊柱を示す位置に反射テープ等で構成したマーカを予め貼付し、撮像部2が撮像した画像からマーカの位置を検出し、正中線を決定してもよい。なお、測定装置1は、正中線検出部11を備えなくてもよいし、正中線検出部11は、測定装置1の外部の装置に設けられてもよい。例えば、測定装置1は、上記の外部の装置において正中線検出部11により処理されたデータを用いて、各種の処理を行ってもよい。 The method by which the median line detection unit 11 detects the median line on the back of the subject H is not limited to the above example and is arbitrary. For example, for example, since the position of the spinal column in the back of the human body is generally in a concave state (dent), the median line detection unit 11 has a concave bottom (pole) in the substantially center in the data of the uneven state of the back. A line connecting the positions of (value), or a line obtained by approximating this line with a straight line passing through the crown may be used as the median line. Further, the median line detection unit 11 may detect the median line on the back of the subject H by using the image data acquired by the image pickup unit 2. Further, the median line detection unit 11 detects the median line by superimposing the shape (image) represented by the X-ray photographed image data on the back of the subject H and the shape (image) represented by the three-dimensional measurement data. You may. For example, in order to improve the accuracy of evaluation (detection), the median line detection unit 11 may determine (detect) the median line by referring to the X-ray photographed image. Further, the median line detection unit 11 may detect the median line by superimposing the shape (image) represented by the moire image data on the back of the subject H and the shape (image) represented by the three-dimensional measurement data. For example, in order to improve the accuracy of evaluation (detection), the median line detection unit 11 may determine the median line with reference to the moire image. Further, for example, the median line detection unit 11 attaches a marker composed of a reflective tape or the like to a position indicating the spinal column of the subject H in advance, detects the position of the marker from the image captured by the image pickup unit 2, and determines the median line. You may. The measuring device 1 may not be provided with the median line detecting unit 11, and the median line detecting unit 11 may be provided in an external device of the measuring device 1. For example, the measuring device 1 may perform various processes using the data processed by the median line detection unit 11 in the above-mentioned external device.

特徴部位指定部12は、被験者Hの背部における測定すべき特徴部位を指定する。特徴部位指定部12は、例えば、3次元計測データ、あるいは抽出部10により抽出された表面形状データから被験者Hの背部における測定すべき特徴部位を指定する。特徴部位指定部12は、例えば、測定すべき特徴部位を自動的に検出して指定する。例えば、特徴部位指定部12は、予め測定すべき特徴部位に関するデータを記憶部16に登録し、そのデータに基づいて特徴部位を検出する。特徴部位指定部12は、例えば、3次元計測データに基づいて被験者Hの背部の各部位を推定する処理を行う。例えば、特徴部位指定部12は、特徴部位を「第7頚椎」として、被験者Hの「第7頚椎」の位置を3次元データ、あるいは撮像部2による画像データに基づいて自動的に検出する。特徴部位指定部12は、これと同様にして、「頸椎」、「胸椎」、「腰椎」、「肩部」、「肩甲骨」、「腰部」、「骨盤」、「かかと」、「ひざ」等の各部位(各領域)を特徴部位として検出する。なお、特徴部位指定部12が検出した各部位は、各部位を示す画像を生成して、表示部5により表示してもよい。 The feature site designation unit 12 designates a feature site to be measured on the back of the subject H. The feature site designation unit 12 designates a feature site to be measured on the back of the subject H from, for example, three-dimensional measurement data or surface shape data extracted by the extraction unit 10. The feature site designation unit 12 automatically detects and designates a feature site to be measured, for example. For example, the feature site designation unit 12 registers data regarding the feature site to be measured in advance in the storage unit 16, and detects the feature site based on the data. The feature site designation unit 12 performs a process of estimating each site on the back of the subject H based on, for example, three-dimensional measurement data. For example, the feature site designation unit 12 automatically detects the position of the “7th cervical vertebra” of the subject H based on the three-dimensional data or the image data by the image pickup unit 2, with the feature site as the “7th cervical vertebra”. In the same manner as this, the feature site designation portion 12 has a "cervical spine", a "thoracic spine", a "lumbar spine", a "shoulder", a "scapula", a "lumbar", a "pelvis", a "heel", and a "knee". Each part (each area) such as is detected as a characteristic part. Each part detected by the feature part designation unit 12 may generate an image showing each part and display it by the display unit 5.

なお、特徴部位指定部12は、これらの各部位(各領域)を特徴部位として推定してもよい。なお、特徴部位指定部12が腰部や臀部の位置を推定し、その部位を捻じれ(歪み)の基準としてもよい。一般的に、腰部や臀部は略水平面を形成すると考えることができるので、この腰部や臀部を「第7頚椎」や「肩部」等の特徴部位の捻じれ(歪み)具合の基準とすることができる。また、特徴部位指定部12は、正中線検出部11により検出した正中線に基づいて、測定すべき特徴部位を自動的に検出してもよい。なお、特徴部位指定部12が指定する被験者Hの部位は、上記に限定されず任意である。 The feature site designation unit 12 may estimate each of these sites (each region) as a feature site. The feature portion designating portion 12 may estimate the positions of the waist and buttocks, and the portions may be used as a reference for twisting (distortion). In general, it can be considered that the waist and buttocks form a substantially horizontal plane, so this waist and buttocks should be used as a reference for the degree of twist (distortion) of characteristic parts such as the "7th cervical vertebra" and "shoulder". Can be done. Further, the feature portion designation unit 12 may automatically detect the feature portion to be measured based on the median line detected by the median line detection unit 11. The part of the subject H designated by the feature part designation unit 12 is not limited to the above and is arbitrary.

また、特徴部位指定部12は、操作者が手動で指定した特徴部位を、測定すべき特徴部位として指定することができる。例えば、3次元計測データあるいは画像データに相当する画像を表示部5に表示し、操作者は、マウス、タッチペン等の入力部6を用いて、表示部5に表示された画像上の位置を選択する。入力部6は、ユーザが指定した特徴部位の情報を取得し、特徴部位指定部12は、この情報に基づいて特徴部位を指定(決定)する。なお、各状態検出部4における、被験者Hの背部における測定すべき特徴部位については、後に説明する。 Further, the feature portion designation unit 12 can designate the feature portion manually designated by the operator as the feature portion to be measured. For example, an image corresponding to three-dimensional measurement data or image data is displayed on the display unit 5, and the operator selects a position on the image displayed on the display unit 5 by using an input unit 6 such as a mouse or a touch pen. do. The input unit 6 acquires the information of the feature portion designated by the user, and the feature portion designation unit 12 designates (determines) the feature portion based on this information. The characteristic sites to be measured on the back of the subject H in each state detection unit 4 will be described later.

自動評価部13は、例えば、後述する状態検出部4の各部で検出された特徴部位の状態を自動的に評価する。自動評価部13は、例えば、予め設定される閾値との比較によって、状態検出部4の各部で検出された特徴部位の状態を自動的に評価する。これにより、被験者Hの特徴部位の状態を、簡便に把握することができる。上記の閾値としては、例えば、健常者について状態検出部4の各部で検出された値等を用いることができる。自動評価部13は、例えば、被験者Hについて状態検出部4の各部で検出された値が上記の閾値を超えた場合に、被験者Hに対する検出値と閾値との差に応じて、「・・・の部分に軽度の歪みがみられます」、「・・・の部分に中度の歪みがみられ、要観察と思われます」、「・・・の部分に重度の歪みがみられ、手術等の治療が必要と思われます」等のメッセージを表示するようにしてもよい。また、自動評価部13は、被験者Hについて過去の測定により得られた特徴部位の状態を示すデータと、被験者Hについて今回の測定により得られる特徴部位の状態を示すデータとを比較して、特徴部位の状態を自動的に評価してもよい。なお、本明細書において、自動評価部13の評価結果は、状態検出部4の検出結果に含まれるものとする。 The automatic evaluation unit 13 automatically evaluates, for example, the state of the feature portion detected by each unit of the state detection unit 4, which will be described later. The automatic evaluation unit 13 automatically evaluates the state of the feature portion detected by each unit of the state detection unit 4, for example, by comparing with a preset threshold value. Thereby, the state of the characteristic portion of the subject H can be easily grasped. As the above threshold value, for example, a value detected by each unit of the state detection unit 4 for a healthy person can be used. For example, when the value detected in each unit of the state detection unit 4 for the subject H exceeds the above threshold value, the automatic evaluation unit 13 "..." according to the difference between the detected value and the threshold value for the subject H. There is a slight distortion in the part of ... "," There is a moderate distortion in the part of ..., it seems that observation is necessary "," A severe distortion is seen in the part of ..., surgery It seems that treatment such as "I think it is necessary" may be displayed. Further, the automatic evaluation unit 13 compares the data indicating the state of the characteristic portion obtained by the past measurement with respect to the subject H and the data indicating the state of the characteristic portion obtained by the current measurement with respect to the subject H, and features. The condition of the site may be evaluated automatically. In this specification, the evaluation result of the automatic evaluation unit 13 is included in the detection result of the state detection unit 4.

なお、体の歪み(例、脊椎側弯症)についての手術や各種治療の要否等の最終判断は、医師等(例、専門医)によって行われる。また、測定装置1は、自動評価部13を備えなくてもよいし、自動評価部13は、測定装置1の外部の装置に設けられてもよい。例えば、上記の外部の装置において自動評価部13は、測定装置1により得られる特徴部位の状態を示すデータを用いて、特徴部位の状態を自動的に評価してもよい。 The final judgment on the necessity of surgery and various treatments for body strain (eg, scoliosis) is made by a doctor or the like (eg, a specialist). Further, the measuring device 1 may not be provided with the automatic evaluation unit 13, and the automatic evaluation unit 13 may be provided in an external device of the measuring device 1. For example, in the above-mentioned external device, the automatic evaluation unit 13 may automatically evaluate the state of the feature portion using the data indicating the state of the feature portion obtained by the measuring device 1.

次に状態検出部4について説明する。状態検出部4は、3次元データ取得部3で取得される3次元データに基づいて、特徴部位指定部12で指定された特徴部位の状態を検出する。本実施形態の状態検出部4は、脊柱の歪みを検出する。状態検出部4は、例えば、第1の脊柱検出部4a、及び第2の脊柱検出部4bを備える。なお、状態検出部4は、被験者Hの背部の歪みに関連する複数の項目(肩部、肩甲骨、腰部、下半身、骨盤、足部)を検出してもよい。 Next, the state detection unit 4 will be described. The state detection unit 4 detects the state of the feature portion designated by the feature portion designation unit 12 based on the three-dimensional data acquired by the three-dimensional data acquisition unit 3. The state detection unit 4 of the present embodiment detects the distortion of the spinal column. The state detection unit 4 includes, for example, a first spinal column detection unit 4a and a second spinal column detection unit 4b. The state detection unit 4 may detect a plurality of items (shoulder, scapula, lumbar region, lower body, pelvis, foot) related to the distortion of the back of the subject H.

第1の脊柱検出部4aは、特徴部位の状態として、被験者Hの左右方向の体表面の凹凸状態を検出する。図8(A)〜(D)は、第1の脊柱検出部4aを説明するための図である。図8(A)は、第1の脊柱検出部4aにおける測定すべき特徴部位を示す図である。図8(A)の3次元データに基づく処理画像は、例えば表示部5に表示される。第1の脊柱検出部4aは、例えば、測定すべき特徴部位を、正中線の方向における頸椎から股間までの所定部分R1に設定し、この所定部分R1において、正中線を境にした左右のピーク位置の高低差を示す情報(以下、高低差情報)を算出する。 The first spinal column detecting unit 4a detects the uneven state of the body surface in the left-right direction of the subject H as the state of the characteristic portion. 8 (A) to 8 (D) are diagrams for explaining the first spinal column detection unit 4a. FIG. 8A is a diagram showing a characteristic site to be measured in the first spinal column detection unit 4a. The processed image based on the three-dimensional data of FIG. 8A is displayed on, for example, the display unit 5. The first spinal column detection unit 4a sets, for example, a characteristic site to be measured at a predetermined portion R1 from the cervical spine to the crotch in the direction of the median plane, and in this predetermined portion R1, the left and right peaks with the midline as a boundary. Information indicating the height difference of the position (hereinafter referred to as height difference information) is calculated.

図8(B)は、正中線に直交する面における被験者Hの体表面の形状を示す図である。図8(B)において、符号MLは正中線であり、符号PE1は正中線MLに対して左側のピーク(例、極大)であり、符号PE2は正中線MLに対して右側のピーク(例、極小)である。第1の脊柱検出部4aは、例えば、正中線に直交する面内の所定部分R2について、正中線を境界線とする左右の領域のうち、一方の領域(例、左の領域)における高さの極大値(ピークPE1の高さ)と、他方の領域(例、右の領域)における極小値(ピークPE2の高さ)との差分を、高低差hとして算出する。高低差hは、上記の高低差情報の一例である。また、第1の脊柱検出部4aは、ピークPE1とピークPE2を通る直線L1が、水平線HLと交わる角度θ1を算出する。角度θ1は、上記の高低差情報の一例である。 FIG. 8B is a diagram showing the shape of the body surface of the subject H on the plane orthogonal to the midline. In FIG. 8B, the reference numeral ML is the median line, the reference numeral PE1 is the peak on the left side with respect to the median line ML (eg, maximum), and the reference numeral PE2 is the peak on the right side with respect to the median line ML (eg, maximum). Very small). The first spinal column detection unit 4a is, for example, the height of a predetermined portion R2 in a plane orthogonal to the median plane in one of the left and right regions having the median plane as a boundary line (eg, the left region). The difference between the maximum value (height of the peak PE1) and the minimum value (height of the peak PE2) in the other region (eg, the right region) is calculated as the height difference h. The height difference h is an example of the above height difference information. Further, the first spinal column detection unit 4a calculates the angle θ1 at which the straight line L1 passing through the peak PE1 and the peak PE2 intersects the horizon HL. The angle θ1 is an example of the above-mentioned height difference information.

また、第1の脊柱検出部4aは、被験者Hの左右方向の脊柱の歪みの程度(レベル)を定量的に検出する。第1の脊柱検出部4aは、例えば、図8(A)に示した部分R1において正中線の方向における複数の各位置において、図8(B)に示したように正中線MLに対する左右のピーク位置の高低差情報として、例えば角度θ1を算出する。図8(C)は、第1の脊柱検出部4aが算出した角度θ1の、正中線の方向における分布を示す図である。図8(C)の画像は、例えば表示部5に表示される。図8(C)において、縦軸は正中線の方向における位置であり、横軸は角度θ1である。なお、横軸の角度θ1は、図8(B)の直線L1のように左から右に向かって高さが減少する場合に正(+)とし、その反対の場合に負(−)とした値である。 In addition, the first spinal column detection unit 4a quantitatively detects the degree (level) of distortion of the spinal column in the left-right direction of the subject H. The first spinal column detection unit 4a has, for example, left and right peaks with respect to the median line ML as shown in FIG. 8B at each of a plurality of positions in the direction of the median line in the portion R1 shown in FIG. 8A. For example, the angle θ1 is calculated as the height difference information of the position. FIG. 8C is a diagram showing the distribution of the angle θ1 calculated by the first spinal column detection unit 4a in the direction of the median plane. The image of FIG. 8C is displayed, for example, on the display unit 5. In FIG. 8C, the vertical axis is the position in the direction of the median line, and the horizontal axis is the angle θ1. The angle θ1 on the horizontal axis is positive (+) when the height decreases from left to right as in the straight line L1 in FIG. 8 (B), and negative (-) when the opposite is true. The value.

また、第1の脊柱検出部4aは、例えば、部分R1における、ピーク位置の高低差を示す角度θ1において、最大値と最小値とを算出し、最大値の絶対値と最小値の絶対値との和を「弯曲度」として算出する。この「弯曲度」は、被験者Hの脊柱の左右方向の歪みの程度を定量的に示す値である。第1の脊柱検出部4aが算出した「弯曲度」を用いると、例えば、被験者Hの脊柱の左右方向の歪みの程度を簡便且つ精度よく評価することができる。 Further, the first spinal column detection unit 4a calculates the maximum value and the minimum value at the angle θ1 indicating the height difference of the peak position in the portion R1, and sets the absolute value of the maximum value and the absolute value of the minimum value. Is calculated as the "curvature". This "curvature degree" is a value that quantitatively indicates the degree of lateral distortion of the spinal column of the subject H. By using the "curvature degree" calculated by the first spinal column detecting unit 4a, for example, the degree of lateral distortion of the spinal column of the subject H can be evaluated easily and accurately.

図8(C)に示す例では、正の角度(+の角度)の最大値を矢印Bで示し、負の角度(−の角度)の最小値を矢印Aで示した。なお、図8(A)において、この矢印AはA−A線の部分に相当し、矢印BはB−B線の部分に相当する。なお、このA−A線およびB−B線は、第1の脊柱検出部のAの検出結果として、撮像部2による実画像及び/又は3次元データに基づく画像に重ねられて、表示部5に表示される。また、第1の脊柱検出部4aは、図8(D)に示すように、A−A線における体表面の凹凸状態(符号Aで示す)、及びB−B線における体表面の凹凸状態を検出結果(符号Bで示す)として出力する。 In the example shown in FIG. 8C, the maximum value of the positive angle (+ angle) is indicated by the arrow B, and the minimum value of the negative angle (−-angle) is indicated by the arrow A. In FIG. 8A, the arrow A corresponds to the portion of the line AA, and the arrow B corresponds to the portion of the line BB. The AA line and the BB line are superimposed on the actual image and / or the image based on the three-dimensional data by the image pickup unit 2 as the detection result of A of the first spinal column detection unit, and the display unit 5 Is displayed in. Further, as shown in FIG. 8D, the first spinal column detection unit 4a determines the uneven state of the body surface on the AA line (indicated by the reference numeral A) and the uneven state of the body surface on the BB line. It is output as a detection result (indicated by reference numeral B).

図9は、第2の脊柱検出部4bを説明するための図である。図9(A)は、第2の脊柱検出部4bにおける測定すべき特徴部位を示す図である。図9(A)の画像は、例えば表示部5に表示される。第2の脊柱検出部4bは、特徴部位の状態として、被験者Hの前後方向(背腹方向)の体表面の凹凸状態を検出する。第2の脊柱検出部4bは、例えば、被験者Hの脊柱における前後方向の歪みの程度を定量的に検出する。第2の脊柱検出部4bは、例えば、測定すべき特徴部位を、被験者Hの背部の部分R3に設定し、この特徴部位における体表面の凹凸状態を検出する。部分R3は、例えば、被験者Hの背部の幅方向における中心位置を結んだ線に相当する部分である。部分R3の体表面の凹凸状態には、脊柱の前後方向の位置が反映されている。したがって、第2の脊柱検出部4bは、部分R3の体表面の凹凸状態を検出することにより、脊柱における前後方向の歪みを検出することができる。 FIG. 9 is a diagram for explaining the second spinal column detection unit 4b. FIG. 9A is a diagram showing a characteristic site to be measured in the second spinal column detection unit 4b. The image of FIG. 9A is displayed, for example, on the display unit 5. The second spinal column detecting unit 4b detects the uneven state of the body surface in the anteroposterior direction (dorsoventral direction) of the subject H as the state of the characteristic site. The second spinal column detection unit 4b quantitatively detects, for example, the degree of anterior-posterior distortion in the spinal column of subject H. The second spinal column detection unit 4b sets, for example, a characteristic portion to be measured on the back portion R3 of the subject H, and detects an uneven state of the body surface in this characteristic portion. The portion R3 is, for example, a portion corresponding to a line connecting the center positions in the width direction of the back of the subject H. The uneven state of the body surface of the portion R3 reflects the position of the spinal column in the anterior-posterior direction. Therefore, the second spinal column detecting unit 4b can detect the strain in the anterior-posterior direction in the spinal column by detecting the uneven state of the body surface of the portion R3.

図9(B)は、第2の脊柱検出部4bの検出結果の例を示す図である。図9(B)の画像は、例えば、表示部5に表示される。図9(B)において、横軸は正中線の方向における体表面の位置であり、横軸は前後方向における体表面の位置である。第2の脊柱検出部4bは、例えば、正中線の方向における体表面の位置に対する前後方向における体表面の位置の分布を検出結果として出力する。図9(B)の符号L2は、被験者の上下方向に対応する線を示す。この分布は、例えば、前後方向への背骨の反りを評価すること等に利用される。なお、第2の脊柱検出部4bにおける特徴部位は、被験者Hの背部の中心線の部分R3でなくてもよく、例えば、被験者Hの背部から選択される、正中線と平行な部分でもよい。 FIG. 9B is a diagram showing an example of the detection result of the second spinal column detection unit 4b. The image of FIG. 9B is displayed on the display unit 5, for example. In FIG. 9B, the horizontal axis is the position of the body surface in the direction of the midline, and the horizontal axis is the position of the body surface in the front-back direction. The second spinal column detection unit 4b outputs, for example, the distribution of the position of the body surface in the anteroposterior direction with respect to the position of the body surface in the direction of the midline as a detection result. Reference numeral L2 in FIG. 9B indicates a line corresponding to the vertical direction of the subject. This distribution is used, for example, to evaluate the warp of the spine in the anterior-posterior direction. The characteristic portion of the second spinal column detection unit 4b does not have to be the portion R3 of the center line of the back of the subject H, and may be, for example, a portion parallel to the median plane selected from the back of the subject H.

上記のように本実施形態の測定装置1は、被験者Hの脊柱の歪みを簡単かつ精度よく検出することができる。また、測定装置1は、被験者Hの脊柱における左右方向の歪みを検出することができるので、被験者Hが脊柱側弯症であることを検出することができる。また、測定装置1は、被験者Hの脊柱における前後方向の歪みを検出することができるので、被験者Hが脊柱前湾症、あるいは脊柱後湾症であることを検出することができる。このような測定装置1は、学校検診における脊柱側弯症のスクリーニング、病院・診療所での脊柱側弯症の検出、脊柱側弯症手術前後の経過観察などに好適に用いることができる。 As described above, the measuring device 1 of the present embodiment can easily and accurately detect the distortion of the spinal column of the subject H. Further, since the measuring device 1 can detect the strain in the spinal column of the subject H in the left-right direction, it can detect that the subject H has scoliosis. Further, since the measuring device 1 can detect the strain in the spinal column of the subject H in the anterior-posterior direction, it can detect that the subject H has kyphosis or kyphosis. Such a measuring device 1 can be suitably used for screening for scoliosis in school examinations, detection of scoliosis in hospitals / clinics, follow-up before and after scoliosis surgery, and the like.

なお、上記した第1の脊柱検出部4aおよび第2の脊柱検出部4bは、例えば静止状態の被験者Hの画像および3次元データを用いて状態の検出を行うが、所定の動作を行う被験者Hの動画を用いて、評価を総合的に行ってもよい。なお、第1の脊柱検出部4aおよび第2の脊柱検出部4bのうち少なくとも1つは、なくてもよい。 The first spinal column detection unit 4a and the second spinal column detection unit 4b described above detect the state using, for example, an image of the subject H in a stationary state and three-dimensional data, but the subject H performs a predetermined operation. The evaluation may be performed comprehensively using the moving image of. It should be noted that at least one of the first spinal column detection unit 4a and the second spinal column detection unit 4b may not be present.

図2の説明に戻り、入力部6は、ユーザから各種操作指令の入力を受け付ける。入力部6としては、例えば、キーボード、マウス、ボタン、ジョイスティック、タッチパネル等の入力装置を用いることができる。 Returning to the description of FIG. 2, the input unit 6 receives input of various operation commands from the user. As the input unit 6, for example, an input device such as a keyboard, a mouse, a button, a joystick, and a touch panel can be used.

記憶部16は、コンピュータ装置CPの動作に必要な各種プログラム、各種データを記憶(格納)する。記憶部16としては、例えば、ハードディスク、フラッシュメモリ等の記憶装置を用いることができる。 The storage unit 16 stores (stores) various programs and various data necessary for operating the computer device CP. As the storage unit 16, for example, a storage device such as a hard disk or a flash memory can be used.

表示部5は、各種情報を表示する。例えば、表示部5は、図5に示した撮像部2が取得した実画像Im1、3次元データを示す画像Im2、状態検出部4の検出結果、自動評価部13の評価結果、測定装置1の操作を行う操作部15、測定装置1の操作に関する情報、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1以外の被験者Hの背部に関する情報(例、正中線ML(図8(A)参照))等を表示する。なお、実画像Im1については、上記した中心線31aを含む画像が表示される。 The display unit 5 displays various information. For example, the display unit 5 includes an actual image Im1 acquired by the imaging unit 2 shown in FIG. 5, an image Im2 showing three-dimensional data, a detection result of the state detection unit 4, an evaluation result of the automatic evaluation unit 13, and a measurement device 1. Information on the back of the subject H other than the operation unit 15 that performs the operation, information on the operation of the measuring device 1, the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4 (eg, midline ML (eg, midline ML). (See FIG. 8A))) and the like are displayed. As for the actual image Im1, an image including the center line 31a described above is displayed.

表示部5の表示は、表示制御部14により制御される。表示制御部14は、上記したような表示部5に表示する情報を表示部5に表示させる。表示部5としては、例えば、ディスプレイ、液晶モニタ、タッチパネル等の表示装置等を用いることができる。また、表示部5は、被験者Hの3次元データ等を、ポリゴンやワイヤーフレーム等を用い3次元画像で表示するようにしてもよい。また、ボタン操作やポインティングデバイス操作により、3次元画像の視点等を切り換えるようにしてもよい。 The display of the display unit 5 is controlled by the display control unit 14. The display control unit 14 causes the display unit 5 to display the information to be displayed on the display unit 5 as described above. As the display unit 5, for example, a display device such as a display, a liquid crystal monitor, or a touch panel can be used. Further, the display unit 5 may display the three-dimensional data of the subject H or the like as a three-dimensional image using polygons, wire frames, or the like. Further, the viewpoint of the three-dimensional image may be switched by operating a button or a pointing device.

図10は、表示部による表示例を示す図である。図10に示すように、表示部5は、表示制御部14の制御により、撮像部2が取得した実画像Im1、3次元データを示す画像Im2、状態検出部4の検出結果D1、測定日時D2、被験者Hの氏名D3、被験者Hの識別番号(ID)D4、操作メニューM1(操作部15)、被験者Hの背部に関する情報I、上記した自動評価部13の評価結果(図示せず)等を表示する。表示部5は、これらの情報をリアルタイムで表示することができる。 FIG. 10 is a diagram showing a display example by the display unit. As shown in FIG. 10, the display unit 5 has an actual image Im1 acquired by the image pickup unit 2 under the control of the display control unit 14, an image Im2 showing three-dimensional data, a detection result D1 of the state detection unit 4, and a measurement date / time D2. , Subject H's name D3, subject H's identification number (ID) D4, operation menu M1 (operation unit 15), information I about the back of subject H, evaluation results of the above-mentioned automatic evaluation unit 13 (not shown), and the like. indicate. The display unit 5 can display these information in real time.

例えば、表示部5は、実画像Im1と3次元データを示す画像Im2とを、並べて表示する。例えば、表示部5は、実画像Im1と3次元データを示す画像Im2とを、並べて同一の大きさで表示する。また、表示部5は、実画像Im1に中心線31a(左右中心線及び上下中心線)を重ねて表示する。 For example, the display unit 5 displays the actual image Im1 and the image Im2 showing the three-dimensional data side by side. For example, the display unit 5 displays the actual image Im1 and the image Im2 showing the three-dimensional data side by side in the same size. Further, the display unit 5 displays the center line 31a (left and right center lines and the upper and lower center lines) superimposed on the actual image Im1.

状態検出部4の検出結果D1は、状態検出部4の検出結果D1は、状態検出部4(第1の脊柱検出部4a、第2の脊柱検出部4b)の検出結果を示す情報である。例えば、図10に示す例では、表示部5は、状態検出部4の検出結果D1として、図8(C)に示した第1の脊柱検出部4aが算出した角度θ1の正中線の方向における分布を示す画像Im3、及び「弯曲度」D5を表示する。このように、表示部5は、状態検出部4の検出結果D1を、実画像Im1及び3次元データを示す画像Im2に、並べて表示することができる。本実施形態では、表示部5は、図8(D)に示したA−A線における体表面の凹凸状態、B−B線における体表面の凹凸状態を検出結果、図9(B)に示した正中線の方向における体表面の位置に対する前後方向における体表面の位置の分布なども表示することができる。 The detection result D1 of the state detection unit 4 is the information indicating the detection result D1 of the state detection unit 4 indicating the detection result of the state detection unit 4 (first spinal column detection unit 4a, second spinal column detection unit 4b). For example, in the example shown in FIG. 10, the display unit 5 uses the detection result D1 of the state detection unit 4 in the direction of the median line at an angle θ1 calculated by the first spinal column detection unit 4a shown in FIG. 8 (C). The image Im3 showing the distribution and the “curvature” D5 are displayed. In this way, the display unit 5 can display the detection result D1 of the state detection unit 4 side by side on the actual image Im1 and the image Im2 showing the three-dimensional data. In the present embodiment, the display unit 5 detects the uneven state of the body surface in the line AA shown in FIG. 8D and the unevenness state of the body surface in the line BB, and is shown in FIG. 9B. It is also possible to display the distribution of the position of the body surface in the anteroposterior direction with respect to the position of the body surface in the direction of the median line.

被験者Hの背部に関する情報Iは、被験者Hの背部に関する情報であれば任意である。例えば、図10に示す例では、被験者Hの背部に関する情報Iは、正中線MLである。被験者Hの背部に関する情報Iは、特徴部位指定部12が検出した各部位を示す情報などが挙げられる。 The information I regarding the back of the subject H is arbitrary as long as it is the information regarding the back of the subject H. For example, in the example shown in FIG. 10, the information I about the back of subject H is the median line ML. The information I regarding the back of the subject H includes information indicating each part detected by the characteristic part designation unit 12.

また、操作メニューM1は、測定装置1の各種操作を行う操作部15として用いられる。操作メニューM1は、例えば、表示部5にボタンとして表示される。図10に示す例では、操作メニューM1は、「保存」、「再生/停止」、「比較」、「印刷」、「読み込み」、「設定表示」、及び「終了」の操作をするボタンとして表示される。例えば、「保存」は、取得した画像データおよび3次元データを保存する操作を行う。「再生/停止」は、画像Im1および画像Im2をリアルタイムによる表示と、記憶したデータを再生することによる表示の切り替え操作を行う。「比較」は、複数のデータの比較する操作を行う。「印刷」は、表示している画像をプリントアウトする操作を行う。「設定表示」は設定を表示する操作を行う。「読み込み」は記憶部16に格納される各種データ(例、実画像、3次元データ)を読み込んで、表示部5に表示させる操作を行う。「終了」は、アプリケーションを終了する操作を行う。このように、表示部5が操作部15を表示する場合、ユーザは、簡単に操作することができる。なお、操作部15は、図10に示す操作部15は、一例であり、これに限定されない。例えば、本実施形態の操作部15は、図には示さないが、各画像の縮尺の変更なども行うことができる。 Further, the operation menu M1 is used as an operation unit 15 for performing various operations of the measuring device 1. The operation menu M1 is displayed as a button on the display unit 5, for example. In the example shown in FIG. 10, the operation menu M1 is displayed as a button for performing operations of "save", "play / stop", "comparison", "print", "load", "setting display", and "end". Will be done. For example, "save" performs an operation of saving the acquired image data and three-dimensional data. "Play / stop" performs an operation of switching between displaying the image Im1 and the image Im2 in real time and displaying the stored data by playing back the stored data. "Comparison" is an operation of comparing a plurality of data. "Print" is an operation to print out the displayed image. "Setting display" is an operation to display the settings. “Reading” is an operation of reading various data (eg, actual image, three-dimensional data) stored in the storage unit 16 and displaying the data on the display unit 5. "Exit" is an operation to terminate the application. In this way, when the display unit 5 displays the operation unit 15, the user can easily operate the operation unit 15. The operation unit 15 is an example, and the operation unit 15 shown in FIG. 10 is not limited thereto. For example, although not shown in the figure, the operation unit 15 of the present embodiment can change the scale of each image.

以上のように、本実施形態では、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1を表示するので、測定結果を容易に把握することができる。また、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1をリアルタイムで表示するので、測定結果を、迅速かつより容易に把握することができる。 As described above, in the present embodiment, the display unit 5 displays the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4, so that the measurement result can be easily grasped. .. Further, since the display unit 5 displays the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4 in real time, the measurement result can be grasped more quickly and more easily.

また、表示部5は、上記した実画像Im1及び3次元データを示す画像Im2を並べて表示するので、測定結果を容易に把握することができる。また、表示部5は、実画像Im1、3次元データを示す画像Im2、及び状態検出部4の検出結果D1を並べて表示するので、測定結果を、さらに容易に把握することができる。 Further, since the display unit 5 displays the above-mentioned actual image Im1 and the image Im2 showing the three-dimensional data side by side, the measurement result can be easily grasped. Further, since the display unit 5 displays the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4 side by side, the measurement result can be grasped more easily.

また、表示部5は、上記した実画像Im1及び3次元データを示す画像Im2を並べて表示するので、3次元データを取得したときの被験者Hの状態(測定状態)を実画像Im1により、より簡単に把握することができる。また、この場合、測定時において、撮像部2の撮像位置が正常であったか否かなども確認することができる。また、この場合、通常、3次元データを示す画像のみでは被験者Hを識別することは困難であるが、実画像Im1により被験者Hを識別することができる。 Further, since the display unit 5 displays the above-mentioned real image Im1 and the image Im2 showing the three-dimensional data side by side, the state (measurement state) of the subject H when the three-dimensional data is acquired can be more easily measured by the real image Im1. Can be grasped. Further, in this case, it is possible to confirm whether or not the imaging position of the imaging unit 2 is normal at the time of measurement. Further, in this case, it is usually difficult to identify the subject H only from the image showing the three-dimensional data, but the subject H can be identified by the actual image Im1.

また、表示部5は、中心線31aの左右中心線及び上下中心線を、実画像Im1に重ねて表示するので、画像あるいは3次元データが取得されたときの撮像部2による撮像位置(撮像範囲)を、簡単に確認することができる。この場合、測定時において、撮像部2の撮像位置が正常であったか否か、例えば、撮像部2が傾いたりしていないかどうか等を簡単に確認し、把握することができる。また、画像Im1に左右中心線がある場合、被験者Hの左右中心線に対する傾きを簡単に把握することができる。 Further, since the display unit 5 displays the left-right center line and the upper and lower center lines of the center line 31a on the actual image Im1, the image pickup position (imaging range) by the image pickup unit 2 when the image or three-dimensional data is acquired. ) Can be easily confirmed. In this case, at the time of measurement, it is possible to easily confirm and grasp whether or not the imaging position of the imaging unit 2 is normal, for example, whether or not the imaging unit 2 is tilted. Further, when the image Im1 has the left and right center lines, the inclination of the subject H with respect to the left and right center lines can be easily grasped.

なお、表示部5の表示態様は、図10、図11等に示す例に限定されず任意である。例えば、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1は、リアルタイムで表示しなくてもよい。また、例えば、表示部5は、実画像Im1と3次元データを示す画像Im2とを並べて表示しなくてもよいし、同一の大きさになるように表示しなくてもよい。また、表示部5は、表示部5は、中心線31aの左右中心線及び上下中心線を、実画像Im1に重ねて表示しなくてもよい。 The display mode of the display unit 5 is not limited to the examples shown in FIGS. 10, 11 and the like, and is arbitrary. For example, the display unit 5 does not have to display the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4 in real time. Further, for example, the display unit 5 may not display the actual image Im1 and the image Im2 showing the three-dimensional data side by side, or may not display them so as to have the same size. Further, the display unit 5 does not have to display the left and right center lines and the upper and lower center lines of the center line 31a on the actual image Im1.

また、測定装置1は、各種データ(例、各種検出結果(検出データ))等を外部に出力する出力部(図示せず)を備える。出力部としては、例えば、プリンター、データ出力装置(USbインターフェース、ネットワークインターフェース等のデータ出力インターフェース)等が挙げられる。 Further, the measuring device 1 includes an output unit (not shown) that outputs various data (eg, various detection results (detection data)) to the outside. Examples of the output unit include a printer, a data output device (a data output interface such as a USb interface and a network interface), and the like.

次に、本実施形態に係る測定方法を上記した測定装置1の動作に基づいて説明する。なお、以下の説明は、本実施形態に係る測定方法の一例であり、本実施形態に係る測定方法はこれに限定されない。図11及び図12は、実施形態に係る測定方法のフローチャートである。 Next, the measuring method according to the present embodiment will be described based on the operation of the measuring device 1 described above. The following description is an example of the measurement method according to the present embodiment, and the measurement method according to the present embodiment is not limited to this. 11 and 12 are flowcharts of the measurement method according to the embodiment.

本測定方法は、ステップS1において、被験者Hの背部を撮像する。例えば、上記のように、撮像部2により、被験者Hの背部を撮像する。撮像部2により取得した画像は、記憶部16に格納され、後の処理が行われる。 In this measurement method, the back of the subject H is imaged in step S1. For example, as described above, the imaging unit 2 images the back of the subject H. The image acquired by the image pickup unit 2 is stored in the storage unit 16 and is processed later.

続いて、ステップS2において、被験者Hの背部の3次元データを取得する。例えば、上記のように、3次元データ取得部3により、被験者Hの背部の3次元データを取得する。3次元データ取得部3により取得した3次元データは、記憶部16に格納され、後の処理が行われる。 Subsequently, in step S2, three-dimensional data of the back of the subject H is acquired. For example, as described above, the three-dimensional data acquisition unit 3 acquires the three-dimensional data of the back of the subject H. The three-dimensional data acquired by the three-dimensional data acquisition unit 3 is stored in the storage unit 16 and is processed later.

ステップS3において、抽出部10は、3次元計測データから被験者Hの表面形状データを抽出する。例えば、ステップS3のステップS31において、抽出部10は、3次元計測データに人体のデータが含まれるか否かを判定する。例えば、抽出部10は、3次元計測データと、予め準備した人体の3次元形状データとをパターンマッチング等を行うことにより、3次元計測データに人体のデータが含まれるか否か判定する。 In step S3, the extraction unit 10 extracts the surface shape data of the subject H from the three-dimensional measurement data. For example, in step S31 of step S3, the extraction unit 10 determines whether or not the three-dimensional measurement data includes the data of the human body. For example, the extraction unit 10 determines whether or not the three-dimensional measurement data includes the human body data by performing pattern matching or the like between the three-dimensional measurement data and the three-dimensional shape data of the human body prepared in advance.

抽出部10が、3次元計測データに人体のデータが含まれないと判定した場合(ステップS31;No)、ステップS1に戻り、被験者Hの背部を撮像する。抽出部10が、3次元計測データに人体のデータが含まれると判定した場合(ステップS31;Yes)、ステップS32において、3次元計測データからノイズを除去、あるいは低減する。例えば、抽出部10は、フィルタリングなどの処理により、3次元計測データからノイズを除去する。 When the extraction unit 10 determines that the three-dimensional measurement data does not include the human body data (step S31; No), the process returns to step S1 and the back of the subject H is imaged. When the extraction unit 10 determines that the three-dimensional measurement data includes the data of the human body (step S31; Yes), noise is removed or reduced from the three-dimensional measurement data in step S32. For example, the extraction unit 10 removes noise from the three-dimensional measurement data by processing such as filtering.

ステップS33において、抽出部10は、3次元計測データから背景データを削除する。例えば、抽出部10は、3次元データ取得部3との距離が予め設定された所定距離よりも遠い部分を背景と推定し、背景に相当するデータを除去する。 In step S33, the extraction unit 10 deletes the background data from the three-dimensional measurement data. For example, the extraction unit 10 estimates a portion where the distance from the three-dimensional data acquisition unit 3 is farther than a preset predetermined distance as the background, and removes the data corresponding to the background.

続いて、ステップS34において、抽出部10は、人体部分の外形線を抽出する。例えば、抽出部10は、人体部分のエッジを検出する。例えば、抽出部10は、3次元計測データあるいは画像データが表す物体の外形線を検出することにより、被験者Hの外形線の抽出を行う。画像のエッジを検出して、被験者Hの背部の外形線を取得する。ステップS35において、抽出部10は、人体部分のデータを抽出する。例えば、抽出部10は、3次元計測データから、表面形状データとして被験者Hの外形線の内側部分のデータを抽出する。なお、ステップS31からステップS35を行うか否かは任意である。 Subsequently, in step S34, the extraction unit 10 extracts the outline of the human body portion. For example, the extraction unit 10 detects the edge of the human body portion. For example, the extraction unit 10 extracts the outline of the subject H by detecting the outline of the object represented by the three-dimensional measurement data or the image data. The edge of the image is detected, and the outline of the back of the subject H is acquired. In step S35, the extraction unit 10 extracts the data of the human body part. For example, the extraction unit 10 extracts the data of the inner portion of the outline of the subject H as the surface shape data from the three-dimensional measurement data. It is arbitrary whether or not to perform steps S31 to S35.

ステップS4において、正中線検出部11は、抽出部10により抽出された表面形状データから被験者Hの背部の正中線を検出する。なお、ステップS4を行うか否かは任意である。 In step S4, the median line detection unit 11 detects the median line on the back of the subject H from the surface shape data extracted by the extraction unit 10. It is optional whether or not step S4 is performed.

ステップS5において、特徴部位指定部12は、抽出部10により抽出された表面形状データから被験者Hの背部における測定すべき特徴部位を指定する。なお、ステップS5を行うか否かは任意である。 In step S5, the feature site designation unit 12 designates a feature site to be measured on the back of the subject H from the surface shape data extracted by the extraction unit 10. It is optional whether or not step S5 is performed.

ステップS6において、状態検出部4は、3次元データに基づいて、指定された特徴部位の状態を検出する。図12(A)に示すステップS61において、脊柱の歪みを検出する。例えば、ステップS62において、第1の脊柱検出部4aは、特徴部位として指定される被験者の脊柱に対し、3次元データに基づいて、被験者の左右方向における脊柱の歪みを特徴部位の状態として検出する(図8参照)。ステップS62において、第2の脊柱検出部4bは、特徴部位として指定される被験者の脊柱に対し、3次元データに基づいて、被験者Hの前後方向における脊柱の歪みを特徴部位の状態として検出する(図9参照)。 In step S6, the state detection unit 4 detects the state of the designated feature portion based on the three-dimensional data. In step S61 shown in FIG. 12 (A), the strain of the spinal column is detected. For example, in step S62, the first spinal column detecting unit 4a detects the distortion of the spinal column in the left-right direction of the subject as the state of the characteristic site with respect to the spinal column of the subject designated as the characteristic site based on the three-dimensional data. (See FIG. 8). In step S62, the second spinal column detecting unit 4b detects the distortion of the spinal column in the anterior-posterior direction of the subject H as the state of the characteristic site for the spinal column of the subject designated as the characteristic site (based on the three-dimensional data). See FIG. 9).

続いて、図12(B)に示すステップS7において、自動評価部8は、状態検出部4で検出された特徴部位の状態を自動的に評価する。なお、ステップS8を行うか否かは任意である。 Subsequently, in step S7 shown in FIG. 12B, the automatic evaluation unit 8 automatically evaluates the state of the characteristic portion detected by the state detection unit 4. It is optional whether or not step S8 is performed.

続いて、ステップS8において、実画像、3次元データを示す画像を表示する。例えば、上記のように、表示部5は、実画像Im1及び3次元データを示す画像Im2を表示する。この際、上記したように、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1を表示してもよい。また、表示部5は、実画像Im1、3次元データを示す画像Im2及び状態検出部4の検出結果D1をリアルタイムで表示してもよい。また、表示部5は、上記した実画像Im1及び3次元データを示す画像Im2を並べて表示してもよい。また、表示部5は、実画像Im1、3次元データを示す画像Im2、及び状態検出部4の検出結果D1を並べて表示してもよい。表示部5は、中心線31aの左右中心線及び上下中心線を、実画像Im1に重ねて表示してもよい。 Subsequently, in step S8, an image showing a real image and three-dimensional data is displayed. For example, as described above, the display unit 5 displays the actual image Im1 and the image Im2 showing the three-dimensional data. At this time, as described above, the display unit 5 may display the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4. Further, the display unit 5 may display the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4 in real time. Further, the display unit 5 may display the above-mentioned actual image Im1 and the image Im2 showing the three-dimensional data side by side. Further, the display unit 5 may display the actual image Im1, the image Im2 showing the three-dimensional data, and the detection result D1 of the state detection unit 4 side by side. The display unit 5 may display the left and right center lines and the upper and lower center lines of the center line 31a on the actual image Im1.

以上のように、本実施形態の測定装置1及び測定方法は、測定結果を容易に把握することができる As described above, the measuring device 1 and the measuring method of the present embodiment can easily grasp the measurement result.

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. Further, the requirements described in the above-described embodiments and the like can be appropriately combined. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.

なお、計測結果の表示について、3次元計測データに基づく体表面の凹凸を強調する処理を行なって、操作者や医師が凹凸状態をより把握し易くするようにしてもよい。また、3次元計測データに基づく体表面の凹凸に適当な彩色を施す処理を行なって、操作者や医師が、凹凸状態をより把握し易くするように表示してもよい。 Regarding the display of the measurement result, a process of emphasizing the unevenness of the body surface based on the three-dimensional measurement data may be performed to make it easier for the operator or the doctor to grasp the unevenness state. Further, the unevenness of the body surface based on the three-dimensional measurement data may be appropriately colored and displayed so that the operator or the doctor can more easily grasp the unevenness state.

例えば、上述の実施形態の状態検出部4は、第1の脊柱検出部4a及び第2の脊柱検出部4bである例を説明したが、状態検出部4は、これに限定されず、任意である。例えば、本願発明者らによる国際出願PCT/JP2015/082887に記載するように、状態検出部4は、3次元データに基づいて、被験者Hの背部の正中線に対する左右の肩の傾きを検出してもよいし、被験者Hの左右の肩甲骨の歪みを検出してもよいし、被験者Hの骨盤の歪みを検出してもよいし、被験者Hの背部の所望の位置に標識がされる場合に、被験者Hにおいて前記標識が設けられる部分の位置及び高さを検出してもよい。 For example, the state detection unit 4 of the above-described embodiment has described an example in which the first spinal column detection unit 4a and the second spinal column detection unit 4b are described, but the state detection unit 4 is not limited to this, and is optional. be. For example, as described in the international application PCT / JP2015 / 082887 by the inventors of the present application, the state detection unit 4 detects the inclination of the left and right shoulders with respect to the midline of the back of the subject H based on the three-dimensional data. Alternatively, the strain of the left and right shoulder blades of the subject H may be detected, the strain of the pelvis of the subject H may be detected, and the marker is placed at a desired position on the back of the subject H. , The position and height of the portion where the sign is provided in the subject H may be detected.

1・・・測定装置
2・・・撮像部
3・・・3次元データ取得部
4・・・状態検出部
4a・・・第1の脊柱検出部(状態検出部)
4b・・・第2の脊柱検出部(状態検出部)
5・・・表示部
6・・・入力部
8・・・自動評価部
9・・・状態検出部
10・・・抽出部
11・・・正中線検出部
12・・・特徴部位指定部
13・・・自動評価部
14・・・表示制御部
15・・・操作部
16・・・記憶部
31・・・基準部
31a・・・中心線
33・・・ポジショナー
CP・・・コンピュータ装置
CU・・・制御部
PU・・・処理部
S・・・Kinectセンサ
Sa・・・RGBカメラ(撮像部)
Sb・・・赤外線レーザ発光部(3次元データ取得部)
Sc・・・測定用赤外線カメラ(3次元データ取得部)
Im1・・・実画像(画像)
Im2・・・画像(3次元データを示す画像)
M1・・・操作メニュー(操作部)
D1・・・状態検出部の検出結果
1 ... Measuring device 2 ... Imaging unit 3 ... Three-dimensional data acquisition unit 4 ... State detection unit 4a ... First spinal column detection unit (state detection unit)
4b ... Second spinal column detection unit (state detection unit)
5 ... Display unit 6 ... Input unit 8 ... Automatic evaluation unit 9 ... State detection unit 10 ... Extraction unit 11 ... Median line detection unit 12 ... Feature site designation unit 13.・ ・ Automatic evaluation unit 14 ・ ・ ・ Display control unit 15 ・ ・ ・ Operation unit 16 ・ ・ ・ Storage unit 31 ・ ・ ・ Reference unit 31a ・ ・ ・ Center line 33 ・ ・ ・ Positioner CP ・ ・ ・ Computer device CU ・ ・・ Control unit PU ・ ・ ・ Processing unit S ・ ・ ・ Kinect sensor Sa ・ ・ ・ RGB camera (imaging unit)
Sb: Infrared laser light emitting unit (3D data acquisition unit)
Sc: Infrared camera for measurement (3D data acquisition unit)
Im1 ・ ・ ・ Actual image (image)
Im2 ... Image (image showing 3D data)
M1 ・ ・ ・ Operation menu (operation unit)
D1 ... Detection result of the state detection unit

本発明は、測定装置に関する。 The present invention relates to a measuring device.

本発明の態様に係る測定装置は、測定時に被験者を支持するポジショナーを備え、ポジショナーに支持された被験者の背部を撮像して被験者の脊柱の歪みを検出する測定装置であって、ポジショナーは、鉛直方向に対して傾いて設定され、測定時に被験者が体重をあずけることにより被験者を鉛直方向に対して傾いた状態で支持する支持部を備える。 The measuring device according to the aspect of the present invention is a measuring device provided with a positioner that supports the subject at the time of measurement, and images the back of the subject supported by the positioner to detect the distortion of the spinal column of the subject. It is set to be tilted with respect to the direction, and is provided with a support portion that supports the subject in a state of being tilted with respect to the vertical direction by giving the subject weight at the time of measurement.

Claims (7)

被験者の背部を撮像する撮像部と、
被験者の背部の3次元データを取得する3次元データ取得部と、
前記背部の特徴部位の状態を前記3次元データに基づいて検出する状態検出部と、
前記撮像部による実画像、前記3次元データに基づく処理画像、及び前記状態検出部の検出結果を表示する表示部と、を備える、測定装置。
An imaging unit that captures the back of the subject and an imaging unit
A 3D data acquisition unit that acquires 3D data on the back of the subject,
A state detection unit that detects the state of the characteristic portion of the back based on the three-dimensional data, and a state detection unit.
A measuring device including a real image by the imaging unit, a processed image based on the three-dimensional data, and a display unit that displays the detection result of the state detection unit.
前記状態検出部は、前記被験者の脊柱の歪みを前記特徴部位の状態として検出する、請求項1に記載の測定装置。 The measuring device according to claim 1, wherein the state detecting unit detects the strain of the spinal column of the subject as the state of the characteristic portion. 前記表示部は、前記3次元データに基づく処理画像として等高線画像を表示する、請求項1または請求項2に記載の測定装置。 The measuring device according to claim 1 or 2, wherein the display unit displays a contour line image as a processed image based on the three-dimensional data. 前記表示部は、前記実画像と前記処理画像とを並べて同一の大きさで表示する、請求項1から請求項3のいずれか1項に記載の測定装置。 The measuring device according to any one of claims 1 to 3, wherein the display unit displays the actual image and the processed image side by side in the same size. 前記表示部は、前記撮像部が撮像した実画像に左右中心線及び上下中心線を重ねて表示する、請求項1から請求項4のいずれか1項に記載の測定装置。 The measuring device according to any one of claims 1 to 4, wherein the display unit displays the left and right center lines and the upper and lower center lines superimposed on the actual image captured by the image pickup unit. 前記表示部は、前記測定装置の各部を操作する操作部を表示する、請求項1から請求項5のいずれか1項に記載の測定装置。 The measuring device according to any one of claims 1 to 5, wherein the display unit displays an operating unit that operates each part of the measuring device. 被験者の背部を撮像することと、
被験者の背部の3次元データを取得することと、
前記背部の特徴部位の状態を前記3次元データに基づいて検出することと、
撮像部による実画像及び前記3次元データに基づく処理画像を表示部に表示することと、を含む測定方法。
Imaging the back of the subject and
Acquiring 3D data on the back of the subject and
To detect the state of the characteristic part of the back based on the three-dimensional data,
A measurement method including displaying an actual image by an imaging unit and a processed image based on the three-dimensional data on a display unit.
JP2021130905A 2016-10-24 2021-08-10 Measuring apparatus Pending JP2021180904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021130905A JP2021180904A (en) 2016-10-24 2021-08-10 Measuring apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016207923A JP2018068362A (en) 2016-10-24 2016-10-24 Measuring apparatus and measuring method
JP2021130905A JP2021180904A (en) 2016-10-24 2021-08-10 Measuring apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016207923A Division JP2018068362A (en) 2016-10-24 2016-10-24 Measuring apparatus and measuring method

Publications (1)

Publication Number Publication Date
JP2021180904A true JP2021180904A (en) 2021-11-25

Family

ID=62111744

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016207923A Pending JP2018068362A (en) 2016-10-24 2016-10-24 Measuring apparatus and measuring method
JP2021130905A Pending JP2021180904A (en) 2016-10-24 2021-08-10 Measuring apparatus

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016207923A Pending JP2018068362A (en) 2016-10-24 2016-10-24 Measuring apparatus and measuring method

Country Status (1)

Country Link
JP (2) JP2018068362A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076154B1 (en) 2020-12-17 2022-05-27 株式会社スペースビジョン Spinal sequence estimation device, method and program
CN117731244B (en) * 2024-02-19 2024-05-10 天津医科大学总医院 Scoliosis risk early warning system based on infrared thermal imaging

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS49126875U (en) * 1973-02-27 1974-10-30
JPS56150509U (en) * 1980-04-10 1981-11-11
JPS60142838A (en) * 1983-10-28 1985-07-29 吉澤 徹 Method and apparatus for diagnosis of spine disease
JPH07136148A (en) * 1993-06-17 1995-05-30 Sekisui Chem Co Ltd Body figure diagnosing system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108983A (en) * 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd Eye image pickup device, iris authentication device, and portable terminal device with iris authentication function
JP5498989B2 (en) * 2011-05-30 2014-05-21 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
WO2013081030A1 (en) * 2011-11-29 2013-06-06 学校法人 東洋大学 Scoliosis evaluation system and evaluation instrument applied to same system
JP5652883B2 (en) * 2012-07-11 2015-01-14 学校法人北里研究所 Contour image generation method used for morphological observation of subject and scoliosis screening system using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS49126875U (en) * 1973-02-27 1974-10-30
JPS56150509U (en) * 1980-04-10 1981-11-11
JPS60142838A (en) * 1983-10-28 1985-07-29 吉澤 徹 Method and apparatus for diagnosis of spine disease
JPH07136148A (en) * 1993-06-17 1995-05-30 Sekisui Chem Co Ltd Body figure diagnosing system

Also Published As

Publication number Publication date
JP2018068362A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6132354B2 (en) Evaluation system for scoliosis and evaluation instrument applied to the system
JP5849048B2 (en) Three-dimensional (3D) ultrasound imaging system for scoliosis evaluation
EP3406196A1 (en) X-ray system and method for standing subject
JP2005224452A (en) Posture diagnostic apparatus and program thereof
US20100312143A1 (en) Human body measurement system and information provision method using the same
EP2506221A2 (en) Image processing apparatus, ultrasonic photographing system, image processing method, program, and storage medium
JP2021180904A (en) Measuring apparatus
JP2021128794A (en) Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
JP6741305B2 (en) Vertebral posture estimation device
JP6345468B2 (en) Medical diagnostic imaging equipment
KR102357001B1 (en) Scoliosis Diagnosis Method and System using 3D Depth Camera
CN105899144A (en) Image processing apparatus, image diagnostic system, image processing method, and storage medium
Chiu et al. Automated body volume acquisitions from 3D structured-light scanning
JP4876808B2 (en) Brain function data controller
WO2017175761A1 (en) Scoliosis diagnostic assistance device, scoliosis diagnostic assistance method, and program
WO2017090083A1 (en) Measurement apparatus, measurement method, and program
JP6598422B2 (en) Medical information processing apparatus, system, and program
KR101124144B1 (en) Measuring system for degree of spine deformity
KR101056122B1 (en) Biometric data generation system and automatic processing method using virtual marker method
JP6155177B2 (en) Computer program, apparatus and method for causing image diagnosis support apparatus to execute image processing
EP3438601B1 (en) Measurement device, measurement method, and computer program
JP2011160824A (en) Spinal curvature determination support apparatus
JP6940139B2 (en) Physical characteristic analyzer, physical characteristic analysis method, and program
Alothmany et al. Accuracy of joint angles tracking using markerless motion system
JP6738506B1 (en) Image interpretation support device for back image, image interpretation support method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207