JP2018057532A - Prosthetic wearing unit shape acquisition method and prosthetic wearing unit shape acquisition system - Google Patents

Prosthetic wearing unit shape acquisition method and prosthetic wearing unit shape acquisition system Download PDF

Info

Publication number
JP2018057532A
JP2018057532A JP2016196299A JP2016196299A JP2018057532A JP 2018057532 A JP2018057532 A JP 2018057532A JP 2016196299 A JP2016196299 A JP 2016196299A JP 2016196299 A JP2016196299 A JP 2016196299A JP 2018057532 A JP2018057532 A JP 2018057532A
Authority
JP
Japan
Prior art keywords
imaging
captured
shape
dimensional shape
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016196299A
Other languages
Japanese (ja)
Other versions
JP6897048B2 (en
Inventor
弘樹 運天
Hiroki Unten
弘樹 運天
渡邉 隆史
Takashi Watanabe
隆史 渡邉
酒井 修二
Shuji Sakai
修二 酒井
安藤 真
Makoto Ando
真 安藤
石井 達也
Tatsuya Ishii
達也 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2016196299A priority Critical patent/JP6897048B2/en
Publication of JP2018057532A publication Critical patent/JP2018057532A/en
Application granted granted Critical
Publication of JP6897048B2 publication Critical patent/JP6897048B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Prostheses (AREA)
  • Orthopedics, Nursing, And Contraception (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a prosthetic wearing unit shape acquisition method in which a burden is not given to a patient and a three-dimensional shape model with high accuracy is acquired when generating the three-dimensional shape model as a positive mold of a region for wearing the prosthetic.SOLUTION: A prosthetic wearing unit shape acquisition method of the present invention comprises: a wearing step of covering a range of a physical wearing unit for wearing the prosthetic and wearing measurement clothing 2 adhering to the wearing unit provided with irregular patterns on the surface to reflect a shape of the wearing unit; an imaging step of imaging multiple captured images comprising the whole of the measurement clothing visually recognized from the imaging direction by a monocular imaging device 3 in each of different positions on a circular arc centering on the wearing unit along an outer circumferential surface of the measurement clothing; and a generation step of generating the three dimensional shape of the wearing unit by matching the associated pixels between the multiple captured images using the patterns.SELECTED DRAWING: Figure 1

Description

本発明は、身体上の所定の部位の機能障害を補うため、機能障害がある部位に装着する補装具を作成する際に、装着部の3次元形状を取得する補装具装着部形状取得方法及び補装具装着部形状取得システムに関する。   The present invention relates to a prosthesis mounting part shape acquisition method for acquiring a three-dimensional shape of a mounting part when creating a prosthesis to be mounted on a part having a functional disorder in order to compensate for a functional disorder of a predetermined part on the body, The present invention relates to a prosthesis mounting part shape acquisition system.

身体上の機能障害を補うために、運動機能に障害がある部位に対して装着し、その部位の機能を補う補装具が用いられている。この補装具は、身体の障害の部位あるいはけがをした部位の運動機能が十分でない場合に、その部位の運動機能の補助、運動に伴う負荷による痛みの軽減あるいは治療における部位の固定を行なう。
この補装具を作成する際、利用する人間の装着における違和感、あるいは擦れなどを低減して装着感を向上させるため、装着する人間毎に、補装具を装着する部位の形状に、作成する補装具の形状を対応させる(フィットさせる)必要がある。
このため、通常は、補装具を装着する部位の形状の型(陽性モデル)を取り、この陽性モデルに対応させて補装具を作成している(例えば、非特許文献1、非特許文献2参照)。
In order to compensate for a functional disorder on the body, a prosthetic device is used that is worn on a part having a motor function disorder and supplements the function of the part. When the motor function of the site of injury or injured site is not sufficient, this prosthesis assists the motor function of the site, relieves pain caused by the exercise, or fixes the site for treatment.
When creating this prosthetic device, in order to improve the wearing feeling by reducing the uncomfortable feeling or rubbing of the human being used, the prosthetic device to be created in the shape of the part where the prosthetic device is worn for each human being wearing It is necessary to correspond (fit) the shape of.
For this reason, usually, the shape (positive model) of the shape of the part where the prosthetic device is mounted is taken, and the prosthetic device is created corresponding to this positive model (see, for example, Non-Patent Document 1 and Non-Patent Document 2). ).

株式会社 啓愛義肢材料販売所ホームページ、[online]、プラスチック製短下肢装具の製作について、[平成28年9月12日検索]、インターネット<http://www.po.kioa.co.jp/about/pura_tankashi_sougu.html>Keiai Prosthetics Materials Sales Office website, [online], production of plastic short leg braces [searched on September 12, 2016], Internet <http://www.po.kioa.co.jp/ about / pura_tankashi_sougu.html > 株式会社 早川義肢製作所ホームページ、[online]、プラスチック製短下肢装具のできるまで、[平成28年9月12日検索]、インターネット<http://www4.plala.or.jp/hpomf/link2.html>Hayakawa Prosthesis Manufacturing Co., Ltd. website [online], until plastic short leg orthosis is made [search September 12, 2016], Internet <http://www4.plala.or.jp/hpomf/link2.html >

しかしながら、非特許文献1及び非特許文献2に記載された補装具を装着する部位の形状の取得方法において、この部位の陽性モデルを生成する前に、部位の陰性モデルを生成する必要がある。この陰性モデルは、補装具を装着する部位に対してギブスを巻き付けて、このギブスを固化させて作成する。このため、ギブスが固化するまでの間、対応する部位を動かすことができず、固化状況によっては拘束時間が長くなり、患者には肉体的及び精神的に大きな負担となる。特に、怪我をした部位においては、安静にすべきところ、ギブスを装着するための姿勢を維持するための負担が大きい。
また、陰性モデルは、ギブスが固化した後、部位から取り外す際にギブスを切断するため、実際の部位の形状と誤差を有することとなり、正確な陽性モデルを生成できない場合がある。
However, in the method for acquiring the shape of the part to which the prosthesis is attached described in Non-Patent Document 1 and Non-Patent Document 2, it is necessary to generate a negative model of the part before generating a positive model of the part. This negative model is created by winding a cast on the site where the prosthesis is to be worn and solidifying the cast. For this reason, until the cast is solidified, the corresponding part cannot be moved, and depending on the solidification situation, the restraint time becomes long, and the patient is burdened physically and mentally. In particular, in an injured part, where it should be rested, the burden for maintaining the posture for wearing a cast is large.
In addition, since the negative model is cut when the cast is removed from the site after the cast is solidified, it has an actual site shape and an error, and an accurate positive model may not be generated.

本発明は、このような状況に鑑みてなされたものであり、補装具を装着する身体における装着部の陽性モデル(以下、3次元形状モデル)を生成する際、患者に対する負担を低減し、かつ精度の高い3次元形状モデルを取得する補装具装着部形状取得方法及び補装具装着部形状取得システムを提供することを目的とする。   The present invention has been made in view of such a situation, and reduces the burden on a patient when generating a positive model (hereinafter referred to as a three-dimensional shape model) of a mounting portion in a body on which a prosthesis is mounted, and An object of the present invention is to provide a prosthesis mounting part shape acquisition method and a prosthesis mounting part shape acquisition system that acquire a highly accurate three-dimensional shape model.

上述した課題を解決するために、本発明の補装具装着部形状取得方法は、補装具を装着する身体の装着部の範囲を覆い、不規則な模様が表面に設けられた前記装着部に密着して当該装着部の形状を反映する計測用衣類を装着する装着過程と、計測用衣類の外周面に沿う、前記装着部を中心とした円弧上における異なる位置の各々で撮像された、撮像方向から視認される前記計測用衣類の全体が含まれる前記撮像画像を、単眼の撮像装置により複数枚撮像する撮像過程と、前記模様を用いて、複数の前記撮像画像間の対応する画素のマッチングを行なうことで前記装着部の3次元形状を生成する生成過程とを含むことを特徴とする。   In order to solve the above-described problem, the method for acquiring the shape of the prosthetic device mounting part according to the present invention covers the range of the mounting part of the body on which the prosthetic device is mounted, and is in close contact with the mounting part on which an irregular pattern is provided Then, an imaging process in which a measurement garment that reflects the shape of the mounting part is mounted, and an imaging direction that is imaged at each of different positions on the arc around the mounting part along the outer peripheral surface of the measurement garment A plurality of the captured images including the entire measurement clothing visually recognized from the imaging process of capturing a plurality of images with a monocular imaging device, and matching the corresponding pixels between the captured images using the pattern And a generating process for generating a three-dimensional shape of the mounting portion.

本発明の補装具装着部形状取得方法は、前記撮像過程において、前記撮像画像の各々の撮像間隔を一定として撮像することを特徴とする。   The prosthesis mounting part shape acquisition method of the present invention is characterized in that in the imaging process, imaging is performed with an imaging interval of each of the captured images being constant.

本発明の補装具装着部形状取得方法は、前記計測用衣類に対してスケール推定用のマーカを設け、当該マーカにより前記3次元形状の寸法を前記装着部の寸法に一致させるスケール過程をさらに含むことを特徴とする。   The prosthetic device mounting part shape acquisition method of the present invention further includes a scale process in which a marker for scale estimation is provided on the measurement garment, and the dimension of the three-dimensional shape is matched with the dimension of the mounting unit by the marker. It is characterized by that.

本発明の補装具装着部形状取得方法は、前記撮像過程において、前記円弧が含まれる、前記装着部を中心とした円周において、前記装着部と前記撮像装置との間に障害物が存在する場合、前記障害物が撮像画像に含まれる円弧の範囲での撮像を行なわず、前記障害物が撮像画像に含まれない円弧の範囲での撮像を行ない、前記生成過程において、一定の撮像間隔で連続して撮像された円弧毎の撮像画像からそれぞれ分割3次元形状を生成し、分割3次元形状を合成して前記3次元形状を生成することを特徴とする。   The prosthetic device mounting part shape acquisition method according to the present invention includes an obstacle between the mounting unit and the imaging device on a circumference centered on the mounting unit including the arc in the imaging process. In this case, the obstacle is not imaged in an arc range included in the captured image, the obstacle is imaged in an arc range not included in the captured image, and the generation process is performed at a constant imaging interval. A divided three-dimensional shape is generated from each of the picked-up images of each arc that are continuously picked up, and the divided three-dimensional shape is synthesized to generate the three-dimensional shape.

本発明の補装具装着部形状取得方法は、前記撮像画像の解像度を低減させ、前記3次元形状を確認するプレビュー表示を行なう過程をさらに含むことを特徴とする。   The prosthetic device mounting portion shape acquisition method of the present invention further includes a step of performing a preview display for reducing the resolution of the captured image and confirming the three-dimensional shape.

本発明の補装具装着部形状取得システムは、補装具を装着する身体の装着部の範囲を覆い、不規則な模様が表面に設けられた前記装着部に密着して当該装着部の形状を反映する計測用衣類を装着した前記装着部の外周面に沿う、当該装着部を中心とした円弧上における異なる位置の各々で撮像された、撮像方向から視認される前記計測用衣類の全体が含まれる撮像画像において、単眼の撮像装置により撮像した複数枚の撮像画像間の対応する画素のマッチングを前記模様を用いて、前記装着部の形状を示す3次元空間における点群を生成するマッチング処理部と、前記マッチング処理部がマッチングにより生成した点群をポリゴンメッシュに変換し、前記装着部の3次元形状を生成する3次元形状生成部とを備えることを特徴とする。   The prosthetic device mounting part shape acquisition system of the present invention covers the range of the mounting unit of the body on which the prosthetic device is to be mounted, and is in close contact with the mounting unit provided with an irregular pattern on the surface to reflect the shape of the mounting unit. The entire measurement garment that is imaged at each of different positions on the arc around the mounting portion along the outer peripheral surface of the mounting portion on which the measurement garment is mounted is visible from the imaging direction. A matching processing unit that generates a point group in a three-dimensional space indicating the shape of the mounting unit using the pattern for matching of corresponding pixels between a plurality of captured images captured by a monocular imaging device in a captured image; And a three-dimensional shape generation unit that converts a point cloud generated by the matching processing unit into a polygon mesh and generates a three-dimensional shape of the mounting unit.

以上説明したように、本発明によれば、補装具を装着する身体における装着部の3次元形状モデルを生成する際、患者に対する負担を低減し、かつ精度の高い3次元形状モデルを取得する補装具装着部形状取得方法及び補装具装着部形状取得システムを提供することができる。   As described above, according to the present invention, when generating a three-dimensional shape model of a wearing part in a body on which a prosthesis is to be worn, the burden on the patient is reduced and a high-accuracy three-dimensional shape model is acquired. It is possible to provide a device mounting part shape acquisition method and a device mounting part shape acquisition system.

本発明の第1の実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the auxiliary equipment mounting part shape acquisition system which is the 1st Embodiment of this invention. 補装具装着部形状取得システムにおいて、撮像装置3の撮像対象である装着部に着用する計測用衣類の一例を示している。In the accessory mounting part shape acquisition system, an example of the measurement clothing worn on the mounting part that is the imaging target of the imaging device 3 is shown. 装着部に装着された計測用衣類2の撮像画像の撮像を説明する図である。It is a figure explaining the imaging of the captured image of the clothing for measurement 2 with which the mounting part was mounted | worn. 本発明の第1の実施形態による補装具装着部形状取得システムに用いる撮像画像を撮像する動作例を示すフローチャートである。It is a flowchart which shows the operation example which images the picked-up image used for the auxiliary equipment mounting part shape acquisition system by the 1st Embodiment of this invention. 本発明の第1の実施形態による補装具装着部形状取得システムの装着部の3次元形状の生成処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the production | generation process of the three-dimensional shape of the mounting part of the accessory mounting part shape acquisition system by the 1st Embodiment of this invention. 本発明の第2の実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the auxiliary equipment mounting part shape acquisition system which is the 2nd Embodiment of this invention. 第2の実施形態におけるプレビュー用3次元形状を用いた撮像画像の確認処理の動作例を示すフローチャートである。14 is a flowchart illustrating an operation example of a captured image confirmation process using a preview three-dimensional shape according to the second embodiment. 本発明の第3の実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the auxiliary equipment mounting part shape acquisition system which is the 3rd Embodiment of this invention. 補装具装着部形状取得システムにおいて、撮像装置3の撮像対象である装着部に装着する計測用衣類の一例を示している。3 shows an example of a measurement garment to be attached to a mounting part that is an imaging target of the imaging device 3 in the accessory mounting part shape acquisition system. 障害物がある場合における装着部に装着された計測用衣類2の撮像画像の撮像を説明する図である。It is a figure explaining imaging of the picked-up image of the measurement clothing 2 with which the mounting part in case there exists an obstruction. 本発明の第3の実施形態による補装具装着部形状取得システムに用いる撮像画像を撮像する動作例を示すフローチャートである。It is a flowchart which shows the operation example which images the picked-up image used for the auxiliary equipment mounting part shape acquisition system by the 3rd Embodiment of this invention. 障害物800の存在により、円弧451上及び円弧452上の各々で分割して計測用衣類2を撮像する際におけるスケール設定用マーカ2A及び位置合わせ用マーカ2Bの取り付けを説明する図である。It is a figure explaining attachment of the scale setting marker 2A and the positioning marker 2B when the clothing for measurement 2 is imaged separately on each of the arc 451 and the arc 452 due to the presence of the obstacle 800. 本発明の第3の実施形態による補装具装着部形状取得システムの装着部の3次元形状の生成処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the production | generation process of the three-dimensional shape of the mounting part of the accessory mounting part shape acquisition system by the 3rd Embodiment of this invention. 第1分割点群及び第2分割点群の各々の合成に用いる位置合わせ用マーカについて説明する図である。It is a figure explaining the marker for alignment used for each synthesis | combination of a 1st division | segmentation point group and a 2nd division | segmentation point group. 本発明の第4の実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the auxiliary equipment mounting part shape acquisition system which is the 4th Embodiment of this invention. 第4の実施形態におけるプレビュー用3次元形状を用いた撮像画像の確認処理の動作例を示すフローチャートである。16 is a flowchart illustrating an operation example of a captured image confirmation process using a preview three-dimensional shape according to the fourth embodiment. 計測用衣類2に付加するASISの位置を示す位置検出用マーカ2Cの説明である。It is description of the position detection marker 2C which shows the position of ASIS added to the clothing 2 for measurement.

<第1の実施形態>
以下、本発明の第1の実施形態による補装具装着部形状取得システムの実施形態について図面を用いて説明する。図1は、本発明の一実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。図1において、補装具装着部形状取得システム1は、補装具装着部形状取得装置10と、計測用衣類2とを含んでいる。
補装具装着部形状取得装置10は、制御部11、カメラパラメータ推定部12、マッチング処理部13、スケール設定部14、3次元形状生成部15及び記憶部16の各々を備えている。
<First Embodiment>
Hereinafter, an embodiment of a prosthesis mounting part shape acquisition system according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of a prosthetic device mounting part shape acquisition system according to an embodiment of the present invention. In FIG. 1, a prosthetic device mounting part shape acquisition system 1 includes a prosthetic device mounting part shape acquisition device 10 and a measurement garment 2.
The accessory mounting part shape acquisition device 10 includes a control unit 11, a camera parameter estimation unit 12, a matching processing unit 13, a scale setting unit 14, a three-dimensional shape generation unit 15, and a storage unit 16.

計測用衣類2は、補装具を装着する患者の身体における補装具装着部(以下、装着部とする)に着用する衣類である。この計測用衣類2については後述する。スケール設定用マーカ2Aは、計測用衣類2に付加されており、3次元形状の寸法のスケールを実際の寸法のスケールに合わせるために用いる。
制御部11は、撮像装置3から、この撮像装置3が撮像した撮像画像のデータを入力し、記憶部16に対して書き込んで記憶させる。撮像装置3は、スマートフォンなどを含むカメラ機能を有する携帯端末、あるいは単眼のデジタルカメラなどである。
The measurement garment 2 is a garment worn on a prosthetic device mounting part (hereinafter referred to as a mounting unit) in the body of a patient who wears the prosthetic device. The measurement clothing 2 will be described later. The scale setting marker 2A is added to the measurement garment 2 and is used to adjust the scale of the dimension of the three-dimensional shape to the scale of the actual dimension.
The control unit 11 inputs data of a captured image captured by the imaging device 3 from the imaging device 3, and writes and stores the data in the storage unit 16. The imaging device 3 is a portable terminal having a camera function including a smartphone or the like, or a monocular digital camera.

また、制御部11が撮像装置3から撮像画像を読み込むのではなく、撮像装置3が有線あるいは無線により制御部11に接続され、撮像画像を撮像する毎に制御部11に対して時系列に送信するアプリケーションがインストールされた構成としても良い。デジタルカメラの場合には、一旦撮像画像をパーソナルコンピュータなどの端末装置に読み込んで、制御部11に対して時系列に送信する構成としても良い。この場合、デジタルカメラと端末装置との組合わせが本実施形態における撮像装置3の構成となる。また、端末装置には、予め、制御部11に対して時系列に送信するアプリケーションがインストールされている。   In addition, the control unit 11 does not read a captured image from the imaging device 3, but the imaging device 3 is connected to the control unit 11 by wire or wirelessly, and is transmitted to the control unit 11 in time series every time a captured image is captured. It is also possible to adopt a configuration in which an application to be installed is installed. In the case of a digital camera, the captured image may be once read into a terminal device such as a personal computer and transmitted to the control unit 11 in time series. In this case, the combination of the digital camera and the terminal device is the configuration of the imaging device 3 in the present embodiment. In addition, an application that transmits to the control unit 11 in time series is installed in the terminal device in advance.

図2は、補装具装着部形状取得システムにおいて、撮像装置3の撮像対象である装着部に着用する計測用衣類の一例を示している。図2においては、計測用衣類の一例として、腰部を装着部250とする補装具としてのコルセットを作成する際の計測用衣類2を示している。計測用衣類2は、細かい(本実施形態においては、3次元空間における3次元形状を示す点群を生成する撮像画像間のマッチング処理を可能とする大きさの)不規則な(計測用衣類2の表面全体において同一な形状の繰り返しがない)模様101と、取得する3次元形状に影響を与えない程度の高低を有する凹凸102とが設けられている。この模様101と凹凸102とにより、3次元空間における3次元形状を示す点群を生成する際、各点の3次元空間における座標値を求めるための、複数の撮像画像間における画素(ピクセル)のマッチング処理が行なわれる。計測用衣類2の細かい模様101とは、撮像画像間におけるマッチングを行なった際に、マッチングをより行ない易くする目的で用いられ、撮像画像における凹凸102とともに特徴点を形成するために用いられる。   FIG. 2 shows an example of a measurement garment worn on a mounting part that is an imaging target of the imaging device 3 in the accessory mounting part shape acquisition system. In FIG. 2, as an example of the measurement garment, the measurement garment 2 is shown when creating a corset as a prosthesis with the lumbar region as the attachment portion 250. The measurement garment 2 is irregular (in the present embodiment, the measurement garment 2 has a size that enables matching processing between captured images for generating a point cloud indicating a three-dimensional shape in a three-dimensional space). The pattern 101 is not repeated on the entire surface), and the projections and depressions 102 are high and low enough to not affect the three-dimensional shape to be acquired. When a point group indicating a three-dimensional shape in the three-dimensional space is generated by the pattern 101 and the projections and depressions 102, pixels (pixels) between a plurality of captured images for obtaining a coordinate value in the three-dimensional space of each point. A matching process is performed. The fine pattern 101 of the measurement clothing 2 is used for the purpose of facilitating matching when matching between captured images, and is used for forming feature points together with the unevenness 102 in the captured image.

図2に示すように、計測用衣類2は患者200の装着部250の形状が明確に撮像できるように、できるだけ薄い材質で形成され、装着部250に密着して、この装着部の形状が反映される構成となっている。
また、スケール設定用マーカ2Aは、計測用衣類2に付加される点群から容易に抽出できるように、計測用衣類2の模様に用いている色に対して補色となる色を用いて、視認し易く作成されている。ここで、スケール設定用マーカ2Aにおける特徴点となるマーカのピッチの寸法が数cm、例えば5cmとして設定されており(既知の値として示されており)、この間に3次元空間における点群間の距離のスケールを、実際の寸法のスケールに合わせるために用いられる。
As shown in FIG. 2, the measurement garment 2 is made of a material that is as thin as possible so that the shape of the mounting portion 250 of the patient 200 can be clearly imaged, and is closely attached to the mounting portion 250 to reflect the shape of the mounting portion. It becomes the composition which is done.
In addition, the scale setting marker 2A is visually recognized using a color complementary to the color used for the pattern of the measurement clothing 2 so that it can be easily extracted from the point cloud added to the measurement clothing 2. Easy to create. Here, the dimension of the pitch of the marker serving as the feature point in the scale setting marker 2A is set to several centimeters, for example, 5 cm (shown as a known value), and during this time, between the point groups in the three-dimensional space. Used to scale the distance scale to the actual dimensional scale.

図3は、装着部に装着された計測用衣類2の撮像画像の撮像を説明する図である。図3は、図2の線分A−Aの線視断面を示している。患者200の装着部250の断面に対して垂直であり、かつ断面の中心を通る軸線500を中心軸とした円400上を、撮像装置3を移動させつつ、計測用衣類の外周面に沿うように撮像画像の撮像を行なう。また、撮像する円400上の各撮像位置の撮像方向から視認できる計測用衣類2の全体が撮像画像に含まれるように撮像を行なう。この撮像は、単眼の撮像装置3を1台用いて行なう。   FIG. 3 is a diagram illustrating the imaging of the captured image of the measurement clothing 2 attached to the attachment unit. FIG. 3 shows a cross-sectional view taken along line AA in FIG. While moving the imaging device 3 on a circle 400 that is perpendicular to the cross section of the wearing part 250 of the patient 200 and that has an axis 500 passing through the center of the cross section as a central axis, along the outer peripheral surface of the clothing for measurement. The captured image is captured. In addition, imaging is performed so that the entire measurement clothing 2 that can be visually recognized from the imaging direction of each imaging position on the imaging circle 400 is included in the captured image. This imaging is performed using a single monocular imaging device 3.

このとき、撮像装置3による撮像は、円400上において、できる限り一定の間隔(一定距離離れた撮像間隔)で行なう。例えば、移動を一定の速度で撮像装置3を円400上で移動させ、連射あるいは動画により撮像を行ない、撮像枚数あるいは撮影時間が一定になるようにすることで、各撮像画像を一定の間隔で撮像する。ここで、動画の場合、各撮像画像にモーションブラーが発生しない移動の速度を実験で求めておくことが必要である。   At this time, imaging by the imaging device 3 is performed on the circle 400 at as constant intervals as possible (imaging intervals separated by a certain distance). For example, by moving the imaging device 3 on the circle 400 at a constant speed and performing continuous shooting or moving image capturing so that the number of images to be captured or the capturing time is constant, each captured image is captured at regular intervals. Take an image. Here, in the case of a moving image, it is necessary to experimentally determine the moving speed at which motion blur does not occur in each captured image.

図1に戻り、制御部11は、撮像装置3から、撮像装置3が撮像した撮像画像の各々を読み込み、記憶部16に書き込んで記憶させる。
カメラパラメータ推定部12は、記憶部16に記憶されている撮像画像の各々を読み出し、SFM(Structure from Motion)の手法を用いて、撮像装置3のカメラパラメータ(外部パラメータと内部パラメータとを含む)と、それぞれの撮像画像が撮像された撮像装置3の移動前後の位置及び撮像方向とを推定する。カメラパラメータ推定部12は、例えば、撮像画像間の対応する模様及び凹凸における特徴点を抽出し、それぞれの特徴量により特徴点の対応付けを行なうことにより、3次元空間における移動前後の相対的な位置及び撮像方向とを推定する。
Returning to FIG. 1, the control unit 11 reads each captured image captured by the imaging device 3 from the imaging device 3, writes it in the storage unit 16, and stores it.
The camera parameter estimation unit 12 reads each captured image stored in the storage unit 16 and uses the SFM (Structure from Motion) technique to perform camera parameters (including external parameters and internal parameters) of the imaging device 3. And the position before and behind the movement of the imaging device 3 in which each captured image was imaged, and an imaging direction are estimated. The camera parameter estimation unit 12 extracts, for example, feature points in the corresponding patterns and unevenness between the captured images, and associates the feature points with the respective feature amounts, thereby performing relative movement before and after movement in the three-dimensional space. The position and imaging direction are estimated.

マッチング処理部13は、撮像画像の各々が撮像された位置及び撮像方向とに基づき、撮像画像間の画素のテンプレートマッチングを行ない、計測用衣類2の3次元形状、すなわち装着部の3次元形状を示す3次元空間における点群を生成する。上記マッチングは、SAD(sum of absolute difference)、SSD(sum of squared difference)、NCC(normalized cross-correlation)あるいはZNCC(zero-means normalized cross-correlation)を用いて行う。   The matching processing unit 13 performs template matching of pixels between the captured images based on the position and the imaging direction in which each captured image is captured, and determines the three-dimensional shape of the clothing 2 for measurement, that is, the three-dimensional shape of the mounting portion. A point cloud in the three-dimensional space shown is generated. The matching is performed using SAD (sum of absolute difference), SSD (sum of squared difference), NCC (normalized cross-correlation), or ZNCC (zero-means normalized cross-correlation).

スケール設定部14は、3次元空間における点群からスケール設定用マーカ2Aに対応する点群を抽出し、スケール設定用マーカ2Aの示す既知の寸法に合わせて、3次元形状を示す点群の各々の点の座標値のスケールを実際の寸法のスケールに対応させる。
3次元形状生成部15は、スケール設定部14が実際の寸法のスケールに合わせた点群をポリゴンメッシュ化することにより、装着部の3次元形状を生成する。3次元形状生成部15は、生成した装着部の3次元形状(陽性モデル)を記憶部16に書き込んで記憶させる。
The scale setting unit 14 extracts a point group corresponding to the scale setting marker 2A from the point group in the three-dimensional space, and each of the point groups indicating the three-dimensional shape according to the known dimension indicated by the scale setting marker 2A. The scale of the coordinate value of the point is made to correspond to the scale of the actual dimension.
The three-dimensional shape generation unit 15 generates a three-dimensional shape of the mounting unit by converting the point group according to the scale of the actual size by the scale setting unit 14 into a polygon mesh. The three-dimensional shape generation unit 15 writes and stores the generated three-dimensional shape (positive model) of the mounting unit in the storage unit 16.

また、制御部11は、撮像装置3から読み込む撮像画像を間引きし、撮像画像の枚数が多い場合、3次元形状の生成の負荷(特にマッチング処理部13の負荷)を低減するため、例えば一枚おきに入力して記憶部16に書き込んで記憶させる構成としても良い。例えば制御部11は、40枚の撮像画像が時系列に入力される場合、一枚ごとに一枚を間引き、40枚を20枚として、記憶部16に対して書き込んで記憶させる。
また、制御部11は、3次元形状の生成の負荷(特にマッチング処理部13の負荷)を低減するため、記憶部16に記憶されている撮像画像の各々の解像度を低減する構成としても良い。ここで、解像度の低減は、例えば4画素の画素値を平均化して、新たに1画素とする処理を行なうことにより実現する。
In addition, the control unit 11 thins out the captured images read from the imaging device 3 and reduces the load for generating a three-dimensional shape (particularly, the load on the matching processing unit 13) when the number of captured images is large. A configuration may be adopted in which the data is input every other time and is written and stored in the storage unit 16. For example, when 40 captured images are input in chronological order, the control unit 11 thins out one image at a time and writes 40 images to the storage unit 16 as 20 images.
Further, the control unit 11 may be configured to reduce the resolution of each captured image stored in the storage unit 16 in order to reduce the load for generating a three-dimensional shape (particularly the load on the matching processing unit 13). Here, the reduction in resolution is realized by, for example, averaging the pixel values of four pixels and newly performing one pixel.

図4は、本発明の第1の実施形態による補装具装着部形状取得システムに用いる撮像画像を撮像する動作例を示すフローチャートである。
ステップS101:
計測者は、患者に対して、補装具を装着させる装着部に対して、補装具が装着される領域全てが覆われて、覆われた装着部に密着するように、計測用衣類2にしわが寄らない状態で着用させる。
FIG. 4 is a flowchart illustrating an operation example of capturing a captured image used in the prosthetic device mounting part shape acquisition system according to the first embodiment of the present invention.
Step S101:
The measurer wrinkles the measurement garment 2 so that the entire area where the prosthetic device is mounted is covered with the mounting unit on which the prosthetic device is mounted, and the patient is in close contact with the covered mounting unit. Let them wear without stopping.

ステップS102:
計測者は、装着部に着用させた計測用衣類2に対して、全体が露出される状態でスケール設定用マーカ2Aを付加する。
Step S102:
The measurer adds the scale setting marker 2 </ b> A to the measurement garment 2 worn on the wearing part in a state where the whole is exposed.

ステップS103:
計測者は、図3に示すように、円400上を所定の速度で移動させつつ、連射を行なうことにより、撮像装置3により患者の装着部に着用させた計測用衣類2の撮像画像を、異なる撮像位置及び撮像方向から撮像する。例えば、計測者はカメラを円400上を移動させて、所定の一定の間隔において40枚の撮像画像を撮像する。
Step S103:
As shown in FIG. 3, the measurer performs continuous shooting while moving on the circle 400 at a predetermined speed, so that a captured image of the clothing 2 for measurement worn on the patient's wearing part by the imaging device 3 is obtained. Images are taken from different imaging positions and imaging directions. For example, the measurer moves the camera on the circle 400 and captures 40 captured images at predetermined intervals.

図5は、本発明の第1の実施形態による補装具装着部形状取得システムの装着部の3次元形状の生成処理の動作例を示すフローチャートである。
ステップS201:
制御部11は、撮像装置3から、撮像装置3が計測用衣類2を時系列に撮像した撮像画像を順次読み込み、記憶部16に対して書き込んで記憶させる。このとき、制御部11に対して、撮像装置3から供給される撮像画像を間引きして、撮像画像の枚数を低減させて記憶部16に対して時系列に書き込んで記憶させても良い。
FIG. 5 is a flowchart showing an operation example of a three-dimensional shape generation process of the mounting portion of the prosthetic device mounting portion shape acquisition system according to the first embodiment of the present invention.
Step S201:
The control unit 11 sequentially reads captured images obtained by capturing the clothing for measurement 2 in time series from the imaging device 3, and writes and stores the captured images in the storage unit 16. At this time, the control unit 11 may thin out the captured images supplied from the imaging device 3 to reduce the number of captured images and write and store them in the storage unit 16 in time series.

ステップS202:
カメラパラメータ推定部12は、記憶部16に記憶されている撮像画像を時系列の順番に読出し、SFMの手法を用いて、撮像装置3のカメラパラメータと、それぞれの撮像画像が撮像された際の撮像装置3の移動前後の撮像位置及び撮像方向とを推定する。
そして、カメラパラメータ推定部12は、カメラパラメータ推定部12が推定した撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを記憶部16に対して書き込んで記憶させる。
Step S202:
The camera parameter estimation unit 12 reads the captured images stored in the storage unit 16 in chronological order, and uses the SFM technique to capture the camera parameters of the imaging device 3 and the respective captured images. The imaging position and imaging direction before and after the movement of the imaging device 3 are estimated.
Then, the camera parameter estimation unit 12 writes and stores the camera parameters of the imaging device 3 estimated by the camera parameter estimation unit 12 and the imaging position and imaging direction in which each captured image is captured in the storage unit 16.

ステップS203:
マッチング処理部13は、時系列に撮像された撮像画像と、撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを、記憶部16から順次読み出す。
マッチング処理部13は、撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを用いた撮像画像間のテンプレートマッチングにより、3次元空間における装着部全体の3次元形状を示す点群を生成する。
そして、マッチング処理部13は、生成した点群を記憶部16に対して書き込んで記憶させる。
Step S203:
The matching processing unit 13 sequentially reads out the captured images captured in time series, the camera parameters of the imaging apparatus 3, the imaging position and the imaging direction in which each captured image is captured, from the storage unit 16.
The matching processing unit 13 indicates the three-dimensional shape of the entire mounting unit in the three-dimensional space by template matching between captured images using the camera parameters of the imaging device 3 and the imaging position and imaging direction in which each captured image is captured. Generate a point cloud.
Then, the matching processing unit 13 writes and stores the generated point group in the storage unit 16.

ステップS204:
スケール設定部14は、記憶部16からマッチング処理部13が生成した点群を読み出し、この点群からスケール設定用マーカ2Aに対応する点群を抽出し、マーク間の既知の寸法に対応して、3次元空間における3次元形状を示す点群の各点間の距離を実際の寸法のスケールに合わせる。
そして、スケール設定部14は、スケールを設定した点群を記憶部16に対して書き込んで記憶させる。
Step S204:
The scale setting unit 14 reads the point group generated by the matching processing unit 13 from the storage unit 16, extracts a point group corresponding to the scale setting marker 2A from the point group, and corresponds to a known dimension between the marks. The distance between the points of the point group indicating the three-dimensional shape in the three-dimensional space is adjusted to the actual scale.
Then, the scale setting unit 14 writes and stores the point group in which the scale is set in the storage unit 16.

ステップS205:
3次元形状生成部15は、記憶部16からスケールが設定された点群を読み出し、点群の各点を用いてポリゴンメッシュ化する。
そして、3次元形状生成部15は、点群からポリゴンメッシュを生成することにより、スムーズな装着部の3次元形状を生成する。この生成された3次元形状が、補装具を作成する際に用いられる陽性モデルとして用いられる。
この後、例えば、3次元プリンタなどに対し、この3次元形状のデータを供給することにより、補装具を作成することになる。
Step S205:
The three-dimensional shape generation unit 15 reads the point group with the scale set from the storage unit 16 and forms a polygon mesh using each point of the point group.
Then, the three-dimensional shape generation unit 15 generates a smooth three-dimensional shape of the mounting portion by generating a polygon mesh from the point cloud. The generated three-dimensional shape is used as a positive model used when creating a prosthesis.
Thereafter, for example, by supplying this three-dimensional shape data to a three-dimensional printer or the like, a prosthesis is created.

上述したように、本実施形態によれば、補装具を装着する装着部に対して計測用衣類を着用させて撮像画像を撮像して、撮像された撮像画像から装着部の陽性モデルを取得するため、従来のように、患者の補装具の装着部の陽性モデルを取得する際、装着部にギブスを取り付けて、固化するまでの長い時間にわたって患者を拘束する必要がなく、患者に与える肉体的および精神的な負担(負荷)を大きく低減させることができる。
また、本実施形態によれば、装着部における計測用衣類の撮像画像から陽性モデルを生成するため、従来のように、陽性モデルを生成するためのギブス(陰性モデル)が固化した後、部位から取り外す際にギブスを切断することによる実際の部位の形状と誤差の発生を抑制することが可能となり、装着部の正確な陽性モデルを生成できる。
As described above, according to the present embodiment, a wearable part for wearing a prosthetic device is worn with a measurement garment to capture a captured image, and a positive model of the mounting unit is acquired from the captured captured image. Therefore, when acquiring a positive model of the attachment part of the patient's prosthesis as in the past, it is not necessary to attach the cast to the attachment part and restrain the patient for a long time until it solidifies, so that the physical to give to the patient In addition, the mental burden (load) can be greatly reduced.
In addition, according to the present embodiment, since a positive model is generated from the captured image of the clothing for measurement in the wearing part, the Gibbs (negative model) for generating the positive model is solidified, as in the past, from the site. It is possible to suppress the actual shape of the part and the occurrence of errors due to cutting the cast when removing, and an accurate positive model of the mounting portion can be generated.

また、本実施形態においては、制御部11が撮像装置3から供給される撮像画像の間引きを行なっていたが、撮像装置3にインストールしているアプリケーションが、補装具装着部形状取得装置10に対して出力する画像の間引き処理を行なう構成としても良い。これにより、本実施形態における撮像画像を、撮像装置3から制御部11へ転送する転送速度を向上させ、転送にかかる時間を低減することができる。
さらに、本実施形態においては、制御部11が撮像装置3から供給される撮像画像の各々の画素の平均化を行ない解像度の低減を行なっていたが、撮像装置3にインストールしているアプリケーションが解像度の低減を行なう解像度低減処理部として機能する構成としてもよい。この構成の場合、制御部11から撮像画像を送信する制御信号が供給された場合、上記解像度低減処理部が撮像画像の画素の平均化を行ない解像度を低減させ、制御部11に対して供給する。
In the present embodiment, the control unit 11 thins out the captured image supplied from the imaging device 3, but the application installed in the imaging device 3 applies to the accessory mounting unit shape acquisition device 10. The image may be thinned out for output. Thereby, the transfer speed which transfers the captured image in this embodiment to the control part 11 from the imaging device 3 can be improved, and the time concerning transfer can be reduced.
Furthermore, in the present embodiment, the control unit 11 averages each pixel of the captured image supplied from the imaging device 3 to reduce the resolution, but the application installed in the imaging device 3 has a resolution. It may be configured to function as a resolution reduction processing unit for reducing the above. In the case of this configuration, when a control signal for transmitting a captured image is supplied from the control unit 11, the resolution reduction processing unit averages the pixels of the captured image to reduce the resolution and supplies it to the control unit 11. .

<第2の実施形態>
以下、本発明の第2の実施形態による補装具装着部形状取得システムの実施形態について図面を用いて説明する。図6は、本発明の一実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。図6において、補装具装着部形状取得システム1Aは、補装具装着部形状取得装置10Aと、計測用衣類2とを含んでいる。
補装具装着部形状取得装置10Aは、制御部11、カメラパラメータ推定部12、マッチング処理部13、スケール設定部14、3次元形状生成部15、記憶部16及びプレビュー確認処理部17の各々を備えている。図6においては、第1の実施形態と同様の構成に対しては同一の符号を付してある。以下、第1の実施形態と異なる構成及び動作について説明する。
<Second Embodiment>
Hereinafter, an embodiment of a prosthesis mounting portion shape acquisition system according to a second embodiment of the present invention will be described with reference to the drawings. FIG. 6 is a block diagram illustrating a configuration example of a prosthetic device mounting part shape acquisition system according to an embodiment of the present invention. In FIG. 6, a prosthetic device mounting part shape acquisition system 1 </ b> A includes a prosthetic device mounting part shape acquisition device 10 </ b> A and a measurement garment 2.
The accessory mounting part shape acquisition device 10A includes a control unit 11, a camera parameter estimation unit 12, a matching processing unit 13, a scale setting unit 14, a three-dimensional shape generation unit 15, a storage unit 16, and a preview confirmation processing unit 17. ing. In FIG. 6, the same code | symbol is attached | subjected with respect to the structure similar to 1st Embodiment. Hereinafter, configurations and operations different from those of the first embodiment will be described.

補装具装着部形状取得装置10Aは、第1の実施形態の補装具装着部形状取得装置10に対してプレビュー確認処理部17が付加されている。
プレビュー確認処理部17は、陽性モデルとしての3次元形状を作成するための撮像画像が得られているか否かの確認処理を行なう。特に、スケールの設定ができないと陽性モデルが完成されないため、スケール設定用マーカ2Aに対応する画像が撮像画像に含まれているか否かを確認する。
図7は、第2の実施形態におけるプレビュー用3次元形状を用いた撮像画像の確認処理の動作例を示すフローチャートである。
In the prosthetic device mounting part shape acquisition device 10A, a preview confirmation processing unit 17 is added to the prosthetic device mounting part shape acquisition device 10 of the first embodiment.
The preview confirmation processing unit 17 performs confirmation processing as to whether or not a captured image for creating a three-dimensional shape as a positive model is obtained. In particular, if the scale cannot be set, the positive model is not completed. Therefore, it is confirmed whether or not an image corresponding to the scale setting marker 2A is included in the captured image.
FIG. 7 is a flowchart illustrating an operation example of the captured image confirmation process using the preview three-dimensional shape according to the second embodiment.

ステップS301:
プレビュー確認処理部17は、制御部11に対して記憶部16に記憶されている撮像画像の解像度の低減を指示する。これにより、制御部11は、記憶部16から撮像画像を読み出し、例えば、4×4の16個の画素の平均値を取得して、各撮像画像の解像度を1/16に低減して低解像度画像を生成する。
そして、制御部11は、プレビュー用3次元形状の作成に用いるため、生成した低解像度画像を、この低解像度画像を生成した撮像画像を読み出す際の時系列の順番に対応させて記憶部16に対して書き込んで記憶させる。
Step S301:
The preview confirmation processing unit 17 instructs the control unit 11 to reduce the resolution of the captured image stored in the storage unit 16. As a result, the control unit 11 reads the captured image from the storage unit 16, acquires an average value of 16 pixels of 4 × 4, for example, reduces the resolution of each captured image to 1/16, and reduces the resolution Generate an image.
The control unit 11 uses the generated low-resolution image in the storage unit 16 in correspondence with the time-series order when the captured image that generated the low-resolution image is read out, in order to use the three-dimensional shape for preview. Write and memorize it.

ステップS302:
プレビュー確認処理部17は、カメラパラメータ推定部12に対して、低解像度画像を用いて、撮像装置3のカメラパラメータと、低解像度画像の各々の撮像位置及び撮像方向との推定を指示する。
カメラパラメータ推定部12は、記憶部16から低解像度画像を時系列の順番に読み出し、第1の実施形態の場合と同様に、撮像装置3のカメラパラメータと、低解像度画像の各々の撮像位置及び撮像方向をSFMの手法により推定する。
Step S302:
The preview confirmation processing unit 17 instructs the camera parameter estimation unit 12 to estimate the camera parameters of the imaging apparatus 3 and the imaging position and imaging direction of each low resolution image using the low resolution image.
The camera parameter estimation unit 12 reads out the low resolution images from the storage unit 16 in time series order, and in the same manner as in the first embodiment, the camera parameters of the imaging device 3, the imaging positions of the low resolution images, and The imaging direction is estimated by the SFM method.

ステップS303:
プレビュー確認処理部17は、マッチング処理部13に対して、制御部11が生成した低解像度画像を用いた、プレビュー用3次元形状を示す点群の生成を指示する。
マッチング処理部13は、低解像度画像間における各画素のテンプレートマッチングにより、装着部のプレビュー用3次元形状を示す点群を生成する。
Step S303:
The preview confirmation processing unit 17 instructs the matching processing unit 13 to generate a point group indicating a preview three-dimensional shape using the low resolution image generated by the control unit 11.
The matching processing unit 13 generates a point cloud indicating the preview three-dimensional shape of the mounting unit by template matching of each pixel between low resolution images.

ステップS304:
プレビュー確認処理部17は、3次元形状生成部15に対して、マッチング処理部13が低解像度画像の各々から生成した点群をレンダリングすることで、プレビュー用3次元形状の画像の生成を指示する。
Step S304:
The preview confirmation processing unit 17 instructs the three-dimensional shape generation unit 15 to generate a preview three-dimensional shape image by rendering the point group generated from each of the low-resolution images by the matching processing unit 13. .

ステップS305:
そして、プレビュー確認処理部17は、撮像装置3の表示画面に対し、3次元形状生成部15が生成したプレビュー用3次元形状の画像を表示する。
計測者は、撮像装置3の表示画面において、3次元空間におけるプレビュー用3次元形状の観察位置を変えつつ、プレビュー用3次元形状の画像を観察する。
そして、計測者は、プレビュー3次元形状が、装着部に着用させた計測用衣類2の全体が含まれた十分な形状か否か、すなわち、撮像画像の各々が装着部の3次元形状(陽性モデル)を生成するために十分な撮像範囲を撮像した画像か否かの判定を行なう。
このとき、計測者は、プレビュー3次元形状が計測用衣類2の全体を含む十分な形状である場合、処理をステップS306へ進める。一方、計測者は、プレビュー3次元形状が計測用衣類2の全体を含む十分な形状でない場合、処理をステップS307へ進める。
Step S305:
Then, the preview confirmation processing unit 17 displays the preview three-dimensional shape image generated by the three-dimensional shape generation unit 15 on the display screen of the imaging device 3.
The measurer observes the image of the preview three-dimensional shape on the display screen of the imaging device 3 while changing the observation position of the preview three-dimensional shape in the three-dimensional space.
Then, the measurer determines whether or not the preview three-dimensional shape is a sufficient shape including the entire measurement garment 2 worn on the mounting portion, that is, each of the captured images is a three-dimensional shape (positive) of the mounting portion. It is determined whether or not the image is an image of a sufficient imaging range for generating a model.
At this time, if the preview three-dimensional shape is a sufficient shape including the entire measurement garment 2, the process advances to step S306. On the other hand, the measurer advances the process to step S307 when the preview three-dimensional shape is not a sufficient shape including the entire measurement clothing 2.

ステップS306:
計測者は、第1の実施形態における図5に示すフローチャートにおける装着部の3次元形状の生成の処理を、補装具装着部形状取得システム1Aに対して実行させる。この3次元形状を生成する説明はすでに第1の実施形態で行なっているため、再度の説明を省略する。
Step S306:
The measurer causes the prosthetic equipment mounting part shape acquisition system 1A to execute the process of generating the three-dimensional shape of the mounting part in the flowchart shown in FIG. 5 in the first embodiment. Since the description for generating the three-dimensional shape has already been performed in the first embodiment, the description thereof will be omitted.

ステップS307:
計測者は、第1の実施形態における図4に示すフローチャートにおける補装具の装着部の撮像画像を撮像する処理を再度行なう。この装着部の撮像画像を撮像する処理の説明はすでに第1の実施形態におけるステップS103などにおいて行なっているため、再度の説明を省略する。
Step S307:
The measurer performs again the process of capturing the captured image of the wearing part of the auxiliary device in the flowchart shown in FIG. 4 in the first embodiment. Since the processing for capturing the captured image of the mounting portion has already been described in step S103 in the first embodiment, the description thereof will be omitted.

上述した構成により、本実施形態によれば、解像度を低減させた低解像度画像から生成したプレビュー3次元形状により、撮像画像の各々が装着部の3次元形状(陽性モデル)を生成するために十分な撮像範囲を撮像した画像か否かを判定する。このため、処理が重い陽性モデルを生成してから、陽性モデルが装着部全体の形状に対応しているか否かを判定する必要が無く、最適な装着部の陽性モデルの生成までの時間を短縮することができる。   With the configuration described above, according to the present embodiment, each of the captured images is sufficient to generate the three-dimensional shape (positive model) of the mounting portion by the preview three-dimensional shape generated from the low-resolution image with reduced resolution. It is determined whether or not the image is a captured image of an appropriate imaging range. For this reason, it is not necessary to determine whether the positive model corresponds to the shape of the entire mounting part after generating a positive model with heavy processing, reducing the time to generate the positive model of the optimal mounting part can do.

また、本実施形態においては、制御部11が撮像画像から低解像度画像を生成していたが、撮像装置3にインストールしているアプリケーションが低解像度画像生成部として機能する構成としてもよい。この構成の場合、制御部11から撮像画像を低解像度で送信する制御信号が供給された場合、上記低解像度画像生成部が撮像画像から低解像度画像を生成し、制御部11に対して供給する。これにより、本実施形態におけるプレビュー3次元形状のための撮像画像を、撮像装置3から制御部11へ転送する転送速度を向上させ、転送にかかる時間を低減することができる。   In the present embodiment, the control unit 11 generates a low-resolution image from a captured image. However, an application installed in the imaging device 3 may function as a low-resolution image generation unit. In the case of this configuration, when a control signal for transmitting a captured image at a low resolution is supplied from the control unit 11, the low resolution image generation unit generates a low resolution image from the captured image and supplies it to the control unit 11. . Thereby, the transfer speed which transfers the picked-up image for the preview three-dimensional shape in this embodiment to the control part 11 from the imaging device 3 can be improved, and the time concerning transfer can be reduced.

<第3の実施形態>
以下、本発明の第3の実施形態による補装具装着部形状取得システムの実施形態について図面を用いて説明する。図8は、本発明の一実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。図8において、補装具装着部形状取得システム1Bは、補装具装着部形状取得装置10Bと、計測用衣類2とを含んでいる。
補装具装着部形状取得装置10Bは、制御部11、カメラパラメータ推定部12、マッチング処理部13、スケール設定部14、3次元形状生成部15、記憶部16及び点群合成部18の各々を備えている。図8においては、第1の実施形態と同様の構成に対しては同一の符号を付してある。以下、第1の実施形態と異なる構成及び動作について説明する。
<Third Embodiment>
Hereinafter, an embodiment of a prosthesis mounting portion shape acquisition system according to a third embodiment of the present invention will be described with reference to the drawings. FIG. 8 is a block diagram illustrating a configuration example of a prosthetic device mounting part shape acquisition system according to an embodiment of the present invention. In FIG. 8, a prosthetic device mounting part shape acquisition system 1 </ b> B includes a prosthetic device mounting part shape acquisition device 10 </ b> B and a measurement garment 2.
The accessory mounting part shape acquisition device 10B includes a control unit 11, a camera parameter estimation unit 12, a matching processing unit 13, a scale setting unit 14, a three-dimensional shape generation unit 15, a storage unit 16, and a point group synthesis unit 18. ing. In FIG. 8, the same components as those in the first embodiment are denoted by the same reference numerals. Hereinafter, configurations and operations different from those of the first embodiment will be described.

図9は、補装具装着部形状取得システムにおいて、撮像装置3の撮像対象である装着部に装着する計測用衣類の一例を示している。図9においては、計測用衣類の一例として、図2と同様に、腰部を装着部250とする補装具としてのコルセットを作成する際の計測用衣類2を示している。第3の実施形態においては、撮像装置3と装着部との間に障害物がある場合の測定用衣類について示している。
計測用衣類2は、第1の実施形態と同様に、細かい不規則な模様と、取得する3次元形状に影響を与えない程度の高低を有する凹凸とが設けられている。
FIG. 9 shows an example of a measurement garment to be attached to a mounting part that is an imaging target of the imaging device 3 in the accessory mounting part shape acquisition system. In FIG. 9, as an example of the measurement garment, the measurement garment 2 when creating a corset as a prosthetic device having the waist as the attachment portion 250 is shown as in FIG. 2. In 3rd Embodiment, it has shown about the clothing for a measurement when there exists an obstruction between the imaging device 3 and a mounting part.
As in the first embodiment, the measurement garment 2 is provided with a fine irregular pattern and irregularities having a level that does not affect the acquired three-dimensional shape.

また、計測用衣類2には、スケール設定用マーカ2Aに加えて、位置合わせ用マーカ2Bが設けられている。後述するように、装着部全体の3次元形状を示す点群が生成できないため、複数の点群を合成する必要がある。位置合わせ用マーカ2Bは、点群を合成する際、合成する点群の位置合わせに用いられる。この位置合わせ用マーカ2Bは、スケール設定用マーカ2Aと同様に、点群から容易に抽出できるように、計測用衣類2の模様に用いている色に対して補色となる色を用いて、視認し易く作成されている。   Further, the measurement clothing 2 is provided with a positioning marker 2B in addition to the scale setting marker 2A. As will be described later, since a point group indicating the three-dimensional shape of the entire mounting portion cannot be generated, it is necessary to synthesize a plurality of point groups. The alignment marker 2B is used for alignment of the point group to be combined when the point group is combined. As with the scale setting marker 2A, the alignment marker 2B is visually recognized using a color that is complementary to the color used in the pattern of the measurement clothing 2 so that it can be easily extracted from the point cloud. Easy to create.

図10は、障害物がある場合における装着部に装着された計測用衣類2の撮像画像の撮像を説明する図である。図10は、図9の線分B−Bの線視断面を示している。患者200の装着部250の断面に対して垂直であり、かつ断面の中心を通る軸線500を中心軸とした円弧451上及び円弧452上の各々を、撮像装置3を移動させつつ撮像を行なう。また、撮像する円弧451上及び円弧452上の各々の各撮像位置の撮像方向から視認できる計測用衣類2の全体が撮像画像に含まれるように撮像を行なう。図10において、領域461及び領域462においては、障害物800(例えば、腰が悪いために体を支えるためにつく杖)が撮像画像に含まれるために、撮像画像の撮像を行なうことができない。   FIG. 10 is a diagram for explaining the capturing of a captured image of the measurement garment 2 attached to the attachment portion when there is an obstacle. FIG. 10 shows a cross-sectional view taken along line BB in FIG. Imaging is performed while moving the imaging device 3 on an arc 451 and an arc 452 that are perpendicular to the cross section of the mounting portion 250 of the patient 200 and that have an axis 500 passing through the center of the cross section as a central axis. Further, the imaging is performed so that the entire measurement clothing 2 that can be visually recognized from the imaging direction of each imaging position on the arc 451 and the arc 452 to be imaged is included in the captured image. In FIG. 10, in an area 461 and an area 462, an obstacle 800 (for example, a stick attached to support the body due to poor waist) is included in the captured image, and thus the captured image cannot be captured.

このため、撮像装置3を円弧451上を移動させつつ撮像した際、円弧451の両端近傍における撮像位置において、位置合わせ用マーカ2Bが撮像画像に含まれる。同様に、撮像装置3を円弧452上を移動させつつ撮像した際、円弧452の両端近傍における撮像位置において、位置合わせ用マーカ2Bが撮像画像に含まれる。
そして、後述するように、点群合成部18は、円弧451上の位置で撮像された撮像画像から生成された部分点群と、円弧452上の位置で撮像された撮像画像から生成された部分点群とを、位置合わせ用マーカ2Bにより位置合わせをして合成し、装着部全体の3次元形状を示す点群を生成する。
For this reason, when imaging is performed while moving the imaging device 3 on the arc 451, the alignment marker 2B is included in the captured image at the imaging positions near both ends of the arc 451. Similarly, when imaging is performed while moving the imaging device 3 on the arc 452, the alignment marker 2B is included in the captured image at the imaging positions near both ends of the arc 452.
Then, as will be described later, the point group synthesis unit 18 includes a partial point group generated from a captured image captured at a position on the arc 451 and a portion generated from a captured image captured at a position on the arc 452. The point cloud is aligned by the alignment marker 2B and synthesized to generate a point cloud that indicates the three-dimensional shape of the entire mounting portion.

また、第1の実施形態と同様に、撮像装置3による撮像は、円弧451上及び円弧452上において、できる限り一定の間隔(一定の距離が離れた撮像間隔)で行なう。例えば、移動を一定の速度で撮像装置3を円弧451上及び円弧452上で移動させ、連射あるいは動画により撮像を行ない、撮像枚数あるいは撮影時間が一定になるようにすることで、各撮像画像を一定の間隔で撮像する。ここで、動画の場合、各撮像画像にモーションブラーが発生しない移動の速度を実験で求めておくことが必要である。   Similarly to the first embodiment, imaging by the imaging device 3 is performed on the arc 451 and the arc 452 at as constant intervals as possible (imaging intervals separated by a certain distance). For example, by moving the imaging device 3 on the arc 451 and the arc 452 at a constant speed, imaging is performed by continuous shooting or moving images so that the number of images to be captured or the imaging time is constant. Take images at regular intervals. Here, in the case of a moving image, it is necessary to experimentally determine the moving speed at which motion blur does not occur in each captured image.

図11は、本発明の第3の実施形態による補装具装着部形状取得システムに用いる撮像画像を撮像する動作例を示すフローチャートである。
ステップS401:
計測者は、患者に対して、補装具を装着させる装着部に対して、補装具が装着される領域全てが覆われて、覆われた装着部に密着するように、計測用衣類2にしわが寄らない状態で着用させる。
FIG. 11 is a flowchart illustrating an operation example of capturing a captured image used in the prosthetic device mounting part shape acquisition system according to the third embodiment of the present invention.
Step S401:
The measurer wrinkles the measurement garment 2 so that the entire area where the prosthetic device is mounted is covered with the mounting unit on which the prosthetic device is mounted, and the patient is in close contact with the covered mounting unit. Let them wear without stopping.

ステップS402:
計測者は、装着部に着用させた計測用衣類2に対して、全体が露出される状態でスケール設定用マーカ2Aを付加する。
図10において、円弧451上及び円弧452上の各々で撮像する際、作成される点群の座標系が異なるため、それぞれの座標系において寸法のスケールを実際の寸法のスケールに設定するため、円弧451上及び円弧452上それぞれの座標系に対応したスケール設定用マーカ2Aを、計測用衣類2に付加する。
Step S402:
The measurer adds the scale setting marker 2 </ b> A to the measurement garment 2 worn on the wearing part in a state where the whole is exposed.
In FIG. 10, when the images are taken on each of the arc 451 and the arc 452, the coordinate system of the point group to be created is different, so that the dimension scale is set to the actual dimension scale in each coordinate system. Scale setting markers 2 </ b> A corresponding to the respective coordinate systems on 451 and arc 452 are added to measurement clothing 2.

図12は、障害物800の存在により、円弧451上及び円弧452上の各々で分割して計測用衣類2を撮像する際におけるスケール設定用マーカ2A及び位置合わせ用マーカ2Bの取り付けを説明する図である。
図10で示したように、円弧451上及び円弧452上の各々で分割して計測用衣類2を撮像するため、患者200の装着部250の正面(患者200の顔のある面)と後面(患者200の背中のある面)との各々にスケール設定用マーカ2Aを付加することになる。
FIG. 12 is a diagram illustrating attachment of the scale setting marker 2A and the alignment marker 2B when the measurement clothing 2 is imaged separately on the arc 451 and the arc 452 due to the presence of the obstacle 800. It is.
As shown in FIG. 10, in order to image the measurement garment 2 separately on the arc 451 and the arc 452, the front surface (the surface on which the patient 200 is faced) and the rear surface (the surface of the patient 200). The scale setting marker 2A is added to each of the patient 200 and the back surface of the patient 200.

図12(a)は、円弧451上で撮像装置3により撮像される患者200の装着部250の正面に対応して、計測用衣類2の正面にスケール設定用マーカ2A_1を取り付けたことを示している。図12(b)は、円弧452上で撮像装置3により撮像される患者200の装着部250の後面に対応して、計測用衣類2の正面にスケール設定用マーカ2A_2を取り付けたことを示している。スケール設定用マーカ2A_1及びスケール設定用マーカ2A_2の各々は、同一のスケールの寸法の周期でマーカが示されている。   FIG. 12A shows that the scale setting marker 2 </ b> A_ <b> 1 is attached to the front surface of the measurement clothing 2 in correspondence with the front surface of the mounting portion 250 of the patient 200 imaged by the imaging device 3 on the arc 451. Yes. FIG. 12B shows that the scale setting marker 2 </ b> A_ <b> 2 is attached to the front surface of the measurement clothing 2 corresponding to the rear surface of the mounting portion 250 of the patient 200 imaged by the imaging device 3 on the arc 452. Yes. Each of the scale setting marker 2A_1 and the scale setting marker 2A_2 is shown with a cycle having the same scale dimension.

ステップS403:
計測者は、装着部の撮像画像の撮像を行なう際、障害物により撮像を行えない範囲に対応した、装着部に着用させた計測用衣類2の位置に対して、位置合わせ用マーカ2Bを付加する。
すなわち、図10において、円弧451上及び円弧452上の各々で撮像する際、作成される点群の座標系が異なるため、それぞれの座標系における点群の位置合わせに用いるため、円弧451と円弧452との間の領域461及び領域462の各々に対向する、計測用衣類2の位置に位置合わせ用マーカ2Bを付加する。
図12(a)において示されるように、患者200の装着部250の正面において、領域461及び領域462の各々に対向する位置として、例えば、脇腹部に対応する計測用衣類2の位置に対して、位置合わせ用マーカ2Bを付加する。図12(b)においても同様である。
Step S403:
When the measurer captures the captured image of the wearing part, the measuring marker 2B is added to the position of the measurement clothing 2 worn on the wearing part corresponding to the range in which the obstacle cannot be imaged. To do.
That is, in FIG. 10, when imaging is performed on each of the arc 451 and the arc 452, since the coordinate system of the point group to be created is different, the arc group 451 and the arc are used to align the point group in each coordinate system. The alignment marker 2B is added to the position of the clothing 2 for measurement facing each of the region 461 and the region 462 between the region 452 and the region 452.
As shown in FIG. 12A, as a position facing each of the region 461 and the region 462 on the front surface of the mounting portion 250 of the patient 200, for example, with respect to the position of the measurement clothing 2 corresponding to the flank portion. The alignment marker 2B is added. The same applies to FIG.

ステップS404:
計測者は、障害物を避けて、円弧451上及び円弧452上の各々で、撮像装置3を移動させつつ、計測用衣類2が着用された装着部250の撮像画像の撮像を行なう。また、計測者は、円弧451上及び円弧452上の各々における撮像は、第1の実施形態の撮像と同様に、撮像位置が所定の一定の間隔となるように行なう。例えば、計測者は、図10に示すように、円弧451上及び円弧452上の各々において所定の速度で移動させつつ、連射を行なうことにより、撮像装置3により患者の装着部に着用させた計測用衣類2の撮像画像を、異なる撮像位置及び撮像方向から撮像する。
ここで、円弧451上及び円弧452上の各々で撮像された撮像画像は、それぞれ円弧451上で撮像された第1撮像画像群と、円弧452上で撮像された第2撮像画像群とにそれぞれ分割してグルーピングされる。例えば、計測者は撮像装置3を円弧451上で移動させて、所定の一定の間隔において20枚の撮像画像(第1撮像画像群)を撮像し、撮像装置3を円弧452上で移動させて、所定の一定の間隔において20枚の撮像画像(第2撮像画像群)を撮像する。
Step S404:
The measurer captures a captured image of the mounting portion 250 on which the measurement clothing 2 is worn while moving the imaging device 3 on each of the arc 451 and the arc 452 while avoiding an obstacle. Further, the measurer performs imaging on each of the arc 451 and the arc 452 so that the imaging positions are at a predetermined constant interval, as in the imaging of the first embodiment. For example, as shown in FIG. 10, the measurement person wears the patient's wearing part with the imaging device 3 by performing continuous shooting while moving at a predetermined speed on each of the arc 451 and the arc 452. The captured image of the clothing 2 is captured from different imaging positions and imaging directions.
Here, the captured images captured on the arc 451 and the arc 452 are respectively divided into a first captured image group captured on the arc 451 and a second captured image group captured on the arc 452. Divided and grouped. For example, the measurer moves the imaging device 3 on the arc 451 to capture 20 captured images (first captured image group) at a predetermined fixed interval, and moves the imaging device 3 on the arc 452. Then, 20 captured images (second captured image group) are captured at a predetermined constant interval.

図13は、本発明の第3の実施形態による補装具装着部形状取得システムの装着部の3次元形状の生成処理の動作例を示すフローチャートである。
ステップS501:
制御部11は、撮像装置3から、撮像装置3が計測用衣類2を円弧451上及び円弧452上の各々において撮像した第1撮像画像群、第2撮像画像群それぞれを読み込む。このとき、制御部11は、時系列に撮像した順番に、第1撮像画像群の撮像画像の各々を読む込んだ後、時系列に撮像した順番に、第2撮像画像群の撮像画像の各々を読み込む。
このとき、制御部11に対して、撮像装置3から供給される撮像画像を間引きして、撮像画像の枚数を低減させて記憶部16に対して時系列に書き込んで記憶させても良い。
FIG. 13: is a flowchart which shows the operation example of the production | generation process of the three-dimensional shape of the mounting part of the accessory mounting part shape acquisition system by the 3rd Embodiment of this invention.
Step S501:
The control unit 11 reads from the imaging device 3 a first captured image group and a second captured image group in which the imaging device 3 images the measurement clothing 2 on each of the arc 451 and the arc 452. At this time, the control unit 11 reads each of the captured images of the first captured image group in the order of capturing in the time series, and then each of the captured images of the second captured image group in the order of capturing in the time series. Is read.
At this time, the control unit 11 may thin out the captured images supplied from the imaging device 3 to reduce the number of captured images and write and store them in the storage unit 16 in time series.

ステップS502:
カメラパラメータ推定部12は、記憶部16に記憶されている第1撮像画像群の撮像画像を時系列の順番に読出し、SFMの手法を用いて、円弧451上の撮像における撮像装置3のカメラパラメータと、それぞれの撮像画像が撮像された際の撮像装置3の移動前後の撮像位置及び撮像方向とを推定する。
そして、カメラパラメータ推定部12は、第1撮像画像群を用いてカメラパラメータ推定部12が推定した、円弧451上での撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを記憶部16に対して、第1撮像画像群に対応させて書き込んで記憶させる。
Step S502:
The camera parameter estimation unit 12 reads the captured images of the first captured image group stored in the storage unit 16 in chronological order, and uses the SFM technique to capture the camera parameters of the imaging device 3 for imaging on the arc 451. And the imaging position and imaging direction before and after the movement of the imaging device 3 when each captured image is captured are estimated.
The camera parameter estimation unit 12 then uses the first captured image group to estimate the camera parameters of the imaging apparatus 3 on the arc 451 estimated by the camera parameter estimation unit 12, the imaging position and the imaging direction for capturing each captured image. Are stored in the storage unit 16 in association with the first captured image group.

同様に、カメラパラメータ推定部12は、記憶部16に記憶されている第2撮像画像群の撮像画像を時系列の順番に読出し、SFMの手法を用いて、円弧452上の撮像における撮像装置3のカメラパラメータと、それぞれの撮像画像が撮像された際の撮像装置3の移動前後の撮像位置及び撮像方向とを推定する。
そして、カメラパラメータ推定部12は、第2撮像画像群を用いてカメラパラメータ推定部12が推定した、円弧452上での撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを記憶部16に対して、第2撮像画像群に対応させて書き込んで記憶させる。
Similarly, the camera parameter estimation unit 12 reads the captured images of the second captured image group stored in the storage unit 16 in chronological order, and uses the SFM technique to capture the image on the arc 452. And the imaging position and imaging direction before and after the movement of the imaging device 3 when each captured image is captured are estimated.
Then, the camera parameter estimation unit 12 uses the second captured image group to estimate the camera parameters of the imaging device 3 on the arc 452 estimated by the camera parameter estimation unit 12, the imaging position and the imaging direction for capturing each captured image. Are written and stored in the storage unit 16 in association with the second captured image group.

ステップS503:
マッチング処理部13は、第1撮像画像群における時系列に撮像された撮像画像と、第1撮像画像群に対応した撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを、記憶部16から順次読み出す。
そして、マッチング処理部13は、第1撮像画像群に対応した撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを用い、第1撮像画像群における撮像画像間のテンプレートマッチングにより、第1撮像画像群の撮像画像で撮像された装着部の3次元形状を示す3次元空間(第1の3次元座標系)における第1分割点群を生成する。
Step S503:
The matching processing unit 13 includes a captured image captured in time series in the first captured image group, camera parameters of the imaging device 3 corresponding to the first captured image group, an imaging position and an imaging direction in which each captured image is captured. Are sequentially read from the storage unit 16.
And the matching process part 13 uses the camera parameter of the imaging device 3 corresponding to a 1st captured image group, the imaging position and imaging direction which imaged each captured image, and the template between the captured images in a 1st captured image group. By matching, a first divided point group in a three-dimensional space (first three-dimensional coordinate system) indicating the three-dimensional shape of the mounting portion captured by the captured image of the first captured image group is generated.

同様に、マッチング処理部13は、第2撮像画像群における時系列に撮像された撮像画像と、第2撮像画像群に対応した撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを、記憶部16から順次読み出す。
そして、マッチング処理部13は、第2撮像画像群に対応した撮像装置3のカメラパラメータと、各撮像画像を撮像した撮像位置及び撮像方向とを用い、第2撮像画像群における撮像画像間のテンプレートマッチングにより、第2撮像画像群の撮像画像で撮像された装着部の3次元形状を示す3次元空間(第2の3次元座標系)における第2分割点群を生成する。
また、マッチング処理部13は、円弧451上及び円弧452上の各々で撮像した第1撮像画像群、第2撮像画像群それぞれから生成した第1分割点群、第2分割点群を、第1撮像画像群、第2撮像画像群の各々に対応付けて記憶部16に対して書き込んで記憶させる。
Similarly, the matching processing unit 13 captures captured images captured in time series in the second captured image group, the camera parameters of the image capturing apparatus 3 corresponding to the second captured image group, the capturing position where each captured image is captured, and The imaging direction is sequentially read from the storage unit 16.
And the matching process part 13 uses the camera parameter of the imaging device 3 corresponding to a 2nd captured image group, the imaging position and imaging direction which imaged each captured image, and the template between the captured images in a 2nd captured image group. By matching, a second divided point group in a three-dimensional space (second three-dimensional coordinate system) indicating the three-dimensional shape of the mounting portion captured by the captured image of the second captured image group is generated.
In addition, the matching processing unit 13 sets the first divided point group and the second divided point group generated from the first captured image group and the second captured image group captured on the arc 451 and the arc 452 to the first segment point, respectively. The information is written and stored in the storage unit 16 in association with each of the captured image group and the second captured image group.

ステップS504:
スケール設定部14は、記憶部16からマッチング処理部13が生成した第1分割点群を読み出し、この第1分割点群からスケール設定用マーカ2A_1に対応する点群を抽出し、マーク間の既知の寸法に対応して、3次元空間(第1の3次元座標系)における3次元形状を示す第1分割点群の各点間の距離を実際の寸法のスケールに合わせる。
また、スケール設定部14は、記憶部16からマッチング処理部13が生成した第2分割点群を読み出し、この第2分割点群からスケール設定用マーカ2A_2に対応する点群を抽出し、マーク間の既知の寸法に対応して、3次元空間(第2の3次元座標系)における3次元形状を示す第2分割点群の各点間の距離を実際の寸法のスケールに合わせる。
そして、スケール設定部14は、スケールを設定した第1分割点群及び第2分割点群の各々を記憶部16に対して書き込んで記憶させる(上書きする)。
Step S504:
The scale setting unit 14 reads the first divided point group generated by the matching processing unit 13 from the storage unit 16, extracts the point group corresponding to the scale setting marker 2A_1 from the first divided point group, and is known between the marks. The distance between each point of the first divided point group indicating the three-dimensional shape in the three-dimensional space (first three-dimensional coordinate system) is matched with the actual size scale.
In addition, the scale setting unit 14 reads the second division point group generated by the matching processing unit 13 from the storage unit 16, extracts the point group corresponding to the scale setting marker 2A_2 from the second division point group, Corresponding to the known dimensions, the distance between the points of the second divided point group indicating the three-dimensional shape in the three-dimensional space (second three-dimensional coordinate system) is adjusted to the scale of the actual dimensions.
Then, the scale setting unit 14 writes and stores (overwrites) each of the first division point group and the second division point group for which the scale is set in the storage unit 16.

ステップS505:
点群合成部18は、第1分割点群及び第2分割点群の各々を記憶部16から読み出す。そして、点群合成部18は、読み出した第1分割点群と第2分割点群とを、ICP(iterative closest point)アルゴリズムを用いて合成し、装着部全体の3次元形状を示す点群を生成する。このとき、点群合成部18は、第1分割点群の第1の3次元座標系において、第1分割点群に対して第2分割点群を回転及び平行移動を行なわせて(第2分割点群の座標変換を行ない)、第1分割点群及び第2分割点群の位置合わせを行なう。
Step S505:
The point group combining unit 18 reads each of the first divided point group and the second divided point group from the storage unit 16. Then, the point group synthesizing unit 18 synthesizes the read first divided point group and second divided point group using an ICP (iterative closest point) algorithm, and generates a point group indicating the three-dimensional shape of the entire mounting unit. Generate. At this time, the point group synthesizing unit 18 rotates and translates the second divided point group with respect to the first divided point group in the first three-dimensional coordinate system of the first divided point group (the second divided point group). The coordinate conversion of the division point group is performed), and the first division point group and the second division point group are aligned.

また、位置合わせを行なう際、点群合成部18は、第1分割点群から位置合わせ用マーカ2Bに対応する点を抽出し、第2分割点群から位置合わせ用マーカ2Bに対応する点を抽出する。この位置合わせ用マーカ2Bは、第1の3次元座標系において、同一の座標点に存在する。このため、点群合成部18は、例えば、第1分割点群及び第2分割点群の各々の位置合わせ用マーカ2Bに対応する座標点それぞれの座標値の間の距離が最小となうように、第1分割点群に対して第2分割点群の回転及び平行移動を行なうことで、第1分割点群及び第2分割点群の各々の合成を行い、装着部全体の3次元形状を示す点群を生成する。そして、点群合成部18は、生成した点群を記憶部16に対して書き込んで記憶させる。   Further, when performing alignment, the point group synthesizing unit 18 extracts a point corresponding to the alignment marker 2B from the first divided point group, and selects a point corresponding to the alignment marker 2B from the second divided point group. Extract. This alignment marker 2B exists at the same coordinate point in the first three-dimensional coordinate system. For this reason, for example, the point group synthesizing unit 18 minimizes the distance between the coordinate values of the coordinate points corresponding to the alignment markers 2B of the first divided point group and the second divided point group. In addition, by rotating and translating the second divided point group with respect to the first divided point group, each of the first divided point group and the second divided point group is synthesized, and the three-dimensional shape of the entire mounting portion A point cloud indicating is generated. Then, the point group combining unit 18 writes the generated point group in the storage unit 16 and stores it.

図14は、第1分割点群及び第2分割点群の各々の合成に用いる位置合わせ用マーカについて説明する図である。図14(a)は、第1分割点群を示しており、患者200の装着部250の正面(患者200の顔のある面)に対応した第1撮像画像群から構成された第1分割点群を示している。脇腹部に付加された位置合わせ用マーカ2Bと、スケール設定用マーカ2A_1と、ASIS(Anterior superior iliac spine:上前腸骨棘、後述)の位置を示す位置検出用マーカ2Cとの各々に対応する点が示されている。
一方、図14(b)は、第2分割点群を示しており、患者200の装着部250の後面(患者200の背中のある面)に対応した第2撮像画像群から構成された第2分割点群を示している。脇腹部に付加された位置合わせ用マーカ2Bと、スケール設定用マーカ2A_2との各々に対応する点が示されている。
FIG. 14 is a diagram for explaining an alignment marker used for combining each of the first divided point group and the second divided point group. FIG. 14A shows the first divided point group, and the first divided point group constituted by the first captured image group corresponding to the front surface of the mounting part 250 of the patient 200 (the face on which the patient 200 is faced). Shows the group. Corresponding to each of the alignment marker 2B added to the flank, the scale setting marker 2A_1, and the position detection marker 2C indicating the position of ASIS (Anterior superior iliac spine: described below). A dot is shown.
On the other hand, FIG. 14B shows a second divided point group, and a second group of captured images corresponding to the rear surface of the mounting part 250 of the patient 200 (the surface with the back of the patient 200). A division point group is shown. Points corresponding to the alignment marker 2B added to the flank and the scale setting marker 2A_2 are shown.

ステップS506:
3次元形状生成部15は、記憶部16からスケールが設定された点群を読み出し、点群の各点を用いてポリゴンメッシュ化する。
そして、3次元形状生成部15は、点群からポリゴンメッシュを生成することにより、スムーズな装着部の3次元形状を生成する。この生成された3次元形状が、補装具を作成する際に用いられる陽性モデルとして用いられる。
この後、例えば、3次元プリンタなどに対し、この3次元形状のデータを供給することにより、補装具を作成することになる。
Step S506:
The three-dimensional shape generation unit 15 reads the point group with the scale set from the storage unit 16 and forms a polygon mesh using each point of the point group.
Then, the three-dimensional shape generation unit 15 generates a smooth three-dimensional shape of the mounting portion by generating a polygon mesh from the point cloud. The generated three-dimensional shape is used as a positive model used when creating a prosthesis.
Thereafter, for example, by supplying this three-dimensional shape data to a three-dimensional printer or the like, a prosthesis is created.

上述したように、本実施形態によれば、補装具を装着する装着部に対して計測用衣類2を着用させて撮像画像を撮像する際、撮像装置3と計測用衣類2との間に杖などの障害物が存在したとしても、この障害物が撮像されないように、撮像画像を複数の撮像画像群に分割して撮像し、撮像画像群それぞれに対し、マッチング処理を行うことで分割点群を生成し、分割点群を合成した点群から装着部の3次元形状を得て、陽性モデルを取得するため、杖などの支えがないと不安定となる患者の装着部の陽性モデルを容易に形成することができ、患者に与える肉体的および精神的な負担(負荷)を大きく低減させることができる。   As described above, according to the present embodiment, a cane is provided between the imaging device 3 and the measurement garment 2 when the measurement garment 2 is worn on the mounting portion on which the prosthesis is mounted and a captured image is captured. Even if there is an obstacle such as, the captured image is divided into a plurality of captured image groups so that the obstacle is not imaged, and a matching process is performed on each captured image group to obtain a divided point group The 3D shape of the wearing part is obtained from the point cloud that is generated by combining the divided point cloud, and a positive model is obtained. The physical and mental burden (load) on the patient can be greatly reduced.

また、本実施形態においては、撮像装置3と計測用衣類2との間に障害物がない場合、図10に示す患者200の装着部250の断面に対して垂直であり、かつ断面の中心を通る軸線500を中心軸とした円上を移動して、連続的に撮像した撮像画像を用いて装着部の3次元形状を得ることができる。このとき、分割点群がないため、点群合成部18は、分割点群を合成する処理を行なわない。したがって、第3の実施形態による補装具装着部形状取得システム1Bは、撮像装置3と計測用衣類2との間に障害物がある場合と、撮像装置3と計測用衣類2との間に障害物がない場合との双方において、患者の装着部の陽性モデルを生成することができる。   Further, in the present embodiment, when there is no obstacle between the imaging device 3 and the measurement garment 2, the center of the cross section is perpendicular to the cross section of the wearing part 250 of the patient 200 shown in FIG. It is possible to obtain a three-dimensional shape of the mounting portion by using the picked-up images that are continuously picked up by moving on a circle with the passing axis 500 as the central axis. At this time, since there is no division point group, the point group synthesis unit 18 does not perform the process of synthesizing the division point group. Therefore, the accessory mounting part shape acquisition system 1B according to the third embodiment is configured so that there is an obstacle between the imaging device 3 and the measurement clothing 2, and an obstacle between the imaging device 3 and the measurement clothing 2. A positive model of the patient's wearing part can be generated both in the absence of an object.

<第4の実施形態>
以下、本発明の第4の実施形態による補装具装着部形状取得システムの実施形態について図面を用いて説明する。図15は、本発明の一実施形態である補装具装着部形状取得システムの構成例を示すブロック図である。図15において、補装具装着部形状取得システム1Cは、補装具装着部形状取得装置10Cと、計測用衣類2とを含んでいる。
補装具装着部形状取得装置10Cは、制御部11、カメラパラメータ推定部12、マッチング処理部13、スケール設定部14、3次元形状生成部15、記憶部16、プレビュー確認処理部17及び点群合成部18の各々を備えている。図15においては、第3の実施形態と同様の構成に対しては同一の符号を付してある。以下、第3の実施形態と異なる構成及び動作について説明する。
<Fourth Embodiment>
Hereinafter, an embodiment of a prosthesis mounting portion shape acquisition system according to a fourth embodiment of the present invention will be described with reference to the drawings. FIG. 15 is a block diagram illustrating a configuration example of a prosthetic device mounting part shape acquisition system according to an embodiment of the present invention. In FIG. 15, a prosthetic device mounting part shape acquisition system 1 </ b> C includes a prosthetic device mounting part shape acquisition device 10 </ b> C and a measurement garment 2.
The accessory mounting unit shape acquisition device 10C includes a control unit 11, a camera parameter estimation unit 12, a matching processing unit 13, a scale setting unit 14, a three-dimensional shape generation unit 15, a storage unit 16, a preview confirmation processing unit 17, and a point group synthesis. Each part 18 is provided. In FIG. 15, the same components as those in the third embodiment are denoted by the same reference numerals. Hereinafter, configurations and operations different from those of the third embodiment will be described.

補装具装着部形状取得装置10Cは、第3の実施形態の補装具装着部形状取得装置10に対してプレビュー確認処理部17が付加されている。
プレビュー確認処理部17は、すでに第2の実施形態で述べたように、陽性モデルとしての3次元形状を作成するための撮像画像が得られているか否かの確認処理を行なう。本実施形態においては、スケールの設定ができないと陽性モデルが完成されないため、スケール設定用マーカ2Aに対応する画像が撮像画像に含まれているか否かを確認する。また、分割点群を合成するための位置合わせに必要なため、位置合わせ用マーカ2Bが撮像画像に含まれているか否かの確認も行なう。
図16は、第4の実施形態におけるプレビュー用3次元形状を用いた撮像画像の確認処理の動作例を示すフローチャートである。
In the accessory mounting part shape acquisition device 10C, a preview confirmation processing unit 17 is added to the accessory mounting part shape acquisition device 10 of the third embodiment.
As already described in the second embodiment, the preview confirmation processing unit 17 performs confirmation processing as to whether or not a captured image for creating a three-dimensional shape as a positive model has been obtained. In the present embodiment, since the positive model is not completed if the scale cannot be set, it is confirmed whether or not an image corresponding to the scale setting marker 2A is included in the captured image. In addition, since it is necessary for alignment for synthesizing the divided point group, it is also confirmed whether or not the alignment marker 2B is included in the captured image.
FIG. 16 is a flowchart illustrating an operation example of a captured image confirmation process using a preview three-dimensional shape according to the fourth embodiment.

ステップS601:
プレビュー確認処理部17は、制御部11に対して記憶部16に記憶されている第1撮像画像群及び第2撮像画像群の各々における撮像画像の解像度の低減を指示する。これにより、制御部11は、記憶部16から第1撮像画像群及び第2撮像画像群の各々における撮像画像を読み出し、例えば、4×4の16個の画素の平均値を取得して、各撮像画像の解像度を1/16に低減して低解像度画像を生成する。
そして、制御部11は、プレビュー用3次元形状の作成に用いるため、生成した低解像度画像を、第1撮像画像群及び第2撮像画像群の各々に対応させて、低解像度画像を生成した撮像画像を読み出す際の時系列の順番に対応させて記憶部16に対してぞれぞれ書き込んで記憶させる。
Step S601:
The preview confirmation processing unit 17 instructs the control unit 11 to reduce the resolution of the captured image in each of the first captured image group and the second captured image group stored in the storage unit 16. Thereby, the control unit 11 reads out the captured images in each of the first captured image group and the second captured image group from the storage unit 16, acquires an average value of 16 pixels of 4 × 4, for example, The resolution of the captured image is reduced to 1/16 to generate a low resolution image.
Then, the control unit 11 uses the generated low-resolution image corresponding to each of the first captured image group and the second captured image group to generate the low-resolution image for use in creating the preview three-dimensional shape. Each is written and stored in the storage unit 16 so as to correspond to the time-series order when reading the images.

ステップS602:
プレビュー確認処理部17は、カメラパラメータ推定部12に対して、低解像度画像を用いて、撮像装置3のカメラパラメータと、低解像度画像の各々の撮像位置及び撮像方向との推定を指示する。
カメラパラメータ推定部12は、記憶部16から第1撮像画像群及び第2撮像画像群毎に、低解像度画像を時系列の順番に読み出す。そして、カメラパラメータ推定部12は、第3の実施形態の場合と同様に、第1撮像画像群及び第2撮像画像群度毎に、撮像装置3のカメラパラメータと、低解像度画像の各々の撮像位置及び撮像方向をSFMの手法により推定する。
Step S602:
The preview confirmation processing unit 17 instructs the camera parameter estimation unit 12 to estimate the camera parameters of the imaging apparatus 3 and the imaging position and imaging direction of each low resolution image using the low resolution image.
The camera parameter estimation unit 12 reads low resolution images from the storage unit 16 for each of the first captured image group and the second captured image group in chronological order. Then, as in the case of the third embodiment, the camera parameter estimation unit 12 captures each of the camera parameters of the imaging device 3 and the low-resolution image for each of the first captured image group and the second captured image group degree. The position and the imaging direction are estimated by the SFM method.

ステップS603:
プレビュー確認処理部17は、マッチング処理部13に対して、制御部11が生成した低解像度画像を用いた、プレビュー用3次元形状を示す点群の生成を指示する。
マッチング処理部13は、第1撮像画像群及び第2撮像画像群の各々に対し、低解像度画像間における各画素のテンプレートマッチングを行なうことにより、装着部のプレビュー用3次元形状を示す点群として、プレビュー第1分割点群及びプレビュー第2分割点群の各々を生成する。
Step S603:
The preview confirmation processing unit 17 instructs the matching processing unit 13 to generate a point group indicating a preview three-dimensional shape using the low resolution image generated by the control unit 11.
The matching processing unit 13 performs a template matching of each pixel between the low-resolution images for each of the first captured image group and the second captured image group, thereby forming a point group indicating the preview three-dimensional shape of the mounting unit. Each of the preview first divided point group and the preview second divided point group is generated.

ステップS604:
プレビュー確認処理部17は、3次元形状生成部15に対して、点群合成部18が生成したプレビュー第1分割点群及びプレビュー第2分割点群の各々をレンダリングすることで、プレビュー用3次元形状の画像の生成を指示する。
Step S604:
The preview confirmation processing unit 17 renders each of the preview first divided point group and the preview second divided point group generated by the point group synthesizing unit 18 to the three-dimensional shape generating unit 15, so that the preview three-dimensional point group is rendered. Instructs the generation of a shape image.

ステップS605:
そして、プレビュー確認処理部17は、撮像装置3の表示画面に対し、3次元形状生成部15が生成したプレビュー用3次元形状の画像を表示する。
計測者は、撮像装置3の表示画面において、3次元空間におけるプレビュー用3次元形状の観察位置を変えつつ、プレビュー用3次元形状の画像を観察する。
そして、計測者は、プレビュー3次元形状が、装着部に着用させた計測用衣類2の全体が含まれた十分な形状か否か、すなわち、撮像画像の各々が装着部の3次元形状(陽性モデル)を生成するために十分な撮像範囲を撮像した画像か否かの判定を行なう。
このとき、計測者は、プレビュー3次元形状が計測用衣類2の全体を含む十分な形状である場合、処理をステップS606へ進める。一方、計測者は、プレビュー3次元形状が計測用衣類2の全体を含む十分な形状でない場合、処理をステップS607へ進める。
Step S605:
Then, the preview confirmation processing unit 17 displays the preview three-dimensional shape image generated by the three-dimensional shape generation unit 15 on the display screen of the imaging device 3.
The measurer observes the image of the preview three-dimensional shape on the display screen of the imaging device 3 while changing the observation position of the preview three-dimensional shape in the three-dimensional space.
Then, the measurer determines whether or not the preview three-dimensional shape is a sufficient shape including the entire measurement garment 2 worn on the mounting portion, that is, each of the captured images is a three-dimensional shape (positive) of the mounting portion. It is determined whether or not the image is an image of a sufficient imaging range for generating a model.
At this time, the measurer advances the process to step S606 if the preview three-dimensional shape is a sufficient shape including the entire measurement clothing 2. On the other hand, when the preview three-dimensional shape is not a sufficient shape including the entire measurement clothing 2, the measurer advances the process to step S607.

ステップS606:
計測者は、第3の実施形態における図13に示すフローチャートにおける装着部の3次元形状の生成の処理を、補装具装着部形状取得システム1Cに対して実行させる。この3次元形状を生成する説明はすでに第3の実施形態で行なっているため、再度の説明を省略する。
Step S606:
The measurer causes the prosthetic device mounting part shape acquisition system 1C to execute the process of generating the three-dimensional shape of the mounting part in the flowchart shown in FIG. 13 in the third embodiment. Since the description for generating the three-dimensional shape has already been made in the third embodiment, the description thereof will be omitted.

ステップS607:
計測者は、第1の実施形態における図11に示すフローチャートにおける補装具の装着部の撮像画像を撮像する処理を再度行なう。この装着部の撮像画像を撮像する処理の説明はすでに第3の実施形態で行なっているため、再度の説明を省略する。
Step S607:
The measurer performs again the process of capturing the captured image of the attachment portion of the prosthetic device in the flowchart shown in FIG. 11 in the first embodiment. Since the process for capturing the captured image of the mounting portion has already been described in the third embodiment, the description thereof will be omitted.

上述した構成により、本実施形態によれば、解像度を低減させた低解像度画像から生成したプレビュー3次元形状により、撮像画像の各々が装着部の3次元形状(陽性モデル)を生成するために十分な撮像範囲を撮像した画像か否かを判定する。このため、処理が重い陽性モデルを生成してから、陽性モデルが装着部全体の形状に対応しているか否かを判定する必要が無く、最適な装着部の陽性モデルの生成までの時間を短縮することができる。   With the configuration described above, according to the present embodiment, each of the captured images is sufficient to generate the three-dimensional shape (positive model) of the mounting portion by the preview three-dimensional shape generated from the low-resolution image with reduced resolution. It is determined whether or not the image is a captured image of a wide range. For this reason, it is not necessary to determine whether the positive model corresponds to the shape of the entire mounting part after generating a positive model with heavy processing, reducing the time to generate the positive model of the optimal mounting part can do.

また、本実施形態においては、第2の実施形態と同様に、制御部11が撮像画像から低解像度画像を生成していたが、撮像装置3にインストールしているアプリケーションが低解像度画像生成部として機能する構成としてもよい。この構成の場合、制御部11から撮像画像を低解像度で送信する制御信号が供給された場合、上記低解像度画像生成部が撮像画像から低解像度画像を生成し、制御部11に対して供給する。これにより、本実施形態におけるプレビュー3次元形状のための撮像画像を、撮像装置3から制御部11へ転送する転送速度を向上させ、転送にかかる時間を低減することができる。   In the present embodiment, as in the second embodiment, the control unit 11 generates a low-resolution image from the captured image. However, an application installed in the imaging device 3 is used as the low-resolution image generation unit. It may be configured to function. In the case of this configuration, when a control signal for transmitting a captured image at a low resolution is supplied from the control unit 11, the low resolution image generation unit generates a low resolution image from the captured image and supplies it to the control unit 11. . Thereby, the transfer speed which transfers the picked-up image for the preview three-dimensional shape in this embodiment to the control part 11 from the imaging device 3 can be improved, and the time concerning transfer can be reduced.

<第5の実施形態>
以下、本発明の第5の実施形態による補装具装着部形状取得システムの実施形態について図面を用いて説明する。点群から3次元形状を生成する構成としては、第1の実施形態から第4の実施形態のいずれの構成を用いても良い。本実施形態においては、装着部が腰であり、装着する補装具がコルセットである。この場合、ASIS(上前腸骨棘)の位置を明確にしないと、コルセットが腰にフィットせずに、コルセットによりASISの凸部が擦れ、患者の負荷となってしまう。
そのため、装着部に着用させた計測用衣類におけるASISの位置に対応した部分に、位置検出用マーカ2Cを付加する。この位置検出用マーカ2Cは、スケール設定用マーカ2A及び位置合わせ用マーカ2Bと同様に、計測用衣類2に付加される点群から容易に抽出できるように、計測用衣類2の模様に用いている色に対して補色となる色を用いて、視認し易く作成されている。
<Fifth Embodiment>
Hereinafter, an embodiment of a prosthesis mounting portion shape acquisition system according to a fifth embodiment of the present invention will be described with reference to the drawings. As a configuration for generating a three-dimensional shape from a point group, any configuration of the first embodiment to the fourth embodiment may be used. In the present embodiment, the mounting portion is the waist, and the auxiliary device to be mounted is a corset. In this case, if the position of the ASIS (upper anterior iliac spine) is not clarified, the corset does not fit to the waist, and the corset rubs the convex portion of the ASIS, causing a load on the patient.
Therefore, the position detection marker 2C is added to a portion corresponding to the position of the ASIS in the measurement clothing worn on the mounting portion. Like the scale setting marker 2A and the alignment marker 2B, the position detection marker 2C is used for the pattern of the measurement clothing 2 so that it can be easily extracted from the point cloud added to the measurement clothing 2. Using a color that is complementary to the existing color, it is created so that it can be easily seen.

図17は、計測用衣類2に付加するASISの位置を示す位置検出用マーカ2Cの説明である。図17(a)に示すように、装着部250に対して着用させた計測用衣類2に対して、スケール設定用マーカ2A及び位置合わせ用マーカ2Bとともに、位置検出用マーカ2Cを付加する。この位置検出用マーカ2Cの付加は、計測者が患者の腰を触診して、計測用衣類2におけるASISに対応する位置を確認し、この位置に対して位置検出用マーカ2Cを貼着などにより付加する。   FIG. 17 illustrates the position detection marker 2 </ b> C indicating the position of the ASIS added to the measurement clothing 2. As shown in FIG. 17A, a position detection marker 2 </ b> C is added to the measurement garment 2 worn on the mounting portion 250 together with the scale setting marker 2 </ b> A and the alignment marker 2 </ b> B. The addition of the position detection marker 2C is performed by a measurer palpating the patient's waist, confirming the position corresponding to the ASIS in the measurement clothing 2, and attaching the position detection marker 2C to the position. Append.

図17(b)は、図17(a)に示す装着部250に着用させた計測用衣類2を撮像した撮像画像から生成した3次元形状820を示している。3次元形状820は、STL(standard triangulated language)形式などの色の表示できないデータ形式により構成されている。このため、3次元形状820は、グレースケールで示されており、スケール設定用マーカ2Aに対応した領域850及び位置検出用マーカ2Cに対応した領域860の各々が確認し難い表示となっている。スケール設定用マーカ2Aについては、すでにスケールの推定及び設定が行なわれているため、明確化する必要はない。STL形式は、3D(3次元)プリンタに対してデータを供給する際に用いられる。このため、3Dプリンタにより補装具を作成するためには、特にASISの位置を明確にする必要がある。
しかしながら、位置検出用マーカ2Cについては、陽性モデルとしてASISの位置が不明では、患者に対応したコルセットが生成できないため、STL形式などの色の表示できないデータ形式においても、ASISの位置を明確とする必要がある。
FIG. 17B illustrates a three-dimensional shape 820 generated from a captured image obtained by capturing the measurement clothing 2 worn on the mounting portion 250 illustrated in FIG. The three-dimensional shape 820 is configured in a data format that cannot display colors, such as an STL (standard triangulated language) format. For this reason, the three-dimensional shape 820 is shown in gray scale, and each of the region 850 corresponding to the scale setting marker 2A and the region 860 corresponding to the position detection marker 2C is difficult to confirm. The scale setting marker 2A does not need to be clarified because the scale has already been estimated and set. The STL format is used when supplying data to a 3D (three-dimensional) printer. For this reason, in order to create a prosthesis using a 3D printer, it is particularly necessary to clarify the position of the ASIS.
However, for the position detection marker 2C, since the corset corresponding to the patient cannot be generated if the position of the ASIS is unknown as a positive model, the position of the ASIS is clarified even in a data format that cannot display colors such as the STL format. There is a need.

図17(c)は、補装具装着部形状取得システム5が、3次元形状820における領域860に対し、半球体870(球体)を付加し、STL形式においても、ASISの位置を明確とすることができる。
このとき、マッチング処理部13は、撮像画像の各々において位置検出用マーカ2Cに対応する画素を検出し、この画素をマッチング処理する際に、点群における座標値を位置マーカ座標として記憶部16に対して書き込んで記憶させる。
3次元形状生成部15は、点群から3次元形状820を生成する際、点群のデータとともに、上記位置マーカ座標を読み出す。そして、3次元形状生成部15は、3次元形状820を生成するとき、位置マーカ座標の示す座標値に、ASISの位置を示す半球体870を付加し、3次元形状820(陽性モデル)とする。
FIG. 17C shows that the prosthetic device mounting part shape acquisition system 5 adds a hemisphere 870 (sphere) to the region 860 in the three-dimensional shape 820 to clarify the position of the ASIS even in the STL format. Can do.
At this time, the matching processing unit 13 detects a pixel corresponding to the position detection marker 2C in each captured image, and when performing matching processing on this pixel, the coordinate value in the point group is stored in the storage unit 16 as the position marker coordinate. Write and memorize it.
When generating the three-dimensional shape 820 from the point group, the three-dimensional shape generation unit 15 reads the position marker coordinates together with the point group data. Then, when generating the three-dimensional shape 820, the three-dimensional shape generation unit 15 adds a hemisphere 870 indicating the position of the ASIS to the coordinate value indicated by the position marker coordinates to obtain a three-dimensional shape 820 (positive model). .

本実施形態によれば、ASISの位置を示す半球体870が付加された3次元形状が得られるため、陽性モデルとしてASISの位置が明確となり、患者の各々に対応したASISの位置に基づくコルセットの作成が可能となり、コルセットによりASISが擦れるという負荷を患者に与えることを低減することができる。   According to this embodiment, since a three-dimensional shape to which a hemisphere 870 indicating the position of ASIS is added is obtained, the position of ASIS becomes clear as a positive model, and the corset based on the position of ASIS corresponding to each patient Creation is possible, and it is possible to reduce the burden on the patient that the ASIS is rubbed by the corset.

なお、本発明における図1の補装具装着部形状取得装置10、図6補装具装着部形状取得装置10A、図8の補装具装着部形状取得装置10B及び図15の補装具装着部形状取得装置10C各々の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより患者の補装具の装着部の3次元形状を取得する処理を行ってもよい。なお、こでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
1 according to the present invention, the device mounting shape acquisition device 10A shown in FIG. 6, the device mounting shape acquisition device 10B shown in FIG. 8, and the device mounting shape acquisition device shown in FIG. A program for realizing each function of 10C is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed, thereby executing 3 of the attachment part of the patient's prosthesis. You may perform the process which acquires a dimensional shape. Here, the “computer system” includes an OS and hardware such as peripheral devices.
The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

ここまで、本発明の実施形態について説明したが、上記実施形態はあくまで一例であり、本発明は上述した実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。
また、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせを含む。
The embodiment of the present invention has been described so far. However, the above embodiment is merely an example, and the present invention is not limited to the above-described embodiment, and may be implemented in various forms within the scope of the technical idea. Needless to say, it is good.
In addition, the scope of the present invention is not limited to the illustrated and described exemplary embodiments, and includes all embodiments that provide the same effects as those intended by the present invention. Furthermore, the scope of the invention is not limited to the combinations of features of the invention defined by the claims, but includes any desired combination of specific features among all the disclosed features.

1,1A,1B,1C…補装具装着部形状取得システム
2…計測用衣類
2A,2A_1,2A_2…スケール設定用マーカ
2B…位置合わせ用マーカ
2C…位置検出用マーカ
3…撮像装置
10、10A,10B,10C…補装具装着部形状取得装置
11…制御部
12…カメラパラメータ推定部
13…マッチング処理部
14…スケール設定部
15…3次元形状生成部
16…記憶部
17…プレビュー確認処理部
18…点群合成部
200…患者
250…装着部
400…円
451,452…円弧
500…軸線
800…障害物
820…3次元形状
850,860…領域
870…半球体
DESCRIPTION OF SYMBOLS 1,1A, 1B, 1C ... Prosthesis mounting part shape acquisition system 2 ... Measurement clothing 2A, 2A_1, 2A_2 ... Scale setting marker 2B ... Position alignment marker 2C ... Position detection marker 3 ... Imaging device 10, 10A, DESCRIPTION OF SYMBOLS 10B, 10C ... Prosthesis mounting part shape acquisition apparatus 11 ... Control part 12 ... Camera parameter estimation part 13 ... Matching processing part 14 ... Scale setting part 15 ... Three-dimensional shape generation part 16 ... Memory | storage part 17 ... Preview confirmation process part 18 ... Point cloud synthesis unit 200 ... Patient 250 ... Wearing part 400 ... Circle 451, 452 ... Arc 500 ... Axis 800 ... Obstacle 820 ... Three-dimensional shape 850, 860 ... Region 870 ... Hemisphere

Claims (7)

補装具を装着する身体の装着部の範囲を覆い、不規則な模様が表面に設けられた前記装着部に密着して当該装着部の形状を反映する計測用衣類を装着する装着過程と、
計測用衣類の外周面に沿う、前記装着部を中心とした円弧上における異なる位置の各々で、撮像方向から視認される前記計測用衣類の全体が含まれる撮像画像を、単眼の撮像装置により複数枚撮像する撮像過程と、
前記模様を用いて、複数の前記撮像画像間の対応する画素のマッチングを行なうことで前記装着部の3次元形状を生成する生成過程と
を含むことを特徴とする補装具装着部形状取得方法。
A wearing process of covering the range of the wearing part of the body on which the auxiliary device is worn, and wearing a measurement garment that closely adheres to the wearing part provided with an irregular pattern on the surface and reflects the shape of the wearing part;
A plurality of captured images including the entirety of the measurement clothing viewed from the imaging direction at each of different positions on the arc centering on the mounting portion along the outer peripheral surface of the measurement clothing are captured by a monocular imaging device. An imaging process for capturing images,
A prosthesis mounting part shape acquisition method comprising: generating a three-dimensional shape of the mounting part by performing matching of corresponding pixels between the plurality of captured images using the pattern.
前記撮像過程において、前記撮像画像の各々の撮像間隔を一定として撮像する
ことを特徴とする請求項1に記載の補装具装着部形状取得方法。
The method for acquiring a shape of a prosthetic device mounting part according to claim 1, wherein, in the imaging process, imaging is performed with an imaging interval of each of the captured images being constant.
前記計測用衣類に対してスケール推定用のマーカを設け、当該マーカにより前記3次元形状の寸法を前記装着部の寸法に一致させるスケール過程をさらに含む
ことを特徴とする請求項1または請求項2に記載の補装具装着部形状取得方法。
The scale garment is further provided with the marker for scale estimation with respect to the said clothing for measurement, and the dimension of the said three-dimensional shape is made to correspond with the dimension of the said mounting part by the said marker. The method for obtaining the shape of a prosthetic device mounting part according to claim 1.
前記撮像過程において、
前記円弧が含まれる、前記装着部を中心とした円周において、前記装着部と前記撮像装置との間に障害物が存在する場合、前記障害物が撮像画像に含まれる円弧の範囲での撮像を行なわず、前記障害物が撮像画像に含まれない円弧の範囲での撮像を行ない、
前記生成過程において、
一定の撮像間隔で連続して撮像された円弧毎の撮像画像からそれぞれ分割3次元形状を生成し、分割3次元形状を合成して前記3次元形状を生成する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の補装具装着部形状取得方法。
In the imaging process,
When there is an obstacle between the mounting unit and the imaging device on the circumference including the arc and the mounting unit is centered, imaging is performed in a range of the arc in which the obstacle is included in the captured image. Without performing the imaging, in the range of the arc that the obstacle is not included in the captured image,
In the generation process,
The divided three-dimensional shape is generated from each captured image of each arc continuously captured at a constant imaging interval, and the divided three-dimensional shape is synthesized to generate the three-dimensional shape. The method for acquiring a shape of a prosthetic device mounting part according to claim 3.
前記撮像過程において、
前記障害物が撮像画像に含まれない円弧の範囲での撮像した際、それぞれの円弧上で撮像した撮像画像から生成した分割3次元形状の各々が重なる領域に対応する、前記計測用衣類の位置に対して位置合わせのための位置合わせ用マーカを設け、
前記生成過程において、
前記分割3次元形状の各々における前記位置合わせ用マーカを用いて、前記分割3次元形状それぞれを合成して前記3次元形状を生成する
ことを特徴とする請求項4に記載の補装具装着部形状取得方法。
In the imaging process,
The position of the clothing for measurement corresponding to the region where each of the divided three-dimensional shapes generated from the captured images captured on the respective arcs overlaps when the obstacle is captured in the range of the arc not included in the captured image An alignment marker for alignment is provided for
In the generation process,
The prosthesis mounting part shape according to claim 4, wherein the three-dimensional shape is generated by synthesizing each of the divided three-dimensional shapes using the alignment markers in each of the divided three-dimensional shapes. Acquisition method.
前記撮像画像の解像度を低減させ、前記3次元形状を確認するプレビュー表示を行なう過程をさらに含む
ことを特徴とする請求項1から請求項5のいずれか一項に記載の補装具装着部形状取得方法。
The prosthesis mounting part shape acquisition according to any one of claims 1 to 5, further comprising a preview display for reducing the resolution of the captured image and confirming the three-dimensional shape. Method.
補装具を装着する身体の装着部の範囲を覆い、不規則な模様が表面に設けられた前記装着部に密着して当該装着部の形状を反映する計測用衣類を装着した前記装着部の外周面に沿う、当該装着部を中心とした円弧上における異なる位置の各々で撮像された、撮像方向から視認される前記計測用衣類の全体が含まれる撮像画像において、単眼の撮像装置により撮像した複数枚の撮像画像間の対応する画素のマッチングを前記模様を用いて、前記装着部の形状を示す3次元空間における点群を生成するマッチング処理部と、
前記マッチング処理部がマッチングにより生成した点群をポリゴンメッシュに変換し、前記装着部の3次元形状を生成する3次元形状生成部と
を備えることを特徴とする補装具装着部形状取得システム。
The outer circumference of the wearing part that covers the range of the wearing part of the body on which the accessory is to be worn and that is fitted with the measurement clothing that closely adheres to the wearing part provided with an irregular pattern on the surface and reflects the shape of the wearing part A plurality of images captured by a monocular imaging device in a captured image including the whole of the measurement garment viewed from the imaging direction, captured at different positions on a circular arc centered on the mounting portion along the surface. A matching processing unit that generates a point group in a three-dimensional space indicating the shape of the mounting unit using the pattern for matching of corresponding pixels between the captured images;
A three-dimensional shape generation unit that converts a point cloud generated by the matching processing unit into a polygon mesh and generates a three-dimensional shape of the mounting unit.
JP2016196299A 2016-10-04 2016-10-04 Prosthesis mounting part shape acquisition method and prosthetics mounting part shape acquisition system Active JP6897048B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016196299A JP6897048B2 (en) 2016-10-04 2016-10-04 Prosthesis mounting part shape acquisition method and prosthetics mounting part shape acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016196299A JP6897048B2 (en) 2016-10-04 2016-10-04 Prosthesis mounting part shape acquisition method and prosthetics mounting part shape acquisition system

Publications (2)

Publication Number Publication Date
JP2018057532A true JP2018057532A (en) 2018-04-12
JP6897048B2 JP6897048B2 (en) 2021-06-30

Family

ID=61907933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016196299A Active JP6897048B2 (en) 2016-10-04 2016-10-04 Prosthesis mounting part shape acquisition method and prosthetics mounting part shape acquisition system

Country Status (1)

Country Link
JP (1) JP6897048B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207531A (en) * 2018-05-29 2019-12-05 株式会社富士通アドバンストエンジニアリング Image processing program, image processing method, and image processing apparatus
JP2019220099A (en) * 2018-06-22 2019-12-26 凸版印刷株式会社 Stereo matching processing device, stereo matching processing method, and program
JP2021015559A (en) * 2019-07-16 2021-02-12 凸版印刷株式会社 Three-dimensional shape model generation device, three-dimensional shape model generation method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269936A (en) * 2002-03-19 2003-09-25 Sanyo Electric Co Ltd Automatic size-measuring method
US20070288198A1 (en) * 2004-02-13 2007-12-13 Corpus.E Ag Optical Recording Of The Spatial Shape Of Bodies And Body Parts With Sections That In Part Are Not Optically Visible
JP2012508075A (en) * 2008-11-09 2012-04-05 ビスポーク・イノベーシヨンズ・インコーポレーテツド Custom appliances, gibbs and devices and design and fabrication methods
JP2013530757A (en) * 2010-06-22 2013-08-01 スリーディー システムズ インコーポレーテッド Custom-made appliances, casts and tools with fenestrations, limited flexibility and modular construction, and methods of design and fabrication
JP3205002U (en) * 2016-04-15 2016-06-30 鈴木 誠 Antique and antique production system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269936A (en) * 2002-03-19 2003-09-25 Sanyo Electric Co Ltd Automatic size-measuring method
US20070288198A1 (en) * 2004-02-13 2007-12-13 Corpus.E Ag Optical Recording Of The Spatial Shape Of Bodies And Body Parts With Sections That In Part Are Not Optically Visible
JP2012508075A (en) * 2008-11-09 2012-04-05 ビスポーク・イノベーシヨンズ・インコーポレーテツド Custom appliances, gibbs and devices and design and fabrication methods
JP2013530757A (en) * 2010-06-22 2013-08-01 スリーディー システムズ インコーポレーテッド Custom-made appliances, casts and tools with fenestrations, limited flexibility and modular construction, and methods of design and fabrication
JP3205002U (en) * 2016-04-15 2016-06-30 鈴木 誠 Antique and antique production system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207531A (en) * 2018-05-29 2019-12-05 株式会社富士通アドバンストエンジニアリング Image processing program, image processing method, and image processing apparatus
JP7140965B2 (en) 2018-05-29 2022-09-22 富士通株式会社 Image processing program, image processing method and image processing apparatus
JP2019220099A (en) * 2018-06-22 2019-12-26 凸版印刷株式会社 Stereo matching processing device, stereo matching processing method, and program
JP2021015559A (en) * 2019-07-16 2021-02-12 凸版印刷株式会社 Three-dimensional shape model generation device, three-dimensional shape model generation method, and program
JP7334516B2 (en) 2019-07-16 2023-08-29 凸版印刷株式会社 Three-dimensional shape model generation device, three-dimensional shape model generation method, and program

Also Published As

Publication number Publication date
JP6897048B2 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
US10360730B2 (en) Augmented reality providing system and method, information processing device, and program
KR101726013B1 (en) Replaceable fairing for prosthetic limb or brace
JP7455847B2 (en) Aligning the reference frame
JP6302132B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6181373B2 (en) Medical information processing apparatus and program
JP5018980B2 (en) Imaging apparatus, length measurement method, and program
JP5410629B1 (en) Ultrasonic diagnostic system, image processing apparatus, control method thereof, and control program
JP6373026B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6897048B2 (en) Prosthesis mounting part shape acquisition method and prosthetics mounting part shape acquisition system
CN106214302B (en) A kind of preparation method of scoliosis orthopedic brace
JP6510301B2 (en) MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF
JPWO2013077076A1 (en) Facial expression output device and facial expression output method
JP2015011480A (en) Image generation device, image generation method and program
CN111657981A (en) Method for generating a virtual patient model, patient model generation device and examination system
EP3453360B1 (en) Teeth movement tracking device and method thereof
JP2024016038A (en) Size measuring system
KR20210050787A (en) Device and method for generating animation based on motion of object
KR101988531B1 (en) Navigation system for liver disease using augmented reality technology and method for organ image display
JP6104066B2 (en) Image processing apparatus and image processing method
CN113143185B (en) Gastroscope system, image display method and device and readable storage medium
KR20130069042A (en) Method for taking a magnetic resonance imaging and apparatus for taking a magnetic resonance imaging thereof
KR101635188B1 (en) Unborn child sculpture printing service system and a method thereof
JP6547807B2 (en) Image generation apparatus, image generation method and program
JP2021026265A (en) Image processing device, image processing program, and image processing method
JP7333196B2 (en) 3D head model creation system and 3D head model creation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161005

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150