JP2010221015A - Three-dimensional human body model generator, three-dimensional human body model generating method, and three-dimensional human body model generating program - Google Patents

Three-dimensional human body model generator, three-dimensional human body model generating method, and three-dimensional human body model generating program Download PDF

Info

Publication number
JP2010221015A
JP2010221015A JP2010040387A JP2010040387A JP2010221015A JP 2010221015 A JP2010221015 A JP 2010221015A JP 2010040387 A JP2010040387 A JP 2010040387A JP 2010040387 A JP2010040387 A JP 2010040387A JP 2010221015 A JP2010221015 A JP 2010221015A
Authority
JP
Japan
Prior art keywords
human body
dimensional
model
body model
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010040387A
Other languages
Japanese (ja)
Inventor
Masato Sakamoto
真透 坂本
Takuya Uno
拓也 宇野
Masahiro Onoda
政弘 小野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2010040387A priority Critical patent/JP2010221015A/en
Publication of JP2010221015A publication Critical patent/JP2010221015A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To easily generate a three-dimensional human body model for each subject. <P>SOLUTION: A body internal space 37 of a three-dimensional identified model 38 is extracted based on three-dimensional image data D1 imaged by a CT (computed tomography) apparatus or an MRI (magnetic resonance imaging) apparatus, and a body internal region 47 of a three-dimensional standard human body model 40 formed by three-dimensionally modeling each of standard organs is deformed in conformity to the body internal space 37 to generate a three-dimensional subject model 80. The three-dimensional subject model 80 for each subject can thereby be easily generated. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、3次元人体モデル生成装置、3次元人体モデル生成方法及び3次元人体モデル生成プログラムに関し、例えばバーチャルリアリティ手術シミュレータ(以下、これをVRシミュレータとも呼ぶ)に用いられる3次元人体モデルを生成する場合に適用して好適なものである。   The present invention relates to a three-dimensional human body model generation device, a three-dimensional human body model generation method, and a three-dimensional human body model generation program. For example, a three-dimensional human body model used in a virtual reality surgery simulator (hereinafter also referred to as a VR simulator) is generated. It is suitable to be applied to.

近年、医療現場では、患者への侵襲が少ない内視鏡外科手術が盛んに行われるようになってきた。内視鏡外科手術は、小さい傷、術後痛の軽減、入院期間の短縮、早期の社会復帰など、患者にとって大きなメリットがある。   In recent years, endoscopic surgical operations that are less invasive to patients have been actively performed in the medical field. Endoscopic surgery has great benefits for patients, including small wounds, reduction of postoperative pain, shortened hospital stay, and early rehabilitation.

しかしながら内視鏡外科手術では、医師が視野の狭く立体感のない映像を見ながら自由度が少なく感覚の乏しい鉗子を操作しなければならず、開腹手術とは異なった特別な技術が必要となる。そのため、安全かつ高品質な内視鏡外科手術を提供するために十分なトレーニングを医師に行わせる必要があり、最近では多くの手術トレーニング装置が考案されている。   However, in endoscopic surgery, doctors have to operate forceps with a low degree of freedom and a lack of sensation while viewing images with a narrow field of view and a three-dimensional effect, and special techniques different from open surgery are required. . Therefore, it is necessary to allow a doctor to perform sufficient training to provide a safe and high-quality endoscopic surgery, and many surgical training devices have been devised recently.

手術トレーニング装置の1つに、VRシミュレータがある。VRシミュレータは、3次元人体モデル及び手術器具を仮想的な3次元空間に表現し、その3次元空間をディスプレイに表示することにより、当該ディスプレイを見せながら手術のトレーニングを医師に行わせるものである(例えば、特許文献1参照)。   One of the surgical training devices is a VR simulator. The VR simulator represents a three-dimensional human body model and a surgical instrument in a virtual three-dimensional space, and displays the three-dimensional space on a display, thereby allowing a doctor to perform surgery training while showing the display. (For example, refer to Patent Document 1).

また手術トレーニングのなかには、樹脂などの材料を利用して等身大の人体造形モデルを作製し、当該人体造形モデル及び実際の手術器具を用いてトレーニングを医師に行わせるものもある。因みに人体造形モデルは、3次元人体モデルを用いて例えば光造形装置により作製される。   In some surgical training, a human body modeling model is made using a material such as a resin, and training is performed by a doctor using the human body modeling model and an actual surgical instrument. Incidentally, the human body modeling model is produced by, for example, an optical modeling apparatus using a three-dimensional human body model.

このような手術トレーニングをより現実的に医師に行わすためには、3次元人体モデルが骨格、関節、臓器などの器官に細かく分割されていると共に、3次元人体モデルをVRシミュレータや3次元造形などのアプリケーションで利用するための具現化情報を有する必要がある。   In order to perform such a surgical training to a doctor more realistically, a three-dimensional human body model is finely divided into organs such as a skeleton, a joint, and an organ, and the three-dimensional human body model is converted into a VR simulator or a three-dimensional modeling. It is necessary to have realization information for use in applications such as.

ここで3次元人体モデルをVRシミュレータや3次元造形などのアプリケーションで利用するための具現化情報とは、3次元人体モデルをバーチャルリアリティへ適用する場合、テクスチャとテクスチャの添付手法等である。さらにVRシミュレータへ適用する場合は、心臓の拍動数や血圧等の生理学的情報、臓器や骨格の接続情報、解剖学的情報、臓器や骨格のヤング率、ポアソン比、及びばね質点モデルを用いた力学シミュレーションにおけるばね定数や減衰係数等の物理特性情報である。3次元造形へ適用する場合は、光造形用の樹脂、サポート形状および色等である。   Here, the realization information for using the 3D human body model in an application such as a VR simulator or 3D modeling is a texture-texture attachment method or the like when the 3D human body model is applied to virtual reality. Furthermore, when applied to a VR simulator, physiological information such as heart rate and blood pressure, organ and skeleton connection information, anatomical information, organ and skeleton Young's modulus, Poisson's ratio, and spring mass model are used. This is physical property information such as a spring constant and a damping coefficient in the dynamic simulation. In the case of application to three-dimensional modeling, resin for optical modeling, support shape, color, and the like.

特開平11−231770号公報JP-A-11-231770

ところで3次元人体モデルを生成する従来の3次元人体モデル生成装置では、CT(Computed Tomography)装置又はMRI(Magnetic Resonance Imaging)装置により被検者の主に胸部が撮像された3次元画像データを基に3次元人体モデルを生成する際、当該3次元画像データから臓器や関節、並びに接続情報等を容易に抽出することができないため、ユーザに手作業で当該臓器や関節、並びに接続情報等を抽出させる場面が多くなる。   By the way, in a conventional 3D human body model generation apparatus that generates a 3D human body model, 3D image data obtained by imaging a chest mainly of a subject by a CT (Computed Tomography) apparatus or an MRI (Magnetic Resonance Imaging) apparatus is used as a basis. When generating a 3D human body model, it is not possible to easily extract organs, joints, and connection information from the 3D image data. Therefore, the user manually extracts the organs, joints, connection information, etc. More scenes to make.

具体的には、3次元人体モデル生成装置は、3次元画像データの濃淡を基に対象臓器を抽出した後、抽出欠損や誤抽出をユーザに手作業で修正させる。また3次元人体モデル生成装置は、3次元画像データから抽出した骨格から形態学的な位置関係によりユーザに手作業で骨格の区分を行わせ、当該区分された骨格を基に関節を抽出する。さらに3次元人体モデル生成装置は、3次元画像データから抽出された臓器、骨格及び関節を形態学的位置関係に照らし合わせて接続情報をユーザに手作業で抽出させた後、当該臓器、骨格及び関節に対して物理特性情報を添付する。   Specifically, the three-dimensional human body model generation apparatus extracts a target organ based on the shading of three-dimensional image data, and then manually corrects an extraction defect or erroneous extraction. The three-dimensional human body model generation apparatus causes the user to manually classify the skeleton from the skeleton extracted from the three-dimensional image data according to the morphological positional relationship, and extracts a joint based on the classified skeleton. Furthermore, the 3D human body model generation apparatus manually extracts connection information by comparing the organs, skeletons, and joints extracted from the 3D image data with morphological positional relationships, and then extracts the organs, skeletons, and joints. Attach physical property information to the joint.

このように従来の3次元人体モデル生成装置では、3次元人体モデルを生成する際、多大な時間及び煩雑な作業をユーザに強いることになり、容易に被検者ごとの3次元人体モデルを生成することができないという問題があった。   Thus, in the conventional three-dimensional human body model generation device, when generating a three-dimensional human body model, the user is forced to take a lot of time and troublesome work, and easily generate a three-dimensional human body model for each subject. There was a problem that could not be done.

また上述したように被検者ごとの3次元人体モデルを容易に生成することができないので、VRシミュレータは、特定の3次元人体モデルを用いたトレーニングしか医師に行わせることができず、限定された状況でのトレーニングのみを行わせることになる。   In addition, as described above, since a three-dimensional human model for each subject cannot be easily generated, the VR simulator can only allow a doctor to perform training using a specific three-dimensional human model and is limited. Will only be trained in a particular situation.

従ってVRシミュレータは、そのトレーニング効果にも限界が見え始めており、CT装置やMRI装置により撮像された3次元画像データから容易に被検者ごとの3次元人体モデルを生成できる3次元人体モデル生成装置の開発が望まれていた。   Therefore, the VR simulator is beginning to see a limit in its training effect, and a 3D human body model generation device that can easily generate a 3D human body model for each subject from 3D image data captured by a CT apparatus or an MRI apparatus. Development of was desired.

本発明は以上の点を考慮してなされたもので、被検者ごとの3次元人体モデルを容易に生成し得る3次元人体モデル生成装置、3次元人体モデル生成方法及び3次元人体モデル生成プログラムを提案しようとするものである。   The present invention has been made in consideration of the above points, and a three-dimensional human body model generation device, a three-dimensional human body model generation method, and a three-dimensional human body model generation program capable of easily generating a three-dimensional human body model for each subject. Is to try to propose.

かかる課題を解決するため本発明においては、人体の断層像を示す3次元画像データから体内空間を抽出し、体内空間データと当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルの体内領域データを体内空間抽出ステップにより抽出された体内空間に合わせるように変形させるようにした。因みに3次元標準人体モデルは、性別、年齢及び病変毎に標準とされる位置及び大きさの各器官で構成される。   In order to solve this problem, in the present invention, body space is extracted from three-dimensional image data showing a tomographic image of a human body, and body region data including body space data and organ data associated with the body space data is obtained. The in-vivo region data of the three-dimensional standard human body model provided is transformed to match the in-vivo space extracted by the in-vivo space extraction step. Incidentally, the three-dimensional standard human body model is composed of organs whose positions and sizes are standard for each sex, age, and lesion.

また本発明においては、人体の断層像を示す3次元画像データから骨格を抽出し、骨格抽出ステップにより抽出された骨格から複数の肋骨を同定し、当該複数の肋骨に囲まれた体内空間を抽出し、体内空間データと、当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルの体内領域データを肋骨同定部により抽出された体内空間に合わせるように変形させるようにした。   In the present invention, a skeleton is extracted from three-dimensional image data representing a tomogram of a human body, a plurality of ribs are identified from the skeleton extracted in the skeleton extraction step, and a body space surrounded by the plurality of ribs is extracted. The body region data of the 3D standard human body model including body region data including body space data and each organ data associated with the body space data is transformed to match the body space extracted by the rib identification unit. I tried to make it.

これにより、3次元画像データに基づいた体内空間に、3次元標準人体モデルにおける当該体内空間に対応した体内領域が合うように、当該3次元標準人体モデルを変形することにより、被検者ごとの3次元人体モデルを生成することができる。   Thus, by deforming the three-dimensional standard human body model so that the body region corresponding to the body space in the three-dimensional standard human body model matches the body space based on the three-dimensional image data, A three-dimensional human body model can be generated.

本発明によれば、3次元画像データに基づいた体内空間に3次元標準人体モデルにおける当該体内空間に対応した体内領域が合うように、当該3次元標準人体モデルを変形することにより、被検者ごとの臓器、骨格、関節等の器官も含む3次元人体モデルを生成することができ、かくして被検者ごとの3次元人体モデルを容易に生成し得る3次元人体モデル生成装置、3次元人体モデル生成方法及び3次元人体モデル生成プログラムを実現できる。   According to the present invention, the subject is deformed so that the body area corresponding to the body space in the 3D standard human body model matches the body space based on the 3D image data. 3D human body model that can generate a 3D human body model including organs such as organs, skeletons, and joints, and can easily generate a 3D human body model for each subject. A generation method and a three-dimensional human body model generation program can be realized.

3次元人体モデル生成装置の構成を示す略線図である。It is a basic diagram which shows the structure of a three-dimensional human body model production | generation apparatus. 第1の実施の形態におけるCPUの機能的構成を示す略線図である。It is a basic diagram which shows the functional structure of CPU in 1st Embodiment. 3次元画像データに基づく水平断面画像、矢状断面画像及び前額断面画像を示す略線図である。It is an approximate line figure showing a horizontal section picture based on three-dimensional image data, a sagittal section picture, and a forehead section image. 2値化画像を示す略線図である。It is a basic diagram which shows a binarized image. 3次元骨格モデルを示す略線図である。It is a basic diagram which shows a three-dimensional skeleton model. 3次元骨格モデルの椎体同定の様子を示す略線図である。It is a basic diagram which shows the mode of the vertebral body identification of a three-dimensional skeleton model. 3次元骨格モデルの肋骨同定の様子を示す略線図である。It is a basic diagram which shows the mode of the rib identification of a three-dimensional skeleton model. 3次元同定モデル及び3次元標準人体モデルを示す略線図である。It is a basic diagram which shows a three-dimensional identification model and a three-dimensional standard human body model. 上下方向への変形の様子(1)を示す略線図である。It is a basic diagram which shows the mode (1) of a deformation | transformation to an up-down direction. 上下方向への変形の様子(2)を示す略線図である。It is a basic diagram which shows the mode (2) of a deformation | transformation to an up-down direction. 前後方向への変形の様子(1)を示す略線図である。It is a basic diagram which shows the mode (1) of a deformation | transformation to the front-back direction. 前後方向への変形の様子(2)を示す略線図である。It is a basic diagram which shows the mode (2) of a deformation | transformation to the front-back direction. 左右方向への変形の様子(1)を示す略線図である。It is a basic diagram which shows the mode (1) of a deformation | transformation to the left-right direction. 左右方向への変形の様子(2)を示す略線図である。It is a basic diagram which shows the mode (2) of a deformation | transformation to the left-right direction. 肋骨の変形の様子を示す略線図である。It is a basic diagram which shows the mode of a deformation | transformation of a rib. 3次元人体モデル生成処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a three-dimensional human body model production | generation process procedure. 骨格抽出処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a skeleton extraction process procedure. 椎体同定処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a vertebral body identification processing procedure. 肋骨同定処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a rib identification processing procedure. 人体モデル変形処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a human body model deformation | transformation process procedure. 第2の実施の形態におけるCPUの機能的構成を示す略線図である。It is a basic diagram which shows the functional structure of CPU in 2nd Embodiment. 3次元画像データに基づく水平断面図である。It is a horizontal sectional view based on three-dimensional image data. 3次元骨格・体表モデルを示す略線図である。It is a basic diagram which shows a three-dimensional skeleton and body surface model. 3次元同定モデル及び3次元標準人体モデルを示す略線図である。It is a basic diagram which shows a three-dimensional identification model and a three-dimensional standard human body model. 3次元人体モデル生成処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a three-dimensional human body model production | generation process procedure. 骨格・体表抽出処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a skeleton and body surface extraction process procedure. 椎体同定処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a vertebral body identification processing procedure. 体内空間抽出処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a body space extraction process procedure. 人体モデル変形処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a human body model deformation | transformation process procedure. 第3の実施の形態におけるCPUの機能的構成を示す略線図である。It is a basic diagram which shows the functional structure of CPU in 3rd Embodiment. 3次元骨格・筋モデルを示す略線図である。It is a basic diagram which shows a three-dimensional skeleton and muscle model. 3次元骨格・筋モデルの水平断面を示す略線図である。It is a basic diagram which shows the horizontal cross section of a three-dimensional skeleton and a muscle model. 3次元同定モデル及び3次元標準人体モデルを示す略線図である。It is a basic diagram which shows a three-dimensional identification model and a three-dimensional standard human body model. 3次元人体モデル生成処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a three-dimensional human body model production | generation process procedure. 骨格・筋抽出処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a skeletal / muscle extraction processing procedure. 椎体同定処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a vertebral body identification processing procedure. 体内空間抽出処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a body space extraction process procedure. 人体モデル変形処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a human body model deformation | transformation process procedure. 第4の実施の形態におけるCPUの機能的構成を示す略線図である。It is a basic diagram which shows the functional structure of CPU in 4th Embodiment. 3次元骨格・筋モデルを示す略線図である。It is a basic diagram which shows a three-dimensional skeleton and muscle model. 第17椎体、仙骨及び尾骨の特徴点を示す略線図である。It is a basic diagram which shows the feature point of a 17th vertebral body, a sacrum, and a coccyx. 3次元骨格・筋モデルにおける水平断面を示す略線図である。It is a basic diagram which shows the horizontal cross section in a three-dimensional skeleton and muscle model. 3次元同定モデル及び3次元標準人体モデルを示す略線図である。It is a basic diagram which shows a three-dimensional identification model and a three-dimensional standard human body model. 3次元人体モデル生成処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a three-dimensional human body model production | generation process procedure. 骨格・筋抽出処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a skeletal / muscle extraction processing procedure. 椎体同定処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a vertebral body identification processing procedure. 体内空間抽出処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a body space extraction process procedure. 人体モデル変形処理手順の説明に供するフローチャートである。It is a flowchart with which it uses for description of a human body model deformation | transformation process procedure.

以下に、図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

<1.第1の実施の形態>
(1)3次元人体モデル生成装置の構成
図1に示すように、1は全体として3次元人体モデル生成装置を示し、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、インターフェース部14、記憶部15及び表示部16がバス17を介して接続されている。
<1. First Embodiment>
(1) Configuration of 3D Human Body Model Generation Device As shown in FIG. 1, reference numeral 1 denotes a 3D human body model generation device as a whole, which includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, interface unit 14, storage unit 15 and display unit 16 are connected via a bus 17.

この3次元人体モデル生成装置1は、CPU11がROM12に格納された基本プログラムを読み出してRAM13に展開し、当該基本プログラムに従って全体を統括制御すると共に、ROM12又は記憶部15に格納された各種アプリケーションプログラムをRAM13に展開し、当該各種アプリケーションプログラムに従って各種処理を実行するようになされている。   In the three-dimensional human body model generation device 1, the CPU 11 reads out a basic program stored in the ROM 12, expands it in the RAM 13, and performs overall control according to the basic program, and various application programs stored in the ROM 12 or the storage unit 15. Are expanded in the RAM 13 and various processes are executed in accordance with the various application programs.

3次元人体モデル生成装置1は、インターフェース部14を介して外部機器と接続されるようになされており、例えばCT装置やMRI装置により撮像された3次元画像データを取得したり、後述する3次元人体モデル生成処理により生成された3次元被検者モデルをVRシミュレータに出力し得るようになされている。   The three-dimensional human body model generation apparatus 1 is connected to an external device via the interface unit 14, and acquires, for example, three-dimensional image data captured by a CT apparatus or an MRI apparatus, or a three-dimensional image described later. The three-dimensional subject model generated by the human body model generation process can be output to the VR simulator.

また3次元人体モデル生成装置1は、インターフェース部14を介して取得した3次元画像データ、及び3次元人体モデル生成処理により生成された3次元被検者モデル等を記憶部15に記憶し、また当該3次元画像データや3次元被検者モデル等を表示部16に表示し得るようになされている。   The three-dimensional human body model generation device 1 stores the three-dimensional image data acquired through the interface unit 14 and the three-dimensional subject model generated by the three-dimensional human body model generation process in the storage unit 15. The three-dimensional image data, the three-dimensional subject model, and the like can be displayed on the display unit 16.

(2)3次元人体モデル生成処理
CPU11は、ROM12に格納された3次元人体モデル生成処理プログラムをRAM13に展開した場合、当該3次元人体モデル生成処理プログラムに基づいてインターフェース部14、記憶部15及び表示部16を適宜制御し、3次元人体モデル生成処理を実行するようになされている。
(2) Three-dimensional human body model generation processing When the CPU 11 expands the three-dimensional human body model generation processing program stored in the ROM 12 in the RAM 13, the interface unit 14, the storage unit 15 and the The display unit 16 is appropriately controlled to execute a three-dimensional human body model generation process.

このCPU11は、3次元人体モデル生成処理を実行する際、図2に示すように、骨格抽出部21、椎体同定部22、肋骨同定部23、及び人体モデル変形部24として機能するようになされている。   When executing the three-dimensional human body model generation process, the CPU 11 functions as a skeleton extraction unit 21, a vertebral body identification unit 22, a rib identification unit 23, and a human body model deformation unit 24 as shown in FIG. ing.

(2−1)骨格抽出処理
CPU11は、3次元人体モデル生成処理を実行すると、骨格抽出部21により骨格抽出処理を実行する。この骨格抽出処理について詳しく説明する。
(2-1) Skeletal Extraction Processing When the CPU 11 executes the three-dimensional human body model generation processing, the skeleton extraction processing is executed by the skeleton extraction unit 21. This skeleton extraction process will be described in detail.

3次元人体モデル生成装置1は、CT装置やMRI装置によって例えば被検者の胸部が所定のスライス幅で撮像されることにより得られた断面画像が多数積層してなる3次元画像データD1を記憶部15に記憶しておく。   The three-dimensional human body model generation apparatus 1 stores three-dimensional image data D1 formed by laminating a number of cross-sectional images obtained by, for example, imaging a subject's chest with a predetermined slice width by a CT apparatus or an MRI apparatus. Stored in the unit 15.

この3次元画像データD1は、例えばDICOM(Digital Imaging and Communications in Medicine)規格に準拠したデータ形式でなり、付帯情報として患者情報、検査情報、撮影条件等が含まれる。   The three-dimensional image data D1 is in a data format conforming to, for example, DICOM (Digital Imaging and Communications in Medicine) standard, and includes patient information, examination information, imaging conditions, and the like as incidental information.

骨格抽出部21は、骨格抽出処理を実行すると、記憶部15から3次元画像データD1を読み出し、当該3次元画像データD1に基づいてボリュームデータを作成し、当該ボリュームデータを3方向へスライスすることにより、図3に示すように、当該3次元画像データD1に基づく水平断面画像CG1、矢状断面画像CG2及び前額断面画像CG3を作成して表示部16に表示する。   When executing the skeleton extraction process, the skeleton extraction unit 21 reads the three-dimensional image data D1 from the storage unit 15, creates volume data based on the three-dimensional image data D1, and slices the volume data in three directions. Thus, as shown in FIG. 3, a horizontal cross-sectional image CG1, a sagittal cross-sectional image CG2, and a forehead cross-sectional image CG3 based on the three-dimensional image data D1 are created and displayed on the display unit 16.

ここで3次元画像データD1は、水平断面画像CG1と、矢状断面画像CG2と、前額断面画像CG3とによって、体内の3次元的な位置における画素点に対応する生体組織を輝度(従って画像の濃淡レベル)によって表現している。   Here, the three-dimensional image data D1 is obtained by using the horizontal cross-sectional image CG1, the sagittal cross-sectional image CG2, and the forehead cross-sectional image CG3 to indicate the luminance (accordingly, the image) (Shading level).

ところで3次元画像データD1が例えばCT装置によって撮像された場合、当該3次元画像データD1では、X線の吸収率が高い骨格が白く写り、X線の吸収率が低い部分である空気などが黒く写り、その中間の吸収率である臓器や筋肉が白と黒との中間色(灰色)で写る。   When the 3D image data D1 is captured by, for example, a CT apparatus, in the 3D image data D1, a skeleton with a high X-ray absorption rate appears white, and air, which is a portion with a low X-ray absorption rate, appears black. The organs and muscles, which have an intermediate absorption rate, are reflected in an intermediate color (gray) between white and black.

また3次元画像データD1がMRI装置によって撮像された場合であっても、骨格とその他の部分との濃淡レベルが大きく異なる。   Even when the three-dimensional image data D1 is captured by the MRI apparatus, the light and shade levels of the skeleton and other portions are greatly different.

そこで骨格抽出部21は、3次元画像データD1に映し出された骨格の濃淡レベルが「1」となり、その他の組織の濃淡レベルが「0」となるような所定の上限閾値及び下限閾値を基準として2値化処理を施す。   Therefore, the skeleton extraction unit 21 uses a predetermined upper threshold value and lower threshold value such that the gray level of the skeleton displayed in the three-dimensional image data D1 is “1” and the gray level of other tissues is “0”. Binarization processing is performed.

因みに3次元画像データD1に映し出された骨格の濃淡レベルが上限閾値と下限閾値との間となり、その他の組織の濃淡レベルが上限閾値を超える又は下限閾値未満となるように、上限閾値及び下限閾値が設定されている。   Incidentally, the upper and lower thresholds are set so that the gray level of the skeleton displayed in the three-dimensional image data D1 is between the upper threshold and the lower threshold, and the gray levels of other tissues are higher than the lower threshold or lower than the lower threshold. Is set.

骨格抽出部21は、2値化処理を施した結果、図4に示すように、骨格が白色(濃淡レベルが「1」)となり、当該骨格を除くすべてが黒色(濃淡レベルが「0」)となる2値化画像BWGを生成し、当該2値化画像BWGを表示部16に表示する。   As a result of performing the binarization processing, the skeleton extraction unit 21 has a white skeleton (lightness level “1”) and all except the skeleton is black (lightness level “0”) as illustrated in FIG. 4. The binarized image BWG is generated, and the binarized image BWG is displayed on the display unit 16.

そして骨格抽出部21は、図5に示すように、2値化処理によって得られた2値化画像BWGの濃淡レベルが「1」(白色)である画素を抽出し、その画素に対応するボクセルを生成して3次元的に配置することにより、骨格31が3次元でモデル化された3次元骨格モデル30を生成し、当該3次元骨格モデル30のデータ(以下、これを3次元骨格モデルデータとも呼ぶ)D11(図2)を記憶部15に記憶し、骨格抽出処理を終了する。   Then, as shown in FIG. 5, the skeleton extraction unit 21 extracts a pixel whose gray level of the binarized image BWG obtained by the binarization process is “1” (white), and the voxel corresponding to the pixel Are generated and arranged three-dimensionally to generate a three-dimensional skeleton model 30 in which the skeleton 31 is modeled in three dimensions, and the data of the three-dimensional skeleton model 30 (hereinafter referred to as three-dimensional skeleton model data). (Also referred to as D11) (FIG. 2) is stored in the storage unit 15, and the skeleton extraction process is terminated.

因みに、各ボクセルには、当該ボクセルの特性を表す固有の値(以下、これをボクセル値とも呼ぶ)を付加し得るようになされており、骨格31に対応する各ボクセルには、例えば、当該各ボクセルが骨格31であることを示すボクセル値が付加されている。   Incidentally, each voxel can be added with a unique value representing the characteristic of the voxel (hereinafter also referred to as a voxel value), and each voxel corresponding to the skeleton 31 has, for example, each of the voxels. A voxel value indicating that the voxel is the skeleton 31 is added.

また骨格抽出部21は、3次元画像データD1に含まれる撮影条件に基づく前後、上下、左右の向きと、断面画像のスライス幅及び当該断面画像の画素サイズに基づく実寸法とを持つ座標系に3次元骨格モデル30の座標系を変換する。   The skeleton extraction unit 21 has a coordinate system having front and rear, top and bottom, left and right orientations based on the imaging conditions included in the three-dimensional image data D1, and actual dimensions based on the slice width of the cross-sectional image and the pixel size of the cross-sectional image. The coordinate system of the three-dimensional skeleton model 30 is converted.

このようにして骨格抽出部21は、CT装置やMRI装置から得られた3次元画像データD1に対して2値化処理を施し、その結果得られる2値化画像BWGから被検者の骨格31を抽出して3次元骨格モデル30を生成する。   In this way, the skeleton extraction unit 21 performs binarization processing on the three-dimensional image data D1 obtained from the CT apparatus or the MRI apparatus, and the skeleton 31 of the subject from the binarized image BWG obtained as a result. Is extracted to generate a three-dimensional skeleton model 30.

(2−2)椎体同定処理
CPU11は、骨格抽出処理を終了すると、椎体同定部22(図2)により椎体同定処理を実行する。この椎体同定処理について詳しく説明する。
(2-2) Vertebral body identification process CPU11 will perform a vertebral body identification process by the vertebral body identification part 22 (FIG. 2), if complete | finishing a skeleton extraction process. This vertebral body identification process will be described in detail.

椎体同定部22は、記憶部15に記憶された3次元骨格モデルデータD11を読み出し、当該3次元骨格モデルデータD11に基づく3次元骨格モデル30から椎体を同定する。   The vertebral body identification unit 22 reads the 3D skeleton model data D11 stored in the storage unit 15, and identifies a vertebral body from the 3D skeleton model 30 based on the 3D skeleton model data D11.

ここで人の脊柱は、複数の椎体が軟性組織である椎間板によって連結されている。従って骨格抽出部21により3次元画像データD1に対して2値化処理が施された際、軟性組織である椎間板は濃淡レベルが「0」となるので、骨格として抽出されることはない。従って3次元骨格モデル30では、複数の椎体が連結されることなくそれぞれ独立して抽出される。   Here, the human spinal column is connected by an intervertebral disc in which a plurality of vertebral bodies are soft tissues. Therefore, when the skeleton extraction unit 21 performs binarization processing on the three-dimensional image data D1, the intervertebral disc that is a soft tissue has a gray level of “0” and is not extracted as a skeleton. Therefore, in the three-dimensional skeleton model 30, a plurality of vertebral bodies are extracted independently without being connected.

また人の椎体の形状は類似形であることから、椎体同定部22は、予め記憶部15に記憶された椎体テンプレートデータD2を読み出し、当該椎体テンプレートデータD2に基づく標準的な椎体形状をした椎体テンプレートと、3次元骨格モデル30とをパターンマッチングし、その結果として略円柱状でなる複数の椎体を検出する。   Further, since the shape of the human vertebral body is similar, the vertebral body identification unit 22 reads out the vertebral body template data D2 stored in the storage unit 15 in advance, and a standard vertebral body based on the vertebral body template data D2 is read out. Pattern matching is performed between the vertebral body template having a body shape and the three-dimensional skeleton model 30, and as a result, a plurality of vertebral bodies having a substantially cylindrical shape are detected.

そして椎体同定部22は、検出した複数の椎体の形態学的な中点を特徴点として検出すると共に、検出した複数の椎体を形態学的な特徴に基づいて同定する。ここで、椎体の形態学的な中点とは、椎体に内接する直方体の重心等であり、形態学的な特徴に基づいて検出される。   The vertebral body identifying unit 22 detects the morphological midpoints of the detected plurality of vertebral bodies as feature points, and identifies the detected plurality of vertebral bodies based on the morphological characteristics. Here, the morphological midpoint of the vertebral body is the center of gravity of a rectangular parallelepiped inscribed in the vertebral body and is detected based on the morphological characteristics.

具体的には、椎体同定部22は、検出した複数の椎体の中に、頚椎、胸椎及び腰椎の椎体の全てが検出されていた場合、上から順に複数の椎体をそれぞれ同定する。   Specifically, when all of the vertebral bodies of the cervical vertebra, the thoracic vertebra, and the lumbar vertebra are detected in the detected plurality of vertebral bodies, the vertebral body identifying unit 22 identifies the plurality of vertebral bodies in order from the top. .

また椎体同定部22は、図6に示すように、検出した複数の椎体の中に、頚椎、胸椎及び腰椎の椎体の全てが検出されていない場合、椎体の中に左右に伸びる骨格があり、そのような骨格が上側及び下側にも存在する場合、上中位の胸椎の椎体として第1胸椎の椎体32A〜第8胸椎の椎体32Hのいずれかであると同定する。   As shown in FIG. 6, the vertebral body identifying unit 22 extends left and right into the vertebral body when all of the vertebral bodies of the cervical vertebra, the thoracic vertebra and the lumbar vertebra are not detected in the detected plurality of vertebral bodies. If there is a skeleton and such skeletons are also present on the upper and lower sides, the vertebral body of the upper thoracic vertebra is identified as one of the vertebral bodies 32A of the first thoracic vertebra to the vertebral body 32H of the eighth thoracic vertebra. To do.

また椎体同定部22は、左右に伸びる骨格がある椎体で、上側にだけ左右に伸びる骨格が存在する場合、下位の胸椎の椎体として第10胸椎の椎体32J〜第12胸椎の椎体32Lのいずれかであると同定する。   The vertebral body identification unit 22 is a vertebral body having a skeleton extending to the left and right, and when a skeleton extending only to the left and right is present, the vertebral body of the tenth thoracic vertebra 32J to the vertebrae of the twelfth thoracic vertebra It is identified as any of the body 32L.

因みに右第10肋骨34J及び左第10肋骨35J(図7)は、第9胸椎の椎体32I及び第10胸椎の椎体32Jにまたがっている場合と、第9胸椎の椎体32Iまで伸び出していない場合とがあるため、上述のように上中位及び下位のどちらの属性に含まれるか同定しない。   Incidentally, the right tenth rib 34J and the left tenth rib 35J (FIG. 7) extend over the vertebral body 32I of the ninth thoracic vertebra 32I and the vertebral body 32I of the ninth thoracic vertebra. In some cases, it is not identified whether the attribute is included in the upper, middle, or lower attributes as described above.

なお椎体同定部22は、椎体の形状や傾き、椎体以外の骨格の位置情報、並びに3次元画像データD1を基に、ユーザにより第1胸椎の椎体32A〜第12胸椎の椎体32Lを同定させるようにしても良い。なお、以下の説明では第1胸椎の椎体32A〜第12胸椎の椎体32Lをそれぞれ第1椎体32A〜第12椎体32Lとも呼ぶ。   The vertebral body identification unit 22 uses the vertebral bodies of the first thoracic vertebra 32A to the 12th thoracic vertebra based on the shape and inclination of the vertebral body, the position information of the skeleton other than the vertebral body, and the three-dimensional image data D1. 32L may be identified. In the following description, the first thoracic vertebral body 32A to the twelfth thoracic vertebral body 32L are also referred to as the first vertebral body 32A to the twelfth vertebral body 32L, respectively.

このようにして椎体同定部22は、検出した複数の椎体の中から例えば第1椎体32A〜第12椎体32Lをそれぞれ同定する。また椎体同定部22は、同定した第1椎体32A〜第12椎体32Lの特徴点を第1特徴点33A〜第12特徴点33Lとして検出する。   In this way, the vertebral body identification unit 22 identifies, for example, the first vertebral body 32A to the twelfth vertebral body 32L from among the plurality of detected vertebral bodies. The vertebral body identification unit 22 detects the feature points of the identified first vertebral body 32A to twelfth vertebral body 32L as the first feature point 33A to the twelfth feature point 33L.

そして椎体同定部22は、同定した第1椎体32A〜第12椎体32Lの位置情報及び解剖学的名称、及び第1特徴点33A〜第12特徴点33Lの位置情報を椎体情報D12として記憶部15に記憶し、椎体同定処理を終了する。   Then, the vertebral body identification unit 22 obtains the positional information and anatomical names of the identified first vertebral body 32A to twelfth vertebral body 32L and the positional information of the first feature point 33A to twelfth feature point 33L as vertebral body information D12. Is stored in the storage unit 15 and the vertebral body identification process is terminated.

(2−3)肋骨同定処理
CPU11は、椎体同定処理を終了すると、肋骨同定部23(図2)により肋骨同定処理を実行する。この肋骨同定処理について詳しく説明する。
(2-3) Rib Identification Process When the CPU 11 finishes the vertebral body identification process, the rib identification unit 23 (FIG. 2) executes the rib identification process. This rib identification process will be described in detail.

肋骨同定部23は、記憶部15に記憶された3次元骨格モデルデータD11、及び椎体情報D12を読み出し、3次元骨格モデル30の骨格31から椎体情報D12に基づいて肋骨を同定する。   The rib identification unit 23 reads the three-dimensional skeleton model data D11 and the vertebral body information D12 stored in the storage unit 15 and identifies the ribs from the skeleton 31 of the three-dimensional skeleton model 30 based on the vertebral body information D12.

ここで、人の肋骨は、椎体の一部である胸椎から左右に伸びる弓形の骨格である。そこで肋骨同定部23は、3次元骨格モデルデータD11に基づく3次元骨格モデル30の骨格31に対して、椎体情報D12に基づく第1椎体32A〜第12椎体32Lのそれぞれを起点として左右方向に伸びる骨格31の一部分を検出し、その検出した部分を起点として骨格31部分をトレースしていくことにより、図7に示すように、右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lを同定する。   Here, the human rib is an arcuate skeleton that extends from the thoracic vertebra, which is a part of the vertebral body, to the left and right. Therefore, the rib identifying unit 23 starts and ends with respect to the skeleton 31 of the three-dimensional skeleton model 30 based on the three-dimensional skeleton model data D11, starting from each of the first vertebral body 32A to the twelfth vertebral body 32L based on the vertebral body information D12. By detecting a part of the skeleton 31 extending in the direction and tracing the skeleton 31 from the detected part as a starting point, as shown in FIG. 7, the right first rib 34A to the right twelfth rib 34L and the left first rib The first rib 35A to the left twelfth rib 35L are identified.

因みに人の肋骨は肋軟骨を介して胸骨36と接続されており、当該肋軟骨は骨格抽出部21により3次元画像データD1に対して2値化処理が施された際、濃淡レベルが「0」となるので骨格31として抽出されることはない。従って3次元骨格モデル30は、右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lだけを抽出し得るようになされている。   Incidentally, the human rib is connected to the sternum 36 via the costal cartilage, and when the costal cartilage is binarized by the skeleton extraction unit 21 with respect to the three-dimensional image data D1, the density level is “0”. Therefore, the skeleton 31 is not extracted. Accordingly, the three-dimensional skeleton model 30 can extract only the right first rib 34A to the right twelfth rib 34L and the left first rib 35A to the left twelfth rib 35L.

肋骨同定部23は、同定した右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lのそれぞれについて、所定間隔ごとに前額断面を検出し、当該前額断面の中心点を曲線補間することにより中心線(図示せず)を検出する。   The rib identification unit 23 detects a forehead cross section at predetermined intervals for each of the identified right first rib 34A to right twelfth rib 34L and left first rib 35A to left twelfth rib 35L, and the forehead cross section. A center line (not shown) is detected by interpolating the center point of the curve.

次に肋骨同定部23は、同定した右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lに内接する体内空間を抽出する。   Next, the rib identifying unit 23 extracts a body space inscribed in the identified right first rib 34A to right twelfth rib 34L and left first rib 35A to left twelfth rib 35L.

具体的には、肋骨同定部23は、右第1肋骨34A及び左第1肋骨35Aに内接する略楕円形状の曲面(図示せず)を抽出する。ここで右第1肋骨34Aと左第1肋骨35Aとが連結されていないので、肋骨同定部23は、右第1肋骨34A及び左第1肋骨35Aの第1椎体32A側の一端同士を第1特徴点33Aを通るように曲線により補間して接続し、また前方端側についても胸骨36を通るように曲線により補間することにより、右第1肋骨34A及び左第1肋骨35Aに内接する略楕円形状の曲面を抽出する。   Specifically, the rib identification unit 23 extracts a substantially elliptic curved surface (not shown) inscribed in the right first rib 34A and the left first rib 35A. Here, since the right first rib 34A and the left first rib 35A are not connected, the rib identifying unit 23 first connects one ends of the right first rib 34A and the left first rib 35A on the first vertebral body 32A side. By interpolating with a curve so as to pass through one feature point 33A and also interpolating with a curve so as to pass through the sternum 36 also on the front end side, it is substantially inscribed in the right first rib 34A and the left first rib 35A. Extract an elliptical curved surface.

ここで前方端側の曲線による補間に用いる胸骨36は、3次元骨格モデル30の骨格31から胸椎の高さ位置で前方にあるものを胸骨柄、胸骨体及び剣状突起を区別せずに全て胸骨として同定される。   Here, the sternum 36 used for the interpolation by the curve on the front end side is all the sternum pattern, the sternum body, and the xiphoid process without distinguishing the sternum pattern, the sternum body, and the xiphoid process from the skeleton 31 of the three-dimensional skeleton model 30 at the height position of the thoracic vertebra Identified as sternum.

同様にして肋骨同定部23は、右第2肋骨34B及び左第2肋骨35Bから右第12肋骨34L及び左第12肋骨35Lまでのそれぞれに内接する略楕円形状の曲面を抽出する。ここで、肋骨の前方端の先に胸骨36がない場合、特に右第6肋骨34F及び左第6肋骨35Fから右第12肋骨34L及び左第12肋骨35Lまでの場合、前方端からの外挿により内接する略楕円形状の曲面を抽出する。このように肋骨同定部23は、右第1肋骨34A及び左第1肋骨35Aから右第12肋骨34L及び左第12肋骨35Lまでにそれぞれ内接する上下方向に積層された12の曲面を抽出する。   Similarly, the rib identifying unit 23 extracts a substantially elliptical curved surface inscribed in each of the right second rib 34B and the left second rib 35B to the right twelfth rib 34L and the left twelfth rib 35L. Here, when the sternum 36 is not present at the tip of the front end of the rib, particularly when the right sixth rib 34F and the left sixth rib 35F to the right twelfth rib 34L and the left twelfth rib 35L, extrapolation from the front end is performed. To extract a substantially elliptical curved surface inscribed. In this way, the rib identification unit 23 extracts 12 curved surfaces stacked in the vertical direction inscribed from the right first rib 34A and the left first rib 35A to the right twelfth rib 34L and the left twelfth rib 35L.

そして肋骨同定部23は、抽出した12の曲面が上下方向に積層してなる3次元空間のうち、上下方向に第1特徴点33Aから第12特徴点33Lまでの空間を体内空間37(図8(A)及び(B))として抽出する。   Then, the rib identifying unit 23 sets the space from the first feature point 33A to the twelfth feature point 33L in the up-down direction in the three-dimensional space formed by stacking the extracted 12 curved surfaces in the up-down direction (see FIG. 8). Extracted as (A) and (B)).

肋骨同定部23は、3次元骨格モデル30の骨格31から同定した胸骨36、右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lの位置情報及び中心線情報を肋骨情報D13として記憶部15に記憶する。   The rib identification unit 23 includes position information and centerline information of the sternum 36 identified from the skeleton 31 of the three-dimensional skeleton model 30, the right first rib 34A to the right twelfth rib 34L, and the left first rib 35A to the left twelfth rib 35L. Is stored in the storage unit 15 as rib information D13.

また肋骨同定部23は、右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lに内接する体内空間37の位置情報を体内空間情報D14として記憶部15に記憶し、肋骨同定処理を終了する。   The rib identification unit 23 stores the positional information of the body space 37 inscribed in the right first rib 34A to the right twelfth rib 34L and the left first rib 35A to the left twelfth rib 35L in the storage unit 15 as the body space information D14. Then, the rib identification process is terminated.

(2−4)人体モデル変形処理
CPU11は、肋骨同定処理を終了すると、人体モデル変形部24(図2)により人体モデル変形処理を実行する。この人体モデル変形処理について詳しく説明する。
(2-4) Human body model deformation | transformation process CPU11 will perform a human body model deformation | transformation process by the human body model deformation | transformation part 24 (FIG. 2), after complete | finishing a rib identification process. This human body model deformation process will be described in detail.

人体モデル変形部24は、骨格抽出部21により生成された3次元骨格モデルデータD11、椎体同定部22により生成された椎体情報D12、及び肋骨同定部23により生成された肋骨情報D13及び体内空間情報D14を記憶部15から読み出す。   The human body model deforming unit 24 includes the three-dimensional skeleton model data D11 generated by the skeleton extracting unit 21, the vertebral body information D12 generated by the vertebral body identifying unit 22, the rib information D13 generated by the rib identifying unit 23, The spatial information D14 is read from the storage unit 15.

ここで骨格抽出部21により生成された3次元骨格モデルデータD11、椎体同定部22により生成された椎体情報D12、及び肋骨同定部23により生成された肋骨情報D13及び体内空間情報D14を合わせて3次元同定モデルデータD15とも呼ぶ。   Here, the three-dimensional skeleton model data D11 generated by the skeleton extracting unit 21, the vertebral body information D12 generated by the vertebral body identifying unit 22, the rib information D13 generated by the rib identifying unit 23, and the body space information D14 are combined. Also referred to as three-dimensional identification model data D15.

人体モデル変形部24は、図8(A)及び(B)に示すように、3次元同定モデルデータD15に基づいた骨格31に対して、第1椎体32A〜第12椎体32L、右第1肋骨34A〜右第12肋骨34L、左第1肋骨35A〜左第12肋骨35L及び胸骨36が同定され、また第1特徴点33A〜第12特徴点33L及び体内空間37が付加された3次元同定モデル38を生成する。   As shown in FIGS. 8A and 8B, the human body model deforming unit 24 performs the first vertebral body 32A to the twelfth vertebral body 32L on the right side of the skeleton 31 based on the three-dimensional identification model data D15. A first rib 34A to a right twelfth rib 34L, a left first rib 35A to a left twelfth rib 35L, and a sternum 36 are identified, and a first feature point 33A to a twelfth feature point 33L and a body space 37 are added. An identification model 38 is generated.

そして人体モデル変形部24は、3次元同定モデル38の体内空間37を、第1特徴点33A〜第12特徴点33Lをそれぞれ含む水平面で輪切りにすることにより、第1分割空間37A〜第11分割空間37Kに分割する(図8(B))。   Then, the human body model deforming unit 24 cuts the internal space 37 of the three-dimensional identification model 38 in a horizontal plane that includes the first feature point 33A to the twelfth feature point 33L, thereby making the first divided space 37A to the eleventh divided portion. The space 37K is divided (FIG. 8B).

因みに図8(A)は、3次元同定モデル38の右側面図である。また図8(B)は、3次元同定モデル38の第3特徴点33Cを通る矢状断面図である。   8A is a right side view of the three-dimensional identification model 38. FIG. 8B is a sagittal cross-sectional view passing through the third feature point 33C of the three-dimensional identification model 38.

一方、人体モデル変形部24は、記憶部15から3次元標準人体モデル40(図8(C))のデータ(以下、これを3次元標準人体モデルデータとも呼ぶ)D3を読み出す。   On the other hand, the human body model deforming unit 24 reads data (hereinafter also referred to as 3D standard human body model data) D3 of the 3D standard human body model 40 (FIG. 8C) from the storage unit 15.

この3次元標準人体モデル40は、図8(C)及び(D)に示すように、標準的な体型の人体を多数のボクセルにより3次元でモデル化したものであり、当該多数のボクセルごとに、骨格、関節、臓器等の人体を構成する生体組織を示す値がボクセル値(各器官データ)としてそれぞれ付加されている。さらに3次元標準人体モデル40には、距離の次元を持った座標系が張られており、この座標系は人体モデル生成処理に依存しないグローバル座標系である。   As shown in FIGS. 8C and 8D, the three-dimensional standard human body model 40 is obtained by modeling a standard human body in three dimensions with a large number of voxels. A value indicating a living tissue constituting a human body such as a skeleton, a joint, and an organ is added as a voxel value (each organ data). Further, the three-dimensional standard human body model 40 is provided with a coordinate system having a distance dimension, and this coordinate system is a global coordinate system that does not depend on the human body model generation process.

また3次元標準人体モデルデータD3は、3次元標準人体モデル40における椎体の特徴点の情報、及び肋骨に囲まれた領域(以下、これを体内領域とも呼ぶ)47の位置情報も含むようになされている。   The three-dimensional standard human body model data D3 includes information on the feature points of the vertebral bodies in the three-dimensional standard human body model 40 and position information of a region (hereinafter also referred to as a body region) 47 surrounded by the ribs. Has been made.

従って人体モデル変形部24は、3次元標準人体モデルデータD3を読み出すことにより、第1特徴点43A〜第12特徴点43Lと、右第1肋骨44A〜右第12肋骨44L及び左第1肋骨〜左第12肋骨(図示せず)に囲まれた体内領域47とを認識し得るようになされている。   Accordingly, the human body model deforming unit 24 reads out the three-dimensional standard human body model data D3, thereby causing the first feature point 43A to the twelfth feature point 43L, the right first rib 44A to the right twelfth rib 44L, and the left first rib to A body region 47 surrounded by the left twelfth rib (not shown) can be recognized.

ここで体内領域47は、3次元同定モデル38における体内空間37と対応する位置にあり、その内部には、臓器等の生体組織(各器官データ)が含まれる。   Here, the body region 47 is located at a position corresponding to the body space 37 in the three-dimensional identification model 38, and contains a living tissue (organ data) such as an organ.

そして人体モデル変形部24は、3次元標準人体モデルデータD3を読み出すと、3次元標準人体モデル40の体内領域47を、第1特徴点43A〜第12特徴点43Lをそれぞれ含む水平面で輪切りにすることにより、第1分割領域47A〜第11分割領域47Kに分割する。   When the human body model deforming unit 24 reads the three-dimensional standard human body model data D3, the human body region 47 of the three-dimensional standard human body model 40 is cut in a horizontal plane including the first feature point 43A to the twelfth feature point 43L. Thus, the first divided area 47A to the eleventh divided area 47K are divided.

ここで、図8(C)は、3次元標準人体モデル40の右側面図である。また図8(D)は、3次元標準人体モデル40の第3特徴点43Cを通る矢状断面図である。   Here, FIG. 8C is a right side view of the three-dimensional standard human body model 40. FIG. 8D is a sagittal sectional view passing through the third feature point 43 </ b> C of the three-dimensional standard human body model 40.

因みに、ここでは3次元標準人体モデル40の体内領域47が3次元同定モデル38の体内空間37より小さい場合、すなわち標準的な体格より被検者の体格が大きい場合について具体的な説明をするが、体内領域47が体内空間37より大きい場合についても同様に行うことができる。   Incidentally, here, the case where the in-vivo region 47 of the three-dimensional standard human body model 40 is smaller than the body space 37 of the three-dimensional identification model 38, that is, the case where the subject's physique is larger than the standard physique will be described. The same can be done when the body region 47 is larger than the body space 37.

また、ここでは主に3次元同定モデル38の第5特徴点33E及び第6特徴点33Fをそれぞれ通る水平面に挟まれた空間、及び3次元標準人体モデル40の第5特徴点43E及び第6特徴点43Fをそれぞれ通る水平面に挟まれた領域について具体的な説明をするが、その他の空間及び領域についても同様に行うものとする。   In addition, here, mainly, a space sandwiched between horizontal planes passing through the fifth feature point 33E and the sixth feature point 33F of the three-dimensional identification model 38, and the fifth feature point 43E and the sixth feature of the three-dimensional standard human body model 40, respectively. A specific description will be given of a region sandwiched between horizontal planes that respectively pass through the points 43F, but the same applies to other spaces and regions.

人体モデル変形部24は、図9(A)及び(B)に示すように、3次元同定モデル38において、第3特徴点33Cを通る第5分割空間37Eの矢状断面37Eaを抽出する。   As shown in FIGS. 9A and 9B, the human body model deforming unit 24 extracts a sagittal section 37Ea of the fifth divided space 37E passing through the third feature point 33C in the three-dimensional identification model 38.

また人体モデル変形部24は、3次元標準人体モデル40において、第3特徴点43C(図8(D))を通る第5分割領域47Eの矢状断面47Eaを抽出する。   Further, the human body model deforming unit 24 extracts a sagittal section 47Ea of the fifth divided region 47E passing through the third feature point 43C (FIG. 8D) in the three-dimensional standard human body model 40.

人体モデル変形部24は、矢状断面37Ea及び矢状断面47Eaを抽出する際、当該矢状断面37Ea及び矢状断面47Eaを台形に近似して抽出するようになされている。   When extracting the sagittal section 37Ea and the sagittal section 47Ea, the human body model deforming unit 24 extracts the sagittal section 37Ea and the sagittal section 47Ea by approximating a trapezoid.

ここで、図9(A)は、第3特徴点33Cを通る3次元同定モデル38の矢状断面図に、矢状断面47Eaを重ねて示した図である。また図9(B)は、第5分割空間37Eの左側部分、及び第5分割領域47Eの左側部分を重ねて示した図である。   Here, FIG. 9A is a diagram in which the sagittal section 47Ea is superimposed on the sagittal section of the three-dimensional identification model 38 passing through the third feature point 33C. FIG. 9B is a diagram in which the left part of the fifth divided space 37E and the left part of the fifth divided region 47E are overlapped.

人体モデル変形部24は、抽出した矢状断面37Eaの上下方向の高さTaと、矢状断面47Eaの上下方向の高さTbとの比率(Ta/Tb)を算出する。   The human body model deforming unit 24 calculates the ratio (Ta / Tb) between the vertical height Ta of the extracted sagittal section 37Ea and the vertical height Tb of the sagittal section 47Ea.

そして人体モデル変形部24は、図9(C)に示すように、第5分割領域47Eを上下方向に所定間隔ごとに複数の水平面で分割し、当該水平面の間隔を比率(Ta/Tb)に応じて上下方向に伸縮することにより、高さがTaでなる矢状断面57Eaを有する第5分割領域57Eを生成する。   Then, as shown in FIG. 9C, the human body model deforming unit 24 divides the fifth divided region 47E in a plurality of horizontal planes at predetermined intervals in the vertical direction, and sets the horizontal plane intervals to a ratio (Ta / Tb). Accordingly, the fifth divided region 57E having a sagittal section 57Ea having a height of Ta is generated by expanding and contracting in the vertical direction.

このとき人体モデル変形部24は、3次元標準人体モデル40(図8(C)及び(D))における骨格41の第5特徴点43E及び第6特徴点43Fをそれぞれ通る水平面に挟まれた部分についても、第5分割領域47Eと同様に、比率(Ta/Tb)に応じて上下方向に伸縮させる。   At this time, the human body model deforming unit 24 is a portion sandwiched between horizontal planes passing through the fifth feature point 43E and the sixth feature point 43F of the skeleton 41 in the three-dimensional standard human model 40 (FIGS. 8C and 8D), respectively. In the same manner as in the fifth divided region 47E, it is expanded and contracted in the vertical direction according to the ratio (Ta / Tb).

従って第5特徴点43E及び第6特徴点43Fの間隔は、3次元同定モデル38における第5特徴点33E及び第6特徴点33Fの間隔と同一になる。   Accordingly, the interval between the fifth feature point 43E and the sixth feature point 43F is the same as the interval between the fifth feature point 33E and the sixth feature point 33F in the three-dimensional identification model 38.

同様にして人体モデル変形部24は、第1分割領域47A〜第4分割領域47D及び第6分割領域47F〜第11分割領域47Kについても上下方向に伸縮させると共に、それぞれに対応する骨格41部分についても上下方向に伸縮させる。   Similarly, the human body model deforming unit 24 expands and contracts the first divided region 47A to the fourth divided region 47D and the sixth divided region 47F to the eleventh divided region 47K in the vertical direction as well as the corresponding skeleton 41 portion. Also expand and contract in the vertical direction.

従って人体モデル変形部24は、図10(A)に示す3次元標準人体モデル40を上下方向に伸縮するように変形させ、図10(B)に示すように、骨格51及び体内領域57を有する3次元変形モデル50を生成する。   Therefore, the human body model deforming unit 24 deforms the three-dimensional standard human body model 40 shown in FIG. 10A so as to expand and contract in the vertical direction, and has a skeleton 51 and a body region 57 as shown in FIG. A three-dimensional deformation model 50 is generated.

次に人体モデル変形部24は、図11(A)及び(B)に示すように、3次元変形モデル50(図10(B))における第5分割領域57Eの矢状断面57Eaの斜辺が3次元同定モデル38における第5分割空間37Eの矢状断面37Eaの対応する斜辺に一致するよう、当該第5分割領域57Eを前後方向に伸縮させる変形を行う。   Next, as shown in FIGS. 11A and 11B, the human body model deforming unit 24 has three hypotenuses of the sagittal section 57Ea of the fifth divided region 57E in the three-dimensional deformed model 50 (FIG. 10B). The fifth divided region 57E is deformed so as to expand and contract in the front-rear direction so as to coincide with the corresponding oblique side of the sagittal section 37Ea of the fifth divided space 37E in the dimension identification model 38.

具体的には、人体モデル変形部24は、3次元同定モデル38における例えば第3分割空間37Cの上面(第3特徴点33Cを通る体内空間37の水平断面)を前後方向に均等に2分割する前額断面を基準面SS1として設定する。また人体モデル変形部24は、3次元変形モデル50の例えば第3分割領域(図示せず)の上面(第3特徴点43Cを通る体内領域57の水平断面)を前後方向に均等に2分割する前額断面を基準面SS2として設定する。   Specifically, the human body model deforming unit 24 equally divides the upper surface of the third divided space 37C in the three-dimensional identification model 38 (horizontal cross section of the body space 37 passing through the third feature point 33C) into two equally in the front-rear direction. The forehead cross section is set as the reference plane SS1. In addition, the human body model deforming unit 24 equally divides the upper surface of the three-dimensional deformed model 50 (for example, a horizontal section of the in-vivo region 57 passing through the third feature point 43C) into two in the front-rear direction. The forehead cross section is set as the reference plane SS2.

ここで、図11(A)は、第3特徴点33Cを通る3次元同定モデル38の矢状断面図に、矢状断面57Eaを重ねて示した図である。また図11(B)は、第5分割空間37Eの左側部分、及び第5分割領域57Eの左側部分を重ねて示した図である。   Here, FIG. 11A is a diagram in which the sagittal section 57Ea is superimposed on the sagittal section of the three-dimensional identification model 38 passing through the third feature point 33C. FIG. 11B is a diagram in which the left portion of the fifth divided space 37E and the left portion of the fifth divided region 57E are overlapped.

人体モデル変形部24は、図11(C)に示すように、第5分割空間37Eの矢状断面37Eaについて、基準面SS1を基準として前後方向の上底の長さL1a及びL2aと下底の長さL3a及びL4aとを算出する。   As shown in FIG. 11C, the human body model deforming unit 24 has the lengths L1a and L2a of the upper bases in the front-rear direction and the lower bases of the sagittal section 37Ea of the fifth divided space 37E with reference to the reference plane SS1. The lengths L3a and L4a are calculated.

また人体モデル変形部24は、第5分割領域57Eの矢状断面57Eaについても、基準面SS2を基準として前後方向の上底の長さL1b及びL2bと下底の長さL3b及びL4bとを算出する。   The human body model deforming unit 24 also calculates the lengths L1b and L2b of the upper base in the front-rear direction and the lengths L3b and L4b of the lower base with respect to the reference plane SS2 for the sagittal section 57Ea of the fifth divided region 57E. To do.

そして人体モデル変形部24は、第5分割領域57Eの基準面SS2より前側について、上底から下底にかけて比率(L1a/L1b)と比率(L3a/L3b)とを線形補間することにより、上底から下底にかけて所定間隔ごとの第5分割領域57Eを前方向に伸縮させるための比率を算出する。そして人体モデル変形部24は、第5分割領域57Eの基準面SS2より前側部分を、算出した比率を用いて前方向へ伸縮させる。   The human body model deforming unit 24 linearly interpolates the ratio (L1a / L1b) and the ratio (L3a / L3b) from the upper base to the lower base on the front side of the reference plane SS2 of the fifth divided region 57E. A ratio for expanding / contracting the fifth divided region 57E in a predetermined interval from the bottom to the bottom is calculated. Then, the human body model deforming unit 24 expands and contracts the front portion of the fifth divided region 57E from the reference plane SS2 in the forward direction using the calculated ratio.

同様に人体モデル変形部24は、第5分割領域57Eの基準面SS2より後側について、上底から下底にかけて比率(L2a/L2b)と比率(L4a/L4b)とを線形補間することにより、上底から下底にかけて所定間隔ごとの第5分割領域57Eを後方向へ伸縮させるための比率を算出する。そして人体モデル変形部24は、第5分割領域57Eの基準面SS2より後側部分を、算出した比率を用いて後方向へ伸縮させる。   Similarly, the human body model deforming unit 24 linearly interpolates the ratio (L2a / L2b) and the ratio (L4a / L4b) from the upper base to the lower base on the rear side of the reference plane SS2 of the fifth divided region 57E. A ratio for expanding / contracting the fifth divided region 57E in a predetermined interval from the upper base to the lower base is calculated. Then, the human body model deforming unit 24 expands / contracts the rear portion of the fifth divided region 57E from the reference plane SS2 in the backward direction using the calculated ratio.

このように人体モデル変形部24は、図11(D)に示すように、第5分割領域57Eを前後方向に伸縮させることにより、矢状断面37Eaと一致する矢状断面67Eaを有する第5分割領域67Eを生成する。   Thus, as shown in FIG. 11D, the human body model deforming unit 24 expands and contracts the fifth divided region 57E in the front-rear direction, thereby having a fifth divided portion having a sagittal section 67Ea that matches the sagittal section 37Ea. A region 67E is generated.

このとき人体モデル変形部24は、3次元変形モデル50における第5特徴点43E及び第6特徴点43Fをそれぞれ通る水平面に挟まれた骨格51部分についても、第5分割領域57Eと同様に、基準面SS2を基準として前後方向に伸縮させる。   At this time, similarly to the fifth divided region 57E, the human body model deforming unit 24 also applies the reference to the skeleton 51 part sandwiched between the horizontal planes passing through the fifth feature point 43E and the sixth feature point 43F in the three-dimensional deformed model 50, respectively. The surface SS2 is expanded and contracted in the front-rear direction.

同様にして人体モデル変形部24は、3次元変形モデル50の他の分割領域(図示せず)についても基準面SS2を基準として前後方向に伸縮すると共に、それぞれに対応する骨格51部分についても前後方向に伸縮させる。   Similarly, the human body model deforming unit 24 expands and contracts in the front-rear direction with respect to the other divided areas (not shown) of the three-dimensional deformed model 50 with reference to the reference plane SS2, and also the front and back of the corresponding skeleton 51 portion. Stretch in the direction.

従って人体モデル変形部24は、図12(A)に示す3次元変形モデル50を基準面SS2を基準として前後方向に伸縮させることにより、図12(B)に示すように、骨格61及び体内領域67を有する3次元変形モデル60を生成する。   Therefore, the human body model deforming unit 24 expands and contracts the three-dimensional deformed model 50 shown in FIG. 12A in the front-rear direction with reference to the reference plane SS2, thereby, as shown in FIG. A three-dimensional deformation model 60 having 67 is generated.

続いて人体モデル変形部24は、図13(A)及び(B)に示すように、3次元同定モデル38において、第5分割空間37Eと基準面SS1とが交わる台形近似した断面を前額断面37Ebとして抽出する。   Subsequently, as shown in FIGS. 13A and 13B, the human body model deforming unit 24 forms a forehead cross section in a three-dimensional identification model 38 that approximates a trapezoidal shape where the fifth divided space 37E and the reference plane SS1 intersect. Extract as 37Eb.

また人体モデル変形部24は、3次元変形モデル60において、第5分割領域67Eと基準面SS2が交わる台形近似した断面を前額断面67Ebとして抽出する。   Further, the human body model deforming unit 24 extracts a trapezoidal approximate cross section where the fifth divided region 67E and the reference plane SS2 intersect in the three-dimensional deformable model 60 as the forehead cross section 67Eb.

ここで、図13(A)は、3次元同定モデル38の基準面SS1での前額断面図に、前額断面67Ebを重ねて示した図である。また図13(B)は、第5分割空間37Eの後部分、及び第5分割領域67Eの後部分を重ねて示した図である。   Here, FIG. 13A is a diagram in which the forehead cross section 67Eb is superimposed on the forehead cross section of the reference plane SS1 of the three-dimensional identification model 38. FIG. 13B is a diagram in which the rear portion of the fifth divided space 37E and the rear portion of the fifth divided region 67E are overlapped.

人体モデル変形部24は、3次元変形モデル60における第5分割領域67Eの前額断面67Ebの斜辺が3次元同定モデル38における第5分割空間37Eの前額断面37Ebの対応する斜辺に一致するよう、第5分割領域67Eを左右方向に伸縮させる変形を行う。   The human body model deforming unit 24 is configured so that the hypotenuse of the forehead cross section 67Eb of the fifth divided region 67E in the three-dimensional deformable model 60 matches the corresponding hypotenuse of the forehead cross section 37Eb of the fifth subdivision space 37E in the three-dimensional identification model 38. Then, the fifth divided region 67E is deformed to expand and contract in the left-right direction.

具体的には、人体モデル変形部24は、3次元同定モデル38における例えば第3特徴点33Cを通る矢状断面を基準面SS3とし、また3次元変形モデル60の例えば第3特徴点43Cを通る矢状断面を基準面SS4として設定する。   Specifically, the human body model deforming unit 24 uses, for example, the sagittal section passing through the third feature point 33C in the three-dimensional identification model 38 as the reference plane SS3, and passes through the third feature point 43C of the three-dimensional deformation model 60, for example. A sagittal section is set as the reference plane SS4.

そして人体モデル変形部24は、図13(C)に示すように、3次元同定モデル38における第5分割空間37Eの前額断面37Ebについて、基準面SS3を基準として左右方向の上底の長さW1a及びW2aと下底の長さW3a及びW4aとを算出する。   Then, as shown in FIG. 13C, the human body model deforming unit 24 has the length of the upper base in the left-right direction with respect to the reference plane SS3 with respect to the forehead cross section 37Eb of the fifth divided space 37E in the three-dimensional identification model 38. W1a and W2a and lower bottom lengths W3a and W4a are calculated.

また人体モデル変形部24は、3次元変形モデル60における第5分割領域67Eの前額断面67Ebについて、基準面SS4を基準として左右方向の上底の長さW1b及びW2bと下底の長さW3b及びW4bとを算出する。   Further, the human body model deforming unit 24 has the upper base lengths W1b and W2b and the lower base length W3b in the left-right direction with respect to the reference plane SS4 with respect to the forehead cross section 67Eb of the fifth divided region 67E in the three-dimensional deformation model 60. And W4b.

そして人体モデル変形部24は、第5分割領域67Eの基準面SS4より左側について、上底から下底にかけて比率(W1a/W1b)と比率(W3a/W3b)とを線形補間することにより、上底から下底にかけて所定間隔ごとの第5分割領域67Eを左方向に伸縮させるための比率を算出する。そして人体モデル変形部24は、第5分割領域67Eの基準面SS4より左側部分を、算出した比率を用いて左方向へ伸縮させる。   The human body model deforming unit 24 linearly interpolates the ratio (W1a / W1b) and the ratio (W3a / W3b) from the upper base to the lower base on the left side of the reference plane SS4 of the fifth divided region 67E. A ratio for expanding and contracting the fifth divided region 67E in the left direction from the bottom to the bottom is calculated. Then, the human body model deforming unit 24 expands / contracts the left portion of the fifth divided region 67E from the reference plane SS4 using the calculated ratio in the left direction.

同様に人体モデル変形部24は、第5分割領域67Eの基準面SS4より右側について、上底から下底にかけて比率(W2a/W2b)と比率(W4a/W4b)とを線形補間することにより、上底から下底にかけて所定間隔ごとの第5分割領域67Eを右方向へ伸縮させるための比率を算出する。そして人体モデル変形部24は、第5分割領域67Eの基準面SS4より右側部分を、算出した比率を用いて右方向へ伸縮させる。   Similarly, the human body model deforming unit 24 linearly interpolates the ratio (W2a / W2b) and the ratio (W4a / W4b) from the upper base to the lower base on the right side of the reference plane SS4 of the fifth divided region 67E. A ratio for expanding / contracting the fifth divided region 67E in the right direction from the bottom to the bottom is calculated. Then, the human body model deforming unit 24 expands and contracts the right side portion of the fifth divided region 67E from the reference plane SS4 using the calculated ratio in the right direction.

これにより人体モデル変形部24は、図13(D)に示すように、第5分割領域67Eを左右方向に伸縮することにより、前額断面37Ebと一致する前額断面77Ebを有する第5分割領域77Eを生成する。   Thereby, as shown in FIG. 13D, the human body model deforming unit 24 expands and contracts the fifth divided region 67E in the left-right direction, thereby having a fifth divided region having a forehead cross section 77Eb coinciding with the forehead cross section 37Eb. 77E is generated.

このとき人体モデル変形部24は、3次元変形モデル60における骨格61の第5特徴点43E及び第6特徴点43Fをそれぞれ通る水平面に挟まれた部分についても、第5分割領域67Eと同様に、基準面SS4を基準として左右方向に伸縮させる。   At this time, similarly to the fifth divided region 67E, the human body model deforming unit 24 also includes a portion sandwiched between horizontal planes passing through the fifth feature point 43E and the sixth feature point 43F of the skeleton 61 in the three-dimensional deformed model 60. The reference plane SS4 is expanded and contracted in the left-right direction.

同様にして人体モデル変形部24は、3次元変形モデル60の他の分割領域(図示せず)についても基準面SS4を基準として左右方向に伸縮させると共に、それぞれに対応する骨格61部分についても左右方向に伸縮させる。   Similarly, the human body model deforming unit 24 expands and contracts the other divided regions (not shown) of the three-dimensional deformed model 60 in the left-right direction with reference to the reference plane SS4, and also the left and right sides of the corresponding skeleton 61 portion. Stretch in the direction.

従って人体モデル変形部24は、図14(A)に示す3次元変形モデル60を基準面SS4を基準として左右方向に伸縮するように変形し、図14(B)に示すように、3次元変形モデル70を生成する。   Accordingly, the human body model deforming unit 24 deforms the three-dimensional deformation model 60 shown in FIG. 14A so as to expand and contract in the left-right direction with reference to the reference plane SS4, and three-dimensional deformation as shown in FIG. 14B. A model 70 is generated.

このようにして人体モデル変形部24は、3次元標準人体モデル40の第5分割領域47Eを3次元同定モデル38の第5分割空間37Eの形状に合わせて上下方向、前後方向及び左右方向に伸縮させる。   In this way, the human body model deforming unit 24 expands / contracts the fifth divided region 47E of the three-dimensional standard human model 40 in the vertical direction, the front / rear direction, and the left / right direction in accordance with the shape of the fifth divided space 37E of the three-dimensional identification model 38. Let

また人体モデル変形部24は、3次元標準人体モデル40の第1分割領域47A〜第4分割領域47Dについても第5分割領域47Eと同様に、3次元同定モデル38の第1分割空間37A〜第4分割空間37Dの形状に合わせて上下方向、前後方向及び左右方向に伸縮させる。   The human body model deforming unit 24 also applies to the first divided area 47A to the fourth divided area 47D of the three-dimensional standard human body model 40 in the same manner as the fifth divided area 47E. It is expanded and contracted in the vertical direction, the front-rear direction, and the left-right direction according to the shape of the quadrant 37D.

さらに人体モデル変形部24は、3次元標準人体モデル40の第6分割領域47F〜第11分割領域47Kについても同様に、3次元同定モデル38の第6分割空間37F〜第11分割空間37Kの形状に合わせて上下方向、前後方向及び左右方向に伸縮することにより変形させる。   Furthermore, similarly to the sixth divided region 47F to the eleventh divided region 47K of the three-dimensional standard human body model 40, the human body model deforming unit 24 similarly shapes the sixth divided space 37F to the eleventh divided space 37K of the three-dimensional identification model 38. It is deformed by expanding and contracting in the vertical direction, the front-rear direction, and the left-right direction according to the above.

続いて人体モデル変形部24は、図15(A)に示すように、3次元同定モデル38において、基準面SS1と右第1肋骨34A〜右第11肋骨34Kの中心線(図示せず)との交点39A〜39Kをそれぞれ検出する。さらに人体モデル変形部24は、3次元同定モデル38において、右第12肋骨34Lの中心線を基準面SS1まで外挿し、その点を交点39Lとして算出する。そして人体モデル変形部24は、3次元変形モデル70において、検出した交点39A〜39Kとそれぞれ対応する点を通過点79A〜79Kとして検出し、通過点79Lに関しても交点39Lと同様に算出する。   Subsequently, as shown in FIG. 15A, the human body model deforming unit 24, in the three-dimensional identification model 38, the reference plane SS1, the center line (not shown) of the right first rib 34A to the right eleventh rib 34K, and The intersection points 39A to 39K are respectively detected. Further, in the three-dimensional identification model 38, the human body model deforming unit 24 extrapolates the center line of the right twelfth rib 34L to the reference plane SS1, and calculates the point as an intersection 39L. The human body model deforming unit 24 detects points corresponding to the detected intersections 39A to 39K as the passing points 79A to 79K in the three-dimensional deformed model 70, and calculates the passing point 79L in the same manner as the intersection 39L.

さらに人体モデル変形部24は、通過点79A〜79Lの高さ位置を対応する交点39A〜39Lの高さ位置へそれぞれ移動させ、通過点89A〜89Lを生成する。   Furthermore, the human body model deforming unit 24 moves the height positions of the passage points 79A to 79L to the corresponding intersection points 39A to 39L, and generates the passage points 89A to 89L.

そして人体モデル変形部24は、図15(B)に示すように、3次元変形モデル70の右第1肋骨74A〜右第12肋骨74Lを、第1特徴点43A〜第12特徴点43Lを始点として通過点89A〜89Lを通り、かつ体内領域77に外接するようにそれぞれ変形させる。   Then, as shown in FIG. 15B, the human body model deforming unit 24 starts from the first right rib 74A to the right twelfth rib 74L and the first feature point 43A to the twelfth feature point 43L of the three-dimensional deformation model 70. And passing through the passing points 89A to 89L and deforming so as to circumscribe the body region 77, respectively.

ここで図15(B)は、変形前の右第1肋骨74A〜右第12肋骨74Lを破線で示し、変形後の右第1肋骨84A〜右第12肋骨84Lを実線で示す。   Here, FIG. 15B shows the right first rib 74A to the right twelfth rib 74L before deformation by broken lines, and the right first rib 84A to the right twelfth rib 84L after deformation by solid lines.

また人体モデル変形部24は、3次元変形モデル70の左第1肋骨〜左第12肋骨(図示せず)についても同様に変形させる。このような変形を行うことにより人体モデル変形部24は、3次元被検者モデル80を生成する。   The human body model deforming unit 24 deforms the left first rib to the left twelfth rib (not shown) of the three-dimensional deformation model 70 in the same manner. By performing such deformation, the human body model deforming unit 24 generates a three-dimensional subject model 80.

そして人体モデル変形部24は、生成した3次元被検者モデル80のデータ(以下、これを3次元被検者モデルデータとも呼ぶ)D16を記憶部15(図2)に記憶する。   The human body model deforming unit 24 stores the generated data (hereinafter, also referred to as 3D subject model data) D16 of the 3D subject model 80 in the storage unit 15 (FIG. 2).

これにより3次元人体モデル生成装置1は、インターフェース部14を介して接続されたVRシミュレータ等に3次元被検者モデルデータD16を送出し、当該3次元被検者モデルデータD16に基づく3次元被検者モデル80を用いた手術シミュレートを医師に行わせることができる。   As a result, the 3D human body model generation device 1 sends the 3D subject model data D16 to a VR simulator or the like connected via the interface unit 14, and the 3D subject model data D16 based on the 3D subject model data D16. A doctor can perform a surgical simulation using the examiner model 80.

ところで3次元人体モデル生成装置1は、3次元標準人体モデル40の体内領域47を3次元同定モデル38の体内空間37に合うよう変形させて3次元被検者モデル80を生成する際、当該3次元標準人体モデル40の具現化情報を失われることなく継承するようになされている。   By the way, when the 3D human body model generation apparatus 1 generates the 3D subject model 80 by deforming the in-vivo region 47 of the 3D standard human body model 40 to fit the internal space 37 of the 3D identification model 38, the 3D subject model 80 is generated. The realization information of the dimensional standard human body model 40 is inherited without being lost.

また3次元人体モデル生成装置1は、3次元被検者モデル80を生成した後、各ステップにおいて生成されたモデルデータ等をユーザが確認でき、さらにユーザが指定したステップへ戻り、そのステップから3次元人体モデル生成処理をやり直せるようになされている。   In addition, after the three-dimensional human body model generation device 1 generates the three-dimensional subject model 80, the user can check the model data generated in each step, and the process returns to the step designated by the user. The 3D human body model generation process can be redone.

(3)3次元人体モデル生成処理手順
次に、上述した3次元人体モデル生成処理の手順についてフローチャートを用いて詳しく説明する。
(3) 3D Human Body Model Generation Processing Procedure Next, the above-described 3D human body model generation processing procedure will be described in detail using a flowchart.

すなわちCPU11は、図16に示すように、ルーチンRT1の開始ステップからサブルーチンSRT1へ移り、骨格抽出部21により骨格抽出処理を行う。   That is, as shown in FIG. 16, the CPU 11 proceeds from the start step of the routine RT1 to the subroutine SRT1, and performs a skeleton extraction process by the skeleton extraction unit 21.

具体的には、CPU11は、図17に示すように、サブルーチンSRT1の開始ステップから入って次のステップSP1へ移り、3次元画像データD1を記憶部15から読み出し、当該3次元画像データD1に写し出された骨格の濃淡レベルが「1」となるような所定の上限閾値及び下限閾値を設定し、次のステップSP2へ移る。   Specifically, as shown in FIG. 17, the CPU 11 enters from the start step of the subroutine SRT1, moves to the next step SP1, reads out the 3D image data D1 from the storage unit 15, and copies it to the 3D image data D1. Predetermined upper and lower thresholds are set so that the gray level of the skeleton is “1”, and the process proceeds to the next step SP2.

ステップSP2においてCPU11は、3次元画像データD1に対して上限閾値及び下限閾値を用いて2値化処理を施し、次のステップSP3へ移る。   In step SP2, the CPU 11 performs binarization processing on the three-dimensional image data D1 using the upper limit threshold and the lower limit threshold, and proceeds to the next step SP3.

ステップSP3においてCPU11は、2値化処理を施すことで得られた2値化画像BWG(図4)から被検者の骨格31を抽出することにより3次元骨格モデル30を生成し、骨格抽出処理を終了して次のサブルーチンSRT2(図16)へ移る。   In step SP3, the CPU 11 generates the three-dimensional skeleton model 30 by extracting the subject's skeleton 31 from the binarized image BWG (FIG. 4) obtained by performing the binarization process, and the skeleton extraction process. And the process proceeds to the next subroutine SRT2 (FIG. 16).

サブルーチンSRT2においてCPU11は、椎体同定部22により椎体同定処理を行う。具体的には、CPU11は、図18に示すように、サブルーチンSRT2の開始ステップから入って次のステップSP11へ移り、3次元骨格モデル30と椎体テンプレートデータD2に基づく椎体テンプレートとをパターンマッチングすることにより、略円柱状でなる複数の椎体を検出し、次のステップSP12へ移る。   In the subroutine SRT2, the CPU 11 performs vertebral body identification processing by the vertebral body identification unit 22. Specifically, as shown in FIG. 18, the CPU 11 enters from the start step of the subroutine SRT2, moves to the next step SP11, and performs pattern matching between the three-dimensional skeleton model 30 and the vertebral body template based on the vertebral body template data D2. Thus, a plurality of vertebral bodies having a substantially cylindrical shape are detected, and the process proceeds to the next step SP12.

ステップSP12においてCPU11は、ステップSP11において検出した複数の椎体の中点を特徴点として検出し、次のステップSP13へ移る。   In step SP12, the CPU 11 detects the midpoints of the plurality of vertebral bodies detected in step SP11 as feature points, and proceeds to the next step SP13.

ステップSP13においてCPU11は、ステップSP12において検出した複数の椎体について形態学的な特徴に基づいて第1椎体32A〜第12椎体32L(図6)を同定し、当該第1椎体32A〜第12椎体32Lの特徴点をそれぞれ第1特徴点33A〜第12特徴点33Lとし、椎体同定処理を終了して次のサブルーチンSRT3(図16)へ移る。   In step SP13, the CPU 11 identifies the first vertebral body 32A to the twelfth vertebral body 32L (FIG. 6) based on the morphological features of the plurality of vertebral bodies detected in step SP12, and the first vertebral body 32A to The feature points of the twelfth vertebral body 32L are set as the first feature point 33A to the twelfth feature point 33L, respectively, and the vertebral body identification process is terminated, and the process proceeds to the next subroutine SRT3 (FIG. 16).

サブルーチンSRT3においてCPU11は、肋骨同定部23により肋骨同定処理を行う。具体的には、CPU11は、図19に示すように、サブルーチンSRT3の開始ステップから入って次のステップSP21へ移り、3次元骨格モデル30における第1椎体32A〜第12椎体32Lから左右に伸びる骨格31部分を検出し、次のステップSP22へ移る。   In the subroutine SRT3, the CPU 11 performs a rib identification process by the rib identification unit 23. Specifically, as shown in FIG. 19, the CPU 11 enters from the start step of the subroutine SRT3, moves to the next step SP21, and moves left and right from the first vertebral body 32A to the twelfth vertebral body 32L in the three-dimensional skeleton model 30. The extending skeleton 31 portion is detected, and the process proceeds to the next step SP22.

ステップSP22においてCPU11は、ステップSP21において検出された骨格31部分を起点として当該骨格31をトレースしていくことにより、右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lを同定し、次のステップSP23へ移る。   In step SP22, the CPU 11 traces the skeleton 31 with the skeleton 31 portion detected in step SP21 as a starting point, whereby the right first rib 34A to the right twelfth rib 34L and the left first rib 35A to the left twelfth. The rib 35L is identified, and the process proceeds to the next step SP23.

ステップSP23においてCPU11は、右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lの中心線を検出し、次のステップSP24へ移る。   In step SP23, the CPU 11 detects the center lines of the right first rib 34A to the right twelfth rib 34L and the left first rib 35A to the left twelfth rib 35L, and proceeds to the next step SP24.

ステップSP24においてCPU11は、右第1肋骨34A〜右第12肋骨34L、左第1肋骨35A〜左第12肋骨35L、胸骨36、第1特徴点33Aを通る水平面及び第12特徴点33Lを通る水平面に囲まれた体内空間37を抽出し、肋骨同定処理を終了して次のサブルーチンSRT4(図16)へ移る。   In step SP24, the CPU 11 causes the right first rib 34A to the right twelfth rib 34L, the left first rib 35A to the left twelfth rib 35L, the sternum 36, the horizontal plane passing through the first feature point 33A and the horizontal plane passing through the twelfth feature point 33L. The body space 37 surrounded by is extracted, the rib identification process is terminated, and the process proceeds to the next subroutine SRT4 (FIG. 16).

サブルーチンSRT4においてCPU11は、人体モデル変形部24により人体モデル変形処理を行う。具体的には、CPU11は、図20に示すように、サブルーチンSRT4の開始ステップから入って次のステップSP31へ移り、3次元同定モデル38の体内空間37を、第1特徴点33A〜第12特徴点33Lをそれぞれ含む水平面で輪切りにすることにより、第1分割空間37A〜第11分割空間37Kに分割する(図8(B))。   In the subroutine SRT4, the CPU 11 performs a human body model deformation process by the human body model deformation unit 24. Specifically, as shown in FIG. 20, the CPU 11 enters from the start step of the subroutine SRT4, moves to the next step SP31, and moves the internal space 37 of the three-dimensional identification model 38 to the first feature point 33A to the twelfth feature. Dividing into a first divided space 37 </ b> A to an eleventh divided space 37 </ b> K by rounding off at horizontal planes including the respective points 33 </ b> L (FIG. 8B).

またCPU11は、3次元標準人体モデル40の体内領域47を、第1特徴点43A〜第12特徴点43Lをそれぞれ含む水平面で輪切りにすることにより、第1分割領域47A〜第11分割領域47Kに分割し、次のステップSP32へ移る。   Further, the CPU 11 cuts the in-vivo region 47 of the three-dimensional standard human body model 40 into a first divided region 47A to an eleventh divided region 47K by cutting the body region 47 into horizontal planes including the first feature point 43A to the twelfth feature point 43L. Divide and move to next step SP32.

ステップSP32においてCPU11は、3次元標準人体モデル40における例えば第5分割領域47Eの高さTbを3次元同定モデル38の第5分割空間37Eの高さTaと一致するように、当該第5分割領域47Eを上下方向に伸縮させると共に、対応する骨格41部分についても上下方向に伸縮させる。   In step SP32, the CPU 11 causes the fifth divided region so that, for example, the height Tb of the fifth divided region 47E in the three-dimensional standard human body model 40 matches the height Ta of the fifth divided space 37E of the three-dimensional identification model 38. 47E is expanded and contracted in the vertical direction, and the corresponding skeleton 41 portion is also expanded and contracted in the vertical direction.

同様にCPU11は、第1分割領域47A〜第4分割領域47D及び第6分割領域47F〜第11分割領域47Kについても上下方向に伸縮させると共に、それぞれに対応する骨格41部分についても上下方向に伸縮させ、3次元変形モデル50を生成し、次のステップSP33へ移る。   Similarly, the CPU 11 expands and contracts the first divided region 47A to the fourth divided region 47D and the sixth divided region 47F to the eleventh divided region 47K in the vertical direction and also expands and contracts the corresponding skeleton 41 portion in the vertical direction. Then, the three-dimensional deformation model 50 is generated, and the process proceeds to the next step SP33.

ステップSP33においてCPU11は、3次元同定モデル38における例えば第5分割空間37Eの矢状断面37Ea、及び3次元変形モデル50における第5分割領域57Eの矢状断面57Eaを抽出し、次のステップSP34へ移る。   In step SP33, the CPU 11 extracts, for example, the sagittal section 37Ea of the fifth divided space 37E in the three-dimensional identification model 38 and the sagittal section 57Ea of the fifth divided region 57E in the three-dimensional deformation model 50, and proceeds to the next step SP34. Move.

ステップSP34においてCPU11は、矢状断面57Eaの斜辺が矢状断面37Eaの斜辺に一致するように、基準面SS2を基準として第5分割領域57Eを前後方向に伸縮させる。   In step SP34, the CPU 11 expands and contracts the fifth divided region 57E in the front-rear direction using the reference plane SS2 as a reference so that the hypotenuse of the sagittal section 57Ea coincides with the hypotenuse of the sagittal section 37Ea.

同様にCPU11は、3次元変形モデル50における他の分割領域(図示せず)についても前後方向に伸縮させると共に、骨格51を前後方向に伸縮させることにより、3次元変形モデル60を生成し、次のステップSP35へ移る。   Similarly, the CPU 11 generates a three-dimensional deformation model 60 by expanding and contracting the other divided regions (not shown) in the three-dimensional deformation model 50 in the front-rear direction and expanding and contracting the skeleton 51 in the front-rear direction. The process proceeds to step SP35.

ステップSP35においてCPU11は、3次元同定モデル38における例えば第5分割空間37Eの前額断面37Eb、及び3次元変形モデル60における第5分割領域67Eの前額断面67Ebを抽出し、次のステップSP36へ移る。   In step SP35, the CPU 11 extracts, for example, the forehead section 37Eb of the fifth divided space 37E in the three-dimensional identification model 38 and the forehead section 67Eb of the fifth divided area 67E in the three-dimensional deformation model 60, and proceeds to the next step SP36. Move.

ステップSP36においてCPU11は、前額断面67Ebの斜辺が前額断面37Ebの斜辺に一致するように、基準面SS4を基準として第5分割領域67Eを左右方向に伸縮させる。   In step SP36, the CPU 11 expands and contracts the fifth divided region 67E in the left-right direction with reference to the reference plane SS4 so that the hypotenuse of the forehead cross section 67Eb coincides with the hypotenuse of the forehead cross section 37Eb.

同様にCPU11は、3次元変形モデル60における他の分割領域(図示せず)についても左右方向に伸縮させると共に、骨格61を左右方向に伸縮させることにより、3次元変形モデル70を生成し、次のステップSP37へ移る。   Similarly, the CPU 11 generates a three-dimensional deformation model 70 by expanding and contracting the other divided regions (not shown) in the three-dimensional deformation model 60 in the left-right direction and expanding and contracting the skeleton 61 in the left-right direction. The process proceeds to step SP37.

ステップSP37においてCPU11は、3次元同定モデル38において、基準面SS1と右第1肋骨34A〜右第11肋骨34Kの中心線との交点39A〜39Kをそれぞれ検出する。さらにCPU11は、3次元同定モデル38において、右第12肋骨34Lの中心線を基準面SS1まで外挿し、交点39Lを算出する。   In step SP37, the CPU 11 detects intersections 39A to 39K between the reference plane SS1 and the center lines of the right first rib 34A to the right eleventh rib 34K in the three-dimensional identification model 38, respectively. Further, in the three-dimensional identification model 38, the CPU 11 extrapolates the center line of the right twelfth rib 34L to the reference plane SS1, and calculates an intersection 39L.

CPU11は、3次元変形モデル70において、検出した交点39A〜39Kとそれぞれ対応する点を通過点79A〜79Kとして検出し、通過点79Lに関しても交点39Lと同様に算出する。またCPU11は、通過点79A〜79Lの高さ位置を対応する交点39A〜39Lの高さ位置へそれぞれ移動させて通過点89A〜89Lを生成する。   In the three-dimensional deformation model 70, the CPU 11 detects points corresponding to the detected intersections 39A to 39K as passing points 79A to 79K, and calculates the passing point 79L in the same manner as the intersection point 39L. Further, the CPU 11 generates the passing points 89A to 89L by moving the height positions of the passing points 79A to 79L to the corresponding intersections 39A to 39L, respectively.

そしてCPU11は、3次元変形モデル70の右第1肋骨74A〜右第12肋骨74Lを第1特徴点43A〜第12特徴点43Lを始点として通過点89A〜89Lを通り、かつ体内領域77に外接するように変形させる。   Then, the CPU 11 starts from the first right rib 74A to the right twelfth rib 74L of the three-dimensional deformation model 70, passes through the passing points 89A to 89L with the first feature point 43A to the twelfth feature point 43L as a starting point, and circumscribes the body region 77. To deform.

同様にCPU11は、3次元変形モデル70の左第1肋骨〜左第12肋骨(図示せず)についても変形させる。このような変形を行うことによりCPU11は、3次元被検者モデル80を生成し、次のステップへ移って処理を終了する。   Similarly, the CPU 11 deforms the left first rib to the left twelfth rib (not shown) of the three-dimensional deformation model 70. By performing such deformation, the CPU 11 generates a three-dimensional subject model 80, moves to the next step, and ends the process.

(4)動作及び効果
以上の構成において、3次元人体モデル生成装置1は、CT装置やMRI装置によって撮像された3次元画像データD1を取得すると、当該3次元画像データD1に対して所定の上限閾値及び下限閾値を用いて2値化処理を施すことにより、濃淡レベルが「1」となった骨格31だけを抽出して3次元骨格モデル30を生成する。
(4) Operation and Effect In the above configuration, when the three-dimensional human body model generation device 1 acquires the three-dimensional image data D1 captured by the CT device or the MRI device, a predetermined upper limit is set for the three-dimensional image data D1. By performing the binarization process using the threshold value and the lower limit threshold value, only the skeleton 31 having a lightness level of “1” is extracted to generate the three-dimensional skeleton model 30.

3次元人体モデル生成装置1は、3次元骨格モデル30と標準的な椎体形状をした椎体テンプレートとをパターンマッチングすると共に、形態学的な特徴に基づいて略円柱状でなる第1椎体32A〜第12椎体32Lを同定する。また3次元人体モデル生成装置1は、第1椎体32A〜第12椎体32Lの形態学的な中点をそれぞれ算出し、当該中点を第1特徴点33A〜第12特徴点33Lとして抽出する。   The three-dimensional human body model generation device 1 performs pattern matching between the three-dimensional skeleton model 30 and a standard vertebral body-shaped vertebral body template, and a first vertebral body having a substantially cylindrical shape based on morphological features. 32A to 12th vertebral body 32L are identified. The three-dimensional human body model generation device 1 calculates morphological midpoints of the first vertebral body 32A to the twelfth vertebral body 32L, and extracts the midpoints as the first feature point 33A to the twelfth feature point 33L. To do.

3次元人体モデル生成装置1は、3次元骨格モデル30に対して、第1椎体32A〜第12椎体32Lのそれぞれを起点として左右方向に伸びる骨格31部分をトレースしていくことにより、右第1肋骨34A〜右第12肋骨34L及び左第1肋骨35A〜左第12肋骨35Lを同定する。   The three-dimensional human body model generation device 1 traces the skeleton 31 portion extending in the left-right direction starting from each of the first vertebral body 32A to the twelfth vertebral body 32L with respect to the three-dimensional skeleton model 30 to the right. The first rib 34A to the right twelfth rib 34L and the left first rib 35A to the left twelfth rib 35L are identified.

そして3次元人体モデル生成装置1は、右第1肋骨34A〜右第12肋骨34L、左第1肋骨35A〜左第12肋骨35L、胸骨36、第1特徴点33Aを通る水平面及び第12特徴点33Lを通る水平面に囲まれた体内空間37を抽出する。   The three-dimensional human body model generation device 1 includes the right first rib 34A to the right twelfth rib 34L, the left first rib 35A to the left twelfth rib 35L, the sternum 36, the horizontal plane passing through the first feature point 33A and the twelfth feature point. A body space 37 surrounded by a horizontal plane passing through 33L is extracted.

次に3次元人体モデル生成装置1は、3次元同定モデル38の体内空間37を第1特徴点33A〜第12特徴点33Lをそれぞれ含む水平面で輪切りにすることにより、第1分割空間37A〜第11分割空間37Kに分割する。   Next, the three-dimensional human body model generation device 1 cuts the body space 37 of the three-dimensional identification model 38 in a horizontal plane including the first feature point 33A to the twelfth feature point 33L, thereby making the first divided space 37A to the first divided space 37A to the first space 37A. It is divided into 11 divided spaces 37K.

また3次元人体モデル生成装置1は、標準の位置及び大きさとされる各器官を3次元でモデル化した3次元標準人体モデル40のうち、3次元同定モデル38の体内空間37と対応する体内領域47についても、第1特徴点43A〜第12特徴点43Lをそれぞれ含む水平面で輪切りにすることにより、第1分割領域47A〜第11分割領域47Kに分割する。   The three-dimensional human body model generation device 1 also includes a body region corresponding to the body space 37 of the three-dimensional identification model 38 in the three-dimensional standard human body model 40 in which each organ having a standard position and size is modeled in three dimensions. 47 is divided into a first divided region 47A to an eleventh divided region 47K by rounding off on a horizontal plane including the first feature point 43A to the twelfth feature point 43L.

そして3次元人体モデル生成装置1は、3次元同定モデル38における第1分割空間37A〜第11分割空間37Kに、3次元標準人体モデル40における第1分割領域47A〜第11分割領域47Kをそれぞれ合わせるように、当該3次元標準人体モデル40を変形させ、その結果として3次元変形モデル70を生成する。   The three-dimensional human body model generation device 1 matches the first divided area 47A to the eleventh divided area 47K in the three-dimensional standard human body model 40 with the first divided space 37A to the eleventh divided space 37K in the three-dimensional identification model 38, respectively. As described above, the three-dimensional standard human body model 40 is deformed, and as a result, the three-dimensional deformation model 70 is generated.

また3次元人体モデル生成装置1は、3次元変形モデル70を生成すると共に、第1特徴点43A〜第12特徴点43Lを始点として通過点89A〜89Lを通り、体内領域77に外接するように右第1肋骨74A〜右第12肋骨74Lをそれぞれ変形させる。さらに3次元人体モデル生成装置1は、左第1肋骨〜左第12肋骨(図示せず)についても同様に変形を行うことにより、3次元被検者モデル80を生成するようにした。   Further, the three-dimensional human body model generation device 1 generates the three-dimensional deformation model 70 and passes through the passing points 89A to 89L with the first feature point 43A to the twelfth feature point 43L as the starting point so as to circumscribe the body region 77. The right first rib 74A to the right twelfth rib 74L are respectively deformed. Further, the three-dimensional human body model generation apparatus 1 generates the three-dimensional subject model 80 by similarly deforming the left first rib to the left twelfth rib (not shown).

従って3次元人体モデル生成装置1は、従来のように、3次元画像データD1の濃淡レベルを基に対象臓器を抽出した後の抽出欠損や誤抽出を修正させたり、骨格から形態学的な位置関係により骨格の分割を行わせるなどの煩雑な作業をユーザに強いることなく、被検者ごとの3次元被検者モデル80を容易に生成することができる。   Therefore, the 3D human body model generation apparatus 1 corrects the extraction defect or the erroneous extraction after extracting the target organ based on the gray level of the 3D image data D1, or the morphological position from the skeleton. The 3D subject model 80 for each subject can be easily generated without forcing the user to perform complicated operations such as dividing the skeleton according to the relationship.

また3次元人体モデル生成装置1は、3次元画像データD1から抽出した骨格31に囲まれた体内空間37の形状に合わせて、3次元標準人体モデル40の体内領域47の形状を変形させるので、被検者ごとの体型を正確に再現した3次元被検者モデル80を生成することができる。   Further, the 3D human body model generation device 1 deforms the shape of the body region 47 of the 3D standard human body model 40 in accordance with the shape of the body space 37 surrounded by the skeleton 31 extracted from the 3D image data D1. A three-dimensional subject model 80 that accurately reproduces the body shape of each subject can be generated.

これにより被検者ごとの体型を再現した3次元被検者モデル80を用いて、VRシミュレータや光造形装置により作製された被検者モデルにより手術トレーニングを例えば手術前に医師に行わせることができるので、内視鏡外科手術の安全性や手術品質をより向上させるよう貢献することができる。   By using the three-dimensional subject model 80 that reproduces the body shape of each subject in this way, it is possible to cause a doctor to perform surgical training, for example, before surgery, using the subject model created by a VR simulator or stereolithography apparatus. Therefore, it is possible to contribute to improving the safety and quality of endoscopic surgery.

また3次元人体モデル生成装置1は、3次元標準人体モデル40の体内領域47の形状を変形させる際、第1特徴点43A〜第12特徴点43Lをそれぞれ含む水平面で輪切りにすることにより第1分割領域47A〜第11分割領域47Kに分割し、当該第1分割領域47A〜第11分割領域47Kごとに変形を行うようにした。   Further, when the shape of the in-vivo region 47 of the three-dimensional standard human body model 40 is deformed, the three-dimensional human body model generation device 1 performs first cutting by cutting the horizontal plane including the first feature point 43A to the twelfth feature point 43L. The image is divided into the divided areas 47A to 47K, and the first divided area 47A to the eleventh divided area 47K are deformed.

これにより3次元人体モデル生成装置1は、第1分割領域47A〜第11分割領域47Kにそれぞれ含まれる生体組織の形状をより精度よく被検者の体型に合わせて変形することができる。   As a result, the three-dimensional human body model generation device 1 can deform the shape of the living tissue included in each of the first divided region 47A to the eleventh divided region 47K more precisely according to the body shape of the subject.

また3次元人体モデル生成装置1は、各ステップにおいて生成されたモデルデータを読み出すことができる。さらにユーザが指定したステップへ戻り、3次元人体モデル生成処理を何度でもやり直すことができる。このため3次元人体モデル生成装置1は、誤った同定及び変形を減少させることができる。   Further, the three-dimensional human body model generation device 1 can read out model data generated in each step. Furthermore, it is possible to return to the step designated by the user and repeat the 3D human body model generation process as many times as necessary. For this reason, the three-dimensional human body model generation apparatus 1 can reduce erroneous identification and deformation.

以上の構成によれば、3次元人体モデル生成装置1は、CT装置やMRI装置によって撮像された3次元画像データD1を基に3次元同定モデル38の体内空間37を抽出し、標準的な体型の人体を3次元でモデル化した3次元標準人体モデル40の体内領域47を当該体内空間37に合わせて変形させることにより、体内領域47に含まれる各器官データ(例えば、心臓や肺などの臓器データ)も変形させた3次元被検者モデル80を生成する。これにより3次元人体モデル生成装置1は、煩雑な作業をユーザに強いることなく、被検者ごとの3次元被検者モデル80を容易に生成することができる。   According to the above configuration, the three-dimensional human body model generation device 1 extracts the internal space 37 of the three-dimensional identification model 38 based on the three-dimensional image data D1 imaged by the CT device or the MRI device, and the standard body shape The internal region 47 of the three-dimensional standard human body model 40 in which the human body is modeled in three dimensions is deformed in accordance with the internal space 37, whereby each organ data contained in the internal region 47 (for example, organs such as the heart and lungs) Data) is also generated to generate a three-dimensional subject model 80. Thereby, the three-dimensional human body model generation device 1 can easily generate the three-dimensional subject model 80 for each subject without forcing the user to perform complicated work.

<2.第2の実施の形態>
第1の実施の形態においては、3次元画像データD1から抽出した肋骨に囲まれた空間を体内空間37として抽出し、3次元標準人体モデル40の体内領域47を当該体内空間37に合わせて変形させる。
<2. Second Embodiment>
In the first embodiment, a space surrounded by the ribs extracted from the three-dimensional image data D1 is extracted as the body space 37, and the body region 47 of the three-dimensional standard human body model 40 is deformed according to the body space 37. Let

これに対して第2の実施の形態においては、3次元画像データD1から体表を抽出し、当該体表に囲まれた空間を体内空間として抽出する。また3次元標準人体モデル40の体内領域を体表に囲まれた体内空間に合わせて変形させる。なお、3次元人体モデル生成装置1の構成については、第1の実施の形態と同様であるためその説明を省略する。   On the other hand, in the second embodiment, a body surface is extracted from the three-dimensional image data D1, and a space surrounded by the body surface is extracted as a body space. Further, the body region of the three-dimensional standard human body model 40 is deformed according to the body space surrounded by the body surface. Note that the configuration of the three-dimensional human body model generation apparatus 1 is the same as that of the first embodiment, and thus the description thereof is omitted.

(1)3次元人体モデル生成処理
CPU11は、3次元人体モデル生成処理を実行する際、図2との対応部分に同一符号を付した図21に示すように、骨格・体表抽出部121、椎体同定部122、体内空間抽出部123、及び人体モデル変形部124として機能するようになされている。
(1) Three-dimensional human body model generation process When the CPU 11 executes the three-dimensional human body model generation process, the skeleton / body surface extraction unit 121, as shown in FIG. It functions as a vertebral body identification unit 122, a body space extraction unit 123, and a human body model deformation unit 124.

(1−1)骨格・体表抽出処理
CPU11は、3次元人体モデル生成処理を実行すると、骨格・体表抽出部121により骨格・体表抽出処理を実行する。この骨格・体表抽出処理について詳しく説明する。
(1-1) Skeletal / Body Surface Extraction Processing When the CPU 11 executes the three-dimensional human body model generation processing, the skeleton / body surface extraction unit 121 executes the skeleton / body surface extraction processing. This skeleton / body surface extraction process will be described in detail.

骨格・体表抽出部121は、骨格・体表抽出処理を実行すると、記憶部15から3次元画像データD1を読み出し、当該3次元画像データD1に基づいてボリュームデータを作成する。   When the skeleton / body surface extraction unit 121 executes the skeleton / body surface extraction process, the skeleton / body surface extraction unit 121 reads the three-dimensional image data D1 from the storage unit 15 and creates volume data based on the three-dimensional image data D1.

ここで、図22に示すように、CT装置によって撮像された場合、3次元画像データD1に基づく水平断面画像CG4では、骨格は白色に写り、体表及び臓器は白と黒との中間色(灰色)に写り、体外及び体内腔は黒色に写る。MRI装置によって撮像された場合にも、同様に、骨格や臓器によって濃淡レベルが異なる。   Here, as shown in FIG. 22, in the horizontal cross-sectional image CG4 based on the three-dimensional image data D1, when the image is captured by the CT apparatus, the skeleton appears white, and the body surface and organs are intermediate colors between white and black (gray ), And external and internal cavities appear black. Similarly, when the image is taken by the MRI apparatus, the shading level varies depending on the skeleton and the organ.

そこで骨格・体表抽出部121は、3次元画像データD1に写し出された骨格が白色(濃淡レベルが「1」)となり、体外及び体内腔が黒色(濃淡レベルが「0」)となり、当該骨格、体外及び体内腔を除く組織部分が灰色(濃淡レベルが「0.5」)となるように所定の上限閾値及び下限閾値を基準として3値化処理を施す。   Therefore, the skeleton / body surface extraction unit 121 displays the skeleton imaged in the three-dimensional image data D1 as white (lightness level is “1”), and the outside and body cavities become black (lightness level is “0”). Then, ternarization processing is performed on the basis of a predetermined upper limit threshold and lower limit threshold so that the tissue portion excluding the extracorporeal body and the body cavity is gray (the light and shade level is “0.5”).

骨格・体表抽出部121は、3値化処理を施した結果得られる3値化画像から、濃淡レベルが「1」(白色)である画素、及び濃淡レベルが「0.5」(灰色)である画素をそれぞれ抽出し、それら画素に対応するボクセルを生成して3次元的に配置することにより、図23に示すように、骨格31及び体表131を含む3次元骨格・体表モデル130を生成する。   From the ternary image obtained as a result of the ternarization process, the skeleton / body surface extraction unit 121 has a pixel whose gray level is “1” (white) and a gray level of “0.5” (gray). Are extracted, and voxels corresponding to these pixels are generated and arranged three-dimensionally, so that a three-dimensional skeleton / body surface model 130 including a skeleton 31 and a body surface 131 is obtained as shown in FIG. Is generated.

そして骨格・体表抽出部121は、生成した3次元骨格・体表モデル130のデータ(以下、これを3次元骨格・体表モデルデータとも呼ぶ)D111(図21)を記憶部15に記憶し、骨格・体表抽出処理を終了する。   The skeleton / body surface extraction unit 121 stores the data of the generated three-dimensional skeleton / body surface model 130 (hereinafter also referred to as three-dimensional skeleton / body surface model data) D111 (FIG. 21) in the storage unit 15. Then, the skeleton / body surface extraction process is terminated.

(1−2)椎体同定処理
CPU11は、骨格・体表抽出処理を終了すると、椎体同定部122(図21)により椎体同定処理を実行する。
(1-2) Vertebral body identification process CPU11 will perform a vertebral body identification process by the vertebral body identification part 122 (FIG. 21), after complete | finishing a skeleton and body surface extraction process.

椎体同定部122は、第1の実施の形態とほぼ同様に、記憶部15に記憶された3次元骨格・体表モデルデータD111、及び予め記憶部15に記憶された椎体テンプレートデータD2を読み出す。   As in the first embodiment, the vertebral body identification unit 122 receives the three-dimensional skeleton / body surface model data D111 stored in the storage unit 15 and the vertebral body template data D2 stored in the storage unit 15 in advance. read out.

そして椎体同定部122は、椎体テンプレートデータD2に基づく標準的な椎体形状をした椎体テンプレートと、3次元骨格・体表モデル130の骨格31とをパターンマッチングし、その結果として略円柱状でなる複数の椎体32を検出する。   The vertebral body identification unit 122 pattern-matches the vertebral body template having a standard vertebral body shape based on the vertebral body template data D2 and the skeleton 31 of the three-dimensional skeleton / body surface model 130, and as a result, substantially circular A plurality of columnar vertebral bodies 32 are detected.

椎体同定部122は、検出した複数の椎体から形態学的な特徴に基づいて第1胸椎の椎体(第1椎体)32A〜第12胸椎の椎体(第12椎体)32Lを同定する。また椎体同定部122は、同定した第1椎体32A〜第12椎体32Lの特徴点を第1特徴点33A〜第12特徴点33Lとして検出する。   The vertebral body identification unit 122 selects the first thoracic vertebral body (first vertebral body) 32A to the twelfth thoracic vertebral body (12th vertebral body) 32L based on the morphological characteristics from the detected plurality of vertebral bodies. Identify. The vertebral body identification unit 122 detects the feature points of the identified first vertebral body 32A to the twelfth vertebral body 32L as the first feature point 33A to the twelfth feature point 33L.

椎体同定部122は、同定した第1椎体32A〜第12椎体32Lの位置情報及び解剖学的名称、及び第1特徴点33A〜第12特徴点33Lの位置情報を椎体情報D112として記憶部15に記憶し、椎体同定処理を終了する。   The vertebral body identification unit 122 uses the positional information and anatomical names of the identified first vertebral body 32A to twelfth vertebral body 32L and the positional information of the first feature point 33A to twelfth feature point 33L as vertebral body information D112. It memorize | stores in the memory | storage part 15, and complete | finishes a vertebral body identification process.

(1−3)体内空間抽出処理
CPU11は、椎体同定処理を終了すると、体内空間抽出部123(図21)により体内空間抽出処理を実行する。
(1-3) Internal Space Extraction Processing When the CPU 11 finishes the vertebral body identification processing, the internal space extraction unit 123 (FIG. 21) executes internal space extraction processing.

体内空間抽出部123は、記憶部15に記憶された3次元骨格・体表モデルデータD111を読み出し、3次元骨格・体表モデル130における濃淡レベルが「0.5」(灰色)として抽出された組織部分の最外郭である体表131に囲まれた空間を体内空間132(図24)として抽出する。   The internal space extraction unit 123 reads the 3D skeleton / body surface model data D111 stored in the storage unit 15 and extracts the gray level in the 3D skeleton / body surface model 130 as “0.5” (gray). A space surrounded by the body surface 131 which is the outermost outline of the tissue portion is extracted as a body space 132 (FIG. 24).

なお、体内空間132として抽出する際、体内空間抽出部123は、体表131における腕に相当する部分を形態学的形状に基づいて分離し、分離したことにより体表131がない部分を胸部に相当する部分の体表131を曲線補間することにより外挿する。そして体内空間抽出部123は、胸部に相当する部分の体表131に囲まれた空間を体内空間132として抽出する。   When extracting as the internal space 132, the internal space extraction unit 123 separates the portion corresponding to the arm in the body surface 131 based on the morphological shape, and the portion that does not have the body surface 131 due to the separation is used as the chest. The corresponding portion of the body surface 131 is extrapolated by curve interpolation. Then, the body space extraction unit 123 extracts the space surrounded by the body surface 131 corresponding to the chest as the body space 132.

体内空間抽出部123は、体内空間132の位置情報を体内空間情報D113として記憶部15に記憶し、体内空間抽出処理を終了する。   The internal space extraction unit 123 stores the positional information of the internal space 132 in the storage unit 15 as internal space information D113, and ends the internal space extraction process.

(1−4)人体モデル変形処理
CPU11は、体内空間抽出処理を終了すると、人体モデル変形部124(図21)により人体モデル変形処理を実行する。この人体モデル変形処理について詳しく説明する。
(1-4) Human Body Model Deformation Process When the CPU 11 finishes the body space extraction process, the human body model deformation unit 124 (FIG. 21) executes the human body model deformation process. This human body model deformation process will be described in detail.

人体モデル変形部124は、骨格・体表抽出部121により生成された3次元骨格・体表モデルデータD111、椎体同定部122により生成された椎体情報D112、及び体内空間抽出部123により生成された体内空間情報D113を記憶部15から読み出す。   The human body model deforming unit 124 is generated by the three-dimensional skeleton / body surface model data D111 generated by the skeleton / body surface extracting unit 121, the vertebral body information D112 generated by the vertebral body identifying unit 122, and the body space extracting unit 123. The obtained body space information D113 is read from the storage unit 15.

ここで骨格・体表抽出部121により生成された3次元骨格・体表モデルデータD111、椎体同定部122により生成された椎体情報D112、及び体内空間抽出部123により生成された体内空間情報D113を合わせて3次元同定モデルデータD114とも呼ぶ。   Here, the 3D skeleton / body surface model data D111 generated by the skeleton / body surface extraction unit 121, the vertebral body information D112 generated by the vertebral body identification unit 122, and the in-vivo space information generated by the in-vivo space extraction unit 123. D113 is also collectively referred to as three-dimensional identification model data D114.

人体モデル変形部124は、図24(A)に示すように、3次元同定モデルデータD114に基づいた骨格31に対して、第1椎体32A〜第12椎体32Lが同定され、また第1特徴点33A〜第12特徴点33L及び体表131に囲まれた体内空間132が付加された3次元同定モデル133を生成する。   As shown in FIG. 24A, the human body model deforming unit 124 identifies the first vertebral body 32A to the twelfth vertebral body 32L with respect to the skeleton 31 based on the three-dimensional identification model data D114. A three-dimensional identification model 133 to which the body space 132 surrounded by the feature points 33A to 13L and the body surface 131 is added is generated.

そして人体モデル変形部124は、3次元同定モデル133の体内空間132を、第1特徴点33A〜第12特徴点33Lをそれぞれ含む水平面で輪切りにすることにより、第1分割空間132A〜第11分割空間132Kに分割する。   Then, the human body model deforming unit 124 cuts the internal space 132 of the three-dimensional identification model 133 along the horizontal planes including the first feature point 33A to the twelfth feature point 33L, respectively, so that the first divided space 132A to the eleventh division are obtained. The space is divided into 132K.

一方、人体モデル変形部124は、記憶部15から3次元標準人体モデル140のデータ(3次元標準人体モデルデータ)D103を読み出す。   On the other hand, the human body model deforming unit 124 reads data (three-dimensional standard human body model data) D103 of the three-dimensional standard human body model 140 from the storage unit 15.

この3次元標準人体モデル140は、図24(B)に示すように、3次元標準人体モデル140における椎体の特徴点の情報、及び体表141に囲まれた体内領域142の位置情報も含むようになされている。   This three-dimensional standard human body model 140 also includes information on vertebral body feature points in the three-dimensional standard human body model 140 and position information of the body region 142 surrounded by the body surface 141, as shown in FIG. It is made like that.

従って人体モデル変形部124は、3次元標準人体モデルデータD103を読み出すことにより、第1特徴点43A〜第12特徴点43Lと、体表141に囲まれた体内領域142とを認識し得るようになされている。   Therefore, the human body model deforming unit 124 can recognize the first feature point 43A to the twelfth feature point 43L and the in-vivo region 142 surrounded by the body surface 141 by reading the three-dimensional standard human body model data D103. Has been made.

ここで体内領域142は、3次元同定モデル133における体内空間132と対応する位置にあり、その内部には、臓器等の生体組織(各器官データ)が含まれる。   Here, the body region 142 is located at a position corresponding to the body space 132 in the three-dimensional identification model 133, and includes a living tissue (each organ data) such as an organ.

人体モデル変形部124は、3次元標準人体モデル140の体内領域142を、第1特徴点43A〜第12特徴点43Lをそれぞれ含む水平面で輪切りにすることにより、第1分割領域142A〜第11分割領域142Kに分割する。   The human body model deforming unit 124 cuts the in-vivo region 142 of the three-dimensional standard human body model 140 in a horizontal plane including the first feature point 43A to the twelfth feature point 43L, respectively, so that the first segment region 142A to the eleventh segment are divided. The area is divided into 142K.

人体モデル変形部124は、第1の実施の形態と同様に、第1分割領域142A〜第11分割領域142Kをそれぞれ第1分割空間132A〜第11分割空間132Kに合わせるよう、上下方向、前後方向及び左右方向に伸縮させて3次元被検者モデルを生成する。これに伴って、体表も肋骨と同様に変形される。   Similar to the first embodiment, the human body model deforming unit 124 moves the first divided area 142A to the eleventh divided area 142K to the first divided space 132A to the eleventh divided space 132K, respectively, in the up and down direction and the front and rear direction. And a three-dimensional subject model is generated by expanding and contracting in the left-right direction. Along with this, the body surface is also deformed in the same manner as the ribs.

人体モデル変形部124は、生成した3次元被検者モデルのデータ(3次元被検者モデルデータ)D115を記憶部15に記憶する。   The human body model deforming unit 124 stores the generated three-dimensional subject model data (three-dimensional subject model data) D115 in the storage unit 15.

(2)人体モデル変形処理手順
次に、上述した3次元人体モデル生成処理の手順についてフローチャートを用いて詳しく説明する。
(2) Human Body Model Deformation Processing Procedure Next, the above-described three-dimensional human body model generation processing procedure will be described in detail using a flowchart.

すなわちCPU11は、図25に示すように、ルーチンRT2の開始ステップからサブルーチンSRT11へ移る。CPU11は、図26に示すように、サブルーチンSRT11の開始ステップから入って次のステップSP41へ移り、3次元画像データD1を記憶部15から読み出し、当該3次元画像データD1の骨格の濃淡レベルが「1」となり、体外及び体内腔の濃淡レベルが「0」となり、その他の組織部分の濃淡レベルが「0.5」となるような所定の上限閾値及び下限閾値を設定し、次のステップSP42へ移る。   That is, as shown in FIG. 25, the CPU 11 proceeds from the start step of the routine RT2 to the subroutine SRT11. As shown in FIG. 26, the CPU 11 enters from the start step of the subroutine SRT11, moves to the next step SP41, reads out the three-dimensional image data D1 from the storage unit 15, and the density level of the skeleton of the three-dimensional image data D1 is “ Predetermined upper and lower thresholds are set such that the density levels of the extracorporeal and internal cavities are "0", and the density levels of the other tissue portions are "0.5", and the process proceeds to the next step SP42. Move.

ステップSP42においてCPU11は、3次元画像データD1に対して上限閾値及び下限閾値を用いて3値化処理を施し、次のステップSP43へ移る。   In step SP42, the CPU 11 performs ternary processing on the three-dimensional image data D1 using the upper limit threshold and the lower limit threshold, and proceeds to the next step SP43.

ステップSP43においてCPU11は、3値化処理を施すことで得られた3値化画像から3次元骨格・体表モデル130を生成し、骨格・体表抽出処理を終了して次のサブルーチンSRT12(図25)へ移る。   In step SP43, the CPU 11 generates a three-dimensional skeleton / body surface model 130 from the ternary image obtained by performing the ternarization processing, ends the skeleton / body surface extraction processing, and executes the next subroutine SRT12 (FIG. Go to 25).

サブルーチンSRT12においてCPU11は、椎体同定処理を行う。具体的には、CPU11は、図27に示すように、サブルーチンSRT12の開始ステップから入って次のステップSP51へ移り、3次元骨格・体表モデル130と椎体テンプレートデータD2に基づく椎体テンプレートとをパターンマッチングすることにより、略円柱状でなる複数の椎体を検出し、次のステップSP52へ移る。   In the subroutine SRT12, the CPU 11 performs vertebral body identification processing. Specifically, as shown in FIG. 27, the CPU 11 enters from the start step of the subroutine SRT12 and proceeds to the next step SP51, and the vertebral body template based on the three-dimensional skeleton / body surface model 130 and the vertebral body template data D2 Are subjected to pattern matching to detect a plurality of vertebral bodies having a substantially cylindrical shape, and the process proceeds to the next step SP52.

ステップSP52においてCPU11は、ステップSP51において検出した複数の椎体の中点を特徴点として検出し、次のステップSP53へ移る。   In step SP52, the CPU 11 detects the midpoints of the plurality of vertebral bodies detected in step SP51 as feature points, and proceeds to the next step SP53.

ステップSP53においてCPU11は、ステップSP52において検出した複数の椎体から形態学的な特徴に基づいて第1椎体32A〜第12椎体32Lを同定し、当該第1椎体32A〜第12椎体32Lの特徴点をそれぞれ第1特徴点33A〜第12特徴点33Lとし、椎体同定処理を終了して次のサブルーチンSRT13(図25)へ移る。   In step SP53, the CPU 11 identifies the first vertebral body 32A to the twelfth vertebral body 32L based on the morphological characteristics from the plurality of vertebral bodies detected in step SP52, and the first vertebral body 32A to the twelfth vertebral body. The 32L feature points are set as the first feature point 33A to the twelfth feature point 33L, respectively, and the vertebral body identification process is terminated, and the process proceeds to the next subroutine SRT13 (FIG. 25).

サブルーチンSRT13においてCPU11は、体内空間抽出処理を行う。具体的には、CPU11は、図28に示すように、サブルーチンSRT13の開始ステップから入って次のステップSP61へ移り、3次元骨格・体表モデル130における濃淡レベルが「0.5」(灰色)として抽出された組織部分の最外郭である体表131に囲まれた空間を体内空間132として抽出し、体内空間抽出処理を終了して次のサブルーチンSRT14(図25)へ移る。   In the subroutine SRT13, the CPU 11 performs a body space extraction process. Specifically, as shown in FIG. 28, the CPU 11 enters from the start step of the subroutine SRT13, moves to the next step SP61, and the gray level in the three-dimensional skeleton / body surface model 130 is “0.5” (gray). The space surrounded by the body surface 131 which is the outermost contour of the extracted tissue part is extracted as the body space 132, the body space extraction process is terminated, and the process proceeds to the next subroutine SRT14 (FIG. 25).

サブルーチンSRT14においてCPU11は、人体モデル変形処理を行う。具体的には、CPU11は、図29に示すように、サブルーチンSRT4の開始ステップから入って次のステップSP71へ移り、3次元同定モデル133の体内空間132を、第1特徴点33A〜第12特徴点33Lをそれぞれ含む水平面で輪切りにすることにより、第1分割空間132A〜第11分割空間132Kに分割する。   In the subroutine SRT14, the CPU 11 performs a human body model deformation process. Specifically, as shown in FIG. 29, the CPU 11 enters from the start step of the subroutine SRT4, moves to the next step SP71, and moves the internal space 132 of the three-dimensional identification model 133 to the first feature point 33A to the twelfth feature. It divides | segments into the 1st division space 132A-the 11th division space 132K by carrying out a round slice in the horizontal surface each including the point 33L.

またCPU11は、3次元標準人体モデル140の体内領域142を、第1特徴点43A〜第12特徴点43Lをそれぞれ含む水平面で輪切りにすることにより、第1分割領域142A〜第11分割領域142Kに分割し、次のステップSP72へ移る。   Further, the CPU 11 cuts the in-vivo region 142 of the three-dimensional standard human body model 140 into a first divided region 142A to an eleventh divided region 142K by cutting the body region 142 into horizontal planes including the first feature point 43A to the twelfth feature point 43L. Divide and move to next step SP72.

ステップSP72〜SP77においてCPU11は、第1の実施の形態におけるステップSP32〜SP37と同様に、第1分割領域142A〜第11分割領域142Kをそれぞれ第1分割空間132A〜第11分割空間132Kと一致するように上下方向、前後方向及び左右方向に伸縮させて3次元被検者モデルを生成し、次のステップへ移って処理を終了する。   In steps SP72 to SP77, the CPU 11 matches the first divided area 142A to the eleventh divided area 142K with the first divided space 132A to the eleventh divided space 132K, respectively, similarly to steps SP32 to SP37 in the first embodiment. As described above, the three-dimensional subject model is generated by expanding and contracting in the vertical direction, the front-rear direction, and the left-right direction, and the process proceeds to the next step and ends.

(3)動作及び効果
以上の構成において、3次元人体モデル生成装置1は、CT装置やMRI装置によって撮像された胸部を含む3次元画像データD1を取得すると、当該3次元画像データD1に対して3値化処理を施して3次元骨格・体表モデル130を生成する。
(3) Operation and effect In the above configuration, when the three-dimensional human body model generation device 1 acquires the three-dimensional image data D1 including the chest imaged by the CT device or the MRI device, the three-dimensional image data D1 is obtained. A three-dimensional process is performed to generate a three-dimensional skeleton / body surface model 130.

3次元人体モデル生成装置1は、3次元骨格・体表モデル130から第1椎体32A〜第12椎体32Lを同定すると共に、第1特徴点33A〜第12特徴点33Lを抽出する。また3次元人体モデル生成装置1は、3次元骨格・体表モデル130から体表131に囲まれた空間を体内空間132として抽出する。   The three-dimensional human body model generation device 1 identifies the first vertebral body 32A to the twelfth vertebral body 32L from the three-dimensional skeleton / body surface model 130, and extracts the first feature point 33A to the twelfth feature point 33L. The three-dimensional human body model generation apparatus 1 extracts a space surrounded by the body surface 131 from the three-dimensional skeleton / body surface model 130 as the body space 132.

そして3次元人体モデル生成装置1は、3次元標準人体モデル140の体内領域142を体内空間132に合わせるように変形させることにより、体内領域142に含まれる各器官データ(例えば、心臓、肺などの臓器データ、関節データや骨格データ)も変形させた3次元被検者モデルを生成するようにした。   Then, the three-dimensional human body model generation device 1 deforms the body region 142 of the three-dimensional standard human body model 140 so as to match the body space 132, whereby each organ data (for example, heart, lung, etc.) included in the body region 142 is transformed. A three-dimensional subject model in which the organ data, joint data, and skeleton data) are also deformed is generated.

従って3次元人体モデル生成装置1は、3次元画像データD1を基に、被検者ごとの胸部が正確に再現された3次元被検者モデルを容易に生成することができる。   Therefore, the three-dimensional human body model generation apparatus 1 can easily generate a three-dimensional subject model in which the chest for each subject is accurately reproduced based on the three-dimensional image data D1.

<3.第3の実施の形態>
第1及び第2の実施の形態においては、3次元画像データD1から胸部の体内空間37及び132を抽出し、3次元標準人体モデル40及び140における胸部の体内領域47及び142を当該体内空間32及び132に合わせて変形させる。
<3. Third Embodiment>
In the first and second embodiments, the chest internal spaces 37 and 132 are extracted from the three-dimensional image data D1, and the chest internal regions 47 and 142 in the three-dimensional standard human models 40 and 140 are extracted from the internal space 32. And 132.

これに対して第3の実施の形態においては、3次元画像データD1から腹部の体内空間を抽出し、3次元標準人体モデルにおける腹部の体内領域を当該体内空間に合わせて変形させる。なお、3次元人体モデル生成装置1の構成については、第1の実施の形態と同様であるためその説明を省略する。   In contrast, in the third embodiment, the abdominal body space is extracted from the three-dimensional image data D1, and the abdominal body region in the three-dimensional standard human body model is deformed in accordance with the body space. Note that the configuration of the three-dimensional human body model generation apparatus 1 is the same as that of the first embodiment, and thus the description thereof is omitted.

(1)3次元人体モデル生成処理
CPU11は、3次元人体モデル生成処理を実行する際、図2との対応部分に同一符号を付した図30に示すように、骨格・筋抽出部221、椎体同定部222、体内空間抽出部223、及び人体モデル変形部224として機能するようになされている。
(1) Three-dimensional human body model generation process When the CPU 11 executes the three-dimensional human body model generation process, the skeleton / muscle extraction unit 221, vertebrae as shown in FIG. It functions as a body identification unit 222, a body space extraction unit 223, and a human body model deformation unit 224.

(1−1)骨格・筋抽出処理
CPU11は、3次元人体モデル生成処理を実行すると、骨格・筋抽出部221により骨格・筋抽出処理を実行する。この骨格・筋抽出処理について詳しく説明する。
(1-1) Skeletal / Muscle Extraction Processing When the CPU 11 executes the three-dimensional human body model generation process, the skeleton / muscle extraction unit 221 executes the skeletal / muscle extraction processing. This skeletal / muscle extraction process will be described in detail.

骨格・筋抽出部221は、CT装置によって撮像された場合、記憶部15から腹部を含む3次元画像データD1を読み出し、当該3次元画像データD1に基づいてボリュームデータを作成する。   When imaged by the CT apparatus, the skeletal / muscle extracting unit 221 reads the three-dimensional image data D1 including the abdomen from the storage unit 15, and creates volume data based on the three-dimensional image data D1.

ここで、図22に示したように、3次元画像データD1の水平断面画像CG4では、骨格は白色に写り、筋、内臓等は白と黒との中間色(灰色)に写り、体外及び体内腔は黒色に写る。また筋と内臓とは輝度レベルが異なる。MRI装置によって撮像された場合にも同様に、骨格や臓器によって濃淡レベルが異なる。   Here, as shown in FIG. 22, in the horizontal cross-sectional image CG4 of the three-dimensional image data D1, the skeleton appears white, and the muscles, internal organs, etc. appear in an intermediate color (gray) between white and black. Appears black. The muscles and internal organs have different brightness levels. Similarly, when the image is taken by the MRI apparatus, the shading level varies depending on the skeleton and the organ.

そこで骨格・筋抽出部221は、3次元画像データD1の骨格が白色(濃淡レベルが「1」)となり、筋(筋肉)が灰色(濃淡レベルが「0.5」)となり、当該骨格及び筋を除く組織部分が黒色(濃淡レベルが「0」)となるように所定の第1上限閾値、第1下限閾値、第2上限閾値及び第2下限閾値を基準として3値化処理を施す。   Therefore, the skeletal / muscle extracting unit 221 turns the skeleton of the three-dimensional image data D1 white (shading level is “1”), and the muscle (muscle) is gray (shading level is “0.5”). A ternarization process is performed on the basis of a predetermined first upper limit threshold, first lower limit threshold, second upper limit threshold, and second lower limit threshold so that the tissue portion excluding the color becomes black (the light and shade level is “0”).

因みに、3次元画像データD1における骨格の濃淡レベルが第1上限閾値と第1下限閾値との間となり、筋の濃淡レベルが第2上限閾値と第2下限閾値との間となり、骨格及び筋を除く組織部分が第1上限閾値超、第1下限閾値と第2上限閾値との間、及び第2下限閾値未満となるように、第1上限閾値、第1下限閾値、第2上限閾値及び第2下限閾値が設定される。   Incidentally, the density level of the skeleton in the three-dimensional image data D1 is between the first upper limit threshold value and the first lower limit threshold value, and the density level of the muscle is between the second upper limit threshold value and the second lower limit threshold value. The first upper limit threshold, the first lower limit threshold, the second upper limit threshold, and the first upper limit threshold are set such that the tissue portion to be excluded is between the first upper limit threshold, the first lower limit threshold and the second upper limit threshold, and less than the second lower limit threshold. A 2 lower limit threshold is set.

骨格・筋抽出部221は、3値化処理を施した結果得られる3値化画像から、濃淡レベルが「1」(白色)である画素、及び濃淡レベルが「0.5」(灰色)である画素をそれぞれ抽出し、それら画素に対応するボクセルを生成して3次元的に配置することにより、図31に示すように、骨格231及び筋232を含む3次元骨格・筋モデル230を生成する。   The skeletal / muscle extracting unit 221 uses a ternary image obtained as a result of the ternarization processing, a pixel having a lightness level of “1” (white), and a lightness level of “0.5” (gray). Each pixel is extracted, and voxels corresponding to the pixels are generated and arranged three-dimensionally, thereby generating a three-dimensional skeleton / muscle model 230 including a skeleton 231 and a muscle 232 as shown in FIG. .

そして骨格・筋抽出部221は、生成した3次元骨格・筋モデル230のデータ(以下、これを3次元骨格・筋モデルデータとも呼ぶ)D211(図30)を記憶部15に記憶し、骨格・筋抽出処理を終了する。   The skeletal / muscle extracting unit 221 stores the generated three-dimensional skeletal / muscle model 230 data (hereinafter also referred to as three-dimensional skeletal / muscular model data) D211 (FIG. 30) in the storage unit 15, The muscle extraction process ends.

(1−2)椎体同定処理
CPU11は、骨格・筋抽出処理を終了すると、椎体同定部222(図21)により椎体同定処理を実行する。
(1-2) Vertebral body identification process CPU11 will perform a vertebral body identification process by the vertebral body identification part 222 (FIG. 21), after complete | finishing a skeleton and a muscle extraction process.

椎体同定部222は、第1の実施の形態とほぼ同様に、記憶部15に記憶された3次元骨格・筋モデルデータD211、及び予め記憶部15に記憶された椎体テンプレートデータD2を読み出す。   The vertebral body identification unit 222 reads out the 3D skeletal / muscle model data D211 stored in the storage unit 15 and the vertebral body template data D2 stored in the storage unit 15 in the same manner as in the first embodiment. .

そして椎体同定部22は、椎体テンプレートデータD2に基づく標準的な椎体形状をした椎体テンプレートと、3次元骨格・筋モデル230の骨格231とをパターンマッチングし、その結果として略円柱状でなる複数の椎体32を検出する。   The vertebral body identifying unit 22 pattern-matches the vertebral body template having a standard vertebral body shape based on the vertebral body template data D2 and the skeleton 231 of the three-dimensional skeleton / muscle model 230, and as a result, has a substantially cylindrical shape. A plurality of vertebral bodies 32 are detected.

続いて椎体同定部222は、検出した複数の椎体から形態学的な特徴に基づいて例えば第12胸椎の椎体32L〜第5腰椎の椎体32Qを同定する(図33)。なお第1腰椎の椎体32M〜第5腰椎の椎体32Qを第13椎体32M〜第17椎体32Qとも呼ぶ。   Subsequently, the vertebral body identifying unit 222 identifies, for example, the vertebral body 32L of the twelfth thoracic vertebra 32L to the vertebral body 32Q of the fifth lumbar vertebra based on the morphological features from the plurality of detected vertebral bodies (FIG. 33). The first lumbar vertebra 32M to the fifth lumbar vertebra 32Q are also referred to as the thirteenth vertebra 32M to the seventeenth vertebra 32Q.

また椎体同定部222は、同定した第12椎体32L〜第17椎体32Qの中点を第12特徴点33L〜第17特徴点33Qとして検出する。   The vertebral body identification unit 222 detects the midpoints of the identified twelfth vertebral body 32L to seventeenth vertebral body 32Q as the twelfth feature point 33L to the seventeenth feature point 33Q.

椎体同定部222は、同定した第12椎体32L〜第17椎体32Qの位置情報及び解剖学的名称、及び第12特徴点33L〜第17特徴点33Qの位置情報を椎体情報D212として記憶部15に記憶し、椎体同定処理を終了する。   The vertebral body identification unit 222 uses the identified position information and anatomical names of the twelfth vertebral body 32L to the seventeenth vertebral body 32Q and the positional information of the twelfth feature point 33L to the seventeenth feature point 33Q as vertebral body information D212. It memorize | stores in the memory | storage part 15, and complete | finishes a vertebral body identification process.

(1−3)体内空間抽出処理
CPU11は、椎体同定処理を終了すると、体内空間抽出部223(図30)により体内空間抽出処理を実行する。
(1-3) Body Space Extraction Processing When the CPU 11 finishes the vertebral body identification processing, the body space extraction unit 223 (FIG. 30) executes body space extraction processing.

体内空間抽出部223は、記憶部15に記憶された3次元骨格・筋モデルデータD211を読み出し、図32に示すように、3次元骨格・筋モデル230における濃淡レベルが「0.5」(灰色)として抽出された筋232のうち、最も外周側にある筋を検出する。   The internal space extraction unit 223 reads the three-dimensional skeletal / muscle model data D211 stored in the storage unit 15, and the gray level in the three-dimensional skeletal / muscular model 230 is “0.5” (gray) as shown in FIG. ) Of the muscles 232 extracted as the outermost side are detected.

そして体内空間抽出部223は、3次元骨格・筋モデル230の水平断面で、検出した筋232の外側を囲む外周線233を検出する。体内空間抽出部223は、3次元骨格・筋モデル230における所定間隔ごとの水平断面で外周線233を検出し、複数の外周線233に囲まれた空間を体内空間234(図33)として抽出する。   Then, the body space extraction unit 223 detects an outer peripheral line 233 that surrounds the outside of the detected muscle 232 in the horizontal section of the three-dimensional skeletal / muscle model 230. The internal space extraction unit 223 detects the outer peripheral line 233 in a horizontal section at predetermined intervals in the three-dimensional skeleton / muscle model 230, and extracts a space surrounded by the plurality of outer peripheral lines 233 as the internal space 234 (FIG. 33). .

体内空間抽出部223は、外周線233に囲まれた体内空間234の位置情報を体内空間情報D213として記憶部15に記憶し、体内空間抽出処理を終了する。   The internal space extraction unit 223 stores the positional information of the internal space 234 surrounded by the outer peripheral line 233 in the storage unit 15 as internal space information D213, and ends the internal space extraction process.

(1−4)人体モデル変形処理
CPU11は、体内空間抽出処理を終了すると、人体モデル変形部224(図30)により人体モデル変形処理を実行する。この人体モデル変形処理について詳しく説明する。
(1-4) Human Body Model Deformation Process When the CPU 11 finishes the body space extraction process, the human body model deformation unit 224 (FIG. 30) executes the human body model deformation process. This human body model deformation process will be described in detail.

人体モデル変形部224は、骨格・筋抽出部221により生成された3次元骨格・筋モデルデータD211、椎体同定部222により生成された椎体情報D212、及び体内空間抽出部223により生成された体内空間情報D213を記憶部15から読み出す。   The human body model deforming unit 224 is generated by the 3D skeletal / muscle model data D211 generated by the skeletal / muscle extracting unit 221, the vertebral body information D212 generated by the vertebral body identifying unit 222, and the body space extracting unit 223. The body space information D213 is read from the storage unit 15.

ここで骨格・筋抽出部221により生成された3次元骨格・筋モデルデータD211、椎体同定部222により生成された椎体情報D212、及び体内空間抽出部223により生成された体内空間情報D213を合わせて3次元同定モデルデータD214とも呼ぶ。   Here, the three-dimensional skeletal / muscle model data D211 generated by the skeletal / muscle extracting unit 221, the vertebral body information D212 generated by the vertebral body identifying unit 222, and the in-vivo space information D213 generated by the in-vivo space extracting unit 223 are used. These are also referred to as three-dimensional identification model data D214.

人体モデル変形部224は、図33(A)に示すように、3次元同定モデルデータD214に基づいた骨格231に対して、第12椎体32L〜第17椎体32Qが同定され、また第12特徴点33L〜第17特徴点33Q及び体内空間234を付加した3次元同定モデル235を生成する。   As shown in FIG. 33A, the human body model deforming unit 224 identifies the twelfth vertebral body 32L to the seventeenth vertebral body 32Q with respect to the skeleton 231 based on the three-dimensional identification model data D214. A three-dimensional identification model 235 to which the feature point 33L to the seventeenth feature point 33Q and the body space 234 are added is generated.

そして人体モデル変形部224は、3次元同定モデル235の体内空間234を、第12特徴点33L〜第17特徴点33Qをそれぞれ含む水平面で輪切りにすることにより、第12分割空間234L〜第16分割空間234Pに分割する。   Then, the human body model deforming unit 224 cuts the internal space 234 of the three-dimensional identification model 235 into a horizontal plane that includes the twelfth feature point 33L to the seventeenth feature point 33Q, thereby twelfth divided space 234L to sixteenth division. The space 234P is divided.

一方、人体モデル変形部224は、記憶部15から3次元標準人体モデル240のデータ(3次元標準人体モデルデータ)D203を読み出す。   On the other hand, the human body model deforming unit 224 reads data (three-dimensional standard human body model data) D203 of the three-dimensional standard human body model 240 from the storage unit 15.

この3次元標準人体モデル240は、図33(B)に示すように、3次元標準人体モデル240における椎体の特徴点の情報、及び筋の外周線に囲まれた体内領域244の位置情報も含むようになされている。   As shown in FIG. 33 (B), this three-dimensional standard human body model 240 also includes information on vertebral body feature points in the three-dimensional standard human body model 240 and positional information on the body region 244 surrounded by the outer circumference of the muscle. It is made to include.

従って人体モデル変形部224は、3次元標準人体モデルデータD203を読み出すことにより、第12特徴点43L〜第17特徴点43Qと、外周線に囲まれた体内領域244とを認識し得るようになされている。   Therefore, the human body model deforming unit 224 can recognize the twelfth feature point 43L to the seventeenth feature point 43Q and the body region 244 surrounded by the outer peripheral line by reading the three-dimensional standard human body model data D203. ing.

ここで体内領域244は、3次元同定モデル235における体内空間234と対応する位置にあり、その内部には、臓器等の生体組織(各器官データ)が含まれる。   Here, the body region 244 is located at a position corresponding to the body space 234 in the three-dimensional identification model 235, and contains a living tissue (organ data) such as an organ.

人体モデル変形部224は、3次元標準人体モデル240の体内領域244を、第12特徴点43L〜第17特徴点43Qをそれぞれ含む水平面で輪切りにすることにより、第12分割領域244L〜第16分割領域244Pに分割する。   The human body model deforming unit 224 cuts the in-vivo region 244 of the three-dimensional standard human body model 240 into a horizontal plane including the twelfth feature point 43L to the seventeenth feature point 43Q, thereby twelfth divided region 244L to sixteenth division. The area is divided into 244P.

人体モデル変形部224は、第1の実施の形態と同様に、第12分割領域244L〜第16分割領域244Pをそれぞれ第12分割空間234L〜第16分割空間234Pに合わせるよう、上下方向、前後方向及び左右方向に伸縮させて3次元被検者モデルを生成する。これに伴って、筋(筋肉)についても、肋骨と同様に変形させる。   Similar to the first embodiment, the human body model deforming unit 224 moves the twelfth divided region 244L to the sixteenth divided region 244P to the twelfth divided space 234L to the sixteenth divided space 234P in the vertical direction and the front-rear direction. And a three-dimensional subject model is generated by expanding and contracting in the left-right direction. Along with this, the muscles (muscles) are also deformed in the same manner as the ribs.

人体モデル変形部224は、生成した3次元被検者モデルのデータ(3次元被検者モデルデータ)D215を記憶部15に記憶する。   The human body model deforming unit 224 stores the generated three-dimensional subject model data (three-dimensional subject model data) D215 in the storage unit 15.

(2)人体モデル変形処理手順
次に、上述した3次元人体モデル生成処理の手順についてフローチャートを用いて詳しく説明する。
(2) Human Body Model Deformation Processing Procedure Next, the above-described three-dimensional human body model generation processing procedure will be described in detail using a flowchart.

すなわちCPU11は、図34に示すように、ルーチンRT3の開始ステップからサブルーチンSRT21へ移る。CPU11は、図35に示すように、サブルーチンSRT21の開始ステップから入って次のステップSP81へ移り、3次元画像データD1を記憶部15から読み出し、当該3次元画像データD1における骨格の濃淡レベルが「1」となり、筋の濃淡レベルが「0.5」となり、その他の組織部分の濃淡レベルが「0」となるような第1上限閾値、第1下限閾値、第2上限閾値及び第2下限閾値を設定し、次のステップSP82へ移る。   That is, as shown in FIG. 34, the CPU 11 proceeds from the start step of the routine RT3 to the subroutine SRT21. As shown in FIG. 35, the CPU 11 enters from the start step of the subroutine SRT21, moves to the next step SP81, reads out the 3D image data D1 from the storage unit 15, and the skeleton density level in the 3D image data D1 is “ The first upper limit threshold, the first lower limit threshold, the second upper limit threshold, and the second lower limit threshold are set to “1”, the tone level of the muscle is “0.5”, and the tone levels of the other tissue portions are set to “0”. Is set and the process proceeds to the next step SP82.

ステップSP82においてCPU11は、3次元画像データD1に対して第1上限閾値、第1下限閾値、第2上限閾値及び第2下限閾値を用いて3値化処理を施し、次のステップSP83へ移る。   In step SP82, the CPU 11 performs ternary processing on the three-dimensional image data D1 using the first upper limit threshold, the first lower limit threshold, the second upper limit threshold, and the second lower limit threshold, and proceeds to the next step SP83.

ステップSP83においてCPU11は、3値化処理を施すことで得られた3値化画像から3次元骨格・筋モデル230を生成し、骨格・筋抽出処理を終了して次のサブルーチンSRT22(図34)へ移る。   In step SP83, the CPU 11 generates a three-dimensional skeletal / muscle model 230 from the ternary image obtained by performing the ternary processing, ends the skeletal / muscle extraction processing, and executes the next subroutine SRT22 (FIG. 34). Move on.

サブルーチンSRT22においてCPU11は、椎体同定処理を行う。具体的には、CPU11は、図36に示すように、サブルーチンSRT22の開始ステップから入って次のステップSP91へ移り、3次元骨格・筋モデル230の骨格231と椎体テンプレートデータD2に基づく椎体テンプレートとをパターンマッチングすることにより、略円柱状でなる複数の椎体を検出し、次のステップSP92へ移る。   In the subroutine SRT22, the CPU 11 performs vertebral body identification processing. Specifically, as shown in FIG. 36, the CPU 11 enters from the start step of the subroutine SRT22, moves to the next step SP91, and the vertebral body based on the skeleton 231 of the three-dimensional skeleton / muscle model 230 and the vertebral body template data D2. By pattern matching with the template, a plurality of vertebral bodies having a substantially cylindrical shape are detected, and the process proceeds to the next step SP92.

ステップSP92においてCPU11は、ステップSP91において検出した複数の椎体の中点を特徴点として検出し、次のステップSP93へ移る。   In step SP92, the CPU 11 detects the midpoints of the plurality of vertebral bodies detected in step SP91 as feature points, and proceeds to the next step SP93.

ステップSP93においてCPU11は、ステップSP91において検出した複数の椎体から形態学的な特徴に基づいて第12椎体32L〜第17椎体32Qを同定し、当該第12椎体32L〜第17椎体32Qの特徴点をそれぞれ第12特徴点33L〜第17特徴点33Qとし、椎体同定処理を終了して次のサブルーチンSRT23(図34)へ移る。   In step SP93, the CPU 11 identifies the twelfth vertebral body 32L to the seventeenth vertebral body 32Q based on the morphological features from the plurality of vertebral bodies detected in step SP91, and the twelfth vertebral body 32L to the seventeenth vertebral body. The 32Q feature points are set as the twelfth feature point 33L to the seventeenth feature point 33Q, respectively, and the vertebral body identification process is terminated, and the process proceeds to the next subroutine SRT23 (FIG. 34).

サブルーチンSRT23においてCPU11は、体内空間抽出処理を行う。具体的には、CPU11は、図37に示すように、サブルーチンSRT23の開始ステップから入って次のステップSP101へ移り、3次元骨格・筋モデル230における所定間隔ごとの水平断面で、筋232の外周を囲む外周線233を検出し、次のステップSP102へ移る。   In the subroutine SRT23, the CPU 11 performs a body space extraction process. Specifically, as shown in FIG. 37, the CPU 11 enters from the start step of the subroutine SRT23 and moves to the next step SP101, where the outer periphery of the muscle 232 is shown in a horizontal section at predetermined intervals in the three-dimensional skeletal / muscle model 230. , And moves to the next step SP102.

ステップSP102においてCPU11は、所定間隔ごとに検出された外周線233に囲まれた空間を体内空間234として抽出し、体内空間抽出処理を終了して次のサブルーチンSRT24(図34)へ移る。   In step SP102, the CPU 11 extracts the space surrounded by the outer peripheries 233 detected at predetermined intervals as the body space 234, ends the body space extraction process, and proceeds to the next subroutine SRT24 (FIG. 34).

サブルーチンSRT24においてCPU11は、人体モデル変形処理を行う。具体的には、CPU11は、図38に示すように、サブルーチンSRT24の開始ステップから入って次のステップSP111へ移り、3次元同定モデル235の体内空間234を、第12特徴点33L〜第17特徴点33Qをそれぞれ含む水平面で輪切りにすることにより、第12分割空間234L〜第16分割空間234Pに分割する。   In the subroutine SRT24, the CPU 11 performs a human body model deformation process. Specifically, as shown in FIG. 38, the CPU 11 enters from the start step of the subroutine SRT24, moves to the next step SP111, and changes the internal space 234 of the three-dimensional identification model 235 from the twelfth feature point 33L to the seventeenth feature. Dividing into a twelfth divided space 234L to a sixteenth divided space 234P by rounding off at horizontal planes including the respective points 33Q.

またCPU11は、3次元標準人体モデル240の体内領域244を、第12特徴点43L〜第17特徴点43Qをそれぞれ含む水平面で輪切りにすることにより、第12分割領域244L〜第16分割領域244Pに分割し、次のステップSP112へ移る。   Further, the CPU 11 cuts the body region 244 of the three-dimensional standard human body model 240 into a twelfth divided region 244L to a sixteenth divided region 244P by cutting the body region 244 into horizontal planes including the twelfth feature point 43L to the seventeenth feature point 43Q. Divide and move to next step SP112.

ステップSP112〜SP117においてCPU11は、第1の実施の形態におけるステップSP32〜SP37と同様に、第12分割領域244L〜第16分割領域244Pをそれぞれ第12分割空間234L〜第16分割空間234Pと一致するように上下方向、前後方向及び左右方向に伸縮させて3次元被検者モデルを生成し、次のステップへ移って処理を終了する。   In steps SP112 to SP117, the CPU 11 matches the twelfth divided area 244L to the sixteenth divided area 244P with the twelfth divided space 234L to the sixteenth divided space 234P, respectively, similarly to steps SP32 to SP37 in the first embodiment. As described above, the three-dimensional subject model is generated by expanding and contracting in the vertical direction, the front-rear direction, and the left-right direction, and the process proceeds to the next step and ends.

(3)動作及び効果
以上の構成において、3次元人体モデル生成装置1は、CT装置やMRI装置によって撮像された腹部の3次元画像データD1を取得すると、当該3次元画像データD1に対して3値化処理を施して3次元骨格・筋モデル230を生成する。
(3) Operation and Effect In the above configuration, when the three-dimensional human body model generation device 1 acquires the three-dimensional image data D1 of the abdomen captured by the CT device or the MRI device, the three-dimensional image data D1 is 3 A three-dimensional skeletal / muscle model 230 is generated by performing the value processing.

3次元人体モデル生成装置1は、3次元骨格・筋モデル230から第12椎体32L〜第17椎体32Qを同定すると共に、第12特徴点33L〜第17特徴点33Qを抽出する。   The three-dimensional human body model generation device 1 identifies the twelfth vertebral body 32L to the seventeenth vertebral body 32Q from the three-dimensional skeletal / muscular model 230 and extracts the twelfth feature point 33L to the seventeenth feature point 33Q.

また3次元人体モデル生成装置1は、3次元骨格・筋モデル230から筋232の外周を囲む外周線233に囲まれた空間を体内空間234として抽出する。そして3次元人体モデル生成装置1は、3次元標準人体モデル240の体内領域244を体内空間234に合わせるように変形させることにより、体内領域244に含まれる各器官データ(例えば、胃、肝臓などの臓器データ、関節データや骨格データ)も変形させた3次元被検者モデルを生成するようにした。   Further, the three-dimensional human body model generation device 1 extracts a space surrounded by an outer peripheral line 233 that surrounds the outer periphery of the muscle 232 from the three-dimensional skeleton / muscle model 230 as the body space 234. Then, the three-dimensional human body model generation device 1 deforms the body region 244 of the three-dimensional standard human body model 240 so as to match the body space 234, whereby each organ data (for example, stomach, liver, etc.) included in the body region 244 is changed. A three-dimensional subject model in which the organ data, joint data, and skeleton data) are also deformed is generated.

従って3次元人体モデル生成装置1は、3次元画像データD1を基に、被検者ごとの腹部が正確に再現された3次元被検者モデルを容易に生成することができる。   Therefore, the three-dimensional human body model generation device 1 can easily generate a three-dimensional subject model in which the abdomen for each subject is accurately reproduced based on the three-dimensional image data D1.

<4.第4の実施の形態>
第1及び第2の実施の形態においては、3次元画像データD1から胸部の体内空間37及び132を抽出し、3次元標準人体モデル40及び140における胸部の体内領域47及び142を当該体内空間32及び132に合わせて変形させる。
<4. Fourth Embodiment>
In the first and second embodiments, the chest internal spaces 37 and 132 are extracted from the three-dimensional image data D1, and the chest internal regions 47 and 142 in the three-dimensional standard human models 40 and 140 are extracted from the internal space 32. And 132.

また第3の実施の形態においては、3次元画像データD1から腹部の体内空間234を抽出し、3次元標準人体モデル240における腹部の体内領域244を当該体内空間234に合わせるように変形させる。   In the third embodiment, the abdominal body space 234 is extracted from the three-dimensional image data D1, and the abdominal body region 244 in the three-dimensional standard human body model 240 is deformed so as to match the body space 234.

これに対して第4の実施の形態においては、3次元画像データD1から骨盤周辺である下腹部の体内空間を抽出し、3次元標準人体モデルにおける下腹部の体内領域を当該体内空間に合わせて変形させる。なお、3次元人体モデル生成装置1の構成については、第1の実施の形態と同様であるためその説明を省略する。   On the other hand, in the fourth embodiment, the body space of the lower abdomen around the pelvis is extracted from the three-dimensional image data D1, and the body region of the lower abdomen in the three-dimensional standard human body model is matched with the body space. Deform. Note that the configuration of the three-dimensional human body model generation apparatus 1 is the same as that of the first embodiment, and thus the description thereof is omitted.

(1)3次元人体モデル生成処理
CPU11は、3次元人体モデル生成処理を実行する際、図2との対応部分に同一符号を付した図39に示すように、骨格・筋抽出部321、椎体同定部322、体内空間抽出部323、及び人体モデル変形部324として機能するようになされている。
(1) Three-dimensional human body model generation process When the CPU 11 executes the three-dimensional human body model generation process, the skeleton / muscle extraction unit 321, It functions as a body identifying unit 322, a body space extracting unit 323, and a human body model deforming unit 324.

(1−1)骨格・筋抽出処理
CPU11は、3次元人体モデル生成処理を実行すると、骨格・筋抽出部321により骨格・筋抽出処理を実行する。この骨格・筋抽出処理について詳しく説明する。
(1-1) Skeletal / Muscle Extraction Processing When the CPU 11 executes the three-dimensional human body model generation process, the skeleton / muscle extraction unit 321 executes the skeletal / muscle extraction processing. This skeletal / muscle extraction process will be described in detail.

骨格・筋抽出部321は、骨格・筋抽出処理を実行すると、記憶部15から下腹部を含む3次元画像データD1を読み出し、当該3次元画像データD1に基づいてボリュームデータを作成する。   When the skeletal / muscle extracting unit 321 executes the skeletal / muscle extracting process, the skeletal / muscle extracting unit 321 reads out the three-dimensional image data D1 including the lower abdomen from the storage unit 15, and creates volume data based on the three-dimensional image data D1.

骨格・筋抽出部321は、第3の実施の形態と同様に、3次元画像データD1における骨格が白色(濃淡レベルが「1」)となり、筋が灰色(濃淡レベルが「0.5」)となり、当該骨格及び筋を除く組織部分が黒色(濃淡レベルが「0」)となるように所定の第1上限閾値、第1下限閾値、第2上限閾値及び第2下限閾値を基準として3値化処理を施す。   As in the third embodiment, the skeleton / muscle extraction unit 321 has a white skeleton in the three-dimensional image data D1 (lightness level is “1”) and a gray color (lightness level is “0.5”). Ternary with reference to a predetermined first upper limit threshold, first lower limit threshold, second upper limit threshold and second lower limit threshold so that the tissue portion excluding the skeleton and muscles is black (shading level is “0”) The process is applied.

骨格・筋抽出部321は、3値化処理を施した結果得られる3値化画像から、濃淡レベルが「1」(白色)である画素、及び濃淡レベルが「0.5」(灰色)である画素をそれぞれ抽出し、それら画素に対応するボクセルを生成して3次元的に配置することにより、図40に示すように、骨格331及び筋332を含む3次元骨格・筋モデル330を生成する。   From the ternary image obtained as a result of the ternary processing, the skeletal / muscle extraction unit 321 has a pixel with a gray level of “1” (white) and a gray level of “0.5” (gray). Each pixel is extracted, and voxels corresponding to the pixels are generated and arranged three-dimensionally to generate a three-dimensional skeletal / muscle model 330 including a skeleton 331 and a muscle 332 as shown in FIG. .

そして骨格・筋抽出部321は、生成した3次元骨格・筋モデル330のデータ(3次元骨格・筋モデルデータ)D311を記憶部15に記憶し、骨格・筋抽出処理を終了する。   The skeletal / muscle extracting unit 321 then stores the generated data (three-dimensional skeletal / muscular model data) D311 of the three-dimensional skeletal / muscular model 330 in the storage unit 15, and ends the skeletal / muscle extracting process.

(1−2)椎体同定処理
CPU11は、骨格・筋抽出処理を終了すると、椎体同定部322(図39)により椎体同定処理を実行する。
(1-2) Vertebral body identification process CPU11 will perform a vertebral body identification process by the vertebral body identification part 322 (FIG. 39), after complete | finishing a skeleton and a muscle extraction process.

椎体同定部322は、第1の実施の形態とほぼ同様に、記憶部15に記憶された3次元骨格・筋モデルデータD311、及び予め記憶部15に記憶された椎体テンプレートデータD2を読み出す。   The vertebral body identification unit 322 reads out the 3D skeletal / muscle model data D311 stored in the storage unit 15 and the vertebral body template data D2 stored in advance in the storage unit 15 in substantially the same manner as in the first embodiment. .

そして椎体同定部322は、椎体テンプレートデータD2に基づく標準的な椎体形状をした椎体テンプレートと、3次元骨格・筋モデル330の骨格331とをパターンマッチングし、その結果として略円柱状でなる複数の椎体を検出する。   The vertebral body identification unit 322 pattern-matches a vertebral body template having a standard vertebral body shape based on the vertebral body template data D2 and the skeleton 331 of the three-dimensional skeleton / muscle model 330, and as a result, has a substantially cylindrical shape. A plurality of vertebral bodies are detected.

続いて椎体同定部322は、検出した複数の椎体から形態学的な特徴に基づいて例えば第5腰椎の椎体(第17椎体)32Qを同定する。また椎体同定部322は、同定した第17椎体32Qの中点を第17特徴点33Qとして検出する。   Subsequently, the vertebral body identifying unit 322 identifies, for example, the vertebral body (17th vertebral body) 32Q of the fifth lumbar vertebra based on the morphological characteristics from the plurality of detected vertebral bodies. The vertebral body identification unit 322 detects the midpoint of the identified 17th vertebral body 32Q as the 17th feature point 33Q.

また椎体同定部322は、第17椎体32Qの下方に存在する骨格331部分をトレースしていくことにより仙骨333を同定する。椎体同定部332は、図41に示すように、同定した仙骨333の対をなす第1仙骨孔333A〜第4仙骨孔333Dを検出し、それぞれ対をなす第1仙骨孔333A〜第4仙骨孔333Dの中心を通る水平断面により仙骨333を5つに分割する。   The vertebral body identification unit 322 identifies the sacrum 333 by tracing the skeleton 331 portion existing below the seventeenth vertebral body 32Q. As shown in FIG. 41, the vertebral body identifying unit 332 detects the first sacral hole 333A to the fourth sacral hole 333D forming a pair of the identified sacrum 333, and the first sacral hole 333A to the fourth sacrum forming a pair, respectively. The sacrum 333 is divided into five by a horizontal section passing through the center of the hole 333D.

そして椎体同定部322は、分割された仙骨333それぞれの例えば中点を第18特徴点33R〜第22特徴点33Vとして検出する。   The vertebral body identification unit 322 detects, for example, the midpoint of each of the divided sacrum 333 as the 18th feature point 33R to the 22nd feature point 33V.

また椎体同定部322は、仙骨333の下方に存在する骨格331部分をトレースしていくことにより尾骨334を同定する。そして椎体同定部322は、同定した尾骨334の例えば中点を第23特徴点33Wとして検出する。   The vertebral body identifying unit 322 identifies the coccyx 334 by tracing the portion of the skeleton 331 existing below the sacrum 333. The vertebral body identifying unit 322 detects, for example, the midpoint of the identified tailbone 334 as the 23rd feature point 33W.

椎体同定部322は、同定した第17椎体32Q、仙骨333及び尾骨334の位置情報及び解剖学的名称、及び第17特徴点33Q〜第23特徴点33Wの位置情報を椎体情報D312として記憶部15に記憶し、椎体同定処理を終了する。   The vertebral body identification unit 322 uses the identified 17th vertebral body 32Q, positional information and anatomical names of the sacrum 333 and coccyx 334, and positional information of the 17th feature point 33Q to the 23rd feature point 33W as vertebral body information D312. It memorize | stores in the memory | storage part 15, and complete | finishes a vertebral body identification process.

(1−3)体内空間抽出処理
CPU11は、椎体同定処理を終了すると、体内空間抽出部323(図39)により体内空間抽出処理を実行する。
(1-3) Internal Space Extraction Processing When the CPU 11 finishes the vertebral body identification processing, the internal space extraction unit 323 (FIG. 39) executes internal space extraction processing.

体内空間抽出部323は、記憶部15に記憶された3次元骨格・筋モデルデータD311を読み出し、3次元骨格・筋モデル330における濃淡レベルが「0.5」(灰色)として抽出された筋332のうち、最も前方及び最も左右にある筋を検出する。   The internal space extraction unit 323 reads the three-dimensional skeletal / muscle model data D311 stored in the storage unit 15 and extracts the muscle 332 extracted as the gray level of “0.5” (gray) in the three-dimensional skeletal / muscular model 330. Among them, the most forward and left and right muscles are detected.

また体内空間抽出部323は、椎体情報D312に基づいて、3次元骨格・筋モデル330の骨格331のうち、仙骨333から左右に伸びる骨格331部分を検出する。そして体内空間抽出部323は、検出した仙骨333近傍の骨格331部分を起点にして隣り合う骨格をトレースしていくことにより腸骨及び恥骨を骨盤335として同定する。   The internal space extraction unit 323 detects a skeleton 331 portion extending from the sacrum 333 to the left and right in the skeleton 331 of the three-dimensional skeleton / muscle model 330 based on the vertebral body information D312. The body space extraction unit 323 identifies the iliac bone and the pubic bone as the pelvis 335 by tracing adjacent skeletons starting from the detected skeleton 331 near the sacrum 333.

体内空間抽出部323は、図42(A)〜(C)に示すように、3次元骨格・筋モデル330における所定間隔ごとの水平断面で、検出した筋332及び骨盤335の内側境界を通る内周線336を検出し、当該内周線336に囲まれた空間を体内空間337(図43)として抽出する。なお、図42(A)〜(C)の水平断面図は、説明の便宜上、CT画像を用いている。   As shown in FIGS. 42A to 42C, the internal space extraction unit 323 is a horizontal section at predetermined intervals in the three-dimensional skeletal / muscle model 330 and passes through the inner boundary of the detected muscle 332 and pelvis 335. The circumference line 336 is detected, and the space surrounded by the inner circumference line 336 is extracted as the body space 337 (FIG. 43). Note that the horizontal sectional views of FIGS. 42A to 42C use CT images for convenience of explanation.

体内空間抽出部323は、同定した骨盤335の位置情報及び解剖学的名称を骨盤情報D313として記憶部15に記憶し、また内周線336に囲まれた体内空間337の位置情報を体内空間情報D314として記憶部15に記憶し、体内空間抽出処理を終了する。   The body space extraction unit 323 stores the identified position information and anatomical name of the pelvis 335 in the storage unit 15 as pelvic information D313, and also stores the position information of the body space 337 surrounded by the inner peripheral line 336. It memorize | stores in the memory | storage part 15 as D314, and complete | finishes a body space extraction process.

(1−4)人体モデル変形処理
CPU11は、体内空間抽出処理を終了すると、人体モデル変形部324(図39)により人体モデル変形処理を実行する。この人体モデル変形処理について詳しく説明する。
(1-4) Human Body Model Deformation Process When the CPU 11 finishes the body space extraction process, the human body model deformation unit 324 (FIG. 39) executes the human body model deformation process. This human body model deformation process will be described in detail.

人体モデル変形部324は、骨格・筋抽出部321により生成された3次元骨格・筋モデルデータD311、椎体同定部322により生成された椎体情報D312、及び体内空間抽出部323により生成された骨盤情報D313及び体内空間情報D314を記憶部15から読み出す。   The human body model deforming unit 324 is generated by the three-dimensional skeletal / muscle model data D311 generated by the skeletal / muscle extracting unit 321, the vertebral body information D312 generated by the vertebral body identifying unit 322, and the body space extracting unit 323. Pelvic information D313 and internal space information D314 are read from the storage unit 15.

ここで骨格・筋抽出部321により生成された3次元骨格・筋モデルデータD311、椎体同定部322により生成された椎体情報D312、及び体内空間抽出部323により生成された骨盤情報D313及び体内空間情報D314を合わせて3次元同定モデルデータD315とも呼ぶ。   Here, the three-dimensional skeletal / muscle model data D311 generated by the skeletal / muscle extracting unit 321, the vertebral body information D312 generated by the vertebral body identifying unit 322, the pelvis information D313 generated by the body space extracting unit 323, and the internal body The spatial information D314 is also collectively referred to as three-dimensional identification model data D315.

人体モデル変形部324は、図43(A)に示すように、3次元同定モデルデータD315に基づいた骨格331に対して、第17椎体32Q、仙骨333、尾骨334及び骨盤335が同定され、また第17特徴点33Q〜第23特徴点33W及び体内空間337が付加された3次元同定モデル338を生成する。   As shown in FIG. 43A, the human body model deforming unit 324 identifies the seventeenth vertebral body 32Q, the sacrum 333, the tailbone 334, and the pelvis 335 with respect to the skeleton 331 based on the three-dimensional identification model data D315. A three-dimensional identification model 338 to which the seventeenth feature point 33Q to the twenty-third feature point 33W and the body space 337 are added is generated.

そして人体モデル変形部324は、3次元同定モデル338の体内空間337を、第17特徴点33A〜第23特徴点33Qをそれぞれ含む水平面で輪切りにすることにより、第17分割空間337Q〜第22分割空間337Vに分割する。   Then, the human body model deforming unit 324 cuts the internal space 337 of the three-dimensional identification model 338 into horizontal planes including the 17th feature point 33A to the 23rd feature point 33Q, respectively, so that the 17th divided space 337Q to the 22nd division are obtained. The space is divided into 337V.

一方、人体モデル変形部324は、記憶部15から3次元標準人体モデル340のデータ(3次元標準人体モデルデータとも呼ぶ)D303を読み出す。   On the other hand, the human body model deforming unit 324 reads data of the 3D standard human body model 340 (also referred to as 3D standard human body model data) D303 from the storage unit 15.

この3次元標準人体モデル340は、図43(B)に示すように、3次元標準人体モデル340における椎体、仙骨及び尾骨の特徴点43Q〜43Wの情報、及び筋、骨盤の内周線に囲まれた体内領域347の位置情報も含むようになされている。   As shown in FIG. 43 (B), the three-dimensional standard human model 340 includes information on the vertebral body, sacrum, and tailbone feature points 43Q to 43W in the three-dimensional standard human model 340, and the inner circumference of the muscle and pelvis. The position information of the enclosed body region 347 is also included.

従って人体モデル変形部324は、3次元標準人体モデルデータD303を読み出すことにより、第17特徴点43Q〜第23特徴点43Wと、筋、骨盤の内周線に囲まれた体内領域347とを認識し得るようになされている。   Therefore, the human body model deforming unit 324 recognizes the seventeenth feature point 43Q to the twenty-third feature point 43W and the body region 347 surrounded by the inner circumference of the muscle and pelvis by reading the three-dimensional standard human model data D303. It is made to be able to do.

ここで体内領域347は、3次元同定モデル338における体内空間337と対応する位置にあり、その内部には、臓器等の生体組織(各器官データ)が含まれる。   Here, the in-vivo region 347 is located at a position corresponding to the in-vivo space 337 in the three-dimensional identification model 338, and includes a living tissue (each organ data) such as an organ.

そして人体モデル変形部324は、3次元標準人体モデル340の体内領域347を、第17特徴点43Q〜第23特徴点43Wをそれぞれ含む水平面で輪切りにすることにより、第17分割領域347Q〜第22分割領域347Vに分割する。   The human body model deforming unit 324 then cuts the in-vivo region 347 of the three-dimensional standard human body model 340 into horizontal planes including the 17th feature point 43Q to the 23rd feature point 43W, respectively, so that the 17th divided regions 347Q to 22nd. The area is divided into divided areas 347V.

人体モデル変形部324は、第1の実施の形態と同様に、第17分割領域347Q〜第22分割領域347Vをそれぞれ第17分割空間337Q〜第22分割空間337Vに合わせるよう、上下方向、前後方向及び左右方向に伸縮させて3次元被検者モデルを生成する。これに伴って、筋、腸骨、恥骨についても、肋骨と同様に変形させる。   Similar to the first embodiment, the human body model deforming unit 324 moves the 17th divided area 347Q to the 22nd divided area 347V to the 17th divided space 337Q to the 22nd divided space 337V, respectively, in the up and down direction and the front and rear direction. And a three-dimensional subject model is generated by expanding and contracting in the left-right direction. Along with this, muscles, iliac bones, and pubic bones are also deformed in the same manner as the ribs.

人体モデル変形部324は、生成した3次元被検者モデルのデータ(3次元被検者モデルデータ)D316を記憶部15に記憶する。   The human body model deforming unit 324 stores the generated three-dimensional subject model data (three-dimensional subject model data) D316 in the storage unit 15.

(2)人体モデル変形処理手順
次に、上述した3次元人体モデル生成処理の手順についてフローチャートを用いて詳しく説明する。
(2) Human Body Model Deformation Processing Procedure Next, the above-described three-dimensional human body model generation processing procedure will be described in detail using a flowchart.

すなわちCPU11は、図44に示すように、ルーチンRT4の開始ステップからサブルーチンSRT31へ移る。CPU11は、図45に示すように、サブルーチンSRT31の開始ステップから入って次のステップSP121へ移り、3次元画像データD1を記憶部15から読み出し、当該3次元画像データD1の骨格の濃淡レベルが「1」となり、筋の濃淡レベルが「0.5」となり、その他の組織部分の濃淡レベルが「0」となるような第1上限閾値、第1下限閾値、第2上限閾値及び第2下限閾値を設定し、次のステップSP122へ移る。   That is, as shown in FIG. 44, the CPU 11 proceeds from the start step of the routine RT4 to the subroutine SRT31. As shown in FIG. 45, the CPU 11 enters from the start step of the subroutine SRT31, moves to the next step SP121, reads out the three-dimensional image data D1 from the storage unit 15, and the density level of the skeleton of the three-dimensional image data D1 is “ The first upper limit threshold, the first lower limit threshold, the second upper limit threshold, and the second lower limit threshold are set to “1”, the tone level of the muscle is “0.5”, and the tone levels of the other tissue portions are set to “0”. Is set and the process proceeds to the next step SP122.

ステップSP122においてCPU11は、3次元画像データD1に対して第1上限閾値、第1下限閾値、第2上限閾値及び第2下限閾値を用いて3値化処理を施し、次のステップSP123へ移る。   In step SP122, the CPU 11 performs ternary processing on the three-dimensional image data D1 using the first upper limit threshold, the first lower limit threshold, the second upper limit threshold, and the second lower limit threshold, and proceeds to the next step SP123.

ステップSP123においてCPU11は、3値化処理を施すことで得られた3値化画像から3次元骨格・筋モデル330を生成し、骨格抽出処理を終了して次のサブルーチンSRT32(図44)へ移る。   In step SP123, the CPU 11 generates a three-dimensional skeletal / muscle model 330 from the ternary image obtained by performing the ternarization process, ends the skeleton extraction process, and proceeds to the next subroutine SRT32 (FIG. 44). .

サブルーチンSRT32においてCPU11は、椎体同定処理を行う。具体的には、CPU11は、図46に示すように、サブルーチンSRT32の開始ステップから入って次のステップSP131へ移り、3次元骨格・筋モデル330と椎体テンプレートデータD2に基づく椎体テンプレートとをパターンマッチングすることにより、略円柱状でなる複数の椎体を検出し、次のステップSP132へ移る。   In the subroutine SRT32, the CPU 11 performs vertebral body identification processing. Specifically, as shown in FIG. 46, the CPU 11 enters from the start step of the subroutine SRT32, moves to the next step SP131, and obtains a vertebral body template based on the three-dimensional skeletal / muscle model 330 and the vertebral body template data D2. By performing pattern matching, a plurality of vertebral bodies having a substantially cylindrical shape are detected, and the process proceeds to the next step SP132.

ステップSP132においてCPU11は、ステップSP131において検出した複数の椎体の中点を特徴点として検出し、次のステップSP133へ移る。   In step SP132, the CPU 11 detects the midpoints of the plurality of vertebral bodies detected in step SP131 as feature points, and proceeds to the next step SP133.

ステップSP133においてCPU11は、ステップSP131において検出した複数の椎体について形態学的な特徴に基づいて第17椎体32Qを同定し、当該第17椎体32Qの特徴点を第17特徴点33Qとし、次のステップSP134へ移る。   In step SP133, the CPU 11 identifies the seventeenth vertebral body 32Q based on the morphological features of the plurality of vertebral bodies detected in step SP131, and sets the feature point of the seventeenth vertebral body 32Q as the seventeenth feature point 33Q. Control goes to the next step SP134.

ステップSP134においてCPU11は、第17椎体32Qの下方に存在する仙骨333及び尾骨334を同定し、次のステップSP135へ移る。   In step SP134, the CPU 11 identifies the sacrum 333 and the coccyx 334 existing below the seventeenth vertebral body 32Q, and proceeds to the next step SP135.

ステップSP135においてCPU11は、仙骨333の第18特徴点33R〜第22特徴点33Vを検出する。またCPU11は、尾骨334の第23特徴点33Wを検出し、椎体同定処理を終了して次のサブルーチンSRT33(図44)へ移る。   In step SP135, the CPU 11 detects the 18th feature point 33R to the 22nd feature point 33V of the sacrum 333. Further, the CPU 11 detects the 23rd feature point 33W of the coccyx 334, ends the vertebral body identification process, and proceeds to the next subroutine SRT33 (FIG. 44).

サブルーチンSRT33においてCPU11は、体内空間抽出処理を行う。具体的には、CPU11は、図47に示すように、サブルーチンSRT33の開始ステップから入って次のステップSP141へ移り、3次元骨格・筋モデル330における筋332のうち、最も前方及び最も左右にある筋を検出し、次のステップSP142へ移る。   In the subroutine SRT33, the CPU 11 performs a body space extraction process. Specifically, as shown in FIG. 47, the CPU 11 enters from the start step of the subroutine SRT33, moves to the next step SP141, and is the most forward and leftmost among the muscles 332 in the three-dimensional skeletal / muscle model 330. The streak is detected, and the process proceeds to the next step SP142.

ステップSP142においてCPU11は、椎体情報D312に基づいて、3次元骨格・筋モデル330の骨格331のうち、仙骨333から左右に伸びる骨格331部分を検出し、次のステップSP143へ移る。   In step SP142, based on the vertebral body information D312, the CPU 11 detects a skeleton 331 portion extending from the sacrum 333 to the left and right in the skeleton 331 of the three-dimensional skeleton / muscle model 330, and proceeds to the next step SP143.

ステップSP143においてCPU11は、検出した仙骨333近傍の骨格331部分を起点にして隣り合う骨格をトレースしていくことにより、腸骨及び恥骨を骨盤335として同定し、次のステップSP144へ移る。   In step SP143, the CPU 11 traces adjacent skeletons starting from the detected skeleton 331 near the sacrum 333, thereby identifying the iliac bone and pubic bone as the pelvis 335, and proceeds to the next step SP144.

ステップSP144においてCPU11は、3次元骨格・筋モデル330における所定間隔ごとの水平断面で、検出した筋332及び骨盤335の内側境界を通る内周線336を検出し、当該内周線336に囲まれた空間を体内空間337として抽出し、体内空間抽出処理を終了して次のサブルーチンSRT34(図44)へ移る。   In step SP144, the CPU 11 detects an inner peripheral line 336 passing through the inner boundary of the detected muscle 332 and pelvis 335 in a horizontal section at predetermined intervals in the three-dimensional skeletal / muscular model 330, and is surrounded by the inner peripheral line 336. The internal space is extracted as the internal space 337, the internal space extraction process is terminated, and the process proceeds to the next subroutine SRT34 (FIG. 44).

サブルーチンSRT34においてCPU11は、人体モデル変形処理を行う。具体的には、CPU11は、図48に示すように、サブルーチンSRT34の開始ステップから入って次のステップSP151へ移り、3次元同定モデル338の体内空間337を、第17特徴点33Q〜第23特徴点33Wをそれぞれ含む水平面で輪切りにすることにより、第17分割空間337Q〜第22分割空間337Vに分割する。   In the subroutine SRT34, the CPU 11 performs a human body model deformation process. Specifically, as shown in FIG. 48, the CPU 11 enters from the start step of the subroutine SRT34, moves to the next step SP151, and moves the internal space 337 of the three-dimensional identification model 338 into the 17th feature point 33Q to the 23rd feature. It divides | segments into the 17th division space 337Q-22nd division space 337V by carrying out a ring cut in the horizontal surface each including the point 33W.

またCPU11は、3次元標準人体モデル340の体内領域347を、第17特徴点43Q〜第23特徴点43Wをそれぞれ含む水平面で輪切りにすることにより、第17分割領域347Q〜第22分割領域347Vに分割し、次のステップSP152へ移る。   In addition, the CPU 11 cuts the body region 347 of the three-dimensional standard human body model 340 into a seventeenth divided region 347Q to a twenty-second divided region 347V by cutting the body region 347 into horizontal planes including the seventeenth feature point 43Q to the twenty-third feature point 43W. Divide and move to next step SP152.

ステップSP152〜SP157においてCPU11は、第1の実施の形態におけるステップSP32〜SP37と同様に、第17分割領域347Q〜第22分割領域347Vをそれぞれ第17分割空間337Q〜第22分割空間337Vと一致するように上下方向、前後方向及び左右方向に伸縮させて3次元被検者モデルを生成し、次のステップへ移って処理を終了する。   In steps SP152 to SP157, the CPU 11 matches the seventeenth divided region 347Q to the twenty-second divided region 347V with the seventeenth divided space 337Q to the twenty-second divided space 337V, respectively, similarly to steps SP32 to SP37 in the first embodiment. As described above, the three-dimensional subject model is generated by expanding and contracting in the vertical direction, the front-rear direction, and the left-right direction, and the process proceeds to the next step and ends.

(3)動作及び効果
以上の構成において、3次元人体モデル生成装置1は、CT装置やMRI装置によって撮像された下腹部の3次元画像データD1を取得すると、当該3次元画像データD1に対して3値化処理を施して3次元骨格・筋モデル330を生成する。
(3) Operation and effect In the above configuration, when the three-dimensional human body model generation device 1 acquires the three-dimensional image data D1 of the lower abdomen imaged by the CT device or the MRI device, the three-dimensional image data D1 is obtained. A three-dimensional process is performed to generate a three-dimensional skeletal / muscle model 330.

3次元人体モデル生成装置1は、3次元骨格・筋モデル330から第17椎体32Q、仙骨333、尾骨334及び骨盤335を同定すると共に、第17特徴点33Q〜第23特徴点33Wを抽出する。   The three-dimensional human body model generation device 1 identifies the seventeenth vertebral body 32Q, the sacrum 333, the tailbone 334, and the pelvis 335 from the three-dimensional skeletal / muscle model 330, and extracts the seventeenth feature point 33Q to the twenty-third feature point 33W. .

また3次元人体モデル生成装置1は、3次元骨格・筋モデル330から筋332及び骨盤335に囲まれた空間を体内空間337として抽出する。そして3次元人体モデル生成装置1は、3次元標準人体モデル340の体内領域347を体内空間337に合わせるように変形させることにより、体内領域347に含まれる各器官データ(例えば、大腸、膀胱などの臓器データ)も変形させた3次元被検者モデルを生成するようにした。   In addition, the three-dimensional human body model generation device 1 extracts a space surrounded by the muscle 332 and the pelvis 335 from the three-dimensional skeletal / muscle model 330 as the body space 337. Then, the three-dimensional human body model generation device 1 deforms the body region 347 of the three-dimensional standard human body model 340 so as to match the body space 337, whereby each organ data included in the body region 347 (for example, large intestine, bladder, etc.) A three-dimensional subject model with deformed organ data was also generated.

従って3次元人体モデル生成装置1は、3次元画像データD1を基に、被検者ごとの下腹部が正確に再現された3次元被検者モデルを容易に生成することができる。   Therefore, the three-dimensional human body model generation device 1 can easily generate a three-dimensional subject model in which the lower abdomen of each subject is accurately reproduced based on the three-dimensional image data D1.

<5.他の実施の形態>
なお、第1及び第2の実施の形態においては胸部の体内空間を抽出し、第3の実施の形態においては腹部の体内空間を抽出し、第4の実施の形態においては下腹部の体内空間を抽出して、当該体内空間に対応する3次元標準モデルの体内領域を体内空間に合わせるよう変形させるようにした場合について述べた。本発明はこれに限らず、胸部、腹部及び下腹部のすべての中から任意の範囲を対象にして体内空間を抽出し、当該体内空間に対応する3次元標準モデルの体内領域を体内空間に合わせるように変形させるようにしてもよい。
<5. Other embodiments>
In the first and second embodiments, the internal space of the chest is extracted, the internal space of the abdomen is extracted in the third embodiment, and the internal space of the lower abdomen in the fourth embodiment. As described above, the case where the body region of the three-dimensional standard model corresponding to the body space is deformed to match the body space has been described. The present invention is not limited to this, and the internal space is extracted from any region of the chest, abdomen, and lower abdomen, and the internal region of the three-dimensional standard model corresponding to the internal space is matched with the internal space. You may make it deform | transform.

一例として、胸部及び腹部を対象とする場合、3次元画像データD1から例えば第1椎体32A〜第17椎体32Qまでを同定し、第1又は第2の実施の形態で説明したように胸部の体内空間を抽出し、また第3の実施の形態で説明したように腹部の体内空間を抽出し、これら体内空間を合わせて1つの体内空間とし、これに対応する体内領域を当該体内空間に合わせるように変形させる。   As an example, when targeting the chest and abdomen, for example, the first vertebral body 32A to the 17th vertebral body 32Q are identified from the three-dimensional image data D1, and the chest as described in the first or second embodiment. As described in the third embodiment, the abdominal body space is extracted, and these body spaces are combined into one body space, and the corresponding body region is defined as the body space. Transform to match.

また別例として、胸部の途中である例えば第5椎体32E〜腹部の途中である第15椎体32Oまでを同定し、第1又は第2の実施の形態で説明したように胸部の体内空間を抽出し、また第3の実施の形態で説明したように腹部の体内空間を抽出し、これら体内空間を合わせて1つの体内空間とし、これに対応する体内領域を当該体内空間に合わせるように変形させる。   As another example, for example, from the fifth vertebra 32E to the fifteenth vertebra 32O in the middle of the chest is identified, and as described in the first or second embodiment, the body space of the chest In addition, as described in the third embodiment, the abdominal body space is extracted, and these body spaces are combined into one body space, and the corresponding body region is matched with the body space. Deform.

さらに上述した実施の形態においては、腹部及び下腹部に関しても第2の実施の形態のように、体表に囲まれた空間を体内空間として抽出してもよい。   Furthermore, in the above-described embodiment, the space surrounded by the body surface may be extracted as the body space as in the second embodiment for the abdomen and the lower abdomen.

上述した第2〜第4の実施の形態においては、椎体同定処理を実行した後、体内空間抽出処理を実行するようにした場合について述べたが、本発明はこれに限らず、体内空間抽出処理を実行した後、椎体同定処理を実行してもよい。   In the above-described second to fourth embodiments, the case where the body space extraction process is performed after the vertebral body identification process has been described has been described, but the present invention is not limited thereto, and the body space extraction is performed. After executing the processing, the vertebral body identification processing may be executed.

また上述した第3の実施の形態においては、筋232の外周を囲む外周線233に囲まれた空間を体内空間として抽出するようにした場合について述べたが、本発明はこれに限らず、例えば骨格231から肋骨を検出し、当該肋骨及び筋232の外周を囲む外周線に囲まれた空間を体内空間として抽出するようにしてもよい。また3次元画像データD1から肋軟骨を抽出し、当該肋軟骨、肋骨及び筋232の外周を囲む外周線に囲まれた空間を体内空間として抽出するようにしてもよい。   Further, in the third embodiment described above, the case where the space surrounded by the outer peripheral line 233 surrounding the outer periphery of the muscle 232 is extracted as the body space is described, but the present invention is not limited to this, for example, A rib may be detected from the skeleton 231, and a space surrounded by an outer peripheral line surrounding the outer periphery of the rib and the muscle 232 may be extracted as a body space. Alternatively, the costal cartilage may be extracted from the three-dimensional image data D1, and a space surrounded by an outer peripheral line surrounding the outer circumferences of the costal cartilage, the ribs, and the muscle 232 may be extracted as the body space.

以下、主に第1の実施の形態に対する他の実施の形態の説明するが、第2〜第4の実施の形態についても同様である。   Hereinafter, although other embodiments with respect to the first embodiment will be mainly described, the same applies to the second to fourth embodiments.

さらに上述した実施の形態においては、3次元画像データD1に対して所定の上限閾値及び下限閾値を用いて2値化処理を施すようにした場合について述べたが、本発明はこれに限らず、例えば水平断面画像CG1、矢状断面画像CG2及び前額断面画像CG3を参考に任意の上限閾値及び下限閾値をユーザに設定させるようにしても良い。   Furthermore, in the above-described embodiment, the case where the binarization process is performed on the three-dimensional image data D1 using the predetermined upper limit threshold and the lower limit threshold has been described, but the present invention is not limited thereto, For example, the user may be allowed to set arbitrary upper and lower thresholds with reference to the horizontal cross-sectional image CG1, the sagittal cross-sectional image CG2, and the forehead cross-sectional image CG3.

さらに上述した実施の形態においては、3次元骨格モデル30の前後、上下及び左右方向を3次元画像データD1に含まれる撮影条件から設定するようにした場合について述べたが、本発明はこれに限らず、前後、上下、左右方向設定後の3次元骨格モデル30若しくは3次元同定モデル38をユーザが座標軸周りで回転させることによってモデル体位の微調整を行わせるようにしても良い。   Further, in the above-described embodiment, the case where the front, back, top, bottom, and left and right directions of the three-dimensional skeleton model 30 are set from the imaging conditions included in the three-dimensional image data D1 has been described. Instead, the model position may be finely adjusted by the user rotating the three-dimensional skeleton model 30 or the three-dimensional identification model 38 after setting the front, back, top, bottom, left and right directions around the coordinate axis.

さらに上述した実施の形態においては、3次元骨格モデル30、3次元同定モデル38、3次元標準人体モデル40、3次元変形モデル50、60、70、3次元被検者モデル80が複数のボクセルを3次元的に配置することにより構成されるようにした場合について述べたが、本発明はこれに限らず、例えばワイヤフレームデータやサーフェースデータによって構成されるようにしても良い。   Furthermore, in the above-described embodiment, the three-dimensional skeleton model 30, the three-dimensional identification model 38, the three-dimensional standard human body model 40, the three-dimensional deformation models 50, 60, 70, and the three-dimensional subject model 80 include a plurality of voxels. Although the case where it is configured by arranging three-dimensionally has been described, the present invention is not limited to this, and may be configured by, for example, wire frame data or surface data.

例えばワイヤフレームデータを用いる場合、椎体、肋骨、関節、臓器等を異なるワイヤフレームで構成することにより実現することができる。   For example, when wire frame data is used, it can be realized by configuring vertebral bodies, ribs, joints, organs, and the like with different wire frames.

さらに上述した実施の形態においては、断層画像の各画素に対応するサイズのボクセルを生成するようにした場合について述べたが、本発明はこれに限らず、画素サイズより小さなボクセルサイズにしても良いし、またより大きなボクセルサイズにしても良い。   Furthermore, in the above-described embodiment, the case where the voxel having a size corresponding to each pixel of the tomographic image is generated has been described. However, the present invention is not limited to this, and a voxel size smaller than the pixel size may be used. However, a larger voxel size may be used.

さらに上述した実施の形態においては、第1椎体32A〜第12椎体32Lの第1特徴点33A〜第12特徴点33Lとして、当該第1椎体32A〜第12椎体32Lの形態学的な中点を用いるようにした場合について述べたが、本発明はこれに限らず、例えば第1椎体32A〜第12椎体32Lの幾何学的な重心を第1椎体32A〜第12椎体32Lの第1特徴点33A〜第12特徴点33Lとして用いるようにしても良い。   Further, in the above-described embodiment, the first vertebral body 32A to the twelfth vertebral body 32L are used as the first feature point 33A to the twelfth vertebral body 33L as the first feature point 33A to the twelfth feature point 33L. However, the present invention is not limited to this. For example, the geometric center of gravity of the first vertebral body 32A to the twelfth vertebral body 32L is used as the first vertebral body 32A to the twelfth vertebra. The first feature point 33A to the twelfth feature point 33L of the body 32L may be used.

さらに上述した実施の形態においては、3次元変形モデル50の例えば第5分割領域57Eを前後方向に伸縮させる変形を行った後に、その結果得られる第5分割領域67Eを左右方向に伸縮させる変形を行うようにした場合について述べたが、本発明はこれに限らず、第5分割領域57Eを左右方向に伸縮させた後に、前後方向へ伸縮させるようにしても良い。   Further, in the above-described embodiment, after performing, for example, the deformation of expanding and contracting the fifth divided region 57E of the three-dimensional deformation model 50 in the front-rear direction, the deformation of expanding and contracting the fifth divided region 67E obtained as a result thereof is performed. Although the case where it performed is described, this invention is not restricted to this, You may make it expand and contract in the front-back direction after expanding and contracting the 5th division area 57E in the left-right direction.

さらに上述した実施の形態においては、3次元変形モデル50を前後方向に伸縮させる変形を行い、その結果得られる3次元変形モデル60を左右方向に伸縮させる変形を行った後に、3次元変形モデル70の右第1肋骨74A〜右第12肋骨74L及び左第1肋骨〜左第12肋骨の変形を行うようにした場合について述べたが、本発明はこれに限らず、3次元変形モデル50(図10(B))の肋骨を変形させた後に、その肋骨に囲まれる体内領域を左右方向及び前後方向へ伸縮させるようにしても良い。   Further, in the above-described embodiment, the three-dimensional deformation model 50 is deformed to expand and contract in the front-rear direction, and the resulting three-dimensional deformation model 60 is deformed to expand and contract in the left-right direction. Although the case where the right first rib 74A to the right twelfth rib 74L and the left first rib to the left twelfth rib are deformed has been described, the present invention is not limited to this, and the three-dimensional deformation model 50 (see FIG. After deforming the rib (10 (B)), the body region surrounded by the rib may be expanded and contracted in the left-right direction and the front-rear direction.

さらに上述した実施の形態においては、第3特徴点33C及び43Cを通る矢状断面を基準面SS1及びSS2とするようにした場合について述べたが、本発明はこれに限らず、好ましくは第3特徴点33C〜第7特徴点33Gのいずれかを通る矢状断面を基準面SS1とし、また第3特徴点43C〜第7特徴点43Gのいずれかを通る矢状断面を基準面SS2とするようにしてもよい。   In the above-described embodiment, the sagittal section passing through the third feature points 33C and 43C has been described as the reference planes SS1 and SS2. However, the present invention is not limited to this, and preferably the third feature point. A sagittal section passing through any one of the feature points 33C to 33G is defined as a reference plane SS1, and a sagittal section passing through any one of the third feature points 43C to the seventh feature point 43G is defined as a reference plane SS2. It may be.

さらに上述した実施の形態においては、第3分割空間37C及び第3分割領域47Cの上面を前後方向に均等に分割する前額断面を基準面SS3及びSS4とするようにした場合について述べたが、本発明はこれに限らず、好ましくは第3分割空間37C〜第7分割空間37Gの上面のいずれかを前後方向に均等に分割する前額断面を基準面SS3とし、また第3分割領域47C〜第7分割領域47Gの上面のいずれかを前後方向に均等に分割する基準面SS4とするようにしてもよい。   Furthermore, in the above-described embodiment, the case where the forehead cross section that equally divides the upper surfaces of the third divided space 37C and the third divided region 47C in the front-rear direction is set as the reference planes SS3 and SS4 has been described. The present invention is not limited to this. Preferably, the forehead cross section that equally divides any of the upper surfaces of the third divided space 37C to the seventh divided space 37G in the front-rear direction is defined as the reference plane SS3, and the third divided regions 47C to 47C Any one of the upper surfaces of the seventh divided region 47G may be used as a reference surface SS4 that is equally divided in the front-rear direction.

さらに上述した実施の形態においては、例えば矢状断面37Ea、47Ea、57Ea及び前額断面37Eb、67Ebを台形に近似するようにした場合について述べたが、本発明はこれに限らず、例えば四角形に近似するようにしても良い。   Further, in the above-described embodiment, for example, the sagittal cross sections 37Ea, 47Ea, 57Ea and the forehead cross sections 37Eb, 67Eb are approximated to a trapezoidal shape. You may make it approximate.

さらに上述した実施の形態においては、3次元画像データD1に対して2値化処理を施すことにより得られた2値化画像BWGの濃淡レベルが「1」(白色)である画素を抽出して3次元骨格モデル30を生成するようにした場合について述べた。しかしながら本発明はこれに限らず、2値化画像BWGの濃淡レベルが「1」(白色)である画素を抽出し、当該画素に対応するボクセルを3次元的に配置した骨格31に対してスムージング処理を施して3次元骨格モデル30を生成するようにしても良い。このようにすることで、2値化画像BWGから抽出した骨格31の表面に発生する凹凸を除去することができる。   Further, in the above-described embodiment, pixels whose gradation level is “1” (white) in the binarized image BWG obtained by performing binarization processing on the three-dimensional image data D1 are extracted. The case where the three-dimensional skeleton model 30 is generated has been described. However, the present invention is not limited to this, and pixels having a gray level of “1” (white) in the binarized image BWG are extracted, and smoothing is performed on the skeleton 31 in which voxels corresponding to the pixels are three-dimensionally arranged. Processing may be performed to generate the three-dimensional skeleton model 30. By doing in this way, the unevenness | corrugation which generate | occur | produces on the surface of the frame | skeleton 31 extracted from the binarized image BWG is removable.

さらに上述した実施の形態においては、例えば第5分割領域57E(図11(B)及び(C))の基準面SS2より前側部分を、上底から下底にかけて比率(L1a/L1b)と比率(L3a/L3b)とを線形補間した比率を用いて前方向へ伸縮し、また基準面SS2より後側について、上底から下底にかけて比率(L2a/L2b)と比率(L4a/L4b)とを線形補間した比率を用いて基準面SS2より後方向へ伸縮するように、当該第5分割領域57Eを変形するようにした場合について述べた。しかしながら本発明はこれに限らず、人体モデル変形部24は、第5分割領域57Eの矢状断面57Eaの斜辺が第5分割空間37Eの矢状断面37Eaの斜辺に一致するよう、当該第5分割領域57Eを前後方向に伸縮させる変形を行うようにすれば、その方法は問わない。   Further, in the above-described embodiment, the ratio (L1a / L1b) and the ratio (L1a / L1b) from the upper base to the lower base, for example, the front side portion of the fifth divided region 57E (FIGS. 11B and 11C) from the reference plane SS2 are used. L3a / L3b) is linearly interpolated using the ratio obtained by linear interpolation, and the ratio (L2a / L2b) and ratio (L4a / L4b) are linear from the upper base to the lower base on the rear side of the reference plane SS2. The case where the fifth divided region 57E is deformed so as to expand and contract backward from the reference surface SS2 using the interpolated ratio has been described. However, the present invention is not limited to this, and the human body model deforming unit 24 may perform the fifth division so that the hypotenuse of the sagittal cross section 57Ea of the fifth subdivision 57E matches the hypotenuse of the sagittal cross section 37Ea of the fifth subdivision 37E. The method is not limited as long as the region 57E is deformed to expand and contract in the front-rear direction.

さらに上述した実施の形態においては、例えば第5分割領域67E(図13(B)及び(C))の基準面SS4より左側部分を、上底から下底にかけて比率(W1a/W1b)と比率(W3a/W3b)とを線形補間した比率を用いて左方向へ伸縮し、また基準面SS4より右側について、上底から下底にかけて比率(W2a/W2b)と比率(W4a/W4b)とを線形補間した比率を用いて基準面SS4より右方向へ伸縮するように、当該第5分割領域67Eを変形するようにした場合について述べた。しかしながら本発明はこれに限らず、人体モデル変形部24は、第5分割領域67Eの前額断面67Ebの斜辺が第5分割空間37Eの前額断面37Ebの斜辺に一致するよう、当該第5分割領域67Eを左右方向に伸縮させる変形を行うようにすれば、その方法は問わない。   Further, in the above-described embodiment, for example, the left side portion from the reference plane SS4 of the fifth divided region 67E (FIGS. 13B and 13C) is set to the ratio (W1a / W1b) and the ratio ( W3a / W3b) is stretched leftward using a ratio obtained by linear interpolation, and the ratio (W2a / W2b) and ratio (W4a / W4b) are linearly interpolated from the upper base to the lower base on the right side of the reference surface SS4. The case where the fifth divided region 67E is deformed so as to expand and contract in the right direction from the reference plane SS4 using the ratio described above has been described. However, the present invention is not limited to this, and the human body model deforming unit 24 may perform the fifth division so that the hypotenuse of the forehead cross-section 67Eb of the fifth subdivision 67E matches the hypotenuse of the forehead cross-section 37Eb of the fifth subdivision 37E. If the deformation | transformation which expands / contracts the area | region 67E to the left-right direction is performed, the method will not be ask | required.

さらに上述した実施の形態においては、3次元画像データD1が異なるにもかかわらず3次元標準人体モデルデータD3から常に一定の処理により同じ値が返されるような手順、例えば第5分割領域57Eの矢状断面57Eaから基準面SS2を基準として前後方向の上底の長さL1b及びL2bと下底の長さL3b及びL4bとを算出する手順を毎回行うようにした場合について述べたが、本発明はこれに限らず、予め算出されるこれらの値を3次元標準人体モデルデータD3へ含めて記憶部15に記憶させるようにしても良い。   Further, in the above-described embodiment, a procedure in which the same value is always returned from the three-dimensional standard human body model data D3 by a constant process even if the three-dimensional image data D1 is different, for example, the arrow of the fifth divided region 57E. The case where the procedure for calculating the lengths L1b and L2b of the upper base in the front-rear direction and the lengths L3b and L4b of the lower base with respect to the reference plane SS2 from the cross section 57Ea is described each time, but the present invention describes Not limited to this, these values calculated in advance may be included in the three-dimensional standard human body model data D3 and stored in the storage unit 15.

さらに上述した実施の形態においては、第12特徴点43Lを始点として通過点89Lを通り、体内領域77に外接するように3次元変形モデル70の右第12肋骨74Lを変形させる際、3次元同定モデル38の右第12肋骨34Lの中心線を基準面SS1まで外挿して交点39Lを算出し、また3次元変形モデル70の右第12肋骨74Lの中心線を基準面SS2まで外挿して通過点79Lを算出し、当該通過点79Lを交点39Lと同じ高さ位置に移動させることにより通過点89Lを生成し、3次元変形モデル70の右第1肋骨74A〜右第11肋骨74Kと同様の変形をするようにした場合について述べた。しかしながら本発明はこれに限らず、上述した実施で右第1肋骨74A〜右第11肋骨74Kの変形を行った3次元変形モデル70の右第11肋骨74Kを基準として第11特徴点43Kと第12特徴点43Lの上下方向の間隔を保つように右第12肋骨74Lを変形させても良く、また右第11肋骨74Kを変形させた方向へ同じ距離だけ右第12肋骨74Lを変形させても良い。   Further, in the above-described embodiment, when the right twelfth rib 74L of the three-dimensional deformation model 70 is deformed so as to circumscribe the in-vivo region 77 starting from the twelfth feature point 43L, the three-dimensional identification is performed. The intersection line 39L is calculated by extrapolating the center line of the right twelfth rib 34L of the model 38 to the reference plane SS1, and the center line of the right twelfth rib 74L of the three-dimensional deformation model 70 is extrapolated to the reference plane SS2 to pass through. 79L is calculated, and the passing point 79L is moved to the same height position as the intersection point 39L to generate a passing point 89L, which is the same deformation as the right first rib 74A to the right eleventh rib 74K of the three-dimensional deformation model 70. The case where it was supposed to be described. However, the present invention is not limited to this, and the eleventh feature point 43K and the eleventh feature point 43K are defined based on the right eleventh rib 74K of the three-dimensional deformation model 70 obtained by deforming the right first rib 74A to the right eleventh rib 74K in the above-described implementation. The right twelfth rib 74L may be deformed so as to maintain the vertical distance of the twelve feature points 43L, or the right twelfth rib 74L may be deformed by the same distance in the direction in which the right eleventh rib 74K is deformed. good.

さらに上述した実施の形態においては、各ステップにおいて生成されたモデルデータ等のユーザによる確認及び3次元人体モデル生成処理のやり直しを始めるステップのユーザによる指定を3次元被検者モデル80を生成した後に行うようにした場合について述べたが、本発明はこれに限らず、任意のステップとステップとの間において、モデルデータ等の確認及びやり直しステップの指定を行えるようにしても良い。   Further, in the embodiment described above, after generating the three-dimensional subject model 80, the user confirms the model data generated in each step and the user designates the step of starting the redo of the three-dimensional human body model generation process. Although the case where it performed is described, this invention is not restricted to this, You may enable it to perform confirmation of model data etc. and designation | designated of a redo step between arbitrary steps.

さらに上述した実施の形態においては、3次元人体モデル生成処理を実行する際、ソフトウェア構成としての骨格抽出部21、椎体同定部22、肋骨同定部23及び人体モデル生成部24として機能するようにした場合について述べたが、本発明はこれに限らず、ハードウェア構成でなる骨格抽出部21、椎体同定部22、肋骨同定部23及び人体モデル生成部24により3次元人体モデル生成処理を実行するようにしても良い。   Further, in the above-described embodiment, when the three-dimensional human body model generation process is executed, it functions as the skeleton extraction unit 21, the vertebral body identification unit 22, the rib identification unit 23, and the human body model generation unit 24 as a software configuration. However, the present invention is not limited to this, and a three-dimensional human body model generation process is executed by the skeleton extraction unit 21, the vertebral body identification unit 22, the rib identification unit 23, and the human body model generation unit 24 having a hardware configuration. You may make it do.

さらに上述した実施の形態においては、CPU11がROM12又は記憶部15に格納されている3次元人体モデル生成処理プログラムに従い、上述した3次元人体モデル生成処理を行うようにした場合について述べたが、本発明はこれに限らず、記憶媒体からインストールしたり、インターネットからダウンロードした3次元人体モデル生成処理プログラム、その他種々のルートによってインストールした3次元人体モデル生成処理プログラムに従って上述した3次元人体モデル生成処理を行うようにしても良い。   Further, in the above-described embodiment, the case where the CPU 11 performs the above-described three-dimensional human body model generation processing according to the three-dimensional human body model generation processing program stored in the ROM 12 or the storage unit 15 has been described. The invention is not limited to this, and the above-described 3D human body model generation processing is performed according to a 3D human body model generation processing program installed from a storage medium or downloaded from the Internet, or another 3D human body model generation processing program installed by various routes. You may make it do.

本発明の3次元人体モデル生成装置1は、例えば医療分野に適用することができる。   The three-dimensional human body model generation device 1 of the present invention can be applied to the medical field, for example.

1……3次元人体モデル生成装置、11……CPU、12……ROM、13……RAM、14……インターフェース部、15……記憶部、16……表示部、17……バス、21……骨格抽出部、22、122、222、322……椎体同定部、23……肋骨同定部、24、124、224、324……人体モデル変形部、30……3次元骨格モデル、31、41、51、61、71,81、131、231、331……骨格、32……椎体、33……特徴点、34A〜34L、44A〜44L、74A〜74L、84A〜84L……右第1肋骨〜右第12肋骨、35A〜35L……左第1肋骨〜左第12肋骨、36……胸骨、37、132、234、337……体内空間、37A〜37K……第1分割空間〜第11分割空間、37Ea、47Ea、57Ea、67Ea……矢状断面、37Eb、67Eb、77Eb……前額断面、38、133、235、338……3次元同定モデル、40、140、240、340……3次元標準人体モデル、47、57、67、77、142、244、347……体内領域、47A〜47K、57A〜57K、67A〜67K、77A〜77K……第1分割領域〜第11分割領域、50、60、70……3次元変形モデル、80……3次元被検者モデル、121……骨格・体表抽出部、123、223、323……体内空間抽出部、130……3次元骨格・体表モデル、131……体表、221、321……骨格・筋抽出部、230、330……3次元骨格・筋モデル、232、332……筋、333……仙骨、334……尾骨、335……骨盤。   DESCRIPTION OF SYMBOLS 1 ... Three-dimensional human body model production | generation apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Interface part, 15 ... Memory | storage part, 16 ... Display part, 17 ... Bus, 21 ... ... skeletal extraction unit, 22, 122, 222, 322 ... vertebral body identification unit, 23 ... rib identification unit, 24, 124, 224, 324 ... human body model deformation unit, 30 ... 3D skeletal model, 31, 41, 51, 61, 71, 81, 131, 231, 331 ... Skeleton, 32 ... Vertebral body, 33 ... Feature point, 34A-34L, 44A-44L, 74A-74L, 84A-84L ... Right 1 rib-right twelfth rib, 35A-35L ... left first rib-left twelfth rib, 36 ... sternum, 37, 132, 234, 337 ... internal space, 37A-37K ... first divided space- 11th divided space, 37Ea, 47 a, 57Ea, 67Ea ...... Sagittal cross-section, 37Eb, 67Eb, 77Eb ... Forehead cross-section, 38, 133, 235, 338 ... 3-D identification model, 40, 140, 240, 340 ... 3-D standard human body model 47, 57, 67, 77, 142, 244, 347 ... Body region, 47A-47K, 57A-57K, 67A-67K, 77A-77K ... First division region to eleventh division region, 50, 60, 70 …… 3D deformation model, 80 …… 3D subject model, 121 …… Body / body surface extraction unit, 123, 223, 323 …… Body space extraction unit, 130 …… 3D skeleton / body surface model , 131... Body surface, 221, 321... Skeleton / muscle extraction unit, 230, 330... Three-dimensional skeletal / muscle model, 232, 332. Bone .

Claims (16)

体内空間データと、当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルと、
人体の断層像を示す3次元画像データから体内空間を抽出する体内空間抽出部と、
上記体内領域データを上記体内空間抽出部により抽出された体内空間に合わせるように変形させる人体モデル変形部と
を有することを特徴とする3次元人体モデル生成装置。
A three-dimensional standard human body model comprising body region data including body space data and organ data associated with the body space data;
An internal space extraction unit that extracts internal space from three-dimensional image data representing a tomographic image of the human body;
A three-dimensional human body model generation device, comprising: a human body model deformation unit that deforms the internal body region data so as to conform to the internal space extracted by the internal space extraction unit.
上記体内空間抽出部は、骨格及び/又は筋肉に囲まれた空間を体内空間として抽出する
ことを特徴とする請求項1に記載の3次元人体モデル生成装置。
The three-dimensional human body model generation device according to claim 1, wherein the body space extraction unit extracts a space surrounded by a skeleton and / or muscle as a body space.
上記体内空間抽出部は、体表に囲まれた空間を体内空間として抽出する
ことを特徴とする請求項1に記載の3次元人体モデル生成装置。
The three-dimensional human body model generation device according to claim 1, wherein the body space extraction unit extracts a space surrounded by a body surface as a body space.
上記3次元画像データから上下方向において特徴となる点を特徴点として抽出する特徴点抽出部と
をさらに有し、
上記人体モデル変形部は、
上記特徴点抽出部により抽出された特徴点を含む水平面により上記体内空間を複数の分割空間に分割し、上記3次元標準人体モデルにおける特徴点を含む水平面により上記体内領域が分割された複数の分割領域を、上記それぞれ対応する上記複数の分割空間に合わせて変形させる
ことを特徴とする請求項1乃至3に記載の3次元人体モデル生成装置。
A feature point extracting unit that extracts a feature point in the vertical direction from the three-dimensional image data as a feature point;
The human body model deforming part is
The body space is divided into a plurality of divided spaces by a horizontal plane including the feature points extracted by the feature point extraction unit, and the body regions are divided by the horizontal plane including the feature points in the three-dimensional standard human body model. The three-dimensional human body model generation device according to any one of claims 1 to 3, wherein a region is deformed in accordance with the plurality of corresponding divided spaces.
人体の断層像を示す3次元画像データから体内空間を抽出する体内空間抽出ステップと、
体内空間データと当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルの上記体内領域データを上記体内空間抽出ステップにより抽出された体内空間に合わせるように変形させる人体モデル変形ステップと
を有する3次元人体モデル生成方法。
A body space extraction step for extracting the body space from the three-dimensional image data showing the tomographic image of the human body;
The internal region data of a three-dimensional standard human body model including internal region data including internal space data and organ data associated with the internal space data is modified to match the internal space extracted by the internal space extraction step. A three-dimensional human body model generation method comprising: a human body model transformation step.
人体の断層像を示す3次元画像データから体内空間を抽出する体内空間抽出ステップと、
体内空間データと当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルの上記体内領域データを上記体内空間抽出ステップにより抽出された体内空間に合わせるように変形させる人体モデル変形ステップと
を有する3次元人体モデル生成プログラム。
A body space extraction step for extracting the body space from the three-dimensional image data showing the tomographic image of the human body;
The internal region data of a three-dimensional standard human body model including internal region data including internal space data and organ data associated with the internal space data is modified to match the internal space extracted by the internal space extraction step. A three-dimensional human body model generation program comprising: a human body model transformation step.
体内空間データと、当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルと、
人体の断層像を示す3次元画像データから骨格を抽出する骨格抽出部と、
上記骨格抽出部により抽出された骨格から複数の肋骨を同定し、当該複数の肋骨に囲まれた体内空間を抽出する肋骨同定部と、
上記体内領域データを上記肋骨同定部により抽出された体内空間に合わせるように変形させる人体モデル変形部と
を具える3次元人体モデル生成装置。
A three-dimensional standard human body model comprising body region data including body space data and organ data associated with the body space data;
A skeleton extraction unit that extracts a skeleton from three-dimensional image data representing a tomographic image of the human body;
A rib identifying unit that identifies a plurality of ribs from the skeleton extracted by the skeleton extracting unit, and extracts a body space surrounded by the plurality of ribs;
A three-dimensional human body model generation device comprising: a human body model deformation unit that deforms the body region data so as to conform to the body space extracted by the rib identification unit.
上記骨格抽出部により抽出された骨格から複数の椎体を同定すると共に、当該複数の椎体の特徴点を抽出する椎体同定部と
をさらに具え、
上記人体モデル変形部は、
上記椎体同定部により抽出された特徴点を含む水平面により上記体内空間を複数の分割空間に分割し、上記3次元標準人体モデルにおける特徴点を含む水平面により上記体内領域が分割された複数の分割領域を、それぞれ対応する分割空間に合わせて変形させる
ことを特徴とする請求項7に記載の3次元人体モデル生成装置。
A vertebral body identifying unit that identifies a plurality of vertebral bodies from the skeleton extracted by the skeleton extracting unit and extracts feature points of the plurality of vertebral bodies;
The human body model deforming part is
The body space is divided into a plurality of divided spaces by a horizontal plane including the feature points extracted by the vertebral body identification unit, and the body regions are divided by a horizontal plane including the feature points in the three-dimensional standard human body model. The three-dimensional human body model generation device according to claim 7, wherein the region is deformed according to a corresponding divided space.
上記人体モデル変形部は、
上記3次元標準人体モデルにおける複数の分割領域の高さがそれぞれ対応する上記複数の分割空間の高さと一致するように、当該分割領域を上下方向に伸縮する
ことを特徴とする請求項8に記載の3次元人体モデル生成装置。
The human body model deforming part is
9. The divided regions are vertically expanded and contracted so that the heights of the plurality of divided regions in the three-dimensional standard human body model respectively coincide with the heights of the corresponding divided spaces. 3D human body model generator.
上記人体モデル変形部は、
所定の基準位置を基準とした上記複数の分割領域の矢状断面が、それぞれ対応する上記複数の分割空間の矢状断面と一致するように、当該複数の分割領域を前後方向に伸縮する
ことを特徴とする請求項8に記載の3次元人体モデル生成装置。
The human body model deforming part is
Expanding and contracting the plurality of divided regions in the front-rear direction so that the sagittal sections of the plurality of divided regions with respect to a predetermined reference position coincide with the sagittal cross-sections of the plurality of corresponding divided spaces, respectively. The three-dimensional human body model generation apparatus according to claim 8, wherein the apparatus is a three-dimensional human body model generation apparatus.
上記人体モデル変形部は、
所定の基準位置を基準とした上記複数の分割領域の前額断面が、それぞれ対応する上記複数の分割空間の前額断面と一致するように、当該複数の分割領域を左右方向に伸縮する
ことを特徴とする請求項8に記載の3次元人体モデル生成装置。
The human body model deforming part is
Expanding and contracting the plurality of divided regions in the left-right direction so that the forehead cross sections of the plurality of divided regions with respect to a predetermined reference position coincide with the forehead cross sections of the plurality of corresponding divided spaces, respectively. The three-dimensional human body model generation apparatus according to claim 8, wherein the apparatus is a three-dimensional human body model generation apparatus.
上記人体モデル変形部は、
所定の基準位置を基準とした上記体内空間を前後方向に分割する前額断面と、上記肋骨同定部により同定された複数の肋骨との交点をそれぞれ算出し、上記3次元標準人体モデルの複数の肋骨を、上記交点と対応する位置を通り、かつ上記体内空間に合わせるように変形された上記体内領域に外接するよう変形する
ことを特徴とする請求項8乃至請求項11に記載の3次元人体モデル生成装置。
The human body model deforming part is
The intersection of the forehead cross section that divides the internal space with respect to a predetermined reference position in the front-rear direction and a plurality of ribs identified by the rib identification unit is calculated, and a plurality of the three-dimensional standard human body models are calculated. The three-dimensional human body according to any one of claims 8 to 11, wherein the rib is deformed so as to circumscribe the in-vivo region that has been deformed so as to pass through a position corresponding to the intersection and to match the internal space. Model generator.
上記3次元標準人体モデルは、具現化情報を含み、上記人体モデル変形手段により変形された後も上記具現化情報が継承される
ことを特徴とする請求項8乃至請求項12に記載の3次元人体モデル生成装置。
The three-dimensional standard human body model according to any one of claims 8 to 12, wherein the three-dimensional standard human body model includes realization information, and the realization information is inherited even after being deformed by the human body model deformation means. Human body model generation device.
上記椎体の特徴点は、椎体の幾何学的な重心又は形態学的な中点である
ことを特徴とする請求項8に記載の3次元人体モデル生成装置。
The three-dimensional human body model generation device according to claim 8, wherein the feature point of the vertebral body is a geometric center of gravity or a morphological midpoint of the vertebral body.
人体の断層像を示す3次元画像データから骨格を抽出する骨格抽出ステップと、
上記骨格抽出ステップにより抽出された骨格から複数の肋骨を同定し、当該複数の肋骨に囲まれた体内空間を抽出する肋骨同定ステップと、
体内空間データと、当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルの上記体内領域データを上記肋骨同定部により抽出された体内空間に合わせるように変形させる人体モデル変形ステップと
を有する3次元人体モデル生成方法。
A skeleton extraction step of extracting a skeleton from three-dimensional image data representing a tomographic image of the human body;
Identifying a plurality of ribs from the skeleton extracted by the skeleton extracting step, and extracting a body space surrounded by the plurality of ribs;
The internal region data of the three-dimensional standard human body model including internal region data including internal space data and each organ data associated with the internal space data is transformed to match the internal space extracted by the rib identification unit. A three-dimensional human body model generation method comprising: a human body model transformation step.
人体の断層像を示す3次元画像データから骨格を抽出する骨格抽出ステップと、
上記骨格抽出ステップにより抽出された骨格から複数の肋骨を同定し、当該複数の肋骨に囲まれた体内空間を抽出する肋骨同定ステップと、
体内空間データと、当該体内空間データに関連付けられた各器官データとを含む体内領域データを備える3次元標準人体モデルの上記体内領域データを上記肋骨同定部により抽出された体内空間に合わせるように変形させる人体モデル変形ステップと
をコンピュータに実行させる3次元人体モデル生成プログラム。
A skeleton extraction step of extracting a skeleton from three-dimensional image data representing a tomographic image of the human body;
Identifying a plurality of ribs from the skeleton extracted by the skeleton extracting step, and extracting a body space surrounded by the plurality of ribs;
The body region data of a three-dimensional standard human body model including body region data including body space data and each organ data associated with the body space data is transformed to match the body space extracted by the rib identification unit. A three-dimensional human body model generation program for causing a computer to execute a human body model transformation step.
JP2010040387A 2009-02-27 2010-02-25 Three-dimensional human body model generator, three-dimensional human body model generating method, and three-dimensional human body model generating program Pending JP2010221015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010040387A JP2010221015A (en) 2009-02-27 2010-02-25 Three-dimensional human body model generator, three-dimensional human body model generating method, and three-dimensional human body model generating program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009046793 2009-02-27
JP2010040387A JP2010221015A (en) 2009-02-27 2010-02-25 Three-dimensional human body model generator, three-dimensional human body model generating method, and three-dimensional human body model generating program

Publications (1)

Publication Number Publication Date
JP2010221015A true JP2010221015A (en) 2010-10-07

Family

ID=43038832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010040387A Pending JP2010221015A (en) 2009-02-27 2010-02-25 Three-dimensional human body model generator, three-dimensional human body model generating method, and three-dimensional human body model generating program

Country Status (1)

Country Link
JP (1) JP2010221015A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003293A (en) * 2010-06-13 2012-01-05 National Institute Of Information & Communication Technology Method, program, and system for generating numerical value target body model having individual internal tissue structure
JP2015530155A (en) * 2012-08-30 2015-10-15 ザ リージェンツ オブ ユニバーシティー オブ ミシガン Analysis Morphomics: High-speed medical image automatic analysis method
KR101805624B1 (en) * 2011-08-29 2017-12-08 삼성전자주식회사 Method and apparatus for generating organ medel image
CN110709943A (en) * 2017-06-16 2020-01-17 珀金埃尔默细胞科技德国公司 System and method for automatic distortion correction and/or co-registration of three-dimensional images using artificial landmarks along bones
CN111311608A (en) * 2020-02-05 2020-06-19 方军 Method, apparatus and computer-readable storage medium for assessing wounds
JP2020520701A (en) * 2017-05-19 2020-07-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Improved geometry measurement in X-ray images
JP7473377B2 (en) 2020-03-26 2024-04-23 株式会社メディカロイド Robotic surgery support device, robotic surgery support method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003293A (en) * 2010-06-13 2012-01-05 National Institute Of Information & Communication Technology Method, program, and system for generating numerical value target body model having individual internal tissue structure
KR101805624B1 (en) * 2011-08-29 2017-12-08 삼성전자주식회사 Method and apparatus for generating organ medel image
JP2015530155A (en) * 2012-08-30 2015-10-15 ザ リージェンツ オブ ユニバーシティー オブ ミシガン Analysis Morphomics: High-speed medical image automatic analysis method
JP2020520701A (en) * 2017-05-19 2020-07-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Improved geometry measurement in X-ray images
JP7242556B2 (en) 2017-05-19 2023-03-20 コーニンクレッカ フィリップス エヌ ヴェ Improved geometry measurements in X-ray images
CN110709943A (en) * 2017-06-16 2020-01-17 珀金埃尔默细胞科技德国公司 System and method for automatic distortion correction and/or co-registration of three-dimensional images using artificial landmarks along bones
JP2020523107A (en) * 2017-06-16 2020-08-06 パーキンエルマー セルラー テクノロジーズ ジャーマニー ゲーエムベーハー System and method for automatic distortion correction and/or simultaneous registration of three-dimensional images using artificial landmarks along bone
US11182913B2 (en) 2017-06-16 2021-11-23 Perkinelmer Cellular Technologies Germany Gmbh Systems and methods for automated distortion correction and/or co-registration of three-dimensional images using artificial landmarks along bones
CN110709943B (en) * 2017-06-16 2023-11-28 珀金埃尔默细胞科技德国公司 System and method for automatic distortion correction and/or co-registration of three-dimensional images using artificial landmarks along bones
CN111311608A (en) * 2020-02-05 2020-06-19 方军 Method, apparatus and computer-readable storage medium for assessing wounds
CN111311608B (en) * 2020-02-05 2023-05-09 方军 Method, apparatus and computer readable storage medium for evaluating wounds
JP7473377B2 (en) 2020-03-26 2024-04-23 株式会社メディカロイド Robotic surgery support device, robotic surgery support method, and program

Similar Documents

Publication Publication Date Title
CN107595387B (en) Spine image generation system based on ultrasonic rubbing technology and spine operation navigation and positioning system
Chabanas et al. Patient specific finite element model of the face soft tissues for computer-assisted maxillofacial surgery
KR101458729B1 (en) Method for manufacturing three-dimensional molded model and support tool for medical treatment, medical training, research, and education
JP2010221015A (en) Three-dimensional human body model generator, three-dimensional human body model generating method, and three-dimensional human body model generating program
US20230404674A1 (en) Systems and methods facilitating pre-operative prediction of post-operative tissue function
US20120002840A1 (en) Method of and arrangement for linking image coordinates to coordinates of reference model
CN112258638B (en) Human body model modeling method and device, storage medium and electronic equipment
JP2011206148A (en) Three-dimensional human body model generating device, three- dimensional human body model generating method, and three-dimensional human body model generating program
JP2015530155A (en) Analysis Morphomics: High-speed medical image automatic analysis method
CN109360213A (en) A kind of automation centrum recognition methods based on backbone ultrasound coronal image
CN107993293A (en) A kind of three-dimensional interactive anatomic teaching method for including Chinese population difference
WO2021155334A1 (en) System and method for augmenting and synchronizing a virtual model with a physical model
CN116188677A (en) Three-dimensional reconstruction method, system and device for vascular intervention operation area
Aliverti et al. Quantitative analysis by 3D graphics of thoraco-abdominal surface shape and breathing motion
CN112288797B (en) Skull correction scheme generation system, construction method, acquisition method and device
KR101988531B1 (en) Navigation system for liver disease using augmented reality technology and method for organ image display
CN100588370C (en) Three-dimensional modeling method for funnel chest of children
Ćuković et al. Supporting diagnosis and treatment of scoliosis: using augmented reality to calculate 3D spine models in real-time-ARScoliosis
Schenkenfelder et al. Elastic registration of abdominal MRI scans and RGB-D images to improve surgical planning of breast reconstruction
Yao et al. Automated extraction of anatomic landmarks on vertebrae based on anatomic knowledge and geometrical constraints
Khallaghi et al. Biomechanically constrained groupwise statistical shape model to ultrasound registration of the lumbar spine
JP2004174219A (en) Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
KR101657285B1 (en) Ultrasonography simulation system
CN115662234B (en) Thoracic surgery teaching system based on virtual reality
CN115919464B (en) Tumor positioning method, system, device and tumor development prediction method