JP2006092282A - Image processor and program - Google Patents

Image processor and program Download PDF

Info

Publication number
JP2006092282A
JP2006092282A JP2004277222A JP2004277222A JP2006092282A JP 2006092282 A JP2006092282 A JP 2006092282A JP 2004277222 A JP2004277222 A JP 2004277222A JP 2004277222 A JP2004277222 A JP 2004277222A JP 2006092282 A JP2006092282 A JP 2006092282A
Authority
JP
Japan
Prior art keywords
projection
basic
distance
virtual
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004277222A
Other languages
Japanese (ja)
Other versions
JP4461981B2 (en
Inventor
Koichi Fujiwara
浩一 藤原
Osamu Toyama
修 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2004277222A priority Critical patent/JP4461981B2/en
Priority to US11/226,522 priority patent/US7576737B2/en
Publication of JP2006092282A publication Critical patent/JP2006092282A/en
Application granted granted Critical
Publication of JP4461981B2 publication Critical patent/JP4461981B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide technology for performing the imaging of volume data at high speed. <P>SOLUTION: When a projection face on which a three-dimensional object is projected is set, one voxel is projected to the projection face, so that a reference image position corresponding to the reference position of the voxel and the projection distance (reference projection distance value) of the reference position can be detected. Data obtained by expressing the set of the projection distance value corresponding to each pixel corresponding point of the projection face and a pixel value with a reference projection distance value are imparted to each pixel, and a basic image with data clearly expressing the reference image position imparted thereto is generated. When the three-dimensional object is projected onto the projection face, each reference projection position where the reference position of each voxel is projected and the reference projection distance of each reference position are detected respectively. Then, the respective adjusted basic images generated by adjusting the basic image according to each reference projection position and each reference projection distance are mutually combined, so that an image for display can be generated. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、3次元データに基づいて表示用の画像を生成する技術に関する。   The present invention relates to a technique for generating a display image based on three-dimensional data.

3次元オブジェクトを示すデータ(ボリュームデータ)を視覚化(イメージ化)して表示する手法として、ボリュームレンダリング(Volume Rendering)という手法が知られている。   As a technique for visualizing (imaging) and displaying data (volume data) indicating a three-dimensional object, a technique called volume rendering is known.

このボリュームレンダリングには、レイキャスティング(Ray Casting)法と称される手法があり、この手法では、投影面が設定される度に、例えば、投影面と3次元オブジェクトとの距離の分布を示すマップ(デプスマップ)を生成して、視線に沿ったサンプリングを行うことで、ボリュームデータのイメージ化が実施される。   In this volume rendering, there is a method called Ray Casting method. In this method, every time a projection plane is set, for example, a map showing the distribution of the distance between the projection plane and a three-dimensional object. Volume data is imaged by generating (depth map) and sampling along the line of sight.

そして、各種演算をハードウェアで行うことで、高速でボリュームデータをイメージ化させようとすると、ハードウェアが大きくなってしまうといった問題が生じる。この問題に対しては、制限された大きさのハードウェアで、より大きなボリュームデータを高速でイメージ化することのできる技術が提案されている(例えば、特許文献1)。   Then, when various calculations are performed by hardware, if the volume data is imaged at high speed, there is a problem that the hardware becomes large. In order to solve this problem, a technique has been proposed in which larger volume data can be imaged at high speed with limited-size hardware (for example, Patent Document 1).

このような技術に関する先行技術文献としては、以下のようなものがある。   Prior art documents relating to such technology include the following.

特開2000−348195号公報JP 2000-348195 A

しかしながら、上述したボリュームレンダリングでは、視線方向、すなわち投影面が変わる度に、例えば、デプスマップを再度生成し直したり、再度のイメージ化が必要となったりする為、多大な演算が必要となる。このため、視線方向の変化に応じた可視的なイメージの切り替えにある程度の時間を要する。そして、特に、ボリュームデータのデータ量が大きな場合には、イメージの切り替えをスムーズに行うことが困難であった。   However, in the volume rendering described above, every time the line-of-sight direction, that is, the projection plane changes, for example, a depth map is generated again, or it is necessary to form an image again. For this reason, a certain amount of time is required for switching the visible image according to the change in the line-of-sight direction. In particular, when the amount of volume data is large, it is difficult to smoothly switch images.

本発明は、上記課題に鑑みてなされたものであり、ボリュームデータのイメージ化に要する演算量を低減することができる、すなわちボリュームデータのイメージ化を高速で行うことができる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique capable of reducing the amount of calculation required for imaging volume data, that is, capable of imaging volume data at high speed. Objective.

上記の課題を解決するために、請求項1の発明は、3次元データに基づいて表示用画像を生成する画像処理装置であって、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、前記特定構造体について、基準位置を設定する基準位置設定手段と、前記所定方向を向いた一の特定構造体を前記方向関係に従って前記仮想投影面に対して投影することで基本画像を生成しつつ、当該基本画像のうち前記基準位置に対応する基準画像位置を認識する基本画像生成手段と、前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、各特定構造体の基準位置が前記仮想投影面に対してそれぞれ投影される各基準投影位置を検出する検出手段と、前記基本画像を基礎として、前記仮想投影面に対する相対的な位置関係を、前記検出手段によって検出された各基準投影位置に応じてそれぞれ調整することで、各調整後基本画像をそれぞれ生成する調整画像生成手段と、前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   In order to solve the above problems, the invention of claim 1 is an image processing apparatus that generates a display image based on three-dimensional data, and is a virtual structure configured by a set of specific structures facing a predetermined direction. Reading means for reading the three-dimensional data indicating the structure of the three-dimensional object into a predetermined storage means, and a projection plane for setting a relative direction relation between the virtual projection plane for projecting the virtual three-dimensional object and the virtual three-dimensional object A basic image by projecting a setting unit, a reference position setting unit for setting a reference position for the specific structure, and one specific structure facing the predetermined direction onto the virtual projection plane according to the direction relation Generating basic image generating means for recognizing a reference image position corresponding to the reference position in the basic image, and converting the virtual three-dimensional object into the virtual projection plane Detection means for detecting each reference projection position at which the reference position of each specific structure is projected onto the virtual projection plane, and relative to the virtual projection plane on the basis of the basic image. The adjusted positional relationship is generated according to each reference projection position detected by the detecting means, and the adjusted image generating means for generating the adjusted basic images, respectively, and the adjusted image generating means. A display image generating unit that generates a display image by synthesizing the adjusted basic images with each other is provided.

また、請求項2の発明は、3次元データに基づいて表示用画像を生成する画像処理装置であって、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、前記複数パターンの基本構造体を、前記方向関係に従って前記仮想投影面に対してそれぞれ投影することで複数パターンの基本画像を生成しつつ、当該複数パターンの各基本画像について、前記複数パターンの基本構造体の基準位置にそれぞれ対応する各基準画像位置を認識する基本画像生成手段と、前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、前記第1の検出手段によって検出された基本構造体に対応する基本画像を前記複数パターンの基本画像から抽出する抽出手段と、前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置を検出する第2の検出手段と、前記抽出手段によって抽出された基本画像を基礎として、前記仮想投影面に対する相対的な位置を前記基準投影位置に応じて調整することで、調整後基本画像を生成する調整画像生成手段と、前記各単位処理対象領域について、前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段と、を備えることを特徴とする。   The invention of claim 2 is an image processing apparatus for generating a display image based on three-dimensional data, and shows a structure of a virtual three-dimensional object configured by a set of specific structures facing a predetermined direction. Reading means for reading three-dimensional data into a predetermined storage means; a projection plane setting means for setting a relative direction relationship between a virtual projection plane for projecting the virtual three-dimensional object and the virtual three-dimensional object; and the predetermined direction A basic structure setting means for setting a plurality of basic structures each configured by an array pattern of at least one specific structure in a unit processing target region in which a predetermined number of specific structures facing the surface can be arranged; The reference position setting means for setting the reference position of the basic structure of the plurality of patterns, and the basic structure of the plurality of patterns in accordance with the direction relationship. While generating a plurality of patterns of basic images by projecting each on a virtual projection plane, for each of the basic images of the plurality of patterns, each reference image position corresponding to the reference position of the basic structure of the plurality of patterns is recognized. An area for designating unit processing target areas to be projected among time-sequential out of three-dimensional areas to be processed when projecting the virtual three-dimensional object onto the virtual projection plane. A first detection unit that detects a matching basic structure from the plurality of basic structures in the unit processing target region specified by the region specification unit; and the first detection unit A basic image corresponding to the basic structure detected by the extraction means for extracting the basic image from the plurality of patterns of basic images, and a detection by the first detection means. A second detection unit that detects a reference projection position at which the reference position of the basic structure is projected onto the virtual projection plane; and a basic image extracted by the extraction unit, with respect to the virtual projection plane An adjusted image generating unit that generates an adjusted basic image by adjusting a relative position according to the reference projection position, and an adjusted image generated by the adjusted image generating unit for each unit processing target area And display image generation means for generating a display image by synthesizing the basic images with each other.

また、請求項3の発明は、3次元データに基づいて距離マップを生成する画像処理装置であって、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、前記特定構造体について、基準位置を設定する基準位置設定手段と、前記位置及び方向関係に従って、前記所定方向を向いた一の特定構造体の基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記一の特定構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記一の特定構造体との距離の分布を示す基本距離マップを生成する基本距離マップ生成手段と、前記仮想3次元オブジェクトを構成する各特定構造体を対象として、前記仮想投影面上における各特定構造体に対応する各基準投影位置と各基準投影距離とを検出する検出手段と、前記基本距離マップを基礎として、前記検出手段によって検出された各基準投影位置と各基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係と各投影距離とをそれぞれ調整することで、各調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との距離の分布を示す全体距離マップを生成する距離マップ生成手段とを備えることを特徴とする。   According to a third aspect of the present invention, there is provided an image processing apparatus that generates a distance map based on three-dimensional data, and shows a structure of a virtual three-dimensional object configured by a set of specific structures facing a predetermined direction. Reading means for reading dimensional data into a predetermined storage means; a virtual projection plane for projecting the virtual three-dimensional object; and a projection plane setting means for setting a relative position and direction relationship between the virtual three-dimensional object; Reference position setting means for setting a reference position for the structure, and a reference projection position at which the reference position of one specific structure facing the predetermined direction is projected onto the virtual projection plane according to the position and direction relationship , And a reference projection distance corresponding to a distance between the reference position and the reference projection position, and each predetermined point on the virtual projection plane and the one specific structure A basic distance map generating means for generating a basic distance map indicating a distribution of distances between the virtual projection plane and the one specific structure based on the reference projection distance by detecting each projection distance corresponding to a distance of Detection means for detecting each reference projection position and each reference projection distance corresponding to each specific structure on the virtual projection plane for each specific structure constituting the virtual three-dimensional object, and the basic distance Based on the map, each adjustment is performed by adjusting the relative positional relationship and each projection distance with respect to the virtual projection plane according to each reference projection position and each reference projection distance detected by the detection unit. The adjustment map generation means for generating the rear basic distance map and the adjusted basic distance map generated by the adjustment map generation means An overall distance map that indicates the distribution of the distance between the virtual three-dimensional object and the virtual projection plane by adopting the minimum projection distance for projection positions where a plurality of adjusted basic distance maps overlap in the virtual projection plane. And a distance map generating means for generating.

また、請求項4の発明は、3次元データに基づいて距離マップを生成する画像処理装置であって、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、前記複数パターンの基本構造体について、前記位置及び方向関係に従って基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記各基本構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記各基本構造体との距離の分布をそれぞれ示す複数パターンの基本距離マップを生成する基本マップ生成手段と、処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、前記第1の検出手段によって検出された基本構造体に対応する基本距離マップを前記複数パターンの基本距離マップから抽出する抽出手段と、前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置と、当該基準投影位置に対応する基準投影距離とをそれぞれ検出する第2の検出手段と、前記抽出手段によって抽出された基本距離マップを基礎として、前記第2の検出手段によって検出された基準投影位置と基準投影距離とに応じて、前記仮想投影面に対する相対的な位置と各投影距離とをそれぞれ調整することで、調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との距離の分布を示す全体距離マップを生成する距離マップ生成手段とを備えることを特徴とする。   According to a fourth aspect of the present invention, there is provided an image processing apparatus that generates a distance map based on three-dimensional data, and shows a structure of a virtual three-dimensional object configured by a set of specific structures facing a predetermined direction. Reading means for reading the three-dimensional data into a predetermined storage means; a projection plane setting means for setting a relative position and direction relationship between the virtual projection plane for projecting the virtual three-dimensional object and the virtual three-dimensional object; Basic structure setting means for setting a plurality of basic structures each configured by an array pattern of at least one specific structure in a unit processing target region in which a predetermined number of specific structures facing the direction can be arranged; , Reference position setting means for setting a reference position of the basic structure of the plurality of patterns, and the position of the basic structure of the plurality of patterns And a reference projection position at which a reference position is projected onto the virtual projection plane according to a direction relationship and a reference projection distance corresponding to a distance between the reference position and the reference projection position, and a predetermined projection on the virtual projection plane By detecting each projection distance corresponding to the distance between each point and each basic structure, a plurality of patterns each indicating a distribution of distances between the virtual projection plane and each basic structure based on the reference projection distance Basic map generating means for generating a basic distance map, area specifying means for sequentially specifying unit processing target areas to be projected among three-dimensional areas to be processed, and units specified by the area specifying means A processing target region is detected by a first detection unit that detects a matching basic structure from the plurality of patterns of basic structures, and the first detection unit. An extraction means for extracting a basic distance map corresponding to the basic structure formed from the plurality of patterns of basic distance maps, and a reference position of the basic structure detected by the first detection means is relative to the virtual projection plane. Based on the basic distance map extracted by the extraction means, the second detection means for detecting the projected reference projection position and the reference projection distance corresponding to the reference projection position, respectively, the second detection means An adjustment map generating means for generating an adjusted basic distance map by adjusting a relative position with respect to the virtual projection plane and each projection distance, respectively, according to the reference projection position and the reference projection distance detected by And a plurality of adjusted basic distances among the virtual projection planes while combining the adjusted basic distance maps generated by the adjustment map generating means with each other. A distance map generating unit that generates a total distance map indicating a distribution of distances between the virtual three-dimensional object and the virtual projection plane by adopting a minimum projection distance for the projection positions where the separation maps overlap. It is characterized by that.

また、請求項5の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、前記特定構造体について、基準位置を設定する基準位置設定手段と、前記所定方向を向いた一の特定構造体を前記方向関係に従って前記仮想投影面に対して投影することで基本画像を生成しつつ、当該基本画像のうち前記基準位置に対応する基準画像位置を認識する基本画像生成手段と、前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、各特定構造体の基準位置が前記仮想投影面に対してそれぞれ投影される各基準投影位置を検出する検出手段と、前記基本画像を基礎として、前記仮想投影面に対する相対的な位置関係を、前記検出手段によって検出された各基準投影位置に応じてそれぞれ調整することで、各調整後基本画像をそれぞれ生成する調整画像生成手段と、前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段と、を備えることを特徴とする。   The invention of claim 5 is a program that, when executed on a computer, causes the computer to function as an image processing device that generates a display image based on three-dimensional data. Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing the direction, a virtual projection plane for projecting the virtual three-dimensional object, and the virtual 3 A projection plane setting means for setting a relative direction relationship with a three-dimensional object, a reference position setting means for setting a reference position for the specific structure, and one specific structure facing the predetermined direction as the direction relationship. Corresponding to the reference position in the basic image while generating a basic image by projecting onto the virtual projection plane according to Basic image generating means for recognizing a quasi-image position, and when projecting the virtual three-dimensional object onto the virtual projection plane, each reference position of each specific structure is projected onto the virtual projection plane. By adjusting the relative positional relationship with respect to the virtual projection plane based on the basic image based on the detection means for detecting the reference projection position and the reference projection position detected by the detection means, An adjusted image generating means for generating an adjusted basic image, and a display image generating means for generating a display image by mutually synthesizing the adjusted basic images generated by the adjusted image generating means, It is characterized by providing.

また、請求項6の発明は、請求項5に記載のプログラムであって、前記基本画像生成手段が、前記一の特定構造体の基準位置に対応する基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記一の特定構造体との距離にあたる各投影距離を検出し、前記基準投影距離を基準とした前記各投影距離を示す各投影距離値と、当該各投影距離に応じた各画素値とを一組として、前記基本画像の各画素に対してそれぞれ与えることで、前記基本画像を生成し、前記検出手段が、前記各基準投影位置に対応する各基準投影距離を更に検出し、前記調整画像生成手段が、前記基本画像を基礎として、前記検出手段によって検出された各基準投影位置と各基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係、各投影距離値、及び各画素値をそれぞれ調整することで、調整後基本画像を生成し、前記表示用画像生成手段が、前記各調整後基本画像を相互に合成する際に、前記仮想投影面のうち複数の調整後基本画像が重複する投影位置については、最小の投影距離を示す投影距離値と当該投影距離に対応する画素値との組を採用することを特徴とする。   The invention according to claim 6 is the program according to claim 5, wherein the basic image generation means includes a reference projection position corresponding to a reference position of the one specific structure, and the reference position and the reference. A reference projection distance corresponding to a distance from the projection position is detected, each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and the one specific structure is detected, and the reference projection distance is used as a reference. By providing each projection distance value indicating each projection distance and each pixel value corresponding to each projection distance as a set to each pixel of the basic image, the basic image is generated, The detection means further detects each reference projection distance corresponding to each reference projection position, and the adjusted image generation means uses each reference projection position and each reference projection detected by the detection means based on the basic image. distance And adjusting the relative positional relationship with respect to the virtual projection plane, each projection distance value, and each pixel value to generate an adjusted basic image, and the display image generation means When combining a plurality of post-adjustment basic images in the virtual projection plane when synthesizing the subsequent basic images with each other, a projection distance value indicating the minimum projection distance and a pixel value corresponding to the projection distance It is characterized by adopting a set of

また、請求項7の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、前記複数パターンの基本構造体を、前記方向関係に従って前記仮想投影面に対してそれぞれ投影することで複数パターンの基本画像を生成しつつ、当該複数パターンの各基本画像について、前記複数パターンの基本構造体の基準位置にそれぞれ対応する各基準画像位置を認識する基本画像生成手段と、前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、前記第1の検出手段によって検出された基本構造体に対応する基本画像を前記複数パターンの基本画像から抽出する抽出手段と、前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置を検出する第2の検出手段と、前記抽出手段によって抽出された基本画像を基礎として、前記仮想投影面に対する相対的な位置を前記基準投影位置に応じて調整することで、調整後基本画像を生成する調整画像生成手段と、前記各単位処理対象領域について、前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   The invention according to claim 7 is a program for causing a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in the computer. Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing the direction, a virtual projection plane for projecting the virtual three-dimensional object, and the virtual 3 An arrangement pattern of at least one or more specific structures in a unit processing target area in which a projection plane setting means for setting a relative direction relationship with a three-dimensional object and a predetermined number of specific structures facing the predetermined direction can be arranged Basic structure setting means for setting a plurality of patterns of basic structures respectively configured by the plurality of patterns, and the plurality of patterns While generating a basic image of a plurality of patterns by projecting the basic structure of the plurality of patterns on the virtual projection plane according to the directional relationship, a reference position setting unit that sets a reference position of the basic structure, For each basic image of the plurality of patterns, basic image generation means for recognizing each reference image position corresponding to a reference position of the basic structure of the plurality of patterns, and projecting the virtual three-dimensional object onto the virtual projection plane When performing, among the three-dimensional regions to be processed, an area designating unit for designating unit processing target regions to be projected in time sequence, and the unit processing target region designated by the region designating unit, the plurality of patterns First detecting means for detecting a matching basic structure from the basic structures, and a group detected by the first detecting means. Extraction means for extracting a basic image corresponding to a structure from the basic images of the plurality of patterns, and reference projection in which a reference position of the basic structure detected by the first detection means is projected onto the virtual projection plane Based on the second detection means for detecting the position and the basic image extracted by the extraction means, the relative position with respect to the virtual projection plane is adjusted according to the reference projection position, thereby adjusting the adjusted basic image. An adjustment image generation unit that generates a display image by synthesizing the adjusted basic images generated by the adjustment image generation unit with respect to each unit processing target region. It is characterized by providing.

また、請求項8の発明は、請求項7に記載のプログラムであって、前記基本画像生成手段が、前記各基本構造体について、基準位置に対応する基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記各基本構造体との距離にあたる各投影距離を検出し、前記基準投影距離を基準とした前記各投影距離を示す各投影距離値と、当該各投影距離に応じた各画素値とを一組として、前記基本画像の各画素に対してそれぞれ与えることで、前記基本画像を生成し、前記第2の検出手段が、前記基準投影位置に対応する基準投影距離を更に検出し、前記調整画像生成手段が、前記抽出手段によって抽出された基本画像を基礎として、前記基準投影位置と前記基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係、各投影距離値、及び各画素値をそれぞれ調整することで、調整後基本画像を生成し、前記表示用画像生成手段が、前記各調整後基本画像を相互に合成する際に、前記仮想投影面のうち複数の調整後基本画像が重複する投影位置については、最小の投影距離を示す投影距離値と当該投影距離に対応する画素値との組を採用することを特徴とする。   The invention according to claim 8 is the program according to claim 7, wherein the basic image generation unit, for each of the basic structures, a reference projection position corresponding to a reference position, the reference position, and the reference A reference projection distance corresponding to a distance from the projection position is detected, each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and each basic structure is detected, and the reference projection distance is used as a reference. The basic image is generated by giving each projection distance value indicating each projection distance and each pixel value corresponding to each projection distance as a set to each pixel of the basic image, and generating the basic image The second detection means further detects a reference projection distance corresponding to the reference projection position, and the adjustment image generation means uses the reference projection position and the reference projection based on the basic image extracted by the extraction means. In accordance with the distance, by adjusting the relative positional relationship with respect to the virtual projection plane, each projection distance value, and each pixel value, respectively, an adjusted basic image is generated. When the adjusted basic images are combined with each other, a projection distance value indicating a minimum projection distance and a pixel corresponding to the projection distance for a projection position where a plurality of adjusted basic images overlap in the virtual projection plane. It is characterized by adopting a pair with a value.

また、請求項9の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて距離マップを生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、前記特定構造体について、基準位置を設定する基準位置設定手段と、前記位置及び方向関係に従って、前記所定方向を向いた一の特定構造体の基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記一の特定構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記一の特定構造体との距離の分布を示す基本距離マップを生成する基本距離マップ生成手段と、前記仮想3次元オブジェクトを構成する各特定構造体を対象として、前記仮想投影面上における各特定構造体に対応する各基準投影位置と各基準投影距離とを検出する検出手段と、前記基本距離マップを基礎として、前記検出手段によって検出された各基準投影位置と各基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係と各投影距離とをそれぞれ調整することで、各調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との投影距離の分布を示す全体距離マップを生成する距離マップ生成手段とを備えることを特徴とする。   The invention according to claim 9 is a program for causing a computer to function as an image processing device that generates a distance map based on three-dimensional data by being executed in the computer, wherein the image processing device has a predetermined direction. Reading means for reading the three-dimensional data indicating the structure of the virtual three-dimensional object constituted by a set of specific structures facing to the predetermined storage means, a virtual projection plane for projecting the virtual three-dimensional object, and the virtual three-dimensional A projection plane setting unit that sets a relative position and direction relationship with an object, a reference position setting unit that sets a reference position for the specific structure, and one that faces the predetermined direction according to the position and direction relationship. A reference projection position at which the reference position of the specific structure is projected onto the virtual projection plane, and the reference position and the reference A reference projection distance corresponding to a distance from the projection position is detected, and each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and the one specific structure is detected, thereby making the reference projection distance a reference. The basic distance map generating means for generating a basic distance map indicating the distribution of the distance between the virtual projection plane and the one specific structure, and for each specific structure constituting the virtual three-dimensional object, Detection means for detecting each reference projection position and each reference projection distance corresponding to each specific structure on the virtual projection plane, each reference projection position detected by the detection means based on the basic distance map, and each Each adjusted basic distance map is generated by adjusting the relative positional relationship with respect to the virtual projection plane and each projection distance according to the reference projection distance. An adjustment map generating unit and each adjusted basic distance map generated by the adjustment map generating unit are combined with each other, and a projection position where a plurality of adjusted basic distance maps of the virtual projection plane overlap is minimum. And a distance map generating means for generating an overall distance map indicating a distribution of projection distances between the virtual three-dimensional object and the virtual projection plane.

また、請求項10の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて距離マップを生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、前記複数パターンの基本構造体について、前記位置及び方向関係に従って基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記各基本構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記各基本構造体との距離の分布をそれぞれ示す複数パターンの基本距離マップを生成する基本マップ生成手段と、処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、前記第1の検出手段によって検出された基本構造体に対応する基本距離マップを前記複数パターンの基本距離マップから抽出する抽出手段と、前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置と、当該基準投影位置に対応する基準投影距離とをそれぞれ検出する第2の検出手段と、前記抽出手段によって抽出された基本距離マップを基礎として、前記第2の検出手段によって検出された基準投影位置と基準投影距離とに応じて、前記仮想投影面に対する相対的な位置と各投影距離とをそれぞれ調整することで、調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との投影距離の分布を示す全体距離マップを生成する距離マップ生成手段とを備えることを特徴とする。   According to a tenth aspect of the present invention, there is provided a program for causing a computer to function as an image processing device that generates a distance map based on three-dimensional data by being executed in the computer, wherein the image processing device has a predetermined direction. Reading means for reading the three-dimensional data indicating the structure of the virtual three-dimensional object constituted by a set of specific structures facing to the predetermined storage means, a virtual projection plane for projecting the virtual three-dimensional object, and the virtual three-dimensional Arrangement of at least one or more specific structures in a unit processing target area in which a projection plane setting means for setting a relative position and direction relationship with an object and a predetermined number of specific structures facing the predetermined direction can be arranged Basic structure setting means for setting a basic structure of a plurality of patterns each configured by a pattern; A reference position setting means for setting a reference position of a basic structure of a pattern; a reference projection position at which a reference position is projected onto the virtual projection plane in accordance with the position and direction relation of the basic structures of the plurality of patterns; and Detecting a reference projection distance corresponding to a distance between the reference position and the reference projection position, and detecting each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and each basic structure, A basic map generating means for generating a plurality of patterns of basic distance maps each indicating a distribution of distances between the virtual projection plane and the basic structures based on a reference projection distance; and a three-dimensional region to be processed, An area designating unit that sequentially specifies unit processing target areas to be projected, and a unit processing target area designated by the area designating unit, First detection means for detecting a matching basic structure from among several basic structures, and a basic distance map corresponding to the basic structure detected by the first detection means. Extraction means for extracting from the distance map; reference projection position at which the reference position of the basic structure detected by the first detection means is projected onto the virtual projection plane; and reference projection corresponding to the reference projection position A second detection means for detecting each distance, and a basic projection map extracted by the extraction means, based on the reference projection position and the reference projection distance detected by the second detection means, An adjustment map generating means for generating an adjusted basic distance map by adjusting a relative position with respect to the virtual projection plane and each projection distance, and the adjustment map; By combining the adjusted basic distance maps generated by the image generation means with each other and adopting the minimum projection distance for the projection position where a plurality of adjusted basic distance maps overlap among the virtual projection planes. And distance map generating means for generating an overall distance map showing a distribution of projection distances between the virtual three-dimensional object and the virtual projection plane.

請求項1に記載の発明によれば、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトを投影する仮想投影面が設定されると、まず、所定方向を向いた一の特定構造体を仮想投影面に投影することで基本画像を生成しつつ、基本画像のうち一の特定構造体の基準位置に対応する基準画像位置を認識しておき、仮想3次元オブジェクトを仮想投影面に投影する際には、仮想3次元オブジェクトを構成する各特定構造体の基準位置が投影される各基準投影位置を検出して、当該各基準投影位置に応じて仮想投影面に対する基本画像の相対的な位置関係を調整することで生成された各調整後基本画像を相互に合成することで、表示用画像を生成するような構成により、投影面が設定されてから表示用画像を生成するまでの演算量を低減することができるため、ボリュームデータのイメージ化を高速で行うことができる。   According to the first aspect of the present invention, when a virtual projection plane for projecting a virtual three-dimensional object configured by a set of specific structures facing a predetermined direction is set, While generating a basic image by projecting a specific structure onto a virtual projection plane, a reference image position corresponding to the reference position of one specific structure in the basic image is recognized, and a virtual three-dimensional object is virtually projected When projecting onto a surface, each reference projection position on which the reference position of each specific structure constituting the virtual three-dimensional object is projected is detected, and the basic image on the virtual projection plane is detected according to each reference projection position. The adjusted basic images generated by adjusting the relative positional relationship are combined with each other to generate a display image after a projection plane is set by a configuration that generates a display image. For up to It is possible to reduce the calculation amount, it is possible to perform imaging of volume data at high speed.

また、請求項2に記載の発明によれば、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトを投影する仮想投影面が設定されると、まず、所定方向を向いた所定数の特定構造体が配列可能な所定形状の単位処理対象領域における特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を、仮想投影面にそれぞれ投影することで複数パターンの基本画像を生成しつつ、当該各基本画像のうち、基本構造体の基準位置に対応する基準画像位置を認識しておき、仮想3次元オブジェクトを仮想投影面に投影する際には、投影対象として順次に指定された各単位処理対象領域について、合致する基本構造体を検出し、当該基本構造体に対応する基本画像を基礎として、仮想投影面に対する相対的な位置を、当該基本構造体の基準位置が投影される基準投影位置に応じて調整することで、各調整後基本画像をそれぞれ生成し、当該各調整後基本画像を相互に合成することで、表示用画像を生成するような構成により、投影面が設定されてから表示用画像を生成するまでの演算量を低減することができるため、ボリュームデータのイメージ化を高速で行うことができる。   According to the second aspect of the present invention, when a virtual projection plane for projecting a virtual three-dimensional object configured by a set of specific structures facing a predetermined direction is set, first, the virtual direction is directed to the predetermined direction. A plurality of basic patterns can be projected by projecting a plurality of basic patterns each composed of an array pattern of specific structures in a unit processing target area of a predetermined shape in which a predetermined number of specific structures can be arranged, onto a virtual projection plane. While generating an image, among the basic images, a reference image position corresponding to the reference position of the basic structure is recognized, and when a virtual three-dimensional object is projected onto a virtual projection plane, the target is sequentially projected. For each unit processing target area specified in, a matching basic structure is detected, and relative to the virtual projection plane based on the basic image corresponding to the basic structure. By adjusting the position according to the reference projection position on which the reference position of the basic structure is projected, each adjusted basic image is generated, and the adjusted basic images are combined and displayed. With the configuration for generating the image for use, it is possible to reduce the amount of calculation from the setting of the projection plane to the generation of the image for display, so that the volume data can be imaged at high speed.

また、請求項3に記載の発明によれば、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトを投影する仮想投影面が設定されると、まず、所定方向を向いた一の特定構造体の基準位置が仮想投影面に投影される基準投影位置及び基準投影距離を検出して、基準投影距離を基準とした仮想投影面と一の特定構造体との距離の分布を示す基本距離マップを生成しておき、仮想3次元オブジェクトを構成する各特定構造体について、基準投影位置と基準投影距離とを検出し、当該基準投影位置と基準投影距離とに応じて基本距離マップを調整した各調整後基本距離マップを相互に合成しつつ、複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、仮想3次元オブジェクトと仮想投影面との距離の分布を示す全体距離マップを生成するような構成により、投影面が設定されてから全体距離マップを生成するまでの演算量を低減することができる。その結果、ボリュームデータのイメージ化についての演算量も低減することができるため、ボリュームデータのイメージ化を高速で行うことができる。   According to the third aspect of the present invention, when a virtual projection plane for projecting a virtual three-dimensional object configured by a set of specific structures facing a predetermined direction is set, first, the virtual direction is directed to the predetermined direction. The reference projection position and the reference projection distance at which the reference position of one specific structure is projected onto the virtual projection plane are detected, and the distribution of the distance between the virtual projection plane and the one specific structure based on the reference projection distance is determined. A basic distance map is generated, a reference projection position and a reference projection distance are detected for each specific structure constituting the virtual three-dimensional object, and the basic distance map is determined according to the reference projection position and the reference projection distance. Each of the adjusted basic distance maps with adjusted values is combined with each other, and the projection position where a plurality of adjusted basic distance maps overlap is adopted as the virtual three-dimensional object and the temporary position by adopting the minimum projection distance. With such a configuration to generate the entire distance map showing the distribution of the distance between the projection plane, it is possible to reduce the amount of calculation to produce an overall distance map from the projection plane is set. As a result, it is possible to reduce the amount of calculation for imaging volume data, so that imaging of volume data can be performed at high speed.

また、請求項4に記載の発明によれば、所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトを投影する仮想投影面が設定されると、まず、所定方向を向いた所定数の特定構造体が配列可能な所定形状の単位処理対象領域における特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体の基準位置が仮想投影面に対して投影される基準投影位置及び基準投影距離を検出して、基準投影距離を基準とした仮想投影面と各基本構造体との距離の分布を示す複数パターンの基本距離マップを生成しておき、処理対象となる3次元領域のうち、投影対象として順次に指定された各単位処理対象領域について、対応する基本距離マップを基礎として、基準投影位置と基準投影距離とに応じた調整を行うことで各調整後基本距離マップを生成して相互に合成しつつ、複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、仮想3次元オブジェクトと仮想投影面との距離の分布を示す全体距離マップを生成するような構成により、投影面が設定されてから全体距離マップを生成するまでの演算量を低減することができる。その結果、ボリュームデータのイメージ化についての演算量も低減することができるため、ボリュームデータのイメージ化を高速で行うことができる。   According to the fourth aspect of the present invention, when a virtual projection plane for projecting a virtual three-dimensional object configured by a set of specific structures facing a predetermined direction is set, first, the virtual direction is directed to the predetermined direction. A reference projection in which the reference positions of a plurality of basic structures each composed of an array pattern of specific structures in a unit processing target area of a predetermined shape in which a predetermined number of specific structures can be arranged are projected on a virtual projection plane A three-dimensional object to be processed is generated by detecting a position and a reference projection distance and generating a plurality of patterns of basic distance maps indicating a distribution of distances between the virtual projection plane and each basic structure based on the reference projection distance. For each unit processing target area that is sequentially specified as a projection target in the area, adjustment is performed according to the reference projection position and the reference projection distance based on the corresponding basic distance map. In this way, each adjusted basic distance map is generated and combined with each other, and for the projection position where a plurality of adjusted basic distance maps overlap, a virtual three-dimensional object and a virtual projection are adopted by adopting the minimum projection distance. With the configuration that generates the entire distance map indicating the distribution of the distance to the surface, it is possible to reduce the amount of calculation from when the projection plane is set until the entire distance map is generated. As a result, it is possible to reduce the amount of calculation for imaging volume data, so that imaging of volume data can be performed at high speed.

また、請求項5に記載の発明によれば、請求項1に記載の発明と同様な効果を得ることができる。   Further, according to the invention described in claim 5, the same effect as that of the invention described in claim 1 can be obtained.

また、請求項6に記載の発明によれば、基本画像を生成する際に、一の特定構造体の基準位置が仮想投影面に対して投影される基準投影位置と基準投影距離とを検出するとともに、仮想投影面上の所定の各点と一の特定構造体との距離にあたる各投影距離を検出し、基準投影距離を基準とした各投影距離を示す各投影距離値と、当該各投影距離に応じた各画素値とを一組として、基本画像の各画素に対してそれぞれ与えることで、基本画像を生成しておき、仮想3次元オブジェクトを構成する各特定構造体に係る基準投影位置と基準投影距離とに応じて、基本画像を調整することで生成された各調整後基本画像を相互に合成しつつ、複数の調整後基本画像が重複する投影位置については、最小の投影距離を示す投影距離値と当該投影距離に対応する画素値との組を採用するような構成により、3次元オブジェクトと投影面との距離に応じた表示用画像、すなわち奥行きをユーザーに対して視覚的に認識させることができる表示用画像を生成することができる。   According to the sixth aspect of the present invention, when generating the basic image, the reference projection position and the reference projection distance at which the reference position of one specific structure is projected onto the virtual projection plane are detected. In addition, each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and one specific structure is detected, each projection distance value indicating each projection distance with reference to the reference projection distance, and each projection distance The basic image is generated by giving each pixel value corresponding to each pixel as a set to each pixel of the basic image, and the reference projection position relating to each specific structure constituting the virtual three-dimensional object Each of the adjusted basic images generated by adjusting the basic image according to the reference projection distance is synthesized with each other, and the projection position where a plurality of adjusted basic images overlap indicates the minimum projection distance. The projection distance value and the projection distance Generates a display image according to the distance between the three-dimensional object and the projection plane, that is, a display image that allows the user to visually recognize the depth, by adopting a configuration that employs a set of pixel values to be used. can do.

また、請求項7に記載の発明によれば、請求項2に記載の発明と同様な効果を得ることができる。   According to the seventh aspect of the invention, the same effect as that of the second aspect of the invention can be obtained.

また、請求項8に記載の発明によれば、基本画像を生成する際に、各基本構造体について、基準位置が仮想投影面に対して投影される基準投影位置と基準投影距離とを検出するとともに、仮想投影面上の所定の各点と各基本構造体との距離にあたる各投影距離を検出し、基準投影距離を基準とした各投影距離を示す各投影距離値と、当該各投影距離に応じた各画素値とを一組として、基本画像の各画素に対してそれぞれ与えることで、複数パターンの基本画像を生成しておき、単位処理対象領域ごとに、基準投影位置と基準投影距離とを検出し、各単位処理対象領域に合致する基本画像を抽出して、当該抽出された基本画像を基礎として、基準投影位置と基準投影距離とに応じて、仮想投影面に対する相対的な位置関係、各投影距離値、及び各画素値をそれぞれ調整することで、調整後基本画像を生成し、各調整後基本画像を相互に合成する際に、仮想投影面のうち複数の調整後基本画像が重複する投影位置については、最小の投影距離を示す投影距離値と当該投影距離に対応する画素値との組を採用するような構成とすることで、3次元オブジェクトと投影面との距離に応じた表示用画像、すなわち奥行きをユーザーに対して視覚的に認識させることができる表示用画像を生成することができる。   According to the eighth aspect of the present invention, when generating the basic image, the reference projection position and the reference projection distance at which the reference position is projected onto the virtual projection plane are detected for each basic structure. In addition, each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and each basic structure is detected, and each projection distance value indicating each projection distance based on the reference projection distance is set to each projection distance. Each set of corresponding pixel values is given to each pixel of the basic image to generate a plurality of patterns of basic images. For each unit processing target area, a reference projection position, a reference projection distance, To extract a basic image that matches each unit processing target area, and based on the extracted basic image, a relative positional relationship with the virtual projection plane according to the reference projection position and the reference projection distance , Each projection distance value, and When adjusting each pixel value to generate an adjusted basic image and combining the adjusted basic images with each other, the projection position where a plurality of adjusted basic images overlap in the virtual projection plane is minimum. By adopting a configuration in which a set of a projection distance value indicating the projection distance and a pixel value corresponding to the projection distance is adopted, a display image corresponding to the distance between the three-dimensional object and the projection plane, that is, the depth is obtained. A display image that can be visually recognized by the user can be generated.

また、請求項9に記載の発明によれば、請求項3に記載の発明と同様な効果を得ることができる。   According to the ninth aspect of the invention, the same effect as that of the third aspect of the invention can be obtained.

また、請求項10に記載の発明によれば、請求項4に記載の発明と同様な効果を得ることができる。   Further, according to the invention described in claim 10, the same effect as that of the invention described in claim 4 can be obtained.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1実施形態>
<画像処理システムの概要>
図1は、本発明の実施形態に係る画像処理システム1の概要を例示する図である。
<First Embodiment>
<Outline of image processing system>
FIG. 1 is a diagram illustrating an overview of an image processing system 1 according to an embodiment of the present invention.

画像処理システム1は、パーソナルコンピュータ(以下単に「パソコン」と称する)2と、パソコン2とデータ送受信可能に接続されるモニター3及び装着部5と、パソコン2に対してユーザーが各種選択事項等を入力する操作部4とを備えて構成される。   The image processing system 1 includes a personal computer (hereinafter simply referred to as a “personal computer”) 2, a monitor 3 and a mounting unit 5 that are connected to the personal computer 2 so as to be able to transmit and receive data, and a user who makes various selections on the personal computer 2 And an operation unit 4 for inputting.

パソコン2は、制御部20、入出力I/F21、及び記憶部22を備えている。   The personal computer 2 includes a control unit 20, an input / output I / F 21, and a storage unit 22.

入出力I/F21は、パソコン2と、モニター3、操作部4、及び装着部5との間でデータの送受信をするためのインターフェイス(I/F)であり、制御部20との間でデータの送受信を行う。   The input / output I / F 21 is an interface (I / F) for transmitting and receiving data between the personal computer 2 and the monitor 3, the operation unit 4, and the mounting unit 5. Send and receive.

記憶部22は、例えばハードディスク等で構成されており、後述するボリュームデータの視覚化(イメージ化)を実現するための画像処理プログラムPG等を格納している。   The storage unit 22 is composed of, for example, a hard disk or the like, and stores an image processing program PG for realizing visualization (imaging) of volume data described later.

制御部20は、主にCPU、ROM20a、及びRAM20b等を有し、パソコン2の各部を統括制御する部位である。そして、この制御部20は、記憶部22に格納される画像処理プログラムPGを読み込んでCPUで実行することにより、ボリュームデータに基づいて表示用の画像データ(「表示用画像」とも称する)を生成し、当該表示用画像を入出力I/F21を介してモニター3に出力する。このように、パソコン2は、ボリュームデータに基づいて表示用画像を生成する画像処理装置として働く。   The control unit 20 mainly includes a CPU, a ROM 20a, a RAM 20b, and the like, and is a part that performs overall control of each unit of the personal computer 2. The control unit 20 reads the image processing program PG stored in the storage unit 22 and executes it by the CPU, thereby generating display image data (also referred to as “display image”) based on the volume data. Then, the display image is output to the monitor 3 via the input / output I / F 21. Thus, the personal computer 2 functions as an image processing device that generates a display image based on the volume data.

モニター3は、例えばCRTで構成され、制御部20で生成される表示用画像を可視的に出力する。つまり、表示用画像に基づいた表示画像を表示する。   The monitor 3 is configured by a CRT, for example, and visually outputs a display image generated by the control unit 20. That is, a display image based on the display image is displayed.

操作部4は、キーボードやマウス等から構成され、ユーザーの各種操作にしたがって各種電気信号を入出力I/F21に送信する。また、装着部5は、メモリカード51等の記憶媒体を着脱自在に装着することができる。そして、装着部5に装着されたメモリカード51に格納される各種データやプログラム等を入出力I/F21を介して制御部20や記憶部22に取り込むことができる。   The operation unit 4 includes a keyboard, a mouse, and the like, and transmits various electrical signals to the input / output I / F 21 in accordance with various user operations. The mounting unit 5 can detachably mount a storage medium such as the memory card 51. Various data, programs, and the like stored in the memory card 51 attached to the attachment unit 5 can be taken into the control unit 20 and the storage unit 22 via the input / output I / F 21.

<ボリュームデータのイメージ化>
ここでは、物体を非常に小さい立方体(又は直方体)を要素とする集合により表現するボクセル表現と呼ばれる手法が用いられる。そして、この要素としての立方体(又は直方体)がボクセルと呼ばれる。
<Image of volume data>
Here, a technique called voxel expression is used in which an object is expressed by a set having a very small cube (or rectangular parallelepiped) as an element. And the cube (or rectangular parallelepiped) as this element is called a voxel.

一般に、X線を利用したCTスキャン(Computed Tomography Scan)を使用することにより、人体を輪切りにした時の映像を得ることができる。そして、この輪切りの位置をずらすことにより、また切断方向を上下、前後、左右に変化させることにより、ボクセルごとにX線の吸収量を蓄えたデータが得られる。このように3次元空間内の濃度や密度の分布を表したデータは「ボリュームデータ」と呼ばれる。このボリュームデータは、ボリュームデータが表現する対象となる3次元領域、すなわちボリュームデータに対応する3次元領域が複数のボクセルに分割されて、各ボクセルに対して1つのボクセル値(ここでは、X線の吸収量を示す値)が与えられたデータ(3次元データ)となっている。そして、このボリュームデータに対応する3次元領域が、ボリュームデータのイメージ化における演算処理の対象となる。   In general, by using a CT scan (Computed Tomography Scan) using X-rays, it is possible to obtain an image when a human body is cut into circles. Then, by shifting the position of this ring cutting and changing the cutting direction up, down, front, back, left, and right, data storing the X-ray absorption amount for each voxel can be obtained. Data representing the density and density distribution in the three-dimensional space is called “volume data”. This volume data is obtained by dividing a three-dimensional region to be represented by the volume data, that is, a three-dimensional region corresponding to the volume data into a plurality of voxels, and one voxel value (here, X-ray) Is a given data (three-dimensional data). Then, the three-dimensional area corresponding to the volume data is a target of calculation processing in the volume data imaging.

図2および図3は、ボリュームデータのイメージ化についての動作フローを示すフローチャートである。本動作フローは、記憶部22に格納される画像処理プログラムPGを制御部20が読み込んで実行することで実現される。ここでは、まず、ユーザーが操作部4を種々操作することで、画像処理システム1におけるボリュームデータのイメージ化(表示用画像の生成)が開始されると、図2のステップS1に進む。   2 and 3 are flowcharts showing an operation flow for imaging volume data. This operation flow is realized by the control unit 20 reading and executing the image processing program PG stored in the storage unit 22. Here, first, when the user performs various operations on the operation unit 4 to start imaging volume data (generation of a display image) in the image processing system 1, the process proceeds to step S1 in FIG.

ステップS1では、メモリカード51や記憶部22等に格納されるボリュームデータが制御部20によって読み出されて取得され、ステップS2に進む。ここでは、ボリュームデータはRAM20b等に一時的に格納される。なお、ここでは、ボリュームデータに対して雑音除去のフィルター処理等の前処理を施しても良い。   In step S1, the volume data stored in the memory card 51, the storage unit 22, etc. is read and acquired by the control unit 20, and the process proceeds to step S2. Here, the volume data is temporarily stored in the RAM 20b or the like. Here, preprocessing such as noise removal filtering may be performed on the volume data.

ステップS2では、ボリュームデータの2値化を行い、ステップS3に進む。ここでは、ステップS1で取得されたボリュームデータについて、所定の値域範囲に含まれるボクセル値と、そうでないボクセル値とで2値化することにより、ボリュームデータに係る3次元領域をイメージ化の対象となる3次元オブジェクトが存在する領域と、そうでない領域との2つの領域に区別する。このような処理により、イメージ化の対象となる3次元オブジェクトの構造を、所定方向を向いたボクセル(特定の構造体、すなわち「特定構造体」とも称する)の集合によって構成されたものとして示す3次元データ(「3次元オブジェクトデータ」とも称する)が生成される。つまり、イメージ化の対象となる3次元オブジェクトが顕在化された状態となる。また、ここで生成される3次元オブジェクトデータは、RAM20b等に読み込まれて一時的に記憶された状態となる。   In step S2, the volume data is binarized, and the process proceeds to step S3. Here, the volume data acquired in step S1 is binarized with the voxel values included in the predetermined range and the voxel values that are not, so that the three-dimensional region related to the volume data is imaged. A distinction is made between two regions, a region where a three-dimensional object exists and a region where it does not. By such processing, the structure of the three-dimensional object to be imaged is shown as being constituted by a set of voxels (also referred to as “specific structures”, that is, “specific structures”) oriented in a predetermined direction. Dimension data (also referred to as “three-dimensional object data”) is generated. In other words, a three-dimensional object that is an object of imaging is made manifest. In addition, the three-dimensional object data generated here is read into the RAM 20b and temporarily stored.

図4は、ボクセルの集合によって表現された3次元オブジェクトの一例を示す模式図である。図4には、ボクセルが配列される方向を明確化するために、XYZの3次元直交座標系を示しており、ここでは、ボクセルの辺の方向がそれぞれX,Y,Z軸に沿っており、ボクセル同士は、各面が完全に一致するように隣接配置される。なお、図4以降の図についても、ボクセルが配列される方向を明確化するために、同様なXYZの3次元直交座標系を示している。   FIG. 4 is a schematic diagram illustrating an example of a three-dimensional object represented by a set of voxels. FIG. 4 shows an XYZ three-dimensional orthogonal coordinate system in order to clarify the direction in which the voxels are arranged. Here, the directions of the sides of the voxels are along the X, Y, and Z axes, respectively. The voxels are arranged adjacent to each other so that their faces completely coincide. 4 and subsequent drawings also show the same XYZ three-dimensional orthogonal coordinate system in order to clarify the direction in which voxels are arranged.

ここでは、図4に示すように、データ上において、複数のボクセルすなわち複数の特定構造体SSが相互に隣接して積み重ねられることで、仮想的に3次元オブジェクトTBが形成される。以下の処理では、一例として、図4で示した仮想的な3次元オブジェクト(「仮想3次元オブジェクト」とも称する)がイメージ化されるものとして説明を行う。   Here, as shown in FIG. 4, a plurality of voxels, that is, a plurality of specific structures SS, are stacked adjacent to each other on the data, thereby virtually forming a three-dimensional object TB. In the following processing, as an example, a description will be given assuming that the virtual three-dimensional object (also referred to as “virtual three-dimensional object”) illustrated in FIG. 4 is imaged.

ステップS3では、3次元オブジェクトを投影してイメージ化するための投影面を仮想的に設定し、ステップS4に進む。ここでは、例えば、ユーザーによる操作部4の操作に応答して、図5に示すように、3次元オブジェクトTBの周囲の任意の位置に仮想的な投影面(「仮想投影面」とも称する)SCを設定することができる。また、ここでは、例えば、基準となる座標系(3次元直交座標系)において、投影面SC及び3次元オブジェクトTBの双方の姿勢及び位置を決定することで、投影面SCと3次元オブジェクトTBとの相対的な方位関係及び位置関係を設定することができる。   In step S3, a projection plane for projecting a three-dimensional object into an image is virtually set, and the process proceeds to step S4. Here, for example, in response to the operation of the operation unit 4 by the user, as shown in FIG. 5, a virtual projection plane (also referred to as “virtual projection plane”) SC at an arbitrary position around the three-dimensional object TB. Can be set. Here, for example, in the reference coordinate system (three-dimensional orthogonal coordinate system), by determining the posture and position of both the projection surface SC and the three-dimensional object TB, the projection surface SC and the three-dimensional object TB Relative azimuth | direction relationship and positional relationship can be set.

ステップS4では、ボクセル(特定構造体)の基準点を設定し、ステップS5に進む。ここでは、例えば、図6(a)に示すように、ボクセルの中心点(重心点)を基準点(「基準位置」とも称する)SP1として設定する。   In step S4, the reference point of the voxel (specific structure) is set, and the process proceeds to step S5. Here, for example, as shown in FIG. 6A, the center point (center of gravity) of the voxel is set as a reference point (also referred to as “reference position”) SP1.

ステップS5では、3次元オブジェクトを構成するボクセルと投影面SCとの相対的な方位関係に従って、一のボクセルを投影面SCに対して正投影することで、一のボクセルをイメージ化した画像データ(「基本画像」とも称する)を生成し、ステップS6に進む。ここで、投影面SCについて、基本画像や後述する表示用画像の各画素に対応する点を、以下「画素対応点」と称する。このステップS5では、ボクセルを所定の間隔で設定される多数の視線に沿って投影することで、各視線に対応する画素によって構成された基本画像(図6(b))SIが生成される。   In step S5, according to the relative orientation relation between the voxels constituting the three-dimensional object and the projection plane SC, one voxel is normally projected on the projection plane SC, whereby image data (image data of one voxel) ( (Also referred to as “basic image”), and the process proceeds to step S6. Here, regarding the projection plane SC, points corresponding to the respective pixels of the basic image and the display image to be described later are hereinafter referred to as “pixel corresponding points”. In step S5, a voxel is projected along a number of lines of sight set at predetermined intervals, thereby generating a basic image SI (FIG. 6B) SI composed of pixels corresponding to the lines of sight.

ここでは、まず、一のボクセルの基準点SP1から投影面SCまでの距離、すなわち、基準点SP1を投影する距離(「基準投影距離」とも称する)を示す距離値(「基準投影距離値」とも称する)Dstが検出される。なお、基準投影距離は、基準点SP1と当該基準点SP1が投影される投影面SC上の位置(「基準投影位置」とも称する)との距離に相当する。   Here, first, a distance value (also referred to as a “reference projection distance value”) indicating a distance from the reference point SP1 of one voxel to the projection plane SC, that is, a distance for projecting the reference point SP1 (also referred to as “reference projection distance”). Dst) is detected. The reference projection distance corresponds to the distance between the reference point SP1 and a position on the projection plane SC on which the reference point SP1 is projected (also referred to as “reference projection position”).

次に、ボクセルと当該ボクセルがそれぞれ正投影される各画素対応点との最短距離(「投影距離」とも称する)を示す距離値(「投影距離値」とも称する)Dpaがそれぞれ検出される。更に、各画素対応点毎に、基準投影距離値Dstと投影距離値Dpaとの差分値(ΔD=Dpa−Dst)を算出する。そして、基本画像の各画素に対し、当該各画素に対応する投影距離値Dpa、及び、当該各画素に対応する投影距離値Dpaに応じた画素値Vcとが付与される。   Next, distance values (also referred to as “projection distance values”) Dpa indicating the shortest distance (also referred to as “projection distance”) between the voxel and each pixel corresponding point on which the voxel is normally projected are detected. Further, a difference value (ΔD = Dpa−Dst) between the reference projection distance value Dst and the projection distance value Dpa is calculated for each pixel corresponding point. Then, a projection distance value Dpa corresponding to each pixel and a pixel value Vc corresponding to the projection distance value Dpa corresponding to each pixel are given to each pixel of the basic image.

例えば、投影面SCから特定構造体(ボクセル)までの距離が短かければ短い程、輝度が高い、すなわち大きな画素値が付与される一方、投影面SCから特定構造体TBまでの距離が長ければ長い程、輝度が低い、すなわち小さな画素値が付与される。具体的には、所定の距離毎に輝度を示す階調が変化するようにして、例えば、ボクセルの1辺の長さに対して、輝度を示す階調が10だけ変化するように設定することができる。   For example, the shorter the distance from the projection plane SC to the specific structure (voxel), the higher the luminance, that is, the larger the pixel value is given, while the longer the distance from the projection plane SC to the specific structure TB is. The longer the value, the lower the luminance, that is, a smaller pixel value is given. Specifically, the gradation indicating the luminance is changed at every predetermined distance, for example, the gradation indicating the luminance is changed by 10 with respect to the length of one side of the voxel. Can do.

但し、ここでは、基本画像の各画素に対応する各投影距離値Dpaは、基準投影距離値Dstと、当該各画素に対応する差分値ΔDとの和、すなわち、下式(1)で示すことができる。   However, here, each projection distance value Dpa corresponding to each pixel of the basic image is represented by the sum of the reference projection distance value Dst and the difference value ΔD corresponding to each pixel, that is, the following expression (1). Can do.

Dpa=Dst+ΔD ・・・(1)。     Dpa = Dst + ΔD (1).

そこで、ここでは、基本画像の各画素に対しては、基準投影距離値Dstと差分値ΔDとをそれぞれ付与することで、間接的に投影距離値Dpaがそれぞれ付与された状態とする。すなわち、基準投影距離値Dstを基準とした関数(上式(1))で各投影距離を示す各投影距離値Dpaが付与される。また、基本画像の各画素に付与される画素値Vcは、投影距離値Dpaの関数で示した、すなわち基準投影距離値Dstを基準とした関数で示したものとすることで、基準投影距離値Dstの変更に応じた投影距離値Dpaの増減に応じて変化するように設定される。このようにするのは、後述する表示用画像の生成のために、投影距離値Dpaと画素値Vcとが、基準投影距離値Dstの変更に応じて適宜変化可能となるようにするためである。   Therefore, here, each pixel of the basic image is provided with the reference projection distance value Dst and the difference value ΔD, thereby indirectly providing the projection distance value Dpa. That is, each projection distance value Dpa indicating each projection distance is given by a function (the above formula (1)) based on the reference projection distance value Dst. Further, the pixel value Vc assigned to each pixel of the basic image is expressed by a function of the projection distance value Dpa, that is, by a function based on the reference projection distance value Dst. It is set so as to change according to the increase / decrease of the projection distance value Dpa according to the change of Dst. This is because the projection distance value Dpa and the pixel value Vc can be appropriately changed according to the change of the reference projection distance value Dst in order to generate a display image to be described later. .

このようにして、ステップS5では、基準投影距離値Dstを基準とした各投影距離を示す各投影距離値Dpaと、各投影距離値Dpaに応じた各画素値Vcとを一組として、基本画像の各画素に対して付与することで、基本画像を生成する。   In this way, in step S5, each projection distance value Dpa indicating each projection distance with reference to the reference projection distance value Dst and each pixel value Vc corresponding to each projection distance value Dpa are taken as a set to form a basic image. A basic image is generated by assigning to each of the pixels.

更に、ステップS5では、図6(b)に示すように、基本画像SIのうち、特定構造体の基準点SP1が投影された投影面SC上の点に対応する画像の位置(「基準画像位置」とも称する)SP2を認識して、基本画像SIに基準画像位置SP2を特定するデータも盛り込む。つまり、基本画像SIの全画素のうち、基準画像位置SP2に対応する画素については、画素値Vcと投影距離値Dpa(実際には、基準投影距離値Dstと差分値ΔD)と基準画像位置SP2に対応する画素であることを特定する情報とが与えられる。   Further, in step S5, as shown in FIG. 6B, the position of the image corresponding to the point on the projection plane SC on which the reference point SP1 of the specific structure is projected in the basic image SI (“reference image position”). Also, data for identifying the reference image position SP2 is included in the basic image SI. That is, among all the pixels of the basic image SI, for the pixel corresponding to the reference image position SP2, the pixel value Vc, the projection distance value Dpa (actually, the reference projection distance value Dst and the difference value ΔD), and the reference image position SP2 And information specifying that the pixel corresponds to.

ステップS6では、3次元オブジェクトTBを投影面SCに対して投影することで、表示用画像の生成を行い、ステップS7に進む。ここでは、ステップS5からステップS6に進むと、図3のステップS61に進む。   In step S6, the display image is generated by projecting the three-dimensional object TB onto the projection plane SC, and the process proceeds to step S7. Here, if it progresses from step S5 to step S6, it will progress to step S61 of FIG.

ステップS61では、図7に示すように、ボクセルデータに係る3次元領域を構成する全ボクセルのうち、一のボクセル(例えば、図7中でハッチングが付されたボクセル)を指定し、ステップS62に進む。ここでは、ステップS64から戻ってくる度に、所定のルールに従って、全ボクセルのうちの一のボクセルを順次に指定することで、最終的には、全ボクセルを指定する。なお、ここでは、ボクセルデータに係る3次元領域を構成する全ボクセルを時間順次に指定せずに、3次元オブジェクトを構成する全ボクセルのみを時間順次に指定するようにしても良い。   In step S61, as shown in FIG. 7, one voxel (for example, a voxel hatched in FIG. 7) among all the voxels constituting the three-dimensional region related to the voxel data is designated, and in step S62, move on. Here, every time the process returns from step S64, one voxel among all the voxels is sequentially specified according to a predetermined rule, so that all the voxels are finally specified. Note that, here, not all the voxels constituting the three-dimensional region related to the voxel data are designated in time sequence, but only all the voxels constituting the three-dimensional object may be designated in time sequence.

ステップS62では、ステップS61で指定されたボクセルについて、当該ボクセルの基準点が投影面SCに対して投影される位置(「基準投影位置」とも称する)、及び基準点と基準投影位置との距離(基準投影距離)を示す距離値(基準投影距離値)Dst1を検出し、ステップS63に進む。   In step S62, for the voxel designated in step S61, the position at which the reference point of the voxel is projected onto the projection plane SC (also referred to as “reference projection position”) and the distance between the reference point and the reference projection position ( A distance value (reference projection distance value) Dst1 indicating the reference projection distance) is detected, and the process proceeds to step S63.

ステップS63では、ステップS61で指定されたボクセルに合うように、ステップS5で生成した基本画像を調整して、投影面SCに対して貼り付け、ステップS64に進む。ここでは、ステップS5で生成された基本画像を基礎として、ステップS62で検出された基準投影距離値Dst1を上式(1)のDstに代入することで、各画素についての投影距離値Dpa及び画素値Vcが調整されるとともに、ステップS62で検出された基準投影位置と基本画像の基準画像位置とが合致するように、投影面SCに対する相対的な位置関係が調整された基本画像(「調整後基本画像」とも称する)が生成される。そして、調整後基本画像が、投影面SCに対して貼り付けられる。   In step S63, the basic image generated in step S5 is adjusted to fit the voxel specified in step S61 and pasted on the projection plane SC, and the process proceeds to step S64. Here, on the basis of the basic image generated in step S5, the reference projection distance value Dst1 detected in step S62 is substituted into Dst in the above equation (1), so that the projection distance value Dpa and the pixel for each pixel are substituted. While the value Vc is adjusted, the basic image (“after adjustment” in which the relative positional relationship with respect to the projection plane SC is adjusted so that the reference projection position detected in step S62 matches the reference image position of the basic image. Also referred to as “basic image”). Then, the adjusted basic image is pasted on the projection surface SC.

ここで、処理フローが、後述するステップS64からステップS61に戻ることで、ステップS63の処理が複数回繰り返される。そうすることで、複数の調整後基本画像が相互に合成され、最終的に、表示用画像が生成される。しかし、複数の調整後基本画像を相互に合成する際には、投影面SCのうち、複数の調整後基本画像が重複する位置(具体的には画素対応点、「投影位置」とも称する)が発生する。図8は、投影面SCに対して、複数の調整後基本画像が重複する現象を視覚的に示す図である。図8では、2つの調整後基本画像SI1,SI2が相互に重複して投影面SCに対して貼付される領域RAを斜線ハッチングを付して示している。このように、複数の調整後基本画像が重複する投影位置については、相対的に最も小さな投影距離を示す投影距離値Dpaと当該投影距離値Dpaに対応する画素値Vcとの組が、優先的に採用される。   Here, the process flow returns from step S64 described later to step S61, whereby the process of step S63 is repeated a plurality of times. By doing so, a plurality of adjusted basic images are combined with each other, and finally a display image is generated. However, when a plurality of adjusted basic images are combined with each other, a position (specifically, a pixel corresponding point, also referred to as a “projection position”) where the plurality of adjusted basic images overlap in the projection plane SC. appear. FIG. 8 is a diagram visually showing a phenomenon in which a plurality of adjusted basic images overlap with respect to the projection plane SC. In FIG. 8, an area RA where the two adjusted basic images SI1 and SI2 are overlapped with each other and pasted onto the projection plane SC is indicated by hatching. Thus, for a projection position where a plurality of adjusted basic images overlap, a set of the projection distance value Dpa indicating the relatively smallest projection distance and the pixel value Vc corresponding to the projection distance value Dpa is preferential. Adopted.

ステップS64では、ボクセルデータに係る3次元領域を構成する全てのボクセルがステップS61において指定されたか否かを判定する。ここで、全てのボクセルが未だに指定されていなければ、ステップS61に戻り、全てのボクセルが指定されるまで、ステップS61からステップS64の処理が繰り返されることで、各ボクセルについて、調整された基本画像(調整後基本画像)が投影面SCに貼り付けられる。一方、全てのボクセルが既に指定されていれば、複数の調整後基本画像が合成されて生成された画像を表示用画像(図9)として採用し、表示用画像の生成処理を終了し、図2のステップS7に進む。   In step S64, it is determined whether all the voxels constituting the three-dimensional area related to the voxel data are designated in step S61. Here, if all the voxels have not yet been designated, the process returns to step S61, and the process of steps S61 to S64 is repeated until all the voxels are designated, thereby adjusting the adjusted basic image for each voxel. (Adjusted basic image) is pasted on the projection surface SC. On the other hand, if all the voxels have already been designated, an image generated by combining a plurality of adjusted basic images is adopted as the display image (FIG. 9), and the display image generation processing is terminated. The process proceeds to step S7.

ステップS7では、ステップS6で生成された表示用画像をモニター3に対して出力し、ステップS8に進む。ここでは、表示用画像がモニター3に対して出力され、モニター3では、表示用画像が可視的に出力される。つまり、表示用画像に基づく画像がモニター3に表示される。   In step S7, the display image generated in step S6 is output to the monitor 3, and the process proceeds to step S8. Here, the display image is output to the monitor 3, and the display image is visually output on the monitor 3. That is, an image based on the display image is displayed on the monitor 3.

ステップS8では、ユーザーによる操作部4の操作に基づいて、3次元オブジェクトを投影してイメージ化するための投影面を変更する指示(変更指示)がなされたか否かを判定する。ここでは、投影面の変更指示があった場合には、ステップS3に戻って、ステップS3からステップS8の処理を行う。一方、投影面の変更指示がない場合には、ステップS8の判定を繰り返す。   In step S8, based on the operation of the operation unit 4 by the user, it is determined whether or not an instruction (change instruction) for changing a projection plane for projecting a three-dimensional object into an image has been made. Here, if there is an instruction to change the projection plane, the process returns to step S3, and the processes from step S3 to step S8 are performed. On the other hand, if there is no instruction to change the projection plane, the determination in step S8 is repeated.

なお、ここでは、例えば、ユーザーによる操作部4の操作等に応じて、ボリュームデータのイメージ化に係る動作フローを強制的に終了させることで、図2および図3に示す動作フローから強制的に抜けることが可能である。   Here, for example, by forcibly terminating the operation flow related to imaging of volume data in accordance with the operation of the operation unit 4 by the user, the operation flow shown in FIGS. It is possible to escape.

以上のように、第1実施形態に係る画像処理システム1では、ボクセルデータに基づくイメージ化を行う際、まず、3次元オブジェクトTBを投影する投影面SCが設定される。すると、所定方向を向いた一のボクセルを投影面SCに投影することで、ボクセルの基準位置SP1に対応する基準画像位置SP2と、基準位置SP1の投影距離(基準投影距離値Dst)とが検出される。そして、投影面SCの各画素対応点に対応する投影距離値Dpaと画素値Vcとの組を基準投影距離値Dstによって表現したデータが各画素に対して付与されるとともに、基準画像位置SP2を明確に示すデータが付与された基本画像が生成される。次に、3次元オブジェクトTBを投影面SCに投影する際には、各ボクセルの基準位置が投影される各基準投影位置と、各基準位置についての基準投影距離値Dst1とがそれぞれ検出される。そして、各基準投影位置と各基準投影距離値Dst1とに応じて基本画像を調整して生成した各調整後基本画像を、相互に合成することで、表示用画像が生成される。但し、調整後基本画像を合成する際に、複数の調整後基本画像が重複する投影位置については、最小の距離を示す投影距離値と当該投影距離値に対応する画素値との組を優先的に採用する。   As described above, in the image processing system 1 according to the first embodiment, when performing imaging based on voxel data, first, the projection plane SC on which the three-dimensional object TB is projected is set. Then, by projecting one voxel facing a predetermined direction onto the projection plane SC, the reference image position SP2 corresponding to the reference position SP1 of the voxel and the projection distance (reference projection distance value Dst) of the reference position SP1 are detected. Is done. Then, data expressing a set of the projection distance value Dpa and the pixel value Vc corresponding to each pixel corresponding point on the projection surface SC by the reference projection distance value Dst is given to each pixel, and the reference image position SP2 is set. A basic image with clearly indicated data is generated. Next, when projecting the three-dimensional object TB onto the projection plane SC, each reference projection position at which the reference position of each voxel is projected and the reference projection distance value Dst1 for each reference position are detected. Then, the adjusted basic images generated by adjusting the basic images according to the respective reference projection positions and the respective reference projection distance values Dst1 are combined with each other to generate a display image. However, when synthesizing the adjusted basic image, for a projection position where a plurality of adjusted basic images overlap, a set of a projection distance value indicating the minimum distance and a pixel value corresponding to the projection distance value is given priority. To adopt.

すなわち、予め、一のボクセルに対応する基本画像を生成しておいて、各ボクセルに合致するように調整した基本画像(調整後基本画像)を、相互に合成することで、表示用画像を生成する。このような構成とすることで、各ボクセルについて、各々正投影しつつ、ボクセル同士の奥行関係も判定しながら、表示用画像の各画素値を決定するような従来の方式に比べて、投影面が設定されてから表示用画像を生成するまでの演算量を大幅に低減することができる。その結果、ボリュームデータのイメージ化を高速で行うことができる。   That is, a basic image corresponding to one voxel is generated in advance, and a basic image adjusted to match each voxel (adjusted basic image) is combined with each other to generate a display image. To do. With such a configuration, the projection plane is compared with the conventional method in which each pixel value of the display image is determined while determining the depth relationship between the voxels while projecting each voxel. It is possible to greatly reduce the amount of calculation from when the is set to when the display image is generated. As a result, volume data can be imaged at high speed.

また、表示用画像の各画素に対して、投影距離値Dpaに応じた画素値が与えられるため、3次元オブジェクトと投影面SCとの距離に応じた表示用画像、すなわち奥行きをユーザーに対して視覚的に認識させることができる表示用画像を生成することができる。   Further, since a pixel value corresponding to the projection distance value Dpa is given to each pixel of the display image, a display image corresponding to the distance between the three-dimensional object and the projection plane SC, that is, the depth is given to the user. A display image that can be visually recognized can be generated.

<第2実施形態>
上述した第1実施形態に係る画像処理システム1では、投影面と3次元オブジェクトとの距離の分布を示すマップ(距離マップ、又はデプスマップと称する)が生成されることなく、3次元オブジェクトが投影面に対して直接正投影されることで、表示用画像が生成された。これに対して、第2実施形態に係る画像処理システム1Aでは、投影面が設定されると、まず、距離マップが生成されてから、その距離マップを利用しつつ、一般的なレイキャスティング法等を用いたボリュームレンダリングによって表示用画像が生成される。
Second Embodiment
In the image processing system 1 according to the first embodiment described above, a three-dimensional object is projected without generating a map (referred to as a distance map or a depth map) indicating the distribution of the distance between the projection plane and the three-dimensional object. An image for display was generated by direct projection onto the surface. In contrast, in the image processing system 1A according to the second embodiment, when a projection plane is set, a distance map is first generated, and then a general ray casting method or the like is used while using the distance map. A display image is generated by volume rendering using.

なお、第2実施形態に係る画像処理システム1Aは、第1実施形態に係る画像処理システム1と同様な構成を有し、ボリュームデータのイメージ化の動作が異なるのみである。そして、第2実施形態に係るボリュームデータのイメージ化では、距離マップを生成するための演算量を低減することで、イメージ化全体における演算量の低減、ひいては高速でのイメージ化を実現している。   The image processing system 1A according to the second embodiment has the same configuration as that of the image processing system 1 according to the first embodiment, and only the operation of converting volume data into an image is different. In the volume data imaging according to the second embodiment, the amount of calculation for generating the distance map is reduced, thereby reducing the amount of calculation in the entire imaging, and thus realizing high-speed imaging. .

以下、第1実施形態に係る画像処理システム1と同様な構成については、同様な符合を付して、説明を省略しつつ、第2実施形態の特徴点にあたる距離マップの生成動作フローについて主に説明する。   Hereinafter, with respect to the same configuration as that of the image processing system 1 according to the first embodiment, the same reference numerals are given, and the description is omitted, and the operation flow for generating the distance map corresponding to the feature point of the second embodiment is mainly described. explain.

<距離マップの生成動作>
図10及び図11は、画像処理システム1Aにおける距離マップの生成動作フローを示すフローチャートである。本動作フローは、記憶部22に格納される画像処理プログラムPGを制御部20が読み込んで実行することで実現される。ここでは、まず、ユーザーが操作部4を種々操作することで、画像処理システム1におけるボリュームデータのイメージ化(表示用画像の生成)が開始されると、図10のステップS11に進む。
<Distance map generation operation>
FIG. 10 and FIG. 11 are flowcharts showing a distance map generation operation flow in the image processing system 1A. This operation flow is realized by the control unit 20 reading and executing the image processing program PG stored in the storage unit 22. Here, first, when the user performs various operations on the operation unit 4 to start imaging volume data (generation of a display image) in the image processing system 1, the process proceeds to step S11 in FIG.

ステップS11〜S14では、第1実施形態のステップS1〜S4と同様な処理がそれぞれおこなわれ、ステップS15に進む。   In steps S11 to S14, the same processes as in steps S1 to S4 of the first embodiment are performed, respectively, and the process proceeds to step S15.

ステップS15では、3次元オブジェクトを構成するボクセルと投影面SCとの相対的な方位関係に従ってモデルとして配置された一のボクセル(「モデルボクセル」とも称する)とステップS13において設定された投影面SCとの距離の分布を示す距離マップ(「基本距離マップ」とも称する)を生成し、ステップS16に進む。このステップS15では、モデルボクセルを所定の間隔で設定される多数の視線に沿って投影することで、各視線に対応する画素に対して、モデルボクセルと投影面との距離を示すデータを付与することで基本距離マップが生成される。   In step S15, one voxel (also referred to as “model voxel”) arranged as a model in accordance with the relative orientation relationship between the voxels constituting the three-dimensional object and the projection plane SC, and the projection plane SC set in step S13. A distance map (also referred to as a “basic distance map”) indicating the distribution of the distance is generated, and the process proceeds to step S16. In this step S15, data indicating the distance between the model voxel and the projection plane is given to the pixel corresponding to each line of sight by projecting the model voxel along a number of lines of sight set at predetermined intervals. Thus, a basic distance map is generated.

ここでは、まず、モデルボクセルの基準点SP1から投影面SCまでの距離(基準投影距離)を示す距離値(基準投影距離値)Dstが検出される。次に、モデルボクセルと当該モデルボクセルがそれぞれ正投影される各画素対応点との最短距離(投影距離)を示す距離値(投影距離値)Dpaが検出される。更に、各画素対応点毎に、基準投影距離値Dstと投影距離値Dpaとの差分値(ΔD=Dpa−Dst)を算出する。そして、基本距離マップの各画素に対し、当該各画素に対応する投影距離値Dpaが付与される。   Here, first, a distance value (reference projection distance value) Dst indicating the distance (reference projection distance) from the reference point SP1 of the model voxel to the projection surface SC is detected. Next, a distance value (projection distance value) Dpa indicating the shortest distance (projection distance) between the model voxel and each pixel corresponding point on which the model voxel is normally projected is detected. Further, a difference value (ΔD = Dpa−Dst) between the reference projection distance value Dst and the projection distance value Dpa is calculated for each pixel corresponding point. Then, a projection distance value Dpa corresponding to each pixel is assigned to each pixel of the basic distance map.

但し、ここでは、基本距離マップの各画素に対応する各投影距離値Dpaは、基準投影距離値Dstと、当該各画素に対応する差分値ΔDとの和、すなわち、上式(1)で示すことができる。   However, here, each projection distance value Dpa corresponding to each pixel of the basic distance map is the sum of the reference projection distance value Dst and the difference value ΔD corresponding to each pixel, that is, the above expression (1). be able to.

そこで、ここでは、基本距離マップの各画素に対しては、基準投影距離値Dstと差分値ΔDとをそれぞれ付与することで、間接的に投影距離値Dpaがそれぞれ付与された状態とする。すなわち、基準投影距離値Dstを基準とした関数(上式(1))で各投影距離を示す各投影距離値Dpaが付与される。このようにするのは、後述する3次元オブジェクト全体と投影面SCとの距離の分布を示す距離マップ(「全体距離マップ」とも称する)の生成のために、投影距離値Dpaが、基準投影距離値Dstの変更に応じて適宜変化可能となるようにするためである。   Therefore, here, each pixel of the basic distance map is provided with the reference projection distance value Dst and the difference value ΔD, thereby indirectly providing the projection distance value Dpa. That is, each projection distance value Dpa indicating each projection distance is given by a function (the above formula (1)) based on the reference projection distance value Dst. This is because the projection distance value Dpa is used as the reference projection distance in order to generate a distance map (also referred to as “overall distance map”) indicating the distribution of the distance between the entire three-dimensional object and the projection plane SC, which will be described later. This is because it can be appropriately changed according to the change of the value Dst.

このようにして、ステップS15では、基準投影距離値Dstを基準とした投影面SCとモデルボクセルとの距離の分布を示す基本距離マップが生成される。   In this way, in step S15, a basic distance map indicating the distribution of the distance between the projection plane SC and the model voxel with the reference projection distance value Dst as a reference is generated.

更に、ステップS15では、ボクセルの基準点SP1が投影面SCに対して投影される位置(基準投影位置)を認識して、基本距離マップに基準投影位置を特定するデータも盛り込む。つまり、基本距離マップの全画素のうち、基準投影位置に対応する画素は、投影距離値Dpaと基準投影位置に対応する画素であることを特定する情報とが与えられたものとなる。   In step S15, the position (reference projection position) at which the voxel reference point SP1 is projected onto the projection plane SC is recognized, and data for specifying the reference projection position is also included in the basic distance map. That is, out of all the pixels in the basic distance map, the pixel corresponding to the reference projection position is given the projection distance value Dpa and information specifying that the pixel corresponds to the reference projection position.

ステップS16では、3次元オブジェクト全体に係る全体距離マップの生成を行い、ステップS17に進む。ここでは、ステップS15からステップS16に進むと、図11のステップS161に進む。   In step S16, an entire distance map relating to the entire three-dimensional object is generated, and the process proceeds to step S17. Here, if it progresses from step S15 to step S16, it will progress to step S161 of FIG.

ステップS161では、第1実施形態のステップS61と同様に、ボクセルデータに係る3次元領域を構成する全ボクセルのうち、一のボクセルを指定し、ステップS162に進む。ここでは、ステップS164から戻ってくる度に、所定のルールに従って、全ボクセルのうちの一のボクセルを順次に指定することで、最終的には、全ボクセルを指定する。   In step S161, as in step S61 of the first embodiment, one voxel is designated among all the voxels constituting the three-dimensional region related to the voxel data, and the process proceeds to step S162. Here, every time the process returns from step S164, one voxel of all the voxels is sequentially specified according to a predetermined rule, and finally all the voxels are specified.

ステップS162では、ステップS161で指定されたボクセルについて、当該ボクセルの基準点が投影面SCに対して投影される位置(基準投影位置)が検出されるとともに、当該基準点と投影面SCとの距離(すなわち、基準投影距離値Dst1)が検出され、ステップS163に進む。   In step S162, for the voxel designated in step S161, the position (reference projection position) at which the reference point of the voxel is projected onto the projection plane SC is detected, and the distance between the reference point and the projection plane SC. (In other words, the reference projection distance value Dst1) is detected, and the process proceeds to step S163.

ステップS163では、ステップS162で検出された基準投影位置と基準投影距離値Dst1とに応じて、ステップS15で生成された基本距離マップを調整して、投影面SCに対して貼り付け、ステップS164に進む。ここでは、ステップS15で生成された基本距離マップを基礎として、ステップS162で検出された基準投影距離値Dst1を上式(1)に代入することで、各画素についての投影距離値Dpaが調整されるとともに、ステップS162で検出された基準投影位置と基本距離マップの基準投影位置に対応する画素とが合致するように、投影面SCに対する相対的な位置関係が調整された基本距離マップ(「調整後基本距離マップ」とも称する)が生成される。そして、調整後基本距離マップが、投影面SCに対して貼り付けられる。   In step S163, the basic distance map generated in step S15 is adjusted in accordance with the reference projection position detected in step S162 and the reference projection distance value Dst1, and pasted on the projection plane SC, and the process proceeds to step S164. move on. Here, based on the basic distance map generated in step S15, the projection distance value Dpa for each pixel is adjusted by substituting the reference projection distance value Dst1 detected in step S162 into the above equation (1). In addition, the basic distance map (“adjustment”) in which the relative positional relationship with respect to the projection plane SC is adjusted so that the reference projection position detected in step S162 matches the pixel corresponding to the reference projection position of the basic distance map. Also referred to as “back basic distance map”). Then, the adjusted basic distance map is pasted on the projection plane SC.

ここで、処理フローが、後述するステップS164からステップS161に戻ることで、ステップS163の処理が複数回繰り返される。そうすることで、複数の調整後基本距離マップが相互に合成され、最終的に、全体距離マップが生成される。しかし、複数の調整後基本距離マップを相互に合成する際には、投影面SCのうち、複数の調整後基本距離マップが重複する位置(具体的には画素対応点、換言すれば、投影位置)が発生する。このような画素対応点については、相対的に最も小さな投影距離を示す投影距離値Dpaが、優先的に採用される。   Here, the process flow returns from step S164 to be described later to step S161, so that the process of step S163 is repeated a plurality of times. By doing so, a plurality of adjusted basic distance maps are combined with each other, and finally an overall distance map is generated. However, when a plurality of adjusted basic distance maps are combined with each other, a position (specifically, a pixel corresponding point, in other words, a projection position) on the projection plane SC where the plurality of adjusted basic distance maps overlap. ) Occurs. For such pixel corresponding points, the projection distance value Dpa indicating the relatively smallest projection distance is preferentially adopted.

ステップS164では、ボクセルデータに係る3次元領域を構成する全てのボクセルが指定されたか否かを判定する。ここで、全てのボクセルが未だに指定されていなければ、ステップS161に戻り、全てのボクセルが指定されるまで、ステップS161からステップS164の処理が繰り返されることで、各ボクセルについて、調整された基本距離マップ(調整後基本距離マップ)が投影面SCに貼り付けられる。一方、全てのボクセルが既に指定されていれば、複数の調整後距離マップが合成されて生成された距離マップを全体距離マップとして採用し、全体距離マップの生成処理を終了し、図10のステップS17に進む。   In step S164, it is determined whether all the voxels constituting the three-dimensional area related to the voxel data have been designated. Here, if all the voxels have not yet been designated, the process returns to step S161, and the processes of steps S161 to S164 are repeated until all the voxels are designated, thereby adjusting the adjusted basic distance for each voxel. A map (adjusted basic distance map) is pasted on the projection surface SC. On the other hand, if all the voxels have already been designated, the distance map generated by combining a plurality of adjusted distance maps is adopted as the entire distance map, and the generation process of the entire distance map is terminated, and the step of FIG. Proceed to S17.

ステップS17では、ユーザーによる操作部4の操作に基づいて、3次元オブジェクトを投影してイメージ化するための投影面を変更する指示(変更指示)がなされたか否かを判定する。ここでは、投影面の変更指示があった場合には、ステップS13に戻って、ステップS13からステップS17の処理を行う。一方、投影面の変更指示がない場合には、ステップS17の判定を繰り返す。   In step S17, it is determined whether or not an instruction (change instruction) for changing the projection plane for projecting a three-dimensional object into an image is made based on the operation of the operation unit 4 by the user. Here, if there is an instruction to change the projection plane, the process returns to step S13, and the processing from step S13 to step S17 is performed. On the other hand, if there is no instruction to change the projection plane, the determination in step S17 is repeated.

ここでは、例えば、ユーザーによる操作部4の操作等に応じて、ボリュームデータのイメージ化に係る動作フローを強制的に終了させることで、図10及び図11に示す動作フローから強制的に抜けさせることが可能である。   Here, for example, the operation flow related to imaging of volume data is forcibly terminated in accordance with the operation of the operation unit 4 by the user or the like, thereby forcibly leaving the operation flow shown in FIGS. 10 and 11. It is possible.

なお、投影面SCが設定されて、全体距離マップが生成されると、当該全体距離マップを利用しつつ、一般的なレイキャスティング法等を用いたボリュームレンダリングによって表示用画像が生成される。   When the projection plane SC is set and the entire distance map is generated, a display image is generated by volume rendering using a general ray casting method or the like while using the entire distance map.

以上のように、第2実施形態に係る画像処理システム1Aでは、ボクセルデータに基づくイメージ化を行う際、3次元オブジェクトTBを投影する投影面SCが設定されると、3次元オブジェクトTBと投影面SCとの距離の分布を示す全体距離マップが生成される。この全体距離マップの生成に際して、まず、所定方向を向いた一のモデルボクセルの基準位置SP1に対応する基準投影位置と、基準位置SP1の投影距離(基準投影距離)Dstとが検出される。そして、各画素対応点に対応する各投影距離値Dpaを基準投影距離値Dstによって表現したデータが各画素に対して付与されるとともに、基準投影位置に対応する画素を明確に示すデータが付与された基本距離マップが生成される。次に、3次元オブジェクトTB全体についての各ボクセルの基準位置が投影される各基準投影位置が検出され、各基準位置と各基準投影位置との距離(基準投影距離)Dst1が検出される。そして、各基準投影位置と各基準投影距離値Dst1とに応じて基本距離マップを調整した各調整後基本距離マップを、相互に合成することで、全体距離マップが生成される。但し、調整後基本距離マップを合成する際に、複数の調整後基本距離マップが重複する位置については、最小の距離を示す投影距離値が優先的に採用される。   As described above, in the image processing system 1A according to the second embodiment, when imaging based on voxel data is performed, when the projection plane SC for projecting the three-dimensional object TB is set, the three-dimensional object TB and the projection plane are set. An overall distance map showing the distribution of distances with the SC is generated. When generating the entire distance map, first, the reference projection position corresponding to the reference position SP1 of one model voxel facing a predetermined direction and the projection distance (reference projection distance) Dst of the reference position SP1 are detected. Then, data expressing each projection distance value Dpa corresponding to each pixel corresponding point by the reference projection distance value Dst is given to each pixel, and data clearly indicating the pixel corresponding to the reference projection position is given. A basic distance map is generated. Next, each reference projection position where the reference position of each voxel for the entire three-dimensional object TB is projected is detected, and a distance (reference projection distance) Dst1 between each reference position and each reference projection position is detected. Then, the adjusted basic distance maps obtained by adjusting the basic distance map according to each reference projection position and each reference projection distance value Dst1 are combined with each other to generate an overall distance map. However, when combining the adjusted basic distance maps, the projection distance value indicating the minimum distance is preferentially adopted for the position where the plurality of adjusted basic distance maps overlap.

すなわち、予め、一のモデルボクセルに対応する基本距離マップを生成しておいて、各ボクセルに合致するように調整された基本距離マップ(調整後基本距離マップ)が、相互に合成されることで、全体距離マップが生成される。このような構成とすることで、各ボクセルの各点について、各々正投影しつつ、奥行き関係も判定しながら、全体距離マップの各画素に対して距離値を与えるような従来の方式に比べて、投影面が設定されてから全体距離マップを生成するまでの演算量を大幅に低減することができる。したがって、全体距離マップを高速で生成することができ、その結果として、ボリュームデータのイメージ化を高速で行うことができる。   That is, a basic distance map corresponding to one model voxel is generated in advance, and a basic distance map (adjusted basic distance map) adjusted to match each voxel is synthesized with each other. , An overall distance map is generated. By adopting such a configuration, each point of each voxel is orthographically projected and compared with the conventional method in which a distance value is given to each pixel of the entire distance map while determining the depth relationship. The amount of calculation from the setting of the projection plane to the generation of the entire distance map can be greatly reduced. Therefore, the entire distance map can be generated at high speed, and as a result, volume data can be imaged at high speed.

<第3実施形態>
上述した第1実施形態に係る画像処理システム1では、ボクセルデータをイメージ化する際に、投影面が設定されると、1つのボクセルを特定構造体として、当該特定構造体について基本画像が生成され、当該基本画像を用いて、3次元オブジェクト全体についての表示用画像が生成された。つまり、ボクセルデータをイメージ化する際には、1つのボクセルが投影処理の最小単位にあたる領域とされていた。
<Third Embodiment>
In the image processing system 1 according to the first embodiment described above, when a projection plane is set when imaging voxel data, a basic image is generated for the specific structure with one voxel as the specific structure. The display image for the entire three-dimensional object is generated using the basic image. That is, when voxel data is imaged, one voxel is an area corresponding to the minimum unit of projection processing.

これに対して、第3実施形態に係る画像処理システム1Bでは、XYZ方向にそれぞれ2つずつ合計8つのボクセル(一般的には、特定構造体)が配列可能な領域を投影処理の最小単位にあたる領域(「単位処理対象領域」とも称する)として、当該単位処理対象領域について、ボクセルの有無を切り替えて構成される複数パターンの構造体を対象としてそれぞれ基本画像が生成され、当該複数パターンの基本画像を用いて、3次元オブジェクト全体についての表示用画像が生成される。   In contrast, in the image processing system 1B according to the third embodiment, a region where a total of eight voxels (generally, specific structures) can be arranged in the XYZ directions corresponds to the minimum unit of projection processing. As a region (also referred to as a “unit processing target region”), a basic image is generated for each of the unit processing target regions for a plurality of patterns of structures configured by switching the presence / absence of voxels. Is used to generate a display image for the entire three-dimensional object.

なお、第3実施形態に係る画像処理システム1Bは、第1実施形態に係る画像処理システム1と同様な構成を有し、ボリュームデータのイメージ化の動作が異なるのみである。   The image processing system 1B according to the third embodiment has the same configuration as that of the image processing system 1 according to the first embodiment, and only the operation of volume data imaging is different.

以下、第1実施形態に係る画像処理システム1と同様な構成については、同様な符合を付して、説明を省略しつつ、第3実施形態の特徴点にあたるボリュームデータのイメージ化の動作フローについて主に説明する。   Hereinafter, with respect to the configuration similar to that of the image processing system 1 according to the first embodiment, the same reference numerals are given, and the description is omitted, while the operation flow of imaging volume data corresponding to the feature point of the third embodiment is omitted. Mainly explained.

<ボリュームデータのイメージ化>
図12及び図13は、ボリュームデータのイメージ化についての動作フローを示すフローチャートである。本動作フローは、記憶部22に格納される画像処理プログラムPGを制御部20が読み込んで実行することで実現される。ここでは、まず、ユーザーが操作部4を種々操作することで、画像処理システム1におけるボリュームデータのイメージ化(表示用画像の生成)が開始されると、図12のステップS31に進む。
<Image of volume data>
12 and 13 are flowcharts showing an operation flow for imaging volume data. This operation flow is realized by the control unit 20 reading and executing the image processing program PG stored in the storage unit 22. Here, first, when the user performs various operations on the operation unit 4 to start imaging volume data (generation of a display image) in the image processing system 1, the process proceeds to step S31 in FIG.

ステップS31〜S33では、第1実施形態のステップS1〜S3と同様な処理がそれぞれ行われ、ステップS34に進む。   In steps S31 to S33, processes similar to those in steps S1 to S3 of the first embodiment are performed, respectively, and the process proceeds to step S34.

ステップS34では、3次元オブジェクトを示すボクセルがXYZ方向にそれぞれ2つずつ、すなわちX方向2個×Y方向2個×Z方向2個の合計8個だけ配列可能な立方体状(又は直方体状)の領域を、投影処理の最小単位である領域(単位処理対象領域)として設定する。つまり、ボクセルデータに係る3次元領域を複数の単位処理対象領域に分割する。そして、単位処理対象領域の基準点を設定し、ステップS35に進む。ここでは、例えば、図14(a)に示すように、2×2×2の合計8個のボクセルが配列可能な単位処理対象領域(破線で囲まれた領域)MAの中心点(重心点)を基準点(「基準位置」とも称する)SP11として設定する。   In step S34, a cubic shape (or a rectangular parallelepiped shape) in which a total of eight voxels indicating three-dimensional objects are arranged in each of two in the XYZ directions, that is, two in the X direction, two in the Y direction, and two in the Z direction. The region is set as a region (unit processing target region) that is the minimum unit of the projection processing. That is, the three-dimensional area related to the voxel data is divided into a plurality of unit processing target areas. Then, the reference point of the unit processing target area is set, and the process proceeds to step S35. Here, for example, as shown in FIG. 14 (a), the center point (center of gravity) of the unit processing target area (area surrounded by a broken line) MA in which a total of 8 voxels of 2 × 2 × 2 can be arranged Is set as a reference point (also referred to as “reference position”) SP11.

ステップS35では、単位処理対象領域について、ボクセルを配置可能な8箇所の位置におけるボクセルの有無の組合せを作っていくと、全部で256パターンのボクセル配置が考えられるため、この256パターンのボクセル配置によって構成される構造体(「基本構造体」とも称する)を設定し、ステップS36に進む。   In step S35, if a combination of the presence / absence of voxels at eight positions where voxels can be arranged is created for the unit processing target region, a total of 256 voxel arrangements can be considered. A structure (also referred to as “basic structure”) to be configured is set, and the process proceeds to step S36.

図14(a)では、単位処理対象領域(破線で囲まれた領域)MAに6つのボクセルが配置された基本構造体(実線部)の一例が示されている。なお、256パターンの基本構造体の構成を特定するデータ、例えば、ボクセルが配置可能な8つの位置(「ボクセル配置可能位置」とも称する)について、それぞれボクセルの有無を示すデータを与えることで形成されるデータを、RAM20b等に一時的に記憶する。また、ここでは、単位処理対象領域MAの基準点を、基本構造体の基準点(基準位置とも称する)としても取り扱う。   FIG. 14A shows an example of a basic structure (solid line portion) in which six voxels are arranged in a unit processing target area (area surrounded by a broken line) MA. It is formed by providing data specifying the configuration of the 256-pattern basic structure, for example, data indicating the presence / absence of voxels at eight positions where voxels can be arranged (also referred to as “possible voxel arrangement positions”). Is temporarily stored in the RAM 20b or the like. Here, the reference point of the unit processing target area MA is also handled as a reference point (also referred to as a reference position) of the basic structure.

ステップS36では、単位処理対象領域について、ボクセルの有無を切り替えることで形成される256パターンの基本構造体を、投影面SCとの相対的な方位関係に従って、投影面SCに対して正投影することで、256パターンの基本構造体をそれぞれイメージ化した画像データ(基本画像)を生成し、ステップS36に進む。   In step S36, the 256-pattern basic structure formed by switching the presence / absence of voxels for the unit processing target area is orthographically projected onto the projection plane SC according to the relative orientation relationship with the projection plane SC. Thus, image data (basic image) obtained by imaging 256 basic structures is generated, and the process proceeds to step S36.

ここでは、256パターンの各基本構造体について、それぞれ多数の視線に沿って投影することで、各視線に対応する画素によって構成された基本画像(図14(b))2SIが生成される。   Here, each basic structure of 256 patterns is projected along a number of lines of sight, thereby generating a basic image (FIG. 14B) 2SI composed of pixels corresponding to the lines of sight.

各基本構造体についての各基本画像の生成では、まず、基本構造体の基準点すなわち単位処理対象領域MAの基準点SP11から投影面SCまでの距離、すなわち、基準点SP11を投影する距離(基準投影距離)を示す距離値(基準投影距離値)Dstが検出される。なお、基準投影距離は、基準点SP11と当該基準点SP11が投影される投影面SC上の位置(基準投影位置)との距離に相当する。   In the generation of each basic image for each basic structure, first, the reference point of the basic structure, that is, the distance from the reference point SP11 of the unit processing target area MA to the projection plane SC, that is, the distance for projecting the reference point SP11 (reference A distance value (reference projection distance value) Dst indicating the projection distance) is detected. Note that the reference projection distance corresponds to the distance between the reference point SP11 and the position on the projection surface SC on which the reference point SP11 is projected (reference projection position).

次に、基本構造体と当該基本構造体がそれぞれ正投影される各画素対応点との最短距離(投影距離)を示す距離値(投影距離値)Dpaが検出される。更に、各画素対応点毎に、基準投影距離値Dstと投影距離値Dpaとの差分値(ΔD=Dpa−Dst)を算出する。   Next, a distance value (projection distance value) Dpa indicating the shortest distance (projection distance) between the basic structure and each pixel corresponding point on which the basic structure is orthographically projected is detected. Further, a difference value (ΔD = Dpa−Dst) between the reference projection distance value Dst and the projection distance value Dpa is calculated for each pixel corresponding point.

そして、第1実施形態のステップS5と同様に、基本画像の各画素に対し、当該各画素に対応する投影距離値Dpa、及び、当該各画素に対応する投影距離値Dpaに応じた画素値Vcとが付与される。   Then, similarly to step S5 of the first embodiment, for each pixel of the basic image, the projection distance value Dpa corresponding to each pixel and the pixel value Vc corresponding to the projection distance value Dpa corresponding to each pixel. And are given.

つまり、ステップS36では、複数パターンの各基本構造体について、基準投影距離値Dstを基準とした各投影距離を示す各投影距離値Dpaと、各投影距離値Dpaに応じた各画素値Vcとを一組として、基本画像の各画素に対して付与することで、複数パターンの基本構造体についての基本画像が生成される。   That is, in step S36, for each basic structure of a plurality of patterns, each projection distance value Dpa indicating each projection distance based on the reference projection distance value Dst and each pixel value Vc corresponding to each projection distance value Dpa are obtained. By giving to each pixel of the basic image as a set, a basic image for a plurality of patterns of basic structures is generated.

更に、ステップS36では、図14(b)に示すように、基本画像2SIのうち、基本構造体の基準点SP11が投影された投影面SC上の点に対応する画像の位置(基準画像位置)SP12を認識して、基本画像に基準画像位置SP12を特定するデータも盛り込む。つまり、基本画像2SIの全画素のうち、基準画像位置SP12に対応する画素については、画素値Vcと投影距離値Dpa(実際には、基準投影距離値Dstと差分値ΔD)と基準画像位置SP12に対応する画素であることを特定する情報とが与えられる。   Further, in step S36, as shown in FIG. 14B, the position of the image corresponding to the point on the projection plane SC on which the reference point SP11 of the basic structure is projected in the basic image 2SI (reference image position). Recognizing SP12, data for specifying the reference image position SP12 is also included in the basic image. That is, among all the pixels of the basic image 2SI, for the pixel corresponding to the reference image position SP12, the pixel value Vc, the projection distance value Dpa (actually, the reference projection distance value Dst and the difference value ΔD) and the reference image position SP12. And information specifying that the pixel corresponds to.

なお、ここで生成される256パターンの基本画像は、RAM20b若しくは記憶部22等に、データベース(「基本画像DB」とも称する)として一時的に記憶される。   The 256 patterns of basic images generated here are temporarily stored as a database (also referred to as “basic image DB”) in the RAM 20b or the storage unit 22 or the like.

ステップS37では、3次元オブジェクトTBを投影面SCに対して投影することで、表示用画像の生成を行い、ステップS38に進む。ここでは、ステップS36からステップS37に進むと、図13のステップS371に進む。   In step S37, the display image is generated by projecting the three-dimensional object TB onto the projection plane SC, and the process proceeds to step S38. Here, if it progresses from step S36 to step S37, it will progress to step S371 of FIG.

ステップS371では、図15に示すように、ボクセルデータに係る3次元領域を構成する全ての単位処理対象領域のうち、一の単位処理対象領域(例えば、図15中で破線で囲まれた単位処理対象領域)2MAを指定し、ステップS372に進む。ここでは、ステップS375から戻ってくる度に、所定のルールに従って、全ての単位処理対象領域のうちの一の単位処理対象領域を順次に指定することで、最終的には、全ての単位処理対象領域を指定する。なお、ここでは、ボクセルデータに係る3次元領域を構成する全ての単位処理対象領域を時間順次に指定せずに、3次元オブジェクトを構成するボクセルが含まれる単位処理対象領域のみを時間順次に指定するようにしても良い。   In step S371, as shown in FIG. 15, one unit processing target region (for example, unit processing surrounded by a broken line in FIG. 15) among all unit processing target regions constituting the three-dimensional region related to the voxel data. Target area) 2MA is designated, and the process proceeds to step S372. Here, every time the process returns from step S375, one unit processing target area among all the unit processing target areas is sequentially specified according to a predetermined rule. Specify an area. Here, not all the unit processing target areas constituting the three-dimensional area related to the voxel data are specified in time sequential order, but only the unit processing target areas including the voxels constituting the three-dimensional object are specified in time sequential order. You may make it do.

ステップS372では、ステップS35で設定された256パターンの基本構造体のうち、ステップS371で指定された単位処理対象領域に対応する基本構造体を検出するとともに、当該基本構造体に対応する基本画像を検出し、ステップS373に進む。   In step S372, a basic structure corresponding to the unit processing target area specified in step S371 is detected from the 256 patterns of basic structures set in step S35, and a basic image corresponding to the basic structure is displayed. Detect and proceed to step S373.

ここでは、RAM20bに格納された256パターンの基本構造体に係るボクセルの有無の組合せのうち、ステップS371で指定された単位処理対象領域についてのボクセルの有無の組合せに合致するものを抽出することで、ステップS371で指定された単位処理対象領域に対応する基本構造体を検出する。また、RAM20b若しくは記憶部22に記憶される基本画像DBから、ここで検出された基本構造体に対応する基本画像が抽出される。   Here, by extracting the combinations of the presence / absence of voxels related to the 256-pattern basic structure stored in the RAM 20b that match the combination of the presence / absence of voxels for the unit processing target area specified in step S371. A basic structure corresponding to the unit processing target area designated in step S371 is detected. Further, a basic image corresponding to the basic structure detected here is extracted from the basic image DB stored in the RAM 20b or the storage unit 22.

ステップS373では、ステップS371で指定された単位処理対象領域について、当該単位処理対象領域の基準点が投影面SCに対して投影される位置(基準投影位置)と、基準点と基準投影位置との距離(基準投影距離値)Dst1とを検出し、ステップS374に進む。   In step S373, with respect to the unit processing target area specified in step S371, the position (reference projection position) at which the reference point of the unit processing target area is projected onto the projection plane SC, and the reference point and the reference projection position. The distance (reference projection distance value) Dst1 is detected, and the process proceeds to step S374.

ステップS374では、ステップS371で指定された単位処理対象領域に合うように、ステップS372で抽出された基本画像を調整して、投影面SCに対して貼り付け、ステップS375に進む。ここでは、ステップS372で抽出された基本画像を基礎として、ステップS373で検出された基準投影距離値Dst1を上式(1)のDstに代入することで、各画素についての投影距離値Dpa及び画素値Vcが調整されるとともに、ステップS373で検出された基準投影位置と基本画像の基準画像位置とが合致するように、投影面SCに対する相対的な位置関係が調整された基本画像(「調整後基本画像」とも称する)が生成される。そして、調整後基本画像が、投影面SCに対して貼り付けられる。   In step S374, the basic image extracted in step S372 is adjusted to fit the unit processing target area specified in step S371 and pasted on the projection plane SC, and the process proceeds to step S375. Here, based on the basic image extracted in step S372, the reference projection distance value Dst1 detected in step S373 is substituted into Dst in the above equation (1), so that the projection distance value Dpa and the pixel for each pixel are substituted. While the value Vc is adjusted, the basic image (“post-adjustment”) in which the relative positional relationship with respect to the projection plane SC is adjusted so that the reference projection position detected in step S373 matches the reference image position of the basic image. Also referred to as “basic image”). Then, the adjusted basic image is pasted on the projection surface SC.

ここで、処理フローが、後述するステップS375からステップS371に戻ることで、ステップS374の処理が複数回繰り返される。そうすることで、複数の調整後基本画像が相互に合成され、最終的に、表示用画像が生成される。このとき、複数の調整後基本画像を相互に合成する際には、投影面SCのうち、複数の調整後基本画像が重複する位置(具体的には画素対応点、換言すれば、投影位置)が発生する。このように、複数の調整後基本画像が重複する投影位置については、相対的に最も小さな投影距離を示す投影距離値Dpaと当該投影距離値Dpaに対応する画素値Vcとの組が、優先的に採用される。   Here, the process flow returns from step S375 described later to step S371, so that the process of step S374 is repeated a plurality of times. By doing so, a plurality of adjusted basic images are combined with each other, and finally a display image is generated. At this time, when a plurality of adjusted basic images are combined with each other, a position (specifically, a pixel corresponding point, in other words, a projection position) where a plurality of adjusted basic images overlap in the projection plane SC. Will occur. Thus, for a projection position where a plurality of adjusted basic images overlap, a set of the projection distance value Dpa indicating the relatively smallest projection distance and the pixel value Vc corresponding to the projection distance value Dpa is preferential. Adopted.

ステップS375では、ボクセルデータに係る3次元領域を構成する全ての単位処理対象領域がステップS371において指定されたか否かを判定する。ここで、全ての単位処理対象領域が未だに指定されていなければ、ステップS371に戻り、全ての単位処理対象領域が指定されるまで、ステップS371からステップS375の処理が繰り返されることで、各単位処理対象領域について、調整された基本画像(調整後基本画像)が投影面SCに貼り付けられる。一方、全ての単位処理対象領域が既に指定されていれば、複数の調整後基本画像が合成されて生成された画像を表示用画像(例えば、図9)として採用し、表示用画像の生成処理を終了し、図12のステップS38に進む。   In step S375, it is determined whether all unit processing target areas constituting the three-dimensional area related to the voxel data have been designated in step S371. Here, if all the unit processing target areas have not been specified yet, the process returns to step S371, and the processing from step S371 to step S375 is repeated until all the unit processing target areas are specified. For the target area, the adjusted basic image (adjusted basic image) is pasted on the projection surface SC. On the other hand, if all the unit processing target areas have already been specified, an image generated by combining a plurality of adjusted basic images is adopted as a display image (for example, FIG. 9), and display image generation processing is performed. And the process proceeds to step S38 in FIG.

ステップS38では、ステップS37で生成された表示用画像をモニター3に対して出力し、ステップS39に進む。ここでは、表示用画像がモニター3に対して出力され、モニター3では、表示用画像が可視的に出力される。つまり、表示用画像に基づく画像がモニター3に表示される。   In step S38, the display image generated in step S37 is output to the monitor 3, and the process proceeds to step S39. Here, the display image is output to the monitor 3, and the display image is visually output on the monitor 3. That is, an image based on the display image is displayed on the monitor 3.

ステップS39では、ユーザーによる操作部4の操作に基づいて、3次元オブジェクトを投影してイメージ化するための投影面を変更する指示(変更指示)がなされたか否かを判定する。ここでは、投影面の変更指示があった場合には、ステップS33に戻って、ステップS33からステップS39の処理を行う。一方、投影面の変更指示がない場合には、ステップS39の判定が繰り返される。   In step S39, based on the operation of the operation unit 4 by the user, it is determined whether or not an instruction (change instruction) for changing a projection plane for projecting a three-dimensional object into an image has been issued. Here, when there is an instruction to change the projection plane, the process returns to step S33, and the processing from step S33 to step S39 is performed. On the other hand, when there is no instruction to change the projection plane, the determination in step S39 is repeated.

なお、ここでは、例えば、ユーザーによる操作部4の操作等に応じて、ボリュームデータのイメージ化に係る動作フローを強制的に終了させることで、図12及び図13に示す動作フローから強制的に抜けることが可能である。   Here, for example, the operation flow related to imaging of volume data is forcibly terminated in accordance with the operation of the operation unit 4 by the user, for example, and the operation flow shown in FIGS. It is possible to escape.

以上のように、第3実施形態に係る画像処理システム1Bでは、ボクセルデータに基づくイメージ化を行う際、まず、3次元オブジェクトTBが投影される投影面SCが設定される。すると、XYZ方向にそれぞれ2個ずつ合計8個の所定方向を向いたボクセルが配列可能な単位処理対象領域について、ボクセルを配置可能な8箇所の位置におけるボクセルの有無の組合せによって、256パターンの基本構造体が設定される。そして、単位処理対象領域の基準位置SP11に対応する基準画像位置SP12が検出されるとともに、基準位置SP11の投影距離(基準投影距離)Dstが検出される。更に、256パターンの各基本構造体について、各画素対応点に対応する投影距離値Dpaと画素値Vcとの組を基準投影距離値Dstによって表現したデータが各画素に対してそれぞれ付与されるとともに、基準画像位置SP12を明確に示すデータが付与された基本画像がそれぞれ生成される。   As described above, in the image processing system 1B according to the third embodiment, when imaging based on voxel data is performed, first, the projection plane SC on which the three-dimensional object TB is projected is set. Then, for a unit processing target area in which a total of eight voxels directed in a predetermined direction, two in each of the XYZ directions, can be arranged, the basic of 256 patterns depending on the combination of the presence / absence of voxels at eight positions where voxels can be arranged A structure is set. Then, the reference image position SP12 corresponding to the reference position SP11 of the unit processing target area is detected, and the projection distance (reference projection distance) Dst of the reference position SP11 is detected. Further, for each of the 256 patterns of basic structures, data expressing a set of projection distance value Dpa and pixel value Vc corresponding to each pixel corresponding point by reference projection distance value Dst is given to each pixel. A basic image to which data clearly indicating the reference image position SP12 is given is generated.

次に、3次元オブジェクトTBを投影面SCに投影する際には、各単位処理対象領域に対応する基本構造体および基本画像をそれぞれ検出し、各単位処理対象領域の基準位置が投影される各基準投影位置と、各基準位置と各基準投影位置との距離(基準投影距離)Dst1とがそれぞれ検出される。そして、各基準投影位置と各基準投影距離値Dst1とに応じて基本画像が調整された各調整後基本画像が、相互に合成されることで、表示用画像が生成される。但し、調整後基本画像を合成する際に、複数の調整後基本画像が重複する画素対応点については、最小の距離を示す投影距離値と当該投影距離値に対応する画素値との組を優先的に採用する。   Next, when projecting the three-dimensional object TB onto the projection surface SC, the basic structure and the basic image corresponding to each unit processing target region are detected, and the reference position of each unit processing target region is projected. The reference projection position and the distance (reference projection distance) Dst1 between each reference position and each reference projection position are detected. Then, the adjusted basic images adjusted in accordance with the respective reference projection positions and the respective reference projection distance values Dst1 are combined with each other, thereby generating a display image. However, when combining adjusted basic images, for pixel corresponding points where a plurality of adjusted basic images overlap, priority is given to the set of the projection distance value indicating the minimum distance and the pixel value corresponding to the projection distance value. To adopt.

すなわち、予め、8つのボクセルが配置可能な単位処理対象領域について、ボクセルの有無を組み合わせた256パターンの基本構造体を設定し、当該各基本構造体についての各基本画像を生成しておいて、各単位処理対象領域について、基準投影位置と基準投影距離値とに応じてそれぞれ調整した各基本画像(調整後基本画像)を相互に合成することで、表示用画像を生成する。このような構成とすることで、各ボクセルについて、各々正投影しつつ、ボクセル同士の奥行関係も判定しながら、表示用画像の各画素値を決定するような従来の方式に比べて、投影面が設定されてから表示用画像を生成するまでの演算量を大幅に低減することができる。その結果、ボリュームデータのイメージ化を高速で行うことができる。   That is, for each unit processing target area where eight voxels can be arranged, a 256-pattern basic structure combining the presence or absence of voxels is set, and each basic image for each basic structure is generated. For each unit processing target region, a basic image (adjusted basic image) adjusted according to the reference projection position and the reference projection distance value is combined with each other to generate a display image. With such a configuration, the projection plane is compared with the conventional method in which each pixel value of the display image is determined while determining the depth relationship between the voxels while projecting each voxel. It is possible to greatly reduce the amount of calculation from when the is set to when the display image is generated. As a result, volume data can be imaged at high speed.

また、表示用画像の各画素に対して、投影距離値Dpaに応じた画素値が与えられるため、3次元オブジェクトと投影面SCとの距離に応じた表示用画像、すなわち奥行きをユーザーに対して視覚的に認識させることができる表示用画像を生成することができる。   Further, since a pixel value corresponding to the projection distance value Dpa is given to each pixel of the display image, a display image corresponding to the distance between the three-dimensional object and the projection plane SC, that is, the depth is given to the user. A display image that can be visually recognized can be generated.

<第4実施形態>
上述した第3実施形態に係る画像処理システム1Bでは、投影面と3次元オブジェクトとの距離の分布を示すマップ(距離マップ、又はデプスマップと称する)が生成されることなく、3次元オブジェクトが投影面に対して直接正投影されることで、表示用画像が生成された。これに対して、第4実施形態に係る画像処理システム1Cでは、投影面が設定されると、距離マップが生成されてから、その距離マップを利用しつつ、一般的なレイキャスティング法等を用いたボリュームレンダリングによって表示用画像が生成される。
<Fourth embodiment>
In the image processing system 1B according to the third embodiment described above, a 3D object is projected without generating a map (referred to as a distance map or a depth map) indicating the distribution of distances between the projection plane and the 3D object. An image for display was generated by direct projection onto the surface. In contrast, in the image processing system 1C according to the fourth embodiment, when a projection plane is set, a distance map is generated, and then a general ray casting method is used while using the distance map. The display image is generated by the volume rendering.

なお、第4実施形態に係る画像処理システム1Cは、第3実施形態に係る画像処理システム1Bと同様な構成を有し、ボリュームデータのイメージ化の動作が異なるのみである。そして、第4実施形態に係るボリュームデータのイメージ化では、距離マップを生成するための演算量を低減することで、イメージ化全体に対する演算量の低減、ひいては高速でのイメージ化を実現している。   Note that the image processing system 1C according to the fourth embodiment has the same configuration as the image processing system 1B according to the third embodiment, and only the operation of converting volume data into an image is different. In the volume data imaging according to the fourth embodiment, the calculation amount for generating the distance map is reduced, so that the calculation amount for the entire imaging is reduced, and thus imaging at high speed is realized. .

以下、第3実施形態に係る画像処理システム1Bと同様な構成については、同様な符合を付して、説明を省略しつつ、第4実施形態の特徴点にあたる距離マップの生成動作フローについて主に説明する。   Hereinafter, with respect to the same configuration as the image processing system 1B according to the third embodiment, the same reference numerals are given, and the description is omitted, and the operation flow for generating the distance map corresponding to the feature point of the fourth embodiment is mainly described. explain.

<距離マップの生成動作>
図16及び図17は、画像処理システム1Cにおける距離マップの生成動作フローを示すフローチャートである。本動作フローは、記憶部22に格納される画像処理プログラムPGを制御部20が読み込んで実行することで実現される。ここでは、まず、ユーザーが操作部4を種々操作することで、画像処理システム1におけるボリュームデータのイメージ化(表示用画像の生成)が開始されると、図16のステップS41に進む。
<Distance map generation operation>
16 and 17 are flowcharts showing a distance map generation operation flow in the image processing system 1C. This operation flow is realized by the control unit 20 reading and executing the image processing program PG stored in the storage unit 22. Here, first, when the user performs various operations on the operation unit 4 and image formation of volume data (generation of a display image) in the image processing system 1 is started, the process proceeds to step S41 in FIG.

ステップS41〜S45では、第3実施形態のステップS31〜S35と同様な処理がそれぞれ行われ、ステップS46に進む。   In steps S41 to S45, processes similar to those in steps S31 to S35 of the third embodiment are performed, respectively, and the process proceeds to step S46.

ステップS46では、256パターンの各基本構造体について、3次元オブジェクトを構成するボクセルと投影面SCとの相対的な方位関係に従ってモデルとして配置された基本構造体(「モデル基本構造体」とも称する)とステップS43で設定された投影面SCとの距離の分布を示す距離マップ(基本距離マップ)を生成し、ステップS47に進む。   In step S46, for each of the 256 patterns of basic structures, basic structures (also referred to as “model basic structures”) arranged as a model according to the relative orientation relationship between the voxels constituting the three-dimensional object and the projection plane SC. And a distance map (basic distance map) indicating the distribution of the distance from the projection plane SC set in step S43, and the process proceeds to step S47.

このステップS46では、モデル基本構造体を所定の間隔で設定される多数の視線に沿って投影することで、各視線に対応する画素に対して、モデル基本構造体と投影面SCとの距離を示すデータを付与することで、256パターンの基本構造体にそれぞれ対応する256パターンの基本距離マップが生成される。なお、ここでも、単位処理対象領域MAの基準点を、基本構造体の基準点としても取り扱う。   In this step S46, by projecting the model basic structure along a number of lines of sight set at predetermined intervals, the distance between the model basic structure and the projection plane SC is set for the pixels corresponding to each line of sight. By giving the data to be shown, 256 patterns of basic distance maps respectively corresponding to 256 patterns of basic structures are generated. In this case, the reference point of the unit processing target area MA is also handled as the reference point of the basic structure.

ここでの各基本距離マップの生成処理では、まず、モデル基本構造体の基準点SP11から投影面SCまでの距離(基準投影距離)を示す距離値(基準投影距離値)Dstが検出される。次に、モデル基本構造体と当該モデル基本構造体が正投影される各画素対応点との最短距離(投影距離)を示す距離値(投影距離値)Dpaが検出される。更に、各画素対応点毎に、基準投影距離値Dstと投影距離値Dpaとの差分値(ΔD=Dpa−Dst)を算出する。そして、基本距離マップの各画素に対し、当該各画素に対応する投影距離値Dpaが付与される。   In the generation processing of each basic distance map here, first, a distance value (reference projection distance value) Dst indicating a distance (reference projection distance) from the reference point SP11 of the model basic structure to the projection plane SC is detected. Next, a distance value (projection distance value) Dpa indicating the shortest distance (projection distance) between the model basic structure and each pixel corresponding point on which the model basic structure is orthographically projected is detected. Further, a difference value (ΔD = Dpa−Dst) between the reference projection distance value Dst and the projection distance value Dpa is calculated for each pixel corresponding point. Then, a projection distance value Dpa corresponding to each pixel is assigned to each pixel of the basic distance map.

但し、ここでは、基本距離マップの各画素に対応する各投影距離値Dpaは、基準投影距離値Dstと、当該各画素に対応する差分値ΔDとの和、すなわち、上式(1)で示すことができる。   However, here, each projection distance value Dpa corresponding to each pixel of the basic distance map is the sum of the reference projection distance value Dst and the difference value ΔD corresponding to each pixel, that is, the above expression (1). be able to.

そこで、ここでは、基本距離マップの各画素に対しては、基準投影距離値Dstと差分値ΔDとをそれぞれ付与することで、間接的に投影距離値Dpaがそれぞれ付与された状態とする。すなわち、基準投影距離値Dstを基準とした関数(上式(1))で各投影距離を示す各投影距離値Dpaが付与される。このようにするのは、後述する3次元オブジェクト全体と投影面SCとの投影距離の分布を示す距離マップ(「全体距離マップ」とも称する)の生成のために、投影距離値Dpaが、基準投影距離値Dstの変更に応じて適宜変化可能となるようにするためである。   Therefore, here, each pixel of the basic distance map is provided with the reference projection distance value Dst and the difference value ΔD, thereby indirectly providing the projection distance value Dpa. That is, each projection distance value Dpa indicating each projection distance is given by a function (the above formula (1)) based on the reference projection distance value Dst. This is because, in order to generate a distance map (also referred to as “overall distance map”) indicating the distribution of the projection distance between the entire three-dimensional object described later and the projection surface SC, the projection distance value Dpa is used as the reference projection. This is because it can be appropriately changed according to the change of the distance value Dst.

更に、ステップS46では、基本距離マップのうち、単位処理対象領域の基準点SP11が投影面SCに対して投影される位置(基準投影位置)を認識して、基本距離マップに基準投影位置に対応する画素を特定するデータも盛り込む。つまり、基本距離マップの全画素のうち、基準投影位置に対応する画素は、投影距離値Dpa(実際には、基準投影距離値Dstと差分値ΔD)と基準投影位置に対応する画素であることを特定する情報とが与えられたものとなる。   Further, in step S46, the position (reference projection position) at which the reference point SP11 of the unit processing target area is projected on the projection plane SC in the basic distance map is recognized, and the basic distance map corresponds to the reference projection position. Data specifying the pixel to be included is also included. That is, among all the pixels of the basic distance map, the pixel corresponding to the reference projection position is a pixel corresponding to the projection distance value Dpa (actually, the reference projection distance value Dst and the difference value ΔD) and the reference projection position. And information for specifying is given.

なお、ここで生成される256パターンの基本距離マップは、RAM20b若しくは記憶部22等に、データベース(「基本距離マップDB」とも称する)として一時的に記憶される。   The 256 patterns of basic distance maps generated here are temporarily stored as a database (also referred to as “basic distance map DB”) in the RAM 20b or the storage unit 22 or the like.

ステップS47では、3次元オブジェクト全体に係る全体距離マップの生成を行い、ステップS48に進む。ここでは、ステップS46からステップS47に進むと、図17のステップS471に進む。   In step S47, an overall distance map relating to the entire three-dimensional object is generated, and the process proceeds to step S48. Here, if it progresses from step S46 to step S47, it will progress to step S471 of FIG.

ステップS471では、第3実施形態のステップS371と同様に、ボクセルデータに係る3次元領域を構成する全ての単位処理対象領域のうち、一の単位処理対象領域を指定し、ステップS472に進む。   In step S471, as in step S371 of the third embodiment, one unit processing target area is designated out of all unit processing target areas constituting the three-dimensional area related to the voxel data, and the process proceeds to step S472.

ステップS472では、ステップS45で設定された256パターンの基本構造体のうち、ステップS471で指定された単位処理対象領域に対応する基本構造体を検出するとともに、RAM20b等に記憶される基本距離マップDBから当該基本構造体に対応する基本距離パターンを抽出し、ステップS473に進む。   In step S472, a basic structure corresponding to the unit processing target area specified in step S471 is detected from the 256 patterns of basic structures set in step S45, and the basic distance map DB stored in the RAM 20b or the like is stored. The basic distance pattern corresponding to the basic structure is extracted from step S473, and the process proceeds to step S473.

ステップS473では、ステップS471で指定された単位処理対象領域について、当該単位処理対象領域の基準点が投影面SCに対して投影される位置(基準投影位置)と、基準点と基準投影位置との距離(基準投影距離値)Dst1とを検出し、ステップS474に進む。   In step S473, with respect to the unit processing target region specified in step S471, the position (reference projection position) at which the reference point of the unit processing target region is projected onto the projection plane SC, and the reference point and the reference projection position. The distance (reference projection distance value) Dst1 is detected, and the process proceeds to step S474.

ステップS474では、ステップS473で検出された基準投影位置を基準として、ステップS473で決定された基本距離マップを投影面SCに対して貼り付け、ステップS475に進む。ここでは、ステップS472で抽出された基本距離マップを基礎として、ステップS473で検出された基準投影距離値Dst1を上式(1)に代入することで、各画素についての投影距離値Dpaが調整されるとともに、ステップS473で検出された基準投影位置と基本距離マップの基準投影位置に対応する画素とが合致するように、投影面SCに対する相対的な位置関係が調整された基本距離マップ(調整後基本距離マップ)が生成される。そして、調整後基本距離マップが、投影面SCに対して貼り付けられる。   In step S474, the basic distance map determined in step S473 is pasted on the projection plane SC using the reference projection position detected in step S473 as a reference, and the process proceeds to step S475. Here, based on the basic distance map extracted in step S472, the projection distance value Dpa for each pixel is adjusted by substituting the reference projection distance value Dst1 detected in step S473 into the above equation (1). In addition, a basic distance map (after adjustment) in which the relative positional relationship with respect to the projection plane SC is adjusted so that the reference projection position detected in step S473 matches the pixel corresponding to the reference projection position of the basic distance map. Basic distance map) is generated. Then, the adjusted basic distance map is pasted on the projection plane SC.

ここで、処理フローが、後述するステップS475からステップS471に戻ることで、ステップS474の処理が複数回繰り返される。そうすることで、複数の調整後基本距離マップが相互に合成され、最終的に、全体距離マップが生成される。しかし、複数の調整後基本距離マップを相互に合成する際には、投影面SCのうち、複数の調整後基本距離マップが重複する位置(具体的には画素対応点、換言すれば、投影位置)が発生する。このような画素対応点については、相対的に最も小さな投影距離を示す投影距離値Dpaが、優先的に採用される。   Here, the process flow returns from step S475, which will be described later, to step S471, whereby the process of step S474 is repeated a plurality of times. By doing so, a plurality of adjusted basic distance maps are combined with each other, and finally an overall distance map is generated. However, when a plurality of adjusted basic distance maps are combined with each other, a position (specifically, a pixel corresponding point, in other words, a projection position) on the projection plane SC where the plurality of adjusted basic distance maps overlap. ) Occurs. For such pixel corresponding points, the projection distance value Dpa indicating the relatively smallest projection distance is preferentially adopted.

ステップS475では、ボクセルデータに係る3次元領域を構成する全ての単位処理対象領域が指定されたか否かを判定する。ここで、全ての単位処理対象領域が未だに指定されていなければ、ステップS471に戻り、全ての単位処理対象領域が指定されるまで、ステップS471からステップS475の処理が繰り返されることで、各単位処理対象領域について、調整された基本距離マップ(調整後基本距離マップ)が投影面SCに貼り付けられる。一方、全ての単位処理対象領域が既に指定されていれば、複数の調整後基本距離マップが合成されて生成された距離マップを全体距離マップとして採用し、全体距離マップの生成処理を終了し、図16のステップS48に進む。   In step S475, it is determined whether all the unit processing target areas constituting the three-dimensional area related to the voxel data have been designated. Here, if all the unit processing target areas have not been specified yet, the process returns to step S471, and the processes from step S471 to step S475 are repeated until all the unit processing target areas are specified. For the target area, the adjusted basic distance map (adjusted basic distance map) is pasted on the projection plane SC. On the other hand, if all the unit processing target areas have already been specified, the distance map generated by combining a plurality of adjusted basic distance maps is adopted as the entire distance map, and the generation process of the entire distance map is terminated. Proceed to step S48 in FIG.

ステップS48では、ユーザーによる操作部4の操作に基づいて、3次元オブジェクトを投影してイメージ化するための投影面を変更する指示(変更指示)がなされたか否かを判定する。ここでは、投影面の変更指示があった場合には、ステップS43に戻って、ステップS43からステップS48の処理を行う。一方、投影面の変更指示がない場合には、ステップS48の判定が繰り返される。   In step S48, based on the operation of the operation unit 4 by the user, it is determined whether or not an instruction (change instruction) for changing a projection plane for projecting a three-dimensional object into an image has been issued. Here, if there is an instruction to change the projection plane, the process returns to step S43, and the processing from step S43 to step S48 is performed. On the other hand, if there is no instruction to change the projection plane, the determination in step S48 is repeated.

なお、ここでは、例えば、ユーザーによる操作部4の操作等に応じて、ボリュームデータのイメージ化に係る動作フローを強制的に終了させることで、図16及び図17に示す動作フローから強制的に抜けることが可能である。また、投影面SCが設定されて、全体距離マップが生成されると、当該全体距離マップを利用しつつ、一般的なレイキャスティング法等を用いたボリュームレンダリングによって表示用画像が生成される。   Here, for example, by forcibly terminating the operation flow related to imaging of volume data in accordance with the operation of the operation unit 4 by the user, the operation flow shown in FIGS. It is possible to escape. Further, when the projection plane SC is set and the entire distance map is generated, a display image is generated by volume rendering using a general ray casting method or the like while using the entire distance map.

以上のように、第4実施形態に係る画像処理システム1Cでは、ボクセルデータに基づくイメージ化を行う際、3次元オブジェクトTBを投影する投影面SCが設定されると、3次元オブジェクトTBと投影面SCとの距離の分布を示す全体距離マップが生成される。この全体距離マップを生成するに際しては、まず、XYZ方向にそれぞれ2つずつ合計8つの所定方向を向いたボクセルが配列可能な単位処理対象領域について、ボクセルを配置可能な8箇所の位置におけるボクセルの有無の組合せによって、256パターンの基本構造体が設定される。そして、単位処理対象領域の基準位置SP11に対応する基準投影位置と、基準位置SP11の投影距離(基準投影距離)Dstとが検出される。更に、256パターンの各基本構造体について、各画素対応点に対応する投影距離値Dpaを基準投影距離値Dstによって表現したデータが各画素に対して付与されるとともに、基準投影位置に対応する画素を明確に示すデータが付与された基本距離マップが生成される。   As described above, in the image processing system 1C according to the fourth embodiment, when imaging based on voxel data is performed, when the projection plane SC for projecting the three-dimensional object TB is set, the three-dimensional object TB and the projection plane are set. An overall distance map showing the distribution of distances with the SC is generated. When generating this entire distance map, first, voxel at eight positions where voxels can be arranged in a unit processing target area in which a total of eight voxels facing two predetermined directions in the XYZ directions can be arranged. A 256-pattern basic structure is set according to the combination of presence and absence. Then, the reference projection position corresponding to the reference position SP11 of the unit processing target area and the projection distance (reference projection distance) Dst of the reference position SP11 are detected. Further, for each basic structure of 256 patterns, data representing the projection distance value Dpa corresponding to each pixel corresponding point by the reference projection distance value Dst is given to each pixel, and the pixel corresponding to the reference projection position A basic distance map to which data clearly indicating is attached is generated.

次に、3次元オブジェクトTB全体についての各単位処理対象領域に対応する基本構造体が検出せれ、当該基本構造体に対応する基本距離マップが抽出される。そして、各単位処理対象領域の基準位置が投影される各基準投影位置が検出されるとともに、各基準位置と各基準投影位置との距離(基準投影距離)Dst1が検出される。更に、各基準投影位置と基準投影距離値Dst1とに応じて各基本距離マップが調整された各調整後基本距離マップが、相互に合成されることで、全体距離マップが生成される。但し、調整後基本距離マップを合成する際に、複数の調整後基本距離マップが重複する画素対応点については、最小の距離を示す投影距離値が優先的に採用される。   Next, a basic structure corresponding to each unit processing target area for the entire three-dimensional object TB is detected, and a basic distance map corresponding to the basic structure is extracted. Then, each reference projection position where the reference position of each unit processing target area is projected is detected, and the distance (reference projection distance) Dst1 between each reference position and each reference projection position is detected. Further, the adjusted basic distance maps in which the basic distance maps are adjusted according to the respective reference projection positions and the reference projection distance value Dst1 are combined with each other to generate an overall distance map. However, when combining the adjusted basic distance maps, the projection distance value indicating the minimum distance is preferentially adopted for the pixel corresponding points where the plurality of adjusted basic distance maps overlap.

すなわち、予め、8つのボクセルが配置可能な単位処理対象領域について、ボクセルの有無を組み合わせた256パターンの基本構造体を設定し、当該各基本構造体についての基本距離マップを生成しておいて、各単位処理対象領域について、投影面SCとの距離と位置関係とに応じて調整された基本距離マップ(調整後基本距離マップ)が相互に合成されることで、全体距離マップが生成される。このような構成とすることで、各ボクセルの各点について、各々正投影しつつ、奥行き関係も判定しながら、全体距離マップの各画素に対して距離値を与えるような従来の方式に比べて、投影面が設定されてから全体距離マップを生成するまでの演算量を大幅に低減することができる。したがって、全体距離マップを高速で生成することができ、その結果として、ボリュームデータのイメージ化を高速で行うことができる。   That is, for each unit processing target area where eight voxels can be arranged, a 256-pattern basic structure combining the presence or absence of voxels is set, and a basic distance map for each basic structure is generated. For each unit processing target region, a basic distance map (adjusted basic distance map) adjusted according to the distance and positional relationship with the projection surface SC is synthesized with each other, thereby generating an overall distance map. By adopting such a configuration, each point of each voxel is orthographically projected and compared with the conventional method in which a distance value is given to each pixel of the entire distance map while determining the depth relationship. The amount of calculation from the setting of the projection plane to the generation of the entire distance map can be greatly reduced. Therefore, the entire distance map can be generated at high speed, and as a result, volume data can be imaged at high speed.

<その他>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<Others>
As mentioned above, although embodiment of this invention was described, this invention is not limited to the thing of the content demonstrated above.

◎例えば、上述した第1および第3実施形態では、投影面SCに対して、調整後基本画像を貼り付けて行く際に、複数の調整後基本画像が重複する部分については、投影距離値が最も小さなものに対応する画素値が優先的に採用されることで、奥行きをユーザーに対して視覚的に認識させることができるような表示用画像が生成されたが、これに限られず、例えば、基本画像を生成する際に、基準投影距離値や投影距離値を検出せず、投影面に対してボクセルや基本構造体が投影される画素対応点について、均一の画素値を与えるようにした場合には、投影面SCに対して、調整後基本画像を貼り付けて行く際に、複数の調整後基本画像が重複する部分については、どの調整後基本画像に係る画素値を採用しても、結果として得られる画素値が同一となるため、投影距離値等を考慮することなく、単に、複数の調整後基本画像を相互に合成して表示用画像を生成すれば良い。   For example, in the first and third embodiments described above, when pasting the adjusted basic image on the projection surface SC, the projection distance value is set for a portion where a plurality of adjusted basic images overlap. By preferentially adopting the pixel value corresponding to the smallest one, a display image capable of visually recognizing the depth to the user has been generated. When generating the basic image, the standard projection distance value or the projection distance value is not detected, and the pixel corresponding points where the voxels and the basic structure are projected onto the projection plane are given uniform pixel values. In the case where the adjusted basic image is pasted on the projection surface SC, for a portion where a plurality of adjusted basic images overlap, no matter which pixel value related to the adjusted basic image is adopted, The resulting pixel value Identical, and therefore, without considering the projection distance value or the like, simply, may be generated for display image by combining the base image after a plurality of mutually adjusted.

このような構成とすると、表示用画像は、奥行きをユーザーに対して視覚的に認識させることができるようなものとはならないが、各ボクセルについて、各々正投影しつつ、表示用画像の各画素値を決定するような従来の方式に比べて、投影面が設定されてから表示用画像を生成するまでの演算量を大幅に低減することができる。すなわち、ボリュームデータのイメージ化を高速で行うことができる。   With such a configuration, the display image does not allow the user to visually recognize the depth. However, each pixel of the display image is projected while projecting each voxel. Compared with the conventional method for determining the value, the amount of calculation from the setting of the projection plane to the generation of the display image can be greatly reduced. That is, volume data can be imaged at high speed.

◎また、上述した第1および第3実施形態では、基本画像や表示用画像等に対して適宜色彩を与えることについて、特に言及しながったが、例えば、ボクセル値を2値化して、3次元オブジェクトを示すボクセルの集合体を生成する際に、ボクセル値の値域範囲に応じて色彩が異なるような属性を各ボクセルに対して与えるようにして、投影距離に応じた画素値の変化を輝度の変化で表現し、色彩については、各ボクセルを投影面に対して投影する際に、各ボクセルに対して与えられた色彩についての属性に応じた画素値が与えられるようにしても良い。このような構成とすることで、3次元オブジェクトが複数の部位で構成される場合、部位の種類に応じて、色を異ならせた表示用画像を生成することができる。   In addition, in the first and third embodiments described above, no particular mention was made regarding appropriately giving colors to the basic image, the display image, etc. For example, the voxel value is binarized, When generating a set of voxels indicating a three-dimensional object, each voxel is given an attribute that varies in color according to the range of the voxel value, and the pixel value changes according to the projection distance. The color may be expressed by a change in luminance, and when a voxel is projected onto the projection plane, a pixel value corresponding to the attribute of the color given to each voxel may be given. With such a configuration, when the three-dimensional object includes a plurality of parts, it is possible to generate a display image with a different color according to the kind of the part.

◎また、上述した実施形態では、ボクセルや単位処理対象領域について、基本画像や基本距離マップを生成し、3次元オブジェクトについて、同サイズの各ボクセルや当該ボクセルを含む同サイズの各単位処理対象領域を対象として、処理を行うことで、表示用画像や全体距離マップを生成した。しかしながら、これに限られず、例えば、3次元オブジェクトがボクセルと相似形にあたる異なる大きさの特定構造体によって構成されたり、3次元オブジェクトが単位処理対象領域と相似形にあたる異なる大きさの処理対象領域によって構成されたりしても、特定構造体とボクセルとの大きさの比率や、処理対象領域と単位処理対象領域との大きさの比率に応じて、基本画像や基本距離マップの大きさを定数倍して、投影面に貼り付けることで、表示用画像や全体距離マップを生成することができる。   In the embodiment described above, a basic image and a basic distance map are generated for a voxel and a unit processing target area, and each voxel of the same size and each unit processing target area of the same size including the voxel are obtained for a three-dimensional object. By processing the target image, a display image and an entire distance map were generated. However, the present invention is not limited to this. For example, a three-dimensional object is configured by a specific structure having a different size corresponding to a voxel, or a three-dimensional object is processed by a processing target region having a different size corresponding to a unit processing target region. Even if configured, the size of the basic image or the basic distance map is multiplied by a constant depending on the size ratio between the specific structure and the voxel, or the size ratio between the processing target area and the unit processing target area. Then, a display image and an entire distance map can be generated by pasting on the projection plane.

◎また、上述した第3及び第4実施形態では、単位処理対象領域は、2×2×2の合計8個のボクセルを配列することができるものであったが、これに限られるものではなく、例えば、2×1×1の合計2個のボクセルを配列することができるものとしても良い。但し、単位処理対象領域に配列可能なボクセルの数が変化すると、ボクセルの有無の組合せの数、すなわち基本構造体のパターン数も変化するため、基本構造体のパターン数に応じた数だけ基本画像や基本距離マップを生成しなければならないのは勿論である。   In the third and fourth embodiments described above, the unit processing target area can arrange a total of 8 voxels of 2 × 2 × 2, but is not limited thereto. For example, a total of two voxels of 2 × 1 × 1 may be arranged. However, if the number of voxels that can be arranged in the unit processing target area changes, the number of combinations of the presence / absence of voxels, that is, the number of basic structure patterns also changes, so that only the number of basic images corresponding to the number of basic structure patterns Of course, a basic distance map must be generated.

◎また、上述した第3実施形態では、256パターンの基本画像を生成したが、この際に、上述した第1実施形態で示した手法を用いても良い。具体的には、1つのボクセルに対する基本画像を生成し、その基本画像を用いて、256パターンの基本画像を生成するようにするようにしても良い。このような構成とすると、256パターンの基本画像を生成する際の計算量が少なくなるため、ボリュームデータのイメージ化を更に高速で行うことができる。   In the third embodiment described above, 256 patterns of basic images are generated. At this time, the method described in the first embodiment may be used. Specifically, a basic image for one voxel may be generated, and a 256-pattern basic image may be generated using the basic image. With such a configuration, the amount of calculation when generating a 256-pattern basic image is reduced, so that volume data can be imaged at higher speed.

なお、同様に、上述した第4実施形態において256パターンの基本距離マップを生成したが、この際に、上述した第2実施形態で示した手法を用いても良い。具体的には、1つのボクセルに対する基本距離マップを生成し、その基本距離マップを用いて、256パターンの基本距離マップを生成するようにしても良い。このような構成とすると、256パターンの基本距離マップを生成する際の計算量を少なくすることができる。したがって、ボリュームデータのイメージ化を更に高速で行うことができる。   Similarly, the 256 patterns of basic distance maps are generated in the above-described fourth embodiment. At this time, the method described in the above-described second embodiment may be used. Specifically, a basic distance map for one voxel may be generated, and a 256-pattern basic distance map may be generated using the basic distance map. With such a configuration, it is possible to reduce the amount of calculation when generating a 256-pattern basic distance map. Therefore, the volume data can be imaged at a higher speed.

◎また、上述した実施形態では、特定構造体を立方体又は直方体であるボクセルとしたが、これに限られず、例えば、正四面体等、その他の形状であっても良い。   In the above-described embodiment, the specific structure is a voxel that is a cube or a rectangular parallelepiped. However, the specific structure is not limited thereto, and may be another shape such as a regular tetrahedron.

画像処理システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of an image processing system. イメージ化の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of imaging. イメージ化の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of imaging. 特定構造体の集合によって表現された3次元オブジェクトの模式図である。It is a schematic diagram of a three-dimensional object expressed by a set of specific structures. 投影面の設定を説明するための図である。It is a figure for demonstrating the setting of a projection surface. 基本画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a basic image. 一のボクセルの指定を例示するための図である。It is a figure for illustrating designation of one voxel. 複数の調整後基本画像が重複して貼付される現象を視覚的に示す図である。It is a figure which shows visually the phenomenon in which a plurality of adjusted basic images are pasted in duplicate. 表示用画像の一例を示す図である。It is a figure which shows an example of the image for a display. 全体距離マップの生成動作フローを示すフローチャートである。It is a flowchart which shows the production | generation operation | movement flow of a whole distance map. 全体距離マップの生成動作フローを示すフローチャートである。It is a flowchart which shows the production | generation operation | movement flow of a whole distance map. イメージ化の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of imaging. イメージ化の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of imaging. 基本画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a basic image. 一の単位処理対象領域の指定を例示するための図である。It is a figure for demonstrating designation | designated of one unit process target area. 全体距離マップの生成動作フローを示すフローチャートである。It is a flowchart which shows the production | generation operation | movement flow of a whole distance map. 全体距離マップの生成動作フローを示すフローチャートである。It is a flowchart which shows the production | generation operation | movement flow of a whole distance map.

符号の説明Explanation of symbols

1,1A〜1C 画像処理システム
2 パソコン
3 モニター
4 操作部
5 装着部
20 制御部
20a ROM
20b RAM
51 メモリカード
PG 画像処理プログラム
SC 投影面
TB 3次元オブジェクト
1, 1A-1C Image processing system 2 Personal computer 3 Monitor 4 Operation unit 5 Mounting unit 20 Control unit 20a ROM
20b RAM
51 Memory Card PG Image Processing Program SC Projection Surface TB 3D Object

Claims (10)

3次元データに基づいて表示用画像を生成する画像処理装置であって、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、
前記特定構造体について、基準位置を設定する基準位置設定手段と、
前記所定方向を向いた一の特定構造体を前記方向関係に従って前記仮想投影面に対して投影することで基本画像を生成しつつ、当該基本画像のうち前記基準位置に対応する基準画像位置を認識する基本画像生成手段と、
前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、各特定構造体の基準位置が前記仮想投影面に対してそれぞれ投影される各基準投影位置を検出する検出手段と、
前記基本画像を基礎として、前記仮想投影面に対する相対的な位置関係を、前記検出手段によって検出された各基準投影位置に応じてそれぞれ調整することで、各調整後基本画像をそれぞれ生成する調整画像生成手段と、
前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that generates a display image based on three-dimensional data,
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
For the specific structure, a reference position setting means for setting a reference position;
Recognizing a reference image position corresponding to the reference position in the basic image while generating a basic image by projecting one specific structure facing the predetermined direction onto the virtual projection plane according to the direction relation Basic image generation means for
Detecting means for detecting each reference projection position at which a reference position of each specific structure is projected onto the virtual projection plane when the virtual three-dimensional object is projected onto the virtual projection plane;
An adjusted image that generates each adjusted basic image by adjusting a relative positional relationship with respect to the virtual projection plane according to each reference projection position detected by the detection unit based on the basic image. Generating means;
Display image generation means for generating a display image by mutually combining the adjusted basic images generated by the adjustment image generation means;
An image processing apparatus comprising:
3次元データに基づいて表示用画像を生成する画像処理装置であって、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、
前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、
前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、
前記複数パターンの基本構造体を、前記方向関係に従って前記仮想投影面に対してそれぞれ投影することで複数パターンの基本画像を生成しつつ、当該複数パターンの各基本画像について、前記複数パターンの基本構造体の基準位置にそれぞれ対応する各基準画像位置を認識する基本画像生成手段と、
前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、
前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、
前記第1の検出手段によって検出された基本構造体に対応する基本画像を前記複数パターンの基本画像から抽出する抽出手段と、
前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置を検出する第2の検出手段と、
前記抽出手段によって抽出された基本画像を基礎として、前記仮想投影面に対する相対的な位置を前記基準投影位置に応じて調整することで、調整後基本画像を生成する調整画像生成手段と、
前記各単位処理対象領域について、前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that generates a display image based on three-dimensional data,
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
Basic structure setting for setting a plurality of basic structures each configured by an array pattern of at least one specific structure in a unit processing target region in which a predetermined number of specific structures facing the predetermined direction can be arranged Means,
A reference position setting means for setting a reference position of the basic structure of the plurality of patterns;
The basic structure of the plurality of patterns is generated for each basic image of the plurality of patterns while generating the basic image of the plurality of patterns by projecting the basic structure of the plurality of patterns onto the virtual projection plane according to the directional relationship. Basic image generation means for recognizing each reference image position corresponding to the reference position of the body,
A region designating unit that sequentially designates unit processing target regions to be projected among three-dimensional regions to be processed when projecting the virtual three-dimensional object onto the virtual projection plane;
First detection means for detecting a matching basic structure from the plurality of basic structures for the unit processing target area specified by the area specifying means;
Extraction means for extracting a basic image corresponding to the basic structure detected by the first detection means from the basic images of the plurality of patterns;
Second detection means for detecting a reference projection position at which a reference position of the basic structure detected by the first detection means is projected onto the virtual projection plane;
Based on the basic image extracted by the extracting means, an adjusted image generating means for generating an adjusted basic image by adjusting a relative position with respect to the virtual projection plane according to the reference projection position;
For each unit processing target region, display image generation means for generating a display image by mutually synthesizing the adjusted basic images generated by the adjustment image generation means,
An image processing apparatus comprising:
3次元データに基づいて距離マップを生成する画像処理装置であって、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、
前記特定構造体について、基準位置を設定する基準位置設定手段と、
前記位置及び方向関係に従って、前記所定方向を向いた一の特定構造体の基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記一の特定構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記一の特定構造体との距離の分布を示す基本距離マップを生成する基本距離マップ生成手段と、
前記仮想3次元オブジェクトを構成する各特定構造体を対象として、前記仮想投影面上における各特定構造体に対応する各基準投影位置と各基準投影距離とを検出する検出手段と、
前記基本距離マップを基礎として、前記検出手段によって検出された各基準投影位置と各基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係と各投影距離とをそれぞれ調整することで、各調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、
前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との距離の分布を示す全体距離マップを生成する距離マップ生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that generates a distance map based on three-dimensional data,
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative position and direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
For the specific structure, a reference position setting means for setting a reference position;
In accordance with the positional and directional relationship, a reference projection position where a reference position of one specific structure facing the predetermined direction is projected onto the virtual projection plane, and a reference corresponding to a distance between the reference position and the reference projection position Detecting the projection distance, and detecting each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and the one specific structure, thereby the virtual projection plane based on the reference projection distance; Basic distance map generating means for generating a basic distance map indicating a distribution of distances to the one specific structure;
Detection means for detecting each reference projection position and each reference projection distance corresponding to each specific structure on the virtual projection plane for each specific structure constituting the virtual three-dimensional object;
Based on the basic distance map, the relative positional relationship with respect to the virtual projection plane and the projection distances are respectively adjusted according to the reference projection positions and the reference projection distances detected by the detection unit. Adjustment map generation means for generating each adjusted basic distance map,
A minimum projection distance is adopted for a projection position where a plurality of adjusted basic distance maps overlap among the virtual projection planes while combining the adjusted basic distance maps generated by the adjustment map generating unit. A distance map generating means for generating an overall distance map indicating a distribution of distances between the virtual three-dimensional object and the virtual projection plane;
An image processing apparatus comprising:
3次元データに基づいて距離マップを生成する画像処理装置であって、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、
前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、
前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、
前記複数パターンの基本構造体について、前記位置及び方向関係に従って基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記各基本構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記各基本構造体との距離の分布をそれぞれ示す複数パターンの基本距離マップを生成する基本マップ生成手段と、
処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、
前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、
前記第1の検出手段によって検出された基本構造体に対応する基本距離マップを前記複数パターンの基本距離マップから抽出する抽出手段と、
前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置と、当該基準投影位置に対応する基準投影距離とをそれぞれ検出する第2の検出手段と、
前記抽出手段によって抽出された基本距離マップを基礎として、前記第2の検出手段によって検出された基準投影位置と基準投影距離とに応じて、前記仮想投影面に対する相対的な位置と各投影距離とをそれぞれ調整することで、調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、
前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との距離の分布を示す全体距離マップを生成する距離マップ生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that generates a distance map based on three-dimensional data,
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative position and direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
Basic structure setting for setting a plurality of basic structures each configured by an array pattern of at least one specific structure in a unit processing target region in which a predetermined number of specific structures facing the predetermined direction can be arranged Means,
A reference position setting means for setting a reference position of the basic structure of the plurality of patterns;
For the basic structure of the plurality of patterns, a reference projection position at which a reference position is projected onto the virtual projection plane according to the position and direction relationship, and a reference projection distance corresponding to a distance between the reference position and the reference projection position are detected. And detecting each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and each basic structure, so that the virtual projection plane and each basic structure based on the reference projection distance are detected. A basic map generating means for generating a plurality of patterns of basic distance maps respectively indicating the distribution of distances between
An area designating unit for designating a unit process target area to be projected among time-sequential out of three-dimensional areas to be processed;
First detection means for detecting a matching basic structure from the plurality of basic structures for the unit processing target area specified by the area specifying means;
Extraction means for extracting a basic distance map corresponding to the basic structure detected by the first detection means from the basic distance map of the plurality of patterns;
A second reference position for detecting a reference projection position at which the reference position of the basic structure detected by the first detection means is projected onto the virtual projection plane and a reference projection distance corresponding to the reference projection position; Detection means;
Based on the basic distance map extracted by the extracting means, a relative position with respect to the virtual projection plane and each projection distance according to the reference projection position and the reference projection distance detected by the second detection means, Adjusting map generating means for generating the adjusted basic distance map, respectively,
A minimum projection distance is adopted for a projection position where a plurality of adjusted basic distance maps overlap among the virtual projection planes while combining the adjusted basic distance maps generated by the adjustment map generating unit. A distance map generating means for generating an overall distance map indicating a distribution of distances between the virtual three-dimensional object and the virtual projection plane;
An image processing apparatus comprising:
コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、
前記特定構造体について、基準位置を設定する基準位置設定手段と、
前記所定方向を向いた一の特定構造体を前記方向関係に従って前記仮想投影面に対して投影することで基本画像を生成しつつ、当該基本画像のうち前記基準位置に対応する基準画像位置を認識する基本画像生成手段と、
前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、各特定構造体の基準位置が前記仮想投影面に対してそれぞれ投影される各基準投影位置を検出する検出手段と、
前記基本画像を基礎として、前記仮想投影面に対する相対的な位置関係を、前記検出手段によって検出された各基準投影位置に応じてそれぞれ調整することで、各調整後基本画像をそれぞれ生成する調整画像生成手段と、
前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
For the specific structure, a reference position setting means for setting a reference position;
Recognizing a reference image position corresponding to the reference position in the basic image while generating a basic image by projecting one specific structure facing the predetermined direction onto the virtual projection plane according to the direction relation Basic image generation means for
Detecting means for detecting each reference projection position at which a reference position of each specific structure is projected onto the virtual projection plane when the virtual three-dimensional object is projected onto the virtual projection plane;
An adjusted image that generates each adjusted basic image by adjusting a relative positional relationship with respect to the virtual projection plane according to each reference projection position detected by the detection unit based on the basic image. Generating means;
Display image generation means for generating a display image by mutually combining the adjusted basic images generated by the adjustment image generation means;
A program comprising:
請求項5に記載のプログラムであって、
基本画像生成手段が、
前記一の特定構造体の基準位置に対応する基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記一の特定構造体との距離にあたる各投影距離を検出し、前記基準投影距離を基準とした前記各投影距離を示す各投影距離値と、当該各投影距離に応じた各画素値とを一組として、前記基本画像の各画素に対してそれぞれ与えることで、前記基本画像を生成し、
前記検出手段が、
前記各基準投影位置に対応する各基準投影距離を更に検出し、
前記調整画像生成手段が、
前記基本画像を基礎として、前記検出手段によって検出された各基準投影位置と各基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係、各投影距離値、及び各画素値をそれぞれ調整することで、調整後基本画像を生成し、
前記表示用画像生成手段が、
前記各調整後基本画像を相互に合成する際に、前記仮想投影面のうち複数の調整後基本画像が重複する投影位置については、最小の投影距離を示す投影距離値と当該投影距離に対応する画素値との組を採用することを特徴とするプログラム。
The program according to claim 5,
Basic image generation means
The reference projection position corresponding to the reference position of the one specific structure and the reference projection distance corresponding to the distance between the reference position and the reference projection position are detected, and each predetermined point on the virtual projection plane is Each projection distance corresponding to a distance from the specific structure is detected, and each projection distance value indicating each projection distance based on the reference projection distance and each pixel value corresponding to each projection distance as a set The basic image is generated by giving to each pixel of the basic image,
The detection means is
Further detecting each reference projection distance corresponding to each reference projection position;
The adjusted image generating means is
Based on the basic image, the relative positional relationship with respect to the virtual projection plane, the respective projection distance values, and the respective pixel values are respectively determined according to the respective reference projection positions and the respective reference projection distances detected by the detecting means. By adjusting, generate an adjusted basic image,
The display image generating means is
When the adjusted basic images are combined with each other, a projection position where a plurality of adjusted basic images overlap in the virtual projection plane corresponds to the projection distance value indicating the minimum projection distance and the projection distance. A program characterized by adopting a pair with a pixel value.
コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な方向関係を設定する投影面設定手段と、
前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、
前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、
前記複数パターンの基本構造体を、前記方向関係に従って前記仮想投影面に対してそれぞれ投影することで複数パターンの基本画像を生成しつつ、当該複数パターンの各基本画像について、前記複数パターンの基本構造体の基準位置にそれぞれ対応する各基準画像位置を認識する基本画像生成手段と、
前記仮想3次元オブジェクトを前記仮想投影面に対して投影する際に、処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、
前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、
前記第1の検出手段によって検出された基本構造体に対応する基本画像を前記複数パターンの基本画像から抽出する抽出手段と、
前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置を検出する第2の検出手段と、
前記抽出手段によって抽出された基本画像を基礎として、前記仮想投影面に対する相対的な位置を前記基準投影位置に応じて調整することで、調整後基本画像を生成する調整画像生成手段と、
前記各単位処理対象領域について、前記調整画像生成手段によって生成された各調整後基本画像を相互に合成することで、表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
Basic structure setting for setting a plurality of basic structures each configured by an array pattern of at least one specific structure in a unit processing target region in which a predetermined number of specific structures facing the predetermined direction can be arranged Means,
A reference position setting means for setting a reference position of the basic structure of the plurality of patterns;
The basic structure of the plurality of patterns is generated for each basic image of the plurality of patterns while generating the basic image of the plurality of patterns by projecting the basic structure of the plurality of patterns onto the virtual projection plane according to the directional relationship. Basic image generation means for recognizing each reference image position corresponding to the reference position of the body,
A region designating unit that sequentially designates unit processing target regions to be projected among three-dimensional regions to be processed when projecting the virtual three-dimensional object onto the virtual projection plane;
First detection means for detecting a matching basic structure from the plurality of basic structures for the unit processing target area specified by the area specifying means;
Extraction means for extracting a basic image corresponding to the basic structure detected by the first detection means from the basic images of the plurality of patterns;
Second detection means for detecting a reference projection position at which a reference position of the basic structure detected by the first detection means is projected onto the virtual projection plane;
Based on the basic image extracted by the extracting means, an adjusted image generating means for generating an adjusted basic image by adjusting a relative position with respect to the virtual projection plane according to the reference projection position;
For each unit processing target region, display image generation means for generating a display image by mutually synthesizing the adjusted basic images generated by the adjustment image generation means,
A program comprising:
請求項7に記載のプログラムであって、
基本画像生成手段が、
前記各基本構造体について、基準位置に対応する基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記各基本構造体との距離にあたる各投影距離を検出し、前記基準投影距離を基準とした前記各投影距離を示す各投影距離値と、当該各投影距離に応じた各画素値とを一組として、前記基本画像の各画素に対してそれぞれ与えることで、前記基本画像を生成し、
前記第2の検出手段が、
前記基準投影位置に対応する基準投影距離を更に検出し、
前記調整画像生成手段が、
前記抽出手段によって抽出された基本画像を基礎として、前記基準投影位置と前記基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係、各投影距離値、及び各画素値をそれぞれ調整することで、調整後基本画像を生成し、
前記表示用画像生成手段が、
前記各調整後基本画像を相互に合成する際に、前記仮想投影面のうち複数の調整後基本画像が重複する投影位置については、最小の投影距離を示す投影距離値と当該投影距離に対応する画素値との組を採用することを特徴とするプログラム。
The program according to claim 7,
Basic image generation means
For each basic structure, a reference projection position corresponding to a reference position and a reference projection distance corresponding to a distance between the reference position and the reference projection position are detected, and each predetermined point on the virtual projection plane and each of the basic structures are detected. Each projection distance corresponding to the distance to the basic structure is detected, and each projection distance value indicating each projection distance based on the reference projection distance and each pixel value corresponding to each projection distance as a set, The basic image is generated by giving to each pixel of the basic image,
The second detection means comprises:
Further detecting a reference projection distance corresponding to the reference projection position;
The adjusted image generating means is
Based on the basic image extracted by the extraction means, the relative positional relationship with respect to the virtual projection plane, each projection distance value, and each pixel value are adjusted according to the reference projection position and the reference projection distance, respectively. To generate an adjusted basic image,
The display image generating means is
When the adjusted basic images are combined with each other, a projection position where a plurality of adjusted basic images overlap in the virtual projection plane corresponds to the projection distance value indicating the minimum projection distance and the projection distance. A program characterized by adopting a pair with a pixel value.
コンピュータにおいて実行されることにより、3次元データに基づいて距離マップを生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、
前記特定構造体について、基準位置を設定する基準位置設定手段と、
前記位置及び方向関係に従って、前記所定方向を向いた一の特定構造体の基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記一の特定構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記一の特定構造体との距離の分布を示す基本距離マップを生成する基本距離マップ生成手段と、
前記仮想3次元オブジェクトを構成する各特定構造体を対象として、前記仮想投影面上における各特定構造体に対応する各基準投影位置と各基準投影距離とを検出する検出手段と、
前記基本距離マップを基礎として、前記検出手段によって検出された各基準投影位置と各基準投影距離とに応じて、前記仮想投影面に対する相対的な位置関係と各投影距離とをそれぞれ調整することで、各調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、
前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との投影距離の分布を示す全体距離マップを生成する距離マップ生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing apparatus that generates a distance map based on three-dimensional data by being executed in a computer,
The image processing apparatus is
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative position and direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
For the specific structure, a reference position setting means for setting a reference position;
In accordance with the positional and directional relationship, a reference projection position where a reference position of one specific structure facing the predetermined direction is projected onto the virtual projection plane, and a reference corresponding to a distance between the reference position and the reference projection position Detecting the projection distance, and detecting each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and the one specific structure, thereby the virtual projection plane based on the reference projection distance; Basic distance map generating means for generating a basic distance map indicating a distribution of distances to the one specific structure;
Detection means for detecting each reference projection position and each reference projection distance corresponding to each specific structure on the virtual projection plane for each specific structure constituting the virtual three-dimensional object;
Based on the basic distance map, the relative positional relationship with respect to the virtual projection plane and the projection distances are respectively adjusted according to the reference projection positions and the reference projection distances detected by the detection unit. Adjustment map generation means for generating each adjusted basic distance map,
A minimum projection distance is adopted for a projection position where a plurality of adjusted basic distance maps overlap among the virtual projection planes while combining the adjusted basic distance maps generated by the adjustment map generating unit. A distance map generating means for generating an overall distance map indicating a distribution of projection distances between the virtual three-dimensional object and the virtual projection plane;
A program comprising:
コンピュータにおいて実行されることにより、3次元データに基づいて距離マップを生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
所定方向を向いた特定構造体の集合によって構成される仮想3次元オブジェクトの構造を示す3次元データを所定の記憶手段に読み込む読込手段と、
前記仮想3次元オブジェクトを投影する仮想投影面と前記仮想3次元オブジェクトとの相対的な位置及び方向関係を設定する投影面設定手段と、
前記所定方向を向いた所定数の特定構造体が配列可能な単位処理対象領域において、少なくとも1以上の特定構造体の配列パターンによってそれぞれ構成される複数パターンの基本構造体を設定する基本構造体設定手段と、
前記複数パターンの基本構造体の基準位置を設定する基準位置設定手段と、
前記複数パターンの基本構造体について、前記位置及び方向関係に従って基準位置が前記仮想投影面に対して投影される基準投影位置、及び当該基準位置と当該基準投影位置との距離にあたる基準投影距離を検出するとともに、前記仮想投影面上の所定の各点と前記各基本構造体との距離にあたる各投影距離を検出することで、前記基準投影距離を基準とした前記仮想投影面と前記各基本構造体との距離の分布をそれぞれ示す複数パターンの基本距離マップを生成する基本マップ生成手段と、
処理対象となる3次元領域のうち、投影対象となる単位処理対象領域を時間順次に指定する領域指定手段と、
前記領域指定手段によって指定された単位処理対象領域について、前記複数パターンの基本構造体の中から、合致する基本構造体を検出する第1の検出手段と、
前記第1の検出手段によって検出された基本構造体に対応する基本距離マップを前記複数パターンの基本距離マップから抽出する抽出手段と、
前記第1の検出手段によって検出された基本構造体の基準位置が前記仮想投影面に対して投影される基準投影位置と、当該基準投影位置に対応する基準投影距離とをそれぞれ検出する第2の検出手段と、
前記抽出手段によって抽出された基本距離マップを基礎として、前記第2の検出手段によって検出された基準投影位置と基準投影距離とに応じて、前記仮想投影面に対する相対的な位置と各投影距離とをそれぞれ調整することで、調整後基本距離マップをそれぞれ生成する調整マップ生成手段と、
前記調整マップ生成手段によって生成された各調整後基本距離マップを相互に合成しつつ、前記仮想投影面のうち複数の調整後基本距離マップが重複する投影位置については、最小の投影距離を採用することで、前記仮想3次元オブジェクトと前記仮想投影面との投影距離の分布を示す全体距離マップを生成する距離マップ生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing apparatus that generates a distance map based on three-dimensional data by being executed in a computer,
The image processing apparatus is
Reading means for reading, into a predetermined storage means, three-dimensional data indicating the structure of a virtual three-dimensional object constituted by a set of specific structures facing a predetermined direction;
Projection plane setting means for setting a relative position and direction relationship between the virtual projection plane on which the virtual three-dimensional object is projected and the virtual three-dimensional object;
Basic structure setting for setting a plurality of basic structures each configured by an array pattern of at least one specific structure in a unit processing target region in which a predetermined number of specific structures facing the predetermined direction can be arranged Means,
A reference position setting means for setting a reference position of the basic structure of the plurality of patterns;
For the basic structure of the plurality of patterns, a reference projection position at which a reference position is projected onto the virtual projection plane according to the position and direction relationship, and a reference projection distance corresponding to a distance between the reference position and the reference projection position are detected. And detecting each projection distance corresponding to a distance between each predetermined point on the virtual projection plane and each basic structure, so that the virtual projection plane and each basic structure based on the reference projection distance are detected. A basic map generating means for generating a plurality of patterns of basic distance maps respectively indicating the distribution of distances between
An area designating unit for designating a unit process target area to be projected among time-sequential out of three-dimensional areas to be processed;
First detection means for detecting a matching basic structure from the plurality of basic structures for the unit processing target area specified by the area specifying means;
Extraction means for extracting a basic distance map corresponding to the basic structure detected by the first detection means from the basic distance map of the plurality of patterns;
A second reference position for detecting a reference projection position at which the reference position of the basic structure detected by the first detection means is projected onto the virtual projection plane and a reference projection distance corresponding to the reference projection position; Detection means;
Based on the basic distance map extracted by the extracting means, a relative position with respect to the virtual projection plane and each projection distance according to the reference projection position and the reference projection distance detected by the second detection means, Adjusting map generating means for generating the adjusted basic distance map, respectively,
A minimum projection distance is adopted for a projection position where a plurality of adjusted basic distance maps overlap among the virtual projection planes while combining the adjusted basic distance maps generated by the adjustment map generating unit. A distance map generating means for generating an overall distance map indicating a distribution of projection distances between the virtual three-dimensional object and the virtual projection plane;
A program comprising:
JP2004277222A 2004-09-24 2004-09-24 Image processing apparatus and program Expired - Fee Related JP4461981B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004277222A JP4461981B2 (en) 2004-09-24 2004-09-24 Image processing apparatus and program
US11/226,522 US7576737B2 (en) 2004-09-24 2005-09-14 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004277222A JP4461981B2 (en) 2004-09-24 2004-09-24 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2006092282A true JP2006092282A (en) 2006-04-06
JP4461981B2 JP4461981B2 (en) 2010-05-12

Family

ID=36233179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004277222A Expired - Fee Related JP4461981B2 (en) 2004-09-24 2004-09-24 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4461981B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181978A (en) * 1991-05-09 1993-07-23 Hitachi Ltd Image display method
JPH11316858A (en) * 1998-05-06 1999-11-16 Nippon Telegr & Teleph Corp <Ntt> Arrangement method for virtual object and medium for recording this method
JP2000348195A (en) * 1999-06-01 2000-12-15 Japan Radio Co Ltd Three-dimensional picture processor
JP2002183748A (en) * 2000-10-04 2002-06-28 Terarikon Inc Rendering method and system for volume data set

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181978A (en) * 1991-05-09 1993-07-23 Hitachi Ltd Image display method
JPH11316858A (en) * 1998-05-06 1999-11-16 Nippon Telegr & Teleph Corp <Ntt> Arrangement method for virtual object and medium for recording this method
JP2000348195A (en) * 1999-06-01 2000-12-15 Japan Radio Co Ltd Three-dimensional picture processor
JP2002183748A (en) * 2000-10-04 2002-06-28 Terarikon Inc Rendering method and system for volume data set

Also Published As

Publication number Publication date
JP4461981B2 (en) 2010-05-12

Similar Documents

Publication Publication Date Title
US7576737B2 (en) Image processing device and program
US6396491B2 (en) Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
JP5299173B2 (en) Image processing apparatus, image processing method, and program
JP2006055213A (en) Image processor and program
EP2051533A2 (en) 3D image rendering apparatus and method
JPH05174129A (en) Modeling apparatus for imaging three-dimensional model
EP3649621B1 (en) 3d modelling for 3d printing of objects having zero-thickness parts
CN105051791A (en) Three-dimensional image output device and background image generation device
JP4885042B2 (en) Image processing method, apparatus, and program
JP2018180687A (en) Image processing apparatus, image processing method and program
JPH09319896A (en) Three-dimensional image generating device
JP2007249965A (en) Rendering device and method for point base
JP2016143345A (en) Program, information processor, and information processing method
JPWO2018179253A1 (en) Polygon model generation device, polygon model generation method and program
WO2013027773A1 (en) Image processing device, image processing method, and recording medium
JP2006099422A (en) Image processing system and program
CN116681854A (en) Virtual city generation method and device based on target detection and building reconstruction
JP4461981B2 (en) Image processing apparatus and program
JP2005258537A (en) Three-dimensional model generating method and device and program and recording medium
JP4931038B2 (en) Stereoscopic image device, game device, stereoscopic image projection device, stereoscopic image data generation method, control program, and readable recording medium
JP2007004293A (en) Image processor and method
JP2020013390A (en) Information processing apparatus, information processing program, and information processing method
IL280826B1 (en) Determining an enclosing wall surface of a cavity of an organ
JP2001184373A (en) Method and system for generating drawing and computer readable recording medium stored with drawing generation program generating two-dimensional drawing from three-dimensional model data
JP3116019B2 (en) 3D image data creation method and 3D color image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees