WO2013047788A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2013047788A1
WO2013047788A1 PCT/JP2012/075159 JP2012075159W WO2013047788A1 WO 2013047788 A1 WO2013047788 A1 WO 2013047788A1 JP 2012075159 W JP2012075159 W JP 2012075159W WO 2013047788 A1 WO2013047788 A1 WO 2013047788A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
planar
images
ray
image processing
Prior art date
Application number
PCT/JP2012/075159
Other languages
English (en)
French (fr)
Inventor
浩一 尾川
明敏 勝又
勉 山河
秀行 長岡
竜也 長野
Original Assignee
株式会社テレシステムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社テレシステムズ filed Critical 株式会社テレシステムズ
Priority to US14/128,717 priority Critical patent/US8891845B2/en
Priority to JP2013536445A priority patent/JP6080766B2/ja
Priority to EP12835473.5A priority patent/EP2762078B1/en
Priority to KR1020137029944A priority patent/KR20140067972A/ko
Priority to CN201280022281.XA priority patent/CN103607951B/zh
Publication of WO2013047788A1 publication Critical patent/WO2013047788A1/ja

Links

Images

Classifications

    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • A61B6/5241Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/467Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • G06T3/06
    • G06T3/14
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/42Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4233Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using matrix detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display

Definitions

  • the present invention relates to an image processing apparatus and an image processing method for performing processing for evaluating temporal changes of a part from a plurality of planar images obtained by imaging the same imaging part of the same object at different timings About.
  • Non-Patent Document 1 As one algorithm for obtaining information on the change over time, there is a subtraction method using the phase only correlation method disclosed in Non-Patent Document 1.
  • two or three unique positions are designated on one of two two-dimensional or three-dimensional images of the same part of the same subject imaged at different times.
  • the position on the other two-dimensional or three-dimensional image corresponding to the designated position is specified by obtaining the strongest phase correlation.
  • a movement vector vector indicating enlargement / reduction, rotation, and parallel movement
  • this movement vector one image is aligned with the other image, and the difference for each pixel of both images is taken. Thereby, the temporal change of the imaging region of the subject can be obtained from both images.
  • the present invention has been made in view of the above circumstances, and provides information on temporal changes of the same imaging region to be imaged while requiring less computing power for hardware such as a CPU. It is an object of the present invention to provide an image processing apparatus and an image processing method that can be used.
  • FIG. 7 is a flowchart showing an outline of the subtraction process.
  • FIG. 8 is a diagram showing two 3D autofocus images with different imaging timings, which are targets of subtraction processing;
  • FIG. 9 is a diagram showing two planar images created from two 3D autofocus images.
  • FIG. 10 is a diagram for explaining a state in which a plurality of points as control points are plotted on one planar image;
  • FIG. 11 is a diagram illustrating a state in which a curve that smoothly connects points plotted on the one planar image is set;
  • FIG. 12 is a curve diagram showing a change in expansion / contraction ratio used for scaling at each position on the horizontal axis;
  • FIG. 13 is a diagram for explaining normals set at respective positions on a curve set in the one planar image;
  • FIG. 10 is a diagram showing two 3D autofocus images with different imaging timings, which are targets of subtraction processing
  • FIG. 9 is a diagram showing two planar images created from two 3D autofocus images.
  • FIG. 14 is a diagram of two planar images created by arranging pixels along the normal line in a straight line in the horizontal direction and adjusting the vertical and horizontal expansion ratios to each other;
  • FIG. 15 is a diagram illustrating a state in which one of the two planar images arranged in a straight line is divided by an ROI.
  • FIG. 16 is a diagram for explaining a region matched with the ROI in the other of the two planar images arranged in a straight line;
  • FIG. 17 is a diagram for explaining rearrangement of matching regions in the other planar image (linearly arranged);
  • FIG. 18 is a diagram schematically illustrating a difference image representing difference information as difference information;
  • FIG. 19 is a flowchart for explaining processing using large, medium, and small ROIs in the global registration according to the first modification
  • FIG. 20 is a diagram for explaining setting of large, medium, and small ROIs and searching for an area corresponding to the ROI in the first modified example
  • FIG. 21 is a flowchart for explaining rearrangement from a linear difference image to a curved difference image according to a third modification
  • FIG. 22 is a diagram schematically illustrating a curved difference image according to a third modification.
  • FIG. 23 is a flowchart for explaining an overview of image processing according to a fifth modification.
  • FIG. 24 is a flowchart for explaining an overview of image processing according to the sixth modification.
  • FIG. 25 is a flowchart for explaining an outline of image processing according to the seventh modification.
  • FIG. 26 is a diagram for explaining image processing according to a seventh modification.
  • FIG. 27 is a flowchart for explaining a part of global registration according to the second embodiment of the present invention
  • FIG. 28 is
  • FIG. 1 shows an outline of a panorama imaging apparatus 1 having an image processing function according to the first embodiment.
  • FIG. 1 shows an overview of the panoramic imaging device 1.
  • the panorama imaging apparatus 1 includes a gantry (data collection apparatus) 2 that collects data from a subject P, and a console 3 that processes the collected data to create an image and the like and controls the operation of the gantry 2.
  • gantry data collection apparatus
  • console 3 that processes the collected data to create an image and the like and controls the operation of the gantry 2.
  • the rotary arm unit 13 is suspended from the vertically moving arm unit 12 via a rotary shaft 13D, and can be rotated around the Z-axis direction by the rotary shaft 13D.
  • the rotating arm unit 13 includes a horizontal arm 13A that is downward and substantially U-shaped, and a source-side vertical arm 13B and a detection-side vertical arm 13C that extend downward from both ends of the horizontal arm 13A.
  • the rotary shaft 13D is a shaft that uses the output of a drive mechanism such as an electric motor (not shown).
  • reference numeral 14 denotes a chin rest on which the chin of the subject P is placed.
  • the size (200 ⁇ m ⁇ 200 ⁇ m) of each of the collection pixels Sn described above is a sufficiently small value that can detect X-rays as photons (particles).
  • the size capable of detecting X-rays as the particles means “an electric pulse signal in response to each incident when a plurality of radiation (for example, X-ray) particles are successively incident at or near the same position.
  • the occurrence of a superposition phenomenon (also called pile-up) is defined as “a size that can be substantially ignored or whose amount is predictable”.
  • pile-up count loss occurs in the characteristic of “number of incidents versus actual number of measurements” of X-ray particles.
  • Each charge amplifier 52 is connected to each collector electrode of each semiconductor cell S, charges up the collected current in response to the incidence of X-ray particles, and outputs it as a pulse signal of electric quantity.
  • the output terminal of the charge amplifier 52 is connected to a waveform shaping circuit 53 whose gain and offset can be adjusted.
  • the waveform of the detected pulse signal is processed with the previously adjusted gain and offset to shape the waveform.
  • the gain and offset of the waveform shaping circuit 53 are calibrated in consideration of non-uniformity with respect to the charge-charge characteristic for each collection pixel Sn made of the semiconductor cell C and variations in each circuit characteristic. As a result, it is possible to increase the output of the waveform shaping signal from which non-uniformity has been eliminated, and the relative threshold setting accuracy.
  • region discriminated differs.
  • the lowest analog amount threshold th 1 is normally set so as not to detect disturbances, noise caused by circuits such as the semiconductor cell S and the charge amplifier 42, or low-energy radiation that is not necessary for imaging. Is set as the threshold value.
  • the number of thresholds, that is, the number of comparators is not necessarily limited to three, and may be one including the analog amount threshold th 1 or any number of two or more. Also good.
  • the analog amount threshold values th 1 to th 3 described above are given as digital values from the calibration calculator 38 of the console 3 via the interface 32 for each collection pixel Sn, that is, for each collection channel. Therefore, the reference input terminals of the comparators 54 1 to 54 3 are connected to the output terminals of the four D / A converters 57 1 to 57 3 , respectively.
  • the D / A converter 57 1-57 3 are connected to the threshold receiving end T 1 via the latch circuits 58 ( ⁇ T N), this threshold receiving end T 1 ( ⁇ T N) of the console 3 interface 32 It is connected.
  • the latch circuit 58 latches the thresholds th 1 ′ to th 3 ′ of digital quantities given from the threshold applier 40 via the interface 31 and the threshold receiving end T 1 ( ⁇ T N ) at the time of imaging, and the corresponding D / A converter D / A converters 57 1 to 57 3 are respectively output. Therefore, the D / A converters 57 1 to 57 3 can supply the commanded analog amount threshold values th 1 to th 3 to the comparators 54 1 to 54 3 as voltage amounts, respectively.
  • the analog amount threshold th i is an analog voltage applied to the comparator 54 i in each discrimination circuit DS i
  • the energy threshold TH i is an analog value for discriminating the X-ray energy (keV) of the energy spectrum.
  • the waveform shown in FIG. 5 shows an example of a continuous spectrum of the energy of X-rays exposed from the X-ray tube.
  • the count value (count) on the vertical axis is an amount proportional to the photon generation frequency corresponding to the energy value on the horizontal axis, and the energy value on the horizontal axis is an amount depending on the tube voltage of the X-ray tube 21.
  • These energy thresholds TH i are determined so that one or more subjects as a reference are assumed and the count value for a predetermined time for each energy region is substantially constant.
  • the output terminals of the comparators 54 1 to 54 3 are connected to an energy region distribution circuit 55 as shown in FIG.
  • the energy region distribution circuit 55 compares the output of the plurality of comparators 54 1 to 54 3 , that is, the pulse voltage corresponding to the detected energy value of the X-ray particles and the analog amount threshold th 1 (to th 3 ). And the energy values ER1 to ER3 are classified into the energy regions ER1 to ER3.
  • the energy region distribution circuit 55 sends a pulse signal corresponding to the discrimination result to any one of the counters 56 1 to 56 3 . For example, if there is an event to be discriminated in the energy region ER1, it sends a pulse signal to the counter 56 1 in the first stage. If there is an event to be discriminated in the energy region ER2, it sends a pulse signal to the second-stage counter 56 2. The same applies to the energy region ER3.
  • each of the counters 56 1-56 4 counts up every time the pulse signal is input from the energy region distribution circuit 55. Thereby, the X-ray particle number of the energy value discriminated in the energy region in charge can be measured as a cumulative value for every fixed time.
  • start and stop signals is supplied via a start-stop terminal T2 from the controller 33 of the console 3 to the counter 56 1-56 4. The measurement for a certain time is managed from the outside using a reset circuit included in the counter itself.
  • the number of X-ray particles incident on the detector 12 is measured for each collection pixel Sn and for each energy region by a plurality of counters 56 1 to 56 3 during a fixed time until resetting. Is done.
  • the count value of the X-ray count particles after being outputted from each of the counters 56 1-56 3 in parallel as a digital value of the count data is converted into serial format by serial converter 59.
  • the serial converter 59 1 is connected to the serial converter 59 2 ⁇ 59 N and serial all remaining acquisition channels. Therefore, the count data of all digital content is output from the last channel of the serial converter 59 N serially sent to the console 3 via the transmitting end T3.
  • the interface 31 receives the count data and stores it in the first storage unit 34.
  • data associated with the X-ray scan collected from all the collected pixels Sn is prepared, and these collected data are processed by the tomosynthesis method to reconstruct a panoramic image.
  • This panoramic image is displayed on the display 36, for example.
  • the panoramic image may be reconstructed without weighting.
  • weighting process is used to emphasize the count data in the high energy region, artifacts due to beam hardening can be suppressed. Moreover, weighting can be performed so as to emphasize a low energy region for the purpose of improving contrast of soft tissue. It is also possible to weight both areas for the purpose of suppressing artifacts due to beam hardening and improving soft tissue contrast.
  • the cervical spine that is superimposed as the shadow of the anterior teeth which is the fate of the dental panoramic device, can be somewhat enhanced by weighting the count data in the high energy region when reconstructing the anterior teeth.
  • the reflection of can be reduced.
  • a similar weighting process can be used to reduce the reflection of the opposite jaw during so-called orthogonal imaging, which reduces the overlap of the side teeth.
  • a clearer image can be formed by weighting and emphasizing the low energy count data.
  • the semiconductor cell S and the data collection circuit 51n corresponding to the N collection pixels Sn described above are integrally formed of CMOS by ASIC.
  • the data collection circuit 51n may be configured as a circuit or device separate from the group of semiconductor cells S.
  • the console 3 includes an interface (I / F) 31 that performs input and output of signals, a controller 33 that is communicably connected to the interface 31 via a bus 32, and a first storage unit 34, an image processor 35, a display 36, an input device 37, a calibration calculator 38, a second storage unit 39, a ROM 40, and a threshold value assigner 41.
  • the controller 33 controls the driving of the gantry 2 in accordance with a program given in advance to the ROM 40. This control includes sending a command value to the high voltage generator 42 that supplies a high voltage to the X-ray tube 21 and a drive command to the calibration calculator 38.
  • the first storage unit 34 stores frame data sent from the gantry 2 via the interface 31.
  • the image processor 35 executes various processes under the management of the controller 33 based on a program given in advance to the ROM 40.
  • This process includes a process for executing a tomosynthesis method based on a known calculation method called shift-and-add on frame data.
  • a panoramic image of a horseshoe-shaped cross section of the oral cavity of the subject P for example, passing through the dentition, using frame data based on the count value of the number of X-ray photons collected for each energy region output from the detector 22.
  • This horseshoe-shaped cross section is also a pseudo three-dimensional cross section. That is, although the cross section itself is two-dimensional, the two-dimensional cross section is positioned three-dimensionally.
  • this panoramic image is reconstructed by a so-called autofocus method disclosed in WO2011103771, which automatically optimizes a panoramic image along a desired pseudo three-dimensional section.
  • the desired cross section may be, for example, a standard size cross section set in advance in the dentition, or a cross section at a position where the position is advanced or retracted in the depth direction of the dentition from the standard cross section. There may be. Moreover, an oblique cross section may be sufficient.
  • the processing executed by the image processor 35 includes processing (subtraction processing) for obtaining information on time-series changes of, for example, two panoramic images captured at different times.
  • the display unit 36 displays a panoramic image created by the tomosynthesis method and change information acquired by the subtraction process.
  • the display unit 36 is also responsible for displaying information indicating the operation status of the gantry 2 and operator operation information given via the input unit 37.
  • the input device 37 is used for an operator to give information necessary for imaging to the system.
  • the calibration calculator 38 calibrates the threshold of the digital quantity for energy discrimination given to each energy discrimination circuit for each collection pixel Sn in the data collection circuit.
  • the second storage unit 39 stores a threshold value generated for each collection pixel and each energy discrimination circuit by calibration.
  • the controller 33, the image processor 35, the calibration calculator 38, and the threshold value assigner 41 each include a CPU (central processing unit) that operates according to a given program. Those programs are stored in the ROM 40 in advance.
  • the first storage unit 34 stores pseudo three-dimensional panoramic images IM A and IM B captured at different times t1 and t2. It is assumed that there is a time difference of, for example, two weeks before and after the treatment at the different times t1 and t2. Further, the panoramic images IM A and IM B are pseudo three-dimensional images having a certain cross section along the dentition of the same patient, for example, as schematically shown in FIG.
  • the image processor 35 reads the data of the pseudo three-dimensional panoramic images IM A and IM B in step S1 of FIG.
  • the read panoramic images IM A and IM B are re-projected into an image along the reference tomographic plane Sref of the dentition in step S2, and then developed into two-dimensional plane images A and B.
  • the image processor 35 applies the data of the planar images A and B to two-stage registration, that is, global registration (step S3) and local registration (step S4).
  • This registration means that the plane images A and B of both methods are aligned in position using spatial transformation.
  • the image data of the planar images A and B are converted into registered image data and converted into aligned images fa and hb, respectively.
  • the difference data between the registered images fa and hb is calculated (step S5) and displayed on the display 36 (step S6).
  • Step S 3 1 Step S 32
  • the operator uses the input device 37 such as a mouse, for example, five points (hereinafter referred to as control points) a 0 (x ao , ya 0 ), a 1 (x a1 , y a1 ), a 2 (x a2 , ya 2 ), a 3 (x a3 , ya 3 ), a 4 (x a4 , ya 4 ) are plotted.
  • the control points are set at regular intervals along a curved portion between the upper and lower teeth.
  • FIG. 10 shows a state in which control points are plotted for only one planar image B, but five control points are similarly plotted for the other planar image A.
  • the position i in the horizontal axis direction represents the scale ratio with respect to the planar image A at each position (after the pixel) in the horizontal axis (x-axis) direction of the planar image B. Therefore, the scale factor for each pixel in the horizontal axis direction obtained from this approximate curve is obtained and stored.
  • Step S3 5 Next, the obtained plurality of normals N (x) are mapped in a straight line in the horizontal direction, that is, in the x-axis direction.
  • the planar image fa after global registration for one planar image A: fa [N (xa0) N (xa1 + 1) ... N (x a4)] Is obtained (see FIG. 14). Note that global registration is similarly performed on the other planar image B, and the planar image fb is similarly obtained (see FIG. 14).
  • the panorama imaging apparatus As described above, according to the panorama imaging apparatus according to the present embodiment, information regarding temporal changes in the same imaging region to be imaged is provided, while requiring less computing power for hardware such as a CPU. be able to.
  • the first modification relates to the method of setting the region of interest of the normalized cross-correlation R ZNCC for calculating at step S4 2 in the local registration described above. This example will be described with reference to FIGS.
  • the image processor 35 uses three types of large, medium, and small ROIs having different pixel sizes: ROI L , ROI M , and ROI S to perform a three-stage narrowing search as shown in FIG.
  • the large ROI L has a pixel size of, for example, 100 ⁇ 110 pixels
  • the middle ROI M has a pixel size of, for example, 50 ⁇ 55 pixels
  • the small ROI S has a pixel size of, for example, 25 ⁇ 28 pixels.
  • one planar image fa is divided using a large ROI L.
  • the region corresponding to the ROI L on the other planar image gb matching due to a normalized cross-correlation R ZNCC described above to search for the best regions (step S4A).
  • the image processor 35 divides one planar image fa using the medium ROI M. Then, on the other planar image gb, the ROI in the vicinity of the region searched for the best matching by the large ROI L (the inside, the end of the region, or the portion beyond the end). While setting the region according to M , the region with the best matching based on the normalized cross-correlation RZNCC described above is searched (step S4B). This search is performed for each of a plurality of ROI M obtained by dividing one planar image fa.
  • the image processor 35 divides one planar image fa using the small ROI S. Then, on the other planar image gb, the ROI in the vicinity of the area searched for the best matching by the medium ROI M (the inside, the end of the area, or the part beyond the end). While setting an area according to S , an area with the best matching based on the above-mentioned normalized cross-correlation RZNCC is searched (step S4C). The search for the run for each of a plurality of ROI S obtained by dividing the one planar image fa.
  • the point corresponding to the reference point set on one plane image fa is set in the other plane image gb based on the region searched for in the small ROIS in step S4C.
  • the subsequent processing is the same as described above.
  • the ROI size is gradually reduced to narrow down the region having a high matching degree, the accuracy of matching between the two planar images to be compared is further improved.
  • the size change of ROI may use two types of large ROI and small ROI, and may use four or more types of ROI.
  • a dentist usually reads images while viewing a panoramic image in which the dentition is curved. In other words, it can be said that they are most used to interpret panoramic images of such curved dentitions.
  • the act of converting to a linear image of the dentition and the act of performing registration correctly mean that the dentition is normalized and arranged for each individual, and the image is viewed from a different viewpoint.
  • the extraction algorithm can be simplified, and it can be said that the application range is wide.
  • the two 3D autofocus images IM A and IM B from which change information due to the difference is extracted are directly subjected to the subtraction process as described above.
  • two 3D autofocus images IM A and IM B may be coarsely aligned in advance in 3D space as a pre-process of the subtraction process, and then subjected to the subtraction process. .
  • the image device and the image processing method described above may be modified so as to be performed only by registration. That is, in the example of the embodiment described above, in the procedure of FIG. 7 performed by the image processor 35, the processing up to that time, that is, two normalized planar images fa and It is to obtain a planar image gb.
  • the registered image (one or both of the two planar images fa and gb) obtained in this way is displayed on, for example, the display 36 (FIG. 23, step S10).
  • steps S1 to S4 are the same as those in FIG.
  • FIGS. 25 and 26 A seventh modification is shown in FIGS. 25 and 26.
  • FIG. This modification relates to one method for effectively using the effect of normalization due to registration according to the present invention. Specifically, this is a method of extracting the tooth outline more clearly and setting the ROI (region of interest) more accurately by the outline portion.
  • Periodontal disease is known as a typical inflammation that occurs in the outline of teeth. If periodontal disease has progressed considerably, it can be seen by visual observation and conventional panoramic photography. However, it is quite difficult to determine the pre-inflammation state of whether gingivitis is likely or not unless the state of the internal material of the alveolar bone and periodontal ligament is known. In other words, it is necessary to determine the degree of assimilation of the substances constituting the dental cementum, periodontal ligament, gingiva and alveolar bone. For this purpose, it is required to set ROIs for these portions with higher accuracy and to identify local substances in each ROI. Usually, the boundary portion between teeth and gums (alveolar bone) in a panoramic image is difficult to see visually.
  • the material of this ROI part is identified (step S32).
  • a known method may be used for this identification.
  • a scatter diagram composed of absorption information of a substance with respect to X-rays and X-ray beam hardening information of the substance may be used.
  • the same reference numerals are used for the same or equivalent components and processes as those described in the first embodiment, and description thereof is omitted.
  • the image processing according to the second embodiment performs the global registration described in the first embodiment with higher accuracy. Therefore, the global registration according to the present embodiment is characterized by using a plurality of auxiliary points in addition to the plurality of control points a 0 to a 4 described above.
  • the second two left and right control points a 2 and a 3 are similarly set for the third left and right canine teeth from the front.
  • the two auxiliary points ⁇ 2 and ⁇ 3 in the middle are set in the same manner for the canine.
  • the middle control point a 2 is set at the approximate center of the dentition.
  • the image processor 35 approximates the curved lines drawn by the five control points a 0 to a 4 with a Lagrangian curve (see FIG. 28 (B)), as in the processing in the first embodiment, and the curved lines.
  • the image is deformed by moving the pixels so that is linearized (see FIG. 28C) (step S41).
  • the image processor 35 performs straight lines Ln1, points a 1 and ⁇ 2 connecting the approximated straight line Lst and points a 0 and ⁇ 1. connecting the straight line Ln2, points a 3, connecting the alpha 3 straight Ln3, and, (see FIG.
  • the processing target is a dentition
  • such a target may be another part of the jaw. Further, such a target may be another part such as a joint of a subject.

Abstract

 画像処理装置を機能的に搭載したパノラマ撮像装置が提供される。この装置では、2つの平面画像(A,B)の両者にて夫々指定した位置から決定される曲線に基づいて当該2つの平面画像(A,B)夫々の全体を、同平面画像(A,B)に夫々設定した対応点が直線を成しかつ水平方向で一致するように、その直線上での位置毎の伸縮率を変えながらレジストレーションした2枚の平面画像(fa,gb)が作成される(ステップS1~S3)。一方の平面画像(fa)を成す複数の局所領域が、夫々、他方の平面画像(gb)のどの領域にマッチングするのか、その他方の平面画像(gb)が探索されるとともに、マッチング領域の画像を再配置した平面画像(hb)が作成される(ステップS4)。平面画像(hb)と平面画像(fa)との間で差異情報が演算される。

Description

画像処理装置及び画像処理方法
 本発明は、同一の対象の同一の撮像部位を、異なるタイミングにおいて撮像して得られた複数の平面画像から、その部位の経時的変化を評価するための処理を行う画像処理装置及び画像処理方法に関する。
 近年、X線を用いた物体の内部の構造の画像化は、半導体などの物の製造現場、パイプラインなどの建設現場、空港の手荷物検査、医療現場など、多くの分野で行われている。この中でも、特に、X線撮像装置やX線CTなどの医用モダリティを用いて被検体の内部の断面の画像を得ることは、医療の研究や治療の現場では今や必須の診断法の一つになっている。
 この医療におけるX線診断の場合、診断対象である患者の撮像部位が時間的にどのように変化しているかということを知ることは非常に重要である。勿論、材料には時間の経過に伴う劣化があるので、そのような経時的変化の観察は患者に限ったことではない。
 この経時的変化の情報を得る一つのアルゴリズムとして、非特許文献1に示されている位相限定相関法を用いるサブトラクション法がある。このサブトラクション法を実施する場合、異なる時間に撮像された同一被検体の同一部位の2つの2次元又は3次元の画像のうちの一方の画像上で2つ又は3つの特異な位置を指定する。次に、この指定された位置に相当する、もう一方の2次元又は3次元の画像上の位置を、最も強い位相相関を求めることにより、特定する。このように指定及び特定された両画像の位置を互いに合わせるための移動ベクトル(拡大・縮小、回転、平行移動を示すベクトル)を位置毎に求める。この移動ベクトルを使って、一方の画像を他方の画像に位置合わせを行い、両画像の画素毎の差分を採る。これにより、両画像から被検体の撮像部位の経時的な変化を求めることができる。
 この位相限定相関法を用いるサブトラクション法は、例えば、本出願人の過去の出願に係る装置において既に使用されている(特許文献1を参照)。
WO 2011016508 A1
「位相限定相関法を用いた掌紋認証アルゴリズム、伊藤 康一 ほか、画像の認識・理解シンポジウム(MIRU2006)、2006年7月」
 しかしながら、位相相関限定法を用いたサブトラクション法の場合、位相相関量の演算、移動ベクトルの演算、その移動ベクトルを用いた画像の移動、及び差分という演算が必要なるので、演算量が非常に多くなる。このため、演算を担うコンピュータ能力も高いものが要求されることから、実際の医療等の現場では使い難いという問題があった。また歯科X線口内撮影のような比較的小さな領域の画像に対しては、演算上の計算量ならびに精度からも適切であるが、更に歯列全域をカバーする歯科用パノラマ画像のような場合は、演算量が膨大になり不適である。
 かかる問題は特に、歯科治療の現場で、X線透過データをトモシンセシス法の下で疑似3次元的に再構成して得るパノラマ画像(つまり、歯列に沿って湾曲した2次元断面の画像)の場合にも顕著であった。この歯科治療の分野では、そのような経時的な変化を観察することが、スクリーニングなどの予防的な診察からインプラント治療まで幅広く要求されている。しかしながら、演算量が多いということは、経時変化の情報を得るまでに時間がかかる。これに間に合うようにコンピュータの演算能力を上げるということも装置の製造コスト面で難がある。
 さらに、歯科治療の分野では、拡大率が定まらないことや、画像のボケは患者の位置付けや歯列の個体差などで生じることから、同一の患者の同一の歯列の経時的な変化を従来のパノラマ画像を用いて読影することは到底できる話ではないとも言われている。かかる経時的な変化を観察しようとすれば、時間を置いて複数回の撮像を行う必要がある。例えば、う蝕の変化やインプラント治療の場合など、治療前後にそれぞれ撮像する必要がある。その撮像の度に位置決めされる同一患者の口腔部の空間的な位置は少しずれることが一般的である。これは操作者による位置決めのずれなどに依存する。しかしながら、従来では、パノラマ画像を用いて、そのような時間的な変化を読影することは上記の理由で殆ど不可能であった。
 本発明は、上記事情に鑑みてなされたもので、CPUなどのハードウェアに要求される演算能力はより少なくて済みながらも、撮像対象の同一の撮像部位の時間的な変化に関する情報を提供することができる画像処理装置及び画像処理方法を提供することを、その目的とする。
 上述した目的を達成するために、本発明によれば、X線撮影装置によって、X線が被検体に照射され、当該被検体を透過した前記X線の透過量を示すデータが検出され、且つ、このデータに基づいて作成された、2つの時点の2枚の平面画像A,Bの間の差異情報を得る画像処理装置が提供される。この画像処理装置は、前記2つの平面画像A,Bの両者において夫々指定した位置から決定される曲線に基づいて当該2つの平面画像A,Bそれぞれの全体を、同平面画像A,B上にそれぞれ設定した前記対応点が直線を成しかつ水平方向で一致するようにその直線上での位置ごとの伸縮率を変えながらレジストレーション処理した2枚の平面画像fa,gbをそれぞれ作成する第1のレジストレーション手段と、前記第1のレジストレーション手段により作成された前記一方の平面画像faを成す複数の局所領域が、夫々、前記他方の平面画像gbのどの領域にマッチングするのか当該他方の平面画像gbを探索するとともに、当該マッチングした領域の画像を再配置した平面画像hbを作成する第2のレジストレーション手段と、この第2のレジストレーション手段により作成された平面画像hbと前記第1のレジストレーション手段で作成された前記一方の平面画像faとの間で差異情報を演算する差異演算手段と、を備えたことを特徴とする。
 本発明によれば、CPUなどのハードウェアに要求される演算能力はより少なくて済みながらも、撮像対象の同一の撮像部位の時間的な変化に関する情報を提供することができる。
 添付図面において、
図1は、本発明の第1の実施形態に係る、画像処理装置を機能的に一体に搭載したX線によるパノラマ撮像装置の構成の一部の概略を示す斜視図、 図2は、パノラマ撮像装置に搭載される検出器の概要を説明する図、 図3は、検出器の電気的な構成を示すブロック図、 図4は、入射するX線パルスとエネルギ弁別のためのエネルギ閾値との関係を説明する図、 図5は、入射するX線のエネルギ分布、光子計数値、及びエネルギ領域の関係を説明する図、 図6は、パノラマ撮像装置のコンソールの電気的な構成を示すブロック図、 図7は、サブトラクション処理の概要を示すフローチャート、 図8は、サブトラクション処理の対象となる、撮像時期の異なる2つの3Dオートフォーカス画像を示す図、 図9は、2つの3Dオートフォーカス画像から作成された2つの平面画像を示す図、 図10は、一方の平面画像に制御点としての複数の点をプロットした状態を説明する図、 図11は、上記一方の平面画像にプロットした点をスムーズに結ぶ曲線を設定した状態を示す図、 図12は、スケーリングに使用する伸縮率の、横軸上の位置毎の変化を示す曲線図、 図13は、前記一方の平面画像に設定した曲線上の各位置に設定する法線を説明する図、 図14は、上記法線に沿った画素を横方向に直線に配置して作成し且つ縦横の伸縮率を相互に合わせた2つの平面画像の図、 図15は、上記直線配置された2つの平面画像の一方をROIで分割した様子を示す図。 図16は、上記直線配置された2つの平面画像の他方における上記ROIにマッチングした領域を説明する図、 図17は、上記他方の平面画像(直線配置済)におけるマッチング領域の再配置を説明する図、 図18は、差異情報として差分情報を表す差分画像を模式的に説明する図、 図19は、第1の変形例に係る大局的レジストレーションにおける大、中、小のROIを用いた処理を説明するフローチャート、 図20は、第1の変形例における大、中、小のROIの設定及び当該ROIに相当する領域の探索を説明する図、 図21は、第3の変形例に係る、直線型の差分画像から湾曲型の差分画像への再配置を説明するフローチャート、 図22は、第3の変形例に係る、湾曲型の差分画像を模式的に説明する図、 図23は、第5の変形例に係る画像処理の概要を説明するフローチャート。 図24は、第6の変形例に係る画像処理の概要を説明するフローチャート、 図25は、第7の変形例に係る画像処理の概要を説明するフローチャート、 図26は、第7の変形例に係る画像処理を説明する図、 図27は、本発明の第2の実施形態に係る、大局的レジストレーションの一部を説明するフローチャート、 図28は、第2の実施形態に係る画像処理を説明する図、である。
 以下、添付図面を参照して、本発明の画像処理装置に係る各種の実施形態及びその変形例を説明する。
 本実施形態では、かかる画像処理装置は、X線を用いた歯科用のパノラマ撮像装置の中で機能的に一体に実施されているので、以下、このパノラマ撮像装置を詳述する。
(第1の実施形態)
 図1~図18を参照して、第1の実施形態に係る画像処理装置及び画像処理方法を説明する。
 なお、本発明に係る画像処理装置は必ずしもそのような撮像装置と機能的に一体化する必要はない。例えば、画像処置装置は撮像装置とは別体のコンピュータとして存在していてもよい。このコンピュータが本発明に係る画像処理を専用に行うものであってもよいし、他の処理の実行と兼用するものであってもよい。そのようなコンピュータに撮像装置によって撮像された、撮像対象の同一部位について異なる時間に撮像された複数の画像が与えられ、この複数の画像に本発明に係る画像処理を施すようになっていればよい。また、以下の実施形態では、2つの画像間の差異情報として差分(サブトラクション)情報を得るようにしているが、これはあくまで一例であり、病状の変化などに伴う「違い」が得られる情報であればよい。なお、後述するレジストレーションされた画像を有効に利用する形態も説明される。
 図1に、本第1の実施形態に係る画像処置機能を有するパノラマ撮像装置1の概要を示す。
 このパノラマ撮像装置1は、被験者Pの顎部をX線でスキャンし、そのデジタル量のX線透過データから顎部に在る3次元構造の歯列の実際の位置及び形状を同定した3D(3次元)画像(後述する3Dオートフォーカス画像)を提供する。特に、パノラマ撮像装置1は、時系列的に異なる複数の撮影時期(例えば2カ月空けた2つの撮影時期)に撮像した複数(例えば2つ)の3Dオートフォーカス画像の相互間の経時変化を表す情報を提供することを、基本性能とする。なお、3Dオートフォーカス画像を得る過程でトモシンセシス法(tomosynthesis)を用い、また、かかる経時変化の情報を得る過程で、本発明に係る画像処理法を実施する。
 (実施形態)
 図1~図18を参照して、本発明に係る画像処理及び画像処理方法を機能的に一体に搭載及び実行するパノラマ撮像装置の好適な実施形態を説明する。
 図1に、パノラマ撮像装置1の概要を示す。このパノラマ撮像装置1は、被検体Pからデータを収集するガントリ(データ収集装置)2と、収集したデータを処理して画像などを作成するとともにガントリ2の動作を制御するコンソール3とを備える。
 ガントリ2は、支柱11を備える。この支柱が伸びる長手方向を縦方向(又は上下方向:Z軸方向)と呼び、この縦方向に直交する方向を横方向(XY面に沿った方向)と呼ぶ。支柱11には、略コ字状を成す上下動アームユニット12が縦方向に移動可能に備えられる。
 上下動アームユニット12には、回転軸13Dを介して回転アームユニット13が垂下され、この回転軸13DによりZ軸方向の周りに回転可能である。この回動アームユニット13は、下向きで略コ字状を成す横アーム13Aと、この横アーム13Aの両端のそれぞれから下向きに伸びる線源側縦アーム13B及び検出側縦アーム13Cとを備える。回転軸13Dは、図示しない電動モータなどの駆動機構の出力を利用した軸である。図中、符号14は被験者Pの顎を載せるチンレストを示す。
 線源側アーム13Bの下端部にはX線管21が設置され、このX線管21から例えばパルスX線として曝射されたX線は、同下端部に設けられたコリメータ(図示せず)でコリメートされた後、被験者Pの顎部を透過して検出側縦アーム13Cに伝播する(仮想線を参照)。検出側縦アーム13Cの下端部には、X線入射窓W(例えば、横5.0mm×縦145mm)を有したX線検出器22(以下、検出器と呼ぶ)が設置される。なお、検出器22の検出面のサイズは、例えば横6.4mm×縦150mm)である。
 この検出器22は、図2に示すように、X線撮像素子を2次元に配列した複数の検出モジュールB1~Bnを有し、この複数の検出モジュールB1~Bnの全体で検出部分が構成される。複数の検出モジュールB1~Bmは互いに独立したブロックとして作成され、それらを基板(図示せず)上に所定形状(例えば矩形状)に実装して検出器22の全体が作成される。個々の検出モジュールB1(~Bm)はX線を直接、電気パルス信号に変換する半導体材料で作成される。このため、検出器22は、半導体による直接変換方式の光子計数型X線検出器である。
 この検出器22は、上述したように、複数の検出モジュールB1~Bmの集合体として形成され、その全体として、2次元に配列された収集画素Sn(n=1~N:画素数Nは例えば50x1450画素)を有する(図2参照)。各収集画素Snのサイズは、例えば200μm×200μmである。
 このため、検出器22は、入射X線に応じた光子(フォトン)を、検出器22の検出面を構成する画素(収集画素)Sn(n=1~N)毎に計数して、その計数値を反映させた電気量のデータを例えば300fpsの高いフレームレートで出力する。このデータはフレームデータとも呼ばれる。
 この複数の収集画素Snそれぞれは、テルル化カドミウム半導体(CdTe半導体)、カドミュームジンクテルライド半導体(CdZnTe半導体)、シリコン半導体(Si半導体)、CsIなどのシンチレータに、光電変換器をC-MOSなどの半導体セル(センサ)Cにより構成される。この半導体セルCは、それぞれ、入射するX線を検出して、そのエネルギ値に応じたパルス電気信号を出力する。つまり、検出器22は、半導体セルCの複数が2次元に配列されたセル群を備え、その半導体セルCのそれぞれ、すなわち、2次元配列の複数の収集画素Snそれぞれの出力側にデータ収集回路51n(n=1~N)が備えられている。ここで、収集画素Snのそれぞれ、すなわち半導体セルCのそれぞれから各データ収集回路51(~51)に至る経路を必要に応じて、収集チャンネルCNn(n=1~N)と呼ぶ。
 なお、この半導体セルSの群の構造は、特開2000-69369号公報、特開2004-325183号公報、特開2006-101926号公報によっても知られている。
 ところで、前述した各収集画素Snのサイズ(200μm×200μm)は、X線を光子(粒子)として検出することが可能な十分小さい値になっている。本実施形態において、X線をその粒子として検出可能なサイズとは、「放射線(例えばX線)粒子が同一位置又はその近傍に複数個連続して入射したときの各入射に応答した電気パルス信号間の重畳現象(パイルアップとも呼ばれる)の発生を実質的に無視可能な又はその量が予測可能なサイズ」であると定義される。この重畳現象が発生すると、X線粒子の「入射数対実際の計測数」の特性にX線粒子の数え落とし(パイルアップカウントロスとも呼ばれる)が発生する。このため、X線検出器12に形成する収集画素Snのサイズは、この数え落としが発生しない又は実質的に発生しないとみなせる大きさに、又は、数え落し量が推定できる程度に設定されている。この検出器22の特徴は、X線パルスの数が正確に計測できることである。そのため、本発明の目的であるサブトラクションを行うことで、X線吸収の変化量の絶対値を計測できることになる。
 続いて、図3を用いて、検出器22に電気的に繋がる回路を説明する。複数のデータ収集回路51n(n=1~N)のそれぞれは、各半導体セルCから出力されたアナログ量の電気信号を受けるチャージアンプ52を有し、このチャージアンプ52の後段に、波形整形回路53、多段の比較器54~54(ここではi=3)、エネルギ領域振分け回路55、多段のカウンタ56~56(ここではi=3)、多段のD/A変換器57~57(ここではi=3)、ラッチ回路58、及びシリアル変換器59を備える。
 各チャージアンプ52は、各半導体セルSの各集電電極に接続され、X線粒子の入射に応答して集電される電荷をチャージアップして電気量のパルス信号として出力する。このチャージアンプ52の出力端は、ゲイン及びオフセットが調整可能な波形整形回路53に接続されており、検知したパルス信号の波形を、予め調整されているゲイン及びオフセットで処理して波形整形する。この波形整形回路53のゲイン及びオフセットは、半導体セルCから成る収集画素Sn毎の電荷チャージ特性に対する不均一性と各回路特性のバラツキを考慮して、キャリブレーションされる。これにより、不均一性を排除した波形整形信号の出力とそれに対する相対的な閾値の設定精度とを上げることができる。この結果、各収集画素Snに対応した、即ち、各収集チャンネルCNnの波形整形回路53から出力された波形整形済みのパルス信号は実質的に入射するX線粒子のエネルギ値を反映した特性を有する。したがって、収集チャンネルCNn間のばらつきは大幅に改善される。
 この波形整形回路53の出力端は、複数の比較器54~54の比較入力端にそれぞれ接続されている。この複数の比較器54~54それぞれの基準入力端には、図4に示す如くそれぞれ値が異なるアナログ量の閾値th(ここではi=1~3)が印加されている。これにより、1つのパルス信号を異なるアナログ量閾値th~thに各別に比較することができる。この比較の理由は、入射したX線粒子のエネルギ値が、事前に複数に分けて設定したエネルギ領域ER1~ER3のうちのどの領域に入るのか(弁別)について調べるためである。パルス信号の波高値(つまり、入射するX線粒子のエネルギ値を表す)がアナログ量閾値th~thのどの値を超えているかについて判断される。これにより、弁別されるエネルギ領域が異なる。なお、最も低いアナログ量閾値thは、通常、外乱や、半導体セルS、チャージアンプ42などの回路に起因するノイズ、或いは、画像化に必要のない低エネルギの放射線を検出しないようにするための閾値として設定される。また、閾値の数、すなわち比較器の数は、必ずしも3個に限定されず、上記アナログ量閾値thの分を含めて1個であってもよいし、2個以上の何個であってもよい。
 上述したアナログ量閾値th~thは、具体的には、コンソール3のキャリブレーション演算器38からインターフェース32を介してデジタル値で収集画素Sn毎、即ち収集チャンネル毎に与えられる。このため、比較器54~54それぞれの基準入力端は4つのD/A変換器57~57の出力端にそれぞれ接続されている。このD/A変換器57~57はラッチ回路58を介して閾値受信端T(~T)に接続され、この閾値受信端T(~T)がコンソール3のインターフェース32に接続されている。
 ラッチ回路58は、撮像時に、閾値付与器40からインターフェース31及び閾値受信端T(~T)を介して与えられたデジタル量の閾値th´~th´をラッチし、対応するD/A変換器D/A変換器57~57にそれぞれ出力される。このため、D/A変換器57~57は指令されたアナログ量の閾値th~thを電圧量として比較器54~54それぞれに与えることができる。各収集チャンネルCNnは、D/A変換器57i(i=1~3)から比較器54i(i=1~3)を介してカウンタ55i(i=1~3)に至る1つ又は複数の回路系につながっている。この回路系を「弁別回路」DS(i=1~3)と呼ぶ。
 図5に、このアナログ量閾値th(i=1~3)に相当するエネルギ閾値TH(i=1~3)の設定例を示す。このエネルギ閾値THは勿論、離散的に設定されるとともに、ユーザが任意に設定可能な弁別値である。
 アナログ量閾値thは、各弁別回路DSにおいて比較器54iに与えるアナログ電圧であり、エネルギ閾値THはエネルギスペクトラムのX線エネルギ(keV)を弁別するアナログ値である。図5に示す波形は、X線管球から曝射されるX線のエネルギの連続スペクトルの一例を示す。なお、縦軸の計数値(カウント)は横軸のエネルギ値に相当するフォトンの発生頻度に比例する量であり、横軸のエネルギ値はX線管21の管電圧に依存する量である。このスペクトルに対して、第1のアナログ量閾値thを、X線粒子数を計数不要領域(計測に意味のあるX線情報がなくかつ回路ノイズが混在する領域)と低目のエネルギ領域ER1とを弁別可能なエネルギ閾値TH1に対応して設定する。また、第2、及び第3のアナログ量閾値th、及びthを、第1のエネルギ閾値THより高い値となる、第2、及び第3のエネルギ閾値TH,及びTHを順に供するように設定している。これにより、エネルギのスペクトル波形の特性や設計値に基づいた適宜な弁別点が規定され、エネルギ領域ER2、ER3が設定される。
 また、これらのエネルギ閾値THは、基準となる一つ以上の被写体を想定し、エネルギ領域毎の所定時間の計数値が概略一定になるように決定される。
 このため、比較器54~54の出力端は、図3に示すように、エネルギ領域振分け回路55に接続されている。このエネルギ領域振分け回路55は、複数の比較器54~54の出力、すなわち、検出したX線粒子のエネルギ値に相当するパルス電圧とアナログ量閾値th(~th)との比較結果を解読し、そのエネルギ値がどのエネルギ領域ER1~ER3に分類されるかという振分けを行う。エネルギ領域振分け回路55は、カウンタ56~56の何れかに弁別結果に応じたパルス信号を送る。例えば、エネルギ領域ER1に弁別される事象があれば、1段目のカウンタ56にパルス信号を送る。エネルギ領域ER2に弁別される事象があれば、2段目のカウンタ56にパルス信号を送る。エネルギ領域ER3についても同様である。
 このため、カウンタ56~56のそれぞれは、エネルギ領域振分け回路55からパルス信号が入力される度にカウントアップする。これにより、担当するエネルギ領域に弁別されるエネルギ値のX線粒子数を一定時間毎の累積値として計測することができる。なお、カウンタ56~56にはコンソール3のコントローラ33からスタート・ストップ端子T2を介して起動及び停止の信号が与えられる。一定時間の計測は、カウンタ自身が有するリセット回路を使って外部から管理される。
 このようにして、リセットされるまでの一定時間の間に、複数のカウンタ56~56により、検出器12に入射したX線の粒子数が、収集画素Sn毎に且つエネルギ領域毎に計測される。このX線粒子数の計数値は、カウンタ56~56のそれぞれからデジタル量の計数データとして並列に出力された後、シリアル変換器59によりシリアルフォーマットに変換される。このシリアル変換器59は残り全ての収集チャンネルのシリアル変換器59~59とシリアルに接続されている。このため、全てのデジタル量の計数データは、最後のチャンネルのシリアル変換器59からシリアルに出力され、送信端T3を介してコンソール3に送られる。コンソール3では、インターフェース31がそれらの計数データを受信して第1の記憶部34に格納する。
 そこで、画像プロセッサ35は、入力器37からの操作者の指令に応じて、第1の記憶部34に格納されている計数データを読み出し、この計数データを用いて画像、例えば歯列に沿ったある断面のX線透過画像(パノラマ画像)を例えばトモシンセシス法の元で再構成する。各収集画素Snから複数のエネルギ領域ER1~ER3の計数データが得られている。このため、このパノラマ画像の再構成において、画像プロセッサ35は、例えば高いエネルギ値の計数データほど高い重み付けを施し、これを相互に加算する。これにより、収集画素Sn毎に、収集されたデータが作成される。これにより、全収集画素Snから収集したX線スキャンに伴うデータが揃うので、これらの収集データをトモシンセシス法で処理してパノラマ画像を再構成する。このパノラマ画像は例えば表示器36で表示される。勿論、重み付けを施さずにパノラマ画像を再構成してもよい。
 なお、重み付け処理の仕方にも各種の方式がある。上述のように、高いエネルギ領域の計数データを強調する重み付け処理にすれば、ビームハードニングに因るアーチファクトを抑制することができる。また、軟部組織のコントラスト改善を目的として低いエネルギ領域を強調するように重み付けをすることもできる。ビームハードニングに因るアーチファクト抑制及び軟部組織のコントラスト改善を目的としてその両方の領域を共に強調するという重み付けをすることもできる。
 また、歯科用パノラマ装置の宿命である前歯部の陰影として重畳される頚椎の映り込みなども、前歯部の再構成時に高エネルギ領域の計数データを強調する重み付けをすれば、幾分なりとも頚椎の映り込みは軽減可能である。また、同じような重み付け処理は、側方歯の歯列重なりを軽減する、いわゆる直交撮影時における、反対側の顎の写り込みを軽減する際にも使える。さらに、下顎管などを少しでもコントラスト良く見たいような場合、低エネルギの計数データを強調する重み付けをして再構成することで、より鮮明な画像化が可能である。
 なお、本実施例では、上述したN個の収集画素Snに対応した半導体セルS及びデータ収集回路51nはASICによりCMOSで一体に構成されている。勿論、このデータ収集回路51nは、半導体セルSの群とは互いに別体の回路又はデバイスとして構成してもよい。
 コンソール3は、図6に示すように、信号の入出力を担うインターフェース(I/F)31を備え、このインターフェース31にバス32を介して通信可能に接続されたコントローラ33、第1の記憶部34、画像プロセッサ35、表示器36、入力器37、キャリブレーション演算器38、第2の記憶部39、ROM40、及び閾値付与器41を備えている。
 コントローラ33は、ROM40に予め与えられたプログラムに沿ってガントリ2の駆動を制御する。この制御には、X線管21に高電圧を供給する高電圧発生装置42への指令値の送出、及び、キャリブレーション演算器38への駆動指令も含まれる。第1の記憶部34は、ガントリ2からインターフェース31を介して送られてきたフレームデータを保管する。
 画像プロセッサ35は、コントローラ33の管理の下に、ROM40に予め与えられたプログラムに基づいて、各種の処理を実行する。この処理には、フレームデータに公知のシフト・アンド・アッド(shift and add)と呼ばれる演算法に基づくトモシンセシス法を実行する処理が含まれる。
 この処理により、検出器22から出力されるエネルギ領域別に収集したX線フォトン数のカウント値に基づくフレームデータを使って、被験者Pの口腔部の、例えば歯列を通る馬蹄形の断面のパノラマ画像が断層像として作成される。この馬蹄形の断面は、擬似3次元断面でもある。つまり、断面自体は2次元だが、この2次元断面が3次元的に位置するからである。
 本実施形態にあっては、このパノラマ画像はWO2011013771号公報に開示されている、所望の擬似3次元断面に沿ったパノラマ画像を自動的に最適焦点化する、所謂、オートフォーカスの手法により再構成される。この所望断面は、例えば、予め歯列に設定した標準的なサイズの断面であってもよいし、この標準的な断面からその位置を歯列の奥行き方向において前進又は後退させた位置の断面であってもよい。また、オブリークな断面であってもよい。
 また、画像プロセッサ35により実行される処理には、異なる時間に撮像された例えば2枚のパノラマ画像の時系列的な変化の情報を得る処理(サブトラクション処理)含まれる。
 表示器36は、トモシンセシス法により作成されるパノラマ画像、及び、サブトラクション処理により取得される変化情報を表示する。また表示器36は、ガントリ2の動作状況を示す情報及び入力器37を介して与えられるオペレータの操作情報の表示も担う。入力器37は、オペレータが撮像に必要な情報をシステムに与えるために使用される。
 また、キャリブレーション演算器38は、データ収集回路で収集画素Sn毎のエネルギ弁別回路毎に与える、エネルギ弁別のためのデジタル量の閾値をキャリブレーションする。第2の記憶部39は、キャリブレーションにより収集画素毎、及び、エネルギ弁別回路毎に生成された閾値の値を記憶する。
 閾値付与器41は、撮像時に第2の記憶部39に格納されているデジタル量の閾値を収集画素毎に且つ弁別回路毎に呼び出して、その閾値を指令値としてインターフェース31を介して検出器22に送信する。この処理を実行するため、閾値付与器41はROM40に予め格納されたプログラムを実行する。
 コントローラ33、画像プロセッサ35、キャリブレーション演算器38、及び閾値付与器41は、夫々、与えられたプログラムで稼動するCPU(中央処理装置)を備えている。それらのプログラムは、ROM40に事前に格納されている。
 次に、本実施形態において画像プロセッサ35により実行されるサブトラクション処理を図7に示す手順に沿って説明する。
 いま、第1の記憶部34には、異なる時期t1、t2において撮像された擬似3次元のパノラマ画像IM、IMが格納されている。この異なる時期t1、t2には例えば治療前後の例えば2週間の時間差があるものとする。また、パノラマ画像IM、IMは、例えば図8に模式的に示されるように、同一患者の歯列に沿ったある同一断面の擬似3次元画像である。
 そこで、画像プロセッサ35により、図7のステップS1にて、それらの擬似3次元のパノラマ画像IM、IMのデータが読み出される。この読み出されたパノラマ画像IM、IMのデータは、ステップS2にて、歯列の基準断層面Srefに沿った画像に再投影された後、2次元の平面画像A,Bに展開される。
 次いで、画像プロセッサ35により、平面画像A,Bのデータは、大局的レジストレーション(ステップS3)及び局所的レジストレーション(ステップS4)という2段階のレジストレーションに付される。このレジストレーションは、空間変換を利用して両法の平面画像A,Bを位置的に揃える、ことを意味する。このレジストレーションにより平面画像A,Bの画像データがレジストレーションされた画像データに変換され且つ位置合わせされた画像fa,hbにそれぞれ変換される。このレジストレーションされた画像fa,hbの差分データが演算されるとともに(ステップS5)、表示器36に表示される(ステップS6)。この一連のステップS3~S6により、同一患者の顎部が時期t1、t2の間にどのような変化を呈しているか、その時系列的な変化を示す情報が画像化される。
 以下、ステップS3~S6の処理を詳述する。
 (大局的レジストレーション)
 レジストレーションを最初から緻密に行うことは演算量や精度の点で実用的ではない。このため、大局的レジストレーションにより、最初に、平面画像A,Bを粗くレジストレーションし、その後の局所的レジストレーションで緻密に両画像の位置を揃えるようにしている。大局的レジストレーションは、画像プロセッサ35により、以下のステップS3~S3(図7参照)の下に実行される。
 ステップS3: ステップS32次元平面画像A,Bそれぞれに対し、オペレータがマウスなどの入力器37を用いて、例えば5つの点(以下、制御点と呼ぶ)a(xao,ya0),a(xa1,ya1),a(xa2,ya2),a(xa3,ya3),a(xa4,ya4),をプロットする。この制御点は図10に示すように、一例として、上下の歯の並びの間の湾曲した部分に沿って等間隔に設定される。なお、図10には一方の平面画像Bのみに対して制御点をプロットしている様子を示すが、他方の平面画像Aにも同様に5つの制御点がプロットされる。
 ステップS3: 次いで、制御点a(xao,ya0),a(xa1,ya1),a(xa2,ya2),a(xa3,ya3),a(xa4,ya4)を結ぶ湾曲線C(x、y)をラグランジェ方程式によりxao<x<xa4の範囲で演算する(図11参照)。
 ステップS3: 次いで、平面画像fa上の制御点にa~aそれぞれについて、各制御点a(~a)から次の制御点a(~a)までの湾曲した線分(幅)を基準値1とし、この基準値1に対する平面画像fbのそれがどのような縮尺率になっているかを演算する。この結果、図12に黒丸で示すような縮尺率の離散点が求められるので、この離散点を結ぶ曲線をラグランジェ曲線で近似する。この近似曲線は、その横軸方向の位置iが平面画像Bの横軸(x軸)方向における各位置(画素後)の、平面画像Aに対する縮尺率を表している。このため、この近似曲線から求められる横軸方向の画素毎の縮尺率が求められ、記憶される。
 ステップS3: 次いで、求めた曲線C(x,y)に直交する複数の法線N(x)がそれぞれ演算される(図13参照)。法線の長さは例えば制御点の上側に50ピクセル(画素)、下側に400ピクセル(画素)を持つ。法線N(x)は、
    N(x)=[f(x,y0),f(x,y1),…,f(x,ym-1)],
    ただし、y~ym-1:法線上のy座標の値、xa0<x<xa4
である。
 ステップS3: 次いで、求めた複数の法線N(x)が横方向、すなわちx軸方向に一直線にマッピングする。この結果、一方の平面画像Aに対する大局的レジストレーション後の平面画像fa:
    fa=[N(xa0)N(xa1+1)…N(xa4)]
が得られる(図14参照)。なお、他方の平面画像Bについても同様に大局的レジストレーションが実行され、平面画像fbが同様に得られる(図14参照)。
 ステップS3: さらに、既に求めている位置毎の縮尺率に合わせて、一方の平面画像fbをその横軸(x軸)方向で伸縮させる。
 ステップS3: 横軸方向に伸縮させた平面画像fbを位置毎の縮尺率で縦軸(y軸)方向にも伸縮させる。このステップS3、S3の処理を経て、平面画像fbが縮尺調整されて、最終的な大局的レジストレーションが施された平面画像gbが生成される(図14参照)。
 (局所的レジストレーション)
 さらに、大局的レジストレーションに続いて、局所的レジストレーションが実行される。この局所的レジストレーションは、大局的レジストレーション後の一方の平面画像faと縦横の縮尺調整を含む大局的レジストレーション後の他方の平面画像gbとの間で実行される。この局所的レジストレーションも画像プロセッサ35により実行されるもので、その詳細をステップS4~ステップS4(図7参照)に示す。
 ステップS4:まず、画像プロセッサ35は、オペレータとの間のインターラクティブな操作に応じて、一方の平面画像faにメッシュα(u,v)(例えばu=1,2,…、15;v=1,3,3)が区切り、この各メッシュα(u,v)を固定ROIとして設定するとともに(図15参照)、各ROIの特定の位置を基準点として記憶しておく。この基準点は例えば3行のROI列に対して、1行目のROIについては上端中央の点、2行目のROIについてはROIの中心点、及び3行目のROIについては下端中央の点の位置である(図17(A)参照)。
 ステップS4:次いで、画像プロセッサ35により、一方の平面画像faに設定した各ROIが他方の平面画像gbのどの位置(領域)に対応するか、その平面画像gbに設定した探索領域の中を移動しながら正規化相互相関(ZNCC:Zero-mean Normalized Cross-Correlation)RZNCCを繰返し演算する(図16参照)。この正規化相互相関RZNCCは次式により求められる。
Figure JPOXMLDOC01-appb-M000001
ただし、この式において、N=テンプレートの高さ、M=テンプレートの幅である。
 この正規化相互相関RZNCCは-1~+1の範囲の値を採り、RZNCC=1のとき、一方の平面画像faに設定したROIの画像と他方の平面画像gb上で探索した領域の画像とが完全に一致していることを意味する。
 なお、対応する位置を見つける際に正規化相互相関を用いないで、位相限定相関などの基本的な2次元画像のレジストレーション手法を活用して対応点を求めることも、演算量が増えるものの、可能である。
 他方の平面画像gに設定する探索領域は、一方の平面画像faに設定するROI毎に、そのROIに対応する領域が存在する可能性が高いエリアとして設定される。これは他方の平面画像gの全体を探索する場合には演算量が増えるので、これを抑制するために一定サイズの探索領域が設定される。例えば、ROIのサイズが100×110画素であるとすると、探索領域のサイズは160×190画素である。これらROI及び探索領域のサイズは、対象とする画像の内容によって決めればよい。
 このステップにおいて、一方の平面画像fa上のROI毎に正規化相互相関RZNCCの値が最も高い領域が決まり、その一方の平面画像fa上で設定していた基準点に対応する点が他方の平面画像gbに設定される。この設定が各ROIに対して繰り返される。これを例えば図17(B)の黒丸で示す。
 この正規化相互相関RZNCCの値=一定値以上(例えば0.9以上)一定値以上であれば、そのROIと探索領域内の今回演算した領域(ROIと同一サイズの領域)とが十分にマッチングしているものと看做すことができる。
 これに対し、RZNCC=一定値未満であれば、相関の度合いが低過ぎてマッチングが十分でないと判断される。この場合、画像プロセッサ35は、その設定した領域は無効であると判断し、有効な両隣の領域の移動量を一次補間して、その無効と判断された領域の平面画像gb上の位置情報を得る。
 ステップS4:次いで、画像プロセッサ35により、他方の平面画像gb上で見つけられ対応点に基づいて、画素値の整列、すなわち再配置が行われる。これにより、図17(C)に示すように、再配置された平面画像hbが生成される。
 (差分情報の取得・表示)
 上述のようにレジストレーションが終わると、ステップS5にて、画像プロセッサ35により、差分データD(i,j)が
    D(i,j)=log{Ar(i,j)/Br(i,j)}
に基づいて演算される。ここで、Ar(i,j)は一方の平面画像faの各画素値を示し、Br(i,j)は他方の平面画像hbの各画素値を示す。
 さらに、この差分データD(i,j)に基づく差分画像Cが表示器36により表示される。この表示例を図18に示す。同図に示すように、差分画像Cは、撮像時期t1~t2の間に変化した情報Taを描出する。
 以上、本実施形態に係るパノラマ撮像装置によれば、CPUなどのハードウェアに要求される演算能力はより少なくて済みながらも、撮像対象の同一の撮像部位の時間的な変化に関する情報を提供することができる。
 具体的には、う蝕や歯槽膿漏の経時的な変化を評価することができる。インプラント治療の埋設物の埋設跡の経時的な変化を追跡できる。さらに、歯根部の病巣を感度良く描出できる。さらに、歯列を支える骨の侵食の具合を感度良く、かつ定量的に把握することができる。一方、従来のパノラマ画像の欠点であった側方歯の重なり部分のう蝕などをも検出することができるし、そのう蝕などの病変が重なり部分のどちらの歯に存在しているかという情報をも、オートフォーカスを行う際に用いた断層位置情報により提供することができる。
 この差分処理は、医師や検査技師にとって診断上極めて有効な情報を与える。例えば、装置と読影者との間ではインターラクティブに読影を進めることができる。このため、現時点の治療のみならず、歯の定期健康診断など予防医学の面でも果たす役割は大きい。
 (変形例)
 本発明に係る画像処理装置及び画像処理方法は、必ずしも上述した実施形態に限定されるものではなく、以下に記した変形例のように、様々な形態に展開することができる。
 (第1の変形例)
 第1の変形例は、前述した局所的レジストレーションにおけるステップS4にて演算する正規化相互相関RZNCCの対象領域の設定の仕方に関する。この例を図19~図20を参照して説明する。
 画像プロセッサ35は、画素サイズが異なる3種類の大中小のROI:ROI、ROI,ROIを用いて図19に示すように3段階の絞込み型の探索を行う。大ROIは画素サイズが例えば100×110画素であり、中ROIは画素サイズが例えば50×55画素であり、小ROIは画素サイズが例えば25×28画素である。
 まず、大きなROIを用いて一方の平面画像faを分割する。その上で、他方の平面画像gbにそのROIに応じた領域を設定しながら、前述した正規化相互相関RZNCCに依るマッチングが最も良い領域を探索する(ステップS4A)。この探索を一方の平面画像faを分割した複数のROIそれぞれについて実行する。この探索時に、平面画像gb上で探索領域を限定してもよい。
 次いで、画像プロセッサ35は、中ROIを用いて一方の平面画像faを分割する。その上で、他方の平面画像gb上であって、上記大ROIにより最もマッチングが良いとして探索された領域の近傍(その領域の内側、端部、或いは端部を超えた部分)でそのROIに応じた領域を設定しながら、前述した正規化相互相関RZNCCに依るマッチングが最も良い領域を探索する(ステップS4B)。この探索を一方の平面画像faを分割した複数のROIそれぞれについて実行する。
 次いで、画像プロセッサ35は、小ROIを用いて一方の平面画像faを分割する。その上で、他方の平面画像gb上であって、上記中ROIにより最もマッチングが良いとして探索された領域の近傍(その領域の内側、端部、或いは端部を超えた部分)でそのROIに応じた領域を設定しながら、前述した正規化相互相関RZNCCに依るマッチングが最も良い領域を探索する(ステップS4C)。この探索を一方の平面画像faを分割した複数のROIそれぞれについて実行する。
 この結果、ステップS4Cにおいて小ROISで探索された領域に基づいて、一方の平面画像fa上で設定していた基準点に対応する点が他方の平面画像gbに設定される。この後の処理は前述したものと同様である。
 この第1の変形例の場合も、前述した実施形態の画像処理と同等の作用効果を得ることができる。加えて、ROIのサイズを徐々に小さくしてマッチング度の高い領域を絞り込むため、比較対象の2つの平面画像の間のマッチングの精度をより一層向上させる。
 なお、ROIのサイズ変更は、大ROI及び小ROIの2種類を使うものでもよいし、4種類以上のサイズのROIを使用してもよい。
 (第2の変形例)
 第2の変形例は、経時的な変化情報を抽出する対象となるパノラマ画像の数に関する。前述した実施形態では、3Dオートフォーカス画像の経時的な変化を抽出する対象を2つの3Dオートフォーカス画像としたが、異なる3つの時期に撮像された3つ以上の3Dオートフォーカス画像を対象としてもよい。その場合には、最初に第1、第2の3Dオートフォーカス画像間で経時変化を抽出し、次いで、第2、第3の3Dオートフォーカス画像間で経時変化を抽出する。これにより、撮像時期が第2、第3の時期への変化する経時変化情報が得られる。
 (第3の変形例)
 第3の変形例は、変化情報を含む画像の提示の仕方に関する。
 歯科医は、通常、図10に示すように、歯列が湾曲して描出されるパノラマ画像を見ながら読影することが多い。つまり、そのような湾曲した歯列のパノラマ画像の読影に一番慣れているとも言える。
 そこで、画像プロセッサ35は、歯科医が歯列直線型の差分画像Cから歯列湾曲型の差分画像Ccurveを希望する場合(図21、ステップS21)、前記対応点の位置関係の情報に基づいて、歯列直線型の差分画像Cの画素データを歯列湾曲型の差分画像Ccurveの画素データに逆配置する(ステップS22)。さらに、この差分画像Ccurveを図22に示すように表示器36に表示する(ステップS23)。
 これにより、歯科医は見慣れた歯列湾曲型の画像を見て読影をすることができるので、歯科医の労力軽減に繋がる。
 また、見方を変えれば、歯列直線型の画像に変換する行為、ならびに、レジストレーションを正確に行う行為は、個人別に歯列を毎回正規化して配置することを意味し、別の視点で画像の特徴を抽出する際も、その抽出アルゴリズムを簡素化出来る可能性があり、応用範囲が広いと言える。
 (第4の変形例)
 また、前述した実施形態によれば、差分による変化情報を抽出する対象である2つの3Dオートフォーカス画像IM,IMはそのまま前述したようにサブトラクション処理に付した。しかし、第4の変形例として、サブトラクション処理の前処理として、2つの3Dオートフォーカス画像IM,IMを3D空間で事前に粗く位置合わせをし、この後、サブトラクション処理に付してもよい。
 (第5の変形例)
 また、第5の変形例として、前述の画像装置及び画像処理方法を、レジストレーションだけで実施するように変形させてもよい。つまり、前述した実施形態の例で言えば、画像プロセッサ35が行う図7の手順において、ステップS5の処理を実行しないで、その前までのレジストレーション、つまり正規化した2枚の平面画像fa及び平面画像gbを得ることである。これにより得られた、レジストレーションされた画像(2枚の平面画像fa及び平面画像gbの何れか一方または両方)を例えば表示器36に表示させる(図23、ステップS10)。なお、図23においてステップS1~S4は図7のものと同一の処理である。
 (第6の変形例)
 さらに、第6の変形例を図24に示す。前述したレジストレーションを繰り返すことで、2枚以上の平面画像を得ることができ、それらの平面画像の差異情報から歯列の歯周病の検出なども可能になる。レジストレーションにより複数の平面画像の位置は互いに高精度に正規化されているので、それらの画像の同一位置に設定したROIは被検体の同一部位を高精度に指し示している。このため、それらの複数のROIの部位の相互間で、相関値、X線光子数(カウント値)の変化情報、ビームハードニングの変化情報などを、差異情報として容易に得る(図24、ステップS20)。この差異情報は例えば表示器36を介して読影者に提示される(図24、ステップS21)。なお、図24においてステップS1~S4は図7のものと同一の処理である。
 この差異情報から病状の変化を知ることができる。つまり、本発明で言う、レジストレーション後の差異情報には、前述した差分に限られず、様々な変化情報が含まれる。
 (第7の変形例)
 第7の変形例を図25及び図26に示す。この変形例は、本発明に係るレジストレーションに依る正規化の効果を有効に利用する一つの手法に関する。具体的には、歯の輪郭をより鮮明に抽出して、その輪郭部分により正確にROI(関心領域)を設定する手法である。
 歯の輪郭部分に発生する代表的な炎症として歯周病(歯肉炎、歯周炎)が知られている。歯周病はかなり進行している場合、目視観察や従来のパノラマ撮影でも判る。しかし、歯肉炎になりそうかどうかという炎症発生以前の状態を見極めることは、歯槽骨や歯根膜の内部物質の状態が判らない限り、かなり難しい。つまり、歯のセメント質、歯根膜、歯肉、歯槽骨を構成している物質の同化具合を見極めることが必要である。そのためには、より高精度にそれらの部分にそれぞれROIを設定し、その各ROI内の局所的な物質を同定することが求められる。通常、パノラマ画像における歯と歯肉(歯槽骨)との境界部分は目視では判り難い。
 そこで、本変形例では、前述のレジストレーションされた画像を使って、上述した境界部分をより鮮明化させる。これにより、例えば歯周病の予知及び検出のために、ROIをより高精度に設定することができるようにする。
 図25に示すフローチャートは画像プロセッサ35により実行されるもので、ステップS1~S4までの処理は図7のものと同一である。レジストレーションが終わると、画像プロセッサ35は2枚の平面画像fa,hbのうちの一方の画像(図26(A)参照)に対してROI設定のための前処理を行う(ステップS30)。具体的には、図26(B)に示すように、歯根膜の厚さ程度(例えば500μm)に相当する分だけ画素(例えば3画素)を左右何れかにずらして画素値を差分する。これにより歯の輪郭が明瞭になる(図26(C)参照)。
 この状態で、読影者は歯の輪郭部分に例えば3つの矩形状のROI:ROIn1,ROIn2,ROIn3を設定する(ステップS31:図26(D)参照)。このとき、歯の輪郭はより明瞭になっているので、歯肉(歯槽骨)、歯根膜、セメント質それぞれの部分にROI:ROIn1,ROIn2,ROIn3を位置精度良く設定することができる。
 次に、このROIの部分の物質を同定する(ステップS32)。この同定は公知の手法を用いてもよい。また、物質のX線に対する吸収情報と物質によるX線のビームハードニング情報とから成る散布図を用いてもよい。
 この変形例によれば、歯周病などの炎症を早期に予知及び検出するためのROIの位置をより高精度に設定できるので、かかる予知及び検出の精度も上がる。また、本発明に係るレジストレーションをより有効に活用できる。
 なお、上述した第1~第7の変形例は互いに適宜に組み合わせて実施することができる。
 (第2の実施形態)
 次に、図27及び図28を参照して、本発明の第2の実施形態を説明する。本実施形態において、第1の実施形態に記載のものと同一又は同等の構成要素及び処理には同一符号を用いて、その説明を省略する。
 この第2の実施形態に係る画像処理は、第1の実施形態で説明した大局的レジストレーションをより高精度に行うものである。そのため、本実施形態に係る大局的レジストレーションは、前述した複数の制御点a~aに加えて、複数の補助点を使用することを特徴とする。
 図27に示すように、画像プロセッサ35は、その大局的レジストレーションにおいて、オペレータとの間でインターラクティブに歯列に沿った5つの制御点a~aに加えて、4つの補助点α~αを設定する(ステップS40:図28(A)参照)。
 このうち、5つの制御点a~aは上下の歯列の間であって、かつ、上側の歯列の指定された歯それぞれの下端部の幅方向のほぼ中心部に置かれる。この5つの制御点a~aのうち、両端の制御点a、aは前から7番目又は8番目の左右の第三大臼歯それぞれの下端中央に設定される。これに対応して、補助点α~αのうち、両端の補助点α、αも第三大臼歯の根本部に設定される。
 また、5つの制御点a~aのうち、左右それぞれの2番目の2つの制御点a、aは前から3番目の左右の犬歯に対して同様に設定される。4つの補助点α~αのうちの真ん中の2つの補助点α、αも犬歯に対して同様に設定される。5つの制御点a~aのうちの真ん中の制御点aは、歯列のほぼ中央に設定される。
 ここで、補助点を使用する理由は、通常、奥歯の歪は前歯のそれよりも大きいので、奥歯のレジストレーションをより正確に行うことで、全体のレジストレーションの精度を上げるためである。このため、両端の制御点a、a及び補助点α、αは一番奥の歯に設定すればよいのであって、第三大臼歯が無い場合には第二大臼歯であってもよい。これが無い場合には第一大臼歯であってもよい。また、4つの補助点α~αのうち、補助点を設定する意味合いから、奥歯に設定する左右両端の補助点α、αの設定は不可欠である。しかし、場合によっては、犬歯に設定する中央部の2つの補助点α、αは設定しなくてもよい。なお、補助点と制御点のペアは同一の歯に設定することが望ましい。
 次に、画像プロセッサ35は、第1の実施形態における処理と同様に、5つの制御点a~aが描く湾曲線をラグランジュ曲線によって近似し(図28(B)参照)、その湾曲線が直線化されるように(図28(C)参照)画素を移動させることで画像を変形させる(ステップS41)。次いで、画像プロセッサ35は、点α´、α´、α´及びα´で示す如く、近似された直線Lstと点a,αを結ぶ直線Ln1,点a,αを結ぶ直線Ln2,点a,αを結ぶ直線Ln3,及び、点a,αを結ぶ直線Ln4とがそれぞれ直交するように(図28(C)参照)、画素を移動させることで画像を変形させる(ステップS42)。なお、上述した画像変形の処理において、制御点及び補助点以外の各点(画素)の移動量及び移動方向、それらの制御点及び補助点の移動に伴う移動量から内挿によって決められる。
 上述した処理を経た各平面画像A(B)は、第1の実施例で説明したと同様に縮尺率に応じて処理に付され(ステップS3~S3)、差分画像が生成される。なお、この第2の実施形態におけるステップS3~S3で対象とする線は、既に真っ直ぐに変形された直線Lstである(図28(C)参照)。
 勿論、下側の歯列を中心に観察する場合は、下側の歯の根元部に前述したと同様に設定される。
 その他の構成及び処理は第1の実施形態のものと同一又は同等である。このため、この実施形態によれば、第1の実施形態で得られた作用効果のほか、補助点α~α(又は補助点α、α)を使用することによる独特の作用効果も得られる。つまり、制御点a~aだけを使用する場合に比べて、左右の歯の先端から根本部まで精度良く位置合わせをすることができる。したがって、レジストレーションの位置精度も更に向上し、差分情報の信頼性もより一層高まる。
 なお、上述した実施形態及び変形では、処理の対象が歯列である場合を説明したが、そのような対象は顎部の他の部位であってもよい。また、そのような対象は、被検体の間節など、他の部位であってもよい。
1 画像処理装置を機能的に一体に搭載した歯科用のパノラマ撮像装置
3 コンソール
31 X線管
32 検出器
33 コントローラ
34 第1の記憶部
35 画像プロセッサ
36 表示器
37 入力器
40 ROM

Claims (10)

  1.  X線撮影装置によって、X線が被検体に照射され、当該被検体を透過した前記X線の透過量を示すデータが検出され、且つ、このデータに基づいて作成された、2つの時点の2枚の平面画像A,Bの間の差異情報を得る画像処理装置において、
     前記2つの平面画像A,Bの両者において夫々指定した位置から決定される曲線に基づいて当該2つの平面画像A,Bそれぞれの全体を、同平面画像A,B上にそれぞれ設定した前記対応点が直線を成しかつ水平方向で一致するようにその直線上での位置ごとの伸縮率を変えながらレジストレーション処理した2枚の平面画像fa,gbをそれぞれ作成する第1のレジストレーション手段と、
     前記第1のレジストレーション手段により作成された前記一方の平面画像faを成す複数の局所領域が、夫々、前記他方の平面画像gbのどの領域にマッチングするのか当該他方の平面画像gbを探索するとともに、当該マッチングした領域の画像を再配置した平面画像hbを作成する第2のレジストレーション手段と、
     この第2のレジストレーション手段により作成された平面画像hbと前記第1のレジストレーション手段で作成された前記一方の平面画像faとの間で差異情報を演算する差異演算手段と、
     を備えたことを特徴とする画像処理装置。
  2.  前記第1のレジストレーション手段は、
     前記2枚の平面画像A,Bの両者において夫々、オペレータとの間でインターラクティブに前記位置を複数、指定する位置指定手段と、
     この位置指定手段を介して指定された前記複数の位置を結ぶ前記曲線を決定する曲線決定手段と、
     この曲線決定手段により決定された前記曲線上の複数の位置において当該曲線に直交する複数の法線を演算する法線演算手段と、
     この法線演算手段により演算された前記複数の法線を直線上に伸縮率を変えながら並べる直線化手段と、を備えたことを特徴とする請求項1に記載の画像処理装置。
  3.  前記第1のレジストレーション手段は、前記2枚の平面画像fa,fbのうちの一方の平面画像fbの横軸方向の位置毎の縦軸方向の大きさを、他方の平面画像faの横軸方向の位置毎の縦軸方向の大きさに合わせるスケーリングを行って縦軸方向の大きさが調整された前記他方の平面画像gbを得るスケーリング手段を含む、ことを特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記第2のレジストレーション手段は、前記一方の平面画像faを画素サイズの異なる複数種のROIで順次分割し、当該一方の平面画像fa上の当該複数種のROIが前記他方の平面画像gb上のどの局所部分にマッチングするか、当該ROIで分割された領域毎に且つ当該ROIの種類毎に、探索する手段である、ことを特徴とする請求項1~3の何れか一項に記載の画像処理装置。
  5.  前記差異演算手段により演算された前記差異情報をモニタに表示する第1の表示手段を備えたことを特徴とする請求項1~4の何れか一項に記載の画像処理装置。
  6.  前記差異演算手段により演算された前記差異情報を、前記第1のレジストレーション手段によりレジストレーションされる前の平面画像A,Bが呈していた座標系に変換する差異情報変換手段と、
     この差異情報変換手段により変換された前記差異情報を前記モニタに表示させる第2の表示手段と、を備えたことを特徴とする請求項1~5の何れか一項に記載の画像処理装置。
  7.  前記第2の表示手段は、前記2枚の平面画像A,Bの何れか一方又は両方に重畳して前記モニタに表示する手段である、ことを特徴とする請求項6に記載の画像処理装置。
  8.  前記X線撮影装置は、
     前記X線を放出する放射線放出源と、
     前記X線が入射したときに当該X線に対応したデジタル電気量の2次元データをフレーム単位で出力するX線検出器と、
     前記X線放出源と前記X線検出器の対、当該X線検出器、又は、対象物の何れか一方を他方に対して移動させる移動手段と、
     前記移動手段により前記X線放出源と前記X線検出器の対、当該X線検出器、又は、前記対象物の何れか一方を他方に対して相対的に移動させている間に、前記X線検出器から出力される前記データをフレーム単位で収集するデータ収集手段と、
     前記データ収集手段により前記2つの時点において同一対象の同一撮像部位に対して収集された前記データを用いて、前記対象物の撮像部位の焦点を最適化し、かつ、当該撮像部位の実際の位置及び形状を反映させた3次元最適焦点画像から所望の同一断面について前記2つの時点毎に前記平面画像をそれぞれ作成する画像作成手段と、を備えた、
     ことを特徴とする請求項1~7の何れか一方に記載の画像処理装置。
  9.  前記X線検出器は、前記X線が有するエネルギを予め定めた複数のエネルギ領域別に、且つ、当該X線を粒子として検出する光子計数型の検出器である、ことを特徴とする請求項1~8の何れか一項に記載の画像処理装置。
  10.  X線撮影装置によって、X線が被検体に照射され、当該被検体を透過した前記X線の透過量を示すデータが検出され、且つ、このデータに基づいて作成された、2つの時点の2枚の平面画像A,Bの間の差異情報を得る画像処理方法において、
     前記2つの平面画像A,Bの両者において夫々指定した位置から決定される曲線に基づいて当該2つの平面画像A,Bそれぞれの全体を、同平面画像A,B上にそれぞれ設定した前記対応点が直線を成しかつ水平方向で一致するように直線上での位置ごとの伸縮率を変えながらレジストレーション処理した2枚の平面画像fa,gbをそれぞれ作成し、
     この作成された前記一方の平面画像faを成す複数の局所領域が、夫々、前記他方の平面画像gbのどの領域にマッチングするのか当該他方の平面画像gbを探索するとともに、当該マッチングした領域の画像を再配置した平面画像hbを作成し、
     この作成された平面画像hbと前記作成された前記一方の平面画像faとの間で差異情報を演算し、
     この差異情報を提示する、
     ことを特徴とする画像処理方法。
PCT/JP2012/075159 2011-09-28 2012-09-28 画像処理装置及び画像処理方法 WO2013047788A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/128,717 US8891845B2 (en) 2011-09-28 2012-09-28 Image processing apparatus and image processing method
JP2013536445A JP6080766B2 (ja) 2011-09-28 2012-09-28 画像処理装置及び画像処理方法
EP12835473.5A EP2762078B1 (en) 2011-09-28 2012-09-28 Image processor and image processing method
KR1020137029944A KR20140067972A (ko) 2011-09-28 2012-09-28 화상처리장치 및 화상처리방법
CN201280022281.XA CN103607951B (zh) 2011-09-28 2012-09-28 图像处理装置及图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011212543 2011-09-28
JP2011-212543 2011-09-28

Publications (1)

Publication Number Publication Date
WO2013047788A1 true WO2013047788A1 (ja) 2013-04-04

Family

ID=47995812

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/075159 WO2013047788A1 (ja) 2011-09-28 2012-09-28 画像処理装置及び画像処理方法

Country Status (6)

Country Link
US (1) US8891845B2 (ja)
EP (1) EP2762078B1 (ja)
JP (1) JP6080766B2 (ja)
KR (1) KR20140067972A (ja)
CN (1) CN103607951B (ja)
WO (1) WO2013047788A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014181889A1 (ja) * 2013-05-10 2014-11-13 株式会社テレシステムズ X線パノラマ・ct撮影を利用した物質同定装置及び物質同定方法
CN105451660A (zh) * 2013-07-19 2016-03-30 Axion日本株式会社 全景图像摄影装置及该装置中所使用的图像诊断方法
JP2017035173A (ja) * 2015-08-07 2017-02-16 株式会社吉田製作所 歯牙解析装置およびそのプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2810602A4 (en) * 2012-02-02 2015-06-17 Hitachi Aloka Medical Ltd DIAGNOSTIC APPARATUS FOR MEDICAL IMAGES AND METHOD FOR SETTING A SPECIFIC REGION THEREFOR
US20130301799A1 (en) * 2012-05-14 2013-11-14 Samsung Electronics Co., Ltd. X-ray imaging apparatus and control method therefor
CN104812305B (zh) * 2012-12-27 2018-03-30 东芝医疗系统株式会社 X射线ct装置以及控制方法
CN105073010B (zh) * 2013-04-04 2018-04-03 东芝医疗系统株式会社 X射线计算机断层摄影装置
JP6257916B2 (ja) * 2013-04-26 2018-01-10 東芝メディカルシステムズ株式会社 光検出装置、放射線検出装置、放射線分析装置及び光検出方法
EP2871496B1 (en) 2013-11-12 2020-01-01 Samsung Electronics Co., Ltd Radiation detector and computed tomography apparatus using the same
KR102285553B1 (ko) 2014-07-29 2021-08-05 주식회사 바텍 2차원 단층 영상 촬영장치 및 그 방법
US10159450B2 (en) * 2014-10-01 2018-12-25 Toshiba Medical Systems Corporation X-ray CT apparatus including a photon-counting detector, and an image processing apparatus and an image processing method for correcting detection signals detected by the photon-counting detector
DE102014223802A1 (de) 2014-11-21 2016-05-25 Sirona Dental Systems Gmbh Verfahren und Vorrichtung zur Bereitstellung von zwei digitalen Panoramaschichtbildern
KR20170119676A (ko) * 2015-02-27 2017-10-27 트로피 Cbct 이미징 디바이스를 위한 교합 블록
CN105982685A (zh) * 2015-03-03 2016-10-05 东芝医疗系统株式会社 医学图像处理装置和方法、医学图像诊断装置和方法
JP6740216B2 (ja) * 2015-04-20 2020-08-12 株式会社ジョブ X線検査用のデータ処理装置及びデータ処理方法、並びに、その装置を搭載したx線検査装置
US10098595B2 (en) * 2015-08-06 2018-10-16 Texas Instruments Incorporated Low power photon counting system
KR101892144B1 (ko) 2015-10-26 2018-08-28 주식회사 바텍 엑스선 영상 촬영장치
US10151845B1 (en) 2017-08-02 2018-12-11 Texas Instruments Incorporated Configurable analog-to-digital converter and processing for photon counting
US10024979B1 (en) 2017-11-01 2018-07-17 Texas Instruments Incorporated Photon counting with coincidence detection
US11071514B2 (en) * 2018-11-16 2021-07-27 Varex Imaging Corporation Imaging system with energy sensing and method for operation
CN113260880A (zh) * 2019-01-10 2021-08-13 深圳帧观德芯科技有限公司 半导体辐射检测器
US10890674B2 (en) 2019-01-15 2021-01-12 Texas Instruments Incorporated Dynamic noise shaping in a photon counting system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069369A (ja) 1998-08-19 2000-03-03 Fuji Photo Film Co Ltd エネルギーサブトラクション画像形成装置
JP2004325183A (ja) 2003-04-23 2004-11-18 M & C:Kk 放射線検出方法、放射線検出器、及び、この検出器を搭載した放射線撮像システム
JP2006101926A (ja) 2004-09-30 2006-04-20 M & C:Kk 放射線検出装置、放射線画像診断装置、及び放射線画像の生成方法
JP2007068554A (ja) * 2005-09-02 2007-03-22 Fujifilm Corp 位置合せ装置、位置合せ方法およびそのプログラム
JP2009146178A (ja) * 2007-12-14 2009-07-02 Hitachi Medical Computer Systems Inc 医用画像診断支援装置及び医用画像診断支援プログラム
JP2009268641A (ja) * 2008-05-02 2009-11-19 Eiko Kosuge 歯科x線画像の照合システム及び歯科x線画像の照合方法
WO2011013771A1 (ja) 2009-07-30 2011-02-03 株式会社テレシステムズ 放射線撮像装置及び放射線による撮像方法
WO2011016508A1 (ja) 2009-08-05 2011-02-10 株式会社テレシステムズ 放射線撮像装置及び放射線による撮像方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4054402B2 (ja) * 1997-04-25 2008-02-27 株式会社東芝 X線断層撮影装置
JP2897772B1 (ja) * 1998-06-01 1999-05-31 日本電気株式会社 画像位置合わせ方法、画像位置合わせ装置及び記録媒体
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
EP1324695B1 (en) * 2000-10-11 2011-07-13 ImaTx, Inc. Methods and devices for analysis of x-ray images
JP4345426B2 (ja) * 2003-10-07 2009-10-14 ソニー株式会社 画像照合方法、プログラム、および画像照合装置
JP4613313B2 (ja) * 2005-04-01 2011-01-19 国立大学法人 東京大学 画像処理システムおよび画像処理プログラム
US8194946B2 (en) 2005-07-28 2012-06-05 Fujifilm Corporation Aligning apparatus, aligning method, and the program
JP2007102734A (ja) * 2005-10-07 2007-04-19 Konami Digital Entertainment:Kk 画像処理装置、画像処理方法及びプログラム
JP5322548B2 (ja) * 2008-09-17 2013-10-23 株式会社東芝 X線ct装置、医用画像処理装置および医用画像処理プログラム
JP5366577B2 (ja) * 2009-02-04 2013-12-11 株式会社東芝 医用画像処理装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069369A (ja) 1998-08-19 2000-03-03 Fuji Photo Film Co Ltd エネルギーサブトラクション画像形成装置
JP2004325183A (ja) 2003-04-23 2004-11-18 M & C:Kk 放射線検出方法、放射線検出器、及び、この検出器を搭載した放射線撮像システム
JP2006101926A (ja) 2004-09-30 2006-04-20 M & C:Kk 放射線検出装置、放射線画像診断装置、及び放射線画像の生成方法
JP2007068554A (ja) * 2005-09-02 2007-03-22 Fujifilm Corp 位置合せ装置、位置合せ方法およびそのプログラム
JP2009146178A (ja) * 2007-12-14 2009-07-02 Hitachi Medical Computer Systems Inc 医用画像診断支援装置及び医用画像診断支援プログラム
JP2009268641A (ja) * 2008-05-02 2009-11-19 Eiko Kosuge 歯科x線画像の照合システム及び歯科x線画像の照合方法
WO2011013771A1 (ja) 2009-07-30 2011-02-03 株式会社テレシステムズ 放射線撮像装置及び放射線による撮像方法
WO2011016508A1 (ja) 2009-08-05 2011-02-10 株式会社テレシステムズ 放射線撮像装置及び放射線による撮像方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOICHI ITO ET AL.: "Palm recognition algorithm using phase-limited correlation method", IMAGE RECOGNITION/INTERPRETATION SYMPOSIUM (MIRU 2006, July 2006 (2006-07-01)
See also references of EP2762078A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014181889A1 (ja) * 2013-05-10 2014-11-13 株式会社テレシステムズ X線パノラマ・ct撮影を利用した物質同定装置及び物質同定方法
CN105451660A (zh) * 2013-07-19 2016-03-30 Axion日本株式会社 全景图像摄影装置及该装置中所使用的图像诊断方法
CN105451660B (zh) * 2013-07-19 2020-08-21 Axion 日本株式会社 全景图像摄影装置及该装置中所使用的图像诊断方法
JP2017035173A (ja) * 2015-08-07 2017-02-16 株式会社吉田製作所 歯牙解析装置およびそのプログラム

Also Published As

Publication number Publication date
EP2762078A4 (en) 2015-06-03
CN103607951A (zh) 2014-02-26
JPWO2013047788A1 (ja) 2015-03-30
EP2762078A1 (en) 2014-08-06
JP6080766B2 (ja) 2017-02-15
EP2762078B1 (en) 2017-03-29
KR20140067972A (ko) 2014-06-05
US20140193768A1 (en) 2014-07-10
CN103607951B (zh) 2016-08-24
US8891845B2 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
JP6080766B2 (ja) 画像処理装置及び画像処理方法
US20230371804A1 (en) Dental imaging with photon-counting detector
US10335098B2 (en) Panoramic imaging apparatus and diagnostic imaging method in same apparatus
JP6007386B2 (ja) 放射線撮像用のデータ処理装置
Nair et al. Digital and advanced imaging in endodontics: a review
JP5942099B2 (ja) 物質同定装置及び撮像システムの作動方法
JP5696305B2 (ja) 放射線撮像装置及び放射線による撮像方法
US7460637B2 (en) High spatial resolution X-ray computed tomography (CT) method and system
Zhang et al. The detection accuracies for proximal caries by cone-beam computerized tomography, film, and phosphor plates
WO2014181889A1 (ja) X線パノラマ・ct撮影を利用した物質同定装置及び物質同定方法
US20150004558A1 (en) Dental imaging with photon-counting detector
WO2014126189A1 (ja) X線撮像装置及びx線撮像方法
EP3977935A1 (en) Data processing device and data processing method for processing x-ray detection data and x-ray inspection apparatus provided with device and method
EP3574839A1 (en) Dental imaging with photon-counting detector
Dhake et al. A Survey on Dental Disease Detection Based on Deep Learning Algorithm Performance using Various Radiographs
Sethi et al. Two dimensional versus three-dimensional imaging in endodontics—an updated
Chitralekha et al. Cone‑beam Computed Tomography: Three‑dimensional Imaging in Periodontal Diagnosis
US20160203621A1 (en) Medical diagnostic imaging apparatus, image processing apparatus and image processing method
JP4371636B2 (ja) 核医学診断装置
Nirola et al. Advances In The Radiographic Diagnostic Techniques In Periodontics.
Hari et al. Cone-Beam Computed tomography as a tool in endodontic detection and diagnosis
Mohanty et al. BASIC OF CONEBEAM COMPUTED TOMOGRAPHY (CBCT): A REVIEW
Khattak et al. ROLE OF CONE BEAM COMPUTED TOMOGRAPHY IN ENDODONTICS: A SYSTEMATIC REVIEW

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12835473

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013536445

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20137029944

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2012835473

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012835473

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14128717

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE