JP2008173447A - Enhancement of visual perception through dynamic cue - Google Patents

Enhancement of visual perception through dynamic cue Download PDF

Info

Publication number
JP2008173447A
JP2008173447A JP2007228990A JP2007228990A JP2008173447A JP 2008173447 A JP2008173447 A JP 2008173447A JP 2007228990 A JP2007228990 A JP 2007228990A JP 2007228990 A JP2007228990 A JP 2007228990A JP 2008173447 A JP2008173447 A JP 2008173447A
Authority
JP
Japan
Prior art keywords
function
pixel
motion
initial luminance
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007228990A
Other languages
Japanese (ja)
Inventor
Pablo Irarrazaval
パブロ・イラーラザバル
Johannes Plett
ヨハネス・プレット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PONTIFICIA UNIV CATOLICA DE CH
Pontificia Universidad Catolica de Chile
Original Assignee
PONTIFICIA UNIV CATOLICA DE CH
Pontificia Universidad Catolica de Chile
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PONTIFICIA UNIV CATOLICA DE CH, Pontificia Universidad Catolica de Chile filed Critical PONTIFICIA UNIV CATOLICA DE CH
Publication of JP2008173447A publication Critical patent/JP2008173447A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a radiologist to take combination of any visual sensitivity into consideration so as to detect a pattern or a subject which conventionally has not been conspicuous. <P>SOLUTION: A method to convert static images into dynamic images is provided to assist detection, and is provided to identify pathology and abnormality of a patient based on the images. The system receives as input the static images, and generates as output the dynamic images including dynamic cues. The dynamic cue is generated by the action of a motion function and an observation function. Sequence of an image frame is produced to make the dynamic cues discernable on the images when examined. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像を読み取るシステムと方法に関し、特に、知覚を増大させるために、そしてこの結果観測者が以前には目立たなかったパターンまたは対象物(objects)を検出できるようにするために用いられるべき全ての視覚的感度の組み合わせを考慮に入れて、静止画像に動的キューを加えるシステムと方法に関する。   The present invention relates to a system and method for reading an image, particularly used to increase perception and thus allow an observer to detect previously inconspicuous patterns or objects. The present invention relates to a system and method for adding dynamic cues to still images, taking into account all possible visual sensitivity combinations.

今日では、画像は、人的観測が用いられている領域では力強いツールである。そのような領域には、医療用画像選別、工業用選別、軍事用調査、天文学的観測などがある。例えば、医療用画像選別では、病巣の検出と正しい解釈は、正しい診断にとってはトッププライオリティであるが、しかし残念にもこれはいつも容易に成し遂げられるとは限らない。   Today, images are a powerful tool in areas where human observation is used. Such areas include medical image sorting, industrial sorting, military research, astronomical observations, and the like. For example, in medical image sorting, lesion detection and correct interpretation is top priority for correct diagnosis, but unfortunately this is not always easy to achieve.

医療用画像は、診断にとって最重要でありうる非常に小さいそしてほとんど検出できない対象物またはパターンをしばしば含んでいる。これらの種類の対象物の検出のための知覚補助のための設計は、現在研究が進められている研究領域である。たいていの研究は、静止画像処理に焦点を合わせており、最終成果は、病巣の考えられ得る位置の画像または地図であることを意味している。一般に、病巣は、病巣とその周囲の間の色、輝度、構造または表面の感じ(texture)の違いによって検出することができる。   Medical images often contain very small and barely detectable objects or patterns that can be paramount to diagnosis. Perceptual assist design for the detection of these types of objects is an area of research currently underway. Most studies focus on still image processing, and the end result is an image or map of possible locations of the lesion. In general, lesions can be detected by differences in color, brightness, structure, or surface texture between the lesion and its surroundings.

人的視覚システム(HVS)は、知覚と画像処理にとって非常に強力なツールである。その中で、それの基本的な能力は、形状分割(figure segmentation)、位置決め(registration)そして静止画像の処理である。それはまた効率的なパターン認識に非常によく適応されている。文献:Brian A. Wandell, 「Foundation of Vision」, Sinauer Aassociates Inc.,マサチューセッツ州サンダランド, 1995年5月。文献:Bruno A. Olshausen, David J. Field 「Sparse coding with an overcomplete basis set: A Strategy employed by v1?」, Vision Research, 37:3311-3225, 1997年。HVSのこの見地は、画像解析が、すなわち、正常パターンと異常パターンを区別する人間の能力に主として基づいているということである。   The human vision system (HVS) is a very powerful tool for perception and image processing. Among them, its basic capabilities are figure segmentation, registration and still image processing. It is also very well adapted for efficient pattern recognition. Literature: Brian A. Wandell, “Foundation of Vision”, Sinauer Aassociates Inc., Sunderland, Massachusetts, May 1995. Literature: Bruno A. Olshausen, David J. Field "Sparse coding with an overcomplete basis set: A Strategy employed by v1?", Vision Research, 37: 3311-3225, 1997. This aspect of HVS is that image analysis is based primarily on the human ability to distinguish between normal and abnormal patterns.

HVSにとって、たとえ不可能でないとしても、ある一定のパターンまたは対象物の検出は非常に複雑であり、さまざまなケースがある。これは、医療用画像のケースでしばしばある。そこでは、対象物のものとほとんど同じ色の、または表面の感じの背景の前面にある対象物を見つけることが必要である。この種類の画像の代表的な例は、微小な石灰沈着のある乳房造影写真である。非常に小さい石灰沈着は、乳房組織のカルシウムの小さい沈殿物であり、もし悪性のクラスターにあれば乳がんを示している。不幸にも、乳房造影写真は、低いコントラストである傾向があり、そして微小な石灰沈着は非常に小さい大きさであり、検査放射線医師にとって、それらを検出し、正しい診断をすることをむしろ難しくしている。文献:Edward A. Sickles, 「Breast calcifications: Mammographic evaluation 」,Radiology, 160(2):289-293,1986年8月。   For HVS, even if not impossible, the detection of certain patterns or objects is very complex and there are various cases. This is often the case for medical images. There it is necessary to find an object that is almost the same color as that of the object or in front of the background of the surface feeling. A typical example of this type of image is a mammogram with minute calcifications. Very small calcifications are small deposits of calcium in breast tissue, indicating breast cancer if present in a malignant cluster. Unfortunately, mammograms tend to be low contrast, and minute calcifications are very small in size, making it rather difficult for laboratory radiologists to detect them and make a correct diagnosis. ing. Literature: Edward A. Sickles, “Breast calcifications: Mammographic evaluation”, Radiology, 160 (2): 289-293, August 1986.

乳がんの正しい検出率の向上は、最重要である。米国では毎年212,000件より多い乳がんの新しい症例が診断されている。1992年から2002年には、発生率は毎年0.4%上がった。最近では、乳がんは、女性のがん死亡の2番目に最も多い共通原因であり、肺がんだけが上回っている。米国では、33人の女性のうち約1人は、乳がんで死亡しており、総計すると毎年40,000人より多い。文献:L.A.G.Ries, M.P.Eisner, C.L.Kosary, B.F.Hankey, B.A.Millar, L.Clegg, A.Mariotto, E.J.Feuer and B.K.Edwards, editors, 「SEER Cancer Statistics Review 1975-2002」,メリーランド州ベセズダ, 2004年11月, 米国がん学会。   Improving the correct detection rate of breast cancer is paramount. In the United States, more than 212,000 new cases of breast cancer are diagnosed each year. From 1992 to 2002, the incidence increased by 0.4% annually. Recently, breast cancer is the second most common cause of cancer death in women, surpassing only lung cancer. In the United States, about 1 in 33 women die from breast cancer, totaling more than 40,000 annually. Literature: LAGRies, MPEisner, CLKosary, BFHankey, BAMillar, L.Clegg, A. Mariotto, EJFeuer and BKEdwards, editors, “SEER Cancer Statistics Review 1975-2002”, Bethesda, Maryland, 2004 November, American Cancer Society.

もし早い段階で検出されるならば、乳がんは治療可能であり、したがって死亡率は大幅に減る。このことは、微小な石灰沈着と腫瘍の早期検出を腫瘍学での極めて重要な仕事にしている。検出が早ければ早いほど、治療と生存の見込みがよくなる。Riesおよびその他の者の仕事は、乳がんの発生が増大しているにもかかわらず、乳がんの死亡率は低下したということを示している。実際は、乳がんの死亡率は1992年から2002年に毎年2.4%下がった。これは、大部分は悪性の塊の早期検出と良い治療の結果である。検出方法が向上し続ければ、がんの死亡率は下がり続けるであろう。がんの症例の本当の総計は、検出アルゴリズムのわずかな向上でさえ毎年、数百または、数千の人命を救うことを可能にする。   If detected at an early stage, breast cancer is treatable and thus mortality is greatly reduced. This makes microcalcifications and early detection of tumors an extremely important task in oncology. The sooner the detection, the better the chances of treatment and survival. The work of Ries and others has shown that breast cancer mortality has declined despite the increasing incidence of breast cancer. In fact, breast cancer mortality dropped 2.4% annually from 1992 to 2002. This is largely the result of early detection and good treatment of malignant masses. If detection methods continue to improve, cancer mortality will continue to decline. The true sum of cancer cases allows even a slight improvement in detection algorithms to save hundreds or thousands of lives each year.

本発明の目的は、検出を支援し、画像の対象物と特徴を識別することである。この方法は、生物学上のHVSに適応され、これは、移動対象物の知覚に上手く適しており、伝統的な振幅感度から離れて、運動感度とちらつき感度の存在を説明するのに上手く適している。このように、人工的な運動、および/またはちらつき(動的キュー)の静止画への挿入は、知覚を増加させるために、そしてこの結果、観測者が以前には目立たなかったパターンまたは対象物(objects)を検出できるようにするために用いられるべき全ての視覚的感度の組み合わせを考慮に入れることを可能にする。   It is an object of the present invention to assist in detection and to identify image objects and features. This method is adapted to biological HVS, which is well suited to the perception of moving objects, and well suited to explain the existence of motion sensitivity and flicker sensitivity, away from traditional amplitude sensitivity ing. Thus, artificial movements and / or the insertion of flicker (dynamic cues) into still images is to increase perception and, as a result, patterns or objects that the observer has not previously noticed allows to take into account all visual sensitivity combinations that should be used to be able to detect (objects).

本発明のさらに別の目的は、医療用画像の知覚において放射線医師、そして一般の医療医師を支援することである。人工的な運動、および/またはちらつき(動的キュー)の静止画への挿入は、知覚を増加させるために、そしてこの結果、放射線医師が以前には目立たなかったパターンまたは対象物(objects)を検出できるようにするために用いられるべき全ての視覚的感度の組み合わせを考慮に入れることができる。   Yet another object of the present invention is to assist radiologists and general medical physicians in the perception of medical images. Artificial motion and / or the insertion of flicker (dynamic cues) into a still image is to increase perception and, as a result, patterns or objects that the radiologist has not previously noticed. All visual sensitivity combinations that should be used to be detectable can be taken into account.

本発明は、検出を支援し、そして画像の対象物と特徴を識別するために、静止画像を映画に変形する方法を提供する。この映画で、観測者は、静止画像の特徴に依存する運動またはちらつきを見る。本システムは、入力として静止画像を受信し、出力として動的キューを含んでいる映画を生成する。2種類の動的キューが利用される。空間的運動(画素はある流儀で動き回る)と固定された位置での輝度の時間的変化(場所の変更はなくただ輝度のみ)である。運動の定義は、画素に影響を及ぼすような種類の運動を数学的に表現する「運動関数」によって記述される。運動の特質(どのくらい動くか、どんな周波数であるか)は、「観測関数」と呼んでいるものを通したデータに依存する。   The present invention provides a method for transforming a still image into a movie to aid in detection and to identify image objects and features. In this movie, the observer sees movement or flicker that depends on the features of the still image. The system receives a still image as input and generates a movie that includes a dynamic cue as output. Two types of dynamic queues are used. Spatial motion (pixels move around in a certain manner) and temporal change in luminance at a fixed position (no change in location, only luminance). The definition of motion is described by a “motion function” that mathematically represents a type of motion that affects the pixel. The nature of the movement (how much it moves and what frequency) depends on the data through what is called the “observation function”.

本発明の方法は、その技術的長所ゆえに、しかしまた診断に責任を取らなければならない人間の観測者を取り替えないゆえに、放射線医学によく適している。本方法はまた、人間の観測者が雇用されている他の領域で役に立つことができる。これらの領域のいくつかは、工業的選別、軍事用調査、天文学的観測などである。   The method of the present invention is well suited for radiology because of its technical advantages, but also because it does not replace the human observer who must be responsible for the diagnosis. The method can also be useful in other areas where human observers are employed. Some of these areas are industrial sorting, military research, astronomical observations, etc.

本発明のより完全な理解と付随した利点と特徴は、添付図面とともに考察すれば、以下の詳細な記載を参照することにより容易に分かるであろう。   A more complete understanding of the present invention and the attendant advantages and features will be readily apparent from the following detailed description when considered in conjunction with the accompanying drawings.

本発明は、検出を支援し、そして画像の対象物と特徴を識別するために、静止画像を映画に変形する方法を提供する。この映画で、観測者は、静止画像の特徴に依存する運動またはちらつきを見る。本システムは、入力として静止画像を受信し、出力として動的キューを含んでいる映画を生成する。   The present invention provides a method for transforming a still image into a movie to aid in detection and to identify image objects and features. In this movie, the observer sees movement or flicker that depends on the features of the still image. The system receives a still image as input and generates a movie that includes a dynamic cue as output.

2種類の動的キューが利用される。空間的運動(画素はある流儀で動き回る)と固定された位置での輝度の時間的変化(場所の変更はなくただ輝度のみ)である。空間的運動は、その名前が意味するように、フレームの至る所の空間で移動している対象物として理解することができる。本発明では、移動されるべき対象物は、画素(画像の要素)である。時間的運動の概念は、空間で移動するのではなく、時間でその輝度を変化させる画素に当てはまる。  Two types of dynamic queues are used. Spatial motion (pixels move around in a certain manner) and temporal change in luminance at a fixed position (no change in location, only luminance). Spatial motion, as its name implies, can be understood as an object moving in space throughout the frame. In the present invention, the object to be moved is a pixel (image element). The concept of temporal motion applies to pixels that change their brightness over time rather than moving in space.

運動の定義は、画素に影響を及ぼすような種類の運動を数学的に表現する「運動関数(motion function)」によって記述される。運動の特質(どのくらい動くか、どんな周波数であるか)は、「観測関数(observation function)」と呼んでいるものを通したデータに依存する。   The definition of motion is described by a “motion function” that mathematically represents the type of motion that affects the pixel. The nature of the movement (how much it moves and what frequency) depends on the data through what is called the “observation function”.

この人工的な運動を画像に挿入する例示的な方法は、2つの関数に基づいている。運動関数fmovと観測関数fobsである。運動関数は運動のタイプを指定し、一方観測関数はこの運動に対するパラメータを設定する。 An exemplary method for inserting this artificial motion into an image is based on two functions. The motion function f mov and the observation function f obs . The motion function specifies the type of motion, while the observation function sets parameters for this motion.

[運動関数]
m×nの画素の単一のグレースケール静止画像Iから、m×nの画素のk=0…pの画像のシーケンス(sequence)を生成することが可能であり、kth番目の画像の座標(i,j)に対応する画素の輝度Iは、次のように表現される。
[Motion function]
From a single grayscale still image I 0 of m × n pixels, it is possible to generate a sequence of k = 0... p images of m × n pixels, of the k th th image. The luminance I of the pixel corresponding to the coordinates (i, j) is expressed as follows.

(i,j)=fmov(fobs(I(i,j)),k) 式(1)
(i,j) は、フレームのシーケンスを通して画素の運動を定義する運動関数fmov()に依存するm×nの画素の離散的シーケンスである。この運動は、空間的または時間的であることができ、画素がその空間的位置を変えることができ、または時間でその輝度を変えることができるということを示している。図1は、各画素の最初の輝度に依存する一定の振幅と周波数で、すべての画素の横向きの振動として空間的運動の可能な構成を示している。このように、淡い画素は、一方の側から他方の側へ、より濃い画素より速く振動する。
I k (i, j) = f mov (f obs (I 0 (i, j)), k) Equation (1)
I k (i, j) is a discrete sequence of m × n pixels that depends on a motion function f mov () that defines the motion of the pixels through the sequence of frames. This movement can be spatial or temporal, indicating that a pixel can change its spatial position or its brightness in time. FIG. 1 shows a possible configuration of spatial movement as a lateral vibration of all pixels with a constant amplitude and frequency depending on the initial luminance of each pixel. Thus, light pixels vibrate faster from one side to the other than darker pixels.

空間的運動を挿入する別の方法は、図2に示されているように、脈動する運動である。横方向の振動については、脈拍の周波数は、各画素の最初の輝度に依存する。   Another way to insert spatial motion is a pulsating motion, as shown in FIG. For lateral vibration, the pulse frequency depends on the initial brightness of each pixel.

時間的運動については、1例は、変化の周波数が画素の最初の輝度に依存するすべての画素に対する輝度の正弦曲線を描く変化であろう。再び、当初淡い輝度の画素は、当初濃い画素より早く変化するであろう。1例が図3で示されており、可能な構成に対する式は、式(2)で与えられる。   For temporal motion, one example would be a change that draws a luminance sinusoid for all pixels whose frequency of change depends on the initial luminance of the pixel. Again, the initially lighter pixels will change faster than the originally darker pixels. An example is shown in FIG. 3, and the equation for a possible configuration is given by equation (2).

(i,j)=fDC(I(i,j))+a・COS(2πfk・fobs(I(i,j))+φ) 式(2)
式(2)で、I(i,j)は、kth番目のフレームの座標(i,j)の画素の輝度を表わしている。fDC()は全ての画素に対するオフセットである。aは正弦波の振幅である。fはその基本周波数である。fobs()は観測関数であり、φは位相変移である。これらの構成のおのおのについて、位置の変化の速度(振動する運動)、大きさ(脈動する運動)、またはグレーレベル(脈動する輝度)は、異なる関数にしたがって変えることができる。例えば、式(2)は、正弦波を構成する。運動関数は、どんな周期的または振動する関数であってもよく、例えば次のものを含むことができる。

Figure 2008173447
I k (i, j) = f DC (I 0 (i, j)) + a · COS (2πf 0 k · f obs (I 0 (i, j)) + φ) Equation (2)
In equation (2), I k (i, j) represents the luminance of the pixel at the coordinate (i, j) of the k th th frame. f DC () is an offset for all pixels. a is the amplitude of the sine wave. f 0 is the fundamental frequency. f obs () is an observation function, and φ is a phase shift. For each of these configurations, the rate of change of position (oscillating motion), magnitude (pulsating motion), or gray level (pulsating brightness) can be varied according to different functions. For example, Equation (2) constitutes a sine wave. The motion function may be any periodic or oscillating function and may include, for example:
Figure 2008173447

[観測関数]
観測関数fobsは、運動が正確に基づいているもの定義する。運動関数は、各画素で何が行われるべきかを定義するが、観測関数は画素それ自体、すなわち、シーケンスを生成するために使用される画素の最初の輝度を定義する。fobsは輝度であり、fobs(I)=Iであれば、シーケンスの至る所、運動は最初の画像の画素の輝度に依存するという特別のケースである。fobs(I)=(d/dx)Iのとき、運動は最初の画像の最初の導関数(derivative)にしたがって変わる。他方、さらに複雑な構成もまた次に示されるように可能である。

Figure 2008173447
[Observation function]
The observation function f obs defines what the motion is based on exactly. The motion function defines what should be done at each pixel, while the observation function defines the pixel itself, ie, the initial luminance of the pixels used to generate the sequence. f obs is the brightness, and if f obs (I 0 ) = I 0 , the special case is that throughout the sequence the motion depends on the brightness of the pixels of the first image. When f obs (I 0 ) = (d / dx) I 0 , the motion changes according to the first derivative of the first image. On the other hand, more complex configurations are also possible, as will be shown next.
Figure 2008173447

[結果]
正弦曲線を描いて変化する脈動する輝度運動関数および観測関数としての識別行列の場合には、そのようなシーケンスに対する式は、k=0…pでは、I(i,j)=αI(i,j)+(1−α)COS(2πfk・I(i,j))である。ここで、画素の輝度は、0(黒)から1(しろ)まで変動する。最初のフレームは、k=0だから、最初の画像のα倍である。k=1…pでは、フレームは、各画素が最初の輝度に比例してその輝度を正弦曲線を描いて変化させる行列のシーケンスを算出する。
[result]
In the case of a pulsating luminance motion function that varies in a sinusoidal manner and an identification matrix as an observation function, the equation for such a sequence is I k (i, j) = αI 0 ( i, j) + (1-α) COS (2πf 0 k · I 0 (i, j)). Here, the luminance of the pixel varies from 0 (black) to 1 (white). The first frame is α times the first image because k = 0. For k = 1... p, the frame calculates a sequence of matrices in which each pixel changes its luminance in a sinusoidal manner in proportion to the initial luminance.

画像の全配列を映画シーケンスとして見ることによって、異なった最初の輝度を持つ2つの画素間に生成される位相変移で、対象物を検出することが可能である。これらの2つ隣接した画素が最初の静止画像の輝度に比較的小さな差異しか持っていないとしても、そのうちに位相変移は、映画ではっきり見えるようになる。これの1例が図4で示されており、この比例した正弦曲線を描くアプローチを用いて、最小の輝度差異を持つ2つの画素が非常に短時間での180°の位相変移を示している。   By viewing the entire array of images as a movie sequence, it is possible to detect an object with a phase shift generated between two pixels with different initial brightness. Even though these two adjacent pixels have a relatively small difference in the brightness of the original still image, the phase shift will become clearly visible in the movie. An example of this is shown in FIG. 4, using this proportional sinusoidal approach, two pixels with the smallest luminance difference show a 180 ° phase shift in a very short time. .

図5は、最初の輝度に比例した周波数で、輝度を白から黒に正弦曲線を描いて変化させている同じ2つの画素を示している。両方の画素は、わずかに異なったグレーの輝度で出発しており、知覚的には見えない。短い間の後に、位相変移は一方の画素が他方より早いサイクルを表すようにはっきりしてくる。   FIG. 5 shows the same two pixels changing their luminance from white to black with a sinusoid at a frequency proportional to the initial luminance. Both pixels start with a slightly different gray intensity and are not perceptually visible. After a short time, the phase shift becomes clear so that one pixel represents a faster cycle than the other.

ある面では、これは、活動的に変化する画像コントラストに似ており、それだけで、医療用画像処理で多く用いられるツールである。ここで、観察者には、正弦曲線を描いて変化するコントラストをもった画像のシーケンスが差し出される。   In one aspect, it resembles an actively changing image contrast and as such is a tool often used in medical image processing. Here, the observer is presented with a sequence of images having a contrast that varies in a sinusoidal manner.

実画像へのこの効果を説明するために、医療用画像のシーケンスが提供される。医療用画像のシーケンスは、実例となる目的だけのために提供され、本発明の技術的範囲または権限を制限することを意図していない。実医療用画像のシーケンスは、正弦曲線を描いて脈動する輝度運動関数と鮮明でないマスク観測関数を用いて、図6に示されている静止デジタル乳房造影写真から生成される30個のフレームからなっている。図7(A)−7(I)は、このシーケンスの例を示している。   To illustrate this effect on real images, a sequence of medical images is provided. The sequence of medical images is provided for illustrative purposes only and is not intended to limit the scope or authority of the present invention. The sequence of real medical images consists of 30 frames generated from the static digital mammography picture shown in FIG. 6 using a sinusoidal pulsating luminance motion function and an unsharp mask observation function. ing. FIG. 7 (A) -7 (I) shows an example of this sequence.

ここに差し出されている乳房造影写真は、図7(A)に示されている最初の画像のわずかに目に見える中央右のセクションに、微小な石灰沈着の悪性クラスターを包含している。それにもかかわらず、その後のいくつかのフレームでは、それはかなり目に見えるようになる。この特別な例では、図7(F)に示されているように、これは、フレーム15に特に当てはまる。比較の目的のために、最初の画像とフレーム15が図8と図9にそれぞれ示されている。   The mammogram presented here includes a malignant cluster of microcalcifications in the slightly visible central right section of the first image shown in FIG. 7 (A). Nevertheless, in some subsequent frames, it becomes quite visible. In this particular example, this is especially true for the frame 15, as shown in FIG. For comparison purposes, the initial image and frame 15 are shown in FIGS. 8 and 9, respectively.

明らかに、悪性クラスターは、図9では、ずっと多く目に見え、それだけで、診断にたいへん役に立つ。しかし、向上した可視性に加えて、クラスターがほとんど目に見えない状態から非常に目に見える状態に迅速に循環するという事実は、クラスターに明滅する外観を与える。なにか明滅するものは、直接見なくとも非常に注意を引きやすいということが申し上げられる。このことの説明は、運動とちらつき感度の利用にある。振幅感度と中心視覚は、特定のポイントに集中するために用いられるゆえに、運動とちらつき感度は周辺視覚と組になって、広い視野を与え、運動するまたは明滅する対象物を検出するために主として用いられる。一度検出されると、中心視覚は、詳細な解析のために、これらの対象物に集中することができる。このアプローチは、動的キューの後ろの基本的なアイデアである。   Obviously, the malignant cluster is much more visible in FIG. 9, and that alone is very useful for diagnosis. However, in addition to improved visibility, the fact that the cluster rapidly circulates from a nearly invisible state to a very visible state gives the cluster a blinking appearance. It is said that something that blinks is very easy to draw attention without looking directly at. The explanation for this lies in the use of motion and flicker sensitivity. Because amplitude sensitivity and central vision are used to focus on a specific point, motion and flicker sensitivity pair with peripheral vision to give a wide field of view and mainly to detect moving or blinking objects Used. Once detected, central vision can be focused on these objects for detailed analysis. This approach is the basic idea behind dynamic queues.

[統計的解析]
動的キューのある診断とない診断を比較するために、観測者に1セットの静止乳房造影写真を一度差し出し、そして同じセットを一度差し出し、しかし動的キューによって支援されるテストが考案された。両方のケースで、観測者は、カテゴリ1(明確に存在しない)からカテゴリ5(明確に存在する)までの範囲で、そして各乳房造影写真の可能な位置で、微小な石灰沈着の存在の診断を出さなければならない。
[Statistical analysis]
In order to compare diagnoses with and without dynamic cues, a test was devised that offered the observer one set of static mammograms and the same set once, but supported by dynamic cues. In both cases, the observer diagnosed the presence of microcalcifications in the range from category 1 (not clearly present) to category 5 (clearly present) and at the possible location of each mammogram. Must be issued.

これらのテストの結果は、受信者動作特性(Receiver Operating Characteristics)(ROC)曲線技術を用いて解析された。文献:Charles E. Metsおよびその他の者,「Statistical comparison of two roc-curve estimates obtained from partially paired datasets」. Medical Decision Making, 18(1):110-121, 1998年1月−3月。この方法では、真の陽性断片(True Positive Fraction)(TPF)が、診断の全カテゴリをさっと通り、偽の陽性断片(False Positive Fraction)(FPT)に対してプロット(plot)される。コインをトスすることに相当する完全にランダムな診断は、0.5の曲線の下側の領域(AUC)を生むROCプロットの点(0,0)と点(1,1)をつなぐ斜線であろう。完全な診断は、点(0,0)と点(0,1)をつなぐ垂直線と点(0,1)から点(1,1)へ続いている水平線と矛盾しない関連ROC曲線を持つであろう。この曲線の下側の面積は1に等しい。中間のすべての他のテストは、おおよそ0.5と1の間のAUCを持つであろう。AUCが高ければ高いほどテストは良くなる。   The results of these tests were analyzed using the Receiver Operating Characteristics (ROC) curve technique. Literature: Charles E. Mets and others, “Statistical comparison of two roc-curve estimates obtained from partially paired datasets”. Medical Decision Making, 18 (1): 110-121, January-March 1998. In this method, a True Positive Fraction (TPF) is plotted through the entire category of diagnosis and plotted against a False Positive Fraction (FPT). A completely random diagnosis equivalent to tossing a coin is a diagonal line connecting the points (0,0) and (1,1) of the ROC plot that produces the lower area (AUC) of the 0.5 curve. I will. A complete diagnosis has an associated ROC curve consistent with the vertical line connecting point (0,0) and point (0,1) and the horizontal line continuing from point (0,1) to point (1,1). I will. The area under the curve is equal to 1. All other tests in the middle will have an AUC between approximately 0.5 and 1. The higher the AUC, the better the test.

乳房造影画像解析協会(MIAS)の乳房造影データベースから取り出された、1画像当たり640×640画素と970×970画素の間の解像度と、1画素当たり8ビットのグレーレベル解像度を持つ200ミクロンの画素エッジでデジタル化されたn=124の乳房造影写真のセットが準備された。文献:John Sucklingおよびその他の者, 「The mammographic image analysis society digital mammogram database」, Exerpta Medica. No.1069 International Congress, 375頁―378頁, 1994年。合計、微小な石灰沈着クラスターのある21のケースと103の正常ケースがある。微小な石灰沈着の可視性のさまざまな程度がそのセットに含まれているため、このデータベースは、臨床ケースの典型である。 200 micron pixels with a resolution between 640 x 640 pixels and 970 x 970 pixels per image and a gray level resolution of 8 bits per pixel, taken from the Mammography Image Analysis Association (MIAS) mammography database A set of n y = 124 mammograms digitized at the edge was prepared. Literature: John Suckling and others, “The mammographic image analysis society digital mammogram database”, Exerpta Medica. No. 1069 International Congress, pages 375-378, 1994. In total, there are 21 cases with tiny lime deposit clusters and 103 normal cases. This database is typical of clinical cases, as varying degrees of visibility of microcalcifications are included in the set.

このテストは、5人の放射線医師と5人の放射線医師でない者で行われた。結果の従法線にフィットしたROC曲線と連想AUC曲線のスコアは、Metzおよびその他の者によって提案されたROCKITプログラムを用いて計算された。代表平均を計算するために2つの異なる平均値算出技術が放射線医師と放射線医師でない者のデータセットの両方に用いられた。第1の技術は、単純な標準平均である。ここで、従法線にフィットした垂直インターセプトとスロープ値は平均され、曲線は結果の値から計算される。この方法は、結果を過大評価する傾向にあるが、それでも個々の結果の両極端の範囲内にある。   The test was conducted with 5 radiologists and 5 non-radiologists. Scores for ROC curves and associated AUC curves fitted to the resulting binormal were calculated using the ROCKIT program proposed by Metz and others. Two different average calculation techniques were used for both the radiologist and non-radiologist data sets to calculate the representative average. The first technique is a simple standard average. Here, the vertical intercept and slope values fitted to the binormal are averaged, and the curve is calculated from the resulting values. This method tends to overestimate the results but is still within the extremes of the individual results.

第2のそしておそらくさらに代表的な技術は、プール平均である。この平均は、放射線医師または放射線医師でない者の各グループに対して、一人が5×n=620のケースを解析しているかのように、グループの5人の参加者の全ての診断を結合することによって、そして結果のROC曲線を計算することによって得られる。文献:Vit Drga, 「The theory of Group Operating Characteristic Analysis in Discrimination Tasks」, PhD論文, ウェリントン州ビクトリア大学, ニュージーランド, 1999年。この方法は通常、結果を過小評価する傾向にあるが、両方のテストカテゴリを過小評価するゆえに、それでも比較の目的にはよく適している。 A second and possibly even more representative technique is pool average. This average combines all diagnoses of the five participants in the group as if one was analyzing the case of 5 × n y = 620 for each group of radiologists or non-radiologists And by calculating the resulting ROC curve. Literature: Vit Drga, “The theory of Group Operating Characteristic Analysis in Discrimination Tasks”, PhD paper, Victoria University, Wellington, New Zealand, 1999. This method usually tends to underestimate the results, but it is still well suited for comparison purposes because it underestimates both test categories.

放射線医師と放射線医師でない者のテストの結果のAUCスコアと曲線パラメータは、それらの平均値と一緒に表1と表2に載せている。

Figure 2008173447
The AUC score and curve parameters of the test results of the radiologist and non-radiologist are listed in Tables 1 and 2 along with their average values.
Figure 2008173447

見て分かるように、動的キューに支援された診断は、両方のグループのACUをかなり上昇させている。1の面積を持つ完全な診断と0.5の面積を持つ完全にランダムな診断を考慮すると、放射線医師でない者では、AUCが(0.91−0.806)/(1−0.5)=20.8%上昇し、一方放射線医師では(0.942−0.9)/(1−0.5)=8.4%上昇すると断定することができる。   As can be seen, diagnostics assisted by dynamic cues have significantly increased the ACU of both groups. Considering a complete diagnosis with an area of 1 and a completely random diagnosis with an area of 0.5, a non-radiologist has an AUC of (0.91-0.806) / (1-0.5) = 20.8%, while the radiologist can conclude that (0.942-0.9) / (1-0.5) = 8.4%.

一般に、乳房造影写真の微小な石灰沈着を選別するための個々のROCスコアは、0.75と0.95の間にある。文献:Xiao-Hua Zhou, Donna K. McClish, and Nancy A.Obuchowski, 「Statistical Metohds in Diagnosis Medicine, Wiley series Probability and statistics」, Wiley, 初版, 2002年7月。我々のテストで得られたスコアは、これらの代表的な範囲内に申し分なく入る。さらに、そのスコアは、それらの一般のスコアと比較し、動的キューを用いる分類に対して非常に良い結果を示している。

Figure 2008173447
In general, the individual ROC score for screening for microcalcifications in mammograms is between 0.75 and 0.95. Literature: Xiao-Hua Zhou, Donna K. McClish, and Nancy A. Obuchowski, "Statistical Metohds in Diagnosis Medicine, Wiley series Probability and statistics", Wiley, first edition, July 2002. The scores obtained from our tests are well within these typical ranges. In addition, the score shows very good results for classification using dynamic cues compared to their general score.
Figure 2008173447

両方のグループの平均ROC曲線は図10と図11で示されている。   The average ROC curves for both groups are shown in FIGS.

表1と表2は、専門家と非専門家の両方の診断における重要な向上を示している。放射線医師の標準可視化ツールとして完成され、臨床用に構成されるなら、放射線医療医師の8.4%の向上は、診断の向上の巨大な可能性を示している。これらのテストで、これらの医療医師が伝統的な静止乳房造影法解析の十分な経験を持っていたが、しかしこの種のアプリケーションで動的キューをかって見たことはなかったということもまた考慮しなければならない。テストの前に提供された全訓練は、動的キューを用いて検査する微小な石灰沈着のある4つの画像と、ない4つの画像からなる訓練セットであった。短い訓練にもかかわらず、結果はその実証できるものを作り出したということは、動的キューの潜在能力の明らかな兆候である。   Tables 1 and 2 show significant improvements in both expert and non-expert diagnosis. If completed as a standard visualization tool for radiologists and configured for clinical use, an 8.4% improvement in radiologists represents a huge potential for improved diagnosis. These tests also take into account that these medical doctors had sufficient experience with traditional static mammography analysis, but never seen dynamic cues in this type of application. Must. The total training provided prior to the test was a training set consisting of four images with and without microcalcifications that were examined using dynamic cues. Despite short training, the results produced something that was demonstrable, a clear indication of the potential of dynamic cues.

運動関数と観測関数、すなわち、時間的脈動する輝度運動関数と鮮明でないマスク観測関数は、例示的関数である。他の構成された運動関数は、図1に示されている横方向の振動する関数と、図2に示されている空間的脈動する関数を含むことができる。他の観測関数は、輝度行列とウェーブレットベース変換(wavelet based transformation)を含むことができる。ここでテストされた方法に基づいたウェーブレット変換は、Wangおよびその他の者によって提案されたさまざまなアルゴリズムに適合された。文献:Ted C. Wang and Nicolaos B. Karayiannis, 「Detection of microcalcifications in digital mammograms using wavelets」, IEEE Transactions on Medical Imaging, 17(4):498-509, 1988年8月。   The motion function and observation function, ie, the luminance motion function that pulsates in time and the mask observation function that is not sharp, are exemplary functions. Other configured motion functions may include the lateral oscillating function shown in FIG. 1 and the spatially pulsating function shown in FIG. Other observation functions can include a luminance matrix and a wavelet based transformation. Wavelet transforms based on the methods tested here have been adapted to various algorithms proposed by Wang and others. Literature: Ted C. Wang and Nicolaos B. Karayiannis, “Detection of microcalcifications in digital mammograms using wavelets”, IEEE Transactions on Medical Imaging, 17 (4): 498-509, August 1988.

動的キュー方法の強さは、伝統的な静止2次元脳関数を捨てずに、すでに提供されている高度に進化した人間の脳関数の利用にあるが、しかし画像解析のコンテキストを利用していないことにある。要するに、それは脳関数を利用しており、すべての哺乳動物は運動に備えて高度に訓練されている。   The strength of the dynamic cue method lies in the use of the highly evolved human brain functions already provided without throwing away traditional static two-dimensional brain functions, but using the context of image analysis. There is nothing. In short, it utilizes brain functions and all mammals are highly trained for movement.

図12は、本発明の方式を構成するために役立つコンピュータシステムのブロック図である。コンピュータシステムは、プロセッサ100のような1つ以上のプロセッサを含んでいる。プロセッサ100は、通信基盤(たとえば、通信バス、クロスオーバーバーまたはネットワーク)に接続されている。さまざまなソフトウェアの実施形態がこの例示的コンピュータシステムの点から記述される。この記述を読んだ後に、他のコンピュータシステムおよび/またはコンピュータアーキテクチャを用いて本発明をどのように構成するかは当業者に明らかになる。   FIG. 12 is a block diagram of a computer system useful for configuring the scheme of the present invention. The computer system includes one or more processors, such as processor 100. The processor 100 is connected to a communication infrastructure (for example, a communication bus, a crossover bar, or a network). Various software embodiments are described in terms of this exemplary computer system. After reading this description, it will become apparent to a person skilled in the art how to configure the invention using other computer systems and / or computer architectures.

コンピュータシステムは、図形、テキストそして他のデータをディスプレイ装置106で表示するために、通信基盤102から(または示されていないフレームバッファから)転送するディスプレイインタフェース104を含むことができる。コンピュータシステムはまた、主記憶装置108、なるべくならランダムアクセス記憶装置(RAM)を含み、そして補助記憶装置110も含んでいる。補助記憶装置110は、たとえば、ハードディスクドライブ112および/またはフロッピー(登録商標)ディスクドライブ、磁気テープドライブ、光ディスクドライブなどを意味する取外し可能記憶ドライブ114を含んでいる。取外し可能記憶ドライブ114は、当業者によく知られている方法で、取外し可能記憶装置116から読み込み、および/または書き込む。取外し可能記憶装置116は、フロッピーディスク、磁気テープ、光ディスクなどを意味するが、取外し可能記憶ドライブ114によって読み込み、および書き込みされる。認識されるように、取外し可能記憶装置116は、その中に記憶したコンピュータソフトウェアおよび/またはデータを有するコンピュータ利用可能な記憶媒体を含んでいる。   The computer system can include a display interface 104 that transfers graphics, text, and other data from the communications infrastructure 102 (or from a frame buffer not shown) for display on the display device 106. The computer system also includes a main storage device 108, preferably a random access storage device (RAM), and an auxiliary storage device 110. The auxiliary storage device 110 includes, for example, a hard disk drive 112 and / or a removable storage drive 114 meaning a floppy disk drive, magnetic tape drive, optical disk drive, and the like. Removable storage drive 114 reads from and / or writes to removable storage device 116 in a manner well known to those skilled in the art. Removable storage device 116 means a floppy disk, magnetic tape, optical disk, etc., but is read and written by removable storage drive 114. As will be appreciated, the removable storage device 116 includes a computer-usable storage medium having computer software and / or data stored therein.

代わりの実施形態では、補助記憶装置110は、コンピュータプログラムまたは他の命令をコンピュータシステムにロードすることのできる他の同様な手段を含む。そのような手段は、たとえば、取外し可能記憶装置118とインタフェース120を含んでいる。そのような手段の例は、プログラムカートリッジとカートリッジインタフェース(ビデオゲーム装置に見出されるような)、取外し可能メモリチップ(EPROMまたはPROMのような)と関連ソケット、そして他の取外し可能記憶装置118とソフトウェアとデータを取外し可能記憶装置118からコンピュータシステムに転送することのできるインタフェース120を含んでいる。   In an alternative embodiment, auxiliary storage device 110 includes other similar means by which computer programs or other instructions can be loaded into the computer system. Such means include, for example, a removable storage device 118 and an interface 120. Examples of such means include program cartridges and cartridge interfaces (as found in video game devices), removable memory chips (such as EPROM or PROM) and associated sockets, and other removable storage devices 118 and software. And an interface 120 through which data can be transferred from the removable storage device 118 to the computer system.

コンピュータシステムはまた、通信インタフェース122を含んでいる。通信インタフェース122は、ソフトウェアとデータをコンピュータシステムと外部装置の間で転送することを可能にする。通信インタフェース122の例は、モデム、ネットワークインタフェース(イーサネット(登録商標)カードのような)、通信ポート、PCMCIAスロットとカードなどを含んでいる。通信インタフェース122を経由して転送されたソフトウェアとデータは、通信インタフェース122によって受信することのできる、たとえば、電子的、電磁気的、光学的、または他の信号である信号の形式である。これらの信号は、通信パス(すなわちチャネル)124を経由して通信インタフェース122に提供される。このチャネル124は、信号を運び、電線またはケーブル、光ファイバー、電話線、セルラーフォンリンク、RFリンクおよび/または他の通信チャネルを用いて構成される。   The computer system also includes a communication interface 122. Communication interface 122 allows software and data to be transferred between the computer system and external devices. Examples of the communication interface 122 include a modem, a network interface (such as an Ethernet card), a communication port, a PCMCIA slot and a card, and the like. Software and data transferred via the communication interface 122 are in the form of signals that can be received by the communication interface 122, for example, electronic, electromagnetic, optical, or other signals. These signals are provided to the communication interface 122 via a communication path (or channel) 124. This channel 124 carries signals and is configured using wires or cables, optical fibers, telephone lines, cellular phone links, RF links and / or other communication channels.

本明細書では、用語、「コンピュータプログラム媒体」、「コンピュータ利用可能媒体」およ「コンピュータ読取り可能媒体」は、主記憶装置108と補助記憶装置110、取外し可能記憶ドライブ114、ハードディスクドライブ112にインストールされたハードディスク、そして信号のような媒体を普通引き合いに出すために用いられる。これらのコンピュータプログラム製品は、コンピュータシステムにソフトウェアを提供する手段である。コンピュータ読取り可能媒体は、コンピュータシステムがデータ、命令、メッセージまたはメッセージパケット、そしてコンピュータ読取り可能媒体からの他のコンピュータ読取り可能情報を読み込むことが出来るようにしている。コンピュータ読取り可能媒体は、たとえば、フロッピー、ROM、フラッシュメモリ、ディスクドライブメモリ、CD−ROMそして他の永久記憶装置のような不揮発性記憶装置を含んでいる。コンピュータ読取り可能媒体は、たとえば、コンピュータシステム間でデータやコンピュータ命令のような情報を運ぶのに役に立つ。さらに、コンピュータ読取り可能媒体は、コンピュータがそのようなコンピュータ読取り可能情報を読み込むことができるようにする有線ネットワークまたは無線ネットワークを含むネットワークリンクおよび/またはネットワークインタフェースのような
一時的ステート媒体(a transitory state medium)のコンピュータ読取り可能情報を含んでいる
コンピュータプログラム(コンピュータ制御ロジックとも呼ばれる)は、主記憶装置108および/または補助記憶装置122に記憶される。コンピュータプログラムはまた、通信インタフェース122を経由して受信される。そのようなコンピュータプログラムは、実行されると、コンピュータシステムがここに記述した本発明の特徴を実行できるようにする。特に、コンピュータプログラムは、実行されると、プロセッサ100がコンピュータシステムの特徴を実行できるようにする。それに応じて、そのようなコンピュータプログラムは、コンピュータシステムの制御装置を意味する。
As used herein, the terms “computer program medium”, “computer usable medium” and “computer readable medium” are installed on the main storage device 108 and the auxiliary storage device 110, the removable storage drive 114 and the hard disk drive 112 Used to get a standard inquiry, such as a hard disk and a signal. These computer program products are means for providing software to a computer system. A computer readable medium allows a computer system to read data, instructions, messages or message packets, and other computer readable information from a computer readable medium. Computer readable media include, for example, non-volatile storage devices such as floppy, ROM, flash memory, disk drive memory, CD-ROM and other permanent storage devices. Computer-readable media are useful, for example, in carrying information such as data and computer instructions between computer systems. In addition, a computer readable medium may be a transitory state medium such as a network link and / or network interface that includes a wired or wireless network that enables the computer to read such computer readable information. A computer program (also called computer control logic) containing medium) computer readable information is stored in main memory 108 and / or auxiliary memory 122. The computer program is also received via the communication interface 122. Such computer programs, when executed, enable the computer system to execute the features of the invention described herein. In particular, the computer program, when executed, enables the processor 100 to execute features of the computer system. Accordingly, such a computer program means a control device of a computer system.

ここに引用したすべて参考文献は、参照することによってそっくりそのまま明白に本明細書に取り入れられている。   All references cited herein are hereby expressly incorporated herein by reference in their entirety.

本発明が先に特に示され、記述されたものに制限されないということは、当業者に認識されるであろう。さらに、記載が上述したのとは反対のことでなければ、添付の図面のすべては一定の縮尺でないということが特筆されるべきである。本発明の技術的範囲と精神をたがえることなく、上述の技術に照らして、さまざまな変更、変化が可能である。   It will be appreciated by persons skilled in the art that the present invention is not limited to what has been particularly shown and described hereinabove. Furthermore, it should be noted that all of the accompanying drawings are not to scale unless the description is contrary to the above. Various modifications and changes can be made in light of the above-described technology without departing from the technical scope and spirit of the present invention.

横方向に振動する運動関数の略図。Schematic of a motion function that oscillates laterally. 脈動する運動関数の略図。Schematic of pulsating motion function. 脈動する輝度を有する時間的運動関数の略図。Schematic of temporal motion function with pulsating brightness. わずかに異なる輝度を有する2つの画素の位相変移のグラフ図。FIG. 5 is a graph of phase transitions of two pixels having slightly different brightness. わずかに異なる輝度を有する2つの画素の淡輝度位相変移を示す図。The figure which shows the light-intensity phase transition of two pixels which have a slightly different brightness | luminance. 例示的な乳房造影写真の画像。Exemplary mammographic image. 本発明の方法を用いて生成された図6の乳房造影写真のフレームのシーケンスを示す図。FIG. 7 shows a sequence of frames of the mammogram picture of FIG. 6 generated using the method of the present invention. 図6の乳房造影写真の拡大画像。The enlarged image of the mammography photograph of FIG. 図7(F)の生成されたフレームの拡大画像。FIG. 7F is an enlarged image of the generated frame. 放射線医師でない者に対するプール平均ROC曲線。Pool average ROC curve for non-radiologist. 放射線医師に対するプール平均ROC曲線。Pool average ROC curve for radiologist. 本発明の方法を構成するコンピュータシステムの略線図。FIG. 2 is a schematic diagram of a computer system constituting the method of the present invention.

Claims (20)

静止医療用画像を提供し
動的医療用画像を生成するために静止医療用画像に動的キューを追加し、
動的医療用画像中の動的キューを観測する処理を含んでいる医療用画像の読取り方法。
Add static cues to static medical images to provide static medical images and generate dynamic medical images,
A method for reading a medical image, comprising: observing a dynamic cue in the dynamic medical image.
静止画像に動的キューを追加する処理は、静止画像の少なくとも1つの画素に空間的運動を追加する処理を含んでいる請求項1記載の方法。   The method of claim 1, wherein adding a dynamic cue to a still image includes adding spatial motion to at least one pixel of the still image. 静止画像に動的キューを追加する処理は、ある期間にわたって静止画像の少なくとも1つの画素に時間的運動を追加する処理を含んでいる請求項1記載の方法。   The method of claim 1, wherein adding a dynamic cue to a still image includes adding temporal motion to at least one pixel of the still image over a period of time. 静止画像に動的キューを追加する処理は、
運動関数を定義し、
観測関数を定義する処理を含んでいる請求項1記載の方法。
The process of adding a dynamic queue to a still image is
Define the motion function,
The method of claim 1 including a process of defining an observation function.
前記運動関数は、静止画像の少なくとも1つの画素の運動を定義する請求項4記載の方法。   The method of claim 4, wherein the motion function defines a motion of at least one pixel of a still image. 前記運動関数は、正弦波関数、三角波関数、矩形波関数または鋸波関数である請求項5記載の方法。   The method according to claim 5, wherein the motion function is a sine wave function, a triangular wave function, a rectangular wave function, or a sawtooth wave function. 前記観測関数は、運動関数が作用する少なくとも1つの画素を定義する請求項5記載の方法。   6. The method of claim 5, wherein the observation function defines at least one pixel on which a motion function acts. 前記観測関数は、少なくとも1つの画素の最初の輝度を規定する請求項7記載の方法。   The method of claim 7, wherein the observation function defines an initial luminance of at least one pixel. 前記観測関数は、少なくとも1つの画素の最初の輝度の関数であるか、少なくとも1つの画素の最初の輝度の導関数であるか、少なくとも1つの画素の最初の輝度のキャニーフィルターであるか、少なくとも1つの画素の最初の輝度の鮮明でないマスク関数であるか、または少なくとも1つの画素の最初の輝度のウェーブレット変換である請求項8記載の方法。   The observation function is a function of an initial luminance of at least one pixel, a derivative of an initial luminance of at least one pixel, a canny filter of an initial luminance of at least one pixel, or at least 9. The method of claim 8, wherein the initial luminance of one pixel is an unsharp mask function or is a wavelet transform of the initial luminance of at least one pixel. 前記動的キューは、医療用画像中の病理と異常を識別するために用いられる請求項1記載の発明。   The invention according to claim 1, wherein the dynamic cue is used for identifying a pathology and an abnormality in a medical image. 静止画像を提供し、
運動関数を定義し、
観測関数を定義し、
動的画像を生成するために静止画像に運動関数と観測関数を適用する処理を含み、
前記運動関数は、静止画像中の少なくとも1つの画素の運動を定義し、前記観測関数は、運動関数が作用する少なくとも1つの画素を定義する静止画像に動的キューを追加する方法。
Provide still images,
Define the motion function,
Define the observation function,
Including the process of applying motion and observation functions to still images to generate dynamic images,
The motion function defines a motion of at least one pixel in a still image, and the observation function adds a dynamic cue to the still image defining at least one pixel on which the motion function acts.
前記運動関数は、周期的関数または振動関数である請求項11記載の方法。   The method according to claim 11, wherein the motion function is a periodic function or a vibration function. 前記観測関数は、少なくとも1つの画素の最初の輝度を定義する請求項11記載の方法。   The method of claim 11, wherein the observation function defines an initial luminance of at least one pixel. 前記観測関数は、少なくとも1つの画素の最初の輝度の関数であるか、少なくとも1つの画素の最初の輝度の導関数であるか、少なくとも1つの画素の最初の輝度のキャニーフィルターであるか、少なくとも1つの画素の最初の輝度の鮮明でないマスク関数であるか、または少なくとも1つの画素の最初の輝度のウェーブレット変換である請求項13記載の方法。   The observation function is a function of an initial luminance of at least one pixel, a derivative of an initial luminance of at least one pixel, a canny filter of an initial luminance of at least one pixel, or at least 14. The method of claim 13, wherein the initial luminance of one pixel is an unsharp mask function, or is a wavelet transform of the initial luminance of at least one pixel. 前記運動関数は、静止画像の少なくとも1つの画素に空間的運動を追加する請求項11記載の方法。   The method of claim 11, wherein the motion function adds spatial motion to at least one pixel of a still image. 前記運動関数は、ある期間にわたって静止画像の少なくとも1つの画素に時間的運動を追加する請求項11記載の方法。   The method of claim 11, wherein the motion function adds temporal motion to at least one pixel of a still image over a period of time. プロセッサ、主記憶装置、補助記憶装置、ディスプレイ、そして入力装置を含んでいるコンピュータシステムと、
コンピュータシステムに記憶された運動関数と、
コンピュータシステムに記憶された観測関数とを含んでおり、コンピュータシステムは、静止医療用画像を受信し、補助記憶装置に記憶するように構成されている静止医療用画像の読取りシステム。
A computer system including a processor, main storage, auxiliary storage, display, and input device;
A motion function stored in a computer system;
A stationary medical image reading system configured to receive a stationary medical image and store it in an auxiliary storage device.
前記観測関数は、静止医療用画像の少なくとも1つの画素を識別するためにプロセッサに構成されており、少なくとも1つの画素は、少なくとも1つの画素の最初の輝度の関数として識別される請求項17記載のシステム。   18. The observation function is configured in a processor to identify at least one pixel of a stationary medical image, and the at least one pixel is identified as a function of an initial luminance of at least one pixel. System. 前記運動関数は、少なくとも1つの画素に空間的または時間的運動を追加するためにコンピュータプロセッサに構成されている請求項18記載のシステム。   The system of claim 18, wherein the motion function is configured in a computer processor to add spatial or temporal motion to at least one pixel. 前記観測関数と前記運動関数は、静止医療用画像のフレームのシーケンスを生成ように構成され、ディスプレイは、運動が静止医療用画像に追加されるようにフレームのシーケンスを表示するように構成されており、運動は、静止医療用画像の病理と異常を識別するために用いられる請求項19記載の発明。   The observation function and the motion function are configured to generate a sequence of frames of a stationary medical image, and the display is configured to display the sequence of frames so that motion is added to the stationary medical image. The invention according to claim 19, wherein the movement is used for identifying a pathology and an abnormality in a still medical image.
JP2007228990A 2006-09-05 2007-09-04 Enhancement of visual perception through dynamic cue Pending JP2008173447A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/469,921 US20080056548A1 (en) 2006-09-05 2006-09-05 Enhancement of visual perception through dynamic cues

Publications (1)

Publication Number Publication Date
JP2008173447A true JP2008173447A (en) 2008-07-31

Family

ID=38830980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007228990A Pending JP2008173447A (en) 2006-09-05 2007-09-04 Enhancement of visual perception through dynamic cue

Country Status (3)

Country Link
US (1) US20080056548A1 (en)
EP (1) EP1898359A3 (en)
JP (1) JP2008173447A (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452599B2 (en) 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) * 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
US8237792B2 (en) * 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
US9691289B2 (en) * 2010-12-22 2017-06-27 Brightstar Learning Monotonous game-like task to promote effortless automatic recognition of sight words
EP2847749A1 (en) * 2012-05-09 2015-03-18 Koninklijke Philips N.V. Device and method for supporting a behavior change of a person
WO2013185787A1 (en) * 2012-06-15 2013-12-19 Imcube Labs Gmbh Apparatus and method for compositing an image from a number of visual objects
WO2014210430A1 (en) 2013-06-27 2014-12-31 Tractus Corporation Systems and methods for tissue mapping

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3380609B2 (en) * 1993-12-24 2003-02-24 コニカ株式会社 Radiation image field extraction device
JP2004255057A (en) * 2003-02-27 2004-09-16 Canon Inc Image processing apparatus
JP2004261300A (en) * 2003-02-28 2004-09-24 Konica Minolta Holdings Inc Medical image processor and display method of detection result of abnormal shadow candidate
JP2006500124A (en) * 2002-09-24 2006-01-05 イーストマン コダック カンパニー Method and system for reading medical images with a computer aided detection (CAD) guide

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5488952A (en) * 1982-02-24 1996-02-06 Schoolman Scientific Corp. Stereoscopically display three dimensional ultrasound imaging
US5040225A (en) * 1987-12-07 1991-08-13 Gdp, Inc. Image analysis method
US5287096A (en) * 1989-02-27 1994-02-15 Texas Instruments Incorporated Variable luminosity display system
US5845639A (en) * 1990-08-10 1998-12-08 Board Of Regents Of The University Of Washington Optical imaging methods
US5465718A (en) * 1990-08-10 1995-11-14 Hochman; Daryl Solid tumor, cortical function, and nerve tissue imaging methods and device
US5590268A (en) * 1993-03-31 1996-12-31 Kabushiki Kaisha Toshiba System and method for evaluating a workspace represented by a three-dimensional model
US5592085A (en) * 1994-10-19 1997-01-07 Mayo Foundation For Medical Education And Research MR imaging of synchronous spin motion and strain waves
US6037774A (en) * 1994-10-19 2000-03-14 Mayo Foundation For Medical Education And Research Inertial driver device for MR elastography
US5919139A (en) * 1997-12-19 1999-07-06 Diasonics Ultrasound Vibrational doppler ultrasonic imaging
US6549801B1 (en) * 1998-06-11 2003-04-15 The Regents Of The University Of California Phase-resolved optical coherence tomography and optical doppler tomography for imaging fluid flow in tissue with fast scanning speed and high velocity sensitivity
US6362850B1 (en) * 1998-08-04 2002-03-26 Flashpoint Technology, Inc. Interactive movie creation from one or more still images in a digital imaging device
US6112112A (en) * 1998-09-18 2000-08-29 Arch Development Corporation Method and system for the assessment of tumor extent in magnetic resonance images
US6283917B1 (en) * 1998-10-01 2001-09-04 Atl Ultrasound Ultrasonic diagnostic imaging system with blurring corrected spatial compounding
US6117081A (en) * 1998-10-01 2000-09-12 Atl Ultrasound, Inc. Method for correcting blurring of spatially compounded ultrasonic diagnostic images
US6277074B1 (en) * 1998-10-02 2001-08-21 University Of Kansas Medical Center Method and apparatus for motion estimation within biological tissue
US6068597A (en) * 1999-04-13 2000-05-30 Lin; Gregory Sharat Vibrational resonance ultrasonic Doppler spectrometer and imager
US6611274B1 (en) * 1999-10-12 2003-08-26 Microsoft Corporation System method, and computer program product for compositing true colors and intensity-maped colors into a frame buffer
US6511427B1 (en) * 2000-03-10 2003-01-28 Acuson Corporation System and method for assessing body-tissue properties using a medical ultrasound transducer probe with a body-tissue parameter measurement mechanism
US6583624B1 (en) * 2000-06-15 2003-06-24 Mayo Foundation For Medical Education Method for visualizing charged particle motion using magnetic resonance imaging
US6558324B1 (en) * 2000-11-22 2003-05-06 Siemens Medical Solutions, Inc., Usa System and method for strain image display
US6473634B1 (en) * 2000-11-22 2002-10-29 Koninklijke Philips Electronics N.V. Medical imaging at two temporal resolutions for tumor treatment planning
US20060079773A1 (en) * 2000-11-28 2006-04-13 Allez Physionix Limited Systems and methods for making non-invasive physiological assessments by detecting induced acoustic emissions
US6804384B2 (en) * 2001-06-12 2004-10-12 Mclean Hospital Corporation Color magnetic resonance imaging
US7117026B2 (en) * 2002-06-12 2006-10-03 Koninklijke Philips Electronics N.V. Physiological model based non-rigid image registration
JP3675796B2 (en) * 2002-08-05 2005-07-27 コーリンメディカルテクノロジー株式会社 Blood pressure measurement device
US6659953B1 (en) * 2002-09-20 2003-12-09 Acuson Corporation Morphing diagnostic ultrasound images for perfusion assessment
JP3932482B2 (en) * 2002-10-18 2007-06-20 株式会社日立メディコ Ultrasonic diagnostic equipment
AU2004203173A1 (en) * 2003-07-14 2005-02-03 Sunnybrook And Women's College And Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging
CA2457376C (en) * 2003-10-14 2015-09-15 The University Of British Columbia Method for imaging the mechanical properties of tissue
US20050228271A1 (en) * 2004-04-06 2005-10-13 Diebold Gerald G Differential x-ray acoustic imaging
US7555151B2 (en) * 2004-09-02 2009-06-30 Siemens Medical Solutions Usa, Inc. System and method for tracking anatomical structures in three dimensional images
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
US7627386B2 (en) * 2004-10-07 2009-12-01 Zonaire Medical Systems, Inc. Ultrasound imaging system parameter optimization via fuzzy logic
US7563228B2 (en) * 2005-01-24 2009-07-21 Siemens Medical Solutions Usa, Inc. Stereoscopic three or four dimensional ultrasound imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3380609B2 (en) * 1993-12-24 2003-02-24 コニカ株式会社 Radiation image field extraction device
JP2006500124A (en) * 2002-09-24 2006-01-05 イーストマン コダック カンパニー Method and system for reading medical images with a computer aided detection (CAD) guide
JP2004255057A (en) * 2003-02-27 2004-09-16 Canon Inc Image processing apparatus
JP2004261300A (en) * 2003-02-28 2004-09-24 Konica Minolta Holdings Inc Medical image processor and display method of detection result of abnormal shadow candidate

Also Published As

Publication number Publication date
US20080056548A1 (en) 2008-03-06
EP1898359A2 (en) 2008-03-12
EP1898359A3 (en) 2008-04-30

Similar Documents

Publication Publication Date Title
US11983799B2 (en) System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement
JP2008173447A (en) Enhancement of visual perception through dynamic cue
EP2158575B1 (en) Detecting haemorrhagic stroke in ct image data
US9275465B2 (en) System for preparing an image for segmentation
US8150192B2 (en) System and method for feature score mapping and visualization of medical images
US20110125016A1 (en) Fetal rendering in medical diagnostic ultrasound
US5574799A (en) Method and system for automated detection of microcalcification clusters in mammograms
US8351667B2 (en) Methods of contrast enhancement for images having blood vessel structures
US20080285825A1 (en) Mass spicules detection and tracing from digital mammograms
WO2006130699A2 (en) Method of screening cellular tissue
JP4383352B2 (en) Histological evaluation of nuclear polymorphism
CN114365190A (en) Spleen tumor identification method based on VRDS 4D medical image and related device
CN114372985B (en) Diabetic retinopathy focus segmentation method and system adapting to multi-center images
JP4668289B2 (en) Image processing apparatus and method, and program
Mello-Thoms et al. A preliminary report on the role of spatial frequency analysis in the perception of breast cancers missed at mammography screening1
Mall et al. Fixated and not fixated regions of mammograms: a higher-order statistical analysis of visual search behavior
EP2313848A1 (en) Methods for enhancing vascular patterns in cervical imagery
WO2021081850A1 (en) Vrds 4d medical image-based spine disease recognition method, and related devices
Swapnil et al. Region marking and grid based textural analysis for early identification of breast cancer in digital mammography
Alsarori Automatic detection of breast cancer in mammogram images
Patibandla et al. CT Image Precise Denoising Model with Edge Based Segmentation with Labeled Pixel Extraction Using CNN Based Feature Extraction for Oral Cancer Detection
US20230177686A1 (en) Automated multi-class segmentation of digital mammogram
Plett et al. Enhancement of visual perception through dynamic cues: An application to mammograms
Srikanth et al. Advance Detection and Extraction of Brain Multi Tumor from MRI and its Morphological Operation Symmetric Analysis (MOSA)
Subba Rao CT Image Precise Denoising Model with Edge Based Segmentation with Labeled Pixel Extraction Using CNN Based Feature Extraction for Oral Cancer Detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111025