JP4690119B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP4690119B2
JP4690119B2 JP2005176977A JP2005176977A JP4690119B2 JP 4690119 B2 JP4690119 B2 JP 4690119B2 JP 2005176977 A JP2005176977 A JP 2005176977A JP 2005176977 A JP2005176977 A JP 2005176977A JP 4690119 B2 JP4690119 B2 JP 4690119B2
Authority
JP
Japan
Prior art keywords
image
cell
observation
feature amount
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005176977A
Other languages
Japanese (ja)
Other versions
JP2006350739A (en
Inventor
洋子 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005176977A priority Critical patent/JP4690119B2/en
Publication of JP2006350739A publication Critical patent/JP2006350739A/en
Application granted granted Critical
Publication of JP4690119B2 publication Critical patent/JP4690119B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本発明は、一連の画像を処理して表示する画像処理装置および画像処理プログラムに関し、特に複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program for processing and displaying a series of images, and in particular, an image processing apparatus and an image for processing and displaying a series of observation images including live cells captured at a plurality of observation points. It relates to a processing program.

従来、顕微鏡等を利用して種々の細胞を標本とする観測が行われている。顕微鏡を用いた生細胞の経時的な観測では、通常、複数の時点で生細胞を撮像して得た各観測画像の中から目視作業と手作業とによって個々の生細胞を認識し、認識した各生細胞を時系列に連続した観測画像間で比較して、特徴量の経時変化を観測するようにしている。   Conventionally, observation using various cells as specimens using a microscope or the like has been performed. In the observation of living cells over time using a microscope, individual living cells are usually recognized and recognized from the observation images obtained by imaging the living cells at multiple time points by visual and manual operations. Each live cell is compared between observation images that are continuous in time series, and the temporal change of the feature value is observed.

このような従来の観測手法では、観測細胞数、観測頻度、観測範囲、観測時間等の増大にともなって観測者にかかる負荷が増大するなどの問題があった。これに対して、観測画像の中から個々の細胞を検出し、検出した各細胞の位置、形状等に関する特徴量を抽出し、抽出した特徴量をグラフ化あるいは画像化して観測しやすく表示することによって、観測者への負荷を軽減する技術が提案されている(たとえば、特許文献1および2参照)。   Such a conventional observation method has a problem that the load on the observer increases as the number of observation cells, observation frequency, observation range, observation time, etc. increase. On the other hand, individual cells are detected from the observed image, feature quantities related to the position, shape, etc. of each detected cell are extracted, and the extracted feature quantities are graphed or imaged for easy observation. Has been proposed (see, for example, Patent Documents 1 and 2).

特許文献1に開示されている画像処理装置では、細胞を撮像した位相差画像と蛍光画像とを用い、GVF(Gradient Vector Flow)を加えたSnakesの手法を利用して細胞の特徴量としての輪郭を抽出し、抽出した輪郭を画像化した輪郭画像を表示するようにしている。ここで、Snakesの手法とは、動的輪郭モデルを用いて撮像対象の輪郭を抽出する輪郭抽出法である。また、特許文献2に開示されている細胞形状抽出装置では、細胞を撮像した観測画像から濃度勾配を利用して細胞の輪郭を抽出し、抽出した輪郭を示す輪郭画像を観測画像に重ね合わせて表示するようにしている。   The image processing apparatus disclosed in Patent Document 1 uses a phase difference image obtained by imaging a cell and a fluorescence image, and uses a Snakes method to which GVF (Gradient Vector Flow) is added, as an outline as a feature amount of the cell. Is extracted, and a contour image obtained by imaging the extracted contour is displayed. Here, the method of Snakes is a contour extraction method that extracts a contour of an imaging target using a dynamic contour model. In addition, in the cell shape extraction device disclosed in Patent Document 2, the outline of a cell is extracted from the observation image obtained by imaging the cell using a concentration gradient, and the outline image indicating the extracted outline is superimposed on the observation image. It is trying to display.

特開2004−54347号公報JP 2004-54347 A 特許第3314759号公報Japanese Patent No. 3314759

しかしながら、上述した従来の画像処理装置では、特徴量としての輪郭を画像化して表示しているものの、一時点の輪郭画像を単独で表示しているため、輪郭の経時変化の観測や観測画像と輪郭画像との対応関係の把握が困難であるという問題があった。また、上述した従来の細胞形状抽出装置では、重ね合わせる観測画像と輪郭画像とが同一時点の画像に限られていたため、輪郭の経時変化の観測が困難であるという問題があった。   However, in the above-described conventional image processing apparatus, although the contour as the feature amount is displayed as an image, since the temporary point contour image is displayed alone, the contour change over time and the observation image are displayed. There is a problem that it is difficult to grasp the correspondence with the contour image. Further, in the above-described conventional cell shape extraction apparatus, the observation image to be superimposed and the contour image are limited to images at the same time, and thus there is a problem that it is difficult to observe the temporal change of the contour.

本発明は、上記に鑑みてなされたものであって、観測画像に含まれる生細胞の特徴量の経時変化および観測画像と特徴量との対応関係が容易に観測可能なように画像を表示することができる画像処理装置および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and displays an image so that the temporal change in the feature amount of a living cell included in the observation image and the correspondence between the observation image and the feature amount can be easily observed. An object of the present invention is to provide an image processing apparatus and an image processing program.

上記の目的を達成するために、請求項1にかかる画像処理装置は、複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置において、前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手段と、異なる観測時点に対応する前記細胞特徴量同士を、単一の表示画像として画像化して表示する制御を行う画像表示制御手段と、を備えたことを特徴とする。   In order to achieve the above object, an image processing apparatus according to claim 1 is an image processing apparatus that processes and displays a series of observation images including live cells imaged at a plurality of observation points. A feature quantity calculating means for detecting a cell image area corresponding to the living cell from each observation image in the image, and calculating a cell feature quantity indicating a feature of each detected cell image area; and the feature quantity calculating means And a feature amount storage means for storing the cell feature amount calculated in accordance with the observation time point in association with the observation time point, and a control for imaging and displaying the cell feature amount corresponding to different observation time points as a single display image. And an image display control means.

また、請求項2にかかる画像処理装置は、上記の発明において、前記特徴量算出手段によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手段を、更に備え、前記画像表示制御手段は、異なる観測時点の前記細胞特徴画像同士を重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする。   According to a second aspect of the present invention, there is provided the image processing device according to the above invention, wherein the feature image generation means generates a cell feature image obtained by imaging the cell feature quantity calculated by the feature quantity calculation means at each observation time point. In addition, the image display control means performs control to superimpose the cell feature images at different observation points and display them as the single display image.

また、請求項3にかかる画像処理装置は、複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置において、前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手段と、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる観測時点に対応する前記細胞特徴量とを、単一の表示画像として画像化して表示する制御を行う画像表示制御手段と、を備えたことを特徴とする。   According to a third aspect of the present invention, there is provided an image processing apparatus for processing and displaying a series of observation images including live cells imaged at a plurality of observation points, and displaying each observation image in the series of observation images. A feature amount calculating means for detecting a cell image region corresponding to the living cell from the inside and calculating a cell feature amount indicating a feature of each detected cell image region; and a cell feature amount calculated by the feature amount calculating means Is stored in association with the observation time point, the observation image captured at an observation time point, and the cell feature amount corresponding to an observation time point different from the observation image are displayed in a single display. And image display control means for performing control to display the image as an image.

また、請求項4にかかる画像処理装置は、上記の発明において、前記画像表示制御手段は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる2つ以上の観測時点それぞれに対応する前記細胞特徴量とを、前記単一の表示画像として表示する制御を行うことを特徴とする。   According to a fourth aspect of the present invention, in the above invention, the image display control unit is configured to detect the observation image captured at a certain observation time point and each of two or more observation time points different from the observation image. Control is performed to display the corresponding cell feature amount as the single display image.

また、請求項5にかかる画像処理装置は、上記の発明において、前記特徴量算出手段によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手段を、更に備え、前記画像表示制御手段は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる少なくとも1時点以上の観測時点の前記細胞特徴画像とを重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする。   According to a fifth aspect of the present invention, there is provided the image processing apparatus according to the above invention, wherein the feature image generation means generates a cell feature image obtained by imaging the cell feature amount calculated by the feature amount calculation means at each observation time point. The image display control means superimposes the observation image captured at a certain observation time point and the cell feature image at an observation time point at least one time point different from the observation image to overlap the single image. Control is performed to display as a display image.

また、請求項6にかかる画像処理装置は、上記の発明において、前記画像表示制御手段は、前記観測時点に応じた区別をつけて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   In the image processing apparatus according to claim 6, in the above invention, the image display control unit performs control to display the cell feature amount as the single display image with a distinction according to the observation time point. It is characterized by performing.

また、請求項7にかかる画像処理装置は、上記の発明において、前記画像表示制御手段は、前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   The image processing apparatus according to claim 7 is the image processing apparatus according to the above invention, wherein the image display control unit changes the at least one of a display luminance value and a display hue for each observation time point and sets the cell feature amount to the single unit. The display is controlled as a display image.

また、請求項8にかかる画像処理装置は、上記の発明において、前記画像表示制御手段は、前記観測時点の時系列順序に従って前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を段階的に変化させて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   Further, in the image processing apparatus according to claim 8, in the above invention, the image display control means stepwisely displays at least one of a display luminance value and a display hue for each observation time according to a time series order of the observation time. Control is performed to change and display the cell feature amount as the single display image.

また、請求項9にかかる画像処理装置は、上記の発明において、前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手段を備え、前記特徴量算出手段は、細胞特徴量として少なくとも前記細胞画像領域の領域位置を算出し、前記画像表示制御手段は、前記単一の表示画像内の各細胞画像領域の前記領域位置をもとに、前記対応付け手段によって対応付けられた各生細胞の相対距離を算出し、該算出した相対距離に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   The image processing apparatus according to claim 9 is the above invention, wherein the change amount of the cell feature amount between observation images at different observation time points is calculated, and the observation time point is calculated based on the calculated change amount. Determining whether or not the living cells included in each of the observed images have the same, and associating means for associating each of the living cells determined to have the identity, wherein the feature amount calculating means includes the cell feature Calculating at least a region position of the cell image region as an amount, and the image display control means is associated by the association unit based on the region position of each cell image region in the single display image. Calculating a relative distance of each living cell, and controlling the display of the cell feature amount as the single display image by changing at least one of the display luminance value and the display hue according to the calculated relative distance. Special To.

また、請求項10にかかる画像処理装置は、上記の発明において、前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手段を備え、前記特徴量算出手段は、細胞特徴量として少なくとも前記細胞画像領域の輝度総和または面積を算出し、前記画像表示制御手段は、各細胞画像領域の前記輝度総和または面積をもとに、前記対応付け手段によって対応付けられた各生細胞間の前記輝度総和または面積の変化量を算出し、該算出した変化量に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   The image processing apparatus according to claim 10, in the above invention, calculates a change amount of the cell feature amount between observation images having different observation time points, and based on the calculated change amount, the observation time point Determining whether or not the living cells included in each of the observed images have the same, and associating means for associating each of the living cells determined to have the identity, wherein the feature amount calculating means includes the cell feature Calculating at least the luminance sum or area of the cell image region as a quantity, and the image display control means, based on the luminance sum or area of each cell image region, each living cell associated by the association means The amount of change in the luminance sum or area in between is calculated, and the cell feature amount is displayed as the single display image by changing at least one of the display luminance value and the display hue according to the calculated amount of change. And performing control that.

また、請求項11にかかる画像処理装置は、上記の発明において、前記生細胞を選択する選択情報を受け付ける選択情報入力手段を備え、前記画像表示制御手段は、前記単一の表示画像の中から、前記選択情報によって選択された生細胞に対応する画像領域を抽出して表示する制御を行うことを特徴とする。   An image processing apparatus according to an eleventh aspect of the present invention includes a selection information input unit that receives selection information for selecting the living cell in the above-described invention, and the image display control unit includes the single display image. The image area corresponding to the living cell selected by the selection information is controlled to be extracted and displayed.

また、請求項12にかかる画像処理装置は、上記の発明において、前記特徴量算出手段は、細胞特徴量として前記生細胞の位置または形状の特徴を示す位置特性を算出し、前記特徴画像生成手段は、前記特徴量算出手段によって算出された位置特性を前記単一の表示画像として画像化することを特徴とする。   In the image processing apparatus according to claim 12, in the above invention, the feature amount calculation unit calculates a position characteristic indicating a feature of the position or shape of the living cell as a cell feature amount, and the feature image generation unit Is characterized in that the position characteristic calculated by the feature quantity calculating means is imaged as the single display image.

また、請求項13にかかる画像処理装置は、上記の発明において、前記位置特性は、前記生細胞の輪郭、重心位置および細胞核重心位置の少なくとも1つであることを特徴とする。   According to a thirteenth aspect of the present invention, in the above invention, the position characteristic is at least one of a contour, a centroid position, and a cell nucleus centroid position of the living cell.

また、請求項14にかかる画像処理装置は、上記の発明において、前記各観測画像の輝度値の補正を行う輝度補正手段を備えたことを特徴とする。   According to a fourteenth aspect of the present invention, in the above invention, the image processing apparatus further includes a luminance correction unit that corrects the luminance value of each observation image.

また、請求項15にかかる画像処理プログラムは、複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置に、前記観測画像を処理して表示させるための画像処理プログラムであって、前記画像処理装置に、前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手順と、前記特徴量算出手順によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手順と、異なる観測時点に対応する前記細胞特徴量同士を、単一の表示画像として画像化して表示する制御を行う画像表示制御手順と、を実行させることを特徴とする。   An image processing program according to claim 15 is for processing and displaying the observation image on an image processing apparatus that processes and displays a series of observation images including live cells imaged at a plurality of observation points. An image processing program, wherein the image processing device detects a cell image region corresponding to the living cell from each observation image in the series of observation images, and shows the characteristics of each detected cell image region A feature amount calculating procedure for calculating a cell feature amount, a feature amount storing procedure for storing the cell feature amount calculated by the feature amount calculating procedure in association with the observation time point, and the cell feature amount corresponding to a different observation time point And an image display control procedure for performing a control for imaging and displaying each other as a single display image.

また、請求項16にかかる画像処理プログラムは、上記の発明において、前記特徴量算出手段によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手順を、更に実行させ、前記画像表示制御手順は、異なる観測時点の前記細胞特徴画像同士を重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする。   According to a sixteenth aspect of the present invention, in the image processing program according to the sixteenth aspect, a feature image generation procedure for generating a cell feature image obtained by imaging the cell feature amount calculated by the feature amount calculation unit at each observation time point is provided. Further, the image display control procedure is further characterized in that the cell feature images at different observation points are superposed on each other and displayed as the single display image.

また、請求項17にかかる画像処理プログラムは、複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置に、前記観測画像を処理して表示させるための画像処理プログラムであって、前記画像処理装置に、前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手順と、前記特徴量算出手順によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手順と、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる観測時点に対応する前記細胞特徴量とを、単一の表示画像として画像化して表示する制御を行う画像表示制御手順と、を実行させることを特徴とする。   According to a seventeenth aspect of the present invention, there is provided an image processing program for processing and displaying an observation image on an image processing apparatus that processes and displays a series of observation images including live cells imaged at a plurality of observation points. An image processing program, wherein the image processing device detects a cell image region corresponding to the living cell from each observation image in the series of observation images, and shows the characteristics of each detected cell image region A feature amount calculating procedure for calculating a cell feature amount, a feature amount storing procedure for storing the cell feature amount calculated by the feature amount calculating procedure in association with the observation time point, and the observation image captured at a certain observation time point And an image display control procedure for performing control for imaging and displaying the cell feature amount corresponding to an observation time point different from the observation image as a single display image. .

また、請求項18にかかる画像処理プログラムは、上記の発明において、前記画像表示制御手順は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる2つ以上の観測時点それぞれに対応する前記細胞特徴量とを、前記単一の表示画像として表示する制御を行うことを特徴とする。   In the image processing program according to claim 18, in the above invention, the image display control procedure includes the observation image captured at a certain observation time point and each of two or more observation time points different from the observation image. Control is performed to display the corresponding cell feature amount as the single display image.

また、請求項19にかかる画像処理プログラムは、上記の発明において、前記特徴量算出手順によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手順を、更に備え、前記画像表示制御手順は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる少なくとも1時点以上の観測時点の前記細胞特徴画像とを重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする。   An image processing program according to claim 19 includes a feature image generation procedure for generating a cell feature image obtained by imaging the cell feature amount calculated by the feature amount calculation procedure at each observation time point in the above invention. The image display control procedure further includes the step of superimposing the observation image captured at a certain observation time point and the cell feature image at an observation time point of at least one time point different from the observation image. Control is performed to display as a display image.

また、請求項20にかかる画像処理プログラムは、上記の発明において、前記画像表示制御手順は、前記観測時点に応じた区別をつけて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   Further, in the image processing program according to claim 20, in the above invention, the image display control procedure performs control to display the cell feature amount as the single display image with a distinction according to the observation time point. It is characterized by performing.

また、請求項21にかかる画像処理プログラムは、上記の発明において、前記画像表示制御手順は、前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   The image processing program according to claim 21 is the image processing program according to the above invention, wherein the image display control procedure is configured to change the cell feature amount by changing at least one of a display luminance value and a display hue at each observation time point. The display is controlled as a display image.

また、請求項22にかかる画像処理プログラムは、上記の発明において、前記画像表示制御手順は、前記観測時点の時系列順序に従って前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を段階的に変化させて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   The image processing program according to a twenty-second aspect of the present invention is the image processing method according to the above invention, wherein the image display control procedure is configured to stepwise display at least one of a display luminance value and a display hue at each observation time according to a time-series order of the observation time Control is performed to change and display the cell feature amount as the single display image.

また、請求項23にかかる画像処理プログラムは、上記の発明において、前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手順を実行させ、前記特徴量算出手順は、細胞特徴量として少なくとも前記細胞画像領域の領域位置を算出し、前記画像表示制御手順は、前記単一の表示画像内の各細胞画像領域の前記領域位置をもとに、前記対応付け手順によって対応付けられた各生細胞の相対距離を算出し、該算出した相対距離に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   The image processing program according to claim 23, in the above invention, calculates a change amount of the cell feature amount between observation images at different observation points, and based on the calculated change amount, Determining whether or not the living cells included in the different observation images have the same, and executing an association procedure for associating each of the living cells determined to have the identity. The region position of at least the cell image region is calculated as a feature amount, and the image display control procedure is associated by the association procedure based on the region position of each cell image region in the single display image. Control for calculating the relative distance of each live cell obtained and displaying the cell feature amount as the single display image by varying at least one of the display luminance value and the display hue according to the calculated relative distance. And wherein the Ukoto.

また、請求項24にかかる画像処理プログラムは、上記の発明において、前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手順を実行させ、前記特徴量算出手順は、細胞特徴量として少なくとも前記細胞画像領域の輝度総和または面積を算出し、前記画像表示制御手順は、各細胞画像領域の前記輝度総和または面積をもとに、前記対応付け手順によって対応付けられた各生細胞間の前記輝度総和または面積の変化量を算出し、該算出した変化量に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする。   The image processing program according to claim 24, in the above invention, calculates a change amount of the cell feature amount between observation images at different observation points, and based on the calculated change amount, Determining whether or not the living cells included in the different observation images have the same, and executing an association procedure for associating each of the living cells determined to have the identity. At least the luminance sum or area of the cell image region is calculated as a feature amount, and the image display control procedure is performed based on the luminance sum or area of each cell image region and The amount of change in the luminance sum or area between cells is calculated, and at least one of the display luminance value and the display hue is changed according to the calculated amount of change, and the cell feature amount is converted into the single display image. And performing control to display in.

また、請求項25にかかる画像処理プログラムは、上記の発明において、前記生細胞を選択する選択情報を受け付ける選択情報入力手順を実行させ、前記画像表示制御手順は、前記単一の表示画像の中から、前記選択情報によって選択された生細胞に対応する画像領域を抽出して表示する制御を行うことを特徴とする。   An image processing program according to claim 25, in the above-described invention, causes a selection information input procedure for receiving selection information for selecting the living cell to be executed, and the image display control procedure is performed in the single display image. Then, control is performed to extract and display an image region corresponding to a living cell selected by the selection information.

また、請求項26にかかる画像処理プログラムは、上記の発明において、前記特徴量算出手順は、細胞特徴量として前記生細胞の位置または形状の特徴を示す位置特性を算出し、前記特徴画像生成手順は、前記特徴量算出手順によって算出された位置特性を前記単一の表示画像として画像化することを特徴とする。   In the image processing program according to claim 26, in the above invention, the feature amount calculation procedure calculates a position characteristic indicating a feature of the position or shape of the living cell as a cell feature amount, and the feature image generation procedure The method is characterized in that the position characteristic calculated by the feature amount calculation procedure is imaged as the single display image.

本発明にかかる画像処理装置および画像処理プログラムによれば、観測画像に含まれる生細胞の特徴量の経時変化および観測画像と特徴量との対応関係が容易に観測可能なように画像を表示することができる。   According to the image processing apparatus and the image processing program of the present invention, an image is displayed so that the temporal change of the feature amount of the living cell included in the observation image and the correspondence between the observation image and the feature amount can be easily observed. be able to.

以下、添付図面を参照して、本発明にかかる画像処理装置の好適な実施の形態を詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。   Exemplary embodiments of an image processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same parts are denoted by the same reference numerals.

(実施の形態1)
まず、本発明の実施の形態1にかかる画像処理装置について説明する。図1は、この実施の形態1にかかる画像処理装置1の構成を示すブロック図である。図1に示すように、画像処理装置1は、入力された画像を処理する画像処理部2と、各種情報を表示する表示部3と、各種情報の入力を受け付ける入力部4と、各種情報を記憶する記憶部5と、画像処理装置1の各部の処理および動作を制御する制御部6と、を備える。画像処理部2、表示部3、入力部4および記憶部5は、制御部6に電気的に接続されている。
(Embodiment 1)
First, the image processing apparatus according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of the image processing apparatus 1 according to the first embodiment. As shown in FIG. 1, an image processing apparatus 1 includes an image processing unit 2 that processes an input image, a display unit 3 that displays various types of information, an input unit 4 that receives input of various types of information, and various types of information. A storage unit 5 that stores data and a control unit 6 that controls processing and operation of each unit of the image processing apparatus 1 are provided. The image processing unit 2, the display unit 3, the input unit 4, and the storage unit 5 are electrically connected to the control unit 6.

画像処理部2は、輝度補正部2a、特徴量算出部2b、特徴画像生成部2cおよび対応付け手段としての細胞追跡部2dを備え、観測画像記憶部5aに記憶された画像である複数の時点に撮像された生細胞を含む一連の観測画像を処理する。画像処理部2が備える各部は、画像処理制御部6aによって制御される。   The image processing unit 2 includes a luminance correction unit 2a, a feature amount calculation unit 2b, a feature image generation unit 2c, and a cell tracking unit 2d as an association unit, and a plurality of time points that are images stored in the observation image storage unit 5a. A series of observation images including the live cells imaged in is processed. Each unit included in the image processing unit 2 is controlled by the image processing control unit 6a.

輝度補正部2aは、公知のガンマ変換等の階調変換処理により、一連の観測画像の輝度値を調整する輝度補正処理を行う。これによって、輝度補正部2aは、観測画像のコントラストを向上させ、目視認識が困難であった生細胞の目視観察を可能にさせることができるとともに、特徴量算出部2bによる特徴量の算出精度を向上させることができる。   The luminance correction unit 2a performs luminance correction processing for adjusting luminance values of a series of observed images by a known gradation conversion process such as gamma conversion. As a result, the brightness correction unit 2a can improve the contrast of the observation image, enable visual observation of living cells that have been difficult to visually recognize, and increase the calculation accuracy of the feature amount by the feature amount calculation unit 2b. Can be improved.

輝度補正処理後の観測画像は、画像処理制御部6aによって、観測画像記憶部5aに記録される。このとき、画像処理制御部6aは、原画像である観測画像を更新するように輝度補正処理後の観測画像を記録する。なお、画像処理制御部6aは、原画像を記憶させたまま、輝度補正処理後の観測画像を記録するようにしてもよい。   The observed image after the luminance correction processing is recorded in the observed image storage unit 5a by the image processing control unit 6a. At this time, the image processing control unit 6a records the observation image after the luminance correction processing so as to update the observation image that is the original image. Note that the image processing control unit 6a may record the observation image after the luminance correction processing while storing the original image.

特徴量算出部2bは、観測画像記憶部5aに記憶された一連の観測画像内の各観測画像の中から、撮像された生細胞に対応する画像領域である細胞領域を検出し、検出した各細胞領域の特徴を示す細胞特徴量を生細胞の特徴量として算出する。具体的には、特徴量算出部2bは、細胞特徴量として生細胞の位置または形状の特徴を示す位置特性である輪郭、重心位置、細胞核重心位置等を算出する。   The feature amount calculation unit 2b detects a cell region that is an image region corresponding to a captured live cell from each observation image in the series of observation images stored in the observation image storage unit 5a, and detects each detected A cell feature amount indicating a feature of a cell region is calculated as a feature amount of a living cell. Specifically, the feature amount calculation unit 2b calculates a contour, a centroid position, a cell nucleus centroid position, and the like, which are position characteristics indicating features of the position or shape of a living cell as a cell feature amount.

また、特徴量算出部2bは、その他の細胞特徴量として、細胞領域の面積、円形度、細胞領域中の輝度値の総和である輝度総和等を算出する。なお、特徴量算出部2bは、生細胞の位置特性として、生細胞の重心位置を算出してもよく、あるいは細胞領域内の所定の特徴点等の位置を算出するようにしてもよい。   Further, the feature amount calculation unit 2b calculates, as other cell feature amounts, the area of the cell region, the circularity, the luminance sum that is the sum of the luminance values in the cell region, and the like. Note that the feature quantity calculation unit 2b may calculate the position of the center of gravity of the living cell as the position characteristic of the living cell, or may calculate the position of a predetermined feature point or the like in the cell region.

また、特徴量算出部2bは、通常、観測される生細胞が複数であるため、各観測画像中の個々の生細胞について細胞領域を検出するとともに細胞特徴量を算出する。このとき、特徴量算出部2bは、検出した各細胞領域に固有の領域標識としてのラベルを付与し、付与したラベルと算出した種々の細胞特徴量とを対応付けて、各細胞領域に固有の細胞特徴量データとする。この細胞特徴量データは、画像処理制御部6aによって、各観測画像の観測時点に対応付けられ、各細胞特徴量とラベルと観測時点とが対応付けられた状態で特徴量記憶部5cに記録される。なお、特徴量算出部2bによって付与される各ラベルは、固有のものであれば、番号、アルファベット、記号等を用いた任意の表記でよい。   In addition, since the feature amount calculation unit 2b normally has a plurality of live cells to be observed, the feature amount calculation unit 2b detects a cell region for each live cell in each observation image and calculates a cell feature amount. At this time, the feature quantity calculation unit 2b assigns a label as a unique area marker to each detected cell area, associates the given label with the calculated various cell feature quantities, and assigns a unique label to each cell area. Cell feature data. This cell feature amount data is associated with the observation time of each observation image by the image processing control unit 6a, and is recorded in the feature amount storage unit 5c in a state in which each cell feature amount, label, and observation time are associated with each other. The In addition, each label given by the feature quantity calculation unit 2b may be any notation using a number, alphabet, symbol, or the like as long as it is unique.

特徴画像生成部2cは、特徴量算出部2bによって算出された各観測画像における位置特性を画像化して細胞特徴画像を生成する。特に、特徴画像生成部2cは、種々の位置特性毎に細胞特徴画像を生成し、たとえば、生細胞の輪郭を示す輪郭画像、生細胞の重心位置を示す重心画像、細胞核の重心位置を示す細胞核重心画像等を生成する。そして、特徴画像生成部2cは、生成した各細胞特徴画像に、この各細胞特徴画像で表される細胞特徴量(位置特性)に対応する観測時点を対応付ける。このようにして生成され各細胞特徴画像は、画像処理制御部6aによって、特徴画像記憶部5bに記録される。   The feature image generation unit 2c generates a cell feature image by imaging the position characteristics in each observation image calculated by the feature amount calculation unit 2b. In particular, the feature image generation unit 2c generates a cell feature image for each of various position characteristics. For example, a contour image indicating the outline of a living cell, a center of gravity image indicating the center of gravity of the living cell, and a cell nucleus indicating the center of gravity of the cell nucleus. A centroid image or the like is generated. Then, the feature image generation unit 2c associates each generated cell feature image with an observation time point corresponding to the cell feature amount (positional characteristic) represented by each cell feature image. Each cell feature image generated in this way is recorded in the feature image storage unit 5b by the image processing control unit 6a.

細胞追跡部2dは、観測時点が異なる観測画像間の細胞特徴量の変化量を算出し、算出した変化量をもとに、この観測時点が異なる各観測画像に含まれる生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け処理を行う。このとき、細胞追跡部2dは、同一性があると判断した各生細胞の細胞領域に同一のラベルを付与することによって対応付けを行う。具体的には、細胞追跡部2dは、特徴量算出部2bによって各細胞領域に付与されたラベルを参照し、たとえば、同一性があるとした各生細胞のうち観測時点が前の生細胞に付与されたラベルを、観測時点が後の生細胞に付与する。   The cell tracking unit 2d calculates the change amount of the cell feature amount between the observation images having different observation time points, and based on the calculated change amount, the living cells included in the observation images having different observation time points have the same identity. It is determined whether or not there is, and an associating process for associating each living cell determined to be identical is performed. At this time, the cell tracking unit 2d performs association by assigning the same label to the cell region of each living cell determined to be identical. Specifically, the cell tracking unit 2d refers to the label given to each cell region by the feature amount calculation unit 2b, and for example, among the living cells that are identified as the same, the observation time point is the previous living cell. The given label is given to a living cell whose observation time is later.

このような対応付け処理を、細胞追跡部2dは、一連の観測画像に含まれる任意の2つ以上の観測画像間で各生細胞が対応付けられるように実行する。たとえば、細胞追跡部2dは、時系列で連続する2つ以上の観測画像間、または、所定の時間間隔離れた観測時点に対応する2つ以上の観測画像間で対応付け処理を行うようにし、この対応付け処理を時系列で先頭の観測画像から順次、処理対象の観測画像を観測時点順にシフトして繰り返すことによって、一連のすべての観測画像で生細胞の対応付けを行う。この結果、細胞追跡部2dは、各観測時点の個々の生細胞を時系列に沿って追跡することができる。   The cell tracking unit 2d executes such association processing so that each living cell is associated between any two or more observation images included in the series of observation images. For example, the cell tracking unit 2d performs association processing between two or more observation images that are continuous in time series, or between two or more observation images that correspond to observation time points that are separated by a predetermined time interval, By repeating this association process in time series starting from the first observation image and shifting the observation image to be processed in the order of the observation time points, the association of the living cells is performed with all of the series of observation images. As a result, the cell tracking unit 2d can track individual living cells at each observation time point in time series.

対応付け処理によって各細胞領域に新たに付与されたラベルは、画像処理制御部6aによって、特徴量記憶部5cに記憶された対応する細胞特徴量データに付加され記録される。このとき、画像処理制御部6aは、特徴量記憶部5cによって付与されたラベルを更新するように、対応付け処理によって付与されたラベルを記録する。   The label newly given to each cell region by the association processing is added and recorded by the image processing control unit 6a to the corresponding cell feature amount data stored in the feature amount storage unit 5c. At this time, the image processing control unit 6a records the label given by the association process so as to update the label given by the feature amount storage unit 5c.

表示部3は、CRT、液晶ディスプレイ等を備え、画像処理部2によって処理された画像を含む各種情報を表示する。特に、表示部3は、画像表示制御部6bからの指示をもとに、一連の観測画像および細胞特徴画像のうち観測時点が互いに異なる複数の画像を重ね合わせて表示する。   The display unit 3 includes a CRT, a liquid crystal display, and the like, and displays various types of information including an image processed by the image processing unit 2. In particular, the display unit 3 superimposes and displays a plurality of images at different observation times from among a series of observation images and cell feature images based on an instruction from the image display control unit 6b.

入力部4は、USB,IEEE1394等の通信用インターフェース、各種スイッチ、入力キー、マウス、タッチパネル等を備え、画像処理装置1で処理する画像、各種処理情報等の入力を受け付ける。入力部4は、特に、観測画像入力部4aおよび表示画像選択部4bを備える。観測画像入力部4aは、通信用インターフェースを介して外部装置から一連の観測画像の入力を受け付ける。表示画像選択部4bは、表示部3に表示する観測画像および細胞特徴画像を選択する画像選択情報の入力を受け付ける。観測者は、表示画像選択部4bを介して画像選択情報を入力することによって、表示させる観測画像および細胞特徴画像を選択することができる。   The input unit 4 includes a communication interface such as USB and IEEE1394, various switches, input keys, a mouse, a touch panel, and the like, and receives input of an image to be processed by the image processing apparatus 1 and various processing information. In particular, the input unit 4 includes an observation image input unit 4a and a display image selection unit 4b. The observation image input unit 4a receives a series of observation image inputs from an external device via a communication interface. The display image selection unit 4b receives input of image selection information for selecting an observation image and a cell feature image to be displayed on the display unit 3. An observer can select an observation image and a cell feature image to be displayed by inputting image selection information via the display image selection unit 4b.

なお、観測画像入力部4aは、フラッシュメモリ、CD、DVD、ハードディスク等の携帯型記憶媒体に対応するインターフェースを備え、この携帯型記憶媒体から一連の観測画像の入力を受け付けるようにしてもよい。また、観測画像入力部4aは、撮像レンズと、CCD等の撮像素子と、A/D変換器とを用いて実現される撮像装置を備え、この撮像装置によって生細胞を撮像して生成した一連の観測画像を取得するようにしてもよい。   Note that the observation image input unit 4a may include an interface corresponding to a portable storage medium such as a flash memory, a CD, a DVD, or a hard disk, and may receive a series of observation image inputs from the portable storage medium. The observation image input unit 4a includes an imaging device realized by using an imaging lens, an imaging device such as a CCD, and an A / D converter, and a series of images generated by imaging live cells with the imaging device. The observed image may be acquired.

記憶部5は、各種処理プログラム等があらかじめ記憶されたROMと、各処理の処理パラメータ、処理データ等を記憶するRAMとによって実現される。記憶部5は、特に、制御部6が実行するプログラムである、一連の観測画像を処理して表示させるための画像処理プログラムを記憶する。また、記憶部5は、一連の観測画像を記憶する観測画像記憶部5aと、特徴画像生成部2cによって生成された細胞特徴画像を記憶する特徴画像記憶部5bと、特徴量算出部2bによって生成された特徴量データを記憶する特徴量記憶部5cとを備える。なお、記憶部5は、フラッシュメモリ、CD、DVD、ハードディスク等の携帯型記憶媒体を着脱可能な記憶部として備えるようにしてもよい。   The storage unit 5 is realized by a ROM that stores various processing programs and the like in advance, and a RAM that stores processing parameters, processing data, and the like of each processing. In particular, the storage unit 5 stores an image processing program for processing and displaying a series of observation images, which is a program executed by the control unit 6. The storage unit 5 is generated by an observation image storage unit 5a that stores a series of observation images, a feature image storage unit 5b that stores a cell feature image generated by the feature image generation unit 2c, and a feature amount calculation unit 2b. And a feature amount storage unit 5c for storing the feature amount data. The storage unit 5 may include a portable storage medium such as a flash memory, a CD, a DVD, and a hard disk as a removable storage unit.

制御部6は、記憶部5に記憶された各種処理プログラムを実行するCPU等によって実現される。制御部6は、特に、記憶部5に記憶された画像処理プログラムを実行し、この画像処理プログラムにおける各処理に対応する各構成部位を制御する。また、制御部6は、画像処理制御部6aおよび画像表示制御部6bを備え、画像処理制御部6aは、画像処理部2が行う処理および動作を制御し、画像表示制御部6bは、観測画像記憶部5aに記憶された各観測画像および特徴画像記憶部5bに記憶された各細胞特徴画像のうち、観測時点が異なる複数の画像を重ね合わせて単一の画像として表示部3に表示させる制御を行う。   The control unit 6 is realized by a CPU or the like that executes various processing programs stored in the storage unit 5. In particular, the control unit 6 executes an image processing program stored in the storage unit 5 and controls each component corresponding to each process in the image processing program. The control unit 6 includes an image processing control unit 6a and an image display control unit 6b. The image processing control unit 6a controls processing and operations performed by the image processing unit 2, and the image display control unit 6b Control which superimposes several images from which observation time differs among each observation image memorize | stored in the memory | storage part 5a and each cell feature image memorize | stored in the feature image memory | storage part 5b, and displays them on the display part 3 as a single image I do.

画像表示制御部6bによって1つの画像として重畳して表示させる画像は、観測画像及び細胞特徴画像のうち、表示画像選択部4bから入力される画像選択情報によって選択された複数の画像である。これら複数の画像は、異なる観測時点に対応する細胞特徴画像同士であったり、観測画像と、その観測画像とは異なる観測時点に対応する少なくとも1つ以上の細胞特徴画像であったりする。画像表示制御部6bは、異なる観測時点に対応する細胞特徴画像同士を単一の画像として重畳表示することで、異なる観測時点に対応する細胞特徴量同士を、観測者が容易に対比できるようにしている。また、画像表示制御部6bは、異なる観測時点に対応する観測画像と細胞特徴画像を単一の画像として重畳して表示することで、ある時点での観測画像とその他の観測時点での細胞特徴量とを、観測者が容易に対比できるようにしている。   The images that are superimposed and displayed as one image by the image display control unit 6b are a plurality of images selected by the image selection information input from the display image selection unit 4b among the observation image and the cell feature image. The plurality of images may be cell feature images corresponding to different observation time points, or may be an observation image and at least one cell feature image corresponding to an observation time point different from the observation image. The image display control unit 6b displays cell feature images corresponding to different observation time points as a single image so that the observer can easily compare cell feature values corresponding to different observation time points. ing. In addition, the image display control unit 6b superimposes and displays an observation image and a cell feature image corresponding to different observation time points as a single image, so that an observation image at a certain time point and a cell feature at another observation time point are displayed. The quantity can be easily compared with the observer.

細胞特徴画像同士や、観測画像と細胞特徴画像を1つの画像として重畳して表示させるための画像の生成は、公知のアルファブレンディング処理や、マスク合成処理等の手法を用いて行う。このとき、画像表示制御部6bは、複数の細胞特徴画像等を1つの画像として重ね合わせる際に、各細胞特徴画像の区別を付けることで、細胞特徴量を対応する観測時点毎に区別をつけて表示する。例えば、アルファブレンディング処理であれば、アルファブレンディング処理における重み付け係数の値を観測時点に応じて偏重させることで、各観測時点に対応する細胞特徴画像における細胞特徴量同士の表示輝度および表示色相の少なくとも一方を異ならせて表示する。マスク合成処理であれば、より新しい観測時点の細胞特徴画像の細胞特徴量が優先的に表示されるようにしたマスク画像を用いるとともに、細胞特徴画像の表示輝度を観測時点毎に段階的に変化させた上でマスク合成処理する。   Generation of the image for superimposing and displaying the cell feature images or the observation image and the cell feature image as one image is performed using a known alpha blending process, a mask synthesis process, or the like. At this time, when superimposing a plurality of cell feature images or the like as one image, the image display control unit 6b distinguishes each cell feature image for each corresponding observation time point by distinguishing each cell feature image. To display. For example, in the case of alpha blending processing, the weighting coefficient value in alpha blending processing is biased according to the observation time points, so that at least the display brightness and display hue between the cell feature amounts in the cell feature image corresponding to each observation time point are displayed. Display one differently. In the case of mask composition processing, a mask image that preferentially displays cell feature values of cell feature images at newer observation points is used, and the display brightness of the cell feature images changes step by step at each observation point. Then, the mask composition processing is performed.

このとき、画像表示制御部6bは、重畳させる各細胞特徴画像に対応する観測時点の時系列順序に従って、細胞特徴量の表示輝度および表示色相の少なくとも一方が段階的に変化するようにするとよい。具体的には、たとえば、より新しい観測時点の細胞特徴量ほど表示輝度が大きくなるように、観測時点の時系列順序に従って表示輝度を段階的に変化させ、観測時点が新しいものほど明るく表示する。これにより、観測時点の変化と共に移り変わる細胞特徴量の様子を観測者に把握させやすくすることができる。表示輝度に限らず、表示色相を変化させたり、表示輝度と表示色相を変化させてもよい。   At this time, the image display control unit 6b may be configured so that at least one of the display brightness and the display hue of the cell feature amount changes stepwise in accordance with the time-series order at the observation time corresponding to each cell feature image to be superimposed. Specifically, for example, the display brightness is changed stepwise in accordance with the time-series order of the observation time points so that the display brightness becomes larger as the cell feature amount at the newer observation time point, and the newer the observation time point is displayed brighter. Thereby, it is possible to make it easier for the observer to grasp the state of the cell feature amount that changes with the change of the observation time point. Not only the display brightness but also the display hue may be changed, or the display brightness and the display hue may be changed.

また、画像表示制御部6bは、たとえば、重ね合わせて表示する各細胞特徴画像間における、細胞追跡部2dによって対応付けられた各生細胞の相対距離に応じて、対応する生細胞ごとに、各細胞特徴量の表示輝度および表示色相の少なくとも一方を異ならせて表示するように制御してもよい。この際、画像表示制御部6bは、特徴量算出部2bによって算出された各細胞領域の位置特性で定まる領域位置をもとに、表示する各画像間での生細胞の相対距離を算出する。   In addition, the image display control unit 6b, for example, for each corresponding living cell according to the relative distance of each living cell associated by the cell tracking unit 2d between the cell feature images to be displayed in a superimposed manner. Control may be performed so that at least one of the display brightness and the display hue of the cell feature amount is different. At this time, the image display control unit 6b calculates the relative distance of the living cells between the displayed images based on the region position determined by the position characteristic of each cell region calculated by the feature amount calculation unit 2b.

また、画像表示制御部6bは、たとえば、重ね合わせて表示する各画像間における、細胞追跡部2dによって対応付けられた各生細胞の輝度総和または面積の変化量に応じて、対応する生細胞ごとに、各細胞特徴量の表示輝度および表示色相の少なくとも一方を異ならせて表示するように制御してもよい。この際、画像表示制御部6bは、特徴量算出部2bによって算出された各細胞領域の輝度総和または面積をもとに、表示する各画像間での対応する生細胞の輝度総和または面積の変化量を算出する。   Further, the image display control unit 6b, for example, for each corresponding living cell according to the luminance sum or the amount of change in the area of each living cell associated by the cell tracking unit 2d between the images to be displayed in a superimposed manner. In addition, control may be performed so that at least one of the display luminance and the display hue of each cell feature amount is displayed differently. At this time, the image display control unit 6b changes the luminance sum or area of the corresponding live cells between the displayed images based on the luminance sum or area of each cell region calculated by the feature amount calculation unit 2b. Calculate the amount.

なお、画像表示制御部6bは、表示する各画像がモノクロ画像である場合、表示輝度を異ならせるようにするとよく、表示する各画像がカラー画像である場合、表示色相を異ならせるようにするとよい。カラー画像である場合には、画像表示制御部6bは、さらに表示輝度を異ならせるようにしてもよく、たとえば、細胞追跡部2dによって対応付けられた生細胞ごとに表示色相を異ならせ、かつ、観測時点ごとに表示輝度を異ならせるようにしてもよい。   Note that the image display control unit 6b may be configured to change the display luminance when each image to be displayed is a monochrome image, and may be configured to change the display hue when each image to be displayed is a color image. . In the case of a color image, the image display control unit 6b may further change the display luminance, for example, change the display hue for each living cell associated by the cell tracking unit 2d, and The display brightness may be varied for each observation time point.

ここで、画像処理装置1が行う処理および動作について説明する。図2は、画像処理装置1に入力された一連の観測画像を示す模式図であり、図3は、制御部6が画像処理プログラムを実行することによって、画像処理装置1が、この入力された一連の観測画像を処理し表示する処理手順を示すフローチャートである。   Here, processing and operations performed by the image processing apparatus 1 will be described. FIG. 2 is a schematic diagram showing a series of observation images input to the image processing apparatus 1, and FIG. 3 shows that the image processing apparatus 1 is input by the control unit 6 executing the image processing program. It is a flowchart which shows the process sequence which processes and displays a series of observation images.

図2に示すように、入力された一連の観測画像は、暗い背景の中に観測対象である複数の生細胞を含む。この各生細胞は、たとえば、観測時点ti-1〜ti+1の各時点間で移動、膨張、収縮、変形、分裂等を起こして状態を変化させている。この一連の観測画像は、観測画像記憶部5aに記憶されている。 As shown in FIG. 2, the input series of observation images includes a plurality of living cells to be observed in a dark background. Each living cell changes its state by causing, for example, movement, expansion, contraction, deformation, division, and the like between observation time points t i-1 to t i + 1 . This series of observation images is stored in the observation image storage unit 5a.

図3に示すように、画像処理制御部6aは、観測画像記憶部5aに記憶された一連の観測画像を順次読み込み(ステップS101)、輝度補正が必要か否かを判断し(ステップS103)、輝度補正が必要な場合(ステップS103:Yes)、輝度補正部2aは、各観測画像を順次取得して輝度補正処理を行う(ステップS105)。輝度補正部2aによって処理された各観測画像は、観測画像記憶部5aに上書きして記録される。   As shown in FIG. 3, the image processing control unit 6a sequentially reads a series of observation images stored in the observation image storage unit 5a (step S101), determines whether or not luminance correction is necessary (step S103), When luminance correction is necessary (step S103: Yes), the luminance correction unit 2a sequentially acquires each observation image and performs luminance correction processing (step S105). Each observation image processed by the luminance correction unit 2a is overwritten and recorded in the observation image storage unit 5a.

つづいて、特徴量算出部2bは、各観測画像について細胞特徴量を算出するとともに細胞領域にラベルを付与し、細胞特徴量データを生成する特徴量算出処理を行い(ステップS107)、特徴画像生成部2cは、生成された細胞特徴量データをもとに各観測時点の細胞特徴画像を生成し(ステップS109)、細胞追跡部2dは、各観測時点間の生細胞の対応付けを行い(ステップS111)、画像表示制御部6bは、画像選択情報によって選択された複数の細胞特徴画像を重ね合わせて表示し(ステップS113)、一連の処理を終了する。   Subsequently, the feature amount calculation unit 2b calculates a cell feature amount for each observation image, assigns a label to the cell region, and performs a feature amount calculation process for generating cell feature amount data (step S107), thereby generating a feature image. The unit 2c generates a cell feature image at each observation time based on the generated cell feature data (step S109), and the cell tracking unit 2d associates live cells between the observation times (step S109). In step S111, the image display control unit 6b displays a plurality of cell feature images selected by the image selection information in a superimposed manner (step S113), and ends a series of processes.

なお、画像処理制御部6aは、ステップS103で、輝度補正が必要ではないと判断した場合(ステップS103:No)、直ちにステップS107を実行する。また、ステップS113では、画像処理制御部6aは、たとえば、所定の処理終了の指示情報を受け付けるまで、画像選択情報が更新されるごとに、更新された画像選択情報に対応する複数の画像の表示を繰り返すようにしてもよい。また、ステップS113では、画像処理制御部6aは、複数の細胞特徴画像とともに、これらの細胞特徴画像と観測時点の異なる観測画像をさらに重ね合わせて表示するようにしてもよい。   If the image processing control unit 6a determines in step S103 that no luminance correction is necessary (step S103: No), it immediately executes step S107. In step S113, the image processing control unit 6a displays, for example, a plurality of images corresponding to the updated image selection information every time the image selection information is updated until receiving predetermined processing end instruction information. May be repeated. In step S113, the image processing control unit 6a may display a plurality of cell feature images and these cell feature images and observation images having different observation points in a superimposed manner.

つぎに、図3に示したステップS107の特徴量算出処理について説明する。図4は、特徴量算出処理の処理手順を示すフローチャートである。図4に示すように、画像処理制御部6aが、観測画像記憶部5aに記憶された一連の観測画像のうち時系列で先頭の画像を読み込み(ステップS121)、特徴量算出部2bは、この読み込まれた観測画像の中からエッジを検出する(ステップS123)。なお、特徴量算出2bは、画像中のランダムノイズを除去するため、ステップS123を行う前に、読み込まれた観測画像に対してガウシアンフィルタ等による平滑化処理を行うようにしてもよい。   Next, the feature amount calculation process in step S107 shown in FIG. 3 will be described. FIG. 4 is a flowchart showing the processing procedure of the feature amount calculation processing. As shown in FIG. 4, the image processing control unit 6a reads the first image in time series among the series of observation images stored in the observation image storage unit 5a (step S121), and the feature amount calculation unit 2b An edge is detected from the read observation image (step S123). Note that the feature amount calculation 2b may perform smoothing processing using a Gaussian filter or the like on the read observation image before performing step S123 in order to remove random noise in the image.

つづいて、特徴量算出部2bは、検出したエッジに囲まれた各画像領域を細胞領域として抽出し(ステップS125)、抽出した各細胞領域に固有のラベルを付与するラベリングを行い(ステップS127)、抽出した各細胞領域について種々の細胞特徴量を算出する(ステップS129)。そして、特徴量算出部2bは、抽出した細胞領域ごとに、付与したラベルと算出した細胞特徴量とを対応付けて細胞特徴量データを生成し(ステップS131)、画像処理制御部6aは、この生成された各細胞特徴量データを、処理対象の観測画像の観測時点と対応付けて、特徴量記憶部5cに記録する(ステップS133)。   Subsequently, the feature amount calculation unit 2b extracts each image region surrounded by the detected edges as a cell region (step S125), and performs labeling to give a unique label to each extracted cell region (step S127). Then, various cell feature amounts are calculated for each extracted cell region (step S129). Then, the feature amount calculation unit 2b generates cell feature amount data by associating the assigned label with the calculated cell feature amount for each extracted cell region (step S131), and the image processing control unit 6a Each generated cell feature amount data is recorded in the feature amount storage unit 5c in association with the observation time point of the observation image to be processed (step S133).

その後、画像処理制御部6aは、一連のすべての観測画像を処理したか否かを判断し(ステップS135)、すべての観測画像を処理していない場合(ステップS135:No)、処理していない観測画像に対してステップS121からの処理を繰り返し、すべて観測画像を処理している場合(ステップS135:Yes)、ステップS107にリターンする。   Thereafter, the image processing control unit 6a determines whether or not a series of all observed images has been processed (step S135). If all the observed images have not been processed (step S135: No), no processing has been performed. When the process from step S121 is repeated for the observed image and all the observed images are processed (step S135: Yes), the process returns to step S107.

ステップS129では、特徴量算出部2bは、細胞特徴量として、各細胞領域の重心位置、細胞領域の輪郭、面積、円形度および輝度総和を算出する。なお、特徴量算出部2bは、ステップS123で検出した閉じたエッジを細胞領域の輪郭とみなす。そして、ステップS131では、特徴量算出部2bは、算出した細胞特徴量に輪郭を含めてラベルと対応付け、細胞特徴量データとする。   In step S129, the feature amount calculation unit 2b calculates the centroid position of each cell region, the outline of the cell region, the area, the circularity, and the luminance sum as the cell feature amount. Note that the feature amount calculation unit 2b regards the closed edge detected in step S123 as the outline of the cell region. In step S131, the feature amount calculation unit 2b associates the calculated cell feature amount with the label with the outline to obtain cell feature amount data.

なお、ステップS129では、特徴量算出部2bは、細胞特徴量として生細胞の細胞核重心位置を算出してもよい。この場合、細胞核に反応する試薬、あるいは細胞核と他の細胞材料との間のコントラストを強調することができる試薬を用いてあらかじめ生細胞を染色するとよい。これによって、ステップS123では、細胞核のエッジを検出することができ、ステップS125では、細胞領域として細胞核に対応する画像領域を抽出することができる。   In step S129, the feature amount calculation unit 2b may calculate the cell nucleus centroid position of the living cell as the cell feature amount. In this case, live cells may be stained in advance using a reagent that reacts with the cell nucleus or a reagent that can enhance the contrast between the cell nucleus and other cell materials. Thereby, the edge of the cell nucleus can be detected in step S123, and an image region corresponding to the cell nucleus can be extracted as a cell region in step S125.

図5は、図2に示した観測時点ti-1の観測画像について、特徴量算出部2bが抽出した細胞領域を示す図である。図5に示すように、特徴量算出部2bは、観測時点ti-1の観測画像をもとに、太線で示す閉じたエッジに囲まれた5つの領域を細胞領域として抽出し、抽出した各細胞領域に「ラベル1」〜「ラベル5」を付与している。特徴量算出部2bは、この「ラベル1」〜「ラベル5」に対応する各細胞領域について細胞特徴量を算出し、細胞特徴量データを生成する。画像処理制御部6aは、この生成された各細胞特徴量データを観測時点ti-1と対応付けて記録する。 FIG. 5 is a diagram showing a cell region extracted by the feature amount calculation unit 2b for the observation image at the observation time point t i-1 shown in FIG. As illustrated in FIG. 5, the feature amount calculation unit 2b extracts and extracts five regions surrounded by closed edges indicated by bold lines as cell regions based on the observation image at the observation time point t i−1 . “Label 1” to “Label 5” are assigned to each cell region. The feature amount calculation unit 2b calculates a cell feature amount for each cell region corresponding to the “label 1” to “label 5”, and generates cell feature amount data. The image processing control unit 6a records the generated cell feature data in association with the observation time point t i-1 .

つぎに、図3に示したステップS109について説明する。ステップS109では、特徴画像生成部2cは、特徴量算出部2bによって算出された細胞特徴量をもとに、図6−1および図6−2に示すような細胞特徴画像を生成する。図6−1および図6−2は、それぞれ図2に示した観測時点ti-1の観測画像に対応して生成される細胞特徴画像としての輪郭画像および重心画像を示す図である。輪郭画像では、図5に示した各細胞領域のエッジがそのまま輪郭として示されている。また、重心画像では、十字マーク中の交点が各細胞領域の重心位置を示している。なお、重心位置を示すマークは、十字マークに限らず、指示点が明確なマークであれば任意でよい。 Next, step S109 shown in FIG. 3 will be described. In step S109, the feature image generation unit 2c generates a cell feature image as shown in FIGS. 6-1 and 6-2 based on the cell feature amount calculated by the feature amount calculation unit 2b. 6A and 6B are diagrams illustrating a contour image and a centroid image as cell feature images generated corresponding to the observation image at the observation time t i-1 illustrated in FIG. In the contour image, the edge of each cell region shown in FIG. 5 is shown as a contour as it is. In the centroid image, the intersection in the cross mark indicates the centroid position of each cell region. The mark indicating the position of the center of gravity is not limited to the cross mark, and may be any mark as long as the indicated point is clear.

つぎに、図3に示したステップS111について説明する。ステップS111では、細胞追跡部2dは、観測時点が異なる2つの観測画像に含まれる各細胞領域について評価値Jを算出し、算出した評価値Jの値に応じて、各細胞領域に対応する生細胞の同一性を判断する。評価値Jは、観測時点t1,t2の各観測画像中でラベルRt1,m,Rt2,nが付与された各細胞領域に対して、重心間の距離δd、面積の差δa、円形度の差δc、所定の重み付け係数kd,ka,kcを用い、次式(1)で定義される。
J=J(Rt1,m,Rt2,n)=kdδd+kaδa+kcδc ・・・(1)
ここで、変数m,nは、観測時点t1,t2の各観測画像で抽出された細胞領域数M,Nに対して、1≦m≦M,1≦n≦Nの関係にある。なお、評価値Jは、式(1)の右辺の各項の中から任意の1項または2項を用いて算出するようにしてもよい。
Next, step S111 shown in FIG. 3 will be described. In step S111, the cell tracking unit 2d calculates an evaluation value J for each cell region included in two observation images at different observation time points, and according to the calculated evaluation value J, the live tracking corresponding to each cell region is calculated. Judge cell identity. The evaluation value J is a distance δ d between the centroids and an area difference δ for each cell region to which the labels R t1, m , R t2, n are given in the observation images at the observation times t 1 , t 2. Using a , circularity difference δ c , and predetermined weighting coefficients k d , k a , and k c, they are defined by the following equation (1).
J = J (R t1, m , R t2, n) = k d δ d + k a δ a + k c δ c ··· (1)
Here, the variables m and n have a relationship of 1 ≦ m ≦ M and 1 ≦ n ≦ N with respect to the number of cell regions M and N extracted in the observation images at the observation times t 1 and t 2 . Note that the evaluation value J may be calculated using any one or two terms from among the terms on the right side of Equation (1).

細胞追跡部2dは、式(1)によって、変数m,nの可能なすべての組み合わせについて評価値Jを算出し、算出した評価値Jが所定のしきい値θ以下である場合、ラベルRt1,m,Rt2,nが付与された各細胞領域の生細胞に同一性があると判断し、時点t1より後の時点である時点t2のラベルRt2,nをラベルRt1,mに更新する。同様に、細胞追跡部2dは、観測時点t1,t2以外の各観測画像についても評価値Jを算出し、算出した評価値Jがしきい値θ以下となる各生細胞を同一の生細胞と判断し、ラベルを更新して対応付ける。 The cell tracking unit 2d calculates the evaluation value J for all possible combinations of the variables m and n according to the expression (1). If the calculated evaluation value J is equal to or less than the predetermined threshold value θ, the label R t1 , m , R t2, n are determined to be identical to the living cells in each cell region, and the label R t2, n at the time t 2 after the time t 1 is labeled R t1, m. Update to Similarly, the cell tracking unit 2d calculates an evaluation value J for each observation image other than the observation time points t 1 and t 2 , and uses the same living cells for which the calculated evaluation value J is equal to or less than the threshold value θ. Judge as a cell and update the label to correspond.

つぎに、図3に示したステップS113について説明する。ステップS113では、画像表示制御部6bは、表示画像選択部4bから入力された画像選択情報によって選択される複数の画像を図7−1および図7−2に示すように表示する制御を行う。図7−1および図7−2は、各観測画像および各細胞特徴画像から選択された複数の画像を重ね合わせて表示した表示例を示す図である。図7−1に示すように、画像表示制御部6bは、観測時点ti-1の観測画像と観測時点tiの輪郭画像とを重ね合わせて単一の画像として表示する。このように異なる観測時点の観測画像と細胞特徴画像とを重ね合わせて表示することによって、画像表示制御部6bは、観測画像と、この観測画像と異なる観測時点での細胞特徴画像との対応関係を観測者に容易に把握させることができる。 Next, step S113 shown in FIG. 3 will be described. In step S113, the image display control unit 6b performs control to display a plurality of images selected by the image selection information input from the display image selection unit 4b as shown in FIGS. 7-1 and 7-2. FIGS. 7A and 7B are diagrams illustrating display examples in which a plurality of images selected from each observation image and each cell feature image are superimposed and displayed. As illustrated in FIG. 7A, the image display control unit 6b superimposes the observation image at the observation time point t i-1 and the contour image at the observation time point t i and displays it as a single image. In this way, by displaying the observation image and the cell feature image at different observation points in an overlapping manner, the image display control unit 6b allows the correspondence between the observation image and the cell feature image at a different observation point. Can be easily grasped by the observer.

また、画像表示制御部6bは、図7−2に示すように、画像選択情報で観測時点ti-1〜ti+1の各輪郭画像を重ね合わせて単一の画像として表示する。このように異なる観測時点の複数の細胞特徴画像を重ね合わせて表示することによって、画像表示制御部6bは、細胞特徴量の経時変化を観測者に一見して観測させることができる。この場合、画像表示制御部6bは、図7−2に示すように、観測時点ごとに各細胞特徴画像の表示輝度を異ならせ、特に、観測時点の時系列順序に従って表示輝度を段階的に変化させるとよい。 Further, as illustrated in FIG. 7B, the image display control unit 6b superimposes the contour images at the observation times t i-1 to t i + 1 with the image selection information and displays the images as a single image. By displaying a plurality of cell feature images at different observation points in a superimposed manner as described above, the image display control unit 6b can cause the observer to observe the temporal change of the cell feature amount at a glance. In this case, as shown in FIG. 7-2, the image display control unit 6b changes the display brightness of each cell feature image at each observation time point, and in particular, changes the display brightness stepwise according to the time series order at the observation time point. It is good to let them.

このように表示することによって、画像表示制御部6bは、細胞特徴量の経時変化を観測者に一層容易に観測させることができる。なお、図7−2の上述の例では、時系列で最も後の観測時点ti+1の細胞特徴画像を最も明るく表示し、観測時点をti,ti-1と遡るごとに表示輝度を低下させているが、観測時点に対応する明るさの順序は逆転させてもよい。 By displaying in this way, the image display control part 6b can make an observer observe the time-dependent change of a cell feature-value more easily. In the above example of FIG. 7-2, the cell feature image at the latest observation time point t i + 1 in the time series is displayed brightest, and the display brightness is displayed every time the observation time point goes back to t i and t i−1. However, the order of the brightness corresponding to the observation time may be reversed.

また、画像表示制御部6bは、観測時点に応じて表示輝度を異ならせる替わりに、各画像間で対応付けられた生細胞の輝度総和もしくは面積の変化量、または相対距離に応じて、表示輝度を変化させるようにしてもよい。この場合、画像表示制御部6bは、たとえば、相対距離δと所定の重み係数kδを用いて次式(2)で算出される表示輝度値Cに従って表示輝度を変化させるようにするとよい。なお、輝度総和もしくは面積の変化量に対応させる場合にも、同様の関係式を用いて表示輝度を変化させることができる。
C=kδ・δ ・・・(2)
In addition, instead of changing the display brightness according to the observation time point, the image display control unit 6b displays the display brightness according to the luminance sum or area change amount of the living cells associated with each image, or the relative distance. May be changed. In this case, for example, the image display control unit 6b may change the display luminance according to the display luminance value C calculated by the following equation (2) using the relative distance δ and a predetermined weighting factor kδ. Note that the display luminance can also be changed using the same relational expression in the case of corresponding to the luminance sum or the change amount of the area.
C = kδ · δ (2)

このように表示することによって、画像表示制御部6bは、生細胞の輝度総和もしくは面積の変化量、または生細胞間の相対距離のいずれかの経時変化を観測者に容易に観測させることができる。なお、画像表示制御部6bは、カラー画像の場合、表示輝度に替えて表示色相を変化させるようにして、同様の効果を得ることができる。   By displaying in this way, the image display control unit 6b can allow the observer to easily observe any temporal change in either the luminance sum or area change of the living cells or the relative distance between the living cells. . In the case of a color image, the image display control unit 6b can obtain the same effect by changing the display hue instead of the display luminance.

また、図7−1および図7−2では、細胞特徴画像として輪郭画像を表示するように示したが、輪郭画像に替えて重心画像もしくは細胞核重心画像について同様に表示することで、重心位置や細胞核重心位置の経時変化を表示するようにしてもよい。さらに、図7−1および図7−2では、同種の細胞特徴画像を表示するように示したが、複数種類の細胞特徴画像を重ね合わせて表示するようにしてもよい。   In FIGS. 7A and 7B, the contour image is displayed as the cell feature image. However, instead of the contour image, the centroid image or the cell nucleus centroid image is displayed in the same manner, You may make it display the time-dependent change of a cell nucleus gravity center position. Further, although FIGS. 7-1 and 7-2 show that the same type of cell feature images are displayed, a plurality of types of cell feature images may be displayed in a superimposed manner.

なお、画像表示制御部6bは、画像選択情報で選択されれば、同一の観測時点の観測画像と細胞特徴画像とを重ね合わせて表示することも可能である。たとえば、図8−1に示すような観測時点ti-1の観測画像と輪郭画像の重ね合わせ表示、図8−2に示すような観測時点ti-1の観測画像と重心画像の重ね合わせ表示等を行うこともできる。また、画像表示制御部6bは、単独の観測画像または細胞特徴画像、あるいは図5に示したような細胞領域を抽出した段階の処理途中の画像を表示することもできる。 Note that the image display control unit 6b can also superimpose and display the observation image and the cell feature image at the same observation time if selected by the image selection information. For example, the display overlay observation time t i-1 of the observed image and the contour image shown in Figure 8-1, the superposition of the observation time t i-1 of the observed image and the center of gravity image as shown in Figure 8-2 Display and the like can also be performed. The image display controller 6b can also display a single observation image or cell feature image, or an image in the middle of processing at the stage of extracting the cell region as shown in FIG.

以上説明したように、この実施の形態1にかかる画像処理装置では、特徴量算出部2bが、各観測画像について細胞特徴量を算出するとともに細胞領域にラベルを付与して細胞特徴量データを生成し、特徴画像生成部2cが、生成された細胞特徴量データをもとに各観測時点の細胞特徴画像を生成し、画像表示制御部6bが、各観測画像および各細胞特徴画像の中から画像選択情報によって選択される、観測時点の異なる複数の画像を重ね合わせて表示するようにしているため、細胞特徴量の経時変化および観測画像と細胞特徴画像との対応関係が容易に観測可能なように画像を表示することができる。   As described above, in the image processing apparatus according to the first embodiment, the feature amount calculation unit 2b calculates the cell feature amount for each observation image and assigns a label to the cell region to generate cell feature amount data. Then, the feature image generation unit 2c generates a cell feature image at each observation point based on the generated cell feature amount data, and the image display control unit 6b selects an image from each observation image and each cell feature image. Since multiple images selected by selection information at different observation time points are displayed in a superimposed manner, the temporal changes in cell feature values and the correspondence between observed images and cell feature images can be easily observed. An image can be displayed on the screen.

また、この実施の形態1にかかる画像処理装置では、画像表示制御部6bが、観測時点ごとに表示輝度または表示色相を異ならせるようにしているため、細胞特徴量の経時変化および観測画像と細胞特徴画像との対応関係が一層容易に観測可能なように画像を表示することができる。   In the image processing apparatus according to the first embodiment, the image display control unit 6b changes the display luminance or the display hue at each observation time point. The image can be displayed so that the correspondence with the feature image can be observed more easily.

さらに、この実施の形態1にかかる画像処理装置では、細胞追跡部2dが、各観測時点間の生細胞の対応付けを行い、画像表示制御部6bが、各画像間で対応する生細胞の輝度総和もしくは面積の変化量、または相対距離に応じて、表示輝度または表示色相を異ならせるようにしているため、生細胞の輝度総和もしくは面積の変化量、または相対距離のいずれかの経時変化が容易に観測可能なように画像を表示することができる。   Further, in the image processing apparatus according to the first embodiment, the cell tracking unit 2d associates the living cells between the respective observation time points, and the image display control unit 6b performs the brightness of the corresponding living cells between the respective images. Since the display brightness or hue is made different according to the total or area change amount or relative distance, it is easy to change either the luminance sum or area change amount or the relative distance of living cells over time. An image can be displayed so that it can be observed.

以上説明した本発明の実施の形態1では、特徴画像生成部2cを用いて観測時点それぞれに対する細胞特徴画像を生成して、特徴画像記憶部5bに記録し(ステップS109)、表示画像選択部4bから入力された画像選択情報に応じて細胞特徴画像等を表示する(ステップS113)構成であった。しかし、本発明はこの構成に限定されるものではない。例えば、観測者の指示によって細胞特徴画像を生成する構成としてもよい。この構成を以下の変形例1および2で説明する。なお、以下の変形例1および2に示すように、画像選択情報で指示された観測時点についての細胞特徴画像のみを作成するように構成すれば、処理負荷の軽減を図ることができる。   In the first embodiment of the present invention described above, a cell feature image for each observation time point is generated using the feature image generation unit 2c, recorded in the feature image storage unit 5b (step S109), and the display image selection unit 4b. The cell feature image or the like is displayed according to the image selection information input from (step S113). However, the present invention is not limited to this configuration. For example, the cell feature image may be generated according to an instruction from the observer. This configuration will be described in Modifications 1 and 2 below. Note that, as shown in Modifications 1 and 2 below, the processing load can be reduced if only the cell feature image at the observation point instructed by the image selection information is created.

(変形例1)
画像処理装置1の基本構成は図1に示したとおりである。ただし、制御部6による特徴画像生成部2c、画像表示制御部6bの制御に関する処理内容が、上述の実施形態と若干異なる。表示画像選択部4bでは、観測者から細胞特徴画像の表示を希望する観測時点の指示を受け付け、この指示を画像選択情報とする。画像処理制御部6aは、特徴画像生成部2cに対して画像選択情報で指示されている観測時点に対応する細胞特徴画像の生成を指示する。特徴画像生成部2cは、指示された観測時点に対応する細胞特徴量データを特徴量記憶部5cから読み出して、この細胞特徴量データ用いて細胞特徴画像を生成する。そして、画像処理制御部6aは、指示された観測時点に対応付けて生成した細胞特徴画像を特徴画像記憶部5bに記録する。このように、本変形例1では、画像選択情報で指示された観測時点に対応する細胞特徴画像のみを作成する構成である。
(Modification 1)
The basic configuration of the image processing apparatus 1 is as shown in FIG. However, the processing content related to the control of the feature image generation unit 2c and the image display control unit 6b by the control unit 6 is slightly different from the above-described embodiment. The display image selection unit 4b receives an instruction from the observer at the observation time point when the cell feature image is desired to be displayed, and uses this instruction as image selection information. The image processing control unit 6a instructs the feature image generation unit 2c to generate a cell feature image corresponding to the observation time pointed by the image selection information. The feature image generation unit 2c reads out the cell feature amount data corresponding to the instructed observation time from the feature amount storage unit 5c, and generates a cell feature image using the cell feature amount data. Then, the image processing control unit 6a records the cell feature image generated in association with the designated observation point in the feature image storage unit 5b. Thus, in the first modification, only the cell feature image corresponding to the observation time pointed by the image selection information is created.

その後、画像表示制御部6bは、特徴画像記憶部5bに記録された細胞特徴画像を用いて画像選択情報で指示されている観測時点の細胞特徴画像同士や、指示されている観測時点の細胞特徴画像と観測画像との重畳表示を上述のように行う(図7−1、図7−2参照)。画像表示制御部6bによるこのような重畳表示の処理は、例えば上述のステップS113(図3)のタイミングで行えばよい。   Thereafter, the image display control unit 6b uses the cell feature images recorded in the feature image storage unit 5b to observe the cell feature images at the observation time pointed by the image selection information or the cell features at the indicated observation point. The superimposed display of the image and the observation image is performed as described above (see FIGS. 7-1 and 7-2). Such superimposed display processing by the image display control unit 6b may be performed at the timing of step S113 (FIG. 3) described above, for example.

(変形例2)
画像処理装置1の基本構成は図1に示したとおりである。ただし、制御部6による特徴画像生成部2c、画像表示制御部6bの制御に関する処理内容が、上述の実施形態と若干異なる。表示画像選択部4bでは、観測者から細胞特徴画像の表示を希望する観測時点の指示を受け付け、この指示を画像選択情報とする。画像処理制御部6aは、特徴画像生成部2cに対して画像選択情報で指示されている観測時点の細胞特徴量を画像化した細胞特徴画像の生成を指示する。本変形例2の場合、複数の観測時点のそれぞれについて細胞特徴画像を個別に生成するのではなく、画像選択情報で指示されている複数の観測時点に対応するそれぞれの細胞特徴量をまとめて単一の画像として画像化した細胞特徴画像を生成する。
(Modification 2)
The basic configuration of the image processing apparatus 1 is as shown in FIG. However, the processing content related to the control of the feature image generation unit 2c and the image display control unit 6b by the control unit 6 is slightly different from the above-described embodiment. The display image selection unit 4b receives an instruction from the observer at the observation time point when the cell feature image is desired to be displayed, and uses this instruction as image selection information. The image processing control unit 6a instructs the feature image generation unit 2c to generate a cell feature image obtained by imaging the cell feature amount at the observation time pointed by the image selection information. In the case of the second modification, the cell feature images are not individually generated for each of the plurality of observation time points, but the cell feature amounts corresponding to the plurality of observation time points specified by the image selection information are collectively collected. A cell feature image imaged as one image is generated.

特徴画像生成部2cは、画像選択情報で指示された観測時点に対応する細胞特徴量データを特徴量記憶部5cから読み出す。そして、読み出した細胞特徴量を1つの画像にまとめて画像化した細胞特徴画像を生成する。すなわち、画像選択情報で指示された各観測時点に対応する細胞特徴量が単一の画像内で重畳して表示されるように、各観測時点の細胞特徴量を反映した画素値を定め、1つの細胞特徴画像を作成する。このとき、異なる観測時点の細胞特徴量の表示位置(画素位置)同士が表示上重なる部分については、より新しい観測時点の細胞特徴量が優先的に表示されるように画素値を定める。   The feature image generation unit 2c reads cell feature amount data corresponding to the observation time pointed by the image selection information from the feature amount storage unit 5c. Then, a cell feature image is generated by combining the read cell feature amounts into one image. That is, a pixel value that reflects the cell feature value at each observation time point is determined so that the cell feature value corresponding to each observation time pointed by the image selection information is displayed in a superimposed manner in a single image. Create two cell feature images. At this time, the pixel value is determined so that the cell feature value at a new observation time point is preferentially displayed for the portion where the display positions (pixel positions) of the cell feature values at different observation time points overlap each other.

さらに、より新しい観測時点の細胞特徴量ほど表示輝度が大きくなるように、観測時点の時系列順序に従って表示輝度を段階的に変化させ、観測時点が新しいものほど明るく表示するように画素値を定める。このように生成された細胞特徴画像は、例えば細胞特徴量として輪郭を表示する場合、上述の実施形態で生成した図7−2と同様の画像となる。これにより、観測時点の変化と共に移り変わる細胞特徴量の様子を観測者に把握させやすくすることができる。表示輝度に限らず、表示色相を変化させたり、表示輝度と表示色相を変化させてもよい。そして、画像処理制御部6aは、生成した細胞特徴画像を特徴画像記憶部5bに記録する。このように、本例では、画像選択情報で指示された観測時点に対応する細胞特徴量だけを特徴量記憶部5cから読出し、当該観測時点の細胞特徴量を示した単一の細胞特徴画像のみを作成する構成である。   Furthermore, the display brightness is changed stepwise according to the time series order of the observation time so that the display brightness increases as the cell feature amount at the newer observation time, and the pixel value is determined so that the newer observation time is displayed brighter. . The cell feature image generated in this way is an image similar to that shown in FIG. 7-2 generated in the above-described embodiment, for example, when an outline is displayed as a cell feature amount. Thereby, it is possible to make it easier for the observer to grasp the state of the cell feature amount that changes with the change of the observation time point. Not only the display brightness but also the display hue may be changed, or the display brightness and the display hue may be changed. Then, the image processing control unit 6a records the generated cell feature image in the feature image storage unit 5b. As described above, in this example, only the cell feature amount corresponding to the observation time point indicated by the image selection information is read from the feature amount storage unit 5c, and only a single cell feature image indicating the cell feature amount at the observation time point is displayed. It is the structure which creates.

その後、画像表示制御部6bが、特徴画像記憶部5bに記録された細胞特徴画像を表示する。なお、観測画像との重畳表示も指示されていれば、特徴画像生成部2cで生成した細胞特徴画像を観測画像に重畳して表示する。   Thereafter, the image display control unit 6b displays the cell feature image recorded in the feature image storage unit 5b. If superimposition display with the observation image is also instructed, the cell feature image generated by the feature image generation unit 2c is displayed superimposed on the observation image.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、画像選択情報によって選択された、観測時点の異なる複数の細胞特徴画像の細胞特徴量を表示するようにしていたが、この実施の形態2では、さらに、選択された生細胞に対応する画像領域を抽出して表示するようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the cell feature amounts of a plurality of cell feature images selected by the image selection information at different observation points are displayed. However, in the second embodiment, the selected cell feature amount is further selected. An image area corresponding to a living cell is extracted and displayed.

図9は、本発明の実施の形態2にかかる画像処理装置の構成を示すブロック図である。図9に示すように、この実施の形態2にかかる画像処理装置11は、画像処理装置1が備えた入力部4および制御部6に換えて入力部14および制御部16を備える。入力部14は、入力部4の構成に加えて表示細胞選択部14cを備える。制御部16は、制御部6が備えた画像表示制御部6bに換えて画像表示制御部16bを備える。その他の構成は、実施の形態1と同じであり、同一構成部分には同一符号を付している。   FIG. 9 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. As illustrated in FIG. 9, the image processing apparatus 11 according to the second embodiment includes an input unit 14 and a control unit 16 instead of the input unit 4 and the control unit 6 included in the image processing apparatus 1. The input unit 14 includes a display cell selection unit 14 c in addition to the configuration of the input unit 4. The control unit 16 includes an image display control unit 16b instead of the image display control unit 6b included in the control unit 6. Other configurations are the same as those of the first embodiment, and the same reference numerals are given to the same components.

表示細胞選択部14cは、観測画像に含まれる生細胞のうち少なくとも1つの生細胞を選択する細胞選択情報の入力を受け付ける。画像表示制御部16bは、画像選択情報によって選択された複数の画像の中から、細胞選択情報によって選択された生細胞に対応する画像領域と、細胞追跡部2dによってこの選択された生細胞に対応付けられた各生細胞に対応する画像領域と、を抽出して表示する制御を行う。   The display cell selection unit 14c receives input of cell selection information for selecting at least one living cell among the living cells included in the observation image. The image display control unit 16b corresponds to the image region corresponding to the living cell selected by the cell selection information from the plurality of images selected by the image selection information, and the living cell selected by the cell tracking unit 2d. Control is performed to extract and display an image region corresponding to each attached live cell.

具体的には、画像表示制御部16bは、たとえば図10−1に示すように、観測時点ti-1の観測画像と観測時点tiの輪郭画像とから、細胞選択情報によって選択された「ラベル1」の生細胞に対応する画像領域を抽出し、抽出した各画像を重ね合わせて表示する。また、画像表示制御部16bは、たとえば図10−2に示すように、観測時点ti-1〜ti+1の各輪郭画像から「ラベル1」の生細胞に対応する画像領域を抽出し、重ね合わせて表示する。さらに、画像表示制御部16bは、輪郭画像に替えて重心画像もしくは細胞核重心画像を同様に重ね合わせて表示するようにしてもよい。 Specifically, as shown in FIG. 10A, for example, the image display control unit 16b selects “the cell selection information” from the observation image at the observation time point t i-1 and the contour image at the observation time point t i. An image area corresponding to the live cell of “Label 1” is extracted, and the extracted images are superimposed and displayed. Further, for example, as illustrated in FIG. 10B, the image display control unit 16b extracts an image region corresponding to the live cell of “label 1” from each contour image at the observation time points t i−1 to t i + 1. , Superimposed and displayed. Further, the image display control unit 16b may superimpose and display a centroid image or a cell nucleus centroid image instead of the contour image.

このように表示することによって、画像表示制御部16bは、観測者が注目する生細胞に対応した画像領域に対応する細胞特徴量のみを表示させることができ、観測者に一層容易に観測を行わせることができる。なお、観測者は、表示細胞選択部14cを介して細胞選択情報を入力することによって、表示させる観測画像および細胞特徴画像の中から、注目する生細胞を任意に選択することができる。   By displaying in this way, the image display control unit 16b can display only the cell feature amount corresponding to the image region corresponding to the live cell that is observed by the observer, and the observer can perform observation more easily. Can be made. The observer can arbitrarily select a live cell of interest from the observed image and the cell feature image to be displayed by inputting the cell selection information via the display cell selection unit 14c.

以上説明したように、この実施の形態2にかかる画像処理装置では、表示細胞選択部14cから入力される細胞選択情報をもとに、画像表示制御部16bが、細胞選択情報によって選択された生細胞に対応する画像領域を各画像から抽出し、抽出した各画像領域に対応する細胞特徴量を重ね合わせて表示するようにしているため、注目する生細胞に関する細胞特徴量の経時変化および観測画像と細胞特徴画像との対応関係が容易に観測可能なように画像を表示することができる。   As described above, in the image processing apparatus according to the second embodiment, based on the cell selection information input from the display cell selection unit 14c, the image display control unit 16b selects the live selected by the cell selection information. Image areas corresponding to cells are extracted from each image, and cell feature values corresponding to the extracted image areas are superimposed and displayed. An image can be displayed so that the correspondence between the cell feature image and the cell feature image can be easily observed.

なお、上述した実施の形態1および2では、観測画像入力部4aから入力され観測画像記憶部5aに記憶された一連の観測画像を処理するように示したが、観測画像入力部4aから観測画像が入力されるごとに適宜処理を行うようにしてもよい。   In Embodiments 1 and 2 described above, a series of observation images input from the observation image input unit 4a and stored in the observation image storage unit 5a are processed. However, the observation image input unit 4a receives the observation image. The processing may be performed as appropriate every time.

また、本発明には、複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置において、前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された各細胞特徴量を画像化して細胞特徴画像を生成するとともに、該生成した各細胞特徴画像に前記観測時点を対応付ける特徴画像生成手段と、前記各観測画像および前記各細胞特徴画像のうち前記観測時点が異なる複数の画像を重ね合わせて表示する制御を行う画像表示制御手段と、を備えたことを特徴とする画像処理装置、が含まれる。   Further, the present invention provides an image processing apparatus that processes and displays a series of observation images including live cells imaged at a plurality of observation points, and the live cells are selected from the observation images in the series of observation images. A feature amount calculating means for calculating a cell feature amount indicating a feature of each detected cell image region, and imaging each cell feature amount calculated by the feature amount calculation means. A feature image generating means for generating a cell feature image and associating the generated cell feature image with the observation time point, and superimposing a plurality of images with different observation time points among the observation image and the cell feature image And an image display control means for performing display control.

本発明の実施の形態1にかかる画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 図1に示した画像処理装置に入力される観測画像の一例を示す図である。It is a figure which shows an example of the observation image input into the image processing apparatus shown in FIG. 図1に示した画像処理装置が行う処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure performed by the image processing apparatus illustrated in FIG. 1. 図3に示した特徴算出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the feature calculation process shown in FIG. 観測画像から抽出される細胞領域の一例を示す図である。It is a figure which shows an example of the cell area | region extracted from an observation image. 観測画像から生成される細胞特徴画像の一例を示す図である。It is a figure which shows an example of the cell characteristic image produced | generated from an observation image. 観測画像から生成される細胞特徴画像の一例を示す図である。It is a figure which shows an example of the cell characteristic image produced | generated from an observation image. 図1に示した画像処理装置によって重ね合わせて表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed by superimposing with the image processing apparatus shown in FIG. 図1に示した画像処理装置によって重ね合わせて表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed by superimposing with the image processing apparatus shown in FIG. 図1に示した画像処理装置によって重ね合わせて表示される画像の他の一例を示す図である。It is a figure which shows another example of the image displayed by overlapping by the image processing apparatus shown in FIG. 図1に示した画像処理装置によって重ね合わせて表示される画像の他の一例を示す図である。It is a figure which shows another example of the image displayed by overlapping by the image processing apparatus shown in FIG. 本発明の実施の形態2にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 2 of this invention. 図9に示した画像処理装置によって重ね合わせて表示される画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of an image displayed in a superimposed manner by the image processing apparatus illustrated in FIG. 9. 図9に示した画像処理装置によって重ね合わせて表示される画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of an image displayed in a superimposed manner by the image processing apparatus illustrated in FIG. 9.

符号の説明Explanation of symbols

1,11 画像処理装置
2 画像処理部
2a 輝度補正部
2b 特徴量算出部
2c 特徴画像生成部
2d 細胞追跡部
3 表示部
4,14 入力部
4a 観測画像入力部
4b 表示画像選択部
5 記憶部
5a 観測画像記憶部
5b 特徴画像記憶部
5c 特徴量記憶部
6 制御部
6a 画像処理制御部
6b,16b 画像表示制御部
14c 表示細胞選択部
DESCRIPTION OF SYMBOLS 1,11 Image processing apparatus 2 Image processing part 2a Luminance correction | amendment part 2b Feature-value calculation part 2c Feature image generation part 2d Cell tracking part 3 Display part 4,14 Input part 4a Observation image input part 4b Display image selection part 5 Storage part 5a Observation image storage unit 5b Feature image storage unit 5c Feature quantity storage unit 6 Control unit 6a Image processing control unit 6b, 16b Image display control unit 14c Display cell selection unit

Claims (26)

複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置において、
前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手段と、
前記特徴量算出手段によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手段と、
異なる観測時点に対応する前記細胞特徴量同士を、単一の表示画像として画像化して表示する制御を行う画像表示制御手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that processes and displays a series of observation images including live cells imaged at a plurality of observation points,
A feature amount calculating means for detecting a cell image region corresponding to the living cell from each observation image in the series of observation images, and calculating a cell feature amount indicating a feature of each detected cell image region;
Feature quantity storage means for storing the cell feature quantity calculated by the feature quantity calculation means in association with the observation time point;
Image display control means for performing control for imaging and displaying the cell feature amounts corresponding to different observation time points as a single display image;
An image processing apparatus comprising:
前記特徴量算出手段によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手段を、更に備え、
前記画像表示制御手段は、異なる観測時点の前記細胞特徴画像同士を重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする請求項1に記載の画像処理装置。
A feature image generating unit that generates a cell feature image obtained by imaging the cell feature amount calculated by the feature amount calculating unit at each observation time point;
The image processing apparatus according to claim 1, wherein the image display control unit performs control to superimpose the cell feature images at different observation points and display them as the single display image.
複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置において、
前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手段と、
前記特徴量算出手段によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手段と、
ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる観測時点に対応する前記細胞特徴量とを、単一の表示画像として画像化して表示する制御を行う画像表示制御手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that processes and displays a series of observation images including live cells imaged at a plurality of observation points,
A feature amount calculating means for detecting a cell image region corresponding to the living cell from each observation image in the series of observation images, and calculating a cell feature amount indicating a feature of each detected cell image region;
Feature quantity storage means for storing the cell feature quantity calculated by the feature quantity calculation means in association with the observation time point;
An image display control means for performing control for imaging and displaying the observation image captured at a certain observation time point and the cell feature amount corresponding to the observation time point different from the observation image as a single display image;
An image processing apparatus comprising:
前記画像表示制御手段は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる2つ以上の観測時点それぞれに対応する前記細胞特徴量とを、前記単一の表示画像として表示する制御を行うことを特徴とする請求項3に記載の画像処理装置。   The image display control means displays the observation image captured at a certain observation time point and the cell feature quantity corresponding to each of two or more observation time points different from the observation image as the single display image. The image processing apparatus according to claim 3, wherein control is performed. 前記特徴量算出手段によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手段を、更に備え、
前記画像表示制御手段は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる少なくとも1時点以上の観測時点の前記細胞特徴画像とを重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする請求項3に記載の画像処理装置。
A feature image generating unit that generates a cell feature image obtained by imaging the cell feature amount calculated by the feature amount calculating unit at each observation time point;
The image display control unit displays the observation image captured at a certain observation time point and the cell feature image at an observation time point at least one time point different from the observation image, as a single display image. The image processing apparatus according to claim 3, wherein control is performed.
前記画像表示制御手段は、前記観測時点に応じた区別をつけて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。   The said image display control means performs control which displays the said cell feature-value as said single display image, attaching the distinction according to the said observation time point. The image processing apparatus described. 前記画像表示制御手段は、前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項6に記載の画像処理装置。   The image display control means performs control to display the cell feature amount as the single display image by changing at least one of a display luminance value and a display hue at each observation time point. An image processing apparatus according to 1. 前記画像表示制御手段は、前記観測時点の時系列順序に従って前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を段階的に変化させて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項7に記載の画像処理装置。   The image display control means displays the cell feature amount as the single display image by stepwise changing at least one of a display luminance value and a display hue for each observation time point according to the time series order of the observation time points. The image processing apparatus according to claim 7, wherein control is performed. 前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手段を備え、
前記特徴量算出手段は、細胞特徴量として少なくとも前記細胞画像領域の領域位置を算出し、
前記画像表示制御手段は、前記単一の表示画像内の各細胞画像領域の前記領域位置をもとに、前記対応付け手段によって対応付けられた各生細胞の相対距離を算出し、該算出した相対距離に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
A change amount of the cell feature amount between observation images with different observation time points is calculated, and based on the calculated change amount, whether the living cells included in the observation images with different observation time points are identical An association means for associating each living cell that is judged to be identical or not,
The feature amount calculating means calculates at least a region position of the cell image region as a cell feature amount,
The image display control unit calculates a relative distance of each living cell associated by the association unit based on the region position of each cell image region in the single display image, and calculates The control for displaying the cell feature amount as the single display image by changing at least one of a display luminance value and a display hue according to a relative distance is performed. An image processing apparatus according to 1.
前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手段を備え、
前記特徴量算出手段は、細胞特徴量として少なくとも前記細胞画像領域の輝度総和または面積を算出し、
前記画像表示制御手段は、各細胞画像領域の前記輝度総和または面積をもとに、前記対応付け手段によって対応付けられた各生細胞間の前記輝度総和または面積の変化量を算出し、該算出した変化量に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
A change amount of the cell feature amount between observation images with different observation time points is calculated, and based on the calculated change amount, whether the living cells included in the observation images with different observation time points are identical An association means for associating each living cell that is judged to be identical or not,
The feature amount calculating means calculates at least the luminance sum or area of the cell image region as a cell feature amount,
The image display control means calculates a change amount of the luminance sum or area between each living cell associated by the association means based on the luminance sum or area of each cell image region, 6. The control for displaying the cell feature amount as the single display image by changing at least one of a display luminance value and a display hue according to the changed amount is performed. The image processing apparatus described in one.
前記生細胞を選択する選択情報を受け付ける選択情報入力手段を備え、
前記画像表示制御手段は、前記単一の表示画像の中から、前記選択情報によって選択された生細胞に対応する画像領域を抽出して表示する制御を行うことを特徴とする請求項1〜10のいずれか一つに記載の画像処理装置。
Comprising selection information input means for receiving selection information for selecting the living cells;
The said image display control means performs control which extracts and displays the image area | region corresponding to the living cell selected by the said selection information from the said single display image. The image processing apparatus according to any one of the above.
前記特徴量算出手段は、細胞特徴量として前記生細胞の位置または形状の特徴を示す位置特性を算出し、
前記特徴画像生成手段は、前記特徴量算出手段によって算出された位置特性を前記単一の表示画像として画像化することを特徴とする請求項1〜11のいずれか一つに記載の画像処理装置。
The feature amount calculating means calculates a position characteristic indicating a feature of the position or shape of the living cell as a cell feature amount,
The image processing apparatus according to claim 1, wherein the feature image generation unit images the position characteristic calculated by the feature amount calculation unit as the single display image. .
前記位置特性は、前記生細胞の輪郭、重心位置および細胞核重心位置の少なくとも1つであることを特徴とする請求項12に記載の画像処理装置。   The image processing apparatus according to claim 12, wherein the position characteristic is at least one of a contour, a centroid position, and a cell nucleus centroid position of the living cell. 前記各観測画像の輝度値の補正を行う輝度補正手段を備えたことを特徴とする請求項1〜13のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a luminance correction unit configured to correct a luminance value of each observation image. 複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置に、前記観測画像を処理して表示させるための画像処理プログラムであって、
前記画像処理装置に、
前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手順と、
前記特徴量算出手順によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手順と、
異なる観測時点に対応する前記細胞特徴量同士を、単一の表示画像として画像化して表示する制御を行う画像表示制御手順と、
を実行させることを特徴とする画像処理プログラム。
An image processing program for processing and displaying the observation image on an image processing device that processes and displays a series of observation images including live cells imaged at a plurality of observation points,
In the image processing apparatus,
A feature amount calculation procedure for detecting a cell image region corresponding to the living cell from each observation image in the series of observation images, and calculating a cell feature amount indicating a feature of each detected cell image region;
A feature amount storage procedure for storing the cell feature amount calculated by the feature amount calculation procedure in association with the observation time point;
Image display control procedure for performing control to image and display the cell feature amounts corresponding to different observation time points as a single display image;
An image processing program for executing
前記特徴量算出手段によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手順を、更に実行させ、
前記画像表示制御手順は、異なる観測時点の前記細胞特徴画像同士を重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする請求項15に記載の画像処理プログラム。
A feature image generation procedure for generating a cell feature image obtained by imaging the cell feature amount calculated by the feature amount calculation unit at each observation time point; and
The image processing program according to claim 15, wherein the image display control procedure performs a control to superimpose the cell feature images at different observation points and display them as the single display image.
複数の観測時点で撮像された生細胞を含む一連の観測画像を処理して表示する画像処理装置に、前記観測画像を処理して表示させるための画像処理プログラムであって、
前記画像処理装置に、
前記一連の観測画像内の各観測画像の中から前記生細胞に対応する細胞画像領域を検出し、該検出した各細胞画像領域の特徴を示す細胞特徴量を算出する特徴量算出手順と、
前記特徴量算出手順によって算出された細胞特徴量を前記観測時点に対応付けて記憶する特徴量記憶手順と、
ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる観測時点に対応する前記細胞特徴量とを、単一の表示画像として画像化して表示する制御を行う画像表示制御手順と、
を実行させることを特徴とする画像処理プログラム。
An image processing program for processing and displaying the observation image on an image processing device that processes and displays a series of observation images including live cells imaged at a plurality of observation points,
In the image processing apparatus,
A feature amount calculation procedure for detecting a cell image region corresponding to the living cell from each observation image in the series of observation images, and calculating a cell feature amount indicating a feature of each detected cell image region;
A feature amount storage procedure for storing the cell feature amount calculated by the feature amount calculation procedure in association with the observation time point;
An image display control procedure for performing control for imaging and displaying the observation image captured at a certain observation time point and the cell feature amount corresponding to the observation time point different from the observation image as a single display image;
An image processing program for executing
前記画像表示制御手順は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる2つ以上の観測時点それぞれに対応する前記細胞特徴量とを、前記単一の表示画像として表示する制御を行うことを特徴とする請求項17に記載の画像処理プログラム。   The image display control procedure displays the observation image captured at a certain observation time point and the cell feature amount corresponding to each of two or more observation time points different from the observation image as the single display image. The image processing program according to claim 17, wherein control is performed. 前記特徴量算出手順によって算出された前記細胞特徴量を前記観測時点ごとに画像化した細胞特徴画像を生成する特徴画像生成手順を、更に備え、
前記画像表示制御手順は、ある観測時点で撮像された前記観測画像と、当該観測画像とは異なる少なくとも1時点以上の観測時点の前記細胞特徴画像とを重ね合わせて前記単一の表示画像として表示する制御を行うことを特徴とする請求項17に記載の画像処理プログラム。
A feature image generation procedure for generating a cell feature image obtained by imaging the cell feature amount calculated by the feature amount calculation procedure at each observation time point;
In the image display control procedure, the observation image captured at a certain observation time point and the cell feature image at an observation time point at least one time point different from the observation image are superimposed and displayed as the single display image. The image processing program according to claim 17, wherein control is performed.
前記画像表示制御手順は、前記観測時点に応じた区別をつけて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項15〜19のいずれか一つに記載の画像処理プログラム。   The image display control procedure performs control to display the cell feature amount as the single display image with a distinction according to the observation time point. The image processing program described. 前記画像表示制御手順は、前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項20に記載の画像処理プログラム。   The image display control procedure performs control for displaying the cell feature amount as the single display image by changing at least one of a display luminance value and a display hue at each observation time point. The image processing program described in 1. 前記画像表示制御手順は、前記観測時点の時系列順序に従って前記観測時点ごとに表示輝度値および表示色相の少なくとも一方を段階的に変化させて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項21に記載の画像処理プログラム。   In the image display control procedure, at least one of a display luminance value and a display hue is changed stepwise for each observation time according to the time series order of the observation time, and the cell feature is displayed as the single display image. The image processing program according to claim 21, wherein control is performed. 前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手順を実行させ、
前記特徴量算出手順は、細胞特徴量として少なくとも前記細胞画像領域の領域位置を算出し、
前記画像表示制御手順は、前記単一の表示画像内の各細胞画像領域の前記領域位置をもとに、前記対応付け手順によって対応付けられた各生細胞の相対距離を算出し、該算出した相対距離に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項15〜19のいずれか一つに記載の画像処理プログラム。
A change amount of the cell feature amount between observation images with different observation time points is calculated, and based on the calculated change amount, whether the living cells included in the observation images with different observation time points are identical Determine whether or not, and execute an association procedure for associating each living cell determined to be identical,
The feature amount calculation procedure calculates at least a region position of the cell image region as a cell feature amount,
The image display control procedure calculates a relative distance of each living cell associated by the association procedure based on the region position of each cell image region in the single display image, The control for displaying the cell feature amount as the single display image by changing at least one of a display luminance value and a display hue according to a relative distance is performed. The image processing program described in 1.
前記観測時点が異なる観測画像間の前記細胞特徴量の変化量を算出し、該算出した変化量をもとに、該観測時点が異なる各観測画像に含まれる前記生細胞に同一性があるか否かを判断し、同一性があると判断した各生細胞を対応付ける対応付け手順を実行させ、
前記特徴量算出手順は、細胞特徴量として少なくとも前記細胞画像領域の輝度総和または面積を算出し、
前記画像表示制御手順は、各細胞画像領域の前記輝度総和または面積をもとに、前記対応付け手順によって対応付けられた各生細胞間の前記輝度総和または面積の変化量を算出し、該算出した変化量に応じて表示輝度値および表示色相の少なくとも一方を異ならせて前記細胞特徴量を前記単一の表示画像として表示する制御を行うことを特徴とする請求項15〜19のいずれか一つに記載の画像処理プログラム。
A change amount of the cell feature amount between observation images with different observation time points is calculated, and based on the calculated change amount, whether the living cells included in the observation images with different observation time points are identical Determine whether or not, and execute an association procedure for associating each living cell determined to be identical,
The feature amount calculation procedure calculates at least the luminance sum or area of the cell image region as a cell feature amount,
The image display control procedure calculates, based on the luminance sum or area of each cell image region, the amount of change in the luminance sum or area between the living cells associated by the association procedure, and the calculation 20. The control for displaying the cell feature amount as the single display image by changing at least one of a display luminance value and a display hue according to the changed amount is performed. The image processing program described in 1.
前記生細胞を選択する選択情報を受け付ける選択情報入力手順を実行させ、
前記画像表示制御手順は、前記単一の表示画像の中から、前記選択情報によって選択された生細胞に対応する画像領域を抽出して表示する制御を行うことを特徴とする請求項15〜24のいずれか一つに記載の画像処理プログラム。
Executing a selection information input procedure for receiving selection information for selecting the living cells;
25. The image display control procedure performs control for extracting and displaying an image region corresponding to a living cell selected by the selection information from the single display image. The image processing program according to any one of the above.
前記特徴量算出手順は、細胞特徴量として前記生細胞の位置または形状の特徴を示す位置特性を算出し、
前記特徴画像生成手順は、前記特徴量算出手順によって算出された位置特性を前記単一の表示画像として画像化することを特徴とする請求項15〜25のいずれか一つに記載の画像処理プログラム。
The feature amount calculation procedure calculates a position characteristic indicating a feature of the position or shape of the living cell as a cell feature amount,
The image processing program according to any one of claims 15 to 25, wherein in the feature image generation procedure, the position characteristic calculated by the feature amount calculation procedure is imaged as the single display image. .
JP2005176977A 2005-06-16 2005-06-16 Image processing apparatus and image processing program Expired - Fee Related JP4690119B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005176977A JP4690119B2 (en) 2005-06-16 2005-06-16 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005176977A JP4690119B2 (en) 2005-06-16 2005-06-16 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2006350739A JP2006350739A (en) 2006-12-28
JP4690119B2 true JP4690119B2 (en) 2011-06-01

Family

ID=37646501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005176977A Expired - Fee Related JP4690119B2 (en) 2005-06-16 2005-06-16 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4690119B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4801025B2 (en) * 2007-09-07 2011-10-26 オリンパス株式会社 Cell image analysis apparatus and cell image analysis software
JP5297886B2 (en) * 2009-05-18 2013-09-25 オリンパス株式会社 Cell image analyzer
JP2013085546A (en) * 2011-10-24 2013-05-13 Nikon Corp Apparatus, method and program for processing image
JP2013137635A (en) * 2011-12-28 2013-07-11 Dainippon Screen Mfg Co Ltd Picture display unit and picture display method
JP6218208B2 (en) * 2012-10-26 2017-10-25 国立大学法人愛媛大学 Cell evaluation method and use thereof
JP6494903B2 (en) * 2013-02-14 2019-04-03 ソニー株式会社 Analysis system, analysis program, and analysis method
JP2016090234A (en) * 2014-10-29 2016-05-23 大日本印刷株式会社 Image processing device, image processing program, and image processing method
JP6759550B2 (en) 2015-03-04 2020-09-23 ソニー株式会社 Information processing equipment, programs, information processing methods and observation systems
JP2016182142A (en) * 2016-07-05 2016-10-20 株式会社ニコン Image processor, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001258599A (en) * 2000-03-23 2001-09-25 Japan Science & Technology Corp Method for extracting cell genealogy
JP2004033539A (en) * 2002-07-04 2004-02-05 Konica Minolta Holdings Inc Medical image processor, medical image processing method, and program, and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3836716A1 (en) * 1988-10-28 1990-05-03 Zeiss Carl Fa METHOD FOR EVALUATING CELL IMAGES
JPH0877329A (en) * 1994-09-02 1996-03-22 Konica Corp Display device for time-sequentially processed image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001258599A (en) * 2000-03-23 2001-09-25 Japan Science & Technology Corp Method for extracting cell genealogy
JP2004033539A (en) * 2002-07-04 2004-02-05 Konica Minolta Holdings Inc Medical image processor, medical image processing method, and program, and recording medium

Also Published As

Publication number Publication date
JP2006350739A (en) 2006-12-28

Similar Documents

Publication Publication Date Title
JP4690119B2 (en) Image processing apparatus and image processing program
JP3189870B2 (en) Image processing device
US9812086B2 (en) Method for displaying by determined color result image of area extraction result
EP1847955A1 (en) Image processor, microscope system, and area specification program
JP5228826B2 (en) Cell image analysis apparatus and cell image analysis method
JP4001162B2 (en) Image processing method, image processing program and storage medium therefor, and image processing apparatus
US9824189B2 (en) Image processing apparatus, image processing method, image display system, and storage medium
JP2006350740A (en) Image processing apparatus and program thereof
JP2006349533A (en) Image processor and image processing program
JP3342742B2 (en) Image processing device
JPWO2006033178A1 (en) Image processing apparatus, method, and program
JP2007043506A (en) Image processing apparatus, image processing method thereof, program, and storage medium
JP6624369B2 (en) Image processing device, image processing method, image display device, and computer program
JP4963492B2 (en) Image segmentation method, program and apparatus
JP4596929B2 (en) Background image generation apparatus and background image generation program
JP2006203595A (en) Device for partially replacing color in image color space and color partially replacing system
JP5527035B2 (en) Image processing program, image processing apparatus, and imaging apparatus
JP2007318555A (en) Magnified observation device and magnified observation method
US20180185101A1 (en) Mapping image display control device, method, and program
JP5562610B2 (en) Image processing device
WO2007015384A1 (en) Area extracting device and area extracting program
JP2009136454A (en) Endoscope system
JP5186314B2 (en) Endoscope apparatus and program
US6298155B1 (en) Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon
JP5910637B2 (en) Biological image analysis system, biological image analysis method, and biological image analysis program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110217

R151 Written notification of patent or utility model registration

Ref document number: 4690119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees