JP2008116526A - Device and method for processing microscope image - Google Patents

Device and method for processing microscope image Download PDF

Info

Publication number
JP2008116526A
JP2008116526A JP2006297404A JP2006297404A JP2008116526A JP 2008116526 A JP2008116526 A JP 2008116526A JP 2006297404 A JP2006297404 A JP 2006297404A JP 2006297404 A JP2006297404 A JP 2006297404A JP 2008116526 A JP2008116526 A JP 2008116526A
Authority
JP
Japan
Prior art keywords
focus
processing target
focal position
luminance
focus coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006297404A
Other languages
Japanese (ja)
Inventor
Hirofumi Matsuzaki
浩文 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006297404A priority Critical patent/JP2008116526A/en
Publication of JP2008116526A publication Critical patent/JP2008116526A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method for processing a microscope image by which a high-contrast and clear image is obtained for a translucent and specimen having some thickness. <P>SOLUTION: Image data are acquired by imaging the specimen 1, while changing the focal position Z of a camera 13 in the thickness direction of the specimen 1, and the luminance information of each pixel relative to the moving direction of the focal position Z is read. The peaks p<SB>1</SB>and p<SB>2</SB>of a focus coefficient f are detected from the change of the focus coefficient f relative to the moving direction of the focal position Z, and first and second processing object regions R<SB>1</SB>and R<SB>2</SB>are set in the moving region of the focal position Z, based on the detected peaks p<SB>1</SB>and p<SB>2</SB>. Average luminance, concerning each of first and second processing object regions R<SB>1</SB>and R<SB>2</SB>of each pixel, is calculated from the luminance information of each pixel relative to the moving direction of the focal position Z, and the luminance gradation of each pixel is set, based on the difference of the average luminance. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えば培養液中の細胞のような半透明で厚みのある被検物を対象とする顕微鏡画像の処理装置及び処理方法に関するものである。   The present invention relates to a microscopic image processing apparatus and processing method for a semitransparent and thick test object such as cells in a culture solution.

従来、培養液中の細胞のように半透明で厚みのある被検物を顕微鏡で観察し、これを画像処理しようとする場合、CCDカメラ等の撮像手段の焦点位置を被検物の厚さ方向に変化させながら、画像全体として最もピントが合うところ、或いは最もコントラストが高くなるところで撮像を行う撮像法が採られる。また、撮像手段の焦点位置を被検物の厚さ方向に変化させながら連続的に撮像し、最もピントがあう領域だけを取り出して繋ぎ合わせて1枚の画像を作成するマルチフォーカス型の撮像法も知られている(特許文献1,2,3参照)
特開平10−290389号公報 特開2001−344599号公報 特開平8−294035号公報
Conventionally, when a semi-transparent and thick test object such as cells in a culture solution is observed with a microscope, and this is to be image-processed, the focal position of an imaging means such as a CCD camera is the thickness of the test object. While changing the direction, an imaging method is adopted in which imaging is performed where the entire image is in focus or where the contrast is highest. Also, a multi-focus type imaging method that continuously images while changing the focal position of the imaging means in the thickness direction of the test object, and extracts only the most focused area and connects them to create one image. Is also known (see Patent Documents 1, 2, and 3)
Japanese Patent Laid-Open No. 10-290389 JP 2001-344599 A JP-A-8-294035

しかしながら、培養液中の細胞のように半透明で厚みのある被検物に対しては、被検物自体が半透明であるために上記従来の撮像法では明瞭なコントラストが得にくく、全体的にぼやけてしまってどこに被検物があるかが分からない画像が得られる場合が多かった。   However, for semi-transparent and thick specimens such as cells in the culture solution, since the specimen itself is translucent, it is difficult to obtain a clear contrast with the above conventional imaging method. In many cases, the image is blurred and the image is unknown where the test object is located.

そこで本発明は、半透明で厚みのある被検物に対し、コントラストが高くて明瞭な画像を得ることができる顕微鏡画像の処理装置及び方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide a microscopic image processing apparatus and method capable of obtaining a clear and clear image with respect to a translucent and thick test object.

請求項1に記載の顕微鏡画像の処理装置は、半透明で厚みのある被検物を対象とする顕微鏡画像の処理装置であって、撮像手段の焦点位置を被検物の厚さ方向に変化させながら被検物の撮像を行って複数の画像データを取得する画像データ取得手段と、画像データ取得手段により取得された複数の画像データから、各焦点位置における各画素の輝度情報を読み取って輝度情報記憶手段に記憶させる輝度情報読み取り手段と、焦点位置の移動領域に第1及び第2の処理対象領域を設定する処理対象領域設定手段と、輝度情報記憶手段に記憶された各焦点位置における各画素の輝度情報から、各画素の第1及び第2の処理対象領域それぞれについての平均輝度を算出し、その平均輝度の差分に基づいて各画素の輝度階調を設定する輝度階調設定手段とを備えたことを特徴とする顕微鏡画像の処理装置。   The microscope image processing apparatus according to claim 1 is a microscope image processing apparatus for a semi-transparent and thick test object, and changes a focal position of an imaging unit in a thickness direction of the test object. Image data acquisition means for capturing a plurality of image data by imaging the test object while reading the luminance information of each pixel at each focal position from the plurality of image data acquired by the image data acquisition means Luminance information reading means stored in the information storage means, processing target area setting means for setting the first and second processing target areas in the moving area of the focal position, and each focal position stored in the luminance information storage means A luminance gradation setting unit that calculates an average luminance for each of the first and second processing target areas of each pixel from the luminance information of the pixel and sets a luminance gradation of each pixel based on a difference between the average luminances. Processing device of the microscopic images, characterized by comprising and.

請求項2に記載の顕微鏡画像の処理装置は、請求項1に記載の顕微鏡画像の処理装置において、画像データ取得手段により取得された複数の画像データより各焦点位置におけるフォーカス係数を算出してフォーカス係数記憶手段に記憶させるフォーカス係数算出手段を備え、処理対象領域設定手段は、フォーカス係数記憶手段に記憶されたフォーカス係数に基づいて得られる焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを検出し、その検出したピークに基づいて焦点位置の移動領域に第1及び第2の処理対象領域を設定する。   The microscope image processing device according to claim 2 is the microscope image processing device according to claim 1, wherein the focus coefficient is calculated by calculating a focus coefficient at each focal position from a plurality of image data acquired by the image data acquisition means. A focus coefficient calculating means to be stored in the coefficient storage means, and the processing target area setting means is a peak of the focus coefficient based on the change of the focus coefficient with respect to the moving direction of the focus position obtained based on the focus coefficient stored in the focus coefficient storage means. And the first and second processing target areas are set in the focal position moving area based on the detected peak.

請求項3に記載の顕微鏡画像の処理装置は、請求項2に記載の顕微鏡画像の処理装置において、前記被検物が培養液中の細胞であり、処理対象領域設定手段は、焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを2つ検出したときには
、その検出した2つのピークの一方を1つずつ含む2つの焦点位置の移動領域を第1及び第2の処理対象領域として設定する。
The microscope image processing apparatus according to claim 3 is the microscope image processing apparatus according to claim 2, wherein the test object is a cell in a culture solution, and the processing target region setting means moves the focal position. When two focus coefficient peaks are detected from the change of the focus coefficient with respect to the direction, two focus position moving areas including one of the two detected peaks one by one are set as the first and second processing target areas. To do.

請求項4に記載の顕微鏡画像の処理方法は、半透明で厚みのある被検物を対象とする顕微鏡画像の処理方法であって、撮像手段の焦点位置を被検物の厚さ方向に変化させながら被検物の撮像を行って複数の画像データを取得する画像データ取得工程と、画像データ取得工程において取得した複数の画像データから、各焦点位置における各画素の輝度情報を読み取って輝度情報記憶手段に記憶させる輝度情報読み取り工程と、焦点位置の移動領域に第1及び第2の処理対象領域を設定する処理対象領域設定工程と、輝度情報記憶手段に記憶された各焦点位置における各画素の輝度情報から、各画素の第1及び第2の処理対象領域それぞれについての平均輝度を算出し、その平均輝度の差分に基づいて各画素の輝度階調を設定する輝度階調設定工程とを含む。   The microscopic image processing method according to claim 4 is a microscopic image processing method for a semi-transparent and thick test object, and the focal position of the imaging means is changed in the thickness direction of the test object. Image data acquisition step of capturing a plurality of image data by imaging the test object while reading the luminance information of each pixel at each focal position from the plurality of image data acquired in the image data acquisition step A luminance information reading step to be stored in the storage unit, a processing target region setting step for setting the first and second processing target regions in the moving region of the focal position, and each pixel at each focal position stored in the luminance information storage unit A luminance gradation setting process for calculating the average luminance for each of the first and second processing target areas of each pixel from the luminance information of the pixel and setting the luminance gradation of each pixel based on the difference of the average luminance Including door.

請求項5に記載の顕微鏡画像の処理方法は、請求項4に記載の顕微鏡画像の処理方法において、画像データ取得工程において取得した複数の画像データより各焦点位置におけるフォーカス係数を算出してフォーカス係数記憶手段に記憶させるフォーカス係数算出工程を含み、処理対象領域設定工程において、フォーカス係数記憶手段に記憶されたフォーカス係数に基づいて得られる焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを検出し、その検出したピークに基づいて焦点位置の移動領域に第1及び第2の処理対象領域を設定する。   The microscope image processing method according to claim 5 is the microscope image processing method according to claim 4, wherein a focus coefficient at each focal position is calculated from a plurality of image data acquired in the image data acquisition step. A focus coefficient calculation step to be stored in the storage means, and in the processing target area setting step, the peak of the focus coefficient is determined from the change in the focus coefficient with respect to the moving direction of the focus position obtained based on the focus coefficient stored in the focus coefficient storage means. Based on the detected peak, first and second processing target areas are set in the moving area of the focal position.

請求項6に記載の顕微鏡画像の処理方法は、請求項5に記載の顕微鏡画像の処理方法において、前記被検物が培養液中の細胞であり、処理対象領域設定工程において、焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを2つ検出したときには、その検出した2つのピークの一方を1つずつ含む2つの焦点位置の移動領域を第1及び第2の処理対象領域として設定する。   The microscopic image processing method according to claim 6 is the microscopic image processing method according to claim 5, wherein the test object is a cell in a culture solution, and the focal position is moved in the processing target region setting step. When two focus coefficient peaks are detected from the change of the focus coefficient with respect to the direction, two focus position moving areas including one of the two detected peaks one by one are set as the first and second processing target areas. To do.

本発明では、被検物の画像の各画素に、焦点位置の移動領域に設定した第1及び第2の処理対象領域それぞれについて算出した平均輝度から求められる輝度階調が設定されるので、半透明で厚みのある被検物に対し、コントラストが高くで明瞭な画像を得ることができる。   In the present invention, the luminance gradation obtained from the average luminance calculated for each of the first and second processing target areas set in the focal position moving area is set in each pixel of the image of the test object. A clear and high contrast image can be obtained for a transparent and thick test object.

以下、図面を参照して本発明の実施の形態について説明する。図1は本発明の一実施の形態における顕微鏡画像の処理装置の構成図、図2は本発明の一実施の形態における顕微鏡画像の処理装置の制御系統図、図3は本発明の一実施の形態における画素データ及び輝度データ等の説明図、図4は本発明の一実施の形態におけるフォーカス係数の説明図、図5は本発明の一実施の形態における処理対象領域の説明図、図6は本発明の一実施の形態における輝度階調の説明図、図7、図8、図9及び図10は本発明の一実施の形態における顕微鏡画像の処理工程を示すフローチャート、図11は本発明の一実施の形態における顕微鏡画像の処理装置により得られた画像を従来の処理装置によって得られた画像とともに示す図である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a microscope image processing apparatus according to an embodiment of the present invention, FIG. 2 is a control system diagram of the microscope image processing apparatus according to an embodiment of the present invention, and FIG. 3 is an embodiment of the present invention. FIG. 4 is an explanatory diagram of a focus coefficient in an embodiment of the present invention, FIG. 5 is an explanatory diagram of a processing target area in the embodiment of the present invention, and FIG. FIG. 7, FIG. 8, FIG. 9 and FIG. 10 are flow charts showing the processing steps of a microscope image in one embodiment of the present invention, and FIG. 11 is a diagram of the present invention. It is a figure which shows the image obtained by the processing apparatus of the microscope image in one Embodiment with the image obtained by the conventional processing apparatus.

図1は、半透明で厚みのある被検物1を対象とする顕微鏡画像の処理装置4である。ここでは被検物1が培養液2中の細胞3であるものとする。この顕微鏡画像の処理装置4は顕微鏡部10と画像処理部20から成り、顕微鏡部10は被検物1を載置するステージ11と、ステージ11の下方に設置された照明12と、ステージ11の上方に設置されたカメラ13(撮像手段)を有している。カメラ13はM×Nの画素を備えたCCD(Charge Coupled Devices)を内蔵しており、図示しない移動機構を介し
て上下方向に移動して、ステージ11の上面からの高さによって表される焦点位置Zを上下方向(被検物1の厚さ方向)に変化させる。
FIG. 1 shows a microscope image processing apparatus 4 for a semi-transparent and thick test object 1. Here, it is assumed that the test object 1 is a cell 3 in the culture solution 2. The microscope image processing apparatus 4 includes a microscope unit 10 and an image processing unit 20, and the microscope unit 10 includes a stage 11 on which the test object 1 is placed, an illumination 12 installed below the stage 11, and a stage 11. It has a camera 13 (imaging means) installed above. The camera 13 has a built-in CCD (Charge Coupled Devices) having M × N pixels, moves up and down via a moving mechanism (not shown), and is a focal point represented by the height from the upper surface of the stage 11. The position Z is changed in the vertical direction (the thickness direction of the test object 1).

図1において、画像処理部20は制御部21と、制御部21と繋がるステージ制御部22、照明制御部23、カメラ制御部24、操作・入力部25及びモニター26から成る。ステージ制御部22は制御部21からの指令に基づいて顕微鏡部10のステージ11の位置決め制御を行い、照明制御部23は制御部21からの指令に基づいてステージ11に載置された被検物1の照明を行う。カメラ制御部24は制御部21からの指令に基づいてカメラ13を上下させ、カメラ13の焦点位置Zを制御部21から与えられた指示値に一致させるとともに、制御部21から与えられた撮像指示に基づいてカメラ13に撮像を行わせる。操作・入力部25は制御部21に操作・入力信号を入力する入力装置であり、モニター26は制御部21において生成されたデータを視覚的に表示する出力装置である。   In FIG. 1, the image processing unit 20 includes a control unit 21, a stage control unit 22 connected to the control unit 21, an illumination control unit 23, a camera control unit 24, an operation / input unit 25, and a monitor 26. The stage control unit 22 performs positioning control of the stage 11 of the microscope unit 10 based on a command from the control unit 21, and the illumination control unit 23 is a test object placed on the stage 11 based on a command from the control unit 21. Illumination 1 is performed. The camera control unit 24 moves the camera 13 up and down based on a command from the control unit 21, matches the focal position Z of the camera 13 with the instruction value given from the control unit 21, and takes an imaging instruction given from the control unit 21. The camera 13 is caused to take an image based on the above. The operation / input unit 25 is an input device that inputs an operation / input signal to the control unit 21, and the monitor 26 is an output device that visually displays data generated in the control unit 21.

図2において、制御部21には入力処理部31、指令部32、焦点位置指示部33、撮像指示部34、画像データ記憶部35、輝度データ読み取り部(輝度情報読み取り手段)36、輝度データ記憶部(輝度情報記憶手段)37、フォーカス係数算出部(フォーカス係数算出手段)38、フォーカス係数記憶部(フォーカス係数記憶手段)39、処理対象領域設定部(処理対象領域設定手段)40、処理対象領域記憶部41、輝度階調設定部(輝度階調設定手段)42、輝度階調データ記憶部43及び表示処理部44が備えられている。   2, the control unit 21 includes an input processing unit 31, a command unit 32, a focus position instruction unit 33, an imaging instruction unit 34, an image data storage unit 35, a luminance data reading unit (luminance information reading unit) 36, and a luminance data storage. Unit (luminance information storage unit) 37, focus coefficient calculation unit (focus coefficient calculation unit) 38, focus coefficient storage unit (focus coefficient storage unit) 39, processing target region setting unit (processing target region setting unit) 40, processing target region A storage unit 41, a luminance gradation setting unit (luminance gradation setting means) 42, a luminance gradation data storage unit 43, and a display processing unit 44 are provided.

図2において、入力処理部31は操作・入力部25の操作によって入力された信号を指令部32に入力する。指令部32は入力処理部31から入力された信号等に基づいて焦点位置指示部33、撮像指示部34、輝度データ読み取り部36、フォーカス係数算出部38、処理対象領域設定部40、輝度階調設定部42及び表示処理部44に指令信号を出力する。   In FIG. 2, the input processing unit 31 inputs a signal input by operating the operation / input unit 25 to the command unit 32. The command unit 32 is based on the signal input from the input processing unit 31 and the like, the focus position instruction unit 33, the imaging instruction unit 34, the luminance data reading unit 36, the focus coefficient calculation unit 38, the processing target region setting unit 40, the luminance gradation Command signals are output to the setting unit 42 and the display processing unit 44.

焦点位置指示部33は、指令部32からの指令に基づいてカメラ制御部24にカメラ13の移動指令と焦点位置Zの指示値を与える。カメラ制御部24は焦点位置指示部33から与えられた指令に基づいてカメラ13を上下させ、焦点位置Zを指示値に一致させる。本実施の形態では、カメラ13の焦点位置Zとして、下から上に向かって等間隔にJ(Jは2以上の整数。例えば100)個の飛び飛びの値(Z=Z,Z,・・・,Z)の指示値が与えられる。 The focal position instruction unit 33 gives a movement command for the camera 13 and an instruction value for the focal position Z to the camera control unit 24 based on a command from the command unit 32. The camera control unit 24 moves the camera 13 up and down based on a command given from the focus position instruction unit 33 to make the focus position Z coincide with the instruction value. In the present embodiment, as the focal position Z of the camera 13, J (J is an integer of 2 or more, for example, 100) jump values (Z = Z 1 , Z 2 ,.・ ・ Indicating value of Z J ) is given.

撮像指示部34は、指令部32からの指令に基づいてカメラ制御部24に撮像指示を与える。カメラ13の撮像によって得られた画像データは画像データ記憶部35に記憶される。1つの画像データはカメラ13のCCDが備えるM×N個の画素の画素データP(k)j(k=1,2,・・・,M×N)の集合体であり、各焦点位置Zj(j=1,2,・・・,J)について1つの画像データ(M×N個の画素データ)が存在する。焦点位置Z=Z,Z,・・・,Zについて計J回の撮像を行うと、画像データ記憶部35にはM×N×Jの三次元の画素データP(k)j(k=1,2,・・・,M×N、j=1,2,・・・,J)が記憶される。 The imaging instruction unit 34 gives an imaging instruction to the camera control unit 24 based on a command from the command unit 32. Image data obtained by imaging by the camera 13 is stored in the image data storage unit 35. One image data is an aggregate of pixel data P (k) j (k = 1, 2,..., M × N) of M × N pixels provided in the CCD of the camera 13, and each focal position Zj. There is one image data (M × N pixel data) for (j = 1, 2,..., J). When a total of J times of imaging are performed with respect to the focal positions Z = Z 1 , Z 2 ,..., Z J , the M × N × J three-dimensional pixel data P (k) j ( k = 1, 2,..., M × N, j = 1, 2,.

この画像データ記憶部35に記憶される三次元の画素データP(k)j(k=1,2,・・・,M×N、j=1,2,・・・,J)は、M×Nの二次元の画素データP(k)j(k=1,2,・・・,M×N)が下から上へJ個の階層に積み重ねられたイメージで捉えることができる(図3)。ここで、パラメータjは階層又は焦点位置Zを特定する番号であり、下から上へ順に1,2,・・・,Jとカウントされる。また、パラメータkは画素を特定する番号であり、図3に示す矩形領域の1つの隅から対角の隅に至るまで順に1,2,・・・,M×Nとカウントされる。   Three-dimensional pixel data P (k) j (k = 1, 2,..., M × N, j = 1, 2,..., J) stored in the image data storage unit 35 is represented by M XN two-dimensional pixel data P (k) j (k = 1, 2,..., M × N) can be captured by images stacked in J layers from bottom to top (FIG. 3). ). Here, the parameter j is a number that identifies the hierarchy or the focal position Z, and is counted as 1, 2,... The parameter k is a number for specifying a pixel, and is counted as 1, 2,..., M × N in order from one corner of the rectangular area shown in FIG.

輝度データ読み取り部36は、指令部32からの指令に基づいて、画像データ記憶部35に記憶された三次元の画素データP(k)j(k=1,2,・・・,M×N、j=1,2,・・・,J)から各画素についての輝度データ(輝度情報)を読み取り、その結果を輝度データ記憶部37に記憶させる。これにより輝度データ記憶部37には、三次元の画素データP(k)jに対応する三次元の輝度データb(k)j(k=1,2,・・・,M×N、j=1,2,・・・,J)が記憶される(図3)。輝度データ記憶部37に記憶される三次元の輝度データb(k)j(k=1,2,・・・,M×N、j=1,2,・・・,J)は、画素データP(k)jの場合と同様に、M×Nの二次元の輝度データb(k)j(k=1,2,・・・,M×N)が下から上へJ個の階層に積み重ねられたイメージで捉えることができる(図3)。   Based on the command from the command unit 32, the luminance data reading unit 36 stores the three-dimensional pixel data P (k) j (k = 1, 2,..., M × N) stored in the image data storage unit 35. , J = 1, 2,..., J), the luminance data (luminance information) for each pixel is read, and the result is stored in the luminance data storage unit 37. As a result, the luminance data storage unit 37 stores three-dimensional luminance data b (k) j (k = 1, 2,..., M × N, j = corresponding to the three-dimensional pixel data P (k) j. 1, 2,..., J) are stored (FIG. 3). Three-dimensional luminance data b (k) j (k = 1, 2,..., M × N, j = 1, 2,..., J) stored in the luminance data storage unit 37 is pixel data. As in the case of P (k) j, M × N two-dimensional luminance data b (k) j (k = 1, 2,..., M × N) is arranged in J layers from bottom to top. It can be captured with the stacked images (Figure 3).

フォーカス係数算出部38は、指令部32からの指令に基づいて、画像データ記憶部35に記憶された各焦点位置Zj(j=1,2,・・・,J)の画像データについてのフォーカス係数fj(j=1,2,・・・,J)を算出する。フォーカス係数fjはその焦点位置Zjにおける画像データに対するカメラ13の合焦度を示す値(無次元量)であり、その値が相対的に高いものほどピントが合った画像データであるといえる。フォーカス係数fjは各焦点位置Zjにおける画像データ全体を対象として算出するが、その算出の仕方は任意であり、例えば、通常用いられる微分処理法やウェーブレット変換法等を用いることができる。フォーカス係数算出部38において算出されたフォーカス係数fj(j=1,2,・・・,J)はフォーカス係数記憶部39に記憶される。   The focus coefficient calculation unit 38 is based on a command from the command unit 32, and the focus coefficient for the image data at each focal position Zj (j = 1, 2,..., J) stored in the image data storage unit 35. fj (j = 1, 2,..., J) is calculated. The focus coefficient fj is a value (dimensionalless amount) indicating the degree of focus of the camera 13 with respect to the image data at the focal position Zj. It can be said that the higher the value is, the more focused the image data is. The focus coefficient fj is calculated for the entire image data at each focal position Zj. However, the calculation method is arbitrary, and for example, a commonly used differential processing method, wavelet transform method, or the like can be used. The focus coefficient fj (j = 1, 2,..., J) calculated by the focus coefficient calculation unit 38 is stored in the focus coefficient storage unit 39.

処理対象領域設定部40は、指令部32からの指令に基づいて、フォーカス係数記憶部39に記憶されたフォーカス係数fj(j=1,2,・・・,J)を焦点位置Zの移動方向に補間して、焦点位置Zの移動方向に対する連続したフォーカス係数fのグラフ(以下、フォーカス係数曲線と称する)を作成し(図4及び図5)、このフォーカス係数曲線から2つのピークを検出する。本実施の形態のように被検物1が培養液2中の細胞3である場合、細胞3の核3aが占める面積が多い領域と、細胞の外殻3bが占める面積が多い領域のそれぞれにおいて、フォーカス係数fのピークが検出される。以下、これら2つのフォーカス係数fのピークのうち、焦点位置Zの値が小さい側のピークを第1ピークpと称し、焦点位置Zの値が大きい側のピークを第2ピークpと称する(図4、図5及び図6)。 Based on the command from the command unit 32, the processing target area setting unit 40 uses the focus coefficient fj (j = 1, 2,..., J) stored in the focus coefficient storage unit 39 as the moving direction of the focal position Z. Are interpolated to create a graph of the continuous focus coefficient f with respect to the moving direction of the focal position Z (hereinafter referred to as a focus coefficient curve) (FIGS. 4 and 5), and two peaks are detected from this focus coefficient curve. . When the test object 1 is a cell 3 in the culture medium 2 as in the present embodiment, each of the region in which the nucleus 3a of the cell 3 occupies a large area and the region in which the outer shell 3b of the cell occupies a large area. The peak of the focus coefficient f is detected. Hereinafter, these among the peaks of the two focus coefficients f, referred to as a first peak p 1 a peak value smaller side of the focus position Z, referred to the peak value is larger side of the focus position Z and the second peak p 2 (FIGS. 4, 5 and 6).

処理対象領域設定部40は、第1ピークpと第2ピークpを検出したら、第1ピークpに対応する焦点位置Z(以下、第1ピーク対応焦点位置Zbと称する)と、第2ピークpに対応する焦点位置Z(以下、第2ピーク対応焦点位置Zdと称する)を求める(図5)。第1ピーク対応焦点位置Zbと第2ピーク対応焦点位置Zdを求めたら、今度は第1ピークpと第2ピークpの間の極小値に対応する焦点位置Z(以下、極小値対応焦点位置Zcと称する)を求める。そして、次に第1ピーク対応焦点位置Zbと極小値対応焦点位置Zcの間隔(=ΔZ)と、極小値対応焦点位置Zcと第2ピーク対応焦点位置Zdの間隔(=ΔZ)を求め、Zb−ΔZに対応する焦点位置Z(以下、始端側焦点位置Zaと称する)と、Zd+ΔZに対応する焦点距離Z(以下、終端側焦点位置Zeと称する)を求める。 Processing target area setting unit 40, when the first peak p 1 and the second peak p 2 detects a focus position Z corresponding to the first peak p 1 (hereinafter, referred to as a first peak corresponding focal position Zb), the 2 peak p 2 in the corresponding focus position Z (hereinafter, referred to as a second peak corresponding focal position Zd) Request (Figure 5). After determining the first peak corresponding focal position Zb and the second peak corresponding focal position Zd, now the focus position Z corresponding to the minimum value between the first peak p 1 and the second peak p 2 (hereinafter, the minimum value corresponding focal (Referred to as position Zc). Then, an interval between the first peak corresponding focal position Zb and the minimum value corresponding focal position Zc (= ΔZ 1 ) and an interval between the minimum value corresponding focal position Zc and the second peak corresponding focal position Zd (= ΔZ 2 ) are obtained. , Zb−ΔZ 1 , a focal position Z (hereinafter referred to as a starting-end-side focal position Za) and a focal distance Z (hereinafter referred to as a terminal-side focal position Ze) corresponding to Zd + ΔZ 2 are obtained.

このようにして始端側焦点位置Zaと終端側焦点位置Zeを求めたら、始端側焦点位置Zaと極小値対応焦点位置Zcの間の領域を第1の処理対象領域Rに設定し、極小値対応焦点位置Zcと終端側焦点位置Zeの間の領域を第2の処理対象領域Rに設定する。これにより、2つのピークp,pの一方を1つずつ含む2つの処理対象領域R,Rが設定される(図5)。処理対象領域設定部40において設定された第1の処理対象領域Rと第2の処理対象領域Rは処理対象領域記憶部41に記憶される。 When the start end side focus position Za and the end side focus position Ze are obtained in this way, the area between the start end side focus position Za and the minimum value corresponding focus position Zc is set as the first processing target area R1, and the minimum value is set. setting the area between the corresponding focus position Zc and the end-side focal position Ze to the second processing target region R 2. Thus, the two peaks p 1, two processing target area including one with one of p 2 R 1, R 2 is set (Fig. 5). The first processing target area R 1 and the second processing target area R 2 set in the processing target area setting unit 40 are stored in the processing target area storage unit 41.

輝度階調設定部42は、指令部32からの指令に基づいて、輝度データ記憶部37に記憶された三次元の輝度データb(k)j(k=1,2,・・・,M×N、j=1,2,・・・,J)から、各画素の処理対象領域記憶部41に記憶された第1の処理対象領域R及び第2の処理対象領域Rそれぞれについての平均輝度(輝度の平均値)を算出し、その平均輝度の差分に基づいて各画素の輝度階調を設定する処理を行う。具体的には、各画素(番号kの画素)について全処理対象領域R(=R+R)における輝度の最大値b(k)max、全処理対象領域R(=R+R)における輝度の最小値b(k)min、第1の処理対象領域Rにおける輝度の平均値b(k)avg1及び第2の処理対象領域Rにおける輝度の平均値b(k)avg2を算出したうえで、式
C(k)=(A(k)/B(k)×128+128)
A(k) =(b(k)avg2−b(k)avg1)
B(k) =(b(k)max−b(k)min)
によって与えられるC(k)をその画素の輝度階調として割り当てる。ここで、B(k)=0となる場合にはその画素についてはC(k)=128の輝度階調を割り当てる。このようにして得られた各画素についての輝度階調のデータは、輝度階調データ記憶部43に記憶される。
Based on the command from the command unit 32, the brightness gradation setting unit 42 stores the three-dimensional brightness data b (k) j (k = 1, 2,..., M ×) stored in the brightness data storage unit 37. N, j = 1,2, ···, from J), the average for the first processing target region R 1 and the second processing target area R 2, respectively, which are stored in the processing target area storage unit 41 of each pixel Luminance (average value of luminance) is calculated, and processing for setting the luminance gradation of each pixel based on the difference of the average luminance is performed. Specifically, in each pixel (pixel number k) the total processed area R (= R 1 + R 2 ) The maximum value of the luminance at the b (k) max, total processing target area R (= R 1 + R 2 ) the minimum value b (k) min of the luminance, the mean value was calculated b (k) avg2 luminance in the average value b (k) avg1 and second processing target region R 2 of the luminance in the first processing region R 1 Then, the formula C (k) = (A (k) / B (k) × 128 + 128)
A (k) = (b (k) avg2-b (k) avg1)
B (k) = (b (k) max−b (k) min)
C (k) given by is assigned as the luminance gradation of the pixel. Here, when B (k) = 0, a luminance gradation of C (k) = 128 is assigned to the pixel. The luminance gradation data for each pixel obtained in this way is stored in the luminance gradation data storage unit 43.

表示処理部44は、指令部32からの指令に基づいて、輝度階調データ記憶部43に記憶された輝度階調のデータを各画素に対応させたうえで、これを被検物1の画像としてモニター26に視覚表示させる。   The display processing unit 44 associates the luminance gradation data stored in the luminance gradation data storage unit 43 with each pixel based on the instruction from the instruction unit 32, and uses this data for the image of the test object 1. As shown in FIG.

このように本顕微鏡画像の処理装置4は、カメラ13(撮像手段)の焦点位置Zを被検物1の厚さ方向に変化させながら被検物1の撮像を行って複数の画像データを取得する画像データ取得手段(カメラ制御部24、指令部32、焦点位置指示部33、撮像指示部34、画像データ記憶部35等から成る)、画像データ取得手段により取得された複数の画像データから、焦点位置Zの移動方向に対する各画素の輝度情報(輝度データ)を読み取って輝度情報記憶手段(輝度データ記憶部37)に記憶させる輝度情報読み取り手段(輝度データ読み取り部36)、画像データ取得手段により取得された複数の画像データから求められる焦点位置Zの移動方向に対するフォーカス係数fを算出してフォーカス係数記憶手段(フォーカス係数記憶部39)に記憶させるフォーカス係数算出手段(フォーカス係数算出部38)、フォーカス係数記憶手段に記憶されたフォーカス係数fに基づいて得られる焦点位置Zの移動方向(被検物1の厚さ方向)に対するフォーカス係数fの変化からフォーカス係数fのピーク(この実施の形態では2つのピークp,p)を検出し、その検出したピークに基づいて焦点位置Zの移動領域に第1及び第2の処理対象領域R,Rをして設定する処理対象領域設定手段(処理対象領域設定部40)、及び、輝度情報記憶手段に記憶された焦点位置Zの移動方向に対する各画素の輝度情報から、各画素の第1及び第2の処理対象領域R,Rそれぞれについての平均輝度を算出し、その平均輝度の差分に基づいて各画素の輝度階調を設定する輝度階調設定手段(輝度階調設定部42)を備えるものである。 In this way, the processing apparatus 4 for the microscopic image captures the test object 1 while changing the focal position Z of the camera 13 (imaging means) in the thickness direction of the test object 1 and acquires a plurality of image data. Image data acquisition means (consisting of a camera control unit 24, a command unit 32, a focus position instruction unit 33, an imaging instruction unit 34, an image data storage unit 35, etc.), from a plurality of image data acquired by the image data acquisition unit, Luminance information reading means (luminance data reading section 36) for reading luminance information (luminance data) of each pixel with respect to the moving direction of the focal position Z and storing it in the luminance information storage means (luminance data storage section 37), and image data acquisition means A focus coefficient storage unit (focus coefficient storage unit) is calculated by calculating a focus coefficient f with respect to the moving direction of the focal position Z obtained from a plurality of acquired image data. 9) with respect to the moving direction (thickness direction of the test object 1) of the focus position Z obtained based on the focus coefficient calculating means (focus coefficient calculating section 38) stored in the focus coefficient storing means and the focus coefficient f stored in the focus coefficient storing means. The peak of the focus coefficient f (in this embodiment, two peaks p 1 and p 2 ) is detected from the change in the focus coefficient f, and the first and second peaks are moved to the moving region of the focal position Z based on the detected peaks. From the processing target region setting means (processing target region setting unit 40) for setting the processing target regions R 1 and R 2 and the luminance information of each pixel with respect to the moving direction of the focal position Z stored in the luminance information storage unit. , bright that calculates the average brightness of the processing target area R 1, R 2, respectively first and second of each pixel, and sets the luminance gradation of each pixel based on the difference between the average luminance Those with a gradation setting means (luminance gradation setting unit 42).

ここで、上記C(k)、すなわち輝度階調の値は、第1項の分子A(k)の絶対値が大きければ大きいほど第2項の値「128」から離れていく。C(k)の第2項の値「128」は256階調の中間値であるが、或る画素のC(k)の値が中間値「128」から離れていくということは、その画素は他の画素と比べてコントラストが高くなる(白又は黒が強調される)ことを意味する。   Here, the value of C (k), that is, the luminance gradation value, is further away from the value “128” of the second term as the absolute value of the numerator A (k) of the first term is larger. The value “128” of the second term of C (k) is an intermediate value of 256 gradations, but the fact that the value of C (k) of a certain pixel moves away from the intermediate value “128” means that the pixel Means that the contrast is higher than other pixels (white or black is emphasized).

図6(a)において、細胞3が存在しない培養液2の部分を撮像した画素では(その画素は図中のZ軸の上方延長線上にあるとする)、全処理対象領域R(=R+R)にわたって輝度が殆ど変化しないので、差分A(k) =(b(k)avg2−b(k)av
g1)はほぼ「0」となって、その画素の輝度階調はC(k)≒128となる。
In FIG. 6A, in a pixel obtained by imaging a portion of the culture solution 2 in which no cell 3 is present (assuming that the pixel is on the upper extension line of the Z axis in the figure), the entire processing target region R (= R 1 Since the luminance hardly changes over + R 2 ), the difference A (k) = (b (k) avg2−b (k) av
g1) is almost “0”, and the luminance gradation of the pixel is C (k) ≈128.

図6(b)において、細胞3の外殻3bのみを(細胞3の内部ではあるが核3aが存在しない部分を)撮像した画素では(その画素は図中のZ軸の上方延長線上にあるとする)、全処理対象領域R(=R+R)内の外殻3bが存在する部分(第2ピークpが存在する付近)において輝度が変化し、外殻3b(及び核3a)が存在しない部分の輝度(≒128)よりもやや高くなるので、結果として差分A(k) =(b(k)avg2−b(k)avg1)は正値となる。このため細胞3の外殻3bのみを撮像した画素の輝度階調は128よりも大きい値となり、細胞3が存在しない培養液2の部分(図6(a)に示した部分)よりも明るい画像となる。 In FIG. 6 (b), in the pixel obtained by imaging only the outer shell 3b of the cell 3 (the portion inside the cell 3 but without the nucleus 3a) (the pixel is on the upper extension line of the Z axis in the figure). And the luminance changes in the portion where the outer shell 3b exists in the entire processing target region R (= R 1 + R 2 ) (near the second peak p 2 ), and the outer shell 3b (and the nucleus 3a). As a result, the difference A (k) = (b (k) avg2-b (k) avg1) becomes a positive value. For this reason, the luminance gradation of the pixel that images only the outer shell 3b of the cell 3 has a value greater than 128, and the image is brighter than the portion of the culture solution 2 where the cell 3 does not exist (the portion shown in FIG. 6A). It becomes.

図6(c)において、細胞3の外殻3bに加えて核3aも撮像した画素では(その画素は図中のZ軸の上方延長線上にあるとする)、核3aが存在する部分と外殻3bが存在する部分との2箇所(第1ピークpと第2ピークpが存在する付近)において輝度が変化し、核3aが存在する部分の輝度は核3aも外殻3bも存在しない部分の輝度(≒128)よりもかなり低く、外殻3bが存在する部分の輝度は核3aも外殻3bも存在しない部分の輝度よりもやや高くなるので、結果として差分A(k) =(b(k)avg2−b(k)avg1)は負値となる。このため外殻3bに加えて核3aも撮像した画素の輝度階調は128よりも小さい値となり、細胞3が存在しない培養液2の部分(図6(a)に示した部分)よりも暗い画像となる。 In FIG. 6C, in the pixel in which the nucleus 3a is imaged in addition to the outer shell 3b of the cell 3 (assuming that the pixel is on the upper extension line of the Z-axis in the figure), the portion where the nucleus 3a exists and the outside 2 places a portion of the shell 3b is present brightness changes in (first peak p 1 and around which the second peak p 2 present), the luminance of the part existing nuclear 3a is also present nuclear 3a also the shell 3b Since the brightness of the part where the outer shell 3b exists is slightly lower than the brightness of the part where the outer shell 3b exists and the brightness of the part where the outer shell 3b does not exist, the difference A (k) = (B (k) avg2-b (k) avg1) is a negative value. For this reason, the luminance gradation of the pixel which has imaged the nucleus 3a in addition to the outer shell 3b is a value smaller than 128, which is darker than the portion of the culture solution 2 where the cells 3 do not exist (the portion shown in FIG. 6A). It becomes an image.

次に、顕微鏡画像の処理装置4を用いて被検物1の撮像を行い、その結果をモニター26に画像表示するまでの具体的な手順について説明する。図6はその手順を示すメインルーチンであり、図7、図8及び図9はこのメインルーチンに付随するサブルーチンである。   Next, a specific procedure for imaging the test object 1 using the microscope image processing device 4 and displaying the result on the monitor 26 will be described. FIG. 6 is a main routine showing the procedure, and FIGS. 7, 8 and 9 are subroutines attached to the main routine.

被検物1の撮像を行ってこれを画像表示するには、先ず、顕微鏡部10のステージ11に被検物1を載置し、画像処理部20の操作・入力部25から所定の入力操作を行う。これにより制御部21の入力処理部31は指令部32に処理開始の指示信号を出力し、指令部32はこれを受けて画像データ取得工程S1(図7)を行う。   In order to take an image of the test object 1 and display the image, first, the test object 1 is placed on the stage 11 of the microscope unit 10 and a predetermined input operation is performed from the operation / input unit 25 of the image processing unit 20. I do. Thereby, the input processing unit 31 of the control unit 21 outputs a processing start instruction signal to the command unit 32, and the command unit 32 receives this and performs the image data acquisition step S1 (FIG. 7).

画像データ取得工程S1では、制御部21の指令部32は先ず、階層を特定する番号jを初期値j=0に設定し、焦点位置Zを初期値Zにセットする指令値を出す(図8のステップS101)。焦点位置Zが初期値Zにセットされたらjを1つ増加させてj=j+1とし、焦点位置ZをZjにセットする指示値を出す(図8のステップS102)。カメラ13が上方に移動して焦点位置ZがZjにセットされたら、撮像指示部34に撮像指示を出してカメラ13に撮像を行わせ(図8のステップS103)、得られた二次元の画素データP(k)j(k=1,2,・・・,M×N)をj番目の階層の画像データとして、画像データ記憶部35に記憶させる(図8のステップS104)。 In the image data acquisition step S1, the command unit 32 of the control unit 21 first sets a number j for specifying a hierarchy to an initial value j = 0 and issues a command value for setting the focal position Z to an initial value Z0 (FIG. 8 step S101). When the focal position Z is set to the initial value Z 0 , j is incremented by 1 so that j = j + 1, and an instruction value for setting the focal position Z to Zj is output (step S102 in FIG. 8). When the camera 13 moves upward and the focal position Z is set to Zj, the imaging instruction unit 34 is instructed to perform imaging (step S103 in FIG. 8), and the obtained two-dimensional pixel is obtained. Data P (k) j (k = 1, 2,..., M × N) is stored in the image data storage unit 35 as image data of the j-th hierarchy (step S104 in FIG. 8).

ステップS104が終了したら、指令部32は現在の階層を特定する番号jが予め定めた最大値J(例えば100)に達しているか否かの判断を行い(図8のステップS105)、その結果、現在の階層を特定する番号jが最大値Jに達していなかった場合にはステップS102に戻り、jを1つ増加させて次の焦点位置Zjについての撮像とその焦点位置Zjでの撮像で得られた二次元の画素データP(k)j(k=1,2,・・・,M×N)の記憶を行う。一方、ステップS105において、現在の階層を特定する番号jが最大値Jに達していた場合にはこのサブルーチンを抜けて、メインルーチンに復帰する。このサブルーチン(画像データ取得工程S1)が終了した時点で、画像データ記憶部35には、M×N×Jの三次元の画素データP(k)jが記憶される。   When step S104 is completed, the command unit 32 determines whether or not the number j specifying the current hierarchy has reached a predetermined maximum value J (for example, 100) (step S105 in FIG. 8). If the number j specifying the current hierarchy has not reached the maximum value J, the process returns to step S102, and j is incremented by one and obtained by imaging at the next focal position Zj and imaging at the focal position Zj. The obtained two-dimensional pixel data P (k) j (k = 1, 2,..., M × N) is stored. On the other hand, if the number j specifying the current hierarchy has reached the maximum value J in step S105, this subroutine is exited and the process returns to the main routine. When this subroutine (image data acquisition step S1) ends, the image data storage unit 35 stores M × N × J three-dimensional pixel data P (k) j.

画像データ取得工程S1が終了したら、指令部32から指令を受けた輝度データ読み取り部36及びフォーカス係数算出部38が輝度データ読み取り・フォーカス係数算出工程S2(図7)を行う。輝度データ読み取り・フォーカス係数算出工程S2では、先ず輝度データ読み取り部36が階層を特定する番号jを初期値j=0に設定した後(図9のステップS201)、jを1つ増加させてj=j+1とし(図9のステップS202)、画像データ記憶部35に記憶されたj番目の階層の画像データから読み出した各画素の輝度情報、すなわち各画素の輝度データb(k)j(k=1,2,・・・,M×N)を輝度データ記憶部37に記憶させる(図9のステップS203)。   When the image data acquisition step S1 is completed, the luminance data reading unit 36 and the focus coefficient calculation unit 38 that have received the command from the command unit 32 perform the luminance data reading / focus coefficient calculation step S2 (FIG. 7). In the luminance data reading / focus coefficient calculating step S2, first, the luminance data reading unit 36 sets the number j for specifying the hierarchy to an initial value j = 0 (step S201 in FIG. 9), and then increases j by one and sets j = J + 1 (step S202 in FIG. 9), the luminance information of each pixel read from the image data of the jth hierarchy stored in the image data storage unit 35, that is, the luminance data b (k) j (k = 1, 2,..., M × N) are stored in the luminance data storage unit 37 (step S203 in FIG. 9).

ステップS203が終了したら、今度はフォーカス係数算出部38が、画像データ記憶部35に記憶されたj番目の階層の画像データからフォーカス係数fjを算出し、その結果をフォーカス係数記憶部39に記憶させる(図9のステップS204)。   When step S203 ends, the focus coefficient calculation unit 38 calculates the focus coefficient fj from the image data of the j-th hierarchy stored in the image data storage unit 35, and stores the result in the focus coefficient storage unit 39. (Step S204 in FIG. 9).

ステップS204が終了したら、フォーカス係数算出部38は現在の階層を特定する番号jが予め定めた最大値J(例えば100)に達しているか否かの判断を行い(図9のステップS205)、その結果、現在の階層を特定する番号jが最大値に達していなかった場合にはステップS202に戻り、輝度データ読み取り部36はjを1つ増加させて次の階層についての輝度データb(k)j(k=1,2,・・・,M×N)の読み出しと記憶を行い、フォーカス係数算出部38はフォーカス係数fjの算出と記憶を行う。一方、ステップS205において、現在の階層を特定する番号jが最大値に達していた場合には、このサブルーチンを抜けてメインルーチンに復帰する。   When step S204 is completed, the focus coefficient calculation unit 38 determines whether or not the number j specifying the current hierarchy has reached a predetermined maximum value J (for example, 100) (step S205 in FIG. 9). As a result, if the number j specifying the current hierarchy has not reached the maximum value, the process returns to step S202, and the luminance data reading unit 36 increments j by 1 to obtain luminance data b (k) for the next hierarchy. j (k = 1, 2,..., M × N) is read and stored, and the focus coefficient calculation unit 38 calculates and stores the focus coefficient fj. On the other hand, if the number j specifying the current hierarchy has reached the maximum value in step S205, the process exits from this subroutine and returns to the main routine.

輝度データ読み取り・フォーカス係数算出工程S2が終了したら、指令部32から指令を受けた処理対象領域設定部40が処理対象領域設定工程S3(図7)を行う。処理対象領域設定工程S3では、先ず、処理対象領域設定部40がフォーカス係数記憶部39に記憶されたフォーカス係数fj(j=1,2,・・・,J)に基づいて、焦点位置Zの移動方向に対する連続したフォーカス係数fのグラフ(フォーカス係数曲線)を作成し、そのフォーカス係数曲線から2つのピーク、すなわち第1ピークpと第2ピークpを検出する。そして、前述の要領でこれら2つのピークp,pの一方を1つずつ含む2つの処理対象領域、すなわち第1の処理対象領域Rと第2の処理対象領域Rを設定し、処理対象領域記憶部41に記憶させる。 When the luminance data reading / focus coefficient calculation step S2 is completed, the processing target region setting unit 40 that has received the command from the command unit 32 performs the processing target region setting step S3 (FIG. 7). In the processing target area setting step S3, first, the processing target area setting unit 40 determines the focal position Z based on the focus coefficients fj (j = 1, 2,..., J) stored in the focus coefficient storage unit 39. A continuous focus coefficient f graph (focus coefficient curve) with respect to the movement direction is created, and two peaks, that is, a first peak p 1 and a second peak p 2 are detected from the focus coefficient curve. Then, two processing target regions including one of these two peaks p 1 and p 2 , that is, the first processing target region R 1 and the second processing target region R 2 are set as described above, The data is stored in the processing area storage unit 41.

処理対象領域設定工程S3が終了したら、指令部32から指令を受けた輝度階調設定部42が輝度階調設定工程S4(図7)を行う。輝度階調設定工程S4では、輝度階調設定部42が、画素を特定する番号kを初期値k=0に設定した後(図10のステップS401)、kを1つ増加させてk=k+1とし(図10のステップS402)、輝度データ記憶部37に記憶された番号kの画素についての輝度データb(k)j(j=1,2,・・・,J)及び処理対象領域記憶部41に記憶させた第1の処理対象領域R及び第2の処理対象領域Rのデータに基づいて、全処理対象領域R(=R+R)における輝度の最大値b(k)max、全処理対象領域R(=R+R)における輝度の最小値b(k)min、第1の処理対象領域Rにおける輝度の平均値b(k)avg1及び第2の処理対象領域Rにおける輝度の平均値b(k)avg2を算出する(図10のステップS403)。 When the processing target region setting step S3 is completed, the luminance gradation setting unit 42 that has received the instruction from the instruction unit 32 performs the luminance gradation setting step S4 (FIG. 7). In the luminance gradation setting step S4, the luminance gradation setting unit 42 sets the number k for specifying a pixel to an initial value k = 0 (step S401 in FIG. 10), and then increases k by one and k = k + 1. (Step S402 in FIG. 10), the luminance data b (k) j (j = 1, 2,..., J) and the processing target region storage unit for the pixel of number k stored in the luminance data storage unit 37 Based on the data of the first processing target region R 1 and the second processing target region R 2 stored in 41, the maximum luminance value b (k) max in all the processing target regions R (= R 1 + R 2 ) , The minimum luminance value b (k) min in the entire processing target region R (= R 1 + R 2 ), the average luminance value b (k) avg1 in the first processing target region R 1, and the second processing target region R calculates an average value b (k) avg2 of luminance in 2 Step S403 of FIG. 10).

輝度階調設定部42は、ステップS403においてb(k)max、b(k)min、b(k)avg1及びb(k)avg2を算出したら、前述のようにしてA(k),B(k)を求める(図10のステップS404)。そして、B(k)=0が満たされるか否かの判断を行い(図10のステップS405)、その結果B(k)=0が満たされなかった場合にはC(k)=(A(k)/B(k)×128+128)によって得られるC(k)をその画素の輝度階調として与え(図10のステップS406)、ステップS405にお
いてB(k)=0が満たされた場合には、C(k)=128をその画素の輝度階調として与える(図10のステップS407)。
When the luminance gradation setting unit 42 calculates b (k) max, b (k) min, b (k) avg1 and b (k) avg2 in step S403, A (k), B ( k) is obtained (step S404 in FIG. 10). Then, it is determined whether or not B (k) = 0 is satisfied (step S405 in FIG. 10). If B (k) = 0 is not satisfied as a result, C (k) = (A ( k) / B (k) × 128 + 128) is given as the luminance gradation of the pixel (step S406 in FIG. 10), and when B (k) = 0 is satisfied in step S405 , C (k) = 128 is given as the luminance gradation of the pixel (step S407 in FIG. 10).

ステップS406又はステップS407が終了したら、輝度階調設定部42は、ステップS406又はステップS407で画素に与えられたC(k)の値をその画素の番号kとともに輝度階調データ記憶部43に記憶させる(図10のステップS408)。そして、現在の画素を特定する番号kが最大値(=M×N)に達しているか否かの判断を行い(図10のステップS409)、その結果現在の画素を特定する番号kが最大値に達していなかった場合にはステップS402に戻り、kを1つ増加させて次の番号kの画素にC (k)を与え、C(k)の値を画素の番号kとともに記憶させる。一方、ステップS409において、現在の画素を特定する番号kが最大値に達していた場合には、このサブルーチン(輝度階調設定工程S4)を抜けて、メインルーチンに復帰する。   When step S406 or step S407 is completed, the luminance gradation setting unit 42 stores the value of C (k) given to the pixel in step S406 or step S407 together with the pixel number k in the luminance gradation data storage unit 43. (Step S408 in FIG. 10). Then, it is determined whether or not the number k specifying the current pixel has reached the maximum value (= M × N) (step S409 in FIG. 10), and as a result, the number k specifying the current pixel is the maximum value. If not, the process returns to step S402, where k is incremented by 1 to give C (k) to the next pixel number k, and the value of C (k) is stored together with the pixel number k. On the other hand, if the number k for specifying the current pixel has reached the maximum value in step S409, the subroutine (luminance gradation setting step S4) is exited and the process returns to the main routine.

輝度階調設定工程S4が終了したら、指令部32から指令を受けた表示処理部44が表示工程S5を行う(図7)。表示工程S5では、表示処理部44が輝度階調データ記憶部43に記憶された輝度階調のデータを各画素に対応させたうえで、これを被検物1の画像としてモニター26に視覚表示させる。この表示工程S5が終了したら、処理装置4による一連の画像処理は終了となる。   When the luminance gradation setting step S4 is completed, the display processing unit 44 that has received a command from the command unit 32 performs the display step S5 (FIG. 7). In the display step S5, the display processing unit 44 makes the luminance gradation data stored in the luminance gradation data storage unit 43 correspond to each pixel, and visually displays it on the monitor 26 as an image of the test object 1. Let When this display step S5 is finished, a series of image processing by the processing device 4 is finished.

図11は、顕微鏡画像の処理装置4によって撮像した被検物1の画像を、従来における顕微鏡画像の処理装置によって撮像した画像と対比して示すものであり、図11(a)が本処理装置4によって得られたもの、図11(b)が従来の処理装置によって得られたものである。これら両図より、本処理装置4によれば、被検物である培養液2中の細胞3自体が半透明であるために従来認識しにくかった細胞3の画像を、コントラストを強調した明瞭な画像として視覚表示できることが分かる。   FIG. 11 shows an image of the test object 1 captured by the microscope image processing device 4 in comparison with an image captured by a conventional microscope image processing device. FIG. 4 is obtained by the conventional processing apparatus. From these two figures, according to the present processing apparatus 4, the image of the cell 3 that has been difficult to recognize conventionally because the cell 3 itself in the culture medium 2 that is the test object is translucent is clear with enhanced contrast. It can be seen that it can be visually displayed as an image.

ここで、前述のように、被検物1が培養液2中の細胞3である場合には、フォーカス係数fj(j=1,2,・・・,J)を焦点位置Zの移動方向に補間して、焦点位置Zの移動方向に対する連続したフォーカス係数fのグラフ(すなわちフォーカス係数曲線)を作成すると、そのフォーカス係数曲線には2つのピークp,p)が現れるが、被検物1が培養液2中の細胞3ではなく、単に半透明で厚みのあるものである場合にはフォーカス係数曲線に現れるピークは1つとなる場合もあり得る。この場合であっても、フォーカス係数fに基づいて得られる焦点位置の移動方向に対するフォーカス係数fの変化からフォーカス係数fのピークを検出し、その検出したピークに基づいて第1及び第2の処理対象領域R,Rを設定する(例えば、検出された1つのピークの位置を境に焦点位置Zの移動領域を上下に分け、その上下の領域を第1及び第2の処理対象領域R,Rに設定する)ようにすれば、同様にコントラストの高い被検物1の画像を得ることができる。 Here, as described above, when the test object 1 is the cell 3 in the culture solution 2, the focus coefficient fj (j = 1, 2,..., J) is set in the moving direction of the focal position Z. When a graph of continuous focus coefficient f with respect to the moving direction of the focal position Z is generated by interpolation (that is, a focus coefficient curve), two peaks p 1 and p 2 ) appear in the focus coefficient curve. If 1 is not the cell 3 in the culture solution 2 but is simply translucent and thick, there may be one peak appearing in the focus coefficient curve. Even in this case, the peak of the focus coefficient f is detected from the change in the focus coefficient f with respect to the moving direction of the focus position obtained based on the focus coefficient f, and the first and second processes are performed based on the detected peak. The target areas R 1 and R 2 are set (for example, the moving area of the focal position Z is divided into upper and lower areas with the position of one detected peak as a boundary, and the upper and lower areas are defined as the first and second processing target areas R. 1 and R 2 ), an image of the test object 1 having a high contrast can be obtained.

更には、フォーカス係数曲線にピークが現れない場合や、フォーカス係数曲線を求めない場合であっても、それまでの経験や、別途設定した何らかの基準に基づいて、焦点位置の移動方向に第1及び第2の処理対象領域R,Rを設定するようにすれば、同様にコントラストの高い被検物1の画像を得ることができる。 Further, even when no peak appears in the focus coefficient curve or when the focus coefficient curve is not obtained, the first and the first movement directions of the focus position are determined based on experience up to that point and some other criteria set separately. If the second processing target areas R 1 and R 2 are set, an image of the test object 1 having a high contrast can be obtained.

このように本実施の形態における顕微鏡画像の処理装置4では、被検物1の画像の各画素に、焦点位置Zの移動領域に設定した第1及び第2の処理対象領域R,Rそれぞれについて算出した平均輝度から求められる輝度階調が設定されるので、半透明で厚みのある被検物に対し、コントラストが高くで明瞭な画像を得ることができる。 As described above, in the microscopic image processing apparatus 4 according to the present embodiment, the first and second processing target regions R 1 and R 2 set in the moving region of the focal position Z are set in each pixel of the image of the test object 1. Since the luminance gradation obtained from the average luminance calculated for each is set, a clear image with high contrast can be obtained for a semi-transparent and thick test object.

これまで本発明の好ましい実施の形態について説明してきたが、本発明は上述の実施の形態に示したものに限定されない。例えば、被検物1が培養液2中の細胞3である場合、
設定される2つの処理対象領域R,Rはフォーカス係数fの2つのピークp,pの一方を1つずつ含んでいればよく、上述の実施の形態に示したような方法(Za,Zc,Zeを求めて設定する方法)に限られない。しかし、上述の実施の形態に示した方法によれば、コントラストの強調処理に必要な両ピークp,pそれぞれの近傍領域に限定した領域設定を行うことができるので、高効率で(処理速度が速く)、精度のよい画像処理を行うことができる。
Although the preferred embodiments of the present invention have been described so far, the present invention is not limited to those shown in the above-described embodiments. For example, when the test object 1 is a cell 3 in the culture solution 2,
The two processing target regions R 1 and R 2 to be set only need to include one of the two peaks p 1 and p 2 of the focus coefficient f one by one, and the method as described in the above embodiment ( The method is not limited to the method of obtaining and setting Za, Zc, and Ze. However, according to the method shown in the above-described embodiment, it is possible to perform region setting limited to the regions near both peaks p 1 and p 2 necessary for the contrast enhancement processing, so that the processing can be performed with high efficiency (processing). High speed) and accurate image processing can be performed.

半透明で厚みのある被検物に対し、コントラストが高くて明瞭な画像を得ることができる。   A clear image with high contrast can be obtained for a semi-transparent and thick test object.

本発明の一実施の形態における顕微鏡画像の処理装置の構成図The block diagram of the processing apparatus of the microscope image in one embodiment of this invention 本発明の一実施の形態における顕微鏡画像の処理装置の制御系統図FIG. 1 is a control system diagram of a microscopic image processing apparatus according to an embodiment of the present invention. 本発明の一実施の形態における画素データ及び輝度データ等の説明図Explanatory drawing of pixel data, luminance data, etc. in one embodiment of the present invention 本発明の一実施の形態におけるフォーカス係数の説明図Explanatory drawing of the focus coefficient in one embodiment of the present invention 本発明の一実施の形態における処理対象領域の説明図Explanatory drawing of the process target area | region in one embodiment of this invention 本発明の一実施の形態における輝度階調の説明図Illustration of luminance gradation in one embodiment of the present invention 本発明の一実施の形態における顕微鏡画像の装置の処理工程を示すフローチャートThe flowchart which shows the process of the apparatus of the microscope image in one embodiment of this invention 本発明の一実施の形態における顕微鏡画像の処理工程を示すフローチャートThe flowchart which shows the process of a microscope image in one embodiment of this invention 本発明の一実施の形態における顕微鏡画像の処理工程を示すフローチャートThe flowchart which shows the process of a microscope image in one embodiment of this invention 本発明の一実施の形態における顕微鏡画像の処理工程を示すフローチャートThe flowchart which shows the process of a microscope image in one embodiment of this invention 本発明の一実施の形態における顕微鏡画像の処理装置により得られた画像を従来の処理装置によって得られた画像とともに示す図The figure which shows the image obtained by the processing apparatus of the microscope image in one embodiment of this invention with the image obtained by the conventional processing apparatus

符号の説明Explanation of symbols

1 被検物
2 培養液
3 細胞
4 顕微鏡画像の処理装置
13 カメラ(撮像手段)
24 カメラ制御部(画像データ取得手段)
32 指令部(画像データ取得手段)
33 焦点位置指示部(画像データ取得手段)
34 撮像指示部(画像データ取得手段)
35 画像データ記憶部(画像データ取得手段)
36 輝度データ読み取り部(輝度情報読み取り手段)
37 輝度データ記憶部(輝度情報記憶手段)
38 フォーカス係数算出部(フォーカス係数算出手段)
39 フォーカス係数記憶部(フォーカス係数記憶手段)
40 処理対象領域設定部(処理対象領域設定手段)
42 輝度階調設定部(輝度階調設定手段)
Z 焦点位置
第1ピーク(ピーク)
第2ピーク(ピーク)
第1の処理対象領域
第2の処理対象領域
DESCRIPTION OF SYMBOLS 1 Test object 2 Culture solution 3 Cell 4 Microscope image processing apparatus 13 Camera (imaging means)
24 Camera control unit (image data acquisition means)
32 Command section (image data acquisition means)
33 Focus position instruction section (image data acquisition means)
34 Imaging instruction section (image data acquisition means)
35 Image data storage (image data acquisition means)
36 Luminance data reading unit (luminance information reading means)
37 Luminance data storage unit (luminance information storage means)
38 Focus coefficient calculation unit (focus coefficient calculation means)
39 Focus coefficient storage unit (focus coefficient storage means)
40 processing target area setting unit (processing target area setting means)
42 Luminance gradation setting section (luminance gradation setting means)
Z Focus position p 1 First peak (peak)
p 2 2nd peak (peak)
R 1 first process target area R 2 second process target area

Claims (6)

半透明で厚みのある被検物を対象とする顕微鏡画像の処理装置であって、撮像手段の焦点位置を被検物の厚さ方向に変化させながら被検物の撮像を行って複数の画像データを取得する画像データ取得手段と、画像データ取得手段により取得された複数の画像データから、各焦点位置における各画素の輝度情報を読み取って輝度情報記憶手段に記憶させる輝度情報読み取り手段と、焦点位置の移動領域に第1及び第2の処理対象領域を設定する処理対象領域設定手段と、輝度情報記憶手段に記憶された各焦点位置における各画素の輝度情報から、各画素の第1及び第2の処理対象領域それぞれについての平均輝度を算出し、その平均輝度の差分に基づいて各画素の輝度階調を設定する輝度階調設定手段とを備えたことを特徴とする顕微鏡画像の処理装置。   A microscopic image processing apparatus for a semi-transparent and thick test object, wherein a plurality of images are obtained by imaging the test object while changing the focal position of the imaging means in the thickness direction of the test object. Image data acquisition means for acquiring data, luminance information reading means for reading the luminance information of each pixel at each focal position from a plurality of image data acquired by the image data acquisition means, and storing it in the luminance information storage means; The processing target area setting means for setting the first and second processing target areas in the position movement area, and the luminance information of each pixel at each focal position stored in the luminance information storage means, the first and second of each pixel. A luminance gradation setting unit that calculates an average luminance for each of the two processing target areas and sets a luminance gradation of each pixel based on a difference between the average luminances. Management apparatus. 画像データ取得手段により取得された複数の画像データより各焦点位置におけるフォーカス係数を算出してフォーカス係数記憶手段に記憶させるフォーカス係数算出手段を備え、処理対象領域設定手段は、フォーカス係数記憶手段に記憶されたフォーカス係数に基づいて得られる焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを検出し、その検出したピークに基づいて焦点位置の移動領域に第1及び第2の処理対象領域を設定することを特徴とする請求項1に記載の顕微鏡画像の処理装置。   Focus coefficient calculating means for calculating a focus coefficient at each focus position from a plurality of image data acquired by the image data acquiring means and storing the focus coefficient in the focus coefficient storage means, and the processing target region setting means is stored in the focus coefficient storage means. A focus coefficient peak is detected from the change of the focus coefficient with respect to the moving direction of the focal position obtained based on the focus coefficient, and the first and second processing target areas are detected in the moving area of the focal position based on the detected peak. The microscope image processing apparatus according to claim 1, wherein: 前記被検物が培養液中の細胞であり、処理対象領域設定手段は、焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを2つ検出したときには、その検出した2つのピークの一方を1つずつ含む2つの焦点位置の移動領域を第1及び第2の処理対象領域として設定することを特徴とする請求項2に記載の顕微鏡画像の処理装置。   When the test object is a cell in the culture solution, and the processing target region setting means detects two focus coefficient peaks from the change of the focus coefficient with respect to the moving direction of the focus position, one of the two detected peaks is detected. The microscope image processing apparatus according to claim 2, wherein a moving region of two focal positions each including one is set as a first processing target region and a second processing target region. 半透明で厚みのある被検物を対象とする顕微鏡画像の処理方法であって、撮像手段の焦点位置を被検物の厚さ方向に変化させながら被検物の撮像を行って複数の画像データを取得する画像データ取得工程と、画像データ取得工程において取得した複数の画像データから、各焦点位置における各画素の輝度情報を読み取って輝度情報記憶手段に記憶させる輝度情報読み取り工程と、焦点位置の移動領域に第1及び第2の処理対象領域を設定する処理対象領域設定工程と、輝度情報記憶手段に記憶された各焦点位置における各画素の輝度情報から、各画素の第1及び第2の処理対象領域それぞれについての平均輝度を算出し、その平均輝度の差分に基づいて各画素の輝度階調を設定する輝度階調設定工程とを含むことを特徴とする顕微鏡画像の処理方法。   A method for processing a microscopic image of a semi-transparent and thick test object, wherein a plurality of images are obtained by imaging the test object while changing the focal position of the imaging means in the thickness direction of the test object. An image data acquisition step for acquiring data, a luminance information reading step for reading luminance information of each pixel at each focal position from a plurality of image data acquired in the image data acquisition step, and storing the luminance information in a luminance information storage unit, and a focal position The first and second processing target region setting steps for setting the first and second processing target regions in the moving region and the luminance information of each pixel at each focal position stored in the luminance information storage means. And a luminance gradation setting step for calculating a luminance gradation for each pixel based on a difference between the average luminances. Method. 画像データ取得工程において取得した複数の画像データより各焦点位置におけるフォーカス係数を算出してフォーカス係数記憶手段に記憶させるフォーカス係数算出工程を含み、処理対象領域設定工程において、フォーカス係数記憶手段に記憶されたフォーカス係数に基づいて得られる焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを検出し、その検出したピークに基づいて焦点位置の移動領域に第1及び第2の処理対象領域を設定することを特徴とする請求項4に記載の顕微鏡画像の処理方法。   A focus coefficient calculation step of calculating a focus coefficient at each focus position from a plurality of image data acquired in the image data acquisition step and storing the focus coefficient in the focus coefficient storage unit, and storing the focus coefficient in the processing target region setting step The peak of the focus coefficient is detected from the change of the focus coefficient with respect to the moving direction of the focal position obtained based on the focus coefficient, and the first and second processing target areas are detected in the moving area of the focal position based on the detected peak. The microscope image processing method according to claim 4, wherein the setting is performed. 前記被検物が培養液中の細胞であり、処理対象領域設定工程において、焦点位置の移動方向に対するフォーカス係数の変化からフォーカス係数のピークを2つ検出したときには、その検出した2つのピークの一方を1つずつ含む2つの焦点位置の移動領域を第1及び第2の処理対象領域として設定することを特徴とする請求項5に記載の顕微鏡画像の処理方法。   When the test object is a cell in the culture medium and two focus coefficient peaks are detected from the change of the focus coefficient with respect to the moving direction of the focus position in the processing target region setting step, one of the two detected peaks is detected. 6. The method for processing a microscopic image according to claim 5, wherein a moving region of two focal positions each including one is set as the first and second processing target regions.
JP2006297404A 2006-11-01 2006-11-01 Device and method for processing microscope image Pending JP2008116526A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006297404A JP2008116526A (en) 2006-11-01 2006-11-01 Device and method for processing microscope image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006297404A JP2008116526A (en) 2006-11-01 2006-11-01 Device and method for processing microscope image

Publications (1)

Publication Number Publication Date
JP2008116526A true JP2008116526A (en) 2008-05-22

Family

ID=39502524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006297404A Pending JP2008116526A (en) 2006-11-01 2006-11-01 Device and method for processing microscope image

Country Status (1)

Country Link
JP (1) JP2008116526A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117229A (en) * 2008-11-12 2010-05-27 Olympus Corp Height information acquisition apparatus, height information acquisition method, and program
JP2011022322A (en) * 2009-07-15 2011-02-03 Sanyo Electric Co Ltd Culture object observation system
JP2012108491A (en) * 2010-10-22 2012-06-07 Leica Microsystems Cms Gmbh Spim microscope with sequential light sheet
CN102782559A (en) * 2009-12-31 2012-11-14 雅培照护点公司 Method and apparatus for fast focus imaging biologic specimens
JP2013517460A (en) * 2010-01-12 2013-05-16 バイオ−ラド ラボラトリーズ インコーポレイテッド Cell characterization using multiple focal planes
WO2014179269A3 (en) * 2013-04-30 2016-04-14 Molecular Devices, Llc Apparatus and method for generating in-focus images using parallel imaging in a microscopy system
WO2016069685A1 (en) * 2014-10-29 2016-05-06 Molecular Devices, Llc Apparatus and method for generating in-focus images using parallel imaging in a microscopy system
CN109856015A (en) * 2018-11-26 2019-06-07 深圳辉煌耀强科技有限公司 A kind of immediate processing method that cancer cell diagnoses automatically and its system
US10330907B2 (en) 2014-03-31 2019-06-25 Fujifilm Corporation Cell imaging control device, method, and program
US10771677B2 (en) 2017-10-10 2020-09-08 Olympus Corporation Observation device and focus adjustment method
CN114967099A (en) * 2022-04-19 2022-08-30 广州广检技术发展有限公司 Automatic focusing and automatic identification measuring method of microscope

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117229A (en) * 2008-11-12 2010-05-27 Olympus Corp Height information acquisition apparatus, height information acquisition method, and program
JP2011022322A (en) * 2009-07-15 2011-02-03 Sanyo Electric Co Ltd Culture object observation system
JP2013516650A (en) * 2009-12-31 2013-05-13 アボット ポイント オブ ケア インコーポレイテッド Method and apparatus for high-speed focus imaging of biological specimen
CN102782559A (en) * 2009-12-31 2012-11-14 雅培照护点公司 Method and apparatus for fast focus imaging biologic specimens
US9001200B2 (en) 2010-01-12 2015-04-07 Bio-Rad Laboratories, Inc. Cell characterization using multiple focus planes
JP2013517460A (en) * 2010-01-12 2013-05-16 バイオ−ラド ラボラトリーズ インコーポレイテッド Cell characterization using multiple focal planes
JP2012108491A (en) * 2010-10-22 2012-06-07 Leica Microsystems Cms Gmbh Spim microscope with sequential light sheet
WO2014179269A3 (en) * 2013-04-30 2016-04-14 Molecular Devices, Llc Apparatus and method for generating in-focus images using parallel imaging in a microscopy system
US10330907B2 (en) 2014-03-31 2019-06-25 Fujifilm Corporation Cell imaging control device, method, and program
WO2016069685A1 (en) * 2014-10-29 2016-05-06 Molecular Devices, Llc Apparatus and method for generating in-focus images using parallel imaging in a microscopy system
US10690901B2 (en) 2014-10-29 2020-06-23 Molecular Devices, Llc Apparatus and method for generating in-focus images using parallel imaging in a microscopy system
US10771677B2 (en) 2017-10-10 2020-09-08 Olympus Corporation Observation device and focus adjustment method
CN109856015A (en) * 2018-11-26 2019-06-07 深圳辉煌耀强科技有限公司 A kind of immediate processing method that cancer cell diagnoses automatically and its system
CN114967099A (en) * 2022-04-19 2022-08-30 广州广检技术发展有限公司 Automatic focusing and automatic identification measuring method of microscope
CN114967099B (en) * 2022-04-19 2024-04-02 广州广检技术发展有限公司 Automatic focusing and automatic identifying and measuring method for microscope

Similar Documents

Publication Publication Date Title
JP2008116526A (en) Device and method for processing microscope image
JP4462959B2 (en) Microscope image photographing system and method
JP4937850B2 (en) Microscope system, VS image generation method thereof, and program
JP4970869B2 (en) Observation apparatus and observation method
US9088729B2 (en) Imaging apparatus and method of controlling same
JP5281972B2 (en) Imaging device
US20040047033A1 (en) Microscopic image capture apparatus and microscopic image capturing method
WO2006021767A2 (en) Method and apparatus for providing optimal images of a microscope specimen
JP5633753B2 (en) Focus control method and culture observation apparatus
US20120140999A1 (en) Image processing method, image processing apparatus, and image processing program
CN104662463A (en) Image processing apparatus, imaging system, and image processing system
CN102313980A (en) Signal conditioning package, dressing table fluctuation correcting method and program
JP2012237693A (en) Image processing device, image processing method and image processing program
JP2013152426A (en) Image processing device, image processing system, image processing method and program
JP5047764B2 (en) Microscope imaging device
US10613313B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP2012013804A (en) Image processing apparatus, image processing system and image processing method, and program
US20160042122A1 (en) Image processing method and image processing apparatus
JP4709762B2 (en) Image processing apparatus and method
JP2005099736A (en) Autofocus control method, autofocus controller, and image processing apparatus
CN103605203B (en) Automatic focusing method in digital slicing scanning process
US20150049180A1 (en) Microscope
JP5259348B2 (en) Height information acquisition device, height information acquisition method, and program
US20160198082A1 (en) Apparatus and method of processing image
JP5996462B2 (en) Image processing apparatus, microscope system, and image processing method