JP2013079857A - Image processing apparatus, and image processing program - Google Patents

Image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2013079857A
JP2013079857A JP2011219893A JP2011219893A JP2013079857A JP 2013079857 A JP2013079857 A JP 2013079857A JP 2011219893 A JP2011219893 A JP 2011219893A JP 2011219893 A JP2011219893 A JP 2011219893A JP 2013079857 A JP2013079857 A JP 2013079857A
Authority
JP
Japan
Prior art keywords
region
extraction
image
area
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011219893A
Other languages
Japanese (ja)
Other versions
JP5917072B2 (en
Inventor
Ryosuke Kondo
亮介 近藤
Woobum Kang
宇範 康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2011219893A priority Critical patent/JP5917072B2/en
Publication of JP2013079857A publication Critical patent/JP2013079857A/en
Application granted granted Critical
Publication of JP5917072B2 publication Critical patent/JP5917072B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus and an image processing program for easily extracting a desired area from an image.SOLUTION: An initial image IM based on image data is displayed on a display unit 260. A user designates an extraction range including an area to be extracted in the initial image IM; and therefore, one or more areas are extracted on the basis of an extraction condition set in the extraction range. A feature area is selected from the extracted one or more areas on the basis of feature information relating to the areas. The selected feature area is determined as an extracted area. The user designates an extraction range including other areas to be extracted in the initial image IM; and therefore, one or more areas are extracted on the basis of the extraction condition set in the extraction range. A feature area is selected from the extracted one or more areas on the basis of feature information relating to the areas. The selected feature area is added to the extracted area that has already been determined.

Description

本発明は、画像を処理する画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program for processing an image.

拡大観察装置においては、観察対象物の画像から特定の領域を抽出することにより、例えば領域の大きさおよび面積等を算出することができる。これにより、拡大観察装置のユーザは、観察対象物を定量的に解析することができる。   In the magnifying observation apparatus, for example, the size and area of the region can be calculated by extracting a specific region from the image of the observation object. Thereby, the user of the magnification observation apparatus can analyze the observation object quantitatively.

特開2010−079780号公報JP 2010-0797780 A

特許文献1に記載された画像処理装置においては、観察対象物の画像から特定の領域を抽出するために、しきい値等の抽出条件を設定することができるとともに、観察対象物の画像に対してぼかし処理等の処理を施すことができる。これにより、所望の領域を適切に抽出することができる。   In the image processing apparatus described in Patent Document 1, in order to extract a specific region from the image of the observation target, an extraction condition such as a threshold can be set, and the image of the observation target is set. Thus, processing such as blurring processing can be performed. Thereby, a desired area | region can be extracted appropriately.

観察対象物の画像に対して施す処理としては、例えば画像中の空間的な高周波ノイズの軽減を目的とした処理、または画像中の明るさムラの軽減を目的とした処理等がある。ユーザは、目的に応じて種々の処理を選択することができる。   Examples of the process performed on the image of the observation target include a process for reducing spatial high-frequency noise in the image, and a process for reducing brightness unevenness in the image. The user can select various processes according to the purpose.

しかしながら、処理の種類が適切に選択されなかった場合には、画像から所望の領域を抽出するための抽出条件を設定することが困難になることがある。また、画像処理装置に用意されている種類の処理を画像に施すだけでは、画像から所望の領域を抽出するための抽出条件を設定することが困難であることがある。   However, if the type of processing is not properly selected, it may be difficult to set extraction conditions for extracting a desired region from an image. In addition, it may be difficult to set an extraction condition for extracting a desired region from an image only by applying the type of processing prepared in the image processing apparatus to the image.

本発明の目的は、画像から所望の領域を容易に抽出可能な画像処理装置および画像処理プログラムを提供することである。   An object of the present invention is to provide an image processing apparatus and an image processing program capable of easily extracting a desired area from an image.

(1)第1の発明に係る画像処理装置は、画像データに基づく画像を表示するための表示部と、表示部に表示された画像において抽出すべき領域を含む範囲を指定するために使用者により操作される操作部と、操作部の操作により指定された範囲内で設定された抽出条件に基づいて抽出される一または複数の領域から、領域に関する特徴情報に基づいて特徴領域を選択し、選択された特徴領域を抽出領域として決定する処理部とを備え、処理部は、操作部の一の操作により選択された特徴領域を操作部の前回の操作により決定された抽出領域に加えるように動作するものである。   (1) An image processing apparatus according to a first aspect of the present invention provides a display unit for displaying an image based on image data, and a user for designating a range including a region to be extracted in the image displayed on the display unit. Selecting a feature region based on feature information about the region from one or a plurality of regions extracted based on an operation unit operated by the operation unit and an extraction condition set within a range specified by operation of the operation unit; A processing unit that determines the selected feature region as an extraction region, and the processing unit adds the feature region selected by one operation of the operation unit to the extraction region determined by the previous operation of the operation unit. It works.

この画像処理装置においては、画像データに基づく画像が表示される。表示された画像において抽出すべき領域を含む範囲が使用者の操作部の操作により指定される。指定された範囲内で設定された抽出条件に基づいて一または複数の領域が抽出される。抽出された一または複数の領域から、領域に関する特徴情報に基づいて特徴領域が選択される。選択された特徴領域が抽出領域として決定される。また、一の操作により選択された特徴領域は、操作部の前回の操作により決定された抽出領域に加えられる。   In this image processing apparatus, an image based on the image data is displayed. A range including an area to be extracted in the displayed image is designated by the operation of the operation unit of the user. One or more regions are extracted based on the extraction conditions set within the specified range. A feature region is selected from the extracted region or regions based on the feature information regarding the region. The selected feature region is determined as the extraction region. In addition, the feature region selected by one operation is added to the extraction region determined by the previous operation of the operation unit.

この場合、使用者が画像から所望の領域の一部を含む範囲を指定する操作を行うことにより特徴領域が選択され、選択された特徴領域が抽出領域として決定される。また、使用者が画像から所望の領域の他の一部を含む範囲を指定する操作を行うことにより新たな特徴領域が選択され、選択された特徴領域が前回の操作により決定された抽出領域に追加される。この操作を繰り返すことにより、使用者は画像から所望の領域を容易に抽出することができる。   In this case, a feature region is selected by the user performing an operation of designating a range including a part of a desired region from the image, and the selected feature region is determined as an extraction region. In addition, a new feature region is selected by the user performing an operation of designating a range including another part of the desired region from the image, and the selected feature region is an extraction region determined by the previous operation. Added. By repeating this operation, the user can easily extract a desired region from the image.

(2)抽出条件は、表示部に表示される画像の輝度、色または輪郭成分に関する条件を含んでもよい。   (2) The extraction condition may include a condition regarding the luminance, color, or contour component of the image displayed on the display unit.

この場合、表示部に表示される画像の輝度、色または輪郭成分に関する条件に基づいて、指定された範囲内から領域が抽出される。これにより、使用者は、所望の輝度、色または輪郭成分を有する領域を画像から容易に抽出することができる。   In this case, a region is extracted from the designated range based on the conditions relating to the luminance, color, or contour component of the image displayed on the display unit. Thereby, the user can easily extract a region having a desired luminance, color, or contour component from the image.

(3)抽出条件は、指定された範囲ごとに変更可能であってもよい。画像の全体において、所望の領域を抽出するための一の抽出条件を設定することが困難な場合がある。このような場合でも、指定された範囲ごとに抽出条件を指定された範囲ごとに変更することにより、画像から所望の領域を容易に抽出することができる。   (3) The extraction condition may be changeable for each designated range. It may be difficult to set one extraction condition for extracting a desired region in the entire image. Even in such a case, it is possible to easily extract a desired region from the image by changing the extraction condition for each designated range for each designated range.

(4)処理部は、操作部の操作により指定された範囲内で設定された抽出条件により抽出される一または複数の領域のうち特徴情報が予め設定された選択条件を満たす領域を特徴領域として選択してもよい。   (4) The processing unit sets, as a feature region, a region satisfying a selection condition in which feature information is preset among one or a plurality of regions extracted by an extraction condition set within a range designated by an operation of the operation unit. You may choose.

指定された範囲内に所望の領域と不要な領域とが含まれる場合がある。このような場合でも、所望の領域と不要な領域とを区別する特徴情報の選択条件を適切に設定することにより、画像から所望の領域を容易に抽出することができる。   There are cases where a desired area and an unnecessary area are included in a designated range. Even in such a case, the desired region can be easily extracted from the image by appropriately setting the selection condition of the feature information that distinguishes the desired region from the unnecessary region.

(5)特徴情報は、領域の面積、領域の予め定められた部分の長さ、および領域の予め定められた部分と指定された範囲内の重心との間の距離の少なくとも1つであってもよい。   (5) The feature information is at least one of the area of the region, the length of the predetermined portion of the region, and the distance between the predetermined portion of the region and the center of gravity within the specified range. Also good.

この場合、使用者は、領域の面積、領域の予め定められた部分の長さ、または領域の予め定められた部分と指定された範囲内の重心との間の距離に基づいて所望の領域を容易に抽出することができる。   In this case, the user selects the desired region based on the area of the region, the length of the predetermined portion of the region, or the distance between the predetermined portion of the region and the center of gravity within the specified range. It can be easily extracted.

(6)特徴情報は、領域の形状に関する情報であってもよい。この場合、使用者は、領域の形状に基づいて所望の領域を容易に抽出することができる。   (6) The feature information may be information related to the shape of the region. In this case, the user can easily extract a desired region based on the shape of the region.

(7)特徴情報は、領域の画素の値に関する情報であってもよい。この場合、使用者は、画素の値に関する情報に基づいて所望の領域を容易に抽出することができる。   (7) The feature information may be information regarding the value of the pixel in the region. In this case, the user can easily extract a desired region based on the information regarding the pixel value.

(8)処理部は、予め設定された選択条件として、特徴情報が最大または最小となる領域を特徴領域として選択してもよい。   (8) The processing unit may select an area where the feature information is maximized or minimized as the feature area as a preset selection condition.

この場合、使用者は、特徴情報が最大または最小となる所望の領域を容易に抽出することができる。   In this case, the user can easily extract a desired region where the feature information is maximized or minimized.

(9)第2の発明に係る画像処理プログラムは、画像データに基づく画像を表示するための処理と、表示された画像において抽出すべき領域を含む範囲を指定するために使用者により操作される処理と、操作により指定された範囲内で設定された抽出条件に基づいて抽出される一または複数の領域から、領域に関する特徴情報に基づいて特徴領域を選択し、選択された特徴領域を抽出領域として決定する処理と、一の操作により選択された特徴領域を前回の操作により決定された抽出領域に加えるように動作する処理とを、処理装置に実行させるものである。   (9) An image processing program according to the second invention is operated by a user to specify a range including an area to be extracted in a displayed image and a process for displaying an image based on the image data Select a feature region based on feature information about the region from one or more regions extracted based on the processing and the extraction conditions set within the range specified by the operation, and extract the selected feature region And a process that operates to add the feature region selected by one operation to the extraction region determined by the previous operation is executed by the processing device.

この画像処理プログラムによれば、画像データに基づく画像が表示される。表示された画像において抽出すべき領域を含む範囲が使用者の操作により指定される。指定された範囲内で設定された抽出条件に基づいて一または複数の領域が抽出される。抽出された一または複数の領域から、領域に関する特徴情報に基づいて特徴領域が選択される。選択された特徴領域が抽出領域として決定される。また、一の操作により選択された特徴領域は、操作部の前回の操作により決定された抽出領域に加えられる。   According to this image processing program, an image based on the image data is displayed. A range including an area to be extracted in the displayed image is designated by a user operation. One or more regions are extracted based on the extraction conditions set within the specified range. A feature region is selected from the extracted region or regions based on the feature information regarding the region. The selected feature region is determined as the extraction region. In addition, the feature region selected by one operation is added to the extraction region determined by the previous operation of the operation unit.

この場合、使用者が画像から所望の領域の一部を含む範囲を指定する操作を行うことにより特徴領域が選択され、選択された特徴領域が抽出領域として決定される。また、使用者が画像から所望の領域の他の一部を含む範囲を指定する操作を行うことにより新たな特徴領域が選択され、選択された特徴領域が前回の操作により決定された抽出領域に追加される。この操作を繰り返すことにより、使用者は画像から所望の領域を容易に抽出することができる。   In this case, a feature region is selected by the user performing an operation of designating a range including a part of a desired region from the image, and the selected feature region is determined as an extraction region. In addition, a new feature region is selected by the user performing an operation of designating a range including another part of the desired region from the image, and the selected feature region is an extraction region determined by the previous operation. Added. By repeating this operation, the user can easily extract a desired region from the image.

本発明によれば、画像から所望の領域を容易に抽出することができる。   According to the present invention, a desired region can be easily extracted from an image.

本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置の構成を示すブロック図である。It is a block diagram which shows the structure of the magnification observation apparatus provided with the image processing apparatus which concerns on one embodiment of this invention. 本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置の顕微鏡を示す斜視図である。It is a perspective view which shows the microscope of the magnification observation apparatus provided with the image processing apparatus which concerns on one embodiment of this invention. 顕微鏡の撮像装置がZ方向と平行に固定されている状態を示す模式図である。It is a mimetic diagram showing the state where the imaging device of a microscope is being fixed in parallel with the Z direction. 顕微鏡の撮像装置がZ方向から所望の角度まで傾斜された状態を示す模式図である。It is a schematic diagram which shows the state in which the imaging device of the microscope was tilted from the Z direction to a desired angle. 表示部の画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen of a display part. 図5の初期画像の2値化により得られた画像を示す模式図である。FIG. 6 is a schematic diagram illustrating an image obtained by binarizing the initial image in FIG. 5. 特徴領域の第1の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 1st example of selection of a characteristic area. 特徴領域の第1の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 1st example of selection of a characteristic area. 特徴領域の第1の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 1st example of selection of a characteristic area. 特徴領域の第1の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 1st example of selection of a characteristic area. 特徴領域の第1の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 1st example of selection of a characteristic area. 表示部の画面の他の例を示す模式図である。It is a schematic diagram which shows the other example of the screen of a display part. 特徴領域の第2の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 2nd example of selection of a characteristic area. 特徴領域の第2の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 2nd example of selection of a characteristic area. 特徴領域の第2の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 2nd example of selection of a characteristic area. 特徴領域の第2の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 2nd example of selection of a characteristic area. 特徴領域の第2の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 2nd example of selection of a characteristic area. 特徴領域の第2の選択例における初期画像を示す模式図である。It is a schematic diagram which shows the initial image in the 2nd example of selection of a characteristic area. 画像処理装置による領域抽出処理を示すフローチャートである。It is a flowchart which shows the area | region extraction process by an image processing apparatus. 画像処理装置による領域抽出処理を示すフローチャートである。It is a flowchart which shows the area | region extraction process by an image processing apparatus. 画像処理装置による領域抽出処理を示すフローチャートである。It is a flowchart which shows the area | region extraction process by an image processing apparatus.

以下、本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置について図面を参照しながら説明する。   Hereinafter, a magnification observation apparatus provided with an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

(1)拡大観察装置の構成
図1は、本発明の一実施の形態に係る画像処理装置を備えた拡大観察装置の構成を示すブロック図である。
(1) Configuration of Magnification Observation Device FIG. 1 is a block diagram showing a configuration of a magnification observation device provided with an image processing device according to an embodiment of the present invention.

以下において、水平面内で直交する2方向をX方向およびY方向とし、X方向およびY方向に垂直な方向(鉛直方向)をZ方向とする。   Hereinafter, two directions orthogonal to each other in the horizontal plane are defined as an X direction and a Y direction, and a direction (vertical direction) perpendicular to the X direction and the Y direction is defined as a Z direction.

図1に示すように、拡大観察装置300は、顕微鏡100および画像処理装置200を備える。   As shown in FIG. 1, the magnification observation apparatus 300 includes a microscope 100 and an image processing apparatus 200.

顕微鏡100は、撮像装置10、ステージ装置20および回転角度センサ30を含む。撮像装置10は、カラーCCD(電荷結合素子)11、ハーフミラー12、対物レンズ13、A/D変換器(アナログ/デジタル変換器)15、照明用光源16およびレンズ駆動部17を含む。ステージ装置20は、ステージ21、ステージ駆動部22およびステージ支持部23を含む。ステージ21上には、観察対象物Sが載置される。   The microscope 100 includes an imaging device 10, a stage device 20, and a rotation angle sensor 30. The imaging device 10 includes a color CCD (charge coupled device) 11, a half mirror 12, an objective lens 13, an A / D converter (analog / digital converter) 15, an illumination light source 16, and a lens driving unit 17. The stage apparatus 20 includes a stage 21, a stage drive unit 22, and a stage support unit 23. An observation object S is placed on the stage 21.

照明用光源16は、例えば白色光を発生するハロゲンランプまたは白色LED(発光ダイオード)である。照明用光源16により発生された白色光は、ハーフミラー12により反射された後、対物レンズ13によりステージ21上の観察対象物Sに集光される。   The illumination light source 16 is, for example, a halogen lamp that generates white light or a white LED (light emitting diode). The white light generated by the illumination light source 16 is reflected by the half mirror 12 and then focused on the observation object S on the stage 21 by the objective lens 13.

観察対象物Sにより反射された白色光は、対物レンズ13およびハーフミラー12を透過してカラーCCD11に入射する。カラーCCD11は、赤色波長の光を受光する複数の赤色用画素、緑色波長の光を受光する複数の緑色用画素、および青色波長の光を受光する複数の青色用画素を有する。複数の赤色用画素、複数の緑色用画素および複数の青色用画素は二次元的に配列される。カラーCCD11の各画素からは、受光量に対応する電気信号が出力される。カラーCCD11の出力信号は、A/D変換器15によりデジタル信号に変換される。A/D変換器15から出力されるデジタル信号は、画像データとして画像処理装置200に順次与えられる。カラーCCD11に代えてCMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子が用いられてもよい。   The white light reflected by the observation object S passes through the objective lens 13 and the half mirror 12 and enters the color CCD 11. The color CCD 11 includes a plurality of red pixels that receive red wavelength light, a plurality of green pixels that receive green wavelength light, and a plurality of blue pixels that receive blue wavelength light. The plurality of red pixels, the plurality of green pixels, and the plurality of blue pixels are two-dimensionally arranged. From each pixel of the color CCD 11, an electrical signal corresponding to the amount of received light is output. The output signal of the color CCD 11 is converted into a digital signal by the A / D converter 15. Digital signals output from the A / D converter 15 are sequentially supplied to the image processing apparatus 200 as image data. An imaging element such as a CMOS (complementary metal oxide semiconductor) image sensor may be used instead of the color CCD 11.

対物レンズ13は、Z方向に移動可能に設けられる。レンズ駆動部17は、画像処理装置200の制御により対物レンズ13をZ方向に移動させる。それにより、撮像装置10の焦点の位置がZ方向において移動する。   The objective lens 13 is provided so as to be movable in the Z direction. The lens driving unit 17 moves the objective lens 13 in the Z direction under the control of the image processing apparatus 200. Thereby, the position of the focus of the imaging device 10 moves in the Z direction.

ステージ21は、Z方向の軸の周りで回転可能にステージ支持部23上に設けられる。ステージ駆動部22は、画像処理装置200から与えられる移動指令信号(駆動パルス)に基づいてステージ21をステージ支持部23に対して相対的に後述するx方向およびy方向に移動させる。ステージ駆動部22には、ステッピングモータが用いられる。回転角度センサ30は、ステージ21の回転角度を検出し、検出した角度を示す角度検出信号を画像処理装置200に与える。   The stage 21 is provided on the stage support 23 so as to be rotatable around an axis in the Z direction. The stage drive unit 22 moves the stage 21 relative to the stage support unit 23 in the x direction and the y direction, which will be described later, based on a movement command signal (drive pulse) given from the image processing apparatus 200. A stepping motor is used for the stage drive unit 22. The rotation angle sensor 30 detects the rotation angle of the stage 21 and gives an angle detection signal indicating the detected angle to the image processing apparatus 200.

画像処理装置200は、インタフェース210、CPU(中央演算処理装置)220、ROM(リードオンリメモリ)230、記憶装置240、入力装置250、表示部260および作業用メモリ270を含む。   The image processing apparatus 200 includes an interface 210, a CPU (Central Processing Unit) 220, a ROM (Read Only Memory) 230, a storage device 240, an input device 250, a display unit 260, and a work memory 270.

ROM230には、システムプログラムが記憶される。記憶装置240は、ハードディスク等からなる。記憶装置240には、画像処理プログラムが記憶されるとともに、顕微鏡100からインタフェース210を通して与えられる画像データ等の種々のデータを記憶する。画像処理プログラムの詳細は後述する。入力装置250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。   The ROM 230 stores a system program. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an image processing program and various data such as image data given from the microscope 100 through the interface 210. Details of the image processing program will be described later. The input device 250 includes a keyboard and a pointing device. A mouse or a joystick is used as the pointing device.

表示部260は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The display unit 260 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel.

作業用メモリ270は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。   The working memory 270 includes a RAM (Random Access Memory), and is used for processing various data.

CPU220は、記憶装置240に記憶された画像処理プログラムを実行することにより作業用メモリ270を用いて画像データに基づく後述する領域抽出処理等の画像処理を行うとともに、画像データに基づく画像を表示部260に表示させる。また、CPU220は、インタフェース210を通して顕微鏡100のカラーCCD11、照明用光源16、レンズ駆動部17およびステージ駆動部22を制御する。   The CPU 220 executes an image processing program stored in the storage device 240 to perform image processing such as region extraction processing described later based on the image data using the work memory 270 and displays an image based on the image data on the display unit. 260 is displayed. In addition, the CPU 220 controls the color CCD 11, the illumination light source 16, the lens driving unit 17, and the stage driving unit 22 of the microscope 100 through the interface 210.

図2は、本発明の一実施の形態に係る拡大観察装置300の顕微鏡100を示す斜視図である。図2においては、X方向、Y方向およびZ方向が矢印で示される。   FIG. 2 is a perspective view showing the microscope 100 of the magnification observation apparatus 300 according to the embodiment of the present invention. In FIG. 2, the X direction, the Y direction, and the Z direction are indicated by arrows.

図2に示すように、顕微鏡100はベース1を有する。ベース1上には、第1の支持台2が取り付けられるとともに、この第1の支持台2の前面に嵌め込まれるように第2の支持台3が取り付けられる。   As shown in FIG. 2, the microscope 100 has a base 1. On the base 1, a first support base 2 is attached, and a second support base 3 is attached so as to be fitted on the front surface of the first support base 2.

第1の支持台2の上端部には、連結部4がY方向に延びる回動軸R1の周りに回動可能に取り付けられる。連結部4には回動支柱5が取り付けられる。それにより、回動支柱5は連結部4の回動に伴って回動軸R1を支点としてZ方向に平行な垂直面内で傾斜可能である。使用者は、固定つまみ9により連結部4を第1の支持台2に対して固定することができる。   A connecting portion 4 is attached to the upper end portion of the first support base 2 so as to be rotatable around a rotation axis R1 extending in the Y direction. A rotating column 5 is attached to the connecting portion 4. Thereby, the rotation support column 5 can be tilted in a vertical plane parallel to the Z direction with the rotation axis R1 as a fulcrum as the connection portion 4 rotates. The user can fix the connecting portion 4 to the first support base 2 with the fixing knob 9.

連結部6の前面には環状の支持部7が取り付けられる。支持部7には、略円筒状の撮像装置10が取り付けられる。図2の状態では、撮像装置10の光軸R2はZ方向に平行である。支持部7は、撮像装置10を水平面内で移動させるための複数の調整ネジ41を有する。複数の調整ネジ41を用いて撮像装置10の光軸R2が回動軸R1に垂直に交差するように撮像装置10の位置を調整することができる。   An annular support portion 7 is attached to the front surface of the connecting portion 6. A substantially cylindrical imaging device 10 is attached to the support portion 7. In the state of FIG. 2, the optical axis R2 of the imaging device 10 is parallel to the Z direction. The support unit 7 includes a plurality of adjustment screws 41 for moving the imaging device 10 in a horizontal plane. The position of the imaging device 10 can be adjusted using the plurality of adjustment screws 41 so that the optical axis R2 of the imaging device 10 intersects the rotation axis R1 perpendicularly.

ベース1上の第2の支持台3の前面には、Z方向に摺動可能にスライダ8が取り付けられる。第2の支持台3の側面には、調整つまみ42が設けられる。スライダ8のZ方向(高さ方向)の位置は、調整つまみ42により調整可能である。   A slider 8 is attached to the front surface of the second support 3 on the base 1 so as to be slidable in the Z direction. An adjustment knob 42 is provided on the side surface of the second support base 3. The position of the slider 8 in the Z direction (height direction) can be adjusted by the adjustment knob 42.

ステージ装置20の支持部23は、スライダ8上に取り付けられる。ステージ21は、支持部23に対してZ方向の回転軸R3の周りに回転可能に設けられる。また、ステージ21には、水平面内で互いに直交するx方向およびy方向が設定される。ステージ21は、図1のステージ駆動部22によりx方向およびy方向に移動可能に設けられる。ステージ21が回転軸R3の周りに回転すると、ステージ21のx方向およびy方向も回転する。それにより、ステージ21のx方向およびy方向は、X方向およびY方向に対して水平面内で傾斜する。   The support unit 23 of the stage device 20 is attached on the slider 8. The stage 21 is provided so as to be rotatable around a rotation axis R <b> 3 in the Z direction with respect to the support portion 23. The stage 21 is set with an x direction and ay direction that are orthogonal to each other in the horizontal plane. The stage 21 is provided to be movable in the x direction and the y direction by the stage driving unit 22 of FIG. When the stage 21 rotates around the rotation axis R3, the x direction and the y direction of the stage 21 also rotate. Thereby, the x direction and the y direction of the stage 21 are inclined in the horizontal plane with respect to the X direction and the Y direction.

撮像装置10の撮像範囲(視野範囲)は、撮像装置10の倍率により異なる。以下、撮像装置10の撮像範囲を単位領域と呼ぶ。ステージ21をx方向およびy方向に移動させることにより複数の単位領域の画像データを取得することができる。複数の単位領域の画像データを連結することにより複数の単位領域の画像を図1の表示部260に表示することができる。   The imaging range (field-of-view range) of the imaging device 10 varies depending on the magnification of the imaging device 10. Hereinafter, the imaging range of the imaging device 10 is referred to as a unit region. Image data of a plurality of unit regions can be acquired by moving the stage 21 in the x direction and the y direction. By connecting the image data of a plurality of unit areas, the images of the plurality of unit areas can be displayed on the display unit 260 in FIG.

図3は顕微鏡100の撮像装置10がZ方向と平行に固定されている状態を示す模式図である。また、図4は顕微鏡100の撮像装置10がZ方向から所望の角度まで傾斜された状態を示す模式図である。   FIG. 3 is a schematic diagram illustrating a state in which the imaging device 10 of the microscope 100 is fixed in parallel with the Z direction. FIG. 4 is a schematic diagram showing a state in which the imaging device 10 of the microscope 100 is tilted from the Z direction to a desired angle.

図3に示すように、回動支柱5がZ方向に平行な状態で固定つまみ9を締めることにより連結部4が第2の支持台3に固定される。それにより、撮像装置10の光軸R2がZ方向に平行な状態で回動軸R1に垂直に交差する。この場合、撮像装置10の光軸R2はステージ21の表面に垂直となる。   As shown in FIG. 3, the connecting portion 4 is fixed to the second support 3 by tightening the fixing knob 9 with the rotating support column 5 parallel to the Z direction. Thereby, the optical axis R2 of the imaging device 10 intersects the rotation axis R1 perpendicularly in a state parallel to the Z direction. In this case, the optical axis R2 of the imaging device 10 is perpendicular to the surface of the stage 21.

固定つまみ9を緩めることにより連結部4が回動軸R1の周りに回動可能となり、回動支柱5が回動軸R1を支点として傾斜可能となる。それにより、図4に示すように、撮像装置10の光軸R2をZ方向に対して任意の角度θ傾斜させることができる。この場合、撮像装置10の光軸R2は回動軸R1に垂直に交差する。同様にして、撮像装置10の光軸R2をZ方向に対して図4と逆側に任意の角度傾斜させることができる。   By loosening the fixing knob 9, the connecting portion 4 can be rotated around the rotation axis R1, and the rotation column 5 can be tilted about the rotation axis R1. Thereby, as shown in FIG. 4, the optical axis R2 of the imaging device 10 can be inclined at an arbitrary angle θ with respect to the Z direction. In this case, the optical axis R2 of the imaging device 10 intersects the rotation axis R1 perpendicularly. Similarly, the optical axis R2 of the imaging device 10 can be tilted at an arbitrary angle on the opposite side to FIG. 4 with respect to the Z direction.

したがって、ステージ21上の観察対象物の表面の高さを回動軸R1の高さに一致させることにより、観察対象物の同じ部分を垂直な方向および斜め方向から観察することができる。   Therefore, by matching the height of the surface of the observation object on the stage 21 with the height of the rotation axis R1, the same portion of the observation object can be observed from the vertical direction and the oblique direction.

(2)画像処理装置
図5は、表示部260の画面の一例を示す模式図である。図5に示すように、表示部260の画面上には、画像表示領域261および抽出条件設定領域262が表示される。
(2) Image Processing Device FIG. 5 is a schematic diagram illustrating an example of the screen of the display unit 260. As shown in FIG. 5, an image display area 261 and an extraction condition setting area 262 are displayed on the screen of the display unit 260.

画像表示領域261には、図1の記憶装置240に記憶される画像データに基づいて観察対象物の画像が表示される。画像は、複数の画素から構成される。以下、記憶装置240に記憶される画像データに基づいて画像表示領域261に表示される画像を初期画像IMと呼ぶ。抽出条件設定領域262には、次へボタン263a、戻るボタン263bおよび終了ボタン263c等が表示される。また、抽出条件設定領域262には、しきい値設定バー264が表示される。しきい値設定バー264は、水平方向に移動可能なスライダ264sを有する。さらに、抽出条件設定領域262には、輝度チェックボックス265a,265b、穴埋め処理チェックボックス266およびオート処理チェックボックス267が表示される。   In the image display area 261, an image of the observation object is displayed based on the image data stored in the storage device 240 of FIG. An image is composed of a plurality of pixels. Hereinafter, an image displayed in the image display area 261 based on the image data stored in the storage device 240 is referred to as an initial image IM. In the extraction condition setting area 262, a next button 263a, a return button 263b, an end button 263c, and the like are displayed. Further, a threshold setting bar 264 is displayed in the extraction condition setting area 262. The threshold setting bar 264 has a slider 264s that can move in the horizontal direction. Further, in the extraction condition setting area 262, luminance check boxes 265a and 265b, a hole filling process check box 266, and an auto process check box 267 are displayed.

図5においては、初期画像IMの異なる領域が複数のドットパターンおよびハッチングパターンにより表されている。初期画像IMには、観察対象物として定規の一部を示す画像が表示されている。観察対象物の数字部分「30」のうち「3」および「0」の領域をそれぞれ領域A,Bと呼ぶ。同様に、観察対象物の数字部分「40」のうち「4」および「0」の領域をそれぞれ領域C,Dと呼ぶ。数字部分の背景の模様のうち低い輝度を有する領域を領域Xと呼ぶ。ここで、各領域は、連続した一または複数の画素から構成される。   In FIG. 5, different regions of the initial image IM are represented by a plurality of dot patterns and hatching patterns. In the initial image IM, an image showing a part of a ruler is displayed as an observation object. Regions “3” and “0” in the numerical portion “30” of the observation object are referred to as regions A and B, respectively. Similarly, areas “4” and “0” in the numerical portion “40” of the observation object are referred to as areas C and D, respectively. An area having a low luminance in the background pattern of the number portion is referred to as an area X. Here, each region is composed of one or a plurality of continuous pixels.

以下の例において、表示部260に表示される初期画像IMから定規の数字部分の領域A〜Dのみを抽出することを考える。この場合、複数の領域A〜Dと背景とを区別する適切なしきい値が設定される。ここで、輝度チェックボックス265aが指定されている場合、初期画像IMの2値化によりしきい値よりも低い輝度値を有する画素が抽出される。一方、輝度チェックボックス265bが指定されている場合、初期画像IMの2値化によりしきい値よりも高い輝度値を有する画素が抽出される。図5の例においては、領域A〜Dの輝度値は背景の輝度値よりも低い。したがって、初期画像IMから複数の領域A〜Dを抽出する場合には、輝度チェックボックス265aが指定される。   In the following example, let us consider extracting only the areas A to D of the number part of the ruler from the initial image IM displayed on the display unit 260. In this case, an appropriate threshold value for distinguishing between the plurality of areas A to D and the background is set. Here, when the luminance check box 265a is designated, pixels having a luminance value lower than the threshold value are extracted by binarization of the initial image IM. On the other hand, when the luminance check box 265b is designated, pixels having a luminance value higher than the threshold value are extracted by binarization of the initial image IM. In the example of FIG. 5, the luminance values of the areas A to D are lower than the luminance value of the background. Therefore, when extracting a plurality of regions A to D from the initial image IM, the luminance check box 265a is designated.

図6は、図5の初期画像IMの2値化により得られた画像を示す模式図である。初期画像IMの全体において、複数の領域A〜Dと背景とを区別する適切なしきい値を設定することが困難である場合がある。このような場合に初期画像IMを2値化すると、抽出したい領域の一部が抽出されないこととなる。例えば、図6の例においては領域Dの一部が抽出されない。または、不要な領域の一部が抽出されることとなる。例えば、図6の例においては領域Xの一部が抽出される。   FIG. 6 is a schematic diagram showing an image obtained by binarizing the initial image IM of FIG. In the entire initial image IM, it may be difficult to set an appropriate threshold value for distinguishing between the plurality of areas A to D and the background. In such a case, when the initial image IM is binarized, a part of the region to be extracted is not extracted. For example, in the example of FIG. 6, a part of the region D is not extracted. Or a part of unnecessary area | region will be extracted. For example, in the example of FIG. 6, a part of the region X is extracted.

そこで、本実施の形態に係る画像処理装置200においては、使用者は、図1の入力装置250を用いて、表示部260に表示される初期画像IMから抽出すべき領域を含む範囲を指定することができる。使用者により指定された範囲を抽出範囲と呼ぶ。抽出範囲内で設定された抽出条件に基づいて一または複数の領域が抽出される。抽出された一または複数の領域のうち領域に関する特徴情報が予め設定された選択条件を満たす一または複数の領域が特徴領域として選択される。抽出条件は抽出範囲ごとに変更することができる。選択された特徴領域が抽出領域として決定される。本実施の形態においては、抽出領域の画素は“1”で表され、他の領域の画素は“0”で表される。選択された特徴領域が以前に決定された抽出領域に加えられることにより、初期画像IMから抽出領域のみを一体的に抽出することができる。   Therefore, in image processing apparatus 200 according to the present embodiment, the user designates a range including an area to be extracted from initial image IM displayed on display unit 260 using input device 250 in FIG. be able to. A range specified by the user is called an extraction range. One or more regions are extracted based on the extraction conditions set within the extraction range. One or a plurality of regions satisfying a selection condition in which feature information related to the region is set in advance is selected as the feature region from the one or more extracted regions. The extraction conditions can be changed for each extraction range. The selected feature region is determined as the extraction region. In the present embodiment, pixels in the extraction region are represented by “1”, and pixels in other regions are represented by “0”. By adding the selected feature region to the previously determined extraction region, only the extraction region can be extracted integrally from the initial image IM.

本実施の形態では、抽出範囲内の画像から輝度を抽出条件として一または複数の領域が抽出される。この場合、抽出範囲内の初期画像IMが輝度のしきい値(以下、しきい値と略記する。)を用いて2値化されることにより、一または複数の領域が抽出される。例えば、抽出範囲内でしきい値以下の輝度値を有する画素により構成される領域が抽出される。   In the present embodiment, one or more regions are extracted from an image within the extraction range using luminance as an extraction condition. In this case, one or a plurality of regions are extracted by binarizing the initial image IM within the extraction range using a threshold value of luminance (hereinafter, abbreviated as a threshold value). For example, a region constituted by pixels having a luminance value equal to or less than a threshold value within the extraction range is extracted.

しきい値設定バー264上のスライダ264sの位置は、初期画像IMに設定されるしきい値に対応する。使用者は、図1の入力装置250を用いて図5のしきい値設定バー264のスライダ264sを水平方向に移動させることにより、抽出範囲内の初期画像IMに設定されるしきい値を変更することができる。オート処理チェックボックス267が指定されている場合、しきい値が自動的に設定される。   The position of the slider 264s on the threshold setting bar 264 corresponds to the threshold set in the initial image IM. The user changes the threshold value set in the initial image IM within the extraction range by moving the slider 264s of the threshold value setting bar 264 in FIG. 5 in the horizontal direction using the input device 250 in FIG. can do. When the auto process check box 267 is designated, the threshold value is automatically set.

抽出条件は、画像の輝度に代えて、画像の色または輪郭成分に関する情報であってもよい。   The extraction condition may be information regarding the color or contour component of the image instead of the luminance of the image.

次に、抽出範囲内で抽出された一または複数の領域のうち特徴情報が予め設定される選択条件を満たす特徴領域が選択される。特徴情報は、領域の面積、領域の予め定められた部分の長さ、または領域の予め定められた部分と指定された範囲内の重心との間の距離であってもよい。また、特徴情報は、領域の形状に関する情報または領域の画素の値に関する情報であってもよい。画素の値は、輝度を表してもよく、色を表してもよく、輪郭成分を表してもよい。これらの特徴情報が予め設定された選択条件を満たす領域が特徴領域として選択される。例えば、抽出条件を満たす複数の領域のうち最大の面積を有する領域が特徴領域として選択されてもよいし、最小の面積を有する領域が特徴領域として選択されてもよい。また、形状が円、矩形または多角形等に最も近い領域が特徴領域として選択されてもよい。   Next, a feature region that satisfies a selection condition in which feature information is set in advance is selected from one or a plurality of regions extracted within the extraction range. The feature information may be the area of the region, the length of a predetermined portion of the region, or the distance between the predetermined portion of the region and the center of gravity within a specified range. The feature information may be information related to the shape of the region or information related to the value of the pixel in the region. The pixel value may represent luminance, color, or contour component. A region in which these feature information satisfies a preset selection condition is selected as a feature region. For example, a region having the largest area among a plurality of regions satisfying the extraction condition may be selected as the feature region, or a region having the smallest area may be selected as the feature region. Also, an area whose shape is closest to a circle, rectangle, polygon, or the like may be selected as the feature area.

なお、穴埋め処理チェックボックス266が指定されている場合、特徴領域に囲まれた“0”の画素の部分(以下、孔と呼ぶ。)も特徴領域として選択される。特徴領域として選択される孔の大きさ(画素数)は使用者により任意に設定されてもよい。また、特徴領域として選択される孔の画素数は、選択された特徴領域の画素数の例えば5%以下に設定されてもよい。   When the hole filling process check box 266 is designated, the portion of the pixel “0” surrounded by the feature area (hereinafter referred to as a hole) is also selected as the feature area. The size (number of pixels) of the hole selected as the feature region may be arbitrarily set by the user. Further, the number of pixels of the hole selected as the feature region may be set to, for example, 5% or less of the number of pixels of the selected feature region.

(3)特徴領域の第1の選択例
特徴領域の第1の選択例においては、抽出範囲内においてしきい値よりも低い輝度値を有する一および複数の領域のうち最も低い輝度値を有する領域が特徴領域として選択されるように、予め選択条件が設定されている。図7〜図11は、特徴領域の第1の選択例における初期画像IMを示す模式図である。特徴領域は、図7、図8、図9および図10の順に選択される。
(3) First selection example of feature region In the first selection example of feature region, a region having the lowest luminance value among one and a plurality of regions having a luminance value lower than a threshold value in the extraction range Selection conditions are set in advance so that is selected as a feature region. 7 to 11 are schematic diagrams illustrating the initial image IM in the first selection example of the feature region. The feature regions are selected in the order of FIGS. 7, 8, 9 and 10.

まず、使用者は、図1の入力装置250を用いて、図7に示すように、画像表示領域261に表示される初期画像IMにおける領域Aを含む抽出範囲Rを指定する。抽出範囲R内に複数の輝度値を有する画素が含まれている。ここで、使用者は、入力装置250を用いて図5のしきい値設定バー264のスライダ264sを移動させることにより、抽出範囲R内におけるしきい値を変更することができる。使用者は、抽出範囲R内において領域Aと他の領域Xとを区別する適切なしきい値を設定することにより、領域Aのみを特徴領域として選択することができる。   First, the user designates an extraction range R including the area A in the initial image IM displayed in the image display area 261 using the input device 250 of FIG. 1 as shown in FIG. A pixel having a plurality of luminance values is included in the extraction range R. Here, the user can change the threshold within the extraction range R by moving the slider 264 s of the threshold setting bar 264 of FIG. 5 using the input device 250. The user can select only the region A as the feature region by setting an appropriate threshold value for distinguishing the region A from the other region X in the extraction range R.

なお、図5のオート処理チェックボックス267が指定されている場合、抽出範囲R内におけるしきい値が自動的に設定される。そのため、設定されたしきい値により領域Aと他の領域Xとを区別することができる場合には、使用者はしきい値設定バー264のスライダ264sを操作してしきい値を変更する必要がない。以下の説明においても同様である。   When the auto process check box 267 of FIG. 5 is designated, the threshold value within the extraction range R is automatically set. Therefore, if the area A can be distinguished from the other area X by the set threshold value, the user needs to operate the slider 264s of the threshold setting bar 264 to change the threshold value. There is no. The same applies to the following description.

その後、使用者は、入力装置250を用いて図5の次へボタン263aを操作する。これにより、選択された特徴領域(領域A)が抽出領域として決定され、抽出領域を表示するための抽出領域データが生成される。生成された抽出領域データは、図1の作業用メモリ270に記憶される。なお、使用者が入力装置250を用いて図5の戻るボタン263bを操作することにより、選択された特徴領域が抽出領域から除去される。これにより、使用者は初期画像IMから領域Aを含む領域を抽出範囲Rとして指定し直すことができる。   Thereafter, the user operates the next button 263 a in FIG. 5 using the input device 250. Thereby, the selected feature region (region A) is determined as the extraction region, and extraction region data for displaying the extraction region is generated. The generated extraction area data is stored in the work memory 270 of FIG. When the user operates the return button 263b in FIG. 5 using the input device 250, the selected feature region is removed from the extraction region. Thereby, the user can re-specify the area including the area A as the extraction range R from the initial image IM.

本実施の形態においては、抽出領域の画素すなわち“1”の画素が、初期画像IMに重なるように黒く表示される。図8において、領域Aは既に決定された抽出領域であるため、作業用メモリ270に記憶された画像データに基づいて領域Aが黒く表示されている。   In the present embodiment, the pixels in the extraction region, that is, “1” pixels are displayed in black so as to overlap the initial image IM. In FIG. 8, since the area A is an extraction area that has already been determined, the area A is displayed in black based on the image data stored in the work memory 270.

次に、使用者は、入力装置250を用いて、図8に示すように、画像表示領域261に表示される初期画像IMから領域Bを含む抽出範囲Rを指定する。ここで、使用者は、抽出範囲R内において領域Bと他の領域Xとを区別する適切なしきい値を設定することにより、領域Bのみを特徴領域として選択することができる。   Next, the user designates an extraction range R including the region B from the initial image IM displayed in the image display region 261 using the input device 250 as shown in FIG. Here, the user can select only the region B as the feature region by setting an appropriate threshold value for distinguishing the region B from the other region X in the extraction range R.

その後、使用者は、入力装置250を用いて次へボタン263aを操作する。これにより、選択された特徴領域(領域B)が既に決定された抽出領域(領域A)に追加され、新たな抽出領域として決定される。決定された新たな抽出領域を表示するための抽出領域データが生成され、生成された抽出領域データは、作業用メモリ270に記憶される。図9において、領域A,Bは既に決定された抽出領域であるため、作業用メモリ270に記憶された画像データに基づいて領域A,Bが黒く表示されている。   Thereafter, the user operates the next button 263 a using the input device 250. As a result, the selected feature region (region B) is added to the already determined extraction region (region A) and determined as a new extraction region. Extraction area data for displaying the determined new extraction area is generated, and the generated extraction area data is stored in the work memory 270. In FIG. 9, since the areas A and B are already determined extraction areas, the areas A and B are displayed in black based on the image data stored in the work memory 270.

次に、使用者は、入力装置250を用いて、図9に示すように、画像表示領域261に表示される初期画像IMから領域Cを含む抽出範囲Rを指定する。ここで、使用者は、抽出範囲R内において領域Cと他の領域Xとを区別する適切なしきい値を設定することにより、領域Cのみを特徴領域として選択することができる。   Next, the user uses the input device 250 to specify an extraction range R including the region C from the initial image IM displayed in the image display region 261, as shown in FIG. Here, the user can select only the region C as the feature region by setting an appropriate threshold value for distinguishing the region C from the other region X in the extraction range R.

その後、使用者は、入力装置250を用いて次へボタン263aを操作する。これにより、選択された特徴領域(領域C)が既に決定された抽出領域(領域A,B)に追加され、新たな抽出領域として決定される。決定された新たな抽出領域を表示するための抽出領域データが生成され、生成された抽出領域データは、作業用メモリ270に記憶される。図10において、領域A〜Cは既に決定された抽出領域であるため、作業用メモリ270に記憶された画像データに基づいて領域A〜Cが黒く表示されている。   Thereafter, the user operates the next button 263 a using the input device 250. As a result, the selected feature region (region C) is added to the already determined extraction regions (regions A and B), and is determined as a new extraction region. Extraction area data for displaying the determined new extraction area is generated, and the generated extraction area data is stored in the work memory 270. In FIG. 10, since the areas A to C are already determined extraction areas, the areas A to C are displayed in black based on the image data stored in the work memory 270.

次に、使用者は、入力装置250を用いて、図10に示すように、画像表示領域261に表示される初期画像IMから領域Dを含む抽出範囲Rを指定する。ここで、使用者は、抽出範囲R内において領域Dと他の領域Xとを区別する適切なしきい値を設定することにより、領域Dのみを特徴領域として選択することができる。   Next, the user designates an extraction range R including the region D from the initial image IM displayed in the image display region 261 using the input device 250 as shown in FIG. Here, the user can select only the region D as the feature region by setting an appropriate threshold value for distinguishing the region D from the other region X in the extraction range R.

その後、使用者は、入力装置250を用いて次へボタン263aを操作する。これにより、選択された特徴領域(領域D)が既に決定された抽出領域(領域A〜C)に追加され、新たな抽出領域として決定される。決定された新たな抽出領域を表示するための抽出領域データが生成され、生成された抽出領域データは、作業用メモリ270に記憶される。図11において、領域A〜Dは既に決定された抽出領域であるため、作業用メモリ270に記憶された画像データに基づいて領域A〜Dが黒く表示されている。   Thereafter, the user operates the next button 263 a using the input device 250. As a result, the selected feature region (region D) is added to the already determined extraction regions (regions A to C), and is determined as a new extraction region. Extraction area data for displaying the determined new extraction area is generated, and the generated extraction area data is stored in the work memory 270. In FIG. 11, since the areas A to D are already determined extraction areas, the areas A to D are displayed in black based on the image data stored in the work memory 270.

最後に、使用者は、入力装置250を用いて、図5の終了ボタン263cを操作する。これにより、作業用メモリ270の抽出領域データが図1の記憶装置240に記憶される。このようにして、初期画像IMから抽出領域として領域A〜Dのみを抽出することができる。この場合、領域A〜Dに対応する画像データが一体的なデータとして合成される。   Finally, the user uses the input device 250 to operate the end button 263c in FIG. Thereby, the extraction area data of the work memory 270 is stored in the storage device 240 of FIG. In this way, only the areas A to D can be extracted from the initial image IM as extraction areas. In this case, the image data corresponding to the areas A to D are combined as integral data.

このように、抽出範囲R内で不要な領域を抽出しない適切なしきい値が設定されることにより、必要な領域のみが抽出領域に順次追加される。これにより、初期画像IMの全体において適切なしきい値を設定することが困難な場合においても、所望の領域を容易に抽出することができる。   In this way, by setting an appropriate threshold value that does not extract unnecessary areas within the extraction range R, only necessary areas are sequentially added to the extraction area. Thereby, even when it is difficult to set an appropriate threshold value in the entire initial image IM, a desired region can be easily extracted.

なお、本例では、初めに領域を抽出する際に、その領域を含む抽出範囲Rが指定されたが、これに限定されない。初めに領域を抽出する際に、その領域を含む抽出範囲Rを指定しなくてもよい。それにより、初期画像IMの全体が抽出範囲Rとみなされる。この場合、初期画像IM全体において必要な領域を抽出しつつ不要な領域を抽出しないしきい値を設定することにより、必要な領域を抽出領域として決定することができる。   In this example, when an area is first extracted, an extraction range R including the area is specified, but the present invention is not limited to this. When an area is first extracted, the extraction range R including the area may not be specified. Thereby, the entire initial image IM is regarded as the extraction range R. In this case, the necessary area can be determined as the extraction area by setting a threshold value that does not extract the unnecessary area while extracting the necessary area in the entire initial image IM.

具体的には、初期画像IM全体において領域Aを抽出しつつ不要な領域を抽出しないしきい値を設定する。これにより、領域Aが抽出領域として決定される。この場合には、同時に領域Bおよび領域C等の他の所望の領域が抽出領域として決定されない可能性がある。その後、所望の領域のうち抽出されていない領域を含む抽出範囲Rを指定することにより、順次必要な領域のみを抽出領域に追加することができる。   Specifically, a threshold value is set so as not to extract an unnecessary area while extracting the area A in the entire initial image IM. Thereby, the area A is determined as the extraction area. In this case, other desired regions such as the region B and the region C may not be determined as the extraction region at the same time. Thereafter, by designating an extraction range R that includes a region that has not been extracted among desired regions, only the necessary regions can be sequentially added to the extraction region.

(4)特徴領域の第2の選択例
図12は、表示部260の画面の他の例を示す模式図である。図12に示すように、表示部260の画像表示領域261には、図1の記憶装置240に記憶される画像データに基づいて初期画像IMとは異なる初期画像IM2が表示される。
(4) Second Selection Example of Feature Area FIG. 12 is a schematic diagram illustrating another example of the screen of the display unit 260. As shown in FIG. 12, in the image display area 261 of the display unit 260, an initial image IM2 different from the initial image IM is displayed based on the image data stored in the storage device 240 of FIG.

図12においては、初期画像IM2の異なる領域が複数のドットパターンおよびハッチングパターンにより表されている。初期画像IM2には、観察対象物として壁面の一部を示す画像が表示されている。壁面には複数の亀裂が生じている。複数の亀裂のうち、視認可能な特に独立した大きい亀裂の領域をそれぞれ領域E,E1,F,G,H,Iと呼ぶ。なお、壁面には、無数の小さい亀裂が発生しているが、これらの亀裂の図示は省略されている。壁面の背景を領域Yと呼ぶ。また、ここで、各領域は、連続した一または複数の画素から構成される。特徴領域の第2の選択例においては、表示部260に表示される初期画像IM2から領域E,E1のみを抽出することを考える。   In FIG. 12, different areas of the initial image IM2 are represented by a plurality of dot patterns and hatching patterns. In the initial image IM2, an image showing a part of the wall surface as an observation object is displayed. The wall has a plurality of cracks. Of the plurality of cracks, the regions of particularly large cracks that can be visually recognized are called regions E, E1, F, G, H, and I, respectively. In addition, innumerable small cracks are generated on the wall surface, but illustration of these cracks is omitted. The wall background is referred to as region Y. Here, each region is composed of one or a plurality of continuous pixels. In the second selection example of the feature region, it is considered that only the regions E and E1 are extracted from the initial image IM2 displayed on the display unit 260.

特徴領域の第2の選択例においては、抽出範囲内においてしきい値よりも低い輝度値を有する一または複数の領域のうち最大の面積を有する領域が特徴領域として選択されるように、予め選択条件が設定されている。図13〜図18は、特徴領域の第2の選択例における初期画像IM2を示す模式図である。   In the second selection example of the feature region, the selection is made in advance so that the region having the maximum area among the one or more regions having luminance values lower than the threshold value in the extraction range is selected as the feature region. The condition is set. 13 to 18 are schematic diagrams illustrating the initial image IM2 in the second selection example of the feature region.

まず、使用者は、図1の入力装置250を用いて、図13に示すように、画像表示領域261に表示される初期画像IM2における領域E,E1を含む抽出範囲Rを指定する。図13の例においては、抽出範囲R内に領域E,E1の全部、領域Fの一部および領域Yの一部が含まれている。したがって、領域G,H,Iは特徴領域として選択されることはない。抽出範囲R内に領域E,E1,F,Yに対応する複数の輝度値を有する画素が含まれている。ここで、使用者は、入力装置250を用いて図5のしきい値設定バー264のスライダ264sを移動させることにより、抽出範囲R内におけるしきい値を変更することができる。   First, the user designates an extraction range R including areas E and E1 in the initial image IM2 displayed in the image display area 261, as shown in FIG. 13, using the input device 250 of FIG. In the example of FIG. 13, the extraction range R includes all of the regions E and E1, a part of the region F, and a part of the region Y. Therefore, the regions G, H, and I are not selected as feature regions. The extraction range R includes pixels having a plurality of luminance values corresponding to the regions E, E1, F, and Y. Here, the user can change the threshold within the extraction range R by moving the slider 264 s of the threshold setting bar 264 of FIG. 5 using the input device 250.

本例において、領域E〜Iの輝度は略等しい。したがって、抽出範囲R内の領域E,E1と領域Fとを区別するしきい値を設定することができない。そこで、本例では、領域E,E1,Fと他の領域Yとを区別する適切なしきい値を設定する。これにより、領域E,E1,Fのみが抽出条件を満たすこととなる。この場合の抽出条件は、しきい値よりも低い平均輝度を有することである。   In this example, the brightness of the areas E to I is substantially equal. Therefore, it is not possible to set a threshold value for distinguishing between the regions E and E1 and the region F in the extraction range R. Therefore, in this example, an appropriate threshold value for distinguishing the areas E, E1, and F from the other areas Y is set. As a result, only the regions E, E1, and F satisfy the extraction condition. The extraction condition in this case is to have an average luminance lower than the threshold value.

なお、特徴領域の第1の選択例と同様に、図12のオート処理チェックボックス267が指定されている場合、抽出範囲R内におけるしきい値が自動的に設定される。そのため、設定されたしきい値により領域E,E1,Fと他の領域Yとを区別することができる場合には、使用者はしきい値設定バー264のスライダ264sを操作してしきい値を変更する必要がない。以下の説明においても同様である。   Similar to the first selection example of the feature region, when the automatic processing check box 267 of FIG. 12 is designated, the threshold value within the extraction range R is automatically set. Therefore, when the areas E, E1, F can be distinguished from other areas Y by the set threshold, the user operates the slider 264s of the threshold setting bar 264 to set the threshold. There is no need to change. The same applies to the following description.

上述の通り、本例においては、抽出条件を満たす一または複数の領域のうち最大の面積を有する領域が特徴領域として選択される。抽出範囲R内において、領域Eの面積は領域E1,Fの面積よりも大きい。すなわち、領域Eは、抽出条件を満たす複数の領域のうち最大の面積を有する。したがって、領域Eのみが特徴領域として選択されることとなる。   As described above, in this example, a region having the maximum area among one or a plurality of regions satisfying the extraction condition is selected as the feature region. In the extraction range R, the area E is larger than the areas E1 and F. That is, the region E has the largest area among the plurality of regions that satisfy the extraction condition. Therefore, only the region E is selected as the feature region.

その後、使用者は、入力装置250を用いて図12の次へボタン263aを操作する。これにより、選択された特徴領域(領域E)が抽出領域として決定され、抽出領域を表示するための抽出領域データが生成される。生成された抽出領域データは、図1の作業用メモリ270に記憶される。なお、使用者が入力装置250を用いて図5の戻るボタン263bを操作することにより、選択された特徴領域が抽出領域から除去される。これにより、使用者は初期画像IM2から領域Eを含む領域を抽出範囲Rとして指定し直すことができる。   Thereafter, the user operates the next button 263 a in FIG. 12 using the input device 250. Thereby, the selected feature region (region E) is determined as the extraction region, and extraction region data for displaying the extraction region is generated. The generated extraction area data is stored in the work memory 270 of FIG. When the user operates the return button 263b in FIG. 5 using the input device 250, the selected feature region is removed from the extraction region. Thereby, the user can re-specify the area including the area E as the extraction range R from the initial image IM2.

本実施の形態においては、抽出領域の画素すなわち“1”の画素が、初期画像IM2に重なるように黒く表示される。図14において、領域Eは既に決定された抽出領域であるため、作業用メモリ270に記憶された画像データに基づいて領域Eが黒く表示されている。しかしながら、領域E1は特徴領域として選択されない。   In the present embodiment, the pixels in the extraction region, that is, “1” pixels are displayed in black so as to overlap the initial image IM2. In FIG. 14, since the area E is an extraction area that has already been determined, the area E is displayed in black based on the image data stored in the work memory 270. However, the region E1 is not selected as a feature region.

図15は、図14のZ部の拡大図である。図14の領域E1は、領域Eの近傍に存在する。しかし、領域E1は領域Eから分離しているため、領域Eとは異なる領域とみなされる。図15に示すように、領域Eは抽出範囲R内で最大の面積を有するので、特徴領域として選択されている。一方、領域E1は、領域Eよりも小さい面積を有する。そのため、領域E1は特徴領域として選択されていない。   FIG. 15 is an enlarged view of a portion Z in FIG. An area E1 in FIG. 14 exists in the vicinity of the area E. However, since the region E1 is separated from the region E, it is regarded as a region different from the region E. As shown in FIG. 15, the region E is selected as a feature region because it has the largest area within the extraction range R. On the other hand, the region E1 has a smaller area than the region E. For this reason, the region E1 is not selected as the feature region.

そこで、使用者は、入力装置250を用いて、図16に示すように、画像表示領域261に表示される初期画像IM2において領域E1を含む抽出範囲Rを指定する。それにより、図16の抽出範囲R内で最大の面積を有するE1が特徴領域として選択される。   Therefore, the user uses the input device 250 to specify an extraction range R including the area E1 in the initial image IM2 displayed in the image display area 261, as shown in FIG. Thereby, E1 having the largest area within the extraction range R in FIG. 16 is selected as the feature region.

その後、使用者は、入力装置250を用いて次へボタン263aを操作する。これにより、選択された特徴領域(領域E1)が既に決定された抽出領域(領域E)に追加され、新たな抽出領域として決定される。決定された新たな抽出領域を表示するための抽出領域データが生成され、生成された抽出領域データは、作業用メモリ270に記憶される。図17および図18において、領域E,E1は既に決定された抽出領域であるため、作業用メモリ270に記憶された画像データに基づいて黒く表示されている。   Thereafter, the user operates the next button 263 a using the input device 250. As a result, the selected feature region (region E1) is added to the already determined extraction region (region E) and determined as a new extraction region. Extraction area data for displaying the determined new extraction area is generated, and the generated extraction area data is stored in the work memory 270. 17 and 18, areas E and E1 are already determined extraction areas, and are therefore displayed in black based on the image data stored in the work memory 270.

最後に、使用者は、入力装置250を用いて、図12の終了ボタン263cを操作する。これにより、作業用メモリ270の抽出領域データが図1の記憶装置240に記憶される。このようにして、初期画像IM2から抽出領域として領域E,E1のみを抽出することができる。この場合、領域E,E1に対応する画像データが一体的なデータとして合成される。   Finally, the user operates the end button 263c in FIG. Thereby, the extraction area data of the work memory 270 is stored in the storage device 240 of FIG. In this way, only the areas E and E1 can be extracted from the initial image IM2 as extraction areas. In this case, the image data corresponding to the areas E and E1 are combined as integral data.

(5)領域抽出処理
図19、図20および図21は、画像処理装置200による領域抽出処理を示すフローチャートである。領域抽出処理は、CPU220が記憶装置240に記憶された画像処理プログラムを実行することにより行われる。以下、図19〜図21のフローチャートにしたがって、初期画像IM(IM2)から所望の領域を抽出する処理を説明する。
(5) Region Extraction Processing FIGS. 19, 20, and 21 are flowcharts showing region extraction processing by the image processing apparatus 200. The area extraction process is performed by the CPU 220 executing an image processing program stored in the storage device 240. Hereinafter, processing for extracting a desired region from the initial image IM (IM2) will be described with reference to the flowcharts of FIGS.

図1のCPU220は、使用者により図1の記憶装置240に記憶された画像データが選択されたか否かを判定する(ステップS1)。画像データが選択されていない場合、CPU220は使用者により画像データが選択されるまで待機する。ステップS1で使用者により画像データが選択された場合、CPU220は選択された画像データに基づいて初期画像IM(IM2)を図5(図12)の表示部260の画像表示領域261に表示する(ステップS2)。   The CPU 220 in FIG. 1 determines whether or not the image data stored in the storage device 240 in FIG. 1 has been selected by the user (step S1). If no image data is selected, the CPU 220 waits until image data is selected by the user. When image data is selected by the user in step S1, the CPU 220 displays the initial image IM (IM2) in the image display area 261 of the display unit 260 in FIG. 5 (FIG. 12) based on the selected image data ( Step S2).

次に、CPU220は、使用者が図1の入力装置250を操作することにより初期画像IM(IM2)から最初の抽出範囲Rが指定されたか否かを判定する(ステップS3)。最初の抽出範囲Rが指定されていない場合、CPU220は使用者により終了ボタン263cが操作されたか否かを判定する(ステップS4)。終了ボタン263cが操作されていない場合、CPU220はステップS3の処理に戻る。   Next, the CPU 220 determines whether or not the first extraction range R is designated from the initial image IM (IM2) by the user operating the input device 250 of FIG. 1 (step S3). If the first extraction range R is not designated, the CPU 220 determines whether or not the user has operated the end button 263c (step S4). When the end button 263c is not operated, the CPU 220 returns to the process of step S3.

ステップS3で使用者により最初の抽出範囲Rが指定された場合、CPU220は使用者が図5(図12)のしきい値設定バー264のスライダ264sを操作することにより抽出条件が変更されたか否かを判定する(ステップS5)。図5および図12の例では、抽出条件はしきい値である。ステップS5で抽出条件が変更されない場合、CPU220は予め設定された抽出条件で抽出範囲R内の一または複数の領域を抽出する(ステップS6)。一方、ステップS5で抽出条件が変更された場合、CPU220は変更後の抽出条件で抽出範囲R内の一または複数の領域を抽出する(ステップS7)。   When the first extraction range R is designated by the user in step S3, the CPU 220 determines whether or not the extraction condition has been changed by the user operating the slider 264s of the threshold setting bar 264 in FIG. 5 (FIG. 12). Is determined (step S5). In the examples of FIGS. 5 and 12, the extraction condition is a threshold value. When the extraction condition is not changed in step S5, the CPU 220 extracts one or a plurality of areas in the extraction range R under the preset extraction condition (step S6). On the other hand, when the extraction condition is changed in step S5, the CPU 220 extracts one or a plurality of regions in the extraction range R with the changed extraction condition (step S7).

なお、図5(図12)のオート処理チェックボックス267が指定されていない場合には、ステップS5の抽出条件の変更の有無は、使用者が次へボタン263aを操作することにより確定する。オート処理チェックボックス267が指定されている場合には、ステップS5の処理は行われない。   If the auto process check box 267 in FIG. 5 (FIG. 12) is not designated, whether or not the extraction condition is changed in step S5 is determined by the user operating the next button 263a. When the auto process check box 267 is designated, the process of step S5 is not performed.

次に、CPU220は、一または複数の領域から特徴情報が設定された選択条件を満たす領域を特徴領域として選択する(ステップS8)。図5の例においては、領域の平均輝度がしきい値よりも低いことが選択条件である。図12の例においては、しきい値よりも低い輝度値を有する複数の領域のうち領域の面積が最大であることが選択条件である。   Next, the CPU 220 selects, as a feature region, a region that satisfies a selection condition in which feature information is set from one or more regions (step S8). In the example of FIG. 5, the selection condition is that the average luminance of the region is lower than the threshold value. In the example of FIG. 12, the selection condition is that the area of the plurality of areas having luminance values lower than the threshold value is the maximum.

続いて、CPU220は、選択された特徴領域を抽出領域として決定する(ステップS9)。その後、CPU220は、抽出領域を表示するための抽出領域データを図1の作業用メモリ270に記憶する(ステップS10)。また、CPU220は、抽出領域データに基づいて初期画像IM(IM2)上に抽出領域を表示する(ステップS11)。   Subsequently, the CPU 220 determines the selected feature area as an extraction area (step S9). Thereafter, the CPU 220 stores the extraction area data for displaying the extraction area in the work memory 270 of FIG. 1 (step S10). Further, the CPU 220 displays the extraction area on the initial image IM (IM2) based on the extraction area data (step S11).

次に、CPU220は、使用者が入力装置250を操作することにより初期画像IM(IM2)から次の抽出範囲Rが指定されたか否かを判定する(ステップS12)。次の抽出範囲Rが指定されていない場合、CPU220は使用者により終了ボタン263cが操作されたか否かを判定する(ステップS13)。終了ボタン263cが操作されていない場合、CPU220はステップS12の処理に戻る。   Next, the CPU 220 determines whether or not the next extraction range R is designated from the initial image IM (IM2) by the user operating the input device 250 (step S12). When the next extraction range R is not designated, the CPU 220 determines whether or not the end button 263c has been operated by the user (step S13). When the end button 263c is not operated, the CPU 220 returns to the process of step S12.

ステップS12で使用者により最初の抽出範囲Rが指定された場合、CPU220は使用者がしきい値設定バー264のスライダ264sを操作することにより抽出条件が変更されたか否かを判定する(ステップS14)。ステップS14で抽出条件が変更されない場合、CPU220は予め設定された抽出条件で抽出範囲R内の一または複数の領域を抽出する(ステップS15)。一方、ステップS14で抽出条件が変更された場合、CPU220は変更後の抽出条件で抽出範囲R内の一または複数の領域を抽出する(ステップS16)。なお、オート処理チェックボックス267が指定されている場合には、ステップS14の処理は行われない。   When the first extraction range R is designated by the user in step S12, the CPU 220 determines whether or not the extraction condition has been changed by the user operating the slider 264s of the threshold setting bar 264 (step S14). ). If the extraction condition is not changed in step S14, the CPU 220 extracts one or a plurality of regions in the extraction range R under the preset extraction condition (step S15). On the other hand, when the extraction condition is changed in step S14, the CPU 220 extracts one or a plurality of regions in the extraction range R with the changed extraction condition (step S16). If the auto process check box 267 is designated, the process of step S14 is not performed.

次に、CPU220は、一または複数の領域から特徴情報が設定された選択条件を満たす領域を特徴領域として選択する(ステップS17)。続いて、CPU220は、選択された特徴領域を抽出領域に追加する(ステップS18)。その後、CPU220は、ステップS10の処理に戻り、抽出領域を表示するための抽出領域データを作業用メモリ270に記憶する(ステップS10)。また、CPU220は、抽出領域データに基づいて初期画像IM(IM2)上に抽出領域を表示する(ステップS11)。   Next, the CPU 220 selects, as a feature region, a region that satisfies the selection condition for which feature information is set from one or more regions (step S17). Subsequently, the CPU 220 adds the selected feature region to the extraction region (step S18). Thereafter, the CPU 220 returns to the process of step S10, and stores the extraction area data for displaying the extraction area in the work memory 270 (step S10). Further, the CPU 220 displays the extraction area on the initial image IM (IM2) based on the extraction area data (step S11).

その後、ステップS12,S13の処理が繰り返されるか、またはステップS12,S14〜S20,S10,S11の処理が繰り返される。ステップS4またはステップS13で使用者により終了ボタン263cが操作された場合、CPU220は、作業用メモリ270の抽出領域データを図1の記憶装置240に記憶して領域抽出処理を終了する。   Thereafter, the processes of steps S12 and S13 are repeated, or the processes of steps S12, S14 to S20, S10, and S11 are repeated. When the end button 263c is operated by the user in step S4 or step S13, the CPU 220 stores the extraction area data of the work memory 270 in the storage device 240 of FIG. 1 and ends the area extraction process.

(6)効果
本実施の形態においては、使用者が入力装置250を用いて表示部260の初表示領域261に表示される初期画像IM,IM2において所望の領域の一部を含む抽出範囲Rを指定する操作を行うことにより特徴領域が選択される。選択された特徴領域が抽出領域として決定される。また、使用者が入力装置250用いて表示部260の画像表示領域261に表示される初期画像IM,IM2から所望の領域の他の一部を含む抽出範囲Rを指定する操作を行うことにより新たな特徴領域が選択され、選択された特徴領域が前回の操作により決定された抽出領域に追加される。この操作を繰り返すことにより、使用者は初期画像IM,IM2から所望の領域を容易に抽出することができる。
(6) Effect In the present embodiment, the extraction range R including a part of a desired region in the initial images IM and IM2 displayed on the initial display region 261 of the display unit 260 by the user using the input device 250 is obtained. A feature region is selected by performing a designated operation. The selected feature region is determined as the extraction region. In addition, the user performs an operation of designating an extraction range R including another part of a desired region from the initial images IM and IM2 displayed in the image display region 261 of the display unit 260 using the input device 250. A feature region is selected, and the selected feature region is added to the extraction region determined by the previous operation. By repeating this operation, the user can easily extract a desired region from the initial images IM and IM2.

(7)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(7) Correspondence between each component of claim and each part of embodiment The following describes an example of the correspondence between each component of the claim and each part of the embodiment. It is not limited.

初期画像IM,IM2が画像の例であり、表示部260が表示部の例であり、入力装置250が操作部の例であり、抽出範囲Rが指定された範囲の例であり、CPU220が処理部および処理装置の例であり、画像処理装置200が画像処理装置である。   The initial images IM and IM2 are examples of images, the display unit 260 is an example of a display unit, the input device 250 is an example of an operation unit, the extraction range R is an example of a specified range, and the CPU 220 performs processing. The image processing apparatus 200 is an image processing apparatus.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の画像処理装置および画像処理プログラムに有効に利用することができる。   The present invention can be effectively used for various image processing apparatuses and image processing programs.

1 ベース
2,3 支持台
4,6 連結部
5 回動支柱
7 支持部
8 スライダ
9 固定つまみ
10 撮像装置
11 カラーCCD
12 ハーフミラー
13 対物レンズ
15 A/D変換器
16 照明用光源
17 レンズ駆動部
20 ステージ装置
21 ステージ
22 ステージ駆動部
23 ステージ支持部
30 回転角度センサ
41 調整ネジ
42 調整つまみ
100 顕微鏡
200 画像処理装置
210 インタフェース
220 CPU
230 ROM
240 記憶装置
250 入力装置
260 表示部
261 画像表示領域
262 抽出条件設定領域
263a 次へボタン
263b 戻るボタン
263c 終了ボタン
264 しきい値設定バー
264s スライダ
265a,265b 輝度チェックボックス
266 穴埋め処理チェックボックス
267 オート処理チェックボックス
270 作業用メモリ
300 拡大観察装置
A〜I,X,Y 領域
IM,IM2 初期画像
R 抽出範囲
R1 回動軸
R2 光軸
R3 回転軸
S 観察対象物
DESCRIPTION OF SYMBOLS 1 Base 2, 3 Support stand 4,6 Connection part 5 Rotating support | pillar 7 Support part 8 Slider 9 Fixed knob 10 Imaging device 11 Color CCD
DESCRIPTION OF SYMBOLS 12 Half mirror 13 Objective lens 15 A / D converter 16 Illumination light source 17 Lens drive part 20 Stage apparatus 21 Stage 22 Stage drive part 23 Stage support part 30 Rotation angle sensor 41 Adjustment screw 42 Adjustment knob 100 Microscope 200 Image processing apparatus 210 Interface 220 CPU
230 ROM
240 Storage Device 250 Input Device 260 Display Unit 261 Image Display Area 262 Extraction Condition Setting Area 263a Next Button 263b Back Button 263c End Button 264 Threshold Setting Bar 264s Slider 265a, 265b Luminance Check Box 266 Filling Process Check Box 267 Auto Process Check box 270 Working memory 300 Magnifying observation apparatus A to I, X, Y area IM, IM2 Initial image R Extraction range R1 Rotating axis R2 Optical axis R3 Rotating axis S Observation object

Claims (9)

画像データに基づく画像を表示するための表示部と、
前記表示部に表示された画像において抽出すべき領域を含む範囲を指定するために使用者により操作される操作部と、
前記操作部の操作により指定された範囲内で設定された抽出条件に基づいて抽出される一または複数の領域から、領域に関する特徴情報に基づいて特徴領域を選択し、選択された特徴領域を抽出領域として決定する処理部とを備え、
前記処理部は、
前記操作部の一の操作により選択された特徴領域を前記操作部の前回の操作により決定された抽出領域に加えるように動作する、画像処理装置。
A display unit for displaying an image based on the image data;
An operation unit operated by a user to designate a range including an area to be extracted in the image displayed on the display unit;
A feature region is selected from one or a plurality of regions extracted based on an extraction condition set within a range specified by the operation of the operation unit, and the selected feature region is extracted. A processing unit for determining the area,
The processor is
An image processing apparatus that operates to add a feature region selected by one operation of the operation unit to an extraction region determined by a previous operation of the operation unit.
前記抽出条件は、前記表示部に表示される画像の輝度、色または輪郭成分に関する条件を含む、請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the extraction condition includes a condition relating to a luminance, a color, or a contour component of an image displayed on the display unit. 前記抽出条件は、前記指定された範囲ごとに変更可能である、請求項1または2記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the extraction condition can be changed for each of the designated ranges. 前記処理部は、前記操作部の操作により指定された範囲内で前記設定された抽出条件により抽出される一または複数の領域のうち前記特徴情報が予め設定された選択条件を満たす領域を特徴領域として選択する、請求項1〜3のいずれか一項に記載の画像処理装置。 The processing unit includes a region that satisfies a selection condition in which the feature information is preset among one or a plurality of regions extracted by the set extraction condition within a range specified by an operation of the operation unit. The image processing apparatus according to claim 1, which is selected as 前記特徴情報は、領域の面積、領域の予め定められた部分の長さ、および領域の予め定められた部分と前記指定された範囲内の重心との間の距離の少なくとも1つである、請求項1〜4のいずれか一項に記載の画像処理装置。 The feature information is at least one of an area of a region, a length of a predetermined portion of the region, and a distance between a predetermined portion of the region and a centroid within the specified range. Item 5. The image processing device according to any one of Items 1 to 4. 前記特徴情報は、領域の形状に関する情報である、請求項1〜5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the feature information is information related to a shape of a region. 前記特徴情報は、領域の画素の値に関する情報である、請求項1〜6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the feature information is information related to a value of a pixel in a region. 前記処理部は、前記予め設定された選択条件として、前記特徴情報が最大または最小となる領域を特徴領域として選択する、請求項4記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the processing unit selects, as the feature region, a region where the feature information is maximized or minimized as the preset selection condition. 画像データに基づく画像を表示するための処理と、
表示された画像において抽出すべき領域を含む範囲を指定するために使用者により操作される処理と、
操作により指定された範囲内で設定された抽出条件に基づいて抽出される一または複数の領域から、領域に関する特徴情報に基づいて特徴領域を選択し、選択された特徴領域を抽出領域として決定する処理と、
一の操作により選択された特徴領域を前回の操作により決定された抽出領域に加えるように動作する処理とを、
処理装置に実行させる、画像処理プログラム。
Processing for displaying an image based on image data;
A process operated by a user to specify a range including an area to be extracted in the displayed image;
A feature region is selected based on feature information about the region from one or a plurality of regions extracted based on an extraction condition set within a range specified by the operation, and the selected feature region is determined as an extraction region. Processing,
A process that operates to add the feature region selected by one operation to the extraction region determined by the previous operation;
An image processing program to be executed by a processing device.
JP2011219893A 2011-10-04 2011-10-04 Image processing apparatus and image processing program Active JP5917072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011219893A JP5917072B2 (en) 2011-10-04 2011-10-04 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011219893A JP5917072B2 (en) 2011-10-04 2011-10-04 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2013079857A true JP2013079857A (en) 2013-05-02
JP5917072B2 JP5917072B2 (en) 2016-05-11

Family

ID=48526352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011219893A Active JP5917072B2 (en) 2011-10-04 2011-10-04 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5917072B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179423A1 (en) * 2017-03-31 2018-10-04 株式会社オプティム Point group processing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63217476A (en) * 1987-03-05 1988-09-09 Ckd Corp Binarizing device for image signal
JP2007109121A (en) * 2005-10-17 2007-04-26 Keyence Corp Image processing device
JP2010019667A (en) * 2008-07-10 2010-01-28 Keyence Corp Image measuring apparatus and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63217476A (en) * 1987-03-05 1988-09-09 Ckd Corp Binarizing device for image signal
JP2007109121A (en) * 2005-10-17 2007-04-26 Keyence Corp Image processing device
JP2010019667A (en) * 2008-07-10 2010-01-28 Keyence Corp Image measuring apparatus and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179423A1 (en) * 2017-03-31 2018-10-04 株式会社オプティム Point group processing system
JPWO2018179423A1 (en) * 2017-03-31 2019-04-04 株式会社オプティム Point cloud processing system

Also Published As

Publication number Publication date
JP5917072B2 (en) 2016-05-11

Similar Documents

Publication Publication Date Title
JP5732353B2 (en) Magnification observation apparatus, magnification observation method, and magnification observation program
US9690088B2 (en) Magnifying observation apparatus, magnified image observing method and computer-readable recording medium
JP5846844B2 (en) Magnifying observation device
JP5841398B2 (en) Magnifying observation device
US9970745B2 (en) Measurement target measuring program, measurement target measuring method, and magnifying observation device
US9122048B2 (en) Image processing apparatus and image processing program
JP6834843B2 (en) Image processing system, setting support device and setting support program
JP6009288B2 (en) Measurement microscope apparatus, measurement microscope apparatus operation program, and computer-readable recording medium
JP2019148438A (en) Image processing system and setting method
US20130135490A1 (en) Image Processing Apparatus And Focus Adjusting Method
US10313569B2 (en) Image measurement system and controller
US10890747B2 (en) Magnifying observation apparatus
JP5917072B2 (en) Image processing apparatus and image processing program
JP5865658B2 (en) Image processing apparatus and image processing program
JP6280458B2 (en) Three-dimensional shape measuring apparatus, measurement data processing unit, measurement data processing method, and computer program
JP5917080B2 (en) Image processing apparatus, magnification observation apparatus, and image processing program
JP2005148584A5 (en)
JP2013088268A (en) Image processing apparatus and image processing program
JP6312410B2 (en) Alignment apparatus, microscope system, alignment method, and alignment program
JP6423261B2 (en) Microscope system, function calculation method, and program
JP7181716B2 (en) Shape measuring device, shape measuring method, shape measuring program, and computer-readable recording medium
US20220269061A1 (en) Magnified observation apparatus, magnified observation method, and non-transitory computer-readable storage medium or storage device
JP6284428B2 (en) Microscope system
JP2020086294A (en) Magnification observation device
JP2018066714A (en) Image measurement device and image measurement method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160406

R150 Certificate of patent or registration of utility model

Ref document number: 5917072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250