JP2007171455A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2007171455A
JP2007171455A JP2005367722A JP2005367722A JP2007171455A JP 2007171455 A JP2007171455 A JP 2007171455A JP 2005367722 A JP2005367722 A JP 2005367722A JP 2005367722 A JP2005367722 A JP 2005367722A JP 2007171455 A JP2007171455 A JP 2007171455A
Authority
JP
Japan
Prior art keywords
center
imaging
incident light
optical axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005367722A
Other languages
Japanese (ja)
Inventor
Shinya Sakamoto
伸也 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005367722A priority Critical patent/JP2007171455A/en
Publication of JP2007171455A publication Critical patent/JP2007171455A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of detecting a deviation between the center of the optical axis of light rays made incident on an imaging element and the center of the imaging element. <P>SOLUTION: The imaging apparatus is provided with an image pickup part 2 provided with an imaging element 1 for picking up an image of observation light 18 from a microscope body 11, a PC 3 for detecting the position of the center of the imaging element 1 and the position of the optical axis center of the observation light 18 made incident on the imaging element 1, and a monitor 4 for displaying the position of the center of the imaging element 1 and the position of the optical axis center of the observation light 18 made incident on the imaging element 1. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、顕微鏡等の光学機器から入射した光学像を撮像素子により撮像する撮像装置に関する。   The present invention relates to an image pickup apparatus that picks up an optical image incident from an optical device such as a microscope with an image pickup element.

近年、顕微鏡観察にもデジタルカメラが用いられるようになり、撮像のみならず観察もモニタ上で行うことが多くなってきている。
顕微鏡観察時には、レンズや照明などの光学系に起因して、観察像周辺部の輝度が中心部に比べて暗くなる周辺光量ムラ(いわゆる「シェーディング」)が発生する。デジタルカメラによる観察時においても、同様にシェーディングが発生するため、その改善策としてシェーディング補正機能を備えたデジタルカメラもある。シェーディング補正の代表的な手法では、取得された画像上においてシェーディングが発生している箇所に対して画像処理を施すことにより、当該箇所が中央部と同等の輝度になるように画像が補正される。
In recent years, digital cameras have been used for microscopic observation, and not only imaging but also observation is often performed on a monitor.
During microscopic observation, peripheral light amount unevenness (so-called “shading”) in which the brightness of the peripheral portion of the observation image becomes darker than that of the central portion occurs due to an optical system such as a lens and illumination. Similarly, since shading occurs during observation with a digital camera, some digital cameras have a shading correction function as an improvement measure. In a typical method of shading correction, image processing is performed on a portion where shading has occurred on the acquired image, so that the image is corrected so that the portion has the same luminance as the central portion. .

例えば、特許文献1には、撮影画像に対しシェーディング補正を行う顕微鏡用デジタルカメラが開示されている。
ところで、顕微鏡とデジタルカメラの嵌合ずれ等の理由により、デジタルカメラの撮像素子へ入射する光の光軸中心と撮像素子の中心とがずれることがある。これはコンデンサの芯出しが上手くできていない場合にも発生するが、接眼レンズへ入射する光の光軸中心と撮像素子へ入射する光の光軸中心が独立であるため、接眼レンズにおいて芯出しをしたとしても、撮像素子へ入射する光の光軸中心が撮像素子の中心とずれている場合がある。このような場合には、撮像素子の中心以外の方向へ光が偏って入射することになり、モニタ上においても上下左右によってシェーディングの発生量が異なってしまう。そのため、モニタ上には極端に光量が低下する箇所が発生するほか、シェーディング補正を行う際にも、期待される輝度ムラの改善が為されない、或いは反対に、補正効果が大きすぎて周辺が明るくなりすぎる等、ユーザの意図しない結果になる場合がある。また、高輝度部が中央部とずれてしまうことから、シェーディング補正を行う際の基準値が適切でなくなり、画像処理後の画像に影響を及ぼす虞もある。
For example, Patent Document 1 discloses a digital camera for a microscope that performs shading correction on a captured image.
By the way, the optical axis center of the light incident on the image sensor of the digital camera and the center of the image sensor may be misaligned due to misfit of the microscope and the digital camera. This occurs even when the condenser is not centered well, but since the center of the optical axis of the light incident on the eyepiece and the center of the optical axis of the light incident on the image sensor are independent, the centering of the eyepiece is not performed. In some cases, the center of the optical axis of the light incident on the image sensor is shifted from the center of the image sensor. In such a case, light is incident with a bias toward a direction other than the center of the image sensor, and the amount of shading varies depending on the top, bottom, left, and right on the monitor. For this reason, there are places where the amount of light falls extremely on the monitor, and even when shading correction is performed, the expected brightness unevenness is not improved, or conversely, the correction effect is too great and the surroundings are bright. The result may be unintended by the user, such as too much. In addition, since the high-luminance portion is shifted from the center portion, the reference value for performing shading correction is not appropriate, and there is a possibility of affecting the image after image processing.

このような問題に対し、例えば特許文献2では、顕微鏡と光学機器ユニットとの間に光学系を挟み、当該光学系を移動させることにより光軸補正を行う手法が提案されている。
特開2001−281544号公報 特開2003−279858号公報
To deal with such a problem, for example, Patent Document 2 proposes a method of correcting an optical axis by sandwiching an optical system between a microscope and an optical device unit and moving the optical system.
JP 2001-281544 A JP 2003-279858 A

しかしながら、特許文献2に係る手法は、光軸の傾きを補正する手法である。そのため、光軸中心自体がずれている場合には効果を発揮しない。また、この手法では、ずれを検出する手段(ずれ量検出工具)が撮像素子と独立しているため、光軸補正処理が表示部に対して直結しておらず、上述した問題点を解決できない。   However, the method according to Patent Document 2 is a method for correcting the inclination of the optical axis. Therefore, the effect is not exhibited when the center of the optical axis itself is shifted. In this method, since the means for detecting the deviation (deviation amount detection tool) is independent of the image sensor, the optical axis correction process is not directly connected to the display unit, and the above-described problems cannot be solved. .

本発明は、上記実情に鑑み、撮像素子へ入射する光の光軸中心と撮像素子の中心とのずれを検出、或いは、そのずれを検出及び補正する撮像装置を提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide an imaging apparatus that detects a deviation between the optical axis center of light incident on an imaging element and the center of the imaging element, or detects and corrects the deviation.

上記目的を達成するため、本発明の第1の態様に係る撮像装置は、光学機器からの入射光を撮像する撮像素子と、前記撮像素子により撮像された前記入射光の画像から、前記撮像素子の中心の位置と前記撮像素子へ入射した前記入射光の光軸中心の位置とを検出する位置検出手段と、前記位置検出手段により検出された前記撮像素子の中心の位置と前記入射光の光軸中心の位置とを表示する位置表示手段と、を備えることを特徴とする。   In order to achieve the above object, an imaging device according to a first aspect of the present invention includes an imaging device that images incident light from an optical device, and an image of the incident light that is captured by the imaging device. Position detecting means for detecting the position of the center of the image sensor and the position of the optical axis center of the incident light incident on the image sensor, and the position of the center of the image sensor detected by the position detector and the light of the incident light Position display means for displaying the position of the axis center.

本発明の第2の態様に係る撮像装置は、上記第1の態様において、前記位置検出手段により検出された前記撮像素子の中心の位置と前記入射光の光軸中心の位置との間の距離を算出する距離算出手段と、前記距離算出手段により算出された距離を表示する距離表示手段と、を更に備えることを特徴とする。   The imaging apparatus according to a second aspect of the present invention is the imaging apparatus according to the first aspect, wherein the distance between the position of the center of the imaging element detected by the position detection unit and the position of the center of the optical axis of the incident light. And a distance display means for displaying the distance calculated by the distance calculation means.

本発明の第3の態様に係る撮像装置は、上記第1又は2の態様において、前記撮像素子を移動させる移動手段を更に備え、前記位置検出手段により検出された前記撮像素子の中心の位置と前記入射光の光軸中心の位置とが一致するように、前記撮像素子を前記移動手段により移動させる、ことを特徴とする。   An imaging apparatus according to a third aspect of the present invention is the imaging apparatus according to the first or second aspect, further comprising a moving unit that moves the imaging element, and a position of the center of the imaging element detected by the position detection unit. The imaging device is moved by the moving means so that the position of the optical axis center of the incident light coincides.

本発明の第4の態様に係る撮像装置は、光学機器からの入射光を撮像する撮像素子と、前記入射光を前記撮像素子で撮像した際に発生する、光軸中心からの減光度情報を予め記憶した記憶手段と、前記入射光の光軸中心の位置を検出する位置検出手段と、前記位置検出手段により検出された光軸中心位置を基準とし、前記記憶手段に記憶された減光度情報を用いて撮像画像の周辺光量ムラを均一に補正する画像処理手段と、を備えることを特徴とする。   An image pickup apparatus according to a fourth aspect of the present invention includes an image pickup device that picks up incident light from an optical device, and dimming degree information from the optical axis center that is generated when the incident light is picked up by the image pickup device. Storage means stored in advance, position detection means for detecting the position of the optical axis center of the incident light, and light intensity information stored in the storage means with reference to the optical axis center position detected by the position detection means And image processing means for uniformly correcting the peripheral light amount unevenness of the captured image.

また、本発明は上記の装置のほか、方法やプログラムとして構成することもできる。   In addition to the above-described apparatus, the present invention can be configured as a method or a program.

本発明によれば、撮像素子の中心と撮像素子へ入射する光の光軸中心とのずれ、及び、そのずれ量を容易に確認することができる。また、そのずれを自動で補正することもできるので、操作の利便性を格段に向上させることができる。また、そのずれが存在するままの状態で撮像された画像であっても、その画像の周辺光量ムラを適正に補正することもできる。   According to the present invention, the shift between the center of the image sensor and the center of the optical axis of the light incident on the image sensor and the amount of the shift can be easily confirmed. In addition, since the deviation can be automatically corrected, the convenience of operation can be greatly improved. Further, even if the image is captured in a state where the deviation exists, the peripheral light amount unevenness of the image can be corrected appropriately.

以下、図面を参照しながら本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本発明の実施例1に係る撮像装置について説明する。
図1乃至図6は、本実施例に係る撮像装置の説明に用いる図であり、図1は本実施例に係る撮像装置を含む顕微鏡システムの全体構成を示す図、図2は光軸ずれの説明図、図3は本実施例に係るGUI(Graphical User Interface)の一例を示す図、図4は本実施例に係る動作を示すフローチャート、図5は光軸中心位置を導出する際の説明図、図6は標本画像から白サンプル点を抽出する際の説明図である。
First, an image pickup apparatus according to Embodiment 1 of the present invention will be described.
1 to 6 are diagrams used for explaining the image pickup apparatus according to the present embodiment. FIG. 1 is a diagram illustrating an entire configuration of a microscope system including the image pickup apparatus according to the present embodiment. FIG. FIG. 3 is a diagram illustrating an example of a GUI (Graphical User Interface) according to the present embodiment, FIG. 4 is a flowchart illustrating an operation according to the present embodiment, and FIG. 5 is an explanatory diagram for deriving the optical axis center position. FIG. 6 is an explanatory diagram when white sample points are extracted from the specimen image.

始めに図1及び図2を用いて、本実施例に係る撮像装置を含む顕微鏡システムの全体構成及び光軸ずれの原理について説明する。
図1において、本実施例に係る撮像装置は、撮像素子1を備えた撮像部2、PC3、及びモニタ4を備えて構成されている。PC3は、撮像部2の駆動や、撮像された画像に対する画像処理や、モニタ4への画像表示等といった、各種の制御処理を行う。
First, the overall configuration of the microscope system including the imaging apparatus according to the present embodiment and the principle of optical axis deviation will be described with reference to FIGS. 1 and 2.
In FIG. 1, the imaging apparatus according to the present embodiment includes an imaging unit 2 including an imaging element 1, a PC 3, and a monitor 4. The PC 3 performs various control processes such as driving of the imaging unit 2, image processing on the captured image, and image display on the monitor 4.

尚、PC3は、不図示のCPU、制御プログラムが記憶されたROM、及びCPUの作業領域として使用されるRAM等を内部に備え、PC3が行う各種の制御処理は、当該CPUが当該ROMに記憶されている制御プログラムを読出し実行することによって行われる。また、PC3には、例えばキーボードやマウス等の不図示の入力手段が接続されており、観察者はこれを用いて各種の入力を行うことが可能になっている。   The PC 3 includes a CPU (not shown), a ROM in which a control program is stored, a RAM used as a work area for the CPU, and the like. Various control processes performed by the PC 3 are stored in the ROM by the CPU. This is done by reading and executing the control program being executed. Further, input means (not shown) such as a keyboard and a mouse are connected to the PC 3, and the observer can perform various inputs using this.

撮像部2は、嵌合部5を介してテレビアダプタ6と接続されている。テレビアダプタ6は、嵌合部7を介して、接眼レンズ8が設置されている鏡筒9と接続されている。鏡筒9は、嵌合部10を介して顕微鏡本体11と接続されている。   The imaging unit 2 is connected to the television adapter 6 via the fitting unit 5. The television adapter 6 is connected to a lens barrel 9 in which an eyepiece 8 is installed through a fitting portion 7. The lens barrel 9 is connected to the microscope main body 11 via the fitting portion 10.

顕微鏡本体11には、レボルバ12、対物レンズ13、ステージ14、コンデンサレンズ15、及びランプハウス16等が取り付けられており、ステージ14上には標本17が載置されている。   A revolver 12, an objective lens 13, a stage 14, a condenser lens 15, a lamp house 16, and the like are attached to the microscope body 11, and a specimen 17 is placed on the stage 14.

このような構成により、観察光18は、ランプハウス16から発せられ各光学部位を通過後に撮像素子2に入射するようになっている。
ここで、嵌合部5、7、10の嵌合は、ロックねじやねじ込みなどの機械的手法により行われるため、締結部には必然的に微小な空間(遊び)が生じる(レボルバ等の嵌合の場合も同様である)。そのため、接眼レンズ8から観察光18の光軸中心が中央に見える場合であっても、各部位の締結具合によっては撮像素子1へ入射する観察光18の光軸中心と撮像素子1の中心との間で微小なずれが生じてしまうことがある。その様子を図2に示す。
With such a configuration, the observation light 18 is emitted from the lamp house 16 and enters the image sensor 2 after passing through each optical part.
Here, since the fitting parts 5, 7, and 10 are fitted by a mechanical method such as a lock screw or screwing, a small space (play) is inevitably generated in the fastening part (fitting of a revolver or the like). It is the same for the case of the match.) Therefore, even when the center of the optical axis of the observation light 18 from the eyepiece 8 appears in the center, the center of the optical axis of the observation light 18 incident on the image sensor 1 and the center of the image sensor 1 depending on the fastening condition of each part. There may be a slight deviation between the two. This is shown in FIG.

図2において、点Oは、撮像素子1の中心を示し、点Pは、撮像素子1へ入射した観察光18の光軸中心を示す。このように、それぞれの中心がずれてしまうことから、結果的にシェーディングに偏りが生じてしまうことになる。尚、同図では、撮像素子1へ入射した観察光18を円形領域として示しているが、これは、撮像素子1へ入射した観察光18における所定輝度値以上の領域を示したものである。   In FIG. 2, the point O indicates the center of the image sensor 1, and the point P indicates the optical axis center of the observation light 18 incident on the image sensor 1. As described above, since the respective centers are shifted, as a result, the shading is biased. In the figure, the observation light 18 incident on the image sensor 1 is shown as a circular area, but this indicates an area of the observation light 18 incident on the image sensor 1 having a predetermined luminance value or more.

次に、図3を用いて、操作部としてモニタ4に表示される本実施例に係るGUIの一例を説明する。尚、このGUIは、PC3の制御処理によりモニタ4に表示されるものである。   Next, an example of a GUI according to the present embodiment displayed on the monitor 4 as an operation unit will be described with reference to FIG. This GUI is displayed on the monitor 4 by the control process of the PC 3.

同図に示したGUIにおいて、ライブ画表示部21は、リアルタイムにカメラ観察画像(撮像部2の撮像素子1により撮像された画像)を表示する領域であって、撮像素子1の撮像領域にも対応している。また、このライブ画表示部21は、撮像素子1の中心(点O)を示す印22、撮像素子1へ入射する観察光18の光軸中心(点P)を示す印23、及び、その中心間の距離(以下、点OP間の距離という)24も併せて表示することが可能になっている。但し、点OP間の距離24の表示では、点OP間の距離がX成分及びY成分の距離として表示されるようになっている。   In the GUI shown in the figure, the live image display unit 21 is an area for displaying a camera observation image (an image taken by the image pickup device 1 of the image pickup unit 2) in real time. It corresponds. The live image display unit 21 includes a mark 22 indicating the center (point O) of the image sensor 1, a mark 23 indicating the optical axis center (point P) of the observation light 18 incident on the image sensor 1, and the center thereof. The distance between them (hereinafter referred to as the distance between the points OP) 24 can also be displayed. However, in the display of the distance 24 between the points OP, the distance between the points OP is displayed as the distance between the X component and the Y component.

Gap Indicator部のラジオボタン25は、OP間の距離24の表示の有無を切り替え可能にするものである。Gap Indicatorではカメラの撮像素子上におけるOP間の画素単位ずれ量(camera-pixel)、または、距離ずれ量(camera-μm)、または、標本像面上における距離(specimen-μm)での表示を可能となっており、それぞれチェックボックスで選択可能となっている。ただし、画素サイズ入力部27に入力がない場合は、camera-μm、specimen-μmのチェックボックスはグレーアウトされ、選択できないようになる。さらに、倍率情報入力部26への入力がない場合にもspecimen-μmのチェックボックスはグレーアウトされる。   The radio button 25 in the Gap Indicator section can switch the display of the distance 24 between OPs. Gap Indicator displays the pixel unit deviation (OP) on the image sensor of the camera (camera-pixel), distance deviation (camera-μm), or distance (specimen-μm) on the specimen image plane. Each can be selected with a check box. However, when there is no input to the pixel size input unit 27, the camera-μm and specimen-μm check boxes are grayed out and cannot be selected. Further, even when there is no input to the magnification information input unit 26, the specification-μm check box is grayed out.

倍率入力部26は、光学系の倍率を入力可能にするものであり、対物レンズ(Object lens)13とテレビアダプタ(TV Adaptor)6の倍率を入力することが可能になっている。画素サイズ入力部27は、撮像素子(例えばCCD)の画素サイズ(Pixel size)を入力可能にするものである。尚、点OP間の距離を求めないのであれば、倍率入力部26及び画素サイズ入力部27への入力は不要である。   The magnification input unit 26 enables input of the magnification of the optical system, and can input the magnifications of the objective lens 13 and the TV adapter 6. The pixel size input unit 27 enables input of a pixel size of an image sensor (for example, CCD). If the distance between the points OP is not obtained, input to the magnification input unit 26 and the pixel size input unit 27 is not necessary.

調整パラメータ入力部28は、詳しくは後述する調整パラメータ(Threshold)の入力を可能にするものであり、予め、初期値として一定値が入力されている。
実行(Calculate)ボタン29は、点Pの位置の検出や点OP間の距離の計算を開始させるためのボタンである。
The adjustment parameter input unit 28 enables input of an adjustment parameter (Threshold), which will be described in detail later, and a predetermined value is input in advance as an initial value.
The execute button 29 is a button for starting the detection of the position of the point P and the calculation of the distance between the points OP.

尚、図3においては、説明の便宜上、点OP間の距離24と倍率入力部26をそれぞれ点線で囲って示したが、実際のGUI上には、これらの点線が表示されないことは言うまでもない。   In FIG. 3, for convenience of explanation, the distance 24 between the points OP and the magnification input unit 26 are surrounded by dotted lines, but it goes without saying that these dotted lines are not displayed on the actual GUI.

次に、図4に示すフローチャートと図5を用いて、点Pの位置の検出及び点OP間の距離を求める、本実施例に係る動作について説明する。
尚、本動作は、PC3において当該CPUが当該ROMに記憶されている制御プログラムを読み出し実行することによって行われるものである。
Next, the operation according to the present embodiment for detecting the position of the point P and obtaining the distance between the points OP will be described with reference to the flowchart shown in FIG. 4 and FIG.
This operation is performed when the CPU reads and executes the control program stored in the ROM in the PC 3.

また、本動作開始前には、一旦、ステージ14上に載置された標本3に対し合焦動作を行って顕微鏡本体11の光学系を合焦状態にし、その状態を維持したままでステージ14から標本3を取り外しておくものとする。また、モニタ4に表示されているGUI(図3参照)には、倍率入力部26及び画素サイズ入力部27への入力と、必要に応じて調整パラメータ入力部28への入力又は及びラジオボタン25へのチェックとが、予め観察者により行われているものとする。そして、これらが為された上で、モニタ4に表示されているGUI上の実行ボタン29が観察者により押下されると本動作が開始する。   Prior to the start of this operation, a focusing operation is once performed on the specimen 3 placed on the stage 14 to bring the optical system of the microscope body 11 into a focused state, and the stage 14 is maintained while maintaining this state. It is assumed that the specimen 3 is removed from. Further, the GUI (see FIG. 3) displayed on the monitor 4 includes an input to the magnification input unit 26 and the pixel size input unit 27, and an input to the adjustment parameter input unit 28 or radio buttons 25 as necessary. It is assumed that the check is performed in advance by an observer. Then, after these operations are performed, this operation starts when the execution button 29 on the GUI displayed on the monitor 4 is pressed by the observer.

図4に示したように、本動作が開始すると、まず、上記の顕微鏡本体11の状態のままで画像を撮像する(S1)。すなわち、無標本状態の画像を撮像する。
続いて、S1で撮像して得た画像から輝度平均値Yaveを算出し、これに、GUI上の調整パラメータ入力部28に入力されている調整パラメータ(一定係数αとする)を掛けて中心検出閾値TH(=αYave)を算出する(S2)。
As shown in FIG. 4, when this operation is started, first, an image is picked up with the state of the microscope main body 11 kept (S1). That is, an unsampled image is captured.
Subsequently, the luminance average value Y ave is calculated from the image obtained by imaging in S1, and this is multiplied by the adjustment parameter (determined by a constant coefficient α) input to the adjustment parameter input unit 28 on the GUI. A detection threshold TH (= αY ave ) is calculated (S2).

続いて、S1で得られた画像から、S2で算出された中心検出閾値TH以上の輝度値を有する画素の領域を抽出する(S3)。尚、このときに抽出される領域は円形の領域となる。例えば、図5に示したように、S1で得られた画像を画像31とすると、その画像31から円形の領域32が抽出される。   Subsequently, a pixel region having a luminance value equal to or higher than the center detection threshold TH calculated in S2 is extracted from the image obtained in S1 (S3). The area extracted at this time is a circular area. For example, as illustrated in FIG. 5, when the image obtained in S <b> 1 is an image 31, a circular region 32 is extracted from the image 31.

尚、中心検出閾値THの値が小さい場合や画像の各画素の輝度値が全体的に大きい場合等には、S1で得られた画像上において、中心検出閾値TH以上の輝度値を有する画素の領域が広くなり、S1で得られた画像から円形の領域を抽出することができない場合がある。この場合には、調整パラメータ入力部28に入力されている調整パラメータの値を、より大きな値にした上で処理をS2へ戻す必要がある。このような処理は、自動により行うようにしてもよいし、手動により行うようにしてもよい。   In addition, when the value of the center detection threshold TH is small, or when the luminance value of each pixel of the image is large as a whole, on the image obtained in S1, a pixel having a luminance value equal to or higher than the center detection threshold TH is displayed. In some cases, the area becomes wider and a circular area cannot be extracted from the image obtained in S1. In this case, it is necessary to return the process to S2 after setting the value of the adjustment parameter input to the adjustment parameter input unit 28 to a larger value. Such processing may be performed automatically or manually.

続いて、S3で抽出された領域から、上下左右のピークの4点(x座標値が最大となる点及び最小となる点とy座標値が最大となる点及び最小となる点からなる4点)を抽出(検出)する(S4)。尚、ここで言うx座標値及びy座標値に係るxy座標系は、図5に示したxy座標系33のとおりであり、これらの4点を、同図に示したように、R点、L点、U点、D点の4点とする。   Subsequently, from the region extracted in S3, the four points of the top, bottom, left, and right peaks (four points consisting of a point where the x coordinate value is maximum and minimum, a point where the y coordinate value is maximum and a point where the y coordinate value is maximum) ) Is extracted (detected) (S4). Note that the xy coordinate system relating to the x coordinate value and the y coordinate value referred to here is the xy coordinate system 33 shown in FIG. 5, and these four points are represented by the R point, Let it be 4 points of L point, U point, and D point.

続いて、S4で抽出された4点の座標、すなわち、図5に示したように、R点の座標(Xr,Yr)、L点の座標(Xl,Yl)、U点の座標(Xu,Yu)、D点の座標(Xd,Yd)を、画素単位で取得し、そして、それら4点の座標から観察光18の光軸中心(点P)の座標を求める(S5)。尚、この点Pの座標は、次の通りとなる。   Subsequently, as shown in FIG. 5, the coordinates of the four points extracted in S4, that is, the coordinates of the R point (Xr, Yr), the coordinates of the L point (Xl, Yl), and the coordinates of the U point (Xu, Yu), the coordinates (Xd, Yd) of the point D are acquired in units of pixels, and the coordinates of the optical axis center (point P) of the observation light 18 are obtained from the coordinates of these four points (S5). The coordinates of this point P are as follows.

Figure 2007171455
また、S5では、S1で撮像された画像から、撮像素子1の中心(点O)の座標も求める。例えば、S1で撮像された画像の中心を撮像素子1の中心として、その位置を求める。
Figure 2007171455
In S5, the coordinates of the center (point O) of the image sensor 1 are also obtained from the image captured in S1. For example, the position of the center of the image picked up in S <b> 1 is determined as the center of the image sensor 1.

続いて、ラジオボタン25のON/OFFチェックを判定する(S6)。ONにチェックが入っている場合は、倍率入力部26・画素サイズ入力部27で設定された各値と点O・点Pの座標から、ずれ量の距離を計算する(S7)。点Oの座標をO(xo,yo)、対物レンズの倍率をMOB、TVアダプタの倍率をMTV、撮像素子の画素サイズをLとすると、x座標方向の距離について下記のようになる。y座標方向についても、同様の計算で算出できる。 Subsequently, an ON / OFF check of the radio button 25 is determined (S6). When ON is checked, the distance of the shift amount is calculated from the values set in the magnification input unit 26 / pixel size input unit 27 and the coordinates of the points O and P (S7). Assuming that the coordinates of the point O are O (x o , y o ), the magnification of the objective lens is M OB , the magnification of the TV adapter is M TV , and the pixel size of the image sensor is L, the distance in the x coordinate direction is as follows: Become. The y coordinate direction can also be calculated by the same calculation.

Figure 2007171455
Figure 2007171455

Figure 2007171455
Figure 2007171455

Figure 2007171455
ラジオボタンにOFFにチェックが入っている場合は、S7の処理を行わずに次の処理へ進む。
Figure 2007171455
If the radio button is checked off, the process proceeds to the next process without performing the process of S7.

S7の後、或いは、S6がNoの後は、GUI上のライブ画表示部21に、観察光18の光軸中心を示す点Pの印23と、撮像素子1の中心を示す点Oの印22を表示し、更にラジオボタン25にチェックが有った場合には、S7で求めた点OP間の距離を、点OP間の距離24として表示する(S8)。   After S7 or after S6 is No, the live image display unit 21 on the GUI is marked with a mark 23 indicating the center of the optical axis of the observation light 18 and a mark O indicating the center of the image sensor 1. When the radio button 25 is checked, the distance between the points OP obtained in S7 is displayed as the distance 24 between the points OP (S8).

このような動作により、撮像素子1の中心と、撮像素子1へ入射する観察光18の光軸中心と、その中心間のずれ量とを、モニタ4に表示することができる。
以上、本実施例に係る撮像装置によれば、観察者は、簡単な操作により、撮像素子1の中心と、撮像素子1に入射する観察光18の光軸中心と、その中心間のずれ量を、明確に確認することができる。そのため、そのずれの存在に気付かずにモニタ観察や撮像が行われてしまうのを防止するほか、そのずれを観察者が確認した場合には、そのずれを手動により調整するためのサポート機能として用いることもできる。
With such an operation, the center of the image sensor 1, the optical axis center of the observation light 18 incident on the image sensor 1, and the shift amount between the centers can be displayed on the monitor 4.
As described above, according to the imaging apparatus according to the present embodiment, the observer can easily shift the center of the imaging device 1, the optical axis center of the observation light 18 incident on the imaging device 1, and the deviation amount between the centers by a simple operation. Can be clearly confirmed. Therefore, in addition to preventing monitor observation and imaging without being aware of the presence of the deviation, when the observer confirms the deviation, it is used as a support function for manually adjusting the deviation. You can also.

尚、本実施例に係る撮像装置においては、以下のような各種の変形例が考えられる。
例えば、本実施例に係る撮像装置では、観察光18の光軸中心(点P)の座標を中心検出閾値THを用いて求めるようにしたが、他の手法により求めるようにしてもよい。他の手法としては、S1で得られた画像上から所定の数点を取り出し、その輝度値をプロットして、輝度値の分布を2次曲面で近似する手法があげられる。これにより、導出された2次曲面の形状を分析することにより、光軸中心(点P)を求めることが可能となる。
In the imaging apparatus according to the present embodiment, the following various modifications can be considered.
For example, in the imaging apparatus according to the present embodiment, the coordinates of the optical axis center (point P) of the observation light 18 are obtained using the center detection threshold TH, but may be obtained by other methods. As another method, a method of taking a predetermined number of points from the image obtained in S1, plotting the luminance values, and approximating the distribution of luminance values with a quadratic surface can be mentioned. As a result, the center of the optical axis (point P) can be obtained by analyzing the shape of the derived quadric surface.

また、本実施例に係る撮像装置では、無標本状態の画像に基づいて処理を行う手法を説明したが、図6に示すように、標本17が存在する状態においても、背景が白色となる無標本の位置から抽出されたサンプル点(例えば同図のT1、T2、T3、Tn等)に基づいて処理を行う手法を適用することも可能である。この手法では、予め標本17を撮像して得た画像から彩度値を導出しておき、彩度=0となる箇所であって処理に必要な点をサンプル点として抽出し、そのサンプル点から2次曲面を求めることによって、観察光18の光軸中心(点P)を求めることが可能となる。   In the imaging apparatus according to the present embodiment, the method of performing processing based on the image of the non-sample state has been described. However, as illustrated in FIG. 6, even when the sample 17 is present, the background is white. It is also possible to apply a method for performing processing based on sample points (for example, T1, T2, T3, Tn, etc. in the figure) extracted from the position of the specimen. In this method, a saturation value is derived from an image obtained by capturing an image of the sample 17 in advance, and a point where saturation = 0 and a point necessary for processing is extracted as a sample point. By obtaining a quadric surface, it is possible to obtain the center of the optical axis (point P) of the observation light 18.

また、本実施例に係る撮像装置において、倍率入力部26に入力された倍率に応じて、調整パラメータ入力部28に入力される調整パラメータ(一定係数α)を自動的に変更するようにしてもよい。この場合には、入力された対物レンズ13の倍率に応じて調整パラメータを自動的に変更させるようにすること等も可能となる。   In the imaging apparatus according to the present embodiment, the adjustment parameter (constant coefficient α) input to the adjustment parameter input unit 28 may be automatically changed according to the magnification input to the magnification input unit 26. Good. In this case, it is possible to automatically change the adjustment parameter according to the input magnification of the objective lens 13.

また、本実施例に係る撮像装置では、当該撮像装置に対する操作を、PC3やモニタ4に表示されたGUIを介して受け付けていたが、これらの操作をコントロールボックスなど他の操作部を介して受け付けるようにしてもよい。   In the imaging apparatus according to the present embodiment, operations for the imaging apparatus are received via the GUI displayed on the PC 3 or the monitor 4, but these operations are received via another operation unit such as a control box. You may do it.

本発明の実施例2に係る撮像装置は、実施例1で説明した点OP間の距離を求めた後、更に、点OP間のずれを自動補正するようにした構成である。
図7及び図8は、本実施例に係る撮像装置の説明に用いる図であり、図7は本実施例に係る撮像装置を含む顕微鏡システムの一部構成を示す図、図8は本実施例に係る動作を示すフローチャートである。尚、本実施例の説明では、実施例1と同様の構成については説明を省略する。
The image pickup apparatus according to the second embodiment of the present invention has a configuration in which, after obtaining the distance between the points OP described in the first embodiment, the deviation between the points OP is further automatically corrected.
7 and 8 are diagrams used to describe the imaging apparatus according to the present embodiment. FIG. 7 is a diagram illustrating a partial configuration of a microscope system including the imaging apparatus according to the present embodiment. FIG. 8 illustrates the present embodiment. It is a flowchart which shows the operation | movement which concerns on. In the description of the present embodiment, the description of the same configuration as that of the first embodiment is omitted.

始めに図7を用いて、本実施例に係る撮像装置を説明する。
同図に示したように、撮像部2において、撮像素子1は、撮像素子調整ステージ36に設置されており、その撮像素子1が設置されている撮像素子調整ステージ36は、X方向駆動モータ37及びY方向駆動モータ38の駆動により、X方向及びY方向に移動可能に構成されている。尚、これら駆動モータ37、38の駆動制御は、PC3が行う。
First, the imaging apparatus according to the present embodiment will be described with reference to FIG.
As shown in the figure, in the image pickup unit 2, the image pickup device 1 is installed on the image pickup device adjustment stage 36, and the image pickup device adjustment stage 36 on which the image pickup device 1 is installed has an X-direction drive motor 37. And it is comprised so that it can move to a X direction and a Y direction by the drive of the Y direction drive motor 38. FIG. The drive control of these drive motors 37 and 38 is performed by the PC 3.

次に、図8に示すフローチャートに沿って、点OP間のずれを補正する、本実施例に係る動作について説明する。
尚、本動作も、PC3によって行われるものである。
Next, the operation according to the present embodiment for correcting the shift between the points OP will be described with reference to the flowchart shown in FIG.
This operation is also performed by the PC 3.

また、本動作開始前においても、撮像素子の画素サイズ入力部27に画素サイズ入力が行われているものとする。そして、その上で、モニタ4に表示されているGUI上の実行ボタン29が観察者により押下されると本動作が開始する。   Further, it is assumed that the pixel size is input to the pixel size input unit 27 of the image sensor even before the start of this operation. Then, when the execution button 29 on the GUI displayed on the monitor 4 is pressed by the observer, this operation is started.

図8に示したように、本動作が開始すると、まず、S11では、図4に示したS1乃至S7と同様の処理を行う。但し、本実施例では、ラジオボタン25のチェックの有無にかかわらずS6がYesになるものとする。すなわち、S11では、点P及び点Oの位置を検出して点OP間の距離(x成分及びy成分の距離)を求める。   As shown in FIG. 8, when this operation starts, first, in S11, processing similar to S1 to S7 shown in FIG. 4 is performed. However, in this embodiment, S6 is Yes regardless of whether or not the radio button 25 is checked. That is, in S11, the positions of the point P and the point O are detected and the distance between the points OP (the distance between the x component and the y component) is obtained.

続いて、S11で求めた点OP間の距離から点OP間のずれ補正量を求め、当該ずれ補正量に応じたx成分及びy成分の駆動信号を、それぞれX方向駆動モータ37及びY方向駆動モータ38へ出力して(S12)、点OP間のずれ補正を完了する。   Subsequently, a deviation correction amount between the points OP is obtained from the distance between the points OP obtained in S11, and drive signals of the x component and the y component corresponding to the deviation correction amount are respectively driven by the X direction drive motor 37 and the Y direction drive. Output to the motor 38 (S12), and the correction of the deviation between the points OP is completed.

このような動作により、撮像素子1が設置されている撮像素子調整ステージ36が移動し、点OP間のずれが補正される。
以上、本実施例に係る撮像装置によれば、観察者が煩雑な操作を行うことなく、撮像素子1の中心(点O)と撮像素子1へ入射する観察光18の光軸中心(点P)のずれを、自動補正することができる。そのため、そのずれを調整するための細かい調整操作を観察者が行う必要はなく、操作の利便性を格段に向上させることができる。また、シェーディングの偏りを解消することもできるので、観察像の最適化を実現することもできる。
By such an operation, the image sensor adjustment stage 36 on which the image sensor 1 is installed moves, and the shift between the points OP is corrected.
As described above, according to the imaging apparatus according to the present embodiment, the center (point O) of the imaging element 1 and the optical axis center (point P) of the observation light 18 incident on the imaging element 1 can be performed without complicated operations by the observer. ) Can be automatically corrected. Therefore, it is not necessary for the observer to perform a fine adjustment operation for adjusting the deviation, and the convenience of the operation can be greatly improved. Further, since the shading bias can be eliminated, the observation image can be optimized.

尚、本実施例に係る撮像装置においては、以下のような各種の変形例が考えられる。
例えば、本実施例に係る撮像装置では、撮像素子1が設置された撮像素子調整ステージ36の移動をモータ駆動により行っているが、ピエゾ素子駆動など他の手段により行うようにしてもよい。特に、ピエゾ素子駆動等による画素ずらし機能を既に有している撮像装置に対しては、装置の大幅な改良を要することなく当該補正機能を実装することができる利点がある。
In the imaging apparatus according to the present embodiment, the following various modifications can be considered.
For example, in the image pickup apparatus according to the present embodiment, the image pickup device adjustment stage 36 on which the image pickup device 1 is installed is moved by motor drive, but may be moved by other means such as piezo device drive. In particular, for an imaging apparatus that already has a pixel shifting function by driving a piezo element or the like, there is an advantage that the correction function can be implemented without requiring significant improvement of the apparatus.

また、本実施例に係る撮像装置において、点OP間のずれを自動補正する際の補正可能な距離を制限するようにしてもよい。すなわち、撮像素子1へ入射した観察光18の光軸中心が撮像素子1の中心から一定距離以上離れていた場合には、その旨をモニタ4に表示するなど観察者にその旨を通知して自動補正を行わず、それが一定距離以内にある場合には自動補正を行うようにする。尚、この場合、自動補正を行わないときに、更に、観察者に手動操作による補正を促すようにすることもできる。このような手法を用いれば、撮像素子1の移動可能範囲が狭い撮像装置であっても上記の自動補正を適用可能となる。   In the imaging apparatus according to the present embodiment, the correctable distance may be limited when automatically correcting the deviation between the points OP. That is, when the center of the optical axis of the observation light 18 incident on the image pickup device 1 is more than a certain distance from the center of the image pickup device 1, the fact is displayed on the monitor 4 to notify the observer. Automatic correction is not performed, and if it is within a certain distance, automatic correction is performed. In this case, when automatic correction is not performed, the observer can be further prompted to perform correction by manual operation. If such a method is used, the above-described automatic correction can be applied even to an imaging apparatus in which the movable range of the imaging element 1 is narrow.

また、本実施例に係る撮像装置において、撮像素子1へ入射する観察光18の光軸中心の位置を対物レンズ13の倍率毎に記憶するようにすることもできる。この場合は、対物レンズ13を変更した際に、変更後の対物レンズ13に対応する光軸中心の位置を読み出し、これに基づいて自動で点OP間のずれを補正するように撮像素子1を移動させることができるので、利便性を向上させることができる。   Further, in the imaging apparatus according to the present embodiment, the position of the optical axis center of the observation light 18 incident on the imaging device 1 can be stored for each magnification of the objective lens 13. In this case, when the objective lens 13 is changed, the position of the optical axis center corresponding to the changed objective lens 13 is read out, and the image pickup device 1 is automatically corrected based on this position so as to automatically correct the deviation between the points OP. Since it can be moved, the convenience can be improved.

また、本実施例に係る撮像装置では、撮像素子1が設置された撮像素子調整ステージ36の移動により自動補正する手法を説明したが、本実施例に係る撮像装置を含むシステムにおいて、顕微鏡本体1のコンデンサレンズ15を電動駆動により移動させることにより、撮像素子1へ入射する観察光18の光軸中心を撮像素子1の中心へ合わせるようにして自動補正を行うようにしてもよい。   In the imaging apparatus according to the present embodiment, the method of automatically correcting by moving the imaging element adjustment stage 36 on which the imaging element 1 is installed has been described. However, in the system including the imaging apparatus according to the present embodiment, the microscope body 1 The condenser lens 15 may be moved by electric drive so that the optical axis center of the observation light 18 incident on the image sensor 1 is aligned with the center of the image sensor 1 for automatic correction.

次に、本発明における第3の実施例について説明する。図9は本実施例の説明に用いるフローチャート、図10は本実施例の説明に用いるGUIの図、図11は本実施例に用いるテーブル図である。   Next, a third embodiment of the present invention will be described. FIG. 9 is a flowchart used to describe the present embodiment, FIG. 10 is a GUI diagram used to describe the present embodiment, and FIG. 11 is a table diagram used in the present embodiment.

本実施例において、PC3では撮像素子1で画像を取得した際に発生する、光軸中心からの周辺光量低下補正情報(以下、シェーディング補正情報)を予め記憶しているものとする。保持しているシェーディング補正情報は、図11に示す表の通り、各対物レンズ13・TVアダプタ6を組み合わせて使用した際に発生する各位置でのシェーディング補正情報ShOB,TV(x,y)の他、それらの光学組み合わせ情報が不明な際に引用する代表的なシェーディング補正情報Sh-,-(x,y)を保持しているものとする。 In the present embodiment, it is assumed that the PC 3 stores in advance peripheral light amount decrease correction information (hereinafter referred to as shading correction information) that is generated when an image is acquired by the image sensor 1. As shown in the table of FIG. 11, the held shading correction information is the shading correction information Sh OB, TV (x, y) at each position generated when the objective lens 13 and the TV adapter 6 are used in combination. In addition, it is assumed that typical shading correction information Sh -,- (x, y) cited when the optical combination information is unknown is held.

また、図10のGUIにおいて、101は21と同様ライブ画表示部、102はシェーディング補正の実行の有無を選択するラジオボタン、103は26と同じ倍率入力部である。また、104は撮像ボタンであり、押下することで画像を取得、PC3内に保存する。   In the GUI of FIG. 10, 101 is a live image display unit similar to 21, 102 is a radio button for selecting whether to perform shading correction, and 103 is the same magnification input unit as 26. Reference numeral 104 denotes an image pickup button, which is pressed to acquire an image and save it in the PC 3.

次に、図9に示すフローチャートに沿って、本実施例による画像処理手法について説明する。
観察者が、図3に示すGUI上のcalculateボタン29を押下すると、本動作が開始する。図4に示すS5までは、第1実施例と同様である。このとき、光軸中心位置をPC3内に保持する(S22)。
Next, the image processing method according to this embodiment will be described with reference to the flowchart shown in FIG.
This operation starts when the observer presses the calculate button 29 on the GUI shown in FIG. Steps up to S5 shown in FIG. 4 are the same as in the first embodiment. At this time, the optical axis center position is held in the PC 3 (S22).

その後、観察者はステージ14に標本17を載せ(S23)、図10のGUIにて104を押下し、通常の画像取得操作を行う(S24)。このとき、標本画像を取得(S24)後、ラジオボタン102のチェックを判定する(S25)。ONであった場合、PC3によって画像補正が行われる(S26)。   Thereafter, the observer places the specimen 17 on the stage 14 (S23), presses 104 on the GUI of FIG. 10, and performs a normal image acquisition operation (S24). At this time, after obtaining the sample image (S24), the radio button 102 is checked (S25). If ON, image correction is performed by the PC 3 (S26).

このときの画像補正処理について説明する。
はじめに、倍率入力部103に設定された入力値を参照し、PC3からその組み合わせに相当するシェーディング補正情報ShOB,TV(x,y)を取得する。次に、点Pの位置を基準とするために、シェーディング補正式に対し点Pと点Oの距離分だけ参照値をずらす。これにより、中心座標をずらしてシェーディング補正をかけることができるようになる。
The image correction process at this time will be described.
First, the input value set in the magnification input unit 103 is referred to, and shading correction information Sh OB, TV (x, y) corresponding to the combination is acquired from the PC 3. Next, in order to use the position of the point P as a reference, the reference value is shifted by the distance between the point P and the point O with respect to the shading correction formula. Thereby, shading correction can be applied by shifting the center coordinates.

Figure 2007171455
このシェーディング補正式をS24で取得した画像に適用し、画像を補正する(S26)。その後、画像をPC3に保存する(S27)。
Figure 2007171455
This shading correction formula is applied to the image acquired in S24 to correct the image (S26). Thereafter, the image is stored in the PC 3 (S27).

S25にてラジオボタン25がOFFであった場合、S24で取得した画像をそのままPC3内に保存する(S27)。
以上の手法により、画像の周辺光量ムラを補正することができる。
If the radio button 25 is OFF in S25, the image acquired in S24 is stored in the PC 3 as it is (S27).
By the above method, the peripheral light amount unevenness of the image can be corrected.

以上、本実施例に係る撮像装置によれば、撮像素子1の中心と撮像素子1へ入射する観察光の光軸中心がずれたままであっても、標本画像の周辺光量ムラ(シェーディング)を適切に補正することができる。尚、周辺光量ムラを補正する際の基準を画像中心(撮像素子1の中心)とした場合、撮像素子1へ入射する観察光の光軸中心が撮像素子1の中心からずれると、光量が最大となる箇所を基準にすることができないが、本実施例に係る手法によれば、撮像素子1へ入射する観察光の光軸中心を基準と定めることができるため、最適な画像補正を行うことができる。   As described above, according to the imaging apparatus according to the present embodiment, even if the center of the imaging device 1 and the optical axis center of the observation light incident on the imaging device 1 remain deviated, the peripheral light amount unevenness (shading) of the sample image is appropriately adjusted. Can be corrected. If the reference for correcting the unevenness in the peripheral light amount is the center of the image (the center of the image sensor 1), the maximum light amount is obtained when the optical axis center of the observation light incident on the image sensor 1 deviates from the center of the image sensor 1. However, according to the method according to the present embodiment, since the center of the optical axis of the observation light incident on the image sensor 1 can be determined as a reference, optimal image correction is performed. Can do.

以上、本発明について詳細に説明したが、本発明は上記実施例に限定されず、本発明の要旨を逸脱しない範囲において、各種の改良及び変更を行っても良いのはもちろんである。   The present invention has been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and changes may be made without departing from the scope of the present invention.

例えば、上述した各実施例に係る撮像装置の構成又は及び動作に、他の実施例に係る撮像装置の構成又は及び動作を組み合わせて構成することも可能である。   For example, the configuration or operation of the imaging apparatus according to each of the above embodiments may be combined with the configuration or operation of the imaging apparatus according to another embodiment.

実施例1に係る撮像装置を含む顕微鏡システムの全体構成を示す図である。1 is a diagram illustrating an overall configuration of a microscope system including an imaging apparatus according to Embodiment 1. FIG. 光軸ずれの説明図である。It is explanatory drawing of an optical axis offset. 実施例1に係るGUIの一例を示す図である。3 is a diagram illustrating an example of a GUI according to Embodiment 1. FIG. 実施例1に係る動作を示すフローチャートである3 is a flowchart illustrating an operation according to the first embodiment. 光軸中心位置を導出する際の説明図である。It is explanatory drawing at the time of deriving | leading-out the optical axis center position. 標本画像から白サンプル点を抽出する際の説明図である。It is explanatory drawing at the time of extracting a white sample point from a sample image. 実施例2に係る撮像装置を含む顕微鏡システムの一部構成を示す図である。6 is a diagram illustrating a partial configuration of a microscope system including an imaging apparatus according to Embodiment 2. FIG. 実施例2に係る動作を示すフローチャートである。10 is a flowchart illustrating an operation according to the second embodiment. 実施例3に係る動作を示すフローチャートである。10 is a flowchart illustrating an operation according to the third embodiment. 実施例3の説明に用いるGUIの図である。FIG. 10 is a diagram of a GUI used for describing the third embodiment. 実施例3に用いるテーブル図である。It is a table figure used for Example 3. FIG.

符号の説明Explanation of symbols

1 撮像素子
2 撮像部
3 PC
4 モニタ
5 嵌合部
6 テレビアダプタ
7 嵌合部
8 接眼レンズ
9 鏡筒
10 嵌合部
11 顕微鏡本体
12 レボルバ
13 対物レンズ
14 ステージ
15 コンデンサレンズ
16 ランプハウス
17 標本
18 観察光
21 ライブ画表示部
22 撮像素子の中心を示す印
23 観察光の光軸中心を示す印
24 中心間の距離
25 ラジオボタン
26 倍率入力部
27 画素サイズ入力部
28 調整パラメータ入力部
29 実行ボタン
31 画像
32 円形領域
33 xy座標系
36 撮像素子調整ステージ
37 X方向駆動モータ
38 Y方向駆動モータ
101 ライブ画表示部
102 ラジオボタン
103 倍率入力部
104 撮像ボタン
1 Imaging device 2 Imaging unit 3 PC
4 monitor 5 fitting part 6 TV adapter 7 fitting part 8 eyepiece lens 9 lens barrel 10 fitting part 11 microscope body 12 revolver 13 objective lens 14 stage 15 condenser lens 16 lamp house 17 specimen 18 observation light 21 live image display part 22 Mark indicating the center of the image sensor 23 Mark indicating the optical axis center of the observation light 24 Distance between centers 25 Radio button 26 Magnification input unit 27 Pixel size input unit 28 Adjustment parameter input unit 29 Execution button 31 Image 32 Circular area 33 xy coordinates System 36 Image sensor adjustment stage 37 X direction drive motor 38 Y direction drive motor 101 Live image display unit 102 Radio button 103 Magnification input unit 104 Imaging button

Claims (8)

光学機器からの入射光を撮像する撮像素子と、
前記撮像素子により撮像された前記入射光の画像から、前記撮像素子の中心の位置と前記撮像素子へ入射した前記入射光の光軸中心の位置とを検出する位置検出手段と、
前記位置検出手段により検出された前記撮像素子の中心の位置と前記入射光の光軸中心の位置とを表示する位置表示手段と、
を備えることを特徴とする撮像装置。
An image sensor for imaging incident light from an optical device;
Position detection means for detecting the position of the center of the image sensor and the position of the center of the optical axis of the incident light incident on the image sensor from the image of the incident light imaged by the image sensor;
Position display means for displaying the position of the center of the image sensor detected by the position detection means and the position of the optical axis center of the incident light;
An imaging apparatus comprising:
前記位置検出手段により検出された前記撮像素子の中心の位置と前記入射光の光軸中心の位置との間の距離を算出する距離算出手段と、
前記距離算出手段により算出された距離を表示する距離表示手段と、
を更に備えることを特徴とする請求項1記載の撮像装置。
Distance calculating means for calculating a distance between the position of the center of the image sensor detected by the position detecting means and the position of the optical axis center of the incident light;
Distance display means for displaying the distance calculated by the distance calculation means;
The imaging apparatus according to claim 1, further comprising:
前記撮像素子を移動させる移動手段を更に備え、
前記位置検出手段により検出された前記撮像素子の中心の位置と前記入射光の光軸中心の位置とが一致するように、前記撮像素子を前記移動手段により移動させる、
ことを特徴とする請求項1又は2記載の撮像装置。
A moving means for moving the image sensor;
Moving the imaging element by the moving means so that the position of the center of the imaging element detected by the position detection means and the position of the optical axis center of the incident light coincide with each other;
The imaging apparatus according to claim 1 or 2, wherein
光学機器からの入射光を撮像する撮像素子と、
前記入射光を前記撮像素子で撮像した際に発生する、光軸中心からの減光度情報を予め記憶した記憶手段と、
前記入射光の光軸中心の位置を検出する位置検出手段と、
前記位置検出手段により検出された光軸中心位置を基準とし、前記記憶手段に記憶された減光度情報を用いて撮像画像の周辺光量ムラを均一に補正する画像処理手段と、
を備えることを特徴とする撮像装置。
An image sensor for imaging incident light from an optical device;
Storage means for preliminarily storing dimming degree information from the optical axis center, which is generated when the incident light is imaged by the imaging device;
Position detecting means for detecting the position of the center of the optical axis of the incident light;
An image processing unit that uniformly corrects the peripheral light amount unevenness of the captured image using the dimming degree information stored in the storage unit on the basis of the optical axis center position detected by the position detection unit;
An imaging apparatus comprising:
撮像素子を備える撮像装置の表示方法であって、
光学機器からの入射光を前記撮像素子により撮像して得た画像から、前記撮像素子の中心の位置と前記撮像素子へ入射した前記入射光の光軸中心の位置とを検出し、
検出した前記撮像素子の中心の位置と前記入射光の光軸中心の位置とを表示する、
ことを特徴とする撮像装置の表示方法。
A display method for an imaging apparatus including an imaging element,
From the image obtained by imaging the incident light from the optical device with the image sensor, the center position of the image sensor and the position of the optical axis center of the incident light incident on the image sensor are detected,
Displaying the detected position of the center of the image sensor and the position of the optical axis center of the incident light;
A display method for an image pickup apparatus.
撮像素子を備える撮像装置の画像処理方法であって、
光学機器からの第1の入射光を前記撮像素子により撮像して得た画像から、前記撮像素子へ入射した前記第1の入射光の光軸中心の位置を検出し、
検出した前記第1の入射光の光軸中心の位置の画素値を基準値として、前記光学機器からの第2の入射光を前記撮像素子により撮像して得た画像の周辺光量ムラを均一に補正する、
ことを特徴とする撮像装置の表示方法。
An image processing method of an imaging apparatus including an imaging element,
From the image obtained by imaging the first incident light from the optical device with the imaging device, the position of the optical axis center of the first incident light incident on the imaging device is detected,
Using the detected pixel value at the center of the optical axis of the first incident light as a reference value, the peripheral light amount unevenness of the image obtained by imaging the second incident light from the optical device with the image sensor is made uniform. to correct,
A display method for an image pickup apparatus.
撮像素子を備える撮像装置のコンピュータに、
光学機器からの入射光を前記撮像素子により撮像して得た画像から、前記撮像素子の中心の位置と前記撮像素子へ入射した前記入射光の光軸中心の位置とを検出する位置検出機能と、
前記位置検出機能により検出された前記撮像素子の中心の位置と前記入射光の光軸中心の位置とを表示する表示機能と、
を実現させるためのプログラム。
In the computer of the imaging device provided with the imaging element,
A position detection function for detecting the position of the center of the imaging element and the position of the center of the optical axis of the incident light incident on the imaging element from an image obtained by imaging incident light from an optical device by the imaging element; ,
A display function for displaying the position of the center of the image sensor detected by the position detection function and the position of the optical axis center of the incident light;
A program to realize
撮像素子を備える撮像装置のコンピュータに、
光学機器からの第1の入射光を前記撮像素子により撮像して得た画像から、前記撮像素子へ入射した前記第1の入射光の光軸中心の位置を検出する位置検出機能と、
前記位置検出機能により検出された前記第1の入射光の光軸中心の位置の画素値を基準値として、前記光学機器からの第2の入射光を前記撮像素子により撮像して得た画像の周辺光量ムラを均一に補正する画像処理機能と、
を実現させるためのプログラム。
In the computer of the imaging device provided with the imaging element,
A position detection function for detecting the position of the center of the optical axis of the first incident light incident on the image sensor from an image obtained by imaging the first incident light from the optical device with the image sensor;
An image obtained by imaging the second incident light from the optical device with the image sensor using the pixel value at the center of the optical axis of the first incident light detected by the position detection function as a reference value. An image processing function that uniformly corrects unevenness in the amount of ambient light,
A program to realize
JP2005367722A 2005-12-21 2005-12-21 Imaging apparatus Pending JP2007171455A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005367722A JP2007171455A (en) 2005-12-21 2005-12-21 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005367722A JP2007171455A (en) 2005-12-21 2005-12-21 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2007171455A true JP2007171455A (en) 2007-07-05

Family

ID=38298122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005367722A Pending JP2007171455A (en) 2005-12-21 2005-12-21 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2007171455A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232738A (en) * 2012-04-27 2013-11-14 Dainippon Printing Co Ltd Image processing device, image processing method, and image processing program
WO2016194194A1 (en) * 2015-06-04 2016-12-08 オリンパス株式会社 Image pickup system
JP2018166308A (en) * 2017-03-28 2018-10-25 セコム株式会社 Camera calibration device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468995A (en) * 1990-07-06 1992-03-04 Sharp Corp Optical axis alignment device for ccd camera
JP2000134420A (en) * 1998-08-18 2000-05-12 Fuji Photo Film Co Ltd Image reader, default value adjusting method for the image rader, and chart original
JP2001257930A (en) * 2000-03-13 2001-09-21 Olympus Optical Co Ltd Picture frame centering control method and image pickup device
WO2005043891A1 (en) * 2003-10-31 2005-05-12 Mitsubishi Denki Kabushiki Kaisha Image correcting method and imaging apparatus
JP2006115275A (en) * 2004-10-15 2006-04-27 Canon Inc Image pickup unit
JP2006270553A (en) * 2005-03-24 2006-10-05 Seiko Epson Corp Image signal processing apparatus, image signal processing method, display controller and electronic apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468995A (en) * 1990-07-06 1992-03-04 Sharp Corp Optical axis alignment device for ccd camera
JP2000134420A (en) * 1998-08-18 2000-05-12 Fuji Photo Film Co Ltd Image reader, default value adjusting method for the image rader, and chart original
JP2001257930A (en) * 2000-03-13 2001-09-21 Olympus Optical Co Ltd Picture frame centering control method and image pickup device
WO2005043891A1 (en) * 2003-10-31 2005-05-12 Mitsubishi Denki Kabushiki Kaisha Image correcting method and imaging apparatus
JP2006115275A (en) * 2004-10-15 2006-04-27 Canon Inc Image pickup unit
JP2006270553A (en) * 2005-03-24 2006-10-05 Seiko Epson Corp Image signal processing apparatus, image signal processing method, display controller and electronic apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232738A (en) * 2012-04-27 2013-11-14 Dainippon Printing Co Ltd Image processing device, image processing method, and image processing program
WO2016194194A1 (en) * 2015-06-04 2016-12-08 オリンパス株式会社 Image pickup system
JPWO2016194194A1 (en) * 2015-06-04 2018-04-12 オリンパス株式会社 Imaging system
US10237472B2 (en) 2015-06-04 2019-03-19 Olympus Corporation Image acquisition system
JP2018166308A (en) * 2017-03-28 2018-10-25 セコム株式会社 Camera calibration device

Similar Documents

Publication Publication Date Title
JP5154392B2 (en) Imaging device
US20120002032A1 (en) Information processing apparatus, stage-undulation correcting method, program therefor
JP5841427B2 (en) Image processing apparatus and image processing method
US20090185034A1 (en) Imaging device for microscope
JP5047764B2 (en) Microscope imaging device
JP5911296B2 (en) Image processing apparatus, imaging apparatus, microscope system, image processing method, and image processing program
JP5096297B2 (en) Imaging device
US9046677B2 (en) Microscope system and autofocus method
KR101204617B1 (en) Inspection apparatus
JP2016125913A (en) Image acquisition device and control method of image acquisition device
US20180338079A1 (en) Microscope system, control method, and computer readable medium
US20050105174A1 (en) Microscope system
JP2007171455A (en) Imaging apparatus
JP2019102986A (en) Endoscope system
JP6140255B2 (en) Image processing apparatus and image processing method
JP2018066908A (en) Magnifying observation device
JP5730696B2 (en) Image processing apparatus and image display system
JP5149984B2 (en) Imaging device
JP6312410B2 (en) Alignment apparatus, microscope system, alignment method, and alignment program
JP2009258187A (en) Optical microscope apparatus and data processor for optical microscope
JP2010002534A (en) Microscope device
JP2015210396A (en) Aligment device, microscope system, alignment method and alignment program
US10649197B2 (en) Magnified observation apparatus
JP6550719B2 (en) Imaging device control device, imaging device, imaging method, imaging program, storage medium, and microscope system
JP6300692B2 (en) measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120313