JP5096301B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5096301B2
JP5096301B2 JP2008317073A JP2008317073A JP5096301B2 JP 5096301 B2 JP5096301 B2 JP 5096301B2 JP 2008317073 A JP2008317073 A JP 2008317073A JP 2008317073 A JP2008317073 A JP 2008317073A JP 5096301 B2 JP5096301 B2 JP 5096301B2
Authority
JP
Japan
Prior art keywords
image
mosaic
relative position
frame image
mosaic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008317073A
Other languages
Japanese (ja)
Other versions
JP2010141697A (en
Inventor
政寛 猪俣
宇範 康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2008317073A priority Critical patent/JP5096301B2/en
Publication of JP2010141697A publication Critical patent/JP2010141697A/en
Application granted granted Critical
Publication of JP5096301B2 publication Critical patent/JP5096301B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Microscoopes, Condenser (AREA)

Description

本発明は、撮像装置に係り、さらに詳しくは、検査対象物を撮影するカメラによって生成された動画像をカメラの実視野よりも視野の広いモザイク画像上に表示することができる撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus capable of displaying a moving image generated by a camera that captures an inspection object on a mosaic image having a wider field of view than the actual field of view of the camera.

視野を変更しながら撮影した複数の静止画像を張り合わせることによって、カメラの実視野よりも視野の広い1枚の広視野画像を作成する技術として、イメージモザイクが従来から知られている。対物レンズによって拡大された被写体を撮影するデジタルマイクロスコープなどの撮像装置の場合、検査対象物が載置された可動ステージを移動させることによって視野を変更することができる。上記広視野画像は、モザイク画像と呼ばれ、この様にして視野を変更しながら撮影された複数の静止画像を画像間の相対位置に基づいて連結することによって作成される。   An image mosaic is conventionally known as a technique for creating a single wide-field image having a wider field of view than the actual field of view of the camera by pasting together a plurality of still images taken while changing the field of view. In the case of an imaging apparatus such as a digital microscope that photographs a subject magnified by an objective lens, the field of view can be changed by moving a movable stage on which an inspection target is placed. The wide-field image is called a mosaic image, and is created by connecting a plurality of still images captured while changing the field of view based on the relative positions between the images.

例えば、可動ステージの位置を検出するセンサーを備え、ユーザが指定した撮影範囲を自動的に撮影する従来の撮像装置の場合、可動ステージの制御情報から画像間の相対的位置関係を判断して、静止画像の張り合わせが行われる。この様な撮像装置では、撮影範囲を指定して一旦撮影が開始されると、途中で撮影範囲を変更することができなかった。また、可動ステージの位置を高精度に検出する必要があることから、システム構成が複雑化し、コスト高となってしまうという問題があった。   For example, in the case of a conventional imaging device that includes a sensor that detects the position of the movable stage and automatically captures an imaging range designated by the user, the relative positional relationship between the images is determined from the control information of the movable stage, The still images are joined together. In such an imaging apparatus, once the shooting range is designated and shooting is started, the shooting range cannot be changed midway. Further, since it is necessary to detect the position of the movable stage with high accuracy, there is a problem that the system configuration becomes complicated and the cost is increased.

一方、画像間の相対的位置関係を画像間のパターンマッチングによって判断して、静止画像の張り合わせを行う撮像装置もある。しかしながら、撮影中の視野と作成中のモザイク画像との位置関係をユーザにディスプレイ上で確認させながら静止画像を取り込んでモザイク画像と連結させることができる撮像装置はなかった。   On the other hand, there is also an imaging device that determines the relative positional relationship between images by pattern matching between images and performs still image joining. However, there has been no imaging apparatus that can capture a still image and connect it to the mosaic image while allowing the user to confirm the positional relationship between the field of view being photographed and the mosaic image being created on the display.

本発明は、上記事情に鑑みてなされたものであり、システム構成を複雑化させることなく、撮影中の視野と作成中のモザイク画像との位置関係を容易に認識することができる撮像装置を提供することを目的とする。特に、撮影中の動画像を作成中のモザイク画像上の適切な位置にライブ画像として表示させる際に、動画像を構成するフレーム画像とモザイク画像との位置合わせの精度を向上させた撮像装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an imaging apparatus capable of easily recognizing the positional relationship between a field of view being shot and a mosaic image being created without complicating the system configuration. The purpose is to do. In particular, when displaying a moving image being shot as a live image at an appropriate position on a mosaic image being created, an imaging device that improves the accuracy of the alignment between the frame image and the mosaic image constituting the moving image The purpose is to provide.

第1の本発明による撮像装置は、検査対象物を載せたまま異なる2方向に移動させることができる可動ステージと、上記可動ステージと対向配置され、上記検査対象物を撮影して、連続する複数のフレーム画像からなる動画像を生成するカメラと、上記カメラの実視野よりも視野の広いモザイク画像を保持するモザイク画像保持手段と、上記フレーム画像及び上記モザイク画像から特徴量を抽出する特徴量抽出手段と、上記特徴量の比較によって、上記フレーム画像及び上記モザイク画像間の相対位置を判定する相対位置判定手段と、上記相対位置の判定結果に基づいて、上記フレーム画像の上記モザイク画像に対する表示位置を更新し、上記モザイク画像上に上記動画像を表示するライブ画像表示手段とを備え、上記相対位置判定手段は、前回のフレーム画像と上記モザイク画像との間の相対位置の判定結果から求められた前回のフレーム画像と上記モザイク画像の重複領域を、現在のフレーム画像と上記モザイク画像の重複領域として推定し、推定された該重複領域内の特徴量を比較するように構成される。
An imaging apparatus according to a first aspect of the present invention includes a movable stage that can be moved in two different directions while placing an inspection object thereon, and a plurality of continuous stages that are arranged to face the movable stage and photograph the inspection object. A camera that generates a moving image composed of the frame images, a mosaic image holding unit that holds a mosaic image having a wider field of view than the actual field of view of the camera, and a feature amount extraction that extracts feature amounts from the frame image and the mosaic image A relative position determination means for determining a relative position between the frame image and the mosaic image by comparing the feature amount, and a display position of the frame image with respect to the mosaic image based on the determination result of the relative position. update the, and a live image display means for displaying the moving image on the mosaic image, the relative position determining means, The overlap region between the previous frame image and the mosaic image obtained from the determination result of the relative position between the frame image and the mosaic image is estimated as the overlap region between the current frame image and the mosaic image, and is estimated. configured to compare the feature amounts of the overlap region that is.

この撮像装置では、フレーム画像及びモザイク画像から抽出した特徴量の比較によってこれらの画像間の相対位置を判定し、その判定結果に基づいてモザイク画像上に動画像を表示するので、撮影中の動画像を作成中のモザイク画像上の適切な位置にライブ画像として表示させることができる。この様な構成によれば、撮影中の動画像が作成中のモザイク画像上の適切な位置にライブ画像として表示されるので、撮影中の視野と作成中のモザイク画像との位置関係をユーザに確認させながらフレーム画像を取り込んでモザイク画像と連結させることができる。また、フレーム画像及びモザイク画像から抽出した特徴量の比較によってこれらの画像間の相対位置を判定するので、システム構成が複雑化するのを抑制することができる。さらに、特徴量の比較を行う際、過去の相対位置の判定結果に基づいてフレーム画像とモザイク画像との重複領域を推定し、この重複領域内の特徴量について比較を行うので、動画像を構成するフレーム画像とモザイク画像との位置合わせの精度を向上させることができる。   In this imaging device, the relative position between these images is determined by comparing the feature amounts extracted from the frame image and the mosaic image, and the moving image is displayed on the mosaic image based on the determination result. The image can be displayed as a live image at an appropriate position on the mosaic image being created. According to such a configuration, since the moving image being shot is displayed as a live image at an appropriate position on the mosaic image being created, the positional relationship between the field of view being shot and the mosaic image being created is shown to the user. While confirming, it is possible to capture the frame image and connect it to the mosaic image. In addition, since the relative position between these images is determined by comparing the feature amounts extracted from the frame image and the mosaic image, it is possible to prevent the system configuration from becoming complicated. Furthermore, when comparing feature amounts, an overlap region between a frame image and a mosaic image is estimated based on a past relative position determination result, and the feature amounts in the overlap region are compared. The accuracy of alignment between the frame image to be performed and the mosaic image can be improved.

第2の本発明による撮像装置は、上記構成に加え、上記相対位置判定手段が、重複領域内の特徴量を比較した結果、相対位置が判定できなかった場合に、フレーム画像の全特徴量とモザイク画像の特徴量とを比較して相対位置を判定するように構成される。この様な構成によれば、重複領域内の特徴量の比較では相対位置が判定できなかった場合に、フレーム画像の全特徴量とモザイク画像の一部又は全部の特徴量とを比較して相対位置の判定を行うので、画像の一部がピンボケしたようなフレーム画像であっても、相対位置の判定結果を確実に得ることができる。   In addition to the above-described configuration, the imaging apparatus according to the second aspect of the present invention is configured so that when the relative position determination unit fails to determine the relative position as a result of comparing the feature amounts in the overlapping region, The relative position is determined by comparing the feature amount of the mosaic image. According to such a configuration, when the relative position cannot be determined by comparing the feature amounts in the overlapping region, the entire feature amount of the frame image is compared with a part of or all of the feature amounts of the mosaic image. Since the position is determined, the relative position determination result can be reliably obtained even if the frame image is partially out of focus.

第3の本発明による撮像装置は、上記構成に加え、上記相対位置判定手段が、最初のフレーム画像について、フレーム画像の全特徴量とモザイク画像の特徴量とを比較して相対位置を判定するように構成される。この様な構成によれば、最初のフレーム画像については、フレーム画像の全特徴量とモザイク画像の一部又は全部の特徴量とを比較して相対位置の判定を行うので、撮影を一旦中断させ、その後、撮影を再開させたような場合に、最初のフレーム画像についても画像間の相対位置を判定することができる。   In the imaging device according to the third aspect of the present invention, in addition to the above-described configuration, the relative position determination unit determines the relative position of the first frame image by comparing the total feature amount of the frame image with the feature amount of the mosaic image. Configured as follows. According to such a configuration, for the first frame image, the relative position is determined by comparing all the feature values of the frame image with some or all of the feature values of the mosaic image. Thereafter, when the shooting is resumed, the relative position between the images can be determined for the first frame image.

第4の本発明による撮像装置は、上記構成に加え、取込み指示に基づいて上記フレーム画像を取り込み、取り込んだフレーム画像に関する上記相対位置の判定結果に基づいて当該フレーム画像を上記モザイク画像に張り合わせ、新たなモザイク画像を生成するモザイク画像生成手段を備えて構成される。この様な構成によれば、取り込んだフレーム画像に関する相対位置の判定結果に基づいてフレーム画像の張り合わせを行うので、処理負荷が増大するのを抑制することができる。   In addition to the above configuration, the imaging device according to a fourth aspect of the present invention captures the frame image based on a capture instruction, and pastes the frame image on the mosaic image based on the determination result of the relative position regarding the captured frame image. A mosaic image generating means for generating a new mosaic image is provided. According to such a configuration, since the frame images are joined based on the determination result of the relative position regarding the captured frame image, an increase in processing load can be suppressed.

第5の本発明による撮像装置は、上記構成に加え、上記特徴量抽出手段が、上記モザイク画像に対して最後に張り合わされたフレーム画像を基準画像として、当該基準画像内の特徴量を抽出し、上記相対位置判定手段が、上記フレーム画像の特徴量と上記基準画像の特徴量とを比較することによって、上記フレーム画像及び上記モザイク画像間の相対位置を判定するように構成される。   In the imaging device according to a fifth aspect of the present invention, in addition to the above-described configuration, the feature amount extraction unit extracts a feature amount in the reference image using the frame image that is finally pasted on the mosaic image as a reference image. The relative position determination means is configured to determine the relative position between the frame image and the mosaic image by comparing the feature amount of the frame image with the feature amount of the reference image.

第6の本発明による撮像装置は、上記構成に加え、上記動画像を構成するフレーム画像を縮小して位置合わせ用フレーム画像を生成する第1位置合わせ用縮小手段と、縮小前のフレーム画像を張り合わせて保存用モザイク画像を生成するモザイク画像生成手段と、上記保存用モザイク画像を縮小して位置合わせ用モザイク画像を生成する第2位置合わせ用縮小手段と、上記動画像を構成するフレーム画像を縮小して表示用フレーム画像を生成し、上記保存用モザイク画像を縮小して表示用モザイク画像を生成する表示用縮小手段とを備え、上記特徴量抽出手段が、上記位置合わせ用フレーム画像及び上記位置合わせ用モザイク画像から特徴量を抽出し、上記相対位置判定手段が、上記位置合わせ用フレーム画像及び上記位置合わせ用モザイク画像間の相対位置を判定し、上記ライブ画像表示手段が、上記表示用モザイク画像上に上記表示用フレーム画像によって構成される動画像をライブ画像として表示し、上記モザイク画像生成手段が、上記位置合わせ用モザイク画像よりも高い解像度でフレーム画像及び保存用モザイク画像間の相対位置を推定して当該フレーム画像を当該保存用モザイク画像に張り合わせ、新たな保存用モザイク画像を生成するように構成される。   In addition to the above-described configuration, the imaging apparatus according to a sixth aspect of the present invention includes a first alignment reduction unit that reduces the frame image forming the moving image to generate an alignment frame image, and a frame image before reduction. Mosaic image generation means for generating a mosaic image for storage by pasting together, second reduction means for alignment for generating a mosaic image for alignment by reducing the mosaic image for storage, and frame images constituting the moving image A display reduction unit that generates a display frame image by reducing the display mosaic image and generates a display mosaic image by reducing the storage mosaic image, and the feature amount extraction unit includes the alignment frame image and the alignment frame image. A feature amount is extracted from the mosaic image for alignment, and the relative position determination unit is configured to output the frame image for alignment and the mosaic for alignment. The live image display means displays a moving image constituted by the display frame image on the display mosaic image as a live image, and the mosaic image generation means determines the relative position between the images. It is configured to estimate a relative position between the frame image and the storage mosaic image at a higher resolution than the mosaic image for combination, and to combine the frame image with the storage mosaic image to generate a new storage mosaic image .

本発明による撮像装置によれば、撮影中の動画像が作成中のモザイク画像上の適切な位置にライブ画像として表示されるので、撮影中の視野と作成中のモザイク画像との位置関係をユーザに確認させながらフレーム画像を取り込んでモザイク画像と連結させることができる。また、フレーム画像及びモザイク画像から抽出した特徴量の比較によってこれらの画像間の相対位置を判定するので、システム構成が複雑化するのを抑制することができる。さらに、特徴量の比較を行う際、過去のフレーム画像に関する相対位置の判定結果に基づいて現在のフレーム画像とモザイク画像との重複領域を推定し、この重複領域内の特徴量について比較を行うので、動画像を構成するフレーム画像とモザイク画像との位置合わせの精度を向上させることができる。従って、システム構成を複雑化させることなく、撮影中の視野と作成中のモザイク画像との位置関係を容易に認識することができる撮像装置を実現することができる。   According to the imaging apparatus of the present invention, since the moving image being shot is displayed as a live image at an appropriate position on the mosaic image being created, the positional relationship between the field of view being shot and the mosaic image being created is determined by the user. It is possible to capture the frame image and connect it to the mosaic image while confirming. In addition, since the relative position between these images is determined by comparing the feature amounts extracted from the frame image and the mosaic image, it is possible to prevent the system configuration from becoming complicated. Furthermore, when comparing feature amounts, an overlap region between the current frame image and the mosaic image is estimated based on the determination result of the relative position with respect to the past frame image, and the feature amounts in this overlap region are compared. Thus, it is possible to improve the accuracy of the alignment between the frame image and the mosaic image constituting the moving image. Therefore, it is possible to realize an imaging apparatus capable of easily recognizing the positional relationship between the field of view being shot and the mosaic image being created without complicating the system configuration.

<拡大観察装置>
図1は、本発明の実施の形態による撮像装置の概略構成の一例を示したシステム図であり、撮像装置の一例として、システム本体部100、カメラ部200及びコンソール300からなる拡大観察装置1が示されている。この拡大観察装置1は、対物レンズによって拡大された被写体を撮影して動画像を生成し、システム本体部100のディスプレイ110上に表示することができるデジタルマイクロスコープである。
<Magnification observation device>
FIG. 1 is a system diagram illustrating an example of a schematic configuration of an imaging apparatus according to an embodiment of the present invention. As an example of the imaging apparatus, a magnification observation apparatus 1 including a system main body unit 100, a camera unit 200, and a console 300 is illustrated. It is shown. The magnification observation apparatus 1 is a digital microscope that can capture a subject magnified by an objective lens, generate a moving image, and display the moving image on the display 110 of the system main body 100.

カメラ部200は、視野を変更しながら検査対象物を撮影するための撮影ユニットであり、カメラ210、可動ホルダー220及び可動ステージ230によって構成される。カメラ210は、検査対象物を被写体として撮影し、一定のフレームレートで連続する複数のフレーム画像からなる動画像を生成する読取装置であり、円筒形状の筐体内に対物レンズ、CCDイメージセンサー、照明装置などを配置して構成されている。   The camera unit 200 is an imaging unit for imaging an inspection object while changing the field of view, and includes a camera 210, a movable holder 220, and a movable stage 230. The camera 210 is a reading device that photographs an inspection object as a subject and generates a moving image composed of a plurality of frame images continuous at a constant frame rate, and includes an objective lens, a CCD image sensor, and an illumination in a cylindrical casing. It is configured by arranging devices and the like.

可動ホルダー220は、対物レンズの中心軸に平行な方向に移動可能にカメラ210を保持する保持手段である。ここでは、カメラ210の対物レンズの中心軸に平行な方向をz軸方向と呼ぶことにし、位置調整つまみ221を回すことによってカメラ210のz軸方向の位置を調整することができる。   The movable holder 220 is a holding unit that holds the camera 210 so as to be movable in a direction parallel to the central axis of the objective lens. Here, the direction parallel to the central axis of the objective lens of the camera 210 is referred to as the z-axis direction, and the position of the camera 210 in the z-axis direction can be adjusted by turning the position adjustment knob 221.

可動ステージ230は、検査対象物を保持する保持手段であり、検査対象物を載せた状態でz軸に交差する面内で移動可能となっている。ここでは、z軸に垂直な平面をxy平面と呼ぶことにし、位置調整つまみ231及び232を回すことによって可動ステージ230のxy平面内における位置を調整することができる。つまり、可動ステージ230は、位置調整つまみ231及び232を回すことによって、検査対象物を載せたまま異なる2方向に移動させることができるステージとなっている。   The movable stage 230 is a holding unit that holds the inspection target, and is movable in a plane that intersects the z-axis with the inspection target placed thereon. Here, a plane perpendicular to the z-axis is referred to as an xy plane, and the position of the movable stage 230 in the xy plane can be adjusted by turning the position adjustment knobs 231 and 232. That is, the movable stage 230 is a stage that can be moved in two different directions while the inspection object is placed by turning the position adjustment knobs 231 and 232.

具体的には、位置調整つまみ231を回すことによって、x軸方向の位置を調整し、位置調整つまみ232を回すことによって、y軸方向の位置を調整することができる。カメラ210は、この様な可動ステージ230と対向して配置されている。   Specifically, the position in the x-axis direction can be adjusted by turning the position adjustment knob 231, and the position in the y-axis direction can be adjusted by turning the position adjustment knob 232. The camera 210 is arranged to face such a movable stage 230.

コンソール300は、撮影の開始及び終了、撮影された画像データの取込みなどをシステム本体部100に対して指示するための入力装置である。   The console 300 is an input device for instructing the system main body unit 100 to start and end shooting and to take captured image data.

システム本体部100は、カメラ210によって撮影された動画像をディスプレイ110上に表示し、動画像を構成するフレーム画像を張り合わせてカメラ210の実視野よりも視野の広いモザイク画像を生成する画像処理部である。   The system main unit 100 displays a moving image captured by the camera 210 on the display 110, and combines the frame images constituting the moving image to generate a mosaic image having a wider field of view than the actual field of view of the camera 210. It is.

<システム本体部>
図2は、図1の拡大観察装置1の要部における構成例を示したブロック図であり、システム本体部100内の機能構成の一例が示されている。このシステム本体部100は、ディスプレイ110の他に、表示用縮小部121,127、表示用モザイク画像記憶部122、ライブ画像更新部123、保存用モザイク画像記憶部124、ライブ位置合わせ部125及びモザイク画像生成部126を備えて構成される。
<System body>
FIG. 2 is a block diagram illustrating a configuration example of a main part of the magnification observation apparatus 1 in FIG. In addition to the display 110, the system main unit 100 includes display reduction units 121 and 127, a display mosaic image storage unit 122, a live image update unit 123, a storage mosaic image storage unit 124, a live positioning unit 125, and a mosaic. An image generation unit 126 is provided.

表示用縮小部121は、カメラ210からの動画データを処理し、画像サイズの縮小した縮小動画データを生成する動作を行っている。具体的には、カメラ210から連続して得られるフレーム画像を所定の縮小率で縮小して表示用フレーム画像を生成し、ライブ画像更新部123へ出力する動作が行われる。フレーム画像の縮小は、例えば、画素の間引き処理や画素値の平均化処理によって行われる。ここでは、縮小前後でフレーム画像のアスペクト比が変わらないように縮小処理が行われるものとする。   The display reduction unit 121 performs the operation of processing the moving image data from the camera 210 and generating reduced moving image data with a reduced image size. Specifically, an operation of generating frame images for display by reducing frame images continuously obtained from the camera 210 at a predetermined reduction ratio and outputting the frame images to the live image update unit 123 is performed. The reduction of the frame image is performed by, for example, pixel thinning processing or pixel value averaging processing. Here, it is assumed that the reduction process is performed so that the aspect ratio of the frame image does not change before and after the reduction.

表示用モザイク画像記憶部122は、表示用モザイク画像を保持するモザイク画像保持手段であり、例えば、揮発性の半導体メモリからなる。ライブ画像更新部123は、表示用縮小部121からの縮小率情報に基づいてディスプレイ110を制御し、表示用縮小部121から連続して得られる表示用フレーム画像の表示用モザイク画像に対する表示位置を更新することによって、表示用モザイク画像上にライブ画像を表示する動作を行っている。ライブ画像とは、連続する複数の表示用フレーム画像によって構成される動画像のことである。   The display mosaic image storage unit 122 is a mosaic image holding unit that holds a display mosaic image, and includes, for example, a volatile semiconductor memory. The live image update unit 123 controls the display 110 based on the reduction rate information from the display reduction unit 121, and sets the display position of the display frame image obtained continuously from the display reduction unit 121 with respect to the display mosaic image. By updating, a live image is displayed on the display mosaic image. A live image is a moving image composed of a plurality of continuous display frame images.

保存用モザイク画像記憶部124は、保存用モザイク画像を保持するモザイク画像保持手段であり、不揮発性の記憶素子、例えば、HDD(ハードディスクドライブ)装置によって構成される。   The storage mosaic image storage unit 124 is a mosaic image storage unit that stores the storage mosaic image, and includes a nonvolatile storage element, for example, an HDD (Hard Disk Drive) device.

ライブ位置合わせ部125は、位置合わせ用縮小部125a,125b及びマッチング処理部125cからなり、カメラ210から連続して得られるフレーム画像と保存用モザイク画像記憶部124から読み出した保存用モザイク画像とをそれぞれ縮小してマッチング処理する動作を行っている。   The live registration unit 125 includes registration reduction units 125a and 125b and a matching processing unit 125c, and the frame image obtained continuously from the camera 210 and the storage mosaic image read from the storage mosaic image storage unit 124. Each of them is reduced to perform matching processing.

位置合わせ用縮小部125aは、カメラ210からのフレーム画像を位置合わせ用に一定の縮小率で縮小して位置合わせ用フレーム画像を生成し、マッチング処理部125cへ出力する動作を行っている。位置合わせ用縮小部125bは、保存用モザイク画像記憶部124から読み出した保存用モザイク画像を位置合わせ用に縮小して位置合わせ用モザイク画像を生成し、マッチング処理部125cへ出力する動作を行っている。   The alignment reduction unit 125a performs an operation of reducing the frame image from the camera 210 at a constant reduction rate for alignment to generate an alignment frame image and outputting it to the matching processing unit 125c. The alignment reduction unit 125b performs an operation of reducing the storage mosaic image read from the storage mosaic image storage unit 124 for alignment, generating a registration mosaic image, and outputting the image to the matching processing unit 125c. Yes.

マッチング処理部125cは、位置合わせ用フレーム画像及び位置合わせ用モザイク画像間のパターンマッチングによって、これらの画像間の相対位置を判定し、相対位置情報を生成してライブ画像更新部123及びモザイク画像生成部126へ出力する動作を行っている。   The matching processing unit 125c determines a relative position between these images by pattern matching between the alignment frame image and the alignment mosaic image, generates relative position information, and generates a live image update unit 123 and a mosaic image. The operation of outputting to the unit 126 is performed.

ライブ画像更新部123では、ライブ位置合わせ部125からの相対位置情報に基づいて、表示用フレーム画像及び表示用モザイク画像間の相対位置を決定し、表示用フレーム画像の表示用モザイク画像に対する表示位置を更新する動作が行われる。   The live image update unit 123 determines the relative position between the display frame image and the display mosaic image based on the relative position information from the live position alignment unit 125, and the display position of the display frame image with respect to the display mosaic image The operation of updating is performed.

モザイク画像生成部126は、保存用位置合わせ部126a及び画像連結部126bからなり、縮小前のフレーム画像を張り合わせて保存用モザイク画像を生成する動作を行っている。   The mosaic image generation unit 126 includes a storage registration unit 126a and an image connection unit 126b, and performs an operation of generating a storage mosaic image by pasting frame images before reduction.

保存用位置合わせ部126aは、コンソール300からの取込み指示に基づいてカメラ210からのフレーム画像を取り込み、取り込んだフレーム画像と保存用モザイク画像記憶部124から読み出した保存用モザイク画像との間の相対位置を判定する動作を行っている。この相対位置の判定は、ライブ位置合わせ部125からの相対位置情報に基づいて行われ、取り込んだフレーム画像に関する相対位置の判定結果を利用することによって、位置合わせ用モザイク画像よりも高い解像度でフレーム画像及び保存用モザイク画像間の相対位置が推定される。   The storage alignment unit 126a captures the frame image from the camera 210 based on the capture instruction from the console 300, and the relative relationship between the captured frame image and the storage mosaic image read from the storage mosaic image storage unit 124. An operation for determining the position is performed. The determination of the relative position is performed based on the relative position information from the live position alignment unit 125, and by using the relative position determination result regarding the captured frame image, the frame with a higher resolution than the mosaic image for alignment is used. A relative position between the image and the storage mosaic image is estimated.

画像連結部126bは、保存用位置合わせ部126aによる判定結果に基づいて、フレーム画像及び保存用モザイク画像を張り合わせ、新たな保存用モザイク画像を生成して保存用モザイク画像記憶部124内の保存用モザイク画像を更新する動作を行っている。具体的には、コンソール300からの取込み指示に基づいてカメラ210からのフレーム画像が取り込まれる。そして、取り込んだフレーム画像と保存用モザイク画像記憶部124から読み出した保存用モザイク画像とが、保存用位置合わせ部126aによって推定された画像間の相対位置に基づいて張り合わせられ、新たな保存用モザイク画像が生成される。   The image connecting unit 126b combines the frame image and the storage mosaic image based on the determination result by the storage registration unit 126a, generates a new storage mosaic image, and stores it in the storage mosaic image storage unit 124. An operation to update the mosaic image is performed. Specifically, the frame image from the camera 210 is captured based on the capture instruction from the console 300. Then, the captured frame image and the storage mosaic image read from the storage mosaic image storage unit 124 are pasted together based on the relative position between the images estimated by the storage registration unit 126a, and a new storage mosaic is created. An image is generated.

フレーム画像及び保存用モザイク画像の張り合わせは、これらの画像間の相対位置に基づいて両画像を連結することによって行われる。また、フレーム画像及び保存用モザイク画像を連結する際には、つなぎ目を目立たなくするために、両画像の重複領域について画素値のブレンディング処理が行われる。ブレンディング処理は、両画像間で画素値を加重平均して合成画像の画素値を求める画像処理であり、加重平均の際の重みを画素の位置に応じて適切に変化させることによってつなぎ目を目立たなくしている。   The frame image and the mosaic image for storage are joined by connecting both images based on the relative position between these images. Also, when connecting the frame image and the storage mosaic image, a blending process of pixel values is performed on the overlapping area of both images in order to make the joint inconspicuous. The blending process is an image process in which pixel values are weighted and averaged between both images to obtain a pixel value of a composite image. ing.

表示用縮小部127は、保存用モザイク画像が更新されるごとに保存用モザイク画像記憶部124から更新後の保存用モザイク画像を読み出し、読み出した保存用モザイク画像を表示用に縮小して表示用モザイク画像を生成する動作を行っている。   The display reduction unit 127 reads the updated storage mosaic image from the storage mosaic image storage unit 124 each time the storage mosaic image is updated, and reduces the read storage mosaic image for display. An operation to generate a mosaic image is performed.

ここで、ライブ位置合わせ部125は、保存用位置合わせ部126aに比べて低精度のマッチング処理を実行し、低精度の座標データを相対位置情報として出力する処理部となっている。   Here, the live alignment unit 125 is a processing unit that executes a lower-precision matching process than the storage alignment unit 126a and outputs low-accuracy coordinate data as relative position information.

<マッチング処理部>
図3は、図2のシステム本体部100におけるマッチング処理部125cの構成例を示したブロック図である。このマッチング処理部125cは、特徴量抽出部131及び相対位置判定部132により構成される。
<Matching processing unit>
FIG. 3 is a block diagram illustrating a configuration example of the matching processing unit 125c in the system main body 100 of FIG. The matching processing unit 125c includes a feature amount extraction unit 131 and a relative position determination unit 132.

特徴量抽出部131は、位置合わせ用フレーム画像と位置合わせ用モザイク画像とからそれぞれ特徴量を抽出する動作を行っている。特徴量としては、画像を比較する際の目印となるものであれば、何でも良いが、ここでは、複数のエッジが交差する頂点が特徴点として抽出されるものとする。   The feature amount extraction unit 131 performs an operation of extracting feature amounts from the alignment frame image and the alignment mosaic image. The feature amount may be anything as long as it serves as a mark for comparing images. Here, it is assumed that a vertex at which a plurality of edges intersect is extracted as a feature point.

この特徴量抽出部131では、モザイク画像のサイズが大きくなった場合の位置合わせに要する処理時間を短縮させるという観点から、位置合わせ用モザイク画像から特徴点を抽出する際に、位置合わせ用モザイク画像の一部、例えば、モザイク画像に対して最後に張り合わされたフレーム画像を位置合わせ用の基準画像として、この基準画像内の特徴点を抽出する動作が行われる。   In the feature amount extraction unit 131, when extracting feature points from the mosaic image for alignment, the mosaic image for alignment is extracted from the viewpoint of shortening the processing time required for alignment when the size of the mosaic image becomes large. An operation of extracting a feature point in the reference image is performed by using a part of the frame image, for example, a frame image finally pasted on the mosaic image as a reference image for alignment.

相対位置判定部132は、比較部141、相対位置演算部142及び重複領域推定部143からなり、特徴点の比較によって位置合わせ用フレーム画像及び位置合わせ用モザイク画像間の相対位置を判定する動作を行っている。比較部141は、位置合わせ用フレーム画像から抽出された特徴点と、位置合わせ用モザイク画像から抽出された特徴点とを比較し、その比較結果を相対位置演算部142へ出力する動作を行っている。   The relative position determination unit 132 includes a comparison unit 141, a relative position calculation unit 142, and an overlapping region estimation unit 143, and performs an operation of determining a relative position between the alignment frame image and the alignment mosaic image by comparing feature points. Is going. The comparison unit 141 compares the feature points extracted from the alignment frame image with the feature points extracted from the alignment mosaic image, and outputs the comparison result to the relative position calculation unit 142. Yes.

特徴点の比較は、例えば、一方の画像から特徴点を含む領域をテンプレートとして抽出し、このテンプレート領域に最も類似する領域を他方の画像から探し出すことによって行われる。領域間の類似度を測る指標としては、領域内の画素について求めた輝度値の二乗誤差和を用いる方法、領域内の各画素の輝度値を平均輝度によって正規化した正規化相関を用いる方法が考えられる。   The feature points are compared by, for example, extracting a region including the feature points from one image as a template and searching for the region most similar to the template region from the other image. As an index for measuring the similarity between regions, there are a method using a sum of squared errors of luminance values obtained for pixels in the region, and a method using a normalized correlation obtained by normalizing the luminance value of each pixel in the region by the average luminance. Conceivable.

この比較部141では、位置合わせ用フレーム画像から抽出された特徴点と、位置合わせ用モザイク画像から抽出された特徴点とを比較する際に、位置合わせ用フレーム画像の特徴点と基準画像の特徴点とを比較する動作が行われる。   The comparison unit 141 compares the feature points extracted from the alignment frame image with the feature points extracted from the alignment mosaic image, and the feature points of the alignment frame image and the reference image. The operation of comparing the points is performed.

相対位置演算部142は、比較部141による比較結果に基づいて位置合わせ用フレーム画像及び位置合わせ用モザイク画像間の相対位置を判定し、その判定結果を重複領域推定部143へ出力し、相対位置情報をライブ画像更新部123及びモザイク画像生成部126へ出力する動作を行っている。   The relative position calculation unit 142 determines the relative position between the alignment frame image and the alignment mosaic image based on the comparison result by the comparison unit 141, and outputs the determination result to the overlapping region estimation unit 143. An operation of outputting information to the live image update unit 123 and the mosaic image generation unit 126 is performed.

重複領域推定部143は、過去の位置合わせ用フレーム画像に関する相対位置の判定結果に基づいて、現在の位置合わせ用フレーム画像と位置合わせ用モザイク画像との重複領域を推定する動作を行っている。例えば、1フレーム前の位置合わせ用フレーム画像に関する相対位置の判定結果から当該フレーム画像と位置合わせ用モザイク画像との重複領域を定め、この重複領域が現在のフレーム画像とモザイク画像との重複領域であると判断する動作が行われる。   The overlapping area estimation unit 143 performs an operation of estimating an overlapping area between the current positioning frame image and the positioning mosaic image based on the determination result of the relative position regarding the past positioning frame image. For example, an overlapping area between the frame image and the positioning mosaic image is determined from the relative position determination result regarding the positioning frame image one frame before, and the overlapping area is an overlapping area between the current frame image and the mosaic image. The operation of determining that there is is performed.

この重複領域推定部143では、現在の位置合わせ用フレーム画像と位置合わせ用モザイク画像との重複領域を推定する際に、位置合わせ用フレーム画像と位置合わせ用の基準画像との重複領域を推定する動作が行われる。   The overlap area estimation unit 143 estimates an overlap area between the alignment frame image and the alignment reference image when estimating the overlap area between the current alignment frame image and the alignment mosaic image. Operation is performed.

比較部141では、重複領域推定部143によって推定された重複領域内の特徴点について比較を行い、比較結果を相対位置演算部142へ出力する動作が行われる。そして、重複領域内の特徴点について比較を行った結果、相対位置が判定できなかった場合に、位置合わせ用フレーム画像の全特徴点と、位置合わせ用モザイク画像のうちマッチング処理の対象となっている位置合わせ用の基準画像に含まれる全特徴点とを比較し、比較結果を相対位置演算部142へ出力する動作が行われる。   In the comparison unit 141, the feature points in the overlap region estimated by the overlap region estimation unit 143 are compared, and an operation of outputting the comparison result to the relative position calculation unit 142 is performed. Then, as a result of comparing the feature points in the overlap region, if the relative position cannot be determined, all the feature points of the alignment frame image and the mosaic image for alignment are subject to matching processing. All the feature points included in the existing reference image for alignment are compared, and an operation for outputting the comparison result to the relative position calculation unit 142 is performed.

また、最初の位置合わせ用フレーム画像について、位置合わせ用フレーム画像の全特徴点と基準画像に含まれる全特徴点とを比較し、比較結果を相対位置演算部142へ出力する動作が行われる。つまり、1フレーム目の位置合わせ用フレーム画像については、当該フレーム画像の全特徴点と基準画像の全特徴点とを比較して相対位置が判定される。一方、2フレーム目以降の位置合わせ用フレーム画像については、まず、過去のフレーム画像に関する相対位置の判定結果から推定された重複領域内の特徴点を比較して相対位置が判定される。このとき、相対位置が判定できなければ、フレーム画像の全特徴点と基準画像の全特徴点とを比較して相対位置が判定される。   Further, for the first alignment frame image, all feature points of the alignment frame image are compared with all feature points included in the reference image, and an operation of outputting the comparison result to the relative position calculation unit 142 is performed. That is, the relative position of the first alignment frame image is determined by comparing all feature points of the frame image with all feature points of the reference image. On the other hand, for the second and subsequent frame images for alignment, first, the relative position is determined by comparing the feature points in the overlapping region estimated from the relative position determination result for the past frame image. At this time, if the relative position cannot be determined, the relative position is determined by comparing all the feature points of the frame image with all the feature points of the reference image.

ここで、最初のフレーム画像とは、例えば、モザイク画像の作成途中で一旦撮影を中断させ、その後撮影を再開させるようなケースにおいて、撮影再開後に最初に取得されるフレーム画像のことである。   Here, the first frame image is, for example, a frame image that is first acquired after resuming photographing in a case where photographing is temporarily interrupted during the creation of a mosaic image and then photographing is resumed.

一般に、画像の一部が重複している2つの静止画像からそれぞれ特徴点を抽出し、これらの画像間で対応する特徴点の組を探し出す場合、両画像の重複領域から特徴点を抽出して対応する特徴点の組を探す方が、画像全体から特徴点を抽出して探すよりも誤対応の発生確率は低くなる。つまり、重複領域内の特徴点について優先的に比較を行って相対位置を判定させることによって、位置合わせ用フレーム画像の位置合わせに成功する確率を向上させることができる。さらに、画像内の全特徴点について比較を行う場合に比べて、位置合わせの速度を向上させることができる。   In general, when extracting feature points from two still images that overlap part of an image and finding a pair of corresponding feature points between these images, extract the feature points from the overlapping area of both images. Searching for a pair of corresponding feature points has a lower probability of occurrence of a false response than extracting and searching for feature points from the entire image. That is, by comparing the feature points in the overlapping region with priority and determining the relative position, it is possible to improve the probability of successful alignment of the alignment frame image. Furthermore, the alignment speed can be improved as compared with the case where all feature points in the image are compared.

ここでは、特徴量抽出部131が、現在の位置合わせ用フレーム画像から特徴点を抽出する際に、重複領域推定部143によって推定された重複領域から特徴点を抽出する。そして、重複領域内の特徴点だけでは相対位置が判定できなかった場合に、重複領域以外の領域からも特徴点を抽出する動作が行われるものとする。   Here, when the feature amount extraction unit 131 extracts feature points from the current alignment frame image, the feature amount extraction unit 131 extracts feature points from the overlap region estimated by the overlap region estimation unit 143. Then, when the relative position cannot be determined only by the feature points in the overlapping area, an operation of extracting the feature points from the area other than the overlapping area is performed.

ライブ画像更新部123では、表示用モザイク画像上に表示用フレーム画像によって構成される動画像をライブ画像として表示する際の表示位置を相対位置演算部142による相対位置の判定結果に基づいて更新し、その表示データをディスプレイ110へ出力する動作が行われる。   The live image update unit 123 updates the display position when the moving image constituted by the display frame image is displayed as a live image on the display mosaic image based on the relative position determination result by the relative position calculation unit 142. Then, an operation of outputting the display data to the display 110 is performed.

<ライブ画面>
図4及び図5は、図1の拡大観察装置1におけるライブ画像表示時の動作の一例を模式的に示した説明図である。図4には、カメラ210によって撮影された動画像A1及び表示用モザイク画像A3が示されている。また、図5には、モザイク画像A3上に動画像A1がライブ画像として配置されたライブ画面111が示されている。
<Live screen>
4 and 5 are explanatory views schematically showing an example of an operation at the time of displaying a live image in the magnification observation apparatus 1 of FIG. FIG. 4 shows a moving image A1 and a display mosaic image A3 captured by the camera 210. FIG. 5 shows a live screen 111 in which the moving image A1 is arranged as a live image on the mosaic image A3.

動画像A1は、一定のフレームレートで繰返し生成される表示用フレーム画像A2によって構成される。例えば、15fpsで表示用フレーム画像A2が生成される。ここでは、撮影倍率やフォーカス位置は、固定されているものとする。   The moving image A1 is composed of a display frame image A2 that is repeatedly generated at a constant frame rate. For example, the display frame image A2 is generated at 15 fps. Here, it is assumed that the photographing magnification and the focus position are fixed.

表示用モザイク画像A3は、保存用モザイク画像をライブ画面表示用に縮小して作成されたモザイク画像である。   The display mosaic image A3 is a mosaic image created by reducing the storage mosaic image for live screen display.

ライブ画面111は、ディスプレイ110上に表示されるモニター画面であり、作成中の表示用モザイク画像A3及び動画像A1が表示されている。ライブ画面111では、動画像A1が、現在の位置合わせ用フレーム画像と位置合わせ用モザイク画像との間のパターンマッチングによって判定された相対位置から決定された表示位置に配置されている。   The live screen 111 is a monitor screen displayed on the display 110, and displays a display mosaic image A3 and a moving image A1 that are being created. On the live screen 111, the moving image A1 is arranged at a display position determined from a relative position determined by pattern matching between the current alignment frame image and the alignment mosaic image.

つまり、撮影中の動画像A1が作成中の表示用モザイク画像A3上の適切な位置にライブ画像として表示されるので、ユーザは、撮影中の視野と作成中のモザイク画像との位置関係を確認しながらフレーム画像を取り込んでモザイク画像と連結させることができる。   That is, since the moving image A1 being shot is displayed as a live image at an appropriate position on the display mosaic image A3 being created, the user confirms the positional relationship between the field of view being shot and the mosaic image being created. However, it is possible to capture the frame image and connect it to the mosaic image.

<パターンマッチング>
図6(a)及び(b)は、図1の拡大観察装置1におけるパターンマッチング動作の一例を示した図であり、基準画像B1及びフレーム画像B2からそれぞれ抽出された全特徴点B3の比較によってこれらの特徴点間の正対応が抽出される様子が示されている。図6(a)には、基準画像B1から抽出された特徴点B3をフレーム画像B2内の各特徴点B3と比較している様子が示され、図6(b)には、特徴点B3の比較に基づいて抽出された特徴点間の正対応が示されている。
<Pattern matching>
FIGS. 6A and 6B are diagrams showing an example of the pattern matching operation in the magnification observation apparatus 1 in FIG. 1, and by comparing all feature points B3 extracted from the reference image B1 and the frame image B2, respectively. The manner in which the positive correspondence between these feature points is extracted is shown. FIG. 6A shows a state in which the feature point B3 extracted from the reference image B1 is compared with each feature point B3 in the frame image B2, and FIG. 6B shows the feature point B3. A positive correspondence between feature points extracted based on the comparison is shown.

基準画像B1は、作成中のモザイク画像の一部であり、パターンマッチングの処理対象としてモザイク画像から予め抽出される。例えば、最後に連結されたフレーム画像が基準画像として抽出される。或いは、モザイク画像に対して最後に連結されたフレーム画像と現在のフレーム画像との重複領域の大きさが一定レベルを下回ると、モザイク画像に対して最後に連結されたフレーム画像と隣接する他のフレーム画像を基準画像としてモザイク画像から抽出することも考えられる。   The reference image B1 is a part of the mosaic image being created, and is extracted in advance from the mosaic image as a pattern matching processing target. For example, the last connected frame image is extracted as the reference image. Alternatively, when the size of the overlap region between the frame image last connected to the mosaic image and the current frame image is below a certain level, the frame image connected last to the mosaic image It is also conceivable to extract a frame image from a mosaic image as a reference image.

基準画像B1及びフレーム画像B2間の位置関係が不明な場合、画像全体を対象として特徴点B3の抽出が行われる。そして、基準画像B1から抽出された各特徴点B3について、類似する特徴点がフレーム画像B2内に存在するか否かを特徴点間の比較によって判断する。   If the positional relationship between the reference image B1 and the frame image B2 is unknown, the feature point B3 is extracted for the entire image. Then, for each feature point B3 extracted from the reference image B1, whether or not a similar feature point exists in the frame image B2 is determined by comparison between the feature points.

特徴点間の類似度は、特徴点B3を含む所定の領域、例えば、5ピクセル×5ピクセルの矩形領域について算出される輝度値の二乗誤差和又は正規化相関によって測ることができる。   The similarity between feature points can be measured by a squared error sum or normalized correlation of luminance values calculated for a predetermined region including the feature point B3, for example, a rectangular region of 5 pixels × 5 pixels.

特徴点間の正対応は、この様な比較結果に基づいて抽出される。例えば、同一方向に並行移動している特徴点間の対応が正対応として抽出される。基準画像B1及びフレーム画像B2間の相対位置は、抽出された特徴点間の正対応に基づいて特徴点の画像内における移動量を判断し、この移動量から基準画像B1に対するフレーム画像B2の移動量を判断することによって判定される。   Positive correspondences between feature points are extracted based on such comparison results. For example, the correspondence between feature points moving in parallel in the same direction is extracted as a positive correspondence. The relative position between the reference image B1 and the frame image B2 determines the movement amount of the feature point in the image based on the positive correspondence between the extracted feature points, and the movement of the frame image B2 with respect to the reference image B1 based on the movement amount. It is determined by determining the amount.

図7(a)及び(b)は、図1の拡大観察装置1におけるパターンマッチング動作の一例を示した図であり、基準画像及び第(n−1)フレーム画像間の相対位置から推定された重複領域B5,B6内の特徴点B3が比較される様子が示されている。図7(a)には、基準画像及び第(n−1)フレーム画像間の相対位置から求められた両画像の重複領域B4が示されている。また、図7(b)には、基準画像及び第(n−1)フレーム画像間の相対位置から推定された基準画像及び第nフレーム画像の重複領域B5,B6が示されている。   FIGS. 7A and 7B are diagrams showing an example of the pattern matching operation in the magnification observation apparatus 1 in FIG. 1, and are estimated from the relative positions between the reference image and the (n−1) th frame image. A state in which the feature point B3 in the overlapping regions B5 and B6 is compared is shown. FIG. 7A shows an overlapping region B4 of both images obtained from the relative position between the reference image and the (n−1) th frame image. FIG. 7B shows overlapping regions B5 and B6 of the reference image and the nth frame image estimated from the relative position between the reference image and the (n−1) th frame image.

基準画像B1及びフレーム画像B2間の大まかな位置関係が予めわかっている場合には、一方の画像から適切にテンプレート領域を抽出し、他方の画像の対応する領域付近を探索することによって、これらの画像間の相対位置をより高精度に判定することができる。   When a rough positional relationship between the reference image B1 and the frame image B2 is known in advance, a template region is appropriately extracted from one image, and these regions are searched by searching for the vicinity of the corresponding region of the other image. The relative position between images can be determined with higher accuracy.

すなわち、1フレーム前の第(n−1)フレーム画像と基準画像との間の相対位置の判定結果からこれらの画像の重複領域B4を求める。この重複領域B4を現在の第nフレーム画像と基準画像との重複領域B5,B6であると判断する。そして、基準画像の重複領域B5内の各特徴点B3について、第nフレーム画像の重複領域B6内から類似する特徴点を抽出することによって、これらの画像間の相対位置が判定される。   That is, the overlapping region B4 of these images is obtained from the determination result of the relative position between the (n-1) th frame image one frame before and the reference image. The overlapping area B4 is determined to be the overlapping areas B5 and B6 between the current nth frame image and the reference image. Then, for each feature point B3 in the overlapping region B5 of the reference image, a similar feature point is extracted from the overlapping region B6 of the nth frame image, thereby determining the relative position between these images.

類似する特徴点の抽出は、基準画像の重複領域B5内の各特徴点B3について、第nフレーム画像の重複領域B6から上記特徴点に対応する位置付近の所定領域を抽出し、この領域内を探索することによって行われる。   Similar feature points are extracted by extracting a predetermined region near the position corresponding to the feature point from the overlap region B6 of the nth frame image for each feature point B3 in the overlap region B5 of the reference image. Done by exploring.

本実施の形態では、2フレーム目以降の位置合わせ用フレーム画像と位置合わせ用モザイク画像との位置合わせと、取込み指示に基づいて取り込んだフレーム画像とモザイク画像との連結処理とに対して、重複領域内の特徴点について比較を行う図7の方法が採用される。一方、1フレーム目の位置合わせ用フレーム画像と位置合わせ用モザイク画像との位置合わせや、重複領域内の特徴点についての比較では相対位置が判定できなかった場合には、全特徴点について比較を行う図6の方法が採用される。   In the present embodiment, there is an overlap between the alignment of the alignment frame image and the alignment mosaic image in the second and subsequent frames, and the connection processing of the frame image acquired based on the acquisition instruction and the mosaic image. The method shown in FIG. 7 for comparing feature points in the region is employed. On the other hand, if the relative position cannot be determined by alignment between the alignment frame image of the first frame and the mosaic image for alignment, or comparison of feature points in the overlapping area, comparison is performed for all feature points. The method of FIG. 6 to perform is employ | adopted.

図8(a)及び(b)は、図1の拡大観察装置1におけるライブ画像取込み時の動作の一例を示した遷移図であり、図8(a)には、基準画像とその一部が重複しているライブ画像が示され、図8(b)には、取込み指示後のモザイク画像上のライブ画像が示されている。   FIGS. 8A and 8B are transition diagrams showing an example of an operation at the time of capturing a live image in the magnification observation apparatus 1 in FIG. 1. FIG. 8A shows a reference image and a part thereof. An overlapping live image is shown, and FIG. 8B shows a live image on the mosaic image after the capture instruction.

この例では、モザイク画像から抽出された基準画像が、破線で示された矩形の枠内に配置されている。これに対して、ライブ画像は、実線で示された矩形の枠内に配置されている。ライブ画像を示す矩形枠の表示位置は、基準画像及び現在の位置合わせ用フレーム画像間の相対位置の判定結果に基づいて決定される。   In this example, the reference image extracted from the mosaic image is arranged in a rectangular frame indicated by a broken line. On the other hand, the live image is arranged in a rectangular frame indicated by a solid line. The display position of the rectangular frame indicating the live image is determined based on the determination result of the relative position between the reference image and the current alignment frame image.

図8(a)の状態でフレーム画像の取込みを指示すれば、表示中の表示用フレーム画像に対応するフレーム画像が取り込まれ、保存用モザイク画像と連結される。この連結によって作成された新たな保存用モザイク画像から表示用モザイク画像が作成され、表示中の表示用モザイク画像が更新される。このとき、基準画像も取り込まれたフレーム画像に対応するものに変更される。   If the capture of the frame image is instructed in the state of FIG. 8A, a frame image corresponding to the display frame image being displayed is captured and connected to the storage mosaic image. A display mosaic image is created from the new storage mosaic image created by this connection, and the display mosaic image being displayed is updated. At this time, the reference image is also changed to one corresponding to the captured frame image.

図9のステップS101〜S116は、図1の拡大観察装置1におけるライブ画像表示時の動作の一例を示したフローチャートである。まず、特徴量抽出部131は、位置合わせ用フレーム画像を取得し、それが最初のフレーム画像であれば、画像全体から特徴点を抽出する(ステップS101〜103)。   Steps S101 to S116 in FIG. 9 are flowcharts illustrating an example of an operation when displaying a live image in the magnification observation apparatus 1 in FIG. First, the feature quantity extraction unit 131 acquires a position alignment frame image, and if it is the first frame image, extracts a feature point from the entire image (steps S101 to S103).

次に、相対位置判定部132は、フレーム画像の全特徴点と基準画像の全特徴点とについて比較を行い、現在の位置合わせ用フレーム画像と位置合わせ用モザイク画像との間の相対位置を判定する(ステップS104)。このとき、相対位置が判定できず、位置合わせに失敗すると、ユーザに対してマッチングエラーが報知される(ステップS105,S114)。位置合わせに成功した場合には、相対位置の判定結果に基づいてライブ画像の表示位置が決定され、ライブ画像が更新される(ステップS105〜S107)。   Next, the relative position determination unit 132 compares all feature points of the frame image with all feature points of the reference image, and determines a relative position between the current alignment frame image and the alignment mosaic image. (Step S104). At this time, if the relative position cannot be determined and alignment fails, a matching error is notified to the user (steps S105 and S114). If the alignment is successful, the display position of the live image is determined based on the relative position determination result, and the live image is updated (steps S105 to S107).

一方、取得した位置合わせ用フレーム画像が最初のフレーム画像でなければ、相対位置判定部132は、前回の位置合わせの結果、すなわち、1フレーム前の位置合わせ用フレーム画像と位置合わせ用モザイク画像との間の相対位置の判定結果を参照して、現在の位置合わせ用フレーム画像と基準画像との間の重複領域を推定する(ステップS102,S110,S111)。特徴量抽出部131は、この推定された重複領域から特徴点を抽出する。   On the other hand, if the acquired alignment frame image is not the first frame image, the relative position determination unit 132 determines the result of the previous alignment, that is, the alignment frame image one frame before and the alignment mosaic image. With reference to the determination result of the relative position between, the overlap region between the current alignment frame image and the reference image is estimated (steps S102, S110, S111). The feature amount extraction unit 131 extracts feature points from the estimated overlap region.

次に、相対位置判定部132は、現在の位置合わせ用フレーム画像と基準画像とから推定された重複領域内の特徴点について比較を行い、これらの画像間の相対位置を判定する(ステップS112)。このとき、相対位置が判定できず、位置合わせに失敗すると、ステップS103以降の処理手順が実行される(ステップS113)。位置合わせに成功した場合には、相対位置の判定結果に基づいてライブ画像の表示位置が決定され、ライブ画像が更新される(ステップS113,S106,S107)。   Next, the relative position determination unit 132 compares the feature points in the overlapping region estimated from the current alignment frame image and the reference image, and determines the relative position between these images (step S112). . At this time, if the relative position cannot be determined and the alignment fails, the processing procedure after step S103 is executed (step S113). When the alignment is successful, the display position of the live image is determined based on the relative position determination result, and the live image is updated (steps S113, S106, and S107).

ライブ画像の更新後、フレーム画像の取込み指示があれば、当該取込み指示に基づいてフレーム画像を取り込んで連結処理が行われ、表示用及び保存用のモザイク画像が更新される(ステップS108,S115,S116)。ステップS101からS108までの処理手順は、撮影終了が指示されるまで繰り返される(ステップS109)。   After the live image is updated, if there is a frame image capture instruction, the frame image is captured based on the capture instruction and a connection process is performed to update the display and storage mosaic images (steps S108, S115, S115). S116). The processing procedure from step S101 to S108 is repeated until the end of photographing is instructed (step S109).

本実施の形態によれば、撮影中の動画像が作成中のモザイク画像上の適切な位置にライブ画像として表示されるので、撮影中の視野と作成中のモザイク画像との位置関係をユーザに確認させながらフレーム画像を取り込んでモザイク画像と連結させることができる。また、フレーム画像及びモザイク画像から抽出した特徴点の比較によってこれらの画像間の相対位置を判定するので、システム構成が複雑化するのを抑制することができる。さらに、特徴点の比較を行う際、過去のフレーム画像に関する相対位置の判定結果に基づいて現在のフレーム画像とモザイク画像との重複領域を推定し、この重複領域内の特徴点について比較を行うので、動画像を構成するフレーム画像とモザイク画像との位置合わせの精度を向上させることができる。   According to the present embodiment, since the moving image being shot is displayed as a live image at an appropriate position on the mosaic image being created, the positional relationship between the field of view being shot and the mosaic image being created is shown to the user. While confirming, it is possible to capture the frame image and connect it to the mosaic image. Moreover, since the relative position between these images is determined by comparing the feature points extracted from the frame image and the mosaic image, it is possible to prevent the system configuration from becoming complicated. Furthermore, when comparing feature points, an overlap region between the current frame image and the mosaic image is estimated based on the determination result of the relative position with respect to the past frame image, and the feature points in this overlap region are compared. Thus, it is possible to improve the accuracy of the alignment between the frame image and the mosaic image constituting the moving image.

また、取込み指示に基づいて取り込んだフレーム画像に対して、ライブ位置合わせ部125による相対位置の判定結果を利用することにより、位置合わせ用モザイク画像よりも高解像度の位置合わせを行ってフレーム画像の張り合わせを行うので、処理負荷を増大させることなく、位置合わせの精度を向上させることができる。   Further, by using the relative position determination result by the live alignment unit 125 for the frame image captured based on the capture instruction, the frame image is aligned with higher resolution than the alignment mosaic image. Since the bonding is performed, the alignment accuracy can be improved without increasing the processing load.

なお、本実施の形態では、位置合わせ用フレーム画像及び位置合わせ用モザイク画像を比較する際の特徴量として、エッジが交差する頂点が抽出される場合の例について説明したが、本発明はこれに限られるものではない。例えば、画像上の所定エリアについて、エリア内のコントラスト値を特徴量として位置合わせ用フレーム画像及び位置合わせ用モザイク画像からそれぞれ抽出し、これらの画像間で比較するようなものであっても良い。また、エッジやコントラストを抽出することなく重複領域内の所定エリアについて、エリア内の特徴量に基づいてテンプレートマッチングを実行するようにしても良い。   In the present embodiment, an example in which vertices where edges intersect is extracted as a feature amount when comparing the alignment frame image and the alignment mosaic image has been described. It is not limited. For example, for a predetermined area on the image, a contrast value in the area may be extracted as a feature amount from the alignment frame image and the alignment mosaic image, and compared between these images. Further, template matching may be executed on a predetermined area in the overlap region based on the feature amount in the area without extracting an edge or contrast.

また、本実施の形態では、重複領域内の特徴量の比較では相対位置が判定できなかった場合に、位置合わせ用フレーム画像の全特徴点と位置合わせ用モザイク画像から抽出された基準画像の全特徴点とを比較して相対位置の判定が行われる場合の例について説明したが、本発明はこれに限られるものではない。例えば、重複領域内の特徴量の比較では相対位置が判定できなかった場合や、最初に取得されたフレーム画像について相対位置を判定する場合に、位置合わせ用フレーム画像の全特徴量と位置合わせ用モザイク画像の全特徴量とを比較して相対位置の判定を行うようなものであっても良い。   In the present embodiment, when the relative position cannot be determined by comparing the feature amounts in the overlapping region, all the feature points of the alignment frame image and all of the reference images extracted from the alignment mosaic image are used. Although the example in which the relative position is determined by comparing with the feature points has been described, the present invention is not limited to this. For example, if the relative position cannot be determined by comparing the feature values in the overlapping region, or if the relative position is determined for the first acquired frame image, all the feature values of the alignment frame image are used for alignment. The relative position may be determined by comparing all the feature values of the mosaic image.

本発明の実施の形態による撮像装置の概略構成の一例を示したシステム図であり、撮像装置の一例として拡大観察装置1が示されている。1 is a system diagram showing an example of a schematic configuration of an imaging apparatus according to an embodiment of the present invention, and a magnification observation apparatus 1 is shown as an example of the imaging apparatus. 図1の拡大観察装置1の要部における構成例を示したブロック図であり、システム本体部100内の機能構成の一例が示されている。FIG. 2 is a block diagram illustrating a configuration example of a main part of the magnification observation apparatus 1 in FIG. 1, in which an example of a functional configuration in a system main body unit 100 is illustrated. 図2のシステム本体部100におけるマッチング処理部125cの構成例を示したブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a matching processing unit 125c in the system main body unit 100 of FIG. 図1の拡大観察装置1におけるライブ画像表示時の動作の一例を模式的に示した説明図であり、動画像A1及び表示用モザイク画像A3が示されている。It is explanatory drawing which showed typically an example of the operation | movement at the time of the live image display in the magnification observation apparatus 1 of FIG. 1, and the moving image A1 and the mosaic image A3 for a display are shown. 図1の拡大観察装置1におけるライブ画像表示時の動作の一例を模式的に示した説明図であり、ライブ画面111が示されている。It is explanatory drawing which showed typically an example of the operation | movement at the time of the live image display in the magnification observation apparatus 1 of FIG. 1, and the live screen 111 is shown. 図1の拡大観察装置1におけるパターンマッチング動作の一例を示した図であり、全特徴点B3の比較によって特徴点間の正対応が抽出される様子が示されている。It is the figure which showed an example of the pattern matching operation | movement in the magnification observation apparatus 1 of FIG. 1, and the mode that the positive correspondence between feature points is extracted by the comparison of all the feature points B3 is shown. 図1の拡大観察装置1におけるパターンマッチング動作の一例を示した図であり、重複領域B5,B6内の特徴点B3が比較される様子が示されている。It is the figure which showed an example of the pattern matching operation | movement in the magnification observation apparatus 1 of FIG. 1, and a mode that the feature point B3 in overlap area | region B5, B6 is compared is shown. 図1の拡大観察装置1におけるライブ画像取込み時の動作の一例を示した遷移図である。It is the transition diagram which showed an example of the operation | movement at the time of live image taking in the magnification observation apparatus 1 of FIG. 図1の拡大観察装置1におけるライブ画像表示時の動作の一例を示したフローチャートである。3 is a flowchart illustrating an example of an operation when displaying a live image in the magnification observation apparatus 1 in FIG. 1.

符号の説明Explanation of symbols

1 拡大観察装置
100 システム本体部
110 ディスプレイ
121,127 表示用縮小部
122 表示用モザイク画像記憶部
123 ライブ画像更新部
124 保存用モザイク画像記憶部
125 ライブ位置合わせ部
125a,125b 位置合わせ用縮小部
125c マッチング処理部
126 モザイク画像生成部
126a 保存用位置合わせ部
126b 画像連結部
131 特徴量抽出部
132 相対位置判定部
141 比較部
142 相対位置演算部
143 重複領域推定部
200 カメラ部
210 カメラ
220 可動ホルダー
221,231,232 位置調整つまみ
230 可動ステージ
300 コンソール
A1 動画像
A2 表示用フレーム画像
A3 表示用モザイク画像
DESCRIPTION OF SYMBOLS 1 Magnification observation apparatus 100 System main-body part 110 Display 121,127 Display reduction part 122 Display mosaic image memory | storage part 123 Live image update part 124 Storage mosaic image memory | storage part 125 Live position alignment part 125a, 125b Position reduction part 125c Matching processing unit 126 Mosaic image generation unit 126a Storage registration unit 126b Image connection unit 131 Feature amount extraction unit 132 Relative position determination unit 141 Comparison unit 142 Relative position calculation unit 143 Overlapping region estimation unit 200 Camera unit 210 Camera 220 Movable holder 221 , 231, 232 Position adjustment knob 230 Movable stage 300 Console A1 Moving image A2 Display frame image A3 Display mosaic image

Claims (6)

検査対象物を載せたまま異なる2方向に移動させることができる可動ステージと、
上記可動ステージと対向配置され、上記検査対象物を撮影して、連続する複数のフレーム画像からなる動画像を生成するカメラと、
上記カメラの実視野よりも視野の広いモザイク画像を保持するモザイク画像保持手段と、
上記フレーム画像及び上記モザイク画像から特徴量を抽出する特徴量抽出手段と、
上記特徴量の比較によって、上記フレーム画像及び上記モザイク画像間の相対位置を判定する相対位置判定手段と、
上記相対位置の判定結果に基づいて、上記フレーム画像の上記モザイク画像に対する表示位置を更新し、上記モザイク画像上に上記動画像を表示するライブ画像表示手段とを備え、
上記相対位置判定手段は、前回のフレーム画像と上記モザイク画像との間の相対位置の判定結果から求められた前回のフレーム画像と上記モザイク画像の重複領域を、現在のフレーム画像と上記モザイク画像の重複領域として推定し、推定された該重複領域内の特徴量を比較することを特徴とする撮像装置。
A movable stage that can be moved in two different directions with the inspection object placed thereon;
A camera that is arranged opposite to the movable stage, shoots the inspection object, and generates a moving image composed of a plurality of continuous frame images;
Mosaic image holding means for holding a mosaic image having a wider field of view than the actual field of view of the camera;
Feature amount extraction means for extracting feature amounts from the frame image and the mosaic image;
Relative position determination means for determining a relative position between the frame image and the mosaic image by comparing the feature amounts;
Live image display means for updating the display position of the frame image with respect to the mosaic image based on the determination result of the relative position, and displaying the moving image on the mosaic image,
The relative position determination unit is configured to determine an overlap region between the previous frame image and the mosaic image obtained from a determination result of a relative position between the previous frame image and the mosaic image, and to determine an overlap area between the current frame image and the mosaic image. An imaging apparatus characterized by estimating as an overlap area and comparing the estimated feature quantities in the overlap area.
上記相対位置判定手段は、重複領域内の特徴量を比較した結果、相対位置が判定できなかった場合に、フレーム画像の全特徴量とモザイク画像の特徴量とを比較して相対位置を判定することを特徴とする請求項1に記載の撮像装置。   When the relative position cannot be determined as a result of comparing the feature amounts in the overlapping area, the relative position determination unit determines the relative position by comparing all the feature amounts of the frame image and the feature amount of the mosaic image. The imaging apparatus according to claim 1. 上記相対位置判定手段が、最初のフレーム画像について、フレーム画像の全特徴量とモザイク画像の特徴量とを比較して相対位置を判定することを特徴とする請求項1又は2に記載の撮像装置。   3. The imaging apparatus according to claim 1, wherein the relative position determination unit determines the relative position of the first frame image by comparing all the feature amounts of the frame image and the feature amount of the mosaic image. . 取込み指示に基づいて上記フレーム画像を取り込み、取り込んだフレーム画像に関する上記相対位置の判定結果に基づいて当該フレーム画像を上記モザイク画像に張り合わせ、新たなモザイク画像を生成するモザイク画像生成手段を備えたことを特徴とする請求項1に記載の撮像装置。   Mosaic image generating means for capturing the frame image based on the capture instruction, pasting the frame image on the mosaic image based on the determination result of the relative position regarding the captured frame image, and generating a new mosaic image The imaging apparatus according to claim 1. 上記特徴量抽出手段は、上記モザイク画像に対して最後に張り合わされたフレーム画像を基準画像として、当該基準画像内の特徴量を抽出し、
上記相対位置判定手段は、上記フレーム画像の特徴量と上記基準画像の特徴量とを比較することによって、上記フレーム画像及び上記モザイク画像間の相対位置を判定することを特徴とする請求項4に記載の撮像装置。
The feature amount extraction unit extracts a feature amount in the reference image by using the frame image finally pasted to the mosaic image as a reference image,
The relative position determination unit determines a relative position between the frame image and the mosaic image by comparing a feature amount of the frame image with a feature amount of the reference image. The imaging device described.
上記動画像を構成するフレーム画像を縮小して位置合わせ用フレーム画像を生成する第1位置合わせ用縮小手段と、
縮小前のフレーム画像を張り合わせて保存用モザイク画像を生成するモザイク画像生成手段と、
上記保存用モザイク画像を縮小して位置合わせ用モザイク画像を生成する第2位置合わせ用縮小手段と、
上記動画像を構成するフレーム画像を縮小して表示用フレーム画像を生成し、上記保存用モザイク画像を縮小して表示用モザイク画像を生成する表示用縮小手段とを備え、
上記特徴量抽出手段が、上記位置合わせ用フレーム画像及び上記位置合わせ用モザイク画像から特徴量を抽出し、
上記相対位置判定手段が、上記位置合わせ用フレーム画像及び上記位置合わせ用モザイク画像間の相対位置を判定し、
上記ライブ画像表示手段が、上記表示用モザイク画像上に上記表示用フレーム画像によって構成される動画像をライブ画像として表示し、
上記モザイク画像生成手段が、上記位置合わせ用モザイク画像よりも高い解像度でフレーム画像及び保存用モザイク画像間の相対位置を推定して当該フレーム画像を当該保存用モザイク画像に張り合わせ、新たな保存用モザイク画像を生成することを特徴とする請求項1に記載の撮像装置。

A first alignment reduction means for reducing the frame image constituting the moving image to generate an alignment frame image;
Mosaic image generation means for generating a storage mosaic image by pasting together the frame images before reduction,
A second alignment reduction unit that reduces the storage mosaic image to generate an alignment mosaic image;
Reducing the frame image constituting the moving image to generate a display frame image, and reducing the storage mosaic image to generate a display mosaic image;
The feature amount extraction means extracts a feature amount from the alignment frame image and the alignment mosaic image,
The relative position determination means determines a relative position between the alignment frame image and the alignment mosaic image;
The live image display means displays a moving image constituted by the display frame image on the display mosaic image as a live image,
The mosaic image generating means estimates a relative position between the frame image and the storage mosaic image at a higher resolution than the registration mosaic image, and pastes the frame image on the storage mosaic image, thereby creating a new storage mosaic. The imaging apparatus according to claim 1, wherein an image is generated.

JP2008317073A 2008-12-12 2008-12-12 Imaging device Expired - Fee Related JP5096301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008317073A JP5096301B2 (en) 2008-12-12 2008-12-12 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008317073A JP5096301B2 (en) 2008-12-12 2008-12-12 Imaging device

Publications (2)

Publication Number Publication Date
JP2010141697A JP2010141697A (en) 2010-06-24
JP5096301B2 true JP5096301B2 (en) 2012-12-12

Family

ID=42351409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008317073A Expired - Fee Related JP5096301B2 (en) 2008-12-12 2008-12-12 Imaging device

Country Status (1)

Country Link
JP (1) JP5096301B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106897967A (en) * 2017-02-08 2017-06-27 合网络技术(北京)有限公司 Background image generation method and device

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5537320B2 (en) * 2010-07-27 2014-07-02 オリンパス株式会社 Microscope system
JP5732353B2 (en) 2011-08-31 2015-06-10 株式会社キーエンス Magnification observation apparatus, magnification observation method, and magnification observation program
JP5860649B2 (en) * 2011-09-27 2016-02-16 オリンパス株式会社 Microscope system
JP5846844B2 (en) 2011-10-14 2016-01-20 株式会社キーエンス Magnifying observation device
DE102012009257B4 (en) * 2012-05-02 2023-10-05 Leica Microsystems Cms Gmbh Method for execution when operating a microscope and microscope
JP6325816B2 (en) 2013-12-27 2018-05-16 株式会社キーエンス Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium
JP6325815B2 (en) 2013-12-27 2018-05-16 株式会社キーエンス Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium
JP2015127779A (en) 2013-12-27 2015-07-09 株式会社キーエンス Microscope and magnifying observation method using the same
JP5975127B2 (en) * 2015-02-26 2016-08-23 カシオ計算機株式会社 Imaging apparatus and program
JP6654980B2 (en) * 2016-07-22 2020-02-26 株式会社キーエンス Magnifying observation device
CN111583118B (en) * 2020-05-13 2023-09-29 创新奇智(北京)科技有限公司 Image stitching method and device, storage medium and electronic equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08181903A (en) * 1994-12-26 1996-07-12 Olympus Optical Co Ltd Image pickup device
JP3832895B2 (en) * 1996-05-28 2006-10-11 キヤノン株式会社 Image composition apparatus and image composition system
JP5103899B2 (en) * 2006-12-28 2012-12-19 カシオ計算機株式会社 Image composition apparatus, image composition program, and image composition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106897967A (en) * 2017-02-08 2017-06-27 合网络技术(北京)有限公司 Background image generation method and device

Also Published As

Publication number Publication date
JP2010141697A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5096301B2 (en) Imaging device
JP5096303B2 (en) Imaging device
JP5096302B2 (en) Imaging device
JP5154392B2 (en) Imaging device
JP5096297B2 (en) Imaging device
JP5091099B2 (en) Imaging device
JP2007201948A (en) Imaging apparatus, image processing method and program
JP5699432B2 (en) Image processing device
US20170111574A1 (en) Imaging apparatus and imaging method
JP2010211255A (en) Imaging apparatus, image processing method, and program
JP5209099B2 (en) Imaging device
JP5209100B2 (en) Imaging device
JP5149984B2 (en) Imaging device
JP2006017632A (en) Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method
JP5209137B2 (en) Imaging device
JP5209138B2 (en) Imaging device
JP5209139B2 (en) Imaging device
JP5209097B2 (en) Imaging device
JP5209098B2 (en) Imaging device
JP5438852B2 (en) microscope
JP5310361B2 (en) Imaging apparatus, image processing method, and program
JP6525693B2 (en) Image processing apparatus and image processing method
JP2008085380A (en) Imaging device
JP2019114968A (en) Information processing device, imaging guide display program, and imaging guide display method
JP2011175663A (en) Imaging device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120920

R150 Certificate of patent or registration of utility model

Ref document number: 5096301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees