JP2009273655A - Image processing system - Google Patents
Image processing system Download PDFInfo
- Publication number
- JP2009273655A JP2009273655A JP2008127725A JP2008127725A JP2009273655A JP 2009273655 A JP2009273655 A JP 2009273655A JP 2008127725 A JP2008127725 A JP 2008127725A JP 2008127725 A JP2008127725 A JP 2008127725A JP 2009273655 A JP2009273655 A JP 2009273655A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light
- irradiation
- shape
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理システムに関する。本発明は、特に、画像を処理する画像処理システムに関する。 The present invention relates to an image processing system. The present invention particularly relates to an image processing system for processing an image.
観察部位の吸光特性が異なる二つの波長の光による二つの映像信号の差を検出することにより、照明光の反射光成分を除去した画像信号を生成する技術が考案されている(例えば、特許文献1参照。)。
しかしながら、上記特許文献に記載の技術では、物体表面の形状に関する情報が失われてしまう。 However, in the technique described in the above patent document, information on the shape of the object surface is lost.
上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、空間的に所定の輝度変化パターンで輝度が変化する照射光を物体に照射する光照射部と、照射光の照射方向を算出する照射方向算出部と、照射光が照射された物体の表面の画像である表面画像を取得する画像取得部と、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、物体の表面の形状を算出する形状算出部とを備える。 In order to solve the above problem, according to a first embodiment of the present invention, in an image processing system, a light irradiation unit that irradiates an object with irradiation light whose luminance changes spatially with a predetermined luminance change pattern; An irradiation direction calculation unit that calculates the irradiation direction of the irradiation light, an image acquisition unit that acquires a surface image that is an image of the surface of the object irradiated with the irradiation light, a difference in the luminance pattern in the surface image with respect to the luminance change pattern, and A shape calculating unit that calculates the shape of the surface of the object based on the irradiation direction.
また、本発明の第2の形態によると、画像処理方法であって、空間的に所定の輝度変化パターンで輝度が変化する照射光を物体に照射する光照射段階と、照射光の照射方向を算出する照射方向算出段階と、照射光が照射された物体の表面の画像である表面画像を取得する画像取得段階と、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、物体の表面の形状を算出する形状算出段階とを備える。 According to a second aspect of the present invention, there is provided an image processing method comprising: a light irradiation stage for irradiating an object with irradiation light whose luminance changes spatially in a predetermined luminance change pattern; and an irradiation direction of the irradiation light. Based on the irradiation direction calculation stage to calculate, the image acquisition stage to acquire the surface image that is the image of the surface of the object irradiated with the irradiation light, the difference of the luminance pattern in the surface image with respect to the luminance change pattern, and the irradiation direction, A shape calculating step of calculating the shape of the surface of the object.
また、本発明の第3の形態によると、画像処理システム用のプログラムであって、コンピュータを、空間的に所定の輝度変化パターンで輝度が変化する照射光を物体に照射する光照射部、照射光の照射方向を算出する照射方向算出部、照射光が照射された物体の表面の画像である表面画像を取得する画像取得部、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、物体の表面の形状を算出する形状算出部として機能させる。 According to a third aspect of the present invention, there is provided a program for an image processing system, wherein a computer irradiates an object with irradiation light whose luminance changes spatially with a predetermined luminance change pattern, and irradiation An irradiation direction calculation unit that calculates an irradiation direction of light, an image acquisition unit that acquires a surface image that is an image of the surface of an object irradiated with irradiation light, a difference in luminance pattern in a surface image with respect to a luminance change pattern, and an irradiation direction Based on this, it is made to function as a shape calculation unit for calculating the shape of the surface of the object.
本発明の第4の形態によると、画像処理システムであって、照射光を物体に照射する光照射部と、光照射部が照射する照射光の照射方向と略同一の方向から、照射光が照射された物体を撮像することにより、物体の表面の画像である表面画像を撮像する撮像部と、表面画像における輝度値に基づいて、照射光を正反射した物体の表面上の位置である正反射位置を算出する正反射位置算出部と、正反射位置における物体の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における物体の表面の形状を算出する形状算出部とを備える。 According to the fourth aspect of the present invention, in the image processing system, the irradiation light is irradiated from a light irradiation unit that irradiates the object with irradiation light, and a direction substantially the same as the irradiation direction of the irradiation light irradiated by the light irradiation unit. An imaging unit that captures a surface image that is an image of the surface of the object by imaging the irradiated object, and a positive position that is a position on the surface of the object that regularly reflects the irradiation light based on the luminance value in the surface image. The object at the specular reflection position is obtained by setting the normal direction of the surface in contact with the surface of the object at the specular reflection position to be the irradiation direction of the irradiation light irradiated at the specular reflection position. And a shape calculating unit for calculating the shape of the surface of the surface.
本発明の第5の形態によると、画像処理方法であって、照射光を物体に照射する光照射段階と、照射光の照射方向と略同一の方向から、照射光が照射された物体を撮像することにより、物体の表面の画像である表面画像を撮像する撮像段階と、表面画像における輝度値に基づいて、照射光を正反射した物体の表面上の位置である正反射位置を算出する正反射位置算出段階と、正反射位置における物体の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における物体の表面の形状を算出する形状算出段階とを備える。 According to a fifth aspect of the present invention, there is provided an image processing method for imaging an object irradiated with irradiation light from a light irradiation step of irradiating the object with irradiation light and a direction substantially the same as the irradiation direction of the irradiation light. Thus, based on the imaging stage for capturing a surface image, which is an image of the surface of the object, and a normal reflection position that is a position on the surface of the object that regularly reflected the irradiation light based on the luminance value in the surface image, Calculates the shape of the surface of the object at the specular reflection position by calculating the reflection position and setting the normal direction of the surface in contact with the surface of the object at the specular reflection position as the irradiation direction of the irradiation light irradiated at the specular reflection position. A shape calculating step.
本発明の第6の形態によると、画像処理ステム用のプログラムであって、コンピュータを、照射光を物体に照射する光照射部、光照射部が照射する照射光の照射方向と略同一の方向から、照射光が照射された物体を撮像することにより、物体の表面の画像である表面画像を撮像する撮像部、表面画像における輝度値に基づいて、照射光を正反射した物体の表面上の位置である正反射位置を算出する正反射位置算出部、正反射位置における物体の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における物体の表面の形状を算出する形状算出部として機能させる。 According to the sixth aspect of the present invention, there is provided a program for an image processing stem, wherein the computer has a light irradiation unit that irradiates an object with irradiation light, and a direction substantially the same as the irradiation direction of the irradiation light irradiated by the light irradiation unit From the imaging unit that captures a surface image that is an image of the surface of the object by imaging the object irradiated with the irradiation light, on the surface of the object that regularly reflects the irradiation light based on the luminance value in the surface image Regular reflection position calculation unit for calculating the regular reflection position, which is the position, the normal direction of the surface in contact with the surface of the object at the regular reflection position is set as the irradiation direction of the irradiation light irradiated to the regular reflection position. It functions as a shape calculation unit for calculating the shape of the surface of the object at the position.
本発明の第7の形態によると、画像処理システムであって、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、物体に照射する光照射部と、光照射部から照射された第1照射光が物体の表面で反射した光、および光照射部から照射された第2照射光が物体の表面で反射した光により、物体の表面の画像である表面画像を撮像する撮像部と、表面画像から、影の領域である影領域を特定する影領域特定部と、第2照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて、第1照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて算出した物体の表面の形状の空間分解能より高い空間分解能で、物体の表面の形状を算出する形状算出部とを備える。 According to a seventh aspect of the present invention, in the image processing system, the first irradiation light that is light in the first wavelength region and the second irradiation light that is light in the second wavelength region shorter than the first wavelength region are provided. A light irradiating unit for irradiating the object, a light reflected from the surface of the object by the first irradiating light irradiated from the light irradiating unit, and a light reflected from the surface of the object by the second irradiating light irradiated from the light irradiating unit The imaging unit that captures the surface image that is the image of the surface of the object, the shadow region specifying unit that specifies the shadow region that is the shadow region from the surface image, and the light that the second irradiation light reflects on the surface of the object The object calculated based on the position and irradiation direction of the shadow area specified from the surface image by the light reflected from the surface of the object based on the position and irradiation direction of the shadow area specified from the surface image by Higher spatial resolution than the surface resolution of the surface , And a shape calculation section that calculates the shape of the surface of the object.
本発明の第8の形態によると、画像処理方法であって、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、物体に照射する光照射段階と、光照射段階において照射された第1照射光が物体の表面で反射した光、および光照射段階において照射された第2照射光が物体の表面で反射した光により、物体の表面の画像である表面画像を撮像する撮像段階と、表面画像から、影の領域である影領域を特定する影領域特定段階と、第2照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて、第1照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて算出した物体の表面の形状の空間分解能より高い空間分解能で、物体の表面の形状を算出する形状算出段階とを備える。 According to an eighth aspect of the present invention, there is provided an image processing method comprising: first irradiation light that is light in a first wavelength region; and second irradiation light that is light in a second wavelength region shorter than the first wavelength region. The light irradiation stage for irradiating the object, the light reflected from the surface of the object by the first irradiation light irradiated in the light irradiation stage, and the light reflected from the surface of the object by the second irradiation light irradiated in the light irradiation stage The imaging step of capturing a surface image that is an image of the surface of the object, the shadow region specifying step of specifying the shadow region that is the shadow region from the surface image, and the light that the second irradiation light reflects on the surface of the object The object calculated based on the position and irradiation direction of the shadow area specified from the surface image by the light reflected from the surface of the object based on the position and irradiation direction of the shadow area specified from the surface image by Than the spatial resolution of the surface shape In There spatial resolution, and a shape calculation step of calculating the shape of the surface of the object.
本発明の第9の形態によると、画像処理システム用のプログラムであって、コンピュータを、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、物体に照射する光照射部、光照射部から照射された第1照射光が物体の表面で反射した光、および光照射部から照射された第2照射光が物体の表面で反射した光により、物体の表面の画像である表面画像を撮像する撮像部、表面画像から、影の領域である影領域を特定する影領域特定部、第2照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて、第1照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて算出した物体の表面の形状の空間分解能より高い空間分解能で、物体の表面の形状を算出する形状算出部として機能させる。 According to a ninth aspect of the present invention, there is provided a program for an image processing system, wherein a computer is irradiated with first irradiation light that is light in a first wavelength region and light in a second wavelength region that is shorter than the first wavelength region. A light irradiation unit that irradiates an object with a certain second irradiation light, a light that is reflected from the surface of the object by the first irradiation light irradiated from the light irradiation unit, and a second irradiation light that is irradiated from the light irradiation unit An imaging unit that captures a surface image that is an image of the surface of the object by light reflected from the surface, a shadow region specifying unit that specifies a shadow region that is a shadow region from the surface image, and the second irradiation light on the surface of the object Based on the position and irradiation direction of the shadow area specified from the surface image by the light reflected from the surface of the object based on the position and irradiation direction of the shadow area specified from the surface image by the reflected light Calculated object surface shape space With high spatial resolution than resolution, to function as a shape calculation section that calculates the shape of the surface of the object.
本発明の第10の形態によると、画像処理システムであって、異なる位置からそれぞれ撮像された物体の表面の画像である複数の表面画像であり、中央の画像領域より、表面画像における周辺の画像領域において画質が低減された複数の表面画像を取得する画像取得部と、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における、表面画像を撮像した撮像部と物体との間の位置関係を特定する位置関係特定部と、複数の表面画像の画像内容、および位置関係特定部が特定した位置関係に基づいて、表面の形状を算出する形状算出部とを備える。 According to the tenth aspect of the present invention, the image processing system is a plurality of surface images that are images of the surface of an object captured from different positions, and the peripheral images in the surface image from the central image region. An image acquisition unit that acquires a plurality of surface images with reduced image quality in a region, and an imaging unit that images the surface images when each of the plurality of surface images is captured based on the image contents of the plurality of surface images; A positional relationship identifying unit that identifies a positional relationship with the object; and a shape calculating unit that calculates the shape of the surface based on the image contents of the plurality of surface images and the positional relationship identified by the positional relationship identifying unit. .
本発明の第11の形態によると、画像処理方法であって、異なる位置からそれぞれ撮像部により撮像された物体の表面の画像である複数の表面画像であり、中央の画像領域より、表面画像における周辺の画像領域において画質が低減された複数の表面画像を取得する画像取得段階と、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における撮像部と物体との間の位置関係を特定する位置関係特定段階と、複数の表面画像の画像内容、および位置関係特定段階において特定された位置関係に基づいて、表面の形状を算出する形状算出段階とを備える。 According to an eleventh aspect of the present invention, there is provided an image processing method, which is a plurality of surface images that are images of the surface of an object each captured by an imaging unit from different positions, and in the surface image from a central image region. An image acquisition stage for acquiring a plurality of surface images with reduced image quality in a peripheral image region, and an imaging unit and an object when each of the plurality of surface images is captured based on the image contents of the plurality of surface images A positional relationship specifying step of specifying a positional relationship between the images, and a shape calculating step of calculating the shape of the surface based on the image contents of the plurality of surface images and the positional relationship specified in the positional relationship specifying step.
本発明の第12の形態によると、画像処理システム用のプログラムであって、コンピュータを、異なる位置からそれぞれ撮像された物体の表面の画像である複数の表面画像であり、中央の画像領域より、表面画像における周辺の画像領域において画質が低減された複数の表面画像を取得する画像取得部、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における、表面画像を撮像した撮像部と物体との間の位置関係を特定する位置関係特定部、複数の表面画像の画像内容、および位置関係特定部が特定した位置関係に基づいて、表面の形状を算出する形状算出部として機能させる。 According to a twelfth aspect of the present invention, there is provided a program for an image processing system, wherein a computer is a plurality of surface images each of which is an image of a surface of an object imaged from different positions. An image acquisition unit that acquires a plurality of surface images with reduced image quality in a peripheral image region of the surface image, and the surface image when each of the plurality of surface images is captured based on the image contents of the plurality of surface images. Shape calculation that calculates the shape of the surface based on the positional relationship specifying unit that specifies the positional relationship between the imaged imaging unit and the object, the image contents of the plurality of surface images, and the positional relationship specified by the positional relationship specifying unit Function as a part.
本発明の第13の形態によると、画像処理システムであって、物体の表面の画像である表面画像を取得する画像取得部と、表面画像における、物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、物体の表面の形状を算出する形状算出部とを備える。 According to a thirteenth aspect of the present invention, in the image processing system, an image acquisition unit that acquires a surface image that is an image of the surface of an object, and a specific subject that is distributed in a predetermined pattern on the surface of the object in the surface image And a shape calculation unit that calculates the shape of the surface of the object based on the distribution of the specific object imaged.
本発明の第14の形態によると、画像処理方法であって、物体の表面の画像である表面画像を取得する画像取得段階と、表面画像における、物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、物体の表面の形状を算出する形状算出段階とを備える。 According to a fourteenth aspect of the present invention, there is provided an image processing method for acquiring a surface image that is an image of the surface of an object, and a specific subject distributed in a predetermined pattern on the surface of the object in the surface image And a shape calculating step of calculating the shape of the surface of the object based on the distribution of the specific object imaged.
本発明の第15の形態によると、画像処理システム用のプログラムであって、コンピュータを、物体の表面の画像である表面画像を取得する画像取得部、表面画像における、物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、物体の表面の形状を算出する形状算出部として機能させる。 According to a fifteenth aspect of the present invention, there is provided a program for an image processing system, wherein the computer has an image acquisition unit that acquires a surface image that is an image of the surface of the object, and a predetermined pattern on the surface of the object in the surface image Based on the distribution of the specific object obtained by imaging the specific subject distributed in (2), it is made to function as a shape calculation unit that calculates the shape of the surface of the object.
なお、上記の発明の概要は、この発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じてこの発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, although this invention is demonstrated through embodiment of invention, the following embodiment does not limit the invention concerning a claim. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、一実施形態に係わる内視鏡システム10の構成の一例を、生体190とともに示す。内視鏡システム10は、生体190を撮像して得られた生体190の表面の画像である表面画像から、表面の形状を特定する。また、内視鏡システム10は、特定した表面の形状に基づいて、表面の形状を強調した出力画像を生成する。また、内視鏡システム10は、特定した表面の形状に基づいて、生体190における癌、腫瘍などの異常組織の部位を特定する。
FIG. 1 shows an example of the configuration of an
内視鏡システム10は、内視鏡の一部としてのスコープ100、鉗子135、画像処理部140、制御部105、光照射部120、操作部160、および出力部150を備える。なお、図1において、A部は、スコープ100の先端部102を拡大して示す。なお、内視鏡システム10は、以下に説明するように、撮像システムあるいは画像処理システムとして機能することができる。また、生体190は、この発明における物体の一例であってよい。
The
スコープ100は、撮像部110および鉗子口130を有しており、光照射部120の一部としてのライトガイド124を内蔵する。スコープ100の先端部102は、ノズル138、撮像部110の一部としてのレンズ112、およびライトガイド124の一部としての出射口128を有する。なお、スコープ100が内蔵するライトガイド124および出射口128は、スコープ100の外部に設けられた発光部122とともに、光照射部120として機能する。なお、スコープ100は、発光部122を内蔵することもできる。
The
鉗子口130には鉗子135が挿入され、鉗子口130は鉗子135を先端部102にガイドする。なお、鉗子135は、各種の先端形状を備えてよい。なお、鉗子口130には、鉗子の他に、生体190を処置する種々の処置具が挿入されてよい。ノズル138は、水あるいは空気を生体190に送出する。
A
発光部122は、出射口128から生体190に向けて照射される光を発生する。発光部122は、赤成分、緑成分、および青成分の光を含む可視光を発生してよい。発光部122は、ハロゲンランプであってよい。また、発光部122は、赤外光などの不可視光を発生してもよい。また、発光部122は、可視光および不可視光を含む光を発生してもよい。
The
ライトガイド124は、一例として光ファイバで形成される。ライトガイド124は、発光部122が発生した光をスコープ100の先端部102の出射口128にガイドする。発光部122で発生して出射口128から出射した光は、照射光として生体190に照射される。なお、照射光は、後に説明するように、生体190の表面の形状を算出するために照射する光として機能することができる。また、照射光は、生体190を照明する照明光としても機能することができる。
The
なお、スコープ100は、一例として生物の内部に挿入される。そして、撮像部110は、生物内部の生体190を照射光により撮像する。具体的には、撮像部110は、照射光が照射された生体190からの光により、生体190の表面192の画像である表面画像を撮像する。具体的には、撮像部110は、照射光が生体190で反射した光である反射光を受光して、生体190の画像を撮像する。なお、生体190としては、胃の粘膜、腸の消化器の粘膜等のような、生物の消化器の粘膜を例示することができる。
Note that the
画像処理部140は、撮像部110により得られた表面画像を処理する。例えば、画像処理部140は、表面画像の画像内容を解析して、解析結果を生成する。例えば、画像処理部140は、表面画像の画像内容を解析して、生体190の表面形状を示す解析結果を生成する。具体的には、画像処理部140は、表面画像を解析することにより、表面192に含まれる凹部196aおよび凸部194aおよび凸部194b、ならびに表面192に含まれる凹部196aおよび凹部196bの位置を特定することにより、表面192の形状を示す解析結果を生成する。
The
なお、凸部194aおよび凹部196aは、生体190に異常組織が発生している場合に期待される空間スケールの凹凸であってよい。また、凸部194bおよび凹部196bは、生体190の正常組織が元々有する空間スケールの凹凸であってよい。
In addition, the
また、画像処理部140は、当該表面形状に基づいて表面画像に画像処理を施して出力画像を生成してよい。例えば、画像処理部140は、表面画像における凸部194aおよび凹部196aを示す画像領域を、表面画像における凸部194bおよび凹部196bを示す画像領域より強調した出力画像を生成してよい。そして、画像処理部140は、解析結果または出力画像の少なくとも一方を出力部150に供給する。
The
出力部150は、画像処理部140から供給された解析結果または出力画像を出力する。例えば、出力部150は、出力画像を不揮発性メモリ等の記録媒体に記録してよい。また、出力部150は、出力画像を表示してもよい。また、出力部150は、解析結果を表示したり、解析結果を記録媒体に記録してよい。
The
なお、操作部160は、ユーザから操作指示を取得する。具体的には、操作部160は、スコープ100を制御する制御内容を含む指示を、ユーザから取得する。例えば、操作部160は、スコープ100の先端部102を駆動する駆動量を含む指示を、ユーザから取得する。一例として、操作部160は、スコープ100の先端部102のアングルを変化させる場合にユーザが回転させるアングル制御ノブを有しており、アングル制御ノブがユーザによって回転させられた回転量を含む指示を、スコープ100の先端部102を駆動する駆動量を含む指示としてユーザから取得してよい。
Note that the
制御部105は、操作部160がユーザから取得した指示に基づいて、スコープ100を制御する。例えば、制御部105は、当該指示に基づいて、スコープ100を駆動してよい。例えば、制御部105は、操作部160が取得した回転量に応じた量だけ、スコープ100の先端部102のアングルを変化させてよい。
The
他にも、制御部105は、発光部122による光の発生を制御してよい。例えば、制御部105は、発光部122が発生する光の波長を制御してよい。具体的には、制御部105は、発光部122が可視光または不可視光の少なくとも一方を発生するタイミングを制御してよい。なお、制御部105は、操作部160が取得した指示に基づいて、発光部122による光の発生を制御してよい。
In addition, the
また、制御部105は、画像処理部140による画像処理の内容を制御してよい。例えば、制御部105は、表面形状を強調する強調処理の種類を、操作部160が取得したユーザからの指示に基づいて決定してよい。そして、画像処理部140は、制御部105が決定した種類の強調処理を表面画像に施すことによって、出力画像を生成してよい。
Further, the
このように、内視鏡システム10によると、生体190の表面192の形状を特定することができる。そして、内視鏡システム10によると、表面192の形状に応じて適切な画像処理がなされた出力画像を提供することができる。
Thus, according to the
図2は、画像処理部140のブロック構成の一例を示す。画像処理部140は、画像取得部210、正反射位置算出部240、影領域特定部250、位置関係特定部270、形状算出部200、および出力画像生成部290を備える。位置関係特定部270は、速度算出部242、制御量取得部244、および位置関係算出部260を有する。また、位置関係算出部260は、撮像方向算出部220および照射方向算出部230を含む。
FIG. 2 shows an example of a block configuration of the
画像取得部210は、生体190の表面の画像である表面画像を取得する。具体的には、画像取得部210は、撮像部110が撮像した表面画像を取得する。より具体的には、画像取得部210は、照射光が照射された生体190の表面の画像である表面画像を取得する。
The
そして、形状算出部200は、表面画像の画像内容に基づいて、生体190の表面の形状を算出する。具体的には、形状算出部200は、表面画像の画像内容に基づいて、照射光が照射された生体190の表面の形状を算出する。例えば、形状算出部200は、後に説明するように、表面画像の輝度値に基づいて、生体190の表面の形状を算出する。
Then, the
より具体的には、形状算出部200は、表面画像の輝度値に基づいて、表面画像が有する特定のオブジェクトの位置、特定のオブジェクトの間の間隔、および特定のオブジェクトの大きさの少なくともいずれかを特定して、特定した特定のオブジェクトの位置、特定のオブジェクトの間の間隔、および特定のオブジェクトの大きさに基づいて、生体190の表面の形状を算出してよい。なお、特定のオブジェクトは、後述するように、特定の輝度パターンの照明光を表面192に照射した場合に表面192に現れる輝度パターン像、表面192に現れているピット像、表面画像におけるスペキュラ像、表面画像に含まれる影の像を含む。
More specifically, the
正反射位置算出部240は、表面画像における輝度値に基づいて、照射光を正反射した生体190の表面上の位置である正反射位置を算出する。そして、形状算出部200は、照射光の照射方向に基づいて、正反射位置における表面の形状を算出する。
The regular reflection
具体的には、形状算出部200は、正反射位置における生体190の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における生体190の表面の形状を算出する。なお、形状算出部200は、上記法線方向を、正反射位置算出部240によって正反射位置が算出された表面画像が撮像された場合に正反射位置に照射されていた照射光の照射方向とすることにより、正反射位置における生体190の表面の形状を算出することはいうまでもない。また、形状算出部200が正反射位置に基づいて表面の形状を算出する場合、撮像部110は、光照射部120が照射する照射光の照射方向と略同一の方向から、照射光が照射された生体190を撮像することにより、表面画像を撮像しているとする。
Specifically, the
なお、光照射部120は、異なる複数の照射方向から生体190に照射光を照射してよい。そして、撮像部110は、光照射部120により異なる複数の照射方向から照射光がそれぞれ照射された生体190をそれぞれ撮像することにより、異なる複数の照射方向からそれぞれ照射光が照射された複数の表面画像を撮像してよい。そして、正反射位置算出部240は、複数の表面画像のそれぞれにおける輝度値に基づいて、照射光を正反射した生体190の表面上の位置である複数の正反射位置を算出してよい。そして、形状算出部200は、複数の正反射位置のそれぞれにおける生体190の表面に接する面の法線方向を、複数の正反射位置のそれぞれの正反射位置が特定された表面画像が撮像された場合に複数の正反射位置のそれぞれに照射されていた照射光の照射方向とすることにより、複数の正反射位置のそれぞれにおける生体190の表面の形状を算出してよい。
The
これにより、形状算出部200は、スポット的な小領域でなく、広い領域の表面形状を算出することができる。なお、ユーザからの指示によりスコープ100の先端部102のアングルが時間的に変化することで出射口128から照射される照射光の向きが時間的に変化することにより、光照射部120は異なるタイミングでそれぞれ複数の照射方向から生体190に照射光を照射してよい。この場合、正反射位置算出部240は、ユーザが生体の表面を観察すべくスコープ100の位置・向きを変えた場合に撮像された複数の表示画像のそれぞれの画像内容に基づいて、異なる方向から照射光が照射された場合における正反射位置を算出することができる。これにより、形状算出部200は、ユーザによる観察行為の最中に表面形状を算出することができる。
Thereby, the
影領域特定部250は、表面画像から、影の領域である影領域を特定する。具体的には、影領域特定部250は、表面画像における輝度値に基づいて、表面画像から影領域を特定してよい。そして、形状算出部200は、影領域の位置、および照射方向に基づいて、生体190の表面の形状を算出する。具体的には、形状算出部200は、影領域の位置、形状、および照射光の照射方向に基づいて、生体190の表面の形状を算出する。また、形状算出部200は、影領域の位置、形状、および照射光の照射方向に基づいて、生体190の表面の高さを算出することにより、生体190の表面の形状を算出する。
The shadow
なお、形状算出部200は、影領域に対応する生体190の表面上の領域に隣接しており、照射光を生体190に照射する光照射部120に近い領域の高さを、影領域に対応する生体190の表面上の領域より高く算出する。また、形状算出部200は、影領域の照射方向の長さがより長い場合に、光照射部120に近い領域の高さをより高く算出してよい。なお、撮像部110が照射光の照射方向と略同一の方向から生体190を撮像することにより表面画像を撮像している場合には、形状算出部200は、影領域が示す生体190の表面上の影領域に隣接していて、撮像部110に近い領域の高さを、影領域が示す生体190の表面上の領域より高く算出することになる。
The
なお、出力画像生成部290は、形状算出部200が算出した表面192の形状に基づいて表面画像に画像処理を施すことにより、出力画像を生成する。一例として、出力画像生成部290は、表面形状に応じた陰影処理、テクスチャ処理、スペキュラー処理、グレースケール処理、カラーマップ処理、ワイヤフレーム処理を、表面画像に施すことにより出力画像を生成してよい。このようにして、出力画像生成部290は、形状算出部200が算出した表面192の形状が示す3次元構造を強調した出力画像を生成することができる。出力画像生成部290が生成した出力画像は、出力画像を出力部150に供給され、出力部150において記録または表示される。
Note that the output
なお、出力画像生成部290は、ユーザによる操作部160からの指示に基づいて、表面画像を回転させた出力画像を生成してよい。例えば、出力画像生成部290は、操作部160から画像の回転量を含む指示を取得して、当該回転量で表面画像を回転させた出力画像を生成してよい。これにより、内視鏡システム10によると、実際にスコープ100を回転させることなく、ユーザが欲する方向から生体190を見た場合に得られるべき画像を提供することができる。
Note that the output
なお、位置関係特定部270は、生体190と撮像部110との間の位置関係、または生体190と光照射部120との間の位置関係を特定する。そして、形状算出部200は、位置関係特定部270が特定した位置関係に基づいて、生体190の表面の形状を特定してよい。なお、この発明における生体190と撮像部110との間の位置関係とは、生体190とレンズ112との間の位置関係を意味してよい。また、この発明における生体190と光照射部120との間の位置関係とは、生体190と出射口128との間の位置関係を意味してよい。
The positional
なお、本実施形態のように、レンズ112および出射口128がスコープ100の先端部102に設けられている場合、生体190と撮像部110との間の位置関係、または生体190と光照射部120との間の位置関係は、生体190と先端部102との間の位置関係を意味してよい。また、生体190と撮像部110との間の位置関係は、撮像部110の撮像方向を示す情報をさらに含んでよい。また、生体190と光照射部120との間の位置関係は、照射光の照射方向を示す情報をさらに含んでよい。また、撮像部110の撮像方向と照射光の照射方向とが略同一である場合には、生体190と先端部102との間の位置関係は、先端部102の向きを示す情報をさらに含んでよい。
Note that, when the
例えば、位置関係特定部270は、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における撮像部110と生体190との間の位置関係を特定する。そして、形状算出部200は、複数の表面画像の画像内容、および位置関係特定部270が特定した位置関係に基づいて、表面の形状を算出する。
For example, the positional
具体的には、撮像部110は、ユーザからの指示によってスコープ100の先端部102の位置が変化している間に連続的に表面画像を撮像することによって、生体190に対して異なる位置から複数の表面画像を撮像する。そして、画像取得部210は、当該複数の表面画像を取得する。そして、速度算出部242は、当該複数の表面画像の画像内容に基づいて、撮像部110が生体190に対して動く速度を算出する。なお、撮像部110が生体190に対して動く速度とは、レンズ112が生体190に対して動く速度を意味してよい。例えば、速度算出部242は、複数の表面画像のそれぞれから同一被写体を示すオブジェクトの位置を特定して、特定した位置に基づいて、撮像部110が生体190に対して動く速度を算出する。
Specifically, the
そして、位置関係算出部260は、速度算出部242が算出した速度、および複数の表面画像のそれぞれを撮像部110が撮像したタイミングに基づいて、位置関係を算出する。具体的には、位置関係算出部260は、特定のタイミングにおける撮像部110と生体190との間の位置関係、および速度算出部242が算出した速度に基づいて、他のタイミングにおける撮像部110と生体190との間の位置関係を算出する。
Then, the positional
より具体的には、撮像方向算出部220は、特定のタイミングにおける撮像方向、および速度算出部242が算出した速度に基づいて、他のタイミングにおける撮像方向を算出する。また、照射方向算出部230は、特定のタイミングにおける照射光の照射方向、および速度算出部242が算出した速度に基づいて、他のタイミングにおける照射光の照射方向を算出する。なお、撮像方向と照射方向との関係が予め定められている場合には、撮像方向算出部220は、当該関係および照射方向算出部230が算出した照射方向に基づいて、撮像方向を算出することができる。同様に、照射方向算出部230は、当該関係および撮像方向算出部220が算出した撮像方向に基づいて、照射方向を算出することができる。
More specifically, the imaging
そして、形状算出部200は、照射方向算出部230が算出した照射方向および撮像方向算出部220が算出した撮像方向の少なくとも一方、および複数の表面画像の画像内容に基づいて、表面の形状を算出する。例えば、画像取得部210は、表面画像を撮像する撮像部110が異なる方向から撮像した複数の表面画像を取得する。そして、形状算出部200は、異なる撮像方向からそれぞれ撮像されて得られた複数の表面画像における視差情報に基づいて、表面の形状を算出してよい。また、形状算出部200は、異なる照射方向から照射光が照射されている場合にそれぞれ撮像されて得られた複数の表面画像の間における輝度の差に基づいて、表面の形状を算出してよい。
Then, the
このように、形状算出部200は、複数の表面画像の画像内容、および位置関係算出部260が算出した位置関係に基づいて、表面の形状を算出する。なお、形状算出部200は、表面画像の画像内容、および照射方向に基づいて、照射光が照射された生体190の表面の、照射光が照射された照射方向に対する傾きを算出することにより、生体190の表面の形状を算出してよい。
As described above, the
なお、位置関係算出部260は、スコープ100の先端部102の位置を制御する制御量に基づいて、上記位置関係を算出することもできる。具体的には、位置関係算出部260は、スコープ100の先端部102の位置を制御部105が制御する制御値に基づいて、上記位置関係を算出してよい。位置関係算出部260は、一例として、制御部105がスコープ100を屈曲させるモータを制御する制御値に基づいて、上記位置関係を算出してよい。なお、スコープ100の先端部102の位置を制御する制御量は、この発明における照射光の照射方向を制御する制御量の一例であってよい。
The positional
そして、照射方向算出部230は、制御量取得部244が取得した制御量に基づいて、照射光が照射された照射方向を算出する。例えば、照射方向算出部230は、制御量に対応づけて照射方向の変化量を予め記憶しており、照射方向算出部230は、制御量取得部244が取得した制御量に対応づけて記憶している照射方向の変化量、および当該制御量による制御前の照射方向に基づいて、当該制御量による制御後の照射方向を算出することができる。同様にして、撮像方向算出部220は、制御量取得部244が取得した制御量に基づいて、撮像方向を算出することができる。
And the irradiation
なお、上記の説明では、形状算出部200は、表面画像における影の画像、表面画像から特定された正反射位置、異なる撮像方向から撮像された複数の表面画像に基づく視差情報、あるいは異なる照射方向から光が照射されて撮像された複数の表面画像に基づく輝度情報に基づいて、表面形状を算出した。他にも、形状算出部200は、表面画像から特定の画像パターンを抽出して、抽出した画像パターンに基づいて、生体190の表面の形状を算出することができる。形状算出部200が当該画像パターンに基づいて生体190の表面の形状を算出する算出方法については、図6および図7に関連して後に説明する。
In the above description, the
このように、ユーザの指示によって先端部102の位置が変化させられることで、レンズ112の位置または出射口128の位置が変化する。内視鏡システム10によると、位置変化させながら撮像された表面画像から、生体190の表面の形状を算出することができる。また、内視鏡システム10によると、表面192の形状に応じて適切な画像処理を施すことによって、異常組織を検出し易い出力画像を提供することができる場合がある。また、内視鏡システム10によると、算出した形状に基づいて、異常組織に特有な空間スケールの凹凸を抽出することにより、異常組織の位置またはその異常度を推定することができる場合がある。また、内視鏡システム10によると、表面192の形状に基づいて、異常組織の凹部の深さまたは異常組織の凸部の高さ、あるいはその形状を特定することで、異常組織の異常度を推定することができる場合がある。
As described above, the position of the
図3は、撮像部110の構成の一例を示す。撮像部110は、レンズ112、フィルタ部310、受光部300、および画像生成部330を有する。レンズ112は、生体190からの光を受光部300に結像させる。なお、フィルタ部310は、異なる波長領域の光を選択的に透過する複数の色フィルタ素子が略同一面上にマトリクス状に配列されたカラーフィルタであってよい。画像生成部330は、図4に関連して説明する受光部300が有する受光素子が受光した受光量に基づいて、表面画像を生成する。画像生成部330が生成した表面画像は、画像取得部210に供給される。
FIG. 3 shows an example of the configuration of the
図4は、受光部300における受光素子の配列の一例を示す。受光部300は、赤外成分の光を受光するIR光受光素子410、赤成分の光を受光するR光受光素子420、緑成分の光を受光するG光受光素子430、および青成分の光を受光するB光受光素子440を有する受光ユニット400を有する。受光部300は、受光ユニット400と同様の配列の受光ユニットが2次元的に配列されて形成される。なお、本図において、IRが付された領域にはIR光受光素子410が形成され、Rが付された領域にはR光受光素子420が形成され、Gが付された領域にはG光受光素子430が形成され、Bが付された領域にはB光受光素子440が形成される。
FIG. 4 shows an example of the arrangement of the light receiving elements in the
このように、受光部300は、特定の波長領域の光をそれぞれ選択的に受光するIR光受光素子410、R光受光素子420、G光受光素子430、及びB光受光素子440が所定のパターンでマトリクス状に配列されて形成される。なお、フィルタ部310は、受光部300が有する複数の受光素子のそれぞれの位置に対応した位置に色フィルタ素子が設けられている。そして、受光部300が有する複数の受光素子のそれぞれは、対応した位置に設けられた色フィルタ素子が透過した光を受光する。
As described above, the
なお、光照射部120は、赤外成分の光、赤成分の光、緑成分の光、および青成分の光を含む光を照射する。そして、受光部300は、赤外成分の光、赤成分の光、緑成分の光、および青成分の光を含む照射光を照射した場合に生体190から戻ってくる戻り光を受光する。具体的には、受光部300は、光照射部120から照射された照射光が場合に生体190の表面192で反射した反射光を受光する。例えば、IR光受光素子410、R光受光素子420、G光受光素子430、およびB光受光素子440は、それぞれ、反射光に含まれる赤外成分の光、赤成分の光、緑成分の光、および青成分の光を含む光を受光する。
Note that the
なお、光照射部120は、赤成分の光、緑成分の光、および青成分の光を含む可視光を、生体190を照明する照明光として照射してよい。そして、光照射部120は、不可視光の一例としての赤外成分の光を、生体190の表面192を算出するための照射光として照射する。そして、形状算出部200は、受光部300が有する複数のIR光受光素子410が受光した光に基づく表面画像に基づいて、生体190の表面192を算出してよい。
The
このように、光照射部120は、一例として、不可視光である照射光を生体190に照射する。そして、形状算出部200は、不可視光である照射光により生体190の表面が撮像された生体190の表面の画像である表面画像の画像内容、および照射方向に基づいて、生体190の表面の形状を算出する。
Thus, the
なお、光照射部120は、照明光の強度とは独立に不可視光の光強度を制御することができる。このため、形状算出部200は、より高いSN比で表面形状を算出することができる場合がある。また、内視鏡システム10によると、可視光によって照明されて得られた表面画像と、不可視光により生成された形状算出用の表面画像とを同時に得ることができる。このため、内視鏡システム10によると、先端部102が高速に移動している場合においても、より高い時間解像度で表面形状を算出して、算出した表面192の形状に基づいて表面画像に画像処理を施すことができる。
In addition, the
図5は、先端部102の位置変化の一例を模式的に示す。制御部105は、操作部160が取得したユーザからの指示に応じて先端部102を動かす。先端部102の動きに応じて、レンズ112の光軸の向きおよびレンズ112の位置、ならびに出射口128から出射される照射光の照射方向および出射口128の位置が変化する。
FIG. 5 schematically shows an example of a change in the position of the
撮像部110は、ユーザからの指示に基づく制御部105による制御によって先端部102が動いている間に連続的に表面192を撮像することによって、複数の表面画像を生成する。そして、画像処理部140は、図2に関連して説明したように、複数の表面画像の画像内容に加えて、複数の表面画像が撮像されたタイミングのそれぞれにおけるレンズ112の光軸の向き、レンズ112の位置、出射口128から出射される照射光の照射方向、および出射口128の位置の少なくともいずれかとに基づいて、表面192の形状を算出することができる。
The
図6は、表面画像の輝度パターンに基づいて表面形状を算出する方法の一例を示す。光照射部120は、一例として、光量が所定のパターンで空間的に変化する照射光を照射する。例えば、光照射部120は、照射光の照射方向に垂直な面において所定の矩形パターンを有する照射光を生体190に照射する。矩形パターンは、一例として正方形パターンであってよい。また、光照射部120は、照射光の照射軸630に対して発散する光である照射光を照射してよい。
FIG. 6 shows an example of a method for calculating the surface shape based on the luminance pattern of the surface image. For example, the
例えば、光照射部120は、本図に示すように、照射方向に垂直な面610において正方形パターンが描かれる照射光を照射するとする。この場合、画像650のように正方形が同一間隔で並んでいる表面画像が撮像部110によって撮像される。ここで、物体の表面が、面620で示されるように照射方向に対して垂直な面からx方向に傾斜している場合、画像660のように変形した矩形パターンを有する表面画像が撮像部110によって撮像される。例えば、画像660では、本図に向き670で示される方向に変形した矩形パターンが現れているので、画像660において向き670で示される方向に面620が傾斜していると判断することができる。このように、形状算出部200は、表面画像から抽出された輝度パターンの形状の、照射パターンの形状からの変形量に基づいて、照射軸630に垂直な面に対する表面の接平面の傾斜角度を算出することにより、生体190の表面の形状を算出することができる。
For example, it is assumed that the
したがって、照射光の照射方向が既知であれば、形状算出部200は、表面画像に現れた矩形パターンの正方形パターンからの変形量に基づいて、物体表面の傾きを算出することができる。このように、形状算出部200は、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、生体190の表面の形状を算出することができる。
Therefore, if the irradiation direction of the irradiation light is known, the
例えば、光照射部120が、所定の照射面において所定の間隔で輝度が極大となる輝度変化パターンで輝度が変化する照射光を照射したとする。この場合、形状算出部200は、生体190の表面において照射光の輝度が極大となる位置に対応する表面画像上の位置である対応位置を特定して、特定した対応位置の間隔、および照射方向に基づいて、生体190の表面の形状を算出する。例えば、形状算出部200は、表面画像において輝度が極大値となる位置の間隔を特定して、特定した対応位置の間隔、および照射方向に基づいて、生体190の表面の形状を算出することができる。このように、形状算出部200は、所定の照射面において照射光の輝度が極大値となる位置の間隔に対する対応位置の間隔の差、および照射方向に基づいて、生体190の表面の形状を算出することができる。
For example, it is assumed that the
なお、形状算出部200は、表面画像における変形度合いがより大きい場合に、照射方向に垂直な面に対する物体表面の傾斜角をより大きく算出することができる。また、画像660に示されるように、矩形パターンの一辺の長さは面620の傾斜方向に変化している。したがって、形状算出部200は、照射方向に垂直な面からの物体表面の傾斜方向が矩形の一辺の長さが変化している方向であるとみなすことによって、物体表面の形状を算出することができる。
In addition, the
以上説明したように、光照射部120は、空間的に所定の輝度変化パターンで輝度が変化する照射光を照射する。そして、形状算出部200は、表面画像における輝度パターン、および照射方向に基づいて、生体190の表面の形状を算出する。
As described above, the
なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、照射光の照射方向が変化する。そこで、形状算出部200は、異なる複数の照射方向で照射光が照射された場合にそれぞれ撮像された複数の表面画像のそれぞれにおける輝度パターンに基づいて、生体190の表面の形状を算出することができる。例えば、形状算出部200は、それら複数の表面画像のそれぞれから算出された同じ位置の表面の傾斜角度を平均化してよい。これにより、表面形状の算出精度をより高めることができる。
As described with reference to FIG. 5 and the like, the irradiation direction of the irradiation light changes as the tip of the
なお、本図に関連して説明したように、特定の照射パターンの照射光を生体190の表面に照射することで表面形状を算出する方法によると、照射パターンが表面上において変化する空間周波数に応じた空間分解能で、表面形状を算出することができる。つまり、形状算出部200は、より高い周波数で空間的に変化する照射パターンの照射光、例えばより短い周期で輝度が変化する照射パターンの照射光を照射した場合に、生体190の表面の形状をより高い空間分解能で算出することができる。
As described in connection with this figure, according to the method of calculating the surface shape by irradiating the surface of the living
そこで、光照射部120は、所定の照射面において所定の間隔で輝度が極大となる輝度変化パターンで輝度が変化する第1照射光、および所定の照射面において所定の間隔より短い間隔で輝度が極大となる輝度変化パターンで輝度が変化する第2照射光とを、生体190に照射してよい。そして、形状算出部200は、第2照射光が照射された生体190の表面の画像である表面画像における対応位置の間隔および照射方向に基づいて、第1照射光が照射された生体190の表面の画像である表面画像における対応位置の間隔および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出してよい。例えば、形状算出部200は、一辺がより短い矩形パターンの第2照射光を照射した場合に撮像された表面画像に基づいて、より高い空間分解能で生体190の表面の形状を算出することができる。
Therefore, the
したがって、形状算出部200は、一辺が予め定められた長さより長い矩形パターンの照射光により照射された表面画像に基づいて、生体190の表面の形状を大局的なスケールで算出することができる。また、形状算出部200は、一辺が予め定められた長さより短い矩形パターンの照射光により照射された表面画像に基づいて、生体190の表面の形状を微細なスケールで算出することができる。なお、それら矩形パターンの一辺の長さは、腫瘍等の注目すべき被写体の大きさに応じて、予め定められてよい。
Therefore, the
図7は、腺管開口部が撮像された表面画像の一例を示す。表面画像700は、この発明における特定被写体の一例である腺管開口部を撮影して得られた表面画像を模式的に示している。表面画像700は、この発明における特定オブジェクトの一例であるピット像710を複数含む。
FIG. 7 shows an example of a surface image in which a gland duct opening is imaged. The
ところで、腺管開口部は、生体190の表面において略一様に分布しているとみなすことができる。したがって、撮像部110が撮像方向に垂直な平面状の表面を撮影して得られた画像においては、ピット像の分布は略一様となる。一方、生体190の表面が湾曲している場合等のように、表面の傾きが空間的に変化している場合には、撮像部110が表面を撮像して得られた画像におけるピット像710の分布は、非一様になる。したがって、形状算出部200は、ピット像710の分布および撮像部110の撮像方向に基づいて、表面形状を算出することができる。
By the way, it can be considered that the gland duct openings are distributed substantially uniformly on the surface of the living
ピット像710の分布としては、近傍に位置する他のピット像710の間の間隔を例示することができる。以下の説明では近傍に位置する他のピット像710の間の間隔を、ピット間隔と称する。本図を参照して、表面画像700においては、左上領域におけるピット間隔は、右下領域におけるピット間隔より短い。したがって、形状算出部200は、向き770が示すように、右下領域から左上領域の方向に向けて、表面が湾曲することにより傾斜が空間的に変化していると判断することができる。このように、形状算出部200は、表面画像における、特定オブジェクトの間の位置の間隔に基づいて、生体190の表面の形状を算出することができる。なお、ピット間隔は、ピット像710の重心位置同士の間隔であってよい。
An example of the distribution of the
なお、ピット像710の分布としては、ピット像710の間隔の他に、ピット像710の密度を例示することができる。すなわち、形状算出部200は、表面画像における特定オブジェクトの密度に基づいて、生体190の表面の形状を算出することができる。このように、形状算出部200は、表面画像における特定オブジェクトの密度の空間的変化に基づいて、生体190の表面の形状の空間的変化を算出することができる。
As the distribution of the
上記の説明では、形状算出部200が、特定被写体が生体190の表面に略一様に分布するとしたが、特定被写体が生体190の表面に非一様に分布している場合であっても、表面における特定被写体の分布が分かっていれば、特定オブジェクトの分布に基づいて表面形状を算出することができる。このように、形状算出部200は、表面画像における、生体190の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、生体190の表面の形状を算出することができる。
In the above description, the
また、上記の説明では、生体190の表面が湾曲している場合に、ピット像710の分布に基づいて表面形状を算出する場合を例に挙げて形状算出部200の動作を説明した。一方、生体190の表面が平面状である場合にはピット間隔が一様になってしまう。このような場合でも、形状算出部200は、ピット像710の2次元形状に基づいて、生体190の表面の形状を算出することができる場合がある。
In the above description, the operation of the
例えば、本図を参照すると、ピット像710の形状は、表面画像700の左上領域において、右下領域より扁平になっている。そこで、形状算出部200は、ピットを正面から撮像した場合に得られるべきピット像の形状を示す基準パターンを予め記憶しており、ピット像710の2次元形状を示す形状パターンの、当該基準パターンからの変形量に基づいて、生体190の表面の形状を算出してよい。形状パターンとしては、ピットのアスペクト比を例示することができる。
For example, referring to this figure, the shape of the
他にも、少なくともレンズ112と表面192との間の光軸方向の距離が分かっていれば、形状算出部200は、当該距離、およびピット像710の密度に基づいて、表面形状を算出することができる。例えば、形状算出部200は、ピットを正面から撮像した場合に得られるべきピット像の間隔を距離に応じて予め記憶してよい。そして、形状算出部200は、レンズ112と表面192との間の光軸方向の距離に対応づけて記憶しているピット像の間隔と、表面画像700におけるピット間隔との差に基づいて生体190の表面の傾きを算出することにより、生体190の表面の形状を算出することができる。このように、形状算出部200は、生体190の表面と表面画像を撮像する撮像部110との間の距離、および表面画像における特定オブジェクトの密度に基づいて、前記物体の表面の形状を算出する。
In addition, if at least the distance in the optical axis direction between the
なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、表面に対する撮像方向が変化する。そこで、形状算出部200は、異なる複数の方向からそれぞれ生体190が撮像された複数の表面画像のそれぞれにおける特定オブジェクトの分布に基づいて、生体190の表面の形状を算出することができる。例えば、形状算出部200は、異なる方向から撮像された表面画像のそれぞれから算出した同じ位置の表面の傾斜角度を平均化してよい。これにより、表面形状の算出精度をより高めることができる。
Note that, as described with reference to FIG. 5 and the like, the imaging direction with respect to the surface changes as the distal end of the
図8は、正反射光領域を含む表面画像の一例を示す。表面画像800は、光照射部120から照射された光を正反射した領域の画像である正反射像810および正反射像820を含む。正反射位置算出部240は、位置関係特定部270が特定した位置関係、および正反射像810および正反射像820の表面画像800上の位置に基づいて、正反射像810および正反射像820のそれぞれが示す、照射光を正反射した生体190の表面上の位置である正反射位置を算出することができる。
FIG. 8 shows an example of a surface image including a regular reflection light region. The
なお、正反射位置算出部240は、正反射像810および正反射像820の位置を、表面画像800における輝度値に基づいて算出してよい。例えば、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有する領域を、正反射像の領域として決定してよい。また、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有しており、周辺領域における輝度の平均値との輝度の差が予め定められた値より大きい領域を、正反射像の領域として決定してもよい。
The regular reflection
また、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有しており、白色度が予め定められた値より大きい領域を、正反射像の領域として決定してよい。また、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有しており、白色度が予め定められた値より大きく、周辺領域における白色度の平均値との白色度の差が予め定められた値より大きい領域を、正反射像の領域として決定してもよい。このようにして、正反射位置算出部240は、正反射像810および正反射像820の位置を、表面画像800における輝度値に基づいて決定することができる。
Further, the regular reflection
正反射像810および正反射像820の位置が決定されると、正反射位置算出部240は、正反射像810および正反射像820の位置、表面画像800を撮像した場合における撮像部110の先端部の位置に基づいて、生体190の表面における正反射位置を算出することができる。そして、形状算出部200は、当該正反射位置における生体190の表面に接する平面の法線方向が、撮像部110の撮像方向と垂直であるとすることによって、生体190の表面の形状を算出することができる。
When the positions of the
なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、表面に対する撮像方向および照射光の照射方向が変化する。形状算出部200は、異なる複数の方向から照射光が照射された場合に生体190が撮像された複数の表面画像のそれぞれにおける正反射位置、および複数の表面画像のそれぞれが撮像された場合における照射光の照射方向に基づいて、生体190の表面の形状を面的に算出することができる。
Note that, as described with reference to FIG. 5 and the like, the imaging direction with respect to the surface and the irradiation direction of the irradiation light change as the tip of the
図9は、表面画像における影領域の一例を示す。表面画像900は、生体190の表面における凸部910により形成された影領域920を含む。影領域特定部250は、表面画像900において輝度値が予め定められた値より低い領域を、影領域920として特定してよい。また、影領域特定部250は、表面画像900において予め定められた値より低い輝度値を有しており、周辺領域における輝度の平均値に対する輝度の比が予め定められた値より小さい領域を、影領域920として特定してもよい。
FIG. 9 shows an example of a shadow area in the surface image. The
そして、形状算出部200は、影領域920が示す表面192上の領域より出射口128の側の領域に、凸部が存在すると判断することができる。これにより、形状算出部200は、表面の形状を算出することができる。また、形状算出部200は、影領域920において、照射光の照射方向の長さ成分lがより長い場合に、凸部の高さをより高く算出することができる。また、形状算出部200は、影領域920の形状に基づいて、凸部の形状を算出してもよい。
Then, the
なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、照射光の照射方向が変化する。形状算出部200は、異なる複数の方向から照射光が照射された場合に生体190が撮像された複数の表面画像のそれぞれにおける影領域、および複数の表面画像のそれぞれが撮像された場合における照射光の照射方向に基づいて、生体190の表面の形状をより正確に算出することができる。
Note that, as described with reference to FIG. 5 and the like, the irradiation direction of the irradiation light changes as the tip of the
図10は、表面画像において画質が低減される画像領域の一例を示す。撮像部110は、時刻t1〜t8にわたって生体190の表面を連続的に撮像することによって生成した表面画像1000−1〜表面画像1000−8を、画像取得部210に供給する。具体的には、画像生成部330は、受光部300が受光した生体190の表面からの光により、表面画像1000−1〜表面画像1000−8を生成して、生成した表面画像1000−1〜表面画像1000−8を画像取得部210に供給する。
FIG. 10 shows an example of an image area in which the image quality is reduced in the surface image. The
ここで、画像生成部330は、周辺の画像領域1020の解像度を中央の画像領域1010の解像度より低減した表面画像1000−1〜表面画像1000−3、表面画像1000−4〜表面画像1000−7を生成して、画像取得部210に供給する。なお、画像生成部330は、所定のタイミングで、周辺の画像領域1020の解像度が中央の画像領域1010の解像度と同じ表面画像1000−4、表面画像1000−8を生成してもよい。このように、画像取得部210は、表面画像における中央の画像領域1010より、表面画像における周辺の画像領域1020において、解像度が低減された複数の表面画像を取得する。
Here, the
そして、位置関係特定部270は、画像取得部210が取得した周辺領域の画像の画像内容に基づいて、撮像部110と生体190との間の位置関係を特定してもよい。そして、形状算出部200は、複数の表面画像における中央の画像領域1010の画像内容、および位置関係特定部270が特定した位置関係に基づいて、複数の表面画像における中央の画像領域1010に撮像されている生体190の表面の形状を算出する。
Then, the positional
具体的には、速度算出部242は、複数の表面画像における周辺の画像領域1020の画像内容に基づいて、先端部102の生体190の表面に対する速度を算出する。そして、位置関係算出部260は、速度算出部242が算出した速度、および複数の表面画像のそれぞれを撮像部110が撮像したタイミングに基づいて、位置関係を算出する。そして、形状算出部200は、複数の表面画像における中央の画像領域1010の画像内容、および位置関係算出部260が算出した位置関係に基づいて、複数の表面画像における中央の画像領域1010に撮像されている生体190の表面の形状を算出する。なお、速度算出部242は、表面画像1000−1〜表面画像1000−8のそれぞれにおける周辺の画像領域1020から、同じ被写体を示す同一オブジェクトの位置を特定して、特定した同一オブジェクトの位置に基づいて、表面192に対する先端部102の速度を算出することができる。
Specifically, the speed calculation unit 242 calculates the speed of the
このようにして、画像取得部210は、表面画像における中央の画像領域1010より、表面画像における周辺の画像領域1020において画質が低減された複数の表面画像を取得する。なお、画質を示す指標としては、上記の解像度の他に、色数、輝度の階調数を例示することができる。すなわち、画像生成部330は、周辺の画像領域1020において中央の画像領域1010より色数が少ない表面画像を画像取得部210に供給したり、周辺の画像領域1020において中央の画像領域1010より階調数が少ない表面画像を画像取得部210に供給することができる。
In this way, the
なお、受光部300が有する受光素子は、CMOS等の撮像素子であってよい。この場合、画像生成部330は、受光部300が有する受光素子の出力を間引いて読み出すことにより、解像度を低減した表面画像を生成してもよい。
The light receiving element included in the
なお、画像生成部330は、周辺の画像領域1020において画質を低減した表面画像を、周辺の画像領域1020を送信する送信レートより高い送信レートで送信してよい。このように、画像取得部210は、表面画像における周辺の画像領域1020の画像を、表面画像における中央の画像領域1010の画像を取得する取得レートより高い取得レートで取得してよい。
Note that the
以上説明したように、画像生成部330は、表面画像における中央の画像領域1010より、表面画像における周辺の画像領域1020において画像のデータ量が低減された複数の表面画像を生成する。このため、撮像部110は、表面画像を高速に画像処理部140に供給することができる。このため、内視鏡システム10によると、スコープ100の先端部102が高速に移動した場合であっても、先端部102と生体190との間の位置関係をより高い時間解像度で算出することができる。
As described above, the
なお、図1から図10に関連して、生体190からの光を用いて生体190の表面の形状を算出する内視鏡システム10の各部の動作を説明した。ここで、生体190を通過する光は、波長が長いほど生体190の組織により散乱を受けにくくなる。したがって照射光のうち、より長い波長領域の光ほど、生体190の組織内部に深達することができる。このため、生体190からの光のうち、長波長領域の光ほど、表面における局所的な情報を有していないと言える。したがって、生体190の表面における大局的な形状を算出するためにはより長波長領域の光による表面画像を用いることが望ましく、生体190の表面の微細構造を算出するためにはより短波長領域の光による表面画像を用いることが望ましい。
The operation of each part of the
このため、光照射部120は、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、生体190に照射する。そして、撮像部110は、光照射部120から照射された第1照射光が生体190の表面で反射した光、および光照射部120から照射された第2照射光が生体190の表面で反射された光により、表面画像を撮像する。
For this reason, the
例えば、図6に関連して説明したように大局的な形状を算出する場合には、光照射部120は、より大きい矩形パターンを有する照射光として第1照射光を照射する。また、表面における微細構造を算出する場合には、光照射部120はより小さい矩形パターンを有する照射光として第2照射光を照射する。そして、形状算出部200は、第2照射光が生体190の表面で反射した光による表面画像における対応位置の間隔および照射方向に基づいて、第1照射光が生体190の表面で反射した光による表面画像における対応位置の間隔および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出してよい。
For example, when the global shape is calculated as described with reference to FIG. 6, the
また、図9に関連して説明したように、影領域に基づいて表面形状を算出する場合でも、光照射部120は、大局的な表面形状を算出する場合には第1照射光を照射して、表面における微細構造を算出する場合には第2照射光を照射してよい。そして、形状算出部200は、第2照射光が生体190の表面で反射した光による表面画像から特定された影領域および照射方向に基づいて、第1照射光が生体190の表面で反射した光による表面画像から特定された影領域および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出することができる。
In addition, as described with reference to FIG. 9, even when the surface shape is calculated based on the shadow region, the
なお、光照射部120は、第1照射光および第2照射光を同時に照射してよい。例えば、光照射部120は、第1波長領域の光である第1照射光と、第1波長領域より短い波長領域である第2波長領域の光である第2照射光とを、略同一のタイミングで照射してよい。なお、受光部300は、第1波長領域の光を含む波長領域の光を選択的に受光する受光素子と、第2波長領域の光を含む波長領域の光を選択的に受光する受光素子とを、それぞれ複数有している。
In addition, the
そして、画像生成部330は、第1波長領域の光を含む波長領域の光を選択的に受光する受光素子が受光した光に基づく第1色成分、および第2波長領域の光を含む波長領域の光を選択的に受光する受光素子が受光した光に基づく第2色成分を有する表面画像を生成する。そして、形状算出部200は、表面画像における第2色成分に基づいて特定された対応位置の間隔および照射方向に基づいて、表面画像における第1色成分に基づいて特定された対応位置の間隔および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出する。なお、一例として、第1照射光は赤色領域の光であってよく、当該光を選択的に受光する受光素子はR光受光素子420であってよい。また、第2照射光は青色領域の光であってよく、当該光を選択的に受光する受光素子はB光受光素子440であってよい。
The
また、以上の説明では、生体190を表面形状の算出対象の一例として、内視鏡システム10の各構成要素の動作の一例を説明した。この発明は、生体190の他にも、工業的に製造された製品等の物品の表面形状、または生体以外の自然物の表面形状を算出する場合にも使用することができる。すなわち、この発明における物体は、物品または自然物であってよい。
In the above description, an example of the operation of each component of the
図11は、画像処理部140のハードウェア構成の一例を示す。画像処理部140は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。
FIG. 11 shows an exemplary hardware configuration of the
ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
The input /
入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理部140が起動するときに実行するブート・プログラム、あるいは画像処理部140のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
The input /
CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理部140を、図1から図10に関連して説明した画像処理部140が有する各構成要素として機能させる。
A program executed by the
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理部140に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理部140として機能する。また、同様にして、プログラムが、コンピュータを内視鏡システム10が有する各構成要素としてコンピュータを機能させることができることは言うまでもない。
The program shown above may be stored in an external storage medium. As the storage medium, in addition to the
以上、この発明を実施の形態を用いて説明したが、この発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態もこの発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described using the embodiment, the technical scope of the present invention is not limited to the scope described in the embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
10 内視鏡システム
100 スコープ
102 先端部
105 制御部
110 撮像部
112 レンズ
120 光照射部
122 発光部
124 ライトガイド
128 出射口
130 鉗子口
135 鉗子
138 ノズル
140 画像処理部
150 出力部
160 操作部
190 生体
192 表面
194 凸部
196 凹部
210 画像取得部
200 形状算出部
220 撮像方向算出部
230 照射方向算出部
240 正反射位置算出部
242 速度算出部
244 制御量取得部
250 影領域特定部
260 位置関係算出部
270 位置関係特定部
290 出力画像生成部
300 受光部
310 フィルタ部
330 画像生成部
400 受光ユニット
410 IR光受光素子
420 R光受光素子
430 G光受光素子
440 B光受光素子
610 面
620 面
630 照射軸
650 画像
660 画像
670 向き
700 表面画像
710 ピット像
770 向き
800 表面画像
810 正反射像
820 正反射像
900 表面画像
910 凸部
920 影領域
1000 表面画像
1010 画像領域
1020 画像領域
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示デバイス
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
1598 ネットワーク通信装置
DESCRIPTION OF
1510 ROM
1520 RAM
1530
1598 Network communication device
Claims (21)
前記照射光の照射方向を算出する照射方向算出部と、
前記照射光が照射された前記物体の表面の画像である表面画像を取得する画像取得部と、
前記輝度変化パターンに対する前記表面画像における輝度パターンの差、および前記照射方向に基づいて、前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。 A light irradiation unit for irradiating an object with irradiation light whose luminance changes spatially in a predetermined luminance change pattern;
An irradiation direction calculation unit for calculating an irradiation direction of the irradiation light;
An image acquisition unit that acquires a surface image that is an image of the surface of the object irradiated with the irradiation light;
An image processing system comprising: a shape calculation unit configured to calculate a shape of the surface of the object based on a difference in luminance pattern in the surface image with respect to the luminance change pattern and the irradiation direction.
前記形状算出部は、前記物体の表面において前記照射光の輝度が極大となる位置に対応する前記表面画像上の位置である対応位置を特定し、特定した対応位置の間隔、および前記照射方向に基づいて、前記物体の表面の形状を算出する
請求項1に記載の画像処理システム。 The light irradiation unit irradiates the irradiation light whose luminance changes with a luminance change pattern in which the luminance is maximized at a predetermined interval on a predetermined irradiation surface,
The shape calculation unit specifies a corresponding position that is a position on the surface image corresponding to a position where the luminance of the irradiation light is maximized on the surface of the object, and determines the interval between the specified corresponding positions and the irradiation direction. The image processing system according to claim 1, wherein the shape of the surface of the object is calculated based on the image.
請求項2に記載の画像処理システム。 The shape calculation unit calculates the shape of the surface of the object based on a difference in an interval between the corresponding positions with respect to an interval between positions where the luminance of the irradiation light reaches a maximum value and the irradiation direction. Image processing system.
前記形状算出部は、前記第2照射光が照射された前記物体の表面の画像である前記表面画像における対応位置の間隔および前記照射方向に基づいて、前記第1照射光が照射された前記物体の表面の画像である前記表面画像における前記対応位置の間隔および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する
請求項2に記載の画像処理システム。 The light irradiation unit has a first irradiation light whose luminance changes in a luminance change pattern in which the luminance is maximized at a predetermined interval on a predetermined irradiation surface, and a luminance at an interval shorter than the predetermined interval on the predetermined irradiation surface. Irradiating the object with second irradiation light whose luminance changes in a maximum luminance change pattern;
The shape calculating unit is configured to irradiate the object irradiated with the first irradiation light based on an interval between corresponding positions in the surface image, which is an image of the surface of the object irradiated with the second irradiation light, and the irradiation direction. The shape of the surface of the object is calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the interval between the corresponding positions in the surface image, which is an image of the surface, and the irradiation direction. The image processing system according to 2.
をさらに備え、
前記光照射部は、第1波長領域の光である前記第1照射光、および前記第1波長領域より短い第2波長領域の光である前記第2照射光を、前記物体に照射し、
前記撮像部は、前記光照射部から照射された前記第1照射光が前記物体の表面で反射した光、および前記光照射部から照射された前記第2照射光が前記物体の表面で反射された光により、前記表面画像を撮像し、
前記形状算出部は、前記第2照射光が前記物体の表面で反射した光による前記表面画像における前記対応位置の間隔および前記照射方向に基づいて、前記第1照射光が前記物体の表面で反射した光による前記表面画像における前記対応位置の間隔および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する
請求項4に記載の画像処理システム。 An imaging unit that captures the surface image with light from the object irradiated with the irradiation light;
The light irradiation unit irradiates the object with the first irradiation light, which is light in a first wavelength region, and the second irradiation light, which is light in a second wavelength region shorter than the first wavelength region,
In the imaging unit, the first irradiation light irradiated from the light irradiation unit is reflected by the surface of the object, and the second irradiation light irradiated from the light irradiation unit is reflected by the surface of the object. The surface image is captured by the light,
The shape calculating unit reflects the first irradiation light on the surface of the object based on the interval between the corresponding positions and the irradiation direction in the surface image by the light reflected by the surface of the object. 5. The shape of the surface of the object is calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the interval between the corresponding positions in the surface image by the light and the irradiation direction. Image processing system.
前記撮像部は、
前記第1波長領域の光を含む波長領域の光を選択的に受光する第1受光素子と、
前記第2波長領域の光を含む波長領域の光を選択的に受光する第2受光素子と、
前記第1受光素子が受光した光に基づく第1色成分、および前記第2受光素子が受光した光に基づく第2色成分を有する前記表面画像を生成する画像生成部と
を有し、
前記形状算出部は、前記表面画像における前記第2色成分に基づいて特定された前記対応位置の間隔および前記照射方向に基づいて、前記表面画像における前記第1色成分に基づいて特定された前記対応位置の間隔および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する
請求項5に記載の画像処理システム。 The light irradiation unit irradiates the first irradiation light, which is light in the first wavelength region, and the second irradiation light, which is light in the second wavelength region, at substantially the same timing,
The imaging unit
A first light receiving element that selectively receives light in a wavelength region including light in the first wavelength region;
A second light receiving element that selectively receives light in a wavelength region including light in the second wavelength region;
An image generating unit that generates the surface image having a first color component based on light received by the first light receiving element and a second color component based on light received by the second light receiving element;
The shape calculation unit is specified based on the first color component in the surface image based on the interval between the corresponding positions specified based on the second color component in the surface image and the irradiation direction. The image processing system according to claim 5, wherein the shape of the surface of the object is calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the interval between corresponding positions and the irradiation direction.
請求項1に記載の画像処理システム。 The image processing system according to claim 1, wherein the light irradiation unit irradiates the object with the irradiation light which is invisible light.
をさらに備え、
前記照射方向算出部は、前記制御量取得部が取得した前記制御量に基づいて、前記照射光が照射された照射方向を算出する
請求項1に記載の画像処理システム。 A control amount acquisition unit for acquiring a control amount for controlling the irradiation direction of the irradiation light emitted by the light irradiation unit;
The image processing system according to claim 1, wherein the irradiation direction calculation unit calculates an irradiation direction irradiated with the irradiation light based on the control amount acquired by the control amount acquisition unit.
前記光照射部が照射する前記照射光の照射方向と略同一の方向から、前記照射光が照射された前記物体を撮像することにより、前記物体の表面の画像である表面画像を撮像する撮像部と、
前記表面画像における輝度値に基づいて、前記照射光を正反射した前記物体の表面上の位置である正反射位置を算出する正反射位置算出部と、
前記正反射位置における前記物体の表面に接する面の法線方向を、前記正反射位置に照射された前記照射光の照射方向とすることにより、前記正反射位置における前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。 A light irradiation unit for irradiating an object with irradiation light;
An imaging unit that captures a surface image that is an image of the surface of the object by imaging the object irradiated with the irradiation light from a direction substantially the same as the irradiation direction of the irradiation light irradiated by the light irradiation unit. When,
A regular reflection position calculation unit that calculates a regular reflection position that is a position on the surface of the object that regularly reflected the irradiation light, based on a luminance value in the surface image;
The shape of the surface of the object at the specular reflection position is calculated by setting the normal direction of the surface in contact with the surface of the object at the specular reflection position as the irradiation direction of the irradiation light irradiated to the specular reflection position. An image processing system comprising a shape calculating unit.
前記撮像部は、前記光照射部により前記異なる複数の照射方向から前記照射光がそれぞれ照射された前記物体をそれぞれ撮像することにより、複数の前記表面画像を撮像し、
前記正反射位置算出部は、前記複数の表面画像のそれぞれにおける輝度値に基づいて、前記照射光を正反射した前記物体の表面上の位置である複数の正反射位置を算出し、
前記形状算出部は、前記複数の正反射位置のそれぞれにおける前記物体の表面に接する面の法線方向を、前記複数の正反射位置のそれぞれの正反射位置が特定された前記表面画像が撮像された場合に前記複数の正反射位置のそれぞれに照射されていた前記照射光の照射方向とすることにより、前記複数の正反射位置のそれぞれにおける前記物体の表面の形状を算出する
請求項9に記載の画像処理システム。 The light irradiation unit irradiates the object with the irradiation light from different irradiation directions,
The imaging unit captures the plurality of surface images by imaging the objects irradiated with the irradiation light from the different irradiation directions by the light irradiation unit, respectively.
The specular reflection position calculation unit calculates a plurality of specular reflection positions that are positions on the surface of the object that specularly reflected the irradiation light, based on a luminance value in each of the plurality of surface images;
The shape calculation unit captures the surface image in which the specular reflection position of each of the plurality of specular reflection positions is specified with respect to the normal direction of the surface in contact with the surface of the object at each of the plurality of specular reflection positions. The shape of the surface of the object at each of the plurality of regular reflection positions is calculated by setting the irradiation direction of the irradiation light that has been irradiated to each of the plurality of regular reflection positions in the case of Image processing system.
前記光照射部から照射された前記第1照射光が前記物体の表面で反射した光、および前記光照射部から照射された前記第2照射光が前記物体の表面で反射した光により、前記物体の表面の画像である表面画像を撮像する撮像部と、
前記表面画像から、影の領域である影領域を特定する影領域特定部と、
前記第2照射光が前記物体の表面で反射した光による前記表面画像から特定された前記影領域の位置および前記照射方向に基づいて、前記第1照射光が前記物体の表面で反射した光による前記表面画像から特定された前記影領域の位置および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。 A light irradiation unit that irradiates an object with first irradiation light that is light in a first wavelength region and second irradiation light that is light in a second wavelength region shorter than the first wavelength region;
The first irradiation light irradiated from the light irradiation unit is reflected by the surface of the object, and the second irradiation light irradiated from the light irradiation unit is reflected by the surface of the object. An imaging unit that captures a surface image that is an image of the surface of
From the surface image, a shadow area specifying unit that specifies a shadow area that is a shadow area;
Based on the position of the shadow region identified from the surface image by the light reflected by the surface of the object and the irradiation direction, the first irradiation light is reflected by the light reflected by the surface of the object. A shape calculation unit for calculating the shape of the surface of the object with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the position of the shadow region specified from the surface image and the irradiation direction; An image processing system provided.
前記複数の表面画像の画像内容に基づいて、前記複数の表面画像のそれぞれを撮像した場合における、前記表面画像を撮像した撮像部と前記物体との間の位置関係を特定する位置関係特定部と、
前記複数の表面画像の画像内容、および前記位置関係特定部が特定した前記位置関係に基づいて、前記表面の形状を算出する形状算出部と
を備える画像処理システム。 Image acquisition that is a plurality of surface images that are images of the surface of an object captured from different positions, and that obtains a plurality of surface images with reduced image quality in a peripheral image region of the surface image from a central image region And
A positional relationship identifying unit that identifies a positional relationship between the imaging unit that captured the surface image and the object when each of the plurality of surface images is captured based on the image contents of the plurality of surface images; ,
An image processing system comprising: a shape calculating unit that calculates the shape of the surface based on the image contents of the plurality of surface images and the positional relationship specified by the positional relationship specifying unit.
請求項12に記載の画像処理システム。 The image processing system according to claim 12, wherein the image acquisition unit acquires the plurality of surface images with reduced resolution in the peripheral image region of the surface image from the central image region of the surface image. .
請求項12に記載の画像処理システム。 The image processing according to claim 12, wherein the image acquisition unit acquires an image of the peripheral image region in the surface image at an acquisition rate higher than an acquisition rate for acquiring an image of the central image region in the surface image. system.
前記表面画像における、前記物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。 An image acquisition unit that acquires a surface image that is an image of the surface of the object;
An image processing system comprising: a shape calculation unit configured to calculate a shape of the surface of the object based on a distribution of the specific object in which a specific subject distributed in a predetermined pattern on the surface of the object is captured in the surface image.
請求項15に記載の画像処理システム。 The shape calculation unit calculates a shape of a surface of the object based on a distribution of the specific object in which a specific subject that is distributed substantially uniformly on the surface of the object is captured in the surface image. The image processing system described.
請求項16に記載の画像処理システム。 The image processing system according to claim 16, wherein the shape calculation unit calculates the shape of the surface of the object based on the density of the specific object in the surface image.
請求項17に記載の画像処理システム。 The image processing system according to claim 17, wherein the shape calculation unit calculates a spatial change in the shape of the surface of the object based on a spatial change in the density of the specific object in the surface image.
請求項17に記載の画像処理システム。 The shape calculation unit calculates the shape of the surface of the object based on a distance between the surface of the object and an imaging unit that captures the surface image, and a density of the specific object in the surface image. The image processing system according to 17.
請求項16に記載の画像処理システム。 The image processing system according to claim 16, wherein the shape calculation unit calculates the shape of the surface of the object based on a position interval between the different specific objects in the surface image.
請求項16に記載の画像処理システム。 The shape calculation unit according to claim 16, wherein the shape calculation unit calculates the shape of the surface of the object based on a distribution of the specific object in each of the plurality of surface images obtained by imaging the object from a plurality of different directions. Image processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008127725A JP2009273655A (en) | 2008-05-14 | 2008-05-14 | Image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008127725A JP2009273655A (en) | 2008-05-14 | 2008-05-14 | Image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009273655A true JP2009273655A (en) | 2009-11-26 |
Family
ID=41439632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008127725A Pending JP2009273655A (en) | 2008-05-14 | 2008-05-14 | Image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009273655A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2381215A1 (en) | 2010-04-26 | 2011-10-26 | Omron Corporation | Shape measurement apparatus and calibration method |
JP2014055814A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Shape measuring device, shape measuring method, and shape measuring program |
WO2014097702A1 (en) * | 2012-12-20 | 2014-06-26 | オリンパス株式会社 | Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method |
JP2015008781A (en) * | 2013-06-27 | 2015-01-19 | オリンパス株式会社 | Image processing device, endoscope apparatus, and image processing method |
WO2016047191A1 (en) * | 2014-09-25 | 2016-03-31 | オリンパス株式会社 | Endoscope system |
JP2016518156A (en) * | 2013-03-14 | 2016-06-23 | アパーチャー ダイアグノスティックス リミテッドAperture Diagnostics Ltd. | Full field 3D surface measurement |
JP2016525905A (en) * | 2013-05-17 | 2016-09-01 | エンドチョイス インコーポレイテッドEndochoice, Inc. | Interface unit for multi-view element endoscope system |
US11153696B2 (en) | 2017-02-14 | 2021-10-19 | Virtual 3-D Technologies Corp. | Ear canal modeling using pattern projection |
-
2008
- 2008-05-14 JP JP2008127725A patent/JP2009273655A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8363929B2 (en) | 2010-04-26 | 2013-01-29 | Omron Corporation | Shape measurement apparatus and calibration method |
EP2381215A1 (en) | 2010-04-26 | 2011-10-26 | Omron Corporation | Shape measurement apparatus and calibration method |
JP2014055814A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Shape measuring device, shape measuring method, and shape measuring program |
CN104883946A (en) * | 2012-12-20 | 2015-09-02 | 奥林巴斯株式会社 | Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method |
WO2014097702A1 (en) * | 2012-12-20 | 2014-06-26 | オリンパス株式会社 | Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method |
JP2014138691A (en) * | 2012-12-20 | 2014-07-31 | Olympus Corp | Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method |
JP2016518156A (en) * | 2013-03-14 | 2016-06-23 | アパーチャー ダイアグノスティックス リミテッドAperture Diagnostics Ltd. | Full field 3D surface measurement |
US10575719B2 (en) | 2013-03-14 | 2020-03-03 | Virtual 3-D Technologies Corp. | Full-field three-dimensional surface measurement |
US11503991B2 (en) | 2013-03-14 | 2022-11-22 | Virtual 3-D Technologies Corp. | Full-field three-dimensional surface measurement |
JP2016525905A (en) * | 2013-05-17 | 2016-09-01 | エンドチョイス インコーポレイテッドEndochoice, Inc. | Interface unit for multi-view element endoscope system |
JP2015008781A (en) * | 2013-06-27 | 2015-01-19 | オリンパス株式会社 | Image processing device, endoscope apparatus, and image processing method |
WO2016047191A1 (en) * | 2014-09-25 | 2016-03-31 | オリンパス株式会社 | Endoscope system |
JP6022106B2 (en) * | 2014-09-25 | 2016-11-09 | オリンパス株式会社 | Endoscope system |
CN106535734A (en) * | 2014-09-25 | 2017-03-22 | 奥林巴斯株式会社 | Endoscope system |
EP3150103A4 (en) * | 2014-09-25 | 2018-02-21 | Olympus Corporation | Endoscope system |
US10264956B2 (en) | 2014-09-25 | 2019-04-23 | Olympus Corporation | Endoscope system having processor for calculating a size of a convex portion |
US11153696B2 (en) | 2017-02-14 | 2021-10-19 | Virtual 3-D Technologies Corp. | Ear canal modeling using pattern projection |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009273655A (en) | Image processing system | |
JP5267143B2 (en) | Imaging apparatus and program | |
JP4739242B2 (en) | Imaging of embedded structures | |
US8334900B2 (en) | Apparatus and method of optical imaging for medical diagnosis | |
JP5257891B2 (en) | Image processing system and program | |
WO2008078742A1 (en) | Fluorescence endoscope and fluorescence measuring method | |
US7457659B2 (en) | Method and device for examining the skin | |
WO2016006451A1 (en) | Observation system | |
JP6177458B2 (en) | Image processing apparatus and endoscope system | |
JP7289296B2 (en) | Image processing device, endoscope system, and method of operating image processing device | |
CN102670168A (en) | Ophthalmologic apparatus and control method of same | |
US20210158100A1 (en) | Image learning device, image learning method, neural network, and image classification device | |
JP2009131615A (en) | Image capturing system, image capturing method and program | |
US20240016387A1 (en) | System and method for residual cancer cell detection | |
CN109561819A (en) | The control method of endoscope apparatus and endoscope apparatus | |
JPWO2015199067A1 (en) | Image analysis apparatus, imaging system, surgery support system, image analysis method, and image analysis program | |
JP2009297237A (en) | Imager, imaging method, and program | |
US11857153B2 (en) | Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots | |
JP2006141734A (en) | Image processing apparatus, method and program | |
US20220330850A1 (en) | Endoscope apparatus, method of operating the same, and non-transitory computer readable medium | |
KR102534778B1 (en) | Method and apparatus for obtaining three dimensional data and computer readable medium storing a program for performing the same method | |
EP3942991A1 (en) | Endoscope processor device, medical image processing device, operation method thereof, and program for medical image processing device | |
US20200170483A1 (en) | Endoscopic systems including a multimode optical fiber and a machine learning classifier for interrogating a portion of a body | |
JP5130899B2 (en) | Imaging system and program | |
JP2007089969A (en) | Biological pattern imaging device |