JP2004313523A - Solid-state image sensor, electronic endoscope - Google Patents

Solid-state image sensor, electronic endoscope Download PDF

Info

Publication number
JP2004313523A
JP2004313523A JP2003112904A JP2003112904A JP2004313523A JP 2004313523 A JP2004313523 A JP 2004313523A JP 2003112904 A JP2003112904 A JP 2003112904A JP 2003112904 A JP2003112904 A JP 2003112904A JP 2004313523 A JP2004313523 A JP 2004313523A
Authority
JP
Japan
Prior art keywords
light receiving
light
unit
solid
receiving unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003112904A
Other languages
Japanese (ja)
Inventor
Hideo Sugimoto
秀夫 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Priority to JP2003112904A priority Critical patent/JP2004313523A/en
Publication of JP2004313523A publication Critical patent/JP2004313523A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a solid-state image sensor which improves the dynamic range without increasing the diameter or lowering the resolution even if the solid-state image sensor is set in a cylindrical apparatus. <P>SOLUTION: The solid-state image sensor, having photoreceivers on a single semiconductor substrate formed to be long in a prescribed direction, is equipped with at least two photoreceivers including first and second photoreceivers in different regions in the prescribed direction, at least two transfer parts including a first transfer part, where charges stored in a plurality of light-sensitive elements included in the first photoreceiver are transferred, and a second transfer part, where charges stored in a plurality of light-sensitive elements included in the second photoreceiver are transferred, and an adding and outputting part which adds the charges, transferred to at least two transfer parts and including the charges transferred to the first transfer part and the charges transferred to the second transferred part, and outputs outward. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、単一の半導体基板上に複数の受光素子がマトリクス状に配置されている固体撮像素子と、この固体撮像素子を先端部に備えている電子内視鏡に関する。
【0002】
【従来の技術】
従来、内視鏡の先端部を含む挿入部を細径化することにより、体腔内、特に細い管内に内視鏡を挿入する際の患者の苦痛を軽減している。近年はその先端部にCCDなどの固体撮像素子を備えている電子内視鏡が広く普及しており、その内部に備えられている種々の部品を小型化することによって細径化を達成している。この内視鏡や電子内視鏡は細ければ細いほど、体腔内の至る所に挿入できるようになり、また、体腔内を自在に動かすことができるようになるため、さらなる細径化が要求されている。
【0003】
電子内視鏡では上述した理由により小型化に適したモノクロのCCDを搭載したものが多く見られる。しかしながら近年は生体組織の状態をより正確に観察するため、カラー画像を得るような装置が実用に供している。このカラー画像を得る装置は大きく分類すると2通りある。一つは、電子内視鏡に接続されている光源装置の白色照明光により照明された観察対象(撮像対象)を、受光部にマトリクス状に配置されている複数の受光素子各々の前面にRGBなどのカラーフィルタを備えたCCDで撮像することによりカラー画像を得る、いわゆる同時方式を用いたものである。もう一つは、電子内視鏡に接続されている光源装置の回転カラーフィルタを介した各色の照明光により照明された観察対象を、モノクロのCCDで撮像することによりカラー画像を得る、いわゆる面順次方式を用いたものである。
【0004】
しかしながら、近年電子内視鏡のさらなる細径化が要求されており、この先端部に備えられているCCD等をさらに小型化させる必要がある。CCDを小型化させるためには1画素当たりのサイズを小さく形成する必要がある。ところが、この1画素当たりのサイズを小さく形成するにしたがって、1画素当たりに蓄積できる電荷量が少なくなってしまう。従って、撮影可能な明るさのダイナミックレンジが小さくなってしまう。
【0005】
電子内視鏡の観察対象となる体腔内の生体組織などは、暗部である体腔内を照明装置で照明されることにより観察されているため、その暗部と明部での輝度差がデジタルカメラやビデオなどの画像と比べて特に大きくなる傾向にある。従ってダイナミックレンジを低下させると、暗部の画像が黒く潰れてしまい、かつ明部の画像が白くとぶという現象が頻発するようになってしまう。
【0006】
そこで従来は、隣り合う感度の異なった受光素子を一対として、それぞれの受光素子に蓄積された電荷を転送し、上記一対の受光素子の電荷を加算することにより、ダイナミックレンジを向上させていた(例えば、特許文献1参照)。また、隣接する所定数の画素毎に同色のカラーフィルタを搭載して、設定されたモードに応じてそれら所定数の同色の画素により得られた電荷を加算してダイナミックレンジ及び感度を向上させていた(例えば、特許文献2参照)。
【0007】
【特許文献1】
特開平9−252107号公報(第3〜5頁、第1図)
【特許文献2】
特開平11−298800号公報(第3、4頁、第2図)
【0008】
【発明が解決しようとする課題】
しかしながら上述の特許文献1及び特許文献2に記載されている固体撮像素子では、複数の画素に蓄積された電荷を加算して1画素相当の信号を出力しているため、出力される画像の解像度は低下してしまう。すなわち、ダイナミックレンジや感度を向上させて画像の潰れや白とびなどを改善することはできるが、解像度の低下により出力される画像は不鮮明なものとなってしまう。従って、術者はモニタに表示されている生体組織などの画像からその生体組織の細部の状態を正確に把握し難くなってしまう。
【0009】
また、解像度を維持しつつダイナミックレンジを向上させるために1画素当たりのサイズを極力大きくして蓄積できる電荷量を増加させた場合は、画像の鮮明さを低下させることなくダイナミックレンジの向上により滑らかな画像を得ることができる。しかしながら、画素数を維持しつつ1画素当たりのサイズを大きくするため、固体撮像素子のサイズの小型化に限界があり、その結果、電子内視鏡の細径化が思うように計れず、患者への負担を軽減することができない。
【0010】
そこで、本発明は上記の事情に鑑み、円筒状の装置に組み込まれてもその径を太くさせたり解像度を低下させたりすることなく、ダイナミックレンジを向上させることができる固体撮像素子、及びその固体撮像素子を備えた電子内視鏡を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記の課題を解決する本発明の一態様に係る固体撮像素子は、所定方向に長く形成された単一の半導体基板上に、撮像対象からの光を受光するための複数の受光素子がマトリクス状に配置されている受光部を有したものである。この固体撮像素子は、所定方向のそれぞれ異なった領域に第1の受光部と第2の受光部とを含む少なくとも2つの受光部と、第1の受光部が有する複数の受光素子に蓄積された電荷の転送先である第1の転送部と、第2の受光部が有する複数の受光素子に蓄積された電荷の転送先である第2の転送部とを含む少なくとも2つの転送部と、第1の転送部に転送された電荷と、第2の転送部に転送された電荷とを含む少なくとも2つの転送部に転送された電荷を加算して外部に出力する加算出力部とを備えている。このように、所定方向に長く形成された単一の半導体基板上において所定方向のそれぞれ異なった領域に配置された少なくとも2つの受光部に蓄積された各々の電荷を加算して出力することにより、所定方向と直交する方向に装置を大きくしたり解像度を低下させたりすることなく、ダイナミックレンジを向上させた画像情報を出力することができる。
【0012】
また、上記固体撮像素子において、少なくとも2つの受光部の各々が有している複数の受光素子の配列はそれぞれ同一であることが好ましい。
【0013】
また、上記固体撮像素子において、少なくとも2つの受光部の各々で蓄積された電荷の各々は、所定方向の受光素子一列に蓄積された電荷毎に、少なくとも2つの転送部の各々に転送されることが好ましい。また、加算出力部は、転送された各々の受光素子一列毎の電荷同士を加算して外部に出力することが好ましい。また、少なくとも2つの転送部は、所定方向に一列に整列した素子に含まれていることが好ましい。また、第1の受光部と第2の受光部のどちらか一方の前面には減光手段が配置されていることが好ましい。
【0014】
また、上記固体撮像素子では、受光部前面に撮像対象からの光束を第1の光束と第2の光束とに分割する光束分割手段が配置され、第1の光束は第1の受光部に導かれ、第2の光束は第2の受光部に導かれることが好ましい。また、光束分割手段はビームスプリッタであることが好ましい。このとき、第1の光束はビームスプリッタによる反射光束であり、第2の光束はビームスプリッタによる透過光束である。
【0015】
また、上記の課題を解決する本発明の一態様に係る電子内視鏡は、所定方向に長く形成された単一の半導体基板上に、観察対象からの反射光を受光するための複数の受光素子がマトリクス状に配置されている受光部を有する固体撮像素子を、その先端部内に備えたものである。この電子内視鏡に備えられている固体撮像素子は、所定方向のそれぞれ異なった領域に第1の受光部と第2の受光部とを含む少なくとも2つの受光部と、第1の受光部が有する複数の受光素子に蓄積された電荷の転送先である第1の転送部と、第2の受光部が有する複数の受光素子に蓄積された電荷の転送先である第2の転送部とを含む少なくとも2つの転送部と、第1の転送部に転送された電荷と、第2の転送部に転送された電荷とを含む少なくとも2つの転送部に転送された電荷を加算して外部に出力する加算出力部とを備えている。この固体撮像素子は、さらに、半導体基板の長手方向と電子内視鏡の先端部の長手方向とが一致するように配置されている。このように、所定方向に長く形成された単一の半導体基板上において所定方向のそれぞれ異なった領域に配置された少なくとも2つの受光部に蓄積された各々の電荷を加算して出力することにより、電子内視鏡の径を太くしたり解像度を低下させたりすることなく、ダイナミックレンジを向上させた画像を出力することができる。従って、患者の負担を増やしたり画像の鮮明さを低下させたりすることなく、ダイナミックレンジを向上させて滑らかな画像を得ることができる画像情報を出力することができる。
【0016】
また、上記電子内視鏡において、少なくとも2つの受光部の各々は光学的に略等価な位置に配置されていることが好ましい。
【0017】
また、上記電子内視鏡において、少なくとも2つの受光部の各々が有している複数の前記受光素子の配列はそれぞれ同一であることが好ましい。
【0018】
また、上記電子内視鏡において、少なくとも2つの受光部の各々で蓄積された電荷の各々は、受光素子一列に蓄積された電荷毎に、少なくとも2つの転送部の各々に転送されることが好ましい。また、加算出力部は、転送された各々の受光素子一列毎の電荷同士を加算して外部に出力することが好ましい。また、少なくとも2つの転送部は、所定方向に一列に整列した素子に含まれていることが好ましい。また、第1の受光部と第2の受光部のどちらか一方の前面には減光手段が配置されていることが好ましい。
【0019】
また、上記電子内視鏡では、受光部前面に撮像対象からの光束を第1の光束と第2の光束とに分割する光束分割手段が配置され、第1の光束は第1の受光部に導かれ、第2の光束は第2の受光部に導かれることが好ましい。また、光束分割手段はビームスプリッタであることが好ましい。このとき、第1の光束はビームスプリッタによる反射光束であり、第2の光束はビームスプリッタによる透過光束である。
【0020】
【発明の実施の形態】
図1は、本発明の実施形態の電子内視鏡100を備えている電子内視鏡装置500の構成を示したブロック図である。この電子内視鏡装置500は、患者の体腔内の画像情報を出力する電子内視鏡(電子スコープ)100と、電子内視鏡100から出力された画像情報に所定の処理を施し映像信号に変換する画像処理装置と光源装置を兼ね備えたプロセッサ200と、プロセッサ200から出力された映像信号に基づいて患者の体腔内を表示するモニタ300から構成されている。以下に、この図1を用いてこの電子内視鏡装置500の構成と作用を説明する。
【0021】
プロセッサ200は、本実施形態での観察対象である生体組織400を照明する照明光を射出する光源部(光源ランプ)210を備えている。本実施形態の電子内視鏡装置500では電子内視鏡100先端部の細径化を達成するために面順次方式の撮像システムを採用しているため、この光源部210が射出する照明光は白色光であり、また、その光路上にはRGBフィルタ回転220が配置されている。
【0022】
このRGB回転フィルタ220は、R(レッド)、G(グリーン)、B(ブルー)の三色のカラーフィルタ、及び遮光部を有している。これら三色のカラーフィルタは、各々対応した一色の光のみを透過するフィルタである。このRGB回転フィルタ220は、その回転方向に、順に、カラーフィルタ(R)、遮光部、カラーフィルタ(G)、遮光部、カラーフィルタ(B)、遮光部を有している。以下に、このRGB回転フィルタ220を用いた面順次方式によるカラー画像の生成のプロセスを説明する。
【0023】
まず、タイミングジェネレータ230は、図示しないモータドライバに駆動信号を送信する。このモータドライバはこの受信した駆動信号に基づいてモータ222を駆動させる。このモータ222の回転軸はRGB回転フィルタ220を回転自在に支持しているため、モータ222の駆動に伴い、RGB回転フィルタ220は回転する。RGB回転フィルタ220が回転することにより光源部210から射出された照明光は、R、G、Bの各色のフィルタを、それぞれの間に備えられた遮光部により間欠的に透過する。
【0024】
プロセッサ200はコネクタ280により電子内視鏡100と接続されている。RGB回転フィルタ220の各色のフィルタを透過した照明光の各々は、その光路上に配置されている集光レンズ224を介して電子内視鏡100が備えるライトガイド110に入射する。そしてこの照明光は、ライトガイド110により電子内視鏡100の先端部に導光される。このライトガイド110に導光された照明光は、電子内視鏡100の先端部の前面に備えられた照明窓120を介して観察対象(撮像対象)である生体組織400を照明する。
【0025】
生体組織400を照明した照明光はこの生体組織400により反射し、観察光として対物光学系130に入射する。この対物光学系130を出射した観察光は、光路偏向部140により対物光学系130の光軸、言い換えると電子内視鏡100の長手方向(挿入方向)と直交する方向に折り曲げられる。
【0026】
本実施形態の電子内視鏡100では、観察光を受光して光電変換を行い画像信号を生成する機能を有する固体撮像素子150は、電子内視鏡100の長手方向に対しその受光面が平行となるよう配置されている。この固体撮像素子150は例えばCCDである。
【0027】
上述した光路偏向部140により折り曲げられた観察光は、この固体撮像素子150の受光面で結像して、この受光面が有しているマトリクス状に配置された複数の受光素子の各々に受光される。なお、生体組織400は上述したようにRGB回転フィルタ220の各色のフィルタを順に透過した間欠的な照明光により照明されているため、固体撮像素子150の受光面は、各色の観察光を間欠的に順次受光する。
【0028】
プロセッサ200が備えているドライバ240は、タイミングジェネレータ230から送信されてくる駆動制御信号により固体撮像素子150を駆動している。さらに詳しく説明すると、このドライバ240はタイミングジェネレータ230から送信されてくる駆動制御信号に基づいて、固体撮像素子150がR光、G光、B光のいずれかの観察光を受光している期間はその観察光を各受光素子に蓄積するよう固体撮像素子150を駆動し、RGB回転フィルタ220の遮光部により固体撮像素子150がいずれの観察光も受光しない期間は各受光素子に蓄積されている電荷を転送して画像信号として出力させるよう固体撮像素子150を駆動している。
【0029】
固体撮像素子150から出力された画像信号は、プロセッサ200に送信されて、後述する画像処理を施される。このプロセッサ200に画像処理を施された信号は、外部表示機器に表示可能な種々のビデオ信号(映像信号)としてモニタ300に出力され、このモニタ300上でカラーの観察画像として表示される。以下に、プロセッサ200で行われる画像処理のプロセスを説明する。
【0030】
固体撮像素子150によって得られた体腔内の生体組織400の画像信号は、プロセッサ200に備えられている初段映像信号処理部250に送信される。この初段映像信号処理部250は、先ず、送信された画像信号を増幅させ、サンプリング、ホールド等の処理を行う。そして、この画像信号をデジタルの画像信号に変換させる。変換されたデジタルの画像信号は、さらに、初段映像信号処理部250が有している図示しないマルチプレクサによって固体撮像素子150の駆動と同期して切り替えられ、R、G、Bの各色の画像信号に分離されて、RGBメモリ260が有している各メモリに出力される。
【0031】
RGBメモリ260はR、G、Bの各色に対応した3つのフレームメモリである図示しないRメモリ、Gメモリ、Bメモリを備えており、初段映像信号処理部250に分離された各色の画像信号は、それぞれ対応するフレームメモリに格納される。
【0032】
タイミングジェネレータ230は、RGBメモリ260の各フレームメモリに格納されている画像信号を同時に読み出すためのタイミング信号を送信する。このタイミング信号は、例えば、1秒当たり30フレームから構成される動画がモニタ上において表示できるタイミングで送信される。すなわち、このタイミングジェネレータ230は、RGBメモリ260の各フレームメモリに格納されている画像信号を1秒当たり30フレーム、同時に読み出すタイミング信号を送信する。このタイミング信号に基づき、各色の画像信号は同時に読み出されて、後段信号処理部270に出力される。
【0033】
後段信号処理部270は、この信号をアナログ信号に変換させ、さらにこのアナログ信号をモニタ300に表示させるためのコンポジットビデオ信号や、Y/C信号、RGBコンポーネントビデオ信号に変換する。そして、これらのビデオ信号がモニタ300に出力されると、モニタ300上に生体組織400の観察画像がカラー画像で表示される。
【0034】
図2は、本発明の実施形態の電子内視鏡100の先端部の内部構造を模式的に示した側断面図である。この図2では電子内視鏡100の先端部の内部構造を図1より詳細に示したものである。以下に、この図2を用いて、この電子内視鏡100の先端部の構成と作用をより詳細に説明する。
【0035】
上述したように、対物光学系130を介して入射した生体組織400の観察光は、光路偏向部140により電子内視鏡100の長手方向と直交する方向に折り曲げられる。この光路偏向部140は、第1のプリズム142と第2のプリズム144とを貼り合わせることにより形成されている。また、これらのプリズムは、電子内視鏡100の長手方向に、対物光学系130側から第1のプリズム142、第2のプリズム144の順に並んで配置している。
【0036】
第1のプリズム142は、生体組織400の観察光の光路上に、光を分割する機能を有するビームスプリッタ142aを有している。このビームスプリッタ142aは、対物光学系130の光軸と一致する生体組織400の観察光の光路に対して45度傾いた状態で配置している。別の言い方をすると、このビームスプリッタ142aは、電子内視鏡100の長手方向に対して45度傾いた状態で配置している。そのため、このビームスプリッタ142aに入射した生体組織400の観察光は、その一部が90度折り曲げられて電子内視鏡100の長手方向と直交する方向、すなわち固体撮像素子150に向かって進行し、その一部が透過して第2のプリズム144内を電子内視鏡100の長手方向に沿って進行していく。
【0037】
さらに説明を加えると、このビームスプリッタ142aは、折り曲げられる光(反射光)と透過する光との強度比が2:1となるように、生体組織400の観察光を分割する機能を有している。ここでは、ビームスプリッタ142aを透過した観察光は、ビームスプリッタ142aで折り曲げられた観察光に対してその光強度が低くなっている。
【0038】
第2のプリズム144は、ビームスプリッタ142aを透過した観察光の光路上に、光を全反射する機能を有する全反射ミラー144aを有している。この全反射ミラー144aは、対物光学系130の光軸と一致するビームスプリッタ142aを透過した観察光の光路に対して45度傾いた状態で配置している。別の言い方をすると、この全反射ミラー144aは、電子内視鏡100の長手方向に対して45度傾いた状態で配置している。従って、ビームスプリッタ142aを透過した観察光は、この全反射ミラー144aにより90度折り曲げられて、電子内視鏡100の長手方向と直交する方向、すなわち固体撮像素子150に向かって進行する。
【0039】
図3は、本発明の実施形態の電子内視鏡100の先端部内に備えられている固体撮像素子150の構成を模式的に示した上面図である。この固体撮像素子150は、半導体基板上に、複数の受光素子がマトリクス状に配置されている受光部152を備えたものである。以下に、この図3を用いて、この固体撮像素子150の構成と作用を説明する。なお、この固体撮像素子150の基台である半導体基板の受光部152を備えている面は、図3に示す矢印Y方向の辺が、矢印X方向に直交する矢印X方向の辺より長い長方形の形状を有している。
【0040】
固体撮像素子150は、受光部152と、水平転送部154と、アンプ156とを備えている。上述したようにこの電子内視鏡装置500は面順次方式によりカラー画像を生成しているため、この固体撮像素子150はモノクロCCDである。また、電子内視鏡100の細径化を達成するため、この固体撮像素子150は蓄積部を備えないフルフレーム型CCDである。
【0041】
受光部152は、受光部152aと受光部152bの2つのイメージエリア(撮像エリア)を有している。この受光部152aは、ビームスプリッタ142aで反射された観察光学像を撮像するためのイメージエリアであって、この観察光学像の結像面と一致するよう配置されている。また、受光部152bは、全反射ミラー144aで反射された観察光学像を撮像するためのイメージエリアであって、この観察光学像の結像面と一致するよう配置されている。すなわち、受光部152aと受光部152は電子内視鏡100の長手方向に沿って並んで配置されている。また、これらの受光部152aと受光部152bには、矢印Y方向と矢印X方向のそれぞれに同一数の受光素子が同一ピッチで配置している。すなわち、受光部152aと受光部152bは、互いに、同一形状かつ同一画素数の受光部として形成されている。
【0042】
また、この固体撮像素子150はフルフレーム型CCDであるため、この受光部152は複数の受光素子各々に蓄積された電荷を、図3の矢印X方向に転送する垂直転送部の機能を兼ね備えている。なお、固体撮像素子150は微少サイズのチップであるため、受光部152aと受光部152bとは光学的に略等価に配置されている。従って、これら2つの受光部には実質的に同一形状の観察像が結像する。
【0043】
水平転送部154は、受光部152が備えている複数の受光素子の各々に蓄積された電荷が転送されてくる部位であって、半導体基板の長手方向に一列に整列した電荷結合素子から構成されている。この水平転送部154は、受光部152aが有している受光素子に蓄積された電荷が転送されてくる水平転送部154aと、受光部152bが有している受光素子に蓄積された電荷が転送されてくる水平転送部154bを含んでいる。
【0044】
水平転送部154を構成している電荷結合素子の各々は、矢印Y方向に関して、受光部152の受光素子と同ピッチで配置されている。水平転送部154に含まれている水平転送部154aは、受光部152aの受光素子各々と矢印Y方向に一致して配置している電荷結合素子から構成されている。また、水平転送部154に含まれている水平転送部154bは、受光部152bの受光素子各々と矢印Y方向に一致して配置している電荷結合素子から構成されている。なお、この水平転送部154を構成している電荷結合素子の各々は、受光部152の受光素子各々に蓄積された電荷が受光素子複数個相当蓄積されても飽和しないようその許容量を多くするため、矢印X方向に関して受光部152の受光素子より大きく形成されている。
【0045】
図4は固体撮像素子150の電荷転送動作を示した図である。先ず、図4(a)に示すように、受光部152aの矢印X方向下端部に位置する1ラインの受光素子の各々に蓄積された電荷が、矢印X方向の水平転送部154aに一斉に転送される。例えば、受光部152aの152a(1)に位置する受光素子に蓄積された電荷は、水平転送部154aの矢印Y方向右端部の154a(1)に位置する電荷結合素子に転送される。次いで、図4(b)に示すように、水平転送部154aの各電荷結合素子に転送・蓄積された電荷は、水平転送部154を矢印Y方向に順次転送される。そして、図4(c)に示すように、受光部152aの152a(1)に位置する受光素子に蓄積されていた電荷が、水平転送部154bの矢印Y方向右端部の154b(1)に位置する電荷結合素子に転送された時に、受光部152bの矢印X方向下端部に位置する1ラインの受光素子の各々に蓄積された電荷が、矢印X方向の水平転送部154bに一斉に転送されて、先に転送されていた電荷とそれぞれ加算される。例えば、152a(1)に位置する受光素子に蓄積されていた電荷は、受光部152bの152b(1)に位置する受光素子に蓄積されていた電荷と加算されて、154b(1)に位置する電荷結合素子に蓄積される。最後に、水平転送部154bの各電荷結合素子に加算・蓄積された電荷は、アンプ156に順次転送される。アンプ156は、この加算された電荷を増幅してプロセッサ200が備えている初段映像信号処理部250に出力する。
【0046】
図5は、固体撮像素子150の撮像及び転送の周期と、固体撮像素子150に入射してくる観察光の周期とを示したタイミングチャートである。図5(a)は、固体撮像素子150の撮像及び転送を行うためのタイミングチャートであって、電荷を蓄積する蓄積期間と、蓄積した各色に対応した電荷を転送する転送期間とを交互に繰り返したものとなっている。また、図5(B)は、固体撮像素子150に入射してくる観察光の周期を示したタイミングチャートであって、各色の観察光が入射してくる期間と、観察光が遮光されている期間とを交互に繰り返したものとなっている。以下に、この図5に示したタイミングチャートの詳細を説明する。
【0047】
図5に示すように、Rの照明光で照明された生体組織400のR光の観察光が受光部152a及び受光部152bに入射している期間、固体撮像素子150は、受光部152a及び152bの受光素子の各々に、このR光の観察光による電荷を蓄積している。受光部152a及び152bに一定期間R光の観察光が入射するとRGB回転フィルタ220の遮光部により照明光が一定期間遮光され、各受光部に入射していた観察光も一定期間途絶える。この受光部152a及び152bに観察光が入射しない期間、固体撮像素子150は、受光部152a及び152bの受光素子の各々に蓄積されたR光の観察光による電荷の各々を、図4に示した動作手順に沿って、水平転送部154a、154bにそれぞれ転送し、加算する。水平転送部154にて加算された電荷は、R光の画像情報としてアンプ156から出力され、初段映像信号処理部250に送信される。
【0048】
固体撮像素子150は同じ要領でG光の観察光による電荷を蓄積し、蓄積したG光の観察光による電荷を水平転送部154に転送し、加算する。水平転送部154にて加算された電荷は、G光の画像情報としてアンプ156から出力され、初段映像信号処理部250に送信される。さらに、固体撮像素子150は同じ要領でB光の観察光による電荷を蓄積し、蓄積したB光の観察光による電荷を水平転送部154に転送し、加算する。水平転送部154にて加算された電荷は、B光の画像情報としてアンプ156から出力され、初段映像信号処理部250に送信される。
【0049】
このように、アンプ156から出力されたR光、G光、B光それぞれの画像情報をプロセッサ200で処理することにより1画面のカラー画像が形成される。また、この作業を所定の周期で繰り返すことによりモニタ300上に生体組織400の画像が動画として表示される。
【0050】
図6は、図5の期間Tにおける受光素子に蓄積された電荷の転送動作を詳細に示したタイミングチャートである。この期間Tは、上述した、G光の観察光により蓄積した電荷を水平転送部154に転送してG光の画像情報としてアンプ156から出力する期間を示している。以下に、この図5に示したタイミングチャートで電荷の転送動作を説明する。
【0051】
図6(a)は、受光部152aの受光素子各々に蓄積された電荷を、受光部152aの端部に位置する矢印Y方向1ラインの受光素子を介して水平転送部154aに順次転送させるV1信号のパルスを示したタイミングチャートである。また、図6(b)は、受光部152bの受光素子各々に蓄積された電荷を、受光部152bの端部に位置する矢印Y方向1ラインの受光素子を介して水平転送部154bに順次転送させるV2信号のパルスを示したタイミングチャートである。また、図6(c)は、水平転送部154に転送された電荷を、水平転送部154の水平方向、すなわち矢印Y方向に転送するH信号のパルスを示したタイミングチャートである。
【0052】
図6に示すようにV1信号が受光部152aに入力すると、受光部152aの受光素子各々に蓄積されている全ての電荷は、矢印X方向に一段(1ライン)シフトする。その結果、水平転送部154aの最も近くに配置している1ラインの受光素子に蓄積されている電荷の各々は、矢印X方向にシフトして水平転送部154aの矢印Y方向に一致する電荷結合素子の各々に転送される。
【0053】
受光部152aから水平転送部154aに電荷が転送すると、H信号が水平転送部154に入力し、水平転送部154aに転送された上記電荷をさらに矢印Y方向に転送する。すなわち、上記で詳述したように、水平転送部154aの電荷結合素子の各々に転送された各電荷は、このH信号により水平転送部154bの対応する電荷結合素子に転送される。
【0054】
水平転送部154aから水平転送部154bへの電荷転送が完了すると、V1信号が受光部152aに入力し、V2信号が受光部152bに入力する。従って、上述の処理と同様に、受光部152aの受光素子各々に蓄積されている全ての電荷は、矢印X方向に一段シフトし、水平転送部154aの最も近くに配置している1ラインの受光素子に蓄積されている電荷の各々は、水平転送部154aに転送される。また、V2信号もV1信号と同様の作用を有している。すなわち、受光部152bの受光素子各々に蓄積されている全ての電荷は、矢印X方向に一段シフトし、水平転送部154bの最も近くに配置している1ラインの受光素子に蓄積されている電荷の各々は、水平転送部154bに転送される。
【0055】
上述のように、受光部152bから水平転送部154bに電荷が転送したとき、水平転送部154bの電荷結合素子の各々には予め水平転送部154aから転送された受光部152a1ラインの電荷が既に蓄積されているため、この受光部152a1ラインの電荷の各々と受光部152b1ラインの電荷の各々は水平転送部154bのそれぞれ同一の電荷結合素子に蓄積され、その結果、互いの電荷の加算が行われる。
【0056】
水平転送部154bにおいて受光部152a1ラインの電荷と受光部152b1ラインの電荷とが加算されると、再びH信号が水平転送部154に入力し、上記水平転送部154bにおいて加算された電荷はアンプ156に掃き出されて増幅し初段映像信号処理部250に送信される。またこのとき、V1信号により水平転送部154aに転送されていた電荷は水平転送部154bに転送される。そして再びV1信号が受光部152aに入力し、V2信号が受光部152bに入力すると、水平転送部154bの電荷は加算され、H信号によりアンプ156に掃き出されて増幅し初段映像信号処理部250に送信される。
【0057】
上述した一連の動作は、受光部152a及び受光部152bに蓄積されている全ラインの電荷を初段映像信号処理部250に送信するまで繰り返される。全ラインの電荷がアンプ156から出力されると期間Tの転送動作は終了し、B光の観察光の蓄積動作が開始される。
【0058】
図7は、受光部152a及び受光部152bが備えている受光素子の信号出力(言い換えると蓄積電荷量)と観察光の入射光量(厳密には光路偏向部140に入射する光量)との関係を示したグラフである。このグラフの縦軸は受光素子の信号出力を示しており、横軸は受光素子に対する入射光量を示している。
【0059】
このグラフで示されている特性Aは受光部152aの受光素子の信号出力と観察光の入射光量(光路偏向部140に入射する光量)との関係を示したものである。前述のように、光路偏向部140のビームスプリッタ142aでは、反射光と透過光との強度比が2:1となるので、受光部152aへの入射光量は観察光の入射光量の2/3となる。この特性Aが示している信号出力は、水平転送部154aの電荷結合素子の各々に転送される受光部152aの受光素子の各々の蓄積電荷量に対応した値である。また、特性Bは受光部152bの受光素子の信号出力と観察光の入射光量(光路偏向部140に入射する光量)との関係を示したものである。同様に、受光部152bへの入射光量は観察光の入射光量の1/3となる。この特性Bが示している信号出力は、水平転送部154bの電荷結合素子の各々に転送される受光部152bの受光素子の各々の蓄積電荷量に対応した値である。また、特性(A+B)は受光部152a及び受光部152bの各々の受光素子の信号出力を加算した後の信号出力と観察光の入射光量(光路偏向部140に入射する光量)との関係を示したものである。すなわち、受光部152から得られる信号出力と観察光の入射光量との関係を示したものである。この特性(A+B)が示している信号出力は、水平転送部154bにおいて加算された水平転送部154aと水平転送部154bとの蓄積電荷量である。
【0060】
上述したように、ビームスプリッタ142aによって、受光部152aに入射する光と受光部152bに入射する光との強度比は2:1となる。また、受光部152aと受光部152bの各々の受光素子は光学的に等価に配置されており、同一形状かつ同一特性を有している。従って、図7のグラフにおいて特性Aは特性Bに対して2倍の傾きを有している。そのため、受光部152aの受光素子が観察光の入射光量cで飽和信号出力dを得るとき、受光部152bの受光素子は観察光の入射光量2cで飽和信号出力dを得る。これは、受光部152aの受光素子が受光部152bの受光素子と比較して2倍の感度を有していることと同じである。言い換えると、受光部152bの受光素子は受光部152aの受光素子に比較して2倍のダイナミックレンジを有する。また、受光部152aの受光素子は、光路偏向部140を介さずに直接観察光を受光素子で受光した場合に比べて1.5倍のダイナミックレンジを有する。従って、受光部152は、光路偏向部140を介さずに直接観察光を受光素子で受光した場合に比べて3倍のダイナミックレンジを有することになる。
【0061】
前述のように、固体撮像素子150の受光部が受光部152a単体で且つ光路偏向部140を介さずに直接観察光を受光素子で受光した場合、この受光部は観察光の入射光量が(2/3)cで飽和してしまう。しかしながら、本実施形態のように受光部152が受光部152aと受光部152bとを備えている場合、受光部152は入射光量2cまで飽和しなくなる。これは、固体撮像素子150の撮像可能な光量範囲が拡大したこと、すなわちダイナミックレンジが向上したことを意味している。
【0062】
受光部152の信号出力特性である特性(A+B)は、観察光の入射光量が0からcまでの間とcから2cまでの間とでそれぞれ異なった特性を有している。観察光の入射光量が0からcまでの間では受光部152aと受光部152bのそれぞれの受光素子で電荷が蓄積されていくため、図6のグラフにおける特性(A+B)の傾きは特性Aと特性Bとの傾きを合わせたものとなっている。また、観察光の入射光量がcから2cまでの間では受光部152aは飽和状態であるため、受光部152bの受光素子のみで電荷が蓄積されていき、図6のグラフにおける特性(A+B)の傾きは特性Bと等しいものとなっている。従って、観察光の入射光量が0からcまでの間では、受光部が受光部152a単体である場合と比較して本実施形態の受光部152はより高い信号出力を得ることができる。言い換えると、本実施形態の受光部152は高い感度を有している。さらに、観察光の入射光量がcから2cまでの間では、受光部が受光部152a単体である場合と異なり飽和することなく信号出力を得ることができる。言い換えると、本実施形態の受光部152はダイナミックレンジが拡大されている。
【0063】
また、本実施形態の固体撮像素子150は、2つのイメージエリアである受光部152aと受光部152bが電子内視鏡100の先端部の長手方向に沿って並んで配置されている。従って、本実施形態の固体撮像素子150を備えることにより、電子内視鏡の径を太くしたり観察画像の解像度を低下させたりすることなく、固体撮像素子のダイナミックレンジ及び高輝度に対する感度を向上させることができる。
【0064】
また、本実施形態の固体撮像素子150では、受光部152aと受光部152bの電荷の転送路が1ラインの電荷結合素子である水平転送部154で形成されている。さらに、この水平転送部154は、電子内視鏡100の先端部の長手方向に沿って配列されている。従って、電子内視鏡の径を太くすることなく受光部152aと受光部152bとの電荷を加算することができる。
【0065】
以上が本発明の実施形態である。本発明はこれらの実施形態に限定されるものではなく様々な範囲で変形が可能である。
【0066】
なお、本実施形態において、受光部152の信号出力と観察光の入射光量との関係は図7に示した特性(A+B)であるが、この特性は本実施形態のものに限定されることなく、例えば反射光の強度と透過光の強度の関係において、前者が後者よりも小さな特性となる等異なったものであってもよい。この特性を異なったものにするためには、本実施形態の光路偏向部140において、観察光に対する分割特性の異なったビームスプリッタ142aを電子内視鏡100の先端部内に配置すればよい。特に、ビームスプリッタ142aの反射光と透過光との強度比が1:1となるものを用いた場合、ダイナミックレンジの向上だけでなくリニアリティも改善することができる。
【0067】
また、本発明の実施形態において、ビームスプリッタ142aの観察光に対する分割特性によって受光部152aと受光部152bのそれぞれに異なった量の観察光を導きそれぞれの感度特性を異なったものにしているが、いずれか一方の受光部前面にNDフィルタ等の減光部材を配置してそれぞれの高輝度に対する感度特性を異なったものにしてもよい。また、受光部152aの受光素子の各々に備えられているマイクロレンズの入射効率と、受光部152bの受光素子の各々に備えられているマイクロレンズの入射効率とをそれぞれ異なったものにして、それぞれの高輝度に対する感度特性を異なったものにしてもよい。
【0068】
また、本発明の実施形態において、固体撮像素子150はモノクロCCDであるが、受光素子毎にカラーフィルタが備えられているカラーCCDであってもよい。この場合、面順次方式でないため、RGB回転フィルタ220は不要となり、本実施形態と異なった電荷蓄積・転送のタイミングで固体撮像素子は駆動される。
【0069】
また、本発明の実施形態において、固体撮像素子150は受光部152aと受光部152bの2つのイメージエリアを有しているが、これらのイメージエリアは3つ以上であってもよい。
【0070】
【発明の効果】
以上のように本発明の固体撮像素子は、所定方向に長く形成された単一の半導体基板上において所定方向のそれぞれ異なった領域に配置された少なくとも2つの受光部に蓄積された各々の電荷を加算して出力している。従って、所定方向と直交する方向に装置を大きくしたり解像度を低下させたりすることなく、ダイナミックレンジを向上させた画像情報を出力することができる。
【0071】
また、本発明の電子内視鏡は、所定方向に長く形成された単一の半導体基板上において所定方向のそれぞれ異なった領域に少なくとも2つの受光部が配置された固体撮像素子を備えており、これらの受光部に蓄積された各々の電荷を加算して出力している。そのため、電子内視鏡の径を太くしたり解像度を低下させたりすることなく、ダイナミックレンジを向上させた画像を出力することができる。従って、患者の負担を増やしたり画像の鮮明さを低下させたりすることなく、ダイナミックレンジを向上させて滑らかな画像を得ることができる画像情報を出力することができる。
【図面の簡単な説明】
【図1】本発明の実施形態の電子内視鏡を備えている電子内視鏡装置の構成を示したブロック図である。
【図2】本発明の実施形態の電子内視鏡の先端部の内部構造を模式的に示した側断面図である。
【図3】本発明の実施形態の電子内視鏡の先端部内に備えられている固体撮像素子の構成を模式的に示した上面図である。
【図4】固体撮像素子の電荷転送動作を示した図である。
【図5】固体撮像素子の撮像及び転送の周期と、固体撮像素子に入射してくる観察光の周期とを示したタイミングチャートである。
【図6】図4の期間Tにおける受光素子に蓄積された電荷の転送動作を詳細に示したタイミングチャートである。
【図7】受光部が備えている受光素子各々の入射光量に対する信号出力特性を示したグラフである。
【符号の説明】
100 電子内視鏡
140 光路偏向部
142a ビームスプリッタ
150 固体撮像素子
152a、152b 受光部
154a、154b 水平転送部
500 電子内視鏡装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a solid-state imaging device in which a plurality of light-receiving elements are arranged in a matrix on a single semiconductor substrate, and to an electronic endoscope including the solid-state imaging device at a distal end.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, by reducing the diameter of an insertion portion including a distal end portion of an endoscope, pain of a patient when inserting the endoscope into a body cavity, particularly, into a thin tube is reduced. In recent years, electronic endoscopes having a solid-state imaging device such as a CCD at the tip thereof have become widespread, and various components provided therein have been downsized to achieve a smaller diameter. I have. The smaller the endoscope or electronic endoscope, the more it can be inserted into the body cavity and the more freely it can be moved inside the body cavity. Have been.
[0003]
Many electronic endoscopes are equipped with a monochrome CCD suitable for miniaturization for the reasons described above. However, in recent years, in order to observe the state of a living tissue more accurately, a device for obtaining a color image has been put to practical use. There are two main types of devices for obtaining this color image. One is to place an observation target (imaging target) illuminated by white illumination light of a light source device connected to an electronic endoscope on a front surface of each of a plurality of light receiving elements arranged in a matrix on a light receiving unit. A so-called simultaneous method is used in which a color image is obtained by taking an image with a CCD equipped with a color filter. The other is to obtain a color image by taking an image of an observation target illuminated by illumination light of each color through a rotary color filter of a light source device connected to an electronic endoscope with a monochrome CCD, thereby obtaining a color image. It uses a sequential method.
[0004]
However, in recent years, further reduction in the diameter of the electronic endoscope has been required, and it is necessary to further reduce the size of the CCD and the like provided at the distal end. In order to reduce the size of the CCD, it is necessary to reduce the size per pixel. However, as the size per pixel is reduced, the amount of charge that can be stored per pixel decreases. Therefore, the dynamic range of the photographable brightness is reduced.
[0005]
The biological tissue in the body cavity, which is the object to be observed by the electronic endoscope, is observed by illuminating the interior of the body cavity, which is a dark part, with an illumination device. It tends to be particularly large compared to images such as videos. Therefore, when the dynamic range is reduced, the phenomenon that the image of the dark part is crushed black and the image of the bright part is dashed white frequently occurs.
[0006]
Therefore, conventionally, a pair of adjacent light receiving elements having different sensitivities, the electric charge accumulated in each light receiving element is transferred, and the electric charge of the pair of light receiving elements is added to improve the dynamic range ( For example, see Patent Document 1). In addition, a color filter of the same color is mounted for every predetermined number of adjacent pixels, and the electric charge obtained by the predetermined number of pixels of the same color is added according to the set mode to improve the dynamic range and sensitivity. (For example, see Patent Document 2).
[0007]
[Patent Document 1]
JP-A-9-252107 (pages 3 to 5, FIG. 1)
[Patent Document 2]
JP-A-11-298800 (pages 3, 4 and 2)
[0008]
[Problems to be solved by the invention]
However, in the solid-state imaging devices described in Patent Literature 1 and Patent Literature 2 described above, a signal equivalent to one pixel is output by adding charges accumulated in a plurality of pixels. Will decrease. In other words, although the dynamic range and sensitivity can be improved to improve image collapse and overexposure, the output image becomes unclear due to a decrease in resolution. Therefore, it becomes difficult for the surgeon to accurately grasp the state of the details of the living tissue from the image of the living tissue displayed on the monitor.
[0009]
When the amount of charge that can be accumulated is increased by increasing the size per pixel as much as possible to improve the dynamic range while maintaining the resolution, the dynamic range is improved without deteriorating the sharpness of the image. Can obtain a perfect image. However, in order to increase the size per pixel while maintaining the number of pixels, there is a limit in reducing the size of the solid-state imaging device. As a result, the diameter of the electronic endoscope cannot be reduced as desired, and the Can not reduce the burden on
[0010]
In view of the above circumstances, the present invention provides a solid-state imaging device capable of improving the dynamic range without increasing the diameter or reducing the resolution even when incorporated in a cylindrical device, and a solid-state imaging device. It is an object of the present invention to provide an electronic endoscope provided with an imaging device.
[0011]
[Means for Solving the Problems]
A solid-state imaging device according to one embodiment of the present invention which solves the above problem has a structure in which a plurality of light-receiving elements for receiving light from an imaging target are arranged in a matrix on a single semiconductor substrate formed to be long in a predetermined direction. Has a light receiving portion disposed in the first position. The solid-state imaging device is stored in at least two light receiving units including a first light receiving unit and a second light receiving unit in different regions in a predetermined direction, and a plurality of light receiving elements included in the first light receiving unit. At least two transfer units including a first transfer unit that is a transfer destination of the charge, a second transfer unit that is a transfer destination of the charge accumulated in the plurality of light receiving elements included in the second light receiving unit, An addition output unit that adds the charges transferred to at least two transfer units including the charges transferred to the first transfer unit and the charges transferred to the second transfer unit, and outputs the sum to the outside . As described above, by adding and outputting the respective charges accumulated in at least two light receiving units arranged in different regions in the predetermined direction on a single semiconductor substrate formed long in the predetermined direction, Image information with an improved dynamic range can be output without increasing the size of the apparatus or reducing the resolution in a direction orthogonal to the predetermined direction.
[0012]
In the solid-state imaging device, it is preferable that the arrangement of the plurality of light receiving elements included in each of the at least two light receiving units is the same.
[0013]
In the solid-state imaging device, each of the electric charges accumulated in each of the at least two light receiving units is transferred to each of the at least two transfer units for each electric charge accumulated in one row of the light receiving elements in a predetermined direction. Is preferred. In addition, it is preferable that the addition output unit adds the transferred electric charges in each row of the light receiving elements and outputs the added electric charges to the outside. In addition, it is preferable that at least two transfer units are included in elements arranged in a line in a predetermined direction. Further, it is preferable that a dimming unit is disposed on a front surface of one of the first light receiving unit and the second light receiving unit.
[0014]
In the solid-state imaging device, a light beam splitting unit that splits a light beam from an imaging target into a first light beam and a second light beam is disposed on the front surface of the light receiving unit, and the first light beam is guided to the first light receiving unit. Preferably, the second light beam is guided to the second light receiving unit. Preferably, the light beam splitting means is a beam splitter. At this time, the first light beam is a reflected light beam by the beam splitter, and the second light beam is a transmitted light beam by the beam splitter.
[0015]
In addition, an electronic endoscope according to one embodiment of the present invention that solves the above-described problem includes a plurality of light receiving devices for receiving reflected light from an observation target on a single semiconductor substrate that is formed to be long in a predetermined direction. A solid-state imaging device having a light receiving portion in which the devices are arranged in a matrix is provided in the front end portion. The solid-state imaging device provided in the electronic endoscope includes at least two light receiving units including a first light receiving unit and a second light receiving unit in different regions in a predetermined direction, and a first light receiving unit. A first transfer unit that is a transfer destination of the charge accumulated in the plurality of light receiving elements having the first transfer unit and a second transfer unit that is a transfer destination of the charge accumulated in the plurality of light receiving elements of the second light receiving unit. At least two transfer units, the charge transferred to the first transfer unit, and the charge transferred to the at least two transfer units including the charge transferred to the second transfer unit are added and output to the outside And an addition output unit for performing the addition. The solid-state imaging device is further arranged such that the longitudinal direction of the semiconductor substrate and the longitudinal direction of the distal end of the electronic endoscope match. As described above, by adding and outputting the respective charges accumulated in at least two light receiving units arranged in different regions in the predetermined direction on a single semiconductor substrate formed long in the predetermined direction, An image with an improved dynamic range can be output without increasing the diameter of the electronic endoscope or reducing the resolution. Therefore, it is possible to output image information capable of improving the dynamic range and obtaining a smooth image without increasing the burden on the patient or reducing the sharpness of the image.
[0016]
In the electronic endoscope, it is preferable that each of the at least two light receiving units is arranged at a position substantially optically equivalent.
[0017]
In the electronic endoscope, it is preferable that at least two light receiving units have the same arrangement of the plurality of light receiving elements.
[0018]
In the electronic endoscope, it is preferable that each of the electric charges accumulated in each of the at least two light receiving units is transferred to each of the at least two transfer units for each electric charge accumulated in one row of the light receiving elements. . In addition, it is preferable that the addition output unit adds the transferred electric charges in each row of the light receiving elements and outputs the added electric charges to the outside. In addition, it is preferable that at least two transfer units are included in elements arranged in a line in a predetermined direction. Further, it is preferable that a dimming unit is disposed on a front surface of one of the first light receiving unit and the second light receiving unit.
[0019]
Further, in the electronic endoscope, a light beam splitting unit that splits a light beam from an imaging target into a first light beam and a second light beam is disposed on the front surface of the light receiving unit, and the first light beam is transmitted to the first light receiving unit. It is preferable that the second light beam is guided to the second light receiving unit. Preferably, the light beam splitting means is a beam splitter. At this time, the first light beam is a reflected light beam by the beam splitter, and the second light beam is a transmitted light beam by the beam splitter.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of an electronic endoscope apparatus 500 including an electronic endoscope 100 according to an embodiment of the present invention. The electronic endoscope device 500 includes an electronic endoscope (electronic scope) 100 that outputs image information in a body cavity of a patient, and performs predetermined processing on image information output from the electronic endoscope 100 to generate a video signal. It comprises a processor 200 having both an image processing device for conversion and a light source device, and a monitor 300 for displaying the inside of a patient's body cavity based on a video signal output from the processor 200. The configuration and operation of the electronic endoscope device 500 will be described below with reference to FIG.
[0021]
The processor 200 includes a light source unit (light source lamp) 210 that emits illumination light that illuminates the living tissue 400 to be observed in the present embodiment. In the electronic endoscope apparatus 500 of the present embodiment, a plane-sequential imaging system is employed in order to reduce the diameter of the distal end of the electronic endoscope 100. Therefore, the illumination light emitted by the light source 210 is It is white light, and an RGB filter rotation 220 is arranged on the optical path.
[0022]
The RGB rotation filter 220 has three color filters of R (red), G (green), and B (blue), and a light shielding unit. These three color filters are filters that transmit only the corresponding one color light. The RGB rotation filter 220 has a color filter (R), a light shielding unit, a color filter (G), a light shielding unit, a color filter (B), and a light shielding unit in the rotation direction. Hereinafter, a process of generating a color image by the frame sequential method using the RGB rotation filter 220 will be described.
[0023]
First, the timing generator 230 transmits a drive signal to a motor driver (not shown). The motor driver drives the motor 222 based on the received drive signal. Since the rotation shaft of the motor 222 rotatably supports the RGB rotation filter 220, the RGB rotation filter 220 rotates with the driving of the motor 222. The illumination light emitted from the light source unit 210 by the rotation of the RGB rotation filter 220 intermittently passes through the filters of R, G, and B by the light-shielding units provided therebetween.
[0024]
The processor 200 is connected to the electronic endoscope 100 by a connector 280. Each of the illumination lights transmitted through the respective filters of the RGB rotation filter 220 enters the light guide 110 of the electronic endoscope 100 via the condenser lens 224 arranged on the optical path. The illumination light is guided by the light guide 110 to the distal end of the electronic endoscope 100. The illumination light guided to the light guide 110 illuminates a living tissue 400 as an observation target (imaging target) via an illumination window 120 provided on a front surface of the distal end of the electronic endoscope 100.
[0025]
Illumination light illuminating the living tissue 400 is reflected by the living tissue 400 and enters the objective optical system 130 as observation light. The observation light emitted from the objective optical system 130 is bent by the optical path deflecting unit 140 in a direction orthogonal to the optical axis of the objective optical system 130, in other words, the direction perpendicular to the longitudinal direction (insertion direction) of the electronic endoscope 100.
[0026]
In the electronic endoscope 100 of the present embodiment, the solid-state imaging device 150 having a function of receiving observation light and performing photoelectric conversion to generate an image signal has a light receiving surface parallel to the longitudinal direction of the electronic endoscope 100. It is arranged so that it becomes. The solid-state imaging device 150 is, for example, a CCD.
[0027]
The observation light bent by the above-described optical path deflecting unit 140 forms an image on the light receiving surface of the solid-state imaging device 150 and is received by each of the plurality of light receiving elements arranged in a matrix on the light receiving surface. Is done. Since the living tissue 400 is illuminated by the intermittent illumination light that has been transmitted through the filters of the RGB rotation filters 220 in order as described above, the light receiving surface of the solid-state imaging device 150 intermittently transmits the observation light of each color. Are sequentially received.
[0028]
The driver 240 included in the processor 200 drives the solid-state imaging device 150 by a drive control signal transmitted from the timing generator 230. More specifically, the driver 240 performs a period during which the solid-state imaging device 150 receives any one of the R light, the G light, and the B light, based on the drive control signal transmitted from the timing generator 230. The solid-state imaging device 150 is driven to accumulate the observation light in each light receiving element, and the electric charge accumulated in each light receiving element during a period in which the solid-state imaging element 150 does not receive any observation light by the light blocking portion of the RGB rotation filter 220. The solid-state imaging device 150 is driven so as to output the image signal as an image signal.
[0029]
The image signal output from the solid-state imaging device 150 is transmitted to the processor 200 and subjected to image processing described later. The signals processed by the processor 200 are output to the monitor 300 as various video signals (video signals) that can be displayed on an external display device, and displayed on the monitor 300 as a color observation image. Hereinafter, a process of image processing performed by the processor 200 will be described.
[0030]
The image signal of the living tissue 400 in the body cavity obtained by the solid-state imaging device 150 is transmitted to the first-stage video signal processing unit 250 provided in the processor 200. The first-stage video signal processing unit 250 first amplifies the transmitted image signal and performs processing such as sampling and holding. Then, this image signal is converted into a digital image signal. The converted digital image signal is further switched in synchronization with the driving of the solid-state imaging device 150 by a multiplexer (not shown) included in the first-stage video signal processing unit 250, and converted into image signals of R, G, and B colors. The data is separated and output to each memory of the RGB memory 260.
[0031]
The RGB memory 260 includes three not-shown R memories, G memories, and B memories, which are three frame memories corresponding to the respective colors of R, G, and B. The image signals of each color separated by the first-stage video signal processing unit 250 are Are stored in the corresponding frame memories.
[0032]
The timing generator 230 transmits a timing signal for simultaneously reading image signals stored in each frame memory of the RGB memory 260. This timing signal is transmitted, for example, at a timing at which a moving image composed of 30 frames per second can be displayed on the monitor. That is, the timing generator 230 transmits a timing signal for simultaneously reading out the image signals stored in each frame memory of the RGB memory 260 at 30 frames per second. Based on this timing signal, the image signals of the respective colors are read out at the same time and output to the subsequent signal processing unit 270.
[0033]
The latter-stage signal processing unit 270 converts this signal into an analog signal, and further converts this analog signal into a composite video signal, a Y / C signal, and an RGB component video signal for displaying on the monitor 300. Then, when these video signals are output to the monitor 300, an observation image of the living tissue 400 is displayed on the monitor 300 as a color image.
[0034]
FIG. 2 is a side sectional view schematically showing an internal structure of a distal end portion of the electronic endoscope 100 according to the embodiment of the present invention. FIG. 2 shows the internal structure of the distal end of the electronic endoscope 100 in more detail than FIG. Hereinafter, the configuration and operation of the distal end portion of the electronic endoscope 100 will be described in more detail with reference to FIG.
[0035]
As described above, the observation light of the living tissue 400 incident via the objective optical system 130 is bent by the optical path deflecting unit 140 in a direction orthogonal to the longitudinal direction of the electronic endoscope 100. The optical path deflecting unit 140 is formed by bonding a first prism 142 and a second prism 144 together. These prisms are arranged in the longitudinal direction of the electronic endoscope 100 in the order of the first prism 142 and the second prism 144 from the objective optical system 130 side.
[0036]
The first prism 142 has a beam splitter 142a having a function of splitting light on the optical path of observation light of the living tissue 400. The beam splitter 142a is arranged in a state of being inclined by 45 degrees with respect to the optical path of the observation light of the living tissue 400 that coincides with the optical axis of the objective optical system 130. In other words, the beam splitter 142a is arranged in a state of being inclined by 45 degrees with respect to the longitudinal direction of the electronic endoscope 100. Therefore, the observation light of the living tissue 400 incident on the beam splitter 142a is partially bent at 90 degrees and travels in a direction orthogonal to the longitudinal direction of the electronic endoscope 100, that is, toward the solid-state imaging device 150, Part of the light passes through and travels in the second prism 144 along the longitudinal direction of the electronic endoscope 100.
[0037]
More specifically, the beam splitter 142a has a function of splitting the observation light of the living tissue 400 so that the intensity ratio between the light to be bent (reflected light) and the light to be transmitted is 2: 1. I have. Here, the observation light transmitted through the beam splitter 142a has a lower light intensity than the observation light bent by the beam splitter 142a.
[0038]
The second prism 144 has a total reflection mirror 144a having a function of totally reflecting light on the optical path of observation light transmitted through the beam splitter 142a. The total reflection mirror 144a is arranged in a state of being inclined by 45 degrees with respect to the optical path of the observation light transmitted through the beam splitter 142a that coincides with the optical axis of the objective optical system 130. In other words, the total reflection mirror 144a is arranged in a state of being inclined by 45 degrees with respect to the longitudinal direction of the electronic endoscope 100. Therefore, the observation light transmitted through the beam splitter 142a is bent 90 degrees by the total reflection mirror 144a, and travels in a direction orthogonal to the longitudinal direction of the electronic endoscope 100, that is, toward the solid-state imaging device 150.
[0039]
FIG. 3 is a top view schematically illustrating the configuration of the solid-state imaging device 150 provided in the distal end portion of the electronic endoscope 100 according to the embodiment of the present invention. The solid-state imaging device 150 includes a light receiving section 152 in which a plurality of light receiving elements are arranged in a matrix on a semiconductor substrate. The configuration and operation of the solid-state imaging device 150 will be described below with reference to FIG. Note that the surface of the semiconductor substrate, which is the base of the solid-state imaging device 150, provided with the light receiving portion 152 is a rectangle whose side in the arrow Y direction shown in FIG. 3 is longer than the side in the arrow X direction orthogonal to the arrow X direction. It has the shape of
[0040]
The solid-state imaging device 150 includes a light receiving unit 152, a horizontal transfer unit 154, and an amplifier 156. As described above, since the electronic endoscope device 500 generates a color image by a frame sequential method, the solid-state imaging device 150 is a monochrome CCD. Further, in order to achieve a reduction in the diameter of the electronic endoscope 100, the solid-state imaging device 150 is a full-frame CCD having no storage unit.
[0041]
The light receiving section 152 has two image areas (imaging areas) of a light receiving section 152a and a light receiving section 152b. The light receiving section 152a is an image area for capturing the observation optical image reflected by the beam splitter 142a, and is arranged so as to coincide with the image forming plane of the observation optical image. The light receiving unit 152b is an image area for capturing the observation optical image reflected by the total reflection mirror 144a, and is arranged so as to coincide with the imaging plane of the observation optical image. That is, the light receiving unit 152a and the light receiving unit 152 are arranged side by side along the longitudinal direction of the electronic endoscope 100. The same number of light receiving elements are arranged at the same pitch in each of the light receiving section 152a and the light receiving section 152b in the arrow Y direction and the arrow X direction. That is, the light receiving section 152a and the light receiving section 152b are formed as light receiving sections having the same shape and the same number of pixels.
[0042]
Further, since the solid-state imaging device 150 is a full frame type CCD, the light receiving section 152 also has a function of a vertical transfer section for transferring the electric charges accumulated in each of the plurality of light receiving elements in the direction of arrow X in FIG. I have. Since the solid-state imaging device 150 is a small-sized chip, the light receiving unit 152a and the light receiving unit 152b are optically substantially equivalently arranged. Therefore, observation images having substantially the same shape are formed on these two light receiving units.
[0043]
The horizontal transfer unit 154 is a part to which charges accumulated in each of the plurality of light receiving elements included in the light receiving unit 152 are transferred, and is configured by charge coupled elements arranged in a line in the longitudinal direction of the semiconductor substrate. ing. The horizontal transfer unit 154 transfers the charge accumulated in the light receiving element included in the light receiving unit 152a, and the horizontal transfer unit 154a transfers the charge accumulated in the light receiving element included in the light receiving unit 152b. And a horizontal transfer unit 154b.
[0044]
Each of the charge coupled elements constituting the horizontal transfer unit 154 is arranged at the same pitch as the light receiving elements of the light receiving unit 152 in the arrow Y direction. The horizontal transfer unit 154a included in the horizontal transfer unit 154 includes a charge-coupled device that is arranged in alignment with each of the light receiving elements of the light receiving unit 152a in the arrow Y direction. The horizontal transfer unit 154b included in the horizontal transfer unit 154 includes a charge-coupled device that is arranged in alignment with each of the light-receiving elements of the light-receiving unit 152b in the arrow Y direction. Note that each of the charge-coupled devices constituting the horizontal transfer unit 154 has a larger allowable amount so that even if a plurality of light-receiving elements of the light-receiving unit 152 accumulate a plurality of light-receiving elements, they are not saturated. For this reason, it is formed larger than the light receiving element of the light receiving section 152 in the arrow X direction.
[0045]
FIG. 4 is a diagram showing the charge transfer operation of the solid-state imaging device 150. First, as shown in FIG. 4A, the electric charges accumulated in each of the light receiving elements of one line located at the lower end in the arrow X direction of the light receiving unit 152a are simultaneously transferred to the horizontal transfer unit 154a in the arrow X direction. Is done. For example, the electric charge accumulated in the light receiving element located at 152a (1) of the light receiving section 152a is transferred to the charge coupled element located at 154a (1) at the right end of the horizontal transfer section 154a in the arrow Y direction. Next, as shown in FIG. 4B, the charges transferred and accumulated in each charge-coupled device of the horizontal transfer unit 154a are sequentially transferred through the horizontal transfer unit 154 in the arrow Y direction. Then, as shown in FIG. 4C, the electric charge accumulated in the light receiving element located at 152a (1) of the light receiving unit 152a is moved to the position 154b (1) at the right end of the horizontal transfer unit 154b in the arrow Y direction. When the charges are transferred to the corresponding charge coupled elements, the charges accumulated in each of the light receiving elements of one line located at the lower end in the arrow X direction of the light receiving section 152b are simultaneously transferred to the horizontal transfer section 154b in the arrow X direction. , And the previously transferred charges are added. For example, the electric charge accumulated in the light receiving element located at 152a (1) is added to the electric charge accumulated at the light receiving element located at 152b (1) of the light receiving section 152b, and the electric charge is located at 154b (1). Stored in the charge-coupled device. Finally, the charges added and accumulated in each charge-coupled device of the horizontal transfer unit 154b are sequentially transferred to the amplifier 156. The amplifier 156 amplifies the added electric charge and outputs the amplified electric charge to the first-stage video signal processing unit 250 included in the processor 200.
[0046]
FIG. 5 is a timing chart showing a period of imaging and transfer of the solid-state imaging device 150 and a period of observation light incident on the solid-state imaging device 150. FIG. 5A is a timing chart for performing imaging and transfer of the solid-state imaging device 150, in which an accumulation period for accumulating electric charges and a transfer period for transferring electric charges corresponding to each accumulated color are alternately repeated. It has become. FIG. 5B is a timing chart showing the period of the observation light incident on the solid-state imaging device 150. The period in which the observation light of each color is incident and the observation light are shielded. The period is alternately repeated. The details of the timing chart shown in FIG. 5 will be described below.
[0047]
As shown in FIG. 5, while the observation light of the R light of the living tissue 400 illuminated with the R illumination light is incident on the light receiving units 152a and 152b, the solid-state imaging device 150 includes the light receiving units 152a and 152b. In each of the light receiving elements, the charge due to the observation light of the R light is accumulated. When the observation light of R light enters the light receiving units 152a and 152b for a certain period, the illumination light is shielded for a certain period by the light shielding unit of the RGB rotation filter 220, and the observation light incident on each light receiving unit also stops for a certain period. During a period in which the observation light does not enter the light receiving sections 152a and 152b, the solid-state imaging device 150 shows each of the charges by the observation light of the R light accumulated in each of the light receiving elements of the light receiving sections 152a and 152b in FIG. According to the operation procedure, the data is transferred to the horizontal transfer units 154a and 154b, respectively, and added. The charge added by the horizontal transfer unit 154 is output from the amplifier 156 as image information of R light, and transmitted to the first-stage video signal processing unit 250.
[0048]
The solid-state imaging device 150 accumulates the electric charge by the observation light of the G light in the same manner, transfers the accumulated electric charge by the observation light of the G light to the horizontal transfer unit 154, and adds the electric charge. The charges added by the horizontal transfer unit 154 are output from the amplifier 156 as image information of G light, and transmitted to the first-stage video signal processing unit 250. Further, the solid-state imaging device 150 accumulates the charges by the observation light of the B light in the same manner, transfers the accumulated charges by the observation light of the B light to the horizontal transfer unit 154, and adds them. The charge added by the horizontal transfer unit 154 is output from the amplifier 156 as image information of B light, and transmitted to the first-stage video signal processing unit 250.
[0049]
As described above, the image information of each of the R light, the G light, and the B light output from the amplifier 156 is processed by the processor 200, so that a color image of one screen is formed. By repeating this operation at a predetermined cycle, the image of the living tissue 400 is displayed as a moving image on the monitor 300.
[0050]
FIG. 6 is a timing chart showing in detail the transfer operation of the charge accumulated in the light receiving element during the period T in FIG. The period T indicates a period in which the charges accumulated by the observation light of the G light are transferred to the horizontal transfer unit 154 and output from the amplifier 156 as image information of the G light. The charge transfer operation will be described below with reference to the timing chart shown in FIG.
[0051]
FIG. 6A shows V1 that causes the charges accumulated in each of the light receiving elements of the light receiving unit 152a to be sequentially transferred to the horizontal transfer unit 154a via the light receiving element of one line in the arrow Y direction located at the end of the light receiving unit 152a. 6 is a timing chart showing signal pulses. Also, FIG. 6B shows that the charges accumulated in each of the light receiving elements of the light receiving section 152b are sequentially transferred to the horizontal transfer section 154b via the light receiving element of one line in the arrow Y direction located at the end of the light receiving section 152b. 5 is a timing chart showing a pulse of a V2 signal to be performed. FIG. 6C is a timing chart showing a pulse of the H signal for transferring the charges transferred to the horizontal transfer unit 154 in the horizontal direction of the horizontal transfer unit 154, that is, in the direction of the arrow Y.
[0052]
As shown in FIG. 6, when the V1 signal is input to the light receiving unit 152a, all the electric charges accumulated in each of the light receiving elements of the light receiving unit 152a are shifted by one stage (one line) in the direction of the arrow X. As a result, each of the electric charges accumulated in the light receiving element of one line arranged closest to the horizontal transfer unit 154a shifts in the direction of the arrow X so that the charge coupling coincides with the direction of the arrow Y of the horizontal transfer unit 154a. Transferred to each of the elements.
[0053]
When the electric charge is transferred from the light receiving unit 152a to the horizontal transfer unit 154a, an H signal is input to the horizontal transfer unit 154, and the electric charge transferred to the horizontal transfer unit 154a is further transferred in the arrow Y direction. That is, as described in detail above, each charge transferred to each of the charge coupled devices of the horizontal transfer unit 154a is transferred to the corresponding charge coupled device of the horizontal transfer unit 154b by the H signal.
[0054]
When the charge transfer from the horizontal transfer unit 154a to the horizontal transfer unit 154b is completed, the V1 signal is input to the light receiving unit 152a, and the V2 signal is input to the light receiving unit 152b. Therefore, similarly to the above-described processing, all the electric charges accumulated in each of the light receiving elements of the light receiving unit 152a are shifted by one stage in the direction of the arrow X, and the light reception of one line arranged closest to the horizontal transfer unit 154a is performed. Each of the charges stored in the element is transferred to the horizontal transfer unit 154a. The V2 signal has the same function as the V1 signal. That is, all the electric charges accumulated in each of the light receiving elements of the light receiving section 152b are shifted by one stage in the direction of the arrow X, and the electric charges accumulated in the light receiving element of one line arranged closest to the horizontal transfer section 154b. Are transferred to the horizontal transfer unit 154b.
[0055]
As described above, when the charge is transferred from the light receiving unit 152b to the horizontal transfer unit 154b, the charge of the light receiving unit 152a1 line previously transferred from the horizontal transfer unit 154a is already accumulated in each of the charge coupled elements of the horizontal transfer unit 154b. Therefore, each of the charges on the light receiving section 152a1 line and each of the charges on the light receiving section 152b1 line are accumulated in the same charge-coupled device of the horizontal transfer section 154b, and as a result, the respective charges are added. .
[0056]
When the electric charge of the light receiving unit 152a1 line and the electric charge of the light receiving unit 152b1 line are added in the horizontal transfer unit 154b, the H signal is input to the horizontal transfer unit 154 again, and the electric charge added in the horizontal transfer unit 154b is amplified by the amplifier 156. And amplified and transmitted to the first stage video signal processing unit 250. At this time, the electric charges transferred to the horizontal transfer unit 154a by the V1 signal are transferred to the horizontal transfer unit 154b. When the V1 signal is again input to the light receiving unit 152a and the V2 signal is input to the light receiving unit 152b, the electric charge of the horizontal transfer unit 154b is added, and is swept out to the amplifier 156 by the H signal to be amplified and amplified. Sent to.
[0057]
The above-described series of operations is repeated until the charges of all lines accumulated in the light receiving units 152a and 152b are transmitted to the first-stage video signal processing unit 250. When the charges of all lines are output from the amplifier 156, the transfer operation in the period T ends, and the accumulation operation of the observation light of B light starts.
[0058]
FIG. 7 shows the relationship between the signal output (in other words, the accumulated charge amount) of the light receiving element included in the light receiving unit 152a and the light receiving unit 152b and the incident light amount of the observation light (strictly, the light amount incident on the optical path deflecting unit 140). It is the graph shown. The vertical axis of this graph indicates the signal output of the light receiving element, and the horizontal axis indicates the amount of light incident on the light receiving element.
[0059]
The characteristic A shown in this graph shows the relationship between the signal output of the light receiving element of the light receiving unit 152a and the incident light amount of the observation light (the light amount incident on the optical path deflecting unit 140). As described above, in the beam splitter 142a of the optical path deflecting unit 140, since the intensity ratio between the reflected light and the transmitted light is 2: 1, the amount of light incident on the light receiving unit 152a is 2/3 of the amount of incident observation light. Become. The signal output indicated by the characteristic A is a value corresponding to the accumulated charge amount of each of the light receiving elements of the light receiving section 152a transferred to each of the charge coupled elements of the horizontal transfer section 154a. The characteristic B indicates the relationship between the signal output of the light receiving element of the light receiving unit 152b and the incident light amount of the observation light (the light amount incident on the optical path deflecting unit 140). Similarly, the amount of incident light on the light receiving unit 152b is 1 / of the amount of incident observation light. The signal output indicated by the characteristic B is a value corresponding to the accumulated charge amount of each of the light receiving elements of the light receiving section 152b transferred to each of the charge coupled elements of the horizontal transfer section 154b. The characteristic (A + B) indicates the relationship between the signal output after adding the signal outputs of the respective light receiving elements of the light receiving units 152a and 152b and the incident light amount of the observation light (the light amount incident on the optical path deflecting unit 140). It is a thing. That is, it shows the relationship between the signal output obtained from the light receiving unit 152 and the incident light amount of the observation light. The signal output indicated by the characteristic (A + B) is the accumulated charge amount of the horizontal transfer unit 154a and the horizontal transfer unit 154b added in the horizontal transfer unit 154b.
[0060]
As described above, the intensity ratio between the light incident on the light receiving unit 152a and the light incident on the light receiving unit 152b is 2: 1 by the beam splitter 142a. The light receiving elements of the light receiving unit 152a and the light receiving unit 152b are optically equivalently arranged and have the same shape and the same characteristics. Accordingly, in the graph of FIG. Therefore, when the light receiving element of the light receiving unit 152a obtains the saturation signal output d with the incident light amount c of the observation light, the light receiving element of the light receiving unit 152b obtains the saturation signal output d with the incident light amount 2c of the observation light. This is the same as that the light receiving element of the light receiving unit 152a has twice the sensitivity as compared with the light receiving element of the light receiving unit 152b. In other words, the light receiving element of the light receiving section 152b has twice the dynamic range as compared with the light receiving element of the light receiving section 152a. In addition, the light receiving element of the light receiving unit 152a has a dynamic range that is 1.5 times that of the case where the observation light is directly received by the light receiving element without passing through the optical path deflecting unit 140. Therefore, the light receiving section 152 has a dynamic range three times as large as that when the observation light is directly received by the light receiving element without passing through the optical path deflecting section 140.
[0061]
As described above, when the light receiving unit of the solid-state imaging device 150 is a single light receiving unit 152a and directly receives the observation light with the light receiving element without passing through the optical path deflecting unit 140, the light receiving unit has an incident light amount of (2 / 3) It saturates at c. However, when the light receiving unit 152 includes the light receiving unit 152a and the light receiving unit 152b as in the present embodiment, the light receiving unit 152 is not saturated up to the incident light amount 2c. This means that the light quantity range in which the solid-state imaging device 150 can image is expanded, that is, the dynamic range is improved.
[0062]
The characteristic (A + B), which is the signal output characteristic of the light receiving section 152, has different characteristics depending on the incident light amount of the observation light between 0 and c and between c and 2c. When the incident light amount of the observation light is between 0 and c, electric charges are accumulated in the respective light receiving elements of the light receiving unit 152a and the light receiving unit 152b. Therefore, the slope of the characteristic (A + B) in the graph of FIG. The inclination with B is adjusted. Further, since the light receiving section 152a is in a saturated state when the incident light amount of the observation light is from c to 2c, electric charges are accumulated only in the light receiving element of the light receiving section 152b, and the characteristic (A + B) in the graph of FIG. The slope is equal to the characteristic B. Accordingly, when the incident light amount of the observation light is between 0 and c, the light receiving unit 152 of the present embodiment can obtain a higher signal output as compared with the case where the light receiving unit is a single light receiving unit 152a. In other words, the light receiving unit 152 of the present embodiment has high sensitivity. Further, when the incident light amount of the observation light is between c and 2c, a signal output can be obtained without saturation unlike the case where the light receiving unit is the single light receiving unit 152a. In other words, the light receiving unit 152 of the present embodiment has an expanded dynamic range.
[0063]
In the solid-state imaging device 150 of the present embodiment, a light receiving unit 152a and a light receiving unit 152b, which are two image areas, are arranged side by side along the longitudinal direction of the distal end of the electronic endoscope 100. Therefore, by providing the solid-state imaging device 150 of the present embodiment, the sensitivity of the solid-state imaging device to the dynamic range and the high luminance can be improved without increasing the diameter of the electronic endoscope or reducing the resolution of the observed image. Can be done.
[0064]
In the solid-state imaging device 150 of the present embodiment, the charge transfer path of the light receiving unit 152a and the light receiving unit 152b is formed by the horizontal transfer unit 154, which is a one-line charge-coupled device. Further, the horizontal transfer units 154 are arranged along the longitudinal direction of the distal end of the electronic endoscope 100. Therefore, the electric charges of the light receiving unit 152a and the light receiving unit 152b can be added without increasing the diameter of the electronic endoscope.
[0065]
The above is the embodiment of the present invention. The present invention is not limited to these embodiments, and can be modified in various ranges.
[0066]
In the present embodiment, the relationship between the signal output of the light receiving unit 152 and the incident light amount of the observation light is the characteristic (A + B) shown in FIG. 7, but this characteristic is not limited to that of the present embodiment. For example, the relationship between the intensity of the reflected light and the intensity of the transmitted light may be different such that the former has smaller characteristics than the latter. In order to make these characteristics different, in the optical path deflecting unit 140 of the present embodiment, a beam splitter 142a having a different splitting characteristic with respect to observation light may be disposed in the distal end of the electronic endoscope 100. In particular, when a beam splitter 142a having an intensity ratio of reflected light to transmitted light of 1: 1 is used, not only the dynamic range but also the linearity can be improved.
[0067]
In the embodiment of the present invention, different amounts of observation light are guided to the light receiving units 152a and 152b by the splitting characteristics of the beam splitter 142a with respect to the observation light, and the respective sensitivity characteristics are different. A light-reducing member such as an ND filter may be arranged on the front surface of one of the light-receiving sections to make the sensitivity characteristics for high luminance different. Also, the incident efficiency of the microlenses provided in each of the light receiving elements of the light receiving unit 152a and the incident efficiency of the microlenses provided in each of the light receiving elements of the light receiving unit 152b are made different from each other, and May have different sensitivity characteristics to high luminance.
[0068]
Further, in the embodiment of the present invention, the solid-state imaging device 150 is a monochrome CCD, but may be a color CCD in which a color filter is provided for each light receiving element. In this case, since it is not a frame sequential method, the RGB rotation filter 220 becomes unnecessary, and the solid-state imaging device is driven at the timing of charge accumulation / transfer different from that of the present embodiment.
[0069]
Further, in the embodiment of the present invention, the solid-state imaging device 150 has two image areas of the light receiving unit 152a and the light receiving unit 152b, but these image areas may be three or more.
[0070]
【The invention's effect】
As described above, the solid-state imaging device according to the present invention is configured such that, on a single semiconductor substrate that is formed to be long in a predetermined direction, each charge accumulated in at least two light receiving units arranged in different regions in the predetermined direction is used. It is added and output. Therefore, it is possible to output image information with an improved dynamic range without increasing the size of the apparatus or reducing the resolution in a direction orthogonal to the predetermined direction.
[0071]
Further, the electronic endoscope of the present invention includes a solid-state imaging device in which at least two light receiving sections are arranged in different regions in a predetermined direction on a single semiconductor substrate formed to be long in a predetermined direction, The respective electric charges accumulated in these light receiving units are added and output. Therefore, an image with an improved dynamic range can be output without increasing the diameter of the electronic endoscope or reducing the resolution. Therefore, it is possible to output image information capable of improving the dynamic range and obtaining a smooth image without increasing the burden on the patient or reducing the sharpness of the image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an electronic endoscope apparatus including an electronic endoscope according to an embodiment of the present invention.
FIG. 2 is a side sectional view schematically showing an internal structure of a distal end portion of the electronic endoscope according to the embodiment of the present invention.
FIG. 3 is a top view schematically illustrating a configuration of a solid-state imaging device provided in a distal end portion of the electronic endoscope according to the embodiment of the present invention.
FIG. 4 is a diagram illustrating a charge transfer operation of the solid-state imaging device.
FIG. 5 is a timing chart showing a period of imaging and transfer of the solid-state imaging device and a period of observation light incident on the solid-state imaging device.
FIG. 6 is a timing chart showing in detail a transfer operation of charges accumulated in the light receiving element during a period T of FIG. 4;
FIG. 7 is a graph showing a signal output characteristic with respect to an incident light amount of each of the light receiving elements provided in the light receiving unit.
[Explanation of symbols]
100 electronic endoscope
140 Optical path deflection unit
142a beam splitter
150 solid-state image sensor
152a, 152b light receiving unit
154a, 154b horizontal transfer unit
500 Electronic endoscope device

Claims (15)

所定方向に長く形成された単一の半導体基板上に、撮像対象からの光を受光するための複数の受光素子がマトリクス状に配置されている受光部を有した固体撮像素子であって、
前記所定方向のそれぞれ異なった領域に第1の受光部と第2の受光部とを含む少なくとも2つの受光部と、
前記第1の受光部が有する複数の前記受光素子に蓄積された電荷の転送先である第1の転送部と、
前記第2の受光部が有する複数の前記受光素子に蓄積された電荷の転送先である第2の転送部と、を含む少なくとも2つの転送部と、
前記第1の転送部に転送された前記電荷と、前記第2の転送部に転送された前記電荷と、を含む前記少なくとも2つの転送部に転送された電荷を加算して外部に出力する加算出力部と、を備えていること、を特徴とする固体撮像素子。
A solid-state imaging device having a light-receiving unit in which a plurality of light-receiving elements for receiving light from an imaging target are arranged in a matrix on a single semiconductor substrate formed to be long in a predetermined direction,
At least two light receiving units including a first light receiving unit and a second light receiving unit in different regions in the predetermined direction,
A first transfer unit that is a transfer destination of the charge accumulated in the plurality of light receiving elements of the first light receiving unit;
At least two transfer units including: a second transfer unit that is a transfer destination of the charge accumulated in the plurality of light-receiving elements included in the second light-receiving unit;
Addition for adding the charges transferred to the at least two transfer units including the charges transferred to the first transfer unit and the charges transferred to the second transfer unit, and outputting the added charges to the outside And an output unit.
前記少なくとも2つの受光部の各々が有している複数の前記受光素子の配列は、それぞれ同一であること、を特徴とする請求項1に記載の固体撮像素子。2. The solid-state imaging device according to claim 1, wherein an arrangement of the plurality of light receiving elements included in each of the at least two light receiving units is the same. 前記少なくとも2つの受光部の各々で蓄積された前記電荷の各々は、前記所定方向の前記受光素子一列に蓄積された前記電荷毎に、前記少なくとも2つの転送部の各々に転送され、
前記加算出力部は、転送された各々の前記受光素子一列毎の前記電荷同士を加算して外部に出力すること、を特徴とする請求項2に記載の固体撮像素子。
Each of the charges stored in each of the at least two light receiving units is transferred to each of the at least two transfer units for each of the charges stored in the light receiving element row in the predetermined direction,
3. The solid-state imaging device according to claim 2, wherein the addition output unit adds the transferred electric charges in each row of the light receiving elements and outputs the added electric charges to the outside.
前記少なくとも2つの転送部は、前記所定方向に一列に整列した素子に含まれていること、を特徴とする請求項3に記載の固体撮像素子。The solid-state imaging device according to claim 3, wherein the at least two transfer units are included in elements arranged in a line in the predetermined direction. 前記受光部前面に前記撮像対象からの光束を第1の光束と第2の光束とに分割する光束分割手段が配置され、前記第1の光束は前記第1の受光部に導かれ、前記第2の光束は前記第2の受光部に導かれること、を特徴とする請求項1から請求項4のいずれかに記載の固体撮像素子。A light beam splitting unit that splits a light beam from the imaging target into a first light beam and a second light beam is disposed on the front surface of the light receiving unit, and the first light beam is guided to the first light receiving unit, The solid-state imaging device according to claim 1, wherein the second light beam is guided to the second light receiving unit. 前記光束分割手段はビームスプリッタであり、前記第1の光束は前記ビームスプリッタによる反射光束であり、前記第2の光束は前記ビームスプリッタによる透過光束であること、を特徴とする請求項5に記載の固体撮像素子。The light beam splitting means is a beam splitter, the first light beam is a light beam reflected by the beam splitter, and the second light beam is a transmitted light beam by the beam splitter. Solid-state imaging device. 前記第1の受光部と第2の受光部のどちらか一方の前面には減光手段が配置されていること、を特徴とする請求項1から請求項4のいずれかに記載の固体撮像素子。The solid-state imaging device according to any one of claims 1 to 4, wherein a dimming unit is disposed on a front surface of one of the first light receiving unit and the second light receiving unit. . 所定方向に長く形成された単一の半導体基板上に、観察対象からの反射光を受光するための複数の受光素子がマトリクス状に配置されている受光部を有する固体撮像素子を、先端部内に備えた電子内視鏡であって、
前記固体撮像素子は、前記所定方向のそれぞれ異なった領域に第1の受光部と第2の受光部とを含む少なくとも2つの受光部と、
前記第1の受光部が有する複数の前記受光素子に蓄積された電荷の転送先である第1の転送部と、
前記第2の受光部が有する複数の前記受光素子に蓄積された電荷の転送先である第2の転送部と、を含む少なくとも2つの転送部と、
前記第1の転送部に転送された前記電荷と、前記第2の転送部に転送された前記電荷と、を含む前記少なくとも2つの転送部に転送された電荷を加算して外部に出力する加算出力部と、を備え、
さらに、前記半導体基板の長手方向と前記先端部の長手方向とが一致するように配置されていること、を特徴とする電子内視鏡。
A solid-state imaging device having a light receiving section in which a plurality of light receiving elements for receiving reflected light from an observation target are arranged in a matrix on a single semiconductor substrate formed long in a predetermined direction is provided in a tip portion. An electronic endoscope provided with
The solid-state imaging device, at least two light receiving units including a first light receiving unit and a second light receiving unit in different regions in the predetermined direction,
A first transfer unit that is a transfer destination of the charge accumulated in the plurality of light receiving elements of the first light receiving unit;
At least two transfer units including: a second transfer unit that is a transfer destination of the charge accumulated in the plurality of light-receiving elements included in the second light-receiving unit;
Addition for adding the charges transferred to the at least two transfer units including the charges transferred to the first transfer unit and the charges transferred to the second transfer unit, and outputting the added charges to the outside An output unit;
Further, the electronic endoscope is arranged so that a longitudinal direction of the semiconductor substrate coincides with a longitudinal direction of the distal end portion.
前記少なくとも2つの受光部の各々は、光学的に略等価に位置していること、を特徴とする請求項8に記載の電子内視鏡。The electronic endoscope according to claim 8, wherein each of the at least two light receiving units is positioned approximately equivalently optically. 前記少なくとも2つの受光部の各々が有している複数の前記受光素子の配列は、それぞれ同一であること、を特徴とする請求項8または請求項9のいずれかに記載の電子内視鏡。10. The electronic endoscope according to claim 8, wherein an arrangement of the plurality of light receiving elements included in each of the at least two light receiving units is the same. 前記少なくとも2つの受光部の各々で蓄積された前記電荷の各々は、前記所定方向の前記受光素子一列に蓄積された前記電荷毎に、前記少なくとも2つの転送部の各々に転送され、
前記加算出力部は、転送された各々の前記受光素子一列毎の前記電荷同士を加算して外部に出力すること、を特徴とする請求項10に記載の電子内視鏡。
Each of the charges stored in each of the at least two light receiving units is transferred to each of the at least two transfer units for each of the charges stored in the light receiving element row in the predetermined direction,
The electronic endoscope according to claim 10, wherein the addition output unit adds the transferred electric charges of each row of the light receiving elements and outputs the added electric charges to the outside.
前記少なくとも2つの転送部は、前記所定方向に一列に整列した素子に含まれていること、を特徴とする請求項8から請求項11のいずれかに記載の電子内視鏡。The electronic endoscope according to any one of claims 8 to 11, wherein the at least two transfer units are included in elements arranged in a line in the predetermined direction. 前記受光部前面に前記観察対象からの反射光束を第1の光束と第2の光束とに分割する光束分割手段が配置され、前記第1の光束は前記第1の受光部に導かれ、前記第2の光束は前記第2の受光部に導かれること、を特徴とする請求項8から請求項12のいずれかに記載の電子内視鏡。A light beam splitting unit that splits a reflected light beam from the observation target into a first light beam and a second light beam is disposed on the front surface of the light receiving unit, and the first light beam is guided to the first light receiving unit, The electronic endoscope according to any one of claims 8 to 12, wherein a second light flux is guided to the second light receiving unit. 前記光束分割手段はビームスプリッタであり、前記第1の光束は前記ビームスプリッタによる反射光束であり、前記第2の光束は前記ビームスプリッタによる透過光束であること、を特徴とする請求項13に記載の電子内視鏡。14. The beam splitter according to claim 13, wherein the beam splitter is a beam splitter, the first beam is a beam reflected by the beam splitter, and the second beam is a beam transmitted by the beam splitter. Electronic endoscope. 前記第1の受光部と第2の受光部のどちらか一方の前面には減光手段が配置されていること、を特徴とする請求項8から請求項12に記載の電子内視鏡。13. The electronic endoscope according to claim 8, wherein a dimming unit is disposed on a front surface of one of the first light receiving unit and the second light receiving unit.
JP2003112904A 2003-04-17 2003-04-17 Solid-state image sensor, electronic endoscope Pending JP2004313523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003112904A JP2004313523A (en) 2003-04-17 2003-04-17 Solid-state image sensor, electronic endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003112904A JP2004313523A (en) 2003-04-17 2003-04-17 Solid-state image sensor, electronic endoscope

Publications (1)

Publication Number Publication Date
JP2004313523A true JP2004313523A (en) 2004-11-11

Family

ID=33472990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003112904A Pending JP2004313523A (en) 2003-04-17 2003-04-17 Solid-state image sensor, electronic endoscope

Country Status (1)

Country Link
JP (1) JP2004313523A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013027459A1 (en) 2011-08-24 2013-02-28 オリンパスメディカルシステムズ株式会社 Image capture device and iamge capture device system
WO2014002740A1 (en) 2012-06-28 2014-01-03 オリンパスメディカルシステムズ株式会社 Endoscope system
WO2014034339A1 (en) 2012-08-30 2014-03-06 オリンパスメディカルシステムズ株式会社 Endoscope
JP2014524290A (en) * 2011-08-12 2014-09-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Surgical instrument image capture device
EP2856922A4 (en) * 2012-05-24 2016-01-27 Olympus Corp Stereoscopic endoscope device
WO2016059983A1 (en) * 2014-10-14 2016-04-21 オリンパス株式会社 Image capturing system
JP2016511980A (en) * 2013-02-13 2016-04-21 ウニベージティート デス ザ−ルランデスUniversitaet Des Saarlandes Plenoptic imaging device
US9675236B2 (en) 2011-08-12 2017-06-13 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
US9782056B2 (en) 2011-08-12 2017-10-10 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
US10205888B2 (en) 2014-09-18 2019-02-12 Olympus Corporation Endoscope system
US10254533B2 (en) 2011-08-12 2019-04-09 Intuitive Surgical Operations, Inc. Increased resolution and dynamic range image capture unit in a surgical instrument and method
US10606062B2 (en) 2018-06-20 2020-03-31 Karl Storz Imaging, Inc. Medical imaging device with split image on common image sensor
WO2020089967A1 (en) * 2018-10-29 2020-05-07 オリンパス株式会社 Endoscope
CN113225485A (en) * 2021-03-19 2021-08-06 浙江大华技术股份有限公司 Image acquisition assembly, fusion method, electronic device and storage medium
US11375882B2 (en) 2017-06-07 2022-07-05 Olympus Corporation Endoscope system which generates an image of high dynamic range
CN114916899A (en) * 2022-07-19 2022-08-19 珠海维尔康生物科技有限公司 Optical design fluorescence camera and imaging method thereof
US11497389B2 (en) 2018-10-03 2022-11-15 Karl Storz Imaging, Inc. Attachment system for conditioning light between endoscope and camera
US11586029B2 (en) 2020-12-09 2023-02-21 Karl Storz Imaging, Inc. Medical imaging device with split image on common image sensor

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017148657A (en) * 2011-08-12 2017-08-31 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Image capture unit in surgical instrument
US9782056B2 (en) 2011-08-12 2017-10-10 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
EP2741702B1 (en) * 2011-08-12 2022-10-19 Intuitive Surgical Operations, Inc. An image capture unit in a surgical instrument
US10254533B2 (en) 2011-08-12 2019-04-09 Intuitive Surgical Operations, Inc. Increased resolution and dynamic range image capture unit in a surgical instrument and method
US9675236B2 (en) 2011-08-12 2017-06-13 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
US10809519B2 (en) 2011-08-12 2020-10-20 Kitagawa Industries Co., Ltd. Increased resolution and dynamic range image capture unit in a surgical instrument and method
KR20220057635A (en) * 2011-08-12 2022-05-09 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 An apparatus for image capture in a surgical instrument
JP2014524290A (en) * 2011-08-12 2014-09-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Surgical instrument image capture device
US10973398B2 (en) 2011-08-12 2021-04-13 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
KR102529996B1 (en) 2011-08-12 2023-05-08 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 An apparatus for image capture in a surgical instrument
WO2013027459A1 (en) 2011-08-24 2013-02-28 オリンパスメディカルシステムズ株式会社 Image capture device and iamge capture device system
CN103597405B (en) * 2011-08-24 2016-09-28 奥林巴斯株式会社 Camera head and camera system
CN103597405A (en) * 2011-08-24 2014-02-19 奥林巴斯医疗株式会社 Image capture device and image capture device system
EP2856922A4 (en) * 2012-05-24 2016-01-27 Olympus Corp Stereoscopic endoscope device
WO2014002740A1 (en) 2012-06-28 2014-01-03 オリンパスメディカルシステムズ株式会社 Endoscope system
US9030543B2 (en) 2012-06-28 2015-05-12 Olympus Medical Systems Corp. Endoscope system
CN103957770A (en) * 2012-08-30 2014-07-30 奥林巴斯医疗株式会社 Endoscope
CN103957770B (en) * 2012-08-30 2016-05-18 奥林巴斯株式会社 Endoscope
EP2891448A4 (en) * 2012-08-30 2016-04-20 Olympus Corp Endoscope
US8994802B2 (en) 2012-08-30 2015-03-31 Olympus Medical Systems Corp. Endoscope
JP5509400B1 (en) * 2012-08-30 2014-06-04 オリンパスメディカルシステムズ株式会社 Endoscope
WO2014034339A1 (en) 2012-08-30 2014-03-06 オリンパスメディカルシステムズ株式会社 Endoscope
JP2016511980A (en) * 2013-02-13 2016-04-21 ウニベージティート デス ザ−ルランデスUniversitaet Des Saarlandes Plenoptic imaging device
US10205888B2 (en) 2014-09-18 2019-02-12 Olympus Corporation Endoscope system
US10206554B2 (en) 2014-10-14 2019-02-19 Olympus Corporation Image pickup system with white spot correction
JP6017735B2 (en) * 2014-10-14 2016-11-02 オリンパス株式会社 Imaging system
CN106664381A (en) * 2014-10-14 2017-05-10 奥林巴斯株式会社 Image capturing system
WO2016059983A1 (en) * 2014-10-14 2016-04-21 オリンパス株式会社 Image capturing system
US11375882B2 (en) 2017-06-07 2022-07-05 Olympus Corporation Endoscope system which generates an image of high dynamic range
US10606062B2 (en) 2018-06-20 2020-03-31 Karl Storz Imaging, Inc. Medical imaging device with split image on common image sensor
US11497389B2 (en) 2018-10-03 2022-11-15 Karl Storz Imaging, Inc. Attachment system for conditioning light between endoscope and camera
JP7079856B2 (en) 2018-10-29 2022-06-02 オリンパス株式会社 Endoscope
US11733505B2 (en) 2018-10-29 2023-08-22 Olympus Corporation Endoscope
JPWO2020089967A1 (en) * 2018-10-29 2021-09-30 オリンパス株式会社 Endoscope
WO2020089967A1 (en) * 2018-10-29 2020-05-07 オリンパス株式会社 Endoscope
US12072483B2 (en) 2020-12-09 2024-08-27 Karl Storz Imaging, Inc. Method for producing images from a medical device with split images on common image sensors
US11586029B2 (en) 2020-12-09 2023-02-21 Karl Storz Imaging, Inc. Medical imaging device with split image on common image sensor
CN113225485B (en) * 2021-03-19 2023-02-28 浙江大华技术股份有限公司 Image acquisition assembly, fusion method, electronic device and storage medium
CN113225485A (en) * 2021-03-19 2021-08-06 浙江大华技术股份有限公司 Image acquisition assembly, fusion method, electronic device and storage medium
CN114916899A (en) * 2022-07-19 2022-08-19 珠海维尔康生物科技有限公司 Optical design fluorescence camera and imaging method thereof

Similar Documents

Publication Publication Date Title
US4562831A (en) Endoscope system using solid state imaging device
JP3094431B2 (en) Endoscope video signal processing method
JP3448169B2 (en) All-pixel readout electronic endoscope
JP4786915B2 (en) Electronic endoscope device
JP2004313523A (en) Solid-state image sensor, electronic endoscope
CN103260499B (en) Camera head
JPH0785130B2 (en) Color video endoscope system
JPH0685762B2 (en) Endoscopic imaging device
US20090262186A1 (en) Endoscope control unit and endoscope unit
US4947246A (en) Color endoscope apparatus including color lighting control
JPS6036674B2 (en) Endoscope device that displays color images
US10441149B2 (en) Imaging device, endoscope, and endoscope system
JP4531347B2 (en) Electronic endoscope device
JP4459549B2 (en) Solid-state imaging device, electronic endoscope, and electronic endoscope apparatus
JP2003018467A (en) Charge multiplier type solid-state electronic imaging apparatus and its control method
JPS6054589A (en) Illuminating and image pickup device for color video
JP4448320B2 (en) Electronic endoscope device
JP2837896B2 (en) External TV camera for endoscope
JP3462565B2 (en) Endoscope imaging device
JP6277138B2 (en) Endoscope system and operating method thereof
JP3038838B2 (en) Endoscope video signal processing method
JP4439245B2 (en) Electronic endoscope device
JP3403588B2 (en) All-pixel readout electronic endoscope
JP3398551B2 (en) All-pixel readout electronic endoscope
JPH0617394Y2 (en) Endoscope using image sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060228

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100226