JP5818265B2 - Stereoscopic endoscope device - Google Patents

Stereoscopic endoscope device Download PDF

Info

Publication number
JP5818265B2
JP5818265B2 JP2012216844A JP2012216844A JP5818265B2 JP 5818265 B2 JP5818265 B2 JP 5818265B2 JP 2012216844 A JP2012216844 A JP 2012216844A JP 2012216844 A JP2012216844 A JP 2012216844A JP 5818265 B2 JP5818265 B2 JP 5818265B2
Authority
JP
Japan
Prior art keywords
image
visual field
display
field range
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012216844A
Other languages
Japanese (ja)
Other versions
JP2014068796A (en
Inventor
小野 修司
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012216844A priority Critical patent/JP5818265B2/en
Publication of JP2014068796A publication Critical patent/JP2014068796A/en
Application granted granted Critical
Publication of JP5818265B2 publication Critical patent/JP5818265B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は立体内視鏡装置に係り、特に体腔内に挿入される挿入部の先端部に設けられた撮影部によって視差画像を撮影し、体腔内の被観察部位の立体視画像(3D画像)を表示できるようにした立体内視鏡装置に関する。   The present invention relates to a stereoscopic endoscope apparatus, and in particular, captures a parallax image by an imaging unit provided at a distal end portion of an insertion unit to be inserted into a body cavity, and a stereoscopic image (3D image) of a site to be observed in the body cavity. The present invention relates to a stereoscopic endoscope apparatus capable of displaying

立体内視鏡システムは、体腔内に挿入される内視鏡装置の挿入部の先端部に撮影光学系及び固体撮像素子を含む左右一対の撮影部(撮像手段)を備えており、それらの撮影部によって、被観察部位が撮影され、左右の視差画像が立体視用の立体画像(3D画像)として得られるようになっている。そして、その3D画像は、3D表示装置により3D表示されて観察者の右眼で右眼用の画像が観察され、観察者の左眼で左眼用の画像が観察されることによって、被観察部位が立体的に観察されるようになっている。   The stereoscopic endoscope system includes a pair of left and right imaging units (imaging means) including an imaging optical system and a solid-state imaging device at a distal end portion of an insertion unit of an endoscope apparatus that is inserted into a body cavity. The part to be observed is photographed, and left and right parallax images are obtained as stereoscopic images (3D images) for stereoscopic viewing. The 3D image is displayed in 3D on the 3D display device, and the right eye image is observed with the observer's right eye, and the left eye image is observed with the observer's left eye, so that the object is observed. The part is observed three-dimensionally.

特許文献1には、立体内視鏡装置において、狭角の3D画像による被観察部位の観察のみでは、その周辺部の状況確認や処置具の位置確認等ができないことから、平面視用の広角の2D画像を表示できるようにすることが開示されている。これによれば、左右一対の撮影部のうち一方の撮影部によって標準画角の2D画像の撮影が行われ、他方の撮像部によって広角の2D画像の撮影が行われる。広角2次元モードでは広角の2D画像が表示され、3次元モードでは標準画角の2D画像と、広角の2D画像から切り出した2D画像とによって3D画像が表示される。これによって、3D画像と広角の2D画像の表示が行われるようになっている。   In Patent Document 1, in a stereoscopic endoscope apparatus, it is impossible to confirm the state of the peripheral portion or the position of a treatment tool only by observing a site to be observed with a narrow-angle 3D image. It is disclosed that 2D images can be displayed. According to this, a 2D image with a standard angle of view is taken by one of the left and right imaging units, and a wide-angle 2D image is taken by the other imaging unit. In the wide-angle two-dimensional mode, a wide-angle 2D image is displayed, and in the three-dimensional mode, a 3D image is displayed with a 2D image with a standard angle of view and a 2D image cut out from the wide-angle 2D image. As a result, a 3D image and a wide-angle 2D image are displayed.

特許文献2には、3D画像の撮影を行う左右一対の撮影部とは別に広角の2D画像の撮影を行う撮影部を備えた立体内視鏡が開示されており、それらの撮影部によって撮影された3D画像と広角の2D画像が表示されるようになっている。   Patent Document 2 discloses a three-dimensional endoscope having a photographing unit for photographing a wide-angle 2D image separately from a pair of left and right photographing units for photographing a 3D image. 3D images and wide-angle 2D images are displayed.

特開平9−5643号公報Japanese Patent Laid-Open No. 9-5643 特開2003−334160号公報JP 2003-334160 A

ところで、特許文献2の立体内視鏡装置のように、3D画像の撮影のための左右一対の撮影部の他に、広角の2D画像の撮影のための撮影部を設けることは、内視鏡の先端部の太径化と大型化を招くため好ましくない。   By the way, as in the stereoscopic endoscope apparatus of Patent Document 2, it is possible to provide an imaging unit for capturing a wide-angle 2D image in addition to a pair of left and right imaging units for capturing a 3D image. This is not preferable because it leads to an increase in the diameter and size of the tip portion.

一方、特許文献1のように左右一対の撮影部により撮影した左右の視差画像により3D画像と広角の2D画像とを表示できるようにした場合には、特許文献2のような不具合なく3D画像と広角の2D画像とを表示できるという利点がある。   On the other hand, when the 3D image and the wide-angle 2D image can be displayed by the left and right parallax images captured by the pair of left and right imaging units as in Patent Document 1, the 3D image and There is an advantage that a wide-angle 2D image can be displayed.

ここで、3D画像や2D画像の品質を高くするためには解像度を高くし、動画の場合にはフレームレートも高くする必要がある。   Here, in order to increase the quality of 3D images and 2D images, it is necessary to increase the resolution, and in the case of moving images, it is also necessary to increase the frame rate.

しかしながら、解像度やフレームレートを高くすると、単位時間当たりに処理しなければならないデータ量が多くなり、システムの処理負担(圧縮、記録、伝送等)が増えるという問題がある。   However, when the resolution and the frame rate are increased, there is a problem that the amount of data that must be processed per unit time increases and the processing load (compression, recording, transmission, etc.) of the system increases.

一方、3D画像と2D画像を観察する場合において、画質に不満を感じない画像の解像度は、2D画像よりも3D画像の方が高く、動画の場合には、要求されるフレームレートも、立体効果が自然且つ滑らかに感じられるようにするために、2D画像よりも3D画像の方が高い。   On the other hand, when observing a 3D image and a 2D image, the resolution of an image that does not cause dissatisfaction with the image quality is higher for a 3D image than for a 2D image. 3D images are higher than 2D images in order to make the image feel natural and smooth.

また、観察者にとって3D画像は2D画像よりも有用な画像であり、3D画像をより高品質で滑らかな動画として表示できるようにすることが重要である。   In addition, the 3D image is more useful than the 2D image for the observer, and it is important that the 3D image can be displayed as a higher quality and smooth moving image.

したがって、システムの処理負担の増加を極力抑えながら、3D画像の解像度やフレームレートを高くして3D画像の高品質化を図ることが望まれる。特許文献1ではこのような3D画像の品質の向上に関して提案はなされていない。   Therefore, it is desired to improve the quality of the 3D image by increasing the resolution and frame rate of the 3D image while suppressing an increase in the processing load of the system as much as possible. In Patent Document 1, no proposal is made regarding the improvement of the quality of such a 3D image.

また、2D画像はできるだけ広い範囲の情報を得るために広角の画像であることが望まれる。その場合に撮像素子として受光面が大きいものを使用することが考えられるが、3D画像を高品質に維持するためには撮像素子の画素密度を減らすことはできず画素数が増加する。そのため、システムの処理負担が増加するという問題がある。   Further, it is desirable that the 2D image is a wide-angle image in order to obtain as wide a range of information as possible. In that case, it is conceivable to use an image pickup device having a large light receiving surface. However, in order to maintain a high quality 3D image, the pixel density of the image pickup device cannot be reduced and the number of pixels increases. Therefore, there is a problem that the processing load of the system increases.

したがって、システムの処理負担の増加を極力抑えながら、2D画像の広角化を図ることが望まれる。   Accordingly, it is desired to widen the 2D image while suppressing an increase in the processing load of the system as much as possible.

また、システムの処理負担の増加を招くことなく3D画像の高品質化や2D画像の広角化を図る方法として光学的な方法を用いることが考えられる。例えば、光学系の性能を向上させて結像面上に結像される像(光学像)の解像度を高くすることや、光学系としてできるだけ広角のものを使用することが考えられる。   Further, it is conceivable to use an optical method as a method for improving the quality of 3D images and widening the angle of 2D images without increasing the processing load on the system. For example, it is conceivable to improve the performance of the optical system to increase the resolution of an image (optical image) formed on the imaging surface, or to use an optical system having a wide angle as much as possible.

しかしながら、特許文献1のように1つの撮影部により取得された2D画像の一部を切り出して3D画像(3D画像の一方の視差画像)とするような場合には、次のような問題がある。   However, when a part of a 2D image acquired by one photographing unit is cut out as a 3D image (one parallax image of the 3D image) as in Patent Document 1, there are the following problems. .

撮影部の光学系が広角の場合、光学系によって結像面に結像される像(光学像)の解像度が、収差や歪み等の影響で結像面上の位置によって大きく異なる。特に小型化のために簡素な構成の光学系とする場合やコスト軽減のために安価な光学系とする場合には、そのような現象が顕著に現れる。   When the optical system of the imaging unit has a wide angle, the resolution of an image (optical image) formed on the imaging plane by the optical system varies greatly depending on the position on the imaging plane due to the influence of aberration, distortion, and the like. In particular, such a phenomenon is conspicuous when an optical system having a simple configuration for miniaturization or an inexpensive optical system for cost reduction.

そのため、3D画像として撮像される光学像の解像度が低い場合があり、2D画像の広角化と3D画像の高品質化の両立が難しいという問題がある。したがって、光学的な方法で2D画像の広角化と3D画像の高品質化を両立させることが望まれる。   Therefore, the resolution of an optical image captured as a 3D image may be low, and there is a problem that it is difficult to achieve both a wide angle of the 2D image and a high quality of the 3D image. Therefore, it is desired to achieve both widening of the 2D image and high quality of the 3D image by an optical method.

本発明はこのような事情に鑑みてなされたもので、一対の撮影部により撮影した視差画像により3D画像と広角の2D画像を形成可能にした立体内視鏡装置において、システムの処理負担の増加を極力抑えて3D画像の高品質化や2D画像の広角化を図ることができる立体内視鏡装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and in a stereoscopic endoscope apparatus that can form a 3D image and a wide-angle 2D image by using parallax images captured by a pair of imaging units, an increase in the processing load of the system is increased. It is an object of the present invention to provide a stereoscopic endoscope apparatus that can improve the quality of a 3D image and widen the angle of a 2D image while suppressing as much as possible.

上記目的を達成するために本発明の一の態様に係る立体内視鏡装置は、第1視野範囲の被写体を撮影し、立体視用の3D画像及び平面視用の2D画像を形成するための第1画像を取得する第1撮影部と、第1視野範囲と一部で重なる第2視野範囲の被写体を撮影し、立体視用の3D画像及び平面視用の2D画像を形成するための第2画像を取得する第2撮影部とを有する立体内視鏡装置であって、第1撮影部及び第2撮影部は、第1画像及び第2画像内の画像領域のうち、立体視用の3D画像を形成する3D領域の画像の解像度を、平面視用の2D画像のみを形成する2D領域の画像の解像度よりも高くする。   In order to achieve the above object, a stereoscopic endoscope apparatus according to one aspect of the present invention captures a subject in a first visual field range and forms a stereoscopic 3D image and a planar 2D image. A first imaging unit for acquiring a first image and a subject in a second visual field range that partially overlaps the first visual field range, and forming a 3D image for stereoscopic viewing and a 2D image for planar viewing. A stereoscopic endoscope apparatus having a second imaging unit that acquires two images, wherein the first imaging unit and the second imaging unit are for stereoscopic vision among image regions in the first image and the second image. The resolution of the image of the 3D area that forms the 3D image is set higher than the resolution of the image of the 2D area that forms only the 2D image for planar view.

本発明によれば、2D画像のデータに対する処理負担を減らして、3D画像の解像度やフレームレートを高くすることが可能となり、システムの処理負担の増加を招くことなく3D画像の高品質化を図ることができる。また、システムの処理負担の増加を招くことなく、2D画像を取り込む受光面の面積を大きくすることが可能となり、2D画像の広角化を図ることもできる。   According to the present invention, it is possible to reduce the processing load on 2D image data and increase the resolution and frame rate of the 3D image, and to improve the quality of the 3D image without increasing the processing load on the system. be able to. Further, it is possible to increase the area of the light receiving surface for capturing the 2D image without increasing the processing load of the system, and it is possible to widen the angle of the 2D image.

なお、3D領域の画像の解像度を2D領域の画像の解像度よりも高くする形態には、下記のように、撮影光学系により結像される光学像の解像度に関して2D領域よりも3D領域を高くする形態、撮像素子の受光面の画素ピッチに関して2D領域よりも3D領域を高くする形態、及び、撮像素子から有効に画素データを取得する画素の密度に関して2D領域よりも3D領域を高くする形態の各々が含まれる。   In addition, in the form in which the resolution of the image of the 3D area is higher than the resolution of the image of the 2D area, the resolution of the optical image formed by the photographing optical system is set higher than the 2D area as described below. Each of the forms, the form in which the 3D area is made higher than the 2D area with respect to the pixel pitch of the light receiving surface of the image sensor, and the form in which the 3D area is made higher than the 2D area with respect to the density of pixels for effectively acquiring pixel data from the image sensor Is included.

本発明は、第1撮影部は、被写体の光学像を第1結像面に結像する第1撮影光学系を有し、第2撮影部は、被写体の光学像を第2結像面に結像する第2撮影光学系を有し、第1撮影光学系及び第2撮影光学系は、第1結像面及び第2結像面内の領域のうち、3D領域の画像が撮像される領域の光学像の解像度を、2D領域の画像が撮像される領域の光学像の解像度よりも高くすることにより、3D領域の画像の解像度を、2D領域の画像の解像度よりも高くする形態とすることができる。   In the present invention, the first photographing unit includes a first photographing optical system that forms an optical image of the subject on the first imaging surface, and the second photographing unit includes the optical image of the subject on the second imaging surface. The first imaging optical system and the second imaging optical system pick up an image of a 3D area among the first imaging plane and the area in the second imaging plane. The resolution of the optical image of the area is set higher than the resolution of the image of the 2D area by increasing the resolution of the image of the 3D area by increasing the resolution of the optical image of the area where the image of the 2D area is captured. be able to.

より具体的には、第1撮影光学系及び第2撮影光学系は、第1結像面及び第2結像面内の領域のうち、光学像の解像度が最大となる位置を含む領域に3D画像を撮影する視野範囲の光学像を結像する形態とすることができる。また、第1撮影光学系及び第2撮影光学系は、等距離射影方式、等立体角射影方式、又は、正射影方式の魚眼レンズでとすることができる。   More specifically, the first imaging optical system and the second imaging optical system are 3D in an area including the position where the resolution of the optical image is maximum among the areas in the first imaging plane and the second imaging plane. It is possible to form an optical image in the visual field range for capturing an image. Further, the first photographing optical system and the second photographing optical system can be a fisheye lens of an equidistant projection method, an equal solid angle projection method, or an orthographic projection method.

本形態によれば、撮影光学系の歪みや収差等によって結像面上の位置に応じて光学像の解像度が変動する場合であっても、それを考慮しない場合と比較して、確実に3D画像の高品質化を図ることできる。   According to the present embodiment, even when the resolution of the optical image varies depending on the position on the imaging surface due to distortion or aberration of the photographing optical system, the 3D is surely compared with the case where the resolution is not taken into consideration. The quality of the image can be improved.

本発明は、第1撮影部は、被写体の光学像を結像する第1撮影光学系と、第1撮影光学系により結像された光学像を撮像する第1撮像素子を有し、第2撮影部は、被写体の光学像を結像する第2撮影光学系と、第2撮影光学系により結像された光学像を撮像する第2撮像素子を有し、第1撮像素子及び第2撮像素子は、受光面内の領域のうち、3D領域の画像を撮像する領域の画素ピッチを、2D領域の画像を撮像する領域の画素ピッチよりも小さくする形態とすることができる。   In the present invention, the first photographing unit includes a first photographing optical system that forms an optical image of a subject, and a first image pickup device that picks up an optical image formed by the first photographing optical system. The imaging unit includes a second imaging optical system that forms an optical image of a subject, and a second imaging element that images the optical image formed by the second imaging optical system. The first imaging element and the second imaging element The element may have a form in which a pixel pitch of a region for capturing an image of a 3D region is made smaller than a pixel pitch of a region for capturing an image of a 2D region.

本形態のように撮像素子の画素ピッチを3D領域と2D領域とで異ならせることで、3D画像の解像度を2D画像の解像度よりも高くすることができる。   By making the pixel pitch of the image sensor different between the 3D region and the 2D region as in this embodiment, the resolution of the 3D image can be made higher than the resolution of the 2D image.

本発明は、第1撮影部は、被写体の光学像を結像する第1撮影光学系と、該第1撮影光学系により結像された光学像を撮像する第1撮像素子を有し、第2撮影部は、被写体の光学像を結像する第2撮影光学系と、該第2撮影光学系により結像された光学像を撮像する第2撮像素子を有し、第1撮像素子及び第2撮像素子の受光面内の領域のうち、3D領域の画像を撮像する領域から有効に画素データを取得する画素の密度を、2D領域の画像を撮像する領域から有効に画素データを取得する画素の密度よりも高くする画素密度変更手段を備えた形態とすることができる。   In the present invention, the first photographing unit includes a first photographing optical system that forms an optical image of a subject, and a first image pickup device that picks up an optical image formed by the first photographing optical system. The second photographing unit includes a second photographing optical system that forms an optical image of a subject, and a second imaging element that picks up an optical image formed by the second photographing optical system. Among the areas within the light receiving surface of the two image sensor, the pixel density for effectively acquiring pixel data from the area for capturing the image of the 3D area, and the pixel for effectively acquiring the pixel data from the area for capturing the image of the 2D area The pixel density changing means for making the density higher than the above density can be provided.

本形態のように撮像素子の受光面の領域から有効に画素データを取得する画素の密度によって3D画像の解像度を2D画像の解像度よりも高くすることができる。具体的には、間引き処理やビニング処理によって画素密度を変更(低減)することができる。   As in this embodiment, the resolution of the 3D image can be made higher than the resolution of the 2D image depending on the density of pixels that effectively acquire pixel data from the region of the light receiving surface of the image sensor. Specifically, the pixel density can be changed (reduced) by thinning processing or binning processing.

本発明によれば、システムの処理負担の増加を極力抑えて3D画像の高品質化や2D画像の広角化を図ることができるようになる。   According to the present invention, it is possible to increase the quality of a 3D image and widen the angle of a 2D image while suppressing an increase in the processing load of the system as much as possible.

本発明が適用される立体内視鏡システムの外観の概略を示した全体構成図Overall configuration diagram showing an outline of the appearance of a stereoscopic endoscope system to which the present invention is applied 内視鏡の先端部を先端面側から示した正面図Front view showing the distal end of the endoscope from the distal end side 立体内視鏡システムにおいて、内視鏡画像として3D画像や広角2D画像を表示する処理部に関連する構成を示したブロック図The block diagram which showed the structure relevant to the process part which displays a 3D image and a wide-angle 2D image as an endoscope image in a stereoscopic endoscope system. 撮影部の撮影光学系及びイメージセンサと、それらの視野範囲に関して示した図Diagram showing the photographic optical system and image sensor of the photographic unit and their visual field ranges 右撮影部及び左撮影部により視差画像として撮影された右画像及び左画像を例示した図The figure which illustrated the right image and left image which were image | photographed as a parallax image by the right imaging | photography part and the left imaging | photography part 表示画像生成部によって生成される表示画像(右眼用表示画像及び左眼用表示画像)の3D表示装置での画面構成を例示した図であり、内視鏡画像を表示する表示エリアを例示した図It is the figure which illustrated the screen composition in the 3D display device of the display image (the display image for right eyes and the display image for left eyes) generated by the display image generation part, and illustrated the display area which displays an endoscope image Figure 表示画像生成部によって生成される表示画像(右眼用表示画像及び左眼用表示画像)の3D表示装置での画面構成を例示した図であり、内視鏡画像を表示する表示エリアを例示した図It is the figure which illustrated the screen composition in the 3D display device of the display image (the display image for right eyes and the display image for left eyes) generated by the display image generation part, and illustrated the display area which displays an endoscope image Figure 表示画像生成部によって生成される表示画像(右眼用表示画像及び左眼用表示画像)の3D表示装置での画面構成を例示した図であり、内視鏡画像を表示する表示エリアを例示した図It is the figure which illustrated the screen composition in the 3D display device of the display image (the display image for right eyes and the display image for left eyes) generated by the display image generation part, and illustrated the display area which displays an endoscope image Figure 図6における3D画像&広角2D画像表示エリアの右表示画像及び左表示画像を生成する処理の概要を示した図The figure which showed the outline | summary of the process which produces | generates the right display image and left display image of the 3D image & wide-angle 2D image display area in FIG. 図6における3D画像&広角2D画像表示エリアの右表示画像及び左表示画像を生成する処理の変形例を示した図The figure which showed the modification of the process which produces | generates the right display image and left display image of the 3D image & wide-angle 2D image display area in FIG. 図7及び図8(A)における3D画像表示エリア160の右表示画像及び左表示画像を生成する処理の概要を示した図The figure which showed the outline | summary of the process which produces | generates the right display image and left display image of the 3D image display area 160 in FIG.7 and FIG.8 (A). 図7及び図8(B)における広角2D画像表示エリア170の右表示画像及び左表示画像を生成する処理の概要を示した図The figure which showed the outline | summary of the process which produces | generates the right display image and left display image of the wide-angle 2D image display area 170 in FIG.7 and FIG.8 (B). 変形例1において右撮影部及び左撮影部により取り込まれる右画像及び左画像を示した図The figure which showed the right image and left image which are taken in by the right imaging | photography part and the left imaging | photography part in the modification 1. 変形例2、3において撮影部により取り込まれる右画像及び左画像ILの画素構成を示したイメージ1において右撮影部及び左撮影部により取り込まれる右画像及び左画像を示した図The figure which showed the right image and the left image which were taken in by the right imaging | photography part and the left imaging | photography part in the image 1 which showed the pixel structure of the right image and left image IL taken in by the imaging | photography part in the modification 2, 3. 変形例2における撮影部の構成を示した図The figure which showed the structure of the imaging | photography part in the modification 2. 変形例3におけるイメージセンサの受光面における画素ピッチを示した図The figure which showed the pixel pitch in the light-receiving surface of the image sensor in the modification 3. 変形例4における撮影部の撮影光学系及びイメージセンサの構成を示した図The figure which showed the structure of the imaging | photography optical system and image sensor of the imaging | photography part in the modification 4. 撮影光学系の解像度の特性に関して例示した図Diagram illustrating the resolution characteristics of the photographic optical system 撮影光学系の解像度の特性に関して例示した図Diagram illustrating the resolution characteristics of the photographic optical system 撮影光学系の一部のレンズが共有されている撮影部の形態を示した図The figure which showed the form of the photographing part where a part of the lens of the photographing optical system is shared 撮影光学系の全てのレンズが共有されている撮影部の形態を示した図The figure which showed the form of the photographing part where all the lenses of the photographing optical system are shared

以下、添付図面に従って本発明の好ましい実施の形態について詳説する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明が適用される立体内視鏡システムの外観の概略を示した全体構成図である。同図に示す立体内視鏡システム10は、立体視用の立体画像(3D画像)を撮影して表示することが可能なシステムである。撮影に関する構成及び処理以外については、3D画像ではなく通常の2D画像(平面視用の画像)を撮影し、表示する周知の内視鏡システムと大きく相違しない。以下では、主として撮影に関連する構成、処理について説明し、その他の構成、処理については周知の任意の内視鏡システムと同様に構成することが可能であるものとする。   FIG. 1 is an overall configuration diagram showing an outline of an external appearance of a stereoscopic endoscope system to which the present invention is applied. A stereoscopic endoscope system 10 shown in the figure is a system capable of capturing and displaying a stereoscopic image (3D image) for stereoscopic viewing. Except for the configuration and processing related to imaging, the imaging system is not greatly different from a known endoscope system that captures and displays a normal 2D image (an image for planar view) instead of a 3D image. Hereinafter, the configuration and processing related mainly to imaging will be described, and other configurations and processing can be configured in the same manner as any known endoscope system.

同図に示すように本実施の形態の立体内視鏡システム10は、立体内視鏡装置12(以下、内視鏡12という。)、内視鏡12が接続されたプロセッサ装置14及び光源装置16と、プロセッサ装置14に接続された3D表示装置18などから構成される。   As shown in the figure, the stereoscopic endoscope system 10 of the present embodiment includes a stereoscopic endoscope device 12 (hereinafter referred to as an endoscope 12), a processor device 14 to which the endoscope 12 is connected, and a light source device. 16 and a 3D display device 18 connected to the processor device 14.

患者の体腔内には内視鏡12が挿入され、所望の被観察部位の3D画像を表示するための左右一対の視差画像(右画像及び左画像)が内視鏡12により撮影されるようになっている。被観察部位には、光源装置16から内視鏡12に供給される照明光が照射される。また、それらの視差画像は3D画像だけでなく広角の2D画像(広角2D画像)を表示するための画像としても使用される。   An endoscope 12 is inserted into the body cavity of a patient, and a pair of left and right parallax images (right image and left image) for displaying a 3D image of a desired observation site are captured by the endoscope 12. It has become. The observation site is irradiated with illumination light supplied from the light source device 16 to the endoscope 12. These parallax images are used not only as 3D images but also as images for displaying wide-angle 2D images (wide-angle 2D images).

内視鏡12により撮影された視差画像は、プロセッサ装置14に取り込まれ、所要の処理が施されて、3D画像や2D画像を表示するための表示画像に成形される。そして、その表示画像が3D表示装置18に出力され、3D表示装置18に3D画像や広角2D画像が内視鏡画像として表示されるようになっている。施術者は3D表示装置18に表示された内視鏡画像を観察することによって、体腔内の被観察部位を立体的又は平面的に観察することができる。   The parallax image photographed by the endoscope 12 is captured by the processor device 14 and subjected to necessary processing to be formed into a display image for displaying a 3D image or a 2D image. Then, the display image is output to the 3D display device 18, and a 3D image or a wide-angle 2D image is displayed on the 3D display device 18 as an endoscopic image. By observing the endoscopic image displayed on the 3D display device 18, the practitioner can observe the site to be observed in the body cavity three-dimensionally or planarly.

上記の内視鏡12は、患者(被検体)の体腔内に挿入可能な挿入部20と、施術者が把持して各種操作を行う操作部22と、内視鏡12をプロセッサ装置14及び光源装置16に接続するユニバーサルコード24とを備えている。   The endoscope 12 includes an insertion portion 20 that can be inserted into a body cavity of a patient (subject), an operation portion 22 that is held by a practitioner and that performs various operations, and the endoscope 12 that includes a processor device 14 and a light source. And a universal cord 24 connected to the device 16.

挿入部20は、長手方向の長手軸20aを中心軸として長尺状に形成され、長手軸20aに直交する断面において略円形となる外周面を有している。挿入部20は、先端部30、湾曲部32、及び軟性部34により構成されている。   The insertion portion 20 is formed in an elongated shape with the longitudinal axis 20a in the longitudinal direction as a central axis, and has an outer peripheral surface that is substantially circular in a cross section orthogonal to the longitudinal axis 20a. The insertion portion 20 includes a distal end portion 30, a bending portion 32, and a flexible portion 34.

先端部30は、挿入部20の先端に設けられており、長手軸20aに略直交する先端面30aを有している。この先端部30には、詳細を後述するように先端面30aに対して正面側に位置する体腔内の被観察部位を撮影する撮影部の構成部材や、撮影部で撮影する被観察部位に光源装置16からの照明光を出射する照明部の構成部材等が硬質部材に収容されて保持されている。   The distal end portion 30 is provided at the distal end of the insertion portion 20, and has a distal end surface 30a substantially orthogonal to the longitudinal axis 20a. As will be described in detail later, the distal end portion 30 includes a component of an imaging unit that images an observed site in a body cavity located in front of the distal end surface 30a, and a light source for the observed site captured by the imaging unit. The components of the illumination unit that emits illumination light from the device 16 are accommodated and held in a hard member.

湾曲部32は、先端部30の基端側に連設され、操作部22のアングルノブ40の回動操作によって上下左右方向に能動的に湾曲させることができるようになっている。この湾曲部32に対する湾曲操作によって体腔内での先端部30の向きを変更して先端部30の撮影部で撮影等を行う被観察部位の方向を調整することができる。   The bending portion 32 is connected to the proximal end side of the distal end portion 30 and can be actively bent in the vertical and horizontal directions by the turning operation of the angle knob 40 of the operation portion 22. By bending the bending portion 32, the direction of the distal end portion 30 in the body cavity can be changed to adjust the direction of the site to be observed where imaging is performed by the imaging portion of the distal end portion 30.

軟性部34は、湾曲部32の基端側に連設されると共に操作部22の先端に連設され、湾曲部32の基端から操作部22の先端までの間を連結している。軟性部34は軟性で可撓性を有しており、この軟性部34が体腔内への挿入経路の形状等に応じて受動的に湾曲することによって、先端部30を体腔内の所期の位置に挿入配置することができるようになっている。軟性部34及び湾曲部32の内部には、先端部30の撮影部や照明部に接続されるケーブル、ライトガイド等が挿通配置されている。   The flexible portion 34 is connected to the proximal end side of the bending portion 32 and is connected to the distal end of the operation portion 22, and connects the proximal end of the bending portion 32 to the distal end of the operation portion 22. The soft portion 34 is soft and flexible, and the soft portion 34 is passively bent according to the shape of the insertion path into the body cavity, etc., so that the distal end portion 30 is moved into the desired position in the body cavity. It can be inserted and placed at the position. Inside the flexible portion 34 and the bending portion 32, a cable, a light guide, and the like connected to the photographing portion and the illumination portion of the distal end portion 30 are disposed.

操作部22は、挿入部20の基端側に連設されており、操作部22には、上記のアングルノブ40や、送気・送水ボタン42等の内視鏡12の操作部材が設けられている。施術者は操作部22を把持して操作部22に設けられた操作部材を操作することによって内視鏡12の各種操作を行うことができるようになっている。   The operation unit 22 is connected to the proximal end side of the insertion unit 20, and the operation unit 22 is provided with operation members of the endoscope 12 such as the angle knob 40 and the air / water supply button 42. ing. The practitioner can perform various operations of the endoscope 12 by holding the operation unit 22 and operating an operation member provided in the operation unit 22.

また、操作部22の先端側には、処置具挿入口44が設けられている。この処置具挿入口44は、挿入部20の内部を挿通する処置具チャンネル(管路)を通じて先端部30(後述の処置具導出口54)に連通している。したがって、処置具挿入口44から所望の処置具を挿入することによって、その処置具を先端部30の処置具導出口54から導出し、処置具の種類に対応した処置を体腔内の被観察部位等に施すことができるようになっている。   In addition, a treatment instrument insertion port 44 is provided on the distal end side of the operation unit 22. The treatment instrument insertion port 44 communicates with the distal end portion 30 (a treatment instrument outlet 54 described later) through a treatment instrument channel (pipe) that is inserted through the insertion portion 20. Therefore, by inserting a desired treatment tool from the treatment tool insertion port 44, the treatment tool is led out from the treatment tool lead-out port 54 of the distal end portion 30, and a treatment corresponding to the type of the treatment tool is observed in the body cavity. Etc. can be applied.

ユニバーサルコード24は、操作部22から延出されており、端部には複合タイプのコネクタ26が設けられている。ユニバーサルコード24は、そのコネクタ26によりプロセッサ装置14及び光源装置16に接続されるようになっている。   The universal cord 24 extends from the operation unit 22, and a composite type connector 26 is provided at the end. The universal cord 24 is connected to the processor device 14 and the light source device 16 by the connector 26.

このユニバーサルコード24の内部には、先端部30の撮影部や照明部から挿入部20及び操作部22の内部を挿通したケーブルやライトガイド等が挿通配置されており、撮影部に接続されたケーブル(信号線)はコネクタ26を介してプロセッサ装置14に接続され、照明部に接続されたライトガイドはコネクタ26を介して光源装置16に接続されるようになっている。   Inside the universal cord 24, a cable, a light guide, and the like that are inserted through the insertion unit 20 and the operation unit 22 from the imaging unit and the illumination unit of the distal end 30 are inserted and arranged. The cable connected to the imaging unit The (signal line) is connected to the processor device 14 via the connector 26, and the light guide connected to the illumination unit is connected to the light source device 16 via the connector 26.

これによって、先端部30の撮影部で撮影された視差画像の撮像信号がケーブルを伝送してプロセッサ装置14に取り込まれ、光源装置16から出射された照明光がライトガイドを伝送して先端部30の照明部から出射されるようになっている。   As a result, the imaging signal of the parallax image captured by the imaging unit of the distal end portion 30 is transmitted to the processor device 14 through the cable, and the illumination light emitted from the light source device 16 is transmitted to the light guide to transmit the distal end portion 30. It is emitted from the illumination part.

図2は、内視鏡12の先端部30を先端面30a側から示した正面図である。同図に示すように、先端部30には、先端面30aの正面側の被観察部位を撮影する撮影部50と、被観察部位を照明する照明光を出射する照明部52とが配設されている。   FIG. 2 is a front view showing the distal end portion 30 of the endoscope 12 from the distal end surface 30a side. As shown in the figure, the distal end portion 30 is provided with an imaging unit 50 that captures an observation site on the front side of the distal end surface 30a and an illumination unit 52 that emits illumination light that illuminates the observation site. ing.

撮影部50は、左右に並設された一対の撮影部50R、50L(右撮影部50R、左撮影部50L)を有し、これらの撮影部50R、50Lによって、体腔内の同一の被観察部位を異なる位置から撮影した左右一対の視差画像が撮影されるようになっている。   The imaging unit 50 has a pair of imaging units 50R and 50L (right imaging unit 50R and left imaging unit 50L) arranged side by side on the left and right sides, and by these imaging units 50R and 50L, the same site to be observed in the body cavity A pair of left and right parallax images taken from different positions are taken.

先端面30aには、撮影部50R、50Lの各々に被観察部位からの光を取り込む観察窓62R、62Lが配設され、照明部52から被観察部位に照明光を出射する照明窓94が配設されている。また、先端面30aには、挿入部20の処置具挿入口44から挿入されて処置具チャンネルを挿通した処置具を先端面30aから導出する処置具導出口54や、操作部22の送気・送水ボタン42の操作によって洗浄水や空気を観察窓62R、62Lに向けて噴射する送気・送水ノズル56が設けられている。   On the distal end surface 30a, observation windows 62R and 62L for capturing light from the observation site are arranged in the imaging units 50R and 50L, respectively, and an illumination window 94 for emitting illumination light from the illumination unit 52 to the observation site is arranged. It is installed. Further, on the distal end surface 30a, a treatment instrument outlet 54 through which the treatment instrument inserted through the treatment instrument insertion port 44 of the insertion section 20 and inserted through the treatment instrument channel is led out from the distal end face 30a, and the air supply / An air supply / water supply nozzle 56 is provided to inject cleaning water or air toward the observation windows 62R and 62L by operating the water supply button 42.

図3は、上記立体内視鏡システム10において、内視鏡画像として3D画像や広角2D画像を表示する処理部に関連する構成を示したブロック図である。   FIG. 3 is a block diagram illustrating a configuration related to a processing unit that displays a 3D image or a wide-angle 2D image as an endoscopic image in the stereoscopic endoscope system 10.

同図に示すよう内視鏡12(先端部30)には、撮影部50として左右一対の右撮影部50R(第1撮影部)と左撮影部50L(第2撮影部)が配置されており、右撮影部50Rと左撮影部50Lとは所定の中心面50aに対して対称に配置されている。撮影部50R、50Lの各々は、撮影光学系60R、60L(第1撮影光学系及び第2撮影光学系)、CCD又はMOS型(CMOS)のイメージセンサ(撮像素子)70R、70L(第1撮像素子及び第2撮像素子)、アナログ信号処理部(AFE)80R、80L、送信部82R、82L等を備えている。   As shown in the figure, the endoscope 12 (tip portion 30) is provided with a pair of right and left right photographing portions 50R (first photographing portion) and left photographing portion 50L (second photographing portion) as photographing portions 50. The right photographing unit 50R and the left photographing unit 50L are arranged symmetrically with respect to a predetermined center plane 50a. Each of the imaging units 50R and 50L includes imaging optical systems 60R and 60L (first imaging optical system and second imaging optical system), CCD or MOS type (CMOS) image sensors (imaging elements) 70R and 70L (first imaging). Element and second imaging device), analog signal processing units (AFE) 80R and 80L, transmission units 82R and 82L, and the like.

右撮影部50Rと左撮影部50Lの各々の撮影光学系60R、60Lは、同一特性を有しており、詳細な構成を省略しているが複数のレンズにより構成されている。図2に示した照明部52からの照明光により照明された先端面30aに対向する被観察部位からの光は、これらの撮影光学系60R、60Lに入射し、撮影光学系60R、60Lの結像作用により、被観察部位の像をイメージセンサ70R、70Lの受光面上に形成する。   The photographing optical systems 60R and 60L of the right photographing unit 50R and the left photographing unit 50L have the same characteristics, and are configured by a plurality of lenses although a detailed configuration is omitted. The light from the part to be observed facing the distal end surface 30a illuminated by the illumination light from the illumination unit 52 shown in FIG. 2 is incident on these photographing optical systems 60R and 60L, and the connection of the photographing optical systems 60R and 60L. An image of the site to be observed is formed on the light receiving surfaces of the image sensors 70R and 70L by image action.

イメージセンサ70R、70Lの受光面上に形成された像は、イメージセンサ70R、70Lにより左右一対の視差画像として撮像(光電変換)されて、撮像信号としてイメージセンサ70R、70Lの各々から出力される。なお、右撮影部50Rのイメージセンサ70Rにより撮像されて得られる視差画像を右画像(第1画像)といい、左撮影部50Lのイメージセンサ70Lにより撮像されて得られる視差画像を左画像(第2画像)というものとする。   The images formed on the light receiving surfaces of the image sensors 70R and 70L are captured (photoelectric conversion) as a pair of left and right parallax images by the image sensors 70R and 70L, and are output from the image sensors 70R and 70L as imaging signals. . The parallax image obtained by being imaged by the image sensor 70R of the right photographing unit 50R is called a right image (first image), and the parallax image obtained by being imaged by the image sensor 70L of the left photographing unit 50L is a left image (first image). 2 images).

図4は、撮影部50R、50Lの撮影光学系60R、60L及びイメージセンサ70R、70Lと、それらの視野範囲に関して示した図である。   FIG. 4 is a diagram illustrating the photographing optical systems 60R and 60L and the image sensors 70R and 70L of the photographing units 50R and 50L, and their visual field ranges.

同図において、右撮影部50Rの撮影光学系60R及びイメージセンサ70Rと、左撮影部50Lの撮影光学系60L及びイメージセンサ70Lは、紙面に垂直な中心面50aに対して左右対称となるように配置されている。   In the drawing, the imaging optical system 60R and the image sensor 70R of the right imaging unit 50R and the imaging optical system 60L and the image sensor 70L of the left imaging unit 50L are symmetrical with respect to the center plane 50a perpendicular to the paper surface. Has been placed.

右撮影部50Rの撮影光学系60R及びイメージセンサ70Rは、視野範囲VFR(第1視野範囲)の被写体を右画像として撮影し、左撮影部50Lの撮影光学系60L及びイメージセンサ70Lは、視野範囲VFLの被写体を左画像として撮影するようになっており、これらの視野範囲VFRと視野範囲VFLは上記中心面50aに対して左右対称となっており、中央部分において重なるようになっている。   The photographing optical system 60R and the image sensor 70R of the right photographing unit 50R photograph a subject in the visual field range VFR (first visual field range) as a right image, and the photographing optical system 60L and the image sensor 70L of the left photographing unit 50L include the visual field range. A VFL subject is photographed as a left image, and the visual field range VFR and the visual field range VFL are symmetrical with respect to the central plane 50a, and overlap in the central portion.

同図の基準面RPは、上記中心面50aに対して直交する平面であり、例えば挿入部20の長手軸20aに対して直交している。そして、先端部30の先端面30aから所定距離Lの位置であって、撮影光学系60R、60Lによりピントが合う距離に想定されている。   The reference plane RP in the figure is a plane orthogonal to the center plane 50a, and is orthogonal to the longitudinal axis 20a of the insertion portion 20, for example. It is assumed that the position is a predetermined distance L from the distal end surface 30a of the distal end portion 30 and is in focus by the photographing optical systems 60R and 60L.

この基準面RPは、撮影部50R、50Lにより撮像された左右一対の視差画像により3D表示装置18の画面に3D画像を表示した場合において、画面上の位置に存在すると認識される物点の位置を示している。即ち、基準面RP上の物点は、3D画像において画面上に存在するように表示される。基準面RPの先端面30aからの距離Lは、一般的な内視鏡においてピント位置となる8cm〜10cmであることが望ましい。また、その基準面RPの前後1cm程度は被写界深度の範囲としてピントが合うことが望ましい。   The reference plane RP is a position of an object point that is recognized as being present at a position on the screen when a 3D image is displayed on the screen of the 3D display device 18 by a pair of left and right parallax images captured by the imaging units 50R and 50L. Is shown. That is, the object points on the reference plane RP are displayed so as to exist on the screen in the 3D image. The distance L from the tip surface 30a of the reference plane RP is desirably 8 cm to 10 cm, which is a focus position in a general endoscope. Further, it is desirable that about 1 cm before and after the reference plane RP is in focus as the range of the depth of field.

その基準面RPにおいて、視野範囲VFRと視野範囲VFLとが重なる領域は、視野範囲VFRの左端からの視野範囲3DRと、視野範囲VFLの右端からの視野範囲3DLで示されている。また、基準面RPにおいて、視野範囲VFRと視野範囲VFLとが重ならない領域のうち、視野範囲VFRのみの領域は視野範囲VFRの右端からの視野範囲2DRで示され、視野範囲VFLのみの領域は視野範囲VFLの左端からの視野範囲2DLで示されている。   In the reference plane RP, a region where the visual field range VFR and the visual field range VFL overlap is indicated by a visual field range 3DR from the left end of the visual field range VFR and a visual field range 3DL from the right end of the visual field range VFL. In the reference plane RP, among the regions where the visual field range VFR and the visual field range VFL do not overlap, the region of only the visual field range VFR is indicated by the visual field range 2DR from the right end of the visual field range VFR, and the region of the visual field range VFL only A visual field range 2DL from the left end of the visual field range VFL is shown.

なお、以下において、視野範囲VFR、VFL、3DR、3DLを個別に言う場合には、視野範囲VFRを右全視野範囲VFR、視野範囲VFLを左全視野範囲VFL、視野範囲3DRを右3D視野範囲3DR、視野範囲3DLを左3D視野範囲3DLというものとし、基準面RPにおいて右全視野範囲VFRと左全視野範囲VFLが重なる視野範囲(即ち、右3D視野範囲3DRと左3D視野範囲3DLとを合せた視野範囲)を3D視野範囲3DR&3DLというものとする。また、視野範囲2DR、2DLを個別にいう場合には、視野範囲2DRを右2D視野範囲2DR、視野範囲2DLを左2D視野範囲2DLというものとする。   In the following, when the visual field ranges VFR, VFL, 3DR, and 3DL are referred to individually, the visual field range VFR is the right full visual field range VFR, the visual field range VFL is the left full visual field range VFL, and the visual field range 3DR is the right 3D visual field range. 3DR, the visual field range 3DL is referred to as a left 3D visual field range 3DL, and the visual field range in which the right full visual field range VFR and the left full visual field range VFL overlap on the reference plane RP (that is, the right 3D visual field range 3DR and the left 3D visual field range 3DL are The combined visual field range is referred to as 3D visual field range 3DR & 3DL. When the visual field ranges 2DR and 2DL are referred to individually, the visual field range 2DR is referred to as a right 2D visual field range 2DR, and the visual field range 2DL is referred to as a left 2D visual field range 2DL.

同図に示す被写体O1、O2、O3は、基準面RP上に存在する物体を例示しており、被写体O1は、3D視野範囲3DR&3DLに存在し、被写体O2は、右2D視野範囲2DRに存在し、被写体O3は、左2D視野範囲2DLに存在している。被写体O4、O5は、3D視野範囲3DR&3DLに存在するが、基準面RP上に存在しない被写体を示しており、被写体O4は、基準面RPよりも先端面30aに近い位置に存在し、被写体O5は、基準面RPよりも先端面30aから遠い位置に存在する被写体を示している。   The subjects O1, O2, and O3 shown in the figure illustrate objects existing on the reference plane RP, the subject O1 exists in the 3D visual field range 3DR & 3DL, and the subject O2 exists in the right 2D visual field range 2DR. The object O3 exists in the left 2D visual field range 2DL. The subjects O4 and O5 indicate subjects that exist in the 3D visual field range 3DR & 3DL but do not exist on the reference plane RP. The subject O4 exists at a position closer to the front end surface 30a than the reference plane RP. 3 shows a subject that is located farther from the front end surface 30a than the reference plane RP.

これらの被写体O1〜O5が存在する場合に、右撮影部50Rと左撮影部50Lの各々により、図4の上部及び図5(A)、(B)に示すような右画像IRと左画像ILが左右一対の視差画像として撮影される。右画像IRには、被写体O1〜O5のうち、被写体O1、O2、O4、O5の画像が映り込み、それらの画像が各々、被写体画像O1R、O2、O4R、O5Rとして示されている。左画像ILには、被写体O1〜O5のうち、被写体O1、O3、O4、O5の画像が映り込み、それらの画像が各々、被写体画像O1L、O3L、O4L、O5Lとして示されている。   When these subjects O1 to O5 exist, the right image IR and the left image IL as shown in the upper part of FIG. 4 and FIGS. 5A and 5B are respectively obtained by the right photographing unit 50R and the left photographing unit 50L. Are taken as a pair of left and right parallax images. The right image IR includes the images of the subjects O1, O2, O4, and O5 among the subjects O1 to O5, and these images are respectively shown as the subject images O1R, O2, O4R, and O5R. The left image IL includes images of subjects O1, O3, O4, and O5 among the subjects O1 to O5, and these images are shown as subject images O1L, O3L, O4L, and O5L, respectively.

図4の上部に示す右画像IRと左画像ILは、基準面RPにおいて右撮影部50Rの右全視野範囲VFRと左撮影部50Lの全視野範囲VFLが互いに重なる視野範囲である右3D視野範囲3DRと左3D視野範囲3DLの画像を3D視野範囲3DR&3DLの画像として重ねて示したものである。   The right image IR and the left image IL shown in the upper part of FIG. 4 are a right 3D visual field range that is a visual field range where the right full visual field range VFR of the right photographing unit 50R and the full visual field range VFL of the left photographing unit 50L overlap each other on the reference plane RP. 3DR and the image of the left 3D visual field range 3DL are superimposed and shown as an image of the 3D visual field range 3DR & 3DL.

このような位置関係で右画像IRと左画像ILを表示した場合において、基準面RP上の3D視野範囲3DR&3DLに存在する被写体の画像は、被写体O1の画像である右画像IRにおける被写体画像O1Rと左画像ILにおける被写体画像O1Lを合わせて示した被写体画像O1R&O1Lのように同一位置に表示される。   When the right image IR and the left image IL are displayed in such a positional relationship, the image of the subject existing in the 3D visual field range 3DR & 3DL on the reference plane RP is the subject image O1R in the right image IR that is the image of the subject O1. The subject images O1L and O1L shown together with the subject image O1L in the left image IL are displayed at the same position.

一方、3D視野範囲3DR&3DLに存在するが、基準面RPよりも先端面30aからの距離が近い位置に存在する被写体の画像は、被写体O4の画像である右画像IRにおける被写体画像O4Rと左画像ILにおける被写体画像O4Lのように、右画像IRでは左側、左画像ILでは右側となる異なる位置に分離されて表示される。   On the other hand, the image of the subject that exists in the 3D visual field range 3DR & 3DL but is closer to the tip surface 30a than the reference plane RP is the subject image O4R and the left image IL in the right image IR that is the image of the subject O4. As shown in the subject image O4L in FIG. 5, the image is separated and displayed at different positions on the left side in the right image IR and on the right side in the left image IL.

これとは反対に、3D視野範囲3DR&3DLに存在するが、基準面RPよりも先端面30aからの距離が遠い位置に存在する被写体の画像は、被写体O5の画像である右画像IRにおける被写体画像O5Rと左画像ILにおける被写体画像O5Lのように、右画像IRでは右側、左画像ILでは左側となる異なる位置に分離されて表示される。   On the contrary, the image of the subject that exists in the 3D visual field range 3DR & 3DL but is farther from the front end surface 30a than the reference plane RP is the subject image O5R in the right image IR that is the image of the subject O5. As in the subject image O5L in the left image IL, the right image IR is separated and displayed at different positions on the right side and the left image IL on the left side.

また、右全視野範囲VFRと左全視野範囲VFLとが重ならない領域であって右2D視野範囲2DRに存在する被写体の画像は、基準面RP上に存在する被写体O2の画像である右画像IRにおける被写体画像O2のように、右画像IRの右2D視野範囲2DRのみに表示される。同様に、右全視野範囲VFRと左全視野範囲VFLとが重ならない領域であって左2D視野範囲2DLに存在する被写体の画像は、基準面RP上の左2D視野範囲2DLに存在する被写体O3の画像である左画像ILにおける被写体画像O3ように、左画像ILの左2D視野範囲2DLのみに表示される。   Further, the image of the subject existing in the right 2D visual field range 2DR in the region where the right full visual field range VFR and the left full visual field range VFL do not overlap is the right image IR which is an image of the subject O2 existing on the reference plane RP. Is displayed only in the right 2D visual field range 2DR of the right image IR. Similarly, an image of a subject that exists in the left 2D visual field range 2DL in a region where the right full visual field range VFR and the left full visual field range VFL do not overlap each other is an object O3 that exists in the left 2D visual field range 2DL on the reference plane RP. Like the subject image O3 in the left image IL which is the image of the left image IL, it is displayed only in the left 2D visual field range 2DL of the left image IL.

したがって、3D表示装置18において、右撮影部50Rによって撮影された右全視野範囲VFRの右画像IRと左撮影部50Lによって撮影された左全視野範囲VFLの左画像ILとを、図4の上部のように右3D視野範囲3DRの画像と左3D視野範囲3DLの画像とが重なるように3D画像として表示することで、3D視野範囲3DR&3DLの領域に存在する被写体O1、O4、O5のような被写体を観察者が立体視することができる。被写体O1のように基準面RP上に存在する被写体は3D表示装置18の画面上に存在する被写体として認識され、被写体O4のように基準面RPよりも近い位置に存在する被写体は3D表示装置18の画面よりも近い位置に存在する被写体として認識され、被写体O5のように基準面RPよりも遠い位置に存在する被写体は3D表示装置18の画面よりも遠い位置に存在する被写体として認識される。   Therefore, in the 3D display device 18, the right image IR of the right full visual field range VFR photographed by the right photographing unit 50R and the left image IL of the left full visual field range VFL photographed by the left photographing unit 50L are shown in the upper part of FIG. By displaying as a 3D image so that the image of the right 3D field of view range 3DR and the image of the left 3D field of view range 3DL overlap as shown above, subjects such as subjects O1, O4, and O5 that exist in the region of the 3D field of view range 3DR & 3DL Can be stereoscopically viewed by the observer. A subject existing on the reference plane RP such as the subject O1 is recognized as a subject existing on the screen of the 3D display device 18, and a subject existing near the reference plane RP such as the subject O4 is displayed in the 3D display device 18. Is recognized as a subject existing at a position farther than the screen of the 3D display device 18 and is recognized as a subject present at a position farther than the screen of the 3D display device 18 such as the subject O5.

また、右2D視野範囲2DRや左2D視野範囲2DLのように撮影部50R、50Lのうちの一方のみによって撮影される領域に存在する被写体も2D画像として表示することができるため、3D視野範囲3DR&3DLの3D画像よりも広角の視野範囲の被観察部位の様子を観察することができる。   In addition, since a subject existing in an area captured by only one of the imaging units 50R and 50L, such as the right 2D visual field range 2DR and the left 2D visual field range 2DL, can also be displayed as a 2D image, the 3D visual field range 3DR & 3DL It is possible to observe the state of the site to be observed having a wider field of view than the 3D image.

図3に戻り、上記のように右撮影部50Rの撮影光学系60R及びイメージセンサ70Rにより撮影される右画像IRと、左撮影部50Lの撮影光学系60L及びイメージセンサ70Lにより撮影される左画像ILは、各々、イメージセンサ70R、70Lからアナログの撮像信号として出力され、アナログ信号処理部(AFE)80R、80Lに取り込まれる。   Returning to FIG. 3, as described above, the right image IR photographed by the photographing optical system 60R and the image sensor 70R of the right photographing unit 50R, and the left image photographed by the photographing optical system 60L and the image sensor 70L of the left photographing unit 50L. IL is output as an analog imaging signal from the image sensors 70R and 70L, respectively, and taken into analog signal processing units (AFE) 80R and 80L.

AFE80R、80Lでは、相関二重サンプリング(CDS)、自動ゲイン(AGC)、及びアナログ/デジタル変換(A/D)等のアナログ信号処理が撮像信号に対して施され、パラレルのデジタル信号としてAFE80R、80Lから送信部82R、82Lに出力される。   In the AFE 80R and 80L, analog signal processing such as correlated double sampling (CDS), automatic gain (AGC), and analog / digital conversion (A / D) is performed on the imaging signal, and the AFE 80R, The data is output from 80L to the transmitters 82R and 82L.

送信部82R、82Lでは、パラレル/シリアル変換処理等が撮像信号に対して施され、シリアルのデジタル信号として撮影部50R、50Lに接続されたケーブル(信号線)に送出される。そのケーブルは、挿入部20、操作部22、及び、ユニバーサルコード24の内部を挿通してプロセッサ装置14の受信部100に接続されており、ケーブルに送出された撮像信号は受信部100で受信される。   In the transmission units 82R and 82L, parallel / serial conversion processing or the like is performed on the imaging signals, and the serial signals are transmitted to cables (signal lines) connected to the imaging units 50R and 50L. The cable is inserted into the insertion unit 20, the operation unit 22, and the universal cord 24 and connected to the reception unit 100 of the processor device 14, and the imaging signal sent to the cable is received by the reception unit 100. The

ここで、本実施の形態では、3D表示装置18に内視鏡画像を動画として表示するものとすると、イメージセンサ70R、70Lの各々において動画を構成するフレーム画像として右画像IRと左画像ILが連続的に撮像され、フレーム画像として順次撮像された右画像IRと左画像ILの撮像信号が、フレーム画像ごとにシリアルのデジタル信号として送信部82R、82Lの各々から受信部100に順次伝送されるようになっている。   Here, in the present embodiment, assuming that the endoscopic image is displayed as a moving image on the 3D display device 18, the right image IR and the left image IL are frame images constituting the moving image in each of the image sensors 70R and 70L. The imaging signals of the right image IR and the left image IL, which are continuously captured and sequentially captured as frame images, are sequentially transmitted from the transmission units 82R and 82L to the reception unit 100 as serial digital signals for each frame image. It is like that.

なお、送信部82R、82Lから受信部100への撮像信号の伝送には、例えば、低電圧作動信号(LVDS)等によりデータ伝送を行う高速デジタル伝送技術を用いることが望ましい。また、右画像IRと左画像ILの撮像信号は異なる信号線により並列に伝送するようにしてもよいし、共通の信号線により交互に送信するようにしてもよい。   In addition, it is desirable to use a high-speed digital transmission technique that performs data transmission using, for example, a low voltage operation signal (LVDS) or the like for transmission of the imaging signal from the transmission units 82R and 82L to the reception unit 100. Further, the imaging signals of the right image IR and the left image IL may be transmitted in parallel through different signal lines, or may be alternately transmitted through a common signal line.

プロセッサ装置14は、内視鏡画像を表示するための処理部として、受信部100、画像処理部102、表示画像生成部104、表示制御部106等を備えている。   The processor device 14 includes a receiving unit 100, an image processing unit 102, a display image generating unit 104, a display control unit 106, and the like as processing units for displaying an endoscopic image.

受信部100では、内視鏡12の右撮影部50R、左撮影部50Lから送信されてケーブルを介してシリアルのデジタル信号として伝送された右画像IRと左画像ILの各々の撮像信号が受信され、それらの撮像信号に対してパラレル/シリアル変換処理等が施される。これによって、撮像信号が、送信部82R、82Lにおいて変換される前のパラレルのデジタル信号に復元されて画像処理部102に取り込まれる。   In the receiving unit 100, the imaging signals of the right image IR and the left image IL transmitted from the right imaging unit 50R and the left imaging unit 50L of the endoscope 12 and transmitted as serial digital signals via the cable are received. These image signals are subjected to parallel / serial conversion processing or the like. As a result, the image pickup signal is restored to a parallel digital signal before being converted in the transmission units 82R and 82L and is taken into the image processing unit 102.

画像処理部102では、色分離、色補間、ゲイン補正、ホワイトバランス調整、ガンマ補正、輪郭強調処理、明度の調整処理などのデジタル画像処理が施される。これによって、右画像IRと左画像ILの各々の撮像信号が、表示に適した画像データとして生成され、その画像データが表示画像生成部104に取り込まれる。   The image processing unit 102 performs digital image processing such as color separation, color interpolation, gain correction, white balance adjustment, gamma correction, contour enhancement processing, and brightness adjustment processing. As a result, the imaging signals of the right image IR and the left image IL are generated as image data suitable for display, and the image data is captured by the display image generation unit 104.

なお、画像処理部102では、右画像IRと左画像ILの画像データが順次生成されて、その画像データが不図示のメモリに一次的に記憶されると共に最新の画像データに順次更新される。表示画像生成部104には、そのメモリから最新の画像データが順次取り込まれるようになっている。   Note that the image processing unit 102 sequentially generates image data of the right image IR and the left image IL, and the image data is temporarily stored in a memory (not shown) and sequentially updated to the latest image data. The display image generation unit 104 is configured to sequentially fetch the latest image data from the memory.

表示画像生成部104では、3D表示装置18の画面全体に表示される右眼用表示画像と左眼用表示画像の画像データが、画像処理部102から順次取り込まれる右画像IRと左画像ILの画像データを用いて生成される。右眼用表示画像は、観察者の右眼によって視認される画面全体の画像を示し、その中に内視鏡画像として右画像IRの一部又は全ての画像が含められる。左眼用表示画像は、観察者の左眼によって視認される画面全体の画像を示し、その中に内視鏡画像として左画像ILの一部又は全ての画像が含められる。これらの右眼用表示画像と左眼用表示画像の画像データは、右画像IRと左画像ILの画像データの更新等と共に順次更新されて表示制御部106に出力される。なお、表示画像生成部104の処理についての詳細は後述する。   In the display image generation unit 104, the image data of the right-eye display image and the left-eye display image displayed on the entire screen of the 3D display device 18 are sequentially captured from the image processing unit 102 of the right image IR and the left image IL. Generated using image data. The display image for the right eye indicates an image of the entire screen visually recognized by the observer's right eye, and a part or all of the right image IR is included as an endoscopic image. The display image for the left eye shows an image of the entire screen visually recognized by the left eye of the observer, and a part or all of the left image IL is included as an endoscopic image therein. The image data of the display image for the right eye and the display image for the left eye is sequentially updated together with the update of the image data of the right image IR and the left image IL, and is output to the display control unit 106. Details of the processing of the display image generation unit 104 will be described later.

表示制御部106では、表示画像生成部104により生成された右眼用表示画像と左眼用表示画像を3D表示装置18に表示させるための映像信号が、表示画像生成部104から与えられた右眼用表示画像と左眼用表示画像の画像データに基づいて生成される。映像信号は3D表示装置18において対応可能な規格のものに生成される。その映像信号が3D表示装置18に出力される。   In the display control unit 106, the video signal for causing the 3D display device 18 to display the right-eye display image and the left-eye display image generated by the display image generation unit 104 is supplied to the right side from the display image generation unit 104. It is generated based on the image data of the eye display image and the left eye display image. The video signal is generated in a standard that can be supported by the 3D display device 18. The video signal is output to the 3D display device 18.

3D表示装置18では、表示制御部106からの映像信号にしたがって画像の表示が行われ、表示画像生成部104により生成された右眼用表示画像と左眼用表示画像の各々が右眼と左眼のうちの対応する一方の眼によって視認されるように表示される。そして、右眼用表示画像と左眼用表示画像の各々に含まれる右画像IRと左画像ILとの表示とその更新によって、内視鏡画像が動画として表示されると共に、被観察部位の3D画像や2D画像が表示されるようになっている。   In the 3D display device 18, an image is displayed according to the video signal from the display control unit 106, and the right-eye display image and the left-eye display image generated by the display image generation unit 104 are the right eye and the left eye, respectively. It is displayed so that it may be visually recognized by one corresponding eye among eyes. Then, by displaying and updating the right image IR and the left image IL included in each of the right-eye display image and the left-eye display image, the endoscopic image is displayed as a moving image, and the 3D of the site to be observed is displayed. Images and 2D images are displayed.

ここで、周知の3D表示装置として、1台のモニタの画面に右眼用表示画像と左眼用表示画像とを交互に表示し、これに同期して左右交互に開閉するシャッターメガネを介して右眼で右眼用表示画像を観察し左眼で左眼用表示画像を観察する方式(フレームシーケンシャル方式)のものや、1台のモニタの画面に右眼用表示画像と左眼用表示画像とを例えば走査線単位で交互に表示し、左右で偏光方向の異なる偏光フィルターメガネを介して右眼で右眼用表示画像を観察し左眼で左眼用表示画像を観察する方式(偏光方式)のものや、1台のモニタの画面に微細なレンズを並べて画面を見る角度によって異なる画像を表示できるようにしたものに右眼用表示画像と左眼用表示画像を表示し、裸眼でも右眼で右眼用表示画像を観察し左眼で左眼用表示画像を観察できるようにした方式(インテグラルイメージング方式)のものや、1台のモニタの画面に微細な縦縞状の遮光物を配置して画面を見る角度によって異なる画像を表示できるようにしたものに右眼用表示画像と左眼用表示画像を表示し、裸眼でも右眼で右眼用表示画像を観察し左眼で左眼用表示画像を観察できるようにした方式(視差バリア方式)のものが知れられている。また、ヘッドマウントディスプレイのように右眼用と左眼用の2台のモニタの各々に右眼用表示画像と左眼用表示画像とを表示し、右眼で右眼用表示画像を観察し左眼で左眼用表示画像を観察する方式のもの等も知られている。本実施の形態の3D表示装置18としては、どのような方式のものでも採用することができる。また、3D画像と2D画像とを別のモニタに表示する構成としても良い。   Here, as a known 3D display device, a display image for the right eye and a display image for the left eye are alternately displayed on the screen of one monitor, and through shutter glasses that are alternately opened and closed in synchronization with this. The right eye display image and the left eye display image on the screen of one monitor (the frame sequential method) or the method of observing the display image for the right eye with the right eye and the display image for the left eye with the left eye Are alternately displayed in units of scanning lines, for example, a right eye display image is observed with the right eye and a left eye display image is observed with the left eye via polarization filter glasses having different polarization directions on the left and right sides (polarization method) ) And a display that displays different images depending on the angle at which the screen is viewed by arranging a minute lens on the screen of a single monitor. Observe the display image for the right eye with the left eye and the left eye with the left eye A method that allows the display image to be observed (integral imaging method) and a fine vertical-striped light-shielding object placed on the screen of one monitor so that different images can be displayed depending on the viewing angle. A system that displays a display image for the right eye and a display image for the left eye on the object, and allows the right eye to observe the display image for the right eye and the left eye to observe the display image for the left eye even with the naked eye (parallax barrier method) Is known. Further, the right eye display image and the left eye display image are displayed on each of the two monitors for the right eye and the left eye like a head-mounted display, and the right eye display image is observed with the right eye. A method of observing a display image for the left eye with the left eye is also known. As the 3D display device 18 of the present embodiment, any system can be employed. Moreover, it is good also as a structure which displays a 3D image and a 2D image on another monitor.

続いて、表示画像生成部104の処理内容について具体的に説明する。   Next, the processing content of the display image generation unit 104 will be specifically described.

図6〜図8は、表示画像生成部104によって生成される表示画像(右眼用表示画像及び左眼用表示画像)の3D表示装置18での画面構成を例示した図であり、内視鏡画像を表示する表示エリアを例示した図である。図6の形態の画面構成では、内視鏡画像の表示エリアとして3D画像&広角2D画像表示エリア150を画面内に有している。この3D画像&広角2D画像表示エリア150は、図5(A)、(B)のように撮影部50R、50Lにより撮影された右画像IRと左画像ILとを、図4の上部に示したように右3D視野範囲3DRの画像と左3D視野範囲3DLの画像とが重なるように表示するエリアである。これによって、3D視野範囲3DR&3DLの画像が3D画像として3D表示され、その両脇の右2D視野範囲2DRと左2D視野範囲2DLの画像が広角2D画像として2D表示される。詳細な説明は省略するが、画面内における3D画像&広角2D画像表示エリア150以外の領域には、患者情報や内視鏡12の状態情報等の他の情報に関する文字や画像が表示される。図7及び図8の形態における内視鏡画像の表示エリア以外の領域についても同様である。   6 to 8 are diagrams exemplifying screen configurations on the 3D display device 18 of the display images (the display image for the right eye and the display image for the left eye) generated by the display image generation unit 104. FIG. It is the figure which illustrated the display area which displays an image. 6 has a 3D image & wide-angle 2D image display area 150 as an endoscopic image display area. In the 3D image & wide-angle 2D image display area 150, the right image IR and the left image IL photographed by the photographing units 50R and 50L as shown in FIGS. 5A and 5B are shown in the upper part of FIG. In this way, the image is displayed so that the image in the right 3D visual field range 3DR and the image in the left 3D visual field range 3DL overlap. As a result, the images of the 3D visual field range 3DR & 3DL are displayed in 3D as 3D images, and the images of the right 2D visual field range 2DR and the left 2D visual field range 2DL on both sides thereof are displayed in 2D as wide-angle 2D images. Although detailed description is omitted, characters and images related to other information such as patient information and state information of the endoscope 12 are displayed in an area other than the 3D image & wide-angle 2D image display area 150 in the screen. The same applies to regions other than the display area of the endoscopic image in the form of FIGS.

図7の形態の画面構成では、内視鏡画像の表示エリアとして3D画像表示エリア160と広角2D画像表示エリア170を画面内に個別に有している。3D画像表示エリア160は、図5(A)、(B)のように撮影部50R、50Lにより撮影された右画像IRと左画像ILのうち、右3D視野範囲3DRの画像と左3D視野範囲3DLの画像のみを、図4の上部に示した3D視野範囲3DR&3DLの画像のように同一位置に表示するエリアである。これによって、3D視野範囲3DR&3DLの画像が3D画像として3D表示される。なお、3D画像表示エリア160に3D画像として表示する視野範囲は3D視野範囲3DR&3DLよりも左右に一定量拡げた範囲としても良い。   In the screen configuration in the form of FIG. 7, a 3D image display area 160 and a wide-angle 2D image display area 170 are individually provided in the screen as display areas for endoscopic images. The 3D image display area 160 includes a right 3D visual field range 3DR image and a left 3D visual field range among the right image IR and the left image IL photographed by the photographing units 50R and 50L as shown in FIGS. This is an area where only the 3DL image is displayed at the same position as the 3D visual field range 3DR & 3DL image shown in the upper part of FIG. As a result, the 3D visual field range 3DR & 3DL image is displayed in 3D as a 3D image. The visual field range displayed as a 3D image in the 3D image display area 160 may be a range that is expanded by a certain amount to the left and right than the 3D visual field range 3DR & 3DL.

一方、広角2D画像表示エリア170は、詳細を後述するように3D視野範囲3DR&3DLの画像と、その左右両側の右2D視野範囲2DRと左2D視野範囲2DLの画像を広角2D画像として2D表示するエリアである。   On the other hand, the wide-angle 2D image display area 170 is an area for 2D-displaying the images of the 3D visual field range 3DR & 3DL and the right 2D visual field range 2DR and the left 2D visual field range 2DL on the left and right sides as a wide-angle 2D image, as will be described in detail later. It is.

図8の形態は、内視鏡画像の表示エリアとして、同図(A)のように図7と同様の3D画像表示エリア160を有する画面と、同図(B)のように図7と同様の広角2D画像表示エリア170を有する画面との2つの構成の画面を有し、それらの画面を表示モードの種類によって切り替えるようにした形態を示している。表示モードとして3D画像表示モードが選択された場合には、同図(A)のように3D画像表示エリア160を有する画面が表示され、広角2D画像表示モードが選択された場合には、同図(B)のように広角2D画像表示エリア170を有する画面が表示される。表示モードの切替えは、プロセッサ装置14に接続された不図示の入力装置の操作によって、又は、内視鏡12の操作部22に設けられた操作部材の操作によって観察者が行うようにすることができる。   The form of FIG. 8 is a screen having a 3D image display area 160 similar to FIG. 7 as an endoscope image display area as shown in FIG. 7A and the same as FIG. 7 as shown in FIG. The screen has two configurations including a screen having a wide-angle 2D image display area 170, and the screen is switched according to the type of display mode. When the 3D image display mode is selected as the display mode, a screen having a 3D image display area 160 is displayed as shown in FIG. 5A, and when the wide-angle 2D image display mode is selected, A screen having a wide-angle 2D image display area 170 as shown in (B) is displayed. The display mode may be switched by an observer by operating an input device (not shown) connected to the processor device 14 or by operating an operation member provided on the operation unit 22 of the endoscope 12. it can.

なお、図8(A)、(B)の画面構成は、3D画像と広角2D画像とを別のモニタに表示する場合の画面構成としても適用できる。   Note that the screen configurations shown in FIGS. 8A and 8B can also be applied as a screen configuration when a 3D image and a wide-angle 2D image are displayed on different monitors.

また、図6〜図8に示した内視鏡画像の表示エリア以外にも、右画像IRのみ又は左画像ILのみを2D画像として2D表示する表示エリア等も設けるようにしてもよい。   In addition to the endoscopic image display areas shown in FIGS. 6 to 8, a display area for 2D display of only the right image IR or only the left image IL as a 2D image may be provided.

更に、図6〜図8に示した画像構成は一例であって、任意の種類の表示エリア(3D画像&広角2D画像表示エリア150、3D画像表示エリア160、及び広角2D画像表示エリア170等)のうちのいずれか1つ又は複数の種類の表示エリアを有する画面構成としても良く、それらの画面を表示モードの選択によって切り替えるようにしてもよい。また、複数の種類の表示エリアを1つの画面内に表示する場合にそれらを異なる領域に配置する構成ではなく、1つの表示エリア内の一部に他の表示エリアを配置するいわゆるPinP表示の構成としても良い。   Furthermore, the image configurations shown in FIGS. 6 to 8 are merely examples, and any type of display area (3D image & wide-angle 2D image display area 150, 3D image display area 160, wide-angle 2D image display area 170, etc.) It is good also as a screen structure which has any one or several types of display area of these, and you may make it switch those screens by selection of a display mode. In addition, when a plurality of types of display areas are displayed in one screen, they are not arranged in different areas, but a so-called PinP display arrangement in which other display areas are arranged in a part of one display area. It is also good.

図3の表示画像生成部104は、これらの図6〜図8に例示したような画面構成に対応した右眼用表示画像と左眼用表示画像とを生成する。その際に、右眼用表示画像における内視鏡画像の表示エリアの画像と、左眼用表示画像における内視鏡画像の表示エリアの画像を画像処理部102により順次生成される右画像IRの画像データと左画像ILの画像データの最新のものを使用して生成する。この内視鏡画像の表示エリアの生成処理について、図6〜図8に示した3D画像&広角2D画像表示エリア150、3D画像表示エリア160、及び広角2D画像表示エリア170を生成する場合を以下で例示する。また、内視鏡画像の表示エリア以外の画像については不図示のCPU等の処理部により生成された画像データや文字データ等を取得して生成するが、詳細な説明は省略する。   The display image generation unit 104 in FIG. 3 generates a right eye display image and a left eye display image corresponding to the screen configurations illustrated in FIGS. 6 to 8. At that time, the image processing unit 102 sequentially generates an image of the display area of the endoscopic image in the display image for the right eye and an image of the display area of the endoscopic image in the display image for the left eye. It is generated using the latest image data and image data of the left image IL. With respect to the processing for generating the endoscopic image display area, a case in which the 3D image & wide-angle 2D image display area 150, the 3D image display area 160, and the wide-angle 2D image display area 170 illustrated in FIGS. This is illustrated in Further, the image other than the display area of the endoscopic image is generated by acquiring image data or character data generated by a processing unit such as a CPU (not shown), but detailed description thereof is omitted.

なお、以下において、右眼用表示画像における内視鏡画像の表示エリアの画像をその表示エリアの右表示画像といい、同様に左眼用表示画像における内視鏡画像の表示エリアの画像をその表示エリアの左表示画像という。   In the following, the image of the display area of the endoscopic image in the display image for the right eye is referred to as the right display image of the display area, and similarly the image of the display area of the endoscopic image in the display image for the left eye is This is called the left display image of the display area.

図9は、図6における3D画像&広角2D画像表示エリア150の右表示画像及び左表示画像を生成する処理の概要を示した図であり、同図(A)は、3D画像&広角2D画像表示エリア150の右表示画像の生成処理を示し、同図(B)は、3D画像&広角2D画像表示エリア150の左表示画像の生成処理を示している。   FIG. 9 is a diagram showing an outline of processing for generating the right display image and the left display image in the 3D image & wide-angle 2D image display area 150 in FIG. 6, and FIG. 9 (A) shows the 3D image & wide-angle 2D image. The right display image generation process in the display area 150 is shown, and FIG. 5B shows the left display image generation process in the 3D image & wide-angle 2D image display area 150.

同図(A)、(B)に示すように3D画像&広角2D画像表示エリア150は、中央部に3D視野範囲3DR&3DL(図4参照)の画像を表示する領域150Mと、領域150Mの右側において右2D視野範囲2DR(図4参照)の画像を表示する領域150Rと、領域150Mの左側において左2D視野範囲2DL(図4参照)の画像を表示する領域150Lとにより形成されている。   As shown in FIGS. 4A and 4B, the 3D image & wide-angle 2D image display area 150 includes an area 150M for displaying an image of the 3D visual field range 3DR & 3DL (see FIG. 4) in the center, and a right side of the area 150M. The region 150R displays an image in the right 2D visual field range 2DR (see FIG. 4) and the region 150L displays an image in the left 2D visual field range 2DL (see FIG. 4) on the left side of the region 150M.

まず、3D画像&広角2D画像表示エリア150の右表示画像について説明すると、同図(A)に示すように、3D画像&広角2D画像表示エリア150の3D視野範囲3DR&3DL及び右2D視野範囲2DRの領域150M、150Rには、右撮影部50Rにより撮影された右全視野範囲VFRの右画像IR(右画像IRの右3D視野範囲3DRの画像及び右2D視野範囲2DRの画像)が嵌め込まれる。このとき、画像処理部102によって順次生成される右画像IRの最新の画像データを用いて、3D視野範囲3DR&3DL及び右2D視野範囲2DRの領域150M、150Rの画像の画像データが生成される。そして、その際に、3D表示装置18の画面上における3D画像&広角2D画像表示エリア150の解像度に適合するように、右画像IRの画像データに対して間引き処理又は補間処理などが施される。   First, the right display image of the 3D image & wide-angle 2D image display area 150 will be described. As shown in FIG. 3A, the 3D view range 3DR & 3DL and the right 2D view range 2DR of the 3D image & wide-angle 2D image display area 150 are shown. In the regions 150M and 150R, the right image IR (the image of the right 3D visual field range 3DR and the image of the right 2D visual field range 2DR of the right image IR) captured by the right photographing unit 50R is fitted. At this time, using the latest image data of the right image IR sequentially generated by the image processing unit 102, image data of the images of the regions 150M and 150R of the 3D visual field range 3DR & 3DL and the right 2D visual field range 2DR is generated. At that time, thinning processing or interpolation processing is performed on the image data of the right image IR so as to match the resolution of the 3D image & wide-angle 2D image display area 150 on the screen of the 3D display device 18. .

また、3D画像&広角2D画像表示エリア150の左2D視野範囲2DLの領域150Lには、例えば無模様の黒色画像が嵌め込まれる。   Further, for example, a non-pattern black image is fitted in the region 150L of the left 2D visual field range 2DL of the 3D image & wide-angle 2D image display area 150.

これにより、3D画像&広角2D画像表示エリア150の右表示画像として同図(A)に示すような右表示画像150DRが生成される。   As a result, a right display image 150DR as shown in FIG. 5A is generated as the right display image of the 3D image & wide-angle 2D image display area 150.

次いで3D画像&広角2D画像表示エリア150の左表示画像について説明すると、同図(B)に示すように、3D画像&広角2D画像表示エリア150の3D視野範囲3DR&3DL及び左2D視野範囲2DLの領域150M、150Lには、左撮影部50Lにより撮影された左全視野範囲VFLの左画像IL(左画像ILの左3D視野範囲3DLの画像及び左2D視野範囲2DLの画像)が嵌め込まれる。このとき、画像処理部102によって順次生成される左画像ILの最新の画像データを用いて、3D視野範囲3DR&3DL及び左2D視野範囲2DLの領域150M、150Lの画像の画像データが生成され、その際に、3D表示装置18の画面上における3D画像&広角2D画像表示エリア150の解像度に適合するように、左画像ILの画像データに対して間引き処理又は補間処理などが施される。   Next, the left display image of the 3D image & wide-angle 2D image display area 150 will be described. As shown in FIG. 5B, the 3D image range 3DR & 3DL and the left 2D view range 2DL area of the 3D image & wide-angle 2D image display area 150 150M and 150L are fitted with a left image IL (an image of the left 3D visual field range 3DL and an image of the left 2D visual field range 2DL of the left image IL) captured by the left photographing unit 50L. At this time, the latest image data of the left image IL sequentially generated by the image processing unit 102 is used to generate image data of the images of the regions 150M and 150L of the 3D visual field range 3DR & 3DL and the left 2D visual field range 2DL. In addition, thinning processing or interpolation processing is performed on the image data of the left image IL so as to match the resolution of the 3D image & wide-angle 2D image display area 150 on the screen of the 3D display device 18.

また、3D画像&広角2D画像表示エリア150の右2D視野範囲2DRの領域150Rには、例えば無模様の黒色画像が嵌め込まれる。   Further, for example, a non-pattern black image is fitted in the region 2OR of the right 2D visual field range 2DR of the 3D image & wide-angle 2D image display area 150.

これにより、3D画像&広角2D画像表示エリア150の左表示画像として同図(B)に示すような左表示画像150DLが生成される。   As a result, a left display image 150DL as shown in FIG. 5B is generated as the left display image of the 3D image & wide-angle 2D image display area 150.

以上のようにして生成された右表示画像150DRと左表示画像150DLとが3D表示装置18の画面上における3D画像&広角2D画像表示エリア150に表示されると共に、右表示画像150DRが観察者の右眼のみで視認できるように、且つ、左表示画像150DLが観察者の左眼のみで視認できるように表示されることによって、3D視野範囲3DR&3DLの領域150Mの画像が立体視可能な3D画像として3D表示される。また、右2D視野範囲2DRの領域150Rと左2D視野範囲2DLの領域150Lの画像が広画角範囲の2D画像として表示される。   The right display image 150DR and the left display image 150DL generated as described above are displayed in the 3D image & wide-angle 2D image display area 150 on the screen of the 3D display device 18, and the right display image 150DR is displayed by the observer. By displaying the left display image 150DL so as to be visible only with the right eye and only with the left eye of the observer, the 3D visual field range 3DR & 3DL region 150M as a 3D image that can be stereoscopically viewed 3D display. In addition, an image of the region 150R in the right 2D visual field range 2DR and the region 150L in the left 2D visual field range 2DL is displayed as a 2D image with a wide field angle range.

なお、図9に示した形態では、3D画像&広角2D画像表示エリア150の右表示画像150DRにおける左2D視野範囲2DLの領域150Lの画像を黒色画像とし、また、3D画像&広角2D画像表示エリア150の左表示画像150DLにおける右2D視野範囲2DRの領域150Rの画像を黒色画像としたが、これに限らない。例えば、図9と同様の図面構成で示した図10の変形例のようにしても良い。   In the form shown in FIG. 9, the image of the region 150L of the left 2D visual field range 2DL in the right display image 150DR of the 3D image & wide-angle 2D image display area 150 is a black image, and the 3D image & wide-angle 2D image display area Although the image of the region 150R in the right 2D visual field range 2DR in the 150 left display images 150DL is a black image, the present invention is not limited to this. For example, a modification of FIG. 10 shown in the same drawing configuration as FIG. 9 may be used.

図10(A)に示すように、3D画像&広角2D画像表示エリア150の右表示画像150DRにおける左2D視野範囲2DLの領域150Lには、左画像ILの左2D視野範囲2DLの画像が嵌め込まれる。これによって、3D画像&広角2D画像表示エリア150の右表示画像として同図(A)に示すような右表示画像150DRが生成される。   As shown in FIG. 10A, the image of the left 2D visual field range 2DL of the left image IL is fitted in the region 150L of the left 2D visual field range 2DL in the right display image 150DR of the 3D image & wide-angle 2D image display area 150. . As a result, a right display image 150DR as shown in FIG. 5A is generated as the right display image of the 3D image & wide-angle 2D image display area 150.

一方、図10(B)に示すように、3D画像&広角2D画像表示エリア150の左表示画像150DLにおける右2D視野範囲2DRの領域150Rには、右画像IRの右2D視野範囲2DRの画像が嵌め込まれる。これによって、3D画像&広角2D画像表示エリア150の左表示画像として同図(B)に示すような左表示画像150DLが生成される。   On the other hand, as shown in FIG. 10B, the right 2D visual field range 2DR image of the right image IR is present in the region 150R of the right 2D visual field range 2DR in the left display image 150DL of the 3D image & wide-angle 2D image display area 150. It is inserted. As a result, a left display image 150DL as shown in FIG. 5B is generated as the left display image of the 3D image & wide-angle 2D image display area 150.

これによれば、3D画像&広角2D画像表示エリア150の右表示画像150DRと左表示画像150DLの両方において、右2D視野範囲2DRの領域150Rと左2D視野範囲2DLの領域150Lとに撮影部50R、50Lで撮影された画像が表示されるため、それらの領域の画像を両眼で視認することができ、違和感なく広角2D画像を観察することができる。   According to this, in both the right display image 150DR and the left display image 150DL of the 3D image & wide-angle 2D image display area 150, the imaging unit 50R is divided into the region 150R of the right 2D visual field range 2DR and the region 150L of the left 2D visual field range 2DL. Since the images captured at 50L are displayed, the images in those areas can be viewed with both eyes, and a wide-angle 2D image can be observed without a sense of incongruity.

図11は、図7及び図8(A)における3D画像表示エリア160の右表示画像及び左表示画像を生成する処理の概要を示した図であり、同図(A)は、3D画像表示エリア160の右表示画像の生成処理を示し、同図(B)は、3D画像表示エリア160の左表示画像の生成処理を示している。   FIG. 11 is a diagram showing an outline of processing for generating the right display image and the left display image of the 3D image display area 160 in FIGS. 7 and 8A, and FIG. 11A shows the 3D image display area. 160 shows a right display image generation process, and FIG. 10B shows a left display image generation process of the 3D image display area 160.

同図(A)、(B)に示すように3D画像表示エリア160は、3D視野範囲3DR&3DL(図4参照)の画像を表示する領域のみにより形成されている。   As shown in FIGS. 4A and 4B, the 3D image display area 160 is formed only by an area for displaying an image in the 3D visual field range 3DR & 3DL (see FIG. 4).

まず、3D画像表示エリア160の右表示画像について説明すると、同図(A)に示すように、3D画像表示エリア160(3D視野範囲3DR&3DLの領域)には、右撮影部50Rにより撮影された右全視野範囲VFRの右画像IRのうちの右3D視野範囲3DRの画像が嵌め込まれる。このとき、画像処理部102によって順次生成される右画像IRの最新の画像データを用いて、3D画像表示エリア160の画像の画像データが生成され、その際に、3D表示装置18の画面上における3D画像表示エリア160の解像度に適合するように右画像IRの画像データに対して間引き処理又は補間処理などが施される。   First, the right display image in the 3D image display area 160 will be described. As shown in FIG. 3A, the right image captured by the right imaging unit 50R is displayed in the 3D image display area 160 (the 3D visual field range 3DR & 3DL region). The image of the right 3D visual field range 3DR in the right image IR of the entire visual field range VFR is fitted. At this time, image data of the image in the 3D image display area 160 is generated using the latest image data of the right image IR sequentially generated by the image processing unit 102, and at that time, the image data on the screen of the 3D display device 18 is generated. Thinning processing, interpolation processing, or the like is performed on the image data of the right image IR so as to conform to the resolution of the 3D image display area 160.

これにより、3D画像表示エリア160の右表示画像として同図(A)に示すような右表示画像160DRが生成される。即ち、右画像IRにおける右3D視野範囲3DRの画像が3D画像表示エリア160の右表示画像として生成される。   As a result, a right display image 160DR as shown in FIG. 5A is generated as the right display image of the 3D image display area 160. That is, an image of the right 3D visual field range 3DR in the right image IR is generated as the right display image of the 3D image display area 160.

次いで3D画像表示エリア160の左表示画像について説明すると、同図(B)に示すように、3D画像表示エリア160(3D視野範囲3DR&3DLの領域)には、左撮影部50Lにより撮影された左全視野範囲VFLの左画像ILのうちの左3D視野範囲3DLの画像が嵌め込まれる。このとき、画像処理部102によって順次生成される左画像ILの最新の画像データを用いて、3D画像表示エリア160の画像の画像データが生成され、その際に、3D表示装置18の画面上における3D画像表示エリア160の解像度に適合するように左画像ILの画像データに対して間引き処理又は補間処理などが施される。   Next, the left display image of the 3D image display area 160 will be described. As shown in FIG. 5B, the 3D image display area 160 (the 3D visual field range 3DR & 3DL region) has an entire left image captured by the left imaging unit 50L. The image of the left 3D visual field range 3DL in the left image IL of the visual field range VFL is fitted. At this time, the image data of the image in the 3D image display area 160 is generated using the latest image data of the left image IL sequentially generated by the image processing unit 102. At that time, the image data on the screen of the 3D display device 18 is generated. Thinning processing, interpolation processing, or the like is performed on the image data of the left image IL so as to conform to the resolution of the 3D image display area 160.

これにより、3D画像表示エリア160の左表示画像として同図(B)に示すような左表示画像160DLが生成される。即ち、左画像ILにおける左3D視野範囲3DLの画像が3D画像表示エリア160の左表示画像として生成される。   As a result, a left display image 160DL as shown in FIG. 5B is generated as the left display image of the 3D image display area 160. That is, the image of the left 3D visual field range 3DL in the left image IL is generated as the left display image of the 3D image display area 160.

以上のようにして生成された右表示画像160DRと左表示画像160DLとが3D表示装置18の画面上における3D画像表示エリア160に表示されると共に、右表示画像160DRが観察者の右眼のみで視認できるように、且つ、左表示画像160DLが観察者の左眼のみで視認できるように表示されることによって、3D画像表示エリア160の画像(3D視野範囲3DR&3DLの画像)が立体視可能な3D画像として3D表示される。   The right display image 160DR and the left display image 160DL generated as described above are displayed in the 3D image display area 160 on the screen of the 3D display device 18, and the right display image 160DR is only for the right eye of the observer. By displaying the left display image 160DL so as to be visible and visible only with the left eye of the observer, the 3D image 3D image display area 160 (3D visual field range 3DR & 3DL image) can be viewed stereoscopically. 3D display as an image.

図12は、図7及び図8(B)における広角2D画像表示エリア170の右表示画像及び左表示画像を生成する処理の概要を示した図であり、同図(A)は、広角2D画像表示エリア170の右表示画像の生成処理を示し、同図(B)は、広角2D画像表示エリア170の左表示画像の生成処理を示している。   FIG. 12 is a diagram showing an outline of processing for generating the right display image and the left display image in the wide-angle 2D image display area 170 in FIGS. 7 and 8B, and FIG. 12A shows the wide-angle 2D image. The right display image generation process of the display area 170 is shown, and FIG. 5B shows the left display image generation process of the wide-angle 2D image display area 170.

同図(A)、(B)に示すように広角2D画像表示エリア170は、図9の3D画像&広角2D画像表示エリア150と同様に、中央部に3D視野範囲3DR&3DL(図4参照)の画像を表示する領域170Mと、領域170Mの右側において右2D視野範囲2DR(図4参照)の画像を表示する領域170Rと、領域170Mの左側において左2D視野範囲2DL(図4参照)の画像を表示する領域170Lとにより形成されている。   As shown in FIGS. 9A and 9B, the wide-angle 2D image display area 170 is similar to the 3D image & wide-angle 2D image display area 150 of FIG. 9 in the 3D visual field range 3DR & 3DL (see FIG. 4) in the center. An area 170M for displaying an image, an area 170R for displaying an image in the right 2D visual field range 2DR (see FIG. 4) on the right side of the area 170M, and an image in the left 2D visual field range 2DL (see FIG. 4) on the left side of the area 170M. The display area 170L is formed.

まず、広角2D画像表示エリア170の右表示画像について説明すると、同図(A)に示すように、広角2D画像表示エリア170の3D視野範囲3DR&3DL及び右2D視野範囲2DRの領域170M、170Rには、右撮影部50Rにより撮影された右全視野範囲VFRの右画像IR(右画像IRの右3D視野範囲3DRの画像及び右2D視野範囲2DRの画像)が嵌め込まれる。このとき、画像処理部102によって順次生成される右画像IRの最新の画像データを用いて、3D視野範囲3DR&3DL及び右2D視野範囲2DRの領域170M、170Rの画像の画像データが生成され、その際に、3D表示装置18の画面上における広角2D画像表示エリア170の解像度に適合するように、右画像IRの画像データに対して間引き処理又は補間処理などが施される。   First, the right display image of the wide-angle 2D image display area 170 will be described. As shown in FIG. 5A, the 3D visual field range 3DR & 3DL and the right 2D visual field range 2DR areas 170M and 170R of the wide-angle 2D image display area 170 are shown in FIG. The right image IR (the image of the right 3D visual field range 3DR and the image of the right 2D visual field range 2DR of the right image IR) captured by the right photographing unit 50R is fitted. At this time, using the latest image data of the right image IR sequentially generated by the image processing unit 102, image data of the regions 170M and 170R in the 3D visual field range 3DR & 3DL and the right 2D visual field range 2DR is generated. In addition, thinning processing or interpolation processing is performed on the image data of the right image IR so as to match the resolution of the wide-angle 2D image display area 170 on the screen of the 3D display device 18.

一方、広角2D画像表示エリア170の左2D視野範囲2DLの領域170Lには、左画像ILの左2D視野範囲2DLの画像が嵌め込まれる。このときも同様に画像処理部102によって順次生成される左画像ILの最新の画像データを用いて、左2D視野範囲2DLの領域170Lの画像の画像データが生成され、その際に、3D表示装置18の画面上における広角2D画像表示エリア170の解像度に適合するように、左画像ILの画像データに対して間引き処理又は補間処理などが施される。   On the other hand, the image of the left 2D visual field range 2DL of the left image IL is fitted into the region 170L of the left 2D visual field range 2DL of the wide-angle 2D image display area 170. At this time as well, image data of the image of the region 170L of the left 2D visual field range 2DL is generated using the latest image data of the left image IL sequentially generated by the image processing unit 102. At this time, the 3D display device The image data of the left image IL is subjected to thinning processing or interpolation processing so as to match the resolution of the wide-angle 2D image display area 170 on the 18 screens.

これにより、広角2D画像表示エリア170の右表示画像として同図(A)に示すような右表示画像170DRが生成される。   As a result, a right display image 170DR as shown in FIG. 5A is generated as the right display image of the wide-angle 2D image display area 170.

広角2D画像表示エリア170の左表示画像は、上述の右表示画像170DRと完全に一致した処理により生成され、同図(B)に示すように左表示画像170DLは、右表示画像170DRと完全に一致した画像となる。   The left display image in the wide-angle 2D image display area 170 is generated by a process that completely matches the above-described right display image 170DR, and the left display image 170DL is completely the same as the right display image 170DR as shown in FIG. Matched images.

以上のようにして生成された右表示画像170DRと左表示画像170DLとが、3D表示装置18の画面上における広角2D画像表示エリア170に表示されると共に、右表示画像170DRが観察者の右眼のみで視認できるように、且つ、左表示画像170DLが観察者の左眼のみで視認できるように表示された場合に、右眼と左眼とで完全に一致した画像が視認される。したがって、広角2D画像表示エリア170の全範囲における画像が広画角範囲の2D画像として表示される。   The right display image 170DR and the left display image 170DL generated as described above are displayed in the wide-angle 2D image display area 170 on the screen of the 3D display device 18, and the right display image 170DR is the right eye of the observer. When the left display image 170DL is displayed so that it can be visually recognized only by the left eye of the observer, an image that completely matches the right eye and the left eye is visually recognized. Therefore, the image in the entire range of the wide-angle 2D image display area 170 is displayed as a 2D image in the wide-angle range.

なお、広角2D画像表示エリア170の画像を表示するモニタ(画面)は、3D画像を表示するモニタとは別の2D画像を表示するモニタを使用するようにしてもよく、その場合には広角2D画像表示エリア170の右表示画像と左表示画像(画面全体に対する右眼用表示画像と左眼用表示画像)を生成する必要はなく、一方のみを生成して2D表示装置に表示させるようにすればよい。   The monitor (screen) that displays the image in the wide-angle 2D image display area 170 may be a monitor that displays a 2D image different from the monitor that displays a 3D image. There is no need to generate the right display image and the left display image (the display image for the right eye and the display image for the left eye for the entire screen) in the image display area 170, and only one of them can be generated and displayed on the 2D display device. That's fine.

また、図12では、右表示画像170DRと左表示画像170DLのいずれにおいても、広角2D画像表示エリア170の3D視野範囲3DR&3DLの領域170Mに対して、右画像IRの右3D視野範囲3DRの画像を嵌め込むようにしたが、その代わりに左画像ILの左3D視野範囲3DLの画像を嵌め込むようにしてもよいし、右画像IRの右3D視野範囲3DRの画像と左画像ILの左3D視野範囲3DLの画像とを用いて生成した画像を嵌め込むようにしてもよい。   In FIG. 12, in both the right display image 170DR and the left display image 170DL, the image of the right 3D visual field range 3DR of the right image IR is compared to the 3D visual field range 3DR & 3DL region 170M of the wide-angle 2D image display area 170. Instead, an image of the left 3D visual field range 3DL of the left image IL may be inserted, or an image of the right 3D visual field range 3DR of the right image IR and an image of the left 3D visual field range 3DL of the left image IL may be used instead. You may make it insert the image produced | generated using these images.

以上、上記実施の形態では、撮影部50R、50Lにより撮影された右画像IRと左画像ILをプロセッサ装置14に取り込んで、3D表示装置18に3D画像や広角2D画像として表示する場合について説明したが、プロセッサ装置14に取り込んだ右画像IRと左画像IL、又は、これらによって形成された3D画像や広角2D画像等を記憶手段に記憶させることもできる。   As described above, the case where the right image IR and the left image IL photographed by the photographing units 50R and 50L are taken into the processor device 14 and displayed on the 3D display device 18 as a 3D image or a wide-angle 2D image has been described in the above embodiment. However, the right image IR and the left image IL captured by the processor device 14, or a 3D image or a wide-angle 2D image formed by these can be stored in the storage unit.

次に、上記実施の形態を基本の実施の形態として、その基本の実施の形態に対して3D表示装置18における3D画像の高品質化と2D画像の広角化を図るための変形例について説明する。   Next, assuming that the above embodiment is a basic embodiment, a modification for improving the quality of a 3D image and widening the angle of a 2D image in the 3D display device 18 with respect to the basic embodiment will be described. .

本発明は、3D画像の解像度が2D画像の解像度よりも高くなるように構成するものである。これによって、システムの処理負担を増加させないという前提の元で、それらの解像度が同等である構成と比較したときに、2D画像のデータに対する処理負担を減らし、3D画像のデータに対するシステムの処理負担を増やすものとして3D画像の解像度やフレームレートを高くすることが可能となり、3D画像の高品質化を図ることができる。   The present invention is configured such that the resolution of the 3D image is higher than the resolution of the 2D image. This reduces the processing burden on 2D image data and reduces the processing burden on the system on 3D image data when compared with a configuration having the same resolution on the assumption that the processing burden on the system is not increased. As an increase, the resolution and frame rate of the 3D image can be increased, and the quality of the 3D image can be improved.

また、3D画像のデータに対するシステムの処理負担と2D画像データに対するシステム処理負担を変えないものとして、2D画像を取り込むイメージセンサの受光面の面積を大きくする(3D画像を取り込む受光面の面積は変更しない)ことが可能となり、2D画像の広角化を図ることができる。   In addition, the area of the light receiving surface of the image sensor that captures the 2D image is increased (the area of the light receiving surface that captures the 3D image is changed), assuming that the system processing burden for the 3D image data and the system processing burden for the 2D image data are not changed. 2D image can be widened.

更に、これらの3D画像の高品質化の効果と2D画像の広角化の効果の割合を変えて両方の効果を得るようにすることも可能である。   Further, it is possible to obtain both effects by changing the ratio of the effect of improving the quality of these 3D images and the effect of widening the angle of 2D images.

また、本発明は、光学的な構成によって3D画像の解像度が2D画像の解像度よりも高くなるように構成する形態も含む。この場合には、システムの処理負担の増減に関係がなく、撮影光学系により被写体の光学像が結像される結像面、即ち、イメージセンサの受光面において、3D画像を取り込む領域の光学像の解像度が、2D画像を取り込む領域の光学像の解像度よりも高くなるように構成するものである。これにより、撮影光学系の歪みや収差等によって結像面上の位置に応じて光学像の解像度が変動する場合であっても、それを考慮しない場合と比較して、確実に3D画像の高品質化を図ることできる。   The present invention also includes a configuration in which the resolution of the 3D image is higher than the resolution of the 2D image by an optical configuration. In this case, there is no relation to the increase or decrease in the processing load of the system, and the optical image of the area where the 3D image is captured on the imaging surface on which the optical image of the subject is formed by the photographing optical system, ie, the light receiving surface of the image sensor. Is configured to be higher than the resolution of the optical image in the area where the 2D image is captured. Accordingly, even when the resolution of the optical image varies depending on the position on the imaging surface due to distortion or aberration of the photographing optical system, the 3D image can be reliably increased in comparison with the case where the resolution is not taken into consideration. Quality can be improved.

特に撮影光学系として小型のレンズ、簡易構成のレンズ、安価なレンズを使用した場合には、結像面上の位置に応じた光学像の解像度の変動が顕著になるため、このような構成にすることは効果的である。   In particular, when a small lens, a simple configuration lens, or an inexpensive lens is used as the photographing optical system, the variation in the resolution of the optical image according to the position on the imaging surface becomes significant. It is effective to do.

さらに、2D画像の広角化を図るために撮影光学系として魚眼レンズ等の広角レンズを使用する場合にも、結像面上の位置に応じた光学像の解像度の変動が顕著になるため、3D画像の高品質化と2D画像の広角化とを両立させる場合により効果的なものとなる。   Further, even when a wide-angle lens such as a fish-eye lens is used as a photographing optical system in order to widen the 2D image, the change in the resolution of the optical image according to the position on the imaging surface becomes significant, so that the 3D image This is more effective in achieving both high quality and a wide-angle 2D image.

なお、本発明は、2D画像の解像度を低くしも3D画像よりは画質の低下が少ないことを前提とするものであるが、それにも限度があるため2D画像の画質の低下を許容できる範囲で2D画像の解像度を3D画像の解像度よりも低くすることが望ましい。   The present invention is based on the premise that even if the resolution of the 2D image is lowered, the deterioration of the image quality is smaller than that of the 3D image. It is desirable to make the resolution of the 2D image lower than the resolution of the 3D image.

まず、本発明の適用範囲を拡大する変形例として、3D画像のフレームレートが2D画像のフレームレートよりも高くなるようにするための実施の形態(変形例1の実施の形態)について説明する。本変形例1は、3D画像や2D画像の解像度とは関係なく、3D画像の高品質化を図ることができ、本変形例1の実施の形態と、下記で説明する本発明の実施の形態とを互いに干渉することなく立体内視鏡システムに適用することができる。   First, as a modification example that expands the application range of the present invention, an embodiment (an embodiment of Modification Example 1) for making the frame rate of a 3D image higher than the frame rate of a 2D image will be described. In the first modification, the quality of the 3D image can be improved regardless of the resolution of the 3D image or the 2D image. The embodiment of the first modification and the embodiment of the present invention described below will be described. Can be applied to a stereoscopic endoscope system without interfering with each other.

上記基本の実施の形態では、図5(A)に示したように右撮影部50Rにおいて右3D視野範囲3DRと右2D視野範囲2DRとからなる右全視野範囲VFRの右画像IRを1フレーム画像として連続的に取り込み、図5(B)に示したように左撮影部50Lにおいて左3D視野範囲3DLと左2D視野範囲2DLとからなる左全視野範囲VFLの左画像ILを1フレームの画像として取り込むようにしている。   In the basic embodiment, as shown in FIG. 5 (A), the right image IR of the right full visual field range VFR composed of the right 3D visual field range 3DR and the right 2D visual field range 2DR in the right photographing unit 50R is one frame image. As shown in FIG. 5B, in the left photographing unit 50L, the left image IL of the left entire visual field range VFL composed of the left 3D visual field range 3DL and the left 2D visual field range 2DL is used as one frame image. I try to capture it.

一方、本変形例1の実施の形態では、右撮影部50Rにおいて右全視野範囲VFRの全体画像を取り込みと、右3D視野範囲3DRのみの画像の取り込みとを特定の割合で順に行うようにし、左撮影部50Lにおいても左全視野範囲VFLの全体画像の取り込みと、左3D視野範囲3DLの画像の取り込みとを特定の割合で順に行うようにする。   On the other hand, in the embodiment of the first modification, the right imaging unit 50R sequentially captures the entire image of the right full visual field range VFR and captures the image of only the right 3D visual field range 3DR at a specific ratio in order. The left photographing unit 50L also sequentially captures the entire image of the left full visual field range VFL and captures the image of the left 3D visual field range 3DL at a specific ratio.

図13は、図4に示した撮影部50R、50Lの撮影状態に対して、本変形例1の実施の形態において撮影部50R、50Lの各々により取り込まれる右画像IRと左画像ILを示した図である。   FIG. 13 shows the right image IR and the left image IL captured by each of the photographing units 50R and 50L in the embodiment of the first modification with respect to the photographing state of the photographing units 50R and 50L shown in FIG. FIG.

同図(A)に示すように、右撮影部50Rでは、右画像IRとして、基本の実施の形態と同様に右全視野範囲VFRの全体画像からなる右画像IR1と、3D画像の表示に使用される右3D視野範囲3DRのみの画像からなる右画像IR2が取り込まれる。これらの右画像IR1と右画像IR2の取り込みは、特定の割合で行われる。例えば、1:1の割合として右画像IR1と右画像IR2とを交互に取り込むようにしてもよいし、1:2の割合として、右画像IR1、右画像IR2、右画像IR2の順に取り込むようにしてもよい。   As shown in FIG. 5A, in the right photographing unit 50R, as the right image IR, as in the basic embodiment, the right image IR1 composed of the entire image of the right full visual field range VFR and the 3D image are used. The right image IR2 made up of the image of only the right 3D visual field range 3DR is captured. The right image IR1 and the right image IR2 are captured at a specific rate. For example, the right image IR1 and the right image IR2 may be alternately captured at a ratio of 1: 1, or the right image IR1, the right image IR2, and the right image IR2 may be captured at a ratio of 1: 2. May be.

これと同様に、同図(B)に示すように、左撮影部50Lでは、左画像ILとして、基本の実施の形態と同様に左全視野範囲VFLの全体画像からなる左画像IL1と、3D画像の表示に使用される左3D視野範囲3DLのみの画像からなる左画像IL2が取り込まれる。これらの左画像IL1と左画像IL2の取り込みは、右画像IR1と右画像IR2の取り込みと同じ割合で行われる。また、右画像IR1の取り込みと左画像IL1の取り込みとが同期して行われ、右画像IR2の取り込みと左画像IL2の取り込みとが同期して行われる。ただし、必ずしもこれらの取り込みが同期して行われなくてもよく、また、右画像IR1と右画像IR2の取り込みの割合と左画像IL1と左画像IL2の取り込みの割合とが一致していなくてもよい。   Similarly, as shown in FIG. 5B, in the left photographing unit 50L, as the left image IL, as in the basic embodiment, the left image IL1 composed of the entire image of the left full visual field range VFL and 3D A left image IL2 consisting of an image of only the left 3D visual field range 3DL used for image display is captured. The capture of the left image IL1 and the left image IL2 is performed at the same rate as the capture of the right image IR1 and the right image IR2. Further, the capturing of the right image IR1 and the capturing of the left image IL1 are performed in synchronization, and the capturing of the right image IR2 and the capturing of the left image IL2 are performed in synchronization. However, these captures do not necessarily have to be performed synchronously, and the capture rate of the right image IR1 and the right image IR2 may not match the capture rate of the left image IL1 and the left image IL2. Good.

ここで、右画像IR1と左画像IL1の取り込みは、イメージセンサ70R、70Lの受光部全体の画素データを読み出すことによって行われるのに対して、右画像IR2と左画像IL2の取り込みは、イメージセンサ70R、70Lの受光部の一部の画素データを読み出すことによって、または、イメージセンサ70R、70Lの受光部全体の画素データを読み出した後に撮影部50R、50L内の所定の処理回路で一部の画素データを抜き出すことによって行われる。   Here, the capturing of the right image IR1 and the left image IL1 is performed by reading out the pixel data of the entire light receiving units of the image sensors 70R and 70L, whereas the capturing of the right image IR2 and the left image IL2 is performed by the image sensor. By reading out some pixel data of the light receiving units 70R and 70L, or after reading out the pixel data of the entire light receiving units of the image sensors 70R and 70L, a predetermined processing circuit in the photographing units 50R and 50L This is done by extracting pixel data.

また、撮影光学系60R、60Lとイメージセンサ70R、70Lの配置と視野範囲VFR、VFLとの関係等によっては、右画像IR1と左画像IL1が、右画像IR2と左画像IL2と同様に、イメージセンサ70R、70Lの受光部の一部の画素データを読み出したもの、または、イメージセンサ70R、70Lの受光部全体の画素データを読み出した後に一部の画素データを抜き出したものとなる場合も生じ得る。   Further, depending on the relationship between the arrangement of the photographing optical systems 60R and 60L and the image sensors 70R and 70L and the visual field ranges VFR and VFL, the right image IR1 and the left image IL1 are similar to the right image IR2 and the left image IL2, respectively. There may be a case in which some pixel data of the light receiving units of the sensors 70R and 70L are read out or a part of the pixel data is extracted after reading out the pixel data of the entire light receiving units of the image sensors 70R and 70L. obtain.

このような右画像IR(右画像IR1、右画像IR2)と左画像IL(左画像IL1、左画像IL2)の取り込みによれば、3D画像の表示に使用される右3D視野範囲3DRと左3D視野範囲3DLの画像は、順次取り込まれる右画像IR1、右画像IR2、左画像IL、左画像IL2の全てから得られるのに対して、2D画像の表示に使用される右2D視野範囲2DRと左2D視野範囲2DLの画像は、右画像1R1と左画像1L1のみから得られる。したがって、3D画像(3D映像)のフレームレートを2D画像(2D映像)のフレームレートよりも高くすることができ、3D画像の品質の向上を図ることができる。   According to such capturing of the right image IR (right image IR1, right image IR2) and left image IL (left image IL1, left image IL2), the right 3D visual field range 3DR and the left 3D used for displaying the 3D image are displayed. The image of the visual field range 3DL is obtained from all of the right image IR1, the right image IR2, the left image IL, and the left image IL2 that are sequentially captured, whereas the right 2D visual field range 2DR used for displaying the 2D image and the left The image of the 2D visual field range 2DL is obtained only from the right image 1R1 and the left image 1L1. Therefore, the frame rate of the 3D image (3D video) can be made higher than the frame rate of the 2D image (2D video), and the quality of the 3D image can be improved.

次に本変形例1のような右画像IRと左画像ILの取り込みに対して、有効に3D画像(3D映像)のフレームレートを2D画像(2D映像)のフレームレートよりも高くするための上記表示画像生成部104での表示画像の生成処理について説明する。   Next, in order to capture the right image IR and the left image IL as in the first modification example, the frame rate for the 3D image (3D video) is made higher than the frame rate of the 2D image (2D video) effectively. A display image generation process in the display image generation unit 104 will be described.

まず、図6における3D画像&広角2D画像表示エリア150の右表示画像及び左表示画像を生成する場合の処理について説明する。なお、右表示画像と左表示画像は同様の処理により生成されるため、ここでは右表示画像の生成処理についてのみ詳説する。   First, a process for generating the right display image and the left display image of the 3D image & wide-angle 2D image display area 150 in FIG. 6 will be described. Since the right display image and the left display image are generated by the same processing, only the right display image generation processing will be described in detail here.

右撮影部50Rにより上記のように順次取り込まれる図13(A)に示した右画像IR1、IR2は、プロセッサ装置14に伝送されて画像処理部102で表示用の画像データとして順次生成され、表示画像生成部104に取り込まれる。   The right images IR1 and IR2 shown in FIG. 13A sequentially taken in by the right photographing unit 50R as described above are transmitted to the processor device 14 and are sequentially generated and displayed as image data for display by the image processing unit 102. The image is generated by the image generation unit 104.

表示画像生成部104では、画像処理部102により右画像1R1の画像データが得られたときには、その画像データを用いて図9(A)又は図10(A)に示した基本の実施の形態における生成処理と同一の処理が行われる。これによって図9(A)又は図10(A)の右表示画像150DRが生成される。そして、その右表示画像150DRが最新のものとされる。   When the image data of the right image 1R1 is obtained by the image processing unit 102, the display image generation unit 104 uses the image data in the basic embodiment shown in FIG. 9A or 10A. The same process as the generation process is performed. As a result, the right display image 150DR shown in FIG. 9A or 10A is generated. The right display image 150DR is the latest one.

一方、画像処理部102により右画像1R2の画像データが得られたときには、表示画像生成部104により既に生成された最新の右表示画像150DRに対して3D視野範囲3DR&3DLの画像の画像データのみが、その右画像IR2の画像データで置き換えられる。これによって3D視野範囲3DR&3DLの画像のみが更新された新たな右表示画像150DRが生成され、その右表示画像150DRが最新のものとされる。   On the other hand, when the image data of the right image 1R2 is obtained by the image processing unit 102, only the image data of the image of the 3D visual field range 3DR & 3DL with respect to the latest right display image 150DR already generated by the display image generation unit 104, It is replaced with the image data of the right image IR2. As a result, a new right display image 150DR in which only the image of the 3D visual field range 3DR & 3DL is updated is generated, and the right display image 150DR is updated.

そして、このような生成処理が画像処理部102により右画像1R1又は右画像IR2の画像データが得られるごとに繰り返される。   Such generation processing is repeated each time the image processing unit 102 obtains image data of the right image 1R1 or the right image IR2.

左表示画像についても同様に、左画像IL1の画像データが得られたときには図9(B)又は図10(B)に示した基本の実施の形態における生成処理と同一の処理により左表示画像150DLが生成され、左画像1L2の画像データが得られたときには、最新の左表示画像150DLの3D視野範囲3DR&3DLの画像のみが更新される。   Similarly, for the left display image, when the image data of the left image IL1 is obtained, the left display image 150DL is obtained by the same processing as the generation processing in the basic embodiment shown in FIG. 9B or FIG. When the image data of the left image 1L2 is obtained, only the image of the 3D visual field range 3DR & 3DL of the latest left display image 150DL is updated.

このようにして順次生成される右表示画像150DRと左表示画像150DLとが3D表示装置18の画面上における3D画像&広角2D画像表示エリア150に表示されることによって、3D画像として表示される3D視野範囲3DR&3DLの画像のフレームレートが、2D画像として表示される右2D視野範囲2DRと左2D視野範囲2DLの画像のフレームレートよりも実質的に高くなる。これにより、3D画像の高品質化が図られる。   The right display image 150DR and the left display image 150DL that are sequentially generated in this way are displayed in the 3D image & wide-angle 2D image display area 150 on the screen of the 3D display device 18, thereby displaying the 3D image as a 3D image. The frame rate of the images in the visual field range 3DR & 3DL is substantially higher than the frame rates of the images in the right 2D visual field range 2DR and the left 2D visual field range 2DL displayed as 2D images. As a result, the quality of the 3D image is improved.

次に、図7及び図8(A)における3D画像表示エリア160の右表示画像及び左表示画像を生成する場合の処理について説明する。なお、右表示画像と左表示画像は同様の処理により生成されるため、ここでは右表示画像の生成処理についてのみ詳説する。   Next, a process for generating the right display image and the left display image of the 3D image display area 160 in FIGS. 7 and 8A will be described. Since the right display image and the left display image are generated by the same processing, only the right display image generation processing will be described in detail here.

上述のように右撮影部50Rにより順次取り込まれる図13(A)に示した右画像IR1、IR2は、プロセッサ装置14に伝送されて画像処理部102で表示用の画像データとして順次生成され、表示画像生成部104に取り込まれる。   The right images IR1 and IR2 shown in FIG. 13A sequentially taken in by the right photographing unit 50R as described above are transmitted to the processor device 14 and are sequentially generated and displayed as image data for display by the image processing unit 102. The image is generated by the image generation unit 104.

表示画像生成部104では、画像処理部102により右画像1R1の画像データが得られたときには、その画像データを用いて図11(A)に示した基本の実施の形態における生成処理と同一の処理が行われて3D画像表示エリア160の右表示画像160DRが生成される。   In the display image generation unit 104, when the image data of the right image 1R1 is obtained by the image processing unit 102, the same processing as the generation processing in the basic embodiment shown in FIG. And the right display image 160DR of the 3D image display area 160 is generated.

一方、画像処理部102により右画像1R2の画像データが得られたときには、その右画像1R2の画像データが3D画像表示エリア160の右表示画像160DRの画像データとされ、右画像IR2がそのまま右表示画像160DRとなる。   On the other hand, when the image data of the right image 1R2 is obtained by the image processing unit 102, the image data of the right image 1R2 is used as the image data of the right display image 160DR in the 3D image display area 160, and the right image IR2 is displayed as it is. An image 160DR is obtained.

そして、このような生成処理が画像処理部102により右画像1R1又は右画像IR2の画像データが得られるごとに繰り返される。   Such generation processing is repeated each time the image processing unit 102 obtains image data of the right image 1R1 or the right image IR2.

左表示画像についても同様に、左画像IL1の画像データが得られたときには図11(B)に示した基本の実施の形態における生成処理と同一の処理により左表示画像160DLが生成され、左画像1L2の画像データが得られたときには、その左画像1L2が左表示画像160DLとなる。   Similarly, for the left display image, when the image data of the left image IL1 is obtained, the left display image 160DL is generated by the same process as the generation process in the basic embodiment shown in FIG. When 1L2 image data is obtained, the left image 1L2 becomes the left display image 160DL.

このようにして順次生成される右表示画像150DRと左表示画像150DLとが3D表示装置18の画面上における3D画像表示エリア160に表示されることによって、3D画像として表示される3D画像表示エリア160の画像(3D視野範囲3DR&3DLの画像)が右画像1R1と右画像IR2の取り込みごと(左画像1L1と左画像1L2の取り込みごと)に更新される。なお、この3D画像表示エリア160での3D画像の表示は、これと別のエリアに表示される広角2D画像表示エリア170での2D画像の表示と共に、又は切り替えて行われるものであり、2D画像のフレームレートとの比較については後述する。   The right display image 150DR and the left display image 150DL that are sequentially generated in this way are displayed in the 3D image display area 160 on the screen of the 3D display device 18, whereby the 3D image display area 160 displayed as a 3D image. Are updated every time the right image 1R1 and the right image IR2 are captured (each time the left image 1L1 and the left image 1L2 are captured). The display of the 3D image in the 3D image display area 160 is performed together with or switched to the display of the 2D image in the wide-angle 2D image display area 170 displayed in another area. Comparison with the frame rate will be described later.

次に、図7及び図8(B)における広角2D画像表示エリア170の右表示画像及び左表示画像を生成する場合の処理について説明する。なお、右表示画像と左表示画像は同様の処理により同一画像として生成されるため、ここでは右表示画像の生成処理についてのみ詳説する。   Next, a process for generating the right display image and the left display image of the wide-angle 2D image display area 170 in FIGS. 7 and 8B will be described. Since the right display image and the left display image are generated as the same image by the same processing, only the right display image generation processing will be described in detail here.

上述のように右撮影部50Rにより順次取り込まれる図13(A)に示した右画像IR1、IR2は、プロセッサ装置14に伝送されて画像処理部102で表示用の画像データとして順次生成され、表示画像生成部104に取り込まれる。   The right images IR1 and IR2 shown in FIG. 13A sequentially taken in by the right photographing unit 50R as described above are transmitted to the processor device 14 and are sequentially generated and displayed as image data for display by the image processing unit 102. The image is generated by the image generation unit 104.

表示画像生成部104では、画像処理部102により右画像1R1の画像データが得られたときには、その画像データを用いて図12(A)に示した基本の実施の形態における生成処理と同一の処理が行われて広角2D画像表示エリア170の右表示画像170DRが生成される。そして、その右表示画像170DRが最新のものとされる。なお、図12(A)のように右表示画像170DRの生成には、左画像IL1の画像データも使用される。   In the display image generation unit 104, when the image data of the right image 1R1 is obtained by the image processing unit 102, the same processing as the generation processing in the basic embodiment shown in FIG. And the right display image 170DR of the wide-angle 2D image display area 170 is generated. The right display image 170DR is the latest. Note that the image data of the left image IL1 is also used to generate the right display image 170DR as shown in FIG.

一方、画像処理部102により右画像1R2の画像データが得られたときには、表示画像生成部104により既に生成された最新の右表示画像170DRに対して3D視野範囲3DR&3DLの画像の画像データのみが、その右画像IR2の画像データで置き換えられる。これによって3D視野範囲3DR&3DLの画像のみが更新された新たな右表示画像170DRが生成され、その右表示画像150DRが最新のものとされる。   On the other hand, when the image data of the right image 1R2 is obtained by the image processing unit 102, only the image data of the image of the 3D visual field range 3DR & 3DL with respect to the latest right display image 170DR already generated by the display image generation unit 104, It is replaced with the image data of the right image IR2. As a result, a new right display image 170DR in which only the image of the 3D visual field range 3DR & 3DL is updated is generated, and the right display image 150DR is updated.

そして、このような生成処理が画像処理部102により右画像1R1又は右画像IR2の画像データが得られるごとに繰り返される。   Such generation processing is repeated each time the image processing unit 102 obtains image data of the right image 1R1 or the right image IR2.

なお、右表示画像170DRは、右画像1R1の画像データが得られたときのみ更新するものとし、右画像IR2の画像データが得られてときに右表示画像170DRには変更を加えないものとしてもよい。   The right display image 170DR is updated only when the image data of the right image 1R1 is obtained, and the right display image 170DR is not changed when the image data of the right image IR2 is obtained. Good.

左表示画像については、右表示画像170DRと同一の処理により右表示画像170DRと同一画像の左表示画像170DLが生成される。   For the left display image, a left display image 170DL having the same image as the right display image 170DR is generated by the same processing as the right display image 170DR.

このようにして順次生成される右表示画像170DRと左表示画像170DLとが3D表示装置18の画面上における広角2D画像表示エリア170に表示されることによって、広角2D画像表示エリア170の全範囲における画像が広画角範囲の2D画像として表示される。このとき、少なくとも広角2D画像表示エリア170の右2D視野範囲2DRと左2D視野範囲2DLの画像は、右画像IR1(左画像1L1)の取り込みごとに更新される。したがって、上記の3D画像として表示される3D画像表示エリア160の画像のフレームレートの方が、2D画像として表示される広角2D画像表示エリア170の画像のフレームレートよりも高くなる。これにより、3D画像の高品質化が図られる。   The right display image 170DR and the left display image 170DL that are sequentially generated in this way are displayed in the wide-angle 2D image display area 170 on the screen of the 3D display device 18, so that the entire range of the wide-angle 2D image display area 170 is displayed. The image is displayed as a 2D image with a wide field angle range. At this time, at least the images of the right 2D visual field range 2DR and the left 2D visual field range 2DL in the wide-angle 2D image display area 170 are updated every time the right image IR1 (left image 1L1) is captured. Therefore, the frame rate of the image in the 3D image display area 160 displayed as the 3D image is higher than the frame rate of the image in the wide-angle 2D image display area 170 displayed as a 2D image. As a result, the quality of the 3D image is improved.

次に、3D画像の解像度が2D画像の解像度よりも高くなるようにした本発明の実施の形態(変形例2及び変形例3の実施の形態)について説明する。   Next, an embodiment of the present invention in which the resolution of the 3D image is higher than the resolution of the 2D image (embodiments of Modification 2 and Modification 3) will be described.

図14(A)、(B)は、変形例2及び変形例3の実施の形態において撮影部50R、50Lにより取り込まれる右画像IR及び左画像ILの画素構成を示したイメージ図である。変形例2では、撮影部50R、50Lが、例えば、基本の実施の形態と同様に、右視野範囲VFRの右画像IRを連続的に取り込み、左視野範囲VFLの左画像ILを連続的に取り込むものとする。   FIGS. 14A and 14B are image diagrams illustrating pixel configurations of the right image IR and the left image IL captured by the imaging units 50R and 50L in the second and third embodiments. In the second modification, the imaging units 50R and 50L, for example, continuously capture the right image IR in the right visual field range VFR and continuously capture the left image IL in the left visual field range VFL, as in the basic embodiment. Shall.

このとき、右画像IRは、同図(A)に示すように、3D画像の表示に使用される右3D視野範囲3DRの画像の解像度よりも2D画像の表示に使用される右2D視野範囲2DRの画像の解像度の方が低くなるようにして取り込まれる。ここで、同図(A)、(B)において、白色の画素が右画像IRの画素データとして有効に取り込まれている画素を示し、黒色の画素が右画像IRの画素データとして有効に取り込まれていない画素を示す。   At this time, the right image IR has a right 2D visual field range 2DR used for displaying a 2D image rather than a resolution of the image of the right 3D visual field range 3DR used for displaying the 3D image, as shown in FIG. The image is captured so that the resolution of the image is lower. Here, in FIGS. 2A and 2B, white pixels indicate pixels that are effectively captured as pixel data of the right image IR, and black pixels are effectively captured as pixel data of the right image IR. Indicates pixels that are not.

また、左画像ILは、同図(B)に示すように、3D画像の表示に使用される左3D視野範囲3DLの画像の解像度よりも2D画像の表示に使用される左2D視野範囲2DLの画像の解像度の方が低くなるようにして取り込まれる。   Further, as shown in FIG. 5B, the left image IL has a left 2D visual field range 2DL used for displaying a 2D image rather than a resolution of an image of the left 3D visual field range 3DL used for displaying the 3D image. The image is captured with a lower resolution.

これにより、3D画像の解像度が2D画像の解像度よりも高くなり、上述のように3D画像の高品質化や2D画像の広角化を図ることができる。   Thereby, the resolution of the 3D image becomes higher than the resolution of the 2D image, and as described above, it is possible to improve the quality of the 3D image and widen the angle of the 2D image.

図15は、図14(A)、(B)のように右画像IRと左画像ILを取り込むための変形例2における撮影部50R、50Lの構成を示す。なお、図3に示した撮影部50R、50Lにおける同一作用又は類似作用の構成要素には図3と同一符号を付し、説明を省略する。   FIG. 15 shows the configuration of the imaging units 50R and 50L in Modification 2 for capturing the right image IR and the left image IL as shown in FIGS. 14 (A) and 14 (B). In addition, the same code | symbol as FIG. 3 is attached | subjected to the component of the same effect | action in the imaging | photography parts 50R and 50L shown in FIG. 3, or a similar effect | action, and description is abbreviate | omitted.

同図に示すように右撮影部50Rにおいてイメージセンサ70Rから撮像信号として読み出された画素データは、AFE80Rによってアナログ信号処理が施された後、デジタルの画素データとして処理部200R(画素密度変更手段)に入力される。   As shown in the drawing, the pixel data read out from the image sensor 70R as the imaging signal in the right photographing unit 50R is subjected to analog signal processing by the AFE 80R, and then processed as digital pixel data in the processing unit 200R (pixel density changing means). ).

処理部200Rは、順次入力されるデジタルの画素データのうち、右画像IRの右3D視野範囲3DRの画素データをそのまま送信部82Rに出力し、右2D視野範囲2DRの画素データに対しては間引き処理を施して一部の画素データ(例えば水平方向に並ぶ画素のうち一定間隔置きの画素の画素データ)のみを送信部82Rに出力する。   The processing unit 200R outputs the pixel data in the right 3D visual field range 3DR of the right image IR out of the sequentially input digital pixel data to the transmission unit 82R as it is, and thins out the pixel data in the right 2D visual field range 2DR. Processing is performed to output only a part of the pixel data (for example, pixel data of pixels at regular intervals among the pixels arranged in the horizontal direction) to the transmission unit 82R.

これによって、右2D視野範囲2DRの画像の画素データとしてイメージセンサ70Rの受光面から有効に画素データが取り込まれる画素の密度が、右3D視野範囲3DRの画像を画素データとしてイメージセンサ70Rの受光面から有効に取り込まれる画素の密度よりも低くなり、図14(A)のように3D画像の表示に使用される右3D視野範囲3DRの画像の解像度よりも2D画像の表示に使用される右2D視野範囲2DRの画像の解像度の方が低い右画像IRが右撮影部50Rにより取り込まれるようになる。   Accordingly, the pixel density at which pixel data is effectively captured from the light receiving surface of the image sensor 70R as the pixel data of the image in the right 2D visual field range 2DR is the same as the light receiving surface of the image sensor 70R using the image in the right 3D visual field range 3DR as pixel data. The right 2D used for displaying the 2D image is lower than the density of the pixels that are effectively captured from the image, and the resolution of the image in the right 3D visual field range 3DR used for displaying the 3D image as shown in FIG. The right image IR having a lower resolution of the image in the visual field range 2DR is captured by the right photographing unit 50R.

同様に、処理部200Lは、順次入力されるデジタルの画素データのうち、左画像ILの左3D視野範囲3DLの画素データをそのまま送信部82Lに出力し、左2D視野範囲2DLの画素データに対しては間引き処理を施して一部の画素データ(例えば水平方向に並ぶ画素のうち一定間隔置きの画素の画素データ)のみを送信部82Lに出力する。   Similarly, the processing unit 200L outputs the pixel data in the left 3D visual field range 3DL of the left image IL among the digital pixel data sequentially input to the transmission unit 82L as it is, and outputs the pixel data in the left 2D visual field range 2DL. Then, a thinning process is performed, and only a part of the pixel data (for example, pixel data of pixels arranged at regular intervals among the pixels arranged in the horizontal direction) is output to the transmission unit 82L.

これによって、左2D視野範囲2DLの画像の画素データとしてイメージセンサ70Lの受光面から有効に画素データが取り込まれる画素の密度が、左3D視野範囲3DLの画像を画素データとしてイメージセンサ70Lの受光面から有効に取り込まれる画素の密度よりも低くなり、図14(B)のように3D画像の表示に使用される左3D視野範囲3DLの画像の解像度よりも2D画像の表示に使用される左2D視野範囲2DLの画像の解像度の方が低い左画像ILが左撮影部50Lにより取り込まれるようになる。   As a result, the pixel density at which pixel data is effectively captured from the light receiving surface of the image sensor 70L as the pixel data of the image in the left 2D visual field range 2DL is the light receiving surface of the image sensor 70L using the image in the left 3D visual field range 3DL as the pixel data. The left 2D used for displaying the 2D image is lower than the density of the pixels that are effectively captured from the image, and the resolution of the image of the left 3D visual field range 3DL used for displaying the 3D image as shown in FIG. The left image IL having a lower resolution of the image in the visual field range 2DL is captured by the left photographing unit 50L.

なお、処理部200R、200Lにおいて右2D視野範囲2DR及び左2D視野範囲2DLの画素データを間引くことによって画素数(画素密度)を低減するのではなく、ビニング処理により互いに近接する複数の画素データから1画素分の画素データを生成して画素数(画素密度)を低減し、生成した画素データを送信部82R、82Lに出力するようにしてもよい。   The processing units 200R and 200L do not reduce the number of pixels (pixel density) by thinning out the pixel data of the right 2D visual field range 2DR and the left 2D visual field range 2DL, but from a plurality of pixel data close to each other by binning processing. Pixel data for one pixel may be generated to reduce the number of pixels (pixel density), and the generated pixel data may be output to the transmission units 82R and 82L.

また、処理部200R、200Lは、AFE80R、80Lの前段に設けても良いし、AFE80R、80L内での処理としてもよい。   Further, the processing units 200R and 200L may be provided in front of the AFEs 80R and 80L, or may be performed within the AFEs 80R and 80L.

さらに、イメージセンサ70R、70Lが同図の駆動部202R、202Lから指示された位置の画素データを出力する構造を有する場合には、駆動部202R、202Lからの指示によって、右2D視野範囲2DR及び左2D視野範囲2DLの全ての画素データのうちの一部の画素データのみを出力させて間引き処理を行うことができる。   Further, when the image sensors 70R and 70L have a structure for outputting pixel data at the position instructed from the driving units 202R and 202L in the figure, the right 2D visual field range 2DR and It is possible to perform the thinning process by outputting only a part of the pixel data of all the pixel data in the left 2D visual field range 2DL.

また、イメージセンサ70R、70Lが駆動部202R、202Lからの指示によって上記のビニング処理を実施する機能を有する場合には、駆動部202R、202Lからの指示によってイメージセンサ70R、70L内で右2D視野範囲2DR及び左2D視野範囲2DLの画素データに対してビニング処理を実施させて出力させることもできる。   In addition, when the image sensors 70R and 70L have the function of performing the above binning process according to an instruction from the driving units 202R and 202L, the right 2D visual field is displayed in the image sensors 70R and 70L according to the instruction from the driving units 202R and 202L. A binning process may be performed on the pixel data in the range 2DR and the left 2D visual field range 2DL and output.

図16は、図14(A)、(B)のように右画像IRと左画像ILを取り込むための変形例3におけるイメージセンサ70R、70Lの受光面における画素ピッチ(画素密度)を示す。   FIG. 16 shows the pixel pitch (pixel density) on the light receiving surfaces of the image sensors 70R and 70L in Modification 3 for capturing the right image IR and the left image IL as shown in FIGS. 14 (A) and 14 (B).

イメージセンサ70R、70Lの受光面(受光部)において、右画像IRの右3D視野範囲3DRの画像を撮像する領域230Rと、左画像ILの左3D視野範囲3DLの画像を撮像する領域230Lの画素ピッチは一致している。拡大図234は、それらの領域230R、230L内の同一面積の範囲を拡大して示した図である。拡大図234に示すように領域230R、230L内の画素(受光素子)238、238、・・・は、例えば縦方向と横方向に同一の画素ピッチP1で配列されている。   Pixels in a region 230R that captures an image in the right 3D visual field range 3DR of the right image IR and a region 230L that captures an image in the left 3D visual field range 3DL of the left image IL on the light receiving surfaces (light receiving units) of the image sensors 70R and 70L. The pitch is consistent. Enlarged view 234 is an enlarged view of the same area within these regions 230R and 230L. As shown in the enlarged view 234, the pixels (light receiving elements) 238, 238,... In the regions 230R, 230L are arranged, for example, at the same pixel pitch P1 in the vertical direction and the horizontal direction.

一方、イメージセンサ70R、70Lの受光面において、右画像IRの右2D視野範囲2DRの画像を撮像する領域232Rと、左画像ILの左2D視野範囲2DLの画像を撮像する領域232Lの画素ピッチは一致している。拡大図236は、それらの領域232R、232L内の同一面積の範囲を拡大して示した図である。拡大図236に示すように領域232R、232L内の画素(受光素子)240、240、・・・は、例えば縦方向と横方向に同一の画素ピッチP2で配列されている。   On the other hand, on the light receiving surfaces of the image sensors 70R and 70L, the pixel pitch of the region 232R that captures an image in the right 2D visual field range 2DR of the right image IR and the region 232L that captures an image in the left 2D visual field range 2DL of the left image IL is Match. The enlarged view 236 is an enlarged view of the same area within the regions 232R and 232L. As shown in the enlarged view 236, the pixels (light receiving elements) 240, 240,... In the regions 232R, 232L are arranged, for example, at the same pixel pitch P2 in the vertical direction and the horizontal direction.

そして、領域230R、230L内の画素ピッチP1と、領域232R、232Lの画素ピッチP2を比較すると、画素ピッチP1よりも画素ピッチP2の方が大きい。即ち、領域230R、230Lの画素密度の方が、領域232R、232Lの画素密度よりも大きい。   When comparing the pixel pitch P1 in the regions 230R and 230L and the pixel pitch P2 in the regions 232R and 232L, the pixel pitch P2 is larger than the pixel pitch P1. That is, the pixel density of the regions 230R and 230L is larger than the pixel density of the regions 232R and 232L.

このようにイメージセンサ70R、70Lとして、3D画像を撮像する受光面の領域よりも2D画像を撮像する受光面の領域の方が画素ピッチが大きいイメージセンサを使用することによって、図14(A)のように3D画像の表示に使用される右3D視野範囲3DRの画像の解像度よりも2D画像の表示に使用される右2D視野範囲2DRの画像の解像度の方が低い右画像IRが右撮影部50Rにより取り込まれるようになる。また、図14(B)のように3D画像の表示に使用される左3D視野範囲3DLの画像の解像度よりも2D画像の表示に使用される左2D視野範囲2DLの画像の解像度の方が低い左画像ILが左撮影部50Lにより取り込まれるようになる。   As described above, as the image sensors 70R and 70L, by using an image sensor having a larger pixel pitch in the region of the light receiving surface that captures the 2D image than in the region of the light receiving surface that captures the 3D image, FIG. As shown, the right image IR is lower in the resolution of the image in the right 2D visual field range 2DR used for displaying the 2D image than the image in the right 3D visual field range 3DR used for displaying the 3D image. It is taken in by 50R. Further, as shown in FIG. 14B, the resolution of the image in the left 2D visual field range 2DL used for displaying the 2D image is lower than the resolution of the image in the left 3D visual field range 3DL used for displaying the 3D image. The left image IL is captured by the left imaging unit 50L.

なお、基本の実施の形態のように右撮影部50Rにおいて右全視野範囲VFRの右画像IRの取り込みを連続的に行い、左撮影部50Lにおいて左全視野範囲VFLの左画像ILの取り込みを連続的に行う場合には、それらの右画像IRと左画像ILの取り込みに変形例2、3の右画像IRと左画像ILの取り込みをそのまま適用することができる。その場合に、内視鏡画像の表示エリアの右表示画像と左表示画像は、基本の実施の形態において説明した表示エリアの種類に応じた生成処理と同一処理によって生成され、3D表示装置18に表示される。   As in the basic embodiment, the right image capturing unit 50R continuously captures the right image IR of the right full visual field range VFR, and the left image capturing unit 50L continuously captures the left image IL of the left full visual field range VFL. In the case where it is carried out manually, the capturing of the right image IR and the left image IL of Modifications 2 and 3 can be applied to the capturing of the right image IR and the left image IL as they are. In that case, the right display image and the left display image of the display area of the endoscopic image are generated by the same process as the generation process according to the type of the display area described in the basic embodiment, and are displayed on the 3D display device 18. Is displayed.

一方、図13等を用いて説明した変形例1の実施の形態のように右撮影部50Rにおいて右全視野範囲VFRの右画像IR1の取り込みと、右3D視野範囲3DRのみの右画像IR2の取り込みとを特定の割合で順に行い、左撮影部50Lにおいて左全視野範囲VFLの左画像IL1の取り込みと、左3D視野範囲3DLのみの左画像IL2の取り込みとを特定の割合で順に行う場合には、右画像IR1と左画像1L1の取り込みに対して変形例2、3の右画像IRと左画像ILの取り込みを適用することができる。   On the other hand, as in the embodiment of the first modification described with reference to FIG. 13 and the like, the right imaging unit 50R captures the right image IR1 of the right full visual field range VFR and the right image IR2 of only the right 3D visual field range 3DR. Are sequentially performed at a specific ratio, and the left imaging unit 50L sequentially captures the left image IL1 of the left entire visual field range VFL and the left image IL2 of only the left 3D visual field range 3DL at a specific ratio. The capturing of the right image IR and the left image IL according to the second and third modifications can be applied to capturing the right image IR1 and the left image 1L1.

その場合に、内視鏡画像の表示エリアの右表示画像と左表示画像は、変形例1の実施の形態において説明した表示エリアの種類に応じた生成処理と同一処理によって生成され、3D表示装置18に表示される。   In that case, the right display image and the left display image of the display area of the endoscopic image are generated by the same process as the generation process according to the type of the display area described in the embodiment of the first modification, and the 3D display device 18 is displayed.

更に、変形例1の実施の形態のように右画像IRと左画像ILの取り込みと、内視鏡画像の表示エリアの表示画像の生成処理を行う場合に、右画像IR1と左画像1L1の取り込みに対して変形例2、3の右画像IRと左画像ILのように2D画像の表示に使用される画像の解像度だけでなく、3D画像の表示に使用される画像の解像度、即ち、右画像IR1と左画像1L1の全範囲の解像度を変形例2と同様に間引き処理やビニング処理等によって低くする形態も考えられる。   Further, when the right image IR and the left image IL are fetched and the display image generation processing of the display area of the endoscope image is performed as in the first modification, the right image IR1 and the left image 1L1 are fetched. On the other hand, the resolution of the image used for displaying the 3D image as well as the resolution of the image used for displaying the 2D image, such as the right image IR and the left image IL of Modifications 2 and 3, that is, the right image A mode is also conceivable in which the resolution of the entire range of IR1 and left image 1L1 is lowered by thinning processing, binning processing, or the like as in the second modification.

次に、光学的な構成によって3D画像の解像度が2D画像の解像度よりも高くなるようにする変形例4の実施の形態について説明する。   Next, an embodiment of Modification 4 in which the resolution of the 3D image is higher than the resolution of the 2D image by an optical configuration will be described.

図17は、図4に示した基本の実施の形態における各種視野範囲をそのまま適用して本変形例4における撮影部50R、50Lの撮影光学系60R、60L及びイメージセンサ70R、70Lの構成を示した図である。なお、被写体O1〜O5や同図の上部において右画像IRと左画像ILを3D画像として表示される領域で重ねて示した図も図4と全く同じである
同図に示すように撮影光学系60Rと撮影光学系60Lは、それらの光軸ORと光軸OLが、基準面RP上で交わり、且つ、左右対称となる向きに配置されている。即ち、3D画像を撮影する右3D視野範囲3DRと左3D視野範囲3DLとが基準面RP上において重なる範囲(3D視野範囲3DR&3DL)の中心位置において光軸ORと光軸OLが交差するように撮影光学系60Rと撮影光学系60Lの向きが設定されている。
FIG. 17 shows the configuration of the imaging optical systems 60R and 60L and the image sensors 70R and 70L of the imaging units 50R and 50L in the fourth modification by directly applying the various visual field ranges in the basic embodiment shown in FIG. It is a figure. Note that the figure in which the right image IR and the left image IL are overlapped in a region displayed as a 3D image at the top of the subjects O1 to O5 and the top of the figure is also exactly the same as FIG. 4, as shown in FIG. The optical axis OR and the optical axis OL of the 60R and the photographing optical system 60L intersect with each other on the reference plane RP and are arranged in a symmetrical direction. That is, photographing is performed so that the optical axis OR and the optical axis OL intersect at the center position of a range where the right 3D visual field range 3DR and the left 3D visual field range 3DL for photographing a 3D image overlap on the reference plane RP (3D visual field range 3DR & 3DL). The orientations of the optical system 60R and the photographing optical system 60L are set.

一方、イメージセンサ70Rとイメージセンサ70Lは、それらの受光面の中心軸が各々、光軸ORと光軸OLからずれた位置に配置されている。イメージセンサ70Rは、その受光面が右全視野範囲VFRの左端、即ち、3D画像を撮影する右3D視野範囲3DRの左端を所定の視方向に規制する位置となるように配置されている。同様に、イメージセンサ70Lは、その受光面が左全視野範囲VFLの右端、即ち、3D画像を撮影する左3D視野範囲3DLの右端を所定の視方向に規制する位置となるように配置されている。   On the other hand, the image sensor 70R and the image sensor 70L are arranged at positions where the central axes of their light receiving surfaces are shifted from the optical axis OR and the optical axis OL, respectively. The image sensor 70R is disposed such that the light receiving surface thereof is positioned to restrict the left end of the right full visual field range VFR, that is, the left end of the right 3D visual field range 3DR that captures a 3D image in a predetermined viewing direction. Similarly, the image sensor 70L is arranged such that the light receiving surface thereof is positioned to restrict the right end of the left full visual field range VFL, that is, the right end of the left 3D visual field range 3DL for capturing a 3D image in a predetermined viewing direction. Yes.

ここで、図18、図19は、同一特性の撮影光学系60R、60Lの解像度の特性に関して例示した図である。たとえば、広角の2D画像を撮影するために図17における右2D視野範囲2DRや左2D視野範囲2DLを大きくする場合、撮影光学系60R、60Lとして魚眼レンズのような等距離射影方式、等立体角射影方式、又は、正射影方式の広角レンズを使用すると好適である。図18は、その場合の撮影光学系60R、60Lの解像度の特性を示している。   Here, FIG. 18 and FIG. 19 are diagrams illustrating the resolution characteristics of the imaging optical systems 60R and 60L having the same characteristics. For example, when the right 2D field-of-view range 2DR and the left 2D field-of-view range 2DL in FIG. 17 are enlarged in order to capture a wide-angle 2D image, an equidistance projection method such as a fisheye lens as the imaging optical systems 60R and 60L, an equal solid angle projection It is preferable to use a wide-angle lens of a method or an orthogonal projection method. FIG. 18 shows the resolution characteristics of the photographing optical systems 60R and 60L in that case.

同図に示すように、撮影光学系60R、60Lは、例えば基準面RP上の一定間隔の縦縞を結像面IP上に縦縞の像として結像する。これによれば、結像面IP上において光軸OR、OLから横方向(光軸OR、OLに直交する方向)に離れるほど、縦縞の間隔が狭くなっている。したがって、撮影光学系60R、60Lは、図中最下部のグラフに示すように結像面IP上において光軸OR、OLの位置で解像度が最も高く、光軸OR、OLから離れるほど解像度が低下していく特性を有する。   As shown in the figure, the photographing optical systems 60R and 60L form, for example, vertical stripes at regular intervals on the reference plane RP as images of vertical stripes on the imaging plane IP. According to this, the distance between the vertical stripes becomes narrower as the distance from the optical axes OR and OL in the horizontal direction (the direction orthogonal to the optical axes OR and OL) increases on the imaging plane IP. Therefore, the photographing optical systems 60R and 60L have the highest resolution at the positions of the optical axes OR and OL on the imaging plane IP as shown in the lowermost graph in the drawing, and the resolution decreases as the distance from the optical axes OR and OL increases. It has the characteristic to do.

なお、解像度は、収差や歪みなどの他の要因も含めて決定される。また、魚眼レンズのような等距離射影方式等の広角レンズを撮影光学系60R、60Lとして使用した場合、プロセッサ装置14の画像処理部102等において、撮影部50R、50Lにより得られた右画像IR及び左画像ILに対して透視投影方式によって得られる歪み等のない画像に補正する処理を施すことが望ましい。   Note that the resolution is determined including other factors such as aberration and distortion. Further, when a wide-angle lens such as an equidistant projection method such as a fisheye lens is used as the photographing optical systems 60R and 60L, the right image IR and the right image IR obtained by the photographing units 50R and 50L in the image processing unit 102 and the like of the processor device 14 are used. It is desirable to perform processing for correcting the left image IL to an image having no distortion obtained by the perspective projection method.

一方、撮影光学系60R、60Lとして透視投影方式の広角レンズ(又は通常画角のレンズ)を使用することも可能である。図19は、その場合の撮影光学系60R、60Lの解像度の特性を示している。   On the other hand, it is also possible to use a perspective projection type wide-angle lens (or a lens with a normal angle of view) as the photographing optical systems 60R and 60L. FIG. 19 shows the resolution characteristics of the photographing optical systems 60R and 60L in that case.

同図に示すように、撮影光学系60R、60Lは、例えば基準面RP上の一定間隔の縦縞を結像面IP上に縦縞の像として結像する。これによれば、撮影光学系60R、60Lが透視投影方式の場合、理想的には結像面IP上に結像された像も一定間隔の縦縞となる。したがって、図18のように投影方式による解像度の変化は生じない。しかしながら、広角レンズや簡易構成のレンズ等の場合、収差や歪み等が大きく、同図の最下部のグラフに示すように図18と同様に結像面IP上において光軸OR、OLの位置で解像度が最も高く、光軸OR、OLから離れるほど解像度が低下していく特性を有する。   As shown in the figure, the photographing optical systems 60R and 60L form, for example, vertical stripes at regular intervals on the reference plane RP as images of vertical stripes on the imaging plane IP. According to this, when the photographing optical systems 60R and 60L are of the perspective projection method, ideally, the image formed on the image plane IP also has vertical stripes with a constant interval. Therefore, the resolution does not change depending on the projection method as shown in FIG. However, in the case of a wide-angle lens, a lens with a simple configuration, etc., aberration and distortion are large, and as shown in the lowermost graph of FIG. 18, at the positions of the optical axes OR and OL on the image plane IP as in FIG. The resolution is the highest, and the resolution decreases as the distance from the optical axes OR and OL increases.

図17は、図18や図19に示したような特性の撮影光学系60R、60Lを使用する場合に好適な構成を示しており、撮影光学系60R、60Lの光軸OR、OL周辺の解像度が高い結像面IPの領域に3D画像として撮影する右3D視野範囲3DR及び左3D視野範囲3DLの被写体の像が結像されるように、基準面RP上の3D視野範囲3DR&3DLの中心に光軸OR、OLを向けて撮影光学系60R、60Lが配置されている。これによって、2D画像として撮影する右2D視野範囲2DR及び左2D視野範囲2DLの被写体の像は、それよりも解像度が低い結像面IPの領域に結像される。   FIG. 17 shows a configuration suitable when the photographing optical systems 60R and 60L having the characteristics shown in FIGS. 18 and 19 are used, and the resolutions around the optical axes OR and OL of the photographing optical systems 60R and 60L. Light in the center of the 3D visual field range 3DR & 3DL on the reference plane RP so that an image of the subject in the right 3D visual field range 3DR and the left 3D visual field range 3DL taken as a 3D image is formed in the region of the imaging plane IP having a high The photographing optical systems 60R and 60L are arranged with the axes OR and OL directed. As a result, the image of the subject in the right 2D visual field range 2DR and the left 2D visual field range 2DL photographed as a 2D image is formed on the region of the image plane IP having a lower resolution.

一方、イメージセンサ70R、70Lは、受光面の中心が光軸OR、OLの位置に配置されていると右2D視野範囲2DR及び左2D視野範囲2DLが狭くなり2D画像の画角が狭くなることから、イメージセンサ70Rは、3D画像として撮影する右3D視野範囲3DRの左端よりも右側の範囲の被写体が結像される結像面IPの領域に受光面が配置されるように、受光面の中心が光軸ORよりも図中左側となるように配置されている。ただし、受光面の領域のうち、一部の領域の画像を右画像IRとして有効に取り込むことによって、イメージセンサ70Rの受光面をシフトさせることと同等の効果を得ることができ、必ずしも、受光面の位置で右画像IRを撮影する視野範囲を調整する必要はない(イメージセンサ70Lについても同様)。   On the other hand, in the image sensors 70R and 70L, when the center of the light receiving surface is arranged at the position of the optical axes OR and OL, the right 2D visual field range 2DR and the left 2D visual field range 2DL are narrowed, and the angle of view of the 2D image is narrowed. Thus, the image sensor 70R is arranged so that the light receiving surface is arranged in the region of the imaging plane IP on which the subject in the right range from the left end of the right 3D visual field range 3DR taken as a 3D image is formed. It is arranged so that the center is on the left side in the figure with respect to the optical axis OR. However, it is possible to obtain the same effect as shifting the light receiving surface of the image sensor 70R by effectively capturing an image of a part of the light receiving surface as the right image IR. It is not necessary to adjust the visual field range for capturing the right image IR at the position (the same applies to the image sensor 70L).

同様に、イメージセンサ70Lは、3D画像として撮影する左3D視野範囲3DLの右端よりも左側の範囲の被写体が結像される結像面IPの領域に受光面が配置されるように受光面の中心が光軸OLよりも図中右側となるように配置されている。   Similarly, the image sensor 70L is configured so that the light receiving surface is arranged in the region of the imaging plane IP where the subject in the range on the left side of the right end of the left 3D visual field range 3DL captured as a 3D image is formed. It is arranged so that the center is on the right side in the figure with respect to the optical axis OL.

以上のように構成された撮影部50R、50Lの構成によれば、撮影部50R、50Lにより3D画像として撮影される右画像IRの右3D視野範囲3DRの画像と左画像ILの左3D視野範囲3DLの画像が、2D画像として撮影される右画像IRの右2D視野範囲2DRの画像と左画像ILの左2D視野範囲2DLの画像よりも高い解像度で得られるようになる。したがって、3D画像の高品質化が図られる。   According to the configuration of the imaging units 50R and 50L configured as described above, the image of the right 3D visual field range 3DR of the right image IR and the left 3D visual field range of the left image IL that are captured as 3D images by the imaging units 50R and 50L. A 3DL image can be obtained with higher resolution than an image in the right 2D visual field range 2DR of the right image IR captured as a 2D image and an image in the left 2D visual field range 2DL of the left image IL. Therefore, the quality of the 3D image can be improved.

また、3D画像を高品質に保ちながら撮影光学系60R、60Lとして魚眼レンズ等の広角レンズを使用することができるため、2D画像の広角化を図ることもできる。図17では、2D画像が撮影される右2D視野範囲2DRと左2D視野範囲2DLが図4に示したそれらの視野範囲と一致しているかのように示したが、実際にはより広角となるようにすることができる。   In addition, since a wide-angle lens such as a fisheye lens can be used as the photographing optical systems 60R and 60L while maintaining a high quality 3D image, it is possible to widen the 2D image. In FIG. 17, the right 2D visual field range 2DR and the left 2D visual field range 2DL in which the 2D image is captured are illustrated as if they coincide with those visual field ranges illustrated in FIG. Can be.

なお、図18、図19では、撮影光学系60R、60Lの解像度の特性として、結像面IPにおける光軸OR、OLの位置において解像度が最大となるような特性としたため、図17において、それらの光軸OR、OLが、基準面RP上の3D画像を撮影する視野範囲(3D視野範囲3DR&3DL)の中心で交わるように撮影光学系60R、60Lを配置したが、このような配置に限定されるものではない。   18 and 19, the resolution characteristics of the imaging optical systems 60R and 60L are such that the resolution is maximized at the positions of the optical axes OR and OL on the imaging plane IP. The imaging optical systems 60R and 60L are arranged so that their optical axes OR and OL intersect at the center of the visual field range (3D visual field range 3DR & 3DL) for photographing a 3D image on the reference plane RP, but the arrangement is limited to such an arrangement. It is not something.

たとえば、撮影光学系60R、60Lが結像面IP上の光軸OR、OL以外の位置で解像度が最大となる山型形状の特性を有する場合、その解像度が最大となる結像面IP上の位置を含む領域に、3D視野範囲3DR&3DLの像が結像されるように撮影光学系60R、60Lを配置し(又は構成し)、解像度が最大となる結像面IP上の位置周辺の解像度の高い結像面IP上の領域に、3D画像として撮影する視野範囲の被写体の像が結像されるようにすればよい。   For example, when the imaging optical systems 60R and 60L have a mountain-shaped characteristic that maximizes the resolution at positions other than the optical axes OR and OL on the imaging plane IP, the imaging optical system 60R and 60L may have a maximum resolution on the imaging plane IP. The photographic optical systems 60R and 60L are arranged (or configured) so that an image of the 3D visual field range 3DR & 3DL is formed in the region including the position, and the resolution around the position on the imaging plane IP where the resolution is maximum. What is necessary is just to make it form the image of the subject in the field of view to be photographed as a 3D image in the region on the high imaging plane IP.

また、上記の全ての実施の形態において、撮影光学系60R、60Lが各々独立のレンズによって構成されるものとして説明したが、図20のように撮影光学系60R、60Lの一部のレンズが共有されているような形態の撮影光学系300や図21のように撮影光学系60R、60Lの全てのレンズが共有されているような形態の撮影光学系302であってもよい。これらの形態においても上記変形例3の実施の形態と同様に、3D画像の解像度が2D画像の解像度よりも高くなるようにする構成を適用できる。   In all the above embodiments, the photographing optical systems 60R and 60L are described as being configured by independent lenses. However, some lenses of the photographing optical systems 60R and 60L are shared as shown in FIG. The photographic optical system 300 having a configuration as described above or the photographic optical system 302 having a configuration in which all the lenses of the photographic optical systems 60R and 60L are shared as shown in FIG. In these embodiments, a configuration in which the resolution of the 3D image is higher than the resolution of the 2D image can be applied as in the third modification.

即ち、図20において、撮影光学系300により右眼の視差画像として被写体の像が結像される結像面IPRと、左眼の視差画像として被写体の像が結像される結像面IPLにおいて、解像度が高くなる領域に、3D画像として撮影する領域の被写体の像が結像されるようにすればよい。即ち、基準面RPにおいて、3D画像として撮影する視野範囲の中心を点3DPとすると、その点3DPの像が結像面IPRと結像面IPLの各々において山型分布の解像度の最大点近傍に結像されるようにすればよい。図21の撮影光学系302に関しても同様であるため説明を省略する。   That is, in FIG. 20, on the imaging plane IPR on which a subject image is formed as a parallax image for the right eye by the photographing optical system 300 and on the imaging plane IPL on which a subject image is formed as a parallax image for the left eye. The image of the subject in the area to be photographed as a 3D image may be formed in the area where the resolution is high. That is, when the center of the field of view taken as a 3D image is a point 3DP on the reference plane RP, the image of the point 3DP is close to the maximum point of the resolution of the mountain distribution on each of the imaging plane IPR and the imaging plane IPL. What is necessary is just to make it image-form. The same applies to the photographing optical system 302 in FIG.

以上の変形例4の実施の形態の構成は、基本の実施の形態、変形例1〜変形例3の実施の形態のいずれにも適用することができる。   The configuration of the fourth modification embodiment can be applied to both the basic embodiment and the first to third modification embodiments.

10…立体内視鏡システム、12…立体内視鏡装置(内視鏡)、14…プロセッサ装置、16…光源、18…3D表示装置、20…挿入部、22…操作部、24…ユニバーサルコード、30…先端部、30a…先端面、32…湾曲部、34…軟性部、50…撮影部、50R…右撮影部、50L…左撮影部、52…照明部、60R、60L…撮影光学系、70R、70L…イメージセンサ、80R、80L…アナログ信号処理部(AFE)、82R、82L…送信部、100…受信部、102…画像処理部、104…表示画像生成部、106…表示制御部、150…3D画像&広角2D画像表示エリア、160…3D画像表示エリア、170…広角2D画像表示エリア、200R、200L…処理部、202R、202L…駆動部、RP…基準面、VFR…右全視野範囲、VFL…左全視野範囲、3DR…右3D視野範囲、3DL…左3D視野範囲、3DR&3DL…3D視野範囲、2DR…右2D視野範囲、2DL…左2D視野範囲 DESCRIPTION OF SYMBOLS 10 ... Stereoscopic endoscope system, 12 ... Stereoscopic endoscope apparatus (endoscope), 14 ... Processor apparatus, 16 ... Light source, 18 ... 3D display apparatus, 20 ... Insertion part, 22 ... Operation part, 24 ... Universal cord 30 ... distal end portion, 30a ... distal end surface, 32 ... curved portion, 34 ... flexible portion, 50 ... photographing portion, 50R ... right photographing portion, 50L ... left photographing portion, 52 ... illumination portion, 60R, 60L ... photographing optical system , 70R, 70L ... image sensor, 80R, 80L ... analog signal processing unit (AFE), 82R, 82L ... transmission unit, 100 ... reception unit, 102 ... image processing unit, 104 ... display image generation unit, 106 ... display control unit 150 ... 3D image & wide-angle 2D image display area, 160 ... 3D image display area, 170 ... wide-angle 2D image display area, 200R, 200L ... processing unit, 202R, 202L ... drive unit, RP ... reference , VFR ... right full field of view range, VFL ... left full field of view range, 3DR ... right 3D field of view range, 3DL ... left 3D field of view range, 3DR & 3DL ... 3D field of view range, 2DR ... right 2D field of view range, 2DL ... left 2D field of view range

Claims (8)

第1視野範囲の被写体を撮影し、立体視用の3D画像及び平面視用の2D画像を形成するための第1画像を取得する第1撮影部と、
前記第1視野範囲と一部で重なる第2視野範囲の被写体を撮影し、前記立体視用の3D画像及び前記平面視用の2D画像を形成するための第2画像を取得する第2撮影部とを有する立体内視鏡装置であって、
前記第1撮影部及び前記第2撮影部は、前記第1画像及び前記第2画像内の画像領域のうち、前記立体視用の3D画像を形成する3D領域の画像の解像度を、前記平面視用の2D画像のみを形成する2D領域の画像の解像度よりも高くする立体内視鏡装置。
A first photographing unit that photographs a subject in a first visual field range and obtains a first image for forming a stereoscopic 3D image and a planar 2D image;
A second photographing unit that photographs a subject in a second visual field range that partially overlaps the first visual field range, and obtains a second image for forming the stereoscopic 3D image and the planar 2D image. A stereoscopic endoscope device comprising:
The first photographing unit and the second photographing unit are configured to determine a resolution of an image in a 3D region forming the stereoscopic 3D image among the image regions in the first image and the second image in the plan view. The stereoscopic endoscope apparatus which makes it higher than the resolution of the image of the 2D area | region which forms only 2D image for images.
前記第1撮影部は、被写体の光学像を第1結像面に結像する第1撮影光学系を有し、
前記第2撮影部は、被写体の光学像を第2結像面に結像する第2撮影光学系を有し、
前記第1撮影光学系及び前記第2撮影光学系は、前記第1結像面及び前記第2結像面内の領域のうち、前記3D領域の画像が撮像される領域の光学像の解像度を、前記2D領域の画像が撮像される領域の光学像の解像度よりも高くすることにより、前記3D領域の画像の解像度を、前記2D領域の画像の解像度よりも高くする請求項1に記載の立体内視鏡装置。
The first photographing unit includes a first photographing optical system that forms an optical image of a subject on a first imaging surface,
The second imaging unit includes a second imaging optical system that forms an optical image of a subject on a second imaging surface,
The first photographing optical system and the second photographing optical system have a resolution of an optical image of a region where an image of the 3D region is picked up among regions in the first imaging surface and the second imaging surface. The three-dimensional image according to claim 1, wherein the resolution of the image of the 3D area is made higher than the resolution of the image of the 2D area by making the resolution higher than the resolution of the optical image of the area where the image of the 2D area is captured. Endoscopic device.
前記第1撮影部は、被写体の光学像を結像する第1撮影光学系と、該第1撮影光学系により結像された光学像を撮像する第1撮像素子を有し、
前記第2撮影部は、被写体の光学像を結像する第2撮影光学系と、該第2撮影光学系により結像された光学像を撮像する第2撮像素子を有し、
前記第1撮像素子及び前記第2撮像素子は、受光面内の領域のうち、前記3D領域の画像を撮像する領域の画素ピッチを、前記2D領域の画像を撮像する領域の画素ピッチよりも小さくする請求項1又は2に記載の立体内視鏡装置。
The first photographing unit includes a first photographing optical system that forms an optical image of a subject, and a first imaging element that picks up an optical image formed by the first photographing optical system,
The second photographing unit includes a second photographing optical system that forms an optical image of a subject, and a second imaging element that picks up an optical image formed by the second photographing optical system,
The first imaging device and the second imaging device have a pixel pitch of a region for capturing an image of the 3D region, which is smaller than a pixel pitch of a region for capturing an image of the 2D region, in the region within the light receiving surface. The stereoscopic endoscope apparatus according to claim 1 or 2.
前記第1撮影部は、被写体の光学像を結像する第1撮影光学系と、該第1撮影光学系により結像された光学像を撮像する第1撮像素子を有し、
前記第2撮影部は、被写体の光学像を結像する第2撮影光学系と、該第2撮影光学系により結像された光学像を撮像する第2撮像素子を有し、
前記第1撮像素子及び前記第2撮像素子の受光面内の領域のうち、前記3D領域の画像を撮像する領域から有効に画素データを取得する画素の密度を、前記2D領域の画像を撮像する領域から有効に画素データを取得する画素の密度よりも高くする画素密度変更手段を備えた請求項1又は2に記載の立体内視鏡装置。
The first photographing unit includes a first photographing optical system that forms an optical image of a subject, and a first imaging element that picks up an optical image formed by the first photographing optical system,
The second photographing unit includes a second photographing optical system that forms an optical image of a subject, and a second imaging element that picks up an optical image formed by the second photographing optical system,
Of the areas in the light receiving surface of the first imaging element and the second imaging element, the density of pixels that effectively acquire pixel data from the area that captures the image of the 3D area is captured, and the image of the 2D area is captured. The stereoscopic endoscope apparatus according to claim 1, further comprising: a pixel density changing unit that increases the density of pixels that effectively acquire pixel data from a region.
前記第1撮影光学系及び前記第2撮影光学系は、前記第1結像面及び前記第2結像面内の領域のうち、光学像の解像度が最大となる位置を含む領域に前記3D画像を撮影する視野範囲の光学像を結像する請求項2に記載の立体内視鏡装置。   The first imaging optical system and the second imaging optical system include the 3D image in an area including a position where the resolution of the optical image is maximum among the areas in the first imaging plane and the second imaging plane. The stereoscopic endoscope apparatus according to claim 2, wherein an optical image in a visual field range for photographing is formed. 前記第1撮影光学系及び前記第2撮影光学系は、等距離射影方式、等立体角射影方式、又は、正射影方式の魚眼レンズである請求項2又は5に記載の立体内視鏡装置。   The stereoscopic endoscope apparatus according to claim 2 or 5, wherein the first imaging optical system and the second imaging optical system are fish-eye lenses of an equidistant projection method, an equal solid angle projection method, or an orthographic projection method. 前記画素密度変更手段は、前記2D領域の画像を撮像する領域から有効に画素データを取得する画素の密度を間引き処理によって低減させる請求項4に記載の立体内視鏡装置。   The stereoscopic endoscope apparatus according to claim 4, wherein the pixel density changing unit reduces the density of pixels that effectively acquire pixel data from a region that captures an image of the 2D region by thinning processing. 前記画素密度変更手段は、前記2D領域の画像を撮像する領域から有効に画素データを取得する画素の密度をビニング処理によって低減させる請求項4に記載の立体内視鏡装置。   The stereoscopic endoscope apparatus according to claim 4, wherein the pixel density changing unit reduces the density of pixels that effectively acquire pixel data from an area where an image of the 2D area is captured by binning processing.
JP2012216844A 2012-09-28 2012-09-28 Stereoscopic endoscope device Active JP5818265B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012216844A JP5818265B2 (en) 2012-09-28 2012-09-28 Stereoscopic endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012216844A JP5818265B2 (en) 2012-09-28 2012-09-28 Stereoscopic endoscope device

Publications (2)

Publication Number Publication Date
JP2014068796A JP2014068796A (en) 2014-04-21
JP5818265B2 true JP5818265B2 (en) 2015-11-18

Family

ID=50744614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012216844A Active JP5818265B2 (en) 2012-09-28 2012-09-28 Stereoscopic endoscope device

Country Status (1)

Country Link
JP (1) JP5818265B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552948B2 (en) 2016-06-27 2020-02-04 Olympus Corporation Endoscope apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017098755A1 (en) * 2015-12-08 2017-06-15 オリンパス株式会社 Stereoscopic imaging apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0815616A (en) * 1994-06-30 1996-01-19 Olympus Optical Co Ltd Stereoscopic endoscope image pickup device
JPH08308790A (en) * 1995-05-16 1996-11-26 Shinko Koki Seisakusho:Kk Stereoscopic endoscopic apparatus
JPH095643A (en) * 1995-06-26 1997-01-10 Matsushita Electric Ind Co Ltd Stereoscopic endoscope device
JP2002065588A (en) * 2000-08-29 2002-03-05 Olympus Optical Co Ltd Stereoscopic vision endoscope device
JP2003334160A (en) * 2002-05-21 2003-11-25 Olympus Optical Co Ltd Stereoscopic endoscope system
JP4750175B2 (en) * 2008-11-28 2011-08-17 オリンパスメディカルシステムズ株式会社 Stereo optical system, and stereo measurement optical apparatus, stereo measurement apparatus, and stereo observation apparatus using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552948B2 (en) 2016-06-27 2020-02-04 Olympus Corporation Endoscope apparatus

Also Published As

Publication number Publication date
JP2014068796A (en) 2014-04-21

Similar Documents

Publication Publication Date Title
JP5730339B2 (en) Stereoscopic endoscope device
US4873572A (en) Electronic endoscope apparatus
JP3580869B2 (en) Stereoscopic endoscope
US6396873B1 (en) Optical device
US10966592B2 (en) 3D endoscope apparatus and 3D video processing apparatus
US20110043612A1 (en) Dual-tube stereoscope
EP2982292B1 (en) Endoscopic system to display three-dimensional picture
US9635343B2 (en) Stereoscopic endoscopic image processing apparatus
JP6296365B2 (en) Surgical endoscope camera control unit
JP2005334462A (en) Stereoscopic vision endoscope system
JP7294776B2 (en) Endoscope processor, display setting method, display setting program and endoscope system
JP5851656B2 (en) Image signal output apparatus and image signal transmission / reception system
JP5946777B2 (en) Stereo imaging device
JP5818265B2 (en) Stereoscopic endoscope device
WO2013161485A1 (en) Electronic endoscope, image processing device, electronic endoscope system, and stereoscopic image generation method
JP5936508B2 (en) Stereoscopic endoscope apparatus and image capturing method thereof
US10729309B2 (en) Endoscope system
JPH06261860A (en) Video display device of endoscope
JPS63244011A (en) Electronic endoscope
JP3093875B2 (en) Stereoscopic endoscope
JP2843332B2 (en) Stereoscopic endoscope
JP2019162301A (en) Three-dimensional endoscope system
JP2018149090A (en) Medical imaging apparatus and medical observation system
CN110650669A (en) Image pickup apparatus
JP2644286B2 (en) Endoscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150924

R150 Certificate of patent or registration of utility model

Ref document number: 5818265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250