JPWO2018079387A1 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JPWO2018079387A1
JPWO2018079387A1 JP2018515161A JP2018515161A JPWO2018079387A1 JP WO2018079387 A1 JPWO2018079387 A1 JP WO2018079387A1 JP 2018515161 A JP2018515161 A JP 2018515161A JP 2018515161 A JP2018515161 A JP 2018515161A JP WO2018079387 A1 JPWO2018079387 A1 JP WO2018079387A1
Authority
JP
Japan
Prior art keywords
image
images
unit
recording
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018515161A
Other languages
Japanese (ja)
Inventor
恭輔 水野
恭輔 水野
山崎 隆一
隆一 山崎
樋野 和彦
和彦 樋野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2018079387A1 publication Critical patent/JPWO2018079387A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

本発明にかかる画像処理装置は、同一の被写体を異なる方向から撮像した第1および第2画像をもとに視差画像を生成する画像処理装置であって、第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、表示用画像生成部によるズーム処理前の第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を備える。An image processing apparatus according to the present invention is an image processing apparatus that generates a parallax image based on first and second images obtained by capturing the same subject from different directions, and based on the first and second images, A display image generation unit that generates a parallax image for display by performing at least zoom processing, and a recording that is recorded on an external recording medium based on the first and second images before zoom processing by the display image generation unit A recording image generating unit that generates an image for use.

Description

本発明は、画像処理装置および画像処理システムに関する。   The present invention relates to an image processing apparatus and an image processing system.

近年、被写体を撮像して、互いに視差を有する左眼用と右眼用の二つの画像データから立体画像を取得する画像作成方法が知られている。医療分野等において使用される内視鏡と処理装置(プロセッサ)とが着脱可能である内視鏡システムにおいては、診断や検査の円滑化のために、観察対象を立体画像で観察したいという要求がある。この要求にこたえるための技術として、左眼用および右眼用の二つの光学系と、各光学系からの光を受光する撮像素子とを備えた内視鏡が知られている(例えば、特許文献1を参照)。この内視鏡が装着されたプロセッサは、装着された内視鏡から左眼用および右眼用の二つの画像データを受信し、この二つの画像データから視差画像を生成する。   2. Description of the Related Art In recent years, there has been known an image creation method for capturing a subject and acquiring a stereoscopic image from two image data for left eye and right eye having parallax with each other. In an endoscope system in which an endoscope used in the medical field or the like and a processing device (processor) are detachable, there is a demand for observing an observation target as a three-dimensional image in order to facilitate diagnosis and examination. is there. As a technique for meeting this requirement, an endoscope including two optical systems for the left eye and right eye and an image sensor that receives light from each optical system is known (for example, a patent). Reference 1). The processor to which the endoscope is attached receives two image data for the left eye and right eye from the attached endoscope, and generates a parallax image from the two image data.

内視鏡システムでは、上述した視差画像を用いて、内視鏡から被写体までの距離計測を行うことがある。この際、プロセッサから視差画像のデータをUSBメモリなどの記録媒体に記録し、別の計測装置がUSBメモリに記録されたデータを読み込んで計測処理を行う。   In an endoscope system, distance measurement from an endoscope to a subject may be performed using the above-described parallax image. At this time, parallax image data is recorded on a recording medium such as a USB memory from the processor, and another measurement device reads the data recorded on the USB memory and performs measurement processing.

特開2014−140594号公報JP 2014-140594 A

しかしながら、従来のプロセッサでは、表示用にズーム処理等が施されたデータが記録されたUSBメモリを介して計測用のデータが入力されていた。このUSBメモリに記録されているデータは、ズーム処理等の画像処理によって引き伸ばしや間引き処理等が施されており、撮像素子から出力されるデータ、例えばRAWデータと比して情報量が小さくなっている。このようなデータを用いて距離計測処理を行うと、計測精度が低下してしまうという問題があった。   However, in a conventional processor, measurement data is input via a USB memory in which data subjected to zoom processing or the like for display is recorded. The data recorded in the USB memory is subjected to enlargement and thinning processing by image processing such as zoom processing, and the amount of information is smaller than data output from the image sensor, for example, RAW data. Yes. When distance measurement processing is performed using such data, there is a problem that measurement accuracy is lowered.

本発明は、上記に鑑みてなされたものであって、記録媒体に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制することができる画像処理装置および画像処理システムを提供することを目的とする。   The present invention has been made in view of the above, and an image processing apparatus and an image processing system capable of suppressing a decrease in measurement accuracy when distance measurement processing is performed using data recorded on a recording medium. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、同一の被写体を異なる方向から撮像した第1および第2画像をもとに視差画像を生成する画像処理装置であって、前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention generates an image of parallax based on first and second images obtained by imaging the same subject from different directions. A display image generation unit that generates a parallax image for display by performing at least a zoom process based on the first and second images, and the zoom process before the zoom process by the display image generation unit A recording image generation unit configured to generate a recording image to be recorded on an external recording medium based on the first and second images.

また、本発明にかかる画像処理装置は、上記発明において、前記視差画像をフリーズ表示しつつ、該フリーズ表示した視差画像を記録する旨の指示を受け付けた場合に、各々が前記第1および第2画像からなる複数組のなかから、フリーズ対象の前記第1および第2画像を選択するフリーズ処理部、をさらに備えることを特徴とする。   Further, in the image processing apparatus according to the present invention, in the above invention, when the parallax image is freeze-displayed and an instruction to record the freeze-displayed parallax image is received, each of the first and second images is displayed. The image processing apparatus further includes a freeze processing unit that selects the first and second images to be frozen from a plurality of sets of images.

また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記フリーズ処理部により選択された前記第1および第2画像に基づいて前記記録用の画像を生成することを特徴とする。   In the image processing apparatus according to the present invention, in the above invention, the recording image generation unit generates the recording image based on the first and second images selected by the freeze processing unit. It is characterized by.

また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記記録用の画像と、前記視差画像を入力する内視鏡に記録されている情報とを前記外部の記録媒体に記録させることを特徴とする。   In the image processing apparatus according to the present invention as set forth in the invention described above, the recording image generation unit may be configured to store the recording image and information recorded in an endoscope that inputs the parallax image. It is recorded on a recording medium.

また、本発明にかかる画像処理装置は、上記発明において、前記第1および第2画像に対し、前処理として少なくともOBクランプ処理およびホワイトバランス処理を施す前処理部、をさらに備え、前記記録用画像生成部は、前記前処理部による前処理後の前記第1および第2画像に基づいて前記記録用の画像を生成することを特徴とする。   The image processing apparatus according to the present invention further includes a preprocessing unit that performs at least OB clamping processing and white balance processing as preprocessing on the first and second images in the above invention, and the recording image. The generation unit generates the recording image based on the first and second images after the preprocessing by the preprocessing unit.

また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記記録用の画像に関する画像処理のパラメータを、該記録用の画像とともに前記外部の記録媒体に記録させることを特徴とする。   In the image processing apparatus according to the present invention as set forth in the invention described above, the recording image generation unit records the image processing parameters relating to the recording image together with the recording image on the external recording medium. It is characterized by.

また、本発明にかかる画像処理装置は、上記発明において、前記表示用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記表示用の視差画像として生成することを特徴とする。   In the image processing apparatus according to the present invention, in the above invention, the display image generation unit includes the side-by-side image in which the first and second images are arranged in a horizontal direction of the image sensor, or the first and second images. A line-by-line image in which the second image is alternately arranged for each line in the horizontal direction is generated as the parallax image for display.

また、本発明にかかる画像処理装置は、上記発明において、前記記録用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記記録用の画像として生成することを特徴とする。   Further, in the image processing apparatus according to the present invention, in the above invention, the recording image generation unit includes a side-by-side image in which the first and second images are arranged in a horizontal direction of the imaging device, or the first and second images. A line-by-line image in which the second image is alternately arranged for each line in the horizontal direction is generated as the recording image.

また、本発明にかかる画像処理システムは、同一の被写体を異なる方向から撮像することによって第1および第2画像を含む画像データを生成する撮像部と、前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を有する画像処理装置と、を備えることを特徴とする。   An image processing system according to the present invention is based on an imaging unit that generates image data including first and second images by imaging the same subject from different directions, and the first and second images. A display image generation unit that generates a parallax image for display by performing at least a zoom process, and an external recording medium based on the first and second images before the zoom process by the display image generation unit An image processing apparatus having a recording image generation unit that generates a recording image to be recorded.

本発明によれば、記録媒体に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制することができるという効果を奏する。   According to the present invention, when distance measurement processing is performed using data recorded on a recording medium, it is possible to suppress a decrease in measurement accuracy.

図1は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示す図である。FIG. 1 is a diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention. 図2は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of the endoscope system according to the embodiment of the present invention. 図3は、本発明の一実施の形態にかかる内視鏡システムが生成する視差画像について説明する図である。FIG. 3 is a diagram illustrating a parallax image generated by the endoscope system according to the embodiment of the present invention. 図4は、本発明の一実施の形態にかかる内視鏡システムが行う画像処理を示すフローチャートである。FIG. 4 is a flowchart showing image processing performed by the endoscope system according to the embodiment of the present invention.

以下、本発明を実施するための形態(以下、「実施の形態」という)を説明する。実施の形態では、本発明にかかる画像処理装置を含む画像処理システムの一例として、患者等の被検体内の画像を撮像して表示する医療用の内視鏡システムについて説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。   Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described. In the embodiment, as an example of an image processing system including an image processing apparatus according to the present invention, a medical endoscope system that captures and displays an image in a subject such as a patient will be described. Moreover, this invention is not limited by this embodiment. Furthermore, in the description of the drawings, the same portions will be described with the same reference numerals.

(実施の形態)
図1は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示す図である。図2は、本発明の一実施の形態にかかる内視鏡システムの概略構成を示すブロック図である。
(Embodiment)
FIG. 1 is a diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention. FIG. 2 is a block diagram showing a schematic configuration of the endoscope system according to the embodiment of the present invention.

図1および図2に示す内視鏡システム1は、被検体内に先端部を挿入することによって被検体の体内画像を撮像する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源部3aを有し、内視鏡2が撮像した撮像信号に所定の信号処理を施すとともに、内視鏡システム1全体の動作を統括的に制御する処理装置3(プロセッサ)と、処理装置3の信号処理により生成された体内画像を表示する表示装置4と、を備える。処理装置3には、例えば内視鏡2が撮像した画像に関するデータを記録可能な記録媒体5が電気的に接続されている。記録媒体5は、処理装置3とは異なる装置である計測装置6と着脱自在に接続され、記録しているデータを計測装置6に読み込ませる。また、記録媒体5は、USBメモリ等、処理装置3に対して着脱自在に接続されるものにより構成される。なお、図2では、実線の矢印が画像にかかる電気信号の伝送を示し、破線の矢印が制御にかかる電気信号の伝送を示している。   An endoscope system 1 shown in FIGS. 1 and 2 includes an endoscope 2 that captures an in-vivo image of a subject by inserting a tip portion into the subject, and illumination light emitted from the tip of the endoscope 2. A processing device 3 (processor) that has a light source unit 3a that generates a signal, performs predetermined signal processing on the image signal captured by the endoscope 2, and comprehensively controls the operation of the entire endoscope system 1. And a display device 4 for displaying an in-vivo image generated by the signal processing of the processing device 3. For example, a recording medium 5 capable of recording data related to an image captured by the endoscope 2 is electrically connected to the processing device 3. The recording medium 5 is detachably connected to a measuring device 6 that is a device different from the processing device 3 and causes the measuring device 6 to read recorded data. The recording medium 5 is configured by a USB memory or the like that is detachably connected to the processing device 3. In FIG. 2, a solid arrow indicates transmission of an electric signal related to an image, and a broken arrow indicates transmission of an electric signal related to control.

内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、処理装置3(光源部3aを含む)に接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。   The endoscope 2 includes an insertion portion 21 having an elongated shape having flexibility, an operation portion 22 that is connected to a proximal end side of the insertion portion 21 and receives input of various operation signals, and an insertion portion from the operation portion 22. And a universal cord 23 that includes various cables that extend in a direction different from the direction in which 21 extends and are connected to the processing device 3 (including the light source unit 3a).

挿入部21は、光を受光して光電変換を行うことにより信号を生成する画素が2次元状に配列された撮像部244を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。挿入部21は、被検体の体腔内に挿入され、外光の届かない位置にある生体組織等の被写体を撮像部244によって撮像する。   The insertion unit 21 receives a light and performs photoelectric conversion to generate a signal to generate a signal. The insertion unit 21 includes an image pickup unit 244 in which pixels are arranged in a two-dimensional shape, and a bendable portion formed by a plurality of bending pieces. And a long flexible tube portion 26 connected to the proximal end side of the bending portion 25 and having flexibility. The insertion unit 21 is inserted into the body cavity of the subject, and the imaging unit 244 images a subject such as a living tissue in a position where external light does not reach.

先端部24は、グラスファイバ等を用いて構成されて光源部3aが発光した光の導光路をなすライトガイド241と、ライトガイド241の先端に設けられた照明レンズ242と、集光用の左眼用光学系243aおよび右眼用光学系243bと、左眼用光学系243aおよび右眼用光学系243bの結像位置に設けられ、左眼用光学系243aおよび右眼用光学系243bが集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像部244と、を有する。   The tip portion 24 is configured by using a glass fiber or the like, and forms a light guide path for light emitted from the light source portion 3a, an illumination lens 242 provided at the tip of the light guide 241, and a condensing left The optical system 243a for the right eye, the optical system 243b for the right eye, the optical system 243a for the left eye, and the optical system 243b for the right eye are provided at the imaging positions, and the optical system 243a for the left eye and the optical system 243b for the right eye are collected. An imaging unit 244 that receives the emitted light, photoelectrically converts the light into an electrical signal, and performs predetermined signal processing.

左眼用光学系243aは、一または複数のレンズを用いて構成され、撮像部244の前段に設けられて被写体からの入射光を結像する。左眼用光学系243aは、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有するものであってもよい。   The left-eye optical system 243a is configured by using one or a plurality of lenses, and is provided in front of the imaging unit 244 to form an incident light from a subject. The left-eye optical system 243a may have an optical zoom function that changes the angle of view and a focus function that changes the focus.

右眼用光学系243bは、一または複数のレンズを用いて構成され、撮像部244の前段に設けられて被写体からの入射光を、左眼用光学系243aとは視差を有して結像する。右眼用光学系243bは、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有するものであってもよい。   The right-eye optical system 243b is configured using one or a plurality of lenses, and is provided in front of the imaging unit 244 to form incident light from a subject with parallax from the left-eye optical system 243a. To do. The right-eye optical system 243b may have an optical zoom function that changes the angle of view and a focus function that changes the focus.

撮像部244は、左眼用撮像素子244aと、右眼用撮像素子244bとを備える。   The imaging unit 244 includes a left-eye imaging device 244a and a right-eye imaging device 244b.

左眼用撮像素子244aは、処理装置3から受信した駆動信号に従って、左眼用光学系243aからの光を光電変換して、一枚の画像を構成する1フレーム分の電気信号(左眼用RAWデータ)を生成する。具体的には、左眼用撮像素子244aは、光量に応じた電荷を蓄積するフォトダイオードや、フォトダイオードから転送される電荷を電圧レベルに変換するコンデンサ等をそれぞれ有する複数の画素がマトリックス状に配列され、各画素が左眼用光学系243aからの光を光電変換して電気信号を生成し、複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を順次読み出して、RAWデータである画像信号として出力する。左眼用撮像素子244aの受光面には、例えばカラーフィルタが設けられ、各画素が、赤色(R)、緑色(G)および青色(B)の各色成分の波長帯域のうちのいずれかの波長帯域の光を受光する。   The left-eye image pickup device 244a photoelectrically converts light from the left-eye optical system 243a in accordance with the drive signal received from the processing device 3, and outputs an electrical signal for one frame (left-eye use) constituting one image. RAW data). Specifically, the imaging element 244a for the left eye includes a plurality of pixels each having a photodiode that accumulates charges according to the amount of light, a capacitor that converts charges transferred from the photodiodes to voltage levels, and the like in a matrix. Arranged, each pixel photoelectrically converts the light from the left-eye optical system 243a to generate an electrical signal, sequentially reading out the electrical signal generated by a pixel arbitrarily set as a readout target among a plurality of pixels, It outputs as an image signal which is RAW data. For example, a color filter is provided on the light-receiving surface of the left-eye image pickup device 244a, and each pixel has one of the wavelength bands of the color components of red (R), green (G), and blue (B). Receives light in the band.

右眼用撮像素子244bは、処理装置3から受信した駆動信号に従って、右眼用光学系243bからの光を光電変換して、一枚の画像を構成する1フレーム分の電気信号(右眼用RAWデータ)を生成する。具体的には、右眼用撮像素子244bは、光量に応じた電荷を蓄積するフォトダイオードや、フォトダイオードから転送される電荷を電圧レベルに変換するコンデンサ等をそれぞれ有する複数の画素がマトリックス状に配列され、各画素が右眼用光学系243bからの光を光電変換して電気信号を生成し、複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を順次読み出して、RAWデータである画像信号として出力する。右眼用撮像素子244bの受光面には、例えばカラーフィルタが設けられ、各画素が、赤色(R)、緑色(G)および青色(B)の各色成分の波長帯域のうちのいずれかの波長帯域の光を受光する。   The right-eye image pickup device 244b photoelectrically converts light from the right-eye optical system 243b in accordance with the drive signal received from the processing device 3, and outputs an electrical signal (for the right eye) for one frame constituting one image. RAW data). Specifically, the right-eye image pickup device 244b includes a plurality of pixels each having a photodiode that accumulates charges according to the amount of light, a capacitor that converts charges transferred from the photodiodes to voltage levels, and the like in a matrix. Arranged, each pixel photoelectrically converts the light from the right-eye optical system 243b to generate an electrical signal, sequentially reading out the electrical signal generated by a pixel arbitrarily set as a readout target among the plurality of pixels, It outputs as an image signal which is RAW data. For example, a color filter is provided on the light receiving surface of the right-eye image pickup device 244b, and each pixel has a wavelength of any one of the wavelength bands of the red (R), green (G), and blue (B) color components. Receives light in the band.

左眼用撮像素子244aおよび右眼用撮像素子244bは、例えばCCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いて実現される。また、左眼用撮像素子244aおよび右眼用撮像素子244bは、各々、単板のイメージセンサを用いて構成されるものであってもよいし、例えば3板方式等の複数のイメージセンサを用いて構成されるものであってもよい。   The left-eye imaging device 244a and the right-eye imaging device 244b are realized using, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The left-eye image sensor 244a and the right-eye image sensor 244b may each be configured using a single-plate image sensor, for example, using a plurality of image sensors such as a three-plate system. It may be configured.

左眼用撮像素子244aにより得られる左眼用画像、および右眼用撮像素子244bにより得られる右眼用画像は、共通の被写体が写った異なる視野の画像であって、かつ視差を有する画像である。   The left-eye image obtained by the left-eye image pickup device 244a and the right-eye image obtained by the right-eye image pickup device 244b are images of different fields of view in which a common subject is captured and have parallax. is there.

なお、本実施の形態にかかる撮像部244は、左眼用光学系243aおよび右眼用光学系243bにそれぞれ対応する二つの撮像素子を有するものとして説明するが、一枚の画像を構成する1フレーム分の電気信号を生成する。なお、本実施の形態では、左眼用光学系243aおよび右眼用光学系243bがそれぞれ結像した光を、左眼用光学系243aおよび右眼用光学系243bに応じて二つの撮像素子により受光するものとして説明するが、同一の撮像素子によって受光領域を分けて受光するようにしてもよい。   The imaging unit 244 according to the present embodiment will be described as having two imaging elements respectively corresponding to the left-eye optical system 243a and the right-eye optical system 243b. An electrical signal for the frame is generated. In the present embodiment, the light imaged by the left-eye optical system 243a and the right-eye optical system 243b is transmitted by two image sensors in accordance with the left-eye optical system 243a and the right-eye optical system 243b. Although described as receiving light, the light receiving region may be divided and received by the same image sensor.

操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、被検体の体腔に生検鉗子、電気メスおよび検査プローブ等の処置具を挿入する処置具挿入部222と、処理装置3に加えて、送気手段、送水手段や、フリーズ処理等による画面表示制御の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24の処置具チャンネル(図示せず)を経由して開口部(図示せず)から表出する。複数のスイッチ223には、後述するレリーズ指示を入力するためのスイッチや、フリーズ指示を入力するためのスイッチなどが、独立して設けられている。   The operation unit 22 includes a bending knob 221 that bends the bending unit 25 in the vertical direction and the left-right direction, a treatment tool insertion unit 222 that inserts a treatment tool such as a biopsy forceps, an electric knife, and a test probe into the body cavity of the subject. In addition to the processing device 3, it has air supply means, water supply means, and a plurality of switches 223 that are operation input units for inputting operation instruction signals for screen display control by freeze processing or the like. The treatment tool inserted from the treatment tool insertion portion 222 is exposed from the opening (not shown) via the treatment tool channel (not shown) of the distal end portion 24. The plurality of switches 223 are independently provided with a switch for inputting a release instruction (to be described later), a switch for inputting a freeze instruction, and the like.

ユニバーサルコード23は、ライトガイド241と、一または複数の信号線をまとめた集合ケーブル245と、を少なくとも内蔵している。集合ケーブル245は、画像信号を伝送するための信号線や、撮像部244を駆動するための駆動信号を伝送するための信号線、内視鏡2(撮像部244)に関する固有情報等を含む情報を送受信するための信号線を含む。なお、本実施の形態では、信号線を用いて電気信号を伝送するものとして説明するが、光信号を伝送するものであってもよいし、無線通信により内視鏡2と処理装置3との間で信号を伝送するものであってもよい。   The universal cord 23 includes at least a light guide 241 and a collective cable 245 in which one or a plurality of signal lines are collected. The collective cable 245 is a signal line for transmitting an image signal, a signal line for transmitting a drive signal for driving the imaging unit 244, information including unique information regarding the endoscope 2 (imaging unit 244), and the like. Including a signal line for transmitting and receiving. In the present embodiment, the description will be made assuming that an electrical signal is transmitted using a signal line. However, an optical signal may be transmitted, or the endoscope 2 and the processing device 3 may be connected by wireless communication. A signal may be transmitted between them.

また、内視鏡2は、当該内視鏡2の情報を記録するメモリ224を有している。このメモリ224には、内視鏡2の種別、型番、左眼用撮像素子244a、右眼用撮像素子244bの種別等を示す識別情報を記録する。なお、メモリ224は、ホワイトバランス(WB)調整用のパラメータや、内視鏡2の製造時のばらつき補正値等、左眼用撮像素子244aおよび右眼用撮像素子244bが撮像した画像データに対する画像処理用の各種パラメータを記録していてもよい。   The endoscope 2 includes a memory 224 that records information on the endoscope 2. In the memory 224, identification information indicating the type and model number of the endoscope 2, the types of the left-eye image sensor 244a, the right-eye image sensor 244b, and the like is recorded. The memory 224 includes images for image data captured by the left-eye image sensor 244a and the right-eye image sensor 244b, such as parameters for white balance (WB) adjustment and variation correction values at the time of manufacturing the endoscope 2. Various parameters for processing may be recorded.

内視鏡2の処理装置3への装着時、処理装置3との通信処理によって、上述した内視鏡2の情報を処理装置3に出力する。或いは、内視鏡2の情報に対応した規則に従ってコネクタに接続ピンが設けてあり、処理装置3は、内視鏡2の装着時に処理装置3側の接続ピンと内視鏡2側の接続ピンとの接続状態をもとに内視鏡2の接続を認識する場合もある。   When the endoscope 2 is attached to the processing device 3, the information of the endoscope 2 described above is output to the processing device 3 through communication processing with the processing device 3. Alternatively, the connector is provided with a connection pin in accordance with a rule corresponding to the information of the endoscope 2, and the processing device 3 is configured such that when the endoscope 2 is attached, the connection pin on the processing device 3 side and the connection pin on the endoscope 2 side are connected. The connection of the endoscope 2 may be recognized based on the connection state.

次に、処理装置3の構成について説明する。処理装置3は、前処理部31と、フリーズ処理部32と、フレームメモリ33と、表示用画像生成部34と、記録用画像生成部35と、入力部36と、制御部37と、記憶部38と、を備える。   Next, the configuration of the processing device 3 will be described. The processing device 3 includes a preprocessing unit 31, a freeze processing unit 32, a frame memory 33, a display image generation unit 34, a recording image generation unit 35, an input unit 36, a control unit 37, and a storage unit. 38.

前処理部31は、左眼用撮像素子244aから出力された左眼用画像データ(アナログ)、および右眼用撮像素子244bから出力された右眼用画像データ(アナログ)に対して、黒レベルを決定するOBクランプ処理や、ホワイトバランス等の補正処理、ゲイン調整処理、ノイズ除去処理、A/D変換処理、デモザイキング処理を施す。前処理部31は、上述した信号処理によりRGBの色成分が付与された左眼用画像を含む左眼用画像データ(デジタル)、および右眼用画像を含む右眼用画像データ(デジタル)を生成し、フリーズ処理部32およびフレームメモリ33に出力する。以下、左眼用画像データおよび右眼用画像データをまとめて画像データということもある。   The preprocessing unit 31 performs black level on the left-eye image data (analog) output from the left-eye image sensor 244a and the right-eye image data (analog) output from the right-eye image sensor 244b. OB clamping processing, white balance correction processing, gain adjustment processing, noise removal processing, A / D conversion processing, and demosaicing processing are performed. The preprocessing unit 31 outputs left-eye image data (digital) including a left-eye image to which RGB color components are added by the signal processing described above, and right-eye image data (digital) including a right-eye image. It is generated and output to the freeze processing unit 32 and the frame memory 33. Hereinafter, the image data for the left eye and the image data for the right eye may be collectively referred to as image data.

フリーズ処理部32は、スイッチ223の押下によるレリーズ指示信号の入力を受け付けた場合に、フレームメモリ33から、表示装置4にフリーズ表示する画像を選択して表示用画像生成部34および記録用画像生成部35に出力する。また、フリーズ処理部32は、スイッチ223の押下によるフリーズ指示信号の入力を受け付けた場合に、フレームメモリ33から、表示装置4にフリーズ表示する画像を選択して表示用画像生成部34に出力する。フリーズ処理部32は、レリーズ指示信号またはフリーズ指示信号の入力を受け付けていない場合は、フレームメモリ33における所定の画像データ、例えば時系列で最新の画像データを表示用画像生成部34に出力する。なお、フリーズ処理部32は、フリーズ対象の画像データを選択後、フリーズ処理による静止画表示期間内では、前処理部31から入力される処理信号をフレームメモリ33に出力する処理のみを行う。フリーズ処理部32は、フリーズ処理が解除された後、前処理部31から新たに入力される画像データを含めて、フレームメモリ33から所定の画像データの選択を行う。このため、レリーズ処理またはフリーズ処理後において表示装置4に表示される画像は、フリーズ処理による静止画表示期間における最新の画像データが抜けた、フリーズ処理前とは時系列的に間があいた画像になる。このため、フリーズ処理前後に表示される画像において、時系列で隣り合う画像を動画表示する場合と比して、被写体像の変化が大きくなる場合がある。   When the freeze processing unit 32 receives an input of a release instruction signal by pressing the switch 223, the freeze processing unit 32 selects an image to be freeze-displayed on the display device 4 from the frame memory 33, and generates a display image generation unit 34 and a recording image generation unit. To the unit 35. When the freeze processing unit 32 receives an input of a freeze instruction signal by pressing the switch 223, the freeze processing unit 32 selects an image to be displayed on the display device 4 from the frame memory 33 and outputs the selected image to the display image generation unit 34. . When the freeze processing unit 32 does not accept the input of the release instruction signal or the freeze instruction signal, the freeze processing unit 32 outputs predetermined image data in the frame memory 33, for example, the latest image data in time series, to the display image generation unit 34. The freeze processing unit 32 performs only the process of outputting the processing signal input from the preprocessing unit 31 to the frame memory 33 within the still image display period by the freeze processing after selecting the image data to be frozen. The freeze processing unit 32 selects predetermined image data from the frame memory 33 including the image data newly input from the preprocessing unit 31 after the freeze processing is canceled. For this reason, the image displayed on the display device 4 after the release process or the freeze process is an image in which the latest image data in the still image display period by the freeze process has been lost and which is in chronological order before the freeze process. Become. For this reason, in the images displayed before and after the freeze process, the change in the subject image may be larger than when moving images of images that are adjacent in time series.

フリーズ処理部32は、フレームメモリ33に記憶されている画像、例えば左眼用画像からぶれの小さい左眼用画像をベストフレームとして選択する。フリーズ処理部32は、選択したベストフレームの左眼用画像と右眼用画像とをフレームメモリ33から取得して、表示用画像生成部34および記録用画像処理部35に出力する。具体的に、フリーズ処理部32は、レリーズ指示信号またはフリーズ指示信号の入力があった際に、フレームメモリ33に記憶されている複数の左眼用画像のぶれを算出し、算出したぶれに基づいてベストフレームを選択してもよいし、前処理部31から画像データが入力される都度、この画像データに応じた左眼用画像のぶれを算出して、算出したぶれと当該左眼用画像のフレーム番号とを対応付けてフレームメモリ33に記憶させるものであってもよい。画像のぶれは、公知の算出方法を用いて算出される。   The freeze processing unit 32 selects, as the best frame, an image stored in the frame memory 33, for example, a left-eye image with less blur from the left-eye image. The freeze processing unit 32 acquires the image for the left eye and the image for the right eye of the selected best frame from the frame memory 33 and outputs them to the display image generation unit 34 and the recording image processing unit 35. Specifically, when the release instruction signal or the freeze instruction signal is input, the freeze processing unit 32 calculates shakes of a plurality of left-eye images stored in the frame memory 33, and based on the calculated shakes. The best frame may be selected, and each time image data is input from the preprocessing unit 31, the blur of the left-eye image corresponding to the image data is calculated, and the calculated blur and the left-eye image are calculated. The frame number may be stored in the frame memory 33 in association with each other. The image blur is calculated using a known calculation method.

フレームメモリ33は、前処理部31により生成された画像データを設定されたフレーム分記憶する。本実施の形態では、フレームメモリ33は、数フレーム分の画像データを記憶する。フレームメモリ33は、新たな画像データが入力されると、現在記憶している画像データのうち、最も古い画像データを、新たな画像データで上書きすることで、取得時間の新しい方から順に数フレーム分の画像データを順次更新しながら記憶する。   The frame memory 33 stores the image data generated by the preprocessing unit 31 for a set frame. In the present embodiment, the frame memory 33 stores image data for several frames. When new image data is input, the frame memory 33 overwrites the oldest image data among the currently stored image data with new image data, so that several frames are sequentially added from the newest acquisition time. Minute image data is stored while being sequentially updated.

表示用画像生成部34は、フリーズ処理部32が選択した画像データに対して、左眼用画像と右眼用画像とを互いにずらして視差を生じさせた視差画像を生成し、表示装置4で表示可能な態様の信号となるような信号処理を施して、表示用の画像信号を生成する。具体的に、表示用画像生成部34は、左眼用画像および右眼用画像を含む画像信号に対して、CMS(Color Management System)、γ補正、ズーム処理、エンハンス処理、圧縮処理等を行った後、予め設定されているシフト量に基づいて右眼用画像と左眼用画像とを相対的にシフトさせて、表示用の画像信号を生成する。CMSは、異なる装置間(ここでは内視鏡2と表示装置4との間)の色を統一的に管理するシステムである。表示用画像生成部34は、フリーズ処理部32から入力された画像データに応じた内視鏡画像を含む画像情報と、該画像情報に関する文字情報とを重畳した合成画像を表示用画像として生成する。表示用画像生成部34は、生成した表示用画像の画像データを表示装置4に送信する。   The display image generation unit 34 generates a parallax image in which parallax is generated by shifting the left-eye image and the right-eye image with respect to the image data selected by the freeze processing unit 32. Image processing for display is generated by performing signal processing so that the signal can be displayed. Specifically, the display image generation unit 34 performs CMS (Color Management System), γ correction, zoom processing, enhancement processing, compression processing, and the like on the image signal including the left-eye image and the right-eye image. Thereafter, the right-eye image and the left-eye image are relatively shifted based on a preset shift amount to generate a display image signal. The CMS is a system for uniformly managing colors between different devices (here, between the endoscope 2 and the display device 4). The display image generation unit 34 generates, as a display image, a composite image in which image information including an endoscopic image corresponding to the image data input from the freeze processing unit 32 and character information related to the image information are superimposed. . The display image generation unit 34 transmits the generated image data of the display image to the display device 4.

ここで、表示用画像生成部34が生成する視差画像について、図3を参照して説明する。図3は、本発明の一実施の形態にかかる内視鏡システムが生成する視差画像について説明する図である。表示用画像生成部34は、図3に示すように、左眼用画像IMLにおける水平ラインのライン画像DLと、右眼用画像IMRの水平ラインのライン画像DRとを、設定されたシフト量に応じてずらして交互に配置することによって視差画像IMDを生成する。具体的に、表示用画像生成部34は、左眼用画像IMLが有する奇数ラインのライン画像DLと、右眼用画像IMRが有する偶数ラインのライン画像DRとを、設定されたシフト量に応じてずらして交互に配置する。このような視差画像IMDは、ラインバイライン画像ともいわれる。ここでいう水平ラインとは、複数の画素がマトリックス状に配置された撮像素子において、一方の配列方向に沿って配置されている画素が形成するラインに相当する。Here, the parallax image generated by the display image generation unit 34 will be described with reference to FIG. FIG. 3 is a diagram illustrating a parallax image generated by the endoscope system according to the embodiment of the present invention. Display image generating unit 34, as shown in FIG. 3, the line image D L horizontal line in the image IM L for the left eye, and a line image D R of the horizontal line of the right-eye image IM R, is set The parallax images IM D are generated by alternately arranging them while shifting according to the shift amount. Specifically, the display image generation unit 34, a line image D L of the odd lines with the image IM L for the left eye, and a line image D R of the even lines with the right-eye image IM R, is set They are arranged alternately by shifting according to the shift amount. Such parallax images IM D is also referred to as line-by-line image. Here, the horizontal line corresponds to a line formed by pixels arranged along one arrangement direction in an imaging device in which a plurality of pixels are arranged in a matrix.

また、表示用画像生成部34は、フリーズ処理部32から入力される画像データが、レリーズ対象またはフリーズ対象である場合は、予め設定されている期間、例えば、数フレームの画像を表示する期間、表示装置4に対象の画像を静止画表示させる。   In addition, when the image data input from the freeze processing unit 32 is a release target or a freeze target, the display image generation unit 34 has a preset period, for example, a period for displaying an image of several frames, The target image is displayed on the display device 4 as a still image.

記録用画像生成部35は、フリーズ処理部32が選択した画像データに対して、左眼用画像と右眼用画像とを互いにずらして視差を生じさせた視差画像を生成し、これを記録用の画像データとする。視差画像としては、上述したラインバイライン画像や、左眼用画像と右眼用画像とを水平ラインの方向に沿って並べたサイドバイサイド画像が挙げられる。記録用画像生成部35が生成する視差画像は、上述した表示用画像生成部34が生成する視差画像とは異なり、前処理部31による前処理後の画像であって、かつズーム処理等の表示用の画像処理が施されていない画像となる。記録用画像生成部35は、例えば、生成した画像データを、ズーム処理等のパラメータ、および内視鏡2の固有情報とともに記録媒体5に記録させる。この際、パラメータや内視鏡2の固有情報は、ラインバイライン化した画像のヘッダ部分等に埋め込むようにしてもよいし、画像データとは別に、該画像データと対応付けたテキストファイルとして記録するようにしてもよい。   The recording image generation unit 35 generates a parallax image in which parallax is generated by shifting the left-eye image and the right-eye image with respect to the image data selected by the freeze processing unit 32, and this is recorded. Image data. Examples of the parallax image include the above-described line-by-line image and a side-by-side image in which the left-eye image and the right-eye image are arranged along the horizontal line direction. Unlike the above-described parallax image generated by the display image generation unit 34, the parallax image generated by the recording image generation unit 35 is an image after the preprocessing by the preprocessing unit 31, and display such as zoom processing. Thus, the image is not subjected to image processing. The recording image generation unit 35 records the generated image data on the recording medium 5 together with parameters such as zoom processing and unique information of the endoscope 2, for example. At this time, the parameters and the unique information of the endoscope 2 may be embedded in the header portion of the line-by-line image or recorded as a text file associated with the image data separately from the image data. You may make it do.

前処理部31、フリーズ処理部32、表示用画像生成部34および記録用画像生成部35は、CPU(Central Processing Unit)等の汎用プロセッサや、ASIC(Application Specific Integrated Circuit)、処理内容を書き換え可能なプログラマブルロジックデバイスであるFPGA(Field Programmable Gate Array)等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。   The pre-processing unit 31, the freeze processing unit 32, the display image generating unit 34, and the recording image generating unit 35 can rewrite a general-purpose processor such as a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), and processing contents. It is configured using a dedicated processor such as various arithmetic circuits that execute specific functions such as a field programmable gate array (FPGA) that is a programmable logic device.

入力部36は、キーボード、マウス、スイッチ、タッチパネルを用いて実現され、内視鏡システム1の動作を指示する動作指示信号等の各種信号の入力を受け付ける。なお、入力部36は、操作部22に設けられたスイッチや、外部のタブレット型のコンピュータなどの可搬型端末を含んでいてもよい。   The input unit 36 is realized using a keyboard, a mouse, a switch, and a touch panel, and receives input of various signals such as an operation instruction signal that instructs the operation of the endoscope system 1. The input unit 36 may include a portable terminal such as a switch provided in the operation unit 22 or an external tablet computer.

制御部37は、撮像部244および光源部3aを含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部37は、記憶部38に記憶されている撮像制御のための制御情報データ(例えば、読み出しタイミングなど)を参照し、集合ケーブル245に含まれる所定の信号線を介して駆動信号として撮像部244へ送信する。制御部37は、CPU等の汎用プロセッサや、ASIC、FPGA等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。   The control unit 37 performs drive control of each component including the imaging unit 244 and the light source unit 3a, and input / output control of information with respect to each component. The control unit 37 refers to control information data (for example, readout timing) for imaging control stored in the storage unit 38, and uses the imaging unit as a drive signal via a predetermined signal line included in the collective cable 245. To 244. The control unit 37 is configured using a general-purpose processor such as a CPU, or a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC or FPGA.

また、制御部37は、入力部36が受け付けた指示信号に基づいて、フリーズ処理部32によるフリーズ制御を行う。   The control unit 37 performs freeze control by the freeze processing unit 32 based on the instruction signal received by the input unit 36.

記憶部38は、内視鏡システム1を動作させるための各種プログラム、および内視鏡システム1の動作に必要な各種パラメータ等を含むデータを記憶する。また、記憶部38は、処理装置3の識別情報を記憶する。ここで、識別情報には、処理装置3の固有情報(ID)、年式およびスペック情報等が含まれる。   The storage unit 38 stores various programs for operating the endoscope system 1 and data including various parameters necessary for the operation of the endoscope system 1. Further, the storage unit 38 stores identification information of the processing device 3. Here, the identification information includes unique information (ID) of the processing device 3, model year, specification information, and the like.

また、記憶部38は、処理装置3の画像取得処理方法を実行するための画像取得処理プログラムを含む各種プログラムを記憶する。各種プログラムは、ハードディスク、フラッシュメモリ、CD−ROM、DVD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、上述した各種プログラムは、通信ネットワークを介してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。   The storage unit 38 stores various programs including an image acquisition processing program for executing the image acquisition processing method of the processing device 3. Various programs can be recorded on a computer-readable recording medium such as a hard disk, a flash memory, a CD-ROM, a DVD-ROM, or a flexible disk and widely distributed. The various programs described above can also be obtained by downloading via a communication network. The communication network here is realized by, for example, an existing public line network, a LAN (Local Area Network), a WAN (Wide Area Network) or the like, and may be wired or wireless.

以上の構成を有する記憶部38は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)やハードディスク等を用いて実現される。   The storage unit 38 having the above configuration is realized by using a ROM (Read Only Memory) in which various programs are installed in advance, a RAM (Random Access Memory) storing a calculation parameter and data of each process, a hard disk, and the like. Is done.

続いて、光源部3aの構成について説明する。光源部3aは、照明部301と、照明制御部302と、を備える。照明部301は、照明制御部302の制御のもと、被写体(被検体)に対して、異なる露光量の照明光を順次切り替えて出射する。照明部301は、光源301aと、光源ドライバ301bと、を有する。   Next, the configuration of the light source unit 3a will be described. The light source unit 3 a includes an illumination unit 301 and an illumination control unit 302. Under the control of the illumination control unit 302, the illumination unit 301 sequentially switches and emits illumination light with different exposure amounts to the subject (subject). The illumination unit 301 includes a light source 301a and a light source driver 301b.

光源301aは、白色光を出射するLED光源や、一または複数のレンズ等を用いて構成され、LED光源の駆動により光(照明光)を出射する。光源301aが発生した照明光は、ライトガイド241を経由して先端部24の先端から被写体に向けて出射される。本実施の形態1では、膀胱内の観察に適したNBI観察を行うため、光源301aが、青色の狭帯域の光(例えば390nm〜445nm)および緑色の狭帯域の光(例えば530nm〜550nm)からなる狭帯域光を照明光として出射する。また、光源301aは、LED光源や、レーザー光源、キセノンランプ、ハロゲンランプなどのいずれかを用いて実現される。   The light source 301a is configured using an LED light source that emits white light, one or a plurality of lenses, and the like, and emits light (illumination light) by driving the LED light source. Illumination light generated by the light source 301 a is emitted from the tip of the tip 24 toward the subject via the light guide 241. In the first embodiment, in order to perform NBI observation suitable for observation in the urinary bladder, the light source 301a uses blue narrow band light (for example, 390 nm to 445 nm) and green narrow band light (for example, 530 nm to 550 nm). The narrow band light is emitted as illumination light. The light source 301a is realized using any one of an LED light source, a laser light source, a xenon lamp, a halogen lamp, and the like.

光源ドライバ301bは、照明制御部302の制御のもと、光源301aに対して電力を供給することにより、光源301aに照明光を出射させる。   The light source driver 301b causes the light source 301a to emit illumination light by supplying power to the light source 301a under the control of the illumination control unit 302.

照明制御部302は、制御部37からの制御信号(調光信号)に基づいて、光源301aに供給する電力量を制御するとともに、光源301aの駆動タイミングを制御する。   The illumination control unit 302 controls the amount of power supplied to the light source 301a and the drive timing of the light source 301a based on a control signal (dimming signal) from the control unit 37.

表示装置4は、映像ケーブルを介して処理装置3(表示用画像生成部34)から受信した画像信号に対応する表示画像を表示する。表示装置4は、液晶または有機EL(Electro Luminescence)等のモニタを用いて構成される。   The display device 4 displays a display image corresponding to the image signal received from the processing device 3 (display image generation unit 34) via the video cable. The display device 4 is configured using a monitor such as liquid crystal or organic EL (Electro Luminescence).

計測装置6は、記録媒体5からデータを読み込みこんで記録用画像生成部35が生成した視差画像を取得し、該視差画像を表示するとともに、内視鏡2から被写体までの距離を計測する。ユーザが、表示された画像に対して入力部等を介して計測する箇所を指示することによって、計測装置6が、計測点における距離の計測を行う。計測方法は、ステレオ計測(例えば三角測量)等、公知の方法により計測することができる。   The measuring device 6 reads data from the recording medium 5, acquires the parallax image generated by the recording image generation unit 35, displays the parallax image, and measures the distance from the endoscope 2 to the subject. The measurement device 6 measures the distance at the measurement point when the user instructs the displayed image via the input unit or the like to be measured. The measurement method can be measured by a known method such as stereo measurement (for example, triangulation).

続いて、内視鏡システム1が行う画像処理について説明する。図4は、本発明の一実施の形態にかかる内視鏡システムが行う画像処理を示すフローチャートである。以下、制御部37の制御のもと、各部が動作するものとして説明する。   Next, image processing performed by the endoscope system 1 will be described. FIG. 4 is a flowchart showing image processing performed by the endoscope system according to the embodiment of the present invention. Hereinafter, description will be made assuming that each unit operates under the control of the control unit 37.

まず、前処理部31が、内視鏡2から画像データを受信する(ステップS101)。前処理部31は、画像データを受信すると、この画像データに対して上述した前処理を施して、処理後の画像データをフリーズ処理部32およびフレームメモリ33に出力する(ステップS102)。   First, the preprocessing unit 31 receives image data from the endoscope 2 (step S101). When receiving the image data, the preprocessing unit 31 performs the above-described preprocessing on the image data, and outputs the processed image data to the freeze processing unit 32 and the frame memory 33 (step S102).

ステップS102に続くステップS103において、制御部37は、スイッチ223を介してレリーズ指示が入力されたか否かを判断する。制御部37は、レリーズ指示の入力があると判断すると(ステップS103:Yes)、ステップS104に移行する。   In step S <b> 103 following step S <b> 102, the control unit 37 determines whether a release instruction is input via the switch 223. When the control unit 37 determines that there is an input of a release instruction (step S103: Yes), the control unit 37 proceeds to step S104.

ステップS104において、フリーズ処理部32は、フレームメモリ33に記憶されている画像からベストフレームを選択する。制御部37は、フリーズ処理部32による画像の選択後、ステップS105およびステップS106に移行する。ステップS104においては、フリーズ処理部32によって選択されたベストフレームの画像が、表示用画像生成部34および記録用画像生成部35に出力される。この場合に選択される画像は、ベストフレームの左眼用画像および右眼用画像である。   In step S <b> 104, the freeze processing unit 32 selects the best frame from the images stored in the frame memory 33. After selecting the image by the freeze processing unit 32, the control unit 37 proceeds to step S105 and step S106. In step S104, the image of the best frame selected by the freeze processing unit 32 is output to the display image generating unit 34 and the recording image generating unit 35. The images selected in this case are a left-eye image and a right-eye image of the best frame.

ステップ105では、表示用画像生成部34が、表示用の画像データの生成を行う。表示用画像生成部34は、フリーズ処理部32により選択されたベストフレームの左眼用画像および右眼用画像に基づいて、ズーム処理等を施した視差画像を生成する。   In step 105, the display image generation unit 34 generates display image data. The display image generation unit 34 generates a parallax image subjected to zoom processing or the like based on the left-eye image and the right-eye image of the best frame selected by the freeze processing unit 32.

ステップS105と並行して、記録用画像生成部35が、記録用の画像データの生成を行う(ステップS106)。記録用画像生成部35は、フリーズ処理部32により選択された左眼用画像および右眼用画像に基づいて、ズーム処理等が施されていない視差画像を生成する。   In parallel with step S105, the recording image generation unit 35 generates recording image data (step S106). The recording image generation unit 35 generates a parallax image that has not been subjected to zoom processing or the like based on the left-eye image and the right-eye image selected by the freeze processing unit 32.

ステップS105およびステップS106において視差画像がそれぞれ生成されると、記録用画像生成部35が、記録媒体5への記録処理を行う(ステップS107)。記録用画像生成部35は、ステップS106において生成された視差画像と、ズーム処理などのパラメータ、および内視鏡2の固有情報とを対応付けて、記録媒体5に記録させる。制御部37は、記録媒体5への記録後、ステップS113に移行する。   When the parallax images are respectively generated in step S105 and step S106, the recording image generation unit 35 performs a recording process on the recording medium 5 (step S107). The recording image generation unit 35 records the parallax image generated in step S106 on the recording medium 5 in association with parameters such as zoom processing and unique information of the endoscope 2. After recording on the recording medium 5, the control unit 37 proceeds to step S113.

これに対して、制御部37は、レリーズ指示の入力がないと判断すると(ステップS103:No)、ステップS108に移行する。   On the other hand, if the control part 37 judges that the release instruction | indication is not input (step S103: No), it will transfer to step S108.

ステップS108において、制御部37は、スイッチ223を介してフリーズ指示が入力されたか否かを判断する。制御部37は、フリーズ指示の入力があると判断すると(ステップS108:Yes)、ステップS109に移行する。   In step S <b> 108, the control unit 37 determines whether a freeze instruction is input via the switch 223. When the control unit 37 determines that there is an input of a freeze instruction (step S108: Yes), the control unit 37 proceeds to step S109.

ステップS109において、フリーズ処理部32は、フレームメモリ33に記憶されている画像からベストフレームを選択する。制御部37は、フリーズ処理部32による画像の選択後、ステップS110に移行する。ステップS109においては、フリーズ処理部32によって選択されたベストフレームの左眼用画像および右眼用画像が、表示用画像生成部34に出力される。   In step S <b> 109, the freeze processing unit 32 selects the best frame from the images stored in the frame memory 33. After selecting the image by the freeze processing unit 32, the control unit 37 proceeds to step S110. In step S <b> 109, the image for the left eye and the image for the right eye of the best frame selected by the freeze processing unit 32 are output to the display image generation unit 34.

ステップS110では、表示用画像生成部34が、表示用の画像データの生成を行う。表示用画像生成部34は、フリーズ処理部32により選択されたベストフレームの左眼用画像および右眼用画像に基づいて、ズーム処理等を施した視差画像を生成する。制御部37は、視差画像の生成後、ステップS113に移行する。   In step S110, the display image generation unit 34 generates display image data. The display image generation unit 34 generates a parallax image subjected to zoom processing or the like based on the left-eye image and the right-eye image of the best frame selected by the freeze processing unit 32. After generating the parallax image, the control unit 37 proceeds to step S113.

これに対して、制御部37は、フリーズ指示の入力がないと判断すると(ステップS108:No)、ステップS111に移行する。   On the other hand, if the control part 37 judges that there is no input of a freeze instruction (step S108: No), it will transfer to step S111.

ステップS111において、フリーズ処理部32は、フレームメモリ33に記憶されている画像から所定のフレームを選択する。フリーズ処理部32は、フレームメモリ33における所定の画像データ、例えば時系列で最新のフレームを選択する。制御部37は、フリーズ処理部32による画像の選択後、ステップS112に移行する。ステップS111においては、フリーズ処理部32によって選択された最新フレームの左眼用画像および右眼用画像が、表示用画像生成部34に出力される。   In step S <b> 111, the freeze processing unit 32 selects a predetermined frame from the image stored in the frame memory 33. The freeze processing unit 32 selects predetermined image data in the frame memory 33, for example, the latest frame in time series. After selecting the image by the freeze processing unit 32, the control unit 37 proceeds to step S112. In step S <b> 111, the image for the left eye and the image for the right eye of the latest frame selected by the freeze processing unit 32 are output to the display image generation unit 34.

ステップS112では、表示用画像生成部34が、表示用の画像データの生成を行う。表示用画像生成部34は、フリーズ処理部32により選択された最新フレームの左眼用画像および右眼用画像に基づいて、ズーム処理等を施した視差画像を生成する。制御部37は、視差画像の生成後、ステップS113に移行する。   In step S112, the display image generation unit 34 generates display image data. The display image generation unit 34 generates a parallax image subjected to zoom processing or the like based on the left-eye image and the right-eye image of the latest frame selected by the freeze processing unit 32. After generating the parallax image, the control unit 37 proceeds to step S113.

ステップS113では、制御部37の制御のもと、表示用画像生成部34が、生成した視差画像を含む表示画像を、表示装置4に出力させる。   In step S113, under the control of the control unit 37, the display image generation unit 34 causes the display device 4 to output a display image including the generated parallax image.

なお、ステップS107における記録処理と、ステップS113における表示処理とは、ステップS113を先に行ってもよいし、同時に行うようにしてもよい。   Note that the recording process in step S107 and the display process in step S113 may be performed first in step S113 or simultaneously.

上述した本発明の一実施の形態によれば、フリーズ指示により選択された画像について、表示用にズーム処理等を施して視差画像を生成するとともに、計測用に記録する画像としてズーム処理を施さずに視差画像を生成し、記録媒体5に記録させるようにした。これにより、ズーム処理等によって補間等が施されて計測精度の低下を招くような視差画像ではなく、ズーム処理等による補間等が施されていない視差画像を含むデータが記録媒体5に記録されることになる。この結果、本実施の形態によれば、処理装置3とは異なる装置である計測装置6が記録媒体5に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制することができる。   According to the embodiment of the present invention described above, a parallax image is generated by performing zoom processing or the like for display on an image selected by a freeze instruction, and is not subjected to zoom processing as an image to be recorded for measurement. A parallax image is generated and recorded on the recording medium 5. As a result, data including a parallax image that is not subjected to interpolation or the like by zoom processing or the like is recorded on the recording medium 5 instead of a parallax image that is subjected to interpolation or the like by zoom processing or the like and causes a decrease in measurement accuracy. It will be. As a result, according to the present embodiment, when the distance measuring process is performed using the data recorded on the recording medium 5 by the measuring device 6 which is a device different from the processing device 3, it is possible to suppress a decrease in measurement accuracy. Can do.

また、上述した本実施の形態によれば、記録媒体5が、前処理部31によって信号処理が施された画像データをもとに記録用画像生成部35が生成した視差画像を記録するようにしたので、撮像部244から出力される左眼用RAWデータおよび右眼用RAWデータを記録する場合と比して、1フレーム分に要するデータ量を小さくすることができる。計測装置6においてズーム処理等の画像処理を行う場合に、この画像データと関連付けてパラメータを記録させるようにすれば、データ量の増大を抑制することが可能である。   Further, according to the present embodiment described above, the recording medium 5 records the parallax image generated by the recording image generation unit 35 based on the image data subjected to the signal processing by the preprocessing unit 31. Therefore, the amount of data required for one frame can be reduced as compared with the case where the left-eye RAW data and the right-eye RAW data output from the imaging unit 244 are recorded. When image processing such as zoom processing is performed in the measurement device 6, it is possible to suppress an increase in the amount of data by recording parameters in association with the image data.

なお、上述した本実施の形態では、フリーズ処理部32によるフリーズ処理後の画像データを抽出して記録媒体5に記録するものとして説明したが、フリーズ処理部32によるフリーズ処理前の画像データを記録用画像生成部35に出力するようにしてもよい。表示用画像生成部34による画像処理(ズーム処理など)の前の画像データを用いるものであれば、上述した計測精度の低下を抑制することが可能である。   In the above-described embodiment, the image data after the freeze processing by the freeze processing unit 32 is extracted and recorded on the recording medium 5. However, the image data before the freeze processing by the freeze processing unit 32 is recorded. The image may be output to the image generation unit 35. If the image data before the image processing (such as zoom processing) by the display image generation unit 34 is used, it is possible to suppress the above-described decrease in measurement accuracy.

また、上述した実施の形態では、記録用画像生成部35が、視差画像と、ズーム処理などのパラメータ、および内視鏡2の固有情報とを対応付けて、記録媒体5に記録させるものとして説明したが、視差画像と、メモリ224に記録されている内視鏡2の情報、例えば内視鏡2の固有情報とを有するデータを記録用のデータとしてもよいし、内視鏡2の固有情報を含まないデータを記録用のデータとしてもよい。記録用のデータが内視鏡2の固有情報を有していれば、計測装置6において、内視鏡2の固有情報のばらつきを加味した計測処理を行うことが可能である。   In the above-described embodiment, the recording image generation unit 35 records the parallax image, the parameters such as the zoom process, and the unique information of the endoscope 2 in association with each other and records them on the recording medium 5. However, data having a parallax image and information of the endoscope 2 recorded in the memory 224, for example, unique information of the endoscope 2, may be used as recording data, or unique information of the endoscope 2 Data that does not include may be used as recording data. If the recording data has the unique information of the endoscope 2, the measurement device 6 can perform a measurement process taking into account variations in the unique information of the endoscope 2.

また、上述した実施の形態では、視差画像が、ラインバイライン画像であるものを例に説明したが、これに限らず、視差を有する画像、例えば、左眼用画像IMLと、右眼用画像IMRとを水平ラインの方向に沿って並べたサイドバイサイド画像であってもよい。また、一枚の視差画像に限らず、例えばフレームシーケンシャル方式のように、左眼用画像と、右眼用画像とを交互に出力して、記録媒体5に記録させるようにしてもよい。In the above-described embodiment, the parallax image is a line-by-line image as an example. However, the present invention is not limited to this, and an image having parallax, for example, the left-eye image IM L and the right-eye image is used. an image IM R may be a side-by-side images arranged along the direction of the horizontal line. Further, not limited to a single parallax image, for example, a left-eye image and a right-eye image may be alternately output and recorded on the recording medium 5 as in a frame sequential method.

また、上述した実施の形態において、前処理部31が、OBクランプ処理や、ホワイトバランス等の補正処理、ゲイン調整処理、ノイズ除去処理、A/D変換処理、デモザイキング処理を施すものとして説明したが、補正処理までを前処理部31が行い、ゲイン調整処理以降の処理を表示用画像生成部34が行うようにしてもよい。すなわち、上述した実施の形態では、フリーズ処理前の画像データが、デモザイキング処理後の画像データであったが、例えば、補正処理までが施された画像データの場合もある。   Further, in the above-described embodiment, the preprocessing unit 31 has been described as performing the OB clamping process, the white balance correction process, the gain adjustment process, the noise removal process, the A / D conversion process, and the demosaicing process. However, the pre-processing unit 31 may perform the correction processing, and the display image generation unit 34 may perform the processing after the gain adjustment processing. In other words, in the above-described embodiment, the image data before the freeze process is the image data after the demosaicing process. However, for example, the image data may have been subjected to the correction process.

また、上述した実施の形態では、光源部3aから狭帯域の光が出射され、撮像部244が照明光による反射光を受光する同時式の照明/撮像方式であるものを前提に説明したが、光源部3aが、各色成分の狭帯域の光を個別に順次出射して、撮像部244が、各色成分の光をそれぞれ受光する面順次式の照明/撮像方式であってもよい。   In the above-described embodiment, the light source unit 3a emits narrow band light, and the imaging unit 244 is described on the assumption that it is a simultaneous illumination / imaging method in which reflected light from illumination light is received. The light source unit 3a may sequentially emit narrowband light of each color component individually, and the imaging unit 244 may be a surface sequential illumination / imaging method in which the light of each color component is received.

また、上述した実施の形態では、光源部3aが内視鏡2とは別体で構成されているものとして説明したが、例えば、内視鏡2の先端に半導体光源を設けるなど、光源装置を内視鏡2に設けた構成であってもよい。さらに、内視鏡2に処理装置3の機能を付与してもよい。   In the above-described embodiment, the light source unit 3a has been described as being configured separately from the endoscope 2. However, for example, a light source device such as a semiconductor light source is provided at the distal end of the endoscope 2. The structure provided in the endoscope 2 may be sufficient. Furthermore, the function of the processing device 3 may be given to the endoscope 2.

また、上述した実施の形態では、光源部3aが、処理装置3とは一体であるものとして説明したが、光源部3aおよび処理装置3が別体であって、例えば処理装置3の外部に照明部301および照明制御部302が設けられているものであってもよい。また、光源301aが先端部24の先端に設けられているものであってもよい。   Moreover, although the light source part 3a was demonstrated as what was integrated with the processing apparatus 3 in embodiment mentioned above, the light source part 3a and the processing apparatus 3 are separate bodies, for example, it illuminates the exterior of the processing apparatus 3. The part 301 and the illumination control part 302 may be provided. Further, the light source 301 a may be provided at the tip of the tip portion 24.

また、上述した実施の形態では、本発明にかかる内視鏡システムが、観察対象が被検体内の生体組織などである軟性の内視鏡2を用いた内視鏡システム1であるものとして説明したが、硬性の内視鏡や、材料の特性を観測する工業用の内視鏡、カプセル型の内視鏡、ファイバースコープ、光学視管などの光学内視鏡の接眼部にカメラヘッドを接続したものを用いた内視鏡システムであっても適用できる。   In the above-described embodiment, the endoscope system according to the present invention is described as the endoscope system 1 using the flexible endoscope 2 whose observation target is a living tissue or the like in the subject. However, a camera head is attached to the eyepiece of an optical endoscope such as a rigid endoscope, an industrial endoscope that observes material characteristics, a capsule endoscope, a fiberscope, or an optical endoscope. Even an endoscope system using a connected one can be applied.

また、上述した実施の形態では、内視鏡システムを例に挙げて説明したが、例えばデジタルスチルカメラ等に設けられるEVF(Electronic View Finder)に映像を出力する場合にも適用可能である。   In the above-described embodiment, the endoscope system has been described as an example. However, the present invention can also be applied to, for example, outputting an image to an EVF (Electronic View Finder) provided in a digital still camera or the like.

以上のように、本発明にかかる画像処理装置および画像処理システムは、記録媒体に記録したデータを用いて距離計測処理を行う場合に、計測精度の低下を抑制するのに有用である。   As described above, the image processing apparatus and the image processing system according to the present invention are useful for suppressing a decrease in measurement accuracy when distance measurement processing is performed using data recorded on a recording medium.

1 内視鏡システム
2 内視鏡
3 処理装置
3a 光源部
4 表示装置
5 記録媒体
6 計測装置
21 挿入部
22 操作部
23 ユニバーサルコード
24 先端部
25 湾曲部
26 可撓管部
31 前処理部
32 フリーズ処理部
33 フレームメモリ
34 表示用画像生成部
35 記録用画像生成部
36 入力部
37 制御部
38 記憶部
301 照明部
302 照明制御部
DESCRIPTION OF SYMBOLS 1 Endoscope system 2 Endoscope 3 Processing apparatus 3a Light source part 4 Display apparatus 5 Recording medium 6 Measuring apparatus 21 Insertion part 22 Operation part 23 Universal code 24 Tip part 25 Bending part 26 Flexible pipe part 31 Preprocessing part 32 Freeze Processing unit 33 Frame memory 34 Display image generation unit 35 Recording image generation unit 36 Input unit 37 Control unit 38 Storage unit 301 Illumination unit 302 Illumination control unit

Claims (9)

同一の被写体を異なる方向から撮像した第1および第2画像をもとに視差画像を生成する画像処理装置であって、
前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、
前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、
を備えることを特徴とする画像処理装置。
An image processing device that generates a parallax image based on first and second images obtained by imaging the same subject from different directions,
A display image generation unit that generates a display parallax image by performing at least zoom processing based on the first and second images;
A recording image generation unit that generates a recording image to be recorded on an external recording medium based on the first and second images before the zoom processing by the display image generation unit;
An image processing apparatus comprising:
前記視差画像をフリーズ表示しつつ、該フリーズ表示した視差画像を記録する旨の指示を受け付けた場合に、各々が前記第1および第2画像からなる複数組のなかから、フリーズ対象の前記第1および第2画像を選択するフリーズ処理部、
をさらに備えることを特徴とする請求項1に記載の画像処理装置。
When an instruction to record the parallax image that has been freeze-displayed is received while the parallax image is displayed in a freeze manner, the first subject to be frozen is selected from a plurality of sets each including the first and second images. And a freeze processing unit for selecting the second image,
The image processing apparatus according to claim 1, further comprising:
前記記録用画像生成部は、前記フリーズ処理部により選択された前記第1および第2画像に基づいて前記記録用の画像を生成する
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the recording image generation unit generates the recording image based on the first and second images selected by the freeze processing unit.
前記記録用画像生成部は、前記記録用の画像と、前記視差画像を入力する内視鏡に記録されている情報とを前記外部の記録媒体に記録させる
ことを特徴とする請求項3に記載の画像処理装置。
The recording image generation unit records the recording image and information recorded in an endoscope that inputs the parallax image on the external recording medium. Image processing apparatus.
前記第1および第2画像に対し、前処理として少なくともOBクランプ処理およびホワイトバランス処理を施す前処理部、
をさらに備え、
前記記録用画像生成部は、前記前処理部による前処理後の前記第1および第2画像に基づいて前記記録用の画像を生成する
ことを特徴とする請求項1に記載の画像処理装置。
A preprocessing unit that performs at least OB clamping processing and white balance processing as preprocessing on the first and second images;
Further comprising
The image processing apparatus according to claim 1, wherein the recording image generation unit generates the recording image based on the first and second images after the preprocessing by the preprocessing unit.
前記記録用画像生成部は、前記記録用の画像に関する画像処理のパラメータを、該記録用の画像とともに前記外部の記録媒体に記録させる
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the recording image generation unit records image processing parameters relating to the recording image together with the recording image on the external recording medium.
前記表示用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記表示用の視差画像として生成する
ことを特徴とする請求項1に記載の画像処理装置。
The display image generation unit alternately arranges the first and second images in a side-by-side image in which the first and second images are arranged in the horizontal direction of the image sensor or the first and second images for each line in the horizontal direction. The image processing apparatus according to claim 1, wherein the line-by-line image is generated as the parallax image for display.
前記記録用画像生成部は、前記第1および第2画像を、撮像素子の水平方向に並べて配置したサイドバイサイド画像、または、前記第1および第2画像を、前記水平方向のラインごとに交互に配置したラインバイライン画像を前記記録用の画像として生成する
ことを特徴とする請求項1に記載の画像処理装置。
The recording image generating unit alternately arranges the first and second images in a side-by-side image in which the first and second images are arranged in the horizontal direction of the image sensor or the first and second images for each line in the horizontal direction. The image processing apparatus according to claim 1, wherein the line-by-line image is generated as the recording image.
同一の被写体を異なる方向から撮像することによって第1および第2画像を含む画像データを生成する撮像部と、
前記第1および第2画像に基づいて、少なくともズーム処理を施すことによって表示用の視差画像を生成する表示用画像生成部と、前記表示用画像生成部による前記ズーム処理前の前記第1および第2画像に基づいて、外部の記録媒体に記録する記録用の画像を生成する記録用画像生成部と、を有する画像処理装置と、
を備えることを特徴とする画像処理システム。
An imaging unit that generates image data including first and second images by imaging the same subject from different directions;
Based on the first and second images, at least a zoom process is performed to generate a display parallax image, and the display image generation unit before the zoom process by the display image generation unit. An image processing apparatus having a recording image generating unit that generates a recording image to be recorded on an external recording medium based on the two images;
An image processing system comprising:
JP2018515161A 2016-10-31 2017-10-18 Image processing device Pending JPWO2018079387A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016213253 2016-10-31
JP2016213253 2016-10-31
PCT/JP2017/037743 WO2018079387A1 (en) 2016-10-31 2017-10-18 Image processing device and image processing system

Publications (1)

Publication Number Publication Date
JPWO2018079387A1 true JPWO2018079387A1 (en) 2018-11-01

Family

ID=62023508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018515161A Pending JPWO2018079387A1 (en) 2016-10-31 2017-10-18 Image processing device

Country Status (2)

Country Link
JP (1) JPWO2018079387A1 (en)
WO (1) WO2018079387A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02213287A (en) * 1989-02-13 1990-08-24 Olympus Optical Co Ltd Signal processor for picture freeze
JPH10323326A (en) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd Endoscope device
JP2013123215A (en) * 2011-11-07 2013-06-20 Panasonic Corp Imaging apparatus, controller, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02213287A (en) * 1989-02-13 1990-08-24 Olympus Optical Co Ltd Signal processor for picture freeze
JPH10323326A (en) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd Endoscope device
JP2013123215A (en) * 2011-11-07 2013-06-20 Panasonic Corp Imaging apparatus, controller, and computer program

Also Published As

Publication number Publication date
WO2018079387A1 (en) 2018-05-03

Similar Documents

Publication Publication Date Title
JP6329715B1 (en) Endoscope system and endoscope
JP5245022B1 (en) Imaging device
WO2019235492A1 (en) Endoscope processor, display setting method, and display setting program
JP6401800B2 (en) Image processing apparatus, operation method of image processing apparatus, operation program for image processing apparatus, and endoscope apparatus
US20190082936A1 (en) Image processing apparatus
WO2016084257A1 (en) Endoscope apparatus
JPWO2016104386A1 (en) Endoscope system
WO2020178962A1 (en) Endoscope system and image processing device
WO2016088628A1 (en) Image evaluation device, endoscope system, method for operating image evaluation device, and program for operating image evaluation device
US10729309B2 (en) Endoscope system
US10462440B2 (en) Image processing apparatus
JP6503522B1 (en) Image processing apparatus, image processing system and image processing method
JP6346501B2 (en) Endoscope device
WO2018079387A1 (en) Image processing device and image processing system
JP2019162371A (en) Medical imaging apparatus and endoscope apparatus
JP5815162B2 (en) Imaging device
JP2017123997A (en) Imaging system and processing device
JP6801990B2 (en) Image processing system and image processing equipment
JP2018007840A (en) Image processing device
JP6663692B2 (en) Image processing apparatus, endoscope system, and control method for image processing apparatus
JP2017221276A (en) Image processing device
WO2017022323A1 (en) Image signal processing method, image signal processing device and image signal processing program

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190129