JPWO2016043063A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JPWO2016043063A1
JPWO2016043063A1 JP2016548833A JP2016548833A JPWO2016043063A1 JP WO2016043063 A1 JPWO2016043063 A1 JP WO2016043063A1 JP 2016548833 A JP2016548833 A JP 2016548833A JP 2016548833 A JP2016548833 A JP 2016548833A JP WO2016043063 A1 JPWO2016043063 A1 JP WO2016043063A1
Authority
JP
Japan
Prior art keywords
image
view
direct
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016548833A
Other languages
English (en)
Inventor
浩司 鹿島
浩司 鹿島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016043063A1 publication Critical patent/JPWO2016043063A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Abstract

本開示は、直視用カメラと側視用カメラで得られた画像を分かり易く提示することができるようにする画像処理装置および画像処理方法に関する。画像処理装置は、プローブの先端方向である直視方向の被写体を撮像して得られた直視画像を円形状の領域内に配置し、プローブの側方である側視方向の被写体を撮像して得られた側視画像を、円形状の外周に沿わせて扇形状に配置した合成画像を生成する画像合成部を備える。本開示は、例えば、画像処理装置等に適用できる。

Description

本開示は、画像処理装置および画像処理方法に関し、特に、直視用カメラと側視用カメラで得られた画像を分かり易く提示することができるようにする画像処理装置および画像処理方法に関する。
内視鏡手術に用いられる内視鏡プローブにおいて、プローブの先端方向である直視方向を撮像する直視用カメラの他に、プローブの側方である側視方向を撮像する側視用カメラを備えたものが提案されている(例えば、特許文献1,2参照)。
特開2012−120621号公報 国際公開第2012/77117号
側視用カメラを備えることにより、直視方向の術野以外の視野を拡大させることができるが、直視用カメラと側視用カメラで得られた画像を術者にとって分かり易く提示することが求められる。
本開示は、このような状況に鑑みてなされたものであり、直視用カメラと側視用カメラで得られた画像を分かり易く提示することができるようにするものである。
本開示の一側面の画像処理装置は、プローブの先端方向である直視方向の被写体を撮像して得られた直視画像を円形状の領域内に配置し、前記プローブの側方である側視方向の被写体を撮像して得られた側視画像を、前記円形状の外周に沿わせて扇形状に配置した合成画像を生成する画像合成部を備える。
本開示の一側面の画像処理方法は、画像処理装置が、プローブの先端方向である直視方向の被写体を撮像して得られた直視画像を円形状の領域内に配置し、前記プローブの側方である側視方向の被写体を撮像して得られた側視画像を、前記円形状の外周に沿わせて扇形状に配置した合成画像を生成する。
本開示の一側面においては、プローブの先端方向である直視方向の被写体を撮像して得られた直視画像が円形状の領域内に配置され、前記プローブの側方である側視方向の被写体を撮像して得られた側視画像が、前記円形状の外周に沿わせて扇形状に配置された合成画像が生成される。
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本開示の一側面によれば、直視用カメラと側視用カメラで得られた画像を分かり易く提示することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示に係る内視鏡システムの一実施の形態の構成例を示すブロック図である。 内視鏡プローブの先端部分を示す図である。 ディスプレイに表示された合成画像の例を示す図である。 直視画像と側視画像の位置関係について説明する図である。 直視画像と側視画像の位置関係について説明する図である。 合成画像の表示を説明する図である。 合成画像の表示を説明する図である。 設定可能な合成画像のパラメータを説明する図である。 ズーム操作に応じたパラメータ制御を説明する図である。 設定可能な合成画像のパラメータを説明する図である。 設定可能な合成画像のパラメータを説明する図である。 設定可能な合成画像のパラメータを説明する図である。 設定可能な合成画像のパラメータを説明する図である。 設定可能な合成画像のパラメータを説明する図である。 画像合成表示処理を説明するフローチャートである。 第1の変形例を説明する図である。 第1の変形例を説明する図である。 第2の変形例を説明する図である。 第3の変形例を説明する図である。 本開示に係るコンピュータの一実施の形態の構成例を示すブロック図である。
<内視鏡システムの構成例>
図1は、本開示に係る内視鏡システムの一実施の形態の構成例を示すブロック図である。
図1の内視鏡システム1は、内視鏡プローブ11、画像処理装置12、及びディスプレイ13により構成される。
内視鏡システム1は、手術対象となる体内の部位(術部)を被観察部として撮像してディスプレイ13に映し出し、ディスプレイ13を見ながら被観察部に処置を施す内視鏡下手術で用いられる。
内視鏡プローブ11は、患者の体内に挿入され、術部に光を照射して術部の画像を撮像し、画像処理装置12に供給する。画像処理装置12は、内視鏡プローブ11で撮像された画像を、術者に見やすいように処理(画像処理)する。ディスプレイ13は、画像処理装置12から供給される処理後の画像を表示し、術者に提示する。
内視鏡プローブ11は、直視用カメラ21、側視用カメラ22A及び22B、ズーム駆動部23、並びに、照明部24を備える。
画像処理装置12は、直視用カメラデータ取得部31、側視用カメラデータ取得部32A及び32B、画像合成部33、表示制御部34、操作部35、並びに、設定部36を備える。
直視用カメラ21は、内視鏡プローブ11の先端方向である直視方向の被写体を撮像し、その結果得られる画像を生成する。側視用カメラ22A及び22Bは、内視鏡プローブ11の側方である側視方向の被写体を撮像し、その結果得られる画像を生成する。直視用カメラ21並びに側視用カメラ22A及び22Bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどのイメージセンサで構成される。
図2は、直視用カメラ21並びに側視用カメラ22A及び22Bが設けられている内視鏡プローブ11の先端部分を示す図である。
図2に示されるように、直視用カメラ21は、第1カメラ21Aと第2カメラ21Bのステレオカメラで構成され、内視鏡プローブ11の直視方向が撮像方向となるように、内視鏡プローブ11の先端に取り付けられている。
また、側視用カメラ22A及び22Bは、内視鏡プローブ11の先端から所定の距離内の円筒状の側面に、撮像範囲が均等になるように内視鏡プローブ11の軸中心に対して対称な位置に取り付けられている。
直視用カメラ21が術部を撮像するものであるのに対して、側視用カメラ22A及び22Bは、補助的な情報として、術部周辺部を撮像する。従って、例えば、直視用カメラ21には、いわゆる4Kカメラと呼ばれる、水平方向×垂直方向の画素数が約4000×約2000の画素数を有する高解像度のイメージセンサを採用し、側視用カメラ22A及び22Bのそれぞれには、水平方向×垂直方向の画素数が約2000×約1000の画素数を有する低解像度のイメージセンサを採用するなど、直視用カメラ21と側視用カメラ22A及び22Bとで解像度の異なるイメージセンサとすることができる。
なお、本実施の形態では、直視用カメラ21並びに側視用カメラ22A及び22Bは、イメージセンサが内視鏡プローブ11の先端部に取り付けられたChip-On-Tipタイプであることとするが、イメージセンサを内視鏡プローブ11の根元のCCU(カメラコントロールユニット)等に配置して、そのイメージセンサに、内視鏡プローブ11の先端部で取り込んだ光を光ファイバ等で伝送する構造とすることもできる。
図1に戻り、ズーム駆動部23は、画像処理装置12の操作部35から供給される制御信号に基づいて、撮像光学系の光学レンズを駆動する。これにより、ディスプレイ13に表示される直視用カメラ21のフォーカス及びズーム倍率が変更される。なお、本実施の形態では、側視用カメラ22A及び22Bのズーム倍率は固定とするが、側視用カメラ22A及び22Bのズーム倍率も、直視用カメラ21と同様に変更可能としてもよい。
照明部24は、例えば、ハロゲンランプ、キセノンランプ、LED (Light Emitting Diode)光源などで構成され、術部を照明するための光を出射する。照明部24は、例えば、図2の直視用カメラ21並びに側視用カメラ22A及び22Bそれぞれの近傍に、LED光源を配置する構成とすることもできるし、直視用カメラ21並びに側視用カメラ22A及び22Bそれぞれの近傍には光の出射部のみを設け、ハロゲンランプ、キセノンランプ等の光源ユニットからの光を光ファイバ等で出射部に伝送させ、出力する構造としてもよい。照明部24の照明のオンオフ及び光量は、操作部35からの制御信号により制御される。
直視用カメラデータ取得部31は、直視用カメラ21により得られた撮像データを取得し、画像合成部33に供給する。
側視用カメラデータ取得部32Aは、側視用カメラ22Aにより得られた撮像データを取得し、画像合成部33に供給する。側視用カメラデータ取得部32Bは、側視用カメラ22Bにより得られた撮像データを取得し、画像合成部33に供給する。
画像合成部33は、直視用カメラ21、側視用カメラ22A、及び、側視用カメラ22Bそれぞれにより得られた撮像画像を所定の位置に配置した合成画像を生成し、表示制御部34に供給する。画像合成部33には、設定部36からパラメータが供給され、画像合成部33は、パラメータに応じて合成画像を生成する。画像合成部33が生成する合成画像の詳細については後述する。
表示制御部34は、画像合成部33から供給される合成画像の画像データを、ディスプレイ13の入力形式に対応した画像信号に変換してディスプレイ13に出力することにより、合成画像をディスプレイ13に表示させる。
ディスプレイ13は、例えばLCD(Liquid Crystal Display)などで構成され、2D表示と、ステレオカメラに対応した3D表示を可能とする。勿論、3D表示が不要である場合には、ディスプレイ13は、2D表示のみが可能なディスプレイとすることができる。また、ディスプレイ13は、ヘッドマウントディスプレイなどでもよい。
操作部35は、ズーム倍率、照明光量などの内視鏡プローブ11に対する術者(ユーザ)の操作を受け付け、受け付けた操作内容に応じて、ズーム駆動部23及び照明部24に制御信号を出力する。
また、操作部35は、合成画像を生成するためのパラメータの入力も受け付け、入力されたパラメータを設定部36に出力する。
設定部36は、操作部35から供給された各種のパラメータを取得し、内部のメモリに保存する。また、設定部36は、メモリに記憶されている各種のパラメータを、必要に応じて画像合成部33に供給する。
内視鏡システム1は、以上のように構成されている。
<合成画像の説明>
図3は、画像合成部33によって生成されてディスプレイ13に表示された合成画像の例を示している。
合成画像50には、第1の円C1と、それよりも直径の大きい第2の円C2が含まれる。第1の円C1の内側には、直視画像表示領域51が設けられている。直視画像表示領域51は、直視用カメラ21で撮像された画像が表示される領域である。以下、直視用カメラ21で撮像された画像を直視画像ともいう。
また、第1の円C1と第2の円C2の間の領域には、側視Aカメラ表示領域52Aと、側視Bカメラ表示領域52Bが設けられている。側視Aカメラ表示領域52Aは、側視用カメラ22Aで撮像された画像が表示される領域であり、側視Bカメラ表示領域52Bは、側視用カメラ22Bで撮像された画像が表示される領域である。
側視Aカメラ表示領域52A及び側視Bカメラ表示領域52Bのそれぞれは扇形状となっている。また、側視Aカメラ表示領域52A及び側視Bカメラ表示領域52Bは、側視用カメラ22A及び22Bの位置に対応した対称な位置に配置されている。以下では、側視用カメラ22Aまたは22Bで撮像された画像を、側視画像ともいう。また、側視用カメラ22A及び22Bのそれぞれを区別する必要がない場合には、単に、側視用カメラ22ともいう。
側視用カメラ22で得られた矩形の側視画像を、扇形状に変換する処理には、超音波診断装置のコンベックス型プローブを使ったBモード表示のアルゴリズムに用いられている、スキャンコンバージョン処理を採用することができる。スキャンコンバージョン処理は、走査線の信号列で表される画像データを、直交座標系で表される画像データに変換する処理である。扇形状の外側になるほどデータが疎になるため、線形補間などを用いて適切に補間される。スキャンコンバージョン処理の詳細は、例えば、”http://www.cse.wustl.edu/~jain/cse567-08/ftp/scan/”,”http://ece.gmu.edu/~ssikdar/papers/conference%20papers/Sikdar_SPIE_2001.pdf”,”http://www.ti.com/lit/an/sprab32/sprab32.pdf”などに開示されている。
第1の円C1と第2の円C2の間の領域のうち、側視Aカメラ表示領域52Aと側視Bカメラ表示領域52B以外の非表示領域53は、側視用カメラ22で撮像された画像が表示されない領域である。非表示領域53は、画像の表示がないことが術者に明確に認識できるような表示、例えば、グレー表示などとされる。
ディスプレイ13の表示領域のうちの、合成画像50の外側の領域54には、例えば、ズーム倍率等のパラメータ情報が表示される。
以上のように、画像処理装置12は、内側の第1の円C1の円形領域内に、直視用カメラ21で撮像された直視画像を配置し、側視用カメラ22A及び22Bで撮像された側視画像を、第1の円C1の外周に沿わせて扇形状に配置した合成画像を生成し、ディスプレイ13に表示させる。
近年、手術用のディスプレイ13は高精細化及び大画面化する傾向にある。このように直視画像の円周上に側視画像も付加情報として提示することで、ディスプレイ13の表示エリアを有効に活用することができる。
図4及び図5を参照して、合成画像における直視画像と側視画像の位置関係について説明する。
図4のAは、内視鏡プローブ11の先端部分を斜め下方向から見た斜視図であり、図4のBは、内視鏡プローブ11の先端部分を真下から見た図である。
直視用カメラ21の所定の位置(方向)を基準位置(基準方向)とすると、図4のAに示されるように、側視カメラ22Aが配置されている位置(方向)は、直視用カメラ21の基準位置に対して所定の角度αで一意に定められる。
また、図4のBに示される側視用カメラ22Aの視野角βについても、レンズ設計によって一意に定められる。
この側視カメラ22Aの配置角度αと視野角βに基づいて、合成画像における側視Aカメラ表示領域52Aは、図5に示されるように、第1の円C1と第2の円C2の間の領域内の所定位置に決定される。すなわち、側視Aカメラ表示領域52Aの円弧方向の中心位置が、直視画像の基準位置に対して角度αの位置となり、側視Aカメラ表示領域52Aの扇形状の角度がβとなるように、側視Aカメラ表示領域52Aが、第1の円C1と第2の円C2の間の領域に配置される。直視画像表示領域51に対する側視Bカメラ表示領域52Bの位置関係についても同様である。これにより、合成画像において、直視画像と側視画像の映像の連続性が確保された表示となり、術者の術野の視認性が向上する。
なお、イメージセンサが内視鏡プローブ11の先端部に取り付けられたChip-On-Tipタイプではなく、イメージセンサの向きと内視鏡プローブ11の先端部分の向きの位置関係が変わり得る場合には、例えば、直視用カメラ21の基準位置(基準方向)を示すような切欠きを内視鏡プローブ11の先端部分に設け、切欠きが直視画像内に映るようにして、直視画像内の切欠きを画像処理により検出することで、直視用カメラ21の向きを検出し、検出された向きに基づいて側視カメラ22Aの角度αを算出し、側視Aカメラ表示領域52Aの配置を決定することができる。
次に、図6及び図7を参照して、合成画像の表示について説明する。
内視鏡プローブ11が挿入される体内の空間を、図6のAに示されるように、円柱形状61の内側の空間に見立てる。例えば、図6のBに示されるように、円柱形状61の底面に文字「F」が記載され、円柱形状61の内側面(内壁)に文字「A」と文字「B」が、対向する位置に記載されているとする。
この場合、画像処理装置12の画像合成部33によれば、図6のCに示されるような合成画像50が生成される。すなわち、合成画像50の直視画像表示領域51には文字「F」が映し出され、側視Aカメラ表示領域52Aには文字「A」が映し出され、側視Bカメラ表示領域52Bには文字「B」が映し出される。
また、図7に示されるように、内視鏡プローブ11が術者の操作によって回転された場合には、ディスプレイ13の合成画像50の表示も、内視鏡プローブ11の動きに合わせて回転させるようにすることができる。あるいは、内視鏡プローブ11の動きに関係なく、合成画像50の表示は固定としてもよい。
直視画像表示領域51には、2眼の直視用カメラ21で撮像された3D画像が表示される。ここで、3D画像とは、3D表示を行うための2D画像であり、左眼用画像と右眼用画像の組で構成される。左眼用画像と右眼用画像には視差が設定されており、左眼用画像と右眼用画像を交互に表示させることにより、表示された映像を見た人に立体感(奥行き感)を知覚させることができる。
一方、側視Aカメラ表示領域52A及び側視Bカメラ表示領域52Bには、対応する単眼の側視用カメラ22(22A及び22B)により得られた平面的な画像(2D画像)が表示される。
あるいはまた、画像合成部33は、側視Aカメラ表示領域52A及び側視Bカメラ表示領域52Bについても、対応する単眼の側視用カメラ22で得られた画像から、視差を設けた左眼用画像と右眼用画像を生成し、3D画像を表示させるようにしてもよい。この場合、側視Aカメラ表示領域52A及び側視Bカメラ表示領域52B内の位置(座標点)が、直視画像表示領域51から遠くなるほど、換言すれば、扇形状の外側になるほど、奥行き感が少なく、より手前に感じるように視差画像を生成することができる。
以上のように合成画像を生成してディスプレイ13に表示させることにより、術部の上部から、術部を覗き込んだときに見えるような表示が可能となる。
例えば、矩形状の直視画像及び側視画像を並べて配置する表示方法や、直視画像を表示したモニタと、側視画像を表示したモニタを並べて表示する表示方法などの場合は、術者が側視画像を見るために視点を大きく動かす必要がある。これに対して、本開示の表示方法によれば、視点を動かす必要がなく、直視画像と側視画像との位置関係も瞬時に判断することができる。
すなわち、本開示の表示方法によれば、術者は、直視画像と側視画像との位置関係を容易かつ瞬時に判断することができ、直視方向の術部だけでなく、その周辺の術野も容易に把握することができる。したがって、直視用カメラ21と側視用カメラ22で得られた画像を分かり易く提示することができる。
また、直視方向以外の周辺の術野も容易に把握することができるので、直視方向以外のエリアで、例えば、内視鏡プローブ11や鉗子が臓器に接触するようなことも防止することができる。
<パラメータの例>
図8乃至図14を参照して、設定部36で設定可能な合成画像のパラメータについて説明する。
設定部36では、例えば、図8に示されるような、合成画像50の第1の円C1の直径P1と、第2の円C2の直径P2を設定することができる。直径P1と直径P2の関係により、扇形状の側視画像の高さが決定される。
ここで設定される第1の円C1の直径P1と、第2の円C2の直径P2は、固定的な値としてもよいが、初期状態のデフォルトの値として、例えば、図9に示されるように、画像合成部33が、直視画像に対するズーム操作に応じて変更する制御を行ってもよい。
すなわち、図9は、ズーム操作に応じて、合成画像の第1の円C1の直径P1を変更する制御の例を示している。
直視画像のズームイン操作がなされた場合、ユーザが直視画像を注視することが重量な場面であると推定されるので、画像合成部33は、直視画像が表示される第1の円C1の直径を、デフォルトの値P1よりも大きい値P1’に変更する制御を行う。
一方、直視画像のズームアウト操作がなされた場合、ユーザが直視画像の周囲を広く確認することが重要な場面であると推定されるので、画像合成部33は、直視画像が表示される第1の円C1の直径を、デフォルトの値P1よりも小さい値P1”に変更する制御を行う。
また、設定部36では、図10に示されるように、合成画像50が表示されるディスプレイ13上の位置も、例えば、右側、中央、左側のように、パラメータで設定することができる。
また、図11に示されるように、側視Aカメラ表示領域52Aと、側視Bカメラ表示領域52Bの扇形状の横幅Wも設定することができる。
図12に示されるように、直視画像表示領域51が含まれる第1の円C1の直径が、直視用カメラ21のズーム倍率に応じて変化する表示モード、第1の円C1の直径がズーム倍率に応じて変化した場合に、図13に示されるように、側視画像を表示する側視Aカメラ表示領域52Aと側視Bカメラ表示領域52Bがディスプレイ13の表示領域からはみ出す表示モードや、図14に示されるように、側視Aカメラ表示領域52Aと側視Bカメラ表示領域52Bがディスプレイ13の表示領域からはみ出ないように側視画像の高さを調整する表示モードなどを設定することができる。
以上説明した各種の表示設定が、術者の嗜好に応じて適切に選択される。なお、使用者は、全てのパラメータを必ず設定する必要はなく、未設定の場合には、画像合成部33が自動で調整する。
<画像合成処理の処理フロー>
図15のフローチャートを参照して、画像処理装置12による画像合成表示処理について説明する。
初めに、ステップS1において、画像処理装置12は、直視画像と側視画像を取得する。具体的には、直視用カメラデータ取得部31が、直視用カメラ21から供給された直視画像を取得して画像合成部33に供給する。また、側視用カメラデータ取得部32Aが、側視用カメラ22Aから供給された側視画像を取得し、側視用カメラデータ取得部32Bが、側視用カメラ22Bから供給された側視画像を取得し、それぞれ、画像合成部33に供給する。
ステップS2において、画像合成部33は、取得した直視画像と側視画像を用いて、第1の円C1の内側に直視画像を配置し、第1の円C1の外側の円周上に、側視用カメラ22Aと側視用カメラ22Bで撮像された側視画像を扇形状に配置した合成画像を生成し、表示制御部34に供給する。
ステップS3において、表示制御部34は、画像合成部33から供給された合成画像の画像データを、ディスプレイ13の入力形式に対応した画像信号に変換してディスプレイ13に出力することにより、合成画像をディスプレイ13に表示させる。
上述したステップS1乃至S3の処理は、直視画像と側視画像が内視鏡プローブ11から供給されている間、継続的に実行される。
術者は、画像合成表示処理により表示された合成画像を見ることにより、直視方向の術部だけでなく、側方を含む広域な範囲を同時に観察することができる。
<変形例1>
上述した例では、円筒状の内視鏡プローブ11の側面に取り付けられている側視用カメラ22の個数が2個である例について説明したが、側視用カメラ22の個数は、1個でもよいし、3個以上でもよい。
図16は、4個の側視用カメラ22A乃至22Dが、側方の周囲を均等に4方向に分割して撮像するように内視鏡プローブ11の側面に取り付けられている例を示している。なお、側視用カメラ22Dの取り付け位置は図16では見えない位置となるため、図16では、側視用カメラ22Dは示されていない。
4個の側視用カメラ22A乃至22Dが設けられている場合、第1の円C1と第2の円C2の間の領域には、図17に示されるように、側視Aカメラ表示領域52A、側視Bカメラ表示領域52B、側視Cカメラ表示領域52C、及び、側視Dカメラ表示領域52Dが、撮像方向に応じて配置される。
このように、本開示の表示方法によれば、側視用カメラ22の位置や個数の変更に容易に対応することができる。
4個の側視用カメラ22A乃至22Dそれぞれで撮像された側視画像において、撮像範囲が重複している場合もある。撮像範囲が重複している領域は、任意のスティッチング技術を用いて、重複範囲を含む複数の側視画像がシームレスに接続される。
図17では、斜線を付した領域が、隣り合う側視画像どうしで撮像範囲が重複している領域を示している。このような撮像範囲が重複している領域の側視画像としては、例えば、2枚の側視画像を合成比αで合成して重複部分の側視画像を生成し、隣り合う側視画像どうしを接続することができる。また例えば、4個の側視用カメラ22A乃至22Dそれぞれで撮像される側視画像の優先度を予め設定しておいて、その設定された優先度に応じて、重複する側視画像のいずれか一方を採用することで隣り合う側視画像どうしを接続するようにしてもよい。
<変形例2>
上述した実施の形態では、内視鏡プローブ11の側方の周囲全体が出来るだけ撮像されるように、内視鏡プローブ11の側面に側視用カメラ22が均等配置される例について説明した。
しかし、図18に示されるように、側視用カメラ22A及び22Bを、内視鏡プローブ11の側方の周囲のうち、ある一定の側方のみに隣接して配置させ、側視用カメラ22A及び22Bがステレオカメラとして機能する配置とすることもできる。この場合、2個の側視用カメラ22A及び22Bは、内視鏡プローブ11の長手方向に沿って配置されるため、側視用カメラ22A及び22B間の距離をある程度長めに確保することができるので、ステレオ視による距離情報を正確に得ることができる。
<変形例3>
図19に示されるように、内視鏡プローブ11は1個の側視用カメラ22を回転機構とともに備え、側視用カメラ22が360度回転することにより、内視鏡プローブ11の側方の周囲全体を撮像した側視画像を取得して表示してもよい。この場合、内視鏡プローブ11には、側視用カメラ22の回転角を検出できる角度センサを搭載しておき、角度センサが、側視画像が取得された瞬間の側視用カメラ22の回転角を検出する。そして、側視画像が取得された瞬間の角度情報に基づいて、合成画像における側視画像の表示位置を決定することができる。
<コンピュータのハードウエア構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロホンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した画像合成表示処理を含む一連の処理が行われる。
コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した複数の機能の全てまたは一部を適宜組み合わせた形態を採用することができる。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本開示は以下のような構成も取ることができる。
(1)
プローブの先端方向である直視方向の被写体を撮像して得られた直視画像を円形状の領域内に配置し、前記プローブの側方である側視方向の被写体を撮像して得られた側視画像を、前記円形状の外周に沿わせて扇形状に配置した合成画像を生成する画像合成部を備える
画像処理装置。
(2)
前記合成画像には、複数の撮像素子で得られた複数の前記側視画像が配置されている
前記(1)に記載の画像処理装置。
(3)
複数の前記側視画像は、前記プローブの前記複数の撮像素子の位置に対応した前記円形状の外周の位置に配置されている
前記(2)に記載の画像処理装置。
(4)
撮像範囲が重複している領域を含む複数の前記側視画像は、スティッチングにより接続される
前記(2)または(3)に記載の画像処理装置。
(5)
前記直視画像と前記側視画像の境界では、映像の連続性が確保されている
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記画像合成部は、前記直視画像のズーム操作に応じて、前記直視画像を配置する前記円形状の直径を変更する制御を行う
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記直視画像は、3D画像である
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記側視画像は、3D画像である
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記側視画像は、扇形状の外側になるほど、より手前に感じる画像である
前記(8)に記載の画像処理装置。
(10)
前記直視画像は、前記側視画像より高解像度の画像である
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
前記合成画像の表示方法を設定する設定部をさらに備える
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記設定部は、扇形状の前記側視画像の横幅を設定する
前記(11)に記載の画像処理装置。
(13)
前記設定部は、前記円形状の径を設定する
前記(11)または(12)に記載の画像処理装置。
(14)
前記設定部は、扇形状の前記側視画像の高さを設定する
前記(11)乃至(13)のいずれかに記載の画像処理装置。
(15)
前記設定部は、画面内の前記合成画像の表示位置を設定する
前記(11)乃至(14)のいずれかに記載の画像処理装置。
(16)
画像処理装置が、
プローブの先端方向である直視方向の被写体を撮像して得られた直視画像を円形状の領域内に配置し、前記プローブの側方である側視方向の被写体を撮像して得られた側視画像を、前記円形状の外周に沿わせて扇形状に配置した合成画像を生成する
画像処理方法。
11 内視鏡プローブ, 12 画像処理装置, 13 ディスプレイ, 33 画像合成部, 34 表示制御部, 35 操作部, 36 設定部, 101 CPU, 102 ROM, 103 RAM, 106 入力部, 107 出力部, 108 記憶部, 109 通信部, 110 ドライブ

Claims (16)

  1. プローブの先端方向である直視方向の被写体を撮像して得られた直視画像を円形状の領域内に配置し、前記プローブの側方である側視方向の被写体を撮像して得られた側視画像を、前記円形状の外周に沿わせて扇形状に配置した合成画像を生成する画像合成部を備える
    画像処理装置。
  2. 前記合成画像には、複数の撮像素子で得られた複数の前記側視画像が配置されている
    請求項1に記載の画像処理装置。
  3. 複数の前記側視画像は、前記プローブの前記複数の撮像素子の位置に対応した前記円形状の外周の位置に配置されている
    請求項2に記載の画像処理装置。
  4. 撮像範囲が重複している領域を含む複数の前記側視画像は、スティッチングにより接続される
    請求項2に記載の画像処理装置。
  5. 前記直視画像と前記側視画像の境界では、映像の連続性が確保されている
    請求項1に記載の画像処理装置。
  6. 前記画像合成部は、前記直視画像に対するズーム操作に応じて、前記直視画像を配置する前記円形状の直径を変更する制御を行う
    請求項1に記載の画像処理装置。
  7. 前記直視画像は、3D画像である
    請求項1に記載の画像処理装置。
  8. 前記側視画像は、3D画像である
    請求項1に記載の画像処理装置。
  9. 前記側視画像は、扇形状の外側になるほど、より手前に感じる画像である
    請求項8に記載の画像処理装置。
  10. 前記直視画像は、前記側視画像より高解像度の画像である
    請求項1に記載の画像処理装置。
  11. 前記合成画像の表示方法を設定する設定部をさらに備える
    請求項1に記載の画像処理装置。
  12. 前記設定部は、扇形状の前記側視画像の横幅を設定する
    請求項11に記載の画像処理装置。
  13. 前記設定部は、前記円形状の径を設定する
    請求項11に記載の画像処理装置。
  14. 前記設定部は、扇形状の前記側視画像の高さを設定する
    請求項11に記載の画像処理装置。
  15. 前記設定部は、画面内の前記合成画像の表示位置を設定する
    請求項11に記載の画像処理装置。
  16. 画像処理装置が、
    プローブの先端方向である直視方向の被写体を撮像して得られた直視画像を円形状の領域内に配置し、前記プローブの側方である側視方向の被写体を撮像して得られた側視画像を、前記円形状の外周に沿わせて扇形状に配置した合成画像を生成する
    画像処理方法。
JP2016548833A 2014-09-18 2015-09-04 画像処理装置および画像処理方法 Pending JPWO2016043063A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014190164 2014-09-18
JP2014190164 2014-09-18
PCT/JP2015/075161 WO2016043063A1 (ja) 2014-09-18 2015-09-04 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JPWO2016043063A1 true JPWO2016043063A1 (ja) 2017-07-06

Family

ID=55533103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016548833A Pending JPWO2016043063A1 (ja) 2014-09-18 2015-09-04 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US10701339B2 (ja)
JP (1) JPWO2016043063A1 (ja)
WO (1) WO2016043063A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170071456A1 (en) * 2015-06-10 2017-03-16 Nitesh Ratnakar Novel 360-degree panoramic view formed for endoscope adapted thereto with multiple cameras, and applications thereof to reduce polyp miss rate and facilitate targeted polyp removal
US10454897B1 (en) 2016-01-21 2019-10-22 Amazon Technologies, Inc. Proxy captive portal traffic for input-limited devices
US10292570B2 (en) * 2016-03-14 2019-05-21 Endochoice, Inc. System and method for guiding and tracking a region of interest using an endoscope
WO2018060985A1 (en) * 2016-09-29 2018-04-05 Mitos Medical Ltd A rigid medical surgery illuminating device
CN111278384A (zh) * 2017-09-08 2020-06-12 柯惠Lp公司 利用跟踪辅助摄像机对手术部位进行功能成像
US11310481B2 (en) * 2017-10-26 2022-04-19 Sony Corporation Imaging device, system, method and program for converting a first image into a plurality of second images
US11617492B2 (en) * 2017-11-27 2023-04-04 Optecks, Llc Medical three-dimensional (3D) scanning and mapping system
WO2019140099A1 (en) * 2018-01-10 2019-07-18 Chemimage Corporation Time correlated source modulation for endoscopy
US11224330B2 (en) * 2018-01-28 2022-01-18 Surgical Ltd 270. Medical imaging device with camera magnification management system
WO2020004259A1 (ja) * 2018-06-29 2020-01-02 富士フイルム株式会社 内視鏡画像表示システムおよび内視鏡画像表示装置
EP3686610A1 (en) * 2019-01-24 2020-07-29 Rohde & Schwarz GmbH & Co. KG Probe, measuring system and method for applying a probe
JP7265376B2 (ja) * 2019-03-04 2023-04-26 株式会社タムロン 観察撮像装置
JP7353886B2 (ja) * 2019-09-18 2023-10-02 Hoya株式会社 内視鏡及び内視鏡システム
US20210113765A1 (en) * 2019-10-17 2021-04-22 National Guard Health Affairs Smart device and system for treatment of gastric reflux
JP7440392B2 (ja) 2020-10-02 2024-02-28 Hoya株式会社 プログラム、情報処理方法及び内視鏡システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04341232A (ja) * 1991-03-11 1992-11-27 Olympus Optical Co Ltd 電子内視鏡システム
JPH06269403A (ja) * 1993-03-19 1994-09-27 Olympus Optical Co Ltd 電子式内視鏡装置
JP2001078960A (ja) * 1999-09-14 2001-03-27 Olympus Optical Co Ltd 内視鏡装置
JP2005261557A (ja) * 2004-03-17 2005-09-29 Olympus Corp 視野方向可変型内視鏡および内視鏡システム
JP2009268657A (ja) * 2008-05-07 2009-11-19 I Systems:Kk 立体内視鏡
WO2011055614A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置
US20140142381A1 (en) * 2012-11-21 2014-05-22 Samsung Electronics Co., Ltd. Endoscope apparatus
WO2014088076A1 (ja) * 2012-12-05 2014-06-12 オリンパスメディカルシステムズ株式会社 内視鏡装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050197533A1 (en) * 2000-03-16 2005-09-08 Medivision, Inc. Endoscope and camera mount
JP2010279539A (ja) * 2009-06-04 2010-12-16 Fujifilm Corp 診断支援装置および方法並びにプログラム。
JP5830328B2 (ja) 2011-09-26 2015-12-09 オリンパス株式会社 内視鏡用画像処理装置、内視鏡装置及び画像処理方法
JP2013066648A (ja) * 2011-09-26 2013-04-18 Olympus Corp 内視鏡用画像処理装置及び内視鏡装置
JP5919533B2 (ja) * 2011-12-15 2016-05-18 パナソニックIpマネジメント株式会社 内視鏡およびこれを備えた内視鏡システム
US11606497B2 (en) * 2014-06-10 2023-03-14 Nitesh Ratnakar Endoscope with multiple views and novel configurations adapted thereto

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04341232A (ja) * 1991-03-11 1992-11-27 Olympus Optical Co Ltd 電子内視鏡システム
JPH06269403A (ja) * 1993-03-19 1994-09-27 Olympus Optical Co Ltd 電子式内視鏡装置
JP2001078960A (ja) * 1999-09-14 2001-03-27 Olympus Optical Co Ltd 内視鏡装置
JP2005261557A (ja) * 2004-03-17 2005-09-29 Olympus Corp 視野方向可変型内視鏡および内視鏡システム
JP2009268657A (ja) * 2008-05-07 2009-11-19 I Systems:Kk 立体内視鏡
WO2011055614A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置
US20140142381A1 (en) * 2012-11-21 2014-05-22 Samsung Electronics Co., Ltd. Endoscope apparatus
WO2014088076A1 (ja) * 2012-12-05 2014-06-12 オリンパスメディカルシステムズ株式会社 内視鏡装置

Also Published As

Publication number Publication date
US10701339B2 (en) 2020-06-30
US20170257619A1 (en) 2017-09-07
WO2016043063A1 (ja) 2016-03-24

Similar Documents

Publication Publication Date Title
WO2016043063A1 (ja) 画像処理装置および画像処理方法
JP6549711B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
JP6323183B2 (ja) 画像処理装置および画像処理方法
WO2017145788A1 (ja) 画像処理装置、画像処理方法、プログラム、及び、手術システム
JP2015531271A (ja) 外科用画像処理システム、外科用画像処理方法、プログラム、コンピュータ可読記録媒体、医用画像処理装置、および画像処理検査装置
US9635343B2 (en) Stereoscopic endoscopic image processing apparatus
JP2013123558A (ja) 内視鏡およびこれを備えた内視鏡システム
WO2013179855A1 (ja) 立体視内視鏡システム
JP5701140B2 (ja) 立体内視鏡装置
JP2012222658A (ja) 撮像装置及び撮像方法
WO2013067683A1 (en) Method and image acquisition system for rendering stereoscopic images from monoscopic images
JPWO2018096987A1 (ja) 情報処理装置および方法、並びにプログラム
JPWO2019012857A1 (ja) 撮像装置、画像生成方法
JP2015228955A (ja) 画像処理装置、画像処理方法、並びにプログラム
JP6256872B2 (ja) 内視鏡システム
WO2021171465A1 (ja) 内視鏡システム及び内視鏡システムによる管腔走査方法
JP2019004978A (ja) 手術システムおよび手術用撮像装置
JP2014228851A (ja) 内視鏡装置、画像取得方法および画像取得プログラム
CN108885335B (zh) 医用立体观察装置、医用立体观察方法以及程序
EP3598735A1 (en) Imaging device, video signal processing device, and video signal processing method
EP3595299A1 (en) Medical image display control device, medical image display device, medical information processing system, and medical image display control method
JPWO2018225346A1 (ja) 医療用システム及び制御ユニット
WO2018043205A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JPWO2018211970A1 (ja) 内視鏡
JP2014033932A (ja) 立体視内視鏡システム

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20170214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201105