JP2016126242A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2016126242A
JP2016126242A JP2015001685A JP2015001685A JP2016126242A JP 2016126242 A JP2016126242 A JP 2016126242A JP 2015001685 A JP2015001685 A JP 2015001685A JP 2015001685 A JP2015001685 A JP 2015001685A JP 2016126242 A JP2016126242 A JP 2016126242A
Authority
JP
Japan
Prior art keywords
image
real
image processing
time
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015001685A
Other languages
English (en)
Inventor
藤池 弘
Hiroshi Fujiike
弘 藤池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015001685A priority Critical patent/JP2016126242A/ja
Publication of JP2016126242A publication Critical patent/JP2016126242A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 モザイク画像合成において、ユーザーによる試し操作などで取得した画像についてモザイク画像として合成されてしまうことが多かった。【解決手段】 病理標本を撮像した第1の画像と、第1の画像以降に撮像された第2の画像とを、前記第1の画像と第2の画像の相対位置に応じて連続するように表示する装置において、第1の画像の外側に第1の画像よりも大きい領域を設定・表示し、前記の領域を第2の画像がはみ出したときに前記第1の画像と前記第2の画像を連続するように合成し表示する。さらに、前記第2の画像の前記第1の画像との相対位置が計測不能の際に、前記第1の画像が撮像された以降かつ第2の画像が撮像される前に撮像された前記第1の画像との相対位置が計測可能な第3の画像を前記第1の画像に合成し表示する。【選択図】 図6

Description

本発明は顕微鏡などの撮像装置で取得した画像の合成をするための画像処理技術に関するものであり、病理診断などに適したものである。
従来から、撮像装置と被写体の相対位置関係を変化させて撮像した複数枚の画像を合成することによって、撮像装置本来の視野よりも広い範囲を映し込んだモザイク画像(パノラマ画像とも呼称される)という合成画像を取得する技術がある。
このモザイク画像を病理診断などで用いられる顕微鏡観察に応用した場合、以下の様な問題が生じる。
例えば、顕微鏡においてXYステージを操作するための移動つまみを右に回した場合に、接眼レンズに映し出される観察対象がX軸方向に動くのかY軸方向に動くのかはメーカーや型式などにより異なることが多い。同様に、複数の移動つまみのどちらを動かせば、X軸とY軸の何れの方向に動くのかも異なることがある。
また、顕微鏡の接眼部分に連続撮像可能なデジタルカメラなどの撮像装置を取り付けて撮像した場合、顕微鏡と撮像装置の位置関係が影響し、接眼レンズに映し出される観察範囲と撮像装置の撮像範囲も天地が反転したり90度回転したりすることもある。これは、顕微鏡はメーカーや型式などによって装置構成が異なることがあり、撮像装置の取り付け位置も変わることが多いためである。このため、余計に、ユーザーにとってステージを移動させる操作と撮像範囲の移動方向との対応関係が分かり難い。
従って、ステージが付いている複数種の装置を利用するユーザーは、実際にステージを適当な方向に動かす操作をしてみることによって、ステージ移動操作と撮像範囲の移動方向との関係を解釈することが多い。しかし、このような操作によって得られる撮像装置の映像を逐次的にモザイク画像として合成すると不必要な画像が合成対象とされることや、重複した画像が多数合成されることが発生する。
合成画像の合成回数を低減させる方法として、特許文献1は、入力部分画像が、画像合成時に合成画像に完全に含まれてしまう場合に書き込みを行わないように制御する技術を提示している。また、特許文献2は、コンソールからの取り込み指示に基づいて静止画像を取得してモザイク画像を生成する手法を提示している。
特開平6−259557号公報 特開2013−21706号公報
しかし、特許文献1の手法では撮像した画像を逐次的に合成する画像処理装置においてユーザーによる試し操作で得られた画像について合成回数を低減させ難い。また、特許文献2のようにユーザーの指示によってモザイク画像を合成する手法ではユーザーにとって利便性が良くない。
そこで、本発明は利便性を落とさずに、ユーザーによる試し操作などで取得した画像について合成する回数を低減させることを目的とする。
上述の課題を解決するために本発明に係る画像処理システムは、病理標本を観察するための顕微鏡と、撮像部と、撮像部から順番に送信される画像を処理する情報処理装置とを有する画像処理システムであって、前記顕微鏡は、当該顕微鏡の視野を前記病理標本に対してn軸方向(nは1以上の整数)に変位させるための変位手段を備え、前記撮像部は、顕微鏡から得られる視野の少なくとも一部を撮像するためのセンサと、当該センサにより得られたリアルタイム画像を出力する出力手段とを備え、前記情報処理装置は、合成先の画像と、前記出力手段から得られるリアルタイム画像とを取得する取得手段と、前記合成先の画像と当該合成先の画像を包含する領域を表示部に表示させる表示制御手段と、前記合成先の画像と内容が連続するようなリアルタイム画像の位置を取得し、前記領域と前記リアルタイム画像との位置関係に基づいて、前記合成先の画像と前記リアルタイム画像とを合成する画像処理手段とを備えることを特徴とする。有することを特徴とする。
本発明によれば、利便性を落とさずに、ユーザーによる試し操作で取得した画像について合成する回数を低減させることができる。
画像処理システムの全体の模式図である。 画像処理システムの機能構成を示す模式図である。 モザイク画像を表示するユーザインターフェースの概略図である。 モザイク画像を逐次的に合成する表示を示す模式図である。 位置計測出来なかった場合の表示を示す模式図である。 逐次的なモザイク画像合成処理のフローチャートである。 モザイク画像の合成対象となるリアルタイム画像を決定するためのマーカーの例を示す模式図である。 モザイク画像の合成対象となるリアルタイム画像を決定するためのマーカーの設定をするためのユーザインターフェースを示す模式図である。 情報処理装置のハードウェア構成を示す概略図である。
図1は画像処理システムの全体の様子を模式的に表したものである。本明細書においてモザイク合成処理とは、複数の画像データを像の内容がなるべく連続するようにつなぎ合わせる処理を指し、以降の説明ではモザイク合成処理に関する処理を単に画像処理とも呼称する。
画像処理システムは顕微鏡1100とパーソナルコンピューター1300とを有し、これらは互いに通信可能に接続されている。
顕微鏡1100はXYステージ1101を有し、ユーザーが移動つまみ1102を回転させることにより対物レンズ1103に対するXYステージ上のプレパラート(スライド)1104の位置を移動させることができる。移動つまみは、移動軸の数だけあってもよいし軸を切り替える構成にしてもよい。ステージは視野をプレパラート1104に対してn軸方向(nは1以上の整数)に独立して変位させることができればよい。また、顕微鏡1100は接眼レンズ1105を備え、光学系を介してプレパラートの像を肉眼で観察することが出来る。またデジタルカメラ1200は光学的に顕微鏡1100の筐体に接続され、プレパラートの像を撮像し取得することができる。デジタルカメラ1200は病理標本を繰り返し撮像して複数の画像を取得し、撮像した画像をパーソナルコンピューター1300に送信する。パーソナルコンピューター1300はコンソールとしてポインティングデバイスであるマウス1301、キーボード1302、ディスプレイ1303(以降、表示部と呼称する)を有している。
図2は、図1の画像処理システムの機能構成をより詳細化したものである。図1と同じ符号を付したものについては同一の構成であり、補足内容が無ければ説明を省略する(図9についても同様)。
顕微鏡1100は、顕微鏡制御部2005、顕微鏡光学系2006および顕微鏡操作部2007を備えている。顕微鏡操作部2007についてユーザーの指示を受け、ユーザーの指示を顕微鏡制御部2007が解釈して各種信号を発行する。例えば、ステージ1101を移動させたり、顕微鏡光学系2006の対物レンズを倍率の異なるものに切り替えたり、光量を変えたり、対物レンズの位置を移動させてピントを調節する信号を発行する。もちろん、顕微鏡操作部2007から機械的な駆動力を伝達させて上記の構成を操作してもよい。
デジタルカメラ1200は、カメラ操作部2001、カメラ表示部2002、撮像部2003、カメラ通信部2004を備えている。カメラ操作部はデジタルカメラ側で撮像条件(撮像間隔、露光条件)の設定や、撮像モード(ISO感度、自動ホワイトバランス有無)の選択、記録データ形式(RAW、JPEG)の選択ができる。カメラ表示部2002は撮像条件や撮像モードなどを表示する。ライブビューとして機能させることも可能である。撮像部2003はCMOSセンサを含み、実際に顕微鏡光学系を介してデジタルカメラ1200に入力される光を像としてデジタル出力する構成である。カメラ通信部2004は有線接続(例えば、USB接続)または無線接続(Bluetooth(登録商標)、Wifi)によってパーソナルコンピューター1300と通信する。例えば、カメラ通信部2004は、撮像した画像データを撮像した順番(時系列順)で出力したり、撮像条件や撮像モード等を示すパラメータをパーソナルコンピューター1300へ出力したりする。カメラ通信部2004は撮像した画像データを複数枚同時に出力するようにしてもよい。
なお、パーソナルコンピューター1300(図9の説明では情報処理装置9000と呼称する。)のハードウェア構成は図9に示す通りである。ハードウェア構成として情報処理装置9000は、筐体9001、CPU9002、RAM9003、SSD9004、USB制御部9005、NIC9006、GPU9007、ハードウェア構成と機能構成とを対応づけて説明する。ここで、通信部撮像情報システム2100や画像管理サーバ2102の構成は情報処理装置9000の筐体9001内部の構成と同様なのでハード構成の説明は省略する。筐体9001は不図示の電源ユニットを備え、筐体内の各構成および筐体外の構成の一部に電源を供給する。CPU9002はRAM上のプログラムを実行する。SSD(Solid State Drive)9004は大容量記憶装置であり、且つ不揮発性のメモリである。主に、NAND型のフラッシュメモリを備える。
RAMはDDR―SDRAMなどの不揮発性のメモリであり、ROM(不図示)やSSD9004の保持しているプログラムを展開(解凍)したもの(プログラムコード9008)を保持する。USB制御部9005は外部インターフェースである。例としてUSBを上げたが、IEEE1394などの他の周辺機器接続方式であってもよい。GPU9007はグラフィックアクセラレーターであり、画像処理の一部を実施する。
パーソナルコンピューター1300は画像取得部2051、検出部2052、判定部2053、システム制御部2054、画像処理部2055、表示制御部2056、メモリ2057、通信部2058、操作部2059、表示部1303を有する。
パーソナルコンピューター1300は、不図示のROMのプログラムをRAMに展開し、CPUがRAM上のプログラムを実行することにより、後述の機能やフローチャートの処理を実現する。通信部2057は、デジタルカメラ1200から送信される画像データや撮像条件などのパラメータを取得する(図9のNIC9006に相当する。NICはNetwork Interface Cardの略)。通信部2057は撮像情報システム2071や画像管理サーバ2072とも通信可能に接続されている。
図2のパーソナルコンピューター1300の中に示す各構成は、基本的にはパーソナルコンピューター1300のCPU9007やGPU9007がメモリ2056のプログラムコード9008を実行することによって実現される機能である。メモリ2056はRAM9003やSSD9004であり、画像やOS(オペレーションシステム)のプログラムコード等を保持する。
図3は表示部1303が表示する内容を模式的に表した図で、プレパラート104上の病理標本を撮像した複数の顕微鏡画像が合成されたモザイク画像を表示する画面を示している。画像表示エリア3001に付属するように、縦横の表示位置を決定するスクロールバー3002、画像表示エリアの拡大率を決定するズームバー3400がある。ズームバー3400は拡大率を数値で入力するためのボックス3401と、スライダーの位置で拡大率を設定するためのスライダー部3402とを有している。また、ズームバー3400はスナップ動作設定スイッチ3403のオンオフの切り替えにより、スライダーを目盛り以外の場所にも連続的に配置できる第1モード(スナップモードオフ)と、目盛の上(又は、メモリの幅毎に)しか配置できない第2モード(スナップモードオン)のいずれかを選択することが可能である。図示しているのはスナップモードオンであり、メモリの幅毎にスライダーをズラして配置することができる。
また、顕微鏡1100がリアルタイムに撮像した画像(以降、リアルタイム画像と称す)の外周に表示部1303が点線の矩形枠3004を表示している。さらに、表示部1303は矩形枠3004を包含するように1点鎖線の矩形枠3003を表示している。矩形枠3003についての詳細は後述する。
次に、図6を用いて本実施形態における逐次的なモザイク合成処理について説明する。
ステップS601では、画像取得部2051がデジタルカメラ1200から通信部2057を介して画像を取り込む。画像取得部2051は撮像情報システム2071や画像管理サーバ2072などの画像保存機器から画像を取り込んでもよい。
ステップS602では、検出部2052がステップS601で新しく取り込んだリアルタイム画像についてモザイク画像(合成先の画像)に対する位置(相対位置)を測定(検出)する。画像取得部2051が、モザイク合成処理を開始して最初に画像を取得する際には、最初に取得した画像をモザイク画像として扱うのでステップS602〜S604の処理をスキップしてステップS605に遷移する。なお、モザイク画像に重畳される画像のモザイク画像に対する位置の計測は、テンプレートマッチングやオプティカルフローなどを用いた画像処理によるものや、ステージ移動量を物理的に計測する部を使用することが出来る。
例えば、テンプレートマッチングではリアルタイム画像の一部をテンプレートとして決めて、モザイク合成画像上にこのテンプレートを走査させながら各位置における類似度を算出し、類似度が高い箇所を特定する。これにより、リアルタイム画像のテンプレート部分とモザイク合成画像上の類似部分との相対位置関係を取得することができる。また、オプティカルフローは小領域毎にアフィン変換や並進によって移動していると仮定し、移動先の小領域として相応しい領域を独立して推定することによって、小領域毎の移動(オプティカルフロー)の探索を行う手法である。
本実施形態ではテンプレートマッチングを用いており、ステージ移動量を物理的に計測する構成を必要とせず、同じ画像処理を用いた方法であるオプティカルフローを用いた方法よりもノイズが少ない計測が可能である。
ステップS603では、判定部2053がステップS602においてリアルタイム画像の位置を計測できたかどうかを判定する。位置を計測出来たと判定した場合はステップS604に遷移する。リアルタイム画像を1枚しかとりこんでいない最初のサイクルではスキップする。
ステップS604では、表示制御部2056が前のサイクルでモザイク画像に重畳表示した画像を表示内容から消去する。リアルタイム画像を1枚しかとりこんでいない最初のサイクルではスキップする。
ステップS605では、表示制御部2056はモザイク画像にステップS601で取り込んだ画像を重畳表示するように制御する。この重畳表示する位置はステップS602で検出した位置である。
ステップS606では、表示制御部2056は、重畳表示するリアルタイム画像3004が、矩形枠3003の領域外にはみ出たかどうかを判定する。判定の結果、はみ出たと判断した場合はステップS607に遷移する。
ステップS607では、画像処理部2055がステップS602で取得した画像をモザイク画像に追加して合成する処理を実施する。そして、表示制御部2056はモザイク画像に追加した画像を中心として囲む様な矩形枠3003を再設定して表示するように制御する。
一方で、ステップS603において計測できていないと判断した場合はステップS608に遷移し、表示制御部2056が前のサイクルでモザイク画像に重畳表示した画像を表示内容から消去する。
ステップS609では、画像処理部2055が、モザイク画像に合成されていないリアルタイム画像で位置計測が成功し、かつ、領域外にはみだしていないものをモザイク画像に追加するように合成する。
ステップS610では、位置計測出来なかったリアルタイム画像を取り込み画像に重畳表示する。
ステップS607、S608およびS610からステップS611に遷移した際に、ステップS611では、システム制御部2054が逐次的なモザイク画像の合成処理を終了するかどうかを判断する。例えば、ユーザーが合成処理の終了を指示したり、合成処理をしない別のモードに切り替え指示をしたり、メモリ2057の記憶容量が不十分になったり、画像取得部2051が所定時間以上次の画像を取得しなかったりすることが終了判断の根拠となる。
本実施形態では図6の処理をループする毎(S611でNO判定する毎)にステップS601で画像取得部2051が画像を取得している。しかし、ユーザーに見せるリアルタイムの画像をより滑らかにするためにステップ601で奇数番目を取得した際にフローチャートを実行するようにしてもよい。このようにすると、ユーザーに見えるリアルタイムの画像を60fpsにして30fpsの画像を用いてモザイク合成することができる。
次に図6の処理によって画像表示エリア3001の内容がどのように遷移するかを図4、図5を用いて説明する。図4(a)〜(e)は、時刻順に並んでおり、図4(a)が一番古く図4(e)が最新である。
図4の矩形枠4002(点線)は図3の矩形枠3004に相当し、顕微鏡1100が撮像したリアルタイム画像を囲んでいる。矩形枠4001(1点鎖線)は図3の矩形枠3003に相当し、逐次的にモザイク画像として合成する対象を決定するためのトリガとして機能する。詳細には、ステージ移動に伴い矩形枠4002が矩形枠4001に接する時、もしくは矩形枠4002が矩形枠4001からはみ出た時の矩形枠4002のリアルタイム画像を合成対象とする。なお、本実施形態においてリアルタイム画像は接眼レンズ側の実際の顕微鏡視野を矩形で切り取ったものに相当する。これは、撮像部2003のCMOSセンサが矩形であるためである。
図4(a)は、ステージ1101に配置されたプレパラート1104について、逐次てきなモザイク合成処理を開始してデジタルカメラ1200が撮像した最初の撮像画像を、表示制御部2056が表示部1303に表示させた直後の状態である。最初の撮像画像が描画されるまでは矩形枠4001を表示しなくてもよいが、矩形枠4002はどこにリアルタイム画像が描画されるのかがユーザーにとって分かり易いので表示することが好ましい。この時点では最初に撮像した画像はそのままモザイク画像として表示している。この時点では、モザイク画像とリアルタイム画像は同様であり矩形枠4002a(以降は単に、リアルタイム画像4200という風に呼称する)の大きさの画像である。
図4(b)は、図4(a)の状態からステージを左上方向に動かした時の様子を示している。この例ではステージの移動に伴って病理標本の撮像部位(顕微鏡の視野)が右下に移動している。そして、画像取得部2051がリアルタイムに取得したリアルタイム画像4002bを、表示制御部2056が図4(a)のリアルタイム画像4002aと異なる位置に、モザイク画像(ここではリアルタイム画像4002a)に重畳して表示する。その際に、検出部2052が検出した相対位置(モザイク画像に対するリアルタイム画像4002bの相対的な位置)に基づいて重畳表示するので、モザイク画像とリアルタイム画像4002bの画像の内容は滑らかに連続している。ここで、図4(a)から図4(b)への顕微鏡視野の移動方向がユーザーの意図するものではなかったとする。
図4(c)は、ユーザーが顕微鏡視野を右上方向に動かすようにステージ1101を操作し直した状態を示す。本実施形態では、モザイク画像に対するリアルタイム画像の相対位置を検知出来なかった場合を除き、図4(a)〜図4(c)の様に、表示位置(矩形枠4002)が矩形枠4001内に留まるリアルタイム画像4002はモザイク画像に追加して合成しない。なお、矩形枠4001に収まるリアルタイム画像4002の一部はメモリ2057に保存しないで重畳するようにしてもよい。
図4(d)は、図4(c)の状態でユーザーが意図した方向にステージを移動させていることを確認した後に、さらに右上方向にステージを移動させた状態である。図4(d)ではリアルタイム画像4002dの少なくとも一部が矩形枠4001の外にはみ出しているため、リアルタイム画像4002dがモザイク画像に追加される(ステップS606、S607相当)。なお、図4(d)では、説明の簡便のため、矩形枠4001をはみ出すリアルタイム画像4002dを強調しているが、撮像、移動量の計測、境界外への移動の判定サイクルなどが短い場合は、枠外にはみ出ている部分は僅かとなる。
図4(e)は、表示制御部2056が合成対象を決定する矩形枠4003を、直近で合成したリアルタイム画像の合成前の位置に基づいて再設定した状態である。ここでは、説明の簡便のために矩形枠を再設定する際にリアルタイム画像が表示領域の中央になるように、リアルタイム画像と合成中のモザイク画像とを表示し直している。しかし、リアルタイム画像4002が常に表示領域の中央になるようにしてもよい。
続いて、モザイク画像に重畳される画像(以降、リアルタイム画像5002と称す)のモザイク画像に対する位置が計測出来なかった場合について図5を用いて説明する。図5は左上方向に視野を移動している途中の様子を表しており、図5(a)図5(b)では重畳して表示される画像はモザイク画像に対する位置を反映して表示制御部2056が表示している。
ここで、視野が、本来図5(c)の様に表示されるべき位置に移動した時点で、リアルタイム画像5002のモザイク画像に対する位置が計測出来なかった場合、画像処理部2055は図5(a)または図5(b)で表示していたリアルタイム画像5002aまたは5002bをモザイク画像に追加する。図5(a)及び図5(b)で表示されていた画像は領域外にはみだしていない重畳表示画像(リアルタイム画像)であって、位置計測に成功したものの一つに相当する。リアルタイム画像5002bを追加して合成した結果のモザイク画像を図5(d)に示す。この時、矩形枠5001は再設定しない。また、図5(d)において取得したリアル画像5002eが重畳して表示されるため、図5(d)のモザイク画像を表示する実際の画面は図5(e)となる。
図5(e)では、モザイク画像に対する位置が計測出来なかったリアルタイム画像5002e画像を、矩形枠5001の中央に表示している。しかし、リアルタイム画像5002eは最後に位置計測したリアルタイム画像の位置に表示してもよいし、別のウィンドウに表示するようにしてもよい。また、矩形枠5001は再設定するようにしてもよい。
なお、図4で説明した動作は図6のフローにおいて経路1を2回通過した後に経路2を通過したものであり、図5を用いて説明した動作は図6のフローにおいて経路1を2回通過した後に経路3を通過したものとなる。
矩形枠3003のように逐次的にモザイク画像として合成する対象のリアルタイム画像を決定するためのトリガとして機能する表示(マーカー)の形態は種々の方式が考えられる。図7は矩形枠3003が示す領域を別の形態によって識別可能にするための表示例を示したものであり、図7(a)〜図7(e)は同様の内容を示している。
図7(a)の例は、図3〜図5を用いて上述した内容と同様である。矩形枠7002は矩形枠3004に相当し、矩形枠7001aは矩形枠3003に相当する。図7(b)は矩形枠7001aの四隅のそれぞれに四角形7003〜7006を配置して示したものである。図7(b)において矩形枠7001aは表示しなくても構わない。図7(c)は矩形枠3003を直線7007〜7010で表現したものである。図7(d)は矩形枠3003を枠7011と三角形7012〜7019で表現したものであり、対向する三角形の頂点(枠7011と重なる頂点)どうしを結んだ直線に囲まれる領域が矩形枠3003に相当する。図7(d)は矩形3003を示す表示をモザイク画像に重畳させないので、矩形枠3003によるモザイク画像の隠れ(オクルージョン)を抑制できる。このように、モザイク画像やリアルタイム画像の外側にマーカーを表示させることで、モザイク画像やリアルタイム画像の視認性を高めることができる。
また、図7(e)の枠7001eように、合成する対象のリアルタイム画像を決定するためのトリガとして機能する表示は矩形枠でなくてもよい。デジタルカメラ1200は顕微鏡の鏡筒を介して画像を取得するので、円形の枠をリアルタイム画像の枠やトリガとしてのマーカーに利用するようにしてもよい。
図8(a)は、矩形枠8002(矩形枠3003に相当する)の設定画面であり、スライドバー部8006において、スライダーもしくは数値入力によってリアルタイム画像を表示する枠8003と矩形枠8002aとの間隔(または矩形枠8002のサイズ)を設定する。またスライドバー部8600のチェックボックスのチェックにより枠の形態を図8(a)の8002aと図8(b)の8002bとの間で切り替えられる。ズームバー部8005はズームバー部3400と同様なので説明を省略する。
図8では画面上での長さとして間隔を入力する例を示しているが、モザイク画像に追加される画像に対する割合を設定するようにしてもよい。また、図8には示していないが、矩形枠8002の表示・非表示を選択するためのチェックボックスを設けてもよい。
また、撮像された画像が領域をはみ出したかどうかの判定は、モザイク画像や撮像された画像、設定された領域の表示装置上の位置関係を計算および設定する過程で得られる情報に基づいて行うだけでなく、表示装置に送られる表示信号に基づいて行う方法や、表示装置の表示状況を画像処理して行っても構わない。
以上に説明した様に本実施形態によれば、画像取得部2051は、病理標本を撮像した第1の画像と、第1の画像以降に撮像された第2の画像とを取得する。表示制御部2056は前記第1の画像の外側に該第1の画像よりも大きい領域を設定する設定部として機能する。そして表示制御部2056はさらに、設定された領域を前記第2の画像がはみ出したときに前記第1の画像と前記第2の画像を連続するように合成した画像を表示させる。このようにすることで、利便性を落とさずに、ユーザーによる試し操作で取得した画像について合成する回数を低減させることができる。詳細には、モザイク画像に追加して合成するインターフェースについて、いわゆる「遊び」が実現される。このため、顕微鏡の視野とステージ操作部との関係が直観的に把握し難い場合でも、ユーザーが追加合成される条件を「遊び」として把握できるため、不要な画像がモザイク画像に追加合成されることを低減できる。また、追加合成のための指示をユーザーが逐一コンソールからの指示をしなくて済むので利便性が高い。
一方で検出部2052は、前記第2の画像の前記第1の画像との相対位置関係を取得する位置取得手段として機能する。そして、表示制御部2056は、前記相対位置関係が取得できない場合に、前記第1の画像が撮像された以降かつ第2の画像が撮像される前に撮像された前記第1の画像との相対位置が取得できる第3の画像を前記第1の画像に合成した画像を表示させる。これにより、第2の画像との相対的な位置関係が得られない場合であっても、位置関係が得られる第3画像を第1の画像と適宜合成することにより、モザイク画像を得ることができる。
上述の説明では省略したが、モザイク合成は既存の手法を用いればよい。モザイク合成は「位置合わせ」と「色合わせ」がポイントであり、位置合わせについては上述した相対位置に基づいて位置合わせを行えばよい。追加合成するリアルタイム画像についてレンズによる歪曲収差を補正することも好ましい。
色合わせについて、デジタルカメラ1200は撮像した画像毎に色味を調節する機能があるので、リアルタイム画像をモザイク画像の色味に合わせるように処理をすることが好ましい。
また、モザイク画像に重畳される画像のモザイク画像に対する位置が計測出来なかった場合は遊びの範囲で位置計測できた画像を追加合成できるようにするため、位置計測可能な範囲でモザイク画像を拡張することができる。
また、以上の実施形態ではデジタルカメラ1200から取得した画像をそのままモザイク画像に重畳表示およびモザイク合成する場合を取り上げたが、取得した画像の少なくとも一部を重畳表示およびモザイク合成するようにしてもよい。
上述の実施形態ではパターンマッチング等の画像処理によって位置計測する形態を説明したが、単純に顕微鏡のステージの移動量からリアルタイム画像とモザイク合成画像の相対位置を取得するようにしてもよい。その場合は、基本的に相対位置の計測値は得られるのでステップS603の判定をスキップしてもよい。
また、顕微鏡1100のXYステージ1101を素早く走査させる際には矩形枠3003を表示させないようにしてもよい。例えば、表示制御部2056は、単位時間あたりの矩形枠3003の更新(位置の変更)が所定回数以上になると、ユーザーは矩形枠3003を意識せずにステージ1101を操作していることになるので矩形枠3003の表示をフェードアウトさせる。そして、表示制御部2056は、単位時間あたりの矩形枠3003の更新(実際には表示しない)が所定回数より小さくなりそうなことが検出できたら矩形枠3003の表示をフェードインさせる。
また、上述の実施形態ではXYステージ1101を移動させているが、固定ステージを採用して顕微鏡側を移動させることで視野に変位を与えてもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が、コンピュータが読み取り可能なプログラムを読み出して実行する処理である。
プログラムを供給するための記憶媒体としては、例えば、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカードなどを用いることが出来る。これらの記憶媒体は、上述実施形態の機能を実現する二次記憶装置としても用いることが出来る。上述の実施形態では二次記憶装置としてFlash SSDを例にしたが、電子の移動によって物理的に劣化する記憶素子を備える記憶装置であれば本発明を適用することで同様の効果を得ることができる。

Claims (17)

  1. 病理標本を観察するための顕微鏡と、撮像部と、撮像部から順番に送信される画像を処理する情報処理装置とを有する画像処理システムであって、
    前記顕微鏡は、当該顕微鏡の視野を前記病理標本に対してn軸方向(nは1以上の整数)に変位させるための変位手段を備え、
    前記撮像部は、顕微鏡から得られる視野の少なくとも一部を撮像するためのセンサと、当該センサにより得られたリアルタイム画像を出力する出力手段とを備え、
    前記情報処理装置は、
    合成先の画像と、前記出力手段から得られるリアルタイム画像とを取得する取得手段と、
    前記合成先の画像と当該合成先の画像を包含する領域を表示部に表示させる表示制御手段と、
    前記合成先の画像と内容が連続するようなリアルタイム画像の位置を取得し、前記領域と前記リアルタイム画像との位置関係に基づいて、前記合成先の画像と前記リアルタイム画像とを合成する画像処理手段と
    を備えることを特徴とする画像処理システム。
  2. 前記取得手段は、病理標本を撮像した第1の画像と、第1の画像以降に撮像された第2の画像とを取得し、
    前記第1の画像の外側に該第1の画像よりも大きい領域を設定する設定手段と、を有し、
    前記表示制御手段は、前記設定された領域を前記第2の画像がはみ出したときに前記第1の画像と前記第2の画像を連続するように合成した画像を表示させることを特徴とする請求項1に記載の画像処理システム。
  3. 前記第2の画像の前記第1の画像との相対位置関係を取得する位置取得手段をさらに有し、
    前記相対位置関係が取得できない場合に、前記第1の画像が撮像された以降かつ第2の画像が撮像される前に撮像された前記第1の画像との相対位置が取得できる第3の画像を前記第1の画像に合成した画像を表示させることを特徴とする請求項2に記載の画像処理システム。
  4. 前記表示制御手段は、前記リアルタイム画像を前記合成先の画像に合成したことに基づいて前記領域を合成したリアルタイム画像を包含する位置に変更して表示させることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理システム。
  5. 前記画像処理手段では前記リアルタイム画像の一部が前記領域からはみ出るような位置であるかどうかを位置関係として判断し、はみ出る場合に当該リアルタイム画像を合成対象として決定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理システム。
  6. 前記取得手段は複数のリアルタイム画像を時系列順に取得し、
    前記複数のリアルタイム画像の少なくとも1つについて前記合成先の画像と内容が連続するような位置を取得できなかった場合に、前記領域と前記リアルタイム画像との位置関係に関わらず、前記複数のリアルタイム画像のうち位置を取得できたものについて前記画像処理手段が前記合成先の画像に合成することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理システム。
  7. 前記画像処理手段が、前記領域と前記リアルタイム画像との位置関係に関わらず前記複数のリアルタイム画像のうち位置を取得できたものについて前記合成先の画像に合成した場合、前記表示制御手段は前記領域の位置を変更しないことを特徴とする請求項6に記載の画像処理システム。
  8. 第1の画像と、標本を撮像することにより得られる第2の画像とを取得する取得工程と、
    第1の画像と当該第1の画像を包含する領域を表示させる第1制御工程と、
    前記第1の画像と内容が連続するような第2の画像の位置を取得し、前記領域と前記第2の画像との位置関係に基づいて、当該第2の画像を合成対象とするかどうかを判定する判定工程と、
    前記判定工程の結果に基づいて前記第1の画像と前記第2の画像とを合成する画像処理工程と
    を有することを特徴とする画像処理方法。
  9. 前記第2の画像を前記第1の画像に合成したことに基づいて前記領域を合成した第2の画像を包含する位置に変更して表示させる第2制御工程を更に有することを特徴とする請求項8に記載の画像処理方法。
  10. 前記判定工程では前記第2の画像の一部が前記領域からはみ出るような位置であるかどうかを位置関係として判断し、はみ出る場合に当該第2の画像を合成対象として決定することを特徴とする請求項8または9に記載の画像処理方法。
  11. 前記取得工程では複数の第2の画像を取得し、
    前記判定工程で、前記複数の第2の画像の少なくとも1つについて前記第1の画像と内容が連続するような位置を取得できなかった場合に、前記第2制御工程では前記領域と前記第2の画像との位置関係に関わらず、前記複数の第2の画像のうち位置を取得できたものについて前記画像処理工程で前記第1の画像に合成することを特徴とする請求項9に記載の画像処理方法。
  12. 前記画像処理工程で、前記領域と前記第2の画像との位置関係に関わらず第2の画像のうち位置を取得できたものについて前記第1の画像に合成した場合、前記第2制御工程において前記領域の位置を変更しないことを特徴とする請求項11に記載の画像処理方法。
  13. 前記第1制御工程は、前記領域のサイズの指示を受け付けて、受け付けたサイズに基づいて前記領域を表示させることを特徴とする請求項8乃至12のいずれか1項に記載の画像処理方法。
  14. 前記第1制御工程は、前記領域を識別可能にするために前記第1の画像または前記第2の画像の外側にマーカーを表示させることを特徴とする請求項8乃至13のいずれか1項に記載の画像処理方法。
  15. 前記第1制御工程は、単位時間あたりの前記領域の変更が所定回数以上になると、前記領域の表示をフェードアウトさせることを特徴とする請求項8乃至14のいずれか1項に記載の画像処理方法。
  16. 前記第1制御工程は、単位時間あたりの前記領域の変更が所定回数より小さくなると、前記領域の表示をフェードインさせることを特徴とする請求項15に記載の画像処理方法。
  17. コンピュータに、
    第1の画像と、標本を撮像することにより得られる第2の画像とを取得する取得工程と、
    第1の画像と当該第1の画像を包含する領域を表示させる第1制御工程と、
    前記第1の画像と内容が連続するような第2の画像の位置を取得し、前記領域と前記第2の画像との位置関係に基づいて、当該第2の画像を合成対象とするかどうかを判定する判定工程と、
    前記判定工程の結果に基づいて前記第1の画像と前記第2の画像とを合成する画像処理工程と
    を実行させることを特徴とするコンピュータが読み取り可能なプログラム。
JP2015001685A 2015-01-07 2015-01-07 画像処理装置、画像処理方法およびプログラム Pending JP2016126242A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015001685A JP2016126242A (ja) 2015-01-07 2015-01-07 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015001685A JP2016126242A (ja) 2015-01-07 2015-01-07 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2016126242A true JP2016126242A (ja) 2016-07-11

Family

ID=56359521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015001685A Pending JP2016126242A (ja) 2015-01-07 2015-01-07 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2016126242A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137103A (ja) * 2019-02-19 2020-08-31 株式会社シンクアウト 情報処理システムおよび情報処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288731A (ja) * 2006-04-20 2007-11-01 Hitachi High-Tech Science Systems Corp リアルタイムパノラマ画像合成方法及びその装置
JP2010141699A (ja) * 2008-12-12 2010-06-24 Keyence Corp 撮像装置
JP2011186305A (ja) * 2010-03-10 2011-09-22 Olympus Corp バーチャルスライド作成装置
WO2013105373A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 情報処理装置、撮像制御方法、プログラム、デジタル顕微鏡システム、表示制御装置、表示制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288731A (ja) * 2006-04-20 2007-11-01 Hitachi High-Tech Science Systems Corp リアルタイムパノラマ画像合成方法及びその装置
JP2010141699A (ja) * 2008-12-12 2010-06-24 Keyence Corp 撮像装置
JP2011186305A (ja) * 2010-03-10 2011-09-22 Olympus Corp バーチャルスライド作成装置
WO2013105373A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 情報処理装置、撮像制御方法、プログラム、デジタル顕微鏡システム、表示制御装置、表示制御方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137103A (ja) * 2019-02-19 2020-08-31 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
JP7304508B2 (ja) 2019-02-19 2023-07-07 株式会社シンクアウト 情報処理システムおよび情報処理プログラム

Similar Documents

Publication Publication Date Title
US11895392B2 (en) Display control apparatus, imaging system, control method, and recording medium for displaying an image and an indicator in a screen including a first region and a second region
JP4770493B2 (ja) 遠隔指示システム及び遠隔指示方法
JP5301970B2 (ja) 顕微鏡用デジタルカメラシステム及び顕微鏡システム
US10424046B2 (en) Information processing apparatus, method and program therefore
US20090244324A1 (en) Imaging device
JP6525760B2 (ja) 撮像装置およびその制御方法およびプログラム
JP6141084B2 (ja) 撮像装置
JP2013058124A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6537325B2 (ja) 表示制御装置及びその制御方法
US9906710B2 (en) Camera pan-tilt-zoom (PTZ) control apparatus
US20060176321A1 (en) Endoscope apparatus
JP2016126242A (ja) 画像処理装置、画像処理方法およびプログラム
JP4674093B2 (ja) 内視鏡装置及びプログラム
JP6525688B2 (ja) 表示制御装置及びその制御方法
JP2019109550A (ja) 表示制御装置及びその制御方法
US11250640B2 (en) Measurement method, measurement device, and recording medium
JP6529312B2 (ja) 表示制御装置及びその制御方法
JP4777486B2 (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
US20210021759A1 (en) Imaging apparatus and non-transitory storage medium
JP2005244562A (ja) カメラの遠隔制御方法及び装置
JP7270052B2 (ja) 表示方法、及び、映像処理方法
JP5241880B2 (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP2006020276A (ja) 計測用内視鏡装置
JP4162644B2 (ja) カメラシステム
JP2021132254A (ja) 制御装置及びその制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191112