以下、本発明の実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。
図1(A)~1(C)に褥瘡のSizeの測定法(評価法)を示す。図1(A)は潰瘍面のみの褥瘡のSizeの測定法の例である。褥瘡のSizeは、患部(潰瘍面領域103)にメジャーをあてて手作業で計測された値に基づいて決定されることが多い。具体的には、皮膚の損傷範囲(潰瘍面領域103)のうち最も長い直線距離の2点を測定し、当該直線距離を褥瘡の長径aとする。さらに、皮膚の損傷範囲のうち長径aと直交する最も長い直線距離の2点を測定し、当該直線距離を褥瘡の短径bとする。そして、長径aと短径bを掛け合わせた値を褥瘡のSizeとする。以後、他の領域についても、当該領域のうち最も長い直線距離を「長径」と記載し、当該領域のうち長径に直交する最も長い直線距離を「短径」と記載する。
褥瘡の症状・分類の代表的なものに、ポケットのある褥瘡がある。ポケットは皮膚欠損部(潰瘍面;外部に露出している部分)よりも広い創腔で、外部から見えない部分(外部に露出していない部分)で皮下に深く広く広がっている場合がある。図1(B)と図1(C)は、ポケットのある褥瘡の例である。図1(B)は、潰瘍面を包含するポケット、つまり潰瘍面の全方向に広がったポケットの例であり、図1(C)は、潰瘍面に部分的に重なるポケット、つまり潰瘍面の一部の方向に広がったポケットの例である。ポケットのある褥瘡では、潰瘍面領域103とポケット領域104を含む全体領域が患部領域102となる。このような褥瘡のポケットを評価する場合、創腔(ポケット)がどのくらいの範囲に広がっているかを計測する必要がある。例えば、DESIGN-R(登録商標)のポケットの採点方法では、潰瘍面とポケットを含む患部領域102の長径aと短径bを掛け合わせた値から、潰瘍面の大きさ、つまり潰瘍面領域103の長径cと短径dを掛け合わせた値を減算した値で計測される。
図2は、ライト201によるポケット203の測定作業の概要を示す。測定作業では、ライト201の先端(点灯部分)を潰瘍面202からポケット203に挿入する。そして、ポケット203の端に向かってライト201の先端を移動させ、ライト201の先端が最深部(ポケット203の端)に到達した時点で、ライト201から発せられた光が透過した皮膚表面上の位置204にマジックペン等を用いてマーキングする。その後、ライト201をポケット203から引き抜く。矢印205は、このときのライト201の動きを示す。矢印205のように、ライト201は、患部内を径方向、かつ、患部の中心付近の所定の領域から患部の端の位置へと移動し、さらに所定の領域へと移動する。このような作業を繰り返す。状態200A,200aは1点のマーキングを行った状態であり、状態200B,200bは4点のマーキングを行った状態であり、状態200C,200cは
ポケット203の全周囲に沿ってマーキングを行った状態である。全周囲に沿った複数のマーキングから、ポケット203の外周の形状を判断することができ、ポケット203を評価することができる。
[実施例1]
実施例1では、撮影画像から褥瘡の潰瘍面の面積計測を行い、更に、ポケット領域の大きさを計測できるような合成画像を作成する手順について説明する。
以下、図3および図4を参照して、本発明の実施例1に係る画像処理システムについて説明する。図3は、実施例1に係る画像処理システムの機能構成の一例を示したブロック図である。画像処理システム1は、手持ち可能なポータブルデバイスである撮像装置2と、画像処理装置3とから構成される。図4は画像処理システム1により計測される被検体を表す図である。実施例1では、被検体401の臀部に生じた患部領域402の病態の一例を褥瘡として説明している。
画像処理システム1は、被検体401の患部領域402を撮影し、被写体距離を取得し、患部領域402に対応する画像領域を抽出し、患部領域402の外周形状を検知し、患部領域402の長径と短径を計測して、褥瘡のSizeを計測する。ここで、被写体距離と撮像装置2の画角に基づいて1ピクセルあたりの面積を計測し、患部領域402の抽出結果と1ピクセルあたりの面積とから患部領域402の面積を計測するようにしてもよい。
被検体401には、被検体を識別する情報として1次元バーコード(不図示)が描かれたバーコードタグ403が付帯しており、画像データと被検体のIDとを紐づけることができる。なお、被検体を識別する情報は1次元バーコードに限ったものではなく、QRコード(登録商標)などの2次元コードや数値であってもよい。また、診察カードなどのIDカード上に付帯されるデータやID番号であってもよい。
撮像装置2の機能構成について説明する。撮像装置2は、AF部10、撮像部11、画像処理部12、情報生成部13、表示部14、出力部15、第2取得部16として機能する。
AF部10は、被写体に自動的に焦点を合わせる自動焦点調節機能を有する。また、AF部10は、フォーカスレンズの移動量から被写体までの距離(被写体距離)を出力する機能を有する。
撮像部11は、被写体を撮像し、静止画または動画の画像データを生成する。
画像処理部12は、撮像部11が取得した画像に対して、現像やリサイズなどの画像処理を施す。
情報生成部13は、被写体までの距離に関する距離情報を生成する。例えば、情報生成部13は、AF部10が出力する距離に基づいて距離情報を生成する。
表示部14は、撮像部11が撮像した画像などを表示する。表示部14は、画像処理装置3から出力された情報(患部領域402の抽出結果を示す情報、患部領域402のサイズに関する情報など)を表示することもできる。このような情報は、撮像した画像に重畳表示されてもよい。また表示部14は、画像処理装置3から出力された、ポケット領域の大きさが判別できる合成画像を表示することもできる。合成画像の作成方法については後述する。
出力部15は、画像データと距離情報を画像処理装置3などの外部機器に出力する。画像データとしては、被検体401の患部を撮像した画像データ、被検体401全体の画像データ、バーコードタグ403に描かれた1次元バーコードなどの識別情報を撮像した画像データ、ライトによる測定作業中の動画データなどがある。
第2取得部16は、画像処理装置3などの外部機器から、画像、潰瘍面領域およびポケット領域の評価結果を示す評価情報などを取得する。
次に、画像処理装置3の機能構成について説明する。画像処理装置3は、取得部21、抽出部22、重畳部23、解析部24、第2出力部25、保存部26として機能する。
取得部21は、撮像装置2が出力した画像データと距離情報(被写体距離)を取得する。
抽出部22は、患部領域402を撮像した画像(撮像装置2が出力した画像データ)から、患部領域402に対応する画像領域を抽出する。画像から領域を抽出することを領域抽出や領域分割などという。
解析部24は、抽出部22によって抽出された患部領域402のサイズに関する情報を、情報生成部13が生成した距離情報(被写体距離)に基づいて解析する。また、解析部24は、ポケット領域の大きさが分かる合成画像を作成するために、ライトによる測定作業中の動画を解析する。
重畳部23は、患部領域402の抽出を行う際に用いた画像データに対応する画像に対して、患部領域402の抽出結果を示す情報、患部領域402のサイズに関する情報などを重畳する。
第2出力部25は、抽出部22により抽出された患部領域402を示す情報、解析部24により解析された患部領域402のサイズに関する情報、重畳部23により得られた画像データ(情報が重畳された画像)などを、撮像装置2などの外部機器に出力する。また、第2出力部25は、ポケット領域の大きさが分かる合成画像を外部機器に出力することもできる。
読み取り部30は、バーコードタグ403を撮像した画像から、バーコードタグ403に描かれた1次元バーコード(不図示)を読み取り、被検体401を識別する識別情報(例えば被検体ID)を取得する。なお、読み取り部30が読み取る対象は、QRコード(登録商標)などの2次元コードや数値、文字であってもよい。
認識処理部31は、読み取り部30が読み取った被検体ID(識別情報)を、あらかじめ登録された被検体IDと照合し、被検体401の名前を取得する。
保存部26は、患部領域402を撮像した画像(患部画像)、患部領域402のサイズに関する情報と、被検体401の被検体ID(識別情報)、被検体401の名前、患部画像の撮影日時などに基づくレコードを生成し、画像処理装置3に記録する。
次に、撮像装置2のハードウェア構成の一例を図5に示す。撮像装置2は、AF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217、通信部218、システム制御部219、記憶部220、外部メモリ221、表示部222、操作部223、共通バス224を有するカメラである。
AF制御部225は、撮像信号(映像信号)の高周波成分を抽出し、これが最大になるレンズ位置(レンズ212に含まれるフォーカスレンズの位置)を探索して、フォーカスレンズを制御し、自動的に焦点を調節する。このフォーカス制御方式は、TV-AF又はコントラストAFとも称され、高精度な合焦が得られる特徴がある。また、AF制御部225は、焦点の調節量またはフォーカスレンズの移動量に基づいて被写体までの距離を取得して出力する。なお、フォーカス制御方式はコントラストAFに限ったものではなく、位相差AFや、その他のAF方式でもよい。図3のAF部10はAF制御部225が動作することで実現される。
撮像部211は、レンズ212、シャッタ213、イメージセンサ214を有する。図3の撮像装置2の撮像部11は撮像部211が動作することで実現される。レンズ212は、イメージセンサ214に被写体の光学像を結像する。イメージセンサ214は、光学像を電気信号に変換するCCDやCMOS素子等の電荷蓄積型の固体イメージセンサで構成される。撮像部211は、レンズ212内に、露出量を調節するための絞り値を決定する絞りを備える。シャッタ213は、開閉動作によりイメージセンサ214への露出や遮光を行い、シャッタ速度を制御する。なお、シャッタは機械シャッタに限ったものではなく電子シャッタを用いてもよい。CMOSセンサを用いた撮像素子では、電子シャッタは、画素毎、或いは、複数画素からなる領域毎(例えば、各ライン毎)に、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、リセット走査を行った画素毎或いは領域毎に、所定の時間を経過してから信号を読み出す走査を行う。
ズーム制御部215は、レンズ212に含まれるズームレンズの駆動を制御する。ズーム制御部215は、システム制御部219からの指示に従ってズームモータ(不図示)を介してズームレンズを駆動する。これにより変倍が行われる。
測距システム216は、被写体までの距離を取得するユニットである。測距システム216は、AF制御部225の出力に基づいて距離情報を生成してもよい。各々が表示部222の画面(表示面)内の1つ以上の画素からなる複数のブロックが設定されている場合には、測距システム216は、AFをブロック毎に繰り返し動作させることでブロック毎の距離を検出する。なお、測距システム216として、TOF(Time Of Flight)センサを用いたシステムを用いてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体で反射された波である反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。さらに、測距システム216には、受光素子にPSD(Position Sensitive Device)を用いたPSD方式などを用いてもよい。図3の撮像装置2の情報生成部13は測距システム216が動作することで実現される。
画像処理部217は、イメージセンサ214から出力されたRAW画像データに画像処理を施す。画像処理部217は、撮像部211から出力された画像(RAW画像データ)、あるいは後述する記憶部220に記録されている画像に対して、ホワイトバランス調整、ガンマ補正、色補間またはデモザイキング、フィルタリング、など、様々な画像処理を行う。また、画像処理部217は、撮像部211が撮像した画像に対して、JPEGなどの規格で、圧縮処理を行う。図3の撮像装置2の画像処理部12は画像処理部217が動作することで実現される。
通信部218は、撮像装置2内の各構成が、無線のネットワーク(不図示)を介して、画像処理装置3などの外部機器と通信を行うための通信インターフェースである。図3の撮像装置2の出力部15と第2取得部16は通信部218が動作することで実現される。ネットワークの具体的な一例としては、Wi-Fi(登録商標)規格に基づくネットワー
クが挙げられる。なお、Wi-Fi(登録商標)を用いた通信はルーターを介して実現されてもよい。また、通信部218はUSBやLANなど有線の通信インターフェースにより実現されてもよい。
システム制御部219は、CPU(Central Processing Unit)を有し、記憶部220内に記録(格納)されたプログラムに従って撮像装置2の各部を制御する(全体制御)。例えば、システム制御部219は、AF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217等を制御する。
記憶部220は、撮像装置2の動作に必要な各種設定情報(撮像時のピント位置の情報など)や、各種画像(撮像部211が撮像した画像や画像処理部217の処理を経た画像など)などを一時的に記憶する。記憶部220は、通信部218が画像処理装置3と通信して受信した画像データや解析データ(被写体のサイズに関する情報など)などを一時的に記憶してもよい。記憶部220は、フラッシュメモリ、SDRAM等の書き換え可能な不揮発性のメモリによって構成される。
外部メモリ221は、撮像装置2本体に装填自在、または内部に固定された不揮発性の記憶媒体であり、例えば、SDカードやCFカード等である。この外部メモリ221は、画像処理部217で処理された画像データや、通信部218が画像処理装置3と通信して受信した画像データや解析データなどを記憶する。外部メモリ221に記録された画像データや解析データなどを読み出して、撮像装置2の外部に出力することも可能である。
表示部222は、記憶部220に一時保存されている画像、外部メモリ221に保存されている画像や情報、撮像装置2の設定画面などを表示する。表示部222は、TFT(Thin Film Transistor)液晶ディスプレイ、有機ELディスプレイ、EVF(電子ビューファインダ)などである。図3の撮像装置2の表示部14は表示部222が動作することで実現される。
操作部223は、ユーザー操作を受け付ける受付部であり、例えば、撮像装置2に備わったボタンやスイッチ、キー、モードダイアルなどを含む。操作部223は、表示部222に兼用されるタッチパネルなどを含んでもよい。ユーザーによる種々のモード設定や撮影動作などの指令は、操作部223を経由して、システム制御部219に伝わる。
共通バス224には、前述のAF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217、通信部218、システム制御部219、記憶部220、外部メモリ221、表示部222、操作部223、が接続されている。共通バス224は各ブロック間で信号の送受信を行うための信号線である。
次に、画像処理装置3である情報処理装置のハードウェア構成の一例を図6に示す。画像処理装置3は、中央演算処理部(CPU)310、記憶部312、入力部313(マウス、キーボード、等)、出力部314(ディスプレイ等)、補助演算部317を有するコンピュータである。CPU310は演算部311を備える。記憶部312は主記憶部315(ROM、RAM等)と補助記憶部316(磁気ディスク、SSD(Solid State Drive)等)とから構成される。入力部313と出力部314の一部はWi-fi通信のための無線通信モジュールとして構成される。
補助演算部317は、CPU310の制御の下で用いられる補助演算用ICである。補助演算部317には、一例としてGPU(Graphic Processing Unit)を用いることができる。GPUは、画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとし
ても用いられることが多い。そして、深層学習を行う処理においても、GPUが用いられることが一般的である。なお、補助演算部317として、FPGA(field-programmable gate array)やASICなどを用いてもよい。
CPU310が備える演算部311は、記憶部312に記録(格納)されたプログラムを実行することで図3の画像処理装置3の取得部21、抽出部22、重畳部23、解析部24、第2出力部25、保存部26、読み取り部30、認識処理部31として機能する。さらに、演算部311は処理を実行する順番を制御する。
なお、画像処理装置3が備えるCPU310および記憶部312は1つであってもよいし複数であってもよい。すなわち、少なくとも1以上の処理部(CPU)と少なくとも1つの記憶部とが接続されており、少なくとも1以上の処理部が少なくとも1以上の記憶部に記録されたプログラムを実行した場合に、画像処理装置3は、上記の各部として機能してもよい。なお、処理部はCPUに限定されるものではなく、FPGAやASIC等であってもよい。
次に、図7のフローチャートを用いて、実施例1に係る画像処理システム1の動作について説明する。図7のフローチャートにおいて、撮像装置2の処理は、ROM(記憶部220の一部)に記録されたプログラムをRAM(記憶部220の一部)に展開してシステム制御部219が実行することで実現する。同様に、画像処理装置3の処理は、ROM(主記憶部315の一部)に記録されたプログラムをRAM(主記憶部315の一部)に展開してCPU310が実行することで実現する。図7のフローチャートでは、潰瘍面の褥瘡評価として、動画撮影した画像データの1つ(1フレーム)を解析して潰瘍面のSize測定を実施する。また、ポケットの大きさが分かるような合成画像を画像処理装置3で作成して、撮像装置2に送信している。なお、図7の処理は、撮像装置2と画像処理装置3の電源が入り、撮像装置2と画像処理装置3を互いに接続するための操作が行われると開始する。
ステップS701とステップS721では、撮像装置2と画像処理装置3は、互いに通信可能に接続するための接続処理を行う。例えば、撮像装置2のシステム制御部219は、通信部218を用いて、無線LAN規格であるWi-fi規格のネットワーク(不図示)に接続する。画像処理装置3のCPU310も、入力部313や出力部314を用いて同じネットワークに接続する。そして、ステップS721にてCPU310は接続する撮像装置の探索処理を行い、ステップS701にてシステム制御部219は探索処理に対する応答処理を行う。探索処理には、ネットワークを介して機器を探索(検索)する種々の機器探索技術等を用いることができる。例えば、UPnP(Universal Plug and Play)が用いた探索処理が行われ、個々の装置はUUID(Universally Unique IDentifier)を用いて識別される。
ステップS702では、撮像装置2のシステム制御部219は、撮像部211を用いて、被検体401のバーコードタグ403を撮影する。バーコードタグ403には被検体401(患者)を識別する被検体ID(患者ID)が含まれる。バーコードタグの撮影の後に患部の撮影をすることで、撮影日時などで撮影順序を管理し、バーコードタグの画像から次のバーコードタグの画像の手前までの画像を、同一被検体の画像として、被検体IDにより識別できるようになる。
その後、撮像装置2のシステム制御部219は、撮像部211や表示部222を用いて、被検体401のライブ映像を表示部222に表示するライブビュー処理を行う。ライブビュー処理では、撮像装置2は、ステップS703~S710の処理を行う。ライブビュー処理に伴い、画像処理装置3は、ステップS722~S726の処理を行う。
ステップS703では、撮像装置2のシステム制御部219は、AF制御部225を用いて、被検体401に合うように焦点を調節する(AF処理)。ここでは、AF処理において、表示部222の画面を複数のブロックに分割し、所定のブロックでAFを行うとする。具体的には、画面の中央に患部領域402が配置されるように撮像装置2を構え、画面の中央に位置するブロックでAFを行う。また、AF制御部225は、焦点の調節量またはフォーカスレンズの移動量から被検体401のAFエリア(AFで焦点が合った部分)までの距離を出力し、システム制御部219はその距離を取得する。
ステップS704では、撮像装置2のシステム制御部219は、撮像部211を用いて、被検体401の患部領域402を撮像する。
ステップS705では、撮像装置2のシステム制御部219は、画像処理部217を用いて、ステップS704にて取得した画像を現像し、現像後の画像をJPEGなどの規格で圧縮し、得られたJPEG画像のリサイズを実施する。ステップS705にて生成された画像は後述するステップS707で画像処理装置3に無線通信により送信される。送信する画像のサイズが大きいほど無線通信に時間がかかるため、許容される通信時間を考慮してリサイズ後の画像サイズが選択される。さらに、ステップS705にて生成された画像は、後述するステップS723にて画像から患部領域402を抽出する抽出処理の対象とされる。リサイズ後の画像サイズは、抽出処理の処理時間および抽出精度に依存するため、これらの要件も考慮して選択される。また、ステップS705はライブビュー処理の一部であるため、ステップS705の処理時間が長いとライブ映像のフレームレートが低くなり、使い勝手に悪影響を及ぼす。このことから、ライブビュー処理中でない本撮影時の画像処理(リサイズ)に比べて、同じか小さい画像サイズでリサイズを行うことが望ましい。ステップS705では、720ピクセル×540ピクセル且つ8ビットRGBカラーで、データサイズがおよそ1.1メガバイトとなるようにリサイズを行うとする。なお、リサイズ後の画像サイズ、データサイズ、ビット深度、色空間などは、特に限定されない。
ステップS706では、撮像装置2のシステム制御部219は、測距システム216を用いて、被写体までの距離に関する距離情報を生成する。具体的には、ステップS703でAF制御部225が出力した距離に基づいて距離情報を生成する。
ステップS707では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS705で生成した画像(画像データ)と、ステップS706で生成した距離情報とを画像処理装置3に送信(出力)する。なお、初回送信時に、システム制御部219は、ステップS702で撮影したタグ情報画像を一回だけ画像処理装置3に送信する。
ステップS722では、画像処理装置3のCPU310は、入力部313を用いて、ステップS707で撮像装置2が送信した画像(患部領域402の画像)と距離情報(画像に映っている被写体(患部領域402)に対応する距離情報)を受信(取得)する。なお、初回受信時に、CPU310は、ステップS703で撮影されたタグ情報画像を一回だけ受信する。
ステップS723では、画像処理装置3のCPU310は、ステップS722で取得した画像から被検体401の患部領域402を抽出する。ここでは画像解析により抽出可能な潰瘍面のみの領域分割(領域抽出)を行う。領域分割の手法として、深層学習による意味的領域分割を行うとする。すなわち、あらかじめ学習用のコンピュータ(不図示)に複数の実際の褥瘡患部の画像を教師データとしてニューラルネットワークのモデルを学習させて学習済モデルを生成する。そして、CPU310は生成された学習済モデルに基づい
て入力画像から褥瘡のエリアを推定する。また、ニューラルネットワークのモデルとして、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク FCN(Fully Convolutional Network)を適用したとする。深層学習の推論は、積和演算の並列実行を得意とするGPU(補助演算部317に含まれる)を用いて行われる。なお、推論処理はFPGAやASICなどにより実行されてもよい。なお、他の深層学習のモデルを用いて領域分割を実現してもよい。また、セグメンテーション手法は深層学習に限らず、例えば、グラフカットや領域成長、エッジ検出、統治分割法等を用いてもよい。
ステップS724では、画像処理装置3のCPU310は、ステップS723で抽出した潰瘍面領域の画像サイズ(画像上でのサイズ)を変換することで、潰瘍面領域の実サイズ(実際のサイズ)に関する情報を解析(取得)する。潰瘍面領域の画像サイズは、ステップS722で取得した画像の画角もしくは画素サイズに関する情報、および、ステップS722で取得した距離情報に基づいて、実サイズに変換する。
図8を用いて潰瘍面領域の面積(実サイズ)の計算方法について説明する。一般的なカメラは図8のようなピンホールモデルとして扱うことができる。入射光800はレンズ212のレンズ主点を通り、イメージセンサ214の撮像面に入射する。撮像面からレンズ主点までの距離が焦点距離Fである。ここで、薄レンズ近似を用いた場合には、前側主点と後側主点の2つの主点は一致するとみなせる。また、ピンホールモデルでは、レンズ212が厚みのない単一のレンズで表されるが、実際のレンズは、例えば、フォーカスレンズを含む複数の厚みのあるレンズ、またはズームレンズで構成される。そして、イメージセンサ214の撮像面に像が結像するようにレンズ212のフォーカスレンズを調整することで、被写体801に合うように焦点が調節される。さらに、ズームレンズの場合は、焦点距離Fを変更することで画角θが変化する。このとき、撮像装置2の画角θと被写体距離Dの関係から幾何学的に合焦面における被写体801の幅Wが決定し、被写体801の幅Wは三角関数を用いて計算できる。すなわち、被写体801の幅Wは、フォーカス位置とズーム量をパラメーターとする画角θと、被写体距離Dとの関係によって決定する。そして、被写体801の幅Wをイメージセンサ214の1ラインのピクセル数で除算することにより、画像の1ピクセルに対応する合焦面上の長さが得られる。さらに、1ピクセルに対応する合焦面上の長さから、1ピクセルに対応する合焦面上の面積が得られる。潰瘍面領域の面積は、ステップS723で抽出した潰瘍面領域のピクセル数に、1ピクセルに対応する合焦面上の面積を乗算することで算出できる。
ステップS725では、画像処理装置3のCPU310は、ステップS722で取得した画像に対して、潰瘍面領域の面積(実サイズ)に関する情報(ステップS724の処理結果)を重畳する。なお、潰瘍面領域の抽出結果に関する情報を重畳してもよい。
図9を用いて潰瘍面領域の面積(実サイズ)に関する情報が重畳される様子ついて説明する。図9の画像910は重畳処理前の画像で、被検体401の潰瘍面領域(患部領域402)を含んでいる。そして、画像913は重畳処理後の画像で、推定した面積値を示す白色の文字列912を黒色の背景に上に記述したラベル911が、画像913の左上隅に重畳されている。潰瘍面領域の抽出結果に関する情報としては、例えば、潰瘍面領域を示す枠などが重畳される。
ステップS726では、画像処理装置3のCPU310は、出力部314を用いて、潰瘍面領域の実サイズに関する情報(ステップS724の処理結果)を撮像装置2に送信(出力)する。具体的には、CPU310は、ステップS725の重畳処理後の画像(重畳処理済画像)を、撮像装置2に無線通信により出力する。なお、潰瘍面領域の抽出結果に関する情報を送信してもよい。
ステップS708では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS726で画像処理装置3が送信した情報(重畳処理済画像)を受信(取得)する。
ステップS709では、撮像装置2のシステム制御部219は、ステップS708で受信した情報(重畳処理済画像)を表示部222に表示する。これにより、撮像部211で撮像されたライブビュー画像が表示されると共に、潰瘍面領域の実サイズに関する情報がライブビュー画像に対して重畳表示される。なお、潰瘍面領域の抽出結果に関する情報と潰瘍面領域の実サイズに関する情報との少なくとも一方がライブビュー画像に重畳表示されればよく、画像処理装置3から撮像装置2に情報が送信され、撮像装置2で重畳処理が行われてもよい。
ステップS710では、撮像装置2のシステム制御部219は、操作部223に対する本撮影操作(本撮影を指示する操作)があったか否かを判定する。本撮影操作があった場合はライブビュー処理を抜けてステップS711に進み、そうでない場合はステップS703に戻ってライブビュー処理を繰り返す。
ステップS711では、撮像装置2のシステム制御部219は、撮影対象の褥瘡にポケットがあるか否か、具体的には図2を用いて説明したようなライトによるポケット評価が必要か否かを判定する。ポケットがあるか否か(ライトによるポケット評価が必要か否か)は、ユーザー(評価者)が操作部223を用いて指定してもよいし、システム制御部219がライブビュー画像を解析して判定してもよい。ポケットがある場合(ライトによるポケット評価が必要な場合)はステップS712に進み、そうでない場合はステップS713に進む。
ステップS712では、撮像装置2のシステム制御部219は、撮像部211を用いて、ライトによる測定作業(図2)の様子を動画で撮影する。さらに、システム制御部219は、静止画(例えば、ライトによる測定作業でライトがポケットに挿入される前の静止画)も撮影する。なお、実施例1では、ライトの移動経路を画像解析によりポケット形状を検知するため、マジックペン等を用いたマーキングが省略される。ここで、ステップS712で取得できる動画の各フレームを模式的に表したものが図10である。図10では複数のフレームが時系列的に並んでおり、最初のフレーム1000には、褥瘡の潰瘍面1001と、ライトから発せられた光1002とが映っている。また、フレーム1003、1004、1005と時間が進むにつれて、光1002の位置が移動している。
ステップS713では、撮像装置2のシステム制御部219は、撮像部211を用いて、ポケット無しの褥瘡を評価するための静止画を撮影する。具体的には、ステップS703と同様のAF処理、ステップS704と同様の撮像、ステップS705と同様の画像処理(現像やリサイズなど)を行う。ステップS713は、ライブビュー処理の一部ではなく、本撮影の処理である。このため、ステップS713では、短い処理時間よりも、大きな画像サイズと褥瘡サイズ計測の精度とを優先し、ステップS705で得られる画像と同等かそれ以上の画像サイズに画像をリサイズする。ここでは1440ピクセル×1080ピクセル且つ4ビットRGBカラーで、データサイズがおよそ4.45メガバイトとなるようにリサイズを行うとする。なお、リサイズ後の画像サイズ、データサイズ、ビット深度、色空間などは、特に限定されない。
ステップS714では、撮像装置2のシステム制御部219は、通信部218を用いて、本撮影で得た画像(ステップS712で撮影した動画と静止画またはステップS713で撮影した静止画)の画像データを画像処理装置3に送信(出力)する。システム制御部
219は、ステップS706で生成した距離情報(被写体距離)も画像処理装置3に送信する。本撮影時に距離情報を再度生成し、本撮影時の距離情報を画像処理装置3に送信してもよい。
ステップS727では、画像処理装置3のCPU310は、入力部313を用いて、ステップS714で撮像装置2が送信した画像と距離情報を受信(取得)する。
ステップS728~S730では、画像処理装置3のCPU310は、褥瘡の潰瘍面の大きさを測定する。ステップS728では、ステップS723と同様に、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)から被検体401の潰瘍面領域を抽出する。なお、動画を取得した場合には、動画の1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択して、選択したフレームから潰瘍面領域を抽出してもよい。
ステップS729では、ステップS724と同様に、画像処理装置3のCPU310は、ステップS728で抽出した潰瘍面領域の実サイズに関する情報を、ステップS727で取得した距離情報に基づいて解析(取得)する。
ステップS730では、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)を用いて潰瘍面の評価を実施する。なお、ステップS712で撮影した動画を取得した場合は、当該動画の複数のフレームの1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択して用いてもよい。
潰瘍面の評価について具体的に説明する。画像処理装置3のCPU310は、ステップS728で抽出した潰瘍面領域の実サイズに関する情報を、ステップS727で取得した距離情報に基づいて解析し、潰瘍面領域の長径と短径、および矩形面積を算出する。褥瘡の評価指標の“DESIGN-R(登録商標)”の中で、褥瘡のサイズは長径と短径の積で評価することが定められている。実施例1に係る画像処理システム1では、長径と短径の解析を行うことで、“DESIGN-R(登録商標)”に従った評価結果との互換性を有する評価結果を得ることができる。“DESIGN-R(登録商標)”には厳密な定義がないため、数学的には長径と短径の複数の算出方法が考えられる。例えば、潰瘍面領域に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出し、Minimum bounding rectangleの長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出することができる。長径として最大のキャリパー長である最大フェレ径を、短径として、最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。長径と短径の計算方法は、従来の計測結果との互換性に基づいて任意の方法を選択することができる。なお、潰瘍面領域の評価はライブビュー処理中には行われない。ライブビュー処理中には、患部領域402(潰瘍面領域)の抽出結果が確認できればよく、潰瘍面領域の評価を省くことで、画像解析の処理時間を低減し、ライブビューのフレームレートを上げ、撮像装置2の利便性を上げることができる。
ステップS731の処理は、ステップS727で動画(ステップS712で撮影した動画)を取得した場合に行われる。ステップS731では、画像処理装置3のCPU310は、褥瘡のポケットの大きさが分かる合成画像を作成するために、取得した動画(画像)を解析して、当該動画(画像)に関する各種情報を取得する。具体的には、ライトが移動した軌跡に関する情報を取得する。なお、動画に関する情報の取得方法は特に限定されず、例えば画像処理装置3は外部から情報を取得してもよい。
図11を用いて、画像処理装置3が実行するステップS731の動画解析処理を説明す
る。図11は、図2と同様に、ポケット1100、ポケット1100の入り口部である潰瘍面1101、ライト先端の経路1102、ポケット1100の最深部(端)に到達した時点でのライト先端の位置に対応する点1103を示す。ポケット1100として、皮下部分でみえない面を概念的に図示している。経路1102上の点は、複数のタイミングにそれぞれ対応する、ライト先端の複数の位置を示す。
ステップS731の動画解析処理では、CPU310は、上記取得した情報より、ポケット最深部に到達した時点でのライト先端の位置(点1103)を検出する。この点(位置)は、「患部内を移動するライトの軌跡のうち、患部の径方向の端の点」や、「患部の領域と患部とは異なる領域との境界の位置」とも言える。例えば、動画においてライトが患部内を径方向に移動した際の頂点(ポケットに対するライトの挿入から引き抜きに変わる点)を、端の点として検出できる。図11の上側には、ポケットの測定作業の概要が時間列で4段階に分割して示されており、各段階において、点1103が3つ検出されている。図11の下側には、検出された全ての点1103(12個の点1103)が示されている。動画解析処理では、これらの点1103から患部の外周に関する情報を取得する。具体的には、これらの点1103を合成した(結んだ)線1104、例えばスプライン曲線やベジェ曲線で結んだ滑らかな自由曲線を、ポケット外周として判断(推定)する。そして、得られた線1104の形状解析により、ポケット形状を判断する。患部の外周に関する情報(患部の外周の形状、患部の面積、患部の長径、患部の短径など)は、表示などによってユーザーに提供したり、データとして他の装置に提供したりできる。
図12は、ライトによるポケット測定作業中のライブビュー表示の例であり、検出したマーキング位置(ポケットの最深部に到達した時点でのライト先端の位置)や、マーキング位置から生成(形成)したポケット形状を表示する。
画面1201は、ライト1202の先端1203がポケットの最深部に到達した時点でのライブビュー表示の画面である。画面1201から、ライト1202の先端1203がポケット内部で光っていることがわかる。位置1204は、ライブビューで撮像された動画におけるライト1202の動きを解析して得られたマーキング位置であり、画面1201では4点のマーキング位置1204が表示されている。線1205は、これら4点のマーキング位置1204を解析して検出された線(ポケット形状の一部)を示す。
画面1211は、画面1201の状態の後、ライト1202の先端1203がポケットの最深部から少し引き抜かれた時点でのライブビュー表示の画面である。この時、画面1201におけるライト1202の先端1203の位置が、動画解析によりマーキング位置1204として新たに得られる。このように、動画解析で新たに得られたマーキング位置1204をすぐにライブビュー画面上に表示することで、ポケット測定作業者は、ポケット周辺形状や、ポケット測定作業を正しく行えているかを確認しながら作業を進めることができる。動画解析でマーキング位置1204が新たに表示された場合に、マーキング位置1204を点滅させたり、音を出したりして、新たなマーキング位置1204が追加されたことを知らせるようにしてもよい。ライト1202によるポケット測定作業中に動画解析で得られるマーキング位置1204とポケット形状1205をライブビュー表示することで、所望のマーキング位置を追加したり、明らかに正しくないマーキング位置を削除したりすることができる。
図13は、ライトによるポケット測定作業終了後のライブビュー表示の例であり、検出したマーキング位置や、マーキング位置から生成したポケット形状を表示する。さらに、編集操作によりマーキング位置の追加表示などが可能である。
画面1301は、ポケット測定作業終了時(ポケット測定作業終了直後)でのライブビ
ュー表示の画面である。動画解析により得られたマーキング位置1204とポケット形状1205が表示されている。さらに、画面1301と隣接して、マーキング位置を編集するマーキング位置編集メニュー1302が表示されている。マーキング位置編集メニュー1302は複数の項目1303を含み、ユーザーは複数の項目1303のいずれかを選択することができる。ここでは、複数の項目1303は、「追加」と「移動」と「削除」の3つの項目を含むとする。画面1301では、「追加」が選択されている。
「追加」が選択されている状態で、ユーザーは、任意の位置をマーキング位置(動画解析で得られた位置ではない)として追加することができる。画面1311は、ユーザーが「追加」を選択して、追加するマーキング位置1312を指定した時点でのライブビュー表示の画面である。画面1311に示すように、ユーザーがマーキング位置1312を指定すると、当該マーキング位置1312が追加表示される。さらに、追加後の複数のマーキング位置を解析した形状に、ポケット形状1205が更新される。
なお、「移動」が選択されている状態では、ユーザーは、画面上のマーキング位置を任意に選択してドラッグ&ドロップすることで、選択したマーキング位置を移動させることができる。この場合も、移動後のマーキング位置を解析した形状に、ポケット形状1205が更新される。また、「削除」が選択されている状態では、ユーザーは、画面上のマーキング位置を任意に指定(選択)することで、指定したマーキング位置を削除することができる。この場合も、削除後の残りのマーキング位置を解析した形状に、ポケット形状1205が更新される。このように、操作に応じた変更後のマーキング位置を結んだ形状に、ポケット形状1205が更新される。
図7の説明に戻る。ステップS732では、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)に対して、患部領域の抽出結果を示す情報および患部領域のサイズに関する情報を重畳する。ポケット有りの褥瘡の場合には、ステップS725で重畳される情報だけでなく、ステップS731における動画解析の結果も重畳する。なお、ステップS727で動画を取得した場合(ポケット有りの褥瘡の場合)は、当該動画の1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択し、当該1フレームに情報を重畳してもよい。
図14(A)~14(C)を用いて、ステップS732の重畳処理について説明する。ここでは、患部領域の抽出結果を示す情報として長径と短径を含む情報が重畳されるとする。また、ポケット周辺のマーキング位置、ポケット形状、および、患部領域のサイズに関する情報が重畳されるとする。図14(A)~14(C)は、ステップS732の重畳処理により得られる重畳画像(合成画像)の一例を示す。
図14(A)は、ポケット無しの褥瘡の場合の重畳画像の一例を示す。図14(A)では、潰瘍面領域のサイズ(面積値)を示す白色の文字列1402を黒色の背景に上に記述したラベル1401が、重畳画像1400の左上隅に重畳されている。潰瘍面領域の長径を示す白色の文字列1404と、潰瘍面領域の短径を示す白色の文字列1405とを黒色の背景に上に記述したラベル1403が、重畳画像1400の右上隅に重畳されている。“DESIGN-R(登録商標)”のSize評価の指標を示す白色の文字列を黒色の背景に上に記述したラベル1406が、重畳画像1400の左下隅に重畳されている。そして、重畳画像1400の右下隅にスケールバー1407が重畳されている。
図14(B)は、ポケット有りの褥瘡の場合の重畳画像の一例を示す。図14(B)の重畳画像1410でも、図14(A)と同様に、潰瘍面領域の長径と短径を示すラベル1403、“DESIGN-R(登録商標)”のSize評価の指標を示すラベル1406、及び、スケールバー1407が重畳されている。但し、図14(B)の重畳画像141
0では、図14(A)のラベル1401の代わりに、ラベル1411が重畳されている。ラベル1411には、潰瘍面領域の面積値を示す文字列1402だけでなく、ポケットの面積値を示す文字列1412も記述されている。ポケットの面積値も、潰瘍面領域の面積値と同様に、被写体距離などに基づいて算出される。さらに、図14(B)の重畳画像1410では、ポケット領域1413と潰瘍面領域1414とが異なる色で塗りつぶされている。このように色分けすることで、ポケット領域1413と潰瘍面領域1414を視覚的に正確に判別することが可能となる。
なお、ポケット無しの褥瘡の場合(図14(A)の場合)に、ポケットの面積値を示す文字列(図14(B)の文字列1412)の代わりに、ポケットが存在しないことを示す文字列(「Pocket 0」や「No Pocket」等)を重畳してもよい。また、領域の輪郭を示す枠(線)の重畳により、ポケット領域と潰瘍面領域を視覚的に正確に判別可能としてもよい。ポケット無しの褥瘡の場合(図14(A)の場合)にも、潰瘍面領域を塗りつぶしたり、潰瘍面領域の輪郭を示す枠を重畳したりしてよい。また、撮像装置の操作によって、ポケット領域のみの表示、潰瘍面領域のみの表示、及び、ポケット領域と潰瘍面領域の両方の表示を切り替えられるようにしてもよい。そのようにすることで、ポケットと潰瘍面の一方のみの領域に注目して、画像を確認することが可能となる。
図14(C)は、ポケット有りの褥瘡の場合の重畳画像の他の例を示す。図14(C)の重畳画像1420でも、図14(B)と同様に、ラベル1411、ラベル1403、ラベル1406、及び、スケールバー1407が重畳されている。図14(C)では、ポケット領域と潰瘍面領域の塗りつぶしは行われておらず、ポケット周辺の複数のマーキング位置を示す複数の点1421と、ポケット形状を示す線1422とが重畳されている。ここで、Minimum bounding rectangleを用いて長径と短径の算出したとする。図14(C)の重畳画像1420では、潰瘍面領域1414を囲むMinimum bounding rectangleを表す矩形枠1423が重畳されている。ポケット無しの褥瘡の場合(図14(A)の場合)にも、Minimum bounding rectangleを表す矩形枠を重畳してよい。
図7の説明に戻る。ステップS733では、画像処理装置3のCPU310は、出力部314を用いて、ステップS732で作成した合成画像(重畳画像)を撮像装置2に送信する。なお、患部領域に関する情報が画像処理装置3から撮像装置2に送信され、撮像装置2で合成画像が作成されてもよい。
ステップS734では、画像処理装置3のCPU310は、ステップS702で撮影された画像内に含まれる1次元バーコード(不図示)から、被検体を識別する被検体IDを読み取る。なお、ステップS702で撮影された画像の伝送タイミングは特に限定されない。例えば、ステップS714で撮像装置2がステップS702の撮影画像を画像処理装置3に出力し、ステップS727で画像処理装置3がステップS702の撮影画像を撮像装置2から取得してもよい。
ステップS735では、画像処理装置3のCPU310は、ステップS734で読み取った被検体IDを、あらかじめ登録された被写体IDと照合し、現在の被検体の名前を取得(判断)する。現在の被検体の名前や被検体IDが未登録の場合には、CPU310は、現在の被検体の名前や被検体IDを、ユーザーに登録させて取得する。
ステップS736では、画像処理装置3のCPU310は、患部の評価結果(ステップS730やステップS731の解析結果)などを含む被検体情報を、ステップS735で判断した被検体のデータとして補助記憶部316に記録する。現在の被検体(被検体ID)に紐づくデータが記録されていない場合は、被検体情報を新規作成し、現在の被検体に
紐づくデータ(被検体情報)が記録されている場合は、被験者情報を更新する。
図15を用いて、画像処理装置3に保存する被検体情報1500のデータ構成を説明する。被検体情報1500は、被検体ID1501、被検体の名前1502、被検体ID1501と名前1502に対応する患部情報1510を含む。患部情報1510では撮影日時毎に情報が管理されている。具体的には、患部情報1510は、日付情報1503、患部画像1504、患部評価情報1505、及び、ポケット評価情報1506の組み合わせを1つ以上含む。日付情報1503は、患部の撮影日を示す情報であり、患部画像1504は、患部の評価に使用した画像(患部を撮影した画像)である。患部評価情報1505は、潰瘍面とポケットの両方を含む患部を評価した値を含む。図15の例では、患部評価情報1505は、潰瘍面とポケットの両方を含む患部領域のSize、患部領域の長径、患部領域の短径、及び、DESIGN-Rの評価値を含む。ポケット評価情報1506は、ポケットを評価した値を含む。図15の例では、ポケット評価情報1506は、ポケットの状態を示すポケット状態情報、ポケットのSize、ポケットの長径、及び、ポケットの短径を含む。例えば、潰瘍面を全て包含するポケットありの褥瘡では「ポケット有 皆外包」、潰瘍面に部分的に重なるポケットありの褥瘡では「ポケット有 部分外包」、ポケット無しの褥瘡では「ポケット無」の文字情報が、ポケット状態情報として登録される。ポケット状態情報は、ユーザーによる情報入力で登録されてもよいし、画像解析により自動で登録されてもよい。このように、患部評価情報1505とポケット評価情報1506は区別して生成(算出)されて記録される。被検体情報1500は、表示などによってユーザーに提供したり、データとして他の装置に提供したりできる。
ステップS715では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS733で画像処理装置3が送信した合成画像(重畳画像)を受信(取得)する。
ステップS716では、撮像装置2のシステム制御部219は、ステップS715で受信した合成画像を表示部222に表示する。
次に、図16(A)のフローチャートを用いて、図7のステップS731の動画解析処理の一例について説明する。ここでは、動画解析処理により、褥瘡のポケットの大きさが分かる合成画像を生成する例を説明する。この場合は、図7のステップS732において、図16(A)のフローチャートで生成された合成画像に情報を重畳してもよい。
ステップS1600では、画像処理装置3のCPU310は、動画の複数のフレームの中から基準となるフレーム(基準画像)を選択する。後述するステップS1605では、この基準画像に対して、ライト領域(ライトの発光領域;ライト先端の位置;光が発せられる位置)を合成する。ライトでの計測(図2)中のフレームには人の手やライトが映ってしまっているため、そのような余計なものが映っていない計測前のフレームを基準画像として選択するのが望ましい。例えば、ライトをポケットに入れる前に動画撮影を開始し、動画の先頭フレームを基準画像として選択することで、余計なものが映っていない基準画像を得ることができる。また、予めライトの形状と色情報を取得しておき、ライトに該当する領域が動画のフレーム内に含まれているかどうかを解析して、ライトに該当する領域が含まれていないフレームを基準画像として選択してもよい。
ステップS1601では、画像処理装置3のCPU310は、基準画像から潰瘍面領域を検出する。ここで潰瘍面領域を検出するのは、潰瘍面領域の検出結果を基準としてライト領域を合成するためである。撮像装置2と被写体がライトでの計測中に全く動かなければ、潰瘍面領域を基準にしてライト領域を合成する必要はないが、現実的には難しいため、潰瘍面領域などの基準領域を設けてライト領域を合成する。潰瘍面領域の検出は、図7
のステップS728と同様の手法で行う。ここで、ライトでの計測中は潰瘍面領域がライトや作業者の手で隠れてしまうことも考えられる。そのような場合を考慮して、例えば、図17のように潰瘍面の近くにマーカー1701,1702を配置し、配置されたマーカーを、ライト領域を合成するため基準として検出してもよい。図17の例では、計測中にマーカーが隠れてしまう場合を考慮して、2つのマーカー1701,1702を配置している。なお、マーカーは3つ以上配置してもよい。また、患者(被験者)の体部に特徴となるようなものがあれば、それを基準としてもよい。
次に説明するステップS1602~S1605の処理は、動画の全フレームに対して行われるように1フレームずつ繰り返される。ステップS1602では、画像処理装置3のCPU310は、対象画像(処理対象のフレーム)からライト領域を検出する。ここでは、ライト領域が、赤く丸いという特徴を有するとする。ステップS1602では、このような特徴を有する領域を、ライト領域として、対象画像から検出する。なお、所定のサイズ(動画中のサイズの変化が所定以内)のまま動画中で移動している赤い点をライトの位置としてもよい。ステップS1603では、対象画像から潰瘍面領域を検出する。前述した通り、潰瘍面領域を基準にしてライト領域を合成するために、潰瘍面領域を検出する必要がある。ステップS1604では、対象画像の射影変換を行う。ライトでの計測中は、被写体に対する撮像装置2の相対的な向きや位置が変わってしまう可能性があるため、射影変換を行うことで、ライト領域を正確に合成できるようにする。射影変換の具体的な方法については後述する。ステップS1605では、基準画像に対して射影変換後のライト領域を合成する。ステップS1602~S1605の処理を全てのフレームに対して行うことで、図18(A)の合成画像1800を得ることができる。もしくは、所定時間ごとのフレームを用いてライトの軌跡の点を求めてもよい。このとき、患部の端にライトが達したフレームは所定時間ごとのフレームに対応するフレームでなくても合成用の画像に含めるようにすればよい。例えば、T=0.01秒や0.02秒、0.03秒ごとのフレームの画像より、ライトの領域を合成することにより合成画像を作成する。このとき、患部に対するライトの位置を各画像から検出し、ライトの位置を示すアイテムを表示するようにしてもよい。つまり、基準画像のライトのみが実際のライトとして表示され、その他の画像のライトはライトがある位置に対応する基準画像の位置に赤い点や黒い点などのアイテムを表示するようにしてもよい。
なお、端の点が分かりやすいように、患部の径方向の端の位置のライトは他のライトとは異なる表示形態で表示するようにしてもよい。例えば、端の位置のライトは輝度を上げて合成画像を生成してもよい。もしくは、ライトの位置をアイテムで示す場合には、アイテムの色を変えて表示をしてもよい。ライトの軌跡を示すような線などを表示してもよい。このように、ユーザーが端の位置やライトの軌跡を分かりやすくすることによって、ユーザーが外周を描きやすくなる。
また、所定時間ごとでなくても、ライトが所定距離移動するごとに合成用の画像として取得するようにしてもよい。
なお、動画とともに撮影された静止画を基準画像として用いてもよいし、ステップS1601の処理結果の代わりに、ステップS728の処理結果を用いてもよい。
次に、図16(B)のフローチャートを用いて、図16(A)のステップS1604の処理(射影変換)について説明する。ステップS1610では、画像処理装置3のCPU310は、基準画像の潰瘍面領域(ステップS1601で検出された潰瘍面領域)の特徴点を抽出する。ここでは、特徴点として、潰瘍面領域外周上の任意の点を抽出するとする。ステップS1611では、ステップS1610と同様に、画像処理装置3のCPU310は、対象画像の潰瘍面領域から特徴点を抽出する。ステップS1612では、画像処理
装置3のCPU310は、ステップS1610で抽出した特徴点(基準画像の潰瘍面領域の特徴点)とステップS1611で抽出した特徴点(対象画像の潰瘍面領域の特徴点)とのマッチングを行う。このマッチングにより、基準画像と対象画像の間で互いに対応する特徴点を識別する。ステップS1613では、画像処理装置3のCPU310は、ステップS1612のマッチング結果を基にして、対象画像の潰瘍面領域が基準画像の潰瘍面領域と同一の領域(平面)になるような射影変換の逆行列を算出する。ステップS1614では、画像処理装置3のCPU310は、ステップS1613で算出した逆行列を使って、対象画像の射影変換を行う。このような射影変換を行うことで、被写体に対する撮像装置2の向きの変化を抑えた画像を得ることが可能となる。
図18(A)の合成画像1800は、図7のステップS733,S715で送受信し、ステップS716で撮像装置2に表示することができる(合成画像の提供)。その場合は、図7のステップS717にて、システム制御部219は、ポケットの外周を描画する外周描画処理を行う。図19のフローチャートを用いて、撮像装置2に合成画像1800を表示した後の外周描画処理について説明する。合成画像1800ではライトの移動軌跡が視覚的に分かるため、ポケットの領域をユーザーが簡単に把握することができる。なお、ライトの移動の軌跡に関する情報が提供できれば、提供方法は特に限定されない。
ステップS1900では、撮像装置2のシステム制御部219は、ユーザーにポケット外周の入力を促す。ポケットの外周は、撮像装置2(表示部222)の画面上をユーザーが指でなぞることで入力されてもよいし、タッチペンなどの入力デバイスを用いて入力されてもよい。図18(B)は、ユーザーがポケット外周を入力した後の表示例を示す。図18(B)の画像1810では、ライト領域の頂点(外側)に沿って、ポケット外周1811が入力されており、図18(A)の合成画像1800上にポケット外周1811が重畳表示されている。
ステップS1901では、撮像装置2のシステム制御部219は、通信部218を用いて、ポケット外周1811が描画された合成画像1810と、ポケット外周1811に関するポケット外周情報とを画像処理装置3へ送信する。
ステップS1910では、画像処理装置3のCPU310は、入力部313を用いて、ステップS1901で撮像装置2が送信した合成画像1810とポケット外周情報を受信する。
ステップS1911では、画像処理装置3のCPU310は、ステップS1910で受信した合成画像1810とポケット外周情報を基にして、ポケット領域の面積(サイズ)を算出する。ここでは、ポケット外周1811で囲まれた領域の面積から潰瘍面領域1812の面積を減算することで、ポケット領域の面積を算出するとする。すなわち、図18(C)の領域1821の部分の面積を算出する。なお、DESIGN-Rの計算方法に沿って面積を算出してもよい。
ステップS1912では、画像処理装置3のCPU310は、基準画像(合成画像1800の元となった画像)に対して、ポケット領域や、その面積(ステップS1911で算出)などの情報を重畳する。そうすることで、図14(B),14(C)に示すような合成画像が得られる。
ステップS1913では、画像処理装置3のCPU310は、出力部314を用いて、ステップS1912で作成した合成画像を撮像装置2に送信する。
ステップS1902では、撮像装置2のシステム制御部219は、通信部218を用い
て、ステップS1913で画像処理装置3が送信した合成画像を受信する。
ステップS1903では、撮像装置2のシステム制御部219は、ステップS1902で受信した合成画像を表示する。このようにすることで、患者(被検体)の皮膚の上に直接マジックでポケット領域をマーキングすることなく、ポケット領域の大きさを測定することができるようになる。
図16(A),16(B)では、射影変換を行った後にライト領域を合成することで、ライト領域の位置が正確に反映されている合成画像を作成するようにしている。別の方法として、撮影時の焦点距離を使用する方法が考えられる。ライトでのポケット領域の計測には時間がかかるため、撮影中(計測中)に患者と撮像装置2の距離が変わってしまうことが考えられる。ここで、撮影時には焦点距離情報も取得できるため、この情報を使って画像を拡大や縮小することが可能である。
撮影時の焦点距離を使用して合成画像を作成する方法について、図20のフローチャートを用いて説明する。ステップS2000は図16(A)のステップS1600と同じであり、ステップS2001はステップS1601と同じである。ステップS2002では、画像処理装置3のCPU310は、基準画像の焦点距離を取得する。ステップS2003~S2007の処理は、動画の全フレームに対して行われるように1フレームずつ繰り返される。ステップS2003では、画像処理装置3のCPU310は、対象画像の焦点距離を取得する。ステップS2004では、画像処理装置3のCPU310は、基準画像の焦点距離に合うように対象画像を拡大または縮小する。ステップS2005は図16(A)のステップS1602と同じであり、ステップS2006は図1ステップS1603と同じであり、ステップS2007はステップS1605と同じである。このように焦点距離を使うことで、ライト領域の位置が正確に反映されている合成画像を作成することができる。
図16(A),16(B),20において、撮影した動画の全フレームを対象画像として用いると、ライトをポケットに入れる前後のフレームのライト領域も合成されてしまう場合がある。そのように得られた合成画像ではライト領域の軌跡がわかりにくいため、指定した期間のフレーム(ライト領域)を削除できると使い勝手が良くなる。そのような操作が可能なUI(画面2100)を示したものが図21(A),21(B)である。
画面2100は、合成画像と、不要なフレーム(不要なライト領域)を合成画像から削除するためのコントロールアイテム2102~2104とを含む。アイテム2102は時間軸を示すスライダーバーであり、アイテム2103,2104は、不要なフレームを削除するためのスライダーである。スライダー2103,2104を左右に動かすことで、不要なフレームを削除することができる。図21(A)の状態では、スライダー2103,2104がスライダーバー2102の両端に置かれており、動画の全フレームを合成した合成画像2101が表示されている。合成画像2101では、ライトをポケットに入れる前後のフレーム(ライト領域)も合成されており、ライト領域の軌跡がわかりにくい。一方で、図21(B)の状態では、スライダー2103からスライダー2104までの範囲が図21(A)から狭められている。この場合には、スライダー2103に対応するフレームより前のフレームと、スライダー2104に対応するフレームより後のフレームとが合成されなくなる。その結果、ライトをポケットに入れる前後のフレームが合成されていない、ライト領域の軌跡がわかりやすい合成画像2111を表示することができる。このようにスライダー2103,2104の位置を調整することで、不要な期間のライト領域を合成対象外とすることが可能となる。
このように、実施例1によれば、撮像装置2でライトによるポケット測定作業を動画撮
像して、画像処理装置3で動画解析してポケット形状が分かる合成画像を作成することができる。また、その合成画像を撮像装置2に送信して、ユーザーがポケット領域を簡単に指定することができる。
[実施例2]
実施例1では、撮像装置2と画像処理装置3を別々の装置としたが、画像処理装置3の機能構成は撮像装置2に設けてもよい(撮像装置2と画像処理装置3が一体で構成されてもよい)。そのようにすることで、撮像装置2が画像処理装置3と通信するといった処理が不要となり、処理負荷を低減することができる。また、実施例1では、ポケット領域が分かる合成画像を撮像装置2に送信して、撮像装置2上でユーザーがポケット外周を入力する構成としたが、ポケット外周の入力は必ずしも撮像装置2に対し行う必要は無い。例えば、合成画像は画像処理装置3に保存しておき、画像処理装置3にディスプレイやマウスといった入出力デバイスを接続して、ユーザーが画像処理装置3にポケット外周を入力することも考えられる。また、合成画像は画像処理装置3に保存しておき、画像処理装置3とは異なる他の画像処理装置(PC、スマートフォン、タブレットなど)にユーザーがポケット外周を入力し、他の画像処理装置から画像処理装置3にポケット外周を通知することも考えられる。
[実施例3]
実施例1では、潰瘍面領域の面積算出と、ポケット領域の大きさが分かる合成画像の作成とを同じタイミング(同じフローチャート)で実施したが、それらを別々のタイミングで実施してもよい。例えば、病院の事情で、潰瘍面領域の測定と、ライトを使ったポケット領域の測定とを別々のタイミングで行うことも考えられる。そのような状況で、図14(B)の重畳画像1410(合成画像)のように潰瘍面領域とポケット領域(塗りつぶし画像)を重畳しようとしたとする。そのような場合、潰瘍面領域の測定のタイミングと、ポケット領域の測定のタイミングとの間で、測定時の患者の姿勢が大きく変わること等により、撮像装置2と患者の間の距離が変わることがある。このため、潰瘍面領域またはポケット領域を正しい大きさで重畳することができない。そのような場合は、撮影時の焦点距離を使って、片方の画像(領域)を拡大または縮小することで、正しい大きさで潰瘍面領域とポケット領域を重畳した合成画像を得ることが可能となる。
なお、潰瘍面領域の測定と、ライトを使ったポケット領域の測定とが別々のタイミングで行われたとしても、それらのタイミング間で撮影距離が変わらないようにできれば、潰瘍面領域とポケット領域の重畳が楽になる。例えば、潰瘍面領域の測定を先に行い、後日ポケット領域の測定を行う場合、同じ撮影距離で測定を行えば、潰瘍面領域とポケット領域の縮尺が同じになり、画像(潰瘍面領域とポケット領域)の重畳が楽になる。このため、潰瘍面領域の測定時の撮影距離を保持しておき、ポケット領域の撮影時は、撮影距離が潰瘍面領域の測定時(潰瘍面領域を測定するための撮影時)と同じになったタイミングで撮影を開始するように撮影制御を行うとよい。撮影が開始されたら、検査者がライトでポケット領域の測定を開始する必要もあるため、撮像装置2上に撮影が開始されたことを知らせるようにしてもよい。このように撮影開始のタイミングを自動で決定することにより、複数回の測定の間で撮影距離を合わせることが可能となる。
[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。