JP2022147595A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2022147595A JP2022147595A JP2021048907A JP2021048907A JP2022147595A JP 2022147595 A JP2022147595 A JP 2022147595A JP 2021048907 A JP2021048907 A JP 2021048907A JP 2021048907 A JP2021048907 A JP 2021048907A JP 2022147595 A JP2022147595 A JP 2022147595A
- Authority
- JP
- Japan
- Prior art keywords
- affected area
- image processing
- information
- imaging device
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 184
- 238000003672 processing method Methods 0.000 title claims 3
- 238000003384 imaging method Methods 0.000 claims abstract description 150
- 239000000284 extract Substances 0.000 claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims description 116
- 238000000034 method Methods 0.000 claims description 69
- 238000005259 measurement Methods 0.000 claims description 36
- 210000001519 tissue Anatomy 0.000 claims description 31
- 238000000605 extraction Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 24
- 210000000416 exudates and transudate Anatomy 0.000 claims description 20
- 210000000988 bone and bone Anatomy 0.000 claims description 15
- 230000001338 necrotic effect Effects 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 3
- 206010052428 Wound Diseases 0.000 description 68
- 208000027418 Wounds and injury Diseases 0.000 description 67
- 208000004210 Pressure Ulcer Diseases 0.000 description 54
- 206010011985 Decubitus ulcer Diseases 0.000 description 40
- 238000004891 communication Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 40
- 238000004364 calculation method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 17
- 206010063560 Excessive granulation tissue Diseases 0.000 description 14
- 210000001126 granulation tissue Anatomy 0.000 description 14
- 208000015181 infectious disease Diseases 0.000 description 10
- 230000035876 healing Effects 0.000 description 9
- 206010061218 Inflammation Diseases 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 8
- 230000004054 inflammatory process Effects 0.000 description 8
- 206010033675 panniculitis Diseases 0.000 description 8
- 210000004304 subcutaneous tissue Anatomy 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000005469 granulation Methods 0.000 description 7
- 230000003179 granulation Effects 0.000 description 7
- 210000004207 dermis Anatomy 0.000 description 6
- 206010051814 Eschar Diseases 0.000 description 5
- 230000006378 damage Effects 0.000 description 5
- 231100000333 eschar Toxicity 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 210000002615 epidermis Anatomy 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 210000001217 buttock Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000035515 penetration Effects 0.000 description 3
- 230000037380 skin damage Effects 0.000 description 3
- 206010012438 Dermatitis atopic Diseases 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 201000004681 Psoriasis Diseases 0.000 description 2
- 201000008937 atopic dermatitis Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 210000003491 skin Anatomy 0.000 description 2
- 208000034693 Laceration Diseases 0.000 description 1
- 208000008589 Obesity Diseases 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 230000001464 adherent effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000001124 body fluid Anatomy 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000011221 initial treatment Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000017074 necrotic cell death Effects 0.000 description 1
- 230000037311 normal skin Effects 0.000 description 1
- 235000020824 obesity Nutrition 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Abstract
【課題】多様な状態を取り得る創傷を定量的に評価可能にする。【解決手段】画像処理装置は、撮像装置から被写体までの距離に関する距離情報を取得する。また画像処理装置は、撮像装置が被写体を撮像した画像データから被写体の患部領域を抽出し、さらに患部領域の色情報を抽出する。そして画像処理装置は、距離情報および色情報を基に、患部領域の状態を判定する。【選択図】 図1
Description
本発明は、撮影した被写体の患部領域に対して評価を行う技術に関する。
人や動物が横になっている状態では、体重により、体の下にある床、マットレス、あるいは敷布団等と体との接触部位が圧迫される。そして、同じ姿勢が継続すると、接触部位が血行不全となり周辺組織が壊死を起こすことがある。組織が壊死した状態は、褥瘡または床ずれと呼ばれている。褥瘡になると、その後、定期的に褥瘡の状態を評価し管理していく必要がある。褥瘡の評価指標としては、非特許文献1に記載があるように、日本褥瘡学会学術教育委員会が開発した評価指標である、DESIGN-R(登録商標)が知られている。このDESIGN-Rは、褥瘡をはじめとする傷の治癒過程を評価するためのツールである。現状では、褥瘡の評価は、患部を目視し、評価指標の状態が確認されたか否かで決定されることが多い。しかし、手作業および目視による評価手法は測定者による個人差があることから、正確性が求められている。また作業中に患部に触れた場合には患者に痛みを与えてしまい、さらに感染のリスクも伴うことから、非接触で各評価指標を計測および評価することが求められている。
一方で、特許文献1の診断装置では、撮影画像の病変の色から、その病変の対応する深さ領域を判定する方法が開示されている。
一方で、特許文献1の診断装置では、撮影画像の病変の色から、その病変の対応する深さ領域を判定する方法が開示されている。
照林社 褥瘡ガイドブック 第2版 褥瘡予防・管理ガイドライン(第4版)準拠 編集 日本褥瘡学会 ISBN13 978-4796523608 23、24ページ
しかしながら、褥瘡のような創傷は、深さや色が多様な状態を取り得る。特許文献1に開示された従来技術では、褥瘡のような多様な状態を取り得る創傷を誤って評価および計測してしまうことがある。すなわち特許文献1の技術では、多様な状態を取り得る創傷を定量的に評価することができないことが多い。
そこで、本発明は、多様な状態を取り得る創傷を定量的に評価可能にすることを目的とする。
本発明の画像処理装置は、撮像装置から被写体までの距離に関する距離情報を取得する取得手段と、前記撮像装置が前記被写体を撮像した画像データから前記被写体の患部領域を抽出し、さらに前記患部領域の色情報を抽出する抽出手段と、前記距離情報および前記色情報を基に、前記患部領域の状態を判定する判定手段と、を有することを特徴とする。
本発明によれば、多様な状態を取り得る創傷を定量的に評価可能となる。
以下、実施形態について、図面を参照して説明する。なお以下の実施形態は本発明を限定するものではない。また以下の説明において、同一の構成や処理等については、同じ符号を付して説明する。
本実施形態の画像処理装置の構成及び処理について述べる前に、褥瘡等の創傷の状態と治癒過程を評価する評価項目等について説明する。褥瘡等の創傷に関する評価指標としては、日本褥瘡学会学術教育委員会が開発した評価指標である、DESIGN-R(登録商標)が知られている。DESIGN-Rは、Depth、Exudate、Size、Inflammation/Infection、Granulation、Necrotic tissueの各評価項目の各頭文字から命名されている。以下、深さ(Depth)、滲出液(Exudate)、大きさ(Size)、炎症・感染(Inflammation/Infection)、肉芽組織(Granulation)、壊死組織(Necrotic tissue)を用いて説明する。なおDESIGN-Rの評価項目には、ポケット(Pocket)も含まれている。
深さ(Depth)は、創縁に対して創内の一番深い部分である創底で評価し、創底が表皮、真皮、皮下組織、骨部に深達するほど重症度が高いと判定される。
大きさ(Size)は、皮膚損傷範囲の長径と短径を測定し、各々を掛け合わせた値で評価し、値が大きいほど重症度が高いと判定される。
ポケット(Pocket)は、ポケットを内包する皮膚損傷範囲の長径と短径を測定し、各々を掛け合わせた値から皮膚損傷範囲の大きさを差し引いた値で評価し、値が大きいほど重症度が高いと判定される。
一般的には、褥瘡の深さ、大きさ、ポケットの評価は、患部にメジャーを当てて手作業で計測された値に基づいて決定されることが多い。
滲出液(Exudate)は、創面から滲み出る黄色の体液であり、これを除去するドレッシング剤の交換頻度で評価し、交換頻度が多いほど重症度が高いと判定される。
炎症・感染(Inflammation/Infection)は、創周囲の発赤、腫脹、熱感といった炎症、感染によって表れる兆候の有無で評価され、局所に明らかな感染兆候がある、または発熱などの全身的影響がある場合は重症度が高いと判定される。
肉芽組織(Granulation)は、鮮紅色で適度に湿潤した状態の良性肉芽とピンク色で過度に湿潤した不良肉芽の2種類があり、創内を良性肉芽が占める割合で評価され、良性肉芽が占める割合が少ないほど重症度が高いと判定される。
壊死組織(Necrotic tissue)は、柔らかい黄白色の壊死組織であるスラフと、硬く密着した黒色の壊死組織であるエスカーの2種類があり、これらの有無によって評価され、エスカー、スラフ、壊死組織無の順に重症度が高いと判定される。
現状では、褥瘡の滲出液、炎症、感染、肉芽組織、壊死組織の評価は、患部を目視し、各評価指標の状態が確認されたか否かで決定されることが多い。
大きさ(Size)は、皮膚損傷範囲の長径と短径を測定し、各々を掛け合わせた値で評価し、値が大きいほど重症度が高いと判定される。
ポケット(Pocket)は、ポケットを内包する皮膚損傷範囲の長径と短径を測定し、各々を掛け合わせた値から皮膚損傷範囲の大きさを差し引いた値で評価し、値が大きいほど重症度が高いと判定される。
一般的には、褥瘡の深さ、大きさ、ポケットの評価は、患部にメジャーを当てて手作業で計測された値に基づいて決定されることが多い。
滲出液(Exudate)は、創面から滲み出る黄色の体液であり、これを除去するドレッシング剤の交換頻度で評価し、交換頻度が多いほど重症度が高いと判定される。
炎症・感染(Inflammation/Infection)は、創周囲の発赤、腫脹、熱感といった炎症、感染によって表れる兆候の有無で評価され、局所に明らかな感染兆候がある、または発熱などの全身的影響がある場合は重症度が高いと判定される。
肉芽組織(Granulation)は、鮮紅色で適度に湿潤した状態の良性肉芽とピンク色で過度に湿潤した不良肉芽の2種類があり、創内を良性肉芽が占める割合で評価され、良性肉芽が占める割合が少ないほど重症度が高いと判定される。
壊死組織(Necrotic tissue)は、柔らかい黄白色の壊死組織であるスラフと、硬く密着した黒色の壊死組織であるエスカーの2種類があり、これらの有無によって評価され、エスカー、スラフ、壊死組織無の順に重症度が高いと判定される。
現状では、褥瘡の滲出液、炎症、感染、肉芽組織、壊死組織の評価は、患部を目視し、各評価指標の状態が確認されたか否かで決定されることが多い。
しかしながら、褥瘡は、前述したように滲出液、肉芽組織、壊死組織など多様な状態を取り得るため、創傷を正確に評価することが難しい場合が多々ある。例えば、良性肉芽が創縁と創底の2か所に存在するような場合、良性肉芽は深さによらず鮮紅色を呈するため、特許文献1に開示された従来技術のような色と深さ領域の対応表では、両者を同じ深さ領域にあると誤判定してしまう虞がある。また、創内の同じ深さに、黒色のエスカーと黄色の滲出液の両方があるような場合、特許文献1の従来技術では、両者を異なる深さ領域にあると誤判定してしまう虞がある。
そこで、本実施形態の画像処理装置では、以下に説明するように、幹部領域を撮影した画像を用い、さらに色情報と距離情報とに基づく解析処理を行うことによって、褥瘡のように多様な状態を取り得る創傷の定量的な評価を可能とする。
以下、本実施形態に係る画像処理装置の一適用例としての画像処理システムについて説明する。
図1は、実施形態に係る画像処理システム1の概要を示す図である。
撮像システム1は、手持ち可能なポータブルデバイスである撮像装置200と、画像処理装置300とから構成される。なお、本実施形態では、撮像装置200と画像処理装置300とが別構成となされている例を挙げているが、撮像装置と画像処理装置の機能が一体となされた一つの装置であってもよい。撮像装置と画像処理装置の機能が一体となされた一つの装置としては、オートフォーカス機能付きのカメラを備えると共に高性能のCPU等を備えたスマートフォンやタブレット端末のようなモバイル情報端末などを例に挙げることができる。
以下、本実施形態に係る画像処理装置の一適用例としての画像処理システムについて説明する。
図1は、実施形態に係る画像処理システム1の概要を示す図である。
撮像システム1は、手持ち可能なポータブルデバイスである撮像装置200と、画像処理装置300とから構成される。なお、本実施形態では、撮像装置200と画像処理装置300とが別構成となされている例を挙げているが、撮像装置と画像処理装置の機能が一体となされた一つの装置であってもよい。撮像装置と画像処理装置の機能が一体となされた一つの装置としては、オートフォーカス機能付きのカメラを備えると共に高性能のCPU等を備えたスマートフォンやタブレット端末のようなモバイル情報端末などを例に挙げることができる。
本実施形態に係る画像処理システム1では、撮像装置200が、被写体101である患者の患部領域102を撮影して画像データを取得する。また撮像装置200は、幹部領域102を撮像した際の、当該撮像装置200から被写体101および患部領域102までの距離である被写体距離情報を取得する。そして、撮像装置200は、それら画像データおよび被写体距離情報を、画像処理装置300に送信する。
画像処理装置300は、受信した画像データから患部領域102を抽出し、その幹部領域の色情報および被写体距離に基づいて、当該患部領域の創面状態(本実施形態では褥瘡の状態)を解析する。本実施形態において、画像処理装置300が解析する褥瘡の状態は、褥瘡の評価指標であるDESIGN-Rに倣い、大きさ、深さ、肉芽組織、壊死組織、滲出液、ポケットの六つであるとする。
なお本実施形態では、患部領域102が褥瘡である場合を例に挙げて説明を行うが、これに限定されるものではなく、裂傷や切創といった傷口が開く創傷であってもよい。また本実施形態では、被写体101の患部領域102の病態の一例として、主に、臀部に生じた褥瘡を挙げて説明する。
画像処理装置300は、受信した画像データから患部領域102を抽出し、その幹部領域の色情報および被写体距離に基づいて、当該患部領域の創面状態(本実施形態では褥瘡の状態)を解析する。本実施形態において、画像処理装置300が解析する褥瘡の状態は、褥瘡の評価指標であるDESIGN-Rに倣い、大きさ、深さ、肉芽組織、壊死組織、滲出液、ポケットの六つであるとする。
なお本実施形態では、患部領域102が褥瘡である場合を例に挙げて説明を行うが、これに限定されるものではなく、裂傷や切創といった傷口が開く創傷であってもよい。また本実施形態では、被写体101の患部領域102の病態の一例として、主に、臀部に生じた褥瘡を挙げて説明する。
図2は、画像処理システム1に含まれる撮像装置200のハードウェア構成の一例を示す図である。
撮像装置200は、一般的な一眼カメラ、コンパクトデジタルカメラであるとする。あるいは、撮像装置200は、オートフォーカス機能付きのカメラを備えたスマートフォンやタブレット端末などであってもよい。
撮像ユニット211は、レンズ群212、シャッタ213、イメージセンサ214を有する。撮像ユニット211は、レンズ群212に含まれる複数のレンズの位置を変更することで、フォーカス位置とズーム倍率を変更することができる。レンズ群212は、露出量を調節するための絞りも備える。
撮像装置200は、一般的な一眼カメラ、コンパクトデジタルカメラであるとする。あるいは、撮像装置200は、オートフォーカス機能付きのカメラを備えたスマートフォンやタブレット端末などであってもよい。
撮像ユニット211は、レンズ群212、シャッタ213、イメージセンサ214を有する。撮像ユニット211は、レンズ群212に含まれる複数のレンズの位置を変更することで、フォーカス位置とズーム倍率を変更することができる。レンズ群212は、露出量を調節するための絞りも備える。
イメージセンサ214は、光学像を画像データに変換するCCDやCMOSセンサ等の電荷蓄積型の固体イメージセンサで構成される。レンズ群212およびシャッタ213を通過した被写体からの反射光はイメージセンサ214の撮像面上に結像され、イメージセンサ214は、被写体像に応じた電気信号を生成し、その電気信号に基づく画像データを出力する。
シャッタ213は、シャッタ羽根部材の開閉動作を行うことによって、イメージセンサ214への露出や遮光を行い、イメージセンサ214の露光時間を制御する。なお、シャッタ213の代わりに、イメージセンサ214の駆動によって露光時間を制御する電子シャッタが用いられてもよい。CMOSセンサで電子シャッタを行う場合、イメージセンサ214は、画素ごと、あるいは複数画素からなる領域ごと(例えばラインごと)に、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、イメージセンサ214は、リセット走査を行った画素あるいは領域ごとに、それぞれ所定の時間を経過してから、電荷の蓄積量に応じた信号を読み出す走査を行う。
ズーム制御回路215は、レンズ群212に含まれるズームレンズを駆動するための不図示のモータを制御することで、レンズ群212の光学倍率を制御する。なお、レンズ群212は、ズーム機能のない単焦点のレンズ群であってもよく、その場合、ズーム制御回路215は不要である。
測距システム216は、被写体までの距離情報を算出する。測距システム216としては、一眼カメラに搭載された一般的な位相差方式の測距センサが用いられてもよいし、TOF(Time Of Flight)センサを用いたシステムが用いられてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体により反射された反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。また測距システム216には、受光素子にPSD(Position Sensitive Device)を用いたPSD方式などが用いられてもよい。
またイメージセンサ214は、画素ごとに複数の光電変換領域を有し、共通の画素内に含まれる複数の光電変換領域に対応する瞳位置を異ならせる構成となされていてもよい。このような構成とすることで、測距システム216は、イメージセンサ214から出力された、それぞれの瞳領域に対応する光電変換領域から得られた画像間の位相差から、画素あるいは領域の位置ごとに距離情報を求めることができる。
また、測距システム216は、画像内の予め定められた所定の一つの測距エリア、あるいは複数の測距エリアにおける距離情報を求める構成でもよいし、画像内の多数の画素あるいは領域の距離情報の分布を示す距離マップを求める構成であってもよい。
その他にも、測距システム216は、画像データの高周波成分を抽出して積分し、積分値が最大となるフォーカスレンズの位置を決定する、TV-AFまたはコントラストAFを行い、そのフォーカスレンズの位置から距離情報を得るものであってもよい。
本実施形態では、測距システム216は、画像内の多数の画素あるいは領域の距離情報の分布を示す距離マップを求める構成であるとして説明する。
その他にも、測距システム216は、画像データの高周波成分を抽出して積分し、積分値が最大となるフォーカスレンズの位置を決定する、TV-AFまたはコントラストAFを行い、そのフォーカスレンズの位置から距離情報を得るものであってもよい。
本実施形態では、測距システム216は、画像内の多数の画素あるいは領域の距離情報の分布を示す距離マップを求める構成であるとして説明する。
画像処理回路217は、イメージセンサ214から出力された画像データに対して、所定の画像処理を施す。画像処理回路217は、撮像ユニット211から出力された画像データ、あるいは内部メモリ221に記録されている画像データに対して、ホワイトバランス調整、ガンマ補正、色補間またはデモザイキング、フィルタリングなど、様々な画像処理を行う。また、画像処理回路217は、画像処理を行った画像データに対して、JPEGなどの規格で圧縮処理を行う。
AF制御回路218は、測距システム216で得られた距離情報に基づいて、レンズ群202に含まれるフォーカスレンズの位置を決定し、フォーカスレンズを駆動するモータを制御する。
通信装置219は、無線の通信ネットワーク(不図示)を介して、画像処理装置300などの外部機器と通信を行うための無線通信モジュールである。ネットワークの具体的な一例としては、Wi-Fi(登録商標)規格に基づくネットワークが挙げられる。なお、Wi-Fiを用いた通信はルーターを介して実現されてもよい。また、通信装置219は、USBやLANなど有線の通信インターフェースにより通信を実現するものであってもよい。通信装置219は、撮像装置200に内蔵されているとするが、撮像装置200に接続された外部装置であってもよい。
通信装置219は、無線の通信ネットワーク(不図示)を介して、画像処理装置300などの外部機器と通信を行うための無線通信モジュールである。ネットワークの具体的な一例としては、Wi-Fi(登録商標)規格に基づくネットワークが挙げられる。なお、Wi-Fiを用いた通信はルーターを介して実現されてもよい。また、通信装置219は、USBやLANなど有線の通信インターフェースにより通信を実現するものであってもよい。通信装置219は、撮像装置200に内蔵されているとするが、撮像装置200に接続された外部装置であってもよい。
システム制御回路220は、CPU(Central Processing Unit)を有し、内部メモリ221に記憶されたプログラムに従って、撮像装置200の各部を制御することにより全体制御を行う。また、システム制御回路220は、撮像ユニット211、ズーム制御回路215、測距システム216、画像処理回路217、およびAF制御回路218などの全体の制御を行う。なお、システム制御回路220は、CPUの代わりに、FPGA(field-programmable gate array)やASIC(application specific integrated circuit)などを用いてもよい。
内部メモリ221は、フラッシュメモリやSDRAM等の書き換え可能なメモリで構成される。内部メモリ221は、撮像装置200の動作に必要な撮像時のピント位置の情報やズーム倍率などの各種の設定情報、撮像ユニット211が撮像した画像データや画像処理回路217による画像処理が行われた画像データ等を一時的に記憶する。また、内部メモリ211は、通信装置219が画像処理装置300と通信して受信した、画像データや被写体の大きさを示す情報などの解析データなどを一時的に記憶してもよい。
外部メモリI/F(Interface)222は、撮像装置200に装填可能なSDカードやCFカード(コンパクトフラッシュは登録商標)等の不揮発性の記憶媒体とのインターフェースである。外部メモリI/F222は、画像処理回路217で処理された画像データや、通信装置219が画像処理装置300と通信して受信した画像データや解析データなどを、装填可能な記憶媒体に記録する。また、外部メモリI/F222は、装填可能な記憶媒体に記録された画像データを読み出し、撮像装置200の外部に出力することも可能である。
表示装置223は、TFT(Thin Film Transistor)液晶や有機ELディスプレイ、EVF(電子ビューファインダ)などで構成された装置である。表示装置223は、内部メモリ221に一時的に保存されている画像データに基づく画像、装填可能な記憶媒体に保存されている画像データに基づく画像、および、撮像装置200の設定画面などを表示する。
操作部224は、例えば、撮像装置200に設けられたボタン、スイッチ、キー、モードダイアル、あるいは、表示装置223に併設されたタッチパネルなどで構成されている。ユーザによるモード設定や撮影指示などの指令は、操作部224を経由して、システム制御回路220に送られる。
共通バス225は、撮像ユニット211、ズーム制御回路215、測距システム216、画像処理回路217、AF制御回路218、通信装置219、システム制御回路220、内部メモリ221、外部メモリI/F222、表示装置223、および操作部224が接続されている。共通バス225は、それら接続された各ブロック間で信号の送受信を行うための信号線である。
図3は、画像処理システム1に含まれる画像処理装置300のハードウェア構成の一例を示す図である。
画像処理装置300は、演算装置311、記憶装置312、通信装置313、出力装置314、および補助演算装置317を備える。
記憶装置312は、主記憶装置315(ROMやRAM等)と補助記憶装置316(磁気ディスク装置やSSD(Solid State Drive)等)から構成される。
通信装置313は、通信ネットワークを介して外部機器と通信を行うための無線通信モジュールとして構成される。
出力装置314は、画像処理装置300に接続されたディスプレイ、プリンタ、あるいは外部ネットワークに、演算装置311にて処理されたデータや生成されたデータ、記憶装置312に記憶されたデータを出力する。
画像処理装置300は、演算装置311、記憶装置312、通信装置313、出力装置314、および補助演算装置317を備える。
記憶装置312は、主記憶装置315(ROMやRAM等)と補助記憶装置316(磁気ディスク装置やSSD(Solid State Drive)等)から構成される。
通信装置313は、通信ネットワークを介して外部機器と通信を行うための無線通信モジュールとして構成される。
出力装置314は、画像処理装置300に接続されたディスプレイ、プリンタ、あるいは外部ネットワークに、演算装置311にて処理されたデータや生成されたデータ、記憶装置312に記憶されたデータを出力する。
補助演算装置317は、演算装置311による制御の下で用いられる補助演算用ICである。補助演算装置317は、一例としてGPU(Graphic Processing Unit)により構成されている。GPUは、元々は画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとしても用いられることが多い。そして、深層学習を行う処理においても、GPUが用いられることが一般的である。例えば、補助演算装置317としては、NVIDIA社のJetson TX2 moduleを用いることができる。なお、補助演算装置317として、FPGAやASICなどが用いられてもよい。
本実施形態の画像処理装置300の場合、補助演算装置317は、画像データから被写体101の患部領域102およびその患部領域の色情報を抽出する処理等を行う。
本実施形態の画像処理装置300の場合、補助演算装置317は、画像データから被写体101の患部領域102およびその患部領域の色情報を抽出する処理等を行う。
演算装置311は、CPUにより構成され、記憶装置312に記憶されたプログラムを実行することで、補助演算装置317にて抽出された患部領域102の大きさや長さを求めるための演算処理を含む、各種機能を実現する。また、演算装置311は、撮像装置200の表示装置223に表示するためのデータの生成や、出力装置314を介して出力されるデータの生成、各機能を実行する順番の制御等も行う。
なお、画像処理装置300が備える演算装置311および記憶装置312は、一つであってもよいし、複数であってもよい。すなわち、少なくとも1以上の処理装置(CPU)と少なくとも一つの記憶装置とが接続されており、少なくとも1以上の処理装置が少なくとも1以上の記憶装置に記憶されたプログラムを実行した場合に、画像処理装置300は後述する各機能を実行する。なお、演算装置311は、CPUの代わりに、FPGAやASICなどで実現されてもよい。
図4は、実施形態に係る画像処理システム1の撮像装置200と画像処理装置300の動作を示すフローチャートである。なお、以下の説明では、フローチャートにおける各処理ステップを、Sに参照番号を付与して表すものとする。すなわち例えば、処理ステップ401はS401として表す。後述する他のフローチャートにおいても同様に表すとする。
図4において、S401からS420までは撮像装置200による処理であり、S431、S441からS445まで、およびS451からS456までは画像処理装置300による処理である。
初めに、撮像装置200と画像処理装置300とが、無線LAN規格であるWi-Fi規格のネットワーク(不図示)にそれぞれ接続する。
画像処理装置300は、S431においてネットワークを介して接続する撮像装置200の探索処理を行い、撮像装置200は、S401において画像処理装置300に対する応答処理を行う。ネットワークを介して機器を探索する技術としては、例えば、UPnP(Universal Plug and Play)が用いられる。UPnPにおいて個々の装置の識別は、UUID(Universally Unique IDentifier)によって行われる。
初めに、撮像装置200と画像処理装置300とが、無線LAN規格であるWi-Fi規格のネットワーク(不図示)にそれぞれ接続する。
画像処理装置300は、S431においてネットワークを介して接続する撮像装置200の探索処理を行い、撮像装置200は、S401において画像処理装置300に対する応答処理を行う。ネットワークを介して機器を探索する技術としては、例えば、UPnP(Universal Plug and Play)が用いられる。UPnPにおいて個々の装置の識別は、UUID(Universally Unique IDentifier)によって行われる。
撮像装置200は、画像処理装置300との接続がなされると、S402において、ライブビュー処理を開始する。すなわち撮像ユニット211は撮像によって画像データを生成し、この画像データに対し、画像処理回路217が、ライブビュー表示用の画像データを生成するために必要な現像処理を適用する。撮像装置200は、これらの処理をフレームごとに繰り返し行うことで、表示装置223の画面には所定のフレームレートのライブビュー映像が表示される。
S403において、測距システム216は前述したいずれかの方法によって被写体の距離情報を求め、AF制御回路218が被写体にピントが合うようにレンズ群212の駆動制御を行うAF処理を開始する。前述したTV-AFまたはコントラストAFでピント位置の調整が行われる場合、測距システム216は、ピントを合わせた状態のフォーカスレンズの位置から、ピントを合わせた対象の被写体101までの距離情報を求める。ピントを合わせる位置は、画面中央に位置する被写体でもよいし、撮像装置200に対して最も至近側の位置に存在する被写体でもよい。また、前述した被写体の距離マップが得られている場合、測距システム216は、距離マップから注目すべき領域を推定し、AF制御回路218がその位置に対してピントを合わせるようにしてもよい。あるいは、既に画像処理装置300によってライブビュー画像内で褥瘡102の位置が特定されているならば、測距システム216はその位置に対する距離情報を求め、AF制御回路218がその位置に対してピントを合わせるようにしてもよい。撮像装置200は、後述するS410でレリーズボタンが押されたことを検知するまで、ライブビュー映像の表示とともにAF処理を繰り返し行う。
S404において、画像処理回路217は、ライブビューのために撮像された画像のいずれかの画像データに対して、その画像データの現像および圧縮処理を行い、例えばJPEG規格の画像データを生成する。そして、画像処理回路217は、圧縮処理された画像データに対してリサイズ処理を行い、画像データのサイズを小さくする。
S405において、通信装置219は、S404で生成されてリサイズ処理がなされた画像データと、S403で求められた距離情報とを取得する。さらに通信装置219は、ズーム倍率の情報と、リサイズ処理された画像データのサイズ(ピクセル数)の情報をも取得する。なお撮像ユニット211が単焦点でズーム機能が無いのであれば、ズーム倍率の情報は不要である。
S406において、通信装置219は、S405で取得した画像データと距離情報、およびズーム倍率やサイズ情報などの1以上の情報を、無線通信により画像処理装置300に送信する。
なお、送信する画像データのサイズが大きいほど無線通信に時間がかかるため、S405におけるリサイズ後の画像データのサイズは、許容される通信時間を考慮して決定される。ただし、画像データを小さくし過ぎると、画像処理装置300が後述するS442において行う患部領域の抽出処理の精度に影響が出るため、通信時間に加えて、患部領域の抽出処理の精度をも考慮する必要がある。
また、S404からS406の処理は、フレームごとに行ってもよいし、数フレームに1回の割合で行うようにしてもよい。
なお、送信する画像データのサイズが大きいほど無線通信に時間がかかるため、S405におけるリサイズ後の画像データのサイズは、許容される通信時間を考慮して決定される。ただし、画像データを小さくし過ぎると、画像処理装置300が後述するS442において行う患部領域の抽出処理の精度に影響が出るため、通信時間に加えて、患部領域の抽出処理の精度をも考慮する必要がある。
また、S404からS406の処理は、フレームごとに行ってもよいし、数フレームに1回の割合で行うようにしてもよい。
ここで、画像処理装置300による処理の説明に移る。
S441において、画像処理装置300の通信装置313は、撮像装置200の通信装置219から出力された画像データ、および距離情報を含む1以上の情報を受信する。
次にS442において、補助演算装置317は、S441で受信した画像データから、被写体101の患部領域102を抽出する。本実施形態では、患部領域を抽出する手法としては、深層学習による意味的領域分割を行う手法を用いるとする。すなわち、予め不図示の機械学習用の高性能コンピュータが、複数の実際の褥瘡の画像を教師データとして用いてニューラルネットワークのモデルを学習して、学習済モデルを生成する。補助演算装置317は、高性能コンピュータから学習済モデルを受け取り、その学習済モデルに基づいて、画像データから患部領域である褥瘡のエリアを推定する。本実施形態では、ニューラルネットワークのモデルの一例として、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク(FCN(Fully Convolutional Network))を適用する。ここで、深層学習の推論は、積和演算の並列実行を得意とする補助演算装置317により処理される。なお、推論処理は、FPGAやASICなどにより実行されてもよい。また、他の深層学習のモデルを用いて領域分割が実現されてもよい。また、セグメンテーション手法は、深層学習に限らず、例えばグラフカットや領域成長、エッジ検出、統治分割法等が用いられてもよい。さらに補助演算装置317は、褥瘡の画像を教師データとしたニューラルネットワークのモデルの学習を行ってもよい。
S441において、画像処理装置300の通信装置313は、撮像装置200の通信装置219から出力された画像データ、および距離情報を含む1以上の情報を受信する。
次にS442において、補助演算装置317は、S441で受信した画像データから、被写体101の患部領域102を抽出する。本実施形態では、患部領域を抽出する手法としては、深層学習による意味的領域分割を行う手法を用いるとする。すなわち、予め不図示の機械学習用の高性能コンピュータが、複数の実際の褥瘡の画像を教師データとして用いてニューラルネットワークのモデルを学習して、学習済モデルを生成する。補助演算装置317は、高性能コンピュータから学習済モデルを受け取り、その学習済モデルに基づいて、画像データから患部領域である褥瘡のエリアを推定する。本実施形態では、ニューラルネットワークのモデルの一例として、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク(FCN(Fully Convolutional Network))を適用する。ここで、深層学習の推論は、積和演算の並列実行を得意とする補助演算装置317により処理される。なお、推論処理は、FPGAやASICなどにより実行されてもよい。また、他の深層学習のモデルを用いて領域分割が実現されてもよい。また、セグメンテーション手法は、深層学習に限らず、例えばグラフカットや領域成長、エッジ検出、統治分割法等が用いられてもよい。さらに補助演算装置317は、褥瘡の画像を教師データとしたニューラルネットワークのモデルの学習を行ってもよい。
S443において、演算装置311は、補助演算装置317によって抽出された患部領域102の大きさを示す情報として、当該患部領域の面積を計算する。
図5は、患部領域の面積の計算方法を説明するための図である。
一般的なカメラである撮像装置200は、図5のようなピンホールモデルとして扱うことができる。入射光501は、レンズ212aの主点を通り、イメージセンサ214の撮像面で受光される。レンズ群212を厚みのない単一のレンズ212aに近似して考えた場合、前側主点と後側主点の2つの主点は一致するとみなせる。イメージセンサ214の撮像面に被写体像が結像するようにレンズ212aのピント位置を調整することで、撮像装置200は被写体504に焦点を合わせることができる。
図5は、患部領域の面積の計算方法を説明するための図である。
一般的なカメラである撮像装置200は、図5のようなピンホールモデルとして扱うことができる。入射光501は、レンズ212aの主点を通り、イメージセンサ214の撮像面で受光される。レンズ群212を厚みのない単一のレンズ212aに近似して考えた場合、前側主点と後側主点の2つの主点は一致するとみなせる。イメージセンサ214の撮像面に被写体像が結像するようにレンズ212aのピント位置を調整することで、撮像装置200は被写体504に焦点を合わせることができる。
また、撮像面からレンズ主点までの距離である焦点距離502を変更することで、画角θ503が変更され、ズーム倍率が変わる。このとき、撮像装置200の画角θ503と被写体距離505との関係から、幾何学的に合焦面における被写体の幅506が決定される。この被写体の幅506は、三角関数を用いて計算される。すなわち、被写体の幅506は、焦点距離502に応じて変化する画角θ503と被写体距離505との関係によって決定することができる。そして、被写体の幅506の値を画像のライン上のピクセル数で除算することにより、画像上の1ピクセルに対応する合焦面上の長さが得られる。
よって、演算装置311は、S442による患部領域の抽出結果から得られる抽出領域のピクセル数と、画像上の1ピクセルに対応する合焦面上の長さとから得られる1ピクセルの面積の積として、患部領域の面積を計算する。なお、焦点距離502と被写体距離505の組合せに応じた画像上の1ピクセルに対応する合焦面上の長さは、予め求めておいてテーブルデータとして予め用意されていてもよい。この場合、画像処理装置300が、撮像装置200に応じたテーブルデータを予め記憶しておくことも可能である。
なお、上記の方法で正しく患部領域の面積を求めるためには、被写体504が平面であり、且つ、この平面が光軸に対して垂直であることが前提となる。S441で取得した距離情報が画像データ内の複数の位置における距離情報や距離マップであれば、演算装置311は、被写体の奥行き方向の傾きや変化を検出し、それら検出した傾きや変化に基づいて面積を算出するようにしてもよい。
S444において、演算装置311は、患部領域の抽出に用いた画像データに対して、患部領域の抽出結果を示す情報と、その患部領域の大きさを示す情報とを重畳した画像データを生成する。
図6は、患部領域の抽出結果を示す情報、および、患部領域の大きさを示す情報を、画像データに重畳する方法を説明するための図である。図6は、患部領域102が臀部の近傍にある場合の例を示している。
図6は、患部領域の抽出結果を示す情報、および、患部領域の大きさを示す情報を、画像データに重畳する方法を説明するための図である。図6は、患部領域102が臀部の近傍にある場合の例を示している。
図6(a)の画像601は、重畳処理前の画像データを用いて表示された画像であって、被写体101及び患部領域102を含む。図6(b)の重畳画像602は、重畳処理後の画像データに基づく画像である。
演算装置311は、図6(b)に示すように、重畳画像602の左上隅に、患部領域の大きさを示す情報として、患部領域の面積値を表す文字列612を表示するためにラベル611を重畳する。なお、ラベル611の背景色と文字列の色は見やすいものであれば図示の例に限らなくてもよい。また、演算装置311は、透過量を設定してαブレンドすることにより、ラベルが重なった部分の画像が確認できるようにしてもよい。
演算装置311は、図6(b)に示すように、重畳画像602の左上隅に、患部領域の大きさを示す情報として、患部領域の面積値を表す文字列612を表示するためにラベル611を重畳する。なお、ラベル611の背景色と文字列の色は見やすいものであれば図示の例に限らなくてもよい。また、演算装置311は、透過量を設定してαブレンドすることにより、ラベルが重なった部分の画像が確認できるようにしてもよい。
さらに、演算装置311は、重畳画像602について、S442にて抽出された、患部領域の推定エリアを示す指標613を重畳する。すなわち演算装置311は、推定エリアが存在する位置において、推定エリアを示す指標613と、画像601の元になる画像データとをαブレンドして重畳表示するためのデータを生成する。この表示がなされることで、ユーザは、患部領域の面積の元となる推定エリアが妥当かどうかを確認することができるようになる。推定エリアを示す指標613の色は、被写体の色と重ならないようにすることが望ましい。αブレンドの透過率は、推定エリアが認識できて、元の患部領域102も確認できる範囲にする。なお、患部領域の推定エリアを示す指標613が重畳表示されていれば、ラベル611の表示がなくとも、ユーザは推定エリアが妥当かどうかを確認することはできるため、S443は省略しても構わない。
次にS445において、画像処理装置300の通信装置313は、前述のようにして抽出された患部領域の抽出結果を示す情報と、患部領域の大きさを示す情報とを、撮像装置200の表示装置223に表示するためのデータとして撮像装置200に送信する。すなわち本実施形態では、通信装置313は、S444で生成された、患部領域の大きさを示す情報を含む画像データを、撮像装置200に無線通信により送信する。
ここで、撮像装置200による処理の説明に戻る。
S407において、撮像装置200の通信装置219は、画像処理装置300にて患部領域の大きさを示す情報を含む画像データが新たに生成されていれば、これを受信する。
S408において、システム制御回路220は、S407で患部領域の大きさを示す情報を含む画像データを受信できていればS409に進み、受信できていなければS410に進む。
S407において、撮像装置200の通信装置219は、画像処理装置300にて患部領域の大きさを示す情報を含む画像データが新たに生成されていれば、これを受信する。
S408において、システム制御回路220は、S407で患部領域の大きさを示す情報を含む画像データを受信できていればS409に進み、受信できていなければS410に進む。
S409に進むと、表示装置223は、S407で受信された患部領域の大きさを示す情報を含む画像データに基づく画像を所定時間表示する。ここで、表示装置223は、図6(b)に示した重畳画像602を表示する。
このように、ライブビュー画像に対して、患部領域の抽出結果を示す情報を重畳表示することで、ユーザは、患部領域の面積および推定エリアが妥当であるかを確認したうえで、本撮影に臨むことができる。なお、本実施形態では、患部領域の推定エリアを示す指標613と、患部領域の大きさの情報の両方を表示する例を挙げて説明を行ったが、いずれか一方だけでもよい。
このように、ライブビュー画像に対して、患部領域の抽出結果を示す情報を重畳表示することで、ユーザは、患部領域の面積および推定エリアが妥当であるかを確認したうえで、本撮影に臨むことができる。なお、本実施形態では、患部領域の推定エリアを示す指標613と、患部領域の大きさの情報の両方を表示する例を挙げて説明を行ったが、いずれか一方だけでもよい。
S410に進むと、システム制御回路220は、操作部224に含まれるレリーズボタンが押されたかどうかを検知する。レリーズボタンが押されていなければ、撮像装置の処理はS404に戻り、レリーズボタンが押されていれば、撮像装置の処理はS411に進む。
S411に進むと、S403と同様の方法によって、測距システム216が被写体の距離情報を求め、AF制御回路218が被写体にピントが合うようにレンズ群212の駆動制御を行うAF処理を行う。なお、ライブビュー画像から患部領域を抽出することができているならば、測距システム216は患部領域が存在する位置における被写体の距離情報を求めればよい。
S411に進むと、S403と同様の方法によって、測距システム216が被写体の距離情報を求め、AF制御回路218が被写体にピントが合うようにレンズ群212の駆動制御を行うAF処理を行う。なお、ライブビュー画像から患部領域を抽出することができているならば、測距システム216は患部領域が存在する位置における被写体の距離情報を求めればよい。
次にS412に進むと、撮像装置200では静止画の撮影が行われる。
そしてS413において、画像処理回路217は、S412での撮像で生成された画像データに対して現像および圧縮処理を行い、例えばJPEG規格の画像データを生成する。さらに、画像処理回路217は、圧縮処理された画像データに対してリサイズ処理を行い、画像データのサイズを小さくする。
そしてS413において、画像処理回路217は、S412での撮像で生成された画像データに対して現像および圧縮処理を行い、例えばJPEG規格の画像データを生成する。さらに、画像処理回路217は、圧縮処理された画像データに対してリサイズ処理を行い、画像データのサイズを小さくする。
ここで、S413にてリサイズ処理が行われた画像データのサイズは、S404にてリサイズ処理が行われた画像データと同じ大きさか、あるいは、それよりも大きい。これは、患部領域を計測する際の精度を優先するためである。本実施形態では、1440ピクセル×1080ピクセルで4ビットRGBカラーとして、画像データのサイズがおよそ4.45メガバイトとなるようにリサイズしたとする。なお、リサイズの大きさはこれに限られるものではない。あるいは、画像処理回路217は、リサイズ処理をせずに、撮像されて生成したJPEG規格の画像データを用いて、次のS414の処理に進んでもよい。
S414に進むと、通信装置219は、S413で生成されてリサイズ処理がなされた(あるいは、リサイズ処理がなされていない)画像データと、S411で求められた距離情報とを取得する。さらに、通信装置219は、ズーム倍率の情報や、リサイズ処理された画像データのサイズ(ピクセル数)の情報をも取得する。なお、撮像ユニット211が単焦点レンズのみを有していてズーム機能が無いのであれば、ズーム倍率の情報は不要である。また、画像処理装置300が予め画像データのサイズの情報を有しているのであれば、画像データのサイズ情報は不要である。
次にS415において、通信装置219は、S414で取得した画像データと、距離情報を含む1以上の情報とを、無線通信により画像処理装置300に送信する。
次にS415において、通信装置219は、S414で取得した画像データと、距離情報を含む1以上の情報とを、無線通信により画像処理装置300に送信する。
ここで、再び画像処理装置300による処理の説明に移る。
S451において、画像処理装置300の通信装置313は、撮像装置200の通信装置219から出力された画像データと、距離情報を含む1以上の情報を受信する。
S452において、画像処理装置300の補助演算装置317は、S441で受信された画像データから、被写体101の患部領域102を抽出する。処理の詳細はS442と同じであるため、その説明を省略する。
S451において、画像処理装置300の通信装置313は、撮像装置200の通信装置219から出力された画像データと、距離情報を含む1以上の情報を受信する。
S452において、画像処理装置300の補助演算装置317は、S441で受信された画像データから、被写体101の患部領域102を抽出する。処理の詳細はS442と同じであるため、その説明を省略する。
S453において、演算装置311は、補助演算装置317によって抽出された患部領域の大きさを示す情報の一例として、患部領域の面積を計算する。処理の詳細はS443と同じであるため、その説明を省略する。
S454において、演算装置311は、患部領域における褥瘡の状態を評価するための画像解析を行う。
画像解析の方法の詳細は後述する。
S454において、演算装置311は、患部領域における褥瘡の状態を評価するための画像解析を行う。
画像解析の方法の詳細は後述する。
次にS455において、演算装置311は、患部領域の抽出対象とされた画像データに対して、患部領域の抽出結果を示す情報と、患部領域の大きさを示す情報とを重畳した画像データ、つまり撮像装置200の表示装置223に表示するためのデータを生成する。
図7は、患部領域の抽出結果を示す情報、および患部領域の長径と短径を含む患部領域の大きさを示す情報を画像データに重畳する方法を説明するための図である。患部領域の大きさを示す情報は、複数得られることが考えられるため、図7(a)の重畳画像701、図7(b)の重畳画像702、および図7(c)の重畳画像703に分けて説明する。これらの画像は、画像処理装置300から撮像装置200に送られて表示装置223に表示される。
図7は、患部領域の抽出結果を示す情報、および患部領域の長径と短径を含む患部領域の大きさを示す情報を画像データに重畳する方法を説明するための図である。患部領域の大きさを示す情報は、複数得られることが考えられるため、図7(a)の重畳画像701、図7(b)の重畳画像702、および図7(c)の重畳画像703に分けて説明する。これらの画像は、画像処理装置300から撮像装置200に送られて表示装置223に表示される。
図7(a)の重畳画像701は、患部領域の長径、短径の算出方法として、Minimum bounding rectangleを用いた例を示している。演算装置311は、重畳画像701の左上隅に、患部領域の大きさを示す情報として、図6の例と同様に、患部領域の面積値の文字列612を表示するためのラベル611を重畳した画像を生成する。さらに演算装置311は、重畳画像701の右上隅に、患部領域の大きさを示す情報として、Minimum bounding rectangleに基づいて算出した長径および短径を表示するためのラベル712を重畳した画像を生成する。文字列713は長径の長さ(単位はcm)を表し、文字列714は短径の長さ(単位はcm)を表す。またさらに、演算装置311は、重畳画像701に、患部領域102を囲うように、Minimum bounding rectangleを表す矩形の枠715を重畳する。これにより、矩形の枠715が長径および短径の長さと一緒に重畳表示されることになるため、ユーザは、画像中のどの箇所の長さが計測されているのかを確認することができる。
また、演算装置311は、重畳画像701の右下隅にはスケールバー716を重畳させる。スケールバー716は、患部領域の大きさを測定するためのものであり、距離情報に応じて、画像データに対するスケールバーのサイズが変更される。具体的には、スケールバー716は、S453で得られた画像上の1ピクセルに対応する合焦面上の長さに基づいて、1cm単位で5cmまでの目盛りを刻んだバーであり、撮像装置の合焦面上すなわち被写体上のサイズに対応したものである。ユーザは、スケールバーを参照することにより、被写体もしくは患部領域の大きさをおよそ把握することができる。
さらに、演算装置311は、前述したDESIGN-Rのサイズ(Size)の評価値を表すラベル717を、重畳画像701の左下隅に重畳させる。DESIGN-RのSizeの評価値では、皮膚損傷範囲の、長径と短径(長径と直交する最大径)が測定(単位はcm)され、各々を掛け合わせた数値から上述した7段階に分類されている。本実施形態では、長径と短径をそれぞれの算出方法によって出力された値に置き換えて得られる評価値が重畳されている。
図7(b)の重畳画像702は、長径として最大フェレ径を、短径として最小フェレ径を用いたものである。演算装置311は、重畳画像702の右上隅に、長径の文字列723および短径の文字列724を表したラベル722を重畳させる。さらに、演算装置311は、重畳画像702の患部領域102に、最大フェレ径の計測位置に相当する補助線725と、最小フェレ径に相当する補助線726とを重畳させる。補助線を長径および短径の長さと一緒に重畳することで、ユーザは、画像中のどの箇所の長さが計測されているのかを確認することができる。
図7(c)の重畳画像703は、長径は重畳画像702と同じであるが、短径が最小フェレ径ではなく最大フェレ径の軸に直交する方向で計測した長さとして計測したものである。このため、重畳画像702の右上隅には、長径の文字列723および短径の文字列734を表示するためのラベル732が重畳されている。さらに、重畳画像703には、患部領域102に、最大フェレ径の計測位置に相当する補助線725と、最大フェレ径の軸に直交する方向で計測した長さに相当する補助線736とが重畳されている。
なお、図7(a)から図7(c)のそれぞれに示した画像データに重畳する各種情報は、いずれか一つ、または、複数の組合せとしてもよく、ユーザが表示する情報を選択できるようにしてもよい。また、図6および図7に示した重畳画像は一つの例であって、患部領域102およびその患部領域の大きさを示す情報の表示形態、表示位置、フォントの種類、フォントサイズ、フォントの色、あるいは位置関係などは様々な条件に応じて変更できる。
次にS456において、画像処理装置300の通信装置313は、患部領域における褥瘡の状態を画像解析した結果を示す情報を、撮像装置200に出力する。本実施形態の場合、通信装置313は、S455で生成された患部領域の大きさ等を示す各情報を含む画像データを、撮像装置200に無線通信により出力する。
ここで、再び撮像装置200による処理の説明に戻る。
S416において、撮像装置200の通信装置219は、画像処理装置300にて生成された患部領域の大きさ等を示す各情報を含む画像データを受信する。
S417において、表示装置223は、S416で受信された患部領域の大きさ等を示す各情報を含む画像データを、所定時間表示する。本実施形態の場合、表示装置223は、図7(a)から図7(c)に示したような、重畳画像701から重畳画像703のいずれかを所定時間表示し、そして所定時間経後、撮像装置200の処理はS418に移行する。
S416において、撮像装置200の通信装置219は、画像処理装置300にて生成された患部領域の大きさ等を示す各情報を含む画像データを受信する。
S417において、表示装置223は、S416で受信された患部領域の大きさ等を示す各情報を含む画像データを、所定時間表示する。本実施形態の場合、表示装置223は、図7(a)から図7(c)に示したような、重畳画像701から重畳画像703のいずれかを所定時間表示し、そして所定時間経後、撮像装置200の処理はS418に移行する。
S418に進むと、システム制御回路220は、入力されていない患部領域の情報の有無を判定する。ここで患部領域の情報とは、患部の部位を示す情報、および、前述したDESIGN-Rの各評価項目の評価値を指す。大きさ(Size)に関する評価項目の評価値については、S416で受信した大きさを示す情報に基づいて、自動的に入力される。
次にS418において値が入力されていない患部領域情報があると判定された場合、システム制御回路220は、S419に移行し、全ての患部領域情報が入力されていれば、S402に戻りライブビューを再開させる。
S419において、システム制御回路220は、表示装置223に患部領域情報の入力を促すユーザインターフェースを表示させる。
その後、S420において、ユーザから操作部224を介して患部領域情報が入力されると、撮像装置200の処理は、S418に戻る。
S419において、システム制御回路220は、表示装置223に患部領域情報の入力を促すユーザインターフェースを表示させる。
その後、S420において、ユーザから操作部224を介して患部領域情報が入力されると、撮像装置200の処理は、S418に戻る。
次に、本実施形態に係る画像処理装置300が患部領域の創面状態を画像解析する方法について説明する。
前述したように、図6と図7は、患部領域の大きさを解析する方法を説明するための図である。
褥瘡の評価指標のDESIGN-Rの中で、褥瘡の大きさは長径と短径の積の値を計測することが定められている。本実施形態の画像処理装置300では、長径と短径の解析を行うことで、以前のDESIGN-Rで計測されたデータとの互換性を確保することができる。
前述したように、図6と図7は、患部領域の大きさを解析する方法を説明するための図である。
褥瘡の評価指標のDESIGN-Rの中で、褥瘡の大きさは長径と短径の積の値を計測することが定められている。本実施形態の画像処理装置300では、長径と短径の解析を行うことで、以前のDESIGN-Rで計測されたデータとの互換性を確保することができる。
ここで、DESIGN-Rは厳密な定義がないため、数学的には複数の長径、短径の算出方法が考えられる。
長径、短径の算出方法の一例として、まず、演算装置311は、患部領域102に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出する。そして、演算装置311は、この矩形の長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出する。そして、演算装置311は、S453で求めた画像上の1ピクセルに対応する合焦面上の長さに基づいて、この矩形の面積を算出する。
長径、短径の算出方法の一例として、まず、演算装置311は、患部領域102に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出する。そして、演算装置311は、この矩形の長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出する。そして、演算装置311は、S453で求めた画像上の1ピクセルに対応する合焦面上の長さに基づいて、この矩形の面積を算出する。
また、長径と短径の算出方法の別の一例として、長径として最大のキャリパー長である最大フェレ径を選択し、短径として最小フェレ径を選択してもよい。あるいは、長径として最大のキャリパー長である最大フェレ径を選択し、短径として最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。長径と短径の計算方法は、それ以前に計測を行った時の計測結果との互換性に基づいて任意の方法を選択することができる。
なお、この患部領域の長径および短径の長さと矩形面積の算出は、S441で受け取った画像データに対しては実行しない処理である。ライブビュー中は、患部領域の抽出結果をユーザが確認できるようにすることを目的としているため、S454の画像解析の処理ステップを省くことで、処理時間を削減している。
また、DESIGN-Rに基づく大きさの評価を行わずに、褥瘡の実際の面積の情報を得ることが目的である場合には、S454の処理は省略することができる。その場合、以降の処理において、DESIGN-Rにおける評価項目としての大きさの情報が無いものとして処理することになる。
また、DESIGN-Rに基づく大きさの評価を行わずに、褥瘡の実際の面積の情報を得ることが目的である場合には、S454の処理は省略することができる。その場合、以降の処理において、DESIGN-Rにおける評価項目としての大きさの情報が無いものとして処理することになる。
次に、患部領域の深さを測定する方法について説明する。
図8は、画像処理装置300において患部領域の深さ情報を取得する処理のフローチャートである。
図9(a)および図9(b)は、患部領域の抽出結果を示す情報、およびその患部領域の深さ情報を取得するための測定基準を設定する方法を説明するための図である。図9(b)は、図9(a)の断面A-A'を表した図である。
まずS901において、補助演算装置317は、画像データから被写体101の患部外領域921の抽出処理を行う。
患部外領域921は、図9(a)に示すように患部領域102を除く略円環形状の領域、すなわち患部領域102の近傍で且つ当該患部領域を含まない所定領域として設定される領域である。なお、本実施形態では患部外領域921が円環形状である場合を例に挙げて説明するが、これに限定させるものではなく、患部領域102を囲む領域形状であれば矩形形状であってもよい。
図8は、画像処理装置300において患部領域の深さ情報を取得する処理のフローチャートである。
図9(a)および図9(b)は、患部領域の抽出結果を示す情報、およびその患部領域の深さ情報を取得するための測定基準を設定する方法を説明するための図である。図9(b)は、図9(a)の断面A-A'を表した図である。
まずS901において、補助演算装置317は、画像データから被写体101の患部外領域921の抽出処理を行う。
患部外領域921は、図9(a)に示すように患部領域102を除く略円環形状の領域、すなわち患部領域102の近傍で且つ当該患部領域を含まない所定領域として設定される領域である。なお、本実施形態では患部外領域921が円環形状である場合を例に挙げて説明するが、これに限定させるものではなく、患部領域102を囲む領域形状であれば矩形形状であってもよい。
次にS902に移行して、補助演算装置317は、患部外領域921内に、基準点922を設定する。
図9(a)に示すように、基準点922は、患部外領域921内に少なくとも3点設定される。そして、演算装置311は、それら3点の基準点922a、922b、922cを含む平面を導出する。基準点922a、922b、922cを含む平面は、図9(b)に示す基準点922a、922b、922cに対応する距離情報L1、L2、L3をパラメータとして、基準点922a、922b、922cを通る平面の方程式から導出できる。
図9(a)に示すように、基準点922は、患部外領域921内に少なくとも3点設定される。そして、演算装置311は、それら3点の基準点922a、922b、922cを含む平面を導出する。基準点922a、922b、922cを含む平面は、図9(b)に示す基準点922a、922b、922cに対応する距離情報L1、L2、L3をパラメータとして、基準点922a、922b、922cを通る平面の方程式から導出できる。
次にS903に移行して、演算装置311は、基準点922a、922b、922cを含む平面を、患部領域102の深さ情報の基準面923として設定し、以降、患部領域102の深さ情報を演算するための基準とする。なお、これら基準点や基準面、深さ情報や位置情報等は、適宜、記憶装置312に記憶される。
次にS904に移行し、演算装置311は、基準面923からの患部領域102の深さ情報d1を演算する。深さ情報d1は、基準面923を零(ゼロ)として、基準面923までの距離情報と患部領域102内の創面までの距離情報との差を取ることで導出される。
次にS904に移行し、演算装置311は、基準面923からの患部領域102の深さ情報d1を演算する。深さ情報d1は、基準面923を零(ゼロ)として、基準面923までの距離情報と患部領域102内の創面までの距離情報との差を取ることで導出される。
次にS905に移行し、演算装置311は、基準面923がイメージセンサ214の撮像面924に対して傾いているか否かを判定する。
前述したように、DESIGN-Rにおいて、褥瘡の深さは、創縁を基準として表皮、真皮、皮下組織、骨部などの体組織に対する深達度で評価される。そのため、深さの値は体組織の積層方向と同一方向の値とすることが望ましく、体組織の積層方向は図9(b)に示す基準面923の法線ベクトルv2の方向に等しい。法線ベクトルv2の傾きの有無は、撮像面924の法線ベクトルv1に対して傾いているか否か、すなわち基準面923が撮像面924に対して正対しているか否かで判定可能である。
前述したように、DESIGN-Rにおいて、褥瘡の深さは、創縁を基準として表皮、真皮、皮下組織、骨部などの体組織に対する深達度で評価される。そのため、深さの値は体組織の積層方向と同一方向の値とすることが望ましく、体組織の積層方向は図9(b)に示す基準面923の法線ベクトルv2の方向に等しい。法線ベクトルv2の傾きの有無は、撮像面924の法線ベクトルv1に対して傾いているか否か、すなわち基準面923が撮像面924に対して正対しているか否かで判定可能である。
そこで、演算装置311は、S905において、基準面923がイメージセンサ214の撮像面924に対して傾いているか否かを判定する。基準面923が撮像面942に対して傾いている場合、演算装置311は、S906に移行し、深さ情報d1を、撮像面924に正対した深さ情報d1'に補正処理する。補正処理の演算は、撮像面924の法線ベクトルv1に対する基準面923の法線ベクトルv2の傾き角θを導出して、深さ情報d1に対して三角関数cosθを乗算すればよい。
次にS907に移行し、演算装置311は、測距システム216が取得した患部領域102における距離情報の分布を示す距離マップを基に、患部領域全域に対して深さ情報d1'を演算し、患部領域102の深さマップを生成する。
画像処理装置300は、以上説明したフローチャートの処理により、患部領域102の深さマップを取得することができ、この深さマップを用いることで、DESIGN-Rの定義によらず、患部領域102の深さを定量的に評価することができる。
画像処理装置300は、以上説明したフローチャートの処理により、患部領域102の深さマップを取得することができ、この深さマップを用いることで、DESIGN-Rの定義によらず、患部領域102の深さを定量的に評価することができる。
本実施形態では、補助演算装置317が基準点922を患部外領域921の任意の点に設定したが、ホクロなどの身体的特徴を基準点に設定してもよい。
患部外領域921内の任意の点を基準点に設定すると、撮影時の患者の体勢が異なる場合、撮影毎に同一の点を設定することが困難であり、傾き量θの演算結果にばらつきが生じて深さ情報の演算精度が低下してしまう可能性がある。これに対し、ホクロなどの身体的特徴であれば、患者の体勢によらず被写体101の同じ位置にあるため、撮影毎に同一の点を基準点に設定することができ、深さ情報の演算精度の低下をなくすことができる。そのため、身体的特徴が患部領域102の近傍にある場合は、補助演算装置317は、その身体的特徴を基準点922として設定する。
患部外領域921内の任意の点を基準点に設定すると、撮影時の患者の体勢が異なる場合、撮影毎に同一の点を設定することが困難であり、傾き量θの演算結果にばらつきが生じて深さ情報の演算精度が低下してしまう可能性がある。これに対し、ホクロなどの身体的特徴であれば、患者の体勢によらず被写体101の同じ位置にあるため、撮影毎に同一の点を基準点に設定することができ、深さ情報の演算精度の低下をなくすことができる。そのため、身体的特徴が患部領域102の近傍にある場合は、補助演算装置317は、その身体的特徴を基準点922として設定する。
または、演算装置311は、補助演算装置317が設定した基準点922を、表示装置223を介してリアルタイムに表示させるようにしてもよい。この場合、表示装置223の表示を見ながら、撮影者が、被写体101にトレースするように、水性フェルトペンなどでマーキングしてもよい。マーキングは、消えない限り、患者の体勢によらず同じ位置にあるため、身体的特徴と同じく撮影毎に同一の基準点として用いることができる。
本実施形態では、図9(a)、図9(b)に示した代表的な褥瘡の状態に対する解析方法について説明したが、実際の褥瘡は複雑且つ多様な状態を取り得る。
例えば、後述する図11(a)の例に示す踵のように曲率がある部位に発症した褥瘡は、後述する図11(b)に示すように、患部領域102の縁部に対して創面が突出した状態となる。この場合、図8に示したフローチャートの処理では、患部領域102の縁部は当該患部領域内の創面よりも浅いと判定される可能性がある。
例えば、後述する図11(a)の例に示す踵のように曲率がある部位に発症した褥瘡は、後述する図11(b)に示すように、患部領域102の縁部に対して創面が突出した状態となる。この場合、図8に示したフローチャートの処理では、患部領域102の縁部は当該患部領域内の創面よりも浅いと判定される可能性がある。
しかしながら、前述したように、DESIGN-Rにおいて、褥瘡の深さは、創縁を基準として表皮、真皮、皮下組織、骨部などの体組織に対する深達度で評価される。そのため、創縁が創面よりも浅いという判定結果は、DESIGN-Rの定義に照らし合わせると誤判定となってしまう。
そこで、踵のように曲率がある部位に発症した褥瘡の深さマップを生成する場合には、深さ情報の演算方法を工夫する必要がある。
そこで、踵のように曲率がある部位に発症した褥瘡の深さマップを生成する場合には、深さ情報の演算方法を工夫する必要がある。
以下、患部領域が踵である場合を例に挙げて、曲率がある部位に発症した褥瘡に対する深さの測定方法について説明する。
図10は、画像処理装置300において、踵のように曲率がある部位に発症した褥瘡の患部領域の深さ情報を取得する処理のフローチャートである。
図11(a)および図11(b)は、患部領域の抽出結果を示す情報、および患部領域の深さ情報を取得するための測定基準を設定する方法を説明するための図である。図11(b)は、図11(a)の断面B-B'を示した図である。
図10は、画像処理装置300において、踵のように曲率がある部位に発症した褥瘡の患部領域の深さ情報を取得する処理のフローチャートである。
図11(a)および図11(b)は、患部領域の抽出結果を示す情報、および患部領域の深さ情報を取得するための測定基準を設定する方法を説明するための図である。図11(b)は、図11(a)の断面B-B'を示した図である。
図10に示すフローチャートの処理は、S420においてユーザによって曲率のある部位が選択され、その情報が画像処理装置300に受信された場合に開始される。ユーザによる患部領域の部位の入力方法については、図11において詳細に説明する。本実施形態では、患部領域の部位としてHEEL(踵)が選択されたことが、曲率のある部位が選択された場合に該当する。S911からS912までは、前述の図8のS901からS902までと同じ処理が実行されため、その説明は省略する。
S913では、演算装置311が、患部領域に対して、図11(a)に示す褥瘡が発症する前の正常な皮膚表面形状を近似した仮想球面933を演算する。仮想球面933は、患部外領域931内の4点の基準点932a、932b、932c、932dを通る球面の方程式を導出することで導出可能である。すなわち仮想球面933は、図11(b)に示す基準点932a、932b、932c、932dに対応する距離情報L1'、L2'、L3'、L4'をパラメータとして、基準点932a、932b、932c、932dを通る球面の方程式から導出できる。
そして、演算装置311は、この仮想球面933を患部領域の深さの基準面とし、以降、患部領域の深さ情報を演算する際の基準とする。
そして、演算装置311は、この仮想球面933を患部領域の深さの基準面とし、以降、患部領域の深さ情報を演算する際の基準とする。
次にS914において、演算装置311は、仮想球面933からの患部領域の深さ情報d2を演算し、その後、S915に進む。深さ情報d2は、仮想球面933を零(ゼロ)として、仮想球面933までの距離情報と患部領域の創面までの距離情報の差を取ることで導出される。
次にS915において、演算装置311は、S914で導出した患部領域の深さ情報d2を、仮想球面933に正対した深さ情報d2'に補正する。
ここで、前述したように、DESIGN-Rにおいて、褥瘡の深さは、創縁を基準として表皮、真皮、皮下組織、骨部などの体組織に対する深達度で評価される。
そのため、深さの値は、体組織の積層方向と同一方向の値とすることが望ましく、体組織の積層方向は、図11(b)に示す仮想球面933の法線ベクトルv2'の方向に等しい。
次にS915において、演算装置311は、S914で導出した患部領域の深さ情報d2を、仮想球面933に正対した深さ情報d2'に補正する。
ここで、前述したように、DESIGN-Rにおいて、褥瘡の深さは、創縁を基準として表皮、真皮、皮下組織、骨部などの体組織に対する深達度で評価される。
そのため、深さの値は、体組織の積層方向と同一方向の値とすることが望ましく、体組織の積層方向は、図11(b)に示す仮想球面933の法線ベクトルv2'の方向に等しい。
そこで、演算装置311は、S914で導出した患部領域深さ情報d2を、法線ベクトルv2'の方向に補正した深さ情報d2'を導出する。この深さ情報の補正処理演算は、撮像面924の法線ベクトルv1'に対する仮想球面933の法線ベクトルv2'の傾き角θを導出して、深さ情報d2に対して三角関数cosθを乗算する演算である。
次にS916に移行し、演算装置311は、測距システム216が取得した患部領域における距離情報の分布を示す距離マップを基に、患部領域全域に対して深さ情報d2'を演算して、患部領域の深さマップを生成する。
以上説明したフローチャートの処理により、画像処理装置300は、踵のように曲率がある部位に発症した褥瘡においても、深さ情報を取得することができる。
次にS916に移行し、演算装置311は、測距システム216が取得した患部領域における距離情報の分布を示す距離マップを基に、患部領域全域に対して深さ情報d2'を演算して、患部領域の深さマップを生成する。
以上説明したフローチャートの処理により、画像処理装置300は、踵のように曲率がある部位に発症した褥瘡においても、深さ情報を取得することができる。
次に、患部領域の肉芽組織、エスカー、スラフ、滲出液、骨露出の五つの状態を解析する方法について説明する。
骨露出は、DESIGN-Rの深さ評価において最も重症度が高い状態である。
図12は、画像処理装置300において、患部領域の肉芽組織、エスカー、スラフ、滲出液、骨露出の5つ状態を解析する処理のフローチャートである。
図13(a)、図13(b)は、患部領域102に発症した肉芽組織、エスカー、スラフ、滲出液、骨露出の模式図である。図13(b)は、図13(a)の断面C-C'を示す図である。
骨露出は、DESIGN-Rの深さ評価において最も重症度が高い状態である。
図12は、画像処理装置300において、患部領域の肉芽組織、エスカー、スラフ、滲出液、骨露出の5つ状態を解析する処理のフローチャートである。
図13(a)、図13(b)は、患部領域102に発症した肉芽組織、エスカー、スラフ、滲出液、骨露出の模式図である。図13(b)は、図13(a)の断面C-C'を示す図である。
図12のフローチャートでは、初めに、S1001において、演算装置311は、患部領域102内に黒色の領域があるか否かを判定する。黒色の領域がある場合、その領域1021はエスカーの特徴と一致していることから、演算装置311は、S1002に移行し、当該領域1021はエスカーであると判定する。
次にS1003に移行して、演算装置311は、患部領域102内に未確認領域つまり未判定の領域があるか否かを判定する。未判定の領域がある場合、演算装置311は、S1001に戻って未判定領域に対して解析を繰り返して、患部領域全域の状態を判定する。一方、未判定の領域がない場合、演算装置311は、患部領域全域を解析し終えたと判断し、画像処理装置300は図12のフローチャートの処理を終了する。
ここで、S1001に戻り、黒色の領域がないと判定された場合の処理の流れについて説明する。
演算装置311は、黒色の領域がない場合にはS1004に移行し、S1004において患部領域102内に黄色の領域があるか否かを判定する。そして、演算装置311は、黄色の領域がある場合にはS1005に移行する。患部領域102内の黄色の領域1022は滲出液の特徴と一致していることから、演算装置311は、S1005においてその領域1022は滲出液であると判定する。S1005の後、演算装置311は、S1003に移行する。
一方、演算装置311は、S1004において黄色の領域がないと判定した場合にはS1006に移行し、S1006において患部領域102内に白色の領域があるか否かを判定する。そして、白色の領域があると判定した場合、演算装置311は、S1007に移行し、図8のフローチャートの実行で生成した患部領域の深さマップを取得した後、S1008に移行する。
演算装置311は、黒色の領域がない場合にはS1004に移行し、S1004において患部領域102内に黄色の領域があるか否かを判定する。そして、演算装置311は、黄色の領域がある場合にはS1005に移行する。患部領域102内の黄色の領域1022は滲出液の特徴と一致していることから、演算装置311は、S1005においてその領域1022は滲出液であると判定する。S1005の後、演算装置311は、S1003に移行する。
一方、演算装置311は、S1004において黄色の領域がないと判定した場合にはS1006に移行し、S1006において患部領域102内に白色の領域があるか否かを判定する。そして、白色の領域があると判定した場合、演算装置311は、S1007に移行し、図8のフローチャートの実行で生成した患部領域の深さマップを取得した後、S1008に移行する。
ここで、骨とスラフは、どちらも白色の特徴を有しており、褥瘡が深達して患部領域102内で骨が露出した場合、色情報だけでは両者を判別することができない。
このため、本実施形態の画像処理装置300は、色情報と距離情報の両方を用いて患部領域102の創面状態を解析する。
S1008に移行すると、演算装置311は、白色が抽出された領域1023が患部領域102内で最も深い領域、すなわち創底であるか否かを判定する。
このため、本実施形態の画像処理装置300は、色情報と距離情報の両方を用いて患部領域102の創面状態を解析する。
S1008に移行すると、演算装置311は、白色が抽出された領域1023が患部領域102内で最も深い領域、すなわち創底であるか否かを判定する。
図13(b)の例では、領域1023に対応する深さ情報d3が、患部領域102内で最も深い領域である。
この場合、領域1023は前述の褥瘡が深達して骨が露出した状態と一致しており、演算装置311は、S1009に移行し、領域1023では骨が露出していると判定する。
一方で、創底でなく、且つ白色である領域1024は、スラフの特徴と一致しているため、演算装置311は、S1010に移行し、領域1024はスラフであると判定する。S1009またはS1010の後、演算装置311は、S1003に移行する。
この場合、領域1023は前述の褥瘡が深達して骨が露出した状態と一致しており、演算装置311は、S1009に移行し、領域1023では骨が露出していると判定する。
一方で、創底でなく、且つ白色である領域1024は、スラフの特徴と一致しているため、演算装置311は、S1010に移行し、領域1024はスラフであると判定する。S1009またはS1010の後、演算装置311は、S1003に移行する。
また、S1006において、白色の領域がない場合、演算装置311は、S1011に移行する。
ここで、本実施形態の画像処理装置300が解析した状態の内、後述するポケットを除いて、エスカー、スラフ、滲出液、および骨露出はそれぞれ領域1021から領域1024において、判定済である。そして、後述するポケットを除いた場合、判定済みになっていない残った状態は、肉芽組織である。
ここで、本実施形態の画像処理装置300が解析した状態の内、後述するポケットを除いて、エスカー、スラフ、滲出液、および骨露出はそれぞれ領域1021から領域1024において、判定済である。そして、後述するポケットを除いた場合、判定済みになっていない残った状態は、肉芽組織である。
そこで、演算装置311は、患部領域102内で未判定の領域である領域1025は、肉芽組織であると推測し、S1011において当該領域1025は肉芽組織であると判定する。S1011の後、演算装置311は、S1003に移行する。
すなわち本実施形態の演算装置311は、色情報に基づく黒色や黄色の領域については第1の状態としてのエスカーや滲出液を判定し、この第1の状態を判定した後には色情報と距離情報に基づき第2の状態として骨やスラフ、肉芽組織を判定する。
以上のフローチャートの処理により、本実施形態の画像処理装置300は、患部領域内の創面状態を判定することができる。
すなわち本実施形態の演算装置311は、色情報に基づく黒色や黄色の領域については第1の状態としてのエスカーや滲出液を判定し、この第1の状態を判定した後には色情報と距離情報に基づき第2の状態として骨やスラフ、肉芽組織を判定する。
以上のフローチャートの処理により、本実施形態の画像処理装置300は、患部領域内の創面状態を判定することができる。
前述したように、S1001からS1005において、演算装置311は、患部領域に対する距離情報を用いず、色情報のみから褥瘡の状態を判定している。
ここで、本実施形態の測距システム216において例示した一眼カメラに搭載された位相差方式の測距センサ、またはTOFセンサを用いたシステムは、いずれも被写体からの反射光を利用する測距デバイスである。
そのため、被写体の反射率が測距精度に影響して誤判定する可能性がある。
そこで、本実施形態の画像処理装置300は、色情報のみから判定可能なエスカー、滲出液を始めに解析するようにしている。
そして、画像処理装置300は、S1006からS1010において、エスカー、滲出液と判定された各領域1021、領域1022を除く領域に対して、色情報と併せて距離情報を用いて、創面状態の解析を行うことで判定精度を向上させている。
ここで、本実施形態の測距システム216において例示した一眼カメラに搭載された位相差方式の測距センサ、またはTOFセンサを用いたシステムは、いずれも被写体からの反射光を利用する測距デバイスである。
そのため、被写体の反射率が測距精度に影響して誤判定する可能性がある。
そこで、本実施形態の画像処理装置300は、色情報のみから判定可能なエスカー、滲出液を始めに解析するようにしている。
そして、画像処理装置300は、S1006からS1010において、エスカー、滲出液と判定された各領域1021、領域1022を除く領域に対して、色情報と併せて距離情報を用いて、創面状態の解析を行うことで判定精度を向上させている。
次に、画像処理装置300によるポケット有無の判定処理、およびポケットの深さを測定する方法について説明する。
図14は、ポケット有無の判定からポケット深さを測定するまでの処理のフローチャートである。
まず、S1201において、演算装置311は、図8のフローチャートの処理で取得した距離情報を用いて、患部領域102にポケットが存在するかどうかを判定する。患部領域にポケットが無い場合、演算装置311は、ポケット深さを測定するフローチャートの処理を終了する。
図14は、ポケット有無の判定からポケット深さを測定するまでの処理のフローチャートである。
まず、S1201において、演算装置311は、図8のフローチャートの処理で取得した距離情報を用いて、患部領域102にポケットが存在するかどうかを判定する。患部領域にポケットが無い場合、演算装置311は、ポケット深さを測定するフローチャートの処理を終了する。
図15は、患部領域にポケットが存在する一例を示した図である。
図15(a)は、患部領域102における断面D-D'の位置を示した図である。断面D-D'は、演算装置311によって任意の位置に設定される。演算装置311は、断面D-D'を任意のステップで平行移動させてポケット有無判定を行うことを繰り返すことにより患部領域全域に対するポケット有無判定を行う。図15(a)では、断面D-D'が患部領域102の中心を通過するように記載してあるが、必ずしも患部領域102の中心を通過しなくてもよい。断面D-D'の設定について、詳細は後述する。
図15(a)は、患部領域102における断面D-D'の位置を示した図である。断面D-D'は、演算装置311によって任意の位置に設定される。演算装置311は、断面D-D'を任意のステップで平行移動させてポケット有無判定を行うことを繰り返すことにより患部領域全域に対するポケット有無判定を行う。図15(a)では、断面D-D'が患部領域102の中心を通過するように記載してあるが、必ずしも患部領域102の中心を通過しなくてもよい。断面D-D'の設定について、詳細は後述する。
図15(b)は、図15(a)の断面D-D'における患部領域102の形状を示した図である。ここでは、撮像装置200との位置関係を簡略化して示している。図15(b)では、右側にポケット1100が存在している例を示している。患部領域102の一端にポケット1100が存在する例を示しているが、複数のポケット1100が存在する場合もある。
図15(c)は、図15(b)に示した患部領域102の断面D-D'と深さ情報との関係を示した図である。横軸は、患部領域102の断面D-D'における位置、縦軸は、患部領域102の深さ情報を示している。患部領域102の深さ情報は、基準面923を零(ゼロ)とし、患部領域102内の中心に向かって大きな値となるように記載している。
図15(c)では、一例として左側にポケット無の傾き1101を示し、右側にポケット有の傾き1102を示している。ポケット無の傾き1101は、基準面923から創底1023までの傾きが小さく、ポケット有の傾き1102は、基準面923から創底1023までの傾きが大きいことが特徴である。
図15(c)では、一例として左側にポケット無の傾き1101を示し、右側にポケット有の傾き1102を示している。ポケット無の傾き1101は、基準面923から創底1023までの傾きが小さく、ポケット有の傾き1102は、基準面923から創底1023までの傾きが大きいことが特徴である。
次に、上述した傾きの算出方法について説明する。
演算装置311は、患部領域102の断面D-D'における位置と測定した深さ情報により、傾きを算出する。算出する傾きは、任意の範囲を二乗平均した値を使用するか、最大値を使用してもよい。
ここで、演算装置311は、算出した傾きが閾値以上となるかを算出して、ポケットの有無を判定する。傾きの閾値は、絶対値であり、撮像装置200に対する初期設定値として設定される。傾きの閾値はユーザが任意に設定することも可能であり、一度設定することで次回以降は設定する必要はない。また、患部領域は大きな深さを有する場合があるため、傾きの閾値は、深さ情報に対して可変させることも可能である。例えば、患部領域が大きな深さを有する場合は、ポケット無の傾き1101が大きい値となるため、傾きの閾値も大きくし、ポケット無だと判定する必要がある。
演算装置311は、患部領域102の断面D-D'における位置と測定した深さ情報により、傾きを算出する。算出する傾きは、任意の範囲を二乗平均した値を使用するか、最大値を使用してもよい。
ここで、演算装置311は、算出した傾きが閾値以上となるかを算出して、ポケットの有無を判定する。傾きの閾値は、絶対値であり、撮像装置200に対する初期設定値として設定される。傾きの閾値はユーザが任意に設定することも可能であり、一度設定することで次回以降は設定する必要はない。また、患部領域は大きな深さを有する場合があるため、傾きの閾値は、深さ情報に対して可変させることも可能である。例えば、患部領域が大きな深さを有する場合は、ポケット無の傾き1101が大きい値となるため、傾きの閾値も大きくし、ポケット無だと判定する必要がある。
ポケットの有無の判定結果は、表示装置223によって表示される。ポケットの有無は、上述のように自動で判定してもよいが、算出した傾きを表示装置223により表示して、ユーザが任意に判定してもよい。
また本実施形態では、ポケットの有無の判定の手法として、深層学習を行う。すなわち、不図示の機械学習用の高性能コンピュータに、算出した傾きに対するポケット有無の判定を教師データとして用いてニューラルネットワークのモデルを学習させて、学習済モデルを生成する。補助演算装置317は、高性能コンピュータから学習済モデルを受け取り、この学習済モデルに基づいて画像データから、ポケット有無に必要な傾きの閾値を推定する。また、深層学習に限らず、他の手法が用いられてもよい。さらに、補助演算装置317の内部で、算出した傾きに対するポケット有無の判定を教師データとしたニューラルネットワークのモデルの学習を行ってもよい。なお、ポケット有無判定は、深さ情報ではなく、受光信号強度で判定すること、つまり任意の断面における受光信号強度との傾きに基づいて行われてもよい。
次に、断面D-D'の設定について説明する。
図16は、断面D-D'の演算値抽出(以下、読み出しとする)方法について説明した図である。
図16(a)は、患部領域102の中心から360°放射状に読み出す方式を示している。患部領域102の中心1110は、画像処理装置300の演算装置311が算出する。患部領域102の中心1110を通る断面は中心断面1111とする。中心断面1111は、任意に設定した読み出し間隔で、中心1110を軸に360°回転することで、患部領域全体を読み出すようにする。なお、中心1110は、基準面923設定のための複数の基準点922を利用し設定してもよい。
図16は、断面D-D'の演算値抽出(以下、読み出しとする)方法について説明した図である。
図16(a)は、患部領域102の中心から360°放射状に読み出す方式を示している。患部領域102の中心1110は、画像処理装置300の演算装置311が算出する。患部領域102の中心1110を通る断面は中心断面1111とする。中心断面1111は、任意に設定した読み出し間隔で、中心1110を軸に360°回転することで、患部領域全体を読み出すようにする。なお、中心1110は、基準面923設定のための複数の基準点922を利用し設定してもよい。
一方、図16(b)は、患部領域102を、水平方向と、当該水平方向に90°直交する垂直方向とで、それぞれ読み出す方式を示している。以下の説明では、表示装置223の画面に対して、水平方向の断面を水平断面1112とし、水平断面1112に対して90°直交する垂直方向の断面を垂直断面1113とする。水平断面1112と垂直断面1113を、任意に設定した読み出し間隔で平行移動させることにより、患部領域全体を読み出すようにする。ここでは、表示装置223の画面に対する、水平方向と垂直方向とを設定した例を挙げたが、設定する2方向の断面同士が90°ずれた関係となっていればこの例に限定されない。
上述したようにして患部領域全体を読み出すことにより、ポケットが存在する方向(位置)の特定が可能となる。また複数のポケットが存在する場合、画像処理装置300は、それらポケットの個数及び位置を、表示装置223に表示させる。
図17は、患部領域102の中央付近を省いて傾きを算出する方法について説明する図である。
患部領域102は、創底1023も含めて凹凸形状や鋭角な形状等の複雑な形状となる場合がある。ポケットの有無を判定する場合には、患部領域102の中央付近を省いて傾きを算出することで誤検知を防止する。
患部領域102は、創底1023も含めて凹凸形状や鋭角な形状等の複雑な形状となる場合がある。ポケットの有無を判定する場合には、患部領域102の中央付近を省いて傾きを算出することで誤検知を防止する。
図17(a)は、患部領域102における中央付近を省いた一例を示した図である。省いた範囲を中央抜き範囲1120と示し、断面D-D'は中央抜き範囲1120を通過するように設定する。演算装置311は、患部領域102全体から中央抜き範囲1120を減算した範囲を算出し、この範囲に対して傾きを算出する。ここで、中央抜き範囲1120は、患部領域102と相似関係のまま縮小した形状とする。例えば、縮小率が大きいほど誤検知率は上昇し易くなるため、中央抜き範囲1120は、患部領域102の2/3サイズとする。
図17(b)は、図17(a)の断面D-D'における患部領域102の形状を示した図である。
図17(c)は、図17(b)で示した患部領域102の断面D-D'と深さ情報との関係を示した図である。
このように、中央抜き範囲1120を省くことで、基準面923から創底1023までの傾き部分のみを抽出することができる。このため、中央抜き範囲1120に凹凸形状があり、ポケット有と判定される傾きがあった場合でも、誤検知することなく判定することができる。
図17(c)は、図17(b)で示した患部領域102の断面D-D'と深さ情報との関係を示した図である。
このように、中央抜き範囲1120を省くことで、基準面923から創底1023までの傾き部分のみを抽出することができる。このため、中央抜き範囲1120に凹凸形状があり、ポケット有と判定される傾きがあった場合でも、誤検知することなく判定することができる。
続いてポケットの深さを測定する方法について説明する。
図18は、図15(a)の断面D-D'におけるポケット1100の深さ測定方法の一例を示した図である。
図14のS1202からS1204では、演算装置311は、基準面922に対して正対した位置1212から断面D-D'におけるポケット1100の最深部を測定可能な位置1213まで撮像装置200を煽るように、ユーザに要求する。ユーザに対する要求は、S1202において、例えば演算装置311が、撮像装置200に対する煽り操作を行うことをユーザに要求する表示情報を生成し、その表示情報を撮像装置200の表示装置223に表示させることなどにより実現される。そして、ユーザが要求通りに撮像装置200を煽った時、撮像装置200では、S1203において測距システム216による測距が行われ、これによって演算装置311はポケット最深部1222の距離情報を取得する。
図18は、図15(a)の断面D-D'におけるポケット1100の深さ測定方法の一例を示した図である。
図14のS1202からS1204では、演算装置311は、基準面922に対して正対した位置1212から断面D-D'におけるポケット1100の最深部を測定可能な位置1213まで撮像装置200を煽るように、ユーザに要求する。ユーザに対する要求は、S1202において、例えば演算装置311が、撮像装置200に対する煽り操作を行うことをユーザに要求する表示情報を生成し、その表示情報を撮像装置200の表示装置223に表示させることなどにより実現される。そして、ユーザが要求通りに撮像装置200を煽った時、撮像装置200では、S1203において測距システム216による測距が行われ、これによって演算装置311はポケット最深部1222の距離情報を取得する。
またこのとき、演算装置311は、患部領域102と創縁1211の位置関係及び距離情報を用いた演算を行うことで位置1213を予想し、その予想した位置を基に撮像装置200における煽り方向及び煽り角度を限定してもよい。
以下に、演算装置311による演算を基に位置1213を予想して、ポケット最深部1222の距離情報を取得する方法の一例を示す。
以下に、演算装置311による演算を基に位置1213を予想して、ポケット最深部1222の距離情報を取得する方法の一例を示す。
まず、演算装置311は、創縁1211と創縁近傍の創底1220とを繋ぐ直線の中点の位置を算出し、この中点の位置を撮像装置200の煽り中心1218とする。煽り中心1218と創縁1211とを繋ぐ直線上の任意の位置は、基準面922に対して正対した位置1212に等しい。
また、演算装置311は、患部領域102の断面D-D'上の、創縁1211と異なる創縁1219の位置を算出し、煽り中心1218と創縁1219とを繋ぐ直線上の任意の位置を測定限界位置とする。さらに、演算装置311は、位置1212から測定限界位置まで撮像装置200を煽る角度1215内に位置1213が含まれると予想し、ポケットの深さを測定する際の撮像装置200の煽る角度を、角度1215に限定する。そして、角度1215内で撮像装置200が煽られて測距システム216が複数回の測距を行うことで、ポケット1100内の距離情報が取得される。さらに、演算装置311は、それらポケット1100内の距離情報の中から、断面D-D'内で煽り中心1218から最も遠い点を算出し、その点をポケット最深部1222とする。
また、演算装置311は、患部領域102の断面D-D'上の、創縁1211と異なる創縁1219の位置を算出し、煽り中心1218と創縁1219とを繋ぐ直線上の任意の位置を測定限界位置とする。さらに、演算装置311は、位置1212から測定限界位置まで撮像装置200を煽る角度1215内に位置1213が含まれると予想し、ポケットの深さを測定する際の撮像装置200の煽る角度を、角度1215に限定する。そして、角度1215内で撮像装置200が煽られて測距システム216が複数回の測距を行うことで、ポケット1100内の距離情報が取得される。さらに、演算装置311は、それらポケット1100内の距離情報の中から、断面D-D'内で煽り中心1218から最も遠い点を算出し、その点をポケット最深部1222とする。
なおこのときの撮像装置200の回動方向は一軸方向に限定されていなくてもよい。
図19は、創縁1211を通り基準面に対して垂直な直線を軸に撮像装置200を回動させてポケット1100の深さを測定する方法の一例を示す図である。
このとき、撮像装置200の初期位置は、位置1213とする。そして、演算装置311は、撮像装置を、位置1213から創縁1211を通り基準面に対して垂直な直線を軸の中心として回動させながら、ポケット1100の最深部を測定可能な位置1224まで回動させることを、撮像装置200を介してユーザに要求する。ユーザがその要求通りに撮像装置200を回動させ、測距システム216で測距が行われた後、演算装置311は、その測距情報からポケット最深部1225の距離情報を取得する。
図19は、創縁1211を通り基準面に対して垂直な直線を軸に撮像装置200を回動させてポケット1100の深さを測定する方法の一例を示す図である。
このとき、撮像装置200の初期位置は、位置1213とする。そして、演算装置311は、撮像装置を、位置1213から創縁1211を通り基準面に対して垂直な直線を軸の中心として回動させながら、ポケット1100の最深部を測定可能な位置1224まで回動させることを、撮像装置200を介してユーザに要求する。ユーザがその要求通りに撮像装置200を回動させ、測距システム216で測距が行われた後、演算装置311は、その測距情報からポケット最深部1225の距離情報を取得する。
またこのとき、演算装置311は、患部領域102と創縁1211の位置関係及び距離情報を用いた演算によって位置1224を予想して、撮像装置200の回動方向及び回動角度を限定してもよい。
以下に、演算装置311が演算によって位置1224を予想し、ポケット最深部1225の距離情報を取得する方法の一例を示す。
以下に、演算装置311が演算によって位置1224を予想し、ポケット最深部1225の距離情報を取得する方法の一例を示す。
まず、演算装置311は、患部領域102を囲うことができ、断面D-D'に水平な直線を含み、基準面922内に作られる最小の長方形形状1226を、算出する。また、演算装置311は、創縁1211と長方形形状1226の頂点とを結ぶ直線のうち、患部領域102の基準面922に対する投影面内を通過する直線を抽出する。さらに、演算装置311は、抽出した直線の内の二直線、例えば直線1227及び直線1228を選んで作られる角度であって、位置1213を含む角度のうち最大の角度1223の範囲内に位置1224が存在すると予想する。そして、演算装置311は、ポケットの深さを測定する際の撮像装置200の回動角度を角度1223に限定する。
次に角度1223内で撮像装置200が回動されて測距システム216で複数回測距が行われると、演算装置311は、それら複数回の測距情報からポケット1100内の距離情報を取得する。そして、演算装置311は、取得したポケット1100内の距離情報の中から、基準面922内で創縁1211から最も遠い点を算出し、その点をポケット最深部1225とする。
また、煽りや回動を加えながら測距システム216を用いて測距を行う際、最適な煽りや回動方向をユーザが認識可能となるようなユーザ補助機能を、撮像装置200および演算装置311によって実現することもできる。ユーザ補助機能は、撮像装置200が備えていてもよいし、演算装置311からの指示に応じて撮像装置200が実現してもよい。ここでは、演算装置311が撮像装置200にユーザ補助機能を実現させる例を説明する。
図20は、ユーザ補助機能の一例を示した図である。
例えば、ポケット1100の位置が創縁1211周辺であることをユーザに認識させる場合には、演算装置311は、撮像装置200のライブビュー映像上の創縁1211の表示部分に、点線で示す長方形形状のポケット判定マーク1216を表示させる。また、演算装置311は、前述した角度1215や角度1223内で撮像装置200を煽りや回動させるための方向をユーザに指示する方向指示1217を、ライブビュー映像上に表示させてもよい。このとき、撮像装置200の煽り角度量情報や併進移動量情報を取得するため、撮像装置200は加速度センサおよび角速度センサを搭載していてもよい。この場合の画像処理装置300は、撮像装置200の加速度センサにより取得された加速度情報と、角速度センサにより取得された角速度情報とにより、当該撮像装置200の位置及び姿勢情報を取得する位置姿勢取得機能を有する。そして、演算装置311は、それら加速度情報、角速度情報を基に、撮像装置200の位置姿勢の変化量を演算し、それに基づいて煽り角度量情報や併進移動量情報を演算する。
例えば、ポケット1100の位置が創縁1211周辺であることをユーザに認識させる場合には、演算装置311は、撮像装置200のライブビュー映像上の創縁1211の表示部分に、点線で示す長方形形状のポケット判定マーク1216を表示させる。また、演算装置311は、前述した角度1215や角度1223内で撮像装置200を煽りや回動させるための方向をユーザに指示する方向指示1217を、ライブビュー映像上に表示させてもよい。このとき、撮像装置200の煽り角度量情報や併進移動量情報を取得するため、撮像装置200は加速度センサおよび角速度センサを搭載していてもよい。この場合の画像処理装置300は、撮像装置200の加速度センサにより取得された加速度情報と、角速度センサにより取得された角速度情報とにより、当該撮像装置200の位置及び姿勢情報を取得する位置姿勢取得機能を有する。そして、演算装置311は、それら加速度情報、角速度情報を基に、撮像装置200の位置姿勢の変化量を演算し、それに基づいて煽り角度量情報や併進移動量情報を演算する。
S1204において、演算装置311は、前述のような撮像装置200の煽りや回動とそれに伴う測距が終了したかを判断し、終了していない場合にはS1202に戻り、一方、終了した場合にはS1205に処理を進める。
S1205に進むと、演算装置311は、ポケット深さ演算を行う。すなわちS1205において、演算装置311は、取得したポケット最深部1222又はポケット最深部1225の距離情報から、創縁1211とポケット最深部1222又はポケット最深部1225の基準面922に対する投影距離を算出する。そして、演算装置311は、その算出した投影距離を、ポケット深さ1214とする。
その後、S1205において、演算装置311は、ポケット深さの演算が終了したことを確認次第、本フローチャートの処理を終了する。
S1205に進むと、演算装置311は、ポケット深さ演算を行う。すなわちS1205において、演算装置311は、取得したポケット最深部1222又はポケット最深部1225の距離情報から、創縁1211とポケット最深部1222又はポケット最深部1225の基準面922に対する投影距離を算出する。そして、演算装置311は、その算出した投影距離を、ポケット深さ1214とする。
その後、S1205において、演算装置311は、ポケット深さの演算が終了したことを確認次第、本フローチャートの処理を終了する。
図21は、S419およびS420において、患部領域情報をユーザに入力させる方法を説明するための図であり、図21(a)は患部領域情報のうち、患部領域の部位の入力を促す表示例を示している。なお、これらの表示情報は、画像処理装置300の演算装置311が生成して、撮像装置200の表示装置223に表示させてもよいし、撮像装置200のシステム制御回路220が生成して表示装置223に表示させてもよい。
表示装置223は、患部領域の部位、Head(頭)、Shoulder(肩)、Arm(腕)、Back(背)、Waist(腰)、Hip(尻)、Leg(脚)を指定するための部位選択項目801を表示する。また、この部位選択項目801の一番下には、患部領域情報の入力を完了するための項目があり、ユーザは、操作部224の操作を介してこれを選択することで、患部領域情報の一部が未入力であっても、患部領域情報の入力作業を終了することができる。また、ユーザは、操作部224を操作することで、撮影した患部領域が存在する部位を指定することができる。そして、表示装置223は、ユーザによって選択された項目を、枠線802で囲まれた項目として表示する。図21(a)ではHip(尻)が選択された様子を示している。なお、部位選択項目801が示す一つの部位には、二つ以上の患部領域が存在することもあるため、さらに、Hip1、Hip2、Hip3と、さらに複数の項目の選択ができるようにしてもよい。
また、一つの部位を分割、例えばLeg(脚)をさらに分割して、HEEL(踵)とKNEE(膝)など複数の項目の選択ができるようになされていてもよい。
図21(b)は、図21(a)で患部領域が存在する部位が選択された後、その選択された部位でよいかどうかをユーザに確認するため項目803の表示例を示している。項目803に対するユーザ操作によって、その選択された部位でよいことが確認されると、表示装置223は、図21(c)に示す画面の表示を行う。
図21(b)は、図21(a)で患部領域が存在する部位が選択された後、その選択された部位でよいかどうかをユーザに確認するため項目803の表示例を示している。項目803に対するユーザ操作によって、その選択された部位でよいことが確認されると、表示装置223は、図21(c)に示す画面の表示を行う。
図21(c)は、患部領域情報のうち、DESIGN-Rの各評価項目の評価値の入力を促す表示例を示した図である。
図21(c)に示すように、画面左側には評価項目選択部804が表示される。図21(c)において、Dは深さ(Depth)、Eは滲出液(Exudate)、Sは大きさ(Size)、Iは炎症・感染(Inflammation/Infection)、Gは肉芽組織(Granulation)の各項目を表している。さらに、Nは壊死組織(Necrotic tissue)、Pはポケット(Pocket)の各項目を表している。表示装置223には、これらの各項目と、それぞれの項目が入力されたかどうかを示す情報が、患部領域の画像とともに表示される。
図21(c)に示すように、画面左側には評価項目選択部804が表示される。図21(c)において、Dは深さ(Depth)、Eは滲出液(Exudate)、Sは大きさ(Size)、Iは炎症・感染(Inflammation/Infection)、Gは肉芽組織(Granulation)の各項目を表している。さらに、Nは壊死組織(Necrotic tissue)、Pはポケット(Pocket)の各項目を表している。表示装置223には、これらの各項目と、それぞれの項目が入力されたかどうかを示す情報が、患部領域の画像とともに表示される。
図21(c)では、画像から解析済みであるS(大きさ)については評価値「s9」が表示され、それ以外の評価項目については未確認であることを示す「non」が表示されている。S(大きさ)の項目が網掛け表示となっているのは、この項目が入力済であることを示している。
ユーザは、操作部224を操作することで評価項目を指定することができ、表示装置223は、選択された評価項目(ここではD(深さ))を枠線805で囲むようにして表示する。またこのとき、表示装置223は、画面下部に、重症度選択部806として画面左側で選択された評価項目の重症度の評価値を重畳表示する。図21(c)では、D(深さ:Depth)の重症度を示す評価値であるd0、d1、d2、D3、D4、D5、DUが表示されている。
またユーザは、操作部224を操作することで、いずれかの評価値を選択することができる。このとき表示装置223は、選択された評価値を枠線807で囲んで表示するとともに、その評価値の説明文808(評価項目Depth、重症度d2の説明:真皮までの損傷)を表示する。なお、ユーザが文字列を入力することで、評価値の入力が行われるようにしてもよい。
またユーザは、操作部224を操作することで、いずれかの評価値を選択することができる。このとき表示装置223は、選択された評価値を枠線807で囲んで表示するとともに、その評価値の説明文808(評価項目Depth、重症度d2の説明:真皮までの損傷)を表示する。なお、ユーザが文字列を入力することで、評価値の入力が行われるようにしてもよい。
このとき、重症度は、前述の評価値に加えて、補助評価値を付与することでさらに細分化して表示されてもよい。深さの補助評価値としては、演算装置311および補助演算装置317が算出した創縁から患部領域内までの距離情報や、その距離情報に基づいて定義された任意の記号などが採用可能である。
例えば、補助評価値として創縁から患部領域内までの距離情報を付与する場合、表示装置223は、評価値に創縁から患部領域内までの距離情報(例えば、3mm)を付与し、d2(3mm)などのように表示する。また、補助評価値として創縁から患部領域内までの距離情報に基づいて定義された任意の記号を付与する場合、表示装置223は、例えば、評価値がd1寄りのd2のときは、評価値d2に補助評価値+を付与しd2+と表示する。逆に評価値がD3寄りのd2のとき、表示装置223は、評価値d2に補助評価値-を付与してd2-と表示する。なお、評価値に補助評価値を付与し重症度を表示する方法は、上記の例に限定されるものではなく任意に設定可能である。
このように重症度を細分化して表示することによって、例えば初療時から完治までの治癒過程において複数回患部を撮影する場合などにおいて、より詳細に患部を評価することが可能になる。つまり、DESIGN-Rとしての結果が同じ評価値であっても、患部が改善傾向にあるのか悪化傾向にあるのかの評価ができるようになる。また、患部領域内の複数個所について、評価値と補助評価値を用いて重症度を示しておくと、患部領域内において改善傾向にある部分と悪化傾向にある部分を評価できるようになる。これにより、DESIGN-Rの定義のみではなく、患部状態の実情に合わせて、患部の改善具合の評価ができるようになる。
なお、補助評価値は、患部領域の部位、患部領域が到達している組織、被写体101の属性に応じて適宜設定されることが望ましい。例えば、患部領域の部位が臀部で、患部領域が到達している組織が皮下組織であり、被写体101の属性が肥満体系であった場合、皮膚の厚みは厚くなる傾向があるため、補助評価値をより細分化して示すとよい。なお、上述した評価値の選択や補助評価値の付与は、ユーザによって入力されてもよいし、自動解析により判定され入力されてもよい。
図21(d)は、図21(c)で評価値が選択された後、その選択された評価値でよいかどうかを、ユーザに問い合わせるための確認通知809の表示例を示している。選択された評価値で問題ないことを、ユーザが操作部224を介して選択すると、表示装置223は、図21(e)に示す表示に画面を遷移させる。
図21(e)は、評価値が入力されたことによって、D(深さ)の評価項目810の表示が「non」から「d2」に変わるとともに、評価項目810が網掛け表示となった例を示している。
同様にして、未入力の評価項目がなくなるまで、E(滲出液)、I(炎症・感染)、G(肉芽組織)、N(壊死組織)、P(ポケット)について、ユーザに評価値の入力を促す表示がされる。
そして、全ての評価項目の評価値が入力されると、表示装置223には患部領域情報の入力が完了した旨をユーザに通知する表示が行われ、その後、撮像装置200は、S402に戻り、ライブビュー処理を開始する。
図21(e)は、評価値が入力されたことによって、D(深さ)の評価項目810の表示が「non」から「d2」に変わるとともに、評価項目810が網掛け表示となった例を示している。
同様にして、未入力の評価項目がなくなるまで、E(滲出液)、I(炎症・感染)、G(肉芽組織)、N(壊死組織)、P(ポケット)について、ユーザに評価値の入力を促す表示がされる。
そして、全ての評価項目の評価値が入力されると、表示装置223には患部領域情報の入力が完了した旨をユーザに通知する表示が行われ、その後、撮像装置200は、S402に戻り、ライブビュー処理を開始する。
このように、実施形態のシステムでは、S418からS420までの処理において、患部撮領域の撮影後、自動解析されなかった評価項目の評価値や患部領域の部位の情報の入力を促す表示を行い、ユーザに患部領域情報を入力させる機能を備える。このようにすることで、従来、別の媒体で入力していた患部領域情報を撮像装置のみで入力することが可能となる。
また本実施形態のシステムでは、次の患部を撮影する前に患部領域情報が全て入力されたかどうか判定し、未入力の評価項目の入力を順次促すことで、患部領域情報の入力漏れを防ぐことが可能となる。
また本実施形態のシステムでは、次の患部を撮影する前に患部領域情報が全て入力されたかどうか判定し、未入力の評価項目の入力を順次促すことで、患部領域情報の入力漏れを防ぐことが可能となる。
なお、本実施形態に係る操作部224は、音声認識による入力装置が用いられてもよい。
また、図21(a)では患部部位入力時、部位を「Head」「Shoulder」などの文字で項目表示し、選択可能とした。これに対し、図21(f)に示すように、表示装置223は人体モデル811を表示し、表示装置223に設けられたタッチセンサ等で、ユーザに患部領域の部位を指定させるように構成されていてもよい。
またその際、図21(g)に示すように、人体モデル811を拡大、縮小、あるいは、回転させることにより、より患部領域の部位を選択しやすくするように構成されていてもよい。
また、図21(a)では患部部位入力時、部位を「Head」「Shoulder」などの文字で項目表示し、選択可能とした。これに対し、図21(f)に示すように、表示装置223は人体モデル811を表示し、表示装置223に設けられたタッチセンサ等で、ユーザに患部領域の部位を指定させるように構成されていてもよい。
またその際、図21(g)に示すように、人体モデル811を拡大、縮小、あるいは、回転させることにより、より患部領域の部位を選択しやすくするように構成されていてもよい。
また、図21(e)では、評価値の入力が完了した評価項目であることを示す手段として網掛け表示を用いたが、文字の輝度を落としたり、反転表示したりしてもよく、ユーザに明示できるのであれば、これらの表示方法に制限されるものではない。
また、本実施形態では、入力可能な褥瘡の評価指標としてDESIGN-Rを用いていたが、これに限定されるものではない。例えばBates-Jensen WoundAssessment Tool(BWAT)、Pressure Ulcer Scale for Healing(PUSH)、Pressure Sore Status Tool(PSST)などの他の評価指数が用いられてもよい。すなわち、褥瘡の領域の抽出結果と、抽出した領域の大きさの情報が得られたことに応じて、これらBWAT、PUSH、PSSTなどにおける評価項目を入力するためのユーザインターフェースを表示するようにしてもよい。
また、本実施形態では、入力可能な褥瘡の評価指標としてDESIGN-Rを用いていたが、これに限定されるものではない。例えばBates-Jensen WoundAssessment Tool(BWAT)、Pressure Ulcer Scale for Healing(PUSH)、Pressure Sore Status Tool(PSST)などの他の評価指数が用いられてもよい。すなわち、褥瘡の領域の抽出結果と、抽出した領域の大きさの情報が得られたことに応じて、これらBWAT、PUSH、PSSTなどにおける評価項目を入力するためのユーザインターフェースを表示するようにしてもよい。
また、本実施形態では褥瘡の評価項目の評価値の入力を目的とした構成の例を挙げて説明を行っているが、視覚的な評価項目であれば、他の皮膚疾患における評価項目の評価値でもよい。例えば、アトピー性皮膚炎におけるSeverity Scoring of Atopic Dermatitis(SCORAD)、や乾癬におけるBody Surface Area、Psoriasis Area and Severity Index(PASI)等がある。
次に、患部の治癒過程において被写体101の患部領域102の患部領域情報が複数回取得された場合、治癒過程における患部領域102の深さの重症度を比較表示する方法について説明する。
図22は、患部領域102の評価項目の内、深さの重症度について治癒過程における前後の結果を比較し、撮像装置200の表示装置223にその比較結果を表示する処理のフローチャートである。すなわちこのフローチャートでは、患部領域の所定部分において過去に得られた過去評価値と新たに得られた新規評価値とを比較し、過去評価値と新規評価値とが同一である場合に、所定部分に対応して取得された距離情報に基づいた差分情報を表示する。なお、図22のフローチャートの処理は、図4に示したフローチャートのS419からS420の処理内のいずれかに包括されていてもよく、S420の後にS1300以降の深さ前後比較の処理が組み込まれてもよい。
図22は、患部領域102の評価項目の内、深さの重症度について治癒過程における前後の結果を比較し、撮像装置200の表示装置223にその比較結果を表示する処理のフローチャートである。すなわちこのフローチャートでは、患部領域の所定部分において過去に得られた過去評価値と新たに得られた新規評価値とを比較し、過去評価値と新規評価値とが同一である場合に、所定部分に対応して取得された距離情報に基づいた差分情報を表示する。なお、図22のフローチャートの処理は、図4に示したフローチャートのS419からS420の処理内のいずれかに包括されていてもよく、S420の後にS1300以降の深さ前後比較の処理が組み込まれてもよい。
S1301において、画像処理装置300の演算装置311は、患部領域102がどの組織まで到達しているかを比較する。演算装置311は、S419で入力された評価値や補助評価値の患部領域情報、患部領域102を撮像して解析された創縁から当該患部領域内までの距離情報を基に算出した評価値や補助評価値から、患部領域がどこまで到達しているかを比較する。すなわちここでは、距離情報に基づいて患部領域の所定部分が到達している到達組織の判定が行われ、過去評価値と新規評価値とは到達組織に基づく評価値のことである。
演算装置311は、S1301で患部領域が到達している組織を比較した結果、過去評価値である前回結果と新規評価値である今回結果とで到達している組織が異なればS1302に進む。そして演算装置311は、DESIGN-Rの定義に沿った評価結果を、撮像装置200の表示装置223に表示させる。例えば演算装置311は、図23の比較箇所ポイントP1に示す様に、前回結果がD4(皮下組織を超える損傷)で今回結果がD3(皮下組織までの損傷)であれば、重症度として補助評価値を付与せずに評価値のみの結果を表示させる。一方で、患部領域が到達している組織が同じであれば、演算装置311は、S1303に進む。
S1303に進むと、演算装置311は、前述したように算出した創縁から患部領域内までの距離情報に基づいて、深さを比較する。S1303で深さを比較した結果、前回結果と今回結果で創縁から患部領域内までの距離情報が異なれば、演算装置311は、S1304に進む。ここで、深さの比較に用いる判定基準としての閾値は、任意に設定可能である。
S1304に進むと、演算装置311は、患部の重症度を評価値と補助評価値を用いて詳細な表示を行わせる。例えば、図23の比較箇所ポイントP2に示す様に、前回結果と今回結果共に評価値はd2(真皮までの損傷)であるが、さらに補助評価値を付与して結果を表示させる。ここでは、今回結果にd1寄りのd2を意味する+が付与されて表示させる。これにより、前回と今回で患部領域が同じ組織内に到達していながらも、改善傾向にあるのか悪化傾向にあるのかが判別できる表示となる。この場合、d1寄りのd2を意味する+が付与されているので、改善傾向にあることが見て取れる。
また、図23の比較箇所ポイントP3に示す様に、前回結果と今回結果共に評価値はD3(皮下組織まで損傷)であるが、演算装置311は、さらに補助評価値を付与して結果を表示させる。ここでは、創縁から患部領域内までの距離情報が付与されて表示されている。これにより、前回と今回で患部領域が同じ組織内に到達していながらも、同じ組織内で改善傾向にあるのか悪化傾向にあるのかが判別できる表示となる。この場合、前回結果の創縁から患部領域内までの距離情報が5mmに対して、今回結果の創縁から患部領域内までの距離情報が4mmになっており、改善傾向にあることが見て取れる。
一方で、S1303で深さを比較した結果、前回結果と今回結果で創縁から患部領域内までの距離情報が同じであれば、演算装置311は、S1305に進み、例えば図23の比較箇所ポイントP4に示すように前回結果と同じ評価結果を表示させる。
また、図23に示したように患部領域のサイズによっては、DESIGN-Rで定義される創縁から創底までの深さだけでなく、より詳細に患部を評価することが可能になる。すなわち患部領域内における複数箇所(例えば比較箇所ポイントP1からP4)の重症度を評価値や補助評価値を用いて示しておくことで、より詳細に患部を評価することが可能になる。
さらに、図24に示した距離マップのように、例えば図23の患部領域における任意の断面(例えば、断面A-A')における創縁から患部領域内までの距離情報を表示することで、患部領域の治癒過程を視覚的に評価することができる。
さらに、図24に示した距離マップのように、例えば図23の患部領域における任意の断面(例えば、断面A-A')における創縁から患部領域内までの距離情報を表示することで、患部領域の治癒過程を視覚的に評価することができる。
ここで、図24の距離マップでは、患部領域102の断面A-A'と距離情報との関係が示されている。横軸は、患部領域102の断面A-A'における位置、縦軸は、患部領域102の深さすなわち距離情報を示している。距離情報は、基準面を零(ゼロ)とし、縦軸方向に向かって大きな値となるように記載している。図24に示したように、縦軸に距離情報ではなく、D(深さ)の重症度を示す評価値のd0からDUを表示してもよい。ここでは、d1からD4を表示している。なお、断面A-A'は、患部領域102が表示装置223に表示されている状態で、ユーザによる操作部224もしくはタッチパネル等での操作で選択できるようにするとよい。また、患部領域内における複数箇所の重症度が評価値や補助評価値を用いて入力されているので、図25に示したように、患部領域内の改善している部分や悪化している部分を、例えば、画像レイヤーして表示することも可能である。
このように、本実施形態によれば、ユーザが撮像装置200で患部領域を撮像することにより、撮像装置200の表示装置223に患部領域の大きさを示す情報が表示される画像処理システムを提供することができる。そのため、褥瘡の患部領域の大きさの評価を医療関係者の負荷、および、評価をされる患者側の負荷を軽減することができる。また、患部領域の大きさの算出をプログラムに基づいて実行することで、医療関係者が手動で計測する場合に比べて個人差を抑制することができ、褥瘡の大きさの評価の正確性を向上することができる。また、褥瘡の規模をより的確に表すため評価値としての患部面積を算出して表示することができる。
なお、ライブビュー表示の際に、ユーザが患部領域の推定エリアが妥当であるかを確認する機能は必須ではないため、S406、S407、および、S441からS445の各処理ステップは省略することも可能である。
なお、ライブビュー表示の際に、ユーザが患部領域の推定エリアが妥当であるかを確認する機能は必須ではないため、S406、S407、および、S441からS445の各処理ステップは省略することも可能である。
また、画像処理装置300は、患部領域の抽出結果を示す情報、患部領域の大きさを示す情報、および、これらの情報を重畳した重畳画像の画像データを記憶装置312に記憶するようにしてもよい。そして、出力装置314は、接続されたディスプレイなどの出力機器に、記憶装置312に記憶したいずれか一つ以上の情報、あるいは、画像データを出力することができる。ディスプレイに重畳画像を表示することで、患部領域を撮影するユーザとは別のユーザが、リアルタイムで、あるいは過去に得られた過去評価値としての、患部領域の画像と大きさを示す情報を得ることができるようになる。
また画像処理装置300の演算装置311は、出力装置314からディスプレイに送信する画像データに対して、任意に位置および角度を変更するスケールバーなどを表示する機能を備えていてもよい。このようなスケールバーを表示することで、ディスプレイを見ているユーザが、患部領域の任意の箇所の長さを計測することが可能となる。このスケールバーのメモリの幅は、S451で受信した距離情報、ズーム倍率の情報、およびリサイズ処理された画像データのサイズ(ピクセル数)の情報などに基づいて自動調整されることが望ましい。
また画像処理装置300を、据え置き側で常時電源が供給された状態で用いれば、バッテリー切れになる心配がなく、いつでも任意のタイミングで患部領域の画像と大きさを示す情報を得ることができる。また、一般的に据え置き型デバイスである画像処理装置300は記憶容量が多いため、多数の画像データを保存することができる。
また、本実施形態によれば、ユーザが撮像装置200で患部領域を撮像した際に、画像を画像解析することよって得られる情報とは別の、患部領域に関する情報を、ユーザが入力して、記録することもできる。これによれば、後ほど、撮影された画像データを見ながら、電子カルテや紙媒体に患部領域の評価を入力する手間が不要となる。さらに、未入力の項目がわかるようにユーザに提示することによって、ユーザが患部領域を撮影した際に、これらの情報の入力を忘れてしまうことを抑制することが可能になる。
<他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
200:撮像装置、216:測距システム、217:画像処理回路、219:通信装置、220:システム制御回路、221:撮像ユニット、300:画像処理装置、311:演算装置、314:出力装置、317:補助演算装置
Claims (20)
- 撮像装置から被写体までの距離に関する距離情報を取得する取得手段と、
前記撮像装置が前記被写体を撮像した画像データから前記被写体の患部領域を抽出し、さらに前記患部領域の色情報を抽出する抽出手段と、
前記距離情報および前記色情報を基に、前記患部領域の状態を判定する判定手段と、
を有することを特徴とする画像処理装置。 - 前記判定手段は、前記色情報を基に前記患部領域に存在する第1の状態を判定し、前記第1の状態を判定した後に、前記色情報および前記距離情報を基に前記患部領域に存在する第2の状態を判定することを特徴とする請求項1に記載の画像処理装置。
- 前記患部領域は創傷の領域であって、前記判定手段が判定する前記第1の状態は黒色の壊死組織または滲出液であり、前記第2の状態は黄色の壊死組織または骨部であることを特徴とする請求項2に記載の画像処理装置。
- 前記距離情報を基に前記患部領域に対応する深さ情報を生成する演算手段をさらに有し、
前記抽出手段は、前記画像データから前記患部領域の近傍に設定され且つ前記患部領域を含まない所定領域を抽出して、前記所定領域に少なくとも3点の基準点を設定し、
前記演算手段は、前記基準点を含む基準面を設定し、前記基準面を基準として、前記患部領域に対応する深さ情報を生成することを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。 - 前記基準面が前記撮像装置の撮像面に対して正対していない場合、前記基準面が前記撮像装置の撮像面に対して正対するように、前記演算手段が前記深さ情報を補正処理することを特徴とする請求項4に記載の画像処理装置。
- 前記演算手段は、前記被写体の形状に対応するように前記基準面を平面または球面に設定することを特徴とする請求項4または請求項5に記載の画像処理装置。
- 前記基準点における前記距離情報と前記基準点の前記基準面における位置の情報とを記憶する記憶手段と、
前記画像データに基づく画像を表示するためのデータを生成する生成手段と、をさらに有し、
前記生成手段は、前記患部領域を表示するためのデータとともに、前記記憶手段に記憶した前記基準点の前記距離情報および前記位置を表示するためのデータを生成することを特徴とする請求項4から請求項6のいずれか1項に記載の画像処理装置。 - 前記所定領域における任意の断面を設定する設定手段と、
前記断面における前記距離情報との傾きを取得する傾き取得手段と、をさらに有し、
前記判定手段は、前記傾きが所定の閾値以上となるかを判定することを特徴とする請求項4から請求項7のいずれか1項に記載の画像処理装置。 - 前記所定領域における任意の断面を設定する設定手段と、
前記断面における受光信号強度との傾きを取得する傾き取得手段と、をさらに有し、
前記判定手段は、前記傾きが所定の閾値以上となるかを判定することを特徴とする請求項4から請求項7のいずれか1項に記載の画像処理装置。 - 前記判定手段は、前記所定の閾値を前記断面における前記距離情報に応じて可変することを特徴とする請求項8または請求項9に記載の画像処理装置。
- 前記判定手段は、前記所定領域に対して前記傾きが前記所定の閾値以上となる位置を取得し、
前記傾きが前記所定の閾値以上となる前記位置を表示するためのデータを生成する生成手段を有することを特徴とする請求項8から請求項10のいずれか1項に記載の画像処理装置。 - 前記所定領域における前記傾きを記憶し、前記傾きを用いて機械学習を行う手段を有することを特徴とする請求項8から請求項11のいずれか1項に記載の画像処理装置。
- 前記取得手段は、
前記被写体に対して測定基準に正対した第1の位置に前記撮像装置が位置する状態における当該撮像装置から前記被写体までの距離に関する第1の距離情報と、
前記被写体に対して前記第1の位置とは異なる第2の位置に前記撮像装置が位置する状態における当該撮像装置から前記被写体までの距離に関する第2の距離情報と、を取得し、
前記抽出手段は、
前記第1の位置に前記撮像装置が位置する状態で撮像された第1の画像データから所定の第1の領域を抽出し、
前記第1の画像データと、前記第2の位置に前記撮像装置が位置する状態で撮像された第2の画像データと、前記第1の距離情報と、前記第2の距離情報とを基に、前記第1の領域を含む第2の領域を抽出する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記第2の位置は、前記第1の画像データと前記第1の距離情報とに基づいて設定されることを特徴とする請求項13に記載の画像処理装置。
- 前記第1の位置から前記第2の位置へ前記撮像装置を移行するためのユーザ補助手段を有することを特徴とする請求項13または請求項14に記載の画像処理装置。
- 前記撮像装置が備えている加速度センサからの加速度情報と、前記撮像装置が備えている角速度センサからの角速度情報とを基に、前記撮像装置の位置及び姿勢情報を取得する位置姿勢取得手段をさらに有することを特徴とする請求項13から請求項15のいずれか1項に記載の画像処理装置。
- 前記生成手段は、前記患部領域の所定部分における過去に得られた過去評価値と新たに得られた新規評価値とを比較し、前記過去評価値と前記新規評価値とが同一であると判定した場合に、前記所定部分に対応して取得された前記距離情報に基づいた差分情報を表示するためのデータを生成することを特徴とする請求項7から請求項12のいずれか1項に記載の画像処理装置。
- 前記生成手段は、前記差分情報が取得された前記所定部分を前記患部領域に重畳して表示するためのデータを生成することを特徴とする請求項17に記載の画像処理装置。
- 画像処理装置が実行する画像処理方法であって、
撮像装置から被写体までの距離に関する距離情報を取得する取得工程と、
前記撮像装置が前記被写体を撮像した画像データから前記被写体の患部領域を抽出し、さらに前記患部領域の色情報を抽出する抽出工程と、
前記距離情報および前記色情報を基に、前記患部領域の状態を判定する判定工程と、
を有することを特徴とする画像処理方法。 - コンピュータを、請求項1から請求項18のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048907A JP2022147595A (ja) | 2021-03-23 | 2021-03-23 | 画像処理装置、画像処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048907A JP2022147595A (ja) | 2021-03-23 | 2021-03-23 | 画像処理装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022147595A true JP2022147595A (ja) | 2022-10-06 |
Family
ID=83463196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021048907A Pending JP2022147595A (ja) | 2021-03-23 | 2021-03-23 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022147595A (ja) |
-
2021
- 2021-03-23 JP JP2021048907A patent/JP2022147595A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220180521A1 (en) | Image processing method and apparatus, and electronic device, storage medium and computer program | |
US11600003B2 (en) | Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value | |
JP7322097B2 (ja) | 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体 | |
WO2015054273A2 (en) | Integrated tracking with fiducial-based modeling | |
CN109478227A (zh) | 计算设备上的虹膜或其他身体部位识别 | |
JP5822545B2 (ja) | 画像処理装置、画像処理装置の制御方法、およびプログラム | |
EP3381180B1 (en) | Photographing device and method of controlling the same | |
US20150097935A1 (en) | Integrated tracking with world modeling | |
JP2020526735A (ja) | 瞳孔距離測定方法、装着型眼用機器及び記憶媒体 | |
JP6168876B2 (ja) | 検出装置、学習装置、検出方法、学習方法及びプログラム | |
US9521329B2 (en) | Display device, display method, and computer-readable recording medium | |
JP2012015642A (ja) | 撮像装置 | |
US20210093227A1 (en) | Image processing system and control method thereof | |
JP2021029675A (ja) | 情報処理装置、検査システム及び情報処理方法 | |
WO2019230724A1 (ja) | 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、これらの制御方法を記憶した記憶媒体 | |
JP7346051B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20150107580A (ko) | 화상 처리 장치 및 화상 처리 방법 | |
KR100874186B1 (ko) | 피검사자의 설진 영상을 스스로 촬영할 수 있는 방법 및 그장치 | |
JP2022147595A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US9843715B2 (en) | Photographic apparatus, stroboscopic image prediction method, and a non-transitory computer readable storage medium storing stroboscopic image prediction program | |
JP7309556B2 (ja) | 画像処理システム及びその制御方法 | |
JP2021049248A (ja) | 画像処理システム及びその制御方法 | |
WO2020184230A1 (ja) | 撮像装置、情報処理装置および画像処理システム | |
JP7317498B2 (ja) | 処理システム、処理装置、処理方法、およびプログラム | |
CN111698401A (zh) | 设备、图像处理设备和控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240315 |