JP2021049262A - Image processing system and method for controlling the same - Google Patents
Image processing system and method for controlling the same Download PDFInfo
- Publication number
- JP2021049262A JP2021049262A JP2019175565A JP2019175565A JP2021049262A JP 2021049262 A JP2021049262 A JP 2021049262A JP 2019175565 A JP2019175565 A JP 2019175565A JP 2019175565 A JP2019175565 A JP 2019175565A JP 2021049262 A JP2021049262 A JP 2021049262A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing system
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 185
- 238000000034 method Methods 0.000 title claims description 62
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 5
- 238000012217 deletion Methods 0.000 claims description 2
- 230000037430 deletion Effects 0.000 claims description 2
- 230000010365 information processing Effects 0.000 claims description 2
- 208000025865 Ulcer Diseases 0.000 description 103
- 231100000397 ulcer Toxicity 0.000 description 103
- 239000002131 composite material Substances 0.000 description 50
- 208000004210 Pressure Ulcer Diseases 0.000 description 47
- 238000005259 measurement Methods 0.000 description 39
- 206010011985 Decubitus ulcer Diseases 0.000 description 37
- 230000008569 process Effects 0.000 description 36
- 238000011156 evaluation Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 24
- 238000000605 extraction Methods 0.000 description 20
- 238000010191 image analysis Methods 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 241000282341 Mustela putorius furo Species 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000037380 skin damage Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013077 scoring method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007920 subcutaneous administration Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画像から被検体の患部領域のサイズを推定する画像処理の技術に関するものである。 The present invention relates to an image processing technique for estimating the size of an affected area of a subject from an image.
医療現場や介護現場において、褥瘡を発症した患者に対し定期的に褥瘡の評価をすることが求められており、褥瘡のサイズは褥瘡の進行具合を把握するための1つの指標となっている。特許文献1には、褥瘡のポケットの大きさを計測するために、発光部をポケットに挿入し、ポケットの輪郭に沿って皮膚上にマークをつける、もしくは目盛りを読み取ることが開示されている。 In medical and long-term care settings, it is required to evaluate pressure ulcers on a regular basis for patients who develop pressure ulcers, and the size of pressure ulcers is one index for grasping the progress of pressure ulcers. Patent Document 1 discloses that in order to measure the size of a pressure ulcer pocket, a light emitting portion is inserted into the pocket, a mark is made on the skin along the contour of the pocket, or a scale is read.
特許文献1の方法では、作業者はライトをポケットの輪郭となる位置に保持した状態において、皮膚上にマークをつける処理、または、目盛りを読み取る処理が必要である。よって、作業者は、ライトの位置がずれないようにしつつ、褥瘡のサイズを計測するための作業をするので、作業の負担が大きくなる可能性があった。 In the method of Patent Document 1, the operator needs a process of marking on the skin or a process of reading the scale while holding the light at a position which is the outline of the pocket. Therefore, the worker performs the work for measuring the size of the pressure ulcer while keeping the position of the light unchanged, which may increase the work load.
本発明は上記課題に鑑み、患部(褥瘡のポケットなど)を計測する際の操作性の向上を目的とする。 In view of the above problems, an object of the present invention is to improve operability when measuring an affected area (such as a pressure ulcer pocket).
本発明の画像処理システムは、撮影された動画に関する情報を取得する取得手段と、前記取得手段により取得された前記情報より、患部内を移動するライトの軌跡のうち、前記患部の径方向の端の点を検出する検出手段と、前記検出手段により検出された複数の点から患部の外周に関する情報を提供する提供手段とを有することを特徴とする。 The image processing system of the present invention has an acquisition means for acquiring information about a captured moving image and a radial end of the affected portion among the trajectories of lights moving in the affected portion based on the information acquired by the acquisition means. It is characterized by having a detecting means for detecting the above-mentioned points and a providing means for providing information on the outer circumference of the affected portion from a plurality of points detected by the detecting means.
本発明によれば、患部(褥瘡のポケットなど)を計測する際の操作性を向上することができる。 According to the present invention, it is possible to improve operability when measuring an affected area (such as a pressure ulcer pocket).
以下、本発明の実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.
図1(A)〜1(C)に褥瘡のSizeの測定法(評価法)を示す。図1(A)は潰瘍面のみの褥瘡のSizeの測定法の例である。褥瘡のSizeは、患部(潰瘍面領域103)にメジャーをあてて手作業で計測された値に基づいて決定されることが多い。具体的には、皮膚の損傷範囲(潰瘍面領域103)のうち最も長い直線距離の2点を測定し、当該直線距離を褥瘡の長径aとする。さらに、皮膚の損傷範囲のうち長径aと直交する最も長い直線距離の2点を測定し、当該直線距離を褥瘡の短径bとする。そして、長径aと短径bを掛け合わせた値を褥瘡のSizeとする。以後、他の領域についても、当該領域のうち最も長い直線距離を「長径」と記載し、当該領域のうち長径に直交する最も長い直線距離を「短径」と記載する。 FIGS. 1 (A) to 1 (C) show a method (evaluation method) for measuring a pressure ulcer size. FIG. 1 (A) is an example of a method for measuring a pressure ulcer on the ulcer surface only. The size of a pressure ulcer is often determined based on a value measured manually by applying a tape measure to the affected area (ulcer surface area 103). Specifically, two points having the longest straight line distance in the skin damage range (ulcer surface area 103) are measured, and the straight line distance is defined as the major axis a of the pressure ulcer. Further, two points of the longest straight line distance orthogonal to the major axis a in the skin damage range are measured, and the straight line distance is defined as the minor axis b of the pressure ulcer. Then, the value obtained by multiplying the major axis a and the minor axis b is defined as the pressure ulcer size. Hereinafter, for other regions, the longest straight line distance in the region is described as "major diameter", and the longest straight line distance orthogonal to the major diameter in the region is described as "minor diameter".
褥瘡の症状・分類の代表的なものに、ポケットのある褥瘡がある。ポケットは皮膚欠損部(潰瘍面;外部に露出している部分)よりも広い創腔で、外部から見えない部分(外部に露出していない部分)で皮下に深く広く広がっている場合がある。図1(B)と図1(C)は、ポケットのある褥瘡の例である。図1(B)は、潰瘍面を包含するポケット、つまり潰瘍面の全方向に広がったポケットの例であり、図1(C)は、潰瘍面に部分的に重なるポケット、つまり潰瘍面の一部の方向に広がったポケットの例である。ポケットのある褥瘡では、潰瘍面領域103とポケット領域104を含む全体領域が患部領域102となる。このような褥瘡のポケットを評価する場合、創腔(ポケット)がどのくらいの範囲に広がっているかを計測する必要がある。例えば、DESIGN−R(登録商標)のポケットの採点方法では、潰瘍面とポケットを含む患部領域102の長径aと短径bを掛け合わせた値から、潰瘍面の大きさ、つまり潰瘍面領域103の長径cと短径dを掛け合わせた値を減算した値で計測される。
A typical pressure ulcer symptom / classification is a pressure ulcer with a pocket. The pocket is a wound cavity wider than the skin defect (ulcer surface; the part exposed to the outside), and may be deep and wide under the skin in the part not visible from the outside (the part not exposed to the outside). 1 (B) and 1 (C) are examples of pressure ulcers with pockets. FIG. 1 (B) is an example of a pocket including the ulcer surface, that is, a pocket that extends in all directions of the ulcer surface, and FIG. 1 (C) is a pocket that partially overlaps the ulcer surface, that is, one of the ulcer surfaces. This is an example of a pocket that spreads in the direction of the part. In pressure ulcers with pockets, the entire area including the
図2は、ライト201によるポケット203の測定作業の概要を示す。測定作業では、ライト201の先端(点灯部分)を潰瘍面202からポケット203に挿入する。そして、ポケット203の端に向かってライト201の先端を移動させ、ライト201の先端が最深部(ポケット203の端)に到達した時点で、ライト201から発せられた光が透過した皮膚表面上の位置204にマジックペン等を用いてマーキングする。その後、ライト201をポケット203から引き抜く。矢印205は、このときのライト201の動きを示す。矢印205のように、ライト201は、患部内を径方向、かつ、患部の中心付近の所定の領域から患部の端の位置へと移動し、さらに所定の領域へと移動する。このような作業を繰り返す。状態200A,200aは1点のマーキングを行った状態であり、状態200B,200bは4点のマーキングを行った状態であり、状態200C,200cは
ポケット203の全周囲に沿ってマーキングを行った状態である。全周囲に沿った複数のマーキングから、ポケット203の外周の形状を判断することができ、ポケット203を評価することができる。
FIG. 2 shows an outline of the measurement work of the
[実施例1]
実施例1では、撮影画像から褥瘡の潰瘍面の面積計測を行い、更に、ポケット領域の大きさを計測できるような合成画像を作成する手順について説明する。
[Example 1]
In Example 1, the procedure of measuring the area of the pressure ulcer ulcer surface from the captured image and further creating a composite image capable of measuring the size of the pocket area will be described.
以下、図3および図4を参照して、本発明の実施例1に係る画像処理システムについて説明する。図3は、実施例1に係る画像処理システムの機能構成の一例を示したブロック図である。画像処理システム1は、手持ち可能なポータブルデバイスである撮像装置2と、画像処理装置3とから構成される。図4は画像処理システム1により計測される被検体を表す図である。実施例1では、被検体401の臀部に生じた患部領域402の病態の一例を褥瘡として説明している。
Hereinafter, the image processing system according to the first embodiment of the present invention will be described with reference to FIGS. 3 and 4. FIG. 3 is a block diagram showing an example of the functional configuration of the image processing system according to the first embodiment. The image processing system 1 is composed of an
画像処理システム1は、被検体401の患部領域402を撮影し、被写体距離を取得し、患部領域402に対応する画像領域を抽出し、患部領域402の外周形状を検知し、患部領域402の長径と短径を計測して、褥瘡のSizeを計測する。ここで、被写体距離と撮像装置2の画角に基づいて1ピクセルあたりの面積を計測し、患部領域402の抽出結果と1ピクセルあたりの面積とから患部領域402の面積を計測するようにしてもよい。
The image processing system 1 photographs the affected
被検体401には、被検体を識別する情報として1次元バーコード(不図示)が描かれたバーコードタグ403が付帯しており、画像データと被検体のIDとを紐づけることができる。なお、被検体を識別する情報は1次元バーコードに限ったものではなく、QRコード(登録商標)などの2次元コードや数値であってもよい。また、診察カードなどのIDカード上に付帯されるデータやID番号であってもよい。
A
撮像装置2の機能構成について説明する。撮像装置2は、AF部10、撮像部11、画像処理部12、情報生成部13、表示部14、出力部15、第2取得部16として機能する。
The functional configuration of the
AF部10は、被写体に自動的に焦点を合わせる自動焦点調節機能を有する。また、AF部10は、フォーカスレンズの移動量から被写体までの距離(被写体距離)を出力する機能を有する。
The
撮像部11は、被写体を撮像し、静止画または動画の画像データを生成する。
The
画像処理部12は、撮像部11が取得した画像に対して、現像やリサイズなどの画像処理を施す。
The
情報生成部13は、被写体までの距離に関する距離情報を生成する。例えば、情報生成部13は、AF部10が出力する距離に基づいて距離情報を生成する。
The
表示部14は、撮像部11が撮像した画像などを表示する。表示部14は、画像処理装置3から出力された情報(患部領域402の抽出結果を示す情報、患部領域402のサイズに関する情報など)を表示することもできる。このような情報は、撮像した画像に重畳表示されてもよい。また表示部14は、画像処理装置3から出力された、ポケット領域の大きさが判別できる合成画像を表示することもできる。合成画像の作成方法については後述する。
The
出力部15は、画像データと距離情報を画像処理装置3などの外部機器に出力する。画像データとしては、被検体401の患部を撮像した画像データ、被検体401全体の画像データ、バーコードタグ403に描かれた1次元バーコードなどの識別情報を撮像した画像データ、ライトによる測定作業中の動画データなどがある。
The
第2取得部16は、画像処理装置3などの外部機器から、画像、潰瘍面領域およびポケット領域の評価結果を示す評価情報などを取得する。
The
次に、画像処理装置3の機能構成について説明する。画像処理装置3は、取得部21、抽出部22、重畳部23、解析部24、第2出力部25、保存部26として機能する。
Next, the functional configuration of the
取得部21は、撮像装置2が出力した画像データと距離情報(被写体距離)を取得する。
The
抽出部22は、患部領域402を撮像した画像(撮像装置2が出力した画像データ)から、患部領域402に対応する画像領域を抽出する。画像から領域を抽出することを領域抽出や領域分割などという。
The
解析部24は、抽出部22によって抽出された患部領域402のサイズに関する情報を、情報生成部13が生成した距離情報(被写体距離)に基づいて解析する。また、解析部24は、ポケット領域の大きさが分かる合成画像を作成するために、ライトによる測定作業中の動画を解析する。
The
重畳部23は、患部領域402の抽出を行う際に用いた画像データに対応する画像に対して、患部領域402の抽出結果を示す情報、患部領域402のサイズに関する情報などを重畳する。
The superimposing
第2出力部25は、抽出部22により抽出された患部領域402を示す情報、解析部24により解析された患部領域402のサイズに関する情報、重畳部23により得られた画像データ(情報が重畳された画像)などを、撮像装置2などの外部機器に出力する。また、第2出力部25は、ポケット領域の大きさが分かる合成画像を外部機器に出力することもできる。
The
読み取り部30は、バーコードタグ403を撮像した画像から、バーコードタグ403に描かれた1次元バーコード(不図示)を読み取り、被検体401を識別する識別情報(例えば被検体ID)を取得する。なお、読み取り部30が読み取る対象は、QRコード(登録商標)などの2次元コードや数値、文字であってもよい。
The
認識処理部31は、読み取り部30が読み取った被検体ID(識別情報)を、あらかじめ登録された被検体IDと照合し、被検体401の名前を取得する。
The
保存部26は、患部領域402を撮像した画像(患部画像)、患部領域402のサイズに関する情報と、被検体401の被検体ID(識別情報)、被検体401の名前、患部画像の撮影日時などに基づくレコードを生成し、画像処理装置3に記録する。
The
次に、撮像装置2のハードウェア構成の一例を図5に示す。撮像装置2は、AF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217、通信部218、システム制御部219、記憶部220、外部メモリ221、表示部222、操作部223、共通バス224を有するカメラである。
Next, an example of the hardware configuration of the
AF制御部225は、撮像信号(映像信号)の高周波成分を抽出し、これが最大になるレンズ位置(レンズ212に含まれるフォーカスレンズの位置)を探索して、フォーカスレンズを制御し、自動的に焦点を調節する。このフォーカス制御方式は、TV−AF又はコントラストAFとも称され、高精度な合焦が得られる特徴がある。また、AF制御部225は、焦点の調節量またはフォーカスレンズの移動量に基づいて被写体までの距離を取得して出力する。なお、フォーカス制御方式はコントラストAFに限ったものではなく、位相差AFや、その他のAF方式でもよい。図3のAF部10はAF制御部225が動作することで実現される。
The
撮像部211は、レンズ212、シャッタ213、イメージセンサ214を有する。図3の撮像装置2の撮像部11は撮像部211が動作することで実現される。レンズ212は、イメージセンサ214に被写体の光学像を結像する。イメージセンサ214は、光学像を電気信号に変換するCCDやCMOS素子等の電荷蓄積型の固体イメージセンサで構成される。撮像部211は、レンズ212内に、露出量を調節するための絞り値を決定する絞りを備える。シャッタ213は、開閉動作によりイメージセンサ214への露出や遮光を行い、シャッタ速度を制御する。なお、シャッタは機械シャッタに限ったものではなく電子シャッタを用いてもよい。CMOSセンサを用いた撮像素子では、電子シャッタは、画素毎、或いは、複数画素からなる領域毎(例えば、各ライン毎)に、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、リセット走査を行った画素毎或いは領域毎に、所定の時間を経過してから信号を読み出す走査を行う。
The
ズーム制御部215は、レンズ212に含まれるズームレンズの駆動を制御する。ズーム制御部215は、システム制御部219からの指示に従ってズームモータ(不図示)を介してズームレンズを駆動する。これにより変倍が行われる。
The
測距システム216は、被写体までの距離を取得するユニットである。測距システム216は、AF制御部225の出力に基づいて距離情報を生成してもよい。各々が表示部222の画面(表示面)内の1つ以上の画素からなる複数のブロックが設定されている場合には、測距システム216は、AFをブロック毎に繰り返し動作させることでブロック毎の距離を検出する。なお、測距システム216として、TOF(Time Of Flight)センサを用いたシステムを用いてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体で反射された波である反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。さらに、測距システム216には、受光素子にPSD(Position Sensitive Device)を用いたPSD方式などを用いてもよい。図3の撮像装置2の情報生成部13は測距システム216が動作することで実現される。
The
画像処理部217は、イメージセンサ214から出力されたRAW画像データに画像処理を施す。画像処理部217は、撮像部211から出力された画像(RAW画像データ)、あるいは後述する記憶部220に記録されている画像に対して、ホワイトバランス調整、ガンマ補正、色補間またはデモザイキング、フィルタリング、など、様々な画像処理を行う。また、画像処理部217は、撮像部211が撮像した画像に対して、JPEGなどの規格で、圧縮処理を行う。図3の撮像装置2の画像処理部12は画像処理部217が動作することで実現される。
The
通信部218は、撮像装置2内の各構成が、無線のネットワーク(不図示)を介して、画像処理装置3などの外部機器と通信を行うための通信インターフェースである。図3の撮像装置2の出力部15と第2取得部16は通信部218が動作することで実現される。ネットワークの具体的な一例としては、Wi−Fi(登録商標)規格に基づくネットワー
クが挙げられる。なお、Wi−Fi(登録商標)を用いた通信はルーターを介して実現されてもよい。また、通信部218はUSBやLANなど有線の通信インターフェースにより実現されてもよい。
The
システム制御部219は、CPU(Central Processing Unit)を有し、記憶部220内に記録(格納)されたプログラムに従って撮像装置2の各部を制御する(全体制御)。例えば、システム制御部219は、AF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217等を制御する。
The
記憶部220は、撮像装置2の動作に必要な各種設定情報(撮像時のピント位置の情報など)や、各種画像(撮像部211が撮像した画像や画像処理部217の処理を経た画像など)などを一時的に記憶する。記憶部220は、通信部218が画像処理装置3と通信して受信した画像データや解析データ(被写体のサイズに関する情報など)などを一時的に記憶してもよい。記憶部220は、フラッシュメモリ、SDRAM等の書き換え可能な不揮発性のメモリによって構成される。
The storage unit 220 includes various setting information (information on the focus position at the time of imaging, etc.) necessary for the operation of the
外部メモリ221は、撮像装置2本体に装填自在、または内部に固定された不揮発性の記憶媒体であり、例えば、SDカードやCFカード等である。この外部メモリ221は、画像処理部217で処理された画像データや、通信部218が画像処理装置3と通信して受信した画像データや解析データなどを記憶する。外部メモリ221に記録された画像データや解析データなどを読み出して、撮像装置2の外部に出力することも可能である。
The
表示部222は、記憶部220に一時保存されている画像、外部メモリ221に保存されている画像や情報、撮像装置2の設定画面などを表示する。表示部222は、TFT(Thin Film Transistor)液晶ディスプレイ、有機ELディスプレイ、EVF(電子ビューファインダ)などである。図3の撮像装置2の表示部14は表示部222が動作することで実現される。
The
操作部223は、ユーザー操作を受け付ける受付部であり、例えば、撮像装置2に備わったボタンやスイッチ、キー、モードダイアルなどを含む。操作部223は、表示部222に兼用されるタッチパネルなどを含んでもよい。ユーザーによる種々のモード設定や撮影動作などの指令は、操作部223を経由して、システム制御部219に伝わる。
The
共通バス224には、前述のAF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217、通信部218、システム制御部219、記憶部220、外部メモリ221、表示部222、操作部223、が接続されている。共通バス224は各ブロック間で信号の送受信を行うための信号線である。
The
次に、画像処理装置3である情報処理装置のハードウェア構成の一例を図6に示す。画像処理装置3は、中央演算処理部(CPU)310、記憶部312、入力部313(マウス、キーボード、等)、出力部314(ディスプレイ等)、補助演算部317を有するコンピュータである。CPU310は演算部311を備える。記憶部312は主記憶部315(ROM、RAM等)と補助記憶部316(磁気ディスク、SSD(Solid State Drive)等)とから構成される。入力部313と出力部314の一部はWi−fi通信のための無線通信モジュールとして構成される。
Next, FIG. 6 shows an example of the hardware configuration of the information processing device which is the
補助演算部317は、CPU310の制御の下で用いられる補助演算用ICである。補助演算部317には、一例としてGPU(Graphic Processing Unit)を用いることができる。GPUは、画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとし
ても用いられることが多い。そして、深層学習を行う処理においても、GPUが用いられることが一般的である。なお、補助演算部317として、FPGA(field−programmable gate array)やASICなどを用いてもよい。
The
CPU310が備える演算部311は、記憶部312に記録(格納)されたプログラムを実行することで図3の画像処理装置3の取得部21、抽出部22、重畳部23、解析部24、第2出力部25、保存部26、読み取り部30、認識処理部31として機能する。さらに、演算部311は処理を実行する順番を制御する。
The
なお、画像処理装置3が備えるCPU310および記憶部312は1つであってもよいし複数であってもよい。すなわち、少なくとも1以上の処理部(CPU)と少なくとも1つの記憶部とが接続されており、少なくとも1以上の処理部が少なくとも1以上の記憶部に記録されたプログラムを実行した場合に、画像処理装置3は、上記の各部として機能してもよい。なお、処理部はCPUに限定されるものではなく、FPGAやASIC等であってもよい。
The
次に、図7のフローチャートを用いて、実施例1に係る画像処理システム1の動作について説明する。図7のフローチャートにおいて、撮像装置2の処理は、ROM(記憶部220の一部)に記録されたプログラムをRAM(記憶部220の一部)に展開してシステム制御部219が実行することで実現する。同様に、画像処理装置3の処理は、ROM(主記憶部315の一部)に記録されたプログラムをRAM(主記憶部315の一部)に展開してCPU310が実行することで実現する。図7のフローチャートでは、潰瘍面の褥瘡評価として、動画撮影した画像データの1つ(1フレーム)を解析して潰瘍面のSize測定を実施する。また、ポケットの大きさが分かるような合成画像を画像処理装置3で作成して、撮像装置2に送信している。なお、図7の処理は、撮像装置2と画像処理装置3の電源が入り、撮像装置2と画像処理装置3を互いに接続するための操作が行われると開始する。
Next, the operation of the image processing system 1 according to the first embodiment will be described with reference to the flowchart of FIG. 7. In the flowchart of FIG. 7, the processing of the
ステップS701とステップS721では、撮像装置2と画像処理装置3は、互いに通信可能に接続するための接続処理を行う。例えば、撮像装置2のシステム制御部219は、通信部218を用いて、無線LAN規格であるWi−fi規格のネットワーク(不図示)に接続する。画像処理装置3のCPU310も、入力部313や出力部314を用いて同じネットワークに接続する。そして、ステップS721にてCPU310は接続する撮像装置の探索処理を行い、ステップS701にてシステム制御部219は探索処理に対する応答処理を行う。探索処理には、ネットワークを介して機器を探索(検索)する種々の機器探索技術等を用いることができる。例えば、UPnP(Universal Plug and Play)が用いた探索処理が行われ、個々の装置はUUID(Universally Unique IDentifier)を用いて識別される。
In step S701 and step S721, the
ステップS702では、撮像装置2のシステム制御部219は、撮像部211を用いて、被検体401のバーコードタグ403を撮影する。バーコードタグ403には被検体401(患者)を識別する被検体ID(患者ID)が含まれる。バーコードタグの撮影の後に患部の撮影をすることで、撮影日時などで撮影順序を管理し、バーコードタグの画像から次のバーコードタグの画像の手前までの画像を、同一被検体の画像として、被検体IDにより識別できるようになる。
In step S702, the
その後、撮像装置2のシステム制御部219は、撮像部211や表示部222を用いて、被検体401のライブ映像を表示部222に表示するライブビュー処理を行う。ライブビュー処理では、撮像装置2は、ステップS703〜S710の処理を行う。ライブビュー処理に伴い、画像処理装置3は、ステップS722〜S726の処理を行う。
After that, the
ステップS703では、撮像装置2のシステム制御部219は、AF制御部225を用いて、被検体401に合うように焦点を調節する(AF処理)。ここでは、AF処理において、表示部222の画面を複数のブロックに分割し、所定のブロックでAFを行うとする。具体的には、画面の中央に患部領域402が配置されるように撮像装置2を構え、画面の中央に位置するブロックでAFを行う。また、AF制御部225は、焦点の調節量またはフォーカスレンズの移動量から被検体401のAFエリア(AFで焦点が合った部分)までの距離を出力し、システム制御部219はその距離を取得する。
In step S703, the
ステップS704では、撮像装置2のシステム制御部219は、撮像部211を用いて、被検体401の患部領域402を撮像する。
In step S704, the
ステップS705では、撮像装置2のシステム制御部219は、画像処理部217を用いて、ステップS704にて取得した画像を現像し、現像後の画像をJPEGなどの規格で圧縮し、得られたJPEG画像のリサイズを実施する。ステップS705にて生成された画像は後述するステップS707で画像処理装置3に無線通信により送信される。送信する画像のサイズが大きいほど無線通信に時間がかかるため、許容される通信時間を考慮してリサイズ後の画像サイズが選択される。さらに、ステップS705にて生成された画像は、後述するステップS723にて画像から患部領域402を抽出する抽出処理の対象とされる。リサイズ後の画像サイズは、抽出処理の処理時間および抽出精度に依存するため、これらの要件も考慮して選択される。また、ステップS705はライブビュー処理の一部であるため、ステップS705の処理時間が長いとライブ映像のフレームレートが低くなり、使い勝手に悪影響を及ぼす。このことから、ライブビュー処理中でない本撮影時の画像処理(リサイズ)に比べて、同じか小さい画像サイズでリサイズを行うことが望ましい。ステップS705では、720ピクセル×540ピクセル且つ8ビットRGBカラーで、データサイズがおよそ1.1メガバイトとなるようにリサイズを行うとする。なお、リサイズ後の画像サイズ、データサイズ、ビット深度、色空間などは、特に限定されない。
In step S705, the
ステップS706では、撮像装置2のシステム制御部219は、測距システム216を用いて、被写体までの距離に関する距離情報を生成する。具体的には、ステップS703でAF制御部225が出力した距離に基づいて距離情報を生成する。
In step S706, the
ステップS707では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS705で生成した画像(画像データ)と、ステップS706で生成した距離情報とを画像処理装置3に送信(出力)する。なお、初回送信時に、システム制御部219は、ステップS702で撮影したタグ情報画像を一回だけ画像処理装置3に送信する。
In step S707, the
ステップS722では、画像処理装置3のCPU310は、入力部313を用いて、ステップS707で撮像装置2が送信した画像(患部領域402の画像)と距離情報(画像に映っている被写体(患部領域402)に対応する距離情報)を受信(取得)する。なお、初回受信時に、CPU310は、ステップS703で撮影されたタグ情報画像を一回だけ受信する。
In step S722, the
ステップS723では、画像処理装置3のCPU310は、ステップS722で取得した画像から被検体401の患部領域402を抽出する。ここでは画像解析により抽出可能な潰瘍面のみの領域分割(領域抽出)を行う。領域分割の手法として、深層学習による意味的領域分割を行うとする。すなわち、あらかじめ学習用のコンピュータ(不図示)に複数の実際の褥瘡患部の画像を教師データとしてニューラルネットワークのモデルを学習させて学習済モデルを生成する。そして、CPU310は生成された学習済モデルに基づい
て入力画像から褥瘡のエリアを推定する。また、ニューラルネットワークのモデルとして、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク FCN(Fully Convolutional Network)を適用したとする。深層学習の推論は、積和演算の並列実行を得意とするGPU(補助演算部317に含まれる)を用いて行われる。なお、推論処理はFPGAやASICなどにより実行されてもよい。なお、他の深層学習のモデルを用いて領域分割を実現してもよい。また、セグメンテーション手法は深層学習に限らず、例えば、グラフカットや領域成長、エッジ検出、統治分割法等を用いてもよい。
In step S723, the
ステップS724では、画像処理装置3のCPU310は、ステップS723で抽出した潰瘍面領域の画像サイズ(画像上でのサイズ)を変換することで、潰瘍面領域の実サイズ(実際のサイズ)に関する情報を解析(取得)する。潰瘍面領域の画像サイズは、ステップS722で取得した画像の画角もしくは画素サイズに関する情報、および、ステップS722で取得した距離情報に基づいて、実サイズに変換する。
In step S724, the
図8を用いて潰瘍面領域の面積(実サイズ)の計算方法について説明する。一般的なカメラは図8のようなピンホールモデルとして扱うことができる。入射光800はレンズ212のレンズ主点を通り、イメージセンサ214の撮像面に入射する。撮像面からレンズ主点までの距離が焦点距離Fである。ここで、薄レンズ近似を用いた場合には、前側主点と後側主点の2つの主点は一致するとみなせる。また、ピンホールモデルでは、レンズ212が厚みのない単一のレンズで表されるが、実際のレンズは、例えば、フォーカスレンズを含む複数の厚みのあるレンズ、またはズームレンズで構成される。そして、イメージセンサ214の撮像面に像が結像するようにレンズ212のフォーカスレンズを調整することで、被写体801に合うように焦点が調節される。さらに、ズームレンズの場合は、焦点距離Fを変更することで画角θが変化する。このとき、撮像装置2の画角θと被写体距離Dの関係から幾何学的に合焦面における被写体801の幅Wが決定し、被写体801の幅Wは三角関数を用いて計算できる。すなわち、被写体801の幅Wは、フォーカス位置とズーム量をパラメーターとする画角θと、被写体距離Dとの関係によって決定する。そして、被写体801の幅Wをイメージセンサ214の1ラインのピクセル数で除算することにより、画像の1ピクセルに対応する合焦面上の長さが得られる。さらに、1ピクセルに対応する合焦面上の長さから、1ピクセルに対応する合焦面上の面積が得られる。潰瘍面領域の面積は、ステップS723で抽出した潰瘍面領域のピクセル数に、1ピクセルに対応する合焦面上の面積を乗算することで算出できる。
A method of calculating the area (actual size) of the ulcer surface region will be described with reference to FIG. A general camera can be treated as a pinhole model as shown in FIG. The incident light 800 passes through the principal point of the
ステップS725では、画像処理装置3のCPU310は、ステップS722で取得した画像に対して、潰瘍面領域の面積(実サイズ)に関する情報(ステップS724の処理結果)を重畳する。なお、潰瘍面領域の抽出結果に関する情報を重畳してもよい。
In step S725, the
図9を用いて潰瘍面領域の面積(実サイズ)に関する情報が重畳される様子ついて説明する。図9の画像910は重畳処理前の画像で、被検体401の潰瘍面領域(患部領域402)を含んでいる。そして、画像913は重畳処理後の画像で、推定した面積値を示す白色の文字列912を黒色の背景に上に記述したラベル911が、画像913の左上隅に重畳されている。潰瘍面領域の抽出結果に関する情報としては、例えば、潰瘍面領域を示す枠などが重畳される。
A state in which information on the area (actual size) of the ulcer surface region is superimposed will be described with reference to FIG.
ステップS726では、画像処理装置3のCPU310は、出力部314を用いて、潰瘍面領域の実サイズに関する情報(ステップS724の処理結果)を撮像装置2に送信(出力)する。具体的には、CPU310は、ステップS725の重畳処理後の画像(重畳処理済画像)を、撮像装置2に無線通信により出力する。なお、潰瘍面領域の抽出結果に関する情報を送信してもよい。
In step S726, the
ステップS708では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS726で画像処理装置3が送信した情報(重畳処理済画像)を受信(取得)する。
In step S708, the
ステップS709では、撮像装置2のシステム制御部219は、ステップS708で受信した情報(重畳処理済画像)を表示部222に表示する。これにより、撮像部211で撮像されたライブビュー画像が表示されると共に、潰瘍面領域の実サイズに関する情報がライブビュー画像に対して重畳表示される。なお、潰瘍面領域の抽出結果に関する情報と潰瘍面領域の実サイズに関する情報との少なくとも一方がライブビュー画像に重畳表示されればよく、画像処理装置3から撮像装置2に情報が送信され、撮像装置2で重畳処理が行われてもよい。
In step S709, the
ステップS710では、撮像装置2のシステム制御部219は、操作部223に対する本撮影操作(本撮影を指示する操作)があったか否かを判定する。本撮影操作があった場合はライブビュー処理を抜けてステップS711に進み、そうでない場合はステップS703に戻ってライブビュー処理を繰り返す。
In step S710, the
ステップS711では、撮像装置2のシステム制御部219は、撮影対象の褥瘡にポケットがあるか否か、具体的には図2を用いて説明したようなライトによるポケット評価が必要か否かを判定する。ポケットがあるか否か(ライトによるポケット評価が必要か否か)は、ユーザー(評価者)が操作部223を用いて指定してもよいし、システム制御部219がライブビュー画像を解析して判定してもよい。ポケットがある場合(ライトによるポケット評価が必要な場合)はステップS712に進み、そうでない場合はステップS713に進む。
In step S711, the
ステップS712では、撮像装置2のシステム制御部219は、撮像部211を用いて、ライトによる測定作業(図2)の様子を動画で撮影する。さらに、システム制御部219は、静止画(例えば、ライトによる測定作業でライトがポケットに挿入される前の静止画)も撮影する。なお、実施例1では、ライトの移動経路を画像解析によりポケット形状を検知するため、マジックペン等を用いたマーキングが省略される。ここで、ステップS712で取得できる動画の各フレームを模式的に表したものが図10である。図10では複数のフレームが時系列的に並んでおり、最初のフレーム1000には、褥瘡の潰瘍面1001と、ライトから発せられた光1002とが映っている。また、フレーム1003、1004、1005と時間が進むにつれて、光1002の位置が移動している。
In step S712, the
ステップS713では、撮像装置2のシステム制御部219は、撮像部211を用いて、ポケット無しの褥瘡を評価するための静止画を撮影する。具体的には、ステップS703と同様のAF処理、ステップS704と同様の撮像、ステップS705と同様の画像処理(現像やリサイズなど)を行う。ステップS713は、ライブビュー処理の一部ではなく、本撮影の処理である。このため、ステップS713では、短い処理時間よりも、大きな画像サイズと褥瘡サイズ計測の精度とを優先し、ステップS705で得られる画像と同等かそれ以上の画像サイズに画像をリサイズする。ここでは1440ピクセル×1080ピクセル且つ4ビットRGBカラーで、データサイズがおよそ4.45メガバイトとなるようにリサイズを行うとする。なお、リサイズ後の画像サイズ、データサイズ、ビット深度、色空間などは、特に限定されない。
In step S713, the
ステップS714では、撮像装置2のシステム制御部219は、通信部218を用いて、本撮影で得た画像(ステップS712で撮影した動画と静止画またはステップS713で撮影した静止画)の画像データを画像処理装置3に送信(出力)する。システム制御部
219は、ステップS706で生成した距離情報(被写体距離)も画像処理装置3に送信する。本撮影時に距離情報を再度生成し、本撮影時の距離情報を画像処理装置3に送信してもよい。
In step S714, the
ステップS727では、画像処理装置3のCPU310は、入力部313を用いて、ステップS714で撮像装置2が送信した画像と距離情報を受信(取得)する。
In step S727, the
ステップS728〜S730では、画像処理装置3のCPU310は、褥瘡の潰瘍面の大きさを測定する。ステップS728では、ステップS723と同様に、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)から被検体401の潰瘍面領域を抽出する。なお、動画を取得した場合には、動画の1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択して、選択したフレームから潰瘍面領域を抽出してもよい。
In steps S728 to S730, the
ステップS729では、ステップS724と同様に、画像処理装置3のCPU310は、ステップS728で抽出した潰瘍面領域の実サイズに関する情報を、ステップS727で取得した距離情報に基づいて解析(取得)する。
In step S729, similarly to step S724, the
ステップS730では、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)を用いて潰瘍面の評価を実施する。なお、ステップS712で撮影した動画を取得した場合は、当該動画の複数のフレームの1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択して用いてもよい。
In step S730, the
潰瘍面の評価について具体的に説明する。画像処理装置3のCPU310は、ステップS728で抽出した潰瘍面領域の実サイズに関する情報を、ステップS727で取得した距離情報に基づいて解析し、潰瘍面領域の長径と短径、および矩形面積を算出する。褥瘡の評価指標の“DESIGN−R(登録商標)”の中で、褥瘡のサイズは長径と短径の積で評価することが定められている。実施例1に係る画像処理システム1では、長径と短径の解析を行うことで、“DESIGN−R(登録商標)”に従った評価結果との互換性を有する評価結果を得ることができる。“DESIGN−R(登録商標)”には厳密な定義がないため、数学的には長径と短径の複数の算出方法が考えられる。例えば、潰瘍面領域に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出し、Minimum bounding rectangleの長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出することができる。長径として最大のキャリパー長である最大フェレ径を、短径として、最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。長径と短径の計算方法は、従来の計測結果との互換性に基づいて任意の方法を選択することができる。なお、潰瘍面領域の評価はライブビュー処理中には行われない。ライブビュー処理中には、患部領域402(潰瘍面領域)の抽出結果が確認できればよく、潰瘍面領域の評価を省くことで、画像解析の処理時間を低減し、ライブビューのフレームレートを上げ、撮像装置2の利便性を上げることができる。
The evaluation of the ulcer surface will be specifically described. The
ステップS731の処理は、ステップS727で動画(ステップS712で撮影した動画)を取得した場合に行われる。ステップS731では、画像処理装置3のCPU310は、褥瘡のポケットの大きさが分かる合成画像を作成するために、取得した動画(画像)を解析して、当該動画(画像)に関する各種情報を取得する。具体的には、ライトが移動した軌跡に関する情報を取得する。なお、動画に関する情報の取得方法は特に限定されず、例えば画像処理装置3は外部から情報を取得してもよい。
The process of step S731 is performed when the moving image (moving image taken in step S712) is acquired in step S727. In step S731, the
図11を用いて、画像処理装置3が実行するステップS731の動画解析処理を説明す
る。図11は、図2と同様に、ポケット1100、ポケット1100の入り口部である潰瘍面1101、ライト先端の経路1102、ポケット1100の最深部(端)に到達した時点でのライト先端の位置に対応する点1103を示す。ポケット1100として、皮下部分でみえない面を概念的に図示している。経路1102上の点は、複数のタイミングにそれぞれ対応する、ライト先端の複数の位置を示す。
The moving image analysis process of step S731 executed by the
ステップS731の動画解析処理では、CPU310は、上記取得した情報より、ポケット最深部に到達した時点でのライト先端の位置(点1103)を検出する。この点(位置)は、「患部内を移動するライトの軌跡のうち、患部の径方向の端の点」や、「患部の領域と患部とは異なる領域との境界の位置」とも言える。例えば、動画においてライトが患部内を径方向に移動した際の頂点(ポケットに対するライトの挿入から引き抜きに変わる点)を、端の点として検出できる。図11の上側には、ポケットの測定作業の概要が時間列で4段階に分割して示されており、各段階において、点1103が3つ検出されている。図11の下側には、検出された全ての点1103(12個の点1103)が示されている。動画解析処理では、これらの点1103から患部の外周に関する情報を取得する。具体的には、これらの点1103を合成した(結んだ)線1104、例えばスプライン曲線やベジェ曲線で結んだ滑らかな自由曲線を、ポケット外周として判断(推定)する。そして、得られた線1104の形状解析により、ポケット形状を判断する。患部の外周に関する情報(患部の外周の形状、患部の面積、患部の長径、患部の短径など)は、表示などによってユーザーに提供したり、データとして他の装置に提供したりできる。
In the moving image analysis process of step S731, the
図12は、ライトによるポケット測定作業中のライブビュー表示の例であり、検出したマーキング位置(ポケットの最深部に到達した時点でのライト先端の位置)や、マーキング位置から生成(形成)したポケット形状を表示する。 FIG. 12 is an example of the live view display during the pocket measurement work by the light, and shows the detected marking position (the position of the tip of the light when the deepest part of the pocket is reached) and the pocket generated (formed) from the marking position. Display the shape.
画面1201は、ライト1202の先端1203がポケットの最深部に到達した時点でのライブビュー表示の画面である。画面1201から、ライト1202の先端1203がポケット内部で光っていることがわかる。位置1204は、ライブビューで撮像された動画におけるライト1202の動きを解析して得られたマーキング位置であり、画面1201では4点のマーキング位置1204が表示されている。線1205は、これら4点のマーキング位置1204を解析して検出された線(ポケット形状の一部)を示す。
The
画面1211は、画面1201の状態の後、ライト1202の先端1203がポケットの最深部から少し引き抜かれた時点でのライブビュー表示の画面である。この時、画面1201におけるライト1202の先端1203の位置が、動画解析によりマーキング位置1204として新たに得られる。このように、動画解析で新たに得られたマーキング位置1204をすぐにライブビュー画面上に表示することで、ポケット測定作業者は、ポケット周辺形状や、ポケット測定作業を正しく行えているかを確認しながら作業を進めることができる。動画解析でマーキング位置1204が新たに表示された場合に、マーキング位置1204を点滅させたり、音を出したりして、新たなマーキング位置1204が追加されたことを知らせるようにしてもよい。ライト1202によるポケット測定作業中に動画解析で得られるマーキング位置1204とポケット形状1205をライブビュー表示することで、所望のマーキング位置を追加したり、明らかに正しくないマーキング位置を削除したりすることができる。
The
図13は、ライトによるポケット測定作業終了後のライブビュー表示の例であり、検出したマーキング位置や、マーキング位置から生成したポケット形状を表示する。さらに、編集操作によりマーキング位置の追加表示などが可能である。 FIG. 13 is an example of a live view display after the pocket measurement work by the light is completed, and displays the detected marking position and the pocket shape generated from the marking position. Further, the marking position can be additionally displayed by the editing operation.
画面1301は、ポケット測定作業終了時(ポケット測定作業終了直後)でのライブビ
ュー表示の画面である。動画解析により得られたマーキング位置1204とポケット形状1205が表示されている。さらに、画面1301と隣接して、マーキング位置を編集するマーキング位置編集メニュー1302が表示されている。マーキング位置編集メニュー1302は複数の項目1303を含み、ユーザーは複数の項目1303のいずれかを選択することができる。ここでは、複数の項目1303は、「追加」と「移動」と「削除」の3つの項目を含むとする。画面1301では、「追加」が選択されている。
The
「追加」が選択されている状態で、ユーザーは、任意の位置をマーキング位置(動画解析で得られた位置ではない)として追加することができる。画面1311は、ユーザーが「追加」を選択して、追加するマーキング位置1312を指定した時点でのライブビュー表示の画面である。画面1311に示すように、ユーザーがマーキング位置1312を指定すると、当該マーキング位置1312が追加表示される。さらに、追加後の複数のマーキング位置を解析した形状に、ポケット形状1205が更新される。
With "Add" selected, the user can add any position as a marking position (not the position obtained by video analysis). The
なお、「移動」が選択されている状態では、ユーザーは、画面上のマーキング位置を任意に選択してドラッグ&ドロップすることで、選択したマーキング位置を移動させることができる。この場合も、移動後のマーキング位置を解析した形状に、ポケット形状1205が更新される。また、「削除」が選択されている状態では、ユーザーは、画面上のマーキング位置を任意に指定(選択)することで、指定したマーキング位置を削除することができる。この場合も、削除後の残りのマーキング位置を解析した形状に、ポケット形状1205が更新される。このように、操作に応じた変更後のマーキング位置を結んだ形状に、ポケット形状1205が更新される。
When "Move" is selected, the user can move the selected marking position by arbitrarily selecting and dragging and dropping the marking position on the screen. In this case as well, the
図7の説明に戻る。ステップS732では、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)に対して、患部領域の抽出結果を示す情報および患部領域のサイズに関する情報を重畳する。ポケット有りの褥瘡の場合には、ステップS725で重畳される情報だけでなく、ステップS731における動画解析の結果も重畳する。なお、ステップS727で動画を取得した場合(ポケット有りの褥瘡の場合)は、当該動画の1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択し、当該1フレームに情報を重畳してもよい。
Returning to the description of FIG. In step S732, the
図14(A)〜14(C)を用いて、ステップS732の重畳処理について説明する。ここでは、患部領域の抽出結果を示す情報として長径と短径を含む情報が重畳されるとする。また、ポケット周辺のマーキング位置、ポケット形状、および、患部領域のサイズに関する情報が重畳されるとする。図14(A)〜14(C)は、ステップS732の重畳処理により得られる重畳画像(合成画像)の一例を示す。 The superimposition process of step S732 will be described with reference to FIGS. 14 (A) to 14 (C). Here, it is assumed that information including a major axis and a minor axis is superimposed as information indicating the extraction result of the affected area. Further, it is assumed that information on the marking position around the pocket, the shape of the pocket, and the size of the affected area is superimposed. 14 (A) to 14 (C) show an example of a superposed image (composite image) obtained by the superimposing process in step S732.
図14(A)は、ポケット無しの褥瘡の場合の重畳画像の一例を示す。図14(A)では、潰瘍面領域のサイズ(面積値)を示す白色の文字列1402を黒色の背景に上に記述したラベル1401が、重畳画像1400の左上隅に重畳されている。潰瘍面領域の長径を示す白色の文字列1404と、潰瘍面領域の短径を示す白色の文字列1405とを黒色の背景に上に記述したラベル1403が、重畳画像1400の右上隅に重畳されている。“DESIGN−R(登録商標)”のSize評価の指標を示す白色の文字列を黒色の背景に上に記述したラベル1406が、重畳画像1400の左下隅に重畳されている。そして、重畳画像1400の右下隅にスケールバー1407が重畳されている。
FIG. 14 (A) shows an example of a superimposed image in the case of a pressure ulcer without a pocket. In FIG. 14A, a
図14(B)は、ポケット有りの褥瘡の場合の重畳画像の一例を示す。図14(B)の重畳画像1410でも、図14(A)と同様に、潰瘍面領域の長径と短径を示すラベル1403、“DESIGN−R(登録商標)”のSize評価の指標を示すラベル1406、及び、スケールバー1407が重畳されている。但し、図14(B)の重畳画像141
0では、図14(A)のラベル1401の代わりに、ラベル1411が重畳されている。ラベル1411には、潰瘍面領域の面積値を示す文字列1402だけでなく、ポケットの面積値を示す文字列1412も記述されている。ポケットの面積値も、潰瘍面領域の面積値と同様に、被写体距離などに基づいて算出される。さらに、図14(B)の重畳画像1410では、ポケット領域1413と潰瘍面領域1414とが異なる色で塗りつぶされている。このように色分けすることで、ポケット領域1413と潰瘍面領域1414を視覚的に正確に判別することが可能となる。
FIG. 14B shows an example of a superimposed image in the case of a pressure ulcer with a pocket. In the
At 0, the
なお、ポケット無しの褥瘡の場合(図14(A)の場合)に、ポケットの面積値を示す文字列(図14(B)の文字列1412)の代わりに、ポケットが存在しないことを示す文字列(「Pocket 0」や「No Pocket」等)を重畳してもよい。また、領域の輪郭を示す枠(線)の重畳により、ポケット領域と潰瘍面領域を視覚的に正確に判別可能としてもよい。ポケット無しの褥瘡の場合(図14(A)の場合)にも、潰瘍面領域を塗りつぶしたり、潰瘍面領域の輪郭を示す枠を重畳したりしてよい。また、撮像装置の操作によって、ポケット領域のみの表示、潰瘍面領域のみの表示、及び、ポケット領域と潰瘍面領域の両方の表示を切り替えられるようにしてもよい。そのようにすることで、ポケットと潰瘍面の一方のみの領域に注目して、画像を確認することが可能となる。
In the case of decubitus without pockets (in the case of FIG. 14A), a character indicating that no pocket exists instead of the character string indicating the area value of the pocket (
図14(C)は、ポケット有りの褥瘡の場合の重畳画像の他の例を示す。図14(C)の重畳画像1420でも、図14(B)と同様に、ラベル1411、ラベル1403、ラベル1406、及び、スケールバー1407が重畳されている。図14(C)では、ポケット領域と潰瘍面領域の塗りつぶしは行われておらず、ポケット周辺の複数のマーキング位置を示す複数の点1421と、ポケット形状を示す線1422とが重畳されている。ここで、Minimum bounding rectangleを用いて長径と短径の算出したとする。図14(C)の重畳画像1420では、潰瘍面領域1414を囲むMinimum bounding rectangleを表す矩形枠1423が重畳されている。ポケット無しの褥瘡の場合(図14(A)の場合)にも、Minimum bounding rectangleを表す矩形枠を重畳してよい。
FIG. 14C shows another example of a superimposed image in the case of a pressure ulcer with a pocket. In the
図7の説明に戻る。ステップS733では、画像処理装置3のCPU310は、出力部314を用いて、ステップS732で作成した合成画像(重畳画像)を撮像装置2に送信する。なお、患部領域に関する情報が画像処理装置3から撮像装置2に送信され、撮像装置2で合成画像が作成されてもよい。
Returning to the description of FIG. In step S733, the
ステップS734では、画像処理装置3のCPU310は、ステップS702で撮影された画像内に含まれる1次元バーコード(不図示)から、被検体を識別する被検体IDを読み取る。なお、ステップS702で撮影された画像の伝送タイミングは特に限定されない。例えば、ステップS714で撮像装置2がステップS702の撮影画像を画像処理装置3に出力し、ステップS727で画像処理装置3がステップS702の撮影画像を撮像装置2から取得してもよい。
In step S734, the
ステップS735では、画像処理装置3のCPU310は、ステップS734で読み取った被検体IDを、あらかじめ登録された被写体IDと照合し、現在の被検体の名前を取得(判断)する。現在の被検体の名前や被検体IDが未登録の場合には、CPU310は、現在の被検体の名前や被検体IDを、ユーザーに登録させて取得する。
In step S735, the
ステップS736では、画像処理装置3のCPU310は、患部の評価結果(ステップS730やステップS731の解析結果)などを含む被検体情報を、ステップS735で判断した被検体のデータとして補助記憶部316に記録する。現在の被検体(被検体ID)に紐づくデータが記録されていない場合は、被検体情報を新規作成し、現在の被検体に
紐づくデータ(被検体情報)が記録されている場合は、被験者情報を更新する。
In step S736, the
図15を用いて、画像処理装置3に保存する被検体情報1500のデータ構成を説明する。被検体情報1500は、被検体ID1501、被検体の名前1502、被検体ID1501と名前1502に対応する患部情報1510を含む。患部情報1510では撮影日時毎に情報が管理されている。具体的には、患部情報1510は、日付情報1503、患部画像1504、患部評価情報1505、及び、ポケット評価情報1506の組み合わせを1つ以上含む。日付情報1503は、患部の撮影日を示す情報であり、患部画像1504は、患部の評価に使用した画像(患部を撮影した画像)である。患部評価情報1505は、潰瘍面とポケットの両方を含む患部を評価した値を含む。図15の例では、患部評価情報1505は、潰瘍面とポケットの両方を含む患部領域のSize、患部領域の長径、患部領域の短径、及び、DESIGN−Rの評価値を含む。ポケット評価情報1506は、ポケットを評価した値を含む。図15の例では、ポケット評価情報1506は、ポケットの状態を示すポケット状態情報、ポケットのSize、ポケットの長径、及び、ポケットの短径を含む。例えば、潰瘍面を全て包含するポケットありの褥瘡では「ポケット有 皆外包」、潰瘍面に部分的に重なるポケットありの褥瘡では「ポケット有 部分外包」、ポケット無しの褥瘡では「ポケット無」の文字情報が、ポケット状態情報として登録される。ポケット状態情報は、ユーザーによる情報入力で登録されてもよいし、画像解析により自動で登録されてもよい。このように、患部評価情報1505とポケット評価情報1506は区別して生成(算出)されて記録される。被検体情報1500は、表示などによってユーザーに提供したり、データとして他の装置に提供したりできる。
The data structure of the subject information 1500 stored in the
ステップS715では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS733で画像処理装置3が送信した合成画像(重畳画像)を受信(取得)する。
In step S715, the
ステップS716では、撮像装置2のシステム制御部219は、ステップS715で受信した合成画像を表示部222に表示する。
In step S716, the
次に、図16(A)のフローチャートを用いて、図7のステップS731の動画解析処理の一例について説明する。ここでは、動画解析処理により、褥瘡のポケットの大きさが分かる合成画像を生成する例を説明する。この場合は、図7のステップS732において、図16(A)のフローチャートで生成された合成画像に情報を重畳してもよい。 Next, an example of the moving image analysis process in step S731 of FIG. 7 will be described with reference to the flowchart of FIG. 16 (A). Here, an example of generating a composite image showing the size of a pressure ulcer pocket by moving image analysis processing will be described. In this case, in step S732 of FIG. 7, information may be superimposed on the composite image generated by the flowchart of FIG. 16 (A).
ステップS1600では、画像処理装置3のCPU310は、動画の複数のフレームの中から基準となるフレーム(基準画像)を選択する。後述するステップS1605では、この基準画像に対して、ライト領域(ライトの発光領域;ライト先端の位置;光が発せられる位置)を合成する。ライトでの計測(図2)中のフレームには人の手やライトが映ってしまっているため、そのような余計なものが映っていない計測前のフレームを基準画像として選択するのが望ましい。例えば、ライトをポケットに入れる前に動画撮影を開始し、動画の先頭フレームを基準画像として選択することで、余計なものが映っていない基準画像を得ることができる。また、予めライトの形状と色情報を取得しておき、ライトに該当する領域が動画のフレーム内に含まれているかどうかを解析して、ライトに該当する領域が含まれていないフレームを基準画像として選択してもよい。
In step S1600, the
ステップS1601では、画像処理装置3のCPU310は、基準画像から潰瘍面領域を検出する。ここで潰瘍面領域を検出するのは、潰瘍面領域の検出結果を基準としてライト領域を合成するためである。撮像装置2と被写体がライトでの計測中に全く動かなければ、潰瘍面領域を基準にしてライト領域を合成する必要はないが、現実的には難しいため、潰瘍面領域などの基準領域を設けてライト領域を合成する。潰瘍面領域の検出は、図7
のステップS728と同様の手法で行う。ここで、ライトでの計測中は潰瘍面領域がライトや作業者の手で隠れてしまうことも考えられる。そのような場合を考慮して、例えば、図17のように潰瘍面の近くにマーカー1701,1702を配置し、配置されたマーカーを、ライト領域を合成するため基準として検出してもよい。図17の例では、計測中にマーカーが隠れてしまう場合を考慮して、2つのマーカー1701,1702を配置している。なお、マーカーは3つ以上配置してもよい。また、患者(被験者)の体部に特徴となるようなものがあれば、それを基準としてもよい。
In step S1601, the
This is performed in the same manner as in step S728 of the above. Here, it is conceivable that the ulcer surface area may be hidden by the light or the operator's hand during the measurement with the light. In consideration of such a case, for example,
次に説明するステップS1602〜S1605の処理は、動画の全フレームに対して行われるように1フレームずつ繰り返される。ステップS1602では、画像処理装置3のCPU310は、対象画像(処理対象のフレーム)からライト領域を検出する。ここでは、ライト領域が、赤く丸いという特徴を有するとする。ステップS1602では、このような特徴を有する領域を、ライト領域として、対象画像から検出する。なお、所定のサイズ(動画中のサイズの変化が所定以内)のまま動画中で移動している赤い点をライトの位置としてもよい。ステップS1603では、対象画像から潰瘍面領域を検出する。前述した通り、潰瘍面領域を基準にしてライト領域を合成するために、潰瘍面領域を検出する必要がある。ステップS1604では、対象画像の射影変換を行う。ライトでの計測中は、被写体に対する撮像装置2の相対的な向きや位置が変わってしまう可能性があるため、射影変換を行うことで、ライト領域を正確に合成できるようにする。射影変換の具体的な方法については後述する。ステップS1605では、基準画像に対して射影変換後のライト領域を合成する。ステップS1602〜S1605の処理を全てのフレームに対して行うことで、図18(A)の合成画像1800を得ることができる。もしくは、所定時間ごとのフレームを用いてライトの軌跡の点を求めてもよい。このとき、患部の端にライトが達したフレームは所定時間ごとのフレームに対応するフレームでなくても合成用の画像に含めるようにすればよい。例えば、T=0.01秒や0.02秒、0.03秒ごとのフレームの画像より、ライトの領域を合成することにより合成画像を作成する。このとき、患部に対するライトの位置を各画像から検出し、ライトの位置を示すアイテムを表示するようにしてもよい。つまり、基準画像のライトのみが実際のライトとして表示され、その他の画像のライトはライトがある位置に対応する基準画像の位置に赤い点や黒い点などのアイテムを表示するようにしてもよい。
The processing of steps S1602 to S1605 described below is repeated frame by frame so as to be performed for all frames of the moving image. In step S1602, the
なお、端の点が分かりやすいように、患部の径方向の端の位置のライトは他のライトとは異なる表示形態で表示するようにしてもよい。例えば、端の位置のライトは輝度を上げて合成画像を生成してもよい。もしくは、ライトの位置をアイテムで示す場合には、アイテムの色を変えて表示をしてもよい。ライトの軌跡を示すような線などを表示してもよい。このように、ユーザーが端の位置やライトの軌跡を分かりやすくすることによって、ユーザーが外周を描きやすくなる。 The light at the radial end of the affected area may be displayed in a display form different from that of other lights so that the end points can be easily understood. For example, the light at the edge position may be increased in brightness to generate a composite image. Alternatively, when the position of the light is indicated by an item, the color of the item may be changed and displayed. A line or the like indicating the trajectory of the light may be displayed. In this way, by making it easier for the user to understand the position of the edge and the trajectory of the light, it becomes easier for the user to draw the outer circumference.
また、所定時間ごとでなくても、ライトが所定距離移動するごとに合成用の画像として取得するようにしてもよい。 Further, even if it is not every predetermined time, it may be acquired as an image for compositing every time the light moves a predetermined distance.
なお、動画とともに撮影された静止画を基準画像として用いてもよいし、ステップS1601の処理結果の代わりに、ステップS728の処理結果を用いてもよい。 A still image taken together with the moving image may be used as a reference image, or the processing result of step S728 may be used instead of the processing result of step S1601.
次に、図16(B)のフローチャートを用いて、図16(A)のステップS1604の処理(射影変換)について説明する。ステップS1610では、画像処理装置3のCPU310は、基準画像の潰瘍面領域(ステップS1601で検出された潰瘍面領域)の特徴点を抽出する。ここでは、特徴点として、潰瘍面領域外周上の任意の点を抽出するとする。ステップS1611では、ステップS1610と同様に、画像処理装置3のCPU310は、対象画像の潰瘍面領域から特徴点を抽出する。ステップS1612では、画像処理
装置3のCPU310は、ステップS1610で抽出した特徴点(基準画像の潰瘍面領域の特徴点)とステップS1611で抽出した特徴点(対象画像の潰瘍面領域の特徴点)とのマッチングを行う。このマッチングにより、基準画像と対象画像の間で互いに対応する特徴点を識別する。ステップS1613では、画像処理装置3のCPU310は、ステップS1612のマッチング結果を基にして、対象画像の潰瘍面領域が基準画像の潰瘍面領域と同一の領域(平面)になるような射影変換の逆行列を算出する。ステップS1614では、画像処理装置3のCPU310は、ステップS1613で算出した逆行列を使って、対象画像の射影変換を行う。このような射影変換を行うことで、被写体に対する撮像装置2の向きの変化を抑えた画像を得ることが可能となる。
Next, the process (projection transformation) of step S1604 of FIG. 16A will be described with reference to the flowchart of FIG. 16B. In step S1610, the
図18(A)の合成画像1800は、図7のステップS733,S715で送受信し、ステップS716で撮像装置2に表示することができる(合成画像の提供)。その場合は、図7のステップS717にて、システム制御部219は、ポケットの外周を描画する外周描画処理を行う。図19のフローチャートを用いて、撮像装置2に合成画像1800を表示した後の外周描画処理について説明する。合成画像1800ではライトの移動軌跡が視覚的に分かるため、ポケットの領域をユーザーが簡単に把握することができる。なお、ライトの移動の軌跡に関する情報が提供できれば、提供方法は特に限定されない。
The
ステップS1900では、撮像装置2のシステム制御部219は、ユーザーにポケット外周の入力を促す。ポケットの外周は、撮像装置2(表示部222)の画面上をユーザーが指でなぞることで入力されてもよいし、タッチペンなどの入力デバイスを用いて入力されてもよい。図18(B)は、ユーザーがポケット外周を入力した後の表示例を示す。図18(B)の画像1810では、ライト領域の頂点(外側)に沿って、ポケット外周1811が入力されており、図18(A)の合成画像1800上にポケット外周1811が重畳表示されている。
In step S1900, the
ステップS1901では、撮像装置2のシステム制御部219は、通信部218を用いて、ポケット外周1811が描画された合成画像1810と、ポケット外周1811に関するポケット外周情報とを画像処理装置3へ送信する。
In step S1901, the
ステップS1910では、画像処理装置3のCPU310は、入力部313を用いて、ステップS1901で撮像装置2が送信した合成画像1810とポケット外周情報を受信する。
In step S1910, the
ステップS1911では、画像処理装置3のCPU310は、ステップS1910で受信した合成画像1810とポケット外周情報を基にして、ポケット領域の面積(サイズ)を算出する。ここでは、ポケット外周1811で囲まれた領域の面積から潰瘍面領域1812の面積を減算することで、ポケット領域の面積を算出するとする。すなわち、図18(C)の領域1821の部分の面積を算出する。なお、DESIGN−Rの計算方法に沿って面積を算出してもよい。
In step S1911, the
ステップS1912では、画像処理装置3のCPU310は、基準画像(合成画像1800の元となった画像)に対して、ポケット領域や、その面積(ステップS1911で算出)などの情報を重畳する。そうすることで、図14(B),14(C)に示すような合成画像が得られる。
In step S1912, the
ステップS1913では、画像処理装置3のCPU310は、出力部314を用いて、ステップS1912で作成した合成画像を撮像装置2に送信する。
In step S1913, the
ステップS1902では、撮像装置2のシステム制御部219は、通信部218を用い
て、ステップS1913で画像処理装置3が送信した合成画像を受信する。
In step S1902, the
ステップS1903では、撮像装置2のシステム制御部219は、ステップS1902で受信した合成画像を表示する。このようにすることで、患者(被検体)の皮膚の上に直接マジックでポケット領域をマーキングすることなく、ポケット領域の大きさを測定することができるようになる。
In step S1903, the
図16(A),16(B)では、射影変換を行った後にライト領域を合成することで、ライト領域の位置が正確に反映されている合成画像を作成するようにしている。別の方法として、撮影時の焦点距離を使用する方法が考えられる。ライトでのポケット領域の計測には時間がかかるため、撮影中(計測中)に患者と撮像装置2の距離が変わってしまうことが考えられる。ここで、撮影時には焦点距離情報も取得できるため、この情報を使って画像を拡大や縮小することが可能である。
In FIGS. 16A and 16B, a composite image in which the position of the light region is accurately reflected is created by synthesizing the light region after performing the projective transformation. As another method, a method of using the focal length at the time of shooting can be considered. Since it takes time to measure the pocket area with the light, it is conceivable that the distance between the patient and the
撮影時の焦点距離を使用して合成画像を作成する方法について、図20のフローチャートを用いて説明する。ステップS2000は図16(A)のステップS1600と同じであり、ステップS2001はステップS1601と同じである。ステップS2002では、画像処理装置3のCPU310は、基準画像の焦点距離を取得する。ステップS2003〜S2007の処理は、動画の全フレームに対して行われるように1フレームずつ繰り返される。ステップS2003では、画像処理装置3のCPU310は、対象画像の焦点距離を取得する。ステップS2004では、画像処理装置3のCPU310は、基準画像の焦点距離に合うように対象画像を拡大または縮小する。ステップS2005は図16(A)のステップS1602と同じであり、ステップS2006は図1ステップS1603と同じであり、ステップS2007はステップS1605と同じである。このように焦点距離を使うことで、ライト領域の位置が正確に反映されている合成画像を作成することができる。
A method of creating a composite image using the focal length at the time of shooting will be described with reference to the flowchart of FIG. Step S2000 is the same as step S1600 in FIG. 16A, and step S2001 is the same as step S1601. In step S2002, the
図16(A),16(B),20において、撮影した動画の全フレームを対象画像として用いると、ライトをポケットに入れる前後のフレームのライト領域も合成されてしまう場合がある。そのように得られた合成画像ではライト領域の軌跡がわかりにくいため、指定した期間のフレーム(ライト領域)を削除できると使い勝手が良くなる。そのような操作が可能なUI(画面2100)を示したものが図21(A),21(B)である。 In FIGS. 16A, 16B, and 20, when all the frames of the captured moving image are used as the target images, the light areas of the frames before and after the light is put in the pocket may also be combined. Since it is difficult to understand the locus of the light region in the composite image obtained in this way, it is easier to use if the frame (light region) of the specified period can be deleted. 21 (A) and 21 (B) show UIs (screens 2100) capable of such operations.
画面2100は、合成画像と、不要なフレーム(不要なライト領域)を合成画像から削除するためのコントロールアイテム2102〜2104とを含む。アイテム2102は時間軸を示すスライダーバーであり、アイテム2103,2104は、不要なフレームを削除するためのスライダーである。スライダー2103,2104を左右に動かすことで、不要なフレームを削除することができる。図21(A)の状態では、スライダー2103,2104がスライダーバー2102の両端に置かれており、動画の全フレームを合成した合成画像2101が表示されている。合成画像2101では、ライトをポケットに入れる前後のフレーム(ライト領域)も合成されており、ライト領域の軌跡がわかりにくい。一方で、図21(B)の状態では、スライダー2103からスライダー2104までの範囲が図21(A)から狭められている。この場合には、スライダー2103に対応するフレームより前のフレームと、スライダー2104に対応するフレームより後のフレームとが合成されなくなる。その結果、ライトをポケットに入れる前後のフレームが合成されていない、ライト領域の軌跡がわかりやすい合成画像2111を表示することができる。このようにスライダー2103,2104の位置を調整することで、不要な期間のライト領域を合成対象外とすることが可能となる。
The
このように、実施例1によれば、撮像装置2でライトによるポケット測定作業を動画撮
像して、画像処理装置3で動画解析してポケット形状が分かる合成画像を作成することができる。また、その合成画像を撮像装置2に送信して、ユーザーがポケット領域を簡単に指定することができる。
As described above, according to the first embodiment, the
[実施例2]
実施例1では、撮像装置2と画像処理装置3を別々の装置としたが、画像処理装置3の機能構成は撮像装置2に設けてもよい(撮像装置2と画像処理装置3が一体で構成されてもよい)。そのようにすることで、撮像装置2が画像処理装置3と通信するといった処理が不要となり、処理負荷を低減することができる。また、実施例1では、ポケット領域が分かる合成画像を撮像装置2に送信して、撮像装置2上でユーザーがポケット外周を入力する構成としたが、ポケット外周の入力は必ずしも撮像装置2に対し行う必要は無い。例えば、合成画像は画像処理装置3に保存しておき、画像処理装置3にディスプレイやマウスといった入出力デバイスを接続して、ユーザーが画像処理装置3にポケット外周を入力することも考えられる。また、合成画像は画像処理装置3に保存しておき、画像処理装置3とは異なる他の画像処理装置(PC、スマートフォン、タブレットなど)にユーザーがポケット外周を入力し、他の画像処理装置から画像処理装置3にポケット外周を通知することも考えられる。
[Example 2]
In the first embodiment, the
[実施例3]
実施例1では、潰瘍面領域の面積算出と、ポケット領域の大きさが分かる合成画像の作成とを同じタイミング(同じフローチャート)で実施したが、それらを別々のタイミングで実施してもよい。例えば、病院の事情で、潰瘍面領域の測定と、ライトを使ったポケット領域の測定とを別々のタイミングで行うことも考えられる。そのような状況で、図14(B)の重畳画像1410(合成画像)のように潰瘍面領域とポケット領域(塗りつぶし画像)を重畳しようとしたとする。そのような場合、潰瘍面領域の測定のタイミングと、ポケット領域の測定のタイミングとの間で、測定時の患者の姿勢が大きく変わること等により、撮像装置2と患者の間の距離が変わることがある。このため、潰瘍面領域またはポケット領域を正しい大きさで重畳することができない。そのような場合は、撮影時の焦点距離を使って、片方の画像(領域)を拡大または縮小することで、正しい大きさで潰瘍面領域とポケット領域を重畳した合成画像を得ることが可能となる。
[Example 3]
In Example 1, the calculation of the area of the ulcer surface region and the creation of the composite image showing the size of the pocket region were performed at the same timing (same flowchart), but they may be performed at different timings. For example, due to hospital circumstances, it is conceivable to measure the ulcer surface area and the pocket area using a light at different timings. In such a situation, it is attempted to superimpose the ulcer surface region and the pocket region (filled image) as shown in the superimposed image 1410 (composite image) of FIG. 14 (B). In such a case, the distance between the
なお、潰瘍面領域の測定と、ライトを使ったポケット領域の測定とが別々のタイミングで行われたとしても、それらのタイミング間で撮影距離が変わらないようにできれば、潰瘍面領域とポケット領域の重畳が楽になる。例えば、潰瘍面領域の測定を先に行い、後日ポケット領域の測定を行う場合、同じ撮影距離で測定を行えば、潰瘍面領域とポケット領域の縮尺が同じになり、画像(潰瘍面領域とポケット領域)の重畳が楽になる。このため、潰瘍面領域の測定時の撮影距離を保持しておき、ポケット領域の撮影時は、撮影距離が潰瘍面領域の測定時(潰瘍面領域を測定するための撮影時)と同じになったタイミングで撮影を開始するように撮影制御を行うとよい。撮影が開始されたら、検査者がライトでポケット領域の測定を開始する必要もあるため、撮像装置2上に撮影が開始されたことを知らせるようにしてもよい。このように撮影開始のタイミングを自動で決定することにより、複数回の測定の間で撮影距離を合わせることが可能となる。
Even if the measurement of the ulcer surface area and the measurement of the pocket area using the light are performed at different timings, if the shooting distance can be kept unchanged between those timings, the ulcer surface area and the pocket area can be measured. Superimposition becomes easier. For example, when the ulcer surface area is measured first and the pocket area is measured at a later date, if the measurement is performed at the same shooting distance, the scale of the ulcer surface area and the pocket area will be the same, and the image (the ulcer surface area and the pocket) will be the same. Area) superimposition becomes easier. Therefore, the imaging distance at the time of measuring the ulcer surface region is maintained, and the imaging distance at the time of photographing the pocket region is the same as that at the time of measuring the ulcer surface region (at the time of imaging for measuring the ulcer surface region). It is advisable to control the shooting so that the shooting starts at the same timing. Since it is also necessary for the inspector to start measuring the pocket area with a light when the imaging is started, the
[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1:画像処理システム
2:撮像装置
211:撮像部 217:画像処理部 219:システム制御部 222:表示部
223:操作部
3:画像処理装置
310:中央演算処理部(CPU) 313:入力部 314:出力部
1: Image processing system 2: Image processing device 211: Imaging unit 217: Image processing unit 219: System control unit 222: Display unit 223: Operation unit 3: Image processing device 310: Central processing unit (CPU) 313: Input unit 314 : Output section
Claims (20)
前記取得手段により取得された前記情報より、患部内を移動するライトの軌跡のうち、前記患部の径方向の端の点を検出する検出手段と、
前記検出手段により検出された複数の点から患部の外周に関する情報を提供する提供手段と
を有することを特徴とする画像処理システム。 An acquisition method for acquiring information about the recorded video,
From the information acquired by the acquisition means, a detection means for detecting a point at the radial end of the affected portion in the locus of the light moving in the affected portion.
An image processing system comprising a providing means for providing information on the outer circumference of an affected portion from a plurality of points detected by the detecting means.
ことを特徴とする請求項1に記載の画像処理システム。 The image processing system according to claim 1, wherein the acquisition means acquires information regarding a locus in which a light has moved.
ことを特徴とする請求項1または2に記載の画像処理システム。 The image processing system according to claim 1 or 2, wherein the detection means detects an apex when the light moves in the affected portion in the radial direction as a point at the end in the moving image.
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 3, wherein the point at the end is a position of a boundary between a region of the affected portion and a region different from the affected portion.
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理システム。 The claim is characterized in that the light moves in the affected portion in the radial direction from a predetermined region near the center of the affected portion to the position of the edge of the affected portion, and then repeatedly moves to the predetermined region. The image processing system according to any one of 1 to 4.
ことを特徴とする請求項1〜5のいずれか1項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 5, wherein the information regarding the outer circumference of the affected portion includes the shape of the outer circumference of the affected portion formed by connecting the plurality of points.
ことを特徴とする請求項1〜6のいずれか1項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 6, wherein the information regarding the outer circumference of the affected portion includes an area of the affected portion formed by connecting the plurality of points.
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理システム。 The image according to any one of claims 1 to 7, wherein the information regarding the outer circumference of the affected portion includes a major axis or a minor axis length of the affected portion formed by connecting the plurality of points. Processing system.
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 8, wherein the plurality of points are connected by a spline curve or a Bezier curve.
ことを特徴とする請求項1〜9のいずれか1項に記載の画像処理システム。 Any one of claims 1 to 9, wherein the providing means controls the plurality of points and a line connecting the plurality of points so as to superimpose and display the image of the affected portion. The image processing system described in the section.
ことを特徴とする請求項1〜10のいずれか1項に記載の画像処理システム。 The providing means controls to display the moving image in a live view, and controls to superimpose and display a line connecting a plurality of points detected by the detecting means so far on the moving image. The image processing system according to any one of claims 1 to 10.
前記提供手段は、前記操作に応じた変更後の複数の点から、前記外周に関する情報を更新する
ことを特徴とする請求項1〜11のいずれか1項に記載の画像処理システム。 Further having a receiving means capable of accepting an operation instructing deletion of a point for forming the outer circumference, movement of a point for forming the outer circumference, or addition of a point for forming the outer circumference.
The image processing system according to any one of claims 1 to 11, wherein the providing means updates information on the outer circumference from a plurality of points after the change according to the operation.
ことを特徴とする請求項1〜12のいずれか1項に記載の画像処理システム。 The providing means is based on the affected portion formed by connecting the plurality of points and the portion of the affected portion exposed to the outside, as at least a part of the information regarding the outer circumference of the affected portion. The image processing system according to any one of claims 1 to 12, wherein the size of a portion not exposed to the outside is calculated.
ことを特徴とする請求項13に記載の画像処理システム。 The providing means calculates the size of the portion not exposed to the outside by the calculation method of DESIGN-R from the affected portion formed by connecting the plurality of points and the portion exposed to the outside. 13. The image processing system according to claim 13.
前記画像処理システムは、前記患部のサイズと、前記外部に露出していない部分のサイズとを区別して記録する
ことを特徴とする請求項13または14に記載の画像処理システム。 The providing means further calculates the size of the affected part including the part exposed to the outside and the part not exposed to the outside as a part of the information about the outer circumference.
The image processing system according to claim 13, wherein the image processing system separately records the size of the affected portion and the size of the portion not exposed to the outside.
ことを特徴とする請求項1〜15のいずれか1項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 15, wherein the acquisition means, the detection means, and the providing means are provided in an imaging device or an information processing device.
ことを特徴とする請求項1〜16のいずれか1項に記載の画像処理システム。 It is characterized by further having a control means for controlling so that the shooting of the moving image is automatically started at the timing when the focal length becomes the same as the time of shooting for measuring the portion of the affected part exposed to the outside. The image processing system according to any one of claims 1 to 16.
前記取得ステップにおいて取得された前記情報より、患部内を移動するライトの軌跡のうち、前記患部の径方向の端の点を検出する検出ステップと、
前記検出ステップにおいて検出された複数の点から患部の外周に関する情報を提供する提供ステップと
を有することを特徴とする画像処理システムの制御方法。 The acquisition step to get information about the video that was shot, and
From the information acquired in the acquisition step, a detection step of detecting a point at the radial end of the affected portion in the locus of the light moving in the affected portion, and a detection step.
A control method of an image processing system, comprising a providing step of providing information on the outer circumference of an affected portion from a plurality of points detected in the detection step.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019175565A JP7309556B2 (en) | 2019-09-26 | 2019-09-26 | Image processing system and its control method |
US17/032,963 US20210093227A1 (en) | 2019-09-26 | 2020-09-25 | Image processing system and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019175565A JP7309556B2 (en) | 2019-09-26 | 2019-09-26 | Image processing system and its control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021049262A true JP2021049262A (en) | 2021-04-01 |
JP7309556B2 JP7309556B2 (en) | 2023-07-18 |
Family
ID=75154999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019175565A Active JP7309556B2 (en) | 2019-09-26 | 2019-09-26 | Image processing system and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7309556B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113188848A (en) * | 2021-04-12 | 2021-07-30 | 攸太科技(台州)有限公司 | Urine tracking method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003334179A (en) * | 2002-05-22 | 2003-11-25 | Koshiya:Kk | Bedsore pocket measure |
WO2006057138A1 (en) * | 2004-11-02 | 2006-06-01 | Koshiya Medical Care Co., Ltd. | Bedsore pocket measuring instrument |
US20060258961A1 (en) * | 2005-05-13 | 2006-11-16 | Zamierowski David S | Medical measuring device and method |
-
2019
- 2019-09-26 JP JP2019175565A patent/JP7309556B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003334179A (en) * | 2002-05-22 | 2003-11-25 | Koshiya:Kk | Bedsore pocket measure |
WO2006057138A1 (en) * | 2004-11-02 | 2006-06-01 | Koshiya Medical Care Co., Ltd. | Bedsore pocket measuring instrument |
US20060258961A1 (en) * | 2005-05-13 | 2006-11-16 | Zamierowski David S | Medical measuring device and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113188848A (en) * | 2021-04-12 | 2021-07-30 | 攸太科技(台州)有限公司 | Urine tracking method |
Also Published As
Publication number | Publication date |
---|---|
JP7309556B2 (en) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4702418B2 (en) | Imaging apparatus, image region existence determination method and program | |
JP7322097B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM | |
US10839481B1 (en) | Automatic marker-less alignment of digital 3D face and jaw models | |
CN109171817B (en) | Three-dimensional breast ultrasonic scanning method and ultrasonic scanning system | |
US20210093227A1 (en) | Image processing system and control method thereof | |
US10810738B1 (en) | Marker-less alignment of digital 3D face and jaw models | |
JP2021029675A (en) | Information processor, inspection system, and information processing method | |
JP2021051573A (en) | Image processing apparatus, and method of controlling image processing apparatus | |
JP5822545B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2021029676A (en) | Information processor, inspection system, and information processing method | |
WO2019230724A1 (en) | Image processing system, imaging device, image processing device, electronic device, control method thereof, and storage medium storing control method thereof | |
JP2017085204A (en) | Registration control of meta-data | |
JP7309556B2 (en) | Image processing system and its control method | |
US11599993B2 (en) | Image processing apparatus, method of processing image, and program | |
KR100874186B1 (en) | Method and apparatus for photographing snow-collected images of subjects by themselves | |
JP2021049248A (en) | Image processing system and method for controlling the same | |
JP4963492B2 (en) | Image segmentation method, program and apparatus | |
JP7028729B2 (en) | Object tracking device, object tracking system, and object tracking method | |
JP2012034069A (en) | Image processor and image processing program | |
CN109816712A (en) | Edge metering based on image | |
JP7317498B2 (en) | Processing system, processing apparatus, processing method, and program | |
JP2009151516A (en) | Information processor and operator designating point computing program for information processor | |
JP2020065173A (en) | Image processing device, learning device, image processing method, learning method, and program | |
JP2022147595A (en) | Image processing device, image processing method, and program | |
JP7317528B2 (en) | Image processing device, image processing system and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230705 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7309556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |