JP7317498B2 - 処理システム、処理装置、処理方法、およびプログラム - Google Patents
処理システム、処理装置、処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7317498B2 JP7317498B2 JP2018234569A JP2018234569A JP7317498B2 JP 7317498 B2 JP7317498 B2 JP 7317498B2 JP 2018234569 A JP2018234569 A JP 2018234569A JP 2018234569 A JP2018234569 A JP 2018234569A JP 7317498 B2 JP7317498 B2 JP 7317498B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- affected area
- image
- information
- indices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
同じ姿勢が継続すると、床と体の接触部位が血行不全となり周辺組織が壊死を起こす。この組織が壊死した状態を褥瘡、または床ずれと呼んでいる。
この褥瘡を発症した患者には、非特許文献1にあるように体圧分散ケア、スキンケアなどの褥瘡ケアを施し、定期的に褥瘡を評価、管理していく必要がある。
"DESIGN-R(登録商標)"は褥瘡をはじめとする傷の治癒過程を評価するためのツールである。この名称は、以下の各評価指標の頭文字をとったものである。即ち、深さ(Depth)、滲出液(Exudate)、大きさ(Size)、炎症・感染(Inflammation/Infection)、肉芽組織(Granulation)、壊死組織(Necrotic tissue)の頭文字をとったものである。
一方、経過評価用"DESIGN-R(登録商標)"として、経過評価に加え患者間の重症度の比較もできる"DESIGN-R(登録商標)"も定められている。Rはrating(評価・評点)を表す。各評価指標に異なる重み付けをしており、深さ以外の6項目の合計点(0~66点)がその創の重症度を表す。治療開始後に、治療経過を詳細かつ客観的に評価できる。個人の経過評価だけでなく、患者間の重症度比較もできる。
ここで、"DESIGN-R(登録商標)"の「大きさ」の評価は、皮膚損傷範囲の長径と短径(長径と直交する最大径)を(cm単位で)測定し、各々を掛け合わせた数値から、大きさを7段階に分類するものである。この7段階は、s0:皮膚損傷なし、s3:4未満、s6:4以上16未満、s8:16以上36未満、s9:36以上64未満、s12:64以上100未満、S15:100以上、である。
「炎症/感染」の評価は、創周辺の炎症あるいは創自体の感染によって、炎症/感染を4段階に分類するものである。この4段階は、i0:局所の炎症徴候なし、i1:局所の炎症徴候あり(創周囲の発赤、腫脹、熱感、痒痛)、I3:局所の明らかな感染徴候あり(炎症徴候、膿、悪臭など)、I9:漸進的影響あり(発熱など)、である。
また、非特許文献2に記載があるように、患者の衰弱具合や皮膚の湿潤度等によって褥瘡の悪化の速さは異なる。褥瘡の悪化の速さの速い患者においては軽度な症状でも早期に発見して対策を講じたい場合など、患者ごとに異なる判断基準が求められると考えられる。
画像を評価する技術として、特許文献1には、画像について部分領域ごとに算出したスコアと学習データとに基づいて、評価対象画像の評価値を算出する技術が開示されている。ここでの学習データは、画像についての複数の評価項目の各々のスコアと当該画像がユーザの嗜好に合致する度合いを示す評価値とが関連付けられたデータである。
[第1の実施形態]
まず、第1の実施形態を説明する。
まず、図1~図3を参照して、画像処理システムの一例について説明する。図1は、画像処理システムの構成の一例を示す図である。
画像処理システム100は、撮像装置110と、画像処理装置120とを有する。図2は、画像処理システム100により計測される被写体の一例を示す図である。本実施形態では、被写体201の臀部に生じた患部領域202の病態の一例を褥瘡として説明する。
次に、画像処理システム100は、複数の評価指標それぞれについての患部領域の領域分割の結果や被写体距離に基づいて、複数の評価指標それぞれについての評価値を算出する。次に、画像処理システム100は、それらの評価値を、ユーザによって画像撮影前に設定された基準値と比較する。画像処理システムは、この比較の結果に基づいて、強調表示する患部領域を決定する。尚、患部の対象は褥瘡に限定されるものではなく、やけど、裂傷、等であってもよい。更に、計測対象は患部に限定されるものではなく、電子データにおける画像中のオブジェクトであってもよい。
撮像装置110は、AF制御回路325、撮像ユニット311、ズーム制御回路315、測距システム316、画像処理回路317、通信装置318、およびシステム制御回路319を有する。撮像装置110は、更に、内部メモリ320、外部メモリI/F321、表示装置322、操作部材323、および共通バス324を有する。
レンズ312は、イメージセンサ314に被写体201の光学像を結像する。レンズ312には、露出量を調節するための絞り値を決定する絞りが含まれるものとする。
イメージセンサ314は、光学像を電気信号に変換するCCDや、CMOS素子等の電荷蓄積型の固体イメージセンサを有する。
シャッタ313は、開閉動作によりイメージセンサ314への露出や遮光を行い、シャッタ速度を制御する。尚、シャッタは機械シャッタに限ったものではなく電子シャッタを用いてもよい。CMOSセンサを用いた撮像素子では、電子シャッタは、画素ごと、或いは、複数画素からなる領域ごと(例えば、ラインごと)に、まず、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、撮像ユニット311は、リセット走査を行った画素ごと、或いは、複数画素からなる領域ごとに、それぞれ所定の時間を経過してから信号を読み出す走査を行う。
測距システム316は、画面を複数の画素からなる所定のブロックに分割し、画面内のブロックごとに、被写体201までの距離の検出が可能な機能を有する。このように測距システム316は、被写体201までの距離を検出するユニットである。測距システム316は、AF制御回路325の出力に基づいて、被写体201までの距離を検出してもよい。画面内のブロックが複数ある場合、測距システム316は、AFをブロックごとに繰り返し動作させることでブロックごとに、被写体201までの距離を検出する。この場合は、AF制御回路325が測距システム316を兼用できるため、測距システム316を省略することができる。
共通バス324には、AF制御回路325、撮像ユニット311、ズーム制御回路315、測距システム316、および画像処理回路317が接続される。また、共通バス324には、通信装置318、システム制御回路319、内部メモリ320、外部メモリI/F321、表示装置322、および操作部材323も接続される。共通バス324は、各ブロック間で信号の送受信を行うための信号線である。
尚、撮像装置110は、撮像装置本体と着脱可能なレンズユニットであって、撮像素子を備えるレンズユニットを用いて構成されても良い。この場合、撮像装置本体は、撮像素子を有さない。
CPU410は、演算装置411を有する。記憶装置412は、主記憶装置415(ROMまたはRAM等)と補助記憶装置416(磁気ディスク装置、SSD:Solid State Drive等)とを有する。
補助演算装置417は、CPU410の制御の下で用いられる補助演算用ICである。補助演算装置417には、一例としてGPU(Graphic Processing Unit)を用いることができる。GPUは、元々は画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとしても用いられることが多い。そして、深層学習を行う処理においても、GPUが用いられることが一般的である。尚、補助演算装置417として、FPGA(Field-Programmable Gate Array)やASIC等を用いてもよい。
通信装置318は、画像処理装置120内の各構成が、無線のネットワークを介して、画像処理装置120等の外部装置と通信を行うための通信インターフェースである。
尚、コンピュータ400が備えるCPU410および記憶装置412は1つであってもよいし複数であってもよい。即ち、少なくとも1以上の処理装置(CPU)と少なくとも1つの記憶装置とが接続されており、少なくとも1以上の処理装置が少なくとも1以上の記憶装置に記憶されたプログラムを実行した場合にコンピュータ400は上記の各手段として機能する。尚、処理装置はCPUに限定されるものではなく、FPGAやASIC等であってもよい。
S5101の応答処理とS5201の探索処理では、撮像装置110と画像処理装置120が無線LAN規格であるWifi規格のネットワーク(不図示)にそれぞれ接続する。S5201において、画像処理装置120は、画像処理装置120に接続される撮像装置110の探索処理を行う。S5101において、撮像装置110は、画像処理装置120の探索処理に対する応答処理を行う。各種の画像処理装置120の検索は、ネットワークを介して探索する機器探索技術等を用いて行われる。機器探索技術として、例えば、UPnP(Universal Plug and Play)が用いられる。UPnPにおいて個々の装置の識別はUUID(Universally Unique IDentifier)によって行われる。
ライブビュー処理は、撮像装置110のS5103~S5112の処理と、画像処理装置120のS5202~S5207の処理とを含む。図5において、ライブビュー処理を行うステップを、破線で囲んで示す(このことは、図12、図13においても同様である)。
まず、S5103において、システム制御回路319は、ユーザが、画像700の表示中に、各評価指標に対する基準値の変更を行ったか否かを判定する。図7に示すように、画像700の左下部には、図6に示したスライダー601と同様のスライダー701が表示される。ユーザはライブビュー中の任意のタイミングでスライダー701を左右に移動させることで各評価指標に対する基準値を変更することができる。尚、基準値の設定を行うためのGUI(Graphical User Interface)は、スライダーに限らず、ノブ等でもよい。
S5104において、システム制御回路319は、変更後の各評価指標に対する基準値を新しい基準値として設定する。
次に、S5105において、AF制御回路325は、AF処理を行う。AF処理では、被写体201に焦点を合わせるように焦点が自動的に調節される。AF制御回路325は、画面を複数のブロックに分割し、所定のブロックでAF(Auto Focus)を行う。本実施形態では、画面の中央に患部領域102が配置されるように撮像装置110を構えるものとする。よって、AF制御回路325は、画面の中央に位置するブロックでAFを行う。また、AF制御回路325は、焦点の調節量またはフォーカスレンズの移動量から、被写体201のAFエリアまでの距離を出力する。
次に、S5107において、画像処理回路317は、S5106で撮像された画像を現像し、現像後の画像に対しJPEG等の規格で画像圧縮を行う。現像された画像は表示装置322にも送られ、ライブビューの表示に用いられる。そして、画像処理回路317は、得られた画像のリサイズを実施する。S5107で生成された画像は後述するS5109で画像処理装置120に無線通信により送信される。
S5202において、CPU410は、通信装置418を介して、撮像装置110から出力された画像データと、画像データに含まれる被写体201に対応する距離情報と、各評価指標に対する基準値とを取得する。
次に、S5111において、システム制御回路319は、S5110で受信された重畳処理済みの画像700を表示装置322に表示する。このように、撮像装置110は、撮像ユニット311にて生成されたライブビュー画像に対して、患部の複数の評価指標についての患部領域202の抽出結果を示す情報と、各患部領域202の評価値に関する情報との少なくとも何れかを重畳して表示する。なお、撮像ユニット311にて生成されたライブビュー画像は、例えば、画像900である。このようにすることで、撮像装置110のユーザは、レリーズの前に各患部領域202の評価値と、患部領域202として推定された領域が妥当であるかを確認したうえで本撮影に臨むことができる。なお、レリーズの前に患部領域として推定された領域が妥当であるか否かの確認が不要であれば、撮像装置110におけるS5108からS5111の処理、および、画像処理装置120におけるS5202からS5207の処理は省略できる。
次に、S5114において、撮像ユニット311は、S5106と同様に、被写体201の患部領域202が含まれるように、被写体201の画像を撮像する。
次に、S5116において、システム制御回路319は、S5108と同様に、被写体201までの距離に関する距離情報を生成する。
次に、S5208において、CPU410は、S5202と同様に、通信装置418を介して、撮像装置110から出力された画像データと、画像データに含まれる被写体201に対応する距離情報を取得する。
次に、S5209において、CPU410は、S5203と同様に、補助演算装置417を用いて、S5208で取得された画像データから、被写体201の患部の複数の評価指標についての患部領域202を抽出または領域分割する。この処理の詳細は前述したため省略する。
次に、S5211において、CPU410は、S5205と同様に、各評価指標についての基準値と、各評価指標についての評価値とに基づいて、S5209で抽出された各評価指標についての領域のうち、強調表示する患部領域を決定する。各評価指標についての基準値は、S5208で取得されたものである。各評価指標についての評価値は、S5210で算出されたものである。この処理の詳細は前述したため省略する。
次に、S5119において、システム制御回路319は、S5111と同様に、S5118で取得された重畳処理済みの画像1000を表示装置322に表示する。ただし、S5119では、S5111と異なり、システム制御回路319は、画像1000の表示中に、ユーザが操作部材323を用いた操作を行うことによって、表示装置322に表示された画面を遷移させることができる。
次に、第2の実施形態を説明する。第1の実施形態では、ユーザの操作によって、撮像装置110のシステム制御回路319が、患部の複数の評価指標それぞれについての基準値を設定する場合を例に挙げて説明した。これに対し、本実施形態では、撮像装置110ではなく、画像処理装置120が患部の複数の評価指標それぞれについての基準値を設定する。更に、画像処理装置120の記憶装置412は、評価結果を被写体ごとに識別して記憶するデータベースを有する。また、以前に記憶された被写体の撮影を行う際に、前回撮影時の評価結果を参照し、その評価値に基づいて基準値を設定することができる。尚、被写体ごとの評価結果を記憶するためのデータベースは、撮像装置および画像処理装置とは別のハードウェアによって実現されてもよい。以上のように本実施形態と第1の実施形態とは、基準値を設定するための構成および処理と、評価結果を被写体ごとに識別して記憶するための構成および処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1~図10に付した符号と同一の符号を付す等して詳細な説明を省略する。
本実施形態では、抽出対象である患部領域1101を有する被写体1100には、被写体1100を識別する情報としてバーコードタグ1102が付帯されている。バーコードタグ1102を用いることにより、患部の画像と被写体1100のIDとを相互に関連付けることができる。尚、被写体を識別するタグはバーコードタグに限ったものではなく、QRコード(登録商標)等の2次元コードや数値であってもよい。
CPU410は、読み取った被写体IDを、予め登録された被写体IDと照合し、被写体の識別情報の一例として被写体1100の名前を取得する。
CPU410は、記憶装置412のデータベースから、読み取った被写体IDを含む過去のレコードを参照し、そのレコードに含まれる情報に基づいて複数の評価指標それぞれについての基準値を設定する。
尚、バーコードタグ1102から被写体IDを読み取る処理と、読み取った被写体IDを用いて被写体1100の名前を取得する処理は、撮像装置110が行うようにしてもよい。このようにする場合、撮像装置110の通信装置318は、患部領域1101を有する被写体1100を識別するための情報を、距離情報とともに画像処理装置120に出力してもよい。
本実施形態の撮像装置110のワークフローでは、図5に示す第1の実施形態の撮像装置110のワークフローに対し、S12101~S12103の処理が追加され、S5102の処理が削除されている。
S12103において、システム制御回路319は、通信装置318を介して、後述するS12205で出力される基準値の設定の完了通知を取得する。
S12201において、CPU410は、通信装置418を介して、S12102で出力されたバーコードタグ1102を含む画像を取得する。
次に、S12202において、CPU410は、S12201で取得された画像に含まれる1次元バーコード(不図示)から、被写体1100を識別する被写体IDを読み取る処理を行う。
次に、S12203において、CPU410は、S12202で読み取った被写体IDを、予め登録された被写体のIDと照合し、被写体1100の名前を取得する。
また、S5213の後のS12206において、CPU410は、データベース登録処理を行う。本実施形態では、CPU410は、S12202で読み取った被写体IDと、S12203で取得した被写体1100の名前を、S5114で撮像された画像に関連付ける。例えば、前述したように、バーコードタグ1102の撮影の後に患部を撮影し、撮影した画像の撮影順序を撮影日時等で管理することができる。このようにする場合、バーコードタグ1102の画像から次のバーコードタグ1102の画像の手前の画像までを、前者のバーコードタグ1102から認識される同一の被写体1100の画像とすることができる。CPU410は、当該画像に、当該被写体1100の名前と被写体IDとを関連付ける。
次に、S12207において、CPU410は、S5212で重畳処理が行われた画像1000を表示装置414に表示する。表示画面の遷移方法の一例については、S5119と同様である。
次に、第3の実施形態を説明する。本実施形態では、CPU410が抽出した複数の評価指標それぞれについての患部領域202に重複する領域が存在する場合であっても、それぞれの患部領域202を目視によりユーザが区別できるようにそれぞれの患部領域202を表示する。第1および第2の実施形態と同一の部分については、図1~図12に付した符号と同一の符号を付す等して詳細な説明を省略する。
本実施形態の画像処理装置120のワークフローでは、図5に示す第1の実施形態のS5212に代えてS13201が行われる。
画像1410は、強調表示される患部領域202の数またはそれ以上の数の画面に分割されている。図14に示す例では、画像1410は、強調表示される4つの患部領域202に対応して、4つの画面1411~1414に分割される。画面1411は、「壊死組織」の評価指標についての画面である。画面1412は、「深さ」の評価指標についての画面である。画面1413は、「肉芽組織」の評価指標についての画面である。画面1414は、「大きさ」の評価指標についての画面である。
図15に示す画像1500では、重複している各患部領域202に対して、等しい透過量をαブレンドする画像1501を生成することで、相互に重複している患部領域202をユーザが区別できるようにしている。尚、透過量は、各患部領域202で等しくなくてもよい。例えば、評価指標ごとに予め透過量を決めたり、評価値と基準値との差が小さい評価指標の透過量を小さくしたりする等の手法を採用することができる。
S5119の処理が始まると、まず、複数の評価指標についての患部領域202が重畳された画像1400が表示される。ユーザが、画像1400が表示されている画面において、矢印のアイコン1001をタップすると、画像1400の表示を終了する。
例えば、実施形態では、撮像装置110と画像処理装置120の2つの装置によって画像処理システム100を構成していたが、3以上の装置を通信可能に接続して、それぞれの処理を分担するようにしてもよい。あるいは、単体の撮像装置やタブレット端末において、前述した実施形態と同様の処理を全て行うようにしても構わない。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (16)
- 撮像手段により撮像された被写体の画像から、患部についての複数の評価指標それぞれについての患部領域を抽出する抽出手段と、
前記患部についての複数の評価指標それぞれについて基準値を可変に設定する設定手段と、
前記抽出手段によって抽出された前記複数の評価指標それぞれについての患部領域の評価値を算出する評価手段と、
前記評価手段による評価の結果に基づいて、前記複数の評価指標それぞれについての患部領域から、少なくとも1つの評価指標についての患部領域を選択する第1選択手段と、
前記評価手段による評価の結果に基づく、前記複数の評価指標それぞれについての患部領域に関する情報を表示装置に表示させる表示制御手段と、を有し、
前記第1選択手段により選択された少なくとも1つの評価指標についての患部領域に関する情報は、前記第1選択手段により選択されなかった評価指標についての患部領域に関する情報と区別される態様で表示され、
前記抽出手段は、前記患部についての複数の評価指標のそれぞれに係る評価値が、前記基準値を超えた領域を前記患部領域として抽出することを特徴とする処理システム。 - 前記第1選択手段により選択された少なくとも1つの評価指標についての患部領域に関する情報は、前記被写体の画像に重畳される情報であることを特徴とする請求項1に記載の処理システム。
- 前記表示制御手段は、前記第1選択手段により選択された少なくとも1つの評価指標についての患部領域が前記被写体の画像において強調して重畳される画像を前記表示装置に表示させることで、前記第1選択手段により選択された少なくとも1つの評価指標についての患部領域に関する情報を、前記第1選択手段により選択されなかった評価指標についての患部領域に関する情報と区別される態様で表示させることを特徴とする請求項1または2に記載の処理システム。
- 前記表示制御手段は、前記複数の評価指標それぞれについての患部領域の評価の結果に関する情報を前記表示装置に表示させ、
前記複数の評価指標についての患部領域の評価の結果に関する情報は、当該評価指標の識別情報と、当該評価指標に対する前記評価値および前記基準値の少なくとも何れかを示す情報とを含むことを特徴とする請求項1~3の何れか1項に記載の処理システム。 - 前記設定手段は、前記基準値をユーザの操作に基づいて設定することを特徴とする請求項1~4の何れか1項に記載の処理システム。
- 前記複数の評価指標それぞれについての患部領域の評価値を示す情報を記憶媒体に記憶させる記憶制御手段と、
前記複数の評価指標の少なくとも1つの評価指標についての患部領域の過去の評価値を示す情報に基づいて、当該少なくとも1つの評価指標に対する前記基準値を設定する設定手段と、を更に有することを特徴とする請求項1~5の何れか1項に記載の処理システム。 - 前記被写体の識別情報に基づいて、撮像手段により撮像された画像に含まれる被写体を認識する認識手段を更に有し、
前記記憶制御手段は、前記複数の評価指標それぞれについての患部領域の評価値を示す情報を、前記認識手段による認識の結果に基づいて、当該患部領域を有する被写体の情報と関連付けて記憶媒体に記憶させ、
前記設定手段は、評価対象の被写体の患部領域であって、前記複数の評価指標それぞれについての患部領域の評価値に対する前記基準値を、前記記憶媒体に記憶されている情報に基づいて設定することを特徴とする請求項6に記載の処理システム。 - 前記表示制御手段は更に、複数の前記評価指標についての患部領域の少なくとも一部が相互に重複する場合、当該重複する領域の境界のそれぞれが区別される画像を前記表示装置に表示させることと、複数の前記評価指標についての患部領域を示す情報が重畳された前記被写体の画像であって、順番に表示される画像を前記表示装置に表示させることと、複数の前記評価指標についての患部領域を示す情報が重畳された前記被写体の画像であって、当該画像が重複しないように1つの表示画面に表示される画像を前記表示装置に表示させることの少なくとも何れか1つを実行する特徴とする請求項1~7の何れか1項に記載の処理システム。
- 撮像装置と通信可能な処理装置であって、
前記撮像装置により撮像された被写体の画像から、患部についての複数の評価指標それぞれについての患部領域を抽出する抽出手段と、
前記撮像装置から受信した情報に基づき、前記患部についての複数の評価指標それぞれについて基準値を可変に設定する設定手段と、
前記抽出手段によって抽出された前記複数の評価指標それぞれについての患部領域の評価値を算出する評価手段と、
前記評価手段による評価の結果に基づいて、前記複数の評価指標それぞれについての患部領域から、少なくとも1つの評価指標についての患部領域を選択する選択手段と、
前記評価手段による評価の結果に基づいて、前記複数の評価指標それぞれについての患部領域に関する情報であって、当該評価指標についての患部領域に関する情報を外部装置に出力する出力手段と、を有し、
前記選択手段により選択された少なくとも1つの評価指標についての患部領域に関する情報は、前記選択手段により選択されなかった評価指標についての患部領域に関する情報と区別される態様で表示され、
前記抽出手段は、前記患部についての複数の評価指標のそれぞれに係る評価値が、前記基準値を超えた領域を前記患部領域として抽出することを特徴とする処理装置。 - 前記選択手段は、前記抽出手段によって抽出された前記複数の評価指標それぞれに係る評価値と、当該評価指標に対する基準値とを比較した結果に基づいて、前記複数の評価指標それぞれについての患部領域から、少なくとも1つの患部領域を選択することを特徴とする請求項9に記載の処理装置。
- 前記出力手段は、前記複数の評価指標それぞれについての患部領域の評価の結果に関する情報を前記外部装置に出力し、
前記複数の評価指標についての患部領域の評価の結果に関する情報は、当該評価指標の識別情報と、当該評価指標に対する前記評価値および前記基準値の少なくとも何れかを示す情報とを含むことを特徴とする請求項10に記載の処理装置。 - 前記複数の評価指標それぞれについての患部領域の評価値を示す情報を記憶媒体に記憶させる記憶制御手段を更に有し、
前記設定手段は、前記複数の評価指標の少なくとも1つの評価指標についての患部領域の過去の評価値を示す情報に基づいて、当該少なくとも1つの評価指標に対する前記基準値を設定することを特徴とする請求項10または11に記載の処理装置。 - 前記被写体の識別情報に基づいて、前記撮像装置により撮像された画像に含まれる被写体を認識する認識手段を更に有し、
前記記憶制御手段は、前記複数の評価指標それぞれについての患部領域の評価値を示す情報を、前記認識手段による認識の結果に基づいて、当該患部領域を有する被写体の情報と関連付けて記憶媒体に記憶させ、
前記設定手段は、評価対象の被写体の患部領域であって、前記複数の評価指標それぞれについての患部領域の評価値に対する前記基準値を、前記記憶媒体に記憶されている情報に基づいて設定することを特徴とする請求項12に記載の処理装置。 - 撮像装置と通信可能な処理装置の制御方法であって、
抽出手段が、前記撮像装置により撮像された被写体の画像から、患部についての複数の評価指標それぞれについての患部領域を抽出する抽出工程と、
設定手段が、前記患部についての複数の評価指標それぞれについて基準値を可変に設定する設定工程と、
評価手段が、前記抽出工程によって抽出された前記複数の評価指標それぞれについての患部領域の評価値を算出する評価工程と、
第1選択手段が、前記評価工程による評価の結果に基づいて、前記複数の評価指標それぞれについての患部領域から、少なくとも1つの評価指標についての患部領域を選択する第1選択工程と、
表示手段が、前記評価工程による評価の結果に基づく、前記複数の評価指標それぞれについての患部領域に関する情報を表示する表示工程と、を有し、
前記第1選択工程により選択された少なくとも1つの評価指標についての患部領域に関する情報は、前記第1選択工程により選択されなかった評価指標についての患部領域に関する情報と区別される態様で表示され、
前記抽出工程では、前記患部についての複数の評価指標のそれぞれに係る評価値が、前記基準値を超えた領域を前記患部領域として抽出することを特徴とする処理方法。 - 請求項1~8の何れか1項に記載の処理システムの各手段としてコンピュータを機能させるためのプログラム。
- 請求項9~13の何れか1項に記載の処理装置の各手段としてコンピュータを機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018234569A JP7317498B2 (ja) | 2018-12-14 | 2018-12-14 | 処理システム、処理装置、処理方法、およびプログラム |
US16/709,646 US11373312B2 (en) | 2018-12-14 | 2019-12-10 | Processing system, processing apparatus, terminal apparatus, processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018234569A JP7317498B2 (ja) | 2018-12-14 | 2018-12-14 | 処理システム、処理装置、処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020095600A JP2020095600A (ja) | 2020-06-18 |
JP7317498B2 true JP7317498B2 (ja) | 2023-07-31 |
Family
ID=71070956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018234569A Active JP7317498B2 (ja) | 2018-12-14 | 2018-12-14 | 処理システム、処理装置、処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11373312B2 (ja) |
JP (1) | JP7317498B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230046720A (ko) * | 2021-09-30 | 2023-04-06 | (주)피플앤드테크놀러지 | 욕창질환 포착과 단계결정을 위한 딥러닝 모델 시스템, 생성방법 및 이를 이용한 욕창진단 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016121518A1 (ja) | 2015-01-29 | 2016-08-04 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017213097A (ja) | 2016-05-30 | 2017-12-07 | オリンパス株式会社 | 画像処理装置、画像処理方法およびプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5927591B2 (ja) * | 2013-08-07 | 2016-06-01 | パナソニックIpマネジメント株式会社 | 症例表示装置、症例表示方法およびプログラム |
JP2017162056A (ja) | 2016-03-08 | 2017-09-14 | 株式会社Nttドコモ | 画像評価装置及び画像評価プログラム |
JP7205201B2 (ja) * | 2018-12-05 | 2023-01-17 | 富士通株式会社 | 表示方法、表示プログラムおよび情報処理装置 |
-
2018
- 2018-12-14 JP JP2018234569A patent/JP7317498B2/ja active Active
-
2019
- 2019-12-10 US US16/709,646 patent/US11373312B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016121518A1 (ja) | 2015-01-29 | 2016-08-04 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017213097A (ja) | 2016-05-30 | 2017-12-07 | オリンパス株式会社 | 画像処理装置、画像処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200193601A1 (en) | 2020-06-18 |
JP2020095600A (ja) | 2020-06-18 |
US11373312B2 (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11600003B2 (en) | Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value | |
KR101679290B1 (ko) | 영상 처리 방법 및 장치 | |
JP7322097B2 (ja) | 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体 | |
JP5822545B2 (ja) | 画像処理装置、画像処理装置の制御方法、およびプログラム | |
JP7113364B2 (ja) | 撮像装置 | |
WO2019230724A1 (ja) | 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、これらの制御方法を記憶した記憶媒体 | |
US11475571B2 (en) | Apparatus, image processing apparatus, and control method | |
JP7317498B2 (ja) | 処理システム、処理装置、処理方法、およびプログラム | |
US11599993B2 (en) | Image processing apparatus, method of processing image, and program | |
US20210401327A1 (en) | Imaging apparatus, information processing apparatus, image processing system, and control method | |
WO2022145294A1 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
CN115810039A (zh) | 可携式电子装置及伤口尺寸测量方法 | |
JP5995610B2 (ja) | 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム | |
JP7536463B2 (ja) | 撮像装置、その制御方法およびプログラム | |
JP7527803B2 (ja) | 撮像装置、情報処理装置および制御方法 | |
JP2021049248A (ja) | 画像処理システム及びその制御方法 | |
JP2021049262A (ja) | 画像処理システム及びその制御方法 | |
JP7170216B1 (ja) | 撮像装置 | |
US20230131704A1 (en) | Information processing apparatus, learning device, imaging apparatus, control method of information processing apparatus, and program | |
JP2010268054A (ja) | 画像処理装置、その制御方法及びプログラム | |
JP2022147595A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN116998160A (zh) | 摄像支援装置、摄像装置、摄像支援方法及程序 | |
JP2011238143A (ja) | 画像表示装置、画像表示方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230719 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7317498 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |