JP2020123304A - 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、プログラム - Google Patents

画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、プログラム Download PDF

Info

Publication number
JP2020123304A
JP2020123304A JP2019095938A JP2019095938A JP2020123304A JP 2020123304 A JP2020123304 A JP 2020123304A JP 2019095938 A JP2019095938 A JP 2019095938A JP 2019095938 A JP2019095938 A JP 2019095938A JP 2020123304 A JP2020123304 A JP 2020123304A
Authority
JP
Japan
Prior art keywords
image data
image
predetermined area
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019095938A
Other languages
English (en)
Inventor
敦司 後藤
Atsushi Goto
敦司 後藤
喬 杉本
Takashi Sugimoto
喬 杉本
友樹 黒田
Tomoki Kuroda
友樹 黒田
良和 川合
Yoshikazu Kawai
良和 川合
與佐人 日高
Yosato Hidaka
與佐人 日高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2019/021094 priority Critical patent/WO2019230724A1/ja
Priority to CN201980036683.7A priority patent/CN112638239A/zh
Priority to GB2017734.1A priority patent/GB2588306B/en
Priority to DE112019002743.3T priority patent/DE112019002743T5/de
Priority to GB2206461.2A priority patent/GB2606859B/en
Priority to KR1020207035540A priority patent/KR20210018283A/ko
Priority to GB2215730.9A priority patent/GB2609147B/en
Publication of JP2020123304A publication Critical patent/JP2020123304A/ja
Priority to US17/103,575 priority patent/US20210068742A1/en
Priority to JP2021098074A priority patent/JP7322097B2/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/447Skin evaluation, e.g. for skin disorder diagnosis specially adapted for aiding the prevention of ulcer or pressure sore development, i.e. before the ulcer or sore has developed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Abstract

【課題】 被写体の所定の領域を評価する際の利便性を向上させる画像処理システムを提供する。【解決手段】 被写体からの光を受光して画像データを生成し、生成した画像データを通信ネットワークに出力する撮像装置と、通信ネットワークを介して画像データを取得し、取得した画像データから被写体の所定の領域を抽出し、抽出した所定の領域の抽出結果を示す情報を通信ネットワークに出力する画像処理装置を有し、撮像装置の表示手段が、通信ネットワークを介して取得した所定の領域の抽出結果を示す情報に基づく表示を行う画像処理システムを提供する。【選択図】 図4

Description

本発明は、画像から被写体の所定の領域の評価を行う技術に関するものである。
人や動物が横になっている状態では、体重により、体の下にある床、マットレス、あるいは、敷布団と体の接触部位が圧迫される。
同じ姿勢が継続すると、床と体の接触部位が血行不全となり周辺組織が壊死を起こす。この組織が壊死した状態を、褥瘡または床ずれと呼んでいる。この褥瘡を発症した患者には、体圧分散ケアやスキンケアなどの褥瘡ケアを施し、定期的に褥瘡を評価および管理していく必要がある。
褥瘡を評価するための方法の1つとして、褥瘡の大きさを測定することが知られている。
例えば、褥瘡の大きさを評価として用いる例としては、非特許文献1に記載があるように、日本褥瘡学会学術教育委員会が開発した褥瘡の評価指標である、DESIGN−R(登録商標)が知られている。
このDESIGN−R(登録商標)は、褥瘡をはじめとする傷の治癒過程を評価するためのツールである。このツールの命名は、深さ(Depth)、滲出液(Exudate)、大きさ(Size)、炎症・感染(Inflammation/Infection)、肉芽組織(Granulation)、壊死組織(Necrotic tissue)の各評価項目の頭文字をとっている。また、頭文字の対象とはなっていないが、評価項目には、上記以外にポケット(Pocket)が含まれている。
DESIGN−R(登録商標)は、日常の簡便な評価のための重症度分類用、および詳細に治癒過程の流れが示される経過評価用の2つがある。重症度分類用のDESIGN−R(登録商標)は、6つの評価項目を軽度と重度の2つに区分して、軽度はアルファベットの小文字を用いて表し、重度は大文字を用いて表す。
初療時に重症度分類用を用いて評価することで、褥瘡の大まかな状態を把握することができる。どの項目が問題であるかがわかるため、治療方針を容易に決定できる。
一方、経過評価用として、経過評価に加え患者間の重症度比較もできるDESIGN−R(登録商標)も定められている。Rはrating(評価・評点)を表す。各項目に異なる重み付けをしており、深さ以外の6項目の合計点(0〜66点)がその褥瘡の重症度を表す。治療開始後に治療経過を詳細かつ客観的に評価でき、個人の経過評価だけでなく、患者間の重症度比較もできる。
ここで、DESIGN−R(登録商標)の大きさの評価は、皮膚損傷範囲の長径と短径(長径と直交する最大径)を測定し(cm)、各々を掛け合わせた数値である大きさを7段階に分類するものである。この7段階とは、s0:皮膚損傷なし、s3:4未満、s6:4以上16未満、s8:16以上36未満、s9:36以上64未満、s12:64以上100未満、S15:100以上、である。
現状では、褥瘡の大きさの評価は、患部にメジャーをあてて手作業で計測された値に基づいて決定されることが多い。具体的にはまず、皮膚の損傷範囲のうち一番長い直線距離の2点を測定し、それを長径とする。さらに長径と直行する長さを短径とし、長径と短径を掛けた値を褥瘡の大きさとしている。
照林社 褥瘡ガイドブック 第2版 褥瘡予防・管理ガイドライン(第4版)準拠 編集 日本褥瘡学会 ISBN13 978−4796523608 23ページ
しかしながら、手作業による褥瘡の大きさの評価は、褥瘡の形が複雑である場合が多く、メジャーをどのように当てるかを調整する必要がある。この作業を長径と短径を測定するために最低2回行う必要があり、時間が掛かってしまうため、作業負荷が大きい。さらに褥瘡を評価される患者にとっても、作業中は同じ姿勢を保持しなければならないため、負担が大きいと考えられる。
DESIGN−R(登録商標)は、1週間から2週間に1回採点することが推奨されており、繰り返し計測する必要がある。加えて、手作業による計測では、個人によって褥瘡の長径と判断する位置が異なる可能性が高く、測定の精度を担保することが難しい。
なお、ここではDESIGN−R(登録商標)に基づいて褥瘡の評価を行うことを例にあげて説明を行ったが、DESIGN−R(登録商標)のケースに限られるものではなく、褥瘡の大きさを測定しようとすれば、同様の課題は生じる。褥瘡の面積を求めようとするのであれば、複数の箇所について手作業による測定が必要となり、作業負荷が生じることになる。
また、別の課題として、褥瘡の評価項目としては、大きさのように測定するもの以外にも、目視によって判断したほうが望ましいものもある。目視によって判断すべき評価項目については、評価者が、撮影された画像データを見ながら、電子カルテや紙媒体に後ほど入力することになる。この場合、大きさを示す情報とそのほかの情報とで入力デバイスが異なるため、入力作業が煩雑になり、記入漏れも生じやすくなってしまう。
そして、これらの課題は褥瘡に限った話ではなく、火傷や裂傷などの体表における患部領域においても、同様の課題が生じる。
本発明は、これらの課題を解決するもので、被写体の所定の領域を評価する際の利便性を向上させる装置を提供することを目的とするものである。
上記課題を解決するため、本願請求項1に記載の画像処理システムは、撮像装置と画像処理装置を有し、前記撮像装置は、被写体からの光を受光して画像データを生成する撮像手段と、前記画像データを通信ネットワークに出力する第1の通信手段と、前記撮像手段で生成された画像データに基づく画像を表示する表示手段を有し、前記画像処理装置は、前記通信ネットワークを介して、前記画像データを取得する第2の通信手段と、前記画像データから前記被写体の所定の領域を抽出する演算手段を有し、前記第2の通信手段は、前記演算手段で抽出した前記所定の領域の抽出結果を示す情報を、前記通信ネットワークに出力し、前記第1の通信手段は、前記通信ネットワークを介して、前記所定の領域の抽出結果を示す情報を取得し、前記表示手段は、前記所定の領域の抽出結果を示す情報に基づく表示を行うことを特徴とするものである。
同様に、上記課題を解決するため、本願請求項18に記載の撮像装置は、被写体からの光を受光して画像データを生成する撮像手段と、前記画像データを、通信ネットワークを介して、外部装置に出力する通信手段と、前記撮像手段で生成された画像データに基づく画像を表示する表示手段を有し、前記通信手段は、前記外部装置から、前記通信ネットワークを介して、前記画像データにおける前記被写体の所定の領域の抽出結果を示す情報を取得し、前記表示手段は、前記所定の領域の抽出結果を示す情報に基づく表示を行うことを特徴とするものである。
同様に、上記課題を解決するため、本願請求項28に記載の画像処理装置は、撮像装置から、通信ネットワークを介して、画像データと、前記画像データに含まれる被写体に対応する距離情報を取得する通信手段と、前記画像データから前記被写体の所定の領域を抽出し、前記距離情報に基づいて、前記所定の領域の大きさを求める演算手段を有し、前記通信手段は、前記演算手段で抽出した前記所定の領域の抽出結果を示す情報と、前記大きさを示す情報を、前記通信ネットワークを介して、前記撮像装置に出力することを特徴とするものである。
同様に、上記課題を解決するため、本願請求項42に記載の撮像装置は、撮像装置被写体からの光を受光して画像データを生成する撮像手段と、前記画像データにおける、前記被写体の所定の領域の抽出結果を取得する制御手段と、前記被写体の所定の領域における、予め定められた複数の評価項目の評価値を、ユーザに入力させるインターフェース手段と、を有し、前記制御手段は、前記入力された複数の評価項目の評価値と、前記画像データを関連付けることを特徴とするものである。
同様に、上記課題を解決するため、本願請求項57に記載の電子機器は、通信ネットワークを介して、撮像装置にて生成された画像データ、および、前記撮像装置において、ユーザによって入力された、前記画像データにおける被写体の患部領域に対する複数の評価項目の評価値を示す情報を取得する通信手段と、表示手段に、前記画像データに基づく画像と前記複数の評価項目の評価値を表示させる制御手段と、を有することを特徴とする。
本発明によれば、被写体の所定の領域を評価する際の利便性を向上させる装置またはシステムを提供することができる。
第1の実施形態に係る画像処理システムの概要を示す図である。 画像処理システムに含まれる撮像装置のハードウェア構成の一例を示す図である。 画像処理システムに含まれる画像処理装置のハードウェア構成の一例を示す図である。 第1実施形態に係る画像処理システムの動作を示すワークフロー図である。 領域の面積の計算方法を説明するための図である。 患部領域の抽出結果を示す情報、および、患部領域の大きさを示す情報を画像データに重畳する方法を説明するための図である。 患部領域の抽出結果を示す情報、および、患部領域の長径と短径を含む患部領域の大きさを示す情報を画像データに重畳する方法を説明するための図である。 患部領域情報をユーザに入力させる方法を説明するための図である。 第2の実施形態に係る画像処理システムの動作を示すワークフロー図である。 第3の実施形態に係る画像処理システムの概要を示す図である。 第3の実施形態に係る画像処理システムの動作を示すワークフロー図である。 過去に取得した患部領域情報を表示する方法を説明するための図である。 端末装置のブラウザに表示されるデータ選択画面の一例を説明するための図である。 端末装置のブラウザに表示されるデータ一覧画面の一例を説明するための図である。 第3の実施形態に係る画像処理システムの動作の変形例を示すワークフロー図である。
以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。
(第1の実施形態)
以下、図1乃至図3を参照して、本発明の実施形態に係る画像処理システムについて説明する。図1は、第1の実施形態に係る画像処理システム1の概要を示す図である。撮像システム1は、手持ち可能なポータブルデバイスの撮像装置200と、画像処理装置300から構成される。本実施形態では、被写体101の患部領域102の病態の一例を、臀部に生じた褥瘡として説明している。
本発明の実施形態に係る画像処理システム1では、撮像装置200が被写体101の患部領域102を撮影するとともに、被写体距離を取得し、それらのデータを画像処理装置300に送信する。画像処理装置300は、受信した画像データから患部領域を抽出し、被写体距離などの情報に基づいて画像データの1ピクセルあたりの面積を計測し、患部領域102の抽出結果と1ピクセルあたりの面積から、患部領域102の面積を計測する。なお、本実施形態では、患部領域102が褥瘡である場合を例に挙げて説明を行うが、これに限定されるものではなく、患部領域102は火傷や裂傷であってもよい。
図2は、画像処理システム1に含まれる撮像装置200のハードウェア構成の一例を示す図である。撮像装置200は、一般的な一眼カメラ、コンパクトデジタルカメラ、あるいは、オートフォーカス機能付きのカメラを備えたスマートフォンやタブレット端末などを利用することも可能である。
撮像ユニット211は、レンズ群212、シャッタ213、イメージセンサ214を有する。レンズ群212に含まれる複数のレンズの位置を変更することで、フォーカス位置とズーム倍率を変更することができる。レンズ群212は、露出量を調節するための絞りも備える。
イメージセンサ214は、光学像を画像データに変換するCCDやCMOSセンサ等の電荷蓄積型の固体イメージセンサで構成される。レンズ群212およびシャッタ213を通過した被写体からの反射光はイメージセンサ214に結像され、イメージセンサ214は被写体像に応じた電気信号を生成し、この電気信号に基づく画像データを出力する。
シャッタ213は、シャッタ羽根部材の開閉動作を行うことによって、イメージセンサ214への露出や遮光を行い、イメージセンサ214の露光時間を制御する。なお、シャッタ213の代わりに、イメージセンサ214の駆動によって露光時間を制御する電子シャッタを用いてもよい。CMOSセンサで電子シャッタを行う場合には、画素ごと、或いは、複数画素からなる領域ごと(例えばラインごと)に、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、リセット走査を行った画素あるいは領域ごとに、それぞれ所定の時間を経過してから電荷の蓄積量に応じた信号を読み出す走査を行う。
ズーム制御回路215は、レンズ群212に含まれるズームレンズを駆動するための不図示のモータを制御し、レンズ群212の光学倍率を制御する。なお、レンズ群212はズーム機能のない単焦点のレンズ群であってもよく、その場合は、ズーム制御回路215は不要である。
測距システム216は、被写体までの距離情報を算出する。測距システム216として、一眼レフカメラに搭載された一般的な位相差方式の測距センサを用いても良いし、TOF(Time Of Flight)センサを用いたシステムを用いてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体で反射された波である反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。さらに、測距システムには受光素子にPSD(Position Sensitive Device)を用いたPSD方式などを用いてもよい。
あるいは、イメージセンサ214を、画素ごとに複数の光電変換領域を有し、共通の画素内に含まれる複数の光電変換領域に対応する瞳位置を異ならせる構成とする。このような構成とすることで、測距システム216は、イメージセンサ214から出力された、それぞれの瞳領域に対応する光電変換領域から得られた画像間の位相差から、画素あるいは領域の位置ごとに距離情報を求めることができる。
測距システム216は、画像内の予め定められた所定の1つ、あるいは、複数の測距エリアにおける距離情報を求める構成としてもよいし、画像内の多数の画素あるいは領域の距離情報の分布を示す距離マップを求める構成としてもよい。
あるいは、測距システム216は、画像データの高周波成分を抽出して積分し、積分値が最大となるフォーカスレンズの位置を決定するTV−AFまたはコントラストAFを行い、このフォーカスレンズの位置から距離情報を得るようにしてもよい。
画像処理回路217は、イメージセンサ214から出力された画像データに対して、所定の画像処理を施す。画像処理回路217は、撮像ユニット211から出力された画像データ、あるいは内部メモリ221に記録されている画像データに対して、ホワイトバランス調整、ガンマ補正、色補間またはデモザイキング、フィルタリング、など、様々な画像処理を行う。また、画像処理を行った画像データに対して、JPEGなどの規格で、圧縮処理を行う。
AF制御回路218は、測距システム216で得られた距離情報に基づいて、レンズ群202に含まれるフォーカスレンズの位置を決定し、フォーカスレンズを駆動するモータを制御する。
通信装置219は、撮像装置200が無線の通信ネットワーク(不図示)を介して、画像処理装置300などの外部機器と通信を行うための無線通信モジュールである。ネットワークの具体的な一例としては、Wi−Fi規格に基づくネットワークが挙げられる。なお、Wi−Fiを用いた通信はルーターを介して実現されてもよい。また、通信装置219はUSBやLANなど有線の通信インターフェースにより実現されてもよい。
システム制御回路220は、CPU(Central Processing Unit)を有し、内部メモリ221に記憶されたプログラムに従って、撮像装置200の各部を制御することにより全体制御を行う。また、システム制御回路220は、撮像ユニット211、ズーム制御回路215、測距システム216、画像処理回路217、および、AF制御回路218などの全体の制御を行う。なお、システム制御回路220は、CPUの代わりに、FPGA(field−programmable gate array)やASIC(application specific integrated circuit)などを用いてもよい。
なお、内部メモリ221は、フラッシュメモリやSDRAM等の書き換え可能なメモリで構成される。内部メモリ221は、撮像装置200の動作に必要な撮像時のピント位置の情報やズーム倍率などの各種の設定情報や、撮像ユニット211が撮像した画像データや画像処理回路217による画像処理が行われた画像データを一時的に記憶する。また、通信装置219が画像処理装置300と通信して受信した、画像データや被写体の大きさを示す情報などの解析データなどを一時的に記録してもよい。
外部メモリI/F(Interface)222は、撮像装置200に装填可能なSDカードやCFカード等の不揮発性の記憶媒体とのインターフェースである。外部メモリI/F222は、画像処理回路217で処理された画像データや、通信装置219が画像処理装置300と通信して受信した画像データや解析データなどを装填可能な記憶媒体に記録する。また、外部メモリI/F222は、再生時には、装填可能な記憶媒体に記録された画像データを読み出し、撮像装置の外部に出力することも可能である。
表示装置223は、TFT(Thin Film Transistor)液晶や有機ELディスプレイや、EVF(電子ビューファインダ)などで構成されたディスプレイ装置である。表示装置223は、内部メモリ221に一時的に保存されている画像データに基づく画像、装填可能な記憶媒体に保存されている画像データに基づく画像、および、撮像装置10の設定画面などを表示する。
操作部材224は、たとえば、撮像装置200に設けられたボタン、スイッチ、キー、モードダイアル、あるいは、表示装置223と兼用されるタッチパネルなどで構成されている。ユーザによるモード設定や撮影指示などの指令は、操作部材224を経由して、システム制御回路220に到達する。
共通バス225は、撮像ユニット211、ズーム制御回路215、測距システム216、画像処理回路217、AF制御回路218、通信装置219、システム制御回路220、内部メモリ221、外部メモリI/F222、表示装置223、および、操作部材224が接続されている。共通バス225は、各ブロック間で信号の送受信を行うための信号線である。
図3は、画像処理システム1に含まれる画像処理装置300のハードウェア構成の一例を示す図である。画像処理装置300は、CPUで構成された演算装置311、記憶装置312、通信装置313、出力装置314、および、補助演算装置317を備える。記憶装置312は主記憶装置315(ROMやRAM等)と補助記憶装置316(磁気ディスク装置やSSD(Solid State Drive)等)から構成される。
通信装置313は、通信ネットワークを介して外部機器と通信を行うための無線通信モジュールとして構成される。出力装置314は、画像処理装置300に接続されたディスプレイ、プリンタ、あるいは外部ネットワークに、演算装置311にて加工されたデータや、記憶装置312に記憶されたデータを出力する。
補助演算装置317は演算装置311の制御の下で用いられる補助演算用ICであり、補助演算装置の一例としてGPU(Graphic Processing Unit)を用いることができる。GPUは、元々は画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとしても用いられることが多い。そして、深層学習を行う処理においても、GPUが用いられることが一般的である。例えば、補助演算装置317として、NVIDIA社のJetson TX2 moduleを用いることができる。なお、補助演算装置317として、FPGAやASICなどを用いてもよい。補助演算装置317は、画像データから被写体101の患部領域102の抽出処理を行う。
演算装置311は、記憶装置312に記憶されたプログラムを実行することで、補助演算装置317によって抽出された患部領域102の大きさや長さを求めるための演算処理を含む、各種機能を実現することができる。さらに、演算装置311は各機能を実行する順番を制御する。
なお、画像処理装置300が備える演算装置311および記憶装置312は1つであっても複数であってもよい。すなわち、少なくとも1以上の処理装置(CPU)と少なくとも1つの記憶装置とが接続されており、少なくとも1以上の処理装置が少なくとも1以上の記憶装置に記憶されたプログラムを実行した場合に、画像処理装置300は後述する各機能を実行する。なお、演算装置311はCPUの代わりに、FPGAやASICなどを用いてもよい。
図4は、第1実施形態に係る画像処理システム1の動作を示すワークフロー図である。図4において、ステップをSと示す。すなわち、ステップ401をS401と示す。後述する図9、図11および図15も同様である。
図4において、ステップ401乃至ステップ420が撮像装置200による処理であり、ステップ431、ステップ441乃至ステップ445、およびステップ451乃至ステップ456が画像処理装置300による処理である。
初めに、撮像装置200と画像処理装置300が、無線LAN規格であるWi−Fi規格のネットワーク(不図示)にそれぞれ接続する。画像処理装置300は、ステップ431において、接続する撮像装置200の探索処理を行い、撮像装置200は、ステップ401において、これに対する応答処理を行う。ネットワークを介して機器を探索する技術としては、例えば、UPnP(Universal Plug and Play)が用いられる。ここでUPnPにおいて個々の装置の識別はUUID(Universally Unique IDentifier)によって行われる。
撮像装置200は、画像処理装置300との接続がなされると、ステップ402においてライブビュー処理を開始する。撮像ユニット211が画像データを生成し、この画像データに画像処理回路217がライブビュー表示用の画像データを生成するために必要な現像処理を適用する。これらの処理を繰り返し行うことで、所定のフレームレートのライブビュー映像が表示装置223に表示される。
ステップ403において、測距システム216が上述したいずれかの方法によって被写体の距離情報を求め、AF制御回路218が被写体にピントが合うようにレンズ群212の駆動制御を行うAF処理を開始する。TV−AFまたはコントラストAFでピント位置の調整を行った場合には、ピントを合わせた状態のフォーカスレンズの位置から、ピントを合わせた対象の被写体101までの距離情報を求める。ピントを合わせる位置は、画像データの中央に位置する被写体でもよいし、撮像装置200に対して最も至近側の位置に存在する被写体でもよい。被写体の距離マップが得られている場合には、距離マップから注目すべき領域を推定し、その位置に対してピントを合わせるようにしてもよい。あるいは、すでに画像処理装置300によってライブビュー画像における褥瘡102の位置が特定されているならば、その位置に対してピントを合わせるようにしてもよい。撮像装置200は、後述するステップ410でレリーズボタンが押されたことを検知するまで、ライブビュー映像の表示とともにAF処理を繰り返し行う。
ステップ404において、画像処理回路217は、ライブビューのために撮像された画像データのいずれかの画像データに対して、画像データの現像および圧縮処理を行い、例えばJPEG規格の画像データを生成する。そして、圧縮処理された画像データに対してリサイズ処理を行い、画像データのサイズを小さくする。
ステップ405において、通信装置219が、ステップ404で生成されたリサイズ処理がなされた画像データと、ステップ403で求めた距離情報を取得する。さらに、ズーム倍率の情報と、リサイズ処理された画像データのサイズ(ピクセル数)の情報も取得する。撮像ユニット211が単焦点でズーム機能が無いのであれば、ズーム倍率の情報は不要である。
ステップ406において、通信装置219がステップ405で取得した画像データと、距離情報を含む1以上の情報を、無線通信により画像処理装置300に送信する。
ここで、送信する画像データのサイズが大きいほど無線通信に時間がかかるため、ステップ405におけるリサイズ後の画像データのサイズは、許容される通信時間を考慮して決定される。ただし、画像データを小さくし過ぎると、画像処理装置300が後述するステップ433において行う患部領域の抽出処理の精度に影響が出るため、通信時間に加えて、患部領域の抽出処理の精度も考慮する必要がある。
なお、ステップ404乃至ステップ406の処理は、フレームごとに行ってもよいし、数フレームに1回の割合で行うようにしてもよい。
ここで、画像処理装置300による処理の説明に移る。
ステップ441において、画像処理装置300の通信装置313が、撮像装置200の通信装置219から出力された画像データ、および、距離情報を含む1以上の情報を受信する。
ステップ442において、画像処理装置300の演算装置311および補助演算装置317が、ステップ441で受信した画像データから被写体101の患部領域102を抽出する。患部領域102を抽出する手法として、深層学習による意味的領域分割を行う。すなわち、あらかじめ不図示の学習用の高性能コンピュータに、複数の実際の褥瘡の画像を教師データとして用いてニューラルネットワークのモデルを学習させて、学習済モデルを生成する。補助演算装置317は、高性能コンピュータから生成された学習済モデルを受け取り、この学習済モデルに基づいて画像データから、患部領域102である褥瘡のエリアを推定する。ニューラルネットワークのモデルの一例として、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク(FCN(Fully Convolutional Network))を適用した。ここで、深層学習の推論は積和演算の並列実行を得意とする補助演算装置317により処理される。なお、推論処理はFPGAやASICなどにより実行されてもよい。なお、他の深層学習のモデルを用いて領域分割を実現してもよい。また、セグメンテーション手法は深層学習に限らず、例えば、グラフカットや領域成長、エッジ検出、統治分割法等を用いてもよい。さらに、補助演算装置317の内部で、褥瘡の画像を教師データとしたニューラルネットワークのモデルの学習を行ってもよい。
ステップ443において、演算装置311が、補助演算装置317によって抽出された患部領域102の大きさを示す情報として、患部領域102の面積を計算する。
図5は、患部領域102の面積の計算方法を説明するための図である。一般的なカメラである撮像装置200は、図5のようなピンホールモデルとして扱うことができる。入射光501はレンズ212aの主点を通り、イメージセンサ214の撮像面で受光する。ここで、レンズ群212を厚みのない単一のレンズ212aに近似して考えた場合には、前側主点と後側主点の2つの主点は一致するとみなせる。イメージセンサ214の平面に像が結像するようにレンズ212のピント位置を調整することで、撮像装置は被写体504に焦点を合わせることができる。撮像面からレンズ主点までの距離である焦点距離502を変更することで、画角θ503が変更され、ズーム倍率が変わる。このとき、撮像装置の画角θ503と被写体距離505の関係から、幾何学的に合焦面における被写体の幅506が決定される。この被写体の幅506は、三角関数を用いて計算される。すなわち、被写体の幅506は、焦点距離502に応じて変化する画角θ503と、被写体距離505との関係によって決定する。そして、被写体の幅506の値を画像データのライン上のピクセル数で除算することにより、画像データ上の1ピクセルに対応する合焦面上の長さが得られる。
よって、演算装置311は、ステップ442の患部領域の抽出結果から得られる抽出領域のピクセル数と、画像上の1ピクセルに対応する合焦面上の長さから得られる1ピクセルの面積の積として、患部領域102の面積を計算する。なお、焦点距離502と被写体距離505の組合せに応じた画像上の1ピクセルに対応する合焦面上の長さを予め求めておいて、テーブルデータとして予め用意しておいてもよい。画像処理装置300が、撮像装置200に応じたテーブルデータを予め記憶しておくことも可能である。
なお、上記の方法で正しく患部領域102の面積を求めるためには、被写体504が平面であり、かつ、この平面が光軸に対して垂直であることが前提となる。ステップ441で取得した距離情報が、画像データ内の複数の位置における距離情報や、距離マップであれば、被写体の奥行き方向の傾きや変化を検出し、検出した傾きや変化に基づいて面積を算出するようにしてもよい。
ステップ444において、演算装置311が、患部領域102の抽出に用いた画像データに対して、患部領域102の抽出結果を示す情報と、患部領域102の大きさを示す情報を重畳した画像データを生成する。
図6は、患部領域102の抽出結果を示す情報、および、患部領域102の大きさを示す情報を画像データに重畳する方法を説明するための図である。図6(a)の画像601は、重畳処理前の画像データを用いて表示された画像であって、被写体101及び患部領域102を含む。図6(b)の重畳画像602は、重畳処理後の画像データに基づく画像である。図6は、患部領域102が臀部の近傍にあることを示す。
演算装置311は、重畳画像602の左上隅に、患部領域102の大きさを示す情報として、黒地の背景に白色の文字で、患部領域102の面積値を表す文字列612を表示したラベル611を重畳する。
なお、ラベル611の背景色と文字列の色は見やすいものであれば黒、白に限らなくてもよい。また、透過量を設定してαブレンドすることで、ラベルが重なった部分の画像が確認できるようにしてもよい。
さらに、重畳画像602には、ステップ442において抽出された、患部領域102の推定エリアを示す指標613が重畳表示されている。推定エリアが存在する位置において、推定エリアを示す指標613と、画像601の元となる画像データをαブレンドして重畳表示することで、患部領域の面積の元となる推定エリアが妥当かどうかをユーザが確認することができる。推定エリアを示す指標613の色は、被写体の色と重ならないようにすることが望ましい。αブレンドの透過率は推定エリアが認識できて、元の患部領域102も確認できる範囲がよい。なお、患部領域102の推定エリアを示す指標613が重畳表示されていれば、ラベル611の表示はなくとも、ユーザは推定エリアが妥当かどうかを確認することはできるため、ステップ443は省略しても構わない。
ステップ445において、画像処理装置300の通信装置313が、抽出した患部領域102の抽出結果を示す情報と、患部領域102の大きさを示す情報を撮像装置200に送信する。本実施形態では、通信装置313は、ステップステップ444で生成した、患部領域102の大きさを示す情報を含む画像データを、撮像装置200に無線通信により送信する。
ここで、撮像装置200による処理の説明に戻る。
ステップ407で、撮像装置200の通信装置219は、画像処理装置300にて患部領域102の大きさを示す情報を含む画像データが新たに生成されていれば、これを受信する。
ステップ408で、システム制御回路220は、ステップ407で患部領域102の大きさを示す情報を含む画像データを受信できていればステップ409に進み、受信できていなければステップ410に進む。
ステップ409において、表示装置223がステップ407で受信した患部領域102の大きさを示す情報を含む画像データを所定時間表示する。ここでは、表示装置223は図6に示す重畳画像602を表示する。このように、ライブビュー画像に対して、患部領域102の抽出結果を示す情報を重畳表示することで、ユーザは患部領域の面積および推定エリアが妥当であるかを確認したうえで、本撮影に臨むことができる。なお、本実施形態では、患部領域102の推定エリアを示す指標613と、患部領域102の大きさの情報の両方を表示する例をあげて説明を行ったが、いずれか一方だけでもよい。
ステップ410において、システム制御回路220は操作部材224に含まれるレリーズボタンが押されたかどうかを検知する。レリーズボタンが押されていなければ、撮像装置200はステップ404の処理に戻り、レリーズボタンが押されていれば、撮像装置はステップ411の処理に進む。
ステップ411において、ステップ403と同様の方法によって、測距システム216が被写体の距離情報を求め、AF制御回路218が被写体にピントが合うようにレンズ群212の駆動制御を行うAF処理を行う。ライブビュー画像から患部領域102を抽出することができているならば、患部領域102が存在する位置における被写体の距離情報を求めればよい。
ステップ412において、撮像装置200は静止画の撮影を行う。
ステップ413において、画像処理回路217がステップ412で生成された画像データに対して現像および圧縮処理を行い、例えばJPEG規格の画像データを生成する。そして、圧縮処理された画像データに対してリサイズ処理を行い、画像データのサイズを小さくする。ステップ413にてリサイズ処理が行われた画像データのサイズは、ステップ404にてリサイズ処理が行われた画像データと同じ大きさか、あるいは、それよりも大きい。これは、患部領域102を計測する際の精度を優先するためである。ここでは、1440ピクセル×1080ピクセルで4ビットRGBカラーとして、画像データのサイズがおよそ4.45メガバイトとなるようにリサイズした。なお、リサイズの大きさはこれに限られるものではない。あるいは、リサイズ処理をせずに、生成したJPEG規格の画像データを用いて次のステップに進んでもよい。
ステップ414において、通信装置219が、ステップ413で生成されたリサイズ処理がなされた(あるいは、リサイズ処理がなされていない)画像データと、ステップ411で求めた距離情報を取得する。さらに、ズーム倍率の情報や、リサイズ処理された画像データのサイズ(ピクセル数)の情報も取得する。なお、撮像ユニット211が単焦点でズーム機能が無いのであれば、ズーム倍率の情報は不要であり、画像処理装置300が予め画像データのサイズの情報を有しているのであれば、画像データの情報は不要である。
ステップ415では、通信装置219がステップ414で取得した画像データと、距離情報を含む1以上の情報を、無線通信により画像処理装置300に送信する。
ここで、再び画像処理装置300による処理の説明に移る。
ステップ451において、画像処理装置300の通信装置313が、撮像装置200の通信装置219から出力された画像データと、距離情報を含む1以上の情報を受信する。
ステップ452において、画像処理装置300の演算装置311および補助演算装置317が、ステップステップ441で受信した画像データから被写体101の患部領域102を抽出する。処理の詳細はステップ442と同じであるため、説明を省略する。
ステップ453において、演算装置311が、補助演算装置317によって抽出された患部領域102の大きさを示す情報の一例として、患部領域102の面積を計算する。処理の詳細はステップ443と同じであるため、説明を省略する。
ステップ454において、演算装置311は、ステップ453で求めた画像上の1ピクセルに対応する合焦面上の長さに基づいて、抽出した患部領域の長径と短径の長さ、および患部領域に外接する矩形の面積を算出する画像解析を行う。褥瘡の評価指標のDESIGN−R(登録商標)の中で、褥瘡の大きさは長径と短径の積の値を計測することが定められている。本発明の画像処理システムでは長径と短径の解析を行うことで、今までDESIGN−R(登録商標)で計測されたデータとの互換性を確保することができる。DESIGN−R(登録商標)は厳密な定義がないため、数学的には複数の長径、短径の算出方法が考えられる。
長径、短径の算出方法の1例としては、まず、演算装置311が、患部領域102に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出する。そして、この矩形の長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出する。そして、ステップ453で求めた画像上の1ピクセルに対応する合焦面上の長さに基づいて、この矩形の面積を算出する。
また、長径と短径の算出方法の別の1例としては、長径として最大のキャリパー長である最大フェレ径を、短径として最小フェレ径を選択してもよい。あるいは、長径として最大のキャリパー長である最大フェレ径を、短径として、最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。長径と短径の計算方法は、従来の計測結果との互換性に基づいて任意の方法を選択することができる。
なお、この患部領域102の長径および短径の長さと矩形面積の算出は、ステップ441で受け取った画像データに対しては実行しない処理である。ライブビュー中は、患部領域102の抽出結果をユーザが確認できるようにすることを目的としているため、ステップ454の画像解析のステップを省くことで、処理時間を削減している。
また、DESIGN−R(登録商標)に基づく大きさの評価を行わずに、褥瘡の実際の面積の情報を得ることが目的である場合には、ステップ454の処理を省略することができる。その場合、以降の処理において、DESIGN−R(登録商標)における評価項目としての大きさの情報が無いものと処理することになる。
ステップ455において、演算装置311が、患部領域102の抽出の対象とした画像データに対して、患部領域102の抽出結果を示す情報と、患部領域102の大きさを示す情報を重畳した画像データを生成する。
図7は、患部領域102の抽出結果を示す情報、および、患部領域102の長径と短径を含む患部領域の大きさを示す情報を画像データに重畳する方法を説明するための図である。患部領域102の大きさを示す情報が複数考えられるため、図7(a)の重畳画像701、図7(b)の重畳画像702、および、図7(c)の重畳画像703に分けて説明する。
図7(a)の重畳画像701は、長径、短径の算出方法としてMinimum bounding rectangleを用いたものである。重畳画像701の左上隅に、患部領域102の大きさを示す情報として、図6と同様に、黒地の背景に白色の文字で患部領域102の面積値の文字列612を表示したラベル611を重畳する。さらに、重畳画像701の右上隅に、患部領域102の大きさを示す情報として、Minimum bounding rectangleに基づいて算出した長径および短径を表示したラベル712を重畳する。文字列713は長径の長さ(単位はcm)を表し、文字列714は短径の長さ(単位はcm)を表す。それから、重畳画像701には、患部領域102に、Minimum bounding rectangleを表す矩形の枠715を表示する。矩形の枠715を長径および短径の長さと一緒に重畳することで、ユーザは画像中のどの箇所の長さが計測されているのかを確認することができる。
また、重畳画像701の右下隅にはスケールバー716が重畳されている。スケールバー716は患部領域102の大きさを測定するためのものであり、距離情報に応じて、画像データに対する前記スケールバーのサイズが変更される。具体的には、スケールバー716は、ステップステップ453で得られた画像上の1ピクセルに対応する合焦面上の長さに基づいて、1cm単位で5cmまでの目盛りを刻んだバーであり、撮像装置の合焦面上すなわち被写体上のサイズに対応したものである。ユーザはスケールバーを参照することにより、被写体もしくは患部領域の大きさをおよそ把握することができる。
さらに、前述したDESIGN−R(登録商標)のSizeの評価値を重畳画像701の左下隅に重畳する。DESIGN−R(登録商標)のSizeの評価値では、皮膚損傷範囲の、長径と短径(長径と直交する最大径)を測定し(単位はcm)、各々を掛け合わせた数値から上述した7段階に分類されている。本実施形態では長径と短径をそれぞれの算出方法によって出力された値に置き換えて得られる評価値を重畳する。
図7(b)の重畳画像702は、長径として最大フェレ径521を、短径として最小フェレ径522を用いたものである。重畳画像702の右上隅に長径の文字列723および短径の文字列724を表示したラベル722を重畳する。さらに、重畳画像702には、患部領域102に、最大フェレ径521の計測位置に相当する補助線725と、最小フェレ径522に相当する補助線726を表示する。補助線を長径および短径の長さと一緒に重畳することで、ユーザは画像中のどの箇所の長さが計測されているのかを確認することができる。
図7(c)の重畳画像703は、長径は重畳画像702と同じであるが、短径を最小フェレ径ではなく最大フェレ径の軸に直交する方向で計測した長さとして計測したものである。重畳画像702の右上隅に長径の文字列723および短径の文字列734を表示したラベル732を重畳する。さらに、重畳画像702には、患部領域102に、最大フェレ径521の計測位置に相当する補助線725と、最大フェレ径の軸に直交する方向で計測した長さに相当する補助線736を表示する。
なお、図7(a)〜(c)のそれぞれに示した、画像データに重畳する各種情報は、いずれか1つ、または、複数の組合せとしてもよく、ユーザが表示する情報を選択できるようにしてもよい。また、図6および図7に示した重畳画像は1つの例であって、患部領域102および患部領域102の大きさを示す情報の表示形態、表示位置、フォントの種類、フォントサイズ、フォントの色、あるいは、位置関係などは様々な条件に応じて変更できる。
ステップ456において、画像処理装置300の通信装置313が、抽出した患部領域102の抽出結果を示す情報と、患部領域102の大きさを示す情報を撮像装置200に出力する。本実施形態では、通信装置313は、ステップ455で生成した、患部領域102の大きさを示す情報を含む画像データを、撮像装置200に無線通信により出力する。
ここで、再び撮像装置200による処理の説明に戻る。
ステップ416で、撮像装置200の通信装置219は、画像処理装置300にて生成された患部領域102の大きさを示す情報を含む画像データを受信する。
ステップ417において、表示装置223がステップ416で受信した患部領域102の大きさを示す情報を含む画像データを所定時間表示する。ここでは、表示装置223は図7に示す重畳画像701乃至703のいずれかを表示し、所定時間経後にステップ418の処理に移行する。
ステップ418において、値が入力されていない患部領域情報の有無を判定する。ここで患部領域情報とは、患部の部位を示す情報、および、前述したDESIGN−R(登録商標)の各評価項目の評価値を指す。Sizeに関する評価項目の評価値については、ステップ416で受信した大きさを示す情報に基づいて、自動的に入力される。
ステップ418において値が入力されていない患部領域情報がある場合はステップ419に移行し、全ての患部領域情報が入力されていれば、ステップ402に戻りライブビューを再開する。
ステップ419において、システム制御回路220は、表示装置223に患部領域情報の入力を促すユーザインターフェースを表示する。
ステップ420において、ユーザによって患部領域情報が入力されると、ステップ418に戻る。
図8はステップ419およびステップ420において、患部領域情報をユーザに入力させる方法を説明するための図である。
図8(a)は患部領域情報のうち、患部領域の部位の入力を促す表示である。
表示装置223に患部領域の部位、Head(頭)、Shoulder(肩)、Arm(腕)、Back(背)、Waist(腰)、Hip(尻)、Leg(脚)を指定するための部位選択項目801が表示される。なお、この部位選択項目801の一番下には、患部領域情報の入力を完了するための項目があり、これを選択することで、患部領域情報の一部が未入力であっても、患部領域情報の入力作業を終了することができる。
ユーザは操作部材224を操作することで、撮影した患部領域が存在する部位を指定することができる。ユーザによって選択された項目は枠線802で囲まれて表示される。図8(a)ではHip(尻)が選択された様子を示している。部位選択項目801が示す1つの部位に、2つ以上の患部領域が存在することもあるため、さらに、Hip1、Hip2、Hip3と、さらに複数の項目を選択できるようにしてもよい。
図8(b)は図8(a)で患部領域が存在する部位を選択した後、選択した部位でよいかどうかをユーザに確認するための表示である。ユーザ操作によって選択した部位でよいことが確認されると、表示装置223は図8(c)に示す画面の表示を行う。
図8(c)は患部領域情報のうち、DESIGN−R(登録商標)の各評価項目の評価値の入力を促す表示である。
画面左側には評価項目選択部804が表示される。D(深さ:Depth)、E(滲出液:Exudate)、S(大きさ:Size)、I(炎症・感染:Inflammation/Infection)、G(肉芽組織:Granulation)、N(壊死組織:Necrotic tissue)、P(ポケット:Pocket)の各項目と、各々の項目が入力されたかどうかを示す情報が、患部領域の画像とともに表示される。図8(c)では、画像から解析済みであるS(大きさ:Size)については評価値「s9」が表示され、それ以外の評価項目については未確認であることを示す「non」が表示されている。S(大きさ:Size)の項目が網掛け表示となっているのは、この項目が入力済であることを示している。
ユーザは操作部材224を操作することで評価項目を指定することができ、選択された評価項目(ここではD(深さ:Depth))は枠線805で囲まれて表示される。
このとき、画面下部には重症度選択部806として画面左側で選択された評価項目の重症度の評価値が重畳表示される。図8(c)では、D(深さ:Depth)の重症度を示す評価値であるd0、d1、d2、D3、D4、D5、DUが表示されている。
ユーザは操作部材224を操作していずれかの評価値を選択することができ、選択された評価値は枠線807で囲まれて表示されるとともに、その評価値の説明文808(評価項目Depth、重症度d2の説明:真皮までの損傷)が表示される。なお、ユーザが文字列を入力することで、評価値の入力を行うようにしてもよい。
図8(d)は、図8(c)で評価値を選択した後、選択した評価値でよいかどうか、ユーザに問い合わせるための確認通知809を示す。
ユーザが操作部材224で、選択した評価値で問題ないことを選択すると、図8(e)に示す表示に画面が遷移する。
図8(e)は、評価値が入力されたことによって、D(深さ:Depth)の評価項目810の表示が「non」から「d2」に変わるとともに、評価項目810が網掛け表示となる。
同様に未入力の評価項目がなくなるまで、E(滲出液:Exudate)、I(炎症・感染:Inflammation/Infection)、G(肉芽組織:Granulation)、N(壊死組織:Necrotic tissue)、P(ポケット:Pocket)について、ユーザに評価値の入力を促す表示がされる。
全ての評価項目の評価値が入力されると、患部領域情報の入力が完了した旨をユーザに通知した後、ステップ402に戻り、ライブビュー処理を開始する。
このように、第1の実施形態ではステップ418〜ステップ420の処理において、患部撮領域の影後、自動解析されなかった評価項目の評価値や患部領域の部位の情報の入力を促す表示を行い、ユーザに患部領域情報を入力させる機能を備える。このようにすることで、従来、別の媒体で入力していた患部領域情報を撮像装置のみで入力することが可能となる。
また次の患部を撮影する前に患部領域情報が全て入力したかどうか判定し、未入力の評価項目の入力を順次促すことで、患部領域情報の入力漏れを防ぐことが可能となる。
なお、第1の実施形態に係る操作部材224は、音声認識による入力手段を用いてもよい。
また、図8(a)では患部部位入力時、部位を「Head」「Shoulder」などの文字で項目表示し、選択した。これに対し、図8(f)に示すように、表示装置223に人体モデル811を表示し、表示装置223に設けられたタッチセンサで、ユーザに患部領域の部位を指定させるように構成してもよい。
また、その際、図8(g)に示すように、人体モデル811を拡大、縮小、あるいは、回転させることにより、より患部領域の部位を選択しやすくするように構成してもよい。
また、図8(e)では、評価値の入力が完了した評価項目であることを示す手段として網掛け表示を用いたが、文字の輝度を落としても、反転表示してもよく、ユーザに明示できるのであれば、これらの表示方法に制限されるものではない。
また、本実施例では入力可能な褥瘡の評価指標としてDESIGN−R(登録商標)を用いているが、これに限定されるものではない。Bates−Jensen Wound Assessment Tool(BWAT)、Pressure Ulcer Scale for Healing(PUSH)、Pressure Sore Status Tool(PSST)などの、他の評価指標を用いてもよい。すなわち、褥瘡の領域の抽出結果と、抽出した領域の大きさの情報が得られたことに応じて、これらBWAT、PUSH、PSSTなどにおける評価項目を入力するためのユーザインターフェースを表示するようにしてもよい。
また、本実施例では褥瘡の評価項目の評価値の入力を目的とした構成の例を挙げて説明を行っているが、視覚的な評価項目であれば、他の皮膚疾患における評価項目の評価値でもよい。例えばアトピー性皮膚炎におけるSeverity Scoring of Atopic Dermatitis(SCORAD)、や乾癬におけるBody Surface Area、Psoriasis Area and Severity Index(PASI)等がある。
このように、本実施形態によれば、ユーザが撮像装置200で患部領域102を撮像することにより、撮像装置200の表示装置223に患部領域の大きさを示す情報が表示される画像処理システムを提供することができる。そのため、褥瘡の患部領域の大きさの評価を医療関係者の負荷、および、評価をされる患者側の負荷を軽減することができる。また、患部領域の大きさの算出をプログラムに基づいて実行することで、医療関係者が手動で計測する場合に比べて個人差を抑制することができ、褥瘡の大きさの評価の正確性を向上することができる。また、褥瘡の規模をより的確に表すため評価値としての患部面積を算出して表示することができる。
なお、ライブビュー表示の際に、ユーザが患部領域の推定エリアが妥当であるかを確認する機能は必須ではないため、ステップ406、ステップ407、および、ステップ441乃至ステップ445を省略する構成とすることも可能である。
また、画像処理装置300は、患部領域102の抽出結果を示す情報、患部領域102の大きさを示す情報、および、これらの情報を重畳した重畳画像の画像データを記憶装置312に記憶するようにしてもよい。そして、出力装置314は、接続されたディスプレイなどの出力機器に、記憶装置312に記憶したいずれか1つ以上の情報、あるいは、画像データを出力することができる。ディスプレイに重畳画像を表示することで、患部領域102を撮影するユーザとは別のユーザが、リアルタイムで、あるいは、過去に得られた患部領域102の画像と大きさを示す情報を得ることができるようになる。画像処理装置300の演算装置311は、出力装置314からディスプレイに送信する画像データに対して、任意に位置および角度を変更するスケールバーなどを表示する機能を設けてもよい。このようなスケールバーを表示することで、ディスプレイを見ているユーザが患部領域102の任意の箇所の長さを計測することが可能となる。このスケールバーのメモリの幅は、ステップ451で受信した距離情報、ズーム倍率の情報、およびリサイズ処理された画像データのサイズ(ピクセル数)の情報などに基づいて自動調整されることが望ましい。
画像処理装置300を、据え置き側で常時電源が供給された状態で用いれば、バッテリー切れになる心配がなく、いつでも任意のタイミングで患部領域102の画像と大きさを示す情報を得ることができる。また、一般的に据え置き型デバイスである画像処理装置300は記憶容量が多いため、多数の画像データを保存することができる。
また、本実施形態によれば、ユーザが撮像装置200で患部領域102を撮像した際に、画像を画像解析することよって得られる情報とは別の、患部領域102に関する情報を、ユーザが入力し、記録することができる。そのため、後ほど、撮影された画像データを見ながら、電子カルテや紙媒体に患部領域の評価を入力する手間が不要となる。さらに、未入力の項目がわかるようにユーザに提示することによって、ユーザが患部領域を撮影した際に、これらの情報の入力を忘れてしまうことを抑制することが可能になる。
(第2の実施形態)
第1の実施形態に係る画像処理システムでは、画像処理装置300が、患部領域の抽出結果を示す情報および患部領域の大きさを示す情報を、画像データに重畳する処理を行った。これに対し、第2の実施形態に係る画像処理システムでは、撮像装置200の画像処理回路217が、患部領域の抽出結果を示す情報および患部領域の大きさを示す情報を画像データに重畳する処理を行う。
図9は、第2の実施形態に係る画像処理システム1の動作を示すワークフロー図である。
図9には、図4に示すワークフローのうち、画像処理装置300によるステップ444およびステップ455の重畳処理が無く、代わりに、撮像装置200によるステップ901およびステップ902の重畳処理が追加されている。なお、図9に記載されたステップのうち、図4に示すステップと同じ番号が付与されたステップは、図4の対応するステップと同様の処理を行う。
本実施形態では、撮像装置200が重畳画像を生成するため、ステップ445およびステップ456において、画像処理装置300から撮像装置200へ送るデータはカラースケールの画像データである必要はない。画像処理装置300は、画像データは送信せずに、推定された患部領域の大きさを示すメタデータおよび患部領域の位置を表すデータを送信することになるので、通信トラフィックを軽減し、通信を高速化することができる。推定された患部領域の位置を表すデータはよりサイズの軽いベクター形式のデータである。なお、2値のラスター形式のデータであってもよい。
また、撮像装置200は、ステップ407あるいはステップ416で画像処理装置300から推定された患部領域の大きさを示すメタデータおよび患部領域の位置を表すデータを受信すると、ステップ901またはステップ902において、重畳画像を生成する。
具体的には、ステップ901において、撮像装置200の画像処理回路217は、図4のステップ444で説明した方法で、重畳画像を生成する。推定された患部領域の大きさおよび位置を表す情報を重畳する画像データは、ステップ406で撮像装置200から画像処理装置300に送信した画像データでもよいし、ライブビュー用の画像として表示に用いられている最新のフレームの画像データでもよい。
また、ステップ902において、撮像装置200の画像処理回路217は、図4のステップ455で説明した方法で、重畳画像を生成する。推定された患部領域の大きさおよび位置を表す情報を重畳する画像データは、ステップ415で撮像装置200から画像処理装置300に送信した画像データである。
このように、本実施形態によれば、第1の実施形態に比べて、画像処理装置300から撮像装置200へ送るデータを軽減することができるため、撮像装置200と画像処理装置300の間の通信トラフィックを軽減し、通信を高速化することができる。
(第3の実施形態)
図10は、第3の実施形態に係る画像処理システム11の概要を示す図である。図10に示す画像処理システム11は、第1および第2の実施形態で説明した撮像装置200および画像処理装置300に加えて、Webアクセスが可能な電子機器である端末装置1000を有している。端末装置1000は、例えばタブレット端末で構成され、Webブラウザの機能を有し、Webサーバーへのアクセスと取得したHTMLファイルの表示をすることができる。なお、端末装置1000はタブレット端末に限らず、Webブラウザ、あるいは、専用のアプリケーションソフトにて画像を表示できるデバイスならばよく、例えばスマートフォンやパーソナルコンピュータであってもよい。ここで、撮像装置200と端末装置1000が別の装置であるものとして説明を行うが、これらを単一の装置としてもよい。端末装置1000がカメラ機能付きのスマートフォンやタブレット端末であれば、端末装置1000が撮像装置200の役割を果たすことも可能である。
画像処理装置300の演算装置311は、第1および第2の実施形態で説明した処理に加え、画像データから被写体を識別する処理を行う。さらに、この演算装置311は、推定された患部領域の大きさおよび位置に関する情報と、患部領域の画像データを、識別した被写体ごとに記憶装置312に記憶させる処理を実行する。端末装置1000は、画像処理装置300の記憶装置312に記憶された、被写体に紐づいた推定された患部領域の大きさを示す情報と患部領域の画像データを、Webブラウザ、あるいは、専用のアプリケーションソフトを用いることでユーザに確認させることができる。ここでは、Webブラウザを用いてユーザに画像データを確認させるものとして説明を行う。
なお、画像データから被写体を識別する機能、識別した被写体ごとに患部領域の情報あるいは画像データを記憶する機能、あるいは、Webサービスの処理を行う機能は、本実施形態では画像処理装置300が実施するものとするが、これに限られない。これらの機能の一部または全ては、画像処理装置300とは別のネットワーク上のコンピュータによって実現されてもよい。
図10において、被写体101には被写体を識別する情報としてバーコードタグ103が付帯しており、撮影した患部領域102の画像データと、バーコードタグ103が示す被写体のIDとを紐づけることができる。なお、被写体を識別するタグはバーコードタグに限ったものではなく、QRコード(登録商標)などの2次元コードや数値であってもよい。あるいは、被写体を識別するタグとしてテキストを記載してタグを用いて、画像処理装置300に搭載されたOCR(Optical Character Recognition/Reader)機能で読み取るようにしてもよい。
画像処理装置300の演算装置311は、撮影された画像データに含まれるバーコードタグを解析して得られたIDと、予め記憶装置312に登録されている被写体IDを照合し、被写体101の名前を取得する。なお、IDの解析を撮像装置200が行い、得られたIDを画像処理装置300に送信する構成としてもよい。
演算装置311は、患部領域102の画像データ、被写体の患部領域102の大きさを示す情報、被写体IDと、取得した被写体の名前、および、撮影日時などに基づくレコードを生成し、記憶装置312のデータベースに登録する。
さらに、演算装置311は、端末装置1000からのリクエストに反応して、記憶装置312のデータベースに登録された情報を返送する。
図11は、第3の実施形態に係る画像処理システム11の動作を示すワークフロー図である。図11に記載されたステップのうち、図4に示すステップと同じ番号が付与されたステップは、図4の対応するステップと同様の処理を行う。
図11において、撮像装置200は、画像処理装置300との接続がなされると、ステップ1101において、表示装置223にユーザにバーコードタグ103の撮影を行わせる旨の指示を表示し、ユーザのレリーズ操作に応じてバーコードタグ103の撮影を行う。それからステップ402に進む。バーコートタグ103には患者を識別する患者IDの情報が含まれる。バーコードタグ103を撮影した後に患部領域102の撮影をすることで、撮影日時などで撮影順序を管理し、1つのバーコードタグの画像から次のバーコードタグの画像の手前までが、同一被写体の画像として被写体IDにより識別される。勿論、患部領域102を撮影した後に、バーコードタグ103を撮影する順序とすることも可能である。
ステップ410において、システム制御回路220が、レリーズボタンが押されたことを検知し、ステップ411乃至ステップ414を経て、ステップ415において通信装置219が画像データと、距離情報を含む1以上の情報を、無線通信により画像処理装置300に送信する。このステップ415で送信される画像データには、患部領域102を撮影した画像データに加えて、S1001でバーコードタグ103を撮影した画像データが含まれる。
画像処理装置300は、ステップ455において重畳画像の画像データを生成し、ステップ1111に進む。
ステップ1111において、演算装置311は、S1001で撮影したバーコードタグ103の画像データに含まれる1次元バーコード(不図示)を読み取り、被写体を識別する被写体IDを読み取る処理を行う。
ステップ1112において、読み取った被写体IDと、記憶装置312に登録されている被写体IDの照合を行う。
ステップ1113において、被写体IDの照合に成功した場合は、記憶装置312のデータベースに登録された患者の名前、および、過去の患部領域情報を取得する。ここでは、直近に記憶された患部領域情報を取得するものとする。
ステップ456において、画像処理装置300の通信装置313が、抽出した患部領域102の抽出結果を示す情報、患部領域102の大きさを示す情報、および、記憶装置312から取得した過去の患部領域情報を撮像装置200に出力する。
ステップ416で、撮像装置200の通信装置219は、画像処理装置300から送信されてきた画像データおよび患部領域情報を受信する。
ステップ417において、表示装置223がステップ416で受信した患部領域102の大きさを示す情報を含む画像データを所定時間表示する。
ステップ418において、値が入力されていない患部領域情報の有無を判定する。
ステップ418において値が入力されていない患部領域情報がある場合はステップ1102に移行し、全ての患部領域情報が入力されていれば、ステップ1104に進む。
ステップ1102において、システム制御回路220は、過去の患部領域情報も用いて、表示装置223に患部領域情報の入力を促すユーザインターフェースを表示する。
図12は、過去に取得した患部領域情報を表示する方法を説明するための図である。図12(a)では、過去に評価項目の評価値が入力された部位については、画面左側の部位選択項目1101に表示される項目1102の文字サイズが大きく表示される。図12(a)では、Back(背)とHip(尻)において、過去に患部領域の評価項目の評価値が入力されたことを示している。
ステップ420においてユーザによって患部領域の情報が入力されると、ステップ1103において、過去の評価項目の評価値と比較し、症状が良化したか、悪化したかを判別できる表示を行う。
図12(b)では、評価項目選択部1103が3列表記となり、左から、評価項目名、過去の評価値、現在の評価値の順で表示される。
また、ここでは、現在と過去の評価値を比較して、症状が良化したと判定できる項目は緑色の評価値が表示され、悪化したと判定できる項目は赤色の評価値が表示される。
全ての評価項目の評価値が入力されると、患部領域情報の入力が完了した旨をユーザに通知した後、ステップ1104に進む。
ステップ1104において、一連の各評価項目の評価値が入力された患部領域情報や画像データを画像処理装置300に無線通信により出力し、ステップ402に戻る。
ステップ1114において、画像処理装置300は、撮像装置200から送信された患部領域情報や画像データを受信する。
ステップ1115において、演算装置311は、患部領域を撮影した画像データ、患部領域102の部位の情報、患部領域102の各評価項目の評価値、被写体ID、取得した被写体の名前、および、撮影日時になどに基づくレコードを作成する。さらに、演算装置311は、作成したレコードを記憶装置312のデータベースに登録する。
ステップ1116において、演算装置311は、端末装置1000からの要求に反応し、記憶装置312のデータベースに登録された情報を端末装置1000に送信する。
ここで、端末装置1000のブラウザの表示の一例を、図13と図14を用いて説明する。
図13は、端末装置1000のブラウザに表示されるデータ選択画面の一例を説明するための図である。データ選択画面1301は、日付1302ごとに仕切り線1303で仕切られ、それぞれの日付の領域には撮像時間1304ごとにアイコン1305が表示されている。アイコン1305には、被写体IDと被写体の名前が表示されており、アイコン1305は同じ時間帯に撮影された同一の被写体のデータセットを表している。また、データ選択画面1301には検索窓1306が設けられ、検索窓1306に日付、被写体ID、または被写体の名前を入力することで、データセットを検索することができる。さらに、スクロールバー1307を操作することで、限られた表示領域において複数のデータを拡張して表示することができる。端末装置1000のブラウザのユーザは、アイコン1305を選択してクリックすることで、ブラウザがデータ閲覧画面に遷移し、そのデータセットの画像、および、被写体の大きさを示す情報を閲覧することができる。すなわち、画像処理装置300には、端末装置1000において指定された被写体および日時を示す要求が端末装置1000から送信される。そして、画像処理装置300は、この要求に対応する画像データ、および、被写体の大きさを示す情報を端末装置1000に送信する。
図14は、端末装置1000のブラウザに表示されるデータ一覧画面の一例を説明するための図である。データ閲覧画面1401には、データ選択画面1301で選択したデータセットの被写体IDおよび被写体の名前1402と、撮影日時および時間1403が表示されている。さらに、1回の撮影ごとに画像データに基づく画像1404と、この画像1404における患部領域情報に基づくデータ1405が表示される。さらに、同一の被写体の患部領域を連続して複数撮影した場合の、撮影番号が番号1406に示されている。画面右端のスライダ1407を移動させることで、同一の被写体IDの、他の撮影日時の画像データおよび患部領域情報に基づくデータを表示させることができる。また、設定を変更することで、複数の撮影日時のおよび患部領域情報に基づくデータを表示させることもでき、こうすることで、患部領域の症状の変化を比べることが容易となる。
なお、図14では、患部領域の撮像を行ってから、被写体IDの照合や、患部領域が存在する部位の選択をユーザに行わせる処理を行ったが、これらを先に行うようにしてもよい。
図15は、第3の実施形態に係る画像処理システム11の動作の変形例を示すワークフロー図である。図15に記載されたステップのうち、図11に示すステップと同じ番号が付与されたステップは、図11の対応するステップと同様の処理を行う。
ステップ1101において、バーコードタグ103の撮影を行うと、ステップ1501において、通信装置219がバーコードタグ103を撮影した画像データを画像処理装置300に送信する。
ステップ1511において、画像処理装置の通信装置313が、撮像装置200から送信されたバーコードタグ103を撮影した画像データを受信する。
ステップ1512において、演算装置311は、受信したバーコードタグ103の画像データに含まれる1次元バーコードを読み取り、被写体を識別する被写体IDを読み取る処理を行う。
ステップ1513において、読み取った被写体IDと、記憶装置312に登録されている被写体IDの照合を行う。
ステップ1514において、被写体IDの照合に成功した場合は、記憶装置312のデータベースに登録された患者の名前を取得する。もし、照合に失敗した場合には、その旨を患者の名前の代わりに取得する。
ステップ1515において、画像処理装置の通信装置313が、患者の名前、もしくは、被写体IDの照合に失敗した旨を示す情報を撮像装置200に送信する。
ステップ1502において、撮像装置200の通信装置219が、画像処理装置300から送信された患者の名前を受信する。
ステップ1503において、システム制御回路220は、表示装置223に患者の名前を表示する。
ステップ1504において、システム制御回路220は、表示装置223に患者の名前を表示する。ここで、ユーザに患者の名前が正しいかを確認するための入力を行わせても良く、もし患者の名前が正しくない場合、あるいは、患者の名前の照合に失敗していた場合には、ステップ1101に戻るようにしてもよい。患部領域の画像を撮影する前に、患者の名前を表示することで、後で取得する患部領域の画像データや患部領域情報と、被写体IDとが、誤って関連付けられることを予防することができる。
ステップ1505において、システム制御回路220は、表示装置223に患部領域情報のうち、患部領域が存在する部位の情報の入力を促すユーザインターフェースを表示する。これは、第1の実施形態における図8(a)および図8(b)と同様に、患部領域の部位、Head(頭)、Shoulder(肩)、Arm(腕)、Back(背)、Waist(腰)、Hip(尻)、Leg(脚)を指定するための部位選択項目801を表示し、ユーザに選択させる。
ステップ1506において、ユーザによって患部領域の情報が入力されると、ステップ402に進む。このように、これから撮影しようとする患部領域の部位の情報を選択させてから、患部領域の撮影を行う処理に進むことで、患部領域の部位の情報を誤って選択することを予防することができる。
なお、ステップ1513にて被写体IDの照合を行っているため、画像処理装置300は、患部領域を含む画像データを取得した後に被写体IDの照合を行う必要はない。また、ステップ1506にて患部領域の部位の情報を入力しているため、患部領域を含む画像データを取得した後のステップ1507およびステップ1508では、患部領域の部位の情報の入力は不要であり、各評価項目の評価値の入力のみを行えばよい。
このように本実施形態に係る画像処理システム11では、患部領域102の画像データとその解析結果を、被写体ごとに識別して記憶することができ、かつ、各評価項目が良化したか、悪化したかがユーザの手元にある撮像装置のみで確認することが可能となる。そのため、過去に登録された患部の管理情報を手元の撮像装置のみで患部撮影直後に確認することが可能となる。また、現時点で確認した重症度を直近の管理情報と比較して表示することで、症状が良化しているか、悪化しているかが一目で確認可能となる。
また、ユーザはタブレット端末などの端末装置1000から、Webブラウザや専用のアプリケーションを用いて、被写体IDや被写体の名前と関連付けて、患部領域102の画像データの解析結果を確認することができる。
なお、上述したいずれの実施形態においても、撮像装置200に補助演算装置317に相当する回路を搭載することにより、図4、図9および図11に示すワークフローと同様の効果を得るための処理を、撮像装置200単体で行うようにすることが可能となる。この場合、撮像装置200のみで、上述した撮像装置200と画像処理装置300からなる画像処理システムと同様の効果を得ることが可能となる。外部のコンピュータにて生成された新たな学習済モデルを受け取ることで、患部領域の推論処理の精度を向上させたり、新たな種類の患部領域の抽出をしたりすることが可能となる。
(他の実施形態)
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
1、11 画像処理システム
200 撮像装置
211 撮像ユニット
216 測距システム
217 画像処理回路
218 AF制御回路
219 通信装置
223 表示装置
300 画像処理装置
311 演算装置
312 記憶装置
313 通信装置
314 出力装置
317 補助演算装置
1000 端末装置

Claims (60)

  1. 撮像装置と画像処理装置からなる画像処理システムであって、
    前記撮像装置は、
    被写体からの光を受光して画像データを生成する撮像手段と、
    前記画像データを通信ネットワークに出力する第1の通信手段と、
    前記撮像手段で生成された画像データに基づく画像を表示する表示手段を有し、
    前記画像処理装置は、
    前記通信ネットワークを介して、前記画像データを取得する第2の通信手段と、
    前記画像データから前記被写体の所定の領域を抽出する演算手段を有し、
    前記第2の通信手段は、前記演算手段で抽出した前記所定の領域の抽出結果を示す情報を、前記通信ネットワークに出力し、
    前記第1の通信手段は、前記通信ネットワークを介して、前記所定の領域の抽出結果を示す情報を取得し、
    前記表示手段は、前記所定の領域の抽出結果を示す情報に基づく表示を行うことを特徴とする画像処理システム。
  2. 前記表示手段は、前記所定の領域の抽出結果が重畳された、前記演算手段が前記所定の領域の抽出を行う際に用いた画像データに基づく画像を表示することを特徴とする請求項1に記載の画像処理システム。
  3. 前記表示手段は、前記所定の領域の抽出結果が重畳された、前記撮像手段にて生成されたライブビュー画像を表示することを特徴とする請求項1に記載の画像処理システム。
  4. 前記演算手段は、前記画像データから抽出した前記所定の領域の大きさを示す情報を生成し、
    前記第2の通信手段は、前記演算手段が生成した前記大きさを示す情報を、前記通信ネットワークに出力することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理システム。
  5. 前記撮像装置は、前記撮像装置から前記被写体までの距離に関する距離情報を生成する生成手段を有し、
    前記第1の通信手段は、前記距離情報を前記通信ネットワークに出力し、
    前記第2の通信手段は、前記通信ネットワークを介して、前記距離情報を取得し、
    前記演算手段は、前記距離情報に基づいて、前記所定の領域の大きさを示す情報を生成することを特徴とする請求項4に記載の画像処理システム。
  6. 前記表示手段は、前記所定の領域の抽出結果を示す情報と前記大きさを示す情報に基づく表示を行うことを特徴とする請求項4または5に記載の画像処理システム。
  7. 前記所定の領域の大きさを示す情報は、前記所定の領域の少なくとも2つの方向における長さ、前記所定の領域の面積、前記所定の領域に外接する矩形の領域の面積、および、前記所定の領域の大きさを測定するためのスケールバーの、少なくとも1つであることを特徴とする請求項4乃至6のいずれか1項に記載の画像処理システム。
  8. 前記演算手段は、前記所定の領域の前記画像データ上のサイズを、前記画像データの画角もしくは画素の大きさを示す情報、および、前記距離情報に基づいて変換することで、前記所定の領域の大きさを示す情報を生成することを特徴とする請求項7に記載の画像処理システム。
  9. 前記演算手段は、前記所定の領域の大きさを示す情報を、前記所定の領域を有する被写体ごとに識別して記憶手段に記憶させることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理システム。
  10. 前記演算手段は、前記所定の領域の大きさを示す情報を、前記所定の領域を有する被写体、および、前記所定の領域の抽出を行う際に用いた前記画像データが生成された日時に基づいて識別して、前記記憶手段に記憶させることを特徴とする請求項9に記載の画像処理システム。
  11. 前記演算手段は、外部の端末装置からのリクエストに対し、前記リクエストにおいて指定された被写体に対応する前記所定の領域の大きさを示す情報を、前記端末装置に送信することを特徴とする請求項9または10に記載の画像処理装置。
  12. 前記第2の通信手段は、さらに、前記通信ネットワークを介して、前記第1の通信手段から出力された、前記被写体を識別するためのコードを含む画像データを取得し、
    前記演算手段は、前記被写体を識別するためのコードを含む画像データから、前記所定の領域を有する被写体を識別する情報を抽出することを特徴とする請求項9乃至11のいずれか1項に記載の画像処理システム。
  13. 前記演算手段は、前記所定の領域の抽出結果を示す情報を、前記表示手段とは別の第2の表示手段に表示させることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理システム。
  14. 前記演算手段は、前記第2の表示手段に、前記所定の領域の抽出結果を重畳した画像データに基づく画像と、前記第2の通信手段が取得した前記画像データに基づく画像を、並べて表示させることを特徴とする請求項13に記載の画像処理システム。
  15. 前記表示手段は、前記所定の領域における、予め定められた複数の評価項目の評価値を、ユーザに入力させるための表示を行うことを特徴とする請求項1乃至14のいずれか1項に記載の画像処理システム。
  16. 前記表示手段は、前記所定の領域の抽出結果を取得したことに応じて、前記複数の評価項目の評価値をユーザに入力させることを特徴とする請求項15に記載の画像処理システム。
  17. 前記所定の領域は患部領域であることを特徴とする請求項1乃至16のいずれか1項に記載の画像処理システム。
  18. 被写体からの光を受光して画像データを生成する撮像手段と、
    前記画像データを、通信ネットワークを介して、外部装置に出力する通信手段と、
    前記撮像手段で生成された画像データに基づく画像を表示する表示手段を有し、
    前記通信手段は、前記外部装置から、前記通信ネットワークを介して、前記画像データにおける前記被写体の所定の領域の抽出結果を示す情報を取得し、
    前記表示手段は、前記所定の領域の抽出結果を示す情報に基づく表示を行うことを特徴とする撮像装置。
  19. 前記表示手段は、前記所定の領域の抽出結果が重畳された、前記外部装置に出力した画像データに基づく画像を表示することを特徴とする請求項18に記載の撮像装置。
  20. 前記表示手段は、前記所定の領域の抽出結果が重畳された、前記撮像手段にて生成されたライブビュー画像を表示することを特徴とする請求項18に記載の撮像装置。
  21. 前記通信手段は、前記外部装置から、前記通信ネットワークを介して、前記画像データにおける前記所定の領域の大きさを示す情報を取得し、
    前記表示手段は、前記所定の領域の抽出結果を示す情報と、前記大きさを示す情報に基づく表示を行うことを特徴とする請求項18乃至20のいずれか1項に記載の撮像装置。
  22. 前記撮像装置は、前記撮像装置から前記被写体までの距離に関する距離情報を生成する生成手段を有し、
    前記通信手段は、前記距離情報を、前記通信ネットワークを介して、前記外部装置に出力することを特徴とする請求項21に記載の撮像装置。
  23. 前記所定の領域の大きさを示す情報は、前記所定の領域の少なくとも2つの方向における長さ、前記所定の領域の面積、前記所定の領域に外接する矩形の領域の面積、および、前記所定の領域の大きさを測定するためのスケールバーの、少なくとも1つであることを特徴とする請求項21または22に記載の撮像装置。
  24. 前記通信手段は、前記所定の領域を有する被写体を識別するための情報を、前記通信ネットワークを介して、前記外部装置に出力することを特徴とする請求項18乃至23のいずれか1項に記載の撮像装置。
  25. 前記表示手段は、前記所定の領域における、予め定められた複数の評価項目の評価値を、ユーザに入力させるための表示を行うことを特徴とする請求項18乃至24のいずれか1項に記載の撮像装置。
  26. 前記表示手段は、前記所定の領域の抽出結果を取得したことに応じて、前記複数の評価項目の評価値をユーザに入力させることを特徴とする請求項25に記載の撮像装置。
  27. 前記所定の領域は患部領域であることを特徴とする請求項18乃至26のいずれか1項に記載の撮像装置。
  28. 撮像装置から、通信ネットワークを介して、画像データと、前記画像データに含まれる被写体に対応する距離情報を取得する通信手段と、
    前記画像データから前記被写体の所定の領域を抽出し、前記距離情報に基づいて、前記所定の領域の大きさを求める演算手段を有し、
    前記通信手段は、前記演算手段で抽出した前記所定の領域の抽出結果を示す情報と、前記大きさを示す情報を、前記通信ネットワークを介して、前記撮像装置に出力することを特徴とする画像処理装置。
  29. 前記距離情報は、前記撮像装置から前記被写体までの距離情報であることを特徴とする請求項28に記載の画像処理装置。
  30. 前記演算手段は、表示手段に、前記所定の領域の抽出結果を示す情報、および、前記所定の領域の大きさを示す情報の、少なくともいずれかを重畳した画像データに基づく画像と、前記取得手段が取得した前記画像データに基づく画像を、並べて表示させることを特徴とする請求項28または29に記載の画像処理装置。
  31. 前記演算手段は、前記所定の領域の前記画像データ上のサイズを、前記画像データの画角もしくは画素の大きさを示す情報、および、前記距離情報に基づいて変換することで、前記所定の領域の大きさを求めることを特徴とする請求項28乃至30のいずれか1項に記載の画像処理装置。
  32. 前記演算手段は、前記所定の領域の大きさを示す情報を、前記所定の領域を有する被写体ごとに識別して記憶手段に記憶させることを特徴とする請求項28乃至31のいずれか1項に記載の画像処理装置。
  33. 前記演算手段は、前記所定の領域の大きさを示す情報を、前記所定の領域を有する被写体、および、前記所定の領域の抽出を行う際に用いた前記画像データが生成された日時に基づいて識別して、前記記憶手段に記憶させることを特徴とする請求項32に記載の画像処理装置。
  34. 前記演算手段は、外部の端末装置からのリクエストに対し、前記リクエストにおいて指定された被写体に対応する前記所定の領域の大きさを示す情報を、前記端末装置に送信することを特徴とする請求項32または33に記載の画像処理装置。
  35. 前記通信手段は、さらに、前記通信ネットワークを介して、前記被写体を識別するためのコードを含む画像データを取得し、
    前記演算手段は、前記被写体を識別するためのコードを含む画像データから、前記所定の領域を有する被写体を識別する情報を抽出することを特徴とする請求項32乃至34のいずれか1項に記載の画像処理装置。
  36. 前記所定の領域は患部領域であることを特徴とする請求項28乃至35のいずれか1項に記載の画像処理装置。
  37. 撮像手段、表示手段、および、第1の通信手段を有する撮像装置と、演算手段および第2の通信手段を有する画像処理装置からなる画像処理システムの制御方法であって、
    前記撮像手段が、被写体からの光を受光して画像データを生成する工程と、
    前記第1の通信手段が、前記画像データを通信ネットワークに出力する工程と、
    前記第2の通信手段が、前記通信ネットワークを介して、前記画像データを取得する工程と、
    前記演算手段が、前記画像データから前記被写体の所定の領域を抽出する工程と、
    前記第2の通信手段が、前記所定の領域の抽出結果を示す情報を、前記通信ネットワークに出力する工程と、
    前記第1の通信手段が、前記通信ネットワークを介して、前記所定の領域の抽出結果を示す情報を取得する工程と、
    前記表示手段が、前記所定の領域の抽出結果を示す情報に基づく表示を行う工程と、
    を有することを特徴とする画像処理システムの制御方法。
  38. 撮像装置の制御方法において、
    被写体からの光を受光して画像データを生成する工程と、
    前記画像データを、通信ネットワークを介して、外部装置に出力する工程と、
    前記外部装置から、前記通信ネットワークを介して、前記画像データにおける前記被写体の所定の領域の抽出結果を示す情報を取得する工程と、
    表示手段に、前記所定の領域の抽出結果を示す情報に基づく表示を行わせる工程と、
    を有することを特徴とする撮像装置の制御方法。
  39. 画像処理装置の制御方法において、
    撮像装置から、通信ネットワークを介して、画像データと、前記画像データに含まれる被写体に対応する距離情報を取得する工程と、
    前記画像データから前記被写体の所定の領域を抽出し、前記距離情報に基づいて、前記所定の領域の大きさを求める工程と、
    前記所定の領域の抽出結果を示す情報と、前記大きさを示す情報を、前記通信ネットワークを介して、前記撮像装置に出力する工程と、
    を有することを特徴とする画像処理装置の制御方法。
  40. コンピュータに、請求項38に記載の撮像装置の制御方法の各工程を実行させるためのプログラム。
  41. コンピュータに、請求項39に記載の画像処理装置の制御方法の各工程を実行させるためのプログラム。
  42. 被写体からの光を受光して画像データを生成する撮像手段と、
    前記画像データにおける、前記被写体の所定の領域の抽出結果を取得する制御手段と、
    前記被写体の所定の領域における、予め定められた複数の評価項目の評価値を、ユーザに入力させるインターフェース手段と、を有し、
    前記制御手段は、前記入力された複数の評価項目の評価値と、前記画像データを関連付けることを特徴とする撮像装置。
  43. 前記インターフェース手段は、前記被写体の所定の領域の抽出結果を取得したことに応じて、前記複数の評価項目の評価値をユーザに入力させることを特徴とする請求項42に記載の撮像装置。
  44. 前記被写体の所定の領域の抽出結果は、前記所定の領域の大きさを示す情報を含むことを特徴とする請求項42または43に記載の撮像装置。
  45. 前記インターフェース手段は、前記所定の領域が存在する前記被写体の部位の情報をユーザに入力させることを特徴とする請求項42乃至44のいずれか1項に記載の撮像装置。
  46. 前記インターフェース手段は、前記所定の領域の抽出結果を取得する前に、前記所定の領域が存在する部位の情報をユーザに入力させることを特徴とする請求項45に記載の撮像装置。
  47. 前記インターフェース手段は、前記複数の評価項目のうち、評価値が入力された評価項目と評価値が入力されていない評価項目とを、異なる形態で表示することを特徴とする請求項42乃至46に記載の撮像装置。
  48. 前記制御手段は、前記所定の領域を有する被写体を識別するための情報を取得し、前記所定の領域が抽出された画像データと、前記複数の評価項目の評価値を、被写体ごとに関連付けることを特徴とする請求項42乃至46のいずれか1項に記載の撮像装置。
  49. 前記制御手段は、過去に、同一の被写体について関連付けられた前記複数の評価項目の評価値を取得することを特徴とする請求項48に記載の撮像装置。
  50. 前記インターフェース手段は、新たに得られた前記複数の評価項目の評価値と、過去に得られた前記複数の評価項目の評価値を表示することを特徴とする請求項49に記載の撮像装置。
  51. 前記インターフェース手段は、前記所定の領域を有する被写体を識別した結果を表示することを特徴とする請求項48乃至50のいずれか1項に記載の撮像装置。
  52. 前記撮像手段にて生成された画像データを、通信ネットワークを介して、外部装置である画像処理装置に送り、前記画像処理装置から、前記通信ネットワークを介して、前記画像データから前記所定の領域の抽出結果に関する情報を受け取る通信手段を有することを特徴とする請求項42乃至51のいずれか1項に記載の撮像装置。
  53. 前記通信手段は、前記通信ネットワークを介して、前記画像データと、前記撮像装置から前記被写体までの距離情報を前記画像処理装置に送信し、前記画像処理装置から、前記通信ネットワークを介して、前記所定の領域の大きさを示す情報を含む前記所定の領域の抽出結果に関する情報を受け取ることを特徴とする請求項52に記載の撮像装置。
  54. 前記所定の領域は患部領域であることを特徴とする請求項42乃至53のいずれか1項に記載の撮像装置。
  55. 撮像装置の制御方法において、
    被写体からの光を受光して画像データを生成する工程と、
    前記画像データにおける、前記被写体の所定の領域の抽出結果を取得する工程と、
    前記被写体の所定の領域における、予め定められた複数の評価項目の評価値を、ユーザに入力させる工程と、
    前記入力された複数の評価項目の評価値と、前記画像データを関連付ける工程、
    を有することを特徴とする撮像装置の制御方法。
  56. コンピュータに、請求項55に記載の撮像装置の制御方法の各工程を実行させるためのプログラム。
  57. 通信ネットワークを介して、撮像装置にて生成された画像データ、および、ユーザが前記撮像装置を用いて入力した、前記画像データにおける被写体の患部領域に対する複数の評価項目の評価値を示す情報を取得する通信手段と、
    表示手段に、前記画像データに基づく画像と前記複数の評価項目の評価値を表示させる制御手段と、を有することを特徴とする電子機器。
  58. 前記制御手段は、前記表示手段に、前記画像データに基づく画像と前記複数の評価項目の評価値を、前記所定の領域を有する被写体、および、前記所定の領域の抽出を行う際に用いた前記画像データが生成された日時に基づいて識別して表示させることを特徴とする請求項57に記載の電子機器。
  59. 通信ネットワークを介して、撮像装置にて生成された画像データ、および、ユーザが前記撮像装置を用いて入力した、前記画像データにおける被写体の患部領域に対する複数の評価項目の評価値を示す情報を取得する工程と、
    表示手段に、前記画像データに基づく画像と前記複数の評価項目の評価値を表示させる工程と、を有することを特徴とする電子機器の制御方法。
  60. コンピュータに、請求項59に記載の電子機器の制御方法の各工程を実行させるためのプログラム。
JP2019095938A 2018-05-31 2019-05-22 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、プログラム Pending JP2020123304A (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
PCT/JP2019/021094 WO2019230724A1 (ja) 2018-05-31 2019-05-28 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、これらの制御方法を記憶した記憶媒体
CN201980036683.7A CN112638239A (zh) 2018-05-31 2019-05-28 图像处理系统、摄像设备、图像处理设备、电子装置及其控制方法和存储控制方法的存储介质
GB2017734.1A GB2588306B (en) 2018-05-31 2019-05-28 Image processing system, imaging apparatus, image processing apparatus, electronic device, methods of controlling the system, the apparatuses, and the device
DE112019002743.3T DE112019002743T5 (de) 2018-05-31 2019-05-28 Bildverarbeitungssystem, Bildgebungsvorrichtung, Bildverarbeitungsvorrichtung, elektronisches Gerät, Verfahren zur Steuerung des Systems, der Vorrichtung und des Geräts, und die Verfahren speicherndes Speichermedium
GB2206461.2A GB2606859B (en) 2018-05-31 2019-05-28 An image processing system and apparatus, imaging apparatus, device, system/control methods, means for storage
KR1020207035540A KR20210018283A (ko) 2018-05-31 2019-05-28 화상처리 시스템, 촬상 장치, 화상처리 장치, 전자기기, 이것들의 제어 방법, 및 이것들의 제어 방법을 기억한 기억 매체
GB2215730.9A GB2609147B (en) 2018-05-31 2019-05-28 Image processing system, imaging apparatus, image processing apparatus, electronic device, methods of controlling the system, the apparatuses, and the device,
US17/103,575 US20210068742A1 (en) 2018-05-31 2020-11-24 Image processing system, imaging apparatus, electronic device, methods of controlling the system, and the apparatuses, and storage medium
JP2021098074A JP7322097B2 (ja) 2018-05-31 2021-06-11 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018104922 2018-05-31
JP2018104922 2018-05-31
JP2019018653 2019-02-05
JP2019018653 2019-02-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021098074A Division JP7322097B2 (ja) 2018-05-31 2021-06-11 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体

Publications (1)

Publication Number Publication Date
JP2020123304A true JP2020123304A (ja) 2020-08-13

Family

ID=71992794

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019095938A Pending JP2020123304A (ja) 2018-05-31 2019-05-22 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、プログラム
JP2021098074A Active JP7322097B2 (ja) 2018-05-31 2021-06-11 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021098074A Active JP7322097B2 (ja) 2018-05-31 2021-06-11 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体

Country Status (5)

Country Link
US (1) US20210068742A1 (ja)
JP (2) JP2020123304A (ja)
KR (1) KR20210018283A (ja)
CN (1) CN112638239A (ja)
DE (1) DE112019002743T5 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
WO2022160070A1 (en) * 2021-02-01 2022-08-04 Skinopathy Inc. Machine learning enabled system for skin abnormality interventions
CN113706473B (zh) * 2021-08-04 2024-03-01 青岛海信医疗设备股份有限公司 超声图像中病灶区域的长短轴确定方法和超声设备
KR20230144797A (ko) * 2022-04-08 2023-10-17 (주)파인헬스케어 병원에서 욕창 상태를 결정하고 치료하기 위한 장치 및 장치의 동작 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011520722A (ja) * 2008-04-25 2011-07-21 ポリーレメディ インコーポレイテッド 自動創傷被覆材ファブリケータを使用した創傷ケア治療サービス
WO2014179594A2 (en) * 2013-05-01 2014-11-06 Francis Nathania Alexandra System and method for monitoring administration of nutrition
WO2015019573A1 (ja) * 2013-08-08 2015-02-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置の制御方法および画像処理方法
JP2016137163A (ja) * 2015-01-28 2016-08-04 カシオ計算機株式会社 医療画像処理装置、医療画像処理方法及びプログラム
WO2016149632A1 (en) * 2015-03-18 2016-09-22 Bio1 Systems, Llc Digital wound assessment device and method
WO2017203913A1 (ja) * 2016-05-25 2017-11-30 パナソニックIpマネジメント株式会社 肌診断装置および肌診断方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993167B1 (en) * 1999-11-12 2006-01-31 Polartechnics Limited System and method for examining, recording and analyzing dermatological conditions
JP2006271840A (ja) 2005-03-30 2006-10-12 Hitachi Medical Corp 画像診断支援システム
JP2007072649A (ja) 2005-09-06 2007-03-22 Fujifilm Corp 読影レポート作成装置
US8330807B2 (en) * 2009-05-29 2012-12-11 Convergent Medical Solutions, Inc. Automated assessment of skin lesions using image library
JP6202827B2 (ja) 2013-01-30 2017-09-27 キヤノン株式会社 撮影装置、その制御方法及びプログラム
WO2015175837A1 (en) * 2014-05-14 2015-11-19 Massachusetts Institute Of Technology Systems and methods for medical image segmentation and analysis
JP6309504B2 (ja) 2015-12-26 2018-04-11 株式会社キャピタルメディカ プログラム、情報処理装置及び情報処理方法
CN106236117B (zh) * 2016-09-22 2019-11-26 天津大学 基于心电和呼吸信号同步性特征的情绪检测方法
CN107007278A (zh) * 2017-04-25 2017-08-04 中国科学院苏州生物医学工程技术研究所 基于多参数特征融合的自动睡眠分期方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011520722A (ja) * 2008-04-25 2011-07-21 ポリーレメディ インコーポレイテッド 自動創傷被覆材ファブリケータを使用した創傷ケア治療サービス
WO2014179594A2 (en) * 2013-05-01 2014-11-06 Francis Nathania Alexandra System and method for monitoring administration of nutrition
WO2015019573A1 (ja) * 2013-08-08 2015-02-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置の制御方法および画像処理方法
JP2016137163A (ja) * 2015-01-28 2016-08-04 カシオ計算機株式会社 医療画像処理装置、医療画像処理方法及びプログラム
WO2016149632A1 (en) * 2015-03-18 2016-09-22 Bio1 Systems, Llc Digital wound assessment device and method
WO2017203913A1 (ja) * 2016-05-25 2017-11-30 パナソニックIpマネジメント株式会社 肌診断装置および肌診断方法

Also Published As

Publication number Publication date
CN112638239A (zh) 2021-04-09
JP7322097B2 (ja) 2023-08-07
DE112019002743T5 (de) 2021-02-18
US20210068742A1 (en) 2021-03-11
JP2021144752A (ja) 2021-09-24
KR20210018283A (ko) 2021-02-17

Similar Documents

Publication Publication Date Title
JP7322097B2 (ja) 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体
US11600003B2 (en) Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value
WO2019230724A1 (ja) 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、これらの制御方法を記憶した記憶媒体
US9569838B2 (en) Image processing apparatus, method of controlling image processing apparatus and storage medium
US20210093227A1 (en) Image processing system and control method thereof
US11599993B2 (en) Image processing apparatus, method of processing image, and program
US20210401327A1 (en) Imaging apparatus, information processing apparatus, image processing system, and control method
KR100874186B1 (ko) 피검사자의 설진 영상을 스스로 촬영할 수 있는 방법 및 그장치
US11475571B2 (en) Apparatus, image processing apparatus, and control method
US11373312B2 (en) Processing system, processing apparatus, terminal apparatus, processing method, and program
KR20160115269A (ko) 건강검진 정보 제공 애플리케이션 및 시스템
TWI783636B (zh) 可攜式電子裝置及傷口尺寸量測方法
JP2021049262A (ja) 画像処理システム及びその制御方法
JP2021049248A (ja) 画像処理システム及びその制御方法
JP2021137344A (ja) 医療用画像処理装置、医療用画像処理装置の制御方法、及びプログラム
JP7317528B2 (ja) 画像処理装置、画像処理システムおよび制御方法
JP6738697B2 (ja) 低解像度画像センサから高解像度画像を得るための光学装置及び方法
JP2020151461A (ja) 撮像装置、情報処理装置および情報処理システム
US20240000307A1 (en) Photography support device, image-capturing device, and control method of image-capturing device
JP2020156082A (ja) 撮像装置、画像処理装置および制御方法
KR102531626B1 (ko) 인공지능에 의한 임상이미지 획득 방법 및 그 장치
JP2022147595A (ja) 画像処理装置、画像処理方法、及びプログラム
US20230131704A1 (en) Information processing apparatus, learning device, imaging apparatus, control method of information processing apparatus, and program
JPWO2022145294A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210316