JP2023177589A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2023177589A
JP2023177589A JP2022090329A JP2022090329A JP2023177589A JP 2023177589 A JP2023177589 A JP 2023177589A JP 2022090329 A JP2022090329 A JP 2022090329A JP 2022090329 A JP2022090329 A JP 2022090329A JP 2023177589 A JP2023177589 A JP 2023177589A
Authority
JP
Japan
Prior art keywords
image processing
image data
severity
guidance
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022090329A
Other languages
Japanese (ja)
Inventor
元気 長
Motoki Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022090329A priority Critical patent/JP2023177589A/en
Publication of JP2023177589A publication Critical patent/JP2023177589A/en
Pending legal-status Critical Current

Links

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide an image processing apparatus and an image processing method for presenting photographing guidance suitable for a method for evaluating a skin disease and guidance to cope with the skin disease based on image data acquired through photographing.SOLUTION: In an image processing apparatus 101, an operation unit functions as estimation means that estimates the type of a skin disease of a patient from image data generated by photographing the patient by an imaging apparatus, determination means that determines a method for evaluating the skin disease according to the estimated type, evaluation means that evaluates the severity of the skin disease from the image data by using the determined evaluation method, and guide means that outputs at least one of photographing guidance according to the determined evaluation method and coping guidance according to the evaluated severity.SELECTED DRAWING: Figure 2

Description

本発明は、撮影により取得された患部の画像を処理することで撮影をアシストする情報を提供する技術に関する。 The present invention relates to a technique for providing information that assists in photographing by processing an image of an affected area acquired by photographing.

画像処理技術を用いて診断を支援する撮像装置として、特許文献1には、患者の患部の画像を撮影により取得する際に疾患の解析に必要な情報を撮影するための工程を備えるものが開示されている。 As an imaging device that supports diagnosis using image processing technology, Patent Document 1 discloses an imaging device that includes a process for capturing information necessary for disease analysis when capturing an image of a patient's affected area. has been done.

特開2019-213873号公報JP 2019-213873 Publication

しかしながら、特許文献1の撮像装置は、診断等のために必要十分な画像を取得するための撮影方法を提供したり撮影に対する支援を行ったりはしない。このため、疾患の種類等に応じた診断に必要な画像を取得できず、精度良い診断を行えなかったり診断結果に対する適切な対応を判断することが困難となったりする。 However, the imaging apparatus of Patent Document 1 does not provide a photographing method for acquiring necessary and sufficient images for diagnosis or the like, nor does it provide support for photographing. For this reason, it is not possible to obtain images necessary for diagnosis according to the type of disease, etc., making it difficult to perform accurate diagnosis or to determine an appropriate response to the diagnosis result.

本発明は、撮影により取得された画像データに基づいて皮膚疾患の評価方法に適切な撮影ガイダンスや皮膚疾患に対する対処ガイダンスを提示することができるようにした画像処理装置および画像処理方法を提供する。 The present invention provides an image processing device and an image processing method that can present imaging guidance and treatment guidance for skin diseases that are appropriate for a skin disease evaluation method based on image data acquired through imaging.

本発明の一側面としての画像処理装置は、患者を撮影することで生成された画像データから患者の皮膚疾患の種類を推定する推定手段と、推定された種類に応じて皮膚疾患の評価方法を決定する決定手段と、画像データから、決定された評価方法で皮膚疾患の重症度を評価する評価手段と、決定された評価方法に応じた撮影ガイダンスおよび評価された重症度に応じた対処ガイダンスのうち少なくとも一方を出力するガイド手段とを有することを特徴とする。なお、上記画像処理装置と、患者を撮像する撮像素子とを有する撮像装置も、本発明の他の一側面を構成する。 An image processing device according to one aspect of the present invention includes an estimation means for estimating the type of skin disease of a patient from image data generated by photographing the patient, and a method for evaluating the skin disease according to the estimated type. A determination means for determining, an evaluation means for evaluating the severity of skin disease using the determined evaluation method from image data, imaging guidance according to the determined evaluation method, and treatment guidance according to the evaluated severity. and a guide means for outputting at least one of them. Note that an imaging device including the above image processing device and an imaging element that images a patient also constitutes another aspect of the present invention.

また本発明の他の一側面としての画像処理方法は、患者を撮影することで生成された画像データから患者の皮膚疾患の種類を推定するステップと、推定された種類に応じて皮膚疾患の評価方法を決定するステップと、画像データから、決定された評価方法で皮膚疾患の重症度を評価するステップと、決定された評価方法に応じた撮影ガイダンスおよび評価された重症度に応じた対処ガイダンスのうち少なくとも一方を出力するステップとを有することを特徴とする。なお、コンピュータに上記画像処理方法に従う処理を実行させるプログラムも、本発明の他の一側面を構成する。 Further, an image processing method as another aspect of the present invention includes the steps of estimating the type of skin disease of a patient from image data generated by photographing the patient, and evaluating the skin disease according to the estimated type. A step of determining the method, a step of evaluating the severity of the skin disease using the determined evaluation method from the image data, and a step of providing imaging guidance according to the determined evaluation method and treatment guidance according to the evaluated severity. and outputting at least one of them. Note that a program that causes a computer to execute processing according to the above image processing method also constitutes another aspect of the present invention.

本発明によれば、撮影により取得された画像データに基づいて皮膚疾患の評価方法に適切な撮影ガイダンスや皮膚疾患に対する対処ガイダンスを提示することができる。 According to the present invention, it is possible to present imaging guidance and treatment guidance for skin diseases that are appropriate for a skin disease evaluation method based on image data acquired through imaging.

本発明の実施例における画像処理システムの構成を示す図。FIG. 1 is a diagram showing the configuration of an image processing system in an embodiment of the present invention. 実施例における画像処理装置を示す図。FIG. 1 is a diagram showing an image processing device in an example. 実施例における撮像装置を示す図。FIG. 1 is a diagram showing an imaging device in an example. 実施例における疾患とその評価方法の関係を示す図。The figure which shows the relationship between the disease and its evaluation method in an Example. 実施例における診断システムが実行する処理を示すフローチャート。5 is a flowchart showing processing executed by the diagnostic system in the embodiment. 実施例における撮影ガイダンスの例を示す図。The figure which shows the example of the photography guidance in an Example. 実施例における処理を示すフローチャート。Flowchart showing processing in an example. 実施例における撮像装置の外部仕様を示す図。FIG. 3 is a diagram showing external specifications of an imaging device in an example. 実施例における部位推定結果の例を示す図。The figure which shows the example of a part estimation result in an Example. 実施例における撮像装置の別の外部仕様を示す図。FIG. 7 is a diagram showing another external specification of the imaging device in the example. 実施例における撮像装置のさらに別の外部仕様を示す図。FIG. 7 is a diagram showing still another external specification of the imaging device in the example.

以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図1は、実施例である画像処理装置101を含む画像処理システムの構成を示している。撮像装置102は、被写体(患者の患部)を撮影して可視光画像データを生成し、該画像データをネットワーク103を介して画像処理装置101へ送信する。画像処理装置101は、パーソナルコンピュータやサーバコンピュータ等により構成され、受信した画像データに対して後述する画像処理を実行する。撮像装置102は、電源がONになったと同時にネットワーク103に接続され、ネットワーク103を介して画像処理装置101との通信が可能となる。この通信可能状態は、撮像装置102の電源がOFFされるまで継続する。 FIG. 1 shows the configuration of an image processing system including an image processing apparatus 101 according to an embodiment. The imaging device 102 photographs a subject (affected part of a patient) to generate visible light image data, and transmits the image data to the image processing device 101 via the network 103. The image processing device 101 is constituted by a personal computer, a server computer, or the like, and performs image processing, which will be described later, on received image data. The imaging device 102 is connected to the network 103 as soon as the power is turned on, and communication with the image processing device 101 is enabled via the network 103. This communicable state continues until the power of the imaging device 102 is turned off.

ネットワーク103は、無線または有線よりデータ伝送や各種制御等を行う。ネットワーク103は、Hypertext Transfer Protocol(HTTP)、File Transfer Protocol(FTP)、Picture Transfer Protocol(PTP)、ユニバーサル・シリアル・バス(USB)、Local Area Network(LAN)等の様々な通信プロトコルを用いることができる。 The network 103 performs data transmission, various controls, etc. wirelessly or by wire. The network 103 may use various communication protocols such as Hypertext Transfer Protocol (HTTP), File Transfer Protocol (FTP), Picture Transfer Protocol (PTP), Universal Serial Bus (USB), Local Area Network (LAN), etc. can.

撮像装置102は、通常の単眼カメラでもよいし、ステレオカメラのような複眼カメラであってもよい。複眼カメラにより生成された3次元画像データを画像処理装置101に送信することで、画像処理装置101において疾患の面積や形状等を推定する際の精度を向上させることが可能となる。 The imaging device 102 may be a normal monocular camera or a compound eye camera such as a stereo camera. By transmitting the three-dimensional image data generated by the compound eye camera to the image processing device 101, it becomes possible to improve the accuracy when estimating the area, shape, etc. of a disease in the image processing device 101.

画像処理装置101は、画像処理(画像解析)として、患部の画像データから皮膚疾患の疾病を推定したり、その推定結果からより好適な撮影を行うための撮影条件等の情報を撮像装置102へ送信したりする。撮影条件は、被写体の構図や撮影パラメータ(フォーカス位置、ズーム位置、ISO感度、露出、Tv値、Av値、ホワイトバランス、ストロボ発光、色調整処理、エッジ強調処理等)である。また画像処理装置101は、画像処理として、疾病の重症度等を判定するために必要な画像データが集まったか否かを判断したり、その画像データを解析して患者の重症度合いを判定したりする
図2は、画像処理装置101の構成を示している。画像処理装置101には、図1に示した撮像装置102や他の撮像装置104がネットワーク103を介して接続されている。また画像処理装置101には、液晶ディスプレイパネル等により構成された入出力表示装置201と、キーボード、マウス、タッチパネル、入力操作コントローラおよびジェスチャ入力装置等の各種操作入力を可能行うための操作入力装置202が接続されている。入出力表示装置201と操作入力装置202は、主にユーザインターフェースを構成する。これらのユーザインターフェースを用いることで、画像処理装置101の設定を変更したりプログラムを更新したりすることができる。ユーザインターフェースは、常時、画像処理装置101に接続しておく必要はなく、入出力表示装置201や操作入力装置202が不必要な場合は画像処理装置101から分離しておいてもよい。なお、ユーザインターフェース機能を撮像装置102に設けて、撮像装置102から画像処理装置101に操作入力を行えるようにしてもよい。
As image processing (image analysis), the image processing device 101 estimates a skin disease from the image data of the affected area, and sends information such as imaging conditions for more suitable imaging from the estimation results to the imaging device 102. or send it. The photographing conditions include the composition of the subject and photographing parameters (focus position, zoom position, ISO sensitivity, exposure, Tv value, Av value, white balance, strobe light emission, color adjustment processing, edge enhancement processing, etc.). In addition, the image processing device 101 performs image processing such as determining whether image data necessary for determining the severity of a disease, etc. has been collected, and analyzing the image data to determine the degree of severity of the patient. FIG. 2 shows the configuration of the image processing apparatus 101. The image processing device 101 is connected to the imaging device 102 shown in FIG. 1 and another imaging device 104 via a network 103. The image processing device 101 also includes an input/output display device 201 configured with a liquid crystal display panel, etc., and an operation input device 202 for performing various operation inputs such as a keyboard, a mouse, a touch panel, an input operation controller, and a gesture input device. is connected. The input/output display device 201 and the operation input device 202 mainly constitute a user interface. By using these user interfaces, settings of the image processing apparatus 101 can be changed and programs can be updated. The user interface does not need to be connected to the image processing apparatus 101 at all times, and may be separated from the image processing apparatus 101 if the input/output display device 201 and the operation input device 202 are unnecessary. Note that a user interface function may be provided in the imaging device 102 so that operation input can be performed from the imaging device 102 to the image processing device 101.

また、図2には示していないが、画像処理システムに被写体を照明する照明装置を設けてもよい。照明装置は、ハロゲンランプや発光ダイオード等からの光源を有する。 Although not shown in FIG. 2, the image processing system may be provided with a lighting device that illuminates the subject. The lighting device has a light source such as a halogen lamp or a light emitting diode.

画像処理装置101の内部バス上に配置されたインターフェース(I/F)203を介して撮像装置102、104、入出力表示装置201および操作入力装置202と通信することができる。各インターフェース203は、ネットワークインターフェース、シリアル通信インターフェース等により構成される。 It is possible to communicate with the imaging devices 102 and 104, the input/output display device 201, and the operation input device 202 via an interface (I/F) 203 arranged on the internal bus of the image processing device 101. Each interface 203 is composed of a network interface, a serial communication interface, and the like.

画像処理装置101は、汎用マイクロプロセッサとして構成されたCPUや画像処理プロセッサ等により構成された処理手段としての演算部204を有する。演算部204は、内部バス(データバス、アドレスバス、他の制御線等)を介して記憶部205と接続されている。 The image processing device 101 includes an arithmetic unit 204 as a processing means configured by a CPU configured as a general-purpose microprocessor, an image processing processor, or the like. The calculation unit 204 is connected to the storage unit 205 via an internal bus (data bus, address bus, other control lines, etc.).

記憶部205は、Read only memory(ROM)やRandom Access Memory(RAM)およびElectrically Erasable Programmable Read-Only Memory(EEPROM)等の不揮発メモリデバイスや外部記憶装置上のファイル領域や仮想記憶領域等によって構成される。外部記憶装置は、半導体素子やハードディスク等により構成され、インターフェース203に接続される。また、記憶部205が有する処理データ保存領域206は、RAM領域や外部記憶装置のファイル領域または仮想記憶領域等によって構成され、処理対象の画像データを一時的に保存したり、画像処理の設定パラメータを記憶したりする。さらに記憶部205には、画像処理を実行するための画像処理プログラム207が記憶されている。画像処理プログラム207は、操作入力装置202等を通じた各種操作入力に応じて、画像処理の設定を変更したり画像処理を実行したりする。また、変更された設定を処理データ保存領域206に保存したり、処理データ保存領域206から削除したりすることができる。 The storage unit 205 is composed of nonvolatile memory devices such as Read only memory (ROM), Random Access Memory (RAM), and Electrically Erasable Programmable Read-Only Memory (EEPROM), file areas on external storage devices, virtual storage areas, etc. Ru. The external storage device is composed of a semiconductor element, a hard disk, etc., and is connected to the interface 203. A processing data storage area 206 included in the storage unit 205 is configured by a RAM area, a file area of an external storage device, a virtual storage area, etc., and is used to temporarily store image data to be processed and set parameters for image processing. to remember. Furthermore, the storage unit 205 stores an image processing program 207 for executing image processing. The image processing program 207 changes image processing settings and executes image processing in response to various operation inputs through the operation input device 202 and the like. Further, the changed settings can be saved in the processed data storage area 206 or deleted from the processed data storage area 206.

画像処理プログラム207は、画像処理を実行する画像処理部208と、操作入力装置202等を通じた各種操作入力に応じて画像処理部208の設定や動作を決定する画像処理設定部210とを有する。 The image processing program 207 includes an image processing unit 208 that executes image processing, and an image processing setting unit 210 that determines settings and operations of the image processing unit 208 in response to various operation inputs through the operation input device 202 and the like.

画像処理部208は、画像処理ライブラリ209に実装された画像処理を実行するためのプログラム本体である。画像処理ライブラリ209は、静的または動的にリンクされるライブラリとして記憶部205に設けられている。画像処理ライブラリ209に実装される画像処理は、機械学習モデルを用いて推論処理を行うものや、画像データの輝度、色、色相、勾配等の情報を用いた解析処理や推論処理を行うものであってもよい。さらに、画像データの濃淡分布や輝度勾配等の形状特徴情報による特徴マッチングを用いて推論処理を行うものであってもよい。例えば、輝度勾配が一定以上の画素をエッジとして抽出し、そのエッジの位置、重心および傾き等に基づくルールベースの推論処理を行うものであってもよい。 The image processing unit 208 is a main body of a program for executing image processing implemented in the image processing library 209. The image processing library 209 is provided in the storage unit 205 as a statically or dynamically linked library. The image processing implemented in the image processing library 209 includes inference processing using a machine learning model, and analysis processing and inference processing using information such as brightness, color, hue, and gradient of image data. There may be. Furthermore, inference processing may be performed using feature matching based on shape feature information such as the gradation distribution and brightness gradient of image data. For example, pixels with a brightness gradient above a certain level may be extracted as edges, and rule-based inference processing may be performed based on the position, center of gravity, inclination, etc. of the edges.

さらに画像処理プログラム207は、各種機能に対応する機能部(入出力ルーチン)として、外部デバイス制御部211、保存データ生成部212、指示受付部213、一時記憶部214、表示画面生成部215、保存データ出力部216および操作受付部217を含む。 Furthermore, the image processing program 207 includes functional units (input/output routines) corresponding to various functions: an external device control unit 211, a storage data generation unit 212, an instruction reception unit 213, a temporary storage unit 214, a display screen generation unit 215, a storage It includes a data output section 216 and an operation reception section 217.

外部デバイス制御部211は、撮像装置102、104の撮影条件を設定したり変更したりする。保存データ生成部212は、撮像装置102、104で生成された画像データから一時的または永続的な保存用データを生成する。指示受付部213および操作受付部217は、操作入力装置202等を通じた指示や操作を受け付ける。一時記憶214は、RAM領域や演算部204のキャッシュ領域等で構成される。表示画面生成215は、入出力表示装置201や撮像装置102、104のモニタに表示される表示用画像データを生成する。これらの機能部は、アプリケーション(ユーティリティ)プログラムや静的または動的にリンクされるライブラリとして構成されたサブルーチン等の形態で記憶部205に実装される。 The external device control unit 211 sets or changes imaging conditions for the imaging devices 102 and 104. The storage data generation unit 212 generates temporary or permanent storage data from the image data generated by the imaging devices 102 and 104. The instruction accepting unit 213 and the operation accepting unit 217 accept instructions and operations through the operation input device 202 and the like. The temporary storage 214 includes a RAM area, a cache area of the calculation unit 204, and the like. Display screen generation 215 generates display image data to be displayed on the monitors of the input/output display device 201 and the imaging devices 102 and 104. These functional units are implemented in the storage unit 205 in the form of application (utility) programs, subroutines configured as statically or dynamically linked libraries, and the like.

画像処理装置101は、画像処理プログラム207を実行することにより、撮像装置102、104を制御したり、演算部204を利用して画像処理を実行したりすることができる。演算部204は、撮像装置102や操作入力装置202からの指示や操作に応じて、画像処理プログラム207の画像処理部208、画像処理ライブラリ209および各機能部を呼び出して画像処理を行う。そして、画像処理の結果を入出力表示装置201、撮像装置102、104またはデータ保存領域206に出力する。また演算部204は、、画像処理の結果を外部記憶装置に蓄積(ロギング)してもよい。 By executing the image processing program 207, the image processing apparatus 101 can control the imaging apparatuses 102 and 104 and perform image processing using the calculation unit 204. The calculation unit 204 performs image processing by calling the image processing unit 208 of the image processing program 207, the image processing library 209, and each functional unit in response to instructions and operations from the imaging device 102 and the operation input device 202. The image processing result is then output to the input/output display device 201, the imaging devices 102 and 104, or the data storage area 206. The calculation unit 204 may also store (log) the results of image processing in an external storage device.

なお、本実施例では、画像処理装置101を撮像装置(102、104)と別体として構成しているが、画像処理装置は撮像装置に内蔵されてもよい。また、複数のコンピュータネットワークを相互接続したインターネット・プロトコル・スイートを使用して、遠隔のサーバ装置として画像処理装置101が提供されてもよい。 Note that in this embodiment, the image processing device 101 is configured separately from the imaging device (102, 104), but the image processing device may be built into the imaging device. The image processing device 101 may also be provided as a remote server device using an Internet protocol suite that interconnects multiple computer networks.

図3は、撮像装置102、104としてのデジタルスチルカメラの構成を示している。デジタルスチルカメラは、プログラムを実行することにより撮影処理を行う。300は撮像部であり、CCDセンサやCMOSセンサ等の固体撮像素子を用いて光学像(被写体像)を撮影して画像データを生成する。CPU301は、デジタルスチルカメラ全体の動作を制御する。ROM302は、電源ON時に実行される初期処理や基本的な入出力処理や撮影処理を実行するプログラムを記憶している。 FIG. 3 shows the configuration of a digital still camera as the imaging devices 102 and 104. A digital still camera performs photographing processing by executing a program. An imaging unit 300 captures an optical image (subject image) using a solid-state imaging device such as a CCD sensor or a CMOS sensor to generate image data. The CPU 301 controls the overall operation of the digital still camera. The ROM 302 stores programs that execute initial processing, basic input/output processing, and photographing processing that are executed when the power is turned on.

RAM303は、CPU301のメインメモリとして機能する。RAM303には、ROM302に記憶されたプログラムがロードされる。またRAM303は、CPU301が各種処理を実行する際のワークエリアを提供する。 RAM 303 functions as the main memory of CPU 301. A program stored in the ROM 302 is loaded into the RAM 303 . Further, the RAM 303 provides a work area when the CPU 301 executes various processes.

表示装置304は、液晶ディスプレイパネル等により構成される背面モニタであり、撮像部300により生成された画像データや撮影に関する各種情報を表示する。入力装置305は、撮影者が各種操作を行うボタンやダイヤル等の操作部材を有し、操作に応じた信号をCPU301に出力する。操作部材には、撮影を指示する撮影ボタン、撮影に関する各種設定を行うためのダイヤルや表示装置304に設けられたタッチパネル等が含まれる。 The display device 304 is a rear monitor configured with a liquid crystal display panel or the like, and displays image data generated by the imaging unit 300 and various information regarding photography. The input device 305 has operation members such as buttons and dials for various operations by the photographer, and outputs signals corresponding to the operations to the CPU 301. The operating members include a shooting button for instructing shooting, a dial for making various settings related to shooting, a touch panel provided on the display device 304, and the like.

メディアドライブ306は、着脱可能な記憶媒体に画像データを記憶したり、記憶された画像データを読み出したりする。インターフェース307は、通信回線309を介してネットワーク103に接続される。CPU301は、インターフェース307を通じて画像処理装置101と通信を行うことができる。システムバス(アドレスバス、データバスおよび制御バス)308は、上述した構成要素間での信号やデータの送受信を行う。 The media drive 306 stores image data in a removable storage medium and reads stored image data. Interface 307 is connected to network 103 via communication line 309. The CPU 301 can communicate with the image processing apparatus 101 through the interface 307. A system bus (address bus, data bus, and control bus) 308 transmits and receives signals and data between the above-mentioned components.

CPU301は、撮像部300により生成された画像データおよびその画像データに関連するメタデータ(撮影時刻、撮影位置、画像フォーマット、撮影パラメータ等)をRAM303に一旦記憶する。画像処理部311は、RAM303に記憶された画像データを、人の視覚特性に合った画像データや3次元データを含んだ画像データにするための画像変換処理を行う。なお、この画像変換処理に対する画像処理部311への負荷が高ければ、画像変換処理前の生画像データを画像処理装置101にダウンロードして、画像処理装置101で上記画像変換処理を行うようにしてもよい。ファイル生成部312は、画像変換処理前の生画像データ、動画データおよび静止画データのフィイルを生成する。 The CPU 301 temporarily stores image data generated by the imaging unit 300 and metadata related to the image data (shooting time, shooting position, image format, shooting parameters, etc.) in the RAM 303. The image processing unit 311 performs image conversion processing to convert the image data stored in the RAM 303 into image data that matches human visual characteristics and image data that includes three-dimensional data. Note that if the load on the image processing unit 311 for this image conversion process is high, the raw image data before the image conversion process is downloaded to the image processing apparatus 101, and the image processing apparatus 101 performs the above image conversion process. Good too. The file generation unit 312 generates files of raw image data, moving image data, and still image data before image conversion processing.

図4は、本実施例における患者の皮膚疾患、皮膚疾患ごとの代表的な評価方法および対処方法の例を示している。この図では、皮膚疾患401の種類として、熱傷407、アトピー性皮膚炎408および乾癬409を例示している。評価方法402には、各皮膚疾患に対応した代表的な重症度を評価する方法を例示している。面積推定方法403には、各皮膚疾患の面積を推定するための代表的な方法を例示している。評価指標404には、各皮膚疾患の重症度を評価するための代表的な指標を例示している。面積測定部位405には、各皮膚疾患の面積を測定する代表的な身体(人体)の部位を例示している。対処方法406には、各皮膚疾患の重症度合いに応じて推奨される代表的な対処方法を例示している。 FIG. 4 shows examples of skin diseases of patients and typical evaluation methods and treatment methods for each skin disease in this example. In this figure, burns 407, atopic dermatitis 408, and psoriasis 409 are illustrated as types of skin diseases 401. The evaluation method 402 exemplifies a method for evaluating the typical severity of each skin disease. Area estimation method 403 exemplifies a typical method for estimating the area of each skin disease. The evaluation index 404 exemplifies typical indexes for evaluating the severity of each skin disease. The area measurement site 405 is a typical body (human body) site where the area of each skin disease is measured. The treatment method 406 shows typical treatment methods recommended depending on the degree of severity of each skin disease.

図5のフローチャートは、図1の画像処理装置101(演算部204)が画像処理プログラム207に従って実行する基本的な画像処理(画像処理方法)の流れを示している。ここでは、撮像装置102に撮影を行わせる場合について説明する。演算部204は、推定手段、決定手段、評価手段およびガイド手段として機能する。 The flowchart in FIG. 5 shows the flow of basic image processing (image processing method) executed by the image processing apparatus 101 (arithmetic unit 204) in FIG. 1 according to the image processing program 207. Here, a case will be described in which the imaging device 102 is caused to take an image. The calculation unit 204 functions as an estimation means, a determination means, an evaluation means, and a guide means.

ステップS501では、画像処理装置101は、撮像装置102が撮影を行って画像データを生成すると、該画像データをダウンロードする。 In step S501, when the imaging device 102 performs imaging and generates image data, the image processing device 101 downloads the image data.

次にステップS502では、画像処理装置101は、ダウンロードされた画像データに対して、皮膚疾患の検出や皮膚疾患の種類の推定を行うための画像処理(画像解析)を行う。画像解析では、機械学習モデルを用いて皮膚疾患の検出/種類推定を行ったり、画像データの輝度、色、色相、勾配等の情報を用いて検出/種類推定を行ったり、濃淡分布や輝度勾配等の形状特徴情報による特徴マッチングを用いて検出/種類推定を行ったりする。例えば、輝度勾配が一定以上の画素をエッジとして抽出し、そのエッジの位置、重心および傾き等に基づくルールベースの検出/種類推定を行う。 Next, in step S502, the image processing apparatus 101 performs image processing (image analysis) on the downloaded image data to detect a skin disease and estimate the type of skin disease. In image analysis, we use machine learning models to detect and estimate the type of skin diseases, and use information such as brightness, color, hue, and gradient of image data to detect and estimate the type of skin disease. Detection/type estimation is performed using feature matching using shape feature information such as. For example, pixels with a brightness gradient above a certain level are extracted as edges, and rule-based detection/type estimation is performed based on the position, center of gravity, inclination, etc. of the edges.

次にステップS503では、画像処理装置101は、ステップS502にて皮膚疾患の種類が推定できたか否かを判断し、推定できた場合はステップS504に進む。推定できなければ、画像処理装置101は、ステップS505に進んで再撮影ガイダンスを出力した後、ステップS501に戻る。再撮影ガイダンスの詳細については後述する。 Next, in step S503, the image processing apparatus 101 determines whether or not the type of skin disease could be estimated in step S502, and if the type of skin disease could be estimated, the process proceeds to step S504. If the estimation cannot be made, the image processing apparatus 101 proceeds to step S505, outputs re-imaging guidance, and then returns to step S501. Details of the reshoot guidance will be described later.

ステップS504では、画像処理装置101は、推定された皮膚疾患401(407~408)の種類に応じた評価方法402を決定する。 In step S504, the image processing device 101 determines the evaluation method 402 according to the type of the estimated skin disease 401 (407-408).

次にステップS506では、画像処理装置101は、画像データから患者810の身体を検出する。ここでは上述した皮膚疾患の検出/種類を推定する画像解析と同様の画像解析により身体を検出する。 Next, in step S506, the image processing apparatus 101 detects the body of the patient 810 from the image data. Here, the body is detected by image analysis similar to the image analysis for detecting and estimating the type of skin disease described above.

次にステップS507では、画像処理装置101は、検出された身体の形状や大きさ等から全身が撮影できたか否かを判断し、全身が撮影できていればステップS508に進む。また、撮像装置を1台しか使用しておらず全身の撮影ができていなかったり身体の局所しか撮影されていなかったりした場合は、ステップS509に進んで撮影ガイダンスを出力し、ステップS510にて追加撮影がなされるとステップS506に戻る。なお、前面あるいは背面等の半身しか撮影されていなかったとしても、皮膚疾患が撮影された半身にしか存在しない場合は、撮影者の指示に応じてステップS508に進んでもよい。 Next, in step S507, the image processing apparatus 101 determines whether the whole body has been photographed based on the detected shape and size of the body, and if the whole body has been photographed, the process advances to step S508. Furthermore, if only one imaging device is used and the whole body cannot be photographed or only a local part of the body can be photographed, the process proceeds to step S509 to output photographing guidance, and additional information is added in step S510. Once photographing is completed, the process returns to step S506. Note that even if only half the body, such as the front or back, is photographed, if the skin disease exists only on the photographed half of the body, the process may proceed to step S508 in accordance with instructions from the photographer.

ステップS508では、画像処理装置101は、これまでの撮影により生成された各画像データ内での身体の部位を推定する。部位の推定も、上述した皮膚疾患の検出/種類を推定する画像解析と同様の画像解析により行う。 In step S508, the image processing apparatus 101 estimates the body part in each image data generated by the previous imaging. Estimation of the site is also performed by image analysis similar to the image analysis for detecting/estimating the type of skin disease described above.

なお、画像データ内での顔を検出して患者の年齢を推定してもよい。年齢が推定できると、皮膚疾患の重症度合いを年齢を考慮して評価することができるので、皮膚疾患の重症度の推定結果の精度が向上する。また、ステップS501やステップS509での撮影が繰り返される間に表示用画像データであるライブビュー画像データ(動画データ)を取得できた場合は、そのライブビュー画像データも補間情報として利用して部位推定を行ってもよい。これにより、部位推定の精度が向上する。 Note that the patient's age may be estimated by detecting a face within the image data. If the age can be estimated, the degree of severity of the skin disease can be evaluated in consideration of the age, which improves the accuracy of the estimation result of the severity of the skin disease. In addition, if live view image data (video data), which is image data for display, can be obtained while the imaging in step S501 or step S509 is repeated, the live view image data is also used as interpolation information to estimate the body part. You may do so. This improves the accuracy of part estimation.

次にステップS511では、画像処理装置101は、皮膚疾患の領域や重症度を示す指標を計測するための画像解析を行う。ここで行う画像解析では、皮膚疾患の領域の面積や重症度と関連付けた計測を行う。具体的には、前述した皮膚疾患の検出/種類を推定する画像解析と同様の画像解析を行うとともに、画像データ上での面積、撮像装置の焦点距離および3次元データから得られる面積等を用いて実面積を計測する。また、複数回の撮影で得られた複数の画像データにおける構図が重複するおそれがある場合は、これら複数の画像データの画像合成を先に行って構図の重複の影響を受けないようにしてもよい。さらに画像データから部位を推定し、重複した部位の画像領域を検出した後に除算等を行ってもよい。 Next, in step S511, the image processing apparatus 101 performs image analysis to measure an index indicating the area and severity of the skin disease. In the image analysis performed here, measurements are made in relation to the area and severity of the skin disease area. Specifically, in addition to performing image analysis similar to the image analysis for detecting and estimating the type of skin disease described above, the method uses the area on the image data, the focal length of the imaging device, the area obtained from 3D data, etc. Measure the actual area. In addition, if there is a risk that the compositions of multiple image data obtained from multiple shots may overlap, it is possible to combine these multiple image data first to avoid being affected by the overlap of compositions. good. Furthermore, division or the like may be performed after estimating the part from the image data and detecting the image area of the overlapping part.

次にステップS512では、画像処理装置101は、ステップS511で行った画像解析の成否を判定し、画像解析が成功していればステップS513にて画像解析の結果に応じて推奨される対処方法406を出力する。そして本処理を終了する。一方、画像解析が失敗した場合には、その画像解析結果をフィードバックしてステップS514にて撮影ガイダンスを出力し、ステップS515にて追加撮影が行われると、ステップS506に戻る。 Next, in step S512, the image processing apparatus 101 determines the success or failure of the image analysis performed in step S511, and if the image analysis is successful, in step S513, the recommended countermeasure 406 is carried out according to the result of the image analysis. Output. Then, this process ends. On the other hand, if the image analysis fails, the image analysis result is fed back and imaging guidance is output in step S514, and when additional imaging is performed in step S515, the process returns to step S506.

図6は、撮影ガイダンスの種類601と具体的な撮影ガイダンスの内容602の例を示している。また、推奨される対処方法に対応した対処ガイダンス607と具体的な対処ガイダンスの内容も併せて示している。 FIG. 6 shows an example of types 601 of shooting guidance and specific contents 602 of shooting guidance. Further, a handling guidance 607 corresponding to the recommended handling method and the contents of the specific handling guidance are also shown.

撮影ガイダンスには、一連の撮影における複数の段階のそれぞれに応じた種類の撮影ガイダンスがある。すなわち、図5のステップS501での初期撮影603に対する撮影ガイダンス、ステップS505での再撮影ガイダンス、ステップS509での撮影ガイダンス(丸囲み1)およびステップS509での撮影ガイダンス(丸囲み2)がある。これらの撮影ガイダンスは、主として、患者の身体のうち撮影対象を指示するガイダンス、再撮影を指示するガイダンスおよび撮影パラメータの変更を指示するガイダンスを含む。 There are different types of imaging guidance corresponding to each of a plurality of stages in a series of imaging. That is, there is imaging guidance for the initial imaging 603 in step S501 in FIG. 5, re-imaging guidance in step S505, imaging guidance (circled 1) in step S509, and imaging guidance (circled 2) in step S509. These imaging guidances mainly include guidance for instructing a subject to be imaged within the patient's body, guidance for instructing reimaging, and guidance for instructing changes in imaging parameters.

また、対処ガイダンスには、主として、治療方法(外用薬、内服薬、光線治療および注射治療等)を示すガイダンスや、通院または入院(さらには集中治療)をすすめるガイダンスを含む。 Further, the coping guidance mainly includes guidance indicating treatment methods (external medicine, oral medicine, phototherapy, injection therapy, etc.) and guidance recommending hospital visits or hospitalization (even intensive treatment).

図8は、図3に示した撮像装置102の背面モニタ808(表示装置304)に表示される画像を示している。撮像装置102の電源がOFFの状態で撮影者が電源ボタン801を操作すると、撮像装置102の電源がONになり、CPU301は背面モニタ808にライブビュー画像を表示させる。撮影者が撮影ボタン802を操作すると、CPU301は撮像部300に記録用の静止画データまたは動画データを生成させ、画像処理部311に画像変換処理を行わせる。 FIG. 8 shows an image displayed on the rear monitor 808 (display device 304) of the imaging device 102 shown in FIG. 3. When the photographer operates the power button 801 while the power of the imaging device 102 is OFF, the power of the imaging device 102 is turned ON, and the CPU 301 causes the rear monitor 808 to display a live view image. When the photographer operates the shooting button 802, the CPU 301 causes the imaging unit 300 to generate still image data or video data for recording, and causes the image processing unit 311 to perform image conversion processing.

背面モニタ808に不図示のメニュー項目が表示されているときに撮影者が入力装置305に含まれる上ボタン803、右ボタン904、下ボタン805および左ボタン806のいずれかを操作すると、CPU201は、選択対象のメニュー項目を切り替える。さらに撮影者が決定ボタン807を操作すると、CPU201は、選択メニュー項目を決定してそのメニュー項目での詳細設定を可能とし、設定情報をRAM303に保持するとともに撮像装置102の設定を切り替える。なお、背面モニタ808にタッチパネルが設けられている場合は、CPU201は、背面モニタ808への撮影者のタッチを検出することで上記ボタン803~807が操作された場合と同じ動作を行う。 When the photographer operates any of the upper button 803, right button 904, lower button 805, and left button 806 included in the input device 305 while a menu item (not shown) is displayed on the rear monitor 808, the CPU 201 Toggle the selected menu item. Further, when the photographer operates the determination button 807, the CPU 201 determines the selected menu item, enables detailed settings for that menu item, holds the setting information in the RAM 303, and switches the settings of the imaging apparatus 102. Note that if the rear monitor 808 is provided with a touch panel, the CPU 201 performs the same operation as when the buttons 803 to 807 are operated by detecting the photographer's touch on the rear monitor 808.

背面モニタ808に表示されている画像には、患者(被写体)810と皮膚疾患(例えば熱傷)の領域811、812が写っている。また、画像内には、ガイダンス表示領域809が設けられている。ガイダンス表示領域809には、図6に示した撮影ガイダンスの内容を示す文字が表示される。表示される撮影ガイダンスは、文字でなくてもよく、全身や手のひら等を示すアイコンであってもよいし、文字とアイコンとの組み合わせでもよい。このような撮影ガイダンスを表示することで、撮影者に必要な撮影領域や構図を理解し易く提示することが可能となる。 The image displayed on the rear monitor 808 shows a patient (subject) 810 and regions 811 and 812 of skin diseases (for example, burns). Further, a guidance display area 809 is provided within the image. In the guidance display area 809, characters indicating the contents of the photographing guidance shown in FIG. 6 are displayed. The displayed shooting guidance does not have to be text, and may be an icon showing the whole body, the palm of the hand, or a combination of text and icons. By displaying such shooting guidance, it becomes possible to present the necessary shooting area and composition to the photographer in an easy-to-understand manner.

図7のフローチャートは、図5に示した画像処理においてステップS502での皮膚疾患の推定結果が熱傷であった場合の処理の流れを示している。 The flowchart in FIG. 7 shows the flow of processing when the skin disease estimation result in step S502 is a burn in the image processing shown in FIG.

ステップS501で撮像装置102が患者810を撮影して画像データを生成すると、画像処理装置101は該画像データをダウンロード(取得)する。 When the imaging device 102 photographs the patient 810 and generates image data in step S501, the image processing device 101 downloads (acquires) the image data.

ステップS502では、画像処理装置101は、画像データを画像解析して皮膚疾患の領域811、812を検出し、該皮膚疾患の種類が熱傷と推定する。 In step S502, the image processing apparatus 101 analyzes the image data to detect skin disease regions 811 and 812, and estimates that the type of skin disease is a burn.

ステップS503での判断を経てステップS504に進んだ画像処理装置101は、図4に示した熱傷407に対する%TBSA(Total Body Size Area)により重症度を評価することを決定する。%TBSAは、身体の全体表面積に対する熱傷面積の割合(パーセンテージ)である。 The image processing apparatus 101, which has proceeded to step S504 after making the determination in step S503, determines to evaluate the severity of the burn injury 407 shown in FIG. 4 using % TBSA (Total Body Size Area). %TBSA is the percentage of burn area to total body surface area.

ステップS506では、画像処理装置101は、画像データから患者810の身体を検出する。ここで患者810の全身が撮影されていれば、画像処理装置101は、ステップS508に進んで患者810の身体の部位を推定する。 In step S506, the image processing apparatus 101 detects the body of the patient 810 from the image data. If the whole body of the patient 810 has been imaged here, the image processing apparatus 101 proceeds to step S508 and estimates the body part of the patient 810.

図9は、部位の推定結果の例を示している。一般に、身体の部位の推定では、実態の骨格が正しく解析できるほど部位の粒度が細かく解析される。例えば、推定結果901では全身が14の部位(黒丸間の部分)に分割されている。一方、他の推定結果902、903では、画像の分解能、撮影構図、学習モデルの性能および患者の着衣の形状等の条件が良くなくて十分な解析が行われず、8部位や6部位に分割されているにすぎない。また、条件がさらに悪化して部位推定の信頼度が低くなると、推定結果904のようにエラーが出力される。 FIG. 9 shows an example of part estimation results. In general, when estimating body parts, the granularity of parts is analyzed in such detail that the actual skeleton can be accurately analyzed. For example, in the estimation result 901, the whole body is divided into 14 parts (the parts between the black circles). On the other hand, in other estimation results 902 and 903, sufficient analysis was not performed due to poor conditions such as image resolution, photographic composition, performance of the learning model, and shape of the patient's clothing, and the results were divided into 8 or 6 parts. It's just that. Furthermore, if the conditions deteriorate further and the reliability of part estimation becomes lower, an error is output as in the estimation result 904.

またステップS508では、画像処理装置101は、前述したように画像データから顔検出を行って患者810の年齢を推定し、年齢の推定結果に応じて皮膚疾患の重症度を補正する。ここでは年齢が25歳前後に推定されたとして、ステップS701以降にて成人に対する重症度評価を行う。 In step S508, the image processing device 101 estimates the age of the patient 810 by detecting a face from the image data as described above, and corrects the severity of the skin disease according to the age estimation result. Here, assuming that the age is estimated to be around 25 years old, the severity evaluation for adults is performed from step S701 onwards.

ステップS701では、画像処理装置101は、ステップS508での部位推定での粒度(分割部位数)を確認し、粒度に応じて評価方法を決定する。例えば粒度が図9の推定結果901のように十分であれば、ステップS702において、大腿、下腿等の細かな部位推定が必要な図4に示した9の法則やLundとBrowderの法則を用いて評価すると決定する。9の法則は、頭部、上肢(左右)、下肢(左右下腿・左右大腿)、体幹(前胸部・腹部・胸背部・腰背部臀部)の11カ所をそれぞれ9%とし、陰部を1%として熱傷面積を算出する方法である。LundとBrowderの法則は、9の法則よりさらに体幹を細かく分割して詳細に熱傷面積を算出する方法である。 In step S701, the image processing apparatus 101 checks the granularity (number of divided parts) in the part estimation in step S508, and determines an evaluation method according to the granularity. For example, if the granularity is sufficient as in the estimation result 901 of FIG. 9, in step S702, the law of 9 or Lund and Browder's law shown in FIG. Decide to evaluate. The rule of nines states that the 11 parts of the head, upper limbs (left and right), lower limbs (left and right lower legs, left and right thighs), and trunk (front chest, abdomen, chest back, waist and buttocks) are each 9%, and the genitals are 1%. This is a method to calculate the burn area. Lund and Browder's law is a method for calculating the burn area in more detail by dividing the trunk into smaller pieces than the rule of nines.

また、粒度が推定結果903のように十分でない場合は、ステップS703において、5の法則を用いて評価すると決定する。5の法則は、幼児、小児および成人のそれぞれに対して、頭部、腕部、脚部および胸部のそれぞれの熱傷面積を評価する方法である。成人の場合は、前胸部または両足での熱傷面積については、全体面積の5%を加算して評価する。 Furthermore, if the particle size is not sufficient as in the estimation result 903, it is determined in step S703 that the evaluation is to be performed using the rule of five. The rule of fives is a method for evaluating the burn areas of the head, arms, legs, and chest for infants, children, and adults. For adults, the burn area on the anterior chest or both legs is evaluated by adding 5% of the total area.

さらに推定結果904のように部位推定が行えなかった場合や全身を撮影する構図が難しい場合には、ステップS704において、手掌法を用いて評価すると決定する。手掌法は、手のひらを全身の1%と考える簡易的な評価方法であり、図10に示すように手のひら1001を撮影する。手掌法では、患部面積の推定精度は落ちる可能性はあるが、撮影が簡易化されるため、迅速に重症度を評価することが可能となる。 Further, if the body part cannot be estimated as shown in the estimation result 904 or if the composition for photographing the whole body is difficult, it is determined in step S704 that the evaluation will be performed using the palmar method. The palmar method is a simple evaluation method that considers the palm as 1% of the whole body, and the palm 1001 is photographed as shown in FIG. Although the palmar method may reduce the accuracy of estimating the area of the affected area, it simplifies imaging and makes it possible to quickly evaluate the severity.

ステップS704では、画像処理装置101は、ステップS508で推定された各部位の画像に対して画像解析を行い、熱傷深度I~IIIの領域とそれらの面積割合を推定する。 In step S704, the image processing apparatus 101 performs image analysis on the image of each part estimated in step S508, and estimates regions of burn depths I to III and their area ratios.

ステップS512では、画像処理装置101は、熱傷の領域と深度の推定が成功したか否かを判断する。一部の患部領域がうまく解析できない場合等、熱傷面積/深度の推定が十分に成功していない場合には、ステップS514にて撮影ガイダンスにより撮影パラメータを変更して追加撮影を行うことを撮影者に促す。そして、ステップS15での追加撮影により得られた画像データに対して再度ステップS506からの処理を行う。 In step S512, the image processing apparatus 101 determines whether the estimation of the burn area and depth has been successful. If the estimation of the burn area/depth is not sufficiently successful, such as when some affected areas cannot be analyzed well, the photographer uses the imaging guidance in step S514 to instruct the photographer to change the imaging parameters and perform additional imaging. urge. Then, the processing from step S506 is performed again on the image data obtained by the additional photographing in step S15.

ステップS512で熱傷の面積/深度の推定が成功した場合は、画像処理装置101は、ステップS513に進み、熱傷の位置、面積および深度に応じて推奨される対処方法を図11に示すようにガイダンス表示領域809に表示する。 If the area/depth of the burn is successfully estimated in step S512, the image processing apparatus 101 proceeds to step S513, and provides guidance on the recommended treatment method according to the position, area, and depth of the burn, as shown in FIG. It is displayed in the display area 809.

図11に示す画像内には、患者810および熱傷の領域811、812とともに、患者と熱傷の情報1101が表示されている。ここでは、皮膚疾患が熱傷であり、5の法則で評価したこと、患者は推定年齢が25歳前後の成人であること、重症度が重症と評価されたことが表示されている。ガイダンス表示領域809には、推奨される対処方法として、救急センターでの集中治療が表示されている。 In the image shown in FIG. 11, patient 810 and burn areas 811 and 812 as well as patient and burn information 1101 are displayed. Here, it is displayed that the skin disease is a burn and was evaluated using the rule of five, that the patient is an adult estimated to be around 25 years old, and that the severity has been evaluated as severe. The guidance display area 809 displays intensive treatment at an emergency center as a recommended treatment method.

表示された患者の推定年齢が既知の年齢と大きく異なっていた場合には、ボタン803~807やタッチパネルを用いて年齢を修正し、画像処理装置101に再評価を行わせてもよい。 If the displayed estimated age of the patient is significantly different from the known age, the age may be corrected using the buttons 803 to 807 or the touch panel, and the image processing device 101 may perform re-evaluation.

以上説明したように本実施例の画像処理装置101は、患者を撮影して得られた画像データに基づいて皮膚疾患の種類を推定するだけでなく、推定された種類に応じて皮膚疾患の重症度の評価に必要な画像データを取得するための撮影ガイダンスを出力(提示)する。このため、撮影者が皮膚疾患にあまり知見がない場合でも、皮膚疾患の画像解析に必要な画像データを効率の良い撮影で取得(収集)することが可能になる。また画像処理装置101は、収集した画像データに対する画像解析を行って皮膚疾患の重症度を評価して適切な対処方法を示す対処ガイダンスを提示する。これにより、専門的な救急隊員や医師が存在しない現場においても、提示された対処方法を参考にしてより適切な対処方法を判断することができる。 As explained above, the image processing apparatus 101 of this embodiment not only estimates the type of skin disease based on image data obtained by photographing a patient, but also estimates the severity of the skin disease according to the estimated type. Outputs (presents) imaging guidance for acquiring the image data necessary for evaluating the degree of injury. Therefore, even if the photographer has little knowledge of skin diseases, it is possible to acquire (collect) image data necessary for image analysis of skin diseases through efficient imaging. The image processing device 101 also performs image analysis on the collected image data, evaluates the severity of the skin disease, and presents treatment guidance indicating an appropriate treatment method. As a result, even at sites where specialized emergency personnel or doctors are not available, it is possible to determine a more appropriate response method by referring to the presented response methods.

なお、上記実施例では、撮影ガイダンスと対処ガイダンスの両方を出力する場合について説明したが、撮影ガイダンスと対処ガイダンスのうち少なくとも一方を出力できればよい。 In the above embodiment, a case has been described in which both the photographing guidance and the countermeasure guidance are output, but it is sufficient that at least one of the photographing guidance and the countermeasure guidance can be output.

また、画像処理装置101は、画像データから患者の年齢や皮膚疾患の部位を推定するので、年列や部位の推定結果を用いてより精度良く重症度を評価することができる。 Furthermore, since the image processing device 101 estimates the patient's age and the site of the skin disease from the image data, it is possible to evaluate the severity with higher accuracy using the year series and the site estimation results.

また、画像処理装置101は、1つの画像データに患部全体が含まれていない場合に複数の画像データを合成して解析することができる。このため、オクルージョンが存在したり患部が身体の表裏に及んだりする場合等において、皮膚疾患の重症度を良好に評価することができる。 Further, the image processing apparatus 101 can combine and analyze a plurality of image data when one image data does not include the entire affected area. Therefore, the severity of the skin disease can be evaluated favorably in cases where occlusion exists or the affected area extends to the front and back of the body.

また、画像処理装置101は、皮膚疾患が熱傷である場合に熱傷面積割合(%TBSA)を推定する方法として、9の法則、5の法則、手掌法およびLundとBrowderの法則等の複数の方法を選択できる。このため、画像データの解析により得られる部位の粒度や画像データの数等に応じたより好適な重症度評価方法を選択することができる。 In addition, the image processing device 101 uses a plurality of methods, such as the rule of 9, the rule of 5, the palm method, and the Lund and Browder law, as a method for estimating the burn area percentage (%TBSA) when the skin disease is a burn. can be selected. Therefore, it is possible to select a more suitable severity evaluation method according to the granularity of the part, the number of image data, etc. obtained by analyzing the image data.

また、画像処理装置101は、皮膚疾患がアトピー性皮膚炎である場合には、疾患の評価方法として、疾患部位の面積と兆候をスコア化するEASI(Eczema Area and Severity Index:湿疹面積と重症度の指数)を用いて重症度を評価する。このため、画像データの解析により得られた部位の粒度に応じた好適な重症度評価方法を用いることができる。また、画像データからそれぞれ推定した、アトピー性皮膚炎の部位の面積と該部位の兆候に応じて重症度を評価する。このため、重症度を精度良く評価することができる。 In addition, when the skin disease is atopic dermatitis, the image processing device 101 uses an EASI (Eczema Area and Severity Index) that scores the area and symptoms of the disease site as a disease evaluation method. Severity is assessed using the index of Therefore, it is possible to use a suitable severity evaluation method according to the granularity of the site obtained by analyzing the image data. Furthermore, the severity is evaluated according to the area of the atopic dermatitis site and the symptoms of the site, which are estimated from the image data. Therefore, the severity can be evaluated with high accuracy.

また、画像処理装置101は、皮膚疾患が乾癬である場合には、疾患の評価方法として、部位の粒度に応じて、BSA(Body Surface Area:体表に占める乾癬の面積の割合)またはPASI(Psoriasis Area Severity Index:乾癬の面積と重症度の指数)を選択する。このため、画像データの解析により得られる部位の粒度に応じてより好適な重症度評価方法を選択することができる。なお、評価方法がBSAである場合は画像データから推定した手の面積と該手における乾癬の面積とから重症度を評価し、評価方法がPASIである場合は画像データから推定した乾癬の部位と面積に応じて重症度を評価する。このため、重症度を精度良く評価することができる。 In addition, when the skin disease is psoriasis, the image processing device 101 uses BSA (Body Surface Area: ratio of the area of psoriasis to the body surface) or PASI ( Psoriasis Area Severity Index: Select psoriasis area and severity index. Therefore, a more suitable severity evaluation method can be selected depending on the granularity of the site obtained by analyzing the image data. In addition, when the evaluation method is BSA, the severity is evaluated based on the area of the hand estimated from image data and the area of psoriasis on the hand, and when the evaluation method is PASI, the severity is evaluated based on the area of psoriasis estimated from the image data. Assess severity according to area. Therefore, the severity can be evaluated with high accuracy.

さらに画像処理装置101は、皮膚疾患の評価方法が複数ある際にも、用いた評価方法を評価結果と併せて提示する。このため、提示された対処方法の信頼性を確認したり再撮影の必要性を判断したりすることができる。 Furthermore, even when there are multiple evaluation methods for a skin disease, the image processing apparatus 101 presents the evaluation method used together with the evaluation result. Therefore, it is possible to check the reliability of the presented countermeasures and determine the necessity of re-imaging.

上述した実施の形態には、以下の構成が含まれる。
(構成1)
患者を撮影することで生成された画像データから前記患者の皮膚疾患の種類を推定する推定手段と、
推定された前記種類に応じて前記皮膚疾患の評価方法を決定する決定手段と、
前記画像データから、決定された前記評価方法で前記皮膚疾患の重症度を評価する評価手段と、
決定された前記評価方法に応じた撮影ガイダンスおよび評価された前記重症度に応じた対処ガイダンスのうち少なくとも一方を出力するガイド手段とを有することを特徴とする画像処理装置。
(構成2)
前記推定手段は、前記皮膚疾患に関する機械学習モデルを用いて前記種類を推定することを特徴とする構成1に記載の画像処理装置。
(構成3)
前記評価手段は、前記画像データが複数ある場合に、該複数の画像データを合成して得られる画像データから前記重症度を評価することを特徴とする構成1または2に記載の画像処理装置。
(構成4)
前記評価手段は、前記画像データから前記患者の年齢を推定し、前記年齢の推定結果に応じて前記重症度を評価することを特徴とする構成1から3のいずれか1つに記載の画像処理装置。
(構成5)
前記評価手段は、前記画像データから前記患者の身体の部位を推定し、前記部位の推定結果に応じて前記重症度を評価することを特徴とする構成1から4のいずれか1つに記載の画像処理装置。
(構成6)
前記撮影ガイダンスは、前記患者の身体のうち撮影対象を指示するガイダンス、再撮影を指示するガイダンスおよび撮影パラメータの変更を指示するガイダンスのうち少なくとも1つを含むことを特徴とする構成1から5のいずれか1つに記載の画像処理装置。
(構成7)
前記対処ガイダンスは、治療方法を示すガイダンスおよび通院または入院をすすめるガイダンスのうち少なくとも1つを含むことを特徴とする構成1から6のいずれか1つに記載の画像処理装置。
(構成8)
前記ガイド手段は、前記対処ガイダンスを出力する際に、決定された前記評価方法と評価された前記重症度も出力することを特徴とする構成1から7のいずれか1つに記載の画像処理装置。
(構成9)
前記決定手段は、前記種類が熱傷である場合は、前記評価方法を%Total Body Size Areaに決定し、
前記評価手段は、前記画像データからそれぞれ推定した、前記患者の身体の全体表面積に対する熱傷面積と熱傷深度とに応じて前記重症度を評価することを特徴とする構成1から8のいずれか1つに記載の画像処理装置。
(構成10)
前記評価手段は、前記画像データから推定した前記患者の身体の部位の数に応じて前記熱傷面積を推定する方法を選択することを特徴とする構成9に記載の画像処理装置。
(構成11)
前記決定手段は、前記種類がアトピー性皮膚炎である場合は、前記評価方法をEczema Area and Severity Indexに決定し、
前記評価手段は、前記画像データからそれぞれ推定した、前記患者の身体におけるアトピー性皮膚炎の部位の面積と該部位の兆候に応じて前記重症度を評価することを特徴とする構成1から8のいずれか1つに記載の画像処理装置。
(構成12)
前記決定手段は、前記種類が乾癬である場合は、前記評価方法を前記画像データから推定した前記患者の身体の部位の数に応じてBody Surface Area またはPsoriasis Area Severity Index に決定することを特徴とする構成1から11のいずれか1つに記載の画像処理装置。
(構成13)
前記評価手段は、
前記評価方法がBody Surface Areaである場合に、前記画像データから推定した前記患者の手の面積と該手における乾癬の面積とから前記重症度を評価し、
前記評価方法がPsoriasis Area Severity Indexである場合に、前記画像データから推定した乾癬の部位と面積に応じて前記重症度を評価することを特徴とする構成12に記載の画像処理装置。
(構成14)
構成1から13のいずれか1つに記載の画像処理装置と、前記患者を撮像する撮像素子とを有することを特徴とする撮像装置。
The embodiment described above includes the following configuration.
(Configuration 1)
Estimating means for estimating the type of skin disease of the patient from image data generated by photographing the patient;
determining means for determining an evaluation method for the skin disease according to the estimated type;
an evaluation means for evaluating the severity of the skin disease using the determined evaluation method from the image data;
An image processing apparatus comprising: a guide means for outputting at least one of photographing guidance according to the determined evaluation method and coping guidance according to the evaluated severity.
(Configuration 2)
The image processing device according to configuration 1, wherein the estimating means estimates the type using a machine learning model related to the skin disease.
(Configuration 3)
3. The image processing apparatus according to configuration 1 or 2, wherein, when there is a plurality of image data, the evaluation means evaluates the severity from image data obtained by combining the plurality of image data.
(Configuration 4)
The image processing according to any one of configurations 1 to 3, wherein the evaluation means estimates the age of the patient from the image data and evaluates the severity according to the age estimation result. Device.
(Configuration 5)
According to any one of configurations 1 to 4, the evaluation means estimates a body part of the patient from the image data and evaluates the severity according to the estimation result of the part. Image processing device.
(Configuration 6)
According to configurations 1 to 5, the imaging guidance includes at least one of the following: guidance for instructing a subject to be imaged of the patient's body, guidance for instructing reimaging, and guidance for instructing change of imaging parameters. The image processing device according to any one of the above.
(Configuration 7)
7. The image processing apparatus according to any one of configurations 1 to 6, wherein the treatment guidance includes at least one of guidance indicating a treatment method and guidance recommending hospital visit or hospitalization.
(Configuration 8)
The image processing device according to any one of configurations 1 to 7, wherein the guide means also outputs the determined evaluation method and the evaluated severity level when outputting the coping guidance. .
(Configuration 9)
The determining means determines the evaluation method to be %Total Body Size Area if the type is a burn injury;
Any one of configurations 1 to 8, wherein the evaluation means evaluates the severity according to a burn area and a burn depth relative to the total surface area of the patient's body, respectively estimated from the image data. The image processing device described in .
(Configuration 10)
10. The image processing apparatus according to configuration 9, wherein the evaluation means selects a method for estimating the burn area according to the number of body parts of the patient estimated from the image data.
(Configuration 11)
The determining means determines the evaluation method to be Eczema Area and Severity Index if the type is atopic dermatitis;
Structures 1 to 8, wherein the evaluation means evaluates the severity according to the area of the atopic dermatitis site on the patient's body and the symptoms of the site, respectively estimated from the image data. The image processing device according to any one of the above.
(Configuration 12)
If the type is psoriasis, the determining means determines the evaluation method to be Body Surface Area or Psoriasis Area Severity Index according to the number of body parts of the patient estimated from the image data. The image processing device according to any one of configurations 1 to 11.
(Configuration 13)
The evaluation means is
When the evaluation method is Body Surface Area, the severity is evaluated from the area of the patient's hand estimated from the image data and the area of psoriasis on the hand,
13. The image processing device according to configuration 12, wherein when the evaluation method is Psoriasis Area Severity Index, the severity is evaluated according to the site and area of psoriasis estimated from the image data.
(Configuration 14)
An imaging device comprising the image processing device according to any one of Configurations 1 to 13 and an imaging element that images the patient.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 The embodiments described above are merely representative examples, and various modifications and changes can be made to each embodiment when implementing the present invention.

101 画像処理装置
102,104 撮像装置
204 演算部
101 Image processing device 102, 104 Imaging device 204 Arithmetic unit

Claims (16)

患者を撮影することで生成された画像データから前記患者の皮膚疾患の種類を推定する推定手段と、
推定された前記種類に応じて前記皮膚疾患の評価方法を決定する決定手段と、
前記画像データから、決定された前記評価方法で前記皮膚疾患の重症度を評価する評価手段と、
決定された前記評価方法に応じた撮影ガイダンスおよび評価された前記重症度に応じた対処ガイダンスのうち少なくとも一方を出力するガイド手段とを有することを特徴とする画像処理装置。
Estimating means for estimating the type of skin disease of the patient from image data generated by photographing the patient;
determining means for determining an evaluation method for the skin disease according to the estimated type;
an evaluation means for evaluating the severity of the skin disease using the determined evaluation method from the image data;
An image processing apparatus comprising: a guide means for outputting at least one of photographing guidance according to the determined evaluation method and coping guidance according to the evaluated severity.
前記推定手段は、前記皮膚疾患に関する機械学習モデルを用いて前記種類を推定することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the estimating means estimates the type using a machine learning model related to the skin disease. 前記評価手段は、前記画像データが複数ある場合に、該複数の画像データを合成して得られる画像データから前記重症度を評価することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein when there is a plurality of image data, the evaluation means evaluates the severity based on image data obtained by combining the plurality of image data. 前記評価手段は、前記画像データから前記患者の年齢を推定し、前記年齢の推定結果に応じて前記重症度を評価することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the evaluation means estimates the age of the patient from the image data and evaluates the severity according to the age estimation result. 前記評価手段は、前記画像データから前記患者の身体の部位を推定し、前記部位の推定結果に応じて前記重症度を評価することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the evaluation means estimates a body part of the patient from the image data, and evaluates the severity according to the estimation result of the part. 前記撮影ガイダンスは、前記患者の身体のうち撮影対象を指示するガイダンス、再撮影を指示するガイダンスおよび撮影パラメータの変更を指示するガイダンスのうち少なくとも1つを含むことを特徴とする請求項1に記載の画像処理装置。 2. The imaging guidance includes at least one of guidance for instructing a subject to be imaged of the patient's body, guidance for instructing reimaging, and guidance for instructing change of imaging parameters. image processing device. 前記対処ガイダンスは、治療方法を示すガイダンスおよび通院または入院をすすめるガイダンスのうち少なくとも1つを含むことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the treatment guidance includes at least one of guidance indicating a treatment method and guidance recommending hospital visit or hospitalization. 前記ガイド手段は、前記対処ガイダンスを出力する際に、決定された前記評価方法と評価された前記重症度も出力することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the guide means also outputs the determined evaluation method and the evaluated severity level when outputting the coping guidance. 前記決定手段は、前記種類が熱傷である場合は、前記評価方法を%Total Body Size Areaに決定し、
前記評価手段は、前記画像データからそれぞれ推定した、前記患者の身体の全体表面積に対する熱傷面積と熱傷深度とに応じて前記重症度を評価することを特徴とする請求項1に記載の画像処理装置。
The determining means determines the evaluation method to be %Total Body Size Area if the type is a burn injury;
The image processing apparatus according to claim 1, wherein the evaluation means evaluates the severity according to a burn area and a burn depth relative to the entire surface area of the patient's body, respectively estimated from the image data. .
前記評価手段は、前記画像データから推定した前記患者の身体の部位の数に応じて前記熱傷面積を推定する方法を選択することを特徴とする請求項9に記載の画像処理装置。 10. The image processing apparatus according to claim 9, wherein the evaluation means selects a method for estimating the burn area according to the number of body parts of the patient estimated from the image data. 前記決定手段は、前記種類がアトピー性皮膚炎である場合は、前記評価方法をEczema Area and Severity Indexに決定し、
前記評価手段は、前記画像データからそれぞれ推定した、前記患者の身体におけるアトピー性皮膚炎の部位の面積と該部位の兆候に応じて前記重症度を評価することを特徴とする請求項1に記載の画像処理装置。
The determining means determines the evaluation method to be Eczema Area and Severity Index if the type is atopic dermatitis;
2. The evaluation means evaluates the severity according to the area of the atopic dermatitis site on the patient's body and the symptoms of the site, respectively estimated from the image data. image processing device.
前記決定手段は、前記種類が乾癬である場合は、前記評価方法を前記画像データから推定した前記患者の身体の部位の数に応じてBody Surface Area またはPsoriasis Area Severity Index に決定することを特徴とする請求項1に記載の画像処理装置。 If the type is psoriasis, the determining means determines the evaluation method to be Body Surface Area or Psoriasis Area Severity Index according to the number of body parts of the patient estimated from the image data. The image processing apparatus according to claim 1. 前記評価手段は、
前記評価方法がBody Surface Areaである場合に、前記画像データから推定した前記患者の手の面積と該手における乾癬の面積とから前記重症度を評価し、
前記評価方法がPsoriasis Area Severity Indexである場合に、前記画像データから推定した乾癬の部位と面積に応じて前記重症度を評価することを特徴とする請求項12に記載の画像処理装置。
The evaluation means is
When the evaluation method is Body Surface Area, the severity is evaluated from the area of the patient's hand estimated from the image data and the area of psoriasis on the hand,
13. The image processing apparatus according to claim 12, wherein when the evaluation method is Psoriasis Area Severity Index, the severity is evaluated according to the site and area of psoriasis estimated from the image data.
請求項1から13のいずれか一項に記載の画像処理装置と、
前記患者を撮像する撮像素子とを有することを特徴とする撮像装置。
An image processing device according to any one of claims 1 to 13,
An imaging device comprising: an imaging element that images the patient.
患者を撮影することで生成された画像データから前記患者の皮膚疾患の種類を推定するステップと、
推定された前記種類に応じて前記皮膚疾患の評価方法を決定するステップと、
前記画像データから、決定された前記評価方法で前記皮膚疾患の重症度を評価するステップと、
決定された前記評価方法に応じた撮影ガイダンスおよび評価された前記重症度に応じた対処ガイダンスのうち少なくとも一方を出力するステップとを有することを特徴とする画像処理方法。
estimating the type of skin disease of the patient from image data generated by photographing the patient;
determining an evaluation method for the skin disease according to the estimated type;
Evaluating the severity of the skin disease using the determined evaluation method from the image data;
An image processing method comprising the step of outputting at least one of photographing guidance according to the determined evaluation method and coping guidance according to the evaluated severity.
コンピュータに、請求項15に記載の画像処理方法に従う処理を実行させることを特徴とするプログラム。 A program that causes a computer to execute processing according to the image processing method according to claim 15.
JP2022090329A 2022-06-02 2022-06-02 Image processing apparatus and image processing method Pending JP2023177589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022090329A JP2023177589A (en) 2022-06-02 2022-06-02 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022090329A JP2023177589A (en) 2022-06-02 2022-06-02 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2023177589A true JP2023177589A (en) 2023-12-14

Family

ID=89123855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022090329A Pending JP2023177589A (en) 2022-06-02 2022-06-02 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2023177589A (en)

Similar Documents

Publication Publication Date Title
JP7114358B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
EP1336376A1 (en) Image processing device and image processing method
US20200074224A1 (en) Annotation device and annotation method
JP7467595B2 (en) IMAGE PROCESSING SYSTEM, IMAGE PROCESSING APPARATUS, ENDOSCOPIC SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
KR101789166B1 (en) Method and Apparatus for jaundice diagnosis based on an image, Assisting Apparatus for jaundice diagnosis based on an image
BR102013019944A2 (en) devices for digital radiographic image presentation and display method
JP2019531788A (en) Image capturing method and system for wound evaluation by self-tone correction
JPWO2016067892A1 (en) Health level output device, health level output system and program
CN112638239A (en) Image processing system, image capturing apparatus, image processing apparatus, electronic device, control method thereof, and storage medium storing the control method
JP5698293B2 (en) Portable medical image display terminal and operating method thereof
JP6727776B2 (en) Support system, support method, program
KR101941209B1 (en) Standalone automatic disease screening system and method based on artificial intelligence
JP2023177589A (en) Image processing apparatus and image processing method
JP7422459B2 (en) Radiography control device, radiography control method, program, and radiography system
CN116807452A (en) Scoliosis 3D detection method, system, equipment and medium
JP2006034337A (en) Medical image diagnosis support system
WO2023084969A1 (en) Medical image evaluation assisting device and operation method for medical image evaluation assisting device
WO2008033010A1 (en) Device and method for positioning recording means for recording images relative to an object
JP2020092944A (en) User operation evaluation system and computer program
JP7404857B2 (en) Image judgment device, image judgment method and program
JP2021097727A (en) Image processing device, image processing method and program
WO2015060070A1 (en) Organ image capture device
JP5292616B2 (en) Visceral fat information calculation device and visceral fat calculation program
JP2023077072A (en) Image processing device, method for controlling image processing device, and program
JPWO2021188462A5 (en)