JP7317528B2 - Image processing device, image processing system and control method - Google Patents

Image processing device, image processing system and control method Download PDF

Info

Publication number
JP7317528B2
JP7317528B2 JP2019045769A JP2019045769A JP7317528B2 JP 7317528 B2 JP7317528 B2 JP 7317528B2 JP 2019045769 A JP2019045769 A JP 2019045769A JP 2019045769 A JP2019045769 A JP 2019045769A JP 7317528 B2 JP7317528 B2 JP 7317528B2
Authority
JP
Japan
Prior art keywords
image
images
affected area
image processing
major axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019045769A
Other languages
Japanese (ja)
Other versions
JP2020146200A (en
Inventor
拓也 久保
寛人 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019045769A priority Critical patent/JP7317528B2/en
Publication of JP2020146200A publication Critical patent/JP2020146200A/en
Application granted granted Critical
Publication of JP7317528B2 publication Critical patent/JP7317528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、像処理システム、制御方法、プログラムおよび記録媒体に関するものである。 The present invention relates to an image processing device, an image processing system, a control method, a program, and a recording medium.

人や動物が横になっている状態では体重により接地面と体の接触部位が圧迫されることで褥瘡、いわゆる床ずれが発症することがある。褥瘡を発症した患者は、体圧分散ケアやスキンケア等の褥瘡ケアを施し、定期的に褥瘡を評価および管理していく必要がある。 When a person or animal is lying down, pressure is applied to the contact area between the contact surface and the body due to the weight of the person or animal. A patient who develops a pressure ulcer needs to take pressure ulcer care such as body pressure redistribution care and skin care, and to evaluate and manage the pressure ulcer regularly.

非特許文献1には、褥瘡評価のツールとして、日本褥瘡学会学術教育委員会が開発した褥瘡状態判定スケール、DESIGN-R(登録商標)が提案されている。現在、褥瘡のSize評価は、患部にメジャーを当てて手作業で計測された値に基づいて決定されることが多い。具体的にはまず、皮膚の損傷範囲のうち一番長い直線距離の2点を測定し、それを長径とする。さらに長径と直交する長さを短径とし、長径と短径を掛けた値を褥瘡のSizeとしている。 Non-Patent Document 1 proposes DESIGN-R (registered trademark) as a pressure ulcer evaluation tool developed by the Japanese Society of Pressure Ulcers Science and Education Committee. Currently, the size evaluation of pressure ulcers is often determined based on values manually measured by applying a measuring tape to the affected area. Specifically, first, two points with the longest linear distance in the damaged area of the skin are measured, and these points are taken as the major axis. Further, the length perpendicular to the major axis is defined as the minor axis, and the value obtained by multiplying the major axis by the minor axis is defined as the size of the pressure ulcer.

照林社 褥瘡ガイドブック 第2版 褥瘡予防・管理ガイドライン(第4版)準拠 編集 日本褥瘡学会 ISBN13 978-4796523608 23ページShorinsha Pressure Ulcer Guidebook 2nd Edition Compliant with Pressure Ulcer Prevention and Management Guidelines (4th Edition) Edited by The Japanese Society of Pressure Ulcers ISBN13 978-4796523608 Page 23

手作業による褥瘡のSize評価は、褥瘡の形が複雑である場合が多いために、メジャーをどのように当てるかを調整する必要がある。このような問題に対して、褥瘡を撮影した画像に基づいて、褥瘡のSize評価をすることが考えられる。 Manual Size evaluation of pressure ulcers often has a complex shape, so it is necessary to adjust how the measure is applied. For such a problem, it is conceivable to evaluate the size of the pressure ulcer based on the image of the pressure ulcer.

しかしながら、褥瘡を撮影する際には、患者の姿勢や撮影者が構える撮像装置の向きが毎回一定ではないために、撮影される画像における褥瘡の向きも一定ではない。したがって、撮影した褥瘡の画像を用いて経過比較を行う場合には、単純に撮影した画像を表示するだけでは経過比較が困難である。
本発明は、上述したような問題点に鑑みてなされたものであり、患部を撮影した複数の画像を容易に比較できるようにすることを目的とする。
However, since the patient's posture and the orientation of the imaging device held by the photographer are not constant each time the pressure ulcer is photographed, the orientation of the pressure ulcer in the photographed image is also not constant. Therefore, when progress comparison is performed using captured images of decubitus ulcers, it is difficult to compare progress simply by displaying the captured images.
SUMMARY OF THE INVENTION The present invention has been made in view of the problems described above, and an object of the present invention is to facilitate comparison of a plurality of images of an affected area.

本発明の画像処理装置は、患部が撮影された複数の画像を取得する取得手段と、前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御手段と、を有する画像処理装置であって、前記基準線は、前記患部領域の長径であり、前記制御手段は、前記複数の画像のうち第1の画像における前記患部領域の長径の傾きと、前記複数の画像のうち前記第1の画像とは異なる残りの複数の画像における前記患部領域の長径の傾きとが一致するように、前記第1の画像を回転させずに前記残りの複数の画像を回転させるように制御することを特徴とする。 The image processing apparatus of the present invention comprises: acquisition means for acquiring a plurality of images of an affected area; and control means for controlling to rotate an image, wherein the reference line is the major axis of the affected area, and the control means controls the rotation of the first image among the plurality of images. Rotating the first image so that the slope of the major axis of the affected area matches the slope of the major axis of the affected area in the plurality of remaining images that are different from the first image among the plurality of images. It is characterized in that control is performed so that the remaining plurality of images are rotated without being rotated .

本発明によれば、患部を撮影した複数の画像を容易に比較することができる。 ADVANTAGE OF THE INVENTION According to this invention, the several image which image|photographed the affected part can be easily compared.

画像処理システムのハードウェア構成を示す図である。2 is a diagram showing the hardware configuration of an image processing system; FIG. 画像処理システムの概要を示す図である。1 is a diagram showing an outline of an image processing system; FIG. 画像処理システムの処理を示すフローチャートである。4 is a flowchart showing processing of the image processing system; 患部の画像に情報を重畳する方法を説明するための図である。FIG. 4 is a diagram for explaining a method of superimposing information on an image of an affected area; 同一患者の褥瘡を撮影した画像を示す図である。It is a figure which shows the image which image|photographed the pressure ulcer of the same patient. 画像処理システムの処理を示すフローチャートである。4 is a flowchart showing processing of the image processing system; 患者名一覧の表示例を示す図である。FIG. 11 is a diagram showing a display example of a patient name list; 褥瘡の画像の表示例を示す図である。FIG. 4 is a diagram showing a display example of an image of a pressure ulcer; 同一患者の褥瘡を撮影した画像を示す図である。It is a figure which shows the image which image|photographed the pressure ulcer of the same patient. 画像処理システムの処理を示すフローチャートである。4 is a flowchart showing processing of the image processing system; 褥瘡の画像の表示例を示す図である。FIG. 4 is a diagram showing a display example of an image of a pressure ulcer; 画像処理システムの処理を示すフローチャートである。4 is a flowchart showing processing of the image processing system; 褥瘡の画像の表示例を示す図である。FIG. 4 is a diagram showing a display example of an image of a pressure ulcer; 長径を指定する表示例を示す図である。It is a figure which shows the example of a display which designates a major axis. 同一患者の褥瘡を撮影した画像を示す図である。It is a figure which shows the image which image|photographed the pressure ulcer of the same patient. 基準線を指定する表示例を示す図である。It is a figure which shows the example of a display which designates a reference line.

以下、本発明に係る実施形態について図面を参照して説明する。
<第1の実施形態>
本実施形態では、撮像装置で撮影した褥瘡の画像を管理サーバに送信することで管理サーバが管理し、管理サーバが褥瘡の画像を外部に送信することで、ユーザが褥瘡の画像を画像閲覧装置で閲覧する場合を例にして説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
<First embodiment>
In this embodiment, an image of a pressure ulcer captured by an imaging device is transmitted to the management server for management by the management server. A case of browsing with is explained as an example.

図2は、画像処理システムの構成の一例を模式的に示した図である。
画像処理システムは、撮像装置100、画像処理装置120、管理サーバ130、画像閲覧装置140を有する。
撮像装置100は、患者201の患部である褥瘡202を撮影する。画像処理装置120は、撮像装置100から送信された画像に含まれる褥瘡202の解析を行い、解析結果を撮像装置100に送信する。撮像装置100は、画像処理装置120から送信された、解析結果を表示する。撮像装置100により撮影された画像は、最終的に管理サーバ130に送信され、患者201に付帯されたバーコードタグ203の情報と紐づけて管理サーバ130内に記憶される。記憶された褥瘡202の画像は、画像閲覧装置140から閲覧することができる。
FIG. 2 is a diagram schematically showing an example of the configuration of an image processing system.
The image processing system has an imaging device 100 , an image processing device 120 , a management server 130 and an image viewing device 140 .
The imaging device 100 images a pressure ulcer 202 that is an affected part of a patient 201 . The image processing device 120 analyzes the pressure ulcer 202 included in the image transmitted from the imaging device 100 and transmits the analysis result to the imaging device 100 . The imaging device 100 displays the analysis results transmitted from the image processing device 120 . The image captured by the imaging device 100 is finally transmitted to the management server 130 and stored in the management server 130 in association with the information of the barcode tag 203 attached to the patient 201 . The stored images of the pressure ulcer 202 can be viewed from the image viewing device 140 .

図1は、画像処理システムの各ハードウェア構成の一例を示す図である。
撮像装置100は、患部を撮影し、撮影した画像を画像処理装置120に送信する。
撮像装置100は、光学系101、撮像素子102、CPU103、一次記憶装置104、二次記憶装置105、記録媒体106、表示部107、操作部108、通信装置109、測距部110を有する。
光学系101は、レンズ、シャッター、絞りを有し、被写体からの光を適切な量とタイミングで撮像素子102に結像させる。撮像素子102は、光学系101を通って結像した光を画像に変換する。CPU103は、入力された信号やプログラムに従って、各種の演算や、撮像装置100を構成する各部の制御を行う。
FIG. 1 is a diagram showing an example of each hardware configuration of an image processing system.
The imaging device 100 captures an image of the affected area and transmits the captured image to the image processing device 120 .
The imaging device 100 has an optical system 101 , an imaging device 102 , a CPU 103 , a primary storage device 104 , a secondary storage device 105 , a recording medium 106 , a display section 107 , an operation section 108 , a communication device 109 and a distance measurement section 110 .
The optical system 101 has a lens, a shutter, and an aperture, and forms an image of the light from the subject on the imaging device 102 with an appropriate amount and timing. The imaging element 102 converts the light imaged through the optical system 101 into an image. The CPU 103 performs various calculations and controls each unit that configures the imaging apparatus 100 according to the input signals and programs.

一次記憶装置104は、一時的なデータを記憶し、CPU103の作業用に用いられる。二次記憶装置105は、撮像装置100を制御するためのプログラム(ファームウェア)や各種の設定情報等を記憶する。記録媒体106は、撮影した画像を記録する、記録媒体106は、例えばSDカードやCFカードを用いることができる。表示部107は、撮影した画像や、ライブビュー画像を表示する。操作部108は、撮影者の操作を受け付ける。通信装置109は、画像処理装置120と通信を行う。通信装置109は、例えば無線LANである。 The primary storage device 104 stores temporary data and is used for work by the CPU 103 . The secondary storage device 105 stores a program (firmware) for controlling the imaging device 100, various setting information, and the like. A recording medium 106 records captured images. For example, an SD card or a CF card can be used as the recording medium 106 . A display unit 107 displays captured images and live view images. The operation unit 108 accepts the operations of the photographer. The communication device 109 communicates with the image processing device 120 . The communication device 109 is, for example, a wireless LAN.

測距部110は、撮像装置100から被写体までの距離情報を算出する。測距部110として、一眼レフカメラに搭載された一般的な位相差方式の測距センサを用いてもよく、TOF(Time Of Flight)センサを用いたシステムを用いてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体で反射された波である反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。更に、測距部110には受光素子にPSD(Position Sensitive Device)を用いたPSD方式等を用いてもよい。また、撮像素子102が画素ごとに複数の光電変換領域を有し、共通の画素内に含まれる複数の光電変換領域に対応する瞳位置を異ならせる構成とする。このような構成とすることで、測距部110は、撮像素子102から出力された、それぞれの瞳領域に対応する光電変換領域から得られた画像間の位相差から、画素あるいは領域の位置ごとに距離情報を求めることができる。 A distance measurement unit 110 calculates distance information from the imaging device 100 to a subject. As the distance measuring unit 110, a general phase-difference distance measuring sensor mounted on a single-lens reflex camera may be used, or a system using a TOF (Time Of Flight) sensor may be used. A TOF sensor is a sensor that measures the distance to an object based on the time difference (or phase difference) between the transmission timing of an irradiation wave and the reception timing of a reflected wave, which is a wave of the irradiation wave reflected by the object. be. Furthermore, the distance measuring unit 110 may employ a PSD method or the like using a PSD (Position Sensitive Device) as a light receiving element. In addition, the image sensor 102 has a plurality of photoelectric conversion regions for each pixel, and the pupil positions corresponding to the plurality of photoelectric conversion regions included in a common pixel are made different. By adopting such a configuration, the distance measurement unit 110 can determine the position of each pixel or region based on the phase difference between the images obtained from the photoelectric conversion regions corresponding to the respective pupil regions output from the image sensor 102. can obtain distance information.

測距部110は、画像内の予め定められた所定の1つ、あるいは、複数の測距エリアにおける距離情報を求める構成であってもよく、画像内の多数の画素あるいは領域の距離情報の分布を示す距離マップを求める構成であってもよい。また、測距部110は、画像から高周波成分を抽出して積分し、積分値が最大となるフォーカスレンズの位置を決定するTV-AFまたはコントラストAFを行い、このフォーカスレンズの位置から距離情報を得るようにしてもよい。 The distance measurement unit 110 may be configured to obtain distance information in one or a plurality of predetermined distance measurement areas within an image. may be configured to obtain a distance map showing Further, the distance measuring unit 110 extracts and integrates high-frequency components from the image, performs TV-AF or contrast AF for determining the position of the focus lens where the integrated value is maximum, and obtains distance information from the position of the focus lens. You can get it.

画像処理装置120は、撮像装置100から送信された患部の画像を解析する。
画像処理装置120は、CPU121、一次記憶装置122、二次記憶装置123、通信装置124を有する。CPU121は、入力された信号や二次記憶装置123に記憶されたプログラムに従って、各種の演算や画像処理装置120を構成する各部の制御を行う。一次記憶装置122は、一時的なデータを記憶し、CPU121の作業用に用いられる。また、一次記憶装置122は、二次記憶装置123から読み込まれたプログラムを記憶する。二次記憶装置123は、CPU121が実行するプログラムを記憶する。二次記憶装置123は、ハードディスク等を用いることができる。通信装置124は、撮像装置100や管理サーバ130と通信を行う。通信装置124は、画像を送受信するだけではなく、解析結果を送信する。
The image processing device 120 analyzes the image of the affected area transmitted from the imaging device 100 .
The image processing device 120 has a CPU 121 , a primary storage device 122 , a secondary storage device 123 and a communication device 124 . The CPU 121 performs various calculations and controls each part of the image processing apparatus 120 according to the input signals and the programs stored in the secondary storage device 123 . The primary storage device 122 stores temporary data and is used for work by the CPU 121 . The primary storage device 122 also stores programs read from the secondary storage device 123 . The secondary storage device 123 stores programs executed by the CPU 121 . A hard disk or the like can be used as the secondary storage device 123 . The communication device 124 communicates with the imaging device 100 and the management server 130 . The communication device 124 not only transmits and receives images, but also transmits analysis results.

管理サーバ130は、撮像装置100で撮影した患部の画像や画像処理装置120で解析した解析結果を記憶する。管理サーバ130で記憶したデータは、画像閲覧装置140からブラウザや専用アプリケーションを使って閲覧することができる。管理サーバ130の1台に対して、画像閲覧装置140は複数台、存在してもよい。また、管理サーバ130は、患部の画像を回転させる等の画像処理を行う。したがって、管理サーバ130は、画像処理装置としても機能する。
管理サーバ130は、CPU131、一次記憶装置132、二次記憶装置133、通信装置134を有する。CPU131は、入力された信号や二次記憶装置133に記憶されたプログラムに従って、各種の演算や、管理サーバ130を構成する各部の制御を行う。CPU131は、取得手段、制御手段、設定手段、送信手段の一例に対応する。一次記憶装置132は、一時的なデータを記憶し、CPU131の作業用に用いられる。また、一次記憶装置132は、二次記憶装置133から読み込まれたプログラムを記憶する。二次記憶装置133は、CPU131が実行するプログラムを記憶する。二次記憶装置133は、ハードディスク等を用いることができる。通信装置134は、画像処理装置120や画像閲覧装置140と通信を行う。
The management server 130 stores the image of the affected area captured by the imaging device 100 and the analysis result analyzed by the image processing device 120 . Data stored in the management server 130 can be viewed from the image viewing device 140 using a browser or a dedicated application. A plurality of image browsing devices 140 may exist for one management server 130 . The management server 130 also performs image processing such as rotating the image of the affected area. Therefore, the management server 130 also functions as an image processing device.
The management server 130 has a CPU 131 , a primary storage device 132 , a secondary storage device 133 and a communication device 134 . The CPU 131 performs various calculations and controls each part of the management server 130 according to the input signals and the programs stored in the secondary storage device 133 . The CPU 131 corresponds to one example of acquisition means, control means, setting means, and transmission means. The primary storage device 132 stores temporary data and is used for work by the CPU 131 . The primary storage device 132 also stores programs read from the secondary storage device 133 . The secondary storage device 133 stores programs executed by the CPU 131 . A hard disk or the like can be used as the secondary storage device 133 . A communication device 134 communicates with the image processing device 120 and the image viewing device 140 .

画像閲覧装置140は、管理サーバ130に記憶された患部の画像や解析結果をユーザに対して閲覧させる。画像閲覧装置140は、スマートフォン、タブレット端末、PC等を用いることができる。
画像閲覧装置140は、CPU141、一次記憶装置142、二次記憶装置143、通信装置144、表示部145、操作部146を有する。
CPU141は、入力された信号や二次記憶装置143に記憶されたプログラムに従って、各種の演算や、画像閲覧装置140を構成する各部の制御を行う。CPU141は、取得手段、表示手段の一例に対応する。一次記憶装置142は、一時的なデータを記憶し、CPU141の作業用に用いられる。また、一次記憶装置142は、二次記憶装置143から読み込まれたプログラムを記憶する。二次記憶装置143は、CPU141が実行するプログラムを記憶する。二次記憶装置143は、ハードディスク等を用いることができる。通信装置144は管理サーバ130と通信を行う。表示部145は、患部の画像や解析結果を表示する。操作部146は、ユーザが閲覧したい患者の選択を受け付けたり、閲覧したい画像の選択を受け付けたりする。操作部146は、ボタン、スイッチ、表示部145に兼用されるタッチパネル等を用いることができる。
The image browsing device 140 allows the user to browse the images of the affected area and the analysis results stored in the management server 130 . A smartphone, a tablet terminal, a PC, or the like can be used as the image browsing device 140 .
The image browsing device 140 has a CPU 141 , a primary storage device 142 , a secondary storage device 143 , a communication device 144 , a display section 145 and an operation section 146 .
The CPU 141 performs various calculations and controls each part of the image browsing device 140 according to the input signals and the programs stored in the secondary storage device 143 . The CPU 141 corresponds to an example of acquisition means and display means. The primary storage device 142 stores temporary data and is used for work by the CPU 141 . The primary storage device 142 also stores programs read from the secondary storage device 143 . The secondary storage device 143 stores programs executed by the CPU 141 . A hard disk or the like can be used as the secondary storage device 143 . A communication device 144 communicates with the management server 130 . The display unit 145 displays an image of the affected area and analysis results. The operation unit 146 accepts selection of a patient to be viewed by the user and selection of an image to be viewed by the user. The operation unit 146 can use buttons, switches, a touch panel that is also used as the display unit 145, or the like.

なお、管理サーバ130は、画像処理装置120と共通であってもよい。この場合は、管理サーバ130の機能を画像処理装置120が担うことになる。
また、画像処理システムは、画像処理装置120と管理サーバ130の両方がない構成であってもよい。この場合には、画像処理装置120と管理サーバ130の機能を撮像装置100が担うことにより実現できる。
Note that the management server 130 may be shared with the image processing apparatus 120 . In this case, the functions of the management server 130 are performed by the image processing apparatus 120 .
Also, the image processing system may be configured without both the image processing apparatus 120 and the management server 130 . In this case, the functions of the image processing device 120 and the management server 130 can be realized by the imaging device 100. FIG.

図3は、画像処理システムの処理の一例を示すフローチャートである。図3に示すフローチャートは、撮像装置100で撮影した褥瘡の画像を画像処理装置120で解析し、解析結果を撮像装置100に表示して、更に管理サーバ130に画像と解析結果を登録するまでの処理を示している。図3のフローチャートは、撮像装置100と画像処理装置120が、無線LAN規格であるWi-Fi規格のネットワークにそれぞれ接続することで開始される。 FIG. 3 is a flow chart showing an example of processing of the image processing system. The flowchart shown in FIG. 3 is for analyzing the pressure ulcer image captured by the imaging device 100 by the image processing device 120, displaying the analysis result on the imaging device 100, and registering the image and the analysis result on the management server 130. processing. The flowchart in FIG. 3 starts when the imaging device 100 and the image processing device 120 are connected to a Wi-Fi standard network, which is a wireless LAN standard.

S330では、画像処理装置120のCPU121は、接続する撮像装置100の探索処理を行う。
S300では、撮像装置100のCPU103は、探索処理に対して応答処理を行う。なお、ネットワークを介して機器を探索する技術としては、UPnP(Universal Plug and Play)が用いられる。ここでUPnPにおいて個々の装置の識別はUUID(Universally Unique IDentifier)によって行われる。
In S330, the CPU 121 of the image processing device 120 performs search processing for the imaging device 100 to be connected.
In S300, the CPU 103 of the imaging device 100 performs response processing to the search processing. Note that UPnP (Universal Plug and Play) is used as a technique for searching for devices via a network. In UPnP, individual devices are identified by UUID (Universally Unique Identifier).

S301では、撮像装置100のCPU103は、撮影モードをタグ撮影モードに設定する。タグ撮影モードは、撮影した褥瘡の画像を患者の識別情報に関連付けるために、患者を識別するためのバーコードタグを撮影するモードである。本実施形態では、図2に示すように、患者201の患者IDが含まれるバーコードタグ203を撮影する。褥瘡の画像を撮影する前に、バーコードタグを撮影して患者IDを特定することで、患者の識別情報に褥瘡の画像を関連付けて管理することができる。タグ撮影モードに設定された後に、CPU103は、撮影者による撮影指示に応じてバーコードタグを撮影し、撮影したタグの画像を一次記憶装置104あるいは二次記憶装置105に記憶する。 In S301, the CPU 103 of the imaging device 100 sets the shooting mode to the tag shooting mode. The tag imaging mode is a mode for imaging a barcode tag for identifying a patient in order to associate the image of the decubitus ulcer with the identification information of the patient. In this embodiment, as shown in FIG. 2, a barcode tag 203 containing the patient ID of the patient 201 is photographed. By photographing the barcode tag and identifying the patient ID before taking the image of the pressure ulcer, the image of the pressure ulcer can be managed in association with the identification information of the patient. After the tag photographing mode is set, the CPU 103 photographs the barcode tag according to the photographing instruction from the photographer, and stores the photographed image of the tag in the primary storage device 104 or the secondary storage device 105 .

S302では、CPU103はライブビュー処理を開始する。ライブビュー処理を開始することで、表示部107に撮影中の画像が連続的に表示される。
S303では、CPU103はAF処理を開始する。具体的には、CPU103は、上述した何れかの方法によって測距部110により被写体までの距離情報を求め、被写体にピントが合うよう光学系101の制御を行うAF処理を開始する。TV-AFまたはコントラストAFでピント位置の調整を行った場合には、ピントを合わせた状態の光学系101の位置から、ピントを合わせた対象の被写体までの距離情報を求める。ピントを合わせる位置は、画像の中央に位置する被写体であってもよく、撮像装置100に対して最も至近側の位置に存在する被写体であってもよい。被写体の距離マップが得られている場合には、距離マップから注目すべき領域を推定し、その位置に対してピントを合わせるようにしてもよい。また、既に画像処理装置120によってライブビュー画像における患部領域の位置が特定されている場合には、その位置に対してピントを合わせるようにしてもよい。撮像装置100は、後述するS310でレリーズボタンが押下されるまでライブビュー画像の表示と共にAF処理を繰り返し行う。
In S302, the CPU 103 starts live view processing. By starting the live view process, images being captured are displayed continuously on the display unit 107 .
In S303, the CPU 103 starts AF processing. Specifically, the CPU 103 obtains distance information to the subject from the distance measuring unit 110 by any of the methods described above, and starts AF processing for controlling the optical system 101 so as to bring the subject into focus. When the focus position is adjusted by TV-AF or contrast AF, distance information from the position of the optical system 101 in the focused state to the focused subject is obtained. The position to be focused may be the subject positioned in the center of the image, or the subject positioned closest to the imaging device 100 . When a distance map of the subject is obtained, the area to be noticed may be estimated from the distance map and focused on that position. Further, when the position of the affected area in the live view image has already been specified by the image processing device 120, the focus may be adjusted to that position. The imaging apparatus 100 repeatedly performs AF processing while displaying a live view image until the release button is pressed in S310, which will be described later.

S304では、CPU103はライブビュー画像の何れかの画像に対して、画像の現像および圧縮処理を行い、例えばJPEG規格の画像を生成する。また、CPU103は、圧縮処理された画像に対してリサイズ処理を行い、画像のサイズを小さくする。
S305では、CPU103は、S303で求めた距離情報、および、S304で生成したリサイズ処理後の画像を取得する。また、CPU103はズーム倍率の情報、リサイズ処理後の画像のサイズ(ピクセル数)の情報を必要に応じて取得する。
S306では、CPU103は、距離情報、および、リサイズ処理後の画像を含む1以上の情報を画像処理装置120に送信する。
In S304, the CPU 103 performs image development and compression processing on any image of the live view image to generate, for example, a JPEG standard image. Further, the CPU 103 performs resizing processing on the compressed image to reduce the size of the image.
In S305, the CPU 103 acquires the distance information obtained in S303 and the resized image generated in S304. Further, the CPU 103 acquires information on the zoom magnification and information on the size (the number of pixels) of the image after resizing processing, if necessary.
In S<b>306 , the CPU 103 transmits distance information and one or more pieces of information including the image after resizing to the image processing apparatus 120 .

次に、画像処理装置120による処理に移る。
S341では、CPU121は、撮像装置100から送信された距離情報、および、画像を含む1以上の情報を受信する。CPU121は、受信した距離情報、および、画像を一次記憶装置104に記憶する。
S342では、CPU121は、受信した画像から患部領域を抽出する。患部領域を抽出する手法として、深層学習による意味的領域分割を用いる。すなわち、予め学習用の高性能コンピュータに、複数の実際の褥瘡の患部領域の画像を教師データとしてニューラルネットワークのモデルを学習させて、学習済モデルを生成する。CPU121は、学習済モデルに基づいて画像から褥瘡のエリアを領域推定する。ニューラルネットワークのモデルの一例として、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク(FCN(Fully Convolutional Network))を適用することができる。深層学習による推論は、積和演算の並列実行を得意とする高性能コンピュータにより処理される。ただし、深層学習による推論は、FPGAやASIC等が実行してもよい。なお、他の深層学習のモデルを用いて領域分割を実現してもよい。また、セグメンテーション手法は深層学習に限られず、例えば、グラフカット、領域成長、エッジ検出、統治分割法等を用いてもよい。更に、高性能コンピュータの内部で、褥瘡の患部領域の画像を教師データとしたニューラルネットワークのモデルの学習を行ってもよい。
Next, the processing by the image processing device 120 is performed.
In S<b>341 , the CPU 121 receives distance information transmitted from the imaging device 100 and one or more information including an image. CPU 121 stores the received distance information and image in primary storage device 104 .
In S342, the CPU 121 extracts the affected area from the received image. Semantic segmentation by deep learning is used as a method for extracting the affected area. That is, a high-performance computer for learning is made to learn a neural network model in advance using a plurality of actual images of the affected area of the decubitus as teaching data, thereby generating a trained model. The CPU 121 estimates the pressure ulcer area from the image based on the learned model. As an example of a neural network model, a fully convolutional network (FCN), which is a segmentation model using deep learning, can be applied. Inference by deep learning is processed by high-performance computers that excel at parallel execution of sum-of-products operations. However, inference by deep learning may be executed by FPGA, ASIC, or the like. Note that region division may be realized using other deep learning models. Also, the segmentation method is not limited to deep learning, and graph cut, region growth, edge detection, rule division method, etc., may be used, for example. Further, inside the high-performance computer, a neural network model may be trained using images of affected areas of pressure ulcers as training data.

S343では、CPU121は、抽出した患部領域のサイズに関する情報として、患部領域の面積を計算する。ここでは、面積の計算方法の詳細は省略するが、CPU121は撮像装置100から被写体までの距離情報、撮影時の画角、画像サイズに基づいて、まず画像1ピクセル当りの実距離を幾何学的に算出する。CPU121は、算出した画像1ピクセル当りの実距離と、患部領域のピクセル数との積を計算することで、患部領域の実際の面積を算出することができる。
S344では、CPU121は、処理中の画像がレリーズして撮影した画像であるか否かを判定する。この判定を行う方法として2つの方法が想定されるが、何れの方法であってもよい。
In S343, the CPU 121 calculates the area of the affected area as information regarding the size of the extracted affected area. Here, the details of the area calculation method are omitted, but the CPU 121 first geometrically calculates the actual distance per pixel of the image based on the distance information from the imaging device 100 to the subject, the angle of view at the time of shooting, and the image size. Calculate to The CPU 121 can calculate the actual area of the affected area by multiplying the calculated actual distance per pixel of the image by the number of pixels in the affected area.
In S344, the CPU 121 determines whether or not the image being processed is an image shot with the release. Two methods are conceivable for this determination, but either method may be used.

1つ目は、撮像装置100が画像処理装置120に画像を送信する際にライブビュー画像であるかレリーズして撮影した画像であるかを示すフラグを送信し、CPU121はフラグに基づいて判定する方法である。2つ目は、S341~S347の処理自体を、ライブビュー画像用とレリーズして撮影した画像用の2つに分けて、撮像装置100が送信する際に、それぞれの処理に分かれるように送信する方法である。S306により送信された場合にはライブビュー画像であって、レリーズして撮影した画像ではないために、S345に進まず、S346に進む。一方、レリーズして撮影した画像である場合にはS345に進む。 First, when the imaging device 100 transmits an image to the image processing device 120, it transmits a flag indicating whether the image is a live view image or an image captured by releasing, and the CPU 121 makes a determination based on the flag. The method. Secondly, the processing itself of S341 to S347 is divided into two, one for live view images and the other for images shot with a release, and when the imaging device 100 transmits the images, the processing is divided into the respective processings. The method. If the image has been transmitted in S306, it is a live view image and not an image captured by releasing the image. On the other hand, if the image was shot with the release, the process proceeds to S345.

S345では、CPU121は、受信した画像に対して画像解析を行い、解析結果の情報を一次記憶装置104に記憶する。ここでは、CPU121は抽出した患部領域に長径と短径を設定し、長径と短径の長さ等を算出する。なお、ライブビュー画像に対して画像解析を行わないのは、ライブビュー中では患部領域の抽出結果を撮影者が確認することを主な目的としているためである。このように、ライブビュー画像に対してS345の画像解析の処理を省略することで、処理時間を削減することができる。ただし、撮像装置100の性能が高ければ、S345の処理を実行してもよい。 In S<b>345 , the CPU 121 performs image analysis on the received image and stores information on the analysis result in the primary storage device 104 . Here, the CPU 121 sets the major axis and the minor axis of the extracted affected area, and calculates the length of the major axis and the minor axis. The reason why the live view image is not subjected to image analysis is that the main purpose is for the photographer to check the extraction result of the affected area during the live view. In this way, by omitting the image analysis processing of S345 for the live view image, the processing time can be reduced. However, if the imaging device 100 has high performance, the process of S345 may be executed.

S346では、CPU121は患部領域を抽出する対象とした画像に対して、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを重畳した画像を生成する。
図4は、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを画像に重畳する方法を説明するための図である。
図4(a)に示す画像400は、重畳処理前の画像を表示した一例であり、褥瘡401が含まれる。
図4(b)に示す画像410は、重畳処理後の画像を表示した一例である。
In S346, the CPU 121 generates an image in which information indicating the extraction result of the affected area and information regarding the size of the affected area are superimposed on the image from which the affected area is to be extracted.
FIG. 4 is a diagram for explaining a method of superimposing information indicating the extraction result of the affected area and information about the size of the affected area on the image.
An image 400 shown in FIG. 4A is an example of displaying an image before superimposition processing, and includes a pressure ulcer 401 .
An image 410 shown in FIG. 4B is an example of displaying an image after superimposition processing.

図4(b)に示す画像410の左上隅には、黒地の背景に白色の文字で、患部領域の面積を表示したラベル411が重畳される。また、画像410には、S342において抽出された患部領域の推定エリアを示す指標412が重畳される。推定エリアを示す指標412と、画像400の元となる画像をαブレンドすることで、患部領域の面積を算出する元となる推定エリアが妥当か否かを撮影者が確認することができる。 A label 411 indicating the area of the affected area is superimposed on the upper left corner of the image 410 shown in FIG. 4B in white characters on a black background. In addition, an index 412 indicating the estimated area of the affected area extracted in S342 is superimposed on the image 410 . By α-blending the index 412 indicating the estimated area and the original image of the image 400, the photographer can confirm whether or not the estimated area from which the area of the affected area is calculated is appropriate.

S347では、CPU121は、抽出した患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを撮像装置100に送信する。本実施形態では、CPU121は、S346で生成した、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを重畳した画像を撮像装置100に送信する。 In S<b>347 , the CPU 121 transmits information indicating the extraction result of the extracted affected area and information regarding the size of the affected area to the imaging device 100 . In this embodiment, the CPU 121 transmits to the imaging device 100 an image in which the information indicating the extraction result of the affected area generated in S346 and the information regarding the size of the affected area are superimposed.

次に、撮像装置100による処理に移る。
S307では、撮像装置100のCPU103は、画像処理装置120から送信されたデータがあれば受信する。
S308では、CPU103は、画像を受信したか否かを判定する。受信した場合にはS309に進み、受信していない場合にはS310に進む。
S309では、CPU103は、受信した画像を表示部107に所定時間表示する。ここでは、CPU103は、図4(b)に示す画像410を表示する。このように、ライブビュー画像に対して、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを重畳して表示することで、撮影者は患部領域の面積および推定エリアが妥当であるかを確認した上で、実際の撮影に進むことができる。なお、本実施形態では、患部領域の抽出結果を示す情報と、患部領域のサイズの情報とを表示する場合について説明したが、何れか一方だけを表示してもよい。
Next, the processing by the imaging device 100 is performed.
In S<b>307 , the CPU 103 of the imaging device 100 receives data transmitted from the image processing device 120 , if any.
In S308, the CPU 103 determines whether or not an image has been received. If it has been received, the process proceeds to S309, and if it has not been received, the process proceeds to S310.
In S309, the CPU 103 displays the received image on the display unit 107 for a predetermined time. Here, the CPU 103 displays an image 410 shown in FIG. 4(b). In this way, by superimposing the information indicating the extraction result of the affected area and the information about the size of the affected area on the live view image, the operator can determine whether the area of the affected area and the estimated area are appropriate. After confirming that there is, you can proceed to the actual shooting. In this embodiment, the case where information indicating the extraction result of the affected area and information on the size of the affected area are displayed was described, but only one of them may be displayed.

S310では、CPU103は、撮影者が操作部108に含まれるレリーズボタンを押下することによる撮影指示を受け付けたか否かを判定する。撮影指示を受け付けた場合にはS311に進み、撮影指示を受け付けていない場合にはS304に戻る。
S311では、CPU103は、AF処理を行う。この処理は、S303と同様である。
In S<b>310 , the CPU 103 determines whether or not a shooting instruction is received by the user pressing the release button included in the operation unit 108 . If the photographing instruction has been accepted, the process proceeds to S311, and if the photographing instruction has not been received, the process returns to S304.
In S311, the CPU 103 performs AF processing. This process is the same as S303.

S312では、CPU103は、撮影者による撮影指示に応じて、記録用に静止画の撮影を行う。
S313~315までの処理は、上述したS304~S306と同様であるために、異なる点だけを説明する。
S313では、CPU103は記録用に撮影された画像に対して、画像の現像および圧縮処理を行い、例えばJPEG規格の画像を生成する。また、CPU103は、圧縮処理された画像に対してリサイズ処理を行い、画像のサイズを小さくする。このとき、患部領域を計測する際の精度を優先するため、リサイズ処理した画像のサイズは、S304においてリサイズ処理した画像のサイズよりも大きいか、同じ大きさであることが好ましい。
In S312, the CPU 103 shoots a still image for recording in accordance with the shooting instruction from the photographer.
Since the processing from S313 to S315 is the same as that from S304 to S306 described above, only different points will be described.
In S313, the CPU 103 performs image development and compression processing on the image shot for recording to generate, for example, a JPEG standard image. Further, the CPU 103 performs resizing processing on the compressed image to reduce the size of the image. At this time, the size of the resized image is preferably larger than or equal to the size of the image resized in S304 in order to give priority to accuracy when measuring the affected area.

次に、画像処理装置120による処理に移る。
S341~S347までの処理は、上述したS341~S347と同様であるが、異なる点が2つある。
1つ目は、S345の処理を実行する点である。
S345では、CPU121は、画像解析を行う。具体的には、CPU121は、抽出した患部領域の位置を算出したり、患部領域に対して長径と短径を算出して設定したりする。また、CPU121は、S343で求めた画像1ピクセル当りの実距離に基づいて、患部領域に対する長径と短径の長さ、傾き(向き)、および、患部領域に外接する矩形の面積を算出する。褥瘡の評価指標のDESIGN-Rの中で、褥瘡のサイズは長径と短径の積の値を計測することが定められている。本実施形態の画像処理システムにおいて、長径と短径を算出することで、今までDESIGN-Rで計測されたデータとの互換性を確保することができる。DESIGN-Rは厳密な定義がないため、数学的には複数の長径と短径の算出方法が考えられる。
Next, the processing by the image processing device 120 is performed.
The processing from S341 to S347 is the same as the above-described S341 to S347, but there are two points of difference.
The first point is that the process of S345 is executed.
In S345, the CPU 121 performs image analysis. Specifically, the CPU 121 calculates the position of the extracted affected area, or calculates and sets the major axis and minor axis of the affected area. The CPU 121 also calculates the length of the major axis and the minor axis with respect to the affected area, the inclination (orientation), and the area of the rectangle circumscribing the affected area based on the actual distance per pixel of the image obtained in S343. DESIGN-R, which is an evaluation index for pressure ulcers, defines that the size of pressure ulcers is measured by the product of the major axis and the minor axis. By calculating the major axis and the minor axis in the image processing system of the present embodiment, it is possible to ensure compatibility with data measured by DESIGN-R so far. Since DESIGN-R does not have a strict definition, a plurality of methods for calculating the major axis and minor axis can be considered mathematically.

長径と短径の算出方法の第1例として、CPU121が患部領域に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出する。次に、この矩形の長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出する。次に、S343で求めた画像1ピクセル当りの実距離に基づいて、矩形の面積を算出する。
長径と短径の算出方法の第2例として、CPU121が長径として最大のキャリパー長である最大フェレ径を選択し、短径として最小フェレ径を選択する。なお、長径として最大のキャリパー長である最大フェレ径を選択し、短径として最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。
長径と短径の算出方法は、従来の計測結果との互換性に基づいて任意の方法を選択することができる。
As a first example of how to calculate the major axis and the minor axis, the CPU 121 calculates a minimum bounding rectangle of the rectangles circumscribing the affected area. Next, the lengths of the long sides and the short sides of this rectangle are calculated, and the length of the long side is calculated as the major diameter and the length of the short side is calculated as the minor diameter. Next, the area of the rectangle is calculated based on the actual distance per pixel of the image obtained in S343.
As a second example of the calculation method of the major axis and the minor axis, the CPU 121 selects the maximum Feret diameter, which is the maximum caliper length, as the major axis, and selects the minimum Feret diameter as the minor axis. The maximum Feret diameter, which is the maximum caliper length, may be selected as the major axis, and the length measured in the direction perpendicular to the axis of the maximum Feret diameter may be selected as the minor axis.
An arbitrary method can be selected as a method for calculating the major axis and the minor axis based on compatibility with conventional measurement results.

2つ目は、画像に重畳する情報が異なる点である。
ライブビュー中の場合には、処理負荷の軽減を図るためにS345を実行していないために長径や短径等が算出されず、患部領域の推定エリアおよび患部領域の面積のみを重畳して、画像を生成した。一方、レリーズして撮影した場合には、長径や短径等の情報も重畳した画像を生成する。
The second point is that the information superimposed on the image is different.
During live view, since S345 is not executed to reduce the processing load, the major axis, minor axis, etc. are not calculated, and only the estimated area of the affected area and the area of the affected area are superimposed, generated the image. On the other hand, when shooting with the release, an image is generated in which information such as the major axis and the minor axis is also superimposed.

図4(c)~(e)は、患部領域の抽出結果を示す情報と、患部領域の長径と短径を含む患部領域のサイズに関する情報とを重畳した図である。患部領域のサイズに関する情報は複数、想定されるために3つに分けて説明する。
図4(c)に示す画像420は、長径と短径の算出方法としてMinimum bounding rectangleを用いたものである。画像420の左上隅には、患部領域のサイズに関する情報421が重畳される。
また、画像420の右上隅には、患部領域のサイズに関する情報として、Minimum bounding rectangleに基づいて算出した長径および短径を表示したラベル422が重畳される。また、画像420には、患部領域424に外接したMinimum bounding rectangleを表す矩形の枠425が重畳される。矩形の枠425を長径および短径の長さと一緒に重畳することで、撮影者は画像中のどの箇所の長さが計測されているのかを確認することができる。
FIGS. 4C to 4E are diagrams in which information indicating the extraction result of the affected area and information regarding the size of the affected area including the major axis and the minor axis of the affected area are superimposed. Since multiple pieces of information regarding the size of the affected area are assumed, the description will be divided into three.
An image 420 shown in FIG. 4C is obtained by using a minimum bounding rectangle as a method of calculating the major axis and the minor axis. In the upper left corner of image 420 is superimposed information 421 regarding the size of the affected area.
Also, on the upper right corner of the image 420, a label 422 displaying the major axis and minor axis calculated based on the minimum bounding rectangle is superimposed as information on the size of the affected area. A rectangular frame 425 representing a minimum bounding rectangle circumscribing the affected area 424 is superimposed on the image 420 . By superimposing the rectangular frame 425 together with the lengths of the major axis and the minor axis, the photographer can confirm which part of the image is being measured.

また、画像420の左下隅には、上述したDESIGN-RのSize評価の指標423が重畳される。DESIGN-RのSize評価の指標423では、皮膚損傷範囲の、長径と短径(長径と直交する最大径)を測定し(単位はcm)、各々を掛け合わせた数値から7段階に分類されている。本実施形態では長径と短径をそれぞれの算出方法によって出力された値に置き換えて得られる指標423が重畳される。 In addition, on the lower left corner of the image 420, an indicator 423 of Size evaluation of DESIGN-R described above is superimposed. In the index 423 of the size evaluation of DESIGN-R, the long axis and short axis (maximum diameter perpendicular to the long axis) of the skin damage range are measured (unit: cm), and the multiplied values are classified into 7 levels. there is In this embodiment, an index 423 obtained by replacing the major axis and the minor axis with values output by respective calculation methods is superimposed.

図4(d)に示す画像430は、長径として最大フェレ径を用い、短径として最小フェレ径を用いたものである。画像430の患部領域431には、最大フェレ径の計測位置に相当する補助線432と、最小フェレ径に相当する補助線433とが重畳される。補助線432、433を長径および短径の長さと一緒に重畳することで、撮影者は画像中のどの箇所の長さが計測されているのかを確認することができる。 An image 430 shown in FIG. 4D uses the maximum Feret diameter as the major axis and the minimum Feret diameter as the minor axis. An auxiliary line 432 corresponding to the measurement position of the maximum Feret diameter and an auxiliary line 433 corresponding to the minimum Feret diameter are superimposed on the affected area 431 of the image 430 . By superimposing the auxiliary lines 432 and 433 together with the lengths of the major axis and the minor axis, the photographer can confirm which part of the image is being measured.

図4(e)に示す画像440は、長径が図4(d)に示す画像430と同じであるが、短径が最小フェレ径ではなく最大フェレ径の軸に直交する方向で計測した長さによるものである。また、画像440の患部領域441には、最大フェレ径の計測位置に相当する補助線442と、最大フェレ径の軸に直交する方向で計測した長さに相当する補助線443が重畳される。 An image 440 shown in FIG. 4E has the same major axis as the image 430 shown in FIG. It is due to An auxiliary line 442 corresponding to the measurement position of the maximum Feret diameter and an auxiliary line 443 corresponding to the length measured in the direction perpendicular to the axis of the maximum Feret diameter are superimposed on the affected area 441 of the image 440 .

なお、図4(c)~(e)に示した、画像に重畳する各種情報は、何れか1つまたは複数の組み合わせであってもよく、撮影者が表示する情報を選択できるようにしてもよい。また、長径や短径等の情報は、S345における画像解析により取得されている。
また、本実施形態では、画像処理装置120が長径や短径等の情報を画像に重畳して撮像装置100に送信し、撮像装置100は単純に重畳された画像を表示することで撮像装置100の処理負荷の軽減している。ただし、画像処理装置120が長径や短径等の情報を付随情報として撮像装置100に送信し、撮像装置100が重畳して表示するようにしてもよい。
It should be noted that the various information superimposed on the image shown in FIGS. good. Information such as the major axis and the minor axis are obtained by the image analysis in S345.
Further, in the present embodiment, the image processing apparatus 120 superimposes information such as the major axis and the minor axis on an image and transmits the information to the imaging apparatus 100, and the imaging apparatus 100 simply displays the superimposed image. processing load is reduced. However, the image processing apparatus 120 may transmit information such as the major axis and the minor axis to the imaging apparatus 100 as accompanying information, and the imaging apparatus 100 may superimpose and display the information.

次に、撮像装置100による処理に移る。
S316では、撮像装置100のCPU103は、画像処理装置120から送信された画像を受信する。
S317では、CPU103は、受信した画像を表示部107に表示する。
S318では、CPU103は、撮影した画像を管理サーバ130に登録するか否かを撮影者に確認するメッセージを表示部107に表示する。管理サーバ130に登録することを撮影者が選択した場合にはS319に進み、登録することを撮影者が選択しない場合には処理を終了する。
Next, the processing by the imaging device 100 is performed.
In S<b>316 , the CPU 103 of the imaging device 100 receives the image transmitted from the image processing device 120 .
In S<b>317 , the CPU 103 displays the received image on the display unit 107 .
In S<b>318 , the CPU 103 displays on the display unit 107 a message asking the photographer whether or not to register the captured image in the management server 130 . If the photographer selects registration with the management server 130, the process advances to step S319, and if the photographer does not select registration, the process ends.

S319では、CPU103は、S315において画像処理装置120に送信した画像と解析結果の情報とを管理サーバ130に登録する指示を、画像処理装置120に送信する。本実施形態では、画像処理装置120のCPU121は、受信した指示に応じて、記憶した画像と解析結果の情報とを管理サーバ130に送信する。ただし、撮像装置100から直接、画像と解析結果の情報とを管理サーバ130に送信してもよい。 In S<b>319 , the CPU 103 transmits to the image processing apparatus 120 an instruction to register in the management server 130 the image and the analysis result information transmitted to the image processing apparatus 120 in S<b>315 . In this embodiment, the CPU 121 of the image processing apparatus 120 transmits the stored image and the information of the analysis result to the management server 130 according to the received instruction. However, the imaging device 100 may directly transmit the image and information on the analysis result to the management server 130 .

次に、画像処理装置120の処理に移る。
S350では、CPU121は、撮像装置100から画像と解析結果の情報とを管理サーバ130に登録する指示を受信する。
S351では、CPU121は、管理サーバ130への登録処理を行うために、必要なデータを管理サーバ130に送信する。ここで、送信するデータは、撮影した画像、解析結果の情報(被写体までの距離情報、患部領域の位置、患部領域の面積、長径の長さ、長径の傾き、短径の長さ、短径の傾き、矩形の面積)、タグの画像である。タグの画像は、S301において撮影されたものである。
Next, the processing of the image processing device 120 is performed.
In S<b>350 , the CPU 121 receives an instruction from the imaging device 100 to register the image and the analysis result information in the management server 130 .
In S<b>351 , the CPU 121 transmits necessary data to the management server 130 in order to perform registration processing with the management server 130 . Here, the data to be transmitted is the photographed image, the information of the analysis result (distance information to the subject, the position of the affected area, the area of the affected area, the length of the major axis, the inclination of the major axis, the length of the minor axis, the minor axis slope, area of the rectangle), and the image of the tag. The image of the tag was taken in S301.

次に、管理サーバ130の処理に移る。
S360では、管理サーバ130のCPU131は、画像処理装置120から送信されたデータを受信する。
S361では、CPU131は、タグの画像に含まれるバーコードの情報を読み取る。
S362では、CPU131は、読み取ったバーコードの情報に基づいて患者IDを取得する。管理サーバ130は、バーコードの情報に対して、患者IDおよび患者名が関連付けられたデータベースを二次記憶装置133に記憶している。CPU131は、データベースから、バーコードの情報に関連付けられた患者IDを取得する。
Next, the processing of the management server 130 is performed.
In S<b>360 , the CPU 131 of the management server 130 receives data transmitted from the image processing device 120 .
In S361, the CPU 131 reads the barcode information included in the tag image.
In S362, the CPU 131 acquires the patient ID based on the read bar code information. The management server 130 stores in the secondary storage device 133 a database in which patient IDs and patient names are associated with bar code information. The CPU 131 acquires the patient ID associated with the barcode information from the database.

S363では、CPU131は、画像処理装置120から送信されたデータを、管理サーバ130の二次記憶装置133に記憶されたデータベースのレコードに登録する。管理サーバ130は、患者IDおよび患者名に関連付けて画像を登録し、画像に関連付けて解析結果の情報を登録する。データベースのレコードに登録することで、ユーザは画像閲覧装置140を用いて患者ごとに褥瘡の画像を閲覧することができる。
S364では、CPU131は、データを登録した旨の完了通知を画像処理装置120に送信する。
In S<b>363 , the CPU 131 registers the data transmitted from the image processing device 120 in the database record stored in the secondary storage device 133 of the management server 130 . The management server 130 registers images in association with patient IDs and patient names, and registers information on analysis results in association with images. By registering in the database record, the user can use the image browsing device 140 to browse images of pressure ulcers for each patient.
In S<b>364 , the CPU 131 transmits to the image processing apparatus 120 a completion notice indicating that the data has been registered.

次に、画像処理装置120の処理に移る。
S352では、画像処理装置120のCPU121は、管理サーバ130から完了通知を受信する。
S353では、CPU121は、データを登録した旨の完了通知を撮像装置100に送信する。
Next, the processing of the image processing device 120 is performed.
In S<b>352 , the CPU 121 of the image processing apparatus 120 receives the completion notification from the management server 130 .
In S<b>353 , the CPU 121 transmits to the imaging device 100 a completion notification indicating that the data has been registered.

次に、撮像装置100の処理に移る。
S320では、撮像装置100のCPU103は、画像処理装置120から完了通知を受信する。CPU103は、完了通知を受信することに応じて、管理サーバ130への登録が完了した旨のメッセージを表示部107に表示する。
このように、画像処理システムでは、撮像装置100、画像処理装置120、管理サーバ130により、褥瘡の撮影、患部領域の解析、管理サーバ130への登録を行うことができる。
Next, the processing of the imaging device 100 is performed.
In S<b>320 , the CPU 103 of the imaging device 100 receives a completion notification from the image processing device 120 . Upon receiving the completion notification, CPU 103 displays on display unit 107 a message indicating that the registration with management server 130 has been completed.
As described above, in the image processing system, the imaging device 100, the image processing device 120, and the management server 130 can photograph the pressure ulcer, analyze the affected area, and register it in the management server 130. FIG.

次に、褥瘡の画像を閲覧する場合について説明する。
一般的には、褥瘡の患者に対して褥瘡を定期的に撮影して、経過を観察することが行われる。ここで、一週間ごとに褥瘡の撮影を行った場合の画像の例について説明する。
図5(a)~(c)は、一週間ごとに同一患者の褥瘡を撮影した画像の一例を示す図である。画像500~520において、患者および褥瘡の向きが何れも異なっているのは、撮影を行ったときの患者の姿勢、および、撮影者が撮像装置100を構えたときの姿勢が同じではないためである。
画像閲覧装置140では、患者ごとに撮影した画像を時系列に並べて表示することができる。このとき、褥瘡の経過を観察する場合に、褥瘡の向きが揃っていた方が視認性がよい。本実施形態では患部領域の長径を用いて画像の向きを揃える方法について説明する。
Next, the case of browsing images of pressure ulcers will be described.
In general, patients with pressure ulcers are photographed periodically to monitor their progress. Here, an example of an image obtained by photographing a pressure ulcer every week will be described.
FIGS. 5(a) to 5(c) are diagrams showing an example of images of the same patient's pressure ulcer taken every week. In the images 500 to 520, the orientations of the patient and the pressure ulcer are all different because the posture of the patient when the images were taken and the posture when the photographer held the imaging device 100 were not the same. be.
The image browsing device 140 can display the images taken for each patient in chronological order. At this time, when observing the progress of the pressure ulcer, visibility is better if the direction of the pressure ulcer is aligned. In this embodiment, a method of aligning the orientation of images using the major axis of the affected area will be described.

図6は、画像閲覧装置140および管理サーバ130の処理の一例を示すフローチャートである。
図6(a)は、ユーザが閲覧したい患者を選択するために、管理サーバ130内に記憶されている患者名一覧を画像閲覧装置140に表示する処理の一例を示すフローチャートである。なお、管理サーバ130がWebサーバを有していれば、画像閲覧装置140からWebブラウザを通して画像を閲覧することができる。この場合、画像閲覧装置140はWebブラウザを表示できるデバイスであればよく、例えば、スマートフォン、タブレット端末、PC等を用いることができる。
FIG. 6 is a flow chart showing an example of processing of the image browsing device 140 and the management server 130. As shown in FIG.
FIG. 6A is a flow chart showing an example of processing for displaying a list of patient names stored in the management server 130 on the image viewing device 140 so that the user can select a patient to view. If the management server 130 has a web server, images can be viewed from the image viewing device 140 through a web browser. In this case, the image browsing device 140 may be any device that can display a web browser, such as a smart phone, a tablet terminal, or a PC.

S600では、画像閲覧装置140のCPU141は、ユーザの指示に応じて管理サーバ130に対して患者名一覧の取得要求を送信する。
S610では、管理サーバ130のCPU131は、画像閲覧装置140から患者名一覧の取得要求を受信する。
S611では、CPU131は、二次記憶装置133に記憶されたデータベースから患者名一覧の情報を取得する。このとき、CPU131は、患者名に関連付けられた画像の撮影日時のうち最初の撮影日時および最後の撮影日時の情報を取得してもよい。
S612では、CPU131は、取得した患者名一覧の情報および撮影日時の情報を画像閲覧装置140に送信する。
In S600, the CPU 141 of the image browsing device 140 transmits a patient name list acquisition request to the management server 130 in accordance with the user's instruction.
In S<b>610 , the CPU 131 of the management server 130 receives a patient name list acquisition request from the image browsing device 140 .
In S<b>611 , the CPU 131 acquires patient name list information from the database stored in the secondary storage device 133 . At this time, the CPU 131 may acquire information on the first shooting date and time and the last shooting date and time of the shooting dates of the images associated with the patient name.
In S<b>612 , the CPU 131 transmits the acquired patient name list information and imaging date/time information to the image viewing apparatus 140 .

S601では、画像閲覧装置140のCPU141は、管理サーバ130から送信された患者名一覧の情報および撮影日時の情報を受信する。
S602では、CPU141は、取得した情報に基づいて患者名一覧を表示部145に表示する。
図7は、患者名一覧を表示した画面700の一例を示す図である。
画面700には、フォルダアイコン701、撮影日時702、検索窓703、スクロールバー704が表示される。フォルダアイコン701には、患者IDおよび患者名が表示される。ここでは、8人分の患者に相当するフォルダアイコン701が表示されている。撮影日時702は、患者ごとに最初の撮影日時と最後の撮影日時とが表示される。検索窓703は、患者が多数いる場合にユーザが患者ID、患者名、撮影日時を入力して、検索を行うことができる表示アイテムである。スクロールバー704は、患者が多数おり、画面に表示されていないフォルダアイコン701を表示したい場合に、ユーザが移動させるように操作する表示アイテムである。ここで、ユーザは患者名一覧から褥瘡の画像を閲覧したい患者をタッチパネル等の操作部146を介して選択することができる。
In S<b>601 , the CPU 141 of the image viewing apparatus 140 receives the patient name list information and the imaging date/time information transmitted from the management server 130 .
In S602, the CPU 141 displays a patient name list on the display unit 145 based on the acquired information.
FIG. 7 is a diagram showing an example of a screen 700 displaying a list of patient names.
A screen 700 displays a folder icon 701 , a shooting date and time 702 , a search window 703 and a scroll bar 704 . A patient ID and a patient name are displayed in the folder icon 701 . Here, folder icons 701 corresponding to eight patients are displayed. The date and time of imaging 702 displays the date and time of the first imaging and the date and time of the last imaging for each patient. A search window 703 is a display item that allows the user to enter a patient ID, patient name, and imaging date and time to perform a search when there are many patients. A scroll bar 704 is a display item that the user operates to move when there are many patients and the user wants to display folder icons 701 that are not displayed on the screen. Here, the user can select a patient for whom the image of the pressure sore is to be viewed from the patient name list via the operation unit 146 such as a touch panel.

図6(b)は、ユーザが褥瘡の画像を閲覧したい患者を選択して、管理サーバ130内に記憶されている、選択された患者に対応する褥瘡の画像を画像閲覧装置140に表示する処理の一例を示すフローチャートである。
S620では、画像閲覧装置140のCPU141は、ユーザによる指示に応じて管理サーバ130に対して画像取得要求を送信する。具体的には、CPU141は、ユーザにより閲覧したい患者に対応するフォルダアイコンが選択されることに応じて、画像取得要求を送信する。このとき、CPU141は選択された患者の患者IDも送信する。
FIG. 6B shows a process in which the user selects a patient whose pressure ulcer image is to be viewed, and the pressure ulcer image corresponding to the selected patient stored in the management server 130 is displayed on the image viewing device 140. 2 is a flowchart showing an example of .
In S620, the CPU 141 of the image browsing device 140 transmits an image acquisition request to the management server 130 according to the user's instruction. Specifically, the CPU 141 transmits an image acquisition request in response to the user selecting a folder icon corresponding to a patient to be browsed. At this time, the CPU 141 also transmits the patient ID of the selected patient.

S630では、管理サーバ130のCPU131は、画像閲覧装置140から送信された画像取得要求および患者IDを受信する。
S631では、CPU131は、二次記憶装置133に記憶されたデータベースから患者IDに関連付けられた各画像と、各画像に関連付けられた解析結果の情報とを取得する。
S632では、CPU131は、各画像に関連付けられた解析結果の情報に含まれる、患部領域の長径の情報に基づいて各画像を回転させる。なお、画像を回転させる方法の詳細については後述する。
In S<b>630 , the CPU 131 of the management server 130 receives the image acquisition request and patient ID transmitted from the image browsing device 140 .
In S<b>631 , the CPU 131 acquires each image associated with the patient ID and the analysis result information associated with each image from the database stored in the secondary storage device 133 .
In S632, the CPU 131 rotates each image based on the information about the major axis of the affected area included in the analysis result information associated with each image. Details of the method for rotating the image will be described later.

S633では、CPU131は、回転させた画像、撮影日時の情報、解析結果の情報を画像閲覧装置140に送信する。解析結果の情報には、被写体までの距離情報、患部領域の位置、患部領域の面積、長径の長さ、長径の傾き、短径の長さ、短径の傾き、矩形の面積の情報が含まれる。
S621では、CPU141は、管理サーバ130から回転された各画像と解析結果の情報とを受信する。
S622では、CPU141は、受信した各画像と解析結果の情報とを表示部145に表示する。
In S<b>633 , the CPU 131 transmits the rotated image, the information on the shooting date and time, and the information on the analysis result to the image viewing apparatus 140 . The information of the analysis results includes information on the distance to the subject, the position of the affected area, the area of the affected area, the length of the major axis, the inclination of the major axis, the length of the minor axis, the inclination of the minor axis, and the area of the rectangle. be
In S<b>621 , the CPU 141 receives each rotated image and the information of the analysis result from the management server 130 .
In S<b>622 , the CPU 141 displays each received image and the information of the analysis result on the display unit 145 .

(第1表示例)
図8は、受信した褥瘡の画像および解析結果の情報を表示する画面の表示例を示す図である。図8(a)に示す画面800には、患者名801、画像802~804、評価表示部808、撮影日時809、スケール810、戻るボタン811、第1のスライダーバー812、第2のスライダーバー813等が表示される。
患者名801は、ユーザが患者名一覧から選択した患者の名前が表示される。画像802~804は、回転させた褥瘡の画像が表示される。また、画像802~804には、それぞれ患部領域805、患部領域の長径806、患部領域の短径807が表示される。評価表示部808は、解析結果の一部である、患部領域の面積、長径の長さ、短径の長さ、DESIGN-Rの値が表示される。
(First display example)
FIG. 8 is a diagram showing a display example of a screen that displays the received pressure ulcer image and analysis result information. A screen 800 shown in FIG. 8A includes a patient name 801, images 802 to 804, an evaluation display area 808, an imaging date and time 809, a scale 810, a return button 811, a first slider bar 812, and a second slider bar 813. etc. is displayed.
A patient name 801 displays the name of the patient selected by the user from the patient name list. Images 802-804 display rotated images of the pressure ulcer. Images 802 to 804 also display an affected area 805, a longer axis 806 of the affected area, and a shorter axis 807 of the affected area. An evaluation display portion 808 displays the area of the affected area, the length of the major axis, the length of the minor axis, and the value of DESIGN-R, which are part of the analysis results.

撮影日時809は、画像を撮影した日時が表示される。ここで、画像802~804は、撮影日時809に基づいて左側が右側になるにしたがって日時が新しくなるようにソートして表示される。したがって、ユーザは褥瘡の経過を観察し易くなっている。スケール810は、画像1ピクセル当りの実距離に基づいて表示される。したがって、ユーザはスケール810を確認することで褥瘡の大きさを把握し易くなっている。 The photographing date and time 809 displays the date and time when the image was photographed. Here, the images 802 to 804 are sorted and displayed on the basis of the shooting date/time 809 so that the date/time becomes newer from the left side to the right side. Therefore, it is easier for the user to observe the progress of the pressure ulcer. A scale 810 is displayed based on the actual distance per image pixel. Therefore, the user can easily grasp the size of the pressure ulcer by checking the scale 810 .

第1のスライダーバー812は、画像が多数あり、画面に表示されていない画像を表示したい場合に、ユーザが移動させるように操作する表示アイテムである。ユーザが第1のスライダーバー812を操作することで、古い撮影日時あるいは新しい撮影日時の画像が表示される。第2のスライダーバー813は、画像の表示サイズを変更して表示したい場合に、ユーザが移動させるように操作する表示アイテムである。ユーザが第2のスライダーバー813を操作して表示サイズを小さくすると、一つ一つの画像は小さく表示されるが、一画面に多くの画像を表示することができる。戻るボタン811は、図7に示す患者一覧の画面に戻るときに操作する表示アイテムである。 A first slider bar 812 is a display item that the user operates to move when there are many images and the user wants to display an image that is not displayed on the screen. By operating the first slider bar 812 by the user, an image of an old shooting date or a new shooting date is displayed. A second slider bar 813 is a display item operated by the user to move when the user wishes to change the display size of an image and display it. When the user operates the second slider bar 813 to reduce the display size, each image is displayed in a small size, but many images can be displayed on one screen. A return button 811 is a display item operated to return to the patient list screen shown in FIG.

ここで、画像802~804はそれぞれ、患部領域の長径の傾きが一致して表示されている。すなわち、上述したS632では、管理サーバ130のCPU131は、各画像の患部領域の長径の傾きが一致するように各画像を回転させる。患部領域の長径は、患部領域に設定された基準線の一例である。このように、長径を基準線にして褥瘡の向きを揃えて画像を表示することで複数の画像を容易に比較でき、褥瘡の経過を観察し易くすることができる。ここで、一致とは、完全に一致する場合に限られず、ユーザが一致していると認識できる場合が含まれる。 Here, the images 802 to 804 are displayed with the slopes of the major axes of the diseased regions matching. That is, in S632 described above, the CPU 131 of the management server 130 rotates each image so that the inclinations of the major axes of the affected area regions of each image match. The major axis of the affected area is an example of a reference line set in the affected area. In this way, by displaying images with the direction of the pressure ulcer aligned with the major axis as the reference line, a plurality of images can be easily compared, and the progress of the pressure ulcer can be easily observed. Here, matching is not limited to a complete match, but includes a case where the user can recognize a match.

なお、図8(a)では、1つの画像802の患部領域の長径の傾きを基準にして、他の2つの画像803、804を回転させている。ここで、基準とする画像は、最初の撮影日時の画像、最後の撮影日時の画像、または、ユーザが任意に選択した画像の何れであってもよい。すなわち、上述したS632では、管理サーバ130のCPU131は、各画像のうち基準とする画像を回転させず、他の画像を患部領域の長径の傾きが一致するように回転させる。また、同一患者において一つの長径の傾きの基準となる画像を選択すればよく、異なる患者間で長径の傾きを一致させる必要は無い。
なお、本表示例では、管理サーバ130のCPU131が画像を回転する場合について説明したが、画像閲覧装置140が画像を回転させてもよい。具体的には、画像閲覧装置140のCPU141は、管理サーバ130から少なくとも各画像と各画像の患部領域の長径の情報とを受信し、各画像を患部領域の長径の傾きが一致するように回転させる。
Note that in FIG. 8A, the other two images 803 and 804 are rotated based on the inclination of the major axis of the diseased area of one image 802 . Here, the image used as a reference may be any of an image taken at the first shooting date, an image taken at the last shooting date, or an image arbitrarily selected by the user. That is, in S632 described above, the CPU 131 of the management server 130 does not rotate the reference image among the images, but rotates the other images so that the slopes of the major axes of the affected area match. In addition, it is only necessary to select one image that serves as a reference for the inclination of the major axis of the same patient, and it is not necessary to match the inclination of the major axis between different patients.
In this display example, the case where the CPU 131 of the management server 130 rotates the image has been described, but the image browsing device 140 may rotate the image. Specifically, the CPU 141 of the image browsing device 140 receives at least each image and information on the long axis of the affected area of each image from the management server 130, and rotates each image so that the inclination of the long axis of the affected area matches. Let

図8(b)は、図8(a)と異なる画面の表示例を示す図である。なお、図8(a)と同一の表示アイテムについては適宜、説明を省略する。図8(b)に示す画面820には、画像821~823等が表示される。
画像821~823は、回転させた褥瘡の画像が表示される。また、画像821~823には、それぞれ患部領域824、患部領域の長径825、患部領域の短径826が表示される。
FIG. 8(b) is a diagram showing a display example of a screen different from that of FIG. 8(a). Note that the description of the same display items as those in FIG. 8A will be omitted as appropriate. Images 821 to 823 and the like are displayed on a screen 820 shown in FIG. 8B.
Images 821 to 823 are rotated images of pressure ulcers. Images 821 to 823 also display an affected area 824, a longer axis 825 of the affected area, and a shorter axis 826 of the affected area.

ここで、画像821~823はそれぞれ、患部領域の長径の傾きが画面820の横方向(水平方向)に対して0度になるように表示されている。すなわち、上述したS632では、管理サーバ130のCPU131は、各画像の患部領域の長径の傾きが横方向と一致するように各画像を回転させる。このように、長径の傾きが横方向と一致するように褥瘡の向きを揃えて画像を表示することで複数の画像を容易に比較でき、褥瘡の経過を更に観察し易くすることができる。 Here, each of the images 821 to 823 is displayed so that the inclination of the long axis of the diseased region is 0 degrees with respect to the lateral direction (horizontal direction) of the screen 820 . That is, in S632 described above, the CPU 131 of the management server 130 rotates each image so that the inclination of the major axis of the affected area region of each image matches the horizontal direction. In this way, by aligning the direction of the pressure ulcer and displaying the images so that the inclination of the long axis matches the horizontal direction, a plurality of images can be easily compared, and the progress of the pressure ulcer can be observed more easily.

なお、回転させた画像を矩形の表示枠814に表示すると、画像の端の部分が切り取られてしまい、そのまま表示すると画像の大きさが揃わなくなる場合が想定される。画像閲覧装置140のCPU141は、矩形の表示枠に対して画像の大きさが足りない場合には、画像を拡大して表示したり、足りない部分を黒塗りで表示したりすることで対応することができる。このとき、画像閲覧装置140のCPU141は、画像を拡大する場合にはスケール810の大きさを調整して表示する。
また、撮像装置100のCPU103は、画像閲覧装置140により画像が回転して表示されることを想定して、撮影時に褥瘡の周囲を余分に撮影するようにユーザに対してガイダンスを表示してもよい。
Note that if the rotated image is displayed in the rectangular display frame 814, the edges of the image will be cut off, and if the image is displayed as it is, the size of the image may not be uniform. When the size of the image is insufficient for the rectangular display frame, the CPU 141 of the image browsing device 140 responds by enlarging and displaying the image or displaying the insufficient portion in black. be able to. At this time, the CPU 141 of the image browsing device 140 adjusts the size of the scale 810 and displays it when enlarging the image.
In addition, the CPU 103 of the imaging apparatus 100 may display guidance to the user to additionally photograph the surroundings of the pressure ulcer during imaging, assuming that the image will be rotated and displayed by the image viewing device 140. good.

(第2表示例)
褥瘡を撮影する場合には画像の向きの違いに限られず、画像における褥瘡の大きさの違いが生じる。すなわち、患者の近くで撮影したり、撮像装置100のズーム倍率を上げて撮影したりすれば、褥瘡が大きく撮影される。逆に、患者から離れて撮影したり、撮像装置100のズーム倍率を下げて撮影したりすれば、褥瘡が小さく撮影される。
(Second display example)
When photographing a pressure ulcer, not only the difference in the orientation of the image, but also the difference in the size of the pressure ulcer in the image occurs. That is, if the image is taken near the patient, or if the image is taken with the imaging device 100 having a higher zoom magnification, the decubitus ulcer will be imaged larger. Conversely, if the image is taken at a distance from the patient, or if the zoom magnification of the imaging device 100 is lowered, the decubitus ulcer will be imaged smaller.

図9(a)~(c)は、同一患者の褥瘡を異なる距離で撮影した画像の一例を示す図である。画像900~920では、褥瘡のサイズがそれぞれ大きく異なっている。画像900を基準にすると、画像910はより患者の近くで撮影したために、褥瘡が大きく表示されている。また、画像900を基準にすると、画像920は患者から離れて撮影したために、褥瘡が小さく表示されている。
このような画像を上述した第1表示例のように、画像閲覧装置140で閲覧すると、褥瘡の向きを揃えることができるが、大きさを揃えることが困難である。褥瘡の状態は大きさが指標となるため、撮像装置100から被写体までの距離を一定にして撮影することが望ましい。しかしながら、現実的には毎回、被写体までの距離を一定にして撮影することは難しいため、疑似的に撮影距離が一定になるように画像を拡大・縮小して表示することで、褥瘡の経過を適切に観察することができる。
FIGS. 9A to 9C are diagrams showing examples of images of the same patient's pressure ulcer taken at different distances. In images 900-920, the size of the pressure ulcer is significantly different. Using the image 900 as a reference, the image 910 is taken closer to the patient, so the pressure ulcer is displayed larger. Also, when the image 900 is used as a reference, the image 920 is taken away from the patient, so the pressure ulcer is displayed small.
When such an image is viewed with the image viewing device 140 as in the first display example described above, it is possible to align the directions of the bedsores, but it is difficult to align the sizes. Since the size of a decubitus ulcer serves as an index, it is desirable to photograph the subject at a constant distance from the imaging device 100 . However, in reality, it is difficult to keep the distance to the subject constant each time the image is taken. can be properly observed.

図10は、画像を拡大・縮小させる処理を含む、画像閲覧装置140および管理サーバ130の処理の一例を示すフローチャートである。図10のフローチャートは、図6(b)のフローチャートにS1013の処理が追加されている。なお、他の処理は、図6(b)のフローチャートと同様であり適宜、説明を省略する。
S1013では、管理サーバ130のCPU131は、撮影距離に基づいて画像を拡大・縮小させる。ここで、撮影距離とは、撮像装置100から被写体までの距離情報であり、S314において画像撮影時に測距部110が取得し、S319において解析結果の一部として送信した情報である。また、被写体までの距離情報は、S351において画像処理装置120から管理サーバ130に送信され、各画像に関連付けて管理サーバ130の二次記憶装置133に記憶されたデータベースに登録されている。
FIG. 10 is a flow chart showing an example of processing of the image browsing device 140 and the management server 130, including processing for enlarging/reducing an image. In the flowchart of FIG. 10, the process of S1013 is added to the flowchart of FIG. 6B. Other processes are the same as those in the flowchart of FIG. 6B, and description thereof will be omitted as appropriate.
In S1013, the CPU 131 of the management server 130 enlarges/reduces the image based on the shooting distance. Here, the shooting distance is information about the distance from the imaging device 100 to the subject, and is information acquired by the distance measuring unit 110 at the time of image shooting in S314 and transmitted as part of the analysis result in S319. Further, the distance information to the subject is transmitted from the image processing device 120 to the management server 130 in S351, and registered in the database stored in the secondary storage device 133 of the management server 130 in association with each image.

ここで、画像の拡大・縮小する方法として3つの方法が想定される。
1つ目は、全画像の撮影距離の平均を算出して、その平均値になるように各画像を拡大・縮小する方法である。具体的には、S1011において、管理サーバ130のCPU131は、褥瘡の画像を取得するときに、各画像の撮影距離も取得する。したがって、管理サーバ130のCPU131は、各画像の撮影距離に基づいて平均値を算出することができる。
2つ目は、撮影日時が最初の画像または最後の画像の撮影距離になるように各画像を拡大・縮小する方法である。具体的には、S1011において、管理サーバ130のCPU131は、最初の画像または最後の画像の撮影距離を取得して、取得した撮影距離に基づいて各画像を拡大・縮小する。
3つ目は、撮影距離が最も近い画像または最も遠い画像に合わせて、各画像を拡大・縮小する方法である。具体的には、S1011において、管理サーバ130のCPU131は、撮影距離が最も近い画像または最も遠い画像の撮影距離が取得して、取得した撮影距離に基づいて各画像を拡大・縮小する。
Here, three methods are assumed as methods for enlarging/reducing an image.
The first method is to calculate the average of the photographing distances of all images, and enlarge or reduce each image so as to obtain the average value. Specifically, in S<b>1011 , the CPU 131 of the management server 130 also acquires the photographing distance of each image when acquiring images of pressure ulcers. Therefore, the CPU 131 of the management server 130 can calculate the average value based on the shooting distance of each image.
The second method is to enlarge/reduce each image so that the photographing date and time correspond to the photographing distance of the first image or the last image. Specifically, in S1011, the CPU 131 of the management server 130 acquires the shooting distance of the first image or the last image, and enlarges/reduces each image based on the acquired shooting distance.
The third is a method of enlarging/reducing each image according to the image with the closest shooting distance or the farthest image. Specifically, in S1011, the CPU 131 of the management server 130 acquires the shooting distance of the image with the shortest shooting distance or the farthest shooting distance, and enlarges/reduces each image based on the acquired shooting distance.

図11は、撮影距離に基づいて拡大・縮小した画像を表示した画面1100の表示例を示す図である。
図11に示す画面1100には、拡大・縮小した画像1101~1103等が表示される。画像1101は図9(a)に示す画像900が元の画像であり、画像1102は図9(b)に示す画像910が元の画像であり、画像1103は図9(c)に示す画像が元の画像である。
FIG. 11 is a diagram showing a display example of a screen 1100 displaying an image enlarged/reduced based on the shooting distance.
Enlarged/reduced images 1101 to 1103 and the like are displayed on a screen 1100 shown in FIG. The image 1101 is the original image of the image 900 shown in FIG. 9A, the image 1102 is the original image of the image 910 shown in FIG. 9B, and the image 1103 is the original image of the image shown in FIG. This is the original image.

ここで、画像1101の患部領域1104の大きさは、画像900の患部領域901の大きさと同じあるため、画像1101には拡大・縮小がされていない。
画像1102の元の画像910は近距離で撮影されたものであり、画像910の患部領域911は大きいが、画像1102は縮小されているために患部領域1105が小さく表示される。なお、管理サーバ130のCPU131は、画像を縮小した場合には元の画像の大きさを示す輪郭1107を描画して、輪郭1107の外側の部分を黒一色または白一色にするように画像を生成する。
画像1103の元の画像920は遠距離で撮影されたものであり、画像920の患部領域921は小さいが、画像1103は拡大されているために患部領域1106が大きく表示される。
Here, since the size of the diseased region 1104 of the image 1101 is the same as the size of the diseased region 901 of the image 900, the image 1101 is not enlarged or reduced.
The original image 910 of the image 1102 was taken at a short distance, and the diseased region 911 of the image 910 is large, but the diseased region 1105 is displayed small because the image 1102 is reduced. Note that when the image is reduced, the CPU 131 of the management server 130 draws a contour 1107 indicating the size of the original image, and generates the image so that the portion outside the contour 1107 is solid black or solid white. do.
The original image 920 of the image 1103 was taken at a long distance, and the diseased region 921 of the image 920 is small, but the diseased region 1106 is displayed large because the image 1103 is magnified.

このように、各画像の撮影距離に基づいて、各画像の撮影距離が疑似的に一致するように拡大または縮小することで複数の画像を容易に比較でき、褥瘡の経過を更に観察し易くすることができる。
なお、本表示例では、管理サーバ130のCPU131が画像を拡大・縮小する場合について説明したが、画像閲覧装置140が画像を拡大・縮小してもよい。具体的には、画像閲覧装置140のCPU141は、管理サーバ130から少なくとも各画像と各画像の撮影距離とを受信し、各画像の撮影距離が疑似的に一致するように各画像を拡大または縮小してもよい。
In this way, by enlarging or reducing the photographing distance of each image based on the photographing distance of each image so that the photographing distance of each image is pseudo-matched, a plurality of images can be easily compared, and the progress of the pressure ulcer can be more easily observed. be able to.
In this display example, the case where the CPU 131 of the management server 130 enlarges/reduces the image has been described, but the image viewing apparatus 140 may enlarge/reduce the image. Specifically, the CPU 141 of the image browsing device 140 receives at least each image and the shooting distance of each image from the management server 130, and enlarges or reduces each image so that the shooting distances of each image pseudo-match. You may

(第3表示例)
ユーザが画像を閲覧するのは褥瘡の経過を観察することが目的である。したがって、褥瘡がはっきりと分かるように画像を拡大することで、褥瘡の視認性を向上させることができる。
図12は、画像を拡大させる処理を含む、画像閲覧装置140および管理サーバ130の処理の一例を示すフローチャートである。図12のフローチャートは、図6(b)のフローチャートにS1213の処理が追加されている。なお、他の処理は、図6(b)のフローチャートと同様であり適宜、説明を省略する。
S1213では、管理サーバ130のCPU131は、患部領域の位置に基づいて画像を拡大する。
(Third display example)
The purpose of the user's viewing of the images is to observe the progress of the pressure ulcer. Therefore, by enlarging the image so that the pressure ulcer can be clearly seen, the visibility of the pressure ulcer can be improved.
FIG. 12 is a flow chart showing an example of processing of image browsing device 140 and management server 130, including processing for enlarging an image. In the flowchart of FIG. 12, processing of S1213 is added to the flowchart of FIG. 6B. Other processes are the same as those in the flowchart of FIG. 6B, and description thereof will be omitted as appropriate.
In S1213, the CPU 131 of the management server 130 enlarges the image based on the position of the affected area.

ここで、画像を拡大する方法として2つの方法が想定される。
1つ目は、患部領域の縦方向または横方向のうち長い方の長さが、画像を表示する表示枠の縦方向または横方向の長さと同一になるように画像を拡大する方法である。具体的には、S1211において、管理サーバ130のCPU131は、褥瘡の画像を取得するときに、各画像の患部領域の位置の情報も取得する。CPU131は、患部領域の位置の情報に基づいて、患部領域が表示枠に収まるように画像を拡大する。この場合には、患部領域が表示枠にフィットするように画像が拡大される。
2つ目は、褥瘡の患部領域の周囲と表示枠との間で一定のマージンを設けるように画像を拡大する方法である。具体的には、S1211において、管理サーバ130のCPU131は、患部領域の位置の情報と、設定されたマージンの情報とに基づいて、患部領域が表示枠にマージンを介して収まるように画像を拡大する。
Here, two methods are assumed as a method of enlarging an image.
The first is a method of enlarging the image so that the length of the diseased area, whichever is longer, in the vertical or horizontal direction is the same as the length in the vertical or horizontal direction of the display frame that displays the image. Specifically, in S<b>1211 , the CPU 131 of the management server 130 also acquires information on the position of the affected area of each image when acquiring the image of the pressure ulcer. The CPU 131 enlarges the image so that the affected area fits within the display frame based on the positional information of the affected area. In this case, the image is enlarged so that the affected area fits within the display frame.
The second is a method of enlarging the image so as to provide a certain margin between the periphery of the affected area of the pressure ulcer and the display frame. Specifically, in S1211, the CPU 131 of the management server 130 enlarges the image so that the affected area fits within the display frame via the margin based on the information on the position of the affected area and the information on the set margin. do.

図13は、患部領域の位置に基づいて拡大した画像を表示した画面1300の表示例を示す図である。
図13に示す画面1300には、拡大した画像1301~1303が表示されている。画像1301~1303にはそれぞれ、患部領域1304~1306が大きく表示される。また、画像1301に示すように、患部領域1304と表示枠1308との間には一定のマージンM1、M2が設けられることで、患部領域1304に加えて患部領域1304の周辺領域が表示される。
FIG. 13 is a diagram showing a display example of a screen 1300 displaying an enlarged image based on the position of the affected area.
Enlarged images 1301 to 1303 are displayed on a screen 1300 shown in FIG. Affected regions 1304 to 1306 are displayed enlarged in images 1301 to 1303, respectively. Further, as shown in the image 1301, certain margins M1 and M2 are provided between the affected area 1304 and the display frame 1308, so that the affected area 1304 and the peripheral area of the affected area 1304 are displayed.

このように、患部領域の位置に基づいて各画像を拡大することで、ユーザは褥瘡をより詳細に観察することができる。なお、画像を拡大すると、画像1ピクセル当りの実距離も変わる。したがって、管理サーバ130のCPU131はスケール1307の大きさを拡大率に応じて変更する。また、各画像にはスケールが表示されていることからユーザはスケールを確認することで褥瘡の大きさを把握できるが、撮影距離を揃えた画像を確認したい場合がある。したがって、画像閲覧装置140のCPU141は、図11に示す画面1100の表示形態と図13に示す画面1300の表示形態とを、ラジオボタン等でユーザに選択させて切替えて表示するようにしてもよい。 By enlarging each image based on the position of the affected area in this way, the user can observe the pressure ulcer in greater detail. Note that when the image is enlarged, the actual distance per pixel of the image also changes. Therefore, the CPU 131 of the management server 130 changes the size of the scale 1307 according to the enlargement ratio. In addition, since the scale is displayed on each image, the user can grasp the size of the pressure ulcer by checking the scale. Therefore, the CPU 141 of the image viewing apparatus 140 may allow the user to select the display form of the screen 1100 shown in FIG. 11 and the display form of the screen 1300 shown in FIG. .

(第4表示例)
上述した処理では、画像処理装置120が自動的に患部領域の長径を算出する場合について説明したが、ユーザが自ら長径を指定したい場合がある。この場合には、ユーザが手動で患部領域の長径を指定し、指定された長径に基づいて画像を回転させることで褥瘡の向きが揃えられ、褥瘡の閲覧性を向上させることができる。
図14は、褥瘡の長径をユーザが手動で指定する方法を説明するための図である。
図14に示す画面1400には、画像1401~1403が表示されている。ここで、画像1401は、既にユーザが長径を指定した状態を示している。一方、画像1402、1403は、長径が未指定の状態を示している。
(Fourth display example)
In the processing described above, the case where the image processing apparatus 120 automatically calculates the major axis of the affected area has been described, but there are cases where the user himself/herself desires to specify the major axis. In this case, the user manually specifies the major axis of the affected area and rotates the image based on the specified major axis to align the orientation of the pressure ulcer and improve the visibility of the pressure ulcer.
FIG. 14 is a diagram for explaining how the user manually designates the length of the pressure ulcer.
Images 1401 to 1403 are displayed on a screen 1400 shown in FIG. Here, an image 1401 shows a state in which the user has already specified the major axis. On the other hand, images 1402 and 1403 show a state in which the major axis is not specified.

ユーザが長径を指定したい場合には、長径指定ボタン1405を押下することに応じて、画像閲覧装置140のCPU141は長径指定モードに遷移する。長径指定モードでは、ユーザは画像1402、1403上で長径を指定することができる。CPU141は、長径指定モードに遷移することに応じて患部領域を拡大して表示して、長径の指定を受け付けるようにしてもよい。このように、拡大して表示することで、ユーザは褥瘡をより詳細に確認しながら長径を指定することができる。
また、CPU141は、褥瘡の患部領域を拡大して表示していた状態で長径指定モードへの遷移を受け付けた場合には、拡大する前の元の褥瘡を含む画像全体を表示して、画像全体に対して長径の指定を受け付けるようにしてもよい。このように、元の画像全体を表示することで、ユーザは褥瘡以外の体の位置等を確認することができ、複数の画像において同じ向きの長径を指定することができる。
When the user desires to specify the major axis, the CPU 141 of the image viewing apparatus 140 transitions to the major axis specification mode in response to pressing the major axis specification button 1405 . In the major axis specification mode, the user can specify the major axis on the images 1402 and 1403 . The CPU 141 may enlarge and display the affected area in accordance with the transition to the major axis designation mode, and accept designation of the major axis. By enlarging the display in this way, the user can specify the major axis while confirming the decubitus ulcer in more detail.
Further, when the CPU 141 accepts a transition to the major axis designation mode in a state in which the affected area of the pressure ulcer is displayed in an enlarged manner, the CPU 141 displays the entire image including the original pressure ulcer before enlargement, and displays the entire image. You may make it accept designation|designated of a major axis with respect to. By displaying the entire original image in this way, the user can confirm the position of the body other than the pressure ulcer, and can specify the major axis in the same direction in a plurality of images.

画像1401には、指定された長径1410と短径1411とが表示される。ユーザが2点あるいは線分を指定することに応じて、CPU141は指定された2点を繋ぐ線分あるいは指定された線分を長径に設定する。CPU141は設定した長径の情報に基づいて、上述した長径と短径の算出方法を用いて短径を設定する。また、CPU141は設定した長径と短径とを画像に重畳して表示する。このとき、CPU141は、設定した長径の傾きが他の画像の長径の傾きと一致するように画像を回転して表示する。指定した長径を修正したい場合には、長径修正ボタン1404を押下することにより、ユーザは再び長径を指定することができる。
なお、CPU141は指定された長径の情報を管理サーバ130に送信して、管理サーバ130のCPU131が受信した長径の情報に基づいて他の画像に一致させるように回転させて、回転させた画像を画像閲覧装置140に送信するようにしてもよい。また、管理サーバ130のCPU131は、ユーザにより指定された長径の情報に基づいて短径を設定して、長径の長さ、短径の長さ、矩形の面積等を再度、算出してもよい。
The designated major axis 1410 and minor axis 1411 are displayed in the image 1401 . When the user designates two points or a line segment, the CPU 141 sets the line segment connecting the designated two points or the designated line segment as the major axis. Based on the set length information, the CPU 141 sets the length using the method for calculating the length and width described above. Further, the CPU 141 superimposes and displays the set major axis and minor axis on the image. At this time, the CPU 141 rotates and displays the image so that the set inclination of the major axis matches the inclination of the major axis of the other image. If the user wishes to correct the specified major axis, the user can press the major axis correction button 1404 to specify the major axis again.
Note that the CPU 141 transmits information on the designated major axis to the management server 130, and rotates the rotated image so as to match another image based on the information on the major axis received by the CPU 131 of the management server 130. You may make it transmit to the image browsing apparatus 140. FIG. Further, the CPU 131 of the management server 130 may set the minor axis based on the information on the major axis specified by the user, and recalculate the length of the major axis, the length of the minor axis, the area of the rectangle, and the like. .

また、長径をユーザが指定する場合には、図3のフローチャートのS345において長径および短径を算出する処理を省略することができる。一方、ユーザが長径を指定することに応じて、画像閲覧装置140のCPU141は長径の長さや傾き等の情報を管理サーバ130に送信する。管理サーバ130のCPU131は、二次記憶装置133に記憶されたデータベースに画像と関連付けて長径の情報を記憶する。したがって、次回以降、管理サーバ130のCPU131は記憶された長径の情報に基づいて画像を回転させることができることから、画像閲覧装置140のCPU141は褥瘡の向きを揃えて画像を表示することができる。 Further, when the user designates the major axis, the process of calculating the major axis and the minor axis in S345 of the flowchart of FIG. 3 can be omitted. On the other hand, the CPU 141 of the image viewing device 140 transmits information such as the length and inclination of the major axis to the management server 130 in response to the user specifying the major axis. The CPU 131 of the management server 130 stores information on the major axis in association with the image in the database stored in the secondary storage device 133 . Therefore, from the next time onwards, the CPU 131 of the management server 130 can rotate the image based on the stored length information, so the CPU 141 of the image viewing device 140 can display the image with the direction of the pressure ulcer aligned.

(第5表示例)
上述した処理では、同一患者では褥瘡の長径の傾きが変わらないことを前提として説明したが、褥瘡が真円に近い形状の場合には褥瘡の治癒が進むにつれて長径の傾きが変化する場合がある。
図15(a)~(c)は、同一患者の褥瘡を治癒が進むごとに撮影した画像の一例を示す図である。ここで、図15(a)に示す画像1500の患部領域1503に設定される長径1506と、図15(b)に示す画像1501の患部領域1504に設定される長径1507および図15(c)に示す画像1502の患部領域1505に設定される長径1508とを比較する。この場合、長径1506の傾きと、長径1507、1508の傾きとが異なっている。
図15に示す画像1500~1502において、長径の傾きを一致させるように各画像を回転させてしまうと、褥瘡の向きが揃わなくなってしまう。そこで、長径とは別に画像の向きを揃える基準線をユーザが指定できるようにする。
(Fifth display example)
In the above-described processing, it is assumed that the slope of the long axis of the pressure ulcer does not change for the same patient. However, if the pressure ulcer has a shape close to a perfect circle, the slope of the long axis may change as the pressure ulcer heals. .
FIGS. 15(a) to 15(c) are diagrams showing an example of images taken of the same patient's pressure ulcer as the healing progresses. Here, the major axis 1506 set in the affected area 1503 of the image 1500 shown in FIG. 15(a), the major axis 1507 set in the affected area 1504 of the image 1501 shown in FIG. The major axis 1508 set in the affected area 1505 of the image 1502 shown is compared. In this case, the slope of the major axis 1506 is different from the slope of the major axes 1507 and 1508 .
In images 1500 to 1502 shown in FIG. 15, if each image is rotated so that the slopes of the major axes are matched, the directions of the pressure ulcers will not be aligned. Therefore, the user can specify a reference line for aligning the orientation of the images, in addition to the major axis.

図16は、基準線を設定する画面1600の表示例を示す図である。
図16に示す画面1600には、画像1601~1603、基準線指定ボタン1605、チェックボタン1606、ラベル1608、取り消しボタン1609等が表示される。なお、画像1601~1603はそれぞれ、図15に示す画像1500~1502に対応している。
FIG. 16 is a diagram showing a display example of a screen 1600 for setting a reference line.
Images 1601 to 1603, a reference line designation button 1605, a check button 1606, a label 1608, a cancel button 1609, and the like are displayed on a screen 1600 shown in FIG. Images 1601 to 1603 correspond to images 1500 to 1502 shown in FIG. 15, respectively.

基準線指定ボタン1605は、ユーザが長径とは別に基準線を指定するときに押下するボタンである。基準線指定ボタン1605を押下することで、画像閲覧装置140のCPU141は基準線指定モードに遷移する。基準線指定モードでは、長径指定モードと同様に、ユーザが2点あるいは線分を指定することに応じて、CPU141は指定された2点を繋ぐ線分あるいは指定された線分を基準線に設定する。CPU141は設定した基準線の傾きが、他の画像の長径の傾きと一致するように画像1602を回転して表示する。ここでは、CPU141は、設定した基準線1607の傾きが、画像1602よりも前の撮影日時である画像1601の長径1610の傾きと一致するように画像1602を回転させる。
なお、CPU141は指定された基準線の情報を管理サーバ130に送信して、管理サーバ130のCPU131が受信した基準線の情報に基づいて他の画像に一致させるように回転させ、回転させた画像を画像閲覧装置140に送信するようにしてもよい。
A reference line specifying button 1605 is a button that the user presses when specifying a reference line in addition to the major axis. By pressing the reference line designation button 1605, the CPU 141 of the image viewing apparatus 140 transitions to the reference line designation mode. In the reference line designation mode, as in the major diameter designation mode, when the user designates two points or a line segment, the CPU 141 sets the line segment connecting the designated two points or the designated line segment as the reference line. do. The CPU 141 rotates and displays the image 1602 so that the inclination of the set reference line matches the inclination of the major axis of the other image. Here, the CPU 141 rotates the image 1602 so that the inclination of the set reference line 1607 matches the inclination of the major axis 1610 of the image 1601 taken at the date and time before the image 1602 .
Note that the CPU 141 transmits the designated reference line information to the management server 130, rotates the image so as to match another image based on the reference line information received by the CPU 131 of the management server 130, and rotates the rotated image. may be transmitted to the image browsing device 140 .

チェックボタン1606は、ユーザが基準線を指定した画像よりも後の撮影日時である画像についても同じ基準線を用いて画像を回転させたい場合に押下するボタンである。CPU141は、チェックボタン1606がチェックされている場合には、画像1602に設定した基準線1607の傾きと長径1604の傾きとの差分(角度差)を算出する。次に、CPU141は、画像1602よりも後の撮影日時である画像1603を、算出した差分(角度差)に相当する角度だけ回転させる。なお、CPU141はユーザにより指定された基準線の情報を管理サーバ130に送信して、管理サーバ130のCPU131が受信した基準線の情報に基づいて、基準線の傾きと長径の傾きとの差分を算出してもよい。管理サーバ130のCPU131は算出した差分に相当する角度だけ回転させた画像を画像閲覧装置140に送信するようにしてもよい。
ラベル1608は、基準線を指定済みであることをユーザに通知するための表示である。取り消しボタン1609は、ユーザが指定した基準線を取り消したい場合に押下するボタンである。
A check button 1606 is a button to be pressed when the user wants to rotate an image whose shooting date and time is later than the image for which the user has designated the reference line using the same reference line. When the check button 1606 is checked, the CPU 141 calculates the difference (angular difference) between the inclination of the reference line 1607 set in the image 1602 and the inclination of the major axis 1604 . Next, the CPU 141 rotates the image 1603 taken after the image 1602 by an angle corresponding to the calculated difference (angular difference). The CPU 141 transmits information on the reference line specified by the user to the management server 130, and based on the information on the reference line received by the CPU 131 of the management server 130, calculates the difference between the slope of the reference line and the slope of the major axis. can be calculated. The CPU 131 of the management server 130 may transmit the image rotated by the angle corresponding to the calculated difference to the image browsing device 140 .
A label 1608 is a display for notifying the user that the reference line has been specified. A cancel button 1609 is a button that is pressed when the user wishes to cancel the specified reference line.

このように、褥瘡の治癒が進むにつれて長径の傾きが変化した場合であっても、ユーザが指定した基準線に基づいて画像を回転することで複数の画像を容易に比較でき、褥瘡の経過を観察し易くすることができる。 In this way, even if the slope of the major axis changes as the pressure ulcer heals, it is possible to easily compare a plurality of images by rotating the images based on the reference line specified by the user, thereby facilitating the progress of the pressure ulcer. can be easily observed.

以上、本発明をその好適な実施形態に基づいて詳述したが、本発明は上述した実施形態に限られず、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述した実施形態の一部を適宜、変更したり、組み合わせたりしてもよい。
例えば、図6、図10、図12のフローチャートにおいて管理サーバ130が行うS632、S1012、S1013、S1212、S1213のうち少なくとも何れかの処理を画像閲覧装置140が行ってもよい。この場合、管理サーバ130がS631、S1011、S1211で取得した情報を画像処理装置120に送信することで実現することができる。
また、図6、図10、図12のフローチャートにおいて画像閲覧装置140が行うS622、S1002、S1202の処理を、管理サーバ130が行ってもよい。この場合、管理サーバ130は表示部を備えることで実現することができる。
その他、管理サーバ130または画像閲覧装置140が行う処理を異なる装置が行ってもよく、単独で行ってもよい。
また、本実施形態では、患部が褥瘡である場合を例に挙げて説明を行ったが、褥瘡に限られず、火傷や裂傷であってもよい。
As described above, the present invention has been described in detail based on the preferred embodiments thereof, but the present invention is not limited to the above-described embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. Some of the embodiments described above may be changed or combined as appropriate.
For example, the image viewing apparatus 140 may perform at least one of the processes of S632, S1012, S1013, S1212, and S1213 performed by the management server 130 in the flowcharts of FIGS. In this case, the information acquired in S631, S1011, and S1211 by the management server 130 can be transmitted to the image processing apparatus 120. FIG.
In addition, the management server 130 may perform the processing of S622, S1002, and S1202 performed by the image viewing apparatus 140 in the flowcharts of FIGS. In this case, the management server 130 can be realized by providing a display unit.
In addition, the processing performed by the management server 130 or the image browsing device 140 may be performed by a different device, or may be performed independently.
Further, in the present embodiment, the case where the affected area is a pressure ulcer has been described as an example, but the affected area is not limited to a pressure ulcer, and may be a burn or a laceration.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100:撮像装置 120:画像処理装置 130:管理サーバ 131:CPU 134:通信装置 140:画像閲覧装置 141:CPU 144:通信装置 145:表示部 100: Imaging Device 120: Image Processing Device 130: Management Server 131: CPU 134: Communication Device 140: Image Browsing Device 141: CPU 144: Communication Device 145: Display Unit

Claims (31)

患部が撮影された複数の画像を取得する取得手段と、
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御手段と、を有する画像処理装置であって、
前記基準線は、前記患部領域の長径であり、
前記制御手段は、
前記複数の画像のうち第1の画像における前記患部領域の長径の傾きと、前記複数の画像のうち前記第1の画像とは異なる残りの複数の画像における前記患部領域の長径の傾きとが一致するように、前記第1の画像を回転させずに前記残りの複数の画像を回転させるように制御することを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of images of the affected area;
an image processing apparatus comprising control means for controlling rotation of the images so that the inclinations of the reference lines match each other based on the reference lines set in the diseased area of each of the plurality of images,
The reference line is the major axis of the affected area,
The control means is
The slope of the major axis of the affected area in the first image among the plurality of images matches the slope of the major axis of the affected area in the remaining plurality of images different from the first image among the plurality of images. The image processing apparatus , wherein control is performed so as to rotate the remaining plurality of images without rotating the first image.
前記第1の画像は、同一患者の前記複数の画像のうち最初の撮影日時の画像、同一患者の前記複数の画像のうち最後の撮影日時の画像、またはユーザが任意に選択した画像であることを特徴とする請求項1に記載の画像処理装置。The first image is an image of the first captured date and time among the plurality of images of the same patient, an image of the last captured date and time of the plurality of images of the same patient, or an image arbitrarily selected by the user. The image processing apparatus according to claim 1, characterized by: 患部が撮影された複数の画像を取得する取得手段と、
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御手段と、を有する画像処理装置であって、
前記制御手段は、
前記複数の画像の撮影距離に基づいて、前記複数の画像の撮影距離が一致するように画像を拡大または縮小するように制御することを特徴とする像処理装置。
Acquisition means for acquiring a plurality of images of the affected area;
an image processing apparatus comprising control means for controlling rotation of the images so that the inclinations of the reference lines match each other based on the reference lines set in the diseased area of each of the plurality of images,
The control means is
An image processing apparatus, wherein control is performed to enlarge or reduce an image based on the photographing distances of the plurality of images so that the photographing distances of the plurality of images match.
前記制御手段は、The control means is
前記複数の画像の撮影距離が、前記複数の画像の撮影距離の平均値になるように画像を拡大または縮小するように制御することを特徴とする請求項3に記載の画像処理装置。4. The image processing apparatus according to claim 3, wherein control is performed such that the images are enlarged or reduced so that the photographing distance of the plurality of images becomes an average value of the photographing distances of the plurality of images.
前記制御手段は、The control means is
前記複数の画像の撮影距離が、撮影日時が最初の画像または最後の画像の撮影距離になるように画像を拡大または縮小するように制御することを特徴とする請求項3に記載の画像処理装置。4. The image processing apparatus according to claim 3, wherein the photographing distances of the plurality of images are controlled so as to enlarge or reduce the images so that the photographing date and time of the first image or the last image correspond to the photographing distance. .
前記制御手段は、The control means is
前記複数の画像の撮影距離が、撮影距離の最も近い画像または最も遠い画像に合うように画像を拡大または縮小するように制御することを特徴とする請求項3に記載の画像処理装置。4. The image processing apparatus according to claim 3, wherein the photographing distances of the plurality of images are controlled such that the images are enlarged or reduced so as to match the image with the closest photographing distance or the image with the furthest photographing distance.
前記制御手段は、The control means is
前記複数の画像の撮影距離が一致するように画像を縮小する場合には、縮小する前の大きさを示す輪郭を描画することを特徴とする請求項4ないし6の何れか1項に記載の画像処理装置。7. The method according to any one of claims 4 to 6, wherein when the images are reduced so that the photographing distances of the plurality of images match, a contour indicating the size before reduction is drawn. Image processing device.
患部が撮影された複数の画像を取得する取得手段と、
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御手段と、を有する画像処理装置であって、
前記制御手段は、
前記患部領域の位置に基づいて前記患部領域または前記患部領域を含む周辺領域を拡大するように制御することを特徴とする像処理装置。
Acquisition means for acquiring a plurality of images of the affected area;
an image processing apparatus comprising control means for controlling rotation of the images so that the inclinations of the reference lines match each other based on the reference lines set in the diseased area of each of the plurality of images,
The control means is
An image processing apparatus that performs control to enlarge the affected area or a peripheral area including the affected area based on the position of the affected area .
前記制御手段は、The control means is
前記患部領域が画像を表示するときの表示枠に収まるように前記患部領域または前記患部領域を含む周辺領域を拡大するように制御することを特徴とする請求項8に記載の画像処理装置。9. The image processing apparatus according to claim 8, wherein control is performed so as to enlarge the affected area or a surrounding area including the affected area so that the affected area fits within a display frame when an image is displayed.
前記制御手段は、The control means is
前記患部領域の周囲と前記表示枠との間で一定のマージンを設けるように前記患部領域または前記患部領域を含む周辺領域を拡大するように制御することを特徴とする請求項9に記載の画像処理装置。10. The image according to claim 9, wherein control is performed so as to enlarge the affected area or a peripheral area including the affected area so as to provide a certain margin between the periphery of the affected area and the display frame. processing equipment.
患部が撮影された複数の画像を取得する取得手段と、
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御手段と、を有する画像処理装置であって、
前記基準線は、ユーザにより指された前記患部領域の長径であり、
前記制御手段は、
前記複数の画像のうち新たに長径が指定された画像における前記患部領域の長径の傾きと、前記複数の画像のうち既に長径が指定された画像における前記患部領域の長径の傾きとが一致するように、前記新たに長径が指定された画像を回転させるとともに、前記新たに長径が指定された画像の短径を設定するように制御することを特徴とする像処理装置。
Acquisition means for acquiring a plurality of images of the affected area;
an image processing apparatus comprising control means for controlling rotation of the images so that the inclinations of the reference lines match each other based on the reference lines set in the diseased area of each of the plurality of images,
The reference line is the major axis of the affected area designated by the user;
The control means is
so that the slope of the major axis of the affected area in the image for which the major axis is newly specified among the plurality of images and the slope of the major axis of the affected area in the image for which the major axis has already been specified among the plurality of images match and (2) rotating the image with the newly designated major axis and controlling to set the minor axis of the image with the newly designated major axis .
前記制御手段は、The control means is
既に指定された長径がユーザにより修正された場合に、前記修正された長径の画像を回転させるように制御することを特徴とする請求項11に記載の画像処理装置。12. The image processing apparatus according to claim 11, wherein when the user has corrected the already designated major axis, the image of the corrected major axis is controlled to be rotated.
患部が撮影された複数の画像を取得する取得手段と、Acquisition means for acquiring a plurality of images of the affected area;
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御手段と、を有する画像処理装置であって、an image processing apparatus comprising control means for controlling rotation of the images so that the inclinations of the reference lines match each other based on the reference lines set in the diseased area of each of the plurality of images,
前記基準線は、前記患部領域の長径であり、The reference line is the major axis of the affected area,
前記制御手段は、The control means is
ユーザによる指示に応じて、既に設定された患部領域の長径とは異なる新たな基準線が設定された場合には、前記新たに基準線が設定された画像を、前記新たな基準線が他の画像の患部領域の長径の傾きと一致するように回転させるように制御することを特徴とする画像処理装置。When a new reference line different from the major axis of the affected area that has already been set is set in accordance with an instruction by the user, the image with the newly set reference line may be replaced with another reference line. An image processing apparatus characterized by controlling rotation so as to match the inclination of the major axis of an affected area of an image.
前記他の画像は、前記新たな基準線が設定された画像よりも前の撮影日時の画像であることを特徴とする請求項13に記載の画像処理装置。14. The image processing apparatus according to claim 13, wherein the other image is an image captured on a date and time before the image for which the new reference line is set. 前記制御手段は、The control means is
前記既に設定された患部領域の長径と、前記新たな基準線との角度差に応じて、前記新たな基準線が設定された画像よりも後の撮影日時の画像を回転させるように制御することを特徴とする請求項14に記載の画像処理装置。Controlling to rotate an image captured on a later date than the image for which the new reference line is set according to the angular difference between the long axis of the affected area that has already been set and the new reference line. 15. The image processing apparatus according to claim 14, characterized by:
前記患部領域の長径は、
前記患部領域に外接する矩形に基づいて設定される径、または、前記患部領域のキャリパー長に基づいて設定される径であることを特徴とする請求項1ないし15の何れか1項に記載の画像処理装置。
The major axis of the affected area is
16. The long axis set based on the rectangle circumscribing the affected area, or the long axis set based on the caliper length of the affected area. The described image processing device.
前記患部は、褥瘡であることを特徴とする請求項1ないし16の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 16, wherein the affected area is a pressure ulcer. 前記制御手段は、患者ごとに、基準線の傾きが一致するように画像を回転させることを特徴とする請求項1ないし17の何れか1項に記載の画像処理装置。 18. The image processing apparatus according to any one of claims 1 to 17 , wherein the control means rotates the image so that the slopes of the reference lines match for each patient. 前記制御手段により基準線の傾きが一致するように回転させた前記複数の画像を表示させるために外部に送信する送信手段を有することを特徴とする請求項1ないし18の何れか1項に記載の画像処理装置。 19. The apparatus according to any one of claims 1 to 18 , further comprising transmitting means for transmitting to the outside in order to display the plurality of images rotated by the control means such that the inclinations of the reference lines match. image processing device. 前記制御手段により基準線の傾きが一致するように回転させた前記複数の画像を、表示する表示手段を有することを特徴とする請求項1ないし18の何れか1項に記載の画像処理装置。 19. The image processing apparatus according to any one of claims 1 to 18 , further comprising display means for displaying the plurality of images rotated by the control means so that the slopes of the reference lines match. 前記表示手段は、
前記複数の画像を撮影された日時の順に並べて表示することを特徴とする請求項20に記載の画像処理装置。
The display means is
21. The image processing apparatus according to claim 20 , wherein the plurality of images are arranged and displayed in order of date and time when they were taken.
前記表示手段は、
前記患部領域に設定された基準線を、前記複数の画像それぞれに重畳するように表示することを特徴とする請求項20または21に記載の画像処理装置
The display means is
22. The image processing apparatus according to claim 20, wherein the reference line set in the affected area is displayed so as to be superimposed on each of the plurality of images.
請求項19に記載の画像処理装置と画像閲覧装置とを有する画像処理システムであって、
記画像閲覧装置は、
前記送信手段により送信された画像を表示する表示手段を有することを特徴とする画像処理システム。
An image processing system comprising the image processing device according to claim 19 and an image viewing device,
The image browsing device is
An image processing system comprising display means for displaying the image transmitted by said transmission means.
患部が撮影された複数の画像を取得する取得ステップと、
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御ステップと、を有する画像処理装置の制御方法であって、
前記基準線は、前記患部領域の長径であり、
前記制御ステップでは、
前記複数の画像のうち第1の画像における前記患部領域の長径の傾きと、前記複数の画像のうち前記第1の画像とは異なる残りの複数の画像における前記患部領域の長径の傾きとが一致するように、前記第1の画像を回転させずに前記残りの複数の画像を回転させるように制御することを特徴とする画像処理装置の制御方法。
an acquiring step of acquiring a plurality of images of the affected area;
A control method for an image processing device, comprising : a control step of controlling to rotate the images so that the inclinations of the reference lines match, based on the reference lines set in the diseased area of each of the plurality of images, wherein ,
The reference line is the major axis of the affected area,
In the control step,
The slope of the major axis of the affected area in the first image among the plurality of images matches the slope of the major axis of the affected area in the remaining plurality of images different from the first image among the plurality of images. A control method for an image processing apparatus , wherein control is performed so as to rotate the plurality of remaining images without rotating the first image.
患部が撮影された複数の画像を取得する取得ステップと、an acquiring step of acquiring a plurality of images of the affected area;
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御ステップと、を有する画像処理装置の制御方法であって、A control method for an image processing device, comprising: a control step of controlling to rotate the images so that the inclinations of the reference lines match, based on the reference lines set in the diseased area of each of the plurality of images, wherein ,
前記制御ステップでは、In the control step,
前記複数の画像の撮影距離に基づいて、前記複数の画像の撮影距離が一致するように画像を拡大または縮小するように制御することを特徴とする画像処理装置の制御方法。A control method for an image processing apparatus, comprising: performing control such that an image is enlarged or reduced based on the photographing distances of the plurality of images so that the photographing distances of the plurality of images match.
患部が撮影された複数の画像を取得する取得ステップと、an acquiring step of acquiring a plurality of images of the affected area;
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御ステップと、を有する画像処理装置の制御方法であって、A control method for an image processing device, comprising: a control step of controlling to rotate the images so that the inclinations of the reference lines match, based on the reference lines set in the diseased area of each of the plurality of images, wherein ,
前記制御ステップでは、In the control step,
前記患部領域の位置に基づいて前記患部領域または前記患部領域を含む周辺領域を拡大するように制御することを特徴とする画像処理装置の制御方法。A control method for an image processing apparatus, comprising: controlling to enlarge the affected area or a peripheral area including the affected area based on the position of the affected area.
患部が撮影された複数の画像を取得する取得ステップと、an acquiring step of acquiring a plurality of images of the affected area;
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御ステップと、を有する画像処理装置の制御方法であって、A control method for an image processing device, comprising: a control step of controlling to rotate the images so that the inclinations of the reference lines match, based on the reference lines set in the diseased area of each of the plurality of images, wherein ,
前記基準線は、ユーザにより指定された前記患部領域の長径であり、The reference line is the major axis of the affected area designated by the user;
前記制御ステップでは、In the control step,
前記複数の画像のうち新たに長径が指定された画像における前記患部領域の長径の傾きと、前記複数の画像のうち既に長径が指定された画像における前記患部領域の長径の傾きとが一致するように、前記新たに長径が指定された画像を回転させるとともに、前記新たに長径が指定された画像の短径を設定するように制御することを特徴とする画像処理装置の制御方法。so that the slope of the major axis of the affected area in the image for which the major axis is newly specified among the plurality of images and the slope of the major axis of the affected area in the image for which the major axis has already been specified among the plurality of images match (2) a control method for an image processing apparatus, wherein the image with the newly designated major axis is rotated and the minor axis of the image with the newly designated major axis is set.
患部が撮影された複数の画像を取得する取得ステップと、an acquiring step of acquiring a plurality of images of the affected area;
前記複数の画像それぞれの患部領域に設定された基準線に基づいて、基準線の傾きが一致するように画像を回転させるように制御する制御ステップと、を有する画像処理装置の制御方法であって、A control method for an image processing device, comprising: a control step of controlling to rotate the images so that the inclinations of the reference lines match, based on the reference lines set in the diseased area of each of the plurality of images, wherein ,
前記基準線は、前記患部領域の長径であり、The reference line is the major axis of the affected area,
前記制御ステップでは、In the control step,
ユーザによる指示に応じて、既に設定された患部領域の長径とは異なる新たな基準線が設定された場合には、前記新たに基準線が設定された画像を、前記新たな基準線が他の画像の患部領域の長径の傾きと一致するように回転させるように制御することを特徴とする画像処理装置の制御方法。When a new reference line different from the major axis of the affected area that has already been set is set in accordance with an instruction by the user, the image with the newly set reference line may be replaced with another reference line. A control method for an image processing apparatus, comprising: controlling rotation so as to match the inclination of the major axis of the diseased region of the image.
画像処理装置と画像閲覧装置とを有する画像処理システムの制御方法であって、
前記画像処理装置は、
請求項24ないし28の何れか1項に記載の画像処理装置の制御方法における各ステップと、
前記制御ステップにより基準線の傾きが一致するように回転させた前記複数の画像を表示させるために外部に送信する送信ステップと、を有し、
前記画像閲覧装置は、
前記送信ステップにより送信された画像を表示する表示ステップを有することを特徴とする画像処理システムの制御方法。
A control method for an image processing system having an image processing device and an image viewing device, comprising:
The image processing device is
each step in the method for controlling an image processing apparatus according to any one of claims 24 to 28;
a transmission step of transmitting the plurality of images rotated so that the slopes of the reference lines match in the control step to an external device for display;
The image browsing device is
A control method for an image processing system, comprising a display step of displaying the image transmitted in the transmission step.
コンピュータを、請求項1ないし22の何れか1項に記載の装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the device according to any one of claims 1 to 22 . コンピュータを、請求項1ないし22の何れか1項に記載の装置の各手段として機能させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium recording a program for causing a computer to function as each means of the device according to any one of claims 1 to 22 .
JP2019045769A 2019-03-13 2019-03-13 Image processing device, image processing system and control method Active JP7317528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019045769A JP7317528B2 (en) 2019-03-13 2019-03-13 Image processing device, image processing system and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019045769A JP7317528B2 (en) 2019-03-13 2019-03-13 Image processing device, image processing system and control method

Publications (2)

Publication Number Publication Date
JP2020146200A JP2020146200A (en) 2020-09-17
JP7317528B2 true JP7317528B2 (en) 2023-07-31

Family

ID=72431320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045769A Active JP7317528B2 (en) 2019-03-13 2019-03-13 Image processing device, image processing system and control method

Country Status (1)

Country Link
JP (1) JP7317528B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049908A (en) 2000-08-02 2002-02-15 Sanyo Electric Co Ltd Device for managing medical picture
WO2005011501A1 (en) 2003-08-01 2005-02-10 Hitachi Medical Corporation Medical image diagnosis support device and method
JP2010520774A (en) 2007-03-02 2010-06-17 エレクトロ−オプティカル サイエンシス インコーポレイテッド Quantitative analysis of skin features
WO2015011898A1 (en) 2013-07-22 2015-01-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing device and method for controlling information processing device
WO2015019556A1 (en) 2013-08-07 2015-02-12 パナソニックIpマネジメント株式会社 Case display device, case display method and program
US20150221087A1 (en) 2014-02-05 2015-08-06 Casio Computer Co., Ltd. Medical skin examination device
JP2016137163A (en) 2015-01-28 2016-08-04 カシオ計算機株式会社 Medical image processing apparatus, medical image processing method, and program
JP2016200968A (en) 2015-04-09 2016-12-01 キヤノン株式会社 Information processor, information processing system, image management device, image management system, information processing method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049908A (en) 2000-08-02 2002-02-15 Sanyo Electric Co Ltd Device for managing medical picture
WO2005011501A1 (en) 2003-08-01 2005-02-10 Hitachi Medical Corporation Medical image diagnosis support device and method
JP2010520774A (en) 2007-03-02 2010-06-17 エレクトロ−オプティカル サイエンシス インコーポレイテッド Quantitative analysis of skin features
WO2015011898A1 (en) 2013-07-22 2015-01-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing device and method for controlling information processing device
WO2015019556A1 (en) 2013-08-07 2015-02-12 パナソニックIpマネジメント株式会社 Case display device, case display method and program
US20150221087A1 (en) 2014-02-05 2015-08-06 Casio Computer Co., Ltd. Medical skin examination device
JP2016137163A (en) 2015-01-28 2016-08-04 カシオ計算機株式会社 Medical image processing apparatus, medical image processing method, and program
JP2016200968A (en) 2015-04-09 2016-12-01 キヤノン株式会社 Information processor, information processing system, image management device, image management system, information processing method, and program

Also Published As

Publication number Publication date
JP2020146200A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6360249B2 (en) Radiographic imaging system, control device, control method for radiographic imaging system, and control program for radiographic imaging system
US8659595B2 (en) Method and system for combining 2D image and 3D model and non-transitory computer readable storage medium thereof
US20120321131A1 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
JP7322097B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM
EP2840518A2 (en) Managing dental photographs
US6810142B2 (en) Stereo image measuring device
US9569838B2 (en) Image processing apparatus, method of controlling image processing apparatus and storage medium
JP5698293B2 (en) Portable medical image display terminal and operating method thereof
WO2019230724A1 (en) Image processing system, imaging device, image processing device, electronic device, control method thereof, and storage medium storing control method thereof
JP2008209306A (en) Camera
JPH10281728A (en) Image data processor and image pickup unit
JP7317528B2 (en) Image processing device, image processing system and control method
JP7346051B2 (en) Image processing device, image processing method, and program
JP4208980B2 (en) Photo shooting management method
KR20080087965A (en) Method and apparatus for self-photographing image of tongue for diagnosis
JP2021137344A (en) Medical image processing device, medical image processing device control method, and program
JP2021049248A (en) Image processing system and method for controlling the same
JP2021049262A (en) Image processing system and method for controlling the same
US10534976B2 (en) Display apparatus, display method, and non- transitory storage medium storing display program
JP7252501B2 (en) Information processing device, information processing system, information processing method and program
JP4298727B2 (en) Image information display system, image information display program
JP2007259208A (en) Print order reception system
JP2023080117A (en) Information processing apparatus, information processing system, information processing method, and program
TWM642973U (en) Injury Mapping System
JP2020156082A (en) Imaging apparatus, image processing system, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230719

R151 Written notification of patent or utility model registration

Ref document number: 7317528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151