JP2023074879A - Secular change confirmation system, imaging apparatus, control method and program - Google Patents

Secular change confirmation system, imaging apparatus, control method and program Download PDF

Info

Publication number
JP2023074879A
JP2023074879A JP2021188046A JP2021188046A JP2023074879A JP 2023074879 A JP2023074879 A JP 2023074879A JP 2021188046 A JP2021188046 A JP 2021188046A JP 2021188046 A JP2021188046 A JP 2021188046A JP 2023074879 A JP2023074879 A JP 2023074879A
Authority
JP
Japan
Prior art keywords
image
imaging
user
warning
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021188046A
Other languages
Japanese (ja)
Inventor
茂 鳥井原
Shigeru Toriihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021188046A priority Critical patent/JP2023074879A/en
Publication of JP2023074879A publication Critical patent/JP2023074879A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a secular change confirmation system, an imaging apparatus, a control method and a program which can capture a flawless affected portion image without a specific burden on a user.SOLUTION: A medical examination support system 100 (secular change confirmation system) allows a user U to confirm a secular change of an affected portion W of a skin disease of a patient P by using a camera 1, a PC 3 and a server 2. The server 2 acquires from the camera 1 an imaging parameter including an affected portion image and imaging time and date information and imaging object specification information for specifying the affected portion W every time the affected portion W is imaged by the camera 1 and the affected portion image is generated, and issues a warning that notifies the user U to the camera 1 when it is determined that the photographed images generated in the present imaging and the previous imaging by the camera 1 have the same imaging object specification information and a difference in a feature amount S obtained by the server 2 is equal to or greater than a threshold. The camera 1 notifies the user U of the warning when the warning is issued.SELECTED DRAWING: Figure 7

Description

本発明は、経時変化確認システム、撮像装置、制御方法、並びにプログラムに関し、特に、皮膚疾患の診療を支援する経時変化確認システム、撮像装置、制御方法、並びにプログラムに関する。 TECHNICAL FIELD The present invention relates to a change-over-time confirmation system, an imaging device, a control method, and a program, and more particularly to a change-over-time confirmation system, an imaging device, a control method, and a program that support diagnosis of skin diseases.

従来より医療の現場では、医師や看護師等(以下、単に「利用者」と呼ぶ。)が、外傷や潰瘍、寝たきりで生じた褥瘡といった皮膚疾患の患部の経時変化を確認するため、撮影対象としてその患部を時間をおいて複数回に亘ってカメラで撮影する場合がある。 Traditionally, in the medical field, doctors, nurses, etc. (hereinafter simply referred to as "users") have been photographed to check changes over time in skin disease-affected areas such as trauma, ulcers, and bedsores caused by being bedridden. As a result, the affected area may be photographed with a camera several times at intervals.

例えば、利用者は、この複数回に亘る患部を含む撮影画像群(以下「患部画像群」と呼ぶ。)を時系列に並べて表示することで、患部の良化あるいは悪化の経過を容易に観察することができる。 For example, the user can easily observe the progress of improvement or deterioration of the affected area by arranging and displaying the group of captured images including the affected area over multiple times (hereinafter referred to as "group of affected area images") in chronological order. can do.

このため、このような患部画像群は、数日から数年に渡って変化する皮膚疾患を診療する用途として好適に用いられている。 For this reason, such affected area image groups are suitably used for diagnosing skin diseases that change over several days to several years.

また、患部画像群は、そのまま蓄積するのではなく、適切な処理を施して蓄積するようにすると、さらに皮膚疾患の診療を支援しうる画像となる。 In addition, if the group of affected area images is not stored as it is, but is stored after being subjected to appropriate processing, it will be an image that can further support diagnosis of skin diseases.

例えば、図8(a)に示すように、まず利用者が撮影した患部画像を学習済みモデルに入力すると、学習済みモデルが皮膚疾患の種類を判別し出力するシステムが知られている(例えば、特許文献1参照)。これにより利用者は、学習済みモデルが出力した皮膚疾患の種類を参照して診療を実施できる。 For example, as shown in FIG. 8(a), there is known a system in which a user first inputs an image of an affected area into a trained model, and the trained model determines and outputs the type of skin disease (for example, See Patent Document 1). As a result, the user can refer to the type of skin disease output by the trained model and carry out medical care.

また例えば、図8(b)に示すように、利用者が患者の来院時t-1,tの時点で撮影した患者の潰瘍の画像(患部画像)を解析し、夫々の画像から経時変化する潰瘍の寸法を示す進展パラメータ8を得る解析装置が知られている(例えば、特許文献2参照)。この解析装置はその後、来院時t-1,tの夫々の進展パラメータ8の値の差である進展指数9を計算し、過去の患者のそれと比較する。この比較の結果に基づき、解析装置は、患者の皮膚疾患と類似の皮膚疾患であると判別された過去の患者に実施した治療歴、薬の種類や容量を提示する。これにより利用者は、解析装置が類似の皮膚疾患であると判別された過去の患者の治療歴、薬の種類や容量を参照して、患者の診療を実施できる。 Further, for example, as shown in FIG. 8B, the user analyzes the patient's ulcer images (affected area images) taken at the time of the patient's visit to the hospital (t-1, t), and changes over time from each image. An analysis device that obtains a growth parameter 8 that indicates the size of an ulcer is known (see Patent Document 2, for example). The analyzer then calculates a progression index 9, which is the difference between the values of the progression parameter 8 at visits t−1 and t, and compares it with that of past patients. Based on the result of this comparison, the analysis device presents the past treatment history, drug type and dosage for the patient who was determined to have a skin disease similar to the patient's skin disease. This allows the user to refer to past treatment histories, drug types, and doses of patients who have been identified as having similar skin diseases by the analyzer, and to carry out medical care for the patient.

特開2021-28808号公報Japanese Unexamined Patent Application Publication No. 2021-28808 特表2020-528587号公報Japanese Patent Publication No. 2020-528587

しかしながら、特許文献1のシステムは、患部画像を学習済みモデルに入力することで皮膚疾患の種類を推論することはできるが、撮影時に患部画像の素性をチェックすることはできない。具体的には、特許文献1では、患部画像が学習済みモデルで皮膚疾患の種類を推論するのに好適な画像か、利用者が診療の際に参照するのに好適な画像か、また正しい患者情報が紐づけられた画像か等をチェックすることができない。 However, the system of Patent Literature 1 can infer the type of skin disease by inputting an affected area image into a trained model, but cannot check the identity of the affected area image at the time of imaging. Specifically, in Patent Document 1, whether the affected area image is an image suitable for inferring the type of skin disease with a trained model, an image suitable for a user to refer to during medical treatment, or a correct patient It is not possible to check whether the image is associated with information.

また、特許文献2の解析装置は、患部画像を解析して得られる進展パラメータの経時変化から、患者に対し、患者の皮膚疾患と類似の皮膚疾患であると判別された患者の治療歴、薬の種類や容量を推奨することができる。しかし、特許文献1と同様、撮影時に患部画像の素性をチェックすることはできない。具体的には、特許文献2では、患部画像が解析装置で解析するのに好適な画像か、利用者が診療の際に参照するのに好適な画像か、また正しい患者情報が紐づけられた画像か等をチェックすることができない。 In addition, the analysis apparatus of Patent Document 2, from the change over time of the progression parameter obtained by analyzing the image of the affected area, for the patient, the treatment history of the patient determined to have a skin disease similar to the patient's skin disease, drugs can recommend the type and capacity of However, as in Patent Document 1, it is not possible to check the identity of the affected area image at the time of imaging. Specifically, in Patent Document 2, whether an affected area image is an image suitable for analysis by an analysis device, an image suitable for a user to refer to during medical treatment, or correct patient information is linked. It is not possible to check whether it is an image or not.

従って、特許文献1,2のいずれにおいても、利用者が、不備がある患部画像を撮影してしまう可能性がある。このため撮影後、例えば利用者が集って診療方針を議論するカンファレンスなどの段になって患部画像の不備に気付き、撮影し直す事態にもなりうる。 Therefore, in both Patent Literatures 1 and 2, there is a possibility that the user will take an image of an affected area that is incomplete. For this reason, after imaging, for example, at a stage such as a conference where users gather to discuss medical treatment policies, there is a possibility that a defect in the image of the affected area may be noticed and re-imaging may occur.

そこで本発明の目的は、利用者の特別な負担なしに、撮影対象の経時変化の確認に好適な撮影画像群を取得することができる経時変化確認システム、撮像装置、制御方法、並びにプログラムを提供することにある。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a temporal change confirmation system, an imaging apparatus, a control method, and a program, which can acquire a group of photographed images suitable for confirming the temporal change of an object to be photographed without placing a special burden on the user. to do.

上記課題を解決するため、本発明の請求項1に係る経時変化確認システムは、利用者の指示に従って撮影対象を時間をおいて複数回に亘って撮影し撮影画像群を生成する撮像装置と、前記利用者が前記撮影対象の経時変化を確認するためのUIと、前記UIに表示すべく、前記撮影画像群の夫々に対して画像処理を行う画像処理装置とを有する経時変化確認システムであって、前記画像処理装置において、前記撮像装置で前記撮影画像群の1つの撮影画像が生成される毎に、前記撮影画像、その撮影日時情報を含む撮影パラメータ、及び前記撮影対象を特定するための撮影対象特定情報を前記撮像装置から取得する取得手段と、前記撮像装置による今回及び前回の撮影時に生成された撮影画像が、前記取得した撮影対象特定情報が同一であるが、前記画像処理装置による前記画像処理によって得られた特徴量の差が閾値以上であると、前記撮影パラメータ及び前記撮影対象特定情報を用いて判定した場合、前記利用者に通知する警告を前記撮像装置に対して発行する発行手段とを備え、前記撮像装置において、前記発行手段により前記警告が発行された場合、前記利用者に前記警告を通知する通知手段を備えることを特徴とする。 In order to solve the above-mentioned problems, a system for confirming changes over time according to claim 1 of the present invention includes an imaging device that photographs an object to be photographed a plurality of times at intervals according to a user's instruction to generate a group of photographed images; A temporal change confirmation system comprising: a UI for the user to confirm the temporal change of the photographed object; In the image processing device, each time the image capturing device generates a captured image of the group of captured images, the captured image, a shooting parameter including information on the shooting date and time of the captured image, and the image capturing object are specified. An acquisition unit that acquires the imaging target identification information from the imaging device and the captured images generated during the current and previous imaging by the imaging device have the same acquired imaging target identification information, but the acquired imaging target identification information is obtained by the image processing device. issuing a warning to the imaging device to notify the user when it is determined using the imaging parameters and the imaging target identification information that the difference in the feature amount obtained by the image processing is equal to or greater than a threshold; issuing means, wherein the imaging apparatus further comprises notifying means for notifying the user of the warning when the warning is issued by the issuing means.

上記課題を解決するため、本発明の請求項11に係る撮像装置は、利用者の指示に従って撮影対象を時間をおいて複数回に亘って撮影し撮影画像群を生成する撮像装置であって、前記撮像装置は、前記利用者が前記撮影対象の経時変化を確認するためのUIと、前記UIに表示すべく、前記撮影画像群の夫々に対して画像処理を行う画像処理装置とを有する経時変化確認システムにあり、前記撮像装置で前記撮影画像群の1つの撮影画像が生成される毎に、前記撮影画像、その撮影日時情報を含む撮影パラメータ、及び前記撮影対象を特定するための撮影対象特定情報を取得し、前記画像処理装置に送信する送信手段と、前記送信手段による前記撮影画像、前記撮影パラメータ、及び前記撮影対象特定情報の送信後、前記利用者に通知する警告を前記画像処理装置から取得した場合、前記利用者に通知する警告を表示する表示手段とを備える。 In order to solve the above problems, an imaging apparatus according to claim 11 of the present invention is an imaging apparatus that captures an object to be shot a plurality of times at intervals according to a user's instruction to generate a captured image group, The imaging device has a UI for the user to check the temporal change of the subject to be photographed, and an image processing device for performing image processing on each of the photographed image groups so as to be displayed on the UI. In the change confirmation system, each time one photographed image of the photographed image group is generated by the photographing device, the photographed image, photographing parameters including photographing date and time information of the photographed image, and photographing object for specifying the photographing object. transmission means for acquiring specific information and transmitting it to the image processing apparatus; and image processing for warning to be notified to the user after transmission of the captured image, the imaging parameters, and the imaging target identification information by the transmission means. and display means for displaying a warning to be notified to the user when acquired from the device.

本発明によれば、利用者の特別な負担なしに、撮影対象の経時変化の確認に好適な撮影画像群を取得することができる。 According to the present invention, it is possible to obtain a group of photographed images suitable for confirming changes over time of an object to be photographed without placing a special burden on the user.

経時変化確認システムとしての診療支援システムの全体構成を示す図である。1 is a diagram showing the overall configuration of a medical treatment support system as a system for confirming changes over time; FIG. 図1におけるカメラ及びサーバーの夫々のハードウェア構成を表すブロック図である。2 is a block diagram showing the hardware configuration of each of the camera and the server in FIG. 1; FIG. 図1におけるPCで実行される、患部画像を閲覧するアプリケーションである患部画像ビューアアプリを説明するための図である。FIG. 2 is a diagram for explaining a diseased part image viewer application, which is an application for viewing diseased part images, executed on the PC in FIG. 1 ; カメラおよびサーバーにおいて実行される患部画像取得処理のフローチャートである。4 is a flow chart of affected area image acquisition processing executed in a camera and a server; 図4のステップS410の、患部画像から特徴量を算出する処理の例を示す図である。FIG. 5 is a diagram showing an example of processing for calculating a feature amount from an affected area image in step S410 of FIG. 4; 図4のステップS412において警告を発行するか否かの判定に用いる閾値について説明するための図である。FIG. 5 is a diagram for explaining a threshold used for determining whether or not to issue a warning in step S412 of FIG. 4; FIG. 図4のステップS414においてカメラのディスプレイに表示される警告ダイアログを表す図である。5 is a diagram showing a warning dialog displayed on the camera display in step S414 of FIG. 4; FIG. 従来の診療支援システムを説明するための図である。It is a figure for demonstrating the conventional medical treatment support system.

本発明の実施形態に係る経時変化確認システムとしての診療支援システム100について図1を用いて説明する。 A medical support system 100 as a temporal change confirmation system according to an embodiment of the present invention will be described with reference to FIG.

図1に示すように、診療支援システム100は、カメラ1、サーバー2、PC3、及び識別票Lを備える。 As shown in FIG. 1, the medical assistance system 100 includes a camera 1, a server 2, a PC 3, and an identification tag L. As shown in FIG.

カメラ1(撮像装置)は、医療の現場で医師、看護師、介護士などの1人以上の利用者(以下、単に「利用者U」と呼ぶ。)が利用するカメラである。利用者Uは、外傷や潰瘍、寝たきりで生じた褥瘡といった患者Pの皮膚疾患の患部の経時変化の確認のため、その患部Wの画像(以下単に「患部画像」と呼ぶ、)を複数回に亘ってカメラ1で撮影、記録する。利用者Uは、このように撮影、記録された患部画像群を並べて見ることにより、患部の良化あるいは悪化の経過を容易に観察することができる。このため、患部画像群は、数日から数年に渡って変化する患部を診療する用途に、好適である。 A camera 1 (imaging device) is a camera used by one or more users such as doctors, nurses, caregivers (hereinafter simply referred to as "users U") at medical sites. The user U images the affected area W (hereinafter simply referred to as "affected area image") a plurality of times in order to check the change over time of the affected area of the skin disease of the patient P, such as an injury, an ulcer, and bedridden pressure ulcer. Photographed and recorded by the camera 1 over a period of time. The user U can easily observe the progress of improvement or deterioration of the affected part by arranging and viewing the group of images of the affected part photographed and recorded in this way. For this reason, the affected area image group is suitable for use in examining an affected area that changes over several days to several years.

尚、本実施形態の経時変化確認システムは医療の現場で利用される場合について説明するが、撮影画像を用いて被写体の経時変化を確認することが必要な現場で利用されるのであれば医療の現場に限らない。例えば、ステージ上で動く被写体を異なる複数台のカメラで撮影された映像を切り替えて表示させる際に、その被写体の位置の経時変化を確認するような現場で利用するようにしてもよい。 The temporal change confirmation system of this embodiment will be described as being used in the medical field. Not limited to on-site. For example, it may be used on site to check changes in the position of the subject over time when switching and displaying images of a subject moving on a stage shot by a plurality of different cameras.

サーバー2(画像処理装置)は、ストレージ24、及びカメラ1及びPC3と無線接続して画像を含む情報を送受信する通信部(不図示)や、画像への適切な画像処理を行うGPU22(図2)を備える。尚、サーバー2は、カメラ1及びPC3と通信可能であれば、本実施形態の構成に限定されない。例えば、サーバー2は、カメラ1及びPC3と有線接続していてもよい。 The server 2 (image processing device) includes a storage 24, a communication unit (not shown) that wirelessly connects with the camera 1 and the PC 3 to transmit and receive information including images, and a GPU 22 (FIG. 2) that performs appropriate image processing on images. ). Note that the server 2 is not limited to the configuration of this embodiment as long as it can communicate with the camera 1 and the PC 3 . For example, the server 2 may have a wired connection with the camera 1 and PC3.

PC3(UI)は、利用者Uが利用するディスプレイ及び操作部を有するPCであり、利用者Uによる操作部への操作に応じて、サーバー2を介してカメラ1で撮影、記録した患部画像群を取得し、ディスプレイにその患部画像群を表示する。 A PC 3 (UI) is a PC having a display and an operation unit used by the user U, and a group of images of the affected area captured and recorded by the camera 1 via the server 2 according to the operation of the operation unit by the user U. and display the group of affected area images on the display.

識別票Lは、患者Pを識別するためのバーコードが付されたリストバンドであり、本実施形態では、患部Wを有する患者Pの左手首に装着している。 The identification tag L is a wristband with a bar code for identifying the patient P, and is worn on the left wrist of the patient P having the affected part W in this embodiment.

図1を用いて、診療支援システム100を用いた診療のワークフローを説明する。 A workflow of medical treatment using the medical treatment support system 100 will be described with reference to FIG.

まず利用者Uは、カメラ1で患者Pの患部W及び識別票Lを夫々撮影する。これにより、カメラ1は、患部Wを被写体とする患部画像、及び識別票Lを被写体とする識別票画像を生成する。 First, the user U photographs the diseased part W and the identification tag L of the patient P with the camera 1, respectively. As a result, the camera 1 generates an affected area image with the affected area W as the subject and an identification tag image with the identification tag L as the subject.

その後、カメラ1は、患部画像及び識別票画像をサーバー2に送信する。 After that, the camera 1 transmits the affected area image and the identification tag image to the server 2 .

サーバー2は、カメラ1からの患部画像や識別票画像に適切な画像処理をGPU22で行うとともに内蔵のストレージ24に記録する。 The server 2 performs appropriate image processing on the diseased part image and the identification tag image from the camera 1 using the GPU 22 and records them in the built-in storage 24 .

利用者Uは、PC3の操作部を操作し、サーバー2のストレージ24に記録される患部画像群をPC3のディスプレイに表示することで、患部画像群を閲覧できる。これにより、利用者Uは、患部画像群を参照して患者Pや患部Wを診断したり、治療の内容を決定したりできる。 The user U can browse the group of affected part images by operating the operation unit of the PC 3 and displaying the group of affected part images recorded in the storage 24 of the server 2 on the display of the PC 3 . Thereby, the user U can diagnose the patient P and the affected part W by referring to the affected part image group, and determine the content of the treatment.

尚、図1ではカメラ1、サーバー2、PC3は別体が描かれているが、それらは任意に統廃合しても良いし相互に処理を移管しても構わない。 Although the camera 1, the server 2, and the PC 3 are shown separately in FIG. 1, they may be integrated and abolished at will, and the processes may be transferred to each other.

図2は、カメラ1及びサーバー2の夫々のハードウェア構成を表すブロック図である。 FIG. 2 is a block diagram showing the hardware configuration of each of the camera 1 and server 2. As shown in FIG.

まず、図2を用いて、カメラ1のハードウェア構成を説明する。 First, the hardware configuration of the camera 1 will be described with reference to FIG.

カメラ1は、コントローラ11、イメージセンサ12、ボタン群13、タッチパネル14、ディスプレイ15、ストレージ16、ズームレンズ17、シャッター18、及びネットワークインターフェース19を含む。 Camera 1 includes controller 11 , image sensor 12 , button group 13 , touch panel 14 , display 15 , storage 16 , zoom lens 17 , shutter 18 , and network interface 19 .

コントローラ11は、カメラ1内の情報処理を総括し、他のユニットを制御する。 A controller 11 supervises information processing within the camera 1 and controls other units.

イメージセンサ12は、ズームレンズを介して取り込んだ被写体からの光を結像し、電気信号に変換し、患部画像や識別票画像を生成する。 The image sensor 12 forms an image of light from a subject captured through the zoom lens, converts the light into an electrical signal, and generates an affected area image and an identification tag image.

ボタン群13とタッチパネル14は、利用者Uの操作を受け付ける。 The button group 13 and the touch panel 14 accept user U's operation.

ディスプレイ(表示手段)15は、利用者Uに対し撮影画像を表示する。また、ディスプレイ15は、サーバー2より後述する警告の発行がされた場合、警告ダイアログ71(図7)を単体で又は撮影画像と共に表示する。尚、ディスプレイ15は、撮影日時情報や、ズーム、オートフォーカス、露出、ISO感度、環境光等の情報が含まれる撮影パラメータも併せて表示するようにしてもよい。 A display (display means) 15 displays the photographed image to the user U. FIG. Further, when the server 2 issues a warning, which will be described later, the display 15 displays a warning dialog 71 (FIG. 7) alone or together with the captured image. The display 15 may also display photographing parameters including photographing date and time information, zoom, autofocus, exposure, ISO sensitivity, ambient light, and other information.

ストレージ16に、撮影画像を一時的あるいは恒久的に保存する。 The captured image is temporarily or permanently stored in the storage 16.例文帳に追加

ズームレンズ17は、利用者Uの制御に応じて、撮影時の画角やピントを調整する。 The zoom lens 17 adjusts the angle of view and focus at the time of photographing according to the control of the user U.

シャッター18は、イメージセンサ12に入る光を制御する。 Shutter 18 controls the light entering image sensor 12 .

ネットワークインターフェース19は、外部装置(本実施形態ではサーバー2)との間で、イメージセンサ12で生成された画像やそのパラメータを送受信する。 The network interface 19 transmits and receives an image generated by the image sensor 12 and its parameters to and from an external device (the server 2 in this embodiment).

次に図2を用いて、サーバー2のハードウェア構成を説明する。 Next, the hardware configuration of the server 2 will be explained using FIG.

サーバー2は、CPU21、GPU22、メモリ23、ストレージ24、ネットワークインターフェース25を含む。 The server 2 includes CPU 21 , GPU 22 , memory 23 , storage 24 and network interface 25 .

CPU21は、サーバー2内の情報処理を統括し、他のユニットを制御する。 The CPU 21 supervises information processing within the server 2 and controls other units.

GPU22は、画像の画質改善等の画像処理や、画像認識などの処理を実行する。 The GPU 22 executes image processing such as image quality improvement and processing such as image recognition.

メモリ23は、GPU22での処理中の一時情報を格納する。 The memory 23 stores temporary information being processed by the GPU 22 .

ストレージ24は、画像を一時的あるいは恒久的に保存する。 Storage 24 stores images temporarily or permanently.

ネットワークインターフェース25は、外部装置(本実施形態ではカメラ1及びPC3)との間で、撮影画像やそのパラメータを送受信する。 The network interface 25 transmits and receives captured images and their parameters to and from external devices (camera 1 and PC 3 in this embodiment).

図3は、PC3で実行される、患部画像を閲覧するアプリケーションである患部画像ビューアアプリ31を説明するための図である。 FIG. 3 is a diagram for explaining a diseased part image viewer application 31, which is an application for viewing diseased part images, which is executed on the PC 3. As shown in FIG.

図3を用いて、利用者Uがカメラ1で撮影された患部画像群をPC3で閲覧する方法について説明する。 A method for the user U to browse the group of affected area images captured by the camera 1 on the PC 3 will be described with reference to FIG.

PC3は、サーバー2から撮影画像を含む情報を受信可能である。 The PC 3 can receive information including captured images from the server 2 .

PC3において、図3に示す患部画像ビューアアプリ31が起動すると、患部画像ビューアアプリ31は、サーバー2から患部画像群を取得する。 When the diseased part image viewer application 31 shown in FIG.

患部画像ビューアアプリ31には、患者および患部を指定するためのアドレスバー32がある。例えば、図3に示すように利用者Uがアドレスバー32で患者Pおよび患部Wを指定すると、患部画像ビューアアプリ31は、サーバー2から取得した患部画像群のうち、指定された患者Pおよび患部Wと紐づく撮影画像を抽出する。 The affected area image viewer application 31 has an address bar 32 for designating a patient and an affected area. For example, as shown in FIG. 3, when the user U designates a patient P and an affected area W using the address bar 32, the affected area image viewer application 31 selects the specified patient P and affected area from among the affected area images acquired from the server 2. Captured images associated with W are extracted.

患部画像ビューアアプリ31は、画像表示領域33a、画像表示領域33bがある。 The affected part image viewer application 31 has an image display area 33a and an image display area 33b.

画像表示領域33aには、抽出された撮影画像のうちの比較的古い患部画像が表示され、画像表示領域33bには、抽出された撮影画像のうちの比較的新しい患部画像が表示される。 The image display area 33a displays a relatively old affected area image among the extracted photographed images, and the image display area 33b displays a relatively new affected area image among the extracted photographed images.

画像表示領域33aに表示される比較的古い患部画像には古い患部Waの画像が含まれ、画像表示領域33bに表示される比較的新しい患部画像には新しい患部Wbの画像が含まれる。 The relatively old affected area image displayed in the image display area 33a includes the old affected area Wa image, and the relatively new affected area image displayed in the image display area 33b includes the new affected area Wb image.

利用者Uは、PC3で患部画像ビューアアプリ31を使用することにより、古い患部Waと新しい患部Wbを比較閲覧して病状の進行や治療の効果を確認できるため、確からしい診断を行うことが可能である。 By using the diseased part image viewer application 31 on the PC 3, the user U can compare and view the old diseased part Wa and the new diseased part Wb to check the progress of the disease and the effect of the treatment, so that it is possible to make a reliable diagnosis. is.

図4は、カメラ1およびサーバー2において実行される患部画像取得処理のフローチャートである。 FIG. 4 is a flow chart of affected area image acquisition processing executed by the camera 1 and the server 2 .

本処理は、カメラ1側では、コントローラ11がカメラ1の不図示のROMに保存されるプログラムを読み出すことで実行される。また、サーバー2側では、CPU21がサーバー2のROMに保存されるプログラムを読み出すことで実行される。 This processing is executed on the camera 1 side by the controller 11 reading out a program stored in the ROM (not shown) of the camera 1 . On the server 2 side, the CPU 21 reads out a program stored in the ROM of the server 2 to execute the program.

まずステップS401で、カメラ1の電源がオンとなると、コントローラ11は、ネットワークインターフェース19がサーバー2に対し接続要求を行う。 First, in step S401, when the camera 1 is powered on, the network interface 19 of the controller 11 requests the server 2 to connect.

同様に、ステップS402で、サーバー2の電源がオンになると、CPU21は、ネットワークインターフェース25がサーバー2に対し接続要求を行う。 Similarly, when the server 2 is powered on in step S402, the CPU 21 causes the network interface 25 to request the server 2 to connect.

ステップS403で、ステップS401の接続要求にサーバー2が応じると、コントローラ11は、カメラ1とサーバー2の接続を確立する。同様に、ステップS404で、ステップS402の接続要求にカメラ1が応じると、CPU21は、カメラ1とサーバー2の接続を確立する。これにより、カメラ1とサーバー2は、相互に撮影画像を含む情報の送受信が可能になる。 In step S<b>403 , when the server 2 responds to the connection request in step S<b>401 , the controller 11 establishes connection between the camera 1 and the server 2 . Similarly, in step S404, when camera 1 responds to the connection request in step S402, CPU 21 establishes connection between camera 1 and server 2. FIG. As a result, the camera 1 and the server 2 can mutually transmit and receive information including captured images.

ステップS405で、利用者Uにより患者Pの患者情報(撮影対象特定情報)が入力されると、コントローラ11はその入力された患者情報をストレージ16に一時的に保存する。また、利用者Uによりカメラ1で患者Pの識別票Lが撮影されると、コントローラ11は、撮影された識別票Lの撮影画像から、識別票Lのバーコードにある患者Pの患者情報を抽出し、ストレージ16に一時的に保存する。ここで取得される患者情報には、ステップS406で撮影される患部Wを有する患者Pの名前や患者PのIDナンバー、患部Wの部位名などが含まれる。 In step S<b>405 , when the user U inputs the patient information (imaging target identification information) of the patient P, the controller 11 temporarily stores the input patient information in the storage 16 . Further, when the identification tag L of the patient P is photographed by the camera 1 by the user U, the controller 11 extracts the patient information of the patient P from the barcode of the identification tag L from the captured image of the identification tag L. Extract and temporarily store in the storage 16 . The patient information acquired here includes the name of the patient P having the affected area W imaged in step S406, the ID number of the patient P, the part name of the affected area W, and the like.

ステップS406で、利用者Uによりカメラ1で患者Pの患部Wが撮影されると、コントローラ11はその撮影で得られた患部Wを含む患部画像及びその撮影の際の撮影パラメータをストレージ16に一時的に保存する。 In step S406, when the affected area W of the patient P is imaged by the camera 1 by the user U, the controller 11 temporarily stores the affected area image including the affected area W obtained by the imaging and the imaging parameters at the time of imaging in the storage 16. Save as desired.

ステップS407で、コントローラ11(送信手段)は、サーバー2へ、ステップS405でストレージ16に一時的に保存された患者情報と、ステップS406でストレージ16に一時的に保存された患部画像及びその撮影パラメータを送信する。患者情報や撮影パラメータは、例えばExif形式などで患部画像に埋め込んでも構わない。 In step S407, the controller 11 (transmitting means) transmits to the server 2 the patient information temporarily stored in the storage 16 in step S405, the affected area image temporarily stored in the storage 16 in step S406, and its imaging parameters. to send. Patient information and imaging parameters may be embedded in the affected area image in Exif format, for example.

ステップS408で、CPU21(取得手段)は、ステップS407でカメラ1側から送信された患者情報と患部画像を受信し、サーバー2の内蔵のストレージ24に蓄積する。 In step S408, the CPU 21 (acquisition means) receives the patient information and the affected area image transmitted from the camera 1 side in step S407, and stores them in the internal storage 24 of the server 2. FIG.

ステップS409で、CPU21は、患部画像に含まれる患部Wを抽出し、サーバー2の内蔵のストレージ24に蓄積する。患部Wの抽出の詳細は後述する。 In step S<b>409 , the CPU 21 extracts the affected area W included in the affected area image and stores it in the internal storage 24 of the server 2 . The details of the extraction of the affected area W will be described later.

ステップS410で、CPU21は、ステップS409で抽出した患部Wの形や色から、特徴量Sを算出し、サーバー2の内蔵のストレージ24に蓄積する。特徴量Sの算出の詳細は後述する。 In step S410, the CPU 21 calculates the feature amount S from the shape and color of the affected area W extracted in step S409, and accumulates it in the internal storage 24 of the server 2. FIG. Details of calculation of the feature amount S will be described later.

ステップS411で、CPU21は、ストレージ24に蓄積される前回の特徴量Sを参照する。前回の特徴量Sとは、同一の患者Pの患部Wを今回より前に撮影した結果得られた患部画像に対してステップS409,S410の処理を行うことにより算出された特徴量である。尚、図4の処理では、同一の患者Pの患部Wが撮影される毎に、特徴量Sが算出される。 In step S<b>411 , the CPU 21 refers to the previous feature amount S accumulated in the storage 24 . The previous feature amount S is a feature amount calculated by performing the processing of steps S409 and S410 on the affected part image obtained as a result of imaging the affected part W of the same patient P before this time. In addition, in the process of FIG. 4, the feature amount S is calculated each time the affected part W of the same patient P is imaged.

ステップS412で、CPU21は、前回撮影時と今回撮影時の特徴量Sの差が閾値以上であるか否かを判定する。特徴量Sの差が閾値未満の場合(ステップS412でNO)、本処理を終了する。一方、特徴量Sの差が閾値以上の場合(ステップS412でYES)、ステップS413に進む。閾値の詳細は後述する。 In step S412, the CPU 21 determines whether or not the difference between the feature amount S at the time of the previous photography and the time of the current photography is equal to or greater than a threshold. If the difference in feature amount S is less than the threshold (NO in step S412), this process is terminated. On the other hand, if the difference in feature amount S is equal to or greater than the threshold (YES in step S412), the process proceeds to step S413. Details of the threshold will be described later.

ステップS413で、CPU21(発行手段)は、警告を発行し、カメラ1へ警告表示の指示を送信する。 In step S<b>413 , the CPU 21 (issuing means) issues a warning and transmits a warning display instruction to the camera 1 .

ステップS414で、コントローラ11は、ステップS407で患者情報と、患部画像及びその撮影パラメータとを送信後、ステップS413で警告表示の指示を受信すると、ディスプレイ15(通知手段)に警告ダイアログ71(図7)を表示する。これにより、コントローラ11は、利用者Uに警告を通知する。この警告ダイアログ71については後述する。尚、CPU21で発行された警告を受けて、カメラ1で利用者Uに対して警告を通知できる構成であれば、本実施形態に限定されない。例えば、この警告の通知を、カメラ1にあるランプ(不図示)の点灯で行うようにしたり、カメラ1にあるスピーカ(不図示)で警告音を発したりするようにしてもよい。 In step S414, after the controller 11 transmits the patient information, the affected area image, and its imaging parameters in step S407, and receives the warning display instruction in step S413, the controller 11 displays the warning dialog 71 (FIG. 7) on the display 15 (notification means). ). Thereby, the controller 11 notifies the user U of the warning. This warning dialog 71 will be described later. Note that the configuration is not limited to this embodiment as long as the camera 1 can notify the user U of the warning in response to the warning issued by the CPU 21 . For example, this warning may be notified by turning on a lamp (not shown) on the camera 1 or by emitting a warning sound from a speaker (not shown) on the camera 1 .

次に、図5を用いて、サーバー2のCPU21が、患部画像から特徴量Sを算出する処理(図4のステップS410)を説明する。 Next, the processing (step S410 in FIG. 4) for calculating the feature quantity S from the affected area image by the CPU 21 of the server 2 will be described with reference to FIG.

ステップS51で、CPU21は、カメラ1から受信してストレージ24に蓄積した患部画像を、ストレージ24から読み出す。読み出した患部画像には、ズームやオートフォーカスの情報を含む撮影パラメータがメタデータとして付随している。尚、カメラ1が像面位相差センサを備えたり、マルチカメラアレイであったりする場合、患部画像は視差を伴った複数枚の画像で構成され、それらから算出した距離マップもメタデータに含まれる。 In step S<b>51 , the CPU 21 reads from the storage 24 the affected area image received from the camera 1 and stored in the storage 24 . The read-out diseased part image is accompanied by imaging parameters including zoom and autofocus information as metadata. When the camera 1 has an image plane phase difference sensor or a multi-camera array, the affected area image is composed of a plurality of images with parallax, and the distance map calculated from them is also included in the metadata. .

ステップS52で、CPU21は、GPU22(推定手段)を用いて、ステップS51で読み出した患部画像に含まれる患部Wの領域を推定する。GPU22は、患部画像からの患部Wと皮膚の判別に、演繹的な画像処理か、事前に学習したニューラルネットワークを用いたセグメンテーションを用いる。また、CPU21は、抽出された患部画像中の患部Wを構成するピクセルの数(ピクセル数)を算出する。 In step S52, the CPU 21 uses the GPU 22 (estimating means) to estimate the area of the affected area W included in the affected area image read out in step S51. The GPU 22 uses a priori image processing or segmentation using a pre-learned neural network to discriminate between the affected area W and the skin from the affected area image. The CPU 21 also calculates the number of pixels (the number of pixels) forming the affected area W in the extracted affected area image.

ステップS53で、CPU21(算出手段)は、患部画像中の患部Wを構成する各ピクセルの面積(1ピクセル面積)が実寸でどれくらい面積(何ミリ四方)に相当するかを算出する。具体的には、前述した患部画像にメタデータとして不随するズームやオートフォーカスの情報を用いて、1ピクセル面積をミリ平方単位に換算する。尚、患部画像のメタデータに距離マップが含まれる場合、その距離マップを用いて、患部画像中の任意の部分の1ピクセル面積をミリ単位で算出するようにしてもよい。 In step S53, the CPU 21 (calculating means) calculates how much the area (1 pixel area) of each pixel constituting the diseased part W in the diseased part image corresponds to the actual area (how many square millimeters). Specifically, the area of one pixel is converted into units of milli square using zoom and autofocus information that accompanies the above-described diseased part image as metadata. If a distance map is included in the metadata of the diseased part image, the distance map may be used to calculate the 1-pixel area of an arbitrary portion in the diseased part image in units of millimeters.

ステップS54で、CPU21(算出手段)は、ステップS52で算出した患部Wのピクセル数と、ステップS53で算出した患部W部の1ピクセル面積を用いて、患部Wの実寸の面積を算出する。 In step S54, the CPU 21 (calculating means) calculates the actual area of the affected part W using the number of pixels of the affected part W calculated in step S52 and the 1-pixel area of the affected part W calculated in step S53.

以上の図5で説明した処理で算出される患部Wの実寸の面積を、特徴量Sと呼ぶ。 The actual area of the affected part W calculated by the processing described above with reference to FIG.

次に図6を用いて、サーバー2のCPU21が警告を発行するか否かの判定(図4のステップS412)に用いる閾値について説明する。 Next, with reference to FIG. 6, the threshold used for determining whether or not the CPU 21 of the server 2 issues a warning (step S412 in FIG. 4) will be described.

図6(a)は、横軸delta_t(s)、縦軸delta_S(mm)のグラフである。 FIG. 6A is a graph of delta_t (s) on the horizontal axis and delta_S (mm 2 ) on the vertical axis.

delta_t(s)は、前回撮影時と今回撮影時の時間差である。患部画像は、ファイル作成日時の情報、あるいはメタデータとしての撮影日時の情報と紐づけられている。よって、これらの情報を用いて、任意の患部画像間で撮影の時間差を算出することができる。 delta_t(s) is the time difference between the previous shooting and the current shooting. The diseased part image is associated with information on the date and time of file creation or information on the date and time of photography as metadata. Therefore, using these pieces of information, it is possible to calculate the imaging time difference between arbitrary affected area images.

delta_S(mm)は、前回撮影時と今回撮影時の特徴量Sの差である。患部画像から特徴量Sを算出する方法は図5を用いて前述した通りであり、任意の患部画像間で特徴量Sの差を算出することができる。 delta_S (mm 2 ) is the difference between the feature amount S at the time of the previous imaging and that of the current imaging. The method of calculating the feature amount S from the affected area images is as described above with reference to FIG. 5, and the difference in the feature amount S can be calculated between arbitrary affected area images.

グラフには閾値を表す線が引かれている。
閾値は以下の式で表現される。
T = alpha*delta_t
Tは閾値である。
alphaは閾値を表す直線の傾きである。
傾きalphaについては後述する。
A line representing the threshold is drawn in the graph.
The threshold is expressed by the following formula.
T = alpha * delta_t
T is the threshold.
alpha is the slope of the straight line representing the threshold.
The slope alpha will be described later.

患者Pの患部Wを時を置いて撮影した2枚の患部画像から、時間差delta_tと特徴量差delta_Sを算出できる。 The time difference delta_t and the feature quantity difference delta_S can be calculated from two affected area images taken at different times of the affected area W of the patient P.

算出された、時間差delta_t、特徴量差delta_Sを示すプロット(患部Wの面積の変化量)が、図6(a)に示すように、閾値を表す線の下側に位置する点Aである場合、患部Wの面積の変化量が閾値未満である。この場合、CPU21は警告を発行しない。 When the plot indicating the calculated time difference delta_t and feature amount difference delta_S (variation in the area of the affected area W) is the point A located below the line representing the threshold as shown in FIG. , the amount of change in the area of the affected area W is less than the threshold. In this case, the CPU 21 does not issue a warning.

一方、算出された、時間差delta_t、特徴量差delta_Sを示すプロット(患部Wの面積の変化量)が、図6(a)に示すように閾値を表す線の上側に位置する点Bである場合、患部Wの面積の変化量が閾値以上である。この場合、CPU21は警告を発行する。 On the other hand, when the plot indicating the calculated time difference delta_t and feature amount difference delta_S (variation in the area of the affected area W) is the point B located above the line representing the threshold as shown in FIG. , the amount of change in the area of the affected area W is greater than or equal to the threshold. In this case, the CPU 21 issues a warning.

これにより、特徴量の変化(患部Wの面積の変化量)が閾値以上の場合、サーバー2のCPU21が警告を発行するという図4のステップS412の処理を実現できる。 This makes it possible to implement the process of step S412 in FIG. 4, in which the CPU 21 of the server 2 issues a warning when the change in the feature amount (the amount of change in the area of the affected area W) is greater than or equal to the threshold.

図6(b)は、閾値を表す直線の傾きalphaの決定に用いる表である。 FIG. 6B is a table used for determining the slope alpha of the straight line representing the threshold.

図6(b)の表において、行は皮膚疾患の種別を示す。本実施形態では、皮膚疾患の種類には、褥瘡や潰瘍、外傷、やけどなどが含まれる。 In the table of FIG. 6(b), the row indicates the type of skin disease. In this embodiment, the types of skin diseases include bedsores, ulcers, injuries, burns, and the like.

また図6(b)の表において、列は皮膚疾患の進行状態を示す。本実施形態では、皮膚疾患の進行状態には、急性期、慢性期、回復期などが含まれる。 In addition, in the table of FIG. 6(b), the columns indicate the progress of skin disease. In this embodiment, the progression of skin disease includes acute phase, chronic phase, convalescent phase, and the like.

図6(b)の表の各カラムには、傾きalphaの値が格納される。例えば外傷の急性期に、単位時間当たりの面積変化が大きいという傾向があれば、alpha_2aを比較的大きな値とする。逆に褥瘡の慢性期に、単位時間当たりの面積変化が小さいという傾向があれば、alpha_0cを比較的小さな値とする。 Each column of the table in FIG. 6B stores the value of the slope alpha. For example, if there is a tendency that the area change per unit time is large in the acute period of trauma, alpha_2a is set to a relatively large value. Conversely, if there is a tendency that the change in area per unit time is small during the chronic phase of pressure ulcers, alpha_0c is set to a relatively small value.

本実施形態では、患部の皮膚疾患の種類及びその進行状態によって、図6(b)の表を元に傾きalphaを切り替る。これにより、図4のステップS413における警告の発行されやすさを操作できる。 In this embodiment, the inclination alpha is switched based on the table in FIG. As a result, it is possible to operate the likelihood of issuing a warning in step S413 of FIG.

尚、患部の皮膚疾患の進行状態は、前回の撮影時からの今回の撮影時までの経過時間に応じて決定される。 The progress of the skin disease in the affected area is determined according to the elapsed time from the previous imaging to the current imaging.

図7は、図4のステップS414においてカメラ1のディスプレイ15に表示される警告ダイアログ71を表す図である。 FIG. 7 is a diagram showing the warning dialog 71 displayed on the display 15 of the camera 1 in step S414 of FIG.

図7を用いて、カメラ1が利用者Uに警告する警告ダイアログ71を説明する。 A warning dialog 71 that the camera 1 warns the user U will be described with reference to FIG.

図4のステップS413でサーバー2から送信された警告表示の指示をカメラ1が受信すると、図4のステップS414でカメラ1のディスプレイ15上に警告ダイアログ71が表示される。 When the camera 1 receives the warning display instruction transmitted from the server 2 in step S413 of FIG. 4, the warning dialogue 71 is displayed on the display 15 of the camera 1 in step S414 of FIG.

警告ダイアログ71には「前回の撮影時と設定/環境光が異なる可能性があります」という文面が含まれる。 The warning dialog 71 includes the message "The setting/environmental light may be different from the time of the previous photographing."

例えば、今回撮影時の患部画像が、患者Pや患部Wの設定から想定される患部画像とは食い違う場合がありうる。 For example, the affected area image at the time of the current imaging may differ from the affected area image assumed from the setting of the patient P and the affected area W.

あるいは、前回撮影時と今回撮影時で、露出やISO感度をはじめとするパラメータを利用者Uが変えて撮影を行ってしまう場合がありうる。 Alternatively, the user U may change parameters such as exposure and ISO sensitivity between the previous shooting and the current shooting.

さらに、前回撮影時は夜のLED照明下で患部Wを撮影した一方、今回撮影時は窓から夕陽が入っている状態で患部Wを撮影した場合など、光環境が大きく異なる場合がありうる。 Furthermore, the light environment may be significantly different, such as when the affected area W was imaged under LED illumination at night in the previous imaging, while the affected area W was imaged in the setting sun through the window in the current imaging.

いずれの影響も、患部画像の特徴量Sの急峻過ぎる変化(特徴量Sの差が閾値以上である)として現れる場合が多い。 Both effects often appear as too steep changes in the feature amount S of the affected area image (the difference in the feature amount S is equal to or greater than the threshold).

そこで、サーバー2のCPU21は、特徴量Sの差が閾値以上の場合、警告を発行し、カメラ1へ警告表示の指示を送信する。カメラ1では、この警告表示の指示をサーバー2から受信すると、コントローラ11がディスプレイ15に警告ダイアログ71を通じて、利用者Uに警告を通知する。これにより、利用者Uに設定や環境の確認と再撮影を促すことができる。 Therefore, the CPU 21 of the server 2 issues a warning and transmits a warning display instruction to the camera 1 when the difference in the feature amount S is equal to or greater than the threshold. When the camera 1 receives this warning display instruction from the server 2 , the controller 11 notifies the user U of the warning through a warning dialog 71 on the display 15 . As a result, the user U can be urged to check the settings and environment, and to retake the image.

以上、本実施形態に係る診療支援システム100によれば、利用者Uの特別な負担なしに、利用者Uに診療に好適な患部画像群(撮影画像群)、すなわち撮影対象の経時変化の確認に好適な撮影画像群を取得することができる。 As described above, according to the medical treatment support system 100 according to the present embodiment, the user U can confirm a group of affected area images (captured image group) suitable for medical treatment, that is, a change over time of an imaging target without any special burden on the user U. It is possible to acquire a captured image group suitable for

また、本実施形態では、診療支援システム100について説明をしたが、本発明は他のシステムにも適用可能である。例えば、被写体は人間の患部に限定されず、経年劣化する建物や装置の特定の部分などであってもよい。同一の被写体を定期的に撮影し、画像処理によって得られた特徴量の差が、前回の撮影時に比べて閾値以上であれば、警告を通知するようにしてもよい。 Further, although the medical support system 100 has been described in this embodiment, the present invention is applicable to other systems. For example, the subject is not limited to a human affected part, but may be a specific part of a building or equipment that deteriorates over time. The same subject may be photographed periodically, and if the difference in feature quantity obtained by image processing is greater than or equal to a threshold compared to the previous photographing, a warning may be issued.

(その他の実施形態)
尚、本実施形態では、1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置のコンピュータに供給し、そのシステムまたは装置のシステム制御部がプログラムを読出し実行する処理でも実現可能である。システム制御部は、1つまたは複数のプロセッサーまたは回路を有し、実行可能命令を読み出し実行するために、分離した複数のシステム制御部または分離した複数のプロセッサーまたは回路のネットワークを含みうる。
(Other embodiments)
In this embodiment, a program for realizing one or more functions may be supplied to a computer of a system or apparatus via a network or a storage medium, and the system control unit of the system or apparatus may read and execute the program. It is feasible. The system controller may have one or more processors or circuits and may include separate system controllers or a network of separate processors or circuits for reading and executing executable instructions.

プロセッサーまたは回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)を含みうる。また、プロセッサーまたは回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、またはニューラルプロセッシングユニット(NPU)を含みうる。 A processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA). Also, the processor or circuitry may include a digital signal processor (DSP), data flow processor (DFP), or neural processing unit (NPU).

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.

100 診療支援システム
1 カメラ
2 サーバー
3 PC
L 識別票
U 利用者
P 患者
W 患部
11 コントローラ
12 イメージセンサ
13 ボタン群
14 タッチパネル
15 ディスプレイ
16 ストレージ
17 ズームレンズ
18 シャッター
19 ネットワークインターフェース
21 CPU
22 GPU
23 メモリ
24 ストレージ
25 ネットワークインターフェース
100 medical support system 1 camera 2 server 3 PC
L identification card U user P patient W affected part 11 controller 12 image sensor 13 button group 14 touch panel 15 display 16 storage 17 zoom lens 18 shutter 19 network interface 21 CPU
22 GPUs
23 memory 24 storage 25 network interface

Claims (15)

利用者の指示に従って撮影対象を時間をおいて複数回に亘って撮影し撮影画像群を生成する撮像装置と、前記利用者が前記撮影対象の経時変化を確認するためのUIと、前記UIに表示すべく、前記撮影画像群の夫々に対して画像処理を行う画像処理装置とを有する経時変化確認システムであって、
前記画像処理装置において、
前記撮像装置で前記撮影画像群の1つの撮影画像が生成される毎に、前記撮影画像、その撮影日時情報を含む撮影パラメータ、及び前記撮影対象を特定するための撮影対象特定情報を前記撮像装置から取得する取得手段と、
前記撮像装置による今回及び前回の撮影時に生成された撮影画像が、前記取得した撮影対象特定情報が同一であるが、前記画像処理装置による前記画像処理によって得られた特徴量の差が閾値以上であると、前記撮影パラメータ及び前記撮影対象特定情報を用いて判定した場合、前記利用者に通知する警告を前記撮像装置に対して発行する発行手段とを備え、
前記撮像装置において、
前記発行手段により前記警告が発行された場合、前記利用者に前記警告を通知する通知手段を備えることを特徴とする経時変化確認システム。
An image capturing apparatus that captures an image of an object to be imaged a plurality of times according to a user's instruction to generate a group of imaged images, a UI for the user to confirm changes in the imaged object over time, and the UI: and an image processing device for performing image processing on each of the photographed image groups for display, wherein:
In the image processing device,
each time one photographed image of the photographed image group is generated by the imaging device, the photographed image, photographing parameters including photographing date and time information of the photographed image, and photographing object specifying information for specifying the photographing object are transmitted to the photographing device. an acquisition means for acquiring from
The photographed images generated at the time of the current photographing and the previous photographing by the photographing device have the same photographing target identification information acquired, but the difference in the feature amount obtained by the image processing by the image processing device is equal to or greater than a threshold. issuing means for issuing a warning to the imaging device to notify the user if it is determined by using the imaging parameters and the imaging target identification information that there is,
In the imaging device,
A system for confirming changes over time, further comprising notifying means for notifying said warning to said user when said warning is issued by said issuing means.
前記通知手段は表示手段であって、
前記表示手段は、前記発行手段により前記警告が前記撮像装置に対して発行された場合、前記利用者に前記警告を通知する警告ダイアログを表示することを特徴とする請求項1記載の経時変化確認システム。
The notification means is display means,
2. The temporal change confirmation according to claim 1, wherein said display means displays a warning dialog for notifying said warning to said user when said warning is issued to said imaging device by said issuing means. system.
前記撮影パラメータは、前記撮像装置のズーム及びオートフォーカスの情報を含み、
前記画像処理装置は、
前記撮影画像から前記撮影対象の領域を推定する推定手段と、
前記撮影パラメータを用いて前記推定された撮影対象の領域の実寸の面積を前記特徴量として算出する算出手段と、
を備えることを特徴とする請求項1又は2記載の経時変化確認システム。
The imaging parameters include zoom and autofocus information of the imaging device,
The image processing device is
estimating means for estimating the area of the photographing object from the photographed image;
a calculating means for calculating, as the feature amount, the actual area of the estimated imaging target region using the imaging parameters;
3. The temporal change confirmation system according to claim 1 or 2, comprising:
前記閾値を、前記前回の撮影時から前記今回の撮影時までの経過時間に応じて変更することを特徴とする請求項1乃至3のいずれか1項に記載の経時変化確認システム。 4. The temporal change confirmation system according to any one of claims 1 to 3, wherein the threshold value is changed according to the elapsed time from the previous imaging to the current imaging. 前記経時変化確認システムは、前記利用者による患者の皮膚疾患の診療を支援するシステムであって、
前記撮影対象は、前記利用者が前記患者の患部であり、
前記撮影画像群は、前記患部を含む患部画像群であり、
前記撮影対象特定情報は、前記患者および患部の情報であることを特徴とする請求項1乃至4のいずれか1項に記載の経時変化確認システム。
The chronological change confirmation system is a system that supports the user in diagnosing a patient's skin disease,
the imaging target is an affected part of the patient of the user;
The captured image group is an affected area image group including the affected area,
5. The system according to any one of claims 1 to 4, wherein the imaging target identification information is information on the patient and the affected area.
前記閾値を、前記皮膚疾患の種別に応じて変更する請求項5記載の経時変化確認システム。 6. The system for confirming changes over time according to claim 5, wherein the threshold is changed according to the type of the skin disease. 前記閾値を、前記皮膚疾患の進行状態が急性期か慢性期か回復期かに応じて変更する請求項5又は6記載の経時変化確認システム。 7. The system for checking changes over time according to claim 5 or 6, wherein the threshold value is changed depending on whether the skin disease progresses in an acute phase, a chronic phase, or a convalescent phase. 前記皮膚疾患の進行状態を、前記前回の撮影時から前記今回の撮影時までの経過時間に応じて決定することを特徴する請求項7記載の経時変化確認システム。 8. The system for confirming changes over time according to claim 7, wherein the state of progression of said skin disease is determined according to the elapsed time from said previous imaging to said current imaging. 前記特徴量の差は、前記今回及び前回の撮影時での前記撮影パラメータの違いによって現れることを特徴とする請求項1乃至8のいずれか1項に記載の経時変化確認システム。 9. The temporal change confirmation system according to any one of claims 1 to 8, wherein the difference in the feature amount appears due to the difference in the imaging parameter between the current and previous imaging. 前記特徴量の差は、前記今回及び前回の撮影時での光環境の違いによって現れることを特徴とする請求項1乃至9のいずれか1項に記載の経時変化確認システム。 10. The temporal change confirmation system according to any one of claims 1 to 9, wherein the difference in the feature quantity appears due to a difference in light environment between the current and previous imaging. 利用者の指示に従って撮影対象を時間をおいて複数回に亘って撮影し撮影画像群を生成する撮像装置であって、
前記撮像装置は、前記利用者が前記撮影対象の経時変化を確認するためのUIと、前記UIに表示すべく、前記撮影画像群の夫々に対して画像処理を行う画像処理装置とを有する経時変化確認システムにあり、
前記撮像装置で前記撮影画像群の1つの撮影画像が生成される毎に、前記撮影画像、その撮影日時情報を含む撮影パラメータ、及び前記撮影対象を特定するための撮影対象特定情報を取得し、前記画像処理装置に送信する送信手段と、
前記送信手段による前記撮影画像、前記撮影パラメータ、及び前記撮影対象特定情報の送信後、前記利用者に通知する警告を前記画像処理装置から取得した場合、前記利用者に通知する警告を表示する表示手段とを備える撮像装置。
An image capturing apparatus that captures an object to be captured a plurality of times according to a user's instruction to generate a group of captured images,
The imaging device has a UI for the user to check the temporal change of the subject to be photographed, and an image processing device for performing image processing on each of the photographed image groups so as to be displayed on the UI. in the change confirmation system,
each time one captured image of the group of captured images is generated by the imaging device, the captured image, a capturing parameter including information on the date and time of capturing thereof, and capturing target identification information for specifying the capturing target are acquired; a transmitting means for transmitting to the image processing device;
display for displaying a warning to be notified to the user when a warning to be notified to the user is obtained from the image processing apparatus after the transmission means transmits the captured image, the imaging parameters, and the imaging target identification information; An imaging device comprising means.
利用者の指示に従って撮影対象を時間をおいて複数回に亘って撮影し撮影画像群を生成する撮像装置と、前記利用者が前記撮影対象の経時変化を確認するためのUIと、前記UIに表示すべく、前記撮影画像群の夫々に対して画像処理を行う画像処理装置とを有する経時変化確認システムの制御方法であって、
前記画像処理装置において、
前記撮像装置で前記撮影画像群の1つの撮影画像が生成される毎に、前記撮影画像、その撮影日時情報を含む撮影パラメータ、及び前記撮影対象を特定するための撮影対象特定情報を前記撮像装置から取得する取得ステップと、
前記撮像装置による今回及び前回の撮影時に生成された撮影画像が、前記取得した撮影対象特定情報が同一であるが、前記画像処理装置による前記画像処理によって得られた特徴量の差が閾値以上であると、前記撮影パラメータ及び前記撮影対象特定情報を用いて判定した場合、前記利用者に通知する警告を前記撮像装置に対して発行する発行ステップとを実行し、
前記撮像装置において、
前記発行ステップにより前記警告が発行された場合、前記利用者に前記警告を通知する通知ステップを実行することを特徴とする制御方法。
An image capturing apparatus that captures an image of an object to be imaged a plurality of times according to a user's instruction to generate a group of imaged images, a UI for the user to confirm changes in the imaged object over time, and the UI: A control method for a time-dependent change confirmation system having an image processing device that performs image processing on each of the captured image groups for display,
In the image processing device,
each time one photographed image of the photographed image group is generated by the imaging device, the photographed image, photographing parameters including photographing date and time information of the photographed image, and photographing object specifying information for specifying the photographing object are transmitted to the photographing device. an acquisition step that acquires from
The photographed images generated at the time of the current photographing and the previous photographing by the photographing device have the same acquired photographing object identification information, but the difference in feature amount obtained by the image processing by the image processing device is equal to or greater than a threshold. an issuing step of issuing a warning to the imaging device to notify the user if it is determined using the imaging parameters and the imaging target identification information that there is, and
In the imaging device,
A control method characterized by executing a notification step of notifying the user of the warning when the warning is issued by the issuing step.
利用者の指示に従って撮影対象を時間をおいて複数回に亘って撮影し撮影画像群を生成する撮像装置の制御方法であって、
前記撮像装置は、前記利用者が前記撮影対象の経時変化を確認するためのUIと、前記UIに表示すべく、前記撮影画像群の夫々に対して画像処理を行う画像処理装置とを有する経時変化確認システムにあり、
前記撮像装置で前記撮影画像群の1つの撮影画像が生成される毎に、前記撮影画像、その撮影日時情報を含む撮影パラメータ、及び前記撮影対象を特定するための撮影対象特定情報を取得し、前記画像処理装置に送信する送信ステップと、
前記送信ステップにおける前記撮影画像、前記撮影パラメータ、及び前記撮影対象特定情報の送信後、前記利用者に通知する警告を前記画像処理装置から取得した場合、前記利用者に通知する警告を表示する表示ステップとを有することを特徴とする制御方法。
A control method for an imaging device for generating a group of captured images by capturing an image of an object to be captured a plurality of times according to a user's instruction, comprising:
The imaging device has a UI for the user to check the temporal change of the subject to be photographed, and an image processing device for performing image processing on each of the photographed image groups so as to be displayed on the UI. in the change confirmation system,
each time one captured image of the group of captured images is generated by the imaging device, the captured image, a capturing parameter including information on the date and time of capturing thereof, and capturing target identification information for specifying the capturing target are acquired; a transmission step of transmitting to the image processing device;
display for displaying a warning to be notified to the user when a warning to be notified to the user is obtained from the image processing apparatus after the photographed image, the photographing parameters, and the imaging target identification information are transmitted in the transmitting step; A control method characterized by comprising:
コンピュータを、請求項1乃至10のいずれか1項に記載の経時変化確認システムの各手段として機能させる、コンピュータにより実行可能なプログラム。 A computer-executable program that causes a computer to function as each means of the system for confirming changes over time according to any one of claims 1 to 10. コンピュータを、請求項11に記載の撮像装置の各手段として機能させる、コンピュータにより実行可能なプログラム。
A computer-executable program that causes a computer to function as each means of the imaging device according to claim 11 .
JP2021188046A 2021-11-18 2021-11-18 Secular change confirmation system, imaging apparatus, control method and program Pending JP2023074879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021188046A JP2023074879A (en) 2021-11-18 2021-11-18 Secular change confirmation system, imaging apparatus, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021188046A JP2023074879A (en) 2021-11-18 2021-11-18 Secular change confirmation system, imaging apparatus, control method and program

Publications (1)

Publication Number Publication Date
JP2023074879A true JP2023074879A (en) 2023-05-30

Family

ID=86541226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021188046A Pending JP2023074879A (en) 2021-11-18 2021-11-18 Secular change confirmation system, imaging apparatus, control method and program

Country Status (1)

Country Link
JP (1) JP2023074879A (en)

Similar Documents

Publication Publication Date Title
KR102317478B1 (en) Method and system for wound assessment and management
US6427022B1 (en) Image comparator system and method for detecting changes in skin lesions
AU2006206334C1 (en) Devices and methods for identifying and monitoring changes of a suspect area on a patient
US9788792B2 (en) System for screening skin condition for tissue damage
CN107924564B (en) Method and apparatus for determining volumetric data of a predetermined anatomical feature
JP7178423B2 (en) Guidance method and system for teledental imaging
WO2011067767A1 (en) System and method for scanning a human body
JP2014036801A (en) Biological state observation system, biological state observation method and program
JP6199791B2 (en) Pet health examination apparatus, pet health examination method and program
KR101758977B1 (en) The diagnostic imaging apparatus and method for transmitting a diagnostic image to external system thereby
JP5822545B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2021530319A (en) Systems and methods for acquiring thermal image data of body parts and thermal imagers
JP2021144752A (en) Imaging device, control method of imaging device, and program
JP5698293B2 (en) Portable medical image display terminal and operating method thereof
JP2021520982A (en) Methods and systems for image collection and dimensional analysis for medical diagnostics
JP6598422B2 (en) Medical information processing apparatus, system, and program
JP2023074879A (en) Secular change confirmation system, imaging apparatus, control method and program
JP7433750B2 (en) Video clip selector used for medical image creation and diagnosis
JP2020160853A (en) Image processing device, image processing method, and program
WO2022080141A1 (en) Endoscopic imaging device, method, and program
JP2021137344A (en) Medical image processing device, medical image processing device control method, and program
CN111698401B (en) Apparatus, image processing apparatus, control method, and storage medium
US11012671B2 (en) Information processing apparatus, image capturing apparatus, and information processing method
CN116457882A (en) Apparatus and method for controlling camera
JP7104913B2 (en) Imaging device, imaging program, image determination device, image determination program, and image processing system