JP7536463B2 - Imaging device, control method thereof, and program - Google Patents

Imaging device, control method thereof, and program Download PDF

Info

Publication number
JP7536463B2
JP7536463B2 JP2020023378A JP2020023378A JP7536463B2 JP 7536463 B2 JP7536463 B2 JP 7536463B2 JP 2020023378 A JP2020023378 A JP 2020023378A JP 2020023378 A JP2020023378 A JP 2020023378A JP 7536463 B2 JP7536463 B2 JP 7536463B2
Authority
JP
Japan
Prior art keywords
affected area
size
imaging
image
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020023378A
Other languages
Japanese (ja)
Other versions
JP2020156082A (en
Inventor
友樹 黒田
良和 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/808,245 priority Critical patent/US11475571B2/en
Priority to CN202010172159.7A priority patent/CN111698401B/en
Publication of JP2020156082A publication Critical patent/JP2020156082A/en
Application granted granted Critical
Publication of JP7536463B2 publication Critical patent/JP7536463B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、撮像装置、その制御方法およびプログラム等に関するものである。 The present invention relates to an imaging apparatus, a control method thereof , and a program therefor .

人や動物が横になっている状態では体重により接地面と体の接触部位が圧迫されることで褥瘡、いわゆる床ずれが発症することがある。褥瘡を発症した患者は、体圧分散ケアやスキンケア等の褥瘡ケアを施し、定期的に褥瘡を評価および管理していく必要がある。 When a person or animal is lying down, their body weight puts pressure on the contact area between the body and the surface, which can lead to the development of bedsores. Patients who develop bedsores should receive bedsore care such as pressure redistribution care and skin care, and regularly evaluate and manage the bedsores.

非特許文献1には、褥瘡評価のツールとして、日本褥瘡学会学術教育委員会が開発した褥瘡状態判定スケール、DESIGN-R(登録商標)が提案されている。DESIGN-Rは、褥瘡をはじめとする傷の治癒過程を評価するためのツールである。このスケールの命名は、深さ(Depth)、滲出液(Exudate)、大きさ(Size)、炎症・感染(Inflammation/Infection)、肉芽組織(Granulation)、壊死組織(Necrotic tissue)の各観察項目の頭文字をとっている。 Non-Patent Document 1 proposes the DESIGN-R (registered trademark), a pressure ulcer status assessment scale developed by the Academic Education Committee of the Japanese Society of Pressure Ulcers, as a tool for assessing pressure ulcers. DESIGN-R is a tool for evaluating the healing process of wounds, including pressure ulcers. The name of this scale is derived from the initials of the observation items: depth, exudate, size, inflammation/infection, granulation, and necrotic tissue.

DESIGN-Rは、日常の簡便な評価のための重症度分類用と、詳細に治癒過程の流れが示される経過評価用との2つがある。重症度分類用のDESIGN-Rは、6つの評価項目を軽度と重度の2つに区分して、軽度はアルファベットの小文字を用いて表し、重度は大文字を用いて表す。
初療時に重症度分類用を用いて評価することで、褥瘡の大まかな状態を把握することができる。どの項目が問題であるかがわかるため、治療方針を容易に決定できる。
DESIGN-R is available in two versions: one for severity classification, which is used for simple daily evaluation, and one for progress evaluation, which shows the flow of the healing process in detail. DESIGN-R for severity classification divides six evaluation items into two categories, mild and severe, with mild being represented by lowercase letters and severe being represented by uppercase letters.
By using the severity classification system to evaluate the pressure ulcer at the time of initial treatment, it is possible to grasp the general condition of the ulcer. By knowing which items are problematic, it is easy to decide on a treatment plan.

一方、経過評価用として、経過評価に加え患者間の重症度比較もできるDESIGN-Rも定められている。Rはrating(評価・評点)を表す。各項目に異なる重み付けをしており、深さ以外の6項目の合計点(0~66点)がその褥瘡の重症度を表す。治療開始後に治療経過を詳細かつ客観的に評価でき、個人の経過評価だけでなく、患者間の重症度比較もできる。
ここで、DESIGN-RのSize評価は、皮膚損傷範囲の長径と短径(長径と直交する最大径)を測定し(cm)、各々を掛け合わせた数値であるSizeを7段階に分類するものである。この7段階とは、s0:皮膚損傷なし、s3:4未満、s6:4以上16未満、s8:16以上36未満、s9:36以上64未満、s12:64以上100未満、S15:100以上、である。
Meanwhile, DESIGN-R has also been established for progress evaluation, which allows for comparison of severity between patients in addition to progress evaluation. R stands for rating. Each item is weighted differently, and the total score (0-66 points) of the six items other than depth represents the severity of the pressure ulcer. After treatment has begun, the treatment progress can be evaluated in detail and objectively, allowing not only an individual progress evaluation but also comparison of severity between patients.
Here, the size evaluation of DESIGN-R involves measuring the major axis and minor axis (the maximum axis perpendicular to the major axis) of the skin damage area (cm), multiplying them together to obtain a size, which is then classified into seven levels. The seven levels are: s0: no skin damage, s3: less than 4, s6: 4 to less than 16, s8: 16 to less than 36, s9: 36 to less than 64, s12: 64 to less than 100, and S15: 100 or more.

DESIGN-Rの採点は、非特許文献1に記載があるように、褥瘡の治癒経過を評価し、適切なケア選択を行うために1週間から2週間に1回採点することが推奨されており、褥瘡は定期的に病状を評価し管理していく必要がある。また、褥瘡の病状の変化を確かめるために、評価には正確性が求められる。
現状では、褥瘡のSize評価は、患部にメジャーを当てて手作業で計測された値に基づいて決定されることが多い。具体的にはまず、皮膚の損傷範囲のうち一番長い直線距離の2点を測定し、それを長径とする。さらに長径と直交する長さを短径とし、長径と短径を掛けた値を褥瘡のSizeとしている。
As described in Non-Patent Document 1, it is recommended that DESIGN-R be scored once every one to two weeks to evaluate the healing process of pressure ulcers and select appropriate care, and pressure ulcers need to be regularly evaluated and managed. In addition, accuracy is required in the evaluation to confirm changes in the condition of pressure ulcers.
Currently, the size of a bedsore is often determined based on manual measurements made by placing a tape measure on the affected area. Specifically, the longest two points in the damaged area of the skin are measured, and this is taken as the long axis. The length perpendicular to the long axis is taken as the short axis, and the value obtained by multiplying the long axis and the short axis is taken as the size of the bedsore.

照林社 褥瘡ガイドブック 第2版 褥瘡予防・管理ガイドライン(第4版)準拠 編集 日本褥瘡学会 ISBN13 978-4796523608 23ページShorinsha Bed Sore Guidebook, 2nd Edition, Based on the Bed Sore Prevention and Management Guidelines (4th Edition), Edited by the Japanese Bed Sore Society, ISBN13 978-4796523608, 23 pages

しかしながら、褥瘡を撮影する場合には、寝たりきりの患者を半分起こして背中を撮る等、撮影者が不自然な体位になるために、適切に撮影することができない虞がある。患者の姿勢によって、褥瘡の形および面積が変わってしまうために、撮影の度に、褥瘡の見え方が変わってしまう可能性がある。そのため、褥瘡を撮影した画像を比較しても、経過を正確に比較することが困難な場合があった。なお、これは褥瘡に限られるものではなく、火傷や裂傷を撮影する場合であっても同様である。
本発明は、上述したような問題点に鑑みてなされたものであり、患部を適切に撮影できるようにすることを目的とする。
However, when photographing a bedsore, the photographer must assume an unnatural position, such as half-raising a bedridden patient to photograph his/her back, which may result in inappropriate photographing. Since the shape and area of the bedsore change depending on the patient's posture, the appearance of the bedsore may change each time it is photographed. Therefore, even when comparing images of bedsores, it may be difficult to accurately compare their progress. This is not limited to bedsores, but is also true when photographing burns or lacerations.
The present invention has been made in consideration of the above-mentioned problems, and has an object to make it possible to appropriately photograph an affected area.

本発明は、患部を撮影する撮像手段と、前記撮像手段にて撮影された画像における前記患部のサイズの情報を取得し、前記患部のサイズの情報に基づいて、前記撮像手段により前記患部を撮影するタイミングを制御する、または、ユーザに対して撮影操作を促すタイミングを制御する制御手段と、を有する撮像装置であって、前記制御手段は、前記患部のサイズが閾値以上である場合に、前記撮像手段により前記患部を撮影するように制御する、または、ユーザに対して撮影操作を促すように制御し、前記閾値は、同一患者の過去に撮影された前記患部のサイズに基づいた値であることを特徴とする。 The present invention is an imaging device having an imaging means for photographing an affected area, and a control means for acquiring information on the size of the affected area in an image photographed by the imaging means, and controlling the timing of photographing the affected area by the imaging means based on the information on the size of the affected area, or controlling the timing of prompting a user to perform a photographing operation, wherein the control means controls the imaging means to photograph the affected area, or controls the user to prompt the user to perform a photographing operation, when the size of the affected area is equal to or larger than a threshold, and the threshold is a value based on the size of the affected area previously photographed by the same patient .

本発明によれば、患部を適切に撮影することができる。 The present invention allows the affected area to be photographed properly.

画像処理システムの概要を示す図である。FIG. 1 is a diagram illustrating an overview of an image processing system. 撮像装置のハードウェア構成を示す図である。FIG. 2 is a diagram illustrating a hardware configuration of an imaging apparatus. 画像処理装置のハードウェア構成を示す図である。FIG. 2 is a diagram illustrating a hardware configuration of an image processing device. 画像処理システムの処理を示すフローチャートである。4 is a flowchart showing a process of the image processing system. 患部領域の面積の計算方法を説明するための図である。FIG. 13 is a diagram for explaining a method for calculating the area of an affected region. 患部の画像データに情報を重畳する方法を説明するための図である。11A and 11B are diagrams for explaining a method of superimposing information on image data of an affected area. 患部の画像データに情報を重畳する方法を説明するための図である。11A and 11B are diagrams for explaining a method of superimposing information on image data of an affected area. 画像処理システムの処理を示すフローチャートである。4 is a flowchart showing a process of the image processing system.

以下、本発明に係る実施形態について図面を参照して説明する。
<第1の実施形態>
図1は、画像処理システム1の概要の一例を示す図である。
画像処理システム1は、手持ち可能なポータブルデバイスである撮像装置200と、画像処理装置300とを有する。本実施形態では、被写体101の患部102の病態の一例を、臀部に生じた褥瘡として説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
First Embodiment
FIG. 1 is a diagram showing an example of an outline of an image processing system 1. As shown in FIG.
The image processing system 1 includes an imaging device 200, which is a handheld portable device, and an image processing device 300. In this embodiment, an example of the pathology of the affected part 102 of the subject 101 will be described as a bedsore occurring on the buttocks.

画像処理システム1では、撮像装置200が被写体101の患部102をライブビューで撮影し、撮影したライブビューの画像データを画像処理装置300に送信する。画像処理装置300は、受信した画像データから患部102の患部領域を抽出すると共に患部領域の面積を算出して、算出した面積の情報を撮像装置200に送信する。撮像装置200は、受信した患部領域の面積が閾値以上である場合に自動的に患部102を撮影する。なお、本実施形態では、患部102が褥瘡である場合を例に挙げて説明を行うが、褥瘡に限られず、火傷や裂傷であってもよい。 In the image processing system 1, the imaging device 200 captures an image of the affected area 102 of the subject 101 using a live view, and transmits the captured image data of the live view to the image processing device 300. The image processing device 300 extracts the affected area of the affected area 102 from the received image data, calculates the area of the affected area, and transmits information on the calculated area to the imaging device 200. The imaging device 200 automatically captures the affected area 102 when the area of the received affected area is equal to or greater than a threshold value. Note that in this embodiment, the description will be given using an example in which the affected area 102 is a bedsore, but this is not limited to a bedsore, and may be a burn or laceration.

図2は、撮像装置200のハードウェア構成の一例を示す図である。
撮像装置200は、一般的な一眼カメラ、コンパクトデジタルカメラ、あるいは、オートフォーカス機能付きのカメラを備えたスマートフォンやタブレット端末等を用いることができる。
撮像ユニット211は、レンズ群212、シャッタ213、イメージセンサ214を有する。レンズ群212に含まれる複数のレンズの位置を変更することで、フォーカス位置とズーム倍率を変更することができる。レンズ群212は、露出量を調節するための絞りも備える。
FIG. 2 is a diagram showing an example of a hardware configuration of the imaging device 200. As shown in FIG.
The imaging device 200 may be a general single-lens camera, a compact digital camera, or a smartphone or tablet terminal equipped with a camera with an autofocus function.
The imaging unit 211 has a lens group 212, a shutter 213, and an image sensor 214. The focus position and zoom magnification can be changed by changing the positions of the multiple lenses included in the lens group 212. The lens group 212 also has an aperture for adjusting the amount of exposure.

イメージセンサ214は、光学像を画像データに変換するCCDやCMOSセンサ等の電荷蓄積型の固体イメージセンサで構成される。レンズ群212およびシャッタ213を通過した被写体からの反射光はイメージセンサ214に結像される。イメージセンサ214は被写体像に応じた電気信号を生成し、生成した電気信号に基づく画像データを出力する。 The image sensor 214 is composed of a charge-storage type solid-state image sensor such as a CCD or CMOS sensor that converts an optical image into image data. Reflected light from the subject that passes through the lens group 212 and the shutter 213 is focused on the image sensor 214. The image sensor 214 generates an electrical signal corresponding to the subject image and outputs image data based on the generated electrical signal.

シャッタ213は、羽根部材の開閉動作を行うことによって、イメージセンサ214への露出や遮光を行い、イメージセンサ214の露光時間を制御する。なお、シャッタ213は、イメージセンサ214の駆動によって露光時間を制御する電子シャッタであってもよい。CMOSセンサで電子シャッタを行う場合には、画素ごと、あるいは、複数画素からなる領域ごと(例えばラインごと)に、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、リセット走査を行った画素あるいは領域ごとに、それぞれ所定の時間を経過してから電荷の蓄積量に応じた信号を読み出す走査を行う。
ズーム制御回路215は、レンズ群212に含まれるズームレンズを駆動するためのモータを制御し、レンズ群212の光学倍率を制御する。
The shutter 213 exposes or blocks light to the image sensor 214 by opening and closing the blade members, thereby controlling the exposure time of the image sensor 214. The shutter 213 may be an electronic shutter that controls the exposure time by driving the image sensor 214. When the electronic shutter is performed with a CMOS sensor, a reset scan is performed for each pixel or for each area consisting of multiple pixels (for example, for each line) to reduce the amount of accumulated charge in the pixel to zero. After that, for each pixel or area where the reset scan was performed, a scan is performed to read out a signal corresponding to the amount of accumulated charge after a predetermined time has elapsed.
The zoom control circuit 215 controls a motor for driving a zoom lens included in the lens group 212 , and controls the optical magnification of the lens group 212 .

測距システム216は、被写体までの距離情報を算出する。測距システム216は、一眼レフカメラに搭載された一般的な位相差方式の測距センサを用いてもよく、TOF(Time Of Flight)センサを用いてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体で反射された反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。更に、測距システム216には、受光素子にPSD(Position Sensitive Device)を用いたPSD方式等を用いてもよい。 The distance measurement system 216 calculates distance information to the subject. The distance measurement system 216 may use a general phase difference type distance measurement sensor mounted on a single-lens reflex camera, or may use a TOF (Time Of Flight) sensor. The TOF sensor is a sensor that measures the distance to the object based on the time difference (or phase difference) between the timing of transmitting an irradiated wave and the timing of receiving a reflected wave of the irradiated wave reflected by the object. Furthermore, the distance measurement system 216 may use a PSD type using a PSD (Position Sensitive Device) as a light receiving element.

なお、イメージセンサ214が、画素ごとに複数の光電変換領域を有し、それぞれの光電変換領域から得られた画像間の位相差から、画素あるいは領域の位置ごとに距離情報を求めることができる構成であってもよい。
また、測距システム216は、画像内の予め定められた所定の1つ、あるいは、複数の測距エリアにおける距離情報を求めるように構成してもよく、画像内の多数の画素あるいは領域の距離情報の分布を示す距離マップを求める構成としてもよい。
また、測距システム216は、画像データの高周波成分を抽出して積分し、積分値が最大となるフォーカスレンズの位置を決定するTV-AFまたはコントラストAFを行い、このフォーカスレンズの位置から距離情報を得るようにしてもよい。
The image sensor 214 may have multiple photoelectric conversion regions for each pixel, and may be configured to be able to obtain distance information for each pixel or region position from the phase difference between images obtained from each photoelectric conversion region.
In addition, the ranging system 216 may be configured to obtain distance information in one or more predetermined ranging areas within the image, or may be configured to obtain a distance map showing the distribution of distance information for a large number of pixels or areas within the image.
In addition, the distance measurement system 216 may perform TV-AF or contrast AF to extract and integrate high-frequency components of the image data, determine the position of the focus lens where the integrated value is maximized, and obtain distance information from this position of the focus lens.

画像処理回路217は、イメージセンサ214から出力された画像データに対して、所定の画像処理を施す。画像処理回路217は、撮像ユニット211から出力された画像データ、あるいは、内部メモリ221に記憶されている画像データに対して、ホワイトバランス調整、ガンマ補正、色補間またはデモザイキング、フィルタリング等の様々な画像処理を行う。また、画像処理回路217は、画像処理を行った画像データに対して、JPEG等の規格で圧縮処理を行う。
AF制御回路218は、測距システム216で得られた距離情報に基づいて、レンズ群212に含まれるフォーカスレンズの位置を決定し、フォーカスレンズを駆動するモータを制御する。
The image processing circuit 217 performs predetermined image processing on the image data output from the image sensor 214. The image processing circuit 217 performs various image processing such as white balance adjustment, gamma correction, color interpolation or demosaicing, and filtering on the image data output from the imaging unit 211 or the image data stored in the internal memory 221. In addition, the image processing circuit 217 performs compression processing on the image data that has been subjected to image processing in accordance with a standard such as JPEG.
The AF control circuit 218 determines the position of the focus lens included in the lens group 212 based on distance information obtained by the distance measurement system 216, and controls a motor that drives the focus lens.

通信装置219は、無線のネットワークを介して、画像処理装置300等の外部機器と通信を行うための通信インターフェースである。ネットワークの具体的な一例としては、Wi-Fi(登録商標)規格に基づくネットワークが挙げられる。なお、Wi-Fiを用いた通信はルータを介して実現してもよい。また、通信装置219は、USBやLAN等の有線の通信インターフェースにより実現されてもよい。 The communication device 219 is a communication interface for communicating with external devices such as the image processing device 300 via a wireless network. A specific example of the network is a network based on the Wi-Fi (registered trademark) standard. Note that communication using Wi-Fi may be realized via a router. The communication device 219 may also be realized by a wired communication interface such as a USB or LAN.

システム制御回路220は、CPU(Central Processing Unit)を有し、内部メモリ221に記憶されたプログラムを実行することによって、撮像装置200の全体制御を行う。また、システム制御回路220は、撮像ユニット211、ズーム制御回路215、測距システム216、画像処理回路217およびAF制御回路218等の制御を行う。なお、システム制御回路220はCPUを有する場合に限られず、FPGAやASIC等を用いてもよい。また、システム制御回路220は、所定の撮影条件に基づき、撮影条件に合致した場合はユーザにより操作部224を介して撮影指示をした場合と同様の内部信号を発生させる。 The system control circuit 220 has a CPU (Central Processing Unit) and performs overall control of the imaging device 200 by executing a program stored in the internal memory 221. The system control circuit 220 also controls the imaging unit 211, the zoom control circuit 215, the distance measurement system 216, the image processing circuit 217, the AF control circuit 218, and the like. Note that the system control circuit 220 is not limited to having a CPU, and may use an FPGA, ASIC, or the like. The system control circuit 220 also generates an internal signal based on predetermined shooting conditions, similar to that generated when the user issues a shooting instruction via the operation unit 224, if the shooting conditions are met.

内部メモリ221は、例えば、フラッシュメモリやSDRAM等の書き換え可能なメモリを用いることができる。内部メモリ221は、撮像装置200の動作に必要な画像撮影時のピント位置の情報等の各種設定情報、撮像ユニット211が撮影した画像データ、画像処理回路217により画像処理された画像データ等を一時的に記憶する。また、内部メモリ221は、通信装置219が画像処理装置300と通信して受信した、画像データや被写体のサイズに関する情報等の解析データを一時的に記憶してもよい。 The internal memory 221 may be, for example, a rewritable memory such as a flash memory or SDRAM. The internal memory 221 temporarily stores various setting information such as information on the focus position when capturing an image required for the operation of the imaging device 200, image data captured by the imaging unit 211, image data processed by the image processing circuit 217, etc. The internal memory 221 may also temporarily store analysis data such as image data and information on the size of the subject received by the communication device 219 through communication with the image processing device 300.

外部メモリ222は、撮像装置200に装着可能、あるいは、撮像装置200に内蔵された不揮発性の記録媒体である。外部メモリ222は、例えば、SDカードやCFカード等を用いることができる。外部メモリ222は、画像処理回路217により画像処理された画像データ、通信装置219が画像処理装置300と通信して受信した画像データや解析データ等を記録する。また、外部メモリ222は、再生時には記録された画像データが読み出され、撮像装置200の外部に出力することも可能である。 The external memory 222 is a non-volatile recording medium that can be attached to the imaging device 200 or is built into the imaging device 200. For example, an SD card or a CF card can be used as the external memory 222. The external memory 222 records image data that has been image-processed by the image processing circuit 217, image data and analysis data that the communication device 219 receives by communicating with the image processing device 300, and the like. In addition, the image data recorded in the external memory 222 can be read out during playback and output to the outside of the imaging device 200.

表示装置223は、例えば、TFT(Thin Film Transistor)液晶ディスプレイ、有機ELディスプレイ、EVF(電子ビューファインダ)等を用いることができる。表示装置223は、内部メモリ221に一時的に記憶されている画像データや外部メモリ222に記録された画像データを表示したり、撮像装置200の設定画面等を表示したりする。
操作部224は、撮像装置200に設けられたボタン、スイッチ、キー、モードダイアル、あるいは、表示装置223に兼用されるタッチパネル等で構成される。ユーザによるモード設定や撮影指示等の指令は、操作部224を経由して、システム制御回路220に通知される。
The display device 223 may be, for example, a TFT (Thin Film Transistor) liquid crystal display, an organic EL display, an EVF (Electronic Viewfinder), etc. The display device 223 displays image data temporarily stored in the internal memory 221 and image data recorded in the external memory 222, and displays a setting screen of the imaging device 200, etc.
The operation unit 224 is composed of buttons, switches, keys, a mode dial, or a touch panel that also serves as the display device 223, which are provided on the imaging device 200. Instructions such as mode settings and shooting instructions by the user are notified to the system control circuit 220 via the operation unit 224.

共通バス225は、撮像装置200の各構成部の間で信号の送受信を行うための信号線である。 The common bus 225 is a signal line for transmitting and receiving signals between each component of the imaging device 200.

図3は、画像処理装置300のハードウェア構成の一例を示す図である。
画像処理装置300は、CPU310、記憶装置312、通信装置313、出力装置314、補助演算装置317等を備える。
CPU310は演算装置311を備える。CPU310は、記憶装置312に記憶されたプログラムを実行することで画像処理装置300の全体制御を行う。
FIG. 3 is a diagram illustrating an example of a hardware configuration of the image processing device 300.
The image processing device 300 includes a CPU 310, a storage device 312, a communication device 313, an output device 314, an auxiliary calculation device 317, and the like.
The CPU 310 includes an arithmetic unit 311. The CPU 310 executes a program stored in a storage unit 312 to perform overall control of the image processing device 300.

記憶装置312は主記憶装置315(ROMやRAM等)と補助記憶装置316(磁気ディスク装置やSSD(Solid State Drive)等)を備える。
通信装置313は、無線のネットワークを介して、撮像装置200等の外部機器と通信を行うための無線通信モジュールである。
出力装置314は、画像処理装置300に接続されたディスプレイ、プリンタあるいは外部ネットワークに、演算装置311が加工したデータや記憶装置312に記憶されたデータ等を出力する。
The storage device 312 includes a main storage device 315 (such as a ROM or a RAM) and an auxiliary storage device 316 (such as a magnetic disk device or an SSD (Solid State Drive)).
The communication device 313 is a wireless communication module for communicating with external devices such as the imaging device 200 via a wireless network.
The output device 314 outputs data processed by the arithmetic device 311, data stored in the storage device 312, etc. to a display, a printer, or an external network connected to the image processing device 300.

補助演算装置317はCPU310の制御の下で動作する補助演算用ICである。補助演算装置317としては、GPU(Graphic Processing Unit)等を用いることができる。GPUは、元々は画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとしても用いられることができる。したがって、GPUは深層学習を行う処理において用いられることが一般的である。補助演算装置317には、例えば、NVIDIA社のJetsonTX2 moduleを用いることができる。また、補助演算装置317として、FPGAやASIC等を用いてもよい。補助演算装置317は、画像データから患部領域の抽出処理を行う。 The auxiliary calculation device 317 is an auxiliary calculation IC that operates under the control of the CPU 310. A GPU (Graphic Processing Unit) or the like can be used as the auxiliary calculation device 317. The GPU is originally a processor for image processing, but since it has multiple multiply-accumulators and excels at matrix calculations, it can also be used as a processor that performs processing for signal learning. Therefore, GPUs are generally used in processing that performs deep learning. For example, the JetsonTX2 module from NVIDIA can be used as the auxiliary calculation device 317. In addition, an FPGA, an ASIC, or the like can also be used as the auxiliary calculation device 317. The auxiliary calculation device 317 performs processing to extract the affected area from the image data.

なお、画像処理装置300が備えるCPU310および記憶装置312は1つであっても複数であってもよい。すなわち、少なくとも1以上のCPUと少なくとも1つの記憶装置とが接続されており、少なくとも1以上のCPUが少なくとも1以上の記憶装置に記憶されたプログラムを実行した場合に、画像処理装置300は後述する各機能を実行する。また、画像処理装置300はCPU310を有する場合に限られず、FPGAやASIC等を用いてもよい。 The image processing device 300 may have one or more CPUs 310 and storage devices 312. That is, at least one or more CPUs are connected to at least one storage device, and when at least one or more CPUs execute a program stored in at least one or more storage devices, the image processing device 300 executes each function described below. Furthermore, the image processing device 300 is not limited to having a CPU 310, and may use an FPGA, ASIC, or the like.

図4は、画像処理システム1の処理の一例を示すフローチャートである。
図4において、S401~S420が撮像装置200による処理であり、S431~S456が画像処理装置300による処理である。図4のフローチャートは、撮像装置200と画像処理装置300とが、無線LAN規格であるWi-Fi規格のネットワークにそれぞれ接続することで開始される。
FIG. 4 is a flowchart showing an example of processing by the image processing system 1.
4, steps S401 to S420 are processes performed by the imaging device 200, and steps S431 to S456 are processes performed by the image processing device 300. The flowchart in Fig. 4 starts when the imaging device 200 and the image processing device 300 are each connected to a network conforming to the Wi-Fi standard, which is a wireless LAN standard.

S431では、画像処理装置300は、接続する撮像装置200の探索処理を行う。
S401では、撮像装置200は、画像処理装置300による探索処理に対して応答処理を行う。なお、ネットワークを介して機器を探索する技術としては、UPnP(Universal Plug and Play)が用いられる。ここでUPnPにおいて個々の装置の識別はUUID(Universally Unique IDentifier)によって行われる。
In S431, the image processing device 300 performs a search process for the imaging device 200 to be connected.
In S401, the imaging device 200 performs a response process to the search process by the image processing device 300. Note that UPnP (Universal Plug and Play) is used as a technology for searching for devices via a network. Here, in UPnP, individual devices are identified by UUID (Universally Unique IDentifier).

S402では、撮像装置200は、画像処理装置300との間で通信可能に接続されることで、ライブビュー処理を開始する。具体的には、撮像ユニット211が画像データを生成し、画像処理回路217が生成された画像データに対してライブビュー表示用の画像データを生成するための現像処理を行う。撮像ユニット211および画像処理回路217が処理を繰り返し行うことで、所定のフレームレートのライブビュー画像が表示装置223に表示される。 In S402, the imaging device 200 starts live view processing by being connected to the image processing device 300 so as to be able to communicate with each other. Specifically, the imaging unit 211 generates image data, and the image processing circuit 217 performs development processing on the generated image data to generate image data for live view display. The imaging unit 211 and the image processing circuit 217 repeatedly perform processing, and a live view image is displayed on the display device 223 at a predetermined frame rate.

S403では、測距システム216が被写体までの距離情報を求め、AF制御回路218が被写体にピントが合うようにレンズ群212の駆動制御を行うAF処理を開始する。なお、測距システム216がTV-AFまたはコントラストAFでピント位置の調整を行った場合には、ピントを合わせた状態のフォーカスレンズの位置から、ピントを合わせた像の被写体101までの距離情報を求める。ピントを合わせる位置は、画像データの中央に位置する被写体であってもよく、撮像装置200に対して最も至近側の位置に存在する被写体であってもよい。測距システム216は被写体の距離マップを得ている場合には、距離マップから注目すべき領域を推定し、推定した領域に対してピントを合わせるようにしてもよい。また、測距システム216は既に画像処理装置300によってライブビュー画像における患部領域の位置が特定されている場合には、特定されている位置に対してピントを合わせるようにしてもよい。撮像装置200は、後述するS413でレリーズボタンが押下されるまで、ライブビュー画像の表示およびAF処理を繰り返し行う。 In S403, the distance measurement system 216 obtains distance information to the subject, and the AF control circuit 218 starts AF processing to control the driving of the lens group 212 so that the subject is in focus. If the distance measurement system 216 adjusts the focus position using TV-AF or contrast AF, distance information is obtained from the position of the focus lens in the focused state to the subject 101 of the focused image. The position to be focused may be the subject located in the center of the image data, or the subject located in the closest position to the imaging device 200. If the distance measurement system 216 has obtained a distance map of the subject, it may estimate a region to be noted from the distance map and focus on the estimated region. If the position of the affected area in the live view image has already been specified by the image processing device 300, the distance measurement system 216 may focus on the specified position. The imaging device 200 repeatedly displays the live view image and performs AF processing until the release button is pressed in S413 described later.

S404では、画像処理回路217は、ライブビュー画像の何れかの画像データに対して現像および圧縮処理を行い、例えばJPEG規格の画像データを生成する。画像処理回路217は、圧縮処理された画像データに対してリサイズ処理を行い、画像データのサイズを小さくする。
S405では、通信装置219は、リサイズ処理された画像データと、測距システム216が求めた距離情報を取得する。また、通信装置219は、必要に応じて、ズーム倍率の情報、リサイズ処理された画像データのサイズ(ピクセル数)の情報を取得する。
In S404, the image processing circuit 217 performs development and compression processing on any image data of the live view image to generate image data in, for example, JPEG standard. The image processing circuit 217 performs resizing processing on the compressed image data to reduce the size of the image data.
In S405, the communication device 219 acquires the resized image data and distance information calculated by the distance measuring system 216. Furthermore, the communication device 219 acquires information on the zoom magnification and information on the size (number of pixels) of the resized image data, as necessary.

S406では、通信装置219は、取得した画像データおよび距離情報を含む1以上の情報を無線通信により画像処理装置300に送信する。ここで、送信する画像データのサイズが大きいほど無線通信に時間が掛かる。したがって、システム制御回路220は許容される通信時間に基づいて、S404において画像処理回路217がリサイズ処理する画像データのサイズを決定する。ただし、画像データのサイズが小さすぎると、画像処理装置300が後述するS442において患部領域の抽出処理の精度に影響が出てしまう。したがって、システム制御回路220は、通信時間に加えて、患部領域の抽出処理の精度に基づいて、画像データのサイズを決定する。なお、S404~S406までの処理は、フレームごとに行ってもよいし、数フレームに1回の割合で行うようにしてもよい。 In S406, the communication device 219 transmits the acquired image data and one or more pieces of information including distance information to the image processing device 300 by wireless communication. Here, the larger the size of the image data to be transmitted, the longer the wireless communication takes. Therefore, the system control circuit 220 determines the size of the image data to be resized by the image processing circuit 217 in S404 based on the allowable communication time. However, if the size of the image data is too small, it will affect the accuracy of the affected area extraction process performed by the image processing device 300 in S442, which will be described later. Therefore, the system control circuit 220 determines the size of the image data based on the communication time as well as the accuracy of the affected area extraction process. Note that the processes from S404 to S406 may be performed for each frame, or may be performed once every few frames.

次に、画像処理装置300による処理に移る。
S441では、画像処理装置300の通信装置313は、撮像装置200の通信装置219から送信された画像データおよび距離情報を含む1以上の情報を受信する。
S442では、画像処理装置300のCPU310および補助演算装置317は、受信した画像データから患部領域を抽出する。
Next, the process proceeds to the image processing device 300.
In S<b>441 , the communication device 313 of the image processing device 300 receives one or more pieces of information including image data and distance information transmitted from the communication device 219 of the imaging device 200 .
In S442, the CPU 310 and the auxiliary processing unit 317 of the image processing device 300 extract the affected area from the received image data.

患部領域を抽出する手法として、深層学習による意味的領域分割を行う。すなわち、予め学習用の高性能コンピュータに、複数の実際の褥瘡の患部領域の画像を教師データとしてニューラルネットワークのモデルを学習させて、学習済モデルを生成する。補助演算装置317は、高性能コンピュータから学習済モデルを取得して、学習済モデルに基づいて画像データから褥瘡のエリアを領域推定する。ニューラルネットワークのモデルの一例として、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク(FCN(Fully Convolutional Network))を適用することができる。深層学習による推論は、積和演算の並列実行を得意とする補助演算装置317により処理される。ただし、深層学習による推論は、FPGAやASIC等が実行してもよい。なお、他の深層学習のモデルを用いて領域分割を実現してもよい。また、セグメンテーション手法は深層学習に限られず、例えば、グラフカット、領域成長、エッジ検出、統治分割法等を用いてもよい。更に、補助演算装置317の内部で、褥瘡の患部領域の画像を教師データとしたニューラルネットワークのモデルの学習を行ってもよい。 As a method for extracting the affected area, semantic area segmentation by deep learning is performed. That is, a neural network model is trained in advance on a high-performance computer for learning using images of the affected areas of multiple actual bedsores as teacher data to generate a trained model. The auxiliary calculation device 317 acquires the trained model from the high-performance computer and estimates the area of the bedsore from the image data based on the trained model. As an example of a neural network model, a fully convolutional network (FCN (Fully Convolutional Network)), which is a segmentation model using deep learning, can be applied. Inference by deep learning is processed by the auxiliary calculation device 317, which is good at parallel execution of product-sum operations. However, inference by deep learning may be performed by an FPGA, an ASIC, or the like. Note that area segmentation may be realized using other deep learning models. In addition, the segmentation method is not limited to deep learning, and for example, graph cut, area growing, edge detection, and rule-and-divide method may be used. Furthermore, inside the auxiliary computing device 317, a neural network model may be trained using images of the affected area of the bedsore as training data.

S443では、CPU310の演算装置311は、抽出された患部領域のサイズに関する情報として、患部領域の面積を計算する。
図5は、患部領域の面積の計算方法を説明するための図である。
撮像装置200が一般的なカメラである場合には、図5に示すようにピンホールモデルとして扱うことができる。入射光501はレンズ212aのレンズ主点を通り、イメージセンサ214の撮像面で受光する。ここで、レンズ群212を厚みのない単一のレンズ212aに近似した場合には、前側主点と後側主点の2つの主点は一致するとみなせる。イメージセンサ214の平面に像が結像するようにレンズ212aのピント位置を調整することで、撮像装置200は被写体504に焦点を合わせることができる。撮像面からレンズ主点までの距離Fである焦点距離502を変更することで、画角θ503が変更され、ズーム倍率が変わる。このとき、撮像装置200の画角θ503と被写体距離505の関係から、幾何学的に合焦面における被写体の幅506が決定される。被写体の幅506は、三角関数を用いて計算される。すなわち、被写体の幅506は、焦点距離502に応じて変化する画角θ503と、被写体距離505との関係によって決定する。被写体504の幅を画像データのライン上のピクセル数で除算することにより、画像データ上の1ピクセルに対応する合焦面上の長さが取得される。
In S443, the arithmetic unit 311 of the CPU 310 calculates the area of the affected area as information regarding the size of the extracted affected area.
FIG. 5 is a diagram for explaining a method for calculating the area of the affected region.
When the imaging device 200 is a general camera, it can be treated as a pinhole model as shown in FIG. 5. Incident light 501 passes through the lens principal point of the lens 212a and is received on the imaging surface of the image sensor 214. Here, when the lens group 212 is approximated to a single lens 212a with no thickness, the two principal points, the front principal point and the rear principal point, can be considered to be coincident. By adjusting the focal position of the lens 212a so that an image is formed on the plane of the image sensor 214, the imaging device 200 can focus on the subject 504. By changing the focal length 502, which is the distance F from the imaging surface to the lens principal point, the angle of view θ503 is changed, and the zoom magnification changes. At this time, the width 506 of the subject on the focal plane is geometrically determined from the relationship between the angle of view θ503 of the imaging device 200 and the subject distance 505. The width 506 of the subject is calculated using a trigonometric function. That is, the width 506 of the subject is determined by the relationship between the angle of view θ 503, which changes according to the focal length 502, and the subject distance 505. The width of the subject 504 is divided by the number of pixels on the line of the image data to obtain the length on the in-focus plane corresponding to one pixel on the image data.

演算装置311は、S442において抽出された患部領域から得られる領域のピクセル数と、画像上の1ピクセルに対応する合焦面上の長さから得られる1ピクセルの面積の積として、患部領域の面積を計算する。なお、焦点距離502と被写体距離505の組み合わせに応じた画像上の1ピクセルに対応する合焦面上の長さを予め求めておいて、テーブルデータとして予め用意してもよい。なお、画像処理装置300は、撮像装置200に応じたテーブルデータを予め記憶してもよい。
演算装置311が正しく患部領域の面積を求めるには、被写体504が平面であり、かつ、この平面が光軸に対して垂直であることが前提となる。
The arithmetic unit 311 calculates the area of the affected area as the product of the number of pixels in the affected area obtained from the area extracted in S442 and the area of one pixel obtained from the length on the focal plane corresponding to one pixel on the image. The length on the focal plane corresponding to one pixel on the image corresponding to the combination of the focal length 502 and the subject distance 505 may be obtained in advance and prepared as table data. The image processing device 300 may store table data corresponding to the imaging device 200 in advance.
For the calculation device 311 to correctly calculate the area of the affected region, it is a prerequisite that the subject 504 is a plane, and that this plane is perpendicular to the optical axis.

S444では、演算装置311は、患部領域を抽出する対象とした画像データに対して、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを重畳した画像データを生成する。
図6は、患部領域の抽出結果を示す情報、および、患部領域のサイズに関する情報を画像データに重畳する方法を説明するための図である。
図6(a)に示す画像601は、重畳処理前の画像データを表示した一例であり、被写体101および患部102を含む。図6(b)に示す画像602は、重畳処理後の画像データを表示した一例である。
In S444, the calculation device 311 generates image data in which information indicating the extraction result of the affected area and information regarding the size of the affected area are superimposed on the image data from which the affected area is extracted.
FIG. 6 is a diagram for explaining a method of superimposing information indicating the extraction result of the affected area and information regarding the size of the affected area on image data.
An image 601 shown in Fig. 6(a) is an example of displaying image data before superimposition processing, and includes a subject 101 and an affected area 102. An image 602 shown in Fig. 6(b) is an example of displaying image data after superimposition processing.

図6(b)に示す画像602の左上隅には、黒地の背景に白色の文字で、患部領域の面積の文字列612を表示したラベル611が重畳される。ここでは、患部領域のサイズに関する情報は、文字列612であって、演算装置311により計算された患部領域の面積である。なお、ラベル611の背景色と文字列の色は見やすいものであれば黒、白に限られない。また、透過量を設定してαブレンドすることで、ラベル611が重なった部分の画像をユーザが確認できるようにしてもよい。 Label 611 is superimposed in the upper left corner of image 602 shown in FIG. 6(b), displaying text 612 indicating the area of the affected area in white text on a black background. Here, the information regarding the size of the affected area is text 612, which is the area of the affected area calculated by the calculation device 311. Note that the background color and text color of label 611 are not limited to black and white, as long as they are easy to see. In addition, the amount of transparency may be set and alpha blending may be performed so that the user can confirm the image of the part where label 611 overlaps.

また、画像602には、S442において抽出された患部領域の推定エリアを示す指標613が重畳される。推定エリアを示す指標613と、画像601の元となる画像データをαブレンドすることで、患部領域の面積を算出する元となる推定エリアが妥当か否かをユーザが確認することができる。推定エリアを示す指標613の色は、被写体の色と異なる色にすることが好ましい。また、αブレンドの透過率の範囲は、推定エリアと元の患部102とが識別できる範囲であることが好ましい。なお、患部領域の推定エリアを示す指標613が重畳して表示されていれば、ラベル611を表示しなくても、ユーザは推定エリアが妥当か否かを確認することができるためにS443を省略してもよい。 In addition, an indicator 613 indicating the estimated area of the affected area extracted in S442 is superimposed on the image 602. By alpha-blending the indicator 613 indicating the estimated area with the image data on which the image 601 is based, the user can check whether the estimated area on which the area of the affected area is calculated is valid or not. It is preferable that the color of the indicator 613 indicating the estimated area is a color different from the color of the subject. It is also preferable that the transmittance range of the alpha-blending is a range in which the estimated area and the original affected area 102 can be distinguished. Note that if the indicator 613 indicating the estimated area of the affected area is superimposed and displayed, the user can check whether the estimated area is valid or not without displaying the label 611, so S443 may be omitted.

S445では、画像処理装置300の通信装置313は、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを無線通信により撮像装置200に送信する。本実施形態では、通信装置313は、S444において生成された画像データと、患部領域のサイズに関する情報である患部領域の面積とを撮像装置200に送信する。 In S445, the communication device 313 of the image processing device 300 transmits information indicating the extraction result of the affected area and information regarding the size of the affected area to the imaging device 200 via wireless communication. In this embodiment, the communication device 313 transmits the image data generated in S444 and the area of the affected area, which is information regarding the size of the affected area, to the imaging device 200.

次に、撮像装置200による処理に戻る。
S407では、撮像装置200の通信装置219は、画像処理装置300から送信されたデータがある場合にはデータを受信する。
S408では、システム制御回路220は、画像データと、患部領域のサイズに関する情報である患部領域の面積とを受信したか否かを判定する。受信した場合にはS409に進み、受信していない場合にはS410に進む。
Next, the process returns to the process performed by the imaging device 200 .
In S407, the communication device 219 of the imaging device 200 receives the data transmitted from the image processing device 300, if any.
In S408, the system control circuit 220 determines whether image data and the area of the affected area, which is information about the size of the affected area, have been received. If so, the process proceeds to S409, and if not, the process proceeds to S410.

S409では、表示装置223は受信した画像データを所定時間表示する。ここでは、表示装置223は、図6(b)に示す画像602を表示する。このように、ライブビュー画像に対して、患部領域の抽出結果を示す情報等を重畳して表示することで、ユーザは患部領域の面積および推定エリアが妥当であるか否かを確認した上で、記録用の撮影に進むことができる。なお、本実施形態では、患部領域の推定エリアを示す指標613と、患部領域の面積を表示したラベル611とを表示する場合について説明したが、何れか一方だけを表示してもよいし、いずれも表示しない(S409を省略する)ようにしてもよい。 In S409, the display device 223 displays the received image data for a predetermined time. Here, the display device 223 displays the image 602 shown in FIG. 6(b). In this way, by superimposing information indicating the extraction result of the affected area on the live view image, the user can confirm whether the area of the affected area and the estimated area are appropriate before proceeding to capture for recording. Note that, although the present embodiment has been described as displaying an indicator 613 indicating the estimated area of the affected area and a label 611 displaying the area of the affected area, only one of them may be displayed, or neither may be displayed (S409 may be omitted).

S410は、システム制御回路220が撮影条件を満たすか否かに応じて撮影するタイミングを制御する処理であり、S411およびS412を含む。撮像装置200に対して、患部領域が傾いていると、患部領域の面積を正しく算出することができない。また、撮影の度に、撮像装置200に対する患部領域の傾きの程度が異なると、後で撮影した画像を比較した場合に、大きさがどのように変化したのかを正しく判断することができない。しかも、寝たきりの患者を常に同じ姿勢にすることは難しく、撮影者が、患部に対して撮像装置200を正対させることは容易ではない。そこで、S411およびS412では、撮像装置200が患部領域に対して正対しているか否かを推定する処理を行う。 S410 is a process in which the system control circuit 220 controls the timing of photographing depending on whether the photographing conditions are satisfied, and includes S411 and S412. If the affected area is tilted relative to the imaging device 200, the area of the affected area cannot be calculated correctly. Furthermore, if the degree of tilt of the affected area relative to the imaging device 200 varies each time photographing is performed, it is not possible to correctly determine how the size has changed when comparing images photographed later. Moreover, it is difficult to keep a bedridden patient in the same position all the time, and it is not easy for the photographer to position the imaging device 200 directly against the affected area. Therefore, in S411 and S412, a process is performed to estimate whether the imaging device 200 is directly facing the affected area.

S411では、システム制御回路220は、受信した患部領域の面積と予め定めた閾値とを比較し、面積が閾値以上であるか否かを判定する。ここで、閾値は、初期値として予め外部メモリ222に記録されている。撮像装置200のシステム制御回路220は起動時に外部メモリ222から閾値を読み出す。閾値には、例えば、褥瘡として認識されるサイズに相当する面積が設定される。ただし、閾値は、ユーザが後から自由に変更して設定できる。したがって、撮影対象の被写体ごとに閾値を変更して設定してもよい。なお、S411において面積が閾値以上ではない場合には、S404に戻り、上述したS404以降の処理を行う。 In S411, the system control circuit 220 compares the area of the received affected area with a predetermined threshold value, and determines whether the area is equal to or greater than the threshold value. Here, the threshold value is recorded in advance in the external memory 222 as an initial value. The system control circuit 220 of the imaging device 200 reads the threshold value from the external memory 222 at startup. The threshold value is set to, for example, an area equivalent to the size recognized as a bedsore. However, the user can freely change and set the threshold value later. Therefore, the threshold value may be changed and set for each subject to be photographed. Note that if the area is not equal to or greater than the threshold value in S411, the process returns to S404, and the above-described processing from S404 onwards is performed.

S411で面積が閾値以上であると判定した場合にはS412に進み、最後に受信した面積と、その直前に受信した面積との比率あるいは差分を求める。撮影者が撮像装置200を患部領域に対して正対させようとして、撮像装置200を動かしている間は、最後に受信した面積と、その直前に受信した面積は大きく変化する。具体的には、撮像装置200が患部領域に対して傾いている状態から、撮像装置200が患部領域に対して正対する状態に近づくにつれて、患部領域の面積は増加することになる。反対に、撮像装置200が患部領域に対して正対している状態から、撮像装置200が患部領域に対して傾いている状態に近づくにつれて、患部領域の面積は減少することになる。撮像装置200が患部領域に対して正対に近い状態となれば、患部領域の面積の変動は小さくなる。そこで、S412では、最後に受信した面積と、その直前に受信した面積の比率あるいは差分が、所定範囲に収まった場合に、撮像装置200が患部領域に対して正対したと推定し、S413に進む。S412において面積が閾値以上ではない場合には、S404に戻り、上述したS404以降の処理を行う。 If it is determined in S411 that the area is equal to or greater than the threshold, the process proceeds to S412, where the ratio or difference between the last area received and the area received immediately before is calculated. While the photographer is moving the imaging device 200 in an attempt to orient the imaging device 200 directly to the affected area, the last area received and the area received immediately before will change significantly. Specifically, as the imaging device 200 approaches a state in which it is tilted relative to the affected area and a state in which it is directly facing the affected area, the area of the affected area will increase. Conversely, as the imaging device 200 approaches a state in which it is tilted relative to the affected area and a state in which it is directly facing the affected area, the area of the affected area will decrease. If the imaging device 200 approaches a state in which it is directly facing the affected area, the fluctuation in the area of the affected area will be smaller. Therefore, in S412, if the ratio or difference between the last area received and the area received immediately before falls within a predetermined range, it is assumed that the imaging device 200 is facing the affected area, and the process proceeds to S413. If the area is not equal to or greater than the threshold in S412, the process returns to S404 and performs the above-described processes from S404 onward.

S413では、システム制御回路220は、レリーズ信号を発行する。ここでは、レリーズ信号は、撮像装置200の操作部224に含まれるレリーズボタンをユーザが押下して撮影指示したときに発行される信号と同等な信号であり、ユーザがレリーズボタンを押下したように擬似的に発行する。つまり、撮影者が撮像装置200を患部領域に対して正対させようとして撮像装置200を動かしている間に、正対に近い状態となったタイミングになった時点で、システム制御回路220がレリーズ信号を発行することができる。 In S413, the system control circuit 220 issues a release signal. Here, the release signal is equivalent to the signal issued when a user presses the release button included in the operation unit 224 of the imaging device 200 to instruct shooting, and is issued in a manner that simulates the user pressing the release button. In other words, while the photographer is moving the imaging device 200 to orient it directly against the affected area, the system control circuit 220 can issue a release signal at the point in time when the imaging device 200 is close to being directly opposed to the affected area.

S414では、測距システム216が被写体までの距離情報を求め、AF制御回路218が被写体にピントが合うようにレンズ群212の駆動制御を行うAF処理を行う。この処理は、S403と同様の処理である。S403でAF処理は行われているので、このS414の処理は省略されても構わない。
S415では、撮像ユニット211は、レリーズ信号が発行されたタイミングで、記録用の静止画の撮影を行い、画像データを生成する。
In S414, the distance measurement system 216 obtains information on the distance to the subject, and the AF control circuit 218 performs AF processing to control the driving of the lens group 212 so as to focus on the subject. This processing is the same as that in S403. Since the AF processing is performed in S403, the processing in S414 may be omitted.
In S415, the imaging unit 211 captures a still image for recording at the timing when the release signal is issued, and generates image data.

S416では、画像処理回路217は、生成された画像データに対して現像および圧縮処理を行い、例えばJPEG規格の画像データを生成する。画像処理回路217は、圧縮処理された画像データに対してリサイズ処理を行い、画像データのサイズを小さくする。このとき、患部領域を計測する際の精度を優先するために、リサイズ処理した画像データのサイズは、S404においてリサイズ処理した画像データのサイズよりも大きいか、同じ大きさであることが好ましい。リサイズ処理された画像データのサイズとして、例えば、1440ピクセル×1080ピクセルで4ビットRGBカラーの場合には略4.45メガバイトになる。ただし、リサイズ処理された画像データのサイズは、この場合に限られない。 In S416, the image processing circuit 217 develops and compresses the generated image data to generate image data in, for example, JPEG format. The image processing circuit 217 resizes the compressed image data to reduce the size of the image data. In this case, in order to prioritize accuracy when measuring the affected area, it is preferable that the size of the resized image data is larger than or the same as the size of the image data resized in S404. For example, the size of the resized image data is approximately 4.45 megabytes in the case of 1440 pixels x 1080 pixels and 4-bit RGB color. However, the size of the resized image data is not limited to this case.

S417では、通信装置219は、リサイズ処理された画像データと、S414において測距システム216が求めた距離情報を取得する。また、通信装置219は、必要に応じて、ズーム倍率の情報、リサイズ処理された画像データのサイズ(ピクセル数)の情報を取得する。
S418では、通信装置219は、取得した画像データおよび距離情報を含む1以上の情報を無線通信により画像処理装置300に送信する。
In S417, the communication device 219 acquires the resized image data and the distance information calculated in S414 by the distance measuring system 216. In addition, the communication device 219 acquires information on the zoom magnification and information on the size (number of pixels) of the resized image data, as necessary.
In S418, the communication device 219 transmits one or more pieces of information including the acquired image data and distance information to the image processing device 300 by wireless communication.

次に、画像処理装置300による処理に移る。
S451では、画像処理装置300の通信装置313は、撮像装置200の通信装置219から送信された画像データおよび距離情報を含む1以上の情報を受信する。
S452では、画像処理装置300のCPU310および補助演算装置317は、受信した画像データから患部領域を抽出する。この処理の詳細は、S442と同様であるために説明を省略する。
Next, the process proceeds to the image processing device 300.
In S<b>451 , the communication device 313 of the image processing device 300 receives one or more pieces of information including image data and distance information transmitted from the communication device 219 of the imaging device 200 .
In S452, the CPU 310 and the auxiliary processing unit 317 of the image processing device 300 extract the affected area from the received image data. The details of this process are similar to those of S442, and therefore will not be described here.

S453では、CPU310の演算装置311は、抽出された患部領域のサイズに関する情報として、患部領域の面積を計算する。この処理の詳細は、S443と同様であるために説明を省略する。
S454では、演算装置311は画像解析を行う。具体的には、演算装置311はS453で求めた画像上の1ピクセルに対応する合焦面上の長さに基づいて、抽出した患部領域の長径と短径の長さ、および、患部領域に外接する矩形の面積を算出する。褥瘡の評価指標のDESIGN-Rの中で、褥瘡のサイズは長径と短径の積の値を計測することが定められている。本実施形態の画像処理システム1において、長径と短径の解析を行うことで、今までDESIGN-Rで計測されたデータとの互換性を確保することができる。DESIGN-Rは厳密な定義がないため、数学的には複数の長径と短径の算出方法が考えられる。
In S453, the arithmetic unit 311 of the CPU 310 calculates the area of the affected area as information on the size of the extracted affected area. Details of this process are similar to those of S443, and therefore will not be described.
In S454, the arithmetic unit 311 performs image analysis. Specifically, the arithmetic unit 311 calculates the length of the major axis and the minor axis of the extracted affected area, and the area of a rectangle circumscribing the affected area, based on the length on the focal plane corresponding to one pixel on the image obtained in S453. In the DESIGN-R, an evaluation index for bedsores, it is stipulated that the size of a bedsore is measured as the product of the major axis and the minor axis. In the image processing system 1 of this embodiment, by analyzing the major axis and the minor axis, it is possible to ensure compatibility with data previously measured by DESIGN-R. Since DESIGN-R does not have a strict definition, mathematically, multiple methods for calculating the major axis and the minor axis are conceivable.

長径と短径の算出方法の第1例として、演算装置311が患部領域に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出する。次に、この矩形の長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出する。次に、S453で求めた画像上の1ピクセルに対応する合焦面上の長さに基づいて矩形の面積を算出する。
長径と短径の算出方法の第2例として、演算装置311が長径として最大のキャリパー長である最大フェレ径を選択し、短径として最小フェレ径を選択する。なお、長径として最大のキャリパー長である最大フェレ径を選択し、短径として最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。
長径と短径の計算方法は、従来の計測結果との互換性に基づいて任意の方法を選択することができる。
As a first example of a method for calculating the major axis and the minor axis, the arithmetic device 311 calculates the rectangle with the smallest area (minimum bounding rectangle) among the rectangles circumscribing the affected area. Next, the lengths of the long and short sides of this rectangle are calculated, and the length of the long side is calculated as the major axis, and the length of the short side is calculated as the minor axis. Next, the area of the rectangle is calculated based on the length on the focal plane corresponding to one pixel on the image obtained in S453.
As a second example of the method for calculating the major axis and the minor axis, the calculation device 311 selects the maximum Feret diameter, which is the maximum caliper length, as the major axis, and selects the minimum Feret diameter as the minor axis. Alternatively, the maximum Feret diameter, which is the maximum caliper length, may be selected as the major axis, and the length measured in a direction perpendicular to the axis of the maximum Feret diameter may be selected as the minor axis.
The method for calculating the major axis and minor axis can be selected arbitrarily based on compatibility with conventional measurement results.

なお、患部領域の長径と短径の長さおよび矩形の面積を算出する処理は、S441において受信した画像データに対しては実行されない。ライブビュー中は、患部領域の抽出結果をユーザが確認できるようにすることを目的としているために、S441において受信した画像データに対してS454に相当する画像解析の処理を省くことで、処理時間を削減している。 The process of calculating the length of the long and short axes of the affected area and the area of the rectangle is not performed on the image data received in S441. During live view, the purpose is to allow the user to check the results of extraction of the affected area, so the processing time is reduced by omitting the image analysis process equivalent to S454 for the image data received in S441.

S455では、演算装置311は、患部領域を抽出する対象とした画像データに対して、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを重畳した画像データを生成する。
図7は、患部領域の抽出結果を示す情報と、患部領域の長径と短径を含む患部領域のサイズに関する情報とを画像データに重畳する方法を説明するための図である。患部領域のサイズに関する情報は複数、想定されるために図7(a)~(c)を参照して説明する。
In S455, the calculation device 311 generates image data in which information indicating the extraction result of the affected area and information regarding the size of the affected area are superimposed on the image data from which the affected area is extracted.
7A to 7C are diagrams for explaining a method of superimposing information showing the extraction result of the affected area and information about the size of the affected area including the major axis and minor axis of the affected area on the image data. Since multiple pieces of information about the size of the affected area are assumed, the following description will be given with reference to FIGS. 7A to 7C.

図7(a)に示す画像701は、長径、短径の算出方法としてMinimum bounding rectangleを用いたものである。画像701の左上隅には、患部領域のサイズに関する情報として、図6(b)と同様に、黒地の背景に白色の文字で患部領域の面積の文字列612を表示したラベル611が重畳される。
また、画像701の右上隅には、患部領域のサイズに関する情報として、Minimum bounding rectangleに基づいて算出した長径および短径を表示したラベル712が重畳される。ラベル712には、文字列713と文字列714とが含まれる。文字列713は長径の長さ(単位はcm)を表し、文字列714は短径の長さ(単位はcm)を表す。また、画像701は、患部領域にMinimum boundingrectangleを表す矩形の枠715が重畳される。矩形の枠715を長径および短径の長さと一緒に重畳することで、ユーザは画像中のどの箇所の長さが計測されているのかを確認することができる。
The image 701 shown in Fig. 7(a) uses a minimum bounding rectangle as a method for calculating the major axis and minor axis. In the upper left corner of the image 701, a label 611 is superimposed, which displays a character string 612 indicating the area of the affected area in white characters on a black background, as information regarding the size of the affected area, in the same manner as in Fig. 6(b).
In addition, a label 712 displaying the major axis and minor axis calculated based on the minimum bounding rectangle is superimposed on the upper right corner of the image 701 as information on the size of the affected area. The label 712 includes a character string 713 and a character string 714. The character string 713 indicates the length of the major axis (unit: cm), and the character string 714 indicates the length of the minor axis (unit: cm). In addition, a rectangular frame 715 representing the minimum bounding rectangle is superimposed on the affected area of the image 701. By superimposing the rectangular frame 715 together with the lengths of the major axis and minor axis, the user can confirm which part in the image is being measured.

また、画像701の右下隅には、スケールバー716が重畳される。スケールバー716は患部102のサイズを測定するためのものであり、距離情報に応じて画像データに対するスケールバーのサイズが変更される。具体的には、スケールバー716は、S453で得られた画像上の1ピクセルに対応する合焦面上の長さに基づいて、1cm単位で5cmまでの目盛りを刻んだバーであり、撮像装置200の合焦面上すなわち被写体上のサイズに対応したものである。ユーザはスケールバー716を参照することにより、被写体もしくは患部102の大きさを把握することができる。 In addition, a scale bar 716 is superimposed on the lower right corner of the image 701. The scale bar 716 is for measuring the size of the affected area 102, and the size of the scale bar for the image data is changed according to the distance information. Specifically, the scale bar 716 is a bar marked with graduations in 1 cm increments up to 5 cm based on the length on the focal plane corresponding to one pixel on the image obtained in S453, and corresponds to the size on the focal plane of the imaging device 200, i.e., on the subject. The user can grasp the size of the subject or affected area 102 by referring to the scale bar 716.

また、画像701の左下隅には、上述したDESIGN-RのSize評価の指標717が重畳される。DESIGN-RのSize評価の指標717では、皮膚損傷範囲の、長径と短径(長径と直交する最大径)を測定し(単位はcm)、各々を掛け合わせた数値から上述した7段階に分類されている。本実施形態では長径と短径をそれぞれの算出方法によって出力された値に置き換えて得られる指標717が重畳される。 In addition, the DESIGN-R size evaluation index 717 described above is superimposed on the bottom left corner of the image 701. The DESIGN-R size evaluation index 717 measures the major axis and minor axis (the maximum axis perpendicular to the major axis) of the skin damage area (units are cm), and classifies them into the seven levels described above based on the numerical value obtained by multiplying them together. In this embodiment, the index 717 obtained by replacing the major axis and minor axis with the values output by the respective calculation methods is superimposed.

図7(b)に示す画像702は、長径として最大フェレ径を用い、短径として最小フェレ径を用いたものである。画像702の右上隅には、長径の長さを示す文字列723および短径の長さを示す文字列724を表示したラベル722が重畳される。また、画像702の患部領域には、最大フェレ径の計測位置に相当する補助線725と、最小フェレ径に相当する補助線726が表示される。補助線725、726を長径および短径の長さを示す文字列723、724と一緒に重畳することで、ユーザは画像中のどの箇所の長さが計測されているのかを確認することができる。 Image 702 shown in FIG. 7(b) uses the maximum Feret diameter as the major axis and the minimum Feret diameter as the minor axis. A label 722 displaying a character string 723 indicating the length of the major axis and a character string 724 indicating the length of the minor axis is superimposed in the upper right corner of image 702. In addition, an auxiliary line 725 corresponding to the measurement position of the maximum Feret diameter and an auxiliary line 726 corresponding to the minimum Feret diameter are displayed in the affected area of image 702. By superimposing the auxiliary lines 725 and 726 together with the character strings 723 and 724 indicating the lengths of the major and minor axes, the user can confirm which part in the image is being measured.

図7(c)に示す画像703は、長径が図7(b)に示す画像702と同じであるが、短径が最小フェレ径ではなく最大フェレ径の軸に直交する方向で計測した長さとして計測したものである。画像702の右上隅には、長径の長さを示す文字列723および短径の長さを示す文字列734を表示したラベル732が重畳される。また、画像703の患部領域には、最大フェレ径の計測位置に相当する補助線725と、最大フェレ径の軸に直交する方向で計測した長さに相当する補助線736が表示される。 Image 703 shown in FIG. 7(c) has the same long diameter as image 702 shown in FIG. 7(b), but the short diameter is measured as the length measured in a direction perpendicular to the axis of the maximum Feret diameter, not the minimum Feret diameter. A label 732 displaying a character string 723 indicating the length of the long diameter and a character string 734 indicating the length of the short diameter is superimposed in the upper right corner of image 702. In addition, an auxiliary line 725 corresponding to the measurement position of the maximum Feret diameter and an auxiliary line 736 corresponding to the length measured in a direction perpendicular to the axis of the maximum Feret diameter are displayed in the affected area of image 703.

なお、図7(a)~(c)に示した、画像データに重畳する各種情報は、何れか1つまたは複数の組み合わせであってもよく、ユーザが表示する情報を選択できるようにしてもよい。また、図6および図7に示す画像は一例であって、患部102および患部領域のサイズに関する情報の表示形態、表示位置、サイズ、フォント、フォントサイズ、フォントの色、あるいは、位置関係等は様々な条件に応じて変更できる。 The various pieces of information shown in Figures 7(a) to (c) that are superimposed on the image data may be any one or a combination of multiple pieces, and the user may be able to select the information to be displayed. Also, the images shown in Figures 6 and 7 are merely examples, and the display format, display position, size, font, font size, font color, or positional relationship of the information regarding the size of the affected area 102 and the affected area can be changed according to various conditions.

S456では、画像処理装置300の通信装置313は、患部領域の抽出結果を示す情報と、患部領域のサイズに関する情報とを撮像装置200に送信する。本実施形態では、通信装置313は、S455において生成した画像データを撮像装置200に送信する。 In S456, the communication device 313 of the image processing device 300 transmits information indicating the extraction result of the affected area and information regarding the size of the affected area to the imaging device 200. In this embodiment, the communication device 313 transmits the image data generated in S455 to the imaging device 200.

次に、撮像装置200による処理に移る。
S419では、撮像装置200の通信装置219は、画像処理装置300から送信された画像データを受信する。
S420では、表示装置223は受信した画像データを所定時間表示する。ここでは、表示装置223は、図7に示す画像701~703の何れかを表示し、所定時間が経過することでS402の処理に戻る。
Next, the process proceeds to the imaging device 200.
In S<b>419 , the communication device 219 of the imaging device 200 receives the image data transmitted from the image processing device 300 .
In S420, the display device 223 displays the received image data for a predetermined time. Here, the display device 223 displays one of the images 701 to 703 shown in Fig. 7, and when the predetermined time has elapsed, the process returns to S402.

このように、本実施形態によれば、システム制御回路220は、取得した患部領域のサイズの情報に基づいて患部を撮影するタイミングを制御する。したがって、患部領域のサイズが適切になるような撮像装置200の姿勢になったときに患部を自動的に撮影するように制御できるために、ユーザが不自然な体位で撮影する場合でも患部を適切に撮影することができる。 In this way, according to this embodiment, the system control circuit 220 controls the timing of photographing the affected area based on the acquired information on the size of the affected area. Therefore, since the affected area can be automatically photographed when the imaging device 200 is in a position that results in an appropriate size for the affected area, the affected area can be properly photographed even when the user is in an unnatural position.

具体的には、システム制御回路220は、新たに受信した患部領域のサイズが閾値以上であり、かつ、新たに受信した患部領域の面積と直前に受信した患部領域の面積の変動が所定範囲である場合に、レリーズ信号を発行することで患部を自動的に撮影するように制御する。すなわち、患部領域のサイズが閾値以上である場合には、撮像装置200の姿勢が患部を撮影するのに適切な姿勢であると想定できる。また、患部領域の面積の変動が所定範囲内に収まっている場合には、撮像装置200が患部領域に対して正対に近い状態であると想定できる。したがって、このような条件を満たす場合に患部を自動的に撮影するように制御することで、ユーザは患部を適切に撮影することができる。なお、撮像装置200は、患部領域のサイズが閾値以上であるか否かを判定せずに、患部領域の面積の変動が所定範囲内に収まっているか否かのみを判定して、撮像装置200の姿勢が患部を撮影するのに適切な姿勢であると想定する構成としてもよい。 Specifically, the system control circuit 220 issues a release signal to automatically capture an image of the affected area when the size of the newly received affected area is equal to or greater than the threshold value and the change in the area of the newly received affected area and the area of the affected area received immediately before is within a predetermined range. That is, when the size of the affected area is equal to or greater than the threshold value, it can be assumed that the posture of the imaging device 200 is appropriate for capturing an image of the affected area. Also, when the change in the area of the affected area is within a predetermined range, it can be assumed that the imaging device 200 is close to facing the affected area. Therefore, by controlling the imaging device 200 to automatically capture an image of the affected area when such conditions are met, the user can capture an image of the affected area appropriately. Note that the imaging device 200 may be configured to determine whether the size of the affected area is equal to or greater than the threshold value, but only whether the change in the area of the affected area is within a predetermined range, and assume that the posture of the imaging device 200 is appropriate for capturing an image of the affected area.

なお、上述したS409における画像データを表示する処理は、ユーザが手動で撮影指示を行う場合に必要な処理であるために、システム制御回路220がレリーズ信号を発行する場合には、S409を省略してもよい。同様に、S444における重畳した画像データを生成する処理を省略してもよい。また、S445のうち患部領域のサイズに関する情報を送信し、画像データを送信しないようにしてもよい。 Note that since the process of displaying image data in S409 described above is necessary when the user manually issues a shooting instruction, S409 may be omitted when the system control circuit 220 issues a release signal. Similarly, the process of generating superimposed image data in S444 may be omitted. Also, information regarding the size of the affected area may be transmitted in S445, and image data may not be transmitted.

また、本実施形態の画像処理システム1では、ユーザが撮像装置200で患部を撮影することにより、撮像装置200の表示装置223に患部領域のサイズに関する情報が表示される。したがって、褥瘡の患部領域のSize評価する場合に、医療関係者の負荷、および、評価をされる患者側の負荷を軽減することができる。また、患部領域のサイズの算出をプログラムに基づいて実行することで、医療関係者が手動で計測する場合に比べて個人差を抑制することができ、褥瘡のSize評価の正確性を向上することができる。また、褥瘡の規模をより的確に表すための指標としての患部領域の面積を算出して表示することができる。なお、ライブビュー表示の際に、ユーザが患部領域の推定エリアが妥当であるかを確認する機能はなくてもよく、S441~S445を省略してもよい。 In the image processing system 1 of this embodiment, the user photographs the affected area with the imaging device 200, and information regarding the size of the affected area is displayed on the display device 223 of the imaging device 200. Therefore, when evaluating the size of the affected area of a bedsore, the burden on medical personnel and the burden on the patient being evaluated can be reduced. Furthermore, by calculating the size of the affected area based on a program, individual differences can be suppressed compared to when medical personnel measure manually, and the accuracy of the size evaluation of the bedsore can be improved. Furthermore, the area of the affected area can be calculated and displayed as an index to more accurately represent the scale of the bedsore. Note that there is no need for a function for the user to check whether the estimated area of the affected area is appropriate when displaying the live view, and steps S441 to S445 may be omitted.

また、画像処理装置300は、患部領域の抽出結果を示す情報、患部領域のサイズに関する情報、および、これらの情報を重畳した画像データを記憶装置312に記憶してもよい。この場合、出力装置314は、接続されたディスプレイ等の出力機器に、記憶装置312に記憶した何れか1つ以上の情報、あるいは、画像データを出力することができる。ディスプレイに画像を表示することで、患部を撮影するユーザとは別のユーザが、リアルタイム、あるいは、過去に得られた患部の画像データとサイズに関する情報を得ることができるようになる。画像処理装置300の演算装置311は、出力装置314からディスプレイに送信する画像データに対して、任意に位置および角度を変更するスケールバー等を表示する機能を設けてもよい。このようなスケールバーを表示することで、ディスプレイを見ているユーザが患部領域の任意の箇所の長さを計測することが可能となる。このスケールバーの目盛りの幅は、S451で受信した距離情報、ズーム倍率の情報、および、リサイズ処理された画像データのサイズ(ピクセル数)の情報等に基づいて自動調整されることが望ましい。 The image processing device 300 may also store in the storage device 312 information indicating the extraction result of the affected area, information regarding the size of the affected area, and image data on which these pieces of information are superimposed. In this case, the output device 314 can output one or more pieces of information or image data stored in the storage device 312 to an output device such as a connected display. By displaying an image on the display, a user other than the user who photographs the affected area can obtain image data and information regarding the size of the affected area obtained in real time or in the past. The arithmetic device 311 of the image processing device 300 may be provided with a function to display a scale bar or the like that arbitrarily changes the position and angle of the image data transmitted from the output device 314 to the display. By displaying such a scale bar, a user looking at the display can measure the length of any part of the affected area. It is desirable that the width of the scale of this scale bar is automatically adjusted based on the distance information, zoom magnification information, and information on the size (number of pixels) of the resized image data received in S451.

なお、画像処理装置300は、据え置き型であって常に電源が供給されることが好ましい。常に電源が供給されることで、画像処理装置300は、任意のタイミングで患部の画像データとサイズに関する情報を受信することができると共に、バッテリー切れを防止することができる。また、据え置き型は一般的に記憶容量が多いため、画像処理装置300は多数の画像データを記憶することができる。
また、本実施形態では褥瘡の評価指標としてDESIGN-R(登録商標)を用いているが、これに限定されるものではない。Bates-Jensen Wound Assessment Tool(BWAT)、Pressure Ulcer Scale for Healing(PUSH)、Pressure Sore Status Tool(PSST)などの、他の評価指標を用いてもよい。
It is preferable that the image processing device 300 is a stationary type and is constantly supplied with power. By being constantly supplied with power, the image processing device 300 can receive image data and information regarding the size of the affected area at any time, and can prevent the battery from running out. Furthermore, stationary types generally have a large storage capacity, so the image processing device 300 can store a large amount of image data.
In addition, although DESIGN-R (registered trademark) is used as an evaluation index for bedsores in this embodiment, it is not limited to this. Other evaluation indexes such as Bates-Jensen Wound Assessment Tool (BWAT), Pressure Ulcer Scale for Healing (PUSH), and Pressure Sore Status Tool (PSST) may be used.

(第1の変形例)
上述した図4のフローチャートでは、S411において面積が閾値以上ではないと判定された場合にはS412に進まずに、S404以降の処理が繰り返される。しかしながら、患部領域が必ずしも一定以上のサイズであるとは限られない。したがって、図4のフローチャートのS411をNoに進んだ後に、システム制御回路220は面積が閾値以上ではない状態で一定の期間が経過したか否かを判定するようにしてもよい。一定の期間が経過していない場合にはS404に戻り、一定の期間が経過した場合には、患部領域のサイズが小さいと推定してS412に進む。なお、一定の期間とは、例えば、5秒、10秒等の時間で規定してもよく、S408においてデータを受信した回数で規定してもよい。このように、一定の期間が経過した場合にレリーズ信号を発行することで、患部領域のサイズが一定以上のサイズでない場合であっても患部を撮影することができる。
(First Modification)
In the above-mentioned flowchart of FIG. 4, if it is determined in S411 that the area is not equal to or larger than the threshold, the process of S404 and subsequent steps is repeated without proceeding to S412. However, the affected area is not necessarily equal to or larger than a certain size. Therefore, after proceeding to No in S411 of the flowchart of FIG. 4, the system control circuit 220 may determine whether or not a certain period of time has passed in a state in which the area is not equal to or larger than the threshold. If the certain period of time has not passed, the process returns to S404, and if the certain period of time has passed, the process proceeds to S412, estimating that the size of the affected area is small. Note that the certain period of time may be defined as, for example, 5 seconds, 10 seconds, etc., or may be defined by the number of times data is received in S408. In this way, by issuing a release signal when a certain period of time has passed, the affected area can be photographed even if the size of the affected area is not equal to or larger than a certain size.

(第2の変形例)
上述した図4のフローチャートでは、S410の処理が撮影条件を満たすか否かに応じて撮影するタイミングを制御する処理について説明したが、撮影条件を満たすか否かに応じてユーザに対して撮影操作を促すタイミングを制御する処理であってもよい。具体的には、S412からS413に進んだ場合、システム制御回路220はユーザに対して撮影操作を促すように通知してもよい。例えば、システム制御回路220は、音声やアラームにより通知したり、表示装置223に表示して通知したりすることで、ユーザに対して操作部224に含まれるレリーズボタンを押下するように促す。なお、本変形例によれば、S413の後に、システム制御回路220は操作部224に含まれるレリーズボタンをユーザが実際に押下したか否かを判定して、押下した場合にS414以降の処理に進む。
(Second Modification)
In the above-mentioned flowchart of FIG. 4, the process of S410 has been described as controlling the timing of shooting depending on whether the shooting conditions are satisfied, but the process may be a process of controlling the timing of prompting the user to perform a shooting operation depending on whether the shooting conditions are satisfied. Specifically, when the process proceeds from S412 to S413, the system control circuit 220 may notify the user to prompt the user to perform a shooting operation. For example, the system control circuit 220 prompts the user to press the release button included in the operation unit 224 by notifying the user by voice or alarm, or by displaying the notification on the display device 223. Note that, according to this modified example, after S413, the system control circuit 220 determines whether the user actually pressed the release button included in the operation unit 224, and if the user did press the release button, proceeds to the process of S414 and subsequent steps.

<第2の実施形態>
第1の実施形態では、患部領域の面積と比較する閾値が予め定められている場合について説明した。本実施形態では、閾値に履歴情報を用いる場合について説明する。
具体的には、S411において、システム制御回路220は、受信した患部領域の面積と予め定めた閾値とを比較する。面積が閾値以上である場合にはS412に進み、S412において面積の変動が所定範囲内である場合には、S413に進む。S413では、システム制御回路220はレリーズ信号を発行すると共に、受信した面積を外部メモリ222に記録する。次回、患部を撮影する際に図4のフローチャートのS411に進んだ場合には、システム制御回路220は、外部メモリ222に記録した面積を閾値として読み出す。なお、システム制御回路220は、読み出した閾値にマージンを設定することで閾値としてもよい。例えば、読み出した閾値から一定のマージンで減算した値を閾値としたり、前回からの撮影の間隔が長いほど大きいマージンで減算した値を閾値としたりすることができる。
Second Embodiment
In the first embodiment, a case where a threshold value to be compared with the area of the affected region is set in advance has been described. In the present embodiment, a case where history information is used as the threshold value will be described.
Specifically, in S411, the system control circuit 220 compares the area of the received affected area with a predetermined threshold. If the area is equal to or larger than the threshold, the process proceeds to S412. If the change in the area is within a predetermined range in S412, the process proceeds to S413. In S413, the system control circuit 220 issues a release signal and records the received area in the external memory 222. When the process proceeds to S411 in the flowchart of FIG. 4 the next time the affected area is photographed, the system control circuit 220 reads out the area recorded in the external memory 222 as the threshold. The system control circuit 220 may set a margin to the read-out threshold as the threshold. For example, the system control circuit 220 may set the threshold as a value obtained by subtracting a certain margin from the read-out threshold, or may set the threshold as a value obtained by subtracting a larger margin as the interval from the previous photographing is longer.

また、システム制御回路220は、面積を記録する場合に、記録する面積と患者情報とを関連付けて記録することが好ましい。例えば、撮像装置200または画像処理装置300は、ユーザが撮像装置200または画像処理装置300に患者情報を入力したり選択したりすることで患者情報を取得することができる。画像処理装置300は患者情報を取得した場合には、S445において患者情報を面積と関連付けて撮像装置200に送信することで、撮像装置200は面積と患者情報とを関連付けて記録することができる。 When recording the area, the system control circuit 220 preferably records the area to be recorded in association with patient information. For example, the imaging device 200 or the image processing device 300 can acquire patient information by a user inputting or selecting patient information into the imaging device 200 or the image processing device 300. When the image processing device 300 acquires the patient information, in S445, the image processing device 300 can associate the patient information with the area and transmit it to the imaging device 200, so that the imaging device 200 can record the area in association with the patient information.

患者情報を用いる場合、S411では、システム制御回路220は患者情報に関連付けられた面積を読み出して閾値とし、受信した面積と比較する。閾値以上であった場合にはS412に進み、S412で面積の変動が所定範囲内であった場合には、S413において、システム制御回路220はレリーズ信号を発行すると共に、受信した面積を患者情報に関連付けて、更新して記録する。なお、患者情報に関連付けられた面積がない場合には、システム制御回路220は予め定められた閾値(初期値)と、受信した面積とを比較するか、あるいは、ユーザに手動撮影を行うよう表示装置223に表示を行わせるようにする。 When patient information is used, in S411 the system control circuit 220 reads out the area associated with the patient information, sets it as a threshold, and compares it with the received area. If it is equal to or greater than the threshold, the process proceeds to S412. If the change in area is within a predetermined range in S412, in S413 the system control circuit 220 issues a release signal and updates and records the received area associated with the patient information. Note that if there is no area associated with the patient information, the system control circuit 220 compares the received area with a predetermined threshold (initial value), or causes the display device 223 to display a message to the user to perform manual shooting.

なお、画像処理装置300が患者情報に関連付けて面積を記録してもよい。例えば、撮像装置200が患部を撮影する前に、患者が付帯する患者情報を含むバーコードタグ等を撮影し、上述したS406において送信するときにバーコードタグの画像データも画像処理装置300に送信する。画像処理装置300は、バーコードタグの画像データから患者情報を取得して、患者情報に関連付けられた面積を閾値として読み出して、上述したS445において送信するときに撮像装置200に送信する。したがって、撮像装置200のシステム制御回路220は、受信した閾値に基づいて撮影タイミングを制御することで、患者に応じた閾値を設定できる。更に、画像処理装置300のCPU310は、患者情報に関連付けて記録している面積を、S453において計算した患部領域の面積に更新してもよい。 The image processing device 300 may record the area in association with the patient information. For example, before the imaging device 200 images the affected area, it images a barcode tag or the like containing the patient information attached to the patient, and transmits the image data of the barcode tag to the image processing device 300 when transmitting in the above-mentioned S406. The image processing device 300 acquires the patient information from the image data of the barcode tag, reads out the area associated with the patient information as a threshold, and transmits it to the imaging device 200 when transmitting in the above-mentioned S445. Therefore, the system control circuit 220 of the imaging device 200 can set a threshold according to the patient by controlling the imaging timing based on the received threshold. Furthermore, the CPU 310 of the image processing device 300 may update the area recorded in association with the patient information to the area of the affected area calculated in S453.

このように本実施形態によれば、過去に撮影された患部領域の面積に基づいて閾値を設定して、受信した面積と比較する。通常、褥瘡は経時変化により大きさが変化するので、過去に撮影された患部領域の面積に基づいて閾値を設定することで最適な条件で患部を撮影することができる。また、同一患者の過去に撮影された患部領域の面積に基づいて閾値を設定することで、患者に応じた最適な条件で患部を撮影することができる。さらに、閾値の精度が向上するため、S411において患部領域の面積が閾値以上であった場合には、S412を省略してS413に進み、レリーズ信号を発行する構成としてもよい。 Thus, according to this embodiment, a threshold is set based on the area of the affected area photographed previously, and is compared with the received area. Since the size of a bedsore usually changes over time, setting the threshold based on the area of the affected area photographed previously allows the affected area to be photographed under optimal conditions. Also, setting the threshold based on the area of the affected area photographed previously for the same patient allows the affected area to be photographed under optimal conditions for the patient. Furthermore, to improve the accuracy of the threshold, if the area of the affected area is equal to or greater than the threshold in S411, S412 may be omitted and the process may proceed to S413, where a release signal is issued.

<第3の実施形態>
第1の実施形態では、患部領域の面積の変動が所定範囲内である場合に、患部領域に対して撮像装置200が正対していると判定した。本実施形態では、距離情報を用いて、患部を含む被写体に対して撮像装置200が正対しているか否かを判定し、正対していればレリーズ信号を発行する場合について説明する。
図8は、画像処理システム1の処理の一例を示すフローチャートである。図4と同様の処理は、同一のステップ番号を付して適宜、説明を省略する。具体的に、図8のフローチャートは、図4のフローチャートのS410をS810に変更したものである。
S810は、システム制御回路220が被写体に対する撮像装置200の姿勢に基づいて撮影するタイミングを制御する処理であり、S811を含む。
Third Embodiment
In the first embodiment, when the change in the area of the affected area is within a predetermined range, it is determined that the imaging device 200 is facing the affected area. In the present embodiment, a case will be described in which distance information is used to determine whether the imaging device 200 is facing a subject including the affected area, and a release signal is issued if the imaging device is facing the subject.
Fig. 8 is a flowchart showing an example of processing of the image processing system 1. Processing similar to that in Fig. 4 is given the same step numbers and description thereof will be omitted as appropriate. Specifically, the flowchart in Fig. 8 is obtained by changing S410 in the flowchart in Fig. 4 to S810.
S810 is a process in which the system control circuit 220 controls the timing of capturing an image based on the attitude of the image capturing device 200 relative to the subject, and includes S811.

S811では、システム制御回路220は、患部を含む被写体に対して撮像装置200が正対しているか否かを判定する。上述したように、撮像装置200の測距システム216は、被写体までの距離情報、あるいは、距離情報の分布を示す距離マップを算出できる。任意の3点以上の距離情報もしくは距離マップ情報を用いることで面としての情報を取得することができる。該当箇所の距離情報が一致、あるいは、所定以内の差分であった場合に、被写体と撮像装置200が正対していると判定することができる。
したがって、システム制御回路220は、測距システム216が算出した距離情報あるいは距離マップ情報に基づいて、被写体に対して撮像装置200が正対しているか否かを判定することができる。正対していると判定した場合にはS413に進み、正対していないと判定した場合にはS404に戻る。
In S811, the system control circuit 220 determines whether the imaging device 200 is facing the subject including the affected area. As described above, the distance measurement system 216 of the imaging device 200 can calculate distance information to the subject or a distance map showing the distribution of distance information. By using distance information or distance map information of any three or more points, information as a surface can be obtained. If the distance information of the relevant points matches or the difference is within a predetermined range, it can be determined that the subject and the imaging device 200 are facing each other.
Therefore, the system control circuit 220 can determine whether the image capturing device 200 faces the subject directly, based on the distance information or distance map information calculated by the distance measuring system 216. If it is determined that the image capturing device 200 faces the subject directly, the process proceeds to S413, and if it is determined that the image capturing device 200 does not face the subject directly, the process returns to S404.

このように本実施形態によれば、被写体に対する撮像装置200の姿勢に基づいて撮影するタイミングを制御する。したがって、被写体に対して撮像装置200が正対している場合にレリーズ信号を発行することができるので患部を適切に撮影することができる。 In this way, according to this embodiment, the timing of capturing an image is controlled based on the orientation of the imaging device 200 relative to the subject. Therefore, when the imaging device 200 is directly facing the subject, a release signal can be issued, allowing the affected area to be captured appropriately.

以上、本発明を種々の実施形態および変形例と共に説明したが、本発明は上述した実施形態および変形例にのみ限定されるものではなく、本発明の範囲内で変更等が可能であり、上述した実施形態および変形例を適時、組み合わせてもよい。
例えば、第1の実施形態と第3の実施形態を組み合わせてもよい。具体的には、システム制御回路220は、距離情報に基づいて被写体に対して撮像装置200が正対しているか否かを判定して、正対していると判定した場合に、受信した面積と閾値とを比較して、閾値以上である場合にレリーズ信号を発行してもよい。また、システム制御回路220は、受信した面積が閾値以上であるか否かを判定して、閾値以上である場合に、距離情報に基づいて撮像装置200と被写体が正対しているか否かを判定して、正対している場合にレリーズ信号を発行してもよい。
The present invention has been described above in conjunction with various embodiments and modifications. However, the present invention is not limited to the above-described embodiments and modifications. Modifications and the like are possible within the scope of the present invention, and the above-described embodiments and modifications may be combined as appropriate.
For example, the first embodiment and the third embodiment may be combined. Specifically, the system control circuit 220 may determine whether the imaging device 200 faces the subject directly based on the distance information, and when it is determined that the imaging device 200 faces the subject directly, compare the received area with a threshold value, and issue a release signal if the area is equal to or greater than the threshold value. The system control circuit 220 may also determine whether the received area is equal to or greater than a threshold value, and when it is equal to or greater than the threshold value, determine whether the imaging device 200 faces the subject directly based on the distance information, and issue a release signal if the imaging device 200 faces the subject directly.

また、上述した実施形態では、患部領域のサイズに関する情報が患部領域の面積である場合について説明したが、この場合に限られず、患部領域の面積、患部領域の長径の長さ、および、患部領域の短径の長さの少なくとも何れか一つであってもよい。患部領域のサイズに関する情報を、患部領域の長径の長さまたは患部領域の短径の長さにする場合には、S408では、画像処理装置300から患部領域の長径の長さまたは患部領域の短径の長さを取得する。S411では、システム制御回路220は、患部領域の長径の長さまたは患部領域の短径の長さが予め定めた閾値以上であるか否かを判定することができる。 In the above embodiment, the information regarding the size of the affected region is the area of the affected region, but this is not limited to the case, and may be at least one of the area of the affected region, the length of the major axis of the affected region, and the length of the minor axis of the affected region. If the information regarding the size of the affected region is the length of the major axis of the affected region or the length of the minor axis of the affected region, in S408, the length of the major axis of the affected region or the length of the minor axis of the affected region is obtained from the image processing device 300. In S411, the system control circuit 220 can determine whether the length of the major axis of the affected region or the length of the minor axis of the affected region is equal to or greater than a predetermined threshold.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a recording medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

1:画像処理システム
200:撮像装置
211:撮像ユニット
216:測距システム
219:通信装置
300:画像処理装置
310:CPU
313:通信装置
1: Image processing system 200: Imaging device 211: Imaging unit 216: Distance measurement system 219: Communication device 300: Image processing device 310: CPU
313: Communication device

Claims (10)

患部を撮影する撮像手段と、
前記撮像手段にて撮影された画像における前記患部のサイズの情報を取得し、前記患部のサイズの情報に基づいて、前記撮像手段により前記患部を撮影するタイミングを制御する、または、ユーザに対して撮影操作を促すタイミングを制御する制御手段と、
を有する撮像装置であって、
前記制御手段は、
前記患部のサイズが閾値以上である場合に、前記撮像手段により前記患部を撮影するように制御する、または、ユーザに対して撮影操作を促すように制御し、
前記閾値は、同一患者の過去に撮影された前記患部のサイズに基づいた値であることを特徴とする撮像装置。
An imaging means for imaging the affected area;
a control means for acquiring information on the size of the affected area in an image captured by the imaging means, and controlling a timing for the imaging means to capture an image of the affected area based on the information on the size of the affected area, or controlling a timing for prompting a user to perform an imaging operation;
An imaging device having
The control means
When the size of the affected area is equal to or larger than a threshold value, the imaging device controls the imaging device to capture an image of the affected area, or controls the imaging device to prompt a user to perform an imaging operation;
The imaging apparatus according to claim 1, wherein the threshold value is a value based on the size of the affected area previously photographed by the same patient .
前記制御手段は、
前記患部のサイズが閾値以上であっても、前記患部のサイズの、その前に取得した前記患部のサイズに対する変動の割合あるいは差分が、所定範囲に収まらない間は、前記撮像手段により前記患部を撮影しないように制御する、または、ユーザに対して撮影操作を促さないように制御することを特徴とする請求項に記載の撮像装置。
The control means
The imaging device according to claim 1, characterized in that even if the size of the affected area is equal to or larger than a threshold value, as long as the rate or difference of change in the size of the affected area relative to the previously acquired size of the affected area does not fall within a predetermined range, the imaging means is controlled not to photograph the affected area, or the user is not prompted to perform an imaging operation.
前記制御手段は、
前記患部のサイズが閾値以上であり、かつ、前記患部のサイズの、その前に取得した前記患部のサイズに対する変動の割合あるいは差分が所定範囲に収まる場合には、前記撮像手段により前記患部を撮影するように制御する、または、ユーザに対して撮影操作を促すように制御することを特徴とする請求項に記載の撮像装置。
The control means
The imaging device according to claim 2, characterized in that, when the size of the affected area is equal to or larger than a threshold value and the rate of change or difference in the size of the affected area relative to the previously acquired size of the affected area falls within a predetermined range, the imaging device is controlled to photograph the affected area, or the imaging device is controlled to prompt a user to perform a photographing operation.
前記制御手段は、
前記患部のサイズが閾値以上ではない場合であっても、一定の期間が経過した場合には、前記撮像手段により前記患部を撮影するように制御する、または、ユーザに対して撮影操作を促すように制御することを特徴とする請求項ないしの何れか1項に記載の撮像装置。
The control means
The imaging device according to any one of claims 1 to 3, characterized in that even if the size of the affected area is not equal to or larger than a threshold value, when a certain period of time has elapsed, the imaging means is controlled to photograph the affected area, or the imaging means is controlled to prompt a user to perform a photographing operation.
前記制御手段は、
前記撮像手段により撮影された前記患部を含む画像を、通信手段を介して外部に送信し、前記画像を前記外部に送信することに応じて、前記患部のサイズの情報を、前記通信手段を介して前記外部から受信することを特徴とする請求項1ないしの何れか1項に記載の撮像装置。
The control means
5. The imaging device according to claim 1, further comprising: a communication means for transmitting an image including the affected area captured by the imaging means to an external device; and receiving information on the size of the affected area from the external device via the communication means in response to transmitting the image to the external device.
前記制御手段は、
前記通信手段を介して前記画像を前記外部に送信するごとに、前記通信手段を介して前記患部のサイズの情報を前記外部から受信することを特徴とする請求項に記載の撮像装置。
The control means
6. The imaging apparatus according to claim 5 , wherein information on the size of the affected area is received from the outside via the communication means every time the image is transmitted to the outside via the communication means.
前記患部は、褥瘡であり、
前記患部のサイズは、患部領域の面積、患部領域の長径の長さおよび患部領域の短径の長さのうち少なくとも何れか一つであることを特徴とする請求項1ないしの何れか1項に記載の撮像装置。
The affected area is a bedsore,
7. The imaging device according to claim 1 , wherein the size of the affected area is at least one of an area of the affected area, a length of a major axis of the affected area, and a length of a minor axis of the affected area.
撮像手段により患部を撮影するステップと
前記撮像手段により撮影された画像における患部のサイズの情報を取得するステップと、
前記患部のサイズの情報に基づいて、前記撮像手段により前記患部を撮影するタイミングを制御する、または、ユーザに対して撮影操作を促すタイミングを制御する制御ステップと、
を有する撮像装置の制御方法であって、
前記制御ステップでは、
前記患部のサイズが閾値以上である場合に、前記撮像手段により前記患部を撮影するように制御する、または、ユーザに対して撮影操作を促すように制御し、
前記閾値は、同一患者の過去に撮影された前記患部のサイズに基づいた値であることを特徴とする撮像装置の制御方法。
taking an image of the affected area by an imaging means ;
acquiring information on the size of the affected area in the image captured by the imaging means;
a control step of controlling a timing for the imaging means to image the affected area or controlling a timing for prompting a user to perform an imaging operation based on information about the size of the affected area;
A method for controlling an imaging apparatus comprising:
In the control step,
When the size of the affected area is equal to or larger than a threshold value, the imaging device controls the imaging device to capture an image of the affected area, or controls the imaging device to prompt a user to perform an imaging operation;
2. A method for controlling an imaging apparatus , comprising: setting a threshold value based on a size of the affected area of a same patient previously photographed;
コンピュータを、請求項1ないしの何れか1項に記載の装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of the device according to any one of claims 1 to 7 . コンピュータを、請求項1ないしの何れか1項に記載の装置の各手段として機能させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium having recorded thereon a program for causing a computer to function as each of the means of the apparatus according to any one of claims 1 to 7 .
JP2020023378A 2019-03-13 2020-02-14 Imaging device, control method thereof, and program Active JP7536463B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/808,245 US11475571B2 (en) 2019-03-13 2020-03-03 Apparatus, image processing apparatus, and control method
CN202010172159.7A CN111698401B (en) 2019-03-13 2020-03-12 Apparatus, image processing apparatus, control method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019045955 2019-03-13
JP2019045955 2019-03-13

Publications (2)

Publication Number Publication Date
JP2020156082A JP2020156082A (en) 2020-09-24
JP7536463B2 true JP7536463B2 (en) 2024-08-20

Family

ID=72560035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020023378A Active JP7536463B2 (en) 2019-03-13 2020-02-14 Imaging device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP7536463B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012254221A (en) 2011-06-09 2012-12-27 Canon Inc Image processing apparatus, method for controlling the same, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012254221A (en) 2011-06-09 2012-12-27 Canon Inc Image processing apparatus, method for controlling the same, and program

Also Published As

Publication number Publication date
JP2020156082A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
EP3326360B1 (en) Image capturing apparatus and method of operating the same
JP4902562B2 (en) Imaging apparatus, image processing apparatus, control method, and program
JP7322097B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM
US11600003B2 (en) Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value
JP5822545B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2011160413A (en) Imaging device
JP3971240B2 (en) Camera with advice function
WO2019230724A1 (en) Image processing system, imaging device, image processing device, electronic device, control method thereof, and storage medium storing control method thereof
CN111698401B (en) Apparatus, image processing apparatus, control method, and storage medium
JP2011155639A (en) Imaging apparatus
US11599993B2 (en) Image processing apparatus, method of processing image, and program
KR102351496B1 (en) Image processing apparatus and method for operating thereof
US20210401327A1 (en) Imaging apparatus, information processing apparatus, image processing system, and control method
JP7536463B2 (en) Imaging device, control method thereof, and program
JP7527803B2 (en) Imaging device, information processing device, and control method
JP2019169985A (en) Image processing apparatus
JP7317498B2 (en) Processing system, processing apparatus, processing method, and program
JP2008172732A (en) Imaging apparatus, control method thereof, and program
US20240000307A1 (en) Photography support device, image-capturing device, and control method of image-capturing device
JP2021049248A (en) Image processing system and method for controlling the same
JP7317528B2 (en) Image processing device, image processing system and control method
JP2022147595A (en) Image processing device, image processing method, and program
Desai et al. Photography of dermatological laser treatment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240807