JP2021049262A - Image processing system and method for controlling the same - Google Patents

Image processing system and method for controlling the same Download PDF

Info

Publication number
JP2021049262A
JP2021049262A JP2019175565A JP2019175565A JP2021049262A JP 2021049262 A JP2021049262 A JP 2021049262A JP 2019175565 A JP2019175565 A JP 2019175565A JP 2019175565 A JP2019175565 A JP 2019175565A JP 2021049262 A JP2021049262 A JP 2021049262A
Authority
JP
Japan
Prior art keywords
image
image processing
processing system
information
pocket
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019175565A
Other languages
Japanese (ja)
Other versions
JP7309556B2 (en
Inventor
與佐人 日高
Yosato Hidaka
與佐人 日高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019175565A priority Critical patent/JP7309556B2/en
Priority to US17/032,963 priority patent/US20210093227A1/en
Publication of JP2021049262A publication Critical patent/JP2021049262A/en
Application granted granted Critical
Publication of JP7309556B2 publication Critical patent/JP7309556B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To improve operability in measuring an affected part.SOLUTION: An image processing system includes: acquisition means for acquiring information on a filmed moving image; detection means for detecting dots in an end in a radial direction of an affected part out of the trajectory of light moving in the affected part from the information acquired by the acquisition means; and providing means for providing information on an outer periphery of the affected part from the multiple dots detected by the detection means.SELECTED DRAWING: Figure 11

Description

本発明は、画像から被検体の患部領域のサイズを推定する画像処理の技術に関するものである。 The present invention relates to an image processing technique for estimating the size of an affected area of a subject from an image.

医療現場や介護現場において、褥瘡を発症した患者に対し定期的に褥瘡の評価をすることが求められており、褥瘡のサイズは褥瘡の進行具合を把握するための1つの指標となっている。特許文献1には、褥瘡のポケットの大きさを計測するために、発光部をポケットに挿入し、ポケットの輪郭に沿って皮膚上にマークをつける、もしくは目盛りを読み取ることが開示されている。 In medical and long-term care settings, it is required to evaluate pressure ulcers on a regular basis for patients who develop pressure ulcers, and the size of pressure ulcers is one index for grasping the progress of pressure ulcers. Patent Document 1 discloses that in order to measure the size of a pressure ulcer pocket, a light emitting portion is inserted into the pocket, a mark is made on the skin along the contour of the pocket, or a scale is read.

国際公開第2006/057138号International Publication No. 2006/05/71138

特許文献1の方法では、作業者はライトをポケットの輪郭となる位置に保持した状態において、皮膚上にマークをつける処理、または、目盛りを読み取る処理が必要である。よって、作業者は、ライトの位置がずれないようにしつつ、褥瘡のサイズを計測するための作業をするので、作業の負担が大きくなる可能性があった。 In the method of Patent Document 1, the operator needs a process of marking on the skin or a process of reading the scale while holding the light at a position which is the outline of the pocket. Therefore, the worker performs the work for measuring the size of the pressure ulcer while keeping the position of the light unchanged, which may increase the work load.

本発明は上記課題に鑑み、患部(褥瘡のポケットなど)を計測する際の操作性の向上を目的とする。 In view of the above problems, an object of the present invention is to improve operability when measuring an affected area (such as a pressure ulcer pocket).

本発明の画像処理システムは、撮影された動画に関する情報を取得する取得手段と、前記取得手段により取得された前記情報より、患部内を移動するライトの軌跡のうち、前記患部の径方向の端の点を検出する検出手段と、前記検出手段により検出された複数の点から患部の外周に関する情報を提供する提供手段とを有することを特徴とする。 The image processing system of the present invention has an acquisition means for acquiring information about a captured moving image and a radial end of the affected portion among the trajectories of lights moving in the affected portion based on the information acquired by the acquisition means. It is characterized by having a detecting means for detecting the above-mentioned points and a providing means for providing information on the outer circumference of the affected portion from a plurality of points detected by the detecting means.

本発明によれば、患部(褥瘡のポケットなど)を計測する際の操作性を向上することができる。 According to the present invention, it is possible to improve operability when measuring an affected area (such as a pressure ulcer pocket).

褥瘡について説明するための図である。It is a figure for demonstrating a pressure ulcer. 褥瘡のポケットの計測を説明するための図である。It is a figure for demonstrating the measurement of a pressure ulcer pocket. 本実施形態に係る画像処理システムの構成図である。It is a block diagram of the image processing system which concerns on this embodiment. 本実施形態に係る被検体を表す図である。It is a figure which shows the subject which concerns on this embodiment. 本実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image pickup apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理システムの動作を示すフローチャートである。It is a flowchart which shows the operation of the image processing system which concerns on this embodiment. 本実施形態に係る面積の計算方法を説明するための図である。It is a figure for demonstrating the calculation method of the area which concerns on this embodiment. 本実施形態に係る情報の重畳方法を説明するための図である。It is a figure for demonstrating the superimposition method of the information which concerns on this embodiment. 本実施形態に係る動画を示す図である。It is a figure which shows the moving image which concerns on this embodiment. 本実施形態に係る動画解析処理を説明するための図である。It is a figure for demonstrating the moving image analysis processing which concerns on this embodiment. 本実施形態に係るポケット測定作業中の表示を示す図である。It is a figure which shows the display during the pocket measurement work which concerns on this embodiment. 本実施形態に係るポケット測定作業後の表示を示す図である。It is a figure which shows the display after the pocket measurement work which concerns on this embodiment. 本実施形態に係る重畳画像を示す図である。It is a figure which shows the superimposition image which concerns on this embodiment. 本実施形態に係る被検体情報を示す図である。It is a figure which shows the subject information which concerns on this embodiment. 本実施形態に係る動画解析処理を示すフローチャートである。It is a flowchart which shows the moving image analysis processing which concerns on this embodiment. 本実施形態に係る所定のマーカーを含んだ褥瘡撮影画像を示す図である。It is a figure which shows the pressure ulcer photograph image containing the predetermined marker which concerns on this embodiment. 本実施形態に係るライト領域の合成結果を示す図である。It is a figure which shows the synthesis result of the light region which concerns on this embodiment. 本実施形態に係る外周描画処理を示すフローチャートである。It is a flowchart which shows the outer peripheral drawing processing which concerns on this embodiment. 本実施形態に係る動画解析処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the moving image analysis processing which concerns on this embodiment. 本実施形態に係る不要ライト領域を削除するためのUIを示す図である。It is a figure which shows the UI for deleting the unnecessary light area which concerns on this embodiment.

以下、本発明の実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.

図1(A)〜1(C)に褥瘡のSizeの測定法(評価法)を示す。図1(A)は潰瘍面のみの褥瘡のSizeの測定法の例である。褥瘡のSizeは、患部(潰瘍面領域103)にメジャーをあてて手作業で計測された値に基づいて決定されることが多い。具体的には、皮膚の損傷範囲(潰瘍面領域103)のうち最も長い直線距離の2点を測定し、当該直線距離を褥瘡の長径aとする。さらに、皮膚の損傷範囲のうち長径aと直交する最も長い直線距離の2点を測定し、当該直線距離を褥瘡の短径bとする。そして、長径aと短径bを掛け合わせた値を褥瘡のSizeとする。以後、他の領域についても、当該領域のうち最も長い直線距離を「長径」と記載し、当該領域のうち長径に直交する最も長い直線距離を「短径」と記載する。 FIGS. 1 (A) to 1 (C) show a method (evaluation method) for measuring a pressure ulcer size. FIG. 1 (A) is an example of a method for measuring a pressure ulcer on the ulcer surface only. The size of a pressure ulcer is often determined based on a value measured manually by applying a tape measure to the affected area (ulcer surface area 103). Specifically, two points having the longest straight line distance in the skin damage range (ulcer surface area 103) are measured, and the straight line distance is defined as the major axis a of the pressure ulcer. Further, two points of the longest straight line distance orthogonal to the major axis a in the skin damage range are measured, and the straight line distance is defined as the minor axis b of the pressure ulcer. Then, the value obtained by multiplying the major axis a and the minor axis b is defined as the pressure ulcer size. Hereinafter, for other regions, the longest straight line distance in the region is described as "major diameter", and the longest straight line distance orthogonal to the major diameter in the region is described as "minor diameter".

褥瘡の症状・分類の代表的なものに、ポケットのある褥瘡がある。ポケットは皮膚欠損部(潰瘍面;外部に露出している部分)よりも広い創腔で、外部から見えない部分(外部に露出していない部分)で皮下に深く広く広がっている場合がある。図1(B)と図1(C)は、ポケットのある褥瘡の例である。図1(B)は、潰瘍面を包含するポケット、つまり潰瘍面の全方向に広がったポケットの例であり、図1(C)は、潰瘍面に部分的に重なるポケット、つまり潰瘍面の一部の方向に広がったポケットの例である。ポケットのある褥瘡では、潰瘍面領域103とポケット領域104を含む全体領域が患部領域102となる。このような褥瘡のポケットを評価する場合、創腔(ポケット)がどのくらいの範囲に広がっているかを計測する必要がある。例えば、DESIGN−R(登録商標)のポケットの採点方法では、潰瘍面とポケットを含む患部領域102の長径aと短径bを掛け合わせた値から、潰瘍面の大きさ、つまり潰瘍面領域103の長径cと短径dを掛け合わせた値を減算した値で計測される。 A typical pressure ulcer symptom / classification is a pressure ulcer with a pocket. The pocket is a wound cavity wider than the skin defect (ulcer surface; the part exposed to the outside), and may be deep and wide under the skin in the part not visible from the outside (the part not exposed to the outside). 1 (B) and 1 (C) are examples of pressure ulcers with pockets. FIG. 1 (B) is an example of a pocket including the ulcer surface, that is, a pocket that extends in all directions of the ulcer surface, and FIG. 1 (C) is a pocket that partially overlaps the ulcer surface, that is, one of the ulcer surfaces. This is an example of a pocket that spreads in the direction of the part. In pressure ulcers with pockets, the entire area including the ulcer surface area 103 and the pocket area 104 becomes the affected area 102. When evaluating such pressure ulcer pockets, it is necessary to measure how wide the wound cavity (pocket) is. For example, in the pocket scoring method of DESIGN-R (registered trademark), the size of the ulcer surface, that is, the ulcer surface region 103 is obtained from the value obtained by multiplying the major axis a and the minor axis b of the affected area 102 including the ulcer surface and the pocket. It is measured by subtracting the value obtained by multiplying the major axis c and the minor axis d of.

図2は、ライト201によるポケット203の測定作業の概要を示す。測定作業では、ライト201の先端(点灯部分)を潰瘍面202からポケット203に挿入する。そして、ポケット203の端に向かってライト201の先端を移動させ、ライト201の先端が最深部(ポケット203の端)に到達した時点で、ライト201から発せられた光が透過した皮膚表面上の位置204にマジックペン等を用いてマーキングする。その後、ライト201をポケット203から引き抜く。矢印205は、このときのライト201の動きを示す。矢印205のように、ライト201は、患部内を径方向、かつ、患部の中心付近の所定の領域から患部の端の位置へと移動し、さらに所定の領域へと移動する。このような作業を繰り返す。状態200A,200aは1点のマーキングを行った状態であり、状態200B,200bは4点のマーキングを行った状態であり、状態200C,200cは
ポケット203の全周囲に沿ってマーキングを行った状態である。全周囲に沿った複数のマーキングから、ポケット203の外周の形状を判断することができ、ポケット203を評価することができる。
FIG. 2 shows an outline of the measurement work of the pocket 203 by the light 201. In the measurement operation, the tip (lighting portion) of the light 201 is inserted into the pocket 203 from the ulcer surface 202. Then, the tip of the light 201 is moved toward the end of the pocket 203, and when the tip of the light 201 reaches the deepest part (the end of the pocket 203), the light emitted from the light 201 is transmitted on the skin surface. Mark the position 204 with a magic pen or the like. After that, the light 201 is pulled out from the pocket 203. The arrow 205 indicates the movement of the light 201 at this time. As shown by the arrow 205, the light 201 moves in the affected area in the radial direction from a predetermined area near the center of the affected area to the position of the edge of the affected area, and further moves to a predetermined area. Such work is repeated. The states 200A and 200a are states in which one point is marked, the states 200B and 200b are states in which four points are marked, and the states 200C and 200c are states in which marking is performed along the entire circumference of the pocket 203. Is. The shape of the outer circumference of the pocket 203 can be determined from the plurality of markings along the entire circumference, and the pocket 203 can be evaluated.

[実施例1]
実施例1では、撮影画像から褥瘡の潰瘍面の面積計測を行い、更に、ポケット領域の大きさを計測できるような合成画像を作成する手順について説明する。
[Example 1]
In Example 1, the procedure of measuring the area of the pressure ulcer ulcer surface from the captured image and further creating a composite image capable of measuring the size of the pocket area will be described.

以下、図3および図4を参照して、本発明の実施例1に係る画像処理システムについて説明する。図3は、実施例1に係る画像処理システムの機能構成の一例を示したブロック図である。画像処理システム1は、手持ち可能なポータブルデバイスである撮像装置2と、画像処理装置3とから構成される。図4は画像処理システム1により計測される被検体を表す図である。実施例1では、被検体401の臀部に生じた患部領域402の病態の一例を褥瘡として説明している。 Hereinafter, the image processing system according to the first embodiment of the present invention will be described with reference to FIGS. 3 and 4. FIG. 3 is a block diagram showing an example of the functional configuration of the image processing system according to the first embodiment. The image processing system 1 is composed of an image pickup device 2 which is a portable device that can be held by hand, and an image processing device 3. FIG. 4 is a diagram showing a subject measured by the image processing system 1. In Example 1, an example of the pathological condition of the affected area 402 generated in the buttocks of the subject 401 is described as a pressure ulcer.

画像処理システム1は、被検体401の患部領域402を撮影し、被写体距離を取得し、患部領域402に対応する画像領域を抽出し、患部領域402の外周形状を検知し、患部領域402の長径と短径を計測して、褥瘡のSizeを計測する。ここで、被写体距離と撮像装置2の画角に基づいて1ピクセルあたりの面積を計測し、患部領域402の抽出結果と1ピクセルあたりの面積とから患部領域402の面積を計測するようにしてもよい。 The image processing system 1 photographs the affected area 402 of the subject 401, acquires the subject distance, extracts the image area corresponding to the affected area 402, detects the outer peripheral shape of the affected area 402, and detects the major axis of the affected area 402. And measure the minor axis to measure the size of the pressure ulcer. Here, the area per pixel is measured based on the subject distance and the angle of view of the imaging device 2, and the area of the affected area 402 is measured from the extraction result of the affected area 402 and the area per pixel. Good.

被検体401には、被検体を識別する情報として1次元バーコード(不図示)が描かれたバーコードタグ403が付帯しており、画像データと被検体のIDとを紐づけることができる。なお、被検体を識別する情報は1次元バーコードに限ったものではなく、QRコード(登録商標)などの2次元コードや数値であってもよい。また、診察カードなどのIDカード上に付帯されるデータやID番号であってもよい。 A barcode tag 403 on which a one-dimensional barcode (not shown) is drawn is attached to the subject 401 as information for identifying the subject, and the image data and the subject ID can be linked. The information for identifying the subject is not limited to the one-dimensional bar code, but may be a two-dimensional code such as a QR code (registered trademark) or a numerical value. Further, it may be data or an ID number attached to an ID card such as a medical examination card.

撮像装置2の機能構成について説明する。撮像装置2は、AF部10、撮像部11、画像処理部12、情報生成部13、表示部14、出力部15、第2取得部16として機能する。 The functional configuration of the image pickup apparatus 2 will be described. The image pickup device 2 functions as an AF unit 10, an image pickup unit 11, an image processing unit 12, an information generation unit 13, a display unit 14, an output unit 15, and a second acquisition unit 16.

AF部10は、被写体に自動的に焦点を合わせる自動焦点調節機能を有する。また、AF部10は、フォーカスレンズの移動量から被写体までの距離(被写体距離)を出力する機能を有する。 The AF unit 10 has an automatic focus adjustment function that automatically focuses on the subject. Further, the AF unit 10 has a function of outputting the distance to the subject (subject distance) from the amount of movement of the focus lens.

撮像部11は、被写体を撮像し、静止画または動画の画像データを生成する。 The image pickup unit 11 takes an image of the subject and generates image data of a still image or a moving image.

画像処理部12は、撮像部11が取得した画像に対して、現像やリサイズなどの画像処理を施す。 The image processing unit 12 performs image processing such as development and resizing on the image acquired by the imaging unit 11.

情報生成部13は、被写体までの距離に関する距離情報を生成する。例えば、情報生成部13は、AF部10が出力する距離に基づいて距離情報を生成する。 The information generation unit 13 generates distance information regarding the distance to the subject. For example, the information generation unit 13 generates distance information based on the distance output by the AF unit 10.

表示部14は、撮像部11が撮像した画像などを表示する。表示部14は、画像処理装置3から出力された情報(患部領域402の抽出結果を示す情報、患部領域402のサイズに関する情報など)を表示することもできる。このような情報は、撮像した画像に重畳表示されてもよい。また表示部14は、画像処理装置3から出力された、ポケット領域の大きさが判別できる合成画像を表示することもできる。合成画像の作成方法については後述する。 The display unit 14 displays an image or the like captured by the imaging unit 11. The display unit 14 can also display information output from the image processing device 3 (information indicating the extraction result of the affected area 402, information regarding the size of the affected area 402, and the like). Such information may be superimposed and displayed on the captured image. The display unit 14 can also display a composite image output from the image processing device 3 from which the size of the pocket region can be determined. The method of creating the composite image will be described later.

出力部15は、画像データと距離情報を画像処理装置3などの外部機器に出力する。画像データとしては、被検体401の患部を撮像した画像データ、被検体401全体の画像データ、バーコードタグ403に描かれた1次元バーコードなどの識別情報を撮像した画像データ、ライトによる測定作業中の動画データなどがある。 The output unit 15 outputs the image data and the distance information to an external device such as the image processing device 3. The image data includes image data obtained by imaging the affected part of the subject 401, image data of the entire subject 401, image data obtained by capturing identification information such as a one-dimensional barcode drawn on the barcode tag 403, and measurement work using a light. There is video data inside.

第2取得部16は、画像処理装置3などの外部機器から、画像、潰瘍面領域およびポケット領域の評価結果を示す評価情報などを取得する。 The second acquisition unit 16 acquires evaluation information indicating the evaluation results of the image, the ulcer surface region, and the pocket region from an external device such as the image processing device 3.

次に、画像処理装置3の機能構成について説明する。画像処理装置3は、取得部21、抽出部22、重畳部23、解析部24、第2出力部25、保存部26として機能する。 Next, the functional configuration of the image processing device 3 will be described. The image processing device 3 functions as an acquisition unit 21, an extraction unit 22, a superimposition unit 23, an analysis unit 24, a second output unit 25, and a storage unit 26.

取得部21は、撮像装置2が出力した画像データと距離情報(被写体距離)を取得する。 The acquisition unit 21 acquires the image data output by the image pickup apparatus 2 and the distance information (subject distance).

抽出部22は、患部領域402を撮像した画像(撮像装置2が出力した画像データ)から、患部領域402に対応する画像領域を抽出する。画像から領域を抽出することを領域抽出や領域分割などという。 The extraction unit 22 extracts an image region corresponding to the affected area 402 from the image (image data output by the imaging device 2) obtained by capturing the affected area 402. Extracting an area from an image is called area extraction or area division.

解析部24は、抽出部22によって抽出された患部領域402のサイズに関する情報を、情報生成部13が生成した距離情報(被写体距離)に基づいて解析する。また、解析部24は、ポケット領域の大きさが分かる合成画像を作成するために、ライトによる測定作業中の動画を解析する。 The analysis unit 24 analyzes the information regarding the size of the affected area 402 extracted by the extraction unit 22 based on the distance information (subject distance) generated by the information generation unit 13. In addition, the analysis unit 24 analyzes the moving image during the measurement operation by the light in order to create a composite image showing the size of the pocket region.

重畳部23は、患部領域402の抽出を行う際に用いた画像データに対応する画像に対して、患部領域402の抽出結果を示す情報、患部領域402のサイズに関する情報などを重畳する。 The superimposing unit 23 superimposes information indicating the extraction result of the affected area 402, information on the size of the affected area 402, and the like on the image corresponding to the image data used when extracting the affected area 402.

第2出力部25は、抽出部22により抽出された患部領域402を示す情報、解析部24により解析された患部領域402のサイズに関する情報、重畳部23により得られた画像データ(情報が重畳された画像)などを、撮像装置2などの外部機器に出力する。また、第2出力部25は、ポケット領域の大きさが分かる合成画像を外部機器に出力することもできる。 The second output unit 25 includes information indicating the affected area 402 extracted by the extraction unit 22, information regarding the size of the affected area 402 analyzed by the analysis unit 24, and image data (information is superimposed) obtained by the overlay unit 23. The image) and the like are output to an external device such as the image pickup device 2. The second output unit 25 can also output a composite image showing the size of the pocket area to an external device.

読み取り部30は、バーコードタグ403を撮像した画像から、バーコードタグ403に描かれた1次元バーコード(不図示)を読み取り、被検体401を識別する識別情報(例えば被検体ID)を取得する。なお、読み取り部30が読み取る対象は、QRコード(登録商標)などの2次元コードや数値、文字であってもよい。 The reading unit 30 reads the one-dimensional barcode (not shown) drawn on the barcode tag 403 from the image obtained by capturing the barcode tag 403, and acquires the identification information (for example, the subject ID) for identifying the subject 401. To do. The target to be read by the reading unit 30 may be a two-dimensional code such as a QR code (registered trademark), a numerical value, or a character.

認識処理部31は、読み取り部30が読み取った被検体ID(識別情報)を、あらかじめ登録された被検体IDと照合し、被検体401の名前を取得する。 The recognition processing unit 31 collates the subject ID (identification information) read by the reading unit 30 with the subject ID registered in advance, and acquires the name of the subject 401.

保存部26は、患部領域402を撮像した画像(患部画像)、患部領域402のサイズに関する情報と、被検体401の被検体ID(識別情報)、被検体401の名前、患部画像の撮影日時などに基づくレコードを生成し、画像処理装置3に記録する。 The storage unit 26 includes an image of the affected area 402 (affected area image), information on the size of the affected area 402, a subject ID (identification information) of the subject 401, a name of the subject 401, a shooting date and time of the affected area image, and the like. A record based on the above is generated and recorded in the image processing device 3.

次に、撮像装置2のハードウェア構成の一例を図5に示す。撮像装置2は、AF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217、通信部218、システム制御部219、記憶部220、外部メモリ221、表示部222、操作部223、共通バス224を有するカメラである。 Next, an example of the hardware configuration of the image pickup apparatus 2 is shown in FIG. The imaging device 2 includes an AF control unit 225, an imaging unit 211, a zoom control unit 215, a distance measuring system 216, an image processing unit 217, a communication unit 218, a system control unit 219, a storage unit 220, an external memory 221 and a display unit 222. It is a camera having an operation unit 223 and a common bus 224.

AF制御部225は、撮像信号(映像信号)の高周波成分を抽出し、これが最大になるレンズ位置(レンズ212に含まれるフォーカスレンズの位置)を探索して、フォーカスレンズを制御し、自動的に焦点を調節する。このフォーカス制御方式は、TV−AF又はコントラストAFとも称され、高精度な合焦が得られる特徴がある。また、AF制御部225は、焦点の調節量またはフォーカスレンズの移動量に基づいて被写体までの距離を取得して出力する。なお、フォーカス制御方式はコントラストAFに限ったものではなく、位相差AFや、その他のAF方式でもよい。図3のAF部10はAF制御部225が動作することで実現される。 The AF control unit 225 extracts a high-frequency component of the imaging signal (video signal), searches for the lens position (position of the focus lens included in the lens 212) at which this is maximized, controls the focus lens, and automatically controls the focus lens. Adjust the focus. This focus control method is also called TV-AF or contrast AF, and has a feature that high-precision focusing can be obtained. Further, the AF control unit 225 acquires and outputs the distance to the subject based on the amount of focus adjustment or the amount of movement of the focus lens. The focus control method is not limited to the contrast AF, and may be a phase difference AF or another AF method. The AF unit 10 in FIG. 3 is realized by operating the AF control unit 225.

撮像部211は、レンズ212、シャッタ213、イメージセンサ214を有する。図3の撮像装置2の撮像部11は撮像部211が動作することで実現される。レンズ212は、イメージセンサ214に被写体の光学像を結像する。イメージセンサ214は、光学像を電気信号に変換するCCDやCMOS素子等の電荷蓄積型の固体イメージセンサで構成される。撮像部211は、レンズ212内に、露出量を調節するための絞り値を決定する絞りを備える。シャッタ213は、開閉動作によりイメージセンサ214への露出や遮光を行い、シャッタ速度を制御する。なお、シャッタは機械シャッタに限ったものではなく電子シャッタを用いてもよい。CMOSセンサを用いた撮像素子では、電子シャッタは、画素毎、或いは、複数画素からなる領域毎(例えば、各ライン毎)に、画素の蓄積電荷量をゼロにするリセット走査を行う。その後、リセット走査を行った画素毎或いは領域毎に、所定の時間を経過してから信号を読み出す走査を行う。 The imaging unit 211 includes a lens 212, a shutter 213, and an image sensor 214. The image pickup unit 11 of the image pickup apparatus 2 of FIG. 3 is realized by operating the image pickup unit 211. The lens 212 forms an optical image of the subject on the image sensor 214. The image sensor 214 is composed of a charge storage type solid-state image sensor such as a CCD or a CMOS element that converts an optical image into an electric signal. The image pickup unit 211 includes a diaphragm in the lens 212 that determines a diaphragm value for adjusting the exposure amount. The shutter 213 controls the shutter speed by exposing or shading the image sensor 214 by opening and closing. The shutter is not limited to the mechanical shutter, and an electronic shutter may be used. In an image sensor using a CMOS sensor, the electronic shutter performs a reset scan to make the accumulated charge amount of the pixels zero for each pixel or for each region composed of a plurality of pixels (for example, for each line). After that, a scan for reading a signal is performed after a predetermined time has elapsed for each pixel or region for which the reset scan has been performed.

ズーム制御部215は、レンズ212に含まれるズームレンズの駆動を制御する。ズーム制御部215は、システム制御部219からの指示に従ってズームモータ(不図示)を介してズームレンズを駆動する。これにより変倍が行われる。 The zoom control unit 215 controls the drive of the zoom lens included in the lens 212. The zoom control unit 215 drives the zoom lens via a zoom motor (not shown) according to an instruction from the system control unit 219. This causes scaling.

測距システム216は、被写体までの距離を取得するユニットである。測距システム216は、AF制御部225の出力に基づいて距離情報を生成してもよい。各々が表示部222の画面(表示面)内の1つ以上の画素からなる複数のブロックが設定されている場合には、測距システム216は、AFをブロック毎に繰り返し動作させることでブロック毎の距離を検出する。なお、測距システム216として、TOF(Time Of Flight)センサを用いたシステムを用いてもよい。TOFセンサは、照射波の送信タイミングと、当該照射波が物体で反射された波である反射波の受信タイミングとの時間差(または位相差)に基づいて、当該物体までの距離を測定するセンサである。さらに、測距システム216には、受光素子にPSD(Position Sensitive Device)を用いたPSD方式などを用いてもよい。図3の撮像装置2の情報生成部13は測距システム216が動作することで実現される。 The distance measuring system 216 is a unit that acquires the distance to the subject. The distance measuring system 216 may generate distance information based on the output of the AF control unit 225. When a plurality of blocks each consisting of one or more pixels in the screen (display surface) of the display unit 222 are set, the distance measuring system 216 repeatedly operates the AF block by block to block each block. Detect the distance of. As the distance measuring system 216, a system using a TOF (Time Of Flight) sensor may be used. The TOF sensor is a sensor that measures the distance to the object based on the time difference (or phase difference) between the transmission timing of the irradiation wave and the reception timing of the reflected wave that is the wave reflected by the object. is there. Further, the ranging system 216 may use a PSD method or the like using a PSD (Position Sensitive Device) as the light receiving element. The information generation unit 13 of the image pickup apparatus 2 of FIG. 3 is realized by operating the distance measuring system 216.

画像処理部217は、イメージセンサ214から出力されたRAW画像データに画像処理を施す。画像処理部217は、撮像部211から出力された画像(RAW画像データ)、あるいは後述する記憶部220に記録されている画像に対して、ホワイトバランス調整、ガンマ補正、色補間またはデモザイキング、フィルタリング、など、様々な画像処理を行う。また、画像処理部217は、撮像部211が撮像した画像に対して、JPEGなどの規格で、圧縮処理を行う。図3の撮像装置2の画像処理部12は画像処理部217が動作することで実現される。 The image processing unit 217 performs image processing on the RAW image data output from the image sensor 214. The image processing unit 217 performs white balance adjustment, gamma correction, color interpolation or demosaiking, and filtering on the image (RAW image data) output from the imaging unit 211 or the image recorded in the storage unit 220 described later. , Etc., perform various image processing. Further, the image processing unit 217 performs a compression process on the image captured by the image capturing unit 211 according to a standard such as JPEG. The image processing unit 12 of the image pickup apparatus 2 of FIG. 3 is realized by operating the image processing unit 217.

通信部218は、撮像装置2内の各構成が、無線のネットワーク(不図示)を介して、画像処理装置3などの外部機器と通信を行うための通信インターフェースである。図3の撮像装置2の出力部15と第2取得部16は通信部218が動作することで実現される。ネットワークの具体的な一例としては、Wi−Fi(登録商標)規格に基づくネットワー
クが挙げられる。なお、Wi−Fi(登録商標)を用いた通信はルーターを介して実現されてもよい。また、通信部218はUSBやLANなど有線の通信インターフェースにより実現されてもよい。
The communication unit 218 is a communication interface for each configuration in the image pickup device 2 to communicate with an external device such as an image processing device 3 via a wireless network (not shown). The output unit 15 and the second acquisition unit 16 of the image pickup apparatus 2 of FIG. 3 are realized by the operation of the communication unit 218. A specific example of a network is a network based on the Wi-Fi® standard. Communication using Wi-Fi (registered trademark) may be realized via a router. Further, the communication unit 218 may be realized by a wired communication interface such as USB or LAN.

システム制御部219は、CPU(Central Processing Unit)を有し、記憶部220内に記録(格納)されたプログラムに従って撮像装置2の各部を制御する(全体制御)。例えば、システム制御部219は、AF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217等を制御する。 The system control unit 219 has a CPU (Central Processing Unit) and controls each unit of the image pickup apparatus 2 according to a program recorded (stored) in the storage unit 220 (overall control). For example, the system control unit 219 controls the AF control unit 225, the image pickup unit 211, the zoom control unit 215, the distance measurement system 216, the image processing unit 217, and the like.

記憶部220は、撮像装置2の動作に必要な各種設定情報(撮像時のピント位置の情報など)や、各種画像(撮像部211が撮像した画像や画像処理部217の処理を経た画像など)などを一時的に記憶する。記憶部220は、通信部218が画像処理装置3と通信して受信した画像データや解析データ(被写体のサイズに関する情報など)などを一時的に記憶してもよい。記憶部220は、フラッシュメモリ、SDRAM等の書き換え可能な不揮発性のメモリによって構成される。 The storage unit 220 includes various setting information (information on the focus position at the time of imaging, etc.) necessary for the operation of the imaging device 2 and various images (images captured by the imaging unit 211, images processed by the image processing unit 217, etc.). Etc. are temporarily memorized. The storage unit 220 may temporarily store image data, analysis data (information on the size of the subject, etc.) received by the communication unit 218 in communication with the image processing device 3. The storage unit 220 is composed of a rewritable non-volatile memory such as a flash memory or SDRAM.

外部メモリ221は、撮像装置2本体に装填自在、または内部に固定された不揮発性の記憶媒体であり、例えば、SDカードやCFカード等である。この外部メモリ221は、画像処理部217で処理された画像データや、通信部218が画像処理装置3と通信して受信した画像データや解析データなどを記憶する。外部メモリ221に記録された画像データや解析データなどを読み出して、撮像装置2の外部に出力することも可能である。 The external memory 221 is a non-volatile storage medium that can be loaded into the main body of the image pickup apparatus 2 or is fixed inside, and is, for example, an SD card, a CF card, or the like. The external memory 221 stores image data processed by the image processing unit 217, image data and analysis data received by the communication unit 218 communicating with the image processing device 3. It is also possible to read out the image data, analysis data, etc. recorded in the external memory 221 and output them to the outside of the image pickup apparatus 2.

表示部222は、記憶部220に一時保存されている画像、外部メモリ221に保存されている画像や情報、撮像装置2の設定画面などを表示する。表示部222は、TFT(Thin Film Transistor)液晶ディスプレイ、有機ELディスプレイ、EVF(電子ビューファインダ)などである。図3の撮像装置2の表示部14は表示部222が動作することで実現される。 The display unit 222 displays an image temporarily stored in the storage unit 220, an image or information stored in the external memory 221, a setting screen of the image pickup device 2, and the like. The display unit 222 is a TFT (Thin Film Transistor) liquid crystal display, an organic EL display, an EVF (electronic viewfinder), or the like. The display unit 14 of the image pickup apparatus 2 of FIG. 3 is realized by operating the display unit 222.

操作部223は、ユーザー操作を受け付ける受付部であり、例えば、撮像装置2に備わったボタンやスイッチ、キー、モードダイアルなどを含む。操作部223は、表示部222に兼用されるタッチパネルなどを含んでもよい。ユーザーによる種々のモード設定や撮影動作などの指令は、操作部223を経由して、システム制御部219に伝わる。 The operation unit 223 is a reception unit that accepts user operations, and includes, for example, buttons, switches, keys, and a mode dial provided in the image pickup apparatus 2. The operation unit 223 may include a touch panel or the like that is also used as the display unit 222. Commands such as various mode settings and shooting operations by the user are transmitted to the system control unit 219 via the operation unit 223.

共通バス224には、前述のAF制御部225、撮像部211、ズーム制御部215、測距システム216、画像処理部217、通信部218、システム制御部219、記憶部220、外部メモリ221、表示部222、操作部223、が接続されている。共通バス224は各ブロック間で信号の送受信を行うための信号線である。 The common bus 224 includes the AF control unit 225, the imaging unit 211, the zoom control unit 215, the distance measuring system 216, the image processing unit 217, the communication unit 218, the system control unit 219, the storage unit 220, the external memory 221 and the display. The unit 222 and the operation unit 223 are connected. The common bus 224 is a signal line for transmitting and receiving signals between each block.

次に、画像処理装置3である情報処理装置のハードウェア構成の一例を図6に示す。画像処理装置3は、中央演算処理部(CPU)310、記憶部312、入力部313(マウス、キーボード、等)、出力部314(ディスプレイ等)、補助演算部317を有するコンピュータである。CPU310は演算部311を備える。記憶部312は主記憶部315(ROM、RAM等)と補助記憶部316(磁気ディスク、SSD(Solid State Drive)等)とから構成される。入力部313と出力部314の一部はWi−fi通信のための無線通信モジュールとして構成される。 Next, FIG. 6 shows an example of the hardware configuration of the information processing device which is the image processing device 3. The image processing device 3 is a computer having a central processing unit (CPU) 310, a storage unit 312, an input unit 313 (mouse, keyboard, etc.), an output unit 314 (display, etc.), and an auxiliary calculation unit 317. The CPU 310 includes a calculation unit 311. The storage unit 312 is composed of a main storage unit 315 (ROM, RAM, etc.) and an auxiliary storage unit 316 (magnetic disk, SSD (Solid State Drive), etc.). A part of the input unit 313 and the output unit 314 is configured as a wireless communication module for Wi-fi communication.

補助演算部317は、CPU310の制御の下で用いられる補助演算用ICである。補助演算部317には、一例としてGPU(Graphic Processing Unit)を用いることができる。GPUは、画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、信号学習用の処理を行うプロセッサとし
ても用いられることが多い。そして、深層学習を行う処理においても、GPUが用いられることが一般的である。なお、補助演算部317として、FPGA(field−programmable gate array)やASICなどを用いてもよい。
The auxiliary calculation unit 317 is an auxiliary calculation IC used under the control of the CPU 310. As an example, a GPU (Graphic Processing Unit) can be used for the auxiliary calculation unit 317. The GPU is a processor for image processing, but since it has a plurality of product-sum arithmetic units and is good at matrix calculation, it is often used as a processor for processing for signal learning. The GPU is also generally used in the process of performing deep learning. As the auxiliary calculation unit 317, FPGA (field-programmable gate array), ASIC, or the like may be used.

CPU310が備える演算部311は、記憶部312に記録(格納)されたプログラムを実行することで図3の画像処理装置3の取得部21、抽出部22、重畳部23、解析部24、第2出力部25、保存部26、読み取り部30、認識処理部31として機能する。さらに、演算部311は処理を実行する順番を制御する。 The calculation unit 311 included in the CPU 310 executes a program recorded (stored) in the storage unit 312 to execute the acquisition unit 21, the extraction unit 22, the superimposition unit 23, the analysis unit 24, and the second image processing device 3 of FIG. It functions as an output unit 25, a storage unit 26, a reading unit 30, and a recognition processing unit 31. Further, the calculation unit 311 controls the order in which the processes are executed.

なお、画像処理装置3が備えるCPU310および記憶部312は1つであってもよいし複数であってもよい。すなわち、少なくとも1以上の処理部(CPU)と少なくとも1つの記憶部とが接続されており、少なくとも1以上の処理部が少なくとも1以上の記憶部に記録されたプログラムを実行した場合に、画像処理装置3は、上記の各部として機能してもよい。なお、処理部はCPUに限定されるものではなく、FPGAやASIC等であってもよい。 The CPU 310 and the storage unit 312 included in the image processing device 3 may be one or a plurality. That is, when at least one or more processing units (CPU) and at least one storage unit are connected and at least one or more processing units execute a program recorded in at least one storage unit, image processing is performed. The device 3 may function as each of the above parts. The processing unit is not limited to the CPU, and may be an FPGA, an ASIC, or the like.

次に、図7のフローチャートを用いて、実施例1に係る画像処理システム1の動作について説明する。図7のフローチャートにおいて、撮像装置2の処理は、ROM(記憶部220の一部)に記録されたプログラムをRAM(記憶部220の一部)に展開してシステム制御部219が実行することで実現する。同様に、画像処理装置3の処理は、ROM(主記憶部315の一部)に記録されたプログラムをRAM(主記憶部315の一部)に展開してCPU310が実行することで実現する。図7のフローチャートでは、潰瘍面の褥瘡評価として、動画撮影した画像データの1つ(1フレーム)を解析して潰瘍面のSize測定を実施する。また、ポケットの大きさが分かるような合成画像を画像処理装置3で作成して、撮像装置2に送信している。なお、図7の処理は、撮像装置2と画像処理装置3の電源が入り、撮像装置2と画像処理装置3を互いに接続するための操作が行われると開始する。 Next, the operation of the image processing system 1 according to the first embodiment will be described with reference to the flowchart of FIG. 7. In the flowchart of FIG. 7, the processing of the image pickup apparatus 2 is performed by expanding the program recorded in the ROM (a part of the storage unit 220) into the RAM (a part of the storage unit 220) and executing the processing by the system control unit 219. Realize. Similarly, the processing of the image processing apparatus 3 is realized by expanding the program recorded in the ROM (a part of the main storage unit 315) into the RAM (a part of the main storage unit 315) and executing the program by the CPU 310. In the flowchart of FIG. 7, as an evaluation of pressure ulcer on the ulcer surface, one of the image data (1 frame) taken as a moving image is analyzed and the size of the ulcer surface is measured. In addition, the image processing device 3 creates a composite image so that the size of the pocket can be seen, and transmits the composite image to the image pickup device 2. The process of FIG. 7 starts when the power of the image pickup device 2 and the image processing device 3 is turned on and an operation for connecting the image pickup device 2 and the image processing device 3 to each other is performed.

ステップS701とステップS721では、撮像装置2と画像処理装置3は、互いに通信可能に接続するための接続処理を行う。例えば、撮像装置2のシステム制御部219は、通信部218を用いて、無線LAN規格であるWi−fi規格のネットワーク(不図示)に接続する。画像処理装置3のCPU310も、入力部313や出力部314を用いて同じネットワークに接続する。そして、ステップS721にてCPU310は接続する撮像装置の探索処理を行い、ステップS701にてシステム制御部219は探索処理に対する応答処理を行う。探索処理には、ネットワークを介して機器を探索(検索)する種々の機器探索技術等を用いることができる。例えば、UPnP(Universal Plug and Play)が用いた探索処理が行われ、個々の装置はUUID(Universally Unique IDentifier)を用いて識別される。 In step S701 and step S721, the image pickup apparatus 2 and the image processing apparatus 3 perform a connection process for connecting to each other so as to be able to communicate with each other. For example, the system control unit 219 of the image pickup apparatus 2 uses the communication unit 218 to connect to a Wi-fi standard network (not shown), which is a wireless LAN standard. The CPU 310 of the image processing device 3 is also connected to the same network by using the input unit 313 and the output unit 314. Then, in step S721, the CPU 310 performs a search process for the connected imaging device, and in step S701, the system control unit 219 performs a response process to the search process. For the search process, various device search techniques for searching (searching) devices via a network can be used. For example, the search process used by UPnP (Universal Plug and Play) is performed, and each device is identified using a UUID (Universally Unique Identifier).

ステップS702では、撮像装置2のシステム制御部219は、撮像部211を用いて、被検体401のバーコードタグ403を撮影する。バーコードタグ403には被検体401(患者)を識別する被検体ID(患者ID)が含まれる。バーコードタグの撮影の後に患部の撮影をすることで、撮影日時などで撮影順序を管理し、バーコードタグの画像から次のバーコードタグの画像の手前までの画像を、同一被検体の画像として、被検体IDにより識別できるようになる。 In step S702, the system control unit 219 of the image pickup apparatus 2 uses the image pickup unit 211 to photograph the barcode tag 403 of the subject 401. The barcode tag 403 includes a subject ID (patient ID) that identifies the subject 401 (patient). By taking a picture of the affected area after taking a picture of the barcode tag, the shooting order is managed according to the shooting date and time, and the image from the bar code tag image to the image before the next bar code tag image is the image of the same subject. As a result, it becomes possible to identify by the subject ID.

その後、撮像装置2のシステム制御部219は、撮像部211や表示部222を用いて、被検体401のライブ映像を表示部222に表示するライブビュー処理を行う。ライブビュー処理では、撮像装置2は、ステップS703〜S710の処理を行う。ライブビュー処理に伴い、画像処理装置3は、ステップS722〜S726の処理を行う。 After that, the system control unit 219 of the image pickup apparatus 2 uses the image pickup unit 211 and the display unit 222 to perform a live view process of displaying the live image of the subject 401 on the display unit 222. In the live view process, the image pickup apparatus 2 performs the processes of steps S703 to S710. Along with the live view processing, the image processing device 3 performs the processing of steps S722 to S726.

ステップS703では、撮像装置2のシステム制御部219は、AF制御部225を用いて、被検体401に合うように焦点を調節する(AF処理)。ここでは、AF処理において、表示部222の画面を複数のブロックに分割し、所定のブロックでAFを行うとする。具体的には、画面の中央に患部領域402が配置されるように撮像装置2を構え、画面の中央に位置するブロックでAFを行う。また、AF制御部225は、焦点の調節量またはフォーカスレンズの移動量から被検体401のAFエリア(AFで焦点が合った部分)までの距離を出力し、システム制御部219はその距離を取得する。 In step S703, the system control unit 219 of the image pickup apparatus 2 uses the AF control unit 225 to adjust the focus so as to match the subject 401 (AF process). Here, in the AF process, it is assumed that the screen of the display unit 222 is divided into a plurality of blocks and AF is performed in a predetermined block. Specifically, the image pickup device 2 is held so that the affected area 402 is arranged in the center of the screen, and AF is performed by the block located in the center of the screen. Further, the AF control unit 225 outputs the distance from the amount of focus adjustment or the amount of movement of the focus lens to the AF area (the portion focused by AF) of the subject 401, and the system control unit 219 acquires the distance. To do.

ステップS704では、撮像装置2のシステム制御部219は、撮像部211を用いて、被検体401の患部領域402を撮像する。 In step S704, the system control unit 219 of the image pickup apparatus 2 uses the image pickup unit 211 to image the affected area 402 of the subject 401.

ステップS705では、撮像装置2のシステム制御部219は、画像処理部217を用いて、ステップS704にて取得した画像を現像し、現像後の画像をJPEGなどの規格で圧縮し、得られたJPEG画像のリサイズを実施する。ステップS705にて生成された画像は後述するステップS707で画像処理装置3に無線通信により送信される。送信する画像のサイズが大きいほど無線通信に時間がかかるため、許容される通信時間を考慮してリサイズ後の画像サイズが選択される。さらに、ステップS705にて生成された画像は、後述するステップS723にて画像から患部領域402を抽出する抽出処理の対象とされる。リサイズ後の画像サイズは、抽出処理の処理時間および抽出精度に依存するため、これらの要件も考慮して選択される。また、ステップS705はライブビュー処理の一部であるため、ステップS705の処理時間が長いとライブ映像のフレームレートが低くなり、使い勝手に悪影響を及ぼす。このことから、ライブビュー処理中でない本撮影時の画像処理(リサイズ)に比べて、同じか小さい画像サイズでリサイズを行うことが望ましい。ステップS705では、720ピクセル×540ピクセル且つ8ビットRGBカラーで、データサイズがおよそ1.1メガバイトとなるようにリサイズを行うとする。なお、リサイズ後の画像サイズ、データサイズ、ビット深度、色空間などは、特に限定されない。 In step S705, the system control unit 219 of the image pickup apparatus 2 uses the image processing unit 217 to develop the image acquired in step S704, compress the developed image with a standard such as JPEG, and obtain the JPEG. Perform image resizing. The image generated in step S705 is transmitted to the image processing device 3 by wireless communication in step S707 described later. The larger the size of the image to be transmitted, the longer it takes for wireless communication. Therefore, the image size after resizing is selected in consideration of the allowable communication time. Further, the image generated in step S705 is subject to the extraction process of extracting the affected area 402 from the image in step S723 described later. Since the image size after resizing depends on the processing time of the extraction process and the extraction accuracy, these requirements are also taken into consideration when selecting the image. Further, since step S705 is a part of the live view processing, if the processing time of step S705 is long, the frame rate of the live video becomes low, which adversely affects usability. For this reason, it is desirable to perform resizing with the same or smaller image size as compared with image processing (resizing) at the time of actual shooting during live view processing. In step S705, it is assumed that 720 pixels × 540 pixels and 8-bit RGB color are resized so that the data size is about 1.1 megabytes. The image size, data size, bit depth, color space, etc. after resizing are not particularly limited.

ステップS706では、撮像装置2のシステム制御部219は、測距システム216を用いて、被写体までの距離に関する距離情報を生成する。具体的には、ステップS703でAF制御部225が出力した距離に基づいて距離情報を生成する。 In step S706, the system control unit 219 of the image pickup apparatus 2 uses the distance measurement system 216 to generate distance information regarding the distance to the subject. Specifically, the distance information is generated based on the distance output by the AF control unit 225 in step S703.

ステップS707では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS705で生成した画像(画像データ)と、ステップS706で生成した距離情報とを画像処理装置3に送信(出力)する。なお、初回送信時に、システム制御部219は、ステップS702で撮影したタグ情報画像を一回だけ画像処理装置3に送信する。 In step S707, the system control unit 219 of the image pickup apparatus 2 uses the communication unit 218 to transmit (output) the image (image data) generated in step S705 and the distance information generated in step S706 to the image processing apparatus 3. ). At the time of initial transmission, the system control unit 219 transmits the tag information image captured in step S702 to the image processing device 3 only once.

ステップS722では、画像処理装置3のCPU310は、入力部313を用いて、ステップS707で撮像装置2が送信した画像(患部領域402の画像)と距離情報(画像に映っている被写体(患部領域402)に対応する距離情報)を受信(取得)する。なお、初回受信時に、CPU310は、ステップS703で撮影されたタグ情報画像を一回だけ受信する。 In step S722, the CPU 310 of the image processing device 3 uses the input unit 313 to transmit the image (image of the affected area 402) and the distance information (subject in the image (affected area 402)) transmitted by the image pickup device 2 in step S707. ) Corresponding distance information) is received (acquired). At the time of the first reception, the CPU 310 receives the tag information image captured in step S703 only once.

ステップS723では、画像処理装置3のCPU310は、ステップS722で取得した画像から被検体401の患部領域402を抽出する。ここでは画像解析により抽出可能な潰瘍面のみの領域分割(領域抽出)を行う。領域分割の手法として、深層学習による意味的領域分割を行うとする。すなわち、あらかじめ学習用のコンピュータ(不図示)に複数の実際の褥瘡患部の画像を教師データとしてニューラルネットワークのモデルを学習させて学習済モデルを生成する。そして、CPU310は生成された学習済モデルに基づい
て入力画像から褥瘡のエリアを推定する。また、ニューラルネットワークのモデルとして、深層学習を用いたセグメンテーション・モデルである完全畳み込みネットワーク FCN(Fully Convolutional Network)を適用したとする。深層学習の推論は、積和演算の並列実行を得意とするGPU(補助演算部317に含まれる)を用いて行われる。なお、推論処理はFPGAやASICなどにより実行されてもよい。なお、他の深層学習のモデルを用いて領域分割を実現してもよい。また、セグメンテーション手法は深層学習に限らず、例えば、グラフカットや領域成長、エッジ検出、統治分割法等を用いてもよい。
In step S723, the CPU 310 of the image processing device 3 extracts the affected area 402 of the subject 401 from the image acquired in step S722. Here, region division (region extraction) is performed only on the ulcer surface that can be extracted by image analysis. As a method of domain division, it is assumed that semantic domain division by deep learning is performed. That is, a trained model is generated by training a neural network model in advance using a plurality of actual images of pressure ulcer affected areas as teacher data on a learning computer (not shown). Then, the CPU 310 estimates the pressure ulcer area from the input image based on the generated trained model. Further, it is assumed that a complete convolutional network FCN (Full Convolutional Network), which is a segmentation model using deep learning, is applied as a model of a neural network. Deep learning inference is performed using a GPU (included in the auxiliary calculation unit 317), which is good at parallel execution of multiply-accumulate operations. The inference process may be executed by FPGA, ASIC, or the like. It should be noted that the region division may be realized by using another deep learning model. Further, the segmentation method is not limited to deep learning, and for example, graph cut, region growth, edge detection, governing division method, or the like may be used.

ステップS724では、画像処理装置3のCPU310は、ステップS723で抽出した潰瘍面領域の画像サイズ(画像上でのサイズ)を変換することで、潰瘍面領域の実サイズ(実際のサイズ)に関する情報を解析(取得)する。潰瘍面領域の画像サイズは、ステップS722で取得した画像の画角もしくは画素サイズに関する情報、および、ステップS722で取得した距離情報に基づいて、実サイズに変換する。 In step S724, the CPU 310 of the image processing apparatus 3 converts the image size (size on the image) of the ulcer surface region extracted in step S723 to obtain information on the actual size (actual size) of the ulcer surface region. Analyze (acquire). The image size of the ulcer surface region is converted into an actual size based on the information regarding the angle of view or the pixel size of the image acquired in step S722 and the distance information acquired in step S722.

図8を用いて潰瘍面領域の面積(実サイズ)の計算方法について説明する。一般的なカメラは図8のようなピンホールモデルとして扱うことができる。入射光800はレンズ212のレンズ主点を通り、イメージセンサ214の撮像面に入射する。撮像面からレンズ主点までの距離が焦点距離Fである。ここで、薄レンズ近似を用いた場合には、前側主点と後側主点の2つの主点は一致するとみなせる。また、ピンホールモデルでは、レンズ212が厚みのない単一のレンズで表されるが、実際のレンズは、例えば、フォーカスレンズを含む複数の厚みのあるレンズ、またはズームレンズで構成される。そして、イメージセンサ214の撮像面に像が結像するようにレンズ212のフォーカスレンズを調整することで、被写体801に合うように焦点が調節される。さらに、ズームレンズの場合は、焦点距離Fを変更することで画角θが変化する。このとき、撮像装置2の画角θと被写体距離Dの関係から幾何学的に合焦面における被写体801の幅Wが決定し、被写体801の幅Wは三角関数を用いて計算できる。すなわち、被写体801の幅Wは、フォーカス位置とズーム量をパラメーターとする画角θと、被写体距離Dとの関係によって決定する。そして、被写体801の幅Wをイメージセンサ214の1ラインのピクセル数で除算することにより、画像の1ピクセルに対応する合焦面上の長さが得られる。さらに、1ピクセルに対応する合焦面上の長さから、1ピクセルに対応する合焦面上の面積が得られる。潰瘍面領域の面積は、ステップS723で抽出した潰瘍面領域のピクセル数に、1ピクセルに対応する合焦面上の面積を乗算することで算出できる。 A method of calculating the area (actual size) of the ulcer surface region will be described with reference to FIG. A general camera can be treated as a pinhole model as shown in FIG. The incident light 800 passes through the principal point of the lens 212 and is incident on the imaging surface of the image sensor 214. The distance from the imaging surface to the principal point of the lens is the focal length F. Here, when the thin lens approximation is used, it can be considered that the two principal points, the front principal point and the rear principal point, coincide with each other. Further, in the pinhole model, the lens 212 is represented by a single lens having no thickness, but the actual lens is composed of, for example, a plurality of thick lenses including a focus lens or a zoom lens. Then, by adjusting the focus lens of the lens 212 so that an image is formed on the image pickup surface of the image sensor 214, the focus is adjusted so as to match the subject 801. Further, in the case of a zoom lens, the angle of view θ changes by changing the focal length F. At this time, the width W of the subject 801 on the focal plane is geometrically determined from the relationship between the angle of view θ of the image pickup apparatus 2 and the subject distance D, and the width W of the subject 801 can be calculated using a trigonometric function. That is, the width W of the subject 801 is determined by the relationship between the angle of view θ with the focus position and the zoom amount as parameters and the subject distance D. Then, by dividing the width W of the subject 801 by the number of pixels in one line of the image sensor 214, the length on the focal plane corresponding to one pixel of the image can be obtained. Further, from the length on the focal plane corresponding to 1 pixel, the area on the focal surface corresponding to 1 pixel can be obtained. The area of the ulcer surface region can be calculated by multiplying the number of pixels of the ulcer surface region extracted in step S723 by the area on the focal surface corresponding to one pixel.

ステップS725では、画像処理装置3のCPU310は、ステップS722で取得した画像に対して、潰瘍面領域の面積(実サイズ)に関する情報(ステップS724の処理結果)を重畳する。なお、潰瘍面領域の抽出結果に関する情報を重畳してもよい。 In step S725, the CPU 310 of the image processing device 3 superimposes information (processing result of step S724) regarding the area (actual size) of the ulcer surface region on the image acquired in step S722. Information on the extraction result of the ulcer surface region may be superimposed.

図9を用いて潰瘍面領域の面積(実サイズ)に関する情報が重畳される様子ついて説明する。図9の画像910は重畳処理前の画像で、被検体401の潰瘍面領域(患部領域402)を含んでいる。そして、画像913は重畳処理後の画像で、推定した面積値を示す白色の文字列912を黒色の背景に上に記述したラベル911が、画像913の左上隅に重畳されている。潰瘍面領域の抽出結果に関する情報としては、例えば、潰瘍面領域を示す枠などが重畳される。 A state in which information on the area (actual size) of the ulcer surface region is superimposed will be described with reference to FIG. Image 910 of FIG. 9 is an image before the superimposition treatment, and includes the ulcer surface region (affected portion region 402) of the subject 401. Then, the image 913 is an image after the superimposition processing, and the label 911 in which the white character string 912 indicating the estimated area value is described above on the black background is superposed on the upper left corner of the image 913. As the information regarding the extraction result of the ulcer surface region, for example, a frame indicating the ulcer surface region is superimposed.

ステップS726では、画像処理装置3のCPU310は、出力部314を用いて、潰瘍面領域の実サイズに関する情報(ステップS724の処理結果)を撮像装置2に送信(出力)する。具体的には、CPU310は、ステップS725の重畳処理後の画像(重畳処理済画像)を、撮像装置2に無線通信により出力する。なお、潰瘍面領域の抽出結果に関する情報を送信してもよい。 In step S726, the CPU 310 of the image processing device 3 transmits (outputs) information regarding the actual size of the ulcer surface region (processing result of step S724) to the imaging device 2 using the output unit 314. Specifically, the CPU 310 outputs the image after the superimposition processing in step S725 (superimposition processed image) to the image pickup apparatus 2 by wireless communication. Information regarding the extraction result of the ulcer surface region may be transmitted.

ステップS708では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS726で画像処理装置3が送信した情報(重畳処理済画像)を受信(取得)する。 In step S708, the system control unit 219 of the image pickup apparatus 2 uses the communication unit 218 to receive (acquire) the information (superimposed processed image) transmitted by the image processing apparatus 3 in step S726.

ステップS709では、撮像装置2のシステム制御部219は、ステップS708で受信した情報(重畳処理済画像)を表示部222に表示する。これにより、撮像部211で撮像されたライブビュー画像が表示されると共に、潰瘍面領域の実サイズに関する情報がライブビュー画像に対して重畳表示される。なお、潰瘍面領域の抽出結果に関する情報と潰瘍面領域の実サイズに関する情報との少なくとも一方がライブビュー画像に重畳表示されればよく、画像処理装置3から撮像装置2に情報が送信され、撮像装置2で重畳処理が行われてもよい。 In step S709, the system control unit 219 of the image pickup apparatus 2 displays the information (superimposed image) received in step S708 on the display unit 222. As a result, the live view image captured by the imaging unit 211 is displayed, and information on the actual size of the ulcer surface region is superimposed and displayed on the live view image. It is sufficient that at least one of the information on the extraction result of the ulcer surface region and the information on the actual size of the ulcer surface region is superimposed and displayed on the live view image, and the information is transmitted from the image processing device 3 to the image pickup device 2 for imaging. The superimposition processing may be performed by the device 2.

ステップS710では、撮像装置2のシステム制御部219は、操作部223に対する本撮影操作(本撮影を指示する操作)があったか否かを判定する。本撮影操作があった場合はライブビュー処理を抜けてステップS711に進み、そうでない場合はステップS703に戻ってライブビュー処理を繰り返す。 In step S710, the system control unit 219 of the image pickup apparatus 2 determines whether or not there is a main shooting operation (an operation for instructing the main shooting) on the operation unit 223. If there is a main shooting operation, the live view process is exited and the process proceeds to step S711. If not, the process returns to step S703 and the live view process is repeated.

ステップS711では、撮像装置2のシステム制御部219は、撮影対象の褥瘡にポケットがあるか否か、具体的には図2を用いて説明したようなライトによるポケット評価が必要か否かを判定する。ポケットがあるか否か(ライトによるポケット評価が必要か否か)は、ユーザー(評価者)が操作部223を用いて指定してもよいし、システム制御部219がライブビュー画像を解析して判定してもよい。ポケットがある場合(ライトによるポケット評価が必要な場合)はステップS712に進み、そうでない場合はステップS713に進む。 In step S711, the system control unit 219 of the image pickup apparatus 2 determines whether or not the pressure ulcer to be imaged has a pocket, specifically, whether or not pocket evaluation by a light as described with reference to FIG. 2 is necessary. To do. Whether or not there is a pocket (whether or not pocket evaluation by a light is necessary) may be specified by the user (evaluator) using the operation unit 223, or the system control unit 219 analyzes the live view image. You may judge. If there is a pocket (if pocket evaluation by light is required), the process proceeds to step S712, and if not, the process proceeds to step S713.

ステップS712では、撮像装置2のシステム制御部219は、撮像部211を用いて、ライトによる測定作業(図2)の様子を動画で撮影する。さらに、システム制御部219は、静止画(例えば、ライトによる測定作業でライトがポケットに挿入される前の静止画)も撮影する。なお、実施例1では、ライトの移動経路を画像解析によりポケット形状を検知するため、マジックペン等を用いたマーキングが省略される。ここで、ステップS712で取得できる動画の各フレームを模式的に表したものが図10である。図10では複数のフレームが時系列的に並んでおり、最初のフレーム1000には、褥瘡の潰瘍面1001と、ライトから発せられた光1002とが映っている。また、フレーム1003、1004、1005と時間が進むにつれて、光1002の位置が移動している。 In step S712, the system control unit 219 of the image pickup apparatus 2 uses the image pickup unit 211 to take a moving image of the measurement operation (FIG. 2) by the light. Further, the system control unit 219 also captures a still image (for example, a still image before the light is inserted into the pocket in the measurement operation by the light). In the first embodiment, since the pocket shape is detected by image analysis of the movement path of the light, marking using a magic pen or the like is omitted. Here, FIG. 10 schematically shows each frame of the moving image that can be acquired in step S712. In FIG. 10, a plurality of frames are arranged in chronological order, and the first frame 1000 shows the ulcer surface 1001 of the pressure ulcer and the light 1002 emitted from the light. Further, the position of the light 1002 moves as time advances with the frames 1003, 1004, and 1005.

ステップS713では、撮像装置2のシステム制御部219は、撮像部211を用いて、ポケット無しの褥瘡を評価するための静止画を撮影する。具体的には、ステップS703と同様のAF処理、ステップS704と同様の撮像、ステップS705と同様の画像処理(現像やリサイズなど)を行う。ステップS713は、ライブビュー処理の一部ではなく、本撮影の処理である。このため、ステップS713では、短い処理時間よりも、大きな画像サイズと褥瘡サイズ計測の精度とを優先し、ステップS705で得られる画像と同等かそれ以上の画像サイズに画像をリサイズする。ここでは1440ピクセル×1080ピクセル且つ4ビットRGBカラーで、データサイズがおよそ4.45メガバイトとなるようにリサイズを行うとする。なお、リサイズ後の画像サイズ、データサイズ、ビット深度、色空間などは、特に限定されない。 In step S713, the system control unit 219 of the image pickup apparatus 2 uses the image pickup unit 211 to take a still image for evaluating a pressure ulcer without a pocket. Specifically, AF processing similar to step S703, imaging similar to step S704, and image processing (development, resizing, etc.) similar to step S705 are performed. Step S713 is not a part of the live view process but a process of main shooting. Therefore, in step S713, the large image size and the accuracy of the pressure ulcer size measurement are prioritized over the short processing time, and the image is resized to an image size equal to or larger than the image obtained in step S705. Here, it is assumed that resizing is performed so that the data size is approximately 4.45 megabytes with 1440 pixels × 1080 pixels and 4-bit RGB color. The image size, data size, bit depth, color space, etc. after resizing are not particularly limited.

ステップS714では、撮像装置2のシステム制御部219は、通信部218を用いて、本撮影で得た画像(ステップS712で撮影した動画と静止画またはステップS713で撮影した静止画)の画像データを画像処理装置3に送信(出力)する。システム制御部
219は、ステップS706で生成した距離情報(被写体距離)も画像処理装置3に送信する。本撮影時に距離情報を再度生成し、本撮影時の距離情報を画像処理装置3に送信してもよい。
In step S714, the system control unit 219 of the image pickup apparatus 2 uses the communication unit 218 to obtain image data of the image (the moving image and still image taken in step S712 or the still image taken in step S713) obtained in the main shooting. It is transmitted (output) to the image processing device 3. The system control unit 219 also transmits the distance information (subject distance) generated in step S706 to the image processing device 3. The distance information at the time of the main shooting may be generated again, and the distance information at the time of the main shooting may be transmitted to the image processing device 3.

ステップS727では、画像処理装置3のCPU310は、入力部313を用いて、ステップS714で撮像装置2が送信した画像と距離情報を受信(取得)する。 In step S727, the CPU 310 of the image processing device 3 uses the input unit 313 to receive (acquire) the image and the distance information transmitted by the image pickup device 2 in step S714.

ステップS728〜S730では、画像処理装置3のCPU310は、褥瘡の潰瘍面の大きさを測定する。ステップS728では、ステップS723と同様に、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)から被検体401の潰瘍面領域を抽出する。なお、動画を取得した場合には、動画の1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択して、選択したフレームから潰瘍面領域を抽出してもよい。 In steps S728 to S730, the CPU 310 of the image processing apparatus 3 measures the size of the pressure ulcer ulcer surface. In step S728, similarly to step S723, the CPU 310 of the image processing device 3 extracts the ulcer surface region of the subject 401 from the image (still image) acquired in step S727. When a moving image is acquired, one frame of the moving image (for example, one frame before the light is inserted into the pocket in the measurement work with the light) may be selected and the ulcer surface region may be extracted from the selected frame. Good.

ステップS729では、ステップS724と同様に、画像処理装置3のCPU310は、ステップS728で抽出した潰瘍面領域の実サイズに関する情報を、ステップS727で取得した距離情報に基づいて解析(取得)する。 In step S729, similarly to step S724, the CPU 310 of the image processing device 3 analyzes (acquires) information on the actual size of the ulcer surface region extracted in step S728 based on the distance information acquired in step S727.

ステップS730では、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)を用いて潰瘍面の評価を実施する。なお、ステップS712で撮影した動画を取得した場合は、当該動画の複数のフレームの1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択して用いてもよい。 In step S730, the CPU 310 of the image processing device 3 evaluates the ulcer surface using the image (still image) acquired in step S727. When the moving image taken in step S712 is acquired, one frame of a plurality of frames of the moving image (for example, one frame before the light is inserted into the pocket in the measurement work by the light) may be selected and used. ..

潰瘍面の評価について具体的に説明する。画像処理装置3のCPU310は、ステップS728で抽出した潰瘍面領域の実サイズに関する情報を、ステップS727で取得した距離情報に基づいて解析し、潰瘍面領域の長径と短径、および矩形面積を算出する。褥瘡の評価指標の“DESIGN−R(登録商標)”の中で、褥瘡のサイズは長径と短径の積で評価することが定められている。実施例1に係る画像処理システム1では、長径と短径の解析を行うことで、“DESIGN−R(登録商標)”に従った評価結果との互換性を有する評価結果を得ることができる。“DESIGN−R(登録商標)”には厳密な定義がないため、数学的には長径と短径の複数の算出方法が考えられる。例えば、潰瘍面領域に外接する矩形のうち、面積が最小となる矩形(Minimum bounding rectangle)を算出し、Minimum bounding rectangleの長辺と短辺の長さを算出し、長辺の長さを長径とし、短辺の長さを短径として算出することができる。長径として最大のキャリパー長である最大フェレ径を、短径として、最大フェレ径の軸に直交する方向で計測した長さを選択してもよい。長径と短径の計算方法は、従来の計測結果との互換性に基づいて任意の方法を選択することができる。なお、潰瘍面領域の評価はライブビュー処理中には行われない。ライブビュー処理中には、患部領域402(潰瘍面領域)の抽出結果が確認できればよく、潰瘍面領域の評価を省くことで、画像解析の処理時間を低減し、ライブビューのフレームレートを上げ、撮像装置2の利便性を上げることができる。 The evaluation of the ulcer surface will be specifically described. The CPU 310 of the image processing device 3 analyzes the information regarding the actual size of the ulcer surface region extracted in step S728 based on the distance information acquired in step S727, and calculates the major axis and the minor axis of the ulcer surface region and the rectangular area. To do. In the pressure ulcer evaluation index "DESIGN-R (registered trademark)", it is stipulated that the size of a pressure ulcer is evaluated by the product of the major axis and the minor axis. In the image processing system 1 according to the first embodiment, by analyzing the major axis and the minor axis, it is possible to obtain an evaluation result having compatibility with the evaluation result according to "DESIGN-R (registered trademark)". Since "DESIGN-R (registered trademark)" does not have a strict definition, mathematically, a plurality of calculation methods for major axis and minor axis can be considered. For example, among the rectangles circumscribing the ulcer surface region, the rectangle having the smallest area (Minimum bounding rectangle) is calculated, the lengths of the long side and the short side of the Minimum bounding rectangle are calculated, and the length of the long side is the major axis. The length of the short side can be calculated as the short diameter. The maximum ferret diameter, which is the maximum caliper length as the major diameter, may be selected as the minor diameter, and the length measured in the direction orthogonal to the axis of the maximum ferret diameter may be selected. Any method can be selected for the calculation method of the major axis and the minor axis based on the compatibility with the conventional measurement results. The ulcer surface region is not evaluated during the live view process. During the live view processing, it is sufficient if the extraction result of the affected area 402 (ulcer surface area) can be confirmed. By omitting the evaluation of the ulcer surface area, the processing time of the image analysis can be reduced and the frame rate of the live view can be increased. The convenience of the image pickup apparatus 2 can be improved.

ステップS731の処理は、ステップS727で動画(ステップS712で撮影した動画)を取得した場合に行われる。ステップS731では、画像処理装置3のCPU310は、褥瘡のポケットの大きさが分かる合成画像を作成するために、取得した動画(画像)を解析して、当該動画(画像)に関する各種情報を取得する。具体的には、ライトが移動した軌跡に関する情報を取得する。なお、動画に関する情報の取得方法は特に限定されず、例えば画像処理装置3は外部から情報を取得してもよい。 The process of step S731 is performed when the moving image (moving image taken in step S712) is acquired in step S727. In step S731, the CPU 310 of the image processing device 3 analyzes the acquired moving image (image) in order to create a composite image showing the size of the pressure ulcer pocket, and acquires various information about the moving image (image). .. Specifically, the information about the locus of movement of the light is acquired. The method of acquiring information related to moving images is not particularly limited, and for example, the image processing device 3 may acquire information from the outside.

図11を用いて、画像処理装置3が実行するステップS731の動画解析処理を説明す
る。図11は、図2と同様に、ポケット1100、ポケット1100の入り口部である潰瘍面1101、ライト先端の経路1102、ポケット1100の最深部(端)に到達した時点でのライト先端の位置に対応する点1103を示す。ポケット1100として、皮下部分でみえない面を概念的に図示している。経路1102上の点は、複数のタイミングにそれぞれ対応する、ライト先端の複数の位置を示す。
The moving image analysis process of step S731 executed by the image processing device 3 will be described with reference to FIG. FIG. 11 corresponds to the positions of the pocket 1100, the ulcer surface 1101 which is the entrance of the pocket 1100, the path 1102 of the light tip, and the position of the light tip when reaching the deepest part (end) of the pocket 1100, as in FIG. Point 1103 is shown. As the pocket 1100, the surface that cannot be seen in the subcutaneous part is conceptually illustrated. The points on the path 1102 indicate a plurality of positions of the light tips corresponding to the plurality of timings.

ステップS731の動画解析処理では、CPU310は、上記取得した情報より、ポケット最深部に到達した時点でのライト先端の位置(点1103)を検出する。この点(位置)は、「患部内を移動するライトの軌跡のうち、患部の径方向の端の点」や、「患部の領域と患部とは異なる領域との境界の位置」とも言える。例えば、動画においてライトが患部内を径方向に移動した際の頂点(ポケットに対するライトの挿入から引き抜きに変わる点)を、端の点として検出できる。図11の上側には、ポケットの測定作業の概要が時間列で4段階に分割して示されており、各段階において、点1103が3つ検出されている。図11の下側には、検出された全ての点1103(12個の点1103)が示されている。動画解析処理では、これらの点1103から患部の外周に関する情報を取得する。具体的には、これらの点1103を合成した(結んだ)線1104、例えばスプライン曲線やベジェ曲線で結んだ滑らかな自由曲線を、ポケット外周として判断(推定)する。そして、得られた線1104の形状解析により、ポケット形状を判断する。患部の外周に関する情報(患部の外周の形状、患部の面積、患部の長径、患部の短径など)は、表示などによってユーザーに提供したり、データとして他の装置に提供したりできる。 In the moving image analysis process of step S731, the CPU 310 detects the position of the tip of the light (point 1103) when it reaches the deepest part of the pocket from the acquired information. This point (position) can also be said to be "a point at the radial end of the affected area in the trajectory of the light moving in the affected area" or "the position of the boundary between the affected area and a different area from the affected area". For example, in moving images, the apex (the point where the light changes from being inserted into the pocket to being pulled out) when the light moves in the affected area in the radial direction can be detected as an end point. On the upper side of FIG. 11, the outline of the pocket measurement work is shown in four stages in a time sequence, and three points 1103 are detected in each stage. At the bottom of FIG. 11, all the detected points 1103 (12 points 1103) are shown. In the moving image analysis process, information on the outer circumference of the affected area is acquired from these points 1103. Specifically, the line 1104 that combines (connects) these points 1103, for example, a smooth free curve that connects with a spline curve or a Bezier curve, is determined (estimated) as the outer circumference of the pocket. Then, the pocket shape is determined by the shape analysis of the obtained line 1104. Information on the outer circumference of the affected area (shape of the outer circumference of the affected area, area of the affected area, major axis of the affected area, minor axis of the affected area, etc.) can be provided to the user by display or the like, or can be provided to other devices as data.

図12は、ライトによるポケット測定作業中のライブビュー表示の例であり、検出したマーキング位置(ポケットの最深部に到達した時点でのライト先端の位置)や、マーキング位置から生成(形成)したポケット形状を表示する。 FIG. 12 is an example of the live view display during the pocket measurement work by the light, and shows the detected marking position (the position of the tip of the light when the deepest part of the pocket is reached) and the pocket generated (formed) from the marking position. Display the shape.

画面1201は、ライト1202の先端1203がポケットの最深部に到達した時点でのライブビュー表示の画面である。画面1201から、ライト1202の先端1203がポケット内部で光っていることがわかる。位置1204は、ライブビューで撮像された動画におけるライト1202の動きを解析して得られたマーキング位置であり、画面1201では4点のマーキング位置1204が表示されている。線1205は、これら4点のマーキング位置1204を解析して検出された線(ポケット形状の一部)を示す。 The screen 1201 is a live view display screen when the tip 1203 of the light 1202 reaches the deepest part of the pocket. From the screen 1201, it can be seen that the tip 1203 of the light 1202 is shining inside the pocket. The position 1204 is a marking position obtained by analyzing the movement of the light 1202 in the moving image captured by the live view, and four marking positions 1204 are displayed on the screen 1201. Line 1205 shows a line (a part of the pocket shape) detected by analyzing the marking positions 1204 at these four points.

画面1211は、画面1201の状態の後、ライト1202の先端1203がポケットの最深部から少し引き抜かれた時点でのライブビュー表示の画面である。この時、画面1201におけるライト1202の先端1203の位置が、動画解析によりマーキング位置1204として新たに得られる。このように、動画解析で新たに得られたマーキング位置1204をすぐにライブビュー画面上に表示することで、ポケット測定作業者は、ポケット周辺形状や、ポケット測定作業を正しく行えているかを確認しながら作業を進めることができる。動画解析でマーキング位置1204が新たに表示された場合に、マーキング位置1204を点滅させたり、音を出したりして、新たなマーキング位置1204が追加されたことを知らせるようにしてもよい。ライト1202によるポケット測定作業中に動画解析で得られるマーキング位置1204とポケット形状1205をライブビュー表示することで、所望のマーキング位置を追加したり、明らかに正しくないマーキング位置を削除したりすることができる。 The screen 1211 is a live view display screen when the tip 1203 of the light 1202 is slightly pulled out from the deepest part of the pocket after the state of the screen 1201. At this time, the position of the tip 1203 of the light 1202 on the screen 1201 is newly obtained as the marking position 1204 by the moving image analysis. In this way, by immediately displaying the marking position 1204 newly obtained by the video analysis on the live view screen, the pocket measurement worker confirms the shape around the pocket and whether the pocket measurement work is performed correctly. You can proceed with the work. When the marking position 1204 is newly displayed in the moving image analysis, the marking position 1204 may be blinked or made a sound to notify that the new marking position 1204 has been added. By displaying the marking position 1204 and pocket shape 1205 obtained by video analysis during the pocket measurement work by the light 1202 in live view, it is possible to add a desired marking position or delete an apparently incorrect marking position. it can.

図13は、ライトによるポケット測定作業終了後のライブビュー表示の例であり、検出したマーキング位置や、マーキング位置から生成したポケット形状を表示する。さらに、編集操作によりマーキング位置の追加表示などが可能である。 FIG. 13 is an example of a live view display after the pocket measurement work by the light is completed, and displays the detected marking position and the pocket shape generated from the marking position. Further, the marking position can be additionally displayed by the editing operation.

画面1301は、ポケット測定作業終了時(ポケット測定作業終了直後)でのライブビ
ュー表示の画面である。動画解析により得られたマーキング位置1204とポケット形状1205が表示されている。さらに、画面1301と隣接して、マーキング位置を編集するマーキング位置編集メニュー1302が表示されている。マーキング位置編集メニュー1302は複数の項目1303を含み、ユーザーは複数の項目1303のいずれかを選択することができる。ここでは、複数の項目1303は、「追加」と「移動」と「削除」の3つの項目を含むとする。画面1301では、「追加」が選択されている。
The screen 1301 is a screen for displaying the live view at the end of the pocket measurement work (immediately after the end of the pocket measurement work). The marking position 1204 and the pocket shape 1205 obtained by the moving image analysis are displayed. Further, adjacent to the screen 1301, a marking position editing menu 1302 for editing the marking position is displayed. The marking position edit menu 1302 includes a plurality of items 1303, and the user can select any one of the plurality of items 1303. Here, it is assumed that the plurality of items 1303 include three items of "addition", "move", and "delete". On screen 1301, "Add" is selected.

「追加」が選択されている状態で、ユーザーは、任意の位置をマーキング位置(動画解析で得られた位置ではない)として追加することができる。画面1311は、ユーザーが「追加」を選択して、追加するマーキング位置1312を指定した時点でのライブビュー表示の画面である。画面1311に示すように、ユーザーがマーキング位置1312を指定すると、当該マーキング位置1312が追加表示される。さらに、追加後の複数のマーキング位置を解析した形状に、ポケット形状1205が更新される。 With "Add" selected, the user can add any position as a marking position (not the position obtained by video analysis). The screen 1311 is a screen of the live view display at the time when the user selects "add" and specifies the marking position 1312 to be added. As shown on the screen 1311, when the user specifies the marking position 1312, the marking position 1312 is additionally displayed. Further, the pocket shape 1205 is updated to the shape obtained by analyzing the plurality of marking positions after the addition.

なお、「移動」が選択されている状態では、ユーザーは、画面上のマーキング位置を任意に選択してドラッグ&ドロップすることで、選択したマーキング位置を移動させることができる。この場合も、移動後のマーキング位置を解析した形状に、ポケット形状1205が更新される。また、「削除」が選択されている状態では、ユーザーは、画面上のマーキング位置を任意に指定(選択)することで、指定したマーキング位置を削除することができる。この場合も、削除後の残りのマーキング位置を解析した形状に、ポケット形状1205が更新される。このように、操作に応じた変更後のマーキング位置を結んだ形状に、ポケット形状1205が更新される。 When "Move" is selected, the user can move the selected marking position by arbitrarily selecting and dragging and dropping the marking position on the screen. In this case as well, the pocket shape 1205 is updated to the shape obtained by analyzing the marking position after movement. In addition, when "Delete" is selected, the user can delete the specified marking position by arbitrarily designating (selecting) the marking position on the screen. In this case as well, the pocket shape 1205 is updated to the shape obtained by analyzing the remaining marking positions after deletion. In this way, the pocket shape 1205 is updated to a shape connecting the changed marking positions according to the operation.

図7の説明に戻る。ステップS732では、画像処理装置3のCPU310は、ステップS727で取得した画像(静止画)に対して、患部領域の抽出結果を示す情報および患部領域のサイズに関する情報を重畳する。ポケット有りの褥瘡の場合には、ステップS725で重畳される情報だけでなく、ステップS731における動画解析の結果も重畳する。なお、ステップS727で動画を取得した場合(ポケット有りの褥瘡の場合)は、当該動画の1フレーム(例えばライトによる測定作業でライトがポケットに挿入される前の1フレーム)を選択し、当該1フレームに情報を重畳してもよい。 Returning to the description of FIG. In step S732, the CPU 310 of the image processing device 3 superimposes information indicating the extraction result of the affected area and information on the size of the affected area on the image (still image) acquired in step S727. In the case of a pressure ulcer with a pocket, not only the information superimposed in step S725 but also the result of the moving image analysis in step S731 are superimposed. When the moving image is acquired in step S727 (in the case of a pressure ulcer with a pocket), one frame of the moving image (for example, one frame before the light is inserted into the pocket in the measurement work by the light) is selected, and the 1 frame is selected. Information may be superimposed on the frame.

図14(A)〜14(C)を用いて、ステップS732の重畳処理について説明する。ここでは、患部領域の抽出結果を示す情報として長径と短径を含む情報が重畳されるとする。また、ポケット周辺のマーキング位置、ポケット形状、および、患部領域のサイズに関する情報が重畳されるとする。図14(A)〜14(C)は、ステップS732の重畳処理により得られる重畳画像(合成画像)の一例を示す。 The superimposition process of step S732 will be described with reference to FIGS. 14 (A) to 14 (C). Here, it is assumed that information including a major axis and a minor axis is superimposed as information indicating the extraction result of the affected area. Further, it is assumed that information on the marking position around the pocket, the shape of the pocket, and the size of the affected area is superimposed. 14 (A) to 14 (C) show an example of a superposed image (composite image) obtained by the superimposing process in step S732.

図14(A)は、ポケット無しの褥瘡の場合の重畳画像の一例を示す。図14(A)では、潰瘍面領域のサイズ(面積値)を示す白色の文字列1402を黒色の背景に上に記述したラベル1401が、重畳画像1400の左上隅に重畳されている。潰瘍面領域の長径を示す白色の文字列1404と、潰瘍面領域の短径を示す白色の文字列1405とを黒色の背景に上に記述したラベル1403が、重畳画像1400の右上隅に重畳されている。“DESIGN−R(登録商標)”のSize評価の指標を示す白色の文字列を黒色の背景に上に記述したラベル1406が、重畳画像1400の左下隅に重畳されている。そして、重畳画像1400の右下隅にスケールバー1407が重畳されている。 FIG. 14 (A) shows an example of a superimposed image in the case of a pressure ulcer without a pocket. In FIG. 14A, a label 1401 in which a white character string 1402 indicating the size (area value) of the ulcer surface region is described above on a black background is superimposed on the upper left corner of the superimposed image 1400. A label 1403 having a white character string 1404 indicating the major axis of the ulcer surface region and a white character string 1405 indicating the minor axis of the ulcer surface region described above on a black background is superimposed on the upper right corner of the superimposed image 1400. ing. A label 1406 in which a white character string indicating an index of the Size evaluation of "DESIGN-R (registered trademark)" is described above on a black background is superimposed on the lower left corner of the superimposed image 1400. A scale bar 1407 is superimposed on the lower right corner of the superimposed image 1400.

図14(B)は、ポケット有りの褥瘡の場合の重畳画像の一例を示す。図14(B)の重畳画像1410でも、図14(A)と同様に、潰瘍面領域の長径と短径を示すラベル1403、“DESIGN−R(登録商標)”のSize評価の指標を示すラベル1406、及び、スケールバー1407が重畳されている。但し、図14(B)の重畳画像141
0では、図14(A)のラベル1401の代わりに、ラベル1411が重畳されている。ラベル1411には、潰瘍面領域の面積値を示す文字列1402だけでなく、ポケットの面積値を示す文字列1412も記述されている。ポケットの面積値も、潰瘍面領域の面積値と同様に、被写体距離などに基づいて算出される。さらに、図14(B)の重畳画像1410では、ポケット領域1413と潰瘍面領域1414とが異なる色で塗りつぶされている。このように色分けすることで、ポケット領域1413と潰瘍面領域1414を視覚的に正確に判別することが可能となる。
FIG. 14B shows an example of a superimposed image in the case of a pressure ulcer with a pocket. In the superimposed image 1410 of FIG. 14 (B), as in FIG. 14 (A), the label 1403 indicating the major axis and the minor axis of the ulcer surface region and the label indicating the index of the size evaluation of "DESIGN-R (registered trademark)" are shown. 1406 and scale bar 1407 are superimposed. However, the superimposed image 141 of FIG. 14 (B)
At 0, the label 1411 is superimposed instead of the label 1401 in FIG. 14 (A). Label 1411 describes not only the character string 1402 indicating the area value of the ulcer surface region but also the character string 1412 indicating the area value of the pocket. The area value of the pocket is also calculated based on the subject distance and the like, like the area value of the ulcer surface area. Further, in the superimposed image 1410 of FIG. 14B, the pocket region 1413 and the ulcer surface region 1414 are filled with different colors. By color-coding in this way, the pocket region 1413 and the ulcer surface region 1414 can be visually and accurately distinguished.

なお、ポケット無しの褥瘡の場合(図14(A)の場合)に、ポケットの面積値を示す文字列(図14(B)の文字列1412)の代わりに、ポケットが存在しないことを示す文字列(「Pocket 0」や「No Pocket」等)を重畳してもよい。また、領域の輪郭を示す枠(線)の重畳により、ポケット領域と潰瘍面領域を視覚的に正確に判別可能としてもよい。ポケット無しの褥瘡の場合(図14(A)の場合)にも、潰瘍面領域を塗りつぶしたり、潰瘍面領域の輪郭を示す枠を重畳したりしてよい。また、撮像装置の操作によって、ポケット領域のみの表示、潰瘍面領域のみの表示、及び、ポケット領域と潰瘍面領域の両方の表示を切り替えられるようにしてもよい。そのようにすることで、ポケットと潰瘍面の一方のみの領域に注目して、画像を確認することが可能となる。 In the case of decubitus without pockets (in the case of FIG. 14A), a character indicating that no pocket exists instead of the character string indicating the area value of the pocket (character string 1412 in FIG. 14B). Columns (“Pocket 0”, “No Pocket”, etc.) may be superimposed. In addition, the pocket region and the ulcer surface region may be visually and accurately discriminated by superimposing frames (lines) indicating the contours of the regions. In the case of pressure ulcers without pockets (in the case of FIG. 14A), the ulcer surface region may be filled or a frame showing the outline of the ulcer surface region may be superimposed. Further, the display of only the pocket region, the display of only the ulcer surface region, and the display of both the pocket region and the ulcer surface region may be switched by operating the imaging device. By doing so, it is possible to confirm the image by focusing on the area of only one of the pocket and the ulcer surface.

図14(C)は、ポケット有りの褥瘡の場合の重畳画像の他の例を示す。図14(C)の重畳画像1420でも、図14(B)と同様に、ラベル1411、ラベル1403、ラベル1406、及び、スケールバー1407が重畳されている。図14(C)では、ポケット領域と潰瘍面領域の塗りつぶしは行われておらず、ポケット周辺の複数のマーキング位置を示す複数の点1421と、ポケット形状を示す線1422とが重畳されている。ここで、Minimum bounding rectangleを用いて長径と短径の算出したとする。図14(C)の重畳画像1420では、潰瘍面領域1414を囲むMinimum bounding rectangleを表す矩形枠1423が重畳されている。ポケット無しの褥瘡の場合(図14(A)の場合)にも、Minimum bounding rectangleを表す矩形枠を重畳してよい。 FIG. 14C shows another example of a superimposed image in the case of a pressure ulcer with a pocket. In the superimposed image 1420 of FIG. 14C, the label 1411, the label 1403, the label 1406, and the scale bar 1407 are superimposed as in the case of FIG. 14B. In FIG. 14C, the pocket area and the ulcer surface area are not filled, and a plurality of points 1421 indicating a plurality of marking positions around the pocket and a line 1422 indicating the pocket shape are superimposed. Here, it is assumed that the major axis and the minor axis are calculated using the Minimum bounding rectangle. In the superimposed image 1420 of FIG. 14C, a rectangular frame 1423 representing a Minimum bounding rectangle surrounding the ulcer surface region 1414 is superimposed. In the case of pressure ulcers without pockets (in the case of FIG. 14A), a rectangular frame representing a Minimum bounding rectangle may be superimposed.

図7の説明に戻る。ステップS733では、画像処理装置3のCPU310は、出力部314を用いて、ステップS732で作成した合成画像(重畳画像)を撮像装置2に送信する。なお、患部領域に関する情報が画像処理装置3から撮像装置2に送信され、撮像装置2で合成画像が作成されてもよい。 Returning to the description of FIG. In step S733, the CPU 310 of the image processing device 3 uses the output unit 314 to transmit the composite image (superimposed image) created in step S732 to the image pickup device 2. Information about the affected area may be transmitted from the image processing device 3 to the image pickup device 2, and the image pickup device 2 may create a composite image.

ステップS734では、画像処理装置3のCPU310は、ステップS702で撮影された画像内に含まれる1次元バーコード(不図示)から、被検体を識別する被検体IDを読み取る。なお、ステップS702で撮影された画像の伝送タイミングは特に限定されない。例えば、ステップS714で撮像装置2がステップS702の撮影画像を画像処理装置3に出力し、ステップS727で画像処理装置3がステップS702の撮影画像を撮像装置2から取得してもよい。 In step S734, the CPU 310 of the image processing device 3 reads a subject ID that identifies the subject from the one-dimensional barcode (not shown) included in the image captured in step S702. The transmission timing of the image captured in step S702 is not particularly limited. For example, in step S714, the image processing device 2 may output the captured image of step S702 to the image processing device 3, and in step S727, the image processing device 3 may acquire the captured image of step S702 from the image processing device 2.

ステップS735では、画像処理装置3のCPU310は、ステップS734で読み取った被検体IDを、あらかじめ登録された被写体IDと照合し、現在の被検体の名前を取得(判断)する。現在の被検体の名前や被検体IDが未登録の場合には、CPU310は、現在の被検体の名前や被検体IDを、ユーザーに登録させて取得する。 In step S735, the CPU 310 of the image processing device 3 collates the subject ID read in step S734 with the subject ID registered in advance, and acquires (determines) the name of the current subject. When the current subject name or subject ID is not registered, the CPU 310 causes the user to register and acquire the current subject name or subject ID.

ステップS736では、画像処理装置3のCPU310は、患部の評価結果(ステップS730やステップS731の解析結果)などを含む被検体情報を、ステップS735で判断した被検体のデータとして補助記憶部316に記録する。現在の被検体(被検体ID)に紐づくデータが記録されていない場合は、被検体情報を新規作成し、現在の被検体に
紐づくデータ(被検体情報)が記録されている場合は、被験者情報を更新する。
In step S736, the CPU 310 of the image processing device 3 records the subject information including the evaluation result of the affected area (analysis result of step S730 and step S731) in the auxiliary storage unit 316 as the data of the subject determined in step S735. To do. If the data associated with the current subject (subject ID) is not recorded, create new subject information, and if the data associated with the current subject (subject information) is recorded, Update subject information.

図15を用いて、画像処理装置3に保存する被検体情報1500のデータ構成を説明する。被検体情報1500は、被検体ID1501、被検体の名前1502、被検体ID1501と名前1502に対応する患部情報1510を含む。患部情報1510では撮影日時毎に情報が管理されている。具体的には、患部情報1510は、日付情報1503、患部画像1504、患部評価情報1505、及び、ポケット評価情報1506の組み合わせを1つ以上含む。日付情報1503は、患部の撮影日を示す情報であり、患部画像1504は、患部の評価に使用した画像(患部を撮影した画像)である。患部評価情報1505は、潰瘍面とポケットの両方を含む患部を評価した値を含む。図15の例では、患部評価情報1505は、潰瘍面とポケットの両方を含む患部領域のSize、患部領域の長径、患部領域の短径、及び、DESIGN−Rの評価値を含む。ポケット評価情報1506は、ポケットを評価した値を含む。図15の例では、ポケット評価情報1506は、ポケットの状態を示すポケット状態情報、ポケットのSize、ポケットの長径、及び、ポケットの短径を含む。例えば、潰瘍面を全て包含するポケットありの褥瘡では「ポケット有 皆外包」、潰瘍面に部分的に重なるポケットありの褥瘡では「ポケット有 部分外包」、ポケット無しの褥瘡では「ポケット無」の文字情報が、ポケット状態情報として登録される。ポケット状態情報は、ユーザーによる情報入力で登録されてもよいし、画像解析により自動で登録されてもよい。このように、患部評価情報1505とポケット評価情報1506は区別して生成(算出)されて記録される。被検体情報1500は、表示などによってユーザーに提供したり、データとして他の装置に提供したりできる。 The data structure of the subject information 1500 stored in the image processing apparatus 3 will be described with reference to FIG. The subject information 1500 includes the subject ID 1501, the subject name 1502, and the affected area information 1510 corresponding to the subject ID 1501 and the name 1502. In the affected area information 1510, information is managed for each imaging date and time. Specifically, the affected area information 1510 includes one or more combinations of date information 1503, affected area image 1504, affected area evaluation information 1505, and pocket evaluation information 1506. The date information 1503 is information indicating the shooting date of the affected area, and the affected area image 1504 is an image (an image obtained by photographing the affected area) used for evaluation of the affected area. The affected area evaluation information 1505 includes the value obtained by evaluating the affected area including both the ulcer surface and the pocket. In the example of FIG. 15, the affected area evaluation information 1505 includes the size of the affected area including both the ulcer surface and the pocket, the major axis of the affected area, the minor axis of the affected area, and the evaluation value of DESIGN-R. The pocket evaluation information 1506 includes a value obtained by evaluating the pocket. In the example of FIG. 15, the pocket evaluation information 1506 includes pocket state information indicating the state of the pocket, the size of the pocket, the major axis of the pocket, and the minor axis of the pocket. For example, for pressure ulcers with pockets that cover the entire ulcer surface, the letters "all pockets with pockets", for pressure ulcers with pockets that partially overlap the ulcer surface, "partial outer capsules with pockets", and for pressure ulcers without pockets, "no pockets". The information is registered as pocket status information. The pocket state information may be registered by inputting information by the user, or may be automatically registered by image analysis. In this way, the affected area evaluation information 1505 and the pocket evaluation information 1506 are separately generated (calculated) and recorded. The subject information 1500 can be provided to the user by display or the like, or can be provided to other devices as data.

ステップS715では、撮像装置2のシステム制御部219は、通信部218を用いて、ステップS733で画像処理装置3が送信した合成画像(重畳画像)を受信(取得)する。 In step S715, the system control unit 219 of the image pickup apparatus 2 uses the communication unit 218 to receive (acquire) the composite image (superimposed image) transmitted by the image processing apparatus 3 in step S733.

ステップS716では、撮像装置2のシステム制御部219は、ステップS715で受信した合成画像を表示部222に表示する。 In step S716, the system control unit 219 of the image pickup apparatus 2 displays the composite image received in step S715 on the display unit 222.

次に、図16(A)のフローチャートを用いて、図7のステップS731の動画解析処理の一例について説明する。ここでは、動画解析処理により、褥瘡のポケットの大きさが分かる合成画像を生成する例を説明する。この場合は、図7のステップS732において、図16(A)のフローチャートで生成された合成画像に情報を重畳してもよい。 Next, an example of the moving image analysis process in step S731 of FIG. 7 will be described with reference to the flowchart of FIG. 16 (A). Here, an example of generating a composite image showing the size of a pressure ulcer pocket by moving image analysis processing will be described. In this case, in step S732 of FIG. 7, information may be superimposed on the composite image generated by the flowchart of FIG. 16 (A).

ステップS1600では、画像処理装置3のCPU310は、動画の複数のフレームの中から基準となるフレーム(基準画像)を選択する。後述するステップS1605では、この基準画像に対して、ライト領域(ライトの発光領域;ライト先端の位置;光が発せられる位置)を合成する。ライトでの計測(図2)中のフレームには人の手やライトが映ってしまっているため、そのような余計なものが映っていない計測前のフレームを基準画像として選択するのが望ましい。例えば、ライトをポケットに入れる前に動画撮影を開始し、動画の先頭フレームを基準画像として選択することで、余計なものが映っていない基準画像を得ることができる。また、予めライトの形状と色情報を取得しておき、ライトに該当する領域が動画のフレーム内に含まれているかどうかを解析して、ライトに該当する領域が含まれていないフレームを基準画像として選択してもよい。 In step S1600, the CPU 310 of the image processing device 3 selects a reference frame (reference image) from a plurality of frames of the moving image. In step S1605, which will be described later, a light region (light emitting region; position of the tip of the light; position where light is emitted) is synthesized with respect to this reference image. Since human hands and lights are reflected in the frame during measurement with a light (Fig. 2), it is desirable to select a frame before measurement that does not show such extraneous objects as a reference image. For example, by starting movie shooting before putting the light in the pocket and selecting the first frame of the movie as the reference image, it is possible to obtain a reference image that does not show any unnecessary things. In addition, the shape and color information of the light is acquired in advance, it is analyzed whether or not the area corresponding to the light is included in the frame of the moving image, and the frame not including the area corresponding to the light is used as the reference image. May be selected as.

ステップS1601では、画像処理装置3のCPU310は、基準画像から潰瘍面領域を検出する。ここで潰瘍面領域を検出するのは、潰瘍面領域の検出結果を基準としてライト領域を合成するためである。撮像装置2と被写体がライトでの計測中に全く動かなければ、潰瘍面領域を基準にしてライト領域を合成する必要はないが、現実的には難しいため、潰瘍面領域などの基準領域を設けてライト領域を合成する。潰瘍面領域の検出は、図7
のステップS728と同様の手法で行う。ここで、ライトでの計測中は潰瘍面領域がライトや作業者の手で隠れてしまうことも考えられる。そのような場合を考慮して、例えば、図17のように潰瘍面の近くにマーカー1701,1702を配置し、配置されたマーカーを、ライト領域を合成するため基準として検出してもよい。図17の例では、計測中にマーカーが隠れてしまう場合を考慮して、2つのマーカー1701,1702を配置している。なお、マーカーは3つ以上配置してもよい。また、患者(被験者)の体部に特徴となるようなものがあれば、それを基準としてもよい。
In step S1601, the CPU 310 of the image processing apparatus 3 detects the ulcer surface region from the reference image. Here, the ulcer surface region is detected in order to synthesize the light region based on the detection result of the ulcer surface region. If the image pickup device 2 and the subject do not move at all during the measurement with the light, it is not necessary to synthesize the light region with reference to the ulcer surface region, but since it is practically difficult, a reference region such as the ulcer surface region is provided. And synthesize the light area. Detection of the ulcer surface area is shown in FIG.
This is performed in the same manner as in step S728 of the above. Here, it is conceivable that the ulcer surface area may be hidden by the light or the operator's hand during the measurement with the light. In consideration of such a case, for example, markers 1701 and 1702 may be placed near the ulcer surface as shown in FIG. 17, and the placed markers may be detected as a reference for synthesizing the light region. In the example of FIG. 17, two markers 1701 and 1702 are arranged in consideration of the case where the markers are hidden during the measurement. In addition, three or more markers may be arranged. In addition, if there is something characteristic of the body of the patient (subject), that may be used as a reference.

次に説明するステップS1602〜S1605の処理は、動画の全フレームに対して行われるように1フレームずつ繰り返される。ステップS1602では、画像処理装置3のCPU310は、対象画像(処理対象のフレーム)からライト領域を検出する。ここでは、ライト領域が、赤く丸いという特徴を有するとする。ステップS1602では、このような特徴を有する領域を、ライト領域として、対象画像から検出する。なお、所定のサイズ(動画中のサイズの変化が所定以内)のまま動画中で移動している赤い点をライトの位置としてもよい。ステップS1603では、対象画像から潰瘍面領域を検出する。前述した通り、潰瘍面領域を基準にしてライト領域を合成するために、潰瘍面領域を検出する必要がある。ステップS1604では、対象画像の射影変換を行う。ライトでの計測中は、被写体に対する撮像装置2の相対的な向きや位置が変わってしまう可能性があるため、射影変換を行うことで、ライト領域を正確に合成できるようにする。射影変換の具体的な方法については後述する。ステップS1605では、基準画像に対して射影変換後のライト領域を合成する。ステップS1602〜S1605の処理を全てのフレームに対して行うことで、図18(A)の合成画像1800を得ることができる。もしくは、所定時間ごとのフレームを用いてライトの軌跡の点を求めてもよい。このとき、患部の端にライトが達したフレームは所定時間ごとのフレームに対応するフレームでなくても合成用の画像に含めるようにすればよい。例えば、T=0.01秒や0.02秒、0.03秒ごとのフレームの画像より、ライトの領域を合成することにより合成画像を作成する。このとき、患部に対するライトの位置を各画像から検出し、ライトの位置を示すアイテムを表示するようにしてもよい。つまり、基準画像のライトのみが実際のライトとして表示され、その他の画像のライトはライトがある位置に対応する基準画像の位置に赤い点や黒い点などのアイテムを表示するようにしてもよい。 The processing of steps S1602 to S1605 described below is repeated frame by frame so as to be performed for all frames of the moving image. In step S1602, the CPU 310 of the image processing device 3 detects a light region from the target image (frame to be processed). Here, it is assumed that the light region has a characteristic of being red and round. In step S1602, a region having such a feature is detected from the target image as a light region. The position of the light may be a red dot that is moving in the moving image with the predetermined size (the change in size in the moving image is within the predetermined size). In step S1603, the ulcer surface region is detected from the target image. As described above, it is necessary to detect the ulcer surface region in order to synthesize the light region with respect to the ulcer surface region. In step S1604, the projective transformation of the target image is performed. Since the relative orientation and position of the image pickup device 2 with respect to the subject may change during the measurement with the light, the light region can be accurately combined by performing the projective conversion. The specific method of projective transformation will be described later. In step S1605, the light region after the projective transformation is combined with the reference image. By performing the processing of steps S1602 to S1605 for all the frames, the composite image 1800 of FIG. 18A can be obtained. Alternatively, the point of the locus of the light may be obtained by using the frame at predetermined time intervals. At this time, the frame in which the light reaches the edge of the affected portion may be included in the composite image even if it is not the frame corresponding to the frame at predetermined time intervals. For example, a composite image is created by synthesizing a light region from a frame image every T = 0.01 seconds, 0.02 seconds, or 0.03 seconds. At this time, the position of the light with respect to the affected area may be detected from each image, and an item indicating the position of the light may be displayed. That is, only the light of the reference image may be displayed as the actual light, and the lights of the other images may display items such as red dots and black dots at the position of the reference image corresponding to the position of the light.

なお、端の点が分かりやすいように、患部の径方向の端の位置のライトは他のライトとは異なる表示形態で表示するようにしてもよい。例えば、端の位置のライトは輝度を上げて合成画像を生成してもよい。もしくは、ライトの位置をアイテムで示す場合には、アイテムの色を変えて表示をしてもよい。ライトの軌跡を示すような線などを表示してもよい。このように、ユーザーが端の位置やライトの軌跡を分かりやすくすることによって、ユーザーが外周を描きやすくなる。 The light at the radial end of the affected area may be displayed in a display form different from that of other lights so that the end points can be easily understood. For example, the light at the edge position may be increased in brightness to generate a composite image. Alternatively, when the position of the light is indicated by an item, the color of the item may be changed and displayed. A line or the like indicating the trajectory of the light may be displayed. In this way, by making it easier for the user to understand the position of the edge and the trajectory of the light, it becomes easier for the user to draw the outer circumference.

また、所定時間ごとでなくても、ライトが所定距離移動するごとに合成用の画像として取得するようにしてもよい。 Further, even if it is not every predetermined time, it may be acquired as an image for compositing every time the light moves a predetermined distance.

なお、動画とともに撮影された静止画を基準画像として用いてもよいし、ステップS1601の処理結果の代わりに、ステップS728の処理結果を用いてもよい。 A still image taken together with the moving image may be used as a reference image, or the processing result of step S728 may be used instead of the processing result of step S1601.

次に、図16(B)のフローチャートを用いて、図16(A)のステップS1604の処理(射影変換)について説明する。ステップS1610では、画像処理装置3のCPU310は、基準画像の潰瘍面領域(ステップS1601で検出された潰瘍面領域)の特徴点を抽出する。ここでは、特徴点として、潰瘍面領域外周上の任意の点を抽出するとする。ステップS1611では、ステップS1610と同様に、画像処理装置3のCPU310は、対象画像の潰瘍面領域から特徴点を抽出する。ステップS1612では、画像処理
装置3のCPU310は、ステップS1610で抽出した特徴点(基準画像の潰瘍面領域の特徴点)とステップS1611で抽出した特徴点(対象画像の潰瘍面領域の特徴点)とのマッチングを行う。このマッチングにより、基準画像と対象画像の間で互いに対応する特徴点を識別する。ステップS1613では、画像処理装置3のCPU310は、ステップS1612のマッチング結果を基にして、対象画像の潰瘍面領域が基準画像の潰瘍面領域と同一の領域(平面)になるような射影変換の逆行列を算出する。ステップS1614では、画像処理装置3のCPU310は、ステップS1613で算出した逆行列を使って、対象画像の射影変換を行う。このような射影変換を行うことで、被写体に対する撮像装置2の向きの変化を抑えた画像を得ることが可能となる。
Next, the process (projection transformation) of step S1604 of FIG. 16A will be described with reference to the flowchart of FIG. 16B. In step S1610, the CPU 310 of the image processing device 3 extracts the feature points of the ulcer surface region (the ulcer surface region detected in step S1601) of the reference image. Here, it is assumed that an arbitrary point on the outer periphery of the ulcer surface region is extracted as a feature point. In step S1611, similarly to step S1610, the CPU 310 of the image processing device 3 extracts feature points from the ulcer surface region of the target image. In step S1612, the CPU 310 of the image processing apparatus 3 includes the feature points extracted in step S1610 (feature points in the ulcer surface region of the reference image) and the feature points extracted in step S1611 (feature points in the ulcer surface region of the target image). Matching. By this matching, feature points corresponding to each other are identified between the reference image and the target image. In step S1613, the CPU 310 of the image processing apparatus 3 reverses the projective transformation so that the ulcer surface region of the target image becomes the same region (plane) as the ulcer surface region of the reference image based on the matching result of step S1612. Calculate the matrix. In step S1614, the CPU 310 of the image processing device 3 performs a projective transformation of the target image using the inverse matrix calculated in step S1613. By performing such a projective conversion, it is possible to obtain an image in which the change in the orientation of the image pickup apparatus 2 with respect to the subject is suppressed.

図18(A)の合成画像1800は、図7のステップS733,S715で送受信し、ステップS716で撮像装置2に表示することができる(合成画像の提供)。その場合は、図7のステップS717にて、システム制御部219は、ポケットの外周を描画する外周描画処理を行う。図19のフローチャートを用いて、撮像装置2に合成画像1800を表示した後の外周描画処理について説明する。合成画像1800ではライトの移動軌跡が視覚的に分かるため、ポケットの領域をユーザーが簡単に把握することができる。なお、ライトの移動の軌跡に関する情報が提供できれば、提供方法は特に限定されない。 The composite image 1800 of FIG. 18A can be transmitted and received in steps S733 and S715 of FIG. 7 and displayed on the image pickup apparatus 2 in step S716 (providing the composite image). In that case, in step S717 of FIG. 7, the system control unit 219 performs an outer circumference drawing process for drawing the outer circumference of the pocket. The outer circumference drawing process after displaying the composite image 1800 on the image pickup apparatus 2 will be described with reference to the flowchart of FIG. Since the movement locus of the light can be visually recognized in the composite image 1800, the user can easily grasp the pocket area. As long as information on the trajectory of the movement of the light can be provided, the method of providing the information is not particularly limited.

ステップS1900では、撮像装置2のシステム制御部219は、ユーザーにポケット外周の入力を促す。ポケットの外周は、撮像装置2(表示部222)の画面上をユーザーが指でなぞることで入力されてもよいし、タッチペンなどの入力デバイスを用いて入力されてもよい。図18(B)は、ユーザーがポケット外周を入力した後の表示例を示す。図18(B)の画像1810では、ライト領域の頂点(外側)に沿って、ポケット外周1811が入力されており、図18(A)の合成画像1800上にポケット外周1811が重畳表示されている。 In step S1900, the system control unit 219 of the image pickup apparatus 2 prompts the user to input the outer circumference of the pocket. The outer circumference of the pocket may be input by the user tracing the screen of the image pickup apparatus 2 (display unit 222) with a finger, or may be input by using an input device such as a touch pen. FIG. 18B shows a display example after the user inputs the outer circumference of the pocket. In the image 1810 of FIG. 18 (B), the pocket outer circumference 1811 is input along the apex (outside) of the light region, and the pocket outer circumference 1811 is superimposed and displayed on the composite image 1800 of FIG. 18 (A). ..

ステップS1901では、撮像装置2のシステム制御部219は、通信部218を用いて、ポケット外周1811が描画された合成画像1810と、ポケット外周1811に関するポケット外周情報とを画像処理装置3へ送信する。 In step S1901, the system control unit 219 of the imaging device 2 uses the communication unit 218 to transmit the composite image 1810 on which the pocket outer periphery 1811 is drawn and the pocket outer periphery information regarding the pocket outer periphery 1811 to the image processing device 3.

ステップS1910では、画像処理装置3のCPU310は、入力部313を用いて、ステップS1901で撮像装置2が送信した合成画像1810とポケット外周情報を受信する。 In step S1910, the CPU 310 of the image processing device 3 uses the input unit 313 to receive the composite image 1810 and the pocket outer circumference information transmitted by the image pickup device 2 in step S1901.

ステップS1911では、画像処理装置3のCPU310は、ステップS1910で受信した合成画像1810とポケット外周情報を基にして、ポケット領域の面積(サイズ)を算出する。ここでは、ポケット外周1811で囲まれた領域の面積から潰瘍面領域1812の面積を減算することで、ポケット領域の面積を算出するとする。すなわち、図18(C)の領域1821の部分の面積を算出する。なお、DESIGN−Rの計算方法に沿って面積を算出してもよい。 In step S1911, the CPU 310 of the image processing device 3 calculates the area (size) of the pocket area based on the composite image 1810 received in step S1910 and the pocket outer circumference information. Here, it is assumed that the area of the pocket region is calculated by subtracting the area of the ulcer surface region 1812 from the area of the region surrounded by the outer circumference of the pocket 1811. That is, the area of the region 1821 in FIG. 18C is calculated. The area may be calculated according to the calculation method of DESIGN-R.

ステップS1912では、画像処理装置3のCPU310は、基準画像(合成画像1800の元となった画像)に対して、ポケット領域や、その面積(ステップS1911で算出)などの情報を重畳する。そうすることで、図14(B),14(C)に示すような合成画像が得られる。 In step S1912, the CPU 310 of the image processing device 3 superimposes information such as a pocket area and its area (calculated in step S1911) on the reference image (the image that is the source of the composite image 1800). By doing so, a composite image as shown in FIGS. 14 (B) and 14 (C) can be obtained.

ステップS1913では、画像処理装置3のCPU310は、出力部314を用いて、ステップS1912で作成した合成画像を撮像装置2に送信する。 In step S1913, the CPU 310 of the image processing device 3 uses the output unit 314 to transmit the composite image created in step S1912 to the image pickup device 2.

ステップS1902では、撮像装置2のシステム制御部219は、通信部218を用い
て、ステップS1913で画像処理装置3が送信した合成画像を受信する。
In step S1902, the system control unit 219 of the image pickup apparatus 2 uses the communication unit 218 to receive the composite image transmitted by the image processing apparatus 3 in step S1913.

ステップS1903では、撮像装置2のシステム制御部219は、ステップS1902で受信した合成画像を表示する。このようにすることで、患者(被検体)の皮膚の上に直接マジックでポケット領域をマーキングすることなく、ポケット領域の大きさを測定することができるようになる。 In step S1903, the system control unit 219 of the image pickup apparatus 2 displays the composite image received in step S1902. By doing so, the size of the pocket area can be measured without directly marking the pocket area on the skin of the patient (subject) with magic.

図16(A),16(B)では、射影変換を行った後にライト領域を合成することで、ライト領域の位置が正確に反映されている合成画像を作成するようにしている。別の方法として、撮影時の焦点距離を使用する方法が考えられる。ライトでのポケット領域の計測には時間がかかるため、撮影中(計測中)に患者と撮像装置2の距離が変わってしまうことが考えられる。ここで、撮影時には焦点距離情報も取得できるため、この情報を使って画像を拡大や縮小することが可能である。 In FIGS. 16A and 16B, a composite image in which the position of the light region is accurately reflected is created by synthesizing the light region after performing the projective transformation. As another method, a method of using the focal length at the time of shooting can be considered. Since it takes time to measure the pocket area with the light, it is conceivable that the distance between the patient and the imaging device 2 changes during imaging (during measurement). Here, since the focal length information can also be acquired at the time of shooting, it is possible to enlarge or reduce the image by using this information.

撮影時の焦点距離を使用して合成画像を作成する方法について、図20のフローチャートを用いて説明する。ステップS2000は図16(A)のステップS1600と同じであり、ステップS2001はステップS1601と同じである。ステップS2002では、画像処理装置3のCPU310は、基準画像の焦点距離を取得する。ステップS2003〜S2007の処理は、動画の全フレームに対して行われるように1フレームずつ繰り返される。ステップS2003では、画像処理装置3のCPU310は、対象画像の焦点距離を取得する。ステップS2004では、画像処理装置3のCPU310は、基準画像の焦点距離に合うように対象画像を拡大または縮小する。ステップS2005は図16(A)のステップS1602と同じであり、ステップS2006は図1ステップS1603と同じであり、ステップS2007はステップS1605と同じである。このように焦点距離を使うことで、ライト領域の位置が正確に反映されている合成画像を作成することができる。 A method of creating a composite image using the focal length at the time of shooting will be described with reference to the flowchart of FIG. Step S2000 is the same as step S1600 in FIG. 16A, and step S2001 is the same as step S1601. In step S2002, the CPU 310 of the image processing device 3 acquires the focal length of the reference image. The processing of steps S2003 to S2007 is repeated frame by frame so as to be performed for all frames of the moving image. In step S2003, the CPU 310 of the image processing device 3 acquires the focal length of the target image. In step S2004, the CPU 310 of the image processing apparatus 3 enlarges or reduces the target image so as to match the focal length of the reference image. Step S2005 is the same as step S1602 in FIG. 16A, step S2006 is the same as step S1603 in FIG. 1, and step S2007 is the same as step S1605. By using the focal length in this way, it is possible to create a composite image that accurately reflects the position of the light region.

図16(A),16(B),20において、撮影した動画の全フレームを対象画像として用いると、ライトをポケットに入れる前後のフレームのライト領域も合成されてしまう場合がある。そのように得られた合成画像ではライト領域の軌跡がわかりにくいため、指定した期間のフレーム(ライト領域)を削除できると使い勝手が良くなる。そのような操作が可能なUI(画面2100)を示したものが図21(A),21(B)である。 In FIGS. 16A, 16B, and 20, when all the frames of the captured moving image are used as the target images, the light areas of the frames before and after the light is put in the pocket may also be combined. Since it is difficult to understand the locus of the light region in the composite image obtained in this way, it is easier to use if the frame (light region) of the specified period can be deleted. 21 (A) and 21 (B) show UIs (screens 2100) capable of such operations.

画面2100は、合成画像と、不要なフレーム(不要なライト領域)を合成画像から削除するためのコントロールアイテム2102〜2104とを含む。アイテム2102は時間軸を示すスライダーバーであり、アイテム2103,2104は、不要なフレームを削除するためのスライダーである。スライダー2103,2104を左右に動かすことで、不要なフレームを削除することができる。図21(A)の状態では、スライダー2103,2104がスライダーバー2102の両端に置かれており、動画の全フレームを合成した合成画像2101が表示されている。合成画像2101では、ライトをポケットに入れる前後のフレーム(ライト領域)も合成されており、ライト領域の軌跡がわかりにくい。一方で、図21(B)の状態では、スライダー2103からスライダー2104までの範囲が図21(A)から狭められている。この場合には、スライダー2103に対応するフレームより前のフレームと、スライダー2104に対応するフレームより後のフレームとが合成されなくなる。その結果、ライトをポケットに入れる前後のフレームが合成されていない、ライト領域の軌跡がわかりやすい合成画像2111を表示することができる。このようにスライダー2103,2104の位置を調整することで、不要な期間のライト領域を合成対象外とすることが可能となる。 The screen 2100 includes a composite image and control items 2102-2104 for deleting unnecessary frames (unnecessary light areas) from the composite image. Item 2102 is a slider bar indicating a time axis, and items 2103 and 2104 are sliders for deleting unnecessary frames. By moving the sliders 2103 and 2104 left and right, unnecessary frames can be deleted. In the state of FIG. 21A, sliders 2103 and 2104 are placed at both ends of the slider bar 2102, and a composite image 2101 in which all frames of the moving image are combined is displayed. In the composite image 2101, the frames (light regions) before and after the light is put in the pocket are also composited, and the trajectory of the light region is difficult to understand. On the other hand, in the state of FIG. 21 (B), the range from the slider 2103 to the slider 2104 is narrowed from that of FIG. 21 (A). In this case, the frame before the frame corresponding to the slider 2103 and the frame after the frame corresponding to the slider 2104 are not combined. As a result, it is possible to display the composite image 2111 in which the frames before and after the light is put in the pocket are not composited and the locus of the light region is easy to understand. By adjusting the positions of the sliders 2103 and 2104 in this way, it is possible to exclude the light region during an unnecessary period from the synthesis target.

このように、実施例1によれば、撮像装置2でライトによるポケット測定作業を動画撮
像して、画像処理装置3で動画解析してポケット形状が分かる合成画像を作成することができる。また、その合成画像を撮像装置2に送信して、ユーザーがポケット領域を簡単に指定することができる。
As described above, according to the first embodiment, the image pickup device 2 can image the pocket measurement work by the light as a moving image, and the image processing device 3 can perform the moving image analysis to create a composite image in which the pocket shape can be understood. Further, the composite image can be transmitted to the image pickup apparatus 2 so that the user can easily specify the pocket area.

[実施例2]
実施例1では、撮像装置2と画像処理装置3を別々の装置としたが、画像処理装置3の機能構成は撮像装置2に設けてもよい(撮像装置2と画像処理装置3が一体で構成されてもよい)。そのようにすることで、撮像装置2が画像処理装置3と通信するといった処理が不要となり、処理負荷を低減することができる。また、実施例1では、ポケット領域が分かる合成画像を撮像装置2に送信して、撮像装置2上でユーザーがポケット外周を入力する構成としたが、ポケット外周の入力は必ずしも撮像装置2に対し行う必要は無い。例えば、合成画像は画像処理装置3に保存しておき、画像処理装置3にディスプレイやマウスといった入出力デバイスを接続して、ユーザーが画像処理装置3にポケット外周を入力することも考えられる。また、合成画像は画像処理装置3に保存しておき、画像処理装置3とは異なる他の画像処理装置(PC、スマートフォン、タブレットなど)にユーザーがポケット外周を入力し、他の画像処理装置から画像処理装置3にポケット外周を通知することも考えられる。
[Example 2]
In the first embodiment, the image pickup device 2 and the image processing device 3 are separate devices, but the functional configuration of the image processing device 3 may be provided in the image pickup device 2 (the image pickup device 2 and the image processing device 3 are integrally configured). May be done). By doing so, it becomes unnecessary for the image pickup apparatus 2 to communicate with the image processing apparatus 3, and the processing load can be reduced. Further, in the first embodiment, a composite image showing the pocket area is transmitted to the image pickup device 2, and the user inputs the outer circumference of the pocket on the image pickup device 2. However, the input of the outer circumference of the pocket is not necessarily applied to the image pickup device 2. You don't have to do it. For example, it is conceivable that the composite image is stored in the image processing device 3, an input / output device such as a display or a mouse is connected to the image processing device 3, and the user inputs the outer periphery of the pocket to the image processing device 3. Further, the composite image is stored in the image processing device 3, and the user inputs the outer periphery of the pocket to another image processing device (PC, smartphone, tablet, etc.) different from the image processing device 3, and the other image processing device sends the composite image. It is also conceivable to notify the image processing device 3 of the outer periphery of the pocket.

[実施例3]
実施例1では、潰瘍面領域の面積算出と、ポケット領域の大きさが分かる合成画像の作成とを同じタイミング(同じフローチャート)で実施したが、それらを別々のタイミングで実施してもよい。例えば、病院の事情で、潰瘍面領域の測定と、ライトを使ったポケット領域の測定とを別々のタイミングで行うことも考えられる。そのような状況で、図14(B)の重畳画像1410(合成画像)のように潰瘍面領域とポケット領域(塗りつぶし画像)を重畳しようとしたとする。そのような場合、潰瘍面領域の測定のタイミングと、ポケット領域の測定のタイミングとの間で、測定時の患者の姿勢が大きく変わること等により、撮像装置2と患者の間の距離が変わることがある。このため、潰瘍面領域またはポケット領域を正しい大きさで重畳することができない。そのような場合は、撮影時の焦点距離を使って、片方の画像(領域)を拡大または縮小することで、正しい大きさで潰瘍面領域とポケット領域を重畳した合成画像を得ることが可能となる。
[Example 3]
In Example 1, the calculation of the area of the ulcer surface region and the creation of the composite image showing the size of the pocket region were performed at the same timing (same flowchart), but they may be performed at different timings. For example, due to hospital circumstances, it is conceivable to measure the ulcer surface area and the pocket area using a light at different timings. In such a situation, it is attempted to superimpose the ulcer surface region and the pocket region (filled image) as shown in the superimposed image 1410 (composite image) of FIG. 14 (B). In such a case, the distance between the imaging device 2 and the patient changes due to a large change in the posture of the patient at the time of measurement between the timing of measurement of the ulcer surface region and the timing of measurement of the pocket region. There is. Therefore, the ulcer surface area or the pocket area cannot be overlapped with the correct size. In such a case, it is possible to obtain a composite image in which the ulcer surface area and the pocket area are superimposed with the correct size by enlarging or reducing one image (area) using the focal length at the time of shooting. Become.

なお、潰瘍面領域の測定と、ライトを使ったポケット領域の測定とが別々のタイミングで行われたとしても、それらのタイミング間で撮影距離が変わらないようにできれば、潰瘍面領域とポケット領域の重畳が楽になる。例えば、潰瘍面領域の測定を先に行い、後日ポケット領域の測定を行う場合、同じ撮影距離で測定を行えば、潰瘍面領域とポケット領域の縮尺が同じになり、画像(潰瘍面領域とポケット領域)の重畳が楽になる。このため、潰瘍面領域の測定時の撮影距離を保持しておき、ポケット領域の撮影時は、撮影距離が潰瘍面領域の測定時(潰瘍面領域を測定するための撮影時)と同じになったタイミングで撮影を開始するように撮影制御を行うとよい。撮影が開始されたら、検査者がライトでポケット領域の測定を開始する必要もあるため、撮像装置2上に撮影が開始されたことを知らせるようにしてもよい。このように撮影開始のタイミングを自動で決定することにより、複数回の測定の間で撮影距離を合わせることが可能となる。 Even if the measurement of the ulcer surface area and the measurement of the pocket area using the light are performed at different timings, if the shooting distance can be kept unchanged between those timings, the ulcer surface area and the pocket area can be measured. Superimposition becomes easier. For example, when the ulcer surface area is measured first and the pocket area is measured at a later date, if the measurement is performed at the same shooting distance, the scale of the ulcer surface area and the pocket area will be the same, and the image (the ulcer surface area and the pocket) will be the same. Area) superimposition becomes easier. Therefore, the imaging distance at the time of measuring the ulcer surface region is maintained, and the imaging distance at the time of photographing the pocket region is the same as that at the time of measuring the ulcer surface region (at the time of imaging for measuring the ulcer surface region). It is advisable to control the shooting so that the shooting starts at the same timing. Since it is also necessary for the inspector to start measuring the pocket area with a light when the imaging is started, the imaging device 2 may be notified that the imaging has started. By automatically determining the timing of starting shooting in this way, it is possible to adjust the shooting distance between a plurality of measurements.

[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1:画像処理システム
2:撮像装置
211:撮像部 217:画像処理部 219:システム制御部 222:表示部
223:操作部
3:画像処理装置
310:中央演算処理部(CPU) 313:入力部 314:出力部
1: Image processing system 2: Image processing device 211: Imaging unit 217: Image processing unit 219: System control unit 222: Display unit 223: Operation unit 3: Image processing device 310: Central processing unit (CPU) 313: Input unit 314 : Output section

Claims (20)

撮影された動画に関する情報を取得する取得手段と、
前記取得手段により取得された前記情報より、患部内を移動するライトの軌跡のうち、前記患部の径方向の端の点を検出する検出手段と、
前記検出手段により検出された複数の点から患部の外周に関する情報を提供する提供手段と
を有することを特徴とする画像処理システム。
An acquisition method for acquiring information about the recorded video,
From the information acquired by the acquisition means, a detection means for detecting a point at the radial end of the affected portion in the locus of the light moving in the affected portion.
An image processing system comprising a providing means for providing information on the outer circumference of an affected portion from a plurality of points detected by the detecting means.
前記取得手段は、ライトが移動した軌跡に関する情報を取得する
ことを特徴とする請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the acquisition means acquires information regarding a locus in which a light has moved.
前記検出手段は、前記動画においてライトが患部内を径方向に移動した際の頂点を前記端の点として検出する
ことを特徴とする請求項1または2に記載の画像処理システム。
The image processing system according to claim 1 or 2, wherein the detection means detects an apex when the light moves in the affected portion in the radial direction as a point at the end in the moving image.
前記端の点とは患部の領域と患部とは異なる領域との境界の位置である
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理システム。
The image processing system according to any one of claims 1 to 3, wherein the point at the end is a position of a boundary between a region of the affected portion and a region different from the affected portion.
前記ライトは、患部内を径方向、かつ、患部の中心付近の所定の領域から患部の端の位置へと移動し、さらに前記所定の領域へと移動することを繰り返す
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理システム。
The claim is characterized in that the light moves in the affected portion in the radial direction from a predetermined region near the center of the affected portion to the position of the edge of the affected portion, and then repeatedly moves to the predetermined region. The image processing system according to any one of 1 to 4.
前記患部の外周に関する情報は、前記複数の点を結ぶことにより形成される前記患部の外周の形を含む
ことを特徴とする請求項1〜5のいずれか1項に記載の画像処理システム。
The image processing system according to any one of claims 1 to 5, wherein the information regarding the outer circumference of the affected portion includes the shape of the outer circumference of the affected portion formed by connecting the plurality of points.
前記患部の外周に関する情報は、前記複数の点を結ぶことにより形成される前記患部の面積を含む
ことを特徴とする請求項1〜6のいずれか1項に記載の画像処理システム。
The image processing system according to any one of claims 1 to 6, wherein the information regarding the outer circumference of the affected portion includes an area of the affected portion formed by connecting the plurality of points.
前記患部の外周に関する情報は、前記複数の点を結ぶことにより形成される前記患部の長径または短径の長さを含む
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理システム。
The image according to any one of claims 1 to 7, wherein the information regarding the outer circumference of the affected portion includes a major axis or a minor axis length of the affected portion formed by connecting the plurality of points. Processing system.
前記複数の点は、スプライン曲線またはベジェ曲線で結ばれる
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理システム。
The image processing system according to any one of claims 1 to 8, wherein the plurality of points are connected by a spline curve or a Bezier curve.
前記提供手段は、前記複数の点と、前記複数の点を結んだ線とを、前記患部の画像に重畳して表示するように制御する
ことを特徴とする請求項1〜9のいずれか1項に記載の画像処理システム。
Any one of claims 1 to 9, wherein the providing means controls the plurality of points and a line connecting the plurality of points so as to superimpose and display the image of the affected portion. The image processing system described in the section.
前記提供手段は、前記動画をライブビューで表示するように制御すると共に、現在までに前記検出手段により検出された複数の点を繋いだ線を前記動画に重畳して表示するように制御する
ことを特徴とする請求項1〜10のいずれか1項に記載の画像処理システム。
The providing means controls to display the moving image in a live view, and controls to superimpose and display a line connecting a plurality of points detected by the detecting means so far on the moving image. The image processing system according to any one of claims 1 to 10.
前記外周を形成するための点の削除、前記外周を形成するための点の移動、または、前記外周を形成するための点の追加を指示する操作を受け付け可能な受付手段をさらに有し、
前記提供手段は、前記操作に応じた変更後の複数の点から、前記外周に関する情報を更新する
ことを特徴とする請求項1〜11のいずれか1項に記載の画像処理システム。
Further having a receiving means capable of accepting an operation instructing deletion of a point for forming the outer circumference, movement of a point for forming the outer circumference, or addition of a point for forming the outer circumference.
The image processing system according to any one of claims 1 to 11, wherein the providing means updates information on the outer circumference from a plurality of points after the change according to the operation.
前記提供手段は、前記複数の点を結ぶことにより形成される前記患部と、前記患部のうち外部に露出している部分とに基づいて、前記外周に関する情報の少なくとも一部として、前記患部のうち外部に露出していない部分のサイズを算出する
ことを特徴とする請求項1〜12のいずれか1項に記載の画像処理システム。
The providing means is based on the affected portion formed by connecting the plurality of points and the portion of the affected portion exposed to the outside, as at least a part of the information regarding the outer circumference of the affected portion. The image processing system according to any one of claims 1 to 12, wherein the size of a portion not exposed to the outside is calculated.
前記提供手段は、前記複数の点を結ぶことにより形成される前記患部と、前記外部に露出している部分とから、DESIGN−Rの計算方法で前記外部に露出していない部分のサイズを算出する
ことを特徴とする請求項13に記載の画像処理システム。
The providing means calculates the size of the portion not exposed to the outside by the calculation method of DESIGN-R from the affected portion formed by connecting the plurality of points and the portion exposed to the outside. 13. The image processing system according to claim 13.
前記提供手段は、前記外周に関する情報の一部として、前記外部に露出している部分と、前記外部に露出していない部分とを含む前記患部のサイズをさらに算出し、
前記画像処理システムは、前記患部のサイズと、前記外部に露出していない部分のサイズとを区別して記録する
ことを特徴とする請求項13または14に記載の画像処理システム。
The providing means further calculates the size of the affected part including the part exposed to the outside and the part not exposed to the outside as a part of the information about the outer circumference.
The image processing system according to claim 13, wherein the image processing system separately records the size of the affected portion and the size of the portion not exposed to the outside.
前記取得手段、前記検出手段、及び、前記提供手段は、撮像装置または情報処理装置に備わっている
ことを特徴とする請求項1〜15のいずれか1項に記載の画像処理システム。
The image processing system according to any one of claims 1 to 15, wherein the acquisition means, the detection means, and the providing means are provided in an imaging device or an information processing device.
焦点距離が前記患部のうち外部に露出している部分を測定するための撮影時と同じになったタイミングで、前記動画の撮影を自動で開始するように制御する制御手段をさらに有する
ことを特徴とする請求項1〜16のいずれか1項に記載の画像処理システム。
It is characterized by further having a control means for controlling so that the shooting of the moving image is automatically started at the timing when the focal length becomes the same as the time of shooting for measuring the portion of the affected part exposed to the outside. The image processing system according to any one of claims 1 to 16.
撮影された動画に関する情報を取得する取得ステップと、
前記取得ステップにおいて取得された前記情報より、患部内を移動するライトの軌跡のうち、前記患部の径方向の端の点を検出する検出ステップと、
前記検出ステップにおいて検出された複数の点から患部の外周に関する情報を提供する提供ステップと
を有することを特徴とする画像処理システムの制御方法。
The acquisition step to get information about the video that was shot, and
From the information acquired in the acquisition step, a detection step of detecting a point at the radial end of the affected portion in the locus of the light moving in the affected portion, and a detection step.
A control method of an image processing system, comprising a providing step of providing information on the outer circumference of an affected portion from a plurality of points detected in the detection step.
コンピュータを、請求項1〜17のいずれか1項に記載の画像処理システムの各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing system according to any one of claims 1 to 17. コンピュータを、請求項1〜17のいずれか1項に記載の画像処理システムの各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the image processing system according to any one of claims 1 to 17.
JP2019175565A 2019-09-26 2019-09-26 Image processing system and its control method Active JP7309556B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019175565A JP7309556B2 (en) 2019-09-26 2019-09-26 Image processing system and its control method
US17/032,963 US20210093227A1 (en) 2019-09-26 2020-09-25 Image processing system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019175565A JP7309556B2 (en) 2019-09-26 2019-09-26 Image processing system and its control method

Publications (2)

Publication Number Publication Date
JP2021049262A true JP2021049262A (en) 2021-04-01
JP7309556B2 JP7309556B2 (en) 2023-07-18

Family

ID=75154999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019175565A Active JP7309556B2 (en) 2019-09-26 2019-09-26 Image processing system and its control method

Country Status (1)

Country Link
JP (1) JP7309556B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113188848A (en) * 2021-04-12 2021-07-30 攸太科技(台州)有限公司 Urine tracking method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003334179A (en) * 2002-05-22 2003-11-25 Koshiya:Kk Bedsore pocket measure
WO2006057138A1 (en) * 2004-11-02 2006-06-01 Koshiya Medical Care Co., Ltd. Bedsore pocket measuring instrument
US20060258961A1 (en) * 2005-05-13 2006-11-16 Zamierowski David S Medical measuring device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003334179A (en) * 2002-05-22 2003-11-25 Koshiya:Kk Bedsore pocket measure
WO2006057138A1 (en) * 2004-11-02 2006-06-01 Koshiya Medical Care Co., Ltd. Bedsore pocket measuring instrument
US20060258961A1 (en) * 2005-05-13 2006-11-16 Zamierowski David S Medical measuring device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113188848A (en) * 2021-04-12 2021-07-30 攸太科技(台州)有限公司 Urine tracking method

Also Published As

Publication number Publication date
JP7309556B2 (en) 2023-07-18

Similar Documents

Publication Publication Date Title
JP4702418B2 (en) Imaging apparatus, image region existence determination method and program
JP7322097B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM
US10839481B1 (en) Automatic marker-less alignment of digital 3D face and jaw models
CN109171817B (en) Three-dimensional breast ultrasonic scanning method and ultrasonic scanning system
US20210093227A1 (en) Image processing system and control method thereof
US10810738B1 (en) Marker-less alignment of digital 3D face and jaw models
JP2021029675A (en) Information processor, inspection system, and information processing method
JP2021051573A (en) Image processing apparatus, and method of controlling image processing apparatus
JP5822545B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2021029676A (en) Information processor, inspection system, and information processing method
WO2019230724A1 (en) Image processing system, imaging device, image processing device, electronic device, control method thereof, and storage medium storing control method thereof
JP2017085204A (en) Registration control of meta-data
JP7309556B2 (en) Image processing system and its control method
US11599993B2 (en) Image processing apparatus, method of processing image, and program
KR100874186B1 (en) Method and apparatus for photographing snow-collected images of subjects by themselves
JP2021049248A (en) Image processing system and method for controlling the same
JP4963492B2 (en) Image segmentation method, program and apparatus
JP7028729B2 (en) Object tracking device, object tracking system, and object tracking method
JP2012034069A (en) Image processor and image processing program
CN109816712A (en) Edge metering based on image
JP7317498B2 (en) Processing system, processing apparatus, processing method, and program
JP2009151516A (en) Information processor and operator designating point computing program for information processor
JP2020065173A (en) Image processing device, learning device, image processing method, learning method, and program
JP2022147595A (en) Image processing device, image processing method, and program
JP7317528B2 (en) Image processing device, image processing system and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R151 Written notification of patent or utility model registration

Ref document number: 7309556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151