JPWO2006064635A1 - Diagnostic system - Google Patents

Diagnostic system Download PDF

Info

Publication number
JPWO2006064635A1
JPWO2006064635A1 JP2006548732A JP2006548732A JPWO2006064635A1 JP WO2006064635 A1 JPWO2006064635 A1 JP WO2006064635A1 JP 2006548732 A JP2006548732 A JP 2006548732A JP 2006548732 A JP2006548732 A JP 2006548732A JP WO2006064635 A1 JPWO2006064635 A1 JP WO2006064635A1
Authority
JP
Japan
Prior art keywords
image
subject
unit
data
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006548732A
Other languages
Japanese (ja)
Inventor
伸一郎 鬼頭
伸一郎 鬼頭
吉田 幸生
吉田  幸生
洪 博哲
博哲 洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2006064635A1 publication Critical patent/JPWO2006064635A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

人体の各部位を撮影した画像を解析する診断システムにおいて、健常状態と異常状態の判別による診断の精度を向上させることを目的とする。診断システム1に、撮影時に特定の色光の光源で被写体を照射する被写体照明部5と、前記光源による被写体の反射光を画素値に変換して撮像する画像撮影部6とを備える撮像装置2と、撮像装置2とネットワークを介して通信自在に接続され、撮像装置2から送信された画像データを管理するデータ管理部22と、撮像装置2から送信された画像データを解析して健常状態と異常状態とを判別する画像解析部15とを備えるデータ管理装置13とを設ける。An object of the present invention is to improve the accuracy of diagnosis by discriminating between a normal state and an abnormal state in a diagnostic system that analyzes an image of each part of a human body. An imaging apparatus 2 that includes a diagnostic system 1 that includes a subject illumination unit 5 that irradiates a subject with a light source of a specific color light during imaging, and an image capturing unit 6 that converts reflected light of the subject from the light source into a pixel value and captures an image; The data management unit 22 that is connected to the imaging device 2 through a network and manages the image data transmitted from the imaging device 2, and the image data transmitted from the imaging device 2 is analyzed to detect a normal state and an abnormality. A data management device 13 including an image analysis unit 15 that determines a state is provided.

Description

本発明は診断システムに関し、特に人体の各部位の撮影画像から医療診断などを行う診断システムに関する。   The present invention relates to a diagnostic system, and more particularly to a diagnostic system that performs medical diagnosis and the like from captured images of each part of a human body.

従来、人体の生理状態の変化をセンサやCCDカメラなどの撮像装置によって検知し、それによって得られた画像データを解析して医療診断や美容診断などの診断を行う診断システムが開発されている。   2. Description of the Related Art Conventionally, a diagnostic system has been developed in which changes in the physiological state of a human body are detected by an imaging device such as a sensor or a CCD camera, and image data obtained thereby is analyzed to make a diagnosis such as a medical diagnosis or a beauty diagnosis.

例えば、特許文献1には、デジタルカメラで撮影した画像における顔色などの皮膚色から得られる客観的生体情報の定量化を図ることで、ディスプレイの画像色再現に左右されず皮膚色を解析することのできる診断システムが開示されている。   For example, Patent Document 1 discloses that skin color is analyzed regardless of image color reproduction of a display by quantifying objective biological information obtained from skin color such as face color in an image photographed with a digital camera. A diagnostic system is disclosed.

また、特許文献2には、日常生活において手指などを接触させる場所にセンサを設置することにより、被観察者が観察されていることを意識しない状態で日常生活における体調(脈波、体温、肌の色、呼吸数など)に関するデータを取得し、健康状態を診断する診断システムが開示されている。   Further, Patent Document 2 discloses that the physical condition (pulse wave, body temperature, skin in daily life) without installing the sensor in a place where a finger or the like is brought into contact in daily life without being conscious of being observed. A diagnostic system is disclosed that acquires data relating to color, respiratory rate, etc.) and diagnoses a health condition.

また、特許文献3には、基礎体温計で計測した体温データについて、ネットワークを介して情報を参照することにより管理・分析を行うことができる診断システムが開示されている。
特開平10−165375号 特開2000−139856号 特開2001−353157号
Patent Document 3 discloses a diagnostic system capable of managing and analyzing body temperature data measured by a basal body thermometer by referring to information via a network.
JP 10-165375 A JP 2000-139856 JP 2001-353157 A

しかし、特許文献1記載の診断システムでは、ディスプレイの画像色再現に左右されず皮膚色を解析するために撮影画像のデータを定量化する旨が記載されているが、顔の撮影時において正確なデータを得るための撮像装置自体の構成については何ら記載されていなかった。   However, in the diagnostic system described in Patent Document 1, it is described that the data of the photographed image is quantified in order to analyze the skin color without being influenced by the image color reproduction of the display. There was no description of the configuration of the imaging device itself for obtaining data.

また、特許文献2に記載の診断システムでは、日常生活における体調に関するデータを取得するため、「手指が接触しやすい位置」又は「音声を発しやすい位置」にセンサを設ける旨が記載されているが、日常的にとる姿勢や向き、動作などから正確にデータを取得するためのセンサ自体の構成については何ら記載されていなかった。   In addition, in the diagnostic system described in Patent Document 2, it is described that sensors are provided at “positions where fingers are easy to touch” or “positions where voice is likely to be emitted” in order to acquire data related to physical condition in daily life. However, there has been no description about the configuration of the sensor itself for accurately acquiring data from the posture, orientation, movement, etc. taken on a daily basis.

また、特許文献3に記載の診断システムは、体温データに基づいて医療診断を行うものであるが、健常状態と異常状態におけるデータを比較してより正確な診断を行うためにはより多数の視点からデータを取得して解析することが望まれていた。   Moreover, the diagnostic system described in Patent Document 3 performs medical diagnosis based on body temperature data. However, in order to perform more accurate diagnosis by comparing data in a normal state and an abnormal state, a larger number of viewpoints are used. It was desired to acquire and analyze data from

本発明は上述した点に鑑み、人体の各部位を撮影した画像を解析する診断システムにおいて、健常状態と異常状態の判別の精度を向上させることを目的としている。   In view of the above-described points, an object of the present invention is to improve the accuracy of discrimination between a normal state and an abnormal state in a diagnostic system that analyzes an image obtained by imaging each part of a human body.

上記課題を解決するため請求の範囲第1項に記載の発明は、診断システムであって、撮影時に特定の色光の光源で被写体を照射する被写体照明部と、被写体を撮像する画像撮影部とを備える撮像装置と、前記撮像装置とネットワークを介して通信自在に接続され、前記撮像装置から送信された画像データを管理するデータ管理部と、前記撮像装置から送信された画像データを解析して健常状態と異常状態とを判別する画像解析部とを備えるデータ管理装置と、が設けられたことを特徴とする。
請求の範囲第2項に記載の発明は、診断システムであって、異なる色光を発光する複数の光源により被写体を照射する被写体照明部と、前記被写体照明部により照射された被写体を撮像する画像撮影部と、前記画像撮影部で撮影された被写体表面の反射光を分離し、診断対象である被写体の部位に適した反射光の情報を解析して健常状態と異常状態とを判別する画像解析部と、が設けられたことを特徴とする。
請求の範囲第3項に記載の発明は、診断システムであって、異なる色光を発光する複数の光源を有し、被写体を照射する被写体照明部と、被写体と、被写体に適した色光の光源との相関情報を保持するシステム情報保持部と、前記相関情報をもとに、前記複数の光源のうち被写体に適した色光の光源を動作させるよう前記被写体照明部を制御する制御部と、被写体に適した色光の光源により照射された被写体を撮像する画像撮影部と、前記画像撮影部で撮影された画像データを解析して健常状態と異常状態とを判別する画像解析部と、が設けられたことを特徴とする。
In order to solve the above-mentioned problem, the invention described in claim 1 is a diagnostic system comprising: a subject illumination unit that irradiates a subject with a light source of specific color light at the time of photographing; and an image photographing unit that captures the subject. An imaging device comprising the imaging device, a data management unit that is connected to the imaging device via a network, and that manages image data transmitted from the imaging device, and the image data transmitted from the imaging device is analyzed and healthy And a data management device including an image analysis unit that discriminates between a state and an abnormal state.
The invention according to claim 2 is a diagnostic system, in which a subject illumination unit that irradiates a subject with a plurality of light sources that emit light of different colors, and image capturing that captures the subject illuminated by the subject illumination unit And an image analysis unit that separates reflected light on the surface of the subject photographed by the image photographing unit and analyzes information on the reflected light suitable for the part of the subject that is a diagnosis target to discriminate between a normal state and an abnormal state And is provided.
The invention according to claim 3 is a diagnostic system comprising a plurality of light sources that emit different color lights, a subject illumination unit that irradiates the subject, a subject, and a light source of color light suitable for the subject. A system information holding unit for holding the correlation information, a control unit for controlling the subject illumination unit to operate a light source of color light suitable for the subject among the plurality of light sources based on the correlation information, and a subject An image capturing unit that captures a subject irradiated with a light source of suitable color light, and an image analysis unit that analyzes image data captured by the image capturing unit to distinguish between a normal state and an abnormal state are provided. It is characterized by that.

請求の範囲第4項に記載の発明は、請求の範囲第1項〜第4項のいずれか1項に記載の診断システムであって、前記画像解析部は画像データの画素値を色彩データに変換して座標上に表し、その座標が健常状態の座標と比較して所定の間隔以上離れている場合は異常データと判断することを特徴とする。   The invention described in claim 4 is the diagnostic system according to any one of claims 1 to 4, wherein the image analysis unit converts the pixel value of the image data into color data. It is converted and represented on the coordinates, and when the coordinates are separated from the coordinates in the normal state by a predetermined distance or more, it is determined as abnormal data.

本発明によれば、特定の色光の照射により照射して画像データから病変や異常を検出しやすくなり、健常状態と異常状態のデータの分離が容易となるので、健常状態と異常状態の判別による診断の精度を向上させることができる。   According to the present invention, it becomes easier to detect lesions and abnormalities from image data by irradiation with irradiation of specific color light, and it becomes easy to separate normal state and abnormal state data. The accuracy of diagnosis can be improved.

本発明の実施形態に係る診断システムの全体構成を示す概略図である。1 is a schematic diagram showing an overall configuration of a diagnostic system according to an embodiment of the present invention. 本発明の実施形態に係る診断システムの全体構成を示すブロック図である。It is a block diagram showing the whole diagnostic system composition concerning an embodiment of the present invention. 本発明の実施形態に係る画像表示部及び被写体照明部を示す正面図である。It is a front view which shows the image display part and subject illumination part which concern on embodiment of this invention. 本発明の実施形態に係る被写体照明部が備える光源の例を示す部分拡大図である。It is the elements on larger scale which show the example of the light source with which the to-be-illuminated part which concerns on embodiment of this invention is provided. 本発明の実施形態に係る被写体照明部が備える他の光源の例を示す部分拡大図である。It is the elements on larger scale which show the example of the other light source with which the to-be-illuminated part which concerns on embodiment of this invention is provided. 本発明の実施形態に係る被写体照明部の光源が構成する色光ユニットの配置を示す正面図である。It is a front view which shows arrangement | positioning of the color light unit which the light source of the to-be-photographed object illumination part which concerns on embodiment of this invention comprises. 本発明の実施形態に係る被写体照明部の他の光源が構成する色光ユニットの配置を示す正面図である。It is a front view which shows arrangement | positioning of the color light unit which the other light source of the to-be-illuminated part which concerns on embodiment of this invention comprises. LEDの放射スペクトル例を表すグラフである。It is a graph showing the example of the radiation spectrum of LED. 白色光源と干渉フィルタによる透過光のスペクトル例を表すグラフである。It is a graph showing the spectrum example of the transmitted light by a white light source and an interference filter. 白色光源と干渉フィルタによる透過光の他のスペクトル例を表すグラフである。It is a graph showing the other spectrum example of the transmitted light by a white light source and an interference filter. 白色光源と干渉フィルタによる透過光の他のスペクトル例を表すグラフである。It is a graph showing the other spectrum example of the transmitted light by a white light source and an interference filter. 白色光源と干渉フィルタによる透過光の他のスペクトル例を表すグラフである。It is a graph showing the other spectrum example of the transmitted light by a white light source and an interference filter. 本発明の実施形態に係る被写体照明部が備える光源の特性を表すグラフである。It is a graph showing the characteristic of the light source with which the to-be-illuminated part which concerns on embodiment of this invention is provided. 被写体の特定部位(a)の分光反射率を表すグラフである。It is a graph showing the spectral reflectance of the specific part (a) of the subject. 被写体の他の特定部位(b)の分光反射率を表すグラフである。It is a graph showing the spectral reflectance of the other specific part (b) of the subject. 被写体の特定部位(a)の反射光を示すグラフである。It is a graph which shows the reflected light of the specific part (a) of a to-be-photographed object. 被写体の特定部位(b)の反射光を示すグラフである。It is a graph which shows the reflected light of the specific part (b) of a to-be-photographed object. 被写体の構図について好ましい例を示す図である。It is a figure which shows a preferable example about the composition of a to-be-photographed object. 本発明の実施形態に係る画像撮影部の配置を示す図である。It is a figure which shows arrangement | positioning of the image imaging part which concerns on embodiment of this invention. 本発明の実施形態に係る画像撮影部による合成画像の例である。It is an example of the synthesized image by the image imaging | photography part which concerns on embodiment of this invention. 本発明の実施形態に係る画像撮影部の他の配置を示す図である。It is a figure which shows other arrangement | positioning of the image imaging part which concerns on embodiment of this invention. 本発明の実施形態に係る画像撮影部の他の配置を示す図である。It is a figure which shows other arrangement | positioning of the image imaging part which concerns on embodiment of this invention. 本発明の実施形態に係る画像撮影部による切出画像の例を示す図である。It is a figure which shows the example of the cut-out image by the image imaging part which concerns on embodiment of this invention. 被写体の特定部位(a)の反射光を変換した画素値のグラフである。It is a graph of the pixel value which converted the reflected light of the specific part (a) of a to-be-photographed object. 被写体の特定部位(b)の反射光を変換した画素値のグラフである。It is a graph of the pixel value which converted the reflected light of the specific part (b) of a subject. 被写体の特定部位(a)の画素値を色彩データとして座標上に表した図である。It is the figure which represented on a coordinate the pixel value of the specific part (a) of a to-be-photographed object as color data. 被写体の特定部位(b)の画素値を色彩データとして座標上に表した図である。It is the figure which represented on a coordinate the pixel value of the specific part (b) of a to-be-photographed object as color data. 本発明の実施形態に係るシステム情報保持部が備えるテーブルの例を示す図である。It is a figure which shows the example of the table with which the system information holding part which concerns on embodiment of this invention is provided. 本発明の実施形態に係る診断システムの作用を示すフローチャートである。It is a flowchart which shows the effect | action of the diagnostic system which concerns on embodiment of this invention.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1に示すように、本実施形態の診断システム1には撮像装置2が備えられており、撮像装置2には互いに通信可能なネットワークを介してデータ管理装置13が接続されている。さらに、データ管理装置13には互いに通信可能なネットワークを介して一つ以上の外部装置24が接続されている。なお、撮像装置2についても外部装置24と通信可能な構成にすることも可能である。   As shown in FIG. 1, the diagnostic system 1 of the present embodiment includes an imaging device 2, and a data management device 13 is connected to the imaging device 2 via a network that can communicate with each other. Furthermore, one or more external devices 24 are connected to the data management device 13 via a network that can communicate with each other. Note that the imaging device 2 can also be configured to be able to communicate with the external device 24.

本実施形態におけるネットワークはデータ通信可能である通信網を意味するものであれば特に限定されず、例えばインターネット、LAN(Local Area Network)、WAN(Wide Area Network)、電話回線網、ISDN(Integrated Services Digital Network)回線網、CATV(Cable Television)回線、光通信回線などを含めることができる。また、有線のみならず無線によって通信可能な構成としてもよい。   The network in the present embodiment is not particularly limited as long as it means a communication network capable of data communication. For example, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), a telephone line network, ISDN (Integrated Services). Digital network), CATV (Cable Television), optical communication, etc. can be included. Moreover, it is good also as a structure which can communicate not only by wire but by radio | wireless.

外部装置24とはパソコンなどであり、何らかのコンサルティングや診断が受けられる場所に設置されていることが望ましい。例えば、本実施形態に係る診断システム1で健康に関するデータを得る場合は、病院や健康管理施設などの公共施設に設置しておくことが考えられる。また、美容に関するデータの場合は、コスメティック関係の店や施設・病院などに設置しておくことが考えられる。また、外部装置24をコンサルティング情報が得られるインターネットサイトや、コンサルタントや医師、店員などの携帯端末として構成してもよい。   The external device 24 is a personal computer or the like, and is preferably installed in a place where some kind of consulting or diagnosis can be received. For example, when health-related data is obtained by the diagnostic system 1 according to the present embodiment, it may be installed in a public facility such as a hospital or a health care facility. In addition, in the case of beauty data, it may be possible to install it in cosmetic-related stores, facilities, or hospitals. The external device 24 may be configured as an Internet site from which consulting information can be obtained, or as a mobile terminal such as a consultant, a doctor, or a store clerk.

図2に示すように、本実施形態の診断システム1が備える撮像装置2には以下の各構成部分が設けられている。   As shown in FIG. 2, the imaging device 2 provided in the diagnostic system 1 of the present embodiment is provided with the following components.

外部通信部3は、有線又は無線の通信手段によりデータ管理装置13及び外部装置24と情報通信ができるように構成されている。なお、本実施形態の撮像装置2は画像情報を扱うため、できる限り高速伝送できる通信形態であることが望ましい。そして、この外部通信部3を経由して、画像解析の結果や画像データ・バイタルデータなどをデータ管理装置13に送信するようになっている。   The external communication unit 3 is configured to perform information communication with the data management device 13 and the external device 24 by wired or wireless communication means. In addition, since the imaging device 2 according to the present embodiment handles image information, it is preferable that the imaging device 2 be in a communication mode that can transmit as fast as possible. Then, the result of image analysis, image data, vital data, and the like are transmitted to the data management device 13 via the external communication unit 3.

画像表示部4は、CRT,液晶,有機EL,プラズマ又は投影方式などのディスプレイから構成され、撮影画像の他、外部装置24から与えられた情報、画像処理によって得られた情報又は撮像装置2の各構成部分の状態に関する情報などを表示するようになっている。また、撮影画像から異常データが検出された際の警告を表示することや、音声手段により異常データの検出を音声で知らせることが可能な構成とすることもできる。   The image display unit 4 includes a display such as a CRT, a liquid crystal, an organic EL, plasma, or a projection method, and in addition to a captured image, information provided from the external device 24, information obtained by image processing, or information of the imaging device 2 Information about the state of each component is displayed. In addition, it is also possible to display a warning when abnormal data is detected from the photographed image, or to notify the detection of abnormal data by voice using voice means.

被写体照明部5は、図3に示すように、画像表示部4の周辺縁部に設けられている。このような構成により、被写体に対して様々な方向から照明光を与えることができ、比較的照明むらの少ない画像を得ることができるようになっている。また、画像表示部4の周辺端部の上部のみ又は左右部のみに被写体照明部5を配置してもよい。なお、画像表示部4に近接しない場所に被写体照明部5を配置することも可能である。   As shown in FIG. 3, the subject illumination unit 5 is provided at the peripheral edge of the image display unit 4. With such a configuration, illumination light can be given to the subject from various directions, and an image with relatively little illumination unevenness can be obtained. In addition, the subject illumination unit 5 may be arranged only at the upper part of the peripheral edge of the image display unit 4 or only at the left and right parts. Note that the subject illumination unit 5 may be arranged at a location that is not close to the image display unit 4.

図4は図3に示す被写体照明部5の点線部分を拡大した図である。図4に示すように、本実施形態の被写体照明部5にはそれぞれ異なる色光を発光する円形光源が配列されている。また、図5に示すように矩形光源を配列することも可能である。そして、図5の点線部に示すような所定のエリアの光源を組み合わせたものを1つの色光セットとして、この色光セットを図6に示すように画像表示部2の周辺縁部に配列している。このような構成により、光源から各色光を被写体に均等に照射できるようになっている。なお、円形光源ではなく棒状光源を使用することも可能であり、その場合は図7に示すように棒状光源の色光セットを画像表示部2の周辺縁部に配置することもできる。   FIG. 4 is an enlarged view of the dotted line portion of the subject illumination unit 5 shown in FIG. As shown in FIG. 4, the subject illumination unit 5 of the present embodiment is arranged with circular light sources that emit different colored lights. Further, it is possible to arrange rectangular light sources as shown in FIG. Then, a combination of light sources in a predetermined area as shown by the dotted line portion in FIG. 5 is used as one color light set, and this color light set is arranged at the peripheral edge of the image display unit 2 as shown in FIG. . With such a configuration, it is possible to uniformly irradiate the subject with each color light from the light source. It is also possible to use a rod-shaped light source instead of a circular light source. In this case, a colored light set of the rod-shaped light source can be arranged at the peripheral edge of the image display unit 2 as shown in FIG.

被写体照明部5が備える光源としては、蛍光ランプ,白熱電球,LED,レーザー,有機ELなどの人工光源などを使用することが可能であるが、撮影画像への周辺環境光の影響を抑えるために、強度が強いストロボ、高輝度LEDなどの光源を使うことが望ましい。また、光源は可視光域だけでなくその周辺(紫外域、近赤外、赤外領域)にも発光特性をもつものが望ましい。また、環境光の影響をできるだけ抑えるためにはストロボのような輝度の高い光を照射できる光源であることが望ましいが、被写体の動画を撮影する場合は、強度やスペクトルなどの特性が長時間安定した光を照射できる光源であることが望ましい。また、点光源より線・面光源とした方が、ユーザに対して空間的に強度の分布が抑えられた光を得ることができる。すなわち、ユーザへの照明むらが抑えられて望ましい画像が得られる。   Artificial light sources such as fluorescent lamps, incandescent light bulbs, LEDs, lasers, and organic ELs can be used as the light source provided in the subject illumination unit 5, but in order to suppress the influence of ambient ambient light on the photographed image. It is desirable to use a light source such as a strong strobe light or a high brightness LED. Further, it is desirable that the light source has a light emission characteristic not only in the visible light region but also in the vicinity thereof (ultraviolet region, near infrared region, infrared region). In order to suppress the influence of ambient light as much as possible, it is desirable to use a light source that can emit high-brightness light such as a strobe. However, when shooting moving images of subjects, characteristics such as intensity and spectrum are stable for a long time. It is desirable that the light source be capable of irradiating light. Further, when the line / surface light source is used instead of the point light source, light with a spatially reduced intensity distribution can be obtained for the user. That is, uneven illumination to the user is suppressed and a desirable image is obtained.

本実施形態の光源としてはLEDを使用するか、白色光源を干渉フィルタと共に使用する。なお、白色光源を使用する場合は、白色光源の前面に1枚以上の干渉フィルタを配置し、照明光の特性を狭帯域化させる。ここで、図8にLEDの発光特性を、図9〜図12に白色光源と干渉フィルタの透過光スペクトル例を示す。また、図13は本実施形態において用いる光源の特性を示すものであり、図9〜図12に示す特性を有する光源のうち2種類の光源(色光H及び色光I)を使用している。例えば、色光Hとしては株式会社東芝のTLSHシリーズ(ピーク波長623nm、半値幅13nm)を、色光IとしてはTLPGE1100B(ピーク波長562nm、半値幅11nm)、その他市販されている各社のLEDを使用することが可能である。また、干渉フィルタとしてはOmega Optical社のバンドパスフィルタなど市販されている各社のフィルタを用いることができる。   As the light source of this embodiment, an LED is used, or a white light source is used together with an interference filter. When a white light source is used, one or more interference filters are arranged in front of the white light source to narrow the characteristics of the illumination light. Here, FIG. 8 shows the light emission characteristics of the LED, and FIGS. 9 to 12 show examples of transmitted light spectra of the white light source and the interference filter. FIG. 13 shows the characteristics of the light source used in this embodiment, and two types of light sources (colored light H and colored light I) are used among the light sources having the characteristics shown in FIGS. For example, Toshiba's TLSH series (peak wavelength 623 nm, half width 13 nm) is used as color light H, TLPGE1100B (peak wavelength 562 nm, half width 11 nm), and other commercially available LEDs are used as color light I. Is possible. As the interference filter, a commercially available filter such as a bandpass filter manufactured by Omega Optical can be used.

図14及び図15に被写体の特定部位(a)及び別の特定部位(b)における健康(正常)時と不健康(異常)時の分光反射率を示す。一般に、被写体が不健康な場合は体の組織や構成が変化するため健常状態とは被写体表面における分光反射率が異なる。ただし、どの波長領域が違うかは被写体依存である。図14に示す特定部位(a)の例では健常状態と異常状態で低波長側(色光Aの帯域に重なる)の差異が大きく、図15に示す特定部位(b)の例では中域から高域(色光Bの帯域に重なる)の差異が大きくなっている。そして、色光A及び色光Bを被写体の特定部位(a)に対して照射すると、被写体の反射光のスペクトルは図16に示すように色光A又は色光Bと被写体の分光反射率の積となっている。同様に、色光A及び色光Bを被写体の他の特定部位(b)に対して照射すると、被写体の反射光のスペクトルは図17に示すように色光A又は色光Bと被写体の分光反射率の積となっている。   FIG. 14 and FIG. 15 show the spectral reflectances at the time of health (normal) and unhealthy (abnormal) in the specific part (a) and another specific part (b) of the subject. In general, when the subject is unhealthy, the structure and structure of the body changes, so the spectral reflectance on the subject surface is different from the normal state. However, which wavelength region is different depends on the subject. In the example of the specific part (a) shown in FIG. 14, the difference between the low wavelength side (overlapping the band of the colored light A) is large between the normal state and the abnormal state, and in the example of the specific part (b) shown in FIG. The difference between the areas (which overlap the band of the colored light B) is large. When the color light A and the color light B are irradiated to the specific part (a) of the subject, the spectrum of the reflected light of the subject is a product of the color light A or the color light B and the spectral reflectance of the subject as shown in FIG. Yes. Similarly, when the color light A and the color light B are irradiated to another specific part (b) of the subject, the spectrum of the reflected light of the subject is the product of the color light A or the color light B and the spectral reflectance of the subject as shown in FIG. It has become.

図2に戻り、画像撮影部6は、CCDやCMOSなどの撮像素子により静止画又は動画を取得することができる1つ又は複数のカメラによって構成されている。例えば、デジタルカメラ、ビデオカメラ、その他携帯電話などに付属のカメラモジュールなどにより構成してもよい。
ここで、図18に示すように、被写体の画像は、被写体の立ち位置や身長に関わらず安定した構図で撮影することが望ましい。そこで、本実施形態では、図19に示すように複数の画像撮影部6を等間隔に配置して被写体を撮影し、図20のように撮影画像を合成してよい構図の画像を出力するように構成されている。また、図21に示すように、1台の画像撮影部6の位置を三次元的に調整できる機構を設けて、ユーザの頭部・顔などを撮影可能なように構成してもよい。また、図22に示すように、多数のカメラモジュールの組み合わせで画像撮影部6を構成し、ユーザを一括撮影して、図23に示すように所定の構図の画像を切り出すことができるように構成してもよい。
Returning to FIG. 2, the image capturing unit 6 includes one or a plurality of cameras that can acquire a still image or a moving image by an image sensor such as a CCD or a CMOS. For example, you may comprise with a camera module attached to a digital camera, a video camera, other mobile phones, etc.
Here, as shown in FIG. 18, it is desirable that an image of a subject be taken with a stable composition regardless of the standing position and height of the subject. Therefore, in the present embodiment, as shown in FIG. 19, a plurality of image photographing units 6 are arranged at equal intervals to photograph a subject, and an image having a composition that may be synthesized as shown in FIG. 20 is output. It is configured. Further, as shown in FIG. 21, a mechanism capable of three-dimensionally adjusting the position of one image capturing unit 6 may be provided so that the user's head and face can be captured. Further, as shown in FIG. 22, the image photographing unit 6 is configured by a combination of a large number of camera modules, and the user can be collectively photographed to cut out an image having a predetermined composition as shown in FIG. May be.

さらに、上述のように構図が固定された画像ではなく、被写体の動きと連動して構図が変わるような画像を得ることが望ましい場合、例えば被写体が表示画面に近づくとアップになる場合などは、1つ以上のカメラで撮影された画像を合成して、表示座標の原点を固定してそのまま表示することができる。   Furthermore, when it is desirable to obtain an image whose composition changes in conjunction with the movement of the subject, rather than an image whose composition is fixed as described above, for example, when the subject comes up when the subject approaches the display screen, Images captured by one or more cameras can be combined and displayed as they are with the origin of display coordinates fixed.

また、本実施形態の画像撮影部6は3個の画像チャンネル数を備えているが、3個以上の画像チャンネルをもつマルチチャンネル(マルチバンド)としてもよい。撮影画像のフォーマットとしては、jpeg,tiffなどの一般的なフォーマット及び生画像に対応するrawファイルを備えている。rawファイルの場合の画像処理(デモザイク処理、ガンマ処理、色変換処理、強調処理など)は、ファイル出力時に行われるようにしてもよいし、行われないようにしてもよい。ただし、画像処理の各パラメータは参照できるようにしておく。なお、画像撮影部6は画像表示部4の背面又は同じ面に配置してもよいが、本実施形態では画像表示部4の背面に配置している。また、画像表示部4の背面に配置する場合は、画像表示部4は画像撮影に支障なくユーザからはカメラの存在がわからないようなハーフミラー的な構造・材質で構成するのが望ましい。   Further, the image capturing unit 6 of the present embodiment has three image channel numbers, but may be a multi-channel (multi-band) having three or more image channels. As a format of the photographed image, a general format such as jpeg, tiff and a raw file corresponding to the raw image are provided. Image processing (such as demosaic processing, gamma processing, color conversion processing, and enhancement processing) for a raw file may or may not be performed at the time of file output. However, each parameter of the image processing can be referred to. The image capturing unit 6 may be disposed on the back surface or the same surface of the image display unit 4, but is disposed on the back surface of the image display unit 4 in the present embodiment. When the image display unit 4 is arranged on the back surface, it is desirable that the image display unit 4 be configured with a half mirror structure / material that does not interfere with image capturing and the user does not know the presence of the camera.

また、画像撮影部6は被写体表面の反射光を撮像して、RGB画像のR,G,B各信号に対応する各チャンネルの画素値に変換するようになっている。上述のように、被写体の特定部位(a)における健常状態と異常状態の分光反射率は図16に示すようになるが、この反射光を画像撮影部6で撮像してチャンネル1及びチャンネル2で色光A又は色光Bに起因する反射光を分離すると、図24に示すように各チャンネルの画素値を得ることができる。ここで、色光A又は色光Bに起因する反射光の分離は各チャンネルの帯域の違いによって行っている。例えば、色光AはRGBのうちチャンネル1の帯域に含まれ、色光Bはチャンネル2の帯域に含まれる。また、色光Aと色光Bとの発光のタイミングをずらして撮影することにより分離することも可能である。同様に、被写体の他の特定部位(b)における分光反射率は図17に示すようになるが、色光A又は色光Bに起因する反射光を分離すると、図25に示すように画素値を得ることができる。   The image photographing unit 6 captures reflected light on the surface of the subject and converts it into pixel values of each channel corresponding to R, G, B signals of the RGB image. As described above, the spectral reflectances in the normal state and the abnormal state in the specific part (a) of the subject are as shown in FIG. 16, and this reflected light is imaged by the image capturing unit 6 and channel 1 and channel 2 are captured. When the reflected light caused by the color light A or the color light B is separated, the pixel value of each channel can be obtained as shown in FIG. Here, the separation of the reflected light caused by the colored light A or the colored light B is performed by the difference in the band of each channel. For example, the color light A is included in the channel 1 band of RGB, and the color light B is included in the channel 2 band. Further, it is also possible to separate the color light A and the color light B by photographing with different timings of light emission. Similarly, the spectral reflectance at the other specific part (b) of the subject is as shown in FIG. 17, but when the reflected light caused by the colored light A or the colored light B is separated, a pixel value is obtained as shown in FIG. be able to.

このように、色光A又は色光Bに起因する反射光を分離することで、被写体の特定部位(a)の撮影画像はチャンネル1において、特定部位(b)の撮影画像はチャンネル2において、健常状態及び異常状態における画素値の分離が容易となっている。
なお、被写体照明部5は、上述のように顔領域の画像を撮影する際に被写体を照明する機能を果たすほか、被写体の瞳孔の動きを撮影する際に、照明の強さや波長を急激に変化させ、その照射前後の瞳孔の動きを計測することにより健康か異常かを判断することを可能とする機能も果たすことができるようになっている。
Thus, by separating the reflected light caused by the color light A or the color light B, the captured image of the specific part (a) of the subject is in the channel 1 and the captured image of the specific part (b) is in the channel 2 in the normal state. In addition, separation of pixel values in an abnormal state is facilitated.
The subject illumination unit 5 performs the function of illuminating the subject when photographing an image of the face area as described above, and also changes the intensity and wavelength of illumination rapidly when photographing the movement of the pupil of the subject. It is also possible to perform a function that makes it possible to determine whether the eye is healthy or abnormal by measuring the movement of the pupil before and after the irradiation.

図2に戻り、周辺環境情報取得部7は、環境情報取得手段としての計測計を備え、撮像装置2が設置される周辺環境の情報を取得して撮像画像の解析時に異常データの判別を支援することができるようになっている。ここで周辺環境とは、環境照明光の強度や特性,気温や水温などの温度,湿度,気圧,などをいう。また、環境照明光の取得方法としては、(a)照度計タイプ(b)スペクトル計測計タイプ(c)色温度計測タイプなどがあるが、すべてを包含できる(b)のタイプが望ましい。また、その他の温度、湿度、気圧については、それぞれを計測する計測器具やセンサを用いてもよいし、ネットワークを通じて外部装置24から情報を入手してもよい。   Returning to FIG. 2, the surrounding environment information acquisition unit 7 includes a measuring instrument as an environment information acquisition unit, acquires information on the surrounding environment where the imaging device 2 is installed, and assists in determining abnormal data when analyzing the captured image. Can be done. Here, the surrounding environment refers to the intensity and characteristics of ambient illumination light, temperature such as air temperature and water temperature, humidity, and atmospheric pressure. In addition, there are (a) illuminance meter type, (b) spectrum measurement type, (c) color temperature measurement type, and the like as the method for acquiring the environmental illumination light, but the type (b) that can include all is desirable. As for other temperatures, humidity, and atmospheric pressure, measuring instruments and sensors for measuring each temperature may be used, and information may be obtained from the external device 24 through a network.

I/O部8は、バイタル情報取得手段としてのバイタルセンサー(体温計、体重計、体脂肪率計、血圧計、心電計、肌年齢計測計、骨密度計、肺活量計など)や、CFカード、SDカード、USBメモリカードなどの可搬型デバイスを扱う機器を接続できるように構成されており、これらの機器から計測データや画像データの入出力を行うようになっている。なお、バイタルセンサーは撮像装置2の一部分として構成することも可能だが、任意の生体情報データの導入を考慮できるように、また、最先端の計測機器を簡単に導入できるように、本実施形態のように必要なバイタルセンサーをI/O部8に接続して使用する形態とすることが望ましい。   The I / O unit 8 includes a vital sensor (such as a thermometer, a weight scale, a body fat percentage meter, a blood pressure meter, an electrocardiograph, a skin age meter, a bone densitometer, a spirometer) as a vital information acquisition means, a CF card In addition, devices that can handle portable devices such as SD cards and USB memory cards can be connected, and measurement data and image data can be input and output from these devices. Although the vital sensor can be configured as a part of the imaging device 2, the present embodiment can be configured so that introduction of arbitrary biological information data can be taken into account and state-of-the-art measurement equipment can be easily introduced. Thus, it is desirable that a necessary vital sensor is connected to the I / O unit 8 for use.

また、I/O部8に接続したバイタルセンサーを刺激付加手段として、被写体に刺激を付加した前後の経時変化を撮像し、その画像から被写体の平常状態と異常状態を区別することもできる。ここで刺激とは、光を与える、押す、圧力を加える、温度を変える、香りを加える、音を加える、針などで刺す、物を塗る、物を注入する、などを指す。例えば、圧力センサなどにより肌の一部を圧迫し、圧迫前後の状態を計測することにより、各計測値の変化量を特徴データとして平常状態と異常状態を区別することができる。また、皮膚を水やお湯、もしくは遠赤外線などにより温め、その前後の状態を観察することで、血液の流れの変化を測定し、その変化の仕方が平常時と相違するか否かを判断することもできる。   In addition, a vital sensor connected to the I / O unit 8 can be used as a stimulus adding means to capture temporal changes before and after the stimulus is applied to the subject, and distinguish the normal state and the abnormal state of the subject from the image. Here, the stimulus refers to giving light, pushing, applying pressure, changing temperature, adding scent, applying sound, stabting with a needle, painting an object, injecting an object, and the like. For example, by compressing a part of the skin with a pressure sensor or the like and measuring the state before and after the compression, the normal state and the abnormal state can be distinguished using the amount of change of each measured value as feature data. In addition, by warming the skin with water, hot water, or far-infrared rays, and observing the state before and after that, the change in blood flow is measured to determine whether the change is different from normal. You can also.

メモリ部9は、RAM、ROM、DIMMなどから構成され、撮像装置2の各構成部分における処理に必要なデータを一時的に蓄えることによって、撮像装置2を高速かつ安定に動作させるようになっている。   The memory unit 9 includes a RAM, a ROM, a DIMM, and the like, and temporarily stores data necessary for processing in each component of the imaging device 2, thereby causing the imaging device 2 to operate stably at high speed. Yes.

データ処理部10は、画像撮影部6で撮影した被写体の各部位の画像、周辺環境情報取得部7で取得した周辺環境情報、I/O部8から入力された計測データや画像データなどのデータ処理を行うようになっている。   The data processing unit 10 is an image of each part of the subject captured by the image capturing unit 6, peripheral environment information acquired by the peripheral environment information acquiring unit 7, data such as measurement data and image data input from the I / O unit 8. Processing is to be performed.

すなわち、まず、データ処理部10は撮影画像の中から診断の対象となる興味領域の抽出を行うようになっている。例えば、興味領域がユーザの顔である場合は、例えば予め登録されているユーザの標準的な顔画像をテンプレートの基本画像とし、そのテンプレートを画面左上からラスター操作を行いテンプレートと画像の相関が一番高い箇所を顔領域とするようになっている。また、興味領域からさらに部位を指定する場合は、ユーザが顔枠を矩形ポインタなどで囲んで指定する手段や、ユーザがポイントを指定すると、指定位置を中心として所定の大きさの矩形が表示される指定手段などを設けることも可能である。そして、興味領域の抽出を行うと、データ処理部10は外部通信部3を経由してデータ管理装置13にその興味領域の画像を送信するようになっている。   That is, first, the data processing unit 10 extracts a region of interest to be diagnosed from a captured image. For example, when the region of interest is the user's face, for example, a standard user face image registered in advance is used as the basic image of the template, and the template is subjected to a raster operation from the upper left of the screen, and the correlation between the template and the image is uniform. The highest part is set as the face area. In addition, when further specifying a region from the region of interest, the user can specify a means by surrounding the face frame with a rectangular pointer or the like, or when the user specifies a point, a rectangle of a predetermined size centered on the specified position is displayed. It is also possible to provide a designation means. When the region of interest is extracted, the data processing unit 10 transmits an image of the region of interest to the data management device 13 via the external communication unit 3.

なお、画像撮影部6においてrawファイルの場合の画像処理がファイル出力時に行われていない場合は、データ処理部10で画像処理を行うように構成することも可能である。   If the image capturing unit 6 does not perform image processing in the case of a raw file at the time of file output, the data processing unit 10 may be configured to perform image processing.

また、データ処理部10は、環境光の特性が変わっても見た目的に色再現の安定した画像を表示するために、環境光の特性を周辺環境情報取得部7で取得し、その色彩データに応じて表示白色の色度点や明るさを調整するようになっている。すなわち、周辺環境光や光源の特性に関わらず、安定した色再現で画像を表示するために、これらの特性を補正(キャリブレーション)するようになっている。通常、キャリブレーションではテストパターンを撮影しその撮影データが別途指定の設定値になるように補正するが、比較的高価で保管しにくいテストパターンを使用しないで同じ処理ができるほうが望ましい。そこで、経時的にほとんど変化しないと思われる、ユーザの歯や画像撮影時の背景データを使用することができる。その際、同一装置に複数のユーザが登録されている場合はユーザごとに歯のデータを登録しておく必要がある。   Further, in order to display an image with stable color reproduction for the purpose of viewing even if the environmental light characteristics change, the data processing unit 10 acquires the environmental light characteristics by the surrounding environment information acquisition unit 7 and converts the color data into the color data. The display white color point and brightness are adjusted accordingly. In other words, these characteristics are corrected (calibrated) in order to display an image with stable color reproduction regardless of the characteristics of ambient ambient light and light sources. Usually, in calibration, a test pattern is photographed and corrected so that the photographed data has a separately designated set value. However, it is desirable that the same processing can be performed without using a test pattern that is relatively expensive and difficult to store. Therefore, it is possible to use the user's teeth and background data at the time of image capturing, which seem to hardly change over time. At that time, if a plurality of users are registered in the same device, it is necessary to register tooth data for each user.

また、データ処理部10には、画像撮影部6において同じ構図で被写体を撮影する場合において、被写体がカメラの光軸方向に動く場合に、照明のあたり方によって画面上の被写体の明るさや大きさが変わらないように、それを補正する機能が設けられている。この場合においては、画像撮影部6で撮影された画像から撮像装置2とユーザとの距離を推定する。この方法としては、三次元測量法、ステレオ計測法などの一般的な方法を使用することができる。また、カメラでよく使われるレーザー測光用機器を撮像装置2に取り付けて計測してもよい。また、撮影画像による距離推定を各画素で行うことで、ユーザの三次元形状の推定が可能となる。また、各画素における被写体とカメラとの距離がわかると、光源と被写体との距離が画素ごとに得られるので、より正確・詳細に表示画像の明るさを補正することができる。   In addition, when the subject is photographed with the same composition in the image photographing unit 6, the data processing unit 10 determines the brightness and size of the subject on the screen depending on how the illumination is applied when the subject moves in the optical axis direction of the camera. A function is provided to correct this so as not to change. In this case, the distance between the imaging device 2 and the user is estimated from the image captured by the image capturing unit 6. As this method, general methods such as a three-dimensional survey method and a stereo measurement method can be used. Alternatively, laser photometry equipment often used in a camera may be attached to the imaging device 2 for measurement. Moreover, it is possible to estimate the three-dimensional shape of the user by performing distance estimation based on the captured image at each pixel. Further, if the distance between the subject and the camera in each pixel is known, the distance between the light source and the subject can be obtained for each pixel, so that the brightness of the display image can be corrected more accurately and in detail.

さらに、データ処理部10は、ユーザの個人認証のために撮影画像から個人の特定を行うようになっている。すなわち、画像撮影部6で初期登録時に撮影された個人の顔領域画像と、顔の三次元形状の計測値、その他特徴的な情報(めがねの使用、ほくろ、しみなどの情報)などを自動的、もしくは手動的に取得してメモリ部9に登録しておき、その後の使用では、画像撮影部6で撮影された画像を解析して、メモリ部9に登録されている個人データから自動的に照合し個人を特定することができるように構成されている。この特定は、例えば顔部位を抽出した後に個人にあわせた基本となるテンプレート画像と抽出された画像との相関をとり比べることによって行う。   Further, the data processing unit 10 is adapted to specify an individual from a captured image for user authentication. That is, the personal face area image captured at the time of initial registration by the image capturing unit 6, the measurement value of the three-dimensional shape of the face, and other characteristic information (information such as the use of glasses, moles, and spots) are automatically generated. Alternatively, it is manually acquired and registered in the memory unit 9, and in subsequent use, an image photographed by the image photographing unit 6 is analyzed and automatically obtained from personal data registered in the memory unit 9. It is configured so that individuals can be identified by collation. This specification is performed, for example, by comparing the correlation between the extracted template image and the basic template image tailored to the individual after extracting the facial part.

ユーザインターフェイス部11は、キーボード、マウス、トラックボールなどから構成され、ユーザの指示入力を可能とすると共に、ユーザに撮像装置2の状況や要求を伝達することを可能としている。なお、キーボード、マウス、トラックボールなど従来のインターフェイスを使用することも可能だが、ユーザの負担が少ない装置構成とすることが望ましいことから、画像表示部4と一体にしてタッチパネルとしてインターフェイスを構成することができる。また、スピーカーやマイクなどの音響設備を備えることによりユーザの音声や身振り、ジェスチャ(手話など高度なコミュニケート手段も含む)によってコミュニケートできる構成とすることが望ましい。   The user interface unit 11 includes a keyboard, a mouse, a trackball, and the like. The user interface unit 11 allows the user to input instructions and can transmit the status and requests of the imaging device 2 to the user. Although it is possible to use a conventional interface such as a keyboard, a mouse, a trackball, etc., it is desirable to have a device configuration with less burden on the user, so that the interface is configured as a touch panel integrally with the image display unit 4. Can do. In addition, it is desirable to have a configuration that can communicate with a user's voice, gesture, and gesture (including advanced communication means such as sign language) by providing acoustic equipment such as a speaker and a microphone.

このユーザインターフェイス部11では、例えば被写体の撮影時において、撮影画像による診断の興味領域が舌であった場合、ユーザに舌をだすように音声もしくは文字で指示をだし、口の動きから舌がでたことを推測して画像撮影部6により撮影させることもできる。また、ユーザインターフェイス部11を通じた音声、身振り、ジェスチャによって、画像表示部における表示画面の切り替えを行うようにすることもできる。   In this user interface unit 11, for example, when photographing a subject, if the region of interest for diagnosis based on the photographed image is the tongue, the user is instructed by voice or characters to put out the tongue, and the tongue comes out from the movement of the mouth. The image photographing unit 6 can also be photographed by guessing that. Further, the display screen in the image display unit can be switched by voice, gesture, or gesture through the user interface unit 11.

また、データ処理部10において撮影画像の中から診断の対象となる興味領域の抽出を行い、さらに興味領域から部位を指定する場合において、インターフェイス部10においてユーザが顔枠を矩形ポインタなどで囲んで指定する手段や、ユーザがポイントを指定すると指定位置を中心として所定の大きさの矩形が表示される指定手段などを設けることができる。   In addition, when the data processing unit 10 extracts a region of interest to be diagnosed from the photographed image and specifies a region from the region of interest, the user surrounds the face frame with a rectangular pointer or the like in the interface unit 10. It is possible to provide means for designating or designating means for displaying a rectangle of a predetermined size centering on the designated position when the user designates a point.

また、ユーザインターフェイス部11には、撮像画像の解析時に異常データの判別を支援する目的でデータ取得手段が設けられている。例えば、ユーザインターフェイス部11において撮影毎に問診を行えるシステムを構築しておくことができる。具体的には、単純に健康、不調を区別するボタンを押すようにするだけでもよい。その際に取得するデータ内容としては、現在の体調の自己判断(体が重い、熱がある、寒気がする、など)や、調子に関わる個人データ(睡眠時間や飲酒、喫煙、投薬情報など)が含まれる。音声で対話式に取得してもいいし、画像出力装置に問診票を表示してタッチパネルなどのユーザインターフェイスで取得してもよい。また、音声で取得する場合、声の調子がそのときの体調に関係する場合が多いので、声の周波数やトーンを解析して解析結果を問診データに加えても良い。   Further, the user interface unit 11 is provided with data acquisition means for the purpose of assisting in determining abnormal data when analyzing a captured image. For example, it is possible to construct a system in which an inquiry can be made for each shooting in the user interface unit 11. Specifically, it is possible to simply press a button for distinguishing between health and malfunction. The data contents to be acquired include self-judgment of the current physical condition (heavy, fever, cold, etc.) and personal data related to the condition (sleeping time, drinking, smoking, medication information, etc.) Is included. It may be acquired interactively by voice, or may be acquired through a user interface such as a touch panel by displaying an inquiry form on the image output device. In addition, when acquiring by voice, the tone of the voice is often related to the physical condition at that time, so the analysis result may be added to the inquiry data by analyzing the frequency and tone of the voice.

また、ユーザインターフェイス部11には個人認証手段が設けられている。すなわち、複数のユーザが診断システム1を使用する場合、現在使用している個人を特定する必要がある。そこで、データ処理部10における初期登録時に撮影された個人の顔領域画像などとの照合による個人の特定結果に基づき、特定結果に間違いがないかどうかを本人に確認できるようになっている。   The user interface unit 11 is provided with personal authentication means. That is, when a plurality of users use the diagnostic system 1, it is necessary to specify an individual who is currently using it. Therefore, it is possible to confirm to the person whether or not there is an error in the identification result based on the individual identification result obtained by collation with the personal face area image or the like photographed at the time of initial registration in the data processing unit 10.

確認方法としては、(a)音声で「あなたは○○さんですか?」と尋ねる、(b) 画像表示部4に「あなたは○○さんですか?」と表示する、という方法がある。また、これに対する回答方法は、(c)声で答える、(d)ジェスチャ、身振りで答える(うなずく・首を縦に振る(肯定)、首を横に振る(否定)など)、などの方法がある。これにより、目の悪い人、視力の落ちている人、耳の悪い人などにも優しい装置となる。   As a confirmation method, there are methods of (a) asking “Is you Mr. XX?” By voice, and (b) displaying “You are Mr. XX?” On the image display unit 4. The answering methods are (c) answering with voice, (d) gesturing, answering with gestures (nodding, shaking head vertically (positive), shaking head sideways (denial), etc.), etc. is there. This makes it a device that is friendly to people with poor eyes, people with poor vision, people with poor ears, and the like.

そして、特定結果が正しい場合は、通常の処理を続行し、特定が誤っていた場合は、(e)データ処理部10における照合結果が次に高い個人を特定して同様に尋ねる、(f)ユーザに名前の入力を促す(音声の場合は「あなたの名前は?」と聞き、ユーザは診断システム1に登録している名前を答える。表示の場合は、「あなたの名前は?」と表示すると同時に登録者リストを表示し、ユーザはその中から選択する)、 のいずれかの処理を行うことができる。 なお、個人の特定手段としては、他の単純な方法として、メニューに登録者の名前を表示し、ユーザが自ら選択して指示する方法がある。   If the specific result is correct, the normal process is continued. If the specific result is incorrect, (e) the next highest collation result in the data processing unit 10 is specified and asked in the same manner. (F) Prompt the user to input a name (in the case of voice, ask "What is your name?", And the user answers the name registered in the diagnostic system 1. If displayed, "What is your name?" At the same time, the registrant list is displayed, and the user can select one of them). As another means for identifying an individual, there is a method of displaying the name of the registrant on a menu and selecting and instructing the user himself / herself.

また、ユーザインターフェイス部11には、一定期間ごとに音声の出力などによってユーザに診断システム1の使用を促す手段が設けられている。なお、ユーザへの使用を促す手段は画像表示部4への表示であってもよい。すなわち、本実施形態の診断システム1においては一定期間ごとにユーザの健常状態データを確認・更新する必要があるので、一定期間ごと、例えば一ヶ月ごとにバイタルセンサーなどの使用をユーザに促すことにより、健常状態のデータの更新を行うことが可能となっている。さらに、診断の目的によっては日常的もしくは定期的な診断システム1の使用が必要な場合がある。そこで、ユーザの不在などにより診断システム1が使用されない状況が続いた場合や、定期的に画像撮影部2による撮影が行われない場合は、ユーザインターフェイス部11がアラートを表示又は音声を発することによって外部に通報するように構成されている。ただし、長期出張や旅行などのスケジュールが理由であることも考えられるので、データ管理装置13から外部通信部3を経由して入力された個人のスケジュールを考慮してアラートを出すようにすることもできる。   In addition, the user interface unit 11 is provided with means for prompting the user to use the diagnostic system 1 by outputting sound at regular intervals. The means for prompting the user to use may be a display on the image display unit 4. That is, in the diagnostic system 1 of the present embodiment, since it is necessary to check and update the user's healthy state data at regular intervals, by prompting the user to use a vital sensor at regular intervals, for example, every month It is possible to update data in a normal state. Further, depending on the purpose of diagnosis, it may be necessary to use the diagnostic system 1 on a daily or regular basis. Therefore, when the situation where the diagnostic system 1 is not used due to the absence of the user or the like, or when the imaging by the image capturing unit 2 is not performed regularly, the user interface unit 11 displays an alert or emits sound. It is configured to report to the outside. However, since it may be due to a schedule such as a long-term business trip or a trip, an alert may be issued in consideration of an individual schedule input from the data management device 13 via the external communication unit 3. it can.

制御部12は、CPU及びRAMを備え、撮像装置2の各構成部分を駆動制御するようになっている。本実施形態の撮像装置2は動画像も扱うため、制御部12はできる限り高速動作・制御が可能なチップにより構成することが望ましい。また、制御部12は、外部通信部3を経由してデータ管理装置から送信される指示信号又はユーザインターフェイス部11から入力される指示信号に基づいて、被写体照明部5における各光源のOn/Offを独立に制御するようになっている。なお、上記指示信号に基づく制御を行うほか、他の公知な方法によって被写体を推定することも可能である。   The control unit 12 includes a CPU and a RAM, and drives and controls each component of the imaging device 2. Since the imaging apparatus 2 of the present embodiment also handles moving images, it is desirable that the control unit 12 be configured with a chip that can operate and control as fast as possible. The control unit 12 also turns On / Off of each light source in the subject illumination unit 5 based on an instruction signal transmitted from the data management apparatus via the external communication unit 3 or an instruction signal input from the user interface unit 11. Are controlled independently. In addition to performing control based on the instruction signal, the subject can be estimated by other known methods.

次に、図2に示すように、本実施形態の診断システム1が備えるデータ管理装置13には以下の各構成部分が設けられている。   Next, as shown in FIG. 2, the following components are provided in the data management device 13 included in the diagnostic system 1 of the present embodiment.

外部通信部14は、有線又は無線の通信手段により、撮像装置2及び外部装置24と情報通信ができるように構成されている。そして、外部通信部3と同様に、この外部通信部3を経由して、画像解析の結果や画像データ・バイタルデータなどをデータ管理装置13又は外部装置24に送信するようになっている。ここで、外部装置24は病院や健康管理施設、コスメティック関係の店や施設・病院など、何らかのコンサルティングや診断が受けられる所が望ましい。   The external communication unit 14 is configured to perform information communication with the imaging device 2 and the external device 24 by wired or wireless communication means. Similarly to the external communication unit 3, the result of image analysis, image data, vital data, and the like are transmitted to the data management device 13 or the external device 24 via the external communication unit 3. Here, the external device 24 is preferably a place where some kind of consulting or diagnosis can be received, such as a hospital, health care facility, cosmetic-related store, facility, or hospital.

画像解析部15は、画像解析手段を備え、撮像装置2から外部通信部3及び外部通信部14を経由してデータ管理装置に送信された画像データに基づいて画像解析を行い、その解析結果より医療診断などの診断を行うようになっている。   The image analysis unit 15 includes image analysis means, performs image analysis based on image data transmitted from the imaging device 2 to the data management device via the external communication unit 3 and the external communication unit 14, and based on the analysis result Diagnosis such as medical diagnosis.

ここで本実施形態においては、上述したように、人肌など対象物の病変や異常が被写体の分光スペクトルの狭い帯域の特性に現れることに着目し、被写体照明部5によって、そうした帯域の影響が強調できる照明を照射して撮影することで画像から病変や異常を検出しやすくしている。すなわち、撮像装置2の画像撮影部2において被写体表面の反射光が撮像され、チャンネルごとに画素値に変換されると、図24に示すように被写体の特定部位(a)についてはチャンネル1において健常状態と異常状態の画素値の分離が容易となっており、図25に示すように被写体の他の特定部位(b)についてはチャンネル2において健常状態と異常状態との画素値の分離が容易となっている。   Here, in the present embodiment, as described above, focusing on the fact that the lesion or abnormality of the object such as human skin appears in the narrow band characteristics of the subject's spectral spectrum, the subject illumination unit 5 affects the influence of such a band. It is easy to detect lesions and abnormalities from images by shooting with illumination that can be enhanced. That is, when the reflected light on the surface of the subject is imaged by the image capturing unit 2 of the imaging device 2 and converted into pixel values for each channel, the specific part (a) of the subject is healthy in channel 1 as shown in FIG. Separation of the pixel values of the state and the abnormal state is facilitated, and as shown in FIG. 25, regarding the other specific part (b) of the subject, the pixel values of the normal state and the abnormal state can be easily separated in the channel 2. It has become.

そして、画像解析部15が備える画像解析手段は、興味領域の画像データに基づき、被写体の特定部位ごとに健常状態と異常状態の画素値を分離するようになっている。その後、健常状態・異常状態におけるそれぞれの画素値から三刺激値データ(RGB)をそれぞれ算出し、この三刺激値データからプライマリ変換によって反応色データを算出し、この反応色データから均等色空間データに変換するようになっている。均等色空間の一例として、CIEのL, L, 明度方向が規格化されたu´v´などがあり、それらの派生空間も含まれる。そして、この均等色空間データによって、図26又は図27に示すように健常状態・異常状態の色彩データを二次元以上(本実施形態では二次元)の座標として表し、画像を解析した結果得られた座標が健常状態の座標と比較してある一定の尺度で離れている場合は異常データと判断するようになっている。ここで、図26は特定部位(a)における色彩データの座標を示すものであり、図27は他の特定部位(b)における色彩データの座標を示すものである。また、図26又は図27における「特徴量1」とは例えばCIEのaやuやu´といった値であり、「特徴量2」とは例えばCIEのbやvやv´といった値である。なお、他の色彩データや色彩データ以外の計測値(3次元形状やテクスチャなど)であってもよい。なお、色光Aと色光Bを同時に照射してから分離するのではなく、色光Aと色光Bと別々に照射して画像を撮影してから画像解析を行ってもよい。And the image analysis means with which the image analysis part 15 is provided isolate | separates the pixel value of a healthy state and an abnormal state for every specific part of a to-be-photographed object based on the image data of a region of interest. Thereafter, tristimulus value data (RGB) is calculated from the respective pixel values in the normal state and the abnormal state, reaction color data is calculated from the tristimulus value data by primary conversion, and uniform color space data is calculated from the reaction color data. It is supposed to convert to. As an example of the uniform color space, there are CIE L * a * b * , L * u * v * , u′v ′ in which the lightness direction is standardized, and their derived spaces are also included. Then, with this uniform color space data, as shown in FIG. 26 or FIG. 27, the color data in the normal state / abnormal state is expressed as coordinates of two or more dimensions (two dimensions in this embodiment), and obtained as a result of analyzing the image. If the coordinates are separated by a certain scale compared with the coordinates in the normal state, it is determined as abnormal data. Here, FIG. 26 shows the coordinates of the color data in the specific part (a), and FIG. 27 shows the coordinates of the color data in the other specific part (b). In FIG. 26 or 27, “feature amount 1” is a value such as CIE a * , u * , or u ′, and “feature amount 2” is, for example, CIE b * , v * , or v ′ . Value. Note that other color data or measurement values other than the color data (three-dimensional shape, texture, etc.) may be used. Instead of separately irradiating the color light A and the color light B and then separating them, the image analysis may be performed after the color light A and the color light B are separately irradiated and an image is taken.

健常状態と異常状態の判断としては、例えば、620nm付近を中心とする狭帯域の色光を照射すると血液中のヘモグロビンの画像に対する関与が強調されるということが知られており、血流が途絶えてしまうような異常の検知に効果的と思われる。この場合、図8又は図11の色光Hを用いることにより、画像解析による健常状態と異常状態との判別の精度が向上する。   As a judgment of a healthy state and an abnormal state, for example, it is known that irradiation with a narrow band of color light centering around 620 nm emphasizes the involvement of hemoglobin in the blood, and blood flow is interrupted It seems to be effective for detecting such abnormalities. In this case, by using the color light H of FIG. 8 or FIG. 11, the accuracy of discrimination between a normal state and an abnormal state by image analysis is improved.

また、550nm付近を中心とする狭帯域の色光を照射すると毛細血管の強調ができるという報告もある。指先など毛細血管が集まる部分での異常を検知するのに効果的と思われる。この場合、図8又は図10の色光Iを用いることにより、画像解析による健常状態と異常状態との判別の精度が向上するといえる。   There is also a report that capillary blood vessels can be enhanced by irradiating a narrow band of color light centered around 550 nm. It seems to be effective in detecting abnormalities in the part where capillaries such as fingertips gather. In this case, it can be said that the use of the color light I of FIG. 8 or FIG. 10 improves the accuracy of discrimination between a normal state and an abnormal state by image analysis.

また、画像撮影部6によって時系列的に、すなわち静止画により連続的に撮影又は動画により撮影された被写体の撮影画像を解析することにより、被写体の色彩データや三次元形状、テクスチャを計測(推定)し、それらの推定データから皮膚下の組織構造にかかわるヘモグロビン量、メラニン量、酸素飽和度などを推定することもできる。また、目の画像から、まばたき回数や目(特に白目)の色、目やにの状況などのデータを取得してもよい。   In addition, the color image, three-dimensional shape, and texture of the subject are measured (estimated) by analyzing the photographed image of the subject photographed in time series by the image photographing unit 6, that is, continuously photographed with a still image or photographed with a moving image. The amount of hemoglobin, the amount of melanin, the degree of oxygen saturation, etc. related to the tissue structure under the skin can also be estimated from the estimated data. Further, data such as the number of blinks, the color of the eyes (particularly white eyes), the state of the eyes, and the like may be acquired from the eye image.

画像解析部15は、画像解析により健康と診断した場合は、診断処理を終了するようになっている。一方、画像解析により不健康と診断した場合は、画像解析の結果を外部通信部14を経由して外部装置24に送信するようになっている。送信先は、上述のように何らかのコンサルティングや診断を受けられる所が望ましく、例えば病院や健康管理施設などの公共施設、コスメティック関係の店や施設・病院、インターネットサイト、携帯端末などが考えられる。   The image analysis unit 15 ends the diagnosis process when it is diagnosed as healthy by image analysis. On the other hand, when unhealthy is diagnosed by image analysis, the result of the image analysis is transmitted to the external device 24 via the external communication unit 14. The destination is preferably a place where some kind of consulting or diagnosis can be received as described above. For example, public facilities such as hospitals and health care facilities, cosmetic-related shops and facilities / hospitals, Internet sites, and portable terminals are considered.

また、画像解析部15が備える画像解析手段は、外部通信部14を通じてコンサルタントなどに画像データを送付する場合、ユーザの許容に応じて伝送できるデータの部位を変更するようになっている。例えば、個人の特定を回避するために目や口の周りの画像を除去又は変更して伝送することをユーザが希望した場合、画像内の該当部を自動抽出し、その部位を任意の色に変更したり、モザイクやぼかしを入れたりする。   Further, the image analysis means provided in the image analysis unit 15 changes the portion of data that can be transmitted according to the user's permission when sending image data to a consultant or the like through the external communication unit 14. For example, when the user desires to remove or change the image around the eyes or mouth to transmit the individual in order to avoid the identification of the individual, the corresponding part in the image is automatically extracted and the part is changed to an arbitrary color. Change or add mosaic or blur.

また個人情報を安全に秘匿するために、伝送されるデータやデータ管理装置13の内部のデータは、各個人ごとに暗号キーを変更して暗号化する。キーの作製方法は、公知の方法がそれぞれ使用できるが、個人ごとのキー設定を可能とするバイオメトリクスが望ましい。この場合、個人の目、鼻、口などの顔内構成要素の位置関係や鼻の高さや、顔全体の形状などの三次元形状、虹彩情報などを暗号キーとする。   In addition, in order to safely conceal personal information, transmitted data and data inside the data management device 13 are encrypted by changing the encryption key for each individual. As a method for producing the key, known methods can be used, but biometrics that enable key setting for each individual are desirable. In this case, the positional relationship of the constituent elements in the face such as the eyes, nose and mouth of the individual, the height of the nose, the three-dimensional shape such as the shape of the entire face, iris information, etc. are used as the encryption key.

なお、上述した撮像装置2のデータ処理部10におけるユーザの個人認証のための撮影画像の解析をデータ管理装置13の画像解析部15において行い、その特定結果を外部通信部14から撮像装置2に送信するようにしてもよい。
I/O部16は、CFカード、SDカード、USBメモリカードなどの可搬型デバイスを接続できるように構成されている。なお、I/O部16にバイタルセンサーなどの計測装置を接続して使用するようにしてもよい。
Note that the image analysis unit 15 of the data management device 13 analyzes the captured image for personal authentication of the user in the data processing unit 10 of the imaging device 2 described above, and the identification result is transmitted from the external communication unit 14 to the imaging device 2. You may make it transmit.
The I / O unit 16 is configured to connect a portable device such as a CF card, an SD card, or a USB memory card. A measurement device such as a vital sensor may be connected to the I / O unit 16 for use.

ユーザインターフェイス部17は、ユーザの指示入力を可能にすると共に、ユーザに装置の状況や要求を伝達することができるように構成されている。撮像装置2のユーザインターフェイス部11と同様に、ユーザに負担をかけない構成が望ましいが、メンテナンスやバックアップなど装置管理者による複雑な処理が必要な場合もあるので、キーボードやマウスのみを使用することもできる。ただし、ユーザインターフェイス部17はデータ管理装置13において必須の構成部分ではなく、撮像装置2のユーザインターフェイス部11がデータ管理装置13のユーザインターフェイス部17としての機能を兼ねる構成とすることもできる。この場合、撮像装置2のユーザインターフェイス部11を通じて入出力されるデータは外部通信部3及び外部通信部14を経由してデータ管理装置13に転送される。   The user interface unit 17 is configured to allow the user to input instructions and to transmit the status and request of the apparatus to the user. As with the user interface unit 11 of the imaging device 2, a configuration that does not place a burden on the user is desirable, but since complicated processing by the device administrator such as maintenance and backup may be necessary, use only a keyboard and a mouse. You can also. However, the user interface unit 17 is not an essential component in the data management device 13, and the user interface unit 11 of the imaging device 2 can also function as the user interface unit 17 of the data management device 13. In this case, data input / output through the user interface unit 11 of the imaging device 2 is transferred to the data management device 13 via the external communication unit 3 and the external communication unit 14.

表示部18は、液晶などのディスプレイを備え、データ管理装置13の動作状況やユーザインターフェイス部18による指示入力などを表示するようになっている。また、撮影画像から異常データが検出された際の警告を表示する。異常データが検出された際の警告としては、音声手段によって知らせるように構成することも可能である。ただし、表示部18もデータ管理装置13において必須の構成部分ではなく、撮像装置2の画像表示部4を用いることもできる。その場合、表示される内容は、外部通信部14及び外部通信部3を経由して画像入出力装置に転送される。
記憶部19は、バッファなどのメモリを備えており、データ保持部20、作業領域部21及びシステム情報保持部から構成されている。
The display unit 18 includes a display such as a liquid crystal display, and displays the operation status of the data management device 13 and instruction input by the user interface unit 18. Also, a warning when abnormal data is detected from the captured image is displayed. The warning when abnormal data is detected can be configured to be notified by voice means. However, the display unit 18 is not an essential component in the data management device 13, and the image display unit 4 of the imaging device 2 can also be used. In this case, the displayed content is transferred to the image input / output device via the external communication unit 14 and the external communication unit 3.
The storage unit 19 includes a memory such as a buffer, and includes a data holding unit 20, a work area unit 21, and a system information holding unit.

データ保持部20は、撮像装置2から送信された診断対象となる興味領域の画像、計測、生体情報、装置状況、環境状況などの各種データや、外部装置24から入力されたコンサルティング・診断データなどを保持するようになっている。ここで、データ保持部20において保持されるデータは画像データや各種計測データであり、特に画像データはデータサイズが大きいのでデータ保存に工夫が必要となる。そこで、データ保持部20は、日常の健康チェックで「健康」と判断されたデータを圧縮して保存することで、メモリを有効に使用するようになっている。   The data holding unit 20 includes various types of data such as an image of an area of interest to be diagnosed, measurement, biological information, device status, and environmental status transmitted from the imaging device 2, consulting / diagnosis data input from the external device 24, etc. Is supposed to hold. Here, the data held in the data holding unit 20 is image data and various measurement data. In particular, since the image data has a large data size, it is necessary to devise data storage. Therefore, the data holding unit 20 uses the memory effectively by compressing and storing the data determined as “healthy” by the daily health check.

作業領域部21は、データ管理装置13におけるデータ処理を高速に行うため、データ処理に使用する各種データを一時的に保持するようになっている。   The work area unit 21 temporarily holds various data used for data processing in order to perform data processing in the data management device 13 at high speed.

システム情報保持部22は、撮像装置2やデータ管理装置13のシステム情報を保持するようになっている。
まず、システム情報保持部22は、撮像装置2の被写体照明部5が備える光源としてのLED又はフィルタの管理番号と、効果的な被写体と、抽出できる特徴量を、図28のようにテーブル化して登録・管理している。撮像装置2の制御部12はこのテーブルによって被写体照明部5が備える各光源のOn/Offを独立に制御して被写体に適した色光を与えることが可能となっている。
また、システム情報保持部22は、撮像装置2の被写体照明部5が備える光源やフィルタの分光特性、色彩データ、経時的な特性などを管理しており、画像解析部15が画像の解析上必要な場合にこれらのデータを参照できるようになっている。
The system information holding unit 22 holds system information of the imaging device 2 and the data management device 13.
First, the system information holding unit 22 tabulates a management number of an LED or a filter as a light source included in the subject illumination unit 5 of the imaging apparatus 2, an effective subject, and a feature quantity that can be extracted as shown in FIG. Register and manage. The control unit 12 of the imaging device 2 can control the On / Off of each light source provided in the subject illumination unit 5 independently by this table to give color light suitable for the subject.
The system information holding unit 22 manages the light source and filter spectral characteristics, color data, temporal characteristics, and the like included in the subject illumination unit 5 of the imaging device 2, and the image analysis unit 15 is necessary for image analysis. In such cases, these data can be referred to.

また、システム情報保持部22は、「健康」と判断された画像データから計測された計測値を用いて、画像解析部15における画像解析による診断の基準となる「健常状態データ」を作成して保持するようになっている。なお、健常状態データを作成すれば異常状態データは健常時データの補集合として表すことができる。この健常状態データは、データの信頼性を高めるため、一定期間ごとにユーザの健常状態を確認した上で更新されるようになっている。すなわち、画像表示部4又はユーザインターフェイス部17において、例えば一ヶ月ごとにバイタルセンサーなどの使用をユーザに促すことによって、健常状態データの更新を行うようになっている。また、最近一ヵ月のデータを基に毎日更新していくこともできる。これにより、季節や加齢による体調の変化にも対応できると考えられる。また、異常データを含む日を除いて、30日間など所定の日数を参考にして作成してもよい。   In addition, the system information holding unit 22 creates “health state data” that serves as a reference for diagnosis by image analysis in the image analysis unit 15 using measurement values measured from image data determined to be “healthy”. It comes to hold. If normal state data is created, the abnormal state data can be expressed as a complementary set of normal data. The normal state data is updated after confirming the normal state of the user at regular intervals in order to increase the reliability of the data. That is, in the image display unit 4 or the user interface unit 17, for example, the health state data is updated by prompting the user to use a vital sensor or the like every month. It can also be updated daily based on recent month data. Thereby, it is thought that it can respond also to the change of the physical condition by a season or aging. Moreover, you may produce with reference to predetermined days, such as 30 days, except the day containing abnormal data.

また、診断システム1の導入時又は新しいユーザを登録して間もない時は、ユーザ個人の肌の色やその他の特徴についての情報が少なく、健常状態又は異常状態のデータを構成することができない。そこで、システム情報保持部22に予め一般人の平均的なデータを登録しておき、初回から所定の期間はその平均データ使用して仮の計測値を得るようになっている。また、診断システム1を使用するユーザの平均データを使用して仮の計測値を得ることもできる。そして、所定の期間経過後はユーザの実データに切り替えて、それまでの画像データに対して計測値を更新するようになっている。なお、「所定の期間」はシステム情報保持部22に予め登録しておく。   In addition, when the diagnostic system 1 is introduced or just after a new user is registered, there is little information about the user's individual skin color and other characteristics, and data on a normal state or an abnormal state cannot be configured. . Therefore, average data of ordinary persons is registered in the system information holding unit 22 in advance, and a temporary measurement value is obtained using the average data for a predetermined period from the first time. Moreover, a temporary measured value can also be obtained using the average data of the user who uses the diagnostic system 1. Then, after the lapse of a predetermined period, the measurement value is updated with respect to the image data up to that time by switching to the actual data of the user. The “predetermined period” is registered in advance in the system information holding unit 22.

また、システム情報保持部22は、撮像装置2のI/O部8又はデータ管理装置13のI/O部16に接続されたデバイスなどから転送された個人のスケジュールを保持している。そして、システム情報保持部22が保持する個人のスケジュールに基づいて、ユーザインターフェイス部11は診断システム1の使用を促すアラートを発生するようになっている。   The system information holding unit 22 holds a personal schedule transferred from a device connected to the I / O unit 8 of the imaging device 2 or the I / O unit 16 of the data management device 13. Based on the personal schedule held by the system information holding unit 22, the user interface unit 11 generates an alert that prompts the user to use the diagnostic system 1.

さらに、システム情報保持部22は撮像装置2又はデータ管理装置13の各構成部分の特性を保持するようになっている。すなわち、撮像装置2の被写体照明部5,画像表示部4,画像撮影部6などは経時的に特性が変動し、通常は時間とともに劣化する。そこで、システム情報保持部22にこの経時変化の補正(調整)を行うタイミングを設定し、タグ情報から時刻情報などを読み取ることにより、指定したタイミングに従って撮像装置2又はデータ管理装置の特性を計測・補正するようになっている。これにより、経時的に安定した画像計測値を得ることができるようになっている。   Furthermore, the system information holding unit 22 holds the characteristics of each component of the imaging device 2 or the data management device 13. That is, the characteristics of the subject illumination unit 5, the image display unit 4, the image photographing unit 6 and the like of the imaging device 2 vary with time, and usually deteriorate with time. Therefore, the timing for correcting (adjusting) the change with time is set in the system information holding unit 22, and the time information and the like are read from the tag information, so that the characteristics of the imaging device 2 or the data management device are measured / according to the designated timing. It is to be corrected. This makes it possible to obtain image measurement values that are stable over time.

また、定期的に行うキャリブレーションとは別に、周辺状況が変化したときに、ユーザがキャリブレーションのタイミングを指示、もしくは、画像から自動的に周辺状況の変化を検知して、キャリブレーションを行うようになっている。ここで「周辺状況が変化」とは、例えば、周辺環境照明が大きく変わった(蛍光長などの照明を交換した、近くに新しい窓をつけたなど)場合や、周囲が変わった(画像の背景が変わった、部屋を模様替えした、装置の置き位置を変えたなど)場合が考えられる。周辺状況の違いは、システム情報保持部22に保存されている過去のデータと現状のデータを比較して、違いの程度に応じてキャリブレーションをするかどうかを判断することなどが可能である。   In addition to calibration that is performed periodically, when the surrounding situation changes, the user instructs the calibration timing or automatically detects the change in the surrounding situation from the image and performs calibration. It has become. Here, “the surrounding situation has changed” means, for example, that the surrounding environment lighting has changed significantly (e.g., the fluorescent length has been changed, a new window has been installed nearby), or the surrounding has changed (the background of the image Change the room, change the position of the device, etc.). The difference in the peripheral situation can be determined by comparing the past data stored in the system information holding unit 22 with the current data and determining whether or not to perform calibration according to the degree of the difference.

さらに、被写体照明部5が備える光源や画像撮影部6が備えるカメラ又はセンサは消耗品とも考えられ、安定な装置を維持するためには、一定期間ごとに交換が必要となる場合がある。そこで、光源やカメラなどの情報(交換日など)を画像データのタグ情報又はシステム情報保持部22に加え、これらのデバイスの使用が一定期間以上となった場合又は破損により交換が必要になった場合は、ユーザインターフェイス部11においてアラートを出す構成とすることも考えられる。   Furthermore, the light source included in the subject illumination unit 5 and the camera or sensor included in the image capturing unit 6 are also considered consumables, and may need to be replaced at regular intervals in order to maintain a stable device. Therefore, information such as the light source and the camera (replacement date, etc.) is added to the tag information of the image data or the system information holding unit 22, and when these devices have been used for a certain period of time or have been replaced due to damage In such a case, it may be considered that the user interface unit 11 issues an alert.

データ管理部22は、記憶部19のデータ保持部20において保持される各個人の画像データにタグ(付帯情報)を付けて管理する。タグの付け方は、各データのヘッダやフッダに付帯させてもいいし、各データ名と関連づけて別ファイルにまとめてもよい。   The data management unit 22 manages each individual image data held in the data holding unit 20 of the storage unit 19 by attaching a tag (accompanying information). The tagging method may be attached to the header or footer of each data, or may be collected in a separate file in association with each data name.

ここで、タグの内容は、画像の撮影日時、ユーザの名前およびその属性、撮像装置2及びデータ管理装置13の情報、周辺環境の情報、撮像画像やI/O部8又はI/O部16に接続したバイタルセンサーから取得された計測データ値、撮像画像を主観的に診断したときの診断情報、別途取得された問診データの内容などを含める。特に、時系列的に画像データを追跡するための撮影日時などの時間情報や、その他データの前後関係を把握できるようなタグは必須である。
また、撮像装置2及びデータ管理装置13の情報として必要なのは、画像から計測データを推定するのに関係する被写体照明部5の情報、画像撮影部6の特性や撮像装置2の特性、データ処理部10におけるデータ処理方法の情報である。これらハードウェアやソフトウェアの情報はバージョンで管理されることが一般的で、本実施形態においてもその考えを踏襲する。したがって、タグにはそれぞれのバージョンNo.を記載する。
Here, the content of the tag includes the image shooting date and time, the user name and its attributes, information on the imaging device 2 and the data management device 13, information on the surrounding environment, the captured image, the I / O unit 8 or the I / O unit 16 Measured data values acquired from a vital sensor connected to, diagnostic information when a captured image is subjectively diagnosed, contents of inquiry data acquired separately, and the like are included. In particular, a tag that can grasp time information such as photographing date and time for tracking image data in time series, and other data contexts is essential.
Further, information required for the imaging device 2 and the data management device 13 is information on the subject illumination unit 5 related to estimation of measurement data from images, characteristics of the image capturing unit 6, characteristics of the imaging device 2, and data processing unit. 10 is data processing method information. Such hardware and software information is generally managed by version, and this embodiment follows that idea. Therefore, each version number is described in the tag.

また、画像解析のためのソフトウェアなどは、機能向上(計測値の精度向上含む)のためにバージョンアップされる場合がある。バージョンアップされたときは、画像データ内のタグ内容と新しいソフトウェアを用いて、計測値を計算しなおし新しい計測値に更新する。したがって、タグ内容は新しく更新されるようになっている。   In addition, software for image analysis may be upgraded to improve functions (including improved accuracy of measurement values). When the version is upgraded, the measured value is recalculated and updated to the new measured value by using the tag contents in the image data and the new software. Therefore, the tag content is newly updated.

さらに、保持された画像データを可搬型メモリに保持し持ち運ぶ場合に、メモリの容量制限を考慮する場合がある。そこで、画像データとタグデータを分けやすい形にしておくと、持ち運び時は画像データをメモリに入れないようにできる。タグデータを別ファイルで管理する方法が望ましい。また、そうすることで、タグデータだけに特殊な処理を加えやすくなる。   Further, when the held image data is held in a portable memory and carried, there may be a case where a memory capacity limit is taken into consideration. Therefore, if the image data and the tag data are easily separated, the image data cannot be stored in the memory when carried. A method of managing tag data in a separate file is desirable. Also, by doing so, it becomes easy to add special processing only to the tag data.

また、各画像データは、ユーザ各個人ごとを単位(1ロール)としてディレクトリ分けするようになっている。これにより、個人ごとにデータを管理しやすくなる。   In addition, each image data is divided into directories in units (one role) for each individual user. This makes it easier to manage data for each individual.

なお、本実施形態の診断システム1が備える撮像装置2又はデータ管理装置13が設置される場所としては、洗面所や浴室など水周りの近くが考えられる。したがって、湿気で曇らないように、曇り止め加工やコーティングなどの防水対策を施すことが望ましい。また、ほこりがたまりやすい場所に設置することも考えて、防汚シールなどの汚れやほこり対策があることが望ましい。   In addition, as a place where the imaging device 2 or the data management device 13 included in the diagnosis system 1 of the present embodiment is installed, a place near a water area such as a washroom or a bathroom can be considered. Therefore, it is desirable to take waterproof measures such as anti-fogging processing and coating so as not to be fogged with moisture. It is also desirable to take measures against dirt and dust such as an antifouling seal, considering installation in a place where dust tends to accumulate.

次に、上述の診断システム1の作用について、図29のフローチャートを参照して説明する。   Next, the operation of the above-described diagnostic system 1 will be described with reference to the flowchart of FIG.

ユーザが診断システム1の使用を開始すると、まず、画像撮影部6が被写体の撮影を行う。   When the user starts using the diagnostic system 1, first, the image photographing unit 6 photographs a subject.

データ処理部10は、画像撮影部6で撮影した被写体の画像、周辺環境情報取得部7で取得した周辺環境情報、I/O部8から入力された計測データや画像データ又はユーザインターフェイス部11から入力されたユーザの指示入力データなどの入力情報を解析し、画像表示部4に画像の表示を行うと共に、被写体照明部5の光源などを調整する。また、画像撮影部6で初期登録時に撮影された個人の顔領域画像と、画像撮影部6が取得した画像を解析して、登録されている個人データから自動的に照合し個人を特定する(ステップS1)。   The data processing unit 10 includes an image of a subject captured by the image capturing unit 6, peripheral environment information acquired by the peripheral environment information acquiring unit 7, measurement data and image data input from the I / O unit 8, or the user interface unit 11. The input information such as the user instruction input data that has been input is analyzed, the image is displayed on the image display unit 4, and the light source of the subject illumination unit 5 is adjusted. Further, the face area image of the individual photographed at the time of initial registration by the image photographing unit 6 and the image acquired by the image photographing unit 6 are analyzed, and automatically collated from the registered personal data to identify the individual ( Step S1).

次に、ユーザインターフェイス部11は、データ処理部10による個人の特定結果を個人認証手段によって確認する(ステップS2)。その結果、個人の特定が誤っていた場合は再びデータ処理部10が個人の特定を行う(ステップS3,ステップS1)。   Next, the user interface unit 11 confirms the individual identification result by the data processing unit 10 by the personal authentication means (step S2). As a result, if the identification of the individual is incorrect, the data processing unit 10 identifies the individual again (steps S3 and S1).

一方、個人の特定が正しかった場合は、ユーザインターフェイス部11が健康状態についての問診を行う(ステップS3,ステップS4)。この問診により、現在の体調の自己判断(体が重い、熱がある、寒気がする、など)や、調子に関わる個人データ(睡眠時間や飲酒、喫煙、投薬情報など)が得られる。   On the other hand, if the identification of the individual is correct, the user interface unit 11 makes an inquiry about the health condition (steps S3 and S4). Through this inquiry, self-judgment of the current physical condition (heavy body, fever, coldness, etc.) and personal data related to the condition (sleeping time, drinking, smoking, medication information, etc.) can be obtained.

次に、画像撮影部6が被写体のうち診断対象となる部位の画像を撮影する。この際、被写体照射部5が複数の光源を照射して撮影を行う(ステップS5)。すなわち、光源としてはLEDを使用するか、白色光源を干渉フィルタと共に使用するが、本実施形態の被写体照明部5では、図8〜図12に示す特性を有する光源のうち2種類の光源(色光H及び色光I)を使用する。これにより、図14に示す特定部位(a)の例では、健常状態と異常状態で低波長側(色光Aの帯域に重なる)の差異が大きく、図15に示す特定部位(b)の例では、中域から高域(色光Bの帯域に重なる)の差異が大きくなる。そして、色光A及び色光Bを被写体の特定部位(a)に対して照射すると、被写体の反射光のスペクトルは図16に示すように色光A又は色光Bと被写体の分光反射率の積となる。同様に、色光A及び色光Bを被写体の他の特定部位(b)に対して照射すると、被写体の反射光のスペクトルは図17に示すように色光A又は色光Bと被写体の分光反射率の積となる。   Next, the image capturing unit 6 captures an image of a part to be diagnosed in the subject. At this time, the subject irradiating unit 5 irradiates a plurality of light sources and performs photographing (step S5). That is, an LED is used as a light source or a white light source is used together with an interference filter. However, the subject illumination unit 5 of the present embodiment uses two types of light sources (color light) among the light sources having the characteristics shown in FIGS. H and color light I) are used. Thereby, in the example of the specific part (a) shown in FIG. 14, the difference in the low wavelength side (overlapping with the band of the colored light A) is large between the normal state and the abnormal state, and in the example of the specific part (b) shown in FIG. The difference between the middle range and the high range (which overlaps the band of the colored light B) becomes large. Then, when the color light A and the color light B are irradiated to the specific part (a) of the subject, the spectrum of the reflected light of the subject becomes the product of the color light A or the color light B and the spectral reflectance of the subject as shown in FIG. Similarly, when the color light A and the color light B are irradiated to another specific part (b) of the subject, the spectrum of the reflected light of the subject is the product of the color light A or the color light B and the spectral reflectance of the subject as shown in FIG. It becomes.

そして、画像撮影部6は、被写体表面の反射光を撮像して画素値に変換する。その際、チャンネルによって各色光に起因する反射光を分離することで、被写体の特定部位ごとに健常状態及び異常状態における画素値を分離しやすくする。さらに、データ処理部10は撮影画像の中から興味領域の抽出を行う(ステップS6)。   Then, the image photographing unit 6 captures the reflected light on the subject surface and converts it into a pixel value. At that time, the reflected light caused by each color light is separated by the channel, thereby making it easy to separate the pixel values in the normal state and the abnormal state for each specific part of the subject. Further, the data processing unit 10 extracts a region of interest from the captured image (step S6).

撮像装置2から外部通信部3及び外部通信部14を経由して、興味領域の撮影画像をデータ管理装置13に送信する(ステップS7)。   The captured image of the region of interest is transmitted from the imaging device 2 to the data management device 13 via the external communication unit 3 and the external communication unit 14 (step S7).

データ管理装置13に送信された興味領域の撮影画像は記憶部19のデータ保持部20が保持する。そして、データ管理部22は、データ保持部20において保持される各個人の画像データにタグ(付帯情報)を付けて管理する。   The captured image of the region of interest transmitted to the data management device 13 is held by the data holding unit 20 of the storage unit 19. Then, the data management unit 22 manages each individual image data held in the data holding unit 20 by attaching a tag (accompanying information).

次に、画像解析部15は記憶部19のデータ保持部20が保持する興味領域の画像データに基づき、被写体の特定部位ごとに健常状態と異常状態の画素値を分離する(ステップS8)。そして健常状態・異常状態におけるそれぞれの画素値から三刺激値データ(RGB)をそれぞれ算出し、この三刺激値データからプライマリ変換によって反応色データを算出し、この反応色データから均等色空間データに変換する(ステップS9)。そして、この均等色空間データによって、図26に示すように健常状態・異常状態の色彩データを二次元以上(本実施形態では二次元)の座標として表し、健常状態と非健康時の座標を比較する(ステップS10)。その結果、得られた座標が健常状態の座標と比較してある一定の尺度で離れている場合は異常データと判断する(ステップS11)。なお、健常状態データは記憶部19のシステム情報保持部22において保持されている。   Next, the image analysis unit 15 separates the pixel values of the normal state and the abnormal state for each specific part of the subject based on the image data of the region of interest held by the data holding unit 20 of the storage unit 19 (step S8). Then, tristimulus value data (RGB) is calculated from the respective pixel values in the normal state and the abnormal state, and reaction color data is calculated from the tristimulus value data by primary conversion, and the reaction color data is converted into uniform color space data. Conversion is performed (step S9). Then, with this uniform color space data, as shown in FIG. 26, the color data of the normal state / abnormal state is represented as coordinates of two or more dimensions (in this embodiment, two-dimensional), and the coordinates of the normal state and the unhealthy state are compared. (Step S10). As a result, when the obtained coordinates are separated by a certain scale compared with the coordinates in the normal state, it is determined as abnormal data (step S11). The healthy state data is held in the system information holding unit 22 of the storage unit 19.

この健常状態と異常状態の判断としては、例えば、620nm付近を中心とする狭帯域の色光を照射すると血液中のヘモグロビンの画像に対する関与が強調されるという報告があり、血流が途絶えてしまうような異常の検知に効果的と思われる。この場合、図8又は図11の色光Hを用いると良い。   As a judgment of this normal state and abnormal state, for example, there is a report that irradiation with a narrow band of color light centering around 620 nm emphasizes the involvement of hemoglobin in the blood image, and blood flow is disrupted It seems to be effective for detecting abnormalities. In this case, the color light H in FIG. 8 or FIG. 11 may be used.

また、550nm付近を中心とする狭帯域の色光を照射すると毛細血管の強調ができるという報告もある。指先など毛細血管が集まる部分での異常を検知するのに効果的と思われる。この場合、図8又は図10の色光Bを用いると良い。   There is also a report that capillary blood vessels can be enhanced by irradiating a narrow band of color light centered around 550 nm. It seems to be effective in detecting abnormalities in the part where capillaries such as fingertips gather. In this case, the color light B shown in FIG. 8 or 10 is preferably used.

また、画像撮影部6によって時系列的(静止画を連続的に、動画的に)に撮影された被写体の撮影画像を解析することにより、被写体の色彩データや三次元形状、テクスチャを計測(推定)し、それらの推定データから皮膚下の組織構造にかかわるヘモグロビン量、メラニン量、酸素飽和度などを推定することもできる。また、目の画像から、まばたき回数や目(特に白目)の色、目やにの状況などのデータを取得してもよい。   In addition, the color data, three-dimensional shape, and texture of the subject are measured (estimated) by analyzing the photographed image of the subject photographed in time series by the image photographing unit 6 (continuous still images and moving images). The amount of hemoglobin, the amount of melanin, the degree of oxygen saturation, etc. related to the tissue structure under the skin can also be estimated from the estimated data. Further, data such as the number of blinks, the color of the eyes (particularly white eyes), the state of the eyes, and the like may be acquired from the eye image.

画像解析部15が画像解析により健康と診断した場合は、診断処理を終了する(ステップS12)。一方、画像解析部15が画像解析により不健康と診断した場合は(ステップS13)、診断結果を表示部18又画像表示部4に表示すると共に(ステップS14)、画像解析の結果を、外部通信部14を経由して外部装置24、すなわち外部のコンサルタントや医療機関に送信する(ステップS15)。送信先は、上述のように何らかのコンサルティングや診断を受けられる所が望ましく、例えば病院や健康管理施設などの公共施設、コスメティック関係の店や施設・病院、インターネットサイト、携帯端末などが考えられる。   When the image analysis unit 15 diagnoses health through image analysis, the diagnosis process is terminated (step S12). On the other hand, when the image analysis unit 15 diagnoses unhealthy by image analysis (step S13), the diagnosis result is displayed on the display unit 18 or the image display unit 4 (step S14), and the result of the image analysis is displayed on the external communication unit. 14 to the external device 24, that is, to an external consultant or medical institution (step S15). The destination is preferably a place where some kind of consulting or diagnosis can be received as described above. For example, public facilities such as hospitals and health care facilities, cosmetic-related shops and facilities / hospitals, Internet sites, and portable terminals are considered.

また、画像解析部15が備える画像解析手段は、外部通信部3又は外部通信部14を通じてコンサルタントなどに画像データを送付する場合、ユーザの許容に応じて伝送できるデータの部位をモザイクやぼかしにより変更する。また、個人情報を安全に秘匿するために、伝送されるデータやデータ管理装置13の内部のデータは、各個人ごとに暗号キーを変更して暗号化する。   The image analysis means provided in the image analysis unit 15 changes the portion of data that can be transmitted by mosaic or blurring when sending image data to a consultant or the like through the external communication unit 3 or the external communication unit 14 To do. In addition, in order to safely conceal personal information, transmitted data and data in the data management device 13 are encrypted by changing the encryption key for each individual.

なお、診断システムの導入時又は新しいユーザを登録して間もないときは、予め登録された一般人の平均的なデータを使用して計測値を得る。また、診断システム1を使用するユーザのデータの平均値を使用して仮の計測値を得ることもできる。この場合、所定の期間経過後に、ユーザの実データに切り替えて、それまでの仮の画像データに対して計測値を更新する。   When a diagnostic system is introduced or when a new user has just been registered, a measurement value is obtained using average data of general persons registered in advance. Moreover, a temporary measured value can also be obtained using the average value of the data of the user who uses the diagnostic system 1. In this case, after the lapse of a predetermined period, the actual data of the user is switched and the measurement value is updated with respect to the temporary image data up to that time.

また、所定の期間ごとに画像表示部4、ユーザインターフェイス部11又は表示部18において診断システム1の使用を促すアラートが表示される。これにより、所定の期間ごとにデータが更新され、診断結果の信頼性が確保される。   In addition, an alert that prompts the user to use the diagnostic system 1 is displayed on the image display unit 4, the user interface unit 11, or the display unit 18 every predetermined period. Thereby, data is updated for every predetermined period, and the reliability of a diagnostic result is ensured.

また、システム情報保持部22は、経時的に安定した画像計測値を得るため、診断システム1を構成する各装置の特性の経時変化を補正(調整)するタイミングを設定し、指定したタイミングに従って各装置の特性を計測・補正する。また、周辺状況が変化したときに、ユーザがキャリブレーションのタイミングを指示、もしくは、画像から自動的に周辺状況の変化を検知して、キャリブレーションを行う。さらに、消耗品について使用が一定期間以上となった場合又は破損により交換が必要になった場合は、ユーザインターフェイス部11においてアラートを出すことにより交換を促す。   In addition, the system information holding unit 22 sets timings for correcting (adjusting) changes in characteristics of the devices constituting the diagnostic system 1 in order to obtain image measurement values that are stable over time, and sets each timing according to the designated timing. Measure and correct device characteristics. Further, when the surrounding situation changes, the user instructs the calibration timing or automatically detects the change in the surrounding situation from the image and performs calibration. Furthermore, when the consumables have been used for a certain period of time or when replacement is necessary due to damage, the user interface unit 11 issues an alert to prompt replacement.

以上より、本実施形態の診断システム1によれば、被写体の病変や異常は被写体表面の分光スペクトルの狭い帯域の特性に現れるが、そうした帯域の影響が強調できる特定の色光によって被写体を照射して撮影するので、画像データから病変や異常を検出しやすくなる。   As described above, according to the diagnosis system 1 of the present embodiment, the lesion or abnormality of the subject appears in the narrow band characteristics of the spectral spectrum of the subject surface, but the subject is irradiated with the specific color light that can emphasize the influence of such a band. Since imaging is performed, it becomes easy to detect lesions and abnormalities from image data.

また、健常状態と異常状態における被写体表面の分光反射率がどの波長領域において顕著に相違するかは被写体依存だが、この波長領域に対応した各色光に起因する反射光をチャンネルによって分離するので、特定の被写体に対して特定のチャンネルで健常状態と異常状態の画素値の分離が容易となる。   In addition, it is subject-dependent whether the spectral reflectance of the subject surface in the normal state and the abnormal state differs significantly in which wavelength region, but the reflected light caused by each color light corresponding to this wavelength region is separated by channel, so it is specific It is easy to separate normal and abnormal pixel values in a specific channel for a subject.

さらに、座標上において健常状態と異常状態のデータを視覚により容易に判別することができる。   Furthermore, it is possible to easily discriminate visually the data of the normal state and the abnormal state on the coordinates.

以上詳細に説明したように、本発明の診断システムによれば、特定の色光の照射により照射して画像データから病変や異常を検出しやすくなり、健常状態と異常状態のデータの分離が容易となるので、健常状態と異常状態の判別による診断の精度を向上させることができる。   As described above in detail, according to the diagnostic system of the present invention, it becomes easy to detect lesions and abnormalities from image data by irradiation with a specific color light, and it is easy to separate the data of the normal state and the abnormal state Therefore, it is possible to improve the accuracy of diagnosis by distinguishing between a normal state and an abnormal state.

また、特定の被写体に対して特定のチャンネルで健常状態と異常状態の画素値の分離が容易となる。   In addition, it is easy to separate the pixel values of the normal state and the abnormal state in a specific channel for a specific subject.

さらに、座標上において健常状態と異常状態のデータを視覚により容易に判別することができる。   Furthermore, it is possible to easily discriminate visually the data of the normal state and the abnormal state on the coordinates.

なお、本願における「診断システム」は、システム構成となっていればどのような形態であっても構わない。また、診断システムに含まれる各構成要素を一つの装置としてまとめたものや複数の装置で構成したものであっても本願発明の範疇に入るといえる。   The “diagnostic system” in the present application may be in any form as long as it has a system configuration. Moreover, it can be said that even if what comprised each component contained in the diagnostic system as one apparatus, or comprised by several apparatus, it is in the category of this invention.

Claims (4)

撮影時に特定の色光の光源で被写体を照射する被写体照明部と、被写体を撮像する画像撮影部とを備える撮像装置と、
前記撮像装置とネットワークを介して通信自在に接続され、前記撮像装置から送信された画像データを管理するデータ管理部と、前記撮像装置から送信された画像データを解析して健常状態と異常状態とを判別する画像解析部とを備えるデータ管理装置と、が設けられたことを特徴とする診断システム。
An imaging device comprising: a subject illumination unit that irradiates a subject with a light source of a specific color light at the time of shooting; and an image shooting unit that images the subject;
A data management unit that is communicably connected to the imaging device via a network and that manages image data transmitted from the imaging device, and that a normal state and an abnormal state are analyzed by analyzing the image data transmitted from the imaging device. And a data management apparatus including an image analysis unit for determining the diagnosis system.
異なる色光を発光する複数の光源により被写体を照射する被写体照明部と、
前記被写体照明部により照射された被写体を撮像する画像撮影部と、
前記画像撮影部で撮影された被写体表面の反射光を分離し、診断対象である被写体の部位に適した反射光の情報を解析して健常状態と異常状態とを判別する画像解析部と、
が設けられたことを特徴とする診断システム。
A subject illumination unit that illuminates the subject with a plurality of light sources that emit different colored light; and
An image capturing unit that captures an image of the subject irradiated by the subject illumination unit;
An image analysis unit that separates reflected light on the surface of the subject imaged by the image capturing unit and analyzes information on the reflected light suitable for the part of the subject to be diagnosed to determine a normal state and an abnormal state;
A diagnostic system characterized in that is provided.
異なる色光を発光する複数の光源を有し、被写体を照射する被写体照明部と、
被写体と、被写体に適した色光の光源との相関情報を保持するシステム情報保持部と、
前記相関情報をもとに、前記複数の光源のうち被写体に適した色光の光源を動作させるよう前記被写体照明部を制御する制御部と、
被写体に適した色光の光源により照射された被写体を撮像する画像撮影部と、
前記画像撮影部で撮影された画像データを解析して健常状態と異常状態とを判別する画像解析部と、
が設けられたことを特徴とする診断システム。
A subject illumination unit that has a plurality of light sources that emit light of different colors and illuminates the subject;
A system information holding unit for holding correlation information between a subject and a light source of color light suitable for the subject;
Based on the correlation information, a control unit that controls the subject illumination unit to operate a light source of color light suitable for a subject among the plurality of light sources;
An image capturing unit that captures an object illuminated by a light source of color light suitable for the object;
An image analysis unit that analyzes image data captured by the image capturing unit to determine a normal state and an abnormal state;
A diagnostic system characterized in that is provided.
前記画像解析部は画像データの画素値を色彩データに変換して座標上に表し、その座標が健常状態の座標と比較して所定の間隔以上離れている場合は異常データと判断することを特徴とする請求の範囲第1項〜第3項の何れか1項に記載の診断システム。   The image analysis unit converts pixel values of image data into color data and expresses them on coordinates, and determines that the data is abnormal data when the coordinates are more than a predetermined distance apart from the coordinates in a normal state. The diagnostic system according to any one of claims 1 to 3, wherein:
JP2006548732A 2004-12-17 2005-11-21 Diagnostic system Pending JPWO2006064635A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004366508 2004-12-17
JP2004366508 2004-12-17
PCT/JP2005/021348 WO2006064635A1 (en) 2004-12-17 2005-11-21 Diagnosis system

Publications (1)

Publication Number Publication Date
JPWO2006064635A1 true JPWO2006064635A1 (en) 2008-06-12

Family

ID=36587696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006548732A Pending JPWO2006064635A1 (en) 2004-12-17 2005-11-21 Diagnostic system

Country Status (2)

Country Link
JP (1) JPWO2006064635A1 (en)
WO (1) WO2006064635A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136778A (en) * 2006-12-05 2008-06-19 Ministry Of National Defense Chung Shan Inst Of Science & Technology Remote monitoring system and method for connecting medical information to image
US20080294012A1 (en) * 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
JP5125750B2 (en) * 2008-05-14 2013-01-23 コニカミノルタエムジー株式会社 Dynamic image diagnosis support system
WO2011042839A1 (en) 2009-10-06 2011-04-14 Koninklijke Philips Electronics N.V. Method and system for obtaining a first signal for analysis to characterize at least one periodic component thereof
DE102011016772B4 (en) 2011-04-12 2024-04-25 Mercedes-Benz Group AG 12.04.2021Method and device for monitoring at least one vehicle occupant and method for operating at least one assistance device
JP5733032B2 (en) 2011-06-06 2015-06-10 ソニー株式会社 Image processing apparatus and method, image processing system, program, and recording medium
JP2014036801A (en) * 2012-08-20 2014-02-27 Olympus Corp Biological state observation system, biological state observation method and program
EP2929834A4 (en) 2012-12-05 2016-08-03 Pioneer Corp Measurement device, probe portion and connection cable
JP6116375B2 (en) * 2013-05-27 2017-04-19 セコム株式会社 Diagnosis support system
TWI556793B (en) * 2015-07-09 2016-11-11 國立臺灣科技大學 Non-contact method for detecting physiological signals and motion in real time
JP2017220807A (en) * 2016-06-08 2017-12-14 株式会社日立システムズ Voice data collection system
US10643328B2 (en) 2016-10-31 2020-05-05 Optim Corporation Computer system, and method and program for diagnosing objects
JP6618631B2 (en) * 2016-10-31 2019-12-11 株式会社オプティム Computer system, animal diagnosis method and program
JP6592613B2 (en) * 2016-10-31 2019-10-16 株式会社オプティム Computer system, plant diagnosis method and program
JP2017080517A (en) * 2017-01-19 2017-05-18 パイオニア株式会社 Measurement device, probe part and connection cable
JP2022038639A (en) * 2020-08-27 2022-03-10 キヤノンメディカルシステムズ株式会社 Diagnosis support apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63173182A (en) * 1987-01-13 1988-07-16 Olympus Optical Co Ltd Color image processing system
JPH11194051A (en) * 1998-01-05 1999-07-21 Matsushita Electric Ind Co Ltd Apparatus and method for detection of skin color region
US7773802B2 (en) * 2002-07-26 2010-08-10 Olympus Corporation Image processing system with multiple imaging modes
US20040125996A1 (en) * 2002-12-27 2004-07-01 Unilever Home & Personal Care Usa, Division Of Conopco, Inc. Skin diagnostic imaging method and apparatus
JP2004344583A (en) * 2003-05-26 2004-12-09 Minolta Co Ltd Diagnostic supporting system and terminal device

Also Published As

Publication number Publication date
WO2006064635A1 (en) 2006-06-22

Similar Documents

Publication Publication Date Title
JPWO2006064635A1 (en) Diagnostic system
JP2007125151A (en) Diagnostic system and diagnostic apparatus
JP5119921B2 (en) Image processing apparatus, image processing system, and image processing program
US20200261016A1 (en) Skin Feature Imaging System
CN108289613B (en) System, method and computer program product for physiological monitoring
US20090043210A1 (en) Data detection device and data detection method
US7477767B2 (en) Systems and methods for analyzing skin conditions of people using digital images
CN105636506B (en) Automatic camera for long-range photo-plethysmographic method is adjusted
US8884242B2 (en) Method and system for analyzing physical conditions using digital images
US8038615B2 (en) Inferring wellness from physiological conditions data
JP6545658B2 (en) Estimating bilirubin levels
US20100041968A1 (en) Image capture in combination with vital signs bedside monitor
EP1433418A1 (en) Skin diagnostic imaging method and apparatus
WO2016067892A1 (en) Degree-of-health outputting device, degree-of-health outputting system, and program
JP2018134418A (en) Photographing evaluation/detection unit and optical device
KR102036040B1 (en) Diagnosis Device of optical skin disease
CN107919167A (en) Physiological characteristic monitoring method, device and system
JP2006149679A (en) Method, device and program for determining degree of health
KR102036043B1 (en) Diagnosis Device of optical skin disease based Smartphone
JP6357057B2 (en) Circadian rhythm inspection device, circadian rhythm inspection system, and circadian rhythm inspection method
JP7051083B2 (en) Psychological state judgment method, judgment device, judgment system and judgment program
JP2005094185A (en) Image processing system, image processing apparatus, and imaging control method
WO2007035829A2 (en) Systems and methods for analyzing skin conditions of people using digital images
JP2004344583A (en) Diagnostic supporting system and terminal device
US11501427B2 (en) Medical imaging apparatus and method for the imaging of a light-sensitive object, such as biological tissue