JP2007125151A - Diagnostic system and diagnostic apparatus - Google Patents

Diagnostic system and diagnostic apparatus Download PDF

Info

Publication number
JP2007125151A
JP2007125151A JP2005319391A JP2005319391A JP2007125151A JP 2007125151 A JP2007125151 A JP 2007125151A JP 2005319391 A JP2005319391 A JP 2005319391A JP 2005319391 A JP2005319391 A JP 2005319391A JP 2007125151 A JP2007125151 A JP 2007125151A
Authority
JP
Japan
Prior art keywords
subject
unit
image
data
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005319391A
Other languages
Japanese (ja)
Inventor
Shinichiro Kito
伸一郎 鬼頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005319391A priority Critical patent/JP2007125151A/en
Publication of JP2007125151A publication Critical patent/JP2007125151A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a diagnostic system which optimally diagnoses the state of a human body, with respect to the diagnostic system for analyzing an image obtained by imaging the human body and diagnosing the state of the human body. <P>SOLUTION: The diagnostic system is provided with: an irradiation part 5 for irradiating a subject with a light source of specific color light; an imaging part 6 for imaging reflected light of the subject by the light source; an image analysis part 15 which analyzes image data obtained by imaging by the imaging part 6; and a determination part 16 which compares the analyzed image data with a plurality of conditions set in advance to determine the state of the subject. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は診断システム及び診断装置に関し、特に被験者の各部位の撮影画像から医療診断などを行う診断システム及び診断装置に関する。   The present invention relates to a diagnostic system and a diagnostic apparatus, and more particularly to a diagnostic system and a diagnostic apparatus that perform medical diagnosis and the like from captured images of each part of a subject.

昨今、被験者(被写体)をセンサやCCDカメラなどによって撮像し、これにより得られた画像データを解析して医療診断や美容診断などを行う診断システムが開発されている。   Recently, a diagnostic system has been developed in which a subject (subject) is imaged by a sensor, a CCD camera, or the like, and image data obtained thereby is analyzed to perform medical diagnosis, beauty diagnosis, or the like.

例えば、本出願人は、先に、撮像装置によって撮像した被験者の画像データを画素値に変換し、この画素値を解析して均等色空間データに変換し、得られた均等色空間データを予め取得しておいた正常(健康)状態のデータと比較し、正常状態のデータからある一定の尺度で離れている場合には撮像した被験者が異常(不健康)状態であると判断する診断システムを提供した(特許文献1参照)。
特願2004−366508号公報
For example, the applicant first converts image data of a subject imaged by an imaging device into pixel values, analyzes the pixel values and converts them into uniform color space data, and obtains the obtained uniform color space data in advance. Provides a diagnostic system that compares the acquired normal (healthy) data with the acquired normal (healthy) data and determines that the subject being imaged is in an abnormal (unhealthy) condition if it is separated from the normal data by a certain scale (See Patent Document 1).
Japanese Patent Application No. 2004-366508

しかし、特許文献1は、被験者の状態が正常状態であるか異常状態であるかを判断するだけに留まるものであり、被験者の状態に適した診断をするためには更なる改良が必要であった。   However, Patent Document 1 merely determines whether the subject is in a normal state or an abnormal state, and further improvement is necessary to make a diagnosis suitable for the state of the subject. It was.

本発明は上述した点に鑑み、被験者を撮像した画像を解析して被験者の状態を診断する診断システム及び診断装置において、被験者の状態に対して最適な診断をすることができる診断システム及び診断装置の提供を目的とする。   In view of the above-described points, the present invention provides a diagnostic system and a diagnostic apparatus for diagnosing a condition of a subject by analyzing an image obtained by imaging the subject, and a diagnostic system and a diagnostic apparatus capable of making an optimum diagnosis for the condition of the subject The purpose is to provide.

上記課題を解決するため本発明の診断システムは、特定の色光の光源により被写体を照射する照射部と、被写体を撮像する撮像部と、前記照射部により照射された被写体を前記撮像部により撮像し、前記撮像により取得した画像データを解析する画像解析部と、前記画像解析部により解析された画像データと予め設定された複数の条件を比較して被写体の状態を判断する判断部と、を有することを特徴とする診断システム。   In order to solve the above problems, a diagnostic system according to the present invention uses an imaging unit that irradiates a subject with a light source of specific color light, an imaging unit that images the subject, and the subject that is irradiated by the irradiation unit. An image analysis unit that analyzes the image data acquired by the imaging, and a determination unit that compares the image data analyzed by the image analysis unit with a plurality of preset conditions to determine the state of the subject. Diagnostic system characterized by that.

また、上記課題を解決するため本発明の診断装置は、特定の色光の光源により被写体を照射する照射部と、前記照射部により照射された被写体を撮像する撮像部とを有する撮像装置に接続される診断装置であって、前記撮像装置から取得した被写体の画像データを解析する画像解析部と、前記画像解析部により解析された画像データと予め設定された複数の条件を比較して被写体の状態を判断する判断部と、を有することを特徴とする。   In order to solve the above problems, the diagnostic apparatus of the present invention is connected to an imaging apparatus having an irradiation unit that irradiates a subject with a light source of specific color light and an imaging unit that images the subject irradiated by the irradiation unit. An image analysis unit that analyzes the image data of the subject acquired from the imaging device, and the state of the subject by comparing the image data analyzed by the image analysis unit with a plurality of preset conditions And a determination unit for determining.

上記本発明の診断システム及び診断装置によれば、人体を撮像した画像データに基づいて人体の状態を複数の状態から判断するので、人体の状態が正常、異常の2通りだけではなくより詳細に判断することができ、人体の状態に最適な診断をすることが可能となる。また、人体の病変や異常は人体表面の分光スペクトルの狭い帯域の特性に現れるが、そうした帯域の影響が強調できる特定の色光によって被写体を照射して撮像するので、画像データから病変や異常を検出しやすくなる。   According to the diagnostic system and diagnostic apparatus of the present invention, the state of the human body is determined from a plurality of states based on the image data obtained by imaging the human body. This makes it possible to make a diagnosis that is optimal for the state of the human body. In addition, human lesions and abnormalities appear in narrow band characteristics of the human body's spectral spectrum. Since the subject is illuminated and imaged with specific color light that can emphasize the influence of such bands, lesions and abnormalities are detected from the image data. It becomes easy to do.

本発明によれば、被写体の状態を詳細に判断することができるので、被写体の状態に最適な診断をすることが可能となる。   According to the present invention, since the state of the subject can be determined in detail, it is possible to make an optimal diagnosis for the state of the subject.

以下、本発明の実施形態について図面を参照して説明する。なお、本発明を実施するための形態の説明において用いる用語や断定的な記載により、本発明の技術的範囲が限定されることはない。   Embodiments of the present invention will be described below with reference to the drawings. Note that the technical scope of the present invention is not limited by the terms used in the description of the embodiments for carrying out the present invention or the assertive description.

図1に示すように、本実施形態の診断システム1には撮像装置2が備えられており、撮像装置2には互いに通信可能なネットワークを介して診断装置13が接続されている。さらに、診断装置13には互いに通信可能なネットワークを介して一つ以上の外部装置25が接続されている。なお、撮像装置2についても外部装置25と通信可能な構成にすることも可能である。   As shown in FIG. 1, the diagnostic system 1 of the present embodiment includes an imaging device 2, and a diagnostic device 13 is connected to the imaging device 2 via a network that can communicate with each other. Furthermore, one or more external devices 25 are connected to the diagnostic device 13 via a network that can communicate with each other. Note that the imaging device 2 can also be configured to be able to communicate with the external device 25.

本実施形態におけるネットワークはデータ通信可能である通信網を意味するものであれば特に限定されず、例えばインターネット、LAN(Local Area Network)、WAN(Wide Area Network)、電話回線網、ISDN(Integrated Services Digital Network)回線網、CATV(Cable Television)回線、光通信回線などを含めることができる。また、有線のみならず無線によって通信可能な構成としても良い。   The network in the present embodiment is not particularly limited as long as it means a communication network capable of data communication. For example, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), a telephone line network, an ISDN (Integrated Services). A digital network (CNET) network, a CATV (Cable Television) line, an optical communication line, and the like can be included. Moreover, it is good also as a structure which can communicate not only with a wire but by radio | wireless.

外部装置25とはパーソナルコンピュータなどであり、何らかのコンサルティングや診断が受けられる場所に設置されていることが望ましい。例えば、本実施形態に係る診断システム1で健康に関するデータを得る場合は、病院や健康管理施設などの公共施設に設置しておくことが考えられる。また、美容に関するデータの場合は、コスメティック関係の店や施設・病院などに設置しておくことが考えられる。また、外部装置25をコンサルティング情報が得られるインターネットサイトや、コンサルタントや医師、店員などの携帯端末として構成しても良い。   The external device 25 is a personal computer or the like, and is preferably installed in a place where some kind of consulting or diagnosis can be received. For example, when health-related data is obtained by the diagnostic system 1 according to the present embodiment, it may be installed in a public facility such as a hospital or a health care facility. In addition, in the case of beauty data, it may be possible to install it in cosmetic-related stores, facilities, or hospitals. Further, the external device 25 may be configured as an Internet site from which consulting information can be obtained, or as a mobile terminal such as a consultant, a doctor, or a store clerk.

図2に示すように、本実施形態の診断システム1が備える撮像装置2には以下の各構成部分が設けられている。   As shown in FIG. 2, the imaging device 2 provided in the diagnostic system 1 of the present embodiment is provided with the following components.

外部通信部3は、有線又は無線の通信手段により診断装置13及び外部装置25と情報通信ができるように構成されている。この外部通信部3を経由して、画像解析の結果や画像データ、バイタルデータなどを診断装置13に送信するようになっている。   The external communication unit 3 is configured to perform information communication with the diagnostic device 13 and the external device 25 by wired or wireless communication means. The result of image analysis, image data, vital data, and the like are transmitted to the diagnostic device 13 via the external communication unit 3.

画像表示部4は、CRT,液晶,有機EL,プラズマ又は投影方式などのディスプレイから構成され、撮影画像の他、外部装置25から与えられた情報、画像処理によって得られた情報又は撮像装置2の各構成部分の状態に関する情報などを表示するようになっている。また、撮影画像から異常データが検出された際の警告を表示することや、音声手段により異常データの検出を音声で知らせることが可能な構成とすることもできる。   The image display unit 4 includes a display such as a CRT, a liquid crystal, an organic EL, a plasma, or a projection system. In addition to the captured image, information given from the external device 25, information obtained by image processing, or information of the imaging device 2 is displayed. Information about the state of each component is displayed. In addition, it is also possible to display a warning when abnormal data is detected from the photographed image, or to notify the detection of abnormal data by voice using voice means.

照射部5は、図3に示すように、画像表示部4の周辺縁部に設けられている。このような構成により、被験者に対して様々な方向から照明光を与えることができ、比較的照明むらの少ない画像を得ることができるようになっている。また、画像表示部4の周辺端部の上部のみ又は左右部のみに照射部5を配置しても良い。なお、画像表示部4に近接しない場所に照射部5を配置することも可能である。   The irradiation part 5 is provided in the peripheral edge part of the image display part 4, as shown in FIG. With such a configuration, illumination light can be given to the subject from various directions, and an image with relatively little illumination unevenness can be obtained. Further, the irradiation unit 5 may be arranged only at the upper part of the peripheral edge of the image display unit 4 or only at the left and right parts. Note that the irradiation unit 5 can also be arranged at a location that is not close to the image display unit 4.

図4は図3に示す照射部5の点線部分を拡大した図である。図4に示すように、本実施形態の照射部5にはそれぞれ異なる色光を発光する矩形光源が配列されている。そして、一点鎖線部に示すような所定のエリアの光源を組み合わせたものを1つの色光セットとし、この色光セットを図5に示すように画像表示部2の周辺縁部に配列している。このような構成により、被験者に光源からの各色光を均等に照射できるようになっている。なお、矩形光源ではなく円形光源や棒状光源を使用することも可能である。   FIG. 4 is an enlarged view of a dotted line portion of the irradiation unit 5 shown in FIG. As shown in FIG. 4, rectangular light sources that emit different colored lights are arranged in the irradiation unit 5 of the present embodiment. Then, a combination of light sources in a predetermined area as shown by the one-dot chain line portion is used as one color light set, and this color light set is arranged at the peripheral edge of the image display portion 2 as shown in FIG. With such a configuration, the subject can be irradiated with each color light from the light source evenly. It is also possible to use a circular light source or a rod-shaped light source instead of a rectangular light source.

照射部5が備える光源としては、蛍光ランプ,白熱電球,LED,レーザー,有機ELなどの人工光源などを使用することが可能であるが、撮影画像への周辺環境光の影響を抑えるために、強度が強いストロボ、高輝度LEDなどの光源を使うことが望ましい。また、光源は可視光域だけでなくその周辺(紫外域、近赤外、赤外領域)にも発光特性をもつものが望ましい。また、環境光の影響をできるだけ抑えるためにはストロボのような輝度の高い光を照射できる光源であることが望ましいが、被験者の動画を撮像する場合は、強度やスペクトルなどの特性が長時間安定した光を照射できる光源であることが望ましい。また、点光源より線・面光源としたほうが、被験者に対して空間的に強度の分布が抑えられた光を得ることができるので、被験者への照明むらが抑えられて望ましい画像が得られる。   As a light source included in the irradiation unit 5, an artificial light source such as a fluorescent lamp, an incandescent light bulb, an LED, a laser, and an organic EL can be used. In order to suppress the influence of ambient light on a captured image, It is desirable to use a light source such as a strong strobe light or a high brightness LED. Further, it is desirable that the light source has a light emission characteristic not only in the visible light region but also in the vicinity thereof (ultraviolet region, near infrared region, infrared region). In order to suppress the influence of ambient light as much as possible, it is desirable to use a light source that can emit high-brightness light such as a strobe. However, when capturing moving images of subjects, characteristics such as intensity and spectrum are stable for a long time. It is desirable that the light source be capable of irradiating light. In addition, when a line / surface light source is used instead of a point light source, it is possible to obtain light with a spatially reduced intensity distribution for the subject, and thus a desired image can be obtained with less uneven illumination on the subject.

本実施形態の光源としては、図6に示すような発光特性をもつLEDのうち2種類(色光A及び色光B)のものを用い、図7にこのLEDの特性を示す。こういった特性をもつLEDは、例えば、色光Aとして株式会社東芝のTLPGE1100B(ピーク波長562nm、半値幅11nm)、色光BとしてTLSHシリーズ(ピーク波長623nm、半値幅13nm)などがあるが、その他市販されている各社のLEDを使用することも可能である。なお、白色光源を干渉フィルタと共に使用して光源として用いることもでき、白色光源の前面に1枚以上の干渉フィルタを配置し、照明光の特性を狭帯域化させることで、任意の波長の光源を得ることができる。干渉フィルタとしては、Omega Optical社のバンドパスフィルタなど市販されている各社のフィルタを用いることができる。   As the light source of this embodiment, two types (color light A and color light B) of LEDs having light emission characteristics as shown in FIG. 6 are used, and FIG. 7 shows the characteristics of the LEDs. Examples of LEDs having such characteristics include TLPGE1100B (peak wavelength 562 nm, half-value width 11 nm) of Toshiba Corporation as colored light A, and TLSH series (peak wavelength 623 nm, half-value width 13 nm) as colored light B. It is also possible to use LEDs from various companies. A white light source can also be used as a light source together with an interference filter. One or more interference filters are arranged in front of the white light source and the characteristics of the illumination light are narrowed to obtain a light source of any wavelength. Can be obtained. As the interference filter, commercially available filters such as Omega Optical's bandpass filter can be used.

なお、照射部5は、顔領域の画像を撮像する際に被験者を照明する機能を果たす他、被験者の瞳孔の動きを撮像する際に、照明の強さや波長を急激に変化させ、その照射前後の瞳孔の動きを計測することにより正常か異常かを判断することを可能とする機能も果たすことができるようになっている。   The irradiating unit 5 functions to illuminate the subject when capturing an image of the face region, and also changes the intensity and wavelength of illumination abruptly when imaging the movement of the pupil of the subject, before and after the irradiation. It is also possible to perform a function that makes it possible to determine whether the pupil is normal or abnormal by measuring the movement of the pupil.

図8及び図9に被験者の特定部位(a)及び別の特定部位(b)が健康(正常)状態と不健康(異常)状態であるときの分光反射率を示す。一般に、被験者に異常がある場合は体の組織や構成が変化するため、被写体表面における分光反射率が正常状態と異なる。   FIG. 8 and FIG. 9 show the spectral reflectance when the specific part (a) and another specific part (b) of the subject are in a healthy (normal) state and an unhealthy (abnormal) state. In general, when the subject has an abnormality, the body tissue and configuration change, so the spectral reflectance on the subject surface is different from the normal state.

図8に示す特定部位(a)の例では、正常状態と異常状態は低波長側(色光Aの帯域に重なる)において分光反射率の差異が大きく、図9に示す特定部位(b)の例では、中域から高域(色光Bの帯域に重なる)において分光反射率の差異が大きくなっている。このように、どの波長領域において分光反射率が異なるかは被写体依存である。   In the example of the specific part (a) shown in FIG. 8, there is a large difference in spectral reflectance between the normal state and the abnormal state on the low wavelength side (overlapping the band of the colored light A), and the example of the specific part (b) shown in FIG. Then, the difference in spectral reflectance is large in the middle to high range (overlapping with the band of the colored light B). Thus, it is subject dependent in which wavelength region the spectral reflectance differs.

そして、色光A及び色光Bを被験者の特定部位(a)に対して照射すると、被験者の反射光のスペクトルは、図10に示すように色光A又は色光Bと被写体の分光反射率の積となっている。同様に、色光A及び色光Bを被験者の他の特定部位(b)に対して照射すると、被写体の反射光のスペクトルは、図11に示すように色光A又は色光Bと被写体の分光反射率の積となっている。   When the subject's specific part (a) is irradiated with the colored light A and the colored light B, the reflected light spectrum of the subject is the product of the colored light A or the colored light B and the spectral reflectance of the subject as shown in FIG. ing. Similarly, when the color light A and the color light B are irradiated to the other specific part (b) of the subject, the spectrum of the reflected light of the subject is the color light A or the color light B and the spectral reflectance of the subject as shown in FIG. It is a product.

図2に戻り、撮像部6は、CCDやCMOSなどの撮像素子により静止画又は動画を取得することができる1つ又は複数のカメラによって構成されている。また、例えば、デジタルカメラ、ビデオカメラ、その他携帯電話などに付属のカメラモジュールにより構成しても良い。なお、被験者の画像は、被験者の立ち位置や身長に関わらず安定した構図で撮像することが望ましい。そこで、本実施形態では、図12に示すように複数の撮像部6を等間隔に配置して被験者を撮像し、複数の撮影画像を合成して良い構図の画像を出力するように構成されるのが好ましい。また、図13に示すように、1台の撮像部6の位置を三次元的に調整できる機構を設けて、被験者の頭部・顔などを撮像可能なように構成しても良い。また、図14に示すように、多数のカメラモジュールの組み合わせで撮像部6を構成し、被験者を一括撮像して、所定の構図の画像を切り出すことができるように構成しても良い。   Returning to FIG. 2, the imaging unit 6 includes one or a plurality of cameras that can acquire a still image or a moving image by an imaging element such as a CCD or a CMOS. Further, for example, it may be configured by a camera module attached to a digital camera, video camera, or other mobile phone. It should be noted that it is desirable to capture the subject's image with a stable composition regardless of the subject's standing position and height. Therefore, in the present embodiment, as shown in FIG. 12, a plurality of imaging units 6 are arranged at equal intervals, the subject is imaged, and a plurality of captured images are combined to output an image with a composition that may be synthesized. Is preferred. Further, as shown in FIG. 13, a mechanism capable of three-dimensionally adjusting the position of one imaging unit 6 may be provided so that the subject's head and face can be imaged. Further, as shown in FIG. 14, the imaging unit 6 may be configured by a combination of a large number of camera modules, and the subject may be collectively captured so that an image having a predetermined composition can be cut out.

さらに、上述のように構図が固定された画像ではなく、被験者の動きと連動して構図が変わるような画像を得ることが望ましい場合、例えば被験者が表示画面に近づくとアップになる場合などは、1つ以上のカメラで撮像された画像を合成し、表示座標の原点を固定してそのまま表示するように構成すれば良い。   Furthermore, when it is desirable to obtain an image whose composition changes in conjunction with the movement of the subject, rather than an image whose composition is fixed as described above, for example, when the subject is up when the subject approaches the display screen, What is necessary is just to comprise so that the image imaged with one or more cameras may be synthesize | combined and the origin of a display coordinate is fixed and it may display as it is.

また、本実施形態の撮像部6は3個の画像チャンネル数を備えているが、3個以上の画像チャンネルをもつマルチチャンネル(マルチバンド)としても良い。   Further, the imaging unit 6 of the present embodiment has three image channel numbers, but may be a multichannel (multiband) having three or more image channels.

また、撮像部6は被写体表面の反射光を撮像して、RGB画像のR,G,B各信号に対応する各チャンネルの画素値に変換するようになっている。上述のように、被験者の特定部位(a)における正常状態と異常状態の分光反射率は図10に示すようになるが、この色光A又は色光Bに起因する反射光を撮像部6で撮像し、チャンネル1及びチャンネル2により反射光を分離すると、図15に示すように各チャンネルの画素値を得ることができる。同様に、被験者の他の特定部位(b)における分光反射率は図11に示すようになるが、色光A又は色光Bに起因する反射光を分離すると、図16に示すように画素値を得ることができる。   The imaging unit 6 captures reflected light from the surface of the subject and converts it into pixel values of each channel corresponding to R, G, and B signals of the RGB image. As described above, the spectral reflectance in the normal state and the abnormal state in the specific part (a) of the subject is as shown in FIG. 10, and the reflected light caused by the color light A or the color light B is imaged by the imaging unit 6. When the reflected light is separated by channel 1 and channel 2, the pixel value of each channel can be obtained as shown in FIG. Similarly, the spectral reflectance in the other specific part (b) of the subject is as shown in FIG. 11, but when the reflected light caused by the colored light A or the colored light B is separated, a pixel value is obtained as shown in FIG. be able to.

ここで、色光A又は色光Bに起因する反射光の分離は各チャンネルの帯域の違いによって行っている。例えば、色光AはRGBのうちチャンネル1の帯域に含まれ、色光Bはチャンネル2の帯域に含まれる。また、色光Aと色光Bの発光のタイミングをずらして撮像することにより分離することも可能である。   Here, the separation of the reflected light caused by the colored light A or the colored light B is performed by the difference in the band of each channel. For example, the color light A is included in the channel 1 band of RGB, and the color light B is included in the channel 2 band. Further, it is also possible to separate the images by imaging the color light A and the color light B at different timings.

このように、色光A又は色光Bに起因する反射光を分離することで、被験者の特定部位(a)の撮影画像はチャンネル1において、特定部位(b)の撮影画像はチャンネル2において、正常状態及び異常状態における画素値の分離が容易となっている。   In this way, by separating the reflected light caused by the colored light A or the colored light B, the captured image of the specific part (a) of the subject is in channel 1 and the captured image of the specific part (b) is normal in channel 2. In addition, separation of pixel values in an abnormal state is facilitated.

図2に戻り、周辺環境情報取得部7は、環境情報取得手段としての計測計を備え、撮像装置2が設置される周辺環境の情報を取得して撮影画像の解析時に異常データの判別を支援することができるようになっている。ここで周辺環境とは、環境照明光の強度や特性,気温や水温などの温度,湿度,気圧,などをいう。また、環境照明光の取得方法としては、(a)照度計タイプ(b)スペクトル計測計タイプ(c)色温度計測タイプなどがあるが、全てを包含できる(b)のタイプが望ましい。また、その他の温度、湿度、気圧については、それぞれを計測する計測器具やセンサを用いても良いし、ネットワークを通じて外部装置25から情報を入手しても良い。   Returning to FIG. 2, the surrounding environment information acquisition unit 7 includes a measuring instrument as an environment information acquisition unit, acquires information on the surrounding environment where the imaging device 2 is installed, and assists in determining abnormal data when analyzing the captured image. Can be done. Here, the surrounding environment refers to the intensity and characteristics of ambient illumination light, temperature such as air temperature and water temperature, humidity, and atmospheric pressure. Moreover, although there exist (a) illumination meter type (b) spectrum meter type (c) color temperature measurement type etc. as an acquisition method of environmental illumination light, the type of (b) which can include all is desirable. As for other temperatures, humidity, and atmospheric pressure, measuring instruments and sensors for measuring each of them may be used, and information may be obtained from the external device 25 through a network.

I/O部8は、バイタル情報取得手段としてのバイタルセンサ(体温計、体重計、体脂肪率計、血圧計、心電計、肌年齢計測計、骨密度計、肺活量計など)や、CFカード、SDカード、USBメモリカードなどの可搬型デバイスを扱う機器を接続できるように構成されており、これらの機器から計測データや画像データの入出力を行うようになっている。なお、バイタルセンサは撮像装置2の一部分として構成することも可能である。   The I / O unit 8 includes a vital sensor (such as a thermometer, a weight meter, a body fat percentage meter, a blood pressure meter, an electrocardiograph, a skin age meter, a bone densitometer, a spirometer) as a vital information acquisition means, a CF card In addition, devices that handle portable devices such as SD cards and USB memory cards can be connected, and measurement data and image data are input and output from these devices. Note that the vital sensor can be configured as a part of the imaging apparatus 2.

また、I/O部8に接続したバイタルセンサを刺激付加手段として、被験者に刺激を付加した前後の経時変化を撮像し、その画像から被験者の正常状態と異常状態を区別することもできる。ここで刺激とは、光を与える、押す、圧力を加える、温度を変える、香りを加える、音を加える、針などで刺す、物を塗る、物を注入する、などを指す。例えば、圧力センサなどにより肌の一部を圧迫し、圧迫前後の状態を計測することにより、各計測値の変化量を特徴データとして平常状態と異常状態を区別することができる。また、皮膚を水やお湯、もしくは遠赤外線などにより温め、その前後の状態を観察することで、血液の流れの変化を測定し、その変化の仕方が正常時と相違するか否かを判断することもできる。   In addition, a vital sensor connected to the I / O unit 8 can be used as a stimulus applying unit to capture temporal changes before and after the stimulus is applied to the subject, and to distinguish the normal state and the abnormal state of the subject from the image. Here, the stimulus refers to giving light, pushing, applying pressure, changing temperature, adding scent, applying sound, stabting with a needle, painting an object, injecting an object, and the like. For example, by compressing a part of the skin with a pressure sensor or the like and measuring the state before and after the compression, the normal state and the abnormal state can be distinguished using the amount of change of each measured value as feature data. In addition, by warming the skin with water, hot water, or far-infrared rays, and observing the state before and after that, the change in blood flow is measured, and it is judged whether the change is different from normal. You can also

メモリ部9は、RAM、ROMなどから構成され、撮像装置2の各構成部分における処理に必要なデータを一時的に蓄えることによって、撮像装置2を高速かつ安定に動作させることができる。また、後述する個人認証により個人を特定するために、個人の顔領域画像、顔の三次元形状の計測値、その他特徴的な情報(めがねの使用、ほくろ、しみなどの情報)などの認証情報やこの認証情報に対応して基本情報(名前、身長、体重、年齢など)を記憶している。   The memory unit 9 includes a RAM, a ROM, and the like, and can temporarily operate the imaging device 2 at high speed by temporarily storing data necessary for processing in each component of the imaging device 2. In addition, in order to identify an individual through personal authentication described later, authentication information such as an individual face area image, a measured value of the three-dimensional shape of the face, and other characteristic information (information such as the use of glasses, moles, and spots) In addition, basic information (name, height, weight, age, etc.) is stored corresponding to the authentication information.

データ処理部10は、撮像部6で撮像した被験者の各部位の画像、周辺環境情報取得部7で取得した周辺環境情報、I/O部8から入力された計測データや画像データなどのデータ処理を行う。   The data processing unit 10 performs data processing such as an image of each part of the subject imaged by the imaging unit 6, peripheral environment information acquired by the peripheral environment information acquisition unit 7, measurement data and image data input from the I / O unit 8. I do.

すなわち、データ処理部10は撮影画像の中から診断の対象となる興味領域の抽出を行う。例えば、興味領域が被験者の顔である場合は、予めメモリ部9に登録されている被験者の標準的な顔画像をテンプレートの基本画像とし、そのテンプレートを画面左上からラスター操作を行いテンプレートと画像の相関が一番高い箇所を顔領域とする。また、興味領域から更に部位を指定する場合は、被験者が顔枠を矩形ポインタなどで囲んで指定する手段や、被験者がポイントを指定すると、指定位置を中心として所定の大きさの矩形が表示される指定手段などを設けることも可能である。そして、興味領域の抽出を行うと、データ処理部10は外部通信部3を経由して診断装置13にその興味領域の画像を送信する。   That is, the data processing unit 10 extracts a region of interest to be diagnosed from the captured image. For example, if the region of interest is the face of the subject, the subject's standard face image registered in advance in the memory unit 9 is used as the basic image of the template, and the template is subjected to a raster operation from the upper left of the screen, and the template and image A portion having the highest correlation is set as a face region. In addition, when further specifying a region from the region of interest, a means for the subject to specify by enclosing the face frame with a rectangular pointer or the like, and when the subject specifies a point, a rectangle of a predetermined size centered on the specified position is displayed. It is also possible to provide a designation means. When the region of interest is extracted, the data processing unit 10 transmits an image of the region of interest to the diagnostic device 13 via the external communication unit 3.

また、データ処理部10は、環境光の特性が変わっても見た目的に色再現の安定した画像を表示するために、環境光の特性を周辺環境情報取得部7で取得し、その色彩データに応じて表示白色の色度点や明るさを調整するようになっている。すなわち、周辺環境光や光源の特性に関わらず、安定した色再現で画像を表示するために、これらの特性を補正(キャリブレーション)する。通常、キャリブレーションではテストパターンを撮像し、その撮像データが別途指定の設定値になるように補正するが、比較的高価で保管しにくいテストパターンを使用しないで同じ処理ができるほうが望ましい。そこで、経時的にほとんど変化しないと思われる、被験者の歯や画像撮像時の背景データを使用することができる。その際、同一装置に複数の被験者が登録されている場合は被験者ごとに歯のデータを登録しておく必要がある。   Further, in order to display an image with stable color reproduction for the purpose of viewing even if the environmental light characteristics change, the data processing unit 10 acquires the environmental light characteristics by the surrounding environment information acquisition unit 7 and converts the color data into the color data. The display white color point and brightness are adjusted accordingly. That is, these characteristics are corrected (calibrated) in order to display an image with stable color reproduction regardless of the characteristics of ambient ambient light and light sources. Normally, in calibration, a test pattern is imaged and corrected so that the imaged data has a separately designated setting value. However, it is desirable that the same processing can be performed without using a test pattern that is relatively expensive and difficult to store. Therefore, it is possible to use the subject's teeth and background data at the time of image capturing, which seem to hardly change over time. At that time, if a plurality of subjects are registered in the same device, it is necessary to register tooth data for each subject.

また、データ処理部10には、撮像部6において同じ構図で被験者を撮像する場合において、被験者がカメラの光軸方向に動く場合に、照明のあたり方によって画面上の被験者の明るさや大きさが変わらないように、それを補正する機能が設けられている。この場合においては、撮像部6で撮像された画像から撮像装置2と被験者との距離を推定する。測定方法としては、三次元測量法、ステレオ計測法などの一般的な方法を使用することができる。また、カメラでよく使われるレーザー測光用機器を撮像装置2に取り付けて計測しても良い。また、撮影画像による距離推定を各画素で行うことで、被験者の三次元形状の推定が可能となる。各画素における被験者とカメラとの距離がわかると、光源と被験者との距離が画素ごとに得られるので、より正確・詳細に表示画像の明るさを補正することができる。   Further, when the subject is imaged with the same composition in the imaging unit 6, the data processing unit 10 determines the brightness and size of the subject on the screen depending on how the illumination is applied when the subject moves in the optical axis direction of the camera. In order not to change, the function which corrects it is provided. In this case, the distance between the imaging device 2 and the subject is estimated from the image captured by the imaging unit 6. As a measurement method, a general method such as a three-dimensional survey method or a stereo measurement method can be used. Further, laser photometry equipment often used in a camera may be attached to the image pickup apparatus 2 for measurement. In addition, it is possible to estimate the three-dimensional shape of the subject by performing distance estimation based on the captured image at each pixel. If the distance between the subject and the camera in each pixel is known, the distance between the light source and the subject can be obtained for each pixel, so that the brightness of the display image can be corrected more accurately and in detail.

また、データ処理部10は、被験者の個人認証のために撮影画像から個人の特定を行うようになっている。すなわち、撮像部6で撮像された画像を解析し、メモリ部9に登録されている個人データから自動的に照合して個人を特定することができるように構成されている。この特定は、例えば顔部位を抽出した後に個人に合わせた基本となるテンプレート画像と抽出された画像との相関をとり比べることによって行う。   In addition, the data processing unit 10 is configured to identify an individual from a captured image for personal authentication of the subject. In other words, the image captured by the image capturing unit 6 is analyzed and the personal data registered in the memory unit 9 is automatically verified to identify the individual. This specification is performed, for example, by comparing the correlation between the extracted template image and the basic template image tailored to the individual after extracting the facial part.

ユーザインターフェイス部11は、キーボード、マウス、トラックボールなどから構成され、被験者の指示入力を可能とすると共に、被験者に撮像装置2の状況や要求を伝達することを可能としている。なお、被験者の負担が少ない装置構成とすることが望ましいことから、画像表示部4と一体にしてタッチパネルとしてユーザインターフェイス部11を構成することもできる。また、スピーカーやマイクなどの音響設備を備えることにより被験者の音声によってコミュニケートできる構成とすることが望ましい。   The user interface unit 11 includes a keyboard, a mouse, a trackball, and the like, and allows the subject to input an instruction, and can transmit the status and request of the imaging device 2 to the subject. In addition, since it is desirable to set it as an apparatus structure with little test subject's burden, the user interface part 11 can also be comprised as a touch panel integrally with the image display part 4. FIG. In addition, it is desirable to have a configuration that can communicate with the voice of the subject by providing acoustic equipment such as a speaker and a microphone.

また、ジェスチャ(身振りや手振り、また手話など高度なコミュニケート手段も含む)などの被験者の意思を表す動作により指示入力を可能とする構成であることが望ましい。具体的には、撮像部6により被験者の動作を撮影し、データ処理部10により撮影画像のエッジを抽出して被験者の部位を特定し、部位に含まれる特徴点の推移を解析することで、被験者の意思通りの入力が可能となる。例えば、撮影画像が被験者の顔画像であった場合、この顔画像に含まれるあご、鼻の頭、額を特徴点とし、これらの特徴点が垂直方向に振動していると解析されると、被験者が首を縦に振っているので、「はい」を意味すると判断する。また、撮影画像が被験者の手の画像であった場合、手の人差し指を特徴点とし、特徴点が推定方向に振動していると計測されると、指を横に振っているので、「いいえ」を意味すると判断する。   In addition, it is desirable that the instruction can be input by an action that expresses the subject's intention such as gestures (including advanced communication means such as gestures, hand gestures, and sign language). Specifically, the subject's motion is photographed by the imaging unit 6, the edge of the photographed image is extracted by the data processing unit 10, the part of the subject is identified, and the transition of the feature points included in the part is analyzed. Input as intended by the subject. For example, when the photographed image is the face image of the subject, the chin, the head of the nose, and the forehead included in the face image are feature points, and it is analyzed that these feature points vibrate in the vertical direction. Since the subject shakes his / her head vertically, it is determined to mean “yes”. In addition, if the captured image is an image of the subject's hand, the index finger of the hand is used as a feature point, and if the feature point is measured to vibrate in the estimated direction, the finger is shaken to the side. ".

このように、ジェスチャなどの被験者の意思を表す動作により指示入力が可能となる構成にすることにより、被験者が口のきけない人や目の悪い人であっても容易に望み通りの処理を行わせることができる。   In this way, it is possible to input instructions by gestures and other actions that express the subject's intentions, so that the subject can easily perform the desired process even if the subject is a poor person or a person with poor eyes. Can be made.

なお、図23に示すジェスチャ解析テーブルは、予めメモリ部9に記憶されており、ユーザインターフェイス部11のマウスやキーボードを用いて、被験者が随時、修正、追加できるように構成されている。また、被験者の国籍、経済圏、文化圏、戸籍、年齢、性別などの属性により、ジェスチャの意味する内容が異なる場合がある。例えば、首を縦に振る動作は、国によって「はい」を意味する場合もあれば、「いいえ」を意味する場合もある。また、手でOKサインを出す動作は、「はい」を意味する場合もあれば、「お金」や「数字の0」を意味する場合もある。したがって、このような被験者の属性により意味が異なるジェスチャを使用する場合は、予めメモリ部9に被験者の基本情報に対応して属性を記録しておくことが望ましい。   The gesture analysis table shown in FIG. 23 is stored in the memory unit 9 in advance, and is configured so that the subject can modify and add as needed using the mouse and keyboard of the user interface unit 11. In addition, the meaning of the gesture may vary depending on the subject's nationality, economic sphere, cultural sphere, family register, age, gender, and other attributes. For example, the action of swinging the head vertically may mean “yes” or “no” depending on the country. In addition, the operation of issuing an OK sign by hand may mean “yes”, or may mean “money” or “number 0”. Therefore, when using such gestures having different meanings depending on the subject's attributes, it is desirable to record the attributes in advance in the memory unit 9 corresponding to the basic information of the subject.

また、ジェスチャを解析するための撮影画像は、必ずしも動画である必要はなく、静止画であっても構わない。例えば、図24に示すように、画像表示部4に複数の項目を表示しておき、被験者が立てている指の本数を解析することにより、複数の項目の中から一つを選択することができる。また、上、下、左、右など被験者の指が指す向きを解析し、この向きに合わせてカーソルを動かして複数の項目の中から一つを選択しても良い。また、撮影部6により被験者の意思を表す動作を撮像する際は、照射部5による色光の種類は特に限定されない。   In addition, the captured image for analyzing the gesture is not necessarily a moving image, and may be a still image. For example, as shown in FIG. 24, a plurality of items are displayed on the image display unit 4, and one of the plurality of items can be selected by analyzing the number of fingers that the subject stands. it can. Alternatively, the direction indicated by the subject's finger, such as up, down, left, and right, may be analyzed, and one of a plurality of items may be selected by moving the cursor in accordance with this direction. Moreover, when imaging | photography the operation | movement showing a test subject's intention by the imaging | photography part 6, the kind of colored light by the irradiation part 5 is not specifically limited.

ユーザインターフェイス部11では、例えば被験者の撮像時において、撮影画像による診断の興味領域が舌であった場合、被験者に舌をだすように音声もしくは文字で指示し、口の動きから舌がでたことを推測して撮像部6により撮像させることもできる。   In the user interface unit 11, for example, when the subject's imaging is a tongue when the subject is interested in imaging, the user is instructed by voice or characters to put out the tongue, and the tongue comes out from the movement of the mouth. Can be estimated and the image pickup unit 6 can pick up an image.

また、データ処理部10において撮影画像の中から診断の対象となる興味領域の抽出を行い、さらに興味領域から部位を指定する場合において、インターフェイス部11において被験者が顔枠を矩形ポインタなどで囲んで指定する手段や、被験者がポイントを指定すると指定位置を中心として所定の大きさの矩形が表示される指定手段などを設けることができる。   In addition, when the data processing unit 10 extracts a region of interest to be diagnosed from the captured image and further specifies a region from the region of interest, the subject surrounds the face frame with a rectangular pointer or the like in the interface unit 11. Means for designating, a designating means for displaying a rectangle of a predetermined size around the designated position when the subject designates a point, and the like can be provided.

また、ユーザインターフェイス部11には、撮影画像の解析時に異常データの判別を支援する目的でデータ取得手段が設けられている。例えば、ユーザインターフェイス部11において撮像ごとに問診を行えるシステムを構築しておくことができる。具体的には、単純に健康、不調を区別するボタンを押すようにするだけでも良い。その際に取得するデータ内容としては、現在の体調の自己判断(体が重い、熱がある、寒気がする、など)や、調子に関わる個人データ(睡眠時間や飲酒、喫煙、投薬情報など)が含まれる。音声で対話式に取得してもいいし、画像表示部4に問診票を表示してタッチパネルなどのユーザインターフェイス部11の入力により取得しても良い。また、音声で取得する場合、声の調子がそのときの体調に関係する場合が多いので、声の周波数やトーンを解析して解析結果を問診データに加えても良い。   In addition, the user interface unit 11 is provided with data acquisition means for the purpose of assisting in the determination of abnormal data when analyzing a captured image. For example, it is possible to construct a system in which an inquiry can be made for each imaging in the user interface unit 11. Specifically, it is possible to simply press a button for distinguishing between health and malfunction. The data contents to be acquired include self-judgment of the current physical condition (heavy, fever, cold, etc.) and personal data related to the condition (sleeping time, drinking, smoking, medication information, etc.) Is included. It may be acquired interactively by voice, or may be acquired by displaying an inquiry form on the image display unit 4 and input from the user interface unit 11 such as a touch panel. In addition, when acquiring by voice, the tone of the voice is often related to the physical condition at that time, so the analysis result may be added to the inquiry data by analyzing the frequency and tone of the voice.

また、ユーザインターフェイス部11には個人認証手段が設けられている。すなわち、複数の被験者が診断システム1を使用する場合、現在使用している個人を特定する必要がある。そこで、データ処理部10における初期登録時に撮像された個人の顔領域画像などとの照合による個人の特定結果に基づき、特定結果に間違いがないかどうかを本人に確認できるようになっている。   The user interface unit 11 is provided with personal authentication means. That is, when a plurality of subjects use the diagnostic system 1, it is necessary to specify an individual who is currently using it. Therefore, based on the individual identification result obtained by collation with the personal face image captured at the time of initial registration in the data processing unit 10, it is possible to confirm to the person whether the identification result is correct.

また、ユーザインターフェイス部11には、一定期間ごとに音声の出力などによって被験者に診断システム1の使用を促す手段が設けられている。なお、被験者への使用を促す手段は画像表示部4への表示であっても良い。すなわち、本実施形態の診断システム1においては一定期間ごとに被験者の正常状態データを確認・更新する必要があるので、一定期間ごと、例えば一ヶ月ごとにバイタルセンサなどの使用を被験者に促すことにより、正常状態のデータの更新を行うことが可能となっている。さらに、診断の目的によっては日常的もしくは定期的な診断システム1の使用が必要な場合がある。そこで、被験者の不在などにより診断システム1が使用されない状況が続いた場合や、定期的に撮像部2による撮像が行われない場合は、ユーザインターフェイス部11がアラートを表示又は音声を発することによって外部に通報するように構成されている。   Further, the user interface unit 11 is provided with means for prompting the subject to use the diagnostic system 1 by outputting sound at regular intervals. The means for prompting the subject to use may be a display on the image display unit 4. That is, in the diagnostic system 1 of the present embodiment, since it is necessary to check and update the normal state data of the subject at regular intervals, by urging the subject to use a vital sensor at regular intervals, for example, every month It is possible to update normal data. Further, depending on the purpose of diagnosis, it may be necessary to use the diagnostic system 1 on a daily or regular basis. Therefore, when a situation in which the diagnostic system 1 is not used due to the absence of a subject or the like, or when imaging by the imaging unit 2 is not performed regularly, the user interface unit 11 displays an alert or generates a sound by externally outputting the alert. Is configured to report to.

制御部12は、CPU及びRAMを備え、撮像装置2の各構成部分を駆動制御するようになっている。本実施形態の撮像装置2は動画像も扱うため、制御部12はできる限り高速動作・制御が可能なチップにより構成することが望ましい。また、制御部12は、外部通信部3を経由して診断装置13から送信される指示信号又はユーザインターフェイス部11から入力される指示信号に基づいて、照射部5における各光源のOn/Offを独立に制御するようになっている。なお、上記指示信号に基づく制御を行う他、他の公知な方法によって被験者を推定することも可能である。   The control unit 12 includes a CPU and a RAM, and drives and controls each component of the imaging device 2. Since the imaging apparatus 2 of the present embodiment also handles moving images, it is desirable that the control unit 12 be configured with a chip that can operate and control as fast as possible. Further, the control unit 12 sets On / Off of each light source in the irradiation unit 5 based on an instruction signal transmitted from the diagnostic device 13 via the external communication unit 3 or an instruction signal input from the user interface unit 11. It is designed to be controlled independently. In addition to performing control based on the instruction signal, the subject can be estimated by other known methods.

次に、図2に示すように、本実施形態の診断システム1が備える診断装置13には以下の各構成部分が設けられている。   Next, as shown in FIG. 2, the diagnostic device 13 provided in the diagnostic system 1 of the present embodiment is provided with the following components.

外部通信部14は、有線又は無線の通信手段により、撮像装置2及び外部装置25と情報通信ができるように構成されている。そして、外部通信部3と同様に、この外部通信部3を経由して、画像解析の結果や画像データ、バイタルデータなどを診断装置13又は外部装置25に送信するようになっている。   The external communication unit 14 is configured to perform information communication with the imaging device 2 and the external device 25 by wired or wireless communication means. Similar to the external communication unit 3, the result of image analysis, image data, vital data, and the like are transmitted to the diagnostic device 13 or the external device 25 via the external communication unit 3.

画像解析部15は、撮像装置2から外部通信部3及び外部通信部14を経由して診断装置13に送信された画像データに基づいて画像解析を行うようになっている。   The image analysis unit 15 performs image analysis based on image data transmitted from the imaging device 2 to the diagnosis device 13 via the external communication unit 3 and the external communication unit 14.

ここで本実施形態においては、上述したように、人肌など対象物の病変や異常が被験者の分光スペクトルの狭い帯域の特性に現れることに着目したものであり、そうした帯域の影響が強調できる照明を照射して撮像することで、画像から病変や異常を検出しやすくしている。すなわち、撮像装置2の撮像部6において被写体表面の反射光が撮像され、チャンネルごとに画素値に変換されると、図15に示すように被験者の特定部位(a)についてはチャンネル1において正常状態と異常状態の画素値の分離が容易となっており、図16に示すように被験者の他の特定部位(b)についてはチャンネル2において正常状態と異常状態の画素値の分離が容易となっている。   Here, in the present embodiment, as described above, attention is paid to the fact that a lesion or abnormality of an object such as human skin appears in the characteristics of a narrow band of the subject's spectral spectrum, and illumination that can emphasize the influence of such a band. By irradiating and imaging, lesions and abnormalities are easily detected from the image. That is, when the reflected light on the subject surface is imaged by the imaging unit 6 of the imaging device 2 and converted into pixel values for each channel, the specific part (a) of the subject is in a normal state in the channel 1 as shown in FIG. Separation of pixel values in an abnormal state is facilitated, and as shown in FIG. 16, separation of normal and abnormal pixel values in channel 2 is facilitated for another specific part (b) of the subject. Yes.

画像解析部15は、撮像部6により変換された各チャンネルの画素値から三刺激値データ(RGB)をそれぞれ算出し、この三刺激値データからプライマリ変換によって反応色データを算出し、この反応色データから均等色空間データ(色彩データ)に変換するようになっている。この均等色空間には、一例として、CIEのL*a*b*,L*u*v*,明度方向が規格化されたu´v´などがあり、それらの派生空間も含まれる。その後、画像解析部15は、興味領域の均等色空間データに基づき、被験者の特定部位ごとに正常状態と異常状態の画像データを分離するようになっている。   The image analysis unit 15 calculates tristimulus value data (RGB) from the pixel values of each channel converted by the imaging unit 6, calculates reaction color data by primary conversion from the tristimulus value data, and the reaction color Data is converted into uniform color space data (color data). Examples of the uniform color space include CIE L * a * b *, L * u * v *, u′v ′ in which the lightness direction is standardized, and their derived spaces are also included. Thereafter, the image analysis unit 15 separates the normal state and abnormal state image data for each specific part of the subject based on the uniform color space data of the region of interest.

判断部16は、画像解析部15の解析結果に基づいて医療診断などの診断を行うようになっている。すなわち、画像解析部15で変換された均等色空間データにより、図17に示すように正常状態・異常状態の色彩データやその他特徴量を二次元以上(本実施形態では二次元)の座標として表し、画像を解析した結果得られた座標を正常状態の座標と比較し、撮像した被験者が正常状態であるか異常状態であるかを判断するようになっている。   The determination unit 16 makes a diagnosis such as a medical diagnosis based on the analysis result of the image analysis unit 15. That is, the uniform color space data converted by the image analysis unit 15 represents the color data and other feature quantities in the normal state / abnormal state as two-dimensional or more (two-dimensional in this embodiment) coordinates as shown in FIG. The coordinates obtained as a result of analyzing the image are compared with the coordinates in the normal state, and it is determined whether the subject being imaged is in a normal state or an abnormal state.

つまり、予め「正常」と判断された画像データから計測された計測値を用いて正常状態データを求めておき、この正常状態データの全てを含む領域を「正常領域」と設定する。また、この正常領域からある一定の尺度まで離れた領域を「注意領域」、この注意領域からある一定の尺度まで離れた領域を「警告領域」、これらの領域の補集合を「危険領域」と設定する。そして、判断部16は、被験者の画像を解析した結果得られた座標がこれらのどの領域に属するかを検出することにより、被験者の状態を判断するようになっている。   That is, normal state data is obtained using measurement values measured in advance from image data determined to be “normal”, and a region including all of the normal state data is set as a “normal region”. Also, the area away from this normal area to a certain scale is called “attention area”, the area away from this attention area to a certain scale is “warning area”, and the complement of these areas is called “dangerous area”. Set. And the judgment part 16 judges a test subject's state by detecting to which area | region these coordinates obtained as a result of analyzing a test subject's image belong.

このように、色彩データを表す二次元の座標上において、異常状態と判断する領域を「注意領域」、「警告領域」、「危険領域」の複数の領域に分割し、各領域に設定されたそれぞれの条件と被験者の画像データを解析して得られた結果とを比較し、正常、注意、警告、危険という4段階に分けて被験者の健康状態を判断するので、被験者の健康状態を詳細に判断することが可能となる。   In this way, on the two-dimensional coordinates representing the color data, the area determined to be abnormal is divided into a plurality of areas of “caution area”, “warning area”, and “danger area”, and each area is set. Each condition is compared with the results obtained by analyzing the subject's image data, and the subject's health status is judged in four stages: normal, caution, warning, and danger. It becomes possible to judge.

なお、「正常領域」は、例えば、正常状態データの平均値を中心点とし、この中心点からある一定の尺度まで離れた領域となるように設定しても良い。更に、各領域における一定の尺度は、正常状態データのばらつきを考慮して自動的に設定できるようにしても良いし、正常状態データの平均値を表示部19に表示させ、被験者がユーザインターフェイス部18を用いて任意に設定できるようにしても良い。また、過去に「異常」と判断されたデータから「注意領域」、「警告領域」、「危険領域」を設定し、これらの領域の補集合を「正常領域」というように設定しても良い。   Note that the “normal area” may be set so that, for example, an average value of normal state data is a central point, and the area is separated from the central point to a certain scale. Furthermore, a fixed scale in each region may be automatically set in consideration of variations in normal state data, or an average value of normal state data is displayed on the display unit 19 so that the subject can display the user interface unit. 18 may be set arbitrarily. In addition, “attention area”, “warning area”, and “dangerous area” may be set from data determined to be “abnormal” in the past, and the complement of these areas may be set as “normal area”. .

ここで、図17は特定部位(a)または他の特定部位(b)における色彩データの座標を示すものである。また、図17における「特徴量1」とは例えばCIEのa*やu*やu´といった値であり、「特徴量2」とは例えばCIEのb*やv*やv´といった値である。なお、他の色彩データや色彩データ以外の計測値(3次元形状やテクスチャなど)であっても良い。なお、色光Aと色光Bを同時に照射してから分離するのではなく、色光Aと色光Bと別々に照射して画像を撮像してから画像解析を行っても良い。   Here, FIG. 17 shows the coordinates of the color data in the specific part (a) or another specific part (b). Further, “feature amount 1” in FIG. 17 is a value such as CIE a *, u *, or u ′, and “feature amount 2” is a value such as CIE b *, v *, or v ′. . Note that other color data or measurement values other than the color data (such as a three-dimensional shape or texture) may be used. Instead of separately irradiating the color light A and the color light B and then separating them, the image analysis may be performed after the color light A and the color light B are separately irradiated to capture an image.

正常状態と異常状態の判断としては、例えば、620nm付近を中心とする狭帯域の色光を照射すると血液中のヘモグロビンの画像に対する関与が強調されるということが知られており、血流が途絶えてしまうような異常の検知に効果的と思われる。この場合、図6の色光Bを用いることにより、画像解析による正常状態と異常状態との判別の精度が向上する。   As a judgment of normal state and abnormal state, for example, it is known that irradiation with a narrow band of color light centering around 620 nm emphasizes the involvement of hemoglobin in the blood image, and blood flow is interrupted. It seems to be effective for detecting such abnormalities. In this case, by using the color light B of FIG. 6, the accuracy of discrimination between the normal state and the abnormal state by image analysis is improved.

また、550nm付近を中心とする狭帯域の色光を照射すると毛細血管の強調ができるという報告もある。指先など毛細血管が集まる部分での異常を検知するのに効果的と思われる。この場合、図6の色光Aを用いることにより、画像解析による正常状態と異常状態との判別の精度が向上するといえる。   There is also a report that capillary blood vessels can be emphasized by irradiating narrow band colored light centered around 550 nm. It seems to be effective in detecting abnormalities in the part where capillaries such as fingertips gather. In this case, it can be said that the use of the color light A in FIG. 6 improves the accuracy of discrimination between a normal state and an abnormal state by image analysis.

また、撮像部6によって時系列的に、すなわち静止画を連続的に撮像又は動画により撮像された被験者の撮影画像を解析することにより、被験者の色彩データや三次元形状、テクスチャを計測(推定)し、それらの推定データから皮膚下の組織構造にかかわるヘモグロビン量、メラニン量、酸素飽和度などを推定することもできる。また、目の画像から、まばたき回数や目(特に白目)の色、目やにの状況などのデータを取得しても良い。   In addition, the subject's color data, three-dimensional shape, and texture are measured (estimated) by analyzing the subject's captured images taken in time series by the imaging unit 6, that is, continuously capturing still images or moving images. In addition, the amount of hemoglobin, the amount of melanin, the degree of oxygen saturation, etc. related to the tissue structure under the skin can be estimated from the estimated data. Further, data such as the number of blinks, the color of the eyes (particularly white eyes), the state of the eyes and the like may be acquired from the eye image.

また、画像解析部15は、外部通信部14を通じてコンサルタントなどに画像データを送付する場合、被験者の許容に応じて伝送できるデータの部位を変更するようになっている。例えば、個人の特定を回避するために目や口の周りの画像を除去又は変更して伝送することを被験者が希望した場合、画像内の該当部を自動抽出し、その部位を任意の色に変更したり、モザイクやぼかしを入れたりする。   In addition, when sending image data to a consultant or the like through the external communication unit 14, the image analysis unit 15 changes a portion of data that can be transmitted according to the subject's permission. For example, when the subject desires to remove or change the image around the eyes and mouth to transmit the individual in order to avoid personal identification, the corresponding part in the image is automatically extracted, and the part is changed to an arbitrary color. Change or add mosaic or blur.

また個人情報を安全に秘匿するために、伝送されるデータや診断装置13の内部のデータは、各個人ごとに暗号キーを変更して暗号化する。キーの作製方法は、公知の方法がそれぞれ使用できるが、個人ごとのキー設定を可能とするバイオメトリクスが望ましい。この場合、個人の目、鼻、口などの顔内構成要素の位置関係や鼻の高さや、顔全体の形状などの三次元形状、虹彩情報などを暗号キーとする。   In addition, in order to safely conceal personal information, transmitted data and data in the diagnostic device 13 are encrypted by changing the encryption key for each individual. As a method for producing the key, known methods can be used, but biometrics that enable key setting for each individual are desirable. In this case, the positional relationship of the constituent elements in the face such as the eyes, nose and mouth of the individual, the height of the nose, the three-dimensional shape such as the shape of the entire face, iris information, etc. are used as the encryption key.

なお、上述した撮像装置2のデータ処理部10における被験者の個人認証のための撮影画像の解析を、診断装置13の画像解析部15において行い、その特定結果を外部通信部14から撮像装置2に送信するようにしても良い。   The above-described analysis of the captured image for personal authentication of the subject in the data processing unit 10 of the imaging device 2 is performed in the image analysis unit 15 of the diagnostic device 13, and the identification result is transmitted from the external communication unit 14 to the imaging device 2. You may make it transmit.

I/O部17は、CFカード、SDカード、USBメモリカードなどの可搬型デバイスを接続できるように構成されている。なお、I/O部17にバイタルセンサなどの計測装置を接続して使用するようにしても良い。   The I / O unit 17 is configured to connect a portable device such as a CF card, an SD card, or a USB memory card. A measurement device such as a vital sensor may be connected to the I / O unit 17 for use.

ユーザインターフェイス部18は、被験者の指示入力を可能にすると共に、被験者に装置の状況や要求を伝達することができるように構成されている。撮像装置2のユーザインターフェイス部11と同様に、被験者に負担をかけない構成が望ましいが、メンテナンスやバックアップなど装置管理者による複雑な処理が必要な場合もあるので、キーボードやマウスのみを使用することもできる。ただし、ユーザインターフェイス部18は診断装置13において必須の構成部分ではなく、撮像装置2のユーザインターフェイス部11が診断装置13のユーザインターフェイス部18としての機能を兼ねる構成とすることもできる。この場合、撮像装置2のユーザインターフェイス部11を通じて入出力されるデータは外部通信部3及び外部通信部14を経由して診断装置13に転送される。   The user interface unit 18 is configured to allow the subject to input an instruction and to transmit the apparatus status and request to the subject. As with the user interface unit 11 of the imaging device 2, a configuration that does not place a burden on the subject is desirable, but since complicated processing by the device administrator such as maintenance and backup may be required, use only a keyboard and a mouse. You can also. However, the user interface unit 18 is not an essential component in the diagnostic device 13, and the user interface unit 11 of the imaging device 2 may also function as the user interface unit 18 of the diagnostic device 13. In this case, data input / output through the user interface unit 11 of the imaging device 2 is transferred to the diagnostic device 13 via the external communication unit 3 and the external communication unit 14.

表示部19は、液晶などのディスプレイを備え、診断装置13の動作状況やユーザインターフェイス部18による指示入力などを表示するようになっている。また、撮影画像から異常データが検出された際の警告を表示する。異常データが検出された際の警告としては、音声手段によって知らせるように構成することも可能である。ただし、表示部19も診断装置13において必須の構成部分ではなく、撮像装置2の画像表示部4を用いることもできる。その場合、表示される内容は、外部通信部14及び外部通信部3を経由して画像入出力装置に転送される。   The display unit 19 includes a display such as a liquid crystal display, and displays the operation status of the diagnostic device 13, an instruction input by the user interface unit 18, and the like. Also, a warning when abnormal data is detected from the captured image is displayed. The warning when abnormal data is detected can be configured to be notified by voice means. However, the display unit 19 is not an essential component in the diagnostic device 13, and the image display unit 4 of the imaging device 2 can also be used. In this case, the displayed content is transferred to the image input / output device via the external communication unit 14 and the external communication unit 3.

記憶部20は、バッファなどのメモリを備えており、データ保持部21、作業領域部22及びシステム情報保持部23から構成されている。   The storage unit 20 includes a memory such as a buffer, and includes a data holding unit 21, a work area unit 22, and a system information holding unit 23.

データ保持部21は、撮像装置2から送信された診断対象となる興味領域の画像、装置状況などの各種データや、外部装置25から入力されたコンサルティング・診断データなどを保持するようになっている。また、データ保持部21には、図21に示すような被験者の生体情報や周辺環境情報などを示す診断表、図22に示すような予約表を保持するようになっている。すなわち、診断表は、周辺環境情報取得部7から取得した周辺環境のデータ、I/O部8に接続したバイタルセンサから取得したデータ、画像解析部15により解析された被験者の状態を示す診断結果、病院や診察所などへの診断予約の有無などからなり、この診断表を外部装置25に送信することにより、医師が被験者の病状をある程度判断できるようになっている。また予約表は、被験者が病院や診療所などに診断予約をする際に必要な情報を記入するための項目からなり、病院やコスメティック関係の店などに設置された外部装置25に予約表を送信することで、診断予約が行われるようになっている。   The data holding unit 21 holds various types of data such as an image of a region of interest to be diagnosed transmitted from the imaging device 2, device status, consulting / diagnosis data input from the external device 25, and the like. . Further, the data holding unit 21 holds a diagnostic table indicating the biological information and surrounding environment information of the subject as shown in FIG. 21, and a reservation table as shown in FIG. That is, the diagnosis table includes the surrounding environment data acquired from the surrounding environment information acquisition unit 7, the data acquired from the vital sensor connected to the I / O unit 8, and the diagnosis result indicating the state of the subject analyzed by the image analysis unit 15. It consists of the presence / absence of a diagnosis reservation at a hospital or a doctor's office, etc., and by sending this diagnosis table to the external device 25, the doctor can judge the medical condition of the subject to some extent. The reservation table includes items for the subject to fill in information necessary for making a diagnosis reservation at a hospital or clinic, and the reservation table is transmitted to an external device 25 installed in a hospital or a cosmetic store. By doing so, a diagnosis reservation is made.

作業領域部22は、診断装置13におけるデータ処理を高速に行うため、データ処理に使用する各種データを一時的に保持するようになっている。   The work area unit 22 temporarily holds various data used for data processing in order to perform data processing in the diagnostic device 13 at high speed.

システム情報保持部23は、撮像装置2や診断装置13のシステム情報を保持するようになっている。このシステム情報保持部23は、撮像装置2の照射部5が備える光源としてのLED又はフィルタの管理番号と、効果的な被写体と、抽出できる特徴量を、図18のようにテーブル化して登録・管理している。撮像装置2の制御部12はこのテーブルによって照射部5が備える各光源のOn/Offを独立に制御して被写体に適した色光を与えることが可能となっている。   The system information holding unit 23 holds system information of the imaging device 2 and the diagnostic device 13. This system information holding unit 23 registers and registers the management number of the LED or filter as the light source included in the irradiation unit 5 of the imaging device 2, the effective subject, and the feature quantity that can be extracted as a table as shown in FIG. I manage. The control unit 12 of the imaging device 2 can control the On / Off of each light source included in the irradiation unit 5 independently by this table to give color light suitable for the subject.

また、システム情報保持部23は、撮像装置2の照射部5が備える光源やフィルタの分光特性、色彩データ、経時的な特性などを管理しており、画像解析部15が画像の解析上必要な場合にこれらのデータを参照できるようになっている。   Further, the system information holding unit 23 manages the spectral characteristics, color data, and temporal characteristics of the light source and the filter included in the irradiation unit 5 of the imaging device 2, and the image analysis unit 15 is necessary for image analysis. You can refer to these data.

また、システム情報保持部23は、「正常」と判断された画像データから計測された計測値を用いて、画像解析部15における画像解析による診断の基準となる「正常状態データ」を作成して保持するようになっている。この正常状態データは、データの信頼性を高めるため、一定期間ごとに被験者の正常状態を確認した上で更新されるようになっている。すなわち、画像表示部4又はユーザインターフェイス部18において、例えば1ヶ月ごとにバイタルセンサなどの使用を被験者に促すことによって、正常状態データの更新を行うようになっている。また、最近1ヶ月のデータを基に毎日更新していくこともできる。これにより、季節や加齢による体調の変化にも対応できる。また、異常データを含む日を除いて、30日間など所定の日数を参考にして作成しても良い。   Further, the system information holding unit 23 creates “normal state data” that serves as a reference for diagnosis by image analysis in the image analysis unit 15 by using the measurement values measured from the image data determined to be “normal”. It comes to hold. The normal state data is updated after confirming the normal state of the subject at regular intervals in order to increase the reliability of the data. That is, in the image display unit 4 or the user interface unit 18, normal state data is updated by encouraging the subject to use a vital sensor or the like every month, for example. It can also be updated daily based on data from the last month. Thereby, it can respond also to the change of the physical condition by a season or aging. Moreover, you may create with reference to predetermined days, such as 30 days, except the day containing abnormal data.

また、診断システム1の導入時又は新しい被験者を登録して間もない時は、被験者個人の肌の色やその他の特徴についての情報が少なく、正常状態又は異常状態のデータを構成することができない。そこで、システム情報保持部23に予め一般人の平均的なデータを登録しておき、初回から所定の期間はその平均データ使用して仮の計測値を得るようになっている。また、診断システム1を使用する被験者の平均データを使用して仮の計測値を得ることもできる。そして、所定の期間経過後は被験者の実データに切り替えて、それまでの画像データに対して計測値を更新するようになっている。なお、「所定の期間」はシステム情報保持部23に予め登録しておく。   In addition, when the diagnostic system 1 is introduced or just after a new subject is registered, there is little information about the skin color and other characteristics of the individual subject, and normal state or abnormal state data cannot be constructed. . Therefore, average data of ordinary people is registered in advance in the system information holding unit 23, and temporary measurement values are obtained using the average data for a predetermined period from the first time. Moreover, a temporary measured value can also be obtained using the average data of the subject who uses the diagnostic system 1. Then, after a predetermined period has elapsed, the measurement value is updated with respect to the image data up to that time by switching to the actual data of the subject. The “predetermined period” is registered in advance in the system information holding unit 23.

さらに、システム情報保持部23は撮像装置2又は診断装置13の各構成部分の特性を保持するようになっている。すなわち、撮像装置2の照射部5,画像表示部4,撮像部6などは経時的に特性が変動し、通常は時間とともに劣化する。そこで、システム情報保持部23にこの経時変化の補正(調整)を行うタイミングを設定し、タグ情報から時刻情報などを読み取ることにより、指定したタイミングに従って撮像装置2又は診断装置の特性を計測・補正するようになっている。これにより、経時的に安定した画像計測値を得ることができるようになっている。   Further, the system information holding unit 23 holds the characteristics of each component of the imaging device 2 or the diagnostic device 13. That is, the characteristics of the irradiating unit 5, the image display unit 4, the imaging unit 6 and the like of the imaging device 2 vary with time and usually deteriorate with time. Therefore, the timing for correcting (adjusting) the change over time is set in the system information holding unit 23, and the time information and the like are read from the tag information, thereby measuring and correcting the characteristics of the imaging device 2 or the diagnostic device according to the specified timing. It is supposed to be. This makes it possible to obtain image measurement values that are stable over time.

また、定期的に行うキャリブレーションとは別に、周辺状況が変化したときに、被験者がキャリブレーションのタイミングを指示、もしくは、画像から自動的に周辺状況の変化を検知して、キャリブレーションを行うようになっている。ここで「周辺状況が変化」とは、例えば、周辺環境照明が大きく変わった(蛍光長などの照明を交換した、近くに新しい窓をつけたなど)場合や、周囲が変わった(画像の背景が変わった、部屋を模様替えした、装置の置き位置を変えたなど)場合が考えられる。周辺状況の違いは、システム情報保持部21に保存されている過去のデータと現状のデータを比較して、違いの程度に応じてキャリブレーションをするかどうかを判断することなどが可能である。   In addition to calibration that is performed periodically, when the surrounding situation changes, the subject instructs the calibration timing or automatically detects the change in the surrounding situation from the image and performs calibration. It has become. Here, “the surrounding situation has changed” means, for example, that the surrounding environment lighting has changed significantly (e.g., the fluorescent length has been changed, a new window has been installed nearby), or the surrounding has changed (the background of the image Change the room, change the position of the device, etc.). As for the difference in the peripheral situation, it is possible to compare the past data stored in the system information holding unit 21 with the current data and determine whether or not to perform calibration according to the degree of the difference.

データ管理部24は、記憶部20のデータ保持部21において保持される各個人の画像データにタグ(付帯情報)を付けて管理する。タグの付け方は、各データのヘッダやフッダに付帯させてもいいし、各データ名と関連づけて別ファイルにまとめても良い。   The data management unit 24 manages each person's image data held in the data holding unit 21 of the storage unit 20 by attaching a tag (accompanying information). The tagging method may be attached to the header or footer of each data, or may be collected in a separate file in association with each data name.

ここで、タグの内容は、画像の撮影日時、被験者の名前及びその属性、撮像装置2及び診断装置13の情報、周辺環境の情報、撮影画像やI/O部8又はI/O部17に接続したバイタルセンサから取得された計測データ値、撮影画像を主観的に診断したときの診断情報、別途取得された問診データの内容などを含める。特に、時系列的に画像データを追跡するための撮影日時などの時間情報や、その他データの前後関係を把握できるようなタグは必須である。   Here, the contents of the tag include the image shooting date and time, the name and attribute of the subject, information on the imaging device 2 and the diagnostic device 13, information on the surrounding environment, the captured image, the I / O unit 8 or the I / O unit 17. Measured data values acquired from connected vital sensors, diagnostic information when subjectively diagnosing a captured image, contents of inquiry data acquired separately, and the like are included. In particular, a tag that can grasp time information such as photographing date and time for tracking image data in time series, and other data contexts is essential.

また、撮像装置2及び診断装置13の情報として必要なのは、画像から計測データを推定するのに関係する照射部5の情報、撮像部6の特性や撮像装置2の特性、データ処理部10におけるデータ処理方法の情報である。これらハードウェアやソフトウェアの情報はバージョンで管理されることが一般的であるので、タグにはそれぞれのバージョンNo.を記載する。   Further, information necessary for the imaging device 2 and the diagnostic device 13 is information on the irradiation unit 5 related to estimation of measurement data from the image, characteristics of the imaging unit 6, characteristics of the imaging device 2, and data in the data processing unit 10. Information on the processing method. Since these pieces of hardware and software information are generally managed by version, each version number is displayed on the tag. Is described.

なお、本実施形態の診断システム1が備える撮像装置2又は診断装置13が設置される場所としては、洗面所や浴室など水周りの近くが考えられる。したがって、湿気で曇らないように、曇り止め加工やコーティングなどの防水対策を施すことが望ましい。また、ほこりがたまりやすい場所に設置することも考えて、防汚シールなどの汚れやほこり対策があることが望ましい。   In addition, as a place where the imaging device 2 or the diagnostic device 13 provided in the diagnostic system 1 of the present embodiment is installed, a place near a water area such as a washroom or a bathroom can be considered. Therefore, it is desirable to take waterproof measures such as anti-fogging processing and coating so as not to be fogged with moisture. It is also desirable to take measures against dirt and dust such as an antifouling seal, considering installation in a place where dust tends to accumulate.

次に、上述の診断システム1の作用について、図19乃至図20のフローチャートを参照して説明する。なお、本フローにおいては、被験者の健康状態を診断するものとし、外部装置25は病院の医師のもとに設置されている。また、「正常領域」、「注意領域」、「警告領域」、「危険領域」の条件は、予め上述した方法により設定されており、システム情報保持部23に記憶されている。   Next, the operation of the above-described diagnostic system 1 will be described with reference to the flowcharts of FIGS. In this flow, it is assumed that the health condition of the subject is diagnosed, and the external device 25 is installed under a doctor in the hospital. The conditions of “normal area”, “caution area”, “warning area”, and “dangerous area” are set in advance by the method described above and stored in the system information holding unit 23.

被験者が診断システム1の使用を開始すると、まず、撮像部6が被験者の撮像を行う。   When the subject starts using the diagnostic system 1, first, the imaging unit 6 images the subject.

データ処理部10は、撮像部6で撮像した被験者の画像、周辺環境情報取得部7で取得した周辺環境情報、I/O部8から入力された計測データや画像データ又はユーザインターフェイス部11から入力された被験者の指示入力データなどの入力情報を解析し、画像表示部4に画像の表示を行うと共に、照射部5の光源などを調整する。また、撮像部6で撮像された被験者の画像とメモリ部9に登録されている個人の認証情報との相関をデータ処理部10により解析し、メモリ部9に登録された複数の登録者の中から自動的に一人の候補者を抽出する(ステップ1、以下ステップをSともいう)。次に、「あなたは○○○○さんですか?」といったように、抽出された候補者名を画像表示部4に表示し、被験者が抽出された候補者であるか否かを質問する(S2)。   The data processing unit 10 is an image of a subject imaged by the imaging unit 6, ambient environment information acquired by the ambient environment information acquisition unit 7, measurement data and image data input from the I / O unit 8, or input from the user interface unit 11. The input information such as the instruction input data of the subject is analyzed, the image is displayed on the image display unit 4, and the light source of the irradiation unit 5 is adjusted. Further, the data processing unit 10 analyzes the correlation between the test subject image captured by the imaging unit 6 and the personal authentication information registered in the memory unit 9, and among the plurality of registrants registered in the memory unit 9. One candidate is automatically extracted from (step 1, hereinafter, step is also referred to as S). Next, the extracted candidate name is displayed on the image display unit 4 such as “Are you Mr. XXX?” And asks whether the subject is the extracted candidate ( S2).

被験者はこの質問に対してジェスチャを行うことで回答する。なお、本実施例においては、個人認証により個人が特定されることでその個人の属性が決定するため、この段階で属性によって意味が異なるジェスチャを用いると、ジェスチャの意味する内容が判断できない場合が生じる。したがって、このようなジェスチャを用いる場合は、メモリ部9に一般的なジェスチャを初期登録しておき、被験者がジェスチャにより回答する際に初期登録しておいたジェスチャを画像表示部14に表示し、この表示にしたがってジェスチャをするように被験者に指示すれば良い。また、属性によって意味が異なるジェスチャを用いずに、例えば、図24に示すように、画像表示部4に被験者の回答しうる全ての項目を表示しておき、被験者が立てた指の数に応じて項目を選択するようにしても良い。   Subject answers this question by making a gesture. In this embodiment, since an individual is identified by personal authentication, the attribute of the individual is determined. Therefore, if a gesture whose meaning differs depending on the attribute is used at this stage, the meaning of the gesture may not be determined. Arise. Therefore, when such a gesture is used, a general gesture is initially registered in the memory unit 9, and the initially registered gesture is displayed on the image display unit 14 when the subject answers with the gesture. The subject may be instructed to make a gesture according to this display. Also, without using gestures that have different meanings depending on the attributes, for example, as shown in FIG. 24, all items that can be answered by the subject are displayed on the image display unit 4, and the number of fingers raised by the subject is determined. To select an item.

撮像部6は被験者が行ったジェスチャを画像データとして取得する(S3)。そして、上述したように、データ処理部10は取得した画像データのエッジを抽出して被験者の部位を特定し、部位に含まれる特徴点の推移を解析する(S4)。解析した結果、被験者のジェスチャが意味する内容が「いいえ」である場合は(S5でNO)、被験者は画像表示部4に表示された候補者ではないので、S1に戻り、データ処理部10での比較結果が次に被験者に近いと思われる候補者を抽出し、上記と同様の処理を繰り返す。   The imaging unit 6 acquires a gesture made by the subject as image data (S3). Then, as described above, the data processing unit 10 extracts the edge of the acquired image data, identifies the part of the subject, and analyzes the transition of the feature points included in the part (S4). As a result of the analysis, if the content of the subject's gesture is “No” (NO in S5), the subject is not a candidate displayed on the image display unit 4, so the process returns to S1 and the data processing unit 10 The candidate who is considered to be the next closest to the subject is extracted, and the same processing as above is repeated.

一方、ステップ5において、被験者のジェスチャが意味する内容が「はい」である場合は(S5でYES)、被験者の個人認証が完了する。そして、個人認証により特定された被験者の身長、体重、年齢などの基本情報をメモリ部9から取得する(S6)。なお、このステップにおいて、周辺環境情報取得部7から周辺環境の情報を取得したり、I/O部8に接続されたバイタルセンサから被験者の体温、血圧、脈拍などを示す生理情報を取得するようにしても良い。   On the other hand, if the content of the subject gesture in the step 5 is “Yes” (YES in S5), the personal authentication of the subject is completed. Then, basic information such as the height, weight, and age of the subject specified by the personal authentication is acquired from the memory unit 9 (S6). In this step, information on the surrounding environment is acquired from the surrounding environment information acquisition unit 7 or physiological information indicating the body temperature, blood pressure, pulse, etc. of the subject is acquired from a vital sensor connected to the I / O unit 8. Anyway.

次に、撮像部6が被験者のうち診断対象となる部位の画像を撮像する(S7)。この際、照射部5が複数の光源を照射して撮像を行う。すなわち、光源としてはLEDを使用するか、白色光源を干渉フィルタと共に使用するが、本実施形態の照射部5では、図6に示す特性を有する光源のうち2種類の光源(色光A及び色光B)を使用する。これにより、図8に示す特定部位(a)の例では、正常状態と異常状態で低波長側(色光Aの帯域に重なる)の差異が大きく、図9に示す特定部位(b)の例では、中域から高域(色光Bの帯域に重なる)の差異が大きくなる。そして、色光A及び色光Bを被験者の特定部位(a)に対して照射すると、被写体の反射光のスペクトルは図10に示すように色光A又は色光Bと被写体の分光反射率の積となる。同様に、色光A及び色光Bを被験者の他の特定部位(b)に対して照射すると、被験者の反射光のスペクトルは図11に示すように色光A又は色光Bと被写体の分光反射率の積となる。   Next, the imaging unit 6 captures an image of a part to be diagnosed among the subjects (S7). At this time, the irradiation unit 5 performs imaging by irradiating a plurality of light sources. That is, an LED is used as a light source or a white light source is used together with an interference filter. In the irradiation unit 5 of this embodiment, two types of light sources (color light A and color light B) among the light sources having the characteristics shown in FIG. ). Thus, in the example of the specific part (a) shown in FIG. 8, there is a large difference between the normal state and the abnormal state on the low wavelength side (overlapping the band of the colored light A), and in the example of the specific part (b) shown in FIG. The difference between the middle range and the high range (which overlaps the band of the colored light B) becomes large. Then, when the color light A and the color light B are applied to the specific part (a) of the subject, the spectrum of the reflected light of the subject is the product of the color light A or the color light B and the spectral reflectance of the subject as shown in FIG. Similarly, when the color light A and the color light B are irradiated to another specific part (b) of the subject, the spectrum of the reflected light of the subject is the product of the color light A or the color light B and the spectral reflectance of the subject as shown in FIG. It becomes.

そして、撮像部6は、被験者表面の反射光を撮像して画素値に変換する。その際、チャンネルによって各色光に起因する反射光を分離することで、被験者の特定部位ごとに正常状態及び異常状態における画素値を分離しやすくする。さらに、データ処理部10は撮影画像の中から興味領域の抽出を行う(S8)。   And the imaging part 6 images the reflected light of a test subject surface, and converts it into a pixel value. At that time, the reflected light caused by each color light is separated by the channel, so that the pixel values in the normal state and the abnormal state can be easily separated for each specific part of the subject. Further, the data processing unit 10 extracts a region of interest from the captured image (S8).

撮像装置2から外部通信部3及び外部通信部14を経由して、興味領域の撮影画像を診断装置13に送信する。そして、診断装置13に送信された興味領域の撮影画像は、記憶部20のデータ保持部21が保持する(S9)。データ管理部22は、データ保持部21において保持される各個人の画像データにタグ(付帯情報)を付けて管理する。   The captured image of the region of interest is transmitted from the imaging device 2 to the diagnostic device 13 via the external communication unit 3 and the external communication unit 14. The captured image of the region of interest transmitted to the diagnostic device 13 is held by the data holding unit 21 of the storage unit 20 (S9). The data management unit 22 manages each individual image data held in the data holding unit 21 with a tag (accompanying information).

そして、画像解析部15はデータ保持部21が保持する興味領域の画素値から三刺激値データ(RGB)をそれぞれ算出し、この三刺激値データからプライマリ変換によって反応色データを算出し、この反応色データから均等色空間データに変換する(S10)。その後、画像解析部15は均等色空間データに基づき、被験者の特定部位ごとに正常時と異常時の画像データを分離する(S11)。   Then, the image analysis unit 15 calculates tristimulus value data (RGB) from the pixel values of the region of interest held by the data holding unit 21, calculates reaction color data by primary conversion from the tristimulus value data, and this reaction The color data is converted into uniform color space data (S10). Thereafter, the image analysis unit 15 separates normal and abnormal image data for each specific part of the subject based on the uniform color space data (S11).

次に、図20に進み、均等色空間データによって、図17に示すように正常状態・異常状態の色彩データやその他特徴量を二次元以上(本実施形態では二次元)の座標として表し、判断部16は正常時と異常時の座標を比較する(S12)。すなわち、得られた座標が正常状態データから求められた正常領域に属するか否かを判断する。なお、このステップにおいて、撮像部6によって時系列的(静止画を連続的に、動画的に)に撮像された被験者の撮影画像を解析することにより、被験者の色彩データや三次元形状、テクスチャを計測(推定)し、それらの推定データから皮膚下の組織構造にかかわるヘモグロビン量、メラニン量、酸素飽和度などを推定することもできる。また、目の画像から、まばたき回数や目(特に白目)の色、目やにの状況などのデータを取得しても良い。   Next, proceeding to FIG. 20, the uniform color space data represents the color data of the normal state / abnormal state and other feature quantities as coordinates of two or more dimensions (two dimensions in this embodiment) as shown in FIG. The unit 16 compares the normal and abnormal coordinates (S12). That is, it is determined whether or not the obtained coordinates belong to the normal area obtained from the normal state data. In this step, the subject's color data, three-dimensional shape, and texture are obtained by analyzing the subject's captured images taken in time series (continuous still images, moving images) by the imaging unit 6. It is possible to measure (estimate) and estimate the amount of hemoglobin, the amount of melanin, the degree of oxygen saturation, etc. related to the tissue structure under the skin from the estimated data. Further, data such as the number of blinks, the color of the eyes (particularly white eyes), the state of the eyes and the like may be acquired from the eye image.

判断部16が正常領域に属すると判断した場合(S12でYES)は、被験者の健康状態は正常である旨を画像表示部4又は表示部19に表示すると共にデータ保持部21に記録し(S13)、診断処理を終了する。一方、判断部16が正常領域に属さないと診断した場合(S12でNO)は、注意領域に属するか否かを判断する(S14)。   When the determination unit 16 determines that it belongs to the normal region (YES in S12), the fact that the subject's health condition is normal is displayed on the image display unit 4 or the display unit 19 and recorded in the data holding unit 21 (S13). ), And the diagnosis process is terminated. On the other hand, if the determination unit 16 diagnoses that it does not belong to the normal area (NO in S12), it determines whether or not it belongs to the attention area (S14).

判断部16が注意領域に属すると判断した場合(S14でYES)は、被験者の健康状態が注意状態である旨の診断結果を取得する(S17)。そして、ユーザインターフェイス部11が「体調は良いですか?」などの音声を出力する、あるいは画像表示部4が文字を表示し(S18)、被験者の体調が良いか否かを被験者に質問する。この質問に対して、被験者はジェスチャを行うことで回答する。撮像部6は被験者が行ったジェスチャを画像データとして取得する(S19)。そして、データ処理部10は取得した画像データのエッジを抽出して被験者の部位を特定し、部位に含まれる特徴点の推移と図23に示すようなジェスチャ解析テーブルに基づいて、被験者が行ったジェスチャを解析する(S20)。解析した結果、ジェスチャの意味する内容が「はい」である場合は(S21でYES)、被験者の健康状態が注意状態である旨を画像表示部4又は表示部19に表示すると共にデータ保持部21に記録し(S13)、診断処理を終了する。   If the determination unit 16 determines that it belongs to the attention area (YES in S14), a diagnosis result indicating that the subject's health condition is the attention state is acquired (S17). Then, the user interface unit 11 outputs a sound such as “Is my physical condition good?” Or the image display unit 4 displays characters (S18), and asks the subject whether the physical condition of the subject is good. The subject answers this question by making a gesture. The imaging unit 6 acquires a gesture performed by the subject as image data (S19). Then, the data processing unit 10 extracts the edge of the acquired image data to identify the part of the subject, and the subject performed based on the transition of the feature points included in the part and the gesture analysis table as shown in FIG. The gesture is analyzed (S20). As a result of the analysis, if the content that the gesture means is “Yes” (YES in S21), the image display unit 4 or the display unit 19 displays that the subject's health is in a caution state, and the data holding unit 21 (S13), and the diagnosis process is terminated.

ジェスチャの意味する内容が「いいえ」である場合は(S19でNO)は、ユーザインターフェイス部11が「医師による診断は必要ですか?」などの音声を出力する、あるいは画像表示部4が文字を表示し(S23)、被験者に対して医師による診断が必要であるか否かを質問する。この質問に対して、被験者はジェスチャを行うことにより回答する。撮像部6は被験者が行ったジェスチャを画像データとして取得する(S24)。そして、データ処理部10は取得した画像データのエッジを抽出して被験者の部位を特定し、部位に含まれる特徴点の推移と、図23に示すジェスチャ解析テーブルに基づいて被験者が行ったジェスチャを解析する(S25)。   If the content of the gesture is “No” (NO in S19), the user interface unit 11 outputs a sound such as “Do you need a diagnosis by a doctor?”, Or the image display unit 4 displays text. Display (S23) and ask the subject whether or not a diagnosis by a doctor is necessary. The subject answers this question by making a gesture. The imaging unit 6 acquires a gesture made by the subject as image data (S24). Then, the data processing unit 10 extracts the edge of the acquired image data, identifies the part of the subject, changes the feature points included in the part, and the gesture performed by the subject based on the gesture analysis table shown in FIG. Analyze (S25).

解析した結果、ジェスチャの意味する内容が「はい」である場合は(S26でYES)、画像表示部4又は表示部19は医師の診断予約を行うために、図22に示すような予約表を画面上に表示するとともに、被験者に所定の項目を入力するように促す(S27)。被験者により所定の項目が入力され、更に、図示の送信ボタンをクリックしたことが検知されると(S28)、診断予約の入力処理が完了し、予約表を外部通信部14を経由して外部装置25に送信する(S29)。次に、ユーザインターフェイス部11が「診断表を医師に送信しても良いですか?」などの音声を出力する、あるいは画像表示部4が文字を表示し(S30)、被験者の診断結果を医師に送信してもよいか否かを被験者に質問する。この質問に対して、被験者はジェスチャを行うことで回答する。撮像部6は被験者が行ったジェスチャを画像データとして取得する(S31)。そして、データ処理部10は取得した画像データのエッジを抽出して被験者の部位を特定し、部位に含まれる特徴点の推移と図23に示すジェスチャ解析テーブルに基づいて、被験者が行ったジェスチャを解析する(S32)。   As a result of the analysis, if the content of the gesture is “Yes” (YES in S26), the image display unit 4 or the display unit 19 uses a reservation table as shown in FIG. While displaying on the screen, the subject is prompted to input predetermined items (S27). When it is detected that a predetermined item is input by the subject and the transmission button shown in the figure is clicked (S28), the diagnostic reservation input processing is completed, and the reservation table is transferred to the external device via the external communication unit 14. 25 (S29). Next, the user interface unit 11 outputs a voice such as “Can I send a diagnosis table to a doctor?” Or the image display unit 4 displays characters (S30), and the diagnosis result of the subject is displayed as a doctor. Ask the subject if he / she can send it. The subject answers this question by making a gesture. The imaging unit 6 acquires a gesture made by the subject as image data (S31). Then, the data processing unit 10 extracts the edge of the acquired image data to identify the part of the subject, and based on the transition of the feature points included in the part and the gesture analysis table shown in FIG. 23, the gesture performed by the subject is performed. Analyze (S32).

解析した結果、被験者のジェスチャが意味する内容が「はい」である場合は(S33でYES)、上記診断システム1による処理で得られた診断結果に基づいて診断表を作成し(S34)、医師に診断表を送信する(S35)。そして、被験者の健康状態が注意状態であることと、医師に予約表、診断表を送信したことを画像表示部4又は表示部19に表示すると共にデータ保持部21に記録し(S13)、診断処理を終了する。ステップ33に戻り、被験者のジェスチャが意味する内容が「いいえ」である場合は(S33でNO)、被験者の健康状態が注意状態であることと、医師に予約表を送信したことを画像表示部4又は表示部19に表示すると共にデータ保持部21に記録し(S13)、診断処理を終了する。   As a result of the analysis, if the subject gesture means “yes” (YES in S33), a diagnostic table is created based on the diagnostic result obtained by the processing by the diagnostic system 1 (S34), and the doctor The diagnosis table is transmitted to (S35). Then, it is displayed on the image display unit 4 or the display unit 19 and recorded in the data holding unit 21 that the health condition of the subject is an attention state and the appointment table and the diagnostic table are transmitted to the doctor (S13). The process ends. Returning to step 33, if the content of the subject gesture is “No” (NO in S33), the image display unit indicates that the subject's health is in a caution state and that the appointment table has been transmitted to the doctor. 4 or displayed on the display unit 19 and recorded in the data holding unit 21 (S13), and the diagnosis process is terminated.

ステップ26に戻り、ジェスチャの意味する内容が「いいえ」である場合は(S26でNO)、上述したステップ30以降の処理を行った後、被験者の健康状態が注意状態であることと、医師への診断表の送信の有無(S33の判断結果による)を画像表示部4又は表示部19に表示すると共にデータ保持部21に記録し(S13)、診断処理を終了する。   Returning to step 26, if the content of the gesture is “No” (NO in S 26), after performing the processing after step 30 described above, the health condition of the subject is in a caution state and the doctor is informed. The presence / absence of transmission of the diagnostic table (according to the determination result in S33) is displayed on the image display unit 4 or the display unit 19 and recorded in the data holding unit 21 (S13), and the diagnostic process is terminated.

ステップ14に戻り、判断部16が注意領域に属さないと判断した場合(S14でNO)は、警告領域に属するか否かを判断する(S15)。判断部16が警告領域に属すると判断した場合(S15でYES)は、被験者の健康状態が警告状態である旨の診断結果を取得する(S22)。そして、上述したステップ23以降の処理を行った後、被験者の健康状態が警告状態である旨と、医師への診断予約、診断表の送付の有無を画像表示部4又は表示部19に表示すると共にデータ保持部21に記録し(S13)、診断処理を終了する。   Returning to step 14, if the determination unit 16 determines that it does not belong to the attention area (NO in S14), it determines whether or not it belongs to the warning area (S15). If the determination unit 16 determines that it belongs to the warning area (YES in S15), a diagnosis result indicating that the subject's health condition is a warning state is acquired (S22). And after performing the process after step 23 mentioned above, it displays on the image display part 4 or the display part 19 that the test subject's health condition is a warning state, and the presence or absence of the diagnostic reservation to a doctor, and sending of a diagnostic table | surface. At the same time, the data is recorded in the data holding unit 21 (S13), and the diagnosis process is terminated.

ステップ15に戻り、判断部16が警告領域に属さないと判断した場合(S15でNO)は、被験者の状態は危険領域であると判断し、被験者の健康状態が危険状態である旨の診断結果を取得する(S16)。そして、上述したステップ27以降の処理を行った後、被験者の健康状態が危険状態であること、医師に診断表を送信したこと、診断表の送信の有無(S33の判断結果による)を画像表示部4又は表示部19に表示すると共にデータ保持部21に記録し(S13)、診断処理を終了する。   Returning to step 15, if the determination unit 16 determines that it does not belong to the warning area (NO in S <b> 15), it determines that the subject's state is a dangerous area, and the diagnosis result indicates that the subject's health is in a dangerous state. Is acquired (S16). Then, after performing the processing after step 27 described above, an image is displayed indicating that the health condition of the subject is in a dangerous state, that a diagnosis table has been transmitted to the doctor, and whether or not a diagnosis table has been transmitted (according to the determination result in S33). The data is displayed on the unit 4 or the display unit 19 and recorded in the data holding unit 21 (S13), and the diagnosis process is terminated.

なお、上記フローのステップ1〜5において、何度繰り返しても被験者が特定できない場合は、被験者に名前の入力を促す(画像表示部4に「あなたの名前は?」と表示すると同時に登録されている候補者リストを表示し、被験者はその中から選択する)処理を行うことができる。また、ステップ13において、画像表示部4又は表示部19に表示する内容は、上記内容に限られず、例えば、被験者の診断結果から推測される病状、今後の対処方法、過去の診断結果なども合わせて表示するようにしても良い。また、診断システム1の質問に対して被験者のジェスチャにより回答するように構成したが、回答方法はジェスチャに限られず、上述したようなユーザインターフェイス部11のマウスやキーボードなどの入力操作や音声入力により回答するように構成しても良い。   In Steps 1 to 5 in the above flow, if the subject cannot be identified after repeated, the subject is prompted to input his / her name ("Your name is?" The candidate list is displayed, and the subject selects from among them). Further, the content displayed on the image display unit 4 or the display unit 19 in step 13 is not limited to the above content, and includes, for example, a medical condition estimated from the diagnosis result of the subject, a future countermeasure, a past diagnosis result, and the like. May be displayed. Moreover, although it comprised so that a test subject's gesture might be answered with respect to the question of the diagnostic system 1, the reply method is not restricted to a gesture, By input operation, such as a mouse | mouth and a keyboard of the above-mentioned user interface part 11, or voice input. You may comprise so that it may answer.

以上より、本実施形態の診断システム1によれば、異常状態と判断する領域を「注意領域」、「警告領域」、「危険領域」という複数の領域に分割し、各領域に設定されたそれぞれの条件と被験者の画像データを解析して得られた結果を比較することにより、被験者の健康状態を正常、注意、警告、危険という4段階に分けて判断するように構成したので、被験者の状態を詳細に判断することができ、被験者の健康状態に最適な診断をすることが可能となる。   As described above, according to the diagnosis system 1 of the present embodiment, the area that is determined to be in an abnormal state is divided into a plurality of areas of “caution area”, “warning area”, and “danger area”, and each of the areas set in each area is set. By comparing the condition of the subject and the results obtained by analyzing the subject's image data, the subject's health status is divided into four stages: normal, caution, warning, and danger. Can be determined in detail, and it is possible to make an optimal diagnosis for the health condition of the subject.

また、被験者の病変や異常は被験者表面の分光スペクトルの狭い帯域の特性に現れるが、そうした帯域の影響が強調できる特定の色光によって被験者を照射して撮影するので、画像データから病変や異常を検出しやすくなる。   In addition, the lesions and abnormalities of the subject appear in the narrow band characteristics of the spectrum on the surface of the subject. Since the subject is illuminated and photographed with specific color light that can emphasize the influence of such bands, the lesions and abnormalities are detected from the image data. It becomes easy to do.

また、正常状態と異常状態における被写体表面の分光反射率がどの波長領域において顕著に相違するかは被写体依存だが、この波長領域に対応した各色光に起因する反射光をチャンネルによって分離するので、特定の被写体に対して特定のチャンネルで正常状態と異常状態の画素値の分離が容易となる。   In addition, it is subject-dependent whether the spectral reflectance of the subject surface in the normal state and the abnormal state is significantly different in which wavelength region, but the reflected light caused by each color light corresponding to this wavelength region is separated by channel, so it is specified It is easy to separate normal and abnormal pixel values in a specific channel for a subject.

また、座標上において正常状態と異常状態のデータを視覚により容易に判別することができる。   In addition, normal state and abnormal state data on the coordinates can be easily discriminated visually.

以上詳細に説明したように、本発明の診断システムによれば、特定の色光で照射するので、画像データから病変や異常を検出しやすくなり、正常、注意、警告、危険状態を判別して診断の精度を向上させることができる。   As described above in detail, according to the diagnostic system of the present invention, irradiation with specific color light makes it easy to detect lesions and abnormalities from image data, and diagnoses by determining normality, caution, warning, and dangerous state Accuracy can be improved.

また、特定の被写体に対して特定のチャンネルで正常状態と異常状態の画素値の分離が容易となる。   In addition, it becomes easy to separate normal and abnormal pixel values in a specific channel for a specific subject.

なお、本実施形態においては、データ管理の都合上、診断装置1には撮像装置2と診断装置13を別々に設けたが、例えば、ユーザインターフェイス部11とユーザインターフェイス部18、画像表示部4と表示部19といった同一の機能を有するものを一つにまとめ、撮像装置2と診断装置13を一つの装置として構成しても良い。また、異常状態を注意状態、警告状態、危険状態の3つに分けて被験者の健康状態を判断するようにしたが、特にこれに限定されるものではなく、例えば2つや4つに分けて健康状態を判断するようにしても構わない。   In the present embodiment, for convenience of data management, the diagnostic apparatus 1 is provided with the imaging apparatus 2 and the diagnostic apparatus 13 separately. For example, the user interface unit 11, the user interface unit 18, the image display unit 4, and the like. The devices having the same function such as the display unit 19 may be combined into one, and the imaging device 2 and the diagnostic device 13 may be configured as one device. In addition, although the abnormal state is divided into three states, a caution state, a warning state, and a dangerous state, the health state of the subject is determined. However, the present invention is not limited to this. For example, the health state is divided into two or four. You may make it judge a state.

本発明の実施形態に係る診断システムの全体構成を示す概略図である。1 is a schematic diagram showing an overall configuration of a diagnostic system according to an embodiment of the present invention. 本発明の実施形態に係る診断システムの全体構成を示すブロック図である。It is a block diagram showing the whole diagnostic system composition concerning an embodiment of the present invention. 本発明の実施形態に係る画像表示部及び照射部を示す正面図である。It is a front view which shows the image display part and irradiation part which concern on embodiment of this invention. 本発明の実施形態に係る照射部が備える光源の例を示す部分拡大図である。It is the elements on larger scale which show the example of the light source with which the irradiation part which concerns on embodiment of this invention is provided. 本発明の実施形態に係る照射部の光源が構成する色光ユニットの配置を示す正面図である。It is a front view which shows arrangement | positioning of the color light unit which the light source of the irradiation part which concerns on embodiment of this invention comprises. LEDの放射スペクトル例を表すグラフである。It is a graph showing the example of the radiation spectrum of LED. 本発明の実施形態に係る照射部が備える光源の特性を表すグラフである。It is a graph showing the characteristic of the light source with which the irradiation part which concerns on embodiment of this invention is provided. 被写体の特定部位(a)の分光反射率を表すグラフである。It is a graph showing the spectral reflectance of the specific part (a) of the subject. 被写体の他の特定部位(b)の分光反射率を表すグラフである。It is a graph showing the spectral reflectance of the other specific part (b) of the subject. 被写体の特定部位(a)の反射光を示すグラフである。It is a graph which shows the reflected light of the specific part (a) of a to-be-photographed object. 被写体の特定部位(b)の反射光を示すグラフである。It is a graph which shows the reflected light of the specific part (b) of a to-be-photographed object. 本発明の実施形態に係る撮像部の配置を示す図である。It is a figure which shows arrangement | positioning of the imaging part which concerns on embodiment of this invention. 本発明の実施形態に係る撮像部の他の配置を示す図である。It is a figure which shows other arrangement | positioning of the imaging part which concerns on embodiment of this invention. 本発明の実施形態に係る撮像部の他の配置を示す図である。It is a figure which shows other arrangement | positioning of the imaging part which concerns on embodiment of this invention. 被写体の特定部位(a)の反射光を変換した画素値のグラフである。It is a graph of the pixel value which converted the reflected light of the specific part (a) of a to-be-photographed object. 被写体の特定部位(b)の反射光を変換した画素値のグラフである。It is a graph of the pixel value which converted the reflected light of the specific part (b) of a subject. 被写体の特定部位(a)または特定部位(b)の画素値を色彩データとして座標上に表した図である。It is the figure which represented on the coordinate the pixel value of the specific part (a) or specific part (b) of a to-be-photographed object as color data. 本発明の実施形態に係るシステム情報保持部が備えるテーブルの例を示す図である。It is a figure which shows the example of the table with which the system information holding part which concerns on embodiment of this invention is provided. 本発明の実施形態に係る診断システムの作用を示すフローチャートである。It is a flowchart which shows the effect | action of the diagnostic system which concerns on embodiment of this invention. 本発明の実施形態に係る診断システムの作用を示すフローチャートである。It is a flowchart which shows the effect | action of the diagnostic system which concerns on embodiment of this invention. 診断表の一例を示す図である。It is a figure which shows an example of a diagnostic table. 予約表の一例を示す図である。It is a figure which shows an example of a reservation table. ジェスチャ解析テーブルの一例を示す図である。It is a figure which shows an example of a gesture analysis table. 画像表示部に複数の項目を表示し、ジェスチャにより項目を選択する概念図である。It is a conceptual diagram which displays a some item on an image display part, and selects an item with gesture.

符号の説明Explanation of symbols

1 診断システム
2 撮像装置
3 外部通信部
4 画像表示部
5 照射部
6 撮像部
7 周辺環境情報取得部
8 I/O部
9 メモリ部
10 データ処理部
11 ユーザインターフェイス部
12 制御部
13 診断装置
14 外部通信部
15 画像解析部
16 判断部
17 I/O部
18 ユーザインターフェイス部
19 表示部
20 記憶部
21 データ保持部
22 作業領域部
23 システム情報保持部
24 データ管理部
25 外部装置
DESCRIPTION OF SYMBOLS 1 Diagnostic system 2 Imaging device 3 External communication part 4 Image display part 5 Irradiation part 6 Imaging part 7 Ambient environment information acquisition part 8 I / O part 9 Memory part 10 Data processing part 11 User interface part 12 Control part 13 Diagnostic apparatus 14 External Communication unit 15 Image analysis unit 16 Judgment unit 17 I / O unit 18 User interface unit 19 Display unit 20 Storage unit 21 Data holding unit 22 Work area unit 23 System information holding unit 24 Data management unit 25 External device

Claims (12)

特定の色光の光源により被写体を照射する照射部と、被写体を撮像する撮像部と、前記照射部により照射された被写体を前記撮像部により撮像し、前記撮像により取得した画像データを解析する画像解析部と、前記画像解析部により解析された画像データと予め設定された複数の条件を比較して被写体の状態を判断する判断部と、
を有することを特徴とする診断システム。
An image analysis unit that irradiates a subject with a light source of specific color light, an imaging unit that captures the subject, and that captures the subject irradiated by the irradiation unit, and analyzes the image data acquired by the imaging A determination unit that compares the image data analyzed by the image analysis unit with a plurality of preset conditions to determine the state of the subject;
A diagnostic system comprising:
前記画像解析部は前記撮像部の撮像により取得した画像データの画素値を色彩データに変換し、前記判断部は前記色彩データと予め設定された複数の条件を比較して被写体の状態を判断することを特徴とする請求項1に記載の診断システム。 The image analysis unit converts pixel values of image data acquired by imaging of the imaging unit into color data, and the determination unit determines a subject state by comparing the color data with a plurality of preset conditions. The diagnostic system according to claim 1. 前記判断部は前記画像解析部により解析された画像データと予め設定された少なくとも2つの条件を比較して被写体の状態を判断することを特徴とする請求項1または2に記載の診断システム。 The diagnosis system according to claim 1, wherein the determination unit determines the state of the subject by comparing the image data analyzed by the image analysis unit with at least two preset conditions. 前記判断部の判断結果に基づき被写体に対する診断処理を決定することを特徴とする請求項1乃至3のいずれか1項に記載の診断システム。 The diagnosis system according to claim 1, wherein a diagnosis process for the subject is determined based on a determination result of the determination unit. 前記判断部の判断結果に基づき今後の処理をどのようにするかを被写体に対して問いかけ、該問いかけに対する被写体の動作を前記撮像部により撮像し、該撮像部の撮像により取得した画像データを解析することにより前記診断処理を決定することを特徴とする請求項4に記載の診断システム。 Based on the determination result of the determination unit, the subject is asked how to perform future processing, the subject's motion in response to the question is imaged by the imaging unit, and the image data acquired by the imaging unit is analyzed The diagnostic system according to claim 4, wherein the diagnostic processing is determined by 前記画像データの解析は被写体の属性に基づいて行うことを特徴とする請求項5に記載の診断システム。 6. The diagnosis system according to claim 5, wherein the analysis of the image data is performed based on an attribute of a subject. 特定の色光の光源により被写体を照射する照射部と、前記照射部により照射された被写体を撮像する撮像部とを有する撮像装置に接続される診断装置であって、前記撮像装置から取得した被写体の画像データを解析する画像解析部と、前記画像解析部により解析された画像データと予め設定された複数の条件を比較して被写体の状態を判断する判断部と、
を有することを特徴とする診断装置。
A diagnostic apparatus connected to an imaging device having an irradiating unit that irradiates a subject with a light source of specific color light and an imaging unit that images the subject irradiated by the irradiating unit. An image analysis unit that analyzes the image data, a determination unit that determines the state of the subject by comparing the image data analyzed by the image analysis unit and a plurality of preset conditions,
A diagnostic apparatus comprising:
前記画像解析部は前記撮像部の撮像により取得した画像データの画素値を色彩データに変換し、前記判断部は前記色彩データと予め設定された複数の条件とを比較して被写体の状態を判断することを特徴とする請求項7に記載の診断装置。 The image analysis unit converts pixel values of image data acquired by imaging of the imaging unit into color data, and the determination unit determines the subject state by comparing the color data with a plurality of preset conditions. The diagnostic apparatus according to claim 7, wherein: 前記判断部は前記画像解析部により解析された画像データと予め設定された少なくとも2つの条件を比較して被写体の状態を判断することを特徴とする請求項7または8に記載の診断装置。 9. The diagnostic apparatus according to claim 7, wherein the determination unit determines the state of the subject by comparing the image data analyzed by the image analysis unit with at least two preset conditions. 前記判断部の判断結果に基づき被写体に対する診断処理を決定することを特徴とする請求項7乃至9のいずれか1項に記載の診断装置。 The diagnostic apparatus according to claim 7, wherein a diagnostic process for a subject is determined based on a determination result of the determination unit. 前記判断部の判断結果に基づき今後の処理をどのようにするかを被写体に対して問いかけ、該問いかけに対する被写体の動作を前記撮像部により撮像し、該撮像部の撮像により取得した画像データを解析することにより前記診断処理を決定することを特徴とする請求項10に記載の診断装置。 Based on the determination result of the determination unit, the subject is asked how to perform future processing, the subject's motion in response to the question is imaged by the imaging unit, and the image data acquired by the imaging unit is analyzed The diagnosis apparatus according to claim 10, wherein the diagnosis processing is determined by performing the operation. 前記画像データの解析は被写体の属性に基づいて行うことを特徴とする請求項11に記載の診断装置。 The diagnostic apparatus according to claim 11, wherein the analysis of the image data is performed based on a subject attribute.
JP2005319391A 2005-11-02 2005-11-02 Diagnostic system and diagnostic apparatus Pending JP2007125151A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005319391A JP2007125151A (en) 2005-11-02 2005-11-02 Diagnostic system and diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005319391A JP2007125151A (en) 2005-11-02 2005-11-02 Diagnostic system and diagnostic apparatus

Publications (1)

Publication Number Publication Date
JP2007125151A true JP2007125151A (en) 2007-05-24

Family

ID=38148323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005319391A Pending JP2007125151A (en) 2005-11-02 2005-11-02 Diagnostic system and diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP2007125151A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237913A (en) * 2007-03-27 2008-10-09 Medison Co Ltd Ultrasonic system
JP2009273605A (en) * 2008-05-14 2009-11-26 Konica Minolta Medical & Graphic Inc Dynamic image diagnosing support system
JP2010179012A (en) * 2009-02-09 2010-08-19 Shiseido Co Ltd Complexion measuring device, complexion measuring program, makeup simulation device and makeup simulation program
JP2012519527A (en) * 2009-03-06 2012-08-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Device for detecting presence of living body and method for controlling function of system
JP2013506523A (en) * 2009-10-06 2013-02-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for obtaining a first signal for analysis to characterize at least one periodic component of the first signal
JP2014092845A (en) * 2012-11-01 2014-05-19 Fujifilm Corp Medical care assist system
WO2015098977A1 (en) * 2013-12-25 2015-07-02 旭化成株式会社 Cardiac pulse waveform measurement device, portable device, medical device system, and vital sign information communication system
JP2016041158A (en) * 2014-08-18 2016-03-31 プレキシオン株式会社 Photoacoustic imaging device
JP2016077712A (en) * 2014-10-21 2016-05-16 プレキシオン株式会社 Photoacoustic imaging device and photoacoustic imaging method
JP2016077447A (en) * 2014-10-15 2016-05-16 プレキシオン株式会社 Photoacoustic wave signal converter and probe incorporating photoacoustic wave signal converter
JP2016187562A (en) * 2010-11-11 2016-11-04 ゾール メディカル コーポレイションZOLL Medical Corporation Acute care treatment system dashboard
CN106236060A (en) * 2015-06-04 2016-12-21 松下知识产权经营株式会社 Bioinformation detecting device
JP2019170655A (en) * 2018-03-28 2019-10-10 ファミリーイナダ株式会社 Information processing apparatus and operation method thereof
CN112528745A (en) * 2020-11-10 2021-03-19 广州金域医学检验中心有限公司 Target detection method and device, computer equipment and storage medium
CN116110574A (en) * 2023-04-14 2023-05-12 武汉大学人民医院(湖北省人民医院) Neural network-based ophthalmic intelligent inquiry method and device
JP7485114B2 (en) 2018-01-11 2024-05-16 カシオ計算機株式会社 Notification device, notification method, and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237913A (en) * 2007-03-27 2008-10-09 Medison Co Ltd Ultrasonic system
JP2009273605A (en) * 2008-05-14 2009-11-26 Konica Minolta Medical & Graphic Inc Dynamic image diagnosing support system
JP2010179012A (en) * 2009-02-09 2010-08-19 Shiseido Co Ltd Complexion measuring device, complexion measuring program, makeup simulation device and makeup simulation program
JP2012519527A (en) * 2009-03-06 2012-08-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Device for detecting presence of living body and method for controlling function of system
JP2013506523A (en) * 2009-10-06 2013-02-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for obtaining a first signal for analysis to characterize at least one periodic component of the first signal
US10485490B2 (en) 2010-11-11 2019-11-26 Zoll Medical Corporation Acute care treatment systems dashboard
US11826181B2 (en) 2010-11-11 2023-11-28 Zoll Medical Corporation Acute care treatment systems dashboard
US11759152B2 (en) 2010-11-11 2023-09-19 Zoll Medical Corporation Acute care treatment systems dashboard
US10959683B2 (en) 2010-11-11 2021-03-30 Zoll Medical Corporation Acute care treatment systems dashboard
JP2016187562A (en) * 2010-11-11 2016-11-04 ゾール メディカル コーポレイションZOLL Medical Corporation Acute care treatment system dashboard
JP2014092845A (en) * 2012-11-01 2014-05-19 Fujifilm Corp Medical care assist system
WO2015098977A1 (en) * 2013-12-25 2015-07-02 旭化成株式会社 Cardiac pulse waveform measurement device, portable device, medical device system, and vital sign information communication system
JPWO2015098977A1 (en) * 2013-12-25 2017-03-23 旭化成株式会社 Pulse wave measuring device, portable device, medical device system, and biological information communication system
US10624586B2 (en) 2013-12-25 2020-04-21 Asahi Kasei Kabushiki Kaisha Pulse wave measuring device, mobile device, medical equipment system and biological information communication system
JP2016041158A (en) * 2014-08-18 2016-03-31 プレキシオン株式会社 Photoacoustic imaging device
JP2016077447A (en) * 2014-10-15 2016-05-16 プレキシオン株式会社 Photoacoustic wave signal converter and probe incorporating photoacoustic wave signal converter
JP2016077712A (en) * 2014-10-21 2016-05-16 プレキシオン株式会社 Photoacoustic imaging device and photoacoustic imaging method
CN106236060A (en) * 2015-06-04 2016-12-21 松下知识产权经营株式会社 Bioinformation detecting device
US11030739B2 (en) 2015-06-04 2021-06-08 Panasonic Intellectual Property Management Co., Ltd. Human detection device equipped with light source projecting at least one dot onto living body
JP2017000743A (en) * 2015-06-04 2017-01-05 パナソニックIpマネジメント株式会社 Biological information detection device
JP7485114B2 (en) 2018-01-11 2024-05-16 カシオ計算機株式会社 Notification device, notification method, and program
JP2019170655A (en) * 2018-03-28 2019-10-10 ファミリーイナダ株式会社 Information processing apparatus and operation method thereof
CN112528745A (en) * 2020-11-10 2021-03-19 广州金域医学检验中心有限公司 Target detection method and device, computer equipment and storage medium
CN116110574A (en) * 2023-04-14 2023-05-12 武汉大学人民医院(湖北省人民医院) Neural network-based ophthalmic intelligent inquiry method and device
CN116110574B (en) * 2023-04-14 2023-06-20 武汉大学人民医院(湖北省人民医院) Neural network-based ophthalmic intelligent inquiry method and device
US11955240B1 (en) 2023-04-14 2024-04-09 Renmin Hospital Of Wuhan University (hubei General Hospital) Neural-network-based-implemented ophthalmologic intelligent consultation method and apparatus

Similar Documents

Publication Publication Date Title
JP2007125151A (en) Diagnostic system and diagnostic apparatus
JPWO2006064635A1 (en) Diagnostic system
CN108289613B (en) System, method and computer program product for physiological monitoring
RU2654615C2 (en) Device and method for extracting physiological information
RU2656760C2 (en) System and method for extracting physiological information from remotely detected electromagnetic radiation
CN105636506B (en) Automatic camera for long-range photo-plethysmographic method is adjusted
US20090043210A1 (en) Data detection device and data detection method
EP1433418A1 (en) Skin diagnostic imaging method and apparatus
WO2016116307A1 (en) Device, system and method for skin detection
JP2004321793A (en) Method and system for computational analysis of skin image
US11222725B2 (en) Device for acquring personal health information and method therefor
JPWO2007010749A1 (en) Image processing apparatus, image processing system, and image processing program
JP2015535183A (en) Apparatus and method for processing data derivable from remotely detected electromagnetic radiation
JP2007068620A (en) Psychological condition measuring apparatus
JP2015202208A (en) Portable terminal health condition examination device with camera
WO2016067892A1 (en) Degree-of-health outputting device, degree-of-health outputting system, and program
WO2019173283A1 (en) Method and apparatus for non-invasive hemoglobin level prediction
KR101862696B1 (en) Biometric data display system using actual image and computer graphics image and method for displaying thereof
Khanam et al. Non-contact automatic vital signs monitoring of neonates in NICU using video camera imaging
JP7051083B2 (en) Psychological state judgment method, judgment device, judgment system and judgment program
JP2009000410A (en) Image processor and image processing method
WO2020184257A1 (en) Apparatus and method for processing medical image
JP2016052414A (en) Circadian rhythm testing apparatus, circadian rhythm testing system, and circadian rhythm testing method
JP2007086872A (en) Management system
JP2005094185A (en) Image processing system, image processing apparatus, and imaging control method