JP2006084264A - Color chart and image processing system - Google Patents

Color chart and image processing system Download PDF

Info

Publication number
JP2006084264A
JP2006084264A JP2004268000A JP2004268000A JP2006084264A JP 2006084264 A JP2006084264 A JP 2006084264A JP 2004268000 A JP2004268000 A JP 2004268000A JP 2004268000 A JP2004268000 A JP 2004268000A JP 2006084264 A JP2006084264 A JP 2006084264A
Authority
JP
Japan
Prior art keywords
image
sheet
identification information
color chart
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004268000A
Other languages
Japanese (ja)
Inventor
Fumiko Uchino
文子 内野
Hirotetsu Ko
博哲 洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2004268000A priority Critical patent/JP2006084264A/en
Publication of JP2006084264A publication Critical patent/JP2006084264A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system which performs calibration for colors of a color image obtained by photographing a color chart together with a subject, in which management of photographed images becomes easy and precise by allowing correspondence between a photographed image and a color chart used for photographing the photographed image to be easily identified. <P>SOLUTION: The color chart 1 is configured such that a standard area 11, on which at least one color of color material is coated, is formed on the front side of a sheet-like member 10 and that a microchip 14 storing unique identification information is embedded in the inside of the sheet-like member 10, wherein the identification information can be wirelessly read from the outside. The image processing system is configured such that images are managed using the identification information read from the color chart 1. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カラー画像の色のキャリブレートを行うために使用するシート状の色票、および画像処理システムに関する。   The present invention relates to a sheet-like color chart used for color calibration of a color image, and an image processing system.

例えば医療分野においては、患者の患部に係る画像データを時間を変えて取得しておき、取得された複数の画像データを事後的に閲覧および比較することで、患部に対する治療の経過観察が行われている。このように比較を目的として複数の画像データを取得する場合には、被写体への照明環境などの撮影条件を同一にすることが好ましい。   For example, in the medical field, image data relating to an affected area of a patient is acquired at different times, and the follow-up of treatment is performed on the affected area by browsing and comparing a plurality of acquired image data afterwards. ing. As described above, when a plurality of pieces of image data are acquired for the purpose of comparison, it is preferable to set the photographing conditions such as the illumination environment to the subject to be the same.

ところが、比較対象となる複数の画像データの撮影時間や撮影場所は一般に異なるため、撮影条件を一致させることは事実上不可能である。このため、複数の画像データを再生した場合においては、異なる条件下における被写体が再現される。例えば、複数の画像データの撮影時における被写体への照明光が互いに異なれば、再生時において同一の被写体が、複数の画像データの間で異なる色で再現される。このことから、複数の画像データを再生する際に、再現される被写体を的確に比較できないという問題が生じていた。   However, since the shooting times and shooting locations of a plurality of image data to be compared are generally different, it is virtually impossible to match the shooting conditions. For this reason, when a plurality of image data are reproduced, the subject under different conditions is reproduced. For example, if the illumination lights to the subjects at the time of shooting a plurality of image data are different from each other, the same subject is reproduced with different colors between the plurality of image data at the time of reproduction. For this reason, when reproducing a plurality of image data, there has been a problem that the reproduced objects cannot be accurately compared.

そこで従来は、画像取得時に、既知の色成分からなる色票(カラーチャート)を被写体とともに撮影しておき、カラー画像に含まれる色票画像に基づいて、複数の画像データを同一条件で比較することが行われている(例えば、特許文献1)。   Therefore, conventionally, at the time of image acquisition, a color chart (color chart) composed of known color components is photographed together with a subject, and a plurality of pieces of image data are compared under the same conditions based on the color chart image included in the color image. (For example, Patent Document 1).

しかし、医療現場などにおいては、異なる患者の患部を連続的に撮影することも頻繁に行われる。この場合、連続撮影して得られた複数の撮影画像のうち、どの撮影画像がどの患者を撮影したものかという対応関係については専ら現場スタッフによる手作業で管理されていた。   However, in the medical field etc., the affected part of different patients is often photographed continuously. In this case, among the plurality of captured images obtained by continuous imaging, the correspondence between which captured image captured which patient was managed exclusively by the on-site staff.

そのため、従来は、撮影画像と患者との対応関係が誤った状態で管理される可能性があり、医療ミスの生じる可能性が高かった。   Therefore, conventionally, there is a possibility that the correspondence between the captured image and the patient is managed in an incorrect state, and there is a high possibility that a medical error will occur.

特開平9−5164号公報JP-A-9-5164

本発明は、従来の問題点を解決するためになされたものであって、撮影画像がどの色票を用いて撮影されたものかを容易に特定できるようにして、撮影画像の管理を容易かつ正確にする色票および画像処理システムを提供することを目的とするものである。   The present invention has been made to solve the conventional problems, and it is possible to easily specify which color chart the photographed image was photographed to manage the photographed image easily and easily. It is an object to provide a color chart and an image processing system that are accurate.

上記目的を達成するため、本発明にかかる色票は、カラー画像の色のキャリブレートを行うために使用されるシート状のものであって、そのシート状部材の表面側に、少なくとも1色の色材が塗布された基準領域が形成されており、かつ、前記シート状部材の内部に、固有の識別情報を格納するマイクロチップが埋設され、前記識別情報を外部から無線読み取り可能なように構成されるものである。   To achieve the above object, the color chart according to the present invention is a sheet-like color sheet used for calibrating the color of a color image, and at least one color is provided on the surface side of the sheet-like member. A reference region to which a material is applied is formed, and a microchip for storing unique identification information is embedded in the sheet-like member so that the identification information can be read wirelessly from the outside. Is.

この色票においては、第1のシート状部材、第2のシート状部材および台紙がこの順で互いに粘着材を介して貼り合わされた構造を有し、前記第1のシート状部材が比較的粘着力の弱い粘着材で前記第2のシート状部材に対して剥離可能な状態で貼り合わされ、前記第2のシート状部材が比較的粘着力の強い粘着材で前記台紙に対して剥離可能な状態で貼り合わされることが好ましい。   This color chart has a structure in which a first sheet-like member, a second sheet-like member, and a mount are bonded together in this order via an adhesive material, and the first sheet-like member is relatively adhesive. A state in which the second sheet-like member is bonded to the second sheet-like member with a weak adhesive material, and the second sheet-like member is peelable from the mount with a relatively strong adhesive material. It is preferable to be bonded together.

また、上記色票においては、前記シート状部材の表面の一部に、前記識別情報が印字されることが好ましい。   Moreover, in the said color chart, it is preferable that the said identification information is printed on a part of surface of the said sheet-like member.

また、本発明にかかる画像処理システムは、色票と被写体とを同時に撮影した画像を入力し、前記画像から照明光の影響を取り除いた画像データを生成するシステムであって、前記色票から、前記色票に記憶された識別情報を読み取る読取手段と、前記識別情報を、前記画像に関連づけて記録する記録手段と、を備えて構成されるものである。   An image processing system according to the present invention is a system for inputting an image obtained by simultaneously photographing a color chart and a subject, and generating image data from which the influence of illumination light is removed from the image, from the color chart, The image forming apparatus includes a reading unit that reads identification information stored in the color chart, and a recording unit that records the identification information in association with the image.

この画像処理システムにおいては、前記記録手段が、前記画像に関する画像ファイルの付属データに対して前記識別情報を書き込むように構成されることが好ましい。   In this image processing system, it is preferable that the recording unit is configured to write the identification information to the attached data of the image file related to the image.

また、上記画像処理システムにおいては、前記記録手段が、前記画像に関する画像ファイルのファイル名に、前記識別情報を含めて記録するように構成されることが好ましい。   In the image processing system, it is preferable that the recording unit is configured to record the file name of the image file related to the image including the identification information.

また、上記画像処理システムは、患者の情報を管理する医療用データベースをさらに備え、前記記録手段が、前記画像の撮影対象となった患者の患者情報と、前記識別情報とをさらに関連づけて前記医療用データベースに対して記録するように構成されることが好ましい。   The image processing system may further include a medical database that manages patient information, and the recording unit further associates the patient information of the patient who is the imaging target of the image with the identification information so as to associate the medical information. It is preferable to be configured to record against a business database.

この画像処理システムにおいては、前記記録手段が、前記画像による診断結果をさらに関連づけて前記医療用データベースに対して記録するように構成されることがより好ましい。   In this image processing system, it is more preferable that the recording unit is configured to further record the diagnosis result based on the image in the medical database.

本発明にかかる色票によれば、シート状部材の内部に埋設されたマイクロチップから固有の識別情報を無線読み取りできるように構成されているので、該識別情報を読み取って画像およびその他の情報に対応付けることで、画像がどの色票を用いて撮影されたものかを容易に特定できるようになり、画像及びその他情報の管理を容易かつ正確に行えるようになる。   According to the color chart of the present invention, since the unique identification information can be wirelessly read from the microchip embedded in the sheet-like member, the identification information is read into an image and other information. By associating, it becomes possible to easily identify which color chart the image was taken using, and to manage the image and other information easily and accurately.

特に、第1のシート状部材、第2のシート状部材および台紙がこの順で互いに粘着材を介して貼り合わされた構造を有し、第1のシート状部材が比較的粘着力の弱い粘着材で第2のシート状部材に対して剥離可能な状態で貼り合わされ、第2のシート状部材が比較的粘着力の強い粘着材で台紙に対して剥離可能な状態で貼り合わされることにより、第1のシート状部材を被写体への貼り付け用に、第2のシート状部材をカルテなどへの貼り付け用に使用することができるようになる。   In particular, the first sheet-like member, the second sheet-like member, and the mount have a structure in which the first sheet-like member is bonded to each other in this order via the adhesive material, and the first sheet-like member has a relatively weak adhesive force. The second sheet-like member is bonded in a peelable state to the second sheet-like member, and the second sheet-like member is bonded in a peelable state to the mount with a relatively strong adhesive. The first sheet-like member can be used for attaching to a subject, and the second sheet-like member can be used for attaching to a medical chart or the like.

また、シート状部材の表面の一部に、識別情報が印字されることにより、マイクロチップに記憶された識別情報を目視でも確認できるようになっている。   Moreover, the identification information memorize | stored in the microchip can be visually confirmed now by printing identification information on a part of surface of a sheet-like member.

また、本発明にかかる画像処理システムによれば、撮影時に使用した色票から、その色票に記憶された識別情報を読み取り、その識別情報を、画像に関連づけて記録するように構成されるので、どの撮影画像がどの色票を用いて撮影されたものかを容易に特定することができる。よって、撮影画像の管理を容易かつ正確に行うことができるように構成されている。   In addition, according to the image processing system of the present invention, the identification information stored in the color chart is read from the color chart used at the time of shooting, and the identification information is recorded in association with the image. It is possible to easily specify which captured image is captured using which color chart. Therefore, it is configured so that the captured image can be managed easily and accurately.

特に、画像処理システムが、患者の情報を管理する医療用データベースをさらに備え、撮影対象となった患者の患者情報と、前記識別情報とをさらに関連づけて医療用データベースに対して記録するように構成されることにより、識別情報によって、画像と患者情報とを対応付けることができ、画像と患者情報との管理を正確に行うことができるようになる。   In particular, the image processing system further includes a medical database that manages patient information, and is configured to record the patient information of the patient to be imaged and the identification information in association with each other in the medical database. Thus, the image and patient information can be associated with each other based on the identification information, and the management of the image and patient information can be performed accurately.

またさらに、画像による診断結果を医療用データベースに関連づけて記録することにより、画像、患者情報、および診断結果が相互に対応付けられることになり、総合的な医療情報の正確な管理が可能である。   Still further, by recording the diagnosis result by the image in association with the medical database, the image, the patient information, and the diagnosis result are associated with each other, so that comprehensive medical information can be accurately managed. .

以下、本発明の実施の形態について図面を参照しつつ詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施の形態では、カラー画像の色のキャリブレートを行うために、既知の基準色が塗布された基準色パッチを有するシート状の色票が使用され、該色票が被写体とともに撮影される。   In this embodiment, in order to calibrate the color of the color image, a sheet-like color chart having a reference color patch coated with a known reference color is used, and the color chart is photographed together with the subject.

図1ないし図3は本実施の形態における色票1の構造を示す図である。図1および図2に示すように、色票1は、第1のシート状部材10、第2のシート状部材20、および台紙30がこの順に貼り合わされた3枚構造を有している。図2は、3枚構造の各シート状部材が分離された状態を示しており、図2に示されるように、色票1の最も表面側に配置される第1のシート状部材10と、中間位置に配置される第2のシート状部材20とは、それぞれの表面に同一の基準色パッチ12,22を有している。   1 to 3 are diagrams showing the structure of the color chart 1 in the present embodiment. As shown in FIGS. 1 and 2, the color chart 1 has a three-sheet structure in which a first sheet-like member 10, a second sheet-like member 20, and a mount 30 are bonded together in this order. FIG. 2 shows a state in which each sheet-like member having a three-sheet structure is separated. As shown in FIG. 2, the first sheet-like member 10 arranged on the most surface side of the color chart 1, The second sheet-like member 20 arranged at the intermediate position has the same reference color patches 12 and 22 on the respective surfaces.

図2に示すように、第1のシート状部材10の表面中央には略正方形の基準領域11が形成され、その領域11に、少なくとも1色の既知の色材が塗布されて形成された基準色パッチ12が形成されている。また、第1のシート状部材10の表面下部には識別情報表示欄13が設けられており、そこには当該色票1に固有の識別情報(図1および図2では「1234」)が印字されている。   As shown in FIG. 2, a substantially square reference region 11 is formed at the center of the surface of the first sheet-like member 10, and at least one known color material is applied to the region 11. A color patch 12 is formed. Further, an identification information display field 13 is provided at the lower surface of the first sheet-like member 10, and identification information unique to the color chart 1 (“1234” in FIGS. 1 and 2) is printed there. Has been.

同様に、第2のシート状部材20の表面中央にも基準領域21が形成され、その領域21に、第1のシート状部材10の基準色パッチ12と同一の基準色パッチ22が形成されている。また、第2のシート状部材20の表面下部には識別情報表示欄23が設けられており、そこには当該色票1に固有の識別情報であって、第1のシート状部材10に印字された識別情報と同じものが印字されている。   Similarly, a reference region 21 is also formed at the center of the surface of the second sheet-like member 20, and the same reference color patch 22 as the reference color patch 12 of the first sheet-like member 10 is formed in the region 21. Yes. In addition, an identification information display field 23 is provided at the lower surface of the second sheet-like member 20, which is identification information unique to the color chart 1 and is printed on the first sheet-like member 10. The same identification information is printed.

第1のシート状部材10の裏面側には、比較的粘着力の弱い粘着材層が形成されており、第1のシート状部材10は第2のシート状部材20に対して剥離可能な状態で貼り合わされる。そして色票1を用いて被写体の撮影を行うときには、第1のシート状部材10を第2のシート状部材20から剥がし取って、第1のシート状部材10を被写体の患部付近などに貼り付けることができるようになっている。そのため、本実施形態においては、第1のシート状部材10が撮影対象となる。ここで第1のシート状部材10の裏面側に形成される粘着材層の粘着力が比較的弱いものであるというのは、被写体の患部付近に貼り付けた第1のシート状部材10を、撮影後簡単に剥がせるようにするためである。   An adhesive material layer having a relatively weak adhesive force is formed on the back surface side of the first sheet-like member 10, and the first sheet-like member 10 is peelable from the second sheet-like member 20. Are pasted together. When photographing the subject using the color chart 1, the first sheet-like member 10 is peeled off from the second sheet-like member 20, and the first sheet-like member 10 is attached to the vicinity of the affected part of the subject. Be able to. Therefore, in the present embodiment, the first sheet-like member 10 is an object to be photographed. Here, the adhesive force of the adhesive layer formed on the back side of the first sheet-like member 10 is relatively weak because the first sheet-like member 10 affixed near the affected area of the subject is This is so that it can be easily peeled off after shooting.

また、第2のシート状部材20の裏面側には、比較的粘着力の強い粘着材層が形成されており、第2のシート状部材20は台紙30に対して剥離可能な状態で貼り合わされる。この第2のシート状部材20は、台紙30から剥がし取って、主にカルテなどに貼り付けるために用いられる。カルテなどに第2のシート状部材20を貼り付けておけば、画像撮影時にどの色票1を用いて撮影したかを、後に目視で確認することができるようになる。ここで第2のシート状部材20の裏面側に形成される粘着材層の粘着力が比較的強いものであるというのは、カルテなどに貼り付けられた第2のシート状部材20が簡単には剥離しないようにするためである。   Further, an adhesive material layer having a relatively strong adhesive force is formed on the back surface side of the second sheet-like member 20, and the second sheet-like member 20 is bonded to the mount 30 in a peelable state. The The second sheet-like member 20 is used for peeling off the mount 30 and sticking it mainly to a medical chart or the like. If the second sheet-like member 20 is affixed to a medical chart or the like, it is possible to visually confirm later which color chart 1 was used for image capturing. Here, the adhesive force of the adhesive layer formed on the back surface side of the second sheet-like member 20 is relatively strong because the second sheet-like member 20 affixed to a medical chart or the like is easy. This is to prevent peeling.

また、第1のシート状部材10の所定位置の内部には、マイクロチップ14が埋設される。図3は第1のシート状部材10の一部断面図である。第1のシート状部材10は、表面側シート10aと裏面側シート10bとが糊10cによって貼り合わされた構造を有しており、表面側シート10aと裏面側シート10bとの間にマイクロチップ14が埋設されている。   A microchip 14 is embedded in a predetermined position of the first sheet-like member 10. FIG. 3 is a partial cross-sectional view of the first sheet-like member 10. The first sheet-like member 10 has a structure in which a front side sheet 10a and a back side sheet 10b are bonded together by glue 10c, and the microchip 14 is interposed between the front side sheet 10a and the back side sheet 10b. Buried.

マイクロチップ14は、無線通信機能およびROM機能からなる、縦横400μm程度、厚さ60μm程度の直方体形の超小型無線ICチップであり、内蔵ROMには色票1に固有の識別情報が読み出し専用データとして格納されている。内蔵ROMに格納される識別情報は、第1および第2のシート状部材10,20の表面に印字された識別情報と同じ情報である。そして内蔵ROMに格納された識別情報は、マイクロチップ14の無線通信機能によって外部に無線出力されるように構成されている。換言すれば、第1のシート状部材10に格納されている識別情報を、専用読取装置によって第1のシート状部材10の外部から無線読み出しできるようになっている。なお、このようなマイクロチップ14として、例えばアンテナ内蔵型ミューチップ(日立製作所製)などを用いることができる。   The microchip 14 is a rectangular parallelepiped ultra-compact wireless IC chip having a wireless communication function and a ROM function and having a vertical and horizontal dimension of about 400 μm and a thickness of about 60 μm. The built-in ROM stores identification information unique to the color chart 1 as read-only data. Is stored as The identification information stored in the built-in ROM is the same information as the identification information printed on the surfaces of the first and second sheet-like members 10 and 20. The identification information stored in the built-in ROM is configured to be wirelessly output to the outside by the wireless communication function of the microchip 14. In other words, the identification information stored in the first sheet-like member 10 can be wirelessly read from the outside of the first sheet-like member 10 by the dedicated reading device. As such a microchip 14, for example, an antenna built-in muchip (manufactured by Hitachi, Ltd.) can be used.

上記のような構造の色票1を用いて被写体の撮影を行う際には、例えば第1のシート状部材10が第2のシート状部材20から剥がされて被写体の患部付近に貼り付けられる。そして色票1(この場合は第1のシート状部材10)が被写体とともに撮影され、画像処理システムにおいて、基準色パッチ12の画像に基づいたカラー画像の色のキャリブレートが行われる。また、画像処理システムは、撮影に使用された色票1から識別情報を読み取り、その識別情報と撮影画像との対応付けを行って、画像およびその他の情報管理を行うように構成される。以下においては、このような画像処理システムの詳細について説明する。   When photographing a subject using the color chart 1 having the above-described structure, for example, the first sheet-like member 10 is peeled off from the second sheet-like member 20 and attached to the vicinity of the affected part of the subject. The color chart 1 (in this case, the first sheet-like member 10) is photographed together with the subject, and the color of the color image is calibrated based on the image of the reference color patch 12 in the image processing system. In addition, the image processing system is configured to read identification information from the color chart 1 used for photographing, associate the identification information with the photographed image, and manage images and other information. Details of such an image processing system will be described below.

図4は、画像処理システム100の一例を示す概略図である。図4に示すように画像処理システム100は、画像入力装置として機能するデジタルカメラ200と、画像再生装置として機能するコンピュータ300aと、電子カルテなどの患者情報を医療用データベースとして蓄積する機能を備えたコンピュータ300bと、色票1から識別情報を無線読み取りする読取装置400とを備えている。コンピュータ300aと300bとは、ネットワーク9などを介して相互にデータの送受信が可能なように構成されるものであるが、これらは1台のコンピュータで実現されるものであっても構わない。   FIG. 4 is a schematic diagram illustrating an example of the image processing system 100. As shown in FIG. 4, the image processing system 100 includes a digital camera 200 that functions as an image input device, a computer 300a that functions as an image reproduction device, and a function of storing patient information such as an electronic medical record as a medical database. A computer 300b and a reading device 400 that wirelessly reads identification information from the color chart 1 are provided. The computers 300a and 300b are configured to be able to transmit and receive data to and from each other via the network 9 or the like, but these may be realized by a single computer.

デジタルカメラ200は、被写体81を撮影してカラー画像に関する画像データを取得する。この撮影にあたっては、図4に示す如く、被写体81とともに、基準被写体となる色票1が同時に撮影される。また撮影の際には、画像中において色票1の基準領域が略正方形の領域として得られるように、デジタルカメラ200(の撮像面)と色票1とが略平行に配置されることが好ましい。   The digital camera 200 captures image data related to a color image by photographing the subject 81. In this photographing, as shown in FIG. 4, the color chart 1 serving as the reference subject is photographed simultaneously with the subject 81. Further, at the time of photographing, it is preferable that the digital camera 200 (imaging surface thereof) and the color chart 1 are arranged substantially in parallel so that the reference area of the color chart 1 is obtained as a substantially square area in the image. .

また、撮影の際には、色票1はデジタルカメラ200の撮影範囲のほぼ中央に位置するように配置されることが好ましい。デジタルカメラ200では一般にレンズユニット110のシェーディングにより、画像周辺部分の輝度が低下することが知られており、また画像周辺部分はレンズの歪曲収差が大きいので色票1の各パッチが歪んで写る可能性が高いことから、それらによる画質劣化を防止するためである。   Further, at the time of shooting, it is preferable that the color chart 1 is arranged so as to be positioned at approximately the center of the shooting range of the digital camera 200. In the digital camera 200, it is known that the luminance of the peripheral portion of the image is generally lowered by the shading of the lens unit 110, and each patch of the color chart 1 can be taken in a distorted manner because the peripheral portion of the image has a large lens distortion. This is because the image quality is prevented from being deteriorated due to the high performance.

デジタルカメラ200は、色票1および被写体を撮影してカラー画像に関する画像データを取得すると、その画像データから後述する物体色成分データを生成して記録媒体であるメモリカード91に保存する。物体色成分データは、メモリカード91を介してデジタルカメラ200からコンピュータ300aに受け渡される。なお、デジタルカメラ200とコンピュータ300aとが通信ケーブルによって接続されている場合には、撮影動作に連動して生成される物体色成分データが、デジタルカメラ200からコンピュータ300aに通信ケーブルを介して直接送信されるように構成してもよい。   When the digital camera 200 captures the color chart 1 and the subject and acquires image data relating to the color image, the digital camera 200 generates object color component data described later from the image data and stores it in a memory card 91 that is a recording medium. The object color component data is transferred from the digital camera 200 to the computer 300a via the memory card 91. When the digital camera 200 and the computer 300a are connected via a communication cable, object color component data generated in conjunction with the shooting operation is directly transmitted from the digital camera 200 to the computer 300a via the communication cable. You may comprise.

コンピュータ300aは、デジタルカメラ200から物体色成分データを入力すると、その物体色成分データをデータベースとして蓄積する。   When the computer 300a receives object color component data from the digital camera 200, the computer 300a accumulates the object color component data as a database.

また、コンピュータ300aは、デジタルカメラ200から物体色成分データを入力することに前後して、読取装置400を機能させ、撮影時に被写体81に貼り付けられた色票1(より厳密には第1のシート状部材10)に内蔵されたマイクロチップ14から、該色票1に対して固有に設定された識別情報の無線読み取りを実行させる。そして読み取った識別情報は、コンピュータ300aにおいて物体色成分データに関連づけて記録される。   Further, the computer 300a operates the reading device 400 before and after inputting object color component data from the digital camera 200, and the color chart 1 (more strictly, the first color chart attached to the subject 81 at the time of shooting). Wireless reading of the identification information set uniquely for the color chart 1 is executed from the microchip 14 incorporated in the sheet-like member 10). The read identification information is recorded in association with the object color component data in the computer 300a.

さらに、コンピュータ300aは、コンピュータ300bの医療用データベースから被写体81である患者の患者情報を取得し、該患者情報に対して、読取装置400で読み取った識別情報を関連づけて医療用データベースを更新するように構成される。   Further, the computer 300a acquires the patient information of the patient who is the subject 81 from the medical database of the computer 300b, and updates the medical database by associating the patient information with the identification information read by the reading device 400. Configured.

そして画像診断時には、コンピュータ300aは、データベース中から診断対象となる特定の患者についての複数の物体色成分データを抽出し、複数のカラー画像データを同一条件の下に再現する。ユーザは、このようにして再現再生される複数のカラー画像を閲覧し、各画像に含まれる被写体を同一条件下で比較することとなる。   At the time of image diagnosis, the computer 300a extracts a plurality of object color component data for a specific patient to be diagnosed from the database, and reproduces the plurality of color image data under the same conditions. The user browses a plurality of color images reproduced and reproduced in this way, and compares subjects included in the images under the same conditions.

なお、図4においては、デジタルカメラ200が1台のみ描かれているが、多数のものが画像処理システム100に含まれていてもよい。   In FIG. 4, only one digital camera 200 is drawn, but many may be included in the image processing system 100.

図5は主としてコンピュータ300aの概略構成を示す図である。図5に示すように、コンピュータ300aは、CPU301、ROM302およびRAM303をバスラインに接続した一般的なコンピュータシステムの構成となっている。バスラインにはさらに、データやプログラム等を保存するハードディスク304、各種情報を表示するディスプレイ305、操作部306としてユーザからの入力を受け付けるキーボード306aおよびマウス306b、記録ディスク92(光ディスク、磁気ディスク、光磁気ディスク等)との間で情報の受け渡しを行う入力装置307、メモリカード91との間で情報の受け渡しを行うカードスロット308、並びに色票1に設定された識別情報の無線読み取りを行う読取装置400が、適宜、インターフェイス(I/F)を介する等して接続される。またさらに、バスラインにはネットワーク9を介してコンピュータ300bの医療用データベースにアクセスするネットワークインターフェイス(ネットワークI/F)309が接続されており、CPU301が該ネットワークI/F309を介してコンピュータ300bの医療用データベース310にアクセスできるようになっている。   FIG. 5 is a diagram mainly showing a schematic configuration of the computer 300a. As shown in FIG. 5, the computer 300a has a general computer system configuration in which a CPU 301, a ROM 302, and a RAM 303 are connected to a bus line. The bus line further includes a hard disk 304 for storing data and programs, a display 305 for displaying various information, a keyboard 306a and a mouse 306b for accepting input from the user as the operation unit 306, and a recording disk 92 (optical disk, magnetic disk, optical disk). An input device 307 for exchanging information with a magnetic disk, a card slot 308 for exchanging information with a memory card 91, and a reading device for wirelessly reading the identification information set in the color chart 1 400 are appropriately connected through an interface (I / F) or the like. Furthermore, a network interface (network I / F) 309 that accesses the medical database of the computer 300b via the network 9 is connected to the bus line, and the CPU 301 performs the medical treatment of the computer 300b via the network I / F 309. The database 310 can be accessed.

RAM303、ハードディスク304、入力装置307およびカードスロット308は互いにデータの受け渡しが可能とされており、CPU301の制御の下、ディスプレイ305には、RAM303、ハードディスク304およびメモリカード91等に記憶されている画像データや各種情報の表示が可能とされる。   The RAM 303, the hard disk 304, the input device 307, and the card slot 308 can exchange data with each other. Under the control of the CPU 301, the display 305 stores images stored in the RAM 303, the hard disk 304, the memory card 91, and the like. Data and various information can be displayed.

図5に示すプログラム341は、記録ディスク92から読取装置307を介して、若しくはコンピュータ300bからネットワークI/F309を介して、ハードディスク304に記憶されたものであり、適宜、ハードディスク304からRAM303へと読み出されて、CPU301により実行される。CPU301がプログラム341に従って動作することにより画像データを処理する機能が実現され、これにより、コンピュータ300aが画像診断を行うための画像処理システムとしての主たる機能を発揮する。CPU301がプログラム341に従って動作することにより実現される機能の詳細については後述する。なお、コンピュータ300aがインターネットなどの電気通信回線を介した通信機能を備えている場合には、プログラム341は、電気通信回線を通じて取得されてハードディスク304に記憶されてもよい。   The program 341 shown in FIG. 5 is stored in the hard disk 304 from the recording disk 92 via the reading device 307 or from the computer 300b via the network I / F 309, and is appropriately read from the hard disk 304 to the RAM 303. And executed by the CPU 301. A function of processing image data is realized by the CPU 301 operating according to the program 341, and thereby the computer 300a exhibits a main function as an image processing system for performing image diagnosis. Details of functions realized by the CPU 301 operating in accordance with the program 341 will be described later. When the computer 300a has a communication function via an electric communication line such as the Internet, the program 341 may be acquired through the electric communication line and stored in the hard disk 304.

図6は、デジタルカメラ200の主要な構成をブロック等にて示す図である。デジタルカメラ200は、入射光を結像するレンズユニット110と、画像データを処理する本体部120とを有する。レンズユニット110は、複数のレンズを有するレンズ系111、および、絞り112を備えている。レンズ系111により結像された被写体の光像は、本体部120のCCD121にて光電変換されて画像信号とされる。CCD121は各画素の値としてR,G,Bの各色に関する値を取得する3バンドの撮像デバイスとなっている。CCD121から出力される画像信号は後述する処理が行われた後、本体部120に着脱可能に装着される外部メモリであるメモリカード91に記憶される。   FIG. 6 is a block diagram showing the main configuration of the digital camera 200. The digital camera 200 includes a lens unit 110 that forms incident light and a main body 120 that processes image data. The lens unit 110 includes a lens system 111 having a plurality of lenses and a diaphragm 112. The light image of the subject formed by the lens system 111 is photoelectrically converted by the CCD 121 of the main body 120 into an image signal. The CCD 121 is a three-band imaging device that acquires values relating to R, G, and B colors as pixel values. The image signal output from the CCD 121 is subjected to processing to be described later and then stored in a memory card 91 that is an external memory that is detachably attached to the main body 120.

本体部120には、ユーザインターフェースとして機能するシャッタボタン123、ディスプレイ125および操作ボタン126が設けられる。ユーザがファインダ等を介して被写体81および色票1を捉え、シャッタボタン123を操作することにより、被写体81および色票1を撮影範囲に収めた画像データが取得される。また、ディスプレイ125に表示されるメニューに従ってユーザが操作ボタン126を操作することにより、撮影条件の設定、メモリカード91の保守等ができるようにされている。   The main body 120 is provided with a shutter button 123, a display 125, and an operation button 126 that function as a user interface. When the user captures the subject 81 and the color chart 1 through a finder or the like and operates the shutter button 123, image data containing the subject 81 and the color chart 1 in the photographing range is acquired. Further, when the user operates the operation button 126 according to the menu displayed on the display 125, setting of shooting conditions, maintenance of the memory card 91, and the like can be performed.

図6に示す構成のうち、レンズ系111、CCD121、A/D変換部122、シャッタボタン123、ならびに、マイクロコンピュータとしてのCPU210、ROM220およびRAM230は画像データを取得する機能を実現する。すなわち、レンズ系111により被写体の像がCCD121上に結像され、シャッタボタン123が押されると、CCD121からの画像信号がA/D変換部122によりデジタル変換される。A/D変換部122にて変換されたデジタルの画像信号は、RAM230に画像データとして記憶される。なお、これらの処理の制御は、CPU210がROM220内に記憶されているプログラム221に従って動作することにより行われる。   In the configuration shown in FIG. 6, the lens system 111, the CCD 121, the A / D converter 122, the shutter button 123, and the CPU 210, the ROM 220, and the RAM 230 as a microcomputer realize a function of acquiring image data. That is, an image of a subject is formed on the CCD 121 by the lens system 111, and when the shutter button 123 is pressed, the image signal from the CCD 121 is digitally converted by the A / D converter 122. The digital image signal converted by the A / D converter 122 is stored in the RAM 230 as image data. The control of these processes is performed by the CPU 210 operating according to the program 221 stored in the ROM 220.

また、本体部120に設けられるCPU210、ROM220およびRAM230が画像データを処理する機能を実現する。具体的には、ROM220に記憶されているプログラム221に従って、RAM230を作業領域として利用しながらCPU210が動作することにより、画像データに画像処理が施される。   Further, the CPU 210, the ROM 220, and the RAM 230 provided in the main body 120 realize a function of processing image data. Specifically, according to the program 221 stored in the ROM 220, the CPU 210 operates while using the RAM 230 as a work area, whereby image processing is performed on the image data.

カードI/F(インターフェイス)124はRAM230と接続され、操作ボタン126からの入力操作に基づいてRAM230とメモリカード91との間の各種データの受け渡しを行う。また、ディスプレイ125もCPU210からの信号に基づいてユーザに対して各種情報の表示を行う。   A card I / F (interface) 124 is connected to the RAM 230 and transfers various data between the RAM 230 and the memory card 91 based on an input operation from the operation button 126. The display 125 also displays various types of information to the user based on signals from the CPU 210.

次に、デジタルカメラ200が、物体色成分データを生成する処理について説明する。   Next, a process in which the digital camera 200 generates object color component data will be described.

図7は、デジタルカメラ200のCPU210、ROM220およびRAM230により実現される機能を他の構成とともにブロックにて示す図である。図7に示す構成のうち、物体色成分データ生成部201は、CPU210、ROM220、RAM230等により実現される機能である。図8は、デジタルカメラ200の撮影および画像処理の流れを示す流れ図である。以下、図7および図8を参照しながらデジタルカメラ200の物体色成分データの取得動作について説明する。   FIG. 7 is a block diagram showing functions realized by the CPU 210, the ROM 220, and the RAM 230 of the digital camera 200 together with other configurations. In the configuration shown in FIG. 7, the object color component data generation unit 201 is a function realized by the CPU 210, the ROM 220, the RAM 230, and the like. FIG. 8 is a flowchart showing the flow of shooting and image processing of the digital camera 200. Hereinafter, the object color component data acquisition operation of the digital camera 200 will be described with reference to FIGS. 7 and 8.

まず、色票1(より厳密には第1のシート状部材10)を被写体81の患部付近に貼り付けて、被写体81および色票1を撮影範囲に収めた撮影がなされる。デジタルカメラ200では、その撮影動作によってレンズユニット110を介してCCD121にて画像信号が取得される。CCD121から出力された画像信号は、A/D変換部122からRAM230へと送られ、画像データ231として記憶される(ステップST1)。   First, the color chart 1 (more precisely, the first sheet-like member 10) is pasted near the affected area of the subject 81, and the subject 81 and the color chart 1 are photographed within the photographing range. In the digital camera 200, an image signal is acquired by the CCD 121 via the lens unit 110 by the photographing operation. The image signal output from the CCD 121 is sent from the A / D converter 122 to the RAM 230 and stored as image data 231 (step ST1).

RAM230に画像データ231が記憶されると、次に、物体色成分データを求める際に用いる照明成分データ232が設定される(ステップST2)。照明成分データ232は、照明光の分光分布を示すデータであり、より一般的には、照明光の画像データに与える影響を示すデータである。照明成分データ232が示す分光分布の強度は最大の分光強度を1として正規化されており、照明成分データ232は照明光の相対的な分光分布を示す。   When the image data 231 is stored in the RAM 230, next, the illumination component data 232 used when obtaining the object color component data is set (step ST2). The illumination component data 232 is data indicating the spectral distribution of illumination light, and more generally is data indicating the influence of illumination light on image data. The intensity of the spectral distribution indicated by the illumination component data 232 is normalized with the maximum spectral intensity being 1, and the illumination component data 232 indicates the relative spectral distribution of the illumination light.

デジタルカメラ200のROM230には、様々な照明光(光源)にそれぞれ対応する複数の照明成分データ232が予め記憶されており、ユーザが撮影時の光源に応じて操作ボタン126によりこれらから一の照明成分データ232を選択する。なお、デジタルカメラ200にマルチバンドセンサを設けておき、このマルチバンドセンサからの出力に基づいて実際の照明光の分光分布が求められて、物体色成分データを求める際に用いる照明成分データ232としてRAM230に記憶されてもよい。マルチバンドセンサとしては、複数の光強度検出器のそれぞれに各波長帯の光のみを透過するフィルタを設けたものを利用することができる。   The ROM 230 of the digital camera 200 stores a plurality of pieces of illumination component data 232 corresponding to various illumination lights (light sources) in advance, and the user uses the operation button 126 according to the light source at the time of photographing to select one illumination from these. Component data 232 is selected. The digital camera 200 is provided with a multiband sensor, and the actual spectral distribution of the illumination light is obtained based on the output from the multiband sensor, and the illumination component data 232 used when obtaining the object color component data is obtained. It may be stored in the RAM 230. As the multiband sensor, a plurality of light intensity detectors each provided with a filter that transmits only light in each wavelength band can be used.

照明成分データ232が設定されると、次に、物体色成分データ生成部201により、画像データ231および照明成分データ232を用いて、画像データ231から照明環境の影響を取り除いた成分として物体色成分データ233が求められる(ステップST3)。物体色成分データ233は、被写体の分光反射率に実質的に相当するデータである。被写体の分光反射率を求める手法は種々存在するが、そのうちの一つの手法について以下に説明する。ただし、これ以外の手法を用いてもよいことは勿論である。   Once the illumination component data 232 is set, the object color component data generation unit 201 then uses the image data 231 and the illumination component data 232 to remove the object environment component from the image data 231. Data 233 is obtained (step ST3). The object color component data 233 is data substantially corresponding to the spectral reflectance of the subject. There are various methods for obtaining the spectral reflectance of a subject, and one of them will be described below. However, it goes without saying that other methods may be used.

まず、可視領域の波長をλとして被写体を照明する照明光の分光分布をE(λ)とし、ある画素(以下、「対象画素」という。)に対応する被写体上の位置の分光反射率をS(λ)とする。分光反射率S(λ)は3つの基底関数S1(λ),S2(λ),S3(λ)および加重係数σ1,σ2,σ3の加重和として、 First, let E (λ) be the spectral distribution of illumination light that illuminates the subject with the wavelength of the visible region being λ, and the spectral reflectance at the position on the subject corresponding to a certain pixel (hereinafter referred to as “target pixel”) is S. (λ). The spectral reflectance S (λ) is a weighted sum of three basis functions S 1 (λ), S 2 (λ), S 3 (λ) and weighting coefficients σ 1 , σ 2 , σ 3 .

Figure 2006084264
Figure 2006084264

と表される。したがって、対象画素に対応する被写体上の位置からの反射光(すなわち、対象画素への入射光)の分光分布I(λ)は、 It is expressed. Therefore, the spectral distribution I (λ) of the reflected light from the position on the subject corresponding to the target pixel (that is, the incident light to the target pixel) is

Figure 2006084264
Figure 2006084264

と表現される。また、対象画素のR,G,Bのいずれかの色(以下、「対象色」という。)に関する値(画素値)をρcとし、デジタルカメラ200の対象色の総合分光感度(レンズ系111の分光透過率およびCCD121の分光感度を考慮した感度)をRc(λ)とすると、ρcは、 It is expressed. Further, a value (pixel value) relating to any one of R, G, and B of the target pixel (hereinafter referred to as “target color”) is ρ c, and the total spectral sensitivity of the target color of the digital camera 200 (the lens system 111). ) Is R c (λ), and ρ c is

Figure 2006084264
Figure 2006084264

と表される。数3において、基底関数Sj(λ)は予め定められた関数であり、総合分光感度Rc(λ)は予め計測により求めることができる関数である。これらの情報は予めROM220やRAM230に記憶される。また、照明光の分光分布E(λ)は、照明成分データ232としてRAM230に記憶されている。 It is expressed. In Equation 3, the basis function S j (λ) is a predetermined function, and the total spectral sensitivity R c (λ) is a function that can be obtained in advance by measurement. These pieces of information are stored in advance in the ROM 220 and the RAM 230. The spectral distribution E (λ) of the illumination light is stored in the RAM 230 as illumination component data 232.

したがって、数3に示す方程式において未知数は3つの加重係数σ1,σ2,σ3のみである。また、数3に示す方程式は対象画素におけるR,G,Bの3つの色のそれぞれに関して求めることができ、これら3つの方程式を解くことにより3つの加重係数σ1,σ2,σ3を求めることができる。 Therefore, in the equation shown in Equation 3, the unknowns are only three weighting coefficients σ 1 , σ 2 , and σ 3 . The equation shown in Equation 3 can be obtained for each of the three colors R, G, and B in the target pixel, and three weighting coefficients σ 1 , σ 2 , and σ 3 are obtained by solving these three equations. be able to.

このようにして求められる3つの加重係数σ1,σ2,σ3と、基底関数Sj(λ)とを数1に代入すれば、対象画素に対応する被写体上の位置の分光反射率S(λ)を表現することができる。したがって、対象画素の加重係数σ1,σ2,σ3を求めることは、対象画素に対応する被写体上の位置の分光反射率S(λ)を求めることに相当する。 If the three weighting coefficients σ 1 , σ 2 , σ 3 and the basis function S j (λ) obtained in this way are substituted into Equation 1, the spectral reflectance S at the position on the subject corresponding to the target pixel is obtained. (λ) can be expressed. Therefore, obtaining the weighting coefficients σ 1 , σ 2 , and σ 3 of the target pixel corresponds to obtaining the spectral reflectance S (λ) at the position on the subject corresponding to the target pixel.

以上の手法に基づき、デジタルカメラ200の物体色成分データ生成部201は画像データ231の画素値および照明成分データ232を参照しながら、各画素に対応する被写体上の位置の分光反射率(すなわち、各画素の加重係数σ1,σ2,σ3)を求める。そして、求められた全画素に関しての加重係数σ1,σ2,σ3が、物体色成分データ233としてRAM230に記憶される(ステップST3)。物体色成分データ233が求められると、その物体色成分データ233は、メモリカード91へと転送されて保存される(ステップST4)。 Based on the above method, the object color component data generation unit 201 of the digital camera 200 refers to the pixel value of the image data 231 and the illumination component data 232, and the spectral reflectance (that is, the position on the subject corresponding to each pixel (that is, The weighting coefficients (σ 1 , σ 2 , σ 3 ) of each pixel are obtained. Then, the obtained weighting coefficients σ 1 , σ 2 , and σ 3 for all the pixels are stored in the RAM 230 as the object color component data 233 (step ST3). When the object color component data 233 is obtained, the object color component data 233 is transferred to the memory card 91 and stored (step ST4).

物体色成分データ233は、各画素に相当するデータが被写体の分光反射率を示すものであり、「分光画像」とも呼ばれる。より一般的には、物体色成分データ233は、撮影時の照明光の影響が取り除かれた画像データに相当するデータとなる。   In the object color component data 233, data corresponding to each pixel indicates the spectral reflectance of the subject, and is also referred to as a “spectral image”. More generally, the object color component data 233 is data corresponding to image data from which the influence of illumination light at the time of shooting is removed.

デジタルカメラ200は、以上のような一連の処理を撮影対象(被写体)毎に実行し、複数の撮影対象の物体色成分データ233を取得する。取得された複数の物体色成分データ233は、メモリカード91を介してコンピュータ300に受け渡されコンピュータ300においてデータベースとして蓄積される。   The digital camera 200 executes a series of processes as described above for each shooting target (subject), and acquires object color component data 233 for a plurality of shooting targets. The obtained plurality of object color component data 233 is transferred to the computer 300 via the memory card 91 and stored in the computer 300 as a database.

次に、コンピュータ300aがデジタルカメラ200から物体色成分データ233を入力して、それをデータベースに蓄積するまでの一連処理について説明する。   Next, a series of processes until the computer 300a inputs the object color component data 233 from the digital camera 200 and accumulates it in the database will be described.

図9は、コンピュータ300aのCPU301がプログラム341に従って動作することによって、物体色成分データ入力時に実現される機能を他の構成とともにブロックにて示す図である。図9に示す構成のうち、読取装置制御部371、患者情報取得部372および識別情報記録処理部373は、CPU301がプログラム341に従って動作することにより実現される。   FIG. 9 is a block diagram showing functions realized when the object color component data is input by the CPU 301 of the computer 300a operating according to the program 341 together with other components. In the configuration illustrated in FIG. 9, the reading device control unit 371, the patient information acquisition unit 372, and the identification information recording processing unit 373 are realized by the CPU 301 operating according to the program 341.

図10は、CPU301がプログラム341に従って実現する処理の流れ図であり、具体的には物体色成分データ233を入力してデータベースとして保存する処理の流れを示している。以下、図9および図10を参照しながらコンピュータ300aの処理について説明する。   FIG. 10 is a flow chart of processing realized by the CPU 301 in accordance with the program 341. Specifically, the flow of processing for inputting the object color component data 233 and storing it as a database is shown. Hereinafter, the processing of the computer 300a will be described with reference to FIG. 9 and FIG.

まず、コンピュータ300aは、メモリカード91を介して物体色成分データ233を入力すると、そのデータを一時的にRAM303に格納する(ステップST11)。   First, when the object color component data 233 is input via the memory card 91, the computer 300a temporarily stores the data in the RAM 303 (step ST11).

そしてユーザが操作部306を介して指示を行うことにより、入力した物体色成分データ233の被写体となった患者を指定する。ユーザによる患者の指定は患者情報取得部372に受け付けられ、患者情報取得部372は、この指定に基づいてコンピュータ300bにアクセスし、コンピュータ300bに蓄積されている医療用データベース310の中から、当該患者の患者情報を取得する。そして患者情報取得部372によって取得された患者情報236は一時的にRAM303に格納される(ステップST12)。   Then, when the user gives an instruction via the operation unit 306, the patient who becomes the subject of the input object color component data 233 is specified. The patient information acquisition unit 372 receives designation of the patient by the user, and the patient information acquisition unit 372 accesses the computer 300b based on this designation, and the patient is extracted from the medical database 310 stored in the computer 300b. Get patient information. The patient information 236 acquired by the patient information acquisition unit 372 is temporarily stored in the RAM 303 (step ST12).

次に、患者に貼り付けた色票1を、読取装置400の近傍位置に配置した状態で、ユーザは識別情報の読み取り指示を行う。この指示は、読取装置制御部371に受け付けられ、読取装置制御部371が読取装置400を制御する。これにより、読取装置400は、被写体81に貼り付けられた色票1(より厳密には第1のシート状部材10)のマイクロチップ14に設定された識別情報を無線読み取りし、コンピュータ300aに出力する。コンピュータ300aは、色票1の識別情報235を取得すると、それを一時的にRAM303に格納する(ステップST13)。   Next, in a state where the color chart 1 attached to the patient is arranged in the vicinity of the reading device 400, the user instructs the reading of the identification information. This instruction is received by the reading device control unit 371, and the reading device control unit 371 controls the reading device 400. As a result, the reading device 400 wirelessly reads the identification information set on the microchip 14 of the color chart 1 (more precisely, the first sheet-like member 10) attached to the subject 81, and outputs it to the computer 300a. To do. When obtaining the identification information 235 of the color chart 1, the computer 300a temporarily stores it in the RAM 303 (step ST13).

次に、ユーザは操作部306を介して指示を行うことにより、色票1の識別情報235を対応付けて、患者情報236及び物体色成分データ233を記録するように指示する。この指示は、識別情報記録処理部373によって受け付けられる。   Next, the user instructs to record the patient information 236 and the object color component data 233 in association with the identification information 235 of the color chart 1 by giving an instruction via the operation unit 306. This instruction is accepted by the identification information recording processing unit 373.

そしてまず、識別情報記録処理部373は、RAM303の患者情報236を読み出し、患者情報236に色票1の識別情報235を対応付ける処理を行った後、コンピュータ300bにアクセスして、コンピュータ300bに蓄積されている医療用データベース310の患者情報を更新する(ステップST14)。これにより、患者情報236には色票1の識別情報235が含まれることになる。   First, the identification information recording processing unit 373 reads the patient information 236 in the RAM 303, performs processing for associating the identification information 235 of the color chart 1 with the patient information 236, and then accesses the computer 300b to be stored in the computer 300b. The patient information in the medical database 310 is updated (step ST14). As a result, the patient information 236 includes the identification information 235 of the color chart 1.

次に、識別情報記録処理部373は、RAM303の物体色成分データ233を読み出し、その物体色成分データ233についてのヘッダデータなどの付属データに対して色票1の識別情報235を書き込む(ステップST15)。これにより、物体色成分データ233の付属データを参照すれば、撮影時に用いた色票1を特定することができる。   Next, the identification information recording processing unit 373 reads the object color component data 233 in the RAM 303 and writes the identification information 235 of the color chart 1 in the attached data such as header data for the object color component data 233 (step ST15). ). Thereby, the color chart 1 used at the time of photographing can be specified by referring to the attached data of the object color component data 233.

そして識別情報記録処理部373は、付属データに識別情報235が書き込まれた物体色成分データ233をハードディスク304の物体色成分データベース351に追加保存する(ステップST16)。このとき、物体色成分データ233のファイル名には、色票1の識別情報が含められることが好ましい。物体色成分データ233のファイル名に識別情報を含めておくことにより、付属データを参照することなく、撮影時に用いた色票1を特定できるので効率的に色票1の特定が可能になる。   Then, the identification information recording processing unit 373 additionally stores the object color component data 233 in which the identification information 235 is written in the attached data in the object color component database 351 of the hard disk 304 (step ST16). At this time, the identification information of the color chart 1 is preferably included in the file name of the object color component data 233. By including the identification information in the file name of the object color component data 233, the color chart 1 used at the time of photographing can be identified without referring to the attached data, so that the color chart 1 can be identified efficiently.

以上のように本実施形態では、色票1の識別情報235を、物体色成分データ233および患者情報236のそれぞれに対して関連づけて記録するように構成されるため、物体色成分データ233がどの色票1を用いて撮影されたものであるかを容易に特定できるようになっているし、また患者がどの色票1を用いて撮影されたのかを容易に特定できるようになっている。特に、識別情報235を手がかりにして物体色成分データ233と患者情報236との対応関係を把握することができるようになっているので、一方から他方を検索する場合に有益なデータ構造となっている。また、これらの対応関係を手作業で設定入力する場合に比べれば、本実施形態の画像処理システム100は、正確かつ効率的にそれらの対応関係を設定できるように構成されている。   As described above, in the present embodiment, the identification information 235 of the color chart 1 is configured to be recorded in association with each of the object color component data 233 and the patient information 236. It is possible to easily identify whether the image was taken using the color chart 1, and it is possible to easily identify which color chart 1 the patient was photographed using. In particular, the correspondence between the object color component data 233 and the patient information 236 can be grasped by using the identification information 235 as a clue, so that the data structure is useful when searching from one to the other. Yes. In addition, the image processing system 100 according to the present embodiment is configured to be able to set the correspondences accurately and efficiently as compared with the case where these correspondences are manually set and input.

次に、コンピュータ300aが、物体色成分データ233を用いて画像データを再生し、画像診断を行う処理について説明する。   Next, processing in which the computer 300a reproduces image data using the object color component data 233 and performs image diagnosis will be described.

図11は、画像再生時にコンピュータ300aのCPU301がプログラム341に従って動作することにより実現される機能を他の構成とともにブロックにて示す図である。図11に示す構成のうち、データ選択受付部311、合成画像生成部312、基準受付部313、画像調整部314、合成画像記録部315、表示データ生成部316および診断結果記録処理部317が、CPU301がプログラム341に従って動作することにより実現される。   FIG. 11 is a block diagram showing functions realized by the CPU 301 of the computer 300a operating in accordance with the program 341 during image reproduction together with other configurations. Among the configurations shown in FIG. 11, a data selection receiving unit 311, a composite image generating unit 312, a reference receiving unit 313, an image adjusting unit 314, a composite image recording unit 315, a display data generating unit 316, and a diagnostic result recording processing unit 317 are included. This is realized by the CPU 301 operating according to the program 341.

図に示すように、ハードディスク304には、デジタルカメラ200により得られ、色票1の識別情報235が対応付けられた複数の物体色成分データ233から構成される物体色成分データベース351が構築されている。さらにハードディスク304には、複数の照明成分データ232から構成される照明成分データベース352が構築されている。この照明成分データ232は、上記で説明したものと同じく照明光の分光分布を示すデータであり、より一般的には、照明光の画像データに与える影響を示すデータである。   As shown in the figure, an object color component database 351 composed of a plurality of object color component data 233 obtained by the digital camera 200 and associated with the identification information 235 of the color chart 1 is constructed in the hard disk 304. Yes. Furthermore, an illumination component database 352 composed of a plurality of illumination component data 232 is constructed in the hard disk 304. The illumination component data 232 is data indicating the spectral distribution of illumination light as described above, and more generally is data indicating the influence of illumination light on image data.

コンピュータ300aでは、物体色成分データ233が示す被写体をユーザに閲覧させる。ただし、物体色成分データ233はそのままではディスプレイ305の表示に供することができないため、コンピュータ300aは、物体色成分データ233に照明成分データ232を合成し、これにより生成される画像データ(以下、「合成画像データ」という。)をディスプレイ305に表示する。この処理により、ユーザは物体色成分データ233が示す被写体の閲覧および比較が可能となる。照明成分データベース352には、この合成画像データの生成に用いるための候補となる複数の照明成分データ232が含まれている。照明成分データ232としては、例えば、CIE規格のD65、CIE規格のD50、白熱灯、蛍光灯、太陽光などの様々な照明光(光源)に対応したものが存在している。   In the computer 300a, the user browses the subject indicated by the object color component data 233. However, since the object color component data 233 cannot be used for display on the display 305 as it is, the computer 300a combines the illumination component data 232 with the object color component data 233 and generates image data (hereinafter, “ Composite image data ") is displayed on the display 305. By this processing, the user can browse and compare the subject indicated by the object color component data 233. The illumination component database 352 includes a plurality of illumination component data 232 that are candidates for use in generating the composite image data. The illumination component data 232 includes, for example, data corresponding to various illumination lights (light sources) such as CIE standard D65, CIE standard D50, incandescent lamp, fluorescent lamp, and sunlight.

図12は、CPU301がプログラム341に従って実現する処理の流れ図であり、具体的には物体色成分データ233を用いて合成画像データを再生し、画像診断を行うため処理の流れを示している。以下、図11および図12を参照しながらコンピュータ300aの処理について説明する。   FIG. 12 is a flowchart of processing realized by the CPU 301 in accordance with the program 341. Specifically, the processing flow for reproducing the composite image data using the object color component data 233 and performing image diagnosis is shown. Hereinafter, the processing of the computer 300a will be described with reference to FIG. 11 and FIG.

まず、ユーザは操作部306を介して指示を行うことにより、診断対象となる患者の指定を行う。ユーザによる患者の指定はデータ選択受付部311に受け付けられる(ステップST21)。   First, the user designates a patient to be diagnosed by giving an instruction via the operation unit 306. The designation of the patient by the user is accepted by the data selection accepting unit 311 (step ST21).

そしてデータ選択受付部311は、コンピュータ300bにアクセスし、医療用データベース310の中からユーザによって指定された患者の患者情報236を取得して、そこに含まれる色票1の識別情報235を全て抽出し、物体色成分データベース351の中から、各識別情報235に対応付けられた複数の物体色成分データ233を抽出する。ここで、抽出された複数の物体色成分データ233はハードディスク304からRAM303に読み出される。これにより、ユーザが診断を行おうとする患者についての、比較すべき複数の物体色成分データ233が決定される(ステップST22)。   The data selection receiving unit 311 accesses the computer 300b, acquires the patient information 236 of the patient specified by the user from the medical database 310, and extracts all the identification information 235 of the color chart 1 included therein. Then, a plurality of object color component data 233 associated with each identification information 235 is extracted from the object color component database 351. Here, the plurality of extracted object color component data 233 is read from the hard disk 304 to the RAM 303. Thereby, the several object color component data 233 which should be compared about the patient whom a user is going to diagnose is determined (step ST22).

次に、ユーザの操作部306を介しての指示により、照明成分データベース352から、合成画像データの生成に用いるための一の照明成分データ232が選択される。例えば、ディスプレイ305に、照明成分データベース352に含まれる照明成分データ232の名称の一覧が表示されており、ユーザが、マウスポインタにより所望の照明成分データ232の名称を選択してから、「OK」と表記されたコマンドボタンをクリックすることによって選択操作が行われる。この結果、一の照明成分データ232の選択の指示がデータ選択受付部311により受け付けられ、選択された照明成分データ232がRAM303に読み出される(ステップST23)。   Next, one illumination component data 232 to be used for generating the composite image data is selected from the illumination component database 352 according to an instruction via the operation unit 306 of the user. For example, a list of names of the illumination component data 232 included in the illumination component database 352 is displayed on the display 305, and the user selects a desired illumination component data 232 name with the mouse pointer, and then “OK”. The selection operation is performed by clicking the command button labeled “. As a result, an instruction to select one illumination component data 232 is accepted by the data selection accepting unit 311 and the selected illumination component data 232 is read out to the RAM 303 (step ST23).

次に、ユーザの操作部306を介しての指示により、合成画像データの明るさを調整する際の基準となる基準値が指定される。例えば、ディスプレイ305に、基準値を指定するためのスライダーコントロールなどが表示されており、ユーザがマウス操作によってそのスライダーコントロールを所望の位置に移動させる、あるいは、数値入力欄に直接的に数値を入力することによって、基準値を0から1の範囲の数値で指定することができるようになっている。そして「OK」と表記されたコマンドボタンをクリックすることによって、指定された基準値が基準受付部313に受け付けられる(ステップST24)。   Next, a reference value serving as a reference for adjusting the brightness of the composite image data is designated by an instruction through the user operation unit 306. For example, a slider control for designating a reference value is displayed on the display 305, and the user moves the slider control to a desired position by operating the mouse, or directly inputs a numerical value in a numerical value input field. By doing so, the reference value can be designated by a numerical value ranging from 0 to 1. Then, by clicking the command button labeled “OK”, the specified reference value is received by the reference receiving unit 313 (step ST24).

さらに、ユーザの操作部306を介しての指示により、合成画像データ中の被写体のサイズを調整する際の基準となる基準サイズが画素数で指定される。例えば、ディスプレイ305に、基準サイズを指定するためのスライダーコントロールなどが表示されており、ユーザがマウス操作によってそのスライダーコントロールを所望の位置に移動させることにより、あるいは、数値入力欄に直接的に数値を入力することによって、基準サイズを10から100の範囲の数値で指定することができるようになっている。そして「OK」と表記されたコマンドボタンをクリックすることによって、指定された基準サイズが基準受付部313に受け付けられる(ステップST25)。   Further, a reference size that serves as a reference for adjusting the size of the subject in the composite image data is designated by the number of pixels in accordance with an instruction from the user operation unit 306. For example, a slider control or the like for designating a reference size is displayed on the display 305, and the user moves the slider control to a desired position by operating the mouse, or a numerical value directly in the numerical value input field. The reference size can be designated by a numerical value in the range of 10 to 100. Then, by clicking the command button labeled “OK”, the specified reference size is received by the reference receiving unit 313 (step ST25).

次に、RAM303に読み出された複数の物体色成分データ233のうち一の物体色成分データ233が処理の対象(以下、「注目物体色成分データ」という。)として決定される(ステップST26)。   Next, one object color component data 233 among the plurality of object color component data 233 read out to the RAM 303 is determined as a processing target (hereinafter referred to as “target object color component data”) (step ST26). .

注目物体色成分データが決定されると、次に、注目物体色成分データおよび照明成分データ232が合成画像生成部312に入力される。合成画像生成部312は、注目物体色成分データの各画素に相当するデータを、数1の加重係数σjとして用いることにより被写体上の各位置の分光反射率S(λ)を求める。なお、基底関数Sj(λ)は予めハードディスク304に記憶される。そして、求めた被写体上の各位置の分光反射率S(λ)と、照明成分データ232が示す照明光の分光分布E(λ)とを数2に用いて、これらを乗算した分光分布(以下、「合成分光分布」という。)I(λ)を求める。これにより、各画素が合成分光分布I(λ)で表現される合成画像データ331が生成される。合成分光分布I(λ)は、注目物体色成分データが示す被写体を照明成分データ232が示す照明光で照明したと仮定した場合の、被写体からの反射光の分光分布に相当する。 When the target object color component data is determined, next, the target object color component data and the illumination component data 232 are input to the composite image generation unit 312. The composite image generating unit 312 obtains the spectral reflectance S (λ) at each position on the subject by using data corresponding to each pixel of the object color component data of interest as the weighting coefficient σ j of Equation 1. The basis function S j (λ) is stored in the hard disk 304 in advance. Then, using the obtained spectral reflectance S (λ) at each position on the subject and the spectral distribution E (λ) of the illumination light indicated by the illumination component data 232 in Equation 2, a spectral distribution (hereinafter referred to as “spectral distribution”) is multiplied. , Referred to as “synthetic spectral distribution”) I (λ) is obtained. Thereby, synthesized image data 331 in which each pixel is expressed by a synthesized spectral distribution I (λ) is generated. The combined spectral distribution I (λ) corresponds to the spectral distribution of the reflected light from the subject when it is assumed that the subject indicated by the target object color component data is illuminated with the illumination light indicated by the illumination component data 232.

合成画像データ331の各画素は、合成分光分布I(λ)を数4に代入することにより、三刺激値(XYZ値)で表現することも可能である。数4においてRX(λ),RY(λ),RZ(λ)はXYZ表色系の等色関数である。 Each pixel of the composite image data 331 can be expressed as a tristimulus value (XYZ value) by substituting the composite spectral distribution I (λ) into Equation 4. In Equation 4, R X (λ), R Y (λ), and R Z (λ) are color matching functions of the XYZ color system.

Figure 2006084264
Figure 2006084264

また、合成画像データ331の各画素は、周知のマトリクス演算により三刺激値(XYZ値)をRGB値に変換することで、RGB値で表現することも可能である。したがって、合成画像データ331は、ディスプレイ305の表示に容易に供することが可能なデータである(ステップST27)。   In addition, each pixel of the composite image data 331 can be expressed as an RGB value by converting tristimulus values (XYZ values) into RGB values by a known matrix calculation. Therefore, the composite image data 331 is data that can be easily provided for display on the display 305 (step ST27).

このようにして生成された合成画像データ331を表示してもよいが、本実施の形態では、複数の合成画像データを同一条件で再現して表示するように構成されるので、明るさの調整、および、被写体のサイズの調整が合成画像データ331に対してなされる。これらの調整を行う際には、合成画像データ331の各画素は合成分光分布I(λ)で表現された状態とされる。   The composite image data 331 generated in this way may be displayed. However, in the present embodiment, brightness adjustment is performed because a plurality of composite image data is reproduced and displayed under the same conditions. The adjustment of the size of the subject is performed on the composite image data 331. When performing these adjustments, each pixel of the composite image data 331 is represented by a composite spectral distribution I (λ).

合成画像データ331の調整にあたっては、まず、合成画像データ331中において色票1に関する画像が、画像調整部314により特定される。より具体的には、色票1の基準領域11に含まれる基準色パッチ12に関する画像が特定される。ここでの特定は、手動操作による特定であってもよいし、パターンマッチングなどを適用した自動認識による特定であってもよい(ステップST28)。   When adjusting the composite image data 331, first, the image adjustment unit 314 specifies an image related to the color chart 1 in the composite image data 331. More specifically, an image related to the reference color patch 12 included in the reference area 11 of the color chart 1 is specified. The specification here may be specification by manual operation, or specification by automatic recognition using pattern matching or the like (step ST28).

次に、画像調整部314は、特定された基準色パッチ12の明るさが基準受付部313に受け付けられた基準値に一致するように、合成画像データ331の明るさを調整する。具体的には、基準値を基準色パッチの明るさで除算して調整係数を導出し、導出した調整係数を合成画像データ331の各画素の合成分光分布I(λ)に乗算する。基準領域の明るさとしては、基準領域に含まれる各画素の合成分光分布I(λ)から得られる特定波長(例えば、560nm)における分光強度の平均値が利用される。これにより、合成画像データ331中の全被写体の明るさが調整される。調整後の合成画像データ331中の基準領域の明るさは、基準値に一致する(ステップST29)。   Next, the image adjustment unit 314 adjusts the brightness of the composite image data 331 so that the brightness of the specified reference color patch 12 matches the reference value received by the reference receiving unit 313. Specifically, the adjustment coefficient is derived by dividing the reference value by the brightness of the reference color patch, and the derived adjustment coefficient is multiplied by the combined spectral distribution I (λ) of each pixel of the combined image data 331. As the brightness of the reference region, an average value of spectral intensities at a specific wavelength (for example, 560 nm) obtained from the combined spectral distribution I (λ) of each pixel included in the reference region is used. As a result, the brightness of all the subjects in the composite image data 331 is adjusted. The brightness of the reference area in the adjusted composite image data 331 matches the reference value (step ST29).

続いて、画像調整部314は、色票1の基準領域11のサイズが基準受付部313に受け付けられた基準サイズに一致するように、合成画像データ331中の被写体のサイズを調整する。具体的には、基準サイズと基準領域11のサイズとを比較して、基準領域11のサイズが基準サイズに一致するための拡大倍率または縮小倍率を導出する。基準領域11のサイズとしては、基準領域11の一辺の画素数が利用される。そして、導出した拡大倍率または縮小倍率に基づいて、合成画像データ331を拡大または縮小する。これにより、合成画像データ331中の全被写体のサイズが調整される。調整後の合成画像データ331中の基準領域11のサイズは、基準サイズに一致する(ステップST30)。なお、基準領域11の画像サイズを調整するのではなく、基準色パッチ12の画像サイズを調整するようにしてもよい。   Subsequently, the image adjustment unit 314 adjusts the size of the subject in the composite image data 331 so that the size of the reference region 11 of the color chart 1 matches the reference size received by the reference receiving unit 313. Specifically, the reference size and the size of the reference area 11 are compared to derive an enlargement or reduction ratio for matching the size of the reference area 11 with the reference size. As the size of the reference region 11, the number of pixels on one side of the reference region 11 is used. Then, the composite image data 331 is enlarged or reduced based on the derived enlargement or reduction magnification. Thereby, the sizes of all the subjects in the composite image data 331 are adjusted. The size of the reference area 11 in the adjusted composite image data 331 matches the reference size (step ST30). Note that the image size of the reference color patch 12 may be adjusted instead of adjusting the image size of the reference region 11.

このような明るさの調整および被写体のサイズの調整がなされると、表示データ生成部316によって、合成画像データ331の各画素の合成分光分布I(λ)は、数4による演算によりXYZ値とされ、さらにRGB値に変換される。そして、調整済の合成画像データ331がディスプレイ305に表示される。これにより、ユーザは生成された合成画像データ331を閲覧することができる。なお、XYZ値からRGB値への変換には、ディスプレイ305に固有の特性を示すICCプロファイルを用いてもよい。変換にICCプロファイルを用いることで、ディスプレイ305に表示する画像から、ディスプレイ305に固有の特性を排除することができる(ステップST31)。   When the brightness adjustment and the subject size adjustment are performed, the display data generation unit 316 calculates the combined spectral distribution I (λ) of each pixel of the combined image data 331 from the XYZ value by the calculation according to Equation 4. And further converted into RGB values. Then, the adjusted composite image data 331 is displayed on the display 305. Thereby, the user can browse the generated composite image data 331. Note that an ICC profile indicating characteristics unique to the display 305 may be used for conversion from XYZ values to RGB values. By using the ICC profile for the conversion, it is possible to exclude the characteristic unique to the display 305 from the image displayed on the display 305 (step ST31).

このようにして、一の注目物体色成分データから生成される合成画像データ331が表示されると、次の注目物体色成分データが決定される(ステップST32,ST26)。そして、上記と同じ処理(ステップST26〜ST31)が、その注目物体色成分データに関して行われる。このような処理の繰り返しにより、最終的に、比較対象とする全ての物体色成分データ233からそれぞれ合成画像データ331が生成される。そして、生成された複数の合成画像データ331は、それぞれディスプレイ305に表示され、同一条件で再生された複数の画像を比較することができるようになる。そして複数の画像を比較することによって、患部の経過状態などを良好に把握できるようになり、正確な画像診断が行える。   When the composite image data 331 generated from one target object color component data is displayed in this way, the next target object color component data is determined (steps ST32 and ST26). Then, the same processing (steps ST26 to ST31) as described above is performed for the target object color component data. By repeating such processing, finally, composite image data 331 is generated from all the object color component data 233 to be compared. The plurality of generated composite image data 331 is displayed on the display 305, and a plurality of images reproduced under the same conditions can be compared. By comparing a plurality of images, the progress of the affected area can be grasped well, and an accurate image diagnosis can be performed.

また上記処理において、合成画像データ331の生成に用いられる照明成分データ232は、比較対象とする複数の物体色成分データ233間で同一である。したがって、複数の物体色成分データ233の取得時における照明光の分光分布が相違していた場合であっても、生成された複数の合成画像データ331は、同一分光分布の照明光に照明された被写体を示すこととなる。つまり、同一分光分布の照明光下における被写体を再現することができ、同一の被写体は同一色で再現される。これにより、ユーザは同一分光分布の照明光下の被写体を比較することができ、被写体の比較を的確に行うことができる。また、合成画像データ331の生成に用いる一の照明成分データ232の選択の指示をユーザから受け付けるため、ユーザにとって所望の分光分布の照明光下における被写体を再現できる。   In the above processing, the illumination component data 232 used for generating the composite image data 331 is the same among the plurality of object color component data 233 to be compared. Therefore, even if the spectral distributions of the illumination light at the time of obtaining the plurality of object color component data 233 are different, the generated composite image data 331 is illuminated by the illumination light having the same spectral distribution. It shows the subject. That is, it is possible to reproduce a subject under illumination light having the same spectral distribution, and the same subject is reproduced with the same color. Thereby, the user can compare subjects under illumination light having the same spectral distribution, and can accurately compare subjects. In addition, since an instruction to select one illumination component data 232 used for generating the composite image data 331 is received from the user, it is possible to reproduce a subject under illumination light having a desired spectral distribution for the user.

また、物体色成分データ233は相対分光反射率を示すことから、単に物体色成分データ233に照明成分データ232を合成した場合は、生成される合成画像データ331の明るさは物体色成分データ233の取得時における照明光の強度に影響される。したがってこの場合は、複数の合成画像データ331の再生時に、同一の被写体が同一の明るさで再現されない可能性がある。本実施の形態では、基準領域の明るさが基準値に一致するように合成画像データ331の明るさが調整され、複数の合成画像データ331間で基準領域の明るさが一致される。したがって、複数の合成画像データ331は、同一の強度の照明光に照明された被写体を示すこととなる。つまり、同一強度の照明光下における被写体を再現することができ、同一の被写体は同一の明るさで再現される。これにより、ユーザは、同一強度の照明光下における被写体を比較することができ、被写体の比較をさらに的確に行うことができる。また、基準領域の明るさを一致させるための基準となる基準値の指定をユーザから受け付けるため、ユーザにとって所望の強度の照明光下における被写体を再現できる。   Since the object color component data 233 indicates the relative spectral reflectance, when the illumination component data 232 is simply combined with the object color component data 233, the brightness of the generated combined image data 331 is the object color component data 233. It is influenced by the intensity of illumination light at the time of acquisition. Therefore, in this case, there is a possibility that the same subject may not be reproduced with the same brightness when reproducing a plurality of composite image data 331. In the present embodiment, the brightness of the composite image data 331 is adjusted so that the brightness of the reference area matches the reference value, and the brightness of the reference area is matched among the plurality of composite image data 331. Therefore, the plurality of composite image data 331 indicates a subject illuminated with illumination light having the same intensity. That is, it is possible to reproduce a subject under illumination light with the same intensity, and the same subject is reproduced with the same brightness. Thereby, the user can compare subjects under illumination light of the same intensity, and can compare subjects more accurately. In addition, since the specification of a reference value serving as a reference for matching the brightness of the reference region is received from the user, it is possible to reproduce a subject under illumination light having a desired intensity for the user.

また、単に物体色成分データ233に照明成分データ232を合成した場合は、生成される合成画像データ331中の被写体のサイズは、物体色成分データ233の取得時における撮影距離に影響される。したがってこの場合は、複数の合成画像データ331の再生時に、同一の被写体が同一のサイズで再現されない可能性がある。本実施の形態では、基準領域のサイズが基準サイズに一致するように合成画像データ331中の被写体のサイズが調整(拡大または縮小)され、複数の合成画像データ331間で基準領域のサイズが一致される。したがって、複数の合成画像データ331は、実際の被写体に対するスケールが同一となる被写体を示すこととなる。つまり、被写体を同一スケールで再現することができ、同一の被写体は同一のサイズで再現される。これにより、ユーザは、同一スケールの被写体を比較することができ、被写体の比較をさらに的確に行うことができる。また、基準領域のサイズを一致させるための基準となる基準サイズの指定をユーザから受け付けるため、ユーザにとって所望のスケールで被写体を再現できる。   When the illumination component data 232 is simply combined with the object color component data 233, the size of the subject in the generated composite image data 331 is affected by the shooting distance when the object color component data 233 is acquired. Therefore, in this case, there is a possibility that the same subject is not reproduced with the same size when reproducing the plurality of composite image data 331. In the present embodiment, the size of the subject in the composite image data 331 is adjusted (enlarged or reduced) so that the size of the reference area matches the reference size, and the sizes of the reference areas match among the plurality of composite image data 331. Is done. Therefore, the plurality of composite image data 331 indicates a subject having the same scale as the actual subject. That is, the subject can be reproduced with the same scale, and the same subject is reproduced with the same size. Thereby, the user can compare subjects of the same scale, and can compare subjects more accurately. In addition, since the specification of the reference size serving as a reference for matching the sizes of the reference regions is received from the user, the subject can be reproduced at a scale desired by the user.

上記のようにして生成された複数の合成画像データ331は、合成画像記録部315によりハードディスク304に記録され、合成画像データベース353として蓄積される(ステップST33)。このように生成された複数の合成画像データ331をデータベースとして蓄積することで、物体色成分データ233が示す被写体を再び再生する際に合成画像データ331を生成する必要がなくなり、ユーザは短時間で目的とする被写体を閲覧することができる。なお、生成された複数の合成画像データ331を記録するか否かを、ユーザが指定できるようになっていてもよい。   The plurality of composite image data 331 generated as described above is recorded on the hard disk 304 by the composite image recording unit 315 and stored as the composite image database 353 (step ST33). By accumulating a plurality of composite image data 331 generated in this manner as a database, it is not necessary to generate composite image data 331 when the subject indicated by the object color component data 233 is reproduced again, and the user can quickly The target subject can be browsed. Note that the user may be able to specify whether or not to record a plurality of generated composite image data 331.

そして、ユーザは操作部306を介して画像診断の診断結果の入力を行う。この入力情報は、診断結果記録処理部317に受け付けられる。そして診断結果記録処理部317は、コンピュータ300bにアクセスし、画像診断の診断結果を当該患者の患者情報に関連づけて医療用データベース310に記録する(ステップS34)。これにより、医療用データベース310には、患者情報、物体色成分データおよび診断結果が全て関連づけられることになる。   Then, the user inputs the diagnostic result of the image diagnosis via the operation unit 306. This input information is received by the diagnosis result recording processing unit 317. Then, the diagnosis result recording processing unit 317 accesses the computer 300b and records the diagnosis result of the image diagnosis in the medical database 310 in association with the patient information of the patient (step S34). As a result, the patient information, the object color component data, and the diagnosis result are all associated with the medical database 310.

以上のように、本実施の形態では、カラー画像の色のキャリブレートを行うために使用されるシート状の色票1に、固有の識別情報を格納するマイクロチップ14が埋設されており、その識別情報を外部から無線読み取り可能なように構成されている。したがって、色票1の識別情報を読み取れば、該識別情報を画像の管理情報として用いることができるようになっており、各画像がどの色票を用いて撮影されたものかを容易に特定できるようになる。その結果、画像の管理を容易かつ正確に行えるようになる。   As described above, in the present embodiment, the microchip 14 storing unique identification information is embedded in the sheet-like color chart 1 used for calibrating the color of the color image. Information is wirelessly readable from the outside. Therefore, if the identification information of the color chart 1 is read, the identification information can be used as image management information, and it is possible to easily identify which color chart was used to capture each image. It becomes like this. As a result, image management can be performed easily and accurately.

また、色票1が、第1のシート状部材10、第2のシート状部材20および台紙30がこの順で互いに粘着材を介して貼り合わされた構造を有しており、第1のシート状部材10が比較的粘着力の弱い粘着材で第2のシート状部材20に対して剥離可能な状態で貼り合わされ、第2のシート状部材20が比較的粘着力の強い粘着材で台紙30に対して剥離可能な状態で貼り合わされた構造となっている。このような構造により、例えば、第1のシート状部材10は被写体への貼り付け用に、第2のシート状部材20はカルテへの貼り付け用に適したものとなる。   Further, the color chart 1 has a structure in which the first sheet-like member 10, the second sheet-like member 20, and the mount 30 are bonded together in this order via an adhesive material, and the first sheet-like member The member 10 is bonded to the second sheet-like member 20 with an adhesive material having a relatively weak adhesive force, and the second sheet-like member 20 is attached to the mount 30 with an adhesive material having a relatively strong adhesive force. On the other hand, it has a structure of being bonded in a peelable state. With such a structure, for example, the first sheet-like member 10 is suitable for attaching to a subject, and the second sheet-like member 20 is suitable for attaching to a medical chart.

また、色票1における第1のシート状部材10の表面の一部に、識別情報が印字されることにより、ユーザは目視で識別情報の確認を行うこともできるようになっている。   In addition, the identification information is printed on a part of the surface of the first sheet-like member 10 in the color chart 1 so that the user can confirm the identification information visually.

また、本実施の形態の画像処理システム100は、色票1と被写体81とを同時に撮影した画像を入力し、その画像から照明光の影響を取り除いた画像データを生成するように構成され、色票1から、色票1に記憶された識別情報を読み取り、その識別情報を、撮影して得られた画像に関連づけて記録するようになっている。そのため、本実施の形態の画像処理システムは、色票1の格納された識別情報を画像の管理情報として用いて、各画像がどの色票を用いて撮影されたものかを容易に特定できるように構成されている。   Further, the image processing system 100 according to the present embodiment is configured to input an image obtained by simultaneously capturing the color chart 1 and the subject 81 and generate image data in which the influence of illumination light is removed from the image. The identification information stored in the color chart 1 is read from the vote 1, and the identification information is recorded in association with an image obtained by photographing. For this reason, the image processing system according to the present embodiment can use the identification information stored in the color chart 1 as image management information to easily identify which color chart was used to capture each image. It is configured.

また、画像と識別情報との関連づけのひとつは、画像に関する画像ファイルの付属データに対して識別情報を書き込むことによって行われる。したがって、画像ファイルの付属データを参照すれば、どの色票1を用いて撮影された画像であるかを容易に特定できるようになる。   Further, one of the associations between the image and the identification information is performed by writing the identification information to the attached data of the image file related to the image. Therefore, by referring to the attached data of the image file, it is possible to easily identify which color chart 1 is used to capture the image.

また、画像と識別情報とのもうひとつの関連づけは、画像に関する画像ファイルのファイル名に識別情報を含めることによって行われる。したがって、この場合は、画像ファイルの付属データを参照する必要もなく、ファイル名から容易に、どの色票1を用いて撮影された画像であるかを特定できるようになる。   Further, another association between the image and the identification information is performed by including the identification information in the file name of the image file relating to the image. Therefore, in this case, it is not necessary to refer to the data attached to the image file, and the color chart 1 can be used to easily identify the image taken using the file name.

また、本実施の形態の画像処理システム100は、患者の情報を管理する医療用データベース310を備えており、撮影対象となった患者の患者情報236と、色票1の識別情報235とをさらに関連づけて医療用データベース310に対して記録するように構成される。そのため、識別情報235によって、画像(物体色成分データ233)と患者情報236とを対応付けることができ、画像と患者情報236との管理を正確に行うことができるようになっている。   In addition, the image processing system 100 according to the present embodiment includes a medical database 310 that manages patient information, and further includes patient information 236 of the patient to be imaged and identification information 235 of the color chart 1. It is configured to record in association with the medical database 310. Therefore, the identification information 235 can associate the image (object color component data 233) with the patient information 236, and the image and the patient information 236 can be managed accurately.

また、画像処理システム100においては、画像による診断結果をさらに関連づけて医療用データベースに対して記録するように構成されている。そのため、画像、患者情報236、および診断結果が相互に対応付けられることになり、総合的な医療情報の正確な管理が可能である。   In addition, the image processing system 100 is configured to record the diagnosis results based on the images in the medical database in association with each other. Therefore, the image, patient information 236, and diagnosis result are associated with each other, and accurate management of comprehensive medical information is possible.

以上のように、本実施形態の画像処理システム100は、人為的なミスが生じる可能性を著しく低減した構成となっており、医療ミスなどを未然に防止できるものとなっている。   As described above, the image processing system 100 according to the present embodiment has a configuration in which the possibility of human error is significantly reduced, and medical errors can be prevented in advance.

以上、本発明の実施の形態について説明したが、本発明は上述したものに限定されるものではない。   The embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment.

例えば、上述した実施の形態では、デジタルカメラ200において物体色成分データ233が生成される場合を例示したが、これに限定されるものではなく、物体色成分データの生成処理をコンピュータ300aにおいて行うようにしてもよい。この場合、コンピュータ300aには、撮影によって得られるカラー画像に関する画像データが入力することになり、コンピュータ300aにおいて上述した演算処理が行われることにより、物体色成分データの生成が行われる。また、このときコンピュータ300aに入力した撮影画像は、コンピュータ300aのハードディスク304に保存されることが好ましく、その場合には該撮影画像と、色票1の識別情報とがさらに関連づけられることがより好ましい。   For example, in the above-described embodiment, the case where the object color component data 233 is generated in the digital camera 200 is exemplified. However, the present invention is not limited to this, and the generation processing of the object color component data is performed in the computer 300a. It may be. In this case, image data relating to a color image obtained by photographing is input to the computer 300a, and object color component data is generated by performing the above-described arithmetic processing in the computer 300a. In addition, the photographed image input to the computer 300a at this time is preferably stored in the hard disk 304 of the computer 300a. In this case, it is more preferable that the photographed image is further associated with the identification information of the color chart 1. .

また、上述した実施の形態において、コンピュータ300aで行っていた処理をデジタルカメラ200の内部で行うようにしてもよい。   In the above-described embodiment, the processing performed by the computer 300a may be performed inside the digital camera 200.

また、上述した実施の形態では、画像処理システム100が医療用の画像診断システムとして利用される場合を例示したが、これに限定されるものではなく、複数の画像を同一条件下で比較することが必要なシステムであればどのようなものであっても適用可能なものである。   In the above-described embodiment, the case where the image processing system 100 is used as a medical image diagnostic system is exemplified. However, the present invention is not limited to this, and a plurality of images are compared under the same conditions. Any system that requires a system is applicable.

色票を斜め前方側からみた斜視図である。It is the perspective view which looked at the color chart from the diagonally forward side. 色票の各シート部材を分離した状態を示す斜視図である。It is a perspective view which shows the state which isolate | separated each sheet | seat member of the color chart. 色票を構成する第1のシート状部材の断面図である。It is sectional drawing of the 1st sheet-like member which comprises a color chart. 画像処理システムの一例を示す図である。1 is a diagram illustrating an example of an image processing system. コンピュータの概略構成を示す図である。It is a figure which shows schematic structure of a computer. デジタルカメラの主要な構成を示す図である。It is a figure which shows the main structures of a digital camera. デジタルカメラの機能をブロックにて示す図である。It is a figure which shows the function of a digital camera with a block. デジタルカメラの動作の流れを示す流れ図である。It is a flowchart which shows the flow of operation | movement of a digital camera. 物体色成分データ入力時にコンピュータで実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by computer at the time of object color component data input. コンピュータが物体色成分データを入力してデータベースに保存する処理の流れを示す流れ図である。It is a flowchart which shows the flow of the process which a computer inputs object color component data and preserve | saves to a database. 画像再生時にコンピュータで実現される機能を示すブロック図である。It is a block diagram which shows the function implement | achieved by computer at the time of image reproduction. コンピュータにおいて画像再生を行う際の流れ図である。It is a flowchart at the time of performing image reproduction in a computer.

符号の説明Explanation of symbols

1 色票
10 第1のシート状部材
11 基準領域
12 基準色パッチ
13 識別情報表示欄
14 マイクロチップ
20 第2のシート状部材
30 台紙
100 画像処理システム
200 デジタルカメラ
300a,300b コンピュータ
232 照明成分データ
233 物体色成分データ
235 識別情報
236 患者情報
331 合成画像データ
310 医療用データベース
400 読取装置
1 color chart 10 first sheet-like member 11 reference area 12 reference color patch 13 identification information display column 14 microchip 20 second sheet-like member 30 mount 100 image processing system 200 digital camera 300a, 300b computer 232 illumination component data 233 Object color component data 235 Identification information 236 Patient information 331 Composite image data 310 Medical database 400 Reader

Claims (8)

カラー画像の色のキャリブレートを行うために使用されるシート状の色票であって、
シート状部材の表面側に、少なくとも1色の色材が塗布された基準領域が形成されており、かつ、前記シート状部材の内部に、固有の識別情報を格納するマイクロチップが埋設され、前記識別情報を外部から無線読み取り可能なように構成された色票。
A sheet-like color chart used for calibrating the color of a color image,
A reference region coated with at least one color material is formed on the surface side of the sheet-like member, and a microchip for storing unique identification information is embedded in the sheet-like member, Color chart configured to allow wireless reading of identification information from outside.
請求項1に記載の色票において、
第1のシート状部材、第2のシート状部材および台紙がこの順で互いに粘着材を介して貼り合わされた構造を有し、前記第1のシート状部材は比較的粘着力の弱い粘着材で前記第2のシート状部材に対して剥離可能な状態で貼り合わされ、前記第2のシート状部材は比較的粘着力の強い粘着材で前記台紙に対して剥離可能な状態で貼り合わされることを特徴とする色票。
In the color chart according to claim 1,
The first sheet-like member, the second sheet-like member, and the mount have a structure in which the first sheet-like member and the mount are bonded together in this order via an adhesive material, and the first sheet-like member is an adhesive material having a relatively weak adhesive force. The second sheet-like member is bonded in a peelable state, and the second sheet-like member is bonded in a peelable state to the mount with a relatively strong adhesive material. Color chart to be characterized.
請求項1又は2に記載の色票において、
前記シート状部材の表面の一部に、前記識別情報が印字されることを特徴とする色票。
In the color chart according to claim 1 or 2,
The color chart, wherein the identification information is printed on a part of the surface of the sheet-like member.
色票と被写体とを同時に撮影した画像を入力し、前記画像から照明光の影響を取り除いた画像データを生成する画像処理システムであって、
前記色票から、前記色票に記憶された識別情報を読み取る読取手段と、
前記識別情報を、前記画像に関連づけて記録する記録手段と、
を備える画像処理システム。
An image processing system for inputting an image obtained by simultaneously photographing a color chart and a subject, and generating image data obtained by removing the influence of illumination light from the image,
Reading means for reading identification information stored in the color chart from the color chart;
Recording means for recording the identification information in association with the image;
An image processing system comprising:
請求項4に記載の画像処理システムにおいて、
前記記録手段は、前記画像に関する画像ファイルの付属データに対して前記識別情報を書き込むことを特徴とする画像処理システム。
The image processing system according to claim 4,
The image processing system, wherein the recording means writes the identification information to the attached data of the image file relating to the image.
請求項4に記載の画像処理システムにおいて、
前記記録手段は、前記画像に関する画像ファイルのファイル名に、前記識別情報を含めて記録することを特徴とする画像処理システム。
The image processing system according to claim 4,
The image processing system, wherein the recording unit records the identification information in a file name of an image file related to the image.
請求項4ないし6のいずれかに記載の画像処理システムにおいて、
患者の情報を管理する医療用データベースをさらに備え、
前記記録手段は、前記画像の撮影対象となった患者の患者情報と、前記識別情報とをさらに関連づけて前記医療用データベースに対して記録することを特徴とする画像処理システム
The image processing system according to any one of claims 4 to 6,
A medical database for managing patient information;
The image processing system, wherein the recording unit records the patient information of the patient whose image is to be captured and the identification information in association with each other in the medical database.
請求項7に記載の画像処理システムにおいて、
前記記録手段は、前記画像による診断結果をさらに関連づけて前記医療用データベースに対して記録することを特徴とする画像処理システム。
The image processing system according to claim 7,
The image processing system characterized in that the recording means records the diagnosis result based on the image on the medical database in further relation.
JP2004268000A 2004-09-15 2004-09-15 Color chart and image processing system Pending JP2006084264A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004268000A JP2006084264A (en) 2004-09-15 2004-09-15 Color chart and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004268000A JP2006084264A (en) 2004-09-15 2004-09-15 Color chart and image processing system

Publications (1)

Publication Number Publication Date
JP2006084264A true JP2006084264A (en) 2006-03-30

Family

ID=36162897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004268000A Pending JP2006084264A (en) 2004-09-15 2004-09-15 Color chart and image processing system

Country Status (1)

Country Link
JP (1) JP2006084264A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011079969A (en) * 2009-10-07 2011-04-21 Kamoi Kakoshi Kk Adhesive tape used for taking photography, and method for producing the same
JP2011197664A (en) * 2010-02-25 2011-10-06 Yamaha Corp Music file reproduction device and system
GB2480607A (en) * 2010-05-24 2011-11-30 St Microelectronics Lighting identification chart

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011079969A (en) * 2009-10-07 2011-04-21 Kamoi Kakoshi Kk Adhesive tape used for taking photography, and method for producing the same
JP2011197664A (en) * 2010-02-25 2011-10-06 Yamaha Corp Music file reproduction device and system
GB2480607A (en) * 2010-05-24 2011-11-30 St Microelectronics Lighting identification chart

Similar Documents

Publication Publication Date Title
CN101297545B (en) Imaging device and image processing device
JP4218348B2 (en) Imaging device
JP4006415B2 (en) Image capturing apparatus, control method therefor, and control program
JP4511821B2 (en) Method, program and apparatus for determining important region in image
US7639940B2 (en) Photography apparatus, photography method, and photography program using lighting condition parameters
US6970199B2 (en) Digital camera using exposure information acquired from a scene
US7835550B2 (en) Face image recording apparatus, image sensing apparatus and methods of controlling same
US20090087123A1 (en) Image processing apparatus, imaging apparatus, and image processing method
US20040100567A1 (en) Camera system with eye monitoring
US20050141002A1 (en) Image-processing method, image-processing apparatus and image-recording apparatus
JP2008141740A (en) Apparatus, method and program for photography
JP2008123086A (en) Image processor and image processing method
JP2007208413A (en) Color correction apparatus, color correction method, and color correction program
JP2007067870A (en) Digital camera system and calibration method of photographing condition
US8525920B2 (en) Imaging apparatus and signal processing method for checking a photographed image in a multi-band camera immediately
JP2015046142A (en) Camera system, color conversion apparatus and method for use on the same, and color conversion program
JP4974599B2 (en) Microscope color imaging apparatus, microscope color imaging program, and microscope color imaging method
CN108471503A (en) Picture pick-up device and its control method
JP2006081654A (en) Image forming method, and device therefor
JP2006084264A (en) Color chart and image processing system
JP2005303400A (en) Imaging apparatus, image processing apparatus, illumination light source, and illumination apparatus
TWI255429B (en) Method for adjusting image acquisition parameters to optimize objection extraction
JP2007067874A (en) Digital camera system and calibration method of photographing condition
US20040174433A1 (en) Image processing apparatus
JP2008206163A (en) Color image processor