JP2003187223A - Device, system and method for diagnosing image - Google Patents

Device, system and method for diagnosing image

Info

Publication number
JP2003187223A
JP2003187223A JP2001385382A JP2001385382A JP2003187223A JP 2003187223 A JP2003187223 A JP 2003187223A JP 2001385382 A JP2001385382 A JP 2001385382A JP 2001385382 A JP2001385382 A JP 2001385382A JP 2003187223 A JP2003187223 A JP 2003187223A
Authority
JP
Japan
Prior art keywords
image
target
information
color
diagnosis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001385382A
Other languages
Japanese (ja)
Other versions
JP3972647B2 (en
Inventor
Miyako Hotta
堀田  都
Kenji Araki
憲司 荒木
Masatoshi Takada
将年 高田
Yoshiyuki Kojima
慶享 児島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001385382A priority Critical patent/JP3972647B2/en
Publication of JP2003187223A publication Critical patent/JP2003187223A/en
Application granted granted Critical
Publication of JP3972647B2 publication Critical patent/JP3972647B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Spectrometry And Color Measurement (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To extract color distribution of a surface from an image by photographing an object to be diagnosed with high precision and to diagnose a state of the object from the extracted color distribution. <P>SOLUTION: An image diagnostic device is constituted of an image data storage part 1 for storing image data by photographing the object to be diagnosed with a camera, etc., a CAD (computer aided design) data storage part 12 for storing three-dimensional CAD data of the object to be diagnosed, a brightness noise removal part for removing brightness noise on the image data from a position/intensity of a light source by using the three-dimensional CAD data to the image data and a three-dimensional image display part 4 for displaying an image from which the noise is removed by sticking the image on the threedimensional CAD data. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像診断装置,画
像診断システム及び画像診断方法並びに技術支援システ
ム,技術支援方法,保守支援システム,保守支援方法に
関わり、特に、3次元CADデータを用いて診断対象の
表面状態に及ぼす影響を除去する画像診断装置,画像診
断システム及び画像診断方法並びに技術支援システム,
技術支援方法,保守支援システム,保守支援方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image diagnostic apparatus, an image diagnostic system and an image diagnostic method, a technical support system, a technical support method, a maintenance support system, and a maintenance support method, and particularly, using three-dimensional CAD data. An image diagnostic apparatus, an image diagnostic system, an image diagnostic method, and a technical support system that remove the influence of the surface condition of a diagnostic object,
Technical support method, maintenance support system, maintenance support method.

【0002】[0002]

【従来の技術】金属材料・油などの劣化状態,患者の健
康状態診断等、専門家が経験に基づき実物を見ることで
判断している分野は多い。これらを分析すると、専門家
は主に診断対象の色情報を処理して総合的に判定してい
ると考えられる。
2. Description of the Related Art There are many fields in which experts make judgments based on their experience by observing actual objects such as the deterioration of metal materials and oils, and the health condition diagnosis of patients. When these are analyzed, it is considered that the expert mainly processes the color information of the diagnosis target and comprehensively determines it.

【0003】一例として、火力タービンの動翼などの高
温材料の劣化診断方法に注目すると、これらの金属材料
の表面は、高温で運転されるため熱酸化や腐食などの現
象が起こり、それにより金属自体の表面色が変化したり
凹凸が発生したりする。従来、定期点検時に材料表面の
色や凹凸を検査委員が判定し、運転温度や、それにより
推定される余寿命などを判断していた。
As an example, when attention is paid to a method of diagnosing deterioration of high temperature materials such as blades of a thermal power turbine, since the surfaces of these metal materials are operated at a high temperature, phenomena such as thermal oxidation and corrosion occur, which causes the metal. The surface color of itself changes or irregularities occur. Conventionally, the inspection committee judges the color and unevenness of the material surface at the time of periodic inspection, and judges the operating temperature and the estimated remaining life.

【0004】また、金属材料の寿命を監視する技術とし
ては、例えば、特開平9−304131号公報記載の「高温機
器の寿命監視装置」のように、材料の劣化や損傷計測情
報及び粗さ変化傾向の情報に基づいて使用中の温度及び
応力条件の変化を推定し、材料の損傷率及び余寿命を評
価する公知例は従来にもあった。また本公知例では、表
面粗さの計測結果から推定した温度を表面の色調から推
定した「簡易的な温度分布」で補正する、という実現手
段も含んでいる。
Further, as a technique for monitoring the life of a metallic material, for example, as in the "lifetime monitoring device for high temperature equipment" described in Japanese Patent Laid-Open No. 9-304131, material deterioration and damage measurement information and roughness change. There has been a known example in which changes in temperature and stress conditions during use are estimated based on tendency information, and the damage rate and remaining life of materials are evaluated. The known example also includes a realization means for correcting the temperature estimated from the measurement result of the surface roughness with the "simple temperature distribution" estimated from the color tone of the surface.

【0005】[0005]

【発明が解決しようとする課題】火力タービンの定期点
検で従来行われている判定方法では、一つ一つの動翼
を、検査員が目視により材料表面状態を判定していたた
め、判定作業に時間がかかる課題があった。また、目視
によって得た色の情報は、定量化できないため他者と共
有が難しく、再現性がないという課題がある。また目視
による判断に頼るため、検査員が検査のたびに現場に出
向かなくてはならないという課題があった。
In the conventional judgment method used in the periodic inspection of the thermal power turbine, the inspector visually judges the material surface state of each moving blade. There was a problem that took In addition, since the color information obtained by visual inspection cannot be quantified, it is difficult to share it with others, and there is a problem that it is not reproducible. Further, there is a problem that the inspector has to go to the site every time the inspection is performed because it depends on the visual judgment.

【0006】また、人間の目視による色認識技術の自動
化については、画像を撮影する場所の明るさや光の種類
などで画像上の色は容易に変わってしまう等の課題があ
る。色の評価を行うためには、環境によらず画像の色を
精度良く評価する必要がある。
Further, with regard to automation of the color recognition technique by human eyes, there is a problem that the color on the image easily changes depending on the brightness of the place where the image is taken and the kind of light. In order to evaluate the color, it is necessary to accurately evaluate the color of the image regardless of the environment.

【0007】前述の特開平9−304131号公報は、
自動で表面色調を計測する手段を備えた構成になってい
るが、上記の課題を解決するための手段についての記載
はみられない。
The above-mentioned Japanese Patent Laid-Open No. 9-304131 discloses
Although it is configured to have a means for automatically measuring the surface color tone, there is no description of means for solving the above problems.

【0008】本発明の一つの目的は、対象の3次元形状
の情報を用いて、対象の表面状態の情報を処理する処理
装置を提供することにある。
An object of the present invention is to provide a processing device for processing information on the surface condition of an object using the information on the three-dimensional shape of the object.

【0009】本願発明の他の目的は、診断の対象を撮影
した画像から表面の色分布を精度良く抽出し、抽出した
色分布から対象の状態を診断できる画像診断装置,画像
診断システム又は画像診断方法を提供することである。
Another object of the present invention is an image diagnostic apparatus, an image diagnostic system, or an image diagnostic capable of accurately extracting a surface color distribution from an image of a diagnostic object and diagnosing the state of the object from the extracted color distribution. Is to provide a method.

【0010】本願発明の上記以外の目的は、明細書の記
載により、説明される。
The other objects of the present invention will be explained by the description of the specification.

【0011】[0011]

【課題を解決するための手段】本発明の一つの特徴は、
対象の3次元形状の情報から、対象の表面状態の情報に
及ぼす影響を除去する除去処理部と、前記3次元形状の
情報に対象の表面状態の情報を重畳する処理部とを有す
る処理装置にある。
One of the features of the present invention is:
A processing device having a removal processing unit that removes an influence on information of a target surface state from information of a target three-dimensional shape, and a processing unit that superimposes information of the target surface state on the information of the three-dimensional shape. is there.

【0012】また、本発明は、診断対象の表面状態の画
像情報から診断対象の状態を診断する画像処理装置にお
いて、診断対象の表面状態の画像情報と診断対象の3次
元形状の情報から、診断対象の表面状態に及ぼす影響を
除去する除去処理部と、該3次元形状の上に診断対象を
撮影した画像を重畳する処理部を有することを特徴とす
る。
The present invention is also directed to an image processing apparatus for diagnosing the state of a diagnosis target from image information of the surface state of the diagnosis target, based on the image information of the surface state of the diagnosis target and the three-dimensional shape information of the diagnosis target. It is characterized by having a removal processing unit that removes the influence on the surface state of the target and a processing unit that superimposes an image of the diagnostic target on the three-dimensional shape.

【0013】また、本発明は、表面状態から診断対象の
状態を診断する画像診断装置において、診断対象の3次
元形状から、表面状態に及ぼす影響を除去し、該3次元
形状の上に診断対象を撮影した画像を貼り付けて表示す
ることを特徴とする。
Further, according to the present invention, in an image diagnostic apparatus for diagnosing a condition of a diagnosis target from a surface condition, the influence on the surface condition is removed from the three-dimensional shape of the diagnosis target, and the diagnosis target is placed on the three-dimensional shape. The feature is that the photographed image is pasted and displayed.

【0014】また、本発明は、表面状態に及ぼす影響を
除去した上で、診断対象の状態を推定することを特徴と
する。
Further, the present invention is characterized in that the influence on the surface state is eliminated and then the state of the diagnosis object is estimated.

【0015】また、本発明は、複数の異なる角度から診
断対象を撮影した画像のそれぞれについて、診断対象の
3次元形状から、表面状態に及ぼす影響を除去すること
を特徴とする。
Further, the present invention is characterized in that the influence on the surface state is removed from the three-dimensional shape of the diagnosis target for each of the images obtained by photographing the diagnosis target from a plurality of different angles.

【0016】また、本発明は、診断の一例として色から
対象の物理的状態を診断することがある。
In the present invention, as an example of diagnosis, the physical state of an object may be diagnosed from colors.

【0017】また、本発明は、診断対象の3次元形状
と、画像を撮影する環境の照明の位置,照明の強度か
ら、対象の表面に及ぼす光の影響を算出し、画像上の色
から、対象がもつ色と、光の輝度の影響を分離すること
を特徴とする。
Further, according to the present invention, the influence of light on the surface of the object is calculated from the three-dimensional shape of the object to be diagnosed, the position of the illumination of the environment where the image is taken, and the intensity of the illumination, and from the color on the image, The feature is that the color of the object and the influence of the brightness of light are separated.

【0018】また、本発明は、画像を撮影する環境の照
明の位置や強度が不明の場合、対象を撮影した画像上の
色分布から、色の明らかな境界を抽出して、抽出した色
の境界より影の位置候補領域を設定し、該候補領域から
照明の位置と強度を推定することを特徴とする。
Further, according to the present invention, when the position and intensity of the illumination of the environment in which the image is captured are unknown, a clear boundary of the color is extracted from the color distribution on the image of the captured target, and the extracted color is extracted. It is characterized in that a shadow position candidate area is set from the boundary and the position and intensity of the illumination are estimated from the candidate area.

【0019】また、本発明は、対象を屋外で撮影し、撮
影時の太陽の位置を撮影時刻,撮影地点の緯度・経度か
ら求めることを特徴とする。
Further, the present invention is characterized in that the object is photographed outdoors and the position of the sun at the time of photographing is obtained from the photographing time and the latitude / longitude of the photographing point.

【0020】また、本発明は、撮影した対象の表面を、
3次元の形状に基づき領域分割し、領域毎の画像から得
られる特徴量を対象の属性として採用することを特徴と
する。
Further, according to the present invention, the surface of the photographed object is
The feature is that the region is divided based on the three-dimensional shape, and the feature amount obtained from the image of each region is adopted as the target attribute.

【0021】また、本発明は、画像領域から得られる特
徴量として該画像領域の色の平均値,分散,モード値の
いずれか、もしくはそれらの組み合わせの情報を採用す
ることを特徴とする。
Further, the present invention is characterized in that, as the feature amount obtained from the image area, any one of the average value, the variance, the mode value of the color of the image area, or a combination thereof is adopted.

【0022】また、本発明は、画像領域から得られる特
徴量として、該画像領域表面を、色の近い領域毎にグル
ーピングし、領域毎の色の情報と共に領域の表面積を算
出して物体の特徴量とすることを特徴とする。
Further, according to the present invention, as the feature amount obtained from the image area, the surface of the image area is grouped into areas having similar colors, and the surface area of the area is calculated together with the color information of each area to calculate the characteristics of the object. It is characterized by the quantity.

【0023】また、本発明は、診断対象となる部品の表
面に表示されている固体番号と3次元CADデータをリ
ンクさせておき、対象を撮影する際に該固体番号を画像
上から読み取り可能なように撮影し、画像診断装置で固
体番号を読み取ることで3次元CADデータを参照する
ことを特徴とする。
Further, according to the present invention, the individual number displayed on the surface of the part to be diagnosed and the three-dimensional CAD data are linked, and the individual number can be read from the image when the object is photographed. As described above, the three-dimensional CAD data is referred to by taking an image and reading the individual number with the image diagnostic apparatus.

【0024】また、本発明は、画像を3次元形状に投影
し、画像上の各画素と3次元形状上の各点との対応をと
った結果、画像上における評価対象の輪郭と、3次元形
状における輪郭の位置を比較し、そこに生じた差を材料
の形状の変化とすることを特徴とする。
Further, according to the present invention, as a result of projecting an image on a three-dimensional shape and associating each pixel on the image with each point on the three-dimensional shape, the contour of the evaluation target on the image and the three-dimensional shape are evaluated. It is characterized in that the positions of the contours in the shapes are compared with each other and the resulting difference is used as a change in the shape of the material.

【0025】また、本発明は、対象を撮影するのと同時
に、レーザ計測等の手段で対象の3次元形状を計測し、
該3次元形状を表面状態の推定に用いることを特徴とす
る。
Further, according to the present invention, at the same time as photographing the object, the three-dimensional shape of the object is measured by means such as laser measurement,
The three-dimensional shape is used for estimating the surface state.

【0026】また、本発明は、評価対象を撮影した過去
の画像もしくは画像から得られる特徴量等の情報を蓄積
しておき、該過去の情報と新規に入力した画像の情報と
の比較で表面状態の推定を行うことを特徴とする。
Further, according to the present invention, information such as a past image of a subject to be evaluated or a feature amount obtained from the image is accumulated, and the past information is compared with information of a newly input image to obtain a surface image. It is characterized in that the state is estimated.

【0027】また、本発明は、評価対象を、実際に運転
している現場で撮影し、その画像情報のみをインターネ
ット等の通信手段を使って伝送し、該画像診断システム
で診断することを特徴とする画像診断システムを提供す
ることを特徴とする。
Further, the present invention is characterized in that the object to be evaluated is photographed at the actual driving site, only the image information thereof is transmitted using communication means such as the Internet, and the image is diagnosed by the image diagnostic system. It is characterized by providing an image diagnostic system.

【0028】本願発明の上記特徴及びその他の特徴は、
以下の記載により更に説明される。
The above features and other features of the present invention are as follows.
Further description is provided by the following description.

【0029】[0029]

【発明の実施の形態】次に、図1〜図19を参照して、
画像診断装置,画像診断システム及び画像診断方法の実
施例を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Next, referring to FIGS.
Embodiments of the image diagnostic apparatus, the image diagnostic system, and the image diagnostic method will be described.

【0030】《実施例1》図1は、本発明による画像診
断装置の実施例1の構成を示すブロック図である。
<< Embodiment 1 >> FIG. 1 is a block diagram showing a configuration of an embodiment 1 of an image diagnostic apparatus according to the present invention.

【0031】図1の画像診断装置は、カメラ等の撮影部
で診断対象を撮影した画像データを蓄積する画像データ
蓄積部1と、診断対象の3次元CADデータを蓄積する
CADデータ蓄積部2と、画像データ蓄積部1の画像デー
タに対して、3次元CADデータを用い、光源位置・強
度から画像データ上の輝度ノイズを除去する輝度ノイズ
除去処理部3と、ノイズ除去された画像を3次元CAD
データ上に貼り付けて表示する3次元画像表示部4から
なる。画像データは、画像データ蓄積部1に蓄積され、
処理時に読み出されてもよいし、外部から入力され画像
データ蓄積部1を経由又は経由しないで、輝度ノイズ除
去処理部3へ入力されて良い。また、3次元CADデー
タは、CADデータ蓄積部2に蓄積され、処理時に読み
出されてもよいし、外部から入力されCADデータ蓄積
部2を経由又は経由しないで、輝度ノイズ除去処理部3
へ入力されて良い。以下同様であるが、蓄積部として
は、蓄積対象の容量に対応して種々の記憶装置が使用で
きる。例えば、半導体等を用いた固体メモリ、光及び/
又は磁気を用いたDVD,CD記億装置などを用いるこ
とができる。また、輝度ノイズ除去処理部3等の処理部
は、ハードウエアとしてマイクロプロセッサ又はパーソ
ナルコンピュータ(PC)等の演算装置などを用いること
ができる。また、3次元画像表示部4等の表示部は、パ
ーソナルコンピュータ(PC)等の演算装置とCRTモニ
ター,LCDモニター,プリンタなどの出力装置を用い
ることができる。また、ノイズ除去された画像を3次元
CADデータ上に貼り付けて表示することは、ノイズ除
去された画像情報と3次元CADデータとを重畳する重
畳処理の一態様と考えられ、重畳した情報を表示する代
りに出力情報として出力したり、この出力情報を他の処
理に用いても良い。
The image diagnostic apparatus shown in FIG. 1 stores an image data storage unit 1 for storing image data of a diagnosis target photographed by a photographing unit such as a camera, and three-dimensional CAD data for the diagnosis target.
A luminance noise removal processing unit 3 that removes luminance noise on the image data from the light source position and intensity by using three-dimensional CAD data for the image data of the CAD data storage unit 2 and the image data storage unit 1; The three-dimensional CAD image
It is composed of a three-dimensional image display unit 4 which is pasted and displayed on the data. The image data is stored in the image data storage unit 1,
It may be read at the time of processing, or may be input from the outside and input to the luminance noise removal processing unit 3 without or via the image data storage unit 1. Further, the three-dimensional CAD data may be stored in the CAD data storage unit 2 and read out at the time of processing, or may be input from the outside and pass through the CAD data storage unit 2 or not to pass through the luminance noise removal processing unit 3.
Can be input to. The same applies to the following, but various storage devices can be used as the storage unit according to the capacity to be stored. For example, solid-state memory using semiconductors, light and / or
Alternatively, a DVD or CD storage device using magnetism can be used. The processing units such as the luminance noise removal processing unit 3 can use an arithmetic unit such as a microprocessor or a personal computer (PC) as hardware. The display unit such as the three-dimensional image display unit 4 can use an arithmetic unit such as a personal computer (PC) and an output unit such as a CRT monitor, an LCD monitor, and a printer. Further, pasting and displaying the noise-removed image on the three-dimensional CAD data is considered to be an aspect of a superimposing process for superimposing the noise-removed image information and the three-dimensional CAD data, and the superimposed information is displayed. Instead of displaying, it may be output as output information, or this output information may be used for other processing.

【0032】画像データ蓄積部1の画像データは、診断
する対象を撮影した画像データである。画像の形式は何
でも良いが、本実施例の構成では画像をデジタルの情報
として入力する必要があるため、例えばCCDカメラか
ら直接入力する場合には、本入力部にA/D変換処理を
備え、アナログ信号をデジタル信号として変換する処理
が必要となる。デジタルカメラで撮影した画像や、スチ
ルカメラで撮影した画像をスキャナ等のデジタル化機器
で変換した画像を直接取り込むことも出来る。
The image data of the image data storage unit 1 is image data of a subject to be diagnosed. Although the image format may be any format, since the image needs to be input as digital information in the configuration of the present embodiment, for example, when directly input from a CCD camera, this input section is provided with an A / D conversion process, A process of converting an analog signal into a digital signal is required. It is also possible to directly import images taken by a digital camera or images obtained by converting still images taken by a still camera with a digitizing device such as a scanner.

【0033】但し、本発明の目的を考慮すると、出来る
だけ評価対象を直接撮影した状態のままで入力する方が
よく、スキャナ等は介さない状態の方が望ましい。
However, in consideration of the object of the present invention, it is better to input the evaluation target in a state where it is directly photographed as much as possible, and it is more preferable that the scanner or the like is not used.

【0034】デジタル画像のデータ形式は、例えば画像
の大きさが220画素×256画素の例であると、画面
はx方向に256個、y方向に220個の画素の集合体
からなり、それぞれの画素毎に、R(赤),G(緑),
B(青)の3つの値で決まる色の情報を持っている(色
についての詳細は後述)。
As for the data format of a digital image, for example, when the image size is 220 pixels × 256 pixels, the screen is composed of an aggregate of 256 pixels in the x direction and 220 pixels in the y direction, and For each pixel, R (red), G (green),
It has information on a color determined by three values of B (blue) (details about the color will be described later).

【0035】次に、CADデータ蓄積部2の3次元CA
Dデータは、診断対象の3次元の形状を記述したデータ
であり、3次元空間の中の任意の位置、向きに置いた場
合の座標が得られる。
Next, the three-dimensional CA of the CAD data storage unit 2
The D data is data describing the three-dimensional shape of the diagnosis target, and the coordinates when it is placed at an arbitrary position and orientation in the three-dimensional space can be obtained.

【0036】ここで対象としている3次元形状は、一つ
の光源により表面上に影ができる形状を意味する。ま
た、表面が曲面や平面で不規則に構成されており、表面
上の任意の点の特定がしにくい形状である場合に更に効
果が期待できる。
The three-dimensional shape of interest here means a shape in which a shadow is formed on the surface by one light source. Further, when the surface is irregularly formed with a curved surface or a flat surface and it is difficult to identify an arbitrary point on the surface, further effects can be expected.

【0037】次に、輝度ノイズ除去処理部3の処理につ
き説明する。輝度ノイズ除去処理部3は、診断対象の3
次元CADデータと、光源の位置から、診断対象の表面
に及ぼす陰影の影響を算出し、実際の入力画像上の輝度
を補正する処理である。
Next, the processing of the luminance noise removal processing section 3 will be described. The luminance noise removal processing unit 3 is a diagnostic target 3
This is a process of calculating the influence of the shadow on the surface of the diagnosis target from the dimensional CAD data and the position of the light source, and correcting the brightness on the actual input image.

【0038】輝度ノイズ除去処理部3の流れにつき図2
を用いて説明する。処理21では、入力画像の色情報を
3次元形状上との対応をとる。処理22では、3Dの形
状の表面に投影した画像の座標P(x,y)について、
順に参照し処理23以下の処理を行う。処理23では、
部品の3D形状,光源の位置・強度から画素P(x,
y)の物体自体の色I′(Rxy,Gxy,Bxy)を
計算する。処理24では、全ての画素に関する計算が終
了したかを判定する。以上の処理により、3Dの形状に
投影した画像上の色情報から、光の影響による輝度の影
響を補正することができる。
FIG. 2 shows the flow of the luminance noise removal processing section 3.
Will be explained. In process 21, the color information of the input image is associated with the three-dimensional shape. In process 22, with respect to the coordinates P (x, y) of the image projected on the surface of the 3D shape,
The processes starting from the process 23 are performed with reference to the sequence. In process 23,
From the 3D shape of the part, the position and intensity of the light source, the pixel P (x,
The color I '(Rxy, Gxy, Bxy) of the object itself in y) is calculated. In the process 24, it is determined whether the calculation has been completed for all the pixels. With the above processing, the influence of luminance due to the influence of light can be corrected from the color information on the image projected in the 3D shape.

【0039】処理21の、画像の色情報を3次元形状に
投影する処理は、3D形状の表面の各座標と、画像上の
座標との対応をとり、画像上の座標系にのっている色情
報を3D形状の表面の座標系に対応させることである。
カメラと物体の位置や角度の関係、およびカメラパラメ
ータが既知であれば両方の座標の対応は容易にとること
ができる。また、カメラと物体の位置や角度の関係が既
知でなくても、たとえば昭晃堂刊「三次元画像計測」の
91ページから99ページに記載のあるように、対象と
なる物体の3次元形状と撮影画像の間で、最低6個以上
の対応点を取り(3次元形状上の点(X,Y,Z)が、
画像上の点(x,y)に対応している)、それにより3
次元形状上の座標と画像上の座標の変換式を求める方法
等が採用できる。
The process 21 of projecting the color information of the image onto the three-dimensional shape corresponds to each coordinate on the surface of the 3D shape and the coordinate on the image, and is on the coordinate system on the image. The color information is made to correspond to the coordinate system of the surface of the 3D shape.
If the relationship between the position and angle of the camera and the object and the camera parameters are known, it is possible to easily take correspondence between both coordinates. Even if the relationship between the position and angle of the camera and the object is not known, the three-dimensional shape of the target object can be found, for example, as described on pages 91 to 99 of "3D Image Measurement" published by Shokoido. At least 6 corresponding points are taken between the captured image and the captured image (the point (X, Y, Z) on the three-dimensional shape is
Corresponding to the point (x, y) on the image), thereby 3
A method of obtaining a conversion formula between the coordinate on the dimensional shape and the coordinate on the image can be adopted.

【0040】画像は3次元の対象をある視点から見た二
次元情報であるので、足りない情報は補完することで全
ての表面座標に対応する色情報を設定する。また、不足
する色情報を最小限にとどめるため、入力画像として異
なる角度から撮った複数の画像を用いることもできる。
また、例えばガスタービンの動翼などの場合は、劣化す
ることにより材料の表面が削れて形状が変化することが
考えられる。このような場合は画像上の色情報を3次元
形状に投影する際に、部品の性質を考慮しできるだけ形
状が変化しにくい点を対応点として選択することが必要
である。また、あらかじめ画像上の評価対象の輪郭線の
座標を求めておくと、3次元形状の輪郭と画像の輪郭が
一致しない部分を部品の形状が変化したとして差分情報
を劣化の診断材料として採用することもできる。
Since the image is two-dimensional information obtained by viewing a three-dimensional object from a certain viewpoint, color information corresponding to all surface coordinates is set by complementing the missing information. Further, in order to minimize the lacking color information, it is possible to use a plurality of images taken from different angles as the input image.
Further, for example, in the case of a moving blade of a gas turbine, it is conceivable that the surface of the material is shaved and the shape is changed due to deterioration. In such a case, when projecting the color information on the image into a three-dimensional shape, it is necessary to consider the properties of the parts and select a point whose shape does not change as much as possible. Further, if the coordinates of the contour line of the evaluation target on the image are obtained in advance, the difference information is adopted as the deterioration diagnosis material assuming that the shape of the part has changed in the portion where the contour of the three-dimensional shape and the contour of the image do not match. You can also

【0041】次に処理23に該当する物体自体の持つ色
の計算方法については更に詳しく説明する。照明の存在
する状況下での3次元物体表面の色情報を算出する方法
については、各種文献に記載のあるレイ・トレーシング
と呼ばれる方法であるが、例えば日経マグロウヒル社刊
「CG実験室」の47ページから108ページまでに記
載があるように、3次元の物体の位置と、照明の位置か
ら、物体の表面の色を計算する方法である。具体的に
は、図3と数1により説明される。図3において、評価
対象の物体を31、照明の位置を33、視点(カメラ位
置)を37とし、対象31上の点32における法線ベク
トルを35とする。
Next, the method of calculating the color of the object itself corresponding to the process 23 will be described in more detail. A method for calculating color information on the surface of a three-dimensional object in the presence of illumination is a method called ray tracing described in various documents, for example, "CG Laboratory" published by Nikkei McGraw-Hill. As described on pages 47 to 108, this is a method of calculating the color of the surface of the object from the position of the three-dimensional object and the position of the illumination. Specifically, it will be described with reference to FIG. In FIG. 3, an evaluation target object is 31, an illumination position is 33, a viewpoint (camera position) is 37, and a normal vector at a point 32 on the target 31 is 35.

【0042】照明の影響を考慮した場合の対象の輝度の
計算方法は、例えば対象1上の点32における輝度は、
数1のように表される。
The calculation method of the brightness of the object in consideration of the influence of the illumination is as follows.
It is expressed as in Equation 1.

【0043】 C=(s*kd*cosα+ke)*Cs+s*ks*cosβ*Cw…(数1) 但し cosα=−L*N cosβ=2(L*N*N*V)−L*V s :入射光の強さ kd:拡散反射係数 Cs:光を考慮しないときの物体の表面色 ke:環境反射係数 ks:鏡面反射係数 Cw:白(値255) 数1は、物体自体の持つ色Csを既知とし、所定の照明
条件の下で見える色Cを物体自体のもつ色を基準として
算出する方法である。
C = (s * kd * cosα + ke) * Cs + s * ks * cosβ * Cw (Equation 1) where cosα = −L * N cosβ = 2 (L * N * N * V) −L * V s: Intensity of incident light kd: Diffuse reflection coefficient Cs: Surface color of object when light is not considered ke: Environmental reflection coefficient ks: Specular reflection coefficient Cw: White (value 255) Equation 1 is the color Cs of the object itself. This is a method in which the color C that is known and that is visible under a predetermined illumination condition is calculated based on the color of the object itself.

【0044】本発明は、所定の照明の下での物体の色
が、画像上の色として既知である場合に、物体自体のも
つ色を算出するのが目的であるので、数1より Cs=(Cs*ks*cosβ*Cw)/(s*kd*cosα+ke)…(数2) となり、処理3においては数2を用いることで物体自体
のもつ色を算出する。
Since the purpose of the present invention is to calculate the color of the object itself when the color of the object under the predetermined illumination is known as the color on the image, Cs = (Cs * ks * cosβ * Cw) / (s * kd * cosα + ke) (Equation 2), and the color of the object itself is calculated by using Equation 2 in the process 3.

【0045】以上の処理を画像上の対象物体の全ての画
素につき求め、求めた物体自体のもつ色で画像を変換す
ることで評価対象について、照明に影響されない色に変
換することができる。
By performing the above processing for all the pixels of the target object on the image and converting the image with the color of the obtained object itself, the evaluation target can be converted into a color that is not affected by illumination.

【0046】なお、対象となる画像がカラーの場合は、
数2のCwについてそれぞれ対象となる表面上の点P
(x,y)のRxy,Gxy,Bxyの値をそれぞれ求
める。
When the target image is color,
The point P on the target surface for each of Cw in the equation 2
The values of Rxy, Gxy, and Bxy of (x, y) are obtained.

【0047】3次元画像表示部4は、輝度ノイズ除去処
理部3で対応を取り、物体自体の持つ色に変換した画像
を3次元形状上に貼り付けて表示する。これは3次元C
ADを表示する際に、3次元CADデータの表面上の各
点の色情報として、輝度ノイズ除去処理部で対応をとっ
た画像上の点の色情報を採用することで実現できる。
The three-dimensional image display unit 4 takes the correspondence in the luminance noise removal processing unit 3 and displays the image converted into the color of the object itself on the three-dimensional shape. This is a three-dimensional C
This can be realized by adopting the color information of the points on the image that the luminance noise removal processing unit has taken correspondence with as the color information of each point on the surface of the three-dimensional CAD data when displaying AD.

【0048】以上が本発明による画像診断装置の第一の
実施例を示すものである。この構成をとることにより、
診断対象の2次元画像を撮影するだけで、光の影響を除
去した3次元画像を作成することができ、現地に行かな
くても検査員が対象の状態診断を遠隔で行うことができ
る。
The first embodiment of the image diagnostic apparatus according to the present invention has been described above. By taking this configuration,
By only capturing a two-dimensional image of the diagnosis target, a three-dimensional image in which the influence of light is removed can be created, and the inspector can remotely perform the condition diagnosis of the target without going to the site.

【0049】《実施例2》図4は、本発明による画像診
断装置の実施例2の構成を示すブロック図である。
<Embodiment 2> FIG. 4 is a block diagram showing the configuration of Embodiment 2 of the image diagnostic apparatus according to the present invention.

【0050】図4の画像診断装置は、実施例1の画像デ
ータ蓄積部1と、CADデータ蓄積部2と、輝度ノイズ
除去処理部3と、材料劣化診断部5と、劣化診断結果デ
ータ6からなる。
The image diagnostic apparatus of FIG. 4 comprises the image data storage unit 1, the CAD data storage unit 2, the luminance noise removal processing unit 3, the material deterioration diagnosis unit 5, and the deterioration diagnosis result data 6 of the first embodiment. Become.

【0051】本実施例の構成は、輝度ノイズ除去処理部
3で物体自体の持つ色に変換した画像を入力とし、画像
処理機能を用いて劣化診断を行う構成である。
The configuration of the present embodiment is a configuration in which an image converted into the color of the object itself by the luminance noise removal processing unit 3 is input, and deterioration diagnosis is performed using the image processing function.

【0052】図4の材料劣化診断部5の処理につき説明
する。本処理部は、評価対象を撮影した画像から劣化状
態を判定するものであり、様々な実施形態が考えられ
る。材料劣化診断部5の第一の実施例を次に説明する。
The processing of the material deterioration diagnosing unit 5 in FIG. 4 will be described. The present processing unit determines a deterioration state from an image of a subject to be evaluated, and various embodiments can be considered. A first embodiment of the material deterioration diagnosis unit 5 will be described next.

【0053】説明の便宜のため、ここでは評価対象とし
てガスタービンの動翼を例にとる。対象の形状や、運転
の状態により、表面の受ける熱応力の分布はある程度決
まってくると考えられる。例えば動翼の先端部は最も高
温になりやすく劣化しやすい等。これらの知見より、予
め、評価対象の表面を、劣化状況が均一になりやすい領
域に分割しておく。そして領域毎に、表面の色情報を抽
出し、領域別色情報データとして固体別に情報を持たせ
る方法である。これと運転時間や温度等の環境条件を1
レコードとしてデータベース化しておき、新規に対象の
画像が入力された場合には同様に領域分割し、特徴量を
算出し、データベース中から類似の特徴量を持った画像
を検索して、状態判定を行う方法である。
For convenience of explanation, here, a moving blade of a gas turbine is taken as an example of an object to be evaluated. It is considered that the distribution of thermal stress on the surface is determined to some extent depending on the shape of the object and the operating conditions. For example, the tip of the rotor blade is likely to reach the highest temperature and is likely to deteriorate. Based on these findings, the surface to be evaluated is divided in advance into regions where the deterioration situation is likely to be uniform. Then, the surface color information is extracted for each area, and information is provided for each individual as area-specific color information data. 1 and environmental conditions such as operating time and temperature
If a target image is newly input as a record, it is divided into areas, the feature amount is calculated, and images with similar feature amounts are searched from the database to determine the state. Is the way to do it.

【0054】図5を用いて材料劣化診断部5の第一の実
施例の処理の流れを次に説明する。41の診断対象別特
徴量格納手段は、動翼など特定の形状の対象について、
予め決めた領域毎に色に関する情報を抽出し、それを運
転時間等の環境条件と共に格納しておく手段である。具
体的な格納のフォーマットの例を図6に示す。
The process flow of the first embodiment of the material deterioration diagnosis unit 5 will be described below with reference to FIG. The diagnostic object-specific feature quantity storage means 41 is for an object of a specific shape such as a moving blade,
This is a means for extracting information regarding colors for each predetermined area and storing it together with environmental conditions such as operating time. FIG. 6 shows an example of a specific storage format.

【0055】図6の表は、診断対象別特徴量格納手段の
格納フォーマットの例であり、51a,51b,51c
は、ある条件の下で運転された部品を撮影した画像であ
る。これら51a,51b,51cの画像はそれぞれ表
中のレコード52a,52b,52cに対応しており、
各画像は、それぞれの対応するレコードから参照可能と
する。表中の53から60は、各画像に関する属性情報
である。53から56は既知の運転環境に関する情報
で、例えば部品種類,プラント名,材料,運転時間など
である。57は推定された、もしくは得られる場合には
実測の温度条件である。58,59は画像から得られた
領域別特徴量である。特徴量については後述する。60
は各画像についての診断結果であり、例えばガスタービ
ンの動翼の場合は推定される運転温度や寿命などであ
る。これらの属性情報をレコードとしてデータベースを
蓄積していくと、53〜56のような属性情報により類
似の属性にある部品群が特定でき、またそれらの部品群
の画像から類似性が抽出できる。
The table of FIG. 6 is an example of the storage format of the feature quantity storage means for each diagnosis object, and is 51a, 51b, 51c.
Is an image of a part operated under certain conditions. The images of these 51a, 51b, 51c correspond to the records 52a, 52b, 52c in the table, respectively,
Each image can be referenced from its corresponding record. 53 to 60 in the table are attribute information regarding each image. Reference numerals 53 to 56 are information relating to a known operating environment, for example, parts type, plant name, material, operating time, and the like. Reference numeral 57 is an estimated or actually measured temperature condition when it is obtained. Reference numerals 58 and 59 are region-specific feature amounts obtained from the image. The feature amount will be described later. 60
Is a diagnostic result for each image, and is, for example, an estimated operating temperature or life in the case of a moving blade of a gas turbine. By accumulating the database using these attribute information as records, the component groups having similar attributes can be specified by the attribute information such as 53 to 56, and the similarity can be extracted from the images of those component groups.

【0056】以上の診断対象別特徴量格納手段1のフォ
ーマットをふまえ、図5の処理の流れを説明する。処理
42は、3D形状より表面上の領域を分割する処理であ
る。処理43は、領域別に特徴量を算出する処理であ
る。処理44は、処理3で算出された特徴量から、診断
対象別特徴量格納手段41を参照し、特徴量が類似して
いるレコードを抽出してその内容から状態判定を行う処
理である。処理45は、処理44で判定した画像に関す
る情報をDBに登録する処理である。処理46は、処理
44の判定結果を出力する手段である。以上の処理によ
り、動翼など形状の決まった部品を撮影した画像から、
その表面状態に対して同じ基準で特徴量を抽出し、表面
状態が類似したデータをデータベースから容易に検索し
て状態判定を行うことができる。
Based on the format of the diagnostic target feature quantity storage means 1 described above, the flow of the processing in FIG. 5 will be described. The process 42 is a process of dividing an area on the surface from the 3D shape. The process 43 is a process of calculating a feature amount for each area. The process 44 is a process of referring to the diagnostic target feature amount storage unit 41 from the feature amount calculated in the process 3, extracting records having similar feature amounts, and determining the state from the contents. Process 45 is a process of registering information regarding the image determined in process 44 in the DB. Process 46 is means for outputting the determination result of process 44. By the above processing, from the images of parts with fixed shapes such as moving blades,
It is possible to extract the feature amount based on the same reference for the surface state and easily search the database for data having a similar surface state to determine the state.

【0057】処理42の、表面上の領域を分割する方法
について次に説明する。図7は動翼の表面の領域の分割
方法の例である。図中の61a,61b,61c,61
dがそれぞれ表面上の領域境界線を表し、各境界線に囲
まれた領域が分割された個々の領域を表す。3Dの形状
に基づき定義できるため、画像がいかなる角度で撮影さ
れた場合でも常に同じ領域を定義することができる。3
D形状の情報がないと、図7に示すように表面上の曲面
を考慮した形で領域分割をすることは難しい。領域の分
割方法は、その部品の劣化の特徴を最も表し易く、か
つ、検索等の便宜を考慮して多くなりすぎないよう適切
に決める必要がある。決定の基準としては、検査員が目
視で判断する際に、部品の表面上のどの領域をどのよう
な順番で見て判断しているかを考慮して決めるのが適切
である。
A method of dividing the area on the surface in the process 42 will be described below. FIG. 7 shows an example of a method of dividing the surface area of the rotor blade. 61a, 61b, 61c, 61 in the figure
Each d represents an area boundary line on the surface, and the area surrounded by each boundary line represents each divided area. Since it can be defined based on the 3D shape, the same area can always be defined regardless of the angle at which the image is captured. Three
If there is no D shape information, it is difficult to perform area division in consideration of the curved surface on the surface as shown in FIG. 7. It is necessary to appropriately determine the area division method so that the characteristics of the deterioration of the part are most easily expressed and that the number of areas does not become too large in consideration of convenience such as retrieval. As a criterion for determination, it is appropriate to determine which region on the surface of the component is to be seen and in what order when the inspector visually determines.

【0058】また、検索等の処理の負荷を許容するとす
れば、領域の大きさをある程度小さめに設定し(例えば
3cm角など)一定にしておき各領域の特徴量を求めるこ
とで類似度を求めることも可能である。
If the load of processing such as retrieval is allowed, the size of the area is set to be somewhat small (for example, 3 cm square) and kept constant, and the feature amount of each area is calculated to obtain the similarity. It is also possible.

【0059】次に、処理43の内容につき更に詳しく説
明する。ここで扱う領域別特徴量は、処理2で分割され
た各領域に関する色情報を抽出し、色情報の平均値,分
散,最頻度値などの情報を用い、該領域の色彩上の特徴
を表す数値データを算出する処理である。
Next, the contents of the process 43 will be described in more detail. The area-based feature amount is obtained by extracting color information about each area divided in the process 2, and using information such as the average value, variance, and most frequent value of the color information to represent the color characteristics of the area. This is a process of calculating numerical data.

【0060】本処理は、該当する領域の座標の範囲を
(X0,Y0)…(Xi,Yj)とすると、そこに含ま
れる全ての画素の色情報につき平均,分散を計算し、ま
た分布情報などを取り、最頻度値を計算する処理であ
る。
In this processing, assuming that the coordinate range of the corresponding area is (X0, Y0) ... (Xi, Yj), the average and variance of the color information of all the pixels included therein are calculated, and the distribution information is calculated. Is a process for calculating the most frequent value.

【0061】ここで、説明の便宜のため、色の情報の数
値化について概要を説明する。デジタル化された画像に
おける色の表現は、通常、画素毎にR(赤),G
(緑),B(青)の3つの値で一意に定義される値とし
て表される。RGBの各色要素につき0から255まで
の値を取り、(0,0,0)は黒、(255,255,2
55)は白,赤(255,0,0),緑(0,255,
0),青(0,0,255)となる。
Here, for convenience of explanation, an outline will be given of digitization of color information. The representation of colors in a digitized image is usually R (red), G for each pixel.
It is expressed as a value uniquely defined by three values of (green) and B (blue). Each color element of RGB takes a value from 0 to 255, (0,0,0) is black, (255,255,2)
55) is white, red (255,0,0), green (0,255,
0) and blue (0, 0, 255).

【0062】このRGB表色系を基準とし、例えばXY
Z系はRGBの線形変換式で表せるし、Lab,HSB
等の表示系もXYZの値から変換式を使って表せる。
Based on this RGB color system, for example, XY
Z system can be expressed by RGB linear conversion formula, Lab, HSB
The display system such as can also be expressed from the XYZ values using a conversion formula.

【0063】 X=0.412*R+0.358*G+0.180*B Y=0.213*R+0.715*G+0.072*B Z=0.019*R+0.119*G+0.950*B …(数3) L=116.0*(Y/100)(1/3)−16 a=500*(XXn−YYn) b=200*(YYn−ZZn) …(数4) 但し X/95.04>0.008856のとき XXn=(X/95.04)(1/3) X/95.04≦0.008856のとき XXn=7.787*(X/95.04)+16/116 Y/100.0>0.008856のとき YYn=(Y/100)(1/3) Y/100.0≦0.008856のとき YYn=7.787*(Y/100)+16/116 Z/108.89>0.008856のとき ZZn=(Z/108.89)(1/3) Z/108.89≦0.008856のとき ZZn=7.787*(Z/108.89)+16/116 RGBは3つのベクトルのそれぞれの数値の大きさで一
意に定義された色を表現するのに対し、Lab表色系
は、色の明るさをL、色の赤−緑成分をa、色の黄−青
成分をbとして分離して表現できるため、比較的照明の
変動に強く、またaとbの2軸で、色味の変化を表現し
易い。
X = 0.412 * R + 0.358 * G + 0.180 * B Y = 0.213 * R + 0.715 * G + 0.072 * B Z = 0.019 * R + 0.119 * G + 0.950 * B ... ( Formula 3) L = 116.0 * (Y / 100) (1/3) -16 a = 500 * (XXn-YYn) b = 200 * (YYn-ZZn) (Formula 4) However, X / 95.04 > 0.008856 XXn = (X / 95.04) (1/3) X / 95.04 ≦ 0.008856 XXn = 7.787 * (X / 95.04) +16/116 Y / 100 When 0.0> 0.008856 YYn = (Y / 100) (1/3) When Y / 100.0 ≦ 0.0088856 YYn = 7.787 * (Y / 100) +16/116 Z / 108.89 > ZZn = (Z / 108.89) when 0.008856 (1/3) Z / 108.89 ≦ 0.008856 When ZZn = 7.787 * (Z / 108.89) +16/116 RGB expresses a color uniquely defined by the size of the numerical value of each of the three vectors, while the Lab color system The brightness can be separated and expressed as L, the red-green component of the color as a, and the yellow-blue component of the color as b, so it is relatively resistant to fluctuations in illumination, and the two axes of a and b give the tint. It is easy to express the change of.

【0064】このように、色を数値化するにあたり表現
系は基本的にどれを用いても良いが、色の表現系により
様々な特徴があるため、材料毎にきまる色の変化特性を
より的確に表現できる表現系を選択するのが良い。ここ
では例としてLabを用いる。
As described above, basically any expression system may be used for digitizing the color, but since there are various characteristics depending on the color expression system, the color change characteristics determined by each material can be more accurately determined. It is good to select an expression system that can be expressed in. Here, Lab is used as an example.

【0065】図5の処理43では領域毎の色の平均値・
分散等を算出するが、以上に述べたように色は3次元の
値で表されるため、平均・分散等も各数値毎に独立に算
出する。
In the process 43 of FIG. 5, the average value of colors for each area
The variance or the like is calculated, but since the color is represented by a three-dimensional value as described above, the average, variance, etc. are calculated independently for each numerical value.

【0066】特徴量として平均値を用いるか、該当する
色の画素数が最も多いモード値を用いるかは、二つの値
がかけ離れている場合は考慮が必要である。ここでの目
的は領域ごとの色彩上の特徴を最もよくあらわす値を選
ぶことであるので、一例としては領域の大きさ毎に分散
のしきい値を決めておき、分散がしきい値以上の場合は
平均値の信頼性が低いとしてモード値を用いるなど切り
かえるのも一方法である。
Whether the average value is used as the feature amount or the mode value having the largest number of pixels of the corresponding color is used needs to be considered when the two values are far from each other. Since the purpose here is to select the value that best represents the color characteristics of each area, as an example, the threshold of dispersion is determined for each size of the area, and the dispersion is equal to or greater than the threshold. In this case, it is also possible to change the mode value by using a mode value because the reliability of the average value is low.

【0067】次に、処理44について更に詳しく説明す
る。処理44は、処理43で抽出した特徴量に対して、
診断対象別特徴量格納手段41に予め格納してある画像
特徴量データから類似のものを検索する手段である。類
似度の判定方法としては、最も単純な方法としては、領
域別特徴量の値の誤差の総和が最も小さくなるようなも
のを選出する方法が挙げられる。また、該当する部品
を、検査員が目視検査する際に、表面のどの部位をどの
ような順序で見るかにより、各特徴量の誤差に重み付け
をして総和をとる方法も考えられる。また、誤差の計算
をする際に、色の3つの値(RGB,Labなど)の3
つ全てを使うので無く、たとえばLab表色系を使う場
合、aとbの値の誤差のみで評価を行う方法もある。こ
の場合は色自体の輝度に関わらず、色味のみで類似度を
判定できる効果がある。
Next, the process 44 will be described in more detail. The process 44 is based on the feature amount extracted in the process 43.
It is a means for retrieving similar ones from the image feature amount data stored in advance in the feature amount storage means 41 for each diagnosis object. The simplest method for determining the degree of similarity is to select a method that minimizes the sum of the error in the value of the feature quantity for each area. In addition, when an inspector visually inspects the relevant parts, a method of weighting the errors of the respective feature amounts and summing them may be considered depending on which part of the surface is to be seen and in what order. In addition, when calculating the error, three values of three values of color (RGB, Lab, etc.)
There is also a method of performing evaluation using only the error between the values of a and b when using the Lab color system, instead of using all three. In this case, there is an effect that the similarity can be determined only by the tint regardless of the brightness of the color itself.

【0068】また、類似度の高いデータを必ずしも1つ
に限定するばかりでなく、類似度の高いものをN件、も
しくは、類似度を判定する誤差の値にしきい値を設けて
おき、しきい値以下になるものを全て候補として選出
し、それらの中から画像を直接見ることで最終的な判定
はユーザにさせる方法をとることもできる。
Further, the number of data having a high degree of similarity is not necessarily limited to one, but N cases having a high degree of similarity or a threshold value is set for the error value for judging the degree of similarity. It is also possible to select all the values which are less than the value as candidates and directly look at the image from them to make the final determination by the user.

【0069】以上、図5の処理により、輝度ノイズ処理
部3で3次元形状に色の情報を投影し、ノイズを除去し
た3次元の位置情報を持った画像情報から、入力した画
像の撮影角度の違いに関わらず同じ基準で部品表面の特
徴量を抽出し、類似度を比較することができる。
As described above, according to the processing of FIG. 5, the luminance noise processing unit 3 projects color information on a three-dimensional shape, and from the image information having the three-dimensional position information with noise removed, the photographing angle of the input image is obtained. It is possible to extract the feature amount of the component surface and compare the similarities with each other regardless of the difference.

【0070】次に、図4の材料劣化診断部5の第二の実
施例の処理の流れを説明する。
Next, the processing flow of the second embodiment of the material deterioration diagnosis unit 5 of FIG. 4 will be described.

【0071】第二の実施例は、予め、加熱温度や時間等
の環境条件が既知の試験片を撮影し、その画像から色情
報を抽出することで、外的環境と材料表面色のデータベ
ースを作成しておき、それを基に、図4の輝度ノイズ処
理部からの出力である、3次元の位置情報を持ち、輝度
ノイズも除去した画像の色から、評価対象の受けた環境
条件を推定する方法である。
In the second embodiment, a test piece of which environmental conditions such as heating temperature and time are known is photographed in advance, and color information is extracted from the image to obtain a database of external environment and material surface color. Created and based on this, estimate the environmental conditions received by the evaluation target from the color of the image that has the three-dimensional position information output from the luminance noise processing unit in FIG. Is the way to do it.

【0072】図8を用いて、具体的な処理の流れを説明
する。図8の71は、材料表面色データ格納手段であ
る。この手段は、予め評価対象となる材料につき、評価
する物理的特性と、その場合の表面色との関係を、推定
の必要なランク別に格納したものである。
A specific processing flow will be described with reference to FIG. Reference numeral 71 in FIG. 8 is a material surface color data storage means. This means stores the relationship between the physical properties to be evaluated and the surface color in that case for each material to be evaluated in advance for each rank that requires estimation.

【0073】格納形式の例を図9に示す。ある材料Xに
ついて運転時間がわかっており、そのとき材料が運転さ
れている環境の運転温度が知りたい場合を例にとる。例
えば温度の識別の必要な範囲が500度以下,500度
〜1000度,1000度以上、の3つのランクにわか
れているとすると、それぞれのランクで表面色の色評価
値がどのような値を取っているかを図9のように定義す
る。
An example of the storage format is shown in FIG. For example, assume that the operating time of a certain material X is known and the operating temperature of the environment in which the material is operating is desired to be known. For example, if the range required for temperature identification is divided into three ranks of 500 degrees or less, 500 degrees to 1000 degrees, and 1000 degrees or more, what value is the color evaluation value of the surface color in each rank? Whether or not it is defined is defined as shown in FIG.

【0074】図9から、例えば材料が400度から50
0度の間で運転されていたとすると、a値は8から1
5、b値は10から30の値を取る。また501度から
1000度で運転されていたとするとa値は2から5、b値
は−3から10の値を取る。1000度以上であった場
合、Lの値が40以下となる。この例では簡単のためラ
ンクを3つとしたが、実際の材料毎に、その物理的特性
の変化を知る必要のあるランクの数だけ適宜分類するも
のとする。
From FIG. 9, for example, the material is 400 degrees to 50 degrees.
If it was operated between 0 degrees, the a value would be 8 to 1.
5 and b values take values from 10 to 30. Also from 501 degrees
If it is operated at 1000 degrees, the a value will be 2 to 5, and the b value will be -3 to 10. When it is 1000 degrees or more, the value of L is 40 or less. In this example, there are three ranks for simplification, but each actual material is appropriately classified by the number of ranks for which it is necessary to know the change in the physical characteristics.

【0075】また、カメラ等で撮影される物体の色は、
撮影する照明の種類により異なってくるため、材料表面
色データ格納手段2で定義する色は、予め定めた基準と
なる光源の下で撮影した場合の値を定義すると良い。例
えば、物体の色を偏り無く表示し易い白色光源などを用
いると良い。このように、材料の物理的特性のランク別
に、その状態で呈する色をいずれかの色表現系(La
b,XYZなど)の値で整理するのが材料表面色データ
格納手段2である。
The color of an object photographed by a camera is
The color defined by the material surface color data storage means 2 should be defined as a value when the image is captured under a light source that serves as a predetermined reference, because it depends on the type of illumination to be captured. For example, it is preferable to use a white light source or the like that can easily display the color of the object without any bias. In this way, the color to be exhibited in that state is classified into one of the color representation systems (La
b, XYZ, etc.) is the material surface color data storage means 2.

【0076】処理72は、図4の輝度ノイズ除去処理部
3からの出力の3D形状画像データを入力する処理であ
る。処理73は、入力した対象の画像から、材料表面色
データ格納手段3に格納された物理的特性ランク別に領
域を抽出する手段である。この処理については後でさら
に詳しく説明する。処理74は処理73で抽出された色
ランク別の領域情報から、評価対象の状態を推定する手
段である。この処理についてもあとで詳しく説明する。
処理75は処理74で判定した評価対象の状態を出力す
る手段である。以上の処理により、材料劣化診断部4の
第二の実施形態が実現できる。
The process 72 is a process for inputting the 3D shape image data output from the luminance noise removal processing unit 3 in FIG. The process 73 is means for extracting an area from the input target image for each physical characteristic rank stored in the material surface color data storage means 3. This process will be described in more detail later. Process 74 is means for estimating the state of the evaluation target from the area information for each color rank extracted in process 73. This process will also be described in detail later.
Process 75 is means for outputting the state of the evaluation target determined in process 74. With the above processing, the second embodiment of the material deterioration diagnosis unit 4 can be realized.

【0077】処理73について、更に詳しい処理の流れ
を図10に示す。この例では、画像の色情報はRGBで
持っており、物理的特性ランクはLab表色系で格納し
ていることを仮定して説明する。
FIG. 10 shows a more detailed processing flow of the processing 73. In this example, it is assumed that the color information of the image is RGB and the physical characteristic rank is stored in the Lab color system.

【0078】処理91は、画像から画素Iの色評価値R
GBを読み出す処理である。処理92は、処理1で読み
出した画素Iの色評価値を、数4を用いLab表色系に
変換する。処理93は、処理2で変換したLab表色系
での色評価値を、材料特性格納手段3に格納した値と照
合し、画素Iの色評価値が図9の1,2,3のいずれの
ランクに所属するかを決定する。処理94は、処理3で
決定したランクを格納する処理である。x,yの画素値
とランク値を対応させて格納する。処理95は、Iの値
に1をプラスし評価対象とする画素値を一つ先へ進め
る。処理96は、全画素について上記の処理が終了した
かをチェックする。Iの値が画像全画素数より小さけれ
ば処理1へ戻り、画像全画素数以上なら以上の処理を終
了する。
The processing 91 is to perform the color evaluation value R of the pixel I from the image.
This is a process of reading GB. A process 92 converts the color evaluation value of the pixel I read in the process 1 into the Lab color system using the equation (4). In process 93, the color evaluation value in the Lab color system converted in process 2 is compared with the value stored in the material property storage unit 3, and the color evaluation value of the pixel I is any one of 1, 2, and 3 in FIG. Decide whether to belong to the rank. The process 94 is a process of storing the rank determined in the process 3. The pixel values of x and y are associated with each other and stored. In the process 95, 1 is added to the value of I and the pixel value to be evaluated is advanced by one. The process 96 checks whether the above process has been completed for all pixels. If the value of I is smaller than the total number of pixels of the image, the process returns to step 1, and if it is equal to or larger than the total number of pixels of the image, the above process is terminated.

【0079】以上の処理により対象となる画像をランク
分けする。すなわち画素毎に、その色の値からしきい値
を決め多値化するようなものである。
By the above processing, the target image is ranked. That is, the threshold value is determined for each pixel from the value of the color and the value is converted into multiple values.

【0080】図11は、タービンの動翼を撮影した画像
のイメージを例示した図である。1はタービンの動翼
で、2,3,4はそれぞれ表面色が異なる領域である。
この例で2の領域は色が一様でなくムラがある。しかし
図8で説明した条件別色抽出73の処理を用いると、図
中の2で囲まれた領域の全ての画素のLab評価値の値
は、図9のランク2に分類される領域に入っており、結
果的にタービンの表面上の色を画素別にランク分けした
結果は図12のようになる。
FIG. 11 is a view exemplifying an image of an image of a moving blade of a turbine. Reference numeral 1 is a turbine rotor blade, and reference numerals 2, 3 and 4 are areas having different surface colors.
In this example, the area 2 is not uniform in color and has unevenness. However, when the processing of the color extraction by condition 73 described in FIG. 8 is used, the Lab evaluation values of all pixels in the area surrounded by 2 in the figure fall within the area classified into rank 2 in FIG. As a result, the result of ranking the colors on the surface of the turbine by pixel is as shown in FIG.

【0081】次に図8の処理74につき更に詳しく説明
する。ここでの状態判定は、処理73からの出力である
色ランク別領域情報から、材料の物理的情報に関する状
態判定結果を出力する手段である。最も単純な出力とし
ては、ランク分けの結果最も高温の影響を受けている領
域の座標に関する情報である。図12では114の動翼
先端部にあたる。この領域座標を3Dの形状で提示され
ることで、ユーザは部品の最も劣化の深刻な部位に関す
る情報を得ることができる。
Next, the process 74 of FIG. 8 will be described in more detail. The state determination here is means for outputting the state determination result regarding the physical information of the material from the color rank area information output from the process 73. The simplest output is information regarding the coordinates of the region most affected by the highest temperature as a result of ranking. In FIG. 12, it corresponds to the tip of the moving blade 114. By presenting the region coordinates in a 3D shape, the user can obtain information regarding the part of the component that is most seriously deteriorated.

【0082】また、更に別の状態判定の方法としては、
ランク別の面積情報を算出して提示する方法である。画
像上の各画素のランクが既知であるので、部品の3D形
状の表面積情報とランク別画素数からランク別の面積を
算出することは可能である。
Further, as still another state determination method,
This is a method of calculating and presenting area information for each rank. Since the rank of each pixel on the image is known, it is possible to calculate the area for each rank from the surface area information of the 3D shape of the part and the number of pixels for each rank.

【0083】このような劣化の状態別の面積情報は、劣
化の程度を判定するのに有効に用いることができる。撮
影した2次元の画像のみからでは3次元物体の表面積の
情報は正確に得ることができない。3次元CADデータ
を用いることで、これらのような効果も劣化診断を行う
上で得ることができる。
The area information for each state of deterioration can be effectively used for determining the degree of deterioration. Information on the surface area of a three-dimensional object cannot be accurately obtained from only the captured two-dimensional image. By using the three-dimensional CAD data, these effects can also be obtained in the deterioration diagnosis.

【0084】以上の実施例は、評価対象の画像を撮影す
る環境における照明の位置や強度が既知の場合を想定し
ているが、実際にはそれらを測る手段が無かったり、情
報の精度が低かったりする可能性がある。
In the above embodiments, it is assumed that the position and intensity of the illumination in the environment where the image to be evaluated is photographed are known, but in practice there is no means to measure them or the accuracy of the information is low. There is a possibility that

【0085】そのような場合には、画像上の色の境界が
明らかな部分を影の候補領域と仮定し、影の候補領域の
エッジ部分と対象の3次元形状座標から逆に照明の位置
を推定することが可能である。例えば図13の121,
122のような立体形状があり、その表面に123のよ
うな、周辺と色の異なる領域がある。この領域を表面上
に映った影と仮定し、3次元の形状から影候補領域のエ
ッジ部分と、3次元形状から推定される突起部分とを結
ぶ線124a,124b等を作成し、その延長上に照明
の位置125を推定する。
In such a case, it is assumed that a portion where the color boundary on the image is clear is a shadow candidate area, and the position of the illumination is determined from the edge portion of the shadow candidate area and the three-dimensional shape coordinate of the object. It is possible to estimate. For example, 121 in FIG.
There is a three-dimensional shape such as 122, and there is a region such as 123 whose color is different from that of the surrounding area on the surface. Assuming that this area is a shadow projected on the surface, lines 124a and 124b connecting the edge portion of the shadow candidate area and the projection portion estimated from the three-dimensional shape are created from the three-dimensional shape, and the lines are extended. Estimate the lighting position 125.

【0086】また、評価対象の表面の色自体が暗く、光
による陰影の影響が出にくい場合には、評価対象と一緒
に長さが既知の棒を垂直に立てるなどして、その影から
照明の位置を推定する方法をとることもできる。
If the surface of the object to be evaluated is dark in color itself and the influence of light on the shadow is unlikely to occur, a rod of known length is set up vertically with the object to be evaluated, and the shadow is illuminated. It is also possible to use a method of estimating the position of.

【0087】また、照明の強度については、影領域12
6の輝度と影以外の領域127の輝度の差が照明5の影
響で発生していると仮定し、数2に、影領域6の色をC
s、影以外領域7の色をCとして代入することで、光の
強さsが求まる。
As for the intensity of illumination, the shadow area 12
Assuming that the difference between the brightness of the shadow area 6 and the brightness of the area 127 other than the shadow occurs due to the influence of the illumination 5, the color of the shadow area 6 is C
By substituting the color of the area 7 other than s and the shadow as C, the light intensity s can be obtained.

【0088】照明の位置や強度を予め求め難い場合は以
上のような方法を用いれば良いが、他の方法としては屋
外で撮影する方法がある。屋外の場合は太陽が照明光で
あり、撮影時刻と撮影地点の緯度経度がわかっていれば
太陽の緯度経度は既知であるので、同様に数2を用いて
求めることができる。
When it is difficult to obtain the position and intensity of illumination in advance, the above method may be used, but another method is to take a picture outdoors. In the case of outdoors, the sun is the illumination light, and the latitude and longitude of the sun are known if the shooting time and the latitude and longitude of the shooting point are known.

【0089】≪実施例3≫次に、本発明による画像診断
装置の実施例3を説明する。
<< Third Embodiment >> Next, a third embodiment of the image diagnostic apparatus according to the present invention will be described.

【0090】図14は、実施例3の構成を示すブロック
図である。これは実施例2の構成に、固体番号照合部7
を加えた構成である。
FIG. 14 is a block diagram showing the configuration of the third embodiment. This is the same as the second embodiment except that the individual number collation unit 7
It is a configuration in which.

【0091】タービン動翼などの部品には、通常固体別
管理のため表面に固体番号が刻印されている。固体番号
照合部7は、評価対象の画像を撮影する際に、これら固
体番号も共に撮影し、画像を入力した際にまず固体番号
を画像処理で読み取ることで撮影対象の固体番号を識別
し、固体番号をキーに3次元CADデータを検索し該当
するデータを抽出する処理である。
Parts such as turbine rotor blades are usually engraved with a solid number on the surface for individual management. The individual number collation unit 7 also captures these individual numbers when capturing an image of an evaluation target, and when the image is input, first identifies the individual number of the capturing target by reading the individual number by image processing, This is a process of searching the three-dimensional CAD data using the individual number as a key and extracting the corresponding data.

【0092】この構成を用いることで、画像を撮影する
際に固体番号を意識したり、また画像データと共に固体
番号情報を送ったりする必要が無くなり、画像撮影現場
での作業量の削減,省情報量化を図ることができる。
By using this configuration, it is not necessary to be aware of the individual number when capturing an image or to transmit the individual number information together with the image data, which reduces the amount of work at the image capturing site and saves information. It can be quantified.

【0093】≪実施例4≫次に、本発明による画像診断
装置の実施例4を説明する。
<< Fourth Embodiment >> Next, a fourth embodiment of the image diagnostic apparatus according to the present invention will be described.

【0094】図15は、実施例4の構成を示すブロック
図である。これは実施例2の構成に、過去画像データ8
の蓄積部を加えた構成である。過去画像データ8は、評
価対象の画像を輝度ノイズ除去処理部3で3次元形状に
投影し、輝度ノイズを除去して物体自体の持つ色に変換
した画像データ、もしくは図5で説明した特徴量データ
などである。
FIG. 15 is a block diagram showing the structure of the fourth embodiment. This is the same as the second embodiment except that the past image data 8
This is a configuration in which a storage unit of is added. The past image data 8 is image data obtained by projecting an image to be evaluated into a three-dimensional shape by the luminance noise removal processing unit 3 and removing the luminance noise to convert it into the color of the object itself, or the feature amount described in FIG. Data etc.

【0095】本実施例の構成では、材料劣化診断部5
で、過去画像データと、今回新規に入力された画像デー
タとを比較することで時系列の表面状態の変化を定量的
に評価することができる。例えば、3次元に投影した画
像の表面の各画素ごとに色の差分をとり、色の変化量の
分布を算出する。これにより、色の変化が大きい部分が
劣化の度合いが高いと仮定すると、劣化の進行の速い部
分を特定することができる。
In the configuration of this embodiment, the material deterioration diagnosis unit 5
Then, by comparing the past image data with the image data newly input this time, it is possible to quantitatively evaluate the change in the surface state in time series. For example, the color difference is calculated for each pixel on the surface of a three-dimensionally projected image, and the distribution of color change amounts is calculated. As a result, if it is assumed that the degree of deterioration is high in the part where the color change is large, the part in which the deterioration progresses quickly can be specified.

【0096】≪実施例5≫次に、本発明による画像診断
装置の実施例5を説明する。
<< Fifth Embodiment >> Next, a fifth embodiment of the image diagnostic apparatus according to the present invention will be described.

【0097】図16は、実施例5の構成を示すブロック
図である。これは実施例2の構成に、照明影響除去処理
部9を加えた構成である。照明影響除去処理部9は、不
明の照明の下で撮影した対象の色情報を、基準となる照
明の下で撮影した色情報に変換する手段である。
FIG. 16 is a block diagram showing the structure of the fifth embodiment. This is a configuration in which the illumination effect removal processing unit 9 is added to the configuration of the second embodiment. The illumination effect removal processing unit 9 is a unit that converts the color information of the target captured under the unknown illumination into the color information captured under the reference illumination.

【0098】照明の影響につき図17を用いて説明す
る。図中の171の枠で囲んだ環境は、基準照明の下で
対象を撮影する環境、172の枠で囲んだ環境は条件が
不明な照明の下で対象を撮影する環境である。図中の1
73a,173bは同一の撮影対象である。174a,
174bは同一のカメラであり、175は基準光源、1
76は条件が不明の光源である。177aは基準光源1
75の下で対象2aをカメラ174aで撮影した画像、
177bは不明な光源176の下で対象173bをカメラ
174bで撮影した画像である。
The effect of illumination will be described with reference to FIG. The environment surrounded by a frame 171 in the figure is an environment in which an object is imaged under reference illumination, and the environment surrounded by a frame 172 is an environment in which an object is imaged under illumination under unknown conditions. 1 in the figure
73a and 173b are the same photographing target. 174a,
174b is the same camera, 175 is a reference light source,
Reference numeral 76 is a light source whose condition is unknown. 177a is the reference light source 1
An image of the object 2a taken by the camera 174a under 75,
Reference numeral 177b is an image obtained by photographing the target 173b with the camera 174b under the unknown light source 176.

【0099】すなわち環境171,環境172では照明
条件を変えて対象を撮影しているため、それぞれの条件
の下で撮影した画像である177a,177bから抽出
した色情報は照明の影響で異なっていると考えられる。
対象を撮影した画像から色情報を抽出し、材料劣化診断
部5で評価を行うため、照明条件を基準照明の下で撮影
したものを用いる必要がある。
That is, in environment 171, environment 172, since the object is photographed under different illumination conditions, the color information extracted from the images 177a and 177b photographed under each condition is different due to the influence of illumination. it is conceivable that.
Since the color information is extracted from the image of the imaged object and evaluated by the material deterioration diagnosis unit 5, it is necessary to use the imaged image under the reference illumination.

【0100】そこで、照明影響除去処理部9は、現場な
ど撮影条件不明の光源の下で撮影した画像177bを、
基準光源の下で撮影した画像177aに変換する手段で
ある。
Therefore, the illumination effect elimination processing section 9 changes the image 177b taken under a light source whose shooting conditions are unknown, such as on-site,
It is means for converting into an image 177a taken under a reference light source.

【0101】照明の影響を補正する手段としては、例え
ば特開2001−69363号に記載のような、パッチ
画像を用いて画像の色を補正する方法などを用いること
ができる。この手法は、色の評価値(RGBなど)が既
知の複数の色見本を、評価対象を撮影すると同一の環境
(照明条件等)で撮影した画像から、各色見本の色の評
価値を抽出し、各色見本の既知の色と画像上の色のずれ
から、撮影環境での色と実際の(基準光源の下での)色
を推定する方法である。
As a means for correcting the influence of illumination, there can be used, for example, a method for correcting the color of an image using a patch image as described in JP-A-2001-69363. This method extracts the evaluation value of each color sample from an image obtained by shooting a plurality of color samples whose color evaluation values (RGB, etc.) are known in the same environment (lighting conditions etc.) when the evaluation target is photographed. This is a method of estimating the color in the shooting environment and the actual color (under the reference light source) from the deviation between the known color of each color sample and the color on the image.

【0102】この手法は色の3成分(CMY)の各成分
の値を均等間隔に区切った結果の複数色を色見本として
採用した方法であり、全ての色分布を総合的に補正する
ことを考慮した補正方法である。
This method is a method in which a plurality of colors obtained by dividing the values of the three components of the color (CMY) into equal intervals are adopted as color samples, and it is possible to comprehensively correct all color distributions. This is a correction method that takes into consideration.

【0103】この方法では、色見本として用いる色の数
が多いほど、色の再現精度は上がることになるが、考え
られる色の組み合わせは2563 =16777216通
り(RGB各値が0−255の値を取るため)となるた
め、色見本としてとれる色の数も限られることになる。
In this method, the larger the number of colors used as the color sample, the higher the color reproduction accuracy, but there are 256 3 = 16777216 possible combinations of colors (each RGB value is a value of 0-255). Therefore, the number of colors that can be taken as a color sample will be limited.

【0104】以上を考慮し、本発明に用いる照明影響除
去処理部の第一の実施例は、サンプルの色見本に選定す
る色として、評価の対象とする材料の色の変化する範囲
の色サンプルを多く取り、その範囲の色の再現精度を上
げる方法である。
In consideration of the above, the first embodiment of the illumination influence removal processing unit used in the present invention is the color sample in the range where the color of the material to be evaluated changes as the color selected for the color sample of the sample. This is a method of increasing the accuracy of color reproduction within that range.

【0105】本発明では、図9で説明したように、材料
により、表面色の変化する範囲が限定できる。従って公
知例の特開2001−69363号のように、色を全体
として精度良く再現するのでなく、評価対象の特性に応
じて表面色の色再現精度を上げる方法である。
In the present invention, as described with reference to FIG. 9, the range in which the surface color changes can be limited depending on the material. Therefore, it is a method of increasing the color reproduction accuracy of the surface color according to the characteristics of the evaluation target, rather than accurately reproducing the color as a whole as in the known example of Japanese Patent Laid-Open No. 2001-69363.

【0106】また、照明影響除去処理部の第二の実施例
は、評価対象の材料において図9のように材料の物理的
状態をランク付けしているのを利用し、各ランクの色評
価値の中間値・最大値・最小値を算出して、各ランクの
平均の色を再現した色見本をつくり、その色見本を評価
対象物と共に撮影する。撮影した画像中の色見本領域の
画素から抽出した色の数値は、対象部品を評価する環境
下での各ランクの色評価値であるから、各ランクの色の
範囲はこの中間値を中心に平行移動したと仮定して、図
9における各ランク別色評価値を、そのまま対象を撮影
する不明環境下における評価値として換算することがで
きる。
The second embodiment of the illumination effect removal processing section uses the fact that the physical state of the material to be evaluated is ranked as shown in FIG. 9, and the color evaluation value of each rank is used. By calculating the intermediate value, maximum value, and minimum value of, a color sample that reproduces the average color of each rank is created, and the color sample is photographed together with the evaluation target. Since the numerical values of the colors extracted from the pixels in the color sample area in the captured image are the color evaluation values of each rank under the environment in which the target component is evaluated, the range of colors of each rank is centered around this intermediate value. Assuming that the color is moved in parallel, each rank-based color evaluation value in FIG. 9 can be converted as it is as an evaluation value in an unknown environment in which the target is photographed.

【0107】すなわち、照明影響除去処理部の第二の実
施例は、撮影した画像でなく、材料の特性別に格納した
色の値を変換することで、材料の状態を評価する条件を
そろえる作用となる。
That is, the second embodiment of the illumination effect elimination processing section has the function of adjusting the condition for evaluating the state of the material by converting the color value stored for each characteristic of the material instead of the photographed image. Become.

【0108】以上二つの実施例は、考え方は同じである
が実施の形態が異なるため、処理時間の制約等に応じ使
い分けるとよい。
The above-described two examples have the same idea but different embodiments, and therefore it is preferable to use them properly according to the processing time constraints and the like.

【0109】次に、図18を用いて、本発明による画像
診断システムの実施形態を説明する。
Next, an embodiment of the image diagnostic system according to the present invention will be described with reference to FIG.

【0110】図中の146a,146b…等は、評価の
対象となる部品を使用している現場である。151は、
これら複数の現場146a,146b…で運転されてい
る部品の3次元CADデータや、過去の運転実績デー
タ,劣化状況データなどの管理保全に関わるデータを保
持している拠点である。これら146a,146b…等
の現場と、151の拠点は、電話回線などの通信手段1
50で結ばれており、データの送受信が可能な状態であ
る。
Reference numerals 146a, 146b ... In the figure are sites where the parts to be evaluated are used. 151 is
It is a base that holds three-dimensional CAD data of parts operated at the plurality of sites 146a, 146b ... And data related to management and maintenance such as past operation record data and deterioration status data. The sites such as 146a, 146b ... And the 151 bases are communication means 1 such as a telephone line.
It is connected by 50 and is in a state in which data can be transmitted and received.

【0111】現場146a,146b…等では、カメラ
147a,147b…で動翼等の評価対象148a,1
48b…を撮影し、撮影した画像および、評価対象の運
用されている現場のプラント名等、評価対象を特定する
のに必要な付加情報152a,152b…をデータ入力
装置149a,149b…に入力し、入力した画像は伝
送手段150を介して拠点151に送られる。拠点15
1では既に実施例をあげて説明した画像診断装置を有
し、伝送手段150から伝送された画像データを入力と
し、3次元CADデータから輝度ノイズを除去し画像診
断を行う。このときの画像診断の手法については既出の
実施例のうちどれを用いても良い。
At the sites 146a, 146b, etc., the cameras 147a, 147b, etc., evaluate objects 148a, 1 such as moving blades.
48b ... Is photographed, and the photographed image and additional information 152a, 152b ... Required for specifying the evaluation target such as the plant name of the site where the evaluation target is operated are input to the data input devices 149a, 149b. The input image is sent to the site 151 via the transmission means 150. Location 15
In the first embodiment, the image diagnosis apparatus described in the above embodiments is provided, and the image data transmitted from the transmission unit 150 is input, and the luminance noise is removed from the three-dimensional CAD data to perform the image diagnosis. As the image diagnosis method at this time, any of the above-described embodiments may be used.

【0112】これら146a,146b…の現場と、1
51の拠点は、伝送手段150で結ばれているため、世
界中の様々な場所に現場が分布していても、現場から伝
送手段経由で画像を送るだけで拠点において画像診断を
行える効果がある。
The sites of these 146a, 146b ...
Since the 51 bases are connected by the transmission means 150, even if the sites are distributed in various places around the world, there is an effect that the bases can perform image diagnosis simply by sending an image from the site via the transmission means. .

【0113】次に、図19を用いて、本発明による技術
支援システムの実施形態を説明する。
Next, an embodiment of the technical support system according to the present invention will be described with reference to FIG.

【0114】図19の実施形態は、不特定多数の現場
と、それらの現場に対する技術支援を行う技術支援セン
タをインターネットで接続し、技術支援を行う技術支援
システムの一部として本発明を採用したものである。
The embodiment shown in FIG. 19 employs the present invention as a part of a technical support system for providing technical support by connecting an unspecified number of sites and a technical support center for providing technical support to those sites via the Internet. It is a thing.

【0115】図19の技術支援システムは、図18の画
像診断システムの構成に更に技術支援センタ153、お
よび154,155は個別の技術のソリューションを持
つ部門もしくはシステムを付加した構成である。
The technical support system of FIG. 19 has a structure in which the technical support centers 153, 154, and 155 are added to the structure of the image diagnosis system of FIG.

【0116】146a,146b…の複数の現場と、1
53の技術支援センタは150の通信手段で接続してい
る。153の技術支援センタは、146a,146b…
の現場からの技術的な問い合わせを受け、それに対応す
る部署やシステムに問い合わせを配信し、問い合わせに
対する答えを返信する部門である。技術的な問い合わせ
の例としては、異常運転に関する原因解析,機器の性能
評価などがある。
A plurality of sites 146a, 146b ...
The 53 technical support centers are connected by 150 communication means. The 153 technical support centers are 146a, 146b ...
This is a department that receives technical inquiries from the site, delivers the inquiries to the corresponding departments and systems, and returns the answers to the inquiries. Examples of technical inquiries include cause analysis related to abnormal operation and equipment performance evaluation.

【0117】図中151,154,155…は153の
技術支援センタからの個別の問い合わせを受け、該問い
合わせに対する回答を作成するシステムもしくは部門で
ある。151は、このうち、現場で撮影した部品の劣化
の程度の問い合わせに対して診断を行うシステムとして
位置付けられ、現場146a,146b…から入力され
た画像情報、および画像に関する付加情報152a,1
52b…を受けて、153の技術支援センタから画像デ
ータが入力される。診断システム151はCADデータ
蓄積部2の3次元CADデータから輝度ノイズを除去し
画像診断を行う。このときの画像診断の手法については
既出の実施例のうちどれを用いても良い。診断システム
151からの出力である診断結果は、技術支援センタ1
53に送られ、技術支援センタ153から問い合わせの
あった現場146a,146b…へ診断結果を送付する。
In the figure, 151, 154, 155 ... Are systems or departments that receive individual inquiries from the technical support center 153 and create an answer to the inquiries. Of these, 151 is positioned as a system for diagnosing inquiries about the degree of deterioration of parts photographed at the site, and image information input from the sites 146a, 146b ... And additional information 152a, 1 related to the image.
In response to 52b ..., Image data is input from the technical support center 153. The diagnosis system 151 removes luminance noise from the three-dimensional CAD data in the CAD data storage unit 2 and performs image diagnosis. As the image diagnosis method at this time, any of the above-described embodiments may be used. The diagnostic result output from the diagnostic system 151 is the technical support center 1
The diagnosis result is sent to 53 and sent to the sites 146a, 146b, ... Inquired by the technical support center 153.

【0118】このようにインターネット経由で現場から
の問い合わせに回答する技術支援システムの一部として
本診断システムを採用することで、効率のよいサービス
を行うことができる。また不特定多数の現場に対するソ
リューションを並行して行うことができる。
By adopting this diagnostic system as a part of the technical support system for answering inquiries from the site via the Internet, efficient service can be provided. It is also possible to carry out solutions for unspecified large numbers of sites in parallel.

【0119】以上が、本発明による画像処理装置および
システムの実施例である。これら実施例ではガスタービ
ン動翼を例にあげて説明してきたが、評価の対象として
は、色などの表面状態から物理的診断を行うものに適用
可能である。例えば医療分野における患者の皮膚の状態
の遠隔診断や、また、内臓等内視鏡を介さないと見るこ
とのできない対象を3次元形状に貼り付けて評価する場
合にも用いることができる。ただし人体等の対象物は3
次元CAD情報をあらかじめ持たないので、レーザ計
測,CTスキャンなどの3次元計測手段を併用し、3次
元CADデータを作成する必要がある。
The above are the embodiments of the image processing apparatus and system according to the present invention. In these embodiments, the gas turbine rotor blade has been described as an example, but the subject of the evaluation is applicable to those that perform physical diagnosis from the surface condition such as color. For example, it can be used in remote diagnosis of the skin condition of a patient in the medical field, and also in the case of attaching an object such as internal organs that cannot be seen without an endoscope to a three-dimensional shape for evaluation. However, the number of objects such as the human body is 3
Since it does not have three-dimensional CAD information in advance, it is necessary to use three-dimensional measuring means such as laser measurement and CT scan together to create three-dimensional CAD data.

【0120】以上によれば、対象となる材料の画像を現
場で撮影するだけで、材料の表面色を解析し、運転温度
などの物理的特性を推定することが出来る。これにより
従来のように検査員が直接出向かなくても画像情報を送
るだけで状態診断が行える効果がある。
According to the above, the surface color of the material can be analyzed and the physical characteristics such as the operating temperature can be estimated only by photographing the image of the target material on site. As a result, there is an effect that the condition diagnosis can be performed only by sending the image information even if the inspector does not go to the office directly unlike the conventional case.

【0121】[0121]

【発明の効果】本発明によれば、対象の3次元形状の情
報を用いて、対象の表面状態の情報を処理する処理装置
を提供することができる。
According to the present invention, it is possible to provide a processing device for processing information on the surface condition of a target by using the information on the three-dimensional shape of the target.

【0122】また、本発明によれば、診断の対象を撮影
した画像から表面の色分布を精度良く抽出し、抽出した
色分布から対象の状態を診断できる画像診断装置,画像
診断システム又は画像診断方法を提供することができ
る。
Further, according to the present invention, an image diagnostic apparatus, an image diagnostic system, or an image diagnostic apparatus capable of accurately extracting a surface color distribution from an image of a subject to be diagnosed and diagnosing the target state from the extracted color distribution. A method can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による画像診断装置の実施例1の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a first embodiment of an image diagnostic apparatus according to the present invention.

【図2】輝度ノイズ除去処理部の流れの一例を説明する
図である。
FIG. 2 is a diagram illustrating an example of a flow of a luminance noise removal processing unit.

【図3】3次元の物体の位置と、照明の位置から、物体
の表面の色を計算する方法の一例を説明するための図で
ある。
FIG. 3 is a diagram for explaining an example of a method for calculating the surface color of an object from the position of a three-dimensional object and the position of illumination.

【図4】本発明による画像診断装置の実施例2の構成を
示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a second embodiment of the image diagnostic apparatus according to the present invention.

【図5】材料劣化診断部の第一の実施例の処理の流れの
一例を説明するための図である。
FIG. 5 is a diagram for explaining an example of the processing flow of the first embodiment of the material deterioration diagnosis unit.

【図6】診断対象別特徴量格納手段の格納フォーマット
の例である。
FIG. 6 is an example of a storage format of a diagnostic target feature quantity storage unit.

【図7】動翼の表面の領域の分割方法の例を示した図で
ある。
FIG. 7 is a diagram showing an example of a method of dividing a surface region of a moving blade.

【図8】材料劣化診断部の第二の実施例の処理の流れを
説明するための図である。
FIG. 8 is a diagram illustrating a processing flow of a second embodiment of the material deterioration diagnosis unit.

【図9】材料表面色データ格納手段の格納形式の例を示
す図である。
FIG. 9 is a diagram showing an example of a storage format of a material surface color data storage means.

【図10】図7の処理73の処理の流れについて、更に
詳しく説明するための図である。
FIG. 10 is a diagram for explaining the processing flow of processing 73 of FIG. 7 in more detail.

【図11】タービンの動翼を撮影した画像のイメージを
例示した図である。
FIG. 11 is a view exemplifying an image of an image of a moving blade of a turbine.

【図12】タービンの表面上の色を画素別にランク分け
した結果の例を示した図である。
FIG. 12 is a diagram showing an example of a result of ranking the colors on the surface of the turbine for each pixel.

【図13】影の候補領域のエッジ部分と対象の3次元形
状座標から逆に照明の位置を推定する方法の一例を説明
するための図である。
FIG. 13 is a diagram for explaining an example of a method of conversely estimating the position of the illumination from the edge part of the shadow candidate region and the target three-dimensional shape coordinates.

【図14】本発明の実施例3の構成を示すブロック図で
ある。
FIG. 14 is a block diagram showing a configuration of a third exemplary embodiment of the present invention.

【図15】本発明の実施例4の構成を示すブロック図で
ある。
FIG. 15 is a block diagram showing a configuration of a fourth embodiment of the present invention.

【図16】本発明の実施例5の構成を示すブロック図で
ある。
FIG. 16 is a block diagram showing a configuration of a fifth embodiment of the present invention.

【図17】照明の影響の一例を説明するための図であ
る。
FIG. 17 is a diagram for explaining an example of the influence of illumination.

【図18】本発明による画像診断システムの実施形態の
構成の一例を示す図である。
FIG. 18 is a diagram showing an example of a configuration of an embodiment of an image diagnostic system according to the present invention.

【図19】本発明による技術支援システムの実施形態の
構成の一例を示す図である。
FIG. 19 is a diagram showing an example of a configuration of an embodiment of a technical support system according to the present invention.

【符号の説明】[Explanation of symbols]

1…画像データ蓄積部、2…CADデータ蓄積部、3…
輝度ノイズ除去処理部、4…3次元画像表示部、5…材
料劣化診断部、6…劣化診断結果データ、7…固体番号
照合部、8…過去画像データ、9…照明影響除去処理
部。
1 ... Image data storage unit, 2 ... CAD data storage unit, 3 ...
Luminance noise removal processing unit, 4 ... Three-dimensional image display unit, 5 ... Material degradation diagnosis unit, 6 ... Degradation diagnosis result data, 7 ... Individual number collation unit, 8 ... Past image data, 9 ... Illumination influence removal processing unit.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A61B 5/107 G01J 3/50 5L096 G01J 3/50 G06T 3/00 300 G06T 3/00 300 7/00 100C 7/00 100 17/40 A 17/40 A61B 5/10 300Q (72)発明者 高田 将年 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 児島 慶享 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 Fターム(参考) 2G020 AA08 DA02 DA03 DA04 DA22 DA31 DA34 DA35 DA52 DA66 4C038 VB22 VC05 4C061 HH51 NN10 SS21 5B050 AA04 BA06 BA09 BA13 CA05 CA08 DA04 DA07 EA04 EA06 EA09 EA15 EA19 EA26 FA02 FA06 5B057 AA01 CA01 CA08 CA13 CB01 CB08 CB13 CE02 CE08 CE16 DA08 DA16 DB03 DB06 DB09 DC22 DC25 5L096 AA02 AA06 AA09 BA03 CA02 DA01 EA05 FA06 FA14 FA15─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) A61B 5/107 G01J 3/50 5L096 G01J 3/50 G06T 3/00 300 G06T 3/00 300 7/00 100C 7/00 100 17/40 A 17/40 A61B 5/10 300Q (72) Inventor Masatoshi Takada 7-1, 1-1 Omika-cho, Hitachi-shi, Ibaraki Hitachi Ltd. Hitachi Research Laboratory (72) Inventor Kojima Keikai 7-1-1, Omika-cho, Hitachi-shi, Ibaraki F-term in Hitachi Research Laboratory, Hitachi, Ltd. (reference) 2G020 AA08 DA02 DA03 DA04 DA22 DA31 DA34 DA35 DA52 DA66 4C038 VB22 VC05 4C061 HH51 NN10 SS21 5B050 AA04 BA06 BA09 BA13 CA05 CA08 DA04 DA07 EA04 EA06 EA09 EA15 EA19 EA26 FA02 FA06 5B057 AA01 CA01 CA08 CA13 CB01 CB08 CB13 CE02 CE08 CE16 DA08 DA16 DB03 DB06 DB09 DC 22 DC25 5L096 AA02 AA06 AA09 BA03 CA02 DA01 EA05 FA06 FA14 FA15

Claims (34)

【特許請求の範囲】[Claims] 【請求項1】対象の3次元形状の情報から、対象の表面
状態の情報に及ぼす影響を除去する除去処理部と、前記
3次元形状の情報に対象の表面状態の情報を重畳する処
理部とを有する処理装置。
1. A removal processing unit that removes the influence on the information of the surface state of the target from the information of the three-dimensional shape of the target, and a processing unit that superimposes the information of the surface state of the target on the information of the three-dimensional shape. A processing device having.
【請求項2】診断対象の表面状態の画像情報から診断対
象の状態を診断する画像処理装置において、 診断対象の表面状態の画像情報と診断対象の3次元形状
の情報から、診断対象の表面状態に及ぼす影響を除去す
る除去処理部と、該3次元形状の上に診断対象を撮影し
た画像を重畳する処理部を有することを特徴とする画像
処理装置。
2. An image processing apparatus for diagnosing the condition of a diagnosis target from image information of the surface condition of the diagnosis target, wherein the surface condition of the diagnosis target is determined from the image information of the surface condition of the diagnosis target and the three-dimensional shape information of the diagnosis target. An image processing apparatus comprising: a removal processing unit that removes the influence on the three-dimensional shape; and a processing unit that superimposes an image of a diagnostic target on the three-dimensional shape.
【請求項3】表面状態から診断対象の状態を診断する画
像診断装置において、 診断対象の3次元形状から、表面状態に及ぼす影響を除
去する除去処理部と、該3次元形状の上に診断対象を撮
影した画像を貼り付けて表示する表示部を有することを
特徴とする画像診断装置。
3. An image diagnostic apparatus for diagnosing a condition of a diagnosis target from a surface condition, a removal processing unit for removing an influence on a surface condition from a three-dimensional shape of the diagnosis target, and a diagnosis target on the three-dimensional shape. An image diagnostic apparatus comprising: a display unit for displaying an image obtained by pasting the captured image.
【請求項4】表面状態から診断対象の状態を診断する処
理装置において、 診断対象の3次元形状から、表面状態に及ぼす影響を除
去する除去処理部と、診断対象の状態を推定する診断部
を有することを特徴とする処理装置。
4. A processing device for diagnosing a condition of a diagnosis target from a surface condition, comprising: a removal processing unit for removing an influence on a surface condition from a three-dimensional shape of the diagnosis target; and a diagnosis unit for estimating the condition of the diagnosis target. A processing device having.
【請求項5】表面状態から診断対象の状態を診断する画
像処理装置において、 診断対象の3次元形状から、表面状態に及ぼす影響を除
去する除去処理部と、診断対象の状態を推定する診断部
を有することを特徴とする画像処理装置。
5. An image processing apparatus for diagnosing a condition of a diagnosis target from a surface condition, a removal processing unit for removing an influence on a surface condition from a three-dimensional shape of the diagnosis target, and a diagnosis unit for estimating the condition of the diagnosis target. An image processing apparatus comprising:
【請求項6】表面状態から診断対象の状態を診断する画
像診断装置において、 診断対象の3次元形状から、表面状態に及ぼす影響を除
去する除去処理部と、診断対象の状態を推定する診断部
を有することを特徴とする画像診断装置。
6. An image diagnostic apparatus for diagnosing a condition of a diagnosis target from a surface condition, a removal processing unit for removing an influence on a surface condition from a three-dimensional shape of the diagnosis target, and a diagnosis unit for estimating the condition of the diagnosis target. An image diagnostic apparatus comprising:
【請求項7】請求項1又は請求項4において、複数の異
なる角度から診断対象を撮影した画像のそれぞれについ
て、診断対象の3次元形状から、表面状態に及ぼす影響
を除去する除去処理部を有することを特徴とする処理装
置。
7. The removal processing unit according to claim 1 or 4, which removes the influence on the surface state from the three-dimensional shape of the diagnostic object for each of the images obtained by photographing the diagnostic object from a plurality of different angles. A processing device characterized by the above.
【請求項8】請求項1,請求項4又は請求項7におい
て、色から対象の物理的状態を診断する診断部を有する
ことを特徴とする処理装置。
8. A processing apparatus according to claim 1, claim 4 or claim 7, further comprising a diagnostic section for diagnosing a physical state of an object from a color.
【請求項9】請求項2又は請求項5において、色から対
象の物理的状態を診断する診断部を有することを特徴と
する画像処理装置。
9. The image processing apparatus according to claim 2 or 5, further comprising a diagnostic section for diagnosing a physical state of an object from a color.
【請求項10】請求項3又は請求項6において、色から
対象の物理的状態を診断する診断部を有することを特徴
とする画像診断装置。
10. An image diagnostic apparatus according to claim 3 or 6, further comprising a diagnostic section for diagnosing a physical state of an object from a color.
【請求項11】請求項1,請求項4,請求項7又は請求
項8において、 診断対象の3次元形状と、画像を撮影する環境の照明の
位置,照明の強度から、対象の表面に及ぼす光の影響を
算出し、画像上の色から、対象がもつ色と、光の輝度の
影響を分離する影響除去処理部を有することを特徴とす
る処理装置。
11. The method according to claim 1, claim 4, claim 7, or claim 8, wherein the three-dimensional shape of the diagnosis target, the position of the illumination of the environment in which the image is captured, and the intensity of the illumination affect the surface of the target. A processing device comprising: an effect removal processing unit that calculates the effect of light and separates the effect of the brightness of light from the color of the object from the color on the image.
【請求項12】請求項2,請求項5又は請求項9におい
て、 診断対象の3次元形状と、画像を撮影する環境の照明の
位置,照明の強度から、対象の表面に及ぼす光の影響を
算出し、画像上の色から、対象がもつ色と、光の輝度の
影響を分離する影響除去処理部を有することを特徴とす
る画像処理装置。
12. The effect of light on the surface of an object according to claim 2, claim 5, or claim 9, based on the three-dimensional shape of the object to be diagnosed, the position of the environment illumination where the image is taken, and the intensity of the illumination. An image processing apparatus comprising: an effect removal processing unit that calculates and separates the effect of the brightness of light from the color of a target from the color on the image.
【請求項13】請求項3,請求項6又は請求項10にお
いて、 診断対象の3次元形状と、画像を撮影する環境の照明の
位置,照明の強度から、対象の表面に及ぼす光の影響を
算出し、画像上の色から、対象がもつ色と、光の輝度の
影響を分離する影響除去処理部を有することを特徴とす
る画像診断装置。
13. The effect of light on the surface of an object according to claim 3, claim 6, or claim 10, based on the three-dimensional shape of the object to be diagnosed, the position of the illumination of the environment where the image is captured, and the intensity of the illumination. An image diagnostic apparatus comprising: an influence removal processing unit that calculates and separates the influence of the brightness of light and the color of a target from the colors on an image.
【請求項14】請求項1,請求項4,請求項7,請求項
8又は請求項11において、 画像を撮影する環境の照明の位置や強度が不明の場合、
対象を撮影した画像上の色分布から、色の明らかな境界
を抽出して、抽出した色の境界より影の位置候補領域を
設定し、該候補領域から照明の位置と強度を推定する診
断部を有することを特徴とする処理装置。
14. In claim 1, claim 4, claim 7, claim 8 or claim 11, when the position and intensity of the illumination of the environment where the image is captured are unknown,
A diagnostic unit that extracts a clear color boundary from a color distribution on an image of an object, sets a shadow position candidate area from the extracted color boundary, and estimates the position and intensity of illumination from the candidate area. A processing device comprising:
【請求項15】請求項1,請求項4,請求項7,請求項
8,請求項11又は請求項14において、 対象を屋外で撮影し、撮影時の太陽の位置を撮影時刻,
撮影地点の緯度・経度から求める診断部を有することを
特徴とする処理装置。
15. In claim 1, claim 4, claim 7, claim 8, claim 11 or claim 14, the object is photographed outdoors, and the position of the sun at the time of photographing is taken at the photographing time,
A processing device having a diagnostic unit that is obtained from the latitude and longitude of a shooting point.
【請求項16】請求項4,請求項7,請求項8,請求項
11,請求項14又は請求項15において、 撮影した対象の表面を、3次元の形状に基づき領域分割
し、領域毎の画像から得られる特徴量を対象の属性とし
て採用する診断部を有することを特徴とする処理装置。
16. In Claim 4, Claim 7, Claim 8, Claim 11, Claim 14 or Claim 15, the surface of the photographed object is divided into regions based on a three-dimensional shape, and each region is divided. A processing device comprising a diagnosis unit that employs a feature amount obtained from an image as a target attribute.
【請求項17】請求項4,請求項7,請求項8,請求項
11,請求項14,請求項15又は請求項16におい
て、 画像領域から得られる特徴量として、該画像領域の色の
平均値,分散,モード値のいずれか、もしくはそれらの
組み合わせの情報を採用する診断部を有することを特徴
とする処理装置。
17. In claim 4, claim 7, claim 8, claim 11, claim 14, claim 15 or claim 16, the average of the colors of the image area is used as the feature amount obtained from the image area. A processing device having a diagnostic unit that employs information on any of a value, a variance, a mode value, or a combination thereof.
【請求項18】請求項4,請求項7,請求項8,請求項
11,請求項14,請求項15又は請求項16におい
て、 画像領域から得られる特徴量として、該画像領域表面
を、色の近い領域毎にグルーピングし、領域毎の色の情
報と共に領域の表面積を算出して物体の特徴量とする診
断部を有することを特徴とする処理装置。
18. In claim 4, claim 7, claim 8, claim 11, claim 14, claim 15, or claim 16, the surface of the image area is colored as a feature amount obtained from the image area. A processing device including a diagnostic unit that groups the areas close to each other and calculates the surface area of the areas together with the color information of each area as the feature amount of the object.
【請求項19】請求項4,請求項7,請求項8,請求項
11,請求項14,請求項15,請求項16,請求項1
7又は請求項18において、 対象を撮影する際に該固体番号を画像上から読み取り可
能なように撮影する撮影部と、診断対象となる部品の表
面に表示されている固体番号と3次元CADデータをリ
ンクさせ、固体番号に対応した3次元CADデータを参
照する照合部を有することを特徴とする処理装置。
19. Claim 4, claim 7, claim 8, claim 11, claim 14, claim 15, claim 16, claim 1.
In Claim 7 or 18, an image capturing section that captures the individual number so that the individual number can be read from the image when capturing the object, the individual number displayed on the surface of the component to be diagnosed, and the three-dimensional CAD data. And a collating unit for referencing three-dimensional CAD data corresponding to an individual number.
【請求項20】請求項4,請求項7,請求項8,請求項
11,請求項14,請求項15,請求項16,請求項1
7,請求項18又は請求項19において、 画像を3次元形状へ投影する撮影部と、該画像上の各画
素と3次元形状上の各点との対応をとり、該画像上にお
ける評価対象の輪郭と、3次元形状における輪郭の位置
を比較し、そこに生じた差を材料の形状の変化とする診
断部を有することを特徴とする処理装置。
20. Claim 4, Claim 7, Claim 8, Claim 11, Claim 14, Claim 15, Claim 16, Claim 1.
In claim 7, claim 18 or claim 19, the image capturing unit for projecting an image into a three-dimensional shape is associated with each pixel on the image and each point on the three-dimensional shape, and A processing device comprising: a contour and a position of the contour in a three-dimensional shape, and a diagnosing unit that uses the difference generated therein as a change in the shape of the material.
【請求項21】請求項4,請求項7,請求項8,請求項
11,請求項14,請求項15,請求項16,請求項1
7,請求項18又は請求項19において、 対象を撮影する撮影部と、対象の3次元形状をレーザ計
測等で計測する計測部と、該3次元形状を表面状態の推
定に用いる診断部を有することを特徴とする処理装置。
21. Claim 4, Claim 7, Claim 8, Claim 11, Claim 14, Claim 15, Claim 16, Claim 1.
7. In claim 18 or claim 19, an imaging unit for imaging the target, a measurement unit for measuring the three-dimensional shape of the target by laser measurement, etc., and a diagnostic unit for using the three-dimensional shape to estimate the surface state. A processing device characterized by the above.
【請求項22】請求項4,請求項7,請求項8,請求項
11,請求項14,請求項15,請求項16,請求項1
7,請求項18,請求項19,請求項20又は請求項2
1において、 評価対象を撮影した過去の画像もしくは画像から得られ
る特徴量等の情報を蓄積する蓄積部と、該過去の情報と
新規に入力された画像の情報との比較で表面状態の推定
を行う診断部を有することを特徴とする処理装置。
22. Claim 4, claim 7, claim 8, claim 11, claim 14, claim 15, claim 16, claim 1.
7, claim 18, claim 19, claim 20 or claim 2
1, the surface state is estimated by comparing the past image of the evaluation target or a storage unit that accumulates information such as the feature amount obtained from the image with the past information and the information of the newly input image. A processing apparatus having a diagnostic unit for performing the processing.
【請求項23】請求項4,請求項7,請求項8,請求項
11,請求項14,請求項15,請求項16,請求項1
7,請求項18,請求項19,請求項20又は請求項2
1において、 評価対象を撮影した過去の画像もしくは画像から得られ
る特徴量等の情報を蓄積する蓄積部と、該過去の情報と
新規に入力された画像の情報との比較で表面状態の推定
を行う診断部を有することを特徴とする画像処理装置。
23. Claim 4, Claim 7, Claim 8, Claim 11, Claim 14, Claim 15, Claim 16, Claim 1.
7, claim 18, claim 19, claim 20 or claim 2
1, the surface state is estimated by comparing the past image of the evaluation target or a storage unit that accumulates information such as the feature amount obtained from the image with the past information and the information of the newly input image. An image processing apparatus having a diagnosis unit for performing the image processing.
【請求項24】請求項3,請求項6,請求項10又は請
求項13において、 評価対象を撮影した過去の画像もしくは画像から得られ
る特徴量等の情報を蓄積する蓄積部と、該過去の情報と
新規に入力された画像の情報との比較で表面状態の推定
を行う診断部を有することを特徴とする画像診断装置。
24. In claim 3, claim 6, claim 10 or claim 13, a storage unit that stores information such as a past image of an evaluation target or a feature amount obtained from the image, and the past An image diagnostic apparatus having a diagnostic unit for estimating a surface state by comparing information with information of a newly input image.
【請求項25】評価対象を、実際に運転している現場で
撮影する撮影部と、その画像情報をインターネット等の
通信手段を使って伝送する伝送部と、その画像情報を診
断する請求項3,請求項6,請求項10,請求項13又
は請求項24のいずれかに記載の画像診断装置とを有す
ることを特徴とする画像診断システム。
25. A photographing section for photographing an object to be evaluated at a site where the vehicle is actually driven, a transmission section for transmitting the image information using communication means such as the Internet, and the image information is diagnosed. An image diagnostic system comprising: the image diagnostic apparatus according to claim 6, claim 10, claim 13 or claim 24.
【請求項26】表面状態から診断対象の状態を診断する
画像診断方法であって、 診断対象の3次元形状から、表面状態に及ぼす影響を除
去し、該3次元形状の上に診断対象を撮影した画像を貼
り付けて表示することを特徴とする画像診断方法。
26. An image diagnostic method for diagnosing a condition of a diagnosis target from a surface condition, wherein an influence on a surface condition is removed from a three-dimensional shape of the diagnosis target, and the diagnosis target is imaged on the three-dimensional shape. An image diagnostic method characterized by pasting and displaying the created image.
【請求項27】請求項26において、複数の異なる角度
から診断対象を撮影した画像のそれぞれについて、診断
対象の3次元形状から、表面状態に及ぼす影響を除去す
ることを特徴とする画像診断方法。
27. The image diagnostic method according to claim 26, wherein, for each of the images obtained by photographing the diagnosis target from a plurality of different angles, the influence on the surface state is removed from the three-dimensional shape of the diagnosis target.
【請求項28】請求項27において、色から対象の物理
的状態を診断することを特徴とする画像診断方法。
28. The image diagnostic method according to claim 27, wherein the physical state of the object is diagnosed from the color.
【請求項29】請求項26,請求項27、又は請求項2
8において、 診断対象の3次元形状と、画像を撮影する環境の照明の
位置,照明の強度から、対象の表面に及ぼす光の影響を
算出し、画像上の色から、対象がもつ色と、光の輝度の
影響を分離することを特徴とする画像診断方法。
29. The claim 26, claim 27, or claim 2.
In 8, the effect of light on the surface of the target is calculated from the three-dimensional shape of the target to be diagnosed, the position of the illumination of the environment in which the image is captured, and the intensity of the illumination, and the color that the target has from the color on the image, An image diagnostic method characterized by separating the influence of the brightness of light.
【請求項30】評価対象を、実際に運転している現場で
撮影し、その画像情報をインターネット等の通信手段を
使って伝送し、伝送された画像情報に基づいて請求項2
6乃至請求項29のいずれかに記載の画像診断方法で診
断することを特徴とする画像診断方法。
30. The image of the object to be evaluated is photographed at the actual driving site, the image information is transmitted by using communication means such as the Internet, and the image information is transmitted based on the transmitted image information.
An image diagnostic method comprising performing diagnosis by the image diagnostic method according to any one of claims 6 to 29.
【請求項31】複数の現場と、技術支援センタをインタ
ーネット等の通信手段で接続し、現場からの技術情報の
問い合わせに対し回答を行う技術支援システムにおい
て、 評価対象を、実際に運転している現場で撮影する撮影部
を有し、また技術支援センタの中に請求項3,請求項
6,請求項10,請求項13又は請求項24のいずれか
に記載の画像診断装置を有し、 現場から評価対象の画像が通信手段を介して送られてき
た場合に該画像診断装置が診断を行い、回答を作成する
ことを特徴とする技術支援システム。
31. In a technical support system for connecting a plurality of sites and a technical support center by communication means such as the Internet, and answering an inquiry about technical information from the site, the evaluation target is actually operating. An on-site image capturing unit is included, and the technical support center includes the image diagnostic apparatus according to any one of claims 3, 6, 10, 13, and 24. A technical support system characterized in that when an image to be evaluated is sent from a device via a communication means, the image diagnostic apparatus makes a diagnosis and creates an answer.
【請求項32】複数の現場と、技術支援センタをインタ
ーネット等の通信手段で接続し、現場からの技術情報の
問い合わせに対し回答を行う技術支援方法において、 評価対象を、実際に運転している現場で撮影する撮影部
を有し、また技術支援センタの中に請求項3,請求項
6,請求項10,請求項13又は請求項24のいずれか
に記載の画像診断装置を有し、 現場から評価対象の画像が通信手段を介して送られてき
た場合に該画像診断装置が診断を行い、回答を作成する
ことを特徴とする技術支援方法。
32. In a technical support method for connecting a plurality of sites to a technical support center through a communication means such as the Internet and answering technical information inquiries from the site, the evaluation target is actually operating. An on-site image capturing unit is included, and the technical support center includes the image diagnostic apparatus according to any one of claims 3, 6, 10, 13, and 24. A method for technical assistance, characterized in that, when an image to be evaluated is sent from a device via a communication means, the image diagnostic apparatus makes a diagnosis and creates an answer.
【請求項33】複数の現場と、技術支援センタをインタ
ーネット等の通信手段で接続し、現場からの技術情報の
問い合わせに対し回答を行う保守支援システムにおい
て、 評価対象を、実際に運転している現場で撮影する撮影部
を有し、また技術支援センタの中に請求項4乃至請求項
24のいずれかに記載の画像診断装置を有し、 現場から評価対象の画像が通信手段を介して送られてき
た場合に該画像診断装置が診断を行い、回答を作成する
ことを特徴とする保守支援システム。
33. In a maintenance support system that connects a plurality of sites to a technical support center by communication means such as the Internet and responds to technical information inquiries from the site, the evaluation target is actually operating. An imaging unit for imaging on-site is provided, and the image diagnostic apparatus according to any one of claims 4 to 24 is provided in the technical support center, and an image to be evaluated is sent from the site via communication means. A maintenance support system characterized in that the image diagnosis apparatus makes a diagnosis when it is received and creates an answer.
【請求項34】複数の現場と、技術支援センタをインタ
ーネット等の通信手段で接続し、現場からの技術情報の
問い合わせに対し回答を行う保守支援方法において、 評価対象を、実際に運転している現場で撮影する撮影部
を有し、また技術支援センタの中に請求項3,請求項
6,請求項10,請求項13又は請求項24のいずれか
に記載の画像診断装置を有し、 現場から評価対象の画像が通信手段を介して送られてき
た場合に該画像診断装置が診断を行い、回答を作成する
ことを特徴とする保守支援方法。
34. In a maintenance support method in which a plurality of sites and a technical support center are connected by a communication means such as the Internet, and a response to a technical information inquiry from the site is answered, the evaluation target is actually operating. An on-site image capturing unit is included, and the technical support center includes the image diagnostic apparatus according to any one of claims 3, 6, 10, 13, and 24. A maintenance support method characterized in that, when an image to be evaluated is sent from a device via a communication means, the image diagnostic apparatus makes a diagnosis and creates an answer.
JP2001385382A 2001-12-19 2001-12-19 Diagnostic imaging apparatus, diagnostic imaging system, and diagnostic imaging method Expired - Fee Related JP3972647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001385382A JP3972647B2 (en) 2001-12-19 2001-12-19 Diagnostic imaging apparatus, diagnostic imaging system, and diagnostic imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001385382A JP3972647B2 (en) 2001-12-19 2001-12-19 Diagnostic imaging apparatus, diagnostic imaging system, and diagnostic imaging method

Publications (2)

Publication Number Publication Date
JP2003187223A true JP2003187223A (en) 2003-07-04
JP3972647B2 JP3972647B2 (en) 2007-09-05

Family

ID=27594811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001385382A Expired - Fee Related JP3972647B2 (en) 2001-12-19 2001-12-19 Diagnostic imaging apparatus, diagnostic imaging system, and diagnostic imaging method

Country Status (1)

Country Link
JP (1) JP3972647B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001943A1 (en) * 2006-06-30 2008-01-03 Fujifilm Corporation Method and apparatus for diffusion based image relighting
WO2008001941A1 (en) * 2006-06-30 2008-01-03 Fujifilm Corporation Method and apparatus for diffusion based illumination normalization
WO2008136348A1 (en) * 2007-04-27 2008-11-13 Kabushiki Kaisha Toshiba Appearance inspection apparatus and appearance inspection method
JP2010009479A (en) * 2008-06-30 2010-01-14 Toshiba Corp Remote visual inspection support system, and remote visual inspection support computer program
JP2011034279A (en) * 2009-07-31 2011-02-17 Toyota Motor Corp Three-dimensional temperature distribution display device, texture creation device and three-dimensional temperature distribution display method
JP2012147893A (en) * 2011-01-18 2012-08-09 Hoya Corp Inspection system for endoscope light guide, endoscope processor, and endoscope unit
WO2012173141A1 (en) * 2011-06-16 2012-12-20 オリンパス株式会社 Image processing apparatus, image processing method, and program
US10283640B2 (en) 2011-10-01 2019-05-07 Intel Corporation Source/drain contacts for non-planar transistors
CN113302650A (en) * 2019-01-14 2021-08-24 汉莎技术股份公司 Method and device for inspecting parts that are difficult to access
JP2021174526A (en) * 2020-04-30 2021-11-01 南京航空航天大学 Method for dividing wing fork point group based on three-dimensional feature descriptor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8976242B2 (en) 2007-10-03 2015-03-10 Kabushiki Kaisha Toshiba Visual inspection apparatus and visual inspection method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102258A (en) * 1991-04-19 1994-04-15 Kawasaki Heavy Ind Ltd Method and equipment for ultrasonic flaw detection
JPH06139316A (en) * 1992-10-30 1994-05-20 Hitachi Ltd Method and device for product production and method and device for measuring three-dimensional object
JPH06347232A (en) * 1993-06-04 1994-12-20 Mitsubishi Heavy Ind Ltd Visual inspection apparatus for printed board
JPH09229869A (en) * 1996-02-28 1997-09-05 Tomoe Corp Method and system apparatus for detecting internal corrosion inside tubes
JPH1010064A (en) * 1996-06-19 1998-01-16 Constec:Kk Method of inspecting mortar sprayed slope
JPH1137719A (en) * 1997-07-15 1999-02-12 Fujitsu Ltd Inspection device
JP2000210260A (en) * 1999-01-22 2000-08-02 Mitsubishi Electric Corp Eye ground imaging system
JP2000298106A (en) * 1999-04-14 2000-10-24 Hitachi Ltd X-ray ct using system
JP2000324481A (en) * 1999-05-10 2000-11-24 Matsushita Electric Ind Co Ltd Image pick-up device for mobile body
JP2001066187A (en) * 1999-08-27 2001-03-16 Matsushita Electric Works Ltd Color inspection method
JP2001306669A (en) * 2000-04-17 2001-11-02 Asahi Kasei Corp System and method for house diagnosis

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102258A (en) * 1991-04-19 1994-04-15 Kawasaki Heavy Ind Ltd Method and equipment for ultrasonic flaw detection
JPH06139316A (en) * 1992-10-30 1994-05-20 Hitachi Ltd Method and device for product production and method and device for measuring three-dimensional object
JPH06347232A (en) * 1993-06-04 1994-12-20 Mitsubishi Heavy Ind Ltd Visual inspection apparatus for printed board
JPH09229869A (en) * 1996-02-28 1997-09-05 Tomoe Corp Method and system apparatus for detecting internal corrosion inside tubes
JPH1010064A (en) * 1996-06-19 1998-01-16 Constec:Kk Method of inspecting mortar sprayed slope
JPH1137719A (en) * 1997-07-15 1999-02-12 Fujitsu Ltd Inspection device
JP2000210260A (en) * 1999-01-22 2000-08-02 Mitsubishi Electric Corp Eye ground imaging system
JP2000298106A (en) * 1999-04-14 2000-10-24 Hitachi Ltd X-ray ct using system
JP2000324481A (en) * 1999-05-10 2000-11-24 Matsushita Electric Ind Co Ltd Image pick-up device for mobile body
JP2001066187A (en) * 1999-08-27 2001-03-16 Matsushita Electric Works Ltd Color inspection method
JP2001306669A (en) * 2000-04-17 2001-11-02 Asahi Kasei Corp System and method for house diagnosis

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001941A1 (en) * 2006-06-30 2008-01-03 Fujifilm Corporation Method and apparatus for diffusion based illumination normalization
US7747045B2 (en) 2006-06-30 2010-06-29 Fujifilm Corporation Method and apparatus for diffusion based illumination normalization
WO2008001943A1 (en) * 2006-06-30 2008-01-03 Fujifilm Corporation Method and apparatus for diffusion based image relighting
US8379081B2 (en) 2007-04-27 2013-02-19 Kabushiki Kaisha Toshiba Appearance inspection apparatus and appearance inspection method
WO2008136348A1 (en) * 2007-04-27 2008-11-13 Kabushiki Kaisha Toshiba Appearance inspection apparatus and appearance inspection method
JP2008278143A (en) * 2007-04-27 2008-11-13 Toshiba Corp Structure visual inspection apparatus and inspection method therefor
TWI401698B (en) * 2007-04-27 2013-07-11 Toshiba Kk Appearance inspection device and appearance inspection method
JP2010009479A (en) * 2008-06-30 2010-01-14 Toshiba Corp Remote visual inspection support system, and remote visual inspection support computer program
JP2011034279A (en) * 2009-07-31 2011-02-17 Toyota Motor Corp Three-dimensional temperature distribution display device, texture creation device and three-dimensional temperature distribution display method
JP2012147893A (en) * 2011-01-18 2012-08-09 Hoya Corp Inspection system for endoscope light guide, endoscope processor, and endoscope unit
WO2012173141A1 (en) * 2011-06-16 2012-12-20 オリンパス株式会社 Image processing apparatus, image processing method, and program
JP2013002956A (en) * 2011-06-16 2013-01-07 Olympus Corp Image processing device, image processing method, and program
US9275473B2 (en) 2011-06-16 2016-03-01 Olympus Corporation Image processing apparatus, image processing method, and program
US10283640B2 (en) 2011-10-01 2019-05-07 Intel Corporation Source/drain contacts for non-planar transistors
CN113302650A (en) * 2019-01-14 2021-08-24 汉莎技术股份公司 Method and device for inspecting parts that are difficult to access
JP2022518186A (en) * 2019-01-14 2022-03-14 ルフトハンザ・テッヒニク・アクチェンゲゼルシャフト Methods and equipment for inspecting hard-to-reach parts
US11995815B2 (en) 2019-01-14 2024-05-28 Lufthansa Technik Ag Method and device for inspecting hard-to-reach components
JP2021174526A (en) * 2020-04-30 2021-11-01 南京航空航天大学 Method for dividing wing fork point group based on three-dimensional feature descriptor
JP7014472B2 (en) 2020-04-30 2022-02-01 南京航空航天大学 How to divide the wing fork point cloud based on the 3D feature descriptor

Also Published As

Publication number Publication date
JP3972647B2 (en) 2007-09-05

Similar Documents

Publication Publication Date Title
US11382558B2 (en) Skin feature imaging system
EP1450287B1 (en) Method of extracting region of interest from tongue image and health monitoring method and apparatus using the tongue image
KR101260722B1 (en) Skin state analyzing method, skin state analyzing device, and recording medium on which skin state analyzing program is recorded
JP5764238B2 (en) Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method
CA2828785C (en) Device and method for determining a skin inflammation value
JP2003187223A (en) Device, system and method for diagnosing image
CN111067531A (en) Wound measuring method and device and storage medium
CN110456050B (en) Portable intelligent digital parasite in vitro diagnostic instrument
US20100142852A1 (en) Image Analysis System and Image Analysis Program
CN110769194A (en) Heat source monitoring and identifying method and system based on double-light fusion
CN112053321A (en) Artificial intelligence system for identifying high myopia retinopathy
CN111444837B (en) Temperature measurement method and temperature measurement system for improving face detection usability in extreme environment
CN115171361A (en) Dangerous behavior intelligent detection and early warning method based on computer vision
CN108830858A (en) It is a kind of based on infrared and optical image double-mode imaging information living body method for counting colonies
JP2002310617A (en) Work analysis system and method therefor
KR20190014728A (en) Continuous skin condition estimating method using infrared image
JP2007175469A (en) Skin condition management system
CN106204523A (en) A kind of image quality evaluation method and device
CN106790900B (en) A kind of mobile phone temp detection method and system
KR20230025656A (en) Image display system and image display method
CN103335727A (en) Thermal imaging image processing method based on setting of multiple emissivities for visible light divided area
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
JP2944309B2 (en) Skin surface morphological feature detection method
CN112070748A (en) Metal oil pipe defect detection method and device
CN110472085A (en) 3-D image searching method, system, computer equipment and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070604

R151 Written notification of patent or utility model registration

Ref document number: 3972647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130622

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees