JP4118270B2 - Identification method of test site - Google Patents

Identification method of test site Download PDF

Info

Publication number
JP4118270B2
JP4118270B2 JP2004333924A JP2004333924A JP4118270B2 JP 4118270 B2 JP4118270 B2 JP 4118270B2 JP 2004333924 A JP2004333924 A JP 2004333924A JP 2004333924 A JP2004333924 A JP 2004333924A JP 4118270 B2 JP4118270 B2 JP 4118270B2
Authority
JP
Japan
Prior art keywords
test site
image
pixel
image data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004333924A
Other languages
Japanese (ja)
Other versions
JP2006141581A (en
Inventor
平行 佐藤
尚子 森崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2004333924A priority Critical patent/JP4118270B2/en
Publication of JP2006141581A publication Critical patent/JP2006141581A/en
Application granted granted Critical
Publication of JP4118270B2 publication Critical patent/JP4118270B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、被験部位の特定方法に関し、特に肌面を撮影したカラー画像から画像処理によって被験部位を特定する被験部位の特定方法に関する。   The present invention relates to a method for specifying a test site, and more particularly to a method for specifying a test site for specifying a test site from a color image obtained by photographing a skin surface by image processing.

例えば毛髪の成長度を測定して毛髪の状態を定量的に評価する際や、育毛剤による効果等を評価する際には、頭部の同一部位について時期を隔ててそれぞれ毛髪の成長度を測定することにより、毛髪の状態の長期的な変化を把握することが可能になる。このため、ヒトの頭部の所定部位を毛刈し、毛刈直後、1日後、2日後、3日後等において毛刈部位の写真撮影を行ない、それらを比較することによって毛髪の成長度を測定する方法(例えば、特許文献1参照)や、頭部の所定部位に存するキズ、アザ、ホクロ等を目印としたり、毛の一部に漂白、染色等を施して目印とし、これらの目印を基準として特定された部位の頭髪を顕微鏡によって経時的に定点観測することにより、育毛状態を評価する方法(例えば、特許文献2参照)等が開示されている。   For example, when measuring the degree of hair growth and quantitatively evaluating the condition of the hair, or when evaluating the effects of hair growth agents, etc., measure the degree of hair growth at different times for the same part of the head. By doing so, it becomes possible to grasp long-term changes in the condition of the hair. For this reason, a predetermined part of the human head is shaved, and the hair growth is measured by taking a photograph of the shaved part immediately after the shaving, one day later, two days later, three days later, etc., and comparing them. (For example, refer to Patent Document 1), scratches, aza, moles, etc. existing in a predetermined part of the head, or a part of hair is bleached, dyed, etc., and used as a reference. A method for evaluating the hair growth state (for example, see Patent Document 2) and the like by observing a fixed point of the hair of the part specified as chronologically with a microscope over time is disclosed.

一方、例えばヒトの手足や胴部の肌に生える体毛の成長を抑制するための、毛成長抑制剤、発毛抑制剤等の薬剤による効果を評価する際には、同様に、ヒトの肌の特定の領域を被験部位として、当該被験部位における体毛の発育の状況等を把握する必要がある。
特開平6−90932号公報 特開平8−308814号公報
On the other hand, for example, when evaluating the effects of agents such as hair growth inhibitors and hair growth inhibitors for suppressing the growth of body hair that grows on human limbs and torso skin, It is necessary to grasp the state of growth of body hair at the test site using a specific region as the test site.
JP-A-6-90932 JP-A-8-308814

しかしながら、体毛は、その生える場所によっては頭髪に比べて細く、且つまばらにしか生えていないので、体毛の発育の状況等を把握するのに適当な必要本数の体毛について追跡するには、被験部位を相当の大きさの領域とする必要があり、単に肌にあるキズ、アザ、ホクロ等を目印としても、例えば数日〜数週間後に被験部位を撮影する際には、先に撮影した相当の大きさの被験部位の全体を含んで撮影しているか否かを確認することは困難である。また、被験部位が判るようにマーキングを数日〜数週間の長期に亘って施しておき、このマーキングを施した部分を撮影することも考えられるが、肌の新陳代謝によってマーキングが消失したり、マーキングが確認しにくくなる場合がある。   However, the body hair is thinner than the head hair depending on the place where it grows, and it grows only sparsely, so in order to track the number of body hairs appropriate for grasping the growth status of body hair, etc. It is necessary to make the area of a considerable size, and even if it is simply marked with scratches, aza, moles, etc. on the skin, for example, when imaging the test site after several days to several weeks, It is difficult to confirm whether or not the entire region to be examined is captured. In addition, marking may be performed over a long period of several days to several weeks so that the test site can be identified, and it may be possible to photograph the marked part, but the marking may disappear due to skin metabolism, May be difficult to confirm.

本発明は、キズ、アザ、ホクロ等を目印とすることなく、かつ被験部位に長期に亘ってマーキングを施しておくことなく、先に撮影した被験部位の画像データに対する、後に撮影した画像データのずれを容易且つ正確に把握することを可能にする被験部位の特定方法を提供することを目的とする。   The present invention does not mark scratches, azas, moles, etc., and does not mark the test site for a long period of time. It is an object of the present invention to provide a method for identifying a test site that makes it possible to easily and accurately grasp a deviation.

本発明は、肌面を撮影したカラー画像から画像処理によって被験部位を特定する被験部位の特定方法であって、前記被験部位を含んで撮影した第1のカラー画像を第1画像データとして記憶する第1ステップと、前記第1のカラー画像上で前記被験部位の範囲を指定する第2ステップと、前記被験部位の少なくとも一部を含んで撮影した第2のカラー画像を第2画像データとして記憶する第3ステップと、前記第1ステップによって得られた第1画像データと第3ステップによって得られた第2画像データに画像処理を施す第4ステップと、画像処理された各処理データを表示して前記被験部位のずれを確認する第5ステップとからなり、前記画像処理を施す第4ステップでは、RGBの各チャンネルの信号又はRGBの各チャンネルから線形変換によって得られる信号による画素値ついて、各画素の画素値と、各画素の近傍領域における画素値の代表値との差又は比を用いて前記画像処理を行う被験部位の特定方法を提供することにより、上記目的を達成したものである。   The present invention is a method for identifying a test site by image processing from a color image obtained by imaging a skin surface, and stores a first color image captured including the test site as first image data. A first step, a second step of designating a range of the test site on the first color image, and a second color image photographed including at least a part of the test site as second image data A fourth step of performing image processing on the first image data obtained by the first step and the second image data obtained by the third step; The fifth step of confirming the deviation of the test site, and in the fourth step of performing the image processing, a line from each RGB signal or each RGB channel Provided is a method for identifying a test site for performing the image processing using a difference or ratio between a pixel value of each pixel and a representative value of a pixel value in a neighborhood region of each pixel with respect to a pixel value based on a signal obtained by conversion. Thus, the above object is achieved.

本発明の被験部位の特定方法によれば、キズ、アザ、ホクロ等を目印とすることなく、かつ被験部位に長期に亘ってマーキングを施しておくことなく、先に撮影した被験部位の画像データに対する、後に撮影した画像データのずれを容易且つ正確に把握することができる。   According to the method for identifying the test site of the present invention, the image data of the test site previously taken without marking scratches, aza, moles, etc. and without marking the test site for a long time Therefore, it is possible to easily and accurately grasp the deviation of image data taken later.

本発明の好ましい一実施形態に係る被験部位の特定方法は、被験部位として、例えば女性の脚の所定の領域における肌に生えた体毛の経時的変化を比較観察することにより、例えば毛成長抑制剤による効果を判定する試験を行う際に、先に撮影した被験部位の画像データに対する後に撮影した画像データのずれを容易且つ正確に把握して、例えば把握したずれを考慮しつつ、先に撮影した被験部位の全体に重ね合わせることが可能な画像データを得るために被験部位を撮影し直して、当該被験部位における体毛の経時的変化を正確に比較観察できるようにすることを目的として採用されたものである。   The method for identifying a test site according to a preferred embodiment of the present invention includes, for example, a hair growth inhibitor by comparatively observing changes in body hair over time in a predetermined region of a female leg, for example, as a test site. When conducting a test to determine the effect of the above, it is possible to easily and accurately grasp the deviation of the image data taken later with respect to the image data of the test part taken earlier, and for example, take the first image while taking into account the grasped deviation It was adopted for the purpose of re-imaging the test site to obtain image data that can be overlaid on the entire test site, so that changes in body hair over time can be accurately compared and observed. Is.

そして、本実施形態の被験部位の特定方法は、肌面を撮影したカラー画像から画像処理によって被験部位を特定する被験部位の特定方法であって、被験部位を含んで撮影した第1のカラー画像を第1画像データとして記憶する第1ステップと、第1のカラー画像上で被験部位の範囲を指定する第2ステップと、被験部位の少なくとも一部を含んで撮影した第2のカラー画像を第2画像データとして記憶する第3ステップと、第1ステップによって得られた第1画像データと第3ステップによって得られた第2画像データに画像処理を施す第4ステップと、画像処理された各処理データを表示して被験部位のずれを確認する第5ステップとからなり、画像処理を施す第4ステップでは、RGBの各チャンネルの信号又はRGBの各チャンネルから線形変換によって得られる信号による画素値ついて、各画素の画素値と、各画素の近傍領域における画素値の代表値との差又は比を用いて画像処理を行うようになっている。   The method for specifying the test site in this embodiment is a test site specifying method for specifying the test site by image processing from a color image obtained by imaging the skin surface, and is a first color image that is captured including the test site. A first step of storing the first image data as a first image data, a second step of designating a range of the test site on the first color image, and a second color image captured including at least a part of the test site. A third step for storing two image data; a fourth step for performing image processing on the first image data obtained by the first step and the second image data obtained by the third step; The fifth step is to display the data and check the deviation of the test site, and in the fourth step to perform image processing, the signal of each RGB channel or each channel of RGB For the pixel value by the signal obtained by the linear transformation, Samata of the pixel values of the pixels, and the representative value of the pixel values in the neighboring region of each pixel is adapted to perform image processing using a ratio.

また、本実施形態によれば、第5ステップにおいて被験部位のずれを確認した後に、このずれが修正されるように被験部位の全体を含んだ第2のカラー画像を撮影し直す第6ステップを含んでいる。   Further, according to the present embodiment, after confirming the shift of the test site in the fifth step, the sixth step of re-taking the second color image including the entire test site so that the shift is corrected. Contains.

ここで、本実施形態の被験部位の特定方法は、例えば図1に示すような概略構成を備える体毛成長度測定装置10を用いて行われることになる。すなわち、体毛成長度測定装置10は、主として画像処理部11としてのコンピュータと、撮像部12としてのデジタルカメラと、モニタ14と、コンピュータに付属するキーボード13a、マウス13b等からなり、撮像部12は、例えば被験部位を含んだ領域のカラー画像を撮影し、撮影した画像に基づく例えば30万〜600万画素の画像信号を、画像データとして出力する。   Here, the method for specifying the test site of the present embodiment is performed using the hair growth measuring apparatus 10 having a schematic configuration as shown in FIG. 1, for example. That is, the hair growth measuring apparatus 10 mainly includes a computer as the image processing unit 11, a digital camera as the imaging unit 12, a monitor 14, a keyboard 13a and a mouse 13b attached to the computer, and the imaging unit 12 includes For example, a color image of a region including the test site is captured, and an image signal of, for example, 300,000 to 6 million pixels based on the captured image is output as image data.

また、画像処理部11は、例えば撮像部12からの画像信号による画像をモニタ14に表示したり、後述の各種指令に応じて、例えば各画素の画素値と、各画素の近傍領域における画素値の中央値との差を求めて、その差の画像を表示するといった画像処理を行う。   Further, the image processing unit 11 displays, for example, an image based on an image signal from the imaging unit 12 on the monitor 14 or, for example, a pixel value of each pixel and a pixel value in a neighborhood region of each pixel according to various commands described later. Image processing is performed such that a difference from the median of the difference is obtained and an image of the difference is displayed.

さらに、画像処理部11としてのコンピュータは、例えば撮影された画像データや画像データから得られた体毛のデータ等を蓄積すると共に、各種の演算を行い、またこれと接続するキーボード13aやマウス13b等から送られる各種の指令を実行して、画像処理ができるようになっている。   Further, the computer as the image processing unit 11 stores, for example, photographed image data and hair data obtained from the image data, performs various calculations, and is connected to the keyboard 13a, mouse 13b, and the like. The image processing can be performed by executing various commands sent from.

そして、本実施形態の被験部位の特定方法によれば、第1ステップにおいては、被験部位を含んで撮影した第1のカラー画像を第1画像データとして記憶する。すなわち、例えば女性の脚の所定の部位において、被験部位となるべき概略の領域として、例えば縦30mm、横40mmの矩形の領域にマーキング16(図2(a)参照)を描いてこれを撮影対象とし、かかる領域を撮像部12によって撮影すると共に、得られた画像信号を第1画像データとして画像処理部11に出力して、モニタ14に表示すると共に、当該画像信号をコンピュータ11に蓄積する。   And according to the test site | part identification method of this embodiment, in a 1st step, the 1st color image imaged including the test site | part is memorize | stored as 1st image data. That is, for example, in a predetermined region of a female leg, a marking 16 (see FIG. 2A) is drawn on a rectangular region having a length of 30 mm and a width of 40 mm as an approximate region to be a test site, for example. The image is captured by the imaging unit 12, the obtained image signal is output to the image processing unit 11 as first image data, displayed on the monitor 14, and the image signal is stored in the computer 11.

また、第2ステップにおいては、第1のカラー画像上で被験部位15の範囲を指定する。すなわち、第1のカラー画像を、図2(a)に示すようにモニタ14に表示し、この表示されたカラー画像上で、体毛の経時的変化が比較観察される実際の被験部位15を指定すると共に、得られた被験部位15のデータもコンピュータ11に蓄積する。   In the second step, the range of the test site 15 is designated on the first color image. That is, the first color image is displayed on the monitor 14 as shown in FIG. 2A, and the actual test site 15 on which the change in body hair over time is compared and observed is designated on the displayed color image. At the same time, the obtained data of the test site 15 is also stored in the computer 11.

さらに、第3ステップにおいては、被験部位15の少なくとも一部を含んで撮影した第2のカラー画像を第2画像データとして記憶する。すなわち、第1ステップで被験部位15のカラー画像を撮影してから、例えば数日〜数週間経過後に、被験部位15における体毛の経時的変化を比較観察するべく、被験部位15と思われる例えば縦30mm、横40mmの矩形の領域にマーキング16’を描いてこれを撮影対象とし、かかる領域を撮像部12によって撮影すると共に、得られた画像信号を第2画像データとして画像処理部11に出力して、図3(a)に示すようにモニタ14に表示すると共に、当該画像信号をコンピュータ11に蓄積する。   Further, in the third step, a second color image that is captured including at least a part of the test site 15 is stored as second image data. That is, after taking a color image of the test site 15 in the first step, for example, several days to several weeks later, in order to compare and observe temporal changes in body hair at the test site 15, for example, the test site 15 is considered to be vertical. A marking 16 'is drawn on a rectangular area of 30mm and 40mm in width, and this is taken as an object to be imaged. The area is imaged by the imaging unit 12, and the obtained image signal is output to the image processing unit 11 as second image data. As shown in FIG. 3A, the image is displayed on the monitor 14 and the image signal is stored in the computer 11.

そして、本実施形態によれば、第4ステップにおいては、第1ステップによって得られた第1画像データと第3ステップによって得られた第2画像データに対し、RGBの各チャンネルの信号又はRGBの各チャンネルから線形変換によって得られる信号による画素値ついて、各画素の画素値と、各画素の近傍領域における画素値の代表値との差又は比を用いて画像処理を行う。また、その差又は比の画像をモニタ14に表示する。   According to the present embodiment, in the fourth step, RGB channel signals or RGB signals are obtained for the first image data obtained in the first step and the second image data obtained in the third step. With respect to pixel values obtained from signals obtained by linear conversion from each channel, image processing is performed using the difference or ratio between the pixel value of each pixel and the representative value of the pixel value in the vicinity of each pixel. Further, an image of the difference or ratio is displayed on the monitor 14.

ここで、RGBの各チャンネルの信号による画素値とは、撮像部(デジタルカメラ)11の撮像子(CCDやCMOS等のイメージセンサ等)からのRGB信号のことである。   Here, the pixel values based on the signals of the RGB channels are RGB signals from the image pickup unit (image sensor such as a CCD or CMOS) of the image pickup unit (digital camera) 11.

また、RGBの各チャンネルから線形変換によって得られる信号による画素値とは、RGB各チャンネルの信号と下記(式1)で表される関係にある信号である。ここで、(式1)において、R’、G’、B’は、R、G、B信号の変換後の信号であり、a11〜a33は、変換に用いる係数である。 In addition, the pixel value obtained by linear conversion from each RGB channel is a signal having a relationship represented by the following (Equation 1) with the RGB channel signal. Here, in (Expression 1), R ′, G ′, and B ′ are signals after conversion of R, G, and B signals, and a 11 to a 33 are coefficients used for conversion.

さらに、各画素の近傍領域とは、画素の中心から一定半径の円内に含まれる画素の集合である。例えば、画素の合計が、横3000画素×縦2000画素=600万画素(全画素数)から成る場合に、ある画素を中心とする半径rの円を考える。そして、この円内に含まれる画素数を全画素数の2%にしたい場合は、πr2/600万=0.02から半径rとして約200画素が求められるが、各画素の近傍領域とは、この求められた半径rの円内にある画素の集合体を意味することになる。   Furthermore, the neighborhood region of each pixel is a set of pixels included in a circle having a certain radius from the center of the pixel. For example, when the total number of pixels is composed of 3000 horizontal pixels × 2000 vertical pixels = 6 million pixels (total number of pixels), consider a circle with a radius r centered on a certain pixel. When the number of pixels included in this circle is to be 2% of the total number of pixels, about 200 pixels are obtained as a radius r from πr2 / 6 million = 0.02. This means an aggregate of pixels in the circle having the calculated radius r.

なお、本実施形態によれば、各画素の近傍領域が占める画素数は、画像データの全画素数の0.1〜20%であることが好ましく、0.3〜3%であることが特に好ましい。各画素の近傍領域が占める画素数が画像データの全画素数の0.1〜20%であることにより、例えば、各画素の画素値と、各画素の近傍領域における画素値の中央値の差を求めた際に、画像から肌色を効果的に除去することができ、皮下の血管のパターン、色素沈着、毛穴の配置等の特徴を効果的に際立たせることが可能になる。   Note that, according to the present embodiment, the number of pixels occupied by the vicinity region of each pixel is preferably 0.1 to 20% of the total number of pixels of the image data, and particularly preferably 0.3 to 3%. preferable. Since the number of pixels occupied by the neighboring area of each pixel is 0.1 to 20% of the total number of pixels of the image data, for example, the difference between the pixel value of each pixel and the median value of the pixel values in the neighboring area of each pixel , Skin color can be effectively removed from the image, and features such as subcutaneous blood vessel pattern, pigmentation, and pore arrangement can be effectively highlighted.

さらにまた、各画素の近傍領域における画素値の代表値とは、当該近傍領域に含まれる画素に対して平均値の算出や中央値の算出等の統計処理を行った結果、得られる値である。   Furthermore, the representative value of the pixel value in the vicinity region of each pixel is a value obtained as a result of performing statistical processing such as calculation of an average value and calculation of a median value on the pixels included in the vicinity region. .

ここで、画素値の代表値としては、例えば中央値、平均値、1/4位数と3/4位数との平均値、最大値と最小値との平均値等を採用することができるが、中央値を用いることが好ましい。画素値の代表値として中央値を用いることにより、ホクロのように肌に比べて明暗の差が大きなエッジ部の影響が、画素の周囲に広範囲に亘って及ばないという利点が得られることになる。   Here, as the representative value of the pixel value, for example, a median value, an average value, an average value of 1/4 order and 3/4 order, an average value of maximum value and minimum value, or the like can be adopted. However, it is preferable to use the median value. By using the median value as the representative value of the pixel value, there is an advantage that the influence of the edge portion having a large difference in brightness compared to the skin like a mole does not extend over a wide range around the pixel. .

そして、本実施形態によれば、第1画像データと第2画像データに対して上述のような画像処理が行われることにより、図2(b)、及び図3(b)に示すような、画素から肌色に近い成分が抜かれて、肌色と異なる色部分である皮膚の色素沈着部分、毛穴、血管等の現れた部分が強調された、強調画像が得られることになる。   And according to this embodiment, by performing the above image processing with respect to 1st image data and 2nd image data, as shown in FIG.2 (b) and FIG.3 (b), A component close to the skin color is removed from the pixel, and an enhanced image is obtained in which the pigmented portion, pores, blood vessels, and the like that are different from the skin color are emphasized.

また、第5ステップにおいては、画像処理された各処理データを表示して、被験部位15のずれを確認する。すなわち、本実施形態によれば、例えば図2(b)、及び図3(b)に示すような画像処理後の強調画像を並べて表示し、強調された肌色と異なる色素沈着部分、毛穴、血管等の現れた部分等を手がかりとすることにより、第1画像データの処理画像に描かれた被験部位15を、第2画像データの処理画像に容易にトレースすることが可能になる。また第2画像データの処理画像には、第3ステップにおいて撮影対象となった、被験部位と思われる領域のマーキング16’が画像処理後も残って同時に表示されており、トレースされた被験部位15とマーキング16’とを比較することによって、被験部位15のずれを容易に確認することが可能になる。   Further, in the fifth step, each processed data subjected to image processing is displayed, and the shift of the test site 15 is confirmed. That is, according to the present embodiment, for example, the emphasized images after image processing as shown in FIG. 2B and FIG. 3B are displayed side by side, and pigmented portions, pores, blood vessels different from the emphasized skin color are displayed. As a clue to a portion where the above appears, the test site 15 drawn in the processed image of the first image data can be easily traced to the processed image of the second image data. Further, in the processed image of the second image data, the marking 16 ′ of the region considered to be a test site, which is an object to be imaged in the third step, remains after image processing and is displayed at the same time, and the traced test site 15 And the marking 16 ′ can be easily checked for deviation of the test site 15.

さらに、必要に応じて適宜実施される第6ステップにおいては、第5ステップで確認された被験部位15のずれに基づいて、第3ステップで女性の脚の所定の部位にマーキング16’(図2(a)参照)を施した撮影対象から、確認されたずれの分移動した位置を新たな撮影対象として撮影し直すことにより、被験部位15の全体を含んだ第2のカラー画像による第2画像データを容易に得ることが可能になる。これによって、第1画像データによる被験部位15と第2画像データによる被験部位15の全体を容易に比較観察できるようになり、当該被験部位15における体毛の成長状態の経時的変化を正確に評価することが可能になる。   Further, in the sixth step, which is appropriately performed as necessary, the marking 16 ′ (FIG. 2) is performed on the predetermined part of the female leg in the third step based on the deviation of the test part 15 confirmed in the fifth step. The second image by the second color image including the entire test region 15 is obtained by re-imaging the position that has been moved by the confirmed deviation from the imaging target subjected to (a)) as a new imaging target. Data can be easily obtained. This makes it possible to easily compare and observe the entire test site 15 based on the first image data and the test site 15 based on the second image data, and accurately evaluate changes over time in the growth state of the body hair at the test site 15. It becomes possible.

すなわち、本実施形態の被験部位の特定方法によれば、所定の画像処理によって得られた、肌色と異なる色部分である皮膚の色素沈着部分、毛穴の配置、血管等の現れた部分が強調された強調画像を介することにより、キズ、アザ、ホクロ等を目印とすることなく、かつ被験部位に長期に渡ってマーキングを施しておくことなく、先に撮影した被験部位15の画像データに対する、後に撮影した画像データのずれを容易且つ正確に把握することが可能になる。   That is, according to the test site specifying method of the present embodiment, the pigmented portion of the skin, which is a color portion different from the skin color, obtained by predetermined image processing, the arrangement of pores, and the portion where blood vessels appear are emphasized. By using the emphasized image, the image data of the test site 15 previously imaged without using marks, scratches, moles, etc., and without marking the test site for a long time, It is possible to easily and accurately grasp the deviation of the captured image data.

なお、本発明は上記実施形態に限定されることなく種々の変更が可能である。例えば、本発明の被験部位の特定方法は、肌に生えた体毛の経時的変化を比較観察する場合に限定されることなく、ヒトの肌における他の種々の要素の経時的変化を評価するべく被験部位を特定する際に採用することができる。また、第1画像データと第2画像データの画像処理は、同時に行う必要は必ずしもなく、第1画像データの画像処理を先に行って記憶しておき、第2画像データに対する画像処理を行った際にこれを取り出して比較するようにしても良い。   The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, the method for identifying the test site of the present invention is not limited to comparative observation of changes in body hairs that grow on the skin, and is intended to evaluate changes over time in various other factors in human skin. It can be employed when specifying the test site. The image processing of the first image data and the second image data is not necessarily performed at the same time. The image processing of the first image data is first performed and stored, and the image processing is performed on the second image data. At this time, it may be taken out and compared.

本発明の一実施形態に係る被験部位の特定方法を行う際に用いる体毛成長度測定装置の基本構成の説明図である。It is explanatory drawing of the basic composition of the hair growth measurement apparatus used when performing the identification method of the test site | part which concerns on one Embodiment of this invention. (a)は画像処理前の第1画像データの説明図、(b)は画像処理後の第1画像データの説明図である。(A) is explanatory drawing of the 1st image data before image processing, (b) is explanatory drawing of the 1st image data after image processing. (a)は画像処理前の第2画像データの説明図、(b)は画像処理後の第2画像データの説明図である。(A) is explanatory drawing of the 2nd image data before image processing, (b) is explanatory drawing of the 2nd image data after image processing.

符号の説明Explanation of symbols

10 体毛成長度測定装置
11 画像処理部(コンピュータ)
12 撮像部(デジタルカメラ)
13a キーボード
13b マウス
14 モニタ
15 被験部位
16,16’ 撮影対象領域のマーキング
10 Hair Growth Measuring Device 11 Image Processing Unit (Computer)
12 Imaging unit (digital camera)
13a Keyboard 13b Mouse 14 Monitor 15 Test site 16, 16 ′ Marking of imaging target area

Claims (4)

肌面を撮影したカラー画像から画像処理によって被験部位を特定する被験部位の特定方法であって、
前記被験部位を含んで撮影した第1のカラー画像を第1画像データとして記憶する第1ステップと、前記第1のカラー画像上で前記被験部位の範囲を指定する第2ステップと、前記被験部位の少なくとも一部を含んで撮影した第2のカラー画像を第2画像データとして記憶する第3ステップと、前記第1ステップによって得られた第1画像データと第3ステップによって得られた第2画像データに画像処理を施す第4ステップと、画像処理された各処理データを表示して前記被験部位のずれを確認する第5ステップとからなり、
前記画像処理を施す第4ステップでは、RGBの各チャンネルの信号又はRGBの各チャンネルから線形変換によって得られる信号による画素値ついて、各画素を中心とした全画素数の0.1〜20%の画素数を占める領域を近傍領域として、該近傍領域における画素値の中央値を代表値とし、各画素の画素値と、前記代表値との差を用いて前記画像処理を行う被験部位の特定方法。
A method for identifying a test site by specifying a test site by image processing from a color image obtained by photographing a skin surface,
A first step of storing, as first image data, a first color image photographed including the test site, a second step of designating a range of the test site on the first color image, and the test site A third step of storing a second color image photographed including at least a part of the second color image as second image data, a first image data obtained by the first step, and a second image obtained by the third step A fourth step of performing image processing on the data, and a fifth step of displaying each processing data subjected to image processing and confirming the deviation of the test site,
In the fourth step of performing the image processing, the pixel value of the RGB channel signal or the signal obtained by linear conversion from the RGB channel is 0.1 to 20% of the total number of pixels centered on each pixel. the region occupied by the number of pixels as the neighboring region, as a representative value the median value of pixel values in the near-neighbor region, a pixel value of each pixel, a specific method of the test site at which the image processing using the difference between the representative value .
前記各画素の近傍領域が占める画素数は、前記画像データの全画素数の0.3〜20%である請求項1記載の被験部位の特定方法。 The test site specifying method according to claim 1, wherein the number of pixels occupied by a neighborhood region of each pixel is 0.3 to 20% of the total number of pixels of the image data. 前記各画素の近傍領域は、画素の中心から一定半径の円内に含まれる画素の集合である請求項1又は2に記載の被験部位の特定方法。 The method for identifying a test site according to claim 1 or 2, wherein the neighboring region of each pixel is a set of pixels included in a circle having a constant radius from the center of the pixel . 前記第5ステップにおいて前記被験部位のずれを確認した後に、該ずれが修正されるように前記被験部位の全体を含んだ前記第2のカラー画像を撮影し直す第6ステップを含む請求項1〜3のいずれかに記載の被験部位の特定方法。     6. The method according to claim 1, further comprising a sixth step of re-imaging the second color image including the whole of the test site so that the shift is corrected after confirming the shift of the test site in the fifth step. 4. The test site specifying method according to any one of 3 above.
JP2004333924A 2004-11-18 2004-11-18 Identification method of test site Expired - Fee Related JP4118270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004333924A JP4118270B2 (en) 2004-11-18 2004-11-18 Identification method of test site

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004333924A JP4118270B2 (en) 2004-11-18 2004-11-18 Identification method of test site

Publications (2)

Publication Number Publication Date
JP2006141581A JP2006141581A (en) 2006-06-08
JP4118270B2 true JP4118270B2 (en) 2008-07-16

Family

ID=36621923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004333924A Expired - Fee Related JP4118270B2 (en) 2004-11-18 2004-11-18 Identification method of test site

Country Status (1)

Country Link
JP (1) JP4118270B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5822545B2 (en) * 2011-06-09 2015-11-24 キヤノン株式会社 Image processing apparatus, image processing apparatus control method, and program
JP6210266B2 (en) * 2013-03-13 2017-10-11 セイコーエプソン株式会社 Camera and image processing method
JP6504914B2 (en) * 2015-05-20 2019-04-24 花王株式会社 Method of observing skin capillaries
KR102555594B1 (en) * 2016-12-20 2023-07-14 가부시키가이샤 시세이도 Dispensing control device, dispensing device, dispensing control method and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690932A (en) * 1992-09-14 1994-04-05 Shiseido Co Ltd Hair growth degree measuring method
JP3727807B2 (en) * 1999-06-14 2005-12-21 株式会社資生堂 Method and apparatus for measuring components in skin and skin characteristics
JP2003189101A (en) * 2001-12-18 2003-07-04 Konica Corp Image forming method

Also Published As

Publication number Publication date
JP2006141581A (en) 2006-06-08

Similar Documents

Publication Publication Date Title
US10653295B2 (en) Image processing apparatus, endoscope system, and image processing method
US8767057B2 (en) Image processing device, image processing method, and program
US9538907B2 (en) Endoscope system and actuation method for displaying an organ model image pasted with an endoscopic image
JP5276225B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
EP1199031A3 (en) X-ray free intravascular position and imaging system
US10672123B2 (en) Image processing apparatus, endoscope system, and image processing method
KR20060043280A (en) Method for automatic detecting the sagittal plane
US20210186460A1 (en) Method of spatially locating points of interest during a surgical procedure
US20210133974A1 (en) Endoscope system
CN106659360A (en) Diagnosis assistance device and diagnosis assistance information display method
JP2017213097A (en) Image processing device, image processing method, and program
JP2007252891A (en) Estimation method of evaluation value by visual recognition of beauty of skin
KR20160118037A (en) Apparatus and method for detecting lesion from medical image automatically
JP6218709B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP4118270B2 (en) Identification method of test site
US11564560B2 (en) Image processing apparatus, operating method of image processing apparatus, and computer-readable recording medium
JPWO2019092950A1 (en) Image processing equipment, image processing method and image processing system
JP6313913B2 (en) Endoscopic image observation support system
JP5611441B1 (en) Image processing apparatus for microscope and medical microscope system
JP6814172B2 (en) Skin internal structure estimation method, skin internal structure estimation program, and skin internal structure estimation device
JP2016214567A (en) Skin capillary vessel observation method
JP4619112B2 (en) Hair shape measurement method
CN113271839A (en) Endoscope device and endoscope system
US9386908B2 (en) Navigation using a pre-acquired image
WO2014192990A1 (en) Method for estimating motion in blood vessel image and apparatus therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080422

R151 Written notification of patent or utility model registration

Ref document number: 4118270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140502

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees