JP6273640B2 - Captured image display device - Google Patents

Captured image display device Download PDF

Info

Publication number
JP6273640B2
JP6273640B2 JP2013220512A JP2013220512A JP6273640B2 JP 6273640 B2 JP6273640 B2 JP 6273640B2 JP 2013220512 A JP2013220512 A JP 2013220512A JP 2013220512 A JP2013220512 A JP 2013220512A JP 6273640 B2 JP6273640 B2 JP 6273640B2
Authority
JP
Japan
Prior art keywords
image
face
area
evaluation area
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013220512A
Other languages
Japanese (ja)
Other versions
JP2015080647A (en
Inventor
善光 野口
善光 野口
飯島 友邦
友邦 飯島
山形 道弘
道弘 山形
今村 典広
典広 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2013220512A priority Critical patent/JP6273640B2/en
Publication of JP2015080647A publication Critical patent/JP2015080647A/en
Application granted granted Critical
Publication of JP6273640B2 publication Critical patent/JP6273640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本願は、ユーザの顔等を撮影し、肌の特徴部分を表示する撮影画像表示装置に関する。   The present application relates to a photographed image display device that photographs a user's face and the like and displays a characteristic portion of the skin.

美容分野において、肌の状態を観察あるいは評価する装置が求められている。たとえば、肌のシミや皺を測定する装置が実現されている。   In the beauty field, there is a need for an apparatus for observing or evaluating skin conditions. For example, an apparatus for measuring skin spots and wrinkles has been realized.

特許文献1は、肌にプローブを接触あるいは近接させて、肌の局所的な透明感を評価する方法を開示している。また、特許文献2は、肌の測定を行う被検者が、顔や頭を所定の装置内に挿入し、顔の肌の評価を行う装置を開示している。   Patent Document 1 discloses a method for evaluating local transparency of skin by bringing a probe into contact with or close to the skin. Patent Document 2 discloses an apparatus in which a subject who performs skin measurement inserts a face and a head into a predetermined apparatus and evaluates the skin of the face.

特許第4105554号公報Japanese Patent No. 4105554 特許第4485837号公報Japanese Patent No. 4485837

このような従来技術においては、使用者がより手軽に、顔の広い部分における肌の特徴部分を評価あるいは観察できることが求められていた。本願の限定的ではないある実施形態は、種々の撮影環境においても、正しく肌の特徴部分を示す画像を表示することのできる撮影画像表示装置を提供する。   In such a conventional technique, it has been required that the user can more easily evaluate or observe the characteristic part of the skin in the wide part of the face. A non-limiting embodiment of the present application provides a captured image display device that can correctly display an image showing a characteristic portion of skin even in various imaging environments.

本願の一実施形態に係る撮影画像表示装置は、ユーザの顔の少なくとも一部を撮影し、撮影した画像を表示する撮影画像表示装置であって、前記ユーザの顔の少なくとも一部を撮像するカメラと、前記カメラから得られた顔画像に基づく表示用の第1の顔画像、または、前記第1の顔画像から生成された第2の顔画像に基づき、前記第1の顔画像または前記第2の顔画像の肌部分における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を示す特徴画像を生成し、前記第1の顔画像に前記特徴画像が重畳された第3の顔画像を生成する画像処理部と、前記第3の顔画像を表示するディスプレイとを備える。   A captured image display device according to an embodiment of the present application is a captured image display device that captures at least a part of a user's face and displays the captured image, and that captures at least a part of the user's face. And the first face image for display based on the face image obtained from the camera, or the second face image generated from the first face image, or the first face image or the first face image Generating a feature image indicating a feature portion of the skin appearing in the face image in a region other than the region including the low luminance region and the high luminance region in the skin portion of the face image of the second face image, and the feature in the first face image An image processing unit that generates a third face image on which an image is superimposed, and a display that displays the third face image.

本願に開示された撮影画像表示装置によれば、種々の撮影環境においても、肌の特徴部分を示す画像を表示することが可能である。     According to the photographed image display device disclosed in the present application, it is possible to display an image showing a characteristic part of the skin even in various photographing environments.

(a)は、第1の実施形態による撮影画像表示装置の正面図であり、(b)は、情報処理装置の構成を示すブロック図である。(A) is a front view of the picked-up image display apparatus by 1st Embodiment, (b) is a block diagram which shows the structure of information processing apparatus. (a)は、第1の実施形態による撮影画像表示装置のブロック図であり、(b)は、画像処理部のブロック図である。(A) is a block diagram of the captured image display apparatus according to the first embodiment, and (b) is a block diagram of an image processing unit. 第1の実施形態による撮影画像表示装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the picked-up image display apparatus by 1st Embodiment. (a)から(c)は2値画像処理における画素の膨張処理を説明する図である。(A) to (c) is a diagram for explaining pixel expansion processing in binary image processing. 肌の特徴部分の検出方法を説明する図である。It is a figure explaining the detection method of the characteristic part of skin. (a)は、第1の実施形態による撮影画像表示装置に表示される画像の模式的な一例であり、(b)は、ディスプレイに示される画像の具体的な一例を示している。(A) is a typical example of the image displayed on the picked-up image display apparatus by 1st Embodiment, (b) has shown the specific example of the image shown on a display. (a)は、第2の実施形態による撮影画像表示装置の画像処理部のブロック図であり、(b)は、画像処理部の他のブロック図である。(A) is a block diagram of the image processing part of the picked-up image display apparatus by 2nd Embodiment, (b) is another block diagram of an image processing part. 第2の実施形態による撮影画像表示装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the picked-up image display apparatus by 2nd Embodiment. 第2の実施形態による撮影画像表示装置に表示される画像の模式的な一例である。It is a typical example of the image displayed on the picked-up image display apparatus by 2nd Embodiment. (a)から(c)は、第2の実施形態における評価区域の位置及び形状を示す一例である。(A)-(c) is an example which shows the position and shape of an evaluation area in 2nd Embodiment. (a)から(c)は、第2の実施形態における、ユーザが設定し得る評価区域の一例である。(A) to (c) are examples of evaluation areas that can be set by the user in the second embodiment. 第2の実施形態において設定される評価区域の一例を示す図である。It is a figure which shows an example of the evaluation area set in 2nd Embodiment. 図12に示す評価区域に縮小した区域を設定した例を示す図である。It is a figure which shows the example which set the area reduced to the evaluation area shown in FIG. 第2の実施形態において設定される評価区域、低輝度領域および高輝度領域の一例を示す図である。It is a figure which shows an example of the evaluation area, low-luminance area | region, and high-luminance area | region set in 2nd Embodiment. 図14に示す評価区域に縮小した区域を設定し、かつ、低輝度領域および高輝度領域を除外した一例を示す図である。It is a figure which shows an example which set the area reduced to the evaluation area shown in FIG. 14, and excluded the low-intensity area | region and the high-intensity area | region. 第2の実施形態の他の例による撮影画像表示装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the picked-up image display apparatus by the other example of 2nd Embodiment. 第2の実施形態の他の例による撮影画像表示装置に表示される画像の模式的な一例である。It is a typical example of the image displayed on the picked-up image display apparatus by the other example of 2nd Embodiment. その他の実施形態による撮影画像表示装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the picked-up image display apparatus by other embodiment. その他の実施形態による画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part by other embodiment. その他の実施形態による指標画像の一例を示す図である。It is a figure which shows an example of the parameter | index image by other embodiment.

本願発明者は従来技術を詳細に検討した。特許文献1に開示された方法によれば、局所的な肌の状態が分かる。しかし、顔の頬全体等広い部分から求められるものではないため、たとえば、頬や顔全体など、局所的ではない広い領域における肌の状態、たとえば、皺の分布などが分かりにくい。   The inventor of the present application examined the prior art in detail. According to the method disclosed in Patent Document 1, the local skin condition is known. However, since it is not obtained from a wide part such as the entire cheek of the face, for example, it is difficult to understand the skin state in a wide non-local area such as the cheek or the entire face, for example, the distribution of wrinkles.

また、特許文献2に開示された装置によれば、頭を所定の装置内に挿入したり、顔を所定の装置の所定の位置に配置する必要がある。これは、所定の撮影条件を満たさないと、肌の状態の評価が正確ではなくなるからである。   Further, according to the device disclosed in Patent Document 2, it is necessary to insert the head into a predetermined device or to place the face at a predetermined position of the predetermined device. This is because the skin condition is not accurately evaluated unless predetermined imaging conditions are satisfied.

本願発明者はこのような課題に鑑み、一般的なあるいは簡単な条件で撮影が可能であり、かつ肌の状態の評価を正しく行うことのできる撮影画像表示装置を想到した。本願の一実施形態に係る撮影画像表示装置の詳細は以下のとおりである。   In view of such problems, the inventor of the present application has come up with a photographic image display device that can shoot under general or simple conditions and can correctly evaluate the skin condition. Details of the captured image display device according to an embodiment of the present application are as follows.

本願の一実施形態に係る撮影画像表示装置は、ユーザの顔の少なくとも一部を撮影し、撮影した画像を表示する撮影画像表示装置であって、前記ユーザの顔の少なくとも一部を撮像するカメラと、前記カメラから得られた顔画像に基づく表示用の第1の顔画像、または、前記第1の顔画像から生成された第2の顔画像に基づき、前記第1の顔画像または前記第2の顔画像の肌部分における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を示す特徴画像を生成し、前記第1の顔画像に前記特徴画像が重畳された第3の顔画像を生成する画像処理部と、前記第3の顔画像を表示するディスプレイとを備える。   A captured image display device according to an embodiment of the present application is a captured image display device that captures at least a part of a user's face and displays the captured image, and that captures at least a part of the user's face. And the first face image for display based on the face image obtained from the camera, or the second face image generated from the first face image, or the first face image or the first face image Generating a feature image indicating a feature portion of the skin appearing in the face image in a region other than the region including the low luminance region and the high luminance region in the skin portion of the face image of the second face image, and the feature in the first face image An image processing unit that generates a third face image on which an image is superimposed, and a display that displays the third face image.

前記画像処理部は、前記第1の顔画像または前記第2の顔画像の一部に評価区域を設定し、前記評価区域であって、前記評価区域内における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を示す特徴画像を生成してもよい。   The image processing unit sets an evaluation area in a part of the first face image or the second face image, and the evaluation area includes a low luminance area and a high luminance area in the evaluation area. A feature image showing a feature portion of the skin appearing in the face image may be generated in a region other than the region including.

前記画像処理部は、前記評価区域を示す画像をさらに生成し、前記第1の顔画像に前記特徴画像および前記評価区域が重畳された前記第3の顔画像を生成してもよい。   The image processing unit may further generate an image indicating the evaluation area, and generate the third face image in which the feature image and the evaluation area are superimposed on the first face image.

前記ユーザからの入力を受け付けるユーザインターフェースをさらに備え、前記画像処理部は、前記ユーザインターフェースから入力に基づき前記評価区域を設定してもよい。   The image processing unit may further include a user interface that receives an input from the user, and the image processing unit may set the evaluation area based on the input from the user interface.

前記画像処理部は、前記第1の顔画像から前記顔の特徴点を抽出し、前記顔の特徴点に基づき、前記評価区域を設定してもよい。   The image processing unit may extract feature points of the face from the first face image, and set the evaluation area based on the feature points of the face.

前記画像処理部は、前記カメラから得られた画像の鏡像を前記第1の顔画像として生成してもよい。   The image processing unit may generate a mirror image of an image obtained from the camera as the first face image.

本願の一実施形態に係る他の撮影画像表示装置は、ユーザの顔の少なくとも一部を撮影し、撮影した画像を表示する撮影画像表示装置であって、前記ユーザの顔の少なくとも一部を撮像するカメラと、前記カメラから得られた顔画像に基づく表示用の第1の顔画像、または、前記第1の顔画像から生成された第2の顔画像に基づき、前記第1の顔画像または前記第2の顔画像の肌部分における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を指標化した指標画像を生成し、前記第1の顔画像および前記指標画像を合成した第3の顔画像を生成する画像処理部と、前記第3の顔画像を表示するディスプレイとを備える。   Another captured image display device according to an embodiment of the present application is a captured image display device that captures at least a part of a user's face and displays the captured image, and captures at least a part of the user's face. And the first face image for display based on the face image obtained from the camera, or the second face image generated from the first face image, or the first face image or Generating an index image in which the skin feature portion appearing in the face image is indexed in areas other than the low brightness area and the high brightness area in the skin portion of the second face image; An image processing unit that generates a third face image obtained by combining the image and the index image, and a display that displays the third face image.

前記撮影画像表示装置は、表示面を有する筐体をさらに備え、前記ディスプレイおよび前記カメラは前記表示面に設けられてもよい。   The captured image display device may further include a housing having a display surface, and the display and the camera may be provided on the display surface.

前記撮影画像表示装置は、前記表示面に設けられた、前記ユーザに光を照射する光源をさらに備えていてもよい。   The photographed image display device may further include a light source provided on the display surface for irradiating the user with light.

前記光は偏光光であり、前記カメラは偏光フィルタを含んでいてもよい。   The light may be polarized light, and the camera may include a polarizing filter.

前記撮影画像表示装置は、前記光源および前記カメラを制御する制御部をさらに備え、前記カメラは、前記制御部の制御により前記光源を点灯させて前記ユーザの顔を撮影した画像、および前記制御部の制御により前記光源を消灯させて前記ユーザの顔を撮影した画像を生成し、前記画像処理部は、前記光源を点灯させて前記ユーザの顔を撮影した画像を前記第1の顔画像とし、前記第1の顔画像から、前記光源を消灯させて前記ユーザの顔を撮影した画像を減じた画像を前記第2の顔画像として用いてもよい。   The photographed image display device further includes a control unit that controls the light source and the camera, and the camera captures the user's face by turning on the light source under the control of the control unit, and the control unit. The image is generated by photographing the user's face with the light source turned off under the control of the image processing unit, and the image obtained by photographing the user's face with the light source turned on is the first face image. An image obtained by subtracting an image obtained by photographing the user's face by turning off the light source from the first face image may be used as the second face image.

本願の一実施形態に係る撮影および画像表示方法は、ユーザの顔の少なくとも一部を撮像することによって、顔画像を取得する工程と、前記顔画像に基づく表示用の第1の顔画像、または、前記第1の顔画像から生成された第2の顔画像に基づき、前記第1の顔画像または前記第2の顔画像の肌部分における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を示す特徴画像を生成する工程と、前記第1の顔画像に前記特徴画像が重畳した第3の顔画像を生成する工程と、前記第3の顔画像を表示する工程とを包含する。   The imaging and image display method according to an embodiment of the present application includes a step of acquiring a facial image by imaging at least a part of a user's face, and a first facial image for display based on the facial image, or Based on the second face image generated from the first face image, except for the first face image or a region other than a region including a region having a high luminance and a region having a high luminance in the skin portion of the second face image. A step of generating a feature image indicating a feature portion of the skin appearing in the face image, a step of generating a third face image in which the feature image is superimposed on the first face image, and the third face Displaying an image.

(第1の実施形態)
図1(a)は、本実施形態の撮影画像表示装置1の模式的な正面図である。撮影画像表示装置1は、カメラ2と、光源3と、ディスプレイ4、と情報処理装置(マイコン)5とを備える。撮影画像表示装置1は、たとえば、筐体6をさらに備え、筐体6の表示面6aにカメラ2、ディスプレイ4および光源3が配置される。また、筐体6内に情報処理装置5が収納されている。図1(b)に示すように、情報処理装置5はメモリ5aおよび演算装置5bを含む。
(First embodiment)
Fig.1 (a) is a typical front view of the picked-up image display apparatus 1 of this embodiment. The captured image display device 1 includes a camera 2, a light source 3, a display 4, and an information processing device (microcomputer) 5. The captured image display device 1 further includes, for example, a housing 6, and the camera 2, the display 4, and the light source 3 are disposed on the display surface 6 a of the housing 6. Further, the information processing apparatus 5 is accommodated in the housing 6. As shown in FIG. 1B, the information processing device 5 includes a memory 5a and an arithmetic device 5b.

本実施形態では、光源3はディスプレイ4の水平方向の両側に配置されており、白色光を出射する。撮影画像表示装置1は、光源3を備えていなくてもよい。また、光源3は、以下において説明するように、顔の肌の特徴部分を検出するために偏光光を出射してもよいし、無偏光光を出射してもよい。さらに偏光軸の互いに異なる偏光光を順次出射してもよい。   In the present embodiment, the light sources 3 are disposed on both sides of the display 4 in the horizontal direction and emit white light. The captured image display device 1 may not include the light source 3. Further, as described below, the light source 3 may emit polarized light or non-polarized light in order to detect a facial skin feature. Further, polarized lights having different polarization axes may be sequentially emitted.

ユーザが表示面6aに顔を向けて撮影画像表示装置1を動作させると、光源3から出射する光がユーザの顔を照らし、カメラ2がユーザの顔を撮影する。撮影された顔の画像はディスプレイ4に表示される。この際、ディスプレイ4に表示される画像が鏡像となるように画像処理されていると、ユーザは鏡を見ているように違和感なく画像を見ることができる。ディスプレイ4に表示される画像は撮影された画像の鏡像でなくてもよい。   When the user operates the captured image display device 1 with the face facing the display surface 6a, the light emitted from the light source 3 illuminates the user's face, and the camera 2 captures the user's face. The captured face image is displayed on the display 4. At this time, if image processing is performed so that the image displayed on the display 4 becomes a mirror image, the user can see the image without feeling uncomfortable as if he is looking at the mirror. The image displayed on the display 4 may not be a mirror image of the photographed image.

撮影画像表示装置1は、顔の画像の肌領域に見られる肌の特徴であるシミ、皺、毛穴、ほうれい線などを検出し、これらを強調した画像を生成して顔の画像に重ねて表示する。表示面6aにカメラ2とディスプレイ4とが配置されているため、ユーザは撮影画像表示装置1を鏡(電子鏡)のように使用することができ、顔のシミや皺等をユーザ自身が手軽に観察することができる。また、従来の装置と異なり、頭や顔を特定の位置に配置させなくても、ディスプレイ4に顔が映るようにユーザが姿勢を調整するだけで、鏡を見るように顔のシミや皺等を観察できる。この際、撮影画像表示装置1は外部からの光の影響を受けるが、撮影画像表示装置1は、外部の光による影響によって、顔のシミや皺等が正しく検出できない部分では、シミや皺の表示を行わない。   The photographed image display device 1 detects spots, wrinkles, pores, frying lines, and the like, which are the characteristics of the skin seen in the skin area of the face image, generates an image in which these are emphasized, and overlays it on the face image. indicate. Since the camera 2 and the display 4 are arranged on the display surface 6a, the user can use the captured image display device 1 like a mirror (electronic mirror), and the user himself can easily remove facial stains, wrinkles, and the like. Can be observed. In addition, unlike a conventional apparatus, a user only adjusts his / her posture so that his / her face appears on the display 4 without placing his / her head or face at a specific position. Can be observed. At this time, the photographed image display device 1 is affected by light from the outside, but the photographed image display device 1 does not detect stains or wrinkles in a portion where a face stain or wrinkle cannot be correctly detected due to the influence of external light. Do not display.

以下、撮影画像表示装置1の構成および動作を詳細に説明する。図2(a)は、撮影画像表示装置1の機能ブロック図である。図2(a)に示すように、情報処理装置5は、撮影された画像をカメラ2から受け取り、処理する画像処理部5Aと、光源3およびカメラ2を制御する制御部5Bとしての機能を備える。これらの機能は、画像処理の手順や光源3およびカメラ2の制御の手順を規定したソフトウエアがメモリ5a(図1(b))に記憶されており、メモリ5aからソフトウエアが読みだされ、演算装置5bによって実行されることにより、実現する。   Hereinafter, the configuration and operation of the captured image display device 1 will be described in detail. FIG. 2A is a functional block diagram of the captured image display device 1. As illustrated in FIG. 2A, the information processing apparatus 5 includes a function as an image processing unit 5 </ b> A that receives and processes a captured image from the camera 2, and a control unit 5 </ b> B that controls the light source 3 and the camera 2. . These functions are stored in the memory 5a (FIG. 1 (b)), which defines the image processing procedure and the control procedure of the light source 3 and the camera 2, and the software is read from the memory 5a. This is realized by being executed by the arithmetic unit 5b.

図2(b)は、本実施形態における画像処理部5Aの詳細な機能ブロック図である。画像処理部5Aは、鏡像生成部11と、低輝度・高輝度領域除外部12と、特徴画像生成部13と、画像合成部14とを含む。   FIG. 2B is a detailed functional block diagram of the image processing unit 5A in the present embodiment. The image processing unit 5 </ b> A includes a mirror image generation unit 11, a low luminance / high luminance region exclusion unit 12, a feature image generation unit 13, and an image synthesis unit 14.

図3は、本実施形態における撮影画像表示装置1の動作を説明するフローチャートである。図2(a)、(b)および図3を参照しながら、撮影画像表示装置1の動作を説明する。   FIG. 3 is a flowchart for explaining the operation of the captured image display apparatus 1 in the present embodiment. The operation of the photographed image display device 1 will be described with reference to FIGS.

まず、ステップS1に示すように、制御部5Bは、光源3を点灯させ、カメラ2を動作させることによって、ユーザの顔を撮影する。これにより顔の画像が生成し、生成した画像はカメラ2から情報処理装置5へ出力される。なお、カメラ2は連続的に顔を撮影し、動画を情報処理装置5へ出力してもよいし、静止画を情報処理装置5へ出力してもよい。動画は所定の間隔で生成する静止画の集合である。情報処理装置5は1枚あるいは複数の静止画に対して以下で説明する画像処理を行い、顔のシミや皺等が強調された画像を静止画に重畳し、ディスプレイ4に表示する。このため、情報処理装置5の画像処理能力が高い場合には、動画を構成する各静止画のすべてに画像処理を行い、リアルタイムで顔のシミや皺等が強調された画像を表示してもよい。   First, as shown in step S <b> 1, the control unit 5 </ b> B shoots the user's face by turning on the light source 3 and operating the camera 2. As a result, a face image is generated, and the generated image is output from the camera 2 to the information processing apparatus 5. Note that the camera 2 may continuously capture a face and output a moving image to the information processing apparatus 5 or may output a still image to the information processing apparatus 5. A moving image is a set of still images generated at predetermined intervals. The information processing apparatus 5 performs image processing, which will be described below, on one or a plurality of still images, superimposes an image with emphasis on facial spots, wrinkles, etc. on the still image and displays it on the display 4. For this reason, when the image processing capability of the information processing device 5 is high, image processing is performed on all of the still images constituting the moving image, and an image in which facial spots or wrinkles are emphasized in real time is displayed. Good.

情報処理装置5によって構成される画像処理部5Aは、ステップS2に示すように、顔の画像情報を受け取り、鏡像生成部11が、顔画像の鏡像である第1の顔画像を示す第1の顔画像情報を生成する。前述したように、鏡像処理を行わず、撮影した画像をそのまま第1の顔画像としてもよい。生成した第1の顔画像情報は、低輝度・高輝度領域除外部12および画像合成部14へ出力される。   As shown in step S2, the image processing unit 5A configured by the information processing apparatus 5 receives face image information, and the mirror image generation unit 11 displays a first face image that is a mirror image of the face image. Generate face image information. As described above, the captured image may be used as it is as the first face image without performing the mirror image processing. The generated first face image information is output to the low luminance / high luminance region excluding unit 12 and the image synthesizing unit 14.

ステップS3に示すように、低輝度・高輝度領域除外部12は、第1の顔画像の肌部分における輝度が低い領域および輝度が高い領域を検出し、これらの領域を含む領域を第1の顔画像から除外する。なお、図3に示すフローチャートでは、輝度が低い領域の検出・除外と、輝度が高い領域の検出・除外とを並行して行うように示しているが、2つの処理を並行して行ってもよいし、いずれか一方の処理を先に行い、他方を後に行ってもよい。   As shown in step S3, the low-brightness / high-brightness region excluding unit 12 detects a low-brightness region and a high-brightness region in the skin portion of the first face image, and sets a region including these regions as the first region. Exclude from face image. In the flowchart shown in FIG. 3, detection / exclusion of a low-luminance region and detection / exclusion of a high-luminance region are shown to be performed in parallel, but two processes may be performed in parallel. Either one of the processes may be performed first and the other may be performed later.

具体的には、第1の顔画像において、たとえば、画像の各画素の色度から、肌部分であるかどうかを判別し、肌部分において、予め設定された輝度の閾値に基づいて、輝度が高い領域を抽出する。また、予め設定された輝度の別の閾値に基づいて輝度が低い領域を抽出する。予め設定されるそれぞれの閾値は、被写体や撮影環境に応じて変更されるよう複数記憶されていてもよいし、ひとつの値に固定されていてもよい。   Specifically, in the first face image, for example, it is determined whether or not it is a skin part from the chromaticity of each pixel of the image, and the brightness of the skin part is determined based on a preset brightness threshold. Extract high areas. In addition, a region with low luminance is extracted based on another threshold value of luminance set in advance. A plurality of preset threshold values may be stored so as to be changed according to the subject and the shooting environment, or may be fixed to one value.

除外する輝度が高い領域および輝度が低い領域が微小な画素単位で分布し、孤立している場合には、2値画像処理によって、輝度が高い領域および輝度が低い領域を収縮または膨張させ、孤立した領域が存在しないように、画像を変換してもよい。たとえば、図4(a)に示すように画像中、3つの孤立した画素(ハッチングされた画素)の輝度が閾値よりも高く、除外する領域として抽出された場合を考える。この場合、孤立した画素を結合させるために、抽出した画素を膨張させる。たとえば、対象画素に隣接する上下および左右の4方向に抽出した画素がある場合には、その対象画素も抽出した画素として扱う。これにより、図4(b)に示すように、除外する領域が拡大される。さらにもう一度同じ処理を行うことによって、図4(c)に示すように、3つの孤立した画素が結合した1つの大きな除外する領域を得ることができる。また、対象画素に隣接する上下、左右の方向に加えて、斜めの方向を含む8方向において抽出した画素のある場合に、その対象画素を抽出した画素として扱ってもよい。2値画像処理はデジタル画像処理分野において公知の技術である。2値画像処理を行う場合、除外される領域は、予め設定された輝度の閾値に基づく条件を満たさない領域を含む。   When the excluded high-brightness region and low-brightness region are distributed in minute pixel units and are isolated, the high-brightness region and the low-brightness region are contracted or expanded by binary image processing, and are isolated. The image may be converted so that the region does not exist. For example, as shown in FIG. 4A, consider a case where the brightness of three isolated pixels (hatched pixels) in an image is higher than a threshold value and extracted as an excluded region. In this case, the extracted pixels are expanded in order to combine isolated pixels. For example, when there are pixels extracted in four directions, up and down and left and right, adjacent to the target pixel, the target pixel is also treated as an extracted pixel. Thereby, as shown in FIG.4 (b), the area | region to exclude is expanded. Further, by performing the same process once again, as shown in FIG. 4C, it is possible to obtain one large excluded region in which three isolated pixels are combined. Further, when there are pixels extracted in eight directions including an oblique direction in addition to the vertical and horizontal directions adjacent to the target pixel, the target pixel may be treated as the extracted pixel. Binary image processing is a technique known in the digital image processing field. When performing binary image processing, the excluded area includes an area that does not satisfy a condition based on a preset luminance threshold.

次に、ステップS4に示すように、特徴画像生成部13は、顔画像の肌部分における輝度が低い領域および輝度が高い領域を含む領域が除外された第1の顔画像のうち、肌部分において、肌の特徴部分を検出する。   Next, as shown in step S <b> 4, the feature image generation unit 13 determines the skin portion of the first face image from which the low brightness region and the high brightness region in the skin portion of the face image are excluded. Detecting skin features.

前述したように肌の特徴部分は、シミ、皺、毛穴、ほうれい線などを含む。図5を参照して、肌の特徴部分の検出方法を説明する。図5は、肌の断面を模式的に示している。第1の顔画像の肌部分には、肌のシミ、皺、毛穴、ほうれい線などの種々の情報が含まれる。図5に示すように肌300は、肌300の表面300Sから内部に向かって0.06mm以上0.2mm程度の深さの範囲にある表皮300Aおよびこれよりも内部に存在する真皮300Bを含む。肌のシミ、皺、毛穴、ほうれい線は、肌における形状およびこれらが肌300中に存在する深さ位置が異なる。したがって、肌の異なる深さからの画像を得て、形状による識別を行えば、肌部分における特徴部分を抽出することができる。   As described above, the characteristic part of the skin includes a stain, a wrinkle, a pore, a fray line, and the like. With reference to FIG. 5, a method for detecting a characteristic part of the skin will be described. FIG. 5 schematically shows a cross section of the skin. The skin portion of the first face image includes various kinds of information such as skin spots, wrinkles, pores, and frying lines. As shown in FIG. 5, the skin 300 includes an epidermis 300 </ b> A in a range of a depth of about 0.06 mm or more and about 0.2 mm from the surface 300 </ b> S of the skin 300 toward the inside, and a dermis 300 </ b> B existing inside the skin. Skin spots, wrinkles, pores, and frying lines have different shapes on the skin and depth positions at which they exist in the skin 300. Therefore, by obtaining images from different depths of the skin and performing identification by shape, it is possible to extract a characteristic portion in the skin portion.

肌の異なる深さからの画像の情報は、偏光光や色成分を用いることによって得られる。たとえば、所定の方向に平行な直線偏光光を光源として肌を撮影した場合、直線偏光光は、肌の表面300Sにおいて偏光方向が維持されて反射する。一方、表皮300Aの内部で反射した直線偏光光は、散乱によって偏光方向が乱れて表皮300Aから出射する。このため、直線偏光光を出射する光源3を用い、光源と平行な偏光光を検出するフィルタを用いてカメラ2で撮影を行えば(平行偏光条件)、肌の表面の情報が多く内部の情報が少ない画像を得ることができる。また、直線偏光光を出射する光源を用い、光源と直交する偏光光を検出すれば(直交偏光条件)、肌の内部の情報が多く、表面の情報が少ない画像を得ることができる。つまり、偏光光を光源として用いることにより、肌の内部の情報や表面の情報を選択的に含む画像を得ることができる。このように偏光条件を変えるためには、たとえば、図1(a)に示す2つの光源3の一方を水平方向の直線偏光光が出射するようにし、他方を鉛直方向の直線偏光光が出射するように光源3に偏光フィルタを設ける。また、カメラ2に水平方向または鉛直方向の直線偏光光が入射するように偏光フィルタを設ければよい。   Image information from different skin depths can be obtained by using polarized light or color components. For example, when skin is photographed using linearly polarized light parallel to a predetermined direction as a light source, the linearly polarized light is reflected on the skin surface 300S while maintaining the polarization direction. On the other hand, the linearly polarized light reflected inside the skin 300A is emitted from the skin 300A with its polarization direction disturbed by scattering. For this reason, if the light source 3 that emits linearly polarized light is used and the camera 2 is used for photographing with a filter that detects polarized light parallel to the light source (parallel polarization condition), there is a lot of information on the surface of the skin. An image with less can be obtained. Further, if a light source that emits linearly polarized light is used and polarized light orthogonal to the light source is detected (orthogonal polarization condition), an image with a large amount of information inside the skin and a small amount of surface information can be obtained. That is, by using polarized light as a light source, an image that selectively includes information on the inside of the skin and information on the surface can be obtained. In order to change the polarization conditions in this way, for example, one of the two light sources 3 shown in FIG. 1A emits linearly polarized light in the horizontal direction, and the other linearly polarized light in the vertical direction is emitted. Thus, the light source 3 is provided with a polarizing filter. In addition, a polarizing filter may be provided so that linearly polarized light in the horizontal direction or the vertical direction is incident on the camera 2.

一方、光源からの光は、波長が長いほど表皮300Aの内部にまで入射し、内部で反射する。したがって、肌を撮影した画像のうち、青色(B)成分は、肌の表面の情報をより多く含み、赤色(R)や赤外成分は表皮300Aの内部の情報をより多く含む。   On the other hand, the longer the wavelength, the light from the light source is incident on the inside of the skin 300A and is reflected inside. Accordingly, in the image obtained by photographing the skin, the blue (B) component contains more information on the surface of the skin, and the red (R) and infrared components contain more information inside the epidermis 300A.

また、シミや皺等は、特定の波長領域の光を吸収しやすい等の性質を有する場合がある。このような場合には、その特定の波長領域の光の成分を利用することによって、肌の特徴部分を検出することができる。   Moreover, a stain, a wrinkle, etc. may have the property of being easy to absorb the light of a specific wavelength range. In such a case, the characteristic part of the skin can be detected by using the light component in the specific wavelength region.

このように、カメラから取得する顔画像として偏光光を用いたり、第1の顔画像に含まれる色成を分用いたりすることによって、より検出したい肌の特徴部分を多く含む画像情報を得ることができる。   In this way, by using polarized light as the face image acquired from the camera or by using the color composition included in the first face image, image information including more skin feature portions that are desired to be detected is obtained. Can do.

得られた画像情報からシミや皺等の特徴部分を抽出するには、たとえば、形状による識別を行う。これには、画像情報に線検出フィルタや点検出フィルタなどを用いて画像処理することによって、特徴部分を抽出することができる。たとえば、特徴部分が皺である場合、線検出フィルタを用いたエッジ検出処理を第1の顔画像に施し、ノイズを除去することで皺画像を得ることができる。   In order to extract a characteristic part such as a stain or a wrinkle from the obtained image information, for example, identification by shape is performed. For this purpose, a feature portion can be extracted by performing image processing on the image information using a line detection filter, a point detection filter, or the like. For example, when the characteristic part is a wrinkle, the first face image is subjected to edge detection processing using a line detection filter, and noise can be removed to obtain a wrinkle image.

シミ、皺、毛穴、ほうれい線等を検出するための画像処理は、上述したように種々の公知の技術を用いることができる。たとえば、特開2003−144393号公報は、シミの検出方法を開示している。また、特開2002−200050号公報は、肌のメラニン成分やヘモグロビン成分を検出する方法を開示している。   As described above, various well-known techniques can be used for image processing for detecting spots, wrinkles, pores, constriction lines, and the like. For example, Japanese Unexamined Patent Application Publication No. 2003-144393 discloses a spot detection method. Japanese Patent Laid-Open No. 2002-200050 discloses a method for detecting a melanin component and a hemoglobin component of the skin.

特徴画像生成部13は、得られた特徴画像をそのまま画像合成部14へ出力してもよいし、肌の特徴部分が目立つように、得られた特徴画像に所定の色を付す画像処理を行ってもよい。   The feature image generating unit 13 may output the obtained feature image as it is to the image synthesizing unit 14, or performs image processing for adding a predetermined color to the obtained feature image so that the feature portion of the skin is conspicuous. May be.

また、特徴画像生成部13は、第1の顔画像全体において、肌の特徴部分の検出を行い、特徴画像を生成し、生成した顔画像全体の特徴画像から、顔画像の肌部分における輝度が低い領域および輝度が高い領域を含む領域を除外して(輝度が低い領域および輝度が高い領域を含む領域をマスクして)、特徴画像を生成してもよい。   In addition, the feature image generation unit 13 detects a feature portion of the skin in the entire first face image, generates a feature image, and the brightness in the skin portion of the face image is generated from the feature image of the entire face image generated. A feature image may be generated by excluding a region including a low region and a region with high luminance (masking a region including a region with low luminance and a region with high luminance).

ステップ5に示すように、画像合成部14は、鏡像生成部11から得られる第1の顔画像に特徴画像生成部13から得られる特徴画像を重畳し、第3の顔画像を生成する。生成した第3の顔画像がディスプレイ4に表示される。   As shown in step 5, the image composition unit 14 superimposes the feature image obtained from the feature image generation unit 13 on the first face image obtained from the mirror image generation unit 11 to generate a third face image. The generated third face image is displayed on the display 4.

図6(a)は、ディスプレイ4に示される画像の一例を模式的に示している。ユーザの顔の画像である第1の顔画像に皺を示す特徴画像が重畳して表示される。図6(b)は、ディスプレイ4に示される画像の具体的な一例であって、図6(a)に示す左目(図では右側の目)の目の下の部分を拡大して示している。図6(b)に示す例では、目じり近くの部分において、輝度の高い領域が存在する。この部分では、画像の輝度が高いことによって皺が正しく検出できない。本実施形態によれば、この部分を除外して皺を表示するため、ユーザには正しい肌の特徴部分を表示することができる。   FIG. 6A schematically shows an example of an image shown on the display 4. A feature image showing wrinkles is superimposed and displayed on the first face image, which is an image of the user's face. FIG. 6B is a specific example of an image shown on the display 4, and shows an enlarged portion below the left eye (right eye in the figure) shown in FIG. In the example shown in FIG. 6B, there is a region with high luminance in a portion near the eyes. In this part, wrinkles cannot be detected correctly due to the high brightness of the image. According to this embodiment, since this part is excluded and wrinkles are displayed, the correct skin characteristic part can be displayed to the user.

第1の顔画像における輝度の高い領域および輝度の低い領域の位置は、ユーザの頭の位置や撮影画像表示装置1が使用される外部の照明等の環境によって変化する。本実施形態の撮影画像表示装置1によれば、撮影した顔の画像中において、シミ、皺等の検出が困難な輝度の高い領域および輝度の低い領域を除外してシミ、皺等を示す画像を生成するため、使用環境が異なっても、高い精度でシミ、皺等を顔の画像に重ねて表示することができる。   The positions of the high brightness area and the low brightness area in the first face image vary depending on the position of the user's head and the environment such as external illumination in which the captured image display device 1 is used. According to the captured image display device 1 of the present embodiment, an image showing spots, wrinkles, etc., excluding high brightness areas and low brightness areas where it is difficult to detect spots, wrinkles, etc. in the captured face image. Therefore, even if the usage environment is different, spots, wrinkles, etc. can be displayed on the face image with high accuracy.

(第2の実施形態)
本実施形態の撮影画像表示装置は、顔の画像において、シミや皺等の肌の特徴部分を検出または表示すべき領域を設定し、その領域内で肌の特徴部分を表示する点で第1の実施形態と異なる。図7(a)は、本実施形態の撮影画像表示装置の画像処理部5A’の構成を示すブロック図である。画像処理部5A’は、評価区域設定部15をさらに含む点で第1の実施形態の画像処理部5Aと異なる。
(Second Embodiment)
The captured image display device according to the present embodiment is the first in that it sets an area in which a skin feature such as a stain or wrinkle is to be detected or displayed in the face image, and displays the skin feature in the area. Different from the embodiment. FIG. 7A is a block diagram illustrating a configuration of the image processing unit 5A ′ of the captured image display device of the present embodiment. The image processing unit 5A ′ is different from the image processing unit 5A of the first embodiment in that it further includes an evaluation area setting unit 15.

図8は、本実施形態における撮影画像表示装置の動作を説明するフローチャートである。図7(a)および図8を参照しながら、本実施形態の撮影画像表示装置1の動作を説明する。   FIG. 8 is a flowchart for explaining the operation of the captured image display apparatus according to this embodiment. With reference to FIG. 7A and FIG. 8, the operation of the captured image display apparatus 1 of the present embodiment will be described.

まず、第1の実施形態と同様、ステップS1において、カメラ2によって、ユーザの顔を撮影し、ステップS2において、顔の画像の鏡像である第1の顔画像を示す第1の顔画像情報を生成する。生成した第1の顔画像情報は、評価区域設定部15および画像合成部14へ出力される。   First, similarly to the first embodiment, in step S1, the user's face is photographed by the camera 2, and in step S2, first face image information indicating a first face image that is a mirror image of the face image is obtained. Generate. The generated first face image information is output to the evaluation area setting unit 15 and the image composition unit 14.

ステップS6に示すように、評価区域設定部15は、第1の顔画像において、肌の特徴部分を検出または表示すべき評価区域を決定し、第1の顔画像から評価区域を抽出する。ユーザの顔画像には、シミや皺等を検出する必要がない領域が含まれていたり、また、ユーザは特定の領域においてのみ肌の特徴部分を観察したい場合がある。肌の特徴部分を検出する領域を評価区域に限ることによって、より高速に肌の特徴部分を検出し、特徴画像を生成することが可能となる。また、評価区域は顔の肌部分に設定されるためより精度の高い検出が可能となる。   As shown in step S <b> 6, the evaluation area setting unit 15 determines an evaluation area in which a skin feature is to be detected or displayed in the first face image, and extracts the evaluation area from the first face image. The user's face image includes an area where it is not necessary to detect spots, wrinkles, or the like, and the user may want to observe a characteristic part of the skin only in a specific area. By limiting the region for detecting the skin feature to the evaluation area, it is possible to detect the skin feature at a higher speed and generate a feature image. Further, since the evaluation area is set to the skin part of the face, detection with higher accuracy is possible.

評価区域設定部15は、評価区域を設定するためにまず、第1の顔画像において、顔の特徴点を検出する。顔の特徴点を検出する方法には、公知の顔認識技術で用いられる顔の特徴点およびその決定方法を用いることができる。たとえば、眉、目、鼻、口等の端を特徴点として用い、これら特徴点の位置に基づき、評価区域を決定する。   The evaluation area setting unit 15 first detects facial feature points in the first face image in order to set the evaluation area. As a method for detecting a facial feature point, a facial feature point used in a known face recognition technique and its determination method can be used. For example, edges such as eyebrows, eyes, nose, and mouth are used as feature points, and an evaluation area is determined based on the positions of these feature points.

図9は、第1の顔画像上に設定された評価区域21の一例を示している。評価区域21は上述した特徴点(図9では丸印で示されている)を直線でつないだ領域であってもよい。図10(a)から(c)は、評価区域21の他の例を示している。評価区域21は、検出すべき肌の特徴に応じて異なる位置に配置されたり、異なる形状を有していてもよい。たとえば、皺を検出したい場合には、できるだけ目じり近傍の領域を含むように評価区域21を設定してもよい。また、図10(b)に示すように、シミを検出したい場合には、たとえば、できるだけ頬の領域を広く含むように評価区域21を設定してもよい。さらに毛穴を検出したい場合には、図10(c)に示すように、鼻を含むように評価区域を設定してもよい。   FIG. 9 shows an example of the evaluation area 21 set on the first face image. The evaluation area 21 may be an area in which the above-described feature points (indicated by circles in FIG. 9) are connected by a straight line. FIGS. 10A to 10C show other examples of the evaluation area 21. The evaluation area 21 may be arranged at a different position or may have a different shape depending on the characteristics of the skin to be detected. For example, when it is desired to detect wrinkles, the evaluation area 21 may be set so as to include an area in the vicinity of the eyes as much as possible. Further, as shown in FIG. 10B, when it is desired to detect a spot, for example, the evaluation area 21 may be set so as to include as wide a cheek region as possible. Further, when it is desired to detect pores, the evaluation area may be set so as to include the nose as shown in FIG.

さらに、ユーザが評価区域21の位置や形を決定してもよい。ユーザによっては、肌状態が気になる部位が予め撮影画像表示装置に設定されている評価区域と異なることも考えられる。このため、評価区域設定部15は、たとえば、図11(a)から(c)に示すように、顔特徴点情報をもとに計測可能な複数の評価区域を用意しており、ユーザが複数の評価区域から1つを選択してもよい。また、評価区域の形状をユーザが変更できるように構成されていてもよい。この場合、ディスプレイ4がタッチパネル等であり、ユーザの入力を受け付けるユーザインターフェースを備えていてもよい。   Further, the user may determine the position and shape of the evaluation area 21. Depending on the user, it is also conceivable that the site where the skin condition is anxious differs from the evaluation area set in the captured image display device in advance. Therefore, for example, as shown in FIGS. 11A to 11C, the evaluation area setting unit 15 prepares a plurality of evaluation areas that can be measured based on the facial feature point information. One of the evaluation areas may be selected. Moreover, it may be comprised so that a user can change the shape of an evaluation area. In this case, the display 4 may be a touch panel or the like, and may include a user interface that receives user input.

ステップS3に示すように、低輝度・高輝度領域除外部12は、第1の顔画像の評価区域21内において、輝度が低い領域および輝度が高い領域を検出し、これらの領域を含む領域を評価区域21から除外する。   As shown in step S3, the low-brightness / high-brightness region excluding unit 12 detects a low-brightness region and a high-brightness region in the evaluation area 21 of the first face image, and determines a region including these regions. Exclude from evaluation area 21.

図12は、正面から被験者に対して正面から照明を当て、目を閉じて顔の撮影を行った場合の評価区域21の例を示す。黒く塗りつぶされた領域の中側が評価区域21である。正面から照明を当てることにより、頬の外周部付近においては照明光が斜めから照射され、その反射光が小さくなる傾向が顕著となり低輝度部分が発生している。また、目の下部分を特徴点として選択したことにより、上まぶたのまつ毛が評価領域内にはみ出している。まつ毛は、黒いため、輝度が低い領域となる。   FIG. 12 shows an example of the evaluation area 21 when the subject is illuminated from the front and the face is photographed with the eyes closed. The evaluation area 21 is inside the blackened area. By illuminating from the front, illumination light is irradiated obliquely in the vicinity of the outer periphery of the cheek, and the tendency of the reflected light to become small becomes remarkable, and a low-luminance portion is generated. In addition, by selecting the lower part of the eye as the feature point, the eyelashes of the upper eyelid protrude from the evaluation area. Since the eyelashes are black, the luminance is low.

このように、評価区域21の境界近傍に除外すべき輝度が低い領域が存在する場合、本実施形態では、除外すべき輝度が低い領域を含まないように評価区域21を縮小する。たとえば、図13に示すように評価区域21からたとえば10画素分内側の位置に新たな区域22を設定し、区域22内で肌の特徴部分を検出してもよい。区域22は、評価区域21から輝度が低い領域および輝度が高い領域を含む周辺領域が除外されることによって決定される。   As described above, when there is a low luminance area to be excluded in the vicinity of the boundary of the evaluation area 21, in this embodiment, the evaluation area 21 is reduced so as not to include the low luminance area to be excluded. For example, as shown in FIG. 13, a new area 22 may be set at a position, for example, 10 pixels inside from the evaluation area 21, and a skin feature may be detected within the area 22. The area 22 is determined by excluding the peripheral area including the low brightness area and the high brightness area from the evaluation area 21.

これにより、評価区域の境界周辺部分で発生しがちな誤検出が生じやすい領域を除外することが可能となる。ここでは、評価区域を境界から一定の距離を隔てた内部に境界を有する区域22を設定している。つまり評価区域21と区域22とは相似形であり評価区域21から均等に収縮した区域22を設定している。しかし、除外すべき輝度が低い領域や除外すべき輝度が高い領域を含まない限り、新しい区域22は評価区域21の相似形でなくてもよい。たとえば、まつ毛周辺と頬付近は収縮量を多い目に設定し、その他の部分の収縮量は少なめにすることも可能である。これにより、肌の特徴部分を誤検出しやすい領域がより確実に除外される。   As a result, it is possible to exclude an area that is likely to occur in the vicinity of the boundary of the evaluation area and is likely to be erroneously detected. Here, an area 22 having a boundary inside the evaluation area at a certain distance from the boundary is set. That is, the evaluation area 21 and the area 22 are similar to each other, and an area 22 that is evenly contracted from the evaluation area 21 is set. However, the new area 22 may not be similar to the evaluation area 21 as long as it does not include a low luminance area to be excluded or a high luminance area to be excluded. For example, it is possible to set the eyelashes around the eyelashes and the cheeks to have a large amount of contraction, and to reduce the amount of contraction in the other parts. Thereby, the area | region which is easy to misdetect the characteristic part of skin is excluded more reliably.

また、図14に示すように、評価区域21内に高輝度の領域および低輝度の領域が存在する場合、上述した区域22を設定し、かつ、第1の実施形態で説明したように、閾値を用いて高輝度の領域および低輝度の領域を抽出し、抽出した領域の膨張または収縮を行って、除外する領域を設定してもよい。これにより、たとえば図15に示すように、評価区域21から輝度が低い領域および輝度が高い領域を含む領域が除外される。   As shown in FIG. 14, when a high-luminance area and a low-luminance area exist in the evaluation area 21, the above-described area 22 is set, and the threshold value is set as described in the first embodiment. A region with high brightness and a region with low brightness may be extracted using, and the extracted region may be expanded or contracted to set a region to be excluded. As a result, for example, as shown in FIG. 15, a region including a low luminance region and a high luminance region is excluded from the evaluation area 21.

次にステップS4に示すように、第1の実施形態と同様、評価区域21内であって、評価区域内21における輝度が低い領域および輝度が高い領域を含む領域以外において、顔画像に現れた肌の特徴部分を示す特徴画像を生成する。具体的には、第1の実施形態で説明したように、評価区域21内であって、評価区域内21における輝度が低い領域および輝度が高い領域を含む領域以外において、顔画像に現れた肌の特徴部分を検出し、特徴部分を示す特徴画像を生成する。あるいは、第1の顔画像全体において、肌の特徴部分を検出し、生成した全体の特徴画像から、評価区域21以外の領域および評価区域内21における輝度が低い領域および輝度が高い領域を含む領域を除外して(マスクして)、特徴画像を生成する。   Next, as shown in step S <b> 4, similar to the first embodiment, it appeared in the face image in the evaluation area 21 except for the area including the low luminance area and the high luminance area in the evaluation area 21. A feature image showing a feature portion of the skin is generated. Specifically, as described in the first embodiment, the skin that appears in the face image in the evaluation area 21 other than the low brightness area and the high brightness area in the evaluation area 21. The feature portion is detected, and a feature image indicating the feature portion is generated. Alternatively, in the entire first face image, a feature portion of the skin is detected, and a region including a region other than the evaluation area 21 and a low luminance area and a high luminance area in the evaluation area 21 from the generated whole characteristic image. Is excluded (masked) to generate a feature image.

さらに、ステップS5に示すように、画像合成部14は、鏡像生成部11から得られる第1の顔画像に特徴画像生成部13から得られる特徴画像を重畳し第3の顔画像を生成する。生成した第3の顔画像がディスプレイ4に表示される。   Further, as shown in step S <b> 5, the image composition unit 14 generates a third face image by superimposing the feature image obtained from the feature image generation unit 13 on the first face image obtained from the mirror image generation unit 11. The generated third face image is displayed on the display 4.

本実施形態の撮影画像表示装置によれば、撮影した顔画像のうち、評価区域内で肌の特徴部分を示す特徴画像を生成するため、より正確にシミ、皺等を顔の画像に重ねて表示することができる。また、ユーザの意図に応じてシミ、皺等の検出あるいは表示を行うことができる。   According to the photographed image display device of the present embodiment, in order to generate a feature image showing a feature portion of the skin in the evaluation area among the photographed face images, more accurately overlaying a stain, wrinkles, etc. on the face image. Can be displayed. In addition, it is possible to detect or display spots, wrinkles, etc. according to the user's intention.

なお、本実施形態において、ディスプレイ4に表示する顔の画像に、評価区域を示す画像を重畳してもよい。図7(b)および図16は、評価区域を画像表示させる場合の画像処理部5A’’のブロック図およびフローチャートを示している。図7(b)に示すように、画像処理部5A’’の評価区域設定部15’は、設定した評価区域の画像を生成し、画像合成部14へ出力する。画像合成部14は、第1の顔画像に、特徴画像および評価区域の画像を重畳した第3の画像を生成しディスプレイ4に出力する。   In the present embodiment, an image indicating the evaluation area may be superimposed on the face image displayed on the display 4. FIG. 7B and FIG. 16 are a block diagram and a flowchart of the image processing unit 5A ″ when the evaluation area is displayed as an image. As illustrated in FIG. 7B, the evaluation area setting unit 15 ′ of the image processing unit 5 </ b> A ″ generates an image of the set evaluation area and outputs it to the image composition unit 14. The image composition unit 14 generates a third image in which the feature image and the image of the evaluation area are superimposed on the first face image, and outputs the third image to the display 4.

図17は、評価区域が重畳された第3の画像を表示した例を示す模式図である。評価区域21を示すことによって、どの部分において、肌の特徴が検出されたかどうかを認識しやすくなる。したがって、評価区域でないため、肌の特徴が示されていない場合と、評価区域内であるが、肌の特徴が検出されなかった場合とをユーザが判別することができ、より肌の状態を観察しやすくなる。   FIG. 17 is a schematic diagram illustrating an example in which a third image on which an evaluation area is superimposed is displayed. By showing the evaluation area 21, it becomes easy to recognize in which part the skin feature is detected. Therefore, since it is not an evaluation area, the user can discriminate between the case where the skin feature is not shown and the case where the skin feature is not detected although it is in the evaluation area, and the skin state is observed more. It becomes easy to do.

(その他の実施形態)
第1および第2の実施形態では、ステップS3には第1の顔画像を用い、第1の顔画像からの肌部分における輝度が低い領域および輝度が高い領域を含む領域を除外していた。しかし、肌の特徴部分をより検出しやすくするために、第1の顔画像に画像処理を施した画像を用い、ステップS3以降の手順を行ってもよい。
(Other embodiments)
In the first and second embodiments, the first face image is used in step S3, and the region including the low luminance region and the high luminance region in the skin portion from the first face image is excluded. However, in order to make it easier to detect the characteristic part of the skin, an image obtained by performing image processing on the first face image may be used, and the procedure after step S3 may be performed.

たとえば、図18のフローチャートに示すように、ステップS1’において、偏光光を照射する光源3を点灯させてユーザの顔を撮影することによる顔画像と、光源3を消灯させてユーザの顔を撮影することによる顔画像とを取得する。次にステップ2’において、これらの顔画像の鏡面像を生成し、それぞれ第1および第1’の顔画像とする。   For example, as shown in the flowchart of FIG. 18, in step S1 ′, the face image obtained by shooting the face of the user by turning on the light source 3 that emits polarized light, and the face of the user by turning off the light source 3 are taken. To obtain a face image. Next, in step 2 ', specular images of these face images are generated and set as first and first' face images, respectively.

ステップ7において、第1の顔画像から第1’の顔画像を減算し得られた画像を第2の顔画像とする。このようにして得られた第2の顔画像は偏光光によって得られた顔画像情報のみを含むため、肌の表面のみの情報あるいは肌内部の情報のみを含み、肌の特徴がより正確に検出しやすい。図18に示すように、ステップS3以降は、第1または第2の実施形態と同様の手順でよい。なお、光源3は、複数の偏光軸を持つ光源であってもよい。その場合は、互いに異なる偏光軸を持つ光を順次または同時に点灯したり、全消灯させるなどして、ユーザの顔を撮影してもよい。光源3は、無偏光光である白色光を照射するものでもよい。   In step 7, an image obtained by subtracting the first 'face image from the first face image is set as a second face image. Since the second face image obtained in this way includes only face image information obtained by polarized light, it includes only information on the surface of the skin or only information on the inside of the skin, and more accurately detects skin features. It's easy to do. As shown in FIG. 18, step S3 and the subsequent steps may be the same procedure as in the first or second embodiment. The light source 3 may be a light source having a plurality of polarization axes. In this case, the user's face may be photographed by sequentially or simultaneously turning off lights having different polarization axes or turning off all of them. The light source 3 may emit white light that is non-polarized light.

このような画像処理を行った第2の顔画像を用いると、より正確にシミや皺等が検出され、強調された画像をディスプレイ4に表示することができる。   When the second face image that has been subjected to such image processing is used, spots, wrinkles, and the like are detected more accurately, and an enhanced image can be displayed on the display 4.

また、第1および第2の実施形態では、肌の特徴画像をディスプレイ4に表示していたが、肌の特徴画像とともにあるいは肌の特徴画像に変えて、肌の特徴部分を指標化した指標画像を生成し、ディスプレイ4に表示してもよい。図19は指標画像を生成する画像処理部5A’’’のブロック図を示す。   In the first and second embodiments, the skin feature image is displayed on the display 4. However, an index image obtained by indexing the skin feature portion together with or in place of the skin feature image. May be generated and displayed on the display 4. FIG. 19 is a block diagram of an image processing unit 5A ″ ″ that generates an index image.

図19に示すように、画像処理部5A’’’は特徴指標画像生成部16を備えている点で第2の実施形態と異なる。特徴指標画像生成部16は、輝度が低い領域および輝度が高い領域を含む領域が除外された評価区域21において、肌特徴の面積、長さ、密度等を数値化した指標およびその指標を示す画像を生成する。たとえば図20に示すように、1以上の特徴指標のレーダーチャートを示す画像を生成してもよい。この画像を画像合成部14において、少なくとも第1の顔画像と合成し、ディスプレイ4に表示させることによって、ユーザは、シミや皺等の複数の特徴がどの程度顔に現れているかを把握しやすくなる。   As shown in FIG. 19, the image processing unit 5 </ b> A ″ ″ differs from the second embodiment in that it includes a feature index image generation unit 16. The feature index image generation unit 16 includes an index that quantifies the area, length, density, and the like of the skin feature and an image that indicates the index in the evaluation area 21 from which the low luminance region and the high luminance region are excluded. Is generated. For example, as shown in FIG. 20, an image showing a radar chart of one or more feature indexes may be generated. By synthesizing this image with at least the first face image in the image composition unit 14 and displaying it on the display 4, the user can easily grasp how many features such as spots and wrinkles appear on the face. Become.

本願に開示された、撮影画像表示装置および撮影画像表示方法は、美容分野や家庭用の美容機器に好適に用いられる。   The photographed image display device and the photographed image display method disclosed in the present application are suitably used in the beauty field and home beauty equipment.

1 撮影画像表示装置
2 カメラ
3 光源
4 ディスプレイ
5 情報処理装置
5A 画像処理部
5B 制御部
5a メモリ
5b 演算装置
6 筐体
6a 表示面
11 鏡像生成部
12 低輝度・高輝度領域除外部
13 特徴画像生成部
14 画像合成部
15 評価区域設定部
16 特徴指標画像生成部
21 評価区域
22 区域
300 肌
300A 表皮
300B 真皮
300S 表面
DESCRIPTION OF SYMBOLS 1 Captured image display apparatus 2 Camera 3 Light source 4 Display 5 Information processing apparatus 5A Image processing part 5B Control part 5a Memory 5b Arithmetic unit 6 Case 6a Display surface 11 Mirror image generation part 12 Low brightness / high brightness area exclusion part 13 Feature image generation Section 14 Image composition section 15 Evaluation area setting section 16 Feature index image generation section 21 Evaluation area 22 Area 300 Skin 300A Epidermis 300B Dermis 300S Surface

Claims (11)

ユーザの顔の少なくとも一部を撮影し、撮影した画像を表示する撮影画像表示装置であって、
前記ユーザの顔の少なくとも一部を撮像するカメラと、
前記カメラから得られた顔画像に基づく表示用の第1の顔画像の一部に評価区域を設定し、前記評価区域内における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を示す特徴画像を生成し、前記第1の顔画像に前記特徴画像が重畳された第3の顔画像を生成する画像処理部と、
前記第3の顔画像を表示するディスプレイと
を備え
前記画像処理部は、前記評価区域内であって、前記評価区域の境界近傍に前記輝度が低い領域が存在する場合、前記境界近傍の輝度が低い領域を含まないように前記評価区域を縮小する、撮影画像表示装置。
A captured image display device that captures at least a part of a user's face and displays a captured image,
A camera that images at least a portion of the user's face;
An evaluation area is set in a part of the first face image for display based on the face image obtained from the camera, and the face is other than an area including a low luminance area and a high luminance area in the evaluation area. An image processing unit that generates a feature image indicating a feature portion of the skin that appears in the image, and generates a third face image in which the feature image is superimposed on the first face image;
A display for displaying the third face image ,
The image processing unit reduces the evaluation area so as not to include a low-luminance area in the vicinity of the boundary when the low-luminance area exists in the evaluation area and in the vicinity of the boundary of the evaluation area. , Image display device.
前記画像処理部は、前記評価区域を示す画像をさらに生成し、前記第1の顔画像に前記特徴画像および前記評価区域が重畳された前記第3の顔画像を生成する請求項に記載の撮影画像表示装置。 The image processing section further generates an image showing the evaluation area, according to claim 1, wherein the feature image and the evaluation area in the first face image to generate the third face images superimposed Captured image display device. 前記ユーザからの入力を受け付けるユーザインターフェースをさらに備え、
前記画像処理部は、前記ユーザインターフェースから入力に基づき前記評価区域を設定する請求項またはに記載の撮影画像表示装置。
A user interface for receiving input from the user;
Wherein the image processing unit, the captured image display device according to claim 1 or 2 to set the evaluation zone based on input from the user interface.
前記画像処理部は、前記第1の顔画像から前記顔の特徴点を抽出し、前記顔の特徴点に基づき、前記評価区域を設定する請求項またはに記載の撮影画像表示装置。 Wherein the image processing unit, said first extracts feature points of the face from the face image, based on the feature point of the face, the captured image display device according to claim 1 or 2 to set the evaluation area. 前記画像処理部は、前記カメラから得られた画像の鏡像を前記第1の顔画像として生成する請求項1からのいずれかに記載の撮影画像表示装置。 Wherein the image processing unit, the captured image display device according to any one of claims 1 to 4 for generating a mirror image of the image obtained from the camera as the first facial image. ユーザの顔の少なくとも一部を撮影し、撮影した画像を表示する撮影画像表示装置であって、
前記ユーザの顔の少なくとも一部を撮像するカメラと、
前記カメラから得られた顔画像に基づく表示用の第1の顔画像の一部に評価区域を設定し、前記評価区域内における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を指標化した指標画像を生成し、
前記第1の顔画像および前記指標画像を合成した第3の顔画像を生成する画像処理部と、
前記第3の顔画像を表示するディスプレイと
を備え
前記画像処理部は、前記評価区域内であって、前記評価区域の境界近傍に前記輝度が低い領域が存在する場合、前記境界近傍の輝度が低い領域を含まないように前記評価区域を縮小する、撮影画像表示装置。
A captured image display device that captures at least a part of a user's face and displays a captured image,
A camera that images at least a portion of the user's face;
An evaluation area is set in a part of the first face image for display based on the face image obtained from the camera, and the face is other than an area including a low luminance area and a high luminance area in the evaluation area. Generate an index image that indexes skin features that appear in the image,
An image processing unit that generates a third face image obtained by combining the first face image and the index image;
A display for displaying the third face image ,
The image processing unit reduces the evaluation area so as not to include a low-luminance area in the vicinity of the boundary when the low-luminance area exists in the evaluation area and in the vicinity of the boundary of the evaluation area. , Image display device.
表示面を有する筐体をさらに備え、前記ディスプレイおよび前記カメラは前記表示面に設けられている請求項1からのいずれかに記載の撮影画像表示装置。 Further comprising the display and the camera are captured image display device according to any one of 6 claims 1 is provided on the display surface a housing having a display surface. 前記表示面に設けられた、前記ユーザに光を照射する光源をさらに備える請求項に記載の撮影画像表示装置。 The captured image display device according to claim 7 , further comprising a light source that is provided on the display surface and irradiates light to the user. ユーザの顔の少なくとも一部を撮影し、撮影した画像を表示する撮影画像表示装置であって、  A captured image display device that captures at least a part of a user's face and displays a captured image,
前記ユーザの顔の少なくとも一部を撮像する偏光フィルタを含むカメラと、  A camera including a polarizing filter that images at least a portion of the user's face;
前記ユーザに偏光光を照射する光源と、  A light source for irradiating the user with polarized light;
前記カメラから得られた顔画像に基づく表示用の第1の顔画像から生成された偏光光の顔画像情報を含む第2の顔画像とに基づき、前記第2の顔画像の肌部分における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を示す特徴画像を生成し、前記第1の顔画像に前記特徴画像が重畳された第3の顔画像を生成する画像処理部と、  Based on the second face image including the face image information of the polarized light generated from the first face image for display based on the face image obtained from the camera, the luminance in the skin portion of the second face image A third face in which a feature image indicating a feature portion of the skin that appears in the face image is generated in a region other than a region including a region with low brightness and a region with high brightness, and the feature image is superimposed on the first face image An image processing unit for generating an image;
前記第3の顔画像を表示するディスプレイと  A display for displaying the third face image;
を備え、With
前記画像処理部は、前記評価区域内であって、前記評価区域の境界近傍に前記輝度が低い領域が存在する場合、前記境界近傍の輝度が低い領域を含まないように前記評価区域を縮小する、撮影画像表示装置。  The image processing unit reduces the evaluation area so as not to include a low-luminance area in the vicinity of the boundary when the low-luminance area exists in the evaluation area and in the vicinity of the boundary of the evaluation area. , Image display device.
前記光源および前記カメラを制御する制御部をさらに備え、
前記カメラは、前記制御部の制御により前記光源を点灯させて前記ユーザの顔を撮影した画像、および前記制御部の制御により前記光源を消灯させて前記ユーザの顔を撮影した画像を生成し、
前記画像処理部は、前記光源を点灯させて前記ユーザの顔を撮影した画像を前記第1の顔画像とし、前記第1の顔画像から、前記光源を消灯させて前記ユーザの顔を撮影した画像を減じた画像を前記第2の顔画像として用いる、請求項9に記載の撮影画像表示装置。
A control unit for controlling the light source and the camera;
The camera generates an image in which the light source is turned on under the control of the control unit and the user's face is photographed, and an image in which the light source is turned off under the control of the control unit and the user's face is photographed.
The image processing unit turns the light source on and images the user's face as the first face image, and turns off the light source and images the user's face from the first face image. The captured image display device according to claim 9, wherein an image obtained by subtracting an image is used as the second face image.
ユーザの顔の少なくとも一部を撮像することによって、顔画像を取得する工程と、
前記顔画像に基づく表示用の第1の顔画像の一部に評価区域を設定し、前記評価区域内における輝度が低い領域および輝度が高い領域を含む領域以外において、前記顔画像に現れた肌の特徴部分を示す特徴画像を生成する工程と、
前記第1の顔画像に前記特徴画像が重畳した第3の顔画像を生成する工程と、
前記第3の顔画像を表示する工程と
を包含し、
特徴画像を生成する工程は、前記評価区域内であって、前記評価区域の境界近傍に前記輝度が低い領域が存在する場合、前記境界近傍の輝度が低い領域を含まないように前記評価区域を縮小する、撮影および画像表示方法。
Acquiring a face image by imaging at least a portion of the user's face;
Skin that appears in the face image in an area other than the area including the low brightness area and the high brightness area in the evaluation area where an evaluation area is set in a part of the first face image for display based on the face image Generating a feature image showing a feature portion of
Generating a third face image in which the feature image is superimposed on the first face image;
Displaying the third face image ,
The step of generating the feature image includes the evaluation area within the evaluation area, and when the low-luminance area exists near the boundary of the evaluation area, the evaluation area is not included so as not to include the low-luminance area near the boundary. Method of shooting and image display to reduce .
JP2013220512A 2013-10-23 2013-10-23 Captured image display device Active JP6273640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013220512A JP6273640B2 (en) 2013-10-23 2013-10-23 Captured image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013220512A JP6273640B2 (en) 2013-10-23 2013-10-23 Captured image display device

Publications (2)

Publication Number Publication Date
JP2015080647A JP2015080647A (en) 2015-04-27
JP6273640B2 true JP6273640B2 (en) 2018-02-07

Family

ID=53011579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013220512A Active JP6273640B2 (en) 2013-10-23 2013-10-23 Captured image display device

Country Status (1)

Country Link
JP (1) JP6273640B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112932416A (en) 2015-06-04 2021-06-11 松下知识产权经营株式会社 Biological information detection device and biological information detection method
KR101788850B1 (en) * 2015-08-24 2017-10-20 상명대학교산학협력단 Method for measuring heartbeat signal through skin color magnification
JP6730051B2 (en) * 2016-03-11 2020-07-29 花王株式会社 Skin condition evaluation method
JP6872742B2 (en) * 2016-06-30 2021-05-19 学校法人明治大学 Face image processing system, face image processing method and face image processing program
CN109670389B (en) * 2017-10-16 2023-04-07 富士通株式会社 Method and equipment for evaluating illumination condition in face image
KR102055881B1 (en) * 2018-01-09 2019-12-13 주식회사 룰루랩 module using skin condition measurement
CN111814520A (en) * 2019-04-12 2020-10-23 虹软科技股份有限公司 Skin type detection method, skin type grade classification method, and skin type detection device
US11252336B2 (en) * 2019-05-31 2022-02-15 Samsung Electronics Co.. Ltd. Electronic device obtaining skin image and method of controlling the same
JP7436708B2 (en) 2020-05-08 2024-02-22 ザ プロクター アンド ギャンブル カンパニー Method for identifying dendritic pores

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993167B1 (en) * 1999-11-12 2006-01-31 Polartechnics Limited System and method for examining, recording and analyzing dermatological conditions
JP3930334B2 (en) * 2001-03-21 2007-06-13 株式会社資生堂 Spectral reflectance measuring device
US20040125996A1 (en) * 2002-12-27 2004-07-01 Unilever Home & Personal Care Usa, Division Of Conopco, Inc. Skin diagnostic imaging method and apparatus
ATE459292T1 (en) * 2004-10-22 2010-03-15 Shiseido Co Ltd DIAGNOSTIC SYSTEM FOR SKIN CONDITIONS AND BEAUTY ADVICE SYSTEM
JP4761924B2 (en) * 2004-10-22 2011-08-31 株式会社 資生堂 Skin condition diagnosis system and beauty counseling system
KR20080059157A (en) * 2005-08-12 2008-06-26 릭 비. 예거 System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
JP2012216032A (en) * 2011-03-31 2012-11-08 Nikon Corp Image display device

Also Published As

Publication number Publication date
JP2015080647A (en) 2015-04-27

Similar Documents

Publication Publication Date Title
JP6273640B2 (en) Captured image display device
US20210334526A1 (en) Living body detection device, living body detection method, and recording medium
EP3000386B1 (en) Skin function evaluation device and skin evaluation method
CN104880412B (en) Freshness information output method and freshness information output device
US20160086380A1 (en) Hyperspectral imager
CN107949863A (en) Use the authentication device and authentication method of Biont information
CN106999116B (en) Apparatus and method for skin detection
WO2023103467A1 (en) Image processing method, apparatus and device
US20190133513A1 (en) Enhancing pigmentation in dermoscopy images
TWI701018B (en) Information processing device, information processing method, and program
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
US11647889B2 (en) Near-infrared fluorescence imaging for blood flow and perfusion visualization and related systems and computer program products
JP2018106720A (en) Apparatus and method for image processing
JP5362405B2 (en) Pupil measuring device, pupil measuring method and pupil measuring program
JP2015005237A (en) Detection device, learning device, detection method, learning method and program
JP2014157428A (en) Image display device, image display method, and program
JP2016189135A (en) Recognition device, recognition method, and recognition program
JP2009000410A (en) Image processor and image processing method
JP2016028669A (en) Pupil detection device and pupil detection method
JP6817782B2 (en) Pulse detection device and pulse detection method
JP2007058507A (en) Line of sight detecting device
JP2018173991A (en) Detection device
JP7343020B2 (en) information processing equipment
CN112911986A (en) Dental image photographing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

R151 Written notification of patent or utility model registration

Ref document number: 6273640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151