JP2018005434A - 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム - Google Patents

顔画像処理システム、顔画像処理方法及び顔画像処理プログラム Download PDF

Info

Publication number
JP2018005434A
JP2018005434A JP2016129615A JP2016129615A JP2018005434A JP 2018005434 A JP2018005434 A JP 2018005434A JP 2016129615 A JP2016129615 A JP 2016129615A JP 2016129615 A JP2016129615 A JP 2016129615A JP 2018005434 A JP2018005434 A JP 2018005434A
Authority
JP
Japan
Prior art keywords
component
face image
removal rate
face
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016129615A
Other languages
English (en)
Other versions
JP6872742B2 (ja
Inventor
薫 荒川
Kaoru Arakawa
薫 荒川
文彦 築山
Fumihiko Tsukiyama
文彦 築山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kose Corp
Meiji University
Original Assignee
Kose Corp
Meiji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kose Corp, Meiji University filed Critical Kose Corp
Priority to JP2016129615A priority Critical patent/JP6872742B2/ja
Priority to KR1020197001921A priority patent/KR102411237B1/ko
Priority to CN201780040334.3A priority patent/CN109416827A/zh
Priority to US16/314,210 priority patent/US10810719B2/en
Priority to PCT/JP2017/023264 priority patent/WO2018003711A1/ja
Priority to TW106121716A priority patent/TWI727065B/zh
Publication of JP2018005434A publication Critical patent/JP2018005434A/ja
Application granted granted Critical
Publication of JP6872742B2 publication Critical patent/JP6872742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象者にとってより自然な顔画像を自在に生成し、実際の顔画像に近い顔画像を出力する。【解決手段】顔画像処理システムは、顔画像を表す顔画像情報を入力し、前記顔画像情報から前記顔画像のしわ成分、しみ成分及び毛穴成分を抽出する成分抽出手段と、この成分抽出手段で抽出されたしわ成分、しみ成分及び毛穴成分に対して各々の除去率を調整する除去率調整手段と、前記除去率を記憶する記憶手段と、前記除去率調整手段によって調整された除去率によって各々増減したしわ成分、しみ成分及び毛穴成分を合成し顔画像を生成する合成手段と、前記合成手段によって合成された顔画像情報を出力する出力手段とを備える。【選択図】図1

Description

本発明は、顔画像情報を入力し画像処理を施して出力する顔画像処理システム、顔画像処理方法及び顔画像処理プログラムに関する。
人の顔画像を表す顔画像情報を入力し、この顔画像情報に対して画像処理を施して実際の顔画像とは異なって見えるように処理した顔画像を出力する顔画像合成装置が知られている(例えば、特許文献1参照)。この顔画像合成装置は、例えば次のように画像処理を行っている。
顔画像合成装置は、複数人の顔画像からしみ又はしわを検出し、年齢又は年齢層に対応する年齢形状特徴を生成し、複数人のしみ又はしわから年齢又は年齢層に対応するしみモデル又はしわモデルを作成する。一方、対象者の顔画像からしみ又はしわを有しない顔形状が抽出され、この顔形状が年齢形状特徴に基づき変形される。
また、しみモデル又はしわモデルのうち指定された年齢又は年齢層に対応するしみモデル又はしわモデルが変形された顔形状に合致するよう変形され、この変形されたしみモデル又はしわモデルが対象者の顔画像に適用される。このような処理により、対象者の顔形状を指定された年齢又は年齢層に対応する顔形状に年齢操作することができ、対象者の顔画像を所望の年齢又は年齢層に対応する自然な顔画像に年齢操作することができる。
特許第4682373号公報
しかしながら、上述した従来技術の顔画像合成装置では、複数人の顔画像に基づいて作製された年齢形状特徴やしみモデル又はしわモデルを、対象者の顔画像から抽出されたしみ又はしわのない顔形状に適用することで顔画像を合成している。このため、純粋に対象者が求めている理想とする自然な顔画像を提供しているとは言い難かった。
本発明は、上記事情に鑑みてなされたもので、対象者にとって理想とする、より自然な顔画像を自在に生成することができる顔画像処理システム、顔画像処理方法及び顔画像処理プログラムを提供することを目的とする。
本発明に係る顔画像処理システムは、顔画像を表す顔画像情報を入力し、前記顔画像情報から前記顔画像のしわ成分、しみ成分及び毛穴成分を抽出する成分抽出手段と、この成分抽出手段で抽出されたしわ成分、しみ成分及び毛穴成分に対して各々の除去率を調整する除去率調整手段と、前記除去率を記憶する記憶手段と、前記除去率調整手段によって調整された除去率によって各々増減したしわ成分、しみ成分及び毛穴成分を合成し顔画像を生成する合成手段と、前記合成手段によって合成された顔画像情報を出力する出力手段とを備えたことを特徴とする。
本発明の一実施形態においては、入力された画像情報に含まれる入力顔画像の目の領域、鼻の領域及び口の領域の少なくとも一つを除外した顔領域を示す前記顔画像を抽出する顔領域抽出手段を設ける。
本発明の他の実施形態においては、前記成分抽出手段は、前記入力された前記顔画像を表す顔画像情報を、振幅−周波数空間にて第1の成分、第2の成分、第3の成分、第4の成分及び第5の成分に分割し、前記第4の成分を抽出するフィルタ手段と、前記フィルタ手段によって抽出された前記第4の成分に基づいて、前記顔画像内のしわ成分、しみ成分及び毛穴成分を認識し、これら各成分の前記顔画像内における出現位置及び形状を判別する成分認識手段とを備える。
本発明の更に他の実施形態においては、前記除去率調整手段は、前記しわ成分、しみ成分及び毛穴成分に対して重み付けを行って前記各成分の前記顔画像内での除去率を調整する。
本発明の更に他の実施形態においては、前記合成手段は、前記記憶手段に記憶された除去率に基づく前記しわ成分、しみ成分及び毛穴成分に対応する第4の成分と、前記フィルタ手段によって分割された前記第1の成分、第2の成分、第3の成分及び第5の成分とを合成する。或いは、合成手段は、前記記憶手段に記憶された除去率に基づく前記しわ成分、しみ成分及び毛穴成分と入力された前記顔画像情報(入力顔画像情報x(n))とを合成し得る。
本発明の更に他の実施形態においては、前記合成手段の後段に、前記顔画像情報の輝度及び色情報の少なくとも一つが所定の範囲である肌色領域を抽出する肌色抽出手段と、前記肌色抽出手段によって抽出された肌色領域内の肌色の色合いを変化させる色合調整手段とを有する顔色処理手段を備える。
本発明の更に他の実施形態においては、前記出力手段から出力される顔画像情報は複数生成され、前記出力手段は、複数生成された顔画像情報に基づく複数の候補顔画像を表示手段の表示画面上に表示し、前記表示された複数の候補顔画像の中から、ユーザにより指定された所望の候補顔画像の選択指示及び最終的な候補顔画像の決定指示のうちのいずれか一つを受け付ける入力手段と、前記入力手段によって前記候補顔画像の選択指示が受け付けられた場合に、選択された候補顔画像を表す顔画像情報に基づき前記成分抽出手段、前記除去率調整手段及び前記顔色処理手段における各処理のパラメータを、遺伝的アルゴリズムに基づく交叉処理及び突然変異処理を行ってインタラクティブ進化計算により設定する演算手段とを備え、前記成分抽出手段、前記除去率調整手段及び前記顔色処理手段は、前記演算手段によって設定されたパラメータに基づく顔画像情報の生成を、前記入力手段によって前記候補顔画像の決定指示が受け付けられるまで繰り返し行う。
本発明の更に他の実施形態においては、前記入力手段によって前記候補顔画像の決定指示が受け付けられた場合に、前記記憶手段は、決定された候補顔画像を表す顔画像情報を生成する前記パラメータを基準パラメータとして記憶する。
本発明に係る顔画像処理方法は、成分抽出手段、除去率調整手段、記憶手段、合成手段及び出力手段を備えた顔画像処理システムにおける顔画像処理方法であって、前記成分抽出手段によって、入力された顔画像を表す顔画像情報から前記顔画像のしわ成分、しみ成分及び毛穴成分を抽出する工程と、前記除去率調整手段によって、抽出されたしわ成分、しみ成分及び毛穴成分に対して各々の除去率を調整する工程と、前記記憶手段によって、前記除去率を記憶する工程と、前記合成手段によって、前記除去率を調整する工程にて調整された除去率によって各々増減したしわ成分、しみ成分及び毛穴成分を合成し顔画像を生成する工程と、前記出力手段によって、合成された顔画像情報を出力する工程とを備えたことを特徴とする。
本発明に係る顔画像処理プログラムは、成分抽出手段、除去率調整手段、記憶手段、合成手段及び出力手段を備えたコンピュータを有する顔画像処理システムにて顔画像処理を実行させるための顔画像処理プログラムであって、前記コンピュータに、入力された顔画像を表す顔画像情報から前記成分抽出手段によって前記顔画像のしわ成分、しみ成分及び毛穴成分を抽出させるステップと、抽出されたしわ成分、しみ成分及び毛穴成分に対して各々の除去率を前記除去率調整手段によって調整させるステップと、前記記憶手段に前記除去率記憶させるステップと、前記除去率を調整させるステップにて調整された除去率によって各々増減したしわ成分、しみ成分及び毛穴成分を前記合成手段によって合成し顔画像を生成させるステップと、合成された顔画像情報を前記出力手段によって出力させるステップとを実行させることを特徴とする。
本発明によれば、対象者にとって理想とするより自然な顔画像を自在に生成することができる。
本発明の第1の実施形態に係る顔画像処理システムの全体構成を示すブロック図である。 同顔画像処理システムの演算手段の構成を示すブロック図である。 同顔画像処理システムの顔画像処理部の内部構成を示すブロック図である。 同顔画像処理システムの顔画像処理部における非線形関数の例を示す図である。 同顔画像処理システムの顔画像処理部におけるε−フィルタ及び線形低域通過フィルタの振幅−周波数空間の分割例を示す図である。 同顔画像処理システムの顔画像処理部におけるε−フィルタバンクの構成を示す図である。 同顔画像処理システムの顔画像処理部におけるε−フィルタバンクによる振幅−周波数空間における顔画像情報の各成分の分割例を示す図である。 同顔画像処理システムの顔画像処理部に入力される顔画像情報により表される顔画像処理前の顔画像の例を示す図である。 同顔画像処理システムの顔画像処理部における成分認識部でのしわ成分、しみ成分及び毛穴成分の認識判別方法を説明するための図である。 同顔画像処理システムの顔画像処理部における成分認識部で判別された各成分を抽出表示した顔画像を示す図である。 同顔画像処理システムにおける表示画面上に表示された候補顔画像の表示態様を示す図である。 本発明の第2の実施形態に係る顔画像処理方法による画像処理手順を示すフローチャートである。 同顔画像処理方法による画像処理手順の一部の処理内容を示すフローチャートである。 本発明の第3の実施形態に係る顔画像処理システムの全体構成を示すブロック図である。 同顔画像処理システムの顔色処理部の内部構成を示すブロック図である。 同顔画像処理システムによる画像処理手順を示すフローチャートである。
以下、添付の図面を参照して、本発明の実施の形態に係る顔画像処理システム、顔画像処理方法及び顔画像処理プログラムを詳細に説明する。ただし、以下の実施の形態は、各請求項に係る発明を限定するものではなく、また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らず、多くの変形が本発明の技術的思想の範囲内で当分野において通常の知識を有するものにより可能である。
図1は、本発明の第1の実施形態に係る顔画像処理システムの全体構成を示すブロック図である。また、図2は、この顔画像処理システムの演算手段の構成を示すブロック図である。更に、図3は、この顔画像処理システムの顔画像処理部の内部構成を示すブロック図であり、図4はこの顔画像処理部における非線形関数の例を示す図である。
図1に示すように、第1の実施形態に係る顔画像処理システムは、コンピュータやワークステーション等のハードウェアである演算手段2上で実現されるものである。また、顔画像処理システムは、入力手段1と、出力手段3と、記憶手段4とを備える。入力手段1は、数値や文字或いは各種の指示等の操作入力に用いられ得る複数の操作キーを有するキーボード、マウス、タッチパネル及びリモートコントローラ等の入力デバイス、並びにデジタルカメラやスキャナ等の画像情報を取得して入力する画像入力デバイスなどからなる。
出力手段3は、各種の情報と共に顔画像情報に基づく顔画像を表示画面上に表示するディスプレイ等の画像出力デバイスや、顔画像情報に基づく顔画像を媒体上に印刷出力する画像印刷デバイスなどからなる。記憶手段4は、各種の情報やパラメータ等を格納するRAMやROMと共にSSD、磁気ディスクドライブ、光ディスクドライブ、メモリカードなどの記憶デバイス及び記憶媒体からなる。
一方、演算手段2は、図2に示すように、例えば入力された入力顔画像情報x(n)に含まれる対象者(ユーザ)の顔画像(以下、「対象顔画像」と呼ぶ。)を表す入力顔画像から、その目の領域、鼻(又は鼻孔)の領域及び口の領域の少なくとも一つ(以下、「除外領域」と呼ぶ。)を除外した顔領域を示す顔画像(以下、「顔領域画像」と呼ぶ。)を抽出する顔領域抽出部5として機能し得る。また、演算手段2は、入力顔画像と共にこの顔領域画像や除外領域を表す除外領域画像(画像データ)を入力し、これらに基づき各種画像処理を行う顔画像処理部10としても機能し得る。
まず、顔領域抽出部5は、入力顔画像情報x(n)の入力顔画像から、この顔画像に含まれる対象者の対象顔画像を認識する。入力顔画像情報x(n)は、例えばBMP,JPEG,GIF,PNG,RAW等の画像フォーマットからなる。対象顔画像の認識には、例えばラプラシアンフィルタ等の輪郭検出フィルタを用いることができる。
次に、顔領域抽出部5は、公知の顔部分特徴点抽出法等により、認識した対象顔画像を表す入力顔画像の除外領域を認識し、この除外領域を除外した顔領域画像を抽出する。なお、本実施形態では目の領域、鼻の領域及び口の領域を全て除外領域とするようにしている。このような除外領域は、しわ、しみ及び毛穴等の成分として抽出され得るが、予め入力顔画像から除外しておけば顔画像処理負荷が軽減されるからである。その他、除外領域は上記のもの以外にも、任意に設定することが可能である。そして、顔領域抽出部5は、例えば顔領域画像と共に除外領域画像を顔画像処理部10に出力する。
なお、顔領域抽出部5は顔画像処理システムに必須の構成ではないため、省略することも可能である。ただし、顔領域抽出部5を省略した場合は、後段の顔画像処理部10における顔画像に関する処理のタスクが増加して負荷が増える場合がある。また、顔領域抽出部5にて除外領域を除外した場合であっても、図2及び図3に示すように、顔画像処理部10において顔領域画像と共に除外領域画像が処理されるようにしてもよい。
顔画像処理部10は、図3に示すように、入力された入力顔画像と共に、顔領域抽出部5からの顔領域画像(及び除外領域画像)に基づいて、対象顔画像のしわ成分、しみ成分及び毛穴成分を抽出する成分抽出部16を備える。また、この成分抽出部16で抽出されたしわ成分、しみ成分及び毛穴成分に対する各々の除去率を調整する除去率調整部13a,13b,13cを有する成分調整部13を備える。
また、顔画像処理部10は、成分調整部13における各除去率調整部13a〜13cにおいて調整された除去率によって各々増幅或いは減衰したしわ成分、しみ成分及び毛穴成分を、入力顔画像、或いはその構造成分や所定成分、顔領域画像、除外領域画像等と共に合成し出力する顔画像(以下、「出力顔画像」と呼ぶ。)を生成する合成部14を備える。なお、成分調整部13における各除去率調整部13a〜13cの除去率は、入力手段1を介して対象者により選択又は指定され記憶手段4に記憶される。この除去率は、例えば正の値で増幅方向の、また負の値で減衰方向の各成分の表現(付加や除去)の割合を示している。また、合成部14により合成された出力顔画像を表す出力顔画像情報y(n)は、出力手段3により出力される。
顔画像処理部10の成分抽出部16は、入力された入力顔画像情報(x(n))を振幅−周波数空間において所定の成分に分割し抽出するフィルタ手段であるε−フィルタバンクA11a及びε−フィルタバンクB11b(以下、特に明記しない限りこれらをまとめて「ε−フィルタバンク11」と称する。)と、このε−フィルタバンク11によって抽出された所定の成分に基づき、対象顔画像のしわ成分、しみ成分及び毛穴成分を判別して認識する成分認識部A12a及び成分認識部B12b(以下、特に明記しない限りこれらをまとめて「成分認識部12」と称する。)とを備える。
ε−フィルタバンク11は、フィルタ手段として機能し、具体的には、入力顔画像情報x(n)を振幅−周波数空間にて、例えば顔画像の構造成分を示す第1の成分(y1(n))及び第2の成分(y2(n))、顔画像の肌の所定成分を示す第3の成分(y3(n))、第4の成分(y4(n))、並びに第5の成分(y5(n))に分割する。
そして、本実施形態においては、ε−フィルタバンク11は、第4の成分を抽出して成分認識部12に出力すると共に、第1の成分、第2の成分、第3の成分及び第5の成分を合成部14に出力する。成分認識部12は、抽出され入力された第4の成分に基づいて、対象顔画像内のしわ成分、しみ成分及び毛穴成分を認識し、これら各成分の対象顔画像内における出現位置及び形状を判別する。
具体的には、ε−フィルタバンクA11aは、入力顔画像情報x(n)から第4の成分を抽出して成分認識部A12aに出力する。成分認識部A12aは、第4の成分と共に顔領域画像を入力してしわ成分を上記のように認識して判別し、このしわ成分を出力する。また、ε−フィルタバンクB11bは、加減算器6に入力された入力顔画像情報x(n)から成分認識部A12aからのしわ成分を減じたものから更に第4の成分を抽出して成分認識部B12bに出力する。成分認識部B12bは、第4の成分と共に顔領域画像を入力してしみ成分と毛穴成分を上記のように認識して判別し、これらしみ成分及び毛穴成分を出力する。
そして、後段の成分調整部13の除去率調整部13aは、成分認識部A12aから出力されたしわ成分に対して重み付けを行って、しわ成分の顔画像内での除去率を調整する。また、除去率調整部13bは、成分認識部B12bから出力されたしみ成分に対して重み付けを行って、しみ成分の顔画像内での除去率を調整する。更に、除去率調整部13cは、成分認識部B12bから出力された毛穴成分に対して重み付けを行って、毛穴成分の顔画像内での除去率を調整する。なお、重み付けは除去率調整方式の一例であるためこれに限定されるものではない。また、成分調整部13にて調整された各々の除去率は、記憶手段4に記憶される。
そして、合成部14は、ε−フィルタバンク11から出力された顔画像の構造成分である第1及び第2の成分(y1(n),y2(n))、第3の成分(y3(n))並びに第5の成分(y5(n))及び/又は入力顔画像情報x(n)を入力すると共に、記憶手段4に記憶された除去率に基づき成分調整部13の各除去率調整部13a〜13cにおいて、例えば除去率によって各々増減して調整されたしわ成分、しみ成分及び毛穴成分を入力する。このように、合成部14は、入力した第1、第2、第3、第5の成分、及び/又は入力顔画像情報x(n)と、しわ成分、しみ成分及び毛穴成分とを加算(合成)し得ると共に、例えば顔領域抽出部5で抽出された顔領域画像や除外された除外領域画像を加算(合成)して出力顔画像を生成し、この顔画像を表す出力顔画像情報y(n)を出力する。
なお、ε−フィルタバンク11は、より具体的にはε−分離型非線形フィルタバンクにより構成される。そして、フィルタ手段は、ε−フィルタバンク11の他にも種々の非線形フィルタを用いたフィルタバンクにより構成し得る。ここで、まずはε−フィルタバンク11で用いられるε−フィルタの原理について説明する。
本実施形態に係る顔画像処理システムの顔画像処理部10において、まず、例えばそれぞれ第n時点における入力された入力顔画像情報を入力信号x(n)とし、出力される出力顔画像情報を出力信号y(n)とする。そして、ε−フィルタは、次式(1)からなる非再帰型低域通過フィルタに非線形関数Fを導入することにより実現され、次式(2)のように表される。
なお、上記の式(1),(2)において、aは、総和が1なる非再帰型低域通過フィルタ係数であり、Fは図4に示すような非線形関数であって、その絶対値はある値ε以下に制限されている。このとき、入力信号x(n)と出力信号y(n)との差は、次式(3)のようにある値ε’以下に制限される。
また、このとき、特に全てのaが正とすると、ε’=εである。振幅が十分小さな加法性高周波雑音が入力信号に含まれている場合は、εを雑音の振幅ピーク・ピーク値程度に設定すると、その雑音は上記の式(1)により表される低域通過フィルタで平滑される。また、出力信号は入力信号±ε以内となるので、大きな振幅変化を保ちながら雑音の除去を行うことが可能である。
図5は、顔画像処理システムの顔画像処理部におけるε−フィルタ及び線形低域通過フィルタの振幅−周波数空間の分割例を示す図である。このようなε−フィルタでは、図示のように、出力信号y(n)としては入力における低周波数成分又は大振幅成分が得られ、それに対し振幅ε以下の小振幅高周波数成分は、x(n)−y(n)として得られる。
したがって、x(n)−y(n)をu(n)と表すと、このε−フィルタは、入力信号x(n)に対して、その振幅−周波数空間を図5(a)に示すように分ける。なお、通常の線形低域通過フィルタは、その振幅−周波数空間を図5(b)に示すように分けるものに相当する。
図6は、顔画像処理システムの顔画像処理部におけるε−フィルタバンクの構成を示す図である。上記のようなε−フィルタをフィルタバンク状に組み合わせると、その入力信号x(n)をその振幅−周波数に応じて複数の領域に分割することができる。ここで、図6に示すように、ε−フィルタバンク11(11a,11b)は、線形低域通過フィルタとε−フィルタとを組み合わせた構造からなる。
このε−フィルタバンク11において、図6に示すLは線形低域通過フィルタであり、E1,E2,E3はε−フィルタである。これら各フィルタは二次元フィルタ、または水平・垂直方向一次元フィルタの組み合わせとし、nは二次元平面における画素の位置(i,j)を表すものとする。
なお、各出力信号y1(n),y2(n),y3(n),y4(n),y5(n)の総和は入力信号x(n)に等しく、線形低域通過フィルタLとε−フィルタE2の窓サイズは等しくw0とし、さらにε−フィルタE1,E3の窓サイズも等しくw1とすることができる。また、各ε−フィルタE1,E2,E3の値ε(これを順にε1,ε2,ε3とする。)は、ε1>ε2>ε3の関係にあるとすることができる。
図7は、顔画像処理システムの顔画像処理部におけるε−フィルタバンクによる振幅−周波数空間における顔画像情報の各成分の分割例を示す図である。また、図8は、顔画像処理システムの顔画像処理部に入力される顔画像情報により表される顔画像処理前の顔画像の例を示す図である。
なお、図8以降の顔画像においては、画像内の両目部分を伏せた表示となっているが、実際には両目部分が表示されていてもよく、更に図示の例では上述した除外領域の部分も全て含んだ状態で表示がなされているものとする。上記のように構成されたε−フィルタバンク11は、入力信号x(n)の振幅−周波数空間を、例えば図7に示すような各領域に分割する。
また、図8に示すような入力顔画像30を表す顔画像情報においては、例えば目、鼻、口、眉などの顔の主要部分(すなわち、目の領域、鼻の領域及び口の領域など)は、一般的に大振幅信号として表されることが知られている。また、顔のベース(構造)部分(例えば、頬など)は低周波数信号として表される。
さらに、顔の肌のしわ(特に、小じわ)部分やしみ部分などの肌の美観を損ねる要因となり得る部分は、比較的小振幅で周波数が高い信号として表される。さらにまた、顔の肌の自然な凹凸である毛穴成分はより振幅の小さな高周波数信号として表される。そこで、本実施形態に係る顔画像処理システムの顔画像処理部10において、ε−フィルタバンク11は、入力信号x(n)を例えば図7に示すような振幅−周波数空間にて分割する。
すなわち、ε−フィルタバンク11は、入力信号x(n)を、顔画像の構造成分を示す第1の成分y1(n)及び第2の成分y2(n)と、顔画像の肌の所定成分を示す第3の成分y3(n)、第4の成分y4(n)、第5の成分y5(n)とに分割する。
そして、顔画像の肌の所定成分を示す第4の成分y4(n)を抽出する。なお、抽出した第4の成分y4(n)に基づき、例えばε−フィルタバンクA11aを通過した段階で元の入力顔画像30から肌のしわ成分を抽出して表示することができるしわ成分抽出表示顔画像を構成(生成)し得る。また、ε−フィルタバンクB11bを通過した段階で元の入力顔画像30から肌のしみ成分及び毛穴成分をそれぞれ抽出して表示することができるしみ成分抽出表示顔画像及び毛穴成分抽出表示顔画像をそれぞれ表す顔画像情報を構築(生成)し得る。
具体的には、図6に示したε−フィルタバンク11において、線形低域通過フィルタL及びε−フィルタE1,E2,E3の窓サイズw0,w1と、ε−フィルタE1,E2,E3の値ε1,ε2,ε3とを、それぞれ適切な値に設定する。そうすると、図7に示すように、第1及び第2の成分y1(n),y2(n)を顔の主要部分及びベース(構造)部分とし、第3の成分y3(n)、第4の成分y4(n)、第5の成分y5(n)を肌の所定成分とすることができる。
ここで、窓サイズw0は第3の成分y3(n)と第1の成分y1(n)との周波数帯を分けるものとし、窓サイズw1は第3の成分y3(n)と第5の成分y5(n)との周波数帯を分けるものとする。また、ε−フィルタE1のεの値ε1は、第4の成分y4(n)の振幅(ピーク−ピーク)の最大値程度とし、ε−フィルタE2のεの値ε2は、第3の成分y3(n)の振幅(ピーク−ピーク)の最大値程度とし、ε−フィルタE3のεの値ε3は、第5の成分y5(n)の振幅(ピーク−ピーク)の最大値程度とする。
このように構成されたε−フィルタバンクA11aにおいては、上述したように入力信号x(n)からの顔画像の主要部分及びベース(構造)部分を示す第1及び第2の成分y1(n),y2(n)は、分割された上で合成部14に入力される。また、ε−フィルタバンクA11aにおいては、入力信号x(n)から顔画像の肌の所定成分を示す第3、第4及び第5の成分y3(n),y4(n),y5(n)が分割され、第4の成分y4(n)が抽出されて成分抽出部16の成分認識部A12aに入力されると共に、第3及び第5の成分y3(n),y5(n)は合成部14に入力される。
また、ε−フィルタバンクB11bにおいては、上述したように加減算器6において入力顔画像からしわ成分を減じた入力信号x(n)からの顔画像の第1〜第5の成分y1(n)〜y5(n)は分割された上で、第1、第2、第3、第5の成分y1(n),y2(n),y3(n),y5(n)が合成部14に入力されると共に、第4の成分y4(n)が抽出されて成分抽出部16の成分認識部B12bに入力される。
成分認識部A12aは、まず、入力された第4の成分y4(n)に基づいて、顔画像内のしわ成分を認識する。次いで、成分認識部B12bは、入力された第4の成分y4(n)に基づいて、顔画像内のしみ成分及び毛穴成分を認識する。
すなわち、これら各成分は、成分認識部12において、例えば第4の成分y4(n)及び顔領域画像が構成する顔画像の全画素を走査して、輝度値がマイナスとなる黒色部分として認識される。そして、各成分として認識された部分は、例えばその部分の画素数の塊である画素集団(画素群)の面積及び画素の分散分布によって、毛穴成分、しみ成分、しわ成分と分けられ、これら各成分の顔画像内における出現位置及び形状が判別される。
図9は、顔画像処理システムの顔画像処理部における成分認識部でのしわ成分、しみ成分及び毛穴成分の認識判別方法を説明するための図である。図9に示すように、例えば毛穴成分としみ成分との判別は、画素群の面積に基づき行われる。すなわち、黒色部分として認識された各成分のうち、毛穴成分としわ成分とを比較した場合、画素群の面積が図示のように比較的小さいものは毛穴成分と判別し、画素群の面積が図示のように比較的大きいものはしみ成分と判別する。
一方、例えばしみ成分としわ成分との判別は、画素群の中心点からの分散分布の大きさに基づき行われる。すなわち、黒色部分として認識された各成分のうち、しみ成分としわ成分とを比較した場合、画素群の中心点P2からの分散分布が小さいものはしみ成分と判別し、画素群の中心点P1からの分散分布が大きいものはしわ成分と判別する。
なお、しみ成分と判別された部分については、更に所定のしきい値等と比較することにより、例えば大きいしみ成分及び小さいしみ成分に分割するようにしてもよい。各成分の顔画像内における出現位置及び形状は、判別時に自動的に認識される。こうして認識判別された各成分を抽出表示した抽出表示顔画像は、次のようになる。
図10は、顔画像処理システムの顔画像処理部における成分認識部で判別された各成分を抽出表示した顔画像を示す図である。成分認識部12にて各成分をそれぞれ抽出表示した顔画像を、例えば出力手段3の一つであるディスプレイの表示画面上に表示すると、各顔画像は次のように表示される。
すなわち、しわ成分を抽出表示した「しわ画像」であるしわ成分抽出表示顔画像30aは、図10(a)に示すようになる。また、毛穴成分を抽出表示した「毛穴画像」である毛穴成分抽出表示顔画像30bは、図10(b)に示すようになる。更に、しみ成分を抽出表示した「しみ画像」であるしみ成分抽出表示顔画像30cは、図10(c)に示すようになる。
なお、図示は省略するが、上記各成分の認識判別の際の精度向上方法として、本実施形態の顔画像処理システムにおいては、次のような方法を採用し得る。まず、ε−フィルタバンクA11aとε−フィルタバンクB11bとでパラメータを異ならせ、ε−フィルタバンクB11bにより抽出される第4の成分y4(n)の方が低い周波数を含むようにする。そして、成分認識部A12aと成分認識部B12bとで、次のような処理を行う。
すなわち、まず成分認識部A12aでは、顔領域画像における処理対象領域において、(1)第4の成分y4(n)が所定のしきい値TH以下である画素を黒にし、それ以外の画素を白にする。次いで、(2)黒の画素の塊をラベリングする。そして、(3)ラベルLの塊の画素数をnとし、空間分散をvとする。最後に、v/nが所定のしきい値THより大きければ、ラベルLに対応する第4の成分y4(n)の信号をしわ成分として認識し、出現位置及び形状を判別してしわ成分を抽出する。これにより、入力顔画像からしわ成分を完全に抽出したしわ成分抽出表示顔画像を生成し得る。
そして、しわ成分を抽出した顔画像を入力顔画像情報x(n)から差し引くことでしわ成分除去表示顔画像を生成することができ、例えばこれをε−フィルタバンクB11bに入力して再解析を行う。その後、成分認識部B12bでは、顔領域画像における処理対象領域において、(1)第4の成分y4(n)が所定のしきい値TH以下である画素を黒にし、それ以外の画素を白にする。次いで、(2)黒の画素の塊をラベリングする。そして、(3)ラベルLの塊の画素数をnとし、空間分散をvとする。
更に、(4−1)nが所定のしきい値THより大きく、且つv/nが所定のしきい値THより小さければ、ラベルLに対応する第4の成分y4(n)の信号をしみ成分として認識し、出現位置及び形状を判別して、しみ成分を抽出する。これにより、入力顔画像からしみ成分を完全に抽出したしみ成分抽出表示顔画像を生成し得る。また、しみ成分を抽出した顔画像を入力顔画像情報x(n)から差し引くことでしみ成分除去表示顔画像を生成し得る。
一方、(4−2)nが1以上であり且つ所定のしきい値THより小さく、且つv/nが所定のしきい値THより小さければ、ラベルLに対応する第4の成分y4(n)の信号を毛穴成分として認識し、出現位置及び形状を判別して毛穴成分を抽出する。これにより、入力顔画像から毛穴成分を完全に抽出した毛穴成分抽出表示顔画像を生成し得る。また、毛穴成分を抽出した顔画像を入力顔画像情報x(n)から差し引くことで毛穴成分除去表示顔画像を生成し得る。
このように、しわ成分を先に抽出した後にしみ成分及び毛穴成分を抽出するように処理すれば、各成分の認識判別の精度をより向上させることができ、各成分をより精度よく抽出表示した各抽出表示顔画像30a〜30c等を生成することが可能となる。ただし、上述したようなしわ成分、しみ成分及び毛穴成分の認識・抽出順序は一例であるため、各成分の認識・抽出順は適宜変更することができる。
こうして、成分認識部12にて顔画像内の成分として認識判別されたしわ成分、しみ成分及び毛穴成分は、成分調整部13に出力され、各除去率調整部13a〜13cにおいて例えば重み付けが行われて、顔画像内での除去率がそれぞれ調整される。成分調整部13においては、例えば任意或いはランダムに各成分の除去率が調整され、その除去率が記憶手段4に記憶される。
そして、除去率が調整されたしわ成分、しみ成分及び毛穴成分は合成部14に入力され、この合成部14において各成分の除去率によって各々増減したしわ成分、しみ成分、毛穴成分が、入力顔画像情報x(n)又は第1、第2、第3及び第5の成分と共に合成される。これにより、最終的にしわ成分、しみ成分及び毛穴成分の各成分が任意或いはランダムに除去率にしたがって表現(除去や付加)された複数の候補顔画像が生成される。なお、顔画像処理がスタートして最初に生成された複数の候補顔画像は、例えば第1世代の候補顔画像として、ディスプレイの表示画面上に表示され得る。
図11は、顔画像処理システムにおける表示画面上に表示された候補顔画像の表示態様を示す図である。図11に示すように、表示画面上のウィンドウ枠20内には、例えばしわ、しみ及び毛穴の各成分がランダムに表現された第1世代の複数(ここでは、10個)の候補顔画像31,32,33,34,35,36,37,38,39,40が表示される。また、ウィンドウ枠20の右端部には、パネル表示部20aが表示される。このパネル表示部20aには、例えばOKボタン21,22と、選択メッセージ表示欄23a,23bと、候補顔画像番号表示欄25と、戻るボタン26,27とが表示される。候補顔画像番号表示欄25には、候補顔画像31〜40に対応する番号1〜10が表示される。また、選択メッセージ表示欄23aには、「10枚の中から3枚を選んでください」というテキストメッセージが表示される。更に、選択メッセージ表示欄23bには、「最終候補決定?」というテキストメッセージが表示される。
なお、ユーザによって入力手段1の一つであるキーボードやマウス等を用いて選択枠24又は候補顔画像番号表示欄25によって選択された候補顔画像は、例えば選択枠24によって囲まれた状態で表示されると共に、候補顔画像番号表示欄25において該当する候補顔画像番号が丸囲み状態で表示される。すなわち、候補顔画像の選択は、マウス等によってユーザが選択枠24を動かして選択するか、候補顔画像番号表示欄25内の候補顔画像番号を選択するかにより行われる。図11に示す例では、選択枠24及び候補顔画像番号表示欄25により、候補顔画像33,38,39の3つがユーザに選択された状態であることが示されている。この状態で、OKボタン21を選択押下すると、候補顔画像3枚が選択されたこととなる。一方、選択枠24等により最終的な候補顔画像を例えば1つ選択した状態でOKボタン22を選択押下すると、最終的な候補顔画像が選択決定されたこととなる。なお、戻るボタン26,27は、前画面や前処理に戻る際に選択押下される。
そして、OKボタン21を選択押下して候補顔画像の選択がなされると、ユーザによって選択された候補顔画像33,38,39に基づいて、次世代の候補顔画像の生成が行われる。なお、この場合、成分抽出部16における成分抽出処理、成分調整部13における除去率調整処理などの各処理において用いられる上述した除去率のパラメータや、窓サイズw0,w1、εの値ε1,ε2,ε3などの各種のパラメータは、例えば公知の遺伝的アルゴリズム(Genetic Algorithm:GA)を用いたインタラクティブ進化計算(IEC)により最適値が設定され得る。
なお、このような最適値の設定は、遺伝的アルゴリズムを用いたインタラクティブ進化計算によるものに限定されるものではなく、その他種々の計算方式で設定されてもよい。ここで、公知の遺伝的アルゴリズムを用いたインタラクティブ進化計算に基づく交叉処理及び突然変異処理について簡単に説明する。
本実施形態の顔画像処理システムにおけるGAを用いたIECにおいては、まず前提として、例えば上記除去率のパラメータや、窓サイズw0,w1、εの値ε1,ε2,ε3、その他の各種のパラメータを連結して二進数表現する。そして、連結したものを1つの染色とし、その染色体が1つの個体を表すものとする。
次に、こうして表した個体に対してGAを適用する。まず、交叉処理については、選択された3つの候補顔画像33,38,39について、例えばランダムに2つの画像を交叉することを複数回(ここでは、2回)行って、結果的に複数個(ここでは、4つ)の交叉後の候補顔画像を生成する。これにより、それぞれの画像の嗜好性(好み)を掛け合わせた交叉後の候補顔画像が生成される。なお、交叉後の候補顔画像は、本実施形態では第2世代(次世代)となる。
次に、突然変異処理については、上記のように選択された3つの候補顔画像33,38,39と共に交叉処理にて生成された4つの候補顔画像の中から、ウィンドウ枠20内に表示される10個の候補顔画像を揃えるべく、例えばランダムに選択された3つの候補顔画像におけるそれぞれの遺伝子配列の1点を変化させることを実行して、3つの突然変異後の候補顔画像を生成する。
なお、突然変異処理は、次のような要求に応えるためにも必要である。すなわち、突然変異処理がなく交叉処理のみが行われて、その結果の候補顔画像のみがウィンドウ枠20内に表示される場合は、仮に第1世代の候補顔画像31〜40の中にユーザの嗜好性(好み)に合致した顔画像が存在しないとしたら、第2世代において好みではない顔画像の組み合わせでの遺伝子交叉となってしまう。このような場合は、ユーザの嗜好性に近い顔画像を選択することができなくなるという不具合が発生してしまうこととなる。従って、このような不具合を防止するためにも、交叉処理と共に突然変異処理も行うべきものである。
そして、このように交叉処理及び突然変異処理を経て生成された複数の候補顔画像は、第2世代(次世代)の候補顔画像として、第1世代(前世代)の中から選択された3つの候補顔画像33,38,39と共に、出力手段3の一つであるディスプレイの表示画面上のウィンドウ枠20内に表示される。
こうして第2世代の候補顔画像が表示された後、例えば選択枠24により、1つの候補顔画像をユーザが選択して選択メッセージ表示欄23bの下方のOKボタン22を選択押下すれば、最終候補を決定することができる。また、第2世代の候補顔画像の中から、上述したように再度3枚の候補顔画像を選択して選択メッセージ表示欄23aの下方のOKボタン21を選択押下した場合は、更に次世代の候補顔画像が生成されて表示される。このように、表示画面上のウィンドウ枠20内において表示された候補顔画像のうち、ユーザが嗜好性に合致したものを1つ決定した場合は、その決定した候補顔画像が最終的に出力される出力顔画像となる。
なお、この場合、ユーザが最終的に1つ決定した候補顔画像は、例えば表示画面上の別のウィンドウ枠内にしわ、しみ及び毛穴の各成分の除去率と共に表示されてもよい。このとき、各成分の除去率と共に、最終的に決定された候補顔画像を表す顔画像情報を生成する各種のパラメータは、ユーザの基準パラメータとして記憶手段4に記憶され得る。一方、ユーザが嗜好性に合致したものを1つ決定しない場合は、上述したように繰り返し第3世代、第4世代と、候補顔画像が最終的に決定されるまで複数の候補顔画像の生成が繰り返され得る。
このように、第1の実施形態に係る顔画像処理システムによれば、顔画像処理においてユーザの顔画像そのものに含まれるしわ成分、しみ成分及び毛穴成分の除去率を調整して顔画像を生成することができる。従って、ユーザにとって理想とする、より自然な顔画像を自在に生成することができる。
なお、このような本実施形態の顔画像処理システムの活用法としては、例えば次のようなものが挙げられる。すなわち、一例として、本顔画像処理システムを化粧品販売店に導入する。そして、来店したユーザの素顔画像を表す顔画像情報を顔画像処理システムに入力する。
その後、例えば(1)顔画像処理部10によりユーザの好みのファンデーションの塗布済み顔画像を生成し、これらの顔画像を比較してしわ成分、しみ成分及び毛穴成分の各成分のファンデーションによる隠蔽効果を評価する。或いは、(2)異なるファンデーションの塗布済み顔画像を生成し、これらファンデーションの違いによる各成分の隠蔽効果や隠蔽性能を評価する。
また、(3)ファンデーションの塗布済み顔画像における経時変化に伴う各成分の隠蔽効果や隠蔽性能の変化を確認し、時間経過による化粧もちを評価する。更には、これらの評価結果、及びそれに伴う顔画像情報や基準パラメータ等に基づいて、(4)新たなメイクアップ製品(ファンデーション、BB(Blemish Balm)、コンシーラ等のメイク製品)の開発を行う。
そして、ファンデーション等の他、(5)各種のスキンケア製品のしわ、しみ、毛穴等各成分の改善効果等を評価する。このように、本顔画像処理システムは、例えば上記(1)〜(5)等に有効活用することもできる。次に、本顔画像処理システムにおいて実施される顔画像処理方法による画像処理手順について説明する。
図12は、本発明の第2の実施形態に係る顔画像処理方法による画像処理手順を示すフローチャートである。また、図13は、この顔画像処理方法による画像処理手順の一部の処理内容を示すフローチャートである。なお、以降においては、既に説明した部分や構成要素と同一又は相当する部分や構成要素については、同一の符号を付して説明を省略する場合がある。
本実施形態に係る顔画像処理方法は、例えば予め用意された顔画像処理プログラムを顔画像処理システムのコンピュータ(演算手段2)にインストールして実行させることにより実現する。なお、このコンピュータは、CPUやRAM、ROM、HDD、SSD等の各種演算装置や記憶装置(記憶手段4)を備える本体と、各種の情報を表示画面上に表示するディスプレイ(出力手段3)と、受け付けられた情報をCPU等に入力する入力インタフェース(入力I/F)及びキーボードやマウス等の入力装置(入力手段1)とを備えた一般的な構成により実現されている。以下、処理の主体は特に明記しない限りコンピュータであるとする。
図12に示すように、まず、図8に示すようなユーザの対象顔画像を含む入力顔画像の画像情報(画像データ)を入力I/Fを介して入力する(ステップS100)。そして、入力された画像情報に基づき、コンピュータによって上述したような顔領域抽出処理(ステップS101A)が行われる。これにより、除外領域が除外された顔領域画像を表す顔画像情報が生成される。なお、顔領域の抽出が行われない場合は、このステップS101Aの顔領域抽出処理は省略される。
次に、コンピュータによって、上述した成分抽出認識処理(ステップS101B)及び成分除去率調整処理(ステップS101C)が行われ、初期(第1世代)の複数の候補顔画像が生成され(ステップS102)、これらの候補顔画像をディスプレイ上に表示する(ステップS104)。
ここで、初期の候補顔画像は、例えば上述したような各成分の除去率や、w0,w1,ε1,ε2,ε3等のパラメータなどの各種のパラメータ値や数値の組をランダムにM通り作成し、各種のパラメータ値や数値の組毎に1つの処理画像を求めることで、結果的にM個の出力画像(候補顔画像)を生成することで得られる。これらをディスプレイ上に表示すれば、ユーザはしわ成分、しみ成分及び毛穴成分の除去率がそれぞれ異なるM個の候補顔画像を視認することが可能となる。
こうして表示された複数の候補顔画像の中から、例えばユーザが主観的に最も望ましいと思われるしわ、しみ及び毛穴の表示態様の最終的な顔画像が見つからなかった場合は、ユーザがマウス等の入力装置を利用して、例えばウィンドウ枠20内の選択枠24等により表示された候補顔画像を選択すること等により、所望のS個の候補顔画像の選択指示を行う。
従って、コンピュータは、入力装置からの情報に基づき、最終的な顔画像が決定されたか否かを判断する(ステップS106)。最終的な顔画像の決定指示が受け付けられて出力する顔画像が決定された場合(ステップS106のYes)は、その顔画像を表す顔画像情報をコンピュータにて生成する除去率やデータのパラメータを含む各種のパラメータを決定し(ステップS108)、この決定されたパラメータを基準パラメータとして記憶装置に記憶する(ステップS109)。そして、最終的な顔画像を表す顔画像情報を出力して(ステップS110)、本フローチャートによる一連の顔画像処理を終了する。
なお、上記ステップS110における顔画像情報の出力は、画像データを他のコンピュータ等に対してデータ出力したり、ディスプレイ上に表示出力したり、紙面上に印刷出力したりする種々の出力形態が含まれる。また、上記の各種のパラメータや基準パラメータを記憶装置に記憶する際に、最終的な顔画像を表す顔画像情報と関連付けて記憶するようにすれば、最終的な顔画像を表す顔画像情報と共にこれらのパラメータも出力することができる。
一方、上記ステップS106において、最終的な顔画像が決定されなかった場合(ステップS106のNo)は、GAを用いたIECを行って(ステップS120)、次世代の候補顔画像を複数生成する。その後、生成した複数の候補顔画像の各種のパラメータを記憶装置に一時的に記憶し(ステップS130)、次世代の候補顔画像を生成した上で(ステップS132)上記ステップS104に移行して次世代の候補顔画像を表示し、以降の処理を繰り返す。
ここで、上記ステップS120におけるIECは、例えば図13に示すように行われる。すなわち、上記ステップS106にて最終的な顔画像が決定されなかった場合は、ユーザによって所望の候補顔画像の選択指示がなされたことになるので、コンピュータはユーザにより指定された候補顔画像の選択を受け付ける(ステップS122)。そして、受け付けた候補顔画像に適用された各種のパラメータ値や数値に基づいて交叉処理(ステップS124)及び突然変異処理(ステップS126)を行う。
すなわち、GAを用いたIECにおいて、コンピュータは、例えば上述したようにディスプレイ上に表示された初期(前世代)のM個の候補顔画像(ステップS104)の中から、ユーザにより選択されたS個の候補顔画像(例えば、ステップS106のNo及びS122)を表す顔画像情報に適用された各種のパラメータ値、すなわち、各成分の除去率や、窓サイズw0,w1、εの値ε1,ε2,ε3等を再び連結して二進数表現の染色体とみなす。
こうして、選択されたS個の個体に対して上述したような交叉処理(ステップS124)を行い、T1個の個体を新たに生成する。また、選択されたS個の個体と生成されたT1個の個体に対し、突然変異処理(ステップS126)を行い、新たにT2個の個体を生成する。これらT1個及びT2個の個体は、次期(次世代)の候補顔画像になる。なお、S個+T1個+T2個は例えばM個に等しい値とする。
これら交叉処理及び突然変異処理で得られたS個+T1個+T2個の個体がそれぞれ示す各種のパラメータ値、窓サイズw0,w1、εの値ε1,ε2,ε3等を用いて、候補顔画像を表す顔画像情報を生成する。すなわち、これによりS個+T1個+T2個の顔画像(候補顔画像)を出力し得ることとなる。
こうして得られたS個+T1個+T2個の候補顔画像を再びディスプレイ上に表示し(ステップS130及びS132の後のステップS104)、ユーザが最も望ましいと主観的に思える顔画像があればそれを最終的な顔画像として決定し、そうでなければ再度所望の顔画像をS個選択させる。
その後、再びコンピュータはS個の個体に基づいて交叉処理や突然変異処理を行う。このような処理を、ユーザが満足する最終的な顔画像が決定される(ステップS106のYes)まで繰り返す。このように顔画像処理を行うことによって、しわ成分、しみ成分及び毛穴成分の表示態様をユーザの好みに近付けた、すなわちユーザにとって理想とするより自然な顔画像を生成することが可能となる。また、生成した顔画像を表す顔画像情報を各種のパラメータ値や数値、基準パラメータと共に種々の分野に有効利用することが可能となる。
図14は、本発明の第3の実施形態に係る顔画像処理システムの全体構成を示すブロック図であり、図15は、この顔画像処理システムの顔色処理部の内部構成を示すブロック図である。また、図16は、この顔画像処理システムによる画像処理手順を示すフローチャートである。第3の実施形態に係る顔画像処理システムは、上述した顔画像処理部10の構成の一部に顔色処理部15を備えた点が、顔画像処理部10が顔色処理部15を備えない構成の第1の実施形態に係る顔画像処理システムと相違している。
顔色処理部15は、図14に示すように、合成部14の後段に設けられている。この顔色処理部15は、図15に示すように、例えば合成部14からの出力顔画像を表す顔画像情報の輝度及び色情報の少なくとも一つが所定の範囲である肌色領域を、出力顔画像から抽出する肌色抽出部15aと、抽出された肌色領域内の肌色の色合いを変化させる色合調整部15bとを有して構成されている。
ここで、色情報としては、例えばRGB値、CMYK値、CIELAB(L*a*b*)値、マンセル表示値、CIEXYZ値、フィルタで得られた濃度値や、分光画像、分光反射波形、或いは反射透過率、赤外波長、紫外波長又はX線波長などが挙げられる。例えば、L*a*b*表色系においては、L*は明度を表し、色相と彩度をa*b*を使用して色調として表すことも可能である。
なお、顔色処理部15は、例えば予め記憶手段4に記憶された輝度及び色情報の少なくとも一つのパラメータの値が所定の範囲となる複数のプリセットパターンや、各種のパラメータ値を利用する。これら各プリセットパターンや各種のパラメータ値は、顔色処理部15に格納されていてもよい。
各プリセットパターンは、例えば人種別、性別、住環境(緯度、経度、地域)別、季節別、時刻別等に種類分けされて予め設定されている。そして、肌色抽出部15aは、例えばユーザが指定したプリセットパターンに基づいて、輝度及び色情報の少なくとも一つのパラメータの値がそのプリセットパターンで指定されている所定の範囲内となる肌色領域を抽出する。なお、肌色抽出部15aは、例えば入力された出力顔画像の顔領域全体の肌色領域を抽出する。
また、色合調整部15bは、肌色抽出部15aにより抽出された肌色領域内の色情報、例えば各画素の色相や輝度を、次式(4)及び(5)を用いて変化させる。なお、式中の変数X、Yは、それぞれ0≦X<16、0≦Y<16の値を取り得る。
すなわち、色合調整部15bは、図15に示すように、例えば肌色抽出部15aからの肌色領域のRGBの色情報をHLS(HSL)色空間に展開し、色相(H)を上記式(4)によって変更してholdからhnewにする。また、輝度(L)を上記式(5)によって変更してLoldからLnewにする。そして、これら変更した色相(H)と輝度(L)を変更しなかった彩度(S)と合成して肌色領域のRGBの色情報に変換し、色合いを調整した肌色領域のRGBの色情報を含む出力顔画像を生成した上で、出力顔画像情報y(n)を出力する。
なお、色合調整部15bは、上記式(4)及び(5)を用いずに色合いを調整することもできるが、その場合はランダムに色が変化してしまう場合があるため、肌色領域の肌色が好ましくない肌色となるケースが確認されたため、好適ではない。そして、顔色処理部15における顔色のデータや各処理のパラメータ値は、随時記憶手段4に記憶され顔色処理に利用され得る。
こうして肌色領域内の肌色を変化させた出力顔画像を表す出力顔画像情報y(n)は、図14に示す場合は図示しない出力手段3に出力される。なお、候補顔画像の生成・表示における肌色の変化については、例えばGAを用いたIECにより最終的な候補を決定するようにしてもよい。この場合は、ユーザが最終的に決定した候補顔画像の肌色が理想の顔色として、肌色を決定する各種のパラメータ値と共に顔色データとして記憶手段4に記憶される。
この第3の実施形態に係る顔画像処理システムによる画像処理手順は、例えば図16に示すようになる。すなわち、上述した第2の実施形態の画像処理手順において、ステップS101Cの除去率調整処理の後段に上述したような顔色処理部15による顔色処理(ステップS101D)が行われる。これにより、初期の候補顔画像の生成時(ステップS102)には顔色(肌色領域の肌色)も変更させた候補顔画像を生成して、次のステップS104にて表示することが可能となる。
このように、第3の実施形態に係る顔画像処理システムによれば、顔画像処理においてしわ、しみ及び毛穴成分の各成分の除去率を調整するのみならず、顔色を調整して顔画像を生成することができるので、よりユーザが理想とする自然な顔画像を自在に生成し出力することができる。なお、本実施形態の顔画像処理システムは、顔色処理部15の処理をメインストリームとして動作するようにしてもよい。すなわち、第1の実施形態におけるしわ成分、しみ成分及び毛穴成分に関する処理は行わずに、顔色に関して種々の変化を見せる候補顔画像を生成するようにしてもよい。
顔色の処理に特化した場合は、本実施形態の顔画像処理システムは、例えば化粧品販売店において、(1)ユーザの理想とする顔色の出力顔画像を表す顔画像情報から各種のパラメータ値や顔色のデータを取得して、これらにマッチングするファンデーションを検索したり、提供したりすることに活用することができる。また、このような各種のパラメータ値や顔色のデータを利用すれば、例えば(2)化粧品販売店のスタッフとのカウンセリング等を介さずとも、ユーザが直接インターネット上で自身の嗜好に合う化粧品等を検索したり購入したりすることができるようになる。
そして、第3の実施形態に係る顔画像処理システムは、上記(1),(2)の活用の他、例えば全ての機能を利用可能に構成すれば、ユーザのしわ成分、しみ成分及び毛穴成分の各成分や肌色の輝度、色情報をユーザにとって理想化した顔画像を生成し出力することが可能な美顔化システムとして機能させることができる。
例えば、このような美顔化システムをインターネット上で相互利用可能に構成すれば、上記のようなカウンセリングを受けられないような地域に居住するユーザ、言語が異なるユーザ、発音にハンディキャップのあるユーザ等の種々のユーザに対し、顔色、しわ、しみ、毛穴等を調整したユーザの理想とする顔とマッチングするような種々の化粧品を提案することが可能になる。
更に、各種のパラメータ値やデータを利用することでユーザの理想の顔を作り上げるファンデーションを3Dプリンタで出力したり、これらのデータ等を完全オーダーメイドの化粧品を作製したりすることに利用することもでき、生成した理想とする顔画像に基づきユーザの顔に実際にメイクを施す3Dメイクアップ装置に適用することも可能となる。
なお、第2の実施形態で説明した顔画像処理方法は、上記のように予め用意された顔画像処理プログラムをコンピュータで実行することにより実現することができるのみならず、HD、CD−ROM、DVD、メモリカード等のコンピュータで読み取り可能な記録媒体に記録された顔画像処理プログラムを、コンピュータにより読み出して実行することにより実現するようにしてもよい。顔画像処理プログラムは、インターネット等のネットワークを介して配布可能な伝送媒体であってもよい。
以上、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば、上述した実施形態においては、成分抽出部16のε−フィルタバンク11において抽出された肌の所定成分を示す第3、第4及び第5の成分y3(n),y4(n),y5(n)のうち、第4の成分y4(n)のみに基づいてしわ成分、しみ成分及び毛穴成分を認識・判別するように構成したが、これに限定されるものではない。
すなわち、フィルタの窓サイズやフィルタ値を調整して、顔画像の肌の所定成分を示す第3〜第5の成分y3(n)〜y5(n)すべてを用い、例えば肌のしみ成分を第3の成分y3(n)で表し、肌のしわ成分を第4の成分y4(n)で表し、更に肌の自然な凹凸である毛穴成分を第5の成分y5(n)で表すように構成してもよい。
この場合は、入力顔画像情報x(n)をε−フィルタバンク11にて第1〜第5の成分y1(n)〜y5(n)に分割した後、顔画像の構造成分を示す第1及び第2の成分y1(n),y2(n)を合成部14に出力すると共に、第3〜第5の成分y3(n)〜y5(n)を成分認識部12に出力する。
そして、成分認識部12において、第3〜第5の成分y3(n)〜y5(n)に基づき、しみ成分、しわ成分及び毛穴成分を認識・判別し、成分調整部13にて各成分の除去率を調整するようにすればよい。このような構成によっても、上述した実施形態と同様の作用効果を奏し、ユーザにとって理想とする、より自然な顔画像を自在に生成することが可能である。
1 入力手段
2 演算手段
3 出力手段
4 記憶手段
5 顔領域抽出部
10 顔画像処理部
11 ε−フィルタバンク
12 成分認識部
13 成分調整部
13a〜13c 除去率調整部
14 合成部
15 顔色処理部
16 成分抽出部
20 ウィンドウ枠

Claims (10)

  1. 顔画像を表す顔画像情報を入力し、前記顔画像情報から前記顔画像のしわ成分、しみ成分及び毛穴成分を抽出する成分抽出手段と、
    この成分抽出手段で抽出されたしわ成分、しみ成分及び毛穴成分に対して各々の除去率を調整する除去率調整手段と、
    前記除去率を記憶する記憶手段と、
    前記除去率調整手段によって調整された除去率によって各々増減したしわ成分、しみ成分及び毛穴成分を合成し顔画像を生成する合成手段と、
    前記合成手段によって合成された顔画像情報を出力する出力手段とを備えた
    ことを特徴とする顔画像処理システム。
  2. 入力された画像情報に含まれる入力顔画像の目の領域、鼻の領域及び口の領域の少なくとも一つを除外した顔領域を示す前記顔画像を抽出する顔領域抽出手段を設けたことを特徴とする請求項1記載の顔画像処理システム。
  3. 前記成分抽出手段は、
    前記入力された前記顔画像を表す顔画像情報を、振幅−周波数空間にて第1の成分、第2の成分、第3の成分、第4の成分及び第5の成分に分割し、前記第4の成分を抽出するフィルタ手段と、
    前記フィルタ手段によって抽出された前記第4の成分に基づいて、前記顔画像内のしわ成分、しみ成分及び毛穴成分を認識し、これら各成分の前記顔画像内における出現位置及び形状を判別する成分認識手段と
    を備えたことを特徴とする請求項1又は2記載の顔画像処理システム。
  4. 前記除去率調整手段は、前記しわ成分、しみ成分及び毛穴成分に対して重み付けを行って前記各成分の前記顔画像内での除去率を調整することを特徴とする請求項3記載の顔画像処理システム。
  5. 前記合成手段は、前記記憶手段に記憶された除去率に基づく前記しわ成分、しみ成分及び毛穴成分に対応する第4の成分と、前記フィルタ手段によって分割された前記第1の成分、第2の成分、第3の成分及び第5の成分又は入力された前記顔画像情報とを合成することを特徴とする請求項3記載の顔画像処理システム。
  6. 前記合成手段の後段に、
    前記顔画像情報の輝度及び色情報の少なくとも一つが所定の範囲である肌色領域を抽出する肌色抽出手段と、
    前記肌色抽出手段によって抽出された肌色領域内の肌色の色合いを変化させる色合調整手段とを有する顔色処理手段を備えた
    ことを特徴とする請求項1〜5のいずれか1項記載の顔画像処理システム。
  7. 前記出力手段から出力される顔画像情報は複数生成され、
    前記出力手段は、複数生成された顔画像情報に基づく複数の候補顔画像を表示手段の表示画面上に表示し、
    前記表示された複数の候補顔画像の中から、ユーザにより指定された所望の候補顔画像の選択指示及び最終的な候補顔画像の決定指示のうちのいずれか一つを受け付ける入力手段と、
    前記入力手段によって前記候補顔画像の選択指示が受け付けられた場合に、選択された候補顔画像を表す顔画像情報に基づき前記成分抽出手段、前記除去率調整手段及び前記顔色処理手段における各処理のパラメータを、遺伝的アルゴリズムに基づく交叉処理及び突然変異処理を行ってインタラクティブ進化計算により設定する演算手段とを備え、
    前記成分抽出手段、前記除去率調整手段及び前記顔色処理手段は、前記演算手段によって設定されたパラメータに基づく顔画像情報の生成を、前記入力手段によって前記候補顔画像の決定指示が受け付けられるまで繰り返し行う
    ことを特徴とする請求項6記載の顔画像処理システム。
  8. 前記入力手段によって前記候補顔画像の決定指示が受け付けられた場合に、前記記憶手段は、決定された候補顔画像を表す顔画像情報を生成する前記パラメータを基準パラメータとして記憶する
    ことを特徴とする請求項7記載の顔画像処理システム。
  9. 成分抽出手段、除去率調整手段、記憶手段、合成手段及び出力手段を備えた顔画像処理システムにおける顔画像処理方法であって、
    前記成分抽出手段によって、入力された顔画像を表す顔画像情報から前記顔画像のしわ成分、しみ成分及び毛穴成分を抽出する工程と、
    前記除去率調整手段によって、抽出されたしわ成分、しみ成分及び毛穴成分に対して各々の除去率を調整する工程と、
    前記記憶手段によって、前記除去率を記憶する工程と、
    前記合成手段によって、前記除去率を調整する工程にて調整された除去率によって各々増減したしわ成分、しみ成分及び毛穴成分を合成し顔画像を生成する工程と、
    前記出力手段によって、合成された顔画像情報を出力する工程とを備えた
    ことを特徴とする顔画像処理方法。
  10. 成分抽出手段、除去率調整手段、記憶手段、合成手段及び出力手段を備えたコンピュータを有する顔画像処理システムにて顔画像処理を実行させるための顔画像処理プログラムであって、
    前記コンピュータに、
    入力された顔画像を表す顔画像情報から前記成分抽出手段によって前記顔画像のしわ成分、しみ成分及び毛穴成分を抽出させるステップと、
    抽出されたしわ成分、しみ成分及び毛穴成分に対して各々の除去率を前記除去率調整手段によって調整させるステップと、
    前記記憶手段に前記除去率を記憶させるステップと、
    前記除去率を調整させるステップにて調整された除去率によって各々増減したしわ成分、しみ成分及び毛穴成分を前記合成手段によって合成し顔画像を生成させるステップと、
    合成された顔画像情報を前記出力手段によって出力させるステップとを実行させる
    ことを特徴とする顔画像処理プログラム。
JP2016129615A 2016-06-30 2016-06-30 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム Active JP6872742B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016129615A JP6872742B2 (ja) 2016-06-30 2016-06-30 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
KR1020197001921A KR102411237B1 (ko) 2016-06-30 2017-06-23 얼굴 화상 처리 시스템, 얼굴 화상 처리 방법 및 얼굴 화상 처리 프로그램
CN201780040334.3A CN109416827A (zh) 2016-06-30 2017-06-23 面部图像处理系统、面部图像处理方法以及面部图像处理程序
US16/314,210 US10810719B2 (en) 2016-06-30 2017-06-23 Face image processing system, face image processing method, and face image processing program
PCT/JP2017/023264 WO2018003711A1 (ja) 2016-06-30 2017-06-23 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
TW106121716A TWI727065B (zh) 2016-06-30 2017-06-29 臉部影像處理系統、臉部影像處理方法、及臉部影像處理程式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016129615A JP6872742B2 (ja) 2016-06-30 2016-06-30 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2018005434A true JP2018005434A (ja) 2018-01-11
JP6872742B2 JP6872742B2 (ja) 2021-05-19

Family

ID=60786991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016129615A Active JP6872742B2 (ja) 2016-06-30 2016-06-30 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム

Country Status (6)

Country Link
US (1) US10810719B2 (ja)
JP (1) JP6872742B2 (ja)
KR (1) KR102411237B1 (ja)
CN (1) CN109416827A (ja)
TW (1) TWI727065B (ja)
WO (1) WO2018003711A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208906A (ja) * 2018-06-05 2019-12-12 カシオ計算機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN111869197A (zh) * 2018-03-15 2020-10-30 康蒂-特米克微电子有限公司 带有原始图像信号接口的汽车摄像机
JP2021103568A (ja) * 2020-06-29 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像認識方法、装置、デバイス、コンピュータ記憶媒体、及びプログラム
JP7420971B2 (ja) 2020-06-16 2024-01-23 北京達佳互▲れん▼信息技術有限公司 人体画像処理方法および電子機器
JP7436708B2 (ja) 2020-05-08 2024-02-22 ザ プロクター アンド ギャンブル カンパニー 樹状毛穴を識別するための方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020041030A1 (en) 2018-08-21 2020-02-27 The Procter & Gamble Company Methods for identifying pore color
CN110349079B (zh) * 2019-06-04 2023-04-18 南京掌心互动网络科技有限公司 一种基于用户习惯及大数据的影像修正方法及其系统
US11216922B2 (en) * 2019-12-17 2022-01-04 Capital One Services, Llc Systems and methods for recognition of user-provided images
CN113536871A (zh) * 2020-04-17 2021-10-22 纽顿医学美容集团有限公司 图像预处理方法、面部皮肤年龄估计方法及电子设备
KR102445257B1 (ko) * 2022-02-23 2022-09-23 주식회사 룰루랩 인공신경망에 기반하여 모공을 검출하고 검출된 모공을 시각화하는 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118064A (ja) * 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> 画像処理装置
JP2005196270A (ja) * 2003-12-26 2005-07-21 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像処理プログラム
JP2006053821A (ja) * 2004-08-13 2006-02-23 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2006053852A (ja) * 2004-08-16 2006-02-23 Fuji Photo Film Co Ltd 認証システム
JP2012238135A (ja) * 2011-05-11 2012-12-06 Meiji Univ 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
JP2015080647A (ja) * 2013-10-23 2015-04-27 パナソニックIpマネジメント株式会社 撮影画像表示装置

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4682373A (en) 1982-08-23 1987-07-28 Abram Baran Collapsible hat construction
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
US20030063102A1 (en) * 2001-10-01 2003-04-03 Gilles Rubinstenn Body image enhancement
US7324668B2 (en) * 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis
JP2004000341A (ja) * 2002-05-31 2004-01-08 Omron Corp 相性判定方法、相性判定サーバ、相性判定プログラム、および該プログラムを記録した記録媒体
DE10309873A1 (de) * 2002-07-09 2004-01-29 RIC Co. Ltd. Digitale-Zoom-Hautdiagnosevorrichtung
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7233693B2 (en) * 2003-04-29 2007-06-19 Inforward, Inc. Methods and systems for computer analysis of skin image
AU2003289004A1 (en) * 2003-06-11 2005-01-04 Kose Corporation Skin evaluation method and image simulation method
US9692964B2 (en) * 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8254674B2 (en) * 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
EP2955662B1 (en) * 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP2005084980A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔画像付きカード用データ生成装置および方法並びにプログラム
JP4345622B2 (ja) * 2003-11-05 2009-10-14 オムロン株式会社 瞳色推定装置
US7376270B2 (en) * 2003-12-29 2008-05-20 Canon Kabushiki Kaisha Detecting human faces and detecting red eyes
US20080270175A1 (en) * 2003-12-31 2008-10-30 Klinger Advanced Aesthetics, Inc. Systems and methods using a dynamic expert system to provide patients with aesthetic improvement procedures
JP4396387B2 (ja) * 2004-05-13 2010-01-13 オムロン株式会社 画像補正装置
JP4217664B2 (ja) * 2004-06-28 2009-02-04 キヤノン株式会社 画像処理方法、画像処理装置
US8094186B2 (en) * 2004-10-22 2012-01-10 Shiseido Company, Ltd. Skin condition diagnosis system and beauty counseling system
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US8131029B2 (en) * 2005-09-20 2012-03-06 Brightex Bio-Photonics Llc Systems and methods for automatic skin-based identification of people using digital images
JP4682373B2 (ja) 2005-11-01 2011-05-11 株式会社国際電気通信基礎技術研究所 顔画像合成装置、顔画像合成方法および顔画像合成プログラム
JP4760349B2 (ja) * 2005-12-07 2011-08-31 ソニー株式会社 画像処理装置および画像処理方法、並びに、プログラム
EP1984073A1 (en) * 2006-01-26 2008-10-29 Power Paper Ltd. Power source electrode treatment device
US7653221B2 (en) * 2006-01-31 2010-01-26 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection and removal
US8620038B2 (en) * 2006-05-05 2013-12-31 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
FR2913128B1 (fr) * 2007-02-23 2009-08-28 Total Immersion Sa Procede et dispositif de determination de la pose d'un objet tridimensionnel dans une image et procede et dispositif de creation d'au moins une image cle
US8073287B1 (en) * 2007-02-26 2011-12-06 George Mason Intellectual Properties, Inc. Recognition by parts using adaptive and robust correlation filters
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2009059257A (ja) * 2007-09-03 2009-03-19 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8211477B2 (en) * 2007-10-17 2012-07-03 Biova, L.L.C. Solubilized protein composition obtained from eggshell membrane
US20090135177A1 (en) * 2007-11-20 2009-05-28 Big Stage Entertainment, Inc. Systems and methods for voice personalization of video content
WO2010082942A1 (en) * 2008-02-01 2010-07-22 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
US8597667B2 (en) * 2008-05-09 2013-12-03 Elc Management Llc Targeted and individualized cosmetic delivery
US9053524B2 (en) * 2008-07-30 2015-06-09 Fotonation Limited Eye beautification under inaccurate localization
US8520089B2 (en) * 2008-07-30 2013-08-27 DigitalOptics Corporation Europe Limited Eye beautification
GB0817936D0 (en) * 2008-09-30 2008-11-05 Intrinsiq Materials Global Ltd Porous materials
TWI417811B (zh) * 2008-12-31 2013-12-01 Altek Corp The Method of Face Beautification in Digital Image
US20100233128A1 (en) * 2009-03-13 2010-09-16 Mci Media Capital Inc. Natural Skin Products Containing Dairy and Processes
JP5544764B2 (ja) * 2009-06-09 2014-07-09 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
JP5463866B2 (ja) * 2009-11-16 2014-04-09 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5554987B2 (ja) * 2009-12-28 2014-07-23 キヤノン株式会社 オブジェクト識別装置及びその制御方法
US9317970B2 (en) * 2010-01-18 2016-04-19 Disney Enterprises, Inc. Coupled reconstruction of hair and skin
JP2011221812A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置及び方法、並びにプログラム
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
JP4768869B1 (ja) 2010-08-25 2011-09-07 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN101916370B (zh) * 2010-08-31 2012-04-25 上海交通大学 人脸检测中非特征区域图像处理的方法
EP2453383A1 (en) * 2010-11-12 2012-05-16 ST-Ericsson SA Facial features detection
JP4998637B1 (ja) * 2011-06-07 2012-08-15 オムロン株式会社 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
JP5755046B2 (ja) * 2011-06-22 2015-07-29 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US20140254939A1 (en) * 2011-11-24 2014-09-11 Ntt Docomo, Inc. Apparatus and method for outputting information on facial expression
KR101874494B1 (ko) * 2011-11-25 2018-07-06 삼성전자주식회사 특징점의 삼차원 위치 계산 장치 및 방법
US8908904B2 (en) * 2011-12-28 2014-12-09 Samsung Electrônica da Amazônia Ltda. Method and system for make-up simulation on portable devices having digital cameras
US9842358B1 (en) * 2012-06-19 2017-12-12 Brightex Bio-Photonics Llc Method for providing personalized recommendations
US20140079319A1 (en) * 2012-09-20 2014-03-20 Htc Corporation Methods for enhancing images and apparatuses using the same
JP6098133B2 (ja) * 2012-11-21 2017-03-22 カシオ計算機株式会社 顔構成部抽出装置、顔構成部抽出方法及びプログラム
US20150346936A1 (en) * 2012-12-02 2015-12-03 Rodan & Fields, Llc Tools and methods for interactive, professional-level at-home skin care
US9235782B1 (en) * 2012-12-24 2016-01-12 Google Inc. Searching images and identifying images with similar facial features
JP2014140097A (ja) * 2013-01-21 2014-07-31 Sony Corp 画像表示装置及び画像表示方法
JP6008323B2 (ja) * 2013-02-01 2016-10-19 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
CN105263399B (zh) * 2013-06-07 2017-06-23 富士胶片株式会社 透明感评价装置、透明感评价方法
EP3000386B1 (en) * 2013-06-28 2021-01-20 Panasonic Intellectual Property Corporation of America Skin function evaluation device and skin evaluation method
EP3026886B1 (en) * 2013-07-22 2021-01-06 Panasonic Intellectual Property Corporation of America Information processing device and method for controlling information processing device
JP6343612B2 (ja) * 2013-07-31 2018-06-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 肌分析方法、肌分析装置および肌分析装置の制御方法
US9105088B1 (en) * 2013-10-04 2015-08-11 Google Inc. Image blur with preservation of detail
US9277180B2 (en) * 2014-06-30 2016-03-01 International Business Machines Corporation Dynamic facial feature substitution for video conferencing
CN104318262A (zh) * 2014-09-12 2015-01-28 上海明穆电子科技有限公司 通过人脸照片更换皮肤的方法及系统
EP3017755A1 (en) * 2014-11-04 2016-05-11 Samsung Electronics Co., Ltd. Electronic device, and method for analyzing face information in electronic device
CN105701445A (zh) * 2014-12-15 2016-06-22 爱信精机株式会社 判定装置及判定方法
US9552510B2 (en) * 2015-03-18 2017-01-24 Adobe Systems Incorporated Facial expression capture for character animation
US10445560B2 (en) * 2015-03-31 2019-10-15 Equos Research Co., Ltd. Pulse wave detection device and pulse wave detection program
US20160357578A1 (en) * 2015-06-03 2016-12-08 Samsung Electronics Co., Ltd. Method and device for providing makeup mirror
KR102507567B1 (ko) * 2015-06-09 2023-03-09 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법
CN105069007B (zh) * 2015-07-02 2018-01-19 广东欧珀移动通信有限公司 一种建立美颜数据库的方法及装置
CN105354810B (zh) * 2015-12-07 2019-02-12 厦门美图之家科技有限公司 一种图像祛斑处理的方法、系统及拍摄终端
KR20170095632A (ko) * 2016-02-15 2017-08-23 한국전자통신연구원 얼굴인식방법
TWI585711B (zh) * 2016-05-24 2017-06-01 泰金寶電通股份有限公司 獲得保養信息的方法、分享保養信息的方法及其電子裝置
CN109416834A (zh) * 2016-06-23 2019-03-01 凯亚系统解决股份有限公司 吸引度值处理系统及吸引度值处理装置
WO2018003421A1 (ja) * 2016-06-30 2018-01-04 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
TWI657799B (zh) * 2016-09-29 2019-05-01 麗寶大數據股份有限公司 電子裝置與其提供膚質檢測資訊的方法
EP3530142A4 (en) * 2016-10-24 2019-10-30 Panasonic Intellectual Property Management Co., Ltd. PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM
US10846838B2 (en) * 2016-11-25 2020-11-24 Nec Corporation Image generation device, image generation method, and storage medium storing program
US10842242B2 (en) * 2016-12-22 2020-11-24 Johnson & Johnson Consumer Inc. System for targeted application of topical agents to an isolated body part
CN108229278B (zh) * 2017-04-14 2020-11-17 深圳市商汤科技有限公司 人脸图像处理方法、装置和电子设备
CN108229279B (zh) * 2017-04-14 2020-06-02 深圳市商汤科技有限公司 人脸图像处理方法、装置和电子设备
WO2018195485A1 (en) * 2017-04-21 2018-10-25 Mug Life, LLC Systems and methods for automatically creating and animating a photorealistic three-dimensional character from a two-dimensional image
WO2018209117A1 (en) * 2017-05-12 2018-11-15 Shaklee Corporation Topical muscadine formulation for cosmetic use
US10664716B2 (en) * 2017-07-19 2020-05-26 Vispek Inc. Portable substance analysis based on computer vision, spectroscopy, and artificial intelligence
US10896318B2 (en) * 2017-09-09 2021-01-19 Apple Inc. Occlusion detection for facial recognition processes
WO2019103484A1 (ko) * 2017-11-24 2019-05-31 주식회사 제네시스랩 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체
US10503970B1 (en) * 2017-12-11 2019-12-10 State Farm Mutual Automobile Insurance Company Method and system for identifying biometric characteristics using machine learning techniques
US10943156B2 (en) * 2018-01-05 2021-03-09 L'oreal Machine-implemented facial health and beauty assistant
JP6981277B2 (ja) * 2018-01-26 2021-12-15 富士フイルムビジネスイノベーション株式会社 検出装置、及び検出プログラム
TWI711980B (zh) * 2018-02-09 2020-12-01 國立交通大學 表情辨識訓練系統及表情辨識訓練方法
WO2019173108A1 (en) * 2018-03-06 2019-09-12 Didimo, Inc. Electronic messaging utilizing animatable 3d models
US10825219B2 (en) * 2018-03-22 2020-11-03 Northeastern University Segmentation guided image generation with adversarial networks
JP7199849B2 (ja) * 2018-06-27 2023-01-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20200020173A1 (en) * 2018-07-16 2020-01-16 Zohirul Sharif Methods and systems for constructing an animated 3d facial model from a 2d facial image
RU2697627C1 (ru) * 2018-08-01 2019-08-15 Самсунг Электроникс Ко., Лтд. Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ
TWI676136B (zh) * 2018-08-31 2019-11-01 雲云科技股份有限公司 使用雙重分析之影像偵測方法以及影像偵測裝置
US20200082158A1 (en) * 2018-09-10 2020-03-12 Algomus, Inc. Facial image makeup transfer system
US11042726B2 (en) * 2018-11-05 2021-06-22 Panasonic Intellectual Property Management Co., Ltd. Skin analyzer, skin analysis method, and non-transitory computer-readable recording medium
KR102321851B1 (ko) * 2019-07-11 2021-11-05 엘지전자 주식회사 인공 지능을 이용하여, 사용자의 피부를 관리하는 광 출력 기기 및 그의 동작 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118064A (ja) * 1999-10-20 2001-04-27 Nippon Hoso Kyokai <Nhk> 画像処理装置
JP2005196270A (ja) * 2003-12-26 2005-07-21 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像処理プログラム
JP2006053821A (ja) * 2004-08-13 2006-02-23 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2006053852A (ja) * 2004-08-16 2006-02-23 Fuji Photo Film Co Ltd 認証システム
JP2012238135A (ja) * 2011-05-11 2012-12-06 Meiji Univ 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
JP2015080647A (ja) * 2013-10-23 2015-04-27 パナソニックIpマネジメント株式会社 撮影画像表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
荒川 薫,外1名: "ε−分離型非線形フィルタバンクとその顔画像美観化への応用", 電子情報通信学会論文誌 (J88−A) 第11号, vol. 第J88-A巻, JPN6020016043, 1 November 2015 (2015-11-01), JP, pages 1216 - 1225, ISSN: 0004377127 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111869197A (zh) * 2018-03-15 2020-10-30 康蒂-特米克微电子有限公司 带有原始图像信号接口的汽车摄像机
JP2021516897A (ja) * 2018-03-15 2021-07-08 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH ロー画像シグナルインターフェースを備えた自動車用カメラ
JP7339952B2 (ja) 2018-03-15 2023-09-06 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング ロー画像シグナルインターフェースを備えた自動車用カメラ
US11818494B2 (en) 2018-03-15 2023-11-14 Conti Temic Microelectronic Gmbh Automobile camera comprising raw image signal interface
CN111869197B (zh) * 2018-03-15 2023-11-14 康蒂-特米克微电子有限公司 带有原始图像信号接口的汽车摄像机
JP2019208906A (ja) * 2018-06-05 2019-12-12 カシオ計算機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7436708B2 (ja) 2020-05-08 2024-02-22 ザ プロクター アンド ギャンブル カンパニー 樹状毛穴を識別するための方法
JP7420971B2 (ja) 2020-06-16 2024-01-23 北京達佳互▲れん▼信息技術有限公司 人体画像処理方法および電子機器
JP2021103568A (ja) * 2020-06-29 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像認識方法、装置、デバイス、コンピュータ記憶媒体、及びプログラム
JP7106705B2 (ja) 2020-06-29 2022-07-26 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像認識方法、装置、デバイス、コンピュータ記憶媒体、及びプログラム
US11687779B2 (en) 2020-06-29 2023-06-27 Beijing Baidu Netcom Science And Technology Co., Ltd. Image recognition method and apparatus, device, and computer storage medium

Also Published As

Publication number Publication date
US20190244334A1 (en) 2019-08-08
KR20190021360A (ko) 2019-03-05
US10810719B2 (en) 2020-10-20
TW201810178A (zh) 2018-03-16
JP6872742B2 (ja) 2021-05-19
TWI727065B (zh) 2021-05-11
CN109416827A (zh) 2019-03-01
WO2018003711A1 (ja) 2018-01-04
KR102411237B1 (ko) 2022-06-21

Similar Documents

Publication Publication Date Title
WO2018003711A1 (ja) 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
Lajevardi et al. Facial expression recognition in perceptual color space
TWI325567B (en) Method and system for enhancing portrait images that are processed in a batch mode
CN108229279A (zh) 人脸图像处理方法、装置和电子设备
CN106682632B (zh) 用于处理人脸图像的方法和装置
Gerstner et al. Pixelated image abstraction
Gerstner et al. Pixelated image abstraction with integrated user constraints
TW201027456A (en) Image processing device, method, and program
JP2006085678A (ja) 画像作成方法および装置並びにプログラム
JP5900208B2 (ja) 画像処理装置及び画像処理方法
TW561426B (en) Method and system for illuminant-compensation
JP2006301779A (ja) 画像処理システム、画像処理方法及び画像処理プログラム
KR20110110390A (ko) 대화형 유전자 알고리즘을 기반으로 사용자 취향을 반영한 감정 기반 영상의 색변환 방법
JP2014016688A (ja) 顕著性マップを利用した非写実変換プログラム、装置及び方法
JP2015154194A (ja) 画像処理装置、画像処理システム、画像処理方法、プログラム及び記録媒体
CN104427157B (zh) 图像处理装置和图像处理方法
JP5810384B2 (ja) 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
Murray et al. Towards automatic concept transfer
CN111274946B (zh) 一种人脸识别方法和系统及设备
JP2018128950A (ja) 画像処理装置及びプログラム
JP4768869B1 (ja) 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
WO2021235223A1 (ja) 画像処理装置、画像処理方法、学習装置、生成方法、およびプログラム
KR101024954B1 (ko) 색채와 감정 간의 관계에 기초한 영상의 색 변환 방법
Subramanian et al. Fuzzy logic based content protection for image resizing by seam carving
JP6375778B2 (ja) 画像処理方法および画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210209

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210209

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210222

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6872742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250