JP2019537758A - 制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体 - Google Patents

制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2019537758A
JP2019537758A JP2018566586A JP2018566586A JP2019537758A JP 2019537758 A JP2019537758 A JP 2019537758A JP 2018566586 A JP2018566586 A JP 2018566586A JP 2018566586 A JP2018566586 A JP 2018566586A JP 2019537758 A JP2019537758 A JP 2019537758A
Authority
JP
Japan
Prior art keywords
current user
image
rendering
face
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018566586A
Other languages
English (en)
Inventor
兪大海
全永兵
李建平
周均揚
宋劍鋒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Midea Group Co Ltd
Original Assignee
Midea Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Midea Group Co Ltd filed Critical Midea Group Co Ltd
Publication of JP2019537758A publication Critical patent/JP2019537758A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • A47G1/02Mirrors used as equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本発明は、カメラ(20)を含むスマートミラー(100)を制御するための制御方法を開示する。制御方法は、現在のユーザを撮影するようにカメラ(20)を制御するステップ(S12)と、現在のユーザが登録ユーザであるか否かを判断するステップ(S14)と、現在のユーザが登録ユーザである場合、スマートミラー(100)にログインするように現在のユーザを制御するステップ(S16)と、現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー(100)を制御するステップ(S18)と、を含む。本発明は、コントローラ(10)、スマートミラー(100)及びコンピュータ読み取り可能な記憶媒体をさらに開示する。【選択図】図1

Description

本発明は、スマートミラー技術分野に関し、特に、制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体に関する。
現在のスマートミラーの機能は、主に、天気、ショートメッセージなどのような情報を表示することである。しかしながら、現在のスマートミラーの使用機能が限定されているため、ユーザの体験が良くない。
本発明は、従来技術における少なくとも1つの技術的課題を解決することを目的とする。そのため、本発明は、制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体を提供する。
本発明の実施形態に係る制御方法は、カメラを含むスマートミラーを制御するためのものであり、前記制御方法は、
現在のユーザを撮影するように前記カメラを制御するステップと、
前記現在のユーザが登録ユーザであるか否かを判断するステップと、
前記現在のユーザが登録ユーザである場合、前記スマートミラーにログインするように 前記現在のユーザを制御するステップと、
前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御するステップと、を含む。
本発明の実施形態に係るコントローラは、カメラを含むスマートミラーを制御するためのものであり、前記コントローラは、
現在のユーザを撮影するように前記カメラを制御する制御装置と、
前記現在のユーザが登録ユーザであるか否かを判断する判断装置と、
前記現在のユーザが登録ユーザである場合、前記スマートミラーにログインするように 前記現在のユーザを制御するログイン装置と、
前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御するインタラクション装置と、を含む。
本発明の実施形態に係るスマートミラーは、カメラと上記のコントローラとを含み、前記コントローラは、前記カメラに電気的接続されている。
本発明の実施形態に係るスマートミラーは、1つ又は複数のプロセッサと、メモリと、1つ又は複数のプログラムと、を含み、前記1つ又は複数のプログラムは、前記メモリに格納されており、前記1つまたは複数のプロセッサによって実行されるように構成され、前記プログラムは、上記の制御方法を実行するための命令を含む。
本発明の実施形態に係るコンピュータ読み取り可能な記憶媒体は、画面を表示可能な電子デバイスと組み合わせて使用されるコンピュータプログラムを含み、前記コンピュータプログラムは、プロセッサによって実行されて上記の制御方法を実行可能である。
本発明の実施形態に係る制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記録媒体は、ユーザがログインした後に、美容メイク、アニメーションキャラクターレンダリングなどを含む様々なインタラクティブ機能をユーザに提供することができる。このようにすることで、スマートミラーの使用機能がさらに豊かになり、スマートな生活に対するユーザの需要が満たされ、ユーザの使用経験が向上する。
本発明の付加的な特徴及び利点は、以下の説明において一部が示され、一部が以下の説明により明らかになるか、または、本発明の実施により理解され得る。
本発明の上記及び/又は付加的な特徴及び利点は、実施形態を図面を参照して以下に説明することにより、明らかになり、理解され易くなる。
本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係るスマートミラーのモジュールの概略図である。 本発明の一部の実施形態に係るスマーミラーの構造模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係る判断装置のモジュールの概略図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係るコントローラのモジュールの概略図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係るインタラクション装置のモジュールの概略図である。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係るインタラクション装置のモジュールの概略図である。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係る制御方法の概略フローチャートである。 本発明の一部の実施形態に係るインタラクション装置のモジュールの概略図である。 本発明の一部の実施形態に係る制御方法の状態模式図である。 本発明の一部の実施形態に係るスマートミラーのモジュールの概略図である。
以下に、本発明の実施形態を詳細に説明する。前記実施形態の例が図面に示されるが、同一または類似する符号は、常に、同一又は類似する素子、或いは、同一又は類似する機能を有する素子を表す。以下に、図面を参照しながら説明される実施形態は例示するものであり、本発明を解釈するためだけに用いられ、本発明を限定するものと理解してはいけない。
図1〜図3を参照し、本発明の実施形態に係る制御方法は、カメラを含むスマートミラー100を制御するためのものである。制御方法は、
現在のユーザを撮影するようにカメラ20を制御するステップS12と、
現在のユーザが登録ユーザであるか否かを判断するステップS14と、
現在のユーザが登録ユーザである場合、スマートミラー100にログインするように現在のユーザを制御するステップS16と、
現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18と、を含む。
次に、図2を参照し、本発明の実施形態に係る制御方法は、本発明の実施形態に係るコントローラ10によって実現することができる。本発明の実施形態に係るコントローラ10は、制御装置12と、判断装置14と、ログイン装置16と、インタラクション装置18と、を含む。ステップS12は、制御装置12によって実現することができ、ステップS14は、判断装置14によって実現することができ、ステップS16は、ログイン装置16によって実現することができ、ステップS18は、インタラクション装置18によって実現することができる。
つまり、制御装置12は、現在のユーザを撮影するようにカメラ20を制御する。判断装置14は、現在のユーザが登録ユーザであるか否かを判断する。ログイン装置16は、現在のユーザが登録ユーザである場合、スマートミラー100にログインするように現在のユーザを制御する。インタラクション装置18は、現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御する。
本発明の実施形態に係るコントローラ10は、本発明の実施形態に係るスマートミラー100に適用される。つまり、本発明の実施形態に係るスマートミラー100は、本発明の実施形態に係るコントローラ10を含む。本発明の実施形態に係るスマートミラー100は、カメラ20をさらに含む。カメラ20は、コントローラ10に電気的接続されている。
現在のほとんどのスマートミラー100は、天気やショートメッセージだけを表示することができ、ユーザとのインタラクション機能が少なく、現在のスマートミラー100の使用機能が限定されているため、ユーザの体験が比較的悪い。
本発明の実施形態に係る制御方法は、ユーザが成功裏にログインした後、美容メイクやアニメーションキャラクタレンダリングなどの様々なエンターテインメントインタラクション及びガイダンス機能をユーザに提供することができる。
具体的に、スマートミラー100を使用する現在のユーザは、スマートミラー100の様々なエンターテインメントインタラクション及びガイダンス機能の使用権利を行使することができるために、スマートミラー100に成功裏にログインする必要がある。つまり、現在のユーザが登録ユーザである場合のみ、スマートミラー100のエンターテインメントインタラクション及びガイダンス機能を使用することができる。このようにすることで、登録ユーザの個人情報及びプライバシを保護し、スマートミラー100の使用情報のセキュリティを向上させることができる。また、各登録ユーザは、スマートミラー100にそれぞれの使用スタイルを設定することができる。このようにすることで、登録ユーザがスマートミラー100にログインした後、スマートミラー100は、現在の登録ユーザに応じた使用スタイルを表示し、ユーザの使用体験をさらに向上させる。
現在のユーザがスマートミラー100に成功裏にログインした後、スマートミラー100は、インタラクション機能の使用インターフェースを表示する。現在のユーザが使用インターフェースにおけるコンテンツをクリックするだけでスマートミラー100とのインタラクションを実現することができる。
以上により、本発明の実施形態に係る制御方法、コントローラ10、スマートミラー100は、ユーザが成功裏にログインした後に、様々なインタラクティブ機能をユーザに提供することができる。このようにすることで、スマートミラー100の使用機能がさらに豊かになり、スマートな生活に対するユーザの需要が満たされ、ユーザの使用経験が向上する。
図2及び図4を参照し、一部の実施形態において、スマートミラー100は、レジストリを含む。レジストリは、全ての登録ユーザの登録顔領域の登録特徴情報を含む。現在のユーザが登録ユーザであるか否かを判断するステップS14は、
カメラ20によって撮影された現在のユーザの第1の画像を処理して現在のユーザの被検出顔領域を取得するステップS141と、
被検出顔領域を処理して被検出顔領域の被検出特徴点を取得するステップS142と、
被検出特徴点を処理して被検出顔領域の特徴情報を抽出するステップS143と、
被検出特徴情報と登録特徴情報とを比較して比較結果を取得するステップS144と、
比較結果が所定の閾値より大きい場合、現在のユーザが登録ユーザであると確認するステップS145と、を含む。
図5を参照し、一部の実施形態において、判断装置14は、第1の処理ユニット141と、第2の処理ユニット142と、第3の処理ユニット143、比較ユニット144と、第1の確認ユニット145と、含む。ステップS141は、第1の処理ユニット141によって実現することができ、ステップS142は、第2の処理ユニット142によって実現することができ、ステップS143は、第3の処理ユニット143によって実現することができ、ステップS144は、比較ユニット144によって実現することができ、ステップS145は、第1の確認ユニット145によって実現することができる。
つまり、第1の処理ユニット141は、カメラ20によって撮影された現在のユーザの第1の画像を処理して現在のユーザの被検出顔領域を取得する。第2の処理ユニット142は、被検出顔領域を処理して被検出顔領域の被検出特徴点を取得する。第3の処理ユニット143は、被検出特徴点を処理して被検出顔領域の特徴情報を抽出する。比較ユニット144は、被検出特徴情報と登録特徴情報とを比較して比較結果を取得する。第1の確認ユニット145は、比較結果が所定の閾値より大きい場合、現在のユーザが登録ユーザであると確認する。
具体的に、被検出特徴点は、被検出顔領域における目、鼻、口、及び顔輪郭線などの特徴点を含む。登録特徴情報又は被検出特徴情報は、例えば、目、鼻、口などの相対位置及び距離、目、鼻、口の視点及び大きさなどの登録ユーザ又は現在のユーザの顔の特徴情報を含む。現在のユーザの被検出特徴情報と登録ユーザの登録特徴情報とを比較し、比較結果が所定の閾値より大きい場合、現在のユーザと登録ユーザとの顔のマッチング度が高いことを表しているので、現在のユーザが登録ユーザであると判断することができる。現在のユーザが登録ユーザであることが確認された後、現在のユーザは、スマートミラー100に成功裏にログインするようになる。
このようにすることで、スマートミラー100が登録ユーザのみに豊かな使用機能を提供するため、登録ユーザの情報セキュリティが確保される。
一部の実施形態において、登録ユーザは、表示インターフェースの色や背景パターンなどのスマートミラー100の使用スタイルを自ら設定することができる。このようにすることで、現在のユーザがスマートミラー100に成功裏にログインした後、スマートミラー100は、現在のユーザが好む使用スタイルを表示することができ、ユーザの体験をさらに向上させることができる。
本発明の実施形態において、現在のユーザのログイン検証は、顔認識によって検証される。他の実施形態では、現在のユーザのログイン検証は、音声認識、指紋認識、虹彩認識などによっても検証することができる。
図2及び図6を参照し、一部の実施形態において、本発明の実施形態に係る制御方法は、
登録ユーザを撮影するようにカメラ20を制御するステップS111と、
登録ユーザの入力に基づいて登録ユーザの個人記録ファイルを作成するステップS112と、をさらに含む。
図7を参照し、一部の実施形態において、コントローラ10は作成装置11をさらに含む。ステップS111は、制御装置12によって実現することができ、ステップS112は、作成装置11によって実現することができる。
つまり、制御装置12は、さらに、登録ユーザを撮影するようにカメラ20を制御し、作成装置12は、登録ユーザの入力に基づいて登録ユーザの個人記録ファイルを作成する。
具体的に、カメラ20が登録ユーザを撮影した後、スマートミラー100は、撮影された登録ユーザの画像を処理して登録ユーザの登録特徴点を取得し、登録特徴点をレジストリに格納して後の認識マッチングログインに使用する。登録ユーザは、スマートミラー100で編集入力を行って、自分の個人記録ファイルを作成することができる。個人記録ファイルは、登録ユーザのニックネーム、アバタ、及び個性署名などを含む。登録ユーザは、自分のアニメーションキャラクタを作成し、個人記録ファイルに保存することもできる。現在のユーザが登録ユーザであること、すなわち現在のユーザがスマートミラー100に成功裏にログインしたことを確認した後、スマートミラー100は、現在のユーザの個人記録ファイルにおけるすべての情報を表示するか、又は現在のユーザの個人記録ファイルにおける一部の情報を表示する。
なお、現在のユーザがスマートミラー100とインタラクションを行った後、現在のユーザは、出力されたインタラクション情報を保存することを選択することができる。この時点で、保存されたインタラクション情報は、個人記録ファイルに保存される。ユーザは、個人記録ファイルを介して、自ら保存したインタラクション情報及び/又は履歴インタラクションコンテンツなどを見ることができる。このようにすることで、ユーザの使用体験をさらに向上させることができる。
図2及び図8を参照し、一部の実施形態において、本発明の実施形態に係る制御方法は、
現在のユーザの第2の画像を撮影するようにカメラ20を制御するステップS171と、
第2の画像を表示するようにスマートミラー100を制御するステップS172と、含む。
図2を再度に参照し、一部の実施形態において、ステップS171及びステップS172は、制御装置12によって実現することができる。
つまり、制御装置12は、さらに、
現在のユーザの第2の画像を撮影するようにカメラ20を制御し、
第2の画像を表示するようにスマートミラー100を制御する。
このようにすることで、カメラ20によって撮影された第1の画像は、顔認識のログイン検証に使用される。カメラ20によって撮影された第2の画像は、現在のユーザとスマートミラー100とのインタラクションに使用される。
図9を参照し、一部の実施形態において、インタラクションは、第2の画像に対する萌え顔処理を含む。スマートミラーは、萌え顔素材ライブラリを含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
第2の画像を処理して現在のユーザの萌え顔の顔領域を取得するステップS1811と、
萌え顔の顔領域を処理して萌え顔の顔領域の萌え顔特徴点を取得するステップS1812と、
現在のユーザの入力に基づいて萌え顔素材を決定するステップS1813と、
萌え顔特徴点に基づいて萌え顔素材と第2の画像とのマッチング融合処理を行って萌え顔画像を取得するステップS1814と、を含む。
図5及び図10を参照し、一部の実施形態において、インタラクション装置18は、第2の確認ユニット181と第4の処理ユニット182と含む。ステップS1811は、第1の処理ユニット141によって実現することができ、ステップS1812は、第2の処理ユニット142によって実現することができ、ステップS1813は、第2の確認ユニット181によって実現することができ、ステップS1814は、第4の処理ユニット182によって実現することができる。
つまり、第1の処理ユニット141は、さらに、第2の画像を処理して現在のユーザの萌え顔の顔領域を取得する。第2の処理ユニット142は、さらに、萌え顔の顔領域を処理して萌え顔の顔領域の萌え顔特徴点を取得する。第2の確認ユニット181は、現在のユーザの入力に基づいて萌え顔素材を決定する。第4の処理ユニット182は、萌え顔特徴点に基づいて萌え顔素材と第2の画像とのマッチング融合処理を行って萌え顔画像を取得する。
図11を参照し、具体的に、萌え顔特徴点は、目、鼻、口、耳、髪などの特徴点を含む。萌え顔処理は、現在のユーザの萌え顔の顔領域に、検出された萌え顔特徴点に基づいて装飾の効果を重ね合わせることを指し、例えば、顔に可愛い表情を重ね合わせること、頭部にヘアピンなどの仮想装飾を重ね合わせること、頭部に動物耳を重ね合わせること、鼻の位置に動物の鼻を重ね合わせること、頬の位置に動物髭を重ね合わせることなどである。萌え顔素材は、ユーザによって自ら指定することができる。萌え顔画像を得た後、スマートミラー100は、萌え顔画像の動的フレームごとの表示を採用することにより、楽しさが高いアニメーション効果を形成する。
図12を参照し、一部の実施形態において、インタラクションは、第2の画像に対する美顔処理を含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
第2の画像を処理して現在のユーザの美顔領域を取得するステップS1821と、
美顔領域を処理して美顔領域の美顔特徴点を取得するステップS1822と、
現在のユーザの入力及び美顔特徴点に基づいて第2の画像に対して美顔処理を行って美顔画像を取得するステップS1823と、を含む。
図5及び図10を再度に参照し、一部の実施形態において、インタラクション装置18は、第4の処理ユニット182を含む。ステップS1821は、第1の処理ユニット141によって実現することができ、ステップS1822は、第2の処理ユニット142によって実現することができ、ステップS183は、第4の処理ユニット182によって実現することができる。
つまり、第1の処理ユニット141は、さらに、第2の画像を処理して現在のユーザの美顔領域を取得する。第2の処理ユニット142は、さらに、美顔領域を処理して美顔領域の美顔特徴点を取得する。第4の処理ユニット182は、現在のユーザの入力及び美顔特徴点に基づいて第2の画像に対して美顔処理を行って美顔画像を取得する。
美顔処理は、美白フィルタ、赤みフィルタ、顔痩せモジュール、及びビッグアイモジュールのうちの1つ又は複数を含む。美顔特徴点は、顔や目などを含む。ユーザは、美顔処理の操作オプションをクリックすることにより、第2の画像の美顔処理を行うことができる。例えば、図13に示すように、ユーザが美白フィルタをクリックした後、第4の処理ユニット182は、第2の画像における美顔領域に対して顔の美白処理を行う。このようにすることで、ユーザは、美顔機能を自主的に選択して第2の画像に対して美顔処理を行うことができ、処理された美顔画像は、スマートミラー100に表示される。ユーザは、スマートミラー100に表示された自分の個人イメージを見ることができ、ユーザの視覚体験を向上させることができる。
さらに、スマートミラー20は、フレームごとに美顔画像を動的フレームの形態で表示する。つまり、カメラ20は、現在のユーザをリアルタイムで撮影して現在のユーザの美顔特徴点を取得し、リアルタイムで撮影された画像の美顔処理を行う。このようにすることで、現在のユーザが、例えば、頭部を一定の角度にわたって回転させるような動いている状態にあっても、スマートミラー100にも現在のユーザの美顔後の画像がリアルタイムで表示される。
図14を参照し、一部の実施形態において、インタラクションは、第2の画像に対して仮想トライアルメイクアップ処理を含む。スマートミラーは、メイクアップ素材ライブラリを含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
第2の画像を処理して現在のユーザのトライアルメイクアップ顔領域を取得するステップS1831と、
トライアルメイクアップ顔領域を処理してトライアルメイクアップ顔領域のトライアルメイクアップ特徴点を取得するステップS1832と、
現在のユーザの入力に基づいてメイクアップ素材を決定するステップS1833と、
トライアルメイクアップ特徴点に基づいてメイクアップ素材と第2の画像とのマッチング融合処理を行って仮想トライアルメイクアップ画像を取得するステップS1834と、を含む。
図5及び図10を再度に参照し、一部の実施形態において、インタラクション装置18は、第2の確認ユニット181と第4の処理ユニット182とを含む。ステップS1831は、第1の処理ユニット141によって実現することができ、ステップS1832は、第2の処理ユニット142によって実現することができ、ステップS1833は、第2の確認ユニット181によって実現することができ、ステップS1834は、第4の処理ユニット184によって実現することができる。
つまり、第1の処理ユニット141は、さらに、第2の画像を処理して現在のユーザのトライアルメイクアップ顔領域を取得する。第2の処理ユニット142は、さらに、トライアルメイクアップ顔領域を処理してトライアルメイクアップ顔領域のトライアルメイクアップ特徴点を取得する。第2の確認ユニット181は、現在のユーザの入力に基づいてメイクアップ素材を決定する。第4の処理ユニット182は、トライアルメイクアップ特徴点に基づいてメイクアップ素材と第2の画像とのマッチング融合処理を行って仮想トライアルメイクアップ画像を取得する。
メイクアップ素材は、アイシャドウ素材、アイライナー素材、ほお紅素材、口紅素材、及び眉毛素材のうちの1つ又は複数を含む。トライアルメイクアップ特徴点は、目、鼻、眉毛、及び頬などの特徴点を含む。現在のユーザがスマートミラー100の操作インターフェースで対応するメイクアップ素材をクリックした後、第4の処理ユニット182は、決定されたトライアルメイクアップ特徴点に基づいて、現在のユーザによってクリックされたメイクアップ素材と第2の画像とのマッチング融合処理を行う。スマートミラー100は、マッチング融合処理された仮想トライアルメイクアップ画像を表示する。例えば、図15に示すように、現在のユーザがアイシャドウ素材及びアイライナー素材をクリックした後、スマートミラー100は、処理された仮想トライアルメイクアップ画像を表示する。実際の使用中に、現在のユーザは、化粧時に、スマートミラー100に表示された仮想トライアルメイクアップ画像を参考にして自分の好みのメイクを特定することができる。このようにすることで、ユーザとスマートミラー100とのインタラクションが強化され、ユーザの使用体験が向上する。
さらに、スマートミラー100は、フレームごとに仮想トライアルメイクアップ画像を動的フレームの形態で表示する。現在のユーザが動いている状態にあっても、スマートミラー100は、相変わらず仮想トライアルメイクアップ処理された仮想トライアルメイクアップ画像を持続的に表示することができる。
図16を参照し、一部の実施形態において、インタラクションは、第2の画像に対する2D仮面レンダリング処理を含む。スマートミラー100は、2D仮面素材ライブラリを含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
第2の画像を処理して現在のユーザの2D仮面レンダリング顔領域を取得するステップS1841と、
2D仮面レンダリング顔領域を処理して2D仮面レンダリング顔領域の2D仮面レンダリング特徴点を取得するステップS1842、
現在のユーザの入力に基づいて2D仮面素材を決定するステップS1843と、
2D仮面レンダリング特徴点に基づいて2D仮面素材と第2の画像とのマッチング融合処理を行って2D仮面レンダリング画像を取得するステップS1844と、を含む。
図5及び図10を再度に参照し、一部の実施形態において、インタラクション装置18は、第2の確認ユニット181と第4の処理ユニット182とを含む。ステップS1841は、第1の処理ユニット141によって実現することができ、ステップS1842は、第2の処理ユニット142によって実現することができ、ステップS1843は、第2の確認ユニット181によって実現することができ、ステップS1844は、第4の処理ユニット182によって実現することができる。
つまり、第1の処理ユニット141は、さらに、第2の画像を処理して現在のユーザの2D仮面レンダリング顔領域を取得する。第2の処理ユニット142は、さらに、2D仮面レンダリング顔領域を処理して2D仮面レンダリング顔領域の2D仮面レンダリング特徴点を取得する。第2の確認ユニット181は、現在のユーザの入力に基づいて2D仮面素材を決定する。第4の確認ユニット182は、2D仮面レンダリング特徴点に基づいて、2D仮面素材と第2の画像とのマッチング融合処理を行って2D仮面レンダリング画像を取得する。
具体的に、2D仮面レンダリング特徴点は、主に、目、鼻、及び口を含む。2D仮面素材は、古典的な仮面、北京オペラの仮面、動物の顔の仮面、アニメーションキャラクタの仮面などを含む。現在のユーザが2D仮面素材をクリックした後、第4の処理ユニット182は、2D仮面素材と第2の画像とのマッチング融合処理を行う。スマートミラー100は、マッチング融合処理された2D仮面レンダリング画像を表示する。例えば、図17に示すように、ユーザが白い仮面の2D仮面素材をクリックすると、スマートミラー100は、処理された2D仮面レンダリング画像を表示する。このようにすることで、ユーザは直感的に仮面を着用した効果を感じることができ、スマートミラー100の使用の楽しさが増える。
さらに、スマートミラー100は、フレームごとに2D仮面レンダリング画像を動的フレームの形態で表示する。ユーザの頭部が動いている場合は、2D仮面は、相変わらず2D仮面レンダリング顔領域とのマッチングを実現することができる。ユーザは、レンダリング効果を動的に見ることができる。スマートミラー100は、リアルに仮面を着用してミラーを見ている使用感覚をユーザに提供することができる。
図18を参照し、一部の実施形態において、インタラクションは、第2の画像に対する3Dアニメーションキャラクタレンダリング処理を含む。スマートミラー100は、3Dエンジン、共通3D顔モデル、及び3Dアニメーションキャラクタ素材ライブラリを含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
第2の画像を処理して現在のユーザの3Dアニメーションキャラクタレンダリング顔領域を取得するステップS1851と、
3Dアニメーションキャラクタレンダリング顔領域を処理して3Dアニメーションキャラクタレンダリング顔領域の3Dアニメーションキャラクタレンダリング特徴点を取得するステップS1852と、
共通3D顔モデル及び3Dアニメーションキャラクタレンダリング特徴点に基づいて現在のユーザの3Dアニメーションキャラクタレンダリング姿勢パラメータを取得するステップS1853と
現在のユーザの入力に基づいて3Dアニメーションキャラクタ素材を決定するステップS1854と、
第1の姿勢パラメータ及び3Dアニメーションキャラクタ素材に基づいて第2の画像に対して3Dアニメーションキャラクタレンダリング処理を行うように3Dエンジンを制御するステップS1855と、を含む。
図5及び図19を参照し、インタラクション装置18は、取得ユニット183と、第2の確認ユニット181と、第4の処理ユニット182と、含む。ステップS1851は、第1の処理ユニット141によって実現することができ、ステップS1852は、第2の処理ユニット142によって実現することができ、ステップS1853は、取得ユニット183によって実現することができ、ステップS1854は、第2の確認ユニット181によって実現することができ、ステップS1855は、第4の処理ユニット182によって実現することができる。
つまり、第1の取得ユニット141は、さらに、第2の画像を処理して現在のユーザの3Dアニメーションキャラクタレンダリング顔領域を取得する。第2の処理ユニット142は、さらに、3Dアニメーションキャラクタレンダリング顔領域を処理して3Dアニメーションキャラクタレンダリング顔領域の3Dアニメーションキャラクタレンダリング特徴点を取得する。取得ユニット183は、共通3D顔モデル及び3Dアニメーションキャラクタレンダリング特徴点に基づいて現在のユーザの3Dアニメーションキャラクタレンダリング姿勢パラメータを取得する。第2の確認ユニット181は、現在のユーザの入力に基づいて3Dアニメーションキャラクタ素材を決定する。第4の処理ユニット182は、第1の姿勢パラメータ及び3Dアニメーションキャラクタ素材に基づいて第2の画像に対して3Dアニメーションキャラクタレンダリング処理を行うように3Dエンジンを制御する。
具体的に、第2の画像に対して3Dアニメーションキャラクタレンダリング処理を行うこととは、第2の画像におけるキャラクタの動きを取得し、キャラクタの動きを模倣して追従するように3Dアニメーションキャラクタを制御することである。3Dアニメーションキャラクタ素材ライブラリは、例えば、スポンジボブ、ドラえもん、カンフーパンダ、プーさんなどの複数の3Dアニメーションキャラクタ素材を含む。3Dアニメーションキャラクタレンダリング特徴点は、3Dアニメーションキャラクタレンダリング顔領域の目、鼻、口、頭部などを含む。第1の姿勢パラメータは、頭部の回転角度、目の開閉、口の動きなどを含む。共通3D顔モデルと3Dアニメーションキャラクタレンダリング特徴点とのマッチングは、カメラ20によって撮影された2D平面画像を3D立体姿勢パラメータ、即ち第1の姿勢パラメータに変換するために使用される。このようにすることで、現在のユーザが3Dアニメーションキャラクタ素材をクリックした後、3Dエンジンは、第1の姿勢パラメータ及び3Dアニメーションキャラクタ素材に基づいて、第2の画像に対して3Dアニメーションキャラクタレンダリング処理を行って、3Dアニメーションキャラクタが現在のユーザの頭部及び面部の動きに基づいてキャラクタ動きの3D立体表示効果を行うことが実現される。例えば、図20に示すように、現在のユーザによって選択された3Dアニメーションキャラクタ素材は、ドラえもんであり、ユーザが目を大きく開きながら、口を開けて大笑い動きをしている場合、ドラえもんは、同時に目を大きく開きながら、口を開けて大笑い動きをして、リアルタイムで模倣して追従することを実現する。このようにすることで、ユーザとスマートミラー100とのインタラクションの楽しさが向上する。
一部の実施形態において、取得された3Dアニメーションキャラクタレンダリング特徴点は、共通3D顔モデルライブラリにおけるある共通3D顔モデルとマッチングすることにより、3D立体姿勢パラメータを取得することができる。共通3D顔モデルライブラリには、異なる形の共通3D顔が保存されている。このようにすることで、異なるユーザの頭部、顔、五官などの差異に基づいて異なる共通3D顔モデルを選定してマッチングさせ、3D立体姿勢パラメータの精度を向上させて3Dアニメーションキャラクタレンダリングの効果をさらに最適化し、3Dアニメーションキャラクタの模倣追従をさらに正確にすることができる。
図21を参照し、一部の実施形態において、インタラクションは、第2の画像に対する仮想メガネレンダリング処理を含む。スマートミラー100は、3Dエンジン、共通3D顔モデル、及び仮想メガネ素材ライブラリを含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
第2の画像を処理して現在のユーザの仮想メガネレンダリング第2の顔領域を取得するステップS1861と、
仮想メガネレンダリング顔領域を処理して仮想メガネレンダリング顔領域の仮想メガネレンダリング特徴点を取得するステップS1862と、
共通3D顔モデル及び仮想メガネレンダリング特徴点に基づいて現在のユーザの仮想メガネレンダリング姿勢パラメータを取得するステップS1863と、
現在のユーザの入力に基づいて仮想メガネ素材を決定するステップS1864と、
第2の姿勢パラメータ及び仮想メガネ素材に基づいて第2の画像に対して仮想メガネレンダリング処理を行うように3Dエンジンを制御するステップS1865と、を含む。
図5及び図19を再度に参照し、一部の実施形態において、インタラクション装置18は、取得ユニット183と、第2の確認ユニット181と、第4の処理ユニット182と、含む。ステップS1861は、第1の処理ユニット141によって実現することができ、ステップS1862は、第2の処理ユニット142によって実現することができ、ステップS1863は、取得ユニット183によって実現することができ、ステップS1864は、第2の確認ユニット181によって実現することができ、ステップS1865は、第4の処理ユニット182によって実現することができる。
つまり、第1の処理ユニット141は、さらに、第2の画像を処理して現在のユーザの仮想メガネレンダリング第2の顔領域を取得する。第2の処理ユニット142は、さらに、仮想メガネレンダリング顔領域を処理して仮想メガネレンダリング顔領域の仮想メガネレンダリング特徴点を取得する。取得ユニット183は、共通3D顔モデル及び仮想メガネレンダリング特徴点に基づいて現在のユーザの仮想メガネレンダリング姿勢パラメータを取得する。第2の確認ユニット181は、現在のユーザの入力に基づいて仮想メガネ素材を決定する。第4の処理ユニット182は、第2の姿勢パラメータ及び仮想メガネ素材に基づいて第2の画像に対して仮想メガネレンダリング処理を行うように3Dエンジンを制御する。
具体的に、第2の画像に対して仮想メガネレンダリング処理を行うこととは、第2の画像におけるキャラクタに仮想メガネをかけることであり、仮想メガネは、第2の画像におけるキャラクタの頭部の動きに合わせて動くことができ、模倣追従を実現する。仮想メガネ素材ライブラリは、複数の異なる色及び造型の仮想メガネ素材を含む。仮想メガネレンダリング特徴点は、主に仮想メガネレンダリング顔領域の頭部及び目の部分を含む。仮想メガネレンダリング姿勢パラメータは、頭部及び目の動き状況を含む。共通3D顔モデルと仮想メガネレンダリング特徴点とのマッチングは、カメラ20によって撮影された2D平面画像を3D立体姿勢パラメータ、即ち第2の姿勢パラメータに変換するために使用される。このようにすることで、現在のユーザが仮想メガネ素材をクリックした後、3Dエンジンは、第2の姿勢パラメータ及び仮想メガネ素材に基づいて第2の画像に対して仮想メガネレンダリング処理を行うことができる。この後、現在のユーザは、スマートミラー100で自分がメガネをかけた後の3D立体表示効果を見ることができる。現在のユーザの頭部及び目が動いた後、仮想メガネも、頭部に合わせてリアルタイムで動くことができ、これにより、仮想メガネと目の部分との正確なマッチングが実現される。例えば、図22に示すように、ユーザによってクリックされた仮想メガネ素材が太いフレームの黒メガネである場合、スマートミラー100にユーザが当該太いフレームの黒メガネをかけている画像が表示される。ユーザの頭部が回転する時に、当該太いフレームの黒メガネは、同様にユーザの眼部と正確にマッチングすることができる。このようにすることで、ユーザは、仮想メガネレンダリング処理後の効果を参考にして自分に似合うメガネのタイプを選択してかけるようにすることができ、スマートミラー100の使用機能及び実用性をさらに向上させるとともに、スマートミラー100の使用の楽しさも向上させることができる。
一部の実施形態において、取得された仮想メガネレンダリング特徴点は、共通3D顔モデルライブラリにおけるある共通3D顔モデルとマッチングすることにより、3Dの立体姿勢パラメータを取得することもできる。共通3D顔モデルライブラリには、異なる形の共通3D顔が保存されている。このようにすることで、異なるユーザの頭部、顔、五官などの差異に基づいて異なる共通3D顔モデルを選定してマッチングさせ、3D立体姿勢パラメータの精度を向上させて仮想メガネレンダリングの効果を最適化し、仮想メガネとユーザの眼部とのマッチングをより正確にすることができる。
図23を参照し、一部の実施形態において、インタラクションは、第2の画像に対して仮想ヘアスタイルレンダリング処理を含む。スマートミラー100は、3Dエンジン、共通3D顔モデル、及び仮想ヘアスタイル素材ライブラリを含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
第2の画像を処理して現在のユーザの仮想ヘアスタイルレンダリング顔領域を取得するステップS1871と、
仮想ヘアスタイルレンダリング顔領域を処理して仮想ヘアスタイルレンダリング顔領域の仮想ヘアスタイルレンダリング特徴点を取得するステップS1872と、
3D顔モデル及び仮想ヘアスタイルレンダリング特徴点に基づいて現在のユーザの第3の 姿勢パラメータを取得するステップS1873と、
現在のユーザの入力に基づいて仮想ヘアスタイル素材を決定するS1874ステップと、
第3の姿勢パラメータ及び仮想ヘアスタイル素材に基づいて第2の画像に対して仮想ヘアスタイルレンダリング処理を行うように3Dエンジンを制御するステップS1875と、を含む。
図5及び図19を再度に参照し、一部の実施形態において、インタラクション装置18は、取得ユニット183と、第2の確認ユニット181と、第4の処理ユニット182と、を含む。ステップS1871は、第1の処理ユニット141によって実現することができ、ステップS1872は、第2の処理ユニット142によって実現することができ、ステップS1873は、取得ユニット183によって実現することができ、ステップS1874は、第2の確認ユニット181によって実現することができ、ステップS1875は、第4の処理ユニット182によって実現することができる。
つまり、第1の処理ユニット141は、さらに、第2の画像を処理して現在のユーザの仮想ヘアスタイルレンダリング顔領域を取得する。第2の処理ユニット142は、さらに、仮想ヘアスタイルレンダリング顔領域を処理して仮想ヘアスタイルレンダリング顔領域の仮想ヘアスタイルレンダリング特徴点を取得する。取得ユニット184は、3D顔モデル及び仮想ヘアスタイルレンダリング特徴点に基づいて現在のユーザの第3の姿勢パラメータを取得する。第2の確認ユニット181は、現在のユーザの入力に基づいて仮想ヘアスタイル素材を決定する。第4の処理ユニット182は、第3の姿勢パラメータ及び仮想ヘアスタイル素材に基づいて第2の画像に対して仮想ヘアスタイルレンダリング処理を行うように3Dエンジンを制御する。
具体的に、第2の画像に対して仮想ヘアスタイルレンダリング処理を行うこととは、第2の画像におけるキャラクタに仮想ヘアスタイルをかけることであり、仮想ヘアスタイルは、キャラクタの頭の動きに合わせて動くことができる。仮想ヘアスタイル素材ライブラリは、複数の異なる造型及び色の仮想ヘアスタイル素材を含む。仮想ヘアスタイルレンダリング特徴点は、主に現在のユーザの頭部の部分を含む。仮想ヘアスタイルレンダリング姿勢パラメータは、頭部の動き状況を含む。共通3D顔モデルと仮想ヘアスタイルレンダリング特徴点とのマッチングは、カメラ20によって撮影された2D平面画像を3Dの立体姿勢パラメータ、即ち、第3の姿勢パラメータに変換するために使用される。このようにすることで、現在のユーザが仮想ヘアスタイル素材をクリックした後、3Dエンジンは、第3の姿勢パラメータ及び仮想ヘアスタイル素材に基づいて第2の画像に対して仮想ヘアスタイルレンダリング処理を行うことができる。この後、現在のユーザは、スマートミラー100で仮想ヘアスタイルをかけた3D立体表示効果を見ることができる。現在のユーザの頭部が動いた後、仮想ヘアスタイルも、頭部に合わせてリアルタイムで動くことができ、これにより、仮想ヘアスタイルと頭部との正確なマッチングが実現される。例えば、図24に示すように、現在のユーザによって選択された仮想ヘアスタイル素材がショートヘアである場合、スマートミラー100は、ユーザが当該ショートヘアをかけた後の画像を表示する。ユーザの頭部が回転する時に、当該ショートヘアは、同様にユーザの頭部と正確にマッチングすることができる。このようにすることで、ユーザは、仮想ヘアスタイルレンダリング処理後の効果を参考にして自分に似合うヘアスタイルを選択することができるとともに、スマートミラー100の実用性及び使用の楽しさが向上する。
一部の実施形態において、取得された仮想ヘアスタイルレンダリング特徴点は、共通3D顔モデルライブラリにおけるある共通3D顔モデルとマッチングして3D立体姿勢パラメータを取得することもできる。共通3D顔モデルライブラリには、異なる形の共通3D顔が保存されている。このようにすることで、異なるユーザの頭部、顔、五官などの差異に基づいて異なる共通3D顔モデルを選定してマッチングさせ、3D立体姿勢パラメータの精度を向上させて、仮想ヘアスタイルレンダリングの効果をさらに最適化し、仮想ヘアスタイルとユーザ頭部とのマッチングをさらに正確にすることができる。
図25を参照し、一部の実施形態において、インタラクションは、現在のユーザに日常生活ケア指導を提供することをさらに含む。現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18は、
ユーザの入力に基づいて現在のユーザに日常生活ケア指導を提供するステップS188を含む。
図26を参照し、一部の実施形態において、インタラクション装置18は、指導ユニット185をさらに含む。ステップS188は、指導ユニット185によって実現することができる。
つまり、指導ユニット185は、ユーザの入力に基づいて現在のユーザに日常生活ケア指導を提供する。
具体的に、日常生活ケア指導は、歯を適切に磨く方法、顔を適切に洗う方法、顔をマッサージする方法などをユーザに教えることを含む。例えば、図27に示すように、ユーザが歯磨きの日常生活ケア指導コンテンツをクリックした場合、スマートミラー100は、ビデオ又は画像の形式で歯磨きの日常生活ケア指導コンテンツを表示する。このようにすることで、スマートミラー100の実用性が向上する。
なお、上記実施例において、萌え顔処理、仮想トライアルメイクアップ、2D仮面レンダリング処理、3Dアニメーションキャラクタレンダリング処理、仮想メガネレンダリング処理、及び仮想ヘアスタイルレンダリング処理において、第2の確認ユニット181は、同じものである。つまり、第2の確認ユニットは、ステップS1813、ステップS1833、ステップS1843、ステップS1854、ステップS1865、及び/又はステップS1874の内容を実行することができる。萌え顔処理、美顔処理、仮想トライアルメイクアップ、2D仮面レンダリング処理、3Dアニメーションキャラクタレンダリング処理、仮想メガネレンダリング処理、及び仮想ヘアスタイルレンダリング処理において、第4の処理ユニット182は、同じものである。つまり、第4の処理ユニット182は、ステップS1814、ステップS1823、ステップS1834、ステップS1844、ステップS1855、ステップS1865及び/又はステップS1875の内容を実行することができる。
また、本発明の実施形態に係る制御方法、コントローラ10、及びスマートミラー100は、萌え顔処理、仮想トライアルメイクアップ、2D仮面レンダリング処理、3Dアニメーションキャラクタレンダリング処理、仮想メガネレンダリング処理又は仮想ヘアスタイルレンダリング処理のうちの1つ又は複数を同時に又は順次実行することができる。例えば、コントローラ10は、第2の画像に対して、萌え顔処理、美顔処理、3Dアニメーションキャラクタレンダリング処理を同時に実行することができる。コントローラ10は、第2の画像に対して、美顔処理、仮想トライアルメイクアップ、仮想メガネレンダリング処理、仮想ヘアスタイルレンダリング処理の順に画像処理を行うこともできる。一部の実施形態において、各画像処理方式の処理順は、任意に変更することができる。
図28を参照し、本発明の実施形態に係るスマートミラー100は、1つ又は複数のプロセッサ30、メモリ40、及び1つ又は複数のプログラム41を含む。1つ又は複数のプログラム41は、メモリ40に格納されており、1つ又は複数のプロセッサ30によって実行されるように構成される。プログラム41は、上記いずれかの実施形態における制御方法を実行するための命令を含む。
例えば、プログラム41は、
現在のユーザを撮影するようにカメラ20を制御するステップS12と、
現在のユーザが登録ユーザであるか否かを判断するステップS14と、
現在のユーザが登録ユーザである場合、スマートミラー100にログインするように現在のユーザを制御するステップS16と、
現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18と、を実行するための命令を含む。
本発明の実施形態に係るコンピュータ読み取り可能な記憶媒体は、画面を表示可能な電子装置と組み合わせて使用されるコンピュータプログラムを含む。コンピュータプログラムは、プロセッサによって実行されて上記いずれかの実施形態に記載の制御方法を完成することができる。
例えば、プロセッサは、
現在のユーザを撮影するようにカメラ20を制御するステップS12と、
現在のユーザが登録ユーザであるか否かを判断するステップS14と、
現在のユーザが登録ユーザである場合、スマートミラー100にログインするように現在のユーザを制御するステップS16と、
現在のユーザの入力に基づいて、現在のユーザとインタラクションを行ってインタラクション情報を出力するようにスマートミラー100を制御するステップS18と、を実行可能である。
以上により、本発明の実施形態に係る制御方法、コントローラ10、スマートミラー100、及びコンピュータ読み取り可能な記憶媒体は、萌え顔処理、美顔処理、仮想トライアルメイクアップ、2D仮面レンダリング処理、3Dアニメーションキャラクタレンダリング処理、仮想メガネレンダリング処理、仮想ヘアスタイルレンダリング処理、日常生活ケア指導などを含む複数のインタラクション機能を登録ユーザに提供することができる。このようにすることで、スマートミラー100の使用機能が増え、実用性がさらに向上し、スマートミラー100使用の楽しさ及びユーザの使用体験も向上する。
本発明の説明において、「一実施例」、「一部の実施例」、「例示的な実施例」、「具体的な実施例」、又は「一部の実施例」などの用語を参照した説明とは、該実施例又は実施例に結合して説明された具体的な特徴、構成、材料又は特徴が、本発明の少なくとも一実施例又は実施例に含まれることを意味する。本明細書において、上記用語に対する例示的な記述は、必ずしも同一の実施例又は実施例を示すことではない。又、説明された具体的な特徴、構成、材料又は特徴は、いずれか1つ又は複数の実施例又は実施例において適切に組み合わせることができる。さらに、互いに矛盾しない場合、当業者であれば、本明細書に記述した異なる実施例又は例、及び異なる実施例又は例示的特徴に対して結合及び組み合わせを行うことができる。
また、「第1」、「第2」の用語は単に説明するためのものであり、比較的な重要性を指示又は暗示するか、又は示された技術的特徴の数を黙示的に指示すると理解してはいけない。従って、「第1」、「第2」が限定された特徴は、少なくとも1つの前記特徴を含むことを明示又は暗示する。本発明の説明において、別途明確且つ具体的な限定がない限り、「複数」とは、少なくとも2つ、例えば、2つ、3つなどを意味する。
フローチャートにおける、又はここで他の形態で記載された任意のプロセス又は方法は、カスタムロジック機能又はプロセスのステップを実現するための1つ又は複数の実行可能な命令コードを含むモジュール、セグメント又は一部を表すと理解されてもよい。また、本発明の好ましい実施形態の範囲は、ここで、示された又は論議された順番ではなく、係る機能に応じてほぼ同時の形態又は逆の順番で機能を実行することができる他の実現を含むことができる。これは、当業者であれば理解すべきものである。
フローチャートで示された又はここで他の形態で説明されたロジック及び/又はステップは、例えば、ロジック機能を実現するための実行可能な命令の順番付けられたリストと見なすことができ、任意のコンピュータ読み取り可能な記憶媒体に具体的に実装されて、命令実行システム、装置、又はデバイス(例えばコンピュータに基づいたシステム、プロセッサを含むシステム、又は他の命令実行システム、装置又はデバイスから命令を獲得して命令を実行するシステム)に利用されるか、又はこれらの命令実行システム、装置又はデバイスと組み合わせて利用される。本願明細書において、「コンピュータ読み取り可能な記憶媒体」は、命令実行システム、装置又はデバイスによって、又は、命令実行システム、装置又はデバイスと組み合わせて使用するためのプログラムを含む、格納する、通信する、伝播する、又は伝送することができる任意の装置であってもよい。コンピュータ読み取り可能な記憶媒体のより具体的な例(非限定的なリスト)として、1つ又は複数の配線を備える電気接続部(電子デバイス)、ポータブルコンピュータディスクカートリッジ(磁気デバイス)、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバデバイス、及びポータブルコンパクトディスク読み出し専用リメモリ(CDROM)を含む。また、コンピュータ読み取り可能な記憶媒体は、前記プログラムが印刷され得る紙又は他の適切な媒体であってもよく、これは、例えば、紙や他の媒体を光学的スキャンし、次に編集し、解釈し、又は必要な場合他の適切な形態で処理して前記プログラムを電子的に取得して、そしてコンピュータメモリに格納するからである。
なお、本発明の各部分は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって実現することができる。上記実施形態において、複数のステップ又は方法は、メモリに記憶された且つ適切な命令実行システムによって実行されるソフトウェア又はファームウェアによって実現することができる。例えば、ハードウェアで実現される場合、もう1つの実施形態と同様に、本分野において周知である、データ信号に対してロジック機能を実現するためのロジックゲート回路を備える離散ロジック回路、適切な組み合わせロジックゲート回路を備える特定用途向け集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)などの当分野の周知技術のうちのいずれか1つ又はこれらの組み合わせによって実現することができる。
普通の当業者であれば、上記の実施例に係る方法に含まれる全部又は一部のステップは、プログラムによってハードウェアを命令することで実行することができると理解することができる。前記プログラムは、コンピュータ読み取り可能な記憶媒体に格納することができ、当該プログラムが実行される場合、方法実施例におけるステップの1つ又はそれらの組み合わせが実行される。
また、本発明の各実施例における各機能ユニットは、1つの処理モジュールに集積されてもよいし、それぞれが個別の物理的存在であってもよいし、2つ以上のユニットが1つのモジュールに集積されてもよい。前記集積モジュールは、ハードウェアの形態で実現されてもよいし、ソフトウェア機能モジュールの形態で実現されてもよい。前記集積モジュールがソフト機能モジュールの形態で実現されるとともに、独立した製品として販売又は使用される場合、1つのコンピュータ読み取り可能な記憶媒体に記憶されてもよい。
上記の記憶媒体は、読み出し専用メモリ、磁気ディスク、又はCDなどであってもよい。なお、以上、本発明の実施例を示して説明したが、上記実施例は例示するものであって、本発明を制限するためのものであると理解してはいけない。普通の当業者であれば、本発明の範囲内で上記実施例に対して変更、修正、取り替え、変形を行うことができる。

Claims (31)

  1. カメラを含むスマートミラーを制御するための制御方法であって、前記制御方法は、
    現在のユーザを撮影するように前記カメラを制御するステップと、
    前記現在のユーザが登録ユーザであるか否かを判断するステップと、
    前記現在のユーザが登録ユーザである場合、前記スマートミラーにログインするように 前記現在のユーザを制御するステップと、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御するステップと、を含む、
    ことを特徴とする制御方法。
  2. 前記スマートミラーは、全ての前記登録ユーザの登録顔領域の登録特徴情報を含むレジストリを含み、
    前記現在のユーザが登録ユーザであるか否かを判断するステップは、
    前記カメラによって撮影された前記現在のユーザの第1の画像を処理して前記現在のユーザの被検出顔領域を取得するステップと、
    前記被検出顔領域を処理して前記被検出顔領域の被検出特徴点を取得するステップと、
    前記被検出特徴点を処理して前記被検出顔領域の特徴情報を抽出するステップと、
    前記被検出特徴情報と前記登録特徴情報とを比較して比較結果を取得するステップと、
    前記比較結果が所定の閾値より大きい場合、前記現在のユーザが登録ユーザであると確認するステップと、を含む、
    ことを特徴とする請求項1に記載の制御方法。
  3. 前記制御方法は、
    前記現在のユーザの第2の画像を撮影するように前記カメラを制御するステップと、
    前記第2の画像を表示するように前記スマートミラーを制御するステップと、含む、
    ことを特徴とする請求項2に記載の制御方法。
  4. 前記インタラクションは、前記第2の画像に対する萌え顔処理を含み、前記スマートミラーは、萌え顔素材ライブラリを含み、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記第2の画像を処理して前記現在のユーザの萌え顔の顔領域を取得するステップと、
    前記萌え顔の顔領域を処理して前記萌え顔の顔領域の萌え顔特徴点を取得するステップと、
    前記現在のユーザの入力に基づいて萌え顔素材を決定するステップと、
    前記萌え顔特徴点に基づいて前記萌え顔素材と前記第2の画像とのマッチング融合処理を行って萌え顔画像を取得するステップと、を含む、
    ことを特徴とする請求項3に記載の制御方法。
  5. 前記インタラクションは、前記第2の画像に対する美顔処理を含み、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記第2の画像を処理して前記現在のユーザの美顔の顔領域を取得するステップと、
    前記美顔の顔領域を処理して前記美顔の顔領域の美顔特徴点を取得するステップと、
    前記現在のユーザの入力及び前記美顔特徴点に基づいて前記第2の画像に対して美顔処理を行って美顔画像を取得するステップと、を含む、
    ことを特徴とする請求項3に記載の制御方法。
  6. 前記美顔処理は、美白フィルタ、赤みフィルタ、顔痩せモジュール、及びビッグアイモジュールのうちの1つ又は複数を含む、
    ことを特徴とする請求項5に記載の制御方法。
  7. 前記インタラクションは、前記第2の画像に対する仮想トライアルメイクアップ処理を含み、前記スマートミラーは、メイクアップ素材ライブラリを含み、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記第2の画像を処理して前記現在のユーザのトライアルメイクアップ顔領域を取得するステップと、
    前記トライアルメイクアップ顔領域を処理して前記トライアルメイクアップ顔領域のトライアルメイクアップ特徴点を取得するステップと、
    前記現在のユーザの入力に基づいてメイクアップ素材を決定するステップと、
    前記トライアルメイクアップ特徴点に基づいて前記メイクアップ素材と前記第2の画像とのマッチング融合処理を行って仮想トライアルメイクアップ画像を取得するステップと、を含む、
    ことを特徴とする請求項3に記載の制御方法。
  8. 前記メイクアップ素材は、アイシャドウ素材、アイライナー素材、ほお紅素材、口紅素材、及び眉毛素材のうちの1つ又は複数を含む、
    ことを特徴とする請求項7に記載の制御方法。
  9. 前記インタラクションは、前記第2の画像に対する2D仮面レンダリング処理を含み、 前記スマートミラーは、2D仮面素材ライブラリを含み、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記第2の画像を処理して前記現在のユーザの2D仮面レンダリング顔領域を取得するステップと、
    前記2D仮面レンダリング顔領域を処理して前記2D仮面レンダリング顔領域の2D仮面レンダリング特徴点を取得するステップと、
    前記現在のユーザの入力に基づいて2D仮面素材を決定するステップと、
    前記2D仮面レンダリング特徴点に基づいて前記2D仮面素材と前記第2の画像とのマッチング融合処理を行って2D仮面レンダリング画像を取得するステップと、を含む、
    ことを特徴とする請求項3に記載の制御方法。
  10. 前記インタラクションは、前記第2の画像に対する3Dアニメーションキャラクタレンダリング処理を含み、前記スマートミラーは、3Dエンジン、共通3D顔モデル、及び3Dアニメーションキャラクタ素材ライブラリを含み、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記第2の画像を処理して前記現在のユーザの3Dアニメーションキャラクタレンダリング顔領域を取得するステップと、
    前記3Dアニメーションキャラクタレンダリング顔領域を処理して前記3Dアニメーションキャラクタレンダリング顔領域の3Dアニメーションキャラクタレンダリング特徴点を取得するステップと、
    前記共通3D顔モデル及び前記3Dアニメーションキャラクタレンダリング特徴点に基づいて前記現在のユーザの第1の姿勢パラメータを取得するステップと
    前記現在のユーザの入力に基づいて3Dアニメーションキャラクタ素材を決定するステップと、
    前記第1の姿勢パラメータ及び前記3Dアニメーションキャラクタ素材に基づいて前記第2の画像に対して3Dアニメーションキャラクタレンダリング処理を行うように前記3Dエンジンを制御するステップと、を含む、
    ことを特徴とする請求項3に記載の制御方法。
  11. 前記インタラクションは、前記第2の画像に対する仮想メガネレンダリング処理を含み、前記スマートミラーは、3Dエンジン、共通3D顔モデル、及び仮想メガネ素材ライブラリを含み、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記第2の画像を処理して前記現在のユーザの仮想メガネレンダリング顔領域を取得するステップと、
    前記仮想メガネレンダリング顔領域を処理して前記仮想メガネレンダリング顔領域の仮想メガネレンダリング特徴点を取得するステップと、
    前記共通3D顔モデル及び前記仮想メガネレンダリング特徴点に基づいて前記現在のユーザの第2の姿勢パラメータを取得するステップと、
    前記現在のユーザの入力に基づいて仮想メガネ素材を決定するステップと、
    前記第2の姿勢パラメータ及び前記仮想メガネ素材に基づいて前記第2の画像に対して仮想メガネレンダリング処理を行うように前記3Dエンジンを制御するステップと、を含む、
    ことを特徴とする請求項3に記載の制御方法。
  12. 前記インタラクションは、前記第2の画像に対する仮想ヘアスタイルレンダリング処理を含み、前記スマートミラーは、3Dエンジン、共通3D顔モデル、及び仮想ヘアスタイル素材ライブラリを含み、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記第2の画像を処理して前記現在のユーザの仮想ヘアスタイルレンダリング顔領域を取得するステップと、
    前記仮想ヘアスタイルレンダリング顔領域を処理して前記仮想ヘアスタイルレンダリング顔領域の仮想ヘアスタイルレンダリング特徴点を取得するステップと、
    前記共通3D顔モデル及び前記仮想ヘアスタイルレンダリング特徴点に基づいて前記現在のユーザの第3の姿勢パラメータを取得するステップと、
    前記現在のユーザの入力に基づいて仮想ヘアスタイル素材を決定するステップと、
    前記第3の姿勢パラメータ及び前記仮想ヘアスタイル素材に基づいて前記第2の画像に対して仮想ヘアスタイルレンダリング処理を行うように前記3Dエンジンを制御するステップと、を含む、
    ことを特徴とする請求項3に記載の制御方法。
  13. 前記インタラクションは、前記現在のユーザに日常生活ケア指導を提供することをさらに含み、
    前記現在のユーザの入力に基づいて前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御する前記ステップは、
    前記ユーザの入力に基づいて前記現在のユーザに日常生活ケア指導を提供するステップを含む、
    ことを特徴とする請求項1に記載の制御方法。
  14. 前記制御方法は、
    前記登録ユーザを撮影するように前記カメラを制御するステップと、
    前記登録ユーザの入力に基づいて前記登録ユーザの個人記録ファイルを作成するステップと、をさらに含む、
    ことを特徴とする請求項1に記載の制御方法。
  15. カメラを含むスマートミラーを制御するためのコントローラであって、前記コントローラは、
    現在のユーザを撮影するように前記カメラを制御する制御装置と、
    前記現在のユーザが登録ユーザであるか否かを判断する判断装置と、
    前記現在のユーザが登録ユーザである場合、前記スマートミラーにログインするように 前記現在のユーザを制御するログイン装置と、
    前記現在のユーザの入力に基づいて、前記現在のユーザとインタラクションを行ってインタラクション情報を出力するように前記スマートミラーを制御するインタラクション装置と、を含む、
    ことを特徴とするコントローラ。
  16. 前記スマートミラーは、全ての前記登録ユーザの登録顔領域の登録特徴情報を含むレジストリを含み、前記判断装置は、
    前記カメラによって撮影された前記現在のユーザの第1の画像を処理して前記現在のユーザの被検出顔領域を取得する第1の処理ユニットと、
    前記被検出顔領域を処理して前記被検出顔領域の被検出特徴点を取得する第2の処理ユニットと、
    前記被検出特徴点を処理して前記被検出顔領域の特徴情報を抽出する第3の処理ユニットと、
    前記被検出特徴情報と前記登録特徴情報とを比較して比較結果を取得する比較ユニットと、
    前記比較結果が所定の閾値より大きい場合、前記現在のユーザが登録ユーザであると確認する第1の確認ユニットと、を含む、
    ことを特徴とする請求項15に記載のコントローラ。
  17. 前記制御装置は、さらに、
    前記現在のユーザの第2の画像を撮影するように前記カメラを制御し、且つ
    前記第2の画像を表示するように前記スマートミラーを制御する、
    ことを特徴とする請求項16に記載のコントローラ。
  18. 前記インタラクションは、前記第2の画像に対する萌え顔処理を含み、前記スマートミラーは、萌え顔素材ライブラリを含み、
    前記第1の処理ユニットは、さらに、前記第2の画像を処理して前記現在のユーザの萌え顔の顔領域を取得し、
    前記第2の処理ユニットは、さらに、前記萌え顔の顔領域を処理して前記萌え顔の顔領域の萌え顔特徴点を取得し、
    前記インタラクション装置は、
    前記現在のユーザの入力に基づいて萌え顔素材を決定する第2の確認ユニットと、
    前記萌え顔特徴点に基づいて前記萌え顔素材と前記第2の画像とのマッチング融合処理を行って萌え顔画像を取得する第4の処理ユニットと、を含む、
    ことを特徴とする請求項17に記載のコントローラ。
  19. 前記インタラクションは、前記第2の画像に対する美顔処理を含み、
    前記第1の処理ユニットは、さらに、前記第2の画像を処理して前記現在のユーザの美顔の顔領域を取得し、
    前記第2の処理ユニットは、さらに、前記美顔の顔領域を処理して前記美顔の顔領域の美顔特徴点を取得し、
    前記インタラクション装置は、
    前記現在のユーザの入力及び前記美顔特徴点に基づいて前記第2の画像に対して美顔処理を行って美顔画像を取得する第4の処理ユニットを含む、
    ことを特徴とする請求項17に記載のコントローラ。
  20. 前記美顔処理は、美白フィルタ、赤みフィルタ、顔痩せモジュール、及びビッグアイモジュールのうちの1つ又は複数を含む、
    ことを特徴とする請求項19に記載のコントローラ。
  21. 前記インタラクションは、前記第2の画像に対する仮想トライアルメイクアップ処理を含み、前記スマートミラーは、メイクアップ素材ライブラリを含み、
    前記第1の処理ユニットは、さらに、前記第2の画像を処理して前記現在のユーザのトライアルメイクアップ顔領域を取得し、
    前記第2の処理ユニットは、さらに、前記トライアルメイクアップ顔領域を処理して前記トライアルメイクアップ顔領域のトライアルメイクアップ特徴点を取得し、
    前記インタラクション装置は、
    前記現在のユーザの入力に基づいてメイクアップ素材を決定する第2の確認ユニットと、
    前記トライアルメイクアップ特徴点に基づいて前記メイクアップ素材と前記第2の画像とのマッチング融合処理を行って仮想トライアルメイクアップ画像を取得する第4の処理ユニットと、を含む、
    ことを特徴とする請求項17に記載のコントローラ。
  22. 前記メイクアップ素材は、アイシャドウ素材、アイライナー素材、ほお紅素材、口紅素材、及び眉毛素材のうちの1つ又は複数を含む、
    ことを特徴とする請求項21に記載のコントローラ。
  23. 前記インタラクションは、前記第2の画像に対する2D仮面レンダリング処理を含み、前記スマートミラーは、2D仮面素材ライブラリを含み、
    前記第1の処理ユニットは、さらに、前記第2の画像を処理して前記現在のユーザの2D仮面レンダリング顔領域を取得し、
    前記第2の処理ユニットは、さらに、前記2D仮面レンダリング顔領域を処理して前記2D仮面レンダリング顔領域の2D仮面レンダリング特徴点を取得し、
    前記インタラクション装置は、
    前記現在のユーザの入力に基づいて2D仮面素材を決定する第2の確認ユニットと、
    前記2D仮面レンダリング特徴点に基づいて前記2D仮面素材と前記第2の画像とのマッチング融合処理を行って2D仮面レンダリング画像を取得する第4の処理ユニットと、を含む、
    ことを特徴とする請求項17に記載のコントローラ。
  24. 前記インタラクションは、前記第2の画像に対する3Dアニメーションキャラクタレンダリング処理を含み、前記スマートミラーは、3Dエンジン、共通3D顔モデル、及び3Dアニメーションキャラクタ素材ライブラリを含み、
    前記第1の処理ユニットは、さらに、前記第2の画像を処理して前記現在のユーザの3Dアニメーションキャラクタレンダリング顔領域を取得し、
    前記第2の処理ユニットは、さらに、前記3Dアニメーションキャラクタレンダリング顔領域を処理して前記3Dアニメーションキャラクタレンダリング顔領域の3Dアニメーションキャラクタレンダリング特徴点を取得し、
    前記インタラクション装置は、
    前記共通3D顔モデル及び前記3Dアニメーションキャラクタレンダリング特徴点に基づいて前記現在のユーザの第1の姿勢パラメータを取得する取得ユニットと、
    前記現在のユーザの入力に基づいて3Dアニメーションキャラクタ素材を決定する第2の確認ユニットと、
    前記第1の姿勢パラメータ及び前記3Dアニメーションキャラクタ素材に基づいて前記第2の画像に対して3Dアニメーションキャラクタレンダリング処理を行うように前記3Dエンジンを制御する第4の処理ユニットと、を含む、
    ことを特徴とする請求項17に記載のコントローラ。
  25. 前記インタラクションは、前記第2の画像に対する仮想メガネレンダリング処理を含み、前記スマートミラーは、3Dエンジン、共通3D顔モデル、及び仮想メガネ素材ライブラリを含み、
    前記第1の処理ユニットは、さらに、前記第2の画像を処理して前記現在のユーザの仮想メガネレンダリング第2顔領域を取得し、
    前記第2の処理ユニットは、さらに、前記仮想メガネレンダリング顔領域を処理して前記仮想メガネレンダリング顔領域の仮想メガネレンダリング特徴点を取得し、
    前記インタラクション装置は、
    前記共通3D顔モデル及び前記仮想メガネレンダリング特徴点に基づいて前記現在のユーザの第2の姿勢パラメータを取得する取得ユニットと、
    前記現在のユーザの入力に基づいて仮想メガネ素材を決定する第2の確認ユニットと、
    前記第2の姿勢パラメータ及び前記仮想メガネ素材に基づいて前記第2の画像に対して仮想メガネレンダリング処理を行うように前記3Dエンジンを制御する第4の処理ユニットと、を含む、
    ことを特徴とする請求項17に記載のコントローラ。
  26. 前記インタラクションは、前記第2の画像に対する仮想ヘアスタイルレンダリング処理を含み、前記スマートミラーは、3Dエンジン、共通3D顔モデル、及び仮想ヘアスタイル素材ライブラリを含み、
    前記第1の処理ユニットは、さらに、前記第2の画像を処理して前記現在のユーザの仮想ヘアスタイルレンダリング顔領域を取得し、
    前記第2の処理ユニットは、さらに、前記仮想ヘアスタイルレンダリング顔領域を処理して前記仮想ヘアスタイルレンダリング顔領域の仮想ヘアスタイルレンダリング特徴点を取得し、
    前記インタラクション装置は、
    前記共通3D顔モデル及び前記仮想ヘアスタイルレンダリング特徴点に基づいて前記現在のユーザの第3の姿勢パラメータを取得する取得ユニットと、
    前記現在のユーザの入力に基づいて仮想ヘアスタイル素材を決定する第2の確認ユニットと、
    前記第3の姿勢パラメータ及び前記仮想ヘアスタイル素材に基づいて前記第2の画像に対して仮想ヘアスタイルレンダリング処理を行うように前記3Dエンジンを制御する第4の処理ユニットと、を含む、
    ことを特徴とする請求項17に記載のコントローラ。
  27. 前記インタラクションは、前記現在のユーザに日常生活ケア指導を提供することをさらに含み、前記インタラクション装置は、
    前記ユーザの入力に基づいて前記現在のユーザに日常生活ケア指導を提供する指導ユニットを含む、
    ことを特徴とする請求項15に記載のコントローラ。
  28. 前記制御装置は、さらに、
    前記登録ユーザを撮影するように前記カメラを制御し、
    前記コントローラは、前記登録ユーザの入力に基づいて前記登録ユーザの個人記録ファイルを作成する作成装置をさらに含む、
    ことを特徴とする請求項15に記載のコントローラ。
  29. カメラと、
    請求項15〜28のいずれかに記載のコントローラと、を含み、
    前記コントローラは、前記カメラに電気的に接続されている、
    ことを特徴とするスマートミラー。
  30. 1つ又は複数のプロセッサと、
    メモリと、
    1つ又は複数のプログラムと、を含むスマートミラーであって、
    前記1つ又は複数のプログラムは、前記メモリに格納され、前記1つまたは複数のプロセッサによって実行されるように構成され、前記プログラムは、請求項1〜14のいずれかに記載の制御方法を実行するための命令を含む、
    ことを特徴とするスマートミラー。
  31. 画面を表示可能な電子デバイスと組み合わせて使用されるコンピュータプログラムを含むコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムは、プロセッサによって実行されて請求項1〜14のいずれかに記載の制御方法を実行可能である、
    ことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2018566586A 2017-06-12 2017-06-12 制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体 Pending JP2019537758A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/087979 WO2018227349A1 (zh) 2017-06-12 2017-06-12 控制方法、控制器、智能镜子和计算机可读存储介质

Publications (1)

Publication Number Publication Date
JP2019537758A true JP2019537758A (ja) 2019-12-26

Family

ID=61606897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018566586A Pending JP2019537758A (ja) 2017-06-12 2017-06-12 制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体

Country Status (6)

Country Link
US (1) US20190130652A1 (ja)
EP (1) EP3462284A4 (ja)
JP (1) JP2019537758A (ja)
KR (1) KR20190022856A (ja)
CN (1) CN107820591A (ja)
WO (1) WO2018227349A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7560208B2 (ja) 2020-09-17 2024-10-02 北京字節跳動網絡技術有限公司 顔画像表示方法、装置、電子機器及び記憶媒体

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108305317B (zh) * 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置及存储介质
KR101972331B1 (ko) * 2017-08-29 2019-04-25 키튼플래닛 주식회사 영상 얼라인먼트 방법 및 그 장치
CN108937407A (zh) * 2018-05-25 2018-12-07 深圳市赛亿科技开发有限公司 一种智能镜子化妆指导方法及系统
CN109034063A (zh) * 2018-07-27 2018-12-18 北京微播视界科技有限公司 人脸特效的多人脸跟踪方法、装置和电子设备
CN109597480A (zh) * 2018-11-06 2019-04-09 北京奇虎科技有限公司 人机交互方法、装置、电子设备及计算机可读存储介质
CN109671142B (zh) * 2018-11-23 2023-08-04 南京图玩智能科技有限公司 一种智能美妆方法及智能美妆镜
CN109543646A (zh) * 2018-11-30 2019-03-29 深圳市脸萌科技有限公司 人脸图像处理方法、装置、电子设备及计算机存储介质
CN109875227B (zh) * 2019-01-22 2024-06-04 杭州小肤科技有限公司 多功能安全智能梳妆镜
US20200342987A1 (en) * 2019-04-26 2020-10-29 doc.ai, Inc. System and Method for Information Exchange With a Mirror
CN110941333A (zh) * 2019-11-12 2020-03-31 北京字节跳动网络技术有限公司 基于眼部动作的交互方法、装置、介质和电子设备
CN111882673A (zh) * 2020-07-29 2020-11-03 北京小米移动软件有限公司 一种显示控制方法、装置、包含显示屏的镜子及存储介质
CN111768479B (zh) * 2020-07-29 2021-05-28 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备以及存储介质
CN114187649A (zh) * 2020-08-24 2022-03-15 华为技术有限公司 护肤辅助方法、设备及存储介质
KR20220028529A (ko) * 2020-08-28 2022-03-08 엘지전자 주식회사 스마트 미러 장치 및 방법과, 이의 시스템
JP7414707B2 (ja) * 2020-12-18 2024-01-16 トヨタ自動車株式会社 画像表示システム
US11430281B1 (en) * 2021-04-05 2022-08-30 International Business Machines Corporation Detecting contamination propagation
CN113240799B (zh) * 2021-05-31 2022-12-23 上海速诚义齿有限公司 一种基于医疗大数据的牙齿三维模型构建系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234571A (ja) * 2003-01-31 2004-08-19 Sony Corp 画像処理装置、画像処理方法及び撮影装置
JP2007122454A (ja) * 2005-10-28 2007-05-17 Konica Minolta Holdings Inc 認証システム、登録システム及びプログラム
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2013535051A (ja) * 2010-06-09 2013-09-09 マイクロソフト コーポレーション 顔の表情のリアルタイムアニメーション
JP2015111372A (ja) * 2013-12-06 2015-06-18 株式会社日立システムズ ヘアスタイル決定支援システムとヘアスタイル決定支援装置
JP2015204033A (ja) * 2014-04-15 2015-11-16 株式会社東芝 健康情報サービスシステム
JP2016028463A (ja) * 2014-07-10 2016-02-25 フリュー株式会社 写真シール作成装置および表示方法
JP2016532197A (ja) * 2013-08-04 2016-10-13 アイズマッチ エルティーディー.EyesMatch Ltd. 鏡における仮想化の装置、システム、及び方法
JP2016537716A (ja) * 2013-08-22 2016-12-01 ビスポーク, インコーポレイテッド カスタム製品を創作するための方法及びシステム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016824B2 (en) * 2001-02-06 2006-03-21 Geometrix, Inc. Interactive try-on platform for eyeglasses
US9058765B1 (en) * 2008-03-17 2015-06-16 Taaz, Inc. System and method for creating and sharing personalized virtual makeovers
US10872535B2 (en) * 2009-07-24 2020-12-22 Tutor Group Limited Facilitating facial recognition, augmented reality, and virtual reality in online teaching groups
WO2012139276A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Avatar facial expression techniques
US20130145272A1 (en) * 2011-11-18 2013-06-06 The New York Times Company System and method for providing an interactive data-bearing mirror interface
EP2936439B1 (en) * 2012-12-18 2019-02-20 Eyesmatch Ltd Method of capturing and displaying appearances
CN104598445B (zh) * 2013-11-01 2019-05-10 腾讯科技(深圳)有限公司 自动问答系统和方法
CN105744854B (zh) * 2013-11-06 2020-07-03 皇家飞利浦有限公司 用于在剃刮过程中引导用户的系统和方法
US9240077B1 (en) * 2014-03-19 2016-01-19 A9.Com, Inc. Real-time visual effects for a live camera view
US9760935B2 (en) * 2014-05-20 2017-09-12 Modiface Inc. Method, system and computer program product for generating recommendations for products and treatments
US9881303B2 (en) * 2014-06-05 2018-01-30 Paypal, Inc. Systems and methods for implementing automatic payer authentication
WO2016045010A1 (en) * 2014-09-24 2016-03-31 Intel Corporation Facial gesture driven animation communication system
CN105512599A (zh) * 2014-09-26 2016-04-20 数伦计算机技术(上海)有限公司 人脸识别方法及人脸识别系统
CN104223858B (zh) * 2014-09-28 2016-04-13 广州视睿电子科技有限公司 一种自识别智能镜子
CN104834849B (zh) * 2015-04-14 2018-09-18 北京远鉴科技有限公司 基于声纹识别和人脸识别的双因素身份认证方法及系统
KR101613038B1 (ko) * 2015-06-01 2016-04-15 김형민 맞춤형 광고를 표출하는 스마트 미러 시스템
US20160357578A1 (en) * 2015-06-03 2016-12-08 Samsung Electronics Co., Ltd. Method and device for providing makeup mirror
CN106412458A (zh) * 2015-07-31 2017-02-15 中兴通讯股份有限公司 一种图像处理方法和装置
CN105095917B (zh) * 2015-08-31 2019-08-06 小米科技有限责任公司 图像处理方法、装置及终端
CN105426730A (zh) * 2015-12-28 2016-03-23 小米科技有限责任公司 登录验证处理方法、装置及终端设备
US11741639B2 (en) * 2016-03-02 2023-08-29 Holition Limited Locating and augmenting object features in images
CN105956576A (zh) * 2016-05-18 2016-09-21 广东欧珀移动通信有限公司 一种图像美颜方法、装置及移动终端
CN106161962B (zh) * 2016-08-29 2018-06-29 广东欧珀移动通信有限公司 一种图像处理方法及终端
US20180137663A1 (en) * 2016-11-11 2018-05-17 Joshua Rodriguez System and method of augmenting images of a user
CN106682578B (zh) * 2016-11-21 2020-05-05 北京交通大学 基于眨眼检测的弱光人脸识别方法
CN106773852A (zh) * 2016-12-19 2017-05-31 北京小米移动软件有限公司 智能镜子及其工作控制方法、装置
CN107340856A (zh) * 2017-06-12 2017-11-10 美的集团股份有限公司 控制方法、控制器、智能镜子和计算机可读存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234571A (ja) * 2003-01-31 2004-08-19 Sony Corp 画像処理装置、画像処理方法及び撮影装置
JP2007122454A (ja) * 2005-10-28 2007-05-17 Konica Minolta Holdings Inc 認証システム、登録システム及びプログラム
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2013535051A (ja) * 2010-06-09 2013-09-09 マイクロソフト コーポレーション 顔の表情のリアルタイムアニメーション
JP2016532197A (ja) * 2013-08-04 2016-10-13 アイズマッチ エルティーディー.EyesMatch Ltd. 鏡における仮想化の装置、システム、及び方法
JP2016537716A (ja) * 2013-08-22 2016-12-01 ビスポーク, インコーポレイテッド カスタム製品を創作するための方法及びシステム
JP2015111372A (ja) * 2013-12-06 2015-06-18 株式会社日立システムズ ヘアスタイル決定支援システムとヘアスタイル決定支援装置
JP2015204033A (ja) * 2014-04-15 2015-11-16 株式会社東芝 健康情報サービスシステム
JP2016028463A (ja) * 2014-07-10 2016-02-25 フリュー株式会社 写真シール作成装置および表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7560208B2 (ja) 2020-09-17 2024-10-02 北京字節跳動網絡技術有限公司 顔画像表示方法、装置、電子機器及び記憶媒体

Also Published As

Publication number Publication date
EP3462284A4 (en) 2019-07-17
KR20190022856A (ko) 2019-03-06
US20190130652A1 (en) 2019-05-02
EP3462284A1 (en) 2019-04-03
CN107820591A (zh) 2018-03-20
WO2018227349A1 (zh) 2018-12-20

Similar Documents

Publication Publication Date Title
JP2019537758A (ja) 制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体
KR102241153B1 (ko) 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
US20230244306A1 (en) Technique for controlling virtual image generation system using emotional states of user
US9734628B2 (en) Techniques for processing reconstructed three-dimensional image data
CN107154069B (zh) 一种基于虚拟角色的数据处理方法及系统
US20160134840A1 (en) Avatar-Mediated Telepresence Systems with Enhanced Filtering
JP5785254B2 (ja) 顔の表情のリアルタイムアニメーション
CN106648071A (zh) 虚拟现实社交实现系统
CN111968248B (zh) 基于虚拟形象的智能化妆方法、装置、电子设备及存储介质
US9202312B1 (en) Hair simulation method
KR20210118149A (ko) 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체
CN107679519A (zh) 一种基于虚拟人的多模态交互处理方法及系统
CN108932654A (zh) 一种虚拟试妆指导方法及装置
CN116744820A (zh) 数字彩妆师
KR20220139781A (ko) 영상 생성 방법 및 장치
Danieau et al. Automatic generation and stylization of 3d facial rigs
KR20230118191A (ko) 디지털 메이크업 아티스트
Pauly Realtime performance-based facial avatars for immersive gameplay
CN115999156B (zh) 角色控制方法、装置、设备及存储介质
CN117726725A (zh) 一种3d宠物角色生成控制方法及相关设备
Pejsa Effective directed gaze for character animation
CN118536616A (zh) 具有用于合成图像生成的图像编码器的机器学习扩散模型
CN117994395A (zh) 数字人面部资产生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210126