JP6460237B2 - コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラム - Google Patents

コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラム Download PDF

Info

Publication number
JP6460237B2
JP6460237B2 JP2017527662A JP2017527662A JP6460237B2 JP 6460237 B2 JP6460237 B2 JP 6460237B2 JP 2017527662 A JP2017527662 A JP 2017527662A JP 2017527662 A JP2017527662 A JP 2017527662A JP 6460237 B2 JP6460237 B2 JP 6460237B2
Authority
JP
Japan
Prior art keywords
contact lens
image
circle
transparency
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017527662A
Other languages
English (en)
Other versions
JP2018502318A (ja
Inventor
コン キム,キ
コン キム,キ
キュ リ,クワン
キュ リ,クワン
ハン キム,イル
ハン キム,イル
ソン チョン,ヨン
ソン チョン,ヨン
Original Assignee
ビューエムテクノロジー カンパニー リミテッド
ビューエムテクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビューエムテクノロジー カンパニー リミテッド, ビューエムテクノロジー カンパニー リミテッド filed Critical ビューエムテクノロジー カンパニー リミテッド
Publication of JP2018502318A publication Critical patent/JP2018502318A/ja
Application granted granted Critical
Publication of JP6460237B2 publication Critical patent/JP6460237B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/04Contact lenses for the eyes
    • G02C7/046Contact lenses having an iris pattern
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/04Contact lenses for the eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Description

本発明は、コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムに係り、さらに詳しくは、コンタクトレンズを着用しなくても、直接撮影されたコンタクトレンズのイメージと顔イメージとを、コンタクトレンズ及び目の形状認識を介して合成することにより、コンタクトレンズの着用後の姿を把握できるようにする、コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムに関する。
コンタクトレンズ(contact lens)が汎用されている。コンタクトレンズは、視力矯正用として用いられることはもとより、美容目的で広く利用されている。美容目的のコンタクトレンズとしては、サークルレンズやカラーコンタクトレンズなどが挙げられる。サークルレンズやカラーレンズは、レンズ周縁部に色があるか、レンズ内に色が存在する。これらのサークルレンズやカラーコンタクトレンズは、視力矯正用の目的ではなくても外見に敏感な10代から20代の若者の間で広く着用されている。
美容レンズを含むすべてのコンタクトレンズは、眼科医を通らない場合、安全性が担保されず、レンズの副作用の危険性が高い。特に10代の若者の眼球が成長過程にあり、レンズの副作用で視力低下も発生するため、より一層注意する必要がある。
コンタクトレンズを購入した場合、購入者自分に似合うレンズを選択する必要がある。一般に、コンタクトレンズを選択するために拡大鏡または肉眼でコンタクトレンズの形状を確認せざるを得ない。サービスの一部としてコンタクトレンズを着用することが許されるとしても、コンタクトレンズを入れるとき、コンタクトレンズの接触のために手の衛生をしっかりと行い、一方の手の指先にレンズを置き、他方の手の指で目の中央部で目を広げ、鏡を注視しながらレンズを着用しなければならないという面倒がある。さらに、一回着用したコンタクトレンズは、衛生上及びその他の理由により再利用不可能である。
このようにコンタクトレンズを購入するとき、購入者自分に似合うコンタクトレンズを見つけるのは容易ではない。
一方、特定のアプリストアのアプリプログラムは、かかる不便さを解消するための機能を提供する。当該アプリは、ソフトウェア的に自分の顔イメージに予め構成されたレンズのイメージを結合することができ、その結合に応じて着用後のスタイル(外見)を把握できるようにする。
しかしながら、アプリプログラムでは、予めチューニングされたレンズのイメージに対してのみ顔の合成が可能であり、レンズのイメージの画質が劣化し、実レンズのイメージとチューニングされたレンズのイメージが異なる場合が多く、レンズイメージの追加が容易ではない。
このようにコンタクトレンズを着用しなくても、撮影されたコンタクトレンズの動的なイメージと顔認識を介した顔イメージとを合成することにより、コンタクトレンズの着用後の姿を把握できるようにする、コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムが必要である。
韓国公開特許第10−2013−0103153号 韓国公開特許第10−2010−0050052号 韓国公開特許第10−2013−0103216号 韓国公開特許第10−2014−0119981号
本発明は、上述した問題を解決するために案出されたものであり、コンタクトレンズの撮影、顔イメージ撮影及び二つのイメージの動的な合成により、任意のコンタクトレンズの着用後の姿を仮想的に把握できるようにする、コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムを提供することを目的とする。
また、本発明は、顔イメージから認識される目領域に合わせてコンタクトレンズのサイズを調整し、コンタクトレンズのイメージ及び目の領域の形状に応じてコンタクトレンズのイメージに透明度を付与することにより、着用後の自然な姿を提供できるようにする、コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムを提供することを他の目的とする。
また、本発明は、直接着用したときに発生する目の疾患の問題を予防し、着用後に廃棄されるコンタクトレンズのために発生するコストを削減できるようにする、コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムを提供することをまた他の目的とする。
本発明が解決しようとする技術的課題は、以上で言及した技術的課題に制限されるものではなく、言及していない他の技術的課題は、下記の記載から、本発明が属する技術分野における通常の知識を有する者により明確に理解されるであろう。
上記目的を達成するためのコンタクトレンズの仮想試着方法は、暗室を形成する構造体の第2の光学レンズを介してコンタクトレンズホルダーに搭載されたコンタクトレンズのイメージをキャプチャするステップと、キャプチャされたコンタクトレンズのイメージからコンタクトレンズの領域を識別するステップと、コンタクトレンズホルダーの色相又はコンタクトレンズケースの色相に基づいてコンタクトレンズ領域に対応する画素に透明度を付与するステップと、第2の光学レンズを介して生成されたコンタクトレンズのイメージを、識別された目領域の瞳に、コンタクトレンズのイメージに付与された透明度に基づいて合成するステップと、合成されたイメージを表示するステップと、を含む。
また、コンタクトレンズの仮想試着方法は、合成ステップの以前に、第1の光学レンズを介して顔イメージをキャプチャするステップと、キャプチャされた顔イメージから目領域を識別するステップと、をさらに含み、コンタクトレンズのイメージをキャプチャするステップは、暗室における均一な照度分布を得るために、暗室に配備された複数のLED照明からの光を出力し、暗室に配備された拡散板を介して光を拡散させた状態で行われる。
また、コンタクトレンズの仮想試着方法において、コンタクトレンズの領域を識別するステップは、キャプチャされたイメージから1つ以上の輪郭線を識別するステップと、1つ以上の輪郭線のそれぞれのポイントの偏差に基づいて円形を識別するステップと、識別された円形のうち最も大きな円形をコンタクトレンズの形状に対応する円形として決定するステップと、決定された円形を含むコンタクトレンズのイメージを生成するステップと、を含み、透明度を付与するステップは、決定された、コンタクトレンズに対応する円形内の画素に色に応じて透明度を付与し、円形外の画素に所定のしきい値以上の透明度を付与する。
また、コンタクトレンズの仮想試着方法において、目領域を識別するステップは、瞳と瞳に隣接する皮膚との間の境界線上に位置する複数のポイント(point)を決定するステップを含む。
また、コンタクトレンズの仮想試着方法において、合成するステップは、複数のポイントを用いて瞳に対応する円形を決定するステップと、生成されたコンタクトレンズのイメージを、複数のポイントで決定される円形のサイズを用いて縮小させるステップと、複数のポイントのうち、第1のポイントで決定される第1の円形及び第2のポイントで決定さる第2の円形を用いて、縮小したコンタクトレンズのイメージ内において識別された領域の画素に透明度をさらに付与するステップと、を含む。
また、コンタクトレンズの仮想試着方法において、識別された領域の画素を透明に設定し、合成するステップは、識別された領域に透明度を付与するステップの後に、瞳に対応する中心に縮小したコンタクトレンズの円形の中心を一致させた後、画素別にオーバーラップして合成する。
また、上記のような目的を達成するためのコンピュータプログラムは、コンタクトレンズの仮想試着方法の各ステップを実行させ、コンタクトレンズの仮想試着方法は、暗室を形成する構造体内の第2の光学レンズを介してコンタクトレンズホルダーに搭載されたコンタクトレンズのイメージをキャプチャするステップと、キャプチャされたコンタクトレンズのイメージからコンタクトレンズの領域を識別するステップと、コンタクトレンズホルダーの色相又はコンタクトレンズケースの色相に基づいてコンタクトレンズ領域に対応する画素に透明度を付与するステップと、 第2の光学レンズを介して生成されたコンタクトレンズのイメージを、識別された目領域の瞳に、コンタクトレンズのイメージに付与された透明度に基づいて合成するステップと、合成されたイメージを表示するステップと、を含む。
また、上記のような目的を達成するためのコンタクトレンズの仮想試着装置は、第1の光学レンズを備えて顔イメージをキャプチャする第1のカメラ部と、第2の光学レンズ及びコンタクトレンズホルダーを備える第2のカメラ部であり、暗室を形成する構造体内に構成され、第2の光学レンズを介してコンタクトレンズホルダーに搭載されたコンタクトレンズのイメージをキャプチャする第2のカメラ部と、キャプチャされたコンタクトレンズのイメージからコンタクトレンズの領域を識別し、コンタクトレンズホルダーの色又はコンタクトレンズケースの色に基づいてコンタクトレンズ領域に対応する画素に透明度を付与し、キャプチャされた顔イメージから目領域を識別し、第2の光学レンズを介して生成されたコンタクトレンズのイメージを、識別された目領域の瞳に、コンタクトレンズのイメージに付与された透明度に基づいて合成する制御部と、合成されたイメージを表示する表示部と、を備える。
また、コンタクトレンズの仮想試着装置において、第2のカメラ部は、光をそれぞれ出力する複数のLED照明と、光を拡散するための拡散板と、をさらに含み、制御部は、複数のLED照明及び拡散板を用いた光の照度環境下で第2光学レンズを介してコンタクトレンズのイメージをキャプチャする。
また、コンタクトレンズの領域を識別するために、コンタクトレンズの仮想試着装置の制御部は、キャプチャされたコンタクトレンズのイメージから1つ以上の輪郭線を識別し、1つ以上の輪郭線のそれぞれのポイントの偏差に基づいて円形を識別し、識別された円形のうち最も大きな円をコンタクトレンズの形状に対応する円形として決定し、決定された円形を含むコンタクトレンズのイメージを生成し、制御部は、透明度付与のために、決定された、コンタクトレンズに対応する円形内の画素に色に応じて透明度を付与し、円形外の画素に所定のしきい値以上の透明度を付与する。
また、目領域を識別するために、コンタクトレンズの仮想試着装置の制御部は、瞳と瞳に隣接する皮膚との間の境界線上に位置する複数のポイント(point)を決定し、イメージを合成するために、制御部は、複数のポイントを用いて瞳に対応する円形を決定し、生成されたコンタクトレンズのイメージを、複数のポイントで決定される円形のサイズを用いて縮小させ、複数のポイントのうち、第1のポイントで決定される第1の円形及び第2のポイントで決定される第2の円形を用いて、縮小したコンタクトレンズのイメージ内で識別された領域の画素に透明度を付与する。
また、コンタクトレンズの仮想試着装置は、コンタクトレンズのイメージ及び対応するコンタクトレンズの識別子を保存する保存部と、コンタクトレンズの識別子を受信する入力部と、をさらに含み、制御部は、入力部を介して受信されたコンタクトレンズの識別子を用いて保存部に保存されたコンタクトレンズのイメージを検索し、イメージの合成のために保存部で検出されたコンタクトレンズイメージのコンタクトレンズ領域を目領域の瞳に合成する。
上記のような本発明に係るコンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムによれば、コンタクトレンズの撮影、顔イメージ撮影及び二つのイメージの動的な合成により、 任意のコンタクトレンズの着用後の姿を仮想的に把握できるようにするという効果がある。
また、上記のような本発明に係るコンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムによれば、顔イメージから認識される目領域に合わせてコンタクトレンズのサイズを調整し、コンタクトレンズのイメージ及び目領域の形状に応じてコンタクトレンズのイメージに透明度を付与することにより、着用後の自然な姿を提供できるようにするという効果がある。
また、上記のような本発明に係るコンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラムによれば、直接着用したときに発生する目の疾患の問題を予防し、着用後に廃棄されるコンタクトレンズのために発生するコストを削減できるようにするという効果がある。
本発明で得られる効果は、以上で言及した効果に制限されるものではなく、言及していない他の効果は、下記の記載から、本発明が属する技術分野における通常の知識を有する者により明確に理解されるであろう。
コンタクトレンズの仮想試着装置の例示的なブロック図を示す図である。 コンタクトレンズの仮想試着のための例示的な概略的な流れを示す図である。 コンタクトレンズの認識過程の具体的な流れを示す図である。 目の認識過程の具体的な流れを示す図である。 合成過程の具体的な流れを示す図である。 キャプチャされたコンタクトレンズのイメージを示す図である。 目領域が表示された顔イメージのうち目領域部分を示す図である。 コンタクトレンズのイメージと顔イメージとを合成する過程において決定される円形を示す図である。 決定された円形を用いて追加的な透明度を付与するための領域識別例を示す図である。 第2のカメラ部の構成の例を示す図である。
上述した目的、特徴及び長所は、添付された図面に関する、以下の詳細な説明により明確になるはずであり、それにより、本発明の属する技術分野における通常の知識を有する者が本発明の技術的思想を容易に実施することができる。また、本発明を説明するにあたり、本発明に関連する公知技術についての具体的な説明が、本発明の要旨を不明にする可能性があると判断された場合、その詳細な説明を省略することにする。以下、添付された図面を参照して本発明の好ましい実施形態をより詳細に説明する。
図1は、コンタクトレンズの仮想試着装置100の例示的なブロック図を示す図である。
図1によれば、コンタクトレンズの仮想試着装置100は、入力部101、出力部103、通信部105、保存部107、第1のカメラ部109、第2のカメラ部111、表示部113、接続部115及び制御部117を備える。コンタクトレンズの仮想試着装置100は、機能の追加に応じて特定の他のブロックをさらに備えてもよい。または、図1の特定のブロックを省略してもよい。図1のブロックは、好ましくは、機能ブロック図を示す。
コンタクトレンズの仮想試着装置100は、1つの構造体(case)内に構成されてもよく、複数の構造体に分散して構成されてもよい。例えば、表示部113を1つの表示装置として構成し、第2のカメラ部111を暗室を有する別途の構造体内に構成し、他のブロックをパーソナルコンピュータや専用製品として構成してもよい。または、あらゆるブロックを1つの専用製品として構成してもよい。このようにコンタクトレンズの仮想試着装置100を構成する製品は、1つ又は複数の製品として構成されていてもよい。
コンタクトレンズの仮想試着装置100の各ブロックを簡単に説明すると、入力部101は、ユーザーの入力を受信する。入力部101は、マウス、ボタン、タッチパッド、タッチパネル、キーパッド、キーボード、マイク、光学ペンなどの1つ以上の入力手段を備えている。 コンタクトレンズの仮想試着装置100の管理者又はユーザーは、入力部101を介して、コンタクトレンズの仮想試着装置100が提供する機能を呼び出し、終了、または機能の実行による結果の確認を行うことができる。例えば、入力部101は、顔イメージとコンタクトレンズのイメージとの合成を要請するユーザーの入力を受信し、このユーザーの入力を制御部117に伝達する。
出力部103は、ユーザーの入力に応答して処理された結果又はコンタクトレンズの仮想試着装置100の特定の機能を実行することにより処理された結果を出力する。出力部103は、プリンタインタフェース、スピーカー、LEDなどの1つ以上の出力手段を備える。
通信部105は、ネットワークに接続されてデータを送受信する。通信部105は、例えば、近距離通信網に接続される通信チップセットを備え、制御部117から受信したデータをネットワークパケットに送信し、ネットワークから受信されたネットワークパケットのデータを制御部117に送信する。近距離通信ネットワークは、例えば、有線LAN、無線LAN、ブルートゥース、ジグビーなどであってもよい。
コンタクトレンズ仮想フィッティング装置100は、通信部105を介して、保存部107に保存されている各種イメージ、各種データ、及び/又は各種プログラムを遠隔装置に送信し、遠隔装置からイメージ、データ、プログラムなどを受信することができる。遠隔装置は、例えば、インターネット網を介して接続可能なサーバーであってもよく、移動通信網を介して接続可能な携帯型端末であってもよい。携帯型端末は、例えば、スマートフォン、タブレットPC等であってもよい。
保存部107は、各種のデータやプログラムを永久及び/又は臨時に保存する。保存部107は、揮発性メモリ、不揮発性メモリ及び/又はハードディスクなどの大容量の記憶媒体を含む。保存部107は、コンタクトレンズの仮想試着装置100が使用する各種プログラム、キャプチャされた顔イメージ、キャプチャされたコンタクトレンズイメージ、コンタクトレンズイメージに合成された顔イメージを含む。
それぞれのイメージは、識別子と共に保存される。例えば、顔イメージは、コンタクトレンズ111−5の購入した又は購入する意向を有する一般ユーザーの識別子と共に保存される。一般ユーザーの識別子は、例えば、名前、電話番号、住所、固有の通し番号(例えば、コンタクトレンズの仮想試着装置100の管理者によって割り当てられた番号)などのうち1つ以上の組み合わせにより構成される。コンタクトレンズのイメージは、対応するコンタクトレンズ111−5の識別子と共に保存されるが、コンタクトレンズ111−5の識別子は、製造社、モデル名やモデル番号などのうち1つ以上の組み合わせにより構成される。合成された顔イメージは、一般ユーザーの識別子及びコンタクトレンズ111−5の識別子と共に保存される。これにより、ユーザーは、複数のコンタクトレンズ111−5を着用したように見える合成イメージを確認することができる。
保存部107には、また、合成プログラムを保存する。合成プログラムでは、イメージをキャプチャし、キャプチャされたイメージを保存部107に保存することができる。また、合成プログラムでは、イメージを合成して表示したり、保存したりすることができる。合成プログラムは、好ましくは、コンタクトレンズのイメージを顔イメージの目領域、具体的に瞳領域に合成できるように構成される。自然なイメージを生成するために、コンタクトレンズのイメージに透明度が付与され、コンタクトレンズのイメージはその透明度に基づいて顔イメージに合成される。
合成プログラムは、図1から導出されるハードウェアに結合されて実行させられるように構成され、媒体に保存されて配布されてもよい。媒体としては、例えば、オンライン媒体又はオフライン媒体が挙げられる。オンライン媒体としては、例えば、アプリなどを配布するサーバーなどが挙げられ、オフライン媒体としては、例えば、USBメモリ、メモリカード、ハードディスク、CD、DVD等が挙げられる。合成プログラムで行われる具体的なイメージキャプチャ及び合成については、図2以下で説明する。
第1のカメラ部109は、光学レンズ及びイメージセンサーを備える。第1のカメラ部109は、制御部117の制御に基づいて、通常のユーザーの顔を含むイメージをキャプチャする。第1のカメラ部109は、キャプチャされた顔イメージをアナログ又はデジタル信号として制御117に出力する。
第2のカメラ部111は、光学レンズ111−4及びイメージセンサーを備える。第2のカメラ部111は、制御部117の制御によりコンタクトレンズ111−5のイメージをキャプチャする。第2のカメラ部111は、好ましくは、照明111−1(例えば、LED照明111−1)、コンタクトレンズ111−5を固定し、光学レンズ111−4の撮像領域として指定されたコンタクトレンズホルダー111−3をさらに備える。少なくとも照明及びコンタクトレンズホルダー111−3は、第2のカメラ部111を構成する構造体内に設けられ、この構造体は、少なくとも暗室機能を提供する。コンタクトレンズホルダー111−3、特にコンタクトレンズ111−5を位置決めするための特定の領域は、特定の色で表示される。すなわち、コンタクトレンズホルダー111−3のコンタクトレンズ111−5を位置決めするための特定の領域は、キャプチャする際に1つの同一の色として認識される。
例えば、特定の領域は、白色でキャプチャすることができる。その後、この色は背景色として認識され、背景色を認識することによりコンタクトレンズのイメージに透明度を付与することができる。コンタクトレンズホルダー111−3には、背景色として指定されたインクや塗料が塗られているか、塗布されている。背景色は、白色に限定されず、他の色であってもよい。例えば、赤(R)、緑(G)、青(B)等であってもよい。背景色は、特定のコンタクトレンズ111−5のパターンの色に基づいて選択され、好ましくは、管理者によって選択される。例えば、コンタクトレンズ111−5のパターンが青であれば、青以外の色が背景色として選択される。以下の説明では、説明を分かりやすくするために、背景色を白色と仮定し、他の色については説明上必要な場合にのみ説明する。
コンタクトレンズホルダー111−3は、入力部101の特定のボタンと連動して暗室の外部にスライド方式で露出し、同一のボタンの入力により、暗室の内部にスライド方式で挿入される。
図10は、第2のカメラ部111の構成の例を示す図である。
図10に示すように、第2のカメラ部111は、1つ以上のLED照明111−1、1つ以上の拡散板111−2(diffusion plate)、コンタクトレンズホルダー111−3及び光学レンズ111−4を備える。また、第2のカメラ部は、コンタクトレンズホルダー111−3に搭載された1つ以上のコンタクトレンズ111−5をさらに備えることができる。
図10に基づいて第2のカメラ部111をさらに詳しく説明すると、コンタクトレンズホルダー111−3は、1つ以上のコンタクトレンズ111−5を搭載できるように構成される。各コンタクトレンズ111−5が搭載される位置の領域には、特定の背景色としてインクや塗料などが塗布されている。コンタクトレンズホルダー111−3は、回転可能に構成され、光学レンズ111−4は、回転により選択される特定のコンタクトレンズ111−5を撮影できるように構成される。コンタクトレンズホルダー111−3は、スライド方式により外部に露出できる。コンタクトレンズホルダー111−3が複数のコンタクトレンズ111−5を搭載できる場合、各コンタクトレンズ111−5が搭載されるコンタクトレンズホルダー111−3の領域の色は、互いに異なることことができる。例えば、1つの領域は白色であり、他の領域は青色であり、また他の領域は緑色であり、さらにまた他の領域は赤色で構成される。
図10の第2のカメラ部111は、暗室を形成し、暗室内で照明を提供するための複数のLED照明111−1を備える。LED照明111−1は、所定の照度を出力できるように構成される。LED照明111−1は、例えば、多数レベルの照度の白色光を出力し、照度レベルの制御は、制御部117によって行われる。特定のコンタクトレンズ111−5の色に応じてこの照度を異ならせることができる。LED照明111−1を介して出力された光は、拡散板111−2を介して拡散され、様々な角度から提供されるLED照明111−1によって均一な照度を暗室内に提供することができる。
コンタクトレンズ111−5は、コンタクトレンズホルダー111−3に搭載される。コンタクトレンズ111−5は、好ましくは、コンタクトレンズのケース内に搭載され、コンタクトレンズケースがコンタクトレンズホルダー111−3に搭載される。コンタクトレンズケースは、その内部にコンタクトレンズ111−5を収納するための下部ケースで構成されるか、上部ケースをさらに備えて構成される。下部ケースは、透明になっているか、背景色で塗られている。万が一、下部ケースが背景色のインクや塗料で塗布されている場合は、コンタクトレンズホルダー111−3の背景色の設定を省略することができる。上部ケースは透明にする。
コンタクトレンズケースは、上部ケースを備えなくてもよいが、この場合、管理者は、ピンセット等を用いてコンタクトレンズケースにコンタクトレンズ111−5を搭載し、必要に応じてコンタクトレンズ111−5を交換してもよい。上部ケースを備える場合、コンタクトレンズ111−5を含むコンタクトレンズケース自体をコンタクトレンズホルダー111−3に搭載するか、交換することができる。
表示部113は、制御部117によって生成されたイメージを表示する。表示部113は、LCDやLED表示装置であってもよい。このディスプレイは、コンピュータモニタ、専用モニター、又は製造社が製造し配布する一般的なテレビであってもよい。表示部113は、制御部117が出力するイメージを表示し、例えば、顔イメージにコンタクトレンズのイメージが合成されたイメージを表示する。
接続部115は、各ブロック間でデータの送受信を行う。接続部115は、パラレルバス又はシリアルバスを含む。また、接続部115は、特定のブロックのインターフェースタイプに応じて専用バスをさらに含む。例えば、第1のカメラ部109及び第2のカメラ部111から制御部117に送信されるデータは、イメージセンサーのチップセットによって提供されるバス、又は制御部117によってイメージを受信するために提供されるバスを介して送信される。制御部117から表示部113に送信されるデータは、表示部113が提供するバス、又は制御部117がイメージを出力するために提供するバスを介して送信される。
制御部117は、図1の各ブロックを制御する。制御部117は、CPU、MPU、プロセッサなどで呼ばれる実行ユニットを備え、保存部107に保存されたプログラムを内部メモリやレジスタにロードして他のブロックを制御する。例えば、制御部117は、保存部107に保存された合成プログラムをロードし、合成プログラムを行うことにより、入力部101、表示部113、保存部107、第1のカメラ部109、第2のカメラ部111などを制御する。
制御部117は、第1のカメラ部109及び/又は第2のカメラ部111を制御してイメージをキャプチャし、キャプチャされたイメージを保存部107に保存する。制御部117は、キャプチャされたコンタクトレンズのイメージを、キャプチャされた顔イメージに合成し、合成されたイメージを表示部113に出力する。また、制御部117は、キャプチャされたイメージ及び/又は合成された顔イメージを保存部107に保存し、必要に応じて通信部105を介して遠隔装置に送信することができる。
制御部117で行われる具体的な制御の流れは、図2以下で説明する。
図2は、コンタクトレンズの仮想試着のための例示的な概略的な流れを示す図である。
図2の概略的な流れは、コンタクトレンズの認識過程(S1)、目の認識過程(S2)、合成過程(S3)及び出力過程(S4)で構成される。図2の概略的な流れは、コンタクトレンズの仮想試着装置100によって行われ、好ましくは、制御部117が保存部107に保存された合成プログラムをロードしてこの合成プログラムを行い、合成プログラムに基づいて他のブロックを制御して行われる。
各過程を簡単に説明すると、コンタクトレンズの認識過程(S1)は、コンタクトレンズホルダー111−3のイメージを光学レンズ111−4を用いて撮影し(するか)、撮影によりキャプチャされたイメージからコンタクトレンズ111−5の形状を認識し、その後、コンタクトレンズ111−5の認識によりキャプチャされたイメージを処理する過程である。コンタクトレンズの認識過程で撮影されたイメージからコンタクトレンズ111−5のイメージを抽出又は生成し、その後、コンタクトレンズのイメージに画素単位の透明度を付与することができる。コンタクトレンズの認識過程は、図3に基づいて具体的に説明する。
目の認識過程(S2)は、一般ユーザーの顔を光学レンズを用いて撮影し(するか)、撮影によりキャプチャされた顔イメージから顔の目領域を認識する過程である。目の認識過程(S2)は、特に目領域の瞳領域を認識するできるように構成される。瞳領域は、その後コンタクトレンズのイメージが合成されるための領域となる。目の認識過程(S2)は、図4に基づいて具体的に説明する。
合成過程(S3)は、コンタクトレンズのイメージと顔イメージとを合成する過程である。合成過程は、特に顔イメージの瞳領域に予め透明度が付与されたコンタクトレンズのイメージを透明度に基づいて合成する。合成過程(S3)は、様々な形状の瞳を考慮してコンタクトレンズのイメージのサイズを調整し、さらにコンタクトレンズのイメージに新規の透明度をさらに付与して合成を行うことができる。合成過程(S3)については図5に基づいて具体的に説明する。
出力過程(S4)は、合成されたイメージを出力する過程である。出力過程(S4)は、表示部113を介して合成イメージを出力するか、通信部105を介して合成イメージを出力する。
図2の各過程は、順次実行する必要はない。例えば、コンタクトレンズの認識過程(S1)及び目の認識過程(S2)との間に前後関係が存在する必要がない。コンタクトレンズの認識過程(S1)を行った後に目の認識過程(S2)を行ってもよく、又はその逆を行ってもよい。
また、特定の過程は、他の時点で行われてもよい。例えば、コンタクトレンズの認識過程(S1)は、コンタクトレンズ111−5モデル別に管理者によって最初に行われ、コンタクトレンズイメージ及び対応するコンタクトレンズの識別子を保存部107に予め保存しておく。その後、 制御部117は、一般ユーザーの要求に応じて、入力部101を介して管理者が入力したコンタクトレンズの識別子を受信し、受信した識別子を用いて保存部107に保存されているコンタクトレンズイメージ及びデータを検索する。制御部117は、検索されたコンタクトレンズイメージのコンタクトレンズの領域を、撮影によりキャプチャされた顔イメージの識別された目領域の瞳に合成し(S3)、その後、出力する(S4)。
図3は、コンタクトレンズの認識過程(S1)の具体的な流れを示す図である。
図3のコンタクトレンズの認識過程は、図1のブロックによって行われ、好ましくは、制御部117が合成プログラムを用いて他のブロックを制御することにより行われる。
この流れは、コンタクトレンズの仮想試着装置100の管理者が、入力部101を介してコンタクトレンズ111−5の認識を要請することにより開始し(S100)、この流れの実行が完了するか、入力部101を介して終了要求を受信することにより終了する(S150)。
管理者は、ユーザーが仮想試着を要請したコンタクトレンズ111−5をコンタクトレンズホルダー111−3に搭載し(S101)、コンタクトレンズホルダー111−3をスライド方式で暗室内に位置させる。コンタクトレンズ111−5は、好ましくは、コンタクトレンズのケース内に収容されてコンタクトレンズホルダー111−3に搭載される。
管理者は、入力部101を介して撮影ボタンを押すと、制御部117は、撮影ボタンに応じて第2のカメラ部111を制御するための制御信号を生成し、第2のカメラ部111に制御信号を出力する。制御信号を受信した第2のカメラ部111は、LED照明111−1を制御して照明を出力し、光学レンズ111−4を介して、コンタクトレンズホルダー111−3に搭載されたコンタクトレンズ111−5を含むイメージを撮影し、撮影に応じてイメージセンサーに露出したイメージをキャプチャする(S103)。キャプチャされたイメージは、第2のカメラ部111によって制御部117に送信する。
キャプチャされたイメージは、第2のカメラ部111の解像度に応じて横軸(X軸)方向と縦軸(Y軸)方向の所定数の画素から構成され、コンタクトレンズ111−5の形状を示すイメージを含む。画素は、好ましくは、カラー色で表現され、例えば、RGB画素値、YCbCr画素値、またはその他の色を表現するためのフォーマットで表現される。
制御部117は、キャプチャされたイメージからコンタクトレンズ形状を示すコンタクトレンズの領域を識別する(S105)。コンタクトレンズの領域の識別は、輪郭線(contour)の識別により行われる。輪郭線の識別では、イメージ処理の分野で一般的に知られているアルゴリズムを用いることができる。輪郭線は周縁を構成するポイントで表現される。
図6は、キャプチャされたコンタクトレンズ111−5のイメージを示す。図6のコンタクトレンズ111−5は、カラーコンタクトレンズ、又はサークルレンズである。図6に示すように、コンタクトレンズ111−5のキャプチャれたイメージは、複数の輪郭線を有いており、最外側の円形輪郭線はコンタクトレンズ111−5の形状を示し、その他の輪郭線はコンタクトレンズ111−5の内部のパターン等を示すことがわかる。
コンタクトレンズの領域の識別について具体的に説明すると、制御部117は、キャプチャされたイメージに対して輪郭線(contour)を識別する。コンタクトレンズ111−5には多数のパターンが存在するので、多数の輪郭線が存在する。制御部117は、識別された輪郭線を、輪郭線内に含まれているポイントの数で降順ソートし、所定数以下の輪郭線は、コンタクトレンズの領域の識別のための対象輪郭線から除外する。ソートされたそれぞれの輪郭線のX軸(イメージの水平方向)上の極小点及び極大点、Y軸(イメージの垂直方向)上の極小点及び極大点を制御部117が求める(検索する)。
制御部117は、各輪郭線の4つのポイントを用いて各輪郭線が円形であるか否かを識別する。コンタクトレンズの形状は、一般的に円形(circle)であるため、円の中心点から周縁(リム)上のポイントまでの距離は一定しなければならない。円形の識別のために、制御部117は、検索した4つのポイントを用いて4つのポイントの中心点を計算し、その中心点と各ポイント間の距離の標準偏差を計算する。万が一標準偏差が所定のしきい値以下である場合、制御部117は、当該輪郭線を円形であることを識別することができる。所定のしきい値は、予め決定されていてもよく、例えば、30、20等の値であってもよい。
円形が識別されると、制御部117は、複数の輪郭線に対応する複数の円形を識別可能である。制御部117は、識別された複数の円形のうち最も大きな円形をコンタクトレンズ形状を示す円形として決定してもよい。制御部117は、最大円に対応する輪郭線の中心点を、識別されたコンタクトレンズ111−5の中心として設定し、対応する輪郭線の中心点から周縁上のポイントとの間の距離のうち最大の距離を、識別されたコンタクトレンズ111−5の半径として設定する。
また、制御部117は、コンタクトレンズ領域を識別する過程において、コンタクトレンズの形状を示す円を含むコンタクトレンズのイメージを、キャプチャされたイメージから生成する。生成されたコンタクトレンズのイメージは、例えば、コンタクトレンズ形状の円形を含む正方形又は長方形の形状で切り取られたイメージである。
コンタクトレンズ領域の識別ステップ(S105)の後、ステップ(S107)において、制御部117は、生成されたコンタクトレンズのイメージに透明度を付与する。コンタクトレンズのイメージへの透明度付与は、コンタクトレンズのイメージの各画素の色(具体的には背景色)に基づいて行われる。
具体的には、制御部117は、コンタクトレンズのイメージの画素から背景色を検索し、背景色に対応する画素(コンタクトレンズ形状の円形内の画素)が見えないように(透明に)透明度を付与する。例えば、背景色は、コンタクトレンズホルダー111−3の色又はコンタクトレンズケースの下部ケースの色と同じであってもよく、例えば、白色であってもよい。白色は通常255、255、255の8ビットのRGB値を有するので、制御部117は、白色と認められる画素値(例えば、RGB値のそれぞれが245以上など)である場合には、画素を透明にするために透明度を付与する。
また、制御部117は、コンタクトレンズの形状の円形(半径及び中心により決定される円形)外部の全ての画素を透明にするために、所定のしきい値以上の透明度(例えば、100%の透明度)を付与する。さらに、制御部117は、コンタクトレンズ形状内の画素に対して追加的な透明度を付与してもよい。例えば、制御部117は、コンタクトレンズ形状内の画素のカラー色をグレースケールの色値に変更し、グレースケールの色値に比例した透明度を各画素に付与してもよい。例えば、制御部117は、グレースケールの色値が0(黒)であれば0%の透明度(不透明)を付与し、グレースケールの色値が30(例えば、黄色や青色のグレースケール値)であれば30%の透明度を付与する。
透明度を付与した後、制御部117は、透明度が付与されたコンタクトレンズのイメージを保存部107に保存する(S109)。制御部117は、コンタクトレンズイメージを揮発性メモリに一時的に保存してもよく、又は不揮発性メモリや大容量の保存媒体に永久保存してもよい。コンタクトレンズのイメージは、コンタクトレンズ111−5の中心及び半径を含むデータと共に保存される。また、コンタクトレンズのイメージは、コンタクトレンズの識別子と共に保存されてもよい。コンタクトレンズの識別子は、管理者等によって入力部101を介して入力され、対応するコンタクトレンズのイメージと共に制御117により保存される。
図3のコンタクトレンズ認識過程を通じてコンタクトレンズのイメージを抽出可能であり、抽出されたイメージに透明度を付与し、その後、合成により自然な合成イメージを提供することができる。
図4は、目の認識過程の具体的な流れを示した図である。
図4の目の認識過程は、図1のブロックによって行われ、好ましくは、制御部117が合成プログラムを用いて他のブロックを制御することにより行われる。
まず、コンタクトレンズの仮想試着のためのユーザーの要求に応じて、管理者は、入力部101を介して顔イメージの撮影のための撮影ボタンを押すことにより、制御部117にその要求を伝達する(S200)。ここで用いられる撮影ボタンは、図3における撮影ボタンと同じであっても異なっていてもよい。制御部117は、第1のカメラ部109を制御するための制御信号を生成し、第1のカメラ部109に制御信号を出力する。
第1のカメラ部109は、制御信号を受信すると、光学レンズを介してユーザーの顔を撮影し、撮影に応じてイメージセンサーに露出した顔イメージをキャプチャする(S201)。キャプチャされた顔イメージは、第1のカメラ部109によって制御部117に送信する。キャプチャされた顔イメージは、第1のカメラ部109の解像度に応じて、横軸(X軸)方向及び縦軸(Y軸)方向の所定数の画素から構成される。画素は、好ましくは、カラー色で表現され、例えば、RGB画素値で表現されるか、YCbCr画素値で表現されるか、又はその他の色を表現するためのフォーマットで表現される。
制御部117は、キャプチャされた顔イメージを受信すると、キャプチャされたイメージから目領域を識別する(S203)。目領域の識別は、公知のアルゴリズムを用いて行われる。例えば、制御部117の合成プログラムは、特徴ベクトル(例えば、Haar特徴、LBP特徴)を用いる、顔及び目を検出するカスケード(cascaded)分類器(classifier)を用いて目領域を識別する。
また、制御部17は、目領域を識別する間に瞳領域を識別する。好ましくは、制御部117は、瞳領域を識別するために瞳の輪郭線を識別する。瞳の輪郭線の識別は、イメージ処理分野における公知のアルゴリズムを用いて行うことができる。
輪郭線が識別されると、制御部117は、この輪郭線に含まれているポイント又は輪郭線内に存在するポイントのうち、瞳と隣接する皮膚(例えば、上まぶた、瞳の下部の皮膚(下まぶた))の境界線上に存在し、その後に合成に用いられるポイントを決定する。
例えば、制御部117は、上まぶたと瞳との境界線上から3つのポイントを選択し、瞳と下まぶたの境界線上に3つのポイントを選択する。3つのポイントとしては、上まぶた(又は下まぶた)と瞳が出会う境界線上の両端ポイント及び中間ポイントを選択する。もし瞳と皮膚との間に境界線がない場合は、瞳の周縁(境界線)から3つのポイントを適宜選択する。
その後、制御部117は、目領域を表示した顔イメージを表示部113を介して出力する(S205)。
図7は、目領域が表示された顔イメージにおける目領域の部分を示す図である。図7に示すように、表示部113に表示される顔イメージには、左眼の領域及び右眼の領域を示すための四角形と、瞳領域内に表示されるポイントとが表示される。
ステップ(S203)を通じて決定されたポイントは、ドット(dot)で表示され、これらのポイントは修正可能である。管理者やユーザーは、ポイントが正確な位置に存在するか否かを確認する。万が一隣接する皮膚に対して正確な位置に存在していないと判断した場合、管理者等は、入力部101(例えば、マウス、タッチパネル、光学ペンなど)を解してポイントの位置を変更するための入力を行う。
制御部117は、入力部101を介して目領域の修正(具体的には、瞳と隣接する皮膚との境界線上に存在するポイントの修正)するための入力を受信し(S207)、受信された入力に基づいて当該ポイントの位置を変更し、変更された目領域(具体的には、瞳と隣接する皮膚との境界線上に存在するポイントの変更)を示すイメージを表示部113を介して出力する(S209)。
ステップ(S207)及びステップ(S209)は、繰り返して行われることができ、これにより目領域の境界上のポイントを正確に特定することができる。
ステップ(S209)の後、制御部117は、確定された顔イメージ、顔イメージ上の目領域の位置及び目領域の瞳境界線上のポイントを示すデータを保存部107に保存して終了する(S250)。保存部107に保存するとき、一般ユーザーの識別子をも保存することができる。保存部107に保存することは、揮発性メモリ、不揮発性メモリ又は大容量記憶媒体に保存することである。
図5は、合成過程(S3)の具体的な流れを示す図である。
図5の合成過程は、図1のブロックによって行われ、好ましくは、制御部117が合成プログラムを用いて他のブロックを制御することにより行われる。
管理者による合成要請入力により又は自動的に(S300)、制御部117は、保存部107に保存され、透明度が付与されたコンタクトレンズイメージ、コンタクトレンズ111−5の中心及び半径、顔イメージ、目領域の位置及び境界線上のポイントを示すデータを、揮発性メモリ又は制御117の内蔵メモリなどにロードする(S301)。
制御部117は、境界線上のポイントを用いてコンタクトレンズのイメージを顔イメージの瞳領域に合わせて自動編集する(S303)。ここでの自動編集は、必要に応じて又は設計変更に応じて省略することができる。
その後、制御部117は、顔イメージの境界線上のポイントを用いて瞳を示す円形の中心と半径を計算することにより、瞳に対応する円形を決定する(S305)。瞳に対応する円形の決定は、顔イメージに対して行われる。具体的には、制御部117は、境界線上のポイントのうち、中間ポイントではない、周縁のポイント(例えば、3つ)を用いて円の中心と半径を計算する。瞳に対応する円形の中心は、各ポイントの法線を用いて計算可能であり、半径は、中心から各ポイントまでの距離として計算される。以下、瞳に対応する円形をC0ともいう。
制御部117は、ステップ(S305)において境界線上のポイントを用いて決定された瞳に対応する円形のサイズまでコンタクトレンズのイメージ(具体的には、コンタクトレンズ形状の円形)を縮小させる(S307)。これにより、コンタクトレンズのイメージのサイズは、少なくとも瞳のサイズと同じくなるように再調整する。コンタクトレンズイメージの解像度は、通常、顔イメージに含まれている瞳の解像度よりも高いので、一般的にコンタクトレンズのイメージのサイズは縮小するが、必要に応じてステップ(S307)を省略してもよい。
コンタクトレンズのイメージのサイズを再調整し、顔イメージの瞳領域の中心にコンタクトレンズのイメージの中心を一致させて顔イメージとコンタクトレンズのイメージとを画素別に合成することができる。既にコンタクトレンズイメージの画素に透明度が付与されているので、自然な合成イメージを構成することができる。
ここで撮影された顔イメージの目の形状(特に瞳の形状)は、同一のユーザーであっても撮影時の状況によって互いに異なる。特定の時点では、円形に近い瞳のイメージが撮影され得、他の特定の時点では、楕円形に近い瞳のイメージが撮影され得る。制御部117は、自然なイメージを構成するために、撮影されたイメージの目の形状を考慮し、隣接する皮膚の境界線に沿って認識される瞳領域に対してのみコンタクトレンズのイメージを合成する必要がある。
このため、制御部117は、顔イメージの目領域の決定されたポイントのうち、特定のポイントを用いて円形及び半径を計算し、他の点を用いて他の円形及び半径を計算する(S309)。例えば、前者の特定のポイントは、上まぶたと瞳が出会う境界線上の3つのポイントかけ、後者の特定のポイントは、下まぶたと瞳が出会う境界線上の3つのポイントである。以下、前者の特定のポイントで構成される円形をC1ともいい、後者の特定のポイントで構成される円形をC2ともいう。
図8は、コンタクトレンズのイメージと顔イメージとを合成する過程において決定される円形の示す図であるが、図8に示すように、3つのポイントの法線を用いてC1とC2の中心を計算することができ、半径を計算することができる。図8の例は、顔イメージの目領域に対して行われ、図8に示すように、瞳領域に対応する円形であるC0もまた表示されている。
制御部117は、C1及びC2(さらにC0)の円を用いて瞳が隣接する皮膚によって隠された領域を識別する(S311)。識別された領域は、コンタクトレンズのイメージのコンタクトレンズ領域の円形に対して追加的な透明度を付与するために用いられる。
図9は、決定された円形を用いて追加的な透明度を付与するための領域の識別例を示す図である。
図9に示すように、制御117は、サイズ調整された(縮小した)コンタクトレンズのイメージの四角形領域又は対応する瞳の四角形の領域からC1とC2の積集合を除いた領域を識別する。識別された領域は、一般に二つの領域から構成される。一方の領域は、瞳がまぶた(上まぶた)によって隠れている部分を示し、他方の領域は、瞳が下まぶた(又は下方のまぶた)によって隠れている部分を示す。
より具体的に説明すると、制御部117は、C1の円形を構成するX軸(水平)とY軸(垂直)の座標点の各々を、四角形領域の各画素の同じX座標を有するY座標と比較し、万が一、四角形領域の画素のY座標が対応するC1のY座標よりも大きい場合は、当該画素を透明度が付与される領域として識別する。制御部は、C1を構成するY座標と同じX座標に対応する四角形領域のY座標とを単純に比較することにより、四角形領域内のY座標が大きい画素を透過に処理する画素として決定してもよい。C1の円形を構成する座標点は、C1の中心点と半径を用いて計算することができる。
同様に、制御部117は、C2の円形を構成するX軸(水平)及びY軸(垂直)の座標点の各々を、四角形領域の各画素の同じX座標を有するY座標と比較し、万が一、四角形領域の画素のY座標が対応するC2のY座標よりも小さい場合は、当該画素を透明度が付与される領域として識別する。制御部117は、C2を構成するY座標と同じX座標に対応する四角形領域のY座標とを単純に比較することにより、四角形領域内のY座標が小さい画素を透明に処理する画素として決定してもよい。C2の円形を構成する座標点は、C2の中心点と半径を用いて計算することができる。
領域の識別は、C0をさらに用いて行われることもできる。例えば、C0内の画素に対してのみC1とC2を構成する座標点に対して比較し、その比較に基づいてC0内で透明に処理する領域を識別することができる。比較及び決定方法は、前述のC1及びC2及び四角形領域を用いる方法と同様である。
領域を識別した後、制御部117は、C1、C2、さらにC0を用いて識別された領域に対応するコンタクトレンズのイメージの領域の画素に追加的な透明度を付与する(S313)。ここでの透明度としては、例えば、コンタクトレンズのイメージに対応する画素が見えないように(すなわち、透明になるように)する値を設定し、例えば、100%の透明度を付与する。
透明度を付与するにあたっては、ステップS307で縮小したコンタクトレンズのイメージに対して行われ、識別された領域に対応する画素に対して透明度(透明値)を付与してそれぞれの画素を透明にする。識別された領域は、C0内で識別される領域であるか、C0を含む四角形領域内で識別される領域である。
制御117は、追加的な透明度を付与することにより、コンタクトレンズのイメージが顔イメージの目の領域に合成されるとき、隣接する皮膚によって隠れている瞳の部分に対応するコンタクトレンズのイメージの画素を見えないように構成する。
追加的な透明度を付与した後、制御117は、顔イメージに、透明度が付与されたコンタクトレンズのイメージを、付与された透明度に基づいて合成する(S315)。具体的には、制御部117は、顔イメージから識別された目領域の瞳に、瞳のサイズに合わせて調整された、瞳の形状に応じて透明度が付与されたコンタクトレンズのイメージを合成するが、このとき、瞳の中心にコンタクトレンズのイメージの円形の中心を一致させた後、各画素別に、各画素に付与された透明度値に応じて対応する画素に重ね合わせて合成する。
万が一、コンタクトレンズの特定画素に付与された透明度が0%(不透明)であれば、コンタクトレンズイメージの画素が合成されたイメージに表示される。万が一、コンタクトレンズ111−5の特定画素に付与された透明度が100%(透明)であれば、顔イメージに対応する画素が、合成されたイメージに表示される。万が一、コンタクトレンズ111−5の特定画素に付与された透明度が30%であれば、顔イメージに対応する画素のカラー値が70%、特定画素のカラー値が30%の加重値で合算され、合成されたイメージに表示さされる。
その後、制御部117は、合成過程を終了し(S350)、合成されたイメージを表示部113を介して出力する(S4)。
以上のような流れにより、目の形状が可変的であることを考慮して、自然で可変的なコンタクトレンズ着用イメージを提供することができる。
以上で説明した本発明は、本発明が属する技術分野における通常の知識を有する者であれば、本発明の技術的思想を逸脱しない範囲内で様々な置換、変形及び変更が可能であるので、前述した実施例及び添付図面によって限定されるものではない。
100 コンタクトレンズの仮想試着装置
101 入力部
103 出力部
105 通信部
107 保存部
109 第1のカメラ部
111 第2のカメラ部
111−1 LED照明
111−2 拡散板
111−3 コンタクトレンズホルダー
111−4 光学レンズ
111−5 コンタクトレンズ
113 表示部
115 接続部
117 制御部

Claims (12)

  1. 暗室を形成する構造体の第2の光学レンズを介してコンタクトレンズホルダーに搭載されたコンタクトレンズのイメージをキャプチャするステップと;
    キャプチャされたコンタクトレンズのイメージからコンタクトレンズの領域を識別するステップと;
    コンタクトレンズホルダーの色又はコンタクトレンズケースの色に基づいてコンタクトレンズ領域に対応する画素に透明度を付与するステップと;
    第2の光学レンズを介して生成されたコンタクトレンズのイメージを、識別された目領域の瞳に、コンタクトレンズのイメージに付与された透明度に基づいて合成するステップと;
    合成されたイメージを表示するステップと;を含む、コンタクトレンズの仮想試着方法。
  2. 前記合成ステップの以前に、第1の光学レンズを介して顔イメージをキャプチャするステップと;キャプチャされた顔イメージから目領域を識別するステップと;をさらに含み、
    コンタクトレンズのイメージをキャプチャするステップは、前記暗室における均一な照度分布を得るために、暗室に配備された複数のLED照明からの光を出力し、前記暗室に配備された拡散板を介して光を拡散させた状態で行われる、請求項1に記載のコンタクトレンズの仮想試着方法。
  3. 前記コンタクトレンズの領域を識別するステップは、キャプチャされたイメージから1つ以上の輪郭線を識別するステップと;1つ以上の輪郭線のそれぞれのポイントの偏差に基づいて円形を識別するステップと;識別された円形のうち最も大きな円形をコンタクトレンズの形状に対応する円形として決定するステップと;決定された円形を含むコンタクトレンズのイメージを生成するステップと;を含み、
    前記透明度を付与するステップは、決定された、コンタクトレンズに対応する円形内の画素に色に応じて透明度を付与し、前記円形外の画素に所定のしきい値以上の透明度を付与する、請求項1に記載のコンタクトレンズの仮想試着方法。
  4. 前記目領域を識別するステップは、瞳と前記瞳に隣接する皮膚との間の境界線上に位置する複数のポイント(point)を決定するステップを含む、請求項2に記載のコンタクトレンズの仮想試着方法。
  5. 前記合成するステップは、前記複数のポイントを用いて瞳に対応する円形を決定するステップと;前記生成されたコンタクトレンズのイメージを、前記複数のポイントで決定される円形のサイズを用いて縮小させるステップと;前記複数のポイントのうち、第1のポイントで決定される第1の円形及び第2のポイントで決定される第2の円形を用いて、縮小したコンタクトレンズのイメージ内において識別された領域の画素に透明度をさらに付与するステップと;を含む、請求項4に記載のコンタクトレンズの仮想試着方法。
  6. 前記識別された領域の画素を透明に設定し、
    前記合成するステップは、前記識別された領域に透明度を付与するステップの後、瞳に対応する中心に縮小したコンタクトレンズの円形の中心を一致させた後、画素別にオーバーラップして合成する、請求項5に記載のコンタクトレンズの仮想試着方法。
  7. 請求項1に係るコンタクトレンズの仮想試着方法の各ステップを実行させるためのコンピュータプログラム。
  8. 第1の光学レンズを備えて顔イメージをキャプチャする第1のカメラ部と;
    第2の光学レンズ及びコンタクトレンズホルダーを備える第2のカメラ部であり、暗室を形成する構造体内に構成され、第2の光学レンズを介してコンタクトレンズホルダーに搭載されたコンタクトレンズのイメージをキャプチャする第2のカメラ部と;
    キャプチャされたコンタクトレンズのイメージからコンタクトレンズの領域を識別し、コンタクトレンズホルダーの色又はコンタクトレンズケースの色に基づいてコンタクトレンズ領域に対応する画素に透明度を付与し、キャプチャされた顔イメージから目領域を識別し、第2の光学レンズを介して生成されたコンタクトレンズのイメージを、識別された目領域の瞳に、コンタクトレンズのイメージに付与された透明度に基づいて合成する制御部と;
    合成されたイメージを表示する表示部と;を備える、コンタクトレンズの仮想試着装置。
  9. 前記第2のカメラ部は、光をそれぞれ出力する複数のLED照明と、前記光を拡散するための拡散板と、をさらに含み、
    前記制御部は、前記複数のLED照明及び拡散板を用いた光の照度環境下で前記第2光学レンズを介してコンタクトレンズのイメージをキャプチャする、請求項8に記載のコンタクトレンズの仮想試着装置。
  10. コンタクトレンズの領域を識別するために、前記制御部は、キャプチャされたコンタクトレンズのイメージから1つ以上の輪郭線を識別し、1つ以上の輪郭線のそれぞれのポイントの偏差に基づいて円形を識別し、識別された円形のうち最も大きな円をコンタクトレンズの形状に対応する円形として決定し、決定された円形を含むコンタクトレンズのイメージを生成し、
    前記制御部は、前記透明度を付与するために、決定された、コンタクトレンズに対応する円形内の画素に色に応じて透明度を付与し、前記円形外の画素に所定のしきい値以上の透明度を付与する、請求項8に記載のコンタクトレンズの仮想試着装置。
  11. 前記目領域を識別するために、前記制御部は、瞳と前記瞳に隣接する皮膚との間の境界線上に位置する複数のポイント(point)を決定し、
    イメージを合成するために、前記制御部は、前記複数のポイントを用いて瞳に対応する円形を決定し、前記生成されたコンタクトレンズのイメージを、前記複数のポイントで決定される円形のサイズを用いて縮小させ、複数のポイントのうち、第1のポイントで決定される第1の円形及び第2のポイントで決定される第2の円形を用いて、縮小したコンタクトレンズのイメージ内で識別された領域の画素に透明度を付与する、請求項8に記載のコンタクトレンズの仮想試着装置。
  12. コンタクトレンズのイメージ及び対応するコンタクトレンズの識別子を保存する保存部と;
    コンタクトレンズの識別子を受信する入力部と;をさらに含み、
    前記制御部は、前記入力部を介して受信されたコンタクトレンズの識別子を用いて保存部に保存されたコンタクトレンズのイメージを検索し、イメージの合成のために保存部で検出されたコンタクトレンズイメージのコンタクトレンズ領域を目領域の瞳に合成する、請求項8に記載のコンタクトレンズの仮想試着装置。
JP2017527662A 2014-11-28 2015-07-16 コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラム Active JP6460237B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2014-0168501 2014-11-28
KR1020140168501A KR101520778B1 (ko) 2014-11-28 2014-11-28 콘택트렌즈 가상 피팅 방법, 장치 및 이 방법을 실행시키는 컴퓨터 프로그램
PCT/KR2015/007397 WO2016085085A1 (ko) 2014-11-28 2015-07-16 콘택트렌즈 가상 피팅 방법, 장치 및 이 방법을 실행시키는 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
JP2018502318A JP2018502318A (ja) 2018-01-25
JP6460237B2 true JP6460237B2 (ja) 2019-01-30

Family

ID=53394845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017527662A Active JP6460237B2 (ja) 2014-11-28 2015-07-16 コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラム

Country Status (7)

Country Link
US (1) US20170337740A1 (ja)
EP (1) EP3226209A4 (ja)
JP (1) JP6460237B2 (ja)
KR (1) KR101520778B1 (ja)
CN (1) CN107077751B (ja)
SA (1) SA517381617B1 (ja)
WO (1) WO2016085085A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110383296A (zh) * 2017-04-07 2019-10-25 英特尔公司 用于提供深度堆叠的自动程序合成的系统和方法
KR102039164B1 (ko) * 2018-03-30 2019-10-31 경일대학교산학협력단 다중 구조 인공신경망을 이용한 가상 피팅을 수행하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102134476B1 (ko) * 2018-03-30 2020-08-26 경일대학교산학협력단 인공신경망을 이용한 가상 피팅 시스템, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102039166B1 (ko) * 2018-03-30 2019-10-31 경일대학교산학협력단 순환 구조 인공신경망을 이용한 가상 피팅을 수행하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102194909B1 (ko) * 2019-01-21 2020-12-24 김윤호 영상 합성 장치 및 방법
KR102214411B1 (ko) * 2019-03-29 2021-02-09 상명대학교산학협력단 렌즈 가상 착용 장치 및 방법
CN111062328B (zh) * 2019-12-18 2023-10-03 中新智擎科技有限公司 一种图像处理方法、装置及智能机器人
KR102271063B1 (ko) * 2020-08-18 2021-06-29 정윤호 가상 피팅 서비스 제공 방법, 장치 및 그 시스템
KR20220075984A (ko) * 2020-11-30 2022-06-08 (주)인터비젼 콘택트렌즈 맞춤 추천 및 가상 피팅 시스템
TWD218109S (zh) * 2021-01-29 2022-04-11 晶碩光學股份有限公司 隱形眼鏡
TWD214688S (zh) * 2021-01-29 2021-10-11 晶碩光學股份有限公司 隱形眼鏡
TWD214892S (zh) * 2021-01-29 2021-10-21 晶碩光學股份有限公司 隱形眼鏡
TWD214891S (zh) * 2021-01-29 2021-10-21 晶碩光學股份有限公司 隱形眼鏡
TWD214689S (zh) * 2021-01-29 2021-10-11 晶碩光學股份有限公司 隱形眼鏡
KR102394021B1 (ko) * 2021-03-23 2022-05-04 윤경태 사용자 맞춤형 콘택트렌즈 추천 방법 및 이러한 방법을 수행하는 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5585874A (en) * 1995-01-12 1996-12-17 Bausch & Lomb Incorporated Color imaging convergence projector
BR9600543A (pt) * 1996-02-06 1997-12-30 Samir Jacob Bechara Sistema computadorizado para escolha e adaptação de óculos
US5801822A (en) * 1997-02-06 1998-09-01 Pbh, Inc. Ophthalmic lens inspection system
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
JP2003057611A (ja) * 2001-08-13 2003-02-26 San Contact Lens:Kk コンタクトレンズ検査装置
CN100462048C (zh) * 2002-01-04 2009-02-18 株式会社威炯眼镜 眼镜选定系统及其方法
JP4435809B2 (ja) * 2002-07-08 2010-03-24 株式会社東芝 仮想化粧装置及びその方法
US7226163B2 (en) * 2003-08-01 2007-06-05 Johnson & Johnson Vision Care, Inc. Methods for designing tinted contact lenses
JP2005304809A (ja) * 2004-04-22 2005-11-04 Matsushita Electric Ind Co Ltd 照明装置付き目画像撮像装置
CA2568260A1 (en) * 2006-11-15 2008-05-15 Christian Dufour Transparent material inspection system
KR20100050052A (ko) * 2008-11-05 2010-05-13 김영준 안경 가상 착용 방법
JP2013130716A (ja) * 2011-12-21 2013-07-04 Menicon Co Ltd 色付コンタクトレンズおよびその製造方法
KR20130103216A (ko) * 2012-03-09 2013-09-23 최미애 원격안경주문방법
KR20130103153A (ko) * 2012-03-09 2013-09-23 주식회사 퍼비스코리아 고객 맞춤형 안경 및 콘택트렌즈 버추얼 피팅 방법 및 그 시스템
KR20140119981A (ko) * 2013-04-01 2014-10-13 주홍찬 증강현실을 이용한 가상 옷 또는 가상 액세서리 착용 장치 및 방법

Also Published As

Publication number Publication date
CN107077751A (zh) 2017-08-18
CN107077751B (zh) 2021-04-13
JP2018502318A (ja) 2018-01-25
US20170337740A1 (en) 2017-11-23
EP3226209A4 (en) 2018-08-29
KR101520778B1 (ko) 2015-05-18
EP3226209A1 (en) 2017-10-04
WO2016085085A1 (ko) 2016-06-02
SA517381617B1 (ar) 2021-03-08

Similar Documents

Publication Publication Date Title
JP6460237B2 (ja) コンタクトレンズの仮想試着方法、装置及びこの方法を実行させるコンピュータプログラム
KR102205374B1 (ko) 아이 트래킹 웨어러블 디바이스들 및 사용을 위한 방법들
US9292765B2 (en) Mapping glints to light sources
US10617301B2 (en) Information processing device and information processing method
CN206301289U (zh) Vr终端设备
US9443307B2 (en) Processing of images of a subject individual
CN109155053B (zh) 信息处理设备、信息处理方法和记录介质
CN110352033A (zh) 用眼睛追踪装置确定眼睛睁开度
CN107832029B (zh) 显示处理方法及装置、终端、计算机可读存储介质
US11521575B2 (en) Electronic device, electronic device control method, and medium
CN110738620A (zh) 智能美妆方法、化妆镜和存储介质
CN110866139A (zh) 一种化妆处理方法、装置及设备
US11321764B2 (en) Information processing apparatus and information processing method
WO2020141754A1 (ko) 안면착용 제품 추천 방법 및 그 장치
JP6740329B2 (ja) 顔特徴分析および個人向けアドバイスの送達のための方法およびシステム
US20240077937A1 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
KR101507410B1 (ko) 모바일 단말의 라이브 메이크업 촬영 방법 및 장치
JP7469278B2 (ja) コンピュータシステム、制御方法及びプログラム
CN205721623U (zh) 智能交互系统
JP2016085322A (ja) 表示装置、表示装置の制御方法、表示システム、及び、プログラム
US11587205B2 (en) Method and device for generating avatar on basis of corrected image
JP7260737B2 (ja) 画像撮影装置、画像撮影装置の制御方法、およびプログラム
CN113610723A (zh) 图像处理方法及相关装置
JP2021010652A (ja) 情報処理装置、評価方法、および情報処理プログラム
KR101563200B1 (ko) 컬러렌즈 맞춤 간편화 시스템 및 그 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R150 Certificate of patent or registration of utility model

Ref document number: 6460237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250