JP6710095B2 - 技術支援装置、方法、プログラムおよびシステム - Google Patents
技術支援装置、方法、プログラムおよびシステム Download PDFInfo
- Publication number
- JP6710095B2 JP6710095B2 JP2016087188A JP2016087188A JP6710095B2 JP 6710095 B2 JP6710095 B2 JP 6710095B2 JP 2016087188 A JP2016087188 A JP 2016087188A JP 2016087188 A JP2016087188 A JP 2016087188A JP 6710095 B2 JP6710095 B2 JP 6710095B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- image
- user
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
従来技術として、ユーザの撮影映像に対して、メイクすべき領域を表示する技術が存在する。(例えば、非特許文献1および非特許文献2参照)。
例えば、眉頭をメイクするときは、アイブローを顔に対して垂直に持つと色の斑が多くなってしまう。また、二筆目にメイクすべき位置を間違えて、一筆目にメイクした位置に重ねてメイクすると、色味が濃くなってしまう。
第1の実施形態における技術支援装置について図1のブロック図を参照して説明する。
第1の実施形態に係る技術支援装置100は、画像取得部101、特徴点検出部102、テーマ選択部103、実施情報生成部104、実施情報一時格納部105、参考状態格納部106、状態評価部107、センサ情報取得部108、参考使用方法格納部109、使用方法評価部110および表示出力部111を含む。
実施情報一時格納部105は、いわゆるバッファであり、実施情報生成部104から実施情報を受け取り、実施情報を一時的に格納する。
なお、状態評価部107は、最新の実施情報と前実施情報の比較だけでなくてもよい。例えば、最新の実施情報と複数の前実施情報の平均値とを比較してもよい。また、最新のフレームをn(n:自然数)枚目とするとき,n枚目のフレームの実施情報とn−1枚目のフレームの実施情報とを比較し、n−2枚目のフレームの実施情報とn−3枚目のフレームの実施情報を比較し、・・・といったように複数回の比較をし、その内の数回の比較においてある閾値を超えた際、最新の実施情報を参考状態格納部106に格納される参考状態情報と比較してもよい。状態評価部107は、複数回の比較により実施情報一時格納部105に格納された実施情報と最新の実施情報とを比較すればよい。
なお、ここでは、センサ情報取得部108が、一定の間隔でセンサ情報を取得することを想定しているが、センサ情報の取得間隔は、例えば、メイクする位置やメイク道具等に応じて、設定値により変更できるようにしてもよい。
使用方法評価部110は、参考使用方法格納部109から参考方法情報を、テーマ選択部103からテーマ選択情報を、実施情報生成部104から実施情報および開始信号を、センサ情報取得部108からセンサ情報をそれぞれ受け取る。使用方法評価部110は、実施情報生成部104から開始信号を受け取ってから状態評価部107から終了信号を受け取るまで、センサ情報と参考方法情報との差分を算出し、差分に応じて、ユーザの作業方法および道具の使用方法の少なくともいずれか一方を参考方法情報に近づけるための使用方法ガイド情報を含むフィードバック内容を生成する。状態評価部107の場合と同様に、フィードバック内容は、例えば、画像、テキスト、および音声またはこれらの組み合わせであり、ユーザがフィードバック内容を理解できる指示であれば何でもよい。
表示出力部111は、センサ情報取得部108からのセンサ情報と実施情報生成部104からの開始信号とに基づいて、フィードバック内容を表示装置180に出力するタイミングを決定してもよい。また、状態評価部107からの終了信号に基づいて出力の変更、終了のタイミングを決定してもよい。
状態評価部107は、差分算出部201および状態ガイド生成部202を含む。
状態ガイド生成部202は、差分算出部201から対象画像およびガイド内容を受け取り、ガイド内容に基づいて、ユーザへのフィードバックとして対象画像に対して設定値により定められた位置に重畳させるための状態ガイド情報を生成する。さらに、状態ガイド生成部202は、対象画像と状態ガイド情報とを含むフィードバック内容を生成する。
使用方法評価部110は、差分算出部301および使用方法ガイド生成部302を含む。
図4に示すテーブル400には、道具ID401、速度402および角度403がそれぞれ対応付けられて、センサ情報として格納される。なお、図示しないが、これらの情報を取得した時刻を対応付けてさらに格納してもよい。
速度402(速度s)は、ユーザが道具を使用する際の、道具の速度の実測値である。ここでは、メイク道具を使用する速度である。
角度403(角度a)は、ユーザが道具を使用する際の、処理対象に対する道具の角度の実測値である。ここでは、フェイスラインや眉などメイクの対象パーツに対するメイク道具の角度である。
図5に示すテーブル500には、パーツID501、パーツ詳細ID502、特徴点座標503および領域504がそれぞれ対応付けられて、特徴点情報fとして格納される。パーツIDは、処理対象となるパーツを一意に識別するための識別子であり、ここでは、左眉毛、右眉毛、左目、右目、鼻、口、左頬、右頬など顔を印象付けるパーツの識別子である。パーツ詳細ID502は、パーツ内をさらに分類した領域を一意に識別するための識別子であり、ここでは、眉尻、眉頭、目尻、目頭などの詳細部についての識別子である。特徴点座標503は、処理対象に対してパーツが占める領域を表す座標であり、ここでは1次元座標から3次元座標までのいずれかを想定しているが、さらに高次元の座標も同様に用いることができる。領域504は、パーツに対して処理される領域を示し、ここではメイク塗装領域を示す。なお、領域504は、パーツまたはパーツ詳細の特徴点を結んだ領域でもよく、設定値により変更可能としてもよい。
図6に示すテーブル600には、テーマID601、パーツID501、パーツ詳細ID502、特徴点座標503、領域504および色602cがそれぞれ対応付けられて、前実施情報として格納される。テーマID601は、上述したテーマ選択情報に含まれる識別子である。色602cは、領域504内の色の実測値である。色602cは、単位作業の矢印領域703ごとに格納されてもよい。
図7に示すテーブル700には、テーマID601、パーツID501、パーツ詳細ID502、道具ID401、領域504、単位作業ID701、起点および終点702、矢印領域703、色704c’、色差分705およびガイド内容706がそれぞれ対応付けられて格納される。
図8Aに示すテーブル800には、テーマID601、パーツID501、パーツ詳細ID502、道具ID401、単位作業ID701、起点および終点702、速度801s’、速度差分802d'_sおよびガイド内容803がそれぞれ対応付けられて格納される。
図8Bに示すテーブル850には、テーマID601、パーツID501、パーツ詳細ID502、道具ID401、単位作業ID701、起点および終点702、角度804a’、角度差分805d'_aおよびガイド内容803がそれぞれ対応付けられて格納される。
ステップS901では、差分算出部301が、開始信号を取得したかどうかを判定する。開始信号を取得していない場合、開始信号を取得するまで待機し、開始信号を取得した場合、ステップS902に進む。
ステップS903では、差分算出部301が、参考使用方法格納部109に格納されるパーツ詳細IDと実施情報に含まれるパーツ詳細IDとが一致するかどうかを判定する。パーツ詳細IDが一致する場合、ステップS904に進み、パーツ詳細IDが一致しない場合、ステップS901に戻り、同様の処理を繰り返す。
ステップS908では、差分算出部301が、センサ情報から得た速度の実測値sと速度s’との差分値d_sと、センサ情報から得た角度の実測値aと角度a’との差分値d_aとを算出する。差分値の算出方法は、例えば、2値の差分や最小二乗法などを用いればよい。
ステップS910では、使用方法ガイド生成部302が、参考使用方法格納部109から、差分d’_sおよびd’_aに対応するガイド情報を抽出し、使用方法ガイド情報を生成し、フィードバック画像を生成する。以上で、使用方法評価部110の作業を終了する。
図10に示すように、使用方法ガイド生成部302は、ガイド情報をユーザに提示するために予め用意されたイラストに重畳することで、使用方法ガイド情報を生成する。図10の例では、ユーザのメイク道具を動かす速度が速く、さらに顔に対して角度がつき過ぎていたため、「顔に対してあと30度傾けて、ゆっくり描いて下さい」というガイド情報がイラストに重畳されることで、使用方法ガイド情報が生成される。なお、「30度」のように、速度や角度の具体的な数値について、速度差分d’_s、d_sおよび角度差分d’_a、d_aの値を用いてもよく、これによりユーザはより詳細なフィードバックを受けることができる。
図11に示すように、ユーザが鏡を見ながらメイクしている場合に、表示装置180に対して対象画像1101が映し出され、メイクの作業および道具の使用方法に応じて使用方法ガイド情報1102が表示される。
図12は、図11と同様であるが、状態評価部107が生成する状態ガイド情報1201と撮影画像とがフィードバック画像として出力される点で異なる。図12の例では、状態評価部107で算出された差分から、参考メイクよりもユーザが行ったメイクの色が薄かったと判定され、「ここをあと少し濃く塗って下さい」というガイド内容を含む状態ガイド情報1201が表示される。また、参考メイクの色を表示してもよい。なお、使用方法ガイド情報1102および状態ガイド情報1201は、対象画像1101に重畳されるように表示されてもよい。
単位作業に関する作業をどのように行うかが不明確であり、実際行っている作業が正しいか判定できず、参考とする作業をできない可能性がある。メイクの場合は、一筆のストロークを単位作業とすれば、一筆一筆の描き方が重要であり、一筆の描き方が不明確である場合、正しい位置に描くことや色味の加減が困難となり、参考とするメイクに仕上がらない可能性がある。
そこで、第2の実施形態では、単位作業のガイドを道具の動きに合わせて提示する。さらに、ユーザが単位作業のガイドに沿って作業ができているかを評価し、その評価結果に応じたフィードバックを行う。これによって、ユーザはより正確に作業を行うことができ、失敗を防ぐことができる。
第2の実施形態に係る技術支援装置1300は、画像取得部101、特徴点検出部102、テーマ選択部103、実施情報生成部104、実施情報一時格納部105、参考状態格納部106、状態評価部107、センサ情報取得部108、参考使用方法格納部109、使用方法評価部110、表示出力部111、単位作業ガイド情報格納部1301および単位作業ガイド重畳部1302を含む。
単位作業ガイド情報格納部1301および単位作業ガイド重畳部1302以外の作業については、第1の実施形態と同様であるのでここでの説明を省略する。
単位作業ガイド重畳部1302は、センサ情報取得部108からセンサ情報を、テーマ選択部103からテーマ選択情報を、実施情報生成部104から実施情報および開始信号を、状態評価部107から終了信号を、それぞれ受け取る。単位作業ガイド重畳部1302は、終了信号を受け取った後、センサ情報およびテーマ選択情報を参照して、単位作業ガイド情報格納部1301から、対応する単位作業ガイド内容を取得し、単位作業ガイド内容を対象画像に対応させる。例えば、対象画像に単位作業ガイド内容を重畳した重畳画像(第1重畳画像)を生成し、フィードバック内容を生成すればよい。
図14に示すテーブル1400は、テーマID601、パーツID501、パーツ詳細ID502、道具ID401、単位作業ID701、矢印の起点および終点702および矢印の太さ1401がそれぞれ対応付けられて、単位作業ガイド情報として格納される。単位作業ガイド情報は、単位作業ID701に示すように、ユーザの作業順(メイクであれば、メイクする順番)に格納されている。矢印の太さ1401は、単位作業を示す矢印としてフィードバック画像に表示される矢印画像の太さを示す。
単位作業ガイド重畳部1302は、センサ情報に含まれる道具IDと、単位作業ガイド情報格納部1301に格納される道具ID401とを比較して、同じ値であれば、対応する単位作業ガイド情報を取得する。単位作業ガイド重畳部1302は、道具IDでメイクするパーツIDまたはパーツ詳細IDが分かるので、対応するパーツまたはパーツ詳細の一筆目の重畳位置が決定され、単位作業ガイド情報に含まれる矢印の起点および終点702および矢印の太さ1401に基づいて、重畳画像を生成する。なお、単位作業ガイド重畳部1302は、終了信号を受け取った場合は、次の未処理の単位作業ID701に関する矢印の起点および終点702および矢印の太さ1401に基づいて、重畳画像を生成すればよい。なお、表示出力部111では、センサ情報Sの実測値(s、a)や参考使用方法格納部の理論値(s’、a’)に合わせて、重畳画像を生成、表示してもよい。
図15は、アイブローにより左眉を描く際の一筆一筆のストロークを示す。
図16は、自身の顔である対象画像に対して、眉の一筆を示す単位作業ガイド画像1601が重畳される例である。これにより、実際の自分の顔に表示される矢印に沿って一筆一筆描けばよく、ユーザはこの矢印に従うことにより参考とする描き方を容易にすることができる。
よって、第1の実施形態と同様に、ユーザの作業を効率的にサポートすることができ、参考とする作業結果を容易に実現することができる。
第3の実施形態では、センサ情報や実施情報を元に、処理する領域(作業する場所)と、それ以外の領域(場所)の中で未処理である領域を認識して、未処理の領域に参考画像を重畳する点が上述の実施形態と異なる。これによって、ユーザは作業中に容易に参考とする作業を実施でき、作業が完成した領域と他の領域との位置やバランス等の比較することができる。
第3の実施形態に係る技術支援装置1700は、画像取得部101、特徴点検出部102、テーマ選択部103、実施情報生成部104、実施情報一時格納部105、参考状態格納部106、状態評価部107、センサ情報取得部108、参考使用方法格納部109、使用方法評価部110、表示出力部111、単位作業ガイド情報格納部1301、単位作業ガイド重畳部1302および参考状態重畳部1701を含む。
参考状態重畳部1701以外の作業については、第1、第2の実施形態と同様であるのでここでの説明を省略する。
ここでは、眉が処理領域の場合の枠線画像1801を示す。枠線画像は、パーツIDに対応する領域504から生成されればよい。枠線画像は線や点線が考えられるが、図18には点線で示す。
図19では、眉をメイクしている場合に、その他のパーツに参考画像が重畳される例を示す。枠線画像1801を対象画像に重畳させ、さらに、未処理領域(図19の1901点線内)の参考画像1901を対象画像に重畳させる(第2重畳画像および第3重畳画像が併せて表示される)。なお、図19では、説明の便宜上、参考画像1901の領域を破線で示しているが、実際には参考画像のみが重畳され、対象画像と参考画像との輪郭が目立たず自然な画像となるようにしてもよい。
画像取得部101は、ユーザ操作等により、コンテンツから参考状態画像を取得する。コンテンツとは、インターネット上にあるSNS(Social Networking Service)等のWebコンテンツやユーザ端末内にあるアルバムアプリケーション等が考えられる。なお、取得した参考状態画像については、補正処理などの前処理を行うことが望ましい。前処理の例としては、具体的には、解像度の大きさを調整する処理、影を除去する処理、画像中の対象領域に他の物体が重なってしまったときに物体の除去を行う処理、背景抽出などで検出の対象となる領域を限定する処理、左右を反転する処理、黒子や傷を消す処理などが挙げられる。
参考状態算出部112は、特徴点検出部102から参考状態画像と特徴点情報とを受け取る。参考状態算出部112は、受け取った参考状態画像および特徴点情報に基づいて、ユーザが参考とする状態の情報とユーザに提示するガイド内容の情報とを含む参考状態情報を算出し、算出した参考状態情報を参考状態格納部106に格納する。
第4の実施形態では、センサ情報取得により、対象画像に参考状態を重畳する点が上述の実施形態と異なる。
第4の実施形態に係る技術支援装置は、第3の実施形態に係る技術支援装置1700の構成と同様である。
参考状態重畳部1701は、センサ情報取得部108から検出情報を取得した場合、実施情報生成部104から実施情報を取得し、実施情報に含まれる特徴点情報を参照して、参考状態格納部106から実施情報に対応する領域の色の理論値を取得し、参考状態情報に基づく参考画像を対象画像に重畳する。
人感センサ2000が設置されており、ユーザのメイク中に後ろ側を人2050が通過する場合を想定する。人感センサ2000により、人2050を検出した場合、ユーザがメイクしている画像を写す対象画像2001から、対象画像2001に参考メイクを重畳した参考画像2002へ変更して表示する。対象画像2001は、前記対象画像(対象物が写っている画像)、フィードバック画像1101、1102、1201、1601の中の少なくともどれか1つである。
例えば、処理コストが高い処理(特徴点検出部102、実施情報生成部104、使用方法評価部110、単位作業ガイド重畳部1302、状態評価部107、参考状態算出部112および参考状態重畳部1701)をサーバで実施し、さらに、大量のデータを必要とするデータベース(実施情報一時格納部105、参考使用方法格納部109および参考状態格納部106)をサーバで格納する。その他の機能をクライアントで実行するようにしてもよい。
例えば、陶芸家の作品を参考状態として、手捻りにより陶芸の製作を行う場合や、按摩マッサージ指圧師の技術を参考状態として、手技を参考とする場合に、手や腕にセンサを取り付け、手の加速度や圧力を検出してセンサ情報とすることで、使用方法評価部110は、道具の使用方法と同様に、手の動かし方および手技を評価することができる。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
Claims (10)
- 処理対象に関する画像である対象画像を取得し、前処理を行う画像取得手段と、
前記処理対象に対してユーザが作業する処理領域における、当該ユーザの作業および当該ユーザにより使用される道具の使用方法の少なくともいずれか一方に関する速度および角度を表すセンサ情報を取得するセンサ情報取得手段と、
前記処理領域において前記ユーザが参考とする作業方法および参考とする前記道具の使用方法に関する速度および角度を表す参考方法情報を格納する参考使用方法格納手段と、
前記センサ情報と前記参考方法情報との速度および角度それぞれの差分に応じて、前記作業方法および前記使用方法の少なくともいずれか一方を当該参考方法情報に近づけるための、前記速度および角度の差分に対応する使用方法ガイド情報を含むフィードバック内容を生成する使用方法評価手段と、を具備することを特徴とする技術支援装置。 - 前記処理領域における前記ユーザの単位作業ごとのガイド内容を格納する単位作業ガイド情報格納手段と、
前記センサ情報を参照して、前記ガイド内容を表す単位作業ガイド内容を前記対象画像に重畳させる単位作業ガイド重畳手段と、をさらに具備することを特徴とする請求項1に記載の技術支援装置。 - 前記対象画像を参照して、前記処理領域と当該処理領域における前記ユーザの作業結果とに関する実施情報を生成する実施情報生成手段と、
前記処理領域において前記ユーザが参考とする状態に関する参考状態情報を格納する参考状態格納手段と、
前記作業結果と前記参考状態情報との差分に応じて、前記処理領域の状態を前記参考とする状態に近づけるための状態ガイド情報を含むフィードバック内容を生成する状態評価手段と、をさらに具備することを特徴とする請求項1または請求項2に記載の技術支援装置。 - 前記処理領域以外の領域のうち、未処理の領域である未処理領域と当該未処理領域に対応する参考状態情報とを用いて、当該未処理領域を示す内容と、当該未処理領域に対応する参考状態情報の内容との少なくともいずれか一方を生成する参考状態重畳手段をさらに具備することを特徴とする請求項3に記載の技術支援装置。
- 前記参考状態重畳手段は、前記センサ情報に応じて、前記参考状態情報に基づく内容を前記対象画像に合わせたフィードバック内容を生成することを特徴とする請求項4に記載の技術支援装置。
- 参考状態画像と当該参考状態画像の特徴点情報とに基づいて、前記参考状態情報を算出する参考状態算出手段をさらに具備することを特徴とする請求項3から請求項5のいずれか1項に記載の技術支援装置。
- 前記対象画像は、前記ユーザの顔画像であり、前記道具は、メイク道具であり、前記参考状態情報は、テーマに応じた見本メイク画像における色調を含み、
前記技術支援装置は、前記ユーザに前記テーマを選択させる選択手段をさらに具備することを特徴とする請求項3から請求項6のいずれか1項に記載の技術支援装置。 - 画像取得手段が、処理対象に関する画像である対象画像を取得し、前処理を行い、
センサ情報取得手段が、前記処理対象に対してユーザが作業する処理領域における、当該ユーザの作業および当該ユーザにより使用される道具の使用方法の少なくともいずれか一方に関する速度および角度を表すセンサ情報を取得し、
参考使用方法格納手段が、前記処理領域において前記ユーザが参考とする作業方法および参考とする前記道具の使用方法に関する速度および角度を表す参考方法情報を格納し、
使用方法評価手段が、前記センサ情報と前記参考方法情報との速度および角度それぞれの差分に応じて、前記作業方法および前記使用方法の少なくともいずれか一方を当該参考方法情報に近づけるための、前記速度および角度の差分に対応する使用方法ガイド情報を含むフィードバック内容を生成することを特徴とする技術支援方法。 - コンピュータを、請求項1から請求項7のいずれか1項に記載の技術支援装置の各手段として実行させるためのプログラム。
- クライアントとサーバとを含む技術支援システムであって、
前記クライアントは、
処理対象に関する画像である対象画像を取得し、前処理を行う画像取得手段と、
前記処理対象に対してユーザが作業する処理領域における、当該ユーザの作業および当該ユーザにより使用される道具の使用方法の少なくともいずれか一方に関する速度および角度を表すセンサ情報を取得するセンサ情報取得手段と、を具備し、
前記サーバは、
前記処理領域において前記ユーザが参考とする作業方法および参考とする前記道具の使用方法に関する速度および角度を表す参考方法情報を格納する参考使用方法格納手段と、
前記センサ情報と前記参考方法情報との速度および角度それぞれの差分に応じて、前記作業方法および前記使用方法の少なくともいずれか一方を当該参考方法情報に近づけるための、前記速度および角度の差分に対応する使用方法ガイド情報を含むフィードバック内容を生成する使用方法評価手段と、を具備することを特徴とする技術支援システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016026270 | 2016-02-15 | ||
JP2016026270 | 2016-02-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017146577A JP2017146577A (ja) | 2017-08-24 |
JP6710095B2 true JP6710095B2 (ja) | 2020-06-17 |
Family
ID=59683009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016087188A Active JP6710095B2 (ja) | 2016-02-15 | 2016-04-25 | 技術支援装置、方法、プログラムおよびシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6710095B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020252498A1 (en) * | 2019-06-10 | 2020-12-17 | The Procter & Gamble Company | Method of generating user feedback information to enhance product use results |
KR102215417B1 (ko) * | 2020-06-15 | 2021-02-16 | 주식회사 크라우드웍스 | 인공지능 학습데이터 생성을 위한 크라우드소싱 기반 프로젝트의 작업 가이드 자동 생성 방법 |
WO2022034685A1 (ja) * | 2020-08-14 | 2022-02-17 | 三菱電機株式会社 | 説明提示装置、説明提示方法、及び説明提示プログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216386A (ja) * | 2000-02-02 | 2001-08-10 | Nippon Telegr & Teleph Corp <Ntt> | 化粧支援装置 |
JP2002072861A (ja) * | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | 理容技術講習システム |
JP2005111178A (ja) * | 2003-10-10 | 2005-04-28 | Matsushita Electric Works Ltd | 動作トレーニング表示システム |
JP2006171184A (ja) * | 2004-12-14 | 2006-06-29 | Toshiba Corp | 技能評価システムおよび技能評価方法 |
JP5114871B2 (ja) * | 2006-05-31 | 2013-01-09 | 沖電気工業株式会社 | 映像提供装置 |
JP2010073008A (ja) * | 2008-09-19 | 2010-04-02 | Nec Corp | 化粧支援装置、化粧支援方法、及びプログラム |
JP5302793B2 (ja) * | 2009-06-24 | 2013-10-02 | ソニーモバイルコミュニケーションズ株式会社 | 美粧支援装置、美粧支援方法、美粧支援プログラム、及び携帯端末装置 |
JP2011166409A (ja) * | 2010-02-09 | 2011-08-25 | Panasonic Corp | 動き認識リモコン受信装置および動き認識リモコン制御方法 |
JP2012218058A (ja) * | 2011-04-13 | 2012-11-12 | Sumitomo Heavy Industries Marine & Engineering Co Ltd | 溶接シミュレータ |
JP2013186801A (ja) * | 2012-03-09 | 2013-09-19 | Nec Casio Mobile Communications Ltd | 画像処理装置 |
JP2014062962A (ja) * | 2012-09-20 | 2014-04-10 | Sony Corp | 情報処理装置、筆記具、情報処理方法およびプログラム |
JP6128309B2 (ja) * | 2013-02-01 | 2017-05-17 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
JP2014191813A (ja) * | 2013-03-28 | 2014-10-06 | Ntt Docomo Inc | 化粧行為支援装置、化粧行為支援システム及び化粧行為支援方法 |
-
2016
- 2016-04-25 JP JP2016087188A patent/JP6710095B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017146577A (ja) | 2017-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210177124A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US20200380594A1 (en) | Virtual try-on system, virtual try-on method, computer program product, and information processing device | |
US9563975B2 (en) | Makeup support apparatus and method for supporting makeup | |
CN110363867B (zh) | 虚拟装扮系统、方法、设备及介质 | |
JP6055160B1 (ja) | 化粧品情報提供システム、化粧品情報提供装置、化粧品情報提供方法、及びプログラム | |
JP5991536B2 (ja) | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム | |
WO2015029371A1 (ja) | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム | |
KR20170085477A (ko) | 가상 현실 환경을 위한 가려진 얼굴 부분 재구성 방법 및 시스템 | |
US20090153569A1 (en) | Method for tracking head motion for 3D facial model animation from video stream | |
JP2001216386A (ja) | 化粧支援装置 | |
JP6710095B2 (ja) | 技術支援装置、方法、プログラムおよびシステム | |
JP2019063480A (ja) | 拡張現実を結合した身体情報分析装置およびその眉型プレビュー方法 | |
TW201337815A (zh) | 電子試衣方法和電子試衣裝置 | |
EP3847628A1 (en) | Marker-less augmented reality system for mammoplasty pre-visualization | |
JP2020505712A (ja) | 人の3次元仮想表現を作成する方法 | |
WO2015152028A1 (ja) | 化粧支援装置および記録媒体 | |
KR102045228B1 (ko) | 신체 정보 분석 장치 및 얼굴형 모의 방법 | |
KR101719927B1 (ko) | 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치 | |
JP7273752B2 (ja) | 表情制御プログラム、記録媒体、表情制御装置、表情制御方法 | |
WO2018059258A1 (zh) | 采用增强现实技术提供手掌装饰虚拟图像的实现方法及其装置 | |
CN116452745A (zh) | 手部建模、手部模型处理方法、设备和介质 | |
JP6670677B2 (ja) | 技術支援装置、方法、プログラムおよびシステム | |
JP2018185784A (ja) | 頬紅案内装置及びその方法 | |
CN114333018A (zh) | 整形信息推荐方法、装置及电子设备 | |
WO2022190954A1 (ja) | 情報処理装置、方法、プログラム、システム、および美容方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6710095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |