JPWO2013077076A1 - 表情出力装置及び表情出力方法 - Google Patents

表情出力装置及び表情出力方法 Download PDF

Info

Publication number
JPWO2013077076A1
JPWO2013077076A1 JP2013545828A JP2013545828A JPWO2013077076A1 JP WO2013077076 A1 JPWO2013077076 A1 JP WO2013077076A1 JP 2013545828 A JP2013545828 A JP 2013545828A JP 2013545828 A JP2013545828 A JP 2013545828A JP WO2013077076 A1 JPWO2013077076 A1 JP WO2013077076A1
Authority
JP
Japan
Prior art keywords
image
face
unit
facial expression
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013545828A
Other languages
English (en)
Other versions
JP5632100B2 (ja
Inventor
真治 木村
真治 木村
堀越 力
力 堀越
福本 雅朗
雅朗 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013545828A priority Critical patent/JP5632100B2/ja
Application granted granted Critical
Publication of JP5632100B2 publication Critical patent/JP5632100B2/ja
Publication of JPWO2013077076A1 publication Critical patent/JPWO2013077076A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

表情を取得するための目印を付け続けることなく、ユーザが動いても表情の取得を続けられるようにする。
ユーザが掛ける眼鏡型装置1は、フレーム100のフロント部分の端に魚眼レンズを備えた第1カメラ110Lと第2カメラ110Rを有する。各カメラで得られたユーザの顔の画像は、情報処理装置2へ送られる。情報処理装置2は、各カメラの画像を平面展開し、両目、両眉及び口の部分の画像を、予め顔を正面から撮影した画像に合成する。情報処理装置2は、合成で得られた顔の画像について表情を認識し、認識した表情の3次元モデルを表示する。

Description

本発明は、人間の表情を出力する技術に関する。
人間の表情を出力する発明として、例えば特許文献1,2に開示された発明がある。特許文献1に開示された発明は、自動車に設けられたカメラで運転者の顔全体を撮影してオプティカルフローを求め、求めたオプティカルフローと予め記憶している表情パターンとを照合して運転者の表情を特定する。また、特許文献2に開示された発明は、顔に設けられた複数のマーカを、ヘルメットのバイザーに設けられた複数のカメラで撮影する。そして、撮影したマーカの位置を解析し、解析結果から顔を表すモデルを生成して出力する。
特開2005−182375号公報 特表2009−506442号公報
特許文献1の発明においては、運転中の顔の正面を撮影する位置にカメラが固定されている。このため運転者が顔の向きを変えた場合や頭部の位置を動かした場合には、顔の全体を捉えることができず、表情の特定ができなくなる。この点について特許文献2の発明は、顔の向きや位置の変化に伴ってカメラも移動するため、マーカが取り付けられた者が動いたり顔の向きを変えたりしても、顔に対する複数のカメラの相対的な位置が変わらず、ヘルメットを被った者の表情を常に出力することができる。しかしながら、特許文献2の発明においては、表情を出力するためには、顔に複数のマーカを付けたままの状態で顔を撮影するする必要があり、撮影をされる者が複数のマーカに対して煩わしさを感じてしまう。
本発明は、上述した背景の下になされたものであり、表情を取得するための目印を付け続けることなく、ユーザが動いても表情の取得を続けられる技術を提供することを目的とする。
上記課題を解決するため、本発明は、頭部に装着されるフレームと、前記フレームに設けられ、当該フレームを装着したユーザの顔の画像を所定方向から撮影する撮影部と、前記撮影部で撮影された画像中にある顔の所定部位の座標を、前記顔を前記撮影部の射影方式とは異なる射影方式で前記所定方向とは異なる別方向から撮影した時の画像中の座標に変換する変換部と、前記変換部で変換された座標に基づいて前記ユーザの表情を認識する認識部と、前記認識部で認識された表情を表す画像を出力する出力部とを有する表情出力装置を提供する。
上記表情出力装置においては、前記フレームは、眼鏡のフレームの形状であり、前記撮影部の画角は、撮影された画像中に少なくとも前記顔にある予め定められた部位の画像が入る画角であり、前記出力部が出力した画像を他の装置へ送信する送信部を有する構成としてもよい。
また、上記表情出力装置においては、前記変換部は、前記所定部位の画像を予め定められた平面に写像し、前記平面に写像された前記所定部位の画像中の座標を、前記所定部位を前記別方向から見た画像中の座標に変換する構成としてもよい。
また、上記表情出力装置においては、前記認識部は、前記変換部で変換された後の画像中の顔の向きに対応したアルゴリズムにより表情を認識する構成としてもよい。
また、上記表情出力装置においては、ユーザにより操作される操作部と、前記操作部にされた操作に基づいて、前記撮影部で撮影された画像内において指定された領域を特定する領域特定部とを有し、前記変換部は、前記撮影部で撮影された画像のうち前記領域特定部で特定された領域内の画像を変換する構成としてもよい。
また、上記表情出力装置においては、前記撮影部の射影方式とは異なる射影方式で予め前記別方向から撮影した前記顔の画像を記憶する記憶部を備え、前記変換部は、前記撮影部で撮影された前記顔の画像中にある特徴点のうち、前記記憶部に記憶された前記顔の画像中にある特徴点に対応する特徴点を特定し、当該特定した特徴点の画像中における座標と、前記記憶された画像中の座標であって、当該特定した特徴点に対応する特徴点の座標とに基づいて、前記撮影部で撮影された画像中の座標を前記別方向から撮影した画像中の座標に変換する計算モデルを求める構成としてもよい。
また、上記表情出力装置においては、前記撮影部の射影方式とは異なる射影方式で予め前記別方向から撮影した前記顔の画像を記憶する記憶部を備え、前記変換部は、前記撮影部で撮影された前記顔の画像中にある特徴点を結んで得られる領域に対応する領域を、前記記憶部に記憶された前記顔の画像中において特定し、前記撮影部で撮影された前記顔の画像中にある特徴点を結んで得られる領域と、該特定した領域とに基づいて、前記撮影部で撮影された前記顔の画像中にある特徴点を結んで得られる領域の画像を、前記別方向から撮影した画像に変換する計算モデルを求める構成としてもよい。
また、上記表情出力装置においては、前記変換部は、前記撮影部で撮影された画像中にある前記所定部位の画像を前記計算モデルを用いて変換し、変換後の前記所定部位の画像を前記記憶された画像中の前記所定部位の位置に合成する構成としてもよい。
また、上記表情出力装置においては、前記フレームは、前記ユーザの頭部の状態を検出するセンサを有し、前記認識部は、前記変換部で変換後の画像と前記センサの検出結果とを用いて前記ユーザの表情を認識する構成としてもよい。
また、本発明は、頭部に装着されるフレームに設けられ、当該フレームを装着したユーザの顔を所定方向から撮影する撮影部で撮影された前記ユーザの顔の画像を取得する取得ステップと、前記取得ステップで取得された画像中にある顔の所定部位の画像を、前記撮影部の射影方式とは異なる射影方式で前記所定方向とは異なる別方向から撮影した画像に変換する変換ステップと、前記変換ステップで変換後の画像から前記ユーザの表情を認識する認識ステップと、前記認識ステップで認識された表情を表す画像を出力する出力ステップとを有する表情出力方法を提供する。
本発明によれば、表情を取得するための目印を付け続けることなく、ユーザが動いても表情の取得を続けることができる。
本発明の第一及び第二実施形態に係る装置の外観図。 眼鏡型装置1のハードウェア構成を示したブロック図。 第1画像信号が表す画像を示した図。 第1カメラ110Lと第2カメラ110Rの射影方式を説明するための図。 情報処理装置2のハードウェア構成を示した図。 情報処理装置2において実現する機能の構成を示したブロック図。 平面展開を説明するための図。 UV平面の領域の一例を示した図。 平面展開された画像の一例を示した図。 チェッカーボードCKの一例を示した図。 チェッカーボードCKが貼りつけられた顔の画像の一例を示した図。 チェッカーボードCKが貼りつけられた顔の画像を平面展開した図。 準備動作の処理の流れを示したフローチャート。 出力動作の処理の流れを示したフローチャート。 第二実施形態の情報処理装置2で実現する機能の構成を示したブロック図。 第二実施形態の準備動作の処理の流れを示したフローチャート。 特徴点の一例を示した図。 第二実施形態に係るテーブルの一例を示した図。 特徴点の対応関係を例示した図。 第二実施形態の出力動作の処理の流れを示したフローチャート。 変形例に係るヘッドセット3の外観を示した図。 変形例に係る眼鏡型装置のハードウェア構成を示した図。 変形例に係る情報処理装置2の処理の流れを示したフローチャート。 特徴点を結んで得られる領域の一例を示した図。 3次元モデルにおいて顔の正面の画像が合成される領域を示した図。
1…眼鏡型装置、2…情報処理装置、3…ヘッドセット、100…フレーム、110L…第1カメラ、110R…第2カメラ、120…通信部、130…制御部、140…記憶部、21…液晶ディスプレイ、22…キー、23…タッチパッド、200…バス、201…制御部、202…記憶部、203…操作部、204…表示部、205…通信部、211…平面展開部、212…射影変換部、213…表情認識部、214…顔モデル合成部、215…変換部、301…ヘッドフォン、302…アーム、303…マイクロフォン、304…カメラ、320…通信部
[第一実施形態]
<構成>
図1は、本発明の第一実施形態に係る眼鏡型装置1と情報処理装置2の外観を示した図である。眼鏡型装置1は、眼鏡と同じ形状でユーザが掛ける装置である。また、情報処理装置2は、眼鏡型装置1を掛けたユーザの表情を出力する装置である。
図2は、眼鏡型装置1のハードウェア構成を示したブロック図である。眼鏡型装置1は、眼鏡のフレームと同じ形状のフレーム100、第1カメラ110L、第2カメラ110R、及び通信部120で構成されている。フレーム100のフロント部分には、眼鏡型装置1を掛けたユーザ側から見て左端に第1カメラ110Lが配置され、右端に第2カメラ110Rが配置されている。第1カメラ110Lと第2カメラ110Rはフレーム100に固定されているため、各カメラは常に顔から所定の距離範囲内に位置し、且つ、所定範囲内の方向から顔を撮影することとなる。第1カメラ110L及び第2カメラ110Rは、魚眼レンズと撮像素子を備えたデジタルカメラであり、第1カメラ110Lは、ユーザの顔の左側半分を撮影し、第2カメラ110Rは、ユーザの顔の右側半分を撮影する。第1カメラ110Lは、撮像素子によって得られた画像を示す第1画像信号を出力し、第2カメラ110Rは、撮像素子によって得られた画像を示す第2画像信号を出力する。
図3は、第1画像信号が表す画像の一例を示した図である。図3に示したように第1カメラ110Lから出力された第1画像信号は、ユーザの顔の左側半分を含む画像となる。同様に、第2カメラ110Rから出力される第2画像信号は、ユーザの顔の右側半分を含む画像となる。なお、実際には第1カメラ110L及び第2カメラ110Rでは、フレーム100も撮影されるが、図3においては図面が繁雑になるのを防ぐためにフレーム100の図示を省略している。
ここで、第1カメラ110Lと第2カメラ110Rの射影方式について、図4を用いて説明する。まず、各々直交するX軸、Y軸及びZ軸で表される3次元空間中において魚眼レンズの中心軸をZ軸とした仮想球面SSを想定する。ここで、Z軸とのなす角度がθであり、X軸とのなす角度がφであって仮想球面SSの原点に向かう光線が仮想球面SS上の点Pの座標(x,y,z)で交わるとする。点Pは、XY平面(撮像素子の画像平面)に射影され、その座標は、上記のθとφによって決まる。例えば、魚眼レンズの射影方式が正射影方式の場合、この光線は、XY平面上では図に示した点P1の位置に射影され、点P1の座標は(x,y,0)となる。また、原点から点P1までの距離をrとすると、r∝sinθとなり、円の中心付近の画像が大きく写り、円周付近ほど画像が小さくなる。なお、等距離射影方式の場合は、r∝θとなり、立体射影方式の場合は、r∝tan(θ/2)となる。いずれの場合においても、魚眼レンズで得られる画像は、中心射影方式の標準レンズで得られる画像とは異なる歪んだ画像となる。
図2に戻り、フレーム100のテンプル部分には、通信部120が配置されている。通信部120は、第1カメラ110L及び第2カメラ110Rに接続されている。通信部120は、第1カメラ110Lから出力された第1画像信号と、第2カメラ110Rから出力された第2画像信号を取得する。通信部120は、無線通信を行う通信インターフェースとして機能し、取得した第1画像信号と第2画像信号を無線通信により情報処理装置2へ送信する。
図5は、情報処理装置2のハードウェア構成を示した図である。情報処理装置2の各部は、バス200に接続されている。情報処理装置2の各部は、このバス200を介して各部間でデータのやり取りを行う。
通信部205は、無線通信や有線通信を行う通信インターフェースとして機能する。通信部205は、眼鏡型装置1の通信部120から送信される各画像信号を受信する。また、通信部205は、通信ケーブルで接続されたデジタルカメラなどの外部装置から画像データを取得する機能も有する。
表示部204は、表示装置として液晶ディスプレイ21を有しており、制御部201の制御の下、文字やグラフィック画面、情報処理装置2を操作するためのメニュー画面などを表示する。操作部203は、情報処理装置2を操作するための複数のキー22や、液晶ディスプレイ21の表面に配置された透明なタッチパッド23などである。情報処理装置2のユーザが、キー22を操作すると、操作されたキー22を示すデータが操作部203から制御部201へ出力される。また、情報処理装置2のユーザが、タッチパッド23に触れると、触れた位置を示すデータが操作部203から制御部201へ出力される。
記憶部202は、不揮発性メモリを有しており、制御部201が実行するプログラムや、ユーザの表情の出力を行う際に使用する各種データを記憶する。例えば、記憶部202は、表情を出力する機能を実現する表情認識プログラムを記憶する。また、記憶部202は、表情の認識を行う際に使用するキャリブリレーションデータCD、表情データベースDB、顔モデルデータMDを記憶する。なお、これらの各データの詳細については後述する。
制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えるマイクロコントローラである。情報処理装置2の電源が入れられると、制御部201は、ROMや記憶部202に記憶されたプログラムを実行する。プログラムを実行する制御部201は、各部を制御する制御手段として機能し、操作部203から出力されたデータを取得すると、取得したデータの内容に応じて各部を制御する。
また、制御部201が、表情認識プログラムを実行すると、眼鏡型装置1を掛けたユーザの表情を出力する機能が実現される。図6は、情報処理装置2において実現される機能の構成を示したブロック図である。
平面展開部211は、通信部205が取得した第1画像信号と第2画像信号を取得する。第1画像信号と第2画像信号が表す画像は、上述したように歪んだ画像であり、このように歪んだ画像では、表情の認識の際に目や鼻や眉、口などを特定するのが難しくなる。このため、平面展開部211は、第1画像信号が表す画像と、第2画像信号が表す画像を仮想平面において平面化した画像を生成する。なお、以下の説明においては、中心射影方式以外のレンズで得られた第1映像信号と第2映像信号の画像を仮想平面へ写像して平面化された画像を得ることを平面展開と称する。
ここで、平面展開について図7を用いて説明する。魚眼レンズで得た画像から平面化された画像を求めるためには、撮像素子の画像平面(XY平面)に対して、XY平面の画像が写像される平面(図7のUV平面)を仮想的に定義する。そして、UV平面を通過して仮想球面SSに交差した光線がXY平面上において射影される座標を計算する。なお、この計算に使用される計算式は、魚眼レンズの射影方式や魚眼レンズの仕様によって予め設定されている。
例えば、魚眼レンズが正射影方式である場合、UV平面上の点Qを通過し、Z軸とのなす角度がθ、X軸とのなす角度がφの光線が、仮想球面SS上の点Q1で仮想球面SSに交差すると、XY平面上では図に示した点Q2の位置に射影される。ここで、点Q2の座標(xf,yf,0)となるが、仮想球面SSの半径をRとすると、xfは、xf=Rsinθcosφで求められ、yfは、yf=Rsinθsinφで求められる。このように、UV平面上の点Qは、撮像素子の画像平面において点Q2にある画素に対応しているため、点Q2の画像をUV平面上に写像することにより、UV平面上の画素を得ることができ、定義したUV平面の全ての座標について、XY平面の対応する座標を写像すると、魚眼レンズの画像から仮想平面へ写像された画像を得ることができる。
図8は、第1画像信号が表す画像の一例を示した図であり、図9は、図8の画像を平面展開して得られた画像の一例を示した図である。図8に示したように、第1カメラ110Lで得られた画像において、UV平面がグレーで示された領域に射影される場合、この領域の画像をUV平面に写像すると、図9に示した画像が得られる。
射影変換部212は、平面展開部211で平面展開された画像から、ユーザの右眼、左眼、右眉、左眉及び口の各部を正面から撮影したときの画像を生成するものである。平面展開された各部の画像から正面の画像を得るには、ホモグラフィ行列と呼ばれる3×3の行列を利用する。なお、平面展開された画像の座標と正面の画像の座標との対応関係(変換式)を表すものを、計算モデルと呼ぶこととする。つまり、このホモグラフィ行列は、計算モデルの一種である。ホモグラフィ行列を用いた画像変換については、例えば、システム制御情報学会の学会誌である「システム/制御/情報」の第53巻第11号の「ビジュアルサーボ−II−コンピュータビジョンの基礎」に説明がある。ホモグラフィ行列を利用することで、顔を正面から撮影した画像を得ることができる。
なお、ホモグラフィ行列を求めるためには、顔の正面からの画像を予め撮影し、撮影した顔の正面からの画像と、平面展開された画像との対応関係を得る必要がある。ここで、対応関係とは、同一の点がそれぞれの画像上のどの位置に投影されているかを特定することである。この対応関係を得るため、第一実施形態では、図10に示した黒と白の矩形領域を持つチェッカーボードCKを利用する。なお、チェッカーボードCKを利用する利点としては、画像から抽出される抽出点であってチェッカーボードにおける特徴点の一例である格子点(黒と白の矩形領域の頂点)を容易に検出可能であり、2つの画像間で対応関係が求めやすく、各格子点が両方の画像上にあることが担保されている点などがある。
図10に示すチェッカーボードCKの場合、図10において白丸で示した12個の格子点を2つの画像において容易に求めることができるため、この対応関係から2つの画像間のホモグラフィ行列を求めることができる。なお、チェッカーボードCKを用いて2つの画像間の対応関係を求める方法として、Zhengyou Zhangによる「Flexible Camera Calibration By Viewing a Plane From Unknown Orientations」という論文に記載された方法があり、第一実施形態でもこの方法を用いてホモグラフィ行列を求める。
ホモグラフィ行列を求める際には、図10に示したように、まずユーザの顔において正面からの画像を得たい部分(例えば、左眼、右眼、右眉、左眉及び口)にチェッカーボードCKを貼付ける。チェッカーボードCKをユーザの顔に貼りつけたまま、標準レンズを備えたカメラで顔を正面から撮影すると、図10の画像が得られる。
次に、チェッカーボードCKを顔に貼りつけたまま、眼鏡型装置1を掛けてユーザの顔を撮影すると、第1カメラ110Lにおいては図11に示した画像が得られ、図11においてグレーで示した左眼部分の領域をUV平面に展開すると、図12に示した画像が得られる。同様に口の部分についても平面展開すると、口の部分を平面展開した画像が得られる。また、第2カメラ110Rにおいては、顔の右側の画像が得られ、この画像を平面展開すると右眼の部分と口の部分を平面展開した画像が得られる。なお、図11,12においては図面が繁雑になるのを防ぐため、右眉、左眉及び口に貼りつけられたチェッカーボードCKの図示を省略している。
このように、眼鏡型装置1のカメラと、顔の正面に配置したカメラとで同一のチェッカーボードCKを撮影した画像を得たあと、チェッカーボードCKの格子点の対応関係を求めると、平面展開した画像(図12)と、顔の正面の画像との間でホモグラフィ行列を求めることができる。このように事前にチェッカーボードCKを用いてホモグラフィ行列を求め、求めたホモグラフィ行列をキャリブレーションデータCDとして記憶部202に記憶させておく。この記憶されたホモグラフィ行列を用いれば、平面展開部211で平面展開された画像から、右眼、左眼、右眉、左眉及び口について正面からの画像を生成することができる。
図6に戻り、表情認識部213は、射影変換部212で生成された画像と、記憶部202に記憶された表情データベースDBに含まれているデータを用い、既知の表情認識アルゴリズムによって、表情(例えば、驚き、怒り、恐れ、嫌悪、悲しみ、幸福などの感情、及び目の瞬きや開き具合、眉の動き、口角の上がり具合などの顔を構成する部位の動き)を認識する。なお、既知の表情認識アルゴリズムとしては、表情筋の動きを利用するもの、顔の特徴点の移動量から推定するものなど種々のアルゴリズムがあり、表情データベースDBは、使用するアルゴリズムに対応したデータを含んでいる。
顔モデル合成部214は、記憶部202に記憶されている顔モデルデータMDと、表情認識部213で認識した表情に基づいて、顔の3次元モデルを生成する。顔モデルデータMDは、顔の正面写真やレンジスキャナなどから生成されたデータであり、ユーザの顔の3次元モデルを表すデータである。顔モデル合成部214は、表情認識部213で認識した表情に基づいて、顔モデルデータMDが表す3次元モデルを加工し、認識した顔の3次元モデルを生成する。ユーザの顔の3次元モデルを顔モデルデータMDとして記憶させておけば、3次元モデルの表情を眼鏡型装置1を掛けたユーザの表情にすることができる。なお、顔の正面写真から顔の3次元モデルを作成し、3次元モデルの表情を変更する技術としては、MotionPortrait(登録商標)と呼ばれる技術がある。顔モデル合成部214は、顔の3次元モデルを生成すると、生成した3次元モデルを表示部204に出力する。これにより、顔の3次元モデルが表示部204の液晶ディスプレイに表示される。
<動作>
次に、第一本実施形態の動作について説明する。なお、第一実施形態においては、大別すると、ユーザの表情の出力や3次元モデルの作成に使用するデータを準備する準備動作と、準備したデータを用いてユーザの表情の出力を行う出力動作とがある。以下の説明においては、まず準備動作について説明し、次に出力動作について説明する。
図13は、準備動作で行う処理の流れを示したフローチャートである。準備動作を行うよう指示する旨の操作が操作部203において行われると、図13に示した処理が実行される。まず、情報処理装置2は、顔モデルデータMDを得るため、ユーザの顔を正面から撮影した画像を取得する(ステップSA1)。具体的には、デジタルカメラでユーザの顔を正面から撮影し、撮影により得られた画像を通信部205がデジタルカメラから取得する。なお、この撮影で用いられるデジタルカメラのレンズは所謂標準レンズであり、取得した顔の画像は魚眼レンズで得られる画像と比較すると歪みの少ない画像となる。情報処理装置2は、外部装置から画像を取得すると、取得した画像を記憶部202に記憶する(ステップSA2)。
情報処理装置2は、顔の正面の画像を記憶すると、記憶した画像を用いて顔の3次元モデルを生成して記憶する(ステップSA3)。なお、3次元モデルを生成する際には、上述したMotionPortraitの技術を用いてもよい。この生成された3次元モデルは、顔モデルデータMDとして記憶部202に記憶される。
次に情報処理装置2は、ホモグラフィ行列を作成するための画像を取得する。まず、チェッカーボードCKをユーザの顔の左目、右目、右眉、左眉、口などの位置に貼付け、標準レンズのデジタルカメラでユーザの顔を正面から撮影する。情報処理装置2は、この撮影により得られた画像(図10)をデジタルカメラから取得し、取得した画像を記憶部202に記憶する(ステップSA4)。次にユーザが眼鏡型装置1を掛け、第1カメラ110Lと第2カメラ110RでチェッカーボードCKが貼られた顔を撮影する。情報処理装置2は、この撮影により得られた画像信号を眼鏡型装置1から無線通信によって通信部205で取得する(ステップSA5)。
情報処理装置2は、眼鏡型装置1から取得した画像信号の画像を液晶ディスプレイ21に表示する。ここでは、第1カメラ110Lで撮影した画像と第2カメラ110Rで撮影した画像の両方が表示される。次に、情報処理装置2の領域特定部216は、眼鏡型装置1から得られる画像において平面展開する領域を取得する(ステップSA6)。具体的には、表示された画像においてチェッカーボードCKを含む領域をユーザがタッチパッド23に触れて指定すると、この指定された領域が平面展開される領域として取得される。例えば、第1カメラ110Lで得た画像の場合、左眼を含む領域と、左眉を含む領域と、口を含む領域が指定され、第2カメラ110Rで得た画像の場合、右眼を含む領域と、右眉を含む領域と、口を含む領域が指定される。情報処理装置2は、この取得した領域を表す展開領域データをキャリブレーションデータCDとして記憶部202に記憶する(ステップSA7)。
ステップSA7が終了すると、情報処理装置2の平面展開部211は、ステップSA7で記憶した展開領域データに基づいて、眼鏡型装置1から取得した画像信号が表す画像を平面展開する(ステップSA8)。これにより、第1画像信号が表す画像においては、左眼の部分と口の部分が平面展開され、第2画像信号においては、右眼の部分と口の部分が平面展開される。
次に情報処理装置2は、ステップSA4で得た画像中にあるチェッカーボードCKの格子点と、ステップSA7で得た画像中にあるチェッカーボードCKの格子点を特定する(ステップSA9)。情報処理装置2は、ステップSA9の処理を終えると、ステップSA4で得た画像中にある格子点毎に、ステップSA7で得た画像において対応する格子点を特定する(ステップSA10)。例えば、図12の平面展開された左眼の部分の画像中の格子点P10Aは、図10の左眼の部分の格子点P10に対応する格子点として特定される。
情報処理装置2は、ステップSA10の処理が終了すると、ステップSA10で得た格子点の対応関係に基づいてホモグラフィ行列を算出し(ステップSA11)、求めたホモグラフィ行列をキャリブレーションデータCDとして記憶部202に記憶する(ステップSA12)。以上の動作により、表情の出力に用いるキャリブレーションデータCDと、3次元モデルの作成に用いる顔モデルデータMDとが記憶部202に記憶される。
次に、出力動作について説明する。図14は、出力動作で行う処理の流れを示したフローチャートである。ユーザの表情の出力を指示する旨の操作が操作部203において行われると、図14に示した処理が実行される。まず、チェッカーボードCKを顔から外したユーザが眼鏡型装置1を掛けると、第1カメラ110Lから出力された第1画像信号と、第2カメラ110Rから出力された第2画像信号が通信部120から送信され、通信部120から送信された各画像信号が通信部205で受信される(ステップSB1)。
画像信号が通信部205で受信されると、平面展開部211は、ステップSA7で記憶した展開領域データに基づいて、眼鏡型装置1から取得した画像信号が表す画像に対して平面展開を行う(ステップSB2)。例えば、第1カメラ110Lから得られた画像が図3の画像であり、第1カメラ110Lからの画像に対して左眼を含む領域と口を含む領域とが展開領域データとして記憶されている場合、左眼を含む領域を平面展開した画像と、口を含む領域を平面展開した画像が得られる。また、第2カメラ110Rからの画像に対して右眼を含む領域と口を含む領域とが展開領域データとして記憶されている場合、右眼を含む領域を平面展開した画像と口を含む領域を平面展開した画像とが得られる。
平面展開した画像が得られると、射影変換部212は、記憶部202に記憶されているキャリブレーションデータCDに含まれるホモグラフィ行列を使用し、平面展開された右眼の画像、平面展開された左眼の画像、及び平面展開された口の画像から、右眼を正面から見た画像、左眼を正面から見た画像、及び口を正面から見た画像を生成する(ステップSB3)。
右眼、左眼及び口について、正面から見た画像が得られると、表情認識部213は、得られた画像をステップSA2で記憶した画像に合成した画像を生成する(ステップSB4)。これにより、ステップSA2で記憶した顔の画像中の右眼、左眼及び口の部分が、ステップSB3で得た平面展開された画像に置き換えられる。
表情認識部213は、ステップSB4の処理が終了すると、ステップSB4で得た画像に後処理(ステップSB5)を施す。例えば、ステップSA2で得た画像と、眼鏡型装置1で得た画像とでは、撮影時に顔に当たる光が異なる場合があり、この場合、画像の色合いが異なる場合が生じ得る。この場合、ステップSA2で得た画像に平面展開された画像を合成すると、合成部分の境界が目立ってしまう場合がある。そこで、合成部分の境界部分にガウスフィルタやメディアンフィルタ等の低域通過フィルタをかけるという処理や、輝度や色(彩度、明度)の補正をかけるという処理を行うことで、境界部分を目立たせなくする。なお、第一実施形態においてはステップSB5の処理を行うことになっているが、ステップSB5の処理を行わないようにしてもよい。
表情認識部213は、ステップSB5の処理が終了すると、後処理によって得られた画像について、既知の表情認識アルゴリズムを用いて表情の認識を行う(ステップSB6)。表情の認識処理を行うことにより、ユーザの感情、目の開き具合、口の開き具合等の情報を得ることができる。ステップSB6でユーザの表情についての情報が得られると、顔モデル合成部214が、顔モデルデータMDを記憶部202から読み出し、顔モデルデータMDが表す顔の3次元モデルを表情認識部213で得られた情報を基にして加工する(ステップSB7)。これにより、表情認識部213で得た情報に対応した目の開き具合や口の開き具合の3次元モデルが生成される。顔モデル合成部214は、この生成された3次元モデルを表す画像を表示部204へ出力する(ステップSB8)。3次元モデルを表す画像が表示部204へ送られると、送られた3次元モデルの画像が液晶ディスプレイ21に表示される。
以上説明したように第一実施形態においては、準備動作でホモグラフィ行列を得た後は、ユーザの表情を認識するためのマーカを貼付けなくてもユーザの表情を出力することができ、ユーザが煩わしさを感じることがない。また、ユーザが顔の向きや位置を変更しても、眼鏡型装置1で顔を撮影し続けられるため、顔に対するカメラの相対的な位置が変わらず、ユーザの表情を常に出力することができる。また、情報処理装置2を眼鏡型装置1を掛けたユーザが操作すれば、ユーザは情報処理装置2で自分の表情を確認できる。
[第二実施形態]
次に本発明の第二実施形態について説明する。第二実施形態においては、第一実施形態と同じく眼鏡型装置1と情報処理装置2でユーザの表情を認識するが、情報処理装置2で表情を認識する際の動作が第一実施形態と異なる。このため、第一実施形態と同じ構成については、その説明を省略し、以下第一実施形態との相違点について説明する。
図15は、第二実施形態に係る情報処理装置2において実現する機能の構成と、記憶部202に記憶されるデータを示したブロック図である。図15に示したように、第二実施形態の制御部201においては、射影変換部212に替えて変換部215が実現する。また、記憶部202は、キャリブレーションデータCDに替えてテーブルTBを記憶する。
変換部215は、顔の正面画像や平面展開された画像において、画像から抽出される抽出点である目尻や目頭、眼の虹彩の上下左右の端を特徴点として特定し、特定した特徴点の画像中の座標を格納したテーブルTBを特徴点毎に作成する。
図16は、第二実施形態で行われる準備動作の処理の流れを示したフローチャートである。ステップSC1〜ステップSC3の処理は、ステップSA1〜ステップSA3までの処理と同じである。情報処理装置2は、ステップSC3の処理が終了すると、図17に示したように、顔の正面の画像において目尻や目頭、眼の虹彩の上下左右の端などを特徴点として特定する(ステップSC4)。また、顔の他の部位についても特徴点を特定する。
次に情報処理装置2は、特定した特徴点毎に識別子を付与し、各特徴点の座標を図18(a)に示したようにテーブルTBに格納する。なお、テーブルTBは、特徴点毎に作成されるため、特徴点の個数に応じてテーブルが作成される(ステップSC5)。
次に情報処理装置2は、ステップSC6で眼鏡型装置1から画像を取得した後、ステップSC7〜ステップSC9の処理を行う。ステップSC7〜ステップSC9の処理は、第一実施形態のステップSA6〜ステップSA8の処理と同じであるため、説明を省略する。情報処理装置2は、ステップSC9の処理が終了すると、平面展開された画像において、ステップSC4と同様に特徴点を特定し、平面展開された画像中における当該特定した特徴点の座標を求める(ステップSC10)。
次に情報処理装置2(変換部215)は、ステップSC4で特定した特徴点のうち、ステップSC10で特定した特徴点に対応する特徴点を特定し、特定した特徴点の座標と、ステップSC10で求めた座標とを対応付けてテーブルTBに格納する(ステップSC11)。
このステップSC1〜SC10の処理を、表情を変えて所定の回数行うことにより(ステップSC12でNO)、図18(a)に示したように、1つの特徴点について複数の座標を得ることができる。なお、ステップSC3,SC7,SC8の処理は、一度だけ実行されればよく、繰り返しの際には実行しないようにしてもよい。
これにより、例えば、図19に示したように、特徴点の一例である右眼の目頭(FP−a)については、平面展開された画像中の座標(図19の左側の画像中の座標(ax11,ay11))と、顔の正面からの画像中の座標(図19の右側の画像中の座標(ax21,ay21))とが対応付けてテーブルTB−aに格納される。そして、表情を変えてステップSC1〜SC10の処理を繰り返し実行することにより、図18に示したように右眼の目頭について複数の座標がテーブルTB−aに格納される。
また、特徴点の一例である右眉の眉尻(FP−b)については、平面展開された画像中の座標(図19の左側の画像中の座標(bx11,by11))と、顔の正面からの画像中の座標(図19の右側の画像中の座標(bx21,by21))とが対応付けてテーブルTB−bに格納される。右眉の眉尻についても、表情を変えてステップSC1〜SC10の処理を繰り返し実行することにより、図18に示したように複数の座標がテーブルTB−b格納される。
なお、第二実施形態ではテーブルTBを作成しているが、制御部201(変換部215)は、平面展開された画像の特徴点の座標から顔の正面画像における特徴点の座標を一意に求める演算式をテーブルTBを用いて求め、この演算式を記憶するようにしてもよい。この場合、演算式を求める処理がステップSC12の後に実行される。演算式は、テーブルTBの座標を入力として、例えば最小二乗法などの手法を用いて求めれば良い。この演算式を用いると、平面展開された画像の特徴点座標を与えれば、正面画像においてこの特徴点に対応する特徴点の座標が計算によって一意に求まる。なお、第二実施形態においては、平面展開された画像の特徴点座標と正面画像における特徴点座標との対応関係を表すテーブル及び演算式を、まとめて計算モデルと呼ぶこととする(ここでのモデルは、顔モデルや3次元モデルの意味合いとは異なる)。
ところで、個人によって顔の造りは異なるため、特徴点の座標は個人によって異なることとなる。このため、基本的には、計算モデルは個人毎に作成したものを使用するのが望ましい。しかしながら、ユーザが替わる度にユーザに対応した計算モデルを作成するのは手間のかかる作業である。そこで、各特徴点について基準となる表情(例えば無表情)からの相対的な動きベクトルを求め、計算モデルを一般化してもよい。以下、動きベクトルを用いる態様について、右眉の眉尻(特徴点FP−b)に注目し、図18(b)を用いて説明する。
正面画像における右眉の眉尻の座標(bx21,by21)を基準となる表情における特徴点座標とすると、この特徴点の座標は、表情を変えることにより(bx2n,by2n)に変化する(nは任意の数)。次に、基準座標からの動きベクトル(bx2n−bx21,by2n−by21)を取る。ここで、例えば眉尻を上げた表情ではby2n−by21は正の値をとり、眉尻を下げた表情では、by2n−by21は負の値をとる。また、眉尻が顔の左右方向の中央側に寄った表情ではbx2n−bx21は正の値となる。このように正の値をとるか負の値をとるかは、個人の顔の造りに関係なく、どのユーザであっても同じとなる。そこで、図18(a)に示した座標を利用したテーブルTB−bを動きベクトルに着目して作成し直すと、図18(b)に示したテーブルTB−bVを得ることができる。これにより、座標を格納したテーブルで作成していた計算モデルを、テーブルTB−bVから再構築することができる。
例えば、ユーザAについて作成したテーブルTB−aから予め計算モデルを求めた場合、ユーザBの右眉の眉尻について正面の顔画像の座標を求める際に、ユーザAにおいて求めた計算モデルを使用すると、個人の顔の造りに起因する計算モデルの違いにより、正面画像における正確な座標を得るのは難しい。しかしながら、動きベクトルを格納したユーザAのテーブルTB−bVから作成した計算モデルを予め求めておくと、ユーザBの基準となる表情からの動きベクトルを得ることができ、テーブルTB−bVを作成した時のユーザと異なるユーザが眼鏡型装置1を使用している場合であっても、顔の正面画像における特徴点の位置をより正確に得ることができる。
具体的には、例えばユーザAとユーザBが同様の表情(例えば、眉尻を上げる)をした場合には、両者とも眉尻を上げると、UV平面におけるV方向のベクトルは正の値をとり、U1V1平面においてV1方向のベクトルが正の値をとることは明らかである。つまり、動きベクトルを格納したテーブルによって作成された計算モデルを用いることにより、顔の造りに起因する個人差を低減し、より正確に、正面の顔画像における特徴点の位置を求めることが出来る。
このため、計算モデルを求めるためのステップSC1〜SC12の処理は、動きベクトルを格納したテーブルを用いることにより、表情の認識を行うユーザ毎に実施する必要がなく、特徴点の座標を求めるのは、ユーザAで作成したテーブルを用いて作成された計算モデルを用いればよい。つまり、表情認識を行うユーザが替わる度に計算モデルを作成しなくてもよく、ユーザの手間を省くことができる。
なお、ユーザの表情認識の際に、予め作成された計算モデルを用いる場合は、表情認識開始時に基準となる表情(例えば無表情)をした場合の特徴点の座標(動きベクトルの基準座標)を記録しておくだけで、ステップSC1〜SC12の処理を行わずに、以下に説明する出力動作へすぐに進むことが可能となる。
次に、第二実施形態における出力動作について、図20のフローチャートを用いて説明する。ステップSD1,SD2の処理は、第一実施形態のステップSB1,SB2の処理と同じである。情報処理装置2は、ステップSD2の処理が終了すると、平面展開した画像中の特徴点を特定する(ステップSD3)。
次に情報処理装置2(変換部215)は、図16の処理で作成された計算モデル(特徴点の座標を格納したテーブルまたは動きベクトルを格納したテーブル、またはそれらのテーブルから作成された演算式)から、ステップSD3で特定した特徴点について、顔の正面画像における特徴点の座標を求める(ステップSD4)。例えば、表情が変化し、平面展開された画像において、表情の変化により目頭の位置が移動している場合、テーブルTB−aに格納されている目頭の座標((ax11,ay11)と(ax21,ay21))あるいは、動きベクトルの対応関係を表す計算モデルから、顔の正面画像における変化後の表情の目頭の座標を求める。
なお、テーブルを用いて特徴点の座標を求める場合、ステップSD3で特定された特徴点の座標と全く同じ座標が事前に準備したテーブルに格納されているとは限らず、この場合は正面画像における特徴点の座標が一意に求まらない。よってテーブルを用いる場合は、テーブルに格納されている座標から、ステップSD3で特定した座標に最も近い座標を検索し、その座標を参照することで正面画像における特徴点の座標を一意に求めることができる。なお、最も近い1つの座標のみではなく、近傍の複数の座標を参照して線形補間を行なって求めても良い。つまり、図16で示した処理の繰り返し数が多いほど、ステップSD4で求める座標の精度も向上すると言える。
情報処理装置2は、ステップSD4で求めた特徴点の座標から、変化後の表情を認識する(ステップSD5)。そして、情報処理装置2は、認識した表情に基づいて顔の3次元モデルを加工し(ステップSD6)、加工後の3次元モデルを出力する(ステップSD7)。
この第二実施形態によれば、チェッカーボードCKやホモグラフィ行列を用いなくてもユーザの表情を出力することができる。なお、表情を認識する際には、ステップSD4で求めた座標に基づいて顔の特徴点の移動を認識し、顔の正面画像に対してモーフィングを行うことで顔の正面画像を得るようにし、得られた画像から表情を認識するようにしてもよい。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した第一及び第二実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよく、各変形例を組み合わせて実施してもよい。
上述した第一実施形態においては、左眉及び右眉にチェッカーボードを貼付け、ホモグラフィ行列を求めているが、左眉及び右眉にはチェッカーボードを貼り付けず、右眼、左眼及び口にのみチェッカーボードを貼りつけてホモグラフィ行列を求めるようにしてもよい。また、第二実施形態においては、左眉及び右眉については特徴点を特定しないようにしてもよい。また、第一実施形態においては、両眉と両眼にチェッカーボードを貼付け、口にはチェッカーボードを貼り付けずにホモグラフィ行列を求めるようにしてもよく、第二実施形態においては、両眉と両眼については特徴点を抽出し、口については特徴点を抽出しないようにしてもよい。要するに表情の認識においては、各実施形態の構成に限定されず、表情の認識に用いる顔の部位を予め定め、この定めた部位で表情を認識できればよい。
上述した第一及び第二実施形態においては、第1カメラ110L及び第2カメラ110Rは、魚眼レンズを備えているが、各カメラが備えるレンズは魚眼レンズに限定されるものではなく、ユーザの眼、眉、鼻及び口を撮影できる画角のものであれば他のレンズであってもよい。
また、上述した第一及び第二実施形態においては、ユーザの顔を撮影するカメラは眼鏡の形状をした装置に設けられているが、カメラが設けられる装置の形状は、眼鏡の形状に限定されるものではない。例えば、ヘッドフォンとマイクが一体となったヘッドセットにカメラが設けられていてもよい。図21は、本変形例に係るヘッドセット3の一例を示した図である。
ヘッドセット3は、ヘッドフォン301を備えている。また、ヘッドセット3は、アーム302を備え、アーム302の先端にマイクロフォン303とカメラ304を備えている。また、ヘッドセット3は、カメラ304に接続された通信部320を備えている。なお、通信部320の構成は、通信部120と同じである。この構成においても、カメラ304でユーザの顔を撮影し、カメラ304で得た画像を情報処理装置2へ送ることができる。なお、ヘッドセット3においては、左右両方にアーム302を設け、ユーザの左手側のアーム302に第1カメラ110Lを配置し、ユーザの右手側のアーム302に第2カメラ110Rを配置してもよい。
また、上述した第一及び第二実施形態においては、顔モデル合成部214は、3次元モデルを表す画像を表示部204へ出力しているが、3次元モデルを表す画像を通信部205を介して他の情報処理装置へ送信してもよい。例えば、テレビ電話においてはユーザの顔を撮影した画像が通話相手に送られるが、朝の目覚めた直後などにあっては、カメラで撮影された顔の画像を相手に見られたくない場合がある。このような場合、表情認識プログラムを携帯電話機で実行し、眼鏡型装置1を掛けて3次元モデルを表す画像を通話相手の装置へ送信すれば、素の顔を通話相手に見られずに3次元モデルによって表情を伝えることができるため、感情を通話相手に伝えることができる。
また、携帯電話機においては、テレビ電話でユーザの顔の画像を通話相手に送ることができるが、ユーザは携帯電話機を手に持って顔を撮影し続けなければならず、静止した状態でないと、顔の画像を送り続けるのが難しい。しかしながら本変形例によれば、ユーザが動いても顔を撮影し続けられるため、動きながらでも通話相手にユーザの表情を伝えることができる。また、本発明によれば、携帯電話機がカメラを備えていなくてもユーザの表情を出力できるため、カメラを備えていない携帯電話機でもユーザの表情を通話相手に送ることができる。
上述した第一実施形態においては、チェッカーボードCKをユーザの顔に張り付けていたが、フレーム100にプロジェクタを設け、チェッカーボードCKを貼り付ける代わりに、このプロジェクタでチェッカーボードCKの模様をユーザの顔に投影してもよい。この構成によれば、準備動作においてチェッカーボードCKをユーザの顔に貼り付ける必要がなくなり、準備動作にかかる手間を少なくすることができる。
上述した第一及び第二実施形態においては、第1カメラ110Lと第2カメラ110Rで得た画像を基に3次元の顔モデルを生成しているが、首から上にある部分(以下、頭部と称する)の状態を検知するセンサなど、カメラ以外の装置も用いて3次元の顔モデルを生成してもよい。
例えば、音を検出するセンサの一例であるマイクロフォンによって収音した音声を認識し、認識した音声を発音した時の口の画像を表示するリップシンクと呼ばれる技術がある。本発明において眼鏡型装置1にマイクロフォンを設け、リップシンクによって頭部の状態の一例である口の形状を特定し、特定した口の形状となるように顔の3次元モデルを加工してもよい。本変形例によれば、口角部分の細かい動きを再現することができる。また、眼鏡型装置1で口付近の撮影が難しい場合、ユーザが言葉を発している際には口の動きを認識することが可能となるので、眼鏡型装置1が取得した眼付近の画像と組み合わせることにより表情の認識を行うことができる。
また、頭部の脈波や脳波を検出するセンサを眼鏡型装置1に設け、これらのセンサから得られた情報を解析してユーザの身体的な状態や心理的な状態を特定し、特定した状態に対応した表情になるように顔の3次元モデルを加工してもよい。
また、眼鏡型装置1に加速度センサやジャイロセンサを設け、ユーザの顔の向きや傾きなど頭部の状態を測定し、出力する顔の3次元モデルの向きや傾きを、測定した顔の向きや傾きに対応して変更するようにしてもよい。この変形例によれば、出力する顔の3次元モデルを横顔やかしげたものにすることができる。また、ユーザが動くことによって眼鏡型装置1で取得される画像がブレることも想定されるが、このブレの影響を除去するために加速度センサの検出結果を用いてブレを特定し、画像のブレを補正するようにしてもよい。なお、画像のブレを補正するには、加速度センサを用いる方法に限定されるものではなく、画像処理によってブレを補正してもよい。
上述した第一実施形態においては、眼鏡型装置1から得た画像を平面展開して顔の正面からの画像に合成し、この合成により得た画像から表情を認識しているが、第1カメラ110Lの画像と第2カメラ110Rの画像を平面展開し、この平面展開された画像から表情を認識するようにしてもよい。例えば、複数の表情毎に平面展開された顔の各部の特徴を表情データベースDBに格納しておけば、平面展開された画像から表情を認識し、表情を認識することができる。
なお、この変形例においては、平面展開で得られる画像は、顔を正面から撮影した画像ではなく、例えば図9に示した画像となる。つまり、顔を正面以外の斜め方向又は横方向から撮影した画像となる。このため、表情の認識については、顔を正面から撮影した画像を解析して表情を認識するアルゴリズムではなく、顔を斜め又は横方向から撮影した画像を解析して表情を認識するアルゴリズムを使用する。
この変形例によれば、ホモグラフィ行列と、ホモグラフィ行列を使用した処理が不要となるため、制御部201において行われる処理を少なくすることができる。
上述した第一実施形態においては、ユーザの表情を認識し、認識した表情の3次元モデルを出力しているが、ステップSB4またはステップSB5で得た画像を出力するようにしてもよい。この変形例によれば、表情の認識や3次元モデルの生成の処理が行われないため、制御部201において行われる処理を少なくすることができる。
上述した第一及び第二実施形態においては、フレーム100に設けられるカメラの数が2となっているが、フレーム100のフロント部の中央部分に魚眼レンズを備えるカメラを設け、このカメラでもユーザの顔を撮影してもよい。また、各カメラの向きは、固定する構成に限定されるものではなく、適宜調整できるようにしてもよい。また、第1カメラ110Lまたは第2カメラ110Rの一方のみをフレーム100に設け、一方で撮影した眼の画像を平面展開して顔の正面からの画像に合成し、表情を認識するようにしてもよい。この場合、片目のみを閉じる等の表情に関しては正しく表情を認識することはできないが、顔の左半分と右半分とが同一の動きをすると仮定した場合には表情を認識することができる。
上述した第一及び第二実施形態においては、顔の3次元モデルを出力しているが、出力するのは顔の3次元モデルに限定されるものではない。例えば、眼鏡型装置1に設けたカメラでユーザの腕や足を撮影してユーザの腕や足の位置を特定し、特定した位置に腕や足がある3次元モデルを生成して出力するようにしてもよい。
上述した第一実施形態において画像中の特徴点を特定する方法を採用した場合、取得した画像中において矩形のチェッカーボードCKの頂点を特定してチェッカーボードCKの領域を特定し、この特定した領域を平面展開する領域を表す展開領域として記憶するようにしてもよい。
上述した第一及び第二実施形態においては、平面展開する領域をユーザが指定しているが、平面展開する領域は、ユーザの指定した領域に限定されるものではない。ユーザによって個人差はあるものの、眼鏡型装置1の各カメラで得られる画像においては、眼や口の位置は一定の領域内に入ることとなる。このため、各カメラから得られる画像中の予め定められた領域を平面展開する領域として予め記憶しておくようにしてもよい。
上述した第一及び第二実施形態においては、表情認識プログラムを実行する制御部を眼鏡型装置1に設けるようにしてもよい。図22は、本変形例に係る眼鏡型装置のハードウェア構成を示したブロック図である。制御部130は、CPU、ROM及びRAMを備えるマイクロコントローラであり、ROMに表情認識プログラムを記憶している。また、記憶部140は、記憶部202と同じデータを記憶している。表情認識プログラムが制御部130において実行されると、平面展開部211、射影変換部212、表情認識部213及び顔モデル合成部214が実現され、情報処理装置2と同様に各カメラの画像を基に顔の3次元モデルを出力することができる。
また、上述した第一及び第二実施形態においては、眼鏡型装置1と情報処理装置2とが別々の装置となっているが、眼鏡型装置1の通信部120と情報処理装置2の通信部205とを通信ケーブルで接続し、一体の表情出力装置としてもよい。さらには、眼鏡型装置1にヘッドマウントディスプレイなどの表示装置を設けた構成としてもよい。この場合、例えばテレビ電話に利用すると、通話中の双方が眼鏡型装置1を装着することで自分の表情を通話相手に送信することができる。また、通話相手の眼鏡型装置1から送られた画像をヘッドマウントディスプレイに表示すれば、通話相手の表情も確認することができ、手を使用せずにテレビ電話を行うことができる。
上述した第1及び第二実施形態においては、情報処理装置2において表情認識プログラムが実行され、情報処理装置2で表情を認識しているが、表情を認識する装置は表情認識装置に限定されるものではない。
例えば、コンピュータネットワーク上のサーバ装置において表情認識プログラムを実行し、サーバ装置において表情の認識や3次元モデルの作成を行い、作成された3次元モデルを情報処理装置2が受信して表示してもよい。
また、情報処理装置2とサーバ装置との役割分担は、この態様に限定されるものではなく、表情の認識をサーバ装置で行い、3次元モデルの作成を情報処理装置2で行うようにしてもよい。これらの構成によれば、情報処理装置2で実行する処理の量を減らすことができる。
上述した第二実施形態においては、平面展開された画像における特徴点と、顔の正面の画像における特徴点との対応を特定している。そして、平面展開した画像で特徴点の位置が変化している場合には、顔の正面の画像における特徴点の位置を変化させ、変化後の表情を認識しているが、この構成に限定されるものではない。
図23は、本変形例に係る準備動作の処理の流れを示したフローチャートである。図23において、ステップSE1〜ステップSE10までの処理は、ステップSC1〜ステップSC10までの処理と同じであるので、その説明を省略する。
情報処理装置2は、ステップSE10の処理が終了すると、ステップSE4で特定した特徴点のうち、ステップSE10で特定した特徴点に対応する特徴点を特定し、特定した特徴点の座標と、ステップSC10で求めた座標との対応関係を特定する(ステップSE11)。
情報処理装置2は、ステップSE11の処理が終了すると、平面展開された画像を顔の正面の画像に変換するための射影変換行列を算出する(ステップSE12)。具体的には、情報処理装置2は、図24の左側に示したように、平面展開した画像中の特徴点を結んで複数の三角形の領域を生成し、図24の右側に示したように、顔の正面の画像中の特徴点を結んで複数の三角形の領域を生成する。そして、平面展開された画像中の領域毎に、対応する領域を顔の正面の画像中において特定し、平面展開された画像中の領域と、正面の画像中の領域との対応を表す射影変換行列を算出する。
情報処理装置2は、ステップSE12の処理が終了すると、算出した射影変換行列を記憶部202に記憶させる(ステップSE13)。
図23の処理で射影変換行例を記憶すると、情報処理装置2の出力動作は以下の動作となる。情報処理装置2は、平面展開された画像で特徴点を特定した後、特定した特徴点を結んで三角形の領域を生成し、各三角形の領域の画像を、記憶した射影変換行列を用いて顔の正面の画像に変換する。そして、情報処理装置2は、変換後の顔の正面の画像から変化後の表情を認識する(ステップSD5)。
この変形例によれば、平面展開された画像において特徴点を結んで得られる領域を、顔の正面の画像に変換するため、撮影して得られた画像が顔の正面の画像に反映され、表情の認識が容易となる。
上述した実施形態においては、顔の正面の画像をもとに顔の3次元モデルを加工しているが、この構成に限定されるものではない。例えば、第一実施形態においてステップSB7で顔の3次元モデルを加工する際、ステップSB4で得られた画像から図25に示した四角形の領域Aを抽出し、抽出した画像を合成して得られる3次元モデルを出力するようにしてもよい。また、第二実施形態においてステップSD6で顔の3次元モデルを加工する際、ステップSD4で得られた画像から図25に示した四角形の領域Aを抽出し、抽出した画像を合成して得られる3次元モデルを出力するようにしてもよい。この変形例によれば、カメラで撮影した映像を3次元モデルに合成するため、写実的なモデルを出力することができる。
なお、上記変形例のように、顔の正面の画像から特定の領域を抽出して3次元モデルに合成する場合、抽出した領域と、抽出した領域が合成される3次元モデルの画像とでは、3次元モデルを作成したときに用いたカメラと、眼鏡型装置1に設けられているカメラが違うため、輝度に差が生じる場合がある。
このため、上記変形例のように、顔の正面の画像から特定の領域を抽出して3次元モデルに合成する場合、顔の正面の画像から抽出して得た画像の輝度と、3次元モデルの画像の輝度とが近くなるように、各画像の輝度を調整するようにしてもよい。この変形例によれば、輝度の違いを抑えることにより、顔の正面の画像から抽出して得た画像と3次元モデルの画像との境界部分について、ユーザが違和感を覚えるのを抑えることができる。
また、顔の正面の画像から抽出して得た画像と、3次元モデルの画像とを合成する際、例えばアルファブレンドで合成するようにしてもよい。さらに、アルファブレンドを行う場合には、部位毎にブレンドの割合を異ならせてもよく、例えば、眼球の部分と肌の部分とでブレンドの割合を異ならせてもよい。この変形例によれば、顔の正面の画像から抽出して得た画像を単純に3次元モデルの画像に重ねて合成する場合と比較して、顔の正面の画像から抽出して得た画像と3次元モデルの画像との境界部分について、ユーザが違和感を覚えるのを抑えることができる。
また、顔の正面の画像から抽出して得た画像と、3次元モデルの画像とを合成する際、境界部分については、ブレンドの割合を滑らかに変化させるようにしてもよい。この変形例でも、顔の正面の画像から抽出して得た画像を単純に3次元モデルの画像に重ねて合成する場合と比較して、顔の正面の画像から抽出して得た画像と3次元モデルの画像との境界部分について、ユーザが違和感を覚えるのを抑えることができる。

Claims (10)

  1. 頭部に装着されるフレームと、
    前記フレームに設けられ、当該フレームを装着したユーザの顔の画像を所定方向から撮影する撮影部と、
    前記撮影部で撮影された画像中にある顔の所定部位の座標を、前記顔を前記撮影部の射影方式とは異なる射影方式で前記所定方向とは異なる別方向から撮影した時の画像中の座標に変換する変換部と、
    前記変換部で変換された座標に基づいて前記ユーザの表情を認識する認識部と、
    前記認識部で認識された表情を表す画像を出力する出力部と
    を有する表情出力装置。
  2. 前記フレームは、眼鏡のフレームの形状であり、
    前記撮影部の画角は、撮影された画像中に少なくとも前記顔にある予め定められた部位の画像が入る画角であり、
    前記出力部が出力した画像を他の装置へ送信する送信部
    を有することを特徴とする請求項1に記載の表情出力装置。
  3. 前記変換部は、前記所定部位の画像を予め定められた平面に写像し、前記平面に写像された前記所定部位の画像中の座標を、前記所定部位を前記別方向から見た画像中の座標に変換すること
    を特徴とする請求項1または請求項2に記載の表情出力装置。
  4. 前記認識部は、前記変換部で変換された後の画像中の顔の向きに対応したアルゴリズムにより表情を認識すること
    を特徴とする請求項1乃至請求項3のいずれか一項に記載の表情出力装置。
  5. ユーザにより操作される操作部と、
    前記操作部にされた操作に基づいて、前記撮影部で撮影された画像内において指定された領域を特定する領域特定部とを有し、
    前記変換部は、前記撮影部で撮影された画像のうち前記領域特定部で特定された領域内の画像を変換すること
    を特徴とする請求項1乃至請求項4のいずれか一項に記載の表情出力装置。
  6. 前記撮影部の射影方式とは異なる射影方式で予め前記別方向から撮影した前記顔の画像を記憶する記憶部を備え、
    前記変換部は、前記撮影部で撮影された前記顔の画像中にある特徴点のうち、前記記憶部に記憶された前記顔の画像中にある特徴点に対応する特徴点を特定し、
    当該特定した特徴点の画像中における座標と、前記記憶された画像中の座標であって、当該特定した特徴点に対応する特徴点の座標とに基づいて、前記撮影部で撮影された画像中の座標を前記別方向から撮影した画像中の座標に変換する計算モデルを求めること
    を特徴とする請求項1乃至請求項5のいずれか一項に記載の表情出力装置。
  7. 前記撮影部の射影方式とは異なる射影方式で予め前記別方向から撮影した前記顔の画像を記憶する記憶部を備え、
    前記変換部は、前記撮影部で撮影された前記顔の画像中にある特徴点を結んで得られる領域に対応する領域を、前記記憶部に記憶された前記顔の画像中において特定し、前記撮影部で撮影された前記顔の画像中にある特徴点を結んで得られる領域と、該特定した領域とに基づいて、前記撮影部で撮影された前記顔の画像中にある特徴点を結んで得られる領域の画像を、前記別方向から撮影した画像に変換する計算モデルを求めること
    を特徴とする請求項1乃至請求項5のいずれか一項に記載の表情出力装置。
  8. 前記変換部は、前記撮影部で撮影された画像中にある前記所定部位の画像を前記計算モデルを用いて変換し、変換後の前記所定部位の画像を前記記憶された画像中の前記所定部位の位置に合成すること
    を特徴とする請求項6又は請求項7に記載の表情出力装置。
  9. 前記フレームは、前記ユーザの頭部の状態を検出するセンサを有し、
    前記認識部は、前記変換部で変換後の画像と前記センサの検出結果とを用いて前記ユーザの表情を認識すること
    を特徴とする請求項1乃至請求項8のいずれか一項に記載の表情出力装置。
  10. 頭部に装着されるフレームに設けられ、当該フレームを装着したユーザの顔を所定方向から撮影する撮影部で撮影された前記ユーザの顔の画像を取得する取得ステップと、
    前記取得ステップで取得された画像中にある顔の所定部位の画像を、前記撮影部の射影方式とは異なる射影方式で前記所定方向とは異なる別方向から撮影した画像に変換する変換ステップと、
    前記変換ステップで変換後の画像から前記ユーザの表情を認識する認識ステップと、
    前記認識ステップで認識された表情を表す画像を出力する出力ステップと
    を有する表情出力方法。
JP2013545828A 2011-11-24 2012-09-25 表情出力装置及び表情出力方法 Active JP5632100B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013545828A JP5632100B2 (ja) 2011-11-24 2012-09-25 表情出力装置及び表情出力方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011256064 2011-11-24
JP2011256064 2011-11-24
PCT/JP2012/074595 WO2013077076A1 (ja) 2011-11-24 2012-09-25 表情出力装置及び表情出力方法
JP2013545828A JP5632100B2 (ja) 2011-11-24 2012-09-25 表情出力装置及び表情出力方法

Publications (2)

Publication Number Publication Date
JP5632100B2 JP5632100B2 (ja) 2014-11-26
JPWO2013077076A1 true JPWO2013077076A1 (ja) 2015-04-27

Family

ID=48469533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013545828A Active JP5632100B2 (ja) 2011-11-24 2012-09-25 表情出力装置及び表情出力方法

Country Status (5)

Country Link
US (1) US20140254939A1 (ja)
EP (1) EP2800351A4 (ja)
JP (1) JP5632100B2 (ja)
CN (1) CN103339926A (ja)
WO (1) WO2013077076A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11309081B2 (en) 2010-10-13 2022-04-19 Gholam A. Peyman Telemedicine system with dynamic imaging
US10456209B2 (en) 2010-10-13 2019-10-29 Gholam A. Peyman Remote laser treatment system with dynamic imaging
WO2019014521A1 (en) * 2017-07-13 2019-01-17 Peyman Gholam A DYNAMIC IMAGE RECOGNITION SYSTEM FOR SECURITY AND TELEMEDICINE
KR20150092220A (ko) * 2012-11-29 2015-08-12 스티븐 체이스 비디오 헤드폰들, 시스템, 플랫폼, 방법들, 장치들 및 미디어
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
US10318833B2 (en) * 2015-01-16 2019-06-11 Puneet Agarwal System and method for person identification and personality assessment based on EEG signal
CN113139104B (zh) * 2015-02-13 2023-12-15 索尼公司 信息处理系统和控制方法
WO2016182504A1 (en) * 2015-05-08 2016-11-17 Chow Bryan Shwo-Kang A virtual reality headset
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
ITUB20152522A1 (it) * 2015-07-27 2017-01-27 Linkverse S R L Apparato e metodo per la rilevazione, quantificazione e classificazione di lesioni epidermiche
US10276210B2 (en) 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
EP3193305B1 (en) * 2016-01-12 2018-09-12 Continental Automotive GmbH Method and device for displaying a front-view of a vehicle's surrounding and respective vehicle
JP6845982B2 (ja) * 2016-01-13 2021-03-24 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
US10976549B2 (en) * 2016-09-28 2021-04-13 Magic Leap, Inc. Face model capture by a wearable device
JP7090601B2 (ja) 2016-10-05 2022-06-24 マジック リープ, インコーポレイテッド 複合現実較正のための眼球周囲試験
US10565790B2 (en) * 2016-11-11 2020-02-18 Magic Leap, Inc. Periocular and audio synthesis of a full face image
CN106649712B (zh) * 2016-12-20 2020-03-03 北京小米移动软件有限公司 输入表情信息的方法及装置
US11368664B2 (en) * 2017-01-20 2022-06-21 Sony Corporation Information processing apparatus, information processing method, and program
JP6839771B2 (ja) 2017-04-20 2021-03-10 スノー コーポレーション 補正パターン分析による映像補正方法およびシステム
CN107479801B (zh) * 2017-07-31 2020-06-02 Oppo广东移动通信有限公司 基于用户表情的终端显示方法、装置及终端
KR102564855B1 (ko) 2018-01-08 2023-08-08 삼성전자주식회사 표정 변화에 강인한 객체 및 표정 인식 장치 및 방법, 객체 및 표정 트레이닝 장치 및 방법
US10775618B2 (en) 2018-03-16 2020-09-15 Magic Leap, Inc. Facial expressions from eye-tracking cameras
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
TW202014992A (zh) * 2018-10-08 2020-04-16 財團法人資訊工業策進會 虛擬臉部模型之表情擬真系統及方法
CN109920347B (zh) * 2019-03-05 2020-12-04 重庆大学 一种基于磁性液体的动作或表情模拟装置和方法
CN113065479A (zh) * 2021-04-09 2021-07-02 四川虹微技术有限公司 一种基于桌面真三维显示的人脸识别方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261706A (ja) * 1999-03-10 2000-09-22 Brother Ind Ltd ヘッドマウントカメラ
JP2002247446A (ja) * 2001-02-16 2002-08-30 Minolta Co Ltd デジタル撮影装置、撮影装置、画像処理装置および記録媒体
JP2003198886A (ja) * 2001-12-28 2003-07-11 Sony Corp 情報処理システム
JP2005046305A (ja) * 2003-07-28 2005-02-24 Sony Corp 会話補助装置、会話補助システム、会話補助方法、情報伝達装置、情報伝達システム、情報伝達方法、制御装置、制御システムおよび制御方法
JP2008011456A (ja) * 2006-06-30 2008-01-17 Olympus Corp 撮像装置
JP2008230296A (ja) * 2007-03-16 2008-10-02 Mazda Motor Corp 車両用運転支援システム
JP2009253931A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 電子データ編集装置、電子データ編集方法及びプログラム
JP2010217984A (ja) * 2009-03-13 2010-09-30 Tottori Univ 像検出装置及び像検出方法
JP2010245901A (ja) * 2009-04-07 2010-10-28 Dainippon Printing Co Ltd 画像処理装置及び画像処理方法等

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3926059B2 (ja) * 1999-05-12 2007-06-06 日本電気株式会社 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
JP2005182375A (ja) 2003-12-18 2005-07-07 Nissan Motor Co Ltd 運転者表情認識装置
JP5362357B2 (ja) 2005-08-26 2013-12-11 ソニー株式会社 顔の動きのデータの撮影及び処理
US7606392B2 (en) * 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
JP4629131B2 (ja) * 2008-09-03 2011-02-09 大日本印刷株式会社 画像変換装置
US9325972B2 (en) * 2008-09-29 2016-04-26 Two Pic Mc Llc Actor-mounted motion capture camera
US20110169932A1 (en) * 2010-01-06 2011-07-14 Clear View Technologies Inc. Wireless Facial Recognition

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261706A (ja) * 1999-03-10 2000-09-22 Brother Ind Ltd ヘッドマウントカメラ
JP2002247446A (ja) * 2001-02-16 2002-08-30 Minolta Co Ltd デジタル撮影装置、撮影装置、画像処理装置および記録媒体
JP2003198886A (ja) * 2001-12-28 2003-07-11 Sony Corp 情報処理システム
JP2005046305A (ja) * 2003-07-28 2005-02-24 Sony Corp 会話補助装置、会話補助システム、会話補助方法、情報伝達装置、情報伝達システム、情報伝達方法、制御装置、制御システムおよび制御方法
JP2008011456A (ja) * 2006-06-30 2008-01-17 Olympus Corp 撮像装置
JP2008230296A (ja) * 2007-03-16 2008-10-02 Mazda Motor Corp 車両用運転支援システム
JP2009253931A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 電子データ編集装置、電子データ編集方法及びプログラム
JP2010217984A (ja) * 2009-03-13 2010-09-30 Tottori Univ 像検出装置及び像検出方法
JP2010245901A (ja) * 2009-04-07 2010-10-28 Dainippon Printing Co Ltd 画像処理装置及び画像処理方法等

Also Published As

Publication number Publication date
JP5632100B2 (ja) 2014-11-26
EP2800351A1 (en) 2014-11-05
CN103339926A (zh) 2013-10-02
US20140254939A1 (en) 2014-09-11
EP2800351A4 (en) 2016-06-01
WO2013077076A1 (ja) 2013-05-30

Similar Documents

Publication Publication Date Title
JP5632100B2 (ja) 表情出力装置及び表情出力方法
US11693242B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
JP6742405B2 (ja) 表情検出機能を備えたヘッドマウントディスプレイ
JP4473754B2 (ja) 仮想試着装置
US11887234B2 (en) Avatar display device, avatar generating device, and program
JP6095763B2 (ja) ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
US8648924B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for generating a combination image on a display of the capturing apparatus
JPWO2012042974A1 (ja) 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
TW201732499A (zh) 表情辨識系統、表情辨識方法及表情辨識程式
JP6771435B2 (ja) 情報処理装置および位置情報取得方法
US11699259B2 (en) Stylized image painting
WO2014128751A1 (ja) ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
JP5963006B2 (ja) 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体
JP6552266B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6576639B2 (ja) 電子眼鏡および電子眼鏡の制御方法
JP2019192116A (ja) 画像生成装置及び画像生成プログラム
JP5759439B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2019144154A (ja) 三次元計測装置
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
JP2011004054A (ja) 画像処理システム及び方法
JP2016133541A (ja) 電子眼鏡および電子眼鏡の制御方法
JP2021004894A (ja) 情報処理装置および位置情報取得方法
JP2019139754A (ja) 画像生成装置及び画像生成プログラム
CN117499795A (zh) 信息处理方法以及信息处理装置
JP2024017389A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141008

R150 Certificate of patent or registration of utility model

Ref document number: 5632100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250