JP2005242567A - 動作評価装置及び方法 - Google Patents

動作評価装置及び方法 Download PDF

Info

Publication number
JP2005242567A
JP2005242567A JP2004049935A JP2004049935A JP2005242567A JP 2005242567 A JP2005242567 A JP 2005242567A JP 2004049935 A JP2004049935 A JP 2004049935A JP 2004049935 A JP2004049935 A JP 2004049935A JP 2005242567 A JP2005242567 A JP 2005242567A
Authority
JP
Japan
Prior art keywords
subject image
subject
image
unit
smile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004049935A
Other languages
English (en)
Other versions
JP2005242567A5 (ja
Inventor
Katsuhiko Mori
克彦 森
Masakazu Matsugi
優和 真継
Yuji Kaneda
雄司 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004049935A priority Critical patent/JP2005242567A/ja
Priority to US11/065,574 priority patent/US20050201594A1/en
Publication of JP2005242567A publication Critical patent/JP2005242567A/ja
Publication of JP2005242567A5 publication Critical patent/JP2005242567A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Educational Administration (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Educational Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】容易に動作の評価を行なえるようにし、練習者に対してアドバイスを与えることを可能にする。
【解決手段】無表情の顔画像として選択された第1の被写体画像(403)と理想的な笑顔画像として選択された第2の被写体画像(402)のそれぞれにおいて特徴点を抽出し、両画像の被写体における特徴点の変化量に基づいて基準データとしての理想笑顔データ(404)が作成される。撮像によって得られた被写体画像(405)において特徴点を抽出し、第1の被写体画像(403)との間における特徴点の変化量に基づいて計測データとしての笑顔データ406が作成される。作成された基準データと計測データとに基づいて被写体画像(405)における被写体の動きが評価される(407)。
【選択図】 図4

Description

本発明は、動作評価装置及び方法に関するものであり、特に、笑顔等の顔表情の評価に好適なものである。
営業スマイルと言われるように、対面販売等、人と人とが対面してコミュニケーションを行なう場において、好印象を与えるには笑顔が重要であり、その好印象が更なる円滑なコミュニケーションを生む土台となる。このように、笑顔の重要性は多くの人に理解され、特に営業職の人に対しては、普段から笑顔を保つことが望まれている。しかしながら、世の中には表情を豊かにして自然な笑顔で接することが苦手な人も存在している。自然な笑顔を練習する訓練装置や方法は、そのような人々にとって有効な手段となるが、容易に笑顔の訓練が可能な訓練装置や方法についての提案はない。
一般に、画像を用いて、手話、ゴルフやスキーといったスポーツ等の練習を行なう方法として、熟練者の手や体の動きをビデオ等に録画し、練習者はモニタに表示したその画像を見ながら、動作を真似ることが行なわれている。また、特許文献1には、練習者の動作を撮像手段で撮像し、その練習者の画像とともに、熟練者の模範画像を表示するシステムが開示されている。さらに、特許文献2には、システムが、練習者が使用しているデータグローブから練習者の手の動きを検出し、その手の動きから手話を認識し、その認識結果を音声や画像、文章で表示する。そして、練習者は自身が意図した手話の意味とシステムが認識した手話の意味が同じになるようまで手話を反復して練習するシステムが開示されている。
特開平08−251577号公報 特開平09−034863号公報
しかしながら、単にビデオ等に録画された模範画像を見るだけでは、技能習得の効果はあまり期待できない。
また、特許文献1に開示されているように、模範画像と練習者の画像をともに表示したとしても、その動作が正しいのか否かは練習者では判断することは困難である。さらに、特許文献2に開示されているように、練習者の意図した手話の意味とシステムが認識した手話の意味とが合致するか否かを判断することはできる。しかしながら、システムの認識結果と合致しなかった場合にどのように動作を修正すればよいのか、或いは動作を修正してもその修正が正しかった(良い方向に進んでいる)のか間違っていたのか(更に悪い方向に進んでいるのか)を練習者が判断することは困難である。
そこで本発明は、容易に動作の評価を行なえる用にすることを目的とする。また、練習者に対してシステムがアドバイスを与えることを可能にすることを目的とする。
上記の目的を達成するための本発明による動作評価装置は以下の構成を備える。すなわち、
被写体を含む画像を撮像する撮像手段と、
第1の被写体画像と第2の被写体画像のそれぞれにおいて特徴点を抽出し、該第1の被写体画像と該第2の被写体画像との間における特徴点の変化量に基づいて基準データを作成する第1作成手段と、
前記撮像手段で撮像された第3の被写体画像と第4の被写体画像のそれぞれにおいて特徴点を抽出し、該第3の被写体画像と該第4の被写体画像との間における特徴点の変化量に基づいて計測データを作成する第2作成手段と、
前記基準データと前記計測データとに基づいて前記第4の被写体画像における被写体の動きを評価する評価手段とを備える。
また、好ましくは、上記装置において、
前記計測データと前記基準データとに基づいて当該被写体の動きに関するアドバイスを作成するアドバイス作成手段と、
前記第3の被写体画像と前記アドバイス作成手段で作成されたアドバイスを表示する表示手段とをさらに備える。
また、上記の目的を達成するための本発明の他の態様による動作評価方法は、
被写体を含む画像を撮像可能な撮像手段を用いた動作評価方法であって、
第1の被写体画像と第2の被写体画像のそれぞれにおいて特徴点を抽出し、該第1の被写体画像と該第2の被写体画像との間における特徴点の変化量に基づいて基準データを作成する第1作成工程と、
前記撮像手段で撮像された第3の被写体画像と第4の被写体画像のそれぞれにおいて特徴点を抽出し、該第3の被写体画像と該第4の被写体画像との間における特徴点の変化量に基づいて計測データを作成する第2作成工程と、
前記基準データと前記計測データとに基づいて前記第4の被写体画像における被写体の動きを評価する評価工程とを備える。
なお、本明細書において、被写体動作とは身体動作や顔表情を含む。
本発明によれば、容易に動作の評価を行うことができる。また、練習者に対してシステムがアドバイスを与えることが可能になる。
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
<第1実施形態>
第1実施形態では、動作評価装置を利用者の笑顔作成を訓練するための装置に適用した場合を説明する。
図1Aは本実施形態による笑顔訓練装置の構成を示すブロック図である。表示器1は、アプリケーションプログラムによって処理中のデータの情報、各種メッセージメニュー、撮像装置20により撮影された映像などを表示する。VRAM2は、表示器1の画面に表示されるイメージを展開するビデオRAM(以下、VRAM)である。なお、表示器1は、CRTやLCD等、その種別は問わない。キーボード3及びポインティングデバイス4は、画面上の所定欄に文字などを入力したり、アイコンやGUIにおけるボタンなどを指し示すためなどに用いられる操作入力手段である。CPU5は本笑顔訓練装置全体の制御を司る。
ROM6は読み出し専用のメモリであり、CPU5の動作処理手順(プログラム)を記憶している。なおこのROM6に、データ処理に係るアプリケーションプログラムやエラー処理プログラムをはじめ、後述するフローチャートに係るプログラムを記憶するようにしてもよい。RAM7は、各種プログラムをCPU5が実行する時のワークエリア、エラー処理時の一時退避エリアとして用いられる。汎用のコンピュータ装置を本実施形態の笑顔訓練装置に適用する場合、後述する処理を実行するための制御プログラムは、外部記憶媒体よりこのRAM7へロードされ、CPU5によって実行されることになる。
ハードディスクドライブ(以下、HDD)9、フロッピー(登録商標)ディスクドライプ(以下、FDD)10は外部記憶媒体を構成し、それぞれのディスクはアプリケーションプログラムやデータ、ライプラリなどの保存及び読み込み用に用いられる。なお、FDDの替わりに、あるいは追加してCD−ROM、MO、DVD等の光(磁気)ディスクドライブや、テープストリーマ、DDSなどの磁気テープドライブ等を設けてもよい。
カメラインターフェース10は、本装置を撮像装置20と接続するためのインターフェースである。バス11は、アドレスバス、データバスおよび制御バスで構成され、上述した各ユニット間を接続する。
図1Bは、上述した笑顔訓練装置による機能構成を示すブロック図である。本実施形態の笑顔訓練装置は、撮像部100、左右反転部110、顔検出部120、顔特徴点検出部130、理想笑顔データ作成保持部140、笑顔データ作成部150、笑顔評価部160、笑顔アドバイス作成部161、表示部170、画像選択部180を有する。これらの各機能は、CPU5が所定の制御プログラムを実行し、各種ハードウエア(表示器1、RAM7、HDD8、撮像装置20等)を活用することにより実現される。
図1Bに示した各構成要素の機能を説明する。撮像部100は、レンズやCCD等のイメージセンサから構成され、画像を撮像する。なお、撮像部100より本システムへ提供される画像は、連続的な静止画像であってもよいし、動画(ビデオ画像)であってもよい。左右反転部110は、撮像部100で撮像された画像を左右反転する。ただし、左右反転を行なうか否かはユーザが任意に選択できる。顔検出部120は、入力された画像より顔の部分を検出する。顔特徴点検出部130は、入力された画像中の顔検出部120で検出された顔領域から、複数の特徴点を検出する。
理想笑顔データ作成保持部140は、被写体の顔に適した理想笑顔データを作成し、これを保持する。笑顔データ作成部150は、入力された画像中の顔の笑顔データを作成する。笑顔評価部160は、笑顔データ作成部150で作成された笑顔データと、理想笑顔データ作成保持部140で作成、保持された理想笑顔データを用いて被写体の顔が理想的な笑顔にどの程度近いか評価する。笑顔アドバイス作成部161は、この評価結果に基づいて、被写体の笑顔に対するアドバイスを作成する。表示部170は、画像及び笑顔アドバイス作成部161で作成されたアドバイスを表示する。画像選択部180は、撮像部100で撮像された各画像に対する笑顔評価部160の評価結果に基づいて、1枚の画像を選択し保持する。これは、アドバイス作成のための画像であり、この処理については図3(ステップS306)により後述する。
以上のような構成の笑顔訓練装置の動作について説明する。本実施形態による笑顔訓練装置の動作は、理想笑顔データを作成する際(理想笑顔データ作成時)の動作と笑顔の訓練を行なう際(笑顔訓練時)の動作の大きく2つに分けられる。
まず最初に、理想笑顔データ作成時の動作を、図2のフローチャート及び図4を用いて説明する。
先ずステップS201において、撮像部100により被写体の顔を撮像して得られた複数の顔画像(図4の401)より、理想の笑顔画像と思われる顔画像(402)、及び無表情の顔画像(403)をユーザに選択させる。動画の場合はフレーム画像を用いる。ステップS202では、左右反転部110が撮像部100で撮像された画像の左右を反転する。なお、この反転は、被写体つまり訓練者の好みにより行なっても行なわなくても良い。被写体を撮影した画像を左右反転して表示部170により表示すると、鏡に映った顔を見ているような画像が表示される。従って、後述するように、表示部に撮像され左右反転された画像と“口の右端を上げる”という意味のアドバイスが表示された場合に、訓練者はそのようなアドバイスに対応しやすくなる。しかし、実際に他者と対面するときに他者が見る顔は、左右反転されていない画像と同じであるので、そのような左右反転をしていない画像で訓練したいという場合もある。そこで、例えば、訓練の初期は左右反転で訓練し、その後左右反転を行なわないようにするということも考えられる。上記の理由により、ステップS202では、左右反転処理の選択が可能となっている。
ステップS203では、ステップS202において左右反転され、もしくはされなかった画像に対して、顔検出部120が顔検出処理を行う。この顔検出処理について、図5、図6を用いて説明する。
図5は、局所特徴を階層的に検出し、その検出結果を統合し、次の階層の局所特徴を検出する、という処理を繰り返して、最終的に被写体である顔を検出する動作を、模式的に示すものである。つまり、最初にプリミティブな特徴である1次特徴を検出し、その1次特徴の検出結果(検出レベルと位置関係)を用いて2次特徴を検出する。そして、2次特徴の検出結果を用いて3次特徴を検出、最後にその3次特徴の検出結果を用いて4次特徴である顔を検出する。
図5に検出すべき1次特徴の例を示す。最初に、縦特徴(1−1)・横特徴(1−2)・右上がり斜め特徴(1−3)・右下がり斜め特徴(1−4)といった特徴を検出する。ここに、縦特徴(1−1)とは縦方向のエッジセグメントを表す(以下同様である)。この検出結果は、各特徴毎に、入力画像と同等の大きさの検出結果画像という形で出力される。つまり、この例であれば4種類の検出結果画像が得られ、各特徴の検出結果画像の各位置の値を見て、入力画像のその位置に各特徴が存在するか否かが判断できる。2次特徴の、右空きV字特徴(2−1)・左空きV字特徴(2−2)・水平平行線特徴(2−3)・垂直平行線特徴(2−4)は、右空きV字特徴は右上がり斜め特徴と右下がり斜め特徴から、左空きV字特徴は右下がり斜め特徴と右上がり斜め特徴から、水平平行線特徴は横特徴から、垂直平行線特徴は縦特徴から検出を行なう。また3次特徴の眼特徴(3−1)・口特徴(3−2)は、眼特徴は右空きV字特徴と左空きV字特徴と水平平行線特徴と垂直平行線特徴とから、口特徴は右空きV字特徴と左空きV字特徴と水平平行線特徴とから検出を行なう。そして、4次特徴である顔特徴(4−1)は、眼特徴と口特徴とから検出を行なう。
上記示したように、顔検出処理部102では、まずプリミティブな局所特徴を検出し、さらにその検出結果を用いることで、階層的に局所特徴を検出し、最終的に被写体である顔を検出する。なお、上記の検出手法を並列階層処理により画像認識を行う神経回路網を用いて実現することも可能であり、この点については、M.Matsugu,K.Mori,et.al,“Convolutional Spiking Neural Network Model for Robust Face Detection”,2002,Internatinal Conference On Neural Information Processing (ICONIP02) に記述されている。
図6を参照して神経回路網の処理内容を説明する。この神経回路網は、入力データ中の局所領域において、対象または幾何学的特徴などの認識(検出)に関与する情報を階層的に扱うものであり、その基本構造はいわゆるConvolutionalネットワーク構造(LeCun, Y. and Bengio, Y., 1995,“Convolutional Networks for Images Speech, and Time Series” in Handbook of Brain Theory and Neural Networks (M. Arbib, Ed.), MIT Press, pp.255-258を参照)である。最終層(最上位層)では検出したい被写体の有無と、存在すればその入力データ上の位置情報が得られる。
データ入力層801は、画像データを入力する層である。最初の特徴検出層802(1,0)は、データ入力層801より入力された画像パターンの局所的な低次の特徴(特定方向成分、特定空間周波数成分などの幾何学的特徴のほか色成分特徴を含んでもよい)を全画面の各位置を中心として局所領域(或いは、全画面にわたる所定のサンプリング点の各点を中心とする局所領域)において同一箇所で複数のスケールレベル又は解像度で複数の特徴カテゴリの数だけ検出する。
特徴統合層803(2,0)は、所定の受容野構造(以下、受容野とは直前の層の出力素子との結合範囲を、受容野構造とはその結合荷重の分布を意味する)を有し、特徴検出層802(1,0)からの同一受容野内にある複数のニューロン素子出力の統合(局所平均化、最大出力検出等によるサブサンプリングなどの演算)を行う。この統合処理は、特徴検出層802(1,0)からの出力を空間的にぼかすことで、位置ずれや変形などを許容する役割を有する。また、特徴統合層内のニューロンの各受容野は同一層内のニューロン間で共通の構造を有している。
後続の層である各特徴検出層802((1,1)、(1,2)、…、(1,M))及び各特徴統合層803((2,1)、(2,2)、…、(2,M))は、上述した各層と同様に前者((1,1)、…)は、各特徴検出モジュールにおいて複数の異なる特徴の検出を行い、後者((2,1)、…)は、前段の特徴検出層からの複数特徴に関する検出結果の統合を行う。但し、前者の特徴検出層は同一チャネルに属する前段の特徴統合層の細胞素子出力を受けるように結合(配線)されている。特徴統合層で行う処理であるサブサンプリングは、同一特徴カテゴリの特徴検出細胞集団からの局所的な領域(当該特徴統合層ニューロンの局所受容野)からの出力についての平均化などを行うものである。
図5に示した各特徴を検出するためには、図6の各特徴検出層の検出に使用する受容野構造をその特徴を検出するためのものにすることで、各特徴の検出が可能である。また、最終層の顔検出層における顔の検出に使用する受容野構造を、各サイズや各回転量に適したものを用意し、顔特徴の検出において、顔が存在するという結果を得たときにどの受容野構造を用いて検出したかによって、その顔の大きさや向き等の顔データを得ることが出来る。
ステップS203では、顔検出部120が、上述した方式によって顔検出処理を実行する。ただし、この顔検出処理は、上記方式だけに限定されるものではない。上記方式以外にも、例えばEigen Face等を使用して画像中の顔の位置を求めることも可能である。
続いて、ステップS204において、顔特徴点検出部130により、ステップS203で検出した顔領域の中から複数の特徴点を検出する。検出する特徴点の例を図7に示す。図7において、E1〜E4が目の端点を、E5〜E8が目の上下の点を、M1〜M2が口の端点を示す。これらの特徴点のうち目の端点E1〜E4及び口の端点M1〜M2は、図5に示した2次特徴の右空きV字特徴(2−1)・左空きV字特徴(2−2)に相当する。つまり、これら端点の検出は、ステップS203による顔検出の中間段階で得られている。そのため、新たに、図7に示したような特徴を検出する必要はない。しかしながら、画像中の右空きV字特徴(2−1)・左空きV字特徴(2−2)は、顔以外にも、背景等、様々な場所に存在する。そのため、顔検出部102で得られた中間結果から、検出した顔の、眉の端点、目の端点、口の端点を検出する必要がある。そこで、図9に示すように、顔検出結果を基準にして、眉、目の端点の探索範囲(RE1,RE2)と口の端点の探索範囲(RM)を設定する。そして、右空きV字特徴(2−1)・左空きV字特徴(2−2)検出結果に対して、その設定した範囲で、目の端点と口の端点を検出する。
目の上下の点(E5〜E8)の検出方法は以下の通りである。上記のように検出した左右の目のそれぞれの端点の中点をまず求め、その中点の位置から上下方向にエッジを探索する、もしくは暗から明または明から暗へと明るさが大きく変化している領域を探索する。そのエッジまたは明るさが大きく変化している領域の中心点を目の上下の点(E5〜E8)とする。
ステップS205において、理想笑顔データ作成保持部140は、選択された理想の笑顔画像から上記特徴点を探索し、以下に説明するようにして理想笑顔データを作成し、これを保持する。
良い笑顔とは、無表情の顔と比較して、1.口元があがる、2.目が細くなる、という変化が生じると言われている。それ以外にも、笑いジワやエクボが出来る人もいるが、これらは個人によって大きく異なる。よって、本実施形態では、上掲の2つの変化を利用する。より具体的には、口元があがるという変化を、ステップS204における顔特徴点検出において求めた目の端点と口の端点の距離(E1−M1距離、E4−M2距離)の変化で、また目が細くなるという変化を、同じくステップS204で求めた目の上下の点の距離(E5−E6距離、E7−E8距離)の変化で検出する。つまり、これらの変化の検出に必要な特徴を、ステップS204における顔特徴点検出処理において求めていたということである。
そして、ステップS205では、選択された理想笑顔画像について上記ステップS204で求めた目の端点と口の端点の距離及び目の上下の点の距離の、無表情時の顔画像における各距離に対する変化の割合を理想笑顔データとして求める。つまり、この理想笑顔データは、ステップS204で求めた目の端点と口の端点の距離及び目の上下の点の距離が、無表情の顔のときのそれぞれの距離と比較してどの程度変化したときが理想的な笑顔であるかを示している。なお、比較に当たっては、それぞれの顔の両目間の距離などを基準として、比較すべき距離を正規化し、その変化量も正規化しておく。
このようにして、本実施形態の場合、理想的笑顔(402)と無表情顔(401)との間における、目の端点と口の端点の距離の変化の割合が左右に1つずつの計2つ、及び目の上下の点の距離の変化量が左右に1つずつの計2個得られるので、それら4個の変化量を理想笑顔データ(404)として保持する。
以上のようにして理想笑顔データが作成されるとして笑顔訓練開始の準備が整う。笑顔訓練時の動作を図3のフローチャートに示す。以下、図3、図4を参照して訓練時の動作を説明する。
先ず、ステップS301において、撮像部100により笑顔訓練中に笑顔をしている被写体を撮影することにより、顔画像(405)を取得する。ステップS302において、撮像部100で撮像された画像を左右方向に反転する。ただし、この反転処理は、理想笑顔データ作成時と同様に、被写体つまり訓練者の好みにより行なっても行なわなくても良い。
次に、ステップS303では、ステップS302で左右反転された、もしくはされなかった画像に対して、顔検出処理が行なわれる。そして、ステップS304において、理想笑顔データ作成時と同様に、目や口の端点、目の上下の点、即ち顔特徴点が検出される。ステップS305では、理想笑顔データ作成時と同様に、ステップS304で検出された顔特徴点、即ち顔画像405における目と口の端点間距離と、目の上下の点間距離の、無表情の顔(403)における各距離からの変化の割合を求め、笑顔データ(図4の406)とする。
次に、ステップS306において、笑顔評価部160は、理想笑顔データと笑顔データとを比較する(407)。具体的には、左右の目の端点と口の端点の距離の変化、及び左右の眼の上下の点の距離の変化に関して、理想笑顔データと笑顔データとの差分を求め、その差分に基づいて評価値を算出する。このとき、各差分値に所定の係数値を乗じて評価値を算出することが出来る。この係数値は、笑顔における眼の変化と口元の変化の貢献度に依存して設定する。例えば、一般的には、目の変化より口元の変化の方が笑顔と認識される場合にはこの貢献度が大きいため、口元の変化の割合の差に対する係数値は、眼の変化の割合の差に対する係数値よりも高い値にする。そして、この評価値があるしきい値以下になれば、理想的な笑顔と判断される。また、ステップS306では、当該訓練において算出された評価値がしきい値以下となった画像のうち、最小の値を示した画像をアドバイスを行なう対象となる画像(アドバイス用画像)として保持しておく。アドバイス用画像は、初めてしきい値以下となった時から規定枚数後(例えば10枚後)の画像としたり、始めてしきい値以下となった時、その後しきい値以上となった時の中間の画像にするなどとしてもよい。
ステップS307では、本処理を終了するか否かを判定する。この判定は、例えば、評価値がある枚数の画像に渡って単純に減少する、またはしきい値以下の値になるようになったら、終了と判断する。そうでなければ、ステップS301に戻り、上記の処理を繰り返す。
ステップS308において、笑顔アドバイス作成部161は、ステップS306で選択した画像を表示するとともに、その時の笑顔データと理想笑顔データとの差異をアドバイスとして表示する。例えば、図8に示すように、ステップS306で選択、保存した画像における特徴点から、理想笑顔データで求められる口の端点の理想位置、または眼の上下の点の理想位置へ矢印を表示させる。この矢印が訓練者には、この矢印の方向になるように口元や目を変化させれば良いというアドバイスになる。
以上説明したように、本実施形態によれば、被写体に適した理想笑顔データを求め、その理想笑顔データと訓練時の笑顔から得られる笑顔データとを比較し評価する笑顔訓練が可能である。また顔検出、顔特徴点検出が自動的に行われるので、容易に訓練が行なえるという効果がある。また、理想笑顔データと訓練時の笑顔とを比較し、訓練者に対するアドバイスとして、矢印により変化量の過不足を提示することで、訓練者は動作の修正の善し悪しを容易に理解することが出来るという効果がある。
より一般的に表現すれば、被写体に適した理想的な動作と訓練時の動作とを比較し評価するので、当該動作に関して効率的に訓練を行える。また、評価に必要な特徴点の検出が自動的に行われるので、容易に訓練が行なえるという効果がある。また、理想的な動きと、訓練時の動きを比較し、訓練者に対するアドバイスとして変化量の過不足を提示することで、訓練者は動作の修正の善し悪しを容易に理解することが出来るという効果がある。
なお、上記実施形態ではステップS201で理想笑顔画像をユーザが選択したが、多量の笑顔画像から求めた理想笑顔パラメータを用いて、被写体に適した理想笑顔データを自動的に選択するようにしてもよい。このような理想笑顔パラメータを求めるには、例えば、笑顔の検出に使用する変化(眼の端点と口の端点の距離、目の上下の点の距離の変化)を多人数で求め、例えば各変化の平均を理想笑顔パラメータにするようにしてもよい。また、上記実施形態では、ユーザの無表情画像の取得を、理想笑顔データ作成時に行なったが、笑顔訓練時に取得するようにしても良い。上記実施形態では、理想笑顔データ作成を撮像部100で撮像したユーザの画像を使用して行なったが、このようにユーザの無表情画像を笑顔訓練時に取得することで、理想笑顔データは、上述したように正規化されているので、別の人物、例えば、理想的な笑顔のモデルの無表情画像と笑顔画像とを使用して、作成することが出来る。つまり、ユーザは、自分が好ましいと思う笑顔の人物の笑顔になるように、訓練することが可能となる。
なお、本実施形態では、アドバイスの提示方法として、矢印を使用したが、他の提示方法として、音の高低や大小を使用しても良い。また本実施形態では、笑顔の訓練について説明したが、この発明は、笑顔の訓練の他にも、悲しみといった他の表情の訓練に使用することも可能である。また、表情の他にも、ゴルフのスイングの軌道やピッチングフォーム等の動作の訓練に使用することも可能である。
<第2実施形態>
図5は、第2実施形態による笑顔訓練装置の機能構成を示すブロック図である。なお、ハードウエア構成は図1Aに示したとおりである。また、図9において、図1Bと同様の機能要素には同一の参照番号を付してある。図9に示されるように、第2実施形態の笑顔訓練装置は、撮像部100、左右反転部110、理想笑顔画像作成部910、顔検出部120、顔特徴点検出部130、理想笑顔データ作成保持部920、笑顔データ作成部150、笑顔評価部160、笑顔アドバイス作成部161、表示部170、画像選択部180から構成される。
第1実施形態と比較して異なるところは、理想笑顔画像作成部910である。第1実施形態では、理想笑顔データ作成保持部140で理想笑顔データを作成する際は、撮影された画像の中から理想笑顔画像をユーザが選択し、その画像から理想笑顔データを求めていた。それに対し第2実施形態では、理想画像作成部910が入力(撮影)された画像を使用(変形)して理想笑顔画像を作成する。そして、理想笑顔データ作成保持部920は、理想画像作成部910で作成した理想画像を用いて、第1実施形態同様の理想笑顔データを作成する。
続いて、図9に示す構成において、理想笑顔データを作成する際(理想笑顔データ作成時)の動作を、図10のフローチャートに従って説明する。
ステップS1001において、撮像部100より被写体の無表情の顔(403)を撮像する。ステップS1002では、撮像部100で撮像された画像を左右方向に反転する。ただし、第1実施形態でも説明したように、この反転処理は被写体つまり訓練者の好みにより行なっても行なわなくても良い。ステップS1003では、ステップS1002で左右反転した、もしくはしなかった画像に対して、顔検出処理が行なわれる。そして、ステップS1004では、無表情の顔画像の顔特徴点(目や口の端点、目の上下の点)を検出する。
次に、ステップS1005において、理想画像作成部910を用いて、無表情画像を変形することにより、訓練者が好ましいと思う理想的な笑顔画像(410)を作成する。例えば、図11は理想画像作成部910により提供されるユーザインターフェースの一例を示す図である。図11に示されるように、顔全体、目、口元という各領域のそれぞれの変化具合を調整できるようなグラフィカルユーザインターフェース(GUI)1101〜1103とともに、無表情の顔画像1104が表示されている。訓練者はこのGUIを使用することで、例えば(1103を操作して)顔画像1104の口元を変化させることが出来る。このとき、指定可能な変化量の最大値を、第1実施形態で述べたような、多量のデータから求めた笑顔パラメータで決められる値にし、変化量の最小値は変化無し、つまり、無表情の顔画像そのままとするようにしても良い。
なお、GUIの調整による、理想笑顔画像の作成には、モーフィングの技術を使用することが出来る。例えば、変化量の最大値を、第1実施形態で述べたような、多量のデータから求めた笑顔パラメータで決められる値にした場合、最大に変化した時の画像は、上記笑顔パラメータを使用して作成可能であるので、変化量が中間の値の時は、無表情の顔画像と、変化量最大値の画像を使用して、モーフィング技術を使用して、変化量が中間の顔画像を作成する。
次に、ステップS1006では、ステップS1005で作成した理想笑顔画像に対して顔検出処理を行う。そして、ステップS1007において、ステップS1005で作成した理想笑顔画像よりステップS1006で検出された顔における目や口の端点、目の上下の点を検出する。ステップS1008では、ステップS1004で検出した無表情の顔画像の目や口の端点間距離及び目の上下の点の距離と、ステップS1007で検出された理想笑顔画像の目や口の端点間距離及び目の上下の点の距離との変化量を求め、理想笑顔データとする。
以上のようにして作成された理想笑顔データを用いた笑顔訓練の処理手順は第1実施形態と同様であるので、説明を省略する。
上記説明したように、第2実施形態によれば、理想笑顔画像を撮影によって取得するのではなく、訓練者が作成することによって取得可能となるので、所望の笑顔をつくるための訓練を容易に行うことができる。
<第3実施形態>
図12は第3実施形態の笑顔訓練装置の機能構成を示すブロック図である。第3実施形態の笑顔訓練装置は、撮像部100、左右反転部110、顔検出部120、顔特徴点検出部130、理想笑顔データ作成保持部140、笑顔データ作成部150、笑顔評価部160、笑顔アドバイス作成部161、表示部170、画像選択部180、顔状態検出部1210、理想笑顔状態変化データ保持部1220、笑顔変化評価部1230とを備えている。なお、ハードウエア構成は図1Aと同様である。
第1実施形態と比較して異なるのは、顔状態検出部1210、理想笑顔状態変化データ保持部1220、笑顔変化評価部1230が加わっていることである。第1実施形態では、笑顔の評価を、口元があがり、目が細くなるという基準で評価した。それに対し、第3実施形態では、さらに、口元があがるという変化と、目が細くなるという変化の順番、即値、特徴点の変化の時間的要素も評価に入れている。
例えば、笑顔には、うれしい時に出る“快の笑い”と、嘲笑を示す“不快の笑い”、さらに作り笑いといった“社交の笑い”がある。これら全てにおいて、最終的には口元があがり、目が細くなるが、その区別は、口元があがり、目が細くなるタイミングで行なうことが可能であると言われている。例えば、“快の笑い”は口元があがり、それから目が細くなるのに対し、“不快の笑い”は、目が細くなってから口元があがる。また、“社交の笑い”は、口元があがるのと目が細くなるのがほぼ同時である、と言われている。
第3実施形態の顔状態検出部1210は口元があがる変化と目が細くなる変化という顔の状態を検出する。また理想笑顔状態変化データ保持部1220は理想笑顔状態変化データを保持している。つまり、顔状態検出部1110で口元があがる変化と目が細くなる変化という顔の状態を検出し、その変化の順番が、理想笑顔状態変化データ保持部1220に保持されている理想笑顔状態変化の順番となっているかについて、笑顔変化評価部1230で評価を行なう。そしてその結果を表示部170へ表示する。表示の一例を図13に示す。図13には、理想笑顔状態変化の時の、口元があがる変化と眼が細くなるタイミングを上段に示し、下段に笑顔状態変化の検出結果を示す。この図より、理想的には、眼が細くなるタイミングは口元が上がる動作が始まり終了する中間ぐらいであるが、実際の笑顔では、ほぼ同時に動作していることが理解できる。このように、訓練者に有益な、各部位の動作のタイミングを、理想的な場合と実際の場合を表示し、例えば図13の例では、眼を細くするタイミングを遅らせるアドバイスを矢印で表示している。
このような構成により、本実施形態では、笑顔に至る過程も評価することが出来、より心地よい笑顔の訓練が行なえるという効果がある。
なお本実施形態では、笑顔の訓練について説明したが、この発明は、笑顔の訓練の他にも、悲しみといった他の表情の訓練に使用することは可能である。また、表情の他にも、ゴルフのスイングの軌道やピッチングフォーム等の動作の訓練に使用することも可能であり、例えば、肩の開きと手首の移動のタイミングを表示し、理想的なフォームと比較することが可能である。ピッチングフォームを得るには、時間的に一定間隔で撮影された動画像の各画像から手を検出することによって、手の動きを検出すればよい。手の検出は、肌色の検出(顔は別方式で検出可能であるので、顔との区別が可能)を行なったり、グローブの色を検出することで可能である。また、ゴルフのスイングを見るには、クラブのヘッドに特定の色のマーカをつける等して、ヘッドを検出して、スイングの軌道を求めることも可能である。一般的に、動画像を複数の静止画に分解し、各画像で必要な特徴を検出し、その検出された特徴が各画像中で存在する座標が、複数の静止画間でどのように変化するかを調べることで、2次元的な軌道を求めることは可能であり、更に2台以上のカメラを使用すれば、3次元的な軌道を求めることもできる。
以上説明したように、上記各実施形態によれば、被写体に適した理想笑顔データと訓練時の笑顔とを比較し評価する笑顔訓練が可能であり、また顔検出、顔特徴点検出が自動的に行われるので、容易に訓練が行なえるという効果がある。また、理想笑顔データと訓練時の笑顔とを比較し、訓練者に対するアドバイスとして変化量の過不足を提示することで、訓練者は動作の修正の善し悪しを容易に理解することが出来るという効果がある。
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
第1実施形態による、笑顔訓練装置のハードウエア構成を示すブロック図である。 第1実施形態による、笑顔訓練装置の機能構成を示すブロック図である。 第1実施形態における理想笑顔データ作成処理のフローチャートである。 第1実施形態の笑顔訓練時の処理を示すフローチャートである。 第1及び第2実施形態による笑顔訓練の動作概要を示す図である。 階層的被写体検出を示す図である。 階層的神経回路網を示す図である。 顔特徴点を説明する図である。 第1実施形態による笑顔訓練のアドバイス表示例を示す図である。 第2実施形態による 笑顔訓練装置の機能構成を示すブロック図である。 第2実施形態の理想笑顔データ作成処理のフローチャートである。 理想笑顔画像の作成のツールを説明する図である。 第3実施形態による 笑顔訓練装置の機能構成を示すブロック図である。 第3実施形態による笑顔変化の評価の表示例を示す図である。

Claims (16)

  1. 被写体を含む画像を撮像する撮像手段と、
    第1の被写体画像と第2の被写体画像のそれぞれにおいて特徴点を抽出し、該第1の被写体画像と該第2の被写体画像との間における特徴点の変化量に基づいて基準データを作成する第1作成手段と、
    前記撮像手段で撮像された第3の被写体画像と第4の被写体画像のそれぞれにおいて特徴点を抽出し、該第3の被写体画像と該第4の被写体画像との間における特徴点の変化量に基づいて計測データを作成する第2作成手段と、
    前記基準データと前記計測データとに基づいて前記第4の被写体画像における被写体の動きを評価する評価手段とを備えることを特徴とする動作評価装置。
  2. 前記第1及び第2作成手段では、前記第1乃至第4の被写体画像中の顔部分を抽出し、該顔部分より特徴点を抽出し、
    前記評価手段は、前記被写体の顔の動きを評価することを特徴とする請求項1に記載の動作評価装置。
  3. 前記撮像手段で得られた複数の被写体画像より、前記第2の被写体画像として使用する画像を選択する選択手段をさらに備えることを特徴とする請求項1に記載の動作評価装置。
  4. 前記撮像手段で得られた複数の被写体画像の各々について複数の特徴点を抽出し、該複数の特徴点の位置関係が所定の位置関係にあるか或いは最も近い被写体画像を前記第2の被写体画像として取得する取得手段をさらに備えることを特徴とする請求項1に記載の動作評価装置。
  5. 前記撮像手段で得られた被写体画像を変形することにより前記第2の被写体画像を生成する生成手段をさらに備えることを特徴とする請求項1に記載の動作評価装置。
  6. 更に、前記撮像手段で撮像された被写体画像を左右反転する反転手段を有することを特徴とする請求項1に記載の動作評価装置。
  7. 前記計測データと前記基準データとに基づいて当該被写体の動きに関するアドバイスを作成するアドバイス作成手段と、
    前記第4の被写体画像と前記アドバイス作成手段で作成されたアドバイスを表示する表示手段とをさらに備えることを特徴とする請求項1に記載の動作評価装置。
  8. 前記撮影手段により連続的に得られる被写体画像群のそれぞれを順次前記第4の被写体画像として前記評価手段による評価を実行し、
    最も良好な評価を得た被写体画像を用いて前記アドバイス作成手段と前記表示手段とを機能させることを特徴とする請求項7に記載の動作評価装置。
  9. 前記撮影手段により連続的に得られる被写体画像群のそれぞれより複数の特徴点を抽出し、該被写体画像群における複数の特徴点のそれぞれの動きを検出する検出手段をさらに備え、
    前記評価手段は、さらに、前記検出手段で検出した複数の特徴点の動きのタイミングに基づいて前記被写体動作の評価を行うことを特徴とする請求項1に記載の動作評価装置。
  10. 前記複数の特徴点の動きのタイミングについて基準のタイミングを表すデータを保持する保持手段をさらに備え、
    前記評価手段は、前記保持手段に保持された前記基準のタイミングを表すデータと、前記検出手段で検出した複数の特徴点の動きのタイミングとを比較することにより、前記被写体動作の評価を行うことを特徴とする請求項9に記載の動作評価装置。
  11. 前記基準のタイミングと前記検出手段で検出したタイミングを比較可能に表示する表示手段をさらに備えることを特徴とする請求項10に記載の動作評価装置。
  12. 前記第1の被写体画像として前記第3の被写体画像を用いることを特徴とする請求項1に記載の動作評価装置。
  13. 前記第1及び第2の被写体画像として、前記第3及び第4の被写体画像とは異なる人物の画像を用いることを特徴とする請求項1に記載の動作評価装置。
  14. 被写体を含む画像を撮像可能な撮像手段を用いた動作評価方法であって、
    第1の被写体画像と第2の被写体画像のそれぞれにおいて特徴点を抽出し、該第1の被写体画像と該第2の被写体画像との間における特徴点の変化量に基づいて基準データを作成する第1作成工程と、
    前記撮像手段で撮像された第3の被写体画像と第4の被写体画像のそれぞれにおいて特徴点を抽出し、該第3の被写体画像と該第4の被写体画像との間における特徴点の変化量に基づいて計測データを作成する第2作成工程と、
    前記基準データと前記計測データとに基づいて前記第4の被写体画像における被写体の動きを評価する評価工程とを備えることを特徴とする動作評価方法。
  15. 請求項14に記載の方法をコンピュータによって実行させるための制御プログラム。
  16. 請求項14に記載の方法をコンピュータによって実行させるための制御プログラムを格納した記憶媒体。
JP2004049935A 2004-02-25 2004-02-25 動作評価装置及び方法 Pending JP2005242567A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004049935A JP2005242567A (ja) 2004-02-25 2004-02-25 動作評価装置及び方法
US11/065,574 US20050201594A1 (en) 2004-02-25 2005-02-24 Movement evaluation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004049935A JP2005242567A (ja) 2004-02-25 2004-02-25 動作評価装置及び方法

Publications (2)

Publication Number Publication Date
JP2005242567A true JP2005242567A (ja) 2005-09-08
JP2005242567A5 JP2005242567A5 (ja) 2007-04-12

Family

ID=34917887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004049935A Pending JP2005242567A (ja) 2004-02-25 2004-02-25 動作評価装置及び方法

Country Status (2)

Country Link
US (1) US20050201594A1 (ja)
JP (1) JP2005242567A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006109459A1 (ja) * 2005-04-06 2006-10-19 Konica Minolta Holdings, Inc. 人物撮影装置、及び人物撮影方法
JP2007156945A (ja) * 2005-12-07 2007-06-21 Sony Corp 画像処理装置および画像処理方法、プログラム、並びにデータ構造
JP2008224654A (ja) * 2006-12-07 2008-09-25 Base Vision Oy 運動動作を測定するための方法及び測定装置
JP2008264367A (ja) * 2007-04-24 2008-11-06 Nintendo Co Ltd トレーニングプログラムおよびトレーニング装置
JP2010041309A (ja) * 2008-08-04 2010-02-18 Nec Corp 撮像装置、携帯電話端末、撮像方法、プログラム及び記録媒体
JP2010186373A (ja) * 2009-02-13 2010-08-26 Omron Corp 画像処理方法、画像処理装置、及び画像処理プログラム
JP2019098168A (ja) * 2017-12-01 2019-06-24 ポーラ化成工業株式会社 肌解析方法及び肌解析システム
JP2019105729A (ja) * 2017-12-12 2019-06-27 株式会社テイクアンドシー 人物評価装置、プログラム、及び、方法
JP2019207625A (ja) * 2018-05-30 2019-12-05 株式会社エクサウィザーズ コーチング支援装置及びプログラム
JP2020095747A (ja) * 2020-03-10 2020-06-18 株式会社エクサウィザーズ コーチング支援装置及びプログラム
JP2021051493A (ja) * 2019-09-24 2021-04-01 カシオ計算機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2023167859A (ja) * 2022-05-13 2023-11-24 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115406A (ja) * 2004-10-18 2006-04-27 Omron Corp 撮像装置
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
JP4197019B2 (ja) * 2006-08-02 2008-12-17 ソニー株式会社 撮像装置および表情評価装置
JP4227639B2 (ja) * 2006-10-26 2009-02-18 株式会社テンヨー 手品補助玩具
JP5115568B2 (ja) * 2009-11-11 2013-01-09 カシオ計算機株式会社 撮像装置、撮像方法、及び撮像プログラム
US8503722B2 (en) * 2010-04-01 2013-08-06 Broadcom Corporation Method and system for determining how to handle processing of an image based on motion
JP2011234002A (ja) * 2010-04-26 2011-11-17 Kyocera Corp 撮像装置及び端末装置
EP2616993A4 (en) * 2010-09-13 2017-04-19 Hewlett-Packard Development Company, L.P. Smile detection systems and methods
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
KR101762769B1 (ko) * 2011-04-18 2017-08-07 삼성전자주식회사 촬영 장치에서 피사체를 촬영하기 위한 장치 및 방법
US20140379351A1 (en) * 2013-06-24 2014-12-25 Sundeep Raniwala Speech detection based upon facial movements
US9369625B2 (en) * 2014-08-12 2016-06-14 Kodak Alaris Inc. System for producing compliant facial images for selected identification documents
US10860887B2 (en) * 2015-11-16 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognition model
JP6778006B2 (ja) * 2016-03-31 2020-10-28 株式会社 資生堂 情報処理装置、プログラム及び情報処理システム
CN111277746B (zh) * 2018-12-05 2021-07-23 杭州海康威视系统技术有限公司 一种室内人脸抓拍方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219218A (ja) * 2002-01-23 2003-07-31 Fuji Photo Film Co Ltd デジタルカメラ
JP2004046591A (ja) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc 画像評価装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
US6173068B1 (en) * 1996-07-29 2001-01-09 Mikos, Ltd. Method and apparatus for recognizing and classifying individuals based on minutiae
US6645126B1 (en) * 2000-04-10 2003-11-11 Biodex Medical Systems, Inc. Patient rehabilitation aid that varies treadmill belt speed to match a user's own step cycle based on leg length or step length

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219218A (ja) * 2002-01-23 2003-07-31 Fuji Photo Film Co Ltd デジタルカメラ
JP2004046591A (ja) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc 画像評価装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006109459A1 (ja) * 2005-04-06 2006-10-19 Konica Minolta Holdings, Inc. 人物撮影装置、及び人物撮影方法
JP2007156945A (ja) * 2005-12-07 2007-06-21 Sony Corp 画像処理装置および画像処理方法、プログラム、並びにデータ構造
US8150205B2 (en) 2005-12-07 2012-04-03 Sony Corporation Image processing apparatus, image processing method, program, and data configuration
JP2008224654A (ja) * 2006-12-07 2008-09-25 Base Vision Oy 運動動作を測定するための方法及び測定装置
JP2008264367A (ja) * 2007-04-24 2008-11-06 Nintendo Co Ltd トレーニングプログラムおよびトレーニング装置
JP2010041309A (ja) * 2008-08-04 2010-02-18 Nec Corp 撮像装置、携帯電話端末、撮像方法、プログラム及び記録媒体
JP2010186373A (ja) * 2009-02-13 2010-08-26 Omron Corp 画像処理方法、画像処理装置、及び画像処理プログラム
JP7183005B2 (ja) 2017-12-01 2022-12-05 ポーラ化成工業株式会社 肌解析方法及び肌解析システム
JP2019098168A (ja) * 2017-12-01 2019-06-24 ポーラ化成工業株式会社 肌解析方法及び肌解析システム
JP2019105729A (ja) * 2017-12-12 2019-06-27 株式会社テイクアンドシー 人物評価装置、プログラム、及び、方法
JP2019207625A (ja) * 2018-05-30 2019-12-05 株式会社エクサウィザーズ コーチング支援装置及びプログラム
JP2021051493A (ja) * 2019-09-24 2021-04-01 カシオ計算機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2021060250A1 (ja) * 2019-09-24 2021-04-01 カシオ計算機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7419720B2 (ja) 2019-09-24 2024-01-23 カシオ計算機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US12315164B2 (en) 2019-09-24 2025-05-27 Casio Computer Co., Ltd. Image processing device, image processing method, and storage medium
JP2020095747A (ja) * 2020-03-10 2020-06-18 株式会社エクサウィザーズ コーチング支援装置及びプログラム
JP6994722B2 (ja) 2020-03-10 2022-01-14 株式会社エクサウィザーズ コーチング支援装置及びプログラム
JP2023167859A (ja) * 2022-05-13 2023-11-24 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20050201594A1 (en) 2005-09-15

Similar Documents

Publication Publication Date Title
JP2005242567A (ja) 動作評価装置及び方法
US12039454B2 (en) Microexpression-based image recognition method and apparatus, and related device
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
Aran et al. Signtutor: An interactive system for sign language tutoring
CN114863533B (zh) 数字人生成方法和装置及存储介质
JP4799105B2 (ja) 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
CN106056064B (zh) 一种人脸识别方法及人脸识别装置
JP4998637B1 (ja) 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
JP4799104B2 (ja) 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2008194146A (ja) 視線検出装置及びその方法
JP2009020761A (ja) 画像処理装置及びその方法
US10650564B1 (en) Method of generating 3D facial model for an avatar and related device
JP2006318341A (ja) 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム
JP5092093B2 (ja) 画像処理装置
US12423770B2 (en) Information processing apparatus
US8223220B2 (en) Image processing device, image processing method, and information storage medium
CN115661883A (zh) 人脸方向矫正方法、装置、计算机设备和存储介质
TWI842225B (zh) 具表情及人臉辨識與提示功能之互動式穿戴電子裝置以及互動式穿戴電子裝置處理方法
JP2011086245A (ja) テンプレート作成装置、表情認識装置、テンプレート作成方法、表情認識方法、及びプログラム
KR101117543B1 (ko) 표지판 평가 시스템
JP2003203221A (ja) 画像変換装置および画像変換プログラム
Cleetus Real-time multiple human pose estimation for animations in game engines
JP2655238B2 (ja) 顔画像変位検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100315