JP2013511087A - 仮想表情の創成方法 - Google Patents

仮想表情の創成方法 Download PDF

Info

Publication number
JP2013511087A
JP2013511087A JP2012538848A JP2012538848A JP2013511087A JP 2013511087 A JP2013511087 A JP 2013511087A JP 2012538848 A JP2012538848 A JP 2012538848A JP 2012538848 A JP2012538848 A JP 2012538848A JP 2013511087 A JP2013511087 A JP 2013511087A
Authority
JP
Japan
Prior art keywords
facial expression
word
expression
computer system
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012538848A
Other languages
English (en)
Inventor
ダルクヴィスト エリック
ガンペルト マーティン
ヴァン デル スホート ヨハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sociotar Inc
Original Assignee
Sociotar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sociotar Inc filed Critical Sociotar Inc
Publication of JP2013511087A publication Critical patent/JP2013511087A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

この方法は、仮想顔を使用するためのものである。仮想顔(10)は、カーソル(8)を有するコンピュータシステム(11)に接続されたスクリーン(9)に表示される。ユーザは、カーソル(8)を用いて仮想顔(10)を操作し、表情を表す。コンピュータシステム(11)は、表情の座標(53)を判定する。コンピュータシステム(11)は、データベース(52)から、その座標(53)に適合する表情の座標(54)を検索する。特定された表情の座標(54)に関連する単語または文章(56)が特定される。スクリーン(9)は単語(56)をユーザに対して表示する。ユーザは、コンピュータシステムに単語送り、この単語に関連する表情を表示させることもできる。

Description

本発明は、仮想表情の使用方法に関する。
表情および他の体の動作は、人のコミュニケーションに不可欠な要素である。表情は、驚き、怒り、悲しみ、喜び、恐れ、嫌気のような感情や、この種の他の感情を表現するために用いられる。一部の人たちは、これらの表情を、より上手く理解し、また、判断するために、訓練を受ける必要がある。例えば、セールスマンや警察官などにとって、表情をより上手く読み取り、理解することができるようになることは有益であろう。現在、顔や体の表現を知覚する能力を訓練し、または調べるために利用できる有効な方法やツールはない。また、心理学的な調査および医学的な調査においては、感情についての、特定の予め定められた身体表現に対する、被験者の心理的、生理的な反応を測定する必要がある。逆にいえば、特定の、名づけられた感情表現を、外部媒体に生成する装置を、被験者に提供する必要がある。
本発明の方法は、上で概説した課題の解決策を提供する。より詳しくは、本発明の方法は、仮想顔を使用する方法である。仮想顔は、カーソルを有するコンピュータシステムに接続されたスクリーンに表示される。ユーザは、カーソルを用いて仮想顔を操作して表情を表すことができる。コンピュータシステムは、その表情の座標を判定することができる。コンピュータシステムは、データベースから、その座標に適合する表情の座標を検索する。特定された表情の座標に関連する単語または文章が特定される。スクリーンは、その単語をユーザに向けて表示する。また、ユーザがコンピュータシステムに単語または文章を入力し、コンピュータシステムが、データベースから、その単語およびそれに関連する表情を検索することも可能である。コンピュータシステムは、それから、スクリーンに信号を送り、その単語に関連する表情を表示することができる。
本発明のシステムの概略図である。 本発明の喜びの表情を示す仮想表情の正面図である。 本発明の驚きの表情を示す仮想表情の正面図である。 本発明の嫌悪の表情を示す仮想表情の正面図である。 本発明の悲しみの表情を示す仮想表面の正面図である。 本発明の怒りの表情を示す仮想表面の正面図である。 本発明の情報フローの概略図である。
図1を参照し、デジタル顔または仮想顔10は、コンピュータシステム11に接続されたスクリーン9に表示される。コンピュータシステム11は、ユーザ7が当該コンピュータシステム11を通じて動かすことのできる可動マウスカーソル8を有する。顔10は、2つの目12,14、眉16,18、鼻20、上唇22および下唇24などの構成要素を有することができる。この仮想顔10は、本発明の原理を示すための、典型的な具体例として用いられる。同様の原理を、他の体の可動部位に適用することもできる。ユーザは、これらの構成要素を変化させ、または動かすことにより、顔10の表情を操作して表情を作ることができる。例えば、ユーザ7は、コンピュータシステム11を用いて眉18の上にカーソル8を置き、矢印19または21で示されるように、それを上方または下方にドラッグする(引く)ことにより、それぞれ眉位置23または眉位置25として示される、目14からより離れた新たな位置または目14により近い新たな位置に、眉18を動かすことができる。眉16,18が動かされるのにつれて、顔10の目12,14や他の構成要素も同時に変化するように、仮想顔10を設定することができる。同様に、ユーザは、カーソル8を用いて、上下の唇22,24の外側端または内側部分を、上方または下方へ動かすことができる。ユーザは、例えば、上唇22を下唇24から離間させて口を開けさせることにより、顔10の表情全体を変化させることもできる。
それぞれの表情の座標54は、データベース52に格納された1つまたは複数の単語56に関連する。1つまたは複数の単語56は、喜び、驚き、嫌悪、悲しみ、怒りのような表情や、その他のいかなる表情によって例示される感情を記述する。図2は、仮想顔10の構成要素を動かして作ることができる、喜びの表情60の例を示す。図3は、驚きの表情62の例を示す。図4は、嫌悪の表情64を示す。図5は、悲しみの表情66を示し、図6は、怒りの表情68の例を示す。
ユーザ7が、眉のような構成要素の操作、移動または変更を完了すると、コンピュータシステム11は、顔の各種の構成要素の座標53(すなわち、スクリーン9上の構成要素の正確な位置)を読み取り、その表情が何かを判定する。このように、それぞれの構成要素の座標を組み合わせて、全体の表情を形成することができる。各構成要素の表情の座標54の各組み合わせは、データベース52に予め記憶させ、かつ、単語または文章56と関連付けておくことができる。顔10は、ユーザが、表情によって表現される例えば喜びのような特定の感情を認知または識別することができるのに必要となる、表情の明瞭さを判定するために用いることもできる。ユーザへの露出時間、および、仮想顔10により表現された感情をユーザが識別することができるのに必要な顔の構成要素の数または種類は、様々に変更することができる。
上記に示されるように、コンピュータシステム11は、ユーザ7によりシステム11に送られた単語を認識することができる。システム11に単語56が送られると、システムは、単語についてデータベース52を検索し、データベース52中から関連する表情の座標54を見つけるのが好ましい。システム11に対する単語56の送信は、口頭、視覚的、テキストまたは他のいかなる適当な送信手段で行なうことができる。換言すれば、データベース52は相当な数の単語を備えることができ、また、それぞれの単語は、それに関連する、仮想顔10の可動な構成要素の座標の位置を基礎としたパンフレットとして予め記憶された表情を有している。システム11が、データベース52中から、単語とそれに関連する表情とを検出した後には、システムは、顔10の様々な構成要素を変更または動かすための信号を、スクリーン9に送り、その単語に関連した表情を表示する。単語56が「喜び」であり、この単語がデータベース52に予め記憶されている場合には、システムから仮想顔10に座標が送られ、図2に示される喜びの表情のような、「喜び」に関連する表情が表示される。このような方法で、ユーザは、コンピュータシステム11の仮想顔10と対話することができる。また、より多くの表情とこれに関連する単語とを予め記憶させることにより、多様な表情の発達に貢献することができる。
ユーザが表情を作り、システム11が、ユーザ7により作られたその表情に関連する単語56について、データベース52を検索するというように、情報フローを逆転させることもできる。このような方法により、ユーザが顔10の構成要素の移動を完了して所望の表情を作った後には、システム11は単語を表示することができる。ユーザは、これにより、どんな単語が特定の表情と関連しているかについて学ぶことができる。
例えばウェブ・カメラを用いることにより、ユーザが異なる表情を見るときの、ユーザの目の動きを読み取り、調べることもできる。表情に対するユーザの反応は、例えば、特定の感情的な反応を識別するのに必要とした時間として測定される。表情を、時間とともに動的に表示することで、仮想顔が、ある表情から異なる表情へ、どのように徐々に変化していくかを示すこともできる。これは、例えば、喜びの感情表現から悲しみの感情表現への表情の変化に、いつユーザが気づくのかを判定するのに用いることができる。それぞれの表情の座標は、喜びの表現と悲しみの表現との間のどこかにあるそれらの表現をも含むために、その後、データベースに記憶することができる。ユーザが表情により表現された感情を判定するときに、どの構成要素が最も重要なのかを判定するために、1つの構成要素の座標だけを変えることもできる。表情のニュアンスは、このように、本発明の仮想顔10を用いて判定することができる。換言すれば、眉、口などの全ての構成要素の座標は、互いに協働して、全体の表情を形成する。例えば、目は悲しむが口は微笑んだ顔のような、より複雑または混合された表情を、ユーザに対して表示することにより、混合された表情を認識または識別できるようにユーザを訓練することができる。
本発明のデジタル表情を用いることにより、メッセージ中の単語に基づいた表情を用いて、SMSや電子メールのようなデジタルメッセージを強化することができる。ユーザ自身が自分の表情を含ませて、メッセージを強化することさえもできる。ユーザは、このようにユーザ自身の顔のデジタル画像を用い、この顔に変更を加えて、メッセージに添付した表情で感情を表すことができる。例えば、この方法は、電子メッセージに表情を追加するステップを含むことができ、その結果、表情は、電子メッセージ中の、感情を記述した単語を特定し、仮想顔とともにその感情を表示することができる。
本発明の仮想顔を用いて、文化的な違いを調べることができる。例えば、中国人は、ブラジル人とは、表情の解釈が異なるであろう。ユーザは、また、ユーザ自身の表情を用い、それを仮想顔10の表情と比較し、それから、ユーザ自身の表情を変えて、仮想顔10によって表現された感情と同じ感情を表現することができる。
図7は、本発明の仮想顔10の使用の実施例98を示す。表示ステップ100では、コンピュータシステム11に接続されたスクリーン9上に仮想顔10が表示される。操作ステップ102では、ユーザ7は、カーソル8で、眉、目、鼻および口のような、顔の構成要素を動かすことにより、仮想顔10を操作し、喜びの表情や悲しみの表情のような表情を表す。判定ステップ104では、コンピュータシステム11は、ユーザにより作り出された表情の座標53を判定する。検索ステップ106では、コンピュータシステム11は、座標53に適合する表情の座標54をデータベース52から検索する。特定ステップ108では、コンピュータシステム11は、特定された表情の座標54に関連する単語56を特定する。本発明は、1つの単語を特定するだけに限らず、文章のような他の表現を特定することをも含む。表示ステップ110では、コンピュータシステム11は、特定された単語56をユーザ7に向けて表示する。
本発明は、好適な構成および好適な実施例に従って記載されるが、以下の請求項の趣旨および範囲から逸脱することなく、それに対して特定の置換および変更を成すことができる。
本発明は、仮想表情の創成方法に関する。
本発明の方法は、上で概説した課題の解決策を提供する。より詳しくは、本発明の方法は、仮想顔を創成する方法である。仮想顔は、カーソルを有するコンピュータシステムに接続されたスクリーンに表示される。ユーザは、カーソルを用いて仮想顔を操作して表情を表すことができる。コンピュータシステムは、その表情の座標を判定することができる。コンピュータシステムは、データベースから、その座標に適合する表情の座標を検索する。特定された表情の座標に関連する単語または文章が特定される。スクリーンは、その単語をユーザに向けて表示する。また、ユーザがコンピュータシステムに単語または文章を入力し、コンピュータシステムが、データベースから、その単語およびそれに関連する表情を検索することも可能である。コンピュータシステムは、それから、スクリーンに信号を送り、その単語に関連する表情を表示することができる。
図7は、本発明の仮想顔10の創成の実施例98を示す。表示ステップ100では、コンピュータシステム11に接続されたスクリーン9上に仮想顔10が表示される。操作ステップ102では、ユーザ7は、カーソル8で、眉、目、鼻および口のような、顔の構成要素を動かすことにより、仮想顔10を操作し、喜びの表情や悲しみの表情のような表情を表す。判定ステップ104では、コンピュータシステム11は、ユーザにより作り出された表情の座標53を判定する。検索ステップ106では、コンピュータシステム11は、座標53に適合する表情の座標54をデータベース52から検索する。特定ステップ108では、コンピュータシステム11は、特定された表情の座標54に関連する単語56を特定する。本発明は、1つの単語を特定するだけに限らず、文章のような他の表現を特定することをも含む。表示ステップ110では、コンピュータシステム11は、特定された単語56をユーザ7に向けて表示する。

Claims (7)

  1. 仮想顔を使用する方法であって、
    カーソル(8)を有するコンピュータシステム(11)に接続されたコンピュータスクリーン(9)に、仮想顔(10)を表示し、
    前記カーソル(8)を用いて前記仮想顔(10)を操作して表情を表し、
    前記コンピュータシステム(11)が、前記表情の座標(53)を判定し、
    前記コンピュータが、データベース(52)から、前記座標(53)に適合する表情の座標(54)を検索し、
    特定された前記表情の座標(54)に関連する単語(56)を特定し、
    前記単語(56)をユーザに向けて表示すること含むことを特徴とする方法。
  2. 前記データベース(52)に、表情が記述される単語(56)を、予め記憶させるステップをさらに含む請求項1記載の方法。
  3. 表情の表情座標(54)のパンフレットを前記データベース(52)に記憶させ、それぞれの表情を、予め記憶された前記単語(56)に関連付けるステップをさらに含む請求項2記載の方法。
  4. 前記コンピュータシステム(11)に前記単語(56)を入力し、前記コンピュータシステム(11)が、前記データベース(52)中で前記単語(56)を特定し、前記データベース(52)中の単語(56)に関連する表情に、前記単語(56)を関連付けるステップをさらに含む請求項1記載の方法。
  5. 前記スクリーン(9)が、前記単語(56)に関連する表情を表示するステップをさらに含む請求項4記載の方法。
  6. ユーザに、表情を識別する訓練を行うステップをさらに含む請求項1記載の方法。
  7. 電子メッセージに表情を加え、前記表情が前記電子メッセージ中の感情を記述した単語を特定し、前記仮想顔とともにその感情を表示するステップをさらに含む請求項1記載の方法。
JP2012538848A 2009-11-11 2010-10-29 仮想表情の創成方法 Pending JP2013511087A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US26002809P 2009-11-11 2009-11-11
US61/260,028 2009-11-11
PCT/US2010/054605 WO2011059788A1 (en) 2009-11-11 2010-10-29 Method for using virtual facial expressions

Publications (1)

Publication Number Publication Date
JP2013511087A true JP2013511087A (ja) 2013-03-28

Family

ID=43991951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012538848A Pending JP2013511087A (ja) 2009-11-11 2010-10-29 仮想表情の創成方法

Country Status (6)

Country Link
US (1) US20120023135A1 (ja)
EP (1) EP2499601A4 (ja)
JP (1) JP2013511087A (ja)
CN (1) CN102640167A (ja)
IN (1) IN2012DN03388A (ja)
WO (1) WO2011059788A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244525A (ja) * 2011-05-23 2012-12-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US9355366B1 (en) 2011-12-19 2016-05-31 Hello-Hello, Inc. Automated systems for improving communication at the human-machine interface
CA2870362C (en) * 2012-04-11 2017-03-21 Blackberry Limited Systems and methods for searching for analog notations and annotations
WO2014139118A1 (en) * 2013-03-14 2014-09-18 Intel Corporation Adaptive facial expression calibration
US10044849B2 (en) 2013-03-15 2018-08-07 Intel Corporation Scalable avatar messaging
IL226047A (en) * 2013-04-29 2017-12-31 Hershkovitz Reshef May A method and system for giving personal expressions
KR20150120552A (ko) * 2014-04-17 2015-10-28 한국과학기술원 금속 산화물 나노 입자의 제조방법 및 이에 따라 제조되는 금속 산화물 나노 입자
JP6761417B2 (ja) * 2014-12-19 2020-09-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. スケジュール検出に基づく動的ウェアラブルデバイス挙動

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5405266A (en) * 1992-08-17 1995-04-11 Barbara L. Frank Therapy method using psychotherapeutic doll
US5517610A (en) * 1993-06-01 1996-05-14 Brother Kogyo Kabushiki Kaisha Portrait drawing apparatus having facial expression designating function
US8001067B2 (en) * 2004-01-06 2011-08-16 Neuric Technologies, Llc Method for substituting an electronic emulation of the human brain into an application to replace a human
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US7089504B1 (en) * 2000-05-02 2006-08-08 Walt Froloff System and method for embedment of emotive content in modern text processing, publishing and communication
US7391420B1 (en) * 2000-09-28 2008-06-24 At&T Corp. Graphical user interface graphics-based interpolated animation performance
US6661418B1 (en) * 2001-01-22 2003-12-09 Digital Animations Limited Character animation system
US7137070B2 (en) * 2002-06-27 2006-11-14 International Business Machines Corporation Sampling responses to communication content for use in analyzing reaction responses to other communications
US7244124B1 (en) * 2003-08-07 2007-07-17 Barbara Gibson Merrill Method and device for facilitating energy psychology or tapping
US7239321B2 (en) * 2003-08-26 2007-07-03 Speech Graphics, Inc. Static and dynamic 3-D human face reconstruction
US7697960B2 (en) * 2004-04-23 2010-04-13 Samsung Electronics Co., Ltd. Method for displaying status information on a mobile terminal
US7746986B2 (en) * 2006-06-15 2010-06-29 Verizon Data Services Llc Methods and systems for a sign language graphical interpreter
US7751599B2 (en) * 2006-08-09 2010-07-06 Arcsoft, Inc. Method for driving virtual facial expressions by automatically detecting facial expressions of a face image
CN100461204C (zh) * 2007-01-19 2009-02-11 赵力 一种基于二维偏最小二乘法的面部表情识别方法
JP4789825B2 (ja) * 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法
KR101390202B1 (ko) * 2007-12-04 2014-04-29 삼성전자주식회사 자동 감정 탐지를 이용한 영상 향상 시스템 및 방법
KR100960504B1 (ko) * 2008-01-25 2010-06-01 중앙대학교 산학협력단 감성표현이 적용된 디지털 스토리보드 생성 방법 및 시스템
WO2009101153A2 (en) * 2008-02-13 2009-08-20 Ubisoft Entertainment S.A. Live-action image capture
KR101604593B1 (ko) * 2008-03-31 2016-03-18 코닌클리케 필립스 엔.브이. 이용자 명령에 기초하여 리프리젠테이션을 수정하기 위한 방법
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
TWI430185B (zh) * 2010-06-17 2014-03-11 Inst Information Industry 臉部表情辨識系統及其辨識方法及其電腦程式產品

Also Published As

Publication number Publication date
WO2011059788A1 (en) 2011-05-19
EP2499601A1 (en) 2012-09-19
EP2499601A4 (en) 2013-07-17
US20120023135A1 (en) 2012-01-26
CN102640167A (zh) 2012-08-15
IN2012DN03388A (ja) 2015-10-23

Similar Documents

Publication Publication Date Title
JP2013511087A (ja) 仮想表情の創成方法
Pelachaud Studies on gesture expressivity for a virtual agent
Kipp Gesture generation by imitation: From human behavior to computer character animation
Mullenbach et al. Exploring affective communication through variable-friction surface haptics
Hsu et al. When gesture “takes over”: Speech-embedded nonverbal depictions in multimodal interaction
Pelachaud et al. Multimodal behavior modeling for socially interactive agents
Qiu et al. Understanding visually impaired people’s experiences of social signal perception in face-to-face communication
Wolfe et al. The myth of signing avatars
De Wit et al. The design and observed effects of robot-performed manual gestures: A systematic review
Starner et al. PopSign ASL v1. 0: an isolated american sign language dataset collected via smartphones
Rühlemann et al. Reaching beneath the tip of the iceberg: A guide to the Freiburg Multimodal Interaction Corpus
Poggi et al. Persuasion and the expressivity of gestures in humans and machines
Gregori et al. A roadmap for technological innovation in multimodal communication research
Dworkin The imaginary solution
Martin et al. Levels of Representation in the Annotation of Emotion for the Specification of Expressivity in ECAs
US20130083052A1 (en) Method for using virtual facial and bodily expressions
Marcus et al. Design, User Experience, and Usability: Theory, Methodology, and Management: 6th International Conference, DUXU 2017, Held as Part of HCI International 2017, Vancouver, BC, Canada, July 9-14, 2017, Proceedings, Part I
Sagawa et al. A teaching system of japanese sign language using sign language recognition and generation
Butchart The communicology of Roland Barthes’ Camera Lucida: reflections on the sign–body experience of visual communication
Kiernan et al. Learner narratives of translingual identities
Noot et al. Variations in gesturing and speech by gestyle
Lücking et al. Framing multimodal technical communication
Gsöllpointner Syn-aesthetics of digital art
Juhan et al. Character design towards narrative believability of boboiboy in the malaysian animated feature film boboiboy: the movie (2016)
McDonald et al. The myth of signing avatars