JP4481682B2 - 情報処理装置及びその制御方法 - Google Patents

情報処理装置及びその制御方法 Download PDF

Info

Publication number
JP4481682B2
JP4481682B2 JP2004049934A JP2004049934A JP4481682B2 JP 4481682 B2 JP4481682 B2 JP 4481682B2 JP 2004049934 A JP2004049934 A JP 2004049934A JP 2004049934 A JP2004049934 A JP 2004049934A JP 4481682 B2 JP4481682 B2 JP 4481682B2
Authority
JP
Japan
Prior art keywords
information
user
unit
image
presenting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004049934A
Other languages
English (en)
Other versions
JP2005237561A (ja
JP2005237561A5 (ja
Inventor
優和 真継
克彦 森
雄司 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004049934A priority Critical patent/JP4481682B2/ja
Priority to US11/064,624 priority patent/US20050187437A1/en
Publication of JP2005237561A publication Critical patent/JP2005237561A/ja
Publication of JP2005237561A5 publication Critical patent/JP2005237561A5/ja
Application granted granted Critical
Publication of JP4481682B2 publication Critical patent/JP4481682B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7285Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、表情や動作その他の非言語的、非明示的に表出された人物に関する心身状況を検出して行うマルチモーダルインタフェースを用いた情報提供サービスに関する。
所定の感覚刺激を提示し、利用者の状態(表情、視線、身体動作等)変化の履歴に基づき刺激を制御することにより利用者の感性を活性化するシステム(特許文献1)や、プレイヤーの精神状態を変化させるバイオフィードバック装置(特許文献2)、バイオフィードバックゲーム機器(特許文献3)などが提案されている。また、特許文献4では、脈波信号から得られる心拍間隔の揺らぎに基づきストレス度を検出し、ストレス度の増加の割合が所定値を超えたら、コンピュータやゲームなどの外部装置の動作を中止する。また、特許文献5に開示されるマルチモーダルインタフェース装置では、非言語メッセージを利用してインタフェース動作を制御することにより、自然なインタラクションを行う構成を示している。
特開2002−334339号公報 特開2001-252265号公報 特開平10−328412号公報 特開平10−71137号公報 特開平11−249773号公報
しかしながら、以上説明した技術のうち、マルチモーダルインタフェース装置は、利用者により意図的に表出されるジェスチャや表情をどのように効果的にかつ高精度に活用するかという点に対応するものであったが、利用者の非言語により表出された意図や情況を検出して所望のまたは予め設定した情報提供を行うようなインタフェース的機能を提供することは課題として捉えられていない。
また、感性活性化システムは単純な刺激に対する利用者の反応の履歴をみてリハビリテーションなどの為の有効な刺激を効果的に提示するためのものであり、利用者の心身の状態に対応して適切な情報提示を行うことには対応できない。バイオフィードバックゲーム等で用いるストレス検出方法では、プレイヤーの生体反応のみを検出するものであるが、ストレス以外の多様な心身状況の程度を精度良く推定することができず、結果としてゲーム等を行った後の注意力散漫、テンカンなどの発作、などの心身上の問題を有効に防止することが困難であった。感性活性化システムやバイオフィードバックゲームなどは、生体情報のみを用いるために利用者の特定の心身状況(たとえばストレスや疲労度など)の検出ができても多種多様な心身状況を検出することは困難であった。
本発明は上述した課題に鑑みてなされたものであり、画像情報から得られる表情や動作に関する情報を用いることを可能とし、非明示的な心身の状態を高精度に検知可能とすることを目的とする。
また、本発明の他の目的は、表情や動作に関する情報とともに、音声および/または生体情報等を総合的に用いることにより、非明示的な心身の状態を高い精度で検知して、利用者の状況に適応した情報提示の制御を可能とすることにある。
上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
画像情報に含まれる人物像の表情および身体動作を検出する第1検出手段と、
前記第1検出手段による検出結果に基づいて、ユーザの心身状況を判定する判定手段と、
画像及び音声の少なくともいずれかにより情報を提示する提示手段と、
前記判定手段で判定されたユーザの心身状況が第1の所定状況であれば当該第1の所定状況から離脱させるための予め用意された情報の提示を起動し、前記提示手段による情報の提示中に前記心身状況が第2の所定状況になれば当該情報の提示の仕方を変更し、前記心身状況が情報の提示を継続すると危険な状況になれば前記提示手段によって提示中の情報の提示を中止するよう前記提示手段による提示を制御する制御手段とを備える。
また、本発明の他の態様による情報処理装置は、上記の構成に対して、ユーザの音声及び生体情報の少なくともいずれかを検出する第2検出手段をさらに備え、前記判定手段は、前記第1及び第2検出手段の検出結果に基づいてユーザの心身状況を判定する。
本発明よれば、画像情報から得られる表情や動作に関する情報を用いることが可能となり、非明示的な心身の状態を高精度に検知可能となる。また、本発明によれば、表情や動作に関する情報とともに、音声および/または生体情報等を総合的に用いることが可能となり、非明示的な心身の状態を高い精度で検知して、利用者の状況に適応した情報提示の制御が可能となる。
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
<第1実施形態>
以下、図面を参照して本発明の第1実施形態を詳細に説明する。図1は、第1実施形態による情報提示システムの要部構成を示すブロック図である。情報提示システムは、画像センシング部10(結像光学系、映像センサ、センサ信号処理回路、センサ駆動回路を含む)、音声センシング部11、生体情報センシング部12、画像認識部15、音声認識部16、心身状況検出部20、情報提示部30、これらの動作を司る制御部40、データベース部50などから構成される。以上の構成により、本実施形態では、画像認識部15から得られる画像情報に基づいて利用者の心身状況を大まかに推定し、その推定結果と、音声情報、生体情報などを用いて詳細に心身状況の推定を行う。以下、各構成の機能について、概要を説明する。
画像センシング部10は人物の顔画像などを撮影する撮像センサを主たる構成要素とする。撮像センサは典型的にはCCDやCMOSイメージセンサなどが用いられ、センサ駆動回路(不図示)からの読み出し制御信号により映像信号が出力される。音声センシング部11は、マイクロフォンと、該マイクロフォンによって入力される利用者の音声信号を背景の音信号から分離抽出する信号処理回路を具備する。音声センシング部11で得られた音声信号は音声認識部16において音声認識されたり、心身状況検出部20においてその信号周波数等が測定される。
生体情報センシング部12は、図4に示すように、各種生体情報を取得するためのセンサ401(発汗度センサ、脈拍センサ、呼気センサ、呼吸パターン検出部、血圧センサ、虹彩画像入力部等の少なくともいずれかを含む)と、センサ401からのセンシングデータを電気信号に変換し所定の前処理(圧縮、特徴抽出等)などを行って生態情報データを生成する信号処理回路402と、信号処理回路402で得られた生体情報データを情報提示部30および制御部40に送信する通信部403(若しくはデータ線)を備える。このように多種多様な生体情報をセンシングして統合することにより後で説明する心身状況の推定精度を高めることができる。なお、この生体情報センシング部12は、人体に装着するものであっても、本情報提示システムに内蔵されてもよい。人体に装着する場合、例えば、腕時計、眼鏡、カツラ、下着などに埋め込まれていてもよい。
画像認識部15は、図3に示すように、人物検出部301、表情検出部302、身振り検出部303、個人認識部304を有する。人物検出部301は、画像センシング部10から入力する画像データを処理して、人物の頭部や顔、上半身部分、または全身を検出する画像処理モジュール(ソフトウエアモジュールもしくは回路モジュール)である。個人認識部304は、人物検出部301で検出された顔等を用いて人物(予め登録した人物)を特定(利用者識別)する画像処理モジュールである。なお、これら画像処理モジュールにおける頭部や顔検出、および顔認識(利用者識別)などのアルゴリズムは周知の方式を用いればよい(例えば、本出願人による特許第3078166号公報など参照)。
また、表情検出部302は、所定の表情(笑顔、退屈した表情、興奮した表情、困った表情、怒った表情、驚いた表情など)を検出するための画像処理モジュールである。身振り検出部303は、人体の手や足の動きから検出される特定の動作(歩く、座る、食事をする、物を運ぶ、運転する、横たわる、倒れる、受話器を取る、物を掴む、離す、など)、姿勢の変化、特定の手振り(指差し、手招き、じゃんけんの動作、など)等を検出するための画像処理モジュールである。表情認識技術、身振り検出技術についても周知の方式を用いればよい。
図1に戻り、心身状況検出部20は、画像認識部15による認識結果を用いて心身状況の一次推定を行う。この一次推定では、可能性のある複数の心身状況の状態の分類(状態クラス)の候補を特定する。そして、さらに心身状況検出部20は、一次推定結果として得られた心身状況の状態クラスについて各種センシング部(音声センシング部11および/または生体情報センシング部12)からの出力信号を用いて絞込みを行い、利用者の心身の状態クラスを決定するとともに、その状態クラスにおける程度(状態レベル)を決定する。このように外見上の状態として現れた画像情報に基づき、大まかに心身状況を推定し、音声センシング部11/生体情報センシング部12により抽出された生体情報や音声情報に基づいて状態を絞り込み、心身状況の推定(状態クラスとレベルの決定)を行うことにより、心身状況検出部20での心身状況の推定精度と処理効率が単に生体情報のセンシングだけに基づいて行う場合と比べて向上する。なお、一次推定において心身状況の状態クラスを1つに決定し、二次推定においてはその状態レベルを決定するようにしてもよいであろう。
なお、本明細書において、心身状況とは喜怒哀楽などの所定の感情、若しくは関心度、満足度、興奮度などに対応して利用者の表情や身体動作として発現され、かつセンシング部によって物理的に測定可能な状態量である。例えば、関心度、興奮度が高まれば、心拍数、発汗レベル、瞳孔径などの数値が上昇する。満足度が上がれば微笑みなどの表情やうなずきなどの身体動作が現れる。また、上機嫌なときは音声の中心周波数レベルが上がり、表情に目が垂れる、微笑むなどの状態変化が観測される。いらいらしているときは、足をゆする、髪の毛を掻きむしる、などの動作が画像認識部15により観測される。
なお、心拍数、血圧、発汗量、音声は個人差があるので、平静時のこれらのデータをデータベース部に記憶させておき、心身状態の変化を検出するときは、これら参照データからの偏差に関する評価値を算出し、それに基づいて心身状況の推定を行う。即ち平静時のデータを個人別に記憶しておき、個人認識部304によって特定された個人に対応する平静時データを用いて、評価値の算出を行う。
また、心身状況検出部20は、心身状態の種類だけでなく各種センシング情報に基づきその程度(興奮度、満足度、関心度、疲労度など)を推定する処理モジュール(興奮度推定、幸福度推定、疲労度推定、満足度推定、関心度推定モジュール)などを含む。例えば、“興奮度”の推定は心拍や呼吸頻度レベル(または脈波、呼吸リズムの不規則性)、顔が赤くなる、大笑いする、怒鳴るなどの表情動作、または笑い声、怒声、泣き声、喘ぎ声など音声レベルのセンシング情報の少なくとも1つもしくは複数を上記したように統合して行う。また、“関心度”は、瞳孔径の大きさ、身を乗り出すなどの動作、凝視の頻度、時間幅などにより推定することが出来る。“満足度”は、頷きの大きさ、満足若しくは快感を表す言葉(音声認識部16により検出される「美味しい」、「面白い」、「すごい」など)とその音量、或いは微笑み、笑い、などの特定表情動作を検出することにより、そのレベルを推定することが出来る。
このように画像センシング部からの処理情報(画像認識部15から得られる表情や身振りに関する検出情報)のみを用いることにより心身状況を推定しても良いが、一般的にはさらに他の複数のセンシング部からの処理情報(例えば心拍数、表情、音声など)を統合することにより心身状態の推定と分類を行う。その処理方法としては、ニューラルネットワーク(自己組織化マップ、サポートベクトルマシン、動径基底関数ネットワーク、その他フィードフォワードまたはリカレント型の並列階層処理モデル)、統計的パターン認識、多変量解析などの統計的手法や所謂センサーフュージョンなどの技術、ベイジアンネットワークなどの公知の技術を使うことができる。
情報提示部30は、ディスプレイやスピーカ(いずれも図示せず)と、情報提示プログラムを格納する第1の記憶部(図示せず)、利用者の嗜好性を記憶する第2の記憶部(図示せず)を内蔵する。なお、これら記憶部に格納される情報はデータベース部50に記憶されていてもよい。
制御部40は、心身状況検出部20からの出力に基づき、推定された心身状態に対応して予め情報提示部30内に設定された情報提示プログラムの選択起動、現情報提示の停止または中断、推定された利用者の状態に対応した情報表示などを行う。情報提示の停止、中断などは、情報提示によってもたらされる心身状況の危険な状態またはその前触れ(極度の疲労、心不全などの兆候など)を自動的に検知して回避するためである。
図2は、第1実施形態における基本的な処理の流れをまとめたフローチャートである。先ず、画像センシング部10、音声センシング部12、生体情報センシング部13よりセンシングデータ(画像、音声、生体情報データ)を取得する抽出処理を行う(ステップS201)。画像認識部15では、画像データから人物検出、個人認識、表情認識、動作認識などの画像認識処理を行う(ステップS202)。心身状況検出部20では、画像認識部15の画像認識結果に基づいて心身状況の一次推定処理を行う(ステップS203)。そして、心身状況検出部20は、さらに、ステップS203による一次推定結果と、上記表情認識および動作認識以外のセンシング情報(音声、生体情報といった画像以外のセンシング情報や、虹彩画像等から得られる情報)に基づき心身状況の二次推定を行う(ステップS204)。この二次推定によって得られた心身状況の種類(状態クラス)とその程度(状態レベル)に基づき情報提示内容の決定(提示内容の変更、情報提示の起動、停止を含む)を行い(ステップS205)、情報提示制御信号を発生させる(ステップS206)。
本実施形態では、情報提示とは、例えば音楽、映画、ゲームなどのコンテンツ提供のことをさす。例えば、利用者による身体動作としてのあくびや、空ろな目をした退屈そうな顔表情などが画像認識部15により観測されたら退屈度が高い(状態クラス=退屈)という一次推定結果が心身状況検出部20から出力される。そして、更に二次推定において、音声センシング部11により検出されるあくび音声や、生体情報センシング部12により瞳孔径から得られるpupillogramを求めて推定される覚醒度の算出結果を用いて、退屈のレベルが推定される。制御部40はこの推定結果(ここでは退屈の状態レベル)に基づいて、ジャンルの異なるコンテンツへの切り替え、情報提示の中止などの是非を問い掛けるメッセージを表示出力したり、音声出力したりする。
上記のように制御部40は、心身状況検出部20からの出力(二次推定結果)に基づき、情報提示部30により提示する情報の内容の制御を行う。具体的には、上記した様に画像認識部15の出力に基づき心身状況検出部20により一次推定の結果得られる心身状態の推定クラスである第一の状態クラス(退屈状態、興奮状態、疲労状態、困惑状態など)及び、音声センシング部11または生体情報センシング部12からの出力を用いて二次推定の結果得られる心身状態の推定クラスである第二の状態クラス、及びその程度(退屈度、興奮度、疲労度、困惑度など)に対応して予め用意された画像プログラムの提示に関する制御信号(起動、停止、中断を促すメッセージの表示、など)を発生する。心身状況の状態クラスと程度に対応する制御信号の内容は、ルックアップテーブル化され、データベース部50または所定のメモリ(図示せず)に格納されている。ここで所定レベル以上の疲労度、倦怠感、恐怖感、または嫌悪感のいずれかを検出した場合、制御部40は他の動画像表示への切り替え、現動画像表示の停止、または所定のメッセージ表示(「脳が疲労しています。これ以上は健康を害するおそれがあります」などの警告メッセージ)を行う。即ち、情報提示部30は、利用者の心身の状態に関して検出された情報を提示する。
次に、第1実施形態による心身状況検出処理について、図5のフローチャートを参照してより詳細に説明する。
ステップS501において、画像認識部15は、画像センシング部10より画像を入力する。そして、ステップS502において、人物検出部301が、入力された画像より主被写体(人間の顔)を検出する。そして、ステップS503において、個人認識部304により、検出された人物の特定、即ち個人認識を行い、個人認識結果に基づき、データベース部50などからその人物に関する各心身状態に対応する生体情報(心拍リズム、呼吸リズム、血圧、体温、発汗量など)、音声情報(声の調子など)、画像情報(表情、身振りなど)の個人データを一次記憶部に読み込む。
なお、上記ステップS502およびS503における人物の検出および認識処理のための前処理用に抽出する一次特徴量としては、色彩情報や動きベクトル情報から得られる特徴量があげられるがこれらに限定される必要は無い。他の低次の特徴量(例えば、特定範囲の方向成分と特定範囲の空間周波数を有するような幾何学的特徴、或いは本出願人による特許第3078166号公報に開示されるような局所的特徴要素など)を用いてもよいことは言うまでも無い。なお、画像認識処理としては、例えば、本出願人による階層的ニューラルネットワーク回路(特願2000−181487、特願2000―181488、特願2000−181480)その他の構成を用いてもよい。利用者が画面内で検出されなかった場合には、主被写体の未検出信号が出力されるようにしてもよい。
なお、ステップS503において個人の特定ができなかった場合には、汎用のモデルデータとして予め用意されたルックアップテーブルデータを読み込む。
次に、ステップS504において、画像認識部15は、その人物に関して画像センシング部10を用いて入力された画像データから所定の表情、身振り、動作の検出を行う。ステップS505において、心身状況検出部20は、ステップS504で画像認識部15より出力された顔表情や身振り、動作の検出結果に基づき心身状況の状態クラスを推定(一次推定)する。次に、ステップS506において、心身状況検出20は、音声センシング11や生体情報センシング部12から信号を取得し、ステップS507において、一次推定結果とこれらの信号に基づいて二次推定を行う。即ち、一次推定で得られた状態クラスの絞込みを行い、最終的に心身状態のクラスとその程度を判定する。そして、ステップS508において、制御部40は、判定された心身状態クラスと程度(状態レベル)に基づいて情報提示の中止、起動、警告などのメッセージ表示、或いは情報提示内容の変更、情報提示内容のストーリ展開速度の変更、情報提示内容の難易度変更、情報提示用文字サイズの変更などを行う。
例えば、情報提示内容の難易度変更とは、心身状況の推定結果が「困惑」状態であり、そのレベル値が所定値を超えた場合に、ひらがな表示、平易な表現に変更することなどを意味する。同様に情報提示用文字サイズの変更は、目を細めるなどの表情、顔を画面に近づけるなどの動作が検出されたときに行う(表示される文字サイズを大きくするよう変更する)。情報提示の起動は、例えば推定された心身状況が、「退屈」、「憂鬱」などであり、そのレベル値が所定値を超えた場合、その心身状況を離脱させ、精神的活動を活性化させる(或いは元気付ける)ような情報提示プログラム(映画、ゲーム、音楽、教育など)を起動する。情報提示プログラムは、インタラクティブなコンテンツ(インタラクティブ映画、ゲーム、教育用プログラム)でもよい。情報提示の中止は、主として検出された心身状況が高いレベルの「疲労」などそれ以上の継続は危険として予め設定された心身状況に利用者があると推定されるときに実行される。
このような情報提示の制御は、利用者の心身状況が生体情報、表情などから推定される一定範囲の活性度に保たれるように行ってもよい。
以上のように、第1実施形態によれば、利用者の外部に現れる顔表情や身体動作に基づいて心身状況を把握し(一次推定)、顔表情や身体動作以外のセンシング情報(音声情報やセンシング情報、虹彩パターンのような画像情報)に基づいて心身状況の絞込み、心身状況の状態クラスとレベルの判定を行う(二次推定)ので、効率よく、しかも正確に心身状況を判定することができる。また、こうして決定された心身状況の状態クラスおよびレベルに基づいて利用者への情報提示を制御するので、利用者の心身状況に応じた適切な情報を自動的に提示することが可能である。
<第2実施形態>
第1実施形態では、心身状況検出部20によって検出された心身状況に応じて、当該装置内のデータベース50に格納された情報の提示が制御された。第2実施形態では、提示する情報を外部装置から取得する場合を説明する。
図6は第2実施形態による情報提示システムの構成を示すブロック図である。図6において第1実施形態(図1)の構成と同様の構成要素には同一の参照番号を付してある。第2実施形態では、データベース50の代わりにネットワークとの通信を行うネットワーク通信制御部601が設けられている。情報提示部30は、心身状況検出部20によって検出された心身状況の状態レベルをトリガとしてネットワーク通信制御部601により外部装置620へアクセスし、該状態レベルに応じた提示用の情報を取得する。な尾、図1と同様に音声認識部16を設けてもよい。
外部装置620において、ネットワーク通信制御部623はネットワークを介して情報提示装置600との通信を可能とする。情報提示用サーバ621は、情報提示装置600より受信した、情報の要求に基づいて、対応する情報をデータベース622より取得して、情報提示装置600へ送信する。課金部624は、情報提示に対する課金を行う。なお、情報提示部30が心身状況の状態レベルに応じて必要な情報を特定し、外部装置620にこれを要求するようにしてもよいし、検出された心身状況の状態レベルを情報要求とともに送信し、外部装置620の情報提示用サーバ621において受信した心身状況に応じた情報を特定するようにしてもよい。
第2実施形態の応用例について説明する。この応用例では、情報提示部30による情報取得のトリガとして人物の所定の表情、身体動作に応じた画像変換を行って提供するシステムおよびサービスについて説明する。利用者により現れた身体上の所定の変化をトリガとして画像変換を自動的に行うインタフェース機能を実現する。
本システムではインターネットによる販売システムを実現する。図7は第2実施形態による処理を説明するフローチャートである。衣服、帽子、眼鏡などの購入を検討している利用者がインターネットを通じて画面上でカタログを閲覧し、気に入ったアイテムを選択し、かつその利用者が特定の表情やポーズをとると、処理はステップS701、S702を経て、ステップS703へ進む。ステップS703で、選択されたアイテムに関する画像データの要求を該外部装置620に対して行い、さらにステップS704で、その利用者の頭部や全身像が抽出され、抽出画像が情報提示装置600において保持される(抽出情報と画像全体という形態で保持してもかまわない)。一方、センター側の情報提示用サーバ621からは、通信回線を通じてカタログより選択されたアイテムの表示用データがユーザ端末に送信されるので、ステップS705においてこれを受信し、情報提示装置600の情報提示部30(ディスプレイ)に表示する。情報提示部60には、合成画像生成プログラムがインストールされており、上記ステップS704で抽出された、所定の表情やポーズを行っているユーザの画像に対して、上記ステップS705で受信したアイテム画像を合成し、ユーザがそのアイテムを身に付けた画像を生成して情報提示部30(ディスプレイ)に表示する(ステップS706)。利用者がそれを確認して最終的に購入決定を指示すると、ステップS707からステップS708へ進み、当該アイテムの購入が成立する。なお、課金部624は、利用者による物品購入の際の課金だけでなく、利用者に様々な合成画像データを提供するサービスに対する対価として課金する目的にも用いられる。
なお、上記において、外部より画像データを取得するためのトリガとして顔表情や身体の動きによる情報を用いたが、他の音声や生体情報を加味してトリガとするか否かを決定するようにしてもよい。
<第3実施形態>
第3実施形態では、第1実施形態や第2実施形態による情報提示装置(システム)をゲームや映画などの動画像コンテンツを提示するエンターテイメント装置(システム)に適用する。これにより、心身状況検出部20によって検出された利用者(視聴者)の心身状況の状態レベルに基づいて動画像コンテンツの展開を自動制御(変更)する。以下、第3実施形態の構成、動作について第1実施形態の情報提示装置を用いて説明する。
図8は、データベース50に格納されている動画コンテンツの構成例を説明する図である。(a)の例では、aから始まって、最終的にc1〜c4までのいずれかにたどり着く4種類のストーリーが用意されている。ストーリーの一部であるaの終了時に、利用者の心身状況の状態レベルを検出し、次のストーリー展開として、b1かb2のいずれかを選択する。b2の終了時においても同様にc2〜c4のいずれかのストーリーが心身状況の状態レベルに応じて選択される。或いは、(b)に示すように、A〜Dへのストーリーの転換において、所定の場面において心身状況の状態レベルをチェックし、それに応じてa1やb1等のストーリーを追加的に組み込むような形態でもよい。
即ち、動画像コンテンツ中の予め設定された複数場面において利用者(視聴者)の心身状況の状態レベルを認識し、その認識結果に基づいてコンテンツの表示内容の制御を行う。第1実施形態で説明したように、画像認識部35に内蔵される利用者の身振り検出部303および表情検出部302による表情または動作(頷き、パンチのポーズ、泣く、笑う)の検出、または生体信号の状況(心拍数・血圧・呼吸頻度・発汗量の増加など)に基づいて心身状況検出部20が状態レベルを検出し、この検出結果に応じて動画像の表示展開の変更を行う。例えば、動画像中の登場人物が利用者に向かって問い掛けを行う場面で視聴者の反応(表情または身振り)を画像認識315が判定し、予め用意された状態クラス(肯定/否定、満足/不満足、関心有り/無関心、嬉しい/悲しい、など)のいずれかに該当すると判定された場合には、その場面の内容と視聴者の心身状況に関する状態クラスとの対応関係に基づき予め設定されたストーリ展開などを行う。また、動画像展開の制御プログラムは、心拍数や血圧など生体情報の異常が検出されたら、直ちに動画像表示の停止、警告メッセージの表示などを第1実施形態と同様に行う。或いは、利用者の恐怖状態を検出し、ある恐怖状態があるレベルを超えているかいないかで所定の恐怖シーンを提示するか否かを決定する。また、生体反応レベルが所定の範囲内に入るようにストーリ展開の制御(即ち情報提示の制御)を行ってもよい。例えば、興奮度や疲労度などに関する生体反応レベルの許容範囲として上限値、下限値を定め、興奮度または疲労度を上げる方向か下げる方向かの方向性とその変化の大きさに応じた複数のストーリ展開を各分岐点に予め設定しておき、許容範囲の中央値に近づく方向となるストーリ展開を選択する。
<第4実施形態>
第4実施形態では、上記第1或いは第2実施形態で示した情報提示装置(システム)をロボットに適用する。例えば、ロボットは手、足、頭部、胴体などを備え、画像センシング部10および音声センシング部11を頭部に、生体情報センシング部12を手に設ける。このように配置することで、ユーザの画像を効率よく捉え、生体情報をユーザとの接触に違和感のない「手」から取得することができるようになる。なお、画像センシング部および音声センシング部は左右2対設ける。ロボット頭部の左右に1対ずつ設けることにより、奥行き分布や立体情報の知覚、音源方向の推定などを行うことができる。こうして、得られたユーザに対するセンシング情報から、心身状況検出部20が近くにいるユーザの心身状態を推定し、その結果に応じて情報提示を制御する。
<第5実施形態>
第5実施形態では、第1実施形態に示したような情報提示システムがディスプレイや壁面/天井面、窓、鏡などに埋め込まれているものとし、利用者からは見えないか、もしくは目立たない状態に置かれているものとする。ディスプレイ、壁面/天井面、鏡などは半透明部材で構成されており、利用者の画像入力が可能になっている。図1で示したセンシング部のうち、画像センシング部10(顔画像、虹彩画像入力部としての機能を有する)、音声センシング部11は情報提示システム側に設定される。生体情報センシング部12は呼気センサ、血圧、心拍数、体温、呼吸パターン計測センサなどが含まれ、第1実施形態で用いたものと同様に通信部を内蔵し、利用者(人物、ペットなどの生体)が装着しているものとする。
ここでは、心身状況検出部520は特に利用者の表情、身振り、呼気、虹彩パターン、血圧、などのデータに基づいて利用者の心身の健康状態を推定する。情報提示部30は、利用者の健康状態に関する情報提示やアドバイス提示などの情報提示を第1実施形態と同様にディスプレイへの文字表示またはスピーカからの音声メッセージにより行う。なお、呼気に基づく病気の診断については日経サイエンス2004年2月号132−133ページに記載の記事などを参照されたい。その他、制御部40は第1実施形態と同様の機能と構成を有する。また、生体情報センシング部12は、ユーザに装着され、取得した信号を送信するセンサ部と、この信号を受信する情報提示装置に組み込まれた通信部を含み、センサ部で計測、取得された生体信号は情報提示装置の心身状況検出部20に提供される。
以上説明した情報提示システムは情報提示の目的以外に、例えば、利用者の表情を認識し、表情の明るさ(または暗さ)評価機能を有する心身状況検出部を用い、制御部は、検出された表情の明るさに応じて、認識された表情が明るいほどディスプレイや照明の明るさが明るくなるように制御するような機器環境設定に用いることもできる。
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
第1実施形態に係る情報提示装置の構成を示すブロック図である。 第1実施形態による情報提示処理の主要な手順を説明するフローチャートである。 画像認識部15の構成を示すブロック図である。 生体情報センシング部12の構成を示すブロック図である。 第1実施形態による情報提示処理を説明するフローチャートである。 第2実施形態による情報提示システムの構成を示すブロック図である。 第2実施形態による情報提示処理を説明するフローチャートである。 第4実施形態によるコンテンツの構成を模式的に示した図である。

Claims (15)

  1. 画像情報に含まれる人物像の表情および身体動作を検出する第1検出手段と、
    前記第1検出手段による検出結果に基づいて、ユーザの心身状況を判定する判定手段と、
    画像及び音声の少なくともいずれかにより情報を提示する提示手段と、
    前記判定手段で判定されたユーザの心身状況が第1の所定状況であれば当該第1の所定状況から離脱させるための予め用意された情報の提示を起動し、前記提示手段による情報の提示中に前記心身状況が第2の所定状況になれば当該情報の提示の仕方を変更し、前記心身状況が情報の提示を継続すると危険な状況になれば前記提示手段によって提示中の情報の提示を中止するよう前記提示手段による提示を制御する制御手段とを備えることを特徴とする情報処理装置。
  2. ユーザの音声及び生体情報の少なくともいずれかを検出する第2検出手段をさらに備え、
    前記判定手段は、前記第1及び第2検出手段の検出結果に基づいてユーザの心身状況を判定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記判定手段は、
    前記第1検出手段により得られた情報に基づいて、ユーザの心身状況に関して予め定義された複数のクラスの一つへ現在のユーザの心身状況を分類する分類手段と、
    前記第2検出手段により得られた情報に基づいて、前記分類手段で分類されたクラスにおける前記現在の心身状況のレベルを決定するレベル付け手段とを備えることを特徴とする請求項2に記載の情報処理装置。
  4. 前記判定手段は、
    前記第1検出手段により得られた情報に基づいて、ユーザの心身状況に関して予め定義された複数のクラスから複数の候補のクラスを抽出する抽出手段と、
    前記第2検出手段により得られた情報に基づいて、前記抽出手段で抽出された複数の候補のクラスのいずれか1つに現在のユーザの心身状況を分類するとともに、分類されたクラスにおける該ユーザの心身状況のレベルを決定する決定手段とを備えることを特徴とする請求項2に記載の情報処理装置。
  5. 前記画像情報に含まれる人物を特定する特定手段と、
    前記特定された人物に基づいて前記判定手段で利用する個人情報を取得する取得手段とをさらに備えることを特徴とする請求項2に記載の情報処理装置。
  6. 前記生体情報は、発汗度、脈拍、呼吸パターン、瞳孔径、虹彩パターンの少なくともいずれかを含むことを特徴とする請求項2に記載の情報処理装置。
  7. 前記提示手段は、更に、前記ユーザの心身の状態に関して検出された情報を提示することを特徴とする請求項1又は2に記載の情報処理装置。
  8. 前記提示手段は、外部装置より提示すべき情報を取得することを特徴とする請求項1又は2に記載の情報処理装置。
  9. 前記判定手段で判定されたユーザの心身状況が予め定められた状況である場合に、その時点のユーザの画像を保持する保持手段をさらに備え、
    前記提示手段は、前記所定の状況であると判定された場合に外部装置より取得した画像を前記保持手段で保持されたユーザの画像に合成して提示することを特徴とする請求項1又は2に記載の情報処理装置。
  10. 前記制御手段は、前記判定手段によって判定されるユーザの心身状況が所定のレベル範囲内に収まるように前記提示手段による提示の内容を制御することを特徴とする請求項1又は2に記載の情報処理装置。
  11. 前記提示手段は、複数の画像の連続提示もしくは動画の提示を行い、
    前記制御手段は、前記判定手段によって判定された心身状況に基づいて提示内容が異なるように制御することを特徴とする請求項1又は2に記載の情報処理装置。
  12. 情報処理装置の制御方法であって、
    第1検出手段が、画像情報に含まれる人物像の表情および身体動作を検出する第1検出工程と、
    判定手段が、前記第1検出工程で検出された状態に基づいて、ユーザの心身状況を判定する判定工程と、
    提示手段が、画像及び音声の少なくともいずれかにより情報を提示する提示工程と、
    制御手段が、前記判定工程で判定されたユーザの心身状況が第1の所定状況であれば当該第1の所定状況から離脱させるための予め用意された情報の提示を起動し、前記提示工程による情報の提示中に前記心身状況が第2の所定状況になれば当該情報の提示の仕方を変更し、前記心身状況が情報の提示を継続すると危険な状況になれば前記提示工程により提示中の情報の提示を中止する制御工程とを備えることを特徴とする情報処理装置の制御方法。
  13. 第2検出手段が、音声及び生体情報の少なくともいずれかを検出する第2検出工程をさらに備え、
    前記判定工程は、前記第1及び第2検出工程で検出された状態に基づいてユーザの心身状況を判定することを特徴とする請求項12に記載の情報処理装置の制御方法。
  14. 請求項12又は13に記載の情報処理装置の制御方法をコンピュータに実行させるための制御プログラム。
  15. 請求項12又は13に記載の情報処理装置の制御方法をコンピュータに実行させるための制御プログラムを格納した記憶媒体。
JP2004049934A 2004-02-25 2004-02-25 情報処理装置及びその制御方法 Expired - Lifetime JP4481682B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004049934A JP4481682B2 (ja) 2004-02-25 2004-02-25 情報処理装置及びその制御方法
US11/064,624 US20050187437A1 (en) 2004-02-25 2005-02-24 Information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004049934A JP4481682B2 (ja) 2004-02-25 2004-02-25 情報処理装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2005237561A JP2005237561A (ja) 2005-09-08
JP2005237561A5 JP2005237561A5 (ja) 2007-04-12
JP4481682B2 true JP4481682B2 (ja) 2010-06-16

Family

ID=34858282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004049934A Expired - Lifetime JP4481682B2 (ja) 2004-02-25 2004-02-25 情報処理装置及びその制御方法

Country Status (2)

Country Link
US (1) US20050187437A1 (ja)
JP (1) JP4481682B2 (ja)

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007098367A2 (en) * 2006-02-16 2007-08-30 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Method and apparatus for stimulating a denervated muscle
US20070197881A1 (en) * 2006-02-22 2007-08-23 Wolf James L Wireless Health Monitor Device and System with Cognition
WO2007105694A1 (ja) * 2006-03-13 2007-09-20 Pioneer Corporation 覚醒維持装置及び覚醒維持方法並びに覚醒維持のためのコンピュータプログラム
JP4728886B2 (ja) * 2006-06-20 2011-07-20 日本電信電話株式会社 知覚情報提示装置
JP4432054B2 (ja) * 2006-06-20 2010-03-17 富士フイルム株式会社 撮像装置及び方法
JP4505862B2 (ja) * 2006-06-26 2010-07-21 村田機械株式会社 音声対話装置と音声対話方法及びそのプログラム
US20080295126A1 (en) * 2007-03-06 2008-11-27 Lee Hans C Method And System For Creating An Aggregated View Of User Response Over Time-Variant Media Using Physiological Data
TWI324918B (en) * 2007-04-04 2010-05-21 Ind Tech Res Inst Monitoring apparatus, system and method
US9232042B2 (en) * 2007-07-20 2016-01-05 Broadcom Corporation Method and system for utilizing and modifying user preference information to create context data tags in a wireless system
US8027668B2 (en) * 2007-07-20 2011-09-27 Broadcom Corporation Method and system for creating a personalized journal based on collecting links to information and annotating those links for later retrieval
US20100153146A1 (en) * 2008-12-11 2010-06-17 International Business Machines Corporation Generating Generalized Risk Cohorts
JP5089470B2 (ja) 2008-04-09 2012-12-05 本田技研工業株式会社 関心度推定装置および方法
US8301443B2 (en) 2008-11-21 2012-10-30 International Business Machines Corporation Identifying and generating audio cohorts based on audio data input
US8442832B2 (en) 2008-12-08 2013-05-14 Electronics And Telecommunications Research Institute Apparatus for context awareness and method using the same
US8749570B2 (en) 2008-12-11 2014-06-10 International Business Machines Corporation Identifying and generating color and texture video cohorts based on video input
US8190544B2 (en) 2008-12-12 2012-05-29 International Business Machines Corporation Identifying and generating biometric cohorts based on biometric sensor input
US20100153147A1 (en) * 2008-12-12 2010-06-17 International Business Machines Corporation Generating Specific Risk Cohorts
US20100153597A1 (en) * 2008-12-15 2010-06-17 International Business Machines Corporation Generating Furtive Glance Cohorts from Video Data
US20100153133A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Generating Never-Event Cohorts from Patient Care Data
WO2010070882A1 (ja) 2008-12-16 2010-06-24 パナソニック株式会社 情報表示装置及び情報表示方法
US11145393B2 (en) 2008-12-16 2021-10-12 International Business Machines Corporation Controlling equipment in a patient care facility based on never-event cohorts from patient care data
US8493216B2 (en) * 2008-12-16 2013-07-23 International Business Machines Corporation Generating deportment and comportment cohorts
US20100153390A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Scoring Deportment and Comportment Cohorts
US8219554B2 (en) 2008-12-16 2012-07-10 International Business Machines Corporation Generating receptivity scores for cohorts
US20100153180A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Generating Receptivity Cohorts
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US10401860B2 (en) 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US9723992B2 (en) 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US10592757B2 (en) * 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US9503786B2 (en) 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US10799168B2 (en) * 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US9959549B2 (en) 2010-06-07 2018-05-01 Affectiva, Inc. Mental state analysis for norm generation
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US9204836B2 (en) * 2010-06-07 2015-12-08 Affectiva, Inc. Sporadic collection of mobile affect data
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US20140200463A1 (en) * 2010-06-07 2014-07-17 Affectiva, Inc. Mental state well being monitoring
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US11232290B2 (en) * 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US10111611B2 (en) * 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US10289898B2 (en) 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US20160379505A1 (en) * 2010-06-07 2016-12-29 Affectiva, Inc. Mental state event signature usage
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US20200226012A1 (en) * 2010-06-07 2020-07-16 Affectiva, Inc. File system manipulation using machine learning
US10628985B2 (en) 2017-12-01 2020-04-21 Affectiva, Inc. Avatar image animation using translation vectors
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US10143414B2 (en) * 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US9646046B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state data tagging for data collected from multiple sources
US20170095192A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Mental state analysis using web servers
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
JP5677002B2 (ja) * 2010-09-28 2015-02-25 キヤノン株式会社 映像制御装置、及び映像制御方法
EP2627407B1 (en) * 2010-10-13 2015-01-14 Valkee Oy Modification of parameter values of optical treatment apparatus
US10318877B2 (en) 2010-10-19 2019-06-11 International Business Machines Corporation Cohort-based prediction of a future event
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
AU2012256402A1 (en) 2011-02-27 2013-07-11 Affectiva, Inc, Video recommendation based on affect
JP5571633B2 (ja) * 2011-08-31 2014-08-13 東芝テック株式会社 健康度報知装置、プログラム及び健康度報知方法
US20130243270A1 (en) * 2012-03-16 2013-09-19 Gila Kamhi System and method for dynamic adaption of media based on implicit user input and behavior
US10890965B2 (en) 2012-08-15 2021-01-12 Ebay Inc. Display orientation adjustment using facial landmark information
JP5998830B2 (ja) * 2012-10-15 2016-09-28 富士ゼロックス株式会社 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP5647209B2 (ja) * 2012-11-07 2014-12-24 オリンパスイメージング株式会社 撮像装置及び撮像方法
US11352812B2 (en) * 2013-03-15 2022-06-07 August Home, Inc. Door lock system coupled to an image capture device
CN105050673B (zh) * 2013-04-02 2019-01-04 日本电气方案创新株式会社 面部表情评分装置、舞蹈评分装置、卡拉ok装置以及游戏装置
JP6244643B2 (ja) 2013-04-15 2017-12-13 オムロン株式会社 表情推定装置、制御方法、制御プログラム、および記録媒体
JP5889247B2 (ja) * 2013-07-02 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法及び画像処理プログラム、並びに撮像装置
KR101554691B1 (ko) * 2013-12-06 2015-09-21 주식회사 씨크릿우먼 두상 성형 또는 공간 형성을 위한 보조장치를 구비한 헤어웨어
CN103957459B (zh) * 2014-05-15 2019-03-15 北京智谷睿拓技术服务有限公司 播放控制方法及播放控制装置
CN107072567B (zh) * 2014-10-16 2021-01-15 松下知识产权经营株式会社 生物体信息处理装置和生物体信息处理方法
US9269374B1 (en) * 2014-10-27 2016-02-23 Mattersight Corporation Predictive video analytics system and methods
JP6520140B2 (ja) * 2015-01-22 2019-05-29 Tdk株式会社 情報処理装置、血圧値算出方法及びプログラム
CN104644189B (zh) * 2015-03-04 2017-01-11 刘镇江 一种心理活动的分析方法
KR101689021B1 (ko) * 2015-09-16 2016-12-23 주식회사 인포쉐어 센싱장비를 이용한 심리상태 판단 시스템 및 그 방법
CN106562792B (zh) * 2015-10-08 2021-08-06 松下电器(美国)知识产权公司 信息提示装置的控制方法和信息提示装置
JP6554422B2 (ja) * 2016-01-07 2019-07-31 日本電信電話株式会社 情報処理装置、情報処理方法、及び、プログラム
US10628663B2 (en) * 2016-08-26 2020-04-21 International Business Machines Corporation Adapting physical activities and exercises based on physiological parameter analysis
KR101759335B1 (ko) 2016-10-05 2017-07-19 주식회사 지엔아이씨티 뇌파 측정을 이용한 발표 및 면접 훈련 시스템
JP6753331B2 (ja) * 2017-02-22 2020-09-09 沖電気工業株式会社 情報処理装置、方法および情報処理システム
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
FI20175862A1 (fi) 2017-09-28 2019-03-29 Kipuwex Oy Järjestelmä äänilähteen määrittämiseksi
JP7302945B2 (ja) * 2017-12-11 2023-07-04 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2021128350A (ja) 2018-05-09 2021-09-02 ソニーグループ株式会社 情報処理システム、情報処理方法、および記録媒体
KR102363656B1 (ko) * 2018-09-19 2022-02-15 노충구 두뇌유형 분석방법 및 분석검사 시스템과 이를 통한 두뇌훈련 서비스 제공방법 및 두뇌훈련 시스템
US11455982B2 (en) * 2019-01-07 2022-09-27 Cerence Operating Company Contextual utterance resolution in multimodal systems
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
US11269410B1 (en) * 2019-06-14 2022-03-08 Apple Inc. Method and device for performance-based progression of virtual content
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
US20220219090A1 (en) * 2021-01-08 2022-07-14 Sony Interactive Entertainment America Llc DYNAMIC AND CUSTOMIZED ACCESS TIERS FOR CUSTOMIZED eSPORTS STREAMS
WO2023152859A1 (ja) * 2022-02-10 2023-08-17 日本電信電話株式会社 フィードバック装置、フィードバック方法、プログラム
CN117224080A (zh) * 2023-09-04 2023-12-15 深圳市维康致远科技有限公司 大数据的人体数据监测方法装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11151231A (ja) * 1997-11-20 1999-06-08 Nissan Motor Co Ltd 車両用精神疲労度判定装置
JPH11285484A (ja) * 1998-02-26 1999-10-19 Eastman Kodak Co 心理状態処理方法とその装置
JP2000245718A (ja) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd 精神状態評価装置
JP2001245269A (ja) * 2000-02-25 2001-09-07 Sony Corp コミュニケーション・データ作成装置及び作成方法、コミュニケーション・データ再生装置及び再生方法、並びに、プログラム記憶媒体
JP2001522108A (ja) * 1997-10-30 2001-11-13 ヘッドスキャニング パテント ベーファウ 外観が変更された人体の少なくとも一部を表示する方法及び装置
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
JP2002269468A (ja) * 2001-03-06 2002-09-20 Ricoh Co Ltd 商品販売システム及び同販売方法
JP2003044837A (ja) * 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003210587A (ja) * 2001-11-15 2003-07-29 Katsuomi Uota 睡眠導入装置及び睡眠導入方法及び心理生理効果授与支援装置及び心理生理効果授与装置及び心理生理効果授与方法及び心理生理効果授与システム及びコンピュータに実行させるためのプログラム及びコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003308303A (ja) * 2002-04-18 2003-10-31 Toshiba Corp 個人認証装置および通行制御装置
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5304112A (en) * 1991-10-16 1994-04-19 Theresia A. Mrklas Stress reduction system and method
US5343871A (en) * 1992-03-13 1994-09-06 Mindscope Incorporated Method and apparatus for biofeedback
US6057846A (en) * 1995-07-14 2000-05-02 Sever, Jr.; Frank Virtual reality psychophysiological conditioning medium
US5676138A (en) * 1996-03-15 1997-10-14 Zawilinski; Kenneth Michael Emotional response analyzer system with multimedia display
US6012926A (en) * 1996-03-27 2000-01-11 Emory University Virtual reality system for treating patients with anxiety disorders
US6950522B1 (en) * 2000-06-15 2005-09-27 Microsoft Corporation Encryption key updating for multiple site automated login
US20030179229A1 (en) * 2002-03-25 2003-09-25 Julian Van Erlach Biometrically-determined device interface and content
US6896655B2 (en) * 2002-08-05 2005-05-24 Eastman Kodak Company System and method for conditioning the psychological state of a subject using an adaptive autostereoscopic display
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001522108A (ja) * 1997-10-30 2001-11-13 ヘッドスキャニング パテント ベーファウ 外観が変更された人体の少なくとも一部を表示する方法及び装置
JPH11151231A (ja) * 1997-11-20 1999-06-08 Nissan Motor Co Ltd 車両用精神疲労度判定装置
JPH11285484A (ja) * 1998-02-26 1999-10-19 Eastman Kodak Co 心理状態処理方法とその装置
JP2000245718A (ja) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd 精神状態評価装置
JP2001245269A (ja) * 2000-02-25 2001-09-07 Sony Corp コミュニケーション・データ作成装置及び作成方法、コミュニケーション・データ再生装置及び再生方法、並びに、プログラム記憶媒体
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
JP2002269468A (ja) * 2001-03-06 2002-09-20 Ricoh Co Ltd 商品販売システム及び同販売方法
JP2003044837A (ja) * 2001-07-30 2003-02-14 Digital Fashion Ltd 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003210587A (ja) * 2001-11-15 2003-07-29 Katsuomi Uota 睡眠導入装置及び睡眠導入方法及び心理生理効果授与支援装置及び心理生理効果授与装置及び心理生理効果授与方法及び心理生理効果授与システム及びコンピュータに実行させるためのプログラム及びコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003308303A (ja) * 2002-04-18 2003-10-31 Toshiba Corp 個人認証装置および通行制御装置
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置

Also Published As

Publication number Publication date
US20050187437A1 (en) 2005-08-25
JP2005237561A (ja) 2005-09-08

Similar Documents

Publication Publication Date Title
JP4481682B2 (ja) 情報処理装置及びその制御方法
US11656680B2 (en) Technique for controlling virtual image generation system using emotional states of user
US10901509B2 (en) Wearable computing apparatus and method
JP6125670B2 (ja) 収集された生物物理的信号の時間的パターンおよび空間的パターンに基づく脳‐コンピューターインターフェース(bci)システム
JP6268193B2 (ja) 脈波測定装置、携帯機器、医療機器システム、及び生体情報コミュニケーションシステム
Sebe et al. Multimodal emotion recognition
CN103561652B (zh) 用于辅助患者的方法和系统
KR20240011874A (ko) 신경 상태의 검출을 위해 생체 센서 데이터를 사용하여 라이브 엔터테인먼트를 디렉팅
KR20210004951A (ko) 신경 생리학적 상태의 검출을 위한 센서 데이터를 사용하는 컨텐츠 생성 및 제어
JP2004310034A (ja) 対話エージェントシステム
WO2014052506A2 (en) Devices and methods to facilitate affective feedback using wearable computing devices
US20120194648A1 (en) Video/ audio controller
Guthier et al. Affective computing in games
US20160293043A1 (en) Device, system and method for providing feedback to a user relating to a behavior of the user
Hamdy et al. Affective games: a multimodal classification system
KR102543337B1 (ko) 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법
El Mougy Character-IoT (CIoT): Toward Human-Centered Ubiquitous Computing
WO2012117335A2 (en) System and method for operating and/or controlling a functional unit and/or an application based on head movement
JP2024046867A (ja) 情報処理装置および恐怖症改善支援方法
Yumak et al. Survey of sensor-based wellness applications

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4481682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4