JP2004237022A - 情報処理装置および方法、プログラム、並びに記録媒体 - Google Patents

情報処理装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP2004237022A
JP2004237022A JP2003040993A JP2003040993A JP2004237022A JP 2004237022 A JP2004237022 A JP 2004237022A JP 2003040993 A JP2003040993 A JP 2003040993A JP 2003040993 A JP2003040993 A JP 2003040993A JP 2004237022 A JP2004237022 A JP 2004237022A
Authority
JP
Japan
Prior art keywords
information
terminal
user
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003040993A
Other languages
English (en)
Inventor
Masumi Ono
真澄 小野
Mikio Kamata
幹夫 鎌田
Masamichi Asukai
正道 飛鳥井
Kazunori Omura
和典 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003040993A priority Critical patent/JP2004237022A/ja
Priority to PCT/JP2003/012758 priority patent/WO2004053702A1/ja
Priority to CN2003801002127A priority patent/CN1692341B/zh
Priority to KR1020047012342A priority patent/KR100994906B1/ko
Priority to EP03748712A priority patent/EP1574961A4/en
Priority to US10/503,121 priority patent/US7548891B2/en
Publication of JP2004237022A publication Critical patent/JP2004237022A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/217Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/206Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
    • A63F2300/208Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards for storing personal settings or data of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/572Communication between players during game play of non game information, e.g. e-mail, chat, file transfer, streaming of audio and streaming of video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Abstract

【課題】情報処理装置を用いて、生体情報などの非定義情報から、使用者の感情・状態を特定できるようにする。
【解決手段】入力部91で使用者の脈拍情報と体動情報を取得し、特徴抽出部112において、脈拍情報と体動情報の特徴量ベクトルを生成する。学習部94において、生成された特徴量ベクトルと蓄積部95に蓄積された特徴量ベクトルを比較し、使用者の感情・状態を特定し、出力制御部114を経由して出力部92へ出力する。また、新たに生成された特徴量ベクトルを蓄積部95に蓄積されたベクトルに加えて、ベクトルの分布、分布の中心、標準偏差を再計算し、蓄積部95に蓄積する。
【選択図】 図5

Description

【0001】
【発明の属する技術分野】
本発明は情報処理装置および方法、プログラム、並びに記録媒体に関し、特に、使用者の個性を反映する様々な情報から特徴を抽出し、学習を行い、その学習結果をもとに、使用者の感情、状態、およびその強度を特定することができるようにした情報処理装置および方法、プログラム、並びに記録媒体に関する。
【0002】
【従来の技術】
従来、情報処理装置を用いたコミュニケーションとして、電話、メール、チャットなどが用いられている。情報処理装置を介さない対面時におけるコミュニケーションでは、言葉を用いた意味伝達のみならず、表情、動作、気配など様々な手段で、感情、状態などの情報も伝達される。それに対して、電話、メール、チャットなどは、主に、言葉を用いた意味伝達には有効であるが、言葉で表現されていない感情、状態、気配などを伝える事はできない。また、インターネット上で行われているバーチャルコミュニケーションにおいては、アバターと言われるコンピュータ合成画像なども用いられているが、人の感情を十分表現するには到っていない。
【0003】
このように、現状では、情報処理装置を用いたコミュニケーションにおいて、極めて制限された情報のやり取りが行われているに過ぎない。
【0004】
そこで、音声情報、画像情報、バイタルサイン(生体情報)といった情報を通信し、それらの情報をもとに操作者の心理や生理状態を推定し、推定量を出力する通信装置が、提案されている。(例えば、特許文献1参照)
【0005】
【特許文献1】
特開2002−34936号公報
【0006】
【発明が解決しようとする課題】
特許文献1の技術では、使用者の生体情報について各平均値からのずれが算出され、その結果から操作者の感情や状態を推定されている。しかし、このような単純な推定アルゴリズムを用いて人間の感情や状態を“喜”“怒”“哀”“楽”などに一義的に推定した結果は、必ずしも正しいと言えず、このような推定結果を表示する事は、操作者ならびに操作者間に誤解を生じさせ、かえってコミュニケーションの阻害要因となるおそれがある。
【0007】
また、情報の表示に関しては、表、グラフ、または図形を用いる、顔の表情、色などを変化させて表示する、音声あるいは音情報を加工するといった方法が示されているが、生体情報から推定される感情や状態、更には、人の動作や気配などの情報を表示する方法としては不十分であるという課題があった。
【0008】
本発明は、使用者の感情や状態を、その強度とともに特定することを可能にする。また、非言語的情報を用いてコミュニケーションができるようにするものである。
【0009】
【課題を解決するための手段】
本発明の情報処理装置は、非言語的情報と言語的情報の入力を受け付ける入力受付手段と、入力された非言語的情報を言語的情報に関係付けて、使用者の感情を学習する学習手段と、学習手段による学習の結果得られた情報を蓄積する蓄積手段と、入力された非言語的情報、または蓄積された非言語的情報を所定の信号に変換し、出力する出力手段とを備えることを特徴とする。
【0010】
前記学習手段は、使用者の感情を、その強度とともに学習することができる。
【0011】
前記学習手段は、新たに非言語的情報が入力されたとき、蓄積手段に蓄積された非言語的情報に基づいて、使用者の感情を特定し、出力手段は、学習手段が特定した結果を出力することができる。
【0012】
前記蓄積手段は、学習手段により特定された感情に対応する非言語的情報を、蓄積手段に蓄積された非言語的情報に付加してさらに蓄積することができる。
【0013】
非言語的情報の特徴を表す変数を生成する変数生成手段をさらに備え、学習手段は、生成された変数を統計的に処理し、変数を蓄積手段に蓄積することができる。
【0014】
前記学習手段は、入力された非言語的情報から変数生成手段が生成した変数と、蓄積手段に蓄積された変数を比較して、使用者の感情を特定することができる。
【0015】
前記入力手段は、非言語的情報として、使用者の脈拍情報、または体動情報の入力を受け付けることができる。
【0016】
前記入力手段は、非言語的情報として、使用者の打鍵による振動情報の入力を受け付けることができる。
【0017】
前記入力手段は、非言語的情報として、使用者のマウス握り圧情報、または環境温度情報の入力を受け付けることができる。
【0018】
本発明の情報処理装置は、オンラインゲームを行うゲーム機とすることができる。
【0019】
前記入力手段は、非言語的情報としてゲーム機のコントローラの加速度情報、または握り圧情報の入力を受け付けることができる。
【0020】
前記出力手段は、蓄積された非言語的情報のうち、使用者が指定した特定の非言語的情報を抽出し、抽出された非言語的情報を所定の信号に変換し、使用者が指定する他のゲーム機に出力することができる。
【0021】
本発明の情報処理方法は、非言語的情報と言語的情報の入力を受け付ける入力受付ステップと、入力された非言語的情報を言語的情報に関係付けて、使用者の感情を学習する学習ステップと、学習ステップの処理による学習の結果得られた情報を蓄積する蓄積ステップと、入力された非言語的情報または、蓄積された非言語的情報を所定の信号に変換し、出力する出力ステップとを含むことを特徴とする。
【0022】
本発明のプログラムは、非言語的情報と言語的情報の入力の受け付けを制御する入力受付制御ステップと、入力された非言語的情報を言語的情報に関係付けて、使用者の感情の学習を制御する学習制御ステップと、学習制御ステップの処理による学習の結果得られた情報の蓄積を制御する蓄積制御ステップと、入力された非言語的情報または、蓄積された非言語的情報の所定の信号への変換、出力を制御する出力制御ステップとをコンピュータに実行させることを特徴とする。
【0023】
本発明の記録媒体は、非言語的情報と言語的情報の入力の受け付けを制御する入力受付制御ステップと、入力された非言語的情報を言語的情報に関係付けて、使用者の感情の学習を制御する学習制御ステップと、学習制御ステップの処理による学習の結果得られた情報の蓄積を制御する蓄積制御ステップと、入力された非言語的情報または、蓄積された非言語的情報の所定の信号への変換、出力を制御する出力制御ステップとをコンピュータに実行させるプログラムが記録されていることを特徴とする。
【0024】
本発明の情報処理装置および方法、プログラム並びに記録媒体においては、非言語的情報と言語的情報の入力が受け付けられ、入力された非言語的情報が言語的情報に関係付けられ、使用者の感情が学習される。入力された非言語的情報、または蓄積された非言語的情報が所定の信号に変換され、出力される。
【0025】
なお、以上において感情とは、喜び、嫌悪のような感情だけを表すものではなく、活性、安定のような状態を含めて表すものである。
【0026】
【発明の実施の形態】
以下に、本発明の実施の形態について図面を参照して説明する。図1は本発明の情報処理装置を利用したコミュニケーションシステムの構成を示す図である。
【0027】
本発明の情報処理装置である端末1、端末2、および端末3はそれぞれネットワーク11に接続され、互いに情報通信を行うことが可能である。
【0028】
端末1(端末A)、端末2(端末B)、端末3(端末C)にはそれぞれ、情報の入力を受け付ける入力部91A乃至91C、入力された情報を処理する処理部93A乃至93C、入力された情報から使用者の感情、状態、およびその強度を学習、特定する学習部94A乃至94C、学習部によって学習、特定された情報を蓄積する蓄積部95A乃至95C、学習部によって特定された情報、または蓄積部に蓄積された情報を出力する出力部92A乃至92C、情報の送受信を行う通信部96A乃至96C、および各部を制御するシステム制御部97A乃至97Cが設けられている。
【0029】
なお、端末1(端末A)乃至端末3(端末C)の構成は同一であるため、それらを構成する入力部91A乃至システム制御部97A、入力部91B乃至システム制御部97B、並びに入力部91C乃至システム制御部97Cは、それぞれ同一の機能を有している。以下においては、それらを個々に区別する必要がない場合には、入力部91乃至システム制御部97と、まとめて表現する。
【0030】
図2に示すように、端末1、端末2、または端末3の入力部に入力される情報は、定義情報と非定義情報に分類される。定義情報とは、その情報単独で、一義的に解釈が可能な情報であり、言語や意味の決まった記号、意図的に行われる特定の操作によって決まった情報を伝達できる自己申告情報などが、これに相当する。
【0031】
一方、非定義情報とは、その情報単独では、多様な解釈が可能、もしくは解釈が困難な情報であり、脈拍、血流、血圧、呼吸、体温、皮膚表面温、皮膚電気抵抗、発汗、脳波、脳磁などの生理情報、体の移動、頭部の移動などの体動情報、打鍵による振動、マウスを握る圧力などの情報が、これに相当する。
【0032】
処理部93では、入力された定義情報から使用者の感情、状態、およびその強度(感情情報E)が抽出され、非定義情報からは、特徴量Cと、信号レベル列が抽出され、学習部94に送られる。
【0033】
学習部94に送られた感情情報E、特徴量C、および信号レベル列は、統合された後、蓄積部95に、特定の個人毎にDataとして蓄積される。Dataは、蓄積情報としてのPID、CD、CSDから構成される。
【0034】
PIDは、氏名、ニックネーム、電子メールアドレスや個人に割り当てられた番号などの記号、性別、生年月日、居住地、血液型などで構成され、個人を特定する情報である。
【0035】
CDは、特定情報PIDにより特定された個人の感情情報E、入力された非定義情報から抽出された1つの特徴量Cの分布fc、その分布の中心値μ、標準偏差σ、使用者が情報を入力した時点における使用者の周辺環境情報(温度、湿度、環境音情報、近接者数、気象情報、位置情報など)Kp、および情報が蓄積された日時Tにより構成される。
【0036】
感情・状態は、表1に示す通り12通りに分別される。
Figure 2004237022
<表1>
【0037】
さらに、各感情・状態は、強、中、弱の3種類の強度に分けられ、感情情報Eは36(=12×3)通りとなる。従って単独情報CDは1つの特徴量毎に36個存在することになり、特徴量の数をmとすると、単独情報CDは1個人毎に36×m個存在する。
【0038】
蓄積情報であるCSDは、特定情報PIDにより特定された個人の感情情報E、非定義情報から抽出された複数の特徴量Cを組み合わせたベクトルVcの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσ、入力者が情報を入力した時点における入力者の周辺環境情報(温度、湿度、環境音情報、近接者数、気象情報、位置情報など)Kp、情報が蓄積された日時Tにより構成される。
【0039】
感情・状態は、表1に示す通り12通りに分別され、さらに、各感情・状態は、強、中、弱の3種類の強度に分けられ、感情情報Eは36通りとなる。従って複数情報CSDは、1個人毎に36個存在する。
【0040】
蓄積部95に蓄積された情報は、使用者の感情・状態を学習したり、特定したりするときに参照され、新しい情報が加えられた後、あらためて蓄積部95に蓄積される。
【0041】
蓄積部95に十分な情報が蓄積された後は、非定義情報のみから、情報処理装置が、特定の個人の感情、状態、およびその強度を特定することができる。この場合、入力された非定義情報の特徴量を抽出され、蓄積部95に蓄積された特定の個人に対応する情報と比較される。
【0042】
例えば、処理部93において、特定の個人aについて、非定義情報から複数の特徴量C1,C2,..Cmが抽出されたとする。学習部94において、この抽出された複数の特徴量から、特徴量ベクトルVcx(C1,C2...Cm)が生成される。
【0043】
そして、学習部94は、蓄積部95に蓄積された個人aについての複数情報CSDを読み出し、蓄積されている全ての感情、状態、およびその強度に対応する中心ベクトルVμ1,Vμ2,...Vμ36を読み出す。
【0044】
次に、特徴量ベクトルVcxと各中心ベクトルVμn(n=1,2,...36)の内積(Vcx,Vμn)が算出される。さらに、内積(Vcx,Vμn)の値が大きい分布から順番に、全てのベクトル成分に対して、(Vμnm−σnm)≦Vcxm≦(Vμnm+σnm)の条件を満たしているか判定される。ここで、Vμnmは、Vμnのm番目の成分を表し、σnmは、分布fvcnの標準偏差ベクトルσnのm番目の成分を表し、Vcxmは、Vcxのm番目の成分を表している。
【0045】
図3は、特徴量Cの感情情報E1乃至Enに対応する分布を示した図であり、縦軸は特徴量の分布fcを表し、横軸は特徴量Cの値を表している。図3の例の場合、特徴量Cの値がVcxmとなったとき、感情情報E2に対応する分布において、(Vμ2m−σ2m)≦Vcxm≦(Vμ2m+σ2m)の条件を満たしている。
【0046】
このように、ベクトルを構成する全ての成分について、条件を満たすか否かが判定され、Vcxは、条件を満たした分布の内、内積(Vcx,Vμn)の値が最大となる分布に属すると判定する。
【0047】
図4は、入力された非定義情報から生成された、特徴量ベクトルVcxと、蓄積部95に蓄積されている各感情情報に対応する特徴量ベクトルの分布の関係を示す図である。これらのベクトルはm個の成分をもっているので、軸ch1、軸ch2...軸chmにより構成されるm次元の空間に存在する。この空間の中には、感情情報E1に対応する特徴量ベクトルの分布fvc1、その分布の中心ベクトルVμ1、感情情報E2に対応する特徴量ベクトルの分布fvc2、その分布の中心ベクトルVμ2、および感情情報Enに対応する特徴量ベクトルの分布fvcnが存在する。
【0048】
各中心ベクトルVμ1、Vμ2およびVμnとVcxの内積値(Vcx,Vμ1)、(Vcx,Vμ2)、および(Vcx,Vμn)の中で、最大となるのは(Vcx,Vμ2)であり、かつVcxおよびVμ2を構成するm個の成分全てについて(Vμ2m−σ2m)≦Vcxm≦(Vμ2m+σ2m)の条件を満たしているので、Vcxは、感情情報E2に対応する分布に属するものと判定される。
【0049】
このようにして、入力された非定義情報から、特定された個人の感情、状態、およびその強度を特定することができる。
【0050】
実施の形態1
【0051】
図5に本発明の第1の情報処理装置の構成例を示す。この情報処理装置は、携帯電話などに適用することができる。この情報処理装置には、使用者の音声情報、脈拍情報、および距離情報の入力を受け付ける入力部91、入力部91から入力された情報を処理する処理部93、処理部93から出力された特徴情報と感情情報に基づいて、学習、特定を行う学習部94、学習部94から出力された学習情報、特定情報を蓄積する蓄積部95、処理部93から出力された出力情報に基づいて、情報を出力する出力部92、通信を行う通信部96、および各部を制御するシステム制御部97が設けられている。
【0052】
処理部93には、入力部91から入力された情報を、音声情報、脈拍情報、または体動情報に分別する情報弁別部111、脈拍情報と体動情報から特徴情報を抽出する特徴抽出部112、音声情報から感情情報を抽出する意味抽出部113、および出力部92に出力情報を出力する出力制御部114が設けられている。通信部96には、情報の送信を行う情報送信部121、情報の受信を行う情報受信部122が設けられている。
【0053】
図6に入力部91の構成例を示す。この例では、使用者の音声を取得するマイク131、使用者の脈拍を検知する脈波センサ132、使用者の体の動きを検知する測距センサ133、文字、数字などの情報を入力するキーボード134、マイク131からの信号を認識する音声認識部135、脈波センサ132からの信号を増幅する電源アンプ部136、測距センサ133からの信号を増幅する電源アンプ部137により構成されている。
【0054】
図7と図8に出力部92の構成例を示す。図7の例では、所定の信号に基づいてオブジェクトを移動させる移動オブジェクト152、移動オブジェクト152を駆動する電源駆動部151により構成されている。
また、移動オブジェクト152は、オブジェクト173、駆動用ベルト174、サーボモータ171、および回転軸172により構成されている。
【0055】
図8の例では、所定の信号に基づいて、光を発する発光部192と発光部192を駆動する電源アンプ部191により構成されている。
【0056】
使用者aがもっている情報処理装置を端末Aとし、使用者bがもっている情報処理装置を端末Bとして、使用者aと使用者bがそれぞれの端末を用いて、相互に通信を行う場合、図9に示される手順で情報の送受信が行われる。最初に端末Aは、端末Bに接続要求を送信し、それに対応して端末Bは端末Aに接続応答を送信する。その後、端末Aと端末Bの間で、メール、チャットなどの文字情報、会話で送受信される音声情報やCCDカメラなどで取得された画像情報を送受信する。
【0057】
次に端末Aは生体情報(この例の場合、使用者の脈拍情報と体動情報)の送受信の初期設定を行い、端末Bに送受信要求を送信する。このとき、端末Aから図11に示される送信設定情報と受信設定情報が送信される。
【0058】
送信設定情報は、情報送信モードの選択ms、情報処理方法の選択ts、情報出力形式の設定権の選択dsにより構成される。受信設定情報は、情報受信モードの選択mr、情報処理方法の選択tr、情報出力形式の設定権の選択drにより構成される。
【0059】
情報送信モードの選択msは、生体情報を送信するか否かを示し、情報処理方法の選択tsは、送信時に生体情報の処理を行うか否かを示し、情報出力形式の設定権の選択dsは、送信した生体情報の出力形式の設定を送信側で行うか、受信側で行うかを示す。
【0060】
情報受信モードの選択mrは、生体情報を受信するか否かを示し、情報処理方法の選択trは、受信時に生体情報の処理を行うか否かを示し、情報出力形式の設定権の選択drは、受信した生体情報の出力形式の選択を送信側で行うか、受信側で行うかを示す。
【0061】
端末Aから生体情報の送信要求を受け取った端末Bは、生体情報送受信設定の変更を行い、端末Aに応答を送信する。
【0062】
そして端末Aから端末Bに使用者aの生体情報が送信され、端末Bから端末Aに使用者bの生体情報が送信される。端末A、端末Bにはそれぞれ生体情報が蓄積される。
【0063】
端末Aから端末Bに接続終了要求が送信されると、端末Bはそれに応答し、通信は終了する。
【0064】
このようにして、端末Aと端末Bの間で通信が行われ、生体情報が蓄積される。生体情報が充分に蓄積された後は、図10に示されるように情報の送受信が行われる。すなわち、端末Aと端末Bとの間で生体情報が送受信されると、端末Aと端末Bにおいて、使用者の感情・状態の特定処理が行われる。
【0065】
次に図12を参照して、端末Bにおける生体情報蓄積処理について説明する。最初に端末Bのシステム制御部97は、ステップS1において、端末Aとの通信開始時に、通信相手である端末Aの使用者aを特定する情報(例えば、氏名、ニックネームなど)PIDを取得する。ステップS2において、端末Bのシステム制御部97は、情報弁別部111に、端末Aから送信されてきた使用者aの音声情報が入力されたか否かを判定させ、入力されたと判定されるまで待機する。
【0066】
ステップS2において、音声情報が入力されたと判定された場合、ステップS3に進み、端末Bのシステム制御部97は、特徴抽出部112に、端末Aから送信されてきた使用者aの脈拍情報、体動情報のサンプリング処理を開始させる。そして、ステップS4に進み、端末Bのシステム制御部97は、意味抽出部113に音声の認識を行わせる。ステップS5において、端末Bのシステム制御部97は、認識された音声の中に感情、状態およびその強度を表す語句があるか否かを判定し、感情、状態およびその強度を表す語句がないと判定された場合、ステップS2に戻り以降の処理を繰り返し実行する。感情・状態を表す語句は図23に示されるようなものであり、強度を示す語句は図24に示されるようなものである。
【0067】
ステップS5において、感情、状態およびその強度を示す語句があると判定された場合、端末Bのシステム制御部97は、ステップS6において、認識された語句の主語は使用者か否か、すなわち、認識された語句が、使用者aの感情、状態およびその強度を表す語句であるか否かを判定し、主語は使用者ではないと判定された場合、ステップS2に戻り、以降の処理を繰り返し実行する。
【0068】
ステップS6において、主語は使用者であると判定された場合、端末Bのシステム制御部97は、ステップS7において、使用者aの音声が1フレーズ分入力されたか否かを判定し、1フレーズ分入力されたと判定されるまで待機する。
【0069】
ステップS7において、1フレーズ分入力されたと判定された場合、端末Bのシステム制御部97は、ステップS8に進み、特徴抽出部112に、脈拍情報、体動情報のサンプリング処理を終了させる。
【0070】
なお、脈拍情報、体動情報のサンプリング処理は、端末Aの特徴抽出部112において行い、サンプリングした結果を端末Bに送信してもよい。
【0071】
そして、ステップS9に進み、端末Bのシステム制御部97は、意味抽出部113に、感情情報Eを抽出させる。
【0072】
使用者aが「ちょっと面白い」と話した場合、「面白い」という語句に対応する感情・状態は興味であり、「ちょっと」という語句に対応する強度は弱であると認識され、感情情報Eとして、「弱い興味」が抽出される。
【0073】
ステップS10において、端末Bのシステム制御部97は、特徴抽出部112に使用者aの脈拍情報に基づいて、特徴ベクトルVc1の生成処理を実行させ、ステップ11に進み、個人を特定する情報PID、感情情報Eに対応する脈拍情報を蓄積部95から読み出す。この場合、使用者aの弱い興味に対応する脈拍情報の特徴ベクトルが読み出される。そして、ステップS12に進み、端末Bのシステム制御部97は、学習部94に、読み出された特徴ベクトルに新たに生成された特徴ベクトルVc1を加えて、ベクトルの分布fvc1、分布の中心ベクトルVμ1、標準偏差ベクトルVσ1を再計算させ、ステップS13において、再計算した結果を蓄積部95に記憶する。
【0074】
ステップS14において、端末Bのシステム制御部97は、特徴抽出部112に使用者aの体動情報に基づいて、特徴ベクトルVc2の生成処理を実行させ、ステップS15に進み、個人を特定する情報PID、感情情報Eに対応する体動情報を蓄積部95から読み出す。この場合、使用者aの弱い興味に対応する体動情報の特徴ベクトルが読み出される。そして、ステップS16に進み、端末Bのシステム制御部97は、学習部94に、読み出された特徴ベクトルに新たに生成された特徴ベクトルVc2を加えて、ベクトルの分布fvc2、分布の中心ベクトルVμ2、標準偏差ベクトルVσ2を再計算させ、ステップS17において、再計算した結果を蓄積部95に記憶する。
【0075】
次に図14と図15を参照して、脈拍情報の特徴ベクトルVc1の生成処理について説明する。この処理は、端末Bの特徴抽出部112で行われる。ステップS31において、端末Bの特徴抽出部112は、サンプリングした脈拍情報を読み出し、ステップS32において、後述する極性判定処理を行い、ステップS33に進み、後述するTV出力処理を行い、ステップS34において、後述するVmin,Vmax判定処理を行う。
【0076】
ここで、図16乃至図18を参照して、極性判定処理、TV出力処理、およびVmin,Vmax判定処理について説明する。
【0077】
最初に図16を参照して、サンプリングした波形の極性判定処理について説明する。ステップS61において、端末Bの特徴抽出部112は、変数nを1にセットし、ステップS62において、Vs(n)を読み出す。図19に示される波形211を周期Tclkでサンプリングすると、Vs1,Vs2,Vs3...Vsnの値が得られる。ここで読み出されるVs(n)はnが1のとき、Vs1となり、nが2のときVs2となるように読み出される。
【0078】
ステップS63において、端末Bの特徴抽出部112は、Vs(n)があるか否かを判定し、Vs(n)がないと判定された場合、処理を終了する。ステップS63において、Vs(n)があると判定された場合、ステップS64において、端末Bの特徴抽出部112は、Vs(n)が閾値−Vth0より小さいか否かを判定し、Vth0より小さくないと判定された場合、ステップS65に進み、Vs(n)が閾値Vth0より大きいか否かを判定し、Vth0より大きくないと判定された場合、ステップS66においてSig(n)に1をセットする。
【0079】
ステップS64において、Vs(n)が閾値−Vth0より小さいと判定された場合、端末Bの特徴抽出部112は、Sig(n)に−1をセットする。ステップS65において、Vs(n)が閾値Vth0より大きいと判定された場合、端末Bの特徴抽出部112は、Sig(n)に1をセットする。
【0080】
ステップS67において、端末Bの特徴抽出部112は、nの値を1だけインクリメントし、ステップS62に戻り、以降の処理を繰り返し実行する。
【0081】
このようにして、波形の極性を示す変数Sig(n)が生成される。すなわち、波形の極性が+のときは、Sig(n)の値が1となり、波形の極性が−のときは、Sig(n)の値が−1となり、波形の極性が+でもなく、−でもないとき、すなわち極性が0のときSig(n)の値は0となる。
【0082】
次に図17を参照して、Tv出力処理について説明する。ステップS71において端末Bの特徴抽出部112は、変数nに2をセットし、変数Pに1をセットする。ステップS72において、端末Bの特徴抽出部112は、極性判定処理の結果生成されたSig(n)を読み出し、ステップS73においてSig(n)があるか否かを判定し、Sig(n)がないと判定された場合、処理を終了する。
【0083】
ステップS73においてSig(n)があると判定された場合、端末Bの特徴抽出部112は、ステップS74においてSig(n−1)を読み出し、ステップS75において、Sig(n)とSig(n−1)の値が等しいか否かを判定し、Sig(n)とSig(n−1)の値が等しいと判定された場合、ステップS76に進み、Sig(n)の値が−1か否かを判定し、Sig(n)の値が−1ではないと判定された場合、ステップS78において、Sig(n)の値が1か否かを判定し、Sig(n)の値が1ではないと判定された場合、ステップS80に進み、変数cの値を1だけインクリメントして、ステップS93に進む。
【0084】
ステップS76において、Sig(n)の値が−1であると判定された場合、端末Bの特徴抽出部112は、ステップS77において変数aの値を1だけインクリメントして、ステップS93に進む。ステップS78において、Sig(n)の値が1であると判定された場合、端末Bの特徴抽出部112は、ステップS79において変数bの値を1だけインクリメントして、ステップS93に進む。
【0085】
ステップS93において、端末Bの特徴抽出部112は、nの値を1だけインクリメントして、ステップS72に戻り以降の処理を繰り返し実行する。
【0086】
一方、ステップS75において、Sig(n)とSig(n−1)の値が等しくないと判定された場合、端末Bの特徴抽出部112は、ステップS81に進み、Sig(n−1)の値が−1か否かを判定し、Sig(n−1)の値が−1ではないと判定された場合、ステップS86に進み、Sig(n−1)の値が1か否かを判定し、Sig(n−1)の値が1ではないと判定された場合、ステップS90に進み、Tv0(P)の値をc*Tclkにセットする。そして、ステップS91に進み、端末Bの特徴抽出部112は、Tv0(P)を出力し、変数cの値を0にリセットして、ステップS93に進む。
【0087】
ステップS81において、Sig(n−1)の値が−1であると判定された場合、端末Bの特徴抽出部112は、ステップS82に進み、Tv−(P)の値をa*Tclkにセットし、ステップS83に進み、Tv−(P)を出力し、ステップS84において変数aの値を0にリセットし、ステップS85に進み、変数Pの値を1だけインクリメントして、ステップS93に進む。
【0088】
ステップS86において、Sig(n−1)の値が1であると判定された場合、端末Bの特徴抽出部112は、ステップS87に進み、Tv+(P)の値をb*Tclkにセットし、ステップS88に進み、Tv+(P)を出力し、ステップS86において変数bの値を0にリセットして、ステップS93に進む。
【0089】
このようにすることで、波形の極性が−である間はaの値がインクリメントされ、波形の極性が+である間はbの値がインクリメントされ、波形の極性が0である間はcの値がインクリメントされる。そして、波形の極性が変化したとき、a,b,またはcにサンプリング周期Tclkが乗じられるので、図20に示されるように、波形の出力が正の値となる時間Tv+(1),Tv+(2)、波形の出力が閾値+Vth0と−Vth0の間の値となる時間Tv0(1),Tv0(2),Tv0(3)、および波形の出力が負の値となる時間Tv−(1),Tv−(2)が得られる。
【0090】
次に図18を参照して、Vmin,Vmax判定処理について説明する。
最初に、ステップS111において、端末Bの特徴抽出部112は、変数nに2をセットし、変数Pに1をセットする。そして、ステップS112に進み、Vs(n)を読み出し、ステップS113において、Vs(n)があるか否かを判定し、Vs(n)がないと判定された場合、処理を終了する。ステップS113においてVs(n)があると判定された場合、端末Bの特徴抽出部112は、ステップS114に進み、Vs(n−1)を読み出し、ステップS115において、ΔVs(n−1)にVs(n)−Vs(n−1)の値をセットし、ステップS116に進み、ΔVs(n−1)の値を記憶する。
【0091】
ステップS117において、端末Bの特徴抽出部112は、ΔVs(n−1)の値が0より小さいか否かを判定し、0より小さいと判定された場合、ステップS118で、ΔVSig(n)に−1をセットし、ステップS117において、0より小さくないと判定された場合、ステップS119でΔVSig(n)に1をセットする。ステップS120に進み、ΔVSig(n−1)があるか否かを判定し、ΔVSig(n−1)がないと判定された場合、ステップS127に進みnの値を1だけインクリメントしてステップS112にもどる。
【0092】
ステップS120において、ΔVSig(n−1)があると判定された場合、ステップS121に進み、端末Bの特徴抽出部112は、ΔVSig(n−1)を読み出す。ステップS122において、ΔVSig(n)の値とΔVSig(n−1)の値が等しいか否かを判定し、等しくないと判定された場合、ステップS123に進み、Vs(n)の値がVth0より小さいか否かを判定し、Vth0より小さくないと判定された場合、ステップS125に進み、Vmax(P)にVs(n−1)をセットして、Vmax(P)を出力し、Pの値を1だけインクリメントして、ステップS127へ進む。
【0093】
ステップS122において、ΔVSig(n)の値とΔVSig(n−1)の値が等しいと判定された場合、端末Bの特徴抽出部112は、ステップS127へ進む。
【0094】
ステップS123において、Vs(n)の値がVth0より小さいと判定された場合、端末Bの特徴抽出部112は、ステップS124に進み、Vmin(P)にVs(n−1)をセットして、Vmin(P)を出力し、ステップS127に進む。
【0095】
このようにすることで、図20に示されるようにTv+(1),Tv+(2)における波形221のピーク値Vmax(1),Vmax(2)が得られ、時間Tv−(1),Tv−(2)における波形221のピーク値Vmin(1),Vmin(2)が得られる。
【0096】
図15にもどって、ステップS35において、端末Bの特徴抽出部112は、変数Pの値を1にセットし、ステップS36において、Tv+(P)またはTv−(0)があるか否かを判定し、Tv+(P)またはTv−(0)があると判定された場合、ステップS37に進み、Tppg+(P)に値Tv+(P)をセットし、ステップS38において、Tppg−(P)に値Tv−(P)をセットする。ステップS39において、端末Bの特徴抽出部112は、Tppg+(P)とTppg−(P)を足してTppgi(P)とする。そして、ステップS40に進み、変数Pの値を1だけインクリメントし、ステップS36に戻り、以降の処理を繰り返し実行する。
【0097】
ステップS33のTv出力処理の結果、Tv+(1)、Tv+(2)、Tv−(1)、Tv−(2)が得られたとすると、変数Pの値が3になったとき、ステップS36において、Tv+(P)またはTv−(P)がないと判定され、端末Bの特徴抽出部112は、ステップS41に進み、Tppg+,Tppg−,Tppgiの平均値、Tppg+m,Tppg−m,Tppgimを計算する。
この場合、Tppg+m,Tppg−m,Tppgimはそれぞれ次のように計算される。
Tppg+m=(Tppg+(1)+Tppg+(2))/2
Tppg−m=(Tppg−(1)+Tppg−(2))/2
Tppgim=(Tppgi(1)+Tppgi(2))/2
【0098】
次にステップS42に進み、端末Bの特徴抽出部112は、変数Pの値を1にセットし、ステップS43において、Vmax(P)またはVmin(P)があるか否かを判定し、Vmax(P)またはVmin(P)があると判定された場合、ステップS44に進み、Appg+(P)に値Vmax(P)をセットし、ステップS45において、Appg−(P)に値Vmin(P)をセットする。そして、ステップS46に進み、変数Pの値を1だけインクリメントし、ステップS43に戻り、以降の処理を繰り返し実行する。
【0099】
ステップS34のVmin,Vmax判定処理の結果、Vmax(1)、Vmax(2)、Vmin(1)、Vmin(2)が得られたとすると、変数Pの値が3になったとき、ステップS43において、Vmax(P)またはVmin(P)がないと判定され、端末Bの特徴抽出部112は、ステップS47に進み、Appg+,Appg−の平均値、Appg+m,Appg−mを計算する。
この場合、Appg+m,Appg−mはそれぞれ次のように計算される。
Appg+m=(Appg+(1)+Appg+(2))/2
Appg−m=(Appg−(1)+Appg−(2))/2
【0100】
そして、ステップS48に進み、端末Bの特徴抽出部112は、特徴量ベクトルVc1(Tppg+m,Tppg−m,Tppgim,Appg+m,Appg−m)を生成する。
【0101】
図25に脈拍の波形241を示す。Tppg+は波形241の出力が正の値となる時間を示し、Tppg−は波形241の出力が負の値となる時間を示し、Tppgiは脈拍の1拍分の時間を示し、Appg+は、Tppg+における脈拍波形のピーク値であり,Appg−は、Tppg−における脈拍波形のピーク値となる。
【0102】
このようにして、使用者aの弱い興味に対応する脈拍情報の特徴ベクトルVc1が生成される。
【0103】
次に図21を参照して、使用者aの体動情報の特徴ベクトルVc2の生成処理について説明する。
【0104】
ステップS141において、端末Bの特徴抽出部112は、サンプリングした体動情報を読み出す。そして、端末Bの特徴抽出部112は、ステップS142において、図16を参照して説明した極性判定処理を行い、ステップS143において、図17を参照して説明したTv出力処理を行い、ステップS144においてVmax,Vmin判定処理を行う。そして、ステップS145に進み、端末Bの特徴抽出部112は、変数Pに1をセットする。ステップS146において、端末Bの特徴抽出部112は、Vmax,Vmin判定処理において記憶されたΔVの値(図18のステップS116)の値を読み出す。
【0105】
体動情報の波形は、図26に示される波形261のようになるので、Pの値が1のときは、ΔV1、Pの値が2のときはΔV2となるようにΔV(P)が読み出される。そして、ステップS147において、端末Bの特徴抽出部112は、ΔV(P)があるか否かを判定し、ΔV(P)があると判定された場合、ステップS148に進み、Vel(P)に│ΔV(P)│/Tclkの値をセットし、ステップS149においてΣΔVにΣΔV+│ΔV(P)│の値をセットし、ステップS150において、Pの値を1だけインクリメントしてステップS146に戻り、以降の処理を繰り返し実行する。
【0106】
この場合、ΔV(P)は、時間Tclkの間に使用者aが移動した距離を示すので、Vel(P)は使用者aが移動する速度を示し、ΣΔVは、使用者aが移動した距離の合計を示す。
【0107】
ステップS147において、ΔV(P)がないと判定された場合、端末Bの特徴抽出部112は、ステップS151においてDにΣΔVの値をセットし、速度Velの平均値Velmを計算し、ステップS152に進み、特徴ベクトルVc2(Velm,D)を生成する。
【0108】
このようにして、使用者aの弱い興味に対応する体動情報の特徴ベクトルVc2が生成される。
【0109】
ここまで、端末Bが、端末Aから送信された使用者aの脈拍情報と体動情報から特徴量ベクトルVc1、Vc2を生成し、蓄積する処理について説明したが、同様に端末Bは、使用者bについての脈拍情報と体動情報から特徴量ベクトルを生成し、蓄積する。その結果、端末Bの蓄積部95には、図27にしめされるような、脈拍情報に関する学習結果281と体動情報に関する学習結果282がそれぞれ、使用者aと使用者bに分けて蓄積される。
【0110】
また、端末Aも同様にして、脈拍情報に関する学習結果と体動情報に関する学習結果をそれぞれ、使用者aと使用者bに分けて蓄積することができる。
【0111】
上述した生体情報蓄積処理を繰り返し行い、生体情報が充分蓄積された後は、生体情報をもとに、使用者の感情、状態、およびその強度を特定することができる。
【0112】
次に図28を参照して、端末Bによる感情状態の特定処理について説明する。
【0113】
ステップS171において、端末Bのシステム制御部97は、端末Aとの通信開始時に、通信相手である端末Aの使用者aを特定する情報PIDを取得する。ステップS172において、端末Bのシステム制御部97は、情報弁別部111に、端末Aから送信されてきた使用者aの音声情報が入力されたか否かを判定させ、入力されたと判定されるまで待機する。音声情報が入力されたと判定された場合、ステップS173に進み、端末Bのシステム制御部97は、特徴抽出部112に、端末Aから送信されてきた使用者aの脈拍情報、体動情報のサンプリング処理を開始させる。そして、ステップS174に進み、端末Bのシステム制御部97は、意味抽出部113に音声の認識を行わせる。
【0114】
ステップS175において、端末Bのシステム制御部97は、使用者aの音声が1フレーズ分入力されたか否かを判定し、1フレーズ分入力されたと判定されるまで待機する。
【0115】
ステップS175において、1フレーズ分入力されたと判定された場合、端末Bのシステム制御部97は、ステップS176に進み、特徴抽出部112に脈拍情報、体動情報のサンプリング処理を終了させる。
【0116】
なお、脈拍情報、体動情報のサンプリング処理は、端末Aの特徴抽出部112において行い、サンプリングした結果を端末Bに送信してもよい。
【0117】
そして、ステップS177に進み、端末Bのシステム制御部97は、特徴抽出部112に、使用者aの脈拍情報に基づいて、特徴ベクトルVc1生成処理を実行させ、ステップ178において、使用者aの体動情報に基づいて、特徴ベクトルVc2生成処理を実行させ、ステップS179に進み、学習部94に、Vc1の感情、状態、およびその強度の特定処理を実行させ、ステップS180においてVc2の感情、状態、およびその強度の特定処理を実行させ、ステップS181に進み、特定結果の出力と再計算処理を実行させる。
【0118】
次に、図29と図30を参照して、脈拍情報の特徴ベクトルVc1の生成処理について説明する。この処理は、端末Bの特徴抽出部112で行われる。ステップS201において、端末Bの特徴抽出部112は、サンプリングした脈拍情報を読み出し、ステップS202において、図16を参照して説明した極性判定処理を行い、ステップS203に進み、図17を参照して説明したTV出力処理を行い、ステップS204において、図18を参照して説明したVmin,Vmax判定処理を行う。
【0119】
図30のステップS205において、端末Bの特徴抽出部112は、変数Pの値を1にセットし、ステップS206において、Tv+(P)またはTv−(0)があるか否かを判定し、Tv+(P)またはTv−(0)があると判定された場合、ステップS207に進み、Tppg+(P)に値Tv+(P)をセットし、ステップS208において、Tppg−(P)に値Tv−(P)をセットする。ステップS209において、端末Bの特徴抽出部112は、Tppg+(P)とTppg−(P)を足してTppgi(P)とする。そして、ステップS210に進み、変数Pの値を1だけインクリメントし、ステップS206に戻り、以降の処理を繰り返し実行する。
【0120】
ステップS206において、Tv+(P)またはTv−(P)がないと判定された場合、端末Bの特徴抽出部112は、ステップS211に進み、Tppg+,Tppg−,Tppgiの平均値、Tppg+m,Tppg−m,Tppgimを計算する。
【0121】
次にステップS212に進み、端末Bの特徴抽出部112は、変数Pの値を1にセットし、ステップS213において、Vmax(P)またはVmin(P)があるか否かを判定し、Vmax(P)またはVmin(P)があると判定された場合、ステップS214に進み、Appg+(P)に値Vmax(P)をセットし、ステップS215において、Appg−(P)に値Vmin(P)をセットする。そして、ステップS216に進み、変数Pの値を1だけインクリメントし、ステップS213に戻り、以降の処理を繰り返し実行する。
【0122】
ステップS213において、Vmax(P)またはVmin(P)がないと判定され、端末Bの特徴抽出部112は、ステップS217に進み、Appg+,Appg−の平均値、Appg+m,Appg−mを計算する。
【0123】
そして、ステップS218に進み、端末Bの特徴抽出部112は、特徴量ベクトルVc1(Tppg+m,Tppg−m,Tppgim,Appg+m,Appg−m)を生成する。
【0124】
このようにして、使用者aの脈拍情報の特徴ベクトルVc1が生成される。
【0125】
次に図31を参照して、使用者aの体動情報の特徴ベクトルVc2の生成処理について説明する。
【0126】
ステップS231において、端末Bの特徴抽出部112は、サンプリングした体動情報を読み出す。そして、端末Bの特徴抽出部232は、ステップS232において、図16を参照して説明した極性判定処理を行い、ステップS233において、図17を参照して説明したTv出力処理を行い、ステップS234において図18を参照して説明したVmax,Vmin判定処理を行う。そして、ステップS235に進み、端末Bの特徴抽出部112は、変数Pに1をセットする。ステップS236において、端末Bの特徴抽出部112は、Vmax,Vmin判定処理において記憶されたΔVの値(図18のステップS116)の値を読み出す。
【0127】
ステップS237において、端末Bの特徴抽出部112は、ΔV(P)があるか否かを判定し、ΔV(P)があると判定された場合、ステップS238に進み、Vel(P)に│ΔV(P)│/Tclkの値をセットし、ステップS239においてΣΔVにΣΔV+│ΔV(P)│の値をセットし、ステップS240において、Pの値を1だけインクリメントしてステップS236に戻り、以降の処理を繰り返し実行する。
【0128】
ステップS237において、ΔV(P)がないと判定された場合、端末Bの特徴抽出部112は、ステップS241においてDにΣΔVの値をセットし、Velの平均値Velmを計算し、ステップS252に進み、特徴ベクトルVc2(Velm,D)を生成する。
【0129】
このようにして、使用者aの体動情報の特徴ベクトルVc2が生成される。
【0130】
次に図33を参照して、Vc1の感情、状態、およびその強度の特定処理について説明する。この処理は端末Bの学習部94により実行される。
【0131】
ステップS261において、この処理は端末Bの学習部94は、蓄積部95に蓄積されている使用者aに対応する脈拍情報の特徴量ベクトルの分布fvc1、分布の中心ベクトルVμ1、分布の標準偏差ベクトルVσ1を読み出す。
【0132】
上述したように感情・状態は、表1に示す通り12通りに分別され、さらに、各感情・状態は、強、中、弱の3種類の強度に分けられ、感情情報は36通りある。従って、fvc1,Vμ1,Vσ1も感情情報に対応してそれぞれ36通り存在する。
【0133】
ステップS262において、端末Bの学習部94は、変数Qに1をセットし、ステップS263に進み、ベクトルVμ1(Q)とステップS177(図28)で生成した特徴量ベクトルVc1の内積値を算出し、内積値に対応させてVμ1(Q)を記憶する。そして、ステップS264に進み、Qの値を1だけインクリメントし、ステップ265において、全ての感情情報について計算したか否か、すなわち、36種類の中心ベクトルVμ1について、内積値を計算したか否かを判定し、全ての感情情報について計算していないと判定された場合、ステップS263に戻り、以降の処理を繰り返し実行する。
【0134】
全ての感情情報に対応する36種類の中心ベクトルVμ1について内積値の計算が終わると、端末Bの学習部94の中にある図示せぬ記憶部には、図34のようなデータが記憶されている。ステップS266において、端末Bの学習部94は、内積値の大きい順にデータをソートする。
【0135】
ステップS267において、端末Bの学習部94は、変数Rに1をセットし、ステップS268において、全ての感情情報に関してデータが読み出されたか否かを判定し、全ての感情情報に関してデータが読み出されていないと判定された場合、ステップS269に進み、ソートしたデータを読み出す。表2の例では、内積値が最も大きい「安定・中」に対応する特徴量ベクトルの中心ベクトルVμ1−29が最初に読み出される。
【0136】
ステップS270において、端末Bの学習部94は、変数mに1をセットし、ステップS271に進み、Vμ1(R)m−Vσ1(R)m≦Vc1m≦Vμ1(R)m+Vσ1(R)mの条件を満たしているか否かを判定する。ここで、Vμ1(R)mは、ベクトルVμ1(R)のm番目の成分を表し、Vσ1(R)m,Vc1mもそれぞれ同様にベクトルVσ1,Vc1のm番目の成分を表す。脈拍情報の特徴量ベクトルは上述したようにTppg+m,Tppg−m,Tppgim,Appg+m,Appg−mの5個の成分により構成されている。mの値が1のとき、Vμ1(R),Vσ1(R),Vc1の各ベクトルのTppg+m成分が抽出され、処理が行われる。
【0137】
ステップS271において、Vμ1(R)m−Vσ1(R)m≦Vc1m≦Vμ1(R)m+Vσ1(R)mの条件を満たしていないと判定された場合、端末Bの学習部94は、ステップS276に進み、Rの値を1だけインクリメントして、ステップS268に戻り、以降の処理を繰り返し実行する。ステップS271において、Vμ1(R)m−Vσ1(R)m≦Vc1m≦Vμ1(R)m+Vσ1(R)mの条件を満たしていると判定された場合、端末Bの学習部94は、ステップS272に進み、mの値を1だけインクリメントして、ステップS273に進み、mの値が6と等しいか否かを判定し、mの値が6と等しくないと判定された場合、ステップS271に戻り、以降の処理を繰り返し実行する。
【0138】
ステップS273において、mの値が6と等しいと判定された場合、すなわち、Vμ1(R),Vσ1(R),Vc1の各ベクトルを構成する5個の成分について、全てVμ1(R)m−Vσ1(R)m≦Vc1m≦Vμ1(R)m+Vσ1(R)mの条件を満たしていると判定された場合、端末Bの学習部94は、ステップS274に進み、Vc1はRに対応する感情情報E1に属しているものと特定する。Rが1のとき、Rに対応する感情情報E1は「安定・中」となる。
【0139】
ステップS268において、全ての感情情報に関してデータが読み出されたと判定された場合、端末Bの学習部94は、Vc1の感情、状態、およびその強度は特定不能として処理を終了する。
【0140】
図35は、使用者aの各感情情報に対応する脈拍情報の特徴量ベクトルを示した図である。この図は、Tppg+m軸、Tppg−m軸、Tppgim軸、Appg+m軸、Appg−m軸からなる5次元空間として示されている。図28のステップS177において生成された特徴量ベクトル381(Vc1)は、「安定・中」に対応する特徴量ベクトルの分布383の中心ベクトル382(Vμ1−29)と近接しており、上述したVc1の感情、状態、およびその強度特定処理の結果、「安定・中」を示す特徴量ベクトルであると特定される。
【0141】
次に図36を参照して、Vc2の感情、状態、およびその強度の特定処理について説明する。この処理は端末Bの学習部94により実行される。
【0142】
ステップS291において、端末Bの学習部94は、蓄積部95に蓄積されている使用者aに対応する体動情報の特徴量ベクトルの分布fvc2、分布の中心ベクトルVμ2、分布の標準偏差ベクトルVσ2を読み出す。
【0143】
上述したように感情・状態は、表1に示す通り12通りに分別され、さらに、各感情・状態は、強、中、弱の3種類の強度に分けられ、感情情報は36通りある。従って、fvc2,Vμ2,Vσ2も感情情報に対応してそれぞれ36通り存在する。
【0144】
ステップS292において、端末Bの学習部94は、変数Qに1をセットし、ステップS293に進み、ベクトルVμ2(Q)とステップS178(図28)で生成した特徴量ベクトルVc2の内積値を算出し、内積値に対応させてVμ2(Q)を記憶する。そして、ステップS294に進み、Qの値を1だけインクリメントし、ステップ295において、全ての感情情報について計算したか否か、すなわち、36種類の中心ベクトルVμ2について、内積値を計算したか否かを判定し、全ての感情情報について計算していないと判定された場合、ステップS293に戻り、以降の処理を繰り返し実行する。
【0145】
全ての感情情報に対応する36種類の中心ベクトルVμ2について内積値の計算が終わると、端末Bの学習部94の中にある図示せぬ記憶部には、図37のようなデータが記憶されている。ステップS296において、端末Bの学習部94は、内積値の大きい順にデータをソートする。
【0146】
ステップS297において、端末Bの学習部94は、変数Rに1をセットし、S298において、全ての感情情報に関してデータが読み出されたか否かを判定し、全ての感情情報に関してデータが読み出されていないと判定された場合、ステップS299に進み、ソートしたデータを読み出す。図37の例では、内積値が最も大きい「安定・中」に対応する特徴量ベクトルの中心ベクトルVμ2−29が最初に読み出される。
【0147】
ステップS270において、端末Bの学習部94は、変数mに1をセットし、ステップS271に進み、Vμ2(R)m−Vσ2(R)m≦Vc2m≦Vμ2(R)m+Vσ2(R)mの条件を満たしているか否かを判定する。ここで、Vμ2(R)mは、ベクトルVμ2(R)のm番目の成分を表し、Vσ2(R)m,Vc2mもそれぞれ同様にベクトルVσ2,Vc2のm番目の成分を表す。体動情報の特徴量ベクトルは上述したようにVelm,Dの2個の成分により構成されている。mの値が1のとき、Vμ2(R),Vσ2(R),Vc2の各ベクトルのVelm成分が抽出され、処理が行われる。
【0148】
ステップS301において、Vμ2(R)m−Vσ2(R)m≦Vc2m≦Vμ2(R)m+Vσ2(R)mの条件を満たしていないと判定された場合、端末Bの学習部94は、ステップS306に進み、Rの値を1だけインクリメントしてステップS298に戻り、以降の処理を繰り返し実行する。ステップS301において、Vμ2(R)m−Vσ2(R)m≦Vc2m≦Vμ2(R)m+Vσ2(R)mの条件を満たしていると判定された場合、端末Bの学習部94は、ステップS302に進み、mの値を1だけインクリメントして、ステップS303に進み、mの値が3と等しいか否かを判定し、mの値が3と等しくないと判定された場合、ステップS301に戻り、以降の処理を繰り返し実行する。
【0149】
ステップS303において、mの値が3と等しいと判定された場合、すなわち、Vμ2(R),Vσ2(R),Vc2の各ベクトルを構成する2個の成分について、全てVμ2(R)m−Vσ2(R)m≦Vc2m≦Vμ2(R)m+Vσ2(R)mの条件を満たしていると判定された場合、端末Bの学習部94は、ステップS274に進み、Vc2はRに対応する感情情報E2に属しているものと特定する。Rが1のとき、Rに対応する感情情報E2は「安定・中」となる。
【0150】
ステップS298において、全ての感情情報に関してデータが読み出されたと判定された場合、端末Bの学習部94は、Vc2の感情、状態、およびその強度は特定不能として処理を終了する。
【0151】
図38は、使用者aの各感情情報に対応する体動情報の特徴量ベクトルを示した図である。この図は、Velm軸、D軸からなる2次元空間として示されている。図28のステップS178において生成された特徴量ベクトル401(Vc2)は、「安定・中」に対応する特徴量ベクトルの分布403の中心ベクトル402(Vμ2−29)と近接しており、上述したVc2の感情、状態、およびその強度特定処理の結果、「安定・中」を示す特徴量ベクトルであると特定される。
【0152】
次に、図39を参照して、特定結果出力再計算処理について説明する。この処理は端末Bの学習部94により実行される。ステップS321において端末Bの学習部94は、Vc1により特定された感情情報E1とVc2により特定された感情情報E2が等しいか否かを特定し、E1とE2が等しくないと判定された場合、ステップS322に進み、ステップS178(図28)において生成された体動情報の特徴量ベクトルVc2をE1に属するものとして処理結果を訂正する。E1は、脈拍情報をもとに生成された特徴量ベクトルVc1により特定された、感情情報であり、E2は体動情報により特定された感情情報であり、E1とE2が異なる場合もあり得る。この場合、ベクトルを構成する成分が多い方、すなわち次元数が大きい方のベクトルによる特定結果が選択される。すなわち、5次元ベクトルであるVc1により特定された感情情報E1が選択され、2次元ベクトルであるVc2は、感情情報E1を示すものとして処理結果が訂正される。
【0153】
ステップS323において、端末Bの学習部94は、特定結果を出力制御部114に出力し、ステップS324において、使用者aの感情情報E1に対応する脈拍情報の特徴量ベクトルの分布fvc1、分布の中心ベクトルVμ1、分布の標準偏差ベクトルVσ1と、使用者aの感情情報E1対応する体動情報の特徴量ベクトルの分布fvc2、分布の中心ベクトルVμ2、分布の標準偏差ベクトルVσ2を再計算し、蓄積する。すなわち、ステップS177とステップS178(図28)で生成された特徴量ベクトルVc1とVc2は、それぞれ蓄積部に蓄積されている使用者aの「安定・中」を示す脈拍情報の特徴量ベクトル、体動情報の特徴量ベクトルに加えられ、あらたに、fvc1、Vμ1、およびVσ1、並びにfvc2、Vμ2、およびVσ2が計算され、蓄積部95に蓄積される。
【0154】
このようにして、脈拍情報と体動情報から感情、状態、およびその強度が特定される。また、感情、状態、およびその強度が特定された特徴量ベクトルの情報が、あらたに蓄積される。
【0155】
ここまで、端末Bが、端末Aから送信された使用者aの脈拍情報と体動情報から特徴量ベクトルVc1、Vc2を生成し、感情、状態、およびその強度を特定する処理について説明したが、同様に端末Bは、使用者bについての脈拍情報と体動情報から特徴量ベクトルを生成し、感情、状態、およびその強度を特定することもできる。
【0156】
また、端末Aも同様にして、使用者aと使用者bの感情、状態、およびその強度を特定することができる。
【0157】
次に、図40と図41を参照して、情報出力処理について説明する。ステップS341において、システム制御部97は、出力情報が選択されたか否かを判定し、選択されたと判定されるまで待機する。出力情報の選択は、例えば、端末のディスプレイ上に表示されたメニューを使用者が選択することによって行われる。使用者が選択できるメニューは、「特定結果」、「特徴量に基づく情報」、「波形情報」、および「蓄積情報」の4種類がある。
【0158】
ステップS341において、出力情報が選択されたと判定された場合、システム制御部97は、ステップS342に進み、特定結果が選択されたか否かを判定し、特定結果が選択された判定された場合、ステップS343において、特定結果に対応する2ビットの選択情報00を出力制御部114に送信する。
【0159】
ステップS344において、出力制御部144は、感情、状態、およびその強度の特定結果を出力する。例えば、端末のディスプレイ上に「中の安定を示しているようです。」という文字が出力される。
【0160】
ステップS342において、特定結果が選択されていないと判定された場合、システム制御部97は、ステップS345に進み、特徴量に基づく情報が選択されたか否かを判定し、特徴量に基づく情報が選択されたと判定された場合、ステップS346に進み、特徴量に基づく情報に対応する2ビットの選択情報01を出力制御部114に送信する。
【0161】
ステップS347において、出力制御部114は、特徴量(Tppg+,Tppg−,Tppgi,Appg+,Appg−)を特徴抽出部112から取得し、ステップS348に進み、光呈示部駆動信号を生成する。すなわち、出力の振幅をAppg+とし、出力ON時間をTppg+とし、出力OFF時間をTppg−として、図42に示されるような正弦波信号を生成する。そして、ステップS349に進み、出力制御部114は、光提示部192を駆動させる。
【0162】
ステップS350において、出力制御部114は、特徴量(Vel,ΔV)を特徴抽出部112から取得し、ステップS351に進み、移動オブジェクトの移動速度をVelとして、移動距離ΔVとした駆動信号を生成する。そして、ステップS352に進み、移動オブジェクト152を駆動させる。
【0163】
ステップS345において、特徴量に基づく情報が選択されていないと判定された場合、システム制御部97は、ステップS353において、波形情報が選択されたか否かを判定し、波形情報が選択されたと判定された場合、波形情報に対応する2ビットの選択情報10を出力制御部114に送信する。ステップS356において、出力制御部114は、特徴抽出部112からサンプリングされた脈拍情報を取得し、波形信号を生成し、ステップS357において光呈示部192を駆動させる。
【0164】
ステップS358において、出力制御部114は、特徴抽出部112からサンプリングされた脈拍情報を取得し、波形信号を生成し、ステップS359において移動オブジェクト152を駆動させる。
【0165】
ステップS353において、波形情報が選択されていないと判定された場合、システム制御部97は、ステップS360に進み、蓄積情報が選択されたか否かを判定し、蓄積情報が選択されたと判定された場合、ステップS361に進み、蓄積情報に対応する2ビットの選択情報01を出力制御部114に送信する。
【0166】
蓄積情報が選択された場合、端末のディスプレイ上に更にサブメニューが表示され、使用者は、どの蓄積情報を出力するかを選択することができる。すなわち、脈拍情報、体動情報などの情報の種類inf1とinf2、個人を特定する情報PID、感情情報Eが選択される。例えば、inf1として脈拍情報、inf2として体動情報、PIDとして個人a、Eとして「強い好」などが選択される。
【0167】
ステップS362において、システム制御部97は、情報の種類inf1,inf2、個人を特定する情報PID、感情情報Eが選択されたか否かを判定し、選択されたと判定されるまで待機する。
【0168】
ステップS363において、システム制御部97は、使用者に選択された情報に基づいて(inf1,inf2,PID,E)の情報を生成し、出力制御部114に送信する。
【0169】
ステップS364において出力制御部114は、(inf1,inf2,PID,E)に基づいて、蓄積部95から脈拍情報の中心ベクトルと体動情報の中心ベクトルを取得する。この場合、蓄積部に蓄積されている個人aの「強い好」に対応する脈拍情報の特徴量ベクトルの分布の中心ベクトルVμ1(Tppg+,Tppg−,Tppgi,Appg+,Appg−)、個人aの「強い好」に対応する体動情報の特徴量ベクトルの分布の中心ベクトルVμ2(Velm,D)が取得される。
【0170】
ステップS365において、出力制御部114は、中心ベクトルVμ1に基づいて、光呈示部駆動信号を生成する。すなわち、出力の振幅をAppg+とし、出力ON時間をTppg+とし、出力OFF時間をTppg−として、図43に示されるような正弦波441の信号を生成し、ステップS365において光呈示部192を駆動信号に基づいて、3回駆動させる。
【0171】
ステップS366において、出力制御部114は、中心ベクトルVμ2に基づいて移動オブジェクトの移動速度をVelとして、移動距離をDとした駆動信号を生成し、ステップS367において移動オブジェクト152を駆動させる。
【0172】
ステップS360において、蓄積情報が選択されていないと判定された場合、システム制御部97は、ステップS368に進み、エラー処理を実行し、処理を終了する。
【0173】
このようにして、使用者は、生体情報から特定された感情、状態、およびその強度を表示させ、認識することができる。また、光の点滅させたり、オブジェクトを移動させたりすることにより、生体情報を体感することができる。
【0174】
実施の形態2
【0175】
図44に本発明の第2の情報処理装置の構成例を示す。この情報処理装置は、パーソナルコンピュータなどに適用することができる。この情報処理装置には、言語情報、キーボードの振動情報の入力を受け付ける入力部301、入力部301から入力された情報を処理する処理部303、処理部303から出力された特徴情報と感情情報に基づいて、学習、特定を行う学習部304、学習部304から出力された学習情報、特定情報を蓄積する蓄積部305、処理部303から出力された出力情報に基づいて、情報を出力する出力部302、通信を行う通信部306、および各部を制御するシステム制御部307が設けられている。
【0176】
処理部303には、入力部301から入力された情報を、言語情報、またはキーボード振動情報に分別する情報弁別部321、キーボード振動情報から特徴情報を抽出する特徴抽出部322、言語情報から感情情報を抽出する意味抽出部323、および出力部302に出力情報を出力する出力制御部324が設けられている。通信部306には、情報の送信を行う情報送信部325、情報の受信を行う情報受信部326が設けられている。
【0177】
図45に入力部301の構成例を示す。この例では、キーボード341、使用者がキーボードを打鍵するときの振動を検知する振動センサ342、振動センサ342からの信号を増幅する電源アンプ部343により構成されている。
【0178】
図46に出力部302の構成例を示す。この例では、振動モータ362、所定の信号に基づいて振動する振動呈示部362、振動呈示部を駆動する電源アンプ部361により構成されている。
【0179】
使用者aがもっている情報処理装置を端末Aとし、使用者bがもっている情報処理装置を端末Bとして、使用者aと使用者bがそれぞれの端末を用いて、相互に通信を行う場合、図47に示される手順で情報の送受信が行われる。最初に端末Aは、端末Bに接続要求を送信し、それに対応して端末Bは端末Aに接続応答を送信する。その後、端末Aと端末Bの間で、メール、チャットなどの文字情報などを送受信する。
【0180】
次に端末Aは振動情報(この例の場合、使用者がキーボードを打鍵するときの振動)の送受信の初期設定を行い、端末Bに送受信要求を送信する。このとき、実施の形態1の場合と同様に、端末Aから図11に示される送信設定情報と受信設定情報が送信される。
【0181】
端末Aから振動情報の送信要求を受け取った端末Bは、振動情報送受信設定の変更を行い、端末Aに応答を送信する。
【0182】
そして端末Aから端末Bに使用者aの振動情報が送信され、端末Bから端末Aに使用者bの振動情報が送信される。端末A、端末Bにはそれぞれ振動情報が蓄積される。
【0183】
端末Aから端末Bに接続終了要求が送信されると、端末Bはそれに応答し、通信は終了する。
【0184】
このようにして、端末Aと端末Bの間で通信が行われ、振動情報が蓄積される。振動情報が充分に蓄積された後は、図48に示されるように情報の送受信が行われる。すなわち、端末Aと端末Bとの間で振動情報が送受信されると、端末Aと端末Bにおいて、使用者の感情・状態の特定処理が行われる。
【0185】
次に図49を参照して、端末Bにおける振動情報蓄積処理について説明する。最初に端末Bのシステム制御部307は、ステップS381において、端末Aとの通信開始時に、通信相手である端末Aの使用者aを特定する情報(例えば、氏名、ニックネームなど)PIDを取得する。ステップS382において、端末Bのシステム制御部307は、情報弁別部321に、端末Aのキーボードからキー入力がされたか否かを判定させ、入力されたと判定されるまで待機する。
【0186】
ステップS382において、キー入力がされたと判定された場合、ステップS383に進み、端末Bのシステム制御部307は、特徴抽出部322に、端末Aから送信されてきた使用者aのキーボード打鍵時の振動情報のサンプリング処理を開始させる。そして、ステップS384に進み、端末Bのシステム制御部307は、意味抽出部323に、入力された文字情報を解析させる。ステップS385において、端末Bのシステム制御部97は、解析された文字情報の中に感情、状態、およびその強度を表す語句があるか否かを判定し、感情、状態、およびその強度を表す語句がないと判定された場合、ステップS382に戻り以降の処理を繰り返し実行する。感情・状態を表す語句は実施の形態1の場合と同様に、図23に示されるようなものであり、強度を示す語句は図24に示されるようなものである。
【0187】
ステップS385において、感情、状態、およびその強度を示す語句があると判定された場合、端末Bのシステム制御部307は、ステップS386において、認識された語句の主語は使用者か否か、すなわち、解析された語句が、使用者aの感情、状態、およびその強度を表す語句であるか否かを判定し、主語は使用者ではないと判定された場合、ステップS382に戻り、以降の処理を繰り返し実行する。
【0188】
ステップS6において、主語は使用者であると判定された場合、端末Bのシステム制御部307は、ステップS387において、文字情報が1フレーズ分入力されたか否かを判定し、1フレーズ分入力されたと判定されるまで待機する。
【0189】
ステップS387において、1フレーズ分入力されたと判定された場合、端末Bのシステム制御部307は、ステップS388に進み、特徴抽出部322に、キーボード打鍵時の振動情報のサンプリング処理を終了させる。
【0190】
なお、キーボード打鍵時の振動情報のサンプリング処理は、端末Aの特徴抽出部322において行い、サンプリングした結果を端末Bに送信してもよい。
【0191】
そして、ステップS389に進み、端末Bのシステム制御部307は、意味抽出部323で、感情情報Eを抽出する。
【0192】
使用者aが「とてもうれしい」と入力した場合、「うれしい」という語句に対応する感情・状態は喜びであり、「とても」という語句に対応する強度は強であると認識され、感情情報Eとして、「強い喜び」が抽出される。
【0193】
ステップS390において、端末Bのシステム制御部307は、特徴抽出部322で使用者aの脈拍情報に基づいて、特徴ベクトルVcを生成し、ステップ391に進み、個人を特定する情報PID、感情情報Eに対応する振動情報を蓄積部305から読み出す。この場合、使用者aの強い喜びに対応する振動情報の特徴ベクトルが読み出される。そして、ステップS392に進み、端末Bのシステム制御部307は、学習部304に、読み出された特徴ベクトルに新たに生成された特徴ベクトルVcを加えて、ベクトルの分布fvc、分布の中心ベクトルVμ、標準偏差ベクトルVσを再計算させ、ステップS393において、再計算した結果を蓄積部305に記憶する。
【0194】
次に図51と図52を参照して、振動情報の特徴ベクトルVcの生成処理について説明する。この処理は、端末Bの特徴抽出部322で行われる。ステップS401において、端末Bの特徴抽出部322は、サンプリングした振動情報を読み出し、その後、実施の形態1の場合と同様に、ステップS402において、図16の極性判定処理を行い、ステップS403に進み、図17のTV出力処理を行い、ステップS404において、図18のVmin,Vmax判定処理を行う。
【0195】
キーボード打鍵時の振動情報の波形は図54に示す波形491のようになる。この波形491には、使用者がキーが押下されることにより、細かく振動する部分492、494と使用者がキーに触れていないので、ほとんど振動しない部分493、495が存在する。細かく振動する部分492、494をサンプリングし、極性判定処理、TV出力処理を行うと、Tv+、Tv0、Tv−、Tv0、Tv+...のような出力を得る。一方、ほとんど振動しない部分493、495をサンプリングし、極性判定処理、TV出力処理を行うと、Tv0だけが出力され、このTv0はかなり大きな値となる。従って、所定の時間である閾値Thより、小さいTv0が出力されたとき、使用者はキーを押下しており、Thより大きいTv0が出力されたとき、使用者はキーを押下していないことが分かる。
【0196】
図52のステップS405において、端末Bの特徴抽出部322は、変数nとPに1をセットし、ステップS406に進みTv0(P)が閾値Thより大きいか否かを判定し、Tv0(P)がThより大きくないと判定された場合、ステップS407に進み、Tstr(n)に、Tstr(n)+Tv+(P)+Tv−(P)をセットする。Tsr(n)の初期値は0である。
【0197】
ステップS408において、端末Bの特徴抽出部322は、Vmax(P)が、Imax(n)より大きいか否かを判定する。Imax(n)の初期値は0である。ステップS408においてVmax(P)が、Imax(n)より大きいと判定された場合、端末Bの特徴抽出部322は、ステップS409に進み、Imax(n)にVmax(P)をセットし、ステップS410においてPの値を1だけインクリメントして、ステップS406に戻り、以降の処理を繰り返し実行する。ステップS408においてVmax(P)が、Imax(n)より大きくないと判定された場合、ステップS409の処理はスキップされる。
【0198】
ステップS406において、Tv0(P)がThより大きいと判定された場合、端末Bの特徴抽出部322は、ステップS411に進み、Tint(n)にTv0(P)をセットし、Pの値を1だけインクリメントし、特徴量ベクトルVc1(Tstr(n),Tint(n),Imax(n))を生成する。ステップS413において、端末Bの特徴抽出部322は、Tv0(P)があるか否かを判定し、Tv0(P)があると判定された場合、ステップS414に進み、nの値を1だけインクリメントし、ステップS406に戻り、以降の処理を繰り返し実行する。
【0199】
ステップS413において、Tv0(P)がないと判定された場合、端末Bの特徴抽出部322は、処理を終了する。
【0200】
このようにして、図54に示す波形491から図55Aに示されるTstr(1)511、Tint(1)512、Tstr(2)513、Tint(2)514、Tstr(3)515、Tint(3)516、Tstr(4)517、Tint(4)518、Tstr(5)511、Tint(5)512が得られる。Tstr(1)乃至Tstr(5)は、使用者によりキーが押下されている時間を示し、Tint(1)乃至Tint(5)はキーが押下される間隔を示す。この例では、キーが5回押下(打鍵)されたことが分かる。
【0201】
また、図54に示す波形491から図55Bに示されるImax(1)531、Imax(2)532、Imax(3)533、Imax(4)534、Imax(5)535が得られる。Imax(1)乃至Imax(5)はそれぞれ、1乃至5回目の打鍵時における最大振動強度である。
【0202】
このようにして、使用者aの強い喜びに対応する振動情報の特徴ベクトルVcが生成される。
【0203】
ここまで、端末Bが、端末Aから送信された使用者aのキーボードを打鍵時の振動情報から特徴量ベクトルVcを生成し、蓄積する処理について説明したが、同様に端末Bは、使用者bのキーボード打鍵時の振動情報から特徴量ベクトルを生成し、蓄積する。その結果、端末Bの蓄積部95には、図53にしめされるような、キーボードの振動情報に関する学習結果461がそれぞれ、使用者aと使用者bに分けて蓄積される。
【0204】
また、端末Aも同様にして、キーボードの振動情報に関する学習結果をそれぞれ、使用者aと使用者bに分けて蓄積することができる。
【0205】
上述した振動情報蓄積処理を繰り返し行い、振動情報が充分蓄積された後は、振動情報をもとに、使用者の感情、状態、およびその強度を特定することができる。
【0206】
次に図56を参照して、端末Bによる感情状態の特定処理について説明する。
【0207】
ステップS431において、端末Bのシステム制御部307は、端末Aとの通信開始時に、通信相手である端末Aの使用者aを特定する情報PIDを取得する。ステップS432において、端末Bのシステム制御部307は、情報弁別部321に、端末Aから送信されてきた使用者aのキー入力情報が入力されたか否かを判定させ、入力されたと判定されるまで待機する。
【0208】
ステップS432において、キー入力情報が入力されたと判定された場合、ステップS433に進み、端末Bのシステム制御部97は、特徴抽出部322に、端末Aから送信されてきた使用者aのキーボード打鍵時の振動情報のサンプリング処理を開始させる。そして、ステップS434に進み、端末Bのシステム制御部307は、意味抽出部323に1フレーズ分入力された否かを判定させ、1フレーズ分入力されたと判定されるまで待機する。ステップS434において、1フレーズ分入力されたと判定された場合、端末Bのシステム制御部307は、特徴抽出部322に、端末Aから送信されてきた使用者aのキーボード打鍵時の振動情報のサンプリング処理を終了させる。
【0209】
なお、キーボード打鍵時の振動情報のサンプリング処理は、端末Aの特徴抽出部322において行い、サンプリングした結果を端末Bに送信してもよい。
【0210】
ステップS436において、端末Bのシステム制御部307は、特徴抽出部112に、特徴ベクトルVchの生成処理を実行させ、ステップS437に進み、学習部304にVchの感情、状態、およびその強度の特定処理を実行させ、ステップS438に進み、特定結果出力再計算処理を実行させる。
【0211】
次に図57と図58を参照して、Vch生成処理について説明する。この処理は端末Bの特徴抽出部322において実行される。ステップS451において、端末Bの特徴抽出部322は、サンプリングした振動情報を読み出し、その後、実施の形態1の場合と同様に、ステップS452において、図16の極性判定処理を行い、ステップS453に進み、図17のTV出力処理を行い、ステップS454において、図18のVmin,Vmax判定処理を行う。
【0212】
図58のステップS455において、端末Bの特徴抽出部322は、変数nとPに1をセットし、ステップS456に進みTv0(P)が閾値Thより大きいか否かを判定し、Tv0(P)がThより大きくないと判定された場合、ステップS457に進み、Tstr(n)に、Tstr(n)+Tv+(P)+Tv−(P)をセットする。Tsr(n)の初期値は0である。
【0213】
ステップS458において、端末Bの特徴抽出部322は、Vmax(P)が、Imax(n)より大きいか否かを判定する。Imax(n)の初期値は0である。ステップS458においてVmax(P)が、Imax(n)より大きいと判定された場合、端末Bの特徴抽出部322は、ステップS459に進み、Imax(n)にVmax(P)をセットし、ステップS460においてPの値を1だけインクリメントして、ステップS456に戻り、以降の処理を繰り返し実行する。ステップS458においてVmax(P)が、Imax(n)より大きくないと判定された場合、ステップS459の処理はスキップされる。
【0214】
ステップS456において、Tv0(P)がThより大きくいと判定された場合、端末Bの特徴抽出部322は、ステップS461に進み、Tint(n)にTv0(P)をセットし、Pの値を1だけインクリメントし、ステップS462において特徴量ベクトルVc(Tstr(n),Tint(n),Imax(n))を生成する。ステップS463において、端末Bの特徴抽出部322は、Tv0(P)があるか否かを判定し、Tv0(P)があると判定された場合、ステップS465に進み、nの値を1だけインクリメントし、ステップS456に戻り、以降の処理を繰り返し実行する。
【0215】
ステップS463において、Tv0(P)がないと判定された場合、端末Bの特徴抽出部322は、ステップS464に進み、Vcの平均ベクトルVchを生成する。
【0216】
例えば、使用者aが端末Aから「それはどうかな・・・」を“sorehadoukana・・・”とローマ字で入力した場合、その振動情報が端末Bに送信され、端末Bにおいて、最後の“・”を除いた15文字のキー入力に対応した15個の特徴量ベクトルVcが生成される。この15個の特徴量ベクトルVcの平均ベクトルがVchとなる。
【0217】
次に図59を参照して、Vchの感情、状態、およびその強度の特定処理について説明する。この処理は、端末Bの学習部304において実行される。
【0218】
ステップS481において、端末Bの学習部304は、蓄積部305に蓄積されている使用者aに対応する振動情報の特徴量ベクトルの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσを読み出す。
【0219】
上述したように感情情報は36通りあり、fvc,Vμ,Vσも感情情報に対応してそれぞれ36通り存在する。
【0220】
ステップS482において、端末Bの学習部304は、変数Qに1をセットし、ステップS483に進み、ベクトルVμ(Q)とステップS436(図56)で生成した特徴量ベクトルVchの内積値を算出し、内積値に対応させてVμ(Q)を記憶する。そして、ステップS484に進み、端末Bの学習部304は、Qの値を1だけインクリメントし、ステップ485において、全ての感情情報について計算したか否か、すなわち、36種類の中心ベクトルVμについて、内積値を計算したか否かを判定し、全ての感情情報について計算していないと判定された場合、ステップS483に戻り、以降の処理を繰り返し実行する。
【0221】
全ての感情情報に対応する36種類の中心ベクトルVμについて内積値の計算が終わると、端末Bの学習部304の中にある図示せぬ記憶部には、実施の形態1の場合と同様に感情情報、内積値、中心ベクトルVμの種類、内積値の大きさの順序が含まれたデータが記憶されている。ステップS486において、端末Bの学習部304は、内積値の大きい順にデータをソートする。
【0222】
ステップS487において、端末Bの学習部304は、変数Rに1をセットし、S488において、全ての感情情報に関してデータが読み出されたか否かを判定し、全ての感情情報に関してデータが読み出されていないと判定された場合、ステップS489に進み、ソートしたデータを読み出す。ステップS490において、変数mに1をセットし、ステップS491に進み、Vμ(R)m−Vσ(R)m≦Vchm≦Vμ(R)m+Vσ(R)mの条件を満たしているか否かを判定する。ここで、Vμ(R)mは、ベクトルVμ(R)のm番目の成分を表し、Vσ(R)m,Vchmもそれぞれ同様にベクトルVσ,Vchのm番目の成分を表す。振動情報の特徴量ベクトルは上述したようにTstr,Tint,Imaxの3個の成分により構成されている。mの値が1のとき、Vμ(R),Vσ(R),Vcの各ベクトルのTstr成分が抽出され、処理が行われる。
【0223】
ステップS491において、Vμ(R)m−Vσ(R)m≦Vchm≦Vμ(R)m+Vσ(R)mの条件を満たしていないと判定された場合、端末Bの学習部304は、ステップS496に進み、Rの値を1だけインクリメントして、ステップS488に戻り、以降の処理を繰り返し実行する。ステップS491において、Vμ(R)m−Vσ(R)m≦Vchm≦Vμ(R)m+Vσ(R)mの条件を満たしていると判定された場合、端末Bの学習部304は、ステップS492に進み、mの値を1だけインクリメントして、ステップS493に進み、mの値が4と等しいか否かを判定し、mの値が4と等しくないと判定された場合、ステップS491に戻り、以降の処理を繰り返し実行する。
【0224】
ステップS493において、mの値が4と等しいと判定された場合、すなわち、Vμ(R),Vσ(R),Vchの各ベクトルを構成する3個の成分について、全て、Vμ(R)m−Vσ(R)m≦Vchm≦Vμ(R)m+Vσ(R)mの条件を満たしていると判定された場合、端末Bの学習部304は、ステップS494に進み、VchはRに対応する感情情報Eに属しているものと特定する。
【0225】
ステップS488において、全ての感情情報に関してデータを読み出したと判定された場合、端末Bの学習部304は、Vchの感情、状態、およびその強度を特定不能として処理を終了する。
【0226】
図60は、使用者aの各感情情報に対応する振動情報の特徴量ベクトルを示した図である。この図は、Tstr軸、Tint軸、Imax軸からなる3次元空間として示されている。図56のステップS436において生成された特徴量ベクトル555(Vch)は、「嫌悪・弱」に対応する特徴量ベクトルの分布557の中心ベクトル556(Vμ15)と近接しており、上述したVchの感情、状態、およびその強度特定処理の結果、「嫌悪・弱」を示す特徴量ベクトルであると特定される。
【0227】
このようにして、特徴量ベクトルVchから、使用者aの感情、状態、およびその強度が特定される。
【0228】
次に図61を参照して、特定結果出力再計算処理について説明する。この処理は、端末Bの学習部304において実行される。ステップS511において、端末Bの学習部304は、特定結果を出力制御部324に出力し、ステップS512において使用者aの感情情報Eに対応する振動情報の特徴量ベクトルの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσを再計算し、蓄積する。すなわち、ステップS436(図56)で生成された特徴量ベクトルVchは、蓄積部に蓄積されている使用者aの「嫌悪・弱」を示す振動情報の特徴量ベクトルに加えられ、あらたに、fvc、Vμ、およびVσが計算され、蓄積部305に蓄積される。
【0229】
このようにして、振動情報から感情、状態、およびその強度が特定される。また、感情、状態、およびその強度が特定された特徴量ベクトルの情報が、あらたに蓄積される。
【0230】
ここまで、端末Bが、端末Aから送信された使用者aのキーボード打鍵時の振動情報から特徴量ベクトルVchを生成し、感情、状態、およびその強度を特定する処理について説明したが、同様に端末Bは、使用者bについてのキーボード打鍵時の振動情報から特徴量ベクトルを生成し、感情、状態、およびその強度を特定することもできる。
【0231】
また、端末Aも同様にして、使用者aと使用者bの感情、状態、およびその強度を特定することができる。
【0232】
次に、図62と図63を参照して、情報出力処理について説明する。ステップS531において、システム制御部307は、出力情報が選択されたか否かを判定し、選択されたと判定されるまで待機する。出力情報の選択は、実施の形態1の場合と同様に、例えば、端末のディスプレイ上に表示されたメニューを使用者が選択することによって行われる。使用者が選択できるメニューは、「特定結果」、「特徴量に基づく情報」、「波形情報」、および「蓄積情報」の4種類がある。
【0233】
ステップS531において、出力情報が選択されたと判定された場合、システム制御部307は、ステップS532に進み、特定結果が選択されたか否かを判定し、特定結果が選択された判定された場合、ステップS533において、特定結果に対応する2ビットの選択情報00を出力制御部324に送信する。
【0234】
ステップS534において、出力制御部324は、感情、状態、およびその強度の特定結果を出力する。例えば、端末のディスプレイ上に「弱い嫌悪を示しているようです。」という文字が出力される。
【0235】
ステップS532において、特定結果が選択されていないと判定された場合、システム制御部307は、ステップS535に進み、特徴量に基づく情報が選択されたか否かを判定し、特徴量に基づく情報が選択されたと判定された場合、ステップS536に進み、特徴量に基づく情報に対応する2ビットの選択情報01を出力制御部324に送信する。
【0236】
ステップS537において、出力制御部324は、特徴量(Tstr,Tint,Imax)を特徴抽出部322から取得し、ステップS538に進み、振動呈示部駆動信号を生成する。すなわち、出力のレベルをImaxとし、出力ON時間をTstrとし、出力OFF時間をTintとして、図64に示されるような矩形波信号を生成する。そして、ステップS539に進み、出力制御部324は、振動提示部362を駆動させる。
【0237】
ステップS535において、特徴量に基づく情報が選択されていないと判定された場合、システム制御部307は、ステップS540において、波形情報が選択されたか否かを判定し、波形情報が選択されたと判定された場合、波形情報に対応する2ビットの選択情報10を出力制御部324に送信する。ステップS542において、出力制御部324は、特徴抽出部322からサンプリングされた振動情報を取得し、波形信号を生成し、ステップS543において振動呈示部362を駆動させる。
【0238】
ステップS540において、波形情報が選択されていないと判定された場合、システム制御部307は、ステップS544に進み、蓄積情報が選択されたか否かを判定し、蓄積情報が選択されたと判定された場合、ステップS545に進み、蓄積情報に対応する2ビットの選択情報01を出力制御部324に送信する。
【0239】
蓄積情報が選択された場合、端末のディスプレイ上に更にサブメニューが表示され、使用者は、どの蓄積情報を出力するかを選択することができる。すなわち、キーボードの振動情報などの情報の種類inf、個人を特定する情報PID、感情情報Eが選択される。例えば、infとしてキーボードの振動情報、PIDとして個人a、Eとして「強い活性」などが選択される。
【0240】
ステップS546において、システム制御部307は、情報の種類inf、個人を特定する情報PID、感情情報Eが選択されたか否かを判定し、選択されたと判定されるまで待機する。
【0241】
ステップS547において、システム制御部307は、使用者に選択された情報に基づいて(inf,PID,E)の情報を生成し、出力制御部324に送信する。
【0242】
ステップS548において出力制御部324は、(inf,PID,E)に基づいて、蓄積部305からキーボードの振動情報の中心ベクトルを取得する。この場合、蓄積部に蓄積されている個人aの「強い活性」に対応する脈拍情報の特徴量ベクトルの分布の中心ベクトルVμ(Tstr,Tint,Imax)が取得される。
【0243】
ステップS549において、出力制御部324は、中心ベクトルVμに基づいて、振動呈示部駆動信号を生成する。すなわち、出力のレベルをImaxとし、出力ON時間をTstrとし、出力OFF時間をTintとして、図65に示されるような矩形波591の信号を生成し、ステップS550において振動呈示部362を駆動信号に基づいて、3回駆動させる。
【0244】
ステップS544において、蓄積情報が選択されていないと判定された場合、システム制御部307は、ステップS551に進み、エラー処理を実行して、処理を終了する。
【0245】
このようにして、使用者は、振動情報から特定された感情、状態、およびその強度を表示させ、認識することができる。また、振動呈示部を駆動させることにより、振動情報を体感することができる。
【0246】
実施の形態3
【0247】
図66に本発明の第3の情報処理装置の構成例を示す。この情報処理装置は、パーソナルコンピュータなどに適用することができる。この情報処理装置には、感情申告情報、マウスクリック情報、マウス握り圧情報、環境温度情報の入力を受け付ける入力部611、入力部611から入力された情報を処理する処理部613、処理部613から出力された特徴情報と感情態情報に基づいて、学習、特定を行う学習部614、学習部614から出力された学習情報、特定情報を蓄積する蓄積部615、処理部613から出力された出力情報に基づいて、情報を出力する出力部612、通信を行う通信部616、および各部を制御するシステム制御部617が設けられている。
【0248】
処理部613には、入力部611から入力された情報を、感情・状態申告情報、環境温度情報、マウスクリック情報またはマウス握り圧情報に分別する情報弁別部631、マウスクリック情報とマウス握り圧情報から特徴情報を抽出する特徴抽出部632、および出力部612に出力情報を出力する出力制御部612が設けられている。通信部616には、情報の送信を行う情報送信部634、情報の受信を行う情報受信部635が設けられている。
【0249】
図67に入力部611の構成例を示す。この例では、マウス651、使用者がマウスを握るときの強度を検知する握り強度センサ671、握り強度センサ671からの信号を圧力信号に変換する圧力検出部652、環境温度を測定する温度センサ653、および温度センサ653からの信号を増幅する電源アンプ部654により構成されている。
【0250】
図68に出力部612の構成例を示す。この例では、所定の信号に基づいて熱を発生する温度呈示部692、温度呈示部を駆動する電源アンプ部691により構成されている。温度呈示部692は、電流を流すと温度が変化するペルチェ素子693で構成されている。
【0251】
使用者aがもっている情報処理装置を端末Aとし、使用者bがもっている情報処理装置を端末Bとして、使用者aと使用者bがそれぞれの端末を用いて、相互に通信を行う場合、図69に示される手順で情報の送受信が行われる。最初に端末Aは、端末Bに接続要求を送信し、それに対応して端末Bは端末Aに接続応答を送信する。その後、端末Aと端末Bの間で、メール、チャットなどの文字情報などを送受信する。
【0252】
次に端末Aはクリック情報と握り圧情報(この例の場合、使用者がマウスを握るときの握り圧)の送受信の初期設定を行い、端末Bに送受信要求を送信する。このとき、実施の形態1の場合と同様に、端末Aから図11に示される送信設定情報と受信設定情報が送信される。
【0253】
端末Aから振動情報の送信要求を受け取った端末Bは、クリック情報と握り圧情報送受信設定の変更を行い、端末Aに応答を送信する。
【0254】
そして端末Aから端末Bに使用者aのクリック情報と握り圧情報が送信され、端末Bから端末Aに使用者bの振動情報が送信される。端末A、端末Bにはそれぞれクリック情報と握り圧情報が蓄積される。
【0255】
端末Aから端末Bに接続終了要求が送信されると、端末Bはそれに応答し、通信は終了する。
【0256】
このようにして、端末Aと端末Bの間で通信が行われ、クリック情報と握り圧情報が蓄積される。クリック情報と握り圧情報が充分に蓄積された後は、図70に示されるように情報の送受信が行われる。すなわち、端末Aと端末Bとの間でクリック情報と握り圧情報が送受信されると、端末Aと端末Bにおいて、使用者の感情・状態の特定処理が行われる。
【0257】
次に図71を参照して、端末Bにおけるクリック情報、握り圧情報蓄積処理について説明する。最初に端末Bのシステム制御部617は、ステップS571において、端末Aとの通信開始時に、通信相手である端末Aの使用者aを特定する情報(例えば、氏名、ニックネームなど)PIDを取得し、ステップS572において、端末Aから送信されてきた環境温度情報Kを取得する。ステップS572において、端末Bのシステム制御部617は、情報弁別部631に、端末Aから感情・状態申告情報の入力があったか否かを判定させ、入力されたと判定されるまで待機する。
【0258】
端末Aのディスプレイには、図76に示されるような感情・状態チャートが表示されており、使用者aは、この感情・状態チャートをマウスで所定の回数だけクリックすることにより感情・状態の申告を行う。感情・状態チャートをマウスでクリックすると、図77に示される感情・状態申告情報が端末Aから端末Bに送信される。また感情・状態の強度は、感情・状態チャートをクリックする回数により申告することができ、強度が弱のときは2回、強度が中のときは3回、強度が強のときは4回クリックする。
【0259】
また、使用者の感情・状態の申告情報は、仮想空間における使用者のエージェント(例えば、アバターなど)を用いて取得することもできる。
【0260】
ステップS573において、感情・状態申告情報の入力があったと判定された場合、ステップS574に進み、端末Bのシステム制御部617は、特徴抽出部632に、端末Aから送信されてきた使用者aのクリック情報と握り圧情報のサンプリング処理を開始させる。そして、ステップS575に進み、端末Bのシステム制御部617は、感情・状態申告情報のから、感情情報Eを抽出し、ステップS576において、特徴抽出部632に、クリック情報と握り圧情報のサンプリング処理を終了させる。
【0261】
なお、マウスのクリック情報と握り圧情報のサンプリング処理は、端末Aの特徴抽出部632において行い、サンプリングした結果を端末Bに送信してもよい。
【0262】
使用者aが感情・状態申告チャートの驚きの部分をマウスで4回クリックした場合、感情情報Eとして、「強い驚き」が抽出される。
【0263】
ステップS577において、端末Bのシステム制御部617は、特徴抽出部632に、使用者aのクリック情報と握り圧情報に基づいて、特徴ベクトルVcの生成処理を実行させ、ステップS578に進み、環境温度Kの値が、基準値K1以上であるか否かを判定し、環境温度Kの値が、基準値K1以上であると判定された場合、ステップS579に進み、K≧K1におけるPIDとEに対応するクリック情報と握り圧情報を蓄積部615から読み出す。この場合、環境温度がK1以上のときの使用者aの強い驚きに対応するクリック情報と握り圧情報の特徴ベクトルが読み出される。
【0264】
ステップS578において、環境温度Kの値が、基準値K1未満であると判定された場合、端末Bのシステム制御部617は、ステップS580に進み、K<K1におけるPIDとEに対応するクリック情報と握り圧情報を蓄積部615から読み出す。この場合、環境温度がK1未満のときの使用者aの強い驚きに対応するクリック情報と握り圧情報の特徴ベクトルが読み出される。
【0265】
そして、ステップS581に進み、端末Bのシステム制御部617は、学習部614に、読み出された特徴ベクトルに新たに生成された特徴ベクトルVcを加えて、ベクトルの分布fvc、分布の中心ベクトルVμ、標準偏差ベクトルVσを再計算させ、ステップS582において、再計算した結果を蓄積部615に記憶する。
【0266】
次に図73を参照して、クリック情報と握り圧情報の特徴ベクトルVcの生成処理について説明する。この処理は、端末Bの特徴抽出部632で行われる。ステップS591において、端末Bの特徴抽出部632は、サンプリングしたクリック情報と握り圧情報を読み出し、その後、実施の形態1の場合と同様に、ステップS592において、図16の極性判定処理を行い、ステップS593に進み、図17のTV出力処理を行い、ステップS594において、図18のVmin,Vmax判定処理を行い、ステップS595において、後述するクリック特徴算出処理を行い、値TclmとTcimを取得する。
【0267】
そして、ステップS596に進み、端末Bの特徴抽出部632は、サンプリングした握り圧情報を読み出し、ステップS597において、極性判定処理を行い、ステップS598に進み、TV出力処理を行い、ステップS599において、Vmin,Vmax判定処理を行い、ステップS600において、後述する握り圧特徴算出処理を行い、値TgrpmとIgrpmを取得する。
【0268】
ステップS601において、端末Bの特徴抽出部632は、特徴量ベクトルVc(Tclm,Tcim,Tgrpm,Igrpm)を生成する。
【0269】
次に図74を参照して、クリック特徴算出処理について説明する。
使用者がマウスをクリックするときのクリック情報の波形は図79に示す波形のようになる。すなわち、使用者がマウスのクリックボタンを押下しているとき、パルス771、パルス773、パルス775、パルス777が出力され、クリックボタンが押下される間の時間772,時間774,時間776は、それぞれ出力が0となる。この波形をサンプリングし、極性判定処理、TV出力処理を行うと、Tv+、Tv0、Tv+、Tv0、Tv+...のような出力を得る。
【0270】
図74のステップS621において、端末Bの特徴抽出部632は、変数nとPに1をセットし、ステップS622に進みTcl(n)にTv+(P)の値をセットし、Tci(n)にTv0(P)の値をセットする。そして、ステップS623に進み、端末Bの特徴抽出部632は、Pとnの値を1だけインクリメントし、ステップS624において、Tv+(P)またはTv0(P)があるか否かを判定し、Tv+(P)またはTv0(P)があると判定された場合、ステップS622に戻り、以降の処理を繰り返し実行する。
【0271】
ステップS624において、Tv+(P)またはTv0(P)がないと判定された場合、端末Bの特徴抽出部632は、ステップS625に進み、Tclの平均値TclmとTciの平均値Tcimを計算する。図79の場合、TclmとTcimは、それぞれ次の式で算出される。
Tclm=(Tcl(1)+Tcl(2)+Tcl(3)+Tcl(4))/4
Tcim=(Tci(1)+Tci(2)+Tci(3))/3
【0272】
次に、図75を参照して、握り圧特徴算出処理について説明する。使用者がマウスを握るときの握り圧情報は、図80に示すような波形791になる。この波形をサンプリングし、極性判定処理、TV出力処理を行うと、Tv+、Tv0、Tv+...のような出力を得る。すなわち、使用者がマウスを閾値Vth0より強い強度で握っている時間はTv+となり、閾値Vth0より弱い強度で握っている時間はTv0となる。
【0273】
また、Vmax,Vmin判定処理を行うと、使用者がマウスを閾値Vth0より強い強度で握っている時間Tv+における出力の最大強度Vmaxを得る。
【0274】
ステップS641において、端末Bの特徴抽出部632は、変数nとPに1をセットし、ステップS642に進みTgrp(n)にTv+(P)の値をセットし、Igrp(n)にVmax(P)の値をセットする。
【0275】
ステップS643において端末Bの特徴抽出部632は、Pとnの値を1だけインクリメントして、ステップS644に進み、Tv+(P)またはTv0(P)があるか否かを判定し、Tv+(P)またはTv0(P)があると判定された場合、ステップS645に進み、Tgrpの平均値TgrpmとIgrpの平均値Igrpmを算出する。
図80の場合、TgrpmとIgrpmは、それぞれ次の式で算出される。
Tgrpm=(Tgrp(1)+Tgrp(2))/2
Igrpm=(Igrp(1)+Igrp(2))/2
【0276】
このようにして、使用者aの強い驚きに対応するクリック情報と握り圧情報の特徴ベクトルVcが生成される。
【0277】
ここまで、端末Bが、端末Aから送信された使用者aのマウスのクリック情報と握り圧情報から特徴量ベクトルVcを生成し、蓄積する処理について説明したが、同様に端末Bは、使用者bのマウスのクリック情報と握り圧情報から特徴量ベクトルを生成し、蓄積する。その結果、端末Bの蓄積部615には、図78にしめされるように、マウスのクリック情報と握り圧情報に関する学習結果711がそれぞれ、環境温度K≧K1の場合731と環境温度K<K1の場合732に分けて蓄積される。さらに、環境温度K≧K1の場合731と環境温度K<K1の場合732のそれぞれにおいて、マウスのクリック情報と握り圧情報は、使用者aと使用者bにに分けて蓄積される。
【0278】
また、端末Aも同様にして、マウスのクリック情報と握り圧情報に関する学習結果をそれぞれ、使用者aと使用者bに分けて蓄積することができる。
【0279】
上述したクリック情報と握り圧情報の蓄積処理を繰り返し行い、クリック情報と握り圧情報が充分蓄積された後は、クリック情報と握り圧情報をもとに、使用者の感情、状態、およびその強度を特定することができる。
【0280】
次に図81を参照して、端末Bによる感情状態の特定処理について説明する。
【0281】
ステップS661において、端末Bのシステム制御部617は、端末Aとの通信開始時に、通信相手である端末Aの使用者aを特定する情報PIDを取得する。ステップS662において、端末Bのシステム制御部617は、情報弁別部631に、使用者aのマウス入力があったか否かを判定させ、入力があったと判定されるまで待機する。
【0282】
ステップS662において、マウス入力があったと判定された場合、ステップS663に進み、端末Bのシステム制御部617は、特徴抽出部632に、端末Aから送信されてきた使用者aのマウスのクリック情報と握り圧情報のサンプリング処理を開始させる。そして、ステップS664に進み、端末Bのシステム制御部617は、情報弁別部631にマウス入力が終わったか否かを判定させ、マウス入力が終わったと判定されるまで待機する。
【0283】
ステップS664において、マウス入力が終わったと判定された場合、端末Bのシステム制御部617は、特徴抽出部632に、端末Aから送信されてきた使用者aのマウスのクリック情報と握り圧情報のサンプリング処理を終了させる。
【0284】
なお、マウスのクリック情報と握り圧情報のサンプリング処理は、端末Aの特徴抽出部632において行い、サンプリングした結果を端末Bに送信してもよい。
【0285】
ステップS666において、端末Bのシステム制御部317は、特徴抽出部632に、特徴ベクトルVcの生成処理を実行させ、ステップS667に進み、学習部614にVcの感情、状態、およびその強度の特定処理を実行させ、ステップS668において、特定結果出力再計算処理を実行させる。
【0286】
次に図82を参照して、Vc生成処理について説明する。この処理は端末Bの特徴抽出部632において実行される。ステップS681において、端末Bの特徴抽出部632は、サンプリングしたクリック情報と握り圧情報を読み出し、ステップS682において、極性判定処理を行い、ステップS683に進み、TV出力処理を行い、ステップS684において、Vmin,Vmax判定処理を行い、ステップS685において、後述するクリック特徴算出処理を行い、値TclmとTcimを取得する。
【0287】
そして、ステップS686に進み、端末Bの特徴抽出部632は、サンプリングした握り圧情報を読み出し、ステップS687において、極性判定処理を行い、ステップS688に進み、TV出力処理を行い、ステップS689において、Vmin,Vmax判定処理を行い、ステップS690において、後述する握り圧特徴算出処理を行い、値TgrpmとIgrpmを取得する。
【0288】
ステップS691において、端末Bの特徴抽出部632は、特徴量ベクトルVc(Tclm,Tcim,Tgrpm,Igrpm)を生成する。
【0289】
次に図83を参照して、クリック特徴算出処理について説明する。
【0290】
ステップS711において、端末Bの特徴抽出部632は、変数nとPに1をセットし、ステップS712に進みTcl(n)にTv+(P)の値をセットし、Tci(n)にTv0(P)の値をセットする。そして、ステップS713に進み、端末Bの特徴抽出部632は、Pとnの値を1だけインクリメントし、ステップS714において、Tv+(P)またはTv0(P)があるか否かを判定し、Tv+(P)またはTv0(P)があると判定された場合、ステップS712に戻り、以降の処理を繰り返し実行する。
【0291】
ステップS714において、Tv+(P)またはTv0(P)がないと判定された場合、端末Bの特徴抽出部632は、ステップS715に進み、Tclの平均値TclmとTciの平均値Tcimを計算する。
【0292】
次に、図84を参照して、握り圧特徴算出処理について説明する。ステップS731において、端末Bの特徴抽出部632は、変数nとPに1をセットし、ステップS732に進みTgrp(n)にTv+(P)の値をセットし、Igrp(n)にVmax(P)の値をセットする。
【0293】
ステップS733において端末Bの特徴抽出部632は、Pとnの値を1だけインクリメントして、ステップS734に進み、Tv+(P)またはTv0(P)があるか否かを判定し、Tv+(P)またはTv0(P)があると判定された場合、ステップS735に進み、Tgrpの平均値TgrpmとIgrpの平均値Igrpmを算出する。
【0294】
このようにして、使用者aのマウスのクリック情報と握り圧情報から特徴量ベクトルVcが生成される。
【0295】
次に図85を参照して、Vcの感情、状態、およびその強度の特定処理について説明する。この処理は、端末Bの学習部614において実行される。
【0296】
ステップS751において、端末Bの学習部614は、端末Aから送信されてきた環境温度情報Kの値が基準値K1以上か否かを判定し、K1以上であると判定された場合、蓄積部615に蓄積されているK≧K1における使用者aに対応するマウスのクリック情報と握り圧情報の特徴量ベクトルの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσを読み出す。ステップS751において、Kの値が基準値K1未満であると判定された場合、端末Bの学習部614は、蓄積部615に蓄積されているK<K1における使用者aに対応するマウスのクリック情報と握り圧情報の特徴量ベクトルの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσを読み出す。
【0297】
上述したように感情情報は36通りあり、fvc,Vμ,Vσも感情情報に対応してそれぞれ36通り存在する。
【0298】
ステップS754において、端末Bの学習部614は、変数Qに1をセットし、ステップS755に進み、ベクトルVμ(Q)とステップS666(図81)で生成した特徴量ベクトルVcの内積値を算出し、内積値に対応させてVμ(Q)を記憶する。そして、ステップS756に進み、端末Bの学習部614は、Qの値を1だけインクリメントし、ステップ757において、全ての感情情報について計算したか否か、すなわち、36種類の中心ベクトルVμについて、内積値を計算したか否かを判定し、全ての感情情報について計算していないと判定された場合、ステップS755に戻り、以降の処理を繰り返し実行する。
【0299】
全ての感情情報に対応する36種類の中心ベクトルVμについて内積値の計算が終わると、端末Bの学習部304の中にある図示せぬ記憶部には、実施の形態1の場合と同様に感情情報、内積値、中心ベクトルVμの種類、内積値の大きさの順序が含まれたデータが記憶されている。ステップS758において、端末Bの学習部614は、内積値の大きい順にデータをソートする。
【0300】
ステップS759において、端末Bの学習部614は、変数Rに1をセットし、S760において、全ての感情情報に関してデータが読み出されたか否かを判定し、全ての感情情報に関してデータが読み出されていないと判定された場合、ステップS761に進み、ソートしたデータを読み出す。ステップS762において、変数mに1をセットし、ステップS763に進み、Vμ(R)m−Vσ(R)m≦Vcm≦Vμ(R)m+Vσ(R)mの条件を満たしているか否かを判定する。ここで、Vμ(R)mは、ベクトルVμ(R)のm番目の成分を表し、Vσ(R)m,Vcmもそれぞれ同様にベクトルVσ,Vchのm番目の成分を表す。マウスのクリック情報と握り圧情報の特徴量ベクトルは上述したようにTclm,Tcim,Tgrpm,Igrpmの4個の成分により構成されている。mの値が1のとき、Vμ(R),Vσ(R),Vcの各ベクトルのTclm成分が抽出され、処理が行われる。
【0301】
ステップS763において、Vμ(R)m−Vσ(R)m≦Vchm≦Vμ(R)m+Vσ(R)mの条件を満たしていないと判定された場合、端末Bの学習部614は、ステップS768に進み、Rの値を1だけインクリメントして、ステップS760に戻り、以降の処理を繰り返し実行する。ステップS763において、Vμ(R)m−Vσ(R)m≦Vcm≦Vμ(R)m+Vσ(R)mの条件を満たしていると判定された場合、端末Bの学習部614は、ステップS764に進み、mの値を1だけインクリメントして、ステップS765に進み、mの値が5と等しいか否かを判定し、mの値が5と等しくないと判定された場合、ステップS763に戻り、以降の処理を繰り返し実行する。
【0302】
ステップS493において、mの値が5と等しいと判定された場合、すなわち、Vμ(R),Vσ(R),Vchの各ベクトルを構成する4個の成分について、Vμ(R)m−Vσ(R)m≦Vcm≦Vμ(R)m+Vσ(R)mの条件を満たしていると判定された場合、端末Bの学習部614は、ステップS766に進み、VcはRに対応する感情情報Eに属しているものと特定する。
【0303】
ステップS760において、全ての感情情報に関してデータを読み出したと判定された場合、端末Bの学習部614は、Vcの感情、状態、およびその強度を特定不能として処理を終了する。
【0304】
図86は、使用者aの各感情情報に対応するマウスのクリック情報と握り圧情報の特徴量ベクトルを示した図である。この図は、Tclm軸、Tcim軸、Tgrpm軸、Igrpm軸からなる4次元空間として示されている。図81のステップS666において生成された特徴量ベクトル811(Vc)は、「喜び・強」に対応する特徴量ベクトルの分布813の中心ベクトル812(Vμ1)と近接しており、上述したVcの感情、状態、およびその強度特定処理の結果、「喜び・強」を示す特徴量ベクトルであると特定される。
【0305】
このようにして、特徴量ベクトルVcから、使用者aの感情、状態、およびその強度が特定される。
【0306】
次に図61を参照して、特定結果出力再計算処理について説明する。この処理は、端末Bの学習部614において実行される。ステップS691において、端末Bの学習部614は、特定結果を出力制御部633に出力し、ステップS692において使用者aの感情情報Eに対応するマウスのクリック情報と握り圧情報の特徴量ベクトルの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσを再計算し、蓄積する。すなわち、ステップS666(図81)で生成された特徴量ベクトルVcは、蓄積部に蓄積されている使用者aの「喜び・強」を示すマウスのクリック情報と握り圧情報の特徴量ベクトルに加えられ、あらたに、fvc、Vμ、およびVσが計算され、蓄積部615に蓄積される。
【0307】
このようにして、マウスのクリック情報と握り圧情報から感情、状態、およびその強度が特定される。また、感情、状態、およびその強度が特定された特徴量ベクトルの情報が、あらたに蓄積される。
【0308】
ここまで、端末Bが、端末Aから送信された使用者aのマウスのクリック情報と握り圧情報から特徴量ベクトルVcを生成し、感情、状態、およびその強度を特定する処理について説明したが、同様に端末Bは、使用者bについてのマウスのクリック情報と握り圧情報から特徴量ベクトルを生成し、感情、状態、およびその強度を特定することもできる。
【0309】
また、端末Aも同様にして、使用者aと使用者bの感情、状態、およびその強度を特定することができる。
【0310】
次に、図88と図89を参照して、情報出力処理について説明する。ステップS781において、システム制御部617は、出力情報が選択されたか否かを判定し、選択されたと判定されるまで待機する。出力情報の選択は、実施の形態1の場合と同様に、例えば、端末のディスプレイ上に表示されたメニューを使用者が選択することによって行われる。使用者が選択できるメニューは、「特定結果」、「特徴量に基づく情報」、「波形情報」、および「蓄積情報」の4種類がある。
【0311】
ステップS781において、出力情報が選択されたと判定された場合、システム制御部617は、ステップS782に進み、特定結果が選択されたか否かを判定し、特定結果が選択された判定された場合、ステップS783において、特定結果に対応する2ビットの選択情報00を出力制御部633に送信する。
【0312】
ステップS784において、出力制御部633は、感情、状態、およびその強度の特定結果を出力する。例えば、端末のディスプレイ上に「強い喜びを示しているようです。」という文字が出力される。
【0313】
ステップS782において、特定結果が選択されていないと判定された場合、システム制御部617は、ステップS785に進み、特徴量に基づく情報が選択されたか否かを判定し、特徴量に基づく情報が選択されたと判定された場合、ステップS786に進み、特徴量に基づく情報に対応する2ビットの選択情報01を出力制御部633に送信する。
【0314】
ステップS787において、出力制御部633は、特徴量(Tgrp,Igrp)を特徴抽出部632から取得し、ステップS788に進み、温度呈示部駆動信号を生成する。すなわち、出力のレベルをIgrpとし、出力ON時間をTgrpとして、図90に示されるような矩形波信号を生成する。そして、ステップS789に進み、出力制御部633は、温度提示部692を駆動させる。
【0315】
ステップS785において、特徴量に基づく情報が選択されていないと判定された場合、システム制御部617は、ステップS790において、波形情報が選択されたか否かを判定し、波形情報が選択されたと判定された場合、ステップS791において、波形情報に対応する2ビットの選択情報10を出力制御部633に送信する。ステップS792において、出力制御部633は、特徴抽出部632からサンプリングされたマウスのクリック情報と握り圧情報を取得し、波形信号を生成し、ステップS793において温度呈示部692を駆動させる。
【0316】
ステップS790において、波形情報が選択されていないと判定された場合、システム制御部617は、ステップS794に進み、蓄積情報が選択されたか否かを判定し、蓄積情報が選択されたと判定された場合、ステップS795に進み、蓄積情報に対応する2ビットの選択情報01を出力制御部324に送信する。
【0317】
蓄積情報が選択された場合、端末のディスプレイ上に更にサブメニューが表示され、使用者は、どの蓄積情報を出力するかを選択することができる。すなわち、マウスのクリック情報と握り圧情報などの情報の種類inf、個人を特定する情報PID、感情情報Eが選択される。例えば、infとしてマウスのクリック情報と握り圧情報、PIDとして個人a、Eとして「弱い驚き」などが選択される。
【0318】
ステップS796において、システム制御部617は、情報の種類inf、個人を特定する情報PID、感情情報Eが選択されたか否かを判定し、選択されたと判定されるまで待機する。
【0319】
ステップS797において、システム制御部617は、使用者に選択された情報に基づいて(inf,PID,E)の情報を生成し、出力制御部633に送信する。
【0320】
ステップS798において出力制御部633は、(inf,PID,E)に基づいて、蓄積部615からキーボードの振動情報の中心ベクトルを取得する。この場合、蓄積部に蓄積されている個人aの「弱い驚き」に対応する脈拍情報の特徴量ベクトルの分布の中心ベクトルVμ(Tcl,Tci,Tgrp,Igrp)が取得される。
【0321】
ステップS799において、出力制御部633は、中心ベクトルVμに基づいて、温度呈示部駆動信号を生成する。すなわち、出力のレベルをIgrpとし、出力ON時間をTgrpとし、出力OFF時間をTgrpとして、図91に示されるような矩形波851の信号を生成し、ステップS800において温度呈示部692を駆動信号に基づいて、3回駆動させる。
【0322】
ステップS794において、蓄積情報が選択されていないと判定された場合、システム制御部617は、ステップS801に進み、エラー処理を実行して、処理を終了する。
【0323】
このようにして、使用者は、マウスのクリック情報と握り圧情報から特定された感情、状態、およびその強度を表示させ、認識することができる。また、温度呈示部を駆動させることにより、握り圧情報を体感することができる。
【0324】
実施の形態4
【0325】
図92は本発明の情報処理装置を利用した第2のコミュニケーションシステムの構成を示す図である。図1のシステムと異なり、端末1、端末2、および端末3に代わり、ゲーム機871、ゲーム機872、およびゲーム機873が、設置されている。そしてゲーム機871乃至873は、それぞれインターネットなどのネットワーク880を経由してサーバ881に接続され、互いに情報通信を行うように構成されている。
【0326】
ゲーム機871(ゲーム機A)、ゲーム機872(ゲーム機B)、ゲーム機873(ゲーム機C)には、図1の場合と同様に、それぞれ、情報の入力を受け付ける入力部891A乃至891C、入力された情報を処理する処理部893A乃至893C、入力された情報から使用者の感情、状態、およびその強度を学習、特定する学習部894A乃至894C、学習部によって学習、特定された情報を蓄積する蓄積部895A乃至895C、学習部によって特定された情報、または蓄積部に蓄積された情報を出力する出力部892A乃至892C、情報の送受信を行う通信部896A乃至896C、および各部を制御するシステム制御部897A乃至897Cが設けられている。
【0327】
なお、ゲーム機871(ゲーム機A)乃至ゲーム機873(ゲーム機C)の構成は同一であるため、それらを構成する入力部891A乃至システム制御部897A、入力部891B乃至システム制御部897B、並びに入力部891C乃至システム制御部897Cは、それぞれ同一の機能を有している。以下においては、それらを個々に区別する必要がない場合には、入力部891乃至システム制御部897と、まとめて表現する。
【0328】
図93にゲーム機871乃至873の構成例を示す。このゲーム機には、音声情報、加速度情報、およびゲーム機のコントローラ941(図94)の握り圧情報の入力を受け付ける入力部891、入力部891から入力された情報を処理する処理部893、処理部893から出力された特徴情報と感情態情報に基づいて、学習、特定を行う学習部894、学習部894から出力された学習情報、特定情報を蓄積する蓄積部895、処理部893から出力された出力情報に基づいて、情報を出力する出力部892、通信を行う通信部896、および各部を制御するシステム制御部897が設けられている。
【0329】
処理部893には、入力部891から入力された情報から、加速度情報、握り圧情報、または音声情報を分別する情報弁別部911、加速度情報とコントローラ941の握り圧情報から特徴情報を抽出する特徴抽出部912、音声情報から感情情報を抽出する意味抽出部913、および出力部892に出力情報を出力する出力制御部914が設けられている。通信部896には、情報の送信を行う情報送信部921、情報の受信を行う情報受信部922が設けられている。
【0330】
入力部891は、マイクロホン、3軸(相互に垂直なX,Y,Z軸)方向の加速度を検知する加速度センサ、使用者がコントローラ941を握るときの強度を検知する握り圧センサにより構成され、ゲーム機に付属のコントローラ941に配置される。また、出力部892は、所定の信号に基づいて、光を発する光呈示部、および、所定の信号に基づいて振動する振動モータにより構成される振動呈示部により構成され、やはりコントローラ941に配置される。
【0331】
図94にコントローラ941の構成例を示す。使用者は、コントローラ941の所定のボタンを操作することにより、ゲームを行う。コントローラ941内部の上部中央には、3軸加速度センサ961が設けられている。3軸加速度センサ961は、使用者がコントローラ941を動かすとき、X軸方向(図中紙面と平行な左右の方向)、Y軸方向(図中紙面と平行な上下の方向)、Z軸方向(図中紙面と垂直な前後の方向)のそれぞれの加速度を検知する。コントローラ941の下部中央には、マイクロホン962が設けられており、使用者が発する音声は、マイクロホン962に入力される。コントローラ941の下部の左右両端には、握り圧センサ963Lと963Rが設けられており、使用者がコントローラ941を使用するとき、通常握り圧センサ963Lと963Rが設置された部分が、それぞれ、使用者の左手と右手で握られる。
【0332】
また、3軸加速度センサ961の左右の両端の近傍には、それぞれ光呈示部964Lと964Rが設けられている。握り圧センサ963Lおよび963Rとほぼ同じ位置の下側に、それぞれ振動呈示部965Lおよび965Rが設けられている。上述したように、振動呈示部965Lおよび965Rは、コントローラ941に内蔵される振動モータにより構成される。
【0333】
使用者aがもっているゲーム機をゲーム機Aとし、使用者bがもっているゲーム機をゲーム機Bとして、使用者aと使用者bは、それぞれのゲーム機を用いて、多人数参加型のオンラインゲームに参加することができる。このオンラインゲームにおいて、参加者は、同じくゲームに参加している他の参加者と音声によるコミュニケーションを行うことができる。例えば、使用者aの音声が、ゲーム機Aのコントローラのマイクロホン962から入力され、ゲーム機Bに送信され、ゲーム機Bが接続されているテレビのスピーカ、またはゲーム機専用のスピーカなどから出力され、使用者bに使用者aが発した音声が伝えられる。同様に、使用者bが発した音声も使用者aに伝えられ、使用者aと使用者bは音声によるコミュニケーションを行うことができる。
【0334】
この場合、図95に示される手順で情報の送受信が行われる。最初にゲーム機Aは、ステップS1001でサーバ881に、接続要求を送信し、ステップS1101でサーバ881は、接続要求を受信する。サーバ881は、ステップS1102で接続要求に基づいて、認証を行う。ゲーム機Aから送信される接続要求には、使用者aを特定する、例えば、氏名、ニックネームなどの情報、およびゲームに参加するためのパスワードが含まれており、サーバ881は、これらの情報に基づいて、使用者aがゲームに参加する資格があるか否かを判定(認証)し、使用者aがゲームに参加する資格があると判定された場合、ステップ1103でゲーム機Aに接続要求受付を送信する。ゲーム機Aは、ステップS1002で接続要求受付を受信し、ステップS1003でゲーム機Aにおいてゲームが開始される。
【0335】
一方ゲーム機Bとサーバ881の間においても同様の手順で情報の送受信が行われ(ステップS1201(ステップS1001に対応),S1104(ステップS1101に対応),S1105(ステップS1102に対応),S1106(ステップS1103に対応),S1202(ステップS1003に対応))、ステップS1203で、ゲーム機Bにおいてもゲームが開始される。
【0336】
ステップS1004で、ゲーム機Aから、サーバ881にゲーム機Bへの接続要求が送信されると、ステップS1107でサーバ881は、ゲーム機Bへの接続要求を受信する。そして、サーバ881は、ステップS1109でゲーム機Aに接続要求受付を送信し、これがステップS1005でゲーム機Aに受信される。サーバ881は、ステップS1108でゲーム機Bの呼び出しを行い、これがステップS1204でゲーム機Bに受信される。サーバ881は、ステップS1205でゲーム機Bから送信された応答を、S1110で受信し、ステップS2111でゲーム機AとBの接続を開始する。サーバ881は、ステップS1112でゲーム機Aに接続確認を送信し、これは、ステップS1006でゲーム機Aに受信される。
【0337】
そして、ゲーム機Aからサーバ881を介して、ゲーム機Bに音声情報が送信され、ゲーム機Bからサーバ881を介して、ゲーム機Aに音声情報が送信される(ステップS1007,S1113,S1114,S1206,S1207,S1115,S1116,S1008)。
【0338】
次にゲーム機Aは、ステップS1009で、加速度情報と握り圧情報の送受信の初期設定を行い、ステップS1010で、サーバ881に加速度・握り圧情報送受信要求を送信する。これは、ステップS1117でサーバ881に受信される。サーバ881は、ステップS1118で、ゲーム機Bに加速度・握り圧情報送受信要求を送信する。このとき、実施の形態1の場合と同様に、ゲーム機Aから図11に示される送信設定情報と受信設定情報が送信される。
【0339】
ステップS1208で、サーバ881から加速度・握り圧情報送受信要求を受信したゲーム機Bは、ステップS1209で加速度情報と握り圧情報の送受信設定の変更を行い、ステップS1210でサーバ881に応答を送信する。ステップS1120でゲーム機Bからの応答を受信すると、サーバ881は、ステップS1121でゲーム機AとBの加速度・握り圧情報送受信を開始する。サーバ881は、ステップS1122でゲーム機Aに接続確認を送信し、これが、ステップS1012でゲーム機Aに受信される。これにより、ゲーム機Aにおいて、ゲーム機Bから使用者bに関する加速度情報と握り圧情報が送信されてくることが認識され、ゲーム機Bにおいて、ゲーム機Aから使用者aに関する加速度情報と握り圧情報が送信されてくることが認識される。
【0340】
そして、サーバ881を介して、ゲーム機Aからゲーム機Bに、加速度・握り圧情報が送信され(ステップS1013,S1123,S1124,S1211)、ゲーム機Bにおいて、ステップS1112で、特徴情報蓄積処理が行われる。同様に、サーバ881を介して、ゲーム機Bからゲーム機Aに、加速度・握り圧情報が送信され(ステップS1213,S1125,S1126,S1014)、ゲーム機Aにおいて、ステップS1015で、特徴情報蓄積処理が行われる。なお、特徴情報蓄積処理については、図97を参照して後述する。
【0341】
ステップS1016で、ゲーム機Aからサーバ881へゲーム機Bへの接続終了要求が送信されると、ステップS1127でサーバ881によりこれが受信され、さらに、ステップS1128でサーバ881からゲーム機Bにこれが送信される。ステップS1214で接続終了要求を受信したゲーム機Bは、ステップS1215でそれに応答し、ステップS1130で、サーバ881に受信される。この結果、通信は終了する。同様に、ステップS1129でサーバ881から接続終了要求受付が送信され、これがゲーム機AにおいてステップS1109で受信される。
【0342】
このようにして、サーバ881を介して、ゲーム機Aとゲーム機Bの間で通信が行われ、加速度情報と握り圧情報が蓄積される。加速度情報と握り圧情報が充分に蓄積された後、ゲーム機Aとゲーム機Bにおいて、図114を参照して後述する感情情報特定処理が行われる。この場合、図96に示されるように情報の送受信が行われる。
【0343】
すなわち、図96のゲーム機Aにおける、ステップS1301乃至S1317の処理は、図95のゲーム機Aにおける、ステップS1001乃至1017の処理と基本的に同様の処理であるが、ステップS1315において、ゲーム機Bから送信される加速度情報と握り圧情報に基づいて、感情情報特定処理が行われる。また、図96のゲーム機Bにおける、ステップS1501乃至S1515の処理は、図95のゲーム機Bにおける、ステップS1201乃至1215の処理と基本的に同様の処理であるが、ステップS1512において、ゲーム機Aから送信される加速度情報と握り圧情報に基づいて、感情情報特定処理が行われる。
【0344】
図96のサーバ881における、ステップS1401乃至S1430の処理は、図95のサーバ881における、ステップS1101乃至1130の処理と同様の処理なのでその説明は省略する。
【0345】
次に図97を参照して、ゲーム機Aおよびゲーム機Bにおける特徴情報蓄積処理(図95のステップS1015,S1212における処理)について説明する。ゲーム機Aは、ゲーム機Aに付属するコントローラ941から出力される使用者aに関する加速度情報と握り圧情報に基づいて、特徴情報蓄積処理を行うこともできるし、ゲーム機Bから送信される使用者bに関する加速度情報、握り圧情報に基づいて、特徴情報蓄積処理を行うことも可能である。
【0346】
最初にゲーム機Aが使用者aに関する加速度情報と握り圧情報に基づいて、特情報蓄積処理を行う場合について説明する。ゲーム機Aのシステム制御部897は、ステップS1621において、ゲーム機Aの使用者aを特定する情報(例えば、氏名、ニックネームなど)PIDを取得し、ステップS1622において、システム制御部897は、情報弁別部911に、使用者aの音声情報の入力があったか否かを判定させ、入力されたと判定されるまで待機する。
【0347】
ステップS1622において、音声情報の入力があったと判定された場合、ステップS1623に進み、システム制御部897は、特徴抽出部912に、使用者aに関する加速度情報と握り圧情報のサンプリング処理を開始させる。そして、ステップS1624に進み、システム制御部897は、意味抽出部913に入力された音声情報の音声認識を行わせる。
【0348】
ステップS1625において、システム制御部897は、認識された音声の中に感情、状態およびその強度を表す語句があるか否かを判定し、感情、状態およびその強度を表す語句がないと判定された場合、ステップS1622に戻り、それ以降の処理を繰り返し実行する。実施の形態1で上述したように、感情と状態を表す語句は、図23に示されるようなものであり、強度を示す語句は図24に示されるようなものである。
【0349】
ステップS1625において、感情、状態およびその強度を示す語句があると判定された場合、システム制御部897は、ステップS1626において、認識された語句の主語は使用者か否か、すなわち、認識された語句が、使用者aの感情、状態およびその強度を表す語句であるか否かを判定し、主語は使用者ではないと判定された場合、ステップS1622に戻り、それ以降の処理を繰り返し実行する。
【0350】
ステップS1626において、主語は使用者であると判定された場合、システム制御部897は、ステップS1627において、使用者aの音声が1フレーズ分入力されたか否かを判定し、1フレーズ分入力されたと判定されるまで待機する。ステップS1627において、1フレーズ分入力されたと判定された場合、システム制御部897は、ステップS1628に進み、特徴抽出部912に、加速度情報と握り圧情報のサンプリング処理を終了させる。
【0351】
そして、ステップS1629に進み、システム制御部897は、意味抽出部913に、感情情報Eを抽出させる。
【0352】
例えば、使用者aが「びっくりした」と発話した場合、「びっくり」という語句に対応する感情、状態は驚きであり、その他特に形容詞(例えば、「とても」、「少し」など)がないことからその強度は中であると認識され、感情情報Eとして、「中の驚き」が抽出される。
【0353】
ステップS1630において、システム制御部897は、特徴抽出部912に、使用者aに関する加速度情報と握り圧情報に基づいて、特徴ベクトルVcの生成処理を実行させ、ステップS1631に進み、情報PIDと感情情報Eに対応する加速度情報と握り圧情報を蓄積部895から読み出す。この場合、使用者aの中の驚きに対応する加速度情報と握り圧情報の特徴ベクトルが読み出される。
【0354】
そして、ステップS1632に進み、システム制御部897は、学習部894に、読み出された特徴ベクトルに新たに生成された特徴ベクトルVcを加えて、ベクトルの分布fvc、分布の中心ベクトルVμ、標準偏差ベクトルVσを再計算させ、ステップS1633において、再計算した結果を蓄積部895に記憶する。
【0355】
このようにして、加速度情報と握り圧情報から使用者aの中の驚きに対応する特徴ベクトルが生成され、ベクトルの分布、分布の中心ベクトル、および標準偏差ベクトルが再計算され、蓄積される。
【0356】
次に図99を参照して、加速度情報と握り圧情報の特徴ベクトルVcの生成処理の詳細について説明する。この処理は、特徴抽出部912で行われる。ステップS1651において、特徴抽出部912は、図100と図101を参照して後述する加速度情報の特徴量算出処理を行う。これにより、特徴ベクトルVcを構成する成分のうち、第1番目乃至第12番目の成分(Acc+(1),Acc+(2),Acc+(3),Tac+(1),Tac+(2),Tac+(3),Acc−(1),Acc−(2),Acc−(3),Tac−(1),Tac−(2),Tac−(3))が算出される。ステップS1652において、特徴抽出部912は、図104と図105を参照して後述する握り圧情報の特徴量算出処理を行う。これにより、特徴ベクトルVcを構成する成分のうち、第13番目乃至第20番目の成分(Igr_R(1),Igr_R(2),Tgr_R(1),Tgr_R(2), Igr_L(1),Igr_L(2),Tgr_L(1),Tgr_L(2))が算出される。
【0357】
そして、ステップS1653において、特徴抽出部912は、特徴ベクトルVc(Acc+(1),Acc+(2),Acc+(3),Tac+(1),Tac+(2),Tac+(3),Acc−(1),Acc−(2),Acc−(3),Tac−(1),Tac−(2),Tac−(3), Igr_R(1),Igr_R(2),Tgr_R(1),Tgr_R(2), Igr_L(1),Igr_L(2),Tgr_L(1),Tgr_L(2))を生成する。
【0358】
このようにして、加速度情報と握り圧情報から、使用者aの中の驚きに対応する特徴ベクトルVcが生成される。
【0359】
次に、図100と図101を参照して、図99のステップS851の加速度情報の特徴量算出処理について説明する。ステップS1671において、特徴抽出部912は、サンプリングされた加速度情報を読み込み、その後、実施の形態1の場合と同様に、ステップS1672において、図16の極性判定処理を行い、ステップS1673に進み、図17のTV出力処理を行い、ステップS1674において、図18のVmin,Vmax判定処理を行う。
【0360】
図102は、コントローラ941の3軸加速度センサ961により、出力される加速度情報の波形の例を示す図である。3軸加速度センサ961は、上述したようにX軸方向の加速度、Y軸方向の加速度、およびZ軸方向の加速度を検知する。図102に示される加速度情報は、縦軸にX軸方向、Y軸方向、およびZ軸方向の加速度の和が示され、横軸に時間が示されている。この波形をサンプリングし、ステップS1672の極性判定処理、ステップS1674のTV出力処理を行うと、Tv+、Tv0、Tv−、Tv0、Tv+...のような出力が得られる。
【0361】
ここで、時間Tv+は、コントローラに対して、正方向の加速度が生じている時間を示すものであり、時間Tv−は、コントローラに対して、負方向の加速度が生じている時間を示すものであり、時間Tv0は、コントローラに対する加速度がほぼゼロとなる時間を示すものである。
【0362】
さらに、ステップS1674のVmin,Vmax判定処理が行われると、時間Tv+に対応する出力値Vmaxと時間Tv−に対応する出力値Vminが得られる。この結果、図103に示されるような波形の情報が得られる。
【0363】
図101のステップS1675において、特徴抽出部912は、時間の早い順にソートされている出力値Vmax(P)を、値の大きい順にソートして、出力値Vmax(1)、Vmax(2)、Vmax(3)を抽出し、ステップS1676において、出力値Vmax(1)、Vmax(2)、Vmax(3)に対応する時間Tv+(1)、Tv+(2)、Tv+(3)を抽出する。
【0364】
すなわち、図103に示される正方向の出力値をもつ3つの矩形波の中で出力値の最も大きいもの(図中、左側から3番目の矩形波)が選択され、その出力値がVmax(1)とされ、その時間がTv+(1)とされる。同様に、2番目に出力値の大きい矩形波の出力値がVmax(2)、その時間がTv+(2)とされ、3番目に出力値の大きい矩形波の出力値がVmax(3)、その時間がTv+(3)とされる。図103においては、正方向の出力値をもつ矩形波が3つある場合を例として説明したが、正方向の出力値をもつ矩形波が2つしかない場合は、Vmax(3)とTv+(3)の値は0とされる。
【0365】
図101に戻って、ステップS1677において、特徴抽出部912は、特徴ベクトルVcを構成する第1番目乃至第6番目の成分Acc+(1),Acc+(2),Acc+(3),Tac+(1),Tac+(2),Tac+(3)にそれぞれ、Vmax(1)、Vmax(2)、Vmax(3)、Tv+(1)、Tv+(2)、Tv+(3)の値をセットする。
【0366】
ステップS1678において、特徴抽出部912は、時間の早い順にソートされている出力値Vmin(P)を、値の小さい順にソートして、出力値Vmin(1)、Vmin(2)、Vmin(3)を抽出し、ステップS1679において、出力値Vmin(1)、Vmin(2)、Vmin(3)に対応する時間Tv−(1)、Tv−(2)、Tv−(3)を抽出する。
【0367】
すなわち、図103に示される負方向の出力値をもつ3つの矩形波の中で出力値の最も小さいもの(図中、左側の矩形波)が選択され、その出力値がVmin(1)とされ、その時間がTv−(1)とされる。同様に、2番目に出力値の小さい矩形波の出力値がVmin(2)、その時間がTv−(2)とされ、3番目に出力値の小さい矩形波の出力値がVmin(3)、その時間がTv−(3)とされる。図103においては、負方向の出力値をもつ矩形波が3つある場合を例として説明したが、負方向の出力値をもつ矩形波が2つしかない場合は、Vmin(3)とTv−(3)の値は0とされる。
【0368】
図101に戻って、ステップS1680において、特徴抽出部912は、特徴ベクトルVcを構成する第7番目乃至第12番目の成分Acc−(1),Acc−(2),Acc−(3),Tac−(1),Tac−(2),Tac−(3)にそれぞれ、Vmin(1)、Vmin(2)、Vmin(3)、Tv−(1)、Tv−(2)、Tv−(3)の値をセットする。
【0369】
このようにして、加速度情報の特徴量が算出される。
【0370】
次に図104と図105を参照して、図99のステップS1652の握り圧情報の特徴量算出処理について説明する。握り圧情報は、コントローラ941の右側の握り圧センサ963Rと左側の握り圧センサ963Lにより出力される。握り圧情報の特徴量算出処理は、握り圧センサ963Rにより出力された握り圧情報と、握り圧センサ963Lにより出力された握り圧情報のそれぞれに対して行われる。
【0371】
ステップS1701において、特徴抽出部912は、サンプリングされた握り圧情報を読み込み、その後、実施の形態1の場合と同様に、ステップS1702において、図16の極性判定処理を行い、ステップS1703に進み、図17のTV出力処理を行い、ステップS1704において、図18のVmin,Vmax判定処理を行う。図106は、握り圧センサ963Rにより出力された握り圧情報の波形を示す図であり、図107は、握り圧センサ963Lにより出力された握り圧情報の波形を示す図である。図106および図107は、それぞれ縦軸に握り圧の出力値が示され、横軸に時間が示されている。
【0372】
この波形をサンプリングし、ステップS1702の極性判定処理、ステップS1703のTV出力処理を行うと、Tv+、Tv0、Tv+、Tv0...のような出力を得る。
【0373】
ここで、時間Tv+は、使用者aがコントローラを所定の強度以上の強度で握っている時間を示すものであり、時間Tv0は、使用者aがコントローラを所定の強度未満の強度で握っている時間を示すものである。
【0374】
さらに、ステップS1704のVmin,Vmax判定処理が行われると、時間Tv+に対応する出力値Vmaxと時間Tv−に対応する出力値Vminが得られる。この結果、図106に示される握り圧情報から図108に示されるような波形の情報が得られ、図107に示される握り圧情報から図109に示されるような波形の情報が得られる。
【0375】
図105のステップS1705において、特徴抽出部912は、右側の握り圧センサ963Rの出力について、時間の早い順にソートされているVmax(P)を、値の大きい順にソートして、Vmax(1)、Vmax(2)を抽出し、ステップS1706において、Vmax(1)、Vmax(2)に対応するTv+(1)、Tv+(2)を抽出する。
【0376】
すなわち、図108に示される正方向の出力値をもつ2つの矩形波の中で出力値の最も大きいもの(図中、左の矩形波)が選択され、その出力値がVmax(1)とされ、その時間がTv+(1)とされる。同様に、2番目に出力値の大きい矩形波の出力値がVmax(2)、その時間がTv+(2)とされる。図103においては、矩形波が2つある場合を例として説明したが、矩形波が1つしかない場合は、Vmax(2)とTv+(2)の値は0とされる。
【0377】
図105に戻って、ステップS1707において、特徴抽出部912は、特徴ベクトルVcを構成する第13番目乃至第16番目の成分Igr_R(1),Igr_R(2),Tgr_R(1),Tgr_R(2)にそれぞれ、Vmax(1)、Vmax(2)、Tv+(1)、Tv+(2)の値をセットする。
【0378】
ステップS1708において、特徴抽出部912は、右側の握り圧センサ963Rの出力について、時間の早い順にソートされているVmax(P)を、値の大きい順にソートして、Vmax(1)、Vmax(2)を抽出し、ステップS1709において、Vmax(1)、Vmax(2)に対応するTv+(1)、Tv+(2)を抽出する。
【0379】
そして、ステップS1710において、特徴抽出部912は、特徴ベクトルVcを構成する第17番目乃至第20番目の成分Igr_L(1),Igr_L(2),Tgr_L(1),Tgr_L(2)にそれぞれ、Vmax(1)、Vmax(2)、Tv+(1)、Tv+(2)の値をセットする。
【0380】
このようにして、握り圧情報の特徴量が算出される。
【0381】
ここまで、ゲーム機Aが、使用者aに関する加速度情報と握り圧情報に基づいて、特徴情報蓄積処理を行う場合について説明したが、ゲーム機Aは、ゲーム機Bから送信される使用者bに関する加速度情報と握り圧情報に基づいて、特徴情報蓄積処理を行うこともできる。この場合、使用者bに関する加速度情報と握り圧情報について、ゲーム機Bの特徴抽出部912においてサンプリング処理が行われ、サンプリングされた値に、出力制御部914と情報送信部921において、所定のヘッダが付加され、ゲーム機Aに送信される。一方で使用者bが発した音声は、ゲーム機Aに送信され、ゲーム機Aの意味抽出部913において、使用者bの音声情報から感情情報の抽出が行われる。
【0382】
そして、ゲーム機Aは、ゲーム機Bから送信されてきた、使用者bに関する加速度情報と握り圧情報にもとづいて、図97と図98を参照して上述した特徴情報蓄積処理を行う。例えば、使用者bが、「これは焦る」と発話した場合、ゲーム機Aにおいて、特徴情報蓄積処理が行われ、図97のステップS1629で感情情報として、「中の不安定」が抽出される。一方ゲーム機Bでは、使用者bが「これは焦る」と発話したとき、図110に示される波形の信号がゲーム機Bのコントローラ941の3軸加速度センサ961により検出され、図111に示される波形の信号がゲーム機Bのコントローラ941の握り圧センサ963Rにより検出され、図112に示される波形の信号がゲーム機Bのコントローラ941の握り圧センサ963Lにより検出される。
【0383】
図110乃至図112に示される波形の信号は、ゲーム機Bの特徴抽出部912により、それぞれ期間Tclkの間隔でサンプリングされる。そして、加速度情報として、図110の信号がサンプリングされた値Vs1,Vs2,Vs3,・・・Vsnが、使用者bの加速度情報であること示すヘッダが付加されて、ゲーム機Aに送信される。同様に握り圧情報として、図111の信号がサンプリングされた値VsR1,VsR2,VsR3,・・・VsRnが、使用者bの右の握り圧情報であること示すヘッダが付加されて、ゲーム機A送信され、図112の信号がサンプリングされた値VsL1,VsL2,VsL3,・・・VsLnが、使用者bの左の握り圧情報であること示すヘッダが付加されて、ゲーム機Aに送信される。ゲーム機Aは、ゲーム機Bから送信された加速度情報と握り圧情報にもとづいて、図98のステップS1630の特徴ベクトルVcの生成処理において、使用者Bの中の不安定に対応する特徴ベクトルを生成し、蓄積する。
【0384】
同様にゲーム機Bは、使用者bの加速度情報と握り圧情報から特徴ベクトルを生成し、蓄積すると同時に、ゲーム機Aから送信される使用者aの加速度情報と握り圧情報から特徴ベクトルを生成し、蓄積する。その結果、ゲーム機Aとゲーム機Bの蓄積部895には、図113に示されるように、加速度情報と握り圧情報に関する学習結果981がそれぞれ、使用者aの情報991と使用者bの情報992に分けて蓄積される。
【0385】
上述した特徴情報蓄積処理を繰り返し行い、加速度情報と握り圧情報が充分蓄積された後は、加速度情報と握り圧情報をもとに、使用者の感情、状態、およびその強度を特定することができる。
【0386】
次に図114を参照して、ゲーム機Bによる使用者aの感情状態特定処理について説明する。ステップS1731において、ゲーム機Bのシステム制御部897は、通信相手であるゲーム機Aの使用者aを特定する情報PIDを取得する。ステップS1732において、ゲーム機Bのシステム制御部897は、情報弁別部911に、使用者aに関する加速度情報または握り圧情報の少なくとも一方の出力値が閾値を超えたか否かを判定させ、閾値を超えたと判定されるまで待機する。閾値は、プログラムなどにより予め設定しておいてもよいし、使用者がその都度設定するようにしてもよい。
【0387】
ステップS1732において、加速度情報または握り圧情報の少なくとも一方の出力値が閾値を超えたと判定された場合、ステップS1733に進み、システム制御部897は、特徴抽出部912の図示せぬ記憶部に、使用者aに関する加速度情報と握り圧情報の出力値を記憶させる。そして、ステップS1734に進み、システム制御部897は、情報弁別部911に使用者aに関する加速度情報または握り圧情報の出力値が所定の時間(例えば、10秒)以上閾値以下になったか否かを判定させ、所定の時間以上閾値以下になっていないと判定された場合、ステップS1733に戻る。
【0388】
ステップS934において、使用者aに関する加速度情報または握り圧情報の出力値が所定の時間以上閾値以下になったと判定された場合、ステップS1735に進み、システム制御部897は、特徴抽出部912に図115を参照して後述する特徴ベクトルVcag生成処理を実行させる。これにより、使用者aに関する加速度情報と握り圧情報に基づいて、特徴ベクトルVcagが生成される。ステップS1736において、システム制御部897は、学習部894に、図120を参照して後述するVcagの感情情報特定処理を実行させる。これにより、特徴ベクトルVcagに対応する感情情報が特定される。ステップS1737において、システム制御部897は、学習部894に、図122を参照して後述する特定結果出力再計算処理を実行させる。
【0389】
次に図115を参照して、Vcag生成処理について説明する。この処理はゲーム機Bの特徴抽出部912において実行される。ステップS1751において、特徴抽出部912は、加速度情報の特徴量算出処理(図100と図101に示した処理と同様の処理なので、その説明は省略する)を行い、ステップS1752において、特徴抽出部912は、握り圧情報算出処理(図104と図105に示した処理と同様の処理なので、その説明は省略する)を実行する。そして、ステップS1753に進み、特徴抽出部912は、特徴ベクトルVcag(Acc+(1),Acc+(2),Acc+(3),Tac+(1),Tac+(2),Tac+(3),Acc−(1),Acc−(2),Acc−(3),Tac−(1),Tac−(2),Tac−(3), Igr_R(1),Igr_R(2),Tgr_R(1),Tgr_R(2), Igr_L(1),Igr_L(2),Tgr_L(1),Tgr_L(2))を生成する。
【0390】
このようにして、使用者aに関する加速度情報と握り圧情報から特徴ベクトルVcagが生成される。
【0391】
次に図116を参照して、Vcagの感情情報特定処理について説明する。この処理は、ゲーム機Bの学習部894において実行される。
【0392】
ステップS1831において、学習部894は、蓄積部895に蓄積されている使用者aに関する加速度情報と握り圧情報の特徴ベクトルの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσを読み出す。
【0393】
上述したように感情情報は36通りあり、fvc,Vμ,Vσも感情情報に対応してそれぞれ36通り存在する。
【0394】
ステップS1832において、学習部894は、変数Qに1をセットする。ここで変数Qは、1から36までの整数とされ、36種類の感情情報に対応する。ステップS1833において、学習部894は、ベクトルVμ(Q)とステップS1735(図114)で生成した特徴ベクトルVcagの内積値を算出し、内積値に対応させてVμ(Q)を記憶する。そして、ステップS1834に進み、学習部894は、Qの値を1だけインクリメントし、ステップS1835において、全ての感情情報について計算したか否か、すなわち、36種類の中心ベクトルVμについて、内積値を計算したか否かを判定し、全ての感情情報について計算していないと判定された場合、ステップS1833に戻り、以降の処理を繰り返し実行する。
【0395】
全ての感情情報に対応する36種類の中心ベクトルVμについて内積値の計算が終わると、学習部894の中にある図示せぬ記憶部には、実施の形態1の場合と同様に感情情報、内積値、中心ベクトルVμの種類、内積値の大きさの順序が含まれたデータが記憶されている。ステップS1836において、学習部894は、内積値の大きい順にデータをソートする。このとき、内積値の大きさの順番が変数Rで表され、変数Rの値は1から36までの整数となる。
【0396】
ステップS1837において、学習部894は、変数Rに1をセットし、S1838において、全ての感情情報に関してデータが読み出されたか否かを判定し、全ての感情情報に関してデータが読み出されていないと判定された場合、ステップS1839に進み、ステップS1836の処理によりソートされたデータを順番に読み出す。例えば、ステップS1833で36種類の感情情報に対応する中心ベクトルと特徴ベクトルVcagの内積値が算出され、それらの中心ベクトルの中で、特徴ベクトルVcagとの内積値が最も大きくなる中心ベクトルが、使用者aの感情情報「活性・強」に対応する特徴ベクトルの中心ベクトルVμ30であった場合、Rの値が1のとき中心ベクトルVμ30と、使用者aの感情情報「活性・強」に対応する特徴ベクトルの標準偏差ベクトルVσ30が読み出される。
【0397】
ステップS1840において、変数mに1をセットし、ステップS1841に進み、Vμ(R)m−Vσ(R)m≦Vcagm≦Vμ(R)m+Vσ(R)mの条件を満たしているか否かを判定する。ここで、Vμ(R)mは、ベクトルVμ(R)のm番目の成分を表し、Vσ(R)m,Vcagmもそれぞれ同様にベクトルVσ,Vcagのm番目の成分を表す。加速度情報と握り圧情報の特徴ベクトルは上述したようにAcc+(1),Acc+(2),Acc+(3),Tac+(1),Tac+(2),Tac+(3),Acc−(1),Acc−(2),Acc−(3),Tac−(1),Tac−(2),Tac−(3),Igr_R(1),Igr_R(2),Tgr_R(1),Tgr_R(2),Igr_L(1),Igr_L(2),Tgr_L(1),Tgr_L(2)の20個の成分により構成されている。mの値が1のとき、Vμ(R),Vσ(R),Vcagの各ベクトルの成分Acc+(1)が抽出され、処理が行われる。
【0398】
ステップS1841において、Vμ(R)m−Vσ(R)m≦Vcagm≦Vμ(R)m+Vσ(R)mの条件を満たしていないと判定された場合、学習部894は、ステップS1846に進み、Rの値を1だけインクリメントして、ステップS1838に戻り、以降の処理を繰り返し実行する。ステップS1841において、Vμ(R)m−Vσ(R)m≦Vchm≦Vμ(R)m+Vσ(R)mの条件を満たしていると判定された場合、学習部894は、ステップS1842に進み、mの値を1だけインクリメントして、ステップS1843に進み、mの値が21と等しいか否か、すなわち、Vμ(R),Vσ(R),Vcagの各ベクトルを構成する20個の成分について、すべてチェックしたか否か判定し、mの値が21と等しくないと判定された場合、ステップS1841に戻り、それ以降の処理を繰り返し実行する。
【0399】
ステップS1843において、mの値が21と等しいと判定された場合、すなわち、Vμ(R),Vσ(R),Vcagの各ベクトルを構成する20個の成分について、全て、Vμ(R)m−Vσ(R)m≦Vcagm≦Vμ(R)m+Vσ(R)mの条件を満たしていると判定された場合、学習部894は、ステップS1844に進み、VcagはRに対応する感情情報Eに属しているものと特定する。例えば、Rが1の場合、ベクトルVμ30およびVσ30を構成する20個の成分について、すべてVμ30m−Vσ30m≦Vcagm≦Vμ30m+Vσ30mの条件を満たしているとき、特徴ベクトルVcagは、感情情報「活性・強」に属しているものと特定される。
【0400】
ステップS1838において、全ての感情情報に関してデータを読み出したと判定された場合、学習部894は、ステップS1845に進み、特徴ベクトルVcagに対応する感情情報を特定不能として処理を終了する。すなわち、36種類の感情情報に対応する36個の中心ベクトルVμ(R)と36個の標準偏差ベクトルVσ(R)のそれぞれについて、Vμ(R)m−Vσ(R)m≦Vcagm≦Vμ(R)m+Vσ(R)mの条件を満たしているか否かがチェックされ、その結果、Vμ(R),Vσ(R),Vcagの各ベクトルを構成する20個の成分について、全て、Vμ(R)m−Vσ(R)m≦Vcagm≦Vμ(R)m+Vσ(R)mの条件を満たしていると判定されたものがなかった場合、特徴ベクトルVcagに対応する感情情報は、特定不能と判定される。
【0401】
図117は、使用者aの各感情情報に対応する振動情報の特徴量ベクトルを示した図である。この図は、Acc+(1)軸,Acc+(2)軸,Acc+(3)軸,Tac+(1)軸,Tac+(2)軸,Tac+(3)軸,Acc−(1)軸,Acc−(2)軸,Acc−(3)軸,Tac−(1)軸,Tac−(2)軸,Tac−(3)軸, Igr_R(1)軸,Igr_R(2)軸,Tgr_R(1)軸,Tgr_R(2)軸,Igr_L(1)軸,Igr_L(2)軸,Tgr_L(1)軸,およびTgr_L(2)軸からなる20次元空間として示されている。この空間には、使用者aの感情情報「悲しみ・弱」に対応する特徴ベクトル郡V9の分布とその中心ベクトルVμ9、使用者aの感情情報「嫌悪・弱」に対応する特徴ベクトル郡V15の分布とその中心ベクトルVμ15、使用者aの感情情報「興味・中」に対応する特徴ベクトル郡V17の分布とその中心ベクトルVμ17などが存在する。
【0402】
各感情情報に対応する中心ベクトルのうち、図114のステップS1735において生成された特徴ベクトルVcagは、感情情報「活性・強」に対応する特徴ベクトル群V30の分布の中心ベクトルVμ30と近接しており、上述したVcagの感情情報特定処理の結果、「活性・強」を示す特徴ベクトルであると特定される。
【0403】
このようにして、特徴ベクトルVcagから、使用者aの感情、状態、およびその強度が特定される。
【0404】
次に図118を参照して、特定結果出力再計算処理について説明する。この処理は、ゲーム機Bの学習部894において実行される。ステップS1861において、学習部894は、特定結果を出力制御部914に出力し、ステップS1862において使用者aの感情情報Eに対応する加速度情報と握り圧情報の特徴ベクトルの分布fvc、分布の中心ベクトルVμ、分布の標準偏差ベクトルVσを再計算し、蓄積する。すなわち、図114のステップS1735において生成された特徴ベクトルVcagは、蓄積部895に蓄積されている使用者aの強い活性を示す加速度情報と握り圧情報の特徴ベクトル郡に加えられ、あらたに、fvc、Vμ、およびVσが計算され、蓄積部895に蓄積される。
【0405】
このようにして、加速度情報と握り圧情報から使用者の感情、状態、およびその強度が特定される。また、感情、状態、およびその強度が特定された特徴ベクトルの情報が、あらたに蓄積される。
【0406】
ここまで、ゲーム機Bが、ゲーム機Aから送信された使用者aに関する加速度情報と握り圧情報から特徴量ベクトルVcagを生成し、感情情報を特定する処理について説明したが、同様にゲーム機Bは、使用者bに関する加速度情報と握り圧情報から特徴ベクトルを生成し、感情情報を特定することもできる。
【0407】
また、ゲーム機Aも同様にして、使用者aと使用者bの感情情報を特定することができる。
【0408】
次に、図119と図120を参照して、情報出力処理について説明する。ステップS1881において、システム制御部897は、出力情報が選択されたか否かを判定し、選択されたと判定されるまで待機する。出力情報の選択は、例えば、ゲーム機に接続されたテレビまたはディスプレイ上に表示されたメニューを使用者が選択することによって行われる。使用者が選択できるメニューは、「特定結果」、「特徴量に基づく情報」、「波形情報」、および「蓄積情報」の4種類がある。
【0409】
ステップS1881において、出力情報が選択されたと判定された場合、システム制御部897は、ステップS1882に進み、特定結果が選択されたか否かを判定し、特定結果が選択された判定された場合、ステップS1883において、特定結果に対応する2ビットの選択情報00を出力制御部914に送信する。
【0410】
ステップS1884において、出力制御部914は、感情情報の特定結果に応じてキャラクタの表示を制御する。ゲーム機に接続されたテレビまたはディスプレイ上には、使用者が選択したキャラクタが表示されており、出力制御部914は、特定された感情情報にもとづいて、キャラクタの表情や動作を制御する。例えば、感情情報として「活性・強」が特定された場合、キャラクタの表情を元気にあふれた表情とし、また、キャラクタの手足を上下に動かし、元気な様子を表現する。
【0411】
ステップS1882において、特定結果が選択されていないと判定された場合、システム制御部897は、ステップS1885に進み、特徴量に基づく情報が選択されたか否かを判定し、特徴量に基づく情報が選択されたと判定された場合、ステップS1886に進み、特徴量に基づく情報に対応する2ビットの選択情報01を出力制御部914に送信する。
【0412】
ステップS1887において、出力制御部914は、特徴量(Acc+(1),Acc+(2),Acc+(3),Tac+(1),Tac+(2),Tac+(3),Acc−(1),Acc−(2),Acc−(3),Tac−(1),Tac−(2),Tac−(3))を特徴抽出部912から取得し、ステップS1888に進み、振動呈示部駆動信号を生成する。すなわち、図122に示されるように、出力のレベルをAcc+(1),Acc+(2),Acc+(3)とし、出力ON時間をTac+(1),Tac+(2),Tac+(3)とした矩形波と、出力のレベルをAcc−(1),Acc−(2),Acc−(3)とし、出力ON時間をTac−(1),Tac−(2),Tac−(3)とした矩形波からなる駆動信号が生成される。そして、ステップS1889に進み、出力制御部914は、生成された駆動信号にもとづいて、振動提示部965Lと965Rを同時に駆動させる。
【0413】
そして、ステップS1890において、出力制御部914は、特徴量(Igr_R(1),Igr_R(2),Tgr_R(1),Tgr_R(2),Igr_L(1),Igr_L(2),Tgr_L(1),Tgr_L(2))を特徴抽出部912から取得し、ステップS1891に進み、光呈示部駆動信号を生成する。すなわち、図123に示されるように、出力の振幅をIgr_R(1)とし、出力ON時間をTgr_R(1)とした正弦波と、出力の振幅をIgr_R(2)とし、出力ON時間をTgr_R(2)とした正弦波からなる駆動信号が生成される。また、図124に示されるように、出力の振幅をIgr_L(1)とし、出力ON時間をTgr_L(1)とした正弦波と、出力の振幅をIgr_L(2)とし、出力ON時間をTgr_L(2)とした正弦波からなる駆動信号が生成される。
【0414】
ステップS1892において、出力制御部914は、図123に示される駆動信号に基づいて、光呈示部964Rを駆動し、図124に示される駆動信号に基づいて、光呈示部964Lを駆動する。
【0415】
ステップS1885において、特徴量に基づく情報が選択されていないと判定された場合、システム制御部897は、ステップS1893において、波形情報が選択されたか否かを判定し、波形情報が選択されたと判定された場合、ステップS1894において、波形情報に対応する2ビットの選択情報10を出力制御部914に出力する。
【0416】
ステップS1895において、出力制御部914は、特徴抽出部912からサンプリングされた加速度情報を取得し、取得された加速度情報に基づいて、振動呈示部965Lと965Rを駆動する駆動信号を生成し、ステップS1896において、振動呈示部965Lと965Rを駆動信号に基づいて、同時に駆動する。ステップS1897において、出力制御部914は、特徴抽出部912からサンプリングされた握り圧情報を取得し、取得された右側の握り圧情報(握り圧センサ963Rにより、検出された握り圧情報)に基づいて、光呈示部964Rを駆動する駆動信号を生成し、取得された左側の握り圧情報(握り圧センサ963Lにより、検出された握り圧情報)に基づいて、光呈示部964Lを駆動する駆動信号を生成し、ステップS1898において、光呈示部964Rと964Lをそれぞれの駆動信号に基づいて駆動する。
【0417】
ステップS1893において、波形情報が選択されていないと判定された場合、システム制御部897は、ステップS1899に進み、蓄積情報が選択されたか否かを判定する。蓄積情報が選択されていないと判定された場合、ステップS1904でエラー処理が実行される。ステップS1899で、蓄積情報が選択されたと判定された場合、システム制御部897は、ステップS1900において、蓄積情報に対応する2ビットの選択情報01を出力制御部914に出力する。
【0418】
蓄積情報が選択された場合、ゲーム機に接続されたテレビまたはディスプレイ上に更にサブメニューが表示され、使用者は、どの蓄積情報をどのゲーム機に出力するかを選択することができる。すなわち、加速度情報または握り圧情報を示す情報の種類inf、個人を特定する情報PID、感情情報E、および出力先を示す情報Toが選択される。例えば、infとして加速度情報または握り圧情報、PIDとして使用者a、Eとして強い活性、出力先として使用者bなどが選択される。
【0419】
ステップS1901において、システム制御部897は、情報の種類inf、個人を特定する情報PID、感情情報E、出力先Toが選択されたか否かを判定し、選択されたと判定されるまで待機する。
【0420】
ステップS1902において、システム制御部897は、使用者に選択された情報に基づいて(inf,PID,E,To)の情報を生成し、出力制御部914に送信する。
【0421】
ステップS1903において、出力制御部914は、図121を参照して後述する蓄積情報出力処理を行う。これにより、選択された情報の種類inf、個人を特定する情報PID、感情情報Eに基づく信号が生成され、出力先Toに基づいて、生成された信号が送信される。
【0422】
ここで、図121を参照して、図120のステップS1903の蓄積情報出力処理について説明する。
【0423】
ステップS1921において出力制御部914は、選択された情報(PID,E)に基づいて、蓄積部895から加速度情報と握り圧情報の中心ベクトルを取得する。この例では、蓄積部895に蓄積されている使用者aの「活性・強」に対応する加速度情報と握り圧情報の特徴ベクトルの分布の中心ベクトルVμ30(Acc+30(1),Acc+30(2),Acc+30(3),Tac+30(1),Tac+30(2),Tac+30(3),Acc−30(1),Acc−30(2),Acc−30(3),Tac−30(1),Tac−30(2),Tac−30(3),Igr_R30(1),Igr_R30(2),Tgr_R30(1),Tgr_R30(2),Igr_L30(1),Igr_L30(2),Tgr_L30(1),Tgr_L30(2))が取得される。
【0424】
ステップS1922において、出力制御部914は、情報の種類infとして加速度情報が選択されたか否かを判定し、加速度情報が選択されたと判定された場合、ステップS1923に進み、Vμ30の第1番目乃至第12番目の成分を抽出する。
【0425】
そして、ステップS1924に進み振動呈示部駆動信号を生成する。すなわち、図125に示されるように、出力のレベルをAcc+30(1),Acc+30(2),Acc+30(3)とし、出力ON時間をTac+30(1),Tac+30(2),Tac+30(3)とした矩形波と、出力のレベルをAcc−30(1),Acc−30(2),Acc−30(3)とし、出力ON時間をTac−30(1),Tac−30(2),Tac−30(3)とした矩形波からなる駆動信号が生成される。
【0426】
ステップS1925において、出力制御部914は、出力先Toが自端末(ゲーム機)の使用者か否かを判定し、自端末の使用者ではないと判定された場合、ステップS1927に進み、出力先の端末へ駆動信号を送信する。例えば、出力先Toとして使用者bが選択されている場合、使用者bの端末(ゲーム機B)に駆動信号が送信される。そして、ステップS1928において、ゲーム機Bでは、情報受信部922から駆動信号が受信され、情報弁別部911を介して、出力制御部914に駆動信号が供給される。ゲーム機Bの出力制御部914は、駆動信号に基づいて、ゲーム機Bの振動呈示部965Rと965Lを同時に駆動する。
【0427】
ステップS1925において、出力先Toが自端末(ゲーム機)の使用者であると判定された場合、ステップS1926に進み、出力制御部914は、駆動信号に基づいて、自端末(ゲーム機)の振動呈示部965Rと965Lを同時に駆動する。
【0428】
ステップS1922において、情報の種類infとして加速度情報が選択されていないと判定された場合(握り圧情報が選択された場合)、ステップS1929に進み、出力制御部914は、Vμ30の第13番目乃至第20番目の成分を抽出する。
【0429】
そして、ステップS1930に進み、出力制御部914は、光呈示部駆動信号を生成する。すなわち、図126に示されるように、出力の振幅をIgr_R30(1)とし、出力ON時間をTgr_R30(1)とした正弦波と、出力の振幅をIgr_R30(2)とし、出力ON時間をTgr_R30(2)とした正弦波からなる駆動信号が生成される。また、図127に示されるように、出力の振幅をIgr_L30(1)とし、出力ON時間をTgr_L30(1)とした正弦波と、出力の振幅をIgr_L30(2)とし、出力ON時間をTgr_L30(2)とした正弦波からなる駆動信号が生成される。
【0430】
ステップS1931において、出力制御部914は、出力先Toが自端末(ゲーム機)の使用者か否かを判定し、自端末の使用者ではないと判定された場合、ステップS1933に進み、出力先の端末へ駆動信号を送信する。例えば、出力先Toとして使用者bが選択されている場合、使用者bの端末(ゲーム機B)に駆動信号が送信される。そして、ステップS1934において、ゲーム機Bでは、情報受信部922から駆動信号が受信され、情報弁別部911を介して、出力制御部914に駆動信号が供給される。ゲーム機Bの出力制御部914は、図126に示される駆動信号に基づいて、ゲーム機Bの光呈示部964Rを駆動し、図127に示される駆動信号に基づいて、ゲーム機Bの光呈示部964Lを駆動する。
【0431】
ステップS1931において、出力先Toが自端末(ゲーム機)の使用者であると判定された場合、ステップS1932に進み、出力制御部914は、図126に示される駆動信号に基づいて、自端末(ゲーム機)の光呈示部964Rを駆動し、図127に示される駆動信号に基づいて自端末(ゲーム機)の光呈示部964Lを駆動する。
【0432】
このようにして、使用者は、加速度情報と握り圧情報から特定された感情、状態、およびその強度を表示させ、認識することができる。ゲーム機のコントローラの振動により、加速度情報を体感することができ、ゲーム機のコントローラが発する光により、握り圧情報を体感することができる。また、使用者が所望する特定の個人の特定の感情情報に対応する加速度情報または握り圧情報を指定して、特定の相手に体感させることができる。
【0433】
さらに、オンラインゲームにおいて、通信する相手の感情、状態、およびその強度を体感させることにより、より臨場感のあるゲームを行うことができる。
【0434】
以上では、本発明の実施の形態を、実施の形態1、実施の形態2、実施の形態3、および実施の形態4に分けて説明してきたが、実施の形態1、実施の形態2、実施の形態3、および実施の形態4を組み合わせて1つの端末を構成してもよい。
【0435】
なお、本明細書において上述した一連の処理を実行するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0436】
【発明の効果】
以上の如く、本発明によれば、生体情報、キーボードの振動情報、マウスのクリック情報、握り圧情報、ゲーム機のコントローラの加速度情報および握り圧情報などの情報から、使用者の感情、状態、およびその強度を特定することができる。また、従来のように言語、音声、画像による通信だけでなく、生体情報、キーボードの振動情報、マウスのクリック情報、握り圧情報、ゲーム機のコントローラの加速度情報、握り圧情報などの情報を伝送し、様々な形で出力することができるので、より親密で感情が伝わるコミュニケーションを実現することができる。
【図面の簡単な説明】
【図1】本発明の情報処理装置の接続形態を示す図である。
【図2】本発明の情報処理装置おける入力される情報と蓄積される情報を示す図である。
【図3】感情・状態に対応する特徴量の分布を示す図である。
【図4】感情・状態に対応する特徴量ベクトルの分布を示す図である。
【図5】本発明の第1の情報処理装置の構成例を示すブロック図である。
【図6】図5の入力部の構成例を示す図でブロック図ある
【図7】図5の出力部の構成例を示すブロック図である。
【図8】図5の出力部の構成例を示すブロック図である。
【図9】端末Aと端末Bの間で送受信される情報を示す図である。
【図10】端末Aと端末Bの間で送受信される情報を示す図である。
【図11】送信設定情報と受信設定情報の内容を示す図である。
【図12】生体情報蓄積処理を説明するフローチャートである。
【図13】生体情報蓄積処理を説明するフローチャートである。
【図14】特徴量ベクトルVc1生成処理を説明するフローチャートである。
【図15】特徴量ベクトルVc1生成処理を説明するフローチャートである。
【図16】極性判定処理を説明するフローチャートである。
【図17】Tv出力処理を説明するフローチャートである。
【図18】Vmin,Vmax判定処理を説明するフローチャートである。
【図19】波形情報のサンプリング方法を示す図である。
【図20】Tv出力処理、Vmin,Vmax判定処理の結果得られる情報を示す図である。
【図21】特徴量ベクトルVc2生成処理を説明するフローチャートである。
【図22】特徴量ベクトルVc2生成処理を説明するフローチャートである。
【図23】感情・状態を表す語句を示す図である。
【図24】感情・状態の強度を表す語句を示す図である。
【図25】脈拍情報の波形を示す図である。
【図26】体動情報の波形を示す図である。
【図27】端末Bの蓄積部に蓄積される情報を示す図である。
【図28】感情・状態特定処理を説明するフローチャートである。
【図29】特徴量ベクトルVc1生成処理を説明するフローチャートである。
【図30】特徴量ベクトルVc1生成処理を説明するフローチャートである。
【図31】特徴量ベクトルVc2生成処理を説明するフローチャートである。
【図32】特徴量ベクトルVc2生成処理を説明するフローチャートである。
【図33】Vc1の感情、状態、およびその強度特定処理を説明するフローチャートである。
【図34】Vc1と各ベクトルの内積値の計算結果データを示す図である。
【図35】Vc1と各ベクトルの分布の関係を示す図である。
【図36】Vc2の感情、状態、およびその強度特定処理を説明するフローチャートである。
【図37】Vc2と各ベクトルの内積値の計算結果データを示す図である。
【図38】Vc2と各ベクトルの分布の関係を示す図である。
【図39】特定結果出力、再計算の処理を説明するフローチャートである。
【図40】情報出力処理を説明するフローチャートである。
【図41】情報出力処理を説明するフローチャートである。
【図42】情報出力処理において出力される情報の波形を示す図である。
【図43】情報出力処理において出力される情報の波形を示す図である。
【図44】本発明の第2の情報処理装置の構成例を示すブロック図である。
【図45】図44の入力部の構成例を示す図でブロック図ある
【図46】図44の出力部の構成例を示すブロック図である。
【図47】端末Aと端末Bの間で送受信される情報を示す図である。
【図48】端末Aと端末Bの間で送受信される情報を示す図である。
【図49】振動情報蓄積処理を説明するフローチャートである。
【図50】振動情報蓄積処理を説明するフローチャートである。
【図51】特徴量ベクトルVc生成処理を説明するフローチャートである。
【図52】特徴量ベクトルVc生成処理を説明するフローチャートである。
【図53】端末Bの蓄積部に蓄積される情報を示す図である。
【図54】キーボード振動情報の波形を示す図である。
【図55】キーボード振動情報から得られるデータを示す図である。
【図56】感情・状態特定処理を説明するフローチャートである。
【図57】特徴量ベクトルVch生成処理を説明するフローチャートである。
【図58】特徴量ベクトルVch生成処理を説明するフローチャートである。
【図59】Vchの感情、状態、およびその強度特定処理を説明するフローチャートである。
【図60】Vchと各ベクトルの分布の関係を示す図である。
【図61】特定結果出力、再計算の処理を説明するフローチャートである。
【図62】情報出力処理を説明するフローチャートである。
【図63】情報出力処理を説明するフローチャートである。
【図64】情報出力処理において出力される情報の波形を示す図である。
【図65】情報出力処理において出力される情報の波形を示す図である。
【図66】本発明の第3の情報処理装置の構成例を示すブロック図である。
【図67】図66の入力部の構成例を示す図でブロック図ある
【図68】図66の出力部の構成例を示すブロック図である。
【図69】端末Aと端末Bの間で送受信される情報を示す図である。
【図70】端末Aと端末Bの間で送受信される情報を示す図である。
【図71】クリック情報、握り圧情報蓄積処理を説明するフローチャートである。
【図72】クリック情報、握り圧情報蓄積処理を説明するフローチャートである。
【図73】特徴量ベクトルVc生成処理を説明するフローチャートである。
【図74】クリック特徴算出処理を説明するフローチャートである。
【図75】握り圧特徴算出処理を説明するフローチャートである。
【図76】感情・状態申告チャートの表示例を示す図である。
【図77】感情・状態申告情報の構成例を示す図である。
【図78】端末Bの蓄積部に蓄積される情報を示す図である。
【図79】マウスのクリック情報の波形を示す図である。
【図80】マウスの握り圧情報の波形を示す図である。
【図81】感情・状態特定処理を説明するフローチャートである。
【図82】特徴量ベクトルVc生成処理を説明するフローチャートである。
【図83】クリック特徴算出処理を説明するフローチャートである。
【図84】握り圧特徴算出処理を説明するフローチャートである。
【図85】Vcの感情、状態、およびその強度特定処理を説明するフローチャートである。
【図86】Vcと各ベクトルの分布の関係を示す図である。
【図87】特定結果出力、再計算の処理を説明するフローチャートである。
【図88】情報出力処理を説明するフローチャートである。
【図89】情報出力処理を説明するフローチャートである。
【図90】情報出力処理において出力される情報の波形を示す図である。
【図91】情報出力処理において出力される情報の波形を示す図である。
【図92】本発明のゲーム機の接続形態を示す図である。
【図93】本発明のゲーム機の構成例を示す図である。
【図94】本発明のゲーム機のコントローラの構成例を示す図である。
【図95】ゲーム機A、ゲーム機B、およびサーバの間で送受信される情報を示す図である。
【図96】ゲーム機A、ゲーム機B、およびサーバの間で送受信される情報を示す図である。
【図97】特徴情報蓄積処理を説明するフローチャートである。
【図98】特徴情報蓄積処理を説明するフローチャートである。
【図99】特徴ベクトルVcの生成処理を説明するフローチャートである。
【図100】加速度情報の特徴量算出処理を説明するフローチャートである。
【図101】加速度情報の特徴量算出処理を説明するフローチャートである。
【図102】ゲーム機のコントローラの加速度情報の波形を示す図である。
【図103】ゲーム機のコントローラの加速度情報から得られるデータを示す図である。
【図104】握り圧情報の特徴量抽出処理を説明するフローチャートである。
【図105】握り圧情報の特徴量抽出処理を説明するフローチャートである。
【図106】ゲーム機のコントローラの右側の握り圧情報の波形を示す図である。
【図107】ゲーム機のコントローラの左側の握り圧情報の波形を示す図である。
【図108】ゲーム機のコントローラの右側の握り圧情報から得られるデータを示す図である。
【図109】ゲーム機のコントローラの左側の握り圧情報から得られるデータを示す図である。
【図110】ゲーム機のコントローラの加速度情報の波形を示す図である。
【図111】ゲーム機のコントローラの右側の握り圧情報の波形を示す図である。
【図112】ゲーム機のコントローラの左側の握り圧情報の波形を示す図である。
【図113】ゲーム機の蓄積部に蓄積される情報を示す図である。
【図114】感情状態特定処理を説明するフローチャートである。
【図115】特徴ベクトルVcagの生成処理を説明するフローチャートである。
【図116】Vcagの感情情報特定処理を説明するフローチャートである。
【図117】Vcagと各ベクトルの分布の関係を示す図である。
【図118】特定結果出力再計算処理を説明するフローチャートである。
【図119】情報出力処理を説明するフローチャートである。
【図120】情報出力処理を説明するフローチャートである。
【図121】蓄積情報出力処理を説明するフローチャートである。
【図122】情報出力処理において出力される振動呈示部駆動信号の波形を示す図である。
【図123】情報出力処理において出力される光呈示部駆動信号の波形を示す図である。
【図124】情報出力処理において出力される光呈示部駆動信号の波形を示す図である。
【図125】情報出力処理において出力される振動呈示部駆動信号の波形を示す図である。
【図126】情報出力処理において出力される光呈示部駆動信号の波形を示す図である。
【図127】情報出力処理において出力される光呈示部駆動信号の波形を示す図である。
【符号の説明】
1乃至3 端末, 11 ネットワーク, 91 入力部, 92 出力部,94 学習部, 95 蓄積部, 97 システム制御部, 131 マイク, 132 脈波センサ, 133 測距センサ, 152 移動オブジェクト, 192 光呈示部, 301 入力部, 302 出力部, 304 学習部, 305 蓄積部, 307 システム制御部, 341 キーボード, 342 振動センサ, 362 振動呈示部, 611 入力部, 612 出力部, 614 学習部, 615 蓄積部, 617 システム制御部, 651 マウス, 671 握り強度センサ, 653 温度センサ, 692 温度呈示部, 692 ペルチェ素子, 871乃至873ゲーム機, 891入力部, 892 出力部, 894 学習部, 895 蓄積部, 897システム制御部, 941 コントローラ, 961 3軸加速度センサ, 963L握り圧センサ, 963R握り圧センサ, 964L 光呈示部, 964R 光呈示部, 965L 振動呈示部, 965R 振動呈示部

Claims (15)

  1. 非言語的情報と言語的情報の入力を受け付ける入力受付手段と、
    入力された前記非言語的情報を前記言語的情報に関係付けて、使用者の感情を学習する学習手段と、
    前記学習手段による学習の結果得られた情報を蓄積する蓄積手段と、
    入力された前記非言語的情報、または蓄積された前記非言語的情報を所定の信号に変換し、出力する出力手段と
    を備えることを特徴とする情報処理装置。
  2. 前記学習手段は、使用者の感情を、その強度とともに学習する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記学習手段は、新たに前記非言語的情報が入力されたとき、前記蓄積手段に蓄積された前記非言語的情報に基づいて、使用者の感情を特定し、
    前記出力手段は、前記学習手段が特定した結果を出力する
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記蓄積手段は、前記学習手段により特定された感情に対応する前記非言語的情報を、前記蓄積手段に既に蓄積された非言語的情報に付加してさらに蓄積する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記非言語的情報の特徴を表す変数を生成する変数生成手段をさらに備え、
    前記学習手段は、生成された前記変数を統計的に処理し、前記変数を蓄積手段に蓄積する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記学習手段は、入力された前記非言語的情報から前記変数生成手段が生成した前記変数と、前記蓄積手段に蓄積された前記変数を比較して、使用者の感情を特定する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記入力手段は、前記非言語的情報として、使用者の脈拍情報、または体動情報の入力を受け付ける
    ことを特徴とする請求項1に記載の情報処理装置。
  8. 前記入力手段は、前記非言語的情報として、使用者の打鍵による振動情報の入力を受け付ける
    ことを特徴とする請求項1に記載の情報処理装置。
  9. 前記入力手段は、前記非言語的情報として、使用者のマウス握り圧情報、または環境温度情報の入力を受け付ける
    ことを特徴とする請求項1に記載の情報処理装置。
  10. 前記情報処理装置は、オンラインゲームを行うゲーム機である
    ことを特徴とする請求項1に記載の情報処理装置。
  11. 前記入力手段は、前記非言語的情報として前記ゲーム機のコントローラの加速度情報、または握り圧情報の入力を受け付ける
    ことを特徴とする請求項10に記載の情報処理装置。
  12. 前記出力手段は、蓄積された前記非言語的情報のうち、使用者が指定した特定の前記非言語的情報を抽出し、抽出された前記非言語的情報を所定の信号に変換し、使用者が指定する他のゲーム機に出力する
    ことを特徴とする請求項10に記載の情報処理装置。
  13. 非言語的情報と言語的情報の入力を受け付ける入力受付ステップと、
    入力された前記非言語的情報を前記前記言語的情報に関係付けて、使用者の感情を学習する学習ステップと、
    前記学習ステップの処理による学習の結果得られた情報を蓄積する蓄積ステップと、
    入力された前記非言語的情報または、蓄積された前記非言語的情報を所定の信号に変換し、出力する出力ステップと
    を含むことを特徴とする情報処理方法。
  14. 非言語的情報と言語的情報の入力を受け付けを制御する入力受付制御ステップと、
    入力された前記非言語的情報を前記前記言語的情報に関係付けて、使用者の感情の学習を制御する学習制御ステップと、
    前記学習制御ステップの処理による学習の結果得られた情報の蓄積を制御する蓄積制御ステップと、
    入力された前記非言語的情報または、蓄積された前記非言語的情報の所定の信号への変換、出力を制御する出力制御ステップと
    をコンピュータに実行させることを特徴とするプログラム。
  15. 請求項14に記載されたプログラムが記録されたことを特徴とする記録媒体。
JP2003040993A 2002-12-11 2003-02-19 情報処理装置および方法、プログラム、並びに記録媒体 Pending JP2004237022A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2003040993A JP2004237022A (ja) 2002-12-11 2003-02-19 情報処理装置および方法、プログラム、並びに記録媒体
PCT/JP2003/012758 WO2004053702A1 (ja) 2002-12-11 2003-10-06 情報処理装置および方法、プログラム、並びに記録媒体
CN2003801002127A CN1692341B (zh) 2002-12-11 2003-10-06 信息处理设备和信息处理方法
KR1020047012342A KR100994906B1 (ko) 2002-12-11 2003-10-06 정보 처리 장치 및 방법, 컴퓨터 판독 가능 프로그램 기록 매체
EP03748712A EP1574961A4 (en) 2002-12-11 2003-10-06 INFORMATION PROCESSING DEVICE AND METHOD, PROGRAM AND RECORDING MEDIUM
US10/503,121 US7548891B2 (en) 2002-12-11 2003-10-06 Information processing device and method, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002359823 2002-12-11
JP2003040993A JP2004237022A (ja) 2002-12-11 2003-02-19 情報処理装置および方法、プログラム、並びに記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007192929A Division JP4525712B2 (ja) 2002-12-11 2007-07-25 情報処理装置および方法、プログラム、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2004237022A true JP2004237022A (ja) 2004-08-26

Family

ID=32510652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003040993A Pending JP2004237022A (ja) 2002-12-11 2003-02-19 情報処理装置および方法、プログラム、並びに記録媒体

Country Status (6)

Country Link
US (1) US7548891B2 (ja)
EP (1) EP1574961A4 (ja)
JP (1) JP2004237022A (ja)
KR (1) KR100994906B1 (ja)
CN (1) CN1692341B (ja)
WO (1) WO2004053702A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015156229A (ja) * 2009-10-29 2015-08-27 イマージョン コーポレーションImmersion Corporation 音声−テキスト変換の触覚増強のためのシステム及び方法
WO2019087916A1 (ja) * 2017-11-01 2019-05-09 アルプスアルパイン株式会社 生体情報測定装置、情報処理装置、情報処理方法、プログラム
WO2021250971A1 (ja) * 2020-06-12 2021-12-16 株式会社村田製作所 グリップ判定装置、グリップ判定方法及びグリップ判定プログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041988A (ja) * 2005-08-05 2007-02-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2007280485A (ja) * 2006-04-05 2007-10-25 Sony Corp 記録装置、再生装置、記録再生装置、記録方法、再生方法および記録再生方法並びに記録媒体
EP3711828B1 (en) * 2006-05-04 2023-03-15 Sony Interactive Entertainment LLC Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands
KR101131856B1 (ko) * 2006-11-03 2012-03-30 엘지전자 주식회사 방송 신호 송신 장치 및 이를 이용한 방송 신호 송수신방법
US20080215974A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Interactive user controlled avatar animations
JP2010533006A (ja) * 2007-03-01 2010-10-21 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 仮想世界とコミュニケーションを取るためのシステムおよび方法
JP2008225550A (ja) * 2007-03-08 2008-09-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
US8262474B2 (en) * 2009-04-21 2012-09-11 Mcmain Michael Parker Method and device for controlling player character dialog in a video game located on a computer-readable storage medium
KR101130761B1 (ko) * 2010-02-26 2012-03-28 대구가톨릭대학교산학협력단 비씨아이 기반 뇌파 측정장치
CN102905624A (zh) * 2010-11-11 2013-01-30 奥林巴斯医疗株式会社 超声波观测装置、超声波观测装置的动作方法以及超声波观测装置的动作程序
JP5054254B2 (ja) * 2010-11-11 2012-10-24 オリンパスメディカルシステムズ株式会社 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
JP5745265B2 (ja) * 2010-12-22 2015-07-08 株式会社ソニー・コンピュータエンタテインメント 信号処理装置、タッチパネルユニット、情報処理装置および信号処理方法
US20120311032A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Emotion-based user identification for online experiences
US20150065896A1 (en) * 2012-03-30 2015-03-05 Seiko Epson Corporation Pulsation detecting device, electronic apparatus, and program
US10175750B1 (en) * 2012-09-21 2019-01-08 Amazon Technologies, Inc. Projected workspace
CN108992052A (zh) * 2014-03-14 2018-12-14 上海万泽精密铸造有限公司 便于随身隐蔽携带的自闭症患者用随身佩戴装置
US10675532B2 (en) 2014-04-21 2020-06-09 Steelseries Aps Variable actuators of an accessory and methods thereof
US10022622B2 (en) 2014-04-21 2018-07-17 Steelseries Aps Programmable actuation inputs of an accessory and methods thereof
US20170105628A1 (en) * 2014-06-28 2017-04-20 Intel IP Corporation Pulse diagnosis
CN104462906A (zh) * 2014-12-19 2015-03-25 中国农业银行股份有限公司 一种具有信息采集功能的鼠标和身份识别方法及系统
CN104808990A (zh) * 2015-04-16 2015-07-29 深圳市金立通信设备有限公司 一种终端
CN104808989A (zh) * 2015-04-16 2015-07-29 深圳市金立通信设备有限公司 一种终端控制方法
CN105100435A (zh) * 2015-06-15 2015-11-25 百度在线网络技术(北京)有限公司 移动通讯应用方法和装置
CN105244023A (zh) * 2015-11-09 2016-01-13 上海语知义信息技术有限公司 课堂教学中教师情绪的提醒系统及方法
US10241583B2 (en) * 2016-08-30 2019-03-26 Intel Corporation User command determination based on a vibration pattern
CN106419936A (zh) * 2016-09-06 2017-02-22 深圳欧德蒙科技有限公司 一种基于脉搏波时间序列分析的情绪分类方法及装置
JP2019159707A (ja) * 2018-03-12 2019-09-19 富士ゼロックス株式会社 情報提示装置、情報提示方法及び情報提示プログラム
CN108577866A (zh) * 2018-04-03 2018-09-28 中国地质大学(武汉) 一种多维情感识别与缓解的系统及方法
US11243957B2 (en) * 2018-07-10 2022-02-08 Verizon Patent And Licensing Inc. Self-organizing maps for adaptive individualized user preference determination for recommendation systems
CN109697472B (zh) * 2018-12-28 2021-05-04 泰州市津达电子科技有限公司 一种子情绪划归方法
CN109460752B (zh) * 2019-01-10 2020-10-16 广东乐心医疗电子股份有限公司 一种情绪分析方法、装置、电子设备及存储介质
GB2618814A (en) * 2022-05-18 2023-11-22 Sony Interactive Entertainment Inc Player selection system and method

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0716349A (ja) 1993-07-02 1995-01-20 Pioneer Electron Corp ビデオゲーム装置
JPH08191952A (ja) 1995-01-18 1996-07-30 Yutaka Nakano 仮想現実体感方法及び装置
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
US5918222A (en) * 1995-03-17 1999-06-29 Kabushiki Kaisha Toshiba Information disclosing apparatus and multi-modal information input/output system
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
JP3159242B2 (ja) * 1997-03-13 2001-04-23 日本電気株式会社 感情生成装置およびその方法
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JPH1147444A (ja) 1997-07-29 1999-02-23 Sony Corp 通信型ゲーム装置
JPH11119791A (ja) * 1997-10-20 1999-04-30 Hitachi Ltd 音声感情認識システムおよび方法
US6102846A (en) * 1998-02-26 2000-08-15 Eastman Kodak Company System and method of managing a psychological state of an individual using images
JPH11333139A (ja) 1998-05-26 1999-12-07 Fuji Electronics Co Ltd 動態画像のコントロール装置
JP3914636B2 (ja) 1998-06-12 2007-05-16 有限会社アンブレラ 音声入力式ヒューマンインタフェースに特徴を有するビデオゲーム機およびプログラム記録媒体
US6230111B1 (en) * 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US7263489B2 (en) * 1998-12-01 2007-08-28 Nuance Communications, Inc. Detection of characteristics of human-machine interactions for dialog customization and analysis
US6466232B1 (en) * 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6513046B1 (en) * 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
US7055101B2 (en) * 1998-12-18 2006-05-30 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
EP1112822A4 (en) * 1999-05-10 2005-07-20 Sony Corp ROBOTS AND CONTROL PROCESSES THEREOF
JP2001034410A (ja) * 1999-07-26 2001-02-09 Matsushita Electric Ind Co Ltd 感性入力装置および感性推定方法
US6418435B1 (en) * 1999-08-11 2002-07-09 Connotative Reference Corporation System for quantifying intensity of connotative meaning
US6480826B2 (en) * 1999-08-31 2002-11-12 Accenture Llp System and method for a telephonic emotion detection that provides operator feedback
JP2001160021A (ja) 1999-12-03 2001-06-12 Sony Corp 仮想空間による通信システム
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2001236162A (ja) * 2000-02-24 2001-08-31 Sony Computer Entertainment Inc エンタテインメント装置、記録媒体及びコンピュータプログラム
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP2002202943A (ja) * 2000-12-28 2002-07-19 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2002282543A (ja) * 2000-12-28 2002-10-02 Sony Computer Entertainment Inc オブジェクトの音声処理プログラム、オブジェクトの音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体、プログラム実行装置、及びオブジェクトの音声処理方法
JP2002230011A (ja) 2001-02-05 2002-08-16 Seiko Epson Corp 感情認識システム
JP2002298155A (ja) 2001-03-29 2002-10-11 Hic:Kk 感情による3dコンピュータグラフィックス表情モデル形成システム
EP1298645A1 (en) * 2001-09-26 2003-04-02 Sony International (Europe) GmbH Method for detecting emotions in speech, involving linguistic correlation information
US7007001B2 (en) * 2002-06-26 2006-02-28 Microsoft Corporation Maximizing mutual information between observations and hidden states to minimize classification errors

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015156229A (ja) * 2009-10-29 2015-08-27 イマージョン コーポレーションImmersion Corporation 音声−テキスト変換の触覚増強のためのシステム及び方法
JP2017085625A (ja) * 2009-10-29 2017-05-18 イマージョン コーポレーションImmersion Corporation 音声/テキスト変換の触覚による拡張を目的とするシステムと方法
WO2019087916A1 (ja) * 2017-11-01 2019-05-09 アルプスアルパイン株式会社 生体情報測定装置、情報処理装置、情報処理方法、プログラム
JPWO2019087916A1 (ja) * 2017-11-01 2020-10-22 アルプスアルパイン株式会社 生体情報測定装置、情報処理装置、情報処理方法、プログラム
WO2021250971A1 (ja) * 2020-06-12 2021-12-16 株式会社村田製作所 グリップ判定装置、グリップ判定方法及びグリップ判定プログラム
JP7355242B2 (ja) 2020-06-12 2023-10-03 株式会社村田製作所 グリップ判定装置、グリップ判定方法及びグリップ判定プログラム

Also Published As

Publication number Publication date
CN1692341B (zh) 2010-12-08
CN1692341A (zh) 2005-11-02
EP1574961A4 (en) 2011-10-26
US20050149467A1 (en) 2005-07-07
EP1574961A1 (en) 2005-09-14
WO2004053702A1 (ja) 2004-06-24
KR100994906B1 (ko) 2010-11-16
US7548891B2 (en) 2009-06-16
KR20050084771A (ko) 2005-08-29

Similar Documents

Publication Publication Date Title
KR100994906B1 (ko) 정보 처리 장치 및 방법, 컴퓨터 판독 가능 프로그램 기록 매체
US11858118B2 (en) Robot, server, and human-machine interaction method
EP3624442A1 (en) Robot and method for operating the same
Pham et al. Speech-driven 3D facial animation with implicit emotional awareness: A deep learning approach
US20190172448A1 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US11452941B2 (en) Emoji-based communications derived from facial features during game play
KR102242779B1 (ko) 로봇 및 그 동작 방법
JP4085926B2 (ja) 情報処理端末及び通信システム
CN107097234B (zh) 机器人控制系统
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
US20180077095A1 (en) Augmentation of Communications with Emotional Data
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
Hasegawa et al. Active agent oriented multimodal interface system
WO2022170848A1 (zh) 人机交互方法、装置、系统、电子设备以及计算机介质
KR101738142B1 (ko) 감성 기반의 대화가 가능한 디지털 생명체 생성 시스템 및 그 제어방법
Murray et al. Learning backchanneling behaviors for a social robot via data augmentation from human-human conversations
CN113703585A (zh) 交互方法、装置、电子设备及存储介质
JP4525712B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP3733075B2 (ja) インタラクション・メディアシステム
Rwelli et al. Gesture based Arabic sign language recognition for impaired people based on convolution neural network
CN110544287A (zh) 一种配图处理方法及电子设备
CN113205569A (zh) 图像绘制方法及装置、计算机可读介质和电子设备
JP7096626B2 (ja) 情報抽出装置
JP7423490B2 (ja) ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20030314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20030328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070725

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070801

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20071019