JPH10214024A - 対話型映画システム - Google Patents

対話型映画システム

Info

Publication number
JPH10214024A
JPH10214024A JP1690097A JP1690097A JPH10214024A JP H10214024 A JPH10214024 A JP H10214024A JP 1690097 A JP1690097 A JP 1690097A JP 1690097 A JP1690097 A JP 1690097A JP H10214024 A JPH10214024 A JP H10214024A
Authority
JP
Japan
Prior art keywords
scene
recognition
interaction
voice
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1690097A
Other languages
English (en)
Other versions
JP2874858B2 (ja
Inventor
Ryohei Nakatsu
良平 中津
Naoko Tosa
尚子 土佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR CHINOU EIZO TSUSHIN KENKYU
ATR CHINOU EIZO TSUSHIN KENKYUSHO KK
Original Assignee
ATR CHINOU EIZO TSUSHIN KENKYU
ATR CHINOU EIZO TSUSHIN KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR CHINOU EIZO TSUSHIN KENKYU, ATR CHINOU EIZO TSUSHIN KENKYUSHO KK filed Critical ATR CHINOU EIZO TSUSHIN KENKYU
Priority to JP1690097A priority Critical patent/JP2874858B2/ja
Publication of JPH10214024A publication Critical patent/JPH10214024A/ja
Application granted granted Critical
Publication of JP2874858B2 publication Critical patent/JP2874858B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 ユーザの音声、動作のみならず感情に対応し
てストーリが展開される対話型映画システムを提供す
る。 【解決手段】 音声認識部4、感情認識部5および画像
認識部6は、インタラクション制御部3の制御を受け
て、シーンnに対応するユーザの音声、動作、音声に含
まれる感情を認識する。インタラクション制御部3は、
これらの認識結果を統合する。スクリプト制御部1は、
シーン制御部2を介して、この統合された結果を受け
て、複数のシーンの中から次に遷移するシーンkを決定
する。シーン制御部2は、決定されたシーンkに応じ
て、映像、音声の出力を指示をするとともに、インタラ
クション開始時間に、シーンkに対応した認識を行なう
ように、インタラクション制御部3に指示する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、対話型映画システ
ムに関し、特に、ユーザの音声に含まれる感情に反応し
てストーリが展開される対話型映画システムに関するも
のである。本発明は、映画市場を広げるとともに、新し
いメディアとして、テレビ、ラジオ、小説などの従来型
のメディアにも刺激を与え、産業界全体に大きなインパ
クトを与えることが期待される。
【0002】
【従来の技術】映画や小説といったメディアが提供する
世界(ストーリ)の主人公となって、登場するキャラク
タとインタラクションしながら、ストーリを体験したい
というのは人々の長年の素朴な夢であった。
【0003】このような、対話型のメディアシステム
は、観客とのインタラクションの結果によって、ストー
リを多様に変化させる必要がある。従って、対話型のメ
ディアシステムを実現するためには、あらかじめ複数の
ストーリを用意しておき、コンピュータによって、スト
ーリの切り替えを自動的に行なう処理機能が必要とされ
る。また、観客とメディアの提供するキャラクタとのイ
ンタラクションをどのように行なわせるかを具体化する
必要がある。
【0004】しかし、従来のメディアシステム(映画や
小説等)は、いわば手作りのメディアであり、ストーリ
の切り替えを行なう処理機能を備えておらず、ストーリ
の組み立てが固定されていた。また、観客とメディアの
提供するキャラクタとのインタラクションをどのように
行なわせるかについてなんら提案がなされていなかっ
た。
【0005】これに対して、近年のディジタル技術やコ
ンピュータ・グラフィック技術に代表されるコンピュー
タ技術の急激な進展により、新しい状況が生じている。
【0006】たとえば映画の分野では、こうした新しい
技術を駆使した新世代の映画へと移行しつつある。「ト
イ・ストーリ」(商標)や「ジュラシック・パーク」
(商標)等の映画が、その代表例といえる。
【0007】このように、コンピュータの導入により、
映画のストーリの展開をコンピュータでコントロールす
ることができる可能性が出てきた。
【0008】一方、テレビゲームの分野では、簡単な入
力装置からのボタン操作により、ゲーム世界の主人公に
なってストーリを楽しめることができるロール・プレイ
ング・ゲーム(RPG)が登場した。RPGは、ユーザ
とのインタラクション(ボタン操作)の結果に基づき、
展開するストーリを変化させる、いわば、対話型のメデ
ィアシステムの一例といえる。
【0009】RPGでは、ユーザは、ゲーム世界の主人
公になってストーリを楽しめることができる。RPG
が、子供たちを中心として熱狂的に受け入れられている
のは、こうした簡単なボタン操作によるインタラクショ
ンの結果を受けて、ストーリが多様に変化するからであ
ると考えられる。
【0010】したがって、RPGの技術を利用して、イ
ンタラクションの結果に応じてストーリが展開される対
話型の映画システムを実現することも考えられる。
【0011】
【発明が解決しようとする課題】しかし、上記に示した
従来の対話型メディアシステムを用いて対話型の映画シ
ステムを実現しようとした場合、以下に示す問題があ
る。
【0012】RPGに代表される対話型のメディアシス
テムは、上記に示したようにインタラクション機能を持
ち、ユーザが主人公となってメディアの世界を体験する
ことができると言う点では意義がある。しかし、メディ
アシステムとの間のインタラクションの手段が、我々の
日常生活でおこなう行動形式とは異なるボタン操作に限
定されている。したがって、観客は、メディアが実現す
る世界に対する感情移入が起こりにくく、観客がメディ
アの世界に十分没入できないといった問題があげられ
る。
【0013】このことは、日常生活での人間同士のイン
タラクションを例にとって考えてみるとわかりやすい。
人間同士の場合、インタラクションは、音声や、動作に
よって行なっている。さらに、人間は、音声や動作に加
えて、その音声に含まれる感情をも有効に活用してイン
タラクションを行なっている。
【0014】これに対して、従来の対話型メディアシス
テムでは、上記に示したようにインタラクションの手段
は単純で非日常的な操作に限定されている。
【0015】したがって、単に従来型のメディアシステ
ムを用いて対話型映画システムを実現したのでは、観客
により高い感動と楽しみとを与えることができない。
【0016】それゆえ、本発明は上記に示した問題を解
決するためになされたもので、その目的は、観客がユー
ザとなって、映画のなかのキャラクタと日常生活と同じ
手段でインタラクションすることができる対話型映画シ
ステムを提供することにある。
【0017】また、本発明のもう一つの目的は、音声に
含まれる感情を交えたインタラクションによって、ユー
ザが現実に体験しているようにストーリを展開すること
ができる対話型映画システムを提供することにある。
【0018】さらに、本発明のもう一つの目的は、音
声、動作そして感情の認識結果を統合して、ストーリを
多様に展開できる対話型映画システムを提供することに
ある。
【0019】
【課題を解決するための手段】請求項1に係る対話型映
画システムは、シーンを構成する映像および音声を出力
して、シーンを生成する生成手段と、生成されたシーン
に対するユーザの感情を認識する認識手段と、認識手段
で認識された感情に基づき、生成されたシーンの次に遷
移するシーンを、複数のシーンの候補の中から決定する
スクリプト制御手段と、決定されたシーンに基づき、生
成手段を制御し、さらに、決定されたシーンに対応する
所定のタイミングで、決定されたシーンに基づき認識手
段を制御する制御手段とを備える。
【0020】請求項2に係る対話型映画システムは、請
求項1に係る対話型映画システムであって、認識手段
は、ユーザの音声に含まれる感情を認識する。
【0021】請求項3に係る対話型映画システムは、シ
ーンを構成する映像および音声を出力して、シーンを生
成する生成手段と、生成されたシーンに対するユーザの
音声および動作の少なくともいずれか一方と、感情とを
認識する認識手段と、認識手段での認識結果を統合し
て、ユーザのインタラクションの結果を決定する統合手
段と、統合手段によるインタラクションの結果に基づ
き、生成されたシーンの次に遷移するシーンを、複数の
シーンの候補の中から決定するスクリプト制御手段と、
決定されたシーンに基づき、生成手段を制御し、さら
に、決定されたシーンに対応する所定のタイミングで、
決定されたシーンに基づき認識手段を制御する制御手段
とを備える。
【0022】請求項4に係る対話型映画システムは、請
求項3に係る対話型映画システムであって、認識手段
は、ユーザの音声を認識する音声認識手段と、ユーザの
動作を認識する動作認識手段と、ユーザの音声に含まれ
るユーザの感情を認識する感情認識手段とを備える。
【0023】
【発明の実施の形態】
[実施の形態1]この発明は、対話型映画システムにお
いて、ユーザの音声、動作、そして音声に含まれる感情
をインタラクションの手段とし、これらを統合した結果
に基づきストーリを展開させることを可能としたもので
ある。
【0024】図1は、本発明の実施の形態1における対
話型映画システム100の基本構成を示す概略ブロック
図である。
【0025】図1を参照して、対話型映画システム10
0は、スクリプト制御部1と、シーン制御部2と、イン
タラクション制御部3と、音声認識部4と、感情認識部
5と、画像認識部6と、映像表示制御部7と、サウンド
出力制御部8とを備える。
【0026】まず、スクリプト制御部1について説明す
る。スクリプト制御部1は、ストーリの展開を制御す
る。
【0027】図2は、本発明の実施の形態1におけるス
クリプト制御部1の構成を示す概略ブロック図である。
図2を参照して、スクリプト制御部1は、遷移制御部1
1と、スクリプトデータ格納部12とを備える。
【0028】スクリプトデータ格納部12には、スクリ
プト(脚本)の構成を予め格納する。
【0029】図3は、本発明の実施の形態1のスクリプ
ト格納部12に格納されるスクリプトの構成を説明する
ための図であり、参考のため、図4には従来の映画シス
テムでのスクリプトの構成を示す。
【0030】図4を参照して、従来の映画システムで
は、シーン1、シーン2、シーン3…と一方向のシーン
の連なりが全体のストーリを形成していた。すなわち、
従来の映画システムにおいては、シーンの移行が単一で
あり、ストーリが固定されていた。
【0031】これに対して、本発明の対話型映画システ
ム100においては、図3に示すように、あるシーンか
ら次のシーンへの移行が単一でなく、複数のシーンのい
ずれかに移行することができる。例えば、図3を参照し
て、シーン21からは、シーン31、シーン32、もし
くはシーン33のいずれか一つのシーンに遷移すること
が可能である。従って、従来の映画システムと異なり、
ストーリの展開に自由度が生じている。
【0032】ここで、対話型映画システム100におけ
る各シーンの間には、式(1)に示す関係が成立してい
る。
【0033】 現在のシーン+インタラクションの結果 → 次のシーン …(1) 式(1)を参照して、遷移する次のシーンは、現在のシ
ーンと現在のシーンにおけるインタラクションの結果に
基づき決定される。なお、インタラクションの結果と
は、音声認識部4、感情認識部5、画像認識部6(以
下、いずれかを指す場合には、認識部と呼ぶ)での認識
結果を統合した結果である。
【0034】図3および式(1)を参照して、対話型映
画システム100におけるストーリの構成は、シーンを
状態とするマルコフ遷移と考えることができる。従っ
て、シーンの遷移を、状態遷移図で記述することが可能
であり、このような状態遷移図をベースとした記述が適
しているといえる。
【0035】図2を参照して、遷移制御部11は、スク
リプトデータ格納部12に格納されているスクリプトの
構成(状態遷移図)に基づき、インタラクションの結果
を用いて、現在のシーンから次に遷移するシーンを決定
する。そして、次のシーンnを表わすシーン番号nを、
シーン制御部2に出力する。
【0036】続いて、図1に示したシーン制御部2につ
いて説明する。シーン制御部2は、シーンを記述し、シ
ーンを実現するための制御を行なう。
【0037】図5は、本発明の実施の形態1におけるシ
ーン制御部2の構成を示す概略ブロック図である。図5
を参照して、シーン制御部2は、シーン生成制御部21
と、シーンデータ格納部22とを備える。
【0038】シーンデータ格納部22には、シーンを構
成する要素に関するデータ(以下、シーン記述データと
呼ぶ)を予め格納する。
【0039】図6は、本発明の実施の形態1におけるシ
ーンデータ格納部22に格納されるシーン記述データの
一例を示す図であり、代表的に、シーンnのシーン記述
データが示されている。
【0040】図6を参照して、対話型映画システム10
0における各シーンは、(背景、登場キャラクタ、イン
タラクション)を基本要素として構成される。
【0041】シーンの単位を何にするかについては種々
の方法が挙げられるが、対話型映画システム100にお
いては、一例として、シーンの開始時点(前シーンの終
了時点)から、インタラクションの結果がインタラクシ
ョン制御部3から送られてくるまでを一単位のシーンと
する。これは、インタラクションをシーンの切換の契機
とする考え方に基づくものであり、インタラクションの
結果に応じて次のシーンを決定して、シーン制御部2に
指示するスクリプト制御部1の処理の流れに対応した単
位である。
【0042】以下、シーンを構成する背景、登場キャラ
クタ、およびインタラクションについて簡単に説明す
る。
【0043】背景としては、コンピュータグラフィック
で構成された背景、実写をベースとした背景、もしくは
これらを合成して生成した背景等が考えられる。これら
の内容は、いずれもスクリプトを構成する段階で決定し
て作成しておく。また、背景にあわせた音楽も予め用意
しておく。そして、図6に示すように、シーンデータ格
納部22には、シーン毎に、背景映像の種類、各背景映
像の開始時間、背景音楽の種類、および各背景音楽の開
始時間を記述しておく。
【0044】登場キャラクタに関しては、インタラクシ
ョンにより動作を変化させるので、基本的には、コンピ
ュータグラフィックで各キャラクタを生成しておく。な
お、インタラクションの結果考えられる登場キャラクタ
の動きを全て考慮して、それらに対応した実写映像を用
意しておく方法もある。また、各キャラクタの映像のみ
ならず、各キャラクタがしゃべる台詞に対応する音声デ
ータもしくは効果音データを用意しておく。そして、図
6に示すように、シーンデータ格納部22には、シーン
毎に、各キャラクタの登場時間および台詞をしゃべる開
始時間等を記述しておく。
【0045】インタラクションに関しては、シーン毎
に、インタラクション開始時間と、インタラクションの
種類と、インタラクションの内容(期待される反応)と
を予め決定しておく。ここで、インタラクションの種類
とは、感情、音声もしくは動作、もしくはこれらの組合
せをいう。感情は、感情認識部5において、音声は、音
声認識部4において、動作は、画像認識部6においてそ
れぞれ認識される。
【0046】例えば、あるインタラクション開始時間に
おいて、ユーザの「音声もしくは感情」から、「yes
かno」の答えを期待する場合には、インタラクション
の内容は(yes、no)、インタラクションの種類は
(音声、感情)となる。図6に示すように、シーンデー
タ格納部22には、シーン毎に、インタラクション開始
時間、インタラクションの種類、およびインタラクショ
ンの内容を記述しておく。
【0047】図7は、本発明の実施の形態1におけるシ
ーン生成制御部21の動作を説明するためのフロー図で
ある。シーン生成制御部21は、スクリプト制御部1か
ら受けたシーン番号nに基づき、シーンデータ格納部2
2のデータに応じて、シーンを生成するための制御を行
なう。図7を参照して、シーン生成制御部21の機能と
動作について説明する。
【0048】ステップs7−1では、スクリプト制御部
1から生成すべき次のシーン番号nを受ける。ステップ
s7−2では、シーンデータ格納部22から、シーン番
号nに対応したシーン記述データを読み出す。ステップ
s7−3では、読み出したシーン記述データに基づき、
必要なタイミングで、後述する映像表示制御部7および
サウンド出力制御部8に、背景映像、背景音楽、キャラ
クタ映像、およびキャラクタの台詞を出力するように指
示する。また、読み出したシーン記述データに基づき、
インタラクションの開始時間になると、後述するインタ
ラクション制御部3に、インタラクションの種類および
インタラクションの内容に関するデータ(以下、インタ
ラクションデータIDと呼ぶ)を送信する。
【0049】ステップs7−4では、インタラクション
制御部3から送信されてくるインタラクションの結果を
スクリプト制御部1に送信する(スクリプト制御部1
は、上記に説明したように、このインタラクションの結
果に基づき、遷移する次のシーンを決定する)。
【0050】スクリプト制御部1が、インタラクション
の結果を受けて次のシーンを決定した場合には、ステッ
プs7−1に戻り、再びステップs7−1〜s7−4の
処理を行なう。
【0051】図1を参照して、映像表示制御部7につい
て説明する。映像表示制御部7は、シーン制御部2から
指示された映像(シーンの背景映像、キャラクタの映
像)を出力する。映像表示制御部7は、これらの映像を
予め蓄積しておき、シーン制御部2から出力すべきデー
タの指示があった場合に、図示しないスクリーンやディ
スプレイに表示出力する。
【0052】図1を参照して、サウンド出力制御部8に
ついて説明する。サウンド出力制御部8は、シーン制御
部2から指示されたサウンド(シーンの背景音楽、キャ
ラクタの台詞もしくは、効果音)を出力する。サウンド
出力制御部8は、これらのサウンドに関するデータを予
め蓄積しておき、シーン制御部2から出力すべきデータ
の指示があった場合に、それらを図示しないスピーカか
ら出力する。
【0053】続いて、図1に示したインタラクション制
御部3について説明する。インタラクション制御部3
は、各シーンにおけるインタラクションを制御する。
【0054】具体的には、シーン制御部2から、インタ
ラクション開始の指示と、それに伴なうインタラクショ
ンデータIDを受けて、該当する認識部を制御する。そ
して、これらから出力される認識結果を統合して、イン
タラクションの結果としてシーン制御部2に送信する。
【0055】図8は、本発明の実施の形態1におけるイ
ンタラクション制御部3の構成を示す概略ブロック図で
ある。図8を参照して、インタラクション制御部3は、
認識制御部31と、認識辞書格納部32と、認識結果統
合部33とを備える。
【0056】認識辞書格納部32には、認識部において
認識すべき内容に関するデータ辞書を予め格納してお
く。例えば、インタラクションの内容が(yes、n
o)であり、インタラクションの種類が(音声、感情)
である場合には、以下の内容のデータを用意しておく。
【0057】 yes:音声認識部4が認識すべき内容→(「はい]、「そうです」、 「ええ」などの肯定的音声) 感情認識部5が認識すべき内容→(「喜び」などの正の感情) no:音声認識部4が認識すべき内容→(「いいえ]、「違います」、 「ノー」などの否定的音声) 感情認識部5が認識すべき内容→(「悲しみ」などの負の感情) 音声認識部4は、肯定的な音声であるか、否定的な音声
であるかを認識し、感情認識部5は、正の感情である
か、負の感情であるかを認識する。
【0058】認識結果統合部33は、認識部からの認識
結果を受けてこれらを統合して、最終的な認識結果であ
るインタラクションの結果を決定する。具体的な統合方
法については、種々のものが考えられる。この統合結果
は、インタラクションの結果として、認識制御部31に
出力される。
【0059】図9は、本発明の実施の形態1における認
識制御部31の動作を説明するためのフロー図である。
図9を参照して、認識制御部31の機能と動作について
説明する。
【0060】ステップs9−1では、シーン制御部2か
らインタラクションの指示と、インタラクションデータ
IDとを受ける。ステップs9ー2では、制御すべき認
識部を決定し、かつ認識辞書格納部32から認識すべき
対象の辞書を読み出す。
【0061】ステップs9−3では、この辞書を、動作
させる認識部に送信すると共に認識動作を開始させる。
ステップs9−4では、認識部から認識結果を受けて、
認識結果統合部33にこれらを出力する(認識結果統合
部33は、複数の認識結果をを統合して、インタラクシ
ョンの結果を決定する)。
【0062】スッテプs9−5では、認識結果統合部3
3からインタラクションの結果を受けて、シーン制御部
2に送信する。
【0063】続いて、図1に示した音声認識部4、感情
認識部5、および画像認識部6について説明する。
【0064】音声認識部4は、図示しないマイクから入
力したユーザの音声を認識する。画像認識部6は、図示
しないカメラで撮影したユーザの動作を認識する。
【0065】音声認識部4と、画像認識部6について
は、種々の研究が行なわれており、すでに実用化されて
いるのでここでの説明は省略する。
【0066】感情認識部5は、図示しないマイクから入
力したユーザの音声に基づき、ユーザの感情を認識す
る。このような感情認識部5の一例として、1996年
6月の第4回日立中研研究会予稿集の第75頁〜第82
頁の土佐尚子、中津良平による「芸術とテクノロジー:
Life−like Autonomous Char
acter”MIC” & Feeling Sess
ion Character”MUSE”」に発表され
たものが挙げられる。以下にその処理の概要について簡
単に説明する。
【0067】図10は、入力した音声から感情を認識す
る処理の一例を説明するためのフロー図である。図10
を参照して、感情認識は、音声の特徴を抽出する音声処
理s10−1および抽出された音声の特徴に基づき感情
を認識する感情認識処理s10−2から構成される。
【0068】音声処理s10−1について説明する。音
声処理s10−1は、3つの処理から構成される。音声
特徴計算処理s10−11は、入力した音声から音声特
徴パラメータをリアルタイムで抽出する。音声区間抽出
処理S10−12は、音声パワーを用いて、音声区間の
抽出を行なう。音声特徴量抽出処理S10−13は、抽
出された音声区間を用いて、音声特徴量を決定する。
【0069】続いて、感情認識処理S10−2について
説明する。感情認識処理s10−2は、ニューラルネッ
トワークを用いた感情認識(s10−21)、感情平面
への写像(s10−22)、およびニューラルネットワ
ークの学習(s10−23)から構成される。
【0070】図11は、感情認識のためのニューラルネ
ットワーク50の構造を概略的に示すブロック図であ
る。
【0071】図11を参照して、ニューラルネットワー
クシステム50は、8つ並列に配置さらたサブニューラ
ルネットワークN1〜N8と、これらのサブニューラル
ネットワークN1〜N8からの出力を統合する論理部5
1から構成される。
【0072】ニューラルネットワークシステム50で
は、感情によって感情認識の困難さが大きく異なるた
め、一つの感情に対して一個のサブニューラルネットワ
ークを対応づけている。8つの各々のサブニューラルネ
ットN1〜N8は、8つの感情(怒り、悲しみ、喜び、
恐れ、驚き、愛想をつかす、からかい、および普通)を
それぞれ認識する。
【0073】ここで、感情認識を行なうためには、予め
8つのサブニューラルネットN1〜N8を学習させてお
く(図10のs10−23)必要がある。以下、感情の
学習について簡単に説明する。ニューラルネットワーク
システム50は、不特定話者、コンテキスト独立型の感
情認識を可能とするするために、複数の話者が発声した
8つの感情で表現した100個の単語(音韻バランスの
とれた単語)の音声サンプルを用いて学習する。
【0074】図12は、感情認識に用いられるサブニュ
ーラルネットワークの構成を概略的に示す図であり、サ
ブニューラルネットワークN1の構成が代表的に示され
ている。図12を参照して、サブニューラルネットワー
クN1は、入力層61、中間層62、および出力層63
から構成される。各層は、複数のノード(図12の○)
から構成される。入力層61のノードは、音声特徴量の
次元に対応している。入力層の各ノードには、音声処理
(図10のs10−1)で抽出された音声特徴量を同時
に入力する。出力層63のノードは、8つの感情の中の
いずれか1の感情に対応した感情認識結果(実数値)を
出力する。
【0075】学習したサブニューラルネットワークNj
(但し、j=1〜8)の出力(認識結果)を、vjと表
すとすれば、サブニューラルネットワークN1〜N8全
体からの出力は、式(2)に示すようにベクトルで表現
される。
【0076】 V=(v1、v2、…、v8) …(2) 図11に示した論理部51は、式(2)で表現される学
習したサブニューラルネットワークN1〜N8の出力V
を論理処理して、2次元の感情平面Eへの写像を行な
う。
【0077】図13は、感情認識のためのニューラルネ
ットワークシステム50で用いる感情平面Eの構成を概
略的に表した図である。図13を参照して、感情平面E
上には、8つの感情(怒り、悲しみ、喜び、恐れ、驚
き、愛想をつかす、からかい、および普通)が、それぞ
れ配置されている。
【0078】m1を、8つの実数値(v1〜v8)の最
大値とし、m2を、m1を除く7つの実数値(v1〜v
8のいずれか7つ)の最大値とし、さらに、m1、m2
に対応する感情平面E上の感情位置を(xm1、ym
1)、(xm2、ym2)とする。論理部51は、xm
1、ym1、xm2、およびym2の値から、最終的な
感情認識結果である値xを導き出す。
【0079】インタラクションの種類が、感情のみであ
る場合には、この感情認識結果xからインタラクション
の結果が導き出される。
【0080】以上の説明を参考にして、簡単なストーリ
を用いて、本発明の実施の形態1における対話型映画シ
ステム100の動作を説明する。
【0081】図14に、本発明の実施の形態1における
動作を説明するための一例となるスクリプト構成を示
す。図14においては、シーン1およびシーン1から遷
移可能なシーン21と、シーン22とが示されている。
【0082】シーン1では、子供A、Bが亀を苛めてい
る。このシーン1に対して、インタラクションの結果
が、”亀を助ける”であればシーン21に移り、亀は、
主人公である子供Cを龍宮城に案内する。一方、インタ
ラクションの結果が、”亀を助けない”であればシーン
22に移り、亀は死んでしまう。
【0083】図15に、図14におけるシーン1を構成
するシーン記述データの一例を示す。図15を参照し
て、シーン1は、背景映像1および背景音楽1、2で構
成される。また、キャラクタは、子供A、B、亀から構
成される。インタラクションの種類は(感情)、インタ
ラクションの内容は(亀を助ける、亀を助けない)であ
る。
【0084】スクリプト制御部1は、シーン制御部2に
シーン1の生成を指示するとともに、シーン制御部2か
らインタラクションの結果が送られてくるのを待つ。
【0085】シーン制御部2は、シーン1に対応したシ
ーン記述データ(図15参照)をシーンデータ格納部2
2から読出す。
【0086】図16は、図15に示したシーン記述デー
タに基づく、対話型映画システム100の動作を生成す
るためのタイミングチャートである。図15〜図16を
参照して、対話型映画システム100の具体的な動作に
ついて説明する。
【0087】シーン制御部2は、時間t0に、映像表示
制御部7に背景映像1の表示を、サウンド出力制御部8
に背景音楽1の出力をそれぞれ指示する。続いて、時間
t1に、映像表示制御部7に亀のアニメーションの表示
を指示する。また、時間t2には、映像表示制御部7に
子供A、Bのアニメーションの表示を、サウンド出力制
御部8に背景音楽2の出力をそれぞれ指示する。時刻t
3、t4にそれぞれ子供A、Bの台詞の出力をサウンド
出力制御部8に指示する。時間t5になると、インタラ
クション制御部3に対して、インタラクションの種類、
インタラクションの内容に関するインタラクションデー
タIDを送信するとともに、インタラクションの開始を
指示する。
【0088】インタラクション制御部3は、このインタ
ラクションデータIDに基づき、感情認識部5の動作を
開始させる。感情認識部5は、ユーザの音声を入力とし
て受けた場合、感情認識を行い、認識結果をインタラク
ション制御部3に送信する。
【0089】インタラクション制御部3では、この感情
認識結果から、シーン1を見たユーザが、亀を助けたい
のか否かを判断する。例えば、悲しい、怒りなどの負の
感情が認識されると、ユーザが亀が苛められていること
にネガティブな感情を抱いており、亀を助けたいと考え
ていると判断する。一方、楽しいなどの正の感情が認識
されると、ユーザが亀が苛められていることに快感を感
じていて、亀を助けたがっていないと判断する。
【0090】このインタラクションの結果は、シーン制
御部2を介して、スクリプト制御部1に送られる。スク
リプト制御部1は、例えば、亀を助けたいという結果が
送られてきた場合には、シーン21(そうでない場合に
は、シーン22)を次のシーンに決定して、シーン制御
部2に指示する。
【0091】以上のように、本発明の対話型映画システ
ム100は、ユーザが映画の主人公になり、映画の中の
キャラクタとインタラクションしながら、映画のストー
リを体験できる新しいエンターテインメントを提供する
ことができる。この結果、ユーザに、より高いレベルの
感動と楽しさとを与えることができる。
【0092】
【発明の効果】以上のように、本発明による対話型映画
システムによれば、ユーザは、映画のキャラクタと日常
生活と同じ手段でインタラクションすることが可能とな
る。
【0093】また、本発明による対話型映画システムに
よれば、音声に含まれる感情を交えたインタラクション
によって、ユーザが現実に体験しているようにストーリ
を展開することができる。
【0094】さらに、本発明による対話型映画システム
によれば、複数のインタラクションを認識して、これら
を統合することにより、ストーリを多様に展開すること
ができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における対話型映画シス
テム100の全体構成を示す概略ブロック図である。
【図2】本発明の実施の形態1におけるスクリプト制御
部1の構成を示す概略ブロック図である。
【図3】本発明の実施の形態1におけるスクリプトの構
成を説明するための図である。
【図4】従来の映画システムにおけるスクリプトの構成
を説明するための図である。
【図5】本発明の実施の形態1におけるシーン制御部2
の構成を示す概略ブロック図である。
【図6】本発明の実施の形態1におけるシーンデータ格
納部22に格納されるシーン記述データの一例を説明す
るための図である。
【図7】本発明の実施の形態1におけるシーン生成制御
部21の動作を説明するためのフロー図である。
【図8】本発明の実施の形態1におけるインタラクショ
ン制御部3の構成を示す概略ブロック図である。
【図9】本発明の実施の形態1におけ認識制御部31の
動作を説明するためのフロー図である。
【図10】入力した音声から感情を認識する処理の一例
を説明するためのフロー図である。
【図11】感情認識のためのニューラルネットワークシ
ステム50の構成を概略的に示すブロック図である。
【図12】感情認識に用いるサブニューラルネットワー
クN1〜Nの構成を概略的に示す図である。
【図13】感情認識のためのニューラルネットワーク5
0で用いる感情平面Eの構成を概略的に示す図である。
【図14】本発明の実施の形態1における動作を説明す
るためのスクリプト構成の一例を示す図である。
【図15】図14に示したシーン1を構成するシーン記
述データの一例を示す図である。
【図16】図15に示したシーン記述データに基づく、
対話型映画システム100の動作を説明するためのタイ
ミングチャートである。
【符号の説明】 1 スクリプト制御部 2 シーン制御部 3 インタラクション制御部 4 音声認識部 5 感情認識部 6 画像認識部 7 映像表示制御部 8 サウンド出力制御部 11 遷移制御部 12 スクリプトデータ格納部 21 シーン生成制御部 22 シーンデータ格納部 31 認識制御部 32 認識辞書格納部 33 認識結果統合部 100 対話型映画システム
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 3/00 571 G10L 9/10 301C 9/10 301 G06F 15/20 Z

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 シーンを構成する映像および音声を出力
    して、前記シーンを生成する生成手段と、 前記生成されたシーンに対するユーザの感情を認識する
    認識手段と、 前記認識手段で認識された前記感情に基づき、前記生成
    されたシーンの次に遷移する前記シーンを、複数の前記
    シーンの候補の中から決定するスクリプト制御手段と、 前記決定されたシーンに基づき、前記生成手段を制御
    し、さらに、前記決定されたシーンに対応する所定のタ
    イミングで、前記決定されたシーンに基づき前記認識手
    段を制御する制御手段とを備えた、対話型映画システ
    ム。
  2. 【請求項2】 前記認識手段は、前記ユーザの音声に含
    まれる前記感情を認識する、請求項1記載の対話型映画
    システム。
  3. 【請求項3】 シーンを構成する映像および映像を出力
    して、前記シーンを生成する生成手段と、 前記生成されたシーンに対するユーザの音声および動作
    の少なくともいずれか一方と、感情とを認識する認識手
    段と、 前記認識手段での認識結果を統合して、前記ユーザのイ
    ンタラクションの結果を決定する統合手段と、 前記統合手段によるインタラクションの結果に基づき、
    前記生成されたシーンの次に遷移する前記シーンを、複
    数の前記シーンの候補の中から決定するスクリプト制御
    手段と、 前記決定されたシーンに基づき、前記生成手段を制御
    し、さらに、前記決定されたシーンに対応する所定のタ
    イミングで、前記決定されたシーンに基づき前記認識手
    段を制御する制御手段とを備えた、対話型映画システ
    ム。
  4. 【請求項4】 前記認識手段は、 前記ユーザの音声を認識する音声認識手段と、 前記ユーザの動作を認識する動作認識手段と、 前記ユーザの音声に含まれる前記ユーザの感情を認識す
    る感情認識手段とを備える、請求項3記載の対話型映画
    システム。
JP1690097A 1997-01-30 1997-01-30 対話型映画システム Expired - Fee Related JP2874858B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1690097A JP2874858B2 (ja) 1997-01-30 1997-01-30 対話型映画システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1690097A JP2874858B2 (ja) 1997-01-30 1997-01-30 対話型映画システム

Publications (2)

Publication Number Publication Date
JPH10214024A true JPH10214024A (ja) 1998-08-11
JP2874858B2 JP2874858B2 (ja) 1999-03-24

Family

ID=11929029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1690097A Expired - Fee Related JP2874858B2 (ja) 1997-01-30 1997-01-30 対話型映画システム

Country Status (1)

Country Link
JP (1) JP2874858B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032306A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab メール伝送システム
US6721706B1 (en) 2000-10-30 2004-04-13 Koninklijke Philips Electronics N.V. Environment-responsive user interface/entertainment device that simulates personal interaction
US6728679B1 (en) 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
US6731307B1 (en) 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US6795808B1 (en) 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data
JP2005352151A (ja) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology 人間の感情状態に応じた音楽出力装置及び音楽出力方法
JP2005352154A (ja) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology 感情状態反応動作装置
JP2008217447A (ja) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> コンテンツ生成装置及びコンテンツ生成プログラム
JP2009282824A (ja) * 2008-05-23 2009-12-03 Toyota Central R&D Labs Inc 感情推定装置及びプログラム
US8285654B2 (en) 2006-06-29 2012-10-09 Nathan Bajrach Method and system of providing a personalized performance
US10255361B2 (en) 2015-08-19 2019-04-09 International Business Machines Corporation Video clips generation system
CN110164426A (zh) * 2018-02-10 2019-08-23 佛山市顺德区美的电热电器制造有限公司 语音控制方法和计算机存储介质
JP2021032920A (ja) * 2019-08-15 2021-03-01 日本電信電話株式会社 パラ言語情報推定装置、学習装置、それらの方法、およびプログラム
JP2021056335A (ja) * 2019-09-30 2021-04-08 株式会社なごみテクノロジー 評価システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4641389B2 (ja) * 2004-06-03 2011-03-02 キヤノン株式会社 情報処理方法、情報処理装置
KR101628084B1 (ko) 2015-01-27 2016-06-21 (주)프리비젼엔터테인먼트 영화 재생 시스템
JP6872067B1 (ja) * 2020-08-31 2021-05-19 Kddi株式会社 画像表示装置及びプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032306A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab メール伝送システム
US6721706B1 (en) 2000-10-30 2004-04-13 Koninklijke Philips Electronics N.V. Environment-responsive user interface/entertainment device that simulates personal interaction
US6728679B1 (en) 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
US6731307B1 (en) 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US6795808B1 (en) 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data
JP2005352151A (ja) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology 人間の感情状態に応じた音楽出力装置及び音楽出力方法
JP2005352154A (ja) * 2004-06-10 2005-12-22 National Institute Of Information & Communication Technology 感情状態反応動作装置
JP4627154B2 (ja) * 2004-06-10 2011-02-09 独立行政法人情報通信研究機構 人間の感情状態に応じた音楽出力装置及び音楽出力方法
US8285654B2 (en) 2006-06-29 2012-10-09 Nathan Bajrach Method and system of providing a personalized performance
JP2008217447A (ja) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> コンテンツ生成装置及びコンテンツ生成プログラム
JP2009282824A (ja) * 2008-05-23 2009-12-03 Toyota Central R&D Labs Inc 感情推定装置及びプログラム
US10255361B2 (en) 2015-08-19 2019-04-09 International Business Machines Corporation Video clips generation system
US11036796B2 (en) 2015-08-19 2021-06-15 International Business Machines Corporation Video clips generation system
CN110164426A (zh) * 2018-02-10 2019-08-23 佛山市顺德区美的电热电器制造有限公司 语音控制方法和计算机存储介质
JP2021032920A (ja) * 2019-08-15 2021-03-01 日本電信電話株式会社 パラ言語情報推定装置、学習装置、それらの方法、およびプログラム
JP2021056335A (ja) * 2019-09-30 2021-04-08 株式会社なごみテクノロジー 評価システム

Also Published As

Publication number Publication date
JP2874858B2 (ja) 1999-03-24

Similar Documents

Publication Publication Date Title
JP2874858B2 (ja) 対話型映画システム
TWI778477B (zh) 互動方法、裝置、電子設備以及儲存媒體
KR102503413B1 (ko) 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체
CN107340859B (zh) 多模态虚拟机器人的多模态交互方法和系统
Bobick et al. The KidsRoom: A perceptually-based interactive and immersive story environment
CN112819933A (zh) 一种数据处理方法、装置、电子设备及存储介质
Shaviro Splitting the atom: Post-cinematic articulations of sound and vision
CN114979682A (zh) 多主播虚拟直播方法以及装置
Weijdom Mixed Reality and the Theatre of the Future
JP3002136B2 (ja) 感情変換装置
Nakatsu et al. Interactive movie system with multi-person participation and anytime interaction capabilities
Nakatsu et al. Toward the realization of interactive movies-inter communication theater: concept and system
Nakatsu et al. Construction of interactive movie system for multi-person participation
Borovoy Genuine object oriented programming
Anstey et al. The agent takes the stage
KR20210053739A (ko) 게임 플레이 콘텐츠 제작 장치
Nakatsu et al. Inter communication theater-towards the realization of interactive movies
Nakatsu et al. Concept and construction of an interactive movie system
Nakatsu et al. Concept and construction example of an interactive movie system
Tosa et al. Interactive comedy: laughter as the next intelligence system
Tosa Artistic communication for A-life and robotics
Reeve et al. Virtual rehearsal over networks
Tosa et al. Artistic communication for a‐life and robotics
Nakatsu et al. Interactive movie: A virtual world with narratives
Oliver Not Waving but Drowning: The Affect of Random Programming on the Creation of a Digital Performance Work

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981215

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees