JP2001128134A - プレゼンテーション装置 - Google Patents

プレゼンテーション装置

Info

Publication number
JP2001128134A
JP2001128134A JP31070599A JP31070599A JP2001128134A JP 2001128134 A JP2001128134 A JP 2001128134A JP 31070599 A JP31070599 A JP 31070599A JP 31070599 A JP31070599 A JP 31070599A JP 2001128134 A JP2001128134 A JP 2001128134A
Authority
JP
Japan
Prior art keywords
viewer
presentation
changing
detecting
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31070599A
Other languages
English (en)
Inventor
Shinjiro Kawato
慎二郎 川戸
Tatsumi Sakaguchi
竜己 坂口
Kazuhiko Takahashi
和彦 高橋
Atsushi Otani
淳 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP31070599A priority Critical patent/JP2001128134A/ja
Publication of JP2001128134A publication Critical patent/JP2001128134A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【構成】 視聴者がスクリーン24の前に現われると、
視聴者がビデオカメラ12Lおよび12Rによって撮影
され、画像処理装置16が撮影画像に基づいて視聴者の
属性を判定する。プレゼンテーションコントローラ20
は、視聴者の属性に応じてプレゼンテーションの態様を
変更する。つまり、視聴者に好ましいキャラクタ28を
スクリーン24に表示し、視聴者が興味を持つような内
容のプレゼンテーションを行う。プレゼンテーション
は、スクリーン24に表示される画像情報およびスピー
カ26から出力される音声情報によって行われる。 【効果】 視聴者の撮影画像に基づいて視聴者の属性が
判定され、判定された属性に応じてプレゼンテーション
の態様が変更されるため、視聴者に負担をかけることな
く魅力的なプレゼンテーションを行うことができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、プレゼンテーション
装置に関し、特にプレゼンテーションの内容を示す画像
情報をモニタに表示する、プレゼンテーション装置に関
する。
【0002】
【従来の技術】従来のこの種のプレゼンテーション装置
の例が、平成7年8月4日付けで出願公開された特開平
7−200440号公報[G06F13/00,G06
F3/14,G06F15/00]、および平成10年
9月29日付けで出願公開された特開平10−2609
56号公報[G06F17/00,G06F3/14,
G06T1/00]に開示されている。このうち、前者
は、視聴者の入力情報を解析して、視聴者の心理を反映
した情報を発表者に提供するものである。また、後者
は、利用者のアクセス頻度やアクセスの曜日,時間帯な
どによってシナリオを変更するものである。
【0003】
【発明が解決しようとする課題】しかし、前者では、情
報を入力するための端末を視聴者に持たせる必要がある
ため、視聴者にとって煩わしいものとなっていた。ま
た、後者では、アクセスの情報が乏しいと、シナリオを
適切に変更できなかった。
【0004】それゆえに、この発明の主たる目的は、視
聴者に負担をかけることなく魅力的なプレゼンテーショ
ンを行うことができる、プレゼンテーション装置を提供
することである。
【0005】
【課題を解決するための手段】第1の発明は、マルチメ
ディアを用いてプレゼンテーションを行うプレゼンテー
ション装置であって、視聴者を撮影して撮影画像を出力
する撮影手段、撮影画像に基づいて視聴者の属性を判定
する判定手段、および属性に応じてプレゼンテーション
の態様を変更する変更手段を備える、プレゼンテーショ
ン装置である。
【0006】第2の発明は、マルチメディアを用いてプ
レゼンテーションを行うプレゼンテーション装置であっ
て、視聴者を撮影して撮影画像を出力する撮影手段、撮
影画像に基づいて視聴者の反応を検出する検出手段、お
よび反応に応じてプレゼンテーションの態様を変更する
変更手段を備える、プレゼンテーション装置である。
【0007】
【作用】第1の発明では、視聴者が撮影手段によって撮
影される。判定手段は、撮影画像に基づいて視聴者の属
性を判定手段し、変更手段は、判定された属性に応じて
プレゼンテーションの態様を変更する。ここで、プレゼ
ンテーションは、マルチメディアを用いて行われる。
【0008】この発明のある実施例では、プレゼンタを
示すキャラクタが、キャラクタ表示手段によってスクリ
ーンに表示される。変更手段では、キャラクタ変更手段
が視聴者の属性に応じてキャラクタを変更する。
【0009】この発明の他の実施例では、プレゼンテー
ションのための画像情報が画像情報表示手段によってス
クリーンに表示される。変更手段では、画像情報変更手
段が視聴者の属性に応じて画像情報を変更する。
【0010】この発明のその他の実施例では、プレゼン
テーションのための音声情報が、音声情報出力手段によ
って出力される。変更手段では、音声情報変更手段が視
聴者も属性に応じて音声情報を変更する。
【0011】第2の発明では、視聴者が撮影手段によっ
て撮影される。検出手段は、撮影画像に基づいて視聴者
の反応を検出し、変更手段は、視聴者の反応に応じてプ
レゼンテーションの態様を変更する。プレゼンテーショ
ンは、マルチメディアを用いて行われる。
【0012】この発明のある実施例では、検出手段は第
1位置検出手段を含み、変更手段は第1向き変更手段を
含む。第1位置検出手段は、撮影画像に基づいて視聴者
の位置を検出する。第1向き変更手段は、第1位置検出
手段の検出結果に基づいて、視聴者を指向するようにキ
ャラクタの向きを変更する。
【0013】この発明の他の実施例では、検出手段は挙
手検出手段を含み、変更手段は第2向き変更手段を含
む。挙手検出手段は、撮影画像に基づいて視聴者が挙手
したことを検出する。第2向き変更手段は、挙手に応答
して、視聴者を指向するようにキャラクタの向きを変更
する。
【0014】この発明のその他の実施例では、検出手段
は視線検出手段を含み、変更手段は第1姿勢変更手段を
含む。視線検出手段は、撮影画像に基づいて視聴者の視
線が指向する部分を検出する。また、第1姿勢変更手段
は、視聴者の視線が指向する部分を指向するようにキャ
ラクタの姿勢を変更する。
【0015】この発明のその他の実施例では、検出手段
は手先検出手段を含み、変更手段は第2姿勢変更手段を
含む。手先検出手段は、撮影画像に基づいて視聴者の手
先が指向する部分を検出する。また、第2姿勢変更手段
は、手先が指向する部分を指向するようにキャラクタの
姿勢を変更する。
【0016】この発明のその他の実施例では、検出手段
は顔動き検出手段を含み、変更手段は第1内容変更手段
を含む。顔動き検出手段は、撮影画像に基づいて視聴者
の顔の動きを検出する。第1内容変更手段は、顔の動き
に応じてプレゼンテーションの内容を変更する。
【0017】この発明のさらのその他の実施例では、視
聴者の音声が取り込み手段によって取り込まれる。第2
位置検出手段は、視聴者の音声に基づいて視聴者の位置
を検出し、第3向き変更手段は、第2位置検出手段の検
出結果に基づいて、視聴者を指向するようにキャラクタ
の向きを変更する。
【0018】
【発明の効果】第1の発明によれば、視聴者の撮影画像
に基づいて視聴者の属性が判定され、判定された属性に
応じてプレゼンテーションの態様が変更されるため、視
聴者に負担をかけることなく魅力的なプレゼンテーショ
ンを行うことができる。
【0019】第2の発明によれば、視聴者の撮影画像に
基づいて視聴者の反応が検出され、検出された反応に応
じてプレゼンテーションの態様が変更されるため、視聴
者に負担をかけることなく魅力的なプレゼンテーション
を行うことができる。
【0020】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0021】
【実施例】図1および図2を参照して、この実施例のプ
レゼンテーション装置10は、スクリーン24を含む。
スクリーン24を正面から眺めたとき、上方左端にビデ
オカメラ12Lおよびマイク14Lが配置され、上方右
端にビデオカメラ12Rおよびマイク14Rが配置され
る。さらに、下方右端にスピーカ26が配置される。ビ
デオカメラ12Lおよび12Rはスクリーン24の前の
画像を撮影し、撮影画像信号を画像処理装置16に出力
する。画像処理装置16は、入力された撮影画像信号に
基づいて所定の画像処理を行い、画像処理データをプレ
ゼンテーションコントローラ20に与える。一方、マイ
ク14Lおよび14Rはスクリーン24の周辺の音声を
取り込み、取り込んだ音声信号を音声処理装置18に出
力する。音声処理装置18は、音声信号に所定の信号処
理を施し、音声処理データをプレゼンテーションコント
ローラ20に与える。
【0022】プレゼンテーションコントローラ20は、
与えられた画像処理データおよび音声処理データに所定
の処理を施し、スクリーン24に所定の画像を表示する
とともに、スピーカ26から所定の音声メッセージを出
力する。プレゼンテーションは、スクリーン24に表示
される画像およびスピーカ26から出力される音声を用
いて、つまりマルチメディアを用いて行われる。
【0023】画像処理装置16は、具体的には図3〜図
5に示すフロー図を処理する。ステップS1では、ビデ
オカメラ12Lによって撮影された画像から背景差分法
によって背景以外の画像を抽出する。このため、ビデオ
カメラ12Lの画角内に視聴者(見学者)の全身画像が
存在するときは、この全身画像が抽出される。画像処理
装置16は次に、ステップS3で全身画像に2値化処理
を施して視聴者のシルエット画像を生成し、ステップS
5でシルエット画像の頭頂点を検出する。ステップS7
では、ステップS1で抽出された全身画像から肌色領域
を抽出する。また、ステップS9では、抽出された肌色
領域画像から顔領域および手足領域を認識し、ステップ
S11では、認識された顔領域にある両目の位置を検出
する。続くステップS13〜S23では、ビデオカメラ
12Rによって撮影された画像に対して上述のステップ
S1〜S11と同じ処理を行う。
【0024】画像処理装置16は続いてステップS25
に進み、たとえばステップS3で生成されたシルエット
画像の大きさを正規化する。この正規化処理によって、
視聴者が背の低い子供であるか背の高い大人であるかに
関係なく、全身画像の伸長は均一の値をとる。ステップ
S27では、上述のステップS5およびS17で検出さ
れた2つの頭頂点に基づいて、両眼立体視法により視聴
者の伸長を推定する。ステップS29では、正規化され
たシルエット画像および推定された身長に基づいてニュ
ーラルネットワークを用いたパターン認識を実行し、視
聴者の属性を判別する。判別された属性としては、“大
人の男性”,“大人の女性”,“男の子”,“女の子”
のいずれかを示す。
【0025】ステップS31では、両眼立体視によって
視聴者の両目,両手先および頭頂点の3次元座標を算出
する。さらに、ステップS33では、右手先の3次元座
標と視聴者のスクリーン24からの距離と視聴者の肩幅
とに基づいて、右手先がスクリーン上のどの部分を指し
ているかを判定する。この判定処理について図6を参照
して説明すると、まず両眼立体視によって視聴者のスク
リーンからの距離を算出する。次に、算出した距離とシ
ルエット画像とから視聴者の肩幅を求め、頭頂点および
肩幅から右肩座標を求める。そして、視聴者の右手先の
座標と右肩の座標とを結ぶ直線がスクリーン24内に形
成された表示スクリーン30(図2)のどの部分(左
部,中央部,右部のどの部分)を指向しているかを判定
する。なお、この実施例では、右手によってスクリーン
が指されることを前提とする。
【0026】ステップS35では、上述のステップS9
で認識された顔領域およびステップS11で検出された
両目の位置と、ステップS21で認識された顔領域およ
びステップS23で検出された両目の位置とに基づい
て、視聴者の視線が当たる部分を判定する。つまり、図
7を参照して、まずステップS9で認識された顔領域の
中心線とステップS11で検出された両目の中点とのず
れ量から、ビデオカメラ12Lと視聴者の顔を結ぶ直線
に対する視聴者の顔の正面方向の角度を求める。次に、
ステップS21およびS23で得られた顔領域および両
目に対して同じ処理を施す。そして、求められた2つの
角度に基づいて、視聴者の視線が図2に示す表示スクリ
ーン30のどの部分(左部,中央部,右部のどの部分)
を指向しているかを判定する。
【0027】ステップS37では、ステップS31で求
められた両目の3次元座標から眉間の3次元座標を算出
し、この眉間の3次元座標の時間的変化から顔の動きを
判定する。つまり、前回検出された眉間の座標と今回検
出された眉間の座標とによって1次微分を行い、視聴者
の顔が頷いている(肯定している)のか首振りをしてい
る(否定している)のかを判定する。続くステップS3
9では、ステップS31で求められた手先の3次元座標
の時間的変化から視聴者が挙手したかどうかを判定す
る。このときも、前回の手先の座標と今回の手先の座標
とに1次微分を施し、判定を行う。
【0028】画像処理装置16は、以上のような処理を
繰り返し実行し、視聴者の属性データ(男性,女性,男
の子,女の子)、頭頂点データ(頭頂点の3次元座
標)、手先データ(左部,中央部,右部)、視線データ
(左部,中央部,右部)、顔動きデータ(頷き,首振
り)および挙手データ(挙手の有無)を所定タイミング
でプレゼンテーションコントローラ20に出力する。な
お、視聴者の全身がビデオカメラ12Lおよび12Rの
画角内になければ、以上の全てのデータが不定を示す。
また、視聴者の全身が画角内にいても、手先が地面を指
していれば手先データは不定となり、視線がスクリーン
24以外を指向していれば視線データは不定となる。
【0029】音声処理装置18は、図8に示すフロー図
を処理する。まずステップS41でマイク14Lから取
り込んだ音声信号の音圧レベルを1/30秒間積算し、
左積算値を求める。ステップS43では、マイク14R
から取り込んだ音声信号に対して同様の積算処理を施
し、右積算値を求める。続いて、ステップS45で各積
算値の平均を取り、平均積算値を求める。さらに、ステ
ップS47で数1を演算し、方向パラメータを求める。
【0030】
【数1】方向パラメータ=(左積算値/平均積算値,右
積算値/平均積算値) ステップS49では、各マイク14Lおよび14Rから
取り込んだ音声信号に基づいてキーワード(単語やフレ
ーズ)を検出する。このキーワード検出処理は、たとえ
ば電子情報通信学会論文誌Vol.J81−D−II,N
o.6,pp.1065−1073に掲載された「基本
周波数パターンを利用したキーワードスポッティング」
(山下,岩崎,溝口)によって行う。検出したキーワー
ドはコード化する。
【0031】音声処理装置18は、以上のような処理を
繰り返し行い、平均積算値,方向パラメータおよびキー
ワードをプレゼンテーションコントローラ20に出力す
る。なお、平均積算値および方向パラメータが、音源デ
ータを形成する。
【0032】プレゼンテーションコントローラ20は、
図9〜図13に示すフロー図を処理する。まずステップ
S51で図2に示すキャラクタ28(たとえば大人の女
性のキャラクタ)をスクリーン24の左側に表示する。
このとき、スクリーン24にはキャラクタ28以外表示
されない。プレゼンテーションコントローラ20は次
に、ステップS53で頭頂点データを取り込み、ステッ
プS55でこの頭頂点データが不定であるかどうか判断
する。不定であれば、スクリーン24の前に視聴者は存
在しないことであり、この場合はスクリーン24の前に
視聴者が来るまでステップS53の処理が繰り返され
る。一方、頭頂点データが有効な値を示していれば、プ
レゼンテーションコントローラ20はスクリーン24の
前に視聴者がいると判断し、ステップS57に進む。ス
テップS57では属性データを取り込み、続くステップ
S59〜S63で視聴者が女の子,男の子,女性,男性
のいずれであるか判断する。
【0033】視聴者が女の子の場合、プレゼンテーショ
ンコントローラ20は、ステップS65でスクリーン2
4上のキャラクタ28を別のキャラクタ28(たとえば
おじさんのキャラクタ)に変更し、さらにステップS6
7では少なくとも目が視聴者の方向を向くようにキャラ
クタ28を変更する。ここで、おじさんのキャラクタデ
ータはデータベース22に予め記憶されており、“女の
子”を示す属性データに応答してデータベース22から
読み出される。また、視聴者の方向は、ステップS53
で取り込んだ頭頂点データによって特定し、キャラクタ
28の視線または身体全体を視聴者に向ける。プレゼン
テーションコントローラ20は続いて、ステップS69
で「いらっしゃい、お嬢ちゃん。」との合成音声による
音声メッセージをスピーカ26から出力し、ステップS
71でメニュー画像を表示スクリーン30上に表示す
る。合成音声およびメニュー画像もまた、データベース
22に予め記憶されており、さらに“女の子”を示す属
性データに応答してデータベース22から読み出され
る。
【0034】つまり、データベース22には、図14に
示すように、プレゼンテーションデータ,キャラクタデ
ータ,問い掛け用の音声メッセージデータ,メニュー画
像データが各属性毎に記憶されている。このため、スク
リーン24に表示されるキャラクタ28の種類,表示ス
クリーン30に表示されるメニュー画像,スピーカ26
によって視聴者へ問い掛ける音声メッセージならびにプ
レゼンテーションの実行時(ステップS95)に出力さ
れる画像情報および音声情報は、視聴者の属性によって
異なる。
【0035】なお、属性データが“男の子”,“女性”
または“男性”を示す場合、別の処理が実行されるが、
各処理の手順は、ステップS65以降と同じである。つ
まり、上記のキャラクタ28の種類,メニュー画像,視
聴者へ問い掛ける音声メッセージならびにプレゼンテー
ションの内容が異なるものの、処理の流れはステップS
65以降と変わらない。
【0036】プレゼンテーションコントローラ20は、
ステップS71でメニュー画像を表示した後、ステップ
S73で「どれを見たいのかな?」との音声メッセージ
をスピーカ26から出力する。つまり、視聴者に音声に
よって問い掛ける。続いて、ステップS75で手先デー
タを取り込み、ステップS77でこの手先データが不定
を示すかどうか判断する。もし不定であれば、ステップ
S79で視線データを取り込み、ステップS81でこの
視線データが不定であるかどうか判断する。そして、視
線データも不定であれば、ステップS75に戻る。一
方、手先データおよび視線データの少なくとも一方が有
効であれば、ステップS83に進む。つまり、ステップ
S73での問い掛けに対して視聴者の反応があるまで、
ステップS77〜S81の処理が繰り返される。
【0037】表示されるメニュー画像は、たとえば“赤
ずきんちゃん”,“白雪姫”および“シンデレラ”の3
つであり、各メニュー画像は表示スクリーン30の左
部,中央部および右部に表示される。視聴者が、この3
つのメニュー画像のいずれかを指差すかまたは見つめれ
ば、対応する値を示す手先データまたは視線データが画
像処理装置16から与えられる。つまり、視聴者が手先
または視線によって指向した部分を示すデータが得られ
る。ステップS83では、このような手先データまたは
視線データによって視聴者が指向するメニュー画像を検
出する。また、ステップS85では、検出したメニュー
画像を指向するようにキャラクタ28の姿勢を変更す
る。具体的には、おじさんの指が検出した画像メニュー
を指すようにキャラクタ28の表示を変更する。
【0038】プレゼンテーションコントローラ20はさ
らに、ステップS87で「これでいいのかな?」と問い
掛ける音声メッセージを出力し、その後ステップS89
で顔動きデータおよびキーワードを画像処理回路16お
よび音声処理回路18から取り込む。つまり、ステップ
S87での問い掛けに対する視聴者の反応を検出する。
ここで、顔動きデータが“首振り”を示すか、キーワー
ドが“ううん”や“違う”などの否定的な意味を示せ
ば、ステップS91で否定的反応と判断する。これに対
して、顔動きデータが“頷き”を示すか、キーワードが
“うん”や“はい”にように肯定的な意味を示せば、ス
テップS91で肯定的反応と判断する。
【0039】反応が否定的である場合、プレゼンテーシ
ョンコントローラ20は、ステップS93で「間違って
ごめんね。じゃ、どれにしようか?」との音声による問
い掛けを行い、ステップS75に戻る。一方、反応が肯
定的である場合、プレゼンテーションコントローラ20
は、ステップS95でプレゼンテーションを行う。プレ
ゼンテーションの内容は、上述のように視聴者の属性に
対応し、ここでは、女の子向けのプレゼンテーションが
行われる。このとき、複数のスライドが表示スクリーン
30に表示され、各スライドの表示中にスライドを説明
する音声が出力され、さらに音声に合わせてキャラクタ
28が動作する。
【0040】つまり、図15を参照して、実行されるプ
レゼンテーションは、複数のスライド#1,#2,…、
複数の説明音声#1−1,#1−2,…,#1−n,#
2−1,…およびキャラクタの動作記述#1−1,#1
−2,…,#1−n,#2−1,…からなる。スライド
#1が表示されている間は各説明音声#1−1,#1−
2,…,#1−nが間隔を置いて出力され、キャラクタ
28は各説明音声#1−1,#1−2,…,#1−nの
対応した動きをする。なお、キャラクタの動作記述は、
たとえば身体姿勢記述および視線記述からなる。視線記
述に“アイコンタクト”とあれば、キャラクタの視線が
視聴者の顔位置に向けられる。
【0041】このようなプレゼンテーションが終了する
と、プレゼンテーションコントローラ20はステップS
97に進み、「最後まで見てくれてありがとう。他のも
のはどうですか?」と問い掛ける音声メッセージを出力
する。そして、ステップS99で再度3つのメニュー画
像を表示スクリーン30に表示し、ステップS75に戻
る。
【0042】ステップS95でのプレゼンテーションの
間、プレゼンテーションコントローラ20は、各音声説
明が終わる毎に図11〜図13に示す割り込み処理を行
なう。つまり、まずステップS101で、音源データお
よびキーワードを音声処理装置18から取り込み、挙手
データを画像処理装置16から取り込む。続いて、ステ
ップS103,ステップS131およびステップS13
7で視聴者の反応を検出する。つまり、視聴者が「いこ
うか」と言ったかどうかをステップS103で判断し、
視聴者が「わかんない」と言ったかどうかをステップS
131で判断し、そして視聴者が挙手したかどうかをス
テップS137で判断する。ここで、いずれもNOと判
断されると、そのままメインルーチンのステップS95
に復帰する。従って、プレゼンテーションが続行され
る。
【0043】これに対して、視聴者が「いこうか」とい
った場合、プレゼンテーションコントローラ20はステ
ップS105に進み、少なくとも目が音源の方向を向く
ようにキャラクタを変更する。つまり、「いこうか」と
の声によって視聴者の位置を検出し、キャラクタ28の
視線または身体を視聴者に向けさせる。さらに、ステッ
プS107で「ちょっと待って!他のものにかえようか
?」と問い掛ける音声メッセージを出力し、ステップS
109で“継続”,“変更”および“終了”を示す3つ
のメニュー画像を表示スクリーン30に表示する。この
ときも、メニュー画像は、横方向に3つ配置される。
【0044】プレゼンテーションコントローラ20はそ
の後、ステップS111で頭頂点データを取り込み、ス
テップS113でこの頭頂点データが不定を示すかどう
か判断する。ここで不定と判断されると、ステップS5
1に戻る。上述のように、頭頂点データは視聴者がスク
リーン24の前からいなくなったときに不定を示し、こ
のとき、スクリーン24の表示は初期状態に戻る。
【0045】頭頂点データが有効である場合、プレゼン
テーションコントローラ20は、ステップS113で手
先データを取り込み、ステップS117でこの手先デー
タも不定であるかどうか判断する。不定であれば、ステ
ップS119で視線データを取り込み、ステップS12
1で視線データについても不定かどうかの判断を行う。
そして、不定であれば、ステップS111に戻る。一
方、手先データおよび視線データの少なくとも一方が有
効であれば、ステップS123に進む。つまり、頭頂点
データが有効である限り、手先データまたは視線データ
が有効になるまで、つまり視聴者が3つのメニュー画像
のいずれかを手先または視線によって指向するまで、ス
テップS111〜S121が処理される。
【0046】ステップS123では、視聴者が指向して
いるメニューを検出する。そして、検出したメニューが
“変更”であればステップS125でYESと判断し、
ステップS129でプレゼンテーションの内容を変更し
てからメインルーチンのステップS95に復帰する。こ
のため、ステップS95では、変更後の内容のプレゼン
テーションが行われる。一方、検出したメニューが“継
続”であれば、プレゼンテーションの内容を変更するこ
となくステップS95に復帰し、この結果、同じ内容の
プレゼンテーションが引き続き行われる。他方、検出し
たメニューが“終了”であればステップ51に戻り、こ
の結果、スクリーン24の表示は初期状態に戻る。
【0047】視聴者が「わかんない」といった場合、プ
レゼンテーションコントローラ20はステップS131
でYESと判断し、ステップS133で少なくとも目が
音源の方向を向くようにキャラクタ28を変更する。つ
まり、キャラクタの視線を視聴者に向けされる。そし
て、「ごめん!何がわかんないかなあ?」と問い掛ける
音声メッセージを出力し、ステップS145に進む。ま
た、視聴者が挙手をした場合、プレゼンテーションコン
トローラ20はステップS137でYESと判断し、ス
テップS139で頭頂点データを取り込む。続くステッ
プS141では頭頂点データに基づいて視聴者の位置を
検出し、視聴者の方向を向くようにキャラクタ28の姿
勢または視線を変更する。その後、ステップS143で
「何か質問かな?」と問い掛ける音声メッセージを出力
し、ステップS145に進む。
【0048】ステップS145では、予め記憶された質
問メニューを表示スクリーン30に表示する。このと
き、表示されるメニュー画像は、たとえば“登場するキ
ャラクタの名前”,“物語の時代”,“物語の場所”の
3つであり、かつ各メニュー画像は表示スクリーン30
の左部,中央部および右部に配置される。プレゼンテー
ションコントローラ20は続いて、ステップS147で
手先データを取り込み、ステップS149でこの手先デ
ータが不定であるかどうか判断する。不定であれば、ス
テップS151で視線データを取り込み、ステップS1
53で視線データについても不定かどうかの判断を行
う。そして、不定であれば、ステップS147に戻る。
一方、手先データおよび視線データの少なくとも一方が
有効であれば、ステップS155に進む。つまり、ステ
ップS147〜S153の処理は、視聴者がいずれかの
質問メニューを手先または視線によって指定するまで繰
り返し行われる。
【0049】ステップS155では視聴者が指向する質
問メニューを検出し、続くステップS157では検出し
た質問メニューの回答をする。回答は、画像および音声
のいずれかによって行う。回答が終了すると、ステップ
S95に復帰する。
【0050】以上の説明から分かるように、視聴者がス
クリーン24の前に現われると、視聴者がビデオカメラ
12Lおよび12Rによって撮影され、画像処理装置1
6が撮影画像に基づいて視聴者の属性を判定する。プレ
ゼンテーションコントローラ20は、視聴者の属性に応
じてプレゼンテーションの態様を変更する。つまり、視
聴者に好ましいキャラクタ28がスクリーン24に表示
され、視聴者が興味を持つような内容のプレゼンテーシ
ョンが行われる。プレゼンテーションは、プレゼンタの
キャラクタ28,表示スクリーン30に表示される画像
情報およびスピーカ26から出力される音声情報を用い
て、つまりマルチメディアを用いて行われる。
【0051】また、視聴者の反応が画像処理装置16お
よび音声処理装置18によって検出される。プレゼンテ
ーションコントローラ20は、検出された視聴者の反応
に基づいてプレゼンテーションの態様を変更する。
【0052】たとえば、視聴者がスクリーン24の前の
中央に立った場合、この視聴者の位置が画像処理装置1
6によって検出される。また、視聴者が声を発すると、
音源が音声処理装置18によって検出される。プレゼン
テーションコントローラ20は、キャラクタ28の視線
または身体全体が視聴者を向くように、キャラクタ28
を変更する。つまり、視聴者の立つ位置も反応の1つと
考えて、この位置に応じてキャラクタ28の向きを変更
する。また、視聴者が挙手をした場合、この挙手は、画
像処理装置16によって検出する。プレゼンテーション
コントローラ20は、このときもキャラクタ28の視線
または身体全体が視聴者を向くように、キャラクタ28
を変更する。なお、上述のいずれの場合も、キャラクタ
28の向きの変更とともに、視聴者に問い掛けをする音
声メッセージがスピーカ26から出力される。
【0053】視聴者が表示スクリーン30を見つめた場
合、または表示スクリーン30の方向に手先を向けた場
合、視聴者の視線または手先が指向する部分が画像処理
装置16によって検出される。プレゼンテーションコン
トローラ20は、キャラクタ28の指が視聴者の指向部
分を指すようにキャラクタ28の姿勢を変更する。プレ
ゼンテーションコントローラ20はまた、このような視
線および手先の方向の検出の前後で所定の音声メッセー
ジによって視聴者に問い掛ける。
【0054】音声メッセージによる問い掛けに対して視
聴者が顔を動かして返事をした場合、この顔の動きが画
像処理装置16によって検出される。キャラクタ28の
問い掛けに対して視聴者が声で返事をした場合は、返事
の内容が音声処理装置18によって検出される。プレゼ
ンテーションコントローラ20は、返事が肯定的である
か否定的であるかによって、この返事に対する応答を変
更する。この視聴者の返事もまた視聴者の反応であり、
返事によって音声または画像の内容が変更される。つま
り、プレゼンテーションの態様が変更される。
【0055】この実施例によれば、ビデオカメラおよび
画像処理装置によって視聴者の属性を判定するととも
に、同じビデオカメラおよび画像処理装置とマイクおよ
び音声処理装置とによって視聴者の反応を検出し、属性
および反応によってプレゼンテーションの態様を変更す
るようにしたため、視聴者に負担をかけることなく魅力
的なプレゼンテーションを行うことができる。
【図面の簡単な説明】
【図1】この発明の一実施例の構成を示すブロック図で
ある。
【図2】図1実施例の外観を示す正面図解図である。
【図3】図1実施例の画像処理動作の一部を示すフロー
図である。
【図4】図1実施例の画像処理動作の他の一部を示すフ
ロー図である。
【図5】図1実施例の画像処理動作のさらにその他の一
部を示すフロー図である。
【図6】図1実施例の手先の指向動作を示す図解図であ
る。
【図7】図1実施例の視線の指向動作を示す図解図であ
る。
【図8】図1実施例の音声処理動作を示すフロー図であ
る。
【図9】図1実施例のプレゼンテーション動作の一部を
示すフロー図である。
【図10】図1実施例のプレゼンテーション動作のその
他の一部を示すフロー図である。
【図11】図1実施例のプレゼンテーション動作のさら
にその他の一部を示すフロー図である。
【図12】図1実施例のプレゼンテーション動作の他の
一部を示すフロー図である。
【図13】図1実施例のプレゼンテーション動作のさら
にその他の一部を示すフロー図である。
【図14】図1実施例の動作の具体的内容を示す図解図
である。
【図15】図1実施例の動作の具体的詳細を示す図解図
である。
【符号の説明】
10…プレゼンテーション装置 12L,12R…ビデオカメラ 14L,14R…マイク 16…画像処理装置 18…音声処理装置 20…プレゼンテーション装置 22…データベース 24…スクリーン 26…スピーカ 28…キャラクタ 30…表示スクリーン
───────────────────────────────────────────────────── フロントページの続き (72)発明者 坂口 竜己 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 (72)発明者 高橋 和彦 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 (72)発明者 大谷 淳 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 5B057 BA02 CA01 CA08 CA12 CA16 CB18 DA06 DA11 5C064 AA06 AC02 AC06 AC12 AC16 AD13 5E501 AB13 AC14 BA14 CB14 FA32 FB25

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】マルチメディアを用いてプレゼンテーショ
    ンを行うプレゼンテーション装置であって、 視聴者を撮影して撮影画像を出力する撮影手段、 前記撮影画像に基づいて前記視聴者の属性を判定する判
    定手段、および前記視聴者の属性に応じて前記プレゼン
    テーションの態様を変更する変更手段を備える、プレゼ
    ンテーション装置。
  2. 【請求項2】プレゼンタを示すキャラクタをスクリーン
    に表示するキャラクタ表示手段をさらに備え、 前記変更手段は前記視聴者の属性に応じて前記キャラク
    タを変更するキャラクタ変更手段を含む、請求項1記載
    のプレゼンテーション装置。
  3. 【請求項3】前記プレゼンテーションのための画像情報
    をスクリーンに表示する画像情報表示手段をさらに備
    え、 前記変更手段は前記視聴者の属性に応じて前記画像情報
    を変更する画像情報変更手段を含む、請求項1または2
    記載のプレゼンテーション装置。
  4. 【請求項4】前記プレゼンテーションのための音声情報
    を出力する音声情報出力手段をさらに備え、 前記変更手段は前記視聴者の属性に応じて前記音声情報
    を変更する音声情報変更手段を含む、請求項1ないし3
    のいずれかに記載のプレゼンテーション装置。
  5. 【請求項5】マルチメディアを用いてプレゼンテーショ
    ンを行うプレゼンテーション装置であって、 視聴者を撮影して撮影画像を出力する撮影手段、 前記撮影画像に基づいて視聴者の反応を検出する検出手
    段、および前記視聴者の反応に応じて前記プレゼンテー
    ションの態様を変更する変更手段を備える、プレゼンテ
    ーション装置。
  6. 【請求項6】前記検出手段は前記撮影画像に基づいて前
    記視聴者の位置を検出する第1位置検出手段を含み、 前記変更手段は前記第1位置検出手段の検出結果に基づ
    いて前記視聴者を指向するように前記キャラクタの向き
    を変更する第1向き変更手段を含む、請求項5記載のプ
    レゼンテーション装置。
  7. 【請求項7】前記検出手段は前記撮影画像に基づいて前
    記視聴者が挙手したことを検出する挙手検出手段を含
    み、 前記変更手段は前記挙手に応答して前記視聴者を指向す
    るように前記キャラクタの向きを変更する第2向き変更
    手段を含む、請求項5または6記載のプレゼンテーショ
    ン装置。
  8. 【請求項8】前記検出手段は前記撮影画像に基づいて前
    記視聴者の視線が指向する部分を検出する視線検出手段
    を含み、 前記変更手段は前記視聴者の視線が指向する部分を指向
    するように前記キャラクタの姿勢を変更する第1姿勢変
    更手段を含む、請求項5ないし7のいずれかに記載のプ
    レゼンテーション装置。
  9. 【請求項9】前記検出手段は前記撮影画像に基づいて前
    記視聴者の手先が指向する部分を検出する手先検出手段
    を含み、 前記変更手段は前記手先が指向する部分を指向するよう
    に前記キャラクタの姿勢を変更する第2姿勢変更手段を
    含む、請求項5ないし8のいずれかに記載のプレゼンテ
    ーション装置。
  10. 【請求項10】前記検出手段は前記撮影画像に基づいて
    前記視聴者の顔の動きを検出する顔動き検出手段を含
    み、 前記変更手段は前記顔の動きに応じて前記プレゼンテー
    ションの内容を変更する内容変更手段を含む、請求項5
    ないし9のいずれかに記載のプレゼンテーション装置。
  11. 【請求項11】前記視聴者の音声を取り込む取り込み手
    段をさらに備え、 前記検出手段は前記視聴者の音声に基づいて前記視聴者
    の位置を検出する第2位置検出手段をさらに含み、 前記変更手段は前記第2位置検出手段の検出結果に基づ
    いて前記視聴者を指向するように前記キャラクタの向き
    を変更する第3向き変更手段を含む、請求項5ないし1
    0のいずれかに記載のプレゼンテーション装置。
JP31070599A 1999-11-01 1999-11-01 プレゼンテーション装置 Pending JP2001128134A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31070599A JP2001128134A (ja) 1999-11-01 1999-11-01 プレゼンテーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31070599A JP2001128134A (ja) 1999-11-01 1999-11-01 プレゼンテーション装置

Publications (1)

Publication Number Publication Date
JP2001128134A true JP2001128134A (ja) 2001-05-11

Family

ID=18008487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31070599A Pending JP2001128134A (ja) 1999-11-01 1999-11-01 プレゼンテーション装置

Country Status (1)

Country Link
JP (1) JP2001128134A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126941A (ja) * 2002-10-02 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
JP2005236428A (ja) * 2004-02-17 2005-09-02 Fuji Xerox Co Ltd コミュニケーション装置、システムおよび表示方法
EP1613069A1 (en) * 2003-04-08 2006-01-04 Sony Corporation Reproduction device and reproduction method
JP2007249595A (ja) * 2006-03-15 2007-09-27 Omron Corp 表示装置、プロジェクタ、表示システム、表示方法、表示プログラム、および記録媒体
WO2008084793A1 (ja) * 2007-01-10 2008-07-17 Brother Kogyo Kabushiki Kaisha プレゼンテーションシステムの制御装置およびプレゼンテーションシステム
JP2012079330A (ja) * 2011-12-01 2012-04-19 Olympus Imaging Corp ガイド装置およびガイド方法
JP2014011489A (ja) * 2012-06-27 2014-01-20 Nikon Corp 電子機器
JP2015187856A (ja) * 2014-03-14 2015-10-29 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP2019502193A (ja) * 2016-02-08 2019-01-24 グーグル エルエルシー 仮想現実環境におけるナビゲーション用制御システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126941A (ja) * 2002-10-02 2004-04-22 P To Pa:Kk 画像表示装置、画像表示方法及びプログラム
EP1613069A1 (en) * 2003-04-08 2006-01-04 Sony Corporation Reproduction device and reproduction method
EP1613069A4 (en) * 2003-04-08 2006-04-12 Sony Corp PLAYING DEVICE AND PLAYING METHOD
JP2005236428A (ja) * 2004-02-17 2005-09-02 Fuji Xerox Co Ltd コミュニケーション装置、システムおよび表示方法
US7657061B2 (en) 2004-02-17 2010-02-02 Fuji Xerox Co., Ltd. Communication apparatus and system handling viewer image
JP4543694B2 (ja) * 2004-02-17 2010-09-15 富士ゼロックス株式会社 コミュニケーションシステム、コミュニケーションシステムのサーバー、及びサーバーの処理方法
JP2007249595A (ja) * 2006-03-15 2007-09-27 Omron Corp 表示装置、プロジェクタ、表示システム、表示方法、表示プログラム、および記録媒体
WO2008084793A1 (ja) * 2007-01-10 2008-07-17 Brother Kogyo Kabushiki Kaisha プレゼンテーションシステムの制御装置およびプレゼンテーションシステム
JP2012079330A (ja) * 2011-12-01 2012-04-19 Olympus Imaging Corp ガイド装置およびガイド方法
JP2014011489A (ja) * 2012-06-27 2014-01-20 Nikon Corp 電子機器
JP2015187856A (ja) * 2014-03-14 2015-10-29 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP2019502193A (ja) * 2016-02-08 2019-01-24 グーグル エルエルシー 仮想現実環境におけるナビゲーション用制御システム

Similar Documents

Publication Publication Date Title
CN107340865B (zh) 多模态虚拟机器人交互方法和系统
CN109176535B (zh) 基于智能机器人的交互方法及系统
KR101533065B1 (ko) 화상통화 중 애니메이션 효과 제공 방법 및 장치
CN110519636B (zh) 语音信息播放方法、装置、计算机设备及存储介质
EP4345777A1 (en) Living body detection method and apparatus, and training method and apparatus for living body detection system
CN110418095B (zh) 虚拟场景的处理方法、装置、电子设备及存储介质
KR101894573B1 (ko) 3d 디지털 액터형 스마트폰 인터페이스 운용시스템
CN108733209A (zh) 人机交互方法、装置、机器人和存储介质
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
CN110119700A (zh) 虚拟形象控制方法、虚拟形象控制装置和电子设备
KR20190089451A (ko) 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법
JPWO2018230160A1 (ja) 情報処理システム、情報処理方法、およびプログラム
KR20120120858A (ko) 영상통화 서비스 및 그 제공방법, 이를 위한 영상통화서비스 제공서버 및 제공단말기
CN113436602A (zh) 虚拟形象语音交互方法、装置、投影设备和计算机介质
JP2001128134A (ja) プレゼンテーション装置
JP2010239499A (ja) 通信端末装置、通信制御装置、通信端末装置の通信制御方法、通信制御プログラム
US11819996B2 (en) Expression feedback method and smart robot
JP2010112979A (ja) インタラクティブ看板システム
WO2023231211A1 (zh) 语音识别方法、装置、电子设备、存储介质及产品
CN105608469A (zh) 图像分辨率的确定方法及装置
CN109740557A (zh) 对象检测方法及装置、电子设备和存储介质
WO2023275781A1 (en) Method for sensing and communicating visual focus of attention in a video conference
KR20060112426A (ko) 이미지 프로세싱을 이용한 동화 스토리 진행 방법
CN113706430A (zh) 一种图像处理方法、装置和用于图像处理的装置
CN112034986A (zh) 基于ar的交互方法、终端设备以及可读存储介质

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030114