JP2008139762A - プレゼンテーション支援装置および方法並びにプログラム - Google Patents
プレゼンテーション支援装置および方法並びにプログラム Download PDFInfo
- Publication number
- JP2008139762A JP2008139762A JP2006328217A JP2006328217A JP2008139762A JP 2008139762 A JP2008139762 A JP 2008139762A JP 2006328217 A JP2006328217 A JP 2006328217A JP 2006328217 A JP2006328217 A JP 2006328217A JP 2008139762 A JP2008139762 A JP 2008139762A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- presentation
- acoustic
- evaluation index
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Abstract
【課題】話し手の音声の状態や身体的所作等の非言語情報をより適正に把握して、より良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与する。
【解決手段】プレゼンテーション支援装置20は、話し手の音声に基づく音響情報を取得する音響情報処理部31と、話し手の身体的動作に関する画像情報を取得する画像情報処理部34と、音響情報処理部31からの音響情報に基づいて話し手による発話に関連した所定の音響的評価指標を算出すると共に、音響情報処理部31からの音響情報と画像情報処理部34からの画像情報との少なくとも何れか一方に基づいて話し手による所作に関連した所定の所作的評価指標を算出する指標演算部35と、話し手に対して指標演算部35により算出された音響的評価指標および所作的評価指標に基づくフィードバックを提供可能な統合処理部36とを有する。
【選択図】図2
【解決手段】プレゼンテーション支援装置20は、話し手の音声に基づく音響情報を取得する音響情報処理部31と、話し手の身体的動作に関する画像情報を取得する画像情報処理部34と、音響情報処理部31からの音響情報に基づいて話し手による発話に関連した所定の音響的評価指標を算出すると共に、音響情報処理部31からの音響情報と画像情報処理部34からの画像情報との少なくとも何れか一方に基づいて話し手による所作に関連した所定の所作的評価指標を算出する指標演算部35と、話し手に対して指標演算部35により算出された音響的評価指標および所作的評価指標に基づくフィードバックを提供可能な統合処理部36とを有する。
【選択図】図2
Description
本発明は、プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援装置および方法並びにプログラムに関する。
プレゼンテーションは、話し手が自らの知識や考え等を聞き手に伝達・発表する行為であり、研究発表の場のみならずビジネスシーンを始めとした様々な分野において重要な役割を果たすものである。このため、従来から、プレゼンテーション用の資料を作成するためのツールだけではなく、より良いプレゼンテーションの実行が可能となるように、実際のプレゼンテーション中に話し手にアドバイスすることやプレゼンテーションの練習を可能とするプレゼンテーション支援装置が提案されている。このようなプレゼンテーション支援装置としては、プレゼンテーション資料に対して話し手により発声された音声を解析して話し手による説明の適切度を算出し、算出した適切度に基づいて話し手にアドバイスを行うもの(例えば、特許文献1参照)や、話し手の発話速度を検出すると共に検出した発話速度に基づいて話し手にアドバイスを行うもの(例えば、特許文献2参照)等が知られている。また、このようなプレゼンテーション支援装置として、話し手の音声に基づいて当該話し手の心理状態を認識し、認識結果に応じた反応(例えば「声が上擦っていますよ」といったようなメッセージ)を発表内容と共に表示手段に表示するもの(例えば、特許文献3参照)も知られている。
特開平02−223983号公報
特開2005−208163号公報
特開平10−254484号公報
ところで、いわゆる対人コミュニケーションに関し、自己の感情等を聞き手に伝達する際、話し手は専ら音声の状態や表情、身振り等の身体的所作といった非言語情報に依存しており、コミュニケーションにおける言語情報の寄与分はごく僅かである、という研究報告もなされている。このような点に鑑みれば、より良いプレゼンテーションを実行可能とするためには、上記従来のプレゼンテーション支援装置のように話し手の音声のみを解析処理するだけでは不充分であり、プレゼンテーションの実行中や練習中に話し手による非言語情報をより適正に把握できるようにする必要がある。一方、プレゼンテーションを実行する話し手の心理状態を計数処理により正確に捉えることは困難であり、話し手の心理状態をフィードバックするプレゼンテーション支援装置には、実現性や実用性の面で問題があるといわざるを得ない。
そこで、本発明は、話し手の音声の状態や身体的所作等の非言語情報をより適正に把握可能であり、より良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るプレゼンテーション支援装置および方法並びにプログラムの提供を目的の一つとする。また、本発明は、より実用的なプレゼンテーション支援装置および方法並びにプログラムの提供を目的の一つとする。
本発明によるプレゼンテーション支援装置および方法並びにプログラムは、上述の目的の少なくとも一部を達成するために以下の手段を採っている。
本発明によるプレゼンテーション支援装置は、
プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援装置であって、
前記話し手の音声に基づく音響情報を取得する音響情報取得手段と、
前記話し手の身体的動作に関する画像情報を取得する画像情報取得手段と、
前記音響情報取得手段により取得された音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、
前記音響情報取得手段により取得された音響情報と前記画像情報取得手段により取得された画像情報との少なくと何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出する評価指標算出手段と、
前記話し手に対して前記評価指標算出手段により算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供可能なフィードバック手段と、
を備えるものである。
プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援装置であって、
前記話し手の音声に基づく音響情報を取得する音響情報取得手段と、
前記話し手の身体的動作に関する画像情報を取得する画像情報取得手段と、
前記音響情報取得手段により取得された音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、
前記音響情報取得手段により取得された音響情報と前記画像情報取得手段により取得された画像情報との少なくと何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出する評価指標算出手段と、
前記話し手に対して前記評価指標算出手段により算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供可能なフィードバック手段と、
を備えるものである。
このプレゼンテーション支援装置は、実際のプレゼンテーションやプレゼンテーションの練習に際し、話し手の音声に基づく音響情報と話し手の身体的動作に関する画像情報とを取得し、取得した音響情報に基づいてプレゼンテーション(以下、練習時のものを含む)中の話し手による発話に関連した所定の音響的評価指標を算出すると共に、取得した音響情報と画像情報との少なくとも何れか一方に基づいてプレゼンテーション中の話し手による所作に関連した所定の所作的評価指標を算出する。そして、このプレゼンテーション支援装置は、話し手に対してこれらの音響的評価指標と所作的評価指標とに基づくフィードバックをほぼリアルタイムあるいは事後的に提供可能である。このように、実際のプレゼンテーションやプレゼンテーションの練習に際して、話し手の音声に基づく音響情報のみならず話し手の身体的動作に関する画像情報を取得し、音響情報と画像情報との少なくとも何れか一方に基づいて所作的評価指標をも算出するようにすれば、プレゼンテーションの実行中あるいは練習中に話し手の音声の状態や身体的所作等の非言語情報をより適正に把握することが可能となるので、より良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なプレゼンテーション支援装置の実現が可能となる。
また、前記画像情報は、前記話し手の少なくとも顔の向きに関する顔情報を含んでもよく、前記評価指標算出手段は、前記画像情報取得手段により取得された前記顔情報に基づいて前記話し手による聞き手とのアイコンタクトの度合を示す指標を前記所作的評価指標として算出するものであってもよい。すなわち、プレゼンテーションに際して話し手がより適切に聞き手に目を向けるようになれば、そのプレゼンテーションは説得力に満ちた印象のよいものとなる。従って、このようにアイコンタクトの度合を示す指標を所作的評価指標の一つとすれば、プレゼンテーション支援装置をより良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なものとすることができる。
更に、前記音響情報は、前記話し手による連続した発話区間の時間を示す発話時間情報を含むと共に、前記画像情報は、前記話し手の少なくとも顔の向きに関する顔情報を含んでもよく、前記評価指標算出手段は、前記音響情報取得手段により取得された前記発話時間情報と前記画像情報取得手段により取得された前記顔情報との少なくとも何れか一方に基づいて前記プレゼンテーション中の前記話し手による間の取り方に関する指標を前記所作的評価指標として算出するものであってもよい。すなわち、プレゼンテーションに際して、話し手が例えば聞き手に目を向けた状態での意図的な沈黙すなわち効果的な間をより適切につくり出せれば、そのプレゼンテーションは聞き手を引きつける印象のよいものとなる。従って、音響情報と画像情報との少なくとも何れか一方に基づく間の取り方に関する指標を所作的評価指標の一つとすれば、プレゼンテーション支援装置をより良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なものとすることができる。
また、前記音響情報は、前記話し手による連続した発話区間の時間を示す発話時間情報と該発話区間における音節数を示す音節情報とを含んでもよく、前記評価指標算出手段は、前記音響情報取得手段により取得された前記発話時間情報および前記音節情報に基づいて前記話し手による話速度を示す指標を前記音響的評価指標として算出するものであってもよい。すなわち、プレゼンテーション中の話し手による話速度がより適切なものであれば、そのプレゼンテーションは聞き取りやすい印象のよいものとなる。従って、話し手による話速度を示す指標を音響的評価指標の一つとすれば、プレゼンテーション支援装置をより良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なものとすることができる。
更に、前記音響情報は、前記話し手の音声の基本周波数を示す基本周波数情報を含んでもよく、前記評価指標算出手段は、前記音響情報取得手段により取得された前記基本周波数情報に基づいて前記話し手による発話の抑揚を示す指標を前記音響的評価指標として算出するものであってもよい。すなわち、プレゼンテーション中の話し手による発話の抑揚がより適切なものであれば、そのプレゼンテーションはメリハリのきいた印象のよいものとなる。従って、話し手による発話の抑揚を示す指標を音響的評価指標の一つとすれば、プレゼンテーション支援装置をより良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なものとすることができる。
また、前記音響情報は、前記話し手の音声の基本周波数を示す基本周波数情報と該基本周波数に基づくスペクトル包絡を示すスペクトル包絡情報とを含んでもよく、前記評価指標算出手段は、前記音響情報取得手段により取得された前記基本周波数情報および前記スペクトル包絡情報に基づいて前記プレゼンテーション中の前記話し手による言い淀みに関する指標を前記音響的評価指標として算出するものであってもよい。すなわち、話し手によるプレゼンテーション中の言い淀みがより少なくなれば、そのプレゼンテーションは自信に満ちた印象のよいものとなる。従って、話し手によるプレゼンテーション中の言い淀みに関する指標を音響的評価指標の一つとすれば、プレゼンテーション支援装置をより良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なものとすることができる。
更に、前記フィードバック手段は、前記評価指標算出手段により算出された前記音響的評価指標および前記所作的評価指標の少なくとも何れか一つをそれに対応した閾値と比較すると共に、比較結果に応じて前記プレゼンテーションを実行している前記話し手に所定の警告を付与可能なものであってもよい。これにより、実際のプレゼンテーションやプレゼンテーションの練習に際し、そのプレゼンテーションがより良いものとなるように、話し手にほぼリアルタイムで現状を把握させることが可能となる。
本発明によるプレゼンテーション支援方法は、プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援方法であって、
(a)前記話し手の音声に基づく音響情報と前記話し手の身体的動作に関する画像情報とを取得するステップと、
(b)ステップ(a)で取得された前記音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、ステップ(a)で取得された前記音響情報および前記画像情報の少なくと何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出するステップと、
(c)前記話し手に対してステップ(b)で算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供するステップと、
を含むものである。
(a)前記話し手の音声に基づく音響情報と前記話し手の身体的動作に関する画像情報とを取得するステップと、
(b)ステップ(a)で取得された前記音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、ステップ(a)で取得された前記音響情報および前記画像情報の少なくと何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出するステップと、
(c)前記話し手に対してステップ(b)で算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供するステップと、
を含むものである。
このプレゼンテーション支援方法は、プレゼンテーションの実行中あるいは練習中に話し手の音声の状態や身体的所作等の非言語情報をより適正に把握することを可能とするものであり、より良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得る。
本発明によるプレゼンテーション支援プログラムは、プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援装置としてコンピュータを機能させるプレゼンテーション支援プログラムであって、
前記話し手の音声に基づく音響情報を取得する音響情報取得モジュールと、
前記話し手の身体的動作に関する画像情報を取得する画像情報取得モジュールと、
前記音響情報取得モジュールにより取得された音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、前記音響情報取得モジュールにより取得された音響情報と前記画像情報取得モジュールにより取得された画像情報との少なくとも何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出する評価指標算出モジュールと、
前記話し手に対して前記評価指標算出モジュールにより算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供可能なフィードバックモジュールと、
を備えるものである。
前記話し手の音声に基づく音響情報を取得する音響情報取得モジュールと、
前記話し手の身体的動作に関する画像情報を取得する画像情報取得モジュールと、
前記音響情報取得モジュールにより取得された音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、前記音響情報取得モジュールにより取得された音響情報と前記画像情報取得モジュールにより取得された画像情報との少なくとも何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出する評価指標算出モジュールと、
前記話し手に対して前記評価指標算出モジュールにより算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供可能なフィードバックモジュールと、
を備えるものである。
このプレゼンテーション支援プログラムがインストールされたコンピュータは、プレゼンテーションの実行中あるいは練習中に話し手の音声の状態や身体的所作等の非言語情報をより適正に把握することを可能とするものであり、より良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得る。
次に、実施例を参照しながら本発明を実施するための最良の形態について説明する。
図1は、本発明の一実施例に係るプレゼンテーション支援装置20を用いてプレゼンテーションを実行しているか、あるいはプレゼンテーションのリハーサルを行っている様子を示す説明図であり、図2は、本発明の一実施例に係るプレゼンテーション支援装置20の概略構成図である。図1および図2に示すように、実施例のプレゼンテーション支援装置20は、話し手10によるプレゼンテーションを支援するための主たる処理を実行するメインコンピュータ30と、プレゼンテーションの実行に際して話し手10により使用されるサブコンピュータ40と、プレゼンテーションを実行する話し手10を撮影して当該話し手10の画像を取り込み可能な画像取り込み手段(撮像手段)としてのカメラ50と、プレゼンテーションを実行する話し手10の音声を取り込む集音手段としてのマイクロフォン60と、所定の警告機器70(図2参照)等とを含む。
メインコンピュータ30とサブコンピュータ40とは、何れも図示しないCPU,ROM,RAM、グラフィックプロセッサ(GPU)、システムバス、各種インターフェース、記憶装置(ハードディスクドライブ)、外部記憶装置、一体化または別体化された液晶ディスプレイ等の表示ユニット等を含む汎用のコンピュータであり、両者は相互に通信可能とされる。メインコンピュータ30には、本発明によるプレゼンテーション支援プログラムがインストールされ、実施例では、サブコンピュータ40に所定のプレゼンテーションソフトがインストールされる。そして、プレゼンテーション用の資料は、サブコンピュータ40に接続されるプロジェクタ80によりスクリーン90に投影される。また、カメラ50としては、例えば一般的なウェブカメラを使用可能であり、カメラ50は、プレゼンテーションを実行する話し手10の特に顔を撮影できるように例えばサブコンピュータ40の適所に装着される。実施例では、カメラ50はサブコンピュータ40に接続されており、カメラ50からの画像データは、連続的な動画あるいは静止画としてサブコンピュータ40に一旦取り込まれる。更に、マイクロフォン60としては、ピンマイク、ヘッドセットマイク、卓上据え置き型マイク等を使用可能であり、実施例では、マイクロフォン60からの音声データはメインコンピュータ30に取り込まれる。そして、警告機器70は、メインコンピュータ30に接続され、プレゼンテーション支援に際してメインコンピュータ30からプレゼンテーションを実行する話し手10に対して所定の警告を付与する際に利用される。警告機器70は、プレゼンテーションの実行に際して話し手10の目が届きやすい位置に配置される例えばメインコンピュータ30に接続されたモニタ等とされるが、このような話し手10に警告を視覚的に付与する装置に限られず、話し手10に対して音や振動により警告を付与する装置等を警告機器70とすることもできる。例えば、マナーモード状態にある携帯電話を話し手10に所持させ、話し手10に警告を付与する際にメインコンピュータ30から当該携帯電話にメールを送信してもよい。この場合、警告の種類ごとに着信パターン(振動パターン)を異ならせれば、複数の警告を話し手10に付与することが可能となる。なお、実施例では、プレゼンテーション支援装置20の上記構成要素間における通信に、例えばRVCPプロトコル(後藤真孝他:“音声補完:音声入力インタフェースへの新しいモダリティの導入,”コンピュータソフトウェア,Vol.19,No.4,pp.10−21,2002.参照)が用いられる。
そして、メインコンピュータ30には、図2に示すように、図示しないCPUやROM,RAM,GPU、各種インターフェース、記憶装置といったハードウエアと、インストールされたプレゼンテーション支援プログラムを始めとする各種プログラムとの一方または双方の協働により、音響情報処理部31と、画像情報処理部34と、指標演算部35、統合処理部36と、データ記憶部37等とが機能ブロックとして構築されている。
音響情報処理部31は、マイクロフォン60により集音された話し手10の音声データを当該マイクロフォン60から受け取って話し手10の音声に基づく各種音響情報を算出(取得)するものであり、音響分析部32と音声認識部33とを有する。音響分析部32は、所定時間(例えば10msec)おきに、マイクロフォン60から受け取った音声データに基づいて、話し手10による連続した発話区間の時間を示す発話時間t(発話時間情報)と、話し手10の音声の基本周波数を示す基本周波数f0(基本周波数情報)と、当該基本周波数f0に基づくスペクトル包絡Se(スペクトル包絡情報)とを算出して指標演算部35に出力する。この場合、音響分析部32は、例えば入力した音声データの音声パワーに基づいて一連の発話区間の時間を算出する。また、音響分析部32は、入力した音声データについての瞬時周波数を計算すると共に瞬時周波数に関連した所定の尺度に基づいて周波数成分を抽出した上で、最も優勢な高調波構造に基づいて基本周波数f0を推定し、更に、当該基本周波数f0に基づいてスペクトル包絡Seを推定する。なお、基本周波数f0およびスペクトル包絡Seの推定には、特開2001−125584号公報に記載された手法を用いることができる。音声認識部33は、マイクロフォン60から受け取った音声データに基づいて、例えば音節(日本語における「かな」に対応した音韻体系)を単位とした音声認識処理を実行し、認識結果として音節列ごとの音節数(音節情報)にタイムスタンプ情報(話し手により発せられた音声と認識された音節との時間的な対応)情報を付与したものを指標演算部35に出力する。かかる音声認識部33は、例えば“julian”(http://julius.sourceforge.jp)という音声認識エンジンを認識結果が指標演算部35に逐次送信されるように拡張したもの(北山他:“音声スタータ:“SWITCH”on“Speech”,情報処理学会 音声言語情報処理研究会 研究報告 2003−SLP−46−12,Vol.2003,No.58,pp.67−72,May2003.)等を用いることにより容易に構成可能である。
画像情報処理部34は、カメラ50を介してサブコンピュータ40に取り込まれた画像データを当該サブコンピュータ40から受け取って話し手10の身体的動作に関する各種画像情報を算出(取得)する。実施例の画像情報処理部34は、所定時間(例えば10msec)おきに、カメラ50(サブコンピュータ40)からの画像データに基づいて話し手10の顔の位置および向き(顔情報)を算出して指標演算部35に出力する。このようにカメラ50からの画像データに基づいて話し手10の顔の位置および向きを算出する手法としては、部分空間法とSVM(Support Vector Machine)とを用いた画像処理方法があげられる(特開2005−250863号公報、および松坂要佐,“部分空間法とSVMを用いた2次元画像からの360度顔・顔部品追跡手法,”信学技報PRMU Vol.106,No.72,pp.19−24,2006.参照)。部分空間法とSVMとを用いた画像処理方法を採用する場合には、話し手10の様々な姿勢における頭部領域画像を事前データとして予め収集しておく。そして、事前データに対して主成分分析を適用して固有ベクトルのセットを得た上で、それらの固有ベクトルのセットをモデルとして使用し、入力画像に対して最もフィットするモデルを判別することで話し手10の顔の位置を求める。更に、求めた顔の位置に対してSVMを用いた顔角度推定を適用することにより話し手10の顔の向きを得ることができる。また、話し手10の顔の位置および向きを算出する際に、“AR Tool KIT”(http://www.hitl.washington.edu/artoolkit/ 参照)を用いてもよい。この場合、話し手10は、各面に所定の2次元コードが貼着された立方体であるマーカを頭部に装着した状態でプレゼンテーションを実行することになり、カメラ50によりマーカの2次元コードを撮影して、当該マーカの三次元位置と向きとから話し手10の顔の位置および向きを得ることができる。このような手法は、プレゼンテーションに際してマーカの装着を要求するが、部分空間法とSVMとを用いた画像処理方法のように話し手ごとに事前データを要求するものではないことから、特にプレゼンテーションの練習に際して手軽に利用可能なものである。
指標演算部35は、音響情報処理部31からの音響情報に基づいてプレゼンテーション中の話し手10による発話に関連した所定の音響的評価指標を算出すると共に、音響情報処理部31からの音響情報と画像情報処理部34からの画像情報との少なくとも何れか一方に基づいてプレゼンテーション中の話し手10による所作に関連した所定の所作的評価指標を算出し、算出した評価指標を統合処理部36に出力する。実施例において、指標演算部35により算出される音響的評価指標には、話し手10による話速度Vsと、話し手10による発話の抑揚(声の高さ)に関する指標Acと、プレゼンテーション中の話し手10による言い淀みに関する指標Dfとが含まれる。この場合、指標演算部35は、話し手10が音声を発していない無音区間を除いて、音声認識部33からのある音節列における音節数を音響分析部32からの当該音節列に対応した発話時間tで除して単位時間当たりの音節数を求めた上で、過去n秒間における単位時間当たりの音節数の平均値を話し手10の話速度Vsとして算出する。また、指標演算部35は、音響分析部32からの基本周波数f0に基づいて所定時間おきに当該基本周波数f0の標準偏差を算出し、かかる標準偏差が話し手10による発話の抑揚を示す指標Acとして用いられる。更に、指標演算部35は、いわゆる有声休止や音節(母音)の引き延ばしといった言い淀みには基本周波数f0の変動が少なく、かつスペクトル包絡Seの変形が小さいという特徴があることを利用して(上記特開2001−125584号公報参照)、音響分析部32からの基本周波数f0とスペクトル包絡Seとに基づいて言い淀み(有声休止および音節の引き延ばし)の有無を判定し、言い淀みを検出しなければ言い淀みの指標Dfを値0に設定すると共に、言い淀みを検出した際には言い淀みの指標Dfを値1に設定する。
一方、実施例において、指標演算部35により算出される所作的評価指標には、話し手10による聞き手100(図1参照)とのアイコンタクトの度合を示す指標EIと、プレゼンテーション中の話し手10による間の取り方に関する指標SIとが含まれる。この場合、指標演算部35は、画像情報処理部34から話し手10の顔の位置および向きを示す顔情報を受け取ると、当該顔情報に基づいて話し手10が聞き手100の方を向いているか否かを示す2値情報を求めた上で、当該2値情報からプレゼンテーション中に話し手10が聞き手100の方を向いている時間的割合をアイコンタクトの度合を示す指標EIとして算出する。実施例では、図3に示すようなプレゼンテーション環境を想定し、カメラ50と話し手10とを結ぶ面s0と聞き手100側に角度α(例えば20°、ただしプレゼンテーション環境ごとに変更され得る)をなす面s1から、当該面s1と聞き手100側に所定角度β(例えば90°、ただしプレゼンテーション環境ごとに変更され得る)をなす面s2とにより規定される範囲内(図3におけるハッチング部)に話し手10の顔の向きの水平方向角度が含まれていれば、話し手10が聞き手100側を向いているとみなしている。
また、指標演算部35は、音響分析部32からの発話時間情報や画像情報処理部34からの顔情報に基づいて、話し手10による間の取り方に関する指標SIを次のようにして算出(設定)する。ここで、プレゼンテーションにおいて効果的な「間」とは、その後の発言を強調したり、聞き手100を話に引き付けたりするように話し手10が意図的につくり出す「沈黙」をいう。そして、この沈黙は、単に発話していないだけでは何ら意味をもたず、聞き手100の方を向いた状態でなされる必要がある。その一方で、逆にプレゼンテーション中に間がなく、一つ一つの発話区間が冗長になることは聞き手100の理解を妨げ、聞き取りやすさを損なう。これらを踏まえて、実施例の指標演算部35は、音響分析部32からの発話時間情報と画像情報処理部34からの顔情報との少なくとも何れか一方に基づいて話し手10による間の取り方に関する指標SIを以下のように定義する。すなわち、指標演算部35は、発話時間情報と顔情報を用いて求められる上記2値情報とから話し手10が音声を発することなく連続して聞き手100側を見ている無音区間の時間ts(秒)を求めた上で、ts<1(秒)であるときには、SI=50とし、ts≧1(秒)であるときには、次式(1)を用いて指標SIを算出する。ただし、SI>100となったときには、SI=100とされる。また、話し手10が連続して発話している場合、指標演算部35は、発話時間情報から連続した発話時間tc(秒)を求めた上で、次式(2)を用いて指標SIを算出する。ただし、SI<0となったときには、SI=0とされる。このようにして算出される指標SIは、値50を基準とし、間が長くなるとその値も大きくなり、無音区間の時間tsが5秒以上になると最大値100となる。なお、この5秒という値は、いわゆる「びっくり間」(竹内一郎,“人は見た目が9割,”新潮新書,2005.参照)を考慮したものである。また、話し手10が発話を続けていると、式(2)より指標SIは基準値50から徐々に低下していき、発話時間tcが13秒以上になると最小値0となる。なお、この13秒という値は、深い一呼吸の時間に基づいて定められている。
SI = 50 + 12.5・(ts - 1) …(1)
SI = 50 - 50/13・tc …(2)
SI = 50 - 50/13・tc …(2)
統合処理部36は、プレゼンテーションの実行中に話し手10に対して上述のようにして指標演算部35により算出された音響的評価指標および所作的評価指標に基づくフィードバックを提供する。また、統合処理部36は、1回のプレゼンテーション中に算出された音響的評価指標および所作的評価指標のそれぞれについて、当該評価指標をプレゼンテーション資料(スライド)と関連付けした時系列のグラフを作成すること等により、話し手10に音響的評価指標および所作的評価指標に基づく事後的なフィードバックをも提供可能である。また、データ記憶部37は、プレゼンテーション支援に際して必要とされる閾値等の各種データや画像データ等を記憶する。
次に、図4および図5を参照しながら、実施例のプレゼンテーション支援装置20の動作について説明する。
図4は、話し手10がプレゼンテーションを実行している際に主にメインコンピュータ30の指標演算部35と統合処理部36とにより実行される処理の一例を示すフローチャートである。図4のルーチンの開始に際して、メインコンピュータ30の指標演算部35は、サブコンピュータ40からのプレゼンテーション関連情報、音響情報処理部31からの発話時間t(発話時間情報)、基本周波数f0およびスペクトル包絡Se、画像情報処理部34からの顔情報(話し手10の顔の位置および向き)、音節情報といった処理に必要な情報の入力処理を実行する(ステップS100)。ここで、プレゼンテーション関連情報は、サブコンピュータ40にインストールされたプレゼンテーションソフトからのプレゼンテーションの開始および終了信号、予定発表時間、プレゼンテーション資料であるスライドの切替信号、スライドのサムネイル画像といった情報を含む。ステップS100の入力処理の後、指標演算部35は、サブコンピュータ40からのプレゼンテーション関連情報に基づいて、話し手10によりプレゼンテーションが実行されているか否かを判定し(ステップS110)、プレゼンテーションが実行中であれば、上述のようにして各種音響情報や顔情報に基づいて、話し手10による話速度Vs、話し手10による発話の抑揚を示す指標Ac、言い淀みに関する指標Df、アイコンタクトの度合を示す指標EIおよび間の取り方に関する指標SIといった評価指標を算出すると共に、入力したプレゼンテーション関連情報に基づいてプレゼンテーションの予定残り時間を算出し、これらの評価指標および予定残り時間を統合処理部36に出力する(ステップS120)。
指標演算部35から音響的評価指標と所作的評価指標と予定残り時間とを受け取った統合処理部36は、各評価指標をそれに対応した閾値と比較してプレゼンテーションを実行する話し手10に警告を付与すべきか否か判定する判定処理を実行する(ステップS130)。実施例では、一般にプレゼンテーションを実行する話し手10が普段よりも早口になる傾向にあることを踏まえて、話速度Vsが所定の上限値(例えば7.6音節/秒)を超えた場合に話し手10に話速度についての警告を付与することとした。また、実施例では、抑揚の少ないモノトーンな発話を抑制させるべく、発話の抑揚を示す指標Ac(基本周波数f0の標準偏差)が所定の下限値(例えば男性の場合、10Hz)を下回った場合に抑揚についての警告を付与することとした。更に、実施例では、言い淀みの存在はプレゼンテーションのパフォーマンスに悪影響を与えてしまう要因であることから、指標Dfが値1である場合には、話し手10に言い淀みが合った旨の警告を付与することとした。加えて、実施例では、聞き手100とのアイコンタクトが少ないと聞き手100の受ける印象が悪化することを踏まえて、アイコンタクトの指標EIが所定の下限値(例えば15%)を下回った場合に話し手10にアイコンタクトについての警告を付与することとした。また、実施例では、予定発表時間は当然に遵守されるべきであることを踏まえて、予定残り時間が予定発表時間の20%となった時点で話し手10にその旨を通知することとした。なお、実施例において、間の取り方の指標SIについては閾値との比較による警告の必要性を判定しないものとしたが、間の取り方の指標SIについても適切な閾値を定めて話し手10に閾値との比較結果に応じた警告を付与してもよいことはいうまでもない。
こうしてステップS130の処理を実行したならば、警告の対象となった評価指標が存在するか否かを判定し(ステップS140)、警告の対象となった評価指標が存在していれば、当該評価指標に対応した警告表示指令を設定する(ステップS150)。実施例では、警告の対象となった評価指標が存在している場合、話し手10が用いるサブコンピュータ40の表示画面41(図2参照)に所定のマークと警告内容とを示す警告表示43を資料画像42と共に表示すると共に警告機器70(モニタ)にも同様の警告表示を表示することとしている。従って、例えば話速度Vsが上限値を超えている場合、警告表示指令は、所定のマークと共に「話速度おとせ」といった文字列を表示画面41等に表示させるための指令となる。また、抑揚、言い淀み、アイコンタクト、予定残り時間についての警告表示指令は、それぞれ所定のマークと共に「抑揚つけろ」、「よどむな」、「原稿みるな」、「時間80%経過」といった文字列を表示画面41等に表示させるための指令となる。なお、警告の対象となった評価指標が存在していなければ、ステップS150の処理はスキップされる。
ステップS140またS150の処理の後、プレゼンテーション管理情報を設定し、当該プレゼンテーション管理情報をサブコンピュータ40や所定の警告機器70に送信する(ステップS160)。プレゼンテーション管理情報は、上述の警告表示指令の他に、図5に示すリアルタイムモニタ44をサブコンピュータ40の表示画面41に表示させるための指令等を含む。実施例において、リアルタイムモニタ44は、図5に示すように、現状の予定残り時間、話速度Vs、抑揚に関する指標Ac、アイコンタクトに関する指標EIおよび間の取り方に関する指標SIを話し手10がほぼリアルタイムで把握できるようにするものとされる。これにより、プレゼンテーションを実行する話し手10に対して音響的評価指標および所作的評価指標に基づくフィードバックを良好に提供可能となる。なお、実施例のプレゼンテーション支援装置20では、上述のように各評価指標をプレゼンテーション資料(スライド)と関連付けした時系列のグラフを事後的に提供すべく、ステップS160では、各評価指標をプレゼンテーション資料と関連付けしたデータの保存処理も実行される。そして、ステップS160の処理を実行したならば、再度ステップS100以降の処理を実行し、ステップS110にてプレゼンテーションが終了したと判断した時点で本ルーチンを終了させる。
以上説明したように、実施例のプレゼンテーション支援装置20では、実際のプレゼンテーションやプレゼンテーションの練習に際し、メインコンピュータ30の音響情報処理部31によりマイクロフォン60を介して集音された話し手10の音声に基づく音響情報が取得されると共に、画像情報処理部34によりカメラ50を介して取り込まれた話し手10の身体的動作に関する画像情報とが取得される。更に、メインコンピュータ30の指標演算部35により、音響情報に基づいてプレゼンテーション中の話し手10による発話に関連した音響的評価指標が算出されると共に、音響情報と画像情報との少なくとも何れか一方に基づいてプレゼンテーション中の話し手10による所作に関連した所作的評価指標が算出される(図4のステップS130)。そして、こうして算出された音響的評価指標と所作的評価指標とは、それ自体あるいは閾値との比較結果に基づく警告という形式で話し手10にほぼリアルタイムでフィードバックされる(図4のステップS130〜S160)。また、実施例のプレゼンテーション支援装置は、話し手10に音響的評価指標および所作的評価指標に基づく事後的なフィードバックをも提供可能である。このように、実際のプレゼンテーションやプレゼンテーションの練習に際して、話し手10の音声に基づく音響情報のみならず話し手10の身体的動作に関する画像情報を取得し、音響情報と画像情報との少なくとも何れか一方に基づいて所作的評価指標をも算出するようにすれば、プレゼンテーションの実行中あるいは練習中に話し手10の音声の状態や身体的所作等の非言語情報をより適正に把握可能となるので、実施例のプレゼンテーション支援装置20は、より良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なものといえる。また、音響的評価指標や所作的評価指標の少なくとも何れか一つをそれに対応した閾値と比較すると共に比較結果に応じた警告を話し手10に付与すれば、実際のプレゼンテーションやプレゼンテーションの練習に際し、そのプレゼンテーションがより良いものとなるように、話し手10にほぼリアルタイムで現状を把握させることが可能となる。
更に、実施例のように、アイコンタクトの度合を示す指標EIや間の取り方に関する指標SIを所作的評価指標とすると共に、話速度Vsや、抑揚を示す指標Ac、言い淀みに関する指標Dfを音響的評価指標とすれば、プレゼンテーション支援装置20をより良いプレゼンテーションの実行やプレゼンテーションスキルの向上に寄与し得るより実用的なものとすることができる。すなわち、アイコンタクトの度合を示す指標を所作的評価指標の一つとすれば、プレゼンテーションに際して話し手10をより適切に聞き手100に目を向けるように仕向けて、そのプレゼンテーションを説得力に満ちた印象のよいものとすることが可能となる。また、音響情報と画像情報との少なくとも何れか一方に基づく間の取り方に関する指標SIを所作的評価指標の一つとすれば、話し手10が聞き手100に目を向けた状態で意図的な沈黙すなわち効果的な間をより適切につくり出せるようになり、そのプレゼンテーションを聞き手100を引きつける印象のよいものとすることができる。更に、話し手10による話速度Vsを示す指標を音響的評価指標の一つとすれば、プレゼンテーション中の話し手10による話速度がより適切なものとなり、そのプレゼンテーションを聞き取りやすい印象のよいものとすることができる。また、話し手10による発話の抑揚を示す指標Acを音響的評価指標の一つとすれば、プレゼンテーション中の話し手10による発話の抑揚をより適切なものとして、そのプレゼンテーションをメリハリのきいた印象のよいものとすることができる。更に、プレゼンテーション中の話し手10による言い淀みに関する指標Dfを音響的評価指標の一つとすれば、プレゼンテーション中の話し手10による言い淀みがより少なくなり、そのプレゼンテーションを自信に満ちた印象のよいものとすることができる。
なお、音響的評価指標や所作的評価指標は、上述のものに限られるものではなく、他の様々な指標を用いることが可能である。例えば、所作的評価指標としては、話し手10の視線や立ち位置の安定度に関する指標や、身振り手振りといったボディジェスチャに関する指標、表情に関する指標、スクリーン90に映し出される資料に対する視線に関する指標等をとりいれてもよい。また、上記実施例をメインコンピュータ30に本発明によるコンピュータ支援プログラムがインストールされるものとして説明したが、これに限られるものではなく、コンピュータ支援プログラムは、プレゼンテーションの実行に際して話し手10により使用されるサブコンピュータ40にインストールされてもよい。
以上、実施例を用いて本発明の実施の形態について説明したが、本発明は上記各実施例に何ら限定されるものではなく、本発明の要旨を逸脱しない範囲内において、様々な変更をなし得ることはいうまでもない。
本発明は、プレゼンテーション支援ツールの製造業、プレゼンテーションの講習業等において利用可能である。
10 話し手、20 プレゼンテーション支援装置、30 メインコンピュータ、31 音響情報処理部、32 音響分析部、33 音声認識部、34 画像情報処理部、35 指標演算部、36 統合処理部、37 データ記憶部、40 サブコンピュータ、41 表示画面、42 資料画像、43 警告表示、44 リアルタイムモニタ、50 カメラ、60 マイクロフォン、70 警告機器、 80 プロジェクタ、90 スクリーン、100 聞き手。
Claims (9)
- プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援装置であって、
前記話し手の音声に基づく音響情報を取得する音響情報取得手段と、
前記話し手の身体的動作に関する画像情報を取得する画像情報取得手段と、
前記音響情報取得手段により取得された音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、前記音響情報取得手段により取得された音響情報と前記画像情報取得手段により取得された画像情報との少なくと何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出する評価指標算出手段と、
前記話し手に対して前記評価指標算出手段により算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供可能なフィードバック手段と、
を備えるプレゼンテーション支援装置。 - 請求項1に記載のプレゼンテーション支援装置において、
前記画像情報は、前記話し手の少なくとも顔の向きに関する顔情報を含み、
前記評価指標算出手段は、前記画像情報取得手段により取得された前記顔情報に基づいて前記話し手による聞き手とのアイコンタクトの度合を示す指標を前記所作的評価指標として算出するプレゼンテーション支援装置。 - 請求項1に記載のプレゼンテーション支援装置において、
前記音響情報は、前記話し手による連続した発話区間の時間を示す発話時間情報を含むと共に、前記画像情報は、前記話し手の少なくとも顔の向きに関する顔情報を含み、
前記評価指標算出手段は、前記音響情報取得手段により取得された前記発話時間情報と前記画像情報取得手段により取得された前記顔情報との少なくとも何れか一方に基づいて前記プレゼンテーション中の前記話し手による間の取り方に関する指標を前記所作的評価指標として算出するプレゼンテーション支援装置。 - 請求項1に記載のプレゼンテーション支援装置において、
前記音響情報は、前記話し手による連続した発話区間の時間を示す発話時間情報と該発話区間における音節数を示す音節情報とを含み、
前記評価指標算出手段は、前記音響情報取得手段により取得された前記発話時間情報および前記音節情報に基づいて前記話し手による話速度を示す指標を前記音響的評価指標として算出するプレゼンテーション支援装置。 - 請求項1に記載のプレゼンテーション支援装置において、
前記音響情報は、前記話し手の音声の基本周波数を示す基本周波数情報を含み、
前記評価指標算出手段は、前記音響情報取得手段により取得された前記基本周波数情報に基づいて前記話し手による発話の抑揚を示す指標を前記音響的評価指標として算出するプレゼンテーション支援装置。 - 請求項1に記載のプレゼンテーション支援装置において、
前記音響情報は、前記話し手の音声の基本周波数を示す基本周波数情報と該基本周波数に基づくスペクトル包絡を示すスペクトル包絡情報とを含み、
前記評価指標算出手段は、前記音響情報取得手段により取得された前記基本周波数情報および前記スペクトル包絡情報に基づいて前記プレゼンテーション中の前記話し手による言い淀みに関する指標を前記音響的評価指標として算出するプレゼンテーション支援装置。 - 請求項1に記載のプレゼンテーション支援装置において、
前記フィードバック手段は、前記評価指標算出手段により算出された前記音響的評価指標および前記所作的評価指標の少なくとも何れか一つをそれに対応した閾値と比較すると共に、比較結果に応じて前記プレゼンテーションを実行している前記話し手に所定の警告を付与可能であるプレゼンテーション支援装置。 - プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援方法であって、
(a)前記話し手の音声に基づく音響情報と前記話し手の身体的動作に関する画像情報とを取得するステップと、
(b)ステップ(a)で取得された前記音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、ステップ(a)で取得された前記音響情報および前記画像情報の少なくと何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出するステップと、
(c)前記話し手に対してステップ(b)で算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供するステップと、
を含むプレゼンテーション支援方法。 - プレゼンテーションを実行する話し手を支援するためのプレゼンテーション支援装置としてコンピュータを機能させるプレゼンテーション支援プログラムであって、
前記話し手の音声に基づく音響情報を取得する音響情報取得モジュールと、
前記話し手の身体的動作に関する画像情報を取得する画像情報取得モジュールと、
前記音響情報取得モジュールにより取得された音響情報に基づいて前記プレゼンテーション中の前記話し手による発話に関連した所定の音響的評価指標を算出すると共に、前記音響情報取得モジュールにより取得された音響情報と前記画像情報取得モジュールにより取得された画像情報との少なくとも何れか一方に基づいて前記プレゼンテーション中の前記話し手による所作に関連した所定の所作的評価指標を算出する評価指標算出モジュールと、
前記話し手に対して前記評価指標算出モジュールにより算出された前記音響的評価指標および前記所作的評価指標に基づくフィードバックを提供可能なフィードバックモジュールと、
を備えるプレゼンテーション支援プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006328217A JP2008139762A (ja) | 2006-12-05 | 2006-12-05 | プレゼンテーション支援装置および方法並びにプログラム |
PCT/JP2007/073356 WO2008069187A1 (ja) | 2006-12-05 | 2007-12-04 | プレゼンテーション支援装置および方法並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006328217A JP2008139762A (ja) | 2006-12-05 | 2006-12-05 | プレゼンテーション支援装置および方法並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008139762A true JP2008139762A (ja) | 2008-06-19 |
Family
ID=39492075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006328217A Pending JP2008139762A (ja) | 2006-12-05 | 2006-12-05 | プレゼンテーション支援装置および方法並びにプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008139762A (ja) |
WO (1) | WO2008069187A1 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012095917A1 (ja) * | 2011-01-13 | 2012-07-19 | 株式会社ニコン | 電子機器および電子機器の制御プログラム |
JP2012146209A (ja) * | 2011-01-13 | 2012-08-02 | Nikon Corp | 電子機器および電子機器の制御プログラム |
WO2015114824A1 (ja) * | 2014-02-03 | 2015-08-06 | 株式会社日立製作所 | 発話訓練システム及び発話訓練方法 |
JP6241698B1 (ja) * | 2017-09-12 | 2017-12-06 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
JP2017224052A (ja) * | 2016-06-13 | 2017-12-21 | 株式会社インタラクティブソリューションズ | プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法 |
JP6288748B1 (ja) * | 2017-11-30 | 2018-03-07 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
JP2018156158A (ja) * | 2017-03-15 | 2018-10-04 | 富士通株式会社 | 発表評価システム、評価端末、撮像端末、評価方法、表示方法、評価プログラムおよび表示プログラム |
JP2018180503A (ja) * | 2017-04-10 | 2018-11-15 | 国立大学法人九州大学 | パブリックスピーキング支援装置、及びプログラム |
WO2019053958A1 (ja) * | 2017-09-12 | 2019-03-21 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
JP2020046479A (ja) * | 2018-09-14 | 2020-03-26 | Kddi株式会社 | 出力装置及び出力方法 |
JP2020149529A (ja) * | 2019-03-15 | 2020-09-17 | Co−Growth株式会社 | 動画再生装置 |
JP2021089768A (ja) * | 2021-02-19 | 2021-06-10 | 株式会社インタラクティブソリューションズ | プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法 |
WO2022224310A1 (ja) * | 2021-04-19 | 2022-10-27 | 日本電信電話株式会社 | 情報処理装置、情報処理方法およびプログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016157097A (ja) * | 2015-02-24 | 2016-09-01 | ブラザー工業株式会社 | 音読評価装置、音読評価方法、及びプログラム |
SG10201801749PA (en) | 2018-03-05 | 2019-10-30 | Kaha Pte Ltd | Methods and system for determining and improving behavioural index |
JP6739811B2 (ja) * | 2019-01-22 | 2020-08-12 | 株式会社インタラクティブソリューションズ | 発言禁止用語に対し注意を喚起するためのプレゼンテーション支援装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0795506A (ja) * | 1993-09-21 | 1995-04-07 | Ricoh Co Ltd | 情報再生記録装置 |
JPH07334075A (ja) * | 1994-06-03 | 1995-12-22 | Hitachi Ltd | プレゼンテーション支援装置 |
JPH08339446A (ja) * | 1995-06-09 | 1996-12-24 | Sharp Corp | 対話装置 |
JP2001125584A (ja) * | 1999-10-27 | 2001-05-11 | Natl Inst Of Advanced Industrial Science & Technology Meti | 言い淀み検出方法及び装置 |
JP2005208163A (ja) * | 2004-01-20 | 2005-08-04 | Canon Inc | プレゼンテーション支援装置、プレゼンテーション支援方法及び制御プログラム |
JP2005250863A (ja) * | 2004-03-04 | 2005-09-15 | Univ Waseda | 領域検出方法およびそのシステム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007219161A (ja) * | 2006-02-16 | 2007-08-30 | Ricoh Co Ltd | プレゼンテーション評価装置及びプレゼンテーション評価方法 |
JP4829696B2 (ja) * | 2006-06-19 | 2011-12-07 | 日本電信電話株式会社 | 会話支援システム |
-
2006
- 2006-12-05 JP JP2006328217A patent/JP2008139762A/ja active Pending
-
2007
- 2007-12-04 WO PCT/JP2007/073356 patent/WO2008069187A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0795506A (ja) * | 1993-09-21 | 1995-04-07 | Ricoh Co Ltd | 情報再生記録装置 |
JPH07334075A (ja) * | 1994-06-03 | 1995-12-22 | Hitachi Ltd | プレゼンテーション支援装置 |
JPH08339446A (ja) * | 1995-06-09 | 1996-12-24 | Sharp Corp | 対話装置 |
JP2001125584A (ja) * | 1999-10-27 | 2001-05-11 | Natl Inst Of Advanced Industrial Science & Technology Meti | 言い淀み検出方法及び装置 |
JP2005208163A (ja) * | 2004-01-20 | 2005-08-04 | Canon Inc | プレゼンテーション支援装置、プレゼンテーション支援方法及び制御プログラム |
JP2005250863A (ja) * | 2004-03-04 | 2005-09-15 | Univ Waseda | 領域検出方法およびそのシステム |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012146209A (ja) * | 2011-01-13 | 2012-08-02 | Nikon Corp | 電子機器および電子機器の制御プログラム |
CN103238311A (zh) * | 2011-01-13 | 2013-08-07 | 株式会社尼康 | 电子设备及电子设备的控制程序 |
WO2012095917A1 (ja) * | 2011-01-13 | 2012-07-19 | 株式会社ニコン | 電子機器および電子機器の制御プログラム |
WO2015114824A1 (ja) * | 2014-02-03 | 2015-08-06 | 株式会社日立製作所 | 発話訓練システム及び発話訓練方法 |
JP2017224052A (ja) * | 2016-06-13 | 2017-12-21 | 株式会社インタラクティブソリューションズ | プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法 |
JP2018156158A (ja) * | 2017-03-15 | 2018-10-04 | 富士通株式会社 | 発表評価システム、評価端末、撮像端末、評価方法、表示方法、評価プログラムおよび表示プログラム |
JP2018180503A (ja) * | 2017-04-10 | 2018-11-15 | 国立大学法人九州大学 | パブリックスピーキング支援装置、及びプログラム |
JP7066115B2 (ja) | 2017-04-10 | 2022-05-13 | 国立大学法人九州大学 | パブリックスピーキング支援装置、及びプログラム |
JP6241698B1 (ja) * | 2017-09-12 | 2017-12-06 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
WO2019053958A1 (ja) * | 2017-09-12 | 2019-03-21 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
JP2019049948A (ja) * | 2017-09-12 | 2019-03-28 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
JP2019101609A (ja) * | 2017-11-30 | 2019-06-24 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
JP6288748B1 (ja) * | 2017-11-30 | 2018-03-07 | ジャパンモード株式会社 | 評価支援システム及び評価支援装置 |
JP2020046479A (ja) * | 2018-09-14 | 2020-03-26 | Kddi株式会社 | 出力装置及び出力方法 |
JP2020149529A (ja) * | 2019-03-15 | 2020-09-17 | Co−Growth株式会社 | 動画再生装置 |
JP2021089768A (ja) * | 2021-02-19 | 2021-06-10 | 株式会社インタラクティブソリューションズ | プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法 |
JP7198459B2 (ja) | 2021-02-19 | 2023-01-04 | 株式会社インタラクティブソリューションズ | プレゼンテーション評価装置、プレゼンテーション評価システム、プレゼンテーション評価プログラム及びプレゼンテーション評価装置の制御方法 |
WO2022224310A1 (ja) * | 2021-04-19 | 2022-10-27 | 日本電信電話株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2008069187A1 (ja) | 2008-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008139762A (ja) | プレゼンテーション支援装置および方法並びにプログラム | |
US10702991B2 (en) | Apparatus, robot, method and recording medium having program recorded thereon | |
JP5323770B2 (ja) | ユーザ指示取得装置、ユーザ指示取得プログラムおよびテレビ受像機 | |
US8200493B1 (en) | System and method of providing conversational visual prosody for talking heads | |
US8131551B1 (en) | System and method of providing conversational visual prosody for talking heads | |
US10490101B2 (en) | Wearable device, display control method, and computer-readable recording medium | |
EP3220372B1 (en) | Wearable device, display control method, and display control program | |
JP2003255993A (ja) | 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム | |
JP6585733B2 (ja) | 情報処理装置 | |
US20170243520A1 (en) | Wearable device, display control method, and computer-readable recording medium | |
CN111475206B (zh) | 用于唤醒可穿戴设备的方法及装置 | |
JP2013205842A (ja) | プロミネンスを使用した音声対話システム | |
JP2010256391A (ja) | 音声情報処理装置 | |
Hansen et al. | On the issues of intra-speaker variability and realism in speech, speaker, and language recognition tasks | |
JP2020126195A (ja) | 音声対話装置、音声対話装置の制御装置及び制御プログラム | |
JP4411590B2 (ja) | 音声可視化方法及び該方法を記憶させた記録媒体 | |
JPWO2018079294A1 (ja) | 情報処理装置及び情報処理方法 | |
US20230148275A1 (en) | Speech synthesis device and speech synthesis method | |
JPH09269889A (ja) | 対話装置 | |
JP4381404B2 (ja) | 音声合成システム、音声合成方法、音声合成プログラム | |
WO2019198299A1 (ja) | 情報処理装置及び情報処理方法 | |
JP2003228449A (ja) | 対話装置及び対話処理プログラムを記録した記録媒体 | |
EP4006900A1 (en) | System with speaker representation, electronic device and related methods | |
JP2017219829A (ja) | 近時記憶支援装置及び近時記憶支援プログラム | |
CN116977497A (zh) | 一种动画生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111129 |