JPWO2011158435A1 - 音声制御装置、音声制御プログラム、及び音声制御方法 - Google Patents

音声制御装置、音声制御プログラム、及び音声制御方法 Download PDF

Info

Publication number
JPWO2011158435A1
JPWO2011158435A1 JP2012520260A JP2012520260A JPWO2011158435A1 JP WO2011158435 A1 JPWO2011158435 A1 JP WO2011158435A1 JP 2012520260 A JP2012520260 A JP 2012520260A JP 2012520260 A JP2012520260 A JP 2012520260A JP WO2011158435 A1 JPWO2011158435 A1 JP WO2011158435A1
Authority
JP
Japan
Prior art keywords
animation
voice
sound
audio
stop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012520260A
Other languages
English (en)
Other versions
JP5643821B2 (ja
Inventor
航太郎 箱田
航太郎 箱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012520260A priority Critical patent/JP5643821B2/ja
Publication of JPWO2011158435A1 publication Critical patent/JPWO2011158435A1/ja
Application granted granted Critical
Publication of JP5643821B2 publication Critical patent/JP5643821B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Amplification And Gain Control (AREA)

Abstract

ユーザによりアニメーションが途中で停止されたとしても、ユーザに対して違和感を与えることなく音声を出力する。アニメーション取得部11は、ユーザの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータD1と、アニメーションに連動して再生される音声を示す音声データD2とを取得する。音声出力制御部12は、ユーザにより停止指令が入力された場合、音声属性情報D4を用いて、アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、アニメーションに整合する音声の所定の出力方法を決定し、決定した出力方法にしたがって音声を再生する。

Description

本発明は、アニメーションの音声を制御する技術に関するものである。
近年、高性能のメモリやCPUを搭載した携帯電話やデジタル家電機器が普及している。また、ブロードバンドインターネットの普及に伴い、種々のアニメーションを実現するアプリケーションやアニメーションをユーザが容易に作ることができるツール等が普及している。
このようなツールを用いて作成されたアニメーションにおいては、アニメーションの動きとアニメーションの音声との整合性を維持することが課題になっている。
この課題に対する従来技術としては、例えば特許文献1に示すアニメーション生成装置が知られている。図11は、特許文献1に記載されたアニメーション生成装置のブロック図である。
図11に示すアニメーション生成装置は、ユーザ設定部300、オブジェクト属性取得部304、サウンド加工部305、アニメーション生成部101、及び表示部102を備えている。ユーザ設定部300は、オブジェクト設定部301、アニメーション設定部302、サウンドファイル設定部303を備え、ユーザがアニメーション効果に対する設定を行う。
オブジェクト設定部301は、ユーザによる設定操作にしたがって、アニメーション表示されるオブジェクトを示すオブジェクトデータを生成する。アニメーション設定部302は、ユーザによる設定操作にしたがって、アニメーション効果を示すアニメーション効果情報を生成する。サウンドファイル設定部303は、ユーザによる設定操作にしたがって、アニメーションのサウンドデータを生成する。
オブジェクト属性取得部304は、アニメーション効果の対象となるオブジェクトの属性(形状、色、大きさ、及び位置等)を示すオブジェクト属性情報を取得する。
サウンド加工部305は、編集対応テーブル306、波形編集装置307、及び加工制御部308を備え、アニメーション効果情報及びオブジェクト属性情報に基づいて、サウンドファイルを加工編集する。
編集対応テーブル306は、オブジェクト属性情報及び波形編集用パラメータの対応関係と、アニメーション効果情報及び波形編集用パラメータの対応関係を記憶する。ここで、オブジェクト属性情報及び波形編集用パラメータの対応関係としては、例えば、視覚的に重厚な印象を受けるオブジェクトに対してはサウンドがより重厚な印象となるような関係が対応付けられている。
アニメーション効果情報及び波形編集用パラメータの対応関係としては、例えば「ズームイン」のアニメーション効果に対して、「オブジェクトが徐々に拡大表示される」の波形編集用パラメータが対応付けられているというような関係が対応付けられている。
加工制御部308は、アニメーション効果情報に対応する波形編集用パラメータを、編集対応テーブル306から特定し、特定した波形編集用パラメータを用いた波形編集処理を波形編集装置307に実行させる。
波形編集装置307は、加工制御部308により特定された波形編集用パラメータを用いて波形編集処理を行う。
アニメーション生成部101は、加工制御部308により加工編集されたサウンドデータを利用してアニメーション対象のオブジェクトについてのアニメーションを生成する。表示部102は、アニメーション生成部101により生成されたアニメーション及び音声を出力する。
以上により、特許文献1のアニメーション生成装置では、ユーザによって予め設定された、アニメーション表示されるオブジェクトの色、大きさ、及び形状等の特徴に合致するように、音声の長さ及び音量が調整され、アニメーションの動きと音声との整合性が図られている。
ところで、近年、デジタル家電機器のユーザインターフェイス等において、アニメーションが採用されるケースが増大している。このようなユーザインターフェイスでは、ユーザからの操作指令により途中でアニメーションが停止されることもある。
しかしながら、特許文献1に示すアニメーション生成装置では、再生途中でアニメーションが停止された場合、音声をどのようにするかについての記載が全くなされていない。そのため、アニメーション開始前にアニメーションの動きに整合するように音声を編集したとしても、ユーザからの操作指令によってアニメーションが途中で停止された場合、音声が鳴り続けてしまい、アニメーションの動きと音声との整合性を図ることができなない。その結果、ユーザに対して違和感のあるアニメーションを提供してしまうという問題が発生する。
したがって、特許文献1により生成されたアニメーションを単にデジタル家電機器等のユーザインターフェイスに適合させただけでは、ユーザにより任意のタイミングでアニメーションが停止されてしまうと、音声がそのまま鳴り続け、ユーザに対して違和感を与えるという問題がある。
特開2000−339485号公報
本発明の目的は、ユーザによりアニメーションが途中で停止されたとしても、ユーザに対して違和感を与えることなく音声を出力することができる技術を提供することである。
本発明の一局面による音声制御装置は、ユーザからの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータと、前記アニメーションデータに連動して再生される音声を示す音声データとを取得するアニメーション取得部と、開始から終了までの前記音声データの特徴を解析することで音声属性情報を生成する音声解析部と、前記アニメーションデータに基づいてアニメーションを再生し、ユーザにより前記アニメーションを停止させるための停止指令が入力された場合、前記アニメーションを停止させるアニメーション表示制御部と、前記音声データに基づいて音声を再生する音声出力制御部とを備え、前記音声出力制御部は、前記停止指令が入力された場合、前記音声属性情報を用いて、前記アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、停止するアニメーションに整合する前記音声の所定の出力方法を決定し、決定した出力方法にしたがって前記音声を再生する。
本発明の別の一局面による音声制御プログラムは、ユーザからの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータと、前記アニメーションに連動して再生される音声を示す音声データとを取得するアニメーション取得部と、開始から終了までの前記音声データの特徴を解析することで音声属性情報を生成する音声解析部と、前記アニメーションデータに基づいてアニメーションを再生し、ユーザにより前記アニメーションを停止させるための停止指令が入力された場合、前記アニメーションを停止させるアニメーション表示制御部と、前記音声データに基づいて音声を再生する音声出力制御部としてコンピュータを機能させ、前記音声出力制御部は、前記停止指令が入力された場合、前記音声属性情報を用いて、前記アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、停止するアニメーションに整合する前記音声の所定の出力方法を決定し、決定した出力方法にしたがって前記音声を再生する。
本発明の更に別の一局面による音声制御方法は、コンピュータが、ユーザからの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータと、前記アニメーションデータに連動して再生される音声を示す音声データとを取得するアニメーション取得ステップと、コンピュータが、開始から終了までの前記音声データの特徴を解析することで音声属性情報を生成する音声解析ステップと、コンピュータが、前記アニメーションデータに基づいてアニメーションを再生し、ユーザにより前記アニメーションを停止させるための停止指令が入力された場合、前記アニメーションを停止させるアニメーション表示制御ステップと、コンピュータが、前記音声データに基づいて音声を再生する音声出力制御ステップとを備え、前記音声出力制御ステップは、前記停止指令が入力された場合、前記音声属性情報を用いて、前記アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、停止するアニメーションに整合する前記音声の所定の出力方法を決定し、決定した出力方法にしたがって前記音声を再生する。
本発明の実施の形態による音声制御装置の構成を示すブロック図である。 本発明の実施の形態による音声制御装置の処理の流れを示すフローチャートである。 本発明の実施の形態による音声制御装置の処理の流れを示すフローチャートである。 制御情報記憶部に記憶された音声制御情報テーブルのデータ構造の一例を示した図である。 本発明の実施の形態によるアニメーションの概要を示した図である。 本実施の形態によるフェードアウトの方法を説明するためのグラフである。 音声属性情報保存部が保存している音声属性情報テーブルのデータ構造の一例を示した図である。 音声解析部により解析された周波数特性を示すグラフである。 フレッチャー・マンソンの等感度曲線を示したグラフである。 本発明の実施の形態2における音声制御情報テーブルのデータ構造の一例を示した図である。 特許文献1に記載されたアニメーション生成装置のブロック図である。
(実施の形態1)
以下、本発明の実施の形態における音声制御装置について、図面を参照しながら説明する。図1は、本発明の実施の形態による音声制御装置1の構成を示すブロック図である。音声制御装置1は、アニメーション取得部11、音声出力制御部12、アニメーション表示制御部13、表示部14、音声出力部15、音声解析部16、制御情報記憶部17、音声属性情報保存部18、及び操作部19を備えている。
なお、アニメーション取得部11、音声出力制御部12、アニメーション表示制御部13、音声解析部16、制御情報記憶部17、及び音声属性情報保存部18は、コンピュータを音声制御装置として機能するための音声制御プログラムをコンピュータに実行させることで実現される。この音声制御プログラムは、コンピュータ読み取り可能な記録媒体に格納してユーザに提供してもよいし、ネットワークを介してダウンロードさせることでユーザに提供してもよい。また、音声制御装置1は、ユーザがアニメーション生成する際に用いるアニメーション生成装置に適用しても良いし、デジタル家電機器のユーザインターフェイスに適用しても良い。
アニメーション取得部11は、ユーザの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータD1と、アニメーションに連動して再生される音声を示す音声データD2とを取得する。
ここで、アニメーションデータD1は、特許文献1に記載されたオブジェクトデータ、アニメーション効果情報、オブジェクト属性情報を含む。これらのデータは、ユーザが操作部19等を用いた設定操作にしたがって、予め生成されたものである。
オブジェクトデータは、アニメーション表示されるオブジェクトを定義するデータであり、例えば、3つのオブジェクトがアニメーション表示される場合、オブジェクトA、B、C等の各オブジェクト名を示すデータ等が採用される。
アニメーション効果情報は、オブジェクトデータで定義された各オブジェクトの動作等を定義するデータであり、例えば、オブジェクトの動作時間及びオブジェクトの移動パターン等が含まれる。移動パターンとしては、例えば、オブジェクトを徐々に拡大表示させるズームイン、オブジェクトを徐々に縮小表示させるズームアウト、画面上の所定の位置から所定の位置まで所定の速度でオブジェクトを移動させるスライド等が採用される。
オブジェクト属性情報は、オブジェクトデータで定義された各オブジェクトの色、大きさ、及び形状等を定義するデータである。
音声データD2は、オブジェクトデータにより定義された各オブジェクトの動作に連動して再生される音声データである。この音声データD2は、ユーザにより設定された音声データに対し、特許文献1に示す手法を用いて各オブジェクトの動作と整合するように予め編集された音声データである。
具体的には、音声データD2は、各オブジェクトのオブジェクト属性情報で定義された内容及びアニメーション効果情報で定義された内容等に対して予め対応付けられた編集パラメータにしたがって編集されている。これにより、音声データD2の元の音声データは、再生時間、音量、及び聞こえの位置等がオブジェクトの動作時間、移動パターンと整合するように編集される。
また、アニメーション取得部11は、操作部19を用いたユーザにより入力されたアニメーション開始指令を受けて、アニメーションデータD1及び音声データD2をアニメーション表示制御部13及び音声出力制御部12に出力し、アニメーションを再生させる。
なお、アニメーション取得部11は、音声制御装置1がアニメーション生成装置に適用される場合は、操作部19を用いた設定操作に基づいてアニメーションデータD1及び音声データD2を生成する。また、アニメーション取得部11は、音声制御装置1がデジタル家電機器に適用される場合は、アニメーション生成装置を用いてユーザにより生成されたアニメーションデータD1及び音声データD2を取得する。
また、アニメーション取得部11は、アニメーションの再生中に、ユーザがアニメーションを停止させるための停止指令を操作部19に入力した否かを検知する。そして、アニメーション取得部11は、停止指令の入力を検知した場合、停止指令検知通知D3をアニメーション表示制御部13及び音声出力制御部12に出力する。
ここで、アニメーション取得部11は、アニメーションの再生が開始されると、アニメーションの再生時間の計時を開始し、停止指令を検知すると、再生を開始してから停止指令を検知するまでの経過時間を求める。そして、アニメーション取得部11は、その経過時間を示す経過時間通知D5を音声出力制御部12に出力する。
音声解析部16は、音声データD2が示す音声の開始から終了までの特徴を解析することで音声属性情報D4を生成し、生成した音声属性情報D4を音声属性情報保存部18に保存する。具体的には、音声解析部16は、音声データD2が示す音声の開始から終了までの最大音量を抽出し、抽出した最大音量を音声属性情報D4として生成する。
音声出力制御部12は、停止指令検知通知D3が入力された場合、音声属性情報D4を用いて、アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、アニメーションに整合する音声の所定の出力方法を決定し、決定した出力方法にしたがって音声を再生する。
具体的には、音声出力制御部12は、音声属性情報保存部18から音声属性情報D4を取得し、取得した音声属性情報D4が示す最大音量に対する停止時の音声の相対音量(停止時音声情報の一例)を算出し、算出した相対音量が大きくなるにつれて、音量の減少率が小さくなるように、音声をフェードアウトさせる。
より具体的には、音声出力制御部12は、制御情報記憶部17に記憶された音声制御情報テーブルTB1を参照し、相対音量に応じた音声制御情報を決定し、決定した音声制御情報と、経過時間通知D5が示す経過時間とを用いて減少率を算出し、算出した減少率で音声をフェードアウトさせる。
図4は、制御情報記憶部17に記憶された音声制御情報テーブルTB1のデータ構造の一例を示した図である。音声制御情報テーブルTB1は、相対音量フィールドF1と音声制御情報フィールドF2とを含み、相対音量と音声制御情報とを対応付けて記憶している。図4の例では、音声制御情報テーブルTB1は、3つのレコードR1〜R3を備えている。レコードR1は、相対音量フィールドF1に、「高音量(最大音量の60%以上」が格納され、音声制御情報フィールドF2に、「(−1/2)*(停止時の音量/経過時間)の減少率でフェードアウト」の音声制御情報が格納されている。
したがって、音声出力制御部12は、停止時の相対音量が最大音量の60%以上の場合、(−1/2)*(停止時の音量/経過時間)の式を用いて減少率を算出し、算出した減少率で音量を徐々に減少させ、音声をフェードアウトさせる。
レコードR2は、相対音量フィールドF1に、「中音量(最大音量の40%以上、60%未満)」が格納され、音声制御情報フィールドF2に、「(−1)*(停止時の音量/経過時間)の減少率でフェードアウト」の音声制御情報が格納されている。
したがって、音声出力制御部12は、相対音量が最大音量の40%以上、60%未満の場合、(−1)*(停止時の音量/経過時間)の式を用いて減少率を算出し、算出した減少率で音量を徐々に減少させ、音声をフェードアウトさせる。
レコードR3は、相対音量フィールドF1に、「低音量(最大音量の40%)未満」が格納され、音声制御情報フィールドF2に、「(−2)*(停止時の音量/経過時間)の減少率でフェードアウト」の音声制御情報が格納されている。
したがって、音声出力制御部12は、相対音量が最大音量の40%未満の場合、(−2)*(停止時の音量/経過時間)の式を用いて減少率を算出し、算出した減少率で音量を徐々に減少させ、音声をフェードアウトさせる。
アニメーションの停止時に音声を停止させる方法としては、一般的に音声をミュートする方法が考えられる。しかしながら、アニメーションが停止すると同時に音声をミュートすると、ユーザに対して唐突に音声が途切れた印象を与えてしまい、違和感を与えてしまう。
アニメーションに音声を付加する本来の目的は、音声を付加することでより、高品位なアニメーションを作成することである。そのため、アニメーションの停止に調和するように自然な感じで音声を終了させることが好ましい。そこで、本実施の形態では、アニメーションが途中で停止した場合、音声をフェードアウトさせている。
また、アニメーションの停止時の音量が大きい場合、短時間で急速に音量をフェードアウトせるとユーザに対して違和感を与えてしまう。一方、アニメーションの停止時の音量が小さい場合、短時間で急速に音量をフェードアウトさせても、ユーザに対して違和感をさほど与えない。
そこで、図4の音声制御情報テーブルTB1では、相対音量が増大するにつれて、減少率の係数の絶対値が2,1,1/2と小さく規定されている。
これにより、停止時の音量が大きいほど音声が緩やかにフェードアウトされるため、ユーザに違和感を与えることなく、音声を停止させることができる。
なお、図4の例では、音声制御情報テーブルTB1は表形式で記述されているが、テキスト、XML、又はバイナリ等のコンピュータが読み取ることが可能な形式であれば、種々の形式で記述されていてもよい。
また、図4の例では、相対音量に応じて3つの音声制御情報が規定されているが、これに限定されず、相対音量に応じて、4つ以上又は2つの音声制御情報を規定してもよい。また、音声制御情報として、音量及び経過時間を引数として減少率を算出する関数を採用し、この関数により算出された減少率を用いて音声をフェードアウトさせてもよい。また、図4に示す相対音量の閾値も40%、60%に限定されず、30%、50%、70%等の適宜異なる値を採用してもよい。
アニメーションが停止されるまでの経過時間が長い場合、急速に音声をフェードアウトさせると、ユーザに対して音声が唐突に変化した印象を与え、ユーザに違和感を与えてしまう。
そこで、図4に示す3つの音声制御情報は、いずれも(停止時の音量/経過時間)の項を備えている。つまり、アニメーションが停止されるまでの経過時間が増大するにつれて減少率の絶対値が小さく設定され、経過時間が減少するにつれて減少率の絶対値が大きく設定される。
これにより、アニメーションが停止されるまでの経過時間が長くなるにつれて音声がゆるやかにフェードアウトされ、ユーザに与える違和感をより低減させることができる。
図5は、本発明の実施の形態によるアニメーションの概要を示した図である。図5の例では、オブジェクトOBが表示画面の左下から右上に向けて5秒間でスライドされるアニメーションが表されている。
この場合、音声データD2は、オブジェクトOBの動きと整合するように、再生時間が5秒に編集されている。そして、図5の例では、アニメーションの再生開始時刻から3秒経過した時、ユーザにより停止指令が入力されている。
そのため、アニメーションの再生開始時刻から3秒経過した時点でアニメーションが停止され、オブジェクトOBが停止されている。従来の手法においては、アニメーションが途中で停止された際に音声データに対して何らの処理も施されていなかったため、停止指令が入力され、3秒の時点からアニメーションの終了時刻である5秒の時点までの2秒の間、音声が鳴り続けていた。そのため、アニメーションの動きと音声との整合性が失われていた。
一方、本実施の形態では、停止指令が入力された時点で、音声制御情報にしたがって、音声がフェードアウトされる。そのため、アニメーションの動きと音声との整合性を維持することができる。
図6は、本実施の形態によるフェードアウトの方法を説明するためのグラフであり、縦軸は音量を示し、横軸は時間を示している。
波形W1は音声データD2が示す音声波形を示している。波形W1の最大音量は50の音量レベルを有している。よって、音声属性情報D4は50となる。アニメーションの再生が開始されてからの経過時間がT1となった点P1でユーザにより停止指令が入力されたとする。なお、音量レベルは、所定範囲内(例えば0〜100の範囲内)で規定された音量の大きさを示す数値である。
この場合、点P1の音量VL1の相対音量(=VL1/50)は40%未満であるため、図4に示すレコードR3の音声制御情報フィールドF2に格納された音声制御情報が示す「(−2)*(停止時の音量/経過時間)」を用いて減少率DR1が算出され、減少率DR1にしたがって音声がフェードアウトされる。
よって、音声は、減少率DR1の傾きを有する直線L1に沿って、音量が音量VL1から音量0に向けて徐々に小さくなるようにフェードアウトされる。
一方、アニメーションの再生が開始されてからの経過時間がT2となった点P2でユーザにより停止指令が入力されたとする。この場合、点P2の音量VL2の相対音量(=VL2/50)は60%以上であるため、図4に示すレコードR1の音声制御情報フィールドF2に格納された音声制御情報が示す「(−1/2)*(停止時の音量/経過時間)」を用いて減少率DR2が算出され、減少率DR2にしたがって音声がフェードアウトされる。
よって、音声は、減少率DR2の傾きを有する直線L2に沿って、音量が音量VL2から音量0に向けて徐々に小さくなるようにフェードアウトされる。
ここで、減少率DR2は、減少率DR1に対してほぼ1/4倍の値を有している。そのため、経過時間T1で停止指令が入力された場合よりも経過時間T2で停止指令が入力された場合の方が、相対音量が大きいため、ゆるやかに音声がフェードアウトされていることが分かる。
図1に戻り、音声出力部15は、例えばスピーカ及びスピーカを制御する制御回路等を含み、音声出力制御部12から出力される音声出力指令にしたがって、音声データD2を音声に変換して出力する。
アニメーション表示制御部13は、アニメーションデータに基づいてアニメーションを再生し、ユーザにより停止指令が入力された場合、アニメーションを停止させる。具体的には、アニメーション表示制御部13は、アニメーションデータD1が示すアニメーションを表示画面に表示するための描画指令を表示部14に出力し、表示部14にアニメーションを表示させる。
ここで、アニメーション表示制御部13は、停止指令検知通知D3がアニメーション取得部11から出力されたとき、ユーザにより停止指令が入力されたと判定し、描画を停止させるための描画停止指令を表示部14に出力し、アニメーションを停止させる。
表示部14は、描画バッファを含むグラフィックプロセッサ及び描画バッファに書き込まれた画像データを表示するディスプレイを含む。そして、表示部14は、アニメーション表示制御部13から出力される描画指令にしたがって、描画バッファにアニメーションのコマ画像の画像データを順次に書き込み、ディスプレイに順次に表示することでアニメーションを表示する。
操作部19は、例えばデジタルテレビ若しくはDVDレコーダ等のデジタル家電機器のリモコン、又はキーボード等で構成され、ユーザからの操作入力を受け付ける。本実施の形態では、操作部19は、特に、アニメーションの再生を開始させるアニメーション開始指令、及びアニメーションの再生を途中で停止させる停止指令等が入力される。
制御情報記憶部17は、例えば書き換え可能な不揮発性の記憶装置により構成され、図4に示す音声制御情報テーブルTB1を記憶する。
音声属性情報保存部18は、例えば書き換え可能な不揮発性の記憶装置により構成され、音声解析部16により生成された音声属性情報D4を記憶する。図7は、音声属性情報保存部18が保存している音声属性情報テーブルTB2のデータ構造の一例を示した図である。
音声属性情報テーブルTB2は、音声データD2のファイル名のフィールドF3と最大音量のフィールドF4とを備え、音声データD2のファイル名と音声データD2の最大音量とを対応付けて記憶している。本実施の形態では、音声属性情報D4として、最大音量が採用されているため、最大音量のフィールドF4に格納された最大音量が音声属性情報D4となる。なお、図7の例では、ファイル名がmyMusic.wavの音声データD2を解析した結果、最大音量が50であったため、ファイル名のフィールドF3には、myMusic.wavが格納され、最大音量のフィールドF4には、50が格納されている。
図7では、音声属性情報テーブルTB2は、1つのレコードにより構成されているが、アニメーション取得部11により取得される音声データD2の数に応じてレコードが追加される。
図2及び図3は、本発明の実施の形態による音声制御装置1の処理の流れを示すフローチャートである。まず、ステップS1において、アニメーション取得部11は、アニメーションデータD1及び音声データD2を取得する。この音声データD2は、ユーザにより指定された音声データをアニメーションデータD1の動きに合わせて編集することで得られた音声データである。つまり、音声データD2は、アニメーションデータD1が示すオブジェクトの色、大きさ、及び形状にしたがって、再生時間、音量、及び聞こえの位置等が予め調整されている。
次に、音声解析部16は、アニメーション取得部11により編集された音声データD2を取得し、その音声データD2を解析することで(ステップS2)、最大音量を特定し、音声属性情報D4として音声属性情報保存部18に保存する(ステップS3)。
次に、アニメーション表示制御部13は、アニメーション取得部11からアニメーションデータD1を取得し、取得したアニメーションデータD1が示すアニメーションを表示するための描画指令を表示部14に出力し、アニメーションの再生を開始する(ステップS4)。ここで、アニメーション取得部11は、アニメーションの再生時間の計時も開始する。
次に、アニメーション取得部11は、アニメーションの再生が開始されると、アニメーションが終了するまでの間、ユーザからアニメーションの停止指令が入力されたか否かを監視する(ステップS5)。
そして、アニメーション取得部11は、停止指令の入力を検出すると(ステップS6でYES)、停止指令検知通知D3をアニメーション表示制御部13及び音声出力制御部12に出力する(ステップS7)。一方、アニメーション取得部11は、停止指令の入力を検知しない場合(ステップS6でNO)、処理をステップS5に戻す。
次に、アニメーション取得部11は、アニメーションの再生が開始されてから停止指令を検知するまでの経過時間を示す経過時間通知D5を音声出力制御部12に出力する(ステップS8)。
次に、音声出力制御部12は、音声属性情報保存部18から、再生されているアニメーションの音声属性情報D4を取得する(ステップS9)。
次に、音声出力制御部12は、音声属性情報D4が示す最大音量に対する停止時の相対音量を算出し、算出した相対音量に応じた音声制御情報を音声制御情報テーブルTB1から特定する(ステップS10)。
次に、音声出力制御部12は、特定した音声制御情報が示す式に、停止時の音量、経過時間通知D5が示す経過時間を代入して減少率を算出し、算出した減少率で音声がフェードアウトされるように音声出力部15に音声出力指令を出力する(ステップS11)。
次に、音声出力部15は、音声出力制御部12から出力された音声出力指令にしたがって音声を出力する(ステップS12)。これにより、図6に示すようにアニメーションが停止された時の音量に応じて適切な減少率で音声がフェードアウトされる。
このように音声制御装置1によれば、音声を伴うアニメーションにおいて、アニメーションが再生途中でユーザにより停止された場合、停止時の音量及び再生から停止されるまでの経過時間に応じた適切な音量の減少率で音声がフェードアウトされる。そのため、アニメーションの停止に適合するように、音声を自動的に調整することが可能となり、再生途中でアニメーションが停止されたとしても、ユーザに違和感を与えることなく音声を停止させることができる。
なお、本実施の形態においては、音声データD2を音声解析部16が解析して音声属性情報D4を生成し、音声属性情報保存部18に保存する態様を採用しているが、アニメーション取得部11が音声データD2を予め解析して音声属性情報D4を生成し、音声属性情報保存部18に保存する態様を採用してもよい。
また、本実施の形態では、音声制御情報テーブルTB1に格納された音声制御情報を用いて減少率を算出し、算出した減少率で音声をフェードアウトさせているが本発明はこれに限定されない。すなわち、アニメーションが再生途中で停止されたときに算出される停止時音声情報に応じて予め定められた音声停止パターンを制御情報記憶部17に記憶させておき、ユーザにより停止指令が入力された場合、制御情報記憶部17に記憶された音声停止パターンにしたがって音声を停止させてもよい。
ここで、音声停止パターンとしては、例えば、アニメーションが停止されてから音声が停止されるまでの音声波形を示す音声データを採用することができる。この場合、制御情報記憶部17に、停止時音声情報に対応する複数の音声停止パターンを予め記憶させておく。そして、音声出力制御部12は、停止時音声情報である相対音量に対応する音声停止パターンを特定し、特定した音声停止パターンで音声を出力させるための音声出力指令を音声出力部15に出力すればよい。なお、この態様は、後述の実施の形態2に適用してもよい。
(実施の形態2)
実施の形態2による音声制御装置1は、ユーザにより停止指令が入力された場合、音量に代えて周波数特性にしたがって、音声を停止させることを特徴とする。なお、本実施の形態において、全体構成は図1と同じである。また、本実施の形態において、処理の流れも図2及び図3と同じである。また、本実施の形態において、実施の形態1と同一のものは説明を省略する。
本実施の形態において、音声解析部16は、音声データD2の開始から終了までの周波数特性の時間的推移を算出し、算出した周波数特性の時間的推移を音声属性情報D4として生成し、音声属性情報保存部18に保存する。
音声の周波数特性を解析する方法としては、音声データを入力信号とし、この入力信号に対して離散フーリエ変換を適用する手法が知られている。離散フーリエ変換は、例えば下記の式(1)によって表される。
(式1)
Figure 2011158435
ここで、f(x)は1次元の入力信号であり、xはfを規定する変数である。F(u)は、f(x)の1次元の周波数特性を示す。uはxに対応する周波数を示し、Mはサンプル点の個数を示す。
したがって、音声解析部16は、音声データD2を入力信号として、式(1)を用いて周波数特性を算出する。
離散フーリエ変換は、一般的に高速フーリエ変換を用いて実行されるが、高速フーリエ変換の方法としては、Cooley−Tukey型アルゴリズム、PrimeFactorアルゴリズムなど様々なものがある存在する。本実施の形態では、周波数特性として、振幅特性(振幅スペクトル)のみを用い、位相特性を用いない。したがって、計算時間はさほど問題とはならず、離散フーリエ変換としてどのような方式のものを採用しても良い。
図8は、音声解析部16により解析された周波数特性を示すグラフであり、(A)はある時刻における音声データD2の周波数特性を示し、(B)は音声データD2を示し、(C)はある時刻における周波数特性を示している。音声解析部16は、図8(C)に示す周波数特性を複数時刻に亘って算出し、これら複数時刻の周波数特性を音声属性情報D4として生成し、音声属性情報保存部18に保存する。
なお、音声解析部16は、例えば、音声データD2に対して周波数特性の算出期間を定める算出ウインドウを時間軸に設定し、算出ウインドウを時間軸に沿ってずらしながら、音声データD2の周波数特性を繰り返し算出することで、周波数特性の時間的推移を算出すればよい。
音声出力制御部12は、停止指令検知通知D3が入力された場合、経過時間通知D5が示す経過時間における周波数特性である停止時周波数特性(停止時音声情報の一例)を音声属性情報保存部18から特定する。そして、音声出力制御部12は、停止時周波数特性が、所定の非可聴帯域に分布している場合、音声をミュートにする。また、音声出力制御部12は、停止時周波数特性が、人間の聴力の感度が高い所定の高感度帯域に分布している場合、可聴帯域の他の帯域に分布している場合に比べて、フェードアウト時の音量の減少率を小さく設定する。
人間の聴力には周波数特性があり、人間の聴力の最低周波数は20Hz程度であり、2kHz付近を中心に聴力の感度が高くなることが知られている。よって、本実施の形態では、非可聴帯域として20Hz以下の帯域を採用し、可聴帯域として20Hzより大きく、かつ、人間の聴力の上限周波数(例えば3.5kHz〜7kHz)以下の帯域を採用する。
図9は、フレッチャー・マンソンの等感度曲線を示したグラフであり、縦軸は音圧レベル(dB)を示し、横軸は周波数(Hz)を対数スケールで示している。
図9に示すフレッチャー・マンソンの等感度曲線に従えば、おおまかに500Hz以下の低域で、周波数が低くなるほど、又は、音量が小さくなるほど、音が聞こえにくくなる、ということが知られている。
そこで、本実施の形態では、音声出力制御部12は、図10に示す音声制御情報テーブルTB11を用いて音声の出力方法を決定する。図10は、本発明の実施の形態2における音声制御情報テーブルTB11のデータ構造の一例を示した図である。図10に示すように、音声制御情報テーブルTB11は、周波数フィールドF11と音声制御情報フィールドF12とを含み、周波数と音声制御情報とを対応付けて記憶している。図10の例では、音声制御情報テーブルTB11は、5つのレコードR11〜R15を備えている。
レコードR11は、周波数フィールドF11に「非可聴帯域」が格納され、音声制御情報フィールドF2に「ミュート」の音声制御情報が格納されている。
したがって、音声出力制御部12は、停止時周波数特性が非可聴領域に分布している場合、音声をミュートにさせる。
レコードR12〜R15は可聴帯域に対応している。そして、レコードR12は、周波数フィールドF11に「20Hz〜500Hz」が格納され、音声制御情報フィールドF12に「(−2)*(停止時の音量/経過時間)の減少率でフェードアウト」の音声制御情報が格納されている。
したがって、音声出力制御部12は、停止時周波数特性が20Hz〜500Hzの帯域に分布している場合、(−2)*(停止時の音量/経過時間)の式を用いて減少率を算出し、算出した減少率で音量を徐々に減少させ、音声をフェードアウトさせる。
レコードR13は、周波数フィールドF11に「500Hz〜1500Hz」が格納され、音声制御情報フィールドF12に「(−1)*(停止時の音量/経過時間)の減少率でフェードアウト」の音声制御情報が格納されている。
したがって、音声出力制御部12は、停止時周波数特性が500Hz以上、1500Hz未満の帯域に分布している場合、(−1)*(停止時の音量/経過時間)の式を用いて減少率を算出し、算出した減少率で音量を徐々に減少させ、音声をフェードアウトさせる。
レコードR14は、周波数フィールドF11に「1500Hz〜2500Hz」が格納され、音声制御情報フィールドF12に「(−1/2)*(停止時の音量/経過時間)の減少率でフェードアウト」の音声制御情報が格納されている。本実施の形態では、「1500Hz〜2500Hz」の帯域が高感度帯域に該当する。なお、この数値は一例であり、高感度帯域の範囲をこれよりも狭くしてもよいし、広くしてもよい。
したがって、音声出力制御部12は、停止時周波数特性が1500Hz以上、2500Hz未満の帯域に分布している場合、(−1/2)*(停止時の音量/経過時間)の減少率の式を用いて減少率を算出し、算出した減少率で音量を徐々に減少させ、音声をフェードアウトさせる。
レコードR15には、周波数フィールドF11に「2500Hz〜」が格納され、音声制御情報フィールドF12に「(−1)*(停止時の音量/経過時間)の減少率でフェードアウト」の音声制御情報が格納されている。
したがって、音声出力制御部12は、停止時周波数特性が2500Hz以上の帯域に分布している場合、(−1)*(停止時の音量/経過時間)の減少率の式を用いて減少率を算出し、算出した減少率で音量を徐々に減少させ、音声をフェードアウトさせる。
つまり、音声制御情報テーブルTB11においては、レコードR12〜R15に示すように、高感度帯域における係数は−1/2であるため、可聴帯域の他の帯域より減少率の絶対値が小さく算出される。
したがって、人間の聴力が敏感になる2kHz付近に停止時周波数特性が分布している場合、他の帯域に分布している場合に比べて、ゆっくりと音声がフェードアウトされるため、ユーザに対して違和感を与えることなく音声を停止させることができる。
なお、音声出力制御部12は、停止時周波数特性がピークを示すときの周波数であるピーク周波数を求め、そのピーク周波数が図10に示す帯域のうちいずれの帯域に属しているかに応じて、停止時周波数特性がどの帯域に分布しているかを判定すればよい。
上記実施の形態1、2において、ユーザより停止指令が入力されて停止されたアニメーションが、再度、ユーザにより再開された場合、停止された箇所からアニメーションが再開される。この場合、アニメーションが停止された時の音量及び周波数周波数特性を記録しておけばよい。
そして、ユーザにより停止中のアニメーションとは異なるアニメーションの再生が指示された場合、記録した音量又は周波数特性に着目して、アニメーションを再生させればよい。
例えば停止時の周波数特性が20Hz以下の場合、または、20Hz以上500Hz未満の帯域に分布している場合、次のアニメーションの音声をそのまま再生させればよい。
また、停止時の周波数特性が2kHz付近、つまり、高感度帯域に分布している場合、図10の「(−1)*(停止時の音量/経過時間)」の減少率で前のアニメーションの音声をフェードアウトさせると共に、「(停止時の音量/経過時間)」の増加率で次のアニメーションの音声をフェードインさせればよい。フェードインの期間としてはフェードアウトの期間と同じ期間を採用すればよい。
上記の音声制御装置の技術的特徴は下記のようにまとめられる。
(1)本発明による音声制御装置は、ユーザからの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータと、前記アニメーションデータに連動して再生される音声を示す音声データとを取得するアニメーション取得部と、開始から終了までの前記音声データの特徴を解析することで音声属性情報を生成する音声解析部と、前記アニメーションデータに基づいてアニメーションを再生し、ユーザにより前記アニメーションを停止させるための停止指令が入力された場合、前記アニメーションを停止させるアニメーション表示制御部と、前記音声データに基づいて音声を再生する音声出力制御部とを備え、前記音声出力制御部は、前記停止指令が入力された場合、前記音声属性情報を用いて、前記アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、停止するアニメーションに整合する音声の所定の出力方法を決定し、決定した出力方法にしたがって音声を再生する。
この構成によれば、音声を伴うアニメーションにおいて、アニメーションが再生途中でユーザにより停止された場合、アニメーションの停止時の音声の特徴を示す停止時音声情報が算出され、この停止時音声情報に基づいて、停止するアニメーションに整合する所定の出力方法が決定される。そのため、アニメーションの停止に適合するように、音声を自動的に調整することが可能となり、再生途中でアニメーションが停止されたとしても、ユーザに違和感を与えることなく音声を出力させることができる。
(2)前記停止時音声情報に応じて予め定められた複数の音声制御情報を記憶する制御情報記憶部を更に備え、前記音声出力制御部は、前記停止時音声情報に応じた音声制御情報を決定し、決定した音声制御情報にしたがって音声を停止することが好ましい。
この構成によれば、音声制御情報記憶部に記憶された音声制御情報の中から停止時音声情報に対応する音声制御情報が決定され、決定された音声制御情報にしたがって音声が停止される。そのため、簡便かつ速やかに音声の出力方法を決定することができる。
(3)前記音声属性情報を保存する音声属性情報保存部を更に備え、前記音声出力制御部は、前記音声属性情報保存部に保存された音声属性情報を用いて、前記停止時音声情報を算出することが好ましい。
この構成によれば、アニメーションの再生に先立って音声属性情報保存部に音声属性情報が予め保存されるため、音声出力制御部は、アニメーションの停止時に速やかに音声属性情報決定し、速やかに音声の出力方法を決定することができる。
(4)前記音声属性情報は、前記音声の最大音量を示し、前記停止時音声情報は、前記最大音量に対する前記停止時の前記音声の相対音量を示し、前記音声出力制御部は、前記相対音量が大きくなるにつれて、音量の減少率が小さくなるように、音声をフェードアウトさせることが好ましい。
この構成によれば、停止時の音量が大きいほど減少率が小さく設定されて音声がフェードアウトされる。そのため、アニメーションの停止時の音量が大きい場合に、ゆっくりと音声がフェードアウトされ、ユーザに対して違和感を与えることを防止することができる。一方、アニメーションの停止時の音量が小さい場合、急速に音声がフェードアウトされるため、ユーザに対して違和感を与えることなく、急速に音声を停止させることができる。
(5)前記音声出力制御部は、前記アニメーションが停止されるまでの経過時間が増大するにつれて、前記減少率を小さく設定することが好ましい。
この構成によれば、アニメーションが停止されるまでの経過時間が増大するにつれて音声が緩やかにフィードアウトされるため、ユーザに違和感を与えることなく、音声を停止させることができる。
(6)前記音声属性情報は、前記音声データの開始から終了までの周波数特性の時間的推移を示し、前記停止時音声情報は、前記停止時の前記音声データの周波数特性を示す停止時周波数特性であり、前記音声出力制御部は、前記停止時周波数特性が所定の非可聴帯域に分布している場合、音声をミュートにし、前記停止時周波数特性が前記非可聴帯域よりも上の可聴帯域に分布している場合、音声をフェードアウトさせることが好ましい。
この構成によれば、停止時周波数特性が非可聴帯域に分布している場合、音声がミュートされ、停止時周波数特性が可聴帯域に分布している場合、音声がフェードアウトされるため、ユーザに違和感を与えることなく音声を停止させることができる。
(7)前記音声出力制御部は、前記停止時周波数特性が、人間の聴力の感度が高い所定の高感度帯域に分布している場合、前記可聴帯域の他の帯域に分布している場合に比べて、フェードアウト時の音量の減少率を小さく設定することが好ましい。
この構成によれば、停止時周波数特性が高感度帯域に分布している場合、他の帯域に分布している場合に比べて、ゆっくりと音声がフェードアウトされるため、ユーザに対して違和感を与えることなく音声を停止させることができる。
(8)前記音声出力制御部は、前記アニメーションが停止されるまでの経過時間が増大するにつれて、前記減少率を小さくすることが好ましい。
この構成によれば、アニメーションが停止されるまでの経過時間が増大するにつれて音声がゆっくりとフィードアウトされるため、ユーザに違和感を与えることなく、音声を停止させることができる。
(9)前記音声出力制御部は、前記停止時音声情報に応じて予め定められた音声停止パターンで音声を停止させることが好ましい。
この構成によれば、アニメーションが停止された場合、簡便、かつ速やかに音声を停止させることができる。
本発明の装置によれば、音声を伴うアニメーションで、アニメーション実行途中にアニメーションがユーザにより停止された場合、停止するアニメーションに整合するように、音声の出力方法が決定されるため、アニメーション生成ツールでアニメーションを開発するユーザ、及びデジタル家電機器のユーザインターフェイスを利用するユーザに対する利便性を向上させることができる。特に、今後ますます利用が増えると予想されるアニメーションソフトウェア開発に際して本発明は有用である。

Claims (11)

  1. ユーザからの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータと、前記アニメーションデータに連動して再生される音声を示す音声データとを取得するアニメーション取得部と、
    開始から終了までの前記音声データの特徴を解析することで音声属性情報を生成する音声解析部と、
    前記アニメーションデータに基づいてアニメーションを再生し、ユーザにより前記アニメーションを停止させるための停止指令が入力された場合、前記アニメーションを停止させるアニメーション表示制御部と、
    前記音声データに基づいて音声を再生する音声出力制御部とを備え、
    前記音声出力制御部は、前記停止指令が入力された場合、前記音声属性情報を用いて、前記アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、停止するアニメーションに整合する前記音声の所定の出力方法を決定し、決定した出力方法にしたがって前記音声を再生する音声制御装置。
  2. 前記停止時音声情報に応じて予め定められた複数の音声制御情報を記憶する制御情報記憶部を更に備え、
    前記音声出力制御部は、前記停止時音声情報に応じた音声制御情報を決定し、決定した音声制御情報にしたがって音声を停止する請求項1記載の音声制御装置。
  3. 前記音声属性情報を保存する音声属性情報保存部を更に備え、
    前記音声出力制御部は、前記音声属性情報保存部に保存された音声属性情報を用いて、前記停止時音声情報を算出する請求項1又は2記載の音声制御装置。
  4. 前記音声属性情報は、前記音声データの最大音量を示し、
    前記停止時音声情報は、前記最大音量に対する前記停止時の音声の相対音量を示し、
    前記音声出力制御部は、前記相対音量が大きくなるにつれて、音量の減少率が小さくなるように、音声をフェードアウトさせる請求項1〜3のいずれかに記載の音声制御装置。
  5. 前記音声出力制御部は、前記アニメーションが停止されるまでの経過時間が増大するにつれて、前記減少率を小さく設定する請求項4記載の音声制御装置。
  6. 前記音声属性情報は、前記音声データの開始から終了までの周波数特性の時間的推移を示し、
    前記停止時音声情報は、前記停止時の前記音声データの周波数特性を示す停止時周波数特性であり、
    前記音声出力制御部は、前記停止時周波数特性が所定の非可聴帯域に分布している場合、音声をミュートにし、前記停止時周波数特性が前記非可聴帯域よりも上の可聴帯域に分布している場合、音声をフェードアウトさせる請求項1〜3のいずれかに記載の音声制御装置。
  7. 前記音声出力制御部は、前記停止時周波数特性が人間の聴力の感度が高い所定の高感度帯域に分布している場合、前記停止時周波数特性が前記可聴帯域の他の帯域に分布している場合に比べて、フェードアウト時の音量の減少率を小さく設定する請求項6記載の音声制御装置。
  8. 前記音声出力制御部は、前記アニメーションが停止されるまでの経過時間が増大するにつれて、前記減少率を小さくする請求項7記載の音声制御装置。
  9. 前記音声出力制御部は、前記停止時音声情報に応じて予め定められた音声停止パターンで音声を停止させる請求項1〜3のいずれかに記載の音声制御装置。
  10. ユーザからの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータと、前記アニメーションに連動して再生される音声を示す音声データとを取得するアニメーション取得部と、
    開始から終了までの前記音声データの特徴を解析することで音声属性情報を生成する音声解析部と、
    前記アニメーションデータに基づいてアニメーションを再生し、ユーザにより前記アニメーションを停止させるための停止指令が入力された場合、前記アニメーションを停止させるアニメーション表示制御部と、
    前記音声データに基づいて音声を再生する音声出力制御部としてコンピュータを機能させ、
    前記音声出力制御部は、前記停止指令が入力された場合、前記音声属性情報を用いて、前記アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、停止するアニメーションに整合する前記音声の所定の出力方法を決定し、決定した出力方法にしたがって前記音声を再生する音声制御プログラム。
  11. コンピュータが、ユーザからの設定操作に基づいて予め生成されたアニメーションを示すアニメーションデータと、前記アニメーションデータに連動して再生される音声を示す音声データとを取得するアニメーション取得ステップと、
    コンピュータが、開始から終了までの前記音声データの特徴を解析することで音声属性情報を生成する音声解析ステップと、
    コンピュータが、前記アニメーションデータに基づいてアニメーションを再生し、ユーザにより前記アニメーションを停止させるための停止指令が入力された場合、前記アニメーションを停止させるアニメーション表示制御ステップと、
    コンピュータが、前記音声データに基づいて音声を再生する音声出力制御ステップとを備え、
    前記音声出力制御ステップは、前記停止指令が入力された場合、前記音声属性情報を用いて、前記アニメーションの停止時の音声の特徴を示す停止時音声情報を算出し、算出した停止時音声情報に基づいて、停止するアニメーションに整合する前記音声の所定の出力方法を決定し、決定した出力方法にしたがって前記音声を再生する音声制御方法。
JP2012520260A 2010-06-18 2011-05-19 音声制御装置及び音声制御方法 Expired - Fee Related JP5643821B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012520260A JP5643821B2 (ja) 2010-06-18 2011-05-19 音声制御装置及び音声制御方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010139357 2010-06-18
JP2010139357 2010-06-18
JP2012520260A JP5643821B2 (ja) 2010-06-18 2011-05-19 音声制御装置及び音声制御方法
PCT/JP2011/002801 WO2011158435A1 (ja) 2010-06-18 2011-05-19 音声制御装置、音声制御プログラム、及び音声制御方法

Publications (2)

Publication Number Publication Date
JPWO2011158435A1 true JPWO2011158435A1 (ja) 2013-08-19
JP5643821B2 JP5643821B2 (ja) 2014-12-17

Family

ID=45347852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012520260A Expired - Fee Related JP5643821B2 (ja) 2010-06-18 2011-05-19 音声制御装置及び音声制御方法

Country Status (4)

Country Link
US (1) US8976973B2 (ja)
JP (1) JP5643821B2 (ja)
CN (1) CN102473415B (ja)
WO (1) WO2011158435A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104392729B (zh) * 2013-11-04 2018-10-12 贵阳朗玛信息技术股份有限公司 一种动画内容的提供方法及装置
JP6017499B2 (ja) * 2014-06-26 2016-11-02 京セラドキュメントソリューションズ株式会社 電子機器および報知音出力プログラム
WO2017075279A1 (en) * 2015-10-27 2017-05-04 ZALON, Zack, J. Audio content production, audio sequencing, and audio blending system and method
US10296088B2 (en) * 2016-01-26 2019-05-21 Futurewei Technologies, Inc. Haptic correlated graphic effects
JP6312014B1 (ja) * 2017-08-28 2018-04-18 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
TWI639114B (zh) 2017-08-30 2018-10-21 元鼎音訊股份有限公司 具有智慧語音服務功能之電子裝置及調整輸出聲音之方法
JP2019188723A (ja) * 2018-04-26 2019-10-31 京セラドキュメントソリューションズ株式会社 画像処理装置、動作制御方法
JP7407047B2 (ja) * 2020-03-26 2023-12-28 本田技研工業株式会社 音声出力の制御方法および音声出力制御装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05232601A (ja) 1991-09-05 1993-09-10 C S K Sogo Kenkyusho:Kk アニメーション作成方法および装置
JP3454396B2 (ja) * 1995-10-11 2003-10-06 株式会社日立製作所 動画像の変化点検出制御方法とそれに基づく再生停止制御方法およびそれらを用いた動画像の編集システム
US7233948B1 (en) * 1998-03-16 2007-06-19 Intertrust Technologies Corp. Methods and apparatus for persistent control and protection of content
JP2000339485A (ja) 1999-05-25 2000-12-08 Nec Corp アニメーション生成装置
JP3629253B2 (ja) * 2002-05-31 2005-03-16 株式会社東芝 音声再生装置および同装置で用いられる音声再生制御方法
JP2006155299A (ja) 2004-11-30 2006-06-15 Sharp Corp 情報処理装置、情報処理プログラム、および、プログラム記録媒体
EP1666967B1 (en) * 2004-12-03 2013-05-08 Magix AG System and method of creating an emotional controlled soundtrack
JP4543261B2 (ja) * 2005-09-28 2010-09-15 国立大学法人電気通信大学 再生装置
US7844354B2 (en) * 2006-07-27 2010-11-30 International Business Machines Corporation Adjusting the volume of an audio element responsive to a user scrolling through a browser window
JP4823030B2 (ja) 2006-11-27 2011-11-24 株式会社ソニー・コンピュータエンタテインメント 音声処理装置および音声処理方法
JP2009117927A (ja) 2007-11-02 2009-05-28 Sony Corp 情報処理装置、情報処理方法、およびコンピュータプログラム
JP5297670B2 (ja) * 2008-03-24 2013-09-25 株式会社三共 遊技機
JP2009289385A (ja) 2008-06-02 2009-12-10 Nec Electronics Corp デジタルオーディオ信号処理装置、及び方法
JP2010128137A (ja) 2008-11-27 2010-06-10 Oki Semiconductor Co Ltd 音声出力方法及び音声出力装置
JP4519934B2 (ja) 2008-12-26 2010-08-04 株式会社東芝 音声再生装置
JP5120288B2 (ja) * 2009-02-16 2013-01-16 ソニー株式会社 音量補正装置、音量補正方法、音量補正プログラムおよび電子機器
US9159363B2 (en) * 2010-04-02 2015-10-13 Adobe Systems Incorporated Systems and methods for adjusting audio attributes of clip-based audio content

Also Published As

Publication number Publication date
CN102473415A (zh) 2012-05-23
CN102473415B (zh) 2014-11-05
US8976973B2 (en) 2015-03-10
WO2011158435A1 (ja) 2011-12-22
US20120114144A1 (en) 2012-05-10
JP5643821B2 (ja) 2014-12-17

Similar Documents

Publication Publication Date Title
JP5643821B2 (ja) 音声制御装置及び音声制御方法
US20160203830A1 (en) Content Aware Audio Ducking
US20140369527A1 (en) Dynamic range control
JP6231102B2 (ja) 主観的忠実度のための音声コンテンツの変換
JP4596060B2 (ja) 電子機器、動画像データ区間変更方法及びプログラム
US8457322B2 (en) Information processing apparatus, information processing method, and program
JP2013231999A (ja) 音声録音における音声特性を変換するための装置および方法
JP4983694B2 (ja) 音声再生装置
US8391669B2 (en) Video processing apparatus and video processing method
JP2020067531A (ja) プログラム、情報処理方法、及び情報処理装置
JP2019020530A (ja) 信号処理装置、制御方法、及びプログラム
JP2023521849A (ja) オーディオディスクリプションの自動ミキシング
KR101369458B1 (ko) 음원 파일을 편집하는 장치 및 방법
US8940990B2 (en) Exercise music support apparatus
WO2019229936A1 (ja) 情報処理システム
JP6028489B2 (ja) 動画再生装置、動画再生方法、及びプログラム
JP5661730B2 (ja) アンプ内蔵スピーカ、拡声器、音響調整装置及び音響装置
JP2004215123A (ja) 画像再生装置、画像再生方法及び画像再生プログラム
JP4563418B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
WO2020066660A1 (ja) 情報処理方法、情報処理装置およびプログラム
JP2004145929A (ja) 光ディスク再生装置及び光ディスク再生方法
JP2003309786A (ja) 動画再生装置、動画再生方法及びそのコンピュータ・プログラム
JP2005333205A (ja) コンテンツ編集装置、コンテンツ編集プログラム及びコンテンツ編集方法
JP2004363719A (ja) 音声付き映像信号再生装置及び方法並びにプログラム
JP2018074219A (ja) 音声処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140115

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141031

R150 Certificate of patent or registration of utility model

Ref document number: 5643821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees