JP2013243619A - 音響処理装置及び音響処理方法 - Google Patents

音響処理装置及び音響処理方法 Download PDF

Info

Publication number
JP2013243619A
JP2013243619A JP2012117026A JP2012117026A JP2013243619A JP 2013243619 A JP2013243619 A JP 2013243619A JP 2012117026 A JP2012117026 A JP 2012117026A JP 2012117026 A JP2012117026 A JP 2012117026A JP 2013243619 A JP2013243619 A JP 2013243619A
Authority
JP
Japan
Prior art keywords
acoustic
processing
signal
acoustic processing
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012117026A
Other languages
English (en)
Inventor
Yusaku Kikukawa
裕作 菊川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012117026A priority Critical patent/JP2013243619A/ja
Priority to US13/860,373 priority patent/US8908099B2/en
Publication of JP2013243619A publication Critical patent/JP2013243619A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/65Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on users' side

Abstract

【課題】 映像の構図から臨場感判定を行い、臨場感が必要と判定された場合に臨場感強
調を行う技術を提供する。
【解決手段】 入力される映像信号の構図パターンを推定する構図パターン判定部と、こ
の推定の結果に基づいて音響処理を行う音響処理部とを備えた音響処理装置。また、入力
される音響信号のスペクトルパターンを推定する音響解析部と、この推定の結果に基づい
て音響処理を行う音響処理部とを備えた音響処理装置。また、入力される映像信号の構図
パターンの推定をし、この推定の結果に基づいて音響処理を行う音響処理方法。また、入
力される音響信号のスペクトルパターンの推定をし、この推定の結果に基づいて音響処理
を行う音響処理方法。
【選択図】 図3

Description

本発明の実施形態は、例えば映像に連携した音響処理装置及び音響処理方法に関する。
近年、テレビに加えノートブック型等の様々な携帯型パーソナルコンピュータ、タブレ
ットなども開発されている。これらの装置では映像および音響信号の出力を行う際に、入
力された信号データを単にそのまま再生するだけでなく、映像あるいは音響信号に何らか
の処理を加えることが行われることがある。
例えば、映像シーンに合わせて、その映像に適した音声に自動的に調整することのでき
る映像音声信号処理装置を提供する映像音声信号処理装置が提案されている(例えば、特
許文献1参照。)。しかしながら、従来方法では複数人会話シーンやナレーションを含む
シーンや多方向移動体シーンなど音声と映像のマッチングしないシーンでは正しく音場制
御や音声強調できない課題がある。
そこで、映像の構図パターンを用いて、音響処理を行うべき特定シーンと・音響処理を
行うべきではない非特定シーンの臨場感判定を行い、臨場感が必要と判定された場合に、
臨場感強調を行うといった要望がある。が、かかる要望を実現するための手段は知られて
いない。
特開2009−296274号公報(第2図) 特開2009−147768号公報(第3図) 特開2009−65587号公報
本発明の実施の形態は、映像の構図から臨場感判定を行い、臨場感が必要と判定された
場合に臨場感強調を行う技術を提供することを目的とする。
上記課題を解決するために、実施形態によれば音響処理装置は、入力される映像信号の
構図パターンを推定する構図パターン判定部と、この推定の結果に基づいて音響処理を行
う音響処理部とを備えた音響処理装置。また、入力される音響信号のスペクトルパターン
を推定する音響解析部と、この推定の結果に基づいて音響処理を行う音響処理部とを備え
る。
この発明の一実施形態を示す電子機器のシステム構成を示すブロック図。 同実施形態の処理構成(全体構成)を示すブロック構成図。 同実施形態の処理構成1(上位概念)を説明するために示すブロック構成図。 図3の変形例1を示すブロック構成図。 図3の変形例2を示すブロック構成図。 同実施形態の特定シーン判定部の処理構成を示すブロック構成図。 図6の変形例を示すブロック構成図。 同実施形態に用いられる映像解析部の処理構成を示すブロック構成図。 図8の変形例1を示すブロック構成図。 図8の変形例2を示すブロック構成図。 音響解析部の処理構成を示すブロック構成図。 図11の変形例1を示すブロック構成図。 図11の変形例2を示すブロック構成図。 臨場感判定部について説明するために示すブロック構成図。 図2の処理構成における動作を説明するために示すフローチャート。
以下、本発明の一実施形態を図1乃至図14を参照して説明する。
図1は、本コンピュータ10のシステム構成を示す図である。本コンピュータ10は、
図1に示されるように、CPU11、ノースブリッジ12、主メモリ103、サウスブリ
ッジ104、グラフィクスコントローラ105、サウンドコントローラ106、BIOS
−ROM107、LANコントローラ108、不揮発性メモリ109、バイブレータ11
0、加速度センサ111、無線LANコントローラ112、エンベデッドコントローラ(
EC)113、EEPROM114、HDMI制御回路3等を備える。
CPU11は、コンピュータ10内の各部の動作を制御するプロセッサである。CPU
11は、不揮発性メモリ109から主メモリ103にロードされる、オペレーティングシ
ステム(OS)21、および各種アプリケーションプログラムを実行する。アプリケーシ
ョンプログラムには、入力制御プログラム22が含まれている。この入力制御プログラム
は、上述の仮想キーボード171を用いてキー入力処理を実行するためのソフトウェアで
あり、オペレーティングシステム(OS)21上で実行される。
また、CPU11は、BIOS−ROM107に格納されたBIOSも実行する。BI
OSは、ハードウェア制御のためのプログラムである。
ノースブリッジ12は、CPU11のローカルバスとサウスブリッジ104との間を接
続するブリッジデバイスである。ノースブリッジ12には、主メモリ103をアクセス制
御するメモリコントローラも内蔵されている。また、ノースブリッジ12は、PCI E
XPRESS規格のシリアルバスなどを介してグラフィクスコントローラ105との通信
を実行する機能も有している。
グラフィクスコントローラ105は、本コンピュータ10のディスプレイモニタとして
使用されるLCD17Aを制御する表示コントローラである。このグラフィクスコントロ
ーラ105によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表
示信号に基づいて映像を表示する。このLCD17A上にはタッチパネル17Bが配置さ
れている。タッチパネル17Bは、LCD17Aの画面上で入力を行うためのポインティ
ングデバイスである。ユーザは、タッチパネル17Bを用いて、LCD17Aの画面に表
示されたグラフィカルユーザインタフェース(GUI)等を操作することができる。例え
ば、ユーザは、画面に表示されたボタンをタッチすることによって、当該ボタンに対応す
る機能の実行を指示することができる。
HDMI端子2は、外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデ
ジタル映像信号とデジタルオーディオ信号とを1本のケーブルで外部ディスプレイ装置1
に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディス
プレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェー
スである。つまり、コンピュータ10は、HDMI端子2等を介して、外部ディスプレイ
装置1に接続可能である。
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各
デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブ
リッジ104は、不揮発性メモリ109を制御するためのATAコントローラを内蔵して
いる。
サウスブリッジ104は、各種USBデバイスを制御するためのUSBコントローラを
内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信
を実行する機能も有している。サウンドコントローラ106は音源デバイスであり、再生
対象のオーディオデータをスピーカ18A,18Bに出力する。LANコントローラ10
8は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスである。
無線LANコントローラ112は、例えばIEEE 802.11規格の無線通信を実行
する無線通信デバイスである。
EC113は、電力管理のためのエンベデッドコントローラを含む1チップマイクロコ
ンピュータである。EC113は、ユーザによるパワーボタンの操作に応じて本コンピュ
ータ10を電源オン/電源オフする機能を有している。
さて図2は、実施形態の処理構成(全体構成)を示すものであり、以下に個々に述べる
。ここではCPU11を主体とするフローを図15に示す。
ステップS151: 入力される画像信号から映像解析部201で映像解析を行ない構図
パターンを判定する。
ステップS152: 他方で入力される音響信号から音響解析部202で音響解析を行な
いスペクトルパターンを判定する。
ステップS153: 上記構図パターンとスペクトルパターンとから臨場感判定部203
で臨場感を判定する。
ステップS154: この臨場感の判定結果に基づき音響処理部102で音響処理を実施
する。
個々の構成に関してはまず図3に実施形態の処理構成の基本概念を示す。特定シーン判
定部101(CPU11内)と、音響処理(補正)部102(サウンドコントローラ10
6内)とから構成されている。特定シーン判定部101では特定シーンの判定を行い、こ
の判定の結果に基づいて音響処理(補正)部102では音響処理を可変させる構成となっ
ている。
画像信号と音響信号の双方の信号を使うことにより、幅広く、且つ精度良く特定シーン
の判定を行うことができる。ここで、音響処理部102は特定シーンに合う処理であれば
、どのような処理でも良い。例えば、部屋やコンサートホールのようなその場の音場特性
を再現するフィルタ処理、残響を付加する処理、フォルマント強調のような音声強調処理
、非音声強調処理、HRTFのようなサラウンド処理、イコライザ、ダイナミックレンジコン
トロールなどが挙げられる。
続く、図4及び図5は図3の処理構成の変形例である。つまり、処理量削減のため、特
定シーンの判定に用いる信号として音響信号を用いずに画像信号だけ用いても良い。また
特定シーンの判定を行った結果をそのまま臨場感レベルのタグ情報(例えば1から10ま
での数値や低、中、高などの分類)として出力して、臨場感の必要なコンテンツか否かユ
ーザに通知してもよい。
また更に図4及び図5の変形として、特定シーンの判定に用いる信号として音響信号を
用いずに画像信号だけ用いて、特定シーン判定の結果をそのまま臨場感レベルのタグ情報
として出力してもよい。
図6に特定シーン判定部101の処理構成を示す。映像解析部201、音響解析部20
2と臨場感判定部203とを含んでいる。まず映像解析部201、音響解析部202とで
画像信号と音響信号を解析した結果を臨場感判定部203は入力として、音響処理を行う
べき特定シーンと音響処理を行うべきではない非特定シーンの臨場感判定を行い、臨場感
が必要か否かを出力する。図7は図6の変形例である。つまり、処理量削減のため、画像
信号のみを映像解析部201で解析しても良い。
図8に映像解析部201の処理構成を示す。構図パターン判定部301と構図パターン
情報DB302とを備えている。まず構図パターン判定部301は画像信号の構図をパタ
ーン分類化し、例えば図8中にある構図パターン情報DB302のどれに近いか判定を行
う。例えば、Horisonと判定された場合、サッカーの観戦シーンや風景を俯瞰するシーン
などが多いため、臨場感判定203にて臨場感が必要と判断される。ここで、図9と図1
0は図8の変形例である。
図9は図8に更に色情報取得部303と明るさ情報取得部304とを備え、図10は更
に遅延部306を備えている。
図9に示すように構図パターン以外にも色情報取得部303と明るさ情報取得部304
により色情報や明るさ情報を用いても良い。色情報や明るさ情報を用いることにより、例
えば、色情報の主成分が青または緑、明るさ情報が明るいと解析されれば、屋外にいるシ
ーンが多いため、臨場感判定部203にて臨場感が必要と判断される。更に夫々重み係数
(305)をかけて、映像の解析情報に優先度をつけてもよい。次に図10のように、遅延部
306によって画像の過去情報を使用することで、シーンチェンジ情報も例えば映像解析
部201で取得でき、スムーズに時間方向の音響処理を切り替えこともできる。

図11に音響(処理)解析部202の処理構成を示す。スペクトルパワー演算部401
と、スペクトルパターン判定部402と、スペクトル(周囲音)パターン情報DB403
とを備えている。
まずスペクトルパワー演算部401は音響信号のスペクトルパワーを演算し、スペクト
ル分布をパターン分類化し、例えば図11にあるスペクトルパターン情報DB403のど
れに近いかスペクトルパターン判定部402は判定を行う。
例えば、Super Bassと判定された場合、花火シーンや太鼓シーンなどがあり、臨場感判
定203にて臨場感が必要と判断される。ここで、図12と図13は図11の変形例であ
る。図12にあるように、スペクトルパワーを演算する前にVAD(Voice activity detecti
on)部404によるVADを追加することで、音声・非音声の双方のスペクトルパターンを分
析することができ、幅広く、且つ精度良く特定シーンの判定を行うことができる。
また、図13にあるようにバランス比較部405を追加して音声・非音声の双方のパワ
ー比を求めることにより、音声・非音声のどちらが優勢のコンテンツ推定できるため、例
えば、音声成分が優勢と判断された場合、非音声を強調するような音響処理をすることが
でき、非音声成分が優勢と判断された場合、音声を強調するような音響処理をすることが
できる。更に夫々重み係数(406)をかけて、音響の解析情報に優先度をつけてもよい。
VADの機能は、例えば本願と同一出願人の出願である特開2012−32447号公報に記載の技術を援用して構成することができる。
図14に臨場感判定部203の処理構成を示す。マッチング判定部501、臨場感DB
502、誤差最小演算部503、および音響補正モード選択部504とを備えている。
映像解析と音響解析から得られる情報を予め登録してある臨場感DB502とマッチン
グ判定部501はマッチング判定を行う。この判定の結果、臨場感が必要となるシーン(
臨場感モード)、例えばモードAやモードB等と一致する場合、音響補正モード選択部5
04はそのモードに合う音響処理の機能の設定に切り替える。判定の結果、一致する臨場
感モードが無い場合でも、例えば誤差最小演算部503は下記のような場合分け演算から
算出して、決定してもよい。
もちろん下記の演算だけに限らず、判定の結果、一致する臨場感モードが無い場合に近
いモードを推定できる演算であれば各種の演算を用いても良い。また近いモードがない場
合は音響補正を行わない構成としても良い。入力A乃至入力Eは、例えば構図パターン、
色、明るさ、スペクトルパターン、VAD(人か否か)、上記パワー比などである。
(a)入力AはモードAの範囲内(a1<入力A<a2)
(b)入力BはモードBの範囲内(b3<入力B<b4)
(c)入力CはモードAの範囲内(c1<入力C<c2)
(d)入力DはモードAとBの双方の範囲内(d1<入力D<d2)&(d3<入力D<
d4)
(e)入力EはモードAとBの双方の範囲内(e1<入力E<e2)&(e3<入力E<
e4)
これら(a)から(e)により、入力はモードAに近いと判定することができる。

次に臨場感DB502のモード登録について説明する。臨場感がほしいシーン(例えば
モードAはスポーツの試合シーン、モードBは映画の爆発シーン、その他洞窟で会話して
いるシーン、海外の街並みシーン等)に関連するコンテンツを収集し、構図パターン、色
の主成分情報、明る情報等々を分析し、統計的に出現傾向の大きい値を装置の製造時など
に登録すればよい。
例えば、スポーツの試合シーンであれば、構図パターンがHorison、色の主成分情報が
青と緑、明る情報が明るいなどと登録すればよいことになる。臨場感DB502に登録す
るモードが増えることで、より臨場感のほしい映像シーンに合う最適な音響処理を実現す
ることができる。
本実施形態により、臨場感のほしい特定シーンごとに合わせて、最適な音響処理を行う
ことで、映像と音響の一体感が増し、ユーザはより臨場感の高いマルチメディア視聴を体
感することができる。また、特定被写体の検出を行わないため、より多く映像シーンのそ
の場面に合う音響処理を行うことができる。

(実施形態の補足)
01)映像信号に対して構図パターンを推定し、その結果に応じた音響処理を行う。
02)映像信号に対して構図パターンを推定し、その結果に応じて音響処理の補正度合いを
変化させる。
03)映像信号に対して構図パターンを推定し、その結果に応じて音響処理のON/OFFを切り
替える。
04)映像信号に対して推定した構図パターンと色情報と明るさ情報の結果から臨場感判定
を行い、その結果に応じて音響処理を行う。
05)映像信号に対して推定した構図パターンと色情報と明るさ情報とその過去情報から臨
場感判定を行い、その結果に応じて音響処理を行う。
06)音響信号に対してスペクトルパターンを推定し、その結果に応じた音響処理を行う。
07)音響信号に対してスペクトルパターンを推定し、その結果に応じて音響処理の補正度
合いを変化させる。
08)音響信号に対してスペクトルパターンを推定し、その結果に応じて音響処理のON/OFF
を切り替える。
09)音響信号に対してVAD(Voice activity detection)を行い、音声信号に対してスペク
トルパターンを推定する。
10)音響信号に対してVAD(Voice activity detection)を行い、非音声信号に対してスペ
クトルパターンを推定する。
11)音響信号に対して非音声信号と音声信号のスペクトルのパワー差を比較した結果を用
いて、音声または非音声を強調するか判定する。
12)映像・音響信号に対して解析した結果を臨場感レベルとして出力する。
13)映像・音響信号に対して解析した複数の結果に対して重み係数をかけて、臨場感判定
を行う。
14)映像・音響信号に対して解析した複数の結果に対して予め登録した結果とマッチング
判定して最適な音響処理を選択する。
本実施形態は、映像信号または、映像信号と音響信号を解析して、特定シーンの判定を
行い、その判定結果に応じてより適切な音響処理を行う映像連携音響処理装置に関するも
のである。
映像の構図パターンを用いて、音響処理を行うべき特定シーンと・音響処理を行うべき
ではない非特定シーンの臨場感判定を行い、臨場感が必要と判定された場合に、臨場感強
調を行う。また、音響のスペクトルパターンを用いて、音響処理を行うべき特定シーンと
・音響処理を行うべきではない非特定シーンの臨場感判定を行い、臨場感が必要と判定さ
れた場合に、臨場感強調を行う。更に特定・非特定シーンの判定を行った結果をそのまま
臨場感レベルのタグ情報として出力すれば、臨場感が必要なコンテンツか否かユーザに通
知することも可能である。
以下に実施形態の特徴を従来例と比較して示す。
特許文献1では、映像シーンに合わせて、その映像に適した音声に自動的に調整するこ
とのできる映像音声信号処理装置を提供する。しかしながら、顔検出や移動体検出を行う
ため、特定被写体に限られた処理になっており、例えば、複数人会話シーンやナレーショ
ンを含むシーンや多方向移動体シーン(サッカーの試合等)など音声と映像のマッチングし
ないシーンでは対象外であるため、限られた臨場感の映像シーンにしか音響処理を施すこ
とができない。
特許文献2では、映像信号から特定被写体の位置を検出し、音声信号からその特定被写
体の音声を抽出し、検出した位置によって、抽出した音声を調整することにより、臨場感
を高める映像音声再生装置を提供する。しかしながら、特定被写体に限られた処理になっ
ており、例えば、複数人会話シーンやナレーションを含むシーンや多方向移動体シーン(
サッカーの試合等)など音声と映像のマッチングしないシーンでは対象外であるため、限
られた臨場感の映像シーンにしか音響処理を施すことができない。
特許文献3では、画像中の特定物を検出可能な音声記録装置において、特定物の大きさ
に基づいて音声処理を行い、撮影者の画像撮影の意図に応じた音声とする音声再生装置を
提供する。しかしながら、画像中の特定物を検出するため、特定被写体に限られた処理に
なっており、例えば、複数人会話シーンやナレーションを含むシーンや多方向移動体シー
ン(サッカーの試合等)など音声と映像のマッチングしないシーンでは対象外であるため、
限られた臨場感の映像シーンにしか音響処理を施すことができない。
本実施形態では、特定被写体の検出を行わないため、より多くの臨場感のほしい映像シ
ーンに合わせて音響処理を行うことができる。また、特定被写体の検出を行わないため、
処理演算が少ない。
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しな
い範囲で種々変形して実施することができる。
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせること
により、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素
から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる
構成要素を適宜組み合わせても良いものである。
10…コンピュータ、17…タッチスクリーンディスプレイ、22…入力制御プログラ
ム。

Claims (7)

  1. 入力される映像信号の構図パターンを推定する構図パターン判定部と、
    この推定の結果に基づいて音響処理を行う音響処理部とを
    備えた音響処理装置。
  2. 更に色情報または明るさ情報を前記映像信号から取得する映像解析部を備え、
    前記音響処理部はこの色情報または明るさ情報にも基づいて音響処理を行う請求項1に記
    載の音響処理装置。
  3. 入力される音響信号のスペクトルパターンを推定する音響解析部と、
    この推定の結果に基づいて音響処理を行う音響処理部とを
    備えた音響処理装置。
  4. 前記音響解析部は、前記音響信号に対してVAD(Voice activity detection)を行い前記
    スペクトルパターンを推定する請求項3に記載の音響処理装置。
  5. 前記推定の結果に基づいて解析した結果を前記音響処理の代わりに臨場感レベルとして
    出力する請求項1または請求項3に記載の音響処理装置。
  6. 入力される映像信号の構図パターンの推定をし、
    この推定の結果に基づいて音響処理を行う音響処理方法。
  7. 入力される音響信号のスペクトルパターンの推定をし、
    この推定の結果に基づいて音響処理を行う音響処理方法。
JP2012117026A 2012-05-22 2012-05-22 音響処理装置及び音響処理方法 Pending JP2013243619A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012117026A JP2013243619A (ja) 2012-05-22 2012-05-22 音響処理装置及び音響処理方法
US13/860,373 US8908099B2 (en) 2012-05-22 2013-04-10 Audio processing apparatus and audio processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117026A JP2013243619A (ja) 2012-05-22 2012-05-22 音響処理装置及び音響処理方法

Publications (1)

Publication Number Publication Date
JP2013243619A true JP2013243619A (ja) 2013-12-05

Family

ID=49621320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117026A Pending JP2013243619A (ja) 2012-05-22 2012-05-22 音響処理装置及び音響処理方法

Country Status (2)

Country Link
US (1) US8908099B2 (ja)
JP (1) JP2013243619A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061278A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 信号処理装置、信号処理方法及びコンピュータプログラム
WO2018155480A1 (ja) * 2017-02-27 2018-08-30 ヤマハ株式会社 情報処理方法および情報処理装置
US10789972B2 (en) 2017-02-27 2020-09-29 Yamaha Corporation Apparatus for generating relations between feature amounts of audio and scene types and method therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9660576B2 (en) 2010-05-04 2017-05-23 Solmetric Corporation Predicting production of photovoltaic systems
CN117116302B (zh) * 2023-10-24 2023-12-22 深圳市齐奥通信技术有限公司 一种在复杂场景下的音频数据分析方法、系统及存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1245363A (en) * 1985-03-20 1988-11-22 Tetsu Taguchi Pattern matching vocoder
US5337752A (en) * 1992-05-21 1994-08-16 Mcg International, Inc. System for simultaneously producing and synchronizing spectral patterns of heart sounds and an ECG signal
US6168568B1 (en) * 1996-10-04 2001-01-02 Karmel Medical Acoustic Technologies Ltd. Phonopneumograph system
FR2816157A1 (fr) * 2000-10-31 2002-05-03 Thomson Multimedia Sa Procede de traitement de donnees video distinees a etre visualisees sur ecran et dispositif mettant en oeuvre le procede
JP3767692B2 (ja) * 2002-05-08 2006-04-19 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
US7522967B2 (en) * 2003-07-01 2009-04-21 Hewlett-Packard Development Company, L.P. Audio summary based audio processing
JP2005086537A (ja) 2003-09-09 2005-03-31 Nippon Hoso Kyokai <Nhk> 高臨場音場再現情報送信装置、高臨場音場再現情報送信プログラム、高臨場音場再現情報送信方法および高臨場音場再現情報受信装置、高臨場音場再現情報受信プログラム、高臨場音場再現情報受信方法
JP2009065587A (ja) 2007-09-10 2009-03-26 Sanyo Electric Co Ltd 音声記録装置及び音声再生装置
JP2009130854A (ja) 2007-11-27 2009-06-11 Sony Corp 音声信号処理装置、音声信号処理方法及び撮像装置
JP4934580B2 (ja) 2007-12-17 2012-05-16 株式会社日立製作所 映像音声記録装置および映像音声再生装置
JP2009296274A (ja) 2008-06-04 2009-12-17 Toshiba Corp 映像音声信号処理装置
JP2010187363A (ja) 2009-01-16 2010-08-26 Sanyo Electric Co Ltd 音響信号処理装置及び再生装置
US8941708B2 (en) * 2011-07-29 2015-01-27 Cisco Technology, Inc. Method, computer-readable storage medium, and apparatus for modifying the layout used by a video composing unit to generate a composite video signal
US20130136336A1 (en) * 2011-11-24 2013-05-30 Kabushiki Kaisha Toshiba Image processing apparatus and controlling method for image processing apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061278A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 信号処理装置、信号処理方法及びコンピュータプログラム
JPWO2017061278A1 (ja) * 2015-10-09 2018-07-26 ソニー株式会社 信号処理装置、信号処理方法及びコンピュータプログラム
US10674304B2 (en) 2015-10-09 2020-06-02 Sony Corporation Signal processing apparatus and signal processing method
WO2018155480A1 (ja) * 2017-02-27 2018-08-30 ヤマハ株式会社 情報処理方法および情報処理装置
JPWO2018155480A1 (ja) * 2017-02-27 2020-01-23 ヤマハ株式会社 情報処理方法および情報処理装置
US10789972B2 (en) 2017-02-27 2020-09-29 Yamaha Corporation Apparatus for generating relations between feature amounts of audio and scene types and method therefor
US11011187B2 (en) 2017-02-27 2021-05-18 Yamaha Corporation Apparatus for generating relations between feature amounts of audio and scene types and method therefor
US11087779B2 (en) 2017-02-27 2021-08-10 Yamaha Corporation Apparatus that identifies a scene type and method for identifying a scene type
US11756571B2 (en) 2017-02-27 2023-09-12 Yamaha Corporation Apparatus that identifies a scene type and method for identifying a scene type

Also Published As

Publication number Publication date
US20130314599A1 (en) 2013-11-28
US8908099B2 (en) 2014-12-09

Similar Documents

Publication Publication Date Title
US10666920B2 (en) Audio alteration techniques
JP4818450B1 (ja) グラフィクスプロセッシングユニットおよび情報処理装置
WO2017032054A1 (zh) 一种播放速度调节方法及终端
WO2018126632A1 (zh) 一种扬声器控制方法及移动终端
JP2013243619A (ja) 音響処理装置及び音響処理方法
US10623881B2 (en) Method, computer readable storage medium, and apparatus for determining a target sound scene at a target position from two or more source sound scenes
US8430750B2 (en) Video gaming device with image identification
WO2023011473A1 (zh) 声道切换方法、装置和电子设备
US20120317594A1 (en) Method and system for providing an improved audio experience for viewers of video
JP6141530B2 (ja) 方向依存処理のためのオーディオ処理器
US20130321714A1 (en) Electronic apparatus, control method of an electronic apparatus, and control program of an electronic apparatus
WO2017215507A1 (zh) 一种音效处理方法及移动终端
WO2020048217A1 (zh) 音效调整方法、装置、电子设备以及存储介质
KR20160017461A (ko) 악기 연주 제어 장치 및 그 방법
US20140240202A1 (en) Information processing method and apparatus for electronic device
KR102226817B1 (ko) 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
KR102561371B1 (ko) 디스플레이장치와, 기록매체
CN114466242A (zh) 显示设备及音频处理方法
WO2023169367A1 (zh) 音频播放方法和电子设备
JP2022529856A (ja) タッチパッド入力を備えたゲームコントローラ
CN113938555B (zh) 智能设备及其控制方法、计算机可读存储介质
JP5550446B2 (ja) 電子機器及び動画像生成方法
CN114466241A (zh) 显示设备及音频处理方法
CN113660599A (zh) 扬声器的控制方法、装置、移动终端及存储介质
US20180288297A1 (en) Information processing device, information processing method, program, and information processing system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20150218