JP6253671B2 - 電子機器、制御方法およびプログラム - Google Patents

電子機器、制御方法およびプログラム Download PDF

Info

Publication number
JP6253671B2
JP6253671B2 JP2015554418A JP2015554418A JP6253671B2 JP 6253671 B2 JP6253671 B2 JP 6253671B2 JP 2015554418 A JP2015554418 A JP 2015554418A JP 2015554418 A JP2015554418 A JP 2015554418A JP 6253671 B2 JP6253671 B2 JP 6253671B2
Authority
JP
Japan
Prior art keywords
signal
voice
source separation
sound source
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015554418A
Other languages
English (en)
Other versions
JPWO2015097831A1 (ja
Inventor
進介 増田
進介 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Publication of JPWO2015097831A1 publication Critical patent/JPWO2015097831A1/ja
Application granted granted Critical
Publication of JP6253671B2 publication Critical patent/JP6253671B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0356Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for synchronising with other signals, e.g. video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明の実施形態は、電子機器、制御方法およびプログラムに関する。
近年、映像音声に対して、異なる属性をもつ音源別に音声信号を分離して、各音源別の音声信号に適切な音声補正を行った後、各音源別の音声信号を合成して出力する音源分離技術が提案されている。
このような音源分離技術では、一般的には、音声信号を、人間の声である声成分と、人間の声以外の背景成分に分離する。そして、声成分と背景音成分と個別に音量等の強調制御を行い、人間の声を聞きやすくしたり、あるいは人間の声を抑制する等の効果を得ることができる。
特開2011−69948号公報
主に人間の声を聞き易くする等の目的で、音源分離の機能を、テレビジョン装置やPC(Personal Computer)、タブレット端末等の電子機器に搭載する場合がある。このような場合において、適切な状況で、ユーザの負担なく、最適な音源分離の効果が得られることが望まれている。
実施形態の電子機器は、音源分離処理部と、音声制御部とを備える。音源分離処理部は、入力される音声信号を、声信号と背景音信号とに分離して、声信号または背景音信号のいずれかを強調する音源分離機能を実行する。音声制御部は、映像に含まれるシーンに関するシーン情報に基づいて、シーンを表示する際における音源分離機能の実行を制御するとともに、声信号または背景音信号の強調または抑制に関するパラメータを含むパラメータ指令を音源分離処理部に出力する音源分離処理部は、音源分離部と、声補正フィルタと、背景音補正フィルタと、加算部と、を有する。音源分離部は、音声信号を声信号と背景音信号とに分離する。声補正フィルタは、声信号をパラメータ指令に基づいて補正して、補正後の声信号を出力する。背景音補正フィルタは、背景音信号をパラメータ指令に基づいて補正して、補正後の背景音信号を出力する。加算部は、補正後の声信号にパラメータ指令に基づいたゲインを乗算したものと、補正後の背景音信号にパラメータ指令に基づいたゲインを乗算しものと、を加算して合成信号を出力する。
図1は、実施形態1にかかるテレビジョン装置の構成の一例を示すブロック図である。 図2は、実施形態1の制御部の機能的構成の一例を示すブロック図である。 図3は、実施形態1の音声処理部の構成の一例を示す図である。 図4は、実施形態1にかかる音声制御処理の手順の一例を示すフローチャートである。 図5は、実施形態2にかかる制御部の機能的構成の一例を示すブロック図である。 図6は、実施形態2にかかる嗜好設定画面の一例を示す図である。 図7は、実施形態2にかかる音声制御処理の手順の一例を示すフローチャートである。 図8は、実施形態3にかかる音声制御処理の手順の一例を示すフローチャートである。
以下に示す実施形態は、電子機器を適用したテレビジョン装置の例について説明する。しかしながら、本実施形態は、電子機器をテレビジョン装置に制限するものではなく、例えば、PCやタブレット端末等の音声を出力可能な装置であれば任意の装置に適用することができる。
(実施形態1)
本実施形態のテレビジョン装置100は、図1に示すように、デジタル放送の放送波を受信し、受信した放送波から取り出した映像信号を用いて番組の映像を表示する据置型の映像表示装置であり、録画再生機能も備えている。
テレビジョン装置100は、図1に示すように、アンテナ112、入力端子113、チューナ114および復調器115を有している。アンテナ112は、デジタル放送の放送波を捕らえ、その放送波の放送信号を、入力端子113を介してチューナ114に供給する。
チューナ114は、入力されたデジタル放送の放送信号から所望のチャンネルの放送信号を選局する。そして、チューナ114から出力された放送信号は復調器115に供給される。復調器115は、放送信号に復調処理を施し、デジタル映像信号および音声信号を復調して、後述するセレクタ116に供給する。
また、テレビジョン装置100は入力端子121,123、A/D変換部122、信号処理部124、スピーカ125および映像表示パネル102を有している。
入力端子121は外部からアナログの映像信号および音声信号が入力され、入力端子123は外部からデジタルの映像信号および音声信号が入力される。A/D変換部122は入力端子121から供給されるアナログの映像信号および音声信号をデジタル信号に変換し、セレクタ116に供給する。
セレクタ116は、復調器115、A/D変換部122および入力端子123から供給されるデジタルの映像信号及び音声信号から1つを選択して、信号処理部124に供給する。
また、テレビジョン装置100は、少なくともTSデマルチプレクサおよびMPEGデコーダを有している。信号処理部124は、MPEGデコーダによってデコードされた後の信号を入力する。さらに、信号処理部124は、HDD130や、DVD(Digital Versatile Disc)、Blu−ray(登録商標) Disc等の外部記憶媒体に記録されている番組録画データや動画データがデコードされた後の信号も入力する。
信号処理部124は、音声処理部1241と映像処理部1242とを備えている。映像処理部1242は、入力される映像信号について、所定の信号処理やスケーリング処理等を施し、処理後の映像信号を映像表示パネル102に供給する。さらに、映像処理部1242は、映像表示パネル102に表示させるためのOSD(On Screen display)信号も生成している。
音声処理部1241は、セレクタ116から入力されたデジタル音声信号に所定の信号処理を施し、アナログ音声信号に変換してスピーカ125に出力する。音声処理部1241の詳細については、後述する。スピーカ125は、信号処理部124から供給される音声信号を入力し、その音声信号を用いて音声を出力する。本実施形態の音声処理部1241は、音源分離機能を有している。音声処理部1241の詳細については後述する。
映像表示パネル102は、液晶ディスプレイやプラズマディスプレイ等のフラットパネルディスプレイから構成される。映像表示パネル102は、信号処理部124から供給される映像信号を用いて映像を表示する。
さらに、テレビジョン装置100は制御部127、操作部128、受光部129、HDD(Hard Disk Drive)130、メモリ131、及び通信I/F132を有している。
制御部127は、テレビジョン装置100における種々の動作を統括的に制御する。制御部127は、CPU(Central Processing Unit)等を内蔵したマイクロプロセッサであり、操作部128からの操作情報を入力する一方、リモートコントローラ150から送信された操作情報を、受光部129を介して入力し、それらの操作情報にしたがい各部をそれぞれ制御する。本実施形態の受光部129は、リモートコントローラ150からの赤外線を受光する。
この場合、制御部127は、メモリ131を使用している。メモリ131は、主として、制御部127に内蔵されているCPUが実行する制御プログラムを格納したROM(Read Only Memory)と、CPUに作業エリアを提供するためのRAM(Random Access Memory)と、各種の設定情報及び制御情報等が格納される不揮発性メモリとを有している。
HDD130は、セレクタ116で選択されたデジタルの映像信号及び音声信号を記録する記憶部としての機能を有している。テレビジョン装置100はHDD130を有するため、セレクタ116で選択されたデジタルの映像信号及び音声信号を録画データとしてHDD130により記録することができる。さらに、テレビジョン装置100は、HDD130に記録されたデジタルの映像信号及び音声信号を用いて映像および音声を再生することもできる。
通信I/F132は、公衆ネットワーク160を介して様々な通信装置(例えばサーバ)と接続されており、テレビジョン装置100で利用可能なプログラムやサービスを受信するほか、様々な情報を送信することができる。
次に、制御部127により実行される機能的構成について説明する。本実施形態の制御部127は、図2に示すように、入力制御部201と、シーン検出部202と、設定部203として機能する。
入力制御部201は、ユーザからのリモートコントローラ150による操作入力を受光部129を介して受け付けるとともに、操作部128による操作入力を受け付ける。本実施形態では、ユーザから、音源分離機能を使用するか否かなどの設定入力および音源分離機能を使用する場合における声と背景音の音量(強調度)の設定入力を受け付ける。
ここで、音声信号は、人間の声の成分の信号と音楽等の声以外の背景音の成分の信号とから構成される。なお、これ以降、声成分の信号を声信号と称し、背景音成分の信号を背景音信号と称する。音源分離機能は、音声信号を、声信号と背景音信号とに分離して、声信号または背景音信号のいずれかを強調する機能であり、音声処理部1241で実行される。
シーン検出部202は、放送映像や録画映像等の動画データの映像信号と音声信号を解析し、動画データに含まれるシーンの切替わりであるシーンチェンジを検出し、その検出結果としてシーン情報を出力する。
具体的には、シーン検出部202は、主として、動画データの音声信号を解析して、音声信号の無音部分を検出し、動画データ中の番組の本編シーンとCMシーンの境目を検出したり、音声信号を解析して、動画データの歌のシーンと歌以外のシーンの境目を検出する。そして、シーン検出部202は、シーン検出結果として、検出したシーンのシーン種別と開始時刻および終了時刻とを記録したシーン情報を出力する。シーン種別とは、本編シーン、CMシーン、歌シーン、歌以外のシーン等を示すものである。
シーン検出部202によるシーン検出は、放送映像の表示や録画映像の再生と、並行して動的に行ったり、録画映像の再生前に予め行って、シーン情報をHDD130に保存しておくことができる。シーン検出部202は、動的にシーン検出を行う場合には、シーン情報が出力されるたびに、シーン情報を音声処理部1241に送出する。
設定部203は、ユーザからの各種設定を行い、設定内容をHDD130等に保存する。本実施形態では、入力制御部201が受け付けた音源分離機能を使用するか否かなどの設定および声と背景音の音量(強調の度合い)の設定をHDD130に保存する。
次に、信号処理部124の音声処理部1241の詳細について説明する。本実施形態の音声処理部1241は、図3に示すように、音声制御部301と、音源分離処理部302と、音響効果処理部303と、を備えている。
音声制御部301は、HDD130に保存されているシーン情報または制御部127のシーン検出部202から出力されるシーン情報を制御情報として入力し、シーン情報に基づいて、シーンを表示する際における音源分離処理部302による音源分離機能の実行を制御する。
具体的には、音声制御部301は、シーン情報において声が主体でないCMシーンのような第1シーンが含まれている場合には、第1シーンの表示中に、声信号の強調を行わないように音源分離処理部302を制御する。また、音声制御部301は、シーン情報において声が主体である本編シーン等のような第2シーンが含まれている場合には、第2シーンの表示中に、声信号の強調を行うように前記音源分離処理部を制御する。ここで、音声制御部301は、第1シーン、第2シーンの表示中か否かを、シーン情報に登録されているシーンの開始時刻と終了時刻から判断する。
第1シーンとしては、CMシーンに限定されるものではなく、声が主体でないシーンであればよい。例えば、歌以外のシーン等が第1シーンに該当するが、これに限定されるものではない。第2シーンとしては、本編シーンに限定されるものではなく、声が主体であるシーンであればよい。例えば、歌のシーン等が第2シーンに該当するが、これに限定されるものではない。
音声制御部301は、入力される音声信号を、音源分離処理部302を介さずに、音響効果処理部303に出力することにより、音源分離機能の無効化を行って、これにより音声信号の強調を行わないように音源分離処理部302を制御する。
また、音声制御部301は、入力される音声信号を、音源分離処理部302に出力することにより、音源分離機能の有効化を行って、これにより音声信号の強調を行うように音源分離処理部302を制御する。
音声制御部301は、音源分離機能の有効化を行う場合、音声信号とともにパラメータ指令を音源分離処理部302に出力する。このパラメータ指令は、声の強調や抑制を行ったり、背景音の強調や抑制を行う場合のパラメータである。
音源分離処理部302は、音声信号Xを、声信号と背景音信号とに分離して、声信号または背景音信号を強調または抑制する音源分離機能を実行する。音源分離処理部302は、図3に示すように、音源分離部401と、声補正フィルタ403と、背景音補正フィルタ404と、ゲインGv405と、ゲインGb406と、加算部407とを備えている。
音源分離部401は、入力される音声信号を声成分V(声信号V)と背景音成分B(背景音信号B)に分離する。音源分離部401による音声信号の分離手法は、任意の手法を用いることができる。音源分離部401は、音声信号の分離手法として、例えば、特開2013−37152号公報に開示されている手法を用いることができるが、これに限定されるものではない。
声補正フィルタ403は、声信号Vの特性をパラメータ指令に基づいて補正して、補正後の声信号V’を出力する。背景音補正フィルタ404は、背景音信号Bの特性をパラメータ指令に基づいて補正して、補正後の背景音信号B’を出力する。
このような補正フィルタ403、404としては、定数値(利得調整のみ)からサラウンド等のチャネル間の相関を利用するもの等種々のものがある。例えば、声補正フィルタ403に、声信号Vに補聴器などで用いられている声の周波数特性を強調するフィルタを用いることで背景成分に影響を与えず声だけを聞こえやすくすることができる。また、背景音補正フィルタ404に、音源分離処理によって過剰に抑圧された周波数帯域を強めるフィルタや、音楽プレーヤ等に附属しているイコライザと同様な手法で聴覚的な効果を加えるフィルタなどを用いたり、背景音信号がステレオ信号である場合にはいわゆる疑似サラウンドの技術を用いたフィルタを適用することもできる。
声補正フィルタ403による補正後の声信号V’にはゲインGv405が乗算され、 背景音補正フィルタ404による補正後の背景音信号B’にはゲインGb406が乗算される。
ここで、本実施形態の音声処理部1241は、音声制御部301からパラメータ指令を入力し、声補正フィルタ403、背景音補正フィルタ404の補正の強度をパラメータ指令に応じて変化させるとともに、ゲインGv405とGb406をパラメータ指令により変化させている。これにより、声補正フィルタ403およびゲインGv405によるパラメータ指令による声の強調または抑制が行われ、背景音補正フィルタ404およびゲインGb406によるパラメータ指令による背景音の強調または抑制が行われる。
加算部407はゲインGv405が乗算された声信号とゲインGb406が乗算された背景音信号とを加算することにより合成して、合成信号Yを出力する。
音響効果処理部303は、合成信号Yに対して、ユーザの設定による種々の音響効果を施して、音声信号を出力する。ここで、音響効果としては、例えば、サラウンド効果、グラフィックイコライザ等があげられるが、これに限定されるものではない。
次に、以上のように構成された本実施形態のテレビジョン装置100による音声制御処理について図4を用いて説明する。
まず、音声制御部301は、映像表示パネル102に表示する動画のシーン検出結果であるシーン情報を、HDD130またはシーン検出部202から取得する(ステップS11)。そして、音声制御部301は、シーン情報の内容を解析し、現在時刻が開始時刻となり、これから映像表示パネル102に表示されるシーン、すなわち、これから放映または再生されるシーンがCMシーンであるか否かを、シーン情報において、上記開始時刻となるシーンのシーン種別により判断する(ステップS12)。
これから放映または再生されるシーンがCMシーンである場合には(ステップS12:Yes)、音声制御部301は、音源分離機能の無効化を行う(ステップS13)。すなわち、音声制御部301は、音声信号を、音源分離処理部302を介さずに音響効果処理部303に出力する。そして、処理は終了する。
一方、これから放映または再生されるシーンがCMシーンでない場合には(ステップS12:No)、音声制御部301は、当該シーンが本編シーンであるか否かを判断する(ステップS14)。
これから放映または再生されるシーンが本編シーンである場合には(ステップS14:Yes)、音声制御部301は、音源分離機能の有効化を行う(ステップS15)。すなわち、音声制御部301は、音声信号を音源分離処理部302に出力するとともに、声信号を強調するための声補正フィルタ403およびゲインGv405に対するパラメータ指令を、音源分離処理部302に出力する。そして、処理は終了する。
ステップS14において、これから放映または再生されるシーンが本編シーンでない場合には(ステップS14:No)、処理は終了する。
音源分離機能をテレビジョン装置100に搭載することで、ユーザはニュース番組で音声を聞きとりやすくしたり、あるいは歌番組で歌っているシーンで人の声を抑制してカラオケのような状態にすることが可能となる。しかしながら、一般に音源分離機能は、ユーザの操作によってその有効と無効を切り替える必要がある。ニュース番組で人の声を強調させる設定をしていても、CMに入った場合、音源分離機能が有効の設定は意味を無さなくなる。本来、ユーザは、音源分離機能を番組の本編シーンに対して適用したい場合が多く、CMシーンに適用する意図は少ないと考えられる。
また、音源分離機能を有効にして、歌番組でカラオケの設定をしていた場合でも、歌っていない合間のシーンでは、人の声が聞きとりにくくなるため、音源分離機能をユーザの操作で解除する必要がある。
本実施形態では、シーン情報により、これから放映または再生されるシーンがCMシーンのような声を主体としないシーンである場合には、音声制御部301は、音源分離機能を無効化して声を強調しないように音源分離処理部302を制御する。また、本実施形態では、これから放映または再生されるシーンが本編シーンのような声を主体とするシーンである場合には、音声制御部301は、音源分離機能を有効化して声を強調するように音源分離処理部302を制御している。このため、本実施形態により、ユーザは意図せず適用された音源分離機能によって、CMシーンから情報を取り損ねたり、機能を手動で変更することなく、自然な視聴を行うことができる。
従って、本実施形態によれば、シーンに応じて適切に音源分離機能による声成分の強調を行うことができ、音源分離機能をテレビジョン装置100等の電子機器に搭載した場合に、適切な状況で、ユーザの負担なく、最適な音源分離の効果を得ることができる。
本実施形態では、音声制御部301は、音源分離機能の有効化と無効化、すなわち、入力される音声信号が音源分離処理部302に出力するか出力しないかにより、音声信号の強調を行うか行わないかを制御していたが、音声信号の強調の制御は、音源分離機能の有効化、無効化に限定されるものではない。
例えば、声信号の強調を行わない場合には、音声信号を音源分離処理部302に出力して音源分離機能を有効化するとともに、声補正フィルタ403の強度を変更せず、ゲインGv405を1とするパラメータ指令を、音源分離処理部302に出力するように音声制御部301を構成することができる。
この場合、声信号の強調を行う場合には、上記と同様に、音声信号を音源分離処理部302に出力することで音源分離機能を有効化するとともに、声信号を強調するための声補正フィルタ403の強度やゲインGv405を増加させるパラメータ指令を音源分離処理部302に出力するように音声制御部301を構成する。
(実施形態2)
実施形態2では、テレビジョン装置100は、実施形態1の機能に加え、ユーザの嗜好、番組情報、字幕情報に基づいて、音源分離機能の制御を行っている。
実施形態2にかかるテレビジョン装置100の構成、音声処理部1241の構成は実施形態1と同様である。
本実施形態の制御部127は、図5に示すように、入力制御部201と、シーン検出部202と、情報取得部501と、設定部203とを備えている。ここで、シーン検出部202の機能については実施形態1と同様である。
なお、本実施形態では、HDD130やDVD、Blu−ray(登録商標)に録画された番組映像の動画データを再生する場合を例にあげて説明する。
本実施形態では、入力制御部201は、ユーザから、嗜好性の高い人物であるお気に入りの人物(第1人物)と、嗜好性の低い人物であるお気に入りでない(第2人物)との設定の入力を受け付ける。具体的には、信号処理部124の映像処理部1242が嗜好設定画面を、OSDとして映像表示パネル102に表示する。
嗜好設定画面には、図6に示すように、ユーザが、お気に入りの人物とお気に入りでない人物をそれぞれ複数設定することができるようなっている。入力制御部201は、この嗜好設定画面での入力を受け付ける。
設定部203は、入力制御部201で受け付けた、お気に入りの人物とお気に入りでない人物とを、嗜好設定情報としてHDD130に保存する。
情報取得部501は、これから再生する録画映像等の番組情報と字幕情報を取得する。番組情報と字幕情報は、ネットワーク上のサーバや放送局等から受信して取得する他、HDD130やDVD、Blu−ray(登録商標)等の記憶媒体から取得する。情報取得部501は、取得した番組情報と字幕情報を、音声処理部1241の音声制御部301に送出する。
本実施形態の音声処理部1241の音声制御部301は、音声信号を入力するとともに、制御部127の情報取得部501から、映像表示パネル102に表示する動画データの番組情報と字幕情報とを、制御情報として入力する。
番組情報には、番組の詳細内容や出演者、ナレータ、配役等が登録されている。字幕情報には、台詞ごとに発話者名や発話者を区別するための識別情報(色による区別)等が登録されている。
音声制御部301は、番組映像における番組情報の出演者、ナレータ、配役等の情報から、嗜好設定情報としてHDD130に登録された、お気に入りの人物とお気に入りでない人物の出演の有無を判断する。また、音声制御部301は、字幕情報の発話者やその識別情報から、番組映像におけるお気に入りの人物とお気に入りでない人物の発話を抽出および特定する。
音声制御部301は、再生中の番組映像において、お気に入りの人物の発話中には声信号の強調を行い、お気に入りでない人物の発話中には声信号の強調を行わないように音源分離処理部302を制御する。
具体的には、音声制御部301は、特定された話者ごとに嗜好性を示すスコアを算出する。例えば、音声制御部301は、お気に入りの人物の話者のスコアを90とし、お気に入りでない人物の話者のスコアを10とする。一方、嗜好設定情報にお気に入りの人物およびお気に入りでない人物のいずれにも登録されていない話者についてはスコアを50とする。そして、一例として、第1閾値を70、第2閾値を30とし、音声制御部301は、スコアが第1閾値より高いスコアの話者の声信号を強調し、第2閾値より低いスコアの話者の声信号を抑制するように、音源分離処理部302を制御する。ここで、これらのスコアの値は一例であり、これらに限定されるものではない。
音声制御部301は、声信号を強調する場合には、音声信号を音源分離処理部302に出力するとともに、声信号を強調するための声補正フィルタ403およびゲインGv405に対するパラメータ指令を音源分離処理部302に出力する。音声制御部301は、声信号を抑制する場合には、音声信号を音源分離処理部302に出力するとともに、声信号を抑制するための声補正フィルタ403およびゲインGv405に対するパラメータ指令を音源分離処理部302に出力する。
次に、以上のように構成された本実施形態のテレビジョン装置100による音声制御処理について図7を用いて説明する。
まず、音声制御部301は、これから再生する動画データの番組の番組情報と字幕情報とを、制御部127の情報取得部501から取得する(ステップS31)。そして、音声制御部301は、HDD130からユーザの嗜好設定情報を取得する(ステップS32)。
次に、音声制御部301は、嗜好設定情報に登録されたお気に入りの人物およびお気に入りでない人物と、番組情報と、字幕情報とから上述のように話者を抽出する(ステップS33)。そして、音声制御部301は、特定された話者ごとに、上述のとおり、スコアを算出する(ステップS34)。
そして、番組の再生が開始され、発話が検出されたら(ステップS35:Yes)、音声制御部301は、字幕情報を参照して話者名や話者の識別情報から話者を特定する(ステップS36)。そして、音声制御部301は、ステップS34で算出された話者のスコアが第1閾値以上であるか否かを判断する(ステップS37)。そして、スコアが第1閾値以上である場合には(ステップS37:Yes)、音声制御部301は、話者の声を強調するように音源分離処理部302を制御する(ステップS38)。
ステップS37でスコアが第1閾値未満である場合には(ステップS37:No)、音声制御部301は、話者のスコアが第2閾値以下であるか否かを判断する(ステップS39)。そして、スコアが第2閾値以下である場合には(ステップS39:Yes)、音声制御部301は、話者の声を抑制するように音源分離処理部302を制御する(ステップS40)。
ステップS39でスコアが第2閾値より大きい場合には(ステップS39:No)、音声制御部301は、声の強調、抑制の制御は行わない。
上記ステップS35からS41までの処理は、番組が終了するまで(ステップS41:No)、発話があるごとに繰り返し実行される。番組が終了すると(ステップS41:Yes)、処理は終了する。
このように本実施形態では、テレビジョン装置100は、ユーザの嗜好、番組情報、字幕情報に基づいて、音源分離機能の制御を行っているので、番組映像の表示中に、ユーザの嗜好に合わない出演者の声を抑制したり、嗜好に合う(好きな)出演者の声を強調することが可能となる。このため、本実施形態によれば、音源分離機能をテレビジョン装置100等の電子機器に搭載した場合に、適切な状況で、ユーザの負担なく、最適な音源分離の効果を得ることができる。
本実施形態では、ユーザにお気に入りの人物、お気に入りでない人物をそれぞれ複数設定させて、音声制御部301は、ユーザにお気に入りの人物のスコアを第1閾値以上の同一スコアに設定して一律に声を強調させ、お気に入りでない人物のスコアを第2閾値以下の同一スコアに設定して一律に声を抑制しているが、これに限定されるものではない。
例えば、嗜好設定画面における複数の人物に順位付けをし、順位が高い程、高いスコアに設定するように音声制御部301を構成してもよい。そして、この場合、スコアの値が高い程、声の強調の度合いを高くしたり、スコアの値が低い程、声の抑制の度合いを低くするように音声制御部301を構成することができる。また、この場合、第1閾値、第2閾値を設けないように音声制御部301を構成してもよい。
さらに、本実施形態では、音声制御部301は、お気に入りの人物とお気に入りでない人物のいずれにも登録されていない話者には、一律に、第1閾値未満で第2閾値より大きいスコアを設定していたが、これに限定されるものではない。
例えば、お気に入りの人物とお気に入りでない人物のいずれにも登録されていない話者の場合には、番組情報における人物の配役や、出演者かナレータか、司会者か芸人か等の番組情報の詳細情報により、スコアに高低を付けて設定するように音声制御部301を構成することができる。この場合には、第1閾値、第2閾値を設けずに、お気に入りの人物とお気に入りでない人物のいずれにも登録されていない話者に対しても、スコアに応じた度合いで声の強調や抑制を行うように音声制御部301を構成してもよい。
また、本実施形態では、記憶媒体に録画された番組映像の動画データを再生する場合を例にあげて説明したが、リアルタイムに受信される放送映像に対して、話者毎の声の強調、抑制の処理を行うようにテレビジョン装置100を構成してもよい。この場合には、テレビジョン装置100には、実際の放送映像とは、微少な時間で遅れて再生するいわゆる追っかけモードと同等のモードとして音源分離モードを設ける。
そして、信号処理部124は、当該音源分離モードで放送映像をタイミングを微少時間ずらして再生し、上記音源分離機能による話者ごとの声信号の強調および抑制処理を行うように構成する。また、この場合の字幕情報としては、リアルタイムに放送局等で作成されて送信される、いわゆる生字幕の情報を用いることができる。このような手法により、リアルタイムな放送映像に対しても、適切な状況で、ユーザの負担なく、最適な音源分離の効果を得ることができる。
(実施形態3)
実施形態3では、テレビジョン装置100は、実施形態1の機能に加え、ユーザによる字幕表示機能の設定に応じて音源分離機能の実行を制御している。
実施形態3にかかるテレビジョン装置100の構成、制御部127の機能的構成、および音声処理部1241の構成は実施形態1と同様である。
本実施形態では、制御部127の入力制御部201は、ユーザから、字幕表示機能の設定の指示を受け付ける。この字幕表示機能の設定には、字幕表示機能を使用する旨を示す字幕表示機能オンの設定と、字幕機能を使用しない旨を示す字幕表示機能オフの設定がある。設定部203は、入力制御部201で受け付けた字幕表示機能の設定を、HDD130に保存する。
本実施形態の音声処理部1241の音声制御部301は、HDD130に保存された字幕表示機能の設定を制御情報として取得し、字幕表示機能の設定の指示に基づいて、音源分離機能の実行を制御する。
本実施形態の音声制御部301による音声制御処理の詳細について図8を用いて説明する。まず、音声制御部301は、字幕表示機能がオンの設定であるか否かを判断する(ステップS51)。そして、字幕表示機能がオンの設定である場合には(ステップS51:Yes)、音声制御部301は、音源分離機能の有効化を行い、音声信号を音源分離処理部302に出力し(ステップS52)、パラメータ指令により声信号の抑制を行うように音源分離処理部302を制御する(ステップS53)。
一方、ステップS51で、字幕表示機能がオンではない場合には(ステップS51:No)、音声制御部301は、字幕表示機能がオフの設定であるか否かを判断する(ステップS54)。そして、字幕表示機能がオフの設定である場合には(ステップS54:Yes)、音声制御部301は、声信号の強調を行わないように音源分離処理部302を制御する。すなわち、音声制御部301は、音源分離機能の無効化を行い、音声信号を音源分離処理部302を介さずに音響効果処理部303に出力する(ステップS55)。これにより、声信号の抑制は行われない。
番組の視聴中に、ユーザが人間の声を抑制したい場合でも、解説などの情報を取得したい場合がある。本実施形態では、テレビジョン装置100は、ユーザによる字幕表示機能の設定に応じて音源分離機能の実行を制御している。すなわち、音声制御部301は、ユーザによる指示で字幕表示機能がオンである場合には、声信号の抑制を行うように音源分離処理部302を制御し、字幕表示機能がオフである場合には、声信号の抑制を行わないように音源分離処理部302を制御している。
このため、本実施形態では、ユーザが字幕表示機能の設定の操作と音源分離機能の両方の操作を行う手間を省き、操作を簡易にすることができる。この結果、本実施形態では、音源分離機能をテレビジョン装置100等の電子機器に搭載した場合に、適切な状況で、ユーザの負担なく、最適な音源分離の効果を得ることができる。
なお、本実施形態では、音声制御部301は、字幕表示機能がオフに設定されている場合に、音源分離機能の無効化を行って、声信号の抑制を行わないように制御していたが、声信号の抑制を行わない手法としてはこれに限定されるものではない。例えば、音声信号を音源分離処理部302に出力することで音源分離機能の有効化を行うとともに、声信号の抑制を行わないために声補正フィルタ403の強度を変化させず、ゲインGv405を1にするパラメータ指令を音源分離処理部302に出力することにより、声信号の抑制を行わないように音源分離処理部302を制御するように、音声制御部301を構成してもよい。
実施形態2および3では、実施形態1のシーン情報に基づく音源分離機能の制御の機能も有するものとして説明していたが、実施の形態2および3において、かかる実施形態1の機能を有さない構成としてもよい。
なお、上記実施形態のテレビジョン装置100で実行される音声制御プログラムは、メモリ131のROM等に予め組み込まれてコンピュータプログラムプロダクトとして提供される。
上記実施形態のテレビジョン装置100で実行される音声制御プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供するように構成してもよい。
さらに、上記実施形態のテレビジョン装置100で実行される音声制御プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることによりコンピュータプログラムプロダクトとして提供するように構成しても良い。また、上記実施形態のテレビジョン装置100で実行される音声制御プログラムをコンピュータプログラムプロダクトとしてインターネット等のネットワーク経由で提供または配布するように構成しても良い。
上記実施形態のテレビジョン装置100で実行される音声制御プログラムは、上述した各部(入力制御部201、シーン検出部202、設定部203、情報取得部501、音声制御部301、音源分離処理部302)を含むモジュール構成となっており、CPUが上記ROMから音声制御プログラムを読み出して実行することにより上記各部がメモリ131のRAM上にロードされ、各部がRAM上に生成されるようになっている。
さらに、ここに記述されたシステムの種々のモジュールは、ソフトウェア・アプリケーション、ハードウェアおよび/またはソフトウェア・モジュール、あるいはサーバのような1台以上のコンピュータ上のコンポーネントとしてインプリメントすることができる。種々のモジュールは、別々に説明されているが、それらは同じ根本的なロジックかコードのうちのいくつかあるいはすべてを共有してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (7)

  1. 入力される音声信号を、声信号と背景音信号とに分離して、前記声信号または前記背景音信号のいずれかを強調する音源分離機能を実行する音源分離処理部と、
    映像に含まれるシーンに関するシーン情報に基づいて、前記シーンを表示する際における前記音源分離機能の実行を制御するとともに、前記声信号または前記背景音信号の強調または抑制に関するパラメータを含むパラメータ指令を前記音源分離処理部に出力する音声制御部と、
    を備え
    前記音源分離処理部は、
    前記音声信号を前記声信号と前記背景音信号とに分離する音源分離部と、
    前記声信号を前記パラメータ指令に基づいて補正して、補正後の声信号を出力する声補正フィルタと、
    前記背景音信号を前記パラメータ指令に基づいて補正して、補正後の背景音信号を出力する背景音補正フィルタと、
    前記補正後の声信号に前記パラメータ指令に基づいたゲインを乗算したものと、前記補正後の背景音信号に前記パラメータ指令に基づいたゲインを乗算しものと、を加算して合成信号を出力する加算部と、
    を有する電子機器。
  2. 前記音声制御部は、前記シーン情報において声が主体でない第1シーンが含まれている場合には、前記第1シーンの表示中に、前記声信号の強調を行わないように前記音源分離処理部を制御する、
    請求項1に記載の電子機器。
  3. 前記音声制御部は、前記シーン情報において声が主体である第2シーンが含まれている場合には、前記第2シーンの表示中に、前記声信号の強調を行うように前記音源分離処理部を制御する、
    請求項1に記載の電子機器。
  4. 前記音声制御部は、前記声信号の強調および抑制を行わない場合に、前記音源分離機能を実行しないように前記音源分離処理部を制御する、
    請求項1〜のいずれか一つに記載の電子機器。
  5. 前記音声制御部は、前記パラメータを調整することにより、前記声信号の強調および抑制を制御する、
    請求項1〜のいずれか一つに記載の電子機器。
  6. 入力される音声信号を、声信号と背景音信号とに分離して、前記声信号または前記背景音信号のいずれかを強調する音源分離機能を実行する音源分離工程と
    映像に含まれるシーンに関するシーン情報に基づいて制御する制御工程と、
    み、
    前記音源分離工程は、
    入力される音声信号を、声信号と背景音信号とに分離する工程と、
    前記声信号または前記背景音信号の強調または抑制に関するパラメータを含むパラメータ指令に基づいて、前記声信号を補正して、補正後の声信号を出力する工程と、
    前記パラメータ指令に基づいて、前記背景音信号を補正して、補正後の背景音信号を出力する工程と、
    前記補正後の声信号に前記パラメータ指令に基づいたゲインを乗算したものと、前記補正後の背景音信号に前記パラメータ指令に基づいたゲインを乗算しものと、を加算して合成信号を出力する工程と、
    を含む制御方法。
  7. 入力される音声信号を、声信号と背景音信号とに分離して、前記声信号または前記背景音信号のいずれかを強調する音源分離機能を実行する音源分離手順と
    映像に含まれるシーンに関するシーン情報に基づいて制御する制御手順と、
    をコンピュータに実行させ、
    前記音源分離手順では、
    入力される音声信号を、声信号と背景音信号とに分離する手順と、
    前記声信号または前記背景音信号の強調または抑制に関するパラメータを含むパラメータ指令に基づいて、前記声信号を補正して、補正後の声信号を出力する手順と、
    前記パラメータ指令に基づいて、前記背景音信号を補正して、補正後の背景音信号を出力する手順と、
    前記補正後の声信号に前記パラメータ指令に基づいたゲインを乗算したものと、前記補正後の背景音信号に前記パラメータ指令に基づいたゲインを乗算しものと、を加算して合成信号を出力する手順と、
    を含むプログラム。
JP2015554418A 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム Expired - Fee Related JP6253671B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/084997 WO2015097831A1 (ja) 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2015097831A1 JPWO2015097831A1 (ja) 2017-03-23
JP6253671B2 true JP6253671B2 (ja) 2017-12-27

Family

ID=53477767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015554418A Expired - Fee Related JP6253671B2 (ja) 2013-12-26 2013-12-26 電子機器、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US10176825B2 (ja)
JP (1) JP6253671B2 (ja)
WO (1) WO2015097831A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038543A1 (ja) 2015-09-03 2017-03-09 ソニー株式会社 音声処理装置および方法、並びにプログラム
US10297269B2 (en) * 2015-09-24 2019-05-21 Dolby Laboratories Licensing Corporation Automatic calculation of gains for mixing narration into pre-recorded content
WO2017098949A1 (ja) * 2015-12-10 2017-06-15 ソニー株式会社 音声処理装置および方法、並びにプログラム
CN105657530A (zh) * 2015-12-30 2016-06-08 深圳Tcl数字技术有限公司 声效模式同步方法及装置
KR102531886B1 (ko) * 2016-08-17 2023-05-16 삼성전자주식회사 전자장치 및 그 제어방법
EP3324406A1 (en) * 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
CN107316641B (zh) * 2017-06-30 2021-06-15 联想(北京)有限公司 一种语音控制方法及电子设备
CN108257596B (zh) * 2017-12-22 2021-07-23 北京小蓦机器人技术有限公司 一种用于提供目标呈现信息的方法与设备
US10540985B2 (en) 2018-01-31 2020-01-21 Ford Global Technologies, Llc In-vehicle media vocal suppression
WO2020074959A1 (en) * 2018-10-12 2020-04-16 Monitoreal Limited System, device and method for object detection in video feeds
CN110970056B (zh) * 2019-11-18 2022-03-11 清华大学 一种从视频中分离音源的方法
JP2024536082A (ja) * 2021-10-01 2024-10-04 ソニーグループ株式会社 オーディオソース分離
CN115278352A (zh) * 2022-06-22 2022-11-01 北京字跳网络技术有限公司 一种视频播放方法、装置、设备及存储介质
WO2024161995A1 (ja) * 2023-02-02 2024-08-08 パナソニックIpマネジメント株式会社 信号処理装置、信号処理方法、及び信号処理プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3381510B2 (ja) * 1996-03-27 2003-03-04 ヤマハ株式会社 カラオケ装置
JP3157769B2 (ja) * 1998-03-02 2001-04-16 静岡日本電気株式会社 Tv音声制御装置
US7099821B2 (en) * 2003-09-12 2006-08-29 Softmax, Inc. Separation of target acoustic signals in a multi-transducer arrangement
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
US20060059510A1 (en) * 2004-09-13 2006-03-16 Huang Jau H System and method for embedding scene change information in a video bitstream
JP2006093918A (ja) * 2004-09-22 2006-04-06 Sharp Corp デジタル放送受信装置、デジタル放送受信方法、デジタル放送受信プログラム及びプログラム記録媒体
US8428443B2 (en) * 2007-03-12 2013-04-23 At&T Intellectual Property I, L.P. Systems and methods of providing modified media content
JP4488091B2 (ja) * 2008-06-24 2010-06-23 ソニー株式会社 電子機器、映像コンテンツ編集方法及びプログラム
JP4364288B1 (ja) * 2008-07-03 2009-11-11 株式会社東芝 音声音楽判定装置、音声音楽判定方法及び音声音楽判定用プログラム
JP5435221B2 (ja) 2009-09-25 2014-03-05 日本電気株式会社 音源信号分離装置、音源信号分離方法及びプログラム
JP2011239141A (ja) * 2010-05-10 2011-11-24 Sony Corp 情報処理方法、情報処理装置、情景メタデータ抽出装置、欠損補完情報生成装置及びプログラム
JP2011254400A (ja) * 2010-06-03 2011-12-15 Olympus Imaging Corp 画像音声記録装置
JP5737808B2 (ja) * 2011-08-31 2015-06-17 日本放送協会 音響処理装置およびそのプログラム
JP2013121096A (ja) * 2011-12-08 2013-06-17 Sharp Corp 音声調整装置およびデジタル放送受信装置

Also Published As

Publication number Publication date
WO2015097831A1 (ja) 2015-07-02
JPWO2015097831A1 (ja) 2017-03-23
US10176825B2 (en) 2019-01-08
US20160180861A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
JP6253671B2 (ja) 電子機器、制御方法およびプログラム
US9865279B2 (en) Method and electronic device
EP3108672B1 (en) Content-aware audio modes
KR101249239B1 (ko) 오디오 레벨 제어
US8265301B2 (en) Audio signal processing apparatus, audio signal processing method, program, and input apparatus
JP4327886B1 (ja) 音質補正装置、音質補正方法及び音質補正用プログラム
US9747923B2 (en) Voice audio rendering augmentation
JP5085769B1 (ja) 音響制御装置、音響補正装置、及び音響補正方法
WO2015144243A1 (en) Image display device with automatic sound enhancement function
US9905245B2 (en) Electronic device and control method
JP2009296274A (ja) 映像音声信号処理装置
JP2008160232A (ja) 映像音声再生装置
JP2002027352A (ja) デジタル放送受信装置
JP2015012374A (ja) 映像再生装置、映像再生装置の制御方法及び制御プログラム
JP6290260B2 (ja) テレビシステムとサーバ装置及びテレビ装置
JP2006186920A (ja) 情報再生装置および情報再生方法
JP2010258776A (ja) 音声信号処理装置
WO2011013669A1 (ja) 表示装置、プログラム及びプログラムが記録されたコンピュータ読み取り可能な記憶媒体
KR100499032B1 (ko) 텔레비젼 수신기를 기반으로 하는 오디오 및 비디오 합성편집장치
JP2006093918A (ja) デジタル放送受信装置、デジタル放送受信方法、デジタル放送受信プログラム及びプログラム記録媒体
WO2011037204A1 (ja) コンテンツ再生装置、音声パラメータ設定方法、プログラム、および記録媒体
JP4716833B2 (ja) 映像再生装置
JP2001238299A (ja) 放送受信装置
JP2010191302A (ja) 音声出力装置
WO2017211400A1 (en) Image display device with conditional volume level adjustment function

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170526

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170913

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171128

R150 Certificate of patent or registration of utility model

Ref document number: 6253671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees