JP2022010300A - 映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システム - Google Patents

映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システム Download PDF

Info

Publication number
JP2022010300A
JP2022010300A JP2021185733A JP2021185733A JP2022010300A JP 2022010300 A JP2022010300 A JP 2022010300A JP 2021185733 A JP2021185733 A JP 2021185733A JP 2021185733 A JP2021185733 A JP 2021185733A JP 2022010300 A JP2022010300 A JP 2022010300A
Authority
JP
Japan
Prior art keywords
unit
observation target
video
voice
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021185733A
Other languages
English (en)
Other versions
JP7303862B2 (ja
Inventor
真彦 宮田
Masahiko Miyata
祐樹 杉原
Yuki Sugihara
潤 小林
Jun Kobayashi
智大 島田
Tomohiro Shimada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2022010300A publication Critical patent/JP2022010300A/ja
Application granted granted Critical
Publication of JP7303862B2 publication Critical patent/JP7303862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Abstract

【課題】観察対象が出す音声を適切に認識できる映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システムを提供する。【解決手段】観察対象エリア内を定位置から撮影するカメラ(10)からの映像をディスプレイ(112)に表示する。ディスプレイ(112)に表示された映像内で位置の指定を受け付けて、観察対象を設定する。設定された観察対象と観察対象エリア内に離散的に配置された複数のマイクロフォン(Mij)との位置関係を算出する。算出結果に基づいて、観察対象から発せられる音声が各マイクロフォン(Mij)に到達するまでの到達時間を算出する。算出結果に基づいて、各マイクロフォン(Mij)からの音声信号を同時化し、重ね合わせて強調処理して、スピーカ(114)から出力する。【選択図】図1

Description

本発明は、映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システムに係り、特に、複数の集音部からの映像音声信号を処理する映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システムに関する。
定位置に設置したカメラを使用して対象を観察するシステムにおいて、対象がどのような音を出しているのかを知りたいと考えるユーザは多い。この場合、カメラと共にマイクロフォンを設置して撮影が行われる。しかし、複数の音源が存在する場合、マイクロフォンで集音した音声から対象の音のみ認識するのは難しい。
この課題に対して、従来、マイクロフォンアレイを使用したシステムが知られている(たとえば、特許文献1~3等)。マクロフォンアレイを使用したシステムでは、マイクロフォンアレイから取得される音声信号を処理することで指向性を制御する。
特開2008-271157号公報 特開2016-39407号公報 特開2018-23137号公報
しかしながら、マクロフォンアレイを使用したシステムでは、方向に関する選択性しか制御できないため、たとえば、観察対象エリアが広範囲にわたる場合などには、目的とする対象の音声を適切に認識できない場合がある。また、障害物が存在する場合などにも、目的とする対象の音声を適切に認識できない場合がある。
本発明は、このような事情に鑑みてなされたもので、観察対象が出す音声を適切に認識できる映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システムを提供することを目的とする。
上記課題を解決するための手段は、次のとおりである。
(1)第1エリア内に離散的に配置された複数の集音部から音声信号を取得する音声信号取得部と、第1エリア内を定位置から撮影する撮影部から映像信号を取得する映像信号取得部と、映像信号取得部で取得された映像信号が表わす映像を表示する表示部と、表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する観察対象設定部と、観察対象と各集音部との位置関係を算出する位置関係算出部と、位置関係算出部の算出結果に基づいて、観察対象から発せられる音声が各集音部に到達するまでの到達時間を算出する音声到達時間算出部と、音声到達時間算出部の算出結果に基づいて、各集音部からの音声信号を同時化し、重ね合わせて強調処理する音声強調処理部と、を備えた音声信号処理装置。
本態様によれば、第1エリア内に離散的に配置された複数の集音部からの音声信号を処理することにより、第1エリア内に障害物が存在する場合などにも、観察対象が発する音声を適切に認識できる。
(2)記憶部と、記憶部への映像信号及び音声信号の記録を制御する記録制御部と、を更に備え、記録制御部は、強調処理により遅延して取得される音声信号に合わせて映像信号を遅延させて記録する、上記(1)の音声信号処理装置。
本態様によれば、音声信号の遅延に合わせて、映像信号が記録される。これにより、ずれなく映像と音声を記録できる。
(3)音声強調処理部は、観察対象から最も離れた集音部で集音される音声信号を基準に、各集音部からの音声信号を同時化し、重ね合わせて強調処理する、上記(1)又は(2)の音声信号処理装置。
本態様によれば、観察対象から最も離れた集音部で集音される音声信号を基準に、各集音部からの音声信号が同時化される。
(4)観察対象を中心とする半径Rの範囲に第2エリアを設定する第2エリア設定部を更に備え、位置関係算出部は、第2エリア内で観察対象と各集音部との位置関係を算出し、音声到達時間算出部は、第2エリア内で観察対象から発せられる音声が各集音部に到達するまでの到達時間を算出し、音声強調処理部は、観察対象を中心とする半径Rの位置で仮想的に集音される音声信号を基準に、第2エリア内の各集音部からの音声信号を同時化し、重ね合わせて強調処理する、上記(1)又は(2)の音声信号処理装置。
本態様によれば、仮想的な観察エリア(第2エリア)が設定されて、強調処理が行われる。これにより、処理を簡素化できる。
(5)観察対象の移動を追跡する追跡部を更に備え、第2エリア設定部は、第2エリアを観察対象の移動に追従させる、上記(4)の音声信号処理装置。
本態様によれば、観察対象の移動に追従して、第2エリアが設定される。
(6)第2エリア設定部は、半径Rの位置に音声が到達する時間分遅延させて、第2エリアを観察対象の移動に追従させる、上記(5)の音声信号処理装置。
本態様によれば、観察対象の移動に対して、第2エリアが遅れて追従する。これにより、観察対象が移動している場合でも、ドップラー効果などの音の周波数変化を発生させずに音を収集できる。
(7)第2エリアのサイズを調整する第2エリアサイズ調整部を更に備えた、上記(4)から(6)のいずれか一の音声信号処理装置。
本態様によれば、第2エリアのサイズを調整できる。
(8)各集音部への音声の到達時間の補正情報が記憶された補正情報記憶部と、補正情報記憶部に記憶された補正情報に基づいて、音声到達時間算出部で算出される音声の到達時間を補正する音声到達時間補正部と、を更に備え、音声強調処理部は、音声到達時間補正部による補正後の到達時間の情報に基づいて、各集音部からの音声信号を同時化し、重ね合わせて強調処理する、上記(1)から(7)のいずれか一の音声信号処理装置。
本態様によれば、位置関係に基づいて算出された音声の到達時間が、補正情報に基づいて補正される。これにより、実際の状況に則した正確な時間を求めることができる。
(9)補正情報は、第1エリア内の各位置で発生させた音声の各集音部への到達時間の実測値に基づいて設定される、上記(8)の音声信号処理装置。
本態様によれば、実測値に基づいて、補正情報が設定される。
(10)補正情報記憶部には、周波数ごとの補正情報が記憶され、音声到達時間補正部は、観察対象が発する音声の周波数に応じた補正情報に基づいて、音声到達時間算出部で算出される音声の到達時間を補正する、上記(8)又は(9)の音声信号処理装置。
本態様によれば、周波数ごとの補正情報が用意される。
(11)位置関係算出部は、撮影部から得られる情報に基づいて、第1エリア内における観察対象の位置を特定し、観察対象と各集音部との位置関係を算出する、上記(1)から(10)のいずれか一の音声信号処理装置。
本態様によれば、撮影部から得られる情報に基づいて、第1エリア内における観察対象の位置を特定することにより、観察対象と各集音部との位置関係が算出される。
(12) 位置関係算出部は、撮影部から得られる情報に基づいて、撮影部に対する観察対象の方向及び距離を求め、得られた撮影部に対する観察対象の方向及び距離の情報に基づいて、第1エリア内における観察対象の位置を特定し、観察対象と各集音部との位置関係を算出する、上記(11)の音声信号処理装置。
本態様によれば、撮影部から得られる情報に基づいて、撮影部に対する観察対象の方向及び距離を求めることにより、観察対象の位置が特定される。
(13)観察対象の大きさよりも広い間隔で集音部が配置される、上記(1)から(12)のいずれか一の音声信号処理装置。
本態様によれば、観察対象の大きさよりも広い間隔で集音部が配置される。
(14)位置関係算出部で算出可能な位置の分解能よりも広い間隔で集音部が配置される、上記(1)から(12)のいずれか一の音声信号処理装置。
本態様によれば、位置関係算出部で算出可能な位置の分解能よりも広い間隔で集音部が配置される。
(15)観察対象からの音声が少なくとも3つの集音部で集音される間隔で集音部が配置される、上記(1)から(12)のいずれか一の音声信号処理装置。
本態様によれば、観察対象からの音声が少なくとも3つの集音部で集音される間隔で集音部が配置される。
(16)第1エリア内に離散的に配置された複数の集音部から音声信号を取得するステップと、第1エリア内を定位置から撮影する撮影部から映像信号を取得するステップと、撮影部で撮影された映像を表示部に表示するステップと、表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定するステップと、観察対象と各集音部との位置関係を算出するステップと、位置関係の算出結果に基づいて、観察対象から発せられる音声が各集音部に到達するまでの到達時間を算出するステップと、音声の到達時間の算出結果に基づいて、各集音部からの音声信号を同時化し、重ね合わせて強調処理するステップと、を含む音声信号処理方法。
本態様によれば、第1エリア内に離散的に配置された複数の集音部からの音声信号を処理することにより、第1エリア内に障害物が存在する場合などにも、観察対象が発する音声を適切に認識できる。
(17)強調処理により遅延して取得される音声信号に合わせて映像信号を遅延させて記憶部に記録するステップを更に含む、上記(16)の音声信号処理方法。
本態様によれば、音声信号の遅延に合わせて、映像信号が記録される。これにより、ずれなく映像と音声を記録できる。
(18)第1エリア内に離散的に配置された複数の集音部から音声信号を取得する機能と、第1エリア内を定位置から撮影する撮影部から映像信号を取得する機能と、撮影部で撮影された映像を表示部に表示する機能と、表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する機能と、観察対象と各集音部との位置関係を算出する機能と、位置関係の算出結果に基づいて、観察対象から発せられる音声が各集音部に到達するまでの到達時間を算出する機能と、音声の到達時間の算出結果に基づいて、各集音部からの音声信号を同時化し、重ね合わせて強調処理する機能と、をコンピュータに実現させる音声信号処理プログラム。
本態様によれば、第1エリア内に離散的に配置された複数の集音部からの音声信号を処理することにより、第1エリア内に障害物が存在する場合などにも、観察対象が発する音声を適切に認識できる。
(19)強調処理により遅延して取得される音声信号に合わせて映像信号を遅延させて記憶部に記録する機能を更に含む、上記(18)の音声信号処理プログラム。
本態様によれば、音声信号の遅延に合わせて、映像信号が記録される。これにより、ずれなく映像と音声を記録できる。
(20)第1エリア内に離散的に配置された複数の集音部と、各集音部から音声信号を取得する音声信号取得部と、第1エリア内を定位置から撮影する撮影部と、撮影部から映像信号を取得する映像信号取得部と、映像信号取得部で取得された映像信号が表わす映像を表示する表示部と、表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する観察対象設定部と、観察対象と各集音部との位置関係を算出する位置関係算出部と、位置関係算出部の算出結果に基づいて、観察対象から発せられる音声が各集音部に到達するまでの到達時間を算出する音声到達時間算出部と、音声到達時間算出部の算出結果に基づいて、各集音部からの音声信号を同時化し、重ね合わせて強調処理する音声強調処理部と、を備えた音声信号処理システム。
本態様によれば、第1エリア内に離散的に配置された複数の集音部からの音声信号を処理することにより、第1エリア内に障害物が存在する場合などにも、観察対象が発する音声を適切に認識できる。
(21)記憶部と、記憶部への映像信号及び音声信号の記録を制御する記録制御部と、を更に備え、記録制御部は、強調処理により遅延して取得される音声信号に合わせて映像信号を遅延させて記録する、上記(20)の音声信号処理システム。
本態様によれば、音声信号の遅延に合わせて、映像信号が記録される。これにより、ずれなく映像と音声を記録できる。
(22)撮影部と、撮影部から出力される映像信号が表わす映像を表示する表示部と、表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する観察対象設定部と、第1エリア内に離散的に配置された複数の集音部から音声信号を取得する音声信号取得部と、定位置から第1エリア内を撮影した場合に、撮影部から得られる情報に基づいて、第1エリア内における観察対象の位置を特定し、観察対象と各集音部との位置関係を算出する位置関係算出部と、位置関係算出部の算出結果に基づいて、観察対象から発せられる音声が各集音部に到達するまでの到達時間を算出する音声到達時間算出部と、音声到達時間算出部の算出結果に基づいて、各集音部からの音声信号を同時化し、重ね合わせて強調処理する音声強調処理部と、記憶部と、記憶部への映像信号及び音声信号の記録を制御する記録制御部と、を備えた撮影装置。
本態様によれば、第1エリア内に離散的に配置された複数の集音部からの音声信号を処理することにより、第1エリア内に障害物が存在する場合などにも、観察対象が発する音声を適切に認識できる。
本発明によれば、観察対象が出す音声を適切に認識できる。
本発明が適用された観察システムの概略構成図 カメラ及び複数のマイクロフォンのレイアウトの一例を示す平面図 映像音声信号処理装置のハードウェアの概略構成を示すブロック図 映像音声信号処理装置が有する機能のブロック図 観察対象の選択画面の一例を示す図 各マイクロフォンへの音声の到達時間の算出の概念図 音声信号の強調処理の概念図 観察する場合の映像音声信号処理装置の動作手順を示すフローチャート 観察する場合の映像音声信号処理装置の動作手順を示すフローチャート 記録済みの映像を再生する場合の映像音声信号処理装置の動作手順を示すフローチャート 音声を強調処理して記録する場合の記録処理に係わる機能のブロック図 仮想観察位置の概念図 仮想観察エリア内のマイクロフォンを用いた強調処理の概念図 第3の実施の形態の映像音声信号処理装置が有する機能のブロック図 音声の強調処理を行って対象を観察する場合の映像音声信号処理装置の動作手順を示すフローチャート 音声の強調処理を行って対象を観察する場合の映像音声信号処理装置の動作手順を示すフローチャート 仮想観察エリアの追従の概念図 第4の実施の形態の映像音声信号処理装置が有する機能のブロック図 第5の実施の形態の映像音声信号処理装置が有する機能のブロック図 補正情報の取得の一例を示す概念図
以下、添付図面に従って本発明を実施するための好ましい形態について詳説する。
[第1の実施の形態]
[構成]
図1は、本発明が適用された観察システムの概略構成図である。
この観察システム1は、所定の観察対象エリア(第1エリア)において、観察対象をカメラ10で撮影して観察するシステムとして構成され、観察対象を撮影するカメラ10と、観察対象エリア内の音声を集音する複数のマイクロフォンMij(i=1、2、3、j=1、2、3、4、5)と、カメラ10からの映像信号及び複数のマイクロフォンMijからの音声信号を処理する映像音声信号処理装置100と、を備える。観察システム1は、音声信号処理システムの一例である。
図2は、カメラ及び複数のマイクロフォンのレイアウトの一例を示す平面図である。
カメラ10は、リモコン雲台14を介して、定位置に設置される。リモコン雲台14は、遠隔操作により、カメラ10をパンニング及びチルティングさせる。カメラ10は、ビデオカメラであり、レンズ12を通した映像を撮像素子に結像させ、映像信号として出力する。本実施の形態では、デジタルの映像信号を出力する。カメラ10は、AE(Automatic Exposure;自動露出)、AF(Auto Focus;自動焦点合せ)、AWB(Auto white balance;オートホワイトバランス)等の一般的なビデオカメラの機能を有する。また、カメラ10は、光学式のズーム機能を有する。カメラ10は、撮影部の一例である。後述するように、カメラ10及びリモコン雲台14は、映像音声信号処理装置100によって遠隔操作される。
マイクロフォンMijは、図2に破線で示す観察対象エリアZ1内に離散的に配置される。複数のマイクロフォンMijを観察対象エリアZ1内に離散的に配置することにより、観察対象エリアZ1内の音声を満遍なく集音できる。図2に示す例では、矩形の観察対象エリアZ1内に複数のマイクロフォンMijを、前後方向(図2においてy軸方向)及び左右方向(図2においてx軸方向)に一定の間隔で配置している。各マイクロフォンMijは、無指向性(全指向性)のマイクロフォンで構成される。マイクロフォンMijは、集音部の一例である。なお、各マイクロフォンMijの位置は固定である。したがって、カメラ10に対する各マイクロフォンMijの位置も固定であり、その位置関係は、事前に求めることができる。カメラ10と各マイクロフォンMijとの位置関係は、たとえば、カメラ10を原点とする空間座標によって特定される。この関係は既知である。
図3は、映像音声信号処理装置のハードウェアの概略構成を示すブロック図である。
映像音声信号処理装置100は、音声処理装置の一例である。映像音声信号処理装置100は、パーソナルコンピュータ等のコンピュータで構成される。この映像音声信号処理装置100を構成するコンピュータは、コンピュータ本体110と、表示部としてのディスプレイ112、音声出力部としてのスピーカ114、並びに、操作部としてのキーボード116及びマウス118等を備える。
コンピュータ本体110は、CPU(Central Processing Unit;中央処理装置)120、IPL(Initial Program Loader)の他、各種プログラム及び各種データを記憶するROM(Read Only Memory)122、CPU120のワークエリアとして使用されるRAM(Random Access Memory)124、ディスプレイ112に表示する画像データを記憶するVRAM(Video Random Access Memory;画像メモリ)126、記憶部としてのHDD(Hard Disk Drive)128、DVD-ROM(DVD:Digital Versatile Disc)等の光学ディスクの読み出しを行う光学ドライブ130を備える。OS(Operating System)の他、各種プログラム及び各種データは、HDD128に記憶される。
また、コンピュータ本体110は、ディスプレイ112が接続されて、ディスプレイ112に映像信号を出力する映像出力インターフェイス(interface , I/F)132、スピーカ114が接続されて、スピーカ114に音声信号を出力する音声出力インターフェイス134、キーボード116が接続されて、キーボード116からの操作信号が入力されるキーボードインターフェイス136、及び、マウス118が接続されて、マウス118からの操作信号が入力されるマウスインターフェイス138等を備える。
更に、コンピュータ本体110は、複数のマイクロフォンMijが接続されて、各マイクロフォンMijからの音声信号が入力される音声入力インターフェイス140、カメラ10が接続されて、カメラ10からの映像信号が入力される映像入力インターフェイス142、及び、カメラ10が接続されて、カメラ10と通信するカメラ通信インターフェイス144等を備える。
音声入力インターフェイス140は、各マイクロフォンMijを接続する複数の端子(不図示)を備える。また、音声入力インターフェイス140は、端子を介して各マイクロフォンMijから入力されるアナログの音声信号をデジタルの音声信号に変換するアナログデジタルコンバータ(不図示)を含む。音声入力インターフェイス140は、音声信号取得部の一例である。
映像入力インターフェイス142は、カメラ10を接続する端子を備える。上記のように、カメラ10はデジタルの映像信号を出力する。したがって、映像入力インターフェイス142には、デジタルの映像信号が入力される。映像入力インターフェイス142は、映像信号取得部の一例である。
カメラ通信インターフェイス144は、カメラ10と接続されて、カメラ10との間で相互に通信する。映像音声信号処理装置100は、このカメラ通信インターフェイス144を介してカメラ10と通信し、カメラ10に制御信号を送信する。たとえば、ズーム、フォーカス、パンニング及びチルティング等の制御信号を送信する。また、映像音声信号処理装置100は、このカメラ通信インターフェイス144を介してカメラ10と通信し、カメラ10から設定情報を受信する。たとえば、設定されている焦点距離の情報、フォーカスレンズの位置に基づく被写体距離の情報、絞りの設定情報等を取得する。
図4は、映像音声信号処理装置が有する機能のブロック図である。
映像音声信号処理装置100は、表示制御部110A、観察対象設定部110B、位置関係算出部110C、音声到達時間算出部110D、音声強調処理部110E、音声出力制御部110F、記録制御部110G、再生制御部110H及びカメラ制御部110I等の機能を有する。これらの機能は、映像音声信号処理装置100を構成するコンピュータ本体110が、所定の制御プログラム(音声信号処理プログラム)を実行することにより実現される。
表示制御部110Aは、映像入力インターフェイス142を介してカメラ10から取得される映像信号が表わす映像をディスプレイ112に表示させる。これにより、カメラ10で捉えた映像がディスプレイ112に表示される。
観察対象設定部110Bは、ディスプレイ112に表示された映像内で位置の指定を受け付けて、観察対象を設定する。位置の指定は、操作部であるキーボード116及びマウス118によって行われる。図5は、観察対象の選択画面の一例を示す図である。同図に示すように、カメラ10で撮影された映像に重ねてカーソルCを表示し、そのカーソルCの位置をキーボード116又はマウス118の操作で移動させて、観察対象Ojを選択する。なお、図5に示す例では、カーソルCを矩形の枠で表示しているが、カーソルCの形状は、これに限定されるものではない。
位置関係算出部110Cは、観察対象と各マイクロフォンMijとの位置関係を算出する。この際、位置関係算出部110Cは、カメラ10に対する観察対象の位置を特定して、観察対象と各マイクロフォンMijの位置関係を算出する。上記のように、カメラ10と各マイクロフォンMijとの位置関係は既知である。したがって、カメラ10に対する観察対象の位置が分かれば、観察対象と各マイクロフォンMijとの位置関係も求めることができる。
カメラ10に対する観察対象Ojの位置は、カメラ10から得られる情報に基づいて算出される。本実施の形態では、カメラ10から得られる情報に基づいて、カメラ10に対する観察対象Ojの方向及びカメラ10から観察対象Ojまでの距離を求め、得られた方向と距離の情報に基づいて、カメラ10に対する観察対象Ojの位置を特定する。
カメラ10に対する観察対象Ojの方向は、パン及びチルトの設定情報と、画面内における観察対象Ojの位置の情報とに基づいて算出される。画面内における観察対象Ojの位置は、画面の中心に対する観察対象Ojの位置を画像から算出して取得する。すなわち、撮影光軸の向きをパン及びチルトの設定情報から取得し、撮影光軸に対する観察対象Ojの位置から観察対象Ojの方向を算出する。
カメラ10から観察対象までの距離は、観察対象Ojに焦点を合わせた際の被写体距離の情報から取得する。被写体距離の情報は、カメラ10から取得する。カメラ10は、フォーカスレンズの位置から被写体距離を求める。
カメラ10に対する観察対象Ojの位置は、カメラ10を原点とする空間座標によって特定される。上記のように、カメラ10に対する各マイクロフォンMijの位置もカメラ10を原点とする空間座標によって特定される。したがって、当該空間座標上で観察対象Ojの位置が特定されれば、観察対象Ojと各マイクロフォンMijとの位置関係も特定される。なお、カメラ10に対する各マイクロフォンMijの位置関係の情報は、あらかじめHDD128に記憶される。
音声到達時間算出部110Dは、位置関係算出部110Cで算出された観察対象Ojと各マイクロフォンMijとの位置関係に基づいて、観察対象から発せられる音声が、各マイクロフォンMijに到達するまでの時間(到達時間)を算出する。
図6は、各マイクロフォンへの音声の到達時間の算出の概念図である。
同図に示すように、観察対象Ojと各マイクロフォンMijとの間の距離Dij(i=1、2、3、j=1、2、3、4、5)を個別に求め、各マイクロフォンMijへの音声の到達時間Tij(i=1、2、3、j=1、2、3、4、5)を個別に算出する。
音声強調処理部110Eは、音声到達時間算出部110Dによる各マイクロフォンMijへの音声の到達時間Tijの算出結果に基づいて、音声の強調処理を行う。具体的には、各マイクロフォンMijへの音声の到達時間Tijに基づいて、各マイクロフォンMijからの音声信号を同時化し、重ね合わせて強調処理する。以下、この強調処理について説明する。
図7は、音声信号の強調処理の概念図である。
ここでは、説明を簡単にするため、2つのマイクロフォンからの音声信号を処理する場合を例に説明する。
2つのマイクロフォンM1、M2は、音源SSからの距離D1、D2が異なる。この場合、2つのマイクロフォンM1、M2は、距離の差(D1-D2)の分だけ、音源SSからの音の到達時間に差が生じる。具体的には、音源SSからの距離が遠いマイクロフォンM1は、音源SSからの距離が近いマイクロフォンM2に対して、到達時間差δだけ、音源SSからの音が遅延して到達する。強調処理では、この遅延を補償するように、一方のマイクロフォンM2(音が速く到達する方のマイクロフォン)の信号を遅延させ、その遅延させた信号を他方のマイクロフォンM1(音が遅延して到達するマイクロフォン)の信号に加算する。すなわち、遅延により同時化し、双方の信号の位相を一致させて、加算する。位相が一致した信号を加算することにより、目的の信号が強調される。その一方で不要な信号が抑制される。このように強調処理することにより、目的の音声、すなわち、観察対象から発する音声を強調でき、その他の音声(ノイズ等)を抑制できる。
3以上のマイクロフォンが備えられている場合は、音源から最も離れたマイクロフォン、すなわち、音源からの音声の到達時間が最も遅いマイクロフォンに合わせて、音声信号を同時化し、位相を一致させる。
音声出力制御部110Fは、音声強調処理部110Eで強調処理された音声信号をスピーカ114から出力させる。
記録制御部110Gは、操作部からの記録指示に基づいて、カメラ10から入力された映像信号、及び、マイクロフォンMijから入力された音声信号をHDD128に記録する。なお、記録制御部110Gが行う映像信号及び音声信号の記録処理は、音声信号を強調処理する場合としない場合とで異なる。音声信号を強調処理しない場合、各マイクロフォンMijからの音声信号を映像信号に関連付けて個別に記録する。したがって、この場合、マイクロフォンMijの数だけ音声信号が記録される。一方、音声信号を強調処理する場合、強調処理後の音声信号が映像信号に関連付けられて記録される。
再生制御部110Hは、操作部からの再生指示に基づいて、HDD128に記録された映像信号及び音声信号の再生処理を行う。すなわち、HDD128から映像信号及び音声信号を読み出し、ディスプレイ112及びスピーカ114から出力させる。再生制御部110Hは、操作部から再生を希望する映像信号の選択を受け付けて再生処理を行う。選択された映像信号に複数の音声信号が関連付けられて記録されている場合は、更に、再生を希望する音声信号の選択を受け付けて再生処理を行う。
カメラ制御部110Iは、操作部からの入力に基づいて、カメラ10を制御する。たとえば、操作部からズームの指示を受け付けて、カメラ10をズームさせたり、操作部からフォーカスエリアの選択を受け付けて、選択されたエリアに焦点を合わさせたり、操作部からパンニング又はチルティングの指示を受け付けて、カメラ10をパンニング又はチルティングさせたりする。なお、観察対象が選択された場合には、選択された観察対象にフォーカスエリアが設定され、カメラ10の焦点が合わせられる。
[観察する場合の動作(音声信号処理方法)]
図8及び図9は、観察する場合の映像音声信号処理装置の動作手順を示すフローチャートである。
図8に示すように、まず、カメラ10から出力される映像信号を取り込み、カメラ10で捉えた映像をディスプレイ112に表示させる(ステップS10)。ユーザ(観察者)は、このディスプレイ112に表示される映像を見て、観察対象エリア内を観察する。ユーザは、必要に応じて操作部(キーボード116及びマウス118)を操作し、カメラ10を遠隔操作する。
映像音声信号処理装置100は、操作部からの入力に基づいて、観察対象の音声の強調させる指示の有無を判定する(ステップS11)。
観察対象の音声を強調させる指示なし、と判定すると、映像音声信号処理装置100は、操作部からの入力に基づいて、映像及び音声の記録の指示の有無を判定する(ステップS12)。
記録の指示あり、と判定すると、映像信号及び音声信号の記録処理を行う(ステップS13)。この場合、観察対象エリア内の各マイクロフォンMijから個別に音声信号を取り込み、映像信号に関連付けて、HDD128に記録する。記録は、ユーザから記録の終了が指示されるまで継続して行われる。あるいは、あらかじめ定められた記録時間に達するまで継続して行われる。映像音声信号処理装置100は、操作部からの入力、及び、記録開始からの経過時間に基づいて、記録終了の可否を判定する(ステップS14)。
記録が終了すると、操作部からの入力に基づいて、観察の終了の指示の有無を判定する(ステップS15)。ステップS12において、記録の指示なし、と判定した場合も、観察の終了の指示の有無を判定する(ステップS15)。
観察の終了の指示なし、と判定すると、ステップS11に戻り、再度、操作部からの入力に基づいて、観察対象の音声の強調させる指示の有無を判定する(ステップS11)。一方、観察終了の指示あり、と判定すると、処理を終了する。
ステップS11において、観察対象の音声を強調させる指示あり、と判定すると、図9に示すように、観察対象を設定する処理を行う(ステップS20)。観察対象の設定は、ディスプレイ112に表示された映像内で位置の指定を受け付けることにより行われる。
観察対象が設定されると、観察対象と各マイクロフォンMijとの位置関係を算出する(ステップS21)。上記のように、観察対象と各マイクロフォンMijとの位置関係は、カメラ10から得られる情報に基づいて算出する。具体的には、まず、カメラ10から得られる情報に基づいて、カメラ10に対する観察対象の方向及びカメラ10から観察対象までの距離を求める。次に、求めた方向と距離の情報に基づいて、カメラ10に対する観察対象の位置を特定する。カメラ10と各マイクロフォンMijとの位置関係は既知なので、カメラ10に対する観察対象の位置が特定されることにより、観察対象と各マイクロフォンMijとの位置関係が特定される。より具体的には、空間座標上での観察対象と各マイクロフォンMijとの位置関係が特定される。
次に、算出された観察対象と各マイクロフォンMijとの位置関係の情報に基づいて、各マイクロフォンMijへの音の到達時間を算出する(ステップS22)。
次に、算出された各マイクロフォンMijへの音の到達時間の情報に基づいて、音声の強調処理を行う(ステップS23)。上記のように、音声の強調処理は、まず、到達時間が最も遅いマイクロフォンに合わせて、各マイクロフォンMijの音声信号を同時化し、各マイクロフォンMijの音声信号の位相を一致させる。その後、各マイクロフォンMijの音声信号を重ね合わせる。これにより、観察対象からの音声が強調され、その他の音声(ノイズ等)が抑制される。
強調処理された音声は、スピーカ114から出力される。ユーザ(観察者)は、このスピーカ114から出力される音声を聞くことで、観察対象が出す音を聞くことができる。この後、映像音声信号処理装置100は、操作部からの入力に基づいて、映像及び音声の記録の指示の有無を判定する(ステップS24)。
記録の指示あり、と判定すると、映像信号及び音声信号の記録処理を行う(ステップS25)。映像音声信号処理装置100は、強調処理された音声信号を映像信号に関連付けて、HDD128に記録する。記録は、ユーザから記録の終了が指示されるまで継続して行われる。あるいは、あらかじめ定められた記録時間に達するまで継続して行われる。映像音声信号処理装置100は、操作部からの入力、及び、記録開始からの経過時間に基づいて、記録終了の可否を判定する(ステップS26)。
記録が終了すると、操作部からの入力に基づいて、観察の終了の指示の有無を判定する(ステップS27)。ステップS24において、記録の指示なし、と判定した場合も、観察の終了の指示の有無を判定する(ステップS27)。
観察の終了の指示なし、と判定すると、図8に示すように、ステップS11に戻り、再度、操作部からの入力に基づいて、観察対象の音声の強調させる指示の有無を判定する(ステップS11)。一方、観察終了の指示あり、と判定すると、処理を終了する。
このように、本実施の形態の映像音声信号処理装置100によれば、必要に応じて観察対象の音声を強調して聞くことができ、また、記録することができる。観察対象の音声を集音するマイクロフォンMijは、観察対象エリア内の複数箇所に離散して設置されるため、観察対象がどこに存在していても、その音声を捉えることができ、かつ、必要に応じて強調して聞くことができる。
[記録済みの映像を再生する場合]
図10は、記録済みの映像を再生する場合の映像音声信号処理装置の動作手順を示すフローチャートである。
まず、再生する映像の選択を受け付ける処理を行う(ステップS30)。再生する映像の選択は、たとえば、HDD128に記録されている映像の一覧をディスプレイ112に表示し、その中から1つをユーザに選択させることにより行う。
再生する映像が選択されると、選択された映像に複数の音声が関連付けて記録されているか否かを判定する(ステップS31)。複数の音声が関連付けられて記録されていると判定すると、再生する音声の選択を受け付ける処理を行う(ステップS32)。再生する音声の選択は、映像の選択と同様に、たとえば、関連付けられている音声の一覧をディスプレイ112に表示し、その中から1つをユーザに選択させることにより行う。選択後、再生処理を行う(ステップS33)。また、ステップS31において、複数の音声が関連付けられて記録されていないと判定した場合は、そのまま再生処理を行う(ステップS33)。
再生処理は、映像については、選択された映像の映像信号をHDD128から読み出し、ディスプレイ112に出力させることにより行われる。また、音声については、対象の音声信号をHDD128から読み出し、スピーカ114から出力させることにより行われる。
この後、操作部からの指示に基づいて、再生終了の指示の有無を判定する(ステップS34)。再生終了の指示なし、と判定すると、ステップS30に戻り、再生する映像の選択を受け付ける処理を行う(ステップS30)。一方、再生終了の指示あり、と判定すると、処理を終了する。
[第2の実施の形態]
音声の強調処理を行うと、映像と音声にズレが生じ得る。具体的には、映像に対して音声が遅延する事態が生じ得る。このため、本実施の形態の映像音声信号処理装置100は、音声を強調処理して記録する場合に、映像と音声にずれが生じないように、映像を音声に合わせて記録する。
図11は、音声を強調処理して記録する場合の記録処理に係わる機能のブロック図である。
記録制御部110Gは、音声強調処理部110Eから強調処理された音声信号を取得し、HDD128に記録する。この音声信号は、強調処理により、映像信号から遅延する。記録制御部110Gは、強調処理により遅延する音声信号に合わせて、映像信号を遅延させて、HDD128に記録する。
記録制御部110Gは、音声到達時間算出部110Dから各マイクロフォンMijへの音声の到達時間の情報を取得して、映像信号に対する音声信号の遅延量を求める。すなわち、音声強調処理部110Eでは、音声の到達時間が最も遅いマイクロフォンに合わせて、音声信号の同時化が行われるので、音声の到達時間が最も遅いマイクロフォンへの音声の到達時間が分かれば、映像信号に対する音声信号の遅延量が分かる。
記録制御部110Gは、音声信号が遅延する分だけ、映像信号を遅延させて、HDD128に記録する。これにより、強調処理した場合であっても、ずれのない映像信号及び音声信号をHDD128に記録できる。
[第3の実施の形態]
[概要]
本実施の形態の映像音声信号処理装置100は、強調処理を行う際に、仮想的に設定した観察位置(仮想観察位置)を基準に強調処理を行う。
図12は、仮想観察位置の概念図である。
同図に示すように、仮想観察位置IPは、観察対象Ojを中心とする半径Rの円の円周上に設定される。この仮想観察位置IPを構成する半径Rの円の内側のエリアを仮想観察エリアZ2とすると、強調処理は、その仮想観察エリアZ2内のマイクロフォンを対象に行われる。図12に示す例では、4つのマイクロフォンM11、M12、M21、M22が仮想観察エリアZ2内のマイクロフォンである。この仮想観察エリアZ2内のマイクロフォンM11、M12、M21、M22を対象に観察対象Ojとの位置関係を算出し、各マイクロフォンM11、M12、M21、M22への音声の到達時間を算出して、強調処理を行う。
図13は、仮想観察エリア内のマイクロフォンを用いた強調処理の概念図である。
観察対象と各マイクロフォンM11、M12、M21、M22との位置関係から、観察対象と各マイクロフォンM11、M12、M21、M22と間の距離D11、D12、D21、D22を求め、各マイクロフォンM11、M12、M21、M22への音声の到達時間を算出する。そして、仮想観察位置IPを基準に各マイクロフォンM11、M12、M21、M22からの音声信号を同時化し、重ね合わせる。これにより、音源である観察対象の音声が強調される。同時化の際には、仮想観察位置IPとの音声の到達時間差δ11、δ12、δ21、δ22を求め、求めた到達時間差δ11、δ12、δ21、δ22に基づいて、各マイクロフォンM11、M12、M21、M22からの音声信号を同時化する。
このように、仮想観察位置を設定することで、音源から最も離れたマイクロフォンを特定する必要がなくなり、同時化の際の処理を簡素化できる。
[構成]
図14は、第3の実施の形態の映像音声信号処理装置が有する機能のブロック図である。
同図に示すように、第3の実施の形態の映像音声信号処理装置100は、仮想観察エリア設定部110Jの機能を更に有する。
仮想観察エリア設定部110Jは、観察対象設定部110Bで設定された観察対象の位置を基準に仮想観察エリアを設定する。仮想観察エリアは、観察対象を基準として、半径Rの範囲に設定される。Rは、あらかじめ定められた値である。仮想観察エリアは、第2エリアの一例であり、仮想観察エリア設定部110Jは、第2エリア設定部の一例である。仮想観察エリアの外周が、仮想観察位置とされる。
仮想観察エリア設定部110Jで設定される仮想観察エリアの情報は、位置関係算出部110C、音声到達時間算出部110D及び音声強調処理部110Eに加えられる。
位置関係算出部110Cは、仮想観察エリア内のマイクロフォンMijを対象に、観察対象と各マイクロフォンMijとの位置関係を算出する。
音声到達時間算出部110Dは、仮想観察エリア内のマイクロフォンMijを対象に、観察対象から発せられる音声が、各マイクロフォンMijに到達するまでの時間(到達時間)を算出する。
音声強調処理部110Eは、仮想観察エリア内のマイクロフォンMijを対象に、音声の強調処理を行う。具体的には、仮想観察エリア内のマイクロフォンMijを対象に、各マイクロフォンMijへの音声の到達時間、及び、仮想観察位置への音声の到達時間(既知)に基づいて、各マイクロフォンMijからの音声信号を同時化し、重ね合わせて強調処理する。同時化は、仮想観察位置を基準にして行う。
[作用]
以下、本実施の形態の映像処理装置で対象を観察する場合について説明する。なお、音声の強調処理をしない場合の動作については、上記第1の実施の形態と同じなので、ここでは、音声の強調処理を行う場合についてのみ説明する。
図15及び図16は、音声の強調処理を行って対象を観察する場合の映像音声信号処理装置の動作手順を示すフローチャートである。
図15に示すように、まず、仮想観察位置の設定がオフされているか否かを判定する(ステップS40)。仮想観察位置の設定のオン、オフは、たとえば、動作環境の設定画面で行う。
ステップS40において、仮想観察位置の設定がオフされている、と判定すると、仮想観察位置の設定を行わずに、強調処理を行う。すなわち、観察対象エリア内のすべてのマイクロフォンMijからの信号を対象に強調処理を行う。
まず、観察対象の設定を行う(ステップS41)。観察対象が設定されると、次に、観察対象エリア内のすべてのマイクロフォンMijを対象に、観察対象と各マイクロフォンMijとの位置関係を算出する(ステップS42)。次に、算出された観察対象と各マイクロフォンMijとの位置関係の情報に基づいて、観察対象エリア内の各マイクロフォンMijへの音の到達時間を算出する(ステップS43)。次に、算出された各マイクロフォンMijへの音の到達時間の情報に基づいて、観察対象エリア内の各マイクロフォンMijからの音声信号を強調処理する(ステップS44)。これにより、観察対象からの音声が強調され、その他の音声が抑制される。この後、映像音声信号処理装置100は、操作部からの入力に基づいて、映像及び音声の記録の指示の有無を判定する(ステップS45)。記録の指示あり、と判定すると、映像信号及び音声信号の記録処理を行う(ステップS46)。映像音声信号処理装置100は、強調処理された音声信号を映像信号に関連付けて、HDD128に記録する。記録は、ユーザから記録の終了が指示されるまで継続して行われる。あるいは、あらかじめ定められた記録時間に達するまで継続して行われる。映像音声信号処理装置100は、操作部からの入力、及び、記録開始からの経過時間に基づいて、記録終了の可否を判定する(ステップS47)。記録が終了すると、操作部からの入力に基づいて、観察の終了の指示の有無を判定する(ステップS48)。ステップS24において、記録の指示なし、と判定した場合も、観察の終了の指示の有無を判定する(ステップS48)。観察の終了の指示なし、と判定すると、図8に示すように、ステップS11に戻り、再度、操作部からの入力に基づいて、観察対象の音声の強調させる指示の有無を判定する(ステップS11)。一方、観察終了の指示あり、と判定すると、処理を終了する。
ステップS40において、仮想観察位置の設定がオンされている、と判定すると、仮想観察位置を設定して、強調処理を行う。
図16に示すように、まず、観察対象の設定を行う(ステップS50)。次に、仮想観察エリアを設定する(ステップS51)。仮想観察エリアは、観察対象を中心とする半径Rの範囲に設定する。次に、仮想観察エリア内のマイクロフォンMijを対象に、観察対象と各マイクロフォンMijとの位置関係を算出する(ステップS52)。次に、算出された観察対象と各マイクロフォンMijとの位置関係の情報に基づいて、仮想観察エリア内の各マイクロフォンMijへの音の到達時間を算出する(ステップS53)。次に、算出された仮想観察エリア内の各マイクロフォンMijへの音の到達時間及び仮想観察位置への音の到達時間(既知)の情報に基づいて、仮想観察エリア内の各マイクロフォンMijからの音声信号を強調処理する(ステップS54)。これにより、観察対象からの音声が強調され、その他の音声が抑制される。この後、映像音声信号処理装置100は、操作部からの入力に基づいて、映像及び音声の記録の指示の有無を判定する(ステップS55)。記録の指示あり、と判定すると、映像信号及び音声信号の記録処理を行う(ステップS56)。映像音声信号処理装置100は、強調処理された音声信号を映像信号に関連付けて、HDD128に記録する。記録は、ユーザから記録の終了が指示されるまで継続して行われる。あるいは、あらかじめ定められた記録時間に達するまで継続して行われる。映像音声信号処理装置100は、操作部からの入力、及び、記録開始からの経過時間に基づいて、記録終了の可否を判定する(ステップS57)。記録が終了すると、操作部からの入力に基づいて、観察の終了の指示の有無を判定する(ステップS58)。ステップS24において、記録の指示なし、と判定した場合も、観察の終了の指示の有無を判定する(ステップS58)。観察の終了の指示なし、と判定すると、図8に示すように、ステップS11に戻り、再度、操作部からの入力に基づいて、観察対象の音声の強調させる指示の有無を判定する(ステップS11)。一方、観察終了の指示あり、と判定すると、処理を終了する。
このように、本実施の形態の映像音声信号処理装置100によれば、仮想観察位置を設定し、その仮想観察位置を基準にして、強調処理を行うので、処理を簡素化できる。また、これにより、処理の負荷を軽減できる。更に、強調処理によって音声が遅延する量は、常に一定となるので、映像と合わせる処理も容易にできる。
[変形例]
上記実施の形態では、観察対象を中心とする半径Rの位置に仮想観察位置を設定しているが、この半径Rの値をユーザが自由に設定できるようにしてもよい。これにより、状況に応じて、適切に音声の強調処理を行うことができる。
半径Rの値の設定は、たとえば、動作環境の設定画面で行う。あるいは、ディスプレイ112にカメラ10からの映像と共に半径Rの入力ウインドウを表示し、適時、半径Rの値を入力できるように構成する。この半径Rの値を設定することにより、仮想観察位置が設定され、かつ、仮想観察エリアが設定される。この半径Rの値を設定する手段は、第2エリアサイズ調整部の一例である。
[第4の実施の形態]
本実施の形態の映像音声信号処理装置100は、観察対象が移動する場合に、仮想観察エリアを観察対象の移動に追従させる。
図17は、仮想観察エリアの追従の概念図である。
観察対象Ojが、初期位置P1から位置P2を経て位置P3に移動する場合、仮想観察エリアZ2も、観察対象Ojの移動に追従して、実線で示す初期位置から破線で示す位置を経て一点破線で示す位置に移動する。
図18は、第4の実施の形態の映像音声信号処理装置が有する機能のブロック図である。
同図に示すように、第4の実施の形態の映像音声信号処理装置100は、観察対象の移動を追跡する追跡部110Kの機能を更に有する。
追跡部110Kは、カメラ10から取得される映像を解析して、観察対象設定部110Bで設定された観察対象の移動を追跡し、その位置を検出する。画像解析による追跡には、公知の手法が採用される。たとえば、映像から観察対象の形状を把握し、後に続く画像からその形状を抽出することによって、観察対象の移動を追跡する。
仮想観察エリア設定部110Jは、追跡部110Kで検出される観察対象の位置に基づいて、仮想観察エリアを設定する。したがって、観察対象が移動した場合には、新たに仮想観察エリアを設定する。これにより、観察対象の移動に追従して、仮想観察エリアが移動する。
位置関係算出部110Cは、仮想観察エリア設定部110Jで設定された仮想観察エリア内のマイクロフォンMijを対象に、観察対象と各マイクロフォンMijとの位置関係を算出する。
音声到達時間算出部110Dは、仮想観察エリア設定部110Jで設定された仮想観察エリア内のマイクロフォンMijを対象に、観察対象から発せられる音声が、各マイクロフォンMijに到達するまでの時間(到達時間)を算出する。
音声強調処理部110Eは、仮想観察エリア設定部110Jで設定された仮想観察エリア内のマイクロフォンMijを対象に、音声の強調処理を行う。具体的には、仮想観察エリア内のマイクロフォンMijを対象に、各マイクロフォンMijへの音声の到達時間、及び、仮想観察位置への音声の到達時間(既知)に基づいて、各マイクロフォンMijからの音声信号を同時化し、重ね合わせて強調処理する。同時化は、仮想観察位置を基準にして行う。
このように、本実施の形態の映像音声信号処理装置100によれば、観察対象が移動する場合に、仮想観察エリアを観察対象の移動に追従させることができる。これにより、観察対象が移動する場合であっても、仮想観察位置を用いた音声の強調処理を行うことができる。
[変形例]
上記の例では、画面内で観察対象の移動を追跡する場合を例に説明したが、カメラ10がパンニング及び/又はチルティングの機能を備えている場合には、観察対象を追尾しながら、観察対象の移動を追跡してもよい。
また、仮想観察エリアを観察対象の移動に追従させる場合には、観察対象の移動に対して、一定の遅れをもって追従させることがより好ましい。具体的には、仮想観察位置として設定される半径Rの位置に音声が到達する時間分遅延させて、仮想観察エリアを追従させる。たとえば、半径Rの位置に音声が到達する時間をTR秒とすると、観察対象の移動からTR秒後に仮想観察エリアを移動させる。したがって、たとえば、図17に示す例において、位置P1にいた観察対象OjがTR秒後に位置P2に移動した場合、仮想観察エリアは、位置P1を中心とする半径Rの範囲に設定される。また、位置P2にいた観察対象OjがTR秒後に位置P3に移動した場合、仮想観察エリアは、位置P2を中心とする半径Rの範囲に設定される。このように、観察対象の移動に対して、仮想観察エリアの移動を遅延させることにより、観察対象が移動している場合でも、ドップラー効果などの音の周波数変化を発生させずに音を収集できる。
[第5の実施の形態]
上記のように、各マイクロフォンMijへの音の到達時間は、観察対象と各マイクロフォンとの位置関係に基づいて、計算により求められる。しかし、観察対象とマイクロフォンとの間に障害物が存在すると、計算値(理論値)と実測値との間にずれが生じる。本実施の形態の映像音声信号処理装置100は、音声到達時間算出部110Dで算出される音声到達時間を補正し、計算値と実測値とのずれを補償する。
[構成]
図19は、第5の実施の形態の映像音声信号処理装置が有する機能のブロック図である。
同図に示すように、第5の実施の形態の映像音声信号処理装置100は、音声到達時間算出部110Dで算出される音声の到達時間を補正する音声到達時間補正部110Lの機能を更に有する。
音声到達時間補正部110Lは、あらかじめ用意された補正情報に基づいて、音声到達時間算出部110Dで算出される各マイクロフォンMijへの音声到達時間(計算値)を補正する。補正情報は、実測値との差分として用意され、観察対象エリア内の位置ごとに求められる。
図20は、補正情報の取得の一例を示す概念図である。
同図に示すように、観察対象エリアZ1を複数の区域A(xn,yn)に分割し、各マイクロフォンMijへの実際の音の到達時間を区域A(xn,yn)ごとに計測する。実際に得られた音の到達時間(実測値)と、計算により求めた音の到達時間(計算値)との差分を補正情報として取得する。
補正情報は、分割した各区域A(xn,yn)について、マイクロフォンMijごとに求められる。求めた補正情報は、HDD128に格納される。HDD128は、補正情報記憶部の一例である。
[作用]
本実施の形態の映像音声信号処理装置100において、音声を強調処理する場合、補正後の各マイクロフォンMijへの音声到達時間の情報に基づいて、強調処理が行われる。
まず、位置関係算出部110Cにおいて、観察対象と各マイクロフォンMijとの位置関係が算出される。次に、算出された観察対象と各マイクロフォンMijとの位置関係の情報に基づいて、音声到達時間算出部110Dで各マイクロフォンMijへの音の到達時間が算出される。算出された各マイクロフォンMijへの音声到達時間(計算値)の情報は、音声到達時間補正部110Lに加えられる。音声到達時間補正部110Lは、HDD128に格納された補正情報を用いて、各マイクロフォンMijへの音声到達時間(計算値)を補正する。具体的には、まず、観察対象の位置に基づいて、HDD128から各マイクロフォンMijに対する補正情報を取得する。すなわち、観察対象が存在する区域A(xn,yn)を特定し、その区域A(xn,yn)の用意された補正情報を取得する。次に、取得した補正情報に基づいて、各マイクロフォンMijへの音声到達時間(計算値)を補正する。補正された音声到達時間の情報は、音声強調処理部110Eに加えられる。音声強調処理部110Eは、補正後の各マイクロフォンMijへの音声到達時間の情報に基づいて、強調処理を行う。
このように、本実施の形態の映像音声信号処理装置100では、計算により求められる各マイクロフォンMijへの音の到達時間を実際の音の到達時間に基づいて補正するので、観察対象エリア内に障害物が存在する場合などでも、観察対象からの音声を適切に強調処理できる。
なお、仮想観察位置を設定して強調処理する場合には、仮想観察位置についても、その音声到達時間を補正することが好ましい。
[変形例]
各マイクロフォンMijへの実際の音声到達時間は、観察対象が出す音の周波数によっても変わる。したがって、補正情報は、周波数ごとに用意することが好ましい。たとえば、可聴帯域内で複数の帯域に分割し、分割した帯域ごとに補正情報を用意して、HDD128に格納する。補正の際には、観察対象が発する音声の周波数を特定し、その周波数に適合する補正情報を取得して、音声到達時間を補正する。
[その他の実施の形態]
[撮影部の変形例]
撮影部による撮影形態は、観察対象エリア内を実質的に一定位置から撮影する形態であればよい。したがって、たとえば、ユーザが一定位置から手持ちで撮影する形態であってもよい。また、撮影の形態は、観察対象エリアの上方から俯瞰して撮影する形態であってもよい。また、複数の撮影部によって、複数箇所から撮影する形態であってもよい。
[集音部の変形例]
集音部は、観察対象エリア内での位置が特定できればよい。したがって、任意の配置形態を採用でき、観察対象エリア内に広範囲に配置できる。なお、配置の際には、次の点を考慮することが好ましい。
第1に、観察対象の大きさよりも広い間隔で配置する。空気を伝搬せずに、音が集音されるのを避けるためである。
第2に、観察対象との位置関係を算出する際の位置の分解能よりも広い間隔で配置する。たとえば、上記実施の形態のように、カメラ10で撮影された映像から観察対象の位置を特定して、各マイクロフォン(集音部)との位置関係を算出する場合、映像から算出可能な位置の分解のよりも広い間隔で各マイクロフォン(集音部)を配置する。 配置された集音部間どの位置に観察対象が存在するのかを切り分けできるようにするためである。
第3に、観察対象からの音声が、少なくとも3つの集音部で集音される位置関係で配置する。音の重ね合わせにより強調処理を行うためである。
[観察対象と各集音部との位置関係の算出方法の変形例]
上記実施の形態では、カメラ(撮影部)から得られる情報に基づいて、観察対象と各マイクロフォン(集音部)との位置関係を算出する構成としているが、観察対象と各マイクロフォン(集音部)との位置関係を算出する方法は、これに限定されるものではない。別途、観察対象の位置を検出する手段を設けて、観察対象と各マイクロフォン(集音部)との位置関係を算出してもよい。
また、撮影部から得られる情報に基づいて、観察対象と各集音部との位置関係を算出する場合、撮影部と観察対象との間の距離は、測距計、TOFカメラ(TOF:Time Of Flight)等の測距手段を用いて計測してもよい。
なお、上記実施の形態のように、カメラ(撮影部)から得られる情報に基づいて、観察対象と各マイクロフォン(集音部)との位置関係を算出することにより、構成を簡素化できる。
また、各集音部の位置については、事前に求められていればよく、その計測手法については、特に限定されない。カメラからの情報に基づいて、計測してもよい。
[各集音部からの音声信号の取得方法及び撮影部からの映像信号の取得方法の変形例]
映像音声信号処理装置(音声処理装置)が、各マイクロフォン(集音部)から音声信号を取得する方法については、特に限定されない。有線であってもよいし、また、無線であってもよい。また、ネットワークを介して取得する形態であってもよい。
カメラから(撮影部)から映像信号を取得する方法についても同様である。有線であってもよいし、また、無線であってもよい。また、ネットワークを介して取得してもよい。
[映像音声信号処理装置の機能を備えた撮影装置]
上記実施の形態では、映像音声信号処理装置が、カメラから取得した映像信号及びマイクロフォンから取得した音声信号を処理する例で説明したが、映像音声信号処理装置の機能をカメラ(撮影装置)に搭載してもよい。この場合、カメラ(撮影装置)に備えられたコンピュータが、所定のプログラムを実行することにより、観察対象設定部、音声信号取得部、位置関係算出部、音声到達時間算出部、音声強調処理部、記録制御部等の機能を実現する。また、カメラ(撮影装置)に備えられた撮影レンズ及び撮像素子が撮影部として機能し、ディスプレイが表示部として機能する。また、カメラ(撮影装置)に備えられた画像記憶用のメモリが、記憶部として機能する。
[音声処理装置の機能]
音声処理装置の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上記各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。更に、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上記各種のプロセッサに含まれる。
各部の機能は1つのプロセッサにより実現されてもよいし、同種又は異種の複数のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、画像処理装置本体、サーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。これらの電気回路は、論理和、論理積、論理否定、排他的論理和、及びこれらを組み合わせた論理演算を用いて上記の機能を実現する電気回路であってもよい。
上記のプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのプロセッサ(コンピュータ)読み取り可能なコードをROM(Read Only Memory)等の非一時的記録媒体に記憶しておき、プロセッサがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、画像の入力、解析、表示制御等を実行するためのプログラムを含む。ROMではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM(Random Access Memory)が一時的記憶領域として用いられ、また例えば不図示のEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。
1 観察システム
10 カメラ
12 レンズ
14 リモコン雲台
100 映像音声信号処理装置
110 コンピュータ本体
110A 表示制御部
110B 観察対象設定部
110C 位置関係算出部
110D 音声到達時間算出部
110E 音声強調処理部
110F 音声出力制御部
110G 記録制御部
110H 再生制御部
110I カメラ制御部
110J 仮想観察エリア設定部
110K 追跡部
110L 音声到達時間補正部
112 ディスプレイ
114 スピーカ
116 キーボード
118 マウス
120 CPU
128 HDD
130 光学ドライブ
134 音声出力インターフェイス
136 キーボードインターフェイス
138 マウスインターフェイス
140 音声入力インターフェイス
142 映像入力インターフェイス
144 カメラ通信インターフェイス
C カーソル
IP 仮想観察位置
Mij マイクロフォン
Oj 観察対象
SS 音源
Z1 観察対象エリア
Z2 仮想観察エリア
S10~S27 観察する場合の映像音声信号処理装置の動作手順
S30~S34 記録済みの映像を再生する場合の映像音声信号処理装置の動作手順
S40~S58 音声の強調処理を行って対象を観察する場合の映像音声信号処理装置の動作手順

Claims (18)

  1. 第1エリア内に離散的に配置された複数の集音部から音声信号を取得する音声信号取得部と、
    前記第1エリア内を定位置から撮影する撮影部から映像信号を取得する映像信号取得部と、
    前記映像信号取得部で取得された映像信号が表わす映像を表示する表示部と、
    前記表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する観察対象設定部と、
    前記撮影部を制御して、前記観察対象設定部で設定された前記観察対象に焦点を合わせる制御部と、
    前記撮影部から得られる情報に基づいて、前記撮影部に対する前記観察対象の方向及び距離を求め、得られた前記撮影部に対する前記観察対象の方向及び距離の情報に基づいて、前記第1エリア内における前記観察対象の位置を特定し、前記観察対象と各前記集音部との位置関係を算出する位置関係算出部であって、前記撮影部に対する前記観察対象の方向を、前記撮影部で撮影された画像内での前記観察対象の位置から求め、かつ、前記撮影部に対する前記観察対象の距離の情報を、前記撮影部で前記観察対象に焦点を合わせた際の被写体距離の情報から取得する位置関係算出部と、
    前記位置関係算出部の算出結果に基づいて、前記観察対象から発せられる音声が各前記集音部に到達するまでの到達時間を算出する音声到達時間算出部と、
    前記音声到達時間算出部の算出結果に基づいて、各前記集音部からの音声信号を同時化し、重ね合わせて強調処理する音声強調処理部と、
    を備え、
    前記集音部は前記位置関係算出部で算出可能な位置の分解能よりも広い間隔で配置される、
    映像音声信号処理装置。
  2. 前記音声強調処理部は、前記観察対象から最も離れた前記集音部で集音される音声信号を基準に、各前記集音部からの音声信号を同時化し、重ね合わせて強調処理する、
    請求項1に記載の映像音声信号処理装置。
  3. 前記観察対象を中心とする半径Rの範囲に第2エリアを設定する第2エリア設定部を更に備え、
    前記位置関係算出部は、前記第2エリア内で前記観察対象と各前記集音部との位置関係を算出し、
    前記音声到達時間算出部は、前記第2エリア内で前記観察対象から発せられる音声が各前記集音部に到達するまでの到達時間を算出し、
    前記音声強調処理部は、前記観察対象を中心とする半径Rの位置で仮想的に集音される音声信号を基準に、前記第2エリア内の各前記集音部からの音声信号を同時化し、重ね合わせて強調処理する、
    請求項1に記載の映像音声信号処理装置。
  4. 前記観察対象の移動を追跡する追跡部を更に備え、
    前記第2エリア設定部は、前記第2エリアを前記観察対象の移動に追従させる、
    請求項3に記載の映像音声信号処理装置。
  5. 前記第2エリア設定部は、半径Rの位置に音声が到達する時間分遅延させて、前記第2エリアを前記観察対象の移動に追従させる、
    請求項4に記載の映像音声信号処理装置。
  6. 前記第2エリアのサイズを調整する第2エリアサイズ調整部を更に備えた、
    請求項3から5のいずれか1項に記載の映像音声信号処理装置。
  7. 各前記集音部への音声の到達時間の補正情報が記憶された補正情報記憶部と、
    前記補正情報記憶部に記憶された補正情報に基づいて、前記音声到達時間算出部で算出される音声の到達時間を補正する音声到達時間補正部と、
    を更に備え、
    前記音声強調処理部は、前記音声到達時間補正部による補正後の到達時間の情報に基づいて、各前記集音部からの音声信号を同時化し、重ね合わせて強調処理する、
    請求項1、2、3、4、5又は6に記載の映像音声信号処理装置。
  8. 前記補正情報は、前記第1エリア内の各位置で発生させた音声の各前記集音部への到達時間の実測値に基づいて設定される、
    請求項7に記載の映像音声信号処理装置。
  9. 前記補正情報記憶部には、周波数ごとの前記補正情報が記憶され、
    前記音声到達時間補正部は、前記観察対象が発する音声の周波数に応じた前記補正情報に基づいて、前記音声到達時間算出部で算出される音声の到達時間を補正する、
    請求項7又は8に記載の映像音声信号処理装置。
  10. 前記撮影部が、パンニング及び/又はチルティングの機能を備える場合、前記位置関係算出部は、パン及び/又はチルトの設定情報と、前記撮影部で撮影された画像内での前記観察対象の位置の情報とに基づいて、前記撮影部に対する前記観察対象の方向を求める、
    請求項1、2、3、4、5、6、7、8又は9に記載の映像音声信号処理装置。
  11. 前記観察対象の大きさよりも広い間隔で前記集音部が配置される、
    請求項1、2、3、4、5、6、7、8、9又は10に記載の映像音声信号処理装置。
  12. 前記観察対象からの音声が少なくとも3つの前記集音部で集音される間隔で前記集音部が配置される、
    請求項1、2、3、4、5、6、7、8、9又は10に記載の映像音声信号処理装置。
  13. 第1エリア内に離散的に配置された複数の集音部から音声信号を取得するステップと、
    前記第1エリア内を定位置から撮影する撮影部から映像信号を取得するステップと、
    前記撮影部で撮影された映像を表示部に表示するステップと、
    前記表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定するステップと、
    前記撮影部を制御して、設定された前記観察対象に焦点を合わせるステップと、
    前記撮影部から得られる情報に基づいて、前記撮影部に対する前記観察対象の方向及び距離を求め、得られた前記撮影部に対する前記観察対象の方向及び距離の情報に基づいて、前記第1エリア内における前記観察対象の位置を特定し、前記観察対象と各前記集音部との位置関係を算出するステップであって、前記撮影部に対する前記観察対象の方向を、前記撮影部で撮影された画像内での前記観察対象の位置から求め、かつ、前記撮影部に対する前記観察対象の距離の情報を、前記撮影部で前記観察対象に焦点を合わせた際の被写体距離の情報から取得するステップと、
    前記位置関係の算出結果に基づいて、前記観察対象から発せられる音声が各前記集音部に到達するまでの到達時間を算出するステップと、
    音声の到達時間の算出結果に基づいて、各前記集音部からの音声信号を同時化し、重ね合わせて強調処理するステップと、
    を含み、
    前記集音部が、前記位置関係を算出する際の位置の分解能よりも広い間隔で配置される、
    映像音声信号処理方法。
  14. 第1エリア内に離散的に配置された複数の集音部と、
    各前記集音部から音声信号を取得する音声信号取得部と、
    前記第1エリア内を定位置から撮影する撮影部と、
    前記撮影部から映像信号を取得する映像信号取得部と、
    前記映像信号取得部で取得された映像信号が表わす映像を表示する表示部と、
    前記表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する観察対象設定部と、
    前記撮影部を制御して、前記観察対象設定部で設定された前記観察対象に焦点を合わせる制御部と、
    前記撮影部から得られる情報に基づいて、前記撮影部に対する前記観察対象の方向及び距離を求め、得られた前記撮影部に対する前記観察対象の方向及び距離の情報に基づいて、前記第1エリア内における前記観察対象の位置を特定し、前記観察対象と各前記集音部との位置関係を算出する位置関係算出部であって、前記撮影部に対する前記観察対象の方向を、前記撮影部で撮影された画像内での前記観察対象の位置から求め、かつ、前記撮影部に対する前記観察対象の距離の情報を、前記撮影部で前記観察対象に焦点を合わせた際の被写体距離の情報から取得する位置関係算出部と、
    前記位置関係算出部の算出結果に基づいて、前記観察対象から発せられる音声が各前記集音部に到達するまでの到達時間を算出する音声到達時間算出部と、
    前記音声到達時間算出部の算出結果に基づいて、各前記集音部からの音声信号を同時化し、重ね合わせて強調処理する音声強調処理部と、
    を備え、
    前記集音部は前記位置関係算出部で算出可能な位置の分解能よりも広い間隔で配置される、
    映像音声信号処理システム。
  15. 前記制御部は、ズームの指示を受け付けて、前記撮影部のズームを制御する、
    請求項1に記載の映像音声信号処理装置。
  16. 前記制御部は、パンニング及び/又はチルティングの指示を受け付けて、前記撮影部のパンニング及び/又はチルティングを制御する、
    請求項1に記載の映像音声信号処理装置。
  17. 第1エリア内に離散的に配置された複数の集音部から音声信号を取得する音声信号取得部と、
    前記第1エリア内を定位置から撮影する撮影部から映像信号を取得する映像信号取得部と、
    前記映像信号取得部で取得された映像信号が表わす映像を表示する表示部と、
    前記表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する観察対象設定部と 、
    前記撮影部を制御して、前記観察対象設定部で設定された前記観察対象に焦点を合わせる制御部と、
    前記撮影部から得られる情報に基づいて、前記撮影部に対する前記観察対象の方向及び距離を求め、得られた前記撮影部に対する前記観察対象の方向及び距離の情報に基づいて、前記第1エリア内における前記観察対象の位置を特定し、前記観察対象と各前記集音部との位置関係を算出する位置関係算出部であって、前記撮影部に対する前記観察対象の方向を、前記撮影部で撮影された画像内での前記観察対象の位置から求め、かつ、前記撮影部に対する前記観察対象の距離の情報を、前記撮影部で前記観察対象に焦点を合わせた際の被写体距離の情報から取得する位置関係算出部と、
    前記位置関係算出部の算出結果に基づいて、前記観察対象から発せられる音声が各前記集音部に到達するまでの到達時間を算出する音声到達時間算出部と、
    前記音声到達時間算出部の算出結果に基づいて、各前記集音部からの音声信号を同時化し、重ね合わせて強調処理する音声強調処理部と、
    を備えた映像音声信号処理装置。
  18. 第1エリア内に離散的に配置された複数の集音部から音声信号を取得する音声信号取得部と、
    前記第1エリア内を定位置から撮影する撮影部から映像信号を取得する映像信号取得部と、
    前記映像信号取得部で取得された映像信号が表わす映像を表示する表示部と、
    前記表示部に表示された映像内で位置の指定を受け付けて、観察対象を設定する観察対象設定部と、
    位置関係算出部と、
    前記位置関係算出部の算出結果に基づいて、前記観察対象から発せられる音声が各前記集音部に到達するまでの到達時間を算出する音声到達時間算出部と、
    前記音声到達時間算出部の算出結果に基づいて、各前記集音部からの音声信号を同時化し、重ね合わせて強調処理する音声強調処理部と、
    を備え、
    前記集音部は前記位置関係算出部で算出可能な位置の分解能よりも広い間隔で配置される、
    映像音声信号処理装置。
JP2021185733A 2018-09-18 2021-11-15 映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システム Active JP7303862B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018173992 2018-09-18
JP2018173992 2018-09-18
JP2020548222A JP6979536B2 (ja) 2018-09-18 2019-08-28 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、音声信号処理システム及び撮影装置
PCT/JP2019/033600 WO2020059447A1 (ja) 2018-09-18 2019-08-28 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、音声信号処理システム及び撮影装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020548222A Division JP6979536B2 (ja) 2018-09-18 2019-08-28 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、音声信号処理システム及び撮影装置

Publications (2)

Publication Number Publication Date
JP2022010300A true JP2022010300A (ja) 2022-01-14
JP7303862B2 JP7303862B2 (ja) 2023-07-05

Family

ID=69888787

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020548222A Active JP6979536B2 (ja) 2018-09-18 2019-08-28 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、音声信号処理システム及び撮影装置
JP2021185733A Active JP7303862B2 (ja) 2018-09-18 2021-11-15 映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020548222A Active JP6979536B2 (ja) 2018-09-18 2019-08-28 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、音声信号処理システム及び撮影装置

Country Status (2)

Country Link
JP (2) JP6979536B2 (ja)
WO (1) WO2020059447A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827448A (zh) * 2021-01-29 2022-07-29 华为技术有限公司 视频录制方法及电子设备
JP7259878B2 (ja) * 2021-03-04 2023-04-18 沖電気工業株式会社 収音装置、収音プログラム、及び収音方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286680A (ja) * 1995-02-17 1996-11-01 Takenaka Komuten Co Ltd 音抽出装置
JP2010062961A (ja) * 2008-09-05 2010-03-18 Hitachi Ltd 監視システム
JP2012204900A (ja) * 2011-03-24 2012-10-22 Olympus Imaging Corp 記録装置
JP2014050005A (ja) * 2012-09-03 2014-03-17 Canon Inc 再生装置、再生装置の制御方法
JP2018019294A (ja) * 2016-07-28 2018-02-01 キヤノン株式会社 情報処理システム及びその制御方法、コンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286680A (ja) * 1995-02-17 1996-11-01 Takenaka Komuten Co Ltd 音抽出装置
JP2010062961A (ja) * 2008-09-05 2010-03-18 Hitachi Ltd 監視システム
JP2012204900A (ja) * 2011-03-24 2012-10-22 Olympus Imaging Corp 記録装置
JP2014050005A (ja) * 2012-09-03 2014-03-17 Canon Inc 再生装置、再生装置の制御方法
JP2018019294A (ja) * 2016-07-28 2018-02-01 キヤノン株式会社 情報処理システム及びその制御方法、コンピュータプログラム

Also Published As

Publication number Publication date
JPWO2020059447A1 (ja) 2021-08-30
JP7303862B2 (ja) 2023-07-05
WO2020059447A1 (ja) 2020-03-26
JP6979536B2 (ja) 2021-12-15

Similar Documents

Publication Publication Date Title
JP2022010300A (ja) 映像音声信号処理装置、映像音声信号処理方法及び映像音声信号処理システム
CN112165590B (zh) 视频的录制实现方法、装置及电子设备
JP5799863B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6012342B2 (ja) 再生装置、再生装置の制御方法
JP2005167517A (ja) 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム
US10664128B2 (en) Information processing apparatus, configured to generate an audio signal corresponding to a virtual viewpoint image, information processing system, information processing method, and non-transitory computer-readable storage medium
US20140086551A1 (en) Information processing apparatus and information processing method
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
CN106200945B (zh) 内容重放装置、具有该重放装置的处理系统及方法
US9756421B2 (en) Audio refocusing methods and electronic devices utilizing the same
JP6410769B2 (ja) 情報処理システム及びその制御方法、コンピュータプログラム
KR101664733B1 (ko) 전 방향 고해상도 추적 녹화 장치 및 방법
JP2011041096A (ja) 携帯端末、並びにこれに用いる集音制御方法及びプログラム
TWI584652B (zh) 定位系統、預定位元方法以及即時定位方法
JP2018019295A (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP5954987B2 (ja) 撮影装置及びその処理方法
JP2013016933A (ja) 端末装置、撮像方法およびプログラム
JP6481734B2 (ja) 撮影システム、撮影方法及びプログラム
JP2022108638A (ja) 信号処理装置及び信号処理システム
JP2019033497A (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP2016123637A (ja) 画像処理装置、画像処理方法及びプログラム
WO2023189079A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6372176B2 (ja) 画像処理装置、画像処理方法及びプログラム
JPH10191498A (ja) 音信号処理装置
JP7324639B2 (ja) 被写体位置推定装置、フォーカス補助装置、及び、それらのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150