JP2024026741A - 映像生成方法、映像生成装置及び映像生成プログラム - Google Patents

映像生成方法、映像生成装置及び映像生成プログラム Download PDF

Info

Publication number
JP2024026741A
JP2024026741A JP2024003291A JP2024003291A JP2024026741A JP 2024026741 A JP2024026741 A JP 2024026741A JP 2024003291 A JP2024003291 A JP 2024003291A JP 2024003291 A JP2024003291 A JP 2024003291A JP 2024026741 A JP2024026741 A JP 2024026741A
Authority
JP
Japan
Prior art keywords
audio
sound
video
section
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024003291A
Other languages
English (en)
Inventor
祐也 西尾
Yuya Nishio
哲 和田
Satoru Wada
康一 田中
Koichi Tanaka
幸徳 西山
Yukinori Nishiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2024026741A publication Critical patent/JP2024026741A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】特定の音声を強調又は低減させた音声付きの映像を生成できる映像生成方法、映像生成装置及び映像生成プログラムを提供する。【解決手段】撮像部で撮像された第1映像を記録する。第1映像に同期して第1音声を記録する。第1音声と異なる第2音声を記録する。第2音声を用いて第1音声を処理し、強調又は低減させた第2音声を含む第3音声を生成する。第1映像と第3音声を関連付けて音声付きの映像を生成する。【選択図】図1

Description

本発明は、映像生成方法、映像生成装置及び映像生成プログラムに関する。
映像と音声を記録する際、メインの音声とは異なる音声(風雑音、環境音、操作音、話し声など)が一緒に記録される場合がある。
特許文献1には、風雑音の有無又は強弱を表示する手段と、風雑音対策の有無又は強弱を手動で選択できる手段と、記録後でも風雑音対策の有無を選択できる手段と、を備えたビデオカメラが記載されている。
また、特許文献2には、風雑音を自動で低減させる機能を備え、かつ、その機能の動作を任意設定可能にしたビデオカメラが記載されている。
特開2010-4339号公報 特開2009-124414号公報
本開示の技術に係る一つの実施形態は、特定の音声を強調又は低減させた音声付きの映像を生成できる映像生成方法、映像生成装置及び映像生成プログラムを提供する。
(1)撮像部で撮像された第1映像を記録する映像記録工程と、第1映像に同期して第1音声を記録する第1音声記録工程と、第1音声と異なる第2音声を記録する第2音声記録工程と、第2音声を用いて第1音声を処理し、強調又は低減させた第2音声を含む第3音声を生成する音声生成工程と、第1映像と第3音声を関連付けて第2映像を生成する映像生成工程と、を備えた映像生成方法。
(2)音声生成工程は、強調又は低減させた第2音声を第1音声に合成して、第3音声を生成する、(1)の映像生成方法。
(3)音声生成工程の前に、第2音声の強度を設定する強度設定工程を更に備え、音声生成工程は、強度設定工程で設定された強度で第2音声を第1音声に合成する、(2)の映像生成方法。
(4)第1音声は第2音声と共通する音声成分である共通成分を含み、音声生成工程は、第2音声を用いて、共通成分を強調又は低減させる処理を第1音声に行って、第3音声を生成する、(1)の映像生成方法。
(5)音声生成工程の前に、共通成分の処理条件を設定する処理条件設定工程を更に備え、音声生成工程は、処理条件設定工程で設定された処理条件に従って、共通成分を強調又は低減させる処理を第1音声に対して行う、(4)の映像生成方法。
(6)撮像部を含む撮像装置本体の動きを検出する検出工程を更に備え、音声生成工程は、検出工程において動きの検出があった場合、第1音声又は第2音声に所定の処理を行って第3音声を生成する、(1)から(5)のいずれか一の映像生成方法。
(7)撮像部による第1映像の撮像情報を取得する第1情報取得工程と、撮像情報を表示する第1表示工程と、を更に備えた(1)から(6)のいずれか一の映像生成方法。
(8)撮像情報には、撮像部を含む撮像装置本体の動きの情報及び焦点距離の情報の少なくとも一つが含まれる、(7)の映像生成方法。
(9)第1音声及び第2音声を集音する集音部の情報を取得する第2情報取得工程を更に備え、集音部の情報を表示する第2表示工程と、を更に備えた(1)から(8)のいずれか一の映像生成方法。
(10)第2音声記録工程は、第1映像に同期して第2音声を記録する、(1)から(9)のいずれか一の映像生成方法。
(11)第2音声の記録されたタイミングを検出する第2音声検出工程と、第2音声検出工程で検出された情報を第1映像に関連付ける関連付け工程と、を更に備えた(10)の映像生成方法。
(12)第2音声記録工程は、映像記録工程の前に第2音声を記録する、(1)から(11)のいずれか一の映像生成方法。
(13)第1音声記録工程は、第1集音部を介して第1音声を記録し、第2音声記録工程は、第1集音部とは異なる第2集音部を介して第2音声を記録する、(1)から(12)のいずれか一の映像生成方法。
(14)第2集音部は、指向性の集音特性を有し、第1集音部は、第2収音部よりも低い指向性の集音特性を有する、(13)の映像生成方法。
(15)第2集音部は、指向性の集音特性を有し、第2音声生成工程は、第2音声の音源の位置を検出し、検出された音源の方向に第2収音部を指向する、(13)又は(14)の映像生成方法。
本発明に係る映像生成方法を用いて映像を生成する機能を備えた撮像装置の概略構成を示すブロック図 映像及び音声を記録する場合にCPUが実現する主な機能のブロック図 記録済みの映像を再生する場合にCPUが実現する主な機能のブロック図 音声付きの映像を生成する場合にCPUが実現する主な機能のブロック図 第3音声生成部が有する機能のブロック図 音声付きの映像を生成する場合にCPUが実現する主な機能のブロック図 第3音声生成部が有する機能のブロック図 第3の実施の形態の撮像装置の概略構成を示すブロック図 映像及び音声を記録する場合にCPUが実現する主な機能のブロック図 第3の実施の形態の第3音声生成部が有する機能のブロック図 第3の実施の形態の第3音声生成部の変形例を示す図 撮像情報を取得して記録する場合及び撮像情報を表示する場合にCPUが実現する機能のブロック図 マイクロフォンの情報を取得して記録する場合及びマイクロフォンの情報を表示する場合にCPUが実現する機能のブロック図 第2音声が記録されたタイミングを検出して記録する場合及び記録された情報を表示する場合にCPUが実現する機能のブロック図
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
[第1の実施の形態]
図1は、本発明に係る映像生成方法を用いて映像を生成する機能を備えた撮像装置の概略構成を示すブロック図である。
本実施の形態の撮像装置1は、撮像に同期して第1音声及び第2音声を記録する。そして、撮像後に第2音声を用いて第1音声を処理することにより、第2音声が所定の強度(音声レベル)で含まれた第3音声を生成する。そして、生成した第3音声を撮像により得られた映像(第1映像)に関連付けて音声付きの映像(第2映像)を生成する。
図1に示すように、撮像装置1は、撮像部10、第1音声入力部12、第2音声入力部14、表示部16、記憶部18、音声出力部20、操作部22、CPU(Central Processing Unit)24、ROM(Read Only Memory)26、及び、RAM(Random Access Memory)28等を備える。撮像部10は、映像を撮像する。撮像部10は、撮像光学系10A、撮像素子10B及び画像信号処理部10C等を備える。撮像光学系10Aは、被写体の像を撮像素子10Bの受光面上に結像させる。撮像素子10Bは、撮像光学系10Aによってその受光面上に結像された被写体の像を電気信号に変換する。画像信号処理部10Cは、撮像素子10Bから出力される信号に所定の信号処理を施して、映像信号を生成する。
第1音声入力部12は、メインとなる音声(第1音声)の入力部である。第1音声入力部12は、第1マイクロフォン12A及び第1音声信号処理部12Bを備える。第1マイクロフォン12Aは、メインの音声としての第1音声を集音する。この第1音声は、第2音声を含まない音声(わずかに第2音声が含まれている場合を含む)である。第1マイクロフォン12Aは、第1集音部の一例である。第1音声信号処理部12Bは、第1マイクロフォン12Aからの信号に所定の信号処理を施して、第1音声の音声信号を生成する。
第2音声入力部14は、メインの音声に合成する特定の音声の(第2音声)の入力部である。第2音声入力部14は、第2マイクロフォン14A及び第2音声信号処理部14Bを備える。第2マイクロフォン14Aは、特定の音声である第2音声を集音する。この第2音声は、第1音声を含まない音声(実質的に含んでいないと認められる場合を含む)である。第2マイクロフォン14Aは、第2集音部の一例である。第2音声信号処理部14Bは、第2マイクロフォン14Aからの信号に所定の信号処理を施して、第2音声の音声信号を生成する。
表示部16は、撮像部10で撮像中の映像をリアルタイムに表示する。また、表示部16は、再生された映像を表示する。また、表示部16は、必要に応じて、操作画面、メニュー画面及びメッセージ等を表示する。表示部16は、たとえば、LCD(Liquid Crystal Display)等の表示デバイス、及び、その駆動回路等を含んで構成される。
記憶部18は、主として、撮像された映像及び集音された音声を記憶する。記憶部18は、たとえば、不揮発性メモリ等の記憶媒体、及び、その制御回路等を含んで構成される。
音声出力部20は、再生された音声を出力する。また、音声出力部20は、必要に応じて警告音等を出力する。音声出力部20は、スピーカ、及び、そのスピーカから出力させる音声の信号を処理する信号処理回路等を含んで構成される。
操作部22は、ユーザからの操作の入力を受け付ける。操作部22は、録画ボタン等の各種操作ボタン類、及び、その操作の検出回路等を含んで構成される。
CPU24は、所定の制御プログラムを実行することにより、装置全体の制御部として機能する。CPU24は、ユーザの操作に基づいて、各部の動作を制御し、装置全体の動作を統括制御する。また、CPU24は、所定のプログラムを実行することにより、記録済みの映像及び音声を用いて音声付きの映像を生成する映像生成装置として機能する。映像生成装置として機能するCPU24は、ユーザの操作に基づいて、記録済みの映像及び音声を処理し、音声付きの映像を生成する。ROM26は、CPU24が実行する各種プログラム、及び、制御に必要なデータ等を記憶する。RAM28は、CPU24に作業用のメモリ空間を提供する。
図2は、映像及び音声を記録する場合にCPUが実現する主な機能のブロック図である。同図に示すように、CPU24は、撮像制御部101、映像出力部102、第1映像記録部103、第1音声記録部104及び第2音声記録部105等として機能する。
撮像制御部101は、撮像部10による撮像を制御する。撮像制御部101は、撮像部10から得られる映像信号に基づいて、適正露出で映像が撮像されるように、撮像部10を制御する。また、撮像制御部101は、撮像部10から得られる映像信号に基づいて、主要被写体に焦点が合うように、撮像部10を制御する。
映像出力部102は、撮像部10で撮像された映像をリアルタイムに表示部16に出力する。これにより、表示部16にライブビューが表示される。
第1映像記録部103は、撮像部10で撮像された映像(第1映像)を記憶部18に記録する。第1映像記録部103は、ユーザからの指示に応じて、映像の記録を開始する。また、ユーザから指示に応じて、映像の記録を終了する。ユーザは、操作部22を介して、記録の開始及び終了を指示する。映像(第1映像)は、その撮像に同期して集音された第1音声及び第2音声を関連付けて、記憶部18に記録される。
第1音声記録部104は、第1音声入力部12から入力される第1音声(メインの音声)を第1映像の撮像に同期して記憶部18に記録する。第1音声は、第1映像に関連付けて、記憶部18に記録される。
第2音声記録部105は、第2音声入力部14から入力される第2音声(特定の音声)を第1映像の撮像に同期して記憶部18に記録する。第2音声は、第1映像に関連付けて、記憶部18に記録される。
図3は、記録済みの映像を再生する場合にCPUが実現する主な機能のブロック図である。同図に示すように、CPU24は、映像再生部111及び音声再生部112等として機能する。
映像再生部111は、ユーザからの再生指示に応じて、記憶部18に記録された映像を表示部16で再生する。ユーザは、表示部16及び操作部22を利用して、再生する映像を選択し、再生を指示する。映像再生部111は、選択された映像を記憶部18から読み出して再生する。
音声再生部112は、映像に音声が関連付けられている場合に映像に同期させて音声を再生する。映像に第1音声及び第2音声が関連付けられている場合、音声再生部112は、第1音声及び第2音声を合成して再生する。再生された音声は、音声出力部20から出力される。
図4は、音声付きの映像を生成する場合にCPUが実現する主な機能のブロック図である。同図に示すように、CPU24は、第1映像取得部121、第1音声取得部122、第2音声取得部123、第3音声生成部124、強度設定部125、映像生成部126及び第2映像記録部127等として機能する。
第1映像取得部121は、処理対象としてユーザに選択された映像(第1映像)を記憶部18から読み出して取得する。ユーザは、表示部16及び操作部22を利用して、処理対象の映像を選択する。取得した映像のデータは、映像生成部126に加えられる。
第1音声取得部122は、処理対象として選択された映像に関連付けられた第1音声(メインの音声)のデータを記憶部18から読み出して取得する。取得した第1音声のデータは、第3音声生成部124に加えられる。
第2音声取得部123は、処理対象として選択された映像に関連付けられた第2音声(特定の音声)を記憶部18から読み出して取得する。取得した第2音声のデータは、第3音声生成部124に加えられる。なお、第1音声取得部122と第2音声取得部123は、記憶部18を介さずに、第1音声入力部12と第2音声入力部14から対応する音声データを直接取得しても良い。また、撮像装置1は装置内部の記憶部18ではなく、外部の記憶部に音声データを記録してもよい。この場合、第1音声取得部122と第2音声取得部123は外部の記憶部から音声データを取得してもよい。
第3音声生成部124は、第2音声を用いて第1音声を処理し、第3音声を生成する。第3音声は、第1音声中に第2音声が所定の強度(音声レベル)で含まれた音声として生成される。所定の強度は、ユーザが設定した強度である。図5は、第3音声生成部が有する機能のブロック図である。同図に示すように、第3音声生成部124は、強度調整部124A及び合成部124Bの機能を有する。強度調整部124Aは、強度設定部125の設定に従って、第2音声の強度を調整する。合成部124Bは、強度の調整後の第2音声を第1音声に合成して第3音声を生成する。これにより、第1音声中に第2音声を所定の強度で含んだ音声(第3音声)が生成される。なお、上記のように、第1音声は映像に同期して記録されているので、生成される第3音声も映像に同期する音声となる。生成された第3音声のデータは、映像生成部126に加えられる。
強度設定部125は、第1音声に合成する際の第2音声の強度(音声レベル)を設定する。強度設定部125は、操作部22からの操作入力に基づいて強度を設定する。ユーザは、操作部22を介して第2音声の強度を設定することにより、第1音声に対して第2音声を強調したり、低減したりできる。
映像生成部126は、第1映像取得部121で取得された映像(第1映像)と第3音声生成部124で生成された第3音声を関連付けて、音声付きの映像(第2映像)を生成する。たとえば、映像ファイル及び音声ファイルをコンテナ化し、所定の動画形式の映像ファイルを生成する。たとえば、AVI(Audio Video Interleave)、MP4(MPEG-4 Part 14(ISO/IEC 14496-14:2003、ISO/IEC JTC 1))等のファイルを生成する。
第2映像記録部127は、映像生成部126で生成された音声付きの映像(第2映像)を記憶部18に記憶する。
次に、上記構成の撮像装置1を用いて音声付きの映像を生成する場合の手順(映像生成方法)について説明する。
まず、撮像を実施し、映像、第1音声及び第2音声を記録する。具体的には、撮像部10で撮像される映像(第1映像)を記憶部18に記録する(映像記録工程)。また、その撮像に同期して、第1音声及び第2音声を集音し、記憶部18に記録する(第1音声記録工程及び第2音声記録工程)。ここで、第1音声には、メインの音声を記録する。一方、第2音声には、特定の音声を記録する。ここでの「特定の音声」とは、メインの音声とは異なる音声であって、メインの音声に含ませる音声である。たとえば、風が吹いている環境で話をしている人物の映像を撮像する場合において、人物の話し声をメインの音声、風切り音(風がマイクロフォンに当たることで生じる音)を特定の音声として記録できる。あるいは、海岸で話をしている人物の映像を撮像する場合において、人物の話し声をメインの音声、波の音を特定の音声として記録できる。
次に、第1音声に対して第2音声を合成する際の第2音声の強度(音声レベル)を設定する(強度設定工程)。ユーザは、操作部22を介して、その強度を設定する。この設定により、ユーザは、第1音声に対して第2音声を任意に強調したり、低減したりできる。
次に、第2音声を用いて第1音声を処理し、第1音声中に第2音声を所定の強度で含んだ第3音声を生成する(音声生成工程)。所定の強度は、上記強度設定工程で設定された強度である。この際、まず、第2音声をユーザによって設定された強度に調整する。これにより、第1音声に対して強調又は低減させた第2音声が生成される。そして、その強度調整後の第2音声を第1音声に合成して、第3音声を生成する。これにより、第1音声中に第2音声を所定の強度で含んだ音声(第3音声)が生成される。たとえば、風切り音を第2音声として記録した場合には、メインの音声中に風切り音が所定の強度で含まれた音声(第3音声)が生成される。また、たとえば、波の音を第2音声として記録した場合には、メインの音声中に波の音が所定の強度で含まれた音声(第3音声)が生成される。
次に、撮像により得られた映像(第1映像)に上記音声生成工程で生成された音声(第3音声)を関連付け、音声付きの映像(第2映像)を生成する(映像生成工程)。
以上一連の工程で音声付きの映像が生成される。生成された音声付きの映像は、記憶部18に記録される。
本実施の形態の映像生成方法によれば、メインの音声(第1音声)とは別に特定の音声(第2音声)を記録しておくことにより、特定の音声を切り分けて編集できる。これにより、ユーザの意図に沿った音声付きの映像を生成できる。
[第1の実施の形態の変形例]
(1)第2音声の合成についての変形例
第2音声については、映像の特定の区間(時間軸上における区間)でのみ合成する構成とすることができる。この場合、合成する区間を指定して、第1音声に第2音声を合成する。区間の指定は、たとえば、第1映像及び第1音声を再生しながら、合成する区間を指定する。
また、合成する際の第2音声の強度の設定を時間軸に沿って部分的に変化させることもできる。これにより、たとえば、シーンに応じて、特定の音声の強度を変えた音声付きの映像を生成できる。
(2)強度の設定について変形例
上記実施の形態では、第1音声に合成する際の第2音声の強度をユーザが任意に設定できるようにしているが、あらかじめ定められた複数の強度設定(例えば、強めに低減、弱めに低減、強めに強調、弱めに強調)から選択した強度で合成する構成とすることもできる。
(3)第2音声の記録についての変形例
第2音声については、必ずしも第1映像の撮像に同期して記録する必要はない。たとえば、上記のように、特定の区間でのみ第2音声を合成する場合には、事前に又は事後的に第2音声を記録する構成としてもよい。
(4)第1音声入力部及び第2音声入力部の変形例
第1音声入力部12及び第2音声入力部14は、必要に応じて、集音された音声の音声信号にフィルタリング処理を施すことが好ましい。たとえば、第1音声入力部12は、メインとする音声がクリアに記録されるように、フィルタリング処理を施すことが好ましい。同様に、第2音声入力部14は、特定の音声がクリアに記録されるように、フィルタリング処理を施すことが好ましい。
また、第1音声入力部12及び第2音声入力部14は、目的に応じたマイクロフォンを使用することが好ましい。たとえば、メインの音声として、広域の音声を収集する場合には、第1マイクロフォン12Aに、第2マイクロフォン14Aよりも低い無指向性(好ましくは無指向性)の集音特性を有するマイクロフォンを使用する。また、特定の音声を集音する第2マイクロフォン14Aには、指向性の集音特性を有するマイクロフォン(たとえば、ガンマイク等)を使用する。これにより、第1音声及び第2音声を精度よく記録できる。
なお、第1マイクロフォン12A及び第2マイクロフォン14Aは、撮像装置1の装置本体に内蔵された構成でもよいし、外付けされた構成でもよい。
[第2の実施の形態]
上記第1の実施の形態と同様に、撮像装置を用いて映像を生成する場合を例に説明する。
本実施の形態では、第2音声を含んだ音声を第1音声として記録する。そして、その第1音声とは別に記録した第2音声を用いて、第2音声を強調又は低減させる処理を第1音声に行い、第3音声を生成する。撮像装置の基本構成は、上記第1の実施の形態と同じであり、CPU24によって実現される機能が相違する。
図6は、音声付きの映像を生成する場合にCPUが実現する主な機能のブロック図である。同図に示すように、CPU24は、第1映像取得部121、第1音声取得部122、第2音声取得部123、第3音声生成部124、処理条件設定部128、映像生成部126及び第2映像記録部127等として機能する。第3音声生成部124及び処理条件設定部128を除く各部の機能は、上記第1の実施の形態と実質的に同じである。したがって、ここでは、第3音声生成部124及び処理条件設定部128の機能についてのみ説明する。
図7は、第3音声生成部が有する機能のブロック図である。
上記のように、本実施の形態では第2音声を含んだ音声が第1音声として記録される。第3音声生成部124は、第2音声と共通する音声成分(共通成分)を強調又は低減させる処理を第1音声に行って、第3音声を生成する。具体的には、第2音声と同じ周波数の音声成分を共通成分とし、その第2音声と同じ周波数の音声成分をユーザによって設定された処理条件で処理して、第3音声を生成する。このため、第3音声生成部124は、周波数検出部124C及び音声処理部124Dの機能を有する。
周波数検出部124Cは、第2音声のデータを解析して、第2音声の周波数を検出する。第2音声は、第1音声中の特定の音声であり、ユーザが強調又は低減させることを希望する音声である。上記第1の実施の形態と同様に、第2音声は第2マイクロフォン14Aで集音される。周波数検出部124Cで検出された情報は、音声処理部124Dに加えられる。
音声処理部124Dは、周波数検出部124Cで検出される第2音声の周波数の情報を取得し、処理条件設定部128で設定された処理条件で第1音声を処理して、第3音声を生成する。すなわち、第2音声と同じ周波数の音声成分(共通成分)をユーザによって設定された処理条件で処理して、第3音声を生成する。
処理条件設定部128は、第1音声を処理する際の処理条件を設定する。具体的には、第2音声と共通する音声成分である共通成分の処理条件(音の強調又は低減処理)を設定する。処理条件設定部128は、操作部22からの操作入力に基づいて処理条件を設定する。ユーザは、操作部22を介して第1音声を処理する際の処理条件を設定することにより、第1音声中に含まれる第2音声を強調したり、低減したり、キャンセルしたりできる。
次に、上記構成の撮像装置を用いて音声付きの映像を生成する場合の手順(映像生成方法)について説明する。
まず、撮像を実施し、映像、第1音声及び第2音声を記録する。具体的には、撮像部10で撮像される映像(第1映像)を記憶部18に記録する(映像記録工程)。また、その撮像に同期して、第1音声及び第2音声を集音し、記憶部18に記録する(第1音声記録工程及び第2音声記録工程)。上記のように、第1音声には、第2音声を含んだ音声を記録する。すなわち、第2音声と共通する音声成分である共通成分を含んだ音声を記録する。一方、第2音声には、第1音声中の特定の音声を記録する。ここでの「特定の音声」とは、第1音声中に含まれる音声の中でユーザが強調させたり、低減させたりすることを希望する音声である。たとえば、風が吹いている環境で話をしている人物の映像を撮像する場合において、風切り音を第2音声として記録できる。あるいは、海岸で話をしている人物の映像を撮像する場合において、波の音を第2音声として記録できる。
次に、第1音声を処理する際の第1音声の共通成分の処理条件設定する(処理条件設定工程)。ユーザは、操作部22を介して、その処理条件を設定する。この設定により、ユーザは、第1音声に含まれている第2音声を任意に強調したり、低減したり、キャンセルしたりできる。
次に、第2音声を用いて、共通成分を強調又は低減させる処理を第1音声に行い、第3音声を生成する(音声生成工程)。この工程では、まず、第2音声の周波数を検出する。そして、その周波数の音声成分を上記処理条件設定工程で設定された処理条件に従って強調又は低減させる処理を第1音声に行い、第3音声を生成する。これにより、第1音声に含まれる第2音声をユーザの意図した強度で含んだ、又は、キャンセルされた音声(第3音声)が生成される。たとえば、風が吹いている環境で第1音声を記録し、風切り音を第2音声として記録した場合には、風切り音を低減又はキャンセルさせた音声を生成できる。また、必要に応じて風切り音を強調した音声を生成できる。
次に、撮像により得られた映像(第1映像)に上記音声生成工程で生成された音声(第3音声)を関連付け、音声付きの映像(第2映像)を生成する(映像生成工程)。
以上一連の工程で音声付きの映像が生成される。生成された音声付きの映像は、記憶部18に記録される。
本実施の形態の映像生成方法によれば、メインの音声(第1音声)とは別に、そのメインの音声に含まれる特定の音声(第2音声)を記録しておくことにより、特定の音声を切り分けて編集できる。これにより、ユーザの意図に沿った音声付きの映像を生成できる。
[第2の実施の形態の変形例]
(1)第3音声の生成についての変形例
共通成分を強調したり、低減したり、キャンセルしたりする処理は、映像の特定の区間でのみ実施することができる。この場合、区間を指定して処理を実施する。
また、共通成分の処理条件は、時間軸に沿って部分的に変化させることもできる。これにより、たとえば、シーンに応じて、特定の音声の強度を変えた音声付きの映像を生成できる。
(2)第2音声の記録についての変形例
第2音声については、必ずしも第1映像の撮像に同期して記録する必要はない。事前に又は事後的に第2音声を記録する構成としてもよい。たとえば、事前に編集したい環境の音声(風切り音、滝の音、工事の音など)を第2音声として記録しておくことができる。また、事前に編集をしたい環境の音声をサンプル音声として録音をしておき、映像記録工程中に、録音とサンプル音声の共通成分から第2音声を作成してもよい。
また、第2音声については、代表的なものをプリセットデータとして、あらかじめ撮像装置に保持しておくこともできる。これにより、たとえば、プリセットデータとして保持した音声を含む音声を映像と共に記録した場合に、その音声を強調したり、低減したりした音声を生成できる。たとえば、風切り音をプリセットデータとして保持している場合、そのプリセットデータが持つ風切り音の周波数データを利用して、第1音声の風切り音を強調したり、低減したりした音声付きの映像を生成できる。プリセットデータは、たとえば、ROM26又は記憶部18に記録しておく。ユーザは、映像を生成する際に、編集対象の音声のデータを選択する。
(3)第1音声入力部及び第2音声入力部の変形例
上記第1の実施の形態と同様に、第1音声入力部12及び第2音声入力部14は、必要に応じて、集音された音声の音声信号にフィルタリング処理を施すことが好ましい。また、第1音声入力部12及び第2音声入力部14は、目的に応じたマイクロフォンを使用することが好ましい。
なお、第2音声を撮像に同期して記録する場合を除き、第2音声は、第1マイクロフォン12Aで集音する構成とすることもできる。すなわち、事前に又は事後的に第2音声を記録する場合には、第1音声入力部12を利用して、第2音声を集音し、記録することができる。したがって、事前に又は事後的に第2音声を記録する場合、装置本体に第2音声入力部14は不要である。
[第3の実施の形態]
本実施の形態では、映像及び音声の記録中に撮像装置本体の動きを検出し、その動きの情報を加味して、第3音声を生成する。
図8は、本実施の形態の撮像装置の概略構成を示すブロック図である。同図に示すように、本実施の形態の撮像装置1は、動き検出部30を更に備えている点で上記第1及び第2の実施の形態の撮像装置と相違する。
動き検出部30は、撮像部10を含む撮像装置本体の動きを検出する。動き検出部30は、撮像部10による撮像に同期して撮像装置本体の動きを検出する。すなわち、撮像の開始と同時に動きの検出を開始し、撮像終了と同時に検出を終了する(動き検出工程)。動き検出部30は、たとえば、加速度センサ等で構成される。なお、撮像装置本体が像振れ補正機能等を備えている場合には、振れ検出等に使用するセンサを動き検出用のセンサに使用することができる。
図9は、映像及び音声を記録する場合にCPUが実現する主な機能のブロック図である。同図に示すように、CPU24は、撮像制御部101、映像出力部102、第1映像記録部103、第1音声記録部104、第2音声記録部105、動き記録部106等として機能する。動き記録部106を除く各部の機能は、上記第1の実施の形態と実質的に同じである。
動き記録部106は、動き検出部30で検出される撮像装置本体の動きの情報を第1映像の撮像に同期して記憶部18に記録する。動きの情報は、第1映像に関連付けて、記憶部18に記録される。音声付きの映像(第2映像)を生成する場合は、この記憶部18に記憶された動きの情報を利用して、映像に関連付ける音声(第3音声)を生成する。
第3音声生成部124は、動きの情報を加味して、第3音声を生成する。ここでは、第1音声に第2音声を合成して第3音声を生成する場合を例に説明する。上記第1の実施の形態で説明したように、第1音声は、実質的に第2音声を含まない音声であり、第2音声は、実質的に第1音声を含まない音声である。
図10は、本実施の形態の第3音声生成部が有する機能のブロック図である。同図に示すように、本実施の形態の第3音声生成部124は、第2音声処理部124E、強度調整部124A及び合成部124Bの機能を有する。第2音声処理部124Eを除く各部の機能は、上記第1の実施の形態と実質的に同じである。
第2音声処理部124Eは、映像及び音声を記録した際の撮像装置本体の動きの情報を取得し、その動きの情報に基づいて、第2音声を処理する。具体的には、撮像装置本体の動きに応じて、あらかじめ定められた処理条件に従って第2音声を処理する。一例として、メインの音声(第1音声)に風切り音(第2音声)を含めた音声(第3音声)を生成する場合を例に説明する。第2マイクロフォン14Aが左右一組のマイクロフォンで構成され、撮像装置本体に一体的に備えられているとする。したがって、この場合、第2マイクロフォン14Aは、撮像装置本体と一体的に動く。撮像装置本体をパンニングする動きが検出された場合、第2音声処理部124Eは、その撮像装置本体の動きに応じて、左右の音声の強度を変える処理を行う。具体的には、動かす側の音声を弱める。これにより、撮像装置本体の動きに応じて左右のマイクロフォンで変化する風切り音を適切に処理できる。すなわち、動かす側のマイクロフォンは、風切り音が強くなるので、動きに応じて弱めることにより、左右でバランスの取れた音声を合成できる。
強度調整部124Aは、強度設定部125の設定に従って、処理後の第2音声の強度を調整する。合成部124Bは、強度の調整後の第2音声を第1音声に合成して第3音声を生成する。
このように、本実施の形態では、撮像装置本体の動きに応じて第2音声を自動で処理して、第3音声を生成する。これにより、撮像装置本体の動きの影響を自動で除去できる。
[第3の実施の形態の変形例]
以下においては、第2音声を用いて、共通成分を強調又は低減させる処理を第1音声に行って、第3音声を生成する場合において、撮像装置本体の動きの情報を加味して、第3音声を生成する場合について説明する。
図11は、本例の第3音声生成部が有する機能のブロック図である。同図に示すように、本例の第3音声生成部124は、音声処理部124Dが、撮像装置本体の動きの情報に基づいて、第1音声を処理する点で上記第2の実施の形態の第3音声生成部124と相違する。
音声処理部124Dは、撮像装置本体の動きに応じて、あらかじめ定められた処理条件に従って第1音声を処理する。一例として、メインの音声に風切り音(第2音声)を含む音声(第1音声)を撮像に同期して記録した場合において、風切り音を強調又は低減させた音声(第3音声)を生成する場合を例に説明する。この場合、第1音声には、メインの音声の他に風切り音(第2音声)が含まれた音声が記録される。第2音声には、風切り音が記録される。
周波数検出部124Cは、第2音声のデータを解析して、第2音声の周波数を検出する。
そして、ユーザは予め定められた複数の音声の強度設定から一つ強度の設定を選択する。音声処理部124Dは、周波数検出部124Cで検出される第2音声の周波数の情報及び撮像装置本体の動きの情報を取得し、処理条件設定部128で設定された処理条件と動きの情報とを組み合わせて第1音声を処理して、第3音声を生成する。たとえば、メインの音声(第1音声)に風切り音(第2音声)が含まれて記録される環境において、移動しながら映像及び音声を記録する場合を考える。風切り音(第2音声)の大きさは、移動する速度に応じて変化する。よって、音声処理部124Dは、撮像装置本体の移動速度(動き)に応じて、予め設定された強度設定を補正したり、処理対象の周波数(共通成分の周波数)を変える。これにより、移動しながら映像及び音声を記録した場合であっても、対象とする音声(第2音声)を適切に処理できる。例えば、ユーザの設定が風切り音(第2音声)を少し低減させる設定だった場合に、撮像装置本体の移動速度が速いと認定されたシーンは、他のシーンと比べて風切り音を大きく低減させる補正をかけて第3音声とする。これによって、第3音声の特定のシーンだけ、特定の音(風や波等)が大きくなり過ぎることが防止できる。
[第4の実施の形態]
本実施の形態では、映像(第1映像)を撮像する際に、その映像の撮像情報を取得して、記憶部18に記録しておく。記録した撮像情報は、音声付きの映像(第2映像)を生成する際に使用される。具体的には、音声付きの映像を生成する際に、表示部16に表示される。ユーザは、表示部16に表示された情報を利用して、音声の編集を行う区間(シーン)を特定する。ここで、撮像情報とは、映像の撮像に関する情報である。たとえば、映像を撮像した際の焦点距離の情報、被写体距離の情報、露出の情報等が含まれる。また、撮像装置が、撮像装置本体の動き等を検出する機能を備えている場合には、撮像中の撮像装置本体の動きの情報等も含まれる。
撮像情報の取得、記録及び表示等の処理はCPU24が行う。図12は、撮像情報を取得して記録する場合及び撮像情報を表示する場合にCPUが実現する機能のブロック図である。同図に示すように、CPU24は、撮像情報取得部131、撮像情報記録部132及び撮像情報表示部133として機能する。
撮像情報取得部131は、撮像部10による第1映像の撮像に同期して、第1映像の撮像情報を取得する。撮像情報としては、被写体距離の情報、焦点距離の情報、撮像装置の動き(たとえば、加速度センサの出力)の情報等を取得する。
撮像情報記録部132は、撮像情報取得部131で取得した撮像情報を記憶部18に記録する。撮像情報は、映像(第1映像)に関連付けて記録される。
撮像情報表示部133は、操作部22からの操作入力に基づいて、記憶部18から撮像情報を取得し、表示部16に表示する。たとえば、時系列に沿って撮像情報を表示する。
本実施の形態の撮像装置を用いた音節付き映像の生成は、たとえば、次のように行われる。
まず、撮像部10によって第1映像が撮像され、記憶部18に記録される(映像記録工程)。撮像に同期して第1映像の撮像情報が取得され(第1情報取得工程)、第1映像に関連付けて記憶部18に記録される。また、撮像に同期して第1音声及び第2音声が集音され、第1映像に関連付けて記憶部18に記録される(第1音声記録工程及び第2音声記録工程)。
次に、記録された第1映像、第1音声及び第2音声を用いて、音声付きの映像(第2映像)が生成される。まず、第1映像の撮像情報が記憶部18から読み出され、表示部16に表示される(第1表示工程)。撮像情報は、第1映像の時系列に沿って表示される。この撮像情報が表示されることにより、音声編集が必要な個所を特定しやすくできる。ユーザは、操作部22を介して、第2音声を合成する個所、又は、第2音声を編集する個所(第2音声を強調したり、低減させたり、キャンセルしたりする個所)を特定し、音声付きの映像(第2映像)の生成を指示する。
音声付きの映像の生成が指示されると、操作部22からの操作入力に基づき、第2音声を用いて第1音声が処理され、第3音声が生成される(音声生成工程)。そして、生成された第3音声と第1映像とが関連付けられて、音声付きの映像(第2映像)が生成される(映像生成工程)。
このように、本実施の形態によれば、第1映像の撮像情報を取得して、記録しておく。これにより、音声付きの映像を生成する際に、音声の編集が必要な個所を簡単に特定できる。
[第4の実施の形態の変形例]
取得した撮像情報の用途は、上記例に限定されない。たとえば、撮像情報を利用して、自動で音声編集が必要な個所を特定し、自動で第1音声を処理して、第3音声を生成する構成とすることもできる。たとえば、撮像装置本体の動きの大きい個所(動きが閾値以上の個所)、被写体の動きが大きい個所(被写体距離の変動が閾値以上の個所)等を撮像情報に基づいて特定し、自動で処理する構成とすることもできる。また、たとえば、撮像情報を利用して、自動で音声編集方法が変えることもできる。映像の全体を通じて第2音声を低減させる場合において、低減させる強度を撮像情報に基づいて自動で変えることができる(撮像装置本体の動きの大きい個所、被写体の動きが大きい個所に強度を変える等)。また、たとえば、撮像情報を利用して、音声編集方法が必要な個所を検出し、自動で頭出しすることもできる。
[第5の実施の形態]
本実施の形態では、第1音声を集音する第1マイクロフォン12A及び第2音声を集音する第2マイクロフォン14Aの情報を取得し、記憶部18に記録しておく。記録した第1マイクロフォン12A及び第2マイクロフォン14Aの情報は、音声付きの映像(第2映像)を生成する際に使用される。具体的には、音声付きの映像を生成する際に、表示部16に表示される。ユーザは、表示部16に表示された情報を利用して、第2音声の強度の設定等を行う。ここで、マイクロフォンの情報とは、たとえば、風防の有無の情報、風防が備えられている場合に風防の種類(スポンジ型、ファー型、カゴ型等)の情報、指向性の有無の情報等である。この他、マイクロフォンの情報には、マイクロフォンの性能諸要素の情報(たとえば、マイクロフォンの指向特性の情報(音が到来する方向に対する感度の変化の情報)、周波数特性の情報(音の高低によって感度がどのように変わるかの情報)、最大音圧レベル(マイクロフォンが収音できる最も大きな音のレベル)の情報、等価雑音レベル(入力換算雑音レベル)の情報、出力インピーダンスの情報、開回路感度の情報等)等も含めることができる。
第1マイクロフォン12A及び第2マイクロフォン14Aの情報は、ユーザが操作部22を介して撮像装置1に入力する。CPU24は、操作部22を介して入力された第1マイクロフォン12A及び第2マイクロフォン14Aの情報を記憶部18にする。また、音付きの映像を生成する際は、記憶部18に記録された第1マイクロフォン12A及び第2マイクロフォン14Aの情報を表示部16に表示する。
図13は、マイクロフォンの情報を取得して記録する場合及びマイクロフォンの情報を表示する場合にCPUが実現する機能のブロック図である。同図に示すように、CPU24は、マイクロフォン情報取得部141、マイクロフォン情報記録部142及びマイクロフォン情報表示部143として機能する。
マイクロフォン情報取得部141は、第1マイクロフォン12A及び第2マイクロフォン14Aの情報を取得する。上記のように、第1マイクロフォン12A及び第2マイクロフォン14Aの情報は、操作部22を介して、ユーザが入力する。ユーザは、第1マイクロフォン12A及び第2マイクロフォン14Aについて、風防の有無、風防が備えられている場合に風防の種類(スポンジ型、ファー型、カゴ型等)、指向性の有無等の情報を入力する。
マイクロフォン情報記録部142は、マイクロフォン情報取得部141で取得した第1マイクロフォン12A及び第2マイクロフォン14Aの情報を記憶部18に記録する。第1マイクロフォン12A及び第2マイクロフォン14Aの情報は、映像(第1映像)に関連付けて記録される。
マイクロフォン情報表示部143は、操作部22からの操作入力に基づいて、記憶部18から第1マイクロフォン12A及び第2マイクロフォン14Aの情報を取得し、表示部16に表示する。
本実施の形態の撮像装置を用いた音声付き映像の生成は、たとえば、次のように行われる。
まず、撮像部10によって第1映像が撮像され、記憶部18に記録される(映像記録工程)。また、撮像に同期して第1音声及び第2音声が集音され、第1映像に関連付けて記憶部18に記録される(第1音声記録工程及び第2音声記録工程)。また、撮像の際に使用した第1マイクロフォン12A及び第2マイクロフォン14Aの情報が入力され(第2情報取得工程)、記憶部18に記録される。
次に、記録された第1映像、第1音声及び第2音声を用いて、音声付きの映像(第2映像)が生成される。まず、第1マイクロフォン12A及び第2マイクロフォン14Aの情報が記憶部18から読み出され、表示部16に表示される(第2表示工程)。ユーザは、第1マイクロフォン12A及び第2マイクロフォン14Aの情報を元に第2音声を合成する際の強度を設定する。また、第1マイクロフォン12A及び第2マイクロフォン14Aの情報を元に第1音声を処理する際の処理条件を設定する。たとえば、風防の有無、種類に応じて、強度を設定する。
音声付きの映像の生成が指示されると、操作部22からの操作入力に基づき、第2音声を用いて第1音声が処理され、第3音声が生成される(音声生成工程)。そして、生成された第3音声と第1映像とが関連付けられて、音声付きの映像(第2映像)が生成される(映像生成工程)。
このように、本実施の形態によれば、第1マイクロフォン12A及び第2マイクロフォン14Aの情報を取得して、記録しておく。これにより、音声付きの映像を生成する際に、より適切に第3音声を生成できる。たとえば、メインの音声の損失を最小限に抑えることができる。
[第5の実施の形態の変形例]
取得した第1マイクロフォン12A及び第2マイクロフォン14Aの情報の用途は、上記の例に限定されない。たとえば、第1マイクロフォン12A及び第2マイクロフォン14Aの情報を利用して、自動で第1音声を処理して、第3音声を生成する構成とすることもできる。たとえば、第1音声に第2音声を合成して、第3音声を生成する場合において、第2音声を合成する際の強度を第2マイクロフォン14Aの種類に応じて自動で設定することもできる。また、たとえば、第1音声に対して第2音声と同じ周波数の音声成分を処理して第3音声を生成する場合において、第2マイクロフォン14Aの種類に応じて、処理対象の周波数を自動で変える構成とすることもできる。
また、上記の例では、ユーザが、第1マイクロフォン12A及び第2マイクロフォン14Aの情報を撮像装置1に入力する構成としているが、第1マイクロフォン12A及び第2マイクロフォン14Aの情報を自動で収集する構成とすることもできる。
[第6の実施の形態]
本実施の形態では、第1映像の撮像中、第2音声が記録されたタイミングを検出して記録しておく。記録した情報は、音声付きの映像(第2映像)を生成する際に使用される。具体的には、音声付きの映像を生成する際に、表示部16に表示される。ユーザは、表示部16に表示された情報を利用して、音声の編集を行う区間(シーン)を特定する。
第2音声が記録されたタイミングの検出はCPU24が行う。図14は、第2音声が記録されたタイミングを検出して記録する場合及び記録された情報を表示する場合にCPUが実現する機能のブロック図である。同図に示すように、CPU24は、第2音声検出部151、タイミング情報記録部152及びタイミング情報表示部153として機能する。
第2音声検出部151は、第2音声入力部14から入力される第2音声の音声信号に基づいて第2音声が記録されたタイミングを検出する。すなわち、第2音声の音声信号の入力を検出して、第2音声が記録されたタイミングを検出する。
タイミング情報記録部152は、第2音声検出部151で検出された第2音声の記録タイミングの情報(タイミング情報)を記憶部18に記録する。タイミング情報は、映像(第1映像)に関連付けて記録される。
タイミング情報表示部153は、操作部22からの操作入力に基づいて、記憶部18からタイミング情報を取得し、表示部16に表示する。たとえば、第2音声が記録されたタイミングを時間軸上で表示する。
本実施の形態の撮像装置を用いた音節付き映像の生成は、たとえば、次のように行われる。
まず、撮像部10によって第1映像が撮像され、記憶部18に記録される(映像記録工程)。撮像に同期して第1映像のタイミング情報が取得され(第1情報取得工程)、第1映像に関連付けて記憶部18に記録される。また、撮像に同期して第1音声及び第2音声が集音され、第1映像に関連付けて記憶部18に記録される(第1音声記録工程及び第2音声記録工程)。また、第2音声の記録されたタイミングの検出が行われる(第2音声検出工程)。検出された情報は、第1映像に関連付けられて記憶部18に記録される(関連付け工程)。
次に、記録された第1映像、第1音声及び第2音声を用いて、音声付きの映像(第2映像)が生成される。まず、タイミング情報が記憶部18から読み出され、表示部16に表示される。たとえば、第2音声が記録されたタイミングが時間軸上で表示される。ユーザは、操作部22を介して、第2音声を合成する個所、又は、第2音声を編集する個所を特定し、音声付きの映像(第2映像)の生成を指示する。
音声付きの映像の生成が指示されると、操作部22からの操作入力に基づき、第2音声を用いて第1音声が処理され、第3音声が生成される(音声生成工程)。そして、生成された第3音声と第1映像とが関連付けられて、音声付きの映像(第2映像)が生成される(映像生成工程)。
このように、本実施の形態によれば、第2音声が記録されたタイミングを検出して、記録しておく。これにより、音声付きの映像を生成する際に、音声の編集が必要な個所(シーン)を簡単に特定できる。
[第6の実施の形態の変形例]
取得したタイミング情報の用途は、上記例に限定されない。たとえば、タイミング情報に基づいて、音声編集が必要な個所を自動的に特定する構成とすることもできる。
また、第2音声が記録されたタイミングは、第1映像の撮像終了後に検出してもよい。すなわち、撮像終了後に第2音声の音声データを解析して、第2音声が記録されたタイミングを検出する構成としてもよい。
[その他の実施の形態]
上記のように、メインの音声である第1音声を集音する第1マイクロフォン12Aについては、無指向性の集音特性を有するマイクロフォンを使用することが好ましい。また、第2音声を集音する第2マイクロフォン14Aについては、指向性の集音特性を有するマイクロフォン(たとえば、ガンマイク等)を使用することが好ましい。これにより、第1音声及び第2音声の録音の精度を向上できる。また、たとえば、特定の声の音声特性を維持しながら音の調整を行うこともできる。
また、指向性の集音特性を有するマイクロフォンを使用して第2音声を集音する場合において、指向性を調整できる場合、第2音声の音源の位置の変化に応じて、マイクロフォンの指向性を変えることがより好ましい。たとえば、映像内における第2音声の音源の位置の変化に追従して、第2マイクロフォン14Aの向きを変える。音源の位置の変化は、たとえば、映像を解析して検出する。たとえば、第2音声の音源となる被写体を映像内で特定し、その被写体の位置を画像認識等で検出し、音源の位置を特定する。
また、上記実施の形態では、本発明を撮像装置で実施する場合を例に説明したが、本発明を実施する装置及びシステムは、これに限定されるものではない。たとえば、撮像機能及び録音機能を備えた携帯電子機器(たとえば、スマートフォン、タブレットコンピュータ、ノートパソコン等)でも実施できる。また、記録済みの第1映像、第1音声及び第2音声をコンピュータ(たとえば、パーソナルコンピュータ等)に取り込み、コンピュータで第3音声を生成し、音声付きの映像(第2映像)を生成することもできる。
第3音声を生成する機能、及び、第2映像を生成する機能等を実行する制御部は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、たとえば、ソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPUが含まれる。また、上記各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。更に、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上記各種のプロセッサに含まれる。
制御部は、1つのプロセッサにより実現されてもよいし、同種又は異種の複数のプロセッサ(たとえば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、サーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。これらの電気回路は、論理和、論理積、論理否定、排他的論理和、及びこれらを組み合わせた論理演算を用いて上記の機能を実現する電気回路であってもよい。
上記のプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのプロセッサ(コンピュータ)読み取り可能なコードをROM等の非一時的記録媒体に記憶しておき、プロセッサがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、画像の入力、解析、表示制御等を実行するためのプログラムを含む。ROMではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には、たとえばRAMが一時的記憶領域として用いられ、また、たとえば、不図示のEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。
1 撮像装置
10 撮像部
10A 撮像光学系
10B 撮像素子
10C 画像信号処理部
12 第1音声入力部
12A 第1マイクロフォン
12B 第1音声信号処理部
14 第2音声入力部
14A 第2マイクロフォン
14B 第2音声信号処理部
16 表示部
18 記憶部
20 音声出力部
22 操作部
24 CPU
26 ROM
28 RAM
30 動き検出部
101 撮像制御部
102 映像出力部
103 第1映像記録部
104 第1音声記録部
105 第2音声記録部
106 動き記録部
111 映像再生部
112 音声再生部
121 第1映像取得部
122 第1音声取得部
123 第2音声取得部
124 第3音声生成部
124A 強度調整部
124B 合成部
124C 周波数検出部
124D 音声処理部
124E 第2音声処理部
125 強度設定部
126 映像生成部
127 第2映像記録部
128 処理条件設定部
131 撮像情報取得部
132 撮像情報記録部
133 撮像情報表示部
141 マイクロフォン情報取得部
142 マイクロフォン情報記録部
143 マイクロフォン情報表示部
151 第2音声検出部
152 タイミング情報記録部
153 タイミング情報表示部

Claims (12)

  1. 撮像部で撮像された第1映像を記録する映像記録工程と、
    前記第1映像に同期して第1音声を記録する第1音声記録工程と、
    前記第1映像に同期して前記第1音声と異なる第2音声を記録する第2音声記録工程と、
    前記第2音声の記録されたタイミングを検出する第2音声検出工程と、
    前記第2音声の記録されたタイミングを時間軸上で表示する工程と、
    前記第1映像及び前記第1音声を再生する工程と、
    前記第1映像及び前記第1音声に対し、前記第2音声を合成する区間の指定を受け付ける工程と、
    前記第2音声の強度の設定指示を受け付ける強度設定工程と、
    前記第1音声の指定された区間に対し、前記設定指示に基づいて強調又は低減させた前記第2音声を合成し、第3音声を生成する音声生成工程と、
    前記第1映像と前記第3音声を関連付けて第2映像を生成する映像生成工程と、
    を備えた映像生成方法。
  2. 前記第1音声は前記第2音声と共通する音声成分である共通成分を含み、
    前記音声生成工程は、前記第2音声を用いて、前記共通成分を強調又は低減させる処理を前記第1音声に行って、前記第3音声を生成する、
    請求項1に記載の映像生成方法。
  3. 前記音声生成工程の前に、前記共通成分の処理条件を設定する処理条件設定工程を更に備え、
    前記音声生成工程は、前記処理条件設定工程で設定された処理条件に従って、前記共通成分を強調又は低減させる処理を前記第1音声に対して行う、
    請求項2に記載の映像生成方法。
  4. 前記撮像部を含む撮像装置本体の動きを検出する検出工程を更に備え、
    前記音声生成工程は、前記検出工程において前記動きの検出があった場合、前記第1音声又は前記第2音声に所定の処理を行って前記第3音声を生成する、
    請求項1から3のいずれか1項に記載の映像生成方法。
  5. 前記撮像部による前記第1映像の撮像情報を取得する第1情報取得工程と、
    前記撮像情報を表示する第1表示工程と、
    を更に備えた請求項1から4のいずれか1項に記載の映像生成方法。
  6. 前記撮像情報には、前記撮像部を含む撮像装置本体の動きの情報及び焦点距離の情報の少なくとも一つが含まれる、
    請求項5に記載の映像生成方法。
  7. 前記第1音声及び前記第2音声を集音する集音部の情報を取得する第2情報取得工程を更に備え、
    前記集音部の情報を表示する第2表示工程と、
    を更に備えた請求項1から6のいずれか1項に記載の映像生成方法。
  8. 前記第1音声記録工程は、第1集音部を介して前記第1音声を記録し、
    前記第2音声記録工程は、前記第1集音部とは異なる第2集音部を介して前記第2音声を記録する、
    請求項1から7のいずれか1項に記載の映像生成方法。
  9. 前記第2集音部は、指向性の集音特性を有し、
    前記第1集音部は、前記第2集音部よりも低い指向性の集音特性を有する、
    請求項8に記載の映像生成方法。
  10. 前記第2集音部は、指向性の集音特性を有し、
    前記第2音声記録工程は、前記第2音声の音源の位置を検出し、検出された前記音源の方向に前記第2集音部を指向させて、前記第2音声を記録する、
    請求項8又は9に記載の映像生成方法。
  11. プロセッサを備え、
    前記プロセッサは、
    第1映像を取得し、
    前記第1映像に同期して記録された第1音声を取得し、
    前記第1映像に同期して記録された第2音声を取得し、
    前記第2音声の記録されたタイミングの情報を取得し、
    前記第2音声の記録されたタイミングを時間軸上で表示し、
    前記第1映像及び前記第1音声を再生し、
    前記第1映像及び前記第1音声に対し、前記第2音声を合成する区間の指定を受け付け、
    前記第2音声の強度の設定指示を受け付け、
    前記第1音声の指定された区間に対し、前記設定指示に基づいて強調又は低減させた前記第2音声を合成して、第3音声を生成し、
    前記第1映像と前記第3音声を関連付けて第2映像を生成する、
    映像生成装置。
  12. 第1映像を取得する機能と、
    前記第1映像に同期して記録された第1音声を取得する機能と、
    前記第1映像に同期して記録された第2音声を取得する機能と、
    前記第2音声の記録されたタイミングの情報を取得する機能と、
    前記第2音声の記録されたタイミングを時間軸上で表示する機能と、
    前記第1映像及び前記第1音声を再生する機能と、
    前記第1映像及び前記第1音声に対し、前記第2音声を合成する区間の指定を受け付ける機能と、
    前記第2音声の強度の設定指示を受け付ける機能と、
    前記第1音声の指定された区間に対し、前記設定指示に基づいて強調又は低減させた前記第2音声を合成して、第3音声を生成する機能と、
    前記第1映像と前記第3音声を関連付けて第2映像を生成する機能と、
    をコンピュータに実現させる映像生成プログラム。
JP2024003291A 2019-07-26 2024-01-12 映像生成方法、映像生成装置及び映像生成プログラム Pending JP2024026741A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019137874 2019-07-26
JP2019137874 2019-07-26
PCT/JP2020/028072 WO2021020197A1 (ja) 2019-07-26 2020-07-20 映像生成方法
JP2021536957A JPWO2021020197A1 (ja) 2019-07-26 2020-07-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021536957A Division JPWO2021020197A1 (ja) 2019-07-26 2020-07-20

Publications (1)

Publication Number Publication Date
JP2024026741A true JP2024026741A (ja) 2024-02-28

Family

ID=74228573

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021536957A Pending JPWO2021020197A1 (ja) 2019-07-26 2020-07-20
JP2024003291A Pending JP2024026741A (ja) 2019-07-26 2024-01-12 映像生成方法、映像生成装置及び映像生成プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021536957A Pending JPWO2021020197A1 (ja) 2019-07-26 2020-07-20

Country Status (2)

Country Link
JP (2) JPWO2021020197A1 (ja)
WO (1) WO2021020197A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008178090A (ja) * 2006-12-22 2008-07-31 Victor Co Of Japan Ltd 映像処理装置
JP2015088887A (ja) * 2013-10-30 2015-05-07 キヤノン株式会社 録音装置

Also Published As

Publication number Publication date
JPWO2021020197A1 (ja) 2021-02-04
WO2021020197A1 (ja) 2021-02-04

Similar Documents

Publication Publication Date Title
CN112165590B (zh) 视频的录制实现方法、装置及电子设备
JP4896838B2 (ja) 撮像装置、画像検出装置及びプログラム
JP5801026B2 (ja) 画像音響処理装置及び撮像装置
US20170289681A1 (en) Method, apparatus and computer program product for audio capture
JP4934580B2 (ja) 映像音声記録装置および映像音声再生装置
JP2013106298A (ja) 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置
JP2007013255A (ja) 信号処理装置および方法、プログラム、並びに記録媒体
JP2011071962A (ja) 撮像装置及び再生装置
JP4513699B2 (ja) 動画像編集装置、動画像編集方法及びプログラム
JP2016118991A (ja) 画像生成装置、画像生成方法及びプログラム
JPWO2018062537A1 (ja) 撮像装置、プログラムおよび電子機器
JP5155092B2 (ja) カメラ、再生装置、および再生方法
JP4968346B2 (ja) 撮像装置、画像検出装置及びプログラム
KR101665175B1 (ko) 화상 취득 장치, 화상 취득 방법 및 기록매체
JP2017011504A (ja) 撮像装置、画像処理方法及びプログラム
WO2021020197A1 (ja) 映像生成方法
JP2011139306A (ja) 撮像装置及び再生装置
JP2019021966A (ja) 収音装置および収音方法
JP2014122978A (ja) 撮像装置、音声認識方法、及びプログラム
JP7217471B2 (ja) 撮像装置
JP6761230B2 (ja) 画像処理装置、その制御方法、プログラム及び撮像装置
CN104079822B (zh) 摄像装置、信号处理装置及方法
JP2010130403A (ja) 映像制御装置およびそれを備えた撮像装置、表示装置
CN115942108A (zh) 一种视频处理方法及电子设备
JP5712599B2 (ja) 撮像装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240112