JP6727106B2 - 画像音響処理装置および画像音響処理方法、プログラム - Google Patents

画像音響処理装置および画像音響処理方法、プログラム Download PDF

Info

Publication number
JP6727106B2
JP6727106B2 JP2016233499A JP2016233499A JP6727106B2 JP 6727106 B2 JP6727106 B2 JP 6727106B2 JP 2016233499 A JP2016233499 A JP 2016233499A JP 2016233499 A JP2016233499 A JP 2016233499A JP 6727106 B2 JP6727106 B2 JP 6727106B2
Authority
JP
Japan
Prior art keywords
sound
image
content
data
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016233499A
Other languages
English (en)
Other versions
JP2018093312A (ja
JP2018093312A5 (ja
Inventor
田中 克昌
克昌 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016233499A priority Critical patent/JP6727106B2/ja
Priority to US15/826,038 priority patent/US10291875B2/en
Publication of JP2018093312A publication Critical patent/JP2018093312A/ja
Priority to US16/382,246 priority patent/US10708536B2/en
Publication of JP2018093312A5 publication Critical patent/JP2018093312A5/ja
Application granted granted Critical
Publication of JP6727106B2 publication Critical patent/JP6727106B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、画像コンテンツに対応した音響コンテンツを生成する画像音響処理装置、画像音響処理方法およびプログラムに関するものである。
複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。複数視点画像から仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像よりもユーザに臨場感を与えることが出来る。また、画像と音響を同時に再生する場合、画像のフォーカスに応じて音量を変化させることが知られている(特許文献1)。
特開2016−025633号公報
仮想視点コンテンツには、複数のカメラが1時刻に撮影した画像から生成する静止画仮想視点コンテンツと、複数のカメラが一定の期間に撮影した画像から生成する動画仮想視点コンテンツとがある。静止画仮想視点コンテンツと動画仮想視点コンテンツは何れも視聴時に仮想視点の切り替えを伴う多視点動画として取り扱われ、ユーザに高い臨場感を与える。
しかしながら、従来の技術では、静止画仮想視点コンテンツの再生において、ユーザに音響の臨場感を与えることが出来ない。なぜなら、静止画仮想視点コンテンツは1時刻に撮影した画像から生成され、再生期間に対応する音響が存在しないからである。その結果、静止画仮想視点コンテンツの再生中に無音になる、或は、静止画仮想視点コンテンツの再生後に画像と音響が同期しなくなる、等が発生し、ユーザに臨場感を与えることが出来ないだけでなく、違和感を与えてしまう。
本発明は、仮想視点における画像コンテンツに関連する、高臨場感の音響コンテンツを提供できるようにすることを目的とする。
上記の目的を達成するための本発明の一態様による画像音響処理装置は以下の構成を有する。すなわち、
1以上のマイクロフォンによる収音に基づく収音データであって、複数の撮影装置によりそれぞれ異なる方向から撮影される領域内の音を含む収音データを取得する取得手段と、
前記複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像であって、同一の時点において変化させた視点から前記領域を見た場合の光景を表す動画像である仮想視点画像と共に再生される音響データとして、前記時点以前の収音期間に対応する音響データを、前記取得手段により取得された収音データに基づいて生成する生成手段とを有する。
本発明によれば、仮想視点における画像コンテンツに関連する、高臨場感の音響コンテンツを提供できるようにすることが出来る。
第一実施形態に係る映像処理システムの機器構成例を示したブロック図。 画像音響処理装置のハードウエア構成例を示したブロック図。 第一実施形態に係る画像音響処理を示すフローチャート。 第一実施形態に係る音響の再利用の判断処理を示すフローチャート。 第一実施形態に係る時刻毎の音響と画像の相関図。 第二実施形態に係る競技場でのカメラ及びマイクロフォンの設置図。 第二実施形態に係る音響のデータ構成例を説明する図。 第二実施形態に係る音響の選択処理を示すフローチャート。 第三実施形態に係る、仮想サラウンドを作成する音響の選択処理を示すフローチャート。
以下、本発明の実施形態について添付の図面を参照して詳細に説明する。
<第一実施形態>
第一実施形態では、音響コンテンツを生成する場合に、どの時刻の音響を利用するかと、どの処理を実施するかの判断を行う動作について説明する。第一実施形態では、生成可能な画像コンテンツの種別を、静止画仮想視点コンテンツ、動画仮想視点コンテンツ、ライブ画像コンテンツの3つとする。ライブ画像コンテンツは、ライブ放送で使用する画像コンテンツであり、且つ、各時刻において、複数のカメラのうち、選択した1つのカメラ画像を使用する画像コンテンツである。動画仮想視点コンテンツは、複数のカメラにより取得された所定期間の多視点画像に基づいて生成される、任意視点からの動画である。静止画仮想視点コンテンツは、複数のカメラにより取得されたある時点の多視点画像に基づいて生成される、複数の任意視点からの静止画である。
一方、本実施形態において、生成可能な音響コンテンツには、仮想サラウンドコンテンツ、ライブ音響コンテンツの2つの種別がある。仮想サラウンドコンテンツとは、画像コンテンツの被写体の位置やカメラが撮影する位置などの情報を用いて疑似サラウンド効果の処理を施した音響コンテンツである。ライブ音響コンテンツとは、ライブ放送で使用する音響コンテンツであり、たとえば選択した2つのマイクから集音された音響データに基づいて生成される2chの音響コンテンツである。
[機器構成と各ブロックの処理]
図1Aは、第一実施形態による映像処理システムの機器構成例を示すブロック図である。映像処理システムは、画像音響処理装置100、カメラ群101、マイクロフォン群102、時刻生成サーバ103、映像配信機器104を備える。画像音響処理装置100は、カメラ群101からカメラの台数に応じた数の画像データと、マイクロフォン群102からマイクロフォンの台数に応じた数の音響データを受信する。
カメラ群101は、複数の方向から被写体を撮影するための複数のカメラで構成される。マイクロフォン群102は複数のマイクロフォンで構成される。時刻生成サーバ103は、時刻情報を生成し、カメラ群101及びマイクロフォン群102に送信する。カメラ群101及びマイクロフォン群102を構成するカメラ、マイクロフォンは、時刻生成サーバ103より時刻情報を受信し、画像及び音響に時刻情報を付与して画像音響処理装置100に送信する。なお、時刻生成サーバ103が時刻情報を画像音響処理装置100に送信し、画像音響処理装置100が時刻情報を画像および音響に付与するようにしても良い。
次に、画像音響処理装置100の構成について説明する。画像入力部110は、カメラ群101が撮影した画像を取得して、蓄積部112に伝送する。音響入力部111は、マイクロフォン群102が集音した音響を取得して、蓄積部112に伝送する。蓄積部112は、画像入力部110から取得した画像データ(カメラ群101の複数のカメラにより得られた画像データ)と音響入力部111が取得した音響データ(マイクロフォン群102の複数のマイクロフォンにより得られた音響データ)を蓄積する。蓄積部112に蓄積された画像と音響をそれぞれ画像データ113、音響データ114と称する。映像生成制御部118は、画像制御部115、同期制御部116、音響制御部117に対して、映像コンテンツの生成に関わるユーザの指示や設定値を伝送する。なお、本明細書において、映像コンテンツとは、画像コンテンツと、この画像コンテンツとともに再生される音響コンテンツとを含むコンテンツとする。
画像制御部115は、映像生成制御部118の指示に応じて画像データ113に基づいて生成する画像コンテンツの種別を決定する。静止画仮想コンテンツを生成する場合、画像制御部115は、蓄積部112から読み出した画像データ113を静止画仮想視点コンテンツ生成部119に伝送する。動画仮想視点コンテンツを生成する場合、画像制御部115は、蓄積部112から読み出した画像データ113を動画仮想視点コンテンツ生成部120に伝送する。ライブ画像コンテンツを生成する場合、画像制御部115は、蓄積部112から読み出した画像データ113をライブ画像コンテンツ生成部121に伝送する。また、画像制御部115は、上記した生成する画像コンテンツの種別や、読み出した画像データの時刻情報などを、同期制御部116に伝送する。
同期制御部116は、画像コンテンツの種別、画像データ113のタイムスタンプ、画像コンテンツ生成の開始時刻、画像データ113の被写体座標などを、画像制御部115または映像生成制御部118から取得し、音響制御部117に伝送する。音響制御部117は、映像生成制御部118からの指示と、同期制御部116から取得した情報に基づく音響制御部117内部での判断と、の何れか、または、両方に基づいて、生成する音響コンテンツの種別、使用する音響データの種類を決定する。仮想サラウンドコンテンツを生成する場合、音響制御部117は、蓄積部112から読み出した音響データ114を仮想サラウンドコンテンツ生成部122に伝送する。ライブ音響コンテンツを生成する場合、音響制御部117は、蓄積部112から読み出した音響データ114をライブ音響コンテンツ生成部123に伝送する。
静止画仮想視点コンテンツ生成部119は、画像制御部115から取得した画像データ113を用いて静止画仮想視点コンテンツを生成し、多重部124に伝送する。動画仮想視点コンテンツ生成部120は、画像制御部115から取得した画像データ113を用いて動画仮想視点コンテンツを生成し、多重部124に伝送する。ライブ画像コンテンツ生成部121は、画像制御部115から取得した画像データ113を用いてライブ画像コンテンツを生成し、多重部124に伝送する。仮想サラウンドコンテンツ生成部122は、音響制御部117から取得した音響データ114を用いて仮想サラウンドコンテンツを生成し、多重部124に伝送する。ライブ音響コンテンツ生成部123は、音響制御部117から取得した音響データ114を用いてライブ音響コンテンツを生成し、多重部124に伝送する。
多重部124と映像出力部125は、音響コンテンツを画像コンテンツとともに再生させるための制御を実行する。多重部124は、静止画仮想視点コンテンツ生成部119、動画仮想視点コンテンツ生成部120、ライブ画像コンテンツ生成部121から画像コンテンツを取得する。また、多重部124は、仮想サラウンドコンテンツ生成部122、ライブ音響コンテンツ生成部123から音響コンテンツを取得する。そして、多重部124は、画像コンテンツと音響コンテンツを1つのデータ列に多重化して映像コンテンツを生成し、映像出力部125に出力する。映像出力部125は、多重部124から取得した映像コンテンツを映像配信機器104に出力する。
図1Bは、第一実施形態による画像音響処理装置100のハードウエア構成例を示す図である。CPU11は、読み出し専用メモリであるROM12または随時読み書きが可能なRAM13に格納されたプログラムを実行することにより、上述した各機能部を実現する。インターフェース14は、カメラ群101、マイクロフォン群102、映像配信機器104等の外部機器と画像音響処理装置100を接続する。入力部15は、ユーザによる各種入力を受け付ける。表示部16は、たとえば液用表示器であり、CPU11の制御下で種々の表示を行う。記憶装置17は、たとえばハードディスクドライブで構成され、蓄積部112を実現する。また、記憶装置17は種々のプログラムを格納し、必要なプログラムが、CPU11による実行のために、適宜にRAM13に展開される。上述の各構成は、内部バス18を介して相互に通信可能に接続されている。
[動作]
以上のような構成を備えた画像音響処理装置100の動作について説明する。図2は、第一実施形態に係る、画像音響処理を説明するフローチャートである。本実施形態では、音響データのうちの、画像データに基づいて生成される仮想視点の画像コンテンツに対応する撮影時刻よりも前の時刻に集音された音響データであるところの以前の音響データを用いて、画像コンテンツと共に再生される音響コンテンツが生成される。なお、本実施形態において、以前の音響データを用いて生成された音響コンテンツが関連付けられる仮想視点の画像コンテンツとは、静止画仮想視点コンテンツである。
ステップS20において、映像生成制御部118は音響制御部117に対して再利用モードの設定を行う。本実施形態では、設定が可能な再利用モードは、ユーザ指示モード、タイムスタンプ自動判断モード、コンテンツ自動判断モードの3種類である。なお、再利用モードは、所定のユーザインターフェース(入力部15)を介してユーザにより指定される。再利用モードは、任意のタイミングで設定し直すことができるようにしてもよい。各モードの具体的な動作は、図3を用いて後述する。また、本モードは全ての音響データ114を対象としているため、必ずしも、再利用するデータであるとは限らない。つまり、過去に利用されていない音響データが利用される場合もありうる。
ステップS21において、映像生成制御部118は画像制御部115に対して画像コンテンツ設定を行う。画像コンテンツ設定には、生成するコンテンツの種別や、生成を開始する時刻、生成を終了する時刻、及びカメラ群101の設定値などが含まれる。なお、画像コンテンツ設定は、同期制御部116にも伝えられる。ステップS22において、映像生成制御部118は音響制御部117に対して音響コンテンツ設定を行う。音響コンテンツ設定には、生成するコンテンツのチャネル数、マイクロフォン群102の設定値などが含まれる。
ステップS23において、映像生成制御部118はカメラ群101、マイクロフォン群102、及び画像音響処理装置100の各ブロックに対して撮影及び集音の開始を指示する。この指示により、画像入力部110がカメラ群101から受信した画像を蓄積部112に蓄積することと、音響入力部111がマイクロフォン群102から受信した音響を蓄積部112に蓄積することとが開始される。
ステップS211〜S215は、蓄積部112に蓄積されている画像データ113や音響データ114を用いて画像コンテンツと音響コンテンツを含む映像コンテンツを生成するための編集処理である。映像編集の開始が指示されると、映像生成制御部118は映像編集処理を開始する(ステップS211、YES)。映像編集処理は、画像制御部115による画像コンテンツの生成(ステップS212)、音響制御部117による音響コンテンツの生成(ステップS213)、多重部124による映像コンテンツの生成(ステップS214)を含む。画像コンテンツの生成においては、画像制御部115が、画像コンテンツの生成に使用する画像データを蓄積部112から読み出し、ユーザが指定した画像コンテンツの種別に応じて、119〜121の何れかの生成部へ伝送する。音響コンテンツの生成においては、音響制御部117が、画像コンテンツの生成で用いられた画像データのタイムスタンプに基づいて特定された音響データを蓄積部112から読み出し、122〜123の何れかの生成部へ伝送する。映像コンテンツの生成においては、多重部124が、各コンテンツ生成部から受け取った画像コンテンツと音響コンテンツを1つのデータ列に多重化して出力する。ユーザは、編集結果としての映像コンテンツを直ちに視聴できる。ユーザによる編集終了の指示があるまで、ステップS212〜S214の処理が繰り返される(ステップS215)。
たとえば、図4において、ユーザは、タイムスタンプtn0から画像データを再生させて画像コンテンツを生成していく。この間、画像データがライブ画像コンテンツ生成部121に伝送され、ライブ画像コンテンツが生成される。タイムスタンプtn1(時刻T1)の画像が再生されるタイミングにおいて、ユーザは一時停止して静止画表示の状態とし、更に視点を移動させる。この間、必要な画像データが静止画仮想視点コンテンツ生成部119へ伝送され、静止画仮想視点コンテンツが生成される。その後、動画再生を再開することにより(時刻T2)、タイムスタンプtn1以降の画像が再生され、ライブ画像コンテンツが生成される。タイムスタンプtn2の画像が再生されるタイミング(時刻T3)で映像編集を終えると、図4に示すような構成の画像コンテンツが生成されることになる。
上述したような画像コンテンツの生成において、音響制御部117は、通常は画像のタイムスタンプに基づいて、音響コンテンツの生成に用いる音響を選択する。例えば、音響制御部117は、ライブ画像コンテンツ44(図4)に対応する音響データとしてライブ音響コンテンツ40,41を生成する。このとき、音響制御部117は、ライブ画像コンテンツ44の生成に用いられた画像データに対応する音響データをライブ音響コンテンツ生成部123へ送信することにより音響コンテンツを生成する。静止画仮想視点コンテンツの場合、タイムスタンプが1つになるため、音響コンテンツを生成するための音響が得られない。そこで、音響制御部117は、再利用指示を仮想サラウンドコンテンツ生成部122に送ることで、当該静止画仮想コンテンツの音響コンテンツを生成させる。
ステップS24〜S26は、音響制御部117がこのような再利用指示を仮想サラウンドコンテンツ生成部122へ出力するための処理である。ステップS24〜S26の処理はステップS211〜S215の処理と実質的に並列に実行が可能である。ステップS24において、音響制御部117はステップS20で映像生成制御部118が設定した再利用モード設定に従い、音響データを再利用するか否かを判断する。ステップS24の詳細については図3のフローチャートの参照により後述する。再利用すると判断された場合、ステップS25において、音響制御部117は同期制御部116から再利用に必要な、画像コンテンツの開始時刻と、画像コンテンツの再生期間を取得する。そして、ステップS26において、音響制御部117は仮想サラウンドコンテンツ生成部122に対して、音響データ、画像コンテンツの開始時刻、画像コンテンツの再生期間を伝送する。本ステップで、音響制御部117は映像生成制御部118に対して、指示を完了したことを伝えても良い。ステップS24において再利用しないと判断された場合、上述のステップS25とS26はスキップされる。また、ステップS25で取得された再生期間の間は音響データの再利用が実行されるので、ステップS26では、この再生期間にわたって処理が待機状態となり、再生期間が経過すると処理はステップS24へ戻る。
ステップS27において、映像生成制御部118は、撮影及び集音を継続するか判断を行うため、ユーザの指示を確認する。撮影及び集音を継続する場合、処理はステップS24に戻り、撮影及び集音を継続しない場合、処理はステップS28に進む。ステップS28において、映像生成制御部118は、撮影及び集音の終了処理を行う。
次に、ステップS24で実行される再利用の判断について図3を用いて説明する。図3のフローチャートは、ステップS24の詳細を示したものである。
ステップS30において、音響制御部117は、設定されている再利用モードを確認する。再利用モードは、ユーザ指示に従って上述の再利用の実行を判断するユーザ指示モードと画像コンテンツに基づいて上述の再利用の実行を自動的に判断する自動判断モードがある。自動判断モードには、画像コンテンツの生成種別から音響制御部117が再利用の判断を実行するコンテンツ自動判断モードと、画像コンテンツのタイムスタンプ情報から音響制御部117が再利用の判断を実行するタイムスタンプ自動判断モードがある。ユーザ指示モードの場合、処理はステップS31に進む。コンテンツ自動判断モードの場合、処理はステップS32に進む。タイムスタンプ自動判断モードの場合、処理はステップS33に進む。
ユーザ指示モードでは、ユーザからの指示に応じて音響データの再利用を実行するか否かを判定する。ステップS31において、音響制御部117はユーザからの再利用の指示の有無を同期制御部116から取得して確認する。ユーザからの再利用の指示がある場合、処理はステップS36に進み、ユーザからの再利用の指示がない場合、処理はステップS35に進む。
コンテンツ自動判断モードでは、画像コンテンツが仮想視点からの静止画であると判定した場合、すなわち静止画仮想視点コンテンツであると判定した場合に、音響データの再利用を実行すると判断する。ステップS32において、音響制御部117は、生成中の画像コンテンツの種別を同期制御部116から取得して確認する。画像コンテンツが静止画仮想視点コンテンツの場合、処理はステップS36に進み、動画仮想視点コンテンツまたはライブ画像コンテンツの場合、処理はステップS35に進む。
タイムスタンプ自動判断モードでは、画像コンテンツの生成に用いられている画像データのタイムスタンプと再生時刻に基づいて、音響データの再利用を実行するか否かを判定する。ステップS33において、音響制御部117は画像コンテンツの作成に使用する画像データ113のタイムスタンプと、映像生成制御部118から取得した再生時刻とを比較する。不一致の場合、処理はステップS36に進み、音響制御部117は、音響データ114を再利用すると判断する。比較した結果が一致する場合、処理はステップS34に進む。なお、タイムスタンプと再生時刻は一般には同一の値にはならない。例えば、図4において、時刻T0≠タイムスタンプtn0、時刻T1≠タイムスタンプtn1である。本実施形態では、画像コンテンツに対応する画像データの撮影時刻と画像コンテンツの再生時刻との差分が変化した場合に、再利用すると判断する。たとえば、時刻T0とタイムスタンプtn0との差分を基準とする。時刻T1+ΔTにおいて、静止画仮想視点コンテンツに用いられる画像データのタイムスタンプはtn1のままであり、画像データの撮影時刻と画像コンテンツの再生時刻との差分が変化する。ステップS33では、この変化が検出される。また、ステップS26での待機の終了(再生期間の経過)に応じて差分の変化の監視が再開される場合、その時点における再生時刻とタイムスタンプとの差分が基準となる。
ステップS34において、音響制御部117は画像コンテンツの作成に使用する画像データ113のタイムスタンプを同期制御部116から取得する。そして、前の再生時刻の画像コンテンツの作成に使用した画像データのタイムスタンプと比較して時刻が連続しているかを判断する。時刻が連続している場合、処理はステップS35に進み、音響制御部117は、音響データ114を再利用しないと判断する。時刻が連続していない場合、処理はステップS36に進み、音響制御部117は、音響データ114を再利用すると判断する。
[処理結果の例]
次に、音響データ114を再利用すると判断し、静止画仮想視点コンテンツを閲覧中に仮想サラウンドコンテンツを視聴した場合のデータ推移を、図4を用いて説明する。図4は、時刻T0から時刻T3の間に音響コンテンツ及び画像コンテンツを再生する場合を示している。
時刻T0から時刻T1にかけて、ライブ画像コンテンツ生成部121はライブ画像コンテンツ44を生成し、ライブ音響コンテンツ生成部123はライブ音響コンテンツ40及びライブ音響コンテンツ41を生成する。これらのコンテンツは多重部124において多重化され、映像コンテンツとして映像出力部125から出力される。ライブ画像コンテンツ44を作成するために用いられている画像データのタイムスタンプをtn0〜tn1とする。T0〜T1の間、ライブ画像コンテンツを生成するために用いられた画像データのタイムスタンプと再生時刻との差が、再生開始時の時刻とタイムスタンプとの差Δt=T0−tn0に維持される。そのため、タイムスタンプ自動判断モードにおいて、音響データを再利用しないと判断される。また、同期制御部116はライブ画像コンテンツを生成することを音響制御部117に通知する。したがって、コンテンツ自動判断モードの場合、音響制御部117はこの通知に基づいて音響データを再利用しないと判断する。
時刻T1から時刻T2にかけて、静止画仮想視点コンテンツ生成部119は静止画仮想視点コンテンツ45を生成し映像出力部125から出力する。たとえば、時刻T1においてユーザが所定の操作により静止画仮想視点コンテンツの生成を指示すると、その指示は映像生成制御部118から画像制御部115に通知される。その指示の通知を受けた画像制御部115は、静止画仮想視点コンテンツ生成部119による静止画仮想視点コンテンツの生成を開始させ、ライブ画像コンテンツ生成部121によるライブ画像の生成を停止させる。また、ライブ画像の生成の停止に伴って音響コンテンツの生成に用いる音響データが無くなるため、ライブ音響コンテンツ生成部123においても音響コンテンツの生成が停止する。
音響制御部117は、音響データの再利用をするか否かの判断(ステップS24)を繰り返している。再利用モードがコンテンツ自動判断の場合、時刻T1においてコンテンツの生成種別が静止画仮想視点コンテンツになったことを検出し、音響データを再利用すると判断する(ステップS32(YES)→ステップS36)。静止画仮想視点コンテンツになったことの検出は、たとえば、音響制御部117が同期制御部116からコンテンツ種別の通知を受けることによりなされる。或いは、静止画仮想視点コンテンツ生成部119が出力するコンテンツ(画像データ)のメタデータから音響制御部117がコンテンツ種別を判定するようにしてもよい。また、静止画仮想視点コンテンツに用いられる画像データのタイムスタンプの進行が停止し、不連続となる(図4では、tn1に維持される)ため、再生時刻と画像データのタイムスタンプとの差が、上述のΔtを維持できなくなる。再利用モードがタイムスタンプ自動判断の場合は、これらの現象(Δtを維持できない(ステップS33)、または、タイムスタンプの進行が停止した(不連続になった)こと(ステップS34))を検出することで音響データを再利用すると判断する。
音響データを再利用すると判断した場合、音響制御部117は仮想サラウンドコンテンツ生成部122に仮想サラウンドコンテンツ生成の開始を指示するとともに、開始時刻T1と再生期間(ΔT=T2−T1)を伝える。また、音響制御部117は、再生時刻T1−ΔT=2T1−T2からT1に対応する音響データ(タイムスタンプがtn1−ΔTからtn1の音響データ)を蓄積部112から読み出し、仮想サラウンドコンテンツ生成部122に伝送する。仮想サラウンドコンテンツ生成部122は、時刻2T1−T2から時刻T1に対応する音響データを用いて、時刻T1から時刻T2の間に視聴する音響コンテンツ(仮想サラウンドコンテンツ)を生成し、映像出力部125に出力する。なお、本実施形態では、静止画仮想視点コンテンツの仮想視点位置に基づいて仮想サラウンドコンテンツを生成するための音響データが選択される。たとえば、静止画仮想視点コンテンツの生成開始時(時刻T1)において用いられている画像データを提供するカメラ(視点)に近いマイクロフォンから集音された音響データが仮想サラウンドコンテンツの生成に用いられる。もちろん、使用される音響データの選択は、これに限られるものではない。たとえば、再生時刻が2T1−T2からT1までの間の音響コンテンツの生成に用いられた音響データが用いられるようにしてもよい。
静止画仮想視点コンテンツの挿入を終えると(時刻T2に到達すると)、画像制御部115は、静止画仮想視点コンテンツ生成部119によるコンテンツの生成を停止させ、ライブ画像コンテンツ生成部121によるライブ画像コンテンツの生成を再開させる。図4の例では、静止画仮想視点コンテンツの生成を開始した時刻T1において中断されたライブ画像コンテンツの生成が再開されるようにする。すなわち、タイムスタンプtn1以降の画像データを用いてライブ画像コンテンツが生成される。ただし、静止画仮想視点コンテンツにおいて視点が移動した場合には、視点の最終位置に近いカメラからの画像データを用いる。こうすることにより、画像の連続性が維持され、自然な再生画像となる。以上のように、静止画仮想視点コンテンツから他のコンテンツ(図4ではライブ画像コンテンツ)に切り替わる時に、連続した音響を視聴することが出来る。そのため、ユーザは違和感なく、臨場感のある音響を視聴することができる。
時刻T2から時刻T3にかけて、ライブ画像コンテンツ生成部121はライブ画像コンテンツ46を生成し、映像出力部125へ出力する。また、これに伴って、ライブ音響コンテンツ生成部123はライブ音響コンテンツ43を生成し、映像出力部125へ出力する。
なお、本実施形態において、時刻T1において静止画仮想視点コンテンツの生成が開始されるが、その再生期間であるΔTは、予め設定されているものとする。また、再生期間を静止画仮想視点コンテンツの生成の指示とともに指定できるようにしてもよい。たとえば、5秒間の静止画仮想視点コンテンツを生成するボタン、10秒間の静止画仮想視点コンテンツを生成するボタンなどを設けておき、いずれのボタンが指示されたかにより再生期間ΔTが決定されるようにしてもよい。或いは、静止画の仮想視点を被写体に対して360度回転させることが可能な構成において、360度の回転に要する時間を予め設定しておき、指定された回転量に応じて再生期間が設定されるようにしてもよい。この場合、たとえば、静止画仮想視点コンテンツの生成とともに被写体に対して180度回転させることが指示されると、360度の回転に要する時間の半分が静止画仮想視点コンテンツの再生期間として設定される。
また、上記実施形態において、音響データの再利用において、静止画仮想視点コンテンツの直前のΔTの期間の音響データが用いられたがこれに限られるものではない。画像データ113とともに蓄積部112に蓄積された音響データ114のうち、静止画仮想視点コンテンツのタイムスタンプ以前の任意のタイミングの音響データを用いるようにしてもよい。すなわち、静止画仮想視点コンテンツに対応する撮影時刻よりも前の時刻に集音された音響データを用いて静止画仮想視点コンテンツとともに再生される音響コンテンツを生成するようにすればよい。但し、図4のような画像コンテンツを生成した場合には時刻2T1−T2〜時刻T1の音響データを利用することが好ましい。時刻T2において良好な音響の連続性が得られるからである。
以上のように、第1実施形態によれば、画像コンテンツの生成に使用した画像データの撮影時刻と再生時刻とに基づいて、当該撮影時刻よりも以前の音響データが選択され、当該画像コンテンツのための音響コンテンツが生成される。したがって、静止画仮想視点コンテンツのように画像に対応する音響データが存在しない場合でも、ユーザは音響を視聴することが出来る。また、その音響の生成に用いられる音響データは、映像コンテンツの生成に用いられた画像データに関連した音響データであり、ユーザは違和感なく視聴を続けることができる。特に、図4に示したように、静止画仮想視点コンテンツの再生期間である時刻T1〜T2に対応する音響コンテンツを、時刻2T2−T1〜T1の期間に対応する音響データを用いて生成することにより、音響の連続性がより向上する。
<第二実施形態>
第一実施形態では、静止画仮想視点コンテンツの生成時の音響コンテンツを生成するために、静止画仮想視点コンテンツの生成開始時における視点に近いマイクロフォンからの音響データを用いる構成を説明した。しかしながら、静止画仮想視点コンテンツの生成時における音響データの選択方法は、これに限られるものではない。第二の実施形態では、静止画仮想視点コンテンツに対応する仮想サラウンドコンテンツを生成する場合に、被写体の位置に基づいて音響データを選択する構成について説明する。なお、映像処理システムおよび画像音響処理装置100の構成は第一実施形態(図1A、図1B)と同様である。
[競技場でのカメラ及びマイクロフォンの設置例]
図5は、競技場でのカメラ及びマイクロフォンの設置例である。競技場500は、スタンド501、フィールド502、実況室503を有している。また、フィールド502を点線で示す4つの領域に分割した場合の第一象限を分割エリア560、第二象限を分割エリア561、第三象限を分割エリア562、第四象限を分割エリア563と称する。マイクロフォン510〜517はフィールド502の内部に設置されたマイクロフォンである。図5の例では、分割エリア560〜563毎に2本ずつのマイクロフォンが設置されている。マイクロフォン520〜523はスタンド501に設置されたマイクロフォンである。マイクロフォン530は実況室503に設置されたマイクロフォンである。マイクロフォン510〜517、520〜523は、マイクロフォン群102を構成している。カメラ540〜557はスタンド501に設置されたカメラである。カメラ540〜557はカメラ群101を構成している。
[音響データの構成]
図6は、蓄積部112に蓄積される音響データ114の内部構造を示す図である。音響データ114はマイクロフォン510〜517が集音したフィールド音響60と、マイクロフォン520〜523が集音したスタンド音響61と、マイクロフォン530が集音した実況音響62の複数のカテゴリを含む。フィールド音響60は競技場のフィールドで集音された音響データである。スタンド音響61は競技場のスタンドで集音された音響データである。実況音響62は実況者の音声を集音することにより得られた音響データである。音響制御部117は、動画コンテンツのタイムスタンプや視点に基づいて音響データ114から必要なフィールド音響60、スタンド音響61、実況音響62の少なくとも何れかを選択して蓄積部112から読み出す。音響制御部117は、仮想サラウンドコンテンツ生成部122とライブ音響コンテンツ生成部123のうち読み出した音響データの送信先を、生成中の動画コンテンツの種別に応じて決定する。音響制御部117は、読み出した音響データを決定されたコンテンツ生成部へ送る。
[動作]
音響制御部117が、静止画仮想視点コンテンツのための音響コンテンツの生成に用いる音響データを音響データ114から選択する処理について、図7のフローチャートを用いて説明する。図7のフローチャートにより示される処理は、図2のステップS25,S26の処理の詳細の一例である。
ステップS71において、音響制御部117は同期制御部116から静止画仮想視点コンテンツの生成に用いられた画像データのタイムスタンプと静止画仮想視点コンテンツの再生期間(たとえば図4のΔT)に基づいてタイムスタンプ範囲情報を取得する。タイムスタンプ範囲情報は、音響データを取得するためのタイムスタンプの範囲であり、たとえば、図4の「2T1−T2」から「T1」の範囲に対応するタイムスタンプの範囲(tn1−ΔT〜tn1)である。ステップS72において、音響制御部117は、同期制御部116から画像コンテンツの被写体が存在するエリア情報を取得する。エリア情報は2次元または3次元の座標でも良い。
ステップS73において、音響制御部117は、ステップS71で取得したタイムスタンプ範囲情報とステップS72で取得したエリア情報に基づいて仮想サラウンドコンテンツ生成部122に伝送する音響データを決定する。例えば、ステップS72で取得されたエリア情報に基づいて特定されたマイクロフォンから得られた音響データのうち、ステップS71で取得されたタイムスタンプ範囲情報で示される範囲の音響データが、伝送する音響データとして決定される。ステップS74において、音響制御部117は、音響データ114のうち、ステップS73で決定した音響データを取得する。たとえば、ステップS71で取得されたタイムスタンプ範囲情報が示す範囲のタイムスタンプを有し、ステップS72で取得されたエリア情報が示すエリアに対応するマイクロフォンから集音された音響データが取得される。ステップS75において、音響制御部117は、仮想サラウンドコンテンツ生成部122へステップS74で取得した音響データを伝送する。
[音響データの選択の具体例]
以下、図5に示した競技場500の設置例と図6に示した音響データ114の構成例を用いて、音響制御部117による音響データの選択の処理(ステップS73)の例を示す。生成される画像コンテンツは静止画仮想視点コンテンツであり、被写体は分割エリア561に存在するものとする。静止画仮想視点コンテンツの場合には対応する音響データが無いため、仮想サラウンドが生成される。
音響データの選択方法にはたとえば次の2種類があげられる。1つ目は、スタンド音響61のみを選択する方法であり、2つ目はフィールド音響60のみを選択する方法である。スタンド音響61のみを選択する方法では、被写体の存在する分割エリア561に対応するマイクロフォン521から得られた音響データのうち、タイムスタンプがタイムスタンプ範囲情報で示される範囲にある音響データが選択される。フィールド音響60のみを選択する方法では、分割エリア561に存在するマイクロフォン521以外のマイクロフォン511、512から得られた音響データのうち、タイムスタンプがタイムスタンプ範囲情報で示される範囲にある音響データが選択される。どちらの選択方法を採用するかはユーザ設定により決定されるものとする。
もちろん、音響データの選択方法は上記に限られるものではない。たとえば、画像コンテンツ(静止画仮想視点コンテンツ)の生成に用いた画像データの被写体の位置から一番近い位置にあるマイクロフォンで集音した音響データを除いて音響コンテンツを生成するようにしてもよい。なお、実況音声は過去の音響データを再利用すると不連続性が目立つので、本実施形態では、選択の対象としない。
以上、説明したように、第二実施形態によれば、静止画仮想視点コンテンツのための仮想サラウンドを生成する場合の音響データの選択方法をユーザ指定により選択することが出来る。そのため、ユーザは静止画仮想視点コンテンツを閲覧する時に、様々な音響を視聴でき、様々な臨場感を体験できる。
<第三実施形態>
第一実施形態では、仮想視点の位置に基づいて音響データして音響コンテンツを生成する構成を、第二実施形態では、静止画仮想視点コンテンツの被写体の位置に基づいて音響データを選択して音響コンテンツを生成する構成を示した。第三実施形態では、第一実施形態と同様に静止画仮想視点コンテンツの仮想視点に基づいて音響コンテンツを生成する構成を説明する。但し、第三実施形態では、仮想視点の位置を用いた音響コンテンツの生成方法として、複数の方法を切り替え可能な構成について説明する。特に生成方法の一つとして、仮想視点の移動に応じて音響が移動(たとえば回転)するように仮想サラウンドコンテンツを生成する方法が含まれる場合について説明する。なお、音響が移動するとは、仮想の集音位置が移動することである。映像処理システムおよび画像音響処理装置100の構成は第一実施形態(図1A、図1B)と同様である。
[仮想サラウンドの種類]
本実施形態では、仮想サラウンドの生成方法として3種類の生成方法を有する構成を説明する。1つ目の生成方法は、撮影座標基準による生成方法であり、被写体を撮影するカメラ、すなわち仮想視点の位置(以下、撮影座標)の移動に基づいて音響コンテンツの集音位置を移動(回転)する。撮影座標基準では複数の撮影座標を取得する必要がある。2つ目の生成方法は、終了基準による生成方法であり、静止画仮想視点コンテンツにおける最後の撮影座標に基づいて音響コンテンツを生成する。3つ目の生成方法は、開始基準による生成方法であり、静止画仮想視点コンテンツにおける最初の撮影座標に基づいて音響コンテンツを生成する。
なお、撮影座標基準では、仮想視点の位置の移動に伴って撮影座標を取得する必要がある。また、終了基準による生成方法では、静止画仮想視点コンテンツの最後の撮影座標を取得した後に仮想サラウンドコンテンツを生成することになる。但し、静止画仮想視点コンテンツの生成における仮想視点の移動経路が予め分かっている場合、すなわち、必要な複数の撮影座標あるいは最後の撮影座標が予め分かっている場合は、直ちに複数の撮影座標あるいは最後の撮影座標を取得することができる。
[動作]
図8は、第三実施形態による、静止画仮想視点コンテンツのための仮想サラウンドの生成に必要な音響データを蓄積部112に蓄積されている音響データ114の中から選択する処理を示すフローチャートである。
ステップS80において、音響制御部117は同期制御部116または映像生成制御部118から、ユーザにより指定された仮想サラウンドの生成方法を取得する。指定された生成方法が撮影座標基準の場合に処理はステップS81に進み、終了座標基準の場合に処理はステップS83に進み、開始座標基準の場合に処理はステップS82に進む。ステップS81では、音響制御部117が同期制御部116からカメラの撮影座標を取得する。ステップS82では、音響制御部117が同期制御部116から静止画仮想視点コンテンツの開始時の撮影座標を取得する。ステップS83では、音響制御部117が同期制御部116から仮想視点コンテンツの終了時の撮影座標を取得する。
ステップS81〜S83の後、処理はステップS84に進む。ステップS84において、音響制御部117はステップS81、ステップS82、またはステップS83で取得した撮影座標に基づいて分割エリアを選択する。例えば、図5に示した分割エリア560〜563のうち、撮影座標が存在している分割エリアが選択される。仮想サラウンドの作成に必要なマイクロフォンが存在する分割エリアを決定する。分割エリアを選択する代わりに、マイクロフォンを選択する構成を採用しても良い。
ステップS85において、音響制御部117はステップS84で選択した分割エリアからマイクロフォンを決定し、使用する音響データを決定する。ステップS74、S75の処理は、図7で説明したとおりである。撮影座標基準の場合、複数の撮影座標に対応する複数の音響データが仮想サラウンドコンテンツ生成部122に伝送され、仮想サラウンドコンテンツ生成部122は、仮想視点の移動に応じて移動する音響コンテンツを生成する。開始基準の場合、開始座標に対応する音響データが仮想サラウンドコンテンツ生成部122に伝送され、仮想サラウンドコンテンツ生成部122は、この音響データを加工して音響コンテンツを生成する。たとえば、時間の経過とともに音をぼかしていくような加工がなされる。終了基準の場合、終了座標に対応する音響データが仮想サラウンドコンテンツ生成部122に伝送され、仮想サラウンドコンテンツ生成部122は、この音響データを加工して音響コンテンツを生成する。たとえば、開始基準の場合とは逆に、時間の経過とともにぼかした音からシャープな音へ変化していくような加工がなされる。
以上、説明したように、本実施形態においては、仮想視点コンテンツに応じて仮想サラウンドを作成するための入力音響を決定し、仮想視点と同様に音声を回転することで、ユーザに高臨場感を与えることが出来る。また、複数の基準座標を設けることで、ユーザに様々な臨場感を選択できる余地を与えることが出来る。
なお、上述の各実施形態では、画像コンテンツの生成と音響コンテンツの生成を略並列に行う構成を示したがこれに限られるものではない。たとえば、図4において、T1〜T3の画像コンテンツが予め生成された状況で、予め生成された画像コンテンツに対して音響コンテンツを後付けするように生成する処理であっても、上述した音響コンテンツの生成を適用可能である。また、再利用モードがユーザ指示モードの場合には、画像コンテンツの種別に関わらず音響コンテンツの再利用が実行される。たとえば、ライブ画像コンテンツの生成中にユーザから再利用指示があった場合には、その指示の直後からあらかじめ決められた期間(再生期間)にわたって以前の音響データを用いた音響コンテンツの生成が行われる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:画像音響処理装置、110:画像入力部、111:音響入力部、112:蓄積部、115:画像制御部、116:同期制御部、117:音響制御部、118:映像生成制御部、119:静止画仮想視点コンテンツ生成部、120:動画仮想視点コンテンツ生成部、121:ライブ画像コンテンツ生成部、122:仮想サラウンドコンテンツ生成部、123:ライブ音響コンテンツ生成部、124:多重部、125:映像出力部

Claims (20)

  1. 1以上のマイクロフォンによる収音に基づく収音データであって、複数の撮影装置によりそれぞれ異なる方向から撮影される領域内の音を含む収音データを取得する取得手段と、
    前記複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像であって、同一の時点において変化させた視点から前記領域を見た場合の光景を表す動画像である仮想視点画像と共に再生される音響データとして、前記時点以前の収音期間に対応する音響データを、前記取得手段により取得された収音データに基づいて生成する生成手段とを有することを特徴とする音響処理装置。
  2. 前記収音期間は前記時点を含むことを特徴とする請求項1に記載の音響処理装置。
  3. 前記収音期間の開始時点は前記時点より前であり、
    前記収音期間の終了時点は前記時点と一致することを特徴とする請求項1又は2に記載の音響処理装置。
  4. 前記収音期間の長さは前記仮想視点画像の再生期間の長さと一致することを特徴とする請求項3に記載の音響処理装置。
  5. 前記仮想視点画像は、前記時点において撮影された複数の撮影画像に基づいて生成されることを特徴とする請求項1乃至4の何れか1項に記載の音響処理装置。
  6. 前記仮想視点画像は、撮影時刻の進行が停止した状態で視点が変化する動画像であることを特徴とする請求項1乃至5の何れか1項に記載の音響処理装置。
  7. 前記音響データは、前記仮想視点画像における視点の変化に対応して仮想聴取点が変化する音のデータであることを特徴とする請求項1乃至6の何れか1項に記載の音響処理装置。
  8. 前記時点と前記仮想視点画像の再生期間の長さとに基づいて前記収音期間を決定する決定手段を有することを特徴とする請求項1乃至7の何れか1項に記載の音響処理装置。
  9. 前記仮想視点画像を取得する画像取得手段と、
    前記生成手段により生成された前記音響データを、前記画像取得手段により取得された前記仮想視点画像と共に出力する出力手段とを有することを特徴とする請求項1乃至8の何れか1項に記載の音響処理装置。
  10. 前記生成手段により生成された音響データを含む音響コンテンツを、前記音響コンテンツと共に再生される画像コンテンツであって前記仮想視点画像を含む画像コンテンツと共に出力する出力手段を有することを特徴とする請求項1乃至8の何れか1項に記載の音響処理装置。
  11. 前記画像コンテンツは、前記仮想視点画像と、終了時点が前記時点に一致する撮影期間に対応する動画像とを含み、
    前記音響コンテンツは、前記仮想視点画像と共に再生される第1の音響データと、前記撮影期間に対応する動画像と共に再生される第2の音響データとを含むことを特徴とする請求項10に記載の音響処理装置。
  12. 前記第1の音響データに対応する収音期間と前記第2の音響データに対応する収音期間とは不連続であることを特徴とする請求項11に記載の音響処理装置。
  13. 前記画像コンテンツは、前記仮想視点画像と、開始時点が前記時点に一致する撮影期間に対応する動画像とを含み、
    前記音響コンテンツは、前記仮想視点画像と共に再生される第1の音響データと、前記撮影期間に対応する動画像と共に再生される第2の音響データとを含むことを特徴とする請求項10に記載の音響処理装置。
  14. 前記第1の音響データに対応する収音期間と前記第2の音響データに対応する収音期間とは連続することを特徴とする請求項13に記載の音響処理装置。
  15. 前記撮影期間に対応する動画像は、撮影装置により撮影された画像であることを特徴とする請求項11乃至14の何れか1項に記載の音響処理装置。
  16. 前記撮影期間に対応する動画像は、前記撮影期間内の複数の時点に撮影された複数の撮影画像に基づいて生成された仮想視点画像であることを特徴とする請求項11乃至14の何れか1項に記載の音響処理装置。
  17. 1以上のマイクロフォンによる収音に基づく収音データであって、複数の撮影装置によりそれぞれ異なる方向から撮影される領域内の音を含む収音データを取得する取得工程と、
    前記複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像であって、同一の時点において変化させた視点から前記領域を見た場合の光景を表す動画像である仮想視点画像と共に再生される音響データとして、前記時点以前の収音期間に対応する音響データを、前記取得工程において取得された収音データに基づいて生成する生成工程とを有することを特徴とする音響処理方法。
  18. 前記収音期間の開始時点は前記時点より前であり、
    前記収音期間の終了時点は前記時点と一致することを特徴とする請求項17に記載の音響処理方法。
  19. 前記時点と前記仮想視点画像の再生期間の長さとに基づいて前記収音期間を決定する決定工程を有することを特徴とする請求項17又は18に記載の音響処理方法。
  20. コンピュータを、請求項1乃至16の何れか1項に記載の音響処理装置の各手段として機能させるためのプログラム。
JP2016233499A 2016-11-30 2016-11-30 画像音響処理装置および画像音響処理方法、プログラム Active JP6727106B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016233499A JP6727106B2 (ja) 2016-11-30 2016-11-30 画像音響処理装置および画像音響処理方法、プログラム
US15/826,038 US10291875B2 (en) 2016-11-30 2017-11-29 Signal processing apparatus and method of generating audio signal
US16/382,246 US10708536B2 (en) 2016-11-30 2019-04-12 Signal processing apparatus and method of generating audio signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016233499A JP6727106B2 (ja) 2016-11-30 2016-11-30 画像音響処理装置および画像音響処理方法、プログラム

Publications (3)

Publication Number Publication Date
JP2018093312A JP2018093312A (ja) 2018-06-14
JP2018093312A5 JP2018093312A5 (ja) 2019-07-04
JP6727106B2 true JP6727106B2 (ja) 2020-07-22

Family

ID=62190586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016233499A Active JP6727106B2 (ja) 2016-11-30 2016-11-30 画像音響処理装置および画像音響処理方法、プログラム

Country Status (2)

Country Link
US (2) US10291875B2 (ja)
JP (1) JP6727106B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
JP7146472B2 (ja) * 2018-06-18 2022-10-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7229040B2 (ja) 2019-02-15 2023-02-27 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP7458889B2 (ja) * 2020-05-08 2024-04-01 キヤノン株式会社 画像表示装置、制御方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8591332B1 (en) * 2008-05-05 2013-11-26 Activision Publishing, Inc. Video game video editor
JP5858380B2 (ja) * 2010-12-03 2016-02-10 国立大学法人名古屋大学 仮想視点画像合成方法及び仮想視点画像合成システム
US8970666B2 (en) * 2011-09-16 2015-03-03 Disney Enterprises, Inc. Low scale production system and method
US9437247B2 (en) * 2011-11-14 2016-09-06 Apple Inc. Preview display for multi-camera media clips
JP2013135465A (ja) * 2011-12-27 2013-07-08 Sony Corp 音響信号処理装置、音響信号処理方法、プログラムおよび信号処理システム
EP2860699A1 (en) * 2013-10-11 2015-04-15 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
WO2015162947A1 (ja) * 2014-04-22 2015-10-29 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
JP2016025633A (ja) 2014-07-24 2016-02-08 ソニー株式会社 情報処理装置、管理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US10708536B2 (en) 2020-07-07
JP2018093312A (ja) 2018-06-14
US20180152660A1 (en) 2018-05-31
US20190238789A1 (en) 2019-08-01
US10291875B2 (en) 2019-05-14

Similar Documents

Publication Publication Date Title
RU2745414C2 (ru) Устройство обработки информации, способ генерации изображения, способ управления и носитель данных
JP6727106B2 (ja) 画像音響処理装置および画像音響処理方法、プログラム
US20230402067A1 (en) Integration of audio into a multi-view interactive digital media representation
JP4148671B2 (ja) 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
CN101807393B (zh) Ktv系统及其实现方法、电视机
JP2022536182A (ja) データストリームを同期させるシステム及び方法
JP2008312061A (ja) 画像処理装置、その処理方法およびプログラム
JP6882057B2 (ja) 信号処理装置、信号処理方法、およびプログラム
KR20100017242A (ko) 파노라마식 사운드 이미지를 생성하고 재생하는 방법과, 그러한 이미지를 재생하기 위한 장치
JP2006041886A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2010258768A (ja) 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
KR20180080642A (ko) 음원과 동기화되는 동영상을 편집하는 방법
JP5115799B2 (ja) 画像処理装置および方法、並びにプログラム
KR101752691B1 (ko) 시점 선택이 가능한 3차원 가상 콘텐츠 동영상을 제공하는 장치 및 그 방법
JP2016513390A (ja) 2d−3d複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービス提供方法及びその複合次元コンテンツファイル
JP7524907B2 (ja) 情報処理装置、提案装置、情報処理方法および提案方法
JP7065708B2 (ja) 録画再生装置及びプログラム
JP6110731B2 (ja) ジェスチャーによるコマンド入力識別システム
CN112995692A (zh) 互动数据处理方法、装置、设备及介质
EP4350626A1 (en) Image processing system, method for controlling the same, and program
KR20140104121A (ko) 복합 차원 콘텐츠 제공 시스템, 그 제공 방법 및 복합 차원 콘텐츠 파일
JP5687961B2 (ja) 同期再生装置及び同期再生方法
WO2022269788A1 (ja) 伝送システム、送信システム、受信システム及び伝送方法
KR102625045B1 (ko) 영상 편집 장치, 영상 편집 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200630

R151 Written notification of patent or utility model registration

Ref document number: 6727106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151