JP2018005526A - 情報処理装置、及びプログラム - Google Patents

情報処理装置、及びプログラム Download PDF

Info

Publication number
JP2018005526A
JP2018005526A JP2016130992A JP2016130992A JP2018005526A JP 2018005526 A JP2018005526 A JP 2018005526A JP 2016130992 A JP2016130992 A JP 2016130992A JP 2016130992 A JP2016130992 A JP 2016130992A JP 2018005526 A JP2018005526 A JP 2018005526A
Authority
JP
Japan
Prior art keywords
sound
data
sound data
moving image
panoramic video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016130992A
Other languages
English (en)
Other versions
JP6634976B2 (ja
Inventor
難波 睦
Mutsumi Nanba
睦 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016130992A priority Critical patent/JP6634976B2/ja
Publication of JP2018005526A publication Critical patent/JP2018005526A/ja
Application granted granted Critical
Publication of JP6634976B2 publication Critical patent/JP6634976B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • Television Receiver Circuits (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】パノラマ動画像を再生するときに出力される音の臨場感を高める。【解決手段】撮像装置により撮像されたパノラマ動画データと、該パノラマ動画データの撮影時に、集音された音データの各々と、該音データの各々の方向とを取得する取得部と、前記パノラマ動画データの所定の領域を切り出して画面に表示する表示制御部と、前記所定の領域の前記パノラマ動画データ内での方向と、前記音データの各々の方向との角度を基に、前記音データの各々の所定の周波数より高い高周波成分の出力レベルを調整し、前記高周波成分の出力レベルが調整された音データの各々を合成して出力する音出力制御部と、を有する情報処理装置が提供される。【選択図】図13

Description

本発明は、情報処理装置、及びプログラムに関する。
パノラマ動画像の撮影用の機器の普及に伴い、パノラマ動画像が撮影され、パソコン等の端末で再生される機会が増加している。パノラマ動画像は幅の広い動画像であるため、パノラマ動画像が端末の画面等に表示されるときに、パノラマ動画像の一部の領域を切り出して再生することが行われている。
また、パノラマ動画像の再生時の臨場感を高める目的で、パノラマ動画像から切り出されて表示されている一部領域と音源との位置関係から、音量を強調することが提案されている(例えば、特許文献1)。
従来提案されている方法によれば、パノラマ動画像の表示領域に合わせて音量が強調されるものの、人間の聴覚特性を考慮して音量の調整がされていないため、臨場感を十分に高めることができなかった。
本発明は、上記の課題に鑑みてされたものであって、パノラマ動画像を再生するときに出力される音の臨場感を高めることを目的とする。
一つの態様によれば、撮像装置により撮像されたパノラマ動画データと、該パノラマ動画データの撮影時に、集音された音データの各々と、該音データの各々の方向とを取得する取得部と、前記パノラマ動画データの所定の領域を切り出して画面に表示する表示制御部と、前記所定の領域の前記パノラマ動画データ内での方向と、前記音データの各々の方向との角度を基に、前記音データの各々の所定の周波数より高い高周波成分の出力レベルを調整し、前記高周波成分の出力レベルが調整された音データの各々を合成して出力する音出力制御部と、を有する情報処理装置が提供される。
パノラマ動画像を再生するときに出力される音の臨場感を高めることが可能となる。
第1の実施形態に係る動画再生システム1の一例を示す図である。 第1の実施形態に係る撮像装置の一例を示す模式図である。 第1の実施形態に係る撮影範囲と音入力装置の指向性との関係の一例を示す図である。 第1の実施形態に係る撮像装置のハードウエア構成の一例を示す図である。 第1の実施形態に係る端末のハードウエア構成の一例を示す図である。 第1の実施形態に係る撮像装置の機能構成の一例を示す図である。 第1の実施形態に係る撮像装置の情報記憶部に格納されるテーブルの一例を示す図である。 第1の実施形態に係る端末の機能構成の一例を示す図である。 第1の実施形態に係る音周波数解析部及び音合成部の機能構成の一例を示す図である。 第1の実施形態に係る耳の方向と音データの方向との関係の一例を示す図である。 第1の実施形態に係る耳の方向と音データの方向の角度の算出方法の一例を示す図である。 第1の実施形態に係る音合成処理に用いる計算式の一例を示す図である。 第1の実施形態に係る端末の動作シーケンスの一例を示す図(その1)である。 第1の実施形態に係る端末の動作シーケンスの一例を示す図(その2)である。 第2の実施形態に係る音周波数解析部及び音合成部の機能構成の一例を示す図である。 第2の実施形態に係るHPF出力調整部の動作フローの一例を示す図である。
[第1の実施形態]
<動画再生システムの構成>
第1の実施形態に係る動画再生システム1の構成について説明する。図1は、第1の実施形態に係る動画再生システム1の一例を示す図である。動画再生システム1は、撮像装置100と、端末200とを有する。撮像装置100と端末200とは、無線2を介して接続される。無線2は、例えば、WLAN(Wireless Local Access Network)、Bluetooth(登録商標)、及びBLE(Bluetooth Low Energy)等により実現される。
撮像装置100は、前面及び背面に180°以上の画角を有する魚眼レンズを有し、全方面に存在する被写体を撮像し、パノラマ動画データ(以下、動画像データ)を生成する。また、撮像装置100は、動画像の撮像時の周辺の音を集音する。
端末200は、パソコン、スマートフォン、及びタブレット端末等により実現される。端末200は、撮像装置100から、無線2を介して動画データ及び動画像の撮影時に集音された音データを取得する。端末200は、ユーザの指示を受けて、受信した動画データの所定の領域をディスプレイに出力する。端末200は、所定の領域に対応するように、出力する音を調整する。出力する音の調整方法については、後述する。
動画像のデータの所定の領域が表示されるディスプレイは、端末200に備えられているディスプレイでもよいし、端末200が接続されている外部のディスプレイでもよい。また、出力する音は、端末200に備えられているスピーカから出力されてもよいし、端末200が接続されている外部のスピーカでもよい。
<撮像装置の概要>
図2及び図3を用いて、第1の実施形態に係る撮像装置100の概要について説明する。図2は、第1の実施形態に係る撮像装置100の一例を示す模式図である。図2の(A)は、撮像装置100の外観を示しており、図2の(B)は、撮像装置100の方向1〜3からの外観を示す平面図である。撮像装置100は、撮像素子(101A、101B)、魚眼レンズ(102A、102B)、筐体103、音入力装置(104A、104B、104C)、及び操作装置105を有する。
撮像素子(101A、101B)は、撮像装置100の前面及び背面面に備えられ、180°以上の画角を有する魚眼レンズ(102A、102B)を介して受光した光を電気信号に変換する。撮像素子(101A、101B)は、例えばCOMS(Complementary Metal Oxide Semiconductor)センサ等である。筐体103には操作装置105が備えられ、撮像装置100のユーザから動画の撮影等の指示を受け付ける。
音入力装置(104A、104B、104C)は、動画撮影時の周辺の音の信号を収集する。音入力装置104Aは、前面(方向2の面)に設けられ、音入力装置104B及び音入力装置104Cは、背面(方向3の面)に設けられ、音入力装置(104A、104B、104C)は、所定の方向に発生する音を集音する。つまり、音入力装置(104A、104B、104C)は、指向性を有する。
なお、以下の説明で、複数の音入力装置等を区別しない場合、単に音入力装置104と記載する。
次に、撮像装置100により生成される動画データ、及び動画データに対応付けられている音データの関係について、図3を用いて説明する。図3は、第1の実施形態に係る撮影範囲と音入力装置104の指向性との関係の一例を示す図である。
図3の(A)は、撮像装置100により撮像される範囲と、音入力装置104の指向性との関係を示している。魚眼レンズ102は、180°以上の画角を有するため、2つの魚眼レンズ102により撮影される範囲10は、撮像装置100の周囲360°となる。音入力装置104Aは指向性15Aを有し、音入力装置104Bは指向性15Bを有し、音入力装置104Cは指向性15Cを有する。図3の(A)では、指向性15の各々が120°ずつ離れている場合、つまり、音入力装置104が撮像装置100の周囲360°を三分割して音の信号を集音している。
図3の(B)は、端末200が、撮像装置100により生成された動画データの領域21を、切り出して再生するときの、領域21と出力される音との関係を示す図である。
端末200により領域21が切り出されて、ディスプレイに表示されたときのユーザの視線の方向は方向20で示される。ここで、視線の方向20は、動画像の領域21の中央部分と撮像装置100の撮像時の位置とを含む方向である。この場合、ユーザの右耳の位置に対応する方向は、方向22Aであり、ユーザの左耳の位置に対応する方向は、方向22Bである。視線の方向20は、右耳の方向22A、及び左耳の方向22Bと直交する方向である。
動画を再生する端末200は、右耳の方向22A、及び左耳の方向22Bの音が強調されるように音出力の処理を実行する。
<ハードウエア構成>
(1)撮像装置
図4は、第1の実施形態に係る撮像装置100のハードウエア構成の一例を示す図である。
撮像装置100は、魚眼レンズ(102A、102B)、撮像素子(101A、101B)、音入力装置(104A、104B、104C)、操作装置105、通信I/F106、CPU(Central Processing Unit)107、RAM(Random Access Memory)108、ROM(Read Only Memory)109、ストレージ装置111、及び、画像処理装置112を有する。
魚眼レンズ102は、180°以上の画角を有するレンズである。撮像素子101は、魚眼レンズ102から入射する光を結像する。画像処理装置112は、撮像素子101に結像した対象物像を画像信号(電気信号)に変換する。
音入力装置104は、指向性を有する集音装置であり、例えば指向性を有するマイクにより実現される。操作装置105は、撮像装置100のユーザからの各種操作を受け付ける。
通信I/F106は、端末200等の外部装置と無線2、及びケーブル等を介してデータの送受信をするためのインタフェースである。
ROM109は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。RAM108はプログラムやデータを一時保持する揮発性の半導体メモリの一例である。
ストレージ装置111はプログラムやデータを格納している不揮発性の記憶装置の一例である。
CPU107は、ROM109及びストレージ装置111などの記憶装置からプログラムやデータをRAM108上に読み出し、処理を実行することで、撮像装置100全体の制御や撮像装置100の機能を実現する演算装置である。
(2)端末
図5は、第1の実施形態に係る端末200のハードウエア構成の一例を示す図である。
端末200は、CPU201、RAM202、ROM203、ストレージ装置204、入力装置205、ディスプレイ206、音出力装置207、通信I/F208、及び外部I/F209を有する。
ROM203は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。RAM202はプログラムやデータを一時保持する揮発性の半導体メモリの一例である。
ストレージ装置204は、プログラムやデータを格納している不揮発性の記憶装置の一例である。
CPU201は、ROM203及びストレージ装置204などの記憶装置からプログラムやデータをRAM202上に読み出し、処理を実行することで、端末200全体の制御や端末200の機能を実現する演算装置である。
入力装置205は、端末200のユーザから、各種設定を受け付ける。ディスプレイ206は、端末200で処理された各種情報を表示する。ディスプレイ206は、端末200から取り外し可能な形態で実現されてもよい。
音出力装置207は、音を出力する装置であり、例えば、スピーカ等により実現される。端末200に、複数の音出力装置207が備えられている場合、音出力装置207の各々は、其々の音出力装置207に対応付けられた音を出力する。撮像装置100は、例えば、右耳用の音出力装置207と、左耳用の音出力装置207とを有してもよい。
通信I/F208は無線2、及びケーブル等を介して通信を行う。
外部I/F209は、外部装置とのインタフェースである。外部装置には、外部記録媒体などがある。これにより、端末200は外部I/F209を介して外部記録媒体の読み取り及び/又は書き込みを行うことができる。外部記録媒体にはフレキシブルディスク、CD、DVD、SDメモリカード、及びUSBメモリなどがある。
<機能構成>
(1)撮像装置
図6を用いて撮像装置100の機能構成について説明する。図6は、第1の実施形態に係る撮像装置100の機能構成の一例を示す図である。
撮像装置100は、受付部110、送受信部120、撮像データ取得部130、動画データ生成部140、音データ取得部150、及び音データ生成部160を有する。これらの機能は、ROM109等に記憶された1以上のプログラムをCPU107が実行することにより実現される。また、撮像装置100は、情報記憶部170を有する。情報記憶部170は、指向性管理テーブル171及び対応管理テーブル172を有する。情報記憶部170は、例えば、ストレージ装置111により実現される。
受付部110は、撮像装置100のユーザから各種指示を受け付ける。
送受信部120は、無線2、ケーブル、又はネットワーク等を介して、端末200と各種データの送受信を行う。受付部110からの指示を受けて、送受信部120は、端末200に動画データと、動画データに対応する音データとを送信する。また、端末200からの要求を受けて、送受信部120は、同様に、端末200に動画データと音データとを送信する。
撮像データ取得部130は、魚眼レンズ102を介して撮像素子101の各々が撮像した動画像を取得する。
動画データ生成部140は、撮像素子101の各々が撮像した動画像を基に、動画データを生成する。具体的には、動画データ生成部140は、撮像素子101の各々が撮像したアナログの動画像をデジタル化すると共に、撮像素子101の各々に撮像された動画像をつなぎ動画データを生成する。ここで、生成される動画データは、360°のパノラマ動画データである。動画データ生成部140は、生成した動画データを情報記憶部170に記憶させる。また、動画データ生成部140は、生成した動画データの属性情報を情報記憶部170に記憶させる。属性情報には、360°のパノラマ動画データの位置を特定するために用いる基準線の情報を含む。ここで、基準線は、撮影地点である撮像装置100の位置(撮像位置)とパノラマ動画データの所定の位置とを結んで生成される線である。属性情報には、撮影日時、及び撮影場所等の情報を含んでもよい。
動画データ生成部140は、生成された動画データに対して圧縮処理を行い、符号化された動画データを情報記憶部170に記憶させてもよい。
音データ取得部150は、音入力装置104の各々が収集した音の信号を取得する。
音データ生成部160は、音の信号を基に音データを生成する。例えば、音データ生成部160は、アナログの音の信号を基にデジタルの音データを生成する。
音データは、音の信号が入力された音入力装置104毎に生成される。例えば、音入力装置104A、104B及び104Cにより音の信号が収集された場合、3つの音データが生成される。
音データ生成部160は、生成した音データを、動画データと対応付けて情報記憶部170に記憶させる。また、音データ生成部160は、情報記憶部170を参照して、音入力装置104の指向性の情報を取得し、生成された音データを指向性の情報と共に記憶する。例えば、音入力装置104Aにより収集された音の信号を基に生成された音データAは、音入力装置104Aの指向性の情報と共に記憶される。音データ生成部160は、生成された音データに対して圧縮処理を行い、符号化された音データを情報記憶部170に記憶させてもよい。
情報記憶部170は、生成された動画データ、及び音データを記憶する。指向性管理テーブル171には、音入力装置104の各々と、指向性とが対応づけられて記憶されている。図7の(a)に指向性管理テーブル171の一例を示す。図7の(a)では、音入力装置104の識別子と、基準線との角度が対応付けられて記憶される。対応管理テーブル172には、動画データと、音データとが対応付けられて記憶されている。また、対応管理テーブル172には、音データと、指向性とが対応付けられて記憶されている。図7の(b)に対応管理テーブル172の一例を示す。図7の(b)では、動画データの識別子と、動画データに対応付けられた音データの識別子と、基準線との角度とが対応付けられて記憶されている。
ここで、基準線との角度は、音データの生成もとの音の信号を収集した音入力装置104Aの指向性と、基準線との角度を表している。
(2)端末
図8を用いて端末200の機能構成について説明する。図8は、第1の実施形態に係る端末200の機能構成の一例を示す図である。端末200は、受付部210、再生制御部215、送受信部220、動画像デコーダ230、表示制御部240、音デコーダ250、音周波数解析部260、音合成部270、及び音処理部280を有する。これらの機能は、ROM203等に記憶された1以上のプログラムを読み出して、CPU201が実行することにより実現される。端末200は、情報記憶部290を有する。情報記憶部290は、例えば、ストレージ装置204により実現される。
受付部210は、端末200のユーザから各種指示を受け付ける。
再生制御部215は、動画の再生制御を行う。受付部210がユーザから動画の再生指示を受けたことに応じて、表示制御部240に動画データの処理を実行させ、音合成部270等に動画データに対応する音データの処理を実行させる。
送受信部220は、無線2、ケーブル、又はネットワーク等を介して、撮像装置100と各種データの送受信を行う。受付部210からの指示を受けて、送受信部220は、撮像装置100から、動画データと、動画データに対応する音データとを受信する。また、撮像装置100からの要求を受けて、送受信部220は、同様に、撮像装置100から動画データと音データとを受信する。受信した動画データ及び音データは、情報記憶部290に記憶される。なお、受信した動画データ及び音データは圧縮されている場合がある。
動画像デコーダ230は、圧縮処理により符号化された動画データを復号化する。
表示制御部240は、ユーザに選択された範囲の動画データをディスプレイ206に表示する。受付部210が、360°のパノラマ動画である動画データの所定の領域の再生指示を受け付けると、動画データの所定の領域に対応する部分を切り出す処理を実行し、切り出された動画データをディスプレイ206に表示する。表示制御部240は、切り出された動画データの中央位置をディスプレイ206上に再生される動画データを見るユーザの視点の中央として特定する。そして、表示制御部240は、中央位置と撮像位置との間で形成される視線と、基準線との角度である視点角度を特定する。
音デコーダ250は、圧縮処理により符号化された音データを復号化する。
音周波数解析部260は、動画データに対応付けられた音データの各々に対して周波数帯毎に分割する処理を行う。音合成部270は、周波数毎に分離された音データの各々を合成し、右耳用の音出力データ、及び左耳用の音出力データを生成する。音処理部280は、生成された音出力データを、音出力装置207に出力させる。
図9を用いて、音周波数解析部260、及び音合成部270の機能について詳細に説明する。図9は、第1の実施形態に係る音周波数解析部260及び音合成部270の機能構成の一例を示す図である。
音周波数解析部260は、HPF(High Pass Filter)261及びLPF(Low Pass Filter)262を有する。HPF261及びLPF262は音データの入力を受け付け、所定の周波数成分の音データを抽出する。
HPF261は、fLPF(Hz)より高い周波数成分の音データを抽出する。LPF262は、fLPF(Hz)以下の周波数成分の音データを抽出する。fLPF(Hz)は、人間が指向性を感じなくなるとされている100Hz程度に設定される。なお、fLPF(Hz)の設定値は変更可能である。ここで、HPF261により抽出される音データの周波数成分を高周波データ、LPF262により抽出される音データの周波数成分を低周波データとする。
HPF261及びLPF262は、動画データに対応付けられている音データ毎に周波数成分を抽出する処理を実行する。例えば、動画データ#Aに、音データ#A、音データ#B、及び音データ#Cが対応付けられている場合、音データ#A、音データ#B、及び音データ#Cの高周波データと、低周波データとを抽出する処理が実行される。
抽出された高周波データ、及び低周波データは、音合成部270に送信される。
音合成部270は、高周波数成分合成部271、低周波数成分合成部272、及び音出力データ生成部273を有する。
高周波数成分合成部271は、音データの各々から抽出された高周波データの各々を合成する処理を行う。fLPF(Hz)より高い周波数成分は、人間が指向性を感じる周波数帯域であるため、高周波数成分合成部271は、耳の方向と音データの方向との角度を基に、高周波データの各々に対して重み付け処理を行う。処理の詳細については、後述する。
高周波数成分合成部271は、重み付け処理を行った高周波データの各々を合成し、高周波出力データを生成する。
ディスプレイに表示されている動画データの領域が変更されると、視点角度が変更されるため、耳の方向と音データの方向との角度は変更される。このため、高周波数成分合成部271は、視点角度の変更に応じて、高周波データの各々の重み付けの処理を変更する。
低周波数成分合成部272は、音データの各々から抽出された低周波データの各々を合成する処理を行う。fLPF(Hz)以下の周波数成分は、人間が指向性を感じない周波数帯域であるため、低周波数成分合成部272は、低周波データの各々の平均値を算出する処理を実行し、低周波出力データを生成する。
音出力データ生成部273は、高周波出力データと、低周波出力データとを合成し、音出力データを生成する。なお、音出力データとして、右耳用の音出力データと、左耳用の音出力データとが生成される。
情報記憶部290は、撮像装置100から取得した動画データ、音データ、及び対応関係、音データの各々の基準線との角度等を記憶する。
<音合成処理>
図10乃至図12を用いて、音合成部270による音の合成処理について説明する。
(1)耳の方向と音データの方向との角度
高周波データの合成処理が実行される際には、耳の方向と音データの方向の角度を基に重み付け処理が実行される。まず、図10を用いて、「耳の方向と音データの方向」との角度の特定方法について説明する。図10は、第1の実施形態に係る耳の方向と音データの方向との関係の一例を示す図である。
動画データの切り出された領域が「領域21」で示され、領域21の中央と、撮像位置23とを結んだ線である視線が「視線の方向20」で示され、動画データ中の所定の位置と撮像位置23とを結んだ線である基準線が「基準線24」で示されている。また、視線の方向20と基準線24との角度は、視点角度25で示されている。
音データの方向、つまり、音を収集した音入力装置(104A、104B、104C)の指向性は、「指向性(15A、15B、15C)」で示される。なお、音データの方向である指向性15と基準線24との角度が、対応管理テーブル172に対応付けられている。
「耳(左右)」の方向は、視線20から±90°の方向となるため、右耳の方向22A、左耳の方向22Bとなる。
また、右耳の方向22Aと、音入力装置104Aに収集された音を基に生成された音データAとの角度は、右耳の方向22Aと指向性15Aとの角度26で表される。同様に、左耳の方向22Bと、音データAとの角度は角度27で表される。
音合成部270は、音データの基準線24との角度を情報記憶部290から取得する。また、音合成部270は、表示制御部240から視点角度25を取得する。音合成部270は、取得したこれらの情報を基に、耳(左右)の方向と音データの方向との角度を算出する。
図11を用いて、耳の方向と音データの方向との角度の算出方法について説明する。図11は、第1の実施形態に係る耳の方向と音データの方向の角度の算出方法の一例を示す図である。
図11の角度算出テーブル274では、音データ(#A、#B、#C)と耳の方向との角度の算出式及び算出例を示している。ここで、音データ#Aは、音入力装置104Aと対応付られ、音データ#Aの方向15Aと基準線との角度は180°である。音データ#Bは、音入力装置104Bと対応付られ、音データ#Bの方向15Bと基準線との角度は300°である。音データ#Cは、音入力装置104Cと対応付られ、音データ#Cの方向15Cと基準線との角度は60°である。
関数f(x)と関数g(x)とは、式1及び式2で表される。音合成部270は、高周波出力データを算出するときに、式1及び式2を基に耳の方向と音の方向との角度を特定し、重み付け処理を行う。
(2)音の合成処理
次に、図12を用いて、音の合成処理について具体的に説明する。図12は、第1の実施形態に係る音合成処理に用いる計算式の一例を示す図である。
高周波数成分合成部271は、式3を用いて、右耳用及び左耳用の高周波出力データの出力レベルを調整する。「chnum」は、動画データに対応付けられている音データの数である。例えば、動画データに対応付けられた3つの音データ#A、音データ#B及び音データ#Cを基に高周波出力データの値を算出する場合、「chnum」=3となり、音データ#Aの高周波データ、音データ#Bの高周波データ、及び音データ#Cの高周波データについて関数h(x)を用いて重み付けの処理が実行される。この場合、例えば、x=1に音データ#Aが対応付られ、x=2に音データ#Bが対応付られ、x=3に音データ#Cが対応付けられる。
ここで、関数h(x)は、式4で定義される関数であり、耳の方向と音データの方向が近い程、音が強調されるように重み付けをするために用いられる。例えば、右耳の方向と音データXの方向が同じ場合、h(X)は最大値の1となる。この場合、左耳の方向と音データ#1の方向は180°となるため、h(X)が0となる。
低周波数成分合成部272は、式5を用いて、右耳用及び左耳用の低周波数データの値を算出する。ここで、式5は、低周波データの平均値を算出する式である。例えば、動画データに対応付けられた音データ#A、音データ#B及び音データ#Cを基に低周波出力データの値を算出する場合、「chnum」=3となり、音データ#Aの低周波データ、音データ#Bの低周波データ、及び音データ#Cの低周波データの平均値が算出される。この場合も、例えば、x=1に音データ#Aが対応付られ、x=2に音データ#Bが対応付られ、x=3に音データ#Cが対応付けられる。
低周波数の場合、人間が音の指向性を感じないため、耳の方向に応じた重み付け処理は実行されない。
<動作シーケンス>
(1)動画再生開始時
図13を用いて、端末200の動画再生開始時の動作について説明する。図13は第1の実施形態に係る端末200の動作シーケンスの一例を示す図である。
ステップS1301で、受付部210は、ユーザからパノラマ動画像の再生指示を受け付ける。
ステップS1302で、受付部210は、パノラマ動画像の再生指示の通知を、再生制御部215に送信する。
ステップS1303で、再生制御部215は、情報記憶部290から再生の指示を受けたパノラマ動画像の動画データ、動画データに対応付けられた音データ、音データの基準線との角度等を取得する。取得した動画データ及び音データは圧縮されているものとして説明する。
ステップS1304で、再生制御部215は、動画データを、動画像デコーダ230に送信する。
ステップS1305で、動画像デコーダ230は動画データを復号化し、復号化された動画データを表示制御部240に送信する。
ステップS1306で、再生制御部215は、表示する動画データの領域を、表示制御部240に通知する。
ステップS1307で、表示制御部240は、動画データから指定を受けた領域を切り出し、ディスプレイ206に表示する。表示制御部240は、視点角度を算出する。
ステップS1308乃至ステップS1314の処理は、ステップS1304乃至ステップS1307と同時に実行される。
ステップS1308で、再生制御部215は、音データを、音デコーダ250に送信する。
ステップS1309で、音デコーダ250は、音データを復号化し、音周波数解析部260に送信する。
ステップS1310で、音周波数解析部260は、音データを高周波データと、低周波データとに分離し、各周波数成分のデータを音合成部270に通知する。
ステップS1311で、再生制御部215は、音データの基準線との角度を、音合成部270に通知する。
ステップS1312で、表示制御部240は、表示する動画データの視点角度を、音合成部270に通知する。
ステップS1313で、音合成部270は、音データを合成する。この際に、音合成部270は、高周波データについて、音の方向と、視点角度とを基に、重み付け処理を実行する。
ステップS1314で、音合成部270は、合成処理された音データを、音処理部280に送信する。音処理部280は、合成処理された音データを、音出力装置207から出力する。
(2)動画の表示領域の変更時
次に、図14を用いて動画の表示領域の変更時の端末200の動作シーケンスについて説明する。図14は、第1の実施形態に係る端末200の動作シーケンスの一例を示す図である。
ステップS1401で、受付部210は、ユーザからパノラマ動画像の再生領域の変更指示を受け付ける。
ステップS1402で、受付部210は、パノラマ動画像の再生領域の変更指示を、再生制御部215に通知する。
ステップS1403で、再生制御部215は、表示する動画データの領域の変更を指示する。
ステップS1404で、表示制御部240は、動画データの表示領域を変更してディスプレイ206に表示する。
ステップS1405で、表示制御部240は、視点角度の変更を、音合成部270に通知する。
ステップS1406で、音合成部270は、高周波データの重み付け処理を変更する。
ステップS1407で、音合成部270は、合成処理された音データを、音処理部280に送信する。音処理部280は、合成処理された音データを、音出力装置207から出力する。
なお、図14の動作シーケンスが実行されているときでも、情報記憶部290から読み出された動画データと音データとに対する復号化処理等が実行されている。
[第2の実施形態]
次に、第2の実施形態について説明する。第1の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。
<機能構成>
図15を用いて第2の実施形態に係る音周波数解析部260A及び音合成部270Aについて説明する。図15は、第2の実施形態に係る音周波数解析部260A及び音合成部270Aの機能構成の一例を示す図である。
音周波数解析部260Aは、HPF261及びLPF262に加えて、BPF(Band Pass Filter)264を有する。BPF264は、所定の周波数帯の音の成分を抽出するフィルタである。
LPF262は、fLPF(Hz)以下の音の成分を抽出する。HPF261は、fHPF(Hz)以上の音の成分を抽出するフィルタである。BPF264は、fLPF(Hz)より高く、fHPF(Hz)より低い音の成分を抽出するフィルタである。
例えば、fLPF(Hz)は、100Hz程度に設定され、fHPF(Hz)は、人間が音の指向性を強く感じやすい周波数である2.5kHz程度に設定される。
音合成部270Aは、高周波数成分合成部271、低周波数成分合成部272、音出力データ生成部273に加えて、中周波数成分合成部275及びHPF出力調整部276を有する。
中周波数成分合成部275は、BPF264から出力されるfLPF〜fHPFの周波数の音データである中周波データを受信し合成する。例えば、中周波数成分合成部275は、低周波数成分合成部272と同様に、中周波データの各々の値を平均化して、中周波出力データを生成する。
なお、fHPF(Hz)、fBPF(Hz)、及びfLPF(Hz)の設定値は可変であり、例えば、受付部210がユーザからの指示を受け付けることにより変更される。
HPF出力調整部276は、音データの各々から抽出された高周波データの各々の最も出力が大きい周波数fmaxを特定する。周波数fmaxを強調する処理を実行する。詳細については、後述する。なお、高周波数成分合成部271は、HPF出力調整部276の出力である調整高周波データ(例えば、図15の調整高周波データA/B/C)を基に、高周波出力データを生成する。生成方法については、第1の実施形態と同様である。
音出力データ生成部273は、高周波出力データと、中周波出力データと、低周波出力データとを合成して、音出力データを生成する。
<動作フロー>
図16を用いてHPF出力調整部276が実行する動作フローについて説明する。図16は第2の実施形態に係るHPF出力調整部276の動作フローの一例を示す図である。
ステップS1601で、HPF出力調整部276は、各音データのHPF261からの出力である高周波データの各々(ここでは、高周波データA、高周波データB、高周波データCとする)の最も出力が大きい周波数fmax(Hz)を特定する。
ステップS1602で、HPF出力調整部276は、高周波データAのfmax(Hz)、高周波データBのfmax(Hz)、及び高周波データCのfmax(Hz)が一致するか否か判断する。
一致する場合(ステップS1602 Yes)、ステップS1603に進む。一致しない場合(ステップS1605 No)、ステップS1605に進む。
ステップS1603で、HPF出力調整部276は、fmax(Hz)が最も大きい高周波データを特定する。ここでは、高周波データAのfmax(Hz)が最も大きいと特定されたものとする。
ステップS1604で、HPF出力調整部276は、fmax(Hz)の出力値が最も大きい高周波データAの高周波データAをKmax倍する。また、HPF出力調整部276は、それ以外の高周波データである高周波データ(B、C)をKnot_max倍して出力する。
ここで、Kmaxは1以上の値であり、Knot_maxは、1より小さい値である。
ステップS1605で、HPF出力調整部276は、高周波データ(高周波データA、B、C)をそのまま出力する。
HPF出力調整部276が、上述した処理を実行することにより高周波成分の指向性を強調してより臨場感を高めることが可能である。なお、Kmax及びKnot_max等の係数は、可変であり、例えば、受付部210がユーザからの指示を受け付けることにより変更される。
[その他]
端末200は、情報処理装置の一例である。音周波数解析部260、音合成部270、及び音処理部280は、音出力制御部の一例である。右耳の方向22Aは、第1の方向の一例である。左耳の方向22Bは、第2の方向の一例である。
上述した実施の形態の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、端末200に供給してもよい。そして、端末200が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、上述の実施形態が、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は、いずれかの実施の形態を構成することになる。ここで、記憶媒体は、記録媒体または非一時的な記憶媒体である。
また、コンピュータ装置が読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。そのプログラムコードの指示に従って、コンピュータ装置上で動作しているオペレーティングシステム(OS)等が実際の処理の一部または全部を行ってもよい。さらに、その処理によって前述した実施形態の機能が実現されてもよいことは言うまでもない。
以上、本発明の好ましい実施形態について説明したが、本発明はこうした実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 動画再生システム
2 無線
100 撮像装置
110 受付部 (撮像装置)
120 送受信部 (撮像装置)
130 撮像データ取得部
140 動画データ生成部
150 音データ取得部
160 音データ生成部
170 情報記憶部 (撮像装置)
171 指向性管理テーブル
172 対応管理テーブル
200 端末
210 受付部 (端末)
215 再生制御部
220 送受信部 (端末)
230 動画像デコーダ
240 表示制御部
250 音デコーダ
260 音周波数解析部
261 HPF(High Pass Filter)
262 LPF(Low Pass Filter)
264 BPF(Band Pass Filter)
270 音合成部
271 高周波数成分合成部
272 低周波数成分合成部
273 音出力データ生成部
275 中周波数成分合成部
276 出力調整部
280 音処理部
290 情報記憶部 (端末)
特開2013−250838号公報

Claims (8)

  1. 撮像装置により撮像されたパノラマ動画データと、該パノラマ動画データの撮影時に、集音された音データの各々と、該音データの各々の方向とを取得する取得部と、
    前記パノラマ動画データの所定の領域を切り出して画面に表示する表示制御部と、
    前記所定の領域の前記パノラマ動画データ内での方向と、前記音データの各々の方向との角度を基に、前記音データの各々の所定の周波数より高い高周波成分の出力レベルを調整し、前記高周波成分の出力レベルが調整された音データの各々を合成して出力する音出力制御部と、を有する情報処理装置。
  2. 前記所定の領域の前記パノラマ動画データ内での方向は、前記所定の領域の中央位置と、撮像時の前記撮像装置の位置とから特定され、
    前記音データの方向は、前記撮像装置の位置と、該音データを集音した集音装置の指向性とから特定される、請求項1に記載の情報処理装置。
  3. 前記音出力制御部は、
    前記所定の領域の前記パノラマ動画データ内での方向と直交する第1の方向及び第2の方向を特定し、
    前記音データの方向が、前記第1の方向に近い程、該音データの前記高周波成分の出力レベルが強調されるように調整された音データを出力し、
    前記音データの方向が、前記第2の方向に近い程、該音データの前記高周波成分の出力レベルが強調されるように調整された音データを出力する、請求項1又は2に記載の情報処理装置。
  4. 前記音出力制御部は、前記音データの各々の前記所定の周波数以下の低周波数成分を平均化して出力する、請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記画面に表示する前記パノラマ動画データの領域の変更指示を受けて、前記表示制御部は、前記画面に表示す前記パノラマ動画データの領域を変更し、
    前記パノラマ動画データの領域が変更されたことに応じて、前記音出力制御部は、変更された領域の前記パノラマ動画データ内での方向と、前記音データの各々の方向との角度を基に、前記高周波成分の出力レベルを調整する、請求項1乃至4のいずれか一項に記載の情報処理装置。
  6. 前記音出力制御部は、
    前記音データの各々の前記高周波成分の中で、最も値が大きい一の周波数を特定し、
    該一の周波数が、前記音データの各々で一致するか否かを判断し、
    前記一の周波数が一致すると判断された場合、前記音データの各々の中で、最も大きい前記一の周波数の値を有する音データの前記高周波成分の出力レベルが大きくなるように調整する、請求項1乃至5のいずれか一項に記載の情報処理装置。
  7. 前記一の周波数が一致すると判断された場合、前記音出力制御部は、前記音データの各々の中で、最も大きい該一の周波数の値を有しない音データの前記高周波成分の出力レベルが小さくなるように調整する、請求項6に記載の情報処理装置。
  8. 撮像装置により撮像されたパノラマ動画データと、該パノラマ動画データの撮影時に、集音された音データの各々と、該音データの各々の方向とを取得するステップと、
    前記パノラマ動画データの所定の領域を切り出して画面に表示するステップと、
    前記所定の領域の前記パノラマ動画データ内での方向と、前記音データの各々の方向との角度を基に、前記音データの各々の所定の周波数より高い高周波成分の出力レベルを調整し、前記高周波成分の出力レベルが調整された音データの各々を合成して出力するステップと、をコンピュータに実行させるプログラム。
JP2016130992A 2016-06-30 2016-06-30 情報処理装置、及びプログラム Active JP6634976B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016130992A JP6634976B2 (ja) 2016-06-30 2016-06-30 情報処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130992A JP6634976B2 (ja) 2016-06-30 2016-06-30 情報処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018005526A true JP2018005526A (ja) 2018-01-11
JP6634976B2 JP6634976B2 (ja) 2020-01-22

Family

ID=60949092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130992A Active JP6634976B2 (ja) 2016-06-30 2016-06-30 情報処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6634976B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062448A (ja) * 2017-09-27 2019-04-18 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62202607A (ja) * 1987-02-23 1987-09-07 ボ−ズ・コ−ポレ−シヨン パワ−増幅システム
JPH0970094A (ja) * 1995-08-31 1997-03-11 Sony Corp ヘッドホン装置
JP2003299181A (ja) * 2002-04-03 2003-10-17 Sony Corp オーディオ信号処理装置及びオーディオ信号処理方法
JP2006503526A (ja) * 2002-10-18 2006-01-26 ザ リージェンツ オブ ザ ユニヴァーシティー オブ カリフォルニア 動的なバイノーラルサウンドの取込及び再生
JP2007027846A (ja) * 2005-07-12 2007-02-01 Oki Electric Ind Co Ltd 動画再生システム及び動画再生方法
JP2007036608A (ja) * 2005-07-26 2007-02-08 Yamaha Corp ヘッドホン装置
JP2007235334A (ja) * 2006-02-28 2007-09-13 Victor Co Of Japan Ltd オーディオ装置及び指向音生成方法
JP2008060725A (ja) * 2006-08-29 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> 音像定位強調再生方法、及びその装置とそのプログラムと、その記憶媒体
JP2009156888A (ja) * 2007-12-25 2009-07-16 Sanyo Electric Co Ltd 音声補正装置及びそれを備えた撮像装置並びに音声補正方法
JP2010056589A (ja) * 2008-08-26 2010-03-11 Sony Corp 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法
JP2010521909A (ja) * 2007-03-21 2010-06-24 フラウンホファー・ゲゼルシャフト・ツール・フォルデルング・デル・アンゲバンテン・フォルシュング・アインゲトラーゲネル・フェライン 音声の再現を高めるための方法および装置
JP2010147529A (ja) * 2008-12-16 2010-07-01 Sony Corp 情報処理システムおよび情報処理方法
US20110109798A1 (en) * 2008-07-09 2011-05-12 Mcreynolds Alan R Method and system for simultaneous rendering of multiple multi-media presentations
JP2012119803A (ja) * 2010-11-30 2012-06-21 Canon Inc 超広角映像の記録及び再生装置
JP2013250838A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2014049885A (ja) * 2012-08-30 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> 音響再生装置とその方法とプログラム
JP2015004948A (ja) * 2013-05-23 2015-01-08 独立行政法人理化学研究所 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム
JP2016046699A (ja) * 2014-08-25 2016-04-04 株式会社 ゼネテック 画像音声入出力システム

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62202607A (ja) * 1987-02-23 1987-09-07 ボ−ズ・コ−ポレ−シヨン パワ−増幅システム
JPH0970094A (ja) * 1995-08-31 1997-03-11 Sony Corp ヘッドホン装置
JP2003299181A (ja) * 2002-04-03 2003-10-17 Sony Corp オーディオ信号処理装置及びオーディオ信号処理方法
JP2006503526A (ja) * 2002-10-18 2006-01-26 ザ リージェンツ オブ ザ ユニヴァーシティー オブ カリフォルニア 動的なバイノーラルサウンドの取込及び再生
JP2007027846A (ja) * 2005-07-12 2007-02-01 Oki Electric Ind Co Ltd 動画再生システム及び動画再生方法
JP2007036608A (ja) * 2005-07-26 2007-02-08 Yamaha Corp ヘッドホン装置
JP2007235334A (ja) * 2006-02-28 2007-09-13 Victor Co Of Japan Ltd オーディオ装置及び指向音生成方法
JP2008060725A (ja) * 2006-08-29 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> 音像定位強調再生方法、及びその装置とそのプログラムと、その記憶媒体
JP2010521909A (ja) * 2007-03-21 2010-06-24 フラウンホファー・ゲゼルシャフト・ツール・フォルデルング・デル・アンゲバンテン・フォルシュング・アインゲトラーゲネル・フェライン 音声の再現を高めるための方法および装置
JP2009156888A (ja) * 2007-12-25 2009-07-16 Sanyo Electric Co Ltd 音声補正装置及びそれを備えた撮像装置並びに音声補正方法
US20110109798A1 (en) * 2008-07-09 2011-05-12 Mcreynolds Alan R Method and system for simultaneous rendering of multiple multi-media presentations
JP2010056589A (ja) * 2008-08-26 2010-03-11 Sony Corp 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法
JP2010147529A (ja) * 2008-12-16 2010-07-01 Sony Corp 情報処理システムおよび情報処理方法
JP2012119803A (ja) * 2010-11-30 2012-06-21 Canon Inc 超広角映像の記録及び再生装置
JP2013250838A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2014049885A (ja) * 2012-08-30 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> 音響再生装置とその方法とプログラム
JP2015004948A (ja) * 2013-05-23 2015-01-08 独立行政法人理化学研究所 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム
JP2016046699A (ja) * 2014-08-25 2016-04-04 株式会社 ゼネテック 画像音声入出力システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062448A (ja) * 2017-09-27 2019-04-18 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP6634976B2 (ja) 2020-01-22

Similar Documents

Publication Publication Date Title
CN108337497B (zh) 一种虚拟现实视频/图像格式以及拍摄、处理、播放方法和装置
JP6984596B2 (ja) 映像音響処理装置および方法、並びにプログラム
KR101861590B1 (ko) 휴대용 단말기에서 입체 데이터를 생성하기 위한 장치 및 방법
JP2014115457A (ja) 情報処理装置および記録媒体
JP2015139162A (ja) 音響信号処理装置、動画撮影装置およびそれらの制御方法
JP7428763B2 (ja) 情報取得システム
JP6580516B2 (ja) 処理装置および画像決定方法
US20190342692A1 (en) Apparatus, system, and method of processing data, and recording medium
JP5892797B2 (ja) 送受信システム及び送受信方法、受信装置及び受信方法
JP6538003B2 (ja) アクチュエータ装置
CN107249166A (zh) 一种完全沉浸式的耳机立体声实现方法及系统
Maempel The virtual concert hall—A research tool for the experimental investigation of audiovisual room perception
JP6634976B2 (ja) 情報処理装置、及びプログラム
CN113747047B (zh) 一种视频播放的方法及设备
WO2018128161A1 (ja) 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム
US11368611B2 (en) Control method for camera device, camera device, camera system, and storage medium
WO2022042151A1 (zh) 一种录音方法和设备
GB2610459A (en) Audio processing method, apparatus, electronic device and storage medium
JP5979843B2 (ja) 音声信号処理装置、音声信号処理方法及びプログラム
WO2021181966A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2019140667A (ja) 情報処理装置、情報処理システム、データ生成方法およびプログラム
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
JP5653771B2 (ja) 映像表示機器及びプログラム
JP6518620B2 (ja) 位相差増幅装置
KR101883680B1 (ko) 컨텐츠 저작장치 및 컨텐츠 재생장치, 이를 이용한 컨텐츠 저작방법 및 컨텐츠 재생방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R151 Written notification of patent or utility model registration

Ref document number: 6634976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151