JPWO2015162947A1 - 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法 - Google Patents

情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法 Download PDF

Info

Publication number
JPWO2015162947A1
JPWO2015162947A1 JP2016514734A JP2016514734A JPWO2015162947A1 JP WO2015162947 A1 JPWO2015162947 A1 JP WO2015162947A1 JP 2016514734 A JP2016514734 A JP 2016514734A JP 2016514734 A JP2016514734 A JP 2016514734A JP WO2015162947 A1 JPWO2015162947 A1 JP WO2015162947A1
Authority
JP
Japan
Prior art keywords
information
image
sound
camera
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016514734A
Other languages
English (en)
Other versions
JP6565903B2 (ja
Inventor
誉 今
誉 今
長谷川 雄一
雄一 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015162947A1 publication Critical patent/JPWO2015162947A1/ja
Application granted granted Critical
Publication of JP6565903B2 publication Critical patent/JP6565903B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Stereophonic System (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

エンターテインメント性が高く、退屈しないコンテンツを提供するとともに、臨場感を与えることができるように、音と画像の情報を記録し再生する。記録時には、複数台のカメラで撮影した画像情報を各カメラの位置及び姿勢情報と併せて記録するととともに、複数の音源からの音響情報を各音源の位置情報と併せて記録するようにしている。そして、再生時には、視聴者の位置(視線方向)における画像を再生するとともに、視聴者の位置に音像を定位させることで、エンターテインメント性の高い、退屈しないコンテンツを提供するとともに、臨場感のある音響を与える。

Description

本明細書で開示する技術は、記録された音声や画像を再生する情報再生装置及び情報再生方法、並びに、音声や画像などの情報を記録する情報記録装置及び情報記録方法に関する。
映画やライブ・コンテンツを再生する際、画像に合わせて音を左右に定位させることで、視聴者に臨場感を与えることができる。
例えば、5.1チャンネル・サラウンド・システムは、5つのスピーカーと1つのサブウーファー・スピーカーで構成されるステレオ再生システムであり、ITU−RBS775(International Telecommunication Union Radiocommunications Sector)の規定に従ってスピーカーを配置し、それぞれのチャンネルに対応するスピーカーから異なる音波を出力することで、受聴者に臨場感のある音を聴かせることができる。
ステレオ再生システムは目的となる音像定位を得られる範囲が狭いという問題がある。これに対し、原音場で音源が作る波面を収録し、収録した波面を基に現音場とは別の空間で波面合成技術を用いて波面を再現するマルチチャンネル・オーディオ・システムが知られている。例えば、想定されていたスピーカー数やスピーカー間隔のスペックから、実際に使用する再生装置に応じて波面合成再生信号を演算し、合成音場を再生する波面合成信号変換装置について提案がなされている(例えば、特許文献1を参照のこと)。
また、定位させたい音源位置から受聴者の両耳までの頭部伝達関数(Head−Related Transfer Function:HRTF)を音源信号に付与し、あたかも所望の位置に音源があるかのように音像を定位させる方法が知られている。例えば、受聴者の周囲に設置した2つ以上の複数スピーカーから再生された音を仮想位置に定位させる際に、マルチチャンネルの入力信号の重心を算出し、その重心位置に応じて決定された重み係数を仮想音像生成処理に反映して入力信号を再生することにより、仮想音像の定位効果をより強調し、音場の包まれ感を向上する音響再生装置について提案がなされている(例えば、特許文献2を参照のこと)。
特開2013−128314号公報 特開2011−211312号公報
本明細書で開示する技術の目的は、記録された音声や画像を再生することができる、優れた情報再生装置及び情報再生方法を提供することにある。
また、本明細書で開示する技術の目的は、音声や画像などの情報を好適に記録することができる、優れた情報記録装置及び情報記録方法を提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
画像及び音声を提供する空間における視聴者の位置を計算する位置情報計算部と、
カメラの位置及び姿勢情報付きで記録された画像情報に基づいて、視聴者の位置における画像を処理する画像処理部と、
音源の位置情報付きで記録された音声情報に基づいて、音像を視聴者の位置に定位する音声処理部と、
を具備する情報再生装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の情報再生装置の前記位置情報計算部は、撮影に用いたカメラの位置及び姿勢情報に基づいて、視聴者の位置を計算するように構成されている。
本願の請求項3に記載の技術によれば、請求項1に記載の情報再生装置の前記位置情報計算部は、視聴者の現実の動作又は位置に基づいて、視聴者の位置を計算するように構成されている。
本願の請求項4に記載の技術によれば、請求項1に記載の情報再生装置の前記位置情報計算部は、複数のカメラ間の重心位置に基づいて、視聴者の位置を計算するように構成されている。
本願の請求項5に記載の技術によれば、請求項1に記載の情報再生装置の前記位置情報計算部は、パンニング、切り替え頻度に基づいて重み付けした複数のカメラ間の重心位置に基づいて、視聴者の位置を計算するように構成されている。
本願の請求項6に記載の技術によれば、請求項1に記載の情報再生装置の前記画像処理部は、視聴者の位置のカメラで撮影したカメラの画像に基づいて、視聴者の位置における画像を生成するように構成されている。
本願の請求項7に記載の技術によれば、請求項1に記載の情報再生装置の前記画像処理部は、複数のカメラの撮影画像を用いて、視聴者の位置における視点補間画像を生成するように構成されている。
本願の請求項8に記載の技術によれば、請求項7に記載の情報再生装置の前記音声処理部は、視点補間した位置に音像を定位するように構成されている。
本願の請求項9に記載の技術によれば、請求項7に記載の情報再生装置の前記音声処理部は、視聴者から集音した発話情報を視点補間した位置に基づいて音像定位するように構成されている。
本願の請求項10に記載の技術によれば、請求項7に記載の情報再生装置の前記画像処理部は、視点補間画像内で視聴者に対応する場所にアバター又は視聴者の位置情報を表示するように構成されている。
本願の請求項11に記載の技術によれば、請求項1に記載の情報再生装置の前記音声処理部は、視聴者の位置からの視点画像に含まれる音源の絶対位置情報を視聴者の位置に対する相対位置に変換して、視点画像における音像の音像を定位するように構成されている。
また、本願の請求項12に記載の技術は、
画像及び音声を提供する空間における視聴者の位置を計算する位置情報計算ステップと、
カメラの位置及び姿勢情報付きで記録された画像情報に基づいて、視聴者の位置における画像を処理する画像処理ステップと、
音源の位置情報付きで記録された音声情報に基づいて、音像を視聴者の位置に定位する音声処理ステップと、
を有する情報再生方法である。
また、本願の請求項13に記載の技術は、
カメラの撮影画像とカメラの位置及び姿勢情報を記録する画像情報記録部と、
音源の位置情報を記録する音声情報記録部と、
を具備する情報記録装置である。
本願の請求項14に記載の技術によれば、請求項13に記載の情報記録装置の前記画像情報記録部は、カメラの撮影画像とカメラの位置及び姿勢情報をそれぞれ画像用のパケット形式で記録し、前記音声情報記録部は、音源の位置情報を音声用のパケット形式で記録するように構成されている。
本願の請求項15に記載の技術によれば、請求項13に記載の情報記録装置の前記画像情報記録部は、カメラの撮影画像とカメラの位置及び姿勢情報をそれぞれ画像用のトラックに記録し、前記音声情報記録部は、音源の位置情報を音声用のトラックに記録するように構成されている。
本願の請求項16に記載の技術によれば、請求項13に記載の情報記録装置の前記画像情報記録部は、カメラから受信した撮影画像と、カメラ位置センサーから受信した位置及び姿勢情報を記録するように構成されている。
本願の請求項17に記載の技術によれば、請求項13に記載の情報記録装置の前記音声情報記録部は、音源検出装置から受信した音源の位置情報を記録するように構成されている。
本願の請求項18に記載の技術によれば、請求項13に記載の情報記録装置の前記音声情報記録部は、音源検出装置から受信した音声情報又は後で録音された音声情報をその音源の位置情報とともに記録するように構成されている。
本願の請求項19に記載の技術によれば、請求項13に記載の情報記録装置は、画像記録用の同期信号(クロック)に同期し、あるいは分周、間引かれたタイミング信号を基準に、カメラの位置及び姿勢情報、音源の位置情報を記録するように構成されている。
また、本願の請求項20に記載の技術は、
カメラの撮影画像とカメラの位置及び姿勢情報を受信するステップと、
受信したカメラの撮影画像とカメラの位置及び姿勢情報を記録するステップと、
音源の位置情報を受信するステップと、
受信した音源の位置情報を記録する音声情報記録部と、
を有する情報記録方法である。
本明細書で開示する技術によれば、エンターテインメント性が高く、退屈しないコンテンツを提供するとともに、臨場感を与えることができるように、音と画像の情報を記録し再生することができる、優れた情報記録装置及び情報記録方法、並びに情報再生装置及び情報再生方法を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、画像及び音声の情報を記録する記録システム100の構成例を模式的に示した図である。 図2は、各カメラ110−1、110−2、…及びマイク120−1、120−2、…が実空間上に配置されている様子を模式的に示した図である。 図3は、画像及び音声の情報を記録する記録システム300の他の構成例を模式的に示した図である。 図4は、各カメラ310−1、310−2、…及び音位置センサー320−1、320−2、…が実空間上に配置されている様子を模式的に示した図である。 図5は、カメラの撮影画像(動画又は静止画)をカメラの位置及び姿勢情報と併せて記録するとともに、発話者などの音源からの音声情報を音源の位置情報と併せて記録する記録フォーマット例を示した図である。 図6は、カメラの撮影画像(動画又は静止画)をカメラの位置及び姿勢情報と併せて記録するとともに、発話者などの音源からの音声情報を音源の位置情報と併せて記録する記録フォーマットの他の例を示した図である。 図7は、記録システム300内でカメラや発話者の位置情報を伝送するパケット500の構成例を示した図である 図8は、カメラや音源の位置情報に含まれるデータを例示した図である。 図9は、ヘッド・マウント・ディスプレイ900の外観構成を示した図(斜視図)である。 図10は、ヘッド・マウント・ディスプレイ900の外観構成を示した図(左側面図)である。 図11は、位置情報とともに記録した画像情報及び音声情報を再生する画像表示システム1100の構成例を模式的に示した図である。 図12は、画像表示システム1100の変形例を模式的に示した図である。 図13は、図11又は図12に示した画像表示システム1100において、ユーザーの頭部の動きに追従した画像を表示装置1140で表示する仕組みを示した図である。 図14は、描画装置1130内の描画処理部1132の構成を模式的に示した図である。 図15は、画像及び音声を再生する処理手順を示したフローチャートである。 図16は、ユーザーに画像及び音声を提供する空間において、仮想ポイントを決定、配置する様子を示した図である。 図17は、画像及び音声を再生する際に、仮想ポイントに音像を定位する様子を示した図である。 図18は、ヘッド・マウント・ディスプレイで画像及び音声を再生する様子を示した図である。 図19は、任意の場所に配置した視点の画像を提示する例を示した図である。 図20は、視点補間画像をヘッド・マウント・ディスプレイで再生する様子を示した図である。 図21は、画像を再生するヘッド・マウント・ディスプレイの着用者も発話体として扱い、その発話内容を音像定位する様子を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
波面合成技術や頭部伝達関数などの手法を用いて音像定位を行なう場合(例えば、特許文献1、2を参照のこと)、一般的には、画像及び音の記録時にカメラからオブジェクト(発話者、音源)までの相対位置を記録しておき、再生時にはその相対位置情報に応じて音像を定位させることが考えられる。
1台のカメラで撮影を行なうのであれば、このような音像定位方法で臨場感を与えることができる。しかしながら、ライブ・コンテンツなどで、1台のカメラからの画像を流し続けるのは、視聴者にとって面白味がない。
複数台のカメラで全周囲画像を撮影し、再生時には、アングルを適宜変え、ズームしたり移動したりした画像を見せることで、エンターテインメント性の高い、退屈しないコンテンツを提供することができる。
ところが、カメラ・アングルが切り換わると、カメラから音源までの相対位置も変化することから、音像定位する位置が急激に変化してしまい、不自然である。
そこで、本明細書で開示する技術では、画像及び音声の情報の記録時には、複数台のカメラで撮影した画像情報を各カメラの位置及び姿勢情報と併せて記録するとともに、複数の音源からの音声情報を各音源の位置情報と併せて記録するようにしている。そして、再生時には、視聴者の位置をある点に設定し、視聴者の位置(視線方向)における画像を再生するとともに、視聴者の位置に音像を定位させることで、エンターテインメント性の高い、退屈しないコンテンツを提供するとともに、自然で臨場感がある音響を与えることができる。視聴者の位置は、例えば、画像を提供する空間の真ん中など代表的な位置とすればよく、撮影に用いた複数のカメラの重心位置でもよい。
図1には、画像及び音声の情報を記録する記録システム100の構成例を模式的に示している。図示の記録システム100は、実空間上に配置された複数台のカメラ110−1、110−2、…及び複数台のマイク120−1、120−2、…と、各カメラ110−1、110−2、…及びマイク120−1、120−2、…に同期信号を供給する同期信号生成装置130と、記録装置140で構成される。
図2には、各カメラ110−1、110−2、…及びマイク120−1、120−2、…が実空間上に配置されている様子を模式的に示している。図示の例では、発話者201、202、…毎にマイク120−1、120−2、…が設置されている(又は、被写体となる各発話者201、202、…がそれぞれマイク120−1、120−2、…を所持している)。各カメラ110−1、110−2、…は、それぞれの視点から発話者201、202、…を撮影している。
再び図1を参照して、記録システム100について説明する。同期信号生成装置130は、GenLockといわれる、例えば30fpsのマスタークロックとしての同期信号を、各カメラ110−1、110−2、…に供給する。各カメラ110−1、110−2、…は、この同期信号GenLockを受けて、発話者201、202、…を撮影する。そして、記録装置140は、同期信号生成装置130から受信する同期信号に基づいて、各カメラ110−1、110−2、…の画像信号を同期して記録する。
また、同期信号生成装置130は、WordClockといわれる同期信号を、各マイク120−1、120−2、…に供給する。各マイク120−1、120−2、…は、WordClockに基づいて、48kHzや96kHzといったサンプリング・レートで、発話者201、202、…の音声を集音する。そして、記録装置140は、同期信号生成装置130から受信する同期信号に基づいて、各マイク120−1、120−2、…で集音した音声信号を同期して記録する。
同期信号生成装置130は、画音(画像と音声)のために、WordClockとGenLockを同期させている。したがって、記録装置140で記録する画音が一致する。また、WordClockやGenLockに加えて、SMPTE(Society of Motion Picture and Television Engineers)で規定されるタイムコードも埋め込むようにしてもよい。
また、図1及び図2に示す記録システム100では、カメラ110−1、110−2、…やマイク120−1、120−2、…などの機材は、位置情報送信機を含んでいる。各カメラ110−1、110−2、…は撮影した画像信号とともに自分の位置及び姿勢情報を記録装置140に送信する。また、各マイク120−1、120−2、…は、集音した音声信号とともに自分(発話者)の位置情報を記録装置140に送信する。
記録装置140は、GenLockと同期したクロックを用いて、各カメラ110−1、110−2、…で撮影された画像信号を各々の位置及び姿勢情報と対応付けて記録する。また、記録装置140は、WordClockと同期したクロックを用いて、各マイク120−1、120−2、…で集音された音声情報を各々の位置情報と対応付けて記録する。
図1に示した記録システム100は、画像及び音声の情報の記録時に、複数台のカメラで撮影した画像情報を各カメラの位置及び姿勢情報と併せて記録するととともに、複数の音源からの音声情報を各音源の位置情報と併せて記録する。
図5には、カメラの撮影画像(動画又は静止画)をカメラの位置及び姿勢情報と併せて記録するとともに、発話者などの音源からの音声情報を音源の位置情報と併せて記録する記録フォーマット例を示している。図示の記録フォーマット500は、画像情報と音声情報がパケット用に多重化されている。
カメラの撮影画像を格納するパケットのヘッダー部501には、m番目のカメラの撮影画像であることと提示時間(Presentation Time)が記載され、ペイロード部502には、そのカメラで撮影した動画(又は静止画)が格納される。カメラの位置及び姿勢情報を格納するパケットのヘッダー部511には、m番目のカメラの位置及び姿勢画像であることとサンプリングの開始時刻並びにサンプリング・レートが記載され、ペイロード部512にはそのカメラの位置情報が格納される。また、パンニングや切り替え頻度などのカメラワークに関する情報を、位置及び姿勢情報とともにペイロード部512に格納するようにしてもよい。パンニングや切り替え頻度などの情報を、音像定位が好ましい座標を決定する際に使用することもある(後述)。
また、音声情報(発話者の音声)を格納するパケットのヘッダー部521には、n番目の発話者の音声であることと提示時間(Presentation Time)が記載され、ペイロード部522には、その発話者の音声情報が格納される。また、音源である発話者の位置情報を格納するパケットのヘッダー部531には、n番目の発話者の位置画像であることとサンプリングの開始時刻並びにサンプリング・レートが記載され、ペイロード部532にはその発話者の位置情報が格納される。
図5に示した記録フォーマットでは、画像記録用の同期信号(クロック)に同期し、あるいは分周、間引かれたタイミング信号を基準に、カメラの位置及び姿勢情報、音源の位置情報を記録することができる。
また、図6には、カメラの撮影画像(動画又は静止画)をカメラの位置及び姿勢情報と併せて記録するとともに、発話者などの音源からの音声情報を音源の位置情報と併せて記録する記録フォーマットの他の例を示している。図示の記録フォーマット600は、画像情報と音声情報をそれぞれ別トラック、別ファイルに記録されている。
カメラの撮影画像を格納するトラックのヘッダー部601には、m番目のカメラの撮影画像であることと提示時間(Presentation Time)が記載され、ペイロード部602には、そのカメラで撮影した動画(又は静止画)が格納される。カメラの位置情報を格納するトラックのヘッダー部611には、m番目のカメラの位置画像であることとサンプリングの開始時刻並びにサンプリング・レートが記載され、ペイロード部612にはそのカメラの位置情報が格納される。また、音声情報(発話者の音声)を格納するトラックのヘッダー部621には、n番目の発話者の音声であることと提示時間(Presentation Time)が記載され、ペイロード部622には、その発話者の音声情報が格納される。また、音源である発話者の位置情報を格納するトラックのヘッダー部631には、n番目の発話者の位置画像であることとサンプリングの開始時刻並びにサンプリング・レートが記載され、ペイロード部632にはその発話者の位置情報が格納される。
図6に示した記録フォーマットでは、画像記録用の同期信号(クロック)に同期し、あるいは分周、間引かれたタイミング信号を基準に、カメラの位置及び姿勢情報、音源の位置情報を記録することができる。
なお、映画やテレビドラマ、音楽プロモーション・ビデオのように、アフター・レコーディング、すなわち撮影した後に別途音声を録音するという制作方法がとられることもある。このような場合、各マイク120−1、120−2、…では、撮影現場では集音並びに録音はせず、発話者(歌い手、話して、発音物)の位置情報を記録することが重要である。この場合、図5中の音声情報(発話者の音声)を格納するパケットは不要であり、音源である発話者の位置情報を格納するパケットがあればよい。また、図6中の音声情報(発話者の音声)を格納するトラックは不要であり、音源である発話者の位置情報を格納するトラックがあればよい。
また、図3には、画像及び音声の情報を記録する記録システム300の他の構成例を模式的に示している。
図示の記録システム300は、実空間上に配置された複数台のカメラ310−1、310−2、…を含んでいる。各カメラ310−1、310−2、…には、位置情報を検出するための位置センサーが装備されている。位置センサーは、例えば、加速度センサー、GPS(Global Positioning System)センサー、地磁気センサーのうちいずれか1つ又は2以上の組み合わせで構成される。あるいは、位置センサーは、カメラの撮影画像の画像認識により位置情報を取得するものであってもよい。
また、記録システム300は、撮影現場で音声を集音するマイクに代えて、発話者(歌い手、話し手、発音物)など音源となる各オブジェクトの位置を検出する音位置センサー320−1、320−2、…を含んでいる。記録システム300では、映画やテレビドラマ、音楽プロモーション・ビデオのように、アフター・レコーディング、すなわち撮影した後に別途音声を録音するという制作方法がとられるものとする。
さらに、記録システム300は、各カメラ310−1、310−2、…並びに音位置センサー320−1、320−2、…に同期信号を供給する同期信号生成装置330と、各カメラ310−1、310−2、…並びに音位置センサー320−1、320−2、…から位置情報を受信する位置情報受信装置340と、記録装置350を含んでいる。
図4には、各カメラ310−1、310−2、…及び音位置センサー320−1、320−2、…が実空間上に配置されている様子を模式的に示している。図示の例では、発話者401、402、…毎に音位置センサー320−1、320−2、…が設置されている(又は、各発話者401、402、…に音位置センサー320−1、320−2、…が取り付けられている)。各カメラ310−1、310−2、…は、それぞれの視点から発話者401、402、…を撮影している。
再び図3を参照して、記録システム300について説明する。同期信号生成装置330は、GenLockといわれる、例えば30fpsのマスタークロックとしての同期信号を、各カメラ310−1、310−2、…に供給する。各カメラ310−1、310−2、…は、この同期信号GenLockを受けて、発話者401、402、…を撮影する。また、各カメラ310−1、310−2、…の位置センサーは、GenLockに同期して位置情報を取得する。各カメラ310−1、310−2、…は、画像信号を記録装置350に送信する。また、各カメラ310−1、310−2、…の位置センサーは、位置情報を位置情報受信装置340に送信し、位置情報受信装置340は収集した位置情報を記録装置350に送信する。
また、同期信号生成装置330は、WordClockといわれる同期信号を、各音位置センサー320−1、320−2、…に供給する。各音位置センサー320−1、320−2、…は、WordClockに基づいて、48kHzや96kHzといったサンプリング・レートで、発話者401、402、…の位置情報を取得して、位置情報受信装置340に送信する。位置情報受信装置340は収集した位置情報を記録装置350に送信する。
図3に示す記録システム300において、位置情報や姿勢情報を収録するための同期信号WordClock、GenLockはともに同期しているものである。具体的には、画像と同等かオーディオと同等、あるいは人間の音の移動近くの遅延限界と考えられるレートになる。
図7には、記録システム300内でカメラ310−1、310−2、…や各発話者(音位置センサー320−1、320−2、…)の位置情報を伝送するパケット700の構成例を示している。図示のパケット700は、ヘッダー部701と位置情報部702で構成される。ヘッダー部701には、サンプリングの開始時刻Tsとサンプリング・レートFsが記載される。また、位置情報部702には、サンプリングの開始時刻Tsからサンプリング周期1/Fs毎に検出した位置情報POS(Ts)、POS(Ts+1×1/Fs)、POS(Ts+2×2/Fs)、…が格納される。但し、POS(t)は時刻tにおける位置情報である。図8に示すように、POS(t)は、xyz座標(x,y,z)又は極座標(r,θ,φ)で表される位置情報と、(Θ,Φ)で表される姿勢情報を含むものとする。姿勢情報は、クォータニオン(回転軸(ベクトル)と回転角(スカラー)からなる4元数)で表してもよい。
図3に示した記録システム300は、画像及び音声の情報の記録時に、複数台のカメラで撮影した画像情報を各カメラの位置及び姿勢情報と併せて記録するととともに、複数の音源からの音声情報を各音源の位置情報と併せて記録する。なお、アフター・レコーディング、すなわち撮影した後に別途音声を録音するという制作方法がとられる場合、発話者の位置と連動した個所に位置情報と連動して、従来のプロモーション・ビデオ撮影の手法のようにレコーディング・トラックを当てはめたり差し替えたりする。図3に示した記録システム300でも、図5に示したパケット構造や図6に示したトラック構造により、画像情報と音声情報をそれぞれの位置情報とともに記録することができる。
図1又は図3に示した記録システム100、300により位置情報とともに記録した画像情報及び音声情報を再生する場合、視聴者の位置(視線方向)における画像を再生するとともに、視聴者の位置に音像を定位させることで、エンターテインメント性の高い、退屈しないコンテンツを提供するとともに、臨場感のある音響を与えることができる。
例えば、位置情報や姿勢情報とともに記録した画像情報及び音声情報を、ヘッド・マウント・ディスプレイのような画像表示システムで再生する場合、ユーザーの頭部の動きに追従させた全空間の360度の画像を提供することができる。ユーザーの頭部に取り付けられた頭部動作追跡装置が検出した頭部の動きを打ち消すように、広角画像中で表示領域を移動させることで、頭部の動きに追従した画像を再現することができ、ユーザーは全空間を見渡すような体験をする。
図9並びに図10には、画像を観察するユーザーの頭部又は顔部に固定して用いられるヘッド・マウント・ディスプレイ900の外観構成を示している。但し、図9はヘッド・マウント・ディスプレイ900の斜視図であり、図10はヘッド・マウント・ディスプレイ900の左側面図である。
図示のヘッド・マウント・ディスプレイ900は、帽子形状、若しくは、頭部の全周を包む帯状の構造とし、装置の荷重を頭部全体に分散させて、ユーザーの負担を軽減して装着することができる。
ヘッド・マウント・ディスプレイ900は、表示系統を含む大部分の部品を含んだ本体部901と、本体部901の上面から突設した額当て部902と、上バンド904及び下バンド905に分岐されるヘッド・バンドと、左右のヘッドフォンからなる。本体部901内には、表示部や回路基板が収容される。また、本体部901の下方には、鼻背に倣うように鼻当て部903が形設されている。
ユーザーがヘッド・マウント・ディスプレイ900を頭部に装着したとき、額当て部902がユーザーの額に当接するとともに、ヘッド・バンドの上バンド904及び下バンド905がそれぞれ頭部の後方に当接する。すなわち、額当て部902、上バンド904、下バンド905の3点支持によって、ヘッド・マウント・ディスプレイ900がユーザーの頭部に装着される。したがって、主に鼻当て部で重量を支える通常の眼鏡の構造とは相違し、このヘッド・マウント・ディスプレイ900は、その荷重を頭部全体に分散させて、ユーザーの負担を軽減して装着することができる。図示のヘッド・マウント・ディスプレイ900も鼻当て部903を備えているが、補助的な支持しか寄与しない。また、額当て部902をヘッド・バンドで締め付けることで、ヘッド・マウント・ディスプレイ900が装着されたユーザーの頭部から回転しないように、回転方向の動きを支持することができる。
図11には、位置情報とともに記録した画像情報及び音声情報を再生する画像表示システム1100の構成例を模式的に示している。図示の画像表示システム1100は、頭部動作追跡装置1120と、描画装置1130と、表示装置1140で構成される。
表示装置1140は、例えば、図9並びに図10に示したヘッド・マウント・ディスプレイ900として構成され、画像を観察するユーザーの頭部に装着して用いられる。
頭部動作追跡装置1120は、表示装置1140が表示する画像を観察するユーザーの頭部の姿勢情報を所定の送信周期毎に描画装置1130に出力する。図示の例では、頭部動作追跡装置1120は、センサー部1121と、姿勢角演算部1122と、得られた姿勢情報を描画装置1130に送信する送信部1123を備えている。
頭部動作追跡装置1120は、ヘッド・マウント・ディスプレイ900として構成される表示装置1140の本体部901内に搭載することもできる。但し、本実施形態では、表示装置1140の小型・軽量化、低廉化などを意図して、頭部動作追跡装置1120は、表示装置1140に外付けされるオプション製品として提供されるものとする。頭部動作追跡装置1120は、例えばアクセサリーとして、ヘッド・マウント・ディスプレイ900の上バンド904、下バンド905、額当て部902などのいずれかの場所に取り付けて用いられる。
センサー部1121は、例えば、ジャイロ・センサーと加速度センサーと地磁気センサーなど複数のセンサー素子を組み合わせて構成されている。ここでは、3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。姿勢角演算部1122は、センサー部1121による9軸の検出結果に基づいて、ユーザーの頭部の姿勢情報を演算する。送信部1123は、求められた姿勢情報を描画装置1130に送信する。
図示の画像表示システム1100では、頭部動作追跡装置1120と描画装置1130間はBluetooth(登録商標)通信などの無線通信により相互接続されているものとする。勿論、無線通信ではなく、USB(Universal Serial Bus)のような高速な有線インフェース経由で頭部動作追跡装置1120と描画装置1130間を接続するようにしてもよい。
描画装置1130は、表示装置1140で再生出力する画像及び音声のレンダリング処理を行なう。描画装置1130は、例えばスマートフォンなどのAndroid(登録商標)搭載端末、あるいはパーソナル・コンピューター、ゲーム機として構成されるが、これらの装置に限定される訳ではない。また、描画装置1130は、インターネット上のサーバー装置であってもよい。頭部動作追跡装置1120は、ユーザーの頭部姿勢・位置情報を、描画装置1130としてのサーバーに送信し、描画装置1130は、受信した頭部姿勢・位置情報に対応する動画像ストリームを生成すると、表示装置1140にストリーム送信する。
図示の例では、描画装置1130は、頭部動作追跡装置1120から姿勢情報を受信する受信部1131と、姿勢情報に基づいて画像及び音声のレンダリング処理を行なう描画処理部1132と、レンダリングした画像を表示装置1140に送信する送信部1133と、画像及び音声のデータ・ストリームを供給源から取り込むコンテンツ入力部1134を備えている。
受信部1131は、Bluetooth(登録商標)通信などを介して、頭部動作追跡装置1120からユーザーの位置情報並びに姿勢情報を受信する。上述したように、姿勢情報は回転マトリックスで表現されている。
コンテンツ入力部1134は、例えば、図1や図3に示した記録装置140、340、あるいは、記録装置140、340に図6に示した形式で記録されている画像及び音声コンテンツを読み出す再生装置、又は、記録装置140、340に図5に示した形式で記録されている画像及び音声コンテンツをネットワーク経由又は放送信号として受信する受信装置(放送チューナー、通信インターフェース)などからなる。
描画処理部1132は、コンテンツ入力部1134から供給される画像及び音声データから、表示装置1140側で表示する画像及び音声にレンダリングする。本実施形態では、描画処理部1132は、表示装置1140としてのヘッド・マウント・ディスプレイ900を着用するユーザーの位置及び姿勢情報(視線方向)に対応した画像を生成するとともに、ユーザーの位置に音像を定位させることで、エンターテインメント性の高い、退屈しないコンテンツを提供するとともに、臨場感のある音響を与える。描画処理部1132で画像及び音声をレンダリングする処理の詳細については後述に譲る。
描画装置1130と表示装置1140間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High−definition Link)などの有線ケーブルにより接続されている。あるいは、wirelessHDやMiracastのような無線通信で接続してもよい。送信部1133は、いずれかの通信路を用いて、描画処理部1132でレンダリングされた画像及び音声データを非圧縮のまま表示装置1140に送信する。
表示装置1140は、描画装置1130から画像を受信する受信部1141と、画像音声出力部1142を備えている。上述したように、表示装置1140は、画像を観察するユーザーの頭部又は顔部に固定されるヘッド・マウント・ディスプレイ900として構成される。あるいは、表示装置1140は、通常のディスプレイや、シアター内でスクリーン上に画像を投影するプロジェクターなどであってもよい。
受信部1141は、例えばHDMI(登録商標)やMHLなどの通信路を介して、描画装置300から非圧縮の画像データ並びに音声データを受信する。画像音声出力部1142は、画像及び音声を出力するディスプレイ並びにマイクからなり、受信した画像データを画面に表示するとともに、音声出力する。
表示装置1140がヘッド・マウント・ディスプレイ900として構成される場合、例えば、画像音声出力部1142は、ユーザーの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像及び右眼用画像を表示する。画面は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイなどの表示パネル、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示画像を拡大投影して、ユーザーの瞳に所定の画角からなる拡大虚像を結像する虚像光学部を備えている。
図12には、画像表示システム1100の変形例を模式的に示している。図11に示した例では、画像表示システム1100は、頭部動作追跡装置1120、描画装置1130、表示装置1140という3台の独立した装置で構成されるが、図12に示す例では、描画装置1130の機能(すなわち、受信部1131と描画処理部1132、コンテンツ入力部1134)が表示装置1140内に搭載されている。図11に示したように、頭部動作追跡装置1120を表示装置1140に外付けされるオプション製品として構成すれば、表示装置1140の小型・軽量化、低廉化になる。
図13には、図11又は図12に示した画像表示システム1100において、ユーザーの頭部すなわち視線の動きに追従した画像を表示装置1140で表示する仕組みを図解している。
ユーザーの視線の奥行き方向がzw軸、水平方向がyw軸、垂直方向がxw軸であり、ユーザーの基準軸xwwwの原点位置はユーザーの視点位置とする。したがって、ロールθzはユーザーの頭部のzw軸回りの運動、チルトθyはユーザーの頭部のyw軸回りの運動、パンθzはユーザーの頭部のxw軸回りの運動に相当する。
頭部動作追跡装置1120は、ユーザーの頭部のロール、チルト、パンの各方向の動き(θz,θy,θz)や頭部の平行移動からなる姿勢情報を検出して、回転マトリックスMRとして描画装置1130に出力する。
描画装置1130は、ユーザーの頭部の姿勢に追従するように、例えば全天球型の原画像や4Kなどの広画角の原画像1301から切り出す領域1302の中心を移動させ、その中心位置で所定の画角で切り出した領域502の画像をレンダリングする。描画装置1130は、ユーザーの頭部運動のロール成分に応じて領域1302−1を回転させたり、ユーザーの頭部運動のチルト成分に応じて領域1302−2を移動させたり、ユーザーの頭部運動のパン成分に応じて領域1302−3を移動させたりして、頭部動作追跡装置1120が検出した頭部の動きを打ち消すように表示領域を移動させる。
表示装置1140側では、ユーザーの頭部(視線)の動きに追従するように原画像1301中で表示領域が移動する画像を提示することができる。また、本実施形態では、ユーザーの頭部(視線)の動きに追従して、画像とともに音像も定位されるという点に特徴がある。
なお、ユーザーの視点に対応するカメラの撮影画像がない場合には、比較的近い視線を持つ2以上の画像を用いて視点補間すればよい。
図14には、描画装置1130内の描画処理部1132の構成を模式的に示している。
デマルチプレクサー(DEMUX)1401は、コンテンツ入力部1134からの入力ストリームを、音声情報と、画像情報と、音源の位置情報、並びに、画像を撮影したカメラの位置及び姿勢情報に分離する。音声の位置情報は、集音に使用したマイク、又は、発話者などのオブジェクトの位置情報からなる。また、位置情報は、撮影に使用したすべてカメラの座標情報である。
ビデオ・デコーダー1402は、デマルチプレクサー1401で入力ストリームから分離された動画などの画像情報をデコード処理する。また、オーディオ・デコーダー1403は、デマルチプレクサー1401で入力ストリームから分離された音声情報をデコード処理する。
位置情報計算部1404は、画像を撮影したカメラの位置及び姿勢情報、並びに音源の位置情報を入力して、ユーザーに画像及び音声を提供する空間において、画像を視聴するユーザーの位置すなわち仮想ポイントを決定して、そのユーザー座標を計算する。仮想ポイントは、音像を定位させる場所である。仮想ポイントは、例えば、画像を提供する空間の真ん中など、音像定位が好ましいと考えられる代表的な位置とすればよく、撮影に用いた複数のカメラの重心位置でもよい。また、位置情報計算部1404は、頭部動作追跡装置1120から受信したユーザーの現実の位置情報並びに姿勢情報をさらに入力して、仮想ポイントを移動させたり、仮想ポイント上での視線方向を変更したりする。描画装置1130がヘッド・マウント・ディスプレイ900の場合、仮想ポイントはヘッド・マウント・ディスプレイ900を着用したユーザーの頭部の位置及び姿勢に相当する。
画像調整部1405は、ビデオ・デコーダー1402でデコード処理された画像を、各カメラの座標位置と位置情報計算部1404が決定した仮想ポイントに基づいて、画像の調整処理を行なう。仮想ポイントにおけるユーザーと同じ視点のカメラから撮影した画像がない場合には、画像調整部1405は、仮想ポイントから比較的近い2台以上のカメラの撮影画像を用いて、視点補間により仮想ポイントからの視点画像を生成する。
また、音声調整部1406は、オーディオ・デコーダー1403でデコード処理された各音源の音声を、位置情報計算部1404が決定した仮想ポイントに音像定位する。具体的には、音声調整部1406は、ユーザーの視点画像に含まれる発話体(若しくは発話体の音声を集音したマイク)の絶対位置情報を、ユーザーの視点カメラに対する相対位置に変換して、視点画像における発話体の音像を定位する。また、上記のように画像調整部1405で複数のカメラの撮影画像を用いた視点補間を行なう場合には、音声調整部1406は、発話体の絶対位置情報を視点補間カメラの相対位置情報に変換して、視点補間画像において発話体の音像を定位する。これによって、視点カメラのアングルが切り換わると音像の位置が急激に変化するという不自然さを解消することができる。音像定位には、波面合成などスピーカーアレイを用いた手法を用いることができる。
画像・音声レンダリング部1407は、画像調整部1405で処理された画像と、音声調整部1406で処理された音像を同期処理して、例えばHDMI(登録商標)インターフェースを用いて表示装置1140に出力する。
図15には、画像及び音声を再生する処理手順をフローチャートの形式で示している。
ユーザーの位置情報を、例えば頭部動作追跡装置1120を用いて検出する(ステップS1502)。また、デマルチプレクサー1401は、入力ストリームを、音声情報と、画像情報と、音声及び画像の位置情報に分離する(ステップS1503)。そして、入力ストリームが完了するまで(ステップS1501のNo)、以下で説明する画像情報の処理と音声情報の処理が並行して実施される。
画像調整部1405は、ビデオ・デコーダー1402でデコード処理した各カメラの撮影画像を入力するとともに(ステップS1504)、各カメラの座標位置と位置情報計算部1404が決定した仮想ポイントにおけるユーザー座標を入力して、ユーザーの視点画像を生成する(ステップS1505)。ユーザー座標に設置されたカメラの撮影画像がない場合には、画像調整部1405は、仮想ポイントから比較的近い2台以上のカメラの撮影画像を用いて、視点補間により仮想ポイントからの視点画像を生成する。そして、生成された視点画像は、音像と同期させながら表示装置1140に出力して、ユーザーに提示される(ステップS1506)。
また、音声調整部1406は、すべての音源(若しくは発話体の音声を集音したマイク)の絶対位置情報を取得すると(ステップS1507)、これらを仮想ポイントの位置座標(若しくは、ユーザーの視点カメラ)に対する相対位置に変換して(ステップS1508)、視点画像において各音源の音像を定位する(ステップS1509)。そして、生成された音像は、画像と同期させながら表示装置1140に出力して、ユーザーに提示される(ステップS1510)。
図16には、ユーザーに画像及び音声を提供する空間において、仮想ポイント1601を決定、配置する様子を示している。仮想ポイント1601は、音像を定位させる場所である。
ユーザーに提示する画像がプロモーション・ビデオやライブ配信の場合、位置情報計算部1404は、元の会場で音像定位が好ましいと思う場所(若しくは、代表的な場所)を仮想ポイント1601に決定する。図16に示す例では、撮影現場には、2台のカメラCam1、Cam2が設置され、2人の発話者Obj1、Obj2を撮影している。例えば、複数台のカメラCam1、Cam2の撮影画像を用いて視点補間画像を生成する場合、カメラCam1、Cam2間の重心を仮想ポイント1601に決定してもよい。さらに、各カメラCam1、Cam2の位置情報をパンニング、切り替え頻度に基づいて重み付けして、中心位置を計算して、仮想ポイント1601にしてもよい。
また、図17には、画像及び音声を再生する際に、仮想ポイント1701に音像を定位する様子を示している。プロモーション・ビデオやライブ配信画像をシアターで再生する場合、シアター内の座席の中心を図16に示したように決定した仮想ポイントに合わせて、スクリーン1702に画像を投影して提示する。また、シアター内には、前方に3台のスピーカー1711、1712、1713、後方に2台のスピーカー1714、1715が設置され、5.1chサラウンド方式のスピーカーを構成している。そして、スクリーン1702上で画像を提示するのに併せて音源をレンダリングする場合、5.1chのパンニング(音像定位の水平方向変化)、及び、波面合成などスピーカーアレイ1711〜1715を用いた音像定位の手法を用いて、ユーザーがその場にいるような臨場感を再現する。
1台のカメラに対して音像の位置座標が決めっている場合(例えば、特許文献1、2を参照のこと)、画面のパン、切り替え時に音像定位が変わってしまい、ユーザーは自分がどこで聞いているのか分からないという現象が生じてしまう。カメラ・アングルが切り換わると、カメラから音源までの相対位置も変化することから、音像定位する位置が急激に変化してしまい、不自然である。これに対し、本実施形態では、発話体の絶対位置情報をシアター内で設置されたユーザーの位置(すなわち、仮想ポイント1701)に対する相対位置情報に変換して、シアター内の座席位置に対して発話体の音像を定位させている。これによって、ユーザーがどこで聞いているのか分からないという現象を避けることができる。
また、図18には、各カメラの視点画像をヘッド・マウント・ディスプレイで再生する様子を示している。図示の例では、発話体1811、1812を撮影するいずれかのカメラCam1、Cam2の位置にヘッド・マウント・ディスプレイの着用者1801、1802をそれぞれマッピングして、各撮影画像を再生している。このような場合、撮影画像に映っている各発話体の絶対位置情報をいずれかのカメラCam1、Cam2に対する相対位置情報に変換して、発話体を撮影したカメラ位置に対して音像を定位する。したがって、複数台のカメラの視点を切り替えて画像を提示したとしても、提示される画像に映った発話体に音像が提示されるので、各ユーザー1801、1802はどこで聞いているのかが分かり、音像定位を楽しむことができる。
発話体を撮影するカメラCam1、Cam2毎に、撮影した各発話体の相対位置情報を記録するという方法も考えられる。この場合、カメラの設置台数すなわち視点数が増える度に発話体の相対位置情報が増えてしまうという問題がある。これに対し、本実施形態では、記録装置140、340は発話体毎に絶対位置情報を記録しておき、画像及び音声の再生時には、視点を切り換える度に絶対位置情報をカメラに対する相対位置情報に変換して音像定位を行なうので、視点数の増加により発話体の位置情報が増えるという問題はない。
また、ヘッド・マウント・ディスプレイを用いる場合以外でも、任意に視点を切り替えて楽しむようなサービスにおいては、切り替えた視点カメラの位置からの音像定位は、図16においてシアター内で決定した仮想ポイント1601の位置から音像を定位することに相当する。
また、図19には、ユーザーに画像及び音声を提供する空間において、任意の場所に配置した視点の画像を提示する例を示している。図示の例では、発話体Obj1、Obj2を撮影するいずれのカメラCam1、Cam2とも異なる位置にユーザーの視点を配置している。カメラCam1とカメラCam2の間の位置にユーザーの視点が配置される場合、視点補間カメラCamP1を設置し、カメラCam1とカメラCam2の撮影画像を合成して、視点補間カメラCamP1で撮影した視点補間画像を生成する。また、発話体Obj1、Obj2の絶対位置情報を視点補間カメラCamP1に対する相対位置情報に変換して、視点補間カメラCamP1に対して音像を定位する。視点補間カメラCamP2における視点補間画像を提示する場合も同様である。したがって、撮影を行なう現実のカメラが設置されていない視点でも視点補間画像を提示するとともに、視点補間画像に映った発話体に音像が提示されるので、ユーザーはどこで聞いているのかが分かり、音像定位を楽しむことができる。
発話体を撮影するカメラCam1、Cam2毎に、撮影した各発話体の相対位置情報を記録するという方法も考えられる。この場合、カメラ間で非同期に記録されていた発話体の音源位置情報を中心にカメラ間の相対位置が計算されてしまい、効率的でない。これに対し、本実施形態では、発話体毎に絶対位置情報を記録し、視点補間画像を生成した際のその画像内に映っている各発話体の絶対位置情報を視点補間カメラに対する相対位置情報に変換して音像定位を行なうので、処理が効率的である。
また、図20には、視点補間画像をヘッド・マウント・ディスプレイで再生する様子を示している。図示の例では、視点補間カメラCamP1の位置にヘッド・マウント・ディスプレイH1をマッピングして、視点補間画像を再生している。また、視点補間画像に映っている各発話体Obj1、Obj2の絶対位置情報を視点補間カメラCamP1に対する相対位置情報に変換して、視点補間カメラCamP1に対して音像を定位する。視点補間カメラCamP2における視点補間画像をヘッド・マウント・ディスプレイH2で提示する場合も同様である。したがって、撮影を行なう現実のカメラが設置されていない任意の視点でも視点補間画像をヘッド・マウント・ディスプレイで提示するとともに、視点補間画像に映った発話体の位置から正しい音像定位を作り出すことができる。
通常のディスプレイやスクリーン、ヘッド・マウント・ディスプレイなどのレンダリング装置で収録位置(カメラ位置)の画像や任意視点の画像を楽しむ場合、そのレンダリング装置にマイクを装備して、お互いにその場にいるかのように会話することも可能である。
図21には、画像を再生するヘッド・マウント・ディスプレイの着用者も発話体として扱い、その発話内容を音像定位する様子を示している。ヘッド・マウント・ディスプレイH1がマイクを装備する場合、ヘッド・マウント・ディスプレイH1を装着したユーザーも発話体として扱い、視点補間画像に映った各発話体Obj1、Obj2の音像を定位するとともに、ヘッド・マウント・ディスプレイH1のマイクで集音した音声2101を、H1の方向から音像定位して再現する。また、同様に、ヘッド・マウント・ディスプレイH2がマイクを装備する場合、ヘッド・マウント・ディスプレイH2を装着したユーザーも発話体として扱い、視点補間画像に映った各発話体Obj1、Obj2の音像を定位するとともに、ヘッド・マウント・ディスプレイH2のマイクで集音した音声2102を、H2の方向から音像定位して再現する。これによって、ヘッド・マウント・ディスプレイH1、H2を装着した各ユーザーは、お互いにその場にいるかのように会話することが可能である。
また、ヘッド・マウント・ディスプレイH1、H2が各々のユーザーの視点補間画像内で他方のユーザーに対応する場所にアバターや位置情報を表示して、存在を明示するようにしてもよい。また、ライブ会場などでスピーカーアレイ2101などの再生装置がある場合、ヘッド・マウント・ディスプレイH1を装着した聴衆が視聴している位置から演者である発話体Obj1、Obj2に向かって声援2101、2102を送るような音声を再現することができる。
このように、ライブ時は演者も聴衆も動きをリアルタイムに反映させることで、より一層インタラクティブで且つ臨場感のある体験ができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、通常のディスプレイやスクリーン、ヘッド・マウント・ディスプレイなどさまざまなレンダリング装置で画像とともに音声を提示する場合に適用して、正しい音像定位を作り出すことができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)画像及び音声を提供する空間における視聴者の位置を計算する位置情報計算部と、
カメラの位置及び姿勢情報付きで記録された画像情報に基づいて、視聴者の位置における画像を処理する画像処理部と、
音源の位置情報付きで記録された音声情報に基づいて、音像を視聴者の位置に定位する音声処理部と、
を具備する情報再生装置。
(2)前記位置情報計算部は、撮影に用いたカメラの位置及び姿勢情報に基づいて、視聴者の位置を計算する、
上記(1)に記載の情報再生装置。
(3)前記位置情報計算部は、視聴者の現実の動作又は位置に基づいて、視聴者の位置を計算する、
上記(1)又は(2)のいずれかに記載の情報再生装置。
(4)前記位置情報計算部は、複数のカメラ間の重心位置に基づいて、視聴者の位置を計算する、
上記(1)又は(2)のいずれかに記載の情報再生装置。
(5)前記位置情報計算部は、パンニング、切り替え頻度に基づいて重み付けした複数のカメラ間の重心位置に基づいて、視聴者の位置を計算する、
上記(1)又は(2)のいずれかに記載の情報再生装置。
(6)前記画像処理部は、視聴者の位置のカメラで撮影したカメラの画像に基づいて、視聴者の位置における画像を生成する、
上記(1)乃至(5)のいずれかに記載の情報再生装置。
(7)前記画像処理部は、複数のカメラの撮影画像を用いて、視聴者の位置における視点補間画像を生成する、
上記(1)乃至(5)のいずれかに記載の情報再生装置。
(8)前記音声処理部は、視点補間した位置に音像を定位する、
上記(7)に記載の情報再生装置。
(9)前記音声処理部は、視聴者から集音した発話情報を視点補間した位置に基づいて音像定位する、
上記(7)又は(8)のいずれかに記載の情報再生装置。
(10)前記画像処理部は、視点補間画像内で視聴者に対応する場所にアバター又は視聴者の位置情報を表示する、
上記(7)又は(8)のいずれかに記載の情報再生装置。
(11)前記音声処理部は、視聴者の位置からの視点画像に含まれる音源の絶対位置情報を視聴者の位置に対する相対位置に変換して、視点画像における音像の音像を定位する、
上記(1)乃至(10)のいずれかに記載の情報再生装置。
(12)画像及び音声を提供する空間における視聴者の位置を計算する位置情報計算ステップと、
カメラの位置及び姿勢情報付きで記録された画像情報に基づいて、視聴者の位置における画像を処理する画像処理ステップと、
音源の位置情報付きで記録された音声情報に基づいて、音像を視聴者の位置に定位する音声処理ステップと、
を有する情報再生方法。
(13)カメラの撮影画像とカメラの位置及び姿勢情報を記録する画像情報記録部と、
音源の位置情報を記録する音声情報記録部と、
を具備する情報記録装置。
(14)前記画像情報記録部は、カメラの撮影画像とカメラの位置及び姿勢情報をそれぞれ画像用のパケット形式で記録し、
前記音声情報記録部は、音源の位置情報を音声用のパケット形式で記録する、
上記(13)に記載の情報記録装置。
(15)前記画像情報記録部は、カメラの撮影画像とカメラの位置及び姿勢情報をそれぞれ画像用のトラックに記録し、
前記音声情報記録部は、音源の位置情報を音声用のトラックに記録する、
上記(13)に記載の情報記録装置。
(16)前記画像情報記録部は、カメラから受信した撮影画像と、カメラ位置センサーから受信した位置及び姿勢情報を記録する、
上記(13)乃至(15)のいずれかに記載の情報記録装置。
(17)前記音声情報記録部は、音源検出装置から受信した音源の位置情報を記録する、
上記(13)乃至(15)のいずれかに記載の情報記録装置。
(18)前記音声情報記録部は、音源検出装置から受信した音声情報又は後で録音された音声情報をその音源の位置情報とともに記録する、
上記(13)乃至(17)のいずれかに記載の情報記録装置。
(19)画像記録用の同期信号(クロック)に同期し、あるいは分周、間引かれたタイミング信号を基準に、カメラの位置及び姿勢情報、音源の位置情報を記録する、
上記(13)乃至(18)のいずれかに記載の情報記録装置。
(20)カメラの撮影画像とカメラの位置及び姿勢情報を受信するステップと、
受信したカメラの撮影画像とカメラの位置及び姿勢情報を記録するステップと、
音源の位置情報を受信するステップと、
受信した音源の位置情報を記録する音声情報記録部と、
を有する情報記録方法。
(21)カメラの位置及び姿勢情報付きで撮影画像を記録するとともに音源の位置情報付きで音声情報を記録する記録装置と、
視聴者の位置をある点に置いて、位置及び姿勢情報付きで記録された画像を用いて視聴者の視点からの画像を提示するとともに、記録された音声情報をその位置情報に基づいて視聴者の位置に音像定位する再生装置と、
を具備する情報記録再生システム。
100…記録システム
110−1、110−2、……カメラ
120−1、120−2、……マイク
130…同期信号生成装置
140…記録装置
300…記録システム
310−1、310−2、……カメラ
320−1、320−2、……音位置センサー
330…同期信号生成装置
340…位置情報受信装置
350…記録装置
900…ヘッド・マウント・ディスプレイ
901…本体部、902…額当て部、903…鼻当て部
904…上バンド、905…下バンド
1100…画像表示システム
1120…頭部動作追跡装置、1121…センサー部
1122…姿勢各演算部、1123…送信部
1130…描画装置
1131…受信部、1132…描画処理部、1133…送信部
1134…コンテンツ入力部
1140…表示装置
1141…受信部、1142…画像音声出力部
1401…デマルチプレクサー、1402…ビデオ・デコーダー
1403…オーディオ・デコーダー、1404…位置情報計算部
1405…画像調整部、1406…音声調整部
1407…画像・音声レンダリング部

Claims (20)

  1. 画像及び音声を提供する空間における視聴者の位置を計算する位置情報計算部と、
    カメラの位置及び姿勢情報付きで記録された画像情報に基づいて、視聴者の位置における画像を処理する画像処理部と、
    音源の位置情報付きで記録された音声情報に基づいて、音像を視聴者の位置に定位する音声処理部と、
    を具備する情報再生装置。
  2. 前記位置情報計算部は、撮影に用いたカメラの位置及び姿勢情報に基づいて、視聴者の位置を計算する、
    請求項1に記載の情報再生装置。
  3. 前記位置情報計算部は、視聴者の現実の動作又は位置に基づいて、視聴者の位置を計算する、
    請求項1に記載の情報再生装置。
  4. 前記位置情報計算部は、複数のカメラ間の重心位置に基づいて、視聴者の位置を計算する、
    請求項1に記載の情報再生装置。
  5. 前記位置情報計算部は、パンニング、切り替え頻度に基づいて重み付けした複数のカメラ間の重心位置に基づいて、視聴者の位置を計算する、
    請求項1に記載の情報再生装置。
  6. 前記画像処理部は、視聴者の位置のカメラで撮影したカメラの画像に基づいて、視聴者の位置における画像を生成する、
    請求項1に記載の情報再生装置。
  7. 前記画像処理部は、複数のカメラの撮影画像を用いて、視聴者の位置における視点補間画像を生成する、
    請求項1に記載の情報再生装置。
  8. 前記音声処理部は、視点補間した位置に音像を定位する、
    請求項7に記載の情報再生装置。
  9. 前記音声処理部は、視聴者から集音した発話情報を視点補間した位置に基づいて音像定位する、
    請求項7に記載の情報再生装置。
  10. 前記画像処理部は、視点補間画像内で視聴者に対応する場所にアバター又は視聴者の位置情報を表示する、
    請求項7に記載の情報再生装置。
  11. 前記音声処理部は、視聴者の位置からの視点画像に含まれる音源の絶対位置情報を視聴者の位置に対する相対位置に変換して、視点画像における音像の音像を定位する、
    請求項1に記載の情報再生装置。
  12. 画像及び音声を提供する空間における視聴者の位置を計算する位置情報計算ステップと、
    カメラの位置及び姿勢情報付きで記録された画像情報に基づいて、視聴者の位置における画像を処理する画像処理ステップと、
    音源の位置情報付きで記録された音声情報に基づいて、音像を視聴者の位置に定位する音声処理ステップと、
    を有する情報再生方法。
  13. カメラの撮影画像とカメラの位置及び姿勢情報を記録する画像情報記録部と、
    音源の位置情報を記録する音声情報記録部と、
    を具備する情報記録装置。
  14. 前記画像情報記録部は、カメラの撮影画像とカメラの位置及び姿勢情報をそれぞれ画像用のパケット形式で記録し、
    前記音声情報記録部は、音源の位置情報を音声用のパケット形式で記録する、
    請求項13に記載の情報記録装置。
  15. 前記画像情報記録部は、カメラの撮影画像とカメラの位置及び姿勢情報をそれぞれ画像用のトラックに記録し、
    前記音声情報記録部は、音源の位置情報を音声用のトラックに記録する、
    請求項13に記載の情報記録装置。
  16. 前記画像情報記録部は、カメラから受信した撮影画像と、カメラ位置センサーから受信した位置及び姿勢情報を記録する、
    請求項13に記載の情報記録装置。
  17. 前記音声情報記録部は、音源検出装置から受信した音源の位置情報を記録する、
    請求項13に記載の情報記録装置。
  18. 前記音声情報記録部は、音源検出装置から受信した音声情報又は後で録音された音声情報をその音源の位置情報とともに記録する、
    請求項13に記載の情報記録装置。
  19. 画像記録用の同期信号(クロック)に同期し、あるいは分周、間引かれたタイミング信号を基準に、カメラの位置及び姿勢情報、音源の位置情報を記録する、
    請求項13に記載の情報記録装置。
  20. カメラの撮影画像とカメラの位置及び姿勢情報を受信するステップと、
    受信したカメラの撮影画像とカメラの位置及び姿勢情報を記録するステップと、
    音源の位置情報を受信するステップと、
    受信した音源の位置情報を記録する音声情報記録部と、
    を有する情報記録方法。
JP2016514734A 2014-04-22 2015-01-19 情報再生装置及び情報再生方法 Active JP6565903B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014087848 2014-04-22
JP2014087848 2014-04-22
PCT/JP2015/051287 WO2015162947A1 (ja) 2014-04-22 2015-01-19 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法

Publications (2)

Publication Number Publication Date
JPWO2015162947A1 true JPWO2015162947A1 (ja) 2017-04-13
JP6565903B2 JP6565903B2 (ja) 2019-08-28

Family

ID=54332121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016514734A Active JP6565903B2 (ja) 2014-04-22 2015-01-19 情報再生装置及び情報再生方法

Country Status (5)

Country Link
US (1) US20170127035A1 (ja)
EP (1) EP3136713A4 (ja)
JP (1) JP6565903B2 (ja)
CN (1) CN106165402A (ja)
WO (1) WO2015162947A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016084592A1 (ja) * 2014-11-28 2016-06-02 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
GB2543275A (en) * 2015-10-12 2017-04-19 Nokia Technologies Oy Distributed audio capture and mixing
US10750161B2 (en) * 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
US10206040B2 (en) * 2015-10-30 2019-02-12 Essential Products, Inc. Microphone array for generating virtual sound field
JP6058855B1 (ja) * 2016-07-07 2017-01-11 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10896544B2 (en) * 2016-10-07 2021-01-19 Htc Corporation System and method for providing simulated environment
JP6894687B2 (ja) * 2016-10-11 2021-06-30 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP6727106B2 (ja) 2016-11-30 2020-07-22 キヤノン株式会社 画像音響処理装置および画像音響処理方法、プログラム
JP6242473B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6212667B1 (ja) * 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
WO2019031004A1 (ja) * 2017-08-09 2019-02-14 ソニー株式会社 撮像システム、撮像装置及び撮像方法
WO2019188394A1 (ja) 2018-03-30 2019-10-03 ソニー株式会社 信号処理装置および方法、並びにプログラム
CN111050271B (zh) * 2018-10-12 2021-01-29 北京微播视界科技有限公司 用于处理音频信号的方法和装置
JP6951610B1 (ja) * 2020-07-20 2021-10-20 株式会社ウフル 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
US20220191638A1 (en) * 2020-12-16 2022-06-16 Nvidia Corporation Visually tracked spatial audio
WO2022137606A1 (ja) * 2020-12-22 2022-06-30 株式会社エイリアンミュージックエンタープライズ 管理サーバ

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (ja) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd 立体cg動画像生成装置
JP2002199500A (ja) * 2000-12-25 2002-07-12 Sony Corp 仮想音像定位処理装置、仮想音像定位処理方法および記録媒体
JP2006067405A (ja) * 2004-08-30 2006-03-09 Sharp Corp テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP2010122826A (ja) * 2008-11-18 2010-06-03 Sony Computer Entertainment Inc オンライン会話システム、オンライン会話用サーバ、オンライン会話制御方法及びプログラム
JP2012094144A (ja) * 2010-10-25 2012-05-17 Sony Computer Entertainment Inc ビデオの3−d情報および他の情報用の一元管理データベース

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598478A (en) * 1992-12-18 1997-01-28 Victor Company Of Japan, Ltd. Sound image localization control apparatus
US20010056574A1 (en) * 2000-06-26 2001-12-27 Richards Angus Duncan VTV system
JP2003244800A (ja) * 2002-02-14 2003-08-29 Matsushita Electric Ind Co Ltd 音像定位装置
GB2414369B (en) * 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
JP2008151766A (ja) * 2006-11-22 2008-07-03 Matsushita Electric Ind Co Ltd 立体音響制御装置及び立体音響制御方法
US20080118074A1 (en) * 2006-11-22 2008-05-22 Shuichi Takada Stereophonic sound control apparatus and stereophonic sound control method
CN102057693B (zh) * 2008-06-12 2013-06-19 松下电器产业株式会社 内容再现装置及内容再现方法
JP5035195B2 (ja) * 2008-09-25 2012-09-26 Kddi株式会社 画像生成装置及びプログラム
US8477175B2 (en) * 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
JP5255522B2 (ja) * 2009-06-01 2013-08-07 日本放送協会 表示・撮影装置
JP5494284B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
JP2012119804A (ja) * 2010-11-30 2012-06-21 Canon Inc 画像記録装置
CN102572217B (zh) * 2011-12-29 2014-08-20 华为技术有限公司 基于视觉关注的多媒体处理方法及装置
CA2864003C (en) * 2012-02-23 2021-06-15 Charles D. Huston System and method for creating an environment and for sharing a location based experience in an environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (ja) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd 立体cg動画像生成装置
JP2002199500A (ja) * 2000-12-25 2002-07-12 Sony Corp 仮想音像定位処理装置、仮想音像定位処理方法および記録媒体
JP2006067405A (ja) * 2004-08-30 2006-03-09 Sharp Corp テレビ放送送信機、テレビ放送受信機、ブロードキャスト番組参加システム、及び方法
JP2010122826A (ja) * 2008-11-18 2010-06-03 Sony Computer Entertainment Inc オンライン会話システム、オンライン会話用サーバ、オンライン会話制御方法及びプログラム
JP2012094144A (ja) * 2010-10-25 2012-05-17 Sony Computer Entertainment Inc ビデオの3−d情報および他の情報用の一元管理データベース

Also Published As

Publication number Publication date
EP3136713A4 (en) 2017-12-06
JP6565903B2 (ja) 2019-08-28
WO2015162947A1 (ja) 2015-10-29
CN106165402A (zh) 2016-11-23
EP3136713A1 (en) 2017-03-01
US20170127035A1 (en) 2017-05-04

Similar Documents

Publication Publication Date Title
JP6565903B2 (ja) 情報再生装置及び情報再生方法
US11240622B2 (en) Mixed reality system with spatialized audio
CN106162206A (zh) 全景录制、播放方法及装置
WO2017183319A1 (ja) ロボットおよび筐体
JP6580516B2 (ja) 処理装置および画像決定方法
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
JP7457525B2 (ja) 受信装置、コンテンツ伝送システム、及びプログラム
WO2020144937A1 (ja) サウンドバー、オーディオ信号処理方法及びプログラム
WO2017002642A1 (ja) 情報機器及び表示処理方法
JP2015004948A (ja) 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム
JP6538003B2 (ja) アクチュエータ装置
WO2017183294A1 (ja) アクチュエータ装置
WO2020129115A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6616023B2 (ja) 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム
WO2020031453A1 (ja) 情報処理装置及び情報処理方法、並びに映像音声出力システム
WO2017183292A1 (ja) 処理装置および画像決定方法
JP2017146578A (ja) Vrカラオケ
JP6431225B1 (ja) 音響処理装置、映像音響処理装置、映像音響配信サーバおよびそれらのプログラム
JP6615716B2 (ja) ロボットおよび筐体
JP6518620B2 (ja) 位相差増幅装置
WO2021095536A1 (ja) 情報処理装置、情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R151 Written notification of patent or utility model registration

Ref document number: 6565903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151