JP6012342B2 - 再生装置、再生装置の制御方法 - Google Patents

再生装置、再生装置の制御方法 Download PDF

Info

Publication number
JP6012342B2
JP6012342B2 JP2012192926A JP2012192926A JP6012342B2 JP 6012342 B2 JP6012342 B2 JP 6012342B2 JP 2012192926 A JP2012192926 A JP 2012192926A JP 2012192926 A JP2012192926 A JP 2012192926A JP 6012342 B2 JP6012342 B2 JP 6012342B2
Authority
JP
Japan
Prior art keywords
image
refocus
sound
output
refocusable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012192926A
Other languages
English (en)
Other versions
JP2014050005A5 (ja
JP2014050005A (ja
Inventor
池田 信吾
信吾 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012192926A priority Critical patent/JP6012342B2/ja
Priority to US14/015,597 priority patent/US9066065B2/en
Publication of JP2014050005A publication Critical patent/JP2014050005A/ja
Publication of JP2014050005A5 publication Critical patent/JP2014050005A5/ja
Application granted granted Critical
Publication of JP6012342B2 publication Critical patent/JP6012342B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は再生装置、再生装置の制御方法に関する。
近年、ライトフィールド(登録商標)カメラと呼ばれる、異なる焦点距離を持つマイクロレンズの集まり(マイクロレンズアレイ)と高解像度の撮像素子を備えたカメラが知られている。この種のカメラの1回の撮影で得られた画像データを用いることで、再生時に任意の位置に焦点を合わせた画像を再構築することができる。
例えば、特許文献1には、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。この分割された光電変換部は、1つのマイクロレンズを介して撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成され、これらの分割された光電変換部それぞれからの光電変換信号から、分割された瞳部分領域に応じた複数の視差画像を生成することができる。そして、得られた複数の視差画像を用いて、フォーカスしたい箇所を合成処理することにより撮影後にフォーカスを合わせることが開示されている。
米国特許第4410804号公報
しかしながら、ライトフィールド(登録商標)カメラや特許文献1の撮像装置で、動画を撮影した場合、再フォーカスした位置に適した音声を再生できなくなってしまう場合があった。
すなわち、通常の撮像装置で動画撮影を行う場合、音声の指向性や遅延時間などを撮影時に予め決定して撮影を行っていたが、再フォーカス可能な動画を撮影した場合には、再生時に音声の指向性や遅延時間などを手動で調整しなくてはならないという問題があった。
そこで本発明は、再フォーカス可能な動画を再生する場合に自動的に音声の指向性や遅延時間を調整することができる再生装置を提供することを目的とする。
本発明の再生装置は、再フォーカス可能な画像を取得する画像取得手段と、前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得手段と、前記再フォーカス可能な画像の再フォーカス位置に応じて、前記音声取得手段により取得された音声の出力のタイミングを制御する制御手段とを有し、前記制御手段は、前記音声のサンプリング周波数を調整することにより、前記音声の出力のタイミングを制御する。
本発明の再生装置は、再フォーカス可能な画像を取得する画像取得手段と、前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得手段と、前記音声取得手段により取得された音声を出力する出力手段と、前記再フォーカス可能な画像の再フォーカス位置に応じて、前記音声取得手段により取得された音声の指向特性を調整して出力するように前記出力手段を制御する制御手段と、前記画像取得手段により取得された前記再フォーカス可能な画像を用いて、表示装置に出力するための画像を生成する処理手段とを有し、前記処理手段は、前記再フォーカス可能な画像を用いて、異なる再フォーカス位置の複数の再フォーカス画像を生成し、前記複数の再フォーカス画像の一つを前記表示装置に出力するための画像として選択し、前記制御手段は、前記表示装置に出力するための画像の再フォーカス位置に応じて、前記音声取得手段により得られた音声の指向特性を調整して出力するように前記出力手段を制御する。
本発明によれば、再フォーカス可能な動画を再生する場合に自動的に音声の指向性や遅延時間を調整することができ、手動調整の手間を軽減することができる。
本実施例の撮像装置100のブロック図である。 本実施例の光学系の説明図である。 本実施例の光学系の説明図である。 本実施例の視差画像の生成について説明するための図である。 本実施例のリフォーカス画像と仮想的なフォーカス位置の関係を示す図である。 本実施例の音声出力タイミングの調整について説明するための図である。 本実施例の撮像装置700のブロック図である。 本実施例のマイクの配置を示す図である。 本実施例のフォーカス位置を示す図である。 本実施例の音声の指向特性の調整について説明するための図である。
以下、図面を参照して本発明の実施形態について詳細に説明するが、本発明は以下の実施形態に限定されるものではない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。
なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。
(実施例1)
本実施例においては、再生装置の例として、再フォーカス可能な動画を撮影することができる撮像装置を例にとって説明する。本実施例の撮像装置100は、再フォーカス可能な動画を撮影し得られた動画データと、撮影時に得られた音声データを記録媒体に記録することができる。また、記録媒体に記録された動画データと音声データを再生することができる。再生時には、動画の任意の位置に再フォーカス処理を行うことができ、その再フォーカス位置に応じて、再生時の音声の出力タイミングを調整することができる。なお、再フォーカス可能な動画は、複数フレームの再フォーカス可能な画像と音声データとからなる。すなわち、本実施例の撮像装置は、再フォーカス可能な画像を毎秒30回撮影して、複数フレームの再フォーカス可能な画像データと、マイクにより集音された音声データとを多重化して(関連づけて)記録媒体に記録する。
以下、このような撮像装置について説明する。
図1は、本実施例の撮像装置100の構成を示すブロック図である。
本実施例の撮像装置100は、図1に示すように、主レンズ101、マイクロレンズアレイ102、撮像素子103、LFデータ入力部104、メモリ105、映像出力部106、表示パネル107を有する。また、撮像装置100は、メディアI/F108、記録メディア109、メモリバス110、マイク111、音声入力部112、音声出力部113、リフォーカス処理部114、操作部115、コントローラ116、多重分離部117を有する。
本実施例の撮像装置100は、基本的にはコントローラ116の制御により動作し、各ブロックは、コントローラ116により制御されているものとする。また、各構成要素はメモリバス110に接続され、メモリ105に対してデータのやり取りを行なってデータ処理を行なっている。メモリ105は高速でランダムアクセス可能なダイナミックRAMである。コントローラ116は、各構成要素からのメモリアクセス要求を調停し、時分割でメモリ105へのデータ読み書きが行なえるよう制御している。
次に、撮像装置100の各ブロックについて説明する。
コントローラ116は、撮像装置100の各ブロックを制御するもので、例えばマイクロコンピュータや、CPUとRAMの組み合わせなどからなる。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。
主レンズ101は、単一または複数のレンズからなる結像光学系であり、前面(図の左側)から被写体の光を受けて、マイクロレンズ102面に投射する。なお、主レンズ101にはフォーカス機能やズーム機能を持たせるよう構成してもよい。
マイクロレンズ102は、主レンズ101と撮像素子103の間に配置され、主レンズ101からの光線を入射角度に応じて分光し、撮像素子103に出射するものである。マイクロレンズ102は、例えば、複数のレンズ群からなるマイクロレンズアレイである。
撮像素子103は、CCDあるいはCMOSセンサ等の光電変換素子であり、複数の画素(光電変換素子)がマトリクス状に配置されており、マイクロレンズ102から入射された光を電気信号に変換し画像信号としてLFデータ入力部104へ出力する。
LFデータ入力部104は撮像素子103により得られた画像信号をデジタル化し、現像処理を行って、再フォーカス可能な画像データ(以後、LFデータ)に変換し、メモリ105のLFデータ領域に格納する。本実施例においては、撮影により得られたLFデータを、メモリ105のLFデータ領域に格納し、後に例えば15個のLFデータと0.5秒分の音声データと多重化して記録媒体に記録する。
マイク111は、集音した音声を電気信号に変換して音声信号を取得し、音声入力部112に出力する。
音声入力部112はマイク111により得られた音声信号をデジタル化し、メモリ105の音声データ領域に格納する。なお、所定の音声圧縮技術を用いて音声データを圧縮しても良い。
多重分離部117は映像ストリームデータの多重、分離を行なう。すなわち、撮影時は撮像により得られた複数のLFデータと音声データをメモリ105から読み出し、所定のフォーマットで多重化して、多重化ストリームデータを生成する。また、リフォーカス処理部114で使うための、レンズ情報、撮影情報を多重化ストリームデータに多重する。多重分離部117は、生成した多重化ストリームデータをメモリ105の多重化ストリームデータ領域に格納する。ここでいうレンズ情報とは、例えば、レンズの焦点距離に関する情報である。また、撮影情報とは、例えばフォーカス位置、絞り値などである。
また、再生時には、後述の記録メディア109から読出され、メモリ105の多重化ストリームデータ領域に一時保存された多重化ストリームデータを読み出し、複数のLFデータと音声データに分離する。すなわち、再フォーカス可能な画像(LFデータ)の取得(画像取得)および、再フォーカス可能な画像に関連づけられた音声データ音声取得(音声データの取得)を行う。そして、分離した複数のLFデータと音声データを、メモリ105のLFデータ領域と音声データ領域に格納する。また、多重されていたレンズ情報、撮影情報もこのとき分離して、メモリ105に格納する。
メディアI/F108は記録メディア109に対してデータの読み書きを制御するインターフェースである。撮影時はメモリ105の多重化ストリームデータ領域の多重化ストリームデータを記録メディア109に記録する。再生時には、メディアI/F108は、記録メディア109から多重化ストリームデータを読み出して、メモリ105の多重化ストリームデータ領域に格納する。なお、記録メディア109に対してはFATなどのファイルシステム形式でデータ記録を行なっており、ファイルシステムの生成や制御等もメディアI/F108が行なう。
記録メディア109はハードディスクドライブや不揮発半導体メモリ(例えばフラッシュメモリ)である。なお、記録メディアは半導体記録媒体に限られず、磁気記録媒体、光学式記録媒体、などどのような記録場媒体であってもかまわない。
リフォーカス処理部114はメモリ105のLFデータ領域に格納されたLFデータをフレーム単位で読み出して、リフォーカス処理を行って、リフォーカス後の映像フレームを生成しメモリ105の映像信号領域に格納する。リフォーカス処理の詳細は後述する。
映像出力部106はメモリ105の映像信号領域から映像データを読み出し、表示パネル107と、不図示の映像出力端子に出力する。表示パネル107は映像出力部106から入力された映像信号を映像として表示するものであって、例えば液晶パネルや有機ELパネル等である。
音声出力部113はメモリ105の音声データの領域から音声データを読み出し、不図示の音声出力端子に出力したり、アナログ変換を行って音声信号をスピーカから出力したりする。また、音声出力部113は、後述するようにリフォーカス処理により再フォーカス位置に応じて音声の遅延時間を調整する処理も行う。
操作部115はユーザが操作するシャッターボタン、設定ボタン、各種操作ボタン、または前記表示パネル107の表面に配置されたタッチパネルセンサーである。いずれのボタンが操作されたかを示す操作信号は、コントローラ116に送られる。
次に、撮影時における主レンズ101、マイクロレンズ102、撮像素子103、LFデータ入力部104の動作を詳細に説明する。
図2、図3は、本実施例の撮像光学系を示す図である。
図2において、204は、撮像素子103の画素を示している。
図2(a)に示すようにマイクロレンズ102は撮像素子103の前面にマトリクス状に複数配置されている。なお、本実施例におけるマイクロレンズの大きさや数は図示されているものに制限されるものではない。
また、図2(b)に示すように1つのマイクロレンズに対し、撮像素子はn×m個の画素240が対応するように配置されている。この撮像素子の画素数によって光線の分割数が決定される。本実施例の説明では光線の分割数を5×5とし、1つのマイクロレンズに対し5×5個の撮像素子の画素が配置されている状態を図示している。
また、図3に示すように、被写体305から放たれた1点の光307は光束となって主レンズ101に入射する。入射した光束は主レンズ101によって集光されてマイクロレンズ102の表面の結像面308に投射される。投射された光はマイクロレンズ102において光の入射角度によって分光されて、撮像素子103の画素321〜325で受光される。画素321〜325で受光された光は光電変換され撮像信号として出力される。
ここで、画素321で受光される光は光路311からの光束であり、画素322で受光される光は光路312からの光束である。同様に、画素323で受光される光は光路313からの光束であり、画素324で受光される光は光路314からの光束であり、画素325で受光される光は光路315からの光束である。画素321〜325で受光される光は同じ被写体の光でありながら、主レンズ面の異なる領域で受光された光であり、それぞれは視差のある光となる。
ここでは、被写体305の1点の光307が撮像される様子について説明したが、実際には主レンズ前面の全ての被写体から無数の光が主レンズに入射しており、マイクロレンズ全体に被写体が結像するように投射されている。それぞれのマイクロレンズ102は投射された光を分光して、撮像素子のn×m個の画素に出射している。
ここで、LFデータ入力部104は、図4に示すように、マイクロレンズ102の各レンズに対応するn×m個の画素の同じ位置の画素を順に並べた視差画像を生成する。具体的には、411のようにn×m個の画素のうち左上の画素のみを集めた第1の視差画像、412のようにn×m個の画素のうち左上の画素の右隣の画素のみを集めた第2の視差画像をそれぞれ生成する。本実施例では、マイクロレンズ102の各レンズに対して5×5個の画素が対応するため、第25の視差画像まで生成する。
このようにLFデータ入力部104は、撮像された撮像信号をデジタル化し現像処理を行い、第1から第25の視差画像を生成して、一つのLFデータを生成する。すなわち、LFデータにはマイクロレンズに対応するn×m個の視差画像が格納されている。
なお、再生装置においては、n×m個の視差画像のすべてまたは一部を用いて、それらの合成位置をそれぞれシフトして合成することで、所定の位置にフォーカスのあった画像を生成するリフォーカス処理を実行する。
次に、リフォーカス処理部114におけるリフォーカス処理について説明する。
リフォーカス処理部114は、メモリ105のLFデータ領域に格納されたLFデータと撮影時のレンズ情報、撮影情報とを用いて、撮影装置から複数の合焦距離のリフォーカス画像を生成する。
まず、リフォーカス処理部114は、記録メディア109から読出された多重化ストリームデータより分離され、メモリ105のLFデータ領域に格納されたLFデータを読出す。前述のように、各LFデータはそれぞれ、複数の視差画像を格納している。
次に、リフォーカス処理部114は、複数のリフォーカス画像を生成する。本実施例では、LFデータに格納されている複数の視差画像を用いて、8枚のリフォーカス画像を生成するものとするが、リフォーカス画像の生成数は8枚に限られない。図5に示すように、仮想的なフォーカス位置が1mのリフォーカス画像501、2mのリフォーカス画像502、3m〜30mのリフォーカス画像503〜508をそれぞれ、LFデータに格納されている複数の視差画像を合成することで生成する。なお、視差画像のシフト量と仮想的なフォーカス位置は、あらかじめ実験によりその関係を求めることができるため、実験により求めたこれらの情報を用いる。なお、仮想的なフォーカス位置は再フォーカス位置と表現してもよい。この情報は、リフォーカス処理部114に保存されていても良いし、撮像時に多重化ストリームデータにこの情報を多重しておき、再生時に分離して使用するようにしても良い。
次に、リフォーカス画像を選択する処理を行う。これは、ユーザが操作部115を操作することで、コントローラ116により画面上の任意の領域が選択される。リフォーカス処理部114は、指定された領域の画像のコントラストが最も高くなるリフォーカス画像を判定する。例えば、リフォーカス画像501〜508の指定された位置の画像のコントラストをそれぞれ解析し、最もコントラストの高い画像を判定する。
そして、リフォーカス処理部114は、リフォーカス画像506を映像出力部106に送信する。
このようにして、リフォーカス処理部114は、複数のリフォーカス画像を生成すると共に、いずれのリフォーカス画像を表示させるかを判定する。
なお、本実施例においては、ユーザにより指定された領域におけるコントラストを判定するものとしたが、例えば画面中心などの所定の領域のコントラストを判定しても良い。また、コントラストを判定するのではなく、エッジ検出処理を行っても良いし、画像の周波数解析を行って、コントラストの高い画像を判定しても良い。
このような処理を動画の1フレーム毎に行うことで、動画再生中に任意の領域に李フォーカスした画像を表示することができる。
次に、再フォーカス可能な動画の再生中の音声の出力について説明する。
前述したように、記録メディア109に記録されている「再フォーカス可能な動画」は、複数のLFデータと音声データとからなる多重化ストリームデータで構成されている。再生する場合、多重分離部117で、多重化ストリームデータから、音声データを分離して、メモリ105に格納する。
また、リフォーカス処理部114は、さらに、指定された領域のコントラストを例えば、リフォーカス画像506が最もコントラストが高いと判定されると、仮想的なフォーカス位置の情報をコントローラ116に送信する。再フォーカス位置の情報は、リフォーカス画像506を生成するための視差画像のシフト量から、前述した視差画像のシフト量と再フォーカス位置を示す情報に基づいて、再フォーカス位置を求める。具体的には、リフォーカス画像506が選択されているときは再フォーカス位置は、10mである。
コントローラ116は、この再フォーカス位置に基づいて、音声の遅延時間を算出する。具体的には、例えば音速を340m/sとすると、再フォーカス位置、10mの位置からの音声は、10÷340=0.0294秒遅延して集音されていたことになる。コントローラ116は、この遅延時間を算出し、遅延時間に基づいて、音声出力部113における音声出力のタイミングを調整する。
音声出力部113は、メモリ105に記憶された音声データを出力する際には、仮想的には撮像装置の位置で集音された音声を再現する、すなわち0m地点での音声を再生するように映像と同期して再生を行っている。したがて、このまま再生を行うと、10m離れた位置から出力された音声は画像に対して0.0294秒(すなわち、30フレーム毎秒の動画であれば1フレーム分の時間)遅延することになる。そこで、コントローラ116は、仮想的なフォーカス位置に対応する音声の遅延時間分、音声の出力されるタイミングを早くするように調整するように音声出力部113を制御する。
音声出力部113は、音声データを所定のサンプリング周波数で、アナログの音声信号に変換して出力するが、音声の出力タイミングを調整する場合、サンプリング周波数Fs(Hz)を可変する。この動作を図6を用いて説明する。
図6(a)はリフォーカス処理部114が選択したリフォーカス画像の合焦距離の時間変化を示した図である。時間T1,T3,T5にユーザがリフォーカス位置を115から指示しリフォーカス処理の合焦距離を変化し始めている。T1ではT1以前より合焦距離を近くなる画像位置を選択している。そのため、コントローラ116は、図6(b)に示すように、音声出力タイミングを遅くするようにサンプリング周波数Fsを一時的に低くするように音声出力部113を制御する。T3ではT3以前より合焦距離を遠くなる画像位置を選択している。そのため、コントローラ116は、図6(b)に示すように、音声出力タイミングを早くするようにサンプリング周波数Fsを一時的に高くするように、音声出力部113を制御する。このとき、サンプリング周波数Fsの偏差を大きくしすぎると本来の音声の周波数が変わってしまうなどの音質劣化が発生するため、音質劣化の許せる周波数の偏差の最大値と、周波数の偏差の時間変化の最大値を決めておくと、安定した音声再生ができる。そのためには、リップシンク遅延時間を変更するためにT1―T2間、T3−T4間、T5−T6間の期間が必要となる。
なお、リフォーカス処理部114が、ユーザが指定した画像位置のリフォーカス画像にすぐに切り替えると、リップシンク遅延時間を変更する間、画像と音声の遅延が大きくなってしまう。そこで、ユーザが指定した画像位置のリフォーカス画像にすぐに切り替えないようにしても良い。すなわち、音声出力タイミングの変更のために必要な時間の間、目的のリフォーカス画像と表示中のリフォーカス画像の間の仮想的なフォーカス位置の別のリフォーカス画像を順番に表示するようにしても良い。このように、リフォーカス処理の合焦距離を変化させることで画像と音声の遅延差に違和感をなくすことができる。
以上のように、本実施例の撮像装置100は、再フォーカス可能な動画を再生する際に、そのフォーカス領域に応じて、再生時の音声の出力タイミングを調整することができる。そのため、手動調整の手間を軽減することができる。
なお、本実施例においては、複数の視差画像の生成をLFデータ入力部104が記録時に生成するものとして説明したが、リフォーカス処理部114が再生時に生成してもよい。
また、LFデータ入力部104が、記録時に複数のリフォーカス画像を生成して、LFデータを生成しても良い。この場合には、リフォーカス処理部114は、LFデータに格納されている複数のリフォーカス画像の選択を行えば良い。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
なお、本実施例においては、再フォーカス可能な動画を撮影し、記録することができる撮像装置を例にとって説明したが、再フォーカス可能な動画を再生することができる装置であればどのような装置であってもよい。例えば、パソコン、テレビ、ハードディスクレコーダ、カーナビゲーション、携帯電話、スマートフォン、タブレット型情報端末などであってもよい。また、コンピュータに上述した処理を実行させる為のプログラムも本発明の思想に含まれる。
(実施例2)
本実施例においては、再生装置の例として、再フォーカス可能な動画を撮影することができる撮像装置を例にとって説明する。本実施例の撮像装置100は、再フォーカス可能な動画を撮影し得られた動画データと、撮影時に得られた音声データを記録媒体に記録することができる。また、記録媒体に記録された動画データと音声データを再生することができる。再生時には、動画の任意の位置に再フォーカス処理を行うことができ、その再フォーカス位置に応じて、再生時の音声の指向特性を調整することができる。なお、再フォーカス可能な動画は、複数フレームの再フォーカス可能な画像と音声データとからなる。すなわち、本実施例の撮像装置は、再フォーカス可能な画像を毎秒30回撮影して、複数フレームの再フォーカス可能な画像データと、マイクにより集音された音声データとを多重化して記録媒体に記録する。
以下、このような撮像装置について説明する。
図7は、本実施例の撮像装置700の構成を示すブロック図である。
本実施例の撮像装置700は、図7に示すように、主レンズ101、マイクロレンズアレイ102、撮像素子103、LFデータ入力部104、メモリ105、映像出力部106、表示パネル107を有する。また、撮像装置700は、メディアI/F108、記録メディア109、メモリバス110、マイク711、音声入力部712、音声出力部713、リフォーカス処理部114、操作部115、コントローラ716、多重分離部117を有する。
本実施例の撮像装置700は、基本的にはコントローラ716の制御により動作し、各ブロックは、コントローラ716により制御されているものとする。また、各構成要素はメモリバス110に接続され、メモリ105に対してデータのやり取りを行なってデータ処理を行なっている。メモリ105は高速でランダムアクセス可能なダイナミックRAMである。コントローラ716は、各構成要素からのメモリアクセス要求を調停し、時分割でメモリ105へのデータ読み書きが行なえるよう制御している。
次に、撮像装置700の各ブロックについて説明する。
コントローラ716は、撮像装置700の各ブロックを制御するもので、例えばマイクロコンピュータや、CPUとRAMの組み合わせなどからなる。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。
なお、主レンズ101、マイクロレンズアレイ102、撮像素子103、LFデータ入力部104、メモリ105、映像出力部106、表示パネル107については、実施例1と同様であるため説明を省略する。また、メディアI/F108、記録メディア109、メモリバス110、リフォーカス処理部114、操作部115、についても、実施例1と同様であるため説明を省略する。
マイク711は、集音した音声を電気信号に変換して音声信号を取得し、音声入力部712に出力する。本実施例においては、マイク711は、2個以上のマイクから構成されている。例えば、本実施例においては、図8(a)に示すような配置で、3つのマイクからなるものとする。
音声入力部712はマイク711の複数のマイクによりにより得られた複数の音声信号をそれぞれデジタル化し、メモリ105の音声データ領域に格納する。なお、所定の音声圧縮技術を用いて音声データを圧縮しても良い。
音声出力部713はメモリ105の音声データの領域から音声データを読み出し、不図示の音声出力端子に出力したり、アナログ変換を行って音声信号をスピーカから出力したりする。また、音声出力部713は、後述するようにリフォーカス処理により再フォーカスされた合焦位置に応じて音声の指向特性を調整する処理も行う。
次に、再フォーカス可能な動画の再生中の音声の出力について説明する。
まず、記録メディア109に記録されている「再フォーカス可能な動画」は、複数のLFデータと音声データとからなる多重化ストリームデータで構成されている。再生する場合、多重分離部117で、多重化ストリームデータから、音声データを分離して、メモリ105に格納する。
また、リフォーカス処理部114は、さらに、指定された領域のコントラストを例えば、リフォーカス画像506が最もコントラストが高いと判定されると、仮想的なフォーカス位置の情報をコントローラ716に送信する。仮想的なフォーカス位置の情報は、リフォーカス画像506を生成するための視差画像のシフト量から、前述した視差画像のシフト量と仮想的なフォーカス位置を示す情報に基づいて、仮想的なフォーカス位置を求める。具体的には、リフォーカス画像506が選択されているときは仮想的なフォーカス位置は、10mである。また、リフォーカス処理部114は、さらに指定された領域の位置の方向の情報もコントローラ716に送信する。
コントローラ716は、この仮想的なフォーカス位置にと、指定された領域の方向と基づいて、音声の指向特性を調整して出力するように音声出力部713を制御する。本実施例においては、図8(a)のように配置された3個のマイクにより得られた音声を用いるため、例えば、図8(b)のように6個の指向性を持つ音声を生成することができる。図8(b)の方向Aの線上にはマイク1とマイク3により生成された音声、方向Bの線上にはマイク1とマイク2により生成された音声を示している。同様の方法で6チャンネルの音声を生成することができ、さらに生成された6チャンネルの音声をミックスすることで、様々な指向特性の音声を生成することができる。
例えば、図9に示すように、仮想的なフォーカス位置にと、指定された領域の方向によって、フォーカスされている位置が、それぞれA点、B点、C点である場合を例にとって説明する。なお、A点とB点は方向は異なるが、合焦距離が等しい点、A点とC点は方向は同じだが、合焦距離が異なる点である。
この場合、コントローラ716は、各点を仮想的なフォーカス位置とした場合に、図10に示すような音声の指向特性になるように、生成された6チャンネルの音声をミックスするように音声出力部713を制御する。
図10(a)は、図9のA点を仮想的なフォーカス位置とした場合の音声の指向特性を示している。図10(b)は、図9のB点を仮想的なフォーカス位置とした場合の音声の指向特性を示している。図10(c)は、図9のC点を仮想的なフォーカス位置とした場合の音声の指向特性を示している。このように、図10(a)と、図10(b)とを比較してわかるように、指定された位置に応じた指向性の音声を生成している。また、図10(a)と、図10(c)とを比較してわかるように、仮想的なフォーカス位置が遠くなるほど、指向性が狭くなるように音声を生成している。
なお本実施例においては、コントローラ716は、音声の指向特性を変更していたが、さらに実施例1と同様に、出力タイミングを調整しても良い。
以上のように、本実施例の撮像装置100は、再フォーカス可能な動画を再生する際に、そのフォーカス領域に応じて、再生時の音声の出力タイミングを調整することができる。そのため、手動調整の手間を軽減することができる。
なお、本実施例においては、複数の視差画像の生成をLFデータ入力部104が記録時に生成するものとして説明したが、リフォーカス処理部114が再生時に生成してもよい。
また、LFデータ入力部104が、記録時に複数のリフォーカス画像を生成して、LFデータを生成しても良い。この場合には、リフォーカス処理部114は、LFデータに格納されている複数のリフォーカス画像の選択を行えば良い。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
なお、本実施例においては、再フォーカス可能な動画を撮影し、記録することができる撮像装置を例にとって説明したが、再フォーカス可能な動画を再生することができる装置であればどのような装置であってもよい。例えば、パソコン、テレビ、ハードディスクレコーダ、カーナビゲーション、携帯電話、スマートフォン、タブレット型情報端末などであってもよい。また、コンピュータに上述した処理を実行させる為のプログラムも本発明の思想に含まれる。
(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。

Claims (9)

  1. 再フォーカス可能な画像を取得する画像取得手段と、
    前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得手段と、
    前記再フォーカス可能な画像の再フォーカス位置に応じて、前記音声取得手段により取得された音声の出力のタイミングを制御する制御手段とを有し、
    前記制御手段は、前記音声のサンプリング周波数を調整することにより、前記音声の出力のタイミングを制御することを特徴とする再生装置。
  2. 再フォーカス可能な画像を取得する画像取得手段と、
    前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得手段と、
    前記再フォーカス可能な画像の再フォーカス位置に応じて、前記音声取得手段により取得された音声の出力のタイミングを制御する制御手段と、
    前記画像取得手段により取得された前記再フォーカス可能な画像を用いて、表示装置に出力するための画像を生成する処理手段を有し、
    前記処理手段は、前記再フォーカス可能な画像を用いて、異なる再フォーカス位置の複数の再フォーカス画像を生成し、前記複数の再フォーカス画像の一つを前記表示装置に出力するための画像として選択し、
    前記制御手段は、前記表示装置に出力するための画像の再フォーカス位置に応じて、前記音声の出力のタイミングを制御することを特徴とする再生装置。
  3. 再フォーカス可能な画像を取得する画像取得手段と、
    前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得手段と、
    前記音声取得手段により取得された音声を出力する出力手段と、
    前記再フォーカス可能な画像の再フォーカス位置に応じて、前記音声取得手段により取得された音声の指向特性を調整して出力するように前記出力手段を制御する制御手段と
    前記画像取得手段により取得された前記再フォーカス可能な画像を用いて、表示装置に出力するための画像を生成する処理手段とを有し、
    前記処理手段は、前記再フォーカス可能な画像を用いて、異なる再フォーカス位置の複数の再フォーカス画像を生成し、前記複数の再フォーカス画像の一つを前記表示装置に出力するための画像として選択し、
    前記制御手段は、前記表示装置に出力するための画像の再フォーカス位置に応じて、前記音声取得手段により得られた音声の指向特性を調整して出力するように前記出力手段を制御することを特徴とする再生装置。
  4. 前記処理手段は、前記再フォーカス可能な画像のフレーム毎に前記複数の再フォーカス画像を生成することを特徴とする請求項2または3に記載の再生装置。
  5. 前記処理手段は、前記再フォーカス可能な画像の画面における、ユーザにより指定された領域に基づいて、前記複数の再フォーカス画像の一つを選択することを特徴とする請求項4に記載の再生装置。
  6. 前記処理手段は、前記複数の再フォーカス画像のそれぞれにおける前記指定された領域のコントラストに基づいて、前記複数の再フォーカス画像の一つを選択することを特徴とする請求項5に記載の再生装置。
  7. 再フォーカス可能な画像を再生する再生装置の制御方法であって、
    前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得ステップと、
    前記再フォーカス可能な画像の再フォーカス位置に応じて、前記取得された音声の出力のタイミングを制御する制御ステップとを有し、
    前記制御ステップは、前記音声のサンプリング周波数を調整することにより、前記音声の出力のタイミングを制御することを特徴とする再生装置の制御方法。
  8. 再フォーカス可能な画像を再生する再生装置の制御方法であって、
    前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得ステップと、
    前記再フォーカス可能な画像の再フォーカス位置に応じて、前記取得された音声の出力のタイミングを制御する制御ステップと、
    前記再フォーカス可能な画像を用いて、表示装置に出力するための画像を生成する処理ステップとを有し、
    前記処理ステップは、前記再フォーカス可能な画像を用いて、異なる再フォーカス位置の複数の再フォーカス画像を生成し、前記複数の再フォーカス画像の一つを前記表示装置に出力するための画像として選択し、
    前記制御ステップは、前記表示装置に出力するための画像の再フォーカス位置に応じて、前記音声の出力のタイミングを制御することを特徴とする再生装置の制御方法。
  9. 再フォーカス可能な画像を再生する再生装置の制御方法であって、
    前記再フォーカス可能な画像に関連づけられた音声を取得する音声取得ステップと、
    前記再フォーカス可能な画像の再フォーカス位置に応じて、前記音声取得ステップにより取得された音声の指向特性を調整して出力する制御ステップと
    前記再フォーカス可能な画像を用いて、表示装置に出力するための画像を生成する処理ステップとを有し、
    前記処理ステップは、前記再フォーカス可能な画像を用いて、異なる再フォーカス位置の複数の再フォーカス画像を生成し、前記複数の再フォーカス画像の一つを前記表示装置に出力するための画像として選択し、
    前記制御ステップは、前記表示装置に出力するための画像の再フォーカス位置に応じて、前記音声取得ステップにより取得された音声の指向特性を調整して出力することを特徴とする再生装置の制御方法。
JP2012192926A 2012-09-03 2012-09-03 再生装置、再生装置の制御方法 Active JP6012342B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012192926A JP6012342B2 (ja) 2012-09-03 2012-09-03 再生装置、再生装置の制御方法
US14/015,597 US9066065B2 (en) 2012-09-03 2013-08-30 Reproduction apparatus and method of controlling reproduction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012192926A JP6012342B2 (ja) 2012-09-03 2012-09-03 再生装置、再生装置の制御方法

Publications (3)

Publication Number Publication Date
JP2014050005A JP2014050005A (ja) 2014-03-17
JP2014050005A5 JP2014050005A5 (ja) 2015-10-29
JP6012342B2 true JP6012342B2 (ja) 2016-10-25

Family

ID=50187740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012192926A Active JP6012342B2 (ja) 2012-09-03 2012-09-03 再生装置、再生装置の制御方法

Country Status (2)

Country Link
US (1) US9066065B2 (ja)
JP (1) JP6012342B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171089A (ja) * 2012-02-17 2013-09-02 Toshiba Corp 音声補正装置、方法、及びプログラム
JP6216169B2 (ja) * 2012-09-26 2017-10-18 キヤノン株式会社 情報処理装置、情報処理方法
JP6548367B2 (ja) * 2014-07-16 2019-07-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6529267B2 (ja) * 2015-01-23 2019-06-12 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP6509031B2 (ja) * 2015-05-14 2019-05-08 キヤノン株式会社 画像処理装置、画像処理方法及び撮像装置
EP3151534A1 (en) * 2015-09-29 2017-04-05 Thomson Licensing Method of refocusing images captured by a plenoptic camera and audio based refocusing image system
US9756421B2 (en) * 2016-01-22 2017-09-05 Mediatek Inc. Audio refocusing methods and electronic devices utilizing the same
EP3340614A1 (en) * 2016-12-21 2018-06-27 Thomson Licensing Method and device for synchronizing audio and video when recording using a zoom function
WO2018168902A1 (en) * 2017-03-14 2018-09-20 Ricoh Company, Ltd. Sound recording apparatus, sound system, sound recording method, and carrier means
US11431887B2 (en) 2018-07-24 2022-08-30 Sony Semiconductor Solutions Corporation Information processing device and method for detection of a sound image object
JP6979536B2 (ja) * 2018-09-18 2021-12-15 富士フイルム株式会社 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、音声信号処理システム及び撮影装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4410804A (en) 1981-07-13 1983-10-18 Honeywell Inc. Two dimensional image panel with range measurement capability
JP2009130767A (ja) * 2007-11-27 2009-06-11 Panasonic Corp 信号処理装置
JP5748422B2 (ja) * 2010-06-29 2015-07-15 株式会社ザクティ 電子機器
US8593564B2 (en) * 2011-09-22 2013-11-26 Apple Inc. Digital camera including refocusable imaging mode adaptor

Also Published As

Publication number Publication date
US9066065B2 (en) 2015-06-23
US20140064710A1 (en) 2014-03-06
JP2014050005A (ja) 2014-03-17

Similar Documents

Publication Publication Date Title
JP6012342B2 (ja) 再生装置、再生装置の制御方法
CN102739955B (zh) 能生成动态范围宽的全景图像的数据的摄像装置
JP7444162B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2013201752A5 (ja)
JP2009156888A (ja) 音声補正装置及びそれを備えた撮像装置並びに音声補正方法
JP2013141195A (ja) 撮像装置
JP6304293B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2009065587A (ja) 音声記録装置及び音声再生装置
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
JP6323022B2 (ja) 画像処理装置
JP2010258768A (ja) 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
JP6056551B2 (ja) 画像処理プログラムおよびデジタルカメラ
US20130177287A1 (en) Reproduction apparatus, image capturing apparatus, and program
JP2016099598A (ja) 撮像装置、その制御方法、および制御プログラム
US20220264008A1 (en) Image processing device, image processing method, and program
JP2010130403A (ja) 映像制御装置およびそれを備えた撮像装置、表示装置
JP2014022888A (ja) 撮像装置および撮像装置の制御方法
JP6757245B2 (ja) 動画再生装置、撮像装置、動画再生方法及びプログラム
JP2015082721A (ja) 撮像装置、その制御方法およびプログラム
JP2015061235A (ja) 画像処理装置、画像処理方法及びプログラム
KR20140045636A (ko) 레이어드 파노라마 영상 생성 장치
WO2021181966A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2019096950A (ja) 撮像装置、撮像方法及び撮像プログラム
JP2017118427A (ja) 情報端末装置、撮像装置、画像情報処理システム及び画像情報処理方法
JP6172949B2 (ja) 撮像装置、撮像装置の制御方法、画像処理装置および画像処理装置の制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160920

R151 Written notification of patent or utility model registration

Ref document number: 6012342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151