JP6779554B1 - 画像を出力する方法、プログラム及び装置 - Google Patents

画像を出力する方法、プログラム及び装置 Download PDF

Info

Publication number
JP6779554B1
JP6779554B1 JP2020111822A JP2020111822A JP6779554B1 JP 6779554 B1 JP6779554 B1 JP 6779554B1 JP 2020111822 A JP2020111822 A JP 2020111822A JP 2020111822 A JP2020111822 A JP 2020111822A JP 6779554 B1 JP6779554 B1 JP 6779554B1
Authority
JP
Japan
Prior art keywords
image
optical system
partial
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020111822A
Other languages
English (en)
Other versions
JP2022016712A (ja
Inventor
英介 高橋
英介 高橋
鈴木 雅彦
雅彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THETA CORP
Original Assignee
THETA CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=73022348&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6779554(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by THETA CORP filed Critical THETA CORP
Priority to JP2020111822A priority Critical patent/JP6779554B1/ja
Application granted granted Critical
Publication of JP6779554B1 publication Critical patent/JP6779554B1/ja
Priority to PCT/JP2021/004793 priority patent/WO2022004038A1/ja
Priority to TW110108877A priority patent/TWI759136B/zh
Publication of JP2022016712A publication Critical patent/JP2022016712A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

【課題】複数の画像を組み合わせて処理する画像処理において、1つのレンズで撮影した画像に他のレンズなどが写り込んだ領域がある場合に、その写り込んだ領域を他のレンズで撮影した画像を用いて処理する技術を提供する。【解決手段】本開示の一実施形態は、コンピュータが、立体視画像の撮像に用いられる併設された第1の光学系及び第2の光学系のうちの前記第1の光学系により撮像された第1の画像に変更を加えた画像を出力する方法を提供する。この方法は、前記第1の画像に写り込んだ前記第2の光学系の外形の像に対応した部分画像であって、前記第2の光学系により撮像された画像の一部である部分画像を特定することと、前記第1の画像に基づいて前記部分画像に変換を施した変換画像を取得することと、前記第1の画像の前記像を前記変換画像に置き換えることとを含む。【選択図】図5

Description

本発明は、画像を出力する方法、プログラム及び装置に関する。
従来、2つのカメラで撮影した画像をステレオ視に用いることが行われている。一方、魚眼レンズなどの広角レンズを用いて撮影した画像を用いることで、より広域の情報を得ることができる。そこで、それぞれ広角レンズを備える複数のカメラで撮影した画像を用いて、ステレオ視を得る、又は、3次元情報を得ることが提案されている。
特許文献1は、それぞれ魚眼レンズを有する3つ以上のカメラを用いて3次元位置を算出する撮像装置を開示する。この撮像装置では、各カメラのレンズの直径は概ね同じであり、光軸中心を互いに平行にかつ隣り合う2つのレンズが近接して、それらのカメラが配置される。視野角が180°ある魚眼レンズを有する複数のカメラ、例えば第1カメラと第2カメラとを近接して配置することで、第1カメラのレンズや本体が、第2カメラで撮影した画像に写り込む。そこで、特許文献1の撮像装置では、この写り込んだ領域の画素の全てにおいて、各画素値を、他の複数の画像の画素値から算出した平均画素値を用いて補完する。
特開2015−133691号公報
上記特許文献1の技術では、3つ以上のカメラを用いることで、複数点の三次元位置を算出することを主眼としている。映画、風景などの動画を簡便に3Dゴーグルなどに違和感なく表示させ、かつコスト面などを考慮して、最小限の2つのカメラで撮影した画像を用いて、上記写り込んだ領域の処理を行うことが望まれる。開示の技術は、2つのカメラで撮影した画像を組み合わせて処理する画像処理において、1つのカメラで撮影した画像に他のカメラのレンズなどが写り込んだ領域がある場合に、その写り込んだ領域を他のレンズで撮影した画像を用いて適切に置き換えることで、より違和感のない映像を取得するように処理する技術を提供することを目的とする。
本発明の実施形態の一態様は、コンピュータが立体視画像の撮像に用いられる併設された第1の光学系及び第2の光学系のうちの前記第1の光学系により撮像された第1の画像に変更を加えた画像を出力する方法によって例示される。本方法は、前記第1の画像に写り込んだ前記第2の光学系の外形の像に対応した部分画像であって、前記第2の光学系により撮像された画像の一部である部分画像を特定することと、前記第1の画像に基づいて前記部分画像に変換を施した変換画像を取得することと、前記第1の画像の前記像を前記変換画像に置き換えることとを含む。
本発明の実施形態の他の態様は、上記方法をコンピュータに実行させる画像出力プログラムによっても例示される。さらにまた、本発明の実施形態の更なる他の態様は、上記方法により生産された画像を記憶した記憶媒体を生産する方法によっても例示される。さらに、本発明の実施形態の更なる別の他の態様は、上記方法により生産された画像を含む映像を生産する方法によっても例示される。
開示の技術によれば、2つのカメラで撮影した画像を組み合わせて処理する画像処理において、1つのカメラで撮影した画像に他のカメラのレンズなどが写り込んだ領域がある場合に、その写り込んだ領域を他のレンズで撮影した画像を用いて適切に置き換えることで、より違和感のない映像を取得することが可能になる。
図1は、第1の実施形態に係る映像システムの構成を示す概略構成図であり、その制御構成を示すブロック図である。 図2は、図1の映像システムにおいて併設された2つのカメラで撮影した画像フレームの一例を示す。 図3は、図2の画像フレームを分解して表した模式図であり、図3Aは図2の左側の画像の各領域を示す模式図であり、図3Bは図2の右側の画像の各領域を示す模式図である。 図4は、図1の映像システムでの2つのカメラの一方で撮影した画像を、他方のカメラで撮影した画像の一部を用いて変更する流れを概念的に示す模式図であり、図4Aは一方のカメラで撮影した画像を示し、図4Bは一方のカメラで撮影した画像への他方のカメラの写り込み領域に対応する、他方のカメラで撮影した画像の部分画像を示す図であり、図4Cは図4Bの部分画像を用いて一方のカメラで撮影した画像の写り込み領域を置換するところを示す図であり、図4Dは図4Cでの置換後の一方のカメラで撮影した画像を示す図であり、図4Eは図4Aないし図4Cと同様の処理を他方のカメラで撮影した画像に適用した後の画像を示す図である。 図5は、図4Bの部分画像の処理を説明するための模式図であり、図5Aは写り込み領域の一部の境界線と部分画像の一部の境界線を示す。図5Bは写り込み領域のその境界線に合わせるように部分画像のその境界線を歪曲させるところを示す。図5Cは、部分画像が不自然に画像合成された例を示す。図5Dは、部分画像を歪曲させることにより、自然な画像合成の例を示す図である。 図6は、図1の映像システムの画像出力装置での処理のフローチャートである。 図7は、図1の映像システムの画像出力装置での、オペレータからの指示に基づく処理のフローチャートである。 図8は、第2の実施形態に係る映像システムの構成を示す概略構成図であり、その制御構成を示すブロック図である。 図9は、第3の実施形態に係る映像システムの構成を示す概略構成図であり、その制御構成を示すブロック図である。 図10Aから図10Eは、2つのカメラの設定のずれの具体例を説明する図である。 図11は、第4の実施形態に係る映像システムの構成を示す概略構成図であり、その制御構成を示すブロック図である。
以下、本発明に係る実施形態を添付図に基づいて説明する。同一の部品(又は構成)には同一の符号を付してあり、それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰返さない。
なお、本明細書においては、画像に関連して、「領域」という語と「部分画像」或いは単に「画像」という語が用いられているが、これらの語は、画像の領域を示す語であり同義の語とし用いられている点に留意すべきである。
図1は、第1の実施形態に係る、画像編集装置10を含む映像システムS1の構成を示す図である。映像システムS1は、ステレオ視画像つまり立体視画像を提供することができる。
画像編集装置10は、情報処理装置つまりコンピュータである。画像編集装置10は、制御部20を備える。制御部20は、立体視画像の撮像に用いられる併設された2つの光学系により撮影された画像に変更を加えて、変更後のつまり修正済みの画像を出力する。2つの光学系は、2つのカメラ12、14を備え、第1のカメラ12の第1の光学系と、第2のカメラ14の第2の光学系とからなる。第1のカメラ12と第2のカメラ14とを備えて、カメラユニット16は構成されている。制御部20は、これらの光学系により撮影された画像つまり画像フレーム(図2参照)を処理して、例えば立体視画像をもたらすことができる。ここでは、2つのカメラ12、14の各々のレンズ12L、14Lは魚眼レンズであり、視野角が略180°ある。しかし、レンズ12L、14Lはそのような魚眼レンズに限定されず、種々の広角レンズ、例えば視野角が150°のレンズ又は視野角が200°のレンズであってもよい。ここでは、レンズ12L、14Lの直径は概ね同じである。カメラ12、14は、図1に模式的に示すように、光軸中心を互いに平行にかつ隣り合う2つのレンズが近接して、配置される。なお、カメラユニット16は、画像編集装置10に有線でつながっても、無線で、例えばネットワークNを介してつながってもよい。
カメラ12、14は、ドラマなどの映像を撮影するために、車両の外部を撮影するために、或いは、コンサートなどのイベントの映像を撮影するために、撮影装置として設置されることができる。カメラ12、14としては、Charged-Coupled Devices(CCD)、Metal-Oxide-Semiconductor(MOS)あるいはComplementary Metal-Oxide-Semiconductor(CMOS)等のイメージセンサを用いた撮影装置が用いられ得る。
制御部20は、画像編集装置10の作動などを制御する制御手段の一例である。制御部20は、CPUと、主記憶部とを有し、プログラムにより情報処理を実行する。CPUはプロセッサともいう。ただし、CPUは、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPUがマルチコア構成を有していてもよい。上記各部の少なくとも一部の処理は、CPU以外のプロセッサ、例えば、Digital Signal Processor(DSP)、Graphics Processing Unit(GPU)等の専用プロセッサで行われてもよい。また、上記各部の少なくとも一部の処理は、集積回路(IC)、その他のディジタル回路であってもよい。また、上記各部の少なくとも一部にアナログ回路が含まれてもよい。制御部20の主記憶部は主記憶装置の一例である。制御部20におけるCPUは、その主記憶部に実行可能に展開されたコンピュータプログラムを実行し、各種機能を提供する。制御部20における主記憶部は、CPUが実行するコンピュータプログラム及び/又はデータ等を記憶する。制御部20における主記憶部は、Dynamic Random Access Memory(DRAM)、Static Random Access Memory(SRAM)、Read Only Memory(ROM)等である。
制御部20は、記憶部22と接続されている。記憶部22は、所謂外部記憶部であり、制御部20の主記憶部を補助する記憶領域として使用され、制御部20のCPUが実行するコンピュータプログラム及び/又はデータ等を記憶する。記憶部22は、ハードディスクドライブ、Solid State drive(SSD)等である。ここでは、記憶部22に、後述する機能モジュールを実現する画像出力プログラムが記憶されている。
画像編集装置10は、更に、通信部24を備えている。通信部24を介して、画像編集装置10は、インターネット等のネットワークNに接続し、外部の装置(例えば画像出力装置40)と通信可能である。
制御部20は、画像取得部2001、特定部2002、変換部2003、置換部2004、指示調整部2005、出力部2006の各機能モジュールを含む。変換部2003は、色彩処理部2007及び歪曲処理部2008の各機能モジュールを含む。各機能モジュールは、例えば、主記憶部及び/又は記憶部22に記憶されたプログラムを、特に画像出力プログラムを、制御部20つまりそのうちのCPUによって実行することで実現される。ただし、機能モジュールの一部は、他のプロセッサ、ディジタル回路、またはアナログ回路等のハードウェアであってもよい。各機能モジュールは、部、機能部又は手段と言い換えることができる。
画像取得部2001は、カメラ12、14で撮影した画像を含む画像フレームを取得する。第1のカメラ12により撮影された第1の画像と、第2のカメラ14により撮影された第2の画像は統合されて一体的な画像フレームFを構成することができる。画像フレームFは、記憶部22の元データ領域2201に記憶される。
ここで、第1の画像と第2の画像とを一体的に含む画像フレームFの一例を図2に示す。画像フレームFは、第1の画像P12と第2の画像P14とを含む。画像フレームFでは、第1の画像P12の右側に第2の画像P14が位置付けられている。これらの画像P12、P14の位置関係は、カメラユニット16の第1のカメラ12と第2のカメラ14との位置関係に従う。なお、第1の画像P12と第2の画像P14との取扱いは、上記の例に限定されない。
図2の第1の画像P12及び第2の画像P14のそれぞれにおいて、周囲の黒部分は非撮影領域であり、非撮影領域の内側の略円形の部分は撮影領域であり、撮影領域の一部に写り込み領域がある。
図3は、図2の画像フレームを分解して表した模式図であり、図3Aは図2の左側の画像の各領域を示す模式図であり、図3Bは図2の右側の画像の各領域を示す模式図である。図2の画像P12、P14のそれぞれにおける非撮影領域、撮影領域及び写り込み領域は、それぞれが模式図である図3A及び図3Bの画像の領域A、B及びCのそれぞれに対応する。
図2、図3A、図3Bに示すように、第1の光学系の第1のカメラ12のレンズ12L及び第2の光学系の第2のカメラ14のレンズ14Lはそれぞれ魚眼レンズであり、前述のように配置されているので、第1の画像P12には、第2の光学系のカメラ14及び/又はレンズ14Lなどが映り込んだ領域Cがあり、第2の画像P14には、第1の光学系のカメラ12及びレンズ12Lなどが映り込んだ領域Cがある。これらの映り込み領域Cは立体視画像の生成にとって好ましくなく、これを実質的に正規の画像(写り込んだ領域がない場合の画像)にするように修正変更を加えることが望まれる。そこでその変更用に、制御部20は特定部2002、変換部2003、置換部2004の各機能モジュールを備える。以下では、特段断らない限り、画像フレームFのうちの、第1の光学系の第1のカメラ12により撮影された第1の画像P12の変更を一例として各機能部の説明などを行い、第2の光学系の第2のカメラ14により撮影された第2の画像P14の変更についての重複説明を省略する。
特定部2002は、一方の光学系により撮影された画像に写り込んだ他方の光学系の外形の像に対応した部分画像であって、他方の光学系により撮像された画像の一部である部分画像を特定することを実行する。具体的には、特定部2002は、第1の光学系により撮影された第1の画像P12に写り込んだ第2の光学系の外形の像に対応した部分画像Dであって、第2の光学系により撮像された画像P14の一部である部分画像Dを特定する。なお、第1の画像P12に写り込んだ第2の光学系の外形の像は、第1の画像P12の上記写り込み領域Cの部分画像に相当する。
図4Aに、第1の光学系により撮影された第1の画像P12の模式図(図3A参照)を示す。図4Aの第1の画像P12には、写り込み領域Cが右端、つまり第2の光学系側にある。この第1の画像P12の写り込み領域Cに相当する部分画像Dは第2の画像P14では第2の画像P14の写り込み領域Cに重ならず、第2の画像P14の模式図(図3B参照)に相当する図4Bの部分画像Dに対応する。
図4Aの第1の画像P12の写り込み領域Cに対する第2の画像P14の部分画像Dを特定することを、特定部2002は行う。特定部2002による部分画像Dの特定は、第1の画像P12及び第2の画像P14をそれぞれ画像解析することで行われてもよい。画像解析は、学習済み機械学習モデルが用いられてもよい。あるいは、第1の光学系及び第2の光学系の種類に対応して予め定められた領域の情報を部分画像Dの領域と定めることを、特定部2002は行ってもよい。つまり、予め第1の光学系と第2の光学系の特性を調べておいて、その特性データに基づいて演算処理することで部分画像Dが特定されてもよい。
本実施形態では、予め第1の光学系と第2の光学系の特性を調べておいて、その特性データが記憶部22の特性領域2202に記憶されている。特定部2002は、特性領域2202の特性データに基づいて演算処理することで部分画像Dを特定する。こうして特定される部分画像Dは、第2の光学系つまり第2のカメラ14が存在しないとした場合に、第1の画像P12に含まれることとなる画像を形成する元となる被写体を撮像した画像を含む。なお、部分画像Dの特定は他の方法により行われてもよい。
変換部2003は、変更される画像に基づいて部分画像に変換を施した変換画像を取得することを実行する。具体的には、変換部2003は、第1の画像P12に基づいて、第2の画像P14の部分画像Dに変換を施した変換済みの部分画像D1を取得する。変換部2003の色彩処理部2007は、第1の画像P12における第2の光学系の外形の像つまり写り込み領域Cの近傍の画像の色相、明度又は彩度に基づいて、第2の画像P14の部分画像Dの色相、明度又は彩度を変更することを実行する。このようにすることによって、第1の画像P12と、第2の画像P14の部分画像Dとが、違和感なく合成される。
変換部2003の歪曲処理部2008は、第1の画像P12における第2の光学系の外形の像つまり写り込み領域Cの近傍の画像と、第2の画像P14の部分画像Dとが滑らかに接続されるように部分画像Dを歪曲させることを実行する。このようにすることによって、第1の画像P12と、第2の画像P14の部分画像Dとが、滑らかに合成される。
色彩処理部2007は、変更の対象となっている第1の画像P12における写り込み領域Cの近傍の画像の色相、明度又は彩度に基づいて、変換後の部分画像D1を当て嵌めたときに所定の一体感又は連続性を、それを見た者に抱かせるように所定のプログラムに従って部分画像Dの色相、明度又は彩度を変更する。
歪曲処理部2008は、特性領域2202に記憶されている第1の光学系と第2の光学系の特性、例えば視野域のずれなどを考慮し、部分画像Dを歪曲させる。ここでは、特性領域2202に記憶されている第1の光学系と第2の光学系の特性に基づいてこれらの変換処理は実行される。しかし、これらの変換処理つまり色彩処理及び/又は歪曲処理は、第1の光学系の第1の画像P12及び第2の光学系の第2の画像P14と、それらを用いた手作業などでの変換処理後の画像データとを教師データとして学習した人工知能により実行されてもよい。
置換部2004は、第1の画像P12の前述の第2の光学系の像つまり写り込み領域Cを、変換部2003により変換された部分画像つまり変換済みの部分画像D1に置き換えることを実行する。図4Cに示すように、第1の画像の写り込み領域Cを、変換済みの部分画像D1に置き換えること、つまり、画像Bと部分画像D1との画像合成が実行される。既に、変換部2003により色彩処理と歪曲処理とが部分画像Dに対してなされて変換済みの部分画像D1が作成されているので、ここでの置き換えは単に変換済みの部分画像D1を嵌め込むことで成し遂げることができる。これにより、第1の画像P12は、修正変更されて、第2の光学系が無かったとしたときの画像と略同じ自然な画像P12mとなることができる(図4D参照)。
図4Eは、図4Aないし図4Cと同様の処理を他方のカメラ14で撮影した画像P14に適用して変更した後の第2の画像P14mを示す図である。画像フレームFmは、変更後の第1の画像P12mと変更後の第2の画像P14mとを含む。
ここで、歪曲処理部2008による部分画像Dの歪曲処理について、図5に基づいて説明する。
図5Aは、第1の画像P12における写り込み領域Cの一部の境界線P12Lと、それに対応する第2の画像P14における部分画像Dの一部の境界線DLとを並べて示す。図5Aから、第2の画像P14における部分画像Dを、第1の画像P12における写り込み領域Cに当て嵌めようとしても、ずれがあり、置換する場合に連続性に問題があることが理解できよう。この問題を解消するべく、部分画像Dの境界線DLを、特に図5Aで破線の円で囲んだ境界線DLの部分を、図5Bに示すように写り込み領域Cの境界線P12Lに適合させるように部分画像D全体を矢印Y1方向に歪曲させる処理を、歪曲処理は実行する。この処理のために、特性領域2202に記憶されている変換行列式などが用いられ得る。
図5Cは、画像Bに存在する木Tと、部分画像D1aに存在する木Taとの境において、画像合成のずれが生じている例を示している。この場合、部分画像D1aを矢印Y2方向に拡大するように歪曲処理を施して部分画像D1bとすることにより、画像Bに存在する木Tと部分画像D1bに存在する木Tbとが滑らかに接続される。
以上のような部分画像D1への歪曲処理は、画像Bと部分画像D1aのペアに対して、画像Bとオペレータが歪曲処理を施した部分画像D1bのペアを教師データとして、機械学習プロセスを通して機械学習モデルに学習を行わせることで学習済モデルを構築することによっても、達成することができる。
また、部分画像D1の領域が画像Bの領域に重なるように、部分画像Dの境界線DLを画像B側にややシフトさせることで、部分画像D1の領域をやや拡大してもよい。この場合、部分画像D1の境界DLの近傍の透明度が、画像Bの方向に滑らかに高くなるようにすることによって、画像Bと部分画像D1とが滑らかに接続されるようにしてもよい。
上述のように、第2の光学系により撮影された第2の画像P14に関しても、第1の画像P12を用いて同様の修正変更が行われる。これにより、変更後の第1の画像P12mと変更後の第2の画像P14mとを備える変更後の画像フレームFmを得ることができる(図4参照)。変更後の画像フレームは、記憶部22の処理済み領域2203に記憶される。なお、この変更後の画像フレームは、連続的に記憶されて、例えば30画像フレーム/秒で立体映像の提供に用いられるとよい。
なお、ある画像フレームに施された変換を他の画像フレームに施してもよい。或いは、映像のシーンを解析し、略同じシーンに含まれる画像フレームに対しては、そのシーンの1つの画像フレームに適用した変換を他の画像フレームに適用するようにしてもよい。
指示調整部2005は、オペレータから画像出力装置40などを介して指示を受け取り、その指示に応じた画像調整を行う。例えば、オペレータは変更後の画像フレームを用いて立体映像を見たときに、その映像に違和感を覚えたとき、修正の指示を画像出力装置40から画像編集装置10に送信することができる。このためのアプリケーションプログラムが画像出力装置40にインストールされている。この修正の指示は、部分画像Dの領域を拡大又は縮小する指示に相当する。そこで、画像編集装置10の制御部20の指示調整部2005は、修正の指示を受け取ると、その指示に応じて部分画像Dの領域を拡大又は縮小する指令を作成し、特定部2002に送信する。これにより、特定部2002は初期設定により定まる部分画像Dではなく、指令に基づいて定まる部分画像Dを特定することができる。修正の指示は、単に「修正」という指示でもよく、この場合、まず一方に例えば拡大する側に修正を行い、更に修正の指示を受けたときに初期設定よりも縮小する側に修正を行ってもよい。修正の指示の段階で、拡大又は縮小に相当する値をオペレータが選択可能であってもよい。なお、画像出力装置40は、所謂ユーザ端末つまりコンピュータであり、携帯電話、スマートフォン、車載器などであり得、CPUなどの制御部、記憶部などを備える。好ましくは、画像出力装置40は、立体画像の視聴に用いられるゴーグル装置又はそれに準ずる装置であるとよい。
出力部2006は、変更後の第1の画像P12mと変更後の第2の画像P14mとを含む変更後の画像フレームを出力することを実行する。図1の画像出力装置40の表示部(画面)40Dには、出力部2006により出力された変更後の画像フレームに基づいて再生された立体視画像が表示され得る。
ここで、制御部20による上記画像処理を図6のフローチャートに基づいて更に説明する。なお、ステップS601は画像取得部2001での処理ステップであり得、ステップS603は特定部2002での処理ステップであり得、ステップS605は変換部2003での処理ステップであり得、ステップS607は置換部2004の処理ステップであり得、ステップS609は出力部2006の処理ステップであるとよい。なお、以下では、第1の画像P12についてのみ説明するが、第2の画像P14についても同様である。
画像フレームが取得されると(ステップS601)、その写り込み領域Cに対して上記処理が実行される。画像フレームFの第1の画像P12については、同画像フレームFの第2の画像P14において部分画像Dを特定することが行われる(ステップS603)。そして、特定された部分画像Dに対して前述の変換処理が行われて、変換済みの部分画像D1が取得される(ステップS605)。変換処理は、上記色彩処理及び/又は上記歪曲処理を含む。そして、変換済みの部分画像D1で第1の画像P12の写り込み領域Cを置換することが行われる(ステップS607)。その結果得られた変更後の第1の画像P12mを含む変更後の画像フレームFmは、ここでは画像出力装置40等に向けて出力される(ステップS609)。
図7のフローチャートは、図6における部分画像を特定するステップS603の中で実行され得る処理を示している。
画像出力装置40を介してオペレータからの指示を受け取ると(ステップS701)、その指示に応じた部分画像Dの拡張又は縮小が実行される(ステップS703)。これにより特定部2002で特定される部分画像Dの領域を、上述のように拡大したり縮小したりすることができる。また、既に述べたように、部分画像Dと画像Bとが滑らかに接続されるように、部分画像Dと画像Bとが重なる部分において、部分画像Dの透明度を滑らかに変化させてもよい。
以上説明したように、第1の実施形態の画像編集装置10によれば、2つの光学系の一方の画像の写り込み領域を他方の画像の部分画像を用いて処理する際に、より自然な画像を得ることができる。
次に、第2の実施形態について説明する。第2の実施形態については、重複説明をできるだけ避けるべく、第1の実施形態との差異を以下で主に説明し、その他の説明を省略する。なお、第2実施形態でも、第1の実施形態と同じように、既に説明した変更等が同様に可能である。
図8に、第2の実施形態の、撮像システムS2の構成を示す。撮像システムS2は、2つの光学系を備えるカメラユニット16を備えた画像編集装置10Aと、その画像編集装置10Aから提供された画像フレームを処理して立体視画像を出力する画像出力装置50を備える。画像出力装置50は、本開示の画像出力装置に相当し、上記画像編集装置10と概ね同じ構成を備える。ただし、画像出力装置50は、もっぱら立体映像のオーサリングを担当するオペレータが操作する画像出力装置40と異なり、立体映像を視聴するユーザが用いる装置であり、ここでは特にゴーグル装置である。
画像編集装置10Aには、第1のカメラ12と第2のカメラ14とを備えるカメラユニット16が接続されている。画像編集装置10Aは、上記画像編集装置10と同様に、制御部20Aと、記憶部22Aと、通信部24Aとを備える。制御部20Aは上記制御部20と同様の構成を有し、記憶部22Aは上記記憶部22と同様の構成を有し、通信部24Aは上記通信部24と同様の構成を有する。制御部20Aは、画像取得部2001と、送信部2010との各機能モジュールを備える。各機能モジュールは、例えば、主記憶部及び/又は記憶部22Aに記憶されたプログラムを制御部20AつまりそのうちのCPUによって実行することで実現される。
制御部20Aの画像取得部2001は、カメラユニット16により撮影された第1の画像P12と第2の画像P14とを含む画像フレームFを取得する。そして、送信部2010はその画像フレームを、ネットワークNを介して画像出力装置50に送信する。画像取得部2001は記憶部22Aの元データ領域2201に取得した画像フレームを記憶することができる。なお、画像フレームは、ネットワークに代えて、記憶媒体を介して画像出力装置50に提供されてもよいことは言うまでもない。この点は、既に述べた他の実施形態においても同様である。
画像出力装置50は、コンピュータとしての構成を備え、制御部20Bと、記憶部22Bと、通信部24Bとを備える。制御部20Bは上記制御部20と同様の構成を有し、記憶部22Bは上記記憶部22と同様の構成を有し、通信部24Bは上記通信部24と同様の構成を有する。制御部20Bは、画像取得部2001、特定部2002、変換部2003、置換部2004、指示調整部2005、出力部2006の各機能モジュールを含む。制御部20Bの変換部2003は、色彩処理部2007及び歪曲処理部2008の各機能モジュールを含む。各機能モジュールは、例えば、主記憶部及び/又は記憶部22Bに記憶されたプログラム(例えば画像出力プログラム)を制御部20BつまりそのうちのCPUによって実行することで実現される。
画像出力装置50は、更に画像フレーム(図2参照)を表示する表示部50Dを備える。表示部50Dは、立体視画像を表示するゴールグル型モニタを備える。画像出力装置50は、更に入力部50Iを備え、ユーザからの指示を入力することができる。ユーザからの指示は、制御部20Bの指示調整部2005により取得される。なお、入力部50Iは、リモートコントローラであってもよく、またアイドラッキング機能部など体の一部(例えば目)の動きで入力する機能部を含んでもよい。この場合、この機能部は、制御部20Bによって実現されるとよい。
画像出力装置50の制御部20Bの画像取得部2001は、画像編集装置10から送信された画像フレームFを取得する。これにより、制御部20Bは上記機能モジュールを備えるので、第1の実施形態の画像編集装置10と同様に、画像取得部2001、特定部2002、色彩処理部2007及び歪曲処理部2008を含む変換部2003、置換部2004及び/又は指示調整部2005の各々の上記処理を行い、変更後の画像P14mを含む変更後の画像フレームを生成することができる。そして、制御部20Bの出力部2006は、生成した処理済み画像フレームFmを表示部50Dに出力する。
このように、画像編集装置10で画像フレームを処理するのではなく、画像出力装置50において、撮影した画像P12、P14を含む、レンズなどが映りこんだ画像フレームを処理して、変更後の画像フレームを出力してもよい。そして、その画像フレームを用いて立体映像を提供することができる。
なお、上記実施形態で用いたカメラユニット16は、2つのカメラ12、14が当初から一体的に統合されたユニットである。しかし、カメラユニット16は、2つの独立したカメラを並べて設置することで構成されてもよい。この場合についての第3の実施形態を、次に説明する。
第3の実施形態についても、重複説明をできるだけ避けるべく、第1の実施形態との差異を以下で主に説明し、その他の説明を省略する。なお、第3の実施形態でも、第1の実施形態と同じように、既に説明した変更等が同様に可能である。
図9は、第3の実施形態の映像システムS3の構成を示す図である。映像システムS3は、カメラユニット16Aからの画像を取得して編集する画像編集装置10Bを含み、カメラユニット16Aの構成及び画像編集装置10Bの機能の点で、第1の実施形態の映像システムS1と相違する。
カメラユニット16Aは、独立した2つのカメラをそれぞれ所定位置に取り付けることで、2つの光学系を備えることができる。カメラユニット16Aは、ホルダー16Hを備える。そのホルダー16Hの第1ホルダー部に第1のカメラ12Aがねじ等の機械的接続手段で設置及び固定され、同様に、ホルダー16Hの第2ホルダー部に第2のカメラ14Aがねじ等の機械的接続手段で設置及び固定される。カメラ12A、14Aは独立したカメラであること以外、カメラ12、14のそれぞれと同じ構成を備える。
ホルダー16Hは、カメラ12A、14Aを並列配置し、よって立体視野像を得るのに適する画像を取得するように、設計されている。つまり、カメラユニット16Aのホルダー16Hは、そこに設置されたカメラ12A、14Aを、第1及び第2の実施形態のカメラ12、14と同じように一体的に機能させることを可能にするように形成された第1及び第2のホルダーの位置関係、寸法などを有する。
図10Aに、カメラ12Aの光軸のベクトルV12とカメラ14Aの光軸のベクトルV14との関係を示す。なお、図10Aにおいて、ベクトルVbは、カメラ12Aの光軸のベクトルV12とカメラ14Aの光軸のベクトルV14のそれぞれの始点を通るベクトルである。
図10Bは、カメラ14Aの光軸のベクトルV14とベクトルVbとで形成される仮想的な平面H12が示されている。
図10Cは、カメラ12Aの光軸のベクトルV12が、平面H12上に存在し、かつカメラ12Aの光軸のベクトルV12とカメラ14Aの光軸のベクトルV14とが、略平行である状態を示している。図10Cの状態で、カメラ12とカメラ14Aとが、映像を撮影することで、違和感のない立体映像が人間に知覚される。
図10Dは、カメラ12Aの光軸のばらつきを示す図である。カメラ12Aの光軸のベクトルV12aは、平面H12の下側に角度δ1だけ傾いている。このような光軸のベクトルV12aを有する場合、カメラ12Aとカメラ14Aとで撮影された映像は、人間の左右の目による知覚を混乱させることがあるため、人間にとって、違和感を抱かせる映像となってしまうことがある。また、カメラ12Aの光軸のベクトルV12が平面H12上に存在するものの、内側に角度δ2だけ傾いたベクトルV12bが示されている。カメラ12Aがこのような光軸のベクトルV12bを有する場合、カメラ12Aとカメラ14Aとで撮影された映像は、人間の左右の目による知覚を混乱させることは少ないものの、一方の画像において他方のレンズの映り込みの領域がより大きくなるため、この点において好ましいものではない。なお、ベクトルのずれは、以上の例に限定されるものではない。
したがって、図10Dに示されるようなカメラ12Aの光軸のベクトルV12a又はベクトルV12bが存在する場合には、カメラ12A及びカメラ14Aとの物理的な位置関係を、映像の撮影の開始の前において、予め調整しておくように、カメラの操作者に促すことが望ましい。
図10Eは、カメラ12Aの光軸のベクトルV12が、平面H12上に存在し、かつカメラ12Aの光軸のベクトルV12とカメラ14Aの光軸のベクトルV14とが、略平行である状態を示している。しかしながら、平面H12は水平線Hを含まないため、平面H12が水平面を形成していない。図10Eの状態で、カメラ12Aとカメラ14Aとが、映像を撮影する場合には、人間にとってそれほど違和感のない立体映像が人間に知覚されるが、同じ被写体に対する左右の映像に高低差が発生する場合がある。この場合には、予めカメラ12Aとカメラ14Aとの総体的な上下関係を調整するか、ベクトルVbが水平となるように調整することが望ましい。撮影された後であれば、左右の映像の高低差を是正するように、映像の誤差を調整することが望ましい。
このように、図10Eに示した状態の場合には、ホルダー16Hへのカメラ12A、14Aの取付誤差が存在することがある。カメラ12Aのレンズの光軸のベクトルV12と、カメラ14Aのレンズの光軸のベクトルV14とは、略平行であってもカメラのこの取り付け状態によって垂直方向に誤差が存在することがある。この誤差を上記画像処理に反映させるように、画像編集装置10Bの制御部20は、上記機能モジュール2001〜2008に加えて、更に機能モジュールであるキャリブレーション部2009を備える。これらの機能モジュールの各々は、例えば、主記憶部及び/又は記憶部22に記憶されたプログラムを、特に画像出力プログラムを、制御部20つまりそのうちのCPUによって実行することで実現される。ただし、機能モジュールの一部は、例えばキャリブレーション部2009は、他のプロセッサ、ディジタル回路、またはアナログ回路等のハードウェアであってもよい。
カメラ12A、14Aで撮影した画像には、第1及び第2の実施形態のカメラ12、14で撮影した画像と同様に、図9でのそれらの上下のずれなどが生じる。この他、図10に示したように、カメラ12A、14Aで撮影した画像には、カメラ12A、14Aの相対的な位置ずれ、各カメラ12A、14Aの姿勢のゆがみなどに起因したずれ(以下、「カメラずれ」という。)も生じ得る。そこで、キャリブレーション部2009は、画像編集装置10Bの起動時など所定の時期に、作動し、そのカメラずれを補正する。ここでは、キャリブレーション部2009は、所定の時期にのみ作動して、以下の補正値を算出し、その補正値を継続して特定部2002及び/又は変換部2003に使用させる。しかし、キャリブレーション部2009は、ユーザからのキャリブレーション希望入力に従い作動してもよい。そして、キャリブレーション部は、ユーザに対して、カメラの位置を修正するよう促してもよい。
キャリブレーション部2009は、所定の時期に、画像取得部2001が取得したカメラ12A、14Aで撮影した画像を含む画像フレームを取得し、第1のカメラ12Aにより撮影された画像と、第2のカメラ14Aにより撮影された画像とを比べて、補正値を算出する。まず、キャリブレーション部2009は、第1のカメラ12Aにより撮影された画像と、第2のカメラ14Aにより撮影された画像とにおいて、共通の特異点を、好ましくは複数の、更に好ましくは3つ以上の特異点を同定する。これは、既知の画像認識技術により行われ得る。そして、その特異点のずれつまりカメラずれを、カメラユニット16Aにおいて初期設定された初期値に近づける、好ましくは一致させるような補正値を算出する。この補正値の算出のためのプログラム及び/又はデータが画像編集装置10Bの記憶部22に記憶されている。なお、キャリブレーション部2009は、特異点の代わりに、カメラ12A、14Aにマーカーを表示させて撮影させることで得たマーカー画像部を利用して、その演算を行ってもよい。
キャリブレーション部2009が算出したカメラずれの補正値は、ここでは、変換部2003での処理に用いられる。例えば、変換部2003の歪曲処理部2008での歪曲処理において用いられる上記変換行列式に、そのカメラずれの補正値は組み込まれる。
カメラずれの補正値は、カメラ12A、14Aのレンズ12L、14Lによる明るさの違い、視野域の違いも考慮したものであってもよい。したがって、カメラずれの補正値は、変換部2003の色彩処理部2007での処理においても用いられ得る。
なお、キャリブレーション部2009により算出された補正値は、特定部2002による部分画像の特定処理にも用いられるとよい。これにより、部分画像の特定される範囲を、最小限にとどめることができ、よって制御部20による演算処理の負担の軽減を図ることができる。
したがって、第3の実施形態の映像システムS3の画像編集装置10Bは、カメラユニット16Aで撮影した画像を、カメラ12A、14Aに由来するカメラずれを処理しつつ、画像編集の上記処理を行い、変更後の画像フレームを出力することを実行する。これにより、図9の画像出力装置40の表示部40Dには、出力された変更後の画像フレームに基づいて再生された立体視画像がより好適に表示され得る。
次に、第4の実施形態について説明する。第4の実施形態については、重複説明をできるだけ避けるべく、第2及び第3の実施形態との差異を以下で主に説明し、その他の説明を省略する。なお、第4の実施形態でも、上記実施形態と同じように、既に説明した変更等が同様に可能である。
図11に、第4の実施形態の、撮像システムS4の構成を示す。撮像システムS4は、第3の実施形態で説明したカメラユニット16Aと、第2の実施形態で説明した画像編集装置10Aと、その画像編集装置10Aから提供された画像フレームを処理して立体視画像を出力する画像出力装置50Aを備える。画像出力装置50Aは、第2の実施形態で説明した画像出力装置50と、制御部20Bが機能モジュールである上記キャリブレーション部2009を更に備える点で相違する。
映像システムS4の画像編集装置10Aは、カメラユニット16Aのカメラ12A、14Aで撮影した画像を含む画像フレームを画像出力装置50Aに提供する。画像出力装置50Aは、第2の実施形態で説明した画像フレームの処理に際して、第3の実施形態で説明したように、キャリブレーション部2009での処理も実行する。キャリブレーション部2009は、ここでは、画像出力装置50Aでの画像処理の最初の所定の時期にのみ起動し得るが、その他の時期に、例えばユーザからのキャリブレーション希望入力に従い作動してもよい。なお、画像出力装置50Aのキャリブレーション部2009も、上記説明から理解できるように、例えば、主記憶部及び/又は記憶部22Bに記憶されたプログラムを制御部20BつまりそのうちのCPUによって実行することで実現される。
そして、画像出力装置50Aのキャリブレーション部2009で算出したカメラずれの補正値は、特定部2002での処理及び/又は変換部2003での処理に用いられ得る。したがって、画像出力装置50Aの制御部20Bは、より好適に、変更後の画像フレームを生成することができる。そして、制御部20Bの出力部2006は、生成した処理済み画像フレームを表示部50Dに出力する。
なお、上記第3及び第4の実施形態で説明したキャリブレーション部2009による処理は、第1の実施形態の画像編集装置10での処理及び第2の実施形態での画像出力装置50での処理のそれぞれに組み込まれてもよい。
上記の4つの実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。例えば、コンピュータである画像編集装置10、10B及び画像出力装置50、50Aは1つのコンピュータである必要はなく、複数のコンピュータを備える映像システムとして構成されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成によって実現するかは柔軟に変更可能である。
本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD−ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。
なお、上記制御部20又は20Bによる上記処理つまり方法により生産された画像(例えば上記変更後の第1の画像P12mを含む変更後の画像フレームFm)を画像編集装置10、10B又は画像出力装置50、50Aにおいて記憶媒体に記憶させて、その記憶媒体を例えば流通させることができる。この記憶媒体を生産する方法も、本開示は提供する。この場合の記憶媒体は、上記した種々の記憶媒体であり得る。
また、上記実施形態では、画像処理について説明したが、上記処理済み画像P12m、P14mを含む変更後の画像フレームFmを連続して含む映像が画像出力装置40又は画像出力装置50、50Aで提供される。この映像を生産する方法も本開示は含む。
なお、本明細書及び図面では、広角レンズを用いて結像された画像を略円形で例示し、この画像に対しての処理について説明を行った。しかしながら、略円形で示した画像は、例示であって、この略円形の画像の周辺の部分の画像を拡大するなどして、略四角形などの画像に歪曲させた画像に対して本明細書及び図面で説明した画像処理を同様に適用してもよいことは言うまでもない。
以上の図1から図11に示す実施形態に関し、さらに以下の付記を開示する。
(付記1)
コンピュータが、
立体視画像の撮像に用いられる併設された第1の光学系及び第2の光学系のうちの前記第1の光学系により撮像された第1の画像に変更を加えた画像を出力する方法であって、
前記第1の画像に写り込んだ前記第2の光学系の外形の像に対応した部分画像であって、前記第2の光学系により撮像された画像の一部である部分画像を特定することと、
前記第1の画像に基づいて前記部分画像に変換を施した変換画像を取得することと、
前記第1の画像の前記像を前記変換画像に置き換えることと
を含む方法。
(付記2)
前記部分画像は、前記第2の光学系が存在しないとした場合に、前記第1の画像に含まれることとなる画像を形成する元となる被写体を撮像した画像を含む、
付記1に記載の方法。
(付記3)
前記変換画像を取得することは、
前記第1の画像における前記第2の光学系の外形の像の近傍の画像の色相、明度又は彩度に基づいて、前記部分画像の色相、明度又は彩度を変更すること
を含む付記1又は付記2に記載の方法。
(付記4)
前記変換画像を取得することは、
前記第1の画像における前記第2の光学系の外形の像の近傍の画像と、前記部分画像とが滑らかに接続されるように前記部分画像を歪曲させること
を含む付記1から3のいずれか1つに記載の方法。
(付記5)
前記部分画像を特定することは、
前記第1の光学系及び第2の光学系の種類に対応してあらかじめ定められた領域の情報を前記部分画像の領域と定めること
を含む付記1から4のいずれか1つに記載の方法。
(付記6)
前記部分画像の領域を拡大又は縮小する指示を、オペレータから受け取ること
を更に有する付記1から5のいずれか1つに記載の方法。
(付記7)
付記1から6のいずれか1つに記載の方法をコンピュータに実行させる画像出力プログラム。
(付記8)
付記7に記載のプログラムをインストールした画像出力装置。
(付記9)
付記1から6のいずれか1つに記載の方法により生産された画像を記憶した記憶媒体を生産する方法。
(付記10)
付記1から6のいずれか1つに記載の方法により生産された画像を含む映像を生産する方法。
S1、S2、S3、S4 映像システム
10、10A、10B 画像編集装置
50、50A 画像出力装置
12 第1のカメラ(第1の光学系)
14 第2のカメラ(第2の光学系)
16、16A カメラユニット
20、20A、20B 制御部
22、22A、22B 記憶部
24、24A、24B 通信部

Claims (11)

  1. コンピュータが、
    立体視画像の撮像に用いられる併設された第1の光学系及び第2の光学系のうちの前記第1の光学系により撮像された第1の画像に変更を加えた画像を出力する方法であって、
    前記第1の画像に写り込んだ前記第2の光学系の外形の像に対応した部分画像であって、前記第2の光学系により撮像された画像の一部である部分画像を特定することと、
    前記第1の画像に基づいて前記部分画像に変換を施した変換画像を取得することと、
    前記第1の画像の前記像を前記変換画像に置き換えることと
    を含み、
    前記変換画像を取得することは、
    前記第1の画像における前記第2の光学系の外形の像の近傍の画像の色相、明度又は彩度に基づいて、前記部分画像の色相、明度又は彩度を変更すること
    をむ方法。
  2. コンピュータが、
    立体視画像の撮像に用いられる併設された第1の光学系及び第2の光学系のうちの前記第1の光学系により撮像された第1の画像に変更を加えた画像を出力する方法であって、
    前記第1の画像に写り込んだ前記第2の光学系の外形の像に対応した部分画像であって、前記第2の光学系により撮像された画像の一部である部分画像を特定することと、
    前記第1の画像に基づいて前記部分画像に変換を施した変換画像を取得することと、
    前記第1の画像の前記像を前記変換画像に置き換えることと
    を含み、
    前記部分画像を特定することは、
    前記第1の光学系及び第2の光学系の特性データを用いて特定された領域の情報を前記部分画像の領域と定めること
    をむ方法。
  3. コンピュータが、
    立体視画像の撮像に用いられる併設された第1の光学系及び第2の光学系のうちの前記第1の光学系により撮像された第1の画像に変更を加えた画像を出力する方法であって、
    前記第1の画像に写り込んだ前記第2の光学系の外形の像に対応した部分画像であって、前記第2の光学系により撮像された画像の一部である部分画像を特定することと、
    前記第1の画像に基づいて前記部分画像に変換を施した変換画像を取得することと、
    前記第1の画像の前記像を前記変換画像に置き換えることと、
    前記部分画像の領域を拡大又は縮小する指示を、オペレータから受け取ることと
    を含む方法。
  4. 前記部分画像は、前記第2の光学系が存在しないとした場合に、前記第1の画像に含まれることとなる画像を形成する元となる被写体を撮像した画像を含む、
    請求項1ないし3のうちいずれか1項に記載の方法。
  5. 前記変換画像を取得することは、
    前記第1の画像における前記第2の光学系の外形の像の近傍の画像と、前記部分画像とが滑らかに接続されるように前記部分画像を歪曲させること
    を含む請求項1からのいずれか1項に記載の方法。
  6. 前記変換画像を取得することは、
    前記部分画像が前記像の近傍の画像に重なるように前記部分画像の境界を前記像の近傍の前記画像にシフトさせ前記部分画像の前記境界の近傍の透明度を前記像から前記像の外側であって前記像の近傍の前記画像の方向に滑らかに高くなるようにすること
    を含む請求項1から5のいずれか1項に記載の方法。
  7. 前記コンピュータが、
    所定の時期に、前記第1の光学系及び前記第2の光学系のそれぞれで撮像された画像を取得して、前記第1の光学系により撮像された画像と、前記第2の光学系により撮像された画像とを比べて、前記第1の光学系と前記第2の光学系とのずれの補正値を算出すること
    を更に含み、
    前記変換は、算出した前記補正値を用いて実行される、
    請求項1から6のいずれか1項に記載の方法。
  8. コンピュータが、
    立体視画像の撮像に用いられる併設された第1の光学系及び第2の光学系のうちの前記第1の光学系により撮像された第1の画像に変更を加えた画像を出力する方法であって、
    所定の時期に、前記第1の光学系及び前記第2の光学系のそれぞれで撮像された画像を取得して、前記第1の光学系により撮像された画像と、前記第2の光学系により撮像された画像とを比べて、前記第1の光学系と前記第2の光学系とのずれの補正値を算出することと、
    前記第1の画像に写り込んだ前記第2の光学系の外形の像に対応した部分画像であって、前記第2の光学系により撮像された画像の一部である部分画像を特定することと、
    算出した前記補正値を用いつつ、前記第1の画像に基づいて前記部分画像に変換を施して、変換画像を取得することと、
    前記第1の画像の前記像を前記変換画像に置き換えることと
    を含む、方法。
  9. 請求項1からのいずれか1項に記載の方法をコンピュータに実行させる画像出力プログラム。
  10. 請求項に記載のプログラムをインストールした画像出力装置。
  11. 請求項1からのいずれか1項に記載の方法により前記画像を生産する方法。
JP2020111822A 2020-06-29 2020-06-29 画像を出力する方法、プログラム及び装置 Active JP6779554B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020111822A JP6779554B1 (ja) 2020-06-29 2020-06-29 画像を出力する方法、プログラム及び装置
PCT/JP2021/004793 WO2022004038A1 (ja) 2020-06-29 2021-02-09 画像を出力する方法、プログラム及び装置
TW110108877A TWI759136B (zh) 2020-06-29 2021-03-12 圖像輸出的方法、電腦程式產品、裝置及圖像產生方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020111822A JP6779554B1 (ja) 2020-06-29 2020-06-29 画像を出力する方法、プログラム及び装置

Publications (2)

Publication Number Publication Date
JP6779554B1 true JP6779554B1 (ja) 2020-11-04
JP2022016712A JP2022016712A (ja) 2022-01-24

Family

ID=73022348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020111822A Active JP6779554B1 (ja) 2020-06-29 2020-06-29 画像を出力する方法、プログラム及び装置

Country Status (3)

Country Link
JP (1) JP6779554B1 (ja)
TW (1) TWI759136B (ja)
WO (1) WO2022004038A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010288253A (ja) * 2009-05-14 2010-12-24 Fujifilm Corp 画像処理装置および方法並びにプログラム
EP2884460B1 (en) * 2013-12-13 2020-01-01 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
JP7178415B2 (ja) * 2017-10-02 2022-11-25 レイア、インコーポレイテッド マルチビューカメラアレイ、マルチビューシステム、およびカメラサブアレイに共有カメラを備えさせる方法
WO2019082415A1 (ja) * 2017-10-26 2019-05-02 シャープ株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理プログラムおよび記録媒体

Also Published As

Publication number Publication date
JP2022016712A (ja) 2022-01-24
TW202201346A (zh) 2022-01-01
WO2022004038A1 (ja) 2022-01-06
TWI759136B (zh) 2022-03-21

Similar Documents

Publication Publication Date Title
JP5963422B2 (ja) 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
JP7185434B2 (ja) 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法
US9699438B2 (en) 3D graphic insertion for live action stereoscopic video
US8208048B2 (en) Method for high dynamic range imaging
JP5514959B2 (ja) パノラマ画像生成方法及び撮像装置
WO2017173735A1 (zh) 一种基于视频透视的智能眼镜系统及其透视方法
US20130242127A1 (en) Image creating device and image creating method
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
CN102135722B (zh) 摄像机结构、摄像机系统和方法
JP2008085446A (ja) 画像生成装置および画像生成方法
JP2011250125A (ja) 画像処理装置およびその方法
WO2014148031A1 (ja) 画像生成装置、撮像装置および画像生成方法
JP2004088247A (ja) 画像処理装置、カメラキャリブレーション処理装置、および方法、並びにコンピュータ・プログラム
WO2019163558A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
KR101725024B1 (ko) 룩업테이블 기반의 실시간 360도 vr 동영상 제작 시스템 및 이를 이용한 360도 vr 동영상 제작 방법
CN113906736A (zh) 视频分发系统、视频分发方法和显示终端
KR20190014959A (ko) 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법
JP6170725B2 (ja) 画像処理装置、及びプログラム
JP6779554B1 (ja) 画像を出力する方法、プログラム及び装置
JP7011728B2 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
RU2782312C1 (ru) Способ обработки изображения и устройство отображения, устанавливаемое на голове
JP2005072674A (ja) 三次元画像生成装置および三次元画像生成システム
JP2006041795A (ja) 画像表示装置
CN116563106A (zh) 图像处理方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200629

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200629

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201007

R150 Certificate of patent or registration of utility model

Ref document number: 6779554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250