JP2013219421A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2013219421A
JP2013219421A JP2012085693A JP2012085693A JP2013219421A JP 2013219421 A JP2013219421 A JP 2013219421A JP 2012085693 A JP2012085693 A JP 2012085693A JP 2012085693 A JP2012085693 A JP 2012085693A JP 2013219421 A JP2013219421 A JP 2013219421A
Authority
JP
Japan
Prior art keywords
image
original
original image
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012085693A
Other languages
English (en)
Inventor
Kan Matsuda
完 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012085693A priority Critical patent/JP2013219421A/ja
Priority to US13/853,493 priority patent/US9177382B2/en
Publication of JP2013219421A publication Critical patent/JP2013219421A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数の原画像から立体画像を作成する技術において、画像の奥行き表現の調整をユーザーが自由に、かつ簡易に行うことができる環境を提供する。
【解決手段】複数の原画像のうち1つを基準原画像として選択し、オブジェクト認識処理を行って所定の特徴を有するオブジェクト領域を抽出する。基準原画像ILをオブジェクト領域を示すマーカーMKとともに表示部108に表示し、いずれかをユーザーに選択させる。選択された領域と画像内容が類似する領域を他の原画像から検出し、それらの領域が互いに重なるようにシフトさせた画像の重なり部分をトリミングして短冊状に切り出し、それらを交互に並べた合成画像を作成する。
【選択図】図4

Description

この発明は、複数の原画像から立体視可能な合成画像を作成する画像処理装置および画像処理方法に関するものであり、特にレンチキュラーレンズとの組み合わせで立体視が可能な合成画像を作成する処理に関する。
画像を立体的に表現する手法として、両眼の視差を利用したものが実用化されている。例えば、レンチキュラー画像は、互いに異なる視点から撮像した複数の画像の各々から短冊状の画像を切り出してそれらを視点の配置に応じて順番に並べた視差付きの合成画像を作成し、この合成画像をレンチキュラーレンズを介して提示することで、左右の目それぞれに到達する像の間に視差を生じさせて被写体を立体的に見せるようにしている。
そして、このようなレンチキュラー画像などの立体視可能な合成画像を、互いに異なる視点から撮像した複数の原画像から画像処理により自動的に作成する技術についても、従来から提案がなされている(例えば、特許文献1、特許文献2参照)。
特開2004−104329号公報(例えば、図8) 特開2004−129186号公報(例えば、図7)
このような立体視可能な合成画像を作成するに当たっては、合成する原画像の位置関係を調整することで、画像に含まれる人物や物体等のオブジェクトの奥行き方向の位置、つまり画像面からの飛び出しまたは後退の度合いを加減することが可能である。特に、オブジェクトを画像面と同一面に配置した場合、あたかも当該オブジェクトにフォーカスを合わせたような立体感のある画像を構成することができる。ここで、フォーカスを合わせる対象物をユーザーが任意に選ぶことができる機能があればユーザーにとって便宜である。しかしながら、従来の画像処理技術では、奥行き方向の配置が一義的に固定されてユーザーによる選択の余地がなかったり、ユーザーが手動操作によって画像の位置関係を微調整し良否を判断する必要があるなど、このような機能をユーザーが簡単に利用できるものとはなっていなかった。
この発明にかかるいくつかの態様は、上記課題を解決して、画像の奥行き表現の調整をユーザーが自由に、かつ簡易に行うことができる環境を提供するものである。
この発明の一の態様は、互いに視差を有する複数の原画像に基づいて、レンチキュラーレンズを介して立体視可能な合成画像を作成する画像処理装置であって、前記原画像のうち一の基準原画像内の一部領域を指定するユーザーからの領域指定入力を受け付ける受付手段と、前記基準原画像内で指定された指定領域に対応する対応領域を、前記基準原画像以外の他の原画像から検出する検出手段と、前記複数の原画像の各々から切り出した短冊状画像を並べて、前記指定領域と前記対応領域との間で視差が最も小さくなる前記合成画像を作成する合成画像作成手段とを備えることを特徴としている。
この発明において、基準原画像の指定領域に対応する他の原画像内の「対応領域」とは、他の原画像内の各領域のうち、基準原画像の指定領域内の画像と最も類似の度合いの高い領域を意味する。別の言い方をすれば、指定領域内の各点に対する当該原画像内の対応点を最も多く含む領域が、当該原画像における「対応領域」である。
このように構成された発明では、ユーザーにより一の原画像内の任意の領域が選択されると、当該指定領域と対応する対応領域が他の原画像から検出されるとともに、これらの指定領域と対応領域との間で視差が最も小さくなるようにして合成画像が作成される。その結果、合成画像を立体視すると指定領域内のオブジェクトが最も鮮明に、つまりフォーカスが合っているように表現されることになる。このとき、ユーザーに求められる操作はフォーカスを合わせたいオブジェクトの領域を指定することのみであり、以後の処理は自動的になされる。そのため、この発明によれば、画像の奥行き表現の調整を自由に、かつ簡易に行うための環境をユーザーに提供することができる。
この発明において、例えば、合成画像作成手段は、基準原画像および他の原画像のうち、基準原画像の指定領域と他の原画像の対応領域とを互いに重ね合わせたときの画像の重なり部分から短冊状画像を切り出すようにしてもよい。また例えば、他の原画像の対応領域を基準原画像の指定領域に重ねるために必要な、当該他の原画像の基準原画像に対する画像シフト量を求めるシフト量算出手段を備え、画像作成手段は、他の原画像を基準原画像に対して画像シフト量だけシフトさせて重ねたときの画像の重なり部分から、短冊状画像を切り出すようにしてもよい。
これらのいずれの構成によっても、基準原画像の指定領域と他の原画像の対応領域との間で視差が最小となるように原画像間の位置関係が調整された上で短冊状画像が切り出され合成画像が作成されるので、ユーザーが指定した指定領域に含まれるオブジェクトが最も鮮明に表現されることとなる。
また例えば、検出手段は、他の原画像内に含まれる指定領域と同一サイズの領域のうち指定領域との間の相関が最も高いものを当該他の画像における対応領域としてもよい。このように、指定領域と同一サイズで指定領域との相関が高い領域を対応領域とすることで、高い確率でユーザーの希望するオブジェクトにフォーカスを合わせた画像を作成することができる。そのより具体的な手法としては、例えば面積相関計算により領域間の相関を求めることができる。
また例えば、基準原画像内で画像認識処理により所定の特徴を有する領域を候補領域として抽出する画像認識手段を備え、受付手段は、候補領域を識別可能な態様で基準原画像を表示する表示部を有するとともに、該候補領域のうちユーザーに選択された一の領域を指定領域とするようにしてもよい。これにより、ユーザーは表示部に表示された候補領域を選択するだけで、当該領域にフォーカスを合わせた画像が自動的に得られることとなる。ここで、画像認識処理として例えば公知の顔認識処理技術を適用して、「所定の特徴を有する領域」として人物の顔領域を候補領域とするようにしてもよい。こうすることで、原画像に含まれる特定の人物像にフォーカスを合わせた合成画像が得られる。
また、本発明にかかる画像処理装置は、例えば合成画像を印刷出力する印刷手段を備えたものであってもよい。こうして印刷された画像をレンチキュラーレンズと組み合わせることで、ユーザーに対して、所望の奥行き感が付された立体画像の印刷物を提供することが可能である。
また、この発明の他の態様は、互いに視差を有する複数の原画像に基づいて、レンチキュラーレンズを介して立体視可能な合成画像を作成する画像処理方法であって、前記原画像のうち一の基準原画像内の一部領域を指定領域としてユーザーに指定させる指定受付工程と、前記指定領域に対応する対応領域を、前記基準原画像以外の他の原画像から検出する検出工程と、前記基準原画像および前記他の原画像のうち、前記基準原画像の前記指定領域と前記他の原画像の前記対応領域とを互いに重ね合わせたときの画像の重なり部分から切り出した短冊状画像を並べて前記合成画像を作成する画像作成工程とを備えることを特徴としている。
このように構成された発明では、上記した画像処理装置の発明と同様に、ユーザーが指定した指定領域に含まれるオブジェクトを最も鮮明に表現することのできる合成画像を提供することができ、ユーザーは領域を指定するのみでそのような画像を得ることが可能である。
本発明にかかる画像処理装置の一実施形態を用いた印刷システムを示す図。 この実施形態における立体画像印刷モードを示すフローチャート。 原画像の例を示す図。 表示画像の例を示す図。 対応領域の探索処理の原理を示す図。 対応領域の探索処理の具体的な動作例を示すフローチャート。 画像シフトおよびトリミングの概念を説明する図。 立体画像印刷モードの他の態様を示す図。
図1は、本発明にかかる画像処理装置の一実施形態を用いた印刷システムを示す図である。この印刷システムは、デジタルカメラ200の撮影により取得された画像データを、メモリカードM、USB(Universal Serial Bus)ケーブルや無線LAN(Local Area Network)等によって印刷装置100に転送し、印刷装置100で印刷するものである。すなわち、ここではユーザーがデジタルカメラ200で画像を撮影して画像データを生成し、その画像データをそのまま印刷装置100で読み込んで印刷する、いわゆるダイレクト印刷を想定しているが、本発明を適用可能な印刷システムはこれに限定されるものではない。つまり、デジタルカメラ200で生成した画像データをパーソナルコンピューターや携帯電話などに取り込み、パーソナルコンピューターから印刷装置100に画像データを送信して印刷する印刷システムにも本発明を適用することが可能である。さらに、このようなデジタルカメラ200および印刷装置100を共に備えるシステムに限定されず、画像データに対して種々の処理を施す画像処理装置全般に対して、本発明を適用可能である。
デジタルカメラ200では、同図に示すように、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、CCD(Charge Coupled Device)204L,204R、グラフィックプロセッサー(Graphic Processor;GP)205およびインターフェース(Interface;I/F)206がバス207を介して相互に接続され、これらの間で情報の授受が可能となっている。そして、CPU201はROM202に格納されているプログラムに応じて各種演算処理を実行しながらデジタルカメラ200の制御を行う。このとき一時的に必要となるデータはRAM203に格納される。
また、CCD204L,204Rは、光学系208L,208Rによって集光された被写体からの光学像を電気信号に変換して出力する。より具体的には、光学系208Lにより集光された光学像はCCD204Lに入射する一方、光学系208Rにより集光された光学像はCCD204Rに入射する。光学系208L,208Rはデジタルカメラ200の筐体に左右に離間して配置されている。より詳しくは、光学系208Lはデジタルカメラ200筐体前面の被写体に向かって左寄りに、光学系208Rは被写体に向かって右寄りに設けられている。そのため、CCD204L,204Rにより撮像される画像の間には視差が生じる。
光学系208L,208Rは、それぞれ複数のレンズおよびアクチュエータによって構成されており、アクチュエータによってフォーカス等を調整しながら被写体の光学像を複数のレンズによってそれぞれCCD204L,204Rの受光面に結像する。
このデジタルカメラ200は、2つのCCD204L,204Rを用いて視差のある1対の画像を撮像するステレオ撮像モードと、いずれか一方のCCDのみを用いて撮像を行う通常撮像モードとを選択的に実行可能である。ステレオ撮像モードで撮像された1対の画像データは互いに関連付けられて保存され、後に説明する立体視用の合成画像を作成する処理においては、CCD204Lにより撮像された画像が左眼用原画像、CCD204Rにより撮像された画像が右眼用原画像としてそれぞれ適用される。
さらに、GP205は、CPU201から供給される表示命令に基づいて表示用の画像処理を実行し、得られた表示用画像データを液晶ディスプレイ(Liquid Crystal Display;LCD)209に供給して表示させる。
I/F206はデジタルカメラ200の入出力機能を提供するものであり、操作ボタン210、ジャイロセンサー211およびカードI/F回路212の間で情報を授受する際に、データの表現形式を適宜変換する装置である。I/F206に接続される操作ボタン210には、電源、モード切替え、シャッターなどのボタンや、各種機能を設定できる入力手段があり、これらによってユーザーはデジタルカメラ200を任意に制御して動作させることが可能となっている。また、ジャイロセンサー211はデジタルカメラ200によって被写体を撮影した際のカメラ本体の角度(水平面に対する角度)を示す信号を生成して出力する。デジタルカメラ200は、上記したカメラ本体の角度を含め、撮影時における種々の情報(例えば、露光、被写体等に関する情報)を生成する。
なお、本実施形態では、デジタルカメラ200は、撮影情報をExif(Exchangeable Image File Format)情報に記載し、画像データに付加した画像ファイルを生成することができる構造となっている。このExif画像ファイルの構造は、基本的には通常のJPEG(Joint Photographic Experts Group)画像形式そのものであり、その中にサムネイル画像や撮影関連データ等のデータをJPEGの規約に準拠した形で埋め込んだものである。さらに、ステレオ撮像モードに適したファイル形式として、複数枚の静止画像データを1つの画像ファイルに記録するMP(Multi Picture)フォーマットに基づく画像ファイル(MPOファイル)を作成、記録する機能を有している。
また、カードI/F回路212はカードスロット213に挿入されたメモリカードMとの間で情報を読み書きするためのインターフェースである。さらに、I/F206は図示を省略するUSB、無線LANなどの外部機器との接続機能も有しており、有線または無線にて印刷装置100との間で画像ファイルの授受が可能となっている。
印刷装置100はデジタルカメラ200で撮像された画像を印刷する装置であり、次のように構成されている。印刷装置100では、CPU101、ROM102、RAM103、EEPROM(Electrically Erasable and Programmable ROM)104、GP105およびI/F106がバス107を介して相互に接続され、これらの間で情報の授受が可能となっている。CPU101はROM102およびEEPROM104に格納されているプログラムに応じて各種演算処理を実行するとともに印刷装置100の各部を制御する。また、CPU101が実行対象とするプログラムやデータについてはRAM103に一時的に格納される一方、印刷装置の電源が切断された後も保持しておくデータ等についてはEEPROM104に格納される。さらに、CPU101は必要に応じてGP105に対して表示命令を与え、この表示命令に応じてGP105が表示用の画像処理を実行し、その処理結果を表示部108に供給して表示させる。
I/F106は、操作ボタン109、カードI/F回路110およびプリンターエンジンコントローラー111の間で情報を授受する際に、データの表現形式を適宜変換する装置である。印刷装置100では、操作ボタン109は印刷装置100のメニュー選択等を行う時に押されるように構成されている。また、カードI/F回路110は、カードスロット112と接続されており、このカードスロット112に挿入されたメモリカードMからデジタルカメラ200によって生成された画像ファイルを読み出す。なお、I/F106は、図示を省略するUSB、無線LANなどの外部機器との接続機能も有しており、有線通信または無線通信にてデジタルカメラ200との間で画像ファイルの授受が可能となっている。
表示部108は例えばLCDからなるディスプレイの表面にタッチパネルが設けられたものであり、GP105から与えられる画像データをディスプレイに表示するほか、ユーザーによるタッチパネルへの操作入力データをI/F106に出力する。
そして、印刷装置100は、メモリカードMを介して、あるいはデータ通信により画像データを受け取ると、CPU101により種々の処理を行うとともにプリンターエンジンコントローラー111によりプリンターエンジン113を制御し、これによって画像データに対応する画像を印刷する。以下では、デジタルカメラ200のステレオ撮像モードで撮像された左右1対の原画像に対応する画像データから立体視用の合成画像を作成し、これをレンチキュラーレンズを組み合わせた記録シートに印刷することでレンチキュラー画像を作成する立体画像印刷モードについて説明する。
これ以外に、この種のプリンターで実施されている種々の印刷動作を実行することが可能であるが、そのような印刷動作については種々の公知技術があり、本実施形態にも同技術を適用することができるので、本明細書ではそれらの説明を省略する。また、レンチキュラー画像により立体視を可能とする原理や、複数の原画像からそのような画像を作成する原理的な方法についても公知であるので、ここでは説明を省略する。
図2はこの実施形態における立体画像印刷モードを示すフローチャートである。また、図3は原画像の例を示す図である。この印刷モードでは、最初に立体画像の元となる原画像を取得する(ステップS101)。原画像としては、互いの間に視差を有する複数の画像が必要であり、例えば上記したデジタルカメラ200のステレオ撮像モードで撮像された1対の画像を用いることができる。なお、原画像としてはこれに限定されず、同じ撮像対象物を異なる視点から撮像した複数の画像の組や、例えばコンピューターグラフィックス技術により作成された画像の組についても、以下に説明する技術を適用することが可能である。また1組の原画像を構成する画像の枚数についても、2以上で任意である。
ここではデジタルカメラ200のステレオ撮像モードで撮像された2枚の画像を用いる場合を例として説明する。図3に示すように、ステレオ撮像モードでは、図3に示すように、同じ撮像対象物を僅かに異なる視点で撮像した2枚の画像IL,IRが得られる。画像ILは、デジタルカメラ200において左側に配置されたCCD204Lにより撮像された画像であり、レンチキュラー画像を作成するに際しては左眼用画像の原画像として用いられる。一方、画像IRはCCD204Lにより右側に配置されたCCD204Rにより撮像された画像であり、レンチキュラー画像の作成に際しては右眼用画像の原画像として用いられる。
これらの画像に共通して含まれる主なオブジェクトは、左右2人の人物、中央のヨット、左上の山などである。左眼用原画像ILと右眼用原画像IRとの間では、撮像時のカメラと被写体との距離に応じてオブジェクトの位置が微妙に異なっている。すなわち、遠方にある被写体については左右の原画像IL,IR間で位置の差はほとんどなく、カメラに近づくほど、被写体に対応するオブジェクトの位置の差が大きくなる。
図3の例では、向かって右側の人物が最も手前におり、横方向における左右の原画像間での位置の差D1が最も大きく、より奥側にいる左側の人物の位置の差D2、さらに奥のヨットの位置の差D3の順に小さくなる。遠方の山については位置の差はほぼない。なお、実際の画像では、この他に例えばカメラの傾きに起因する位置の差が加わる場合がある。また、複数の原画像を個別のカメラにより撮像した場合や、単眼のカメラでステレオアダプタを介して撮像した場合には、これらの位置ずれに起因する位置の差が加わる場合もあり得る。
このようにして取得した原画像をトリミングせずそのまま使用して立体視用の合成画像を作成すると、撮像時と同様に、一番奥にあるオブジェクト(山)において視差がゼロとなり、手前のオブジェクトほど視差が大きくなり手前に飛び出して見えるようになる。一方、オブジェクトの鮮明さという点では、視差のない遠方のオブジェクトが最も鮮明であり、手前のオブジェクトほど画像がぼやけて見える傾向がある。この種の立体画像では視差のないオブジェクトが画面と同一面に定位して鮮明に見える一方、視差のあるオブジェクトは画面より前方(または後方)に定位して奥行き感が表現される反面、表現可能な前後関係の範囲が限定的であるため撮像時の奥行きを忠実に再現することができず、このようにオブジェクトが不鮮明となることがある。
以下に説明するように、この実施形態では、鮮明に表示させるオブジェクトをユーザーが選択することができるようになっている。そのためユーザーは、撮像時にオートフォーカス機能によるピント合わせを行うのと同様の感覚で、鮮明に表示させたいオブジェクトを選択入力するだけで、ユーザー操作による画像の微調整作業を行うことなく所望のオブジェクトにフォーカスを合わせたような立体画像を得ることが可能となっている。
そのための動作を、図2に戻って説明する。上記のようにして取得した複数の原画像のうち任意の一を選択し、当該原画像について、当該原画像に含まれるオブジェクトの認識処理を行う(ステップS102)。ここでは、左眼用原画像ILを選択したとする。オブジェクト認識処理としては公知の技術を適用することができ、例えば人物の顔の特徴を有する領域を抽出する顔認識処理や、各画素の画素値を所定の閾値で2値化して閉領域を抽出する処理などを適用することができる。そして、こうして原画像ILから抽出されたオブジェクトの領域を示す情報(例えばオブジェクト領域の輪郭を示す枠)と共に、原画像ILを表示部108に表示させる(ステップS103)。
図4は表示画像の例を示す図である。表示部108には選択された原画像ILが表示され、これに、オブジェクトとして認識された矩形領域の4隅を示す鉤形のマーカーMKが重畳表示されている。この例では、左右の人物それぞれの顔と、中央上方のヨットとがオブジェクトとして認識されたことが示されている。
ここで、ユーザーは、認識されたオブジェクトのうち最も鮮明に表示させたいと希望するオブジェクトを、表面がタッチパネルとなった表示部108に表示された当該オブジェクトに触れることによって選択することができる。このため、画像の下部には、ユーザーに対してオブジェクトの選択を促すメッセージが表示される。
この状態で、ユーザーによるオブジェクト選択の操作入力がなされるのを待つ(ステップS104)。ユーザーがタッチパネルに触れることでいずれかのオブジェクトが有効に選択されると、当該オブジェクトの領域を左眼用原画像ILの指定領域として、もう1つの原画像、すなわち右眼用原画像IRの中で、指定領域の画像内容と類似する画像内容を有する対応領域を探索する(ステップS105)。ここでは、図4において右側の人物の顔領域がユーザーにより選択されたものとする。
図5は対応領域の探索処理の原理を示す図であり、図6はその具体的な動作例を示すフローチャートである。左眼用原画像ILにおいて選択された指定領域R1は、横方向の画素数Px、縦方向の画素数Pyの矩形領域である。これに対応する右眼用原画像IRにおける対応領域を検出するために、右眼用原画像IRの左上隅を原点(0,0)とし、画像の横方向をX軸、縦方向をY軸とする座標平面内に、指定領域R1と同一サイズを有するウィンドウW2を設定する。すなわち、ウィンドウW2の横方向(X方向)の画素数はPx、縦方向(Y方向)の画素数はPyである。
こうして右眼用原画像IRにおいて設定したウィンドウW2内の画像内容と、左眼用画像ILにおいて指定された指定領域R1内の画像内容との類似度を求める。類似度は両画像内容の相関の高さによって定量的に評価することができ、例えば公知の面積相関計算により求めることができる。
ウィンドウW2の位置は右眼用画像IR内において種々に設定可能であり、そのうちウィンドウW2内の画像内容と指定領域R1内の画像内容との間の類似度が最も高くなるときのウィンドウW2によって特定される右眼用画像IR内の領域が、指定領域R1に対応する対応領域であるということができる。対応領域は、そのときのウィンドウW2の4隅の座標を特定し得る情報によって特定することが可能であり、例えば4隅および重心のいずれか1点の座標位置とウィンドウサイズとにより、または矩形の対角線上に位置する2つの頂点の座標などにより表すことができる。
具体的な処理例について、図6を参照しながら説明する。最初に、ウィンドウの位置を指定する座標パラメータx、yをそれぞれ初期値(0)に設定し(ステップS201、S202)、これらの座標パラメータにより特定される座標(x,y)を左上隅の頂点位置とし、指定領域R1と同サイズ(横方向画素数Px、縦方向画素数Py)のウィンドウW2を右眼用画像IR内に設定する(ステップS203)。
こうして設定されたウィンドウW2内の各画素と、指定領域R1内の各画素との間で面積相関計算を行い、画像内容の類似度を求める(ステップS204)。より具体的には、例えば以下のようにすることができる。指定領域R1内から選択した一の画素と、ウィンドウW2内でこれに対応する位置にある画素との間で画素値の差分を求める計算を領域内の全画素について行い、差分の絶対値の積算値を求める。この積算値が小さいほど画像内容の相関が高いと言える。すなわち、画像内容が完全に一致しているとき、対応する画素間の画素値の差分は全てゼロであり、積算値もゼロである。画像内容の類似度が低いほど、画素間の差分が大きくなり、その絶対値の積算値も大きくなる。このような演算により、画像内容の類似度を求めることができる。
続いて、こうして求めた積算値を、記憶保存されている最小値と比較する(ステップS205)。図6に示すように、この探索処理ではループ処理が行われており、上記した積算値の算出が繰り返し実行されて、各ループで算出された積算値のうちの最小値と、該最小値が算出されたときに設定されていたウィンドウの座標位置(x,y)が記憶保存されている。そして、新たなループで算出された積算値が記憶されている最小値よりも小さければ(ステップS205においてYES)、記憶されている最小値を当該積算値によって更新するとともに、そのときのウィンドウの座標位置(x,y)が更新記憶される(ステップS206)。一方、新たなループで算出された積算値が記憶されている最小値以上であれば(ステップS205においてNO)、最小値およびウィンドウ座標位置は更新されない。
ステップS202〜S206の処理を、ウィンドウが画像IRの右端に到達するまで(ステップS207)、座標パラメータxを1ずつインクリメントしながら(ステップS211)実行するとともに、ステップS202〜S207の処理を、ウィンドウが画像IRの下端に到達するまで(ステップS208)、座標パラメータyを1ずつインクリメントしながら(ステップS212)実行することにより、指定領域R1と最も類似度の高い画像内容を有する領域が、右眼用画像IRの全体から探索される。
すなわち、ループ終了時点で記憶保存されているウィンドウの座標位置とウィンドウサイズとによって特定されるウィンドウ内の領域が、指定領域R1の画像内容に対応する画像内容を右眼用画像IR内において有する「対応領域」として検出される。以下では、左眼用画像ILにおいて指定された指定領域R1に対応する右眼用画像IR内対応領域を、符号R2によって表す。
図2に戻って、次に、こうして求められた指定領域R1と対応領域R2とをぴったり重ね合わせるために必要な、左眼用画像ILに対する右眼用画像IRの画像シフト量を算出する(ステップS106)。そして、こうして求められた画像シフト量だけ右眼用画像IRをシフトさせた状態で左眼用画像ILと重ねたときに重複する領域から、作成すべき合成画像のサイズに応じた領域をトリミングにより抽出する(ステップS107)。
図7は画像シフトおよびトリミングの概念を説明する図である。図7(a)に示す例では、左眼用原画像ILに対して右眼用原画像IRを(−X)方向にΔX画素、(−Y)方向に(−ΔY)画素だけシフトさせたときに、左眼用原画像ILの指定領域R1と、右眼用原画像IRの対応領域R2とがぴったり重なり合う。すなわち、求めるべき画像シフト量の値は、X軸方向についてΔX、Y軸方向についてΔYであり、これらを符号付きの値とすることで正負両方向への画像シフト量を表すことができる。この画像シフト量は、左眼用原画像ILにおける指定領域R1の座標位置と、右眼用原画像IRにおける対応領域R2の座標位置とから求めることができる。
例えば、左眼用原画像ILにおける指定領域R1の左上隅の座標を(x1,y1)、右眼用原画像IRにおける対応領域R2の左上隅の座標を(x2,y2)としたとき、左眼用原画像ILに対する右眼用原画像IRのX方向における画像シフト量Sx、Y方向における画像シフト量Syはそれぞれ、
Sx=x1−x2
Sy=y1−y2
により表すことができる。画像シフト量が正の値であれば座標軸の正方向に沿った画像シフト、負の値であれば座標軸の負方向に沿った画像シフトを行うことで、左眼用原画像ILの指定領域R1と右眼用原画像IRの対応領域R2とが重なり合う。
このように右眼用原画像IRをシフトさせて左眼用原画像ILに重ねたときに重複する領域内の画像が、立体画像の作成に利用可能である。このような重複領域から、印刷すべき画像のアスペクト比に応じた領域をトリミング抽出することにより、該領域を合成画像に使用する有効印刷領域RPとして設定することができる。
図2に戻って、左眼用原画像ILおよび右眼用原画像IRのうちこうしてそれぞれトリミングされた有効印刷領域RP内の画像から、それぞれ左眼用画像および右眼用画像となる短冊状画像を切り出してそれらを交互に配列することにより、合成画像を作成する(ステップS108)。トリミング後の複数の原画像から短冊状画像を切り出して合成し立体視に適した画像を作成する技術は公知であるので、これについては説明を省略する。
こうして作成された合成画像を表示部108に表示して(ステップS109)、ユーザーに画像内容を確認させる。操作入力によりOKの意思表示がなされれば(ステップS110)、プリンターエンジン113を動作させて、当該合成画像を記録材たるレンチキュラーシートに印刷して(ステップS111)、処理を終了する。一方、表示された画像内容にユーザーが不満の意思表示(ステップS110においてNO)をした場合には、ステップS103に戻って、ユーザーに再度オブジェクトの選択を行わせる。
なお、合成画像を立体画像(レンチキュラー画像)として提供するためには、平坦な記録材上に合成画像を印刷した上でレンチキュラーレンズを貼り合わせてもよく、また一方面にレンチキュラーレンズが配されたシート状の記録材(本明細書における「レンチキュラーシート」はこれを指している)の平坦な他方面に合成画像を印刷するようにしてもよい。後者の場合、短冊状画像の長手方向とレンチキュラーレンズの長手方向とが一致する必要があることは当然である。それに加えて、画像が立体的に表現されるためには印刷面の裏側からレンチキュラーレンズを介して印刷面が見られることとなるので、印刷面が透明であること、および表示部108に表示された合成画像を裏返した状態の印刷データがプリンターエンジン113に送られることが必要である。
以上のように、この実施形態では、視点の異なる複数の原画像から立体視用の合成画像を作成するのに際して、最も鮮明に表示させたいオブジェクトの領域を一の原画像内でユーザーに選択指定させる。そして、当該原画像における指定領域と類似する画像内容を有する対応領域を他の原画像内から検出し、それらの領域が互いに重なり合うようにしたときの原画像間の重なり部分をトリミングして合成画像を作成する。これにより、合成画像を立体視したとき、一の原画像における指定領域と、他の原画像における対応領域との間で視差が最も小さくなる。そのため、指定領域内の画像オブジェクトが画面と同一面に定位して最も鮮明に表示され、他の画像オブジェクトは視差に応じてより手前側または奥側に奥行きを持って表示されることとなる。
例えば図7(a)に示すように、右側の人物の顔領域を指定領域R1とした場合には、画像シフトと重ね合わせの結果、右側の人物の顔領域は比較的鮮明となる一方で、他の距離にあった被写体(左側の人物、ヨット、遠方の山など)に対応するオブジェクトでは位置ずれが大きくなる。そのため、この状態から得られる合成画像では、右側の人物の顔付近が画面と同一面に定位して鮮明に表現される一方、他のオブジェクトはこれより手前側または奥側に、ただし幾分ぼやけた状態で表現される。
また例えば、図7(b)に示すように、左側の人物の顔領域R3が指定領域として指定された場合には、合成画像では当該人物が鮮明に表現される一方で、右側の人物では左眼用画像と右眼用画像との間で位置ずれ量が大きくなり当該人物はぼやけた画像となる。このように、ユーザーは好みに応じて画像の奥行き表現を自由に調整することが可能である。
このような画像を得るためにユーザーに求められる操作は、一の原画像内から指定領域を指定することのみであり、手動操作で画像シフト量を調整する必要はない。このため、この実施形態では、ユーザーが自由に、かつ簡単な操作で画像を調整し、好みの立体画像を得ることが可能となっている。このことは原画像の枚数が多くなっても同じである。特に、原画像に対するオブジェクト認識処理によって認識された領域を原画像と共に表示し、タッチパネルによりそれらをユーザーに選択させるようにしているので、ユーザーは表示された領域から好みのものを選んで画面に触れることで選択操作が完了するので、操作は極めて簡単である。
また、一の原画像における指定領域に対応する対応領域を他の原画像から検出するための処理は、他の原画像から取り出した領域と指定領域との間で画素値の差分を求めて積算し、その積算値が最小となる領域を探索するという極めて簡単な演算によって行うことができるので、高い処理能力を持たないプロセッサーでも十分に対応可能な処理内容である。このため、この技術を搭載することが装置コストを圧迫することがなく、低価格の製品においても上記機能を実現することが可能である。
ところで、上記実施形態では、一の原画像においてユーザーにより指定されたオブジェクトに対応する指定領域と、この指定領域に対応する他の原画像における対応領域との位置が合成画像において一致するように、画像シフト量の設定を行っている。つまり、指定されたオブジェクトが画像面に鮮明に定位するように合成画像を作成する。しかしながら、レンチキュラー画像における奥行きの表現方法としては、上記以外にも例えば次のようにすることが可能である。
図8は立体画像印刷モードの他の態様を示す図である。図8(a)は左眼用画像と右眼用画像との間における対応オブジェクトの左右方向の位置ずれ量と、それにより画像面から飛び出してあるいは引っ込んで見える当該オブジェクトの飛び出し量との関係を示している。横軸において(+)方向は、左眼用画像におけるオブジェクトに対し、右眼用画像における対応オブジェクトが合成画像においてより右側に位置する場合を示し、(−)方向はその反対である。また、縦軸の(+)方向は、立体視した際に当該オブジェクトが画像面よりも手前側に飛び出す状態を示し、(−)方向は画像面から奥に引っ込んだ状態を示す。図8(a)に示すように、右眼用画像と左眼用画像との間における対応オブジェクトの左右ずれ量に応じて当該オブジェクトの画像面からの飛び出し量が変化する。
ここで、オブジェクトの左右ずれ量が大きくなりすぎると、鑑賞者にとっては左右それぞれの眼に入射するオブジェクトの像が同一オブジェクトのものであると認識できなくなり二重に見えるようになる。つまり、両眼に入射するオブジェクトの像をぼやけさせることなく1つのオブジェクトとして鑑賞者に認識させることが可能な奥行き方向の距離範囲(融像可能範囲)は限定的である。レンチキュラーシートを用いた立体画像表現では、レンチキュラーレンズの特性や印刷の精度等によって融像可能範囲が制限される。
逆に言えば、ユーザーにより指定されたオブジェクトの右眼用画像と左眼用画像との間における左右ずれ量が融像可能範囲に収まっていれば、当該オブジェクトの鮮明さを犠牲にすることなく種々の立体表現が可能である。例えば融像可能範囲の下限値に対応する左右ずれ量Q1を当該オブジェクトに与えたとき、当該オブジェクトは融像可能範囲内において最も奥に定位する。逆に、融像可能範囲の上限値に対応する左右ずれ量Q2を当該オブジェクトに与えたとき、当該オブジェクトは融像可能範囲内において最も手前側に定位する。左右ずれ量をこれ以上大きくするとオブジェクトの像がぼやけてしまうが、左右ずれ量の値をQ1からQ2までの間で適宜に設定することで、当該レンチキュラーシートで表現可能な奥行きを最大限に活用することが可能である。特に、奥行き方向の配置が種々に異なった状態で撮像された複数の被写体に対応するオブジェクトを含む画像において、それらの前後関係を効果的に表現することができる。
このような画像飛び出し量の設定をユーザーに行わせることで、ユーザーの好みに応じた奥行き表現のレンチキュラー画像を提供することが可能となる。なお、簡単なユーザー操作でこのような機能を実現するためには、例えば次のようにすることができる。第1の例では、ユーザーに選ばせる選択肢を限定し、指定したオブジェクトの奥行き方向位置を、例えば融像可能範囲の最も手前、最も奥、および画像面と同一面のいずれかから選ばせるようにする。第2の例では、ユーザーにオブジェクトを指定させるための表示画面(図4)に融像可能範囲に対応したGUI(Graphical User Interface)パーツとしてのスライダーを表示する。そして、該スライダーのノブをユーザーに操作させることで、融像可能範囲(Q1〜Q2)内で左右ずれ量を連続的に設定可能とする。もちろん操作方法はこれらに限定されない。
こうしてユーザーにより選択された奥行き表現での画像印刷を可能とするための処理は、図2に示した立体画像印刷モードの動作の一部を変更することによって可能である。すなわち、図2のステップS106に代えて、図8(b)に示すステップS106aを設ける。ステップS106aでは、ユーザーにより設定された画像飛び出し量を実現するための右眼用画像と左眼用画像との間の左右ずれ量を図8(a)の関係から求め、合成画像において指定領域R1と対応領域R2との位置ずれ量が求めた値と一致するような画像シフト量を算出する。こうして得られた画像シフト量に基づき、上記実施形態と同様に合成画像の作成および印刷を行うことにより、ユーザーの好みに応じた奥行き表現でのレンチキュラー画像を作成することが可能となる。
このように、ユーザーが指定した指定領域に対応するオブジェクトの画像面からの飛び出し量を、印刷装置および記録媒体の特性に応じて定まる融像可能範囲内でユーザー設定可能とし、その設定に応じた左右ずれ量を実現するための画像シフト量を求めて合成画像を作成することにより、ユーザーに対し、その好みに応じたレンチキュラー画像を提供することが可能となる。上記実施形態は、指定されたオブジェクトの飛び出し量をゼロに固定したものに相当している。
以上説明したように、この実施形態では、印刷装置100が本発明の「画像処理装置」として機能しており、表示部108が本発明の「表示部」および「受付手段」としての機能を有する一方、プリンターエンジン113が本発明の「印刷手段」として機能している。また、CPU101が所定の制御プログラムを実行することにより、本発明の「検出手段」、「シフト量算出手段」、「合成画像作成手段」および「画像認識手段」としての各機能が実現されている。
また、上記実施形態においては、左眼用原画像ILが本発明の「基準原画像」に相当する一方、右眼用原画像IRが本発明の「他の原画像」に相当し、これらがそれぞれ本発明の「原画像」に相当している。また、図4に示す画像例において、マーカーMKによって特定される各画像領域(左右の人物の顔およびヨット)が、本発明の「候補領域」に相当している。
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態では左右2つの視点からの原画像IL,IRを用いてレンチキュラー画像を作成しているが、原画像の枚数は2以上であれば任意であり、より多視点の原画像から合成画像を作成する場合にも上記技術を適用することが可能である。具体的には、それらの原画像の一を基準として該原画像で指定領域が指定されると、他の原画像のそれぞれにおいて対応領域を検出し、基準となる原画像に対する画像シフト量を各原画像ごとに算出して、全ての原画像の重なり部分からトリミングした画像に基づき合成画像を作成すればよい。
この場合、原理的には複数の原画像のいずれを基準としても構わないが、各視点のうち中央に近い視点からの原画像を基準とすることが実用上は好ましい。外側の視点からの原画像を基準として指定領域を指定した場合、これと反対側の視点からの原画像との画像内容の乖離が大きくなり、指定領域に対応する対応領域を他の原画像から検出する際の検出精度が低下するおそれがあるからである。
また、上記実施形態では、オブジェクト認識処理によって認識されたオブジェクト領域の中から指定領域をユーザーに選択させるようにしているが、これに代えて、あるいはこれと併用して、例えば対角線上の2頂点を指定させる等の方法により、任意の領域を指定領域とすることができるようにしてもよい。また、認識されたオブジェクト領域の提示方法についても、その4隅をマーカーMKによって示すものに限られず、例えば矩形の枠で当該領域を囲んだり、当該領域の輝度を変化させる等の方法によってもよい。また、その操作入力の受付方法もタッチパネルによるものに限定されず、キーボードやマウスからの入力によるものなど、任意のものを適用することが可能である。
また、上記実施形態では、デジタルカメラ200とともに印刷システムを構成する印刷装置100上で本発明にかかる画像処理方法を実行しているが、本発明の適用対象はこれに限定されない。例えば単体のデジタルカメラやプリンター、携帯用端末機器、パーソナルコンピューター上などでも同様の画像処理方法を実行することが可能である。
また、上記実施形態では、作成後の合成画像を表示部108に表示してユーザーに画像内容を確認させた後に記録シートへの印刷を行うようにしているが、このような画像の表示や確認作業は必須のものではない。
本発明にかかる画像処理装置および画像処理方法は、例えばレンチキュラーレンズを介して立体視可能な合成画像を作成するのに好適に適用することができ、画像を記録シートに印刷出力する場合のほか、画面上に表示してレンチキュラーレンズと共に提示する場合にも利用可能である。
100…印刷装置(画像処理装置)、 101…CPU(検出手段、シフト量算出手段、合成画像作成手段、画像認識手段)、 108…表示部(表示部、受付手段)、 113…プリンターエンジン(印刷手段)、 200…デジタルカメラ 204L…(左眼用原画像用の)CCD、 204R…(右眼用原画像用の)CCD、 IL…左眼用原画像(基準原画像、原画像)、 IR…右眼用原画像(他の原画像、原画像)

Claims (8)

  1. 互いに視差を有する複数の原画像に基づいて、レンチキュラーレンズを介して立体視可能な合成画像を作成する画像処理装置において、
    前記原画像のうち一の基準原画像内の一部領域を指定するユーザーからの領域指定入力を受け付ける受付手段と、
    前記基準原画像内で指定された指定領域に対応する対応領域を、前記基準原画像以外の他の原画像から検出する検出手段と、
    前記複数の原画像の各々から切り出した短冊状画像を並べて、前記指定領域と前記対応領域との間で視差が最も小さくなる前記合成画像を作成する合成画像作成手段と
    を備えることを特徴とする画像処理装置。
  2. 前記合成画像作成手段は、前記基準原画像および前記他の原画像のうち、前記基準原画像の前記指定領域と前記他の原画像の前記対応領域とを互いに重ね合わせたときの画像の重なり部分から前記短冊状画像を切り出す請求項1に記載の画像処理装置。
  3. 前記他の原画像の前記対応領域を前記基準原画像の前記指定領域に重ねるために必要な、当該他の原画像の前記基準原画像に対する画像シフト量を求めるシフト量算出手段を備え、
    前記画像作成手段は、前記他の原画像を前記基準原画像に対して前記画像シフト量だけシフトさせて重ねたときの画像の重なり部分から、前記短冊状画像を切り出す請求項2に記載の画像処理装置。
  4. 前記検出手段は、前記他の原画像内に含まれる前記指定領域と同一サイズの領域のうち前記指定領域との間の相関が最も高いものを当該他の画像における前記対応領域とする請求項1ないし3のいずれかに記載の画像処理装置。
  5. 前記検出手段は、面積相関計算により前記他の原画像内の領域と前記指定領域との間の相関を求める請求項4に記載の画像処理装置。
  6. 前記基準原画像内で画像認識処理により所定の特徴を有する領域を候補領域として抽出する画像認識手段を備え、
    前記受付手段は、前記候補領域を識別可能な態様で前記基準原画像を表示する表示部を有するとともに、該候補領域のうちユーザーに選択された一の領域を前記指定領域とする請求項1ないし5のいずれかに記載の画像処理装置。
  7. 前記合成画像を印刷出力する印刷手段を備える請求項1ないし6のいずれかに記載の画像処理装置。
  8. 互いに視差を有する複数の原画像に基づいて、レンチキュラーレンズを介して立体視可能な合成画像を作成する画像処理方法において、
    前記原画像のうち一の基準原画像内の一部領域を指定領域としてユーザーに指定させる指定受付工程と、
    前記指定領域に対応する対応領域を、前記基準原画像以外の他の原画像から検出する検出工程と、
    前記基準原画像および前記他の原画像のうち、前記基準原画像の前記指定領域と前記他の原画像の前記対応領域とを互いに重ね合わせたときの画像の重なり部分から切り出した短冊状画像を並べて前記合成画像を作成する画像作成工程と
    を備えることを特徴とする画像処理方法。
JP2012085693A 2012-04-04 2012-04-04 画像処理装置および画像処理方法 Pending JP2013219421A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012085693A JP2013219421A (ja) 2012-04-04 2012-04-04 画像処理装置および画像処理方法
US13/853,493 US9177382B2 (en) 2012-04-04 2013-03-29 Image processing apparatus for forming synthetic image and image processing method for forming synthetic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012085693A JP2013219421A (ja) 2012-04-04 2012-04-04 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2013219421A true JP2013219421A (ja) 2013-10-24

Family

ID=49292342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012085693A Pending JP2013219421A (ja) 2012-04-04 2012-04-04 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US9177382B2 (ja)
JP (1) JP2013219421A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016021603A (ja) * 2014-07-11 2016-02-04 株式会社東芝 電子機器、方法及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI464692B (zh) * 2012-07-03 2014-12-11 Wistron Corp 操作物辨識方法、操作物深度資訊建立方法及電子裝置
US10469730B2 (en) * 2016-05-18 2019-11-05 Canon Kabushiki Kaisha Imaging device and control method for simultaneously outputting an image pickup signal and a parallax image signal
CN108200318A (zh) 2018-01-02 2018-06-22 联想(北京)有限公司 电子设备和获取图像的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155104A (ja) * 1996-11-22 1998-06-09 Canon Inc 複眼撮像方法及び装置並びに記憶媒体
JP2002232913A (ja) * 2001-01-31 2002-08-16 Canon Inc 複眼カメラ及び立体視画像観察システム
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2005159755A (ja) * 2003-11-26 2005-06-16 Fuji Photo Film Co Ltd 画像処理装置及び画像処理プログラム
JP2011171813A (ja) * 2010-02-16 2011-09-01 Fujifilm Corp 撮像装置及び立体画像表示方法
JP2011180779A (ja) * 2010-02-26 2011-09-15 Brother Industries Ltd 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
JP2011250059A (ja) * 2010-05-26 2011-12-08 Sharp Corp 画像処理装置、画像表示装置および画像撮像装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4225768B2 (ja) 2002-07-31 2009-02-18 シャープ株式会社 立体画像データ処理装置および立体画像データ処理用プログラム
JP4165158B2 (ja) 2002-09-06 2008-10-15 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
CA2506608C (en) * 2002-11-21 2013-01-22 Vision Iii Imaging, Inc. Critical alignment of parallax images for autostereoscopic display
JP2010278878A (ja) * 2009-05-29 2010-12-09 Fujifilm Corp 立体画像表示装置及びその表示画像切替方法
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
EP2395766B1 (en) * 2010-06-14 2016-03-23 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155104A (ja) * 1996-11-22 1998-06-09 Canon Inc 複眼撮像方法及び装置並びに記憶媒体
JP2002232913A (ja) * 2001-01-31 2002-08-16 Canon Inc 複眼カメラ及び立体視画像観察システム
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2005159755A (ja) * 2003-11-26 2005-06-16 Fuji Photo Film Co Ltd 画像処理装置及び画像処理プログラム
JP2011171813A (ja) * 2010-02-16 2011-09-01 Fujifilm Corp 撮像装置及び立体画像表示方法
JP2011180779A (ja) * 2010-02-26 2011-09-15 Brother Industries Ltd 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
JP2011250059A (ja) * 2010-05-26 2011-12-08 Sharp Corp 画像処理装置、画像表示装置および画像撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016021603A (ja) * 2014-07-11 2016-02-04 株式会社東芝 電子機器、方法及びプログラム

Also Published As

Publication number Publication date
US20130266209A1 (en) 2013-10-10
US9177382B2 (en) 2015-11-03

Similar Documents

Publication Publication Date Title
JP4657313B2 (ja) 立体画像表示装置および方法並びにプログラム
TWI477141B (zh) 影像處理裝置、影像處理方法及電腦程式
JP4661824B2 (ja) 画像処理装置、方法およびプログラム
JP2013162487A (ja) 画像表示装置及び撮像装置
WO2015192547A1 (zh) 一种基于移动终端的三维照片拍摄方法及移动终端
JP2012068861A (ja) Ar処理装置、ar処理方法及びプログラム
JP5923595B2 (ja) 画像処理装置及び方法並びに撮像装置
JP2009059113A (ja) 立体画像生成装置およびプログラム
JP2013219421A (ja) 画像処理装置および画像処理方法
JP2006013759A (ja) 立体視用の画像ファイルを生成する電子機器、3次元画像データを生成する電子機器、画像ファイル生成方法、3次元画像データ生成方法および画像ファイルのファイル構造
JP5924086B2 (ja) 画像処理装置および画像処理方法
JP5754044B2 (ja) 撮像装置及び画像通信システム
JP5003358B2 (ja) 表示装置、電子カメラおよび制御プログラム
CN115484450A (zh) 信息处理装置、控制方法和计算机可读存储介质
JP2013251656A (ja) 画像処理装置
JP5351878B2 (ja) 立体画像表示装置および方法並びにプログラム
JP5367747B2 (ja) 撮像装置および撮像方法、ならびに、撮像システム
JP5638941B2 (ja) 撮像装置および撮像プログラム
JP2012248206A (ja) Ar処理装置、ar処理方法及びプログラム
JP2014155126A (ja) 表示装置、表示方法およびプログラム
JP2008278425A (ja) 画像記録装置、方法およびプログラム
JP2022191013A (ja) 画像処理装置、画像処理方法、及びプログラム
CN115484448A (zh) 图像处理设备、图像处理方法和存储介质
JP4995966B2 (ja) 画像処理装置、方法およびプログラム
JP2021158559A (ja) 電子機器、その制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160322