JP4661824B2 - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP4661824B2
JP4661824B2 JP2007115824A JP2007115824A JP4661824B2 JP 4661824 B2 JP4661824 B2 JP 4661824B2 JP 2007115824 A JP2007115824 A JP 2007115824A JP 2007115824 A JP2007115824 A JP 2007115824A JP 4661824 B2 JP4661824 B2 JP 4661824B2
Authority
JP
Japan
Prior art keywords
image
reduced
viewpoint
identified
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007115824A
Other languages
English (en)
Other versions
JP2008276301A5 (ja
JP2008276301A (ja
Inventor
泉 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007115824A priority Critical patent/JP4661824B2/ja
Priority to US12/109,196 priority patent/US8072487B2/en
Priority to CN200810095922XA priority patent/CN101296386B/zh
Publication of JP2008276301A publication Critical patent/JP2008276301A/ja
Publication of JP2008276301A5 publication Critical patent/JP2008276301A5/ja
Application granted granted Critical
Publication of JP4661824B2 publication Critical patent/JP4661824B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は多視点画像および単視点画像の縮小画像の一覧表示に関する。
一般的な立体画像表示システムでは、右眼に対しては右眼を視点として描かれた画像が、左眼に対しては左眼を視点として描かれた画像が個別に提示される。通常、このような右眼および左眼を視点とした2つの画像(以下、多視点画像と表記する)において、視点から遠い位置にあるオブジェクトは、両眼からの視線がほぼ平行であって見え方がほぼ同じであるので、ほぼ同じ位置に描画される。一方、視点から近い位置にあるオブジェクトは、両眼からの視線が非平行であって見え方が異なるので、互いにずれた位置に描画される。このような視差のある画像(以下、視差画像と表記する)を右眼および左眼それぞれで見るとき、観測者はオブジェクトに対して遠近感を知覚する。
視差画像の生成に関しては、左右2台のカメラを用いて被写体を撮影し、得られた視差画像を、眼の錯覚を利用して3次元的に見せる写実的手法と、コンピュータグラフィックス技術を用いて左右両眼を視点とするモデルデータの視野変換によって視差画像を生成する3次元コンピュータグラフィックス(3次元CG)表示がある。3次元コンピュータグラフィックス表示は、俗に仮想的3次元表示や擬似的3次元表示とも言われる。
写実的手法では、パララックスバリア式、あるいはレンチキュラーレンズ式の3Dモニタを用いて視差画像の立体表示を行う。パララックスバリア式では、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで視差画像の立体視を可能にする。
あるいは、写実的手法では、レンチキュラーレンズシートを用いるレンチキュラー方式、マイクロレンズアレイシートを用いるインテグラルフォトグラフィ方式、干渉現象を用いるホログラフィー方式などが採用される。
一般的なコンピュータグラフィックスでは、3次元空間内に定義されたオブジェクトを複数のポリゴン(多角形)の集合によって表現する。ポリゴンとしては通常、最も簡単な三角形が用いられることが多い。オブジェクトを構成している各ポリゴンは、ベクトルや行列などの数学的手法を用いて、それ自身が持つオブジェクト座標から、観測者の視点の位置を基準とした3次元座標、すなわち視野座標へと座標変換が行われる。さらにディスプレイ装置へ表示するために、視野座標で表現されたポリゴンを2次元平面へ透視投影するための座標変換(透視変換)が行われる。これら一連の座標変換が行われた後の最終的なポリゴンの位置データは、ディスプレイに対して垂直な方向(Z軸)への視点からの距離を表すZ値と、ディスプレイ面内での位置座標を表すX値およびY値となる。
各ポリゴンを構成する画素の色値の決定方法に関しては、視野座標において仮想的な光源が配置され、この光源からポリゴンを構成する各頂点に照射される光の強度を物理的に計算し、さらにそれらの値からポリゴン内のラスタライズ過程において各画素位置における光の強度を線形補間によって求める方法がある。
あるいは、特許文献1に示すように、ポリゴン表面にテクスチャと呼ばれる、物体表面の質感や特殊な模様などを表す画像を貼り付ける方法がある。この場合には、座標変換前のオブジェクト座標の段階で、オブジェクトを構成するポリゴンの各頂点に対して位置座標の他にテクスチャ座標が与えられる。そして前述の光強度の場合と同様に、ポリゴンのラスタライズ過程において各画素位置ごとにテクスチャ座標が線形補間され、求められたテクスチャ座標に応じて画素の色値が決定される。
以上のような手続きによって、特定の視点から見たグラフィックス画像を生成することができるが、前述のような立体視のための視差画像を生成するためには、視点の位置を右眼および左眼のそれぞれの位置に置き換え、同一のオブジェクトを2回描画することによって、多視点画像を生成する。高価なシステムでは、上記のような写実的手法を実現可能な表示装置を備え、多視点画像を生成する。
一方、従来、多視点画像と、視差のない通常の画像とが混在して記憶装置に格納されている場合、これらの縮小画像を区別可能に表示する技術がある。特許文献2の電子機器は、写実的手法を実現可能な表示装置を備えており、サムネイル画像の平面的な一覧表示の際、3次元画像に対応するサムネイル画像については「3D」の記号を加え、また、円形または楕円形で表記し、2次元画像に対応するサムネイル画像については「2D」の記号を加え、三角形で表記し、2次元画像から作成したサムネイルと3次元画像から作成したサムネイルとを区別可能にしている。
特開2002−24850号公報 特開2004−120165号公報
特許文献2では、「3D」や「2D」という記号や、円形、楕円形、三角形という図形で2次元画像と3次元画像のサムネイルを表記しているが、これでは、両者が直感的に区別しにくい。
また、特許文献2では、写実的手法による3次元画像の表示を実現可能な表示装置の配備が必須であり、かつ、2次元画像と3次元画像の表示切替が必須であるため、システム全体のコストが高くなってしまうという欠点がある。
そこで本発明は、ユーザが撮影画像の代表画像の中から多視点画像の代表画像を容易かつ直感的に識別できる装置を簡易な構成で実現する。
本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した第1の縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像に対応する第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の代表画像として縮小画像作成部の作成した第1の縮小画像を一覧表示するとともに、画像識別部が多視点画像と識別した画像の代表画像として画像処理部の作成した第2の縮小画像を一覧表示する表示部と、を備える。
この発明によると、多視点画像の代表画像として3次元コンピュータグラフィック処理の施された縮小画像が、単視点画像の代表画像として単なる縮小画像が一覧表示される。多視点画像の代表画像は3次元コンピュータグラフィック処理されているから、単なる縮小画像との違いが一目瞭然で分かる。また、多視点画像の代表画像の表示のために特殊な写実的手法を使う必要がなく、安価で済む。
本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像について、被写体顔領域の有無を検出する顔検出部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の縮小画像および画像識別部が多視点画像と識別しかつ顔検出部が被写体顔領域を検出しなかった画像の代表画像として縮小画像を一覧表示するとともに、画像識別部が多視点画像と識別しかつ顔検出部が被写体顔領域を検出した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示する表示部と、を備える。
この発明によると、顔の検出された多視点画像の代表画像として3次元コンピュータグラフィック処理の施された所定のサンプル画像が、単視点画像あるいは顔の検出されない多視点画像の代表画像として単なる縮小画像が一覧表示される。多視点画像の代表画像となる所定のサンプルは3次元コンピュータグラフィック処理されているから、顔のある多視点画像の代表画像と単なる縮小画像との違いが一目瞭然で分かる。また、所定のサンプルを使用するから、多視点画像の代表画像の表示のために、個々の多視点画像に3次元コンピュータグラフィック処理をしなくて済む。
本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するフラッシュ発光識別部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の代表画像として縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつフラッシュ発光識別部がフラッシュ発光がなかったと識別した画像の代表画像として縮小画像作成部の作成した縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつフラッシュ発光識別部がフラッシュ発光があったと識別した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示する表示部と、を備える。
この発明によると、撮影時にフラッシュ発光があった多視点画像の代表画像として3次元コンピュータグラフィック処理の施された縮小画像が、単視点画像あるいは撮影時にフラッシュ発光がなかった多視点画像の代表画像として単なる縮小画像が一覧表示される。撮影時にフラッシュ発光があった多視点画像の代表画像は3次元コンピュータグラフィック処理されているから、単なる縮小画像あるいは撮影時にフラッシュ発光がなかった多視点画像の代表画像との違いが一目瞭然で分かる。また、多視点画像の代表画像の表示のために特殊な写実的手法を使う必要がなく、安価で済む。
画像識別部が多視点画像であると識別した画像から、被写体顔領域の有無を検出する顔検出部をさらに備え、画像処理部は、第1の縮小画像に対し、顔検出部が検出した被写体顔領域に対応する領域を設定した上、設定された領域に3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成し、表示部は、画像識別部が多視点画像と識別した画像のうち、顔検出部が被写体顔領域を検出しなかった画像の代表画像として第1の縮小画像を一覧表示するとともに、顔検出部が被写体顔領域を検出した画像の代表画像として第2の縮小画像を一覧表示してもよい。
顔という重要部分に限って画像処理を施しており、少ない処理で実質的な擬似立体画像を代表画像として表示できる。
本発明に係る画像処理装置は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、画像入力部に入力された画像を記憶する記憶部と、記憶部の記憶した画像を縮小した第1の縮小画像を作成する縮小画像作成部と、記憶部に記憶された画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、画像識別部が多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別する距離識別部と、画像識別部が多視点画像と識別しかつ距離識別部が被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、記憶部に記憶された画像の一覧表示が指示されたことに応じ、画像識別部が単視点画像と識別した画像の代表画像として縮小画像作成部の作成した第1の縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつ距離識別部が被写体が遠距離にあると識別した画像の代表画像として縮小画像作成部の作成した第1の縮小画像を一覧表示し、画像識別部が多視点画像と識別しかつ距離識別部が被写体が近距離にあると識別した画像の代表画像として画像処理部の作成した第2の縮小画像を一覧表示する表示部と、を備える。
この発明によると、近距離に被写体がある多視点画像に対してのみ3次元コンピュータグラフィック処理を施すから、被写体が遠距離にあり当該処理を施しても無意味な画像には当該処理を行わなくて済む。
本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した第1の縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像に対応する第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の代表画像として第1の縮小画像を一覧表示するとともに、多視点画像と識別した画像の代表画像として第2の縮小画像を一覧表示するステップと、を含む。
本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像について、被写体顔領域の有無を検出するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の縮小画像および多視点画像と識別しかつ被写体顔領域を検出しなかった画像の代表画像として縮小画像を一覧表示するとともに、多視点画像と識別しかつ被写体顔領域を検出した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示するステップと、を含む。
本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像であると識別した画像について、撮影時のフラッシュ発光の有無を識別するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の代表画像として縮小画像を一覧表示し、多視点画像と識別しかつフラッシュ発光がなかったと識別した画像の代表画像として縮小画像を一覧表示し、多視点画像と識別しかつフラッシュ発光があったと識別した画像の代表画像として3次元コンピュータグラフィックの施された所定のサンプル縮小画像を一覧表示するステップと、を含む。
多視点画像であると識別した画像から、被写体顔領域の有無を検出するステップと、第1の縮小画像に対し、被写体顔領域に対応する領域を設定した上、設定された領域に3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、多視点画像と識別した画像のうち、被写体顔領域を検出しなかった画像の代表画像として第1の縮小画像を一覧表示するとともに、被写体顔領域を検出した画像の代表画像として第2の縮小画像を一覧表示するステップと、をさらに含んでもよい。
本発明に係る画像処理方法は、2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、入力された画像を記憶するステップと、記憶した画像を縮小した第1の縮小画像を作成するステップと、記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別するステップと、多視点画像と識別しかつ被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、記憶された画像の一覧表示が指示されたことに応じ、単視点画像と識別した画像の代表画像として第1の縮小画像を一覧表示し、多視点画像と識別しかつ被写体が遠距離にあると識別した画像の代表画像として第1の縮小画像を一覧表示し、多視点画像と識別しかつ被写体が近距離にあると識別した画像の代表画像として第2の縮小画像を一覧表示するステップと、を含む。
この画像処理方法をコンピュータに実行させるプログラムも本発明に含まれる。
本発明によると、多視点画像の代表画像として3次元コンピュータグラフィック処理の施された画像が、単視点画像、顔の検出されない多視点画像、あるいは被写体が遠距離にある多視点画像の代表画像として単なる縮小画像が一覧表示される。多視点画像の代表画像となる所定のサンプルは3次元コンピュータグラフィック処理されているから、顔のある多視点画像の代表画像と単なる縮小画像との違いが一目瞭然で分かる。また、多視点画像の代表画像の表示のために特殊な写実的手法を使う必要がなく、安価で済む。
<第1実施形態>
図1は、複眼カメラ1の電気的構成を示す。第1および第2撮像部2a、2bのレンズ光軸L1、L2は、平行となるように、あるいは所定角度をなすように並設されている。
第1撮像部2aは、レンズ光軸L1に沿って配列された第1ズームレンズ11a、第1絞り12a、第1フォーカスレンズ13a、および第1イメージセンサ14aによって構成されている。第1絞り12aには絞り制御部16aが接続されており、また、第1イメージセンサ14aにはタイミングジェネレータ(TG)18aが接続されている。第1絞り12a、第1フォーカスレンズ13aの動作は測光測距CPU19aによって制御される。TG18aの動作はメインCPU62によって制御される。
カメラ1にはユーザがこのカメラ1を使用するときに種々の操作を行うための操作部70が設けられている。この操作部70には、カメラ1を作動させるための電源投入用の電源スイッチ、オート撮影やマニュアル撮影等を選択するためのモードダイヤル、各種のメニューの設定や選択あるいはズームを行うための十字キー、閃光発光用スイッチ、および十字キーで選択されたメニューの実行やキャンセル等を行うための情報位置指定キーが備えられている。操作部70への適宜操作により、電源のオン/オフ、各種モード(撮影モード、再生モード等)の切り替え、ズーミングなどが行われる。
また、カメラ1には、メインCPU62と、EEPROM146と、YC/RGB変換部147と、表示用のドライバ148とが備えられている。メインCPU62は、このカメラ1全体の制御を行う。EEPROM146には、このカメラ1固有の固体データやプログラム等が格納されている。
YC/RGB変換部147は、YC処理部35a・35bで生成されたカラー映像信号YCを3色のRGB信号に変換して表示用のドライバ148を経由して画像表示LCD10に出力する。
入力操作部9からのズーム操作に応じて、第1ズームレンズ11aは、レンズ光軸L1に沿ってNEAR側(繰り出し側)、あるいはINF側(繰り込み側)に移動し、ズーム倍率を変化させる。この移動は図示しないモータで駆動される。絞り12aは、AE(Auto Exposure)動作時に開口値(絞り値)を変化させて光束を制限し、露出調整を行う。フォーカスレンズ13aは、AF(Auto Focus)動作時にレンズ光軸L1に沿ってNEAR側、あるいはINF側に移動されて合焦位置を変え、ピント調整を行う。この移動は図示しないモータで駆動される。
静止画用レリーズスイッチの半押し状態が検出されたとき、メインCPU62は距離用撮像素子51a・51bからそれぞれ測距データを得る。メインCPU62は得られた測距データに基づいて、ピント、絞りなどの調整を行う。
第1イメージセンサ14aは、第1ズームレンズ11a、第1絞り12a、および第1フォーカスレンズ13aによって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14aの光電荷蓄積・転送動作は、TG18aによって制御され、TG18aから入力されるタイミング信号(クロックパルス)により、電子シャッタ速度(光電荷蓄積時間)が決定される。第1イメージセンサ14aは、撮影モード時には、1画面分の画像信号を所定周期ごとに取得する。
第2撮像部2bは、第1撮像部2aと同一の構成であり、第2ズームレンズ11b、第2絞り12b、第2フォーカスレンズ13b、およびタイミングジェネレータ(TG)14bが接続された第2イメージセンサ14bによって構成されている。これらの動作はメインCPU62によって制御される。第1撮像部2aと第2撮像部2bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。なお、第1および第2イメージセンサ14a・14bとして、CCD型やCMOS型のイメージセンサが用いられる。
第1および第2イメージセンサ14a・14bから出力された撮像信号は、それぞれA/D変換器30a・30bに入力される。A/D変換器30a・30bは、入力された画像データをアナログからデジタルに変換する。A/D変換器30a・30bを通して、第1イメージセンサ14aの撮像信号は第1画像データ(右眼用画像データ)として、第2イメージセンサ14bの撮像信号は第2画像データ(左眼用画像データ)として出力される。
画像信号処理回路31a・31bは、それぞれ、階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理をA/D変換器30a・31bから入力された第1および第2画像データに施す。バッファメモリ32a・32bは、画像信号処理回路31a・31bで各種画像処理が施された第1および第2画像データを一時的に格納する。
測光・測距CPU19a・19bは、それぞれ、バッファメモリ32a・32bに格納された第1および第2画像データの各々からAF評価値およびAE評価値を算出する。AF評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。また、AE評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値およびAE評価値は、後述する撮影準備処理時に実行されるAF動作およびAE動作においてそれぞれ使用される。
バッファメモリ32a・32bに記憶された画像データは、それぞれYC処理部35a・35bにより輝度信号(Y信号)及び色差信号(Cr,Cb 信号)に変換されるとともに、ガンマ補正等の所定の処理が施される。処理されたYC信号はそれぞれワークメモリ128a・128bに格納される。
ワークメモリ128a・128bに記憶された第1および第2画像データのYC信号は、それぞれコントローラ34によってYC/RGB変換部147に読み出される。YC/RGB変換部147は、第1および第2画像データのYC信号を所定方式の映像信号(例えば、NTSC方式のカラー複合映像信号)に変換した上で、画像表示LCD10での立体表示を行うための立体画像データに合成する。撮影モード時にLCD10が電子ビューファインダとして使用される際には、YC/RGB変換部147によって合成された立体画像データが、LCDドライバ148を介してLCD10にスルー画として表示される。
圧縮伸張処理回路36a・36bは、それぞれワークメモリ128a・128bに記憶された第1および第2画像データに対して、静止画ではJPEG、動画ではMPEG2、MPEG4、H.264方式等の所定の圧縮形式に従って圧縮処理を施す。メディアコントローラ37は、圧縮伸張処理回路36a・36によって圧縮処理された各画像データを、I/F39経由で接続されたメモリカード38その他の記録メディアに記録させる。
このようにしてメモリカード38に記録された第1および第2画像データをLCD10に再生表示する場合、メモリカード38の各画像データは、メディアコントローラ37によって読み出され、圧縮伸張処理回路36a・36によって伸張処理が行われ、YC/RGB変換部147によって立体画像データに変換された後、LCDドライバ148を介してLCD10に再生画像として表示される。
LCD10は、写実的手法を採用していない通常のモニタであり、画像撮影時には電子ビューファインダとして使用され、画像再生時には撮影によって得られた画像データの表示を行う。
メインCPU62は、複眼カメラ1の全体の動作を統括的に制御する。メインCPU62には、レリーズスイッチ5a・5b、操作部70のほか、不揮発性メモリであるEEPROM146が接続されている。EEPROM146は、各種制御用のプログラムや設定情報などを格納している。メインCPU62は、このプログラムや設定情報に基づいて各種処理を実行する。
また、メインCPU62には、光学系制御指示部127が接続されており、光学系制御指示部127へのズーム操作に応じて第1撮像部2a・第2撮像部2bの撮影倍率が変更される。
レリーズスイッチ5aは2段押しのスイッチ構造となっている。撮影モード中に、レリーズスイッチ5aが軽く押圧(半押し)されると、AF動作およびAE動作が行われ撮影準備処理がなされる。この状態でさらにレリーズスイッチ5aが強く押圧(全押し)されると、撮影処理が行われ、1画面分の第1および第2画像データがフレームメモリ32からメモリカード38に転送されて記録される。
AF動作は、メインCPU62が第1および第2フォーカスレンズ13a・13bを制御してそれぞれ所定方向に移動させながら、順次に得られる第1および第2画像データの各々から算出されたAF評価値の最大値を求めることによりなされる。AE動作は、AF動作が完了した後、算出されたAE評価値に基づいて、第1および第2絞り12a・12bの開口値、および第1および第2イメージセンサ14a・14bの電子シャッタ速度を設定することによりなされる。
また、カメラ1には、操作の手助けを行うための操作LCD表示103が備えられている。
また、カメラ1は、電源電池68が着脱可能な構成となっている。電源電池68は充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池68は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池68は図示しない電池収納室に装填することにより、カメラ1の各回路と電気的に接続される。
第1撮像部2a、第2撮像部2bには、それぞれ、第1撮像部2aと第2撮像部2bのなす間隔/輻輳角を検出する間隔/輻輳角検出回路4a・4bと、間隔/輻輳角検出回路4a・4bの検出した輻輳角を記憶するレンズ間隔/輻輳角記憶回路6、基線長の伸縮と光軸を駆動モータなどで回転させ輻輳を変化させる間隔/輻輳角駆動回路3a・3bとが備えられている。
また、カメラ1には、間隔/輻輳角検出回路4a・4bの検出した間隔/輻輳角に基づいて間隔/輻輳角駆動回路3a・3bの輻輳角の変化を制御する間隔/輻輳角制御回路5が備えられている。
充電・発光制御部138a・138bは、それぞれストロボ44a・44bを発光させるために電源電池68からの電力の供給を受けて図示しない閃光発光用のコンデンサを充電したり、ストロボ44a・44bの発光を制御する。
充電・発光制御部138a・138bは、レリーズスイッチ5a・5bの半押し・全押し操作信号等の各種の信号や、発光量、発光タイミングを示す信号をメインCPU62や測光・測距CPU19a・19bから取り込んだことに応じ、ストロボ44a・44bへの電流供給制御を行い、所望の発光量が所望のタイミングで得られるように制御する。
縦撮り/横撮り切替ボタン40は、縦撮りまたは横撮りのいずれで撮影を行うかを指示するためのボタンである。縦撮り/横撮り検出回路166は、このボタンの状態により、縦撮りまたは横撮りのいずれで撮影を行うかを検出する。
2D/3Dモード切替フラグ168には、2Dモードであることまたは3Dモードであることを表すフラグが設定される。
距離用発光素子52a、52bは、それぞれ、第1撮像部2aおよび第2撮像部2bの捉えた同一被写体へ投光スポットを照射するための発光ダイオード(LED)からなる。
距離用撮像素子51a、51bは、それぞれ、距離用発光素子52a、52bにより投光スポットの照射された被写体像を取得する測距専用の撮像素子である。
距離用駆動/制御回路54は、距離用発光素子52a、52bの発光タイミングと距離用撮像素子53a、53bとを同期させる制御を行う。
距離用撮像素子53a、53bの撮像動作で得られたアナログ画像信号はそれぞれ測距用A/D変換部55a、55bでデジタル画像データに変換され、距離情報処理回路57に出力される。
距離情報処理回路57は、入力されたデジタル画像データから、第1撮像部2aおよび第2撮像部2bの捉えた被写体までの距離を算出する。これはいわゆる三角測距の原理に基づく。距離情報処理回路57が算出した距離情報は距離情報記憶回路58に記憶される。
顔検出部150は、バッファメモリ32aあるいはバッファメモリ32bに格納された画像データや、バッファメモリ42に格納された画像データから被写体となった人物の顔部分を含む領域である顔領域を検出する。
顔領域の検出方法は特に限定されず、各種のものを採用できるが、例えば本出願人による特開平9−101579号公報において開示された技術を適用することができる。この技術は、撮影した画像の各画素の色相が肌色の範囲に含まれるか否かを判定して肌色領域と非肌色領域とに分割すると共に、画像中のエッジを検出して画像中の各箇所をエッジ部分又は非エッジ部分に分類する。そして、肌色領域内に位置し非エッジ部分に分類された画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出し、抽出した顔候補領域が人物の顔に相当する領域かを判定し、この判定結果に基づき顔領域として検出するものである。また、この他に、特開2003−209683号公報や特開2002−199221号公報に記載される方法で顔領域を検出することもできる。
なお、多視点画像は、上述のような複眼カメラ1で取得する必然性はなく、単眼カメラを用いたモーションステレオ法による連続撮影で取得してもよい。
以下、図のフローチャートを参照し、メインCPU62で実行される一覧画像表示処理の流れを説明する。この処理を規定するプログラムはEEPROM146に格納されている。操作部70からの「サムネイル画像一覧表示」の指示に応じ、メモリカード38に格納されている全ての多視点画像に対して一括して行われる。
S1では、メモリカード38のディレクトリを読み込む。
S2では、画像ファイルが当該ディレクトリに存在するか否かを判断する。画像ファイルが存在する場合はS3に進む。画像ファイルが存在しない場合は処理を終了する。
S3では、画像ファイルのヘッダ部分を読み出す。そして、画像ファイルが多視点画像を格納している旨の識別情報を検知したか否かを判断する。多視点画像を格納している場合はS5、通常の画像を格納している場合はS8に進む。
S5では、画像ファイルに格納されている多視点画像から、サムネイル画像を作成する。その具体的手法は特許文献2の段落0040と同様、左目用画像のみ、右目用画像のみ、あるいはその両方を間引いて作成すればよい。
S6では、作成されたサムネイル画像に3次元CG処理を施すことで3次元サムネイル画像を作成する。例えば図3に示すように、画像中に存在する主要被写体その他の各種の物体(図3はマグカップを示していあるが、人物などでもよい)に対応した3次元形状モデルのポリゴンPGに、サムネイル画像thの対応領域を貼り付けるテクスチャマッピングを行い、3次元CGサムネイル画像Xを得る。この具体的手法は特許文献1と同様である。あるいは、元の多視点画像について3次元CG処理を施し、それを間引くことで3次元CGサムネイル画像を作成してもよいが、処理の負荷の点では、先にサムネイルを作成する方が優れている。
なお、その他の3Dコンピュータグラフィック手法をサムネイル画像に適用し3次元CGサムネイル画像を作成してもよい。
S7では、作成した3次元CGサムネイル画像を、バッファメモリ41に確保された一覧画像バッファに格納する。
S8では、画像ファイルに格納されている単視点の通常画像から、サムネイル画像を作成する。その具体的手法は通常のサムネイル画像と同様、単視点画像を間引いて作成すればよい。このサムネイルを通常サムネイル画像と呼ぶ。
S9では、作成した通常サムネイル画像を、バッファメモリ41に確保された一覧画像バッファに格納する。
S10では、メモリカード38の全ての画像について3次元CGサムネイル画像もしくは通常サムネイル画像を作成したか否かを判断する。作成した場合はS11に進み、作成が終わっていない場合はS3に戻り、作成を続ける。
S11では、バッファメモリ41の3次元CGサムネイル画像および通常サムネイル画像をLCD10に一覧表示する。その順番はサムネイル画像の作成元となった画像ファイルの名前順や記録日時順とすればよい。つまり、3次元CGサムネイル画像および通常サムネイル画像は区別されることなく、LCD10の一画面中に3次元CGサムネイル画像および通常サムネイル画像が混在して配列される。
なお、S3〜S9の処理は、画像が新たに記録されるごとに行ってもよい。
図4はLCD10に一覧表示された3次元CGサムネイル画像Xおよび通常サムネイル画像Yの一例を示す。3次元CGサムネイル画像Xは、3次元CGグラフィック処理が施され立体的効果が付与さているから、通常サムネイルYとの違いが一見して明らかであり、写実的手法を実現する特殊な装置を用いなくとも、多視点画像の縮小画像であることを観者に容易に認識させることができる。
<第2実施形態>
図5は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、顔の写っている多視点画像のサムネイル画像を、特別なサンプルに置き換える。
S21〜S24は、S1〜S4と同様である。
S25では、顔検出部150に対し、多視点画像の一方または双方から顔を抽出するよう指令する。顔検出部150はメインCPU62からの指令に応じ、画像ファイルに格納された左目用画像あるいは右目用画像から、顔領域の検出を試みる。
S26では、顔検出部150が顔領域を検出できたか否かを判断する。顔領域を検出できた場合はS27、検出できなかった場合はS29に進む。
S27では、顔が写っている多視点画像であることを表象するサンプルの3次元サムネイル画像をEEPROM146から取り出す。
S28では、取り出したサンプルを一覧画像バッファに格納する。サンプルの3次元サムネイル画像は、実際の被写体の顔と同一である必要はなく、サンプルの人物の顔であればよく、かつその顔や身体などには、3Dグラフィックによる立体効果が予め付与されている。
S29は、上述のS5と同様である。S30は、S29で作成されたサムネイル画像を、一覧画像バッファに格納する。このサムネイル画像を立体画像縮小画像と呼び、通常サムネイル画像と区別する。
S31〜S34は、上述のS8〜S11と同様である。
図6は、S34が実行された結果、LCD10に一覧表示されたサンプルの3次元サムネイル画像S、通常サムネイル画像Yの一例を示す。
サンプルサムネイル画像Sは、3次元CGグラフィック処理が施されているから、通常サムネイルYや立体画像縮小画像Zとの違いが一見して明らかであり、顔を被写体とする立体画像の識別が容易である。
<第3実施形態>
図7は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、フラッシュ撮影された多視点画像のサムネイル画像を、特別なサンプルに置き換える。
S41〜S44は、S1〜S4と同様である。
S45では、画像ファイルからフラッシュ発光情報を取得し、画像記録時のストロボ44a・44bのオンまたはオフの状況を識別する。フラッシュ発光情報とは、例えば、Exifファイルの「Flash」タグに格納された情報である。
S46では、フラッシュ発光情報に基づき、撮影時におけるストロボ44a・44bのオンまたはオフを判断する。撮影時にストロボ44a・44bがオンであった場合はS47、オフであった場合はS49に進む。
S47では、多視点画像であることを表象するサンプルの3次元サムネイル画像をEEPROM146から取り出す。このサンプルは第2実施形態と同様3次元CG処理により立体効果が付与されている。なおこのサンプルの図柄は特定人物の顔である必要はない。
S48では、取り出したサンプルの3次元サムネイル画像を一覧画像バッファに格納する。サンプルの3次元サムネイル画像は、実際の被写体の顔と同一である必要はなく、ただ、人物の顔が写っていることを3Dグラフィック表示するサムネイル画像である。
S49〜S54は、上述のS29〜S34と同様である。
図8は、S54が実行された結果、LCD10に一覧表示されたサンプルの3次元サムネイル画像W、通常サムネイル画像Yの一例を示す。
サンプルサムネイル画像Wは、3次元CG処理が施されているから、通常サムネイルYや立体画像縮小画像Zとの違いが一見して明らかであり、顔を被写体とする立体画像の識別が容易である。
しかも、多視点画像としての有効利用が困難な暗い画像にまで一律にサンプル表示をしなくて済み、処理が効率化する。
<第4実施形態>
図9は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、顔の写っている多視点画像のサムネイル画像を、当該多視点画像の顔領域についてのみ3次元CG処理を施したサムネイル画像に置き換える。
S61〜S66は、S21〜S26と同様である。ただし、S66では、顔があると判断した場合はS67、顔がないと判断した場合はS69に進む。
S67では、顔が写っている多視点画像から、顔領域を抽出し、その顔領域に3次元CG処理を施す。これは例えば、顔が写っている多視点画像から顔領域を抽出するとともに、当該多視点画像を所定の間引き率で間引く。間引き後の縮小画像に、元多視点画像から抽出された顔領域に相当する領域を設定する。そして、その設定領域中の顔に特有のポリゴンを作成し、当該ポリゴンに間引き後顔領域を貼り付けるテクスチャマッピングを行い、顔領域のみに3次元CG処理の施されたサムネイル画像を得る。この方式は、間引き画像の作成後に3次元CG処理を行う。
あるいは、その検出した顔自体から、その人物の顔に特有のポリゴンを作成し、当該ポリゴンに顔領域を貼り付けるテクスチャマッピングを行い、多視点画像に顔領域のみに3次元CG処理を施した仮のCG画像を作る。そして、この仮のCG画像を所定の間引き率で間引き、顔領域のみに3次元CG処理の施されたサムネイル画像を得る。この方式は、3次元CG処理の後に間引き画像を作成する。
上記のテクスチャマッピング方式はポリゴンの作成から始める必要があり、精密なポリゴンを作成すると処理負荷が大きい。ポリゴンの簡易な作成方法としては、次のようなものが挙げられる。まず、検出された顔領域から、顔の輪郭、目、鼻、口などの顔の構成部分を検出し、検出された顔の構成部分の位置に応じてポリゴン分割線を決める。例えば、両目の中央部分(眉間)から出発し鼻筋に沿って鼻先端に達する線と、両目を周回する線と、口を周回する線と、顔の輪郭とをポリゴン分割線とする。このポリゴンにテクスチャマッピングすると、口と鼻の部分が隆起し、目の周囲が窪んだような簡易な3次元CGサムネイル画像が得られる。
S68では、作成した3次元CGサムネイル画像を一覧画像バッファに格納する。
S69〜S74は、上述のS29〜S34と同様である。
図10は、S74が実行された結果、LCD10に一覧表示された、顔の検出された多視点画像に対応する3次元サムネイル画像S、通常サムネイル画像Y、顔の検出されなかった多視点画像に対応するサムネイル画像Zの一例を示す。
サンプルサムネイル画像Uは、顔領域についてのみ3次元CGグラフィック処理が施されているから、通常サムネイルYや単なる視点画像の縮小画像Zとの違いが一見して明らかであり、顔を被写体とする立体画像の識別が容易である。しかも、元画像を用いて顔領域に3次元CGグラフィック処理が施されているから、元画像の顔の概要も立体的に分かる。
<第5実施形態>
図11は、メインCPU62で実行される一覧画像表示処理の他の例を示す。ここでは、近距離の被写体を撮影した多視点画像のサムネイル画像のみを、3次元CG処理する。
S81〜S84は、S41〜S44と同様である。
S85では、画像ファイルから距離情報を取得し、画像記録時のカメラ1から被写体までの距離を識別する。距離情報とは、例えば、Exifファイルの「SubjectDistance」タグに格納された情報であり、距離情報記憶回路58によって記憶される。
S86では、距離情報Dに基づき、被写体が所定の距離よりも遠い位置(例えばD>10m)にあったか否かを判断する。被写体が遠距離であった場合はS89、遠距離でない場合すなわち近距離にいる場合はS87に進む。
S87では、S6と同様、3次元CGサムネイル画像を作成する。
S88では、作成した3次元CGサムネイル画像を、バッファメモリ41に確保された一覧画像バッファに格納する。
S89〜S94は、上述のS69〜S74と同様である。
図12は、S94が実行された結果、LCD10に一覧表示された3次元サムネイル画像T、通常サムネイル画像Y、3次元CG処理の施されなかった被写体が遠いサムネイル画像Vの一例を示す。
サンプルサムネイル画像Tは、3次元CG処理が施されているから、通常サムネイルYや被写体が遠い画像のサムネイル画像Vとの違いが一見して明らかである。
しかも、撮影時に被写体が近距離にいた多視点画像についてのみ3次元CG処理を施すから、当該処理を施しても無意味な、被写体が遠い画像にまで一律に3次元CG処理をしなくて済み、処理が効率化する。
<第6実施形態>
図13はパソコン100のブロック図である。パソコン100は、主として各構成要素の動作を制御する中央処理装置(CPU)102と、装置の制御プログラムが格納されたり、プログラム実行時の作業領域となる主メモリ106と、パソコン100のオペレーティングシステム(OS)、パソコン100に接続された周辺機器のデバイスドライバに適合するよう視点画像を編集する画像編集処理のプログラムを含む各種のアプリケーションソフト、ユーザの画像等が格納されるハードディスク装置108と、CD−ROM装置110と、表示用データを一時記憶する表示メモリ116と、この表示メモリ116からの画像データ、文字データ等により画像や文字等を表示するCRTモニタや液晶モニタ等のモニタ装置118と、キーボード120と、位置入力装置としてのマウス122と、マウス122の状態を検出してモニタ装置118上のマウスポインタの位置やマウス122の状態等の信号をCPU102に出力するマウスコントローラ124と、インターネット等のネットワーク30と接続される通信インターフェース132と、メモリカード38が着脱されるカード挿入口を有するカードインターフェース112と、上記各構成要素を接続するバス104と、カメラ1とUSB接続するカメラ接続I/F134から構成されている。
ハードディスク装置108に格納されている、画像編集処理のアプリケーションソフトは、該アプリケーションソフトが記録されたCD−ROMをパソコン100のCD−ROM装置110にセットすることにより、パソコン100にインストールすることができる。
モニタ装置118は、LCD10と同様、画像を表示する。
ハードディスク装置108には、カメラ接続I/F134を介して複眼カメラ1から受信した多視点画像ないし通常画像、あるいはカードI/F112を介してメモリカード38から取り込んだした多視点画像ないし通常画像が格納される。
CPU102は、上述の第1〜5実施形態の一覧画像表示処理を、ハードディスク装置108に記憶された多視点画像および通常画像について行う。この処理は、各画像がハードディスク装置108に格納されるごとに、画像ごとに個別実行されてもよいし、キーボード120やマウス122からの指示に応じ、ハードディスク装置108に格納されている全ての画像に対して一括して行われてもよい。
つまり、一覧画像表示処理は、カメラ1で行う必然性はなく、その他の装置においても実現可能である。
カメラのブロック図 第1実施形態に係る一覧画像表示処理のフローチャート テクスチャマッピングの一例を示す図 第1実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図 第2実施形態に係る一覧画像表示処理のフローチャート 第2実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図 第3実施形態に係る一覧画像表示処理のフローチャート 第3実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図 第4実施形態に係る一覧画像表示処理のフローチャート 第4実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図 第5実施形態に係る一覧画像表示処理のフローチャート 第5実施形態に係る一覧画像表示処理により表示されたサムネイルの一例を示す図 パソコンのブロック図
符号の説明
1:カメラ、2a:第1撮像部、2b:第2撮像部、10:LCD、62:メインCPU、38:メモリカード、100:パソコン、102:CPU、108:ハードディスク装置

Claims (18)

  1. 2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力する画像入力部と、
    前記画像入力部に入力された画像を画像ファイルに記憶する記憶部と、
    前記記憶部の記憶した画像を縮小した第1の縮小画像を作成する縮小画像作成部と、
    前記記憶部記憶た画像が多視点画像であるか単視点画像であるかを識別する画像識別部と、
    前記画像識別部が多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを、前記多視点画像の記憶された画像ファイルの距離情報に基づいて識別する距離識別部と、
    前記画像識別部が多視点画像と識別しかつ前記距離識別部が被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する画像処理部と、
    前記記憶部に記憶された画像の一覧表示が指示されたことに応じ、前記画像識別部が単視点画像と識別した画像の代表画像として前記縮小画像作成部の作成した第1の縮小画像を一覧表示し、前記画像識別部が多視点画像と識別しかつ前記距離識別部が被写体が遠距離にあると識別した画像の代表画像として前記縮小画像作成部の作成した第1の縮小画像を一覧表示し、前記画像識別部が多視点画像と識別しかつ前記距離識別部が被写体が近距離にあると識別した画像の代表画像として前記画像処理部の作成した第2の縮小画像を一覧表示する表示部と、
    を備える画像処理装置。
  2. 前記被写体までの距離情報を算出する距離情報処理回路と、
    前記距離情報処理回路の算出した距離情報を前記画像ファイルに記憶する距離情報記憶回路と、
    を備える請求項1に記載の画像処理装置。
  3. 前記縮小画像作成部は、前記記憶部の記憶した画像を縮小した第1の縮小画像を作成することを、前記記憶部が新たな画像を記憶するごとに繰り返し、
    前記画像処理部は、前記画像識別部が多視点画像と識別しかつ前記距離識別部が被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成することを、前記記憶部が新たな画像を記憶するごとに繰り返す請求項1または2に記載の画像処理装置。
  4. 前記表示部は、前記第1の縮小画像および前記第2の縮小画像の作成元となった画像の記憶日時順で、前記第1の縮小画像および前記第2の縮小画像を一覧表示する請求項1〜3のいずれかに記載の画像処理装置。
  5. 前記画像処理部は、前記画像識別部が多視点画像と識別しかつ前記距離識別部が被写体が近距離にあると識別した画像から作成された第1の縮小画像の被写体に対応する3次元のモデルデータに前記第1の縮小画像の対応領域を貼り付けてオブジェクト座標から視野座標に変換し、前記視野座標に変換されたモデルデータを2次元平面へ透視投影する擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成する請求項1〜4のいずれかに記載の画像処理装置。
  6. 前記表示部は、写実的手法を採用していないモニタである請求項1〜5のいずれかに記載の画像処理装置。
  7. 2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、
    前記入力された画像を画像ファイルに記憶するステップと、
    前記記憶した画像を縮小した第1の縮小画像を作成するステップと、
    前記記憶された画像が多視点画像であるか単視点画像であるかを識別するステップと、
    前記多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを、前記多視点画像の記憶された画像ファイルの距離情報に基づいて識別するステップと、
    前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、
    前記記憶た画像の一覧表示が指示されたことに応じ、前記単視点画像と識別した画像の代表画像として前記第1の縮小画像を一覧表示し、前記多視点画像と識別しかつ前記被写体が遠距離にあると識別した画像の代表画像として前記第1の縮小画像を一覧表示し、前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像の代表画像として前記第2の縮小画像を一覧表示するステップと、
    を含む画像処理方法。
  8. 前記被写体までの距離情報を算出するステップと、
    前記算出した距離情報を前記画像ファイルに記憶するステップと、
    を含む請求項7に記載の画像処理方法。
  9. 前記記憶した画像を縮小した第1の縮小画像を作成することを、新たな画像を記憶するごとに繰り返すステップと、
    前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成することを、新たな画像を記憶するごとに繰り返すステップと、
    を含む請求項7または8に記載の画像処理方法。
  10. 前記第1の縮小画像および前記第2の縮小画像の作成元となった画像の記憶日時順で、前記第1の縮小画像および前記第2の縮小画像を一覧表示するステップを含む請求項7〜9のいずれかに記載の画像処理方法。
  11. 前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像から作成された第1の縮小画像の被写体に対応する3次元のモデルデータに前記第1の縮小画像の対応領域を貼り付けてオブジェクト座標から視野座標に変換し、前記視野座標に変換されたモデルデータを2次元平面へ透視投影する擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップを含む請求項7〜10のいずれかに記載の画像処理方法。
  12. 前記第1の縮小画像および前記第2の縮小画像は、写実的手法を採用していないモニタに表示される請求項7〜11のいずれかに記載の画像処理方法。
  13. コンピュータが、
    2以上の視点から撮影された多視点画像および単一の視点から撮影された単視点画像を含む画像を入力するステップと、
    前記入力された画像を画像ファイルに記憶するステップと、
    前記記憶した画像を縮小した第1の縮小画像を作成するステップと、
    前記記憶された画像が多視点画像であるか単視点画像であるかを、前記多視点画像の記憶された画像ファイルの距離情報に基づいて識別するステップと、
    前記多視点画像と識別した画像中の被写体が遠距離または近距離にあるかを識別するステップと、
    前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップと、
    前記記憶た画像の一覧表示が指示されたことに応じ、前記単視点画像と識別した画像の代表画像として前記第1の縮小画像を一覧表示し、前記多視点画像と識別しかつ前記被写体が遠距離にあると識別した画像の代表画像として前記第1の縮小画像を一覧表示し、前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像の代表画像として前記第2の縮小画像を一覧表示するステップと、
    を実行する画像処理プログラム。
  14. 前記被写体までの距離情報を算出するステップと、
    前記算出した距離情報を前記画像ファイルに記憶するステップと、
    を含む請求項13に記載の画像処理プログラム。
  15. 前記記憶した画像を縮小した第1の縮小画像を作成することを、新たな画像を記憶するごとに繰り返すステップと、
    前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像から作成された第1の縮小画像に対し、擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成することを、新たな画像を記憶するごとに繰り返すステップと、
    を含む請求項13または14に記載の画像処理プログラム。
  16. 前記第1の縮小画像および前記第2の縮小画像の作成元となった画像の記憶日時順で、前記第1の縮小画像および前記第2の縮小画像を一覧表示するステップを含む請求項13〜15のいずれかに記載の画像処理プログラム。
  17. 前記多視点画像と識別しかつ前記被写体が近距離にあると識別した画像から作成された第1の縮小画像の被写体に対応する3次元のモデルデータに前記第1の縮小画像の対応領域を貼り付けてオブジェクト座標から視野座標に変換し、前記視野座標に変換されたモデルデータを2次元平面へ透視投影する擬似的3次元コンピュータグラフィック処理を施すことで、第2の縮小画像を作成するステップを含む請求項13〜16のいずれかに記載の画像処理プログラム。
  18. 前記第1の縮小画像および前記第2の縮小画像は、写実的手法を採用していないモニタに表示される請求項13〜17のいずれかに記載の画像処理プログラム。
JP2007115824A 2007-04-25 2007-04-25 画像処理装置、方法およびプログラム Expired - Fee Related JP4661824B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007115824A JP4661824B2 (ja) 2007-04-25 2007-04-25 画像処理装置、方法およびプログラム
US12/109,196 US8072487B2 (en) 2007-04-25 2008-04-24 Picture processing apparatus, picture recording apparatus, method and program thereof
CN200810095922XA CN101296386B (zh) 2007-04-25 2008-04-25 图像处理装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007115824A JP4661824B2 (ja) 2007-04-25 2007-04-25 画像処理装置、方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010286373A Division JP4995966B2 (ja) 2010-12-22 2010-12-22 画像処理装置、方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2008276301A JP2008276301A (ja) 2008-11-13
JP2008276301A5 JP2008276301A5 (ja) 2010-10-21
JP4661824B2 true JP4661824B2 (ja) 2011-03-30

Family

ID=40054216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007115824A Expired - Fee Related JP4661824B2 (ja) 2007-04-25 2007-04-25 画像処理装置、方法およびプログラム

Country Status (2)

Country Link
JP (1) JP4661824B2 (ja)
CN (1) CN101296386B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2448272A4 (en) * 2009-06-23 2017-04-26 LG Electronics Inc. 3d image providing device, display device, and method thereof
JP5552769B2 (ja) * 2009-07-29 2014-07-16 ソニー株式会社 画像編集装置、画像編集方法及びプログラム
JP2011059658A (ja) * 2009-08-11 2011-03-24 Sony Corp 表示装置、表示方法およびコンピュータプログラム
JP2011078029A (ja) * 2009-10-01 2011-04-14 Sony Corp 電子機器、コンテンツ再生方法及びプログラム
CN102780905A (zh) * 2012-05-31 2012-11-14 新奥特(北京)视频技术有限公司 一种3d视频色彩校正的方法
CN106464780B (zh) * 2013-10-03 2019-06-21 特拉华大学 Xslit相机
JP6969157B2 (ja) * 2017-05-24 2021-11-24 富士フイルムビジネスイノベーション株式会社 三次元形状データの編集装置、及び三次元形状データの編集プログラム
CN107967716B (zh) * 2017-11-01 2021-08-06 深圳依偎控股有限公司 一种基于立体图片的缩略图显示控制方法及系统
CN111292232B (zh) * 2018-12-06 2023-08-15 成都微晶景泰科技有限公司 透镜阵列图像拼接方法、装置及存储介质
WO2023282322A1 (ja) * 2021-07-07 2023-01-12 えほんインク株式会社 アバター付商品作製システム及びアバター付商品作製プログラム、及びアバター付商品の製造方法並びに絵本制作システム
CN115816833B (zh) * 2023-01-07 2023-06-30 深圳市创想三维科技股份有限公司 图像校正数据的确定方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207575A (ja) * 1999-01-08 2000-07-28 Nadeisu:Kk 空間融合装置及びこれを適用した応用装置
JP2004163998A (ja) * 2002-09-25 2004-06-10 Sharp Corp 画像表示装置および方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120176A (ja) * 2002-09-25 2004-04-15 Sharp Corp 携帯式電話機
JP4093833B2 (ja) * 2002-09-25 2008-06-04 シャープ株式会社 電子機器
JP4138425B2 (ja) * 2002-09-25 2008-08-27 シャープ株式会社 画像表示装置および方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207575A (ja) * 1999-01-08 2000-07-28 Nadeisu:Kk 空間融合装置及びこれを適用した応用装置
JP2004163998A (ja) * 2002-09-25 2004-06-10 Sharp Corp 画像表示装置および方法

Also Published As

Publication number Publication date
JP2008276301A (ja) 2008-11-13
CN101296386B (zh) 2011-12-07
CN101296386A (zh) 2008-10-29

Similar Documents

Publication Publication Date Title
JP4661824B2 (ja) 画像処理装置、方法およびプログラム
US8120606B2 (en) Three-dimensional image output device and three-dimensional image output method
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
JP4914278B2 (ja) 画像処理装置、方法およびプログラム
JP5931206B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
US8072487B2 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
US9113074B2 (en) Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
JP2010086228A (ja) 3次元表示装置および方法並びにプログラム
JP2009210840A (ja) 立体画像表示装置および方法並びにプログラム
JP2008310696A (ja) 撮像装置、立体画像再生装置及び立体画像再生プログラム
JP4748398B2 (ja) 撮像装置、撮像方法及びプログラム
JP4632060B2 (ja) 画像記録装置、方法およびプログラム
JP4852169B2 (ja) 3次元表示装置および方法並びにプログラム
JP5001960B2 (ja) 3次元画像表示装置及び方法
JP4995966B2 (ja) 画像処理装置、方法およびプログラム
JP4668602B2 (ja) 立体視画像生成装置および方法並びにプログラム
JP2011211717A (ja) 3次元画像出力装置及び方法
JP5638941B2 (ja) 撮像装置および撮像プログラム
JP2012209872A (ja) 3d画像生成方法、3d画像生成プログラム、及び3d画像生成装置
CN101729916A (zh) 图像处理装置、图像记录装置、方法及程序
JP2011102993A (ja) 立体画像表示装置および方法並びにプログラム
WO2013136832A1 (ja) 立体画像表示制御装置および立体画像表示制御方法
JP6616668B2 (ja) 画像処理装置および画像処理方法
WO2012105122A1 (ja) 立体視用画像撮像装置およびその動作制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20100903

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees