JP2015111822A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2015111822A
JP2015111822A JP2014221811A JP2014221811A JP2015111822A JP 2015111822 A JP2015111822 A JP 2015111822A JP 2014221811 A JP2014221811 A JP 2014221811A JP 2014221811 A JP2014221811 A JP 2014221811A JP 2015111822 A JP2015111822 A JP 2015111822A
Authority
JP
Japan
Prior art keywords
image
depth
input
depth map
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014221811A
Other languages
English (en)
Other versions
JP6511247B2 (ja
Inventor
健 三浦
Takeshi Miura
健 三浦
省吾 澤井
shogo Sawai
省吾 澤井
康浩 黒田
Yasuhiro Kuroda
康浩 黒田
紘史 小山
Hiroshi Koyama
紘史 小山
一博 平本
Kazuhiro Hiramoto
一博 平本
弘介 石黒
Kosuke Ishiguro
弘介 石黒
良 大野
Makoto Ono
良 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Morpho Inc
Original Assignee
Morpho Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Morpho Inc filed Critical Morpho Inc
Priority to JP2014221811A priority Critical patent/JP6511247B2/ja
Publication of JP2015111822A publication Critical patent/JP2015111822A/ja
Application granted granted Critical
Publication of JP6511247B2 publication Critical patent/JP6511247B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Analysis (AREA)

Abstract

【課題】所望の合焦状態に応じた合成画像を生成可能な画像処理装置等の提供。
【解決手段】スマートフォン1において、エッジ検出手段107は、焦点距離を変えて撮像された異なる複数の入力画像から特徴としてエッジを検出し、検出されたエッジの強度を特徴量として検出する。そして、深度推定部111は、エッジ検出手段107により検出されたエッジの強度を用いて、対象画素について、複数の入力画像のうちの何れの入力画像で合焦しているかを示す情報である深度を推定する。そして、デプスマップ生成部113は、深度推定部111の推定結果に基づいてデプスマップを生成する。
【選択図】図1

Description

本発明は、画像処理を行う画像処理装置等に関する。
目的の被写体をカメラ等の撮像装置によって撮像する際には、その被写体を取り巻く背景も含めたシーン情報の取り込みが行われ、そのシーン情報に関する画像が出力される。この際、被写体及び背景についての焦点をどのように合わせるかによって、出力される画像の印象が異なってくる。
ここで、目的の被写体を強調した画像出力としたい場合には、近景である目的の被写体には合焦しつつ、遠景である背景は非合焦とするべく、被写界深度を浅くするという方法がある。被写界深度を浅くするためには、近接撮像を行ったり、または望遠レンズを用いたり、絞りを開いたりといった措置が必要となるが、これらの措置を一般人が実施したり、またはこれら措置が可能なハードウエアを揃えることは困難である。また、スマートフォン等のカメラ機能付き携帯電話においては、ハードウエアの制約が非常に厳しく、被写界深度が深く、近景から遠景まで全て合焦して見えるパンフォーカスな画像を出力するものが主流となっており、広く使用されているこれらの機器のハードウエア上で被写体深度の浅い画像を取得することは困難である。
そこで、被写界深度を浅くすることが困難なカメラでも目的の被写体を強調した画像出力とすべく、特許文献1などに示されるように、撮像操作が行われると、被写体像のピントがあった合焦画像と被写体像のピントがずれた非合焦画像とを自動的に連続撮像し、合焦画像と非合焦画像とを合成することにより、被写体の輪郭の周囲がボケた状態の画像(所謂ソフトフォーカス画像)を取得する技術が提案されている。
特開2003−8966号公報
しかしながら、撮像によって得られた撮影画像に複数の被写体が含まれるような場合等には、一方の被写体について合焦している(ピントが合っている)が、他方の被写体は非合焦(ボケている)の合成画像を取得したいケースもあれば、逆のケース、すなわち他方の被写体について合焦しているが、一方の被写体は非合焦の合成画像を取得したいケースもある。上記のような従来の画像処理装置等では、このように所望の合焦状態に応じた合成画像を取得することが困難であるという問題があった。
本発明は、上記の課題を解決するためになされたものであり、その目的とするところは、所望の合焦状態に応じた合成画像を生成可能な画像処理装置等を提供することにある。
本発明は、上記の課題を解決するために、次のような手段を採る。なお、後述する発明を実施するための形態の説明及び図面で使用した符号を参考のために付記するが、本発明の構成要素は該符号を付したものには限定されない。
以上の課題を解決するための第1の発明は、
複数の入力画像(撮像部50によって撮像された複数の撮影画像)から所定の特徴(特徴量、特徴点)を検出する(図4、図15のステップA11、図19のステップJ7)特徴検出手段(図1の処理部10:例えばエッジ検出部107)と、
前記特徴検出手段の検出結果に基づいてデプスマップを生成する(図4のステップA17、図15のステップF17、図19のステップJ27)デプスマップ生成手段(図1の処理部10;デプスマップ生成部113)と、
を備えた画像処理装置である。
また、他の発明として、
複数の入力画像(撮像部50によって撮像された複数の撮影画像)から所定の特徴(特徴量、特徴点)を検出すること(図4、図15のステップA11、図19のステップJ7)と、
前記特徴の検出結果に基づいてデプスマップを生成すること(図4のステップA17、図15のステップF17、図19のステップJ27)と、
を含む画像処理方法を構成してもよい。
更に、他の発明として、
コンピュータ(図1のスマートフォン1、画像処理装置、他の情報処理装置)に、
複数の入力画像(撮像部50によって撮像された複数の撮影画像)から所定の特徴(特徴量、特徴点)を検出する特徴検出ステップ(図4、図15のステップA11、図19のステップJ7)と、
前記特徴検出ステップの検出結果に基づいてデプスマップを生成するデプスマップ生成ステップ(図4のステップA17、図15のステップF17、図19のステップJ27)と、
を実行させるためのプログラム(図1の画像処理プログラム81)を構成してもよい。
この第1の発明等によれば、複数の入力画像から所定の特徴を検出し、検出した特徴に基づいてデプスマップを生成する。複数の入力画像から検出した特徴に基づくことで、デプスマップを生成することができる。
デプスマップは、各座標の画素について、いずれの入力画像で合焦しているか(すなわち合焦している入力画像)を特定可能とする情報であると共に、各入力画像について合焦している画素の座標(すなわち合焦している領域)を特定可能とする情報である。このようにして生成したデプスマップによって、所望の合焦状態に応じた合成画像を生成することが可能となる。この「所望の合焦状態に応じた合成画像」としては、例えば、所定の被写体は合焦しているがその他の被写体は非合焦となっている合成画像や、全ての被写体が合焦している合成画像(全焦点画像ともいう。)が含まれる。
また、デプスマップにより、一旦、所望の合焦状態に応じた合成画像を生成した後、合焦させる被写体を変更したり、あるいは非合焦の度合いを変更したりして異なる合成画像を生成することも可能となる。
また、デプスマップとデプスマップを生成する際に用いた入力画像とを記憶しておけば、所望の合焦状態に応じた合成画像を生成可能となるため、撮像時に複数の合成画像を生成しておく必要は無く、画像データ量を削減し、画像ファイルの管理負担等も軽減することができる。
特に、本発明は、スマートフォン等のカメラ機能付き携帯電話機のように、被写界深度が深く、近景から遠景まで全て合焦して見えるパンフォーカスな画像を生成する画像処理装置に好適に適用することができる。
また、第2の発明として、
第1の発明の画像処理装置であって、
前記特徴検出手段は、前記複数の入力画像から所定の特徴量(エッジ強度、DoG(Difference of Gaussian)値、背景度合等)を検出する特徴量検出手段(図1の処理部10)を有し、
前記特徴量検出手段により検出された特徴量を用いて、対象画素(画像中の全ての画素、一部の画素)について、前記複数の入力画像のうちの何れの入力画像で合焦しているかを示す情報である深度を推定する(図4、図15のステップA15)深度推定手段(図1の深度推定部111)を更に備え、
前記デプスマップ生成手段は、前記深度推定手段の推定結果に基づいて前記デプスマップを生成する(図4のステップA17、図15のステップF17)、
画像処理装置を構成してもよい。
この第2の発明によれば、複数の入力画像から検出した特徴量を用いて、対象画素について、複数の入力画像のうちの何れの入力画像で合焦しているかを示す深度を推定する。対象画素について複数の入力画像のうちの何れの入力画像で合焦しているかを示す深度が推定できれば、その推定結果に基づいて、デプスマップを生成することができる。なお、対象画素は、画像中の全ての画素としてもよいし、画像中の一部の領域に含まれる画素としてもよい。
この場合、他の発明として、
前記特徴量検出手段は、前記複数の入力画像から特徴としてエッジを検出するエッジ検出手段(図1のエッジ検出部107)を有し、
前記深度推定手段は、前記エッジ検出手段により検出されたエッジの強度を前記特徴量として用いて、前記対象画素について前記深度を推定する、
画像処理装置を構成してもよい。
この他の発明によれば、複数の入力画像から特徴としてエッジを検出し、検出されたエッジの強度を特徴量として用いて、対象画素について深度を推定する。本願発明者の知見によれば、入力画像から検出されるエッジの強度は、その焦点距離における合焦度合と相関がある。このため、エッジの強度を特徴量として用いることで、対象画素について合焦している入力画像を適切に推定することができる。
また、第3の発明として、
第2の発明の画像処理装置であって、
前記深度推定手段は、前記特徴量検出手段により検出された前記複数の入力画像それぞれの特徴量を用いて、前記対象画素について、当該対象画素の特徴量に応じて定まる第1種パラメーター値(コスト値)と、当該対象画素について合焦しているとする第1の入力画像と当該対象画素の近傍画素について合焦しているとする第2の入力画像とが異なる場合のペナルティとして定められる第2種パラメーター値(ペナルティ値)とを用いた所定の適切解演算処理(エネルギー関数の値を最大化又は最小化するスコア値演算処理:図7のステップC1〜C7)を行って、前記対象画素について合焦している入力画像を判定する、
画像処理装置を構成してもよい。
この第3の発明によれば、第1種パラメーター値と第2種パラメーター値とを用いた所定の適切解演算処理を行うことで、対象画素について合焦している入力画像を適切に判定することができる。
この場合、他の発明として、
前記適切解演算処理において、前記対象画素について、前記第1種パラメーター値から前記第2種パラメーター値を減算することで所定のスコア値を演算し、
前記深度推定手段は、前記対象画素について、前記スコア値が所定の高値条件を満たす入力画像を合焦している入力画像と判定する(図7のステップC5)、
画像処理装置を構成してもよい。
この他の発明によれば、適切解演算処理において、対象画素について、第1種パラメーター値から第2種パラメーター値を減算することでスコア値を演算し、対象画素について、スコア値が所定の高値条件を満たす入力画像を合焦している入力画像と判定する。これにより、対象画素についてはなるべく特徴量の大きい入力画像を選択しつつ、近傍画素ではできるだけ入力画像を変化させないようにすべく、抑止をかけることができる。このようなスコア値演算処理を行うことで、対象画素について合焦している入力画像を正しく判定することができる。
また、他の発明として、
前記適切解演算処理において、前記対象画素について、前記第1種パラメーター値に前記第2種パラメーター値を加算することで所定のスコア値を演算し、
前記深度推定手段は、前記対象画素について、前記スコア値が所定の低値条件を満たす入力画像を合焦している入力画像と判定する、
画像処理装置を構成してもよい。
この他の発明によれば、適切解演算処理において、対象画素について、第1種パラメーター値に第2種パラメーター値を加算することでスコア値を演算し、対象画素について、スコア値が所定の低値条件を満たす入力画像を合焦している入力画像と判定する。これにより、対象画素について合焦している入力画像を正しく判定することができる。
また、他の発明として、
前記適切解演算処理において、前記第1の入力画像が合焦しているとした場合の深度と前記第2の入力画像が合焦しているとした場合の深度との差が大きいほど、前記第2種パラメーター値をより大きな値として(図3のペナルティ値テーブル89;P<P)、前記スコア値を演算する、
画像処理装置を構成してもよい。
この他の発明によれば、適切解演算処理において、第1の入力画像が合焦しているとした場合の深度と第2の入力画像が合焦しているとした場合の深度との差が大きいほど、第2種パラメーター値をより大きな値としてスコア値を演算する。これにより、対象画素の近傍画素については、できるだけ焦点の近い入力画像が選択されるようにスコア値を演算することができる。
また、他の発明として、
前記適切解演算処理において、前記複数の入力画像のうちの2つの入力画像の組み合わせに応じて個別に定められる前記第2種パラメーター値を用いて、前記スコア値を演算する、
画像処理装置を構成してもよい。
この他の発明によれば、適切解演算処理において、複数の入力画像のうちの2つの入力画像の組み合わせに応じて設定した第2種パラメーター値を用いて、スコア値を演算する。例えば、第1の入力画像の焦点と第2の入力画像の焦点とが大きく乖離している場合には、第2種パラメーターとして大きな値を設定することで、焦点が大きく乖離した入力画像が合焦している入力画像と判定されにくくなるようにすることができる。
また、他の発明として、
前記適切解値演算処理において、前記入力画像を構成するラインについて、当該ライン上の画素について前記スコア値(式(2)、式(3)のエネルギー関数の値)を演算し(図7のステップC3)、
前記深度推定手段は、前記入力画像を構成するライン上の画素について、前記スコア値に基づいて合焦している入力画像を判定する(図7のステップC5)、
画像処理装置を構成してもよい。
この他の発明によれば、適切解演算処理において、入力画像を構成するライン上の画素についてスコア値を演算し、入力画像を構成するライン上の画素について、スコア値に基づいて合焦している入力画像を判定する。これにより、深度推定に係る演算を容易化することができる。
また、第4の発明として、
第3の発明の画像処理装置であって、
前記複数の入力画像から被写体ぶれ領域を検出する被写体ぶれ領域検出手段(図1の処理部10)を更に備え、
前記適切解演算処理において、前記被写体ぶれ領域検出手段により検出された被写体ぶれ領域について、前記第1種パラメーター値及び前記第2種パラメーター値の少なくとも一方を前記被写体ぶれ領域以外の領域で用いるパラメーター値とは異なる値として演算を行う、
画像処理装置を構成してもよい。
この第4の発明によれば、複数の入力画像から被写体ぶれ領域を検出する。そして、適切解演算処理において、当該被写体ぶれ領域について、第1種パラメーター値及び第2種パラメーター値の少なくとも一方を被写体ぶれ領域以外の領域で用いるパラメーター値とは異なる値として、演算を行う。これにより、被写体ぶれ領域に含まれる画素について、合焦している入力画像を適切に判定することができる。
また、他の発明として、
前記複数の入力画像に対してコントラスト補正(図4、図15のステップA9)を行うコントラスト補正手段(図1のコントラスト補正部105)を更に備え、
前記特徴量検出手段は、前記コントラスト補正手段により補正された前記複数の入力画像から前記特徴量を検出する(図4、図15のステップA11)、
画像処理装置を構成してもよい。
この他の発明によれば、複数の入力画像に対してコントラスト補正を行い、コントラスト補正された複数の入力画像から特徴量を検出することで、入力画像の特徴を適切に反映した特徴量を検出することが可能となる。
また、第5の発明として、
第2〜第4の何れかの発明の画像処理装置であって、
前記複数の入力画像の焦点が適切に分離されているかを判定する(図6の焦点分離判定処理)焦点分離判定手段(図1の焦点分離判定部109)を更に備え、
前記深度推定手段は、前記焦点分離判定手段の判定結果が肯定判定となった入力画像を用いて、前記対象画素について前記深度を推定する(図6のステップB7)、
画像処理装置を構成してもよい。
この第5の発明によれば、複数の入力画像の焦点が適切に分離されているかを判定し、その判定結果が肯定判定となった入力画像を用いて、対象画素について深度を推定する。入力画像の焦点が適切に分離されていない場合、目的の被写体とそれ以外の背景とが適切に分離されていなかったりするという問題が生ずる。そこで、焦点距離が適切に変更され、入力画像の焦点が適切に分離されている入力画像を対象として、深度の推定を行うようにする。
この場合、他の発明として、
前記焦点分離判定手段は、前記特徴量検出手段により特徴量が検出された前記複数の入力画像それぞれに対応する画像について、異なる画像間の相関値を算出(図6のステップB1)する相関演算手段(図1の処理部10)を有し、前記相関演算手段により算出された相関値が所定の低閾値条件を満たす画像に対応する入力画像を、焦点が適切に分離されている入力画像と判定する(図6のステップB5)、
画像処理装置を構成してもよい。
この他の発明によれば、特徴量検出手段により特徴量が検出された複数の入力画像それぞれに対応する画像について、異なる画像間の相関値を算出し、算出された相関値が所定の低閾値条件を満たす画像に対応する入力画像を、焦点が適切に分離されている入力画像と判定する。入力画像の焦点が適切に分離されていれば、特徴量が検出された異なる画像間の相関値はある程度小さな値となるはずである。このため、異なる画像間の相関値を指標値として用いることで、入力画像の焦点が適切に分離されているかを確実に判定することができる。
また、他の発明として、
前記焦点分離判定手段は、前記特徴量検出手段により特徴量が検出された前記複数の入力画像それぞれに対応する画像について、特徴の数又は割合が所定の高閾値条件を満たす(図6のステップB3)入力画像を、焦点が適切に分離されている入力画像と判定する(図6のステップB5)、
画像処理装置を構成してもよい。
この他の発明によれば、特徴量検出手段により特徴量が検出された複数の入力画像それぞれに対応する画像について、特徴の数又は割合が所定の高閾値条件を満たす入力画像を、焦点が適切に分離されている入力画像と判定する。入力画像の焦点が適切に分離されていれば、特徴の数や割合はある程度大きな値となるはずである。従って、特徴の数や割合を指標値として用いることで、入力画像の焦点が適切に分離されているかを確実に判定することができる。
また、第6の発明として、
第2〜第5の何れかの発明の画像処理装置であって、
前記特徴量検出手段は、前記複数の入力画像又は前記複数の入力画像を縮小した縮小入力画像(図1の入力画像縮小部101)から前記特徴量を検出し(図4のステップA11)、
前記デプスマップ生成手段は、前記深度推定手段の推定結果に基づいて、縮小されたデプスマップを生成する(図4のステップA17)、
画像処理装置を構成してもよい。
この第6の発明によれば、複数の入力画像又は複数の入力画像を縮小した縮小入力画像から特徴量を検出する。そして、深度の推定結果に基づいて、縮小されたデプスマップを生成する。複数の入力画像、又は、複数の入力画像を縮小した縮小入力画像に対して、上記の発明のデプスマップ生成手法を適用することで、縮小されたデプスマップを生成することができる。縮小デプスマップは、デプスマップに比べて容量が小さいため、メモリに記憶させる際にメモリ容量の削減になる。
また、第7の発明として、
第6の発明の画像処理装置であって、
前記縮小されたデプスマップを復元する(図4のステップA19)復元手段(図1のデプスマップ復元部115)と、
前記復元手段により復元されたデプスマップを、所定の修正用画像(入力画像)を用いて修正したデプスマップを生成する(図4のステップA21)修正手段(図1のデプスマップ修正部117)と、
を更に備えた、
画像処理装置を構成してもよい。
この第7の発明によれば、縮小されたデプスマップを所定の復元方法を用いて復元する。このようにして復元されたデプスマップは、その復元により、深度の境界となる部分で凹凸が発生したり、被写体の境界部分においてのエッジの位置がずれてしまうなどの問題が生ずる。そこで、復元されたデプスマップである復元デプスマップを、所定の修正用画像を用いて修正したデプスマップを生成する。これにより、上記の問題を解消して、適切なデプスマップを得ることができる。
また、第8の発明として、
第1の発明の画像処理装置であって、
前記特徴検出手段は、視差が発生する複数の視点で撮像された撮影画像(視差方式で撮像された撮影画像)を前記複数の入力画像として、前記入力画像から特徴点を検出する(図19のステップJ7)特徴点検出手段(図1の処理部10)を有し、
前記特徴点検出手段によって検出された特徴点に基づいて、前記複数の撮影画像それぞれの視点の相対的な位置関係(カメラ行列:回転行列、並進移動ベクトル)を推定する(図19のステップJ23)視点位置関係推定手段(図1の処理部10)と、
所定の推定演算(バンドル調整)を行って、前記複数の入力画像を構成する画素の3次元の位置を推定する(図19のステップJ25)画素位置推定手段(図1の処理部10)と、
を更に備え、
前記デプスマップ生成手段は、前記視点位置関係推定手段の推定結果と前記画素位置推定手段の推定結果とに基づいて、前記デプスマップを生成する(図19のステップJ27)、
画像処理装置を構成してもよい。
この第8の発明によれば、視差が発生する複数の視点で撮像された撮影画像から検出された特徴点に基づいて推定した視点の相対的な位置関係と、所定の推定演算を行って推定した複数の入力画像を構成する画素の3次元の位置とに基づくことで、デプスマップを適切に生成することができる。
また、第9の発明として、
第8の発明の画像処理装置であって、
前記視点位置関係推定手段は、
前記特徴点検出手段によって検出された特徴点を追跡する(図19のステップJ11)特徴点追跡手段(図1の処理部10)と、
前記特徴点追跡手段の追跡結果に基づいて、前記複数の入力画像の中から基点となる入力画像である基点入力画像(ベースフレーム)を抽出する(図19のステップJ13)基点入力画像抽出手段(図1の処理部10)と、
を有し、前記基点入力画像抽出手段によって抽出された基点入力画像について前記特徴点検出手段によって検出された特徴点に基づいて、前記複数の撮影画像それぞれの視点の相対的な位置関係を推定する、
画像処理装置を構成してもよい。
この第9の発明によれば、特徴点を追跡した追跡結果に基づいて複数の入力画像の中から抽出した基点入力画像について検出された特徴点に基づくことで、複数の撮影画像それぞれの視点の相対的な位置関係を正確に推定することができる。
また、第10の発明として、
第8又は第9の発明の画像処理装置であって、
表示手段(図1の表示部30)と、
前記複数の撮影画像に視差を生じさせるための自装置の移動方法(移動方向、移動量)を前記ユーザーにガイドするためのガイド表示(図22のガイド矢印、ガイド図形)を前記表示手段に表示させる制御を行う表示制御手段(図1の表示制御部127)と、
を更に備えた、
画像処理装置を構成してもよい。
この第10の発明によれば、前記複数の撮影画像に視差を生じさせるための自装置の移動方法をユーザーにガイドするためのガイド表示を表示することで、ユーザーは、デプスマップの生成のために、どのように自装置を移動させればよいかを知ることができるため、至便である。
また、第11の発明として、
自装置の移動諸量(移動距離、移動方向)を検出する移動諸量検出手段(図1の慣性センサ75(加速度センサ、ジャイロセンサ)、処理部10、慣性計測ユニットIMU、GPSユニット、慣性航法装置INS)を更に備え、
前記表示制御手段は、前記移動諸量検出手段の検出結果に基づいて、前記ガイド表示の表示(図22のガイド矢印の表示位置やガイド図形の表示位置)を変化させる、
画像処理装置を構成してもよい。
この第11の発明によれば、検出した自装置の移動諸量に基づいてガイド表示の表示を変化させることで、自装置の適切な移動方向や移動距離をユーザーに報知することが可能となる。
また、第12の発明として、
第1〜第11の何れかの発明の画像処理装置であって、
前記デプスマップと前記複数の入力画像とを用いて全焦点画像を生成する(図4、図19のステップA23)全焦点画像生成手段(図1の全焦点画像生成部119)を更に備えた、
画像処理装置を構成してもよい。
この第12の発明によれば、デプスマップと複数の入力画像とを用いることで、入力画像を構成する画素それぞれについて合焦している状態の画像である全焦点画像を生成することができる。
また、他の発明として、
前記デプスマップ生成手段により生成されたデプスマップと前記複数の入力画像とを用いて全焦点画像を生成する(図15のステップF19)全焦点画像生成手段(図1の全焦点画像生成部119)と、
前記デプスマップ生成手段により生成されたデプスマップを所定の縮小方法を用いて縮小する(図15のステップF21)デプスマップ縮小手段(図1のデプスマップ縮小部121)と、
前記縮小されたデプスマップである縮小デプスマップを前記複数の入力画像及び前記全焦点画像の少なくとも一方と対応付けて記憶する記憶手段(図1の記憶部80、画像データセット83)と、
を更に備えた、
画像処理装置を構成してもよい。
この他の発明によれば、デプスマップ生成手段により生成されたデプスマップと複数の入力画像とを用いて全焦点画像を生成する。そして、デプスマップ生成手段により生成されたデプスマップを所定の縮小方法を用いて縮小し、縮小されたデプスマップである縮小デプスマップを複数の入力画像及び全焦点画像の少なくとも一方と対応付けて記憶する。縮小デプスマップを記憶することで、デプスマップそのものを記憶する場合と比べてメモリ容量の削減になる。また、複数の入力画像や全焦点画像と対応付けて記憶しておくことで、後にこれらの画像情報を用いて全焦点画像の修正等を行ったり、他の装置でこれらの画像情報を利用することが可能となる。
また、他の発明として、
前記記憶手段に記憶された縮小デプスマップを所定の復元方法を用いて復元(図15のステップA47)するデプスマップ復元手段(図1のデプスマップ復元部115)と、
前記復元されたデプスマップである復元デプスマップを所定の修正用画像を用いて修正(図15のステップA49)する修正手段(図1のデプスマップ修正部117)と、
を更に備えた、
画像処理装置を構成してもよい。
この他の発明によれば、記憶手段に記憶された縮小デプスマップを所定の復元方法を用いて復元する。そして、復元されたデプスマップである復元デプスマップを所定の修正用画像を用いて修正する。復元されたデプスマップは、その復元により、深度の境界となる部分で凹凸が発生したり、被写体の境界部分においてのエッジの位置がずれてしまうなどの問題が生ずる。そこで、復元されたデプスマップである復元デプスマップを、所定の修正用画像を用いて修正する。これにより、上記の問題を解消して、適切なデプスマップを得ることができる。
この場合、他の発明として、
前記修正用画像は、前記記憶手段に対応付けて記憶された全焦点画像又は前記複数の入力画像のうちの少なくとも何れかの入力画像であり、
前記修正手段は、前記復元デプスマップのうちの修正対象画素について、当該修正対象画素の近傍画素のデプスマップの画素値に、当該修正対象画素の修正用画像の画素値と当該近傍画素の修正用画像の画素値とが近い値であるほど高い重み付けをし、さらに、当該修正対象画素と当該近傍画素との距離が近いほど高い重み付けをした加重平均化処理(式(3)による加重平均化処理)を行って、当該修正対象画素の復元デプスマップの画素値を修正する、
画像処理装置を構成してもよい。
この他の発明によれば、修正用画像として、前記記憶手段に対応付けて記憶された全焦点画像又は前記複数の入力画像のうちの少なくとも何れかの入力画像を用いる。そして、復元デプスマップのうちの修正対象画素について、当該修正対象画素の近傍画素のデプスマップの画素値に、当該修正対象画素の修正用画像の画素値と当該近傍画素の修正用画像の画素値とが近い値であるほど高い重み付けをし、さらに、当該修正対象画素と当該近傍画素との距離が近いほど高い重み付けをした加重平均化処理を行って、当該修正対象画素の復元デプスマップの画素値を修正する。この手法により、前景と背景との境界が明確となったデプスマップを得ることができる。
また、第13の発明として、
第1〜第12の何れかの発明の画像処理装置であって、
表示手段(図1の表示部30)と、
ユーザー操作を受け付ける入力手段(図1の入力部20)と、
前記入力手段に対するユーザー操作に応じて、前記デプスマップに基づいて、特定深度に相当する入力画像中の画素の画素値を、前記特定深度以外の深度に相当する入力画像に適用した合成画像を生成する合成画像生成手段(図1の強調画像生成部123)と、
を更に備え、
前記表示手段は、前記合成画像生成手段によって生成された合成画像を表示する、
画像処理装置を構成してもよい。
この第13の発明によれば、ユーザー操作を受け付ける入力手段から入力されるユーザー操作に応じて、デプスマップに基づいて、特定深度に相当する入力画像中の画素の画素値を、特定深度以外の深度に相当する入力画像に合成した合成画像を生成する。生成した合成画像を表示する。これにより、例えば、ユーザーにより指定された部分にフォーカスの合った合成画像を生成して、ユーザーに閲覧させることが可能となる。
また、第14の発明として、
第12の発明の画像処理装置であって、
表示手段(図1の表示部30)と、
ユーザー操作を受け付ける入力手段(図1の入力部20)と、
前記全焦点画像に対して暈し処理を行う暈し処理手段(図1の処理部10)を有し、前記入力手段に対するユーザー操作に応じて、前記デプスマップに基づいて、特定深度に相当する入力画像中の画素の画素値を前記暈し処理の結果の画像に合成した合成画像を生成する合成画像生成手段(図1の強調画像生成部123)と、
を更に備え、
前記表示手段は、前記合成画像生成手段により生成された合成画像を表示する、
画像処理装置を構成してもよい。
この第14の発明によれば、ユーザー操作を受け付ける入力手段から入力されるユーザー操作に応じて、デプスマップに基づいて、特定深度に相当する入力画像中の画素の画素値を、全焦点画像に対して暈し処理を行った結果の画像に合成した合成画像を生成し、生成した合成画像を表示する。これにより、例えば、ユーザーにより指定された部分にフォーカスの合った合成画像を生成して、ユーザーに閲覧させることが可能となる。
この場合、他の発明として、
前記合成画像生成手段は、ユーザー操作により指定された画像上の領域が前記暈し処理が行われた領域であるか否かを判定し、その判定結果が肯定判定である場合に、当該領域の暈し度合を前記所定の暈し度合とは異なる暈し度合に変更して、前記合成画像に対して再度暈し処理を行う、
画像処理装置を構成してもよい。
この他の発明によれば、ユーザー操作により指定された画像上の領域について、暈し処理によって一旦暈された画像を暈し度合を変更して、再度暈した合成画像を生成することができる。これにより、例えば、合成画像において既に暈された部分をユーザーがタップすることにより、その部分の暈し度合を変更する(強くする又は弱くする)といったことが可能となる。
また、第15の発明として、
第14の発明の画像処理装置であって、
前記入力手段に対するユーザー操作(アイコン操作、タップ操作)に応じて、合焦対象とする領域である合焦対象領域を前記ユーザーが指定するための指定用図形(図25の楕円形の図形や円形、矩形の図形)を前記表示手段に表示させる表示制御手段(図1の表示制御部127)を更に備え、
前記合成画像生成手段は、前記デプスマップに基づいて、前記入力画像のうち前記指定用図形に含まれる画素の深度を前記特定深度として、前記合成画像を生成する、
画像処理装置を構成してもよい。
この第15の発明によれば、入力手段に対するユーザー操作に応じて、合焦対象とする領域である合焦対象領域をユーザーが指定するための指定用図形を表示手段に表示させることで、ユーザーは、簡易な操作によって合焦対象領域を指定することができる。
また、第16の発明として、
第15の発明の画像処理装置であって。
前記入力手段は、前記表示手段と一体的に構成されたタッチパネルを有し、
前記表示制御手段は、前記指定用図形を前記表示手段に表示させた後、(1)前記指定用図形に対するピンチ操作(ピンチアウト操作/ピンチイン操作)、(2)前記指定用図形に対する複数回のタップ操作(ダブルタップ操作)、(3)前記指定用図形に対してタップ操作を継続した継続時間(長押し操作がされた場合の長押し時間)、のうちの何れかに応じて、前記表示させた指定用図形の形状を変更する(指定用図形を拡大する/縮小する)、
画像処理装置を構成してもよい。
この第16の発明によれば、簡易なユーザー操作によって、指定用図形の大きさを変更させることができる。
また、第17の発明として、
第13又は第14の発明の画像処理装置であって、
前記入力手段は、前記表示手段と一体的に構成されたタッチパネル(図1のタッチパネル21)を有し、
前記合成画像生成手段は、前記タッチパネルに対する操作に基づいて決定した深度を前記特定深度として、前記合成画像を生成する、
画像処理装置を構成してもよい。
この第17の発明によれば、表示手段と一体的に構成されたタッチパネルに対する操作によって、合成画像を生成することができる。
また、第18の発明として、
第17の発明の画像処理装置であって、
前記表示手段は、撮像対象を確認可能な確認画面(撮像素子からの出力信号に基づく画像がリアルタイムに表示される画面)を表示し、
前記確認画面における前記タッチパネルに対するタップ操作に応じて、合焦対象とする確認画面上の位置である合焦対象位置を記憶する記憶手段(図1の記憶部80)と、
前記記憶手段に合焦対象位置が記憶された後、所定の撮像条件の成立に応じて撮像を行う撮像手段(図1の撮像部50)と、
を更に備え、
前記特徴検出手段は、前記撮像手段によって撮像された複数の撮影画像を前記複数の入力画像として前記特徴を検出し、
前記合成画像生成手段は、前記記憶手段に記憶された合焦対象位置に対応する深度を前記特定深度として、前記合成画像を生成する、
画像処理装置を構成してもよい。
この第18の発明によれば、ユーザーは、確認画面において合焦対象位置を指定することができる。そして、その後に撮像を行い、確認画面において指定された合焦対象位置に対応する深度を特定深度とした合成画像を生成することができる。
この場合、他の発明として、
前記撮像手段は、前記記憶手段に合焦対象位置が記憶された後、(1)前記入力手段に対する所定の撮像操作を検知したこと、(2)一定時間以上の継続したタップ操作を検知したこと、(3)複数回のタップ操作を検知したこと、のいずれかを前記撮像条件の成立として撮像を行う、
画像処理装置を構成してもよい。
この他の発明によれば、タップ操作によって合焦対象位置が記憶された後、簡易なユーザー操作によって、撮像を行わせることができる。
また、第19の発明として、
第17の発明の画像処理装置であって、
前記表示手段は、所定の表示用画像(入力画像)を表示し、
前記表示用画像が表示された表示画面における前記タッチパネルに対するピンチ操作に応じて、合焦対象とする領域である合焦対象領域を設定する合焦対象領域設定手段(図1の処理部10)と、
前記合焦対象領域設定手段によって設定された合焦対象領域以外の領域に対して所定の暈し度合で暈し処理を行う暈し処理手段(図1の処理部10)と、
を更に備え、
前記暈し処理手段は、前記合焦対象領域設定手段によって設定された合焦対象領域に対するピンチ操作(ピンチアウト操作/ピンチイン操作)に応じて、前記暈し度合を変更する(暈し度合を高くする/低くする)暈し度合変更手段(図1の処理部10)を有する、
画像処理装置を構成してもよい。
この第19の発明によれば、ユーザーは、表示用画像が表示された表示画面において、タッチパネルに対するタップ操作によって、合焦対象とする領域である合焦対象領域を指定することができる。そして、合焦対象領域以外の領域に対して所定の暈し度合で暈し処理を行うことで、合焦対象領域が強調された合成画像を生成することができる。
また、第20の発明として、
第19の発明の画像処理装置であって、
前記暈し度合変更手段は、前記合焦対象領域に対するピンチアウト操作に応じて前記暈し度合を段階的に高くし、前記合焦対象領域に対するピンチイン操作に応じて前記暈し度合を段階的に低くする、
画像処理装置を構成してもよい。
この第20の発明によれば、簡易なユーザー操作によって、合焦対象領域以外の領域に対して暈し処理を行う暈し度合を変更することができる。
また、第21の発明として、
第1〜第12の何れかの発明の画像処理装置であって、
前記複数の入力画像は、異なる焦点距離で撮像された複数の撮影画像であり、
表示手段(図1の表示部30)と、
ユーザー操作を受け付ける入力手段(図1の入力部20)と、
前記表示手段の所定位置に、焦点距離範囲をユーザーが指定するための焦点距離範囲指定用画像(図27の焦点距離スライダーS1)を表示させる制御を行う表示制御手段(図1の表示制御部127)と、
前記デプスマップに基づいて、前記焦点距離範囲指定用画像に対するユーザー操作によって指定された焦点距離範囲に対応する深度の画素を合焦とし、それ以外の画素を非合焦とした合成画像を生成する合成画像生成手段(図1の強調画像生成部123)と、
を更に備え、
前記表示手段は、前記合成画像生成手段によって生成された合成画像を表示する、
画像処理装置を構成してもよい。
この第21の発明によれば、ユーザーが焦点距離範囲指定用画像に対する操作によって、所望の焦点距離範囲に対応する深度の画素を合焦とし、それ以外の画素を非合焦とした合成画像を生成させて、当該合成画像を閲覧することができる。
また、第22の発明として、
第1〜第12の何れかの発明の画像処理装置であって、
前記複数の入力画像は、異なる焦点距離で撮像された複数の撮影画像であり、
表示手段(図1の表示部30)と、
ユーザー操作を受け付ける入力手段(図1の入力部20)と、
前記複数の入力画像に基づく複数の参照用画像(複数の入力画像、複数の入力画像に対してそれぞれ特徴を検出した特徴検出画像、複数の入力画像に対してそれぞれコントラスト補正を施したコントラスト補正画像、複数の入力画像と対応する特徴検出画像とを乗算した積画像)を前記表示手段に順次に表示させる制御を行う表示制御手段(図1の表示制御部127)と、
前記デプスマップに基づいて、前記順次に表示される参照用画像のうち、ユーザーによって指定された参照用画像に対応する入力画像の焦点距離に対応する深度の画素を合焦とし、それ以外の画素を非合焦とした合成画像を生成する合成画像生成手段(図1の強調画像生成部123)と、
を更に備え、
前記表示手段は、前記合成画像生成手段によって生成された合成画像を表示する、
画像処理装置を構成してもよい。
この第22の発明によれば、ユーザーは、順次に表示される参照用画像を閲覧して所望の被写体が強く表示されている参照用画像を指定し、デプスマップに基づいて、順次に表示される参照用画像のうち、ユーザーによって指定された参照用画像に対応する入力画像の焦点距離に対応する深度の画素を合焦とし、それ以外の画素を非合焦とした合成画像を生成させて、当該合成画像を閲覧することができる。
また、第23の発明として、
第22の発明の画像処理装置であって、
前記複数の入力画像それぞれについて、当該入力画像と前記特徴検出手段によって特徴が検出された特徴検出画像(エッジ画像)とを乗算した積画像(入力画像とエッジ画像とを画素単位で乗算することで得られる画像)を生成する積画像生成手段(図1の処理部10)を更に備え、
前記表示制御手段は、前記積画像生成手段によって生成された積画像を前記参照用画像として、前記表示手段に順次に表示させる制御を行う、
画像処理装置を構成してもよい。
この第23の発明によれば、複数の入力画像それぞれについて、当該入力画像と特徴が検出された特徴検出画像とを乗算した積画像を生成して、参照用画像として順次に表示させることで、合焦とする深度をユーザーが容易に指定可能となる。
また、第24の発明として、
第17の発明の画像処理装置であって、
前記合成画像生成手段は、前記タッチパネルに対するドラッグ操作に基づいて、前記特定深度を動的に変更して前記合成画像を動的に生成し、
前記表示手段は、前記合成画像生成手段により動的に生成される合成画像を前記ドラッグ操作に合わせて表示する、
画像処理装置を構成してもよい。
この第24の発明によれば、ユーザーのタッチパネルに対するドラッグ操作に基づいて、リアルタイムに合成画像を生成して表示することができる。
また、第25の発明として、
第2〜第7の何れかの発明の画像処理装置であって、
ユーザー操作を受け付ける入力手段(図1の入力部20)を更に備え、
前記深度推定手段は、前記ユーザー操作により指定された指定領域に含まれる画素について前記深度を再推定する深度再推定手段(図1の処理部10)を有し、
前記デプスマップ生成手段は、前記深度再推定手段による深度の再推定の結果に基づいてデプスマップを再生成するデプスマップ再生成手段(図1の処理部10)を有する、
画像処理装置を構成してもよい。
この第25の発明によれば、ユーザーが画像中で不自然な表示がなされている部分を発見した場合に、ユーザーがその部分を指定することで、その部分について深度の再推定が行われ、その深度の再推定の結果に基づいて、不自然な部分な適切に修正されたデプスマップを得ることができる。
また、第26の発明として、
第25の発明の画像処理装置であって、
前記深度再推定手段は、前記指定領域に含まれる画素について、前記第1種パラメーター値及び前記第2種パラメーター値の少なくとも一方を、前記深度推定手段が当初の深度推定で用いたパラメーター値とは異なる値に変更して前記適切解演算処理を行って、前記深度を再推定する、
画像処理装置を構成してもよい。
この第26の発明によれば、指定領域に含まれる画素について、第1種パラメーター値及び第2種パラメーター値の少なくとも一方を、深度推定手段が当初の深度推定で用いたパラメーター値とは異なる値に変更して適切解演算処理を行って、深度を適切に再推定することができる。
また、他の発明として、
前記全焦点画像における所定の画素(例えば、タッチパネル上でユーザーがタップした領域の画素や、エッジ強度が所定値以上又は所定値未満の領域の画素)を特定する画素特定手段をさらに備え、
前記合成画像生成手段は、前記全焦点画像のうち前記画素特定手段により特定された画素について暈し度合を前記所定の暈し度合よりも小さくするか、又は、前記全焦点画像のうち前記画素特定手段により特定された画素以外の画素について暈し度合を前記所定の暈し度合よりも大きくして前記暈し処理を行う、
画像処理装置を構成してもよい。
全焦点画像を一様に暈した画像に強調すべき深度の画素を合成した場合、合焦と非合焦の境界付近において輪郭のような不自然な画素値となってしまう領域が発生するという現象が生ずる。この現象を回避するために、全焦点画像のうち画素特定手段により特定された画素について暈し度合を所定の暈し度合よりも小さくするか、又は、全焦点画像のうち画素特定手段により特定された画素以外の画素について暈し度合を所定の暈し度合よりも大きくして暈し処理を行う。これにより、上記の現象を回避し、適切な合成画像を得ることが可能となる。
また、他の発明として、
前記表示手段の所定位置に、前記特定深度をユーザーに指定させるための深度指定用操作窓(例えば、図17の深度指定用操作窓W1、または図27の焦点距離スライダーS1)を表示させる制御を行う表示制御手段を更に備え、
前記表示手段に表示された深度指定用操作窓において、前記入力手段を用いてユーザーによる前記特定深度の指定が可能である、
画像処理装置を構成してもよい。
この他の発明によれば、表示手段の所定位置に、特定深度をユーザーに指定させるための深度指定用操作窓を表示させる制御を行う。そして、ユーザーは、表示手段に表示された深度指定用操作窓から入力手段を用いて特定深度を指定する。これにより、ユーザーは深度指定用操作窓から任意の特定深度を指定することができる。その結果、特定深度の画素が強調された強調画像が生成されて表示部に表示されるため、ユーザーは選択した深度の画素が強調された合成画像を閲覧することが可能となる。
また、他の発明として、
前記入力手段は、前記表示手段と一体的に構成されたタッチパネル(図1のタッチパネル21)を有し、
前記ユーザーは、前記タッチパネルに対するタップ操作により前記特定深度を指定する、
画像処理装置を構成してもよい。
この他の発明によれば、ユーザーは、タッチパネルに対するタップ操作によって特定深度を指定することができる。
また、他の発明として、
前記ユーザー操作はタップ操作であり、
前記合成画像生成手段は、前記タップ操作によりタップされた画像上の領域を前記指定領域として(図8のステップD1)、当該指定領域に基づいて前記特定深度を選択する(例えば、図8のステップD5)、
画像処理装置を構成してもよい。
この他の発明によれば、ユーザー操作はタップ操作であり、タップ操作によりタップされた画像上の領域を指定領域として、当該指定領域に基づいて特定深度を選択する。これにより、ユーザーのタップ操作に伴い、タップされた指定領域について特定深度を選択して合成画像を生成し、表示部に表示させることが可能となる。
また、他の発明として、
前記合焦点画像、前記複数の入力画像の中から選択した入力画像、前記合成画像及び前記デプスマップのうちの何れかの画像を表示用画像として前記表示手段に表示させる制御を行う表示制御手段を更に備え、
前記表示用画像は、前記ユーザーが前記入力手段を用いて前記特定深度を指定するよう参照可能である、
画像処理装置を構成してもよい。
この他の発明によれば、表示制御手段は、合焦点画像、複数の入力画像の中から選択した入力画像、合成画像及びデプスマップのうちの何れかの画像を表示用画像として表示手段に表示させるように制御する。そして、ユーザーは、表示手段に参照可能に表示された表示用画像に基づき、入力手段を用いて特定深度を指定する。これにより、ユーザーは、表示用画像を閲覧して、強調表示させたい部分を指定することができる。
また、他の発明として、
前記合成画像生成手段は、(1)前記指定領域の中心位置に最も近い画素に対応する深度、(2)前記指定領域に含まれる画素のうち前記デプスマップにおいて最も深度が深い又は浅い画素に対応する深度、(3)前記指定領域に含まれる画素の画素値の平均値に画素値が最も近い画素に対応する深度、(4)前記指定領域のうちデプスマップ上において最も対応する深度の画素が占める面積が大きい深度、のうちの何れかを前記特定深度として選択する、
画像処理装置を構成してもよい。
この他の発明によれば、(1)指定領域の中心位置に最も近い画素に対応する深度、(2)指定領域に含まれる画素のうちデプスマップにおいて最も深度が深い又は浅い画素に対応する深度、(3)指定領域に含まれる画素の画素値の平均値に画素値が最も近い画素に対応する深度、(4)指定領域のうちデプスマップ上において最も対応する深度の画素が占める面積が大きい深度、のうちの何れかを特定深度として選択して、合成画像を生成することができる。
また、他の発明として、
前記特徴量検出手段は、前記複数の入力画像の特徴としてエッジを検出するエッジ検出手段(図1のエッジ検出部107)を有し、
前記入力手段は、前記表示手段と一体的に構成されたタッチパネル(図1のタッチパネル21)を有し、
前記ユーザー操作はドラッグ操作であり、
前記ドラッグ操作に応じて一の深度を選択(図9のステップE5)する深度選択手段(図1の処理部10)と、
前記ユーザーによるドラッグ操作の方向と、前記深度選択手段により選択された深度の入力画像中の前記ドラッグ操作により指定された指定領域に含まれるエッジの方向との類似度を算出(図9のステップE6)する類似度算出手段(図1の処理部10)を更に備え、
前記深度再推定手段は、前記指定領域に含まれる画素について、前記第1種パラメーター値及び前記第2種パラメーター値の少なくとも一方を、前記深度推定手段が当初の深度推定で用いたパラメーター値とは異なる値に変更して前記スコア値演算処理を行って、前記深度を再推定する、
画像処理装置を構成してもよい。
この他の発明によれば、特徴量検出手段は、複数の入力画像の特徴としてエッジを検出するエッジ検出手段を有する。そして、タッチパネルに対するユーザーのドラッグ操作に応じて一の深度を選択し、ユーザーによるドラッグ操作の方向と、選択された深度の入力画像中のドラッグ操作により指定された指定領域に含まれるエッジの方向との類似度を算出する。そして、深度再推定手段が、ドラッグ操作により指定された指定領域に含まれる画素について、第1種パラメーター値及び第2種パラメーター値の少なくとも一方を、深度推定手段が当初の深度推定で用いたパラメーター値とは異なる値に変更してスコア値演算処理を行うことで、画像中のエッジ部分の深度を適切に再推定することができる。
スマートフォンの機能構成の一例を示すブロック図。 画像データセットのデータ構成の一例を示す図。 ペナルティ値テーブルのテーブル構成の一例を示す図。 画像処理の流れの一例を示すフローチャート。 図4に続くフローチャート。 焦点分離判定処理の流れの一例を示すフローチャート。 深度推定処理の流れの一例を示すフローチャート。 強調画像生成処理の流れの一例を示すフローチャート。 強調画像修正処理の流れの一例を示すフローチャート。 (1)入力画像の一例。(2)入力画像の一例。(3)エッジ画像の一例。(4)エッジ画像の一例。 (1)デプスマップの一例。(2)全焦点画像の一例。 (1)復元デプスマップの一例。(2)修正デプスマップの一例。 (1)全焦点画像に対する暈し画像の一例。(2)強調画像の一例。(3)暈し画像の一例。(4)強調画像の一例。 (1)強調画像の一例。(2)強調画像に対する修正画像の一例。 第2の画像処理の流れの一例を示すフローチャート。 変形例におけるペナルティ値テーブルのテーブル構成の一例を示す図。 深度選択用操作窓の一例を示す図。 第2の強調画像生成処理の流れの一例を示すフローチャート。 第3の画像処理の流れの一例を示すフローチャート。 (1)特徴点検出結果の一例を示す図。(2)特徴点検出結果の一例を示す図。(3)特徴点追跡結果の一例を示す図。 (1)正面視点の特徴点の座標の推定結果の一例を示す図。(2)上視点の特徴点の座標の推定結果の一例を示す図。(3)左視点の特徴点の座標の推定結果の一例を示す図。 (1)確認画面の一例を示す図。(2)ガイド表示の一例を示す図。(3)ガイド表示の一例を示す図。(4)ガイド表示の一例を示す図。 第4の画像処理の流れの一例を示すフローチャート。 第3の強調画像生成処理の流れの一例を示すフローチャート。 (1)領域指定用図形の一例を示す図。(2)領域指定用図形のサイズ調整の説明図。 (1)ピンチアウト操作による暈し度合の変更の説明図。(2)ピンチイン操作による暈し度合の変更の説明図。 (1)焦点距離スライダーの一例を示す図。(2)焦点距離スライダーの一例を示す図。(3)焦点距離スライダーの一例を示す図。 画素の区別表示の一例を示す図。 第4の強調画像生成処理の流れの一例を示す図。 記録媒体の一例を示す図。 視差方式を用いたデプスマップの生成の原理の説明図。 白飛び効果暈し処理の流れの一例を示すフローチャート。
以下、図面を参照して、本発明を適用した好適な実施形態の一例について説明する。本実施形態では、画像処理装置として、カメラ機能付き携帯電話機の一種であるスマートフォンに本発明を適用した場合の実施形態について説明する。但し、本発明を適用可能な形態が以下説明する実施形態に限定されるわけでないことは勿論である。
図1は、本実施形態におけるスマートフォン1の機能構成の一例を示すブロック図である。スマートフォン1は、処理部10と、入力部20と、表示部30と、通信部40と、撮像部50と、携帯電話用アンテナ55と、携帯電話用無線通信回路部60と、時計部70と、慣性センサ75と、記憶部80とを有して構成される。
処理部10は、記憶部80に記憶されているシステムプログラム等の各種プログラムに従ってスマートフォン1の各部を統括的に制御するプロセッサーであり、CPU(Central Processing Unit)やDSP(Digital Signal Processor)等のプロセッサーを有して構成される。
本実施形態において、処理部10は、主要な機能部として、入力画像縮小部101と、位置合わせ部103と、コントラスト補正部105と、エッジ検出部107と、焦点分離判定部109と、深度推定部111と、デプスマップ生成部113と、デプスマップ復元部115と、デプスマップ修正部117と、全焦点画像生成部119と、デプスマップ縮小部119と、強調画像生成部123と、強調画像修正部125と、表示制御部127とを有する。但し、これらの機能部は一実施例として記載したものに過ぎず、これ以外の機能部を必須構成要素としてもよいことは勿論である。
入力部20は、タッチパネル21を有して構成される入力装置であり、タッチパネル21に対するユーザー操作の検知信号を処理部10に出力する。タッチパネル21は、ユーザーとスマートフォン1との間の入力インターフェースとして機能する。
本実施形態では、入力部20を介してスマートフォン1のカメラ機能が選択されると、ユーザーは、モードとして「撮影モード」と「画像閲覧モード」との2つのモードを選択可能であり、さらにこれらのモードに付随して、「強調画像生成モード」と「強調画像修正モード」との2つのモードを選択可能に構成される。
表示部30は、LCD(Liquid Crystal Display)等を有して構成される表示装置であり、処理部10から出力される表示信号に基づいた各種表示を行う。表示部30には、時刻情報やアプリケーションを起動するためのアイコンの他、後述する画像処理で生成される各種の画像が表示される。
通信部40は、処理部10の制御に従って、装置内部で利用される情報を外部の情報処理装置(例えばパソコン)との間で送受するための通信装置である。通信部40の通信方式としては、所定の通信規格に準拠したケーブルを介して有線接続する形式や、クレイドルと呼ばれる充電器と兼用の中間装置を介して接続する形式、近距離無線通信を利用して無線接続する形式等、種々の方式を適用可能である。
撮像部50は、任意のシーンの画像を撮像可能に構成された撮像デバイスであり、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサ等の撮像素子(半導体素子)を有して構成される。撮像部50は、撮影対象物から発せられた光を、不図示のレンズによって撮像素子の受光平面に結像させ、光電変換によって、像の光の明暗を電気信号に変換する。変換された電気信号は、不図示のA/D(Analog Digital)変換器によってデジタル信号に変換されて、処理部10に出力される。
表示制御部127は、撮像部50から出力されるデジタル化された電気信号に基づいて、ユーザーが撮影対象とするシーンを写し出した画面(後述する確認画面)を表示部30に表示制御する。そして、ユーザーの撮像操作(例えばタッチパネル21の撮像ボタンをタップする操作)に応じて、撮像部50から出力される電気信号に基づいて所定のフォーマット(例えばJPEG方式等)に変換された画像データが、撮影画像のデータとして記憶部80に記憶される。本明細書では、撮像部50による撮像の結果として得られた画像のことを「撮影画像」という。
携帯電話用アンテナ55は、スマートフォン1の通信サービス事業者が設置した無線基地局との間で携帯電話用無線信号の送受信を行うアンテナである。
携帯電話用無線通信回路部60は、RF変換回路、ベースバンド処理回路等によって構成される携帯電話の通信回路部であり、携帯電話用無線信号の変調・復調等を行うことで、通話やメールの送受信等を実現する。
時計部70は、スマートフォン1の内部時計であり、例えば水晶振動子及び発振回路である水晶発振器を有して構成される。時計部70の計時時刻は処理部10に随時出力される。
慣性センサ75は、スマートフォン1の慣性情報を検出するセンサであり、例えば、3軸の加速度センサや3軸のジャイロセンサを有して構成され、センサを基準とする3次元のローカル座標系で検出した3軸の加速度ベクトル及び3軸の角速度ベクトルが処理部10に出力される。
記憶部80は、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の記憶装置を有して構成され、処理部10がスマートフォン1を制御するためのシステムプログラムや、各種アプリケーション処理を実行するための各種プログラムやデータ等を記憶する。
本実施形態において、記憶部80には、プログラムとして、画像処理(図3及び図4参照)として実行される画像処理プログラム81が記憶されている。画像処理プログラム81は、焦点分離判定処理(図5参照)として実行される焦点分離判定プログラム811と、深度推定処理(図6参照)として実行される深度推定プログラム813と、強調画像生成処理(図7参照)として実行される強調画像生成プログラム815と、強調画像修正処理(図8参照)として実行される強調画像修正プログラム817とをサブルーチンとして含む。これらの処理についてはフローチャートを用いて詳細に後述する。
また、記憶部80には、データとして、画像データセット83と、強調画像データ85と、修正強調画像データ87と、ペナルティ値テーブル89とが記憶される。
画像データセット83は、処理部10が各種画像処理を行うために使用する各種データにより構成されるものであり、そのデータ構成の一例を図2に示す。各画像データセット83には、それぞれ異なるシーンで撮像部50によって撮像された画像に係るデータの組合せが記憶されている。各画像データセット83には、複数の入力画像データ833と、当該複数の入力画像データ833に基づいて生成される縮小デプスマップデータ835と、当該複数の入力画像データ833及び当該極小デプスマップデータ835に基づいて生成される全焦点画像データ837とが含まれる。
複数の入力画像データ833は、それぞれ、あるシーンについて撮像部50によって焦点距離や合焦距離、絞り値等のカメラでの撮像に係る諸元(以下、「カメラ諸元」という。)を変えて撮像部50によって撮像された撮影画像である入力画像と、当該入力画像に関する付随情報とからなるデータである。各入力画像データ833における当該入力画像の付随情報として、撮影日時833aと、入力画像をユニークに識別するための画像番号833bと、縮小された入力画像のデータである縮小入力画像データ833cとが対応付けて記憶されている。
撮影日時833aは、時計部70の計時時刻に基づいて処理部10により入力画像データ833に記憶される。
この実施の形態において、処理部10は、所定のルールに従って画像番号833bを設定し、入力画像データ833に対応付けて記憶する。
例えば、撮像部50が、撮像時に一番手前に焦点を合わせて撮像し、徐々に焦点を奥に移して撮像を行う場合、処理部10は、それぞれの入力画像の撮影日時833aに基づいて、撮影時刻が後になるほど焦点距離が長くなるというルールに基づいて、撮影時刻が早い入力画像から順に、1から順番に画像番号833bを割り振る。逆に、撮像時に一番奥に焦点を合わせて撮像し、徐々に焦点を手前に移して撮像を行う場合には、撮影時刻が後になるほど焦点距離が短くなるというルールに基づいて、撮影時刻が遅い入力画像から順に、1から順番に画像番号833bを割り振ればよい。また、他にも、撮像時のカメラ諸元に応じて画像名が自動的に付されるような場合(例えば合焦距離が増加するに従ってImage××の××が増加するように自動的に画像ファイル名が付されるような場合)には、撮影画像の画像名(Image1,Image2,Image3,・・・)の順(昇順)に画像番号833bを割り振ることとしてもよい。
また、例えば、撮像部50が、撮像時にカメラ諸元をEXIF情報等のメタデータとして入力画像に記憶させる構成となっている場合には、そのカメラ諸元を参照して、カメラ諸元に応じた画像番号833bを割り振るようにすることも可能である。
縮小デプスマップデータ835は、デプスマップ生成部113が縮小入力画像を用いて生成した縮小されたデプスマップである縮小デプスマップのデータである。デプスマップとは、複数の入力画像のうちの何れの入力画像で合焦しているかを示す情報である深度が画素別に定められたマップデータである。本実施形態では、対象画素について、複数の入力画像のうちの何れの入力画像で合焦しているかを示す情報である深度を推定する深度推定処理を行い、その深度推定の結果に基づいてデプスマップを生成する。なお、本実施形態では、対象画素を画像中の全ての画素として説明するが、画像中の全ての画素ではなく、画像中の一部の領域に含まれる画素を対象画素としてもよいことは勿論である。
全焦点画像データ837は、全焦点画像生成部119がデプスマップと複数の入力画像とを用いて生成した全ての画素において合焦していると推定される入力画像の画素値で構成される画像のデータである。
複数の入力画像や全焦点画像は、例えばJPEG形式で符号化され、画像No831や撮影日時832、スマートフォンの機種、絞り値、焦点距離、合焦距離、画素数、GPS情報といった付随的なEXIF情報と併せて記憶される。この際、縮小デプスマップデータ835は、付随的なデータとしてEXIF情報に含める形で記憶させることができ、このようにすることで、1つのJPEGファイルとして記憶部80に記憶させることができる。EXIF情報には、さらに縮小デプスマップの生成に用いた情報(例えば縮小率)を含めることができる。画像データセット83は、不揮発性のメモリ(例えばフラッシュROM)に記憶される。
なお、縮小デプスマップを付随的なデータとしてEXIF情報に含めるのではなく、縮小デプスマップを複数の入力画像及び全焦点画像の少なくとも一方と共にJPEG形式で符号化して画像データセット83に含めるようにすることも可能である。この場合は、これらの符号化された画像データのEXIF情報として、縮小デプスマップの生成に用いた情報(例えば縮小率)を含めるようにすればよい。
また、詳細は後述するが、本実施形態では、複数の入力画像の焦点が適切に分離されているかを判定する焦点分離判定処理を行い、焦点が適切に分離されている入力画像を用いて縮小デプスマップを生成する。つまり、焦点が適切に分離されていないと判定された入力画像は縮小デプスマップの生成に利用されない。このため、複数の入力画像のうち、何れの入力画像を縮小デプスマップの生成に用いたかを示す情報をEXIF情報に含めるようにすると好適である。つまり、縮小デプスマップと、当該縮小デプスマップの生成に用いた入力画像の情報とを関連づけて記憶させておくことで、後に縮小デプスマップを用いて全焦点画像の生成や強調画像の生成、強調画像の修正等の処理を行う際に、どの入力画像を用いて処理を行えばよいかが明確となる。
強調画像データ85は、強調画像生成部123が、ユーザー操作に従って全焦点画像のうちの特定の画素部分を強調し、他の画素部分を暈かした画像のデータである。なお、この強調画像データ85は、一時データとして揮発性のメモリ(例えばRAM)に記憶させることとしてもよいし、画像データセット83に含めて不揮発性のメモリ(例えばフラッシュROM)に記憶させることとしてもよい。
修正強調画像データ87は、強調画像修正部125が、ユーザー操作に従って強調画像の一部を修正した画像データである。なお、この修正強調画像データ87も、一時データとして揮発性のメモリ(例えばRAM)に記憶させることとしてもよいし、画像データセット83に含めて不揮発性のメモリ(例えばフラッシュROM)に記憶させることとしてもよい。
ペナルティ値テーブル89は、深度推定部111が行う深度推定処理において、後述する適切解演算処理としてスコア値演算処理を行う際に用いるパラメーター値の一種であるペナルティ値が定められたテーブルであり、不揮発性のメモリ(例えばROM)に予め記憶されている。スコア値演算処理では、対象画素について、当該対象画素の対応する深度のエッジ画像のエッジ強度に応じたコスト値を算出し、コスト値とペナルティ値とを用いて、所定のエネルギー関数の値をスコア値として演算する。ペナルティ値は、対象画素と当該対象画素の近傍画素とで、合焦しているとする入力画像を変化させる場合に課されるペナルティである。本実施形態において、コスト値は第1種パラメーター値に相当し、ペナルティ値は第2種パラメーター値に相当する。
図3は、ペナルティ値テーブル89のテーブル構成の一例を示す図である。
ペナルティ値テーブル89には、種別891と、第1のペナルティ値893と、第2のペナルティ値895とが対応付けて定められている。
対象画素と近傍画素とで、合焦しているとする入力画像を画像番号833bで「1」だけ変化させる場合のペナルティ値が第1のペナルティ値893である。また、対象画素と近傍画素とで、合焦しているとする入力画像を画像番号833bで「2以上」変化させる場合のペナルティ値が第2のペナルティ値895である。そして、種別891の「通常時」には、第1のペナルティ値893として「P」が、第2のペナルティ値895として「P」がそれぞれ定められている。但し、「P<P」である。
また、種別891の「強調画像修正時」には、ユーザーによるドラッグ方向とエッジ方向とが所定の近似条件を満たす場合と、ユーザーによるドラッグ方向とエッジ方向とが所定の乖離条件を満たす場合とで、異なるペナルティ値が定められている。具体的には、前者については、第1のペナルティ値893として「P−α」が、第2のペナルティ値895として「P−α」がそれぞれ定められている。また、後者については、第1のペナルティ値893として「P+α」が、第2のペナルティ値895として「P+α」がそれぞれ定められている。「α」の値は適宜設定可能であり、例えば「α=1」である。
2−1.第1実施例
2−1−1.処理の流れ
図4及び図5は、処理部10が記憶部80に記憶されている画像処理プログラム81に従って実行する画像処理の流れを示すフローチャートである。この画像処理は、スマートフォン1のカメラ機能がユーザーにより選択された場合に実行を開始する処理である。
本実施例では、画像処理として、「撮影モード」として、例えば焦点距離を変えて撮像された複数の撮影画像を入力画像として用いてデプスマップや全焦点画像、強調画像、修正強調画像の生成・表示を行うことに着目した処理を図示・説明する。但し、従来のスマートフォンに備えられているカメラ機能のように、焦点距離を変えずにパンフォーカスな画像を撮像して表示する「通常撮影モード」での撮像を行うことも当然可能であるが、これに係る処理については図示・説明を省略する。
最初に、処理部10は、ユーザーにより入力部20を介して選択されたモードを判定する(ステップA1)。選択されたモードが「撮影モード」である場合は(ステップA1;撮影モード)、処理部10は、ユーザーのシャッター操作に従って、同一シーンについて焦点距離を変えて複数枚の画像の撮像を撮像部50に行わせるように制御する(ステップA3)。例えば、ユーザーによる1回のシャッター操作に伴い、あるシーンを対象とした1の画像データセット83が取得されるものとする。
その後、入力画像縮小部101が、所定の縮小方法を用いて複数の入力画像をそれぞれ縮小する入力画像縮小処理を行う(ステップA5)。この場合、なるべく元の入力画像の画像情報が失われないように、例えば縦横を1/2(nは1以上の整数)に縮小する。入力画像の縮小は、ダウンサンプリング等の公知の手法によって実現することができる。縮小入力画像は、縮小対象となった元の入力画像に対応付けて記憶される。
その後、位置合わせ部103が、記憶部80に記憶された複数の縮小入力画像の位置合わせ処理を行う(ステップA7)。
ユーザーによる撮影がスマートフォン1を固定した状態等の安定した状態での撮影ではなく、撮影者が手で持った状態で行われた場合、入力画像間で位置ズレが発生する可能性が高い。位置ズレがあると、合焦・非合焦として出力する画素の位置がズレてしまい、その結果、間違った深さ情報を含むデプスマップを生成してしまうおそれがある。そこで、縮小入力画像の位置合わせを行う。位置合わせ処理には、種々の手法を適用可能であるが、例えばオプティカルフローを用いた公知の位置合わせ手法を適用することができる。この手法には、ブロックマッチング法や勾配法といった手法が含まれる。
次いで、コントラスト補正部105が、コントラスト補正処理を行う(ステップA9)。後述するエッジ検出処理においてエッジを検出する際に、撮影シーンに強い光が存在することに起因して、入力画像間でエッジがずれるという問題がある。そこで、入力画像の輝度に対して、所定のコントラスト補正の演算式に従ったコントラスト補正を行う。この場合、画像全体にコントラスト補正を施すこととしてもよいし、画像中の一部分にコントラスト補正を施すこととしてもよい。
画像中の一部分にコントラスト補正を施す場合においては、白飛びの発生を考慮する必要がある。白飛びとは、強い光が照射されている領域において露出オーバーが発生し、諧調の情報が失われて真っ白になってしまうことを意味する。白飛びしている領域(以下、「白飛び領域」という。)では、諧調が全体的に鈍ってしまう場合があり、エッジを検出する際に、適切なエッジが検出されなくなるおそれがある。
そこで、公知の手法を用いて白飛び領域を検出し、当該白飛び領域について、好ましくは当該白飛び領域を含む一回り大きい領域について局所的にコントラストを下げる処理を行う。この処理により、後段のエッジ検出処理で白飛び領域の境界で誤った位置でのエッジを検出しないようにすることができ、後述する深度推定及びデプスマップ生成においてエッジのずれの影響を低減できる。
また、上記の白飛びは、複数の露出で同じ画像を撮像し、1枚の画像に合成するHDRを適用することによっても回避することができる。本願出願人は、露出変換関数を用いて白飛びを回避する手法を考案している。詳細は、国際公開第2013/054446号明細書で開示しているが、「y=a・x」で表される露出変換関数を定義し、低露出の入力画像の画素値のサンプルデータを用いた最小二乗法等の手法を用いて、露出変換関数に含まれる(a,b)の露出変換パラメーターの値を推定することで、露出変換関数を求める。そして、求めた露出変換関数を用いて対象画像の諧調値を修正することで、諧調値の鈍りが解消された対象画像を生成する。このようにして生成した対象画像に対してエッジ検出を行うことで、後述する深度推定及びデプスマップ生成においてエッジのずれの影響を低減することができる。
次いで、エッジ検出部107が、コントラスト補正処理で得られた複数の縮小入力画像それぞれに対応するコントラスト補正画像に対してエッジ検出処理を行う(ステップA11)。本実施例では、入力画像の特徴として、コントラスト補正画像中のエッジを検出する。具体的には、例えば、エッジ検出処理として、ラプラシアンフィルタを用いたエッジ検出を行う。なお、ラプラシアンフィルタを用いるのではなく、他にもSobelフィルタやRobertsフィルタ、Forsenフィルタ、レンジフィルタといったエッジ検出用のフィルタを用いてもよい。また、コントラスト補正画像をフーリエ変換によって周波数領域に変換し、低周波成分を除去することで、高周波成分であるエッジを検出することとしてもよい。
次いで、焦点分離判定部109が、記憶部80に記憶されている焦点分離判定プログラム811に従って焦点分離判定処理を行う(ステップA13)。
図6は、焦点分離判定処理の流れを示すフローチャートである。
まず、焦点分離判定部109は、エッジ画像間の相関値を算出する(ステップB1)。相関値は、2つのエッジ画像を構成する全ての画素について、全ての画素同士の畳み込み演算を行う相関演算を行うことで算出することができる。そして、焦点分離判定部109は、各エッジ画像について、エッジ強度が所定の閾値強度を超える画素数を算出する(ステップB3)。
その後、焦点分離判定部109は、所定の焦点分離条件を満たすエッジ画像を判定する(ステップB5)。焦点分離条件は、例えば、ステップB1で算出した相関値が第1の閾値に達しておらず(第1の閾値条件)、且つ、ステップB3で算出した画素数が第2の閾値に達している(第2の閾値条件)こととして定めておくことができる。つまり、相関値が所定の低閾値条件を満たし、且つ、画素数が所定の高閾値条件を満たすことを、焦点分離条件として定めておく。
なお、エッジ強度が所定の閾値強度を超える画素数の代わりに、エッジ強度が所定の閾値強度を超える画素の割合を算出することとしてもよい。この場合は、相関値が第1の閾値に達してらず(第1の閾値条件)、且つ、エッジ強度が所定の閾値強度を超える画素の割合が所定の閾値に達している(第2の閾値条件)ことを焦点分離条件として定めることとすればよい。つまり、相関値が所定の低閾値条件を満たし、且つ、画素の割合が所定の高閾値条件を満たすことを、焦点分離条件として定めておくこととしてもよい。
次いで、焦点分離判定部109は、焦点分離条件を満たすと判定したエッジ画像に対応する入力画像を深度推定に用いる入力画像に決定する(ステップB7)。そして、焦点分離判定部109は、焦点分離条件を満たさない入力画像を消去した後(ステップB9)、焦点分離判定処理を終了する。
なお、上記において、焦点分離条件を満たさない入力画像が存在した場合にエラー報知を行うこととし、ユーザーに再度の撮影を促すようにしてもよい。つまり、撮像部50に焦点距離を変えて、同一シーンの撮像を再度行わせるようにしてもよい。
図4に戻り、焦点分離判定処理を行った後、深度推定部111が、記憶部80に記憶されている深度推定プログラム813に従って深度推定処理を行う(ステップA15)。
図7は、深度推定処理の流れを示すフローチャートである。
深度推定部111は、縮小入力画像を構成する各ラインについてループAの処理を行う(ステップC1〜C9)。ループAの処理では、深度推定部111は、当該ラインに含まれる画素についてエネルギー関数に基づく適切解演算処理を実行する(ステップC3)。
適切解演算処理では、複数の入力画像別のスコア値を、当該入力画像を構成する画素について演算するスコア値演算処理を実行する。具体的には、エネルギー関数に基づき、入力画像を構成する画素別のスコア値を算出する。スコア値は、対象画素について、当該対象画素の対応する深度の入力画像のエッジ強度に応じて定まるコスト値と、当該対象画素について合焦しているとする第1の入力画像と当該対象画素の近傍画素について合焦しているとする第2の入力画像とが異なる場合のペナルティとして定められるペナルティ値とを用いて、入力画像別のスコア値を演算する。そして、演算したスコア値が所定の高値条件を満たす入力画像を合焦している入力画像と推定する。
本実施形態で用いるエネルギー関数について説明する。
本願発明者の知見によれば、エッジ画像から求められるエッジの強さ(エッジ強度)は、その焦点距離における合焦度合いと相関がある。そして、複数の入力画像中、その画素においてエッジが最も強い入力画像が、その画素における最も合焦した入力画像といえると考えられる。この論理から、エッジ情報に基づいて、各画素におけるデプス適切解を導出し、その集合であるデプスマップを生成する。エッジ画像からデプスマップを生成するにあたっては、例えば次式(1)に示すエネルギー関数を用いる。
式(1)において、「p」及び「q」は画素(画素の座標値)であり、「N」は画素pの近傍所定範囲を示す。画素qは、画素pの近傍所定範囲Nに含まれる画素であり、画素pの近傍画素である。
「R」は画素xにおける深度であり、例えば入力画像の画像番号833bと一対一に対応する。画像番号833bは、前述したように、所定のルール(例えば、撮影時刻が後になるほど焦点距離が長くなる又は短くなるというルール)に基づいて1から順番に割り振られる。この場合、画像番号833bは焦点距離の昇順又は降順になっているため、入力画像の深さを表していると言える。
「C(p,R)」は深度Rにおける画素pのコスト値であり、このコスト値は、エッジ強度の逆数として算出される。つまり、エッジ強度が強いほどコスト値は小さくなる。T[]は括弧内の条件が満たされる場合に「1」、満たされない場合に「0」をとる関数である。
「P(p)」は画素pにおけるペナルティ値である。「P」は深度が1変わった場合のペナルティ値である第1のペナルティ値であり、「P」は深度が2以上変わった場合のペナルティ値である第2のペナルティ値である。この第1のペナルティ値及び第2のペナルティ値は、ペナルティ値テーブル89の「通常時」に定められたペナルティ値である。前述したように、「P<P」である。
式(1)のエネルギー関数は、対象画素pについて、複数の入力画像のうち最も合焦である入力画像の情報をできるだけ選択しつつ、対象画素pの近傍画素qについてはできるだけ焦点の近い入力画像が選択されるように、各画素に対し、複数の入力画像のうちどの入力画像の画素値を用いればよいかを選択するための適切解を導出するものである。適切解のときにはこのエネルギー関数の値であるスコア値は最大値をとる。また、このエネルギー関数の内部においては、エッジ画像における画素値(輝度値)に応じてそのスコア値が決定され、最大の画素値をとる入力画像を順次選択していけばエネルギー関数の出力が最大となるように設計されている。これを示しているのが式(1)の右辺第1項のコスト値である。
その一方で、対象画素pの近傍画素qにおいて選択する入力画像を変化させる場合は、ペナルティ値を科される、つまり所定の値を差し引かれる設定となっている。これを示しているのが、式(1)の右辺第2項及び第3項のペナルティ項である。具体的には、対象画素pについて合焦しているとする第1の入力画像と近傍画素qについて合焦しているとする第2の入力画像とが異なる場合には、所定のペナルティ値(第1のペナルティ値及び第2のペナルティ値)をスコア値から減算する。
また、上記のように、第2のペナルティ値の方が第1のペナルティ値よりも大きい値が定められている(P<P)。これは、対象画素pについて推定される深度「Rp」と、近傍画素qについて推定される深度「Rq」との差が大きいほど、より大きなペナルティ値をスコア値から減算することを意味する。
以上のことから、式(1)のエネルギー関数は、なるべく最大の画素値をとる入力画像を選択しつつ、近傍の画素ではできるだけ入力画像を変化させないようにすべく、抑止がかかるように構成されている。コスト値を用いることで、各画素についてエッジの強い入力画像が合焦している入力画像として選択され易くなるようにし、エッジの強さを反映したデプスマップを得ることができる。また、ペナルティ値を用いることで、推定される深度にでこぼこが生じないように制約し、滑らかに深度が変化する平滑的されたデプスマップを得ることができる。
なお、撮像部50が撮像した入力画像は、原則的に焦点距離を変えて撮像された異なる撮影画像であるが、同じ焦点距離の画像が入力画像の中に含まれていても問題はない。この場合、同じ焦点距離の入力画像については、ペナルティ値を「0」として上記の適切解演算処理を行えばよい。
本実施形態では、上記の適切解演算処理におけるスコア値の演算を容易化するために、式(1)のエネルギー関数を一次元化し、入力画像を構成するライン毎に、スコア値を演算して、デプス適切解を算出する。式(1)を一次元化すると、次式(2)のようになる。
式(2)において、「L」はラインrにおけるペナルティ関数である。「L(p,d)」は、ラインrにおける画素pにおけるコスト値である。また、「C(p,r)」は、画素pにおいて深度がrの場合のコスト値である。
ステップC3では、式(2)のエネルギー関数に基づいてスコア値算出処理を実行し、当該ラインを構成する画素それぞれについてスコア値を算出する。そして、深度推定部111は、当該ラインに含まれる画素それぞれについて、当該画素xについてスコア値が最大となった深度Rを判定する(ステップC5)。そして、深度推定部111は、判定した深度Rに対応する画像番号833bの入力画像を当該画素xにおける合焦している入力画像と判定した後(ステップC7)。次のラインへと処理を移行する。
入力画像を構成する全てのラインについてステップC3〜C7の処理を行ったならば、深度推定部111は、ループAの処理を終了し(ステップC9)、深度推定処理を終了する。
図4の画像処理に戻り、深度推定処理を行ったならば、デプスマップ生成部113が、縮小デプスマップ生成処理を行う(ステップA17)。具体的には、深度推定処理の結果に基づいて、縮小入力画像を構成する各画素について推定された深度に応じたビット値を割り当てたマップを生成し、これを縮小デプスマップとする。なお、生成する縮小デプスマップは、深度推定処理で用いた入力画像の数に応じてビット数を設定すればよい。例えば、入力画像が3〜4枚であれば2ビット、5〜8枚であれば3ビットでデプスマップを表現すればよい。生成された縮小デプスマップは、記憶部80の画像データセット83に複数の入力画像と対応付けて記憶される。
次いで、デプスマップ復元部115が、縮小デプスマップ復元処理を行う(ステップA19)。具体的には、縮小デプスマップを所定の復元方法を用いて元の大きさに拡大し、これを復元デプスマップとする。
次いで、デプスマップ修正部117が、デプスマップ修正処理を行う(ステップA21)。具体的には、デプスマップ修正部117は、複数の入力画像の中から選択した一の入力画像を修正用画像として用いて復元デプスマップを修正する。この場合は、例えば、複数の入力画像のうち、焦点距離が中間値に最も近い入力画像を修正用画像として選択することができる。
なお、複数の入力画像の中から選択した2以上の入力画像を合成した合成画像を修正用画像として用いることとしてもよい。
デプスマップの修正は、修正用画像の画素値を用いた加重平均化処理を行うことで実現することができる。この加重平均化処理は、次式(3)で与えられる。
式(3)において、「p」は修正対象画素であり、「q」は修正対象画素の近傍に位置する近傍画素である。「G(p,q)」は修正対象画素pと近傍画素qとの間の距離が近いほど値が大きくなる関数であり、例えばガウス関数で与えられる。また、「I(p)」は修正用画像の修正対象画素pにおける輝度値であり、「I(q)」は修正用画像の近傍画素qにおける輝度値である。そして、「W(I(p),I(q))」は、輝度値「I(p)」と「I(q)」とが近い値であるほど値が大きくなる関数である。「D(q)」はデプスマップにおける近傍画素qにおける値であり、「D’(p)」は加重平均化で得られるデプスマップの修正対象画素pにおける修正値を示す。このようにして得られた修正デプスマップを、以降の処理においてデプスマップとして利用する。
ここで、式(3)の加重平均化処理の処理負荷を軽減するために、詳細な原理説明は省略するが、量子化コードを用いて次式(4)に従って加重平均化処理を行うようにしてもよい。
次いで、全焦点画像生成部119が、全焦点画像生成処理を行う(ステップA23)。具体的には、ステップA21で修正されたデプスマップに基づいて、複数の入力画像の中から選択すべき画素値を抽出し、全ての画素において合焦度が高い入力画像の画素値である構成される全焦点画像を生成する。生成された全焦点画像データ837は、記憶部80の画像データセット83に入力画像データ833及び縮小デプスマップ835と対応付けて記憶される。
図5に移り、表示制御部127は、全焦点画像を表示部30に表示させるように制御する(ステップA25)。その後、処理部10は、ユーザーによって入力部20を介して「強調画像生成モード」が選択されたか否かを判定し(ステップA27)、選択されたと判定したならば(ステップA27;Yes)、強調画像生成部123が、記憶部80に記憶されている強調画像生成プログラム815に従って強調画像生成処理を行う(ステップA29)。
図8は、強調画像生成処理の流れを示すフローチャートである。
強調画像生成部123は、ユーザー操作に従って指定領域を判定する(ステップD1)。具体的には、タッチパネル21のうちのタップされた領域を認識し、タップされた領域を指定領域と判定する。その後、強調画像生成部123は、指定領域の中から代表画素を選択する(ステップD3)。
ユーザーの指によってタップされる箇所は面積があるため、対応する座標は一つに限られず、複数の座標に亘ることになる。そのため、複数の画素値が抽出されることになり、強調したい(合焦を維持する)焦点距離を一意に決めることができない。そのため、本実施例では、抽出された複数の画素値でなる指定領域の中から一の画素を代表画素として選択する。
この場合における代表画素の選択方法としては、例えば、(1)指定領域の中心位置に最も近い画素、(2)指定領域に含まれる画素のうちデプスマップにおいて最も深度が深い又は浅い画素に対応する深度、(3)指定領域に含まれる画素の画素値の平均値に画素値が最も近い画素、のうちの何れかの画素を代表画素として選択するようにすることができる。
その後、強調画像生成部123は、デプスマップに基づいて代表画素の深度を選択する(ステップD5)。つまり、代表画素として選択した画素がデプスマップにおいて何れの深度に対応付けられているかを判定し、判定した深度を選択する。
なお、代表画素を選択してその代表画素の深度を選択するようにするのではなく、代表画素の選択を行わずに、デプスマップを利用して一の深度を選択するようにすることも可能である。具体的には、ステップD3を省略して、ステップD5において、例えば、(4)指定領域のうちデプスマップ上において最も対応する深度の画素が占める面積が大きい深度を選択するようにしてもよい。
次いで、強調画像生成部123は、デプスマップに基づいて、ステップD5で選択された深度に対応する画素を特定する(ステップD7)。つまり、デプスマップの各画素の深度を示すビット値に基づいて、ステップD5で判定された深度の画素がどの画素に相当するかを判定する。
その後、強調画像生成部123は、強調画像を生成する(ステップD9)。具体的には、暈しフィルタを用いて、所定の暈し度合で全焦点画像の全体を暈す処理を行う。この場合の暈しフィルタとしては、例えば、ガウシアンフィルタ等の公知のフィルタを適用することができる。そして、暈し処理の結果として得られる暈し画像に、ステップD7で特定した画素の画素値を合成し、その処理結果を強調画像(合成画像)とする。そして、表示制御部127は、生成した強調画像で表示部30の表示を更新する(ステップD11)。
全焦点画像に対し一様に暈しフィルタを適用したものに強調すべき焦点距離にある画素を合成した場合、合焦と非合焦の境界付近において輪郭のような不自然な画素値となってしまう領域が発生するという現象が生じ得る。この現象は、撮影シーン中の物体の境界付近においては、強調表示すべき焦点距離ではない画素にも関わらず、強調表示すべき焦点距離にある画素の影響を受けてしまうことから発生してしまうことによる。この現象を回避するために、強調表示すべき画素でない部分に重み付けをして全焦点画像に暈しフィルタを掛けて、合成を行う。具体的には、全焦点画像のうち、ステップD7で特定された画素以外の画像部分に対して暈し度合を上記の所定の暈し度合よりも大きくして暈し処理を行う。
なお、上記に代えて、ステップD7で特定された画素については暈し度合を上記の所定の暈し度合よりも小さくして暈し処理を行うこととしてもよい。
次いで、強調画像生成部123は、続けてユーザー操作があったか否かを判定する(ステップD13)。続けてユーザー操作があったと判定したならば(ステップD13;Yes)、強調画像生成部123は、ステップD1に処理を戻す。これは、ユーザーが全く別の位置をタップした場合の他、ユーザーが一度タップした位置からドラッグ操作を行った場合も含む。つまり、ユーザーによりドラッグ操作がなされた場合は、ドラッグ操作により指定領域が順次変化することに伴い代表画素を動的に選択し、デプスマップに基づいて代表画素の深度を動的に判定する。そして、強調画像生成部123は、ドラッグ操作により指定領域が変化することに伴い動的に判定される深度に基づいて、当該代表画素に応じた合成画像を動的に生成し、表示制御部129が、動的に生成される合成画像をドラッグ操作に合わせて表示部30に動的に表示させる制御を行う。
ステップD13において続けてユーザー操作がなかったと判定したならば(ステップD13;No)、強調画像生成部123は、ユーザー操作に従って強調画像生成モードを終了するか否かを判定し(ステップD15)、終了しないと判定した場合は(ステップD15;No)、ステップD13に処理を戻す。一方、終了すると判定した場合は(ステップD15;Yes)、強調画像生成処理を終了する。
図5に戻り、強調画像生成処理を行った後、処理部10は、強調画像が表示部30に表示中であるか否かを判定し(ステップA31)、表示中であると判定したならば(ステップA31;Yes)、ユーザーによって入力部20を介して「強調画像修正モード」が選択されたか否かを判定する(ステップA33)。そして、選択されたと判定したならば(ステップA33;Yes)、強調画像修正部125が、記憶部80に記憶されている強調画像修正プログラム817に従って強調画像修正処理を行う(ステップA35)。
図9は、強調画像修正処理の流れを示すフローチャートである。
強調画像修正部125は、タッチパネル21を介してユーザーによりドラッグされた領域を指定領域とする(ステップE1)。そして、強調画像修正部125は、指定領域の中から代表画素を選択する(ステップE3)。代表画素は、図8の強調画像生成処理のステップD3で代表画素を選択する際と同様の手法で選択することができる。
次いで、強調画像修正部125は、デプスマップに基づいて代表画素の深度を選択する(ステップE5)。つまり、代表画素として選択した画素がデプスマップにおいて何れの深度に対応付けられているかを判定し、判定した深度を選択する。
その後、強調画像修正部125は、ユーザーによるドラッグ方向と、ステップE5で選択した深度の入力画像中の指定領域に含まれるエッジの方向との相対関係を表す指標値としてコサイン類似度を算出する(ステップE6)。コサイン類似度は、ベクトル空間モデルにおける類似度計算手法の1つであり、ベクトル同士の成す角度の近さを表現する指標値である。コサイン類似度は、「1」に近ければベクトル同士が類似しており、「0」に近ければベクトル同士は類似していないことを意味する。なお、コサイン類似度の代わりに、ドラッグ方向とエッジ方向とのコサイン距離を算出するようにしてもよい。
強調画像修正部125は、ステップE5で算出したコサイン類似度に基づいて、指定領域内の画素に対するペナルティ値を設定する。具体的には、コサイン類似度が所定の閾値(例えば0.7)を超えている場合には、ドラッグ方向とエッジ方向とが近似条件を満たすとして、ペナルティ値テーブル89に定められたペナルティ値(第1のペナルティ値を「P−α」、第2のペナルティ値「P−α」)を設定する。また、コサイン類似度が閾値以下である場合には、ドラッグ方向とエッジ方向とが乖離条件を満たすとして、ペナルティ値テーブル89に定められたペナルティ値(第1のペナルティ値を「P+α」、第2のペナルティ値を「P+α」)を設定する。
その結果、ドラッグ方向とエッジ方向とが近似条件を満たす場合(例えば、ドラッグ方向とエッジ方向とが平行な場合)には、ペナルティ値が通常時と比べて小さくなるため、対象画素と当該対象画素の近傍の画素の深度差に対するペナルティが弱くなる。その結果、指定領域に含まれる画素について、合焦しているとして選択する入力画像の許容度が大きくなり、より広い深さの幅で入力画像が選択される可能性が高まるため、エッジ部分を相対的に強める(強調する)作用が生ずる。
一方、ドラッグ方向とエッジ方向とが乖離条件を満たす場合(例えば、ドラッグ方向とエッジ方向とが直交する場合)には、ペナルティ値が通常時と比べて大きくなるため、対象画素と当該対象画素の近傍の画素の深度差に対するペナルティが強くなる。その結果、指定領域に含まれる画素について、合焦しているとして選択する入力画像に対する許容度が小さくなり、入力画像を選択する深さの幅に強い制約がかかることで、エッジ部分を相対的に弱める(消去する)作用が生ずる。
なお、上記では、ドラッグ方向とエッジ方向とが近似条件を満たす場合に、ペナルティ値を通常時と比べて小さくしたが、これに代えて、ドラッグ方向とエッジ方向とが近似条件を満たす場合に、ペナルティ値を通常時と同じ値にすることとしてもよい。この場合は、通常時に生成されたデプスマップが保存され、ドラッグ方向と近似するエッジ情報が保存されるようになる。
次いで、強調画像修正部125は、指定領域内の画素について式(1)のエネルギー関数に基づくスコア値算出処理を実行する(ステップE9)。そして、強調画像修正部125は、指定領域内の画素についてスコア値が最大となった入力画像を合焦している入力画像と判定する(ステップE11)。
その後、強調画像修正部125は、修正デプスマップ生成処理を行う(ステップE13)。具体的には、ステップE11の判定結果に基づいて、入力画像を構成する各画素について合焦していると判定された入力画像に応じたビット値を割り当てたデプスマップを生成し、これを修正デプスマップとする。
その後、強調画像修正部125は、修正強調画像生成処理を行う(ステップE15)。具体的には、ステップE13で生成された修正デプスマップを用いて、指定領域の画素値を修正した強調画像を生成する。
次いで、強調画像修正部125は、ユーザーにより続けてドラッグ操作がなされたか否かを判定し(ステップE17)、なされたと判定したならば(ステップE17;Yes)、ステップE1に処理を戻す。一方、なされなかったと判定したならば(ステップE17;No)、強調画像修正部125は、ユーザーにより強調画像修正モードを終了する操作がなされたか否かを判定する(ステップE19)。
強調画像修正モードを終了する操作がなされなかったと判定したならば(ステップE19;No)、強調画像修正部125は、ステップE17に処理を戻す。一方、強調画像修正モードを終了する操作がなされたと判定した場合は(ステップE19;Yes)、強調画像修正処理を終了する。
図5に戻り、強調画像修正処理を行ったならば、処理部10は、入力部20を介してユーザーにより撮影モード又は画像閲覧モードが選択されたか否かを判定し(ステップA37)、選択されたと判定したならば(ステップA37;Yes)、ステップA1に処理を戻す。一方、選択されなかったと判定したならば(ステップA37;Yes)、処理部10は、入力部20を介してユーザーによりカメラ機能の終了操作がなされたか否かを判定する(ステップA39)。
カメラ機能の終了操作がなされなかったと判定したならば(ステップA39;No)、処理部10は、ステップA27に処理を戻す。一方、カメラ機能の終了操作がなされたと判定したならば(ステップA39;Yes)、処理部10は、画像処理を終了する。
一方、ステップA1においてユーザーにより「画像閲覧モード」が選択されたと判定したならば(ステップA1;画像閲覧モード)、表示制御部127は、記憶部80の画像データセット83に記憶されている全焦点画像の一覧を表示部30に表示させるように制御する(ステップA41)。そして、処理部10は、入力部20からのユーザー操作に従って、一覧表示させた全焦点画像の中から一の全焦点画像を選択する(ステップA43)。
次いで、処理部10は、ステップA43で選択した全焦点画像に対応付けて画像データセット83に記憶されている縮小デプスマップを抽出する(ステップA45)。そして、デプスマップ復元部115が、抽出された縮小デプスマップを復元する縮小デプスマップ復元処理を行う(ステップA47)。画像データセット83に記憶された縮小デプスマップは、縮小されていることによりそのままではデプスマップとして用いることができないため、元のサイズに戻すべく復元を行う。
ここで、縮小デプスマップを復元して得られた復元デプスマップは、その復元により、全焦点画像におけるエッジ部分とのズレが生じてしまうという問題が生ずる。この状態で前述した強調画像生成処理を行うと、強調表示したい被写体を正確に反映できず、背景の一部を合焦領域に含んでしまったり、逆に目的の被写体の一部を非合焦領域としてしまったりすることになる。従って、復元して得られた復元デプスマップそのままではデプスマップとして用いることは不適切である。そこで、デプスマップ修正部117が、復元デプスマップを修正する復元デプスマップ修正処理を行う(ステップA49)。
具体的には、デプスマップ修正部117は、ステップA49で抽出した縮小デプスマップに対応付けて記憶されている全焦点画像を読み出し、この全焦点画像を修正用画像として用いた加重平均化処理を行って、復元デプスマップを修正する。この場合の加重平均化処理は、前述した式(3)と同じ式を用いて実現することができる。
この場合、式(3)において、「p」は修正対象画素であり、「q」は修正対象画素の近傍に位置する近傍画素である。「G(p,q)」は修正対象画素pと近傍画素qとの間の距離が近いほど値が大きくなる関数であり、例えばガウス関数で与えられる。また、「I(p)」は全焦点画像の修正対象画素pにおける輝度値であり、「I(q)」は全焦点画像の近傍画素qにおける輝度値である。そして、「W(I(p),I(q))」は、輝度値「I(p)」と「I(q)」とが近い値であるほど値が大きくなる関数である。「D(q)」はデプスマップにおける近傍画素qにおける値であり、「D’(p)」は加重平均化で得られるデプスマップの修正対象画素pにおける修正値を示す。このようにして得られた修正デプスマップを、以降の処理においてデプスマップとして利用する。
なお、全焦点画像を修正用画像として用いて復元デプスマップを修正する代わりに、複数の入力画像の中から選択した入力画像を修正用画像として用いて復元デプスマップを修正することも可能である。この場合も、例えば、複数の入力画像のうち、焦点距離が中間値に最も近い入力画像を修正用画像として選択することができる。また、複数の入力画像の中から選択した2以上の入力画像を合成した合成画像を修正用画像として用いて復元デプスマップを修正することとしてもよい。
ステップA49において復元デプスマップ修正処理を行ったならば、処理部10は、ステップA25へと処理を移す。つまり、表示制御部127が、ステップA43で選択した全焦点画像を表示部30に表示させるように制御する。以降の処理は同じである。
2−1−2.実験結果
次に、上記の処理について、実際に画像を用いて実験を行った結果を示す。
図10は、同一シーンについて、焦点距離を変えて撮像された2枚の画像を示す。
図10(1)は、近景であるウサギの人形部分に焦点を合わせて撮像された入力画像であり、図10(2)は、背景である木々部分に焦点を合わせて撮像された入力画像である。
これらの入力画像に対して位置合わせ処理及びコントラスト補正処理を行い、その後にエッジ検出処理を行うことで得られたエッジ画像が、それぞれ図10(3)及び図10(4)である。図10(3)は、図10(1)の入力画像に対してエッジ検出処理を行うことで得られたエッジ画像であり、ウサギの人形部分に焦点を合わせて撮像を行ったため、ウサギの人形の輪郭がエッジとして検出されている。それに対し、図10(4)は、図10(2)の入力画像に対してエッジ検出処理を行うことで得られたエッジ画像であり、背景の木々部分に焦点を合わせて撮像を行ったため、背景である木々の部分のエッジが検出されている。
図11(1)は、図10(3),(4)に示した2枚のエッジ画像を用いて適切解演算処理を行って生成したデプスマップを示す。入力画像が2枚であるため、1ビットでデプスマップを表現している。これを見ると、近景であるウサギの人形の部分と、背景である木々の部分とが適切に分離されていることがわかる。
図11(2)は、図11(1)のデプスマップと2枚の入力画像とを用いて生成した全焦点画像を示す。これを見ると、近景であるウサギの人形の部分と、背景である木々の部分との両方が合焦した状態の全焦点画像が生成されていることがわかる。
図12(1)は、デプスマップ復元処理で復元されたデプスマップを示しており、図12(2)は、デプスマップ修正処理で生成された修正デプスマップを示している。これを見ると、復元デプスマップを、選択入力画像を用いて加重平均化処理したことで、近景であるウサギの人形部分と、背景である木々の部分との境界がはっきりした修正デプスマップが得られていることがわかる。
図13は、強調画像生成処理において強調画像を生成した結果を示す図である。図13(1)は、全焦点画像に対して一様に暈し処理を施した結果を示し、図13(2)は、図13(1)の暈し画像に前景であるウサギの人形部分を強調すべく合成した結果を示す。
図13(2)を見ると、ウサギの人形の周辺に輪郭のような不自然な表示となった領域が発生している。この現象は、ウサギの人形部分と背景の木々の部分との境界付近においては、強調表示すべき深度ではない画素にも関わらず、強調表示すべき深度にある画素の影響を受けてしまうことによる。そこで、近景であるウサギの人形の部分に対する重みを小さくして全焦点画像に暈し処理を行った結果が図13(3)である。そして、この図13(3)の暈し画像に全景であるウサギの人形部分を強調すべく合成した結果が、図13(4)である。これを見ると、図13(2)で見られたようなウサギの人形の周辺に生じていた輪郭のような不自然な表示が解消されていることがわかる。
図14(1)は、強調画像生成処理において生成した強調画像を模式化して前景であるウサギの人形部分のみを図示したものを示している。ウサギの人形部分がユーザーによりタップされたことで、ウサギの人形部分が強調された強調画像が表示部30に表示されている。この図を見ると、ウサギの右耳の一部が内側に欠けているような形状となっていることがわかる。これは、図12に示したデプスマップにおいて、ウサギの人形の右耳の部分において適切に深度が推定されず、一部正確ではないデプスマップが生成されてしまったことによる。
前述のエネルギー関数を用いて合焦度の高い入力画像を選択する場合、エネルギー関数における係数の設定によっては、適切な入力画像を選択できない場合があり、その結果、表示された画像中に対象の焦点距離にある被写体部分以外の画素がぼかされず表示されてしまう場合がある。
そこで、表示された強調画像中、対象の焦点距離にある被写体部分以外の画素がぼかされず表示されていることを閲覧したユーザーは、強調画像修正モードを選択する。そして、強調画像修正モードにおいて、修正したい部分をなぞるようにドラッグ操作する。具体的には、図14(1)において画像中の領域R1の部分をユーザーがなぞるようにドラッグ操作する。すると、処理部10は、領域R1を指定領域R1とし、指定領域R1内の画素についてエネルギー関数の係数(より具体的にはペナルティ値)を変化させて再計算を行い、再計算によって強調画像を修正する。
具体的には、ドラッグ方向とエッジ方向とのコサイン類似度を算出し、その値に応じてペナルティ値を設定する。ここでは、コサイン類似度が所定の閾値以下であると判定され、ドラッグ方向とエッジ方向とが近似条件を満たすと判定された結果、第1のペナルティ値を「P−α」とし、第2のペナルティ値を「P−α」として再計算が行われる。つまり、ペナルティ値を通常時と比べて低く設定して再計算が行われる。その結果、前述したように、ドラッグ方向に対して相対的にエッジを強調する作用が生じ、指定領域R1について、通常時に生成されたデプスマップに対して深度の分布が大きく修正されたデプスマップが得られる。この修正されたデプスマップに基づいて合成画像を修正することで、欠けていたウサギの右耳のエッジ部分が強調・補完され、図14(2)に示すように、指定領域R1においてウサギの人形の右耳の形状が適切に修正された修正強調画像が表示画面に表示される。
2−1−3.作用効果
第1実施例によれば、スマートフォン1において、エッジ検出部107は、複数の入力画像から特徴としてエッジを検出し、検出されたエッジの強度を特徴量として検出する。そして、深度推定部111は、エッジ検出手段107により検出されたエッジの強度を用いて、対象画素について、複数の入力画像のうちの何れの入力画像で合焦しているかを示す情報である深度を推定する。そして、デプスマップ生成部113は、深度推定部111の推定結果に基づいてデプスマップを生成する。
より具体的には、入力画像縮小部101が、複数の入力画像をそれぞれ縮小し、縮小した入力画像からエッジを検出する。そして、検出されたエッジの強度を用いた適切解演算処理を行って、対象画素について深度を推定し、その推定結果に基づいてデプスマップを生成する。
深度の推定では、エッジ検出部107の検出結果として得られる複数の入力画像それぞれに対応するエッジ検出画像のエッジ強度に基づく所定の適切解演算処理を行って深度を推定する。適切解演算処理では、スコア値演算処理を行う。このスコア値演算処理では、対象画素について、エッジ強度を用いてコスト値が算出されてスコア値に加算され、当該対象画素の近傍画素について選択する入力画像を変化させる場合は、ペナルティ値がスコア値から減算される。つまり、対象画素についてはなるべく強いエッジ強度の入力画像を選択しつつ、近傍画素ではできるだけ焦点の近い入力画像が選択されるようにすべく、抑止がかかるようになっている。このようなスコア値演算処理を行い、スコア値が所定の高値条件を満たす入力画像を合焦している入力画像と判定することで、深度を正しく推定することが可能となる。
デプスマップは、各座標の画素について、いずれの入力画像で合焦しているか(すなわち深度)を特定可能とする情報であると共に、各入力画像について合焦している画素の座標(すなわち合焦している領域)を特定可能とする情報である。本実施形態では、このようにして生成したデプスマップと複数の入力画像とを用いて全焦点画像を生成し、表示部30に表示させる。
表示部30に表示された全焦点画像は、ユーザー操作に従って強調画像の生成に用いられる。具体的には、タッチパネル21に対するユーサーのタップ操作やドラッグ操作に応じて一の深度を選択する。そして、デプスマップに基づいて選択した深度の画素を特定し、強調画像を生成する。具体的には、全焦点画像に対して所定の暈し度合で暈し処理を行い、その処理結果の画像に、特定された画素の対応する深度の入力画像の画素値を合成した強調画像を生成して、表示部30に表示する。これにより、ユーザーにより指定された部分に焦点の合った強調画像を生成して、ユーザーに閲覧させることが可能となる。
また、強調画像は、ユーザー操作に従って修正される。具体的には、深度推定部111は、ユーザー操作が検知された場合に、ユーザーにより指定された指定領域に含まれる画素について深度を再推定する。そして、デプスマップ生成部113は、深度の再推定の結果に基づいてデプスマップを再生成し、この再生成したデプスマップに基づいて修正強調画像を生成する。これにより、強調画像中のユーザーにより指定された部分を修正して、ユーザーの要求に応じた修正強調画像を提供することが可能となる。
2−2.第2実施例
第1実施例は、焦点距離を変えて撮像された複数の入力画像を縮小し、その縮小した入力画像に対して深度推定処理を行って縮小デプスマップを生成した。第2実施例は、複数の入力画像を縮小せずにそのままの大きさとし、この複数の入力画像に対して第1実施例と同様の画像処理を行って、デプスマップを生成する実施例である。
図15は、処理部10が図4及び図5の画像処理に代えて実行する第2画像処理のうち、画像処理の図4に相当する部分を示したフローチャートである。なお、画像処理と同一のステップについては同一の符号を付している。
最初に、処理部10は、ユーザーにより入力部20を介して選択されたモードを判定する(ステップA1)。選択されたモードが「撮影モード」である場合は、処理部10は、ユーザーのシャッター操作に従って、同一シーンについて焦点距離を変えて複数枚の画像の撮像を撮像部50に行わせるように制御する(ステップA3)。複数の入力画像は画像データセット83に記憶される。
その後、コントラスト補正部105は、画像データセット83に記憶された深度の異なる複数の入力画像それぞれに対して位置合わせ処理(ステップA7)及びコントラスト補正処理を行う(ステップA9)。そして、エッジ検出部107が、コントラスト補正処理で補正された複数の入力画像それぞれに対してエッジ検出処理を行う(ステップA11)。
その後、焦点分離判定部109が、エッジ検出処理で得られたエッジ画像それぞれに対して焦点分離判定処理を行う(ステップA13)。そして、深度推定部111が、焦点分離判定部109によって焦点が適切に分離されていると判定したエッジ画像を用いて深度推定処理を行う(ステップA15)。
その後、デプスマップ生成部113が、デプスマップ生成処理を行う(ステップF17)。具体的には、深度推定処理の結果に基づいて、入力画像を構成する各画素について合焦していると推定された深度に応じたビット値を割り当てたマップを生成し、これをデプスマップとする。なお、生成するデプスマップは、深度推定処理で用いた入力画像の数に応じてビット数を設定すればよい。例えば、入力画像が3〜4枚であれば2ビット、5〜8枚であれば3ビットでデプスマップを表現すればよい。
その後、全焦点画像生成部119が、全焦点画像生成処理を行う(ステップF19)。具体的には、デプスマップ生成処理で得られたデプスマップに基づいて、複数の入力画像の中から選択すべき画素値を抽出し、全ての画素において合焦度が高い入力画像の画素値である構成される全焦点画像を生成する。生成された全焦点画像は、記憶部80の画像データセット83に複数の入力画像と対応付けて記憶される。
その後、デプスマップ縮小部121が、デプスマップ縮小処理を行う(ステップF21)。具体的には、ステップF17で生成されたデプスマップを所定の縮小方法を用いて縮小する。この場合、デプスマップを元の大きさに復元したときになるべく元のデプスマップの画像情報が失われないように、例えば縦横を1/2(nは1以上の整数)に縮小する。入力画像の縮小は、ダウンサンプリング等の公知の手法によって実現することができる。生成された縮小デプスマップは、記憶部80の画像データセット83に複数の入力画像及び全焦点画像と対応付けて記憶される。
3.第3実施例
第3実施例は、上記の第1実施例及び第2実施例で説明した手法とは異なる手法でデプスマップを生成する実施例である。本実施例では、視差が生ずるようにカメラの位置を変化させて異なる視点で撮像された複数の撮影画像を用いてデプスマップを生成する。この視差が生ずるようにカメラの位置を変化させて異なる視点で画像を撮像する方式を「視差方式」と称して説明する。
3−1.デプスマップの生成の流れ
図19は、第3実施例において、処理部10が、図4及び図5の画像処理に代えて実行する第3の画像処理のうち、図4に相当する部分を抜き出したフローチャートである。なお、画像処理と同一のステップについては同一の符号を付して、再度の説明を省略する。
ステップA1においてモードが撮影モードであると判定したならば(ステップA1;撮影モード)、処理部10は、カメラの位置を変えて異なる視点での複数枚の画像を撮像部50に撮像させるように制御する(ステップJ3)。本実施例の手法では、デプスマップを生成するために、目的の被写体を撮像した撮影画像に視差が生じていることが必要となる。そこで、ユーザーに対して、カメラの位置を変えて、複数の視点から目的の被写体を撮影することを促す報知を行うようにすると好適である。
次いで、処理部10は、最初に撮像された撮影画像を基準入力画像として入力する(ステップJ5)。そして、処理部10は、当該基準入力画像について複数の特徴点を検出する特徴点検出処理を行う(ステップJ7)。特徴点の検出方法としては種々の手法を適用可能であるが、例えば、Harris、Stephens、Plesseyのコーナー検出アルゴリズム等を用いた手法や、入力画像に対してアフィン変換を施してSIFT特徴を検出する手法といった公知の手法を適用することができる。
図20(1)は、基準入力画像について特徴点を検出した結果を示す図である。
この基準入力画像は、テーブルに被写体とする箱を置いて、この箱をカメラで正面視点から撮像した撮影画像であり、画像中に示される多数の矩形のマーカが、特徴点検出処理を行うことで検出された特徴点を示している。これを見ると、基準入力画像中から多数の特徴点が検出されていることがわかる。
次いで、処理部10は、次の撮影画像を入力画像として入力する(ステップJ9)。そして、処理部10は、特徴点追跡処理を行う(ステップJ11)。特徴点の追跡は、例えば、多重解像度解析を用いた手法を適用することができる。具体的には、基準入力画像に対して作成した多重解像度画像と、当該入力画像に対して作成した多重解像度画像とを用いて、例えば、粗い解像度から順番に同じ解像度間で特徴点の追跡処理を行う。そして、入力画像を複数のブロックに分割したブロック単位で特徴点の移動量を伝搬させることで、より安定して特徴点を追跡する。この際、基準入力画像において検出された各特徴点が、当該入力画像において、どの方向にどの程度移動したか、つまり特徴点の移動方向及び移動量を算出する。
図20(2)は、入力画像について特徴点を検出した結果を示す図である。
この入力画像は、図20(1)と同様に、テーブルに置かれた被写体を左視点から撮像した撮影画像である。この入力画像に対して特徴点の追跡を行った結果が図20(3)である。図20(3)において、各線の始点と終点が各画像における特徴点の位置を示し、線の色は各特徴点の移動方向を示し、線の長さは各特徴点の移動量を示す。この図を見ると、異なる視点で撮像した撮影画像について対応する各特徴点が移動している様子が分かる。
次いで、処理部10は、当該入力画像を基点入力画像(キーフレーム)として抽出するか否かを判定する(ステップJ13)。基点入力画像とは、特徴点の追跡に成功した画像のことであり、例えば、当該入力画像において特徴点の移動量を伝搬させた結果、特徴点の総体的な移動量が、所定の閾値である第1の閾値以上(又は第1の閾値超)である場合に、当該入力画像を基点入力画像として抽出する。
当該入力画像を基点入力画像として抽出すると判定したならば(ステップJ13;Yes)、処理部10は、当該基点入力画像における特徴点の座標値を記憶部80に記憶させる(ステップJ15)。また、当該入力画像を基点入力画像として抽出しないと判定したならば(ステップJ13;No)、処理部10は、ステップJ17へと処理を移す。
次いで、処理部10は、基点入力画像の抽出を終了するか否かを判定する(ステップJ17)。例えば、ステップJ13において、特徴点の総体的な移動量が、第1の閾値よりも大きい閾値である第2の閾値以上(又は第2の閾値超)となった場合に、基点入力画像の抽出を終了すると判定する。つまり、特徴点の総体的な移動量がある程度大きくなった時点で、基点入力画像の抽出を終了する。基点入力画像の抽出を終了しないと判定したならば(ステップJ17;No)、処理部10は、ステップJ9に処理を戻す。これにより、複数の入力画像が基点入力画像として抽出されることになる。
基点入力画像の抽出を終了すると判定したならば(ステップJ17;Yes)、処理部10は、基点入力画像についてステップJ15で記憶部80に記憶された特徴点の座標値を用いて、基礎行列(Fundamental Matrix)Fを推定する(ステップJ19)。基礎行列Fは、エピポーラ幾何に基づき、2つの画像における投影点の正規化画像座標の間での関係を定義する基本行列(Essential Matrix)Eを画像の座標系に相似変換した行列である。なお、基礎行列F及び基本行列Eそれ自体は公知であるため、行列の要素については説明を省略する。
基礎行列Fは3×3の行列で表され、その要素の数は9個であるが、基礎行列Fのフロベニウスノルムを“1”とすることで、実質的な未知数の数は8個となる。従って、最低8組の特徴点の対応点の座標値が得られれば、基礎行列Fを求めることができる。そこで、基点入力画像の組合せについて、ステップJ15で記憶部80に記憶された8組以上の特徴点の対応点の座標値を用いて、基礎行列Fを推定する。そして、例えば、RANSAC(RANdom Sampling Consensus)のアルゴリズムを用いて、はずれ値を除きつつ、適切な基礎行列Fを推定する。また、RANSACを適用した後、一定誤差以内の特徴点の全てをサンプルデータとし、最小二乗法を用いて、より適切な基礎行列Fを推定する。
次いで、処理部10は、ステップJ19で推定した基礎行列Fを基本行列Eに変換する(ステップJ21)。基本行列Eは、基礎行列Fに対してカメラの内部パラメーターを作用させることで求めることができる。なお、本実施例では、カメラの内部パラメーターは既知であることとする。
その後、処理部10は、ステップJ21で求めた基本行列Eを用いて、カメラ行列を算出する(ステップJ23)。カメラ行列は、基点入力画像の視点の相対的な位置関係を表す行列であり、カメラの移動を表す回転行列及び並進移動ベクトルを含む行列である。カメラ行列の算出は、基点入力画像の視点の相対的な位置関係の算出と言える。
次いで、処理部10は、バンドル調整処理を行う(ステップJ25)。バンドル調整とは、入力画像から、幾何学的な3次元のモデルパラメーターを推定するための手法である。バンドル調整処理では、入力画像間の各特徴点の対応関係に基づいて、各特徴点の3次元座標を算出する。そして、算出した各特徴点の3次元座標を画像面に再投影し、再投影点と特徴点との距離として算出される再投影誤差を反復的に再推定していくことで、より正確な特徴点の3次元座標値を推定する。また、バンドル調整処理では、ステップJ23で算出したカメラ行列を構成するパラメーター値を、上記と同様の処理を行って推定することで、カメラ行列を構成するパラメーター値を調整する。
図21は、特徴点の3次元座標を推定して、同じ特徴点群を異なる視点から見た場合のサンプル画像である。
図21(1)は、正面視点から特徴点群を見た場合のサンプル画像を、図21(2)は、上視点から特徴点群を見た場合のサンプル画像を、図21(3)は、左視点から特徴点群を見た場合のサンプル画像をそれぞれ示している。これらのサンプル画像を見ると、特徴点の3次元座標が正しく推定され、その特徴点群がそれぞれの視点に応じて異なる分布を示していることがわかる。
その後、処理部10は、ステップJ25のバンドル調整処理の結果を用いて、デプスマップを生成する(ステップJ27)。デプスマップを生成するためには、各画素それぞれについて、3次元空間における画素の位置座標を算出することが必要となる。そこで、対象とする画素(以下、「対象画素」という。)について、その対象画素の3次元空間における位置(以下、「対象画素位置」という。)を基点入力画像上に投影した位置(以下、「投影画素位置」という。)と、基点入力画像を撮像した際のカメラ位置とを用いて、対象画素位置を推定する。
最初に、バンドル調整処理でパラメーター値を調整したカメラ行列と、記憶部80に予め記憶されているカメラの初期位置とを用いて、各基点入力画像が撮像されたカメラ位置を推定する。初期位置は、任意の位置でよく、予め定められた3次元座標値が初期位置の座標値として記憶部80に記憶されている。この初期位置と、カメラ行列(回転行列及び並進移動ベクトル)とを用いて、初期位置を基準として各基点入力画像が撮像されたカメラ位置を算出する。
なお、初期位置は、予め所定位置を記憶部80に記憶させておくことが可能であるが、このようにするのではなく、GPS(Global Positioning System)等の測位用信号を利用して測位演算を行って算出した位置を初期位置として、上記の演算を行うこととしてもよい。
また、基点入力画像の組合せについて、画素単位で対応関係を算出する。具体的には、基本行列Eを用いて、基点入力画像間で、画像上のあるライン上のみについて対応点の探索を行う。より具体的には、基点入力画像間で、基本的に色が近く、且つ、近傍画素の対応関係と近くなるような対象画素の対応点の位置を、準大域最適化の手法を用いて算出する。
このようにして基点入力画像の組合せについて算出した対象画素の対応点の位置を投影画素位置とする。そして、基点入力画像の組合せについて、算出した2つのカメラ位置と、算出した2つの投影画素位置とを用いて対象画素位置を推定し、視点から対象画素位置までの距離を算出する。全ての画素を対象画素として上記の処理を行い、各画素それぞれについて算出した距離を深度とするデプスマップを生成する。
図31は、デプスマップの生成の原理の説明図である。
図31には、基点入力画像Aと基点入力画像Bとの組合せについて、それぞれの基点入力画像を撮像した際のカメラの位置をカメラ位置A及びカメラ位置Bとして、それぞれ黒丸で示している。また、1つの画素を対象画素とし、対象画素位置を基点入力画像Aに投影した位置を投影画素位置Aとし、対象画素位置を基点入力画像Bに投影した位置を投影画素位置Bとして、それぞれ白丸で示している。
図31において、カメラ位置A及び投影画素位置Aを結ぶ直線と、カメラ位置B及び投影画素位置Bを結ぶ直線との交点を、対象画素位置として推定する。対象画素位置が求まれば、視点から対象画素位置までの距離が算出できるため、対象画素についての深度が求まる。全ての画素を対象画素として、上記のように対象画素位置を算出し、視点から対象画素位置までの距離を算出し、これを深度とするデプスマップを生成する。
上記のようにしてデプスマップを生成した後の後段の処理は、前述した第1実施例及び第2実施例と同様である。
3−2.ガイド表示
上記のデプスマップの生成方法では、視差を得るために、ユーザーがカメラを移動させて複数の視点から画像を撮像させることが必要となる。このとき、単にカメラを移動させることをユーザーに示唆するのみでは、どのようにカメラを動かせばよいかユーザーが分からない場合が多く、不便であるという問題がある。例えば、カメラを一箇所で回転させるだけだと、視差が発生せず、距離情報を得ることができないため、このような操作をしないようにユーザーに促すことが必要となる。そこで、次のような処理を行うようにしてもよい。
処理部10は、1枚目の撮影画像の撮像後に、カメラの表示画面において目的の被写体が映し出された部分をユーザーにタップさせるなどして被写体を指定させる。そして、処理部10は、人検出や物検出を行って被写体領域を検出し、検出した被写体領域を示唆する。例えば、被写体領域を含む当該被写体領域よりも僅かに大きな図形(以下、「被写体指定図形」という。)を1枚目の撮影画像上に表示させる。例えば、点線や破線の矩形の図形を被写体指定図形として表示させればよい。
次いで、表示制御部127は、ユーザーが自装置(カメラ)を移動させる方向(右方向、左方向、上方向、下方向のいずれに移動させるか)や、ユーザーが自装置を移動させる距離(自装置をどの程度移動させればよいか)をガイドするためのガイド表示を表示部30に表示させる。具体的には、どちらの方向に自装置を移動させればよいかを示すガイド用の矢印(以下、「ガイド矢印」という。)や、目的の撮影位置にユーザーを誘導するためのガイド用の図形(以下、「ガイド図形」という。)を、ガイド表示として表示部30に表示させる。例えば、ガイド図形は、確認画面と共通の形状及びサイズであり、ユーザーはプレピュー画面とガイド図形とが合致するようにカメラを移動させる操作が必要であることを把握することができる。
ここで、確認画面とは、カメラを撮影モードで起動した際に、撮像部50(撮像デバイス)から出力される信号に基づいて表示部30に写し出される画面のことであり、確認画面の画像は撮像デバイスからの出力信号に応じて更新される。即ち、確認画面には撮像対象の画像が表示され、リアルタイムに更新されている。撮影者は、確認画面を見ることにより、被写体の撮像状態を確認可能であり、撮影を行うに際して、目的の被写体が適切に写し出されているかどうかを確認したり、どの位置やどの角度から撮影を行うかを決定することができる。
ここで、装置を動かすべき方向は、視差を生じさせる方向であればよく、例えば、垂直方向あるいは水平方向のいずれであってもよい。ただし、カメラは重力方向を基準として上方向に動かすことが好ましい。これは、撮影対象である被写体が何らかの物体(地面・床・机等)の上に置かれている場合が多いことによる。具体的には、水平方向または下方向にカメラを移動させた場合は、移動前にはカメラの視界に存在していた移動方向とは逆方向に位置する被写体部分の情報(被写体の側面または上面の情報)が、移動後には被写体自身が陰となりカメラの視界から消えてしまう、いわゆるオクルージョンが発生する。結果、デプスマップ生成において必要となる対応点が移動後の画像から消えてしまう。反面、上方向に移動させた場合には、被写体が地面・床・机等の上に置かれていることから、移動前のカメラの視界には被写体の底面の情報は少なく、カメラの移動後であっても陰となる領域は小さい。従って、オクルージョンの発生を抑え、被写体自身の陰になることにより多く対応点を見失ってしまうことがない。なお、処理部10における上方向の検出は、慣性センサ75による重力方向の検出に基づいて可能であるため、カメラの撮影角度(確認画面の表示方向)によらず、上方向への移動をガイドすることができる。
1枚目の撮影画像記憶後に、処理部10は、検出された被写体領域をトラッキングして被写体指定図形を当該被写体領域に追随させるとともに、自装置の移動に応じてガイド表示の表示を変化させる。ここで自装置の移動に応じて、当初の撮影位置からの自装置の移動距離及び移動方向が変化する。そこで、自装置の移動諸量として、例えば自装置の移動距離及び移動方向を検出し、その検出結果に基づいて、表示部30のガイド表示の表示を変化させる。
慣性センサ75には、3軸の加速度センサ及び3軸のジャイロセンサが含まれ、センサを基準とするローカル座標系における3軸の加速度ベクトル及び3軸の角速度ベクトルが処理部10に出力される。処理部10は、慣性センサ75から出力される3軸の角速度ベクトルを積分してカメラの姿勢を算出し、算出した姿勢に基づいて、ローカル座標系における3軸の加速度ベクトルを、例えば地球を基準とする絶対座標系における3軸の加速度ベクトルに座標変換する。そして、処理部10は、座標変換した3軸の加速度ベクトルを積分して3軸の速度ベクトルを算出する。処理部10は、この処理を所定の時間間隔で行い、当該時間間隔において算出された3軸の速度ベクトルに基づいて、各時間間隔における自装置の移動距離及び移動方向を算出する。
処理部10は、算出したカメラの移動方向に基づいて、表示画面のガイド図形をどちらの方向に移動させるか(ガイド図形の移動方向)を判定する。また、処理部10は、算出したカメラの移動距離に基づいて、表示画面のガイド図形をどれだけ移動させるか(ガイド図形の移動量)を判定する。そして、判定した移動方向及び移動量に基づいてガイド図形の表示を変化させる。
ここで、被写体上の特定の特徴点を対象とした場合、その特徴点について一定の視差を生じさせるために必要な移動距離は、被写体までの距離(例えば焦点距離)に応じて長くなる。そのため、被写体までの距離に応じてガイド図形の更新条件を異ならせるようにするとよい。例えば、焦点距離が所定距離以上である場合における一定距離Xの移動に基づくガイド図形の画面上での移動幅Aと、焦点距離が所定距離未満である場合における一定距離Xの移動に基づくガイド図形の画面上での移動幅Bとの関係において、A<Bとなるように、ガイド図形の移動幅を異ならせるようにするとよい。
図22は、この場合におけるガイド表示の一例を示す図である。
図22には、画像処理装置を備えた電子機器の一例であるスマートフォン1の表示画面を示している。外枠で囲まれる領域全体がスマートフォン1の表示画面を表しており、表示画面の中央部に、前述した確認画面が表示されている。
図22(1)は、正面視点から被写体が撮像された撮影画像を示している。撮像部50による撮像が終了して1枚目の撮影画像が保存されると、確認画面が再び表示される。この確認画面においてユーザーが被写体である子供の表示部分をタップすると、図22(1)に示すように、2人の子供を囲う破線の矩形の図形の被写体指定図形が表示される。
続いて、ガイド表示として、例えば水平方向(ここでは右方向)にカメラを移動させることを示す矩形の図形が表示された状態が図22(2)である。この図を見ると、ユーザーから見て右方向にカメラを移動させることを示す右方向のガイド矢印が表示されている。また、確認画面と同じサイズである矩形のガイド図形が、確認画面の右枠外にはみ出す形で表示されている。ユーザーは、このガイド矢印及びガイド図形に従って、被写体が確認画面の中央に維持されるように注意しながら、カメラを持って右方向に移動する。
その後、右方向に移動すると、上記のように処理部10によってガイド表示の移動方向及び移動量が判定され、スマートフォン1の移動方向とは反対方向に、スマートフォン1の移動距離に応じた移動量分、ガイド図形の表示位置が変更される。具体的には、図22(3)に示すように、ユーザーが右方向に移動するのに伴い、表示中のガイド図形が画面左方向に移動していく。
最終的に、図22(4)に示すように、ユーザーの移動によってガイド図形が確認画面と合致すると(ガイド画像の輪郭が確認画面の輪郭と合致したと判定されると)、処理部10はユーザーの移動が完了したと認識し、その位置で自動的に撮像部50によって撮像が行われ、1枚目の撮影画像との関係で視差を有する2枚目の撮影画像が取得される。
なお、図1の慣性センサに含まれる加速度センサ及びジャイロセンサは、加速度センサ及びジャイロセンサがパッケージ化された慣性計測ユニットIMU(Inertial Measurement Unit)であってもよい。
また、上記では、慣性センサや慣性計測ユニットによって検出される加速度ベクトルや角速度ベクトルに基づいて自装置の移動諸量を検出したが、この他にも、例えばGPSユニット等の測位用衛星から発信される測位用信号を利用して測位演算を行うユニットを画像処理装置に内蔵し、このセンサの検出結果に基づいて、移動諸量を検出してもよい。GPSでは、GPS衛星から発信されるGPS衛星信号に基づいて、擬似距離やドップラー周波数を利用した測位演算(擬似距離測位、ドップラー測位)を行って、自装置の位置を算出することができる。この測位演算で求めた測位位置の差分に基づいて自装置の移動速度や移動方向を検出してもよい。また、GPSでは、ドップラー周波数を利用した速度ベクトル演算を行って、自装置の速度ベクトルを算出することもできる。このようにして算出した速度ベクトルから、自装置の移動距離及び移動方向を検出してもよい。
また、慣性センサ75の代わりに、慣性航法演算を行って自立的に移動距離及び移動方向を検出する慣性航法装置INS(Inertial Navigation System)を画像処理装置に備えておき、この慣性航法装置によって画像処理装置の移動距離及び移動方向を検出してもよい。
また、上記のように、自装置の移動諸量(移動方向や移動距離)を検出し、その検出結果に基づいて、ガイド表示の表示を変化させる他に、例えば、第3の画像処理(図19参照)のステップJ11における特徴点追跡処理で特徴点を追跡した結果に基づいて、ガイド表示の表示を変化させてもよい。つまり、特徴点追跡処理において特徴点を追跡した結果、特徴点がどちらの方向にどれだけ移動したか(特徴点の移動方向及び移動距離)を判定し、その判定結果に基づいて、表示画面のガイド図形をどちらの方向にどれだけ移動させるか(ガイド図形の移動方向及び移動量)を決定して、ガイド図形の表示を変化させてもよい。
4.第4実施例
4−1.ユーザー操作によるデフォルト合焦位置の設定
上記の実施例では、全焦点画像が生成された後に、強調画像生成モードにおいて実行される強調画像生成処理において、ユーザーが全焦点画像の中から強調させる領域を指定し、その指定領域に含まれる画素が合焦とされた強調画像を生成することとして説明した。しかし、この方法では、ユーザーが所望の画像を生成するために、撮像部50による撮像後にユーザーがその都度、強調させたい領域を指定することが必要となり、不便であるという問題がある。
そこで、撮像部50による撮像前に、ユーザーがデフォルトとする合焦位置(以下、「デフォルト合焦位置」という。)を指定可能としてもよい。具体的には、確認画面において、ユーザーが、表示画面をタップするタップ操作を行うなどして、デフォルト合焦位置を指定することを可能としてもよい。
図23は、この場合に、処理部10が、図4及び図5の画像処理に代えて実行する第4の画像処理のうち、画像処理の図4に対応する部分を抜き出したフローチャートである。なお、画像処理と同一のステップについては同一の符号を付して、再度の説明を省略する。
処理部10は、モードが撮影モードであると判定したならば(ステップA1)、タップ操作を検知したか否かを判定する(ステップG3)。タップ操作を検知したと判定したならば(ステップG3;Yes)、処理部10は、指定領域に基づいて代表画素を決定する(ステップG5)。指定領域は、ユーザーによりタップされた領域であり、処理部10は、上記の実施例と同様に、この指定領域の中から一の画素を代表画素として選択する。この場合における代表画素の選択方法としては、例えば、指定領域の中心位置に最も近い画素や、指定領域に含まれる画素の画素値の平均値に画素値が最も近い画素を代表画素として選択することができる。そして、処理部10は、決定した代表画素を記憶部80に記憶させる(ステップG7)。
次いで、処理部10は、撮像条件が成立したか否かを判定する(ステップG9)。具体的には、(1)ステップG3におけるタップ操作を検知したこと、(2)ステップG3におけるタップ操作を検知した後、撮影ボタンの押下操作を検知したこと、(3)ステップG3におけるタップ操作を検知した後、そのタップ位置から指を離さずに一定時間(例えば5秒)以上の時間が経過したこと(長押し操作の検知)、(4)ステップG3におけるタップ操作を検知した後、同じ位置を再度タップする操作を検知したこと(ダブルタップ操作の検知)等の条件を撮像条件とし、これらの撮像条件のうちの何れかの条件が成立した場合に、撮像部50に撮像を実行させる。
撮像条件が成立しなかったと判定したならば(ステップG9;No)、処理部10は、ステップG3に処理を戻す。撮像条件が成立したと判定したならば(ステップG9;Yes)、処理部10は、撮像部50に焦点距離を変えて複数枚の画像を撮像させる撮像処理を行う(ステップG11)。そして、処理部10は、ステップA5へと処理を移す。
図24は、第4の画像処理において、処理部10が、図8の強調画像生成処理に代えて実行する第3の強調画像生成処理の流れの一例を示すフローチャートである。なお、強調画像生成処理と同一のステップについては同一の符号を付して、再度の説明を省略する。
処理部10は、ステップG7において記憶させた代表画素を記憶部80から読み出す(ステップJ1)。そして、処理部10は、記憶部80に記憶されているデプスマップに基づいて、読み出した代表画素の深度を判定する(ステップJ3)。そして、処理部10は、ステップD7へと処理を移す。
なお、上記の第4の画像処理において、ユーザーが、デフォルト合焦位置を指定する場合において、カーソル等を用いて画素単位での合焦位置の指定を行うことを可能としてもよい。また、ユーザーが指で被写体全体を囲うような操作を行うことで、被写体単位での合焦位置の指定を可能としてもよい。
また、ステップG5において代表画素を決定する処理を行うのではなく、例えば、最初にユーザー操作(例えばタッチパネルに対するタップ操作)に従って指定領域を決定してその後に撮像部50に撮像を行わせ、撮像後に、最初に決定しておいた指定領域に含まれる画素(及び対応する深度)において、最も多く含まれる深度の画素を特定し、当該深度について特定した画素を合焦とする強調画像を生成することとしてもよい。つまり、代表画素を決定せずに、ユーザーによって指定された指定領域から合焦させる深度を決定することとしてもよい。
また、ステップG11における撮像処理は、第3実施例で説明した第3の画像処理のステップJ3における撮像と同様に、ユーザーにカメラの位置を変化させて、複数の視点から目的の被写体を撮像部50に撮像させる処理としてもよい。
4−2.顔検出/人検出によるデフォルト合焦位置の設定
上記の処理において、デフォルト合焦位置を設定する際に、確認画面において、被写体として写し出されている人物やその人物の顔を検出し、検出した人物や顔をデフォルトの合焦位置として、上記と同様の処理を行って、強調画像を生成するようにしてもよい。また、画像の撮像後に入力画像を表示する入力画像表示画面において、被写体として写し出されている人物やその人物の顔を検出し、検出した人物や顔をデフォルトの合焦位置として、上記と同様の処理を行って、強調画像を生成するようにしてもよい。
5.第5実施例
5−1.図形による領域の指定
上記の実施例では、目的の被写体にピントを合わせようとした場合に、その目的の被写体と同程度の奥行き距離に異なる被写体が存在すると、当該被写体に対してもピントの合った画像が生成されてしまう。従って、目的の被写体と同程度の奥行き距離にユーザーが意図しない被写体の写り込みが発生した場合、目的の被写体だけにピントを合わせ、意図せずに写り込んだ被写体について暈し処理によって暈すということができなくなるという問題がある。
そこで、例えば、撮像後の入力画像をプレビュー表示した表示画面において、ユーザーによりタップされた点を中心とする円形や楕円形、矩形の図形(以下、「領域指定用図形」という。)を表示し、この領域指定用図形の大きさを動的に変化させることで、暈し処理によって暈されることを希望しない領域をユーザーが指定可能としてもよい。
図25は、この場合における領域指定用図形の一例を示す図である。
図25には、入力画像として、中央部に目的の被写体であるマグカップが表示された画像を示している。この入力画像には、画像の右境界部に、ユーザーが意図しない被写体である紙コップの一部が写し出されている。ユーザーは、目的の被写体であるマグカップの画像部分を強調させ、意図しない被写体である紙コップの画像部分を暈すために、領域指定用図形を操作してマグカップの画像部分を指定する。
具体的には、図25(1)に示すように、ユーザーにより目的の被写体であるマグカップの画像部分がタップされたことを検知すると、表示制御部127は、例えば楕円形の領域指定用図形をタップ位置に表示させる。この場合に表示させる領域指定用図形のサイズは、予め規定されたサイズとすればよく、図25(1)では、マグカップの中央部に比較的小さいサイズの領域指定用図形が表示された状態を示している。領域指定用図形は、2本の指を用いたピンチ操作によってそのサイズを変更可能とし、ピンチアウト操作によって領域指定用図形のサイズを拡大させ、ピンチイン操作によって領域指定用図形のサイズを縮小させる。
図25(2)に示すように、ユーザーが領域指定用図形に対して2本の指でピンチアウト操作を行うと、領域指定用図形のサイズが拡大する。そして、ユーザーは、領域指定用図形によってマグカップの全体が覆われるように、ピンチアウト操作によって領域指定用図形のサイズや形状を調整する。そして、ユーザーは、確定ボタンを押下するなどの確定操作を行って、強調表示させる領域を確定させる。
この場合、処理部10は、強調画像生成処理において、確定操作を検知した後、領域指定用図形で囲まれた領域を指定領域とする。そして、当該指定領域について、例えば、当該指定領域に含まれる各画素の深度のうち、最も多くの画素が属する深度を特定し、デプスマップ上において当該特定した深度(又は当該特定した深度と所定範囲内の深度)に属する画素については合焦とし、他の画素については暈し処理を行って非合焦とする。また、指定領域に含まれない領域についても、同様に暈し処理を行って非合焦とする。この場合の暈し処理では、例えば、暈し処理を施す領域に被写体が写り込んでいる場合には、当該被写体とその周囲の背景領域の奥行き距離がほぼ等しくなるようにデプスマップの深度を書き換え、書き換えたデプスマップに基づいて、暈し処理を施すなどすればよい。
なお、暈し処理を行う領域について、上記の合焦領域の深度からの深度の差や、ユーザーによりタップされた位置からの距離に応じて、暈し度合を変更してもよい。例えば、指定領域に含まれない領域のうち、合焦領域から深度の差が大きい領域ほど、暈し度合を高くして暈し処理を行うようにしてもよい。また、指定領域に含まれない領域のうち、タップ位置からの距離が離れた領域ほど、暈し度合を高くして暈し処理を行うようにしてもよい。この場合、合焦領域からの深度が等しい領域や、タップ位置の中心位置からの距離が等しい領域については、暈し度合を同じ値として、暈し処理を行うようにしてもよい。
また、領域指定用図形の操作方法は上記に限らず、例えば、1回目のタップ操作で領域指定用図形を表示させ、表示させた領域指定用図形をタップする操作を繰り返すことで、段階的に領域指定用図形の大きさが拡大されるようにしてもよい。また、タップ操作を行ってから指を離さずにタップ操作が継続して行われた時間に基づき、その時間が長くなるほど、領域指定用図形の大きさが拡大されるようにしてもよい。
また、ユーザーによるピンチ操作(ピンチアウト操作/ピンチイン操作)によって、領域指定用図形のサイズを拡大/縮小する他に、例えば、ユーザーによる指定用図形の外縁部分をタップし、外縁を外側に広げたり、内側に縮めるような操作を行うことで、領域指定用図形の形状を変化させることを可能としてもよい。
また、領域指定用図形の中心からの距離や面積に応じて、暈し処理における暈し度合を変更してもよい。具体的には、領域指定用図形の中心からの距離が長くなるほど、又は、領域指定用図形の面積が大きくなるほど、暈し度合を大きくしてもよい。
また、上記のように、領域指定用図形を用いて強調したい領域を指定するのではなく、図示は省略するが、ユーザーがドラッグ操作&ドロップ操作によって所望の領域を塗りつぶす操作を行って、暈したくない領域を指定するようにしてもよい。
5−2.ユーザー操作による暈し度合の変更
また、上記のように強調したい領域以外の領域に対して暈し処理を施す場合において、対象とする領域を暈す度合がユーザー操作によって調整可能としてもよい。具体的には、例えば、表示画面に対するピンチ操作に応じて、暈し処理における暈し度合を変更して、暈し処理を施すようにしてもよい。
具体的には、例えば、全焦点画像が表示された表示画面において、ユーザーに強調表示させる領域をピンチ操作によって指定させる。この場合、例えば、ピンチ操作によって接触した2本の指の中心位置を算出し、算出した中心位置の画素とデプスマップ上において同じ深度になる画素でなる領域を合焦対象領域として設定し、合焦対象領域以外の領域には暈し処理の対象とする暈し対象領域として設定して、当該暈し対象領域に対して暈し処理を行うようにしてもよい。
この場合、ユーザーのピンチ操作に応じて、暈し処理における暈し度合を変更して、暈し対象領域に対する暈し処理を行う。具体的には、ピンチアウト操作がなされた場合は、暈し度合を段階的に高くして、暈し対象領域に対する暈し処理を行う。また、ピンチイン操作がなされた場合には、そのピンチイン操作に応じて、暈し度合を段階的に低くして、暈し対象領域に対する暈し処理を行う。
図26は、この場合における暈し処理の一例を示す図である。
図26には、ミニカーやぬいぐるみを含む複数の被写体が写し出された全焦点画像を示している。この画像において、ミニカーを目的の被写体とし、それ以外の被写体や背景を暈す場合を考える。この場合、図26(1)に示すように、ユーザーがミニカーの画像領域をタップし、2本の指でピンチアウト操作を行うと、処理部10は、2本の指の間隔(2本の指が接触している2点の座標間隔)の広がりに応じて、暈し度合を段階的に高くして、ミニカーの画像部分以外の画像領域に対する暈し処理を行う。その結果、図26(2)に示すように、ミニカーの画像領域が明瞭に表示され、それ以外の画像領域が暈された画像が生成される。
一方、図26(2)において、ユーザーがミニカーの画像領域に対して2本の指でピンチイン操作を行うと、処理部10は、2本の指の間隔(2本の指が接触している2点の座標間隔)の狭まりに応じて、暈し度合を段階的に低くして、ミニカー以外の画像領域に対する暈し処理を行う。その結果、徐々に図26(1)の表示状態に戻っていく。
また、上記の暈し度合を変更する場合において、デプスマップ上で同じ深度にある画素でなる領域単位で、暈し度合を個別に設定して、暈し処理を行うようにしてもよい。具体的には、ピンチ操作で画面に接触している2本の指の中心位置の深度を基準深度とし、基準深度にある画素でなる領域については、所定の基準暈し度合で暈し処理を行うか、又は、当該領域については暈し処理を行わないようにする。また、基準深度から深度が近い順に領域を設定し、基準深度から離れた深度の画素でなる領域ほど、上記の基準暈し度合から暈し度合を段階的に高くするなどしてもよい。
例えば、ピンチアウト操作によって暈し度合を高くする場合において、深度が同じ画素でなる領域を、焦点距離が近い順に、領域A〜領域Dとする。この場合、ピンチ操作で画面に接触している2本の指の中心位置の画素が領域Bに含まれる場合、領域Bについては暈し度合を20%に設定し、領域A及び領域Cについては暈し度合を50%に設定し、領域Dについては暈し度合を80%に設定して、各領域それぞれについて、当該領域に含まれる全画素について、対応する暈し度合で暈し処理を行うようにしてもよい。
これは、換言すると、ピンチアウト操作によって暈し度合を弱める効果を付しているとも言える。例えば、デフォルトとして各領域の暈し度合を100%に設定しておく場合、上記の場合、領域Bについては暈し度合を100%→20%とすることで暈しの程度を大きく弱め、領域A及び領域Cについては暈し度合を100%→50%とすることで暈しの程度を半分に弱め、領域Dについては暈し度合を100%→80%とすることで暈しの程度を少しだけ弱めることになるためである。なお、この場合において、領域Dについては暈し度合を下げずに100%とすることで、生成される強調画像にコントラストが出るようにしてもよい。
なお、上記のように、目的の被写体が写し出された領域においてピンチイン操作が行われた場合に暈し度合を段階的に低くして暈し処理を行うのに限らず、画像中の任意の領域においてピンチイン操作がなされた場合に、暈し度合を段階的に低くして暈し処理を行うようにしてもよい。また、画像中の任意の領域においてピンチイン操作ではなくピンチアウト操作がなされた場合に、暈し度合を段階的に低くして暈し処理を行うようにしてもよい。
6.第6実施例
任意の焦点距離範囲について合焦として画像を自由に生成可能とするために、出力画像の生成時又は出力画像の生成後の編集画面において、焦点距離範囲をユーザーが指定するための焦点距離スライダーを出力画像又は出力画像の外側に表示させて、ユーザーが任意の焦点距離範囲を指定可能としてもよい。なお、本実施例において、焦点距離と深度とは一対一に対応している。
図27は、焦点距離スライダーの一例を示す図である。
図27には、ウサギの人形が中心部に前景として、木々や建物が背景として表示された出力画像の一例を示している。また、出力画像の左下部には、横方向のバーで表される焦点距離スライダーS1が表示されている。焦点距離スライダーS1は、左側にいくほど焦点距離が近く(near)、右側にいくほど焦点距離が遠い(far)ことを意味している。
焦点距離スライダーS1には、ユーザーが焦点距離の下限を指定するための右向きの三角形状の下限指定用アイコンと、ユーザーが焦点距離の上限を指定するための左向きの三角形状の上限指定用アイコンとが焦点距離スライダーS1のバー上に表示されており、これらのアイコンをユーザーがドラッグ操作によって左右に移動させることで、ユーザーは任意の焦点距離範囲を指定することが可能に構成されている。
焦点距離範囲を変化させると、処理部10は、記憶部80に記憶されているデプスマップを参照して、指定された焦点距離範囲に対応する深度の画素を特定する。そして、特定した画素については合焦とし、それ以外の画素については非合焦とした画像を生成する。なお、非合焦とする画素については、当該画素の焦点距離が指定された焦点距離範囲から離れるほど、暈し度合を高くして暈し処理を行うなどするようにすると好適である。このようにすることで、指定された焦点距離範囲に含まれない画素でなる領域については、指定された焦点距離範囲から焦点距離が離れるに従って暈しの度合が強くなった、違和感のない自然な画像が生成されることになる。
図27(1)に示すように、焦点距離スライダーS1の焦点距離範囲を焦点距離が近い方(前景側)に変化させると、前景であるウサギの人形が強調され、背景である木々や建物が暈された画像が生成される。一方、図27(2)に示すように、焦点距離スライダーS1の焦点距離範囲を焦点距離が遠い方(背景側)に変化させると、背景である木々や建物が強調され、前景であるウサギの人形が暈された画像が生成される。
また、ユーザーのタップ操作を検知した場合に、デプスマップに基づいて、タップ位置の近傍所定範囲に含まれる画素の焦点距離に対応する深度を判定し、判定した深度を焦点距離スライダーS1における焦点距離範囲に反映させることとしてもよい。
例えば、図27(3)に示すように、ユーザーによって背景である木々の部分がタップされた場合、そのタップ位置を中心とする所定の半径の円に含まれる画素を近傍範囲画素とし、この近傍範囲画素の深度のうちの最小深度及び最大深度を判定する。そして、判定した最小深度及び最大深度に対応させるように、焦点距離スライダーS1上の下限指定用アイコン及び上限指定用アイコンの表示位置を自動的に移動させるようにしてもよい。
また、強調画像生成処理において、ユーザーが画像上の任意の位置をタップしてその位置と同じ焦点距離にある画素を合焦とし、他の焦点距離にある画素を非合焦とした強調画像を生成する際に、どの画素が合焦となるか(又は非合焦となるか)をユーザーに示すべく、タップ位置と同じ焦点距離にある画素を、他の焦点距離にある画素と区別する表示を行うこととしてもよい。
具体的には、処理部10は、ユーザーによるタップ位置に含まれる画素を判定する。この場合、例えば、処理部10は、タップ位置の中心に位置する画素を特定し、これを処理対象画素とする。そして、処理部10は、デプスマップを参照して、処理対象画素と同じ焦点距離の画素を特定し、これらの画素をフラッシュ表示するなどして、ユーザーが他の画素と区別できるようにする。
図28は、この場合における画像の区別表示の一例を示す図であり、ウサギの人形が中心部に前景として、木々や建物が背景として表示された出力画像の一例を示している。
図28(1)に示すように、ユーザーが前景であるウサギの人形の胴体部分をタップすると、タップ位置に対応する画素が判定され、同じ焦点距離にある画素がフラッシュ表示される。説明の簡明化のため、ウサギの人形を構成する画素の焦点距離が全て同じであるとすると、図28(1)に示すように、ウサギの人形を構成する画素が区別表示の対象とされ、ウサギの人形の画像部分がフラッシュ表示される。
また、図28(2)に示すように、ユーザーが背景である木々の部分をタップすると、タップ位置に対応する画素が判定され、同じ焦点距離にある画素がフラッシュ表示される。説明の簡明化のため、背景である木々や建物を構成する画素の焦点距離が全て同じであるとすると、図28(2)に示すように、背景である木々を構成する画素が区別表示の対象とされ、背景の画像部分がフラッシュ表示される。
なお、上記の区別表示として、同じ焦点距離にある画素を、それ以外の画素とは異なる色で半透明に表示させたり、異なる色で塗りつぶして表示させたり、所定の模様やハッチングを施すなどして、同じ焦点距離にある画素の区別表示を実現してもよい。
7.第7実施例
上記の実施例において、撮像部50によって撮像が行われた後、強調画像生成処理において強調画像が生成されるまでには一定の時間を要する。その間、ユーザーをただ待たせるのは非効率であるため、強調画像生成処理において、どの画像部分を合焦/非合焦とするかをユーザーに指定させる処理を挟んでもよい。
具体的には、異なる焦点距離で撮像された複数の撮影画像を入力画像とし、これらの入力画像の特徴として、例えばエッジを検出する処理を行う。そして、各入力画像それぞれについて、当該入力画像と当該入力画像について生成されたエッジ画像とを画素単位で乗算することで得られる画像(以下、「積画像」という。)を生成し、この積画像を参照用画像として、焦点距離が近い順(又は遠い順)に順次に表示する。一巡したならば、その表示を繰り返す。
ユーザーは、順次に表示される積画像を閲覧し、合焦とさせたい被写体が明瞭に表示されている積画像が表示された際に、その画像を選択するための選択操作(例えばタップ操作)を行う。この場合、ユーザーの選択操作によって選択された積画像に対応する入力画像を特定し、当該入力画像の焦点距離にある画素を合焦とし、それ以外の画素を非合焦とした画像を生成して表示する。
図29は、この場合に、処理部10が、図8の強調画像生成処理に代えて実行する第4の強調画像生成処理の流れの一例を示すフローチャートである。
最初に、処理部10は、積画像生成処理を行う(ステップK1)。具体的には、複数の入力画像それぞれについて、当該入力画像と、ステップA11のエッジ検出処理において当該入力画像について得られたエッジ画像との積を算出した積画像を生成する。
なお、入力画像とエッジ画像との積画像は明度が低くなる場合があるため、生成した積画像に対して明度を上げる処理を行うようにすると好適である。
次いで、表示制御部127は、最初の積画像を表示部30に表示させる制御を行う(ステップK3)。具体的には、例えば、焦点距離が最も短い入力画像に対応する積画像、又は、焦点距離が最も長い入力画像に対応する積画像を表示部30に表示させる。
その後、処理部10は、タッチパネル21に対するタップ操作がなされたか否かを判定し(ステップK5)、なされなかったと判定したならば(ステップK5;No)、最初の積画像の表示を開始してから所定時間(例えば1分)が経過したか否かを判定する(ステップK7)。
所定時間が経過していないと判定したならば(ステップK7;No)、表示制御部127は、次の積画像を表示部30に表示させるように制御する(ステップK9)。そして、処理部10は、ステップK5に処理を戻す。
一方、タップ操作がなされたと判定したならば(ステップK5;Yes)、処理部10は、当該積画像に対応する入力画像の焦点距離を特定する(ステップK11)。そして、強調画像生成部123が、強調画像を生成する(ステップK13)。具体的には、デプスマップが生成された記憶部80に記憶済みである場合は、記憶部80に記憶されているデプスマップに基づいて、ステップK11で特定した焦点距離に対応する深度の画素を合焦とし、それ以外の画素については暈し処理を施して非合焦とした強調画像を生成する。デプスマップが生成済みではない場合には、デプスマップが生成されるまで待機する。
次いで、表示制御部127は、生成された強調画像を表示部30に表示させるように制御する(ステップK15)。そして、処理部10は、第4の強調画像生成処理を終了する。
一方、ステップK7において所定時間が経過したと判定したならば(ステップK7;Yes)、処理部10は、デフォルト入力画像の焦点距離を特定する(ステップK17)。ここで、デフォルト入力画像は、例えば、焦点距離が最も短い入力画像や、焦点距離が最も長い入力画像とすることができる。そして、処理部10は、ステップK13へと処理を移す。
上記の処理によれば、どの焦点距離を合焦とさせるかはユーザーの好みによるため、合焦とさせる位置を自動的に決定することは困難であるが、強調画像生成処理の実行中にユーザーに合焦とさせる位置を指定させることで、この問題を解消することができる。また、強調画像生成処理の実行中にただユーザーを待たせるという非効率さも解消することができる。
なお、ステップK1の積画像生成処理を省略し、ステップK3において、表示制御部127が、例えば、撮像部50によって撮像された複数の入力画像を、参照用画像として順次に表示させるようにしてもよい。また、撮像部50によって撮像された複数の入力画像に対してそれぞれ特徴(例えばエッジ)を検出した特徴検出画像や、複数の入力画像に対してそれぞれコントラスト補正を行ったコントラスト補正画像等の画像を、参照用画像として順次に表示させるようにしてもよい。
8.第8実施例
第8実施例は、入力画像に白飛びが発生している場合を想定し、白飛び領域に対して効果を発揮する暈し処理(以下、「白飛び効果暈し処理」という。)に関する実施例である。白飛びを含む領域においては、光の強さに応じて膨張するように暈しを施すことが好ましい。しかし、単純な畳み込み演算(空間的な加重平均)を行うフィルタを用いて、白飛び領域を含む入力画像に対する暈し処理を行った場合、現実の世界と乖離した不自然な暈し結果の画像が得られてしまう。
ここで、通常の暈し処理は、次式(5)で与えられる。
但し、“x”は画素を、“I(x)”は暈し対象画像の画素xの画素値を、“I´(x)”は暈し画像の画素xの画素値を、”w(n)“は空間的な重み(暈しカーネル)を、”n“は画素xの近傍画素を示す。
白飛び領域については、本来の光の強さが不明となってしまっていることが問題である。8ビットで表した諧調値が飽和してしまうことにより、本来諧調値が256以上であった画素の諧調値が255に補正されてしまう。つまり、“L(x)”を画素xにおける光の強度とした場合、「I(x)=min(L(x),255)」として画素値が算出されてしまう。このため、式(5)を用いて暈し処理を行った場合、不当に低く加重平均されてしまう。その結果、白飛び領域に膨張が発生しなくなる。
そこで、本実施例では、次式(6)及び(7)に従って暈し処理を行う。
つまり、飽和した画素値を用いて加重平均を行うのではなく、光の強度に対する加重平均を行い、この加重平均で求められた光の強度を用いて入力画像の画素値を修正することで、暈し結果の画像の画素値を得る。
また、上記の問題を回避するための他の手法として、白飛び領域に対して大きい重みを設定して画素値を加重平均することが考えられる。具体的には、例えば、次式(8)に従って加重平均を行う。
式(8)において、“w2”は白飛び領域に対する重みであり、白飛び領域に含まれる画素値ほど大きくなる値を設定しておくことができる。具体的には、例えば、次式(9)〜(11)の何れかに従って重み“w2”を算出して設定することができる。
但し、式(11)における“s”は適当なパラメーター値である。
図32は、この場合に、処理部10が実行する白飛び効果暈し処理の流れの一例を示すフローチャートである。
最初に、処理部10は、処理対象とする画像である処理対象画像を入力する(ステップL1)。そして、処理部10は、入力した処理対象画像から白飛び領域を検出する白飛び領域検出処理を行う(ステップL3)。
次いで、処理部10は、白飛び領域用の重み“w2”を画素単位で設定する(ステップL5)。具体的には、式(9)〜(11)の何れかに従って、各画素それぞれについて、白飛び領域用の重み“w2”を算出して設定する。
次いで、処理部10は、ステップL5で設定した白飛び領域用の重み“w2”と、処理対象画像の画素値“I”とを用いて、式(8)に従って、処理対象画像の画素値“I”に対する加重平均演算を行って、修正された画素値“I´”で構成される暈し結果の画像を取得する(ステップL7)。そして、処理部10は、白飛び効果暈し処理を終了する。
なお、上記の白飛び効果暈し処理において、より現実的な暈しを行うために、白飛び領域の中央ほど光の強度が大きくなるとの仮定に基づくモデルを適用して、暈し処理を行うようにしてもよい。例えば、白飛び領域と非白飛び領域との境界からの距離に応じて、白飛び領域用の重み“w2”を大きく設定してもよい。具体的には、公知の境界検出手法を用いて、白飛び領域と非白飛び領域との境界を検出する処理を行い、当該白飛び領域に含まれる画素について、検出した境界からの距離が長い位置に存在する画素ほど、白飛び領域用の重み“w2”に大きな値を設定して、画素値“I”に対する加重平均演算を行うようにしてもよい。
また、上記の白飛び効果暈し処理の他に、例えば、基準画像と同じ視点の低露出画像を利用して白飛び領域の真の画素値を推定し、この推定した画素値用いて暈し処理を行うようにしてもよい。
白飛び領域の真の画素値の推定には、種々の手法を用いることができる。具体的には、例えば、暈しの基準とする基準画像と低露光画像との2枚の画像の対応する2点(但し、白飛び領域を除く。)の画素値を、前述した「y=a・x」で表される露出変換関数に当てはめ、最小二乗法によって、露出変換関数に含まれる(a,b)の露出変換パラメーターの値を算出する。そして、算出した露出変換パラメーター(a,b)の値を用いて、低露光画像の画素値を変換することによって、白飛び領域の真の画素値を推定する。
上記の白飛びを考慮した各種の暈し処理は、例えば、第1実施例や第2実施例で説明したようなピント位置をずらして複数枚の画像を取得するフォーカスブラケット方式によって撮像された複数の撮影画像(入力画像)や、第3実施例で説明したような視差方式によって撮像された複数の撮影画像(入力画像)を処理対象画像として適用することが可能である。
つまり、上記の各種の実施例で説明した画像処理を実行するための画像処理プログラムのサブルーチンとして、上記の白飛び効果暈し処理を実行するための白飛び効果暈し処理プログラムを記憶部80に記憶させておき、処理部10が、画像処理プログラムに従って実行する画像処理において、白飛び効果暈し処理プログラムを読み出して実行することで、それぞれの方式で撮像された画像に対して、白飛びを考慮した効果的な暈しを実現することが可能となる。
9.変形例
本発明を適用可能な実施例は、上記の実施例に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能であることは勿論である。以下、変形例について説明するが、上記の実施例と同一の構成については同一の符号を付して、再度の説明を省略する。
9−1.画像処理装置
上記の実施形態では、画像処理装置をスマートフォンとした場合の実施形態について説明したが、画像処理装置として適用可能な電子機器はスマートフォンに限られるわけではない。例えば、カメラやデジタルカメラ、タブレット端末、PDA等の電子機器を画像処理装置として適用してもよいことは勿論である。撮像部を備えた電子機器であれば、種々の電子機器に本発明の画像処理装置を適用することが可能である。
また、例えば、画像処理装置において表示部に表示されたデプスマップや全焦点画像に基づいてユーザーが深度を選択し、選択された深度に基づいて生成した強調画像を、所定の情報処理装置の表示部に表示させるようにしてもよい。具体的には、例えば、ユーザーは、手元のスマートフォンとパソコンとを通信接続する。そして、ユーザーは、スマートフォンのディスプレイに表示されたデプスマップや全焦点画像に基づいて深度を選択する。スマートフォンは、ユーザーにより選択された深度に基づいて強調画像を生成し、当該強調画像をパソコンに送信する。パソコンは、スマートフォンから受信した強調画像をディスプレイに表示させ、ユーザーはパソコンの表示画面で強調画像を確認する。
なお、この場合において、スマートフォンから画像データ一式をパソコンに送信するようにし、スマートフォンの代わりにパソコンが強調画像を生成して、パソコンのディスプレイに表示させるようにしてもよい。この場合は、スマートフォン及びパソコンが、本発明における画像処理装置となる。
9−2.特徴量
上記の実施形態では、焦点距離を変えて撮像された深度の異なる複数の入力画像から特徴としてエッジを検出し、そのエッジ強度を特徴量として用いて深度を推定する場合を例に挙げて説明したが、これに限られるわけではない。
例えば、エッジ強度と同様に合焦度と正の相関のある特徴量として、ガウス関数の差で表されるDoG(Difference of Gaussian)値を特徴量として検出することとしてもよい。この場合は、複数の入力画像それぞれに対して、例えば、標準偏差σ(分散σ)の異なる2つのガウシアンフィルタを用いたフィルタ処理を施すことで、標準偏差σの異なる2枚の平滑化画像を得る。そして、複数の入力画像それぞれについて、2枚の平滑化画像の差分を算出することで、DoG画像を得る。このようにして得られたDoG画像の各画素の画素値(DoG値)を特徴量として用いて、上記の実施形態と同様の適切解演算処理を行って、各画素について深度を推定する。この場合も、各画素について合焦度が反映されたデプスマップを生成することができる。
また、合焦度以外の評価指標として、例えば、画像の背景度合を特徴量として検出し、検出した背景度合を特徴量として用いて、上記の実施形態と同様の適切解演算処理を行って、各画素について背景度合が反映されたマップを得ることとしてもよい。この場合は、複数の入力画像のうち背景が映っている入力画像が優先的に選択され、各画素について背景度合が反映されたマップが生成される。
これらの他には、例えば、画像中で使用されている代表色とその色の割合、色分布といった色特徴を特徴量として検出してもよい。また、画像中に含まれる規則的なパターンであるテクスチャーを特徴量として検出してもよい。また、画像中のオブジェクトの形状を特徴量として検出してもよい。また、方位選択性フィルタを用いて特定の方位情報を特徴量として検出してもよい。何れにせよ、特徴量が合焦度の指標であれば、合焦度を反映したマップが得られるし、特徴量が他の評価指標であれば、当該評価指標を反映したマップが得られることになる。
9−3.適切解演算処理
上記の実施形態では、適切解演算処理として、式(1)のエネルギー関数を用いてスコア値を算出し、スコア値が最大となった入力画像を合焦している入力画像と判定することとして説明したが、式(1)の代わりに次式(12)のエネルギー関数を用いてスコア値を算出し、スコア値が最小となった入力画像を合焦している入力画像と判定することとしてもよい。
式(12)では、式(1)の右辺の各項がマイナスではなくプラスとなっている。この式は、対象画素について、当該対象画素の対応するエッジ画像のエッジ強度に応じたコスト値をスコア値に加算するとともに、当該対象画素について合焦しているとする第1の入力画像と当該対象画素の近傍画素について合焦しているとする第2の入力画像とが異なる場合にはペナルティ値をスコア値に加算することを意味している。そして、スコア値が所定の低値条件を満たす入力画像を合焦している入力画像と判定する。
式(12)のエネルギー関数を一次元に拡張した式(2)に対応する式は、次式(13)のように表される。
また、式(1)のエネルギー関数を用いる場合は、スコア値が最大となる入力画像を合焦している入力画像と判定したが、この手法は一例に過ぎない。例えば、例えば、スコア値が大きい順に所定割合(例えば3割)の数のスコア値を特定し、その中からスコア値を1つ選んで、合焦している入力画像を判定することとしてもよい。つまり、スコア値が最大のものを選択する必要はなく、2番目や3番目に大きいスコア値を選択するようにしてもよい。これは、スコア値が所定の高値条件を満たす入力画像を合焦している入力画像と判定することを示す一例である。
同様に、式(12)のエネルギー関数を用いる場合には、スコア値が小さい順に所定割合(例えば3割)の数のスコア値を特定し、その中からスコア値を1つ選択するようにしてもよい。これは、スコア値が所定の低値条件を満たす入力画像を合焦している入力画像と判定することを示す一例である。
9−4.表示用画像
上記の実施形態では、デプスマップに基づいて生成した全焦点画像を表示用画像として表示部30に表示させることとして説明したが、必ずしも全焦点画像を表示部30に表示させなければならないわけではない。
具体的には、全焦点画像の代わりに、複数の入力画像の中から選択した代表画像を表示用画像として表示部30に表示することとしてもよい。この場合は、例えば、一番最初に撮像された入力画像や、一番最後に撮像された入力画像、焦点距離が中間値に最も近い入力画像を代表画像として選択することができる。
また、この他にも、デプスマップを表示用画像として表示部30に表示させてもよいし、複数の入力画像のうちの任意の入力画像を合成した合成画像を表示用画像として表示部30に表示させることとしてもよい。
何れにせよ、ユーザーは、表示部30に表示された上記の表示用画像を閲覧しながら、操作部20を操作して、画像中の修正したい部分を選択することになる。
9−5.深度選択窓の表示
表示制御部127が、表示部30に所定の表示用画像を表示させるように制御し、その表示画面の所定位置に、深度をユーザーに選択させるための深度選択用操作窓を表示させる制御を行うこととしてもよい。この場合、ユーザーは、入力部20を介して深度選択用操作窓から深度を選択する。
図17は、この場合の表示画面の一例を示す図であり、全焦点画像が表示部30に表示された状態を示している。なお、前景であるウサギの人形部分のみを図示し、背景である木々の部分については図示を省略している。この図を見ると、表示画面の左下部に、ユーザーが深度を選択するための深度選択用操作窓W1が表示されている。深度選択用操作窓W1は、深度別に分けられた縦長のゲージで示されており、ユーザーはゲージの中央部に示された深度選択用バーBARをタップ操作により上下に動かして、深度を選択可能に構成されている。
図18は、この場合に強調画像生成部123が実行する第2の強調画像生成処理の流れを示すフローチャートである。なお、図8に示した強調画像生成処理と同一のステップについては同一の符号を付して、再度の説明を省略する。
強調画像生成部123は、最初にユーザー操作を判定する(ステップH1)。ユーザー操作が表示画面中の画像のタップ操作であると判定したならば(ステップH1;画像のタップ操作)、強調画像生成部123は、タップされた領域(タップ領域)を指定領域と判定する(ステップH2)。そして、強調画像生成部123は、ステップD3へと処理を移す。
一方、ユーザー操作が深度選択用操作窓のアイコンに対する操作であると判定したならば(ステップH1;深度選択用操作窓のアイコン操作)、強調画像生成部123は、アイコンの移動先の深度(アイコンにより選択された深度)を判定する(ステップH3)。そして、強調画像生成部123は、デプスマップを参照し、判定した深度に対応する画素を特定する(ステップH5)。そして、強調画像生成部123は、特定した画素に基づいて強調画像を生成する(ステップH7)。具体的には、暈しフィルタを用いて、第1の暈し度合で全焦点画像の全体を暈す処理を行う。そして、暈し処理の結果として得られる暈し画像に、ステップH5で特定した画素の画素値を合成することで、強調画像を生成する。
9−6.再度の暈し処理
上記の実施形態で説明した強調画像生成処理において、ユーザー操作が検知された場合に、ユーザーにより指定された画像上の領域が暈し処理が行われた領域であるか否かを判定し、その判定結果が肯定判定である場合に、当該領域の暈し度合を所定の暈し度合とは異なる暈し度合にして強調画像に対して再度暈し処理を行うようにしてもよい。
具体的には、強調画像生成処理において暈し処理がなされた部分のうち、所定の部分をユーザーがタッチパネル21を介してタップすると、処理部10は、その部分が既に暈し処理が行われた部分(以下、「暈し済み部分」と称す。)であるか否かを判定する。そして、暈し済み部分であると判定したならば、処理部10は、その暈し済み部分の暈し度合を強めるか、それとも弱めるかをユーザーに確認する確認報知を行う。暈し度合を弱めることがユーザーにより選択された場合は、処理部10は、暈し済み部分に対して、暈し度合を規定の暈し度合よりも小さくして、暈し処理を行う。一方、暈し度合を強めることがユーザーにより選択された場合は、処理部10は、暈し済み部分に対して、暈し度合を規定の暈し度合よりも大きくして、暈し処理を行う。そして、暈し処理を行った結果の強調画像を表示部30に表示させるように制御する。
9−7.ユーザー操作
上記の実施形態では、ユーザーが強調画像の生成や強調画像の修正を行う際の操作を、タッチパネル21に対するタップ操作やドラッグ操作として説明したが、必ずしもタッチパネル21に対するユーザー操作に従って強調画像の生成や強調画像の修正を行わなければならないわけではない。
例えば、画像処理装置が操作ボタン(十字キーを含む。)を備える場合には、この操作ボタンの操作に従って、強調画像の生成や強調画像の修正を行うこととしてもよい。この場合は、例えば、表示部30に全焦点画像が表示されている状態で画像上の位置を指定させるための指定用アイコン(例えば矢印のアイコン)を表示させ、ユーザーが操作ボタンを用いてこの指定用アイコンを動かして、表示用画像中の強調したい部分を指定するようにしてもよい。また、表示部30に強調画像が表示されている状態で画像上の位置を指定させるための上記の指定用アイコンを表示させ、ユーザーが操作ボタンを用いてこの指定用アイコンを動かして、強調画像中の修正したい部分を指定するようにしてもよい。
9−8.強調画像の生成
上記の実施形態では、全焦点画像に基づいて強調画像を生成することとして説明した。具体的には、全焦点画像に対して暈し処理を施した画像に、強調したい部分の深度の入力画像の画素値を合成することで強調画像を生成した。しかし、全焦点画像を生成せずに、入力画像のみを用いて強調画像を生成することも可能である。
具体的には、例えば、ユーザーにより操作入力がなされた場合に、デプスマップに基づいて、その操作入力による強調すべき深度にある入力画像中の対象画素の画素値に、その深度以外の入力画像における対象画素以外の画素に対して暈し処理を行ったものを合成して、強調画像を生成するようにしてもよい。また、ユーザー操作により指定された指定領域の中から選択した画素の対応する深度の入力画像の画素値に、それ以外の深度の入力画像の画素値を合成して、強調画像を生成することとしてもよい。つまり、ユーザーの操作入力による強調すべき深度にある入力画像中の対象画素の画素値を、その深度以外の深度に相当する入力画像に合成して、強調画像を生成することとしてもよい。
9−9.強調画像生成タイミング
ユーザーがタップ操作やドラッグ操作を行った場合に強調画像を生成するのではなく、他の何らかのアクションをトリガーとして、強調画像を生成するようにしてもよい。具体的には、例えば、表示部30に強調画像生成の指示を行わせるためのボタンを表示させ、タッチパネル21を介してこのボタンが押下されたことを検知した場合に、強調画像を生成するようにしてもよい。また、操作ボタンを具備する画像処理装置であれば、この操作ボタンの押下を検知して、強調画像を生成するようにしてもよい。
また、画像処理装置に振動を検知するためのセンサ(例えば加速度センサやジャイロセンサといった慣性センサ)を内蔵し、ユーザーにより画像処理装置を振る操作がなされたことを検知した場合に、強調画像を生成することとしてもよい。
さらに、画像処理装置に集音部としてマイクを設け、このマイクに対して所定の音声が入力されたことを検知した場合に、強調画像を生成するようにしてもよい。この場合は、強調画像生成のトリガーとする何種類かの音声をデジタル化した音声データを画像処理装置に記憶させておき、マイクから入力された音声と、記憶している音声データとを照合する音声認識処理を行って、強調画像の生成がユーザーにより指示されたか否かを判定するなどすればよい。これらの場合は、例えば、強調表示する深度を、入力画像の深度の浅い方から深い方に、或いは、入力画像の深度の深い方から浅い方に順番に変化させて、順次に強調画像を生成し、生成した強調画像を順番に表示させるなどすることができる。
9−10.ピンチ操作
ユーザーがタッチパネル21に対するピンチ操作を行った場合に、そのピンチ操作に従って表示画像の拡大・縮小や回転を行うこととしてもよい。具体的には、ユーザーが二本の指でタッチパネル21をタップし、そのタップした二点間の距離を大きくする/小さくする操作がなされたことを検知した場合に、例えばそのタップされた二点間の中心座標に対応するデプスマップ上の画素を特定し、その特定した画素を基準として表示画像の全体を拡大/縮小することとしてもよい。また、ユーザーにより二点間を結ぶ直線の角度を変化させるように指をねじる操作がなされたことを検知した場合に、例えばそのタップされた二点間の中心座標に対応するデプスマップ上の画素を特定し、その特定した画素を基準として表示画像の全体を回転させることとしてもよい。
9−11.深度の再推定
上記の実施形態では、図9の強調画像修正処理において、ドラッグ方向とエッジ方向とのコサイン類似度に基づいてペナルティ値を変更し、指定領域内の画素についてスコア値演算処理を実行して、深度を再推定した。つまり、指定領域内の画素について第2種パラメーター値を変更してスコア値演算処理を実行した。しかし、これに代えて、指定領域内の画素についてコスト値を変更して、スコア値演算処理を実行してもよい。つまり、指定領域内の画素について第1種パラメーター値を変更してスコア値演算処理を実行することとしてもよい。
強調画像修正処理では、ユーザーにより指定された指定領域においてエッジを強調した修正画像を生成する必要がある。エッジを強調するためには、指定領域内の代表画素の深度に近い深さの入力画像からエッジに相当する画素が選択されるようにする必要がある。コスト値はエッジ強度の逆数として算出されるため、エッジ強度が強いほどコスト値は小さくなる。つまり、エッジ強度が強い画像ほど、コスト値は小さくなる。従って、近い深さの入力画像からエッジに相当する画素を選択するためには、指定領域内の代表画素の深度に近い深さの入力画像に対するコスト値を小さくすればよい。コスト値は入力画像毎に独立に変更することができる。このため、ある入力画像だけコスト値を小さくすることで当該入力画像が選ばれ易くなるようにしたり、逆に、ある入力画像だけコスト値を大きくすることで当該入力画像が選ばれにくくするようにすることが可能となる。
なお、コスト値とペナルティ値との何れか一方のみを変更して深度の再推定を行うこととしてもよいが、コスト値とペナルティ値との両方を変更して深度の再推定を行うことも当然可能である。つまり、第1種パラメーター値及び第2種パラメーター値の少なくとも一方を変更してスコア値演算処理を行って、深度の再推定を行うことが可能である。
9−12.ペナルティ値
ペナルティ値として設定可能な値は、第1のペナルティ値と第2のペナルティ値との2つに限られるわけではない。例えば、図16のペナルティ値テーブル89に示すように、第1のペナルティ値893及び第2のペナルティ値895に加えて、第3のペナルティ値897を設定することとしてもよい。具体的には、対象画素と近傍画素とで、合焦しているとする入力画像を画像番号833bで「3以上」変化させる場合のペナルティ値として、第3のペナルティ値897を定めておくこととしてもよい。図16のペナルティ値テーブル895では、種別891の「通常時」に、第3のペナルティ値897として「P」が定められている。但し、「P<P<P」である。
また、種別891の「強調画像修正時」には、ユーザーによるドラッグ方向とエッジ方向とが所定の近似条件を満たす場合と、ユーザーによるドラッグ方向とエッジ方向とが所定の乖離条件を満たす場合とで、異なるペナルティ値が定められている。具体的には、前者については、第3のペナルティ値897として「P−β」が定められている。また、後者については、第3のペナルティ値897として「P+β」が定められている。なお、「β」の値は適宜設定可能であり、例えば「β=1」である。
また、ユーザーのドラッグ方向と画像中のエッジ方向との相対関係に応じてペナルティ値を変更するようにしてもよい。具体的には、例えば、ドラッグ方向とエッジ方向との類似度に応じて個別にペナルティ値を定めておき(以下、「方向類似度別ペナルティ値」という。)、この方向類似度別ペナルティ値を用いて適切解演算処理を行うようにしてもよい。ドラッグ方向とエッジ方向との類似度を表す指標値としては、上記の実施形態と同様に、コサイン類似度やコサイン距離を適用することができる。
具体的には、上記の実施形態で定義したペナルティ値P(p)に代えて、方向類似度別ペナルティ値Pdir(p)を定めておく。例えば、コサイン類似度が「1」(ドラッグ方向とエッジ方向とが平行)である場合の方向類似度別ペナルティ値として、通常時のペナルティ値と同じ値を定めておく。また、コサイン類似度が小さくなるにつれて(ドラッグ方向とエッジ方向とが乖離するにつれて)、通常時のペナルティ値から値が徐々に大きくなるようにペナルティ値を定め、コサイン類似度が「0」(ドラッグ方向とエッジ方向とが直交)である場合のペナルティ値として所定の最大値を定めておく。そして、ユーザーのドラッグ方向とエッジ方向とのコサイン類似度を算出し、算出したコサイン類似度について定められた方向類似度別ペナルティ値を用いて適切解演算処理を行う。
この方向類似度別ペナルティ値は、上記の実施形態で説明した深度の再推定を行う際に有用である。前述したように、本願発明は、ドラッグ方向とエッジ方向が近似しているほどペナルティ値を小さくし、逆に、ドラッグ方向とエッジ方向とが乖離しているほどペナルティ値を大きくするのが特徴である。ユーザーが表示画像中に表示の不具合、すなわち深度の演算ミスが発生しているのを発見した場合は、演算ミスが発生している箇所をドラッグ操作で特定して、強調画像の修正要求を行う。
ユーザーが正しく表示されている物体のエッジ方向をなぞるようにドラッグした場合、ドラッグ方向とエッジ方向とのコサイン類似度は「1」に近い値となる。この場合は、コサイン類似度を「1」とする方向類似度別ペナルティ値を用いて適切解演算処理を行うが、この場合のペナルティ値は通常時のペナルティ値と同じ値であるため、正しく表示されている物体については、通常時に生成されたデプスマップを保存することができる。
一方、ユーザーが演算ミスの生じている部分をなぞるようにドラッグした場合、演算ミスが生じている部分のエッジ方向と正しく表示されている部分のエッジ方向とが同一ではない限り、ドラッグ方向とエッジ方向との間に方向差が生じ、コサイン類似度は「1」よりも小さくなる。例えば、ドラッグ方向とエッジ方向とが直交する場合は、コサイン類似度は「0」となる。この場合は、コサイン類似度が「0」である場合の方向類似度別ペナルティ値を用いて適切解演算処理を行うが、この場合のペナルティ値としては最大値が定められているため、ペナルティが最も強くなる。その結果、演算ミスが生じている部分について深度をより正確に表したデプスマップが再生成される。このようにして再生成されたデプスマップを用いて強調画像を修正することで、演算ミスが生じていた部分を適切に修正することができる。
また、一の入力画像から別の入力画像へのペナルティ値を個別に定めることとしてもよい。具体的には、上記の実施形態で定義したペナルティ値P(p)に代えて、画像間ペナルティ値Pij(p)を設定することとしてもよい。但し、「i」及び「j」は画像の番号である。
例えば、入力画像の焦点距離が「f1〜f4」の4つであり、その大小関係が「f1<f2<<<<<f3<f4」であったとする。この場合、「f1」と「f2」とはそれほど大きく乖離していないため、「f1」の入力画像と「f2」の入力画像との間の画像間ペナルティ値P12(p)を大きくし、「f1」の入力画像と「f2」の入力画像とが合焦している入力画像として相互に選択され易くなるようにする。同様に、「f3」と「f4」とはそれほど大きく乖離していないため、「f3」の入力画像と「f4」の入力画像との間の画像間ペナルティ値P34(p)を大きくし、「f3」の入力画像と「f4」の入力画像とが合焦している入力画像として相互に選択され易くなるようにする。
一方、「f2」と「f3」とは大きく乖離しているため、「f2」の入力画像と「f3」の入力画像との間の画像間ペナルティ値P23(p)を小さくし、「f2」の入力画像と「f3」の入力画像とが合焦している入力画像として相互に選択されにくくなるようにする。これにより、「f1」の入力画像から「f2」の入力画像や、「f3」の入力画像から「f4」の入力画像に対しては、ペナルティを高くして、焦点距離が近い画像として選択され易くすることができ、「f2」の入力画像から「f3」の入力画像に対しては、ペナルティを低くして、焦点距離が遠い画像として選択されにくくなるようにすることができる。
9−13.被写体ぶれ対策
入力画像中の被写体ぶれの領域(以下、「被写体ぶれ領域」という。)を検出し、当該被写体ぶれ領域では推定される深度(合焦しているとして選択される入力画像)が変更されにくくするように、コスト値及びペナルティ値の少なくとも一方を変更するようにしてもよい。被写体ぶれとは、撮像時に被写体が動き、その動きの早さがカメラのシャッタースピードよりも早いことで、画像中の被写体がぶれてしまうことをいう。被写体ぶれ領域の検出は、従来公知の手法を用いて実現することができる。
被写体ぶれ領域が検出されたならば、当該被写体ぶれ領域におけるペナルティ値P(p)を通常時のペナルティ値よりも大きな値に変更してスコア値演算処理を行うか、又は、コスト値C(p,R)を、エッジ強度を用いて算出されるコスト値よりも小さな値に変更してスコア値演算処理を行う。これにより、被写体ぶれ領域について適切に深度が推定されたデプスマップを生成することができる。
9−14.記録媒体
上記の実施例では、画像処理に係る各種のプログラムやデータが、画像処理装置の記憶部80に記憶されており、処理部10がこれらのプログラムを読み出して実行することで、上記の各実施例における画像処理を実現することとして説明した。この場合、記憶部80は、ROMやフラッシュROM、ハードディスク、RAMといった内部記憶装置の他に、メモリカードやコンパクトフラッシュ(登録商標)カード、メモリスティック、USBメモリ、CD−RW(光学ディスク)、MO(光磁気ディスク)といった記録媒体(記録メディア、外部記憶装置)を有していてもよく、これらの記録媒体に上記の各種のプログラムやデータを記憶させることとしてもよい。
図30は、この場合における記録媒体の一例を示す図である。
画像処理装置には、メモリカード7を挿入するためのカードスロット710が設けられており、カードスロット710に挿入されたメモリカード7に記憶された情報を読み取る又はメモリカード7に情報を書き込むためのカードリーダライタ(R/W)720が設けられている。カードリーダライタ720は、処理部10の制御に従って、記憶部80に記録されたプログラムやデータをメモリカード7に書き込む動作を行う。メモリカード7に記録されたプログラムやデータは、画像処理装置以外の情報処理装置(例えばパソコン)で読み取ることで、当該情報処理装置において、上記の実施例における画像処理を実現することが可能である。
1 スマートフォン
7 メモリカード
10 処理部
20 入力部
21 タッチパネル
30 表示部
40 通信部
50 撮像部
55 携帯電話用アンテナ
60 携帯電話用無線通信回路部
70 時計部
75 慣性センサ
80 記憶部

Claims (21)

  1. 複数の入力画像から所定の特徴を検出する特徴検出手段と、
    前記特徴検出手段の検出結果に基づいてデプスマップを生成するデプスマップ生成手段と、
    を備えた画像処理装置。
  2. 前記特徴検出手段は、前記複数の入力画像から所定の特徴量を検出する特徴量検出手段を有し、
    前記特徴量検出手段により検出された特徴量を用いて、対象画素について、前記複数の入力画像のうちの何れの入力画像で合焦しているかを示す情報である深度を推定する深度推定手段を更に備え、
    前記デプスマップ生成手段は、前記深度推定手段の推定結果に基づいて前記デプスマップを生成する、
    請求項1に記載の画像処理装置。
  3. 前記深度推定手段は、前記特徴量検出手段により検出された前記複数の入力画像それぞれの特徴量を用いて、前記対象画素について、当該対象画素の特徴量に応じて定まる第1種パラメーター値と、当該対象画素について合焦しているとする第1の入力画像と当該対象画素の近傍画素について合焦しているとする第2の入力画像とが異なる場合のペナルティとして定められる第2種パラメーター値とを用いた所定の適切解演算処理を行って、前記対象画素について合焦している入力画像を判定する、
    請求項2に記載の画像処理装置。
  4. 前記複数の入力画像から被写体ぶれ領域を検出する被写体ぶれ領域検出手段を更に備え、
    前記適切解演算処理では、前記被写体ぶれ領域検出手段により検出された被写体ぶれ領域について、前記第1種パラメーター値及び前記第2種パラメーター値の少なくとも一方を前記被写体ぶれ領域以外の領域で用いるパラメーター値とは異なる値として演算を行う、
    請求項3に記載の画像処理装置。
  5. 前記複数の入力画像の焦点が適切に分離されているかを判定する焦点分離判定手段を更に備え、
    前記深度推定手段は、前記焦点分離判定手段の判定結果が肯定判定となった入力画像を用いて、前記対象画素について前記深度を推定する、
    請求項2〜4の何れか一項に記載の画像処理装置。
  6. 前記特徴量検出手段は、前記複数の入力画像又は前記複数の入力画像を縮小した縮小入力画像から前記特徴量を検出し、
    前記デプスマップ生成手段は、前記深度推定手段の推定結果に基づいて、縮小されたデプスマップを生成し、
    前記縮小されたデプスマップを所定の復元方法を用いて復元する復元手段と、
    前記復元手段により復元されたデプスマップを、所定の修正用画像を用いて修正したデプスマップを生成する修正手段と、
    を更に備えた、
    請求項2〜5の何れか一項に記載の画像処理装置。
  7. 前記特徴検出手段は、視差が発生する複数の視点で撮像された撮影画像を前記複数の入力画像として、前記入力画像から特徴点を検出する特徴点検出手段を有し、
    前記特徴点検出手段によって検出された特徴点に基づいて、前記複数の入力画像それぞれの視点の相対的な位置関係を推定する視点位置関係推定手段と、
    所定の推定演算を行って、前記複数の入力画像を構成する画素の3次元の位置を推定する画素位置推定手段と、
    を更に備え、
    前記デプスマップ生成手段は、前記視点位置関係推定手段の推定結果と前記画素位置推定手段の推定結果とに基づいて、前記デプスマップを生成する、
    請求項1に記載の画像処理装置。
  8. 前記視点位置関係推定手段は、
    前記特徴点検出手段によって検出された特徴点を追跡する特徴点追跡手段と、
    前記特徴点追跡手段の追跡結果に基づいて、前記複数の入力画像の中から基点となる入力画像である基点入力画像を抽出する基点入力画像抽出手段と、
    を有し、前記基点入力画像抽出手段によって抽出された基点入力画像について前記特徴点検出手段によって検出された特徴点に基づいて、前記複数の撮影画像それぞれの視点の相対的な位置関係を推定する、
    請求項7に記載の画像処理装置。
  9. 表示手段と、
    前記複数の撮影画像に視差を生じさせるための自装置の移動方法を前記ユーザーにガイドするためのガイド表示を前記表示手段に表示させる制御を行う表示制御手段と、
    自装置の移動諸量を検出する移動諸量検出手段と、
    を更に備え、
    前記表示制御手段は、前記移動諸量検出手段の検出結果に基づいて、前記ガイド表示の表示を変化させる、
    請求項7又は8に記載の画像処理装置。
  10. 表示手段と、
    ユーザー操作を受け付ける入力手段と、
    前記入力手段に対するユーザー操作に応じて、前記デプスマップに基づいて、特定深度に相当する入力画像中の画素の画素値を、前記特定深度以外の深度に相当する入力画像に合成した合成画像を生成する合成画像生成手段と、
    を更に備え、
    前記表示手段は、前記合成画像生成手段によって生成された合成画像を表示する、
    請求項1〜9の何れか一項に記載の画像処理装置。
  11. 表示手段と、
    ユーザー操作を受け付ける入力手段と、
    前記デプスマップと前記複数の入力画像とを用いて全焦点画像を生成する全焦点画像生成手段と、
    前記全焦点画像に対して暈し処理を行う暈し処理手段を有し、前記入力手段に対するユーザー操作に応じて、前記デプスマップに基づいて、特定深度に相当する入力画像中の画素の画素値を前記暈し処理の結果の画像に合成した合成画像を生成する合成画像生成手段と、
    を更に備え、
    前記表示手段は、前記合成画像生成手段により生成された合成画像を表示する、
    請求項1〜9の何れか一項に記載の画像処理装置。
  12. 前記入力手段に対するユーザー操作に応じて、合焦対象とする領域である合焦対象領域を前記ユーザーが指定するための指定用図形を前記表示手段に表示させる表示制御手段を更に備え、
    前記合成画像生成手段は、前記デプスマップに基づいて、前記入力画像のうち前記指定用図形に含まれる画素の深度を前記特定深度として、前記合成画像を生成する、
    請求項11に記載の画像処理装置。
  13. 前記入力手段は、前記表示手段と一体的に構成されたタッチパネルを有し、
    前記表示手段は、撮像対象を確認可能な確認画面を表示し、
    前記確認画面における前記タッチパネルに対するタップ操作に応じて、合焦対象とする確認画面上の位置である合焦対象位置を記憶する記憶手段と、
    前記記憶手段に合焦対象位置が記憶された後、所定の撮像条件の成立に応じて撮像を行う撮像手段と、
    を更に備え、
    前記特徴検出手段は、前記撮像手段によって撮像された複数の撮影画像を前記複数の入力画像として前記特徴を検出し、
    前記合成画像生成手段は、前記記憶手段に記憶された合焦対象位置に対応する深度を前記特定深度として、前記合成画像を生成する、
    請求項10又は11に記載の画像処理装置。
  14. 前記入力手段は、前記表示手段と一体的に構成されたタッチパネルを有し、
    前記表示手段は、所定の表示用画像を表示し、
    前記表示用画像が表示された表示画面における前記タッチパネルに対するピンチ操作に応じて、合焦対象とする領域である合焦対象領域を設定する合焦対象領域設定手段と、
    前記合焦対象領域設定手段によって設定された合焦対象領域以外の領域に対して所定の暈し度合で暈し処理を行う暈し処理手段と、
    を更に備え、
    前記暈し処理手段は、前記合焦対象領域設定手段によって設定された合焦対象領域に対するピンチ操作に応じて、前記暈し度合を変更する暈し度合変更手段を有する、
    請求項10又は11に記載の画像処理装置。
  15. 前記複数の入力画像は、異なる焦点距離で撮像された複数の撮影画像であり、
    表示手段と、
    ユーザー操作を受け付ける入力手段と、
    前記表示手段の所定位置に、焦点距離範囲をユーザーが指定するための焦点距離範囲指定用画像を表示させる制御を行う表示制御手段と、
    前記デプスマップに基づいて、前記焦点距離範囲指定用画像に対するユーザー操作によって指定された焦点距離範囲に対応する深度の画素を合焦とし、それ以外の画素を非合焦とした合成画像を生成する合成画像生成手段と、
    を更に備え、
    前記表示手段は、前記合成画像生成手段によって生成された合成画像を表示する、
    請求項1〜9の何れか一項に記載の画像処理装置。
  16. 前記複数の入力画像は、異なる焦点距離で撮像された複数の撮影画像であり、
    表示手段と、
    ユーザー操作を受け付ける入力手段と、
    前記複数の入力画像に基づく複数の参照用画像を前記表示手段に順次に表示させる制御を行う表示制御手段と、
    前記デプスマップに基づいて、前記参照用画像のうち、ユーザーによって指定された参照用画像に対応する入力画像の焦点距離に対応する深度の画素を合焦とし、それ以外の画素を非合焦とした合成画像を生成する合成画像生成手段と、
    を更に備え、
    前記表示手段は、前記合成画像生成手段によって生成された合成画像を表示する、
    請求項1〜9の何れか一項に記載の画像処理装置。
  17. 前記入力手段は、前記表示手段と一体的に構成されたタッチパネルを有し、
    前記合成画像生成手段は、前記タッチパネルに対するドラッグ操作に基づいて、前記特定深度を動的に変更して前記合成画像を動的に生成し、
    前記表示手段は、前記合成画像生成手段により動的に生成される合成画像を前記ドラッグ操作に合わせて表示する、
    請求項10又は11に記載の画像処理装置。
  18. ユーザー操作を受け付ける入力手段を更に備え、
    前記深度推定手段は、前記ユーザー操作により指定された指定領域に含まれる画素について前記深度を再推定する深度再推定手段を有し、
    前記デプスマップ生成手段は、前記深度再推定手段による深度の再推定の結果に基づいてデプスマップを再生成するデプスマップ再生成手段を有する、
    請求項2〜6の何れか一項に記載の画像処理装置。
  19. ユーザー操作を受け付ける入力手段を更に備え、
    前記深度推定手段は、前記ユーザー操作により指定された指定領域に含まれる画素について前記深度を再推定する深度再推定手段を有し、
    前記デプスマップ生成手段は、前記深度再推定手段による深度の再推定の結果に基づいてデプスマップを再生成するデプスマップ再生成手段を有し、
    前記深度再推定手段は、前記指定領域に含まれる画素について、前記第1種パラメーター値及び前記第2種パラメーター値の少なくとも一方を、前記深度推定手段が当初の深度推定で用いたパラメーター値とは異なる値に変更して前記適切解演算処理を行って、前記深度を再推定する、
    請求項3又は4に記載の画像処理装置。
  20. 複数の入力画像から所定の特徴を検出することと、
    前記特徴の検出結果に基づいてデプスマップを生成することと、
    を含む画像処理方法。
  21. コンピュータに、
    複数の入力画像から所定の特徴を検出する特徴検出ステップと、
    前記特徴検出ステップの検出結果に基づいてデプスマップを生成するデプスマップ生成ステップと、
    を実行させるためのプログラム。
JP2014221811A 2013-10-30 2014-10-30 画像処理装置、画像処理方法及びプログラム Active JP6511247B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014221811A JP6511247B2 (ja) 2013-10-30 2014-10-30 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013226045 2013-10-30
JP2013226045 2013-10-30
JP2014221811A JP6511247B2 (ja) 2013-10-30 2014-10-30 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015111822A true JP2015111822A (ja) 2015-06-18
JP6511247B2 JP6511247B2 (ja) 2019-05-15

Family

ID=52994878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014221811A Active JP6511247B2 (ja) 2013-10-30 2014-10-30 画像処理装置、画像処理方法及びプログラム

Country Status (5)

Country Link
US (2) US9508173B2 (ja)
JP (1) JP6511247B2 (ja)
KR (1) KR101709380B1 (ja)
CN (2) CN108107571B (ja)
TW (1) TWI554936B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011653A (ja) * 2015-06-26 2017-01-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2017151797A (ja) * 2016-02-25 2017-08-31 Kddi株式会社 幾何検証装置、プログラム及び方法
JP2018006867A (ja) * 2016-06-28 2018-01-11 キヤノン株式会社 画像処理装置および画像処理方法
JP2019103097A (ja) * 2017-12-07 2019-06-24 キヤノン株式会社 撮像装置、撮像方法およびプログラム
JPWO2019159759A1 (ja) * 2018-02-19 2021-01-28 株式会社村上開明堂 操作検出装置及び操作検出方法
US11176702B2 (en) 2017-09-21 2021-11-16 Olympus Corporation 3D image reconstruction processing apparatus, 3D image reconstruction processing method and computer-readable storage medium storing 3D image reconstruction processing program

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734582B2 (en) * 2013-02-21 2017-08-15 Lg Electronics Inc. Remote pointing method
JP6179224B2 (ja) * 2013-07-02 2017-08-16 富士通株式会社 画像処理フィルタの作成装置及びその方法
US9734551B1 (en) * 2013-12-01 2017-08-15 Google Inc. Providing depth-of-field renderings
US9594893B2 (en) * 2014-01-15 2017-03-14 Lenovo (Singapore) Pte. Ltd. Multi-touch local device authentication
KR102326275B1 (ko) * 2014-02-25 2021-11-16 삼성전자주식회사 이미지 표시 방법 및 장치
KR102271853B1 (ko) * 2014-03-21 2021-07-01 삼성전자주식회사 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
JP6399437B2 (ja) * 2014-06-04 2018-10-03 パナソニックIpマネジメント株式会社 制御装置及びそれを用いた作業管理システム
CN104038699B (zh) * 2014-06-27 2016-04-06 努比亚技术有限公司 对焦状态的提示方法和拍摄装置
CN108353126B (zh) 2015-04-23 2019-08-23 苹果公司 处理相机的内容的方法、电子设备和计算机可读存储介质
CN107750370B (zh) * 2015-06-16 2022-04-12 皇家飞利浦有限公司 用于确定图像的深度图的方法和装置
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
JPWO2017026356A1 (ja) * 2015-08-07 2018-06-21 日本電気株式会社 画像処理装置、画像処理方法およびプログラム
US10237473B2 (en) * 2015-09-04 2019-03-19 Apple Inc. Depth map calculation in a stereo camera system
US20170091905A1 (en) * 2015-09-24 2017-03-30 Dell Products L.P. Information Handling System Defocus Tracking Video
US10198590B2 (en) * 2015-11-11 2019-02-05 Adobe Inc. Content sharing collections and navigation
US10783431B2 (en) 2015-11-11 2020-09-22 Adobe Inc. Image search using emotions
US10249061B2 (en) 2015-11-11 2019-04-02 Adobe Inc. Integration of content creation and sharing
US10389804B2 (en) 2015-11-11 2019-08-20 Adobe Inc. Integration of content creation and sharing
US10516875B2 (en) * 2016-01-22 2019-12-24 Samsung Electronics Co., Ltd. Method and apparatus for obtaining depth image by using time-of-flight sensor
CN106997582A (zh) * 2016-01-22 2017-08-01 北京三星通信技术研究有限公司 飞行时间三维传感器的运动模糊消除方法和设备
KR102510821B1 (ko) * 2016-02-05 2023-03-16 삼성전자주식회사 영상 처리 방법, 장치 및 기록 매체
JP6765057B2 (ja) * 2016-03-18 2020-10-07 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法およびプログラム
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
US10574947B2 (en) * 2016-07-15 2020-02-25 Qualcomm Incorporated Object reconstruction in disparity maps using displaced shadow outlines
US10096097B2 (en) * 2016-08-01 2018-10-09 The United States Of America As Represented By The Secretary Of The Navy Content-aware bidirectional image edge highlighting
CN109565544B (zh) * 2016-08-09 2020-11-24 夏普株式会社 位置指定装置及位置指定方法
WO2018032457A1 (en) * 2016-08-18 2018-02-22 SZ DJI Technology Co., Ltd. Systems and methods for augmented stereoscopic display
TWI604417B (zh) * 2016-08-31 2017-11-01 國立交通大學 估算對極幾何模型的方法及其系統
KR102561099B1 (ko) * 2016-09-23 2023-07-28 삼성전자주식회사 ToF(time of flight) 촬영 장치 및 다중 반사에 의한 깊이 왜곡 저감 방법
CN106570821A (zh) * 2016-10-29 2017-04-19 深圳市金立通信设备有限公司 一种图像处理方法及终端
WO2018088212A1 (ja) * 2016-11-08 2018-05-17 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
KR101871937B1 (ko) * 2016-11-15 2018-07-02 주식회사 스트로크플레이 고속 영상 카메라를 이용한 비행물체의 비행데이터 측정 장치 및 방법 및 이를 수행하기 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체
JP6948787B2 (ja) * 2016-12-09 2021-10-13 キヤノン株式会社 情報処理装置、方法およびプログラム
WO2018112764A1 (zh) * 2016-12-20 2018-06-28 广东欧珀移动通信有限公司 图像处理方法与装置、控制方法与装置、成像与电子装置
US10389936B2 (en) * 2017-03-03 2019-08-20 Danylo Kozub Focus stacking of captured images
JP6911435B2 (ja) * 2017-03-23 2021-07-28 富士フイルムビジネスイノベーション株式会社 情報処理装置、表示システム、及びプログラム
KR102309297B1 (ko) * 2017-03-31 2021-10-06 엘지전자 주식회사 단말기 및 그 제어 방법
CN107170001A (zh) * 2017-04-25 2017-09-15 北京海致网聚信息技术有限公司 用于对图像进行配准的方法和装置
CN107368184B (zh) * 2017-05-12 2020-04-14 阿里巴巴集团控股有限公司 一种虚拟现实场景中的密码输入方法和装置
EP3488603B1 (en) * 2017-05-24 2021-07-28 SZ DJI Technology Co., Ltd. Methods and systems for processing an image
CN107038681B (zh) 2017-05-31 2020-01-10 Oppo广东移动通信有限公司 图像虚化方法、装置、计算机可读存储介质和计算机设备
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
KR102434574B1 (ko) 2017-08-14 2022-08-22 삼성전자주식회사 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
CN108227919B (zh) * 2017-12-22 2021-07-09 潍坊歌尔电子有限公司 用户手指位置信息的确定方法及装置、投影仪、投影系统
US10733706B2 (en) * 2018-01-07 2020-08-04 Htc Corporation Mobile device, and image processing method for mobile device
CN111869205B (zh) 2018-01-19 2022-06-10 Pcms控股公司 具有变化位置的多焦平面
KR102287622B1 (ko) 2018-01-29 2021-08-06 에이조 가부시키가이샤 화상 처리 장치, 화상 처리 방법 및 화상 처리 프로그램
WO2019150668A1 (ja) * 2018-01-30 2019-08-08 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
CN108279287B (zh) * 2018-02-01 2020-12-18 嘉兴市丰成五金材料股份有限公司 基于通信技术的烟雾快速散发系统
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
CN108550182B (zh) * 2018-03-15 2022-10-18 维沃移动通信有限公司 一种三维建模方法和终端
EP4266113A3 (en) 2018-03-23 2023-12-27 InterDigital VC Holdings, Inc. Multifocal plane based method to produce stereoscopic viewpoints in a dibr system (mfp-dibr)
US11700432B2 (en) * 2018-04-11 2023-07-11 Nokia Technologies Oy Method and apparatus for signaling and storing grouping types in an image container file
DK201870364A1 (en) 2018-05-07 2019-12-03 Apple Inc. MULTI-PARTICIPANT LIVE COMMUNICATION USER INTERFACE
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
CN112585963B (zh) 2018-07-05 2024-04-09 Pcms控股公司 用于2d显示器上的内容的3d感知的近眼焦平面覆盖层的方法和系统
JP7262940B2 (ja) * 2018-07-30 2023-04-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
DE102018213052A1 (de) * 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer Erklärungskarte
CN109246354B (zh) * 2018-09-07 2020-04-24 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
DK201870623A1 (en) * 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10783649B2 (en) * 2018-09-17 2020-09-22 Adobe Inc. Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) * 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
KR102562361B1 (ko) * 2018-10-05 2023-08-02 엘지이노텍 주식회사 깊이 정보를 획득하는 방법 및 카메라 모듈
CN111275657B (zh) * 2018-11-20 2024-07-26 华为技术有限公司 虚焦检测方法、设备及计算机可读介质
CN109151329A (zh) * 2018-11-22 2019-01-04 Oppo广东移动通信有限公司 拍照方法、装置、终端及计算机可读存储介质
CN110008802B (zh) 2018-12-04 2023-08-29 创新先进技术有限公司 从多个脸部中选择目标脸部及脸部识别比对方法、装置
TWI678546B (zh) * 2018-12-12 2019-12-01 緯創資通股份有限公司 距離偵測方法、距離偵測系統與電腦程式產品
US10917516B1 (en) * 2018-12-18 2021-02-09 United Services Automobile Association (Usaa) Data access system for representatives
CN109767466B (zh) * 2019-01-10 2021-07-13 深圳看到科技有限公司 画面渲染方法、装置、终端及对应的存储介质
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
US10554890B1 (en) 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
KR102597518B1 (ko) * 2019-02-20 2023-11-03 삼성전자주식회사 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
WO2020174588A1 (ja) * 2019-02-26 2020-09-03 株式会社ソシオネクスト 情報処理装置および情報処理方法
CN109902695B (zh) * 2019-03-01 2022-12-20 辽宁工程技术大学 一种面向像对直线特征匹配的线特征矫正与提纯方法
US12088400B2 (en) * 2019-03-29 2024-09-10 Nokia Technologies Oy Apparatus for doppler shift compensation, corresponding method and computer program
KR102461919B1 (ko) * 2019-04-01 2022-11-01 구글 엘엘씨 동적 깊이 이미지를 캡처 및 편집하는 기술
JP7528928B2 (ja) * 2019-04-10 2024-08-06 ソニーグループ株式会社 画像処理装置、及び画像処理方法
CN111901475A (zh) * 2019-05-06 2020-11-06 苹果公司 用于捕获和管理视觉媒体的用户界面
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
CN110567437B (zh) * 2019-06-28 2021-05-18 武汉理工大学 港口起重机械摄影测量方法
CN110324532B (zh) * 2019-07-05 2021-06-18 Oppo广东移动通信有限公司 一种图像虚化方法、装置、存储介质及电子设备
CN112446946B (zh) * 2019-08-28 2024-07-09 深圳市光鉴科技有限公司 基于稀疏深度与边界的深度重建方法、系统、设备及介质
CN112446251A (zh) * 2019-08-30 2021-03-05 深圳云天励飞技术有限公司 图像处理方法及相关装置
CN110796649B (zh) * 2019-10-29 2022-08-30 北京市商汤科技开发有限公司 目标检测方法及装置、电子设备和存储介质
CN111140103A (zh) * 2019-12-28 2020-05-12 王体 办公柜锁孔封闭平台
KR102470250B1 (ko) * 2020-03-26 2022-11-24 박재현 광학적 부분 차단을 이용한 다이내믹 영상 생성방법
TWI804850B (zh) * 2020-04-16 2023-06-11 鈺立微電子股份有限公司 多深度資訊之融合方法與融合系統
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
CN111724381B (zh) * 2020-06-24 2022-11-01 武汉互创联合科技有限公司 基于多视图交叉验证的显微图像细胞计数与姿态识别方法
US20220005226A1 (en) * 2020-07-05 2022-01-06 Asensus Surgical Us, Inc. Camera calibration using measured motion
RU2745010C1 (ru) * 2020-08-25 2021-03-18 Самсунг Электроникс Ко., Лтд. Способы реконструкции карты глубины и электронное вычислительное устройство для их реализации
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US20220104887A1 (en) * 2020-10-06 2022-04-07 Asensus Surgical Us, Inc. Surgical record creation using computer recognition of surgical events
US11431891B2 (en) 2021-01-31 2022-08-30 Apple Inc. User interfaces for wide angle video conference
CN113076685B (zh) * 2021-03-04 2024-09-10 华为技术有限公司 图像重建模型的训练方法、图像重建方法及其装置
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US20220368548A1 (en) 2021-05-15 2022-11-17 Apple Inc. Shared-content session user interfaces
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
JP7113327B1 (ja) * 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 撮像装置
US11770600B2 (en) 2021-09-24 2023-09-26 Apple Inc. Wide angle video conference
CN115063789B (zh) * 2022-05-24 2023-08-04 中国科学院自动化研究所 基于关键点匹配的3d目标检测方法及装置
US20240031540A1 (en) * 2022-07-21 2024-01-25 Apple Inc. Foveated down sampling of image data
CN115409845B (zh) * 2022-11-03 2023-02-03 成都新西旺自动化科技有限公司 一种异形高精度均衡对位方法及系统
US20240169494A1 (en) * 2022-11-21 2024-05-23 Varjo Technologies Oy Extended depth-of-field correction using reconstructed depth map
CN116679080B (zh) * 2023-05-30 2024-10-01 广州伏羲智能科技有限公司 一种河流表面流速确定方法、装置及电子设备
CN116740158B (zh) * 2023-08-14 2023-12-05 小米汽车科技有限公司 图像深度确定方法、装置和存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001183133A (ja) * 1999-12-22 2001-07-06 Sony Corp 3次元形状計測装置および方法、並びに記録媒体
JP2007013914A (ja) * 2005-06-30 2007-01-18 Samsung Sdi Co Ltd 立体映像表示装置,および立体映像表示装置を用いた移動通信端末機
JP2008039491A (ja) * 2006-08-02 2008-02-21 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2010166247A (ja) * 2009-01-14 2010-07-29 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ
WO2011158515A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
US20120148097A1 (en) * 2010-12-14 2012-06-14 Electronics And Telecommunications Research Institute 3d motion recognition method and apparatus
WO2012101719A1 (ja) * 2011-01-27 2012-08-02 パナソニック株式会社 3次元画像撮影装置及び3次元画像撮影方法
JP2012248001A (ja) * 2011-05-27 2012-12-13 Canon Inc 画像処理装置および画像処理方法、プログラム
JP2013021525A (ja) * 2011-07-12 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013031773A1 (ja) * 2011-09-01 2013-03-07 旭硝子株式会社 強化ガラスパネルの製造方法
WO2013162747A1 (en) * 2012-04-26 2013-10-31 The Trustees Of Columbia University In The City Of New York Systems, methods, and media for providing interactive refocusing in images

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4692878A (en) * 1985-03-29 1987-09-08 Ampower Technologies, Inc. Three-dimensional spatial image system
JP3624859B2 (ja) 2001-06-19 2005-03-02 カシオ計算機株式会社 撮像装置、ソフトフォーカス画像撮影方法
JP4230128B2 (ja) 2001-06-20 2009-02-25 富士フイルム株式会社 撮像装置およびその制御方法
JP4468370B2 (ja) * 2004-09-08 2010-05-26 日本電信電話株式会社 三次元表示方法、装置およびプログラム
JP2006146455A (ja) * 2004-11-18 2006-06-08 Konica Minolta Photo Imaging Inc 電子機器、指標付画像の表示方法
KR101228304B1 (ko) 2006-06-16 2013-01-30 삼성전자주식회사 깊이 정보 맵 구성 장치 및 방법, 깊이 정보 맵을 이용한이미지 디스플레이 장치 및 방법
US8570426B2 (en) * 2008-11-25 2013-10-29 Lytro, Inc. System of and method for video refocusing
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
US8497920B2 (en) 2008-06-11 2013-07-30 Nokia Corporation Method, apparatus, and computer program product for presenting burst images
KR101506926B1 (ko) * 2008-12-04 2015-03-30 삼성전자주식회사 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법
KR101650702B1 (ko) 2008-12-19 2016-08-24 코닌클리케 필립스 엔.브이. 이미지들로부터의 깊이 맵들의 생성
JP5375401B2 (ja) * 2009-07-22 2013-12-25 カシオ計算機株式会社 画像処理装置及び方法
CN101930606A (zh) * 2010-05-14 2010-12-29 深圳市海量精密仪器设备有限公司 一种图像边缘检测的景深扩展方法
CN102472620B (zh) * 2010-06-17 2016-03-02 松下电器产业株式会社 图像处理装置及图像处理方法
JP5682203B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
US20120314061A1 (en) * 2010-11-24 2012-12-13 Shunsuke Yasugi Imaging apparatus, imaging method, program, and integrated circuit
JP5720488B2 (ja) 2011-08-16 2015-05-20 リコーイメージング株式会社 撮像装置および距離情報取得方法
US9129414B2 (en) 2011-10-14 2015-09-08 Morpho, Inc. Image compositing apparatus, image compositing method, image compositing program, and recording medium
US20130176458A1 (en) 2012-01-11 2013-07-11 Edwin Van Dalen Flexible Burst Image Capture System
TWI489326B (zh) * 2012-06-05 2015-06-21 Wistron Corp 操作區的決定方法與系統
US9632574B2 (en) * 2012-10-31 2017-04-25 Sony Corporation Device and method for authenticating a user
US8760500B1 (en) * 2013-10-23 2014-06-24 Google Inc. Depth map generation

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001183133A (ja) * 1999-12-22 2001-07-06 Sony Corp 3次元形状計測装置および方法、並びに記録媒体
JP2007013914A (ja) * 2005-06-30 2007-01-18 Samsung Sdi Co Ltd 立体映像表示装置,および立体映像表示装置を用いた移動通信端末機
JP2008039491A (ja) * 2006-08-02 2008-02-21 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2010166247A (ja) * 2009-01-14 2010-07-29 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ
WO2011158515A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
US20120148097A1 (en) * 2010-12-14 2012-06-14 Electronics And Telecommunications Research Institute 3d motion recognition method and apparatus
WO2012101719A1 (ja) * 2011-01-27 2012-08-02 パナソニック株式会社 3次元画像撮影装置及び3次元画像撮影方法
JP2012248001A (ja) * 2011-05-27 2012-12-13 Canon Inc 画像処理装置および画像処理方法、プログラム
JP2013021525A (ja) * 2011-07-12 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013031773A1 (ja) * 2011-09-01 2013-03-07 旭硝子株式会社 強化ガラスパネルの製造方法
WO2013162747A1 (en) * 2012-04-26 2013-10-31 The Trustees Of Columbia University In The City Of New York Systems, methods, and media for providing interactive refocusing in images

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011653A (ja) * 2015-06-26 2017-01-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2017151797A (ja) * 2016-02-25 2017-08-31 Kddi株式会社 幾何検証装置、プログラム及び方法
JP2018006867A (ja) * 2016-06-28 2018-01-11 キヤノン株式会社 画像処理装置および画像処理方法
US11176702B2 (en) 2017-09-21 2021-11-16 Olympus Corporation 3D image reconstruction processing apparatus, 3D image reconstruction processing method and computer-readable storage medium storing 3D image reconstruction processing program
JP2019103097A (ja) * 2017-12-07 2019-06-24 キヤノン株式会社 撮像装置、撮像方法およびプログラム
JPWO2019159759A1 (ja) * 2018-02-19 2021-01-28 株式会社村上開明堂 操作検出装置及び操作検出方法
JP7286612B2 (ja) 2018-02-19 2023-06-05 株式会社村上開明堂 操作検出装置及び操作検出方法

Also Published As

Publication number Publication date
US20150116353A1 (en) 2015-04-30
CN104660900B (zh) 2018-03-02
CN108107571B (zh) 2021-06-01
KR101709380B1 (ko) 2017-02-22
TW201516829A (zh) 2015-05-01
US10127639B2 (en) 2018-11-13
JP6511247B2 (ja) 2019-05-15
CN104660900A (zh) 2015-05-27
TWI554936B (zh) 2016-10-21
US20170039686A1 (en) 2017-02-09
US9508173B2 (en) 2016-11-29
KR20150050486A (ko) 2015-05-08
CN108107571A (zh) 2018-06-01

Similar Documents

Publication Publication Date Title
JP6511247B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN104680501B (zh) 图像拼接的方法及装置
US9516214B2 (en) Information processing device and information processing method
CN110276317B (zh) 一种物体尺寸检测方法、物体尺寸检测装置及移动终端
US8989517B2 (en) Bokeh amplification
US9516223B2 (en) Motion-based image stitching
CN102843509B (zh) 图像处理装置和图像处理方法
US20160050372A1 (en) Systems and methods for depth enhanced and content aware video stabilization
CN109889724A (zh) 图像虚化方法、装置、电子设备及可读存储介质
CN114071010B (zh) 一种拍摄方法及设备
JP6610535B2 (ja) 画像処理装置および画像処理方法
CN110324532A (zh) 一种图像虚化方法、装置、存储介质及电子设备
JP2015148532A (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
WO2022022726A1 (zh) 一种拍摄方法及设备
JP4631973B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
KR101703013B1 (ko) 3차원 스캐너 및 스캐닝 방법
CN110505398A (zh) 一种图像处理方法、装置、电子设备及存储介质
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
CN114071009A (zh) 一种拍摄方法及设备
JP2013125422A (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
JP7120740B2 (ja) 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス
CN108109158B (zh) 基于自适应阈值分割的视频穿越处理方法及装置
CN111223192A (zh) 一种图像处理方法及其应用方法、装置及设备
CN111083345A (zh) 独照生成装置和方法及其非易失性计算机可读媒体
CN108171803B (zh) 一种图像制作方法及相关装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190408

R150 Certificate of patent or registration of utility model

Ref document number: 6511247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350