JPWO2012140869A1 - 動き推定装置、奥行き推定装置、及び動き推定方法 - Google Patents

動き推定装置、奥行き推定装置、及び動き推定方法 Download PDF

Info

Publication number
JPWO2012140869A1
JPWO2012140869A1 JP2012533161A JP2012533161A JPWO2012140869A1 JP WO2012140869 A1 JPWO2012140869 A1 JP WO2012140869A1 JP 2012533161 A JP2012533161 A JP 2012533161A JP 2012533161 A JP2012533161 A JP 2012533161A JP WO2012140869 A1 JPWO2012140869 A1 JP WO2012140869A1
Authority
JP
Japan
Prior art keywords
depth
scene
motion
subject
cost value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012533161A
Other languages
English (en)
Other versions
JP5919563B2 (ja
Inventor
整 山田
整 山田
ラーサン ポンサク
ラーサン ポンサク
メイ シェン シェン
メイ シェン シェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2012140869A1 publication Critical patent/JPWO2012140869A1/ja
Application granted granted Critical
Publication of JP5919563B2 publication Critical patent/JP5919563B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

本発明の一形態に係る動き推定装置は、1シーンに対応する互いに焦点が異なる多焦点画像群(226)を用いて、当該シーンに含まれる複数の第1領域の各々の動きを推定する動き推定装置(300)であって、前記多焦点画像群(226)を用いて、前記複数の第1領域ごとに、当該第1領域のぼけ量と、奥行き方向の距離ごとに定められた基準のぼけ量との差を示すコスト値を算出するコスト値算出部(305)と、前記コスト値を用いて、当該コスト値に対応する第1領域の動きを推定する動き推定部(306)とを備える。

Description

本発明は、動き推定装置、奥行き推定装置、及び動き推定方法に関し、より具体的には、焦点の異なる多焦点画像群から1シーンの動きを推定する動き推定装置に関する。
奥行きマップ(depth map)とは、視点からシーンオブジェクト面までの距離に関する情報を含んだ画像又は画像チャネルのことである。この奥行きマップは、自動車用センサ、医用画像処理、及び3次元(3D)アプリケーションなど、様々な用途で用いられている。通常、シーンの奥行きマップは2つの手法、つまり、アクティブ手法及びパッシブ手法を用いて取得可能である。
アクティブ手法では、符号化信号(つまり、構造化された光、赤外線(IR)信号、レーザ、又は、音声信号)をシーンに投影又は照射し、受信器又は検出器がその投影信号を受信又は撮像する。そして、投影信号と受信信号との差分から奥行きマップが算出又は推定される。アクティブ手法の例として、TOF(Time Of Flight)センサ、LiDAR(Light Detection And Ranging:光検出と測距)、構造化光パターン、及び、超音波距離センサがある。
パッシブ手法では、信号をシーンに投影する必要はなく、ただ撮像画像のみから奥行きマップを推定することができる。したがって、パッシブ手法は低コストで実現可能であり、例えば、既存のデジタルカメラ1台を用いて実現できる。
数種類のパッシブな奥行き推定技術が開示されている(例えば、非特許文献1、非特許文献2、非特許文献3及び非特許文献4を参照)。これらは、2つの主流、つまり、DFF(depth from focus)法とDFD(depth from defocus)法とに分類することができる。DFF法及びDFD法とも、奥行き推定のためには、焦点がそれぞれ異なった複数の入力画像が必要である。DFF法では、異なる焦点位置で1シーンの画像が数枚撮像される。そして、各撮像画像の焦点又は鮮鋭度(コントラスト)が測定される。シーンの奥行きマップは、画像の最大鮮鋭度とそれに対応する焦点設定とを検出することによって最終的に得られる。DFD法では、用いられる多焦点画像がより少ない(少なくとも2画像)。奥行きマップは、多焦点画像の画素間におけるぼけ量を求めることによって推定することができる。
特許文献1は、3次元シーンの奥行き情報を記録する単レンズカメラシステムを開示している。図1は、特許文献1に係る多焦点画像撮像システムを示す図である。当該システムでは、レンズをレンズの中心軸方向に動かして、レンズシステム正面の様々な距離で被写体(オブジェクト)が撮像される。ここで、被写体はイメージセンサに焦点が合ったり外れたりする。レンズシステムの焦点距離が分かると、奥行きマップ(レンズシステムと被写体との距離)が、被写体に焦点が合っている場合のレンズシステムとイメージセンサとの距離から算出される。
特許文献2では、全焦点画像及び2次元スケール空間マッチングを用いた奥行きマップの作成方法が開示されている。この方法では、シーンの多焦点画像が複数枚撮像される。そして、撮像した多焦点画像から全焦点画像が作成され、その全焦点画像からスケール空間ぼけ画像が複数枚生成される。最後に、撮像された画像のぼけ量と生成されたスケール空間ぼけ画像のぼけ量とのマッチングにより奥行きマップが作成される。
米国特許第6128071号明細書 米国特許出願公開第2007/0019883号明細書
John Ens及びPeter Lawerence 「An Investigation of Methods for Determining Depth from Focus」、IEEE Transaction on Pattern Analysis and Machine Inteligence、第15巻第2号、1993年2月 Murali Subbarao及びTae Choi 「Accurate Recovery of Three−Dimensional Shape from Image Focus」、IEEE Transaction on Pattern Analysis and Machine Inteligence、第17巻第3号、1995年3月 Murali Subbarao及びGopal Surya 「Depth from Defocus: A Spatial Domain Approach」、International Journal of Computer Vision、第13巻第3号、1994年12月 Subhasis Chaudhuri及びA.N.Rajagopalan 「Depth from Defocus:A Real Aperture Imaging Approach」、Springer−Verlag New York,Inc.、1999年 B.D.Lucas及びT.Kanade 「An iterative image registration technique with an application to stereo vision」、第7回人工知能国際合同会議議事録、1981年 C.Tomasi及びT.Kadane 「Shape and motion from image streams:a factorization method−3:Detection and Tracking of Point Features」、技術報告書CMU−CS−91−132、カーネギーメロン大学、ペンシルベニア州ピッツバーグ、1991年4月
また、このようなDFF法及びDFD法において、被写体の動きを推定し、推定した被写体の動きを用いてさまざまな処理が可能となると考えられる。また、このようなDFF法及びDFD法における被写体の動きの推定方法として、より容易な動き推定方法が望まれている。
そこで、本発明は、容易に被写体の動きを推定できる動き推定装置及び動き推定方法を提供することを目的とする。
上記目的を達成するために、本発明の一形態に係る動き推定装置は、1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第1領域の各々の動きを推定する動き推定装置であって、前記多焦点画像群を用いて、前記複数の第1領域ごとに、当該第1領域に対応するぼけ量と、奥行き方向の距離ごとに定められた基準のぼけ量との差を示すコスト値を算出するコスト値算出部と、前記コスト値を用いて、当該コスト値に対応する第1領域の動きを推定する動き推定部とを備える。
本発明は、容易に被写体の動きを推定できる動き推定装置及び動き推定方法を提供できる。
図1は、従来の多焦点画像撮像システムを示す図である。 図2は、本発明の実施の形態1に係る奥行き推定装置を有する撮像装置のブロック図である。 図3は、本発明の実施の形態1に係る奥行き推定装置のブロック図である。 図4は、本発明の実施の形態1に係る多焦点画像群の一例を示す図である。 図5は、本発明の実施の形態1に係る奥行き推定処理のフローチャートである。 図6は、本発明の実施の形態1に係る動き推定処理のフローチャートである。 図7Aは、本発明の実施の形態1に係る最小コスト値の分布の例を示す図である。 図7Bは、本発明の実施の形態1に係る最小コスト値の分布の例を示す図である。 図7Cは、本発明の実施の形態1に係る最小コスト値の分布の例を示す図である。 図8は、本発明の実施の形態1に係る特徴追跡処理のフローチャートである。 図9は、本発明の実施の形態1に係る奥行きマップ補完処理のフローチャートである。 図10Aは、本発明の実施の形態1に係る、静止被写体の画像の一例を示す図である。 図10Bは、本発明の実施の形態1に係る、静止被写体の画像の一例を示す図である。 図10Cは、本発明の実施の形態1に係る、静止被写体の画像の一例を示す図である。 図10Dは、本発明の実施の形態1に係る、静止被写体の奥行きマップの一例を示す図である。 図11Aは、本発明の実施の形態1に係る、移動被写体を含む画像の一例を示す図である。 図11Bは、本発明の実施の形態1に係る、移動被写体を含む画像の一例を示す図である。 図11Cは、本発明の実施の形態1に係る、移動被写体を含む画像の一例を示す図である。 図11Dは、本発明の実施の形態1に係る、移動被写体の奥行きマップの一例を示す図である。 図12は、本発明の実施の形態1に係る、動き推定及び特徴追跡を利用した奥行き補完処理を示す図である。 図13は、本発明の実施の形態1に係る奥行きマップの奥行き精度の向上を示す図である。 図14は、本発明の実施の形態1の別の変形例に係る動き推定処理のフローチャートである。 図15は、本発明の実施の形態2に係る奥行き推定装置のブロック図である。 図16は、本発明の実施の形態2の変形例に係る奥行き推定装置のブロック図である。 図17は、本発明の実施の形態3に係る撮像装置のブロック図である。
(本発明の基礎となった知見)
本発明者は、以下の課題を見出した。
上記特許文献1、特許文献2、及び、その他周知の方法にかかるシステム及び方法は、静止した被写体しか含まない静止画撮像用に利用されるものである。これらは、被写体が動いているシーンの撮像及び動画撮像には適していない。なぜなら、画像撮像中に被写体が動く場合、撮像した多焦点画像のそれぞれ異なる画素位置に同一被写体があると考えられるため、焦点を正確に測定したり、被写体のぼけを正しくマッチングさせたりすることができないからである。したがって、移動被写体から推定された奥行きマップの精度は劣化したものとなる。
そこで、本実施の形態は、静止画撮像及び動画撮像の両方に適用可能な、静止被写体用の正確な奥行き情報を生成しながら移動被写体の奥行き精度を向上させる、多焦点画像からの奥行き推定方法及び装置を提供する。
また、本実施の形態は、容易に被写体の動きを推定できる動き推定装置及び動き推定方法を提供する。
本発明の一形態に係る動き推定装置は、1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第1領域の各々の動きを推定する動き推定装置であって、前記多焦点画像群を用いて、前記複数の第1領域ごとに、当該第1領域に対応するぼけ量と、奥行き方向の距離ごとに定められた基準のぼけ量との差を示すコスト値を算出するコスト値算出部と、前記コスト値を用いて、当該コスト値に対応する第1領域の動きを推定する動き推定部とを備える。
この構成によれば、本発明の一形態に係る動き推定装置は、DFF法及びDFD法において算出されるコスト値を用いて、被写体の動きを推定できる。このように、当該動き推定装置は、DFF法及びDFD法において、もともと用いられているコスト値を、被写体の動きの推定処理にも流用する。よって、当該動き推定装置は、動き推定処理の演算量を低減できるので、容易に被写体の動きを推定できる。
また、前記コスト値算出部は、前記複数の第1領域ごとに、複数の前記奥行き方向の距離ごとに求められる複数の前記コスト値のうちで最も小さい最小コスト値を算出し、前記動き推定部は、前記最小コスト値を用いて、当該最小コスト値に対応する第1領域の動きを推定してもよい。
この構成によれば、本発明の一形態に係る動き推定装置は、DFF法及びDFD法において算出される最小コスト値を用いて、被写体の動きを推定できる。
また、前記動き推定部は、前記最小コスト値が閾値より大きい場合、当該最小コスト値に対応する第1領域を動きがある移動被写体領域と判定し、前記最小コスト値が前記閾値より小さい場合、当該最小コスト値に対応する第1領域を動きがない静止被写体領域と判定してもよい。
この構成によれば、本発明の一形態に係る動き推定装置は、容易な処理により、複数の第1領域の各々が、動きのある領域か、動きのない領域かを判定できる。
また、前記閾値は、予め定められた固定値であってもよい。
また、本発明の一形態に係る奥行きマップ推定装置は、シーンごとに、1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第2領域の各々の奥行きを示す奥行きマップを生成する奥行き推定装置であって、前記シーンごとに、当該シーンに対応する前記多焦点画像群を用いて当該シーンの奥行きマップである初期奥行きマップを生成する奥行きマップ生成部と、前記シーンごとに、当該シーンに含まれる複数の第1領域の各々の動きを推定する前記動き推定装置と、処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、他のシーンに含まれ、かつ、当該移動被写体領域に対応する前記静止被写体領域の奥行き情報を用いて補完する奥行き補完部とを備える。
この構成によれば、本発明の一形態に係る奥行きマップ推定装置は、精度が低い移動被写体領域の奥行き情報を、精度が高い静止被写体領域の奥行き情報を用いて補完する。これにより、当外奥行きマップ推定装置は、精度の高い奥行きマップを生成できる。
また、前記奥行き補完部は、前記静止被写体領域の奥行き情報を、前記移動被写体領域の奥行き情報にコピーしてもよい。
また、前記動き補完部は、前記処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、当該移動被写体領域に対応する前記静止被写体領域を含む他のシーンのうち、当該処理対象のシーンに時間的に最も近いシーンに含まれる当該静止被写体領域の奥行き情報を用いて補完してもよい。
この構成によれば、本発明の一形態に係る奥行きマップ推定装置は、時間的に近いシーンの奥行き情報を補完処理に用いることで、精度の高い奥行きマップを生成できる。
また、前記奥行き補完部は、1画素ごとに、前記処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、前記他のシーンに含まれ、かつ、当該移動被写体領域に対応する前記静止被写体領域の奥行き情報を用いて補完してもよい。
この構成によれば、本発明の一形態に係る奥行きマップ推定装置は、奥行きマップの精度を向上できる。
また、前記奥行き補完部は、複数の画素を含む領域ごとに、前記処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、前記他のシーンに含まれ、かつ、当該移動被写体領域に対応する前記静止被写体領域の奥行き情報を用いて補完してもよい。
この構成によれば、本発明の一形態に係る奥行きマップ推定装置は、奥行きマップ推定処理の演算量を低減できる。
また、前記奥行き推定装置は、さらに、シーン間において被写体を追跡することで、複数のシーンにおける同一の被写体を示す追跡被写体情報を生成する特徴追跡部を備え、前記奥行き補完部は、前記追跡被写体情報を用いて、前記他のシーンに含まれ、かつ、前記移動被写体領域に対応する前記静止被写体領域を特定してもよい。
この構成によれば、本発明の一形態に係る奥行きマップ推定装置は、画像間で同一の被写体を容易に特定することができる。
また、前記特徴追跡部は、第1多焦点画像群に含まれる少なくとも1つの第1画像における第1被写体特徴群を算出し、第2多焦点画像群に含まれ、前記第1画像と焦点が同じである、少なくとも1つの第2画像における第2被写体特徴群を算出し、前記第1被写体特徴群と前記第2被写体特徴群とをマッチングさせることで前記追跡被写体情報を生成してもよい。
また、前記奥行き推定装置は、さらに、前記移動被写体領域の動きベクトルを、前記多焦点画像群を用いて算出する動き補償部を備え、前記奥行きマップ生成部は、前記動きベクトルを用いて前記多焦点画像群に対して動き補償処理を行い、動き補償処理後の多焦点画像群を用いて前記初期奥行きマップを生成してもよい。
この構成によれば、本発明の一形態に係る奥行きマップ推定装置は、動き補償を行うことで、奥行きマップの精度を向上できる。また、当該奥行きマップ推定装置は、動き推定装置により推定された移動被写体領域に対して動き補償処理を行うことで、動き補償処理の演算量を低減できる。
また、本発明の一形態に係る奥行きマップ推定装置は、シーンごとに、1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第2領域の各々の奥行きを示す奥行きマップを生成する奥行き推定装置であって、前記シーンごとに、当該シーンに含まれる複数の第1領域の各々の動きを推定する前記動き推定装置と、前記移動被写体領域の動きベクトルを、前記多焦点画像群を用いて算出する動き補償部と、前記動きベクトルを用いて前記多焦点画像群に対して動き補償処理を行い、動き補償処理後の多焦点画像群を用いて、対応するシーンの奥行きマップを生成する奥行きマップ生成部とを備える。
この構成によれば、本発明の一形態に係る奥行きマップ推定装置は、動き補償を行うことで、奥行きマップの精度を向上できる。また、当該奥行きマップ推定装置は、動き推定装置により推定された移動被写体領域に対して動き補償処理を行うことで、動き補償処理の演算量を低減できる。
なお、本発明は、このような動き推定装置及び奥行き推定装置として実現できるだけでなく、動き推定装置又は奥行き推定装置に含まれる特徴的な手段をステップとする動き推定方法又は奥行き推定方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の非一時的なコンピュータ読み取り可能な記録媒体、及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
さらに、本発明は、このような動き推定装置又は奥行き推定装置の機能の一部又は全てを実現する半導体集積回路(LSI)として実現したり、このような動き推定装置又は奥行き推定装置を備える撮像装置として実現したりできる。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
以下、本発明の一態様に係る動き推定装置及び奥行き推定装置について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
本実施の形態に係る奥行き推定装置は、奥行き精度が潜在的に高い静止被写体領域、及び奥行き精度が潜在的に低い移動被写体領域を特定するために、多焦点画像群における移動被写体を検出する。そして、当該奥行き推定装置は、複数フレームから、静止被写体領域における高精度の奥行き情報を目的の奥行きマップに転写(融合)することによって、被写体の動きのために奥行き精度が当初は低い転写先の奥行きマップの精度を改善する。このように、当該奥行き推定装置は、移動被写体領域と静止被写体領域との両方において精度が高い奥行きマップを実現することができる。
まず、本実施の形態に係る奥行き推定装置を有する撮像装置の構成を説明する。
図2は、本実施の形態に係る奥行き推定装置210を有する撮像装置200のブロック図である。この撮像装置200は、光学系202と、画像撮像部204と、前処理部206と、内部メモリ208と、奥行き推定装置210と、コントローラ212と、外部メモリ214とを備える。
画像撮像部204は、互いに焦点の異なる多焦点画像群224を撮像する。
前処理部206は、撮像された未加工の多焦点画像群224を前処理することにより前処理済みの多焦点画像群226を生成する。また、前処理部206から出力された前処理済み多焦点画像群226は、内部メモリ208に格納される。なお、未加工の多焦点画像群224が、内部メモリ208に格納されてもよい。
奥行き推定装置210は、内部メモリ208からに格納されている前処理済み多焦点画像群226を取得する。なお、奥行き推定装置210は、画像撮像部204で生成された未加工の多焦点画像群224をそのまま取得してもよいし、内部メモリ208に格納されている多焦点画像群224を取得してもよい。なお、以下では奥行き推定装置210に多焦点画像群226が入力される場合を例に説明する。
奥行き推定装置210は、多焦点画像群226を用いて、奥行きマップ230を推定する。なお、奥行き推定装置210は、奥行きマップ230の推定処理において生成された中間情報を、内部メモリ208に格納してもかまわない。そして、推定された奥行きマップ230は、次の処理のため、画像処理プロセッサ又は3D画像処理プロセッサに出力される。また、撮像装置200は、奥行きマップ230を、後で用いるために外部メモリ214に格納してもよい。
図3は、奥行き推定装置210のブロック図である。この奥行き推定装置210には、複数の多焦点画像群226が入力される。ここで、1つの多焦点画像群226は、1つのシーンに対応する。そして、奥行き推定装置210は、このシーンごとに奥行きマップ230を生成する。また、奥行きマップ230は、1シーンに含まれる複数の画素位置の各々の奥行きを示す。
図4は、奥行き推定装置210に入力される、複数の多焦点画像群226を含む画像列の一例を示す図である。図4に示すように、画像列は、例えば、a、b、cというように焦点の位置が異なる3種類の画像を含む。画像a、画像b、画像cは、異なる時間、異なる焦点位置で撮像されている。また、この画像列は、複数の多焦点画像群226(SET1、SET2、SET3及びSET4)を含む。各多焦点画像群226は、連続する{画像a、画像b、画像c}又は{画像c、画像b、画像a}を含む。なお、ここでは、ある多焦点画像群226に含まれる画像の一部が、隣接する他の多焦点画像群226とで共用されている(例えばSET1とSET2とで画像cが共用されている)が、共用されなくてもよい。また、ここでは、各多焦点画像群226に焦点の異なる3枚の画像が含まれているが、各多焦点画像群226には、焦点の異なる2枚以上の画像が含まれていればよい。
また、典型的には、この画像列は、動画像記録、又は静止画の連続撮影により得られた画像である。また、多焦点画像群226とは、略同一の被写体(場面)を撮像した、焦点の異なる複数の画像である。典型的には、多焦点画像群226は、同一の被写体を連続して撮影した複数の画像である。
この奥行き推定装置210は、動き推定装置300と、特徴追跡部302と、奥行きマップ生成部304と、奥行き補完部308とを備える。
特徴追跡部302は、複数の多焦点画像群226の間で被写体を追跡し、複数のシーンにおける同一の被写体を示す追跡被写体情報322を生成する。
動き推定装置300は、1つの多焦点画像群226を用いて1シーンに含まれる複数の画素位置の各々の動きを推定する。この動き推定装置300は、コスト値算出部305と、動き推定部306とを備える。
コスト値算出部305は、一つの多焦点画像群226を用いて1シーンに含まれる各画素位置のコスト値セットを算出する。そして、コスト値算出部305は、各画素位置のコスト値セットから、最も値の小さい最小コスト値325を選択する。ここで、コスト値とは、各画素位置のぼけ量と、奥行き方向の距離ごとに定められた基準のぼけ量との差を示す値である。つまり、コスト値が小さいとはぼけ量が小さいことを意味する。なお、このコスト値算出処理の詳細は後述する。
奥行きマップ生成部304は、シーンごとに、当該シーンに対応する多焦点画像群226を用いて当該シーンの奥行きマップである初期奥行きマップ324を生成する。具体的には、奥行きマップ生成部304は、コスト値算出部305で算出された各画素位置の最小コスト値325を用いて1シーンの奥行きマップを推定することで初期奥行きマップ324を生成する。
動き推定部306は、コスト値算出部305で算出されたコスト値を用いて、当該コスト値に対応する画素位置の動きを推定する。具体的には、動き推定部306は、画素位置の最小コスト値325を用いて、現在の画素位置が、動きがある(動きの大きい)移動被写体領域に属しているのか、動きのない(動きの小さい)静止被写体領域に属しているのかを特定する。そして、動き推定部306は、1シーンの各画素位置が移動被写体領域に属しているか静止被写体領域に属しているかを示す移動マスク326を生成する。なお、動画像記録の場合は、奥行き推定装置210は、初期奥行きマップ324と移動マスク326とを、全ての多焦点画像群226に対して生成する。
奥行き補完部308は、追跡被写体情報322と、現在(処理対象)の多焦点画像群の初期奥行きマップ324及び移動マスク326と、前の多焦点画像群の初期奥行きマップ324及び移動マスク326とを取得とする。奥行き補完部308は、処理対象のシーンの初期奥行きマップ324に含まれる移動被写体領域の奥行きの情報を、他のシーンに含まれ、かつ、当該移動被写体領域に対応する静止被写体領域の奥行き情報を用いて補完する。具体的には、奥行き補完部308は、追跡被写体情報322と移動マスク326とに基づき、前の初期奥行きマップ324に含まれる、静止していると特定された被写体の正確な奥行き情報を、現在の初期奥行きマップ324において移動していると特定された同一被写体の奥行き情報に転写することで奥行きマップ230を生成する。また、奥行き補完部308は、追跡被写体情報322を用いて、処理対象のシーンの移動被写体領域に対応する、他のシーンに含まれる静止被写体領域を特定する。
したがって、この奥行きマップ230における移動被写体の奥行き精度はかなり向上する。なぜなら、前の初期奥行きマップにおける高精度の奥行き情報を用いて、現在の初期奥行きマップにおける精度が低い奥行き情報を改善するからである。
コスト値算出部305及び奥行きマップ生成部304は、例えば、以下の例で実現される。まず、コスト値算出部305は、多焦点画像群226のうち少なくとも1つの画像を用いて、AIF(all−in−focus:全焦点)画像を生成する。次に、コスト値算出部305は、AIF画像及びPSF(Point Spread Function:点広がり関数)データ群を用いて、ぼけ画像群を生成する。ここで、PSFデータとは、固有な撮像パラメータを有する特定の距離で観測した場合に点光源がどのように広がるのかを表すものである。PSFとは、シーン内の被写体の距離(奥行き)に関するものである。そして、コスト値算出部305は、多焦点画像群226及びぼけ画像群を用いて、各画素位置に対するコスト値セットを算出する。ここでコスト値セットとは、各々が複数の距離(奥行き)の各々に対応する複数のコスト値の集まりである。最後に、コスト値算出部305は、コスト値セットに含まれる複数のコスト値のうち最も小さい値を有する最小コスト値325を決定する。そして、奥行きマップ生成部304は、最小コスト値となるぼけ画像を生成するのに用いたPSFに対応する距離を画素位置の奥行き情報とする初期奥行きマップ324を生成する。
上述したプロセスは、A−DFD(Advanced−Depth from Defocus)と呼ばれる。このプロセスでは、生成されたぼけ画像と撮像された入力画像とで画素ごとに焦点ぼけをマッチングさせる。ここで、被写体が移動している場合、多焦点画像群226に含まれる画像間での被写体の位置がずれる。これにより、画素のぼけマッチングが不正確になる。そのため、推定された奥行きには奥行き誤差が生じる可能性がある。これに対して本実施の形態に係る奥行き推定装置210は、多焦点画像群226における移動被写体を検出することにより、奥行き精度の高い領域(静止被写体領域)と奥行き精度の低い領域(移動被写体領域)とを特定する。そして、奥行き推定装置210は、この情報に基づき、前の奥行きマップにおける奥行き精度の高い領域を用いて、現在の奥行きマップにおける奥行き精度の低い領域を改善することができる。
上述した奥行き推定処理は、例示目的でのみ用いられ、本発明の範囲又は精神を限定するものではない。従来のDFD又はDFFなど、その他の周知の奥行き推定方法を用いてもかまわない。
奥行き推定装置210及びその他の処理部は、通常、IC(Integrated Circuits)、ASIC(Application−Specific Integrated Circuits)、LSI(Large Scale Integrated circuits)、DSP(Digital Signal Processor)の形状で実現されたり、ARMなどのCPUベースのプロセッサ又はPC(Personal Computer)を備えた機器により実現されたりする。これらの処理部はそれぞれ、多数の単機能LSI内にも、単一の集積LSI内にも存在することができる。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、又は、ウルトラLSIと呼称されることもある。さらに、集積回路化の方法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。これには、プログラム命令により指示可能な、DSPなどの専用マイクロプロセッサが含まれる。LSIの製造後にプログラム可能なFPGA(Field Programmable Gate Array)、又は、LSIの接続又は設定を再構成可能なリコンフィギュアラブル・プロセッサも同じ目的で使用できる。今後、製造及びプロセス技術が進歩すれば、最新技術でLSIを置き換えてもかまわない。その技術を用いて集積回路化を行ってもよい。
実装においては、デジタルスチルカメラ及びムービーカメラなどの画像撮像装置に奥行き推定装置210を組み込んでもかまわない。また、奥行き推定装置210は、プロフェッショナル撮像システムなど、画像撮像システムと連動するスタンドアロン型の装置に実装されてもかまわない。奥行き推定装置210をその他のタイプの装置へ実装することも可能であり、本発明の範囲を限定するものではない。
以下、上記奥行き推定装置210の動作の流れを説明する。図5は、1シーンに対する奥行き推定装置210による奥行き推定処理のフローチャートである。
まず、コスト値算出部305は、多焦点画像群226を用いて、上述した方法により最小コスト値325を算出する(S101)。次に、動き推定部306は、最小コスト値325を用いて動きマスクを生成する(S102)。また、奥行きマップ生成部304は、最小コスト値325を用いて、上述した方法により初期奥行きマップ324を生成する(S103)。また、特徴追跡部302は、シーン間において被写体を追跡することで追跡被写体情報322を生成する(S104)。最後に、奥行き補完部308は、移動マスク326及び追跡被写体情報322を用いて初期奥行きマップ324を補完することで奥行きマップ230を生成する。
図6は、動き推定部306による動きマスク生成処理(S102)の処理ステップを示したフローチャートである。まず、動き推定部306、コスト値算出部305で算出された、画素位置(i,j)に対する最小コスト値CM(i,j)を取得する(S201)。次に、動き推定部306は、CM(i,j)が閾値THより大きいかどうかを判断する(S202)。例えば、この閾値THは予め定められた固定値である。
CM(i,j)が閾値THより大きければ(S202でYES)、動き推定部306は、画素位置(i,j)を移動被写体領域の画素として特定する(S203)。一方、CM(i,j)が閾値THより大きくなければ(S202でNO)、動き推定装置300は、画素位置(i,j)を静止被写体領域の画素として特定する(S204)。
全ての画素位置に対してステップS201〜S204の処理が終了していない場合(S205でNO)、動き推定部306は、次の画素位置を選択し(S206)、選択された画素位置に対してステップS201以降の処理を実行する。また、全ての画素位置に対する処理が終了した場合(S205でYES)、動き推定部306は、各画素位置が移動被写体領域であるか静止被写体領域であるかを示す移動マスク326を生成する(S207)。最後に、動き推定部306は、生成された移動マスク326をメモリ(図示せず)に格納する(S208)。
ここで、被写体が移動していることにより、画素のぼけマッチングが不正確な場合に、最小コスト値が大きくなる。よって、上記のように最小コスト値が閾値TH以上であるか否かに応じて、各画素位置が移動しているか否かを判定できる。
なお、閾値THは、予め定義され、かつ、レジスタ又はメモリに格納されていてもよい。また、閾値THは、最小コスト値の分布を解析することにより、シーンオブジェクトに従って動的に計算されてもよい。
図7A〜図7Cは、閾値(TH)計算用のコスト関数の最小コスト値分布の例を示す図である。図7A〜図7Cは、1シーンの最小コスト値の分布を示し、縦軸は画素数に対応する。図7Aには、静止被写体のシーンの最小コスト値分布の例が示されている。この例によると、この分布は、約2.5の最小コスト値にピークが現れ、約10で収束する。図7Bには、わずかに移動する被写体を含んだシーンの最小コスト値分布の例が示されている。分布の終端部では、高コスト領域M70が広がり始める。この領域は、最小コストの値が高いことを示しており、奥行き推定の精度が低くて信頼性がないことを意味する。図7Cには、かなり移動する被写体を含んだシーンの最小コスト値分布の例が示されている。分布の終端部がより長くなり、高コスト領域M72が生じる。高コスト領域M72は、高コスト領域M70よりも長く、これは、被写体の移動量と合致する。したがって、分布を解析することにより、閾値THを決定することができる。これは、オフラインの計算でもオンザフライの計算でもかまわない。重要なことは、奥行き推定の精度が低くて信頼性がないことを移動被写体領域が示すことである。この指標は、移動被写体領域の奥行き精度を向上させるために、フレーム間奥行き転写と動き推定/補償とにおいて用いられる。
また、この移動マスク326は、この多焦点画像群226ごとに生成される。
移動マスク326は、例えば、図4に示すように特定された移動被写体領域を白で示し、特定された静止被写体領域を黒で示す。この指標により、奥行き推定装置210は、どの領域で初期奥行きマップ324の精度が低いのかを把握することができる。
また、図4の例では、多焦点画像群SET1、SET2及びSET3の移動マスク326A、326B及び326Dには移動被写体領域が含まれており、多焦点画像群SET3の移動マスク326Cには、移動被写体領域があまり含まれていない。これは、この多焦点画像群SET3から生成された初期奥行きマップ324の奥行き精度が高いことを意味している。したがって、多焦点画像群SET3の奥行きマップを用いて、多焦点画像群SET1、SET2、及び、SET4の奥行きマップを改善することができる。
以下、特徴追跡処理(S104)の具体例を説明する。この特徴追跡処理(被写体追跡処理)は、異なる多焦点画像群226のなかに同一被写体があるかどうかを把握するために行われる。また、特徴追跡部302は、多焦点画像群226ごとに、少なくとも1つの画像を特徴追跡用に用いる。ただし、各多焦点画像群226から用いる画像は焦点位置が同じ画像であることが好ましい。例えば、特徴追跡部302は、図4に示す例では、{a、b、c}群、又は、{c、b、a}群における画像bを特徴追跡処理に用いる。なお、特徴追跡を行う前に、特定の処理を画像bに適用してもかまわない。また、多焦点画像群から全焦点画像を作成する場合には、当該全焦点画像を用いて特徴追跡処理を行うことが好ましい。
図8は、特徴追跡方法のフローチャートである。
まず、特徴追跡部302は、第1多焦点画像群に含まれる第1画像の第1被写体特徴群を算出し、第2多焦点画像群に含まれる第2画像の第2被写体特徴群を算出する(S221)。次に、特徴追跡部302は、算出した第1被写体特徴群と算出した第2被写体特徴群とをマッチングさせることで追跡被写体情報322を生成する(S222)。この追跡被写体情報322には、異なる画像に現れた同一被写体特徴に関する情報が含まれている。そして、特徴追跡部302は、追跡被写体情報322をメモリ(図示せず)に格納する(S223)。この追跡被写体情報322により、ある画像内の被写体と同一被写体が別の画像のどこに現れるのかを把握することができる。よって、奥行き補完部308は、この追跡被写体情報322を用いて、奥行きマップ間で奥行き情報を正確に転写できる。
なお、特徴追跡方法として、当該技術分野で周知の方法を用いてもかまわない。例えば、既知の特徴追跡方法の例が、非特許文献5及び非特許文献6に開示されている。
次に、奥行き補完部308による奥行きマップの補完処理(S105)について説明する。図9は、奥行きマップの補完処理のフローチャートである。
まず、奥行き補完部308は、第1及び第2多焦点画像群に対応する第1及び第2初期奥行きマップと、第1及び第2移動マスクと、追跡被写体情報322とを取得する(S241)。次に、奥行き補完部308は、第2初期奥行きマップにおける移動被写体領域の位置を、第2移動マスクを用いて特定する。また、奥行き補完部308は、静止被写体領域として特定された第1初期奥行きマップにおける同一被写体の位置を追跡被写体情報322と第1移動マスクとを用いて特定する(S242)。
そして、奥行き補完部308は、静止被写体領域として特定された第1初期奥行きマップにおける同一被写体の特定位置から、第2初期奥行きマップにおける移動被写体領域の特定位置に対する奥行き値を取得する。つまり、奥行き補完部308は、静止被写体領域の奥行き値を移動被写体領域にコピーする。最後に、奥行き補完部308は、補完した後の奥行きマップ230を出力する。
前述のとおり、静止被写体領域の奥行き精度は高く、移動被写体領域の奥行き精度は低い。第1奥行きマップの静止被写体領域からの高精度な奥行き情報を第2奥行きマップの同一被写体だが移動している被写体の奥行き情報に転写することにより、第2奥行きマップにおける移動被写体領域の奥行き精度が向上する。移動被写体領域の奥行き精度を向上させた奥行きマップ230を3D画像生成などの次の処理で用いる場合に、これらの処理部で生成される画像の品質が向上する。
なお、奥行き補完部308が補完処理に用いる初期奥行きマップ324は、前のフレームの初期奥行きマップ324に限定されない。例えば、奥行き補完部308は、後のフレームの初期奥行きマップ324を用いてもよい。また、奥行き補完部308が補完処理に用いる初期奥行きマップ324は、現在のフレームの直前又は直後のフレームの初期奥行きマップ324に限定されず、2フレーム以上前又は後のフレームの初期奥行きマップ324であってもよい。さらに、奥行き補完部308は、複数のフレームの初期奥行きマップ324を用いてもよい。なお、奥行き補完部308は、処理対象のシーンの初期奥行きマップ324に含まれる移動被写体領域の奥行きの情報を、当該移動被写体領域に対応する静止被写体領域を含む他のシーンのうち、当該処理対象のシーンに時間的に最も近いシーンに含まれる当該静止被写体領域の奥行き情報を用いて補完することが好ましい。
以下、本実施の形態に係る奥行き推定処理の具体例を説明する。
図10A〜図10Cは、撮像された多焦点画像の一例を示す図である。この例では、3つの画像が撮像され、それらは、遠焦点画像502、スイープ焦点画像504、近焦点画像506である。遠焦点画像502では、遠くの被写体(被写体A)にはっきりと焦点が合っており、近くの被写体(被写体C)は、焦点がずれているためぼやけている。スイープ焦点画像504では、被写体A、B及びCは、ぼけ不変効果がある。これは、被写体A、B、Cのぼけ量が類似していることを意味する。このような画像は、AIF画像を生成するのに適している。近焦点画像506では、近くの被写体(被写体C)に焦点が合っており、遠くの被写体(被写体A)は、焦点がずれているためぼやけている。これら3つの画像(502、504、506)が奥行き推定に用いられる。この例では、被写体A、B、Cは静止している。したがって、推定された奥行きマップの奥行き精度は高いものとなる。これらの撮像画像により推定された奥行きマップ508の例を図10Dに示す。図10Dに示すように被写体の奥行き順序は正確に推定される。
図11A〜図11Cは、シーン内の被写体が移動する多焦点画像群の一例を示す図ある。この例では、図10A〜図10Cと同様に、3つの画像が撮像され、それらは、遠焦点画像522、スイープ焦点画像524、近焦点画像526である。また、この例では、被写体Bが左から右へ移動している。3つの画像を異なる時点で撮像すると、被写体Bは、各撮像画像で異なる画素位置に位置している。したがって、推定後に得られる奥行きマップ528は動きの影響を受ける。図11Dに示すように、奥行き誤差が移動被写体領域に生じ、被写体Bの奥行き順序は、特に被写体境界周辺で不正確である。この奥行きマップ528を3D画像生成などの次の処理に用いる場合は、移動被写体の画質が悪くなる。したがって、改善が必要である。
図12は、フレーム間奥行き転写による奥行きマップ改善のフローを示したものである。上述のとおり、多焦点画像群226ごとに移動マスク326が生成される。図12において、移動マスク540は、静止被写体画像群の移動マスク(つまり、図10A〜図10Cに示す多焦点画像群を用いて生成された移動マスク)を表している。移動マスク550は、移動被写体を含んだ画像群の移動マスク(つまり、図11A〜図11Cの、被写体Bが動く多焦点画像群を用いて生成された移動マスク)を表している。
奥行き補完部308は、移動マスク540で示される移動被写体領域F502を特定する。ここで、この移動被写体領域F502の奥行き上の精度は低い。そして、特徴追跡部302は、異なる時点で撮像された画像内における同一被写体の位置を把握するために、画像間で被写体を追跡する。具体的には、特徴追跡部302は、図12に示すように、画像542及び画像552における被写体特徴をマッチングさせる。ここで特徴追跡部302は、移動マスク550からの情報を用いて、どの特徴又はどの領域が、移動被写体領域に属しているのか、静止被写体領域に属しているのかを把握することができる。例えば、マッチングした特徴F504は、対応する移動マスク550において特定された移動被写体領域を含まないため、静止被写体の特徴として把握される。また、マッチングした特徴F506は、移動マスク550において特定された移動被写体領域を含むため、移動被写体の特徴として把握される。これらの情報を用いることにより、前フレームからの高精度奥行き情報を現在のフレームに転写することができる。例えば、奥行きマップ544の領域F500(静止被写体領域)の奥行き情報を奥行きマップ554の領域F501(移動被写体領域)の奥行き情報に転写する。このように、奥行きマップ554の移動被写体領域のみに対してフレーム間奥行き転写を行うことができる。
なお、奥行き補完部308は、奥行き転写処理を、領域ベースの奥行き転写方法を用いて行ってもかまわない。例えば、奥行き補完部308は、被写体形状に応じて、又は、ブロック単位で、奥行き情報を転写する。あるいは、奥行き補完部308は、特定された移動被写体領域周辺の画素を転写する画素ベースの奥行き転写を用いてもかまわない。また、奥行き補完部308は、主な特徴の奥行き情報のみを転写する特徴ベースの奥行き転写を用い、その後に奥行き補間を利用してもかまわない。
また、奥行き転写処理は、前フレームから現在のフレームへ奥行き情報を置き換えることによって行われてもかまわない。あるいは、重み付き平均法を用いて行うことも可能である。
また、奥行き補完部308は、静止被写体領域の奥行き値を移動被写体領域の奥行き値としてそのままコピーするのではなく、静止被写体の奥行き値を用いて移動被写体領域の奥行き値を算出してもよい。例えば、奥行き補完部308は、静止被写体領域の奥行き値に所定の係数を乗算又は加算した値を、移動被写体領域の奥行き値としてもよい。
図13は、推定された奥行きマップのヒストグラム比較結果の一例を示す図である。この例では、被写体は、撮像装置から約2.9メートルに位置している。この結果から分かるように、現在のフレームの初期奥行きマップ(ヒストグラムL1)は正確なものでなく、多くの誤差が含まれている。これは、多焦点画像群において被写体が移動するからである。ヒストグラムL2は、移動被写体が含まれない前のフレームの奥行きマップを示している。図から分かるように、このヒストグラムL2の奥行き精度は高い。ヒストグラムL3は、前のフレームの奥行きマップから奥行き情報を転写することにより補完された奥行きマップを示している。図から分かるように、補完された奥行きマップの奥行き精度はかなり向上している。この結果から、本実施の形態の有効性が証明された。
以下、上記実施の形態の変形例について説明する。
図14は、本発明の別の実施の形態に係る動き推定処理のフローチャートである。
まず、奥行き推定装置210は、多焦点画像群226を取得する(S301)。次に、コスト値算出部305は、多焦点画像群226を用いて、画素位置(i,j)に対するコスト値セットE(i,j)を算出する(S302)。次に、コスト値算出部305は、画素位置(i,j)に対する最小コスト値CM(i,j)をE(i,j)から選択する(S303)。次に、動き推定部306は、例えば、1フレームに含まれる複数の画素位置の最小コスト値である最小コスト値セットを作成する(S304)。
次に、動き推定部306は、最小コスト値セットを用いて、閾値THを算出する(S305)。次に、動き推定部306は、CM(i,j)が閾値THより大きいかどうかを判断する(S306)。CM(i,j)が閾値THより大きければ(S306でYES)、動き推定部306は、画素位置(i,j)を移動被写体領域の画素位置として特定する(S307)。CM(i,j)が閾値THより大きくなければ(S306でNO)、動き推定部306は、画素位置(i,j)を静止被写体領域の画素位置として特定する(S308)。全ての画素位置に対してステップS306〜S308の処理が終了していない場合(S309でNO)、動き推定部306は、次の画素位置を選択し(S310)、選択された画素位置に対してステップS306以降の処理を実行する。また、全ての画素位置に対する処理が終了した場合(S309でYES)、動き推定部306は、移動マスク326が生成する(S311)。最後に、動き推定部306は、生成された移動マスク326をメモリ(図示せず)に格納する(S312)。
なお、生成された移動マスク326を用いて、多焦点画像から得られた奥行きマップの精度を示してもよい。また、生成された移動マスク326を、アプリケーションに応じて、他の次の処理に用いてもかまわない。
また、上記説明では、動き推定装置300が、1画素ごとに当該画素の動きを推定する例を説明したが、動き推定装置300は、複数の画素を含む領域ごとに当該領域の動きを推定してもよい。同様に、奥行きマップ生成部304は、複数の画素を含む領域ごとに当該領域の奥行きを示す奥行きマップを生成してもよい。同様に、奥行き補完部308は、複数の画素を含む領域ごとに当該領域の奥行き情報を補完してもよい。また、こられの処理部で用いる領域の大きさは同一であってもよいし異なってもよい。
(実施の形態2)
本実施の形態では、上述した実施の形態1に係る奥行き推定装置210の変形例について説明する。なお、以下では、実施の形態1との相違点を主に説明し、重複する説明は省略する。
図15は、本発明の実施の形態2に係る奥行き推定装置210Aのブロック図である。奥行き推定装置210Aは、多焦点画像群226を入力とする。この奥行き推定装置210Aは、動き推定装置300と、奥行きマップ生成部304と、動き補償部330とを備える。
動き補償部330は、動き推定部306によって特定された移動被写体領域から多焦点画像群226の動きベクトルを算出し、算出した動きベクトルを用いて、画素シフトを減らすよう移動被写体に対する画素位置を補償する。そして、動き補償された出力情報である動き補償情報340は、奥行きマップ生成部304に送られ、移動被写体の奥行き精度を向上させるために利用される。例えば、奥行きマップ生成部304は、動き補償部330で算出された動きベクトル又は動き補償情報340を用いて多焦点画像群226に対して動き補償処理を行い、動き補償処理後の多焦点画像群を用いて奥行きマップ230を生成する。
こうすることにより、移動被写体の奥行き精度は、静止被写体の奥行き精度を保ったまま、向上する。さらに、動き推定及び動き補償の複雑性は、移動被写体領域でのみ実行されるため、低減される。
なお、図16に示す奥行き推定装置210Bのように、図3に示す奥行き推定装置210と図15に示す奥行き推定装置210Aとを組み合わせてもよい。つまり、奥行きマップ生成部304は、動き補償部330で算出された動きベクトル又は動き補償情報340を用いて多焦点画像群226に対して動き補償処理を行い、動き補償処理後の多焦点画像群を用いて初期奥行きマップ324を生成してもよい。
(実施の形態3)
本実施の形態では、上記奥行き推定装置210を備える撮像装置について説明する。
図17は、本実施の形態に係る撮像装置700の略ブロック図である。この撮像装置700は、光学系702と、イメージセンサ704と、ADC(Analog−to−Digital Converter)706と、画像処理プロセッサ708と、マイクロコンピュータ710と、外部メモリ712と、ドライバコントローラ720と、OIS(Optical Image Stabilizer)センサ718と、オペレーション部722と、格納/転送デバイス716と、表示デバイス714とを備えている。
画像処理プロセッサ708は、内部メモリ740と、奥行き推定装置746と、未加工画像処理プロセッサ742と、カラー画像処理プロセッサ743と、オプションとして3D画像処理プロセッサ744とを備える。なお、撮像装置700は、さらに、マイク、スピーカなど、その他の部品を備えてもよい。
光学系702は、イメージセンサ704に届く光信号を制御する部品から構成されている。例えば、光学系702は、レンズ又はレンズセットと、ズーム及びフォーカス機構と、アクチュエータと、シャッターと、絞りとを含む。
イメージセンサ704は、入射光信号を蓄積し、その光信号を電気信号に変換する。また、イメージセンサ704は、マイクロコンピュータ710からの命令を受ける。変換後の電気信号は、ADC706によってデジタルデータ(未加工画像データ)に変換され、このデジタルデータが内部メモリ740又は外部メモリ712に格納される。また、この未加工画像データには、異なる焦点位置で撮像された多焦点画像群が含まれている。さらに、未加工画像データには、画像撮像中に焦点位置を変えながら撮像した、複雑な未加工画像データである高解像度画像データが含まれていてもかまわない。
未加工画像処理プロセッサ742は、内部メモリ740(又は外部メモリ712)からの未加工画像データを取得し、取得した未加工画像データに対して、サイズ変更、直線性補正、ホワイトバランス及びガンマ補正など、様々な前処理を行う。前処理された未加工画像データは、格納/転送デバイス716により、格納又は転送される。また、RGB又はYCbCrなどのカラー画像を生成するために、前処理された未加工画像をカラー画像処理プロセッサ743によって処理することもできる。カラー画像処理プロセッサ743は、適したカラー画像を生成するために、カラー補間、カラー補正、色調調整及びカラーノイズリダクションなどを行ってもよい。
奥行き推定装置746は、上述した奥行き推定装置210、210A又は210Bであり、焦点が異なる予め撮像された画像を入力とし、奥行きマップを生成する。なお、この奥行きマップは、3D画像生成用の3D画像処理プロセッサ744など、今後の処理部で用いられてもかまわない。また、奥行きマップは、表示デバイス714上で見る可視化用に利用してもよい。また、奥行きマップは、今後利用するために格納/転送デバイス716により格納又は転送されてもかまわない。格納デバイスの例として、フラッシュベースのメモリカード、ハードディスクドライブ、及び光学式ドライブがあるが、これらに限定されるものではない。転送デバイスの例として、HDMIインターフェース、USBインターフェース、無線インターフェース、及びプリンタ直結型インターフェースがあるが、これらに限定されるものではない。格納又は転送デバイスは、オプションとして可逆圧縮部又は不可逆圧縮部を備えてもかまわない。
光学系702は、マイクロコンピュータ710からの命令を受けるドライバコントローラ720によって制御される。オペレーション部722は、ユーザ操作の入力を受信し、マイクロコンピュータ710に電気信号を送ることで、ドライバコントローラ720、イメージセンサ704、及び画像処理プロセッサ708などのユーザ入力に関連する処理部に命令する。
OISセンサ718は、手振れ又はカメラモーションによる動きを検出し、マイクロコンピュータ710に電気信号を送る。マイクロコンピュータ710は、レンズを動かして動きを補正するために光学系702のアクチュエータなどを制御するようドライバコントローラ720に命令する。これによって、手振れ又はカメラモーションによるぶれの影響が低減される。
画像処理プロセッサ708、奥行き推定装置746、及び、内部モジュールは、IC(Integrated Circuits)、ASIC(Application−Specific Integrated Circuits)、又は、LSI(Large Scale Integrated circuits)回路の形状で実現されるのが一般的である。これらの処理部はそれぞれ、多数の単機能LSI内にも、単一の集積LSI内にも存在することができる。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、又は、ウルトラLSIと呼称されることもある。さらに、集積回路化の方法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。これには、プログラム命令により指示可能な、DSP(Digital Signal Processor)などの専用マイクロプロセッサが含まれる。LSIの製造後にプログラム可能なFPGA(Field Programmable Gate Array)、又は、LSIの接続又は設定を再構成可能なリコンフィギュアラブル・プロセッサも同じ目的で使用できる。今後、製造及びプロセス技術が進歩すれば、最新技術でLSIを置き換えてもかまわない。その技術を用いて集積回路化を行ってもよい。
以上、本発明の実施の形態に係る動き推定装置、奥行き推定装置及び撮像装置について説明したが、本発明は、この実施の形態に限定されるものではない。
また、本発明の実施の形態に係る、動き推定装置、奥行き推定装置又は撮像装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
さらに、本発明は上記プログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
つまり、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の動き推定装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第1領域の各々の動きを推定する動き推定方法のプログラムであって、コンピュータに、前記多焦点画像群を用いて、前記複数の第1領域ごとに、当該第1領域のぼけ量と、奥行き方向の距離ごとに定められた基準のぼけ量との差を示すコスト値を算出するコスト値算出ステップと、前記コスト値を用いて、当該コスト値に対応する第1領域の動きを推定する動き推定ステップとを実行させる。
また、上記実施の形態に係る、動き推定装置、奥行き推定装置及び撮像装置、並びにそれらの変形例の機能のうち少なくとも一部を組み合わせてもよい。
また、上記で用いた数字は、全て本発明を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、上記方法(処理)に含まれる各ステップが実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
更に、本発明の主旨を逸脱しない限り、本実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本発明に含まれる。
本発明は、動き推定装置、及び、それを用いた奥行きマップ推定装置に適用できる。また、本発明は、奥行きマップ推定装置を備える撮像装置等に適用できる。
200 撮像装置
202 光学系
204 画像撮像部
206 前処理部
208 内部メモリ
210、210A、210B 奥行き推定装置
212 コントローラ
214 外部メモリ
224、226 多焦点画像群
230 奥行きマップ
300 動き推定装置
302 特徴追跡部
304 奥行きマップ生成部
305 コスト値算出部
306 動き推定部
308 奥行き補完部
322 追跡被写体情報
324 初期奥行きマップ
325 最小コスト値
326、326A、326B、326C、326D 移動マスク
330 動き補償部
340 動き補償情報
502、522 遠焦点画像
504、524 スイープ焦点画像
506、526 近焦点画像
508、528 奥行きマップ
540、550 移動マスク
542、552 画像
544、554 奥行きマップ
700 撮像装置
702 光学系
704 イメージセンサ
706 ADC
708 画像処理プロセッサ
710 マイクロコンピュータ
712 外部メモリ
714 表示デバイス
716 格納/転送デバイス
718 OISセンサ
720 ドライバコントローラ
722 オペレーション部
740 内部メモリ
742 未加工画像処理プロセッサ
743 カラー画像処理プロセッサ
744 3D画像処理プロセッサ
746 奥行き推定装置

Claims (15)

  1. 1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第1領域の各々の動きを推定する動き推定装置であって、
    前記多焦点画像群を用いて、前記複数の第1領域ごとに、当該第1領域に対応するぼけ量と、奥行き方向の距離ごとに定められた基準のぼけ量との差を示すコスト値を算出するコスト値算出部と、
    前記コスト値を用いて、当該コスト値に対応する第1領域の動きを推定する動き推定部とを備える
    動き推定装置。
  2. 前記コスト値算出部は、前記複数の第1領域ごとに、複数の前記奥行き方向の距離ごとに求められる複数の前記コスト値のうちで最も小さい最小コスト値を算出し、
    前記動き推定部は、前記最小コスト値を用いて、当該最小コスト値に対応する第1領域の動きを推定する
    請求項1記載の動き推定装置。
  3. 前記動き推定部は、
    前記最小コスト値が閾値より大きい場合、当該最小コスト値に対応する第1領域を動きがある移動被写体領域と判定し、
    前記最小コスト値が前記閾値より小さい場合、当該最小コスト値に対応する第1領域を動きがない静止被写体領域と判定する
    請求項2記載の動き推定装置。
  4. 前記閾値は、予め定められた固定値である
    請求項3記載の動き推定装置。
  5. シーンごとに、1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第2領域の各々の奥行きを示す奥行きマップを生成する奥行き推定装置であって、
    前記シーンごとに、当該シーンに対応する前記多焦点画像群を用いて当該シーンの奥行きマップである初期奥行きマップを生成する奥行きマップ生成部と、
    前記シーンごとに、当該シーンに含まれる複数の第1領域の各々の動きを推定する請求項3又は4記載の動き推定装置と、
    処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、他のシーンに含まれ、かつ、当該移動被写体領域に対応する前記静止被写体領域の奥行き情報を用いて補完する奥行き補完部とを備える
    奥行き推定装置。
  6. 前記奥行き補完部は、前記静止被写体領域の奥行き情報を、前記移動被写体領域の奥行き情報にコピーする
    請求項5記載の奥行き推定装置。
  7. 前記動き補完部は、前記処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、当該移動被写体領域に対応する前記静止被写体領域を含む他のシーンのうち、当該処理対象のシーンに時間的に最も近いシーンに含まれる当該静止被写体領域の奥行き情報を用いて補完する
    請求項5又は6記載の奥行き推定装置。
  8. 前記奥行き補完部は、1画素ごとに、前記処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、前記他のシーンに含まれ、かつ、当該移動被写体領域に対応する前記静止被写体領域の奥行き情報を用いて補完する
    請求項5〜7のいずれか1項に記載の奥行き推定装置。
  9. 前記奥行き補完部は、複数の画素を含む領域ごとに、前記処理対象のシーンの前記初期奥行きマップに含まれる前記移動被写体領域の奥行きの情報を、前記他のシーンに含まれ、かつ、当該移動被写体領域に対応する前記静止被写体領域の奥行き情報を用いて補完する
    請求項5〜7のいずれか1項に記載の奥行き推定装置。
  10. 前記奥行き推定装置は、さらに、
    シーン間において被写体を追跡することで、複数のシーンにおける同一の被写体を示す追跡被写体情報を生成する特徴追跡部を備え、
    前記奥行き補完部は、前記追跡被写体情報を用いて、前記他のシーンに含まれ、かつ、前記移動被写体領域に対応する前記静止被写体領域を特定する
    請求項5〜9のいずれか1項に記載の奥行き推定装置。
  11. 前記特徴追跡部は、
    第1多焦点画像群に含まれる少なくとも1つの第1画像における第1被写体特徴群を算出し、
    第2多焦点画像群に含まれ、前記第1画像と焦点が同じである、少なくとも1つの第2画像における第2被写体特徴群を算出し、
    前記第1被写体特徴群と前記第2被写体特徴群とをマッチングさせることで前記追跡被写体情報を生成する
    請求項10記載の奥行き推定装置。
  12. 前記奥行き推定装置は、さらに、
    前記移動被写体領域の動きベクトルを、前記多焦点画像群を用いて算出する動き補償部を備え、
    前記奥行きマップ生成部は、前記動きベクトルを用いて前記多焦点画像群に対して動き補償処理を行い、動き補償処理後の多焦点画像群を用いて前記初期奥行きマップを生成する
    請求項5〜11のいずれか1項に記載の奥行き推定装置。
  13. シーンごとに、1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第2領域の各々の奥行きを示す奥行きマップを生成する奥行き推定装置であって、
    前記シーンごとに、当該シーンに含まれる複数の第1領域の各々の動きを推定する請求項3又は4記載の動き推定装置と、
    前記移動被写体領域の動きベクトルを、前記多焦点画像群を用いて算出する動き補償部と、
    前記動きベクトルを用いて前記多焦点画像群に対して動き補償処理を行い、動き補償処理後の多焦点画像群を用いて、対応するシーンの奥行きマップを生成する奥行きマップ生成部とを備える
    奥行き推定装置。
  14. 1シーンに対応する互いに焦点が異なる多焦点画像群を用いて、当該シーンに含まれる複数の第1領域の各々の動きを推定する動き推定方法であって、
    前記多焦点画像群を用いて、前記複数の第1領域ごとに、当該第1領域のぼけ量と、奥行き方向の距離ごとに定められた基準のぼけ量との差を示すコスト値を算出するコスト値算出ステップと、
    前記コスト値を用いて、当該コスト値に対応する第1領域の動きを推定する動き推定ステップとを含む
    動き推定方法。
  15. 請求項14記載の動き推定方法をコンピュータに実行させるための
    プログラム。
JP2012533161A 2011-04-12 2012-04-10 動き推定装置、奥行き推定装置、及び動き推定方法 Expired - Fee Related JP5919563B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011088676 2011-04-12
JP2011088676 2011-04-12
PCT/JP2012/002490 WO2012140869A1 (ja) 2011-04-12 2012-04-10 動き推定装置、奥行き推定装置、及び動き推定方法

Publications (2)

Publication Number Publication Date
JPWO2012140869A1 true JPWO2012140869A1 (ja) 2014-07-28
JP5919563B2 JP5919563B2 (ja) 2016-05-18

Family

ID=47009061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012533161A Expired - Fee Related JP5919563B2 (ja) 2011-04-12 2012-04-10 動き推定装置、奥行き推定装置、及び動き推定方法

Country Status (5)

Country Link
US (1) US9092875B2 (ja)
EP (1) EP2698766B1 (ja)
JP (1) JP5919563B2 (ja)
CN (1) CN102959586B (ja)
WO (1) WO2012140869A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9483836B2 (en) * 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
US9179047B2 (en) * 2011-06-13 2015-11-03 University Of Florida Research Foundation, Inc. Systems and methods for estimating the structure and motion of an object
JP6140935B2 (ja) * 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
JP6218377B2 (ja) * 2012-12-27 2017-10-25 キヤノン株式会社 画像処理装置及び画像処理方法
US9317916B1 (en) * 2013-04-12 2016-04-19 Aic Innovations Group, Inc. Apparatus and method for recognition of medication administration indicator
DE102013208654A1 (de) * 2013-05-10 2014-11-13 Iris-Gmbh Infrared & Intelligent Sensors Sensorsystem und Verfahren zur Aufnahme eines Handvenenmusters
US9449392B2 (en) 2013-06-05 2016-09-20 Samsung Electronics Co., Ltd. Estimator training method and pose estimating method using depth image
JP2015019204A (ja) * 2013-07-10 2015-01-29 ソニー株式会社 画像処理装置および画像処理方法
JP6362068B2 (ja) * 2014-02-17 2018-07-25 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
US20150355780A1 (en) * 2014-06-06 2015-12-10 Htc Corporation Methods and systems for intuitively refocusing images
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
GB2533450B (en) * 2014-12-19 2019-07-24 Adobe Inc Settings of a digital camera for depth map refinement
KR101596203B1 (ko) * 2015-06-16 2016-02-22 중앙대학교 산학협력단 모션 블러 이미지 복원 방법 및 장치
EP3185209B1 (en) * 2015-12-23 2019-02-27 STMicroelectronics (Research & Development) Limited Depth maps generated from a single sensor
US10229502B2 (en) 2016-02-03 2019-03-12 Microsoft Technology Licensing, Llc Temporal time-of-flight
CN105913407B (zh) * 2016-04-06 2018-09-28 昆明理工大学 一种基于差值图对多聚焦度图像融合优化的方法
CN106231177A (zh) * 2016-07-20 2016-12-14 成都微晶景泰科技有限公司 场景深度测量方法、设备及成像装置
CN108038420B (zh) * 2017-11-21 2020-10-30 华中科技大学 一种基于深度视频的人体行为识别方法
FR3074385B1 (fr) 2017-11-28 2020-07-03 Stmicroelectronics (Crolles 2) Sas Commutateurs et reseau d'interconnexion photonique integre dans une puce optoelectronique
JP6465322B2 (ja) * 2017-11-28 2019-02-06 オリンパス株式会社 撮像装置,撮像装置の制御方法
US10536622B2 (en) * 2018-05-15 2020-01-14 Sony Corporation Camera depth prediction using generative adversarial network
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
US11889510B2 (en) 2019-11-26 2024-01-30 Qualcomm Incorporated Frame based operation for millimeter wave (mmWave) with receiver based contention
US11756221B2 (en) 2021-01-28 2023-09-12 Qualcomm Incorporated Image fusion for scenes with objects at multiple depths
US20230319429A1 (en) * 2022-03-31 2023-10-05 Advanced Micro Devices, Inc. Object distance estimation with camera lens focus calibration

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6128071A (en) 1998-06-04 2000-10-03 Canon Kabushiki Kaisha Range data recordation
US6987530B2 (en) 2001-05-29 2006-01-17 Hewlett-Packard Development Company, L.P. Method for reducing motion blur in a digital image
JP4596222B2 (ja) 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
WO2004042662A1 (en) 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
US20070019883A1 (en) 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
GB2432068B (en) * 2005-11-02 2010-10-06 Imagination Tech Ltd Motion estimation
US7616254B2 (en) * 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
JP4693709B2 (ja) * 2006-06-23 2011-06-01 キヤノン株式会社 画像処理装置及び画像処理方法
US7783118B2 (en) * 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
TWI314832B (en) * 2006-10-03 2009-09-11 Univ Nat Taiwan Single lens auto focus system for stereo image generation and method thereof
WO2008079301A2 (en) * 2006-12-21 2008-07-03 Massachusetts Institute Of Technology Methods and apparatus for 3d surface imaging using active wave-front sampling
US8405742B2 (en) * 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus

Also Published As

Publication number Publication date
JP5919563B2 (ja) 2016-05-18
US9092875B2 (en) 2015-07-28
EP2698766A1 (en) 2014-02-19
EP2698766B1 (en) 2018-01-17
CN102959586B (zh) 2016-03-23
WO2012140869A1 (ja) 2012-10-18
EP2698766A4 (en) 2015-09-23
US20130101177A1 (en) 2013-04-25
CN102959586A (zh) 2013-03-06

Similar Documents

Publication Publication Date Title
JP5919563B2 (ja) 動き推定装置、奥行き推定装置、及び動き推定方法
JP5868183B2 (ja) 撮像装置及び撮像方法
JP6395506B2 (ja) 画像処理装置および方法、プログラム、並びに撮像装置
US10621729B2 (en) Adaptive focus sweep techniques for foreground/background separation
US9832432B2 (en) Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium
KR101624450B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
US9076204B2 (en) Image capturing device, image capturing method, program, and integrated circuit
JP5980294B2 (ja) データ処理装置、撮像装置、およびデータ処理方法
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
JP5794705B2 (ja) 撮像装置、その制御方法及びプログラム
US20120147150A1 (en) Electronic equipment
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US20100182480A1 (en) Image processing apparatus, image matching method, and computer-readable recording medium
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2010118862A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2007199633A (ja) 合焦検出装置
JP2010117593A (ja) 距離情報取得装置、撮像装置、及びプログラム
JP2011049733A (ja) カメラキャリブレーション装置および映像歪み補正装置
WO2012029658A1 (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP6513941B2 (ja) 画像処理方法、画像処理装置及びプログラム
JP6508926B2 (ja) 撮像装置および撮像装置の制御方法
JP6362070B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2009211254A (ja) 画像処理ユニット、複眼撮像装置、画像処理方法、および画像処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160302

R151 Written notification of patent or utility model registration

Ref document number: 5919563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees