JPWO2018011930A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2018011930A1
JPWO2018011930A1 JP2016564293A JP2016564293A JPWO2018011930A1 JP WO2018011930 A1 JPWO2018011930 A1 JP WO2018011930A1 JP 2016564293 A JP2016564293 A JP 2016564293A JP 2016564293 A JP2016564293 A JP 2016564293A JP WO2018011930 A1 JPWO2018011930 A1 JP WO2018011930A1
Authority
JP
Japan
Prior art keywords
image
region
shadow
similar
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016564293A
Other languages
English (en)
Other versions
JP6091727B1 (ja
Inventor
千葉 直樹
直樹 千葉
醒基 曾
醒基 曾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP6091727B1 publication Critical patent/JP6091727B1/ja
Publication of JPWO2018011930A1 publication Critical patent/JPWO2018011930A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

画像の復元の精度を高める。画像処理装置(10)の第1画像取得手段(101)は、第1位置から撮影され、空間の一部に影又は遮蔽物がある様子が写された第1画像を取得する。第2画像取得手段(102)は、第1画像における空間の影部分又は被遮蔽部分から離れた第2位置から撮影され、影部分又は被遮蔽部分が写された第2画像を取得する。加工対象領域特定手段(103)は、第1画像において影又は遮蔽物が写された加工対象領域を特定する。撮影部分領域特定手段(104)は、第1画像における被写体と合うように第2画像を低解像度化し、低解像度化された第2画像において影部分又は被遮蔽部分が写された撮影部分領域を特定する。類似領域特定手段(105)は、第1画像及び第2画像の少なくとも一方の中から、撮影部分領域に類似する類似領域を特定する。加工手段(106)は、類似領域に基づいて、第1画像における加工対象領域を加工する。

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
従来、空間をカメラで撮影した画像に写された影又は遮蔽物を取り除くための技術が検討されている。例えば、特許文献1には、被写体の一部が遮蔽物で遮られている場合に、遮蔽物の周囲のパターンに基づいて、画像から遮蔽物を除去し、遮蔽物で遮られた部分を復元する技術が記載されている。
http://research.microsoft.com/pubs/69211/siggraph05_0265_final.pdf
しかしながら、非特許文献1の技術を利用しても、遮蔽物で遮られた部分と同じパターンがその近くに写されているとは限らないので、復元の精度を高められない可能性がある。
この点、本発明の発明者達は、ある第1画像において影又は遮蔽物が写された場合に、その部分が見える位置から撮影した第2画像を利用し、復元の精度を高めることを極秘に独自で検討している。しかし、この場合、第1画像と第2画像は互いに異なる位置から撮影されており、被写体の写り方は第1画像と第2画像で異なる。このため、発明者達は、第2画像に写された上記部分をそのまま第1画像に貼り付けても精度を高めることができないと考えている。例えば、第2画像が第1画像よりも遠くから撮影されていたり、第2画像が第1画像とは異なる角度から撮影されていたりする場合、第1画像と合わせるために、第2画像の上記部分を拡大したり変形したりする必要がある。この場合、第2画像の上記部分に対する加工により例えば解像度が低下し、第1画像に貼り付けた部分だけが低解像度となってしまい、第1画像が不自然になってしまう。
本発明は上記課題に鑑みてなされたものであって、その目的は、影又は遮蔽物が写された画像の復元の精度を高めることである。
上記課題を解決するために、本発明に係る画像処理装置は、第1位置から撮影され、空間の一部に影又は遮蔽物がある様子が写された第1画像を取得する第1画像取得手段と、前記第1画像における前記空間の影部分又は被遮蔽部分から前記第1位置よりも離れた第2位置から撮影され、前記影部分又は前記被遮蔽部分が写された第2画像を取得する第2画像取得手段と、前記第1画像において前記影又は前記遮蔽物が写された加工対象領域を特定する加工対象領域特定手段と、前記第1画像における被写体と合うように前記第2画像を低解像度化し、前記低解像度化された第2画像において前記影部分又は前記被遮蔽部分が写された撮影部分領域を特定する撮影部分領域特定手段と、前記第1画像及び前記第2画像の少なくとも一方の中から、前記撮影部分領域に類似する類似領域を特定する類似領域特定手段と、前記類似領域に基づいて、前記第1画像における前記加工対象領域を加工する加工手段と、を含むことを特徴とする。
本発明に係る画像処理方法は、第1位置から撮影され、空間の一部に影又は遮蔽物がある様子が写された第1画像を取得する第1画像取得ステップと、前記第1画像における前記空間の影部分又は被遮蔽部分から前記第1位置よりも離れた第2位置から撮影され、前記影部分又は前記被遮蔽部分が写された第2画像を取得する第2画像取得ステップと、前記第1画像において前記影又は前記遮蔽物が写された加工対象領域を特定する加工対象領域特定ステップと、前記第1画像における被写体と合うように前記第2画像を低解像度化し、前記低解像度化された第2画像において前記影部分又は前記被遮蔽部分が写された撮影部分領域を特定する撮影部分領域特定ステップと、前記第1画像及び前記第2画像の少なくとも一方の中から、前記撮影部分領域に類似する類似領域を特定する類似領域特定ステップと、前記類似領域に基づいて、前記第1画像における前記加工対象領域を加工する加工ステップと、を含むことを特徴とする。
本発明に係るプログラムは、第1位置から撮影され、空間の一部に影又は遮蔽物がある様子が写された第1画像を取得する第1画像取得手段、前記第1画像における前記空間の影部分又は被遮蔽部分から前記第1位置よりも離れた第2位置から撮影され、前記影部分又は前記被遮蔽部分が写された第2画像を取得する第2画像取得手段、前記第1画像において前記影又は前記遮蔽物が写された加工対象領域を特定する加工対象領域特定手段、前記第1画像における被写体と合うように前記第2画像を低解像度化し、前記低解像度化された第2画像において前記影部分又は前記被遮蔽部分が写された撮影部分領域を特定する撮影部分領域特定手段、前記第1画像及び前記第2画像の少なくとも一方の中から、前記撮影部分領域に類似する類似領域を特定する類似領域特定手段、前記類似領域に基づいて、前記第1画像における前記加工対象領域を加工する加工手段、としてコンピュータを機能させる。
また、本発明に係る情報記憶媒体は、上記のプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体である。
また、本発明の一態様では、前記類似領域特定手段は、前記低解像度化された第2画像の解像度と合うように前記第1画像を低解像度化し、当該低解像度化された第1画像において、前記撮影部分領域に類似する領域を、前記類似領域として特定する。
また、本発明の一態様では、前記加工手段は、低解像度化される前の前記第1画像における前記類似領域の画素値に基づいて加工する。
また、本発明の一態様では、前記類似領域特定手段は、前記撮影部分領域と、前記第1画像における前記影又は前記遮蔽物を含む周囲領域と、に類似する前記類似領域を特定する。
また、本発明の一態様では、前記画像処理装置は、前記第1画像及び前記第2画像の少なくとも一方の中から、前記第1画像における前記影又は前記遮蔽物を含む周囲領域に類似する周囲類似領域を特定する周囲類似領域特定手段を更に含み、前記加工手段は、更に前記周囲類似領域に基づいて加工する、ことを特徴とする。
また、本発明の一態様では、前記画像処理装置は、前記第1画像における前記影又は半透明の前記遮蔽物の周囲に基づいて、前記空間の前記影部分又は前記被遮蔽部分を推定する推定手段を更に含み、前記加工手段は、更に前記推定手段による推定結果に基づいて加工する、ことを特徴とする。
また、本発明の一態様では、前記画像処理装置は、前記第1画像における前記影又は半透明の前記遮蔽物の周囲に基づいて、前記空間の前記影部分又は前記被遮蔽部分を推定する推定手段と、前記推定手段による推定結果に基づいて、前記周囲領域を取得する周囲領域取得手段と、を含むことを特徴とする。
また、本発明の一態様では、前記加工対象領域は、複数の加工対象小領域を含み、前記撮影部分領域特定手段は、前記複数の加工対象小領域にそれぞれ対応する複数の前記撮影部分領域を特定し、前記類似領域特定手段は、前記複数の撮影部分領域にそれぞれ類似する複数の前記類似領域を特定し、前記加工手段は、前記複数の加工対象小領域の各々を、対応する前記撮影部分領域に類似する前記類似領域に基づいて加工する、ことを特徴とする。
また、本発明の一態様では、前記加工対象小領域は、前記第1画像において前記影又は前記遮蔽物が写された個々の画素又は複数の画素である。
本発明によれば、影又は遮蔽物が写された画像の復元の精度が高まる。
画像処理装置のハードウェア構成を示す図である。 カメラで空間が撮影される様子を示す図である。 第1位置で撮影された第1画像の一例であり、 第2位置で撮影された第2画像の一例である。 画像処理装置で実現される機能の一例を示す機能ブロック図である。 加工対象領域及び加工対象小領域を示す図である。 加工された第2画像の一例を示す図である。 撮影部分領域を示す図である。 類似領域の特定方法を示す図である。 加工部による加工方法を示す図である。 加工部により加工された第1画像を示す図である。 画像処理装置において実行される処理の一例を示すフロー図である。 変形例の機能ブロック図である。 低解像度化された第1画像を示す図である。 変形例(2)における類似領域の特定方法を示す図である。 影部分の推定方法を示す図である。
以下、本発明に関わる画像処理装置の実施形態の例を説明する。画像処理装置は、画像処理が可能なコンピュータであり、例えば、パーソナルコンピュータ、サーバコンピュータ、携帯情報端末(タブレット型コンピュータを含む)、又は携帯電話機(スマートフォンを含む)等である。
[1.画像処理装置のハードウェア構成]
図1は、画像処理装置のハードウェア構成を示す図である。図1に示すように、画像処理装置10は、制御部11、記憶部12、通信部13、操作部14、表示部15、及び入出力部16を含む。
制御部11は、例えば、一又は複数のマイクロプロセッサを含む。制御部11は、記憶部12に記憶されたプログラムやデータに従って処理を実行する。記憶部12は、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ハードディスクやフラッシュメモリなどの不揮発性メモリである。通信部13は、有線通信又は無線通信用の通信インタフェースであり、ネットワークを介してデータ通信を行う。
操作部14は、ユーザが操作を行うための入力デバイスであり、例えば、タッチパネルやマウス等のポインティングデバイスやキーボード等である。操作部14は、ユーザによる操作内容を制御部11に伝達する。表示部15は、例えば、液晶表示部又は有機EL表示部等である。表示部15は、制御部11の指示に従って画面を表示する。入出力部16は、入出力インタフェースであり、例えば、USBポートである。入出力部16は、外部機器とデータ通信を行うために用いられる。例えば、入出力部16は、カメラ20と接続可能であり、画像を取り込めるようにしてよい。
カメラ20は、静止画や動画を撮影可能な一般的な撮像装置であり、例えば、CMOSイメージセンサ又はCCDイメージセンサなどの撮像素子を含む。カメラ20は、撮像素子で撮影した画像を生成してそのデータをメモリに記録する。このメモリは、カメラ20に内蔵されたメモリであってもよいし、取り外し可能なフラッシュメモリなどであってもよい。また、カメラ20は、広角レンズ又は魚眼レンズを備えていてもよく、画角や焦点距離は任意であってよい。例えば、カメラ20は、全天球カメラであってもよいし、複数のレンズを備えることで水平方向及び垂直方向の少なくとも一方の全方向を撮影可能なカメラであってもよい。
なお、記憶部12に記憶されるものとして説明するプログラム及びデータは、ネットワークを介して供給されるようにしてもよい。また、画像処理装置10のハードウェア構成は、上記の例に限られず、種々のハードウェアを適用可能である。例えば、画像処理装置10は、コンピュータ読み取り可能な情報記憶媒体を読み取る読取部(例えば、光ディスクドライブやメモリカードスロット)を含んでもよい。例えば、情報記憶媒体に記憶されたプログラムやデータが当該読取部や入出力部16を介して、画像処理装置10に供給されるようにしてもよい。
[2.画像処理装置が実行する処理の概要]
次に、画像処理装置10が実行する処理の概要を説明する。本実施形態では、例えば、ユーザが空間内を移動しながらカメラ20で撮影し、複数の位置でそれぞれ撮影された複数の画像が生成される。なお、空間は、カメラ20の撮影対象となる地球上の場所であり、複数の被写体が配置されている。
図2は、カメラ20で空間が撮影される様子を示す図である。図2に示すように、例えば、空間30には、地面31の上に道路32と塀33が配置されている。ユーザは、道路32の上においてカメラ20を三脚21で固定して撮影する。ここでは、ユーザは、第1位置Pと第2位置Pで撮影する場合を説明するが、3地点以上において撮影してもよい。また、第1位置Pにおける撮影方向Vと、第2位置Pにおける撮影方向Vと、は異なっていてもよいが、説明の簡略化のために、ここでは同じとする。
また、本実施形態では、カメラ20の後方に太陽があるものとする。このため、図2に示すように、第1位置Pにおける撮影時には、カメラ20及び三脚21の影Sが前方に伸び、第2位置Pにおける撮影時には、カメラ20及び三脚21の影Sが前方に伸びている。また、塀33の影Sも地面31の上にある。なお、図2では、説明の都合上、影S,Sの両方を示しているが、実際には、第1位置Pにおける撮影時には影Sは存在せず、第2位置Pにおける撮影時には影Sは存在しない。
図3は、第1位置Pで撮影された第1画像の一例であり、図4は、第2位置Pで撮影された第2画像の一例である。なお、ここでは、画像の左上を原点Oとしたスクリーン座標軸(X軸及びY軸)が設定され、画像内の画素の位置は、2次元座標で示されるものとする。また、第1画像I1Hと第2画像I2Hは、互いに同じサイズであり、ここでは、正方形とする。
図3及び図4に示すように、第1画像I1Hには影Sが写されており、第2画像I2Hには影Sが写されている。先述したように、第2画像I2Hの撮影時には影Sが存在しないので、第1画像I1Hにおいて影Sがある空間30の一部分(ここでは、道路32上の一部分である。以降、影部分34という。)は、第2画像I2Hでは、影で暗くなっておらず、明るい状態で写されている。このため、第1画像I1Hでは影Sで暗くなって見えにくい影部分34の模様が、第2画像I2Hでは鮮明に写されている。
一応、第2画像I2Hにおいて影部分34を判別可能ではあるが、先述したように、第2画像I2Hの影部分34は拡大したり変形したりする必要があるため十分に復元の精度を高めることができないと、発明者達は考えている。一方、第1画像I1Hには、道路32の他の部分が撮影されており、影部分34と似た様子が写されている可能性がある。このため、本実施形態では、第1画像I1Hの中から影部分34に類似する領域を探し出し、当該領域に基づいて第1画像I1Hに写された影Sの色を変えるようにしている。以降、この技術の詳細を説明する。
[3.画像処理装置において実現される機能]
図5は、画像処理装置10で実現される機能の一例を示す機能ブロック図である。図5に示すように、本実施形態では、データ記憶部100、第1画像取得部101、第2画像取得部102、加工対象領域特定部103、撮影部分領域特定部104、類似領域特定部105、及び加工部106が画像処理装置10で実現される場合を説明する。
[3−1.データ記憶部]
データ記憶部100は、記憶部12を主として実現される。データ記憶部100は、カメラ20が撮影した画像(写真)を記憶する。本実施形態は、複数の画像の各々の縦横比、サイズ、解像度、色数(カラー画像におけるビット数)、及びデータ形式が互いに同じであるものとするが、画像間でこれらは異なっていてもよい。データ記憶部100は、互いに異なる位置から撮影された複数の画像を記憶することになる。
なお、本実施形態では、データ記憶部100に画像が記憶される場合を説明するが、画像は、他の機器又はコンピュータに記憶されているようにしてもよい。例えば、画像は、カメラ20のメモリに記憶されていてもよいし、サーバコンピュータに記憶されていてもよい。即ち、後述する第1画像取得部101及び第2画像取得部102は、データ記憶部100以外から画像を取得してもよい。
[3−2.第1画像取得部]
第1画像取得部101は、制御部11を主として実現される。本実施形態の第1画像取得部101は、第1位置Pから撮影され、空間30の一部に影Sがある様子が写された第1画像I1Hを取得する。例えば、第1画像取得部101は、データ記憶部100に記憶された第1画像I1Hを取得する。
第1画像I1Hは、空間30の一部である影部分34に影Sがある状態で撮影された画像である。先述したように、影部分34は、第1画像I1Hの撮影時に影Sが落とされた部分である。別の言い方をすれば、影部分34は、第1画像I1Hに写された被写体のうち、影Sで暗くなった部分の被写体である。本実施形態では、影部分34は、第1画像I1Hの撮影時にカメラ20及び三脚21の影Sがある道路32の一部分である。
[3−3.第2画像取得部]
第2画像取得部102は、制御部11を主として実現される。第2画像取得部102は、第2位置Pから撮影され、第1画像I1Hにおける空間30の影部分34が写された第2画像I2Hを取得する。本実施形態では、第2画像取得部102は、第1画像I1Hにおける空間30の影部分34から第1位置Pよりも離れた第2位置Pから撮影され、影部分34が写された第2画像I2Hを取得する。例えば、第2画像取得部102は、データ記憶部100に記憶された第2画像I2Hを取得する。
第2画像I2Hは、影部分34に影がない状態で撮影されている。即ち、第2画像I2Hは、影部分34に対して光が当たった状態で撮影されている。なお、第2画像I2Hには、影部分34に絶対に影があってはならないわけではなく、第1画像I1Hよりも影部分34が鮮明であれば、影部分34に少しだけ影があってもよい。また、本実施形態では、図2に示すように、第2位置Pは、第1位置Pよりも影部分34から離れているので、影部分34は、第2画像I2Hでは第1画像I1Hよりも小さく写されている。同様に、第1画像I1Hに写された道路32及び塀33の部分も、第2画像I2Hでは、第1画像I1Hよりも小さく写されている。
[3−4.加工対象領域特定部]
加工対象領域特定部103は、制御部11を主として実現される。加工対象領域特定部103は、第1画像I1Hにおいて影Sが写された加工対象領域を特定する。
加工対象領域は、影Sの一部又は全部を少なくとも含む領域であり、加工部106による画像処理の対象となる領域といえる。加工対象領域は、影Sを示す画素だけから構成されてもよいし、影Sを示す画素とその周囲の画素とから構成されてもよい。ここでは、加工対象領域が、影Sを示す画素だけから構成される場合を説明する。なお、加工対象領域が、影Sを示す画素とその周囲の画素を含む場合には、加工対象領域は、影Sの輪郭から所定距離以内の画素を含む領域としてもよいし、所定形状及び所定サイズの領域であってもよい。
加工対象領域は、特に複数の領域に分かれていなくてもよいが、本実施形態では、複数の加工対象小領域を含むものとする。加工対象小領域は、後述する類似領域の検索単位となる領域であり、例えば、影Sを示す画素全体のうち、少なくとも1つの画素から構成される領域である。本実施形態では、加工対象小領域は、第1画像I1Hにおいて影Sが写された個々の画素である場合を説明するが、影Sが写された複数の画素であってもよい。このため、加工対象領域である影Sがn個(nは正整数であり、加工対象領域の総画素数を示す。)の画素によって示されたとすると、加工対象小領域もn個存在する。
図6は、加工対象領域及び加工対象小領域を示す図である。先述したように、本実施形態では、加工対象領域は影Sであるため、図6に示すように、加工対象小領域は、影Sを構成する個々の画素p(x,y)となる。なお、(x,y)は、画素を識別する2次元座標である。本実施形態では、画素p(x,y)ごとに、当該画素p(x,y)を含む所定サイズの周囲領域Aが設定される。ここでは、周囲領域Aは、画素p(x,y)を中心点とする所定サイズの正方形である。本実施形態では、周囲領域Aは、後述する撮影部分領域を特定するために用いられる。なお、図6では、周囲領域Aを1つだけ示しているが、周囲領域Aは、加工対象小領域の数(即ち、n個)だけ設定される。
加工対象領域特定部103は、ユーザの操作又は画像解析に基づいて、加工対象領域を特定すればよい。例えば、ユーザの操作に基づいて加工対象領域が特定される場合には、加工対象領域特定部103は、表示部15に第1画像I1Hを表示させ、ユーザの操作を受け付ける。例えば、ユーザは、操作部14を操作して、影Sを表す領域を選択する。領域を選択する操作は、一般的なペイントソフトで採用されている領域選択操作であってよく、例えば、ポインティングデバイスを利用してカーソルで影Sの輪郭又はその付近をなぞる操作であってもよい。加工対象領域特定部103は、ユーザが選択した領域に基づいて、加工対象領域を特定する。
また例えば、画像解析に基づいて加工対象領域が特定される場合には、加工対象領域特定部103は、影Sの基本パターンを示すテンプレート画像を利用したテンプレートマッチングに基づいて、影Sを特定し、加工対象領域を特定する。他にも例えば、影Sは所定の色(例えば、黒、濃紺、又はグレー)を有しているので、加工対象領域特定部103は、第1画像I1Hに対してエッジ検出処理を実行して抽出した領域(即ち、同一色又は類似色が連続する領域)のうち所定の色を有する領域を、加工対象領域として特定してもよい。なお、影Sを特定するアルゴリズム自体は、公知の種々の影検出アルゴリズムを適用可能である。加工対象領域特定部103は、影検出アルゴリズムで検出した領域に基づいて、加工対象領域を特定すればよい。
なお、第1画像I1Hの中には、カメラ20の三脚21の影S以外の影(例えば、塀33の影S)も存在するので、例えば、加工対象領域特定部103は、第1画像I1Hの所定領域(例えば、画像の下半分や中央付近)だけを加工対象領域の検索対象としてもよい。このように、加工対象領域の位置が予想可能である場合には、検索対象となる領域を少なくして、画像処理装置10の処理負荷軽減及び加工対象領域の迅速な特定を図るようにしてもよい。
[3−5.撮影部分領域特定部]
撮影部分領域特定部104は、制御部11を主として実現される。撮影部分領域特定部104は、第2画像I2Hに基づいて、空間30の影部分34が写された撮影部分領域を特定する。なお、本実施形態では、撮影部分領域特定部104は、第2画像I2Hを加工して撮影部分領域を特定する場合を説明するが、特に加工せずに第2画像I2Hの中で撮影部分領域を特定してもよい。
撮影部分領域は、影部分34が写された画像の一部分である。別の言い方をすれば、撮影部分領域は、第1画像I1Hよりも影部分34が鮮明に又は明るく写された画像の一部分である。本実施形態では、撮影部分領域は、空間30の影部分34に影がない状態で写された画像内の一部分である。
例えば、第1画像I1Hの撮影タイミングと、第2画像I2Hの撮影タイミングと、の時間差がほとんどない場合、塀33と太陽との位置関係はほとんど変わらないので、道路32上にできた塀33の影Sの形状もほとんど変わらない。本実施形態では、この点に注目し、撮影部分領域特定部104は、第1画像I1Hにおける影Sの形状と合うように、第2画像I2Hを加工する場合を説明する。このように第2画像I2Hを加工するのは、第1画像I1Hにおいて影Sが写った画素に対応する第2画像I2Hの画素がどこであるかを特定するためである。なお、加工とは、拡大、縮小、変形、透視変換、投影変換、解像度変更、又は切り取りなどの種々の画像処理を含む意味である。
まず、撮影部分領域特定部104は、公知の影検出アルゴリズム又は輪郭抽出アルゴリズムに基づいて、第1画像I1Hに写された影Sと、第2画像I2Hに写された影Sと、を特定し、それぞれの特徴点を抽出する。特徴点は、影Sの形状的な特徴を表す点であればよく、例えば、影Sの輪郭上の任意の点が用いられるようにしてよい。ここでは、特徴点の一例として、影Sの頂点を用いる。そして、撮影部分領域特定部104は、第1画像I1Hの影Sの特徴点の位置関係と、第2画像I2Lの影Sの特徴点の位置関係と、に基づいて、第2画像I2Hを加工する。
図7は、加工された第2画像I2Lの一例を示す図である。なお、ここでは、加工の一例として、透視変換及び投影変換を説明する。一般的に、透視変換及び投影変換が行われると画像の解像度は低下するので、図7では、第2画像I2Lが低解像度化されている様子を、模式的に破線で描いている。即ち、本実施形態では、図面において、実線で描画している被写体は高解像度であることを意味し、破線で描画している被写体は低解像度であることを意味する。
図7に示すように、撮影部分領域特定部104は、第1画像I1Hの影Sの特徴点Q〜Qの2次元座標と、第2画像I2Lの影Sの特徴点R〜Rの2次元座標と、のずれ具合が閾値未満となるように、第2画像I2Lを加工する。例えば、撮影部分領域特定部104は、これらの2次元座標の差に基づいて、特徴点のずれ具合を示す評価値を算出してもよい。例えば、撮影部分領域特定部104は、第2画像I2Hに対する透視変換及び投影変換を繰り返すことによって、評価値が示すずれ具合が閾値未満となる第2画像I2Lを見つけ出す。即ち、撮影部分領域特定部104は、第2画像I2Lにおける影Sが第1画像I1Hにおける影Sと合うように、第2画像I2Hを加工する。
上記のように、撮影部分領域特定部104は、第1画像I1Hの影Sと第2画像I2Lの影Sとのサイズ合わせ及び位置合わせをする。なお、サイズ合わせ及び位置合わせの精度を高めるために、撮影部分領域特定部104は、第1画像I1H及び第2画像I2Hのうち、道路32以外の部分に対してぼかし処理を施したうえで、上記のサイズ合わせ及び位置合わせをするようにしてもよい。この場合、道路32以外の部分はぼかされているので、影Sの特徴点だけを正確に検出することができるので、サイズ合わせ及び位置合わせの精度を高めることができる。なお、道路32以外の部分は、ぼかすのではなく、マスクすることによって特徴点抽出の対象外としてもよい。
なお、ここでは、影Sを基準にしたが、第1画像I1Hと第2画像I2Hの両方に写された被写体を基準にすればよい。このため、他の被写体(例えば、道路32や塀33など)を基準にしてサイズ合わせ及び位置合わせが行われるようにしてもよい。被写体の特定は、公知の物体検出アルゴリズムを利用すればよい。
本実施形態では、先述したように、加工対象領域(ここでは、影S)が複数の加工対象小領域(ここでは、影Sを示す画素p(x,y))に分けられているので、撮影部分領域特定部104は、複数の加工対象小領域にそれぞれ対応する複数の撮影部分領域を特定する。即ち、1つの加工対象領域に対して、1つの撮影部分領域が特定される。
図8は、撮影部分領域を示す図である。図8に示すように、例えば、撮影部分領域特定部104は、低解像度化された第2画像I2Lにおいて、加工対象小領域である画素p(x,y)と同じ座標の画素を含むように、撮影部分領域Bを特定する。なお、これらは全く同じ座標である必要はなく、多少のずれがあってもよい。また、撮影部分領域Bは、周囲領域Aと同じ形状及びサイズであり、画素p(x,y)を中心点とした所定サイズの正方形とする。なお、これらは、全く同じ形状及びサイズである必要はなく、形状及びサイズが多少はずれていてもよい。
上記のように、本実施形態では、第2位置Pは、第1位置Pよりも、空間30の影部分34から離れているので、撮影部分領域特定部104は、第1画像I1Hにおける被写体と合うように第2画像I2Hを低解像度化する。そして、撮影部分領域特定部104は、低解像度化された第2画像I2Lにおいて影部分34が写された領域を、撮影部分領域Bとして取得する。例えば、撮影部分領域特定部104は、第1画像I1Hにおける加工対象領域と同じ位置(2次元座標)にある第2画像I2L内の領域を、撮影部分領域Bとして特定する。このため、加工対象領域に含まれる2次元座標と、撮影部分領域Bとに含まれる2次元座標と、は同じとなる。
また、ここでは、画像解析を利用して撮影部分領域Bが特定される場合を説明したが、撮影部分領域特定部104は、ユーザの操作に基づいて撮影部分領域Bを特定してもよい。この場合、撮影部分領域特定部104は、表示部15に第2画像I2H又は低解像度化された第2画像I2Lを表示させ、ユーザの操作を受け付ける。撮影部分領域特定部104は、ユーザが選択した領域を、撮影部分領域Bとして特定すればよい。また例えば、撮影部分領域特定部104は、ユーザの操作によってある程度は第2画像I2Hを加工したうえで、低解像度化された第2画像I2Lが第1画像I1Hと合うように画像解析によって調整してもよい。
[3−6.類似領域特定部]
類似領域特定部105は、制御部11を主として実現される。類似領域特定部105は、第1画像I1H及び第2画像I2Hの少なくとも一方に基づいて、撮影部分領域Bに類似する類似領域Cを特定する。本実施形態では、類似領域特定部105は、第1画像I1Hの中から類似領域Cを特定する場合を説明するが、後述する変形例のように、第1画像I1Hを加工した画像の中から類似領域Cを特定してもよいし、第2画像I2Hの中で類似領域Cを特定してもよいし、これらの画像の中で類似領域Cを特定してもよい。なお、類似領域Cは、画像全体の中から探索されるのではなく、中央付近や端部付近などの一部分から探索されてもよい。
また、本実施形態では、加工対象小領域である画素p(x,y)ごとに撮影部分領域Bが特定されるので、類似領域特定部105は、複数の撮影部分領域Bにそれぞれ類似する複数の類似領域Cを特定する。即ち、ここでは、1つの撮影部分領域Bに対して、1つの類似領域Cが特定される。なお、特に加工対象小領域が設定されない場合には、類似領域Cが1つだけ特定されるようにしてもよい。
図9は、類似領域の特定方法を示す図である。例えば、類似領域特定部105は、撮影部分領域Bをテンプレート画像とし、テンプレートマッチングを実行することによって、類似領域Cを特定する。図9に示すように、類似領域特定部105は、第1画像I1Hを撮影部分領域Bと同じ又は同程度のサイズの複数の小領域(図7では、破線で区切られた8×8の64個)に分割する。なお、ここでは、説明の簡略化のために、比較的大きい小領域としているが、数百個又はそれ以上の小領域に分割してサイズを小さくしてもよい。同様に、撮影部分領域Bも小さなサイズにして複数の領域に分割してもよい。
そして、類似領域特定部105は、各小領域内の画素値と、撮影部分領域B内の画素値と、に基づいて、類似度を示す評価値を算出する。なお、画素値とは、画素の色を示す値であり、RGBカラー画像であれば、R値、G値、及びB値である。画素値は、明度とも呼ばれる。例えば、類似領域特定部105は、下記の数式1を用いて評価値を算出してもよい。なお、評価値の算出は、数式1に限られず、画素値のずれ具合を総合的に評価可能な数式を用いればよい。
Figure 2018011930
上記数式1のEH1Rは、評価値である。mは、小領域及び撮影部分領域B内の画素の総数である。X1Hiは、小領域内の各画素の画素値である。XBniは、撮影部分領域B内の各画素の画素値である。ここでは、これらの差の二乗の総和を評価値EH1Rとして用いているので、評価値EH1Rが大きいほど色のずれ具合が大きいことを示し、評価値EH1Rが小さいほど色のずれ具合が小さいことを示す。類似領域特定部105は、評価値EH1Rが最も小さくなる小領域、又は、評価値EH1Rが閾値未満となる小領域を、類似領域Cとして特定する。なお、上記説明した類似領域Cの特定方法は一例であり、画像の類否判断が可能な種々のマッチング手法を適用可能である。
[3−7.加工部]
加工部106は、制御部11を主として実現される。加工部106は、類似領域Cに基づいて、第1画像I1Hにおける加工対象領域を加工する。ここでの加工とは、加工対象領域の画素値を変えることであり、即ち、加工対象領域の色を変えることである。
図10は、加工部106による加工方法を示す図である。本実施形態では、加工対象領域(ここでは、影S)が加工対象小領域(ここでは、影Sの画素p(x,y))に分けられているので、加工部106は、複数の加工対象小領域の各々を、対応する撮影部分領域Bに類似する類似領域Cに基づいて加工する。
例えば、加工部106は、周囲領域Aの中心にある加工対象小領域の画素p(x,y)の画素値を、類似領域C内の画素(例えば、中心の画素)の画素値とする。加工部106は、この処理を画素p(x,y)の数だけ繰り返す。なお、加工部106は、類似領域C内の画素値と全く同じになるように画素値を変更してもよいし、類似領域C内の画素値と全く同じでなくても、当該画素値に近づくように画素値を変更してもよい。
図11は、加工部106により加工された第1画像I1Hを示す図である。図11に示すように、加工部106の処理により、加工対象領域である影Sが除去され、影部分34にある模様と同じ又は似た模様が、加工対象領域内に描画される。なお、加工部106は、加工対象領域内の色を変更した後に、ポアソンブレンディングのように色の境界を滑らかにする処理を施してもよい。
[4.本実施形態において実行される処理]
図12は、画像処理装置10において実行される処理の一例を示すフロー図である。図12に示す処理は、制御部11が、記憶部12に記憶されたプログラムに従って動作することによって実行される。下記に説明する処理は、図5に示す機能ブロックにより実行される処理の一例である。
図12に示すように、まず、制御部11は、第1画像I1H及び第2画像I2Hを取得する(S1,S2)。第1画像I1H及び第2画像I2Hの各々は、記憶部12に記憶されていてもよいし、カメラ20内のメモリに記憶されていてもよい。あるいは、画像処理装置10に接続された情報記憶媒体に記憶されていてもよいし、サーバコンピュータなどに記憶されていてもよい。
制御部11は、第1画像I1Hの中から、影Sが写された領域である加工対象領域を特定する(S3)。先述したように、S3においては、制御部11は、ユーザの選択に基づいて加工対象領域である影Sを特定してもよいし、画像解析により加工対象領域である影Sを特定してもよい。
制御部11は、第1画像I1Hと合うように、第2画像I2Hを低解像度化する(S4)。先述したように、S4においては、制御部11は、第1画像I1Hに写された影Sの特徴点と、第2画像I2Lに写された影Sの特徴点と、のずれ具合が閾値未満となるまで透視変換及び投影変換を繰り返す。
制御部11は、低解像度化された第2画像I2Lの中から、影Sの画素p(x,y)ごとに、撮影部分領域Bを特定する(S5)。先述したように、S5においては、制御部11は、第1画像I1Hと、低解像度化された第2画像I2Lと、を重ね合わせ、加工対象小領域である画素p(x,y)と同じ座標を含む所定形状の領域を、当該画素p(x,y)の撮影部分領域Bとして特定することになる。ここでは、加工対象小領域がn個あるので、制御部11は、n個分の撮影部分領域Bを特定する。
制御部11は、第1画像I1Hの中から、S5で特定した撮影部分領域Bごとに、類似領域Cを特定する(S6)。先述したように、S6においては、制御部11は、第1画像I1Hを複数の小領域に分割し、撮影部分領域B内の画素値との類似度を示す評価値EH1Rに基づいて類似領域Cを特定する。ここでは、加工対象小領域がn個あるので、制御部11は、n個分の類似領域Cを特定する。
制御部11は、S6で特定した類似領域Cに基づいて、第1画像I1Hの加工対象領域(ここでは、影S)を加工し(S7)、本処理は終了する。S7においては、先述したように、制御部11は、類似領域C内の画素値を、加工対象領域内の画素の画素値とする。ここでは、加工対象小領域がn個あるので、制御部11は、n個分の類似領域Cに基づいて、対応する加工対象小領域の画素値を変更する。
以上説明した画像処理装置10によれば、高解像度の第1画像I1Hから類似領域Cを検索し、加工対象領域である影Sを加工するので、解像度の差に起因する不自然さを解消することができ、影部分34の復元の精度を高めることができる。例えば、実施形態では、撮影部分領域Bは低解像度化された第2画像I2Lから特定されたものなので、撮影部分領域Bに影部分34が写っていたとしても、低解像度の画像をそのまま高解像度の第1画像I1Hに貼り付けると、不自然な状態となってしまう。即ち、例えば、低解像度の画像は、高解像度の画像に比べて、被写体の色が詳細に表れていなかったり、色の変化が厳密に表れていなかったりする(例えば、低解像度の画像だと全体的にぼやけるため、色の変化が実際よりも小さくなるが、高解像度だと、はっきりと色が変化する様子を表現できる)ため、高解像度の第1画像I1Hに低解像度の画像を貼り付けると、不自然となる。この点、実施形態のように、高解像度の第1画像I1Hから類似領域Cを検索して、加工対象領域である影Sの色を変えることによって、加工した部分は、被写体の色を詳細に示したり、色の変化を厳密に表したりすることができるので、より自然な状態で影部分34を復元することができる。また、第1画像I1Hの全体から類似領域Cを探索するので、第1画像I1Hにおいて影Sから離れた部分に、影部分34と似たパターンが存在していたとしても、その部分を検出して復元することもできる。更に、第1画像I1Hにおける被写体と合うように第2画像I2Hを低解像度化することで、影部分34が写された撮影部分領域Bをより正確に特定することができる。
また、加工対象領域を複数の加工対象小領域に分け、加工対象小領域ごとに、対応する類似領域Cに基づいて加工する場合には、より細かい単位で色の類否を判断し、影Sの色を変えることができるので、影部分34の復元の精度をより高めることができる。
また、加工対象小領域を、影Sを構成する個々の画素p(x,y)とし、より細かい単位に分けることで、より細かく色の類否を判断することができるので、影部分34の復元の精度をより高めることができる。
[5.変形例]
なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
図13は、変形例の機能ブロック図である。図13に示すように、以降説明する変形例では、周囲類似領域特定部107、推定部108、及び周囲領域取得部109が実現される。これら各機能は、制御部11を主として実現される。なお、画像処理装置10は、これらを全て備える必要はない。
(1)例えば、実施形態で説明したように、低解像度化した第2画像I2Lから撮影部分領域Bが特定される場合、マッチングの精度をより高めるために、第1画像I1Hの解像度を第2画像I2Lと同程度まで低下させ、低解像度化された第1画像I1Lの中から、類似領域Cを探索してもよい。
変形例(1)の類似領域特定部105は、低解像度化された第2画像I2Lの解像度と合うように第1画像I1Hを低解像度化する。例えば、類似領域特定部105は、第2画像I2Lと同じ解像度まで第1画像I1Hの解像度を低下させてもよいし、全く同じ解像度でなくとも、第2画像I2Lの解像度の差が閾値未満となる解像度まで第1画像I1Hの解像度を低下させてもよい。なお、画像の解像度を低下させる方法自体は、公知の解像度変換方法を適用可能である。
図14は、低解像度化された第1画像I1Lを示す図である。なお、図14では、図7と同様に、画像が低解像度化される様子を、模式的に破線で示している。図14に示すように、低解像度化された第1画像I1Lは、低解像度化された第2画像I2Lと同程度のぼやけ具合となっている。類似領域特定部105は、第1画像I1Hを低解像度化して、全体的に被写体をぼかした第1画像I1Lを生成することになる。
本変形例の類似領域特定部105は、低解像度化された第1画像I1Lにおいて、撮影部分領域Bに類似する領域を、類似領域Cとして特定する。即ち、低解像度化された第1画像I1Lにおいて、撮影部分領域Bに類似する領域と同じ第1画像I1L内の領域が、類似領域Cとして特定されてよい。類似する領域を特定する方法自体は、実施形態で説明した方法と同様であってよい。即ち、類似領域特定部105は、撮影部分領域Bをテンプレート画像とし、テンプレートマッチングを実行することによって、類似領域Cを特定してもよい。この場合、例えば、類似領域特定部105は、第1画像I1Lを撮影部分領域Bと同じ又は同程度の大きさの複数の小領域に分割し、各小領域内の画素値と、撮影部分領域B内の画素値と、に基づいて、類似度を示す評価値EL1Rを算出する。評価値EL1Rの算出は、実施形態で説明した数式1と同様であってよい。
なお、加工部106は、低解像度化された第1画像I1Lにおける類似領域Cの画素値を使ってもよいが、ここでは、低解像度化された第1画像I1Lは類似領域Cの特定にだけ利用し、加工対象領域に対する加工には、高解像度の第1画像I1Hにおける類似領域Cの画素値を使うものとする。加工部106は、低解像度化される前の第1画像I1Hにおける類似領域Cの画素値に基づいて加工することになる。即ち、加工部106は、低解像度化された第1画像I1Lを使って特定された類似領域Cと同じ座標の第1画像I1Hの画素の画素値を使って加工する。加工部106が類似領域Cの画素値に基づいて加工する方法自体は、実施形態で説明した方法と同様であってよい。
変形例(1)によれば、低解像度化された第2画像I2Lと同程度まで解像度を下げた第1画像I1Lの中から類似領域Cを検索するので、影部分34と類似する領域をより正確に特定することができる。その結果、影部分34の復元の精度を高めることができる。
また、低解像度化された第1画像I1Lの画素値を使っても、影部分34の復元の精度をそれなりに高めることができるが、高解像度の第1画像I1Hの画素値を使って加工すれば、解像度の差に起因する不自然さを解消することができ、影部分34の復元の精度をより高めることができる。
(2)また例えば、第1画像I1Hに写された影Sの周囲には、影部分34と同様のパターンが表れている可能性がある。このため、撮影部分領域Bとの類似度と、影Sの周囲のパターンとの類似度と、を総合的に考慮して、類似領域Cを特定してもよい。
本変形例の類似領域特定部105は、撮影部分領域Bと、第1画像I1Hにおける影を含む周囲領域Aと、に類似する類似領域Cを特定する。先述したように、周囲領域Aは、影Sが写された画素から一定距離以内の画素を含む領域である。周囲領域Aは、任意の形状であってよく、ここでは正方形とするが、長方形又は円形などの他の形状であってよい。周囲領域Aのサイズも任意であってよいが、ここでは、第1画像I1Hを分割した小領域と同じサイズとする。なお、影Sは、道路32上の一部である影部分34にあるので、周囲領域Aは、その周囲の道路32が撮影された部分となる。
図15は、変形例(2)における類似領域Cの特定方法を示す図である。まず、類似領域特定部105は、ユーザの操作又は画像解析により、第1画像I1Hの中から周囲領域Aを特定する。例えば、ユーザの操作に基づいて周囲領域Aが特定される場合には、類似領域特定部105は、表示部15に第1画像I1Hを表示させ、ユーザの操作を受け付ける。例えば、ユーザは、操作部14を操作して、影Sの一部又は全部を含むように周囲領域Aを選択するようにしてよい。この場合、類似領域特定部105は、ユーザが選択した領域に基づいて、周囲領域Aを特定する。また例えば、画像解析に基づいて周囲領域Aが特定される場合には、類似領域特定部105は、加工対象領域を特定する場合と同様の方法で影Sを特定し、当該影Sの一部又は全部を含むように周囲領域Aを特定すればよい。なお、影Sを含む小領域は、検索の対象外とするようにしてよい。
そして、類似領域特定部105は、第1画像I1Hの各小領域内の画素値と、周囲領域A内の画素値と、に基づいて、類似度を示す評価値EH1Aを算出する。評価値EH1Aは、これらの画素値の差に基づいて算出されるようにすればよく、実施形態で説明した数式1と同様の数式を利用してよい。
類似領域特定部105は、撮影部分領域Bとの類似度を示す評価値EH1Rと、周囲領域Aとの類似度を示す評価値EH1Aと、に基づいて、類似領域Cを特定する。例えば、類似領域特定部105は、評価値EH1Rと評価値EH1Aとの和が最も低い小領域(即ち、E=argmin(EH1R+EH1A)となる小領域。言い換えれば、類似度が総合的に高い小領域)を、類似領域Cとして特定する。なお、これらの和ではなく、所定の係数で重み付けをして算出した値を用いて小領域が選択されてもよい。また、これらの平均値を用いて小領域が選択されてもよい。即ち、撮影部分領域Bと周囲領域Aとの総合的な類似度をもとに類似領域Cが特定されるようにすればよい。
変形例(2)によれば、周囲領域Aとの類似度も考慮したうえで類似領域Cを特定することにより、影Sの周囲の情報を利用して影部分34と似た領域を探し出すことができる。その結果、影部分34の復元の精度をより高めることができる。
(3)また例えば、変形例(2)では、撮影部分領域Bと周囲領域Aとの総合的な類似度をもとに、1つの類似領域Cを特定する場合を説明したが、撮影部分領域Bに類似する領域と、周囲領域Aに類似する領域と、をそれぞれ別個に特定し、これら2つの領域内の画素値をもとに、加工対象領域である影Sを加工してもよい。
本変形例の画像処理装置10は、周囲類似領域特定部107を含む。周囲類似領域特定部107は、第1画像I1H及び第2画像I2Hの少なくとも一方に基づいて、第1画像I1Hにおける影Sを含む周囲領域Aに類似する周囲類似領域CnAを特定する。なお、ここでは、周囲類似領域特定部107は、第1画像I1Hの中から周囲類似領域CnAを特定する場合を説明するが、第1画像I1Hを加工した画像(例えば、低解像度化された第1画像I1L)の中から周囲類似領域CnAを特定してもよい。
類似する領域を特定する方法自体は、類似領域Cと同様であってよい。即ち、周囲類似領域特定部107は、周囲領域Aをテンプレート画像とし、テンプレートマッチングを実行することによって、周囲類似領域CnAを特定すればよい。例えば、周囲類似領域特定部107は、周囲領域Aとの類似度を示す評価値EH1Aが最も高い小領域、又は、評価値EH1Aが閾値未満の小領域を、周囲類似領域CnAとして特定する。
加工部106は、更に周囲類似領域CnAに基づいて加工する。即ち、加工部106は、類似領域Cと周囲類似領域CnAとに基づいて加工する。例えば、加工部106は、類似領域Cの評価値EH1Rと、周囲類似領域CnAの評価値EH1Aと、を比較し、値が低い方(即ち、類似度の高い方)に基づいて、加工対象領域を加工してもよい。類似領域Cの方が周囲類似領域CnAよりも類似度が高い場合の加工方法は、実施形態で説明した方法と同じである。一方、周囲類似領域CnAの方が類似領域Cよりも類似度が高い場合、加工部106は、周囲類似領域CnA内の画素値に基づいて、加工対象領域内の画素値を変更すればよい。
また例えば、加工部106は、類似領域C内の画素値と、周囲類似領域CnA内の画素値と、を所与の数式に代入して得られる画素値を、加工対象領域である影S内の画素値としてもよい。即ち、これら2つの画素値を混ぜて、影Sを塗りつぶすようにしてもよい。この数式は、予め定められた数式であればよく、例えば、単純平均であってもよいし、加重平均であってもよい。加重平均である場合には、評価値の値に基づいて係数が定まってもよい。
変形例(3)によれば、類似領域Cの画素値だけでなく、周囲類似領域Cnの画素値を考慮したうえで加工対象領域を加工することによって、より多くの情報をもとに影部分34を復元することができるので、影部分34の復元の精度をより高めることができる。
(4)また例えば、第1画像I1Hに写された影Sは、真っ黒とは限られず、ある程度は影部分34の特徴が表れている可能性がある。このため、影S1の色に基づいて、影部分34の色を推定し、類似領域Cだけでなく、当該推定結果に基づいて加工対象領域の加工が行われてもよい。
変形例(4)の画像処理装置10は、推定部108を含む。推定部108は、第1画像I1Hにおける影Sの周囲に基づいて、空間30の影部分34を推定する。例えば、推定部108は、第1画像I1Hにおける影Sの画素の画素値と、その周囲の画素の画素値と、に基づいて、影部分34の色を推定する。
図16は、影部分34の推定方法を示す図である。図16に示すように、推定部108は、加工対象領域特定部103と同様の方法で、第1画像I1Hの中から影Sを特定し、その周囲の画素の色を取得する。なお、推定部108は、変形例(2)と同様に周囲領域Aを特定してもよいが、ここでは、影Sの隣の画素の色を取得するものとする。例えば、影部分34の本来の色を示す画素値をOとし、影Sの基本色(例えば、黒)をTとし、透明度をr(0≦r≦1)とすると、影S内の画素の画素値Xを、下記の数式2により定義することができる。
Figure 2018011930
ここでは、影Sの端部の画素の本来の色(影Sがなかったとした場合の色。即ち、影部分34の本来の色。)が、当該画素と隣接する隣接領域Sの画素の色と同じと仮定する。更に、影Sを示す画素の透明度rが共通であると仮定する。これらの仮定のもと、推定部108は、隣接領域Sの画素値に基づいて、透明度rを計算する。そして、推定部108は、当該透明度rに基づいて、各画素の画素値Xから画素値Oを逆算することによって、影部分34の色を推定した結果を示す推定画像Gを生成する。なお、推定画像Gの生成方法は、上記の例に限られず、影Sを示す画素の画素値と、その周囲の画素値と、に基づいて生成されるようにすればよい。
加工部106は、更に推定部108による推定結果に基づいて加工する。即ち、加工部106は、類似領域Cと、推定部108が推定した影部分34の色(推定画像Gの画素値)と、に基づいて加工する。例えば、加工部106は、類似領域C内の画素値と、推定部108が推定した影部分34の色と、を所与の数式に代入して得られる画素値を、加工対象領域内の画素値としてもよい。この数式は、予め定められた数式であればよく、例えば、単純平均であってもよいし、加重平均であってもよい。加重平均である場合には、係数は予め決めておけばよい。
変形例(4)によれば、類似領域C内の画素値だけでなく、影部分34の推定結果も使って加工対象領域の加工をするので、影部分34の復元の精度をより高めることができる。
(5)また例えば、変形例(2)及び(3)で利用される周囲領域Aを、変形例(4)における推定結果としてもよい。即ち、第1画像I1Hに写された影Sの周囲をそのまま周囲領域Aとして使用するのではなく、変形例(4)のように影部分34を推定したうえで、周囲領域Aとして使用してもよい。
変形例(5)の画像処理装置10は、周囲領域取得部109を含む。周囲領域取得部109は、推定部108による推定結果に基づいて、周囲領域Aを取得する。周囲領域取得部109は、推定部108が加工した画像の画素値に基づいて、周囲領域Aとして取得する。この場合、周囲領域取得部109は、推定画像Gの一部又は全部を周囲領域Aとして取得することになる。即ち、周囲領域Aは、推定画像Gのうち、画素p(x,y)を中心とした所定形状の領域であってよい。周囲領域Aと類似する領域を特定する方法等は、各変形例で説明した方法と同様である。
変形例(5)によれば、影部分34の推定結果を利用して周囲領域Aを取得するので、影部分34の復元の精度をより高めることができる。
(6)また例えば、上記実施形態及び変形例では、類似領域特定部105が、第1画像I1Hに基づいて類似領域Cを特定する場合を説明したが、先述したように、類似領域特定部105は、第2画像I2Hに基づいて、撮影部分領域Bなどに類似する領域を検索してもよい。即ち、類似領域特定部105は、第1画像I1H及び第2画像I2Hの少なくとも一方(例えば、高解像度の第1画像I1H及び第2画像I2Hの中からでもよいし、低解像度の第1画像I1L及び第2画像I2Lの中からでもよい)に基づいて、撮影部分領域Bなどに類似する領域を検索すればよい。以降、第1画像I1Hに基づいて特定されるものを第1類似領域Cn1と記載し、第2画像I2Hに基づいて特定されるものを第2類似領域Cn2と記載し、これらを区別する。なお、第2類似領域Cn2も、第1類似領域Cn1と同様に、加工対象小領域である画素p(x,y)ごとに探索されるようにしてよい。
例えば、類似領域特定部105は、第2画像I2Hに基づいて、撮影部分領域Bに類似する第2類似領域Cn2を特定するようにしてよい。この特定方法自体は、第1類似領域Cn1で説明した方法と同様であってよい。即ち、類似領域特定部105は、撮影部分領域Bをテンプレート画像とし、テンプレートマッチングを実行することによって、第2類似領域Cn2を特定すればよい。例えば、類似領域特定部105は、第2画像I2Hを撮影部分領域Bと同じ大きさの複数の小領域に分割し、各小領域内の画素値と、撮影部分領域B内の画素値と、に基づいて、類似度を示す評価値EH2Rを算出する。評価値EH2Rの算出は、実施形態で説明した数式1と同様であってよく、画素値の差に基づくものであればよい。
加工部106は、第2類似領域Cn2に基づいて加工してもよい。例えば、加工部106は、第1類似領域Cn1と第2類似領域Cn2の両方に基づいて加工してもよい。例えば、加工部106は、第1類似領域Cn1内の画素値と、第2類似領域Cn2内の画素値と、を所与の数式に代入して得られる画素値を、加工対象領域内の画素値としてもよい。即ち、これら2つの画素値を混ぜて、影Sを塗りつぶすようにしてもよい。この数式は、予め定められた数式であればよく、例えば、単純平均であってもよいし、加重平均であってもよい。加重平均である場合には、評価値の値に基づいて係数が定まってもよい。
また例えば、加工部106は、第1類似領域Cn1と第2類似領域Cn2のうち、いずれか一方を選択して加工してもよい。例えば、加工部106は、第1類似領域Cn1の評価値EH1Rと、第2類似領域Cn2の評価値EH2Rと、を比較して、値が低い方(即ち、類似度の高い方)に基づいて、加工対象領域を加工してもよい。第1類似領域Cn1の方が第2類似領域Cn2よりも類似度が高い場合の加工方法は、実施形態で説明した方法と同じである。一方、第2類似領域Cn2の方が第1類似領域Cn1よりも類似度が高い場合、加工部106は、第2類似領域Cn2内の画素値に基づいて、加工対象領域内の画素値を変更すればよい。
また例えば、類似領域特定部105が第1類似領域Cn1の特定を省略し、第2類似領域Cn2のみを特定する場合には、加工部106は、第2類似領域Cn2に基づいて加工してもよい。この場合、加工部106は、第2類似領域Cn2に基づいて、加工対象領域である影S内の画素p(x,y)の画素値を変更する。
変形例(6)によれば、高解像度の第2画像I2Hに基づく第2類似領域Cn2の画素値を考慮して影部分34の復元の精度を高めることができる。例えば、第1類似領域Cn1と第2類似領域Cn2の両方を利用する場合には、より多くの情報をもとに影部分34を復元することができるので、影部分34の復元の精度をより高めることができる。
(7)また例えば、変形例(2)と変形例(6)を組み合わせて、類似領域特定部105は、第2画像I2Hに基づいて、撮影部分領域Bと周囲領域Aとに類似する第2類似領域Cn2を特定するようにしてよい。第2類似領域Cn2の特定方法は、変形例(2)で説明した方法と同様であってよい。即ち、類似領域特定部105は、第2画像I2Hの各小領域内の画素値と、周囲領域A内の画素値と、に基づいて、類似度を示す評価値EH2Aを算出する。評価値EH2Aの算出は、画素値の差に基づいて行えばよく、実施形態で説明した数式1と同様の数式を利用してよい。
類似領域特定部105は、撮影部分領域Bとの類似度を示す評価値EH2Rと、周囲領域Aとの類似度を示す評価値EH2Aと、に基づいて、第2類似領域Cn2を特定する。例えば、類似領域特定部105は、評価値EH2Rと評価値EH2Aとの和が最も低い小領域(即ち、類似度が総合的に高い小領域)を、第2類似領域Cn2として特定する。なお、これらの和ではなく、所定の係数で重み付けをして算出した値を用いて小領域が選択されてもよい。また、これらの平均値を用いて小領域が選択されてもよい。即ち、撮影部分領域Bと周囲領域Aとの総合的な類似度をもとに第2類似領域Cn2が特定されるようにすればよい。
また例えば、変形例(3)と変形例(6)を組み合わせて、類似領域特定部105は、第2画像I2Hに基づいて、周囲領域Aに類似する第2周囲類似領域Cn2Aを特定するようにしてよい。類似する領域を特定する方法自体は、変形例(3)で説明した方法と同様であってよい。即ち、類似領域特定部105は、周囲領域Aをテンプレート画像とし、テンプレートマッチングを実行することによって、第2周囲類似領域Cn2Aを特定すればよい。例えば、類似領域特定部105は、周囲領域Aとの類似度を示す評価値EH2Aが最も高い小領域、又は、評価値EH2Aが閾値未満の小領域を、第2周囲類似領域Cn2Aとして特定する。
加工部106は、更に第2周囲類似領域Cn2Aに基づいて加工するようにしてもよい。即ち、加工部106は、第2類似領域Cn2と第2周囲類似領域Cn2Aとに基づいて加工するようにしてもよい。例えば、加工部106は、第2類似領域Cn2の評価値EH2Rと、第2周囲類似領域Cn2Aの評価値EH2Aと、を比較し、値が低い方(即ち、類似度の高い方)に基づいて、加工対象領域を加工してもよい。第2類似領域Cn2の方が第2周囲類似領域Cn2Aよりも類似度が高い場合の加工方法は、変形例(3)で説明した方法と同じである。一方、第2周囲類似領域Cn2Aの方が第2類似領域Cn2よりも類似度が高い場合、加工部106は、第2周囲類似領域Cn2A内の画素値に基づいて、加工対象領域内の画素値を変更すればよい。
また例えば、加工部106は、第2類似領域Cn2内の画素値と、第2周囲類似領域Cn2A内の画素値と、を所与の数式に代入して得られる画素値を、加工対象領域内の画素値としてもよい。即ち、これら2つの画素値を混ぜて、影Sを塗りつぶすようにしてもよい。この数式は、予め定められた数式であればよく、例えば、単純平均であってもよいし、加重平均であってもよい。加重平均である場合には、評価値の値に基づいて係数が定まってもよい。
また例えば、変形例(5)と(6)を組み合わせて、推定部108の推定結果を周囲領域Aとしてもよい。即ち、変形例(7)においても、推定画像Gに基づいて、周囲領域Aが取得されるようにしてもよい。
変形例(7)によれば、周囲領域Aとの類似度も考慮したうえで第2類似領域Cn2を特定することにより、影Sの周囲の情報を利用して影部分34と似た領域を探し出すことができる。その結果、影部分34の復元の精度をより高めることができる。また、第2類似領域Cn2の画素値だけでなく、第2周囲類似領域Cn2Aの画素値を考慮したうえで加工対象領域を加工することによって、より多くの情報をもとに影部分34を復元することができるので、影部分34の復元の精度をより高めることができる。
(8)また例えば、上記実施形態及び変形例では、影部分34の復元を例に挙げて説明したが、画像処理装置10は、遮蔽物に遮られた遮蔽部分の復元をしてもよい。遮蔽物は、カメラ20から空間30内に配置された物体を見た場合に、当該物体を遮る物体である。別の言い方をすれば、遮蔽物は、当該物体とカメラ20との間にある物体である。以降、遮蔽物により遮られる物体を被遮蔽物という。
被遮蔽物は、遮蔽物により見えなくなる物体又は見えにくくなる物体である。例えば、被遮蔽物が道路32上の一部であれば、遮蔽物は、道路32上にある荷物やビニール袋であってもよいし、道路32を隠す看板などであってもよい。なお、遮蔽物は、透明度を有しない物体であってもよいし、半透明の物体であってもよい。実施形態及び変形例の説明において「影」と記載した箇所は、「遮蔽物」と読み替えることができ、「影部分」と記載した箇所は、「被遮蔽部分」と読み替えることが可能である。
例えば、第1画像I1Hは、空間30の一部に遮蔽物がある様子が写されていてよい。また例えば、第2画像I2Hは、空間30の被遮蔽部分が写されていればよい。また例えば、加工対象領域特定部103は、第1画像I1Hにおいて、遮蔽物が写された加工対象領域を特定すればよい。また例えば、撮影部分領域特定部104は、空間30の被遮蔽部分が写された撮影部分領域Bを特定すればよい。他の処理についても同様に、画像処理装置10は、影ではなく遮蔽物を除去し、影部分ではなく遮蔽部分を復元するようにしてよい。これにより、画像処理装置10は、被遮蔽物を復元する精度を高めることが可能となる。
(9)また例えば、加工対象小領域が個々の画素である場合を説明したが、加工対象小領域は、複数の画素(例えば、3画素×3画素など)であってもよい。この場合、加工対象小領域ごとに画素の数が異なってもよい。また例えば、加工対象領域が加工対象小領域に分けられている場合を説明したが、加工対象領域は、特に複数の領域に分けられていなくてもよい。この場合、撮影部分領域特定部104は、加工対象領域全体に対応する1つの撮影部分領域を特定し、類似領域特定部105は、当該1つの撮影部分領域に類似する1つの類似領域(例えば、影S全体に類似する類似領域)を特定してもよい。そして、加工部106は、1つの類似領域に基づいて、加工対象領域全体の色を変えてもよい。この場合、加工部106は、類似領域をそのまま加工対象領域に貼り付けてもよいし(影S全体に類似する類似領域で一度に影Sを塗りつぶしてもよい)、類似領域の画素値に近づくように、加工対象領域の画素値を変更するようにしてもよい。
また例えば、第2位置Pは、第1位置Pよりも影部分又は被遮蔽部分から離れていなくてもよい。第2位置Pは、影部分又は被遮蔽部分を撮影可能な位置であればよく、第1位置Pよりも影部分又は被遮蔽部分に近くてもよいし同じ距離であってもよい。この場合、第2位置Pからの撮影方向Vは、第1位置Pからの撮影方向Vと異なっていてよい。即ち、第2画像I2Hは、第1画像I1Hとは違う角度から撮影されたことにより、影部分や被遮蔽部分が写されているようにしてよい。この場合には、撮影部分領域Bを特定する際に、角度の違いを考慮にいれたうえで、透視変換及び投影変換が行われるようにすればよい。
また例えば、第1画像I1H及び第2画像I2Hは、全天球カメラで撮影した画像から生成可能なキューブマップであってもよい。また例えば、第1画像I1H及び第2画像I2Hは、正方形でなくてもよく、長方形であってもよいし、他の形状の画像であってもよい。更に、第1画像I1H及び第2画像I2Hは、カラー画像でなくてもよく、グレースケール画像やモノクロ画像であってもよい。また、復元対象となる影部分又は被遮蔽部分は、1つではなく、複数であってもよい。更に、複数の影部分又は被遮蔽部分が含まれている場合に、復元対象となるのは、全部であってもよいし、一部のみであってもよい。
(10)また例えば、上記実施形態及び変形例では、画像処理装置10が、高解像度の第1画像又は第2画像の中から探し出した類似領域に基づいて、加工対象領域の画素値を変える場合を説明したが、低解像度の画像に起因する不自然さを程度は許容する場合には、画像処理装置10が、低解像度の第1画像又は第2画像の中から類似領域を探し、低解像度の画像の画素値に基づいて、加工対象領域の画素値を変えてもよい。例えば、従来技術では、第1画像だけを使って被遮蔽部分を復元しているが、本変形例の画像処理装置10では、第2画像又は低解像度化された第2画像を利用しているので、従来技術に比べて復元の精度を高められる可能性がある。このため、画像処理装置10は、低解像度の第1画像及び低解像度の第2画像の少なくとも一方の中から類似領域を特定し、低解像度の画像の画素値に基づいて、加工対象領域の画素値を変えるようにしてもよい。
また例えば、画像処理装置10は、特に類似領域を特定せず、高解像度又は低解像度の第2画像における撮影部分領域に基づいて、加工対象領域の画素値を変更してもよい。このようにすることでも、第1画像しか利用しない従来技術に比べて、復元の精度を高められる可能性がある。即ち、類似領域特定部105は省略してもよい。この場合、加工部106は、撮影部分領域に基づいて、加工対象領域を加工することになる。領域内の画素値に基づいて加工対象領域を加工する方法自体は、実施形態で説明した方法と同様であってよい。例えば、加工部106は、撮影部分領域の画素値と同じ画素値になるように加工対象領域の画素値を変更してもよいし、撮影部分領域の画素値と同じでなくても、当該画素値に近づくように加工対象領域の画素値を変更してもよい。

Claims (11)

  1. 第1位置から撮影され、空間の一部に影又は遮蔽物がある様子が写された第1画像を取得する第1画像取得手段と、
    前記第1画像における前記空間の影部分又は被遮蔽部分から前記第1位置よりも離れた第2位置から撮影され、前記影部分又は前記被遮蔽部分が写された第2画像を取得する第2画像取得手段と、
    前記第1画像において前記影又は前記遮蔽物が写された加工対象領域を特定する加工対象領域特定手段と、
    前記第1画像における被写体と合うように前記第2画像を低解像度化し、前記低解像度化された第2画像において前記影部分又は前記被遮蔽部分が写された撮影部分領域を特定する撮影部分領域特定手段と、
    前記第1画像及び前記第2画像の少なくとも一方の中から、前記撮影部分領域に類似する類似領域を特定する類似領域特定手段と、
    前記類似領域に基づいて、前記第1画像における前記加工対象領域を加工する加工手段と、
    を含むことを特徴とする画像処理装置。
  2. 前記類似領域特定手段は、前記低解像度化された第2画像の解像度と合うように前記第1画像を低解像度化し、当該低解像度化された第1画像において、前記撮影部分領域に類似する領域を、前記類似領域として特定する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記加工手段は、低解像度化される前の前記第1画像における前記類似領域の画素値に基づいて加工する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記類似領域特定手段は、前記撮影部分領域と、前記第1画像における前記影又は前記遮蔽物を含む周囲領域と、に類似する前記類似領域を特定する、
    ことを特徴とする請求項1〜3の何れかに記載の画像処理装置。
  5. 前記画像処理装置は、前記第1画像及び前記第2画像の少なくとも一方の中から、前記第1画像における前記影又は前記遮蔽物を含む周囲領域に類似する周囲類似領域を特定する周囲類似領域特定手段を更に含み、
    前記加工手段は、更に前記周囲類似領域に基づいて加工する、
    ことを特徴とする請求項1〜3の何れかに記載の画像処理装置。
  6. 前記画像処理装置は、前記第1画像における前記影又は半透明の前記遮蔽物の周囲に基づいて、前記空間の前記影部分又は前記被遮蔽部分を推定する推定手段を更に含み、
    前記加工手段は、更に前記推定手段による推定結果に基づいて加工する、
    ことを特徴とする請求項1〜5の何れかに記載の画像処理装置。
  7. 前記画像処理装置は、
    前記第1画像における前記影又は半透明の前記遮蔽物の周囲に基づいて、前記空間の前記影部分又は前記被遮蔽部分を推定する推定手段と、
    前記推定手段による推定結果に基づいて、前記周囲領域を取得する周囲領域取得手段と、
    を含むことを特徴とする請求項4又は5に記載の画像処理装置。
  8. 前記加工対象領域は、複数の加工対象小領域を含み、
    前記撮影部分領域特定手段は、前記複数の加工対象小領域にそれぞれ対応する複数の前記撮影部分領域を特定し、
    前記類似領域特定手段は、前記複数の撮影部分領域にそれぞれ類似する複数の前記類似領域を特定し、
    前記加工手段は、前記複数の加工対象小領域の各々を、対応する前記撮影部分領域に類似する前記類似領域に基づいて加工する、
    ことを特徴とする請求項1〜7の何れかに記載の画像処理装置。
  9. 前記加工対象小領域は、前記第1画像において前記影又は前記遮蔽物が写された個々の画素又は複数の画素である、
    ことを特徴とする請求項8に記載の画像処理装置。
  10. 第1位置から撮影され、空間の一部に影又は遮蔽物がある様子が写された第1画像を取得する第1画像取得ステップと、
    前記第1画像における前記空間の影部分又は被遮蔽部分から前記第1位置よりも離れた第2位置から撮影され、前記影部分又は前記被遮蔽部分が写された第2画像を取得する第2画像取得ステップと、
    前記第1画像において前記影又は前記遮蔽物が写された加工対象領域を特定する加工対象領域特定ステップと、
    前記第1画像における被写体と合うように前記第2画像を低解像度化し、前記低解像度化された第2画像において前記影部分又は前記被遮蔽部分が写された撮影部分領域を特定する撮影部分領域特定ステップと、
    前記第1画像及び前記第2画像の少なくとも一方の中から、前記撮影部分領域に類似する類似領域を特定する類似領域特定ステップと、
    前記類似領域に基づいて、前記第1画像における前記加工対象領域を加工する加工ステップと、
    を含むことを特徴とする画像処理方法。
  11. 第1位置から撮影され、空間の一部に影又は遮蔽物がある様子が写された第1画像を取得する第1画像取得手段、
    前記第1画像における前記空間の影部分又は被遮蔽部分から前記第1位置よりも離れた第2位置から撮影され、前記影部分又は前記被遮蔽部分が写された第2画像を取得する第2画像取得手段、
    前記第1画像において前記影又は前記遮蔽物が写された加工対象領域を特定する加工対象領域特定手段、
    前記第1画像における被写体と合うように前記第2画像を低解像度化し、前記低解像度化された第2画像において前記影部分又は前記被遮蔽部分が写された撮影部分領域を特定する撮影部分領域特定手段、
    前記第1画像及び前記第2画像の少なくとも一方の中から、前記撮影部分領域に類似する類似領域を特定する類似領域特定手段、
    前記類似領域に基づいて、前記第1画像における前記加工対象領域を加工する加工手段、
    としてコンピュータを機能させるためのプログラム。
JP2016564293A 2016-07-13 2016-07-13 画像処理装置、画像処理方法、及びプログラム Active JP6091727B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070751 WO2018011930A1 (ja) 2016-07-13 2016-07-13 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6091727B1 JP6091727B1 (ja) 2017-03-08
JPWO2018011930A1 true JPWO2018011930A1 (ja) 2018-07-12

Family

ID=58261908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016564293A Active JP6091727B1 (ja) 2016-07-13 2016-07-13 画像処理装置、画像処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US10861138B2 (ja)
EP (1) EP3327662B1 (ja)
JP (1) JP6091727B1 (ja)
ES (1) ES2827177T3 (ja)
WO (1) WO2018011930A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506687B (zh) * 2017-07-17 2020-01-21 Oppo广东移动通信有限公司 活体检测方法及相关产品
CN111986783B (zh) * 2020-08-05 2023-03-28 中南大学湘雅二医院 一种病理图片加载方法及装置
CN112532879B (zh) * 2020-11-26 2022-04-12 维沃移动通信有限公司 图像处理方法及装置
WO2022197072A1 (en) * 2021-03-16 2022-09-22 Samsung Electronics Co., Ltd. Method and apparatus for removing shadows from high resolution images

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6738532B1 (en) * 2000-08-30 2004-05-18 The Boeing Company Image registration using reduced resolution transform space
JP2002354467A (ja) * 2001-05-25 2002-12-06 Nissan Motor Co Ltd 車両周囲情報表示装置
US7362918B2 (en) * 2003-06-24 2008-04-22 Microsoft Corporation System and method for de-noising multiple copies of a signal
US7269299B2 (en) * 2003-10-10 2007-09-11 Orbimage Si Opco, Inc. Image warp
JP4756316B2 (ja) * 2005-03-11 2011-08-24 アイシン精機株式会社 広域画像生成装置及びこれを用いた車両の周辺監視装置並びに広域画像生成方法
JP2007041046A (ja) * 2005-07-29 2007-02-15 Eastman Kodak Co 撮像装置
JP4623122B2 (ja) * 2008-04-03 2011-02-02 ソニー株式会社 画像信号処理装置、画像信号処理方法、およびプログラム
US20090303338A1 (en) * 2008-06-06 2009-12-10 Texas Instruments Incorporated Detailed display of portion of interest of areas represented by image frames of a video signal
SE534551C2 (sv) * 2010-02-15 2011-10-04 Scalado Ab Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild
SE1150505A1 (sv) * 2011-05-31 2012-12-01 Mobile Imaging In Sweden Ab Metod och anordning för tagning av bilder
JP5435307B2 (ja) * 2011-06-16 2014-03-05 アイシン精機株式会社 車載カメラ装置
JP5939705B2 (ja) * 2012-02-08 2016-06-22 カシオ計算機株式会社 被写体判定装置、被写体判定方法及びプログラム
US9858668B2 (en) * 2012-10-05 2018-01-02 Volcano Corporation Guidewire artifact removal in images
US9311756B2 (en) * 2013-02-01 2016-04-12 Apple Inc. Image group processing and visualization
GB2533581B (en) * 2014-12-22 2016-12-07 Ibm Image processing
JP6545997B2 (ja) * 2015-04-24 2019-07-17 日立オートモティブシステムズ株式会社 画像処理装置

Also Published As

Publication number Publication date
WO2018011930A1 (ja) 2018-01-18
JP6091727B1 (ja) 2017-03-08
EP3327662B1 (en) 2020-09-23
ES2827177T3 (es) 2021-05-20
US10861138B2 (en) 2020-12-08
US20180232865A1 (en) 2018-08-16
EP3327662A4 (en) 2019-03-06
EP3327662A1 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
US9811946B1 (en) High resolution (HR) panorama generation without ghosting artifacts using multiple HR images mapped to a low resolution 360-degree image
CN111476737B (zh) 一种图像处理方法、智能设备及计算机可读存储介质
CN108668093B (zh) Hdr图像的生成方法及装置
US10229478B2 (en) Image processing apparatus and image processing method
JP6176598B2 (ja) 寸法測定プログラム、寸法測定装置、及び、寸法測定方法
JP6091727B1 (ja) 画像処理装置、画像処理方法、及びプログラム
CN112367459B (zh) 图像处理方法、电子装置及非易失性计算机可读存储介质
CN105049718A (zh) 一种图像处理方法及终端
CN106604005B (zh) 一种投影电视自动对焦方法及系统
WO2021082883A1 (zh) 主体检测方法和装置、电子设备、计算机可读存储介质
JP5825172B2 (ja) 画像判定装置、画像判定方法及び画像判定用コンピュータプログラム
CN111183630B (zh) 一种智能终端的照片处理方法及处理装置
JP2020088647A (ja) 情報処理装置、情報処理方法及びプログラム
JP4843787B2 (ja) 被写体追尾方法及び装置
CN103632131B (zh) 用于提取对象的设备和方法
JP6669390B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20140368701A1 (en) Cloning image data patch in hole of pixel array (patch and clone)
JP2020009099A (ja) 画像処理装置、画像処理方法、及びプログラム
CN110059681B (zh) 信息处理装置、信息处理方法和存储介质
US10380463B2 (en) Image processing device, setting support method, and non-transitory computer-readable media
JP2019205133A (ja) 画像処理装置、画像処理方法、画像投影システム、およびプログラム
JP5487126B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP7496564B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN114677443B (zh) 光学定位方法、装置、设备及存储介质
JP2011124955A (ja) 画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R150 Certificate of patent or registration of utility model

Ref document number: 6091727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250