JPWO2018180578A1 - 画像処理装置、撮像装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2018180578A1
JPWO2018180578A1 JP2019509274A JP2019509274A JPWO2018180578A1 JP WO2018180578 A1 JPWO2018180578 A1 JP WO2018180578A1 JP 2019509274 A JP2019509274 A JP 2019509274A JP 2019509274 A JP2019509274 A JP 2019509274A JP WO2018180578 A1 JPWO2018180578 A1 JP WO2018180578A1
Authority
JP
Japan
Prior art keywords
image
area
complementary
removal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019509274A
Other languages
English (en)
Other versions
JP7098601B2 (ja
Inventor
貴晶 中川
貴晶 中川
慶太 石川
慶太 石川
宏真 土井
宏真 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2018180578A1 publication Critical patent/JPWO2018180578A1/ja
Application granted granted Critical
Publication of JP7098601B2 publication Critical patent/JP7098601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、より自然な見栄えとなるように補完画像を重畳することができるようにする画像処理装置、撮像装置、画像処理方法、およびプログラムに関する。除去領域選択部は、任意の被写体を撮像して得られる画像から、その画像が撮像された際に取得された被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択する。補完領域特定部は、距離情報に基づいて、除去領域を補完するための補完領域を、画像において除去対象物の背景が写されている領域から特定し、画像重畳処理部は、画像において除去領域が削除された箇所に、補完領域から生成される補完画像を重畳する。本技術は、例えば、いわゆるスマートフォンに適用できる。

Description

本開示は、画像処理装置、撮像装置、画像処理方法、およびプログラムに関し、特に、より自然な見栄えとなるように画像を重畳することができるようにした画像処理装置、撮像装置、画像処理方法、およびプログラムに関する。
近年、現実空間を撮像した画像に、コンピュータグラフィックスにより生成された画像を重畳させるAR(Augmented Reality:拡張現実)を用いた技術が開発されており、その技術を利用した様々なサービスが提供されている。
例えば、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられた撮像装置により撮像された現実空間の画像に、種々の情報や画像などを含むオブジェクトを重畳表示する技術が知られている。また、移動端末に備えられた撮像装置により取得された現実空間の画像から所定のマーカを検出し、そのマーカに対応付けられたオブジェクトを現実空間の画像に重畳して、移動端末に備えられたディスプレイに表示する技術が知られている。
また、特許文献1には、オブジェクトを現実空間の画像に重畳する際の、オブジェクトの色調を考慮するための技術として、現実空間に配置されたマーカの色調に基づいてオブジェクトの色調を補正する技術が提案されている。
特開2012−174116号公報
ところで、上述したように、現実空間を撮像した画像に、コンピュータグラフィックにより生成された画像を重畳させる際に、自然な見栄えとなるように画像を重畳する画像処理を行うためには、非常に強力な処理能力が必要であった。そのため、例えば、処理能力が制限された移動端末などでは、自然な見栄えとなるように画像を重畳することは困難であった。
本開示は、このような状況に鑑みてなされたものであり、より自然な見栄えとなるように画像を重畳することができるようにするものである。
本開示の一側面の画像処理装置は、任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択する除去領域選択部と、前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定する補完領域特定部と、前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する画像重畳処理部とを備える。
本開示の一側面の撮像装置は、任意の被写体を撮像する撮像部と、前記画像が撮像された際の前記被写体までの距離を表す距離情報を取得する距離情報取得部と、前記距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択する除去領域選択部と、前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定する補完領域特定部と、前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する画像重畳処理部とを備える。
本開示の一側面の画像処理方法またはプログラムは、任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択し、前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定し、前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳するステップを含む。
本開示の一側面においては、任意の被写体を撮像して得られる画像から、その画像が撮像された際に取得された被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域が除去領域として選択され、距離情報に基づいて、除去領域を補完するための補完領域が、画像において除去対象物の背景が写されている領域から特定され、画像において除去領域が削除された箇所に、補完領域から生成される補完画像が重畳される。
本開示の一側面によれば、より自然な見栄えとなるように画像を重畳することができる。
本技術を適用した情報処理端末の一実施の形態の構成例を示すブロック図である。 除去対象物の周辺に写されている背景で除去領域を補完する画像処理について説明する。 画像処理部による画像処理を説明するフローチャートである。 除去対象物と略同一の距離にある背景で除去領域を補完する画像処理の一例を説明する図である。 除去対象物よりも遠くの距離にある背景で除去領域を補完する画像処理の一例を説明する図である。 除去対象物に躍動感がある場合における画像処理の一例を説明する図である。 除去対象物が広範囲である場合における画像処理の一例を説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
<情報処理端末の構成例>
図1は、本技術を適用した情報処理端末の一実施の形態の構成例を示すブロック図である。
図1に示すように、情報処理端末11は、操作部12、撮像部13、距離情報取得部14、記憶部15、表示部16、および画像処理部17を備えて構成される。例えば、情報処理端末11は、いわゆるスマートフォンのように様々なアプリケーションをダウンロードして実行可能なデバイスであり、画像処理部17による画像処理は、画像を撮像するアプリケーションの一機能として提供することができる。
操作部12は、例えば、表示部16と一体に構成されるタッチパネルや、各種の物理的なボタンなどにより構成され、ユーザによる操作が行われると、その操作に応じた操作信号を画像処理部17の操作内容取得部21に供給する。
撮像部13は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどにより構成され、被写体を撮像した画像を取得して記憶部15に記憶させる。また、撮像部13によって撮像中の画像を、表示部16にライブビュー表示させてもよい。
距離情報取得部14は、例えば、被写体に向かってパルス状に照射される赤外光の反射を検出するTOF(Time of Flight)センサにより構成され、被写体で反射された赤外光の検出タイミングに基づいて、画像に写されている被写体までの距離(奥行き)を表す距離情報を取得する。
記憶部15は、例えば、書き換え可能な不揮発性メモリにより構成され、撮像部13により撮像された画像と、その画像が撮像されたときに距離情報取得部14により取得された距離情報とを対応付けて記憶する。
表示部16は、液晶パネルや有機EL(Electro Luminescence)パネルなどの表示デバイスにより構成され、ユーザにより画像処理の対象として選択された画像や、その画像に対して画像処理部17により画像処理が施された画像などを表示する。
画像処理部17は、操作内容取得部21、データ取得部22、除去領域選択部23、除去処理部24、画像認識処理部25、補完領域特定部26、周波数解析部27、補完画像生成部28、および画像重畳処理部29を備えて構成される。
操作内容取得部21は、ユーザによる操作に応じて操作部12から供給される操作信号に従って、ユーザが行った操作の内容を示す操作内容を取得して、データ取得部22および除去領域選択部23に対して、その操作内容に従った処理を行わせる。例えば、操作内容取得部21は、画像処理を行う対象とする画像を選択する操作内容を取得すると、その操作内容に従って、データ取得部22に画像および距離情報を取得させる。また、操作内容取得部21は、処理対象の画像から除去される対象となる物体(以下適宜、除去対象物と称する)を指定する操作内容を取得すると、その操作内容に従って、除去領域選択部23に除去対象物が写されている領域を選択させる。
データ取得部22は、ユーザにより選択された処理対象の画像と、その画像に対応付けられている距離情報とを記憶部15から読み出して取得する。そして、データ取得部22は、記憶部15から読み出した画像および距離情報を、除去領域選択部23、画像認識処理部25、および補完領域特定部26に供給する。
除去領域選択部23は、データ取得部22から供給される処理対象の画像から、その画像に写されている被写体の距離情報を参照し、ユーザにより指定された除去対象物が写されている領域を除去領域として選択する。例えば、除去領域選択部23は、画像に写されている被写体までの距離に基づいて、ユーザにより指定された箇所から所定の距離幅内(奥行き方向に向かう所定範囲内)に除去対象物が写されていると特定し、さらにその除去対象物のエッジ(急峻な色や輝度などの変化)を抽出することによって、除去領域を選択することができる。そして、除去領域選択部23は、処理対象の画像を除去処理部24に供給するとともに、除去領域として選択した範囲を除去処理部24に通知する。また、除去領域選択部23は、除去領域として選択した範囲を補完領域特定部26にも通知する。
除去処理部24は、処理対処の画像から、除去領域選択部23により除去領域として選択された範囲を削除する画像処理を行う。そして、除去処理部24は、除去領域が削除された画像を、周波数解析部27および画像重畳処理部29に供給する。
画像認識処理部25は、データ取得部22から供給される画像および距離情報に基づいて、その画像に写されている被写体や構図などを認識する画像認識処理を行う。例えば、画像認識処理部25は、他の被写体よりも手前側にいる人物が大きく写される構図である場合には、その人物がメインの被写体であるという認識結果を取得することができる。そして、画像認識処理部25は、処理対象の画像に対して画像認識処理を行った結果得られる認識結果を、補完領域特定部26に供給する。
補完領域特定部26は、データ取得部22から供給される処理対象の画像から、画像認識処理部25による画像認識処理の認識結果、および、データ取得部22から供給される距離情報に基づいて、除去領域選択部23により選択された除去領域を補完するための補完領域を特定する。なお、補完領域特定部26が補完領域を特定する処理については、後述の図2および図4乃至図7を参照して説明する。そして、補完領域特定部26は、処理対象の画像から補完領域として特定した範囲を補完画像生成部28に通知する。
周波数解析部27は、除去処理部24により除去領域が削除された画像において、除去領域の周辺の領域に写されている物体であって、除去対象物と略同一の距離にある物体が写されている領域(以下適宜、周辺物体領域と称する)に対する周波数解析を行う。そして、周波数解析部27は、例えば、周辺物体領域のカラー情報(R,G,Bデータ)に対して周波数解析を行った結果得られる周波数解析結果を補完画像生成部28に供給する。
補完画像生成部28は、補完領域特定部26により特定された補完領域を処理対象の画像から切り出して、周波数解析部27による周辺物体領域に対する周波数解析結果に基づいたボケやノイズなどを付加するような加工を行う画像加工処理を施す。これにより、補完画像生成部28は、除去領域の周辺と補完画像との違和感を低減させ、よりリアリティのある補完画像を生成することができる。
画像重畳処理部29は、除去処理部24において処理対象の画像から除去領域が削除された箇所に、補完画像生成部28において生成された補完画像を重畳する画像処理を行う。このとき、画像重畳処理部29は、除去領域の周辺と補完画像との境界線をぼかすような画像処理や、除去領域の周辺の明るさに合わせて補完画像の明るさを調整する画像処理などを行うことができる。なお、画像重畳処理部29は、あえて補完画像の輪郭を残すような画像処理を行って、その領域が補完されていることを認識させるようにしてもよい。これにより、画像重畳処理部29は、ユーザにより指定された除去対象物が除去されて補完画像により補完された画像を、画像処理部17による画像処理結果として取得して、記憶部15に記憶させるとともに、表示部16に表示させる。
以上のように情報処理端末11は構成されており、除去領域選択部23により処理対象の画像から選択された除去領域が削除され、補完領域特定部26により特定された補完領域を用いて補完画像生成部28により生成される補完画像で補完する画像処理が行われる。これにより、情報処理端末11は、ユーザにより指定された除去対象物が除去され、除去領域の周辺と補完画像との違和感の少ない自然な見栄えの画像を取得することができる。
図2を参照して、画像処理部17による画像処理の一例として、除去対象物の周辺に写されている背景で除去領域を補完する画像処理について説明する。
例えば、図2の上から1段目に示すような画像が画像処理を行う対象として選択され、ユーザが、メインの被写体として写されている二人の人物の背後で、それらの二人の人物の間に写されている無関係な人物を、除去の対象として指定する操作を行ったとする。
このような操作に応じて、操作内容取得部21は、ユーザにより指定された箇所を除去領域選択部23に通知し、除去対象領域を選択させる。従って、除去領域選択部23は、処理対象の画像に対応付けられている距離情報を参照するとともに、処理対象の画像に写されている除去対象物のエッジを抽出することにより、除去対象領域を選択する。そして、除去処理部24は、除去領域選択部23により選択された除去領域を、処理対象の画像から削除する。なお、図2の上から2段目では、処理対象の画像から削除された除去領域が、格子状のハッチングで表されている。
また、画像認識処理部25は、処理対象の画像に対する画像認識処理を行い、画像の手前側にいる二人の人物がメインとして写された画像であることを認識結果として補完領域特定部26に供給する。従って、補完領域特定部26は、除去領域を補完する補完画像として、メインとなっている二人の人物が写されている領域以外を用いることを決定し、二人の人物が写されている領域を、補完領域を特定する領域から除外する。なお、図2の上から3段目では、補完領域の特定から除外された領域が、斜線のハッチングで表されている。
そして、補完領域特定部26は、処理対象の画像において除去対象物の周辺に写されている背景の領域であって、かつ、メインとなっている二人の人物が写されている領域以外から、補完画像の生成に用いる補完領域を特定する。例えば、図2に示す例では、除去対象物である人物の上半身により遠方の山が隠されているとともに、除去対象物である人物の下半身により足元の地面が隠されていることより、補完領域特定部26は、上半身が山の色となり、かつ、下半身が地面の色となるような補完領域を特定する。なお、図2の上から3段目では、補完領域特定部26により特定された補完領域が破線で囲われている。
続いて、補完画像生成部28は、補完領域特定部26により特定された補完領域を処理対象の画像から切り出して、周辺物体領域に対する周波数解析結果に基づいたボケやノイズなどを付加するような加工を行う加工処理を施すことにより補完画像を生成する。さらに、画像重畳処理部29は、除去処理部24において処理対象の画像から除去領域が削除された箇所に、補完画像生成部28において生成された補完画像を重畳する画像処理を行う。これにより、図2の上から4段目に示すように、ユーザにより指定された除去対象物が除去されて、その除去対象物の周辺に写されている背景で補完された画像が取得される。
このように、画像処理部17は、除去領域選択部23が距離情報を参照することによって、除去領域を容易に特定することができる。例えば、情報処理端末11が、タッチパネルにより除去領域を指定するようなスマートフォンであっても、除去領域選択部23は、ユーザによりタッチされた箇所の距離情報を参照することによって高精度に除去領域を特定することができる。
さらに、画像処理部17は、メインの被写体から除去領域が補完されるような不自然な画像となることを回避して、より自然に除去対象物が除去されたような見栄えとなる画像処理を実行することができる。
即ち、除去領域の周辺の画像を単に利用して、除去対象物が除去された画像を生成するような画像処理を行う場合には、除去領域の近傍にメインの被写体が写されているとき、メインの被写体が写されている領域から除去領域が補完されることがあった。この場合、除去対象物よりも手前にある被写体で補完されるため、例えば、その被写体の輪郭が二重になって現れるような不自然な画像となることが想定される。これに対し、画像処理部17は、上述したように補完領域を特定することで、このような不自然な画像となることを回避することができる。
以上のように、画像処理部17は、除去対象物の周辺に写されている背景から補完領域を適切に特定することができ、より自然に除去対象物が除去された画像を取得することができる。
また、画像処理部17は、距離情報を参照して画像処理を行うことによって、例えば、画像認識のみに基づいて除去領域を特定するのと比較して、演算を軽量化することができる。これにより、例えば、情報処理端末11が、CPU(Central Processing Unit)やGPC(Graphics Processing Cluster)などの処理能力が制限されるようなモバイル機器であったとしても、より自然な見栄えとなるような画像を取得する画像処理を実行ことができる。
<画像処理のフローチャート>
図3は、画像処理部17が実行する画像処理について説明するフローチャートである。
例えば、ユーザが操作部12を操作して、画像処理の対象とする画像を選択すると処理が開始され、ステップS11において、操作内容取得部21は、ユーザによる操作に応じた操作内容を取得して、処理対象として選択された画像をデータ取得部22に通知する。これに応じて、データ取得部22は、ユーザにより選択された処理対象の画像と、その画像に対応付けられている距離情報とを取得し、除去領域選択部23、画像認識処理部25、および補完領域特定部26に供給する。このとき、ユーザにより選択された画像が、表示部16に表示される。
ステップS12において、ユーザが、表示部16に表示されている画像に対して、除去対象物を指定する操作を行うと、操作内容取得部21は、ユーザによる操作に応じた操作内容を取得して除去領域選択部23に供給する。これに応じて、除去領域選択部23は、ステップS11でデータ取得部22から供給される処理対象の画像から、その画像に写されている被写体の距離情報を参照するとともに、処理対象の画像に写されている除去対象物のエッジを抽出することにより、ユーザにより指定された除去対象物が写されている領域を除去領域として選択する。そして、除去領域選択部23は、処理対象の画像を除去処理部24に供給するとともに、除去領域として選択した範囲を除去処理部24および補完領域特定部26に通知する。
ステップS13において、除去処理部24は、ステップS12で除去領域選択部23から供給された処理対象の画像から除去領域を削除する画像処理を行う。そして、除去処理部24は、除去領域が削除された画像を、周波数解析部27および画像重畳処理部29に供給する。
ステップS14において、画像認識処理部25は、ステップS11でデータ取得部22から供給された画像および距離情報に基づいて、その画像に写されている被写体を認識する画像認識処理を行う。例えば、図2を参照して上述したように、画像認識処理部25は、処理対象の画像においてメインとなる構図で写されている人物を認識し、その人物が写されている領域を、画像認識処理の認識結果として補完領域特定部26に供給する。
ステップS15において、補完領域特定部26は、ステップS11でデータ取得部22から供給された距離情報、および、ステップS14における画像認識処理部25による画像認識処理の認識結果に基づいて、除去領域選択部23により選択された除去領域を補完するための補完領域を特定する。例えば、図2を参照して説明したように、補完領域特定部26は、処理対象の画像において除去対象物の周辺に写されている背景の領域であって、かつ、メインとなっている人物が写されている領域以外から、補完画像の生成に用いる補完領域を特定する。
ステップS16において、周波数解析部27は、ステップS13で除去処理部24から供給された除去領域が削除された画像における周辺物体領域に対する周波数解析を行って、周波数解析結果を補完画像生成部28に供給する。
ステップS17において、補完画像生成部28は、ステップS15で補完領域特定部26により特定された補完領域を処理対象の画像から切り出す。そして、補完画像生成部28は、その切り出した画像に対して、周波数解析部27による周波数解析結果に基づいてボケやノイズなどを付加するような加工を行う加工処理を施して、画像重畳処理部29に供給する。
ステップS18において、画像重畳処理部29は、ステップS13で除去処理部24において処理対象の画像から除去領域が削除された箇所に、ステップS17で補完画像生成部28において生成された補完画像を重畳する画像処理を行う。これにより、画像重畳処理部29は、ユーザにより指定された除去対象物が除去されて補完画像により補完された画像を、画像処理部17による画像処理結果として取得して、記憶部15に記憶させるとともに、表示部16に表示させた後、画像処理は終了される。
以上のように、画像処理部17は、除去対象物の周辺に写されている背景から除去領域を補完する補完画像を適切に生成することができ、より自然に除去対象物が除去されたような画像を取得する画像処理を実行することができる。
<各種の画像処理例>
図4乃至図7を参照して、画像処理部17により実行される各種の画像処理例について説明する。
まず、図4を参照して、除去対象物と略同一の距離にある背景で除去領域を補完する画像処理について説明する。
例えば、図4の上から1段目に示すような画像が画像処理を行う対象として選択され、ユーザが、画像に写されている複数の人物よりも奥側にある壁の付近に置かれている物体を、除去の対象として指定する操作を行ったとする。
このような操作に応じて、操作内容取得部21は、ユーザにより指定された箇所を除去領域選択部23に通知し、除去対象領域を選択させる。従って、除去領域選択部23は、処理対象の画像に対応付けられている距離情報を参照するとともに、処理対象の画像に写されている除去対象物のエッジを抽出することにより、除去対象領域を選択する。そして、除去処理部24は、除去領域選択部23により選択された除去領域を、処理対象の画像から削除する。なお、図4の上から2段目では、処理対象の画像から削除された除去領域が、格子状のハッチングで表されている。
また、画像認識処理部25は、処理対象の画像に対する画像認識処理を行い、除去対象物が壁の付近に置かれていること、即ち、除去対象物の背後側の略同一の距離に壁があることを認識結果として補完領域特定部26に供給する。従って、補完領域特定部26は、除去領域を補完する補完画像として壁が写されている領域を用いることを決定し、その壁以外の領域を、補完領域を特定する領域から除外する。なお、図4の上から3段目では、補完領域の特定から除外された領域が、斜線のハッチングで表されている。
そして、補完領域特定部26は、処理対象の画像において除去対象物の周辺に写されている背景の領域であって、かつ、除去対象物と略同一の距離にある壁が写されている領域から、補完画像の生成に用いる補完領域を特定する。例えば、図4に示す例では、補完領域特定部26は、除去対象物に隣接する壁が写されている領域を、補完領域として特定する。なお、図4の上から3段目では、補完領域特定部26により特定された補完領域が破線で囲われている。
続いて、補完画像生成部28は、補完領域特定部26により特定された補完領域を処理対象の画像から切り出して、周辺物体領域に対する周波数解析結果に基づいたボケやノイズなどを付加するような加工を行う加工処理を施すことにより補完画像を生成する。さらに、画像重畳処理部29が、除去処理部24において処理対象の画像から除去領域が削除された箇所に、補完画像生成部28において生成された補完画像を重畳する画像処理を行う。これにより、図4の上から4段目に示すように、ユーザにより指定された除去対象物が除去されて、その除去対象物と略同一の距離にある壁で補完された画像が取得される。
以上のように、画像処理部17は、除去対象物と略同一の距離にある背景で除去領域を補完することができ、より自然な見栄えとなるように補完画像が重畳された画像を取得することができる。
次に、図5を参照して、除去対象物よりも遠くの距離にある背景で除去領域を補完する画像処理について説明する。
例えば、図5の上から1段目に示すような画像が画像処理を行う対象として選択され、ユーザが、画像に写されている複数の人物よりも遠くに座っている人物を、除去の対象として指定する操作を行ったとする。
このような操作に応じて、操作内容取得部21は、ユーザにより指定された箇所を除去領域選択部23に通知し、除去対象領域を選択させる。従って、除去領域選択部23は、処理対象の画像に対応付けられている距離情報を参照するとともに、処理対象の画像に写されている除去対象物のエッジを抽出することにより、除去対象領域を選択する。そして、除去処理部24は、除去領域選択部23により選択された除去領域を、処理対象の画像から削除する。なお、図5の上から2段目では、処理対象の画像から削除された除去領域が、格子状のハッチングで表されている。
また、画像認識処理部25は、処理対象の画像に対する画像認識処理を行い、除去対象物がメインとなる被写体よりも所定距離以上に離れた位置にあり、ほぼ風景とみなしてもよい程度の遠くにあることを認識結果として補完領域特定部26に供給する。従って、補完領域特定部26は、除去領域を補完する補完画像として除去対象物よりも遠くの距離にある背景が写されている領域を用いることを決定し、その背景以外の領域を、補完領域を特定する領域から除外する。このとき、補完領域特定部26は、除去対象物と同程度の距離に置かれている他の物体(図5の例では、自転車)が写されている領域も、補完領域を特定する領域から除外する。なお、図5の上から3段目では、補完領域の特定から除外された領域が、斜線のハッチングで表されている。
そして、補完領域特定部26は、処理対象の画像において除去対象物の周辺に写されている背景の領域であって、かつ、処理対象の画像において除去対象物よりも遠くの距離にある背景が写されている領域から、補完画像の生成に用いる補完領域を特定する。例えば、図5に示す例では、補完領域特定部26は、除去対象物の近傍であって、除去対象物と同程度の距離に置かれている自転車を除いた領域を、補完領域として特定する。なお、図5の上から3段目では、補完領域特定部26により特定された補完領域が破線で囲われている。
そして、補完画像生成部28は、補完領域特定部26により特定された補完領域を処理対象の画像から切り出して、周辺物体領域に対する周波数解析結果に基づいたボケやノイズなどを付加するような加工を行う加工処理を施すことにより補完画像を生成する。さらに、画像重畳処理部29が、除去処理部24において処理対象の画像から除去領域が削除された箇所に、補完画像生成部28において生成された補完画像を重畳する画像処理を行う。これにより、図5の上から4段目に示すように、ユーザにより指定された除去対象物が除去されて、その除去対象物よりも遠くの距離にある背景で補完された画像が取得される。
以上のように、画像処理部17は、除去対象物よりも遠くの距離にある背景で除去領域を補完することができ、より自然な見栄えとなるように補完画像が重畳された画像を取得することができる。
次に、図6を参照して、除去対象物に躍動感がある場合における画像処理について説明する。
例えば、図6の上から1段目に示すような画像が画像処理を行う対象としてユーザにより選択されたとする。ここで、処理対象の画像は、走っている人物をメインの被写体として、その被写体の動きに合わせて、いわゆる流し撮りを行うことにより撮像されたものであり、被写体の背景に写り込んでいる人物に対して、水平方向へ流れるようなブレが生じている。ところで、このような流し撮りで撮像した画像において、背景に写り込んでいる人物の顔を認識することができる場合があり、ユーザは、背景に写り込んでいる人物の顔を除去の対象として指定する操作を行う。
このような操作に応じて、操作内容取得部21は、ユーザにより指定された箇所を除去領域選択部23に通知し、除去対象領域を選択させる。従って、除去領域選択部23は、処理対象の画像に対応付けられている距離情報を参照するとともに、処理対象の画像に写されている除去対象物に対する顔認識を行うことにより、除去対象領域を選択する。そして、除去処理部24は、除去領域選択部23により選択された除去領域を、処理対象の画像から削除する。なお、図6の上から2段目では、処理対象の画像から削除された除去領域が、格子状のハッチングで表されている。
また、画像認識処理部25は、処理対象の画像に対する画像認識処理を行い、除去対象物の周辺に流れるようなブレが生じていることを認識結果として補完領域特定部26に供給する。従って、補完領域特定部26は、除去領域を補完する補完画像として、除去対象物の周辺において流れるようなブレが生じている領域から、補完画像の生成に用いる補完領域を特定する。例えば、図6に示す例では、除去対象領域として選択された顔の人物の胴体部分の領域が、補完領域として特定されている。なお、図6の上から3段目では、補完領域特定部26により特定された補完領域が破線で囲われている。
続いて、補完画像生成部28は、補完領域特定部26により特定された補完領域を処理対象の画像から切り出して、周辺物体領域に対する周波数解析結果に基づいたボケやノイズなどを付加するような加工を行う加工処理を施すことにより補完画像を生成する。さらに、画像重畳処理部29は、除去処理部24において処理対象の画像から除去領域が削除された箇所に、補完画像生成部28において生成された補完画像を重畳する画像処理を行う。これにより、図6の上から4段目に示すように、ユーザにより指定された除去対象物が除去されて、その除去対象物の周辺と同様に流れるようなブレがあり、躍動感があるように補完された画像が取得される。
以上のように、画像処理部17は、除去対象物の周辺と同様に流れるようなブレが生じる除去領域を補完することができ、より自然な見栄えとなるように補完画像が重畳された画像を取得することができる。
例えば、単に、除去領域の周辺の色で補完を行った場合には、その補完を行った領域だけ静止しているような躍動感のない画像が取得されることになり、除去対象物の周辺の流れるようなブレに対して違和感がある画像となってしまう。これに対し、画像処理部17は、除去領域が静止しているような画像となることを回避して、除去領域においても周辺と同様に躍動感があり、このような違和感のない画像を取得することができる。
次に、図7を参照して、除去対象物が広範囲である場合における画像処理について説明する。
例えば、図7の上から1段目に示すような画像が画像処理を行う対象として選択され、ユーザが、画像において手前側に写されている屋根を、除去の対象として指定する操作を行ったとする。
このような操作に応じて、操作内容取得部21は、ユーザにより指定された箇所を除去領域選択部23に通知し、除去対象領域を選択させる。従って、除去領域選択部23は、処理対象の画像に対応付けられている距離情報を参照するとともに、処理対象の画像に写されている除去対象物のエッジを抽出することにより、除去対象領域を選択する。そして、除去処理部24は、除去領域選択部23により選択された除去領域を、処理対象の画像から削除する。なお、図7の上から2段目では、処理対象の画像から削除された除去領域が、格子状のハッチングで表されている。
また、画像認識処理部25は、処理対象の画像に対する画像認識処理を行い、除去対象物の周囲を囲う色味を確認して認識結果として取得し、除去対象物により隠されている背景が広範囲な海であることを画像認識処理の認識結果として補完領域特定部26に供給する。従って、補完領域特定部26は、除去領域を補完する補完画像として海が写されている領域を用いるものとして、その海以外の領域を、補完領域を特定する領域から除外する。なお、図7の上から3段目では、補完領域の特定から除外された領域(例えば、海を囲う岩場や空など)が、斜線のハッチングで表されている。
そして、補完領域特定部26は、処理対象の画像において除去対象物の周辺を囲うように写されている背景の領域から、補完画像の生成に用いる補完領域を特定する。例えば、図7に示す例では、除去対象物の周辺を囲っている海が写されている全ての領域が、補完領域として特定される。
続いて、補完画像生成部28は、補完領域特定部26により特定された補完領域を処理対象の画像から切り出して、周辺物体領域に対する周波数解析結果に基づいたボケやノイズなどを付加するような加工を行う加工処理を施すことにより補完画像を生成する。さらに、画像重畳処理部29は、除去処理部24において処理対象の画像から除去領域が削除された箇所に、補完画像生成部28において生成された補完画像を重畳する画像処理を行う。これにより、図7の上から4段目に示すように、ユーザにより指定された除去対象物が除去されて、その除去対象物の周辺を囲うように写されている海(その海の色味)を用いて、海以外の岩場や空などが用いられることなく補完された画像が取得される。
以上のように、画像処理部17は、除去対象物が広範囲であっても、除去対象物を囲うように写されている背景で除去領域を補完することができ、より自然な見栄えとなるように補完画像が重畳された画像を取得することができる。
上述の図2および図4乃至図7を参照して説明したように、画像処理部17は、ユーザにより指定された除去対象物を自然に除去するような各種の画像処理を行うことができる。なお、画像処理部17により実行される画像処理は、上述したような画像処理例に限定されることはない。
例えば、画像処理部17は、記憶部15に記録されている撮像済みの画像の他、情報処理端末11による撮像を行う際に、その撮像により得られる結果の画像に対する効果として、除去対象物を自然に除去するような画像処理を行うことができる。また、画像処理部17は、静止画像だけではなく、動画像に対しても同様の画像処理を行うことができ、例えば、認識された除去対象物を追従して除去することができる。この場合、表示部16には、画像処理部17により画像処理が施された画像がリアルタイムに表示される。
また、距離情報取得部14としては、上述したようなTOFセンサの採用に限定されることなく、距離情報を取得することが可能な様々な技術を採用することができる。例えば、撮像部13のセンサ面に配置される画素の一部に、距離情報を取得する画素が埋め込まれるように、撮像部13および距離情報取得部14が一体となる構成を採用してもよい。
なお、画像処理部17は、撮像部13に光を集光するレンズの収差に基づいて、画像に重畳される補完画像に、あえてレンズ収差に起因する歪を生じさせるような補正を行ってもよい。例えば、被写体までの距離に応じてレンズによる空間の歪み方が変化するため、画像処理部17は、除去対象物の距離情報に従って補完画像に歪を生じさせることによって、よりリアリティのある画像を取得することができる。
さらに、画像処理部17は、画像全体の距離情報の変化に基づいて情報処理端末11の移動速度を求めることができ、補完画像生成部28は、移動速度を補正して補完画像を生成することができる。例えば、情報処理端末11の移動速度が一定であっても、遠くにある物体は、近くにある物体と比較して画像上の移動量が小さくなる。具体的には、電車に乗っているユーザが車外を撮像する場合、遠くの山は画像上で移動量が小さいのに対し、電車の近くにある架線柱などは画像上に一瞬しか写らない。このように、被写体までの距離に応じた移動速度で、画像に重畳される補完画像を補正することで、より自然な画像を取得することができる。
また、画像処理部17は、除去対象物に対するライティングを、除去対象物の距離情報と、除去対象物の周辺の画像のカラー情報(R,G,Bデータ)とに基づいて推定することができ、補完画像生成部28は、ライティングを補正して補完画像を生成することができる。従って、画像処理部17は、除去対象物が除去されて補完画像により補完された画像のリアリティを向上させることができる。
ところで、ここで説明したような補完画像により補完された画像のリアリティを向上させる技術は、処理対象の画像から切り出された補完画像に対して適用されるのに限られることはない。即ち、画像処理部17による画像処理は、その他の様々な画像に対して適用することができ、例えば、AR技術において、現実空間を撮像した画像に対して重畳される、コンピュータグラフィックスにより生成された任意のCG(Computer Graphics)画像に対して適用することができる。
このとき、補完画像生成部28は、図示しないCG画像生成部から供給されるCG画像に対し、そのCG画像を重畳させる領域の周辺物体領域に対して周波数解析部27により行われる周波数解析結果に基づいたボケやノイズなどを付加するような加工を行う画像加工処理を施すことができる。その他、補完画像生成部28は、上述したようなレンズ収差に起因する歪を生じさせたり、移動速度に基づいて補正したり、ライティングを補正するような画像加工処理を行うことで、現実空間を撮像した画像に対してCG画像を重畳した際のリアリティを向上させることができる。または、補完画像生成部28は、現実空間を撮像した画像の解像度に合わせて、CG画像の解像度を調整する画像加工処理を行ってもよい。
このような各種の画像加工処理を行うことによって、現実空間を撮像した画像にCG画像を重畳した際に、例えば、CG画像だけが周辺から浮き上がって見えるようなことを回避して、CG画像を、その周辺領域に同化させることができる。これにより、現実空間を撮像した画像にCG画像が馴染んで、より自然な見栄えとすることができる。
なお、画像処理部17による画像処理をAR技術に適用する場合、除去領域選択部23は、処理対象の画像に写されている被写体の距離情報を参照し、その画像に対する画像認識処理部25による画像認識処理に基づいて、例えば、被写体の構図に応じてCG画像を重畳させる領域を特定することができる。そして、除去領域選択部23は、その特定した領域を、CG画像を重畳させることにより隠れる除去領域(特に除去対象物が写されてはいない領域)として選択することができる。従って、この場合、画像重畳処理部29は、除去領域選択部23により特定された領域に、補完画像生成部28において画像加工処理が施されたCG画像を重畳する画像処理を行うことができる。
さらに、このような画像処理によって重畳させる画像はCG画像に限定されることはなく、所望の画像を重畳させることができる。例えば、所望の被写体を撮像した任意の動画像から、その被写体が映されている領域を切り出して得られる所望の画像を、上述の現実空間を撮像した画像を背景として、重畳させてもよい。その際、所望の画像に対して上述したような画像加工処理を行うことで、違和感の生じないように合成させることができる。
なお、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。また、プログラムは、単一のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
また、上述した一連の処理(画像処理方法)は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラムが記録されたプログラム記録媒体からインストールされる。
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
<構成の組み合わせ例>
なお、本技術は以下のような構成も取ることができる。
(1)
任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択する除去領域選択部と、
前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定する補完領域特定部と、
前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する画像重畳処理部と
を備える画像処理装置。
(2)
前記補完領域特定部により特定された前記補完領域を前記画像から切り出して前記補完画像を生成する補完画像生成部
をさらに備える上記(1)に記載の画像処理装置。
(3)
前記除去領域の周辺において前記除去対象物と略同一の距離にある物体が写されている領域に対する周波数解析を行う周波数解析部
をさらに備え、
前記補完画像生成部は、前記画像から切り出した前記補完画像に対し、前記周波数解析部による周波数解析結果に基づいたボケまたはノイズを付加する画像加工処理を施す
上記(1)または(2)に記載の画像処理装置。
(4)
前記画像に写されている前記被写体、および前記被写体の構図を認識する画像認識処理部をさらに備え、
前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて前記補完領域を特定する
上記(1)から(3)までのいずれかに記載の画像処理装置。
(5)
前記画像認識処理部は、前記距離情報に基づいて、前記画像において他の被写体よりも手前側にいる人物が大きく写される構図である場合には、その人物がメインの被写体であるという認識結果を取得し、
前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、メインの被写体として認識された人物が写されている領域以外から前記補完領域を特定する
上記(4)に記載の画像処理装置。
(6)
前記画像認識処理部は、前記距離情報に基づいて、前記除去対象物の背後側の略同一の距離に他の物体があることを認識結果として取得し、
前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記除去対象物と略同一の距離にある前記他の物体が写されている領域から前記補完領域を特定する
上記(4)に記載の画像処理装置。
(7)
前記画像認識処理部は、前記距離情報に基づいて、前記除去対象物が所定距離以上に離れた位置にあることを認識結果として取得し、
前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記除去対象物よりも遠くの距離にある背景が写されている領域から前記補完領域を特定する
上記(4)に記載の画像処理装置。
(8)
前記画像認識処理部は、前記除去対象物の周辺に流れるようなブレが生じていることを認識結果として取得し、
前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記除去対象物の周辺において流れるようなブレが生じている領域から前記補完領域を特定する
上記(4)に記載の画像処理装置。
(9)
前記画像認識処理部は、前記除去対象物の周囲を囲う色味を認識結果として取得し、
前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記色味以外となっている領域を、前記補完領域を特定する領域から除外する
上記(4)に記載の画像処理装置。
(10)
前記画像を背景として、所望の画像を重畳させる際に、
前記除去領域選択部は、前記距離情報を参照して、前記除去領域として、前記所望の画像を重畳させることにより隠れる領域を選択し、
前記補完画像生成部は、前記所望の画像に対して、前記周波数解析部による周波数解析結果に基づいたボケまたはノイズを付加する画像加工処理を施し、
前記画像重畳処理部は、前記除去領域選択部により選択された前記領域に、前記補完画像生成部において画像加工処理が施された前記所望の画像を重畳する
上記(3)または(4)に記載の画像処理装置。
(11)
任意の被写体を撮像する撮像部と、
前記画像が撮像された際の前記被写体までの距離を表す距離情報を取得する距離情報取得部と、
前記距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択する除去領域選択部と、
前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定する補完領域特定部と、
前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する画像重畳処理部と
を備える撮像装置。
(12)
任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択し、
前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定し、
前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する
ステップを含む画像処理方法。
(13)
任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択し、
前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定し、
前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する
ステップを含む画像処理をコンピュータに実行させるプログラム。
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
11 情報処理端末, 12 操作部, 13 撮像部, 14 距離情報取得部, 15 記憶部, 16 表示部, 17 画像処理部, 21 操作内容取得部, 22 データ取得部, 23 除去領域選択部, 24 除去処理部, 25 画像認識処理部, 26 補完領域特定部, 27 周波数解析部, 28 補完画像生成部, 29 画像重畳処理部

Claims (13)

  1. 任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択する除去領域選択部と、
    前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定する補完領域特定部と、
    前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する画像重畳処理部と
    を備える画像処理装置。
  2. 前記補完領域特定部により特定された前記補完領域を前記画像から切り出して前記補完画像を生成する補完画像生成部
    をさらに備える請求項1に記載の画像処理装置。
  3. 前記除去領域の周辺において前記除去対象物と略同一の距離にある物体が写されている領域に対する周波数解析を行う周波数解析部
    をさらに備え、
    前記補完画像生成部は、前記画像から切り出した前記補完画像に対し、前記周波数解析部による周波数解析結果に基づいたボケまたはノイズを付加する画像加工処理を施す
    請求項2に記載の画像処理装置。
  4. 前記画像に写されている前記被写体、および前記被写体の構図を認識する画像認識処理部をさらに備え、
    前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて前記補完領域を特定する
    請求項1に記載の画像処理装置。
  5. 前記画像認識処理部は、前記距離情報に基づいて、前記画像において他の被写体よりも手前側にいる人物が大きく写される構図である場合には、その人物がメインの被写体であるという認識結果を取得し、
    前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、メインの被写体として認識された人物が写されている領域以外から前記補完領域を特定する
    請求項4に記載の画像処理装置。
  6. 前記画像認識処理部は、前記距離情報に基づいて、前記除去対象物の背後側の略同一の距離に他の物体があることを認識結果として取得し、
    前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記除去対象物と略同一の距離にある前記他の物体が写されている領域から前記補完領域を特定する
    請求項4に記載の画像処理装置。
  7. 前記画像認識処理部は、前記距離情報に基づいて、前記除去対象物が所定距離以上に離れた位置にあることを認識結果として取得し、
    前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記除去対象物よりも遠くの距離にある背景が写されている領域から前記補完領域を特定する
    請求項4に記載の画像処理装置。
  8. 前記画像認識処理部は、前記除去対象物の周辺に流れるようなブレが生じていることを認識結果として取得し、
    前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記除去対象物の周辺において流れるようなブレが生じている領域から前記補完領域を特定する
    請求項4に記載の画像処理装置。
  9. 前記画像認識処理部は、前記除去対象物の周囲を囲う色味を認識結果として取得し、
    前記補完領域特定部は、前記画像認識処理部が取得した認識結果に基づいて、前記色味以外となっている領域を、前記補完領域を特定する領域から除外する
    請求項4に記載の画像処理装置。
  10. 前記画像を背景として、所望の画像を重畳させる際に、
    前記除去領域選択部は、前記距離情報を参照して、前記除去領域として、前記所望の画像を重畳させることにより隠れる領域を選択し、
    前記補完画像生成部は、前記所望の画像に対して、前記周波数解析部による周波数解析結果に基づいたボケまたはノイズを付加する画像加工処理を施し、
    前記画像重畳処理部は、前記除去領域選択部により選択された前記領域に、前記補完画像生成部において画像加工処理が施された前記所望の画像を重畳する
    請求項3に記載の画像処理装置。
  11. 任意の被写体を撮像する撮像部と、
    前記画像が撮像された際の前記被写体までの距離を表す距離情報を取得する距離情報取得部と、
    前記距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択する除去領域選択部と、
    前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定する補完領域特定部と、
    前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する画像重畳処理部と
    を備える撮像装置。
  12. 任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択し、
    前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定し、
    前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する
    ステップを含む画像処理方法。
  13. 任意の被写体を撮像して得られる画像から、前記画像が撮像された際に取得された前記被写体までの距離を表す距離情報を参照して、所望の除去対象物が写されている領域を除去領域として選択し、
    前記距離情報に基づいて、前記除去領域を補完するための補完領域を、前記画像において前記除去対象物の背景が写されている領域から特定し、
    前記画像において前記除去領域が削除された箇所に、前記補完領域から生成される補完画像を重畳する
    ステップを含む画像処理をコンピュータに実行させるプログラム。
JP2019509274A 2017-03-31 2018-03-16 画像処理装置、撮像装置、画像処理方法、およびプログラム Active JP7098601B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017069804 2017-03-31
JP2017069804 2017-03-31
PCT/JP2018/010396 WO2018180578A1 (ja) 2017-03-31 2018-03-16 画像処理装置、撮像装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018180578A1 true JPWO2018180578A1 (ja) 2020-02-06
JP7098601B2 JP7098601B2 (ja) 2022-07-11

Family

ID=63675419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019509274A Active JP7098601B2 (ja) 2017-03-31 2018-03-16 画像処理装置、撮像装置、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11170511B2 (ja)
JP (1) JP7098601B2 (ja)
WO (1) WO2018180578A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020136899A (ja) * 2019-02-19 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器、および撮像方法
CN110139028B (zh) * 2019-03-25 2020-07-07 华为技术有限公司 一种图像处理的方法及头戴式显示设备
US11513669B2 (en) * 2020-02-28 2022-11-29 Micron Technology, Inc. User interface for modifying pictures
CN112884796A (zh) * 2021-01-13 2021-06-01 辽宁省视讯技术研究有限公司 一种基于多图像智能识别的背景群去除系统
KR102304609B1 (ko) * 2021-01-20 2021-09-24 주식회사 딥바이오 조직 검체 이미지 정제 방법, 및 이를 수행하는 컴퓨팅 시스템
CN116567410B (zh) * 2023-07-10 2023-09-19 芯知科技(江苏)有限公司 基于场景识别的辅助拍照方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304261A (ja) * 2003-03-28 2004-10-28 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP2011170838A (ja) * 2010-01-20 2011-09-01 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2013038468A (ja) * 2011-08-03 2013-02-21 Canon Inc 画像処理装置及び画像処理方法、撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2013045316A (ja) * 2011-08-25 2013-03-04 Sanyo Electric Co Ltd 画像処理装置及び画像処理方法
JP2013077873A (ja) * 2011-09-29 2013-04-25 Casio Comput Co Ltd 画像処理装置、画像処理方法、及び、プログラム
JP2013168048A (ja) * 2012-02-16 2013-08-29 Nippon Hoso Kyokai <Nhk> 画像修正装置及びそのプログラム
WO2013179560A1 (ja) * 2012-05-30 2013-12-05 パナソニック株式会社 画像処理装置および画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5784498A (en) * 1996-01-11 1998-07-21 Xerox Corporation System and method for synthesizing background texture in an image
US6661918B1 (en) * 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6587592B2 (en) * 2001-11-16 2003-07-01 Adobe Systems Incorporated Generating replacement data values for an image region
JP5328510B2 (ja) * 2009-06-24 2013-10-30 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
KR101636370B1 (ko) * 2009-11-10 2016-07-05 삼성전자주식회사 영상 처리 장치 및 방법
RU2426172C1 (ru) * 2010-01-21 2011-08-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
JP2012174116A (ja) 2011-02-23 2012-09-10 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
CN103377462B (zh) * 2012-04-16 2016-05-04 富士通株式会社 对扫描图像进行处理的方法和装置
US9406135B2 (en) * 2012-10-29 2016-08-02 Samsung Electronics Co., Ltd. Device and method for estimating head pose
US9634942B2 (en) * 2013-11-11 2017-04-25 Amazon Technologies, Inc. Adaptive scene complexity based on service quality
US9412153B2 (en) * 2014-12-11 2016-08-09 Sony Corporation Using depth for recovering missing information in an image
US9396400B1 (en) * 2015-07-30 2016-07-19 Snitch, Inc. Computer-vision based security system using a depth camera
US10586383B2 (en) * 2017-06-20 2020-03-10 Microsoft Technology Licensing, Llc Three-dimensional object scan using data from infrared sensor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304261A (ja) * 2003-03-28 2004-10-28 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP2011170838A (ja) * 2010-01-20 2011-09-01 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2013038468A (ja) * 2011-08-03 2013-02-21 Canon Inc 画像処理装置及び画像処理方法、撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2013045316A (ja) * 2011-08-25 2013-03-04 Sanyo Electric Co Ltd 画像処理装置及び画像処理方法
JP2013077873A (ja) * 2011-09-29 2013-04-25 Casio Comput Co Ltd 画像処理装置、画像処理方法、及び、プログラム
JP2013168048A (ja) * 2012-02-16 2013-08-29 Nippon Hoso Kyokai <Nhk> 画像修正装置及びそのプログラム
WO2013179560A1 (ja) * 2012-05-30 2013-12-05 パナソニック株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US11170511B2 (en) 2021-11-09
WO2018180578A1 (ja) 2018-10-04
JP7098601B2 (ja) 2022-07-11
US20200380697A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP7098601B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
KR101670282B1 (ko) 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅
CN107408205B (zh) 用红外成像区分前景和背景
US20190098277A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP5528399B2 (ja) 電子透かし埋め込み方法、電子透かし検出方法及び装置並びにプログラム
US9253373B2 (en) Flare detection and mitigation in panoramic images
US20130182012A1 (en) Method of providing augmented reality and terminal supporting the same
JP7391542B2 (ja) 画像処理システム、画像処理方法、およびプログラム
WO2016026466A1 (zh) 一种光绘图像的优化方法及装置
US9418436B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP2555163B1 (en) Image processing apparatus, image processing method, and program
KR20110124965A (ko) 아웃 포커싱 촬영에서 빛망울 효과를 생성하기 위한 장치 및 방법
JP5531865B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20120090491A (ko) 정지장면의 연속프레임 영상에 기반한 영상분할장치 및 방법
JP6152787B2 (ja) 情報埋め込み装置、情報検出装置、情報埋め込み方法、及び情報検出方法
JP2013025329A (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
US11496661B2 (en) Image processing apparatus and image processing method
KR20190030870A (ko) 가상 크로마키 배경을 이용하여 영상을 합성하는 장치, 방법 및 컴퓨터 프로그램
JP2017050720A (ja) 情報埋め込み装置、情報埋め込み方法、及び情報埋め込みプログラム
GB2541073A (en) Information processing apparatus, method for controlling information processing apparatus, image processing system and storage medium
JP2010154306A (ja) 撮像制御装置、撮像制御プログラム及び撮像制御方法
JP6056511B2 (ja) 画像処理装置、方法、及びプログラム、並びに撮像装置
JP6389452B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JPWO2018155269A1 (ja) 画像処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150