JP6708407B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6708407B2
JP6708407B2 JP2015254346A JP2015254346A JP6708407B2 JP 6708407 B2 JP6708407 B2 JP 6708407B2 JP 2015254346 A JP2015254346 A JP 2015254346A JP 2015254346 A JP2015254346 A JP 2015254346A JP 6708407 B2 JP6708407 B2 JP 6708407B2
Authority
JP
Japan
Prior art keywords
image
map
image processing
pixel
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015254346A
Other languages
English (en)
Other versions
JP2017117334A (ja
JP2017117334A5 (ja
Inventor
恭平 菊田
恭平 菊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015254346A priority Critical patent/JP6708407B2/ja
Priority to US15/385,736 priority patent/US10262444B2/en
Publication of JP2017117334A publication Critical patent/JP2017117334A/ja
Publication of JP2017117334A5 publication Critical patent/JP2017117334A5/ja
Application granted granted Critical
Publication of JP6708407B2 publication Critical patent/JP6708407B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は複数の画像を合成して広視野角の画像を生成する処理に関する。
1回の撮像で取得できる画像に対し、より高解像度、広視野角の画像を取得するための方法として、複数の画像をつなぎ合わせて合成し1枚の出力画像を生成する方法がある。この合成をスティッチ処理と言う。スティッチ処理の流れの一例としては、まず、複数の入力画像に基づき、各入力画像に対応する撮像時のカメラの相対位置関係を推定する。次いで、推定された相対位置関係に基づき各入力画像を共通の出力画像座標系にマッピングして各入力画像の写像を取得し、写像の重複部分においては画像をアルファ・ブレンディング処理(以下、ブレンド処理)することにより、出力画像を生成する。また、重複部分全体でブレンド処理を行う代わりに、重複部分においてつなぎ合わせる画像の境界線を決定し、境界線近傍のみでブレンド処理を行う場合もある。
上述のスティッチ処理においては、入力画像の相対位置や、ブレンド処理の境界線の位置は重要なパラメタである。これらのパラメタ如何によって、出力画像に多重像が生じる、鮮鋭性が劣化する、あるいは境界線で色が不連続に変化する等のアーティファクトが発生する場合がある。そこで特に高品質な出力画像を所望する場合には、ユーザがこれらのパラメタを意図通りにかつ精密に制御できることが望ましい。
特許文献1には、ユーザがスティッチ処理のパラメタを制御できる技術が開示されている。具体的に、特許文献1開示の技術では、ユーザが表示画面で入力画像を見ながら入力画像を移動させて、あるいは入力画像間の対応点を指定して、入力画像の相対位置を調整することができる。
特開2001−067488号公報
しかしながら、画像の鮮鋭性劣化をより抑制するためには、重複部分において決定した境界線の近傍のみでブレンド処理を行う方が望ましい。この場合に、高品質な出力画像を得るためには画像の相対位置のみならず境界線の位置が重要なパラメタとなる。特許文献1の技術ではユーザが入力画像の相対位置を制御することができるが、境界線の位置を制御することができない。一方、境界線は重複部分において2次元的に自由に設定できるパラメタであり、このような自由度の高いパラメタをユーザが制御することを支援する技術が求められる。
本発明の目的は、ユーザが意図した通りに、かつ精密にスティッチ処理における境界線を制御できる画像処理装置及び画像処理方法を提供することにある。
本発明に係る画像処理装置は、複数の入力画像を用いて合成画像を作成するための表示を制御する画像処理装置であって、前記合成画像の座標系における各画素に、前記複数の入力画像を識別する情報を有するIDマップを設定する設定手段と、前記IDマップに基づき前記合成画像と前記IDマップとを重畳することにより得られる表示画像を表示手段に表示させる表示制御手段と、前記合成画像と重畳して表示されている前記IDマップに対するユーザ入力を取得する取得手段とを有し、前記表示制御手段は、前記ユーザ入力に応じた前記表示画像を表示させることを特徴とする。
本発明によれば、スティッチ処理における境界線をユーザが意図通りに制御し、ユーザの所望の合成画像を取得できる効果を奏する。
画像処理装置のハードウェア構成を示す図である。 画像処理装置の機能構成を示すブロック図である。 実施例1における画像処理装置が行うスティッチ処理の流れを示すフローチャートである。 実施例1における撮像装置の位置関係を示す図である。 実施例1における出力画像座標系にマッピングされた各画像の写像を示す図である。 実施例1における境界線を説明するための図である。 境界線の位置によって出力画像の品質が異なる例を示す図である。 境界線の位置によって出力画像の品質が異なる他の例を示す図である。 実施例1における境界線決定部206の機能構成を示すブロック図である。 実施例1における境界線決定処理の流れを示すフローチャートである。 実施例1におけるIDマップを示す図である。 実施例1においてユーザに提示されるIDマップとプレビュー画像を模式的に示す図である。 実施例1におけるIDマップの変更操作を説明するための図である。 実施例1におけるIDマップの変更操作を説明するための図である。 実施例2においてユーザに提示される情報を模式的に示す図である。 実施例3におけるIDマップの変更操作を説明するための図である。 実施例3においてドラッグ開始点のIDを決定する際にユーザに提示される情報を模式的に示す図である。
以下、本発明の実施形態について、図面を参照して説明する。ただし、以下の実施形態は本発明を限定するものではなく、また、以下で説明されている特徴の組み合わせの全てが本発明の課題解決に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
[実施例1]
本実施例の画像処理装置は、複数の入力画像をつなぎ合わせて1枚の出力画像を生成するスティッチ処理を行う。高品質な出力画像を得るために、スティッチ処理においてつなぎ合わせる画像の境界線はユーザによって制御される。本実施例では、ユーザが意図通りにかつ精密に境界線を制御することを支援する方法として、出力画像の各領域が複数の入力画像のいずれに紐付けられるかを示すIDマップと当該IDマップに基づき作成した合成画像とを重畳して表示画面でユーザに提示する。ユーザは合成画像に満足しない場合に表示画面上でIDマップ(境界線の位置)を変更する操作を行う。ユーザによる変更操作に応じて、合成画像が更新される。このように、ユーザは境界線の位置に応じた因果関係を確認しながら繰り返し変更ができるので、合成画像にユーザの意図を反映させ、よりユーザが求める満足のいく出力画像を得ることが可能になる。なお、以下ではユーザに確認させるための合成画像をプレビュー画像と称する。
図1は、本実施例に適用可能な画像処理装置のハードウェア構成を示す図である。画像処理装置100は、CPU101、RAM102、ROM103、HDD104、出力インタフェース(I/F)105、入力インタフェース(I/F)107、撮像インタフェース(I/F)109、及び汎用インタフェース(I/F)111を備える。また、画像処理装置100内の各構成を相互に接続する汎用システムバス113を備える。
CPU101は画像処理装置100内の各構成を統括的に制御するプロセッサーである。RAM102は、CPU101の主メモリ、ワークエリア等として機能するメモリである。ROM103は、CPU101によって実行されるプログラム群を格納しているメモリである。HDD104は、CPU101によって実行されるアプリケーションや、画像処理に用いられるデータ等を記憶する記憶媒体である。
出力I/F105は、例えばDVIやHDMI(登録商標)等の画像出力インタフェースであり、液晶ディスプレイなどの出力装置106を接続する。入力I/F107は、例えばUSBやIEEE1394等のシリアルバスインタフェースであり、ユーザが各種の指示操作を行うためのキーボードやマウスなどの入力装置108を接続する。撮像I/F109は、例えば、3G/HD−SDIやHDMI(登録商標)等の画像入力インタフェースであり、撮像によりデジタルの画像データを取得する撮像装置(カメラ)110を接続する。汎用I/F111も入力I/Fと同様にUSBやIEEE1394等のシリアルバスインタフェースであり、必要に応じて外部記憶装置112を接続する。
図2は、本実施例に係る画像処理装置100の機能構成を示すブロック図である。図2に示す各機能構成は、CPU101がROM103又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することにより実現される。ただし、これに限定されず、図2に示す機能構成のすべてまたは一部は、専用の処理回路を設けることにより実現されてもよい。図2に示すように、画像処理装置100は、撮像画像取得部202、撮像画像補正部203、位置関係推定部204、マッピング部205、境界線決定部206、出力画像生成部207、及び画像出力部208を含む。
撮像画像取得部202は、入力端子201を介して複数の撮像画像(入力画像)を取得する。撮像画像補正部203は、撮像画像に対して補正処理を行う。位置関係推定部204は、補正後の画像に基づき撮像時のカメラの位置関係を推定する。マッピング部205は、カメラの位置関係に基づき、補正後の各画像を共通の出力画像座標系にマッピングして各画像の写像を取得する。境界線決定部206は、写像の重複部分において境界線を決定する。出力画像生成部207は、決定された境界線に基づき、補正後の各画像を合成して出力画像を生成する。画像出力部208は、生成された出力画像を出力端子209を介して出力する。
図3は本実施例の画像処理装置100が行うスティッチ処理の流れを示すフローチャートである。ステップS301において、撮像画像取得部202が、入力端子201を介して複数の撮像画像(入力画像)を取得する。取得される画像は、撮像装置110によって撮像された撮像画像でもよいし、あらかじめRAM102や外部記憶装置112等に記録された撮像画像でもよい。
ステップS302において、撮像画像補正部203が、取得された撮像画像に対して補正処理を行う。一般的に撮像画像はレンズによる光学歪みの影響を受けた状態で取得される。撮像画像補正部203は、撮像画像に対して光学歪みの影響を抑制する補正処理(光学歪み補正)を行う。光学歪み補正は、撮像時に使用されたレンズの特性に基づいて画素の再配置を行うなど、公知の方法を用いることができる。また、本ステップの補正処理は、他の補正処理と入れ替えてもよいし、他の補正処理を加えてもよい。例えば、シェーディング補正を加えてよい。
ステップS303において、位置関係推定部204が、補正後の画像に基づいて撮像時のカメラの位置関係を推定する。具体的に、まず各画像から特徴点を抽出し、複数画像間の特徴点の対応付けを行う。そして、対応付けされた特徴点に基づいて、各カメラの相対的な位置関係を求める。
ステップS304において、マッピング部205が、推定されたカメラの位置関係に基づいて補正後の各画像を出力画像座標系(プレビュー画像の座標系)にマッピングして各画像の写像を取得する。これにより、複数の画像の情報が共通の出力画像座標系に集合する。なお、この際の出力画像座標系は写真で一般的に用いられる透視投影の座標系に限らず、用途に応じて正距円筒図法系(エクイレクタングラー)などの座標系でもよい。
ステップS305において、境界線決定部206が、写像の重複部分において境界線を決定する。ここで境界線とは出力画像座標系における写像の重複部分について、いずれの写像を用いるかを定める線である。本ステップで行われる境界線決定処理の詳細は後述する。ステップS306において、出力画像生成部207が、ステップS305で決定された境界線に基づいて各画像を合成し、1枚の出力画像(例えば、パノラマ画像)を生成する。すなわち、境界線に基づいて各画像の写像をつなぎ合わせる。この際に出力画像生成部207は、境界線の位置で画像が急激に変化し不連続に見えるのを抑制するために、境界線近傍で重複した写像同士をブレンド処理(境界処理)する。
ステップS307において、画像出力部208が、ステップS306で生成された出力画像を、出力端子209を介してHDD104や出力装置106、外部記憶装置112などに出力する。以上で、画像処理装置100のスティッチ処理のフローは終了する。
次に、図4〜6を参照してスティッチ処理の例を説明する。図4は、本実施例における撮像装置の位置関係を示す図である。本実施例の撮像画像(入力画像)は、図4に示すように左右に並んで配置されたカメラC1、C2によって撮像されたものとする。入力画像はステップS302で光学歪みの影響を抑制する補正処理が行われる。補正後の画像1と画像2はステップS303で共通の出力画像座標系にマッピングされる。
図5は、本実施例における出力画像座標系にマッピングされた各画像の写像を示す図である。図5に示すように、画像1の写像は領域401と領域403からなり、画像2の写像は領域402と領域403からなる。領域403は画像1と画像2の写像の重複部分である。出力画像を生成する際、領域401は画像1、領域402は画像2の情報(画素値)をそれぞれ用いる。一方、重複部分である領域403は、画像1と画像2の両方の情報が使用可能である。
図6は、本実施例における境界線を説明するための図である。ステップS305にて、図6に示すように境界線が決定される。重複部分である領域403は、境界線によって左側の領域501と、右側の領域502とに分割される。出力画像を生成する際、領域501は画像1の情報を、領域502は画像2の情報を用いる。換言すれば、出力画像座標系において、左側で画像1の写像、右側で画像2の写像が用いられ、境界線はその境界を定める。ただし境界線の近傍では、画像1の写像と画像2の写像との両方を用いたブレンド処理を行って出力画像を生成する。
境界線の位置は、出力画像の品質に大きな影響をもたらすものである。以下、境界線の位置の影響について図7、8を参照して説明する。図7は、境界線の位置によって出力画像の品質が異なる例を示す図である。画像701は、出力画像座標系における写像の重複部分を示している。画像701において画像1と画像2の写像が重ねて表示されている。画像1と画像2は撮像時のカメラ位置が異なるため、シーン内のオブジェクトの位置が必ずしも一致しておらず、相対的に位置ズレを持っている。そのため画像701では多重像のようになっている。このような位置ズレは、図4に示すようにカメラが角度を持って配置された場合において特に顕著である。
図7(a)と(b)は、境界線が写像の重複部分において異なる位置に設定された場合を示している。画像701において境界線の位置が点線で示されている。図7(a)と図7(b)の場合の出力画像はそれぞれ画像702と画像703である。出力画像において境界線の位置が矢印で示されている。境界線近傍では、ブレンド処理により2つの画像の情報が共に用いられる。このため画像702では、位置ズレを持つ2つの画像の情報が用いられることにより、多重像が現れている。一方、画像703では、位置ズレを持つ2つの画像の情報が用いられるが、境界線近傍で2つの画像が平坦部であるため、画像702より多重像が知覚されにくくなっている。
図8は、境界線の位置によって出力画像の品質が異なる他の例を示す図である。図8(a)は、図7(b)と同じ場合を示している。図8(b)では、図8(a)と異なる位置に境界線が設定されており、出力画像が画像802である。図8(b)では図8(a)と同様に画像の平坦部に境界線が設定されたが、図8(b)の場合に、2つの画像間でのシーンの照明条件などの微妙な差に起因して、画像802において境界線の位置でわずかな色の段差が生じる。
図7及び図8の例から分かるように、境界線の位置の変更が出力画像の品質に大きな影響を与える。図7及び図8の例はシーンが比較的単純な場合であるが、実際には、シーンはさらに複雑な場合もあり、シーンに応じて様々な境界線の設定が考えられる。従って、任意の画像に対して、画像処理装置が常に最適な境界線を自動的に決定することは実際には困難である。また、出力画像には本来ユーザの創作意図が反映されて然るべきであるので、たとえ入力画像や種々の条件が同一であっても、望ましい境界線の位置はユーザによって異なると考えられる。
上述のような状況に対し、特にユーザが高品質な出力画像を所望する場合には、ユーザが意図通りに且つ精密に境界線を制御でき、あるいは手直しできることが望ましい。以下、本実施例における境界線決定処理の詳細について図9及び図10を参照して説明する。図9は、本実施例における境界線決定部206の機能構成を示すブロック図である。図9に示すように、境界線決定部206は、境界線初期値決定部903、IDマップ作成部904、プレビュー画像作成部905、表示制御部906、ユーザ入力取得部907、及びIDマップ変更部908を含む。
境界線初期値決定部903は、入力端子901を介してマッピング部205から出力画像座標系における各画像の写像の情報を受け取り、これらの情報に基づき境界線の初期値を決定する。IDマップ作成部904は、境界線の初期値に基づき、プレビュー画像の各領域で用いる画像の識別子(ID)を示すIDマップを作成する。プレビュー画像作成部905は、IDマップに基づき、プレビュー画像を作成する。表示制御部906は、出力端子909を介して、液晶ディスプレイなどの出力装置106にプレビュー画像とIDマップを重畳して表示するように制御する。ユーザ入力取得部907は、入力端子902を介してユーザ入力を受け取る。IDマップ変更部908は、ユーザ入力に基づきIDマップ(境界線)を変更する。それに応じて、プレビュー画像作成部905は、境界線が変更されたIDマップに合わせてプレビュー画像を再度作成し、表示制御部906は、出力装置106に表示されているプレビュー画像を更新する。
図10は、本実施例における境界線決定処理の流れを示すフローチャートである。ステップS1001において、境界線初期値決定部903が、出力画像座標系における各画像の写像の情報に基づき、写像の重複部分において境界線の初期値を決定する。例えば図6の通り境界線の初期値が決定される。本ステップの境界線の決定方法としては、例えば画素値や画素値の勾配を用いて境界線を算出する方法や、最も近い画像を使用するように境界線を設定するなどの公知の技術が使用可能である。
ステップS1002において、IDマップ作成部904が、各入力画像にそれぞれ異なるIDを付与する。例えば、カメラC1による画像にID「1」を、カメラC2による画像にID「2」を付与する。このIDは、各入力画像がステップS302を経て補正後の画像となり、ステップS304を経て出力画像座標系へマッピングされても、画像との対応関係は変化しない。ステップS1003において、IDマップ作成部904が、境界線の初期値に基づき、出力画像の各領域がどの入力画像に紐付けられるかを示すIDマップを作成する。IDマップは典型的には、出力画像と同じ座標系及びサイズを有し、各画素の位置に対応する入力画像のID値を格納したデータである。例えば図11の通りIDマップが作成される。IDマップ1101内の領域1102にはID「1」、領域1103にはID「2」が格納されている。
ステップS1004において、プレビュー画像作成部905が、IDマップに基づきプレビュー画像を作成する。すなわち、IDマップにおける境界線の位置に基づき出力画像座標系に画像1と画像2を合成することでプレビュー画像を作成する。合成処理はステップS306における出力画像生成部207の処理と同様なものとする。ただし、処理負荷を軽減するために、境界処理を省略してもよい。ステップS1005において、表示制御部906が、IDマップとプレビュー画像を重畳して出力装置に表示するように制御する。すなわち、IDマップとプレビュー画像を重ねた画面をユーザに提示させる。
図12は、ユーザに提示される画面の一例を模式的に示す図である。画面上の画像表示領域1201には、図11のIDマップがプレビュー画像と重ねて表示されており、ユーザは提示される画面を見ると、プレビュー画像を作成するために各画素で使用された画像のIDを識別することができる。
なお、IDマップを表示するために使用される画素値は各領域のID値と同一である必要はなく、ユーザが各IDの領域を識別できればよい。例えば、ID「1」の領域を画素値64、ID「2」の領域を画素値128のように、識別が容易な程度の明るさの差をつけて表示することができる。また各IDで区別しやすい色をつけて表示してもよい。プレビュー画像がカラー(有彩色)の場合にはIDマップをグレースケール(無彩色)で表示し、プレビュー画像がグレースケール(無彩色)の場合にはIDマップをカラー(有彩色)で表示する方法を採用してもよい。あるいは、プレビュー画像の全体または部分に含まれていない色相の色をIDマップの表示に用いるようにしてもよい。
また、ユーザに提示される画面において、表示したIDマップの色の凡例を示したり、入力画像を特定できる情報(例えばIDや入力ファイル名)をIDマップに重ねて表示したりしてもよい。重ねて表示する際の透過度(重み)は、ユーザが指定して変更できるとよい。ユーザにプレビュー画像及びIDマップが提示されると、フローはステップS1006に進む。
ステップS1006において、ユーザ入力取得部907が、ユーザ入力を取得する。ここでユーザがプレビュー画像に満足した場合、その旨を示すための操作を行う。例えば、ユーザはマウスなどの入力装置108を介して、提示される画面における「OK」というボタン(図示せず)をクリックする。一方、ユーザがプレビュー画像に満足しない場合、ユーザはIDマップを変更するための操作(変更操作)を行う。例えば、ユーザはマウスなどの入力装置108を介してカーソル1202をドラッグすることで、IDマップにおける境界線を調整する。
ステップS1007において、ユーザ入力取得部907が、ユーザがプレビュー画像に満足したか否かを判定する。すなわち、ユーザ入力がプレビュー画像に満足した旨を示す操作である場合に、YESと判定し、フローはステップS1010に進み、ユーザ入力が変更操作である場合に、NOと判定し、フローはステップS1008に進む。ステップS1008において、IDマップ変更部908が、ユーザの変更操作に基づいてIDマップを変更する。
図13は、本実施例におけるIDマップの変更操作を説明するための図である。図13に示すIDマップ1301は、図12の境界線付近を拡大して示したものである。明るい色で表示された領域1302はID「1」の領域、暗い色で表示された領域1303はID「2」の領域である。この図中で、図12のカーソル1202を位置1304から位置1305へドラッグする操作(ドラッグ操作)で動かしたとする。このような操作に基づき、IDマップ変更部はドラッグ操作の開始位置1304のID「1」を用いて、ドラッグ操作の軌跡部分1306のIDを置き換える。すなわち、図13ではドラッグ操作の軌跡部分1306がID「2」からID「1」へ変更されたことになる。なお、カーソルの大きさは任意であり、ユーザが別途指定できるようにするとよい。
ステップS1008でIDマップが変更されると、フローはステップS1004に戻る。IDマップの変更は境界線の位置の変更と同義であるので、ステップS1004でプレビュー画像作成部905が境界線の位置が変更されたIDマップに合わせてプレビュー画像を再作成する。そして、ステップS1005で表示制御部906がユーザに提示するプレビュー画像を更新する。ユーザは更新されたプレビュー画像に満足していない場合に、IDマップを変更するための変更操作を行う。これに応じて、ステップS1006、S1007の処理が行われた後に、フローはステップS1008に進み、そしてステップS1004に戻る。すなわち、ユーザがプレビュー画像に満足するまでステップS1006〜S1008の処理及びステップS1004〜S1005の処理は繰り返される。一方、ユーザは更新されたプレビュー画像に満足した場合に、その旨を示す操作を行う。これに応じて、ステップS1006〜S1007の処理が行われた後に、フローはステップS1009に進む。ステップS1009において、現在の境界線の位置が、境界線決定部206の出力結果として次の出力画像生成部207に出力される。以上で境界線決定処理は終了する。
本実施例の境界線決定処理により、ユーザは境界線を精密に指定することが可能になる。例えば鋭角な部分や細い部分を持つように指定したり、シーンの複雑な形状に沿うように指定したり、画素単位で繊細な位置の変更を行ったりすることが可能になる。また、ユーザは境界線に対しプレビュー画像を重ねて見ることで、その因果関係を確認しながら繰り返し変更ができるので、画像にユーザの意図を反映させ、よりユーザが求める満足のいく画像を得ることが可能になる。
さらに、上述した境界線決定処理では、IDを置き換える際にドラッグ開始点のIDを採用することで、ID「1」、「2」の領域双方をスピーディーに変更可能となり、効率向上に寄与する。これはスティッチ処理においてほとんどの場合、同一の画像を使用する領域は単純閉曲面で囲まれるという性質を利用したものである。ただし、飛び地状にIDを指定することを可能とするために、ドラッグ開始点のIDを採用せずIDを直接指定するモードも備えてもよい。
さらに、ドラッグ操作の効率を向上するために、本実施例は、IDを置き換える対象領域はドラッグ操作の軌跡部分のみならず、図14に示すようにドラッグ操作の軌跡部分により閉領域を作った時には、その閉領域も対象領域とする機能を備えてもよい。図14(a)に示すIDマップ1401は閉領域1404のIDが、暗い色で表示された領域1403と同じID「2」から、明るい色で表示された領域1402と同じID「1」に置き換えられ、図10(b)に示すIDマップ1406のようになる。これも同一の画像を使用する領域は単純閉曲面で囲まれるという性質を利用したものである。これによって、対象領域に指定したい画素がドラッグ範囲から漏れてしまうのを防ぎ、ユーザが広範囲の画素を対象領域に指定したい場合に、ドラッグ操作にかかる負荷を低減することができ、効率向上に寄与する。
さらに、境界線を指定する際の精密性を支援するために、本実施例は、ユーザのドラッグ操作で描かれた軌跡が、画像のエッジ成分とほぼ沿っていると判定される場合には、ユーザによるドラッグ操作の軌跡を当該エッジ上に補正する機能を備えてもよい。画像のエッジ成分と、ドラッグの軌跡が沿っているか否かの判定は公知の技術を用いることができる。この機能により、ユーザが境界線を画像のエッジに沿って設定したい場合、ユーザによるドラッグ操作で精密にエッジをなぞる負荷を低減することができる。
さらに、境界線を指定する際の安全性を確保するために、本実施例は、ドラック操作で境界線を指定することが可能な範囲を制限する機能を備えてもよい。本実施例ではユーザが自由にIDマップを変更できる。そのためユーザが、画像の写像外の領域の画素に対しても当該画像のIDに置き換えるように指定してしまうおそれがある。例えば図5で、本来領域401に画像2を使用する指定はできないし、領域402で画像1を使用する指定もできないが、ユーザの操作上は可能である。そこでユーザが画像の写像範囲を超えて境界線を指定できないように、写像範囲を超えた領域へのドラッグではID置き換えを無効にする機能を有す。また、ユーザのドラッグ操作が写像範囲を超えた際に、その旨ユーザに警告を出してもよい。また、このような操作を抑制するために、写像範囲をユーザに提示するようにしてもよい。これはIDマップ、プレビュー画像と共に常に提示していてもよいが、ユーザに提示される情報が乱雑にならないように、ドラッグ操作中のみ、開始地点のIDに対応する画像の写像範囲を提示する方式であってもよい。このようにすれば、出力画像が存在しない情報を参照しようとして不正となるのを防ぎ、ユーザにも正しい操作を促すことができる。
なお、プレビュー画像のほかに、境界線の位置によらずに写像の全ての部分を重畳して表した画像を別にユーザに提示してもよい。これはユーザが境界線の位置を決める際の参考とすることができる。全ての写像について重畳してもよいが、ユーザに提示される情報が乱雑にならないように、どの入力画像に対する写像を表示するかユーザが選択できるとよい。以上説明した構成をとることによって、スティッチ処理における境界線をユーザが精密、かつ分かりやすい操作で意図通りに変更することが可能になる。
[実施例2]
実施例1では入力が画像であった場合について述べるが、本実施例では、時間軸方向の複数のフレームから成る動画が入力となる場合について述べる。動画が入力であった場合にも、対応するフレーム(フレーム画像)を入力画像として実施例1を適用することができる。ただし動画の場合には、時間に対してシーンが変化するために、ある時刻で適当であった境界線の位置が、別なフレームでも同様に適当であるとは限らないという問題が生じる。そこで各フレームに対して異なる境界線が指定できればよいが、通常フレーム数は大変多いため、全フレームに対して実施例1と同様の操作を行うことはユーザに多大な負担を強いる。また実際には、動画の1フレームあたりの時間はごく短いので、ある時刻で適当であった境界線の位置は、他の時刻でも適当である可能性も高い。
図15は、本実施例においてIDマップとプレビュー画像を重畳してユーザに表示する際にユーザに提示される情報を模式的に示す図である。ユーザに提示されるIDマップとプレビュー画像が重畳して表示された画像表示領域1501のほか、動画の全時間を表すシークバー1502と、処理対象のフレームが動画の全時間に対しどの位置にあるかを示すスライダー1503がユーザに提示される。ここで、動画の全時間を0〜Tとし、処理対象のフレームは時刻τのフレームであるとする。
本実施例で、時刻τでユーザの操作によって変更されたIDマップは、動画中の時刻t以降のフレームに適用される。つまり、第1フレーム(τ=0のフレーム)を処理対象として設定あるいは変更されたIDマップ(境界線の位置)は、動画の全フレームのIDマップを同様に設定する。開始時から3秒後のフレーム(τ=3のフレーム)を処理対象として変更されたIDマップの変更は、3秒後以降のフレームのIDマップのみを変更する。
典型的にはユーザは、τ=0のフレームで境界線の位置を設定した後、動画を再生したりスライダー1503を右へ動かしたりして、処理対象時刻τを進める。処理時刻τが進むに応じプレビュー画像も変化する。シーンの変化によって境界線が適当でなくなったある時刻τ=T1にきたら、τ=0の処理時に既に設定されたτ=0のフレームの境界線を基に、τ=T1のフレームに合うように境界線を調整する。これによって時刻T1以降のフレームの境界線の位置が変更される。調整が終わったら、再び処理時刻τを進める。こうすることによってユーザは、出力結果が所望する品質であるかを確認しながら、必要に応じた回数と箇所のみで境界線の位置を設定・変更し、効率的に動画の開始から終了までの境界線の設定を完了することができる。
以上で、時間軸方向の複数のフレームから成る動画が入力であった場合について述べたが、本実施例の適用は、必ずしも全ての入力が動画である場合に限定されない。動画と画像(静止画)が混在していた場合にも、動画の各フレームに対応して画像(静止画)を繰り返し処理対象にすることで、本実施例を適用することができる。
[実施例3]
実施例1、2では、IDマップにおける各画素は必ず1つのみのIDを持つことを前提としたが、本実施例では、IDマップにおける各画素が複数のIDを持ち、複数の画像と紐づけられることを可能とする。
図16は本実施例におけるIDマップの変更操作を説明するための図である。図16に示すIDマップ1601は、図12の境界線付近を拡大して示したものである。明るい色で表示された領域1602はID「1」の領域、暗い色で表示された領域1603はID「2」の領域である。この図で、カーソルを位置1604から位置1605へドラッグしたとする。本実施例におけるIDマップ変更部は、ドラッグ操作の開始位置1304のID「1」を、ドラッグ操作の軌跡部分1606に追加する。すなわち、図16のドラッグ操作の軌跡部分1606は、ドラッグ操作を受けてID「2」とID「1」の両方を持つようになる。図16に示すように、この複数IDを持つ領域は元のIDマップと異なる色等で区別して表示される。1つの画素が2つのIDを持つことは、例えばIDマップが2枚、レイヤーの如く準備されており、それぞれが1つ目のID、2つ目のIDを保持し、2つ目のIDを持たない場合は特定の画素値(例えば0)を持つ構成とすることで実現可能である。
2つのIDを持つ画素では、両画像をブレンドして出力する。例えば、出力画像Rの座標(x、y)において、画像1と画像2へのID紐づけの有無を1または0で表すマスクM1(x、y)、M2(x、y)、画像1と画像2の画素値をI1(x、y)、I2(x、y)とする。この場合に、出力画像Rの画素値は式(1)により決定される。
このようにすると、スティッチ処理における境界線のみならず画像をブレンドしたい他の領域においても、鋭角な部分や細い部分など複雑な形状を指定したり、シーンの特徴に応じた形状でブレンド制御を行ったりすることができる。したがってよりユーザの意図を反映した出力画像を生成することが可能となる。
なお、本実施例のIDの追加と実施例1のようなIDの置き換えは、組み合わせて適用することが望ましい。例えば、通常の操作時にはドラッグ操作によってIDを置き換え、入力装置(ドラッグするデバイスと同一でも別でもよい)の特定キーを押しながら操作した場合にはIDを追加するモードに移行する、のようにする。このようにすると、ドラッグ操作の軌跡によりIDマップを介して境界線の位置を変更することは、単一画素に対して複数の画像が指定されうる場合にも、好適に適用可能である。
また、本実施例において、IDマップ上2つのIDを持つ画素をドラッグの開始点に選んだ場合、置き換えや追加の操作を行う開始点IDの候補が2つ存在することになる。そこで開始点IDの候補からいずれのIDを選択するかをユーザに確認する機能をさらに備える。
図17は、本実施例においてドラッグ開始点のIDを決定する際にユーザに提示される情報を模式的に示す図である。図17において、カーソル1705が2つのID「1」「2」を持つ領域1704でドラッグを開始した位置である。複数のIDが設定された領域でドラッグが開始されると、小さなポップアップ1706が開始点付近に表れ、候補となるIDがリストで示される。同時に第2のカーソル1707がカーソル1705の位置に現れ、入力装置の操作対象は第2のカーソル1707に移る。ユーザが第2のカーソル1707を動かしてポップアップ上のIDを選択する。するとポップアップ1706と第2のカーソル1707は消え、入力装置の操作対象がカーソル1705に移る。こうして第2のカーソル1707で選択したIDを用い、カーソル1705をドラッグ操作して、IDマップの変更を再開できる。
[他の実施形態]
なお、上述した実施例において、IDマップ変更部908は、IDマップ作成部904とは別の構成としたが、IDマップ作成部904に含まれる構成としてもよい。なお、上述した実施例は、それぞれを単独で用いるだけでなく、組み合わせて実施してもよい。さらにそれぞれの変形例として、以下のような形態も考えられる。上述した実施例でのドラッグ操作は、入力装置として一般的なマウスによるもののみならず、広くポインティングデバイスによる入力と同種の入力で置き換えることもできる。一例にはペン型入力デバイスによるものが考えられる。
上述した実施例では説明を簡単にするため、入力画像を2枚として説明したが、入力画像は2枚に限らない。2枚以上の(複数の)画像で、上述した実施例を適用することが可能である。例えば、以下の場合に適用可能である。周囲の全方位をカバーするように配置された複数のカメラにより撮像された複数の画像を入力画像とし、360度の全方位パノラマ画像を生成する場合であっても上述した実施例を適用可能である。また、立体視用の画像を取得するためのステレオ撮像装置により撮像された複数の画像を入力画像とした場合であっても、上述した実施例を適用可能である。また、外側を向く配置ではなく、内側を向いて配置された複数のカメラにより撮像された複数の画像を入力画像とした場合であっても、上述した実施例を適用可能である。
なお、上記の説明(例えば、パノラマ画像を生成する例の説明)では、複数のカメラを用いて撮像することで複数の入力画像を取得したが、入力画像の取得はこれに限定されず、単数のカメラの撮像時刻を変えて複数の入力画像を取得する形式であってもよい。例えば、図4において、カメラC1とC2を同時に用いるのではなく、1つのカメラでまずカメラC1の位置で画像を取得し、次いでそのカメラをカメラC2の位置に移動し、画像を取得する形式であってもよい。また、複数のカメラを用いた場合に撮像時間差を有していてもかまわない。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
904 IDマップ作成部
905 プレビュー画像作成部
906 表示制御部
907 ユーザ入力取得部
908 IDマップ変更部

Claims (17)

  1. 複数の入力画像を用いて合成画像を作成するための表示を制御する画像処理装置であって、
    前記合成画像の座標系における各画素に、前記複数の入力画像を識別する情報を有するIDマップを設定する設定手段と、
    前記IDマップに基づき前記合成画像と前記IDマップとを重畳することにより得られる表示画像を表示手段に表示させる表示制御手段と、
    前記合成画像と重畳して表示されている前記IDマップに対するユーザ入力を取得する取得手段と
    を有し、
    前記表示制御手段は、前記ユーザ入力に応じた前記表示画像を表示させることを特徴とする画像処理装置。
  2. 前記設定手段は、前記ユーザ入力に応じて前記IDマップにおける少なくとも一部の識別情報を変更することを特徴とする請求項1に記載の画像処理装置。
  3. さらに、前記複数の入力画像を用いて前記合成画像を作成する作成手段と、を有し、
    前記表示制御手段は、前記作成手段から前記合成画像を受け取ることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記作成手段は、前記ユーザ入力に応じて前記合成画像を更新することを特徴とする請求項3に記載の画像処理装置。
  5. 前記IDマップにおける各画素の識別情報と前記合成画像における各画素は対応することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記ユーザ入力は、ドラッグ操作であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記設定手段は、前記ドラッグ操作の開始点に対応する画素の識別情報を用いて前記ドラッグ操作の軌跡部分における画素の識別情報を置き換えることにより、前記IDマップを変更することを特徴とする請求項6に記載の画像処理装置。
  8. 前記設定手段は、前記ドラッグ操作の開始点に対応する画素の識別情報を用いて前記ドラッグ操作の軌跡部分における画素の識別情報を置き換えた結果、新たに閉領域を形成した場合に、前記ドラッグ操作の軌跡部分と前記閉領域との両方における画素の識別情報を前記開始点に対応する画素の識別情報で置き換えることにより、前記IDマップを変更することを特徴とする請求項7に記載の画像処理装置。
  9. 前記複数の入力画像を前記合成画像の座標系にマッピングして各入力画像の写像を取得するマッピング手段を有し、
    前記作成手段は、前記写像をつなぎ合わせることにより前記合成画像を作成し、前記写像をつなぎ合わせる際に、前記写像の重複部分において前記複数の入力画像のうちどの入力画像の写像を用いるかを前記IDマップに基づき決定する
    ことを特徴とする請求項3又は4に記載の画像処理装置。
  10. 前記設定手段は、前記ユーザ入力であるドラッグ操作の開始点に対応する画素の識別情報に置き換えることが可能な領域を、前記開始点に対応する画素の識別情報に対応する入力画像の写像の範囲内に制限することを特徴とする請求項9に記載の画像処理装置。
  11. 前記表示制御手段は、前記写像を、前記合成画像及び前記IDマップとは別の画像表示領域で表示させることを特徴とする請求項9に記載の画像処理装置。
  12. 前記表示制御手段は、前記IDマップを、各ID値の領域が区別できるように表示させることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記表示制御手段は、前記合成画像と前記IDマップとを有彩色と無彩色の別をつけて、あるいは、色相または明るさが重ならないように表示させることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記設定手段は、前記ドラッグ操作の開始点に対応する画素の識別情報を、前記ドラッグ操作の軌跡部分の画素に対して追加することにより、前記IDマップを変更することを特徴とする請求項6に記載の画像処理装置。
  15. 前記入力画像のうち少なくとも1つは動画を構成するフレーム画像であり、前記設定手段によるIDマップの変更は、前記フレーム画像以降の時刻に対応する全てのフレーム画像に対して適用されることを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16. 複数の入力画像を用いて合成画像を作成するための表示を制御する画像処理方法であって、
    前記合成画像の座標系における各画素に、前記複数の入力画像を識別する情報を有するIDマップを設定する設定工程と、
    前記IDマップに基づき前記合成画像と前記IDマップとを重畳することにより得られる表示画像を表示手段に表示させる表示制御工程と、
    前記合成画像と重畳して表示されている前記IDマップに対するユーザ入力を取得する取得工程と、
    を含み、
    前記表示制御工程は、前記ユーザ入力に応じた前記表示画像を表示させることを特徴とする画像処理方法。
  17. コンピュータを、請求項1乃至7のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2015254346A 2015-12-25 2015-12-25 画像処理装置、画像処理方法およびプログラム Active JP6708407B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015254346A JP6708407B2 (ja) 2015-12-25 2015-12-25 画像処理装置、画像処理方法およびプログラム
US15/385,736 US10262444B2 (en) 2015-12-25 2016-12-20 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for creating a composite image by using a plurality of input images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015254346A JP6708407B2 (ja) 2015-12-25 2015-12-25 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2017117334A JP2017117334A (ja) 2017-06-29
JP2017117334A5 JP2017117334A5 (ja) 2019-02-07
JP6708407B2 true JP6708407B2 (ja) 2020-06-10

Family

ID=59086415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015254346A Active JP6708407B2 (ja) 2015-12-25 2015-12-25 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10262444B2 (ja)
JP (1) JP6708407B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10593074B1 (en) * 2016-03-16 2020-03-17 Liberty Mutual Insurance Company Interactive user interface for displaying geographic boundaries
CN111316629B (zh) 2017-08-02 2022-04-19 索尼公司 图像处理装置和方法、成像装置和程序
CN110991050B (zh) * 2019-12-06 2022-10-14 万翼科技有限公司 Cad叠图方法及相关产品
CN111507896B (zh) * 2020-04-27 2023-09-05 抖音视界有限公司 图像液化处理方法、装置、设备和存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5398309A (en) * 1993-05-17 1995-03-14 Intel Corporation Method and apparatus for generating composite images using multiple local masks
US5854634A (en) * 1995-12-26 1998-12-29 Imax Corporation Computer-assisted animation construction system using source poses within a pose transformation space
TW401699B (en) * 1998-04-01 2000-08-11 Koninkl Philips Electronics Nv A method and device for generating display frames from a sequence of source frames through synthesizing one or more intermediate frames exclusively from an immediately preceding source frame
JP4143228B2 (ja) 1999-08-27 2008-09-03 キヤノン株式会社 画像処理装置、画像処理方法および記憶媒体
US20020180727A1 (en) * 2000-11-22 2002-12-05 Guckenberger Ronald James Shadow buffer control module method and software construct for adjusting per pixel raster images attributes to screen space and projector features for digital warp, intensity transforms, color matching, soft-edge blending, and filtering for multiple projectors and laser projectors
US7058233B2 (en) * 2001-05-30 2006-06-06 Mitutoyo Corporation Systems and methods for constructing an image having an extended depth of field
JP4695474B2 (ja) * 2005-09-21 2011-06-08 株式会社東芝 合成映像制御装置、合成映像制御方法およびプログラム
KR101224256B1 (ko) * 2005-10-14 2013-01-18 한양대학교 산학협력단 레이저 기반의 이동 단말을 위한 다중채널의 장면구성 제어방법 및 장치
US20080253685A1 (en) * 2007-02-23 2008-10-16 Intellivision Technologies Corporation Image and video stitching and viewing method and system
KR101313218B1 (ko) * 2008-12-08 2013-09-30 삼성메디슨 주식회사 휴대형 초음파 시스템
US20130014041A1 (en) * 2008-12-09 2013-01-10 Denny Jaeger Using gesture objects to replace menus for computer control
US9032299B2 (en) * 2009-04-30 2015-05-12 Apple Inc. Tool for grouping media clips for a media editing application
US8526763B2 (en) * 2011-05-27 2013-09-03 Adobe Systems Incorporated Seamless image composition
AU2011205087B2 (en) * 2011-07-29 2014-09-25 Canon Kabushiki Kaisha Multi-hypothesis projection-based shift estimation
JP2013228896A (ja) * 2012-04-26 2013-11-07 Sony Corp 画像処理装置、画像処理方法、プログラム
US9224233B2 (en) * 2012-05-24 2015-12-29 Google Inc. Blending 3D model textures by image projection
US9253373B2 (en) * 2012-06-06 2016-02-02 Apple Inc. Flare detection and mitigation in panoramic images
ES2943561T3 (es) * 2014-02-28 2023-06-14 Hologic Inc Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
US9563953B2 (en) * 2014-08-28 2017-02-07 Qualcomm Incorporated Systems and methods for determining a seam

Also Published As

Publication number Publication date
US10262444B2 (en) 2019-04-16
JP2017117334A (ja) 2017-06-29
US20170186202A1 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
JP6525617B2 (ja) 画像処理装置およびその制御方法
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10178299B2 (en) Control device and control method
JP6525611B2 (ja) 画像処理装置およびその制御方法
JP6708407B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
JP5835384B2 (ja) 情報処理方法、情報処理装置、およびプログラム
JP5870586B2 (ja) プロジェクタ制御装置、表示装置及びプログラム。
JP2009010782A (ja) 画像処理装置及び制御プログラム
JP7073092B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11790583B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20130076941A1 (en) Systems And Methods For Editing Digital Photos Using Surrounding Context
US11496661B2 (en) Image processing apparatus and image processing method
US11416978B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
US20150124147A1 (en) Method of displaying high dynamic range (hdr) image, computer-readable storage medium for recording the method, and digital imaging apparatus
US20140301638A1 (en) Color extraction-based image processing method, computer-readable storage medium storing the same, and digital image apparatus
JP4328639B2 (ja) 被写体検出情報の調整方法及び調整装置
JP2017009708A (ja) 投影システム、投影装置、情報処理方法及びプログラム
US11830177B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
EP2811732B1 (en) Image processing apparatus, image processing method, computer-readable storage medium and program
JP2006106976A (ja) 画像処理装置、画像処理方法及びプログラム
JP2014155086A (ja) 画角調整装置および画角調整方法
JP7391502B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018182550A (ja) 画像処理装置
WO2019163385A1 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R151 Written notification of patent or utility model registration

Ref document number: 6708407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151