JP3832894B2 - Image synthesizer - Google Patents
Image synthesizer Download PDFInfo
- Publication number
- JP3832894B2 JP3832894B2 JP13363996A JP13363996A JP3832894B2 JP 3832894 B2 JP3832894 B2 JP 3832894B2 JP 13363996 A JP13363996 A JP 13363996A JP 13363996 A JP13363996 A JP 13363996A JP 3832894 B2 JP3832894 B2 JP 3832894B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- display area
- displaying
- corresponding points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像の一部がオーバーラップしている複数の画像をコンピュータ上で合成を行うパノラマ合成システム等に用いて好適な画像合成装置に関する。
【0002】
【従来の技術】
画像の一部の辺がオーバーラップしている複数の画像をコンピュータ上で合成する処理を一般的にパノラマ合成と呼ぶ。これはワイドな被写体を撮影して一枚の画像にしたい、という要求からの処理といえる。また、電子カメラにおいては、銀塩カメラやスキャナと比較した短所として、解像度の低さ(画素数の少なさ)が指摘されている。この電子カメラで撮影された画像にとってのパノラマ画像合成は、ワイドな画像を撮るということだけでなく、高解像度な画像を撮る手段としても重要である。具体的には、一枚の紙の原稿や雑誌等を複数に分けて撮影し、スキャナ並みの高解像度データを取得したり、また風景を複数に分割してワイドで高解像度に撮影したりする場合に威力を発揮する。
【0003】
パノラマ合成において、最も重要でかつ難しいのは、複数の画像のオーバーラップ位置を見つける処理である。これは言い換えると、2つの画像の中から同じ点(以降、対応点と呼ぶ)を探しだす処理である(以降、対応点抽出処理と呼ぶ)。対応点抽出処理の難しさ(エラーレート)は各々の画像によって異なる。オーバーラップしている領域内に、他の箇所にはないユニークな特徴形状が多数あるときは、対応点を間違えないで探すことができる。しかしオーバーラップ内の他の箇所にも、似たようなパターンが存在する場合は(例えば原稿中の文字等)、対応点を間違える場合が発生する。
【0004】
そこで従来は、ユーザに対応する点を明示的に指定してもらい、その位置をもとに微調整をして合成を行うというのが一般的である。図21に従来例を示す。まずユーザが合成したい複数の画像を指定すると、図21のようなウインドウが開く。2枚の画像での対応するポイントをユーザが指定し、マーク21a、21b、22a、22bをつける。処理としては、各々のマークの中心からごく近傍のパターンを調べて、両者が最も合致する位置関係を求め対応点とする。そしてこの対応点に基づいて合成のためのパラメータを求め,合成処理を行う。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来例においては、以下のような問題点がある。まず、ユーザが合成したい画像のセットを指示しなければならない。コンピュータ上で管理している画像の全枚数がそれほど多くないときは問題にはならないが、数千枚以上もの多くの画像を管理している場合は、見落とし等が発生する。また、ユーザが対応点のポイントをほぼ正確に指定しなければならず、これも作業の回数が増えるにつれてユーザの負担となる。
【0006】
本発明は上記のような実情に鑑みて成されたもので、もっと簡単にパノラマ画像合成を行うことのできる画像合成装置を得ることを目的としている。
【0007】
【課題を解決するための手段】
請求項1の発明による画像合成装置においては、複数の画像を表示可能な第1の表示領域と、複数の画像を表示可能で前記第1の表示領域とは異なる第2の表示領域とを同一画面上に表示する表示手段と、ユーザの指示によって前記第1の表示領域に表示されている画像から選択した複数枚の画像を前記第2の表示領域へと移動させる移動手段と、前記第1の表示領域から前記第2の表示領域へと移動された複数の画像のオーバーラップ部分を検出する検出手段と、前記検出手段によって検出されたオーバーラップ部分における対応点を抽出する対応点抽出手段と、前記対応点抽出手段によって抽出された対応点に基づいて前記複数枚の画像をつなぎ合わせて1枚の画像を作成する合成処理手段と、を備え、前記検出手段は、前記移動手段によって移動させた複数枚の画像の枚数が所定の枚数未満である場合には、自動で画像のオーバーラップ部分を検出することを特徴とする。
【0008】
また、請求項2の発明による画像合成装置においては、複数の画像を表示可能な第1の表示領域と、複数の画像を表示可能で前記第1の表示領域とは異なる第2の表示領域とを同一画面上に表示する表示手段と、ユーザの指示によって前記第1の表示領域に表示されている画像から選択した複数枚の画像を前記第2の表示領域へと移動させる移動手段と、前記第1の表示領域から前記第2の表示領域へと移動された複数の画像のオーバーラップ部分を検出する検出手段と、前記検出手段によって検出されたオーバーラップ部分における対応点を抽出する対応点抽出手段と、前記対応点抽出手段によって抽出された対応点に基づいて前記複数枚の画像をつなぎ合わせて1枚の画像を作成する合成処理手段と、を備え、前記移動手段は、所定の枚数以上の画像が入力されたとき、これらの画像を前記第2の表示領域上で移動させて各画像の相対位置を指定し、前記検出手段は、前記指定された相対位置に基づいて前記オーバーラップ部分を検出することを特徴とする。
【0009】
【作用】
請求項1の発明による画像合成装置によれば、複数の画像を表示可能な第1の表示領域と、複数の画像を表示可能で前記第1の表示領域とは異なる第2の表示領域とを同一画面上に表示し、ユーザの指示によって前記第1の表示領域に表示されている画像から選択した複数枚の画像を前記第2の表示領域へと移動させ、前記第1の表示領域から前記第2の表示領域へと移動された複数枚の画像が所定の枚数未満である場合には、自動でオーバーラップ部分を検出し、検出されたオーバーラップ部分における対応点を抽出し、抽出された対応点に基づいて前記複数枚の画像をつなぎ合わせて1枚の画像を作成する。
【0010】
請求項2の発明による画像合成装置によれば、複数の画像を表示可能な第1の表示領域と、複数の画像を表示可能で前記第1の表示領域とは異なる第2の表示領域とを同一画面上に表示し、ユーザの指示によって前記第1の表示領域に表示されている画像から選択した複数枚の画像を前記第2の表示領域へと移動させ、前記第1の表示領域から前記第2の表示領域へと移動された複数枚の画像が所定の枚数以上である場合には、これら複数枚の画像を第2の表示領域上で移動させて各画像の相対位置を指定し、この相対位置に基づいて、オーバーラップ部分を検出し、検出されたオーバーラップ部分における対応点を抽出し、抽出された対応点に基づいて前記複数枚の画像をつなぎ合わせて1枚の画像を作成する。
【0011】
【発明の実施の形態】
本実施の形態は、以下の手順により簡単で便利なパノラマ画像合成を行うものである。
(1)まず、電子カメラで画像を撮影する際に、ユーザは“パノラマ画像撮影モード”にカメラをセットしてから撮影を行う。このモードにより、撮影された画像の属性情報中に、1セットのパノラマ画像を示す識別子が自動的に記録される。
(2)そして、このカメラをコンピュータに接続して、カメラ内のメモリ中にある画像+属性情報をコンピュータのHDにコピーする際に、アプリケーションソフトウェアを介してこの属性情報をチェックする。属性情報中にパノラマ画像撮影モードでの識別子が存在するものから自動的に1セットの画像を抽出する。
【0012】
次にパノラマ画像合成処理に入る。画像合成においては、画像が2枚のときのみ完全自動で行う後述するフルオート合成を行う。3枚以上のときは、画像の上下左右の相対位置だけをユーザに指定してもらう後述するオート合成を行う。またこれらのフルオート合成、オート合成のチェック段階で対応点が十分求められなかったとき、またはユーザが対応点の検出に要する時間を省いてより短い時間で合成処理を行いたいときは、ユーザがだいたいのオーバーラップ位置を指定する後述するセミオート合成を行う。
【0013】
(3)「フルオート合成」:上記(2)でパノラマ画像の1セットを抽出して、それが2枚だったときはフルオート合成処理に入る。2枚の合成位置としては、図3(a)〜(d)に示すように上下左右の4通りが考えられる。そこでこの4つの場合の対応点を求める処理を行い、対応点が上下左右のうち最も多く求まったところを、正しい合成位置として合成する。このとき、4つのいずれの場合も、対応点の数が所定の量以下のときは、確実性が低いといえる。このときはフルオート合成処理を打ち切り、セミオート合成処理に移行する。このモードでのユーザの操作としては、画像をカメラからコンピュータ中へコピーする操作だけで、あとは自動でやってくれることになる。特殊な用途以外は通常は2枚合成がほとんどと考えられるので、この合成処理が行われる場合が最も多い。
【0014】
(4)「オート合成」:上記(2)でパノラマ画像の1セットを抽出して、それが3枚以上だったときこのオート合成処理に入る。このオート合成では1セットの画像をウインドウに表示する。図4は4枚の画像を表示する場合を示す。ユーザはこれらの画像をdragして配置を色々考え、上下、左右の位置関係のみを指示する。これに基づいて対応点抽出処理を行う。この結果、所定のレベル以上一致している対応点の数が所定の量以上のときは、正しい合成位置として合成する。そうでなければ確実性が低いので、オート合成処理を打ち切り、セミオート合成処理に移行する。
【0015】
(5)「セミオート合成」:上記(3)(4)で対応点抽出の確実性が低かったとき、または対応点抽出に要する時間を節約してより早い合成結果を得たい場合は、このセミオート処理を行う。ユーザはこれらの画像をdragして、図5に示すようにオーバーラップのだいたいの位置を指定する。この位置情報に基づいてオート処理でのときよりずっと狭い範囲で対応点抽出処理を行う。この結果最も一致する位置を求め、合成処理を行う。
【0016】
上記(4)(5)の場合、ユーザは対応点抽出のための操作を行うが、どちらも画像をdragするだけの操作であり、これは最も単純でかつ共通の操作であるので、ユーザの負担は小さい。また、(5)のセミオート合成のとき、画像をdragしてだいたいの位置に合わせるだけなので、従来例のポイントを明示的に指定する操作よりもずっと簡単で楽である。
【0017】
図2は本発明が実施されうるプラットフォームであるパーソナルコンピュータシステムの構成例を示している。図2において、301はコンピュータシステム本体、302はデータを表示するディスプレイ、303は代表的なポインティングデバイスであるマウス、304はマウスボタン、305はキーボードである。307はコンピュータに接続可能な電子カメラであり、これは306で示す双方向パラレルインターフェースやSCSIインターフェース等の、高速で画像転送可能な汎用インターフェースによって接続されている。
【0018】
図1はソフトウェアとハードウェアとを含むパノラマ画像合成システムの構成を示す図である。図1において、509はハードウェアであり、CPU518を有している。505はハードウェア509の上で動作するオペレーディングシステム(OS)であり、504はOS505の上で動作するアプリケーションソフトウェアである。なお、ハードウェア509とOS505を構成するブロックのうち、構成要素として当然含まれるが本発明の実施の形態を説明する上で直接必要としないブロックに関しては図示していない。そのような図示していないブロックの例としてハードウェアとしてはメモリ、OSとしてはメモリ管理システム等がある。
【0019】
図1において515はファイルやデータを物理的に格納するハードディスク、508はOS505を構成するファイルシステムであり、アプリケーションソフトウェア504がハードウェア509を意識せずにファイルの入出力が行えるようにする機能がある。514はファイルシステム508がハードディスク515の読み書きを行うためのディスクIOインターフェースである。507はOS505を構成する描画管理システムであり、アプリケーションソフトウェア504がハードウェア509を意識せずに描画が行えるようにする機能がある。
【0020】
513は描画管理システム507がディスプレー302に描画を行うためのビデオインターフェースである。506はOS505を構成する入力デバイス管理システムであり、アプリケーションソフトウェア504がハードウェア509を意識せずユーザの入力を受け取ることができるようにする機能がある。510は入力デバイス管理システム506がキーボード305の入力を受け取るためのキーボードインターフェース、512は入力デバイス管理システム506がマウス303からの入力を受け取ることができるようにするためのマウスインターフェースである。
【0021】
さらに、電子カメラ307は、双方向インターフェースもしくはSCSIインターフェース等516に接続され、入力デバイス管理システム506を通して、画像データ等のやりとりを行うことができる。501は画像データ管理システムであり、502は画像データを属性情報もしくはユーザの入力によるキーワード等で管理するためのデータ管理部である。503は管理されている画像データを、その属性情報もしくはユーザの入力によるキーワード等で検索し表示するデータ表示部である。517はパノラマ画像合成システムであり、画像データ管理システム501からパノラマ撮影モードで撮影した画像を受け取り、パノラマ画像合成処理を行う。そして合成した結果の画像を画像データ管理システム501へ登録する。
【0022】
図6はカメラ内の内蔵メモリに格納される画像データおよび属性情報のデータ構造を示す。まずメモリ内には画像管理テーブル81が置かれ、対応する画像データ82と属性情報83とが参照される。画像データ82は、カメラ独自のフォーマットデータ(ネィティブデータ)か、JPEG等の汎用フォーマットデータのいずれかで格納されている。ネィティブデータは、例えば、CCDから出力を単にA/Dして得られたデータ等である。一般的にネィティブデータは記録に要する時間が短いが、データサイズが大きく、JPEGデータは、記録に要する時間はかかるが、データサイズを小さくできるという点が異なる。ユーザは撮影状況に応じてこれらのどちらかを選択して格納することになる。
【0023】
属性情報83の中には、ファイル名84、フィルタタイプ85、撮影日時86、撮影モード87が記録されている。ファイル名84は、カメラが自動的に付けるユニークなファイル名である。フィルタタイプ85は、ネィティブデータフォーマットなのかJPEGフォーマットなのか、あるいはカメラがサポートする他の汎用フォーマットなのかを示す。撮影日時86は、カメラは内部にカレンダーとタイマとを持っており、カメラのシャッターボタンを押された時点の日時と時間が記録される。撮影モード87は、カメラの有する数種類の撮影モードのうち撮影時に選択されているモードを示す。これが“パノラマ撮影モード”の場合は、さらに識別子88が付加される。この識別子はパノラマ撮影モードにセットしたときにセットされるユニークな番号であるモードID89とそのモードでの何枚目かを示すデータ90とが格納される。従ってパノラマ撮影モードにおいて同じモードID89を持つ複数の画像が1セットであるということになる。この図6の例では、風景を左右2枚の画像として撮影しているので、89aと89bとは同じモードIDである。
以上のようにしてカメラ内に画像データ82および属性情報83が格納される。
【0024】
図7はカメラ内のデータをパーソナルコンピュータへコピーするときの画面を示す。図1のカメラ307を汎用インターフェース306を介してコンピュータに接続し、画像データ管理システム502を起動する。画像データ管理システム502は、カメラ内のデータを図7のカメラカタログ91と名前の付けられたウインドウに表示する。ここで94は画像データの縮小画像(サムネール画像)、95は属性情報中のファイル名、フィルタタイプ等である。属性情報のうちどこまで表示するかはユーザ指定で変更できる。92はパーソナルコンピュータのハードディスク中に存在するユーザの画像データベースの一部を表示しているユーザカタログである。
【0025】
ユーザはカメラカタログ91中から画像を選択して(93は選択されたことを表示する枠)ユーザカタログ92にDrag&Dropの操作を行うとコピーが行われる。このとき、コピーなのか(カメラ内にデータは残る)、移動なのか(カメラ内のデータは消去される)はユーザの指定でどちらにでも切り替えられる。このコピー操作の最中に、
・ネィティブデータを所定の汎用フォーマットに変換する。
・パノラマ撮影モードで撮影された画像があれば、それらの合成を行う。
【0026】
以上の操作を自動的にその必要性を検知して実行する。図8にその際のユーザカタログ91上でのデータ構造を示し、図9にフローチャートを示す。
まず図8の説明をする。まず画像データ管理システム508では、内部に格納している画像データについて固有のID番号を付けて管理している。それがデータ管理テーブル1108である。これは、データID1109と、それにリンクされている画像データ、属性情報との対応がとられる。このデータIDが管理の基本となる。画像データ管理システム502では、ユーザが任意の個数だけユーザカタログ92を持つことができる。この一個のカタログごとに、カタログテーブル1100を持つ。またカタログ内の画像データをユーザが複数の画像をひとつのグループとしてカテゴリー分けをする機能を有する。これによりひとつのカタログ内を階層化してデータを管理できる。
【0027】
カタログテーブル1100内には、このカタログに属する画像のデータID1101と、属するグループのグループID1102が保持される。そしてグループID1102はグループテーブル1103とリンクする。グループ属性テーブル1104は基本的にカタログテーブルと同じであり、このグループに属する画像のデータID、またはこのグループに属するグループIDを持つ。違いは頭にグループ属性データ1104を持つところが異なる。これにはグループ名1106、作成日時1107、グループタイプ1110が格納される。グループ名1106はユーザが付けた任意の名前がつく。パノラマ画像のセットとしてグループが作られたときは、このグループ名はデフォルトで“パノラマ画像”と付けられる。
【0028】
作成日時は、このグループが作成されたときの日時が格納されている。グループタイプ1110は、ユーザが作成した場合は“ユーザ作成”、パノラマ画像のセットとしてグループが作られたときは、“パノラマ画像”と入っている。パノラマ画像のときは、さらに識別子とリンクしモードID89aが納められる。そして実際の画像データ、属性情報は図6の場合と同じ構造で格納され、これらはデータ管理テーブル1108から参照される。
【0029】
次に図9の説明を行う。ステップ1000で全てのコピーする画像データの処理が終了しない間において、ステップ1001で、コピー操作の中でまず一個の画像データとそれに付随した属性情報とを取得する。ステップ1002で、属性情報内のフィルタタイプ85から、この画像データがネィティブデータかどうかを判断する。そうであればステップ1003でデフォルトとして決まっている汎用フォーマット(JPEGやTIFF等)にネィティブデータを変換する。変換が終わったらフィルタタイプ85も更新する。次にステップ1004で、撮影モード87を調べてパノラマ撮影モードで撮影された画であるかをチェックする。パノラマ画像でない場合は、ステップ1008で通常の画像データとして登録する。具体的には図8でのデータ管理テーブル1108に固有のデータIDを付けて登録し、そのデータIDをカタログテーブル1100に登録する。
【0030】
パノラマ画像であるときは、このパノラマ画像用のグループがすでに作成済みかどうかをチェックする。これは図8のカタログテーブル1100をたどっていって、グループIDのモードID89aが、画像のモードID89aと同じかどうかを見ることによって行われる。対応するグループがないときはグループを作成する。これはカタログテーブル1100に新たにグループID1102を登録し、グループ名1106、作成日時1107、グループタイプ1110を作成する。グループタイプ1110には“パノラマ撮影”と記録され、画像の属性情報中のモードID89aが納められる。そしてステップ1007で、このパノラマ画像データに固有のデータIDを付けて管理テーブル1108に登録し、そのデータID1105を登録する。
【0031】
以上の一連の処理をコピーする画像全てに対して行う。全ての画像に対して処理が終わったならば、ステップ1009に移る。ステップ1009では、今までコピーしたものの中でパノラマ画像のグループが作られたかをチェックし、そうであればグループ内の画像を用いてステップ1010で後述するパノラマ画像合成処理を行う。そうでなければ処理を終了する。
【0032】
図10に上記ステップ1010のパノラマ画像合成処理のフローチャートを示す。まずステップ1200でグループ内の画像が2枚か2枚より多いかをチェックする。2枚のときはステップ1202で後述するフルオート処理に入る。2枚より多いときはステップ1201で後述するオート合成処理に入る。このステップ1201、1202の処理は、ステップ1203、1204でその結果が成功か失敗かをチェックする。この成功か失敗かの判断は、画像同士の対応点が所定数以上見つけられたかどうかで判断する。従って、合成処理全体の中では対応点抽出処理の早い段階で判断を下すので、結果が失敗でもユーザがその結果を得るまで待つ時間は短くて済む。そして成功であれば処理は終了で、失敗であれば、ステップ1205で後述するセミオート処理を行う。
【0033】
図11にオート合成処理のユーザインターフェースを示す。まず画面上に上記ステップ1009におけるパノラマ画像のグループに属する画像全てがウインドウに入る大きさにリサイズされて表示される。これをユーザが見て正しい順番にDragして並べ替える。この図11の例では、3枚の画像が表示され、同図(a)の下に位置している画像が本当は一番右になるので、右側にDragすると、その位置から横に3つ並ぶ同図(b)のようなパノラマであることを検知する。そしてウインドウに入りきるように再度リサイズされて表示される。
【0034】
図12にオート合成処理のフローチャートを示す。まずステップ1301で、ユーザが並べ替えた位置関係の情報を取得する。ステップ1302で一致する対応点を見つけるのにサーチする範囲を設定する。これを図13で説明する。パノラマ画像として撮影するときのルールとして、最小10%、最大50%オーバーラップさせることと、それに直交する上下方向のずれをそれぞれ5%以下と決めると、必ずオーバーラップする範囲は図13(a)の1504で示す範囲となる。またオーバーラップしている可能性のある範囲は図5(b)の1505で示す範囲となる。上記範囲1504の中にあるポイント1503は上記のルールに従うと、サーチ範囲中の1505の中に対応する点があることになる。後述する対応点抽出処理では、このサーチ範囲1505に対してマッチングするかどうかを見ていくことになる。
【0035】
再び図12のフローチャートに戻ると、ステップ1302では、以上のサーチ範囲1505設定に用いるパラメータをセットする。ステップ1303では、対応点を抽出する処理を行う。この詳細については後述する。ステップ1304では、求まった対応点の数が所定値以上かどうかを判断し、所定値以下のときは十分対応点を自動で見つけることができなかったので、セミオート処理へ進む。所定値より多かったときは、ステップ1305の合成パラメータ処理へ進む。ここでは合成の際に用いる移動、拡大(縮小)、回転のパラメータを先の対応点の座標から求める。その詳細は後述する。ステップ1306ではこれらパラメータをもとに画像を合成する。その詳細も後述する。
【0036】
図14にフルオート処理のフローチャートを示す。まず、ステップ1601で対応点抽出のためのサーチ範囲であるマッチング範囲設定を行うが、これは上記ステップ1302と処理は同一である。次に4回対応点抽出処理を行う。フルオートの場合、枚数は2枚に限定しているので、考えられる位置関係は画像1と画像2が上下、下上、左右、右左の4通りである。そこでこの4つの場合について対応点抽出処理をして、それぞれ対応点として抽出できた数、対応点としての一致レベルの平均を保持する。これらの処理が、ステップ1602から1609までの処理である。そしてステップ1610で上記4つの場合について対応点が所定数以上の対応点を抽出できたものがあるかをチェックする。もし一つもなければセミオート処理へ進む。
【0037】
抽出された対応点の数が所定数以上であれば、ステップ1611でその中で対応点としての一致レベルの平均が最も高いものを真の位置関係であるとする。通常の画像では、対応点が所定値以上の場合は4つのうちの一つだけになるはずだが、例えば原稿等を分割して撮った場合似たような字が並んでいて、正しくない位置関係のときでも所定値以上を対応点として抽出してしまう場合があり得る。そこでこのステップ1611では最もフィットしているもの(平均一致レベルが最も高いもの)を選択するようにする。ステップ1612の合成パラメータ処理、ステップ1613の画像合成処理は上記ステップ1305、1306と同一処理である。
【0038】
図15にセミーオート処理でのユーザインターフェースを示す。まず画面上に前記ステップ1009でのパノラマ画像のグループに属する画像全てがウインドウに入る大きさにリサイズされて表示される。これをユーザが見てだいたいのオーバーラップ位置を合わせて重ね合わせる。重ね合うところは、画素単位でビットごとにAND演算をして表示する。従って重なった部分は両方の画像が透けて見える。そしてウィンドウに入りきるように再度リサイズされて表示される。
【0039】
以上の操作は、基本的にオート処理で操作と同一であり、ユーザの負担は少ない。違いはマウス等のポインティングデバイスで画像をDragして離した位置を、位置関係の情報だけを使って並べ替えて表示する(オート処理)ことと位置の情報をそのまま使ってオーパーラップして表示する(セミオート処理)ことだけである。またDrag中にも先のAND演算で透けて見えるため、だいたいの位置を容易に合わすことができる。
【0040】
図16にセミオート処理でのフローチャートを示す。ここでの処理はオート処理のときとほとんど同一である。ステップ1701で、画像のユーザが合わせたオーバーラップ位置情報を取得する。ステップ1702でマッチング範囲を設定するが、ここでの範囲は、所定の範囲(想定されるユーザの合わせた位置の誤差範囲+マージン)となる。従って、オート処理の時の範囲よりはずっと狭い範囲となり、計算時間の短縮と精度の向上が図られる。ステップ1703、1704、1705の対応点抽出処理、合成パラメータ設定処理、画像合成処理は、いずれもオート処理のときと同一である。
【0041】
図17に対応点抽出処理フローチャート、図18にそれを図示したものを示す。図18は、左と右の画像2枚の例を示す。画像の枚数が2枚より大きいときは、2枚の合成を何回か繰り返せばよいので処理としては基本的に同じである。まず、撮影時のルールにのっとり、テンプレートを設定する範囲2005は、縦90%横10%の範囲に設定する。また、サーチする範囲は、対応する点が存在する可能性の範囲ということで、縦100%、横50%の範囲2006に設定される。画像中の範囲2005からエッジが所定値以上強い点を探し、そこを中心として縦、横n画素の矩形をテンプレート画像として切り出す。このテンプレート画像2003をサーチ範囲2006範囲上に置いて画素単位でその差分をとる。この合計が最小となるところをサーチ範囲2006上を1画素ずらして求める。サーチ範囲2006上を全てサーチした結果の最小値が、所定値以下であれば、そのそのポイント同士(x,y)と(x′,y′)を対応点のペアとして保持する。
【0042】
以上が処理の概要となるが、これを図17のフローチャートに沿ってもう一度説明する。まずステップ1901でエッジ抽出画像を作成する。そしてステップ1902で、このエッジ抽出画像の中のテンプレートを設定する範囲2005からエッジが所定値以上強いポイントを探す。そしてそのポイントがあれば、ステップ1903でそのポイントから縦横±n画素ずつの矩形で画像を切り出しテンプレート画像とする。そのポイントの位置からステップ1904で右画像中のサーチ範囲を設定する。そしてステップ1905でサーチ範囲中の画像とテンプレート画像とを重ね合わせ、画素単位で画素値の差の絶対値をとりその合計を求める。その差分の合計値が、それまでの最小値かどうかをステップ1906でチェックし、そうであれば、ステップ1907で、そのサーチ範囲中のポイントの座標とその最小値とを保持する。
【0043】
以上をサーチ範囲全てにおいて繰り返し、最も一致する(最小の差分を持つ)点を見けだす。ステップ1908でサーチ範囲全てにおいて行ったかチェックし、ステップ1909で、その結果求められた最小値が十分小さな値であるか(確かな対応点か)を、所定値Lと比較して判断する。所定値Lより小さかった場合は、ステップ1910で、対応点のリストにテンプレート画像を切り出したポイントの座標(x,y)と、最小値が求められたポイントの座標(x′,y′)と、その最小値の値とを登録する。以上をステップ1911でテンプレート設定範囲のエッジが所定値以上強いポイント全部に対して行い、終了したら対応点のリスト中の全ての最小値からその平均値を求め、これをステップ1912で一致レベル値として保持する。以上で対応点抽出処理を終了する。
【0044】
次に、合成パラメータ設定処理について説明する。画像を2枚としたときに(2枚以上の合成の場合も2枚の合成の繰り返しなので、まずは2枚で考えてよい)、そのずれは、x、y方向の並進、回転、および拡大率の差で表すことができる。よって対応する点(x,y)、(x′,y′)は以下のように表せる。
【0045】
【数1】
【0046】
ここで、θは回転角、Δxおよびyは並進、mは倍率を示す。従ってパラメータA、B、C、Dを求めることによりこの座標変換を表すことができる。先の対応点抽出処理では、対応点(x,y)、(x′,y′)の複数の組を取得した。これを最小自乗法を用いてパラメータA、B、C、Dを求める。
【0047】
【数2】
【0048】
の条件で、
【0049】
【数3】
【0050】
を満たすパラメータA、B、C、Dを求める。
ここで、
【0051】
【数4】
【0052】
とすると、パラメータA、B、C、Dは次のように表すことができる。
【0053】
【数5】
【0054】
このパラメータp1 からp8 を求め、上式に代入することにより、パラメータA、B、C、Dを算出する。
【0055】
最後に、画像合成処理について説明する。すでに、パラメータA、B、C、Dは求められているので、次の式
x′=Ax+By+C
y′=−Bx+Ay+D
に代入すればよい。
【0056】
図19にこれを図示したものを示す。画像が左、右画像の場合、左画像の2倍の大きさを合成画像2103として確保する。ここに、まず左画像をそのままコピーしてくる。次に合成画像の残りの領域(x,y)について、上式から対応する(x′,y′)を求める。そして右画像の(x′,y′)の画素を(x,y)にコピーする。これを合成画像の残りの領域全てに対して行う。
【0057】
図20に同様の内容をフローチャートに示す。ステップS2201で、第1の画像(20での左画像)の2倍の領域を合成画像領域として確保する。ステップS2202で、第1の画像をこの合成画像領域に単純にコピーする。ステップS2203で、合成画像の残りの領域(x,y)について、上式から対応する(x′,y′)を求める。ステップ2204で、(x′,y′)は第2の画像(図19での右画像)内にあるかどうかをチェックし、あればステップS2205で(x′,y′)の画素を(x,y)にコピーする。以上を合成画像の残りの領域全てに対して繰り返し、処理は終了する。
以上によって、最終的なパノラマ合成画像を作成することができる。
【0058】
本実施の形態によれば、まず、自動的にパノラマ画像として合成する画像のセットを抽出してくれる。これによりユーザが合成したい画像のセットを指示する必要がない。また、合成する画像のセットが2枚のときはフルオートで、2枚より多いときもユーザは位置関係を指示するだけ(オート)で合成処理を行うことができ、ユーザの負担は非常に軽いものとなっている。さらにフルオート、オートのときに十分な対応点を検出できなかったときには、セミオート処理に切り替え、この場合もユーザは画像をドラッグして重ね合わせた簡単な位置を指定するだけである。このセミオート処理に切り替わる場合は少ないし、またそうなっても非常に簡単な操作で行えるので、これもユーザの負担は軽いと言える。
【0059】
【発明の効果】
以上のように本発明による画像形成装置によれば、ユーザは、第1の表示領域に表示されている画像をDrag&Drop等により第2の表示領域に移動させて合成したい複数の画像を表示することによって、合成する画像を確認しながら容易な操作で合成画像を得ることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態を示すブロック図である。
【図2】機器の構成例を示す構成図である。
【図3】フルオート処理のときに想定される2枚の画像の組み合わせを示す構成図である。
【図4】オート処理における相対的位置を指示するユーザインターフェースを示す構成図である。
【図5】セミオート処理におけるだいだいのオーバーラップ位置を指示するユーザインターフェースを示す構成図である。
【図6】カラメ内に記録された画像データの構成図である。
【図7】カメラ内の画像データをコンピュータ内へコピーする操作を示す構成図である。
【図8】コンピュータ内で管理するデータの構成図である。
【図9】カメラ内の画像データをコンピュータ内へコピーする際に行う処理のフローチャートである。
【図10】パノラマ合成のフルオート、オート、セミオートの流れを示すフローチャートである。
【図11】オート処理のユーザインターフェースを示す構成図である。
【図12】オート処理のフローチャートである。
【図13】合成時のマッチングが範囲を示す構成図である。
【図14】フルオート処理のフローチャートである。
【図15】セミオート処理のユーザインターフェースを示す構成図である。
【図16】セミオート処理のフローチャートである。
【図17】対応点抽出処理のフローチャートである。
【図18】対応点抽出装置でのテンプレート画像とマッチング範囲を示す構成図である。
【図19】合成処理を示す構成図である。
【図20】合成処理のフローチャートである。
【図21】従来の対応点指示を示す構成図である。
【符号の説明】
301 コンピュータシステム本体
302 ディスプレイ
303 マウス
305 キーボード
307 電子カメラ
504 アプリケーションソフトウェア
505 オペレーティングシステム
518 CUP[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image synthesizing apparatus suitable for use in a panorama synthesizing system or the like that synthesizes a plurality of images that partially overlap images on a computer.
[0002]
[Prior art]
The process of composing a plurality of images on which part of the image overlaps on a computer is generally called panoramic composition. This can be said to be processing from a request to capture a wide subject to make a single image. In addition, in electronic cameras, low resolution (small number of pixels) has been pointed out as a disadvantage compared to silver halide cameras and scanners. The panoramic image synthesis for an image taken with this electronic camera is important not only for taking a wide image but also as a means for taking a high-resolution image. Specifically, a single paper manuscript, magazine, etc. is shot in multiple parts to acquire high resolution data similar to that of a scanner, or a landscape is divided into multiple parts and shot in wide, high resolution. Demonstrates power in cases.
[0003]
In the panorama synthesis, the most important and difficult process is a process of finding an overlap position of a plurality of images. In other words, this is a process of finding the same point (hereinafter referred to as a corresponding point) from the two images (hereinafter referred to as a corresponding point extraction process). The difficulty (error rate) of the corresponding point extraction process varies depending on each image. If there are many unique feature shapes not found elsewhere in the overlapping area, it is possible to search for the corresponding points without making a mistake. However, if a similar pattern is present in other places in the overlap (for example, characters in the document), the corresponding points may be mistaken.
[0004]
Therefore, conventionally, it is common to have a user explicitly specify a corresponding point and perform fine adjustment based on the position to perform synthesis. FIG. 21 shows a conventional example. First, when the user designates a plurality of images to be synthesized, a window as shown in FIG. 21 is opened. The user designates corresponding points in the two images, and puts
[0005]
[Problems to be solved by the invention]
However, the conventional example has the following problems. First, the user must indicate the set of images that he wants to compose. This is not a problem when the total number of images managed on the computer is not so large, but an oversight or the like occurs when many images of thousands or more are managed. In addition, the user must designate the corresponding points almost accurately, and this also becomes a burden on the user as the number of operations increases.
[0006]
The present invention has been made in view of the above-described circumstances, and an object thereof is to obtain an image composition apparatus capable of performing panoramic image composition more easily.
[0007]
[Means for Solving the Problems]
In the image composition device according to the first aspect of the present invention, the first display area capable of displaying a plurality of images is the same as the second display area capable of displaying a plurality of images and different from the first display area. Display means for displaying on a screen; moving means for moving a plurality of images selected from images displayed in the first display area to a second display area according to a user's instruction; and the first Detecting means for detecting an overlap portion of a plurality of images moved from the display area to the second display area, and corresponding point extracting means for extracting corresponding points in the overlap portion detected by the detecting means; And combining processing means for creating a single image by joining the plurality of images based on the corresponding points extracted by the corresponding point extracting means, and the detecting means includes the moving means. The number of the plurality of images are moved within the case is less than the predetermined number of sheets, and detects the overlapping portion of the image automatically I.
[0008]
In the image composition device according to the second aspect of the present invention, a first display area capable of displaying a plurality of images, and a second display area capable of displaying a plurality of images and different from the first display area, Displaying means on the same screen, moving means for moving a plurality of images selected from images displayed in the first display area to the second display area according to a user instruction, Detection means for detecting an overlap portion of a plurality of images moved from the first display area to the second display area, and corresponding point extraction for extracting a corresponding point in the overlap portion detected by the detection means Means for combining the plurality of images based on the corresponding points extracted by the corresponding point extraction means to create one image, and the moving means comprises a predetermined number of sheets. When the above images are input, the images are moved on the second display area to designate the relative positions of the images, and the detecting means is configured to specify the overlap based on the designated relative positions. A part is detected.
[0009]
[Action]
According to the image composition device of the first aspect of the present invention, the first display area capable of displaying a plurality of images and the second display area capable of displaying a plurality of images and different from the first display area are provided. A plurality of images displayed on the same screen and selected from the images displayed in the first display area according to a user's instruction are moved to the second display area, and the first display area When the plurality of images moved to the second display area are less than the predetermined number, the overlap portion is automatically detected, and the corresponding points in the detected overlap portion are extracted and extracted. Based on the corresponding points, the plurality of images are connected to create one image.
[0010]
According to the image composition device of the second aspect of the present invention, the first display area capable of displaying a plurality of images and the second display area capable of displaying a plurality of images and different from the first display area are provided. A plurality of images displayed on the same screen and selected from the images displayed in the first display area according to a user's instruction are moved to the second display area, and the first display area When a plurality of images moved to the second display area are a predetermined number or more, the plurality of images are moved on the second display area to designate the relative positions of the images, Based on this relative position, an overlap portion is detected, corresponding points in the detected overlap portion are extracted, and a plurality of images are connected based on the extracted corresponding points to create one image. To do.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
The present embodiment performs simple and convenient panoramic image synthesis by the following procedure.
(1) First, when shooting an image with an electronic camera, the user sets the camera in the “panoramic image shooting mode” before shooting. In this mode, an identifier indicating a set of panoramic images is automatically recorded in the attribute information of the captured image.
(2) When this camera is connected to a computer and image + attribute information in the memory in the camera is copied to the HD of the computer, this attribute information is checked via application software. One set of images is automatically extracted from the attribute information having an identifier in the panoramic image shooting mode.
[0012]
Next, panorama image composition processing is started. In the image composition, full auto composition, which will be described later, is performed fully automatically only when there are two images. When there are three or more images, auto-composition described later is performed, in which the user designates only the relative positions of the top, bottom, left and right of the image. In addition, when the corresponding points are not sufficiently obtained in the full auto synthesis and auto synthesis check stages, or when the user wants to perform the synthesis processing in a shorter time by omitting the time required for detecting the corresponding points, the user Perform semi-auto synthesis, which will be described later, to specify the approximate overlap position.
[0013]
(3) “Full auto composition”: When one set of panoramic images is extracted in the above (2) and there are two images, full auto composition processing is started. There are four possible positions for combining the two sheets, as shown in FIGS. 3A to 3D. Accordingly, processing for obtaining corresponding points in these four cases is performed, and the most frequently obtained corresponding points among the upper, lower, left, and right are synthesized as correct synthesis positions. At this time, in any of the four cases, the certainty is low when the number of corresponding points is equal to or less than a predetermined amount. At this time, the full-auto synthesis process is discontinued and the process proceeds to a semi-automatic synthesis process. The only user operation in this mode is to copy the image from the camera to the computer, and the rest will be done automatically. Since it is generally considered that two sheets are combined except for special purposes, this combining process is most often performed.
[0014]
(4) “Automatic composition”: When one set of panoramic images is extracted in the above (2) and there are three or more images, this automatic composition processing is started. In this automatic composition, a set of images is displayed in a window. FIG. 4 shows a case where four images are displayed. The user drags these images and considers various arrangements, and instructs only the positional relationship between the top, bottom, left and right. Based on this, corresponding point extraction processing is performed. As a result, when the number of corresponding points that match at a predetermined level or more is greater than or equal to a predetermined amount, they are combined as a correct combining position. Otherwise, the certainty is low, so the auto synthesis process is terminated and the process proceeds to semi-auto synthesis process.
[0015]
(5) “Semi-automatic synthesis”: When the certainty of corresponding point extraction is low in the above (3) and (4), or when it is desired to obtain a faster synthesis result by saving the time required for extracting corresponding points, this semiautomatic Process. The user drags these images and designates the approximate position of overlap as shown in FIG. Based on this position information, corresponding point extraction processing is performed in a much narrower range than in the automatic processing. As a result, the best matching position is obtained and the synthesis process is performed.
[0016]
In the case of (4) and (5) above, the user performs an operation for extracting the corresponding points, both of which are only operations for dragging the image, and this is the simplest and common operation. The burden is small. In addition, in the semi-automatic synthesis of (5), since the image is only dragged to the approximate position, it is much easier and easier than the operation of explicitly specifying the points in the conventional example.
[0017]
FIG. 2 shows a configuration example of a personal computer system which is a platform on which the present invention can be implemented. In FIG. 2, 301 is a computer system main body, 302 is a display for displaying data, 303 is a mouse as a typical pointing device, 304 is a mouse button, and 305 is a keyboard.
[0018]
FIG. 1 is a diagram showing a configuration of a panoramic image synthesis system including software and hardware. In FIG. 1,
[0019]
In FIG. 1, 515 is a hard disk that physically stores files and data, 508 is a file system that constitutes the
[0020]
[0021]
Further, the
[0022]
FIG. 6 shows a data structure of image data and attribute information stored in a built-in memory in the camera. First, an image management table 81 is placed in the memory, and corresponding image data 82 and attribute information 83 are referred to. The image data 82 is stored as either camera-specific format data (native data) or general-purpose format data such as JPEG. The native data is, for example, data obtained by simply A / D output from the CCD. In general, native data takes a short time to record, but the data size is large, and JPEG data takes a long time to record, but is different in that the data size can be reduced. The user selects and stores either one according to the shooting situation.
[0023]
In the attribute information 83, a file name 84, a
As described above, the image data 82 and the attribute information 83 are stored in the camera.
[0024]
FIG. 7 shows a screen for copying data in the camera to a personal computer. The
[0025]
When the user selects an image from the camera catalog 91 (93 is a frame indicating that it has been selected) and performs a Drag & Drop operation on the
・ Native data is converted into a predetermined general-purpose format.
・ If there are images shot in the panorama shooting mode, combine them.
[0026]
The above operation is automatically detected and executed. FIG. 8 shows a data structure on the
First, FIG. 8 will be described. First, the image
[0027]
In the catalog table 1100, the data ID 1101 of the image belonging to this catalog and the
[0028]
The creation date / time stores the date / time when this group was created. The
[0029]
Next, FIG. 9 will be described. While processing of all image data to be copied is not completed in
[0030]
If it is a panoramic image, it is checked whether a group for this panoramic image has already been created. This is performed by tracing the catalog table 1100 of FIG. 8 and checking whether the
[0031]
The above series of processing is performed for all images to be copied. If the processing is completed for all the images, the process proceeds to step 1009. In
[0032]
FIG. 10 shows a flowchart of the panoramic image synthesis process in step 1010. First, in
[0033]
FIG. 11 shows a user interface for the auto synthesis process. First, all images belonging to the group of panoramic images in
[0034]
FIG. 12 shows a flowchart of the auto composition process. First, in step 1301, the positional relationship information rearranged by the user is acquired. In
[0035]
Returning again to the flowchart of FIG. 12, in
[0036]
FIG. 14 shows a flowchart of the full auto process. First, in
[0037]
If the number of extracted corresponding points is greater than or equal to the predetermined number, in step 1611, the one with the highest average of the matching levels as the corresponding points is assumed to be the true positional relationship. In a normal image, if the corresponding point is greater than or equal to a predetermined value, it should be only one of the four. However, for example, when a document is divided and taken, similar characters are lined up and the positional relationship is incorrect. Even in this case, there is a case where a predetermined value or more is extracted as a corresponding point. Therefore, in this step 1611, the best fit (the highest average match level) is selected. The synthesizing parameter process in
[0038]
FIG. 15 shows a user interface in the semi-auto process. First, all images belonging to the group of panoramic images in
[0039]
The above operations are basically the same as the operations in the automatic processing, and the burden on the user is small. The difference is that the position where the image is dragged and released with a pointing device such as a mouse is rearranged and displayed using only the positional information (automatic processing) and the position information is used as it is and overlapped and displayed. (Semi-automatic processing). Also, since it can be seen through in the Drag by the previous AND operation, the approximate position can be easily adjusted.
[0040]
FIG. 16 shows a flowchart in the semi-auto process. The processing here is almost the same as in the automatic processing. In
[0041]
FIG. 17 shows a corresponding point extraction process flowchart, and FIG. FIG. 18 shows an example of two left and right images. When the number of images is larger than two, the composition is basically the same because the composition of the two images may be repeated several times. First, in accordance with the shooting rules, the
[0042]
The above is the outline of the processing. This will be described once more along the flowchart of FIG. First, in step 1901, an edge extraction image is created. In
[0043]
The above is repeated over the entire search range to find the point with the best match (with the smallest difference). In step 1908, it is checked whether the search has been performed over the entire search range. In
[0044]
Next, the synthesis parameter setting process will be described. When the number of images is two (when two or more images are combined, the combination of two images is repeated, so two images may be considered first), and the shift is the translation in the x and y directions, the rotation, and the enlargement ratio It can be expressed by the difference. Accordingly, the corresponding points (x, y) and (x ′, y ′) can be expressed as follows.
[0045]
[Expression 1]
[0046]
Here, θ is a rotation angle, Δx and y are translations, and m is a magnification. Therefore, the coordinate transformation can be expressed by obtaining the parameters A, B, C, and D. In the previous corresponding point extraction process, a plurality of sets of corresponding points (x, y) and (x ′, y ′) are acquired. The parameters A, B, C, and D are obtained by using the least square method.
[0047]
[Expression 2]
[0048]
In the condition of
[0049]
[Equation 3]
[0050]
Parameters A, B, C, and D that satisfy the above are obtained.
here,
[0051]
[Expression 4]
[0052]
Then, the parameters A, B, C, and D can be expressed as follows.
[0053]
[Equation 5]
[0054]
This parameter p 1 To p 8 And parameters A, B, C, and D are calculated.
[0055]
Finally, the image composition process will be described. Since the parameters A, B, C, and D have already been obtained, the following formula
x ′ = Ax + By + C
y ′ = − Bx + Ay + D
Can be substituted into.
[0056]
FIG. 19 illustrates this. When the images are the left and right images, the
[0057]
FIG. 20 shows a similar content in the flowchart. In step S2201, a region twice as large as the first image (the left image in 20) is secured as a composite image region. In step S2202, the first image is simply copied to this composite image area. In step S2203, the corresponding region (x ′, y ′) is obtained from the above equation for the remaining region (x, y) of the composite image. In
As described above, a final panorama composite image can be created.
[0058]
According to this embodiment, first, a set of images to be automatically combined as a panoramic image is extracted. This eliminates the need for the user to designate a set of images to be synthesized. In addition, when there are two sets of images to be combined, it is fully automatic, and when there are more than two images, the user can perform combining processing only by instructing the positional relationship (auto), and the burden on the user is very light. It has become a thing. Further, when sufficient corresponding points cannot be detected in full auto and auto, the mode is switched to semi-auto processing, and in this case, the user simply designates a simple position by dragging and superimposing the images. There are few cases of switching to this semi-automatic process, and even if so, it can be done with a very simple operation, so it can be said that the burden on the user is also light.
[0059]
【The invention's effect】
As described above, according to the image forming apparatus of the present invention, the user moves the image displayed in the first display area to the second display area by Drag & Drop or the like and displays a plurality of images to be combined. Thus, a synthesized image can be obtained by an easy operation while confirming the image to be synthesized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of the present invention.
FIG. 2 is a configuration diagram illustrating a configuration example of a device.
FIG. 3 is a configuration diagram showing a combination of two images assumed in the full auto process.
FIG. 4 is a configuration diagram showing a user interface for designating a relative position in auto processing.
FIG. 5 is a block diagram showing a user interface for instructing a substantial overlap position in semi-automatic processing.
FIG. 6 is a configuration diagram of image data recorded in a caramel.
FIG. 7 is a configuration diagram showing an operation for copying image data in a camera into a computer.
FIG. 8 is a configuration diagram of data managed in a computer.
FIG. 9 is a flowchart of processing performed when copying image data in a camera into a computer.
FIG. 10 is a flowchart showing the flow of panoramic synthesis full-auto, auto, and semi-auto.
FIG. 11 is a block diagram showing a user interface for auto processing.
FIG. 12 is a flowchart of auto processing.
FIG. 13 is a configuration diagram showing a range of matching at the time of synthesis.
FIG. 14 is a flowchart of a full auto process.
FIG. 15 is a block diagram showing a user interface for semi-automatic processing.
FIG. 16 is a flowchart of a semi-auto process.
FIG. 17 is a flowchart of corresponding point extraction processing;
FIG. 18 is a configuration diagram showing a template image and a matching range in the corresponding point extraction device.
FIG. 19 is a configuration diagram showing a synthesis process.
FIG. 20 is a flowchart of a composition process.
FIG. 21 is a block diagram showing a conventional corresponding point instruction.
[Explanation of symbols]
301 Computer system body
302 display
303 mouse
305 keyboard
307 Electronic camera
504 Application software
505 operating system
518 CUP
Claims (4)
ユーザの指示によって前記第1の表示領域に表示されている画像から選択した複数枚の画像を前記第2の表示領域へと移動させる移動手段と、
前記第1の表示領域から前記第2の表示領域へと移動された複数の画像のオーバーラップ部分を検出する検出手段と、
前記検出手段によって検出されたオーバーラップ部分における対応点を抽出する対応点抽出手段と、
前記対応点抽出手段によって抽出された対応点に基づいて前記複数枚の画像をつなぎ合わせて1枚の画像を作成する合成処理手段と、
を備え、
前記検出手段は、前記移動手段によって移動させた複数枚の画像の枚数が所定の枚数未満である場合には、自動で画像のオーバーラップ部分を検出することを特徴とする画像合成装置。Display means for displaying a first display area capable of displaying a plurality of images and a second display area capable of displaying a plurality of images different from the first display area;
Moving means for moving a plurality of images selected from the images displayed in the first display area to the second display area in accordance with a user instruction;
Detecting means for detecting overlapping portions of a plurality of images moved from the first display area to the second display area;
Corresponding point extracting means for extracting corresponding points in the overlap portion detected by the detecting means;
Combining processing means for connecting the plurality of images based on the corresponding points extracted by the corresponding point extracting means to create one image;
With
The image synthesizing apparatus according to claim 1, wherein the detecting unit automatically detects an overlapping portion of the images when the number of the plurality of images moved by the moving unit is less than a predetermined number.
ユーザの指示によって前記第1の表示領域に表示されている画像から選択した複数枚の画像を前記第2の表示領域へと移動させる移動手段と、
前記第1の表示領域から前記第2の表示領域へと移動された複数の画像のオーバーラップ部分を検出する検出手段と、
前記検出手段によって検出されたオーバーラップ部分における対応点を抽出する対応点抽出手段と、
前記対応点抽出手段によって抽出された対応点に基づいて前記複数枚の画像をつなぎ合わせて1枚の画像を作成する合成処理手段と、
を備え、
前記移動手段は、所定の枚数以上の画像が入力されたとき、これらの画像を前記第2の表示領域上で移動させて各画像の相対位置を指定し、
前記検出手段は、前記指定された相対位置に基づいて前記オーバーラップ部分を検出することを特徴とする画像合成装置。Display means for displaying a first display area capable of displaying a plurality of images and a second display area capable of displaying a plurality of images different from the first display area;
Moving means for moving a plurality of images selected from the images displayed in the first display area to the second display area in accordance with a user instruction;
Detecting means for detecting overlapping portions of a plurality of images moved from the first display area to the second display area;
Corresponding point extracting means for extracting corresponding points in the overlap portion detected by the detecting means;
Combining processing means for connecting the plurality of images based on the corresponding points extracted by the corresponding point extracting means to create one image;
With
The moving means, when a predetermined number of images or more are input, moves these images on the second display area and designates the relative position of each image;
The image synthesizing apparatus, wherein the detecting means detects the overlap portion based on the designated relative position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13363996A JP3832894B2 (en) | 1996-05-28 | 1996-05-28 | Image synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13363996A JP3832894B2 (en) | 1996-05-28 | 1996-05-28 | Image synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09322059A JPH09322059A (en) | 1997-12-12 |
JP3832894B2 true JP3832894B2 (en) | 2006-10-11 |
Family
ID=15109530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13363996A Expired - Fee Related JP3832894B2 (en) | 1996-05-28 | 1996-05-28 | Image synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3832894B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3947290B2 (en) * | 1998-01-19 | 2007-07-18 | オリンパス株式会社 | Image composition processing apparatus and recording medium recording image composition processing program |
JP4180083B2 (en) * | 2003-09-26 | 2008-11-12 | シャープ株式会社 | Panorama image creation device and panorama image photographing device |
JP2009151896A (en) | 2007-12-21 | 2009-07-09 | Sony Corp | Image processing system, motion picture reproducing system, and processing method and program for them |
JP6397284B2 (en) | 2014-09-16 | 2018-09-26 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US20160239200A1 (en) * | 2015-02-16 | 2016-08-18 | Futurewei Technologies, Inc. | System and Method for Multi-Touch Gestures |
JP6745084B2 (en) * | 2016-09-07 | 2020-08-26 | 柳井電機工業株式会社 | Photovoltaic power generator inspection device |
-
1996
- 1996-05-28 JP JP13363996A patent/JP3832894B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09322059A (en) | 1997-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7085435B2 (en) | Image synthesization method | |
US8184130B2 (en) | Method and apparatus for image acquisition, organization, manipulation, and publication | |
JP3530653B2 (en) | Panoramic image synthesis device | |
US6593938B1 (en) | Image processing apparatus, method and computer-readable recording medium with program recorded thereon, for joining images together by using visible joining points and correcting image distortion easily | |
JP5478999B2 (en) | Imaging device | |
JP2019067237A (en) | Information processing method, information processing equipment and program | |
JP2001344591A (en) | Method for controlling and display image and device for the same and recording medium | |
JP3832894B2 (en) | Image synthesizer | |
JP2002342743A (en) | Picture processor and picture processing method | |
JP2018124781A (en) | Information processing apparatus, display control method, and program | |
JP2012019267A (en) | Imaging apparatus, control method of the same, and program | |
JPH0991410A (en) | Panorama image synthesis system | |
JP3302236B2 (en) | Panoramic image synthesizing apparatus and method for creating panoramic image | |
JP3241243B2 (en) | Panorama image composition system and panorama image composition method | |
JPH11212992A (en) | Picture filing system and record medium recording program controlling the system | |
JP4525841B2 (en) | Image composition apparatus, computer program, and recording medium | |
JP4142164B2 (en) | Image display device | |
JP2007143017A (en) | Correction of date information of image file | |
JP2007259263A (en) | Image processing method, image processing device, program, and storage medium | |
JP2004289706A (en) | Image processing method, image processing apparatus and program | |
JP3216037B2 (en) | Panorama image composition system | |
JP2004363831A (en) | Apparatus and method for moving picture processing | |
JP2005217721A (en) | Apparatus and method for generating still picture | |
JP7252501B2 (en) | Information processing device, information processing system, information processing method and program | |
JP4227638B2 (en) | Image processing apparatus and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040921 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050607 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050802 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060418 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060718 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090728 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100728 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100728 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110728 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120728 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120728 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130728 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |