JP4551018B2 - 画像結合装置 - Google Patents

画像結合装置 Download PDF

Info

Publication number
JP4551018B2
JP4551018B2 JP2001107532A JP2001107532A JP4551018B2 JP 4551018 B2 JP4551018 B2 JP 4551018B2 JP 2001107532 A JP2001107532 A JP 2001107532A JP 2001107532 A JP2001107532 A JP 2001107532A JP 4551018 B2 JP4551018 B2 JP 4551018B2
Authority
JP
Japan
Prior art keywords
image
rectangular
input
combining
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001107532A
Other languages
English (en)
Other versions
JP2002305647A (ja
Inventor
裕幸 ▲高▼倉
憲一郎 酒井
伸康 山口
嗣男 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001107532A priority Critical patent/JP4551018B2/ja
Priority to US09/962,306 priority patent/US6885776B2/en
Publication of JP2002305647A publication Critical patent/JP2002305647A/ja
Application granted granted Critical
Publication of JP4551018B2 publication Critical patent/JP4551018B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/1903Arrangements for enabling electronic abutment of lines or areas independently scanned by different elements of an array or by different arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0414Scanning an image in a series of overlapping zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、複数回に分けて取りこんだ画像を結合する装置に関する。
【0002】
【従来の技術、及び発明が解決しようとする課題】
近年、据え置き型のフラットベッドスキャナに加え、持ち運びが容易な手動操作型の小型ハンドヘルドスキャナが開発・製品化されている。ハンドヘルドスキャナは本体が小型であるため一度にスキャンできる幅が狭い。スキャナ幅を超える大きな画像を取り込むためには、画像を複数回に分けて取り込み合成する必要がある。または、スキャナ幅を超えない場合でも、ユーザが、複数回に分けてスキャンするような操作を行う場合が考えられる(スキャンの仕方はユーザの自由であるので、この様な事態も起こり得る)。
【0003】
従来より、複数回に分けて取り込んだ画像を結合する技術はいくつか存在する。しかし、フルカラーの画像を結合するには、処理に必要なメモリ容量、処理時間が大きいといった問題がある。PC(パソコン;特にノート型パソコン、またはPDA/ハンドヘルドPC等の携帯型情報処理装置)の処理能力は向上しているが、より画質を向上するため、画像のデータ量も増加しており、メモリ容量、処理時間の削減は必須である。
【0004】
パノラマ写真等に関する公知の結合技術は、正立した画像に対して結合面が左右に限定することにより、処理時間をある程度短縮している。
しかしハンドヘルドスキャナでは、ユーザは紙面に対してどちらの方向からも読み取りが可能であるため(図23、図24)、画像の取り込み方向によっては入力画像が鏡像反転したり(図25)、かつ/または、回転する場合がある為、2つの画像の重なり位置を検出するのに、非常に時間が掛かっていた。
【0005】
例えば、図26(a)に示すように、ハンドヘルドスキャナを用いてユーザが、1回目のスキャンを図の上から下方向(図の1)で示す)に行ない、2回目のスキャンを図の右から左方向(図の2)で示す)に行なったとすると、このハンドヘルドスキャナに接続されている情報処理端末(上記パソコン(特にノート型パソコン)、またはPDA/ハンドヘルドPC等の携帯型情報処理装置)側に入力される2つの画像データ(第1の画像、第2の画像)は、図26(b)に示すようになる。
【0006】
このような例では、まず、図27(a)に示すように、第1の画像に対して第2の画像を上下左右に移動させて(勿論、その逆に、第2の画像を固定して、第1の画像を第2の画像の上下左右の位置に移動させてもよい)、重なり位置の検出を試みるが、当然、ここでは失敗する。
【0007】
よって、次に、図27(b)に示すように、第2の画像を回転させて(ここでは、90°回転させる)、再度、上記と同様に、第1の画像に対して第2の画像を上下左右に移動させて重なり位置の検出を試みると、今度は、第1の画像の右側に第2の画像を移動させたときに、重なり位置の検出できる(同図(c))。
【0008】
この例では、90°回転させたときに重なり位置を検出できたが、更に回転させなければ(180°、270°)重なり位置を検出できない場合もある。更に、全ての回転角度(0°、90°、180°、270°)で試してみても重なり位置を検出できない場合(すなわち、鏡像反転している場合)には、更に、第2の画像を鏡像反転させた上で、再度、0°、90°、180°、270°の回転角度で重なり位置の検出を試みる必要がある。
【0009】
上述したように、2つの画像の重なり位置の検出に多くのメモリ容量及び処理時間を要していた。すなわち、入力画像の回転角度(0°/90°/180°/270°)の4通り、及び/または、鏡像反転有無(2通り)を判定する必要がある為に、回転角度(4通り)×鏡像反転有無で計8通り(更に、図27(a)に示すような上下左右の検出を含めれば32通り)の中のどれに当たるのかが分かるまでに多くのメモリ容量及び処理時間を要していた)。
【0010】
このような問題に対して、従来より、ハードウェアによってスキャナの移動量や進行方向を検出して、結合に利用する方法がある。しかしながら、この方法では、このような検出を行うハードウェアが加わる分、コストが高くなる/スキャナのサイズや重量が増えるといった問題がある。
【0011】
また、パノラマ写真等の結合技術においても、正立した画像に対して結合面を左右に限定するという前提がなければ、同じことが言える(よって、この場合、厳密に言えば、パノラマ写真とは言わないのかもしれないが、とにかく、本発明の対象は、ハンドヘルドスキャナで読取った画像データに限るものではなく、例えばディジタルカメラ/ディジタルAVなどで、ユーザが、左右に限定されることなく自由に撮影した画像データも対象とする。)
本発明の課題は、1つ目の画像に対し2つ目の画像が相対的に鏡像反転かつ/ または回転する場合であっても、スキャナの移動量や進行方向を検出するハードウェアを利用せずに、処理に必要なメモリ容量を削減し、高速かつ自動的に2つの画像を結合できる画像結合装置を提供することである。
【0012】
【課題を解決するための手段】
本発明による請求項1記載の画像結合装置は、入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、前記読み込んだ複数の入力画像データよりデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する第一の重なり位置検出手段と、該第一の重なり位置検出手段により検出された結合位置関係とおおまかな重なり領域とに基づいて、前記複数の入力画像を結合する画像結合手段とを有するように構成する。
【0013】
ユーザが、例えばハンドヘルドスキャナ等を用いて自由な操作で複数回に分けて画像を取込んだ場合、この複数の画像の結合位置関係(鏡像反転有無、回転角度)(更に上下左右の位置関係)がどのようになっているか分からない。
【0014】
上記画像結合装置では、これを、第一の重なり位置検出手段によって例えば入力画像の縮小画像等のようなデータ量を少なくした画像データを用いて検出している(上下左右の位置関係は、おおまかな重なり領域より分かる)ので、画像結合手段は、この検出結果を用いて入力画像を必要に応じて鏡像反転/回転等させる等して入力画像を結合すれば済むので、処理が高速化でき、また処理に必要なメモリ容量も少なくて済む。
【0015】
本発明による請求項2記載の画像結合装置は、入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、前記読み込んだ複数の入力画像データのおおまかな重なり領域を検出する第一の重なり位置検出手段と、該第一の重なり位置検出手段により検出されたおおまかな重なり領域を複数の矩形領域に分割し、該分割した矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、結合面として用いる矩形領域とを抽出する第二の重なり位置検出手段と、該第二の重なり位置検出手段により検出された前記正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記結合面として用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する画像結合手段とを有するように構成する。
【0016】
上記画像結合装置によれば、正確な重なり位置検出に用いる矩形領域をそのまま結合面としても用いるのではなく、例えば色差の小さい濃度成分を多く含む矩形領域の中から選択された矩形領域を結合面として用いるようにすることで、例えば結合面が完全に一致しない場合でも、つなぎ目が目立たないように処理できる。
【0017】
本発明による請求項3記載の画像結合装置は、入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、前記読み込んだ複数の入力画像データを一時的に記憶すると共に、該入力画像データのデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する第一の重なり位置検出手段と、前記読み込んだ各入力画像データを単一の色成分を持つ階調画像に変換した階調画像データを用い、該階調画像データにおいて前記第一の重なり位置検出手段により検出されたおおまかな重なり領域に対応する領域を、複数の矩形領域に分割し、該複数の矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、画像の結合面に用いる矩形領域とを抽出する第二の重なり位置検出手段と、前記読み込んだ各入力画像データを用い、該第二の重なり位置検出手段により検出された前記正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記画像の結合面に用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する画像結合手段とを有するように構成する。
【0018】
上記画像結合装置によれば、まず、第一の重なり位置検出手段において例えば入力画像のグレースケールの縮小画像等のようなデータ量を少なくした画像データを用いて結合位置関係(鏡像反転有無、回転角度)とおおまかな重なり領域を検出し、次に第二の重なり位置検出手段において、入力画像データを単一の色成分を持つ階調画像に変換した階調画像データを用いて、正確な重なり位置検出に用いる矩形領域と、画像の結合面に用いる矩形領域とを抽出しており、画像結合手段がデータ量の多い入力画像を用いた処理を行う際には、これら第一の重なり位置検出手段、第二の重なり位置検出手段の処理結果を用いて処理を行なえば良いので、処理が高速化でき、また処理に必要なメモリ容量も少なくて済む。更に、たとえ結合面が完全に一致しない場合でも、つなぎ目が目立たないように処理できる。これは、特に入力画像がフルカラー画像である場合に顕著な効果を奏するものである。
【0019】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について説明する。
尚、以下に述べる実施の形態の説明では、2つの画像を結合する場合について説明するが、本発明は2つの画像に限らず、3つ以上の画像を結合する場合にも適用可能である。
【0020】
図1は、本発明の原理ブロック図である。
本発明は大きく分けて3つのステップ(処理段階)から構成される。
上述してある通り、ハンドヘルドスキャナは、手操作により走査するものであるため、ユーザは紙面に対してどちらの方向からも読み取りが可能であり、画像の取り込み方向によっては入力画像が鏡像反転かつ/または回転(90°/18 0°/270°)する場合があり(更に、一方の画像に対して他方の画像を上下左右にずらして重なり位置を捜す必要がある)、重なり位置を検出するまでに多くの処理時間を要する。
【0021】
本例では、この様な問題に対応する為に、画像の結合処理を3つの段階に分けている。
まず、第一段階の“おおまかな重なり位置検出”1においては、例えばハンドヘルドスキャナ等の入力機器4より入力される画像データのデータ量を非常に少なくした画像データ(例えば単一の階調画像の縮小画像)を用いて、2つの画像の結合位置関係(上記回転角度、及び/または、鏡像反転有無)を検出する。また、この検出した結合位置関係における2つの画像の“おおまかな重なり領域”を検出する(例えば後述する図6に示す領域/その座標データ)。尚、上記第一段階で行う全ての事を含む概念を“おおまかな重なり位置検出”と呼ぶ場合もある。尚、図27(a)に示す上下左右の位置関係は、“おおまかな重なり領域”の座標データを見れば分かる。
【0022】
このように、本例では、第一段階において、データ量が非常に少ない縮小画像を用いて(尚、スキャン画像がカラー画像である場合には、これを単一の階調画像(グレースケール)に変換して、その縮小画像(グレースケール縮小画像)を用いるものとする)、2つの画像の結合位置関係(回転角度、及び/または、鏡像反転有無)を特定し“おおまかな重なり領域”の検出するようにしたことを第1の特徴としている。
【0023】
スキャンした画像データのままではデータ量が多い(特に、フルカラー画像の場合、非常にデータ量が多い)ので、これを用いて処理を行うと、多くの処理時間/メモリ容量が必要であったが、本例では、処理を複数の段階に分けて、第一段階では、データ量の少ない縮小画像を用いて、2つの画像の結合位置関係の特定と“おおまかな重なり領域”の検出に絞った処理を行っているので、全体としての処理の高速化も図ることができ、また、処理に必要なメモリ容量が少なくて済む。
【0024】
次に、第二段階において、2つの画像の“正確な重なり位置検出”2の処理を行う。
ここでは、スキャン画像がフルカラー画像である場合には、これを単一の階調画像(グレースケール)に変換した画像データを用いる。そして、第一段階で検出した“おおまかな重なり領域”に基づいて、2つの画像の正確な重なり位置と結合面として用いる(つなぎ目;合成処理に用いる)領域を検出する。これは、“おおまかな重なり領域”を複数の矩形領域に分割し、色差の大きい濃度成分を多く含む矩形領域の中から正確な重なり位置検出に用いる領域を決定し、色差の小さい濃度成分を多く含む矩形領域の中から2つの画像の結合面として用いる矩形領域を決定する。
【0025】
本例では、このように正確な重なり位置検出に用いる領域とは別に、色差の小さい濃度成分を多く含む矩形領域の中から結合面に用いる矩形領域を選択するようにしたことで、つなぎ目を目立たなくできるようにしたことを第2の特徴としている。
【0026】
また、上記の様に分割した矩形領域を用いて、スキャンした1つ目の画像(以下、第1の画像という)に対するスキャンした2つ目の画像(以下、第2の画像という)の相対的な傾きを検出するようにしている。
【0027】
そして、第三段階において初めて、データ量が多いスキャン画像(フルカラー画像等)を用いた処理を行う。上記第一段階、第二段階の処理結果により、2つの画像の結合位置関係(回転角度、及び/または、鏡像反転有無)、傾き、正確な重なり位置、及び結合面に用いる矩形領域が分かっているので、これらを用いて2つの画像を結合する。そして、この結合した画像を、出力画像5として、例えば表示出力、または印刷出力、あるいは記憶装置に記憶する等の出力処理を行う。
【0028】
尚、ハンドヘルドスキャナの走査方向をユーザが入力/設定できる構成とした場合には、画像の結合面を特定できるため、処理時間を短縮することができる。
処理速度を優先する場合は、ユーザが走査方向を入力/指定する構成としてもよい。しかし、この場合、ユーザ負担が増すことになる。
【0029】
本例では、このようなユーザ負担が増すことなく、またユーザは所望の方向から好きなように走査を行なってよく、装置側で高速に(更に比較的少ないメモリ容量で)自動的に補正を行なって2つの画像を結合する装置を提供するものである。
【0030】
図2は、本実施の形態による画像結合装置における処理全体を概略的に示すフローチャート図である。
同図において、入力機器(本例では、手動操作型の小型ハンドヘルドスキャナとするが、これに限らず、ディジタルカメラ/ディジタルビデオカメラ等であってもよい)より取り込んだ1枚目の画像データ(第1の画像データ10)を一旦メモリに格納する(ステップS11)。次に、このメモリに格納した第1の画像データ10を読み出し、それがRGB色成分を持つカラー画像(特に、フルカラーの画像)である場合には(ステップS13,YES)、これを単一の色成分を持つ階調画像(グレースケール)に変換する(ステップS13)。この階調画像の作成は、本例ではYCbCr変換を使用する。例えば、YCbCr変換のY成分に着目して階調画像を作成する。入力画像が単一の色成分を持つ画像であれば(ステップS13,NO)、変換する必要はない。この第1の画像データ10の階調画像データは、以下、ImgGray1(x,y)11と記す。単一の色成分を持つ階調画像を利用 することで、複数の色成分を持つ画像を用いるよりも、使用するメモリ容量を削減し、高速に処理することが可能である。
【0031】
尚、階調画像の作成は、上述した方法以外にも、例えば、差分フィルタを用いて微分値を画素成分とする画像を作成する方法や、RGB 色成分のうち1つの色成分を階調画像とする方法や、それ以外の変換方法を利用しても構わない。
【0032】
次にステップS15において、ImgGray1(x,y)11を幾何学的に縮小変換す る。ここでは複数個の画素成分の平均値を取ることで縮小画像を作成する。例えば縮小率を1/nとした場合、「n(x方向)×n(y方向)」の領域の平均値を画素成分とする。尚、この第1の画像データのグレースケールの縮小画像データを、以下、ImgGray1´(x,y)12と記す。縮小画像を利用することで、使用す るメモリ容量を削減し、高速に処理することが可能となる。
【0033】
次に、2枚目の画像データ(第2の画像データ20)を入力機器より取り込み(ステップS16)、上述した第1の画像データに対する処理と同様の処理を行う。
【0034】
すなわち、第2の画像データ20を一旦メモリに格納すると共に(ステップS17)、このメモリに格納した第2の画像データ20を読み出し、これがカラー画像であれば(ステップS18,YES)、単一の色成分を持つ階調画像に変換する(ステップS19)。
【0035】
尚、この第2の画像データ20の階調画像を、以下、ImgGray2(x,y)21と 記す。
そして、第2の画像の場合と同様にして、ImgGray2(x,y) を幾何学的に縮小し、縮小画像(以下、ImgGray2´(x,y)22と記す)を作成する。
【0036】
図3に、上記縮小画像作成のイメージを示す。
次に、これら2つの縮小画像(ImgGray1´(x,y)12とImgGray2´(x,y)22)を、ステップS21に引数として渡し、ステップS21において、1つ目の画像に対する2つ目の画像の結合位置関係(相対的な回転角度、及び/または、鏡像反転有無)を検出する。また、この結合位置関係における2つの画像のおおまかな重なり領域を検出する。
【0037】
次に、上記単一の色成分を持つ階調画像(ImgGray1(x,y)11、ImgGray2(x,y)21)と、上記ステップS21による検出結果を用いて、上記おおまかな重なり領域を複数の矩形領域に分割し、正確な重なり位置検出に用いる矩形領域と、結合面に用いる矩形領域を抽出する。また、必要に応じて、1つ目の画像に対する2つ目の画像の相対的な傾き角度を算出する(ステップS22)。
【0038】
そして、上記メモリに格納してある第1の画像、第2の画像の2つの入力画像(フルカラー等)を読み出し、上記ステップS21、S22の処理で得られている回転角度、鏡像反転有無、正確な重なり位置検出に用いる矩形領域、結合面に用いる矩形領域、傾き角度等の各種データを用いて、鏡像反転、回転、傾きを補正しながら、2つの入力画像を正確に、且つ、つなぎ目が目立たないようにして結合することができる(ステップS23)。この結合画像を出力し、処理を終了する。
【0039】
以下、上記ステップS21、S22、S23の各々の処理の詳細について説明していく。尚、これらの説明においては、図23で示したような縦方向に走査して取り込んだ2つの画像を例にとって説明する。
【0040】
まず、図4は、ステップS21の処理の詳細フローチャート図である。
引数には、上記の通り、単一の色成分を持つ階調画像を縮小して成る縮小画像ImgGray1´(x,y)12、ImgGray2´(x,y)22を受け取る。
【0041】
まず、変数nを初期化(n=1)する(ステップS31)。ハンドヘルドスキャナは手走査であるため、読み取り方向によって、画像が鏡像反転、回転する場合がある。第1の画像に対する第2の画像の相対的な回転角度(4通り)×鏡像反転有無で計8通り考えられる。
【0042】
ここでは、n=1〜4が正立した画像に対する上記4通りの回転角度、n=5〜8が鏡像反転後の上記4通りの回転角度を意味するものとする。
よって、まず、正立した画像に対する上記4通りの回転角度の中の1つ(n=1)において、上記縮小画像ImgGray1´(x,y)12、ImgGray2´(x,y)22を用いて、2つの画像のマッチングを取り(ステップS32)、重なり位置を検出できたか否かを判定する(ステップS33)。
【0043】
具体的には、最初は、ImgGray2´(x,y)22の回転角度をn=1で示される 回転角度(例えば0°)とし、ImgGray1´(x,y)12に対してImgGray2´(x,y)22を上下左右の各位置の移動させ、各々の位置でImgGray2´(x,y)を上下 左右にずらしていき画素と画素のマッチングを取る。
【0044】
ここで、“上下左右にずらす”ことと“上下左右の各位置の移動させる”ことは異なる意味である。例えば、図5に示す一例は、ImgGray1´(x,y)12の“ 右”にImgGray2´(x,y)22を移動させた状態で、ImgGray2´(x,y)22を上下左右にずらしながら画素と画素のマッチングを取る様子を示してある。
【0045】
その際、1画素単位でずらしていくのではなく、数画素単位でずらしていっても構わない。ここでは正確な重なり位置を検出する必要はないため、1画素単位よりも数画素単位で画像をずらした方が高速化に処理することができる。マッチングの手法は、ハミング距離、ユークリッド距離等を使用し、距離が最小となる位置を重なり領域とする。但し、今回処理対象となっている回転角度において求めた最小距離Dmin が、ある閾値(Dthresh)未満とならない場合には(ステップS33,NO)、この回転角度においては重なり領域は検出されないものと見做し、他の回転角度(または鏡像反転)についての処理に移る。(尚、マッチングの手法は、上記の例に限らず、他の手法(例えば、DPマッチング等)を用いてもよい。また、尚、閾値(Dthresh)の値は、正しい回転角度(及び鏡像反転有無)でマッチング処理を行なった場合にのみその最小距離Dmin が閾値(Dthresh)未満となるような値を、設定しておく)。
【0046】
図示の処理例では、重なり領域が検出されなかった場合には(ステップS33,NO)、どちらか一方の縮小画像を回転させる(本例ではImgGray2´(x,y) 22を時計回り方向に90°回転させるものとする)(ステップS37)と共にnの値をインクリメントし、再び上記ステップS32、S33の処理により重なり領域を捜す。
【0047】
但し、その前に、nのカウント数がn=4のときには(ステップS34,YES)、ImgGray2´(x,y)22 を鏡像反転する。また、n=8(ステップS36,NO)の場合には本処理を終了する(この場合は、処理失敗である)。
【0048】
つまり、上述してある通り、鏡像反転有無を含めた画像の回転角度は8通りであり、n=1〜4までの各回転角度(0°、90°、180°、270° )についての処理で重なり領域が検出されなかったら、n=4の処理後に鏡像反転し、n=5〜8で鏡像反転+回転角度(0°、90°、180°、270° )のケースについても調べる(重なり領域が存在しないか捜す)。
【0049】
そして、重なり領域が見つかった場合には(ステップS33,YES)、そのときの回転角度(0°、90°、180°、270° のどれか)と鏡像反転有無のデータを出力すると共に、このおおまかに検出した重なり領域の座標データを出力する。これは、ImgGray1´(x,y)21とImgGray2´(x,y)22でそれぞれ求める。例えば、図6に示すような重なり領域が検出されたとすると、例えばImgGray2´(x,y)22の重なり領域の座標点は図示の通り(A2'(x1,y1), B2'(x2, y1), C2'(x2, y1), D2'(x2, y2))が、出力される。
【0050】
このように、入力画像(フルカラー等)を単一の階調画像データに変換し、更にこれを縮小し、この縮小画像において数画素単位でマッチングを取るようにすることで、低メモリ/高速に画像のおおまかな重なり位置を検出することが可能となる。
【0051】
次に、以下、第二段階の処理(ステップS22の処理)について詳細に説明する。
図7は、ステップS22の処理の詳細フローチャート図である。
【0052】
ステップS22の処理は、引数には、単一の階調画像データ(ImgGray1(x,y)11、ImgGray2(x,y)21)と、ステップS21より出力される鏡像反転有無、回転角度、及び重なり領域の座標データを受け取る。
【0053】
このように、第二段階の処理では、単一の階調画像データを用いて処理を行う。まず最初に、上記鏡像反転有無、回転角度、及び重なり領域の座標に基づいて、ステップS21で検出した「縮小画像」の重なり領域を、「単一の階調画像」の重なり領域に対応させる。
【0054】
すなわち、まず、鏡像反転させる必要があれば(ステップS41,YES)、ImgGray2(x,y)21を鏡像反転する(ステップS42)。
次に、回転させる必要があれば(ステップS43、YES)、ImgGray2(x,y)21を上記ステップS21で検出された角度分だけ回転させる(ステップS44)。
【0055】
そして、ステップS45において、まず、ステップS21で検出した縮小画像における重なり領域の座標を、縮小前の画像ImgGray1(x,y)11、ImgGray2(x,y)21における座標に対応させる。これは、仮に縮小率が“1/ND”であれば、検出した座標をND倍すればよい。図6において、ImgGray2´(x,y)22 の重なり領域の座標をA2'(x1,y1), B2'(x2, y1), C2'(x2, y1), D2'(x2, y2)とすると、縮小前の座標はそれぞれA2(ND×x1, ND×y1), B2(ND×x2, ND×y1), C2(ND×x2, ND×y1), D2(ND×x2, ND×y2) となる(図8(a)に示すような、ImgGray2(x,y)21に対応させた重なり領域30が求められる)。
【0056】
次に、 ImgGray2(x,y)21における座標に対応させた上記重なり領域30を、複数の矩形領域に分割する。ここでは、例えば図8(b)に示す例のように、M行×N列の領域(正方形)に分割するものとするが、矩形領域は長方形、円形などそれ以外の形でも構わない。よって、以下、図示の例では各分割領域の形は正方形となっているが、正方形領域とは呼ばずに、矩形領域と呼ぶものとする。
【0057】
次に、分割した矩形領域の中から色差の大きい濃度成分を多く含む矩形領域
(以下、第1の矩形領域と呼ぶ)を抽出する(ステップS46)。
これは、例えば、各矩形領域を“1/NS”に縮小し、縮小画像を差分フィルタにかけ、画像中の線や縁を強調する。次に輪郭線追跡を行い、線や縁がある一定以上含まれており且つこれらがある一定以上の長さを持っていれば、この矩形領域を第1の矩形領域として抽出する。尚、“ある一定以上”の値は、予め適切と思われる値が設定されているものとする。
【0058】
例えば、図8(b)(図9(a))に示す例では、背景色と図(四角形、三角形、円形)の境界部分で色差が大きい。よって、このような境界部分を多く含む矩形領域を抽出していくと、例えば図9(b)で斜線で示す矩形領域が、第1の矩形領域として抽出される。
【0059】
実際の写真画像等では、背景や人物、山、木、川等それぞれの境界部分で色差が大きいため、このような色成分を含む矩形領域が、第1の矩形領域として抽出されることになる。
【0060】
尚、上記色差の大きさに基づいて抽出する方法に限るわけではなく、例えば輝度成分を利用した画像を使用する場合には、輝度差が大きい矩形領域を抽出する。
【0061】
色差の大きい矩形領域を使用して画像のマッチングを取ると、正確な重なり位置とそうではない位置とで大きな差がでる。例えば、ハミング距離やユークリッド距離等を利用したマッチング方法では、正確な重なり位置では値が小さくなり、そうでない位置では値が大きくなる。
【0062】
よって、ステップS46で抽出した第1の矩形領域は、正確な重なり位置検出の為に用いるのに適しているが、全て用いる必要はなく、例えばステップS47で説明するように、その中から幾つかを選択して用いる。
【0063】
ステップS47においては、ステップS46にて抽出した第1の矩形領域の中から、正確な重なり位置検出の為に用いる矩形領域を、上記重なり領域30の長手方向(特に、図8における座標A2と座標C2とを結ぶライン)と平行な方向に選択していく。
【0064】
これを、図9(b)に示す例に対して行なった場合、図10(a)に示すように、1列目〜3列目までの各列が抽出されることになり、このような場合には第1の矩形領域を最も多く含む列を選択する。
【0065】
但し、図10(a)の例では、向かって右側の列と左側の列が、同数(6個)の第1の矩形領域を含むので、このように第1の矩形領域を最も多く含む列が複数個ある場合には、図8における座標A2と座標C2とを結ぶラインに最も近い列を選択する。よって、ここでは図10(b)に示す様に、向かって左側の列を選択することになる。
【0066】
但し、選択した列に含まれる第1の矩形領域の数が少ない場合(例えば、予め6個以上必要等と設定しておく)、他の列からも抽出する。但し、このように複数の列から抽出すると、逆に、正確な重なり位置検出に使用する矩形領域の数が多くなり過ぎることも考えられ、この場合、マッチングに要する処理時間が増加するため、1つの行から2つ以上の矩形領域を抽出しないようにする。このように複数の列から抽出する様子の一例を、図11に示す。
【0067】
図11(a)に示す例では、2列目及び3列目が、抽出された第1の矩形領域(斜線で示す)を最も多く含む列であるが、とちらもその数は4個と少ないので、複数の列から抽出することになる。上記の通り、1つの行からは2つ以上の第1の矩形領域は抽出しないので、1つの行に複数の第1の矩形領域が存在する場合には、どれか1つを選択する。そして、どの行/列から抽出したのかを記録する。
【0068】
図示の例では、図11(b)に示すように、1行1列、2行1列、3行3列、4行3列、8行2列、9行2列の6個の第1の矩形領域が選択される。
一方、上記の場合とは逆に、選択した列に含まれる第1の矩形領域の数が多過ぎる場合や、あるいは更に処理時間を短縮したい場合には、その列に含まれる第1の矩形領域の数を減らすようにしてもよい。但し、減らした結果、その列に含まれる第1の矩形領域が、列の上半分や下半分にかたまらないようにして、削減する第1の矩形領域を選択する(上下に幅広く選択する)。
【0069】
次に、上記第1の矩形領域の中から選択された矩形領域毎に、ImgGray1(x,y)11 とのずれを検出する(ステップS48)。これは、上記第一段階の処理( ステップS21)で検出した“おおまかな重なり位置”から前後左右に1画素ずつずらしながらマッチングを取り、正確な重なり位置を検出する。マッチング手法自体は、ステップS21と同様の方法を用いる。
【0070】
ここで、もし傾きが存在するならば、上記矩形領域毎に検出した正確な重なり位置は、“おおまかな重なり位置”から左右(上下)方向にズレることになる。
例えば、図12に示すように、元々スキャンした際に、第1の画像に対して第2の画像がθ°傾いていた場合、その縮小画像を用いたステップS21の処理では、傾きを考慮せずに全体として“距離が最小となる”位置を求めている為、例えば図13に示すように、傾きに応じたズレが生じることになる。
【0071】
図13の例では、傾きによって、円→四角→三角の順にズレが大きくなっていっている。
一方、上記矩形領域毎にマッチングする場合には、このような傾きによるズレは生じないので、各矩形領域毎にほぼ正確な重なり位置を検出できる。
【0072】
以上のことから、もし第2の画像が傾いている場合には、矩形領域毎に検出した正確な重なり位置は、“おおまかな重なり位置”から左右(上下)方向にずれる。図14に示す例のように、第2の画像が第1の画像に対して時計回りの方向に傾いている場合、図10の1行目近くから抽出した矩形領域(三角の図形の部分)は大きく右にずれるが、M行目近くから抽出した矩形領域(円の図形の部分)のずれは少ない。図14に示すように、ブロック(矩形領域)の左右(上下)方向へのずれが比例して変化すれば、ImgGray2(x,y)21がθ°傾いているこ とが分かる。
【0073】
以上のことより、まず、ステップS48において、各矩形領域毎にズレを検出し、この検出したずれの大きさをX,Y軸上にプロットする。
そして、ステップS48の処理結果を用いて、ステップS49において、直線の傾きを回帰分析等の手法を利用して算出することで、ImgGray1(x,y)11に 対するImgGray2(x,y)21の相対的な傾きを求めることができる。
【0074】
このように矩形領域を上記重なり領域30の長手方向(特に、図8における座標A2と座標C2とを結ぶライン)と平行な方向に選択し、矩形領域毎に第1の画像とのずれの量を計算することで、第2の画像の相対的な傾きの大きさを計算することができる。
【0075】
例えば、回帰分析を利用した画像の傾きの算出方法の一例を、以下に説明する。
図14には、第一の重なり位置検出で求めた重なり領域の元座標(黒四角で示す)、正確な重なり位置検出で求めた矩形領域の座標(バツで示す)を示してある。ここで、求める直線の式を、
y(x)=ax+bとする(a;直線の傾き、b;切片)。
【0076】
次に、正確な重なり位置検出で求めた座標と元座標とのズレをそれぞれ(x,f)(i=1、2、・・・、n)とする。nは、矩形領域の数を表し、ここではn=3となる。
【0077】
各点におけるfとy(x)との残差を
e(x)=y(x)−f=(ax+b)−f
(i=1、2、・・・、n)
とすると、残差の二乗和Jは、
【0078】
【数1】
Figure 0004551018
【0079】
となる。Jを評価関数とし、Jが最小になるようにa,bの値を定めれば良い。つまり、Jをa,bに関してそれぞれ以下のように偏微分する。
【0080】
【数2】
Figure 0004551018
【0081】
上記2つの式からaを計算すれば、直線の傾きを求めることができる。更に、傾き角度をθとすると、アークタンジェントを用いて、直線の傾きaからθを求めることができる。
【0082】
次に、ステップS50において、2つの画像の正確な重なり位置を検出する。ImgGray1(x,y)11に対するImgGray2(x,y)21の相対的な傾きがなければ、矩形領域毎に検出したずれから、正確な重なり位置を検出する(ステップS50)。ImgGray1(x,y)11と矩形領域とのマッチングを取った結果、距離が最小 となる矩形領域を重なり位置とする。
【0083】
ステップS48、S49の処理を行なわない場合には、図12が示すように、ステップS47で抽出した矩形領域毎に、正確な重なり位置を検出する(ステップS50)。これは、各矩形領域を、ステップ21で検出した重なり位置から前後左右に1画素ずつずらしながら、ImgGrya1(x,y)11と画素のマッチングを 取る。マッチング手法自体は、ステップ21と同様の方法を用いるが、矩形領域毎に正確な重なり位置が算出される。例えばハミング距離やユークリッド距離等を用いる場合、最小の計算結果がでた位置を“正確な重なり位置”とする。また、あるしきい値を設け、それ以下である矩形領域から算出した重なり位置の平均を取っても良い。
【0084】
以上の処理により、第1の画像に対して第2の画像が相対的に傾いていたとしても、2つの画像の正確な重なり位置を検出することができ、この検出結果を第三段階の処理(ステップS23)に対して出力する。
【0085】
次に、ステップS51〜S53の処理により、2つの画像の結合面(つなぎ目となる領域;合成処理を行う領域)を求める。
従来では、上記ステップS46等で抽出した色差の大きい領域をマッチング処理に用いると共に結合面として用いていたが、そのようにすると、以下に述べる問題があった。
【0086】
すなわち、例えば画像の傾きを完全に補正できなかった場合等には、色差の大きい領域を結合面に用いて2つの画像を結合すると、画像のつなぎ目が目立つといった問題がある。
【0087】
これに対し、本例では、以下に説明するように、色差の小さい領域を結合面として用いるようにすることで、結合面が完全に一致しなくても、画像のつなぎ目を目立たなくすることができる。
【0088】
まず、色差の小さい濃度成分を多く含む矩形領域(以下、第2の矩形領域と呼ぶ)を抽出する(ステップS51)。これは、各矩形領域を“1/NS”に縮小し、縮小画像を差分フィルタにかけ、画像中の線や縁を強調する。そして、線や縁をある一定値以下しか持っておらず且つそれがある一定値以下の長さである領域を、合成処理領域の候補となる矩形領域として抽出する。すなわち、分割した矩形領域の中から色差の小さい濃度成分を多く含む矩形領域を、結合面に用いる領域の候補(第2の矩形領域)として抽出する。尚、上記“一定値”は、予め、適宜設定しておくものとする。
【0089】
図16、図17に示す例では、背景色と図(四角形、三角形、円形)の境界部分では色差が大きいため、基本的には、このような境界部分を含む矩形領域以外の矩形領域(図16、図17で斜線で示す部分)が、第2の矩形領域として抽出されることになる。実際の写真画像等では、背景色など色差の小さい部分が抽出されることになる場合が多い。尚、図16、図17には、結合面に用いる矩形領域抽出の様子を分かり易くするために、重なり領域30とは別の例の重なり領域40を示してある。
【0090】
次にステップS52において、ステップS51にて抽出した第2の矩形領域の中から、さらに上記重なり領域30の長手方向(特に、図8における座標A2と座標C2とを結ぶライン)と平行な方向に領域を選択していく。
【0091】
これは、図16に示す例では、色差の小さい濃度成分を多く含む矩形領域(第2の矩形領域)を最も多く含む列(3列目)が、結合面に用いる領域として抽出される(図示の網かけで示す領域)。
【0092】
但し、図16に示す例のように、3列目における全ての“行”に「色差の小さい濃度成分を多く含む矩形領域」が存在する場合は良いが、そうでない場合、例えば、図17に示す例のようにメインとなる列(4列目)のように上記第2の矩形領域が存在しない“行”が存在する場合、この“行”については左右隣の列から抽出する(これより、図17で網かけで示す領域が、結合面に用いる領域として抽出される)。
【0093】
すなわち、上記ステップS51で抽出しステップS52で選択する矩形領域は、結合面として使用するため、すべての行から抽出する必要があり、さらに上下方向に連続する必要があるため、列の中に色差の小さい濃度成分を多く含む矩形領域が含まれていない“行”があるならば、その“行”については左右隣の列から抽出する。例えば図17に示す例では、色差の小さい濃度成分を多く含む矩形領域を最も多く含む列は、4列目ということになるが、4列目における3、4、7、8行目には「色差の小さい濃度成分を多く含む矩形領域」が含まれていないので、その左右隣の列(すなわち、3列目と5列目)から抽出する。その結果、ステップS52で選択される矩形領域は、図17では図示の網かけで示す領域ということになる。その際、何行/何列の矩形領域を抽出したのかを記憶しておく。
【0094】
更に、左右隣の列にも「色差の小さい濃度成分を多く含む矩形領域」がなければ、色差の大きい濃度成分をある一定値以上含む矩形領域を選択してもよい。
上記のようにする理由は、結合面として用いる矩形領域が不連続になると、不連続部分で合成処理がかけられないため、つなぎ目が目立ってしまうからである。
【0095】
最後にステップS53において、ステップS52にて抽出した連続領域を、2つの画像の結合面(つなぎ目)として決定する。
そして、第三段階の処理(ステップS23)では、上記メモリに格納しておいたスキャン画像(第1の画像、第2の画像;例えばフルカラー)を読み出して、上記ステップS21、S22の処理により検出した 1)鏡像反転有無、2)回転 角度、3)傾きを用いて第1の画像、第2の画像の結合位置を補正する。
【0096】
そして、上記ステップS50とステップS53とでそれぞれ求めた「正確な重なり位置」と「結合面として用いる矩形領域」とを用いて(例えば図19に示すように求められている)、2つの画像を結合する。
【0097】
特に「色差の小さい濃度成分を多く含む矩形領域」を結合面として用いて合成処理を行うことで(例えば図20に示すように)、つなぎ目を目立たせずに2つの画像を結合することができる。
【0098】
第三段階の処理(ステップS23)では、引数に、上記メモリに格納した入力画像データ(第1の画像データ、第2の画像データ;例えばフルカラー)、図2のステップS21において検出した鏡像反転有無・回転角度、ステップS22において検出した2つの画像の正確な重なり位置、傾き角度、の各データを受け取る。
【0099】
そして、詳しくは以下にステップS61〜S71の処理として述べるが、概略的には、上記鏡像反転有無、回転角度、傾き角度により補正しながら、2つの入力画像を、上記検出した正確な重なり位置で結合する。鏡像反転する場合は、画素の左右の座標を変換しながら結合する。回転と傾きを補正する場合は、回転式(行列式)を用いて、画素の座標を変換しながら結合する。
【0100】
その際、上記結合面として用いられる矩形領域各々の領域の中で、合成処理を行う。合成処理は、上記各矩形領域毎に第1の画像10と第2の画像20の画素の平均を取る。また、平均ではなく、第1の画像10と第2の画像20に重み付けをとってもよい。そして、結合した画像を出力する。
【0101】
図18は、第三段階(図2のステップS23)の処理の詳細フローチャート図である。
まず、上記ステップS21、S22で検出した回転角度(ここでは、回転角度(0°/90°/180°/270°)のデータを用いる)をrotate、傾き角度をskewとし、2つの角度の和を取る(θ=rotate+skew とする)( ステップS61)。
【0102】
ここで、θは、第2の画像の補正角度である。尚、rotate、skewは‘0’でも構わない。
次に、鏡像反転有りか否かを判定し(ステップS62)、鏡像補正する必要があれば(ステップS62,YES)、mirror_flag =‘1’とし(ステップS63)、そうでなければ(ステップS62,NO)、mirror_flag =‘0’とする(ステップS64)。
【0103】
そして、以下のステップS65〜S71の処理により、2つの画像の結合画像を作成する。
以下の処理の前に、予め、結合画像のメモリ領域を確保しておき、第1の画像10と第2の画像20の値をコピーしていく。結合画像のサイズは、検出した重なり位置でそれぞれ2つの画像を分割し、結合面に使用する矩形領域を重ね合わせることで求めることができる。図19に示すように、向かって結合面の左側が第1の画像10の領域、右側が第2の画像20の領域となる。
【0104】
iは、結合画像の画素のアドレスを表し、nは総画素数を表す。iが総画素数total_num を超えれば(ステップS65,NO)、本処理を終了し、超えなければ(ステップS65,YES)データのコピーを続ける。
【0105】
iが第1の画像10の領域であれば(ステップS66,YES)、第1の画像データからその画素値をコピーする(ステップS67)。
ここで、θ!=0であれば、回転した座標の画素値、さらに画像が鏡像反転していれば鏡像補正した座標の画素値を求める必要がある。回転座標の検出には、以下の式を使用する。
【0106】
=X×cosθ−Y×sinθ
=X×sinθ+Y×cosθ
(X,Y)は結合画像の中における第1の画像の座標値を表し、(x,y)は第1の画像の座標値とする。鏡像反転している場合には
(X,Y)=(−X,Y
とすれば良い。
【0107】
θ=0であれば、
=X
=Y
とする。
【0108】
一方、iが第2の画像20の領域であれば(ステップS68,YES)、上記ステップS67の処理内容と同様の処理により、第2の画像データからその画素値をコピーする(ステップS69)。
【0109】
iが第2の画像20の領域でもない場合(ステップS68,NO)とは、すなわち、iが上記ステップS52にて抽出した「結合面として用いる矩形領域」内にある画素ということであり、この場合には、以下に説明するように、第1の画像の画素値と第2の画像の画素値とから、合成画像の画素値を決定する(合成処理を行う)。
【0110】
第1の画像の画素値をvalue1、第2の画像の画素値をvalue2、各々の係数を、va1、va2とすると、合成画像の画素値Mは以下の式により算出する。
M=va1×value1+va2×value2
(但し、係数va1、va2は、va1+va2=1を満たす値とする)
そして、ステップS71においてiの値をインクリメントし、次の画素について上述した処理を繰り返し行なっていく。
【0111】
以上述べたように、本例の画像結合装置によれば、スキャナ幅を超える写真や紙面、図柄等を複数回に分けて画像を入力する場合であって、ユーザがハンドヘルドスキャナ等を用いて上下左右どちらの方向から画像を読み込むか分からない場合であっても、特別のハードウェアを追加する必要なく、高速に(且つ処理に必要なメモリ容量を削減し)自動的に2つの画像を結合することができる。また、つなぎ目が目立たないようにできる。
【0112】
図21は、本実施の形態による画像結合装置を実現する情報処理装置のハードウェア構成の一例を示す図である。
本実施の形態による画像結合装置を実現する情報処理装置は、上記の通り、パソコン(特にノート型パソコン)、PDA/ハンドヘルドPC等の携帯型情報処理装置等である。
【0113】
同図に示す情報処理装置50は、CPU51、メモリ52、入力装置53、出力装置54、外部記憶装置55、媒体駆動装置56、ネットワーク接続装置57、画像入力装置60等を有し、これらがバス58に接続された構成となっている。同図に示す構成は一例であり、これに限るものではない。
【0114】
CPU51は、当該情報処理装置50全体を制御する中央処理装置である。
メモリ52は、プログラム実行、データ更新等の際に、外部記憶装置55(あるいは可搬記憶媒体59)に記憶されているプログラムあるいはデータを一時的に格納するRAM等のメモリである。CPU51は、メモリ52に読み出したプログラム/データを用いて、上述してある各種処理を実行する。
【0115】
入力装置53は、例えば、キーボード、マウス、あるいは「タッチパネル+ペン」や音声入力/識別装置等である。
出力装置54は、ディスプレイ等である。
【0116】
外部記憶装置55は、例えば磁気ディスク装置、光ディスク装置、光磁気ディスク装置等であり、上述してきた画像結合装置としての各種機能を実現させる為のプログラム/データ等が格納されている。
【0117】
媒体駆動装置56は、可搬記憶媒体59に記憶されているプログラム/データ等を読み出す。可搬記憶媒体59は、例えば、FD(フロッピーディスク)、CD−ROM、その他、DVD、光磁気ディスク等である。
【0118】
ネットワーク接続装置57は、ネットワークに接続して、外部の情報処理装置とプログラム/データ等の送受信を可能にする構成である。
画像入力装置60は、例えば上記ハンドヘルドスキャナ等である。
【0119】
図22は、記録媒体の一例を示す図である。
図示のように、上記プログラム/データは、可搬記憶媒体59に記憶されているプログラム/データ等を、情報処理装置側にロードして、メモリ52に格納し実行するものであってもよいし、また、上記プログラム/データは、ネットワーク接続装置57により接続しているネットワーク(インターネット等)を介して、外部の情報提供者側の装置61の記憶装置62に記憶されているプログラム/データをダウンロードするものであってもよい。
【0120】
本発明は、上記プログラム/データを格納した記憶媒体(可搬記憶媒体59等)自体として構成することもできるし、上記プログラム/データを伝送させるネットワーク(伝送媒体)自体として構成することもできるし、ダウンロードする際にこの伝送媒体を介して伝送される伝送信号自体として構成することもできる。
【0121】
(付記1) 入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、
前記読み込んだ複数の入力画像データよりデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する第一の重なり位置検出手段と、
該第一の重なり位置検出手段により検出された結合位置関係とおおまかな重なり領域とに基づいて、前記複数の入力画像を結合する画像結合手段と、
を有することを特徴とする画像結合装置。
(付記2) 入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、
前記読み込んだ複数の入力画像データのおおまかな重なり領域を検出する第一の重なり位置検出手段と、
該第一の重なり位置検出手段により検出されたおおまかな重なり領域を複数の矩形領域に分割し、該分割した矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、結合面として用いる矩形領域とを抽出する第二の重なり位置検出手段と、
該第二の重なり位置検出手段により検出された前記正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記結合面として用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する画像結合手段と、
を有することを特徴とする画像結合装置。
(付記3) 入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、
前記読み込んだ複数の入力画像データを一時的に記憶すると共に、該入力画像データのデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する第一の重なり位置検出手段と、
前記読み込んだ各入力画像データを単一の色成分を持つ階調画像に変換した階調画像データを用い、該階調画像データにおいて前記第一の重なり位置検出手段により検出されたおおまかな重なり領域に対応する領域を、複数の矩形領域に分割し、該複数の矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、画像の結合面に用いる矩形領域とを抽出する第二の重なり位置検出手段と、
前記読み込んだ各入力画像データを用い、該第二の重なり位置検出手段により検出された前記正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記画像の結合面に用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する画像結合手段と、
を有することを特徴とする画像結合装置。
(付記4) 前記データ量を少なくした画像データは、前記入力画像データを、単一の色成分を持つ階調画像に変換した後、該単一の色成分を持つ階調画像を幾何学的に縮小して成る縮小画像であることを特徴とする付記1〜3の何れかに記載の画像結合装置。
(付記5) 前記結合位置関係は、前記複数の入力画像の一方の入力画像に対する他方の入力画像の鏡像反転有無及び/または回転角度であることを特徴とする付記1〜4の何れかに記載の画像結合装置。
(付記6) 前記正確な重なり位置検出に用いる矩形領域は、色差の大きい濃度成分を多く含む矩形領域の中から選択された矩形領域であり、
前記画像の結合面に用いる矩形領域は、色差の小さい濃度成分を多く含む矩形領域の中から選択された矩形領域であることを特徴とする付記2または3記載の画像結合装置。
(付記7) 前記第二の重なり位置検出手段は、更に、前記おおまかな重なり位置と、前記正確な重なり位置検出に用いる矩形領域を用いた正確な重なり位置とのずれに基づいて、回帰分析手法を利用して、前記複数の入力画像の相対的な傾きを算出することを特徴とする付記2または3記載の画像結合装置。
(付記8) 入力機器より複数回に分けて読み込んだ入力画像を結合する方法であって、
前記読み込んだ複数の入力画像データよりデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出し、
該検出された結合位置関係とおおまかな重なり領域とに基づいて、前記複数の入力画像を結合することを特徴とする画像結合方法。
(付記9) 入力機器より複数回に分けて読み込んだ入力画像を結合する方法であって、
前記読み込んだ複数の入力画像データのおおまかな重なり領域を検出し、
該検出されたおおまかな重なり領域を複数の矩形領域に分割し、該分割した矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、結合面として用いる矩形領域とを抽出し、
該検出された正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記結合面として用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合することを特徴とする画像結合方法。
(付記10) 入力機器より複数回に分けて読み込んだ入力画像を結合する方法であって、
前記読み込んだ複数の入力画像データを一時的に記憶すると共に、該入力画像データのデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出し、
前記読み込んだ各入力画像データを単一の色成分を持つ階調画像に変換した階調画像データを用い、該階調画像において前記検出されたおおまかな重なり領域に対応する領域を、複数の矩形領域に分割し、該複数の矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、画像の結合面に用いる矩形領域とを抽出し、
前記読み込んだ各入力画像データを用い、前記抽出された正確な重なり位置検出に用いる矩形領域を用いて、該複数の入力画像の正確な重なり位置を決定すると共に、前記画像の結合面に用いる矩形領域において該複数の入力画像を合成処理し、該複数の画像を結合することを特徴とする画像結合方法。
(付記11) コンピュータにおいて用いられたとき、
入力機器により複数回に分けて読み込んだ画像を入力する機能と、
該複数の入力画像データよりデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する機能と、
該検出された結合位置関係とおおまかな重なり領域とに基づいて、前記複数の入力画像を結合する機能と、
を実現させるプログラムを記録した前記コンピュータ読取り可能な記録媒体。
(付記12) コンピュータにおいて用いられたとき、
入力機器により複数回に分けて読み込んだ画像を入力する機能と、
該複数の入力画像データのおおまかな重なり領域を検出する機能と、
該検出されたおおまかな重なり領域を複数の矩形領域に分割し、該分割した矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、結合面として用いる矩形領域とを抽出する機能と、
該検出された正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記結合面として用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する機能と、
を実現させるプログラムを記録した前記コンピュータ読取り可能な記録媒体。
(付記13) コンピュータにおいて用いられたとき、
入力機器により複数回に分けて読み込んだ画像を入力する機能と、
前記読み込んだ複数の入力画像データを一時的に記憶すると共に、該入力画像データのデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する機能と、
前記読み込んだ各入力画像データを単一の色成分を持つ階調画像に変換した階調画像データを用い、該階調画像において前記検出されたおおまかな重なり領域に対応する領域を、複数の矩形領域に分割し、該複数の矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、画像の結合面に用いる矩形領域とを抽出する機能と、
前記読み込んだ各入力画像データを用い、前記抽出された正確な重なり位置検出に用いる矩形領域を用いて、該複数の入力画像の正確な重なり位置を決定すると共に、前記画像の結合面に用いる矩形領域において該複数の入力画像を合成処理し、該複数の画像を結合する機能と、
を実現させるプログラムを記録した前記コンピュータ読取り可能な記録媒体。
(付記14) コンピュータに、
入力機器により複数回に分けて読み込んだ画像を入力する機能と、
該複数の入力画像データよりデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する機能と、
該検出された結合位置関係とおおまかな重なり領域とに基づいて、前記複数の入力画像を結合する機能と、
を実現させるためのプログラム。
(付記15) コンピュータに、
入力機器により複数回に分けて読み込んだ画像を入力する機能と、
該複数の入力画像データのおおまかな重なり領域を検出する機能と、
該検出されたおおまかな重なり領域を複数の矩形領域に分割し、該分割した矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、結合面として用いる矩形領域とを抽出する機能と、
該検出された正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記結合面として用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する機能と、
を実現させるためのプログラム。
(付記16) コンピュータに、
入力機器により複数回に分けて読み込んだ画像を入力する機能と、
前記読み込んだ複数の入力画像データを一時的に記憶すると共に、該入力画像データのデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する機能と、
前記読み込んだ各入力画像データを単一の色成分を持つ階調画像に変換した階調画像データを用い、該階調画像において前記検出されたおおまかな重なり領域に対応する領域を、複数の矩形領域に分割し、該複数の矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、画像の結合面に用いる矩形領域とを抽出する機能と、
前記読み込んだ各入力画像データを用い、前記抽出された正確な重なり位置検出に用いる矩形領域を用いて、該複数の入力画像の正確な重なり位置を決定すると共に、前記画像の結合面に用いる矩形領域において該複数の入力画像を合成処理し、該複数の画像を結合する機能と、
を実現させるためのプログラム。
【0122】
【発明の効果】
以上、詳細に説明したように、本発明の画像結合装置、その方法等によれば、一方の画像に対し他方の画像が相対的に鏡像反転かつ/または回転する場合であっても、画像入力機器の移動量や進行方向を検出するハードウェアを利用せずに、高速に自動的に2つの画像を結合することができる。且つ、処理に必要なメモリ容量を削減できる。これは、特に、入力画像がフルカラー画像である場合に顕著な効果を奏する。
【0123】
また、本発明の画像結合装置、その方法等によれば、2つの画像のつなぎ目が目立たないようにできる。
以上のことから、本発明はハンドヘルドヘルドスキャナ等による画像入力の操作性およびユーザインタフェースの改善に寄与するところが大きい。
【図面の簡単な説明】
【図1】本発明の原理ブロック図である。
【図2】本実施の形態による画像結合装置における処理全体を概略的に示すフローチャート図である。
【図3】縮小画像作成のイメージを示す図である。
【図4】図2のステップS21の処理の詳細フローチャート図である。
【図5】縮小画像を用いて、おおまかな重なり領域を検出する様子を示す図である。
【図6】縮小画像を用いて検出したおおまかな重なり領域の座標データの一例を示す図である。
【図7】図2のステップS22の処理の詳細フローチャート図である。
【図8】(a)はImgGray2(x,y) に対応させた重なり領域、(b)はそれを複数の矩形領域に分割した状態を示す図である。
【図9】(a)は複数の矩形領域に分割した重なり領域、(b)はそれから色差の大きな濃度成分を含む矩形領域を抽出した例を示す図である。
【図10】抽出した矩形領域の中から、正確な重なり位置検出の為に用いる矩形領域を、重なり領域の長手方向と平行な方向に選択する様子を示す図である。
【図11】正確な重なり位置検出の為に用いる矩形領域を、複数の列から選択する様子を示す図である。
【図12】第1の画像に対して第2の画像が傾いている場合の様子を示す図である。
【図13】傾きがある場合において、縮小画像を用いて、おおまかな重なり領域を検出した場合にずれが生じる様子を示す図である。
【図14】回帰分析を利用した傾き角度の検出方法を説明する為の図である。
【図15】正確な重なり位置検出の為に用いる矩形領域を用いて、この矩形領域毎に正確な重なり位置を検出する様子を示した図である。
【図16】結合面に用いる矩形領域を抽出する様子を示す図である。
【図17】結合面に用いる矩形領域を、隣接する列からも抽出する様子を示す図である。
【図18】図2のステップS23の処理の詳細フローチャート図である。
【図19】正確な重なり位置検出に使用した領域/結合面に用いる領域を示す図である。
【図20】結合面においてつなぎ目が目立たないように合成処理が行なわれて2つの画像が結合された様子を示す図である。
【図21】本実施の形態による画像結合装置を実現する情報処理装置のハードウェア構成の一例を示す図である。
【図22】記録媒体の一例を示す図である。
【図23】ユーザの操作に応じて2つの画像の結合位置関係が変わる様子を示す図(その1)である。
【図24】ユーザの操作に応じて2つの画像の結合位置関係が変わる様子を示す図(その2)である。
【図25】画像が鏡像反転する例を示す図である。
【図26】ユーザの操作に応じて、一方の画像に対して他方の画像が回転する場合を説明する為の図である。
【図27】図26の場合に対して、2つの画像の重なり位置を検出する様子を示す図である。
【符号の説明】
1 第一段階(おおまかな重なり位置検出)
2 第二段階(正確な重なり位置検出)
3 第三段階(結合処理)
4 入力機器
5 出力画像
10 第1の画像
11 ImgGray1(x,y)
12 ImgGray1'(x,y)
20 第2の画像
21 ImgGray2(x,y)
22 ImgGray2'(x,y)
30 重なり領域
40 重なり領域
50 情報処理装置
51 CPU
52 メモリ
53 入力装置
54 出力装置
55 外部記憶装置
56 媒体駆動装置
57 ネットワーク接続装置
58 バス
59 可搬記録媒体
60 画像入力装置
61 外部の情報提供者側の装置
62 記憶装置

Claims (6)

  1. 入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、
    前記読み込んだ複数の入力画像データのおおまかな重なり領域を検出する第一の重なり位置検出手段と、
    該第一の重なり位置検出手段により検出されたおおまかな重なり領域を複数の矩形領域に分割し、該分割した矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、結合面として用いる矩形領域とを抽出する第二の重なり位置検出手段と、
    該第二の重なり位置検出手段により検出された前記正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記結合面として用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する画像結合手段と、
    を有することを特徴とする画像結合装置。
  2. 入力機器より複数回に分けて読み込んだ入力画像を結合する装置であって、
    前記読み込んだ複数の入力画像データを一時的に記憶すると共に、該入力画像データのデータ量を少なくした画像データを作成し、該作成した画像データを用いて前記複数の入力画像の結合位置関係とおおまかな重なり領域を検出する第一の重なり位置検出手段と、
    前記読み込んだ各入力画像データを単一の色成分を持つ階調画像に変換した階調画像データを用い、該階調画像データにおいて前記第一の重なり位置検出手段により検出されたおおまかな重なり領域に対応する領域を、複数の矩形領域に分割し、該複数の矩形領域の中から、正確な重なり位置検出に用いる矩形領域と、画像の結合面に用いる矩形領域とを抽出する第二の重なり位置検出手段と、
    前記読み込んだ各入力画像データを用い、該第二の重なり位置検出手段により検出された前記正確な重なり位置検出に用いる矩形領域を用いて、前記複数の入力画像の正確な重なり位置を決定すると共に、前記画像の結合面に用いる矩形領域において前記複数の入力画像を合成処理し、該複数の画像を結合する画像結合手段と、
    を有することを特徴とする画像結合装置。
  3. 前記結合位置関係は、前記複数の入力画像の一方の入力画像に対する他方の入力画像の鏡像反転有無及び/または回転角度であることを特徴とする請求項1または2に記載の画像結合装置。
  4. 前記正確な重なり位置検出に用いる矩形領域は、前記複数の矩形領域のうち、所定の値以上の色差の濃度成分を含む矩形領域の中から選択されることを特徴とする請求項1〜3の何れかに記載の画像結合装置。
  5. 前記正確な重なり位置検出に用いる矩形領域は、前記複数の矩形領域に含まれる複数の列から選択されることを特徴とする請求項4記載の画像結合装置。
  6. 前記画像の結合面に用いる矩形領域は、前記複数の矩形領域のうち、所定の値以下の色差の濃度成分を含む矩形領域の中から選択されることを特徴とする請求項1〜4の何れかに記載の画像結合装置。
JP2001107532A 2001-04-05 2001-04-05 画像結合装置 Expired - Fee Related JP4551018B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001107532A JP4551018B2 (ja) 2001-04-05 2001-04-05 画像結合装置
US09/962,306 US6885776B2 (en) 2001-04-05 2001-09-26 Image merging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001107532A JP4551018B2 (ja) 2001-04-05 2001-04-05 画像結合装置

Publications (2)

Publication Number Publication Date
JP2002305647A JP2002305647A (ja) 2002-10-18
JP4551018B2 true JP4551018B2 (ja) 2010-09-22

Family

ID=18959841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001107532A Expired - Fee Related JP4551018B2 (ja) 2001-04-05 2001-04-05 画像結合装置

Country Status (2)

Country Link
US (1) US6885776B2 (ja)
JP (1) JP4551018B2 (ja)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
ATE453147T1 (de) 2000-07-05 2010-01-15 Smart Technologies Ulc Verfahren für ein kamerabasiertes berührungssystem
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6980221B2 (en) * 2001-07-06 2005-12-27 Eastman Kodak Company Method for representing a digital color image using a set of palette colors
US6859210B2 (en) * 2001-07-06 2005-02-22 Eastman Kodak Company Method for representing a digital color image using a set of palette colors based on detected important colors
JP4444545B2 (ja) * 2002-01-23 2010-03-31 富士通株式会社 画像結合装置
WO2003073258A2 (en) * 2002-02-21 2003-09-04 Mobicom Corporation Article comprising an adaptable input device
US6952601B2 (en) * 2002-02-21 2005-10-04 Mobicom Corporation Display for a portable terminal
US7343049B2 (en) * 2002-03-07 2008-03-11 Marvell International Technology Ltd. Method and apparatus for performing optical character recognition (OCR) and text stitching
US20040001074A1 (en) * 2002-05-29 2004-01-01 Hideki Oyaizu Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program
JP2004046632A (ja) * 2002-07-12 2004-02-12 Minolta Co Ltd 画像処理装置
JP4310993B2 (ja) * 2002-10-28 2009-08-12 富士ゼロックス株式会社 画像処理装置
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US7308131B2 (en) * 2002-12-03 2007-12-11 Ntt Docomo, Inc. Representation and coding of panoramic and omnidirectional images
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
WO2004077356A1 (ja) * 2003-02-28 2004-09-10 Fujitsu Limited 画像結合装置、画像結合方法
US20050196070A1 (en) * 2003-02-28 2005-09-08 Fujitsu Limited Image combine apparatus and image combining method
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7778493B2 (en) * 2003-10-09 2010-08-17 The Henry M. Jackson Foundation For The Advancement Of Military Medicine Inc. Pixelation reconstruction for image resolution and image data transmission
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
JP3971783B2 (ja) * 2004-07-28 2007-09-05 松下電器産業株式会社 パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム
EP1718058A1 (de) * 2005-04-19 2006-11-02 BenQ Corporation Verfahren zum Scannen von Dokumenten
US8487910B2 (en) * 2005-05-02 2013-07-16 Smart Technologies Ulc Large scale touch system and methods for interacting with same
US7551802B2 (en) * 2005-09-22 2009-06-23 Konica Minolta Systems Laboratory, Inc. Map image matching method and apparatus
US7930627B2 (en) * 2005-09-22 2011-04-19 Konica Minolta Systems Laboratory, Inc. Office document matching method and apparatus
TW200719689A (en) * 2005-11-10 2007-05-16 Benq Corp Image processing apparatuses and image merging and output methods thereof
KR100790890B1 (ko) 2006-09-27 2008-01-02 삼성전자주식회사 파노라마 영상 생성장치 및 방법
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
CN101197044B (zh) * 2006-12-06 2011-02-02 鸿富锦精密工业(深圳)有限公司 图像合成系统及方法
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
CN101082488B (zh) * 2007-06-30 2011-11-09 徐春云 异地遥测之图像拼接方法
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
CN101802760B (zh) 2007-08-30 2013-03-20 奈克斯特控股有限公司 具有改进照明的光学触摸屏
US8384693B2 (en) 2007-08-30 2013-02-26 Next Holdings Limited Low profile touch panel systems
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US8923648B2 (en) * 2008-01-21 2014-12-30 Denso International America, Inc. Weighted average image blending based on relative pixel position
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
KR101456496B1 (ko) * 2008-11-03 2014-11-03 삼성전자주식회사 스캔 데이터 보정 방법 및 이를 수행하는 화상형성장치
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
JP2010250612A (ja) * 2009-04-16 2010-11-04 Canon Inc 画像処理装置及び画像処理方法
JP5304465B2 (ja) * 2009-06-16 2013-10-02 朝日航洋株式会社 モザイク画像生成方法、装置及びプログラム
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
JP5434621B2 (ja) 2010-01-19 2014-03-05 ソニー株式会社 情報処理装置、情報処理方法、及びそのプログラム
JP5573349B2 (ja) * 2010-05-17 2014-08-20 パナソニック株式会社 パノラマ展開画像撮影システムおよび方法
KR20120057692A (ko) * 2010-08-12 2012-06-07 삼성전자주식회사 디스플레이장치 및 영상표시방법
JP5696419B2 (ja) * 2010-09-30 2015-04-08 カシオ計算機株式会社 画像処理装置及び方法、並びにプログラム
US9384711B2 (en) 2012-02-15 2016-07-05 Microsoft Technology Licensing, Llc Speculative render ahead and caching in multiple passes
US9177533B2 (en) 2012-05-31 2015-11-03 Microsoft Technology Licensing, Llc Virtual surface compaction
US9286122B2 (en) 2012-05-31 2016-03-15 Microsoft Technology Licensing, Llc Display techniques using virtual surface allocation
US9235925B2 (en) * 2012-05-31 2016-01-12 Microsoft Technology Licensing, Llc Virtual surface rendering
US9230517B2 (en) 2012-05-31 2016-01-05 Microsoft Technology Licensing, Llc Virtual surface gutters
US20130342567A1 (en) * 2012-06-21 2013-12-26 Nokia Corporation Method, apparatus and computer program product for processing of multimedia content
KR102001148B1 (ko) * 2012-12-10 2019-10-01 엘지전자 주식회사 입력 기기 및 그의 이미지 처리 방법
US8837862B2 (en) * 2013-01-14 2014-09-16 Altek Corporation Image stitching method and camera system
US9307007B2 (en) 2013-06-14 2016-04-05 Microsoft Technology Licensing, Llc Content pre-render and pre-fetch techniques
JP2016066842A (ja) * 2014-09-24 2016-04-28 ソニー株式会社 信号処理回路および撮像装置
JP6222205B2 (ja) * 2015-11-20 2017-11-01 株式会社リコー 画像処理装置
WO2017163367A1 (ja) * 2016-03-24 2017-09-28 日産自動車株式会社 走路検出方法及び走路検出装置
JP2017208619A (ja) * 2016-05-16 2017-11-24 株式会社リコー 画像処理装置、画像処理方法、プログラム及び撮像システム
JP6720820B2 (ja) * 2016-10-12 2020-07-08 コニカミノルタ株式会社 情報処理装置及びプログラム
JP6952456B2 (ja) * 2016-11-28 2021-10-20 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
CN111654680B (zh) * 2019-03-04 2024-08-13 北京谦恒德科技有限公司 一种数字光处理光机的投影拼接方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348159A (ja) * 1999-06-01 2000-12-15 Ricoh Co Ltd 画像合成処理方法、撮像装置、画像縮小処理方法及び記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0567208A (ja) 1991-07-10 1993-03-19 Topcon Corp 画像合成方法と画像撮像装置
US6128416A (en) * 1993-09-10 2000-10-03 Olympus Optical Co., Ltd. Image composing technique for optimally composing a single image from a plurality of digital images
US6148118A (en) * 1995-07-05 2000-11-14 Minolta Co., Ltd. Image processing apparatus capable of reproducing large-sized document
JPH1069536A (ja) 1996-08-28 1998-03-10 Sharp Corp 画像合成装置
JP3851384B2 (ja) * 1996-09-18 2006-11-29 シャープ株式会社 画像合成装置および方法
JP3773011B2 (ja) 1997-06-20 2006-05-10 シャープ株式会社 画像合成処理方法
US6078701A (en) * 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
JP3432736B2 (ja) * 1997-10-29 2003-08-04 シャープ株式会社 画像処理装置
US6516087B1 (en) * 2000-01-10 2003-02-04 Sensar, Inc. Method for real time correlation of stereo images
JP3849385B2 (ja) * 2000-02-03 2006-11-22 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348159A (ja) * 1999-06-01 2000-12-15 Ricoh Co Ltd 画像合成処理方法、撮像装置、画像縮小処理方法及び記録媒体

Also Published As

Publication number Publication date
US6885776B2 (en) 2005-04-26
US20020163530A1 (en) 2002-11-07
JP2002305647A (ja) 2002-10-18

Similar Documents

Publication Publication Date Title
JP4551018B2 (ja) 画像結合装置
US7119816B2 (en) System and method for whiteboard scanning to obtain a high resolution image
US9317773B2 (en) Patch-based synthesis techniques using color and color gradient voting
US6393162B1 (en) Image synthesizing apparatus
JP2005100407A (ja) 複数のソース画像からパノラマ画像を作成するシステム及び方法
US7542608B2 (en) Method for automatically cropping image objects
US20050196070A1 (en) Image combine apparatus and image combining method
US20050078192A1 (en) Imaging apparatus and image processing method therefor
US8619098B2 (en) Methods and apparatuses for generating co-salient thumbnails for digital images
RU2631765C1 (ru) Способ и система исправления перспективных искажений в изображениях, занимающих двухстраничный разворот
JP2004334843A (ja) 複数の画像から画像を合成する方法
JPH07192086A (ja) 画像傾き検出方法
Liang et al. Camera-based document image mosaicing
JP5541679B2 (ja) 画像処理装置及び方法、並びに、プログラム
JP2003259110A (ja) 画像結合装置、その方法、プログラム
JP4145014B2 (ja) 画像処理装置
JP4970385B2 (ja) 2次元コード読取装置とそのプログラム
CN117173012A (zh) 无监督的多视角图像生成方法、装置、设备及存储介质
JP4696239B2 (ja) 文字列の傾斜補正方法及び装置
JP3698867B2 (ja) 円形パターン判定方法、装置および記録媒体
JP2005182098A (ja) 合成画像を生成・表示する装置及び方法
JPH1083442A (ja) 画像合成方法
JP2000261653A (ja) 画像処理装置
JP4591343B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP3598039B2 (ja) 図形抽出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100709

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees