JP6711271B2 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP6711271B2
JP6711271B2 JP2016531252A JP2016531252A JP6711271B2 JP 6711271 B2 JP6711271 B2 JP 6711271B2 JP 2016531252 A JP2016531252 A JP 2016531252A JP 2016531252 A JP2016531252 A JP 2016531252A JP 6711271 B2 JP6711271 B2 JP 6711271B2
Authority
JP
Japan
Prior art keywords
image
pattern
projection
unit
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016531252A
Other languages
English (en)
Other versions
JPWO2016002510A1 (ja
Inventor
洋祐 加治
洋祐 加治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016002510A1 publication Critical patent/JPWO2016002510A1/ja
Application granted granted Critical
Publication of JP6711271B2 publication Critical patent/JP6711271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Image Processing (AREA)

Description

本技術は、画像処理装置および方法に関し、特に、より容易に投影部と撮像部との相対姿勢を求めることができるようにした画像処理装置および方法に関する。
従来、複数のプロジェクタから投影される投影画像の一部若しくは全部が互いに重なるようにして1つの画像を投影する方法がある。このような投影画像が重なっている部分(オーバーラップ領域とも称する)では、例えば他の領域と輝度が異なったり、重なっている投影画像同士のずれが生じたりするおそれがあった。
そのため、このようなオーバーラップ領域をカメラ等でセンシングして、どのようにオーバーラップしているかを検出し、その検出結果に応じて投影する画像を補正することが考えられた。その場合、画像を投影するプロジェクタと、その投影画像を撮像するカメラとの間で画素の対応関係を把握する必要がある。
この画素の対応関係を取得する方法として、グレイコードを用いる方法が考えられた。しかしながら、この方法の場合、プロジェクタの各画素を識別するために多数のパターン画像を用いる必要があり、画素の対応関係を把握するための処理が煩雑になるおそれがあった。
そこで、チェッカーとチェッカーの4隅のうちどれかが欠けたパターン4枚を投影し、パターンの投影順序と欠けた隅の情報の整合を取ることでチェッカーの各コーナーがプロジェクタのどの画素に対応するかを検出する方法が考えられた(例えば、非特許文献1参照)。
Ramesh Raskar, Jeroen van Baar, Paul Beardsley, Thomas Willwacher, Srinivas Rao, Clifton Forlines, "iLamps: Geometrically Aware and Self-Configuring Projectors", ACM SIGGRAPH 2003 Conference Proceedings
しかしながら、これらの方法以外の方法が求められていた。
本技術は、このような状況に鑑みて提案されたものであり、より容易に投影部と撮像部との相対姿勢を求めることができるようにすることを目的とする。
本技術の一側面は、複数のサブパターンにより構成され、前記サブパターンの数および位置関係が共通のスタートコードと、前記サブパターンの数または位置関係が他と異なるユニークコードとを有する第1のパターンを複数含む第1のパターン画像が投影された第1のパターン投影画像を撮像した撮像画像である第1のパターン撮像画像から検出された前記第1のパターンに基づいて、所定の模様の第2のパターン画像が投影された第2のパターン投影画像と、前記第2のパターン投影画像を撮像した撮像画像である第2のパターン撮像画像との対応点を検出する検出部を備える画像処理装置である。
前記スタートコードは、図形として配置される複数のサブパターンからなり、前記ユニークコードは、図形としての他の前記第1のパターンと異なるように配置されるようにすることができる。
前記スタートコードは、1行3列に配置される3つの前記サブパターンよりなり、前記ユニークコードは、2行3列内に、数または位置関係が他の前記第1のパターンと異なるように配置される単数若しくは複数の前記サブパターンよりなるようにすることができる。
前記パターンは、点状の図形として配置されるようにすることができる。
前記検出部は、前記第1のパターン撮像画像において、前記サブパターン同士の隣接関係を検出することにより、前記第1のパターンを検出することができる。
前記検出部は、前記第2のパターン撮像画像における前記模様のエッジを示すエッジ画像を用いて、前記サブパターン同士の隣接関係を検出することができる。
前記第2のパターン撮像画像における前記模様のエッジを検出し、前記エッジ画像を生成するエッジ検出部をさらに備え、前記検出部は、前記エッジ検出部により生成された前記エッジ画像を用いて、前記サブパターン同士の隣接関係を検出することができる。
前記検出部は、エッジが膨張された前記エッジ画像を用いて、前記サブパターン同士の隣接関係を検出することができる。
前記検出部は、各サブパターンの重心を検出し、検出した各サブパターンの重心を用いて、前記サブパターン同士の隣接関係を検出することができる。
前記検出部は、前記第1のパターン撮像画像を2値化した画像を用いて前記サブパターンの重心を検出することができる。
前記検出部は、前記第1のパターンに基づいて生成された前記第2のパターン投影画像のホモグラフィ画像と、前記第2のパターン撮像画像との対応点を検出することができる。
前記第2のパターンは、チェッカーパターンであるようにすることができる。
前記検出部は、前記チェッカーパターンの全てのコーナーについて、前記対応点を検出することができる。
前記検出部は、前記第2のパターン撮像画像を2値化して所定の成分を膨張させた画像を用いて、前記コーナーを検出することができる。
投影画像を撮像し撮像画像を得る撮像部をさらに備え、前記検出部は、前記撮像部により得られた前記第1のパターン撮像画像から検出された前記第1のパターンに基づいて、前記第2のパターン投影画像と、前記撮像部により得られた前記第2のパターン撮像画像との対応点を検出することができる。
画像を投影する投影部をさらに備え、前記検出部は、前記投影部により投影された前記第1のパターン投影画像を撮像した撮像画像である前記第1のパターン撮像画像から検出された前記第1のパターンに基づいて、前記投影部により投影された前記第2のパターン投影画像と前記第2のパターン撮像画像との対応点を検出することができる。
前記検出部により検出された前記対応点を用いて、投影する画像の、他の投影画像と重畳する部分について画像処理を行う画像処理部をさらに備えるようにすることができる。
本技術の一側面は、また、複数のサブパターンにより構成され、前記サブパターンの数および位置関係が共通のスタートコードと、前記サブパターンの数または位置関係が他と異なるユニークコードとを有する第1のパターンを複数含む第1のパターン画像が投影された第1のパターン投影画像を撮像した撮像画像である第1のパターン撮像画像から検出された前記第1のパターンに基づいて、所定の模様の第2のパターン画像が投影された第2のパターン投影画像と、前記第2のパターン投影画像を撮像した撮像画像である第2のパターン撮像画像との対応点を検出する画像処理方法である。
本技術の一側面においては、複数のサブパターンにより構成され、サブパターンの数および位置関係が共通のスタートコードと、サブパターンの数または位置関係が他と異なるユニークコードとを有する第1のパターンを複数含む第1のパターン画像が投影された第1のパターン投影画像を撮像した撮像画像である第1のパターン撮像画像から検出された第1のパターンに基づいて、所定の模様の第2のパターン画像が投影された第2のパターン投影画像と、その第2のパターン投影画像を撮像した撮像画像である第2のパターン撮像画像との対応点が検出される。
本技術によれば、画像に基づいて情報を処理することが出来る。また本技術によれば、より容易に投影部と撮像部との相対姿勢を求めることができる。
オーバラップ領域の例について説明する図である。 画素の対応関係の例を説明する図である。 グレイコードを用いる方法の例を説明する図である。 チェッカーパターンを用いる方法の例を説明する図である。 投影撮像システムの主な構成例を示す図である。 投影撮像装置の例について説明する図である。 オーバラップ領域の例について説明する図である。 制御装置の主な構成例を示すブロック図である。 CPUにおいて実現される主な機能の構成例を示す機能ブロック図である。 対応点検出処理部の主な機能の構成例を示す機能ブロック図である。 投影撮像装置の主な構成例を示すブロック図である。 投影部の主な構成例を示すブロック図である。 レーザ光の走査の様子の例を示す図である。 対応関係検出処理の流れの例を説明するフローチャートである。 パターン画像投影撮像処理の流れの例を説明するフローチャートである。 パターン画像投影撮像処理の様子の例を示す図である。 対応点検出処理の流れの例を説明するフローチャートである。 コーナー検出処理の流れの例を説明するフローチャートである。 コーナー検出処理の様子の例を示す図である。 エッジ検出処理の流れの例を説明するフローチャートである。 エッジ検出処理の様子の例を示す図である。 重心検出処理の流れの例を説明するフローチャートである。 重心検出処理の様子の例を示す図である。 画像間対応点検出処理の流れの例を説明するフローチャートである。 隣接関係検出処理の様子の例を示す図である。 ユニークパターンの構成例を示す図である。 画像間対応点検出処理の様子の例を示す図である。 投影撮像システムの他の構成例を示す図である。 投影撮像システムのさらに他の構成例を示す図である。 投影撮像システムのさらに他の構成例を示す図である。 投影撮像システムのさらに他の構成例を示す図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(投影撮像システム)
<1.第1の実施の形態>
<オーバラップ領域と補正>
従来、複数のプロジェクタを用いて1つの画像を投影する方法がある。このようにすることにより、例えば、解像度を低減させずに投影画像の画像サイズを大きくしたり、投影画像を曲面に、歪みをより少なくするように投影させたりすることができる。
その場合各プロジェクタから投影される投影画像がずれ無く並ぶようにすることは困難であるので、一般的には、各投影画像の一部若しくは全部が互いに重なるようにして投影が行われる。つまり、この場合、複数の投影画像が重なっている部分(オーバーラップ領域とも称する)が発生する。
例えば、図1に示されるように、投影撮像装置10の投影部11がスクリーン30に向かって画像を投影すると、その画像は、スクリーン30のP0LからP0Rまでの範囲に投影されるとする。同様に、投影撮像装置20の投影部21がスクリーン30に向かって画像を投影すると、その画像は、スクリーン30のP1LからP1Rまでの範囲に投影されるとする。この場合、スクリーン30のP1LからP0Rまでの範囲がオーバーラップ領域となる。
このようなオーバーラップ領域では、例えば他の領域と輝度が異なったり、重なっている投影画像同士のずれが生じたりするおそれがあるので、レベル補正や歪み補正等を行うことが求められる。
例えば、投影部11および投影部21が各投影範囲全体に均一の輝度で画像を投影するとすると、オーバーラップ領域には投影部11および投影部21の両方から画像が投影されるので、他の範囲(P0LからP1Lまでの範囲とP0RからP1Rまでの範囲)に比べて明るくなってしまう。P0LからP1Lまでの範囲に1枚の画像を投影させる場合、オーバーラップ領域の部分だけ明るくなってしまい、投影画像が違和感を与える画像になってしまう(すなわち投影画像の画質が劣化する)おそれがある。したがって、このような場合、画質の低減を抑制するために、レベル補正が必要になる。
また、オーバーラップ領域では複数の投影画像が重なるので、投影画像に歪みが生じると、その複数の投影画像を揃えることが困難になり、投影画像が違和感を与える画像になってしまう(すなわち投影画像の画質が劣化する)おそれがある。したがって、このような場合、画質の低減を抑制するために、ひずみ補正が必要になる。
<オーバラップ領域の検出>
そのため、このようなオーバーラップ領域をカメラ等でセンシングして、どのようにオーバーラップしているかを検出し、その検出結果に応じて投影する画像を補正することが考えられた。これは、プロジェクタ、カメラ間の相対姿勢(回転成分、並進成分)を推定すること同意である。
例えば、図1の例のように、投影撮像装置10が、画像を投影する投影機能(投影部11)と、被写体を撮像して撮像画像を得る撮像機能(撮像部12)を有するとする。同様に、投影撮像装置20が、画像を投影する投影機能(投影部21)と、被写体を撮像して撮像画像を得る撮像機能(撮像部22)を有するとする。撮像部12は、スクリーン30のC0LからC0Rまでの範囲を撮像し、撮像部22は、スクリーン30のC1LからC1Rまでの範囲を撮像するとする。つまり、撮像部12は、投影部21が投影する投影画像のP1LからC0Rまでの範囲を撮像することができる。また、撮像部22は、投影部11が投影する投影画像のC1LからP0Rまでの範囲を撮像することができる。
この場合、各投影撮像装置において、投影部と撮像部の位置関係が既知であるとすると、撮像部12と投影部21との相対姿勢(両矢印41)や撮像部22と投影部11との相対姿勢(両矢印42)が把握できれば、オーバーラップ領域を検出することができる。
換言するに、投影部と撮像部との間で画素の対応関係が把握できればよい。例えば、図2に示されるように、投影部11から照射された光(矢印51)が、スクリーン30のXにおいて反射し、撮像部22により受光される(矢印52)とする。このように光を照射した投影部の画素と、その光を受光した撮像部の画素との対応関係(すなわち、撮像部の各画素が投影部のどの画素に対応するか)が把握できれば、オーバーラップ領域を検出することができる。
このような投影部(プロジェクタ)と撮像部(カメラ)との間の画素の対応関係を取得する方法として、グレイコードを用いる方法が考えられた。この方法の場合、例えば、図3のAに示されるような所定のパターン画像をプロジェクタから時系列に切り替えながら投影して、各パターンをカメラで撮像する。そして、全てのパターンの撮像が完了したらカメラの各画素において、各撮像パターンの1(白)または0(黒)を検出して、図3のBに示されるように、その1,0パターンをデコードすることでプロジェクタ画素の位置を取得する。これにより画素の対応関係を取得することができる。
しかしながら、このようなグレイコードを用いる方法はプロジェクタの各画素を識別するためにceil(log2(水平解像度))+ceil(log2(垂直解像度))枚という非常に多くのパターン画像を投影し、撮像する必要がある。そのため、煩雑な作業が必要になり、処理時間が増大するおそれがあった。また、プロジェクタ画角に対してカメラ画角が十分に広い場合、カメラ1画素にプロジェクタの画素が複数割り当てられてしまうので、高精度に対応点を求めることが困難であった。
そこで、非特許文献1では、図4に示されるように、チェッカーとチェッカーの4隅のうちどれかが欠けたパターン4枚を投影し、パターンの投影順序と欠けた隅の情報の整合を取ることでチェッカーの各コーナーがプロジェクタのどの画素に対応するかを検出する方法が考えられた。
この方法の場合、投影、撮像するパターン画像の数を、上述したグレイコードを用いる方法と比較して大幅に削減することができる。しかしながら、この方法の場合、投影、撮像するパターン画像として5パターン必要であり、その数が最も少ない訳ではなかった。また、この方法の場合、カメラから最低1つの欠けた隅が見えている必要があり、対応できない場合が考えられた。さらに、撮像画像から直接特徴点を検出する方式では、スクリーンの背景色や外光の状況に対して特徴点検出のロバスト性が十分でないおそれがあった。
このように、投影部と撮像部との間で画素の対応関係を把握するための方法として、上述した2つの方法以外の方法が求められていた。
<対応点検出>
そこで、パターンを含む画像の投影画像であるパターン投影画像の撮像画像であるパターン撮像画像を用いて、投影画像とその投影画像の撮像画像との対応関係を検出するようにする。
パターンによって画像の位置をより正確に特定することができるので、パターン画像の数を増大させずに対応点を検出することができる。つまり、より容易に投影部と撮像部との相対姿勢を求めることができる。
例えば、パターンを含む画像が、複数のパターンを含み、各パターンは複数のサブパターンにより構成され、そのサブパターンの数またはそのサブパターン同士の位置関係が他のパターンと異なるような画像であるようにしてもよい。
また、パターンは、サブパターンが、各パターンで共通の数および位置関係でパターン配置されるスタートコードと、サブパターンの数または位置関係が他のパターンと異なるユニークコードとを有するようにしてもよい。
また、そのスタートコードは、図形として配置される複数のサブパターンからなり、ユニークコードは、図形としての他のパターンと異なるように配置されるようにしてもよい。
さらに、そのスタートコードは、1行3列に配置される3つのパターンよりなり、ユニークコードは、2行3列内に、数または位置関係が他のパターンと異なるように配置される単数若しくは複数のサブパターンよりなるようにしてもよい。
サブパターンは、点状の図形として配置されるようにしてもよい。
検出部は、パターン撮像画像に含まれる各パターンについてサブパターンの数と位置関係とを用いて、投影画像とその投影画像の撮像画像との対応点を検出することにより、前記対応関係を検出するようにしてもよい。
また、検出部は、各パターンについて、パターン同士の隣接関係を用いて、サブパターンの数および位置関係を解析することにより、対応点を検出するようにしてもよい。
その際、検出部は、所定の模様の画像の投影画像の撮像画像における、その模様のエッジを示すエッジ画像を用いて、サブパターン同士の隣接関係を検出するようにしてもよい。
なお、所定の模様の画像の投影画像の撮像画像における、その模様のエッジを検出し、そのエッジ画像を生成するエッジ検出部をさらに備え、検出部は、そのエッジ検出部により生成されたエッジ画像を用いて、サブパターン同士の隣接関係を検出するようにしてもよい。
その際、検出部は、エッジが膨張されたエッジ画像を用いて、サブパターン同士の隣接関係を検出するようにしてもよい。
検出部は、パターン撮像画像に含まれる各パターンに対するサブパターンの重心を用いて、サブパターン同士の隣接関係を検出するようにしてもよい。
また、その検出部は、パターン撮像画像を2値化した画像を用いてサブパターンの重心を検出するようにしてもよい。
検出部は、パターン撮像画像に含まれるパターンに基づいて生成されたホモグラフィ画像と、投影画像の撮像画像との対応点を用いて、投影画像とその撮像画像との対応点を検出するようにしてもよい。
なお、所定の模様の画像は、チェック模様の画像であるようにしてもよい。
検出部は、撮像画像において所定の模様の全てのコーナーについて、ホモグラフィ画像と撮像画像との対応点を検出し、検出したその所定の模様の全てのコーナーについて、投影画像と撮像画像との対応点を検出するようにしてもよい。
検出部は、撮像画像を2値化して所定の成分を膨張させた画像を用いて、コーナーを検出するようにしてもよい。
投影画像を撮像し撮像画像を得る撮像部をさらに備え、検出部は、撮像部によりパターン投影画像が撮像されて得られたパターン撮像画像を用いて、投影画像と、撮像部により前記投影画像が撮像されて得られた撮像画像との対応点を検出することにより、前記対応関係を検出するようにしてもよい。
画像を投影する投影部をさらに備え、検出部は、投影部により投影されたパターン投影画像の撮像画像であるパターン撮像画像を用いて、投影部により投影された投影画像と投影画像の撮像画像との対応点を検出することにより、前記対応関係を検出するようにしてもよい。
検出部により検出された投影画像と撮像画像との対応関係を用いて、投影する画像の、他の投影画像と重畳する部分について画像処理を行う画像処理部をさらに備えるようにしてもよい。
<投影撮像システム>
このような本技術を適用した画像処理装置の一実施の形態である制御装置を適用した投影撮像システムの主な構成例を、図5に示す。図5に示される投影撮像システム100は、画像を投影するシステムである。この投影撮像システム100は、例えば、上述したように複数の投影装置(投影撮像装置)を用いて1つの画像を投影することができる。図5に示されるように、投影撮像システム100は、制御装置101、投影撮像装置102−1および投影撮像装置102−2、並びにネットワーク103を有する。
制御装置101は、ネットワーク103を介して投影撮像装置102−1および投影撮像装置102−2と接続され、それらと通信を行い、それらの動作を制御する。例えば、制御装置101は、投影撮像装置102−1および投影撮像装置102−2に対して、画像を投影させたり、投影画像を撮像させたりする。例えば、制御装置101は、投影撮像装置102−1および投影撮像装置102−2を制御し、1つの画像を投影させることもできる。
また、例えば、制御装置101は、投影撮像装置102−1および投影撮像装置102−2の間での、投影部と撮像部との相対姿勢(回転成分や並進成分等)の推定に関する処理を行う。また、制御装置101は、例えば、その推定結果を用いて、投影撮像装置102−1の投影画像と投影撮像装置102−2の投影画像のオーバーラップ領域についてレベル補正や歪み補正等の画像処理を行うこともできる。
投影撮像装置102−1は、投影機能を有し、スクリーン104に画像を投影することができる。また、投影撮像装置102−1は、撮像機能も有し、スクリーン104に投影された投影画像を撮像することができる。投影撮像装置102−2は、投影撮像装置102−1は、と同様の装置であり、同様の構成を有し、同様の機能を有する。投影撮像装置102−1および投影撮像装置102−2を互いに区別して説明する必要が無い場合、投影撮像装置102と称する。
投影撮像装置102−1および投影撮像装置102−2は、ネットワーク103を介して互いに接続されており、情報を授受することができる(通信を行うことができる)。また、投影撮像装置102−1および投影撮像装置102−2は、ネットワーク103を介して制御装置101に接続されており、それぞれが制御装置101と情報を授受することができる(通信を行うことができる)。例えば、投影撮像装置102−1および投影撮像装置102−2は、それぞれが制御装置101に制御されて画像をスクリーン104に投影することにより、1つの画像をスクリーン104に投影させることもできる。
また、制御装置101に制御されて、投影撮像装置102−1が画像をスクリーン104に投影し、投影撮像装置102−2がその投影画像を撮像し、撮像画像を得ることもできる。当然、制御装置101に制御されて、投影撮像装置102−2が画像をスクリーン104に投影し、投影撮像装置102−1がその投影画像を撮像し、撮像画像を得ることもできる。
ネットワーク103は、制御装置101および投影撮像装置102との間の通信媒体となる通信網である。ネットワーク103は、どのような通信網であってもよく、有線通信網であってもよいし、無線通信網であってもよいし、それらの両方であってもよい。例えば、有線LAN、無線LAN、公衆電話回線網、所謂3G回線や4G回線等の無線移動体用の広域通信網、またはインターネット等であってもよいし、それらの組み合わせであってもよい。また、ネットワーク103は、単数の通信網であってもよいし、複数の通信網であってもよい。また、例えば、ネットワーク103は、その一部若しくは全部が、例えばUSB(Universal Serial Bus)ケーブルやHDMI(登録商標)(High-Definition Multimedia Interface)ケーブル等のような、所定の規格の通信ケーブルにより構成されるようにしてもよい。
スクリーン104は、撮像投影装置102から画像を投影される物体である。このスクリーン104の画像を投影する面は、平面状であってもよいし、曲面状であってもよいし、凹凸を有してもよい。また、図5においては、撮像投影装置102がスクリーン104に画像を投影するように説明したが、スクリーン104は、撮像投影装置102が画像を投影する面としての一例である。撮像投影装置102は、例えば、壁面、建造物、床、天井、カレンダー、食器、人形、文房具等、画像を投影可能な任意の対象に対して、画像を投影することができる。
<投影撮像装置の概要>
図6のAに投影撮像装置102の外観の例を示す。投影撮像装置102は、上述したように投影機能と撮像機能を有しており、その筐体には、画像を投影するための投射口(レンズ機構)や、被写体を撮像するためのカメラ(レンズ機構)等の光学デバイスが設けられている。また、投影撮像装置102は、どのような大きさの装置であってもよいが、例えば、携帯型(小型)の装置としてもよい。その場合、図6のAに示されるように、投影撮像装置102の筐体にバッテリを設けて可搬性を向上させるようにしてもよい。
上述したように、投影撮像装置102は、複数の投影撮像装置102により1つの画像を投影することができる。図6のBに、4台の投影撮像装置102(投影撮像装置102−1乃至投影撮像装置102−4)を用いて1つの画像をスクリーン104に投影している様子の例を示す。図6のBに示されるように、投影撮像装置102−1乃至投影撮像装置102−4のそれぞれから投影される各投影画像によって1つの画像領域111を形成し、その画像領域111に1つの画像を表示する。もちろん、各投影画像、並びに、この1つの画像は、静止画像であってもよいし、動画像であってもよい。
このように複数の投影撮像装置102から投影される各投影画像によって1つの画像領域を形成する場合、各投影画像を隙間も違和感も無く並べることは困難である。そこで、図7に示される例のように、各投影画像の少なくとも一部が互いに重なるように各投影撮像装置102を配置する。図7の例の場合、投影撮像装置102−1の投影画像112−1と投影撮像装置102−2の投影画像112−2とが互いにその一部が重なっている(図7中の斜線模様部分)。この斜線模様で示される領域がオーバーラップ領域113である。
上述したように、このオーバーラップ領域113では、例えば他の領域と輝度が異なったり、重なっている投影画像同士のずれが生じたりするおそれがあり、レベル補正や歪み補正等の画質の劣化を抑制するための画像処理が必要になる場合がある。そのような画像処理を行うためには、このオーバーラップ領域113を検出する必要がある。そこで、制御装置101は、このオーバーラップ領域113の検出に関する処理を行う。
<制御装置>
図8は、本技術を適用した画像処理装置の一実施の形態である制御装置101の主な構成例を示す図である。
図8に示されるように、制御装置101において、CPU(Central Processing Unit)151、ROM(Read Only Memory)152、RAM(Random Access Memory)153は、バス154を介して相互に接続されている。
バス154にはまた、入出力インタフェース160も接続されている。入出力インタフェース160には、入力部161、出力部162、記憶部163、通信部164、およびドライブ165が接続されている。
入力部161は、ユーザ入力等の外部の情報を受け付ける入力デバイスよりなる。例えば、入力部161には、操作ボタン、タッチパネル、カメラ、マイクロホン、入力端子等が含まれる。また、加速度センサ、光センサ、温度センサ等の各種センサが入力部161に含まれるようにしてもよい。
出力部162は、画像や音声等の情報を出力する出力デバイスよりなる。例えば、出力部162には、ディスプレイ、スピーカ、出力端子等が含まれる。
記憶部163は、例えば、ハードディスク、RAMディスク、不揮発性メモリなどよりなる。通信部164は、例えば、ネットワークインタフェースよりなる。例えば、通信部164は、ネットワーク103に接続され、ネットワーク103を介して接続される他の装置と通信を行う。ドライブ165は、例えば磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア171を駆動する。
CPU151は、例えば、記憶部163に記憶されているプログラムを、入出力インタフェース160およびバス154を介して、RAM153にロードして実行することにより、各種処理を行う。RAM153にはまた、CPU151が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU151が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア171に記録して制御装置101に提供することができる。その場合、プログラムは、リムーバブルメディア171をドライブ165に装着することにより、入出力インタフェース160を介して、記憶部163にインストールすることができる。
また、このプログラムは、LAN、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して制御装置101に提供することもできる。その場合、プログラムは、有線または無線の伝送媒体を介して、通信部164で受信し、記憶部163にインストールすることができる。
その他、このプログラムは、ROM152や記憶部163に、あらかじめインストールしておくこともできる。
<機能ブロック>
制御装置101のCPU151は、プログラムを実行することにより、各種機能を実現する。図9は、CPU151が実現する主な機能の例を示す機能ブロック図である。
図9に示されるように、CPU151は、対応関係検出部201、投影制御部202、撮像制御部203等の機能ブロックを有する。対応関係検出部201は、投影撮像装置102間における投影部と撮像部との対応関係の検出に関する処理を行う。投影制御部202は、投影撮像装置102の投影機能の制御に関する処理を行う。撮像制御部203は、投影撮像装置102の撮像機能の制御に関する処理を行う。
対応関係検出部201は、パターン画像投影撮像処理部211、対応点検出処理部212、および投影画像処理部213を有する。
パターン画像投影撮像処理部211は、対応関係を検出するための、パターン画像の投影およびその撮像に関する処理を行う。例えば、パターン画像投影撮像処理部211は、投影制御部202を介して投影撮像装置102を制御し、所定のパターン画像をスクリーン104に投影させることができる。また、例えば、パターン画像投影撮像処理部211は、撮像制御部203を介して投影撮像装置102を制御し、その所定のパターン画像の投影画像を撮像させ、撮像画像を対応点検出処理部212に供給させる。スクリーン104に投影させることができる。
対応点検出処理部212は、撮像制御部203を介して得られた撮像画像を用いて、投影画像とその撮像画像との対応点の検出に関する処理を行う。投影画像処理部213は、その検出された対応点に基づいて、投影画像に対するレベル補正や歪み補正等の画像処理を行う。投影画像処理部213は、投影制御部202を介して投影撮像装置102を制御し、その画像処理を行った画像を投影させることもできる。
<対応点検出処理部>
図10は、対応点検出処理部212の主な構成例を示す機能ブロック図である。
図10に示されるように、対応点検出処理部212は、コーナー検出処理部221、エッジ検出処理部222、重心検出処理部223、および画像間対応点検出処理部224を有する。
コーナー検出処理部221は、コーナー検出に関する処理を行う。コーナー検出処理部221は、撮像画像ノイズ低減部231、差分画像生成部232、差分画像2値化部233、2値化画像膨張部234、および2値化膨張画像コーナー検出部235を有する。
撮像画像ノイズ低減部231は、投影撮像装置102から供給される、所定の図柄の投影画像の撮像画像に対してノイズを低減させる画像処理を行う。差分画像生成部232は、ノイズが低減された撮像画像同士の差分画像を生成する。差分画像2値化部233は、生成された差分画像を2値化する。2値化画像膨張部234は、2値化された差分画像である2値化画像の所定の成分(例えば、「白」の部分)を膨張(面積を拡大)させる。2値化膨張画像コーナー検出部235は、所定の成分が膨張された2値化画像である2値化膨張画像に含まれる所定の図柄のコーナー部分の検出に関する処理を行う。
エッジ検出処理部222は、エッジ検出に関する処理を行う。エッジ検出処理部222は、2値化膨張画像エッジ検出部241、エッジ検出画像生成部242、およびエッジ検出画像膨張部243を有する。2値化膨張画像エッジ検出部241は、2値化膨張画像に含まれる所定の図柄のエッジ部分を検出する。エッジ検出画像生成部242は、2値化膨張画像エッジ検出部241によるエッジの検出結果に基づいて、そのエッジ部分を示すエッジ検出画像を生成する。エッジ検出画像膨張部243は、生成されたエッジ検出画像の各エッジを膨張(面積を拡大)させる。
重心検出処理部223は、ユニークパターンを構成する各サブパターンについて、その重心を検出する処理を行う。ユニークパターンの詳細については後述する。重心検出処理部223は、ユニークパターン撮像画像ノイズ検出部251、差分画像生成部252、差分画像2値化部253、および2値化画像重心検出部254を有する。ユニークパターン撮像画像ノイズ検出部251は、他と異なる図柄のサブパターンを複数含むユニークパターン画像の投影画像であるユニークパターン投影画像の撮像画像であるユニークパターン撮像画像に対してノイズを低減させる画像処理を行う。差分画像生成部252は、ユニークパターン撮像画像と、他のパターンの投影画像を撮像した撮像画像との差分画像を生成する。差分画像2値化部253は、生成された差分画像を2値化する。2値化画像重心検出部254は、2値化された差分画像である2値化画像に含まれるユニークパターンの各サブパターンの重心の検出に関する処理を行う。
画像間対応点検出処理部224は、画像間の対応点検出に関する処理を行う。画像間対応点検出処理部224は、ユニークパターン隣接関係検出部261、ユニークパターンデコード部262、ホモグラフィ画像生成部263、ホモグラフィ画像撮像画像間対応点検出部264、および投影画像撮像画像間対応点検出部265を有する。ユニークパターン隣接関係検出部261は、ユニークパターンを形成するサブパターン同士の隣接関係の検出に関する処理を行う。ユニークパターンデコード部262は、検出されたサブパターン同士の隣接関係に基づいて、そのユニークパターンを解析する処理を行う。ホモグラフィ画像生成部263は、ユニークパターンを用いて投影画像を射影変換した画像(ホモグラフィ画像)の生成に関する処理を行う。ホモグラフィ画像撮像画像間対応点検出部264は、ユニークパターン等に基づいて、そのホモグラフィ画像と撮像画像との間の対応関係を求める処理を行う。投影画像撮像画像間対応点検出部265は、ホモグラフィ画像と撮像画像との間の対応関係を用いて、投影画像と撮像画像との対応関係を求める処理を行う。
各処理の詳細については後述する。
<投影撮像装置>
図11は、投影撮像装置102の主な構成例を示すブロック図である。
図11に示されるように、投影撮像装置102は、制御部301、投影部302、撮像部303、入力部311、出力部312、記憶部313、通信部314、およびドライブ315を有する。
制御部301は、例えば、CPU、ROM、RAM等よりなり、装置内の各処理部を制御したり、例えば画像処理等、その制御に必要な各種処理を実行したりする。投影部302は、制御部301に制御されて、画像の投影に関する処理を行う。例えば、投影部302は、制御部301から供給される画像を投影撮像装置102の外部(例えばスクリーン104等)に投影する。つまり、投影部302は、投影機能を実現する。
投影部302は、レーザ光を光源とし、MEMSミラーを用いてそのレーザ光を走査することにより、画像を投影する。もちろん、投影部302の光源は任意であり、レーザ光に限らず、LEDやキセノン等であってもよい。投影部302の詳細については後述する。
撮像部303は、制御部301に制御されて、装置外部の被写体を撮像し、撮像画像を生成し、その撮像画像を制御部301に供給する。つまり、撮像部303は、撮像機能を実現する。例えば、撮像部303は、投影部302がスクリーン304に投影した投影画像を撮像する。
入力部311は、ユーザ入力等の外部の情報を受け付ける入力デバイスよりなる。例えば、入力部311には、操作ボタン、タッチパネル、カメラ、マイクロホン、入力端子等が含まれる。また、加速度センサ、光センサ、温度センサ等の各種センサが入力部311に含まれるようにしてもよい。
出力部312は、画像や音声等の情報を出力する出力デバイスよりなる。例えば、出力部312には、ディスプレイ、スピーカ、出力端子等が含まれる。
記憶部313は、例えば、ハードディスク、RAMディスク、不揮発性メモリなどよりなる。通信部314は、例えば、ネットワークインタフェースよりなる。例えば、通信部314は、ネットワーク103に接続され、ネットワーク103を介して接続される他の装置と通信を行う。ドライブ315は、例えば磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア321を駆動する。
制御部301は、例えば、記憶部313に記憶されているプログラムを、自身に内蔵されるRAMにロードして実行することにより、各種処理を行う。そのRAMにはまた、制御部301が各種の処理を実行する上において必要なデータなども適宜記憶される。
制御部301が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア321に記録して投影撮像装置102に提供することができる。その場合、プログラムは、リムーバブルメディア321をドライブ315に装着することにより、記憶部313にインストールすることができる。
また、このプログラムは、LAN、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して投影撮像装置102に提供することもできる。その場合、プログラムは、有線または無線の伝送媒体を介して、通信部314で受信し、記憶部313にインストールすることができる。
その他、このプログラムは、制御部301に内蔵されるROMや記憶部313に、あらかじめインストールしておくこともできる。
投影撮像装置102−1も投影撮像装置102−2もこのような構成を有する。
<投影部>
図12は、投影部302の主な構成例を示すブロック図である。図12に示されるように、投影部302は、ビデオプロセッサ351、レーザドライバ352、レーザ出力部353−1、レーザ出力部353−2、レーザ出力部353−3、ミラー354−1、ミラー354−2、ミラー354−3、MEMS(Micro Electro Mechanical Systems)ドライバ355、および、MEMSミラー356を有する。
ビデオプロセッサ351は、制御部301から供給される画像を保持したり、その画像に対して必要な画像処理を行ったりする。ビデオプロセッサ351は、その投影する画像をレーザドライバ352やMEMSドライバ355に供給する。
レーザドライバ352は、ビデオプロセッサ351から供給される画像を投影するように、レーザ出力部353−1乃至レーザ出力部353−3を制御する。レーザ出力部353−1乃至レーザ出力部353−3は、例えば、赤、青、緑等、互いに異なる色(波長域)のレーザ光を出力する。つまり、レーザドライバ352は、ビデオプロセッサ351から供給される画像を投影するように、各色のレーザ出力を制御する。なお、レーザ出力部353−1乃至レーザ出力部353−3を互いに区別して説明する必要が無い場合、レーザ出力部353と称する。
ミラー354−1は、レーザ出力部353−1から出力されるレーザ光を反射し、MEMSミラー356に誘導する。ミラー354−2は、レーザ出力部353−2から出力されるレーザ光を反射し、MEMSミラー356に誘導する。ミラー354−3は、レーザ出力部353−3から出力されるレーザ光を反射し、MEMSミラー356に誘導する。なお、ミラー354−1乃至ミラー354−3を互いに区別して説明する必要が無い場合、ミラー354と称する。
MEMSドライバ355は、ビデオプロセッサ351から供給される画像を投影するように、MEMSミラー356のミラーの駆動を制御する。MEMSミラー356は、MEMSドライバ355の制御に従ってMEMS上に取り付けられたミラー(鏡)を駆動することにより、例えば、図13の例のように各色のレーザ光を走査する。このレーザ光は、投射口から装置外部に出力され、例えばスクリーン104に照射される。これにより、ビデオプロセッサ351から供給される画像がスクリーン104に投影される。
なお、図12の例においては、レーザ出力部353を3つ設け、3色のレーザ光を出力するように説明したが、レーザ光の数(または色数)は任意である。例えば、レーザ出力部353を4つ以上であってもよいし、2つ以下であってもよい。つまり、投影撮像装置102(投影部302)から出力されるレーザ光は、2本以下であってもよいし、4本いじょうであってもよい。そして、投影撮像装置102(投影部302)から出力されるレーザ光の色数も任意であり、2色以下であってもよいし、4色以上であってもよい。また、ミラー354やMEMSミラー356の構成も任意であり、図12の例に限定されない。もちろん、レーザ光の走査パターンは任意であり、図13の例に限定されない。
<対応関係検出処理の流れ>
次に、上述したようなオーバーラップ領域113に対する処理を行うために、制御装置101において実行される各種処理の流れについて説明する。
オーバーラップ領域113に対する処理として、制御装置101の対応関係検出部201は、対応関係検出処理を実行する。この処理は、任意のタイミングにおいて実行することができる。例えば、対応関係検出部201が、投影撮像装置102−1および投影撮像装置102−2の両方を用いた1つの画像の投影を開始する前に、この対応関係検出処理を実行するようにしてもよい。また、画像を投影中の所定のタイミングにおいて、この対応関係検出処理が実行されるようにしてもよい。
図14のフローチャートを参照して、対応関係検出処理の流れの例を説明する。
対応関係検出処理が開始されると、パターン画像投影撮像処理部211は、ステップS101において、パターン画像投影撮像処理を行う。パターン画像投影撮像処理が終了すると、対応点検出処理部212は、ステップS102において、対応点検出処理を行う。対応点検出処理が終了すると、投影画像処理部213は、ステップS103において、ステップS102において検出された対応関係に基づいて、これから投影する若しくは投影中の投影画像を補正する。つまり、投影画像処理部213は、投影画像のオーバラップ領域に対する画像処理を行う。ステップS103の処理が終了すると、対応関係検出処理が終了する。
<パターン画像投影撮像処理の流れ>
次に、図15のフローチャートを参照して、図14のステップS101において実行されるパターン画像投影撮像処理の流れの例を説明する。必要に応じて図16を参照して説明する。
パターン画像投影撮像処理が開始されると、パターン画像投影撮像処理部211は、ステップS121において、未処理の(投影していない)パターン画像の中から、投影するパターン画像を選択する。
パターン画像は、予め用意された所定の模様の画像であり、このパターン画像を用いて、対応点の検出(オーバーラップ領域の検出)が行われる。図16にそのパターン画像の例を示す。図16のAに示されるパターン1のパターン画像は、2色(例えば白黒)のチェック柄(チェッカー)の画像である。図16のBに示されるパターン2のパターン画像は、パターン1と同様の2色(例えば白黒)のチェック柄(チェッカー)の画像である。ただし、パターン2は、パターン1と正負(白黒)が反転されている。
図16のCに示されるパターン3のパターン画像は黒画像である。図16のDに示されるパターン4のパターン画像は、黒画像に(例えば白色の)ユニークパターンが複数重畳された画像である。このユニークパターンは、複数のサブパターンにより構成されており、各ユニークパターンは、そのサブパターンの数またはそのパターン同士の位置関係が他のユニークパターンと異なる。つまり、このユニークパターンは、独自の配置パターンで配置されたサブパターン群により構成され、そのサブパターンの数や位置関係等によって他のユニークパターンと識別することができる。ユニークパターンを構成するサブパターンの数、形状、大きさは任意である。全てのサブパターンが同一の大きさや形状であってもよいし、互いに異なる物が存在するようにしてもよい。図16のDの例の場合、各サブパターンは、点状の図形(白点)である。
図15に戻り、パターン画像投影撮像処理部211は、例えば、このようなパターン1乃至パターン4のパターン画像の中の未処理の(投影していない)パターン画像の中から、投影するパターン画像(今回処理対象とする画像)を選択する。
ステップS122において、パターン画像投影撮像処理部211は、各投影撮像装置102の未処理の(選択されたパターン画像を投影していない)投影部302の中から、選択されたパターン画像を投影させる投影部302(処理対象とする投影部302)を選択する。
ステップS123において、パターン画像投影撮像処理部211は、ステップS122において選択された投影部302に、ステップS121において選択されたパターン画像をスクリーン104に投影させる。
ステップS124において、パターン画像投影撮像処理部211は、各投影撮像装置102の未処理の(投影されたパターン画像を撮像していない)撮像部303の中から、スクリーン104に投影されたパターン画像(パターン投影画像)を撮像させる撮像部303(処理対象とする撮像部303)を選択する。
ステップS125において、パターン画像投影撮像処理部211は、ステップS124において選択された撮像部303に、ステップS123においてスクリーン104に投影されたパターン画像(パターン投影画像)を撮像させる。
ステップS126において、パターン画像投影撮像処理部211は、全ての撮像部303に、スクリーン104に投影されているパターン投影画像を撮像させたか否かを判定する。未処理の撮像部303が存在すると判定された場合、処理はステップS124に戻り、それ以降の処理を繰り返す。
つまり、ステップS124乃至ステップS126の各処理を繰り返し実行することにより、投影されているパターン投影画像が全ての撮像部303によって撮像される。
ステップS126において、全ての撮像部303に、スクリーン104に投影されているパターン投影画像を撮像させたと判定された場合、処理はステップS127に進む。
ステップS127において、パターン画像投影撮像処理部211は、全ての投影部302に、処理対象として選択されているパターン画像を投影させたか否かを判定する。未処理の投影部302が存在すると判定された場合、処理はステップS122に戻り、それ以降の処理を繰り返す。
つまり、ステップS122乃至ステップS127の各処理を繰り返し実行することにより、処理対象のパターン画像が全ての投影部302によって投影され、各投影部302が投影したパターン投影画像がそれぞれ全ての撮像部303によって撮像される。
ステップS127において、全ての投影部302に、処理対象のパターン画像を投影させたと判定された場合、処理はステップS128に進む。
ステップS128において、パターン画像投影撮像処理部211は、全てのパターン画像を投影させたか否かを判定する。未処理のパターン画像が存在すると判定された場合、処理はステップS121に戻り、それ以降の処理を繰り返す。
つまり、ステップS121乃至ステップS128の各処理を繰り返し実行することにより、全てのパターン画像がそれぞれ全ての投影部302によって投影され、各投影部302が投影したパターン投影画像がそれぞれ全ての撮像部303によって撮像される。
ステップS128において、全てのパターン画像が投影されたと判定された場合、パターン画像投影撮像処理が終了し、処理は図14に戻る。
つまり、処理順序の概要は、パターン画像の選択、投影部302の選択、撮像部303の選択というループになっている。まず、処理対象とするパターン画像を選択し、次にそのパターンを投影する投影部302を選択する、そして、その投影部302により投影されたパターン投影画像を、全ての撮像部303で撮像する。その撮影が終わったら、処理対象のパターン画像を投影する投影部302を変更して、また全ての撮像部303でそのパターン投影画像を撮像する。このような処理を繰り返し、全ての投影部302によりその処理対象のパターン画像を投影したら、今度は、処理対象のパターン画像を変更して、上述した処理を繰り返す。こうして全パターン画像が全投影部302により投影され、各投影画像が全ての撮像部303により撮像されたら(全てのパターン画像の全ての投影画像の撮像画像が全ての撮像部303において得られたら)、パターン画像投影撮像処理が終了される。
なお、以上のループ処理において、パターン画像を投影する投影部302と同じ装置の撮像部303による撮像は省略するようにしてもよい。
<対応点検出処理の流れ>
パターン画像投影撮像処理が終了すると、対応点検出処理が行われる。次に、図14のステップS102において実行される対応点検出処理の流れの例を、図17のフローチャートを参照して説明する。
対応点検出処理が開始されると、対応点検出処理部212は、ステップS141において、未処理の撮像画像群の中から処理対象とする撮像画像群を選択する。
ここで、上述したように得られたパターン画像の撮像画像を、そのパターン画像を投影した投影部302、並びに、その撮像画像が得られた撮像部303毎にグループ化する。つまり、1つの投影部302が投影し、1つの撮像部303が撮像した、全てのパターン画像の撮像画像を1組の撮像画像群とする。例えば、図5の例の場合、投影撮像装置102−1の投影部302が投影し、投影撮像装置102−2の撮像部303が投影したパターン1乃至パターン4の(図16)撮像画像を1組の撮像画像群とし、投影撮像装置102−2の投影部302が投影し、投影撮像装置102−1の撮像部303が投影したパターン1乃至パターン4の(図16)撮像画像を1組の撮像画像群とする。
ステップS141においては、このような構成の撮像画像群の選択を行う。
処理対象の撮像画像群が選択されると、コーナー検出処理部221は、ステップS142において、処理対象の撮像画像群のチェッカー撮像画像について、コーナー検出処理を行う。
ステップS143において、エッジ検出処理部222は、処理対象の撮像画像群の2値化膨張画像について、エッジ検出処理を行う。
ステップS144において、重心検出処理部223は、処理対象の撮像画像群のユニークパターン撮像画像について、重心検出処理を行う。
ステップS145において、画像間対応点検出処理部224は、処理対象の撮像画像群について、画像間対応点検出処理を行う。
ステップS146において、対応点検出処理部212は、全ての撮像画像群について処理を行ったか否かを判定する。未処理の撮像画像群が存在すると判定された場合、処理は、ステップS141に戻り、それ以降の処理が繰り返される。
このようにステップS141乃至ステップS146の各処理が各撮像画像群に対して実行される。そして、ステップS146において全ての撮像画像群が処理されたと判定された場合、対応点検出処理が終了し、処理は、図14に戻る。
<コーナー検出処理の流れ>
次に、図18のフローチャートを参照してコーナー検出処理の流れの例を説明する。ここで、図16に示されるパターン1やパターン2のパターン画像をチェッカー画像とも称し、そのチェッカー画像の投影画像をチェッカー投影画像とも称し、そのチェッカー投影画像の撮像画像をチェッカー撮像画像とも称する。
コーナー検出処理が開始されると、撮像画像ノイズ低減部231は、ステップS161において、図19に示される例のように、各チェッカー撮像画像(図19のパターン1撮像画像とパターン2撮像画像)に対してノイズ低減処理を行う。
ステップS162において、差分画像生成部232は、図19に示される例のように、ノイズを低減した各チェッカー撮像画像の差分画像を生成する。この差分画像をチェッカー差分画像とも称する。
ステップS163において、差分画像2値化部233は、図19に示される例のように、チェッカー差分画像を2値化する。この2値化されたチェッカー差分画像をチェッカー2値化画像とも称する。
ステップS164において、2値化画像膨張部234は、図19に示される例のように、チェッカー2値化画像に対して膨張処理を行い、その所定の成分(例えば白色の部分)を膨張させる。この膨張処理を行ったチェッカー2値化画像を、チェッカー2値化膨張画像とも称する。
ステップS165において、2値化膨張画像コーナー検出部235は、チェッカー2値化膨張画像に対して、コーナー検出を行い、チェッカー(チェック模様)の各コーナーを検出する。
ステップS165の処理が終了すると、処理は、図17に戻る。
上述したようにパターン1とパターン2は、正負(例えば白黒)を反転させた画像であるので、チェッカー差分画像は、スクリーン104の色や外光の影響が低減される。したがって、このようなチェッカー差分画像を用いてコーナー検出を行うことにより、よりロバストにチェッカー(チェック模様)のコーナーを検出することができる(コーナー検出のロバスト性を向上させることができる)。
<エッジ検出処理の流れ>
次に、図20のフローチャートを参照して、図17のステップS143において実行されるエッジ検出処理の流れの例を説明する。
エッジ検出処理が開始されると、2値化膨張画像エッジ検出部241は、ステップS181において、図21に示される例のように、コーナー検出処理により得られたチェッカー2値化膨張画像に対してエッジ検出を行い、チェッカー(チェック模様)の各エッジを検出する。
ステップS182において、エッジ検出画像生成部242は、図21に示される例のように、ステップS181のエッジ検出結果を用いて、各エッジを示す画像であるチェッカーエッジ検出画像を生成する。
ステップS183において、エッジ検出画像膨張部243は、図21に示される例のように、そのチェッカーエッジ検出画像に対して膨張処理を行い、エッジを膨張させる。この膨張処理を行ったチェッカーエッジ検出画像を、チェッカーエッジ検出膨張画像とも称する。
ステップS183の処理が終了すると、エッジ検出処理が終了し、処理は図17に戻る。
以上のように、エッジ検出においても、チェッカー差分画像が用いられる。したがって、よりロバストにチェッカー(チェック模様)のエッジを検出することができる(エッジ検出のロバスト性を向上させることができる)。
<重心検出処理の流れ>
次に、図22のフローチャートを参照して、図17のステップS144において実行される重心検出処理の流れの例を説明する。ここで、図16のCに示されるパターン3のパターン画像を黒画像とも称し、その黒画像の投影画像を黒投影画像とも称し、その黒投影画像の撮像画像を黒撮像画像とも称する。また、図16のDに示されるパターン4のパターン画像をユニークパターン画像とも称し、そのユニークパターン画像の投影画像をユニークパターン投影画像とも称し、そのユニークパターン投影画像の撮像画像をユニークパターン撮像画像とも称する。
重心検出処理が開始されると、ユニークパターン撮像画像ノイズ検出部251は、ステップS201において、図23に示される例のように、黒撮像画像(図23のパターン3撮像画像)とユニークパターン撮像画像(図23のパターン4撮像画像)とのそれぞれに対してノイズ低減処理を行う。
ステップS202において、差分画像生成部252は、図23に示される例のように、ノイズを低減した黒撮像画像とユニークパターン撮像画像との差分画像を生成する。この差分画像をユニークパターン差分画像とも称する。
ステップS203において、差分画像2値化部253は、図23に示される例のように、ユニークパターン差分画像を2値化する。この2値化されたユニークパターン差分画像をユニークパターン2値化画像とも称する。
ステップS204において、2値化画像重心検出部254は、図23に示される例のように、ユニークパターン2値化画像に対して重心検出処理を行い、ユニークパターン2値化画像に含まれる各ユニークパターンの各サブパターンの重心座標を求める。
ステップS204の処理が終了すると、処理は、図17に戻る。
上述したようにパターン4は、パターン3と同様の黒画像にユニークパターンが重畳された画像であるので、ユニークパターン差分画像は、スクリーン104の色や外光の影響が低減される。したがって、このようなユニークパターン差分画像を用いて重心検出を行うことにより、よりロバストに各サブパターンの重心を検出することができる(重心検出のロバスト性を向上させることができる)。
<画像間対応点検出処理の流れ>
次に、図24のフローチャートを参照して、図17のステップS145において実行される画像間対応点検出処理の流れの例を説明する。
画像間対応点検出処理が開始されると、ユニークパターン隣接関係検出部261は、ステップS221において、図25に示される例のように、重心検出処理により検出したユニークパターン2値化画像の各サブパターンの重心の座標同士の隣接関係を、エッジ検出処理により生成したチェッカーエッジ検出膨張画像を用いて検出する。
あるサブパターンに着目したときに、図25に示される例のように、座標間の距離が近いポイント同士を結ぶ直線に沿って、チェッカーエッジ検出膨張画像の画素値を参照するとエッジに沿った隣接関係にあれば、画素値が1になっているはずである。これに着目して、サブパターンを結ぶ直線に沿って、チェッカーエッジ検出膨張画像の画素値をインクリメントして、参照ポイントに対して画素値が1になっている画素の割合が閾値以上であれば、上下左右のいずれかの隣接関係にあるとする。ここでチェッカーエッジ検出膨張画像を利用する目的は、エッジに沿わない斜め方向のサブパターン同士は隣接関係にないとし、その後のユニークパターンのデコードで誤ったデコードを行わないようにするためである。
隣接関係が検出されると、ユニークパターンデコード部262は、ステップS222において、ステップS221において検出した隣接関係に基づいて、各ユニークパターンのデコードを行う。
図26にユニークパターンの例を示す。図26に示されるように、ユニークパターンは、水平方向に3つのサブパターンが並んでいるもの(1行3列に並ぶサブパターン)をスタートコード(StartCode)とし、その下にユニークコード(UniqueCode)が存在するということを表す目印として利用する。ユニークコード(UniqueCode)は、水平方向にサブパターンが3つ並んでいないかつ画面内に1つしかない組み合わせになっている(2行3列内に配置されるサブパターン)。各サブパターンの重心座標は、チェッカーのコーナー座標と同一なので、ユニークコード(UniqueCode)をデコードし、そのユニークコード(UniqueCode)内における各パターンの位置からそれに対応するチェッカコーナー座標を参照することができるようになっている。
もちろん、図26に示されるユニークパターンは、一例であり、ユニークパターンのスタートコードやユニークコードが、どのようなパターンにより形成されるようにしてもよい。例えば、もっと密に対応関係を取得したければ、水平方向4つのサブパターンやサブパターンの行数を増やすなど、ユニークコード(UniqueCode)の組み合わせを増やす事で実現することができる。つまり、スタートコードは、図形として配置される複数のサブパターンからなり、ユニークコードは、図形としての他のパターンと異なるように配置されるものであれば何でもよい。
ステップS223において、ホモグラフィ画像生成部263は、ステップS222において得られたユニークパターンのデコード結果を用いて、図27に示される例のように、チェッカー投影画像を射影変換し、ホモグラフィ画像を生成する。
ユニークパターンのデコード結果を利用すると、例えばパターン1のチェッカー投影画像におけるチェッカーの各コーナー座標と、デコードしたユニークパターンの各パターンにおける重心座標の対応関係を取得する事ができる。ホモグラフィ画像生成部263は、その対応関係を利用して、ホモグラフィ(Homography)行列を求め、チェッカー投影画像のホモグラフィ画像を生成する。つまり、ホモグラフィ画像生成部263は、チェッカー投影画像におけるパターン1のチェッカーのコーナー座標の全てに対して、ホモグラフィ(Homography)画像におけるパターンの重心座標を求める。つまり、投影画像とそのホモグラフィ画像との対応点が検出される。
ホモグラフィ画像はチェッカー撮像画像(チェッカー2値化膨張画像)とは同一ではない。
そこで、ステップS224において、ホモグラフィ画像撮像画像間対応点検出部264は、図27に示される例のように、ホモグラフィ画像とチェッカー2値化膨張画像とで最近傍の座標同士を対応付け、ホモグラフィ画像とチェッカー2値化膨張画像との対応点を検出する。
そして、ステップS225において、投影画像撮像画像間対応点検出部265は、ステップS223およびステップS224の対応点検出結果を用いて、チェッカー画像の全てのコーナー座標について、チェッカー投影画像とチェッカー2値化膨張画像(チェッカー撮像画像)との対応関係を検出する。このようにして、投影画像と撮像画像との間で対応座標を求める事ができる。
ステップS225の処理が終了すると、画像間対応点検出処理が終了し、処理は図17に戻る。
以上のように各処理を実行することにより、制御装置101は、非特許文献1に記載の方法よりも少ない4枚(背景消去(差分画像)を行わない場合は2枚)のパターン画像を用いて投影画像と撮像画像との対応点を検出することができる。すなわち、より容易に投影部と撮像部との相対姿勢を求めることができるようにする。
また、上述したようにユニークパターンを用いることで、いずれかのユニークパターンを検出できれば、投影画像と撮像画像との対応点を検出することができるので、投影撮像装置102の設置における自由度を、非特許文献1に記載の方法の場合よりも向上させることができる。
また、投影部302の投影歪みに対してロバストなパターンを用いるので、制御装置101は、より高精度に対応点を取得することができる。さらに、制御装置101は、投影パターンから得られる特徴量を利用して、ユニークパターンをロバストに取得することができる。
<投影撮像システムの構成例>
以上においては、投影撮像システム100が2台の投影撮像装置102を有するように説明したが、投影撮像システム100を構成する投影撮像装置102の台数は、例えば、図28に示される例のように、3台以上(投影撮像装置102−1、投影撮像装置102−2、投影撮像装置102−3、・・・)であってもよい。
また、以上に説明した対応関係検出処理の一部若しくは全部は、制御装置101以外で実行されるようにしてもよい。例えば、投影撮像システム100において、図29に示される例のように、制御装置101を省略し、いずれかの投影撮像装置102において、上述した対応関係検出処理が実行されるようにしてもよい。また、複数の投影撮像装置102が連携し、上述した対応関係検出処理の各処理を各装置で分担して実行するようにしてもよい。
また、図30に示される投影撮像装置412のように、他の情報処理装置411を介して、ネットワーク103(制御装置101や他の投影撮像装置103等)に接続されるようにしてもよい。投影撮像装置412は、上述した投影撮像装置102と同様の装置である、ただし、この投影撮像装置は、例えば、携帯型電話機、スマートフォン、タブレット型コンピュータ、ノート型コンピュータのような、通信機能を有する情報処理装置411を介してネットワーク103に接続される。また、投影撮像装置412は、この情報処理装置411に制御されて駆動する。このようにすることにより、通信に関する処理や東映や撮像の制御に関する処理を、元々処理能力が高い情報処理装置411に行わせることができるので、投影撮像装置412に必要な機能(情報処理能力等)の増大を抑制することができ、コストの増大を抑制することができる。
また、上述した投影撮像装置102の機能をモジュール等(すなわち部品単位)として実現するようにしてもよい。図30の情報処理装置413は、例えば、携帯型電話機、スマートフォン、タブレット型コンピュータ、ノート型コンピュータのような、元々処理能力が高い情報処理装置であり、上述した投影撮像装置102の機能を有するモジュールが組み込まれている。すなわち、情報処理装置413は、情報処理装置411と投影撮像装置412の両方の機能を有する装置である。投影撮像装置102は、このような画像処理装置として実現することもできる。
また、図30に示される例のように、投影撮像装置102として、互いに異なる機能を有するデバイスが混在するようにしてもよい。
また、図31に示される例のように、投影撮像システム100には、投影部302のみを有する投影装置421や、撮像部303のみを有する撮像装置422等が含まれるようにしてもよい。また、1つのデバイスに投影部302や撮像部303が複数設けられるようにしてもよい。さらに、投影撮像システム100全体において、投影部302の数と撮影部303の数が一致していなくてもよい。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図8や図11に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されているリムーバブルメディア171やリムーバブルメディア321により構成される。このリムーバブルメディア171やリムーバブルメディア321には、磁気ディスク(フレキシブルディスクを含む)や光ディスク(CD-ROMやDVDを含む)が含まれる。さらに、光磁気ディスク(MD(Mini Disc)を含む)や半導体メモリ等も含まれる。
その場合、例えば制御装置101においては、プログラムは、そのリムーバブルメディア171をドライブ165に装着することにより、記憶部163にインストールすることができる。また、例えば投影撮像装置102においては、プログラムは、そのリムーバブルメディア321をドライブ315に装着することにより、記憶部313にインストールすることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、例えば制御装置101においては、プログラムは、通信部164で受信し、記憶部163にインストールすることができる。また、例えば投影撮像装置102においては、プログラムは、通信部314で受信し、記憶部313にインストールすることができる。
その他、このプログラムは、記憶部やROM等に、あらかじめインストールしておくこともできる。例えば制御装置101の場合、プログラムは、記憶部163やROM153等に、あらかじめインストールしておくこともできる。また、例えば投影撮像装置102の場合、プログラムは、記憶部313や制御部301内のROM等に、あらかじめインストールしておくこともできる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、上述した各ステップの処理は、上述した各装置、若しくは、上述した各装置以外の任意の装置において、実行することができる。その場合、その処理を実行する装置が、上述した、その処理を実行するのに必要な機能(機能ブロック等)を有するようにすればよい。また、処理に必要な情報を、適宜、その装置に伝送するようにすればよい。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本技術は、これに限らず、このような装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
なお、本技術は以下のような構成も取ることができる。
(1) パターンを含む画像の投影画像であるパターン投影画像の撮像画像であるパターン撮像画像を用いて、投影画像と前記投影画像の撮像画像との対応関係を検出する検出部
を備える画像処理装置。
(2) 前記画像は、複数のパターンを含み、
各パターンは、複数のサブパターンにより構成され、前記サブパターンの数または前記サブパターン同士の位置関係が他のパターンと異なる
(1)に記載の画像処理装置。
(3) 前記パターンは、
前記サブパターンが、各パターンで共通の数および位置関係で配置されるスタートコードと、
前記サブパターンの数または位置関係が他のパターンと異なるユニークコードと
を有する(2)に記載の画像処理装置。
(4) 前記スタートコードは、図形として配置される複数のサブパターンからなり、
前記ユニークコードは、図形としての他のパターンと異なるように配置される
(3)に記載の画像処理装置。
(5) 前記スタートコードは、1行3列に配置される3つの前記パターンよりなり、
前記ユニークコードは、2行3列内に、数または位置関係が前記他のパターンと異なるように配置される単数若しくは複数の前記サブパターンよりなる
(3)に記載の画像処理装置。
(6) 前記サブパターンは、点状の図形として配置される
(2)乃至(5)に記載の画像処理装置。
(7) 前記検出部は、前記パターン撮像画像に含まれる各パターンについて前記サブパターンの数と位置関係とを用いて、投影画像と前記投影画像の撮像画像との対応点を検出することにより、前記対応関係を検出する
(2)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記検出部は、各パターンについて、前記パターン同士の隣接関係を用いて、前記サブパターンの数および位置関係を解析することにより、前記対応点を検出する
(7)に記載の画像処理装置。
(9) 前記検出部は、所定の模様の画像の投影画像の撮像画像における前記模様のエッジを示すエッジ画像を用いて、前記サブパターン同士の隣接関係を検出する
(8)に記載の画像処理装置。
(10) 前記所定の模様の画像の投影画像の撮像画像における前記模様のエッジを検出し、前記エッジ画像を生成するエッジ検出部をさらに備え、
前記検出部は、前記エッジ検出部により生成された前記エッジ画像を用いて、前記サブパターン同士の隣接関係を検出する
(9)に記載の画像処理装置。
(11) 前記検出部は、エッジが膨張された前記エッジ画像を用いて、前記サブパターン同士の隣接関係を検出する
(10)に記載の画像処理装置。
(12) 前記検出部は、前記パターン撮像画像に含まれる各パターンに対する前記サブパターンの重心を用いて、前記サブパターン同士の隣接関係を検出する
(8)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記検出部は、前記パターン撮像画像を2値化した画像を用いて前記サブパターンの重心を検出する
(12)に記載の画像処理装置。
(14) 前記検出部は、
前記パターン撮像画像に含まれる前記パターンに基づいて生成されたホモグラフィ画像と、前記投影画像の撮像画像との対応点を用いて、前記投影画像と前記撮像画像との対応点を検出する
を備える(1)乃至(13)のいずれかに記載の画像処理装置。
(15) 前記所定の模様の画像は、チェック模様の画像である
(14)に記載の画像処理装置。
(16) 前記検出部は、前記撮像画像において前記所定の模様の全てのコーナーについて、前記ホモグラフィ画像と前記撮像画像との対応点を検出し、
検出した前記所定の模様の全てのコーナーについて、前記投影画像と前記撮像画像との対応点を検出する
(14)または(15)に記載の画像処理装置。
(17) 前記検出部は、前記撮像画像を2値化して所定の成分を膨張させた画像を用いて、前記コーナーを検出する
(16)に記載の画像処理装置。
(18) 投影画像を撮像し撮像画像を得る撮像部をさらに備え、
前記検出部は、前記撮像部により前記パターン投影画像が撮像されて得られた前記パターン撮像画像を用いて、投影画像と、前記撮像部により前記投影画像が撮像されて得られた前記撮像画像との対応点を検出することにより、前記対応関係を検出する
(1)乃至(17)のいずれかに記載の画像処理装置。
(19) 画像を投影する投影部をさらに備え、
前記検出部は、前記投影部により投影された前記パターン投影画像の撮像画像であるパターン撮像画像を用いて、前記投影部により投影された投影画像と前記投影画像の撮像画像との対応点を検出することにより、前記対応関係を検出する
(1)乃至(18)のいずれかに記載の画像処理装置。
(20) 前記検出部により検出された前記投影画像と前記撮像画像との対応関係を用いて、投影する画像の、他の投影画像と重畳する部分について画像処理を行う画像処理部をさらに備える
(1)乃至(19)のいずれかに記載の画像処理装置。
(21) パターンを含む画像の投影画像であるパターン投影画像の撮像画像であるパターン撮像画像を用いて、投影画像と前記投影画像の撮像画像との対応関係を検出する
画像処理方法。
100 投影撮像システム, 101 制御装置, 102 投影撮像装置, 103 ネットワーク, 104 スクリーン, 111および112 投影画像, 113 オーバーラップ領域, 151 CPU, 201 対応関係検出部, 202 投影制御部, 203 撮像制御部, 211 パターン画像投影撮像処理部, 212 対応点検出処理部, 213 投影画像処理部、 221 コーナー検出処理部, 222 エッジ検出処理部, 223 重心検出処理部, 224 画像間対応点検出処理部, 231 撮像画像ノイズ低減部, 232 差分画像生成部, 233 差分画像2値化部, 234 2値化画像膨張部, 235 2値化膨張画像コーナー検出部, 241 2値化膨張画像エッジ検出部, 242 エッジ検出画像生成部, 243 エッジ検出画像膨張部, 251 ユニークパターン撮像画像ノイズ検出部, 252 差分画像生成部, 253 差分画像2値化部, 254 2値化画像重心検出部, 261 ユニークパターン隣接関係検出部, 262 ユニークパターンデコード部, 263 ホモグラフィ画像生成部, 264 ホモグラフィ画像撮像画像間対応点検出部, 265 投影画像撮像画像間対応点検出部, 301 制御部, 302 投影部, 303 撮像部, 351 ビデオプロセッサ, 352 レーザドライバ, 353 レーザ出力部, 354 ミラー, 355 MEMSドライバ, 356 MEMSミラー, 411 情報処理装置, 412 投影撮像装置, 413 情報処理装置, 421 投影装置, 422 撮像装置, 423 投影装置

Claims (18)

  1. 複数のサブパターンにより構成され、前記サブパターンの数および位置関係が共通のスタートコードと、前記サブパターンの数または位置関係が他と異なるユニークコードとを有する第1のパターンを複数含む第1のパターン画像が投影された第1のパターン投影画像を撮像した撮像画像である第1のパターン撮像画像から検出された前記第1のパターンに基づいて、所定の模様の第2のパターン画像が投影された第2のパターン投影画像と、前記第2のパターン投影画像を撮像した撮像画像である第2のパターン撮像画像との対応点を検出する検出部
    を備える画像処理装置。
  2. 前記スタートコードは、図形として配置される複数のサブパターンからなり、
    前記ユニークコードは、図形としての他の前記第1のパターンと異なるように配置される
    請求項1に記載の画像処理装置。
  3. 前記スタートコードは、1行3列に配置される3つの前記サブパターンよりなり、
    前記ユニークコードは、2行3列内に、数または位置関係が他の前記第1のパターンと異なるように配置される単数若しくは複数の前記サブパターンよりなる
    請求項1に記載の画像処理装置。
  4. 前記サブパターンは、点状の図形として配置される
    請求項1に記載の画像処理装置。
  5. 前記検出部は、前記第1のパターン撮像画像において、前記サブパターン同士の隣接関係を検出することにより、前記第1のパターンを検出する
    請求項1に記載の画像処理装置。
  6. 前記検出部は、前記第2のパターン撮像画像における前記模様のエッジを示すエッジ画像を用いて、前記サブパターン同士の隣接関係を検出する
    請求項5に記載の画像処理装置。
  7. 前記第2のパターン撮像画像における前記模様のエッジを検出し、前記エッジ画像を生成するエッジ検出部をさらに備え、
    前記検出部は、前記エッジ検出部により生成された前記エッジ画像を用いて、前記サブパターン同士の隣接関係を検出する
    請求項6に記載の画像処理装置。
  8. 前記検出部は、エッジが膨張された前記エッジ画像を用いて、前記サブパターン同士の隣接関係を検出する
    請求項7に記載の画像処理装置。
  9. 前記検出部は、各サブパターンの重心を検出し、検出した各サブパターンの重心を用いて、前記サブパターン同士の隣接関係を検出する
    請求項5に記載の画像処理装置。
  10. 前記検出部は、前記第1のパターン撮像画像を2値化した画像を用いて前記サブパターンの重心を検出する
    請求項9に記載の画像処理装置。
  11. 前記検出部は、前記第1のパターンに基づいて生成された前記第2のパターン投影画像のホモグラフィ画像と、前記第2のパターン撮像画像との対応点を検出する
    請求項1に記載の画像処理装置。
  12. 前記第2のパターンは、チェッカーパターンである
    請求項1に記載の画像処理装置。
  13. 前記検出部は、前記チェッカーパターンの全てのコーナーについて、前記対応点を検出する
    請求項12に記載の画像処理装置。
  14. 前記検出部は、前記第2のパターン撮像画像を2値化して所定の成分を膨張させた画像を用いて、前記コーナーを検出する
    請求項13に記載の画像処理装置。
  15. 投影画像を撮像し撮像画像を得る撮像部をさらに備え、
    前記検出部は、前記撮像部により得られた前記第1のパターン撮像画像から検出された前記第1のパターンに基づいて、前記第2のパターン投影画像と、前記撮像部により得られた前記第2のパターン撮像画像との対応点を検出する
    請求項1に記載の画像処理装置。
  16. 画像を投影する投影部をさらに備え、
    前記検出部は、前記投影部により投影された前記第1のパターン投影画像を撮像した撮像画像である前記第1のパターン撮像画像から検出された前記第1のパターンに基づいて、前記投影部により投影された前記第2のパターン投影画像と前記第2のパターン撮像画像との対応点を検出する
    請求項1に記載の画像処理装置。
  17. 前記検出部により検出された前記対応点を用いて、投影する画像の、他の投影画像と重畳する部分について画像処理を行う画像処理部をさらに備える
    請求項1に記載の画像処理装置。
  18. 複数のサブパターンにより構成され、前記サブパターンの数および位置関係が共通のスタートコードと、前記サブパターンの数または位置関係が他と異なるユニークコードとを有する第1のパターンを複数含む第1のパターン画像が投影された第1のパターン投影画像を撮像した撮像画像である第1のパターン撮像画像から検出された前記第1のパターンに基づいて、所定の模様の第2のパターン画像が投影された第2のパターン投影画像と、前記第2のパターン投影画像を撮像した撮像画像である第2のパターン撮像画像との対応点を検出する
    画像処理方法。
JP2016531252A 2014-07-01 2015-06-17 画像処理装置および方法 Active JP6711271B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014135790 2014-07-01
JP2014135790 2014-07-01
PCT/JP2015/067422 WO2016002510A1 (ja) 2014-07-01 2015-06-17 画像処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2016002510A1 JPWO2016002510A1 (ja) 2017-04-27
JP6711271B2 true JP6711271B2 (ja) 2020-06-17

Family

ID=55019057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531252A Active JP6711271B2 (ja) 2014-07-01 2015-06-17 画像処理装置および方法

Country Status (4)

Country Link
US (1) US10349023B2 (ja)
JP (1) JP6711271B2 (ja)
CN (1) CN106464825B (ja)
WO (1) WO2016002510A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6594170B2 (ja) * 2015-11-12 2019-10-23 キヤノン株式会社 画像処理装置、画像処理方法、画像投影システムおよびプログラム
EP3722746A1 (en) * 2015-12-18 2020-10-14 Sony Corporation Image processing apparatus and method, data, and recording medium
US10771751B2 (en) * 2016-02-02 2020-09-08 Panasonic Intellectual Property Management Co., Ltd. Projection image adjustment system and projection image adjustment method
US20200244937A1 (en) * 2017-02-27 2020-07-30 Sony Corporation Image processing apparatus and method, and program
WO2018167999A1 (ja) * 2017-03-17 2018-09-20 パナソニックIpマネジメント株式会社 プロジェクタ及びプロジェクタシステム
CN110663249B (zh) * 2017-05-26 2022-04-15 索尼公司 用于图像处理的装置和方法
US10924718B2 (en) * 2017-06-09 2021-02-16 Sony Corporation Image processing device and method
JP2019047311A (ja) * 2017-09-01 2019-03-22 セイコーエプソン株式会社 画像投写システム及びその制御方法
WO2019054204A1 (ja) * 2017-09-14 2019-03-21 ソニー株式会社 画像処理装置および方法
EP3689789B1 (en) * 2017-09-27 2022-04-13 Panasonic Intellectual Property Management Co., Ltd. Baggage recognition device, baggage sorting system, and baggage recognition method
US10612912B1 (en) 2017-10-31 2020-04-07 Facebook Technologies, Llc Tileable structured light projection system
US10521926B1 (en) 2018-03-21 2019-12-31 Facebook Technologies, Llc Tileable non-planar structured light patterns for wide field-of-view depth sensing
WO2020235400A1 (ja) * 2019-05-20 2020-11-26 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN110322527B (zh) * 2019-05-21 2021-04-20 华为技术有限公司 一种图案生成方法及终端
CN110798670A (zh) * 2019-11-11 2020-02-14 成都极米科技股份有限公司 超短焦画幕对齐方法、装置和超短焦投影设备及介质
JP7163947B2 (ja) * 2020-10-22 2022-11-01 セイコーエプソン株式会社 投写領域の設定支援方法、設定支援システム、及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04181106A (ja) 1990-11-15 1992-06-29 Komatsu Ltd 位置寸法計測装置のキャリブレーション装置
US6754370B1 (en) * 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
JP2003078925A (ja) * 2001-08-31 2003-03-14 Matsushita Electric Ind Co Ltd カメラ校正システムおよびカメラ校正方法
US7146036B2 (en) * 2003-02-03 2006-12-05 Hewlett-Packard Development Company, L.P. Multiframe correspondence estimation
JP2005252804A (ja) * 2004-03-05 2005-09-15 Seiko Epson Corp マルチプロジェクションシステムのための画像補正方法
JP5145833B2 (ja) * 2007-09-12 2013-02-20 株式会社リコー 2次元コード読み取り装置、2次元コード読み取り方法、2次元コード読み取りプログラム及び記録媒体
WO2009088080A1 (ja) * 2008-01-11 2009-07-16 Nikon Corporation プロジェクタ
JP5440250B2 (ja) * 2010-02-26 2014-03-12 セイコーエプソン株式会社 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法
JP5461452B2 (ja) * 2010-03-31 2014-04-02 三洋電機株式会社 制御装置および投写型映像表示装置
CN102215395B (zh) * 2010-04-09 2013-10-09 华为技术有限公司 一种视频编解码方法和装置
US8941750B2 (en) * 2011-12-27 2015-01-27 Casio Computer Co., Ltd. Image processing device for generating reconstruction image, image generating method, and storage medium
JP2013168922A (ja) * 2012-01-18 2013-08-29 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
US9389067B2 (en) * 2012-09-05 2016-07-12 Canon Kabushiki Kaisha Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, program, and storage medium

Also Published As

Publication number Publication date
US10349023B2 (en) 2019-07-09
US20170142381A1 (en) 2017-05-18
WO2016002510A1 (ja) 2016-01-07
CN106464825B (zh) 2020-11-10
JPWO2016002510A1 (ja) 2017-04-27
CN106464825A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6711271B2 (ja) 画像処理装置および方法
JP7067554B2 (ja) 画像処理装置および方法
CN108369091B (zh) 图像处理装置和方法、数据及纪录介质
CN103765870B (zh) 图像处理装置、包括图像处理装置的投影仪和投影仪系统、图像处理方法
US7839543B2 (en) Document imager, document stillness detection method, and computer program product
JP6459194B2 (ja) プロジェクター、及び投写画像制御方法
JP7010209B2 (ja) 画像処理装置および方法
US11526072B2 (en) Information processing apparatus and method, and projection imaging apparatus and information processing method
KR20190072549A (ko) 모바일 디바이스들을 위한 강화된 심도 맵 이미지들
JPWO2017154628A1 (ja) 画像処理装置および方法
JP2010288062A (ja) プロジェクター、プログラム、情報記憶媒体および画像投写方法
US11947759B2 (en) Projection system sharing image between projection device and display device
JP7371753B2 (ja) 投影制御装置、投影装置、補正用画像投影方法及びプログラム
JP2020042099A (ja) 投影制御装置、投影制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200511

R151 Written notification of patent or utility model registration

Ref document number: 6711271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151