JP5560721B2 - 画像処理装置、画像表示システム、及び画像処理方法 - Google Patents

画像処理装置、画像表示システム、及び画像処理方法 Download PDF

Info

Publication number
JP5560721B2
JP5560721B2 JP2010004171A JP2010004171A JP5560721B2 JP 5560721 B2 JP5560721 B2 JP 5560721B2 JP 2010004171 A JP2010004171 A JP 2010004171A JP 2010004171 A JP2010004171 A JP 2010004171A JP 5560721 B2 JP5560721 B2 JP 5560721B2
Authority
JP
Japan
Prior art keywords
image
captured
display
estimated
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010004171A
Other languages
English (en)
Other versions
JP2011145765A (ja
Inventor
真 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010004171A priority Critical patent/JP5560721B2/ja
Priority to US12/985,472 priority patent/US20110169776A1/en
Publication of JP2011145765A publication Critical patent/JP2011145765A/ja
Application granted granted Critical
Publication of JP5560721B2 publication Critical patent/JP5560721B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理装置、画像表示システム、及び画像処理方法に関する。
人間の手や指の動きを認識し、キーボードやマウスに代表される従来型のインターフェースより直感的に利用できる次世代型のインターフェースの開発が進められている。先進的な試みとしては、P. Wellnerにより提案されたDigital Desk(The Digital Desk Calculator: Tangible Manipulation on a Desk Top Display, ACM UIST ’91, pp.27-33, 1991)が知られている。Digital Deskは机上に投影されたコンピュータ画面を指先で操作するもので、ユーザーは机上に投影されたアイコンを指でクリックしたり、机上に投影された電卓のボタンを指で押して計算をしたりすることができるものである。ユーザーの指の動きはカメラで撮影される。カメラは、机上に投影されたコンピュータ画面を撮影すると同時に、カメラとコンピュータ画面との間に配置される遮蔽物としての指を撮影する。そして、その指の位置を画像処理によって検出することにより、コンピュータ画面上の指示位置を検出する。
このような次世代型のインターフェースでは、ユーザーの指の位置を正確に検出することが重要である。例えば特許文献1には、机上に投影された画像を取得するための赤外線カメラを備え、体温を利用して画面内の手領域を抽出し、例えば机上での指先の動作を追跡できるようにしたマンマシーン・インターフェース・システムが開示されている。また特許文献2には、画像と赤外線等の非可視光とを交互に投影して、非可視光の投影期間に遮蔽物を検出するシステムが開示されている。更に、特許文献3には、プロジェクターによる投影画像と、投影画像を撮影した撮影画像との差分画像に基づいて、撮影画像に含まれる手領域を抽出するようにしたポインティング装置が開示されている。更にまた、特許文献4には、プロジェクターによる投影画像を含む投影面を撮像した撮像画像から投影画像を除去した差分画像を用いて、物体に対応する領域を検出するようにした画像投影装置が開示されている。
特開2001−282456号公報 米国特許出願公開第2009/0115721号明細書 特開2008−152622号公報 特開2009−64110号公報
しかしながら、特許文献1及び特許文献2では、専用の赤外線カメラ等の専用装置を備える必要があり、設置や管理の手間が増えるという問題がある。従って、特許文献1及び特許文献2では、プロジェクターの設置性や視聴の容易性を阻害してしまい、使い勝手を悪くしてしまう場合がある。また、特許文献3及び特許文献4では、プロジェクターによってスクリーンに投影される画像が、外光のムラ、スクリーンの「なみ」、「すじ」、汚れ等に起因したノイズによって色が一様でなくなる場合に、撮影画像と投影画像との差分がノイズの影響を受けるという問題がある。従って、特許文献3及び特許文献4は、実質的には、ノイズの無い理想的な使用環境でなければ手領域を正確に抽出することができないものと考えられる。
本発明は、以上のような技術的課題に鑑みてなされたものである。本発明の幾つかの態様によれば、表示画面に表示された表示画像をユーザーの手により遮られた状態でカメラにより撮影した撮影画像から、ユーザーの指先の位置を精度良く検出することのできる画像処理装置、画像表示システム、及び画像処理方法等を提供することができる。
(1)本発明の一態様は、表示画面とカメラとの間に存在するユーザーの手を被検出物として検出し、検出された前記被検出物のうち前記ユーザーの指先に該当する位置を指示位置として検出し、前記指示位置に対応した所定処理を行う画像処理装置であって、前記表示画面に表示されたモデル画像を前記被検出物により遮られることなく前記カメラにより撮影した撮影情報に基づき、画像データから、当該画像データを前記表示画面に表示して前記カメラで撮影した画像を推定した推定撮影画像を生成する推定撮影画像生成部と、前記画像データに基づいて前記表示画面に表示される表示画像を、前記被検出物により遮られた状態で前記カメラにより撮影した撮影画像と、前記推定撮影画像との差分に基づいて、前記表示画像内で前記被検出物により遮られた被検出物領域を検出する被検出物検出部と、前記被検出物検出部により検出された前記被検出物領域のうち前記ユーザーの指先に該当する位置を指示位置として検出し、前記指示位置に対応した所定の処理を行うアプリケーション処理部と、を含む。
本態様によれば、モデル画像を撮影した撮影情報に基づいて画像データから推定撮影画像を生成し、該推定撮影画像と、上記画像データに基づいて表示された画像を撮影した撮影画像との差分により、被検出物により遮られた被検出物領域を検出するようにしたので、専用のカメラを設けることなく、低コストで被検出物領域を検出できるようになる。また、推定撮影画像を用いて撮影画像との差分により被検出物領域を検出するようにしたので、外光のムラ、表示画面の「なみ」、「すじ」、汚れ等の状態、カメラの位置や歪み等に起因したノイズの影響をなくすことができる。これにより、上記のノイズの影響を受けることなく、被検出物領域を高精度に検出できるようになる。
被検出物領域からユーザーの指先の位置を検出する方法としては、領域先端部検出や円形領域検出による指先検出方法として公知の技術を利用可能である。例えば、領域先端部検出は、被検出物領域内で表示画像の中心に最も近い画素の座標を指先の位置(指示位置)として検出するものである。円形領域検出は、指先形状の輪郭が円に近いことに基づき、円形テンプレートを用いて手領域周辺で正規化相関に基づくパターンマッチングを行うことで、指先の位置(指示位置)を検出するものである。円形領域検出については特許文献1に記載された方法を用いることができる。指先検出の方法としては、領域先端部検出や円形領域検出に限らず、画像処理が適用が可能な任意の方法を用いることができる。
(2)本発明の他の態様に係る画像処理装置では、前記モデル画像は、複数種類のグレイ画像を含み、前記推定撮影画像生成部は、前記表示画面に表示された前記複数種類のグレイ画像を前記カメラにより撮影した複数種類の撮影グレイ画像を用いて、前記画像データに対応した前記表示画像の画素値を画素毎に推定した前記推定撮影画像を生成する。
本態様によれば、モデル画像として複数のグレイ画像を採用し、これらのグレイ画を撮影した撮影グレイ画像を用いて推定撮影画像を生成するようにしたので、上記の効果に加えて、推定撮影画像を生成する際に参照される撮影画像の枚数や容量等を大幅に削減できるようになる。
(3)本発明の他の態様に係る画像処理装置は、前記撮影画像から前記表示画像の領域を抽出すると共に、前記撮影画像内の前記表示画像の形状を前記推定撮影画像の形状に揃える画像領域抽出部を含み、前記被検出物検出部が、前記画像領域抽出部によって抽出された前記表示画像と前記推定撮影画像との画素毎の比較結果に基づいて、前記被検出物領域を検出する。
本態様によれば、撮影画像内の表示画像を抽出し、該表示画像の形状を推定撮影画像の形状に揃えてから被検出物領域を検出するようにしたので、上記の効果に加えて、簡素な画素間の比較処理で被検出物領域の検出が可能となる。
(4)本発明の他の態様に係る画像処理装置は、前記推定撮影画像生成部が、前記推定撮影画像の形状を前記撮影画像内の前記表示画像の形状に揃え、前記被検出物検出部が、前記撮影画像内の前記表示画像と前記推定撮影画像との画素毎の比較結果に基づいて、前記被検出物領域を検出する。
本態様によれば、推定撮影画像の形状を撮影画像内の表示画像の形状に揃えてから、被検出物領域を検出するようにしたので、推定撮影画像の形状を補正する際のノイズによる誤差をなくし、より一層高精度の被検出物領域を検出できるようになる。
(5)本発明の他の態様に係る画像処理装置は、前記表示画面に表示された所与の初期化用画像を前記カメラにより撮影した撮影画像内の前記初期化用画像の四隅の位置に基づいて、前記推定撮影画像又は前記表示画像の形状を揃える。
本態様によれば、撮影画像内の初期化用画像の四隅の位置を基準に、推定撮影画像又は表示画像の形状を揃えるようにしたので、上記の効果に加えて、より一層被検出物領域の検出処理を簡素化できるようになる。
(6)本発明の他の態様に係る画像処理装置では、前記表示画面は、スクリーンであり、前記表示画像は、前記画像データに基づいて前記スクリーンに投影された投影画像である。
本態様によれば、スクリーンに投影される投影画像が被検出物により遮られたとしても専用装置を設けることなく、スクリーンの状態等に影響されることなく精度良く被検出物の領域を検出できるようになる。
(7)本発明の他の態様に係る画像処理装置では、前記アプリケーション処理部は、前記指示位置に表示されたアイコン画像を前記指示位置の移動軌跡に従って移動させる。また、本発明の他の態様に係る画像処理装置では、前記アプリケーション処理部は、前記指示位置の移動軌跡に従って前記表示画面内に所定の色及び太さのラインを描画する。また、本発明の他の態様に係る画像処理装置では、前記アプリケーション処理部は、前記指示位置に表示されたアイコン画像に関連付けられた所定の処理を実行する。
本態様によれば、表示画面上に表示されたアイコン画像を指先で操作することができる。アイコン画像としては任意のものを選択することができる。一般にコンピュータにおける「アイコン」とは、プログラムの内容を図や絵にして分かりやすく表示するものであるが、本発明の「アイコン」は、ボタンアイコンのように特定のプログラムと関連付けられたもの以外に、ポストイットアイコンなどのプログラムと関連付けられない単なる絵柄画像を含むものとして定義される。例えば、アイコン画像として、種々のアイデアを記載したポストイットアイコンを用いた場合、KI手法と呼ばれる業務改善手法を実物のポストイット(付箋)を用いることなく、コンピュータ画面上で容易に実現することができる。
(8)本発明の他の態様は、画像表示システムが、上記のいずれか記載の画像処理装置と、前記表示画面に表示された画像を禄影する前記カメラと、前記モデル画像又は前記表示画像の画像データに基づいて画像を表示する画像表示装置とを含む。
本態様によれば、専用装置を設けることなく、精度良く遮蔽物等の被検出物を検出できる画像表示システムを提供できるようになる。
(9)本発明の他の態様は、表示画面とカメラとの間に存在する被検出物としてのユーザーの指先を画像処理により検出し、検出された前記指先の位置を指示位置として検出し、前記指示位置に対応した所定の処理を行う画像処理方法であって、前記表示画面に表示されたモデル画像を前記被検出物により遮られること無く前記カメラにより撮影した撮影情報に基づき、画像データから、当該画像データを前記表示画面に表示して前記カメラで撮影した画像を推定した推定撮影画像を生成する推定撮影画像生成ステップと、前記画像データに基づいて前記表示画面に表示画像を表示する画像表示ステップと、前記画像表示ステップにおいて前記表示画面に表示される前記表示画像を、前記被検出物により遮られた状態で前記カメラにより撮影する表示画像撮影ステップと、前記表示画像撮影ステップにおいて撮影された撮影画像と、前記推定撮影画像との差分に基づいて、前記表示画像内で前記被検出物により遮られた被検出物領域を検出する被検出物検出ステップと、前記被検出物検出ステップにおいて検出された前記被検出物領域のうち前記ユーザーの指先に該当する位置を指示位置として検出し、前記指示位置に対応した所定の処理を行うアプリケーション処理ステップと、を含む。
本態様によれば、モデル画像を撮影した撮影情報に基づいて画像データから推定撮影画像を生成し、該推定撮影画像と、上記画像データに基づいて表示された画像を撮影した撮影画像との差分により、被検出物により遮られた被検出物領域を検出するようにしたので、専用のカメラを設けることなく、低コストで被検出物領域を検出できるようになる。また、推定撮影画像を用いて撮影画像との差分により被検出物領域を検出するようにしたので、外光のムラ、表示画面の「なみ」、「すじ」、汚れ等の状態、カメラの位置や歪み等に起因したノイズの影響をなくし、上記のノイズの影響を受けることなく、被検出物領域を高精度に検出できる画像処理方法を提供できるようになる。
本発明の実施形態1における画像表示システムの構成例のブロック図。 図1の画像処理装置の構成例のブロック図。 図2の画像処理部の構成例のブロック図。 図2の画像処理装置の動作例のフロー図。 図4のステップS10のキャリブレーション処理の詳細な動作例のフロー図。 図4のステップS10のキャリブレーション処理の動作説明図。 図5のステップS20の画像領域抽出初期化処理の詳細な動作例のフロー図。 図5のステップS20の画像領域抽出初期化処理の説明図。 図5のステップS28の画像領域抽出処理の詳細な動作例のフロー図。 図5のステップS28の画像領域抽出処理の説明図。 図4のステップS12の遮蔽物抽出処理の詳細の動作例のフロー図。 図11のステップS60の推定撮影画像生成処理の詳細な動作例のフロー図。 図11のステップS60の推定撮影画像生成処理の動作説明図。 実施形態1における画像処理部の動作説明図。 図4のステップS14のアプリケーション処理の動作例のフロー図。 図15のステップS104の入力座標取得処理の動作例のフロー図。 図15のステップS106等のボタンアイコン選択処理の動作例のフロー図。 図15のステップS108のポストイットドラッグ処理の動作例のフロー図。 図15のステップS112のライン描画処理の動作例のフロー図。 遮蔽物領域からユーザーの指先の位置を検出する方法の説明図。 実施形態2における画像処理部の構成例のブロック図。 実施形態2におけるキャリブレーション処理の詳細な動作例のフロー図。 実施形態2における遮蔽物領域抽出処理の詳細な動作例のフロー図。 図23の遮蔽物領域抽出処理における推定撮影画像生成処理の動作説明図。 実施形態2における画像処理部の動作説明図。 本発明の実施形態3における画像表示システムの構成例のブロック図。
以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の課題を解決するために必須の構成要件であるとは限らない。
以下では、本発明に係る画像表示装置として画像投影装置を例に説明するが、本発明はこれに限定されるものではなく、液晶表示装置等の画像表示装置にも適用することができる。
[実施形態1]
図1に、本発明の実施形態1における画像表示システム10の構成例のブロック図を示す。
画像表示システム10は、表示画面であるスクリーンSCRとカメラ20との間に配置されるユーザーの手を遮蔽物(被検出物)200として検出し、検出された遮蔽物200のうちユーザーの指先に該当する位置を指示位置として検出し、該指示位置に対応した所定の処理を実行するものである。画像表示システム10は、種々の用途に用いることができるが、本実施形態ではKI手法と呼ばれる会議手法に適用するものとする。
KI手法とは、日本能率協会(JMA)グループが東京工業大学との共同研究により開発した業務改善手法の1つである。基本コンセプトは、あるプロジェクトに参画する経営者やマネジャー、エンジニアなどの問題意識を可視化して共有することにより知的生産性を高める、というものである。通常は各メンバーが技術、課題をポストイットに記述し、ボードに貼り付け、全員で議論してポストイットを移動したり、ラインを書き込んでポストイットをグループ化したりする。この作業は大量のポストイットが必要となり、ポストイットの移動や整理の作業が面倒であることから、本実施形態では、これらの作業をコンピュータ画面上で実施することとしたものである。
図1では、操作対象となる対象画像としてポストイットアイコンPIやボタンアイコンBI1、BI2,BI3などの複数のアイコン画像が示されている。ボタンアイコンとしては、種々のものが挙げられる。一例としては、ポストイットドラッグ用ボタンアイコンBI1や、ライン描画用ボタンアイコンBI2や、アプリケーション終了用ボタンアイコンBI3等が挙げられるが、ボタンアイコンはこれに限定されるものではない。例えば、新規のポストイットアイコンを作成し、そのポストイットアイコンに種々のアイデアを書き込むポストイット作成用ボタンアイコンや、ポストイットアイコンに記載した記載内容を修正するための修正用ボタンアイコン等を追加してもよい。
以下、画像表示システム10の構成を具体的に示す。
画像表示システム10は、撮像装置としてのカメラ20と、画像処理装置30と、画像表示装置としてのプロジェクター(画像投影装置)100とを含み、プロジェクター100は、スクリーンSCRに画像を投影する。画像処理装置30は、画像データを生成する機能を具備し、生成した画像データをプロジェクター100に供給する。プロジェクター100は、光源を有し、光源からの光を画像データにより変調した光を用いてスクリーンSCRに画像を投影する。このようなプロジェクター100は、例えば光変調素子として透過型の液晶パネルを用いたライトバルブを用い、色成分毎に画像データに基づいて光源からの光を変調し、変調後の光を合成してスクリーンSCRに投影する構成を有することができる。カメラ20は、プロジェクター100の近傍に配置されており、プロジェクター100による投影画像(表示画像)がスクリーンSCR上で占める領域を含む領域を撮像可能に設定されている。
このとき、プロジェクター100と投影面(表示画面)であるスクリーンSCRとの間に遮蔽物200(被検出物)が存在すると、プロジェクター100が投影面に投影する投影画像(表示画像)が遮られる。また、このとき、遮蔽物200はスクリーンSCRとカメラ20との間に存在しており、スクリーンSCR上に投影された投影画像はカメラ20に対して遮られる。このように遮蔽物200によって投影画像が遮られると、画像処理装置30は、カメラ20で投影画像を撮影した撮影情報を用いて、表示画像内で遮蔽物200により遮られた遮蔽物領域(被検出物領域)を検出する処理を行う。より具体的には、画像処理装置30は、スクリーンSCRに投影される画像に対応した画像データから、カメラ20で撮影した状態を推定した推定撮影画像を生成し、遮蔽物200により遮られた投影画像をカメラ20で撮影した撮影画像と該推定撮影画像との差分に基づいて、遮蔽物領域を検出する。
このような画像処理装置30の機能は、パーソナルコンピューター(Personal Computer:PC)や専用のハードウェアにより実現される。また、カメラ20の機能は、可視光カメラで実現される。
これにより、専用のカメラを設ける必要がなくなり、低コストで遮蔽物200により遮られた遮蔽物領域を検出できるようになる。また、推定撮影画像と撮影画像との差分により遮蔽物領域を検出するようにしたので、プロジェクター100によってスクリーンSCRに投影される画像が、外光やスクリーンSCRの状態等に起因したノイズによって色が一様でなくなる場合であっても、ノイズの影響を受けることなく遮蔽物領域を高精度に検出できるようになる。
図2に、図1の画像処理装置30の構成例のブロック図を示す。
画像処理装置30は、画像データ生成部40、画像処理部50、アプリケーション処理部90を含む。画像データ生成部40は、プロジェクター100により投影される画像に対応した画像データを生成する。画像処理部50は、画像データ生成部40によって生成された画像データを用いて、遮蔽物領域を検出する。この画像処理部50には、カメラ20がスクリーンSCRの投影画像を撮影した撮影情報が入力される。画像処理部50は、予めカメラ20からの撮影情報に基づき画像データからの推定撮影画像を生成しており、遮蔽物200によって遮られたスクリーンSCRへの投影画像を撮影した撮影画像を該推定撮影画像と比較することで、遮蔽物領域を検出する。アプリケーション処理部90は、画像処理部50によって検出された遮蔽物領域に基づいて、画像データ生成部40により生成される画像データを変更させることにより投影画像を変化させる等の遮蔽物領域の検出結果に対応した処理を行う。
図3に、図2の画像処理部50の構成例のブロック図を示す。
画像処理部50は、撮影情報取得部52、画像領域抽出部54、キャリブレーション処理部56、撮影グレイ画像保存部58、遮蔽物領域抽出部(被検出物検出部)60、推定撮影画像保存部62、画像データ出力部64を含む。遮蔽物領域抽出部60は、推定撮影画像生成部70を含む。
撮影情報取得部52は、カメラ20により撮影された撮影画像に対応した撮影情報を取得する制御を行う。この撮影情報取得部52は、カメラ20を直接制御してもよいし、ユーザーにカメラ20による撮影を促す表示を行うようにしてもよい。画像領域抽出部54は、撮影情報取得部52によって取得された撮影情報に対応した撮影画像内の投影画像を抽出する処理を行う。キャリブレーション処理部56は、カメラ20で撮影した撮影画像を用いて推定撮影画像を生成するのに先立って、キャリブレーション処理を行う。キャリブレーション処理では、スクリーンSCRにモデル画像を表示させてスクリーンSCRに表示されたモデル画像を、遮蔽物200に遮られることなくカメラ20により撮影する。この画像の色や位置を参照して、実際にカメラ20で投影画像を撮影した画像を推定した推定撮影画像が生成される。
実施形態1では、モデル画像として、複数種類のグレイ画像が採用される。それぞれのグレイ画像では、当該グレイ画像を構成する各画素の画素値が互いに等しい。このような複数種類のグレイ画像を表示させて、キャリブレーション処理部56は、複数種類の撮影グレイ画像を取得する。撮影グレイ画像保存部58は、キャリブレーション処理部56によって得られた撮影グレイ画像を保存する。これらの撮影グレイ画像の画素の画素値を参照してカメラ20で撮影する表示画像を推定した推定撮影画像が生成されることになる。
遮蔽物領域抽出部60は、プロジェクター100の投影画像を遮蔽物200により遮られた状態でカメラ20により撮影された撮影画像と、撮影グレイ画像保存部58に保存された撮影グレイ画像により生成された推定撮影画像との差分に基づいて、撮影画像内で遮蔽物200によって遮られた遮蔽物領域を抽出する。この撮影画像は、推定撮影画像を生成する際に参照した画像データに基づいてプロジェクター100によりスクリーンSCRに投影した画像を撮影して得られた画像である。このため、推定撮影画像生成部70は、プロジェクター100によりスクリーンSCRに投影される画像の画像データから、撮影グレイ画像保存部58に保存された撮影グレイ画像を参照して推定撮影画像を生成することで、カメラ20による撮影画像の各画素の色等を推定する。推定撮影画像生成部70によって生成された推定撮影画像は、推定撮影画像保存部62に保存される。
画像データ出力部64は、画像データ生成部40からの画像データを、画像処理部50又はアプリケーション処理部90からの指示によりプロジェクター100に出力する制御を行う。
このように、画像処理部50は、プロジェクター100に投影される画像の画像データから、実際にカメラ20で撮影した画像を推定した推定撮影画像を生成する。そして、この推定撮影画像と、該画像データに基づいて表示された投影画像を撮影した撮影画像との
差分に基づいて、遮蔽物領域が抽出される。こうすることで、推定撮影画像と、これを生成する際に使用したカメラ20を用いて得られた撮影画像との差分は、外光のムラ、スクリーンSCRの「なみ」、「すじ」、汚れ等の状態、プロジェクター100の位置やズーム状態、カメラ20の位置や歪み等に起因したノイズの影響をなくすことができる。これにより、上記のノイズの影響を受けることなく、遮蔽物領域を高精度に検出できるようになる。
以下、このような画像処理装置30の動作例について説明する。
[動作例]
図4に、図2の画像処理装置30の動作例のフロー図を示す。
画像処理装置30では、まず、画像処理部50が、キャリブレーション処理ステップとして、キャリブレーション処理を行う(ステップS10)。キャリブレーション処理では、上記の撮影グレイ画像を生成する際の初期化処理を行った後に、複数種類の撮影グレイ画像を生成する処理を行い、遮蔽物200に遮られた投影画像を撮影した画像を推定するための処理を行う。
次に、画像処理装置30では、画像処理部50が、遮蔽物領域抽出ステップとして、遮蔽物200に遮られた投影画像を撮影した撮影画像内の遮蔽物領域の抽出処理を行う(ステップS12)。この遮蔽物領域の抽出処理では、ステップS10において生成された複数種類の撮影グレイ画像を用いて推定撮影画像が生成される。そして、プロジェクター100の投影画像を遮蔽物200により遮られた状態でカメラ20により撮影した撮影画像と、撮影グレイ画像保存部58に保存された撮影グレイ画像により生成された推定撮影画像との差分に基づいて、撮影画像内で遮蔽物200により遮られた領域が抽出される。
そして、画像処理装置30では、アプリケーション処理部90が、アプリケーション処理ステップとして、ステップS12において抽出された遮蔽物200の領域に基づいて、アプリケーション処理を行い(ステップS14)、一連の処理を終了する(エンド)。このアプリケーション処理では、ステップS12において抽出された遮蔽物200の領域に基づいて、画像データ生成部40により生成される画像データを変更させることにより投影画像を変化させる等の遮蔽物領域の検出結果に対応した処理が行われる。
[キャリブレーション処理の例]
図5に、図4のステップS10のキャリブレーション処理の詳細な動作例のフロー図を示す。
図6に図4のステップS10のキャリブレーション処理の動作説明図を示す。
キャリブレーション処理が開始されると、画像処理装置30は、まずキャリブレーション処理部56において画像領域抽出初期化処理を行う(ステップS20)。画像領域抽出初期化処理では、カメラ20によりプロジェクター100の投影画像を撮影した撮影画像内の投影画像を抽出するのに先立って、撮影画像内の投影画像の領域を特定するための処理を行う。より具体的には、画像領域抽出初期化処理では、撮影画像内の四角形状の投影画像の四隅の座標位置を抽出する処理を行う。
次に、キャリブレーション処理部56は、グレイ画像の画素値に対応した変数iを「0」に設定して変数iを初期化する(ステップS22)。続いて、キャリブレーション処理部56では、グレイ画像表示ステップとして、例えば画像データ生成部40により各色成分の画素値がg[i]のグレイ画像の画像データを生成させ、画像データ出力部64が該画像データをプロジェクター100に出力して、画素値g[i]のグレイ画像をスクリーンSCRに投影させる(ステップS24)。そして、キャリブレーション処理部56は、撮影グレイ画像撮影ステップとして、ステップS24でスクリーンSCRに投影された画像をカメラ20で撮影し、撮影情報取得部52においてカメラ20の撮影画像の撮影情報を取得する(ステップS26)。
ここで、キャリブレーション処理部56を有する画像処理装置30は、画像領域抽出部54において、ステップS26で取得されたグレイ画像を撮影した撮影画像からグレイ画像の領域を抽出する処理を行う(ステップS28)。このステップS28では、ステップS20で得られた四隅の座標位置に基づいてグレイ画像の領域が抽出される。画像処理装置30は、ステップS28で抽出されたグレイ画像の領域を、撮影グレイ画像としてg[i]と関連付けて撮影グレイ画像保存部58に保存する(ステップS30)。
キャリブレーション処理部56は、変数iに整数dを加算して変数iを更新し(ステップS32)、次のグレイ画像の撮影に備える。なお、ステップS32で更新された変数iが所与の最大値N以上のとき(ステップS34:N)、一連の処理を終了し(エンド)、更新後の変数iが最大値Nより小さいとき(ステップS34:Y)、ステップS24に戻る。
ここで、1画素がR成分、G成分及びB成分により構成され、各色成分の画素値が8ビットの画像データで表されるものとする。実施形態1では、上記のキャリブレーション処理によって、例えば、図6に示すように、全画素の各色成分の画素値が「0」のグレイ画像GP0、全画素の各色成分の画素値が「63」のグレイ画像GP1、・・・、全画素の各色成分の画素値が「255」のグレイ画像GP4等の複数種類のグレイ画像に対する撮影グレイ画像PGP0、PGP1、・・・、PGP4を得ることができる。各撮影グレイ画像は、推定撮影画像を生成する際に参照され、実際にプロジェクター100に投影される画像の画像データに対して、プロジェクター100の使用環境やスクリーンSCRの状態を反映させた推定撮影画像が生成される。また、グレイ画像を用いるようにしたので、推定撮影画像を生成する際に参照される撮影画像の枚数や容量等を大幅に削減できるようになる。
[画像領域抽出初期化処理の例]
図7に、図5のステップS20の画像領域抽出初期化処理の詳細な動作例のフロー図を示す。
図8に、図5のステップS20の画像領域抽出初期化処理の説明図を示す。図8は、スクリーンSCR上のカメラ20によって撮影される領域に対応する投影面IG1と、投影面IG1における投影画像IG2の領域の一例を模式的に表す。
キャリブレーション処理部56は、例えば画像データ生成部40により全画素が白色である白画像の画像データを生成させる。そして、画像データ出力部64は、白画像の画像データをプロジェクター100に出力することで、プロジェクター100によって白画像をスクリーンSCRに投影させる(ステップS40)。
続いて、キャリブレーション処理部56は、カメラ20によってステップS40で投影された白画像を撮影させ(ステップS42)、撮影情報取得部52において白画像の撮影情報が取得される。そして、画像領域抽出部54は、撮影画像内の白画像の四隅の座標P(x1、y1)、P(x2、y2)、P(x3、y3)、P(x4、y4)を抽出する処理を行う(ステップS44)。この処理としては、投影画像IG2の境界を例えばD1方向に検出していきながら、閾値以上の角度がある点を角の座標として抽出すればよい。
画像領域抽出部54は、ステップS44で抽出された四隅の座標P(x1、y1)、P(x2、y2)、P(x3、y3)、P(x4、y4)を、撮影画像内の投影画像の領域を特定するための情報として保存し(ステップS46)、一連の処理を終了する(エンド)。
なお、図7では白画像を投影させるものとして説明したが、本発明はこれに限定されるものではない。カメラ20により投影画像を撮影したときに、その撮影画像内の投影画像の領域とそれ以外の領域との階調差が大きくなるような画像を投影すればよい。こうすることで、撮影画像内の投影画像の領域を精度良く抽出することができるようになる。
[撮影画像抽出処理の例]
図9に図5のステップS28の画像領域抽出処理の詳細な動作例のフロー図を示す。
図10に、図5のステップS28の画像領域抽出処理の説明図を示す。図10は、スクリーンSCR上のカメラ20によって撮影される領域に対応する投影面IG1に投影された投影画像IG2の領域を抽出する様子を模式的に表す。
画像領域抽出部54は、ステップS44で抽出された撮影画像内の投影画像の四隅の座標位置に基づいて、ステップS26で撮影された撮影画像内の撮影グレイ画像の領域を抽出する(ステップS50)。例えば図10に示すように、画像領域抽出部54は、撮影画像内の投影画像の四隅の座標P(x1、y1)、P(x2、y2)、P(x3、y3)、P(x4、y4)を用いて、撮影画像内の撮影グレイ画像GY1を抽出する。
その後、画像領域抽出部54は、ステップS50で抽出された撮影グレイ画像の形状を矩形の形状補正し(ステップS52)、一連の処理を終了する(エンド)。これにより、例えば図10の撮影グレイ画像GY1から、長方形形状の撮影グレイ画像GY2が生成されると共に、撮影グレイ画像GY2の形状を推定撮影画像の形状に揃えることができる。
[遮蔽物領域抽出処理の例]
図11に、図4のステップS12の遮蔽物領域抽出処理の詳細の動作例のフロー図を示す。
遮蔽物領域抽出処理が開始されると、遮蔽物領域抽出部60は、推定撮影画像生成ステップとして、推定撮影画像生成部70において推定撮影画像生成処理を行う(ステップS60)。この推定撮影画像生成処理では、ステップS30において保存された撮影グレイ画像の各画素値を参照して、実際にプロジェクター100により投影させる画像データを変換して、推定撮影画像の画像データが生成される。遮蔽物領域抽出部60は、ステップS60において生成された推定撮影画像の画像データを、推定撮影画像保存部62に保存する。
次に、画像表示ステップとして、遮蔽物領域抽出部60からの指示により、画像データ出力部64は、実際にプロジェクター100により投影させるオリジナルの画像データをプロジェクター100に出力し、該画像データに基づく画像をプロジェクター100によりスクリーンSCRに投影させる(ステップS62)。なお、このオリジナルの画像データは、ステップS60の推定撮影画像生成処理において、推定撮影画像の生成元の画像データである。
続いて、遮蔽物領域抽出部60は、表示画像撮影ステップとして、ステップS62において投影された画像をカメラ20で撮影させる制御を行い、撮影情報取得部52を介して、この撮影画像の撮影情報を取得する(ステップS64)。このとき取得された撮影画像は、プロジェクター100による投影画像が遮蔽物200によって遮られ、撮影画像内に遮蔽物領域が存在する。
そして、遮蔽物領域抽出部60は、遮蔽物領域検出ステップ(被検出物検出ステップ)として、ステップS64で得られた撮影画像内におけるステップS62で投影された画像の領域を抽出する(ステップS66)。このステップS66の処理は、図5のステップS28及び図9で説明した処理と同様に、ステップS44で抽出された撮影画像内の投影画像の四隅の座標位置に基づいて、ステップS64で撮影された撮影画像内の投影画像の領域を抽出する。
次に、遮蔽物領域抽出部60は、推定撮影画像保存部62に保存された推定撮影画像と、ステップS66で抽出された撮影画像内の投影画像とを参照して、画素毎に、対応する画素値の差分値を計算し、差分画像を生成する(ステップS68)。
そして、遮蔽物領域抽出部60は、差分画像の画素毎に差分値の解析を行う。差分画像の全画素について、差分値の解析が終了したとき(ステップS70:Y)、遮蔽物領域抽出部60は、一連の処理を終了する(エンド)。一方、全画素の差分値の解析が終了していないとき(ステップS70:N)、遮蔽物領域抽出部60は、差分値が閾値を超えているか否かを判別する(ステップS72)。
ステップS72において、差分値が閾値を超えていると判別されたとき(ステップS72:Y)、遮蔽物領域抽出部60は、当該画素を遮蔽物200によって遮られた遮蔽物領域の画素として登録し(ステップS74)、ステップS70に戻る。このステップS74では、当該画素の位置を登録するようにしてもよいし、差分画像の当該画素を所定の色に変換して可視化してもよい。一方、ステップS72において、差分値が閾値を超えていないと判別されたとき(ステップS72:N)、遮蔽物領域抽出部60は、ステップS70に戻って処理を継続する。
[推定撮影画像生成処理の例]
図12に、図11のステップS60の推定撮影画像生成処理の詳細な動作例のフロー図を示す。
図13に、図11のステップS60の推定撮影画像生成処理の動作説明図を示す。図13は、1画素を構成する複数の色成分のうち1つの色成分についての推定撮影画像の生成処理の説明図を表す。
推定撮影画像生成部70は、プロジェクター100に出力される画像データに対応した画像の全画素について、色成分毎に撮影グレイ画像を参照することで推定撮影画像を生成する。まず、推定撮影画像生成部70は、全画素について終了していないとき(ステップS80:N)、R成分の全画素について処理が終了したか否かを判別する(ステップS82)。
ステップS82において、R成分の全画素について処理が終了していないとき(ステップS82:N)、推定撮影画像生成部70は、g[k](kは整数)≦R値(R成分の画素値)となる最大のkを探索する(ステップS84)。一方、ステップS82において、R成分の全画素について処理が終了しているとき(ステップS82:Y)、ステップS88に進み、次の色成分であるG成分について推定撮影画像の生成処理を行う。
ステップS84に続いて、推定撮影画像生成部70は、ステップS84で探索されたkに対応した撮影グレイ画像PGPkにおける当該画素位置のR成分の画素値と、撮影グレイ画像PGP(k+1)における当該画素位置のR成分の画素値とを用いた補間処理により、R値を求める(ステップS86)。なお、撮影グレイ画像保存部58に撮影グレイ画像PGP(k+1)が保存されていないときは、求めるR値としてkを採用することができる。
次に、推定撮影画像生成部70は、G成分の全画素について処理が終了したか否かを判別する(ステップS88)。ステップS88において、G成分の全画素について処理が終了していないとき(ステップS88:N)、推定撮影画像生成部70は、g[k](kは整数)≦G値(G成分の画素値)となる最大のkを探索する(ステップS90)。ステップS88において、G成分の全画素について処理が終了しているとき(ステップS88:Y)、ステップS94に進み、次の色成分であるB成分について推定撮影画像の生成処理を行う。
ステップS90に続いて、推定撮影画像生成部70は、ステップS90で探索されたkに対応した撮影グレイ画像PGPkにおける当該画素位置のG成分の画素値と、撮影グレイ画像PGP(k+1)における当該画素位置のG成分の画素値とを用いた補間処理により、G値を求める(ステップS92)。なお、撮影グレイ画像保存部58に撮影グレイ画像PGP(k+1)が保存されていないときは、求めるG値としてkを採用することができる。
最後に、推定撮影画像生成部70は、B成分の全画素について処理が終了したか否かを判別する(ステップS94)。ステップS94において、B成分の全画素について処理が終了していないとき(ステップS94:N)、推定撮影画像生成部70は、g[k](kは整数)≦B値(B成分の画素値)となる最大のkを探索する(ステップS96)。ステップS94において、B成分の全画素について処理が終了しているとき(ステップS94:Y)、ステップS80に戻る。
ステップS96に続いて、推定撮影画像生成部70は、ステップS96で探索されたkに対応した撮影グレイ画像PGPkにおける当該画素位置のB成分の画素値と、撮影グレイ画像PGP(k+1)における当該画素位置のB成分の画素値とを用いた補間処理により、B値を求める(ステップS98)。なお、撮影グレイ画像保存部58に撮影グレイ画像PGP(k+1)が保存されていないときは、求めるB値としてkを採用することができる。その後、推定撮影画像生成部70は、ステップS80に戻り、処理を継続する。
以上の処理により、推定撮影画像生成部70は、図13に示すように、オリジナルの画像データにより表される画像が画像IMG0のとき、画素毎に、当該画素位置Qの画素値(R値、G値又はB値)に近い撮影グレイ画像PGPkを求める。そして、推定撮影画像生成部70は、画素位置Qに対応する撮影グレイ画像の画素位置Qにおける画素値を用いて、画素位置Qに対応する推定撮影画像IMG1の画素位置Qにおける画素値を求める。ここで、推定撮影画像生成部70は、撮影グレイ画像PGPkにおける画素位置Qの画素値、又は撮影グレイ画像PGPk、PGP(k+1)における画素位置Qの画素値を用いて、推定撮影画像IMG1の画素位置Qにおける画素値を求める。推定撮影画像生成部70は、上記の処理を、全画素について、色成分毎に繰り返すことで、推定撮影画像IMG1を生成する。
画像処理部50において、図5〜図13で説明した処理を行うことで、次のように遮蔽物200により遮られた遮蔽物領域を抽出することができる。
図14に、画像処理部50の動作説明図を示す。
即ち、画像処理部50は、プロジェクター100により投影される画像IMG0の画像データを用いて、上記のように推定撮影画像IMG1を生成する。その一方、画像処理部50は、プロジェクター100に、画像IMG0の画像データに基づいてスクリーンSCRの投影領域AR(投影面IG1)に画像IMG2を投影させる。このとき、例えば人の指等の遮蔽物MTによって投影画像IMG2が遮られるものとすると、画像処理部50は、投影領域AR内の投影画像IMG2をカメラ20で撮影し、その撮影情報を取得する。
画像処理部50は、取得した撮影情報に基づいて、撮影画像内の投影画像IMG3を抽出する。そして、画像処理部50は、撮影画像内の投影画像IMG3と推定撮影画像IMG1との差分を画素毎にとり、その差分値に基づいて、投影画像IMG3内の遮蔽物MTの領域MTRを抽出する。
こうして抽出された遮蔽物領域に基づいて、アプリケーション処理部90は、例えば次のようなアプリケーション処理を行うことができる。
[アプリケーション処理の例]
図15に、図4のステップS14のアプリケーション処理の動作例のフロー図を示す。図16に、図15の入力座標取得処理(ステップS102)のフロー図を示す。図17に、ボタンアイコンの選択方法のフロー図を示す。図18に、図15のポストイットドラッグ処理(ステップS108)のフロー図を示す。図19に、図15のライン描画処理(ステップS112)のフロー図を示す。図20に、遮蔽物領域からユーザーの指先の位置を指示位置として検出する方法の説明図を示す。
アプリケーション処理部90は、ボタンアイコンBI1,BI2,BI3及びポストイットアイコンPIを含む画像を投影させ(ステップS100)、この投影画像に対して図4のステップS12の遮蔽物領域抽出処理において、遮蔽物領域を抽出させる。そして、アプリケーション処理部90は、ステップS12において遮蔽物領域が抽出されると、ユーザーの指先に該当する位置の画素の座標を入力座標として算出する(ステップS102)。
手領域である遮蔽物領域からユーザーの指先の位置を検出する方法としては、領域先端部検出や円形領域検出による指先検出方法として公知の技術を利用可能である。本実施形態では、最も単純な領域先端部検出方法により、指先の位置を検出するものとする。この方法は、例えば図20に示すように、遮蔽物領域MTR内の画素のうち、投影画像IMG3内の中心位置Oに最も近い画素Tの座標を入力座標として算出するものである。
アプリケーション処理部90は、まず、投影画像に対して図4のステップS12の遮蔽物領域抽出処理において、遮蔽物領域を抽出させる。そして、アプリケーション処理部90は、ステップS12において遮蔽物領域が抽出されると、図16に示すように、遮蔽物領域内で投影画像の中心に最も近い画素の座標を算出する(ステップS120)。そして、この位置を指先の位置であると判定して、入力座標として検出する(ステップS122)。
図15のステップS104において入力座標が検出されると、アプリケーション処理部90は、ポストイットドラッグ指令の有無を検出する(ステップS106)。ポストイットドラッグ指令は、投影画面上に表示されたポストイットドラッグ用ボタンアイコンBI1(図1参照)を指先でクリックすることにより入力される。
ボタンアイコンがクリックされたか否かは次のように判断される。まず、図17に示すように、アプリケーション処理部90は、ステップS104で検出された入力座標が一定時間以上移動していないか否かを監視する(ステップS130)。ステップS130において、一定時間以内に入力座標の位置が移動したことが検出されると(ステップS130:N)、アプリケーション処理部90は、その移動が一定範囲内の移動であるか否かを判別する(ステップS134)。ステップS134において、一定範囲内の移動ではないと判別されると(ステップS134:N)、アプリケーション処理部90は、一連の処理を終了する(エンド)。
一方、ステップS130において、一定時間以上入力座標の位置が移動していない(ステップS130:Y)、又は一定範囲内の移動であることが検出されたとき(ステップS134:Y)、アプリケーション処理部90は、入力座標の位置がボタンアイコンの位置であるか否かを判別する(ステップS132)。
ステップS132において、入力座標の位置がボタンアイコンの位置であると判別されたとき(ステップS132:Y)、アプリケーション処理部90は、ボタンアイコンが選択されたと判定して、該ボタンアイコンの色を反転させて強調し(ステップS136)、予め該ボタンアイコンの選択を条件に開始される処理を行い(ステップS138)、一連の処理を終了する(エンド)。
図15のステップS106においてポストイットドラッグ指令が検出されると(ステップS106:Y)、アプリケーション処理部90は、ポストイットドラッグ処理を実行する(ステップS108)。
ステップS108においては、図18に示すように、アプリケーション処理部90は、ステップS104で検出された入力座標が一定時間以上移動していないか否かを監視する(ステップS140)。ステップS140において、一定時間以内に入力座標の位置が移動したことが検出されると(ステップS140:N)、アプリケーション処理部90は、その移動が一定範囲内の移動であるか否かを判別する(ステップS144)。ステップS144において、一定範囲内の移動ではないと判別されると(ステップS144:N)、アプリケーション処理部90は、ステップS104に戻る(エンド)。
一方、ステップS140において、一定時間以上入力座標の位置が移動していない(ステップS140:Y)、又は一定範囲内の移動であることが検出されたとき(ステップS144:Y)、アプリケーション処理部90は、入力座標の位置がポストイットアイコンの位置であるか否かを判別する(ステップS142)。
ステップS142において、入力座標の位置がポストイットアイコンの位置であると判別されたとき(ステップS142:Y)、アプリケーション処理部90は、ポストイットアイコンが選択されたと判定して、選択されたポストイットアイコンの色を反転させて強調し(ステップS146)、該ポストイットアイコンを入力座標の移動軌跡に従って移動させ(ステップS148)、ステップS104に戻る(エンド)。
一方、ステップS132において、入力座標の位置がポストイットアイコンの位置ではないと判別されたとき(ステップS142:N)、アプリケーション処理部90は、ステップS104に戻る(エンド)。
図15のステップS106においてポストイットドラッグ指令が検出されない場合は(ステップS106:N)、アプリケーション処理部90は、ライン描画指令の有無を検出する(ステップS110)。ライン描画指令は、投影画面上に表示されたライン描画用ボタンアイコンBI2を指先でクリックすることにより入力される。ライン描画用ボタンアイコンBI2がクリックされたか否かは図17に示した方法で判定される。
図15のステップS110においてライン描画指令が検出されると(ステップS110:Y)、アプリケーション処理部90は、ライン描画処理を実行する(ステップS112)。
ステップS112においては、図19に示すように、入力座標の移動軌跡に従って所定の色及び太さでラインを描画する(ステップS150)。この処理は、ラインで囲まれた複数のポストイットアイコンがグループ化されたことを明示するためのものであり、ラインで囲まれた複数のポストイットアイコンに対して実質的な処理を行うものではない。ライン描画が終了すると、ステップS104に戻る(エンド)。
図15のステップS110においてライン描画指令が検出されない場合は(ステップS110:N)、アプリケーション処理部90は、アプリケーション終了指令の有無を検出する(ステップS102)。アプリケーション終了指令は、投影画面上に表示されたアプリケーション終了用ボタンアイコンBI3を指先でクリックすることにより入力される。アプリケーション終了用ボタンアイコンBI3がクリックされたか否かは図17に示した方法で判定される。
図15のステップS102においてアプリケーション終了指令が検出されると(ステップS102:Y)、アプリケーション処理部90は、アプリケーション処理部90は、一連の処理を終了する(エンド)。
一方、図15のステップS102においてアプリケーション終了指令が検出されない場合には(ステップS102:N)、ステップS106以降の処理を繰り返す。
なお、画像処理装置30は、中央演算処理装置(Central Processing Unit:以下、CPU)、読み出し専用メモリー(Read Only Memory:ROM)及びランダムアクセスメモリー(Random Access Memory:RAM)を有し、ROM又はRAMに記憶されたプログラムを読み込んだCPUが該プログラムに対応した処理を実行することで、上記の実施形態1における各処理をソフトウェア処理で実現するようにしてもよい。この場合、ROM又はRAMに、上記の処理のフロー図に対応したプログラムが格納される。
図20では、遮蔽物領域MTRからユーザーの指先の位置を入力座標(指示位置)として検出する方法として、遮蔽物領域MTR内で表示画像の中心に最も近い画素の座標を用いる方法(領域先端部検出)を用いた。しかし、指先の位置を検出する方法はこれに限らず、指先検出方法として公知の他の技術を用いることも可能である。一例としては、特許文献1に記載されたような円形領域検出による指先検出方法が挙げられる。この方法は、指先形状の輪郭が円に近いことに基づき、円形テンプレートを用いて手領域周辺で正規化相関に基づくパターンマッチングを行うことで、指先の位置を検出するものである。
[実施形態2]
実施形態1では、カメラ20でスクリーンSCRに投影された画像を撮影した撮影画像から投影画像を抽出していたが、これに限定されるものではく、撮影画像内の投影画像を抽出することなく、遮蔽物200の領域を抽出するようにしてもよい。実施形態2における画像処理装置が、実施形態1における画像処理装置30と異なる点は、画像処理部の構成及び動作である。従って、以下では、実施形態2における画像処理部の構成及び動作について説明する。
図21に、実施形態2における画像処理部の構成例のブロック図を示す。図21において、図3と同一部分には同一符号を付し、適宜説明を省略する。
実施形態2における画像処理部50aは、撮影情報取得部52、キャリブレーション処理部56a、撮影グレイ画像保存部58、遮蔽物領域抽出部60a、推定撮影画像保存部62、画像データ出力部64を含む。遮蔽物領域抽出部60aは、推定撮影画像生成部70aを含む。画像処理部50aが画像処理部50と異なる点は、画像処理部50aが画像処理部50において画像領域抽出部54が省略された構成を有している点と、遮蔽物領域抽出部60a(推定撮影画像生成部70a)が、カメラ20による撮影した画像の形状の推定撮影画像を生成する点である。そのため、撮影情報取得部52が取得した撮影情報は、キャリブレーション処理部56a及び遮蔽物領域抽出部60aに供給される。
キャリブレーション処理部56aは、実施形態1と同様にキャリブレーション処理を行うが、キャリブレーション処理における推定撮影画像を生成する際に、遮蔽物200に遮られることなくカメラ20で撮影された撮影情報を撮影情報取得部52から取得する。即ち、複数種類のグレイ画像を表示させて、キャリブレーション処理部56aは、撮影情報取得部52から複数種類の撮影グレイ画像の撮影情報を取得する。撮影グレイ画像保存部58は、キャリブレーション処理部56aによって得られた撮影グレイ画像を保存する。これらの撮影グレイ画像のいずれかの画素の画素値を参照して、カメラ20で撮影する表示画像を推定した推定撮影画像が生成されることになる。
遮蔽物領域抽出部60aにおいても、プロジェクター100の投影画像を遮蔽物200により遮られた状態でカメラ20により撮影された撮影画像と、撮影グレイ画像保存部58に保存された撮影グレイ画像により生成された推定撮影画像との差分に基づいて、撮影画像内の遮蔽物200の領域を抽出する。この撮影画像は、撮影情報取得部52によって取得された撮影情報に対応した画像である。推定撮影画像生成部70aは、プロジェクター100によりスクリーンSCRに投影される画像の画像データから、撮影グレイ画像保存部58に保存された撮影グレイ画像を参照して推定撮影画像を生成する。推定撮影画像生成部70aによって生成された推定撮影画像は、推定撮影画像保存部62に保存される。
画像処理部50aは、プロジェクター100に投影される画像の画像データから、実際にカメラ20で撮影した画像を推定した推定撮影画像を生成する。そして、この推定撮影画像と、該画像データに基づいて表示された投影画像を撮影した撮影画像との差分に基づいて、遮蔽物200の領域が抽出される。こうすることで、推定撮影画像と、これを生成する際に使用したカメラ20を用いて得られた撮影画像との差分は、外光のムラ、スクリーンSCRの「なみ」、「すじ」、汚れ等の状態、プロジェクター100の位置やズーム状態、カメラ20の位置や歪み等に起因したノイズの影響をなくすことができる。これにより、上記のノイズの影響を受けることなく、遮蔽物200の領域を高精度に検出できるようになる。この際、形状を補正することなく、差分画像に基づいて遮蔽物200の領域を抽出するため、形状補正の際のノイズによる誤差をなくし、実施形態1より高精度に遮蔽物200の領域を検出できるようになる。
このような画像処理部50aを有する実施形態2における画像処理装置は、図1の画像表示システム10に適用することができる。この実施形態2における画像処理装置の動作は、図4の動作と同様であるが、ステップS10のキャリブレーション処理とステップS12の遮蔽物領域抽出処理の処理が異なる。
[キャリブレーション処理の例]
図22に、実施形態2におけるキャリブレーション処理の詳細な動作例のフロー図を示す。
キャリブレーション処理が開始されると、キャリブレーション処理部56aは、実施形態1と同様の画像領域抽出初期化処理を行う(ステップS160)。より具体的には、画像領域抽出初期化処理では、撮影画像内の四角形状の投影画像の四隅の座標位置を抽出する処理を行う。
次に、キャリブレーション処理部56aは、グレイ画像の画素値に対応した変数iを「0」に設定して変数iを初期化する(ステップS162)。続いて、キャリブレーション処理部56aでは、例えば画像データ生成部40により各色成分の画素値がg[i]のグレイ画像の画像データを生成させ、画像データ出力部64が該画像データをプロジェクター100に出力して、画素値g[i]のグレイ画像をスクリーンSCRに投影させる(ステップS164)。そして、キャリブレーション処理部56aは、ステップS164でスクリーンSCRに投影された画像をカメラ20で撮影し、撮影情報取得部52においてカメラ20の撮影画像の撮影情報を取得する(ステップS166)。
次に、キャリブレーション処理部56aは、ステップS166で取得された撮影グレイ画像を、該撮影グレイ画像に対応したg[i]と関連付けて撮影グレイ画像保存部58に保存する(ステップS168)。
キャリブレーション処理部56aは、変数iに整数dを加算して変数iを更新し(ステップS170)、次のグレイ画像の撮影に備える。なお、ステップS170で更新された変数iが所与の最大値N以上のとき(ステップS172:N)、一連の処理を終了し(エンド)、更新後の変数iが最大値Nより小さいとき(ステップS172:Y)、ステップS164に戻る。
[遮蔽物領域抽出処理の例]
図20に、実施形態2における遮蔽物抽出処理の詳細の動作例のフロー図を示す。
図21に、図20の遮蔽物抽出処理における推定撮影画像生成処理の動作説明図を示す。図21は、1画素を構成する複数の色成分のうち1つの色成分についての推定撮影画像の生成処理の説明図を表す。
実施形態1と同様に遮蔽物抽出処理が開始されると、遮蔽物領域抽出部60aは、推定撮影画像生成部70aにおいて推定撮影画像生成処理を行う(ステップS180)。この推定撮影画像生成処理では、ステップS168において保存された撮影グレイ画像の各画素値を参照して、実際にプロジェクター100により投影させる画像データを変換して、推定撮影画像の画像データが生成される。遮蔽物領域抽出部60aは、ステップS180において生成された推定撮影画像を、推定撮影画像保存部62に保存する。
ステップS150において、推定撮影画像生成部70aは、実施形態1と同様に推定撮影画像を生成する。即ち、推定撮影画像生成部70aは、まずステップS160で取得された撮影画像内の四隅の座標位置を用いて、オリジナルの画像データにより表される画像に対して公知の形状補正を行う。そして、この形状補正後の画像に対して、実施形態1と同様にして推定撮影画像を生成する。より具体的には、図24に示すように、オリジナルの画像データにより表される画像が画像IMG0のとき、画素毎に、当該画素位置の画素値(R値、G時又はB値)に近い撮影グレイ画像を求める。そして、推定撮影画像生成部70aは、当該画素位置に対応する撮影グレイ画像の画素位置における画素値を用いて、当該画素位置に対応する推定撮影画像IMG1の画素位置における画素値を求める。ここで、推定撮影画像生成部70aは、撮影グレイ画像PGPkにおける画素位置の画素値、又は撮影グレイ画像PGPk、PGP(k+1)における画素位置の画素値を用いて、推定撮影画像IMG1の画素位置における画素値を求める。推定撮影画像生成部70aは、上記の処理を、全画素について、色成分毎に繰り返すことで、推定撮影画像IMG1を生成する。これにより、推定撮影画像生成部70aは、推定撮影画像の形状を撮影画像内の投影画像の形状に揃えることができる。
次に、遮蔽物領域抽出部60aからの指示により、画像データ出力部64は、実際にプロジェクター100により投影させるオリジナルの画像データをプロジェクター100に出力し、該画像データに基づく画像をプロジェクター100によりスクリーンSCRに投影させる(ステップS182)。このオリジナルの画像データは、ステップS180の推定撮影画像生成処理において、推定撮影画像の生成元の画像データである。
続いて、遮蔽物領域抽出部60aは、ステップS182において投影された画像をカメラ20で撮影させる制御を行い、撮影情報取得部52を介して、この撮影画像の撮影情報を取得する(ステップS184)。このとき取得された撮影画像は、プロジェクター100による投影画像が遮蔽物200によって遮られ、撮影画像内に遮蔽物領域が存在する。
そして、遮蔽物領域抽出部60aは、推定撮影画像保存部62に保存された推定撮影画像と、ステップS184で取得された投影画像とを参照して、画素毎に、対応する画素値の差分値を計算し、差分画像を生成する(ステップS186)。
そして、遮蔽物領域抽出部60aは、差分画像の画素毎に差分値の解析を行う。差分画像の全画素について、差分値の解析が終了したとき(ステップS188:Y)、遮蔽物領域抽出部60aは、一連の処理を終了する(エンド)が、全画素の差分値の解析が終了していないとき(ステップS188:N)、遮蔽物領域抽出部60aは、差分値が閾値を超えているか否かを判別する(ステップS190)。
ステップS190において、差分値が閾値を超えていると判別されたとき(ステップS190:Y)、遮蔽物領域抽出部60aは、当該画素を遮蔽物200によって遮られた遮蔽物領域の画素として登録し(ステップS192)、ステップS188に戻る。このステップS192では、当該画素の位置を登録するようにしてもよいし、差分画像の当該画素を所定の色に変換して可視化してもよい。一方、ステップS190において、差分値が閾値を超えていないと判別されたとき(ステップS190:N)、遮蔽物領域抽出部60aは、ステップS188に戻って処理を継続する。
画像処理部50aにおいて、上記説明した処理を行うことで、実施形態1と同様に遮蔽物200の領域を抽出することができる。遮蔽物領域からユーザーの指先の位置を入力座標(指示位置)として検出する方法は実施形態1と同じである。なお、実施形態2においても、画像処理装置は、CPU、ROM及びRAMを有し、ROM又はRAMに記憶されたプログラムを読み込んだCPUが該プログラムに対応した処理を実行することで、上記の実施形態2における各処理をソフトウェア処理で実現するようにしてもよい。この場合、ROM又はRAMに、上記の処理のフロー図に対応したプログラムが格納される。
図25に、画像処理部50aの動作説明図を示す。
即ち、画像処理部50aは、プロジェクター100により投影される画像IMG0の画像デーダを用いて、上記のように推定撮影画像IMG1を生成する。このとき、予め抽出された投影領域AR(投影面IG1)内の画像の四隅の座標位置を用いて形状補正後の推定撮影画像IMG1を生成する。
その一方、画像処理部50は、プロジェクター100に、画像IMG0の画像データに基づいてスクリーンSCRの投影領域AR(投影面IG1)に画像IMG2を投影させる。このとき、例えば人の指等の遮蔽物MTによって投影画像IMG2が遮られるものとすると、画像処理部50aは、投影領域AR内の投影画像IMG2をカメラ20で撮影し、その撮影情報を取得する。
画像処理部50aは、撮影画像内の投影画像IMG2と推定撮影画像IMG1との差分を画素毎にとり、その差分値に基づいて、投影画像IMG2内の遮蔽物MTの領域MTRを抽出する。
[実施形態3]
実施形態1又は実施形態2では、画像表示装置として画像投影装置であるプロジェクター100を採用し、プロジェクター100からの投影画像が遮蔽物200で遮られたときの投影画像内における遮蔽物200の領域を抽出する例について説明したが、本発明はこれに限定されるものではない。
図26に、本発明の実施形態3における画像表示システムの構成例のブロック図を示す。図26において、図1と同一部分には同一符号を付し、適宜説明を省略する。
実施形態3における画像表示システム10aは、撮像装置としてのカメラ20と、画像処理装置30と、画面GMを有する画像表示装置300とを含む。画像表示装置300は、画像処理装置30からの画像データに基づいて画面GM(広義には表示画面)に画像を表示する。このような画像表示装置としては、液晶表示装置、有機EL(Electro Luminescence)表示装置やCRT(Cathode Ray Tube)等の表示装置を採用できる。また、画像処理装置30として、実施形態1又は実施形態2における画像処理装置を提供することができる。
このとき、カメラ20と画面GMとの間に存在する遮蔽物200により表示画像が遮られると、画像処理装置30は、カメラ20で表示画像を撮影した撮影情報を用いて、表示画像内の遮蔽物200の領域を検出する処理を行う。より具体的には、画像処理装置30は、画面GMに表示される画像に対応した画像データから、カメラ20で撮影した状態を推定した推定撮影画像を生成し、該推定撮影画像と遮蔽物200により遮られた表示画像をカメラ20で撮影した撮影画像との差分に基づいて、遮蔽物200の領域を検出する。遮蔽物領域からユーザーの指先の位置を入力座標(指示位置)として検出する方法は実施形態1と同じである。
これにより、専用のカメラを設ける必要がなくなり、低コストで遮蔽物200の領域を検出できるようになる。また、画像表示装置300の画面GMに表示される画像が、外光や画面GMの状態等に起因したノイズによって色が一様でなくなる場合であっても、推定撮影画像を用いて撮影画像との差分により遮蔽物200の領域を検出するようにしたので、ノイズの影響を受けることなく遮蔽物200の領域を高精度の検出できるようになる。
以上、本発明に係る画像処理装置、画像表示システム、及び画像処理方法等を上記のいずれかの実施形態形に基づいて説明したが、本発明は上記のいずれかの実施形態に限定されるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
(1)上記のいずれかの実施形態では、画像投影装置や画像表示装置を例に説明したが、本発明はこれに限定されるものではない。画像データに基づいて画像を表示する装置全般に本発明適用することができることは言うまでもない。
(2)上記の実施形態1又は実施形態2では、光変調素子として透過型の液晶パネルを用いたライトバルブを用いるものとして説明したが、本発明はこれに限定されるものではない。光変調素子として、例えばDLP(Digital Light Processing)(登録商標)、LCOS(Liquid Crystal On Silicon)等を採用してもよい。また、上記の実施形態1又は実施形態2において、光変調素子として、いわゆる3板式の透過型の液晶パネルを用いたライトバルブ、単板式の液晶パネルや2板又は4板式以上の透過型の液晶パネルを用いたライトバルブを採用することができる。
(3)上記のいずれかの実施形態において、本発明を、画像処理装置、画像表示システム、及び画像処理方法等として説明したが、本発明はこれに限定されるものではない。例えば、本発明を実現するための画像処理装置の処理方法(画像処理方法)、又は本発明を実現するための画像表示装置の処理方法(画像表示方法)の処理手順が記述されたプログラムや、該プログラムが記録された記録媒体であってもよい。
10,10a…画像表示システム、20…カメラ、30…画像処理装置、40…画像データ生成部、50,50a…画像処理部、52…撮影情報取得部、54…画像領域抽出部、56,56a…キャリブレーション処理部、58…撮影グレイ画像保存部、60,60a…遮蔽物領域抽出部、62…推定撮影画像保存部、64…画像データ出力部、70,70a…推定撮影画像生成部、90…アプリケーション処理部、100…プロジェクター、200…遮蔽物、300…画像表示装置、GM…画面、SCR…スクリーン

Claims (11)

  1. 表示画面とカメラとの間に存在するユーザーの手を被検出物として検出し、検出された前記被検出物のうち前記ユーザーの指先に該当する位置を指示位置として検出し、前記指示位置に対応した所定処理を行う画像処理装置であって、
    前記表示画面に表示されたモデル画像を前記被検出物により遮られることなく前記カメラにより撮影した撮影情報に基づき、画像データから、当該画像データを前記表示画面に表示して前記カメラで撮影した画像を推定した推定撮影画像を生成する推定撮影画像生成部と、
    前記画像データに基づいて前記表示画面に表示される表示画像を、前記被検出物により遮られた状態で前記カメラにより撮影した撮影画像と、前記推定撮影画像との差分に基づいて、前記表示画像内で前記被検出物により遮られた被検出物領域を検出する被検出物検出部と、
    前記被検出物検出部により検出された前記被検出物領域のうち前記ユーザーの指先に該当する位置を指示位置として検出し、前記指示位置に対応した所定の処理を行うアプリケーション処理部と、を含むことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記モデル画像は、複数種類のグレイ画像を含み、
    前記推定撮影画像生成部は、前記表示画面に表示された前記複数種類のグレイ画像を前記カメラにより撮影した複数種類の撮影グレイ画像を用いて、前記画像データに対応した前記表示画像の画素値を画素毎に推定した前記推定撮影画像を生成することを特徴とする画像処理装置。
  3. 請求項1又は2に記載の画像処理装置において、
    前記撮影画像から前記表示画像の領域を抽出すると共に、前記撮影画像内の前記表示画像の形状を前記推定撮影画像の形状に揃える画像領域抽出部を含み、
    前記被検出物検出部が、前記画像領域抽出部によって抽出された前記表示画像と前記推定撮影画像との画素毎の比較結果に基づいて、前記被検出物領域を検出することを特徴とする画像処理装置。
  4. 請求項1又は2に記載の画像処理装置において、
    前記推定撮影画像生成部が、前記推定撮影画像の形状を前記撮影画像内の前記表示画像の形状に揃え、
    前記被検出物検出部が、前記撮影画像内の前記表示画像と前記推定撮影画像との画素毎の比較結果に基づいて、前記被検出物領域を検出することを特徴とする画像処理装置。
  5. 請求項3又は4に記載の画像処理装置において、
    前記表示画面に表示された所与の初期化用画像を前記カメラにより撮影した撮影画像内の前記初期化用画像の四隅の位置に基づいて、前記推定撮影画像又は前記表示画像の形状を揃えることを特徴とする画像処理装置。
  6. 請求項1乃至5のいずれか1項に記載の画像処理装置において、
    前記表示画面は、スクリーンであり、
    前記表示画像は、前記画像データに基づいて前記スクリーンに投影された投影画像であることを特徴とする画像処理装置。
  7. 請求項1乃至6のいずれか1項に記載の画像処理装置において、
    前記アプリケーション処理部は、前記指示位置に表示されたアイコン画像を前記指示位置の移動軌跡に従って移動させることを特徴とする画像処理装置。
  8. 請求項1乃至6のいずれか1項に記載の画像処理装置において、
    前記アプリケーション処理部は、前記指示位置の移動軌跡に従って前記表示画面内に所定の色及び太さのラインを描画することを特徴とする画像処理装置。
  9. 請求項1乃至6のいずれか1項に記載の画像処理装置において、
    前記アプリケーション処理部は、前記指示位置に表示されたアイコン画像に関連付けられた所定の処理を実行することを特徴とする画像処理装置。
  10. 請求項1乃至9のいずれか1項に記載の画像処理装置と、
    前記表示画面に表示された画像を撮影する前記カメラと、
    前記モデル画像又は前記表示画像の画像データに基づいて画像を表示する画像表示装置と、を含むことを特徴とする画像表示システム。
  11. 表示画面とカメラとの間に存在する被検出物としてのユーザーの指先を画像処理により検出し、検出された前記指先の位置を指示位置として検出し、前記指示位置に対応した所定の処理を行う画像処理方法であって、
    前記表示画面に表示されたモデル画像を前記被検出物により遮られること無く前記カメラにより撮影した撮影情報に基づき、画像データから、当該画像データを前記表示画面に表示して前記カメラで撮影した画像を推定した推定撮影画像を生成する推定撮影画像生成ステップと、
    前記画像データに基づいて前記表示画面に表示画像を表示する画像表示ステップと、
    前記画像表示ステップにおいて前記表示画面に表示される前記表示画像を、前記被検出物により遮られた状態で前記カメラにより撮影する表示画像撮影ステップと、
    前記表示画像撮影ステップにおいて撮影された撮影画像と、前記推定撮影画像との差分に基づいて、前記表示画像内で前記被検出物により遮られた被検出物領域を検出する被検出物検出ステップと、
    前記被検出物検出ステップにおいて検出された前記被検出物領域のうち前記ユーザーの指先に該当する位置を指示位置として検出し、前記指示位置に対応した所定の処理を行うアプリケーション処理ステップと、を含むことを特徴とする画像処理方法。
JP2010004171A 2010-01-12 2010-01-12 画像処理装置、画像表示システム、及び画像処理方法 Active JP5560721B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010004171A JP5560721B2 (ja) 2010-01-12 2010-01-12 画像処理装置、画像表示システム、及び画像処理方法
US12/985,472 US20110169776A1 (en) 2010-01-12 2011-01-06 Image processor, image display system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010004171A JP5560721B2 (ja) 2010-01-12 2010-01-12 画像処理装置、画像表示システム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2011145765A JP2011145765A (ja) 2011-07-28
JP5560721B2 true JP5560721B2 (ja) 2014-07-30

Family

ID=44258177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010004171A Active JP5560721B2 (ja) 2010-01-12 2010-01-12 画像処理装置、画像表示システム、及び画像処理方法

Country Status (2)

Country Link
US (1) US20110169776A1 (ja)
JP (1) JP5560721B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110145725A1 (en) * 2009-12-11 2011-06-16 Richard John Campbell Methods and Systems for Attaching Semantics to a Collaborative Writing Surface
US8773464B2 (en) * 2010-09-15 2014-07-08 Sharp Laboratories Of America, Inc. Methods and systems for collaborative-writing-surface image formation
JP5927541B2 (ja) * 2011-06-08 2016-06-01 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
JP5912065B2 (ja) 2012-06-01 2016-04-27 株式会社Pfu 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
JP5894506B2 (ja) 2012-06-08 2016-03-30 株式会社Pfu 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
JP5907022B2 (ja) * 2012-09-20 2016-04-20 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN103974058A (zh) * 2013-01-24 2014-08-06 鸿富锦精密工业(深圳)有限公司 影像噪声分析系统及方法
CN104516592B (zh) * 2013-09-27 2017-09-29 联想(北京)有限公司 信息处理设备和信息处理方法
JP5835411B2 (ja) * 2013-10-08 2015-12-24 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム、並びに、投影システム、その制御方法、及びプログラム
EP3588247B1 (en) * 2017-02-24 2023-07-12 Sony Group Corporation Information processing device, information processing method, and program
JP6822209B2 (ja) * 2017-02-24 2021-01-27 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
CN108288264B (zh) * 2017-12-26 2022-01-18 横店集团东磁有限公司 一种广角摄像头模组脏污测试方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
US6346933B1 (en) * 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
JP4150924B2 (ja) * 2003-07-02 2008-09-17 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP4009850B2 (ja) * 2002-05-20 2007-11-21 セイコーエプソン株式会社 投写型画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像投写方法
JP4572377B2 (ja) * 2003-07-02 2010-11-04 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP4664665B2 (ja) * 2004-12-22 2011-04-06 オリンパスイメージング株式会社 デジタルプラットフォーム装置
GB2442050A (en) * 2006-08-29 2008-03-26 Micron Technology Inc Image pixel value correction
JP2008271096A (ja) * 2007-04-19 2008-11-06 Mitsubishi Denki Micom Kiki Software Kk 画像データのグレーバランス補正方法、画像データのグレーバランス補正装置および記憶媒体
JP4829855B2 (ja) * 2007-09-04 2011-12-07 キヤノン株式会社 画像投影装置及びその制御方法
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector

Also Published As

Publication number Publication date
US20110169776A1 (en) 2011-07-14
JP2011145765A (ja) 2011-07-28

Similar Documents

Publication Publication Date Title
JP5560721B2 (ja) 画像処理装置、画像表示システム、及び画像処理方法
JP5197777B2 (ja) インターフェイス装置、方法、およびプログラム
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
JP5088018B2 (ja) 画像処理装置及び制御プログラム
JP5966535B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP2011170840A (ja) 画像処理装置及び電子機器
JP2011081775A (ja) 投影画像領域検出装置
JP6354385B2 (ja) 表示装置、表示方法およびプログラム
US20150338923A1 (en) Method and system for generating user feedback of a gesture capturing device
JP5560722B2 (ja) 画像処理装置、画像表示システム、および画像処理方法
US9946333B2 (en) Interactive image projection
JP2010272078A (ja) 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法
JP2011090606A (ja) 画像処理装置、画像表示システム、及び画像処理方法
US9774791B2 (en) Method and related camera device for generating pictures with object moving trace
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP2013153392A (ja) 画像処理装置および画像処理方法、プログラム
JP6057407B2 (ja) タッチ位置入力装置及びタッチ位置入力方法
JP2022138883A (ja) 画像生成方法、制御方法、および情報処理装置
JP6835455B2 (ja) 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
WO2018214284A1 (zh) 一种应用于终端的拍摄图像的方法及终端设备
JP4014874B2 (ja) 直線データ作成装置及び方法並びにプログラム
JP7020225B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2018056784A (ja) 画像読取装置、画像読取方法及び画像読取プログラム
JP6512829B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

R150 Certificate of patent or registration of utility model

Ref document number: 5560721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350