JP2015059972A - プロジェクタ装置、及び画像投影システム - Google Patents
プロジェクタ装置、及び画像投影システム Download PDFInfo
- Publication number
- JP2015059972A JP2015059972A JP2013191753A JP2013191753A JP2015059972A JP 2015059972 A JP2015059972 A JP 2015059972A JP 2013191753 A JP2013191753 A JP 2013191753A JP 2013191753 A JP2013191753 A JP 2013191753A JP 2015059972 A JP2015059972 A JP 2015059972A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- dirt
- area
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】投影面(スクリーン)に汚れや模様があったとしても、投影画像におけるオブジェクトの視認性低下を防止することが可能なプロジェクタ装置を提供する。
【解決手段】投影用画像データを投影面Sに投影する投影手段12と、投影面Sを撮像装置によって撮像した撮像データに基づいて投影面上の汚れ領域の位置情報を検出する汚れ検出手段11と、投影用画像データに含まれるオブジェクトのうち投影用画像データが投影面Sに投影された際に汚れ領域と重なるオブジェクトが視認可能となるように、汚れ領域の位置情報に基づいて投影用画像データを加工する画像処理手段13と、を備える。
【選択図】図2
【解決手段】投影用画像データを投影面Sに投影する投影手段12と、投影面Sを撮像装置によって撮像した撮像データに基づいて投影面上の汚れ領域の位置情報を検出する汚れ検出手段11と、投影用画像データに含まれるオブジェクトのうち投影用画像データが投影面Sに投影された際に汚れ領域と重なるオブジェクトが視認可能となるように、汚れ領域の位置情報に基づいて投影用画像データを加工する画像処理手段13と、を備える。
【選択図】図2
Description
本発明は、プロジェクタ装置、及び画像投影システムに関する。
スクリーンに対して画像を投影可能なプロジェクタ装置が従来周知であるが、スクリーンに模様(染みや或いは汚れ)がある場合、投影画像の視認性を著しく損なうという問題がある。
特に、投影画像に含まれるテキストやグラフィック等の重要な要素が染みや模様にかかると、プレゼンテーション等を行う上での障害となる。
かかる問題に対し、スクリーン(投影面)をカメラ等で撮像した画像からスクリーン上の汚れを判別して投影元画像を加工することで、汚れや模様に影響されずに投影画像の視認性を高めるように処理を行うプロジェクタ装置が知られている(特許文献1)。
特許文献1では、プロジェクタに搭載したカメラによって投影面の画像を撮影し、この画像を用いて投影面の模様(染み或いは汚れ等)を投影画像全体に反映するテクスチャ画像を形成する。
そして、このテクスチャ画像を投影元画像に重ね合わせて投影することにより、全体として模様が目立たないようにすることで、投影画像の視認性を確保している。
特に、投影画像に含まれるテキストやグラフィック等の重要な要素が染みや模様にかかると、プレゼンテーション等を行う上での障害となる。
かかる問題に対し、スクリーン(投影面)をカメラ等で撮像した画像からスクリーン上の汚れを判別して投影元画像を加工することで、汚れや模様に影響されずに投影画像の視認性を高めるように処理を行うプロジェクタ装置が知られている(特許文献1)。
特許文献1では、プロジェクタに搭載したカメラによって投影面の画像を撮影し、この画像を用いて投影面の模様(染み或いは汚れ等)を投影画像全体に反映するテクスチャ画像を形成する。
そして、このテクスチャ画像を投影元画像に重ね合わせて投影することにより、全体として模様が目立たないようにすることで、投影画像の視認性を確保している。
しかしながら、特許文献1に開示の技術においては、補正元画像にテクスチャ画像を重ね合わせているため、補正元画像に含まれる重要部分(テキストやグラフィックのオブジェクト)の視認性自体が向上しているわけではない。
従って重要部分の判別が出来ずにプレゼンテーション等を行う上での障害となるという問題は、特許文献1の開示では解消していない。
本発明は上記の問題点を鑑みてなされたものであり、投影面(スクリーン)の状況に応じて発生する投影画像の視認性の低下を防止することが可能なプロジェクタ装置を提供することを目的とする。
従って重要部分の判別が出来ずにプレゼンテーション等を行う上での障害となるという問題は、特許文献1の開示では解消していない。
本発明は上記の問題点を鑑みてなされたものであり、投影面(スクリーン)の状況に応じて発生する投影画像の視認性の低下を防止することが可能なプロジェクタ装置を提供することを目的とする。
上記の課題を解決するために、請求項1の発明は、少なくとも1つの表示対象を含む画像を投影面に投影する投影手段と、前記投影手段によって前記画像が投影される投影面を撮像する撮像手段と、前記撮像手段によって撮像された投影面の画像データに基づいて、前記撮像手段によって投影された画像の視認性に影響を与える領域の位置情報を検出する検出手段と、前記投影手段によって投影された画像内の前記表示対象の表示位置に関する情報と前記検出手段によって検出された位置情報とに基づいて前記表示対象と前記領域とが一致するか否かを判定する判定手段と、前記判定手段によって前記表示対象と前記領域とが一致すると判定された場合、前記画像を加工する加工手段と、を備えることを特徴とする。
上記のように構成したので、本発明によれば投影面(スクリーン)の状況に応じて発生する投影画像の視認性の低下を防止することが可能なロジェクタ装置を実現することが出来る。
以下に、図面を参照して本発明の実施の形態を詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係るプロジェクタ装置を適用した画像投影システムを示す図である。
図1に示す画像投影システム100は、スクリーン(投影面)Sに対して画像を投影可能なプロジェクタ装置1と、プロジェクタ装置1に投影用画像データを入力可能なPC端末2や複合機(MFP:Multi-Function Printer)3を含んでいる。
図1に示す例において、プロジェクタ装置1と、PC端末2と、複合機3とはネットワークNWを介して通信可能に接続されている。
[第1の実施形態]
図1は、本発明の第1の実施形態に係るプロジェクタ装置を適用した画像投影システムを示す図である。
図1に示す画像投影システム100は、スクリーン(投影面)Sに対して画像を投影可能なプロジェクタ装置1と、プロジェクタ装置1に投影用画像データを入力可能なPC端末2や複合機(MFP:Multi-Function Printer)3を含んでいる。
図1に示す例において、プロジェクタ装置1と、PC端末2と、複合機3とはネットワークNWを介して通信可能に接続されている。
さらに、画像投影システム100は、投影面Sを撮影し、投影面Sにおいて汚れや模様など投影画像の視認性に影響を与える領域の位置を検出するための汚れ検出用画像データを取得するためのデジタルカメラ(撮像手段)4を備えている。
デジタルカメラ4は、USB(Universal Serial Bus)ケーブル5等によってプロジェクタ装置1に接続され、撮影した「汚れ検出用画像データ」をプロジェクタ装置1に供給することが出来る。
デジタルカメラ4は、USB(Universal Serial Bus)ケーブル5等によってプロジェクタ装置1に接続され、撮影した「汚れ検出用画像データ」をプロジェクタ装置1に供給することが出来る。
PC端末2は、一般的なパーソナルコンピュータを使用可能であり、プレゼンテーションソフトが生成するスライドやその他の画像のデータをプロジェクタ装置1にネットワークNWを経由して供給して投影させる。
ただし、PC端末2とプロジェクタ装置1との接続形態は、ネットワーク接続に限らず、USB(Universal Serial Bus)接続やRS−232Cとのシリアル通信等であっても良い。
ただし、PC端末2とプロジェクタ装置1との接続形態は、ネットワーク接続に限らず、USB(Universal Serial Bus)接続やRS−232Cとのシリアル通信等であっても良い。
複合機3は画像読取装置としてスキャナを備えており、原稿を読み取った上で紙出力に最適な(原稿画像を忠実に転写紙上に再現するような)画像処理を行った上で複写画像を出力することができる。
それとともに、複合機3は読取画像に対してディスプレイ表示に最適な画像処理を加えた上でJPEG(Joint Photographic Experts Group)等の画像フォーマットに変換する。そして、内蔵するNIC(ネットワーク・インタフェース・コントローラ)を用いてネットワークNWに接続して画像データを外部、特に本実施形態ではプロジェクタ装置1に供給することが出来る。
それとともに、複合機3は読取画像に対してディスプレイ表示に最適な画像処理を加えた上でJPEG(Joint Photographic Experts Group)等の画像フォーマットに変換する。そして、内蔵するNIC(ネットワーク・インタフェース・コントローラ)を用いてネットワークNWに接続して画像データを外部、特に本実施形態ではプロジェクタ装置1に供給することが出来る。
プロジェクタ装置1は、このような外部装置から入力された投影用画像データに対して画像投影に最適な画像処理を施した上で、投影用画像データに基づく投影画像を投影面S投影する。
投影面Sとしては、プロジェクタ投影専用のスクリーンを用いることで高品質な投影画像が可能である。しかし、特に高画質で投影を行う必要が無い場合は白色あるいは淡いパステルカラーを有する会議室の壁面への投影で代替したり、ホワイトボードを投影面として用いることも出来る。
なお、本実施形態のプロジェクタ装置1が行う画像処理は、投影面Sに汚れや模様等の領域があり、投影画像内の表示対象が(少なくともその一部分で)汚れ領域と一致する(重なり合う)ことで投影画像の視認性に影響がでる場合に、投影画像を加工して視認性を確保する処理を含む。
なお、以下の説明では、投影画像に含まれるグラフィックやテキストなどの表示対象を「オブジェクト」と記載する。
投影面Sとしては、プロジェクタ投影専用のスクリーンを用いることで高品質な投影画像が可能である。しかし、特に高画質で投影を行う必要が無い場合は白色あるいは淡いパステルカラーを有する会議室の壁面への投影で代替したり、ホワイトボードを投影面として用いることも出来る。
なお、本実施形態のプロジェクタ装置1が行う画像処理は、投影面Sに汚れや模様等の領域があり、投影画像内の表示対象が(少なくともその一部分で)汚れ領域と一致する(重なり合う)ことで投影画像の視認性に影響がでる場合に、投影画像を加工して視認性を確保する処理を含む。
なお、以下の説明では、投影画像に含まれるグラフィックやテキストなどの表示対象を「オブジェクト」と記載する。
また、投影画像の視認性に影響を与える領域として特に「汚れ」領域を例にとって説明するが、これに限定されることはなく投影面Sに施された模様など投影画像の視認性に影響を与える領域全般を含むものとする。
さらに、投影画像内のオブジェクトが(少なくともその一部分)で汚れ領域と一致する状態として投影面上の投影画像領域内でオブジェクトを囲む矩形領域が汚れ領域と重なりあう場合を例示するが、必ずしもそのような場合に限定される訳ではない。
例えば領域同士が重なり合わずともオブジェクトと汚れを囲む夫々の矩形領域が密接する(辺を共有する)場合も含む。
さらに、投影画像内のオブジェクトが(少なくともその一部分)で汚れ領域と一致する状態として投影面上の投影画像領域内でオブジェクトを囲む矩形領域が汚れ領域と重なりあう場合を例示するが、必ずしもそのような場合に限定される訳ではない。
例えば領域同士が重なり合わずともオブジェクトと汚れを囲む夫々の矩形領域が密接する(辺を共有する)場合も含む。
図2は、本発明の第1の実施の形態に係るプロジェクタ装置の機能構成を示すブロック図である。
図2に示すプロジェクタ装置1は、コントローラ10と、汚れ検出部11と、光学部としての画像投影部12と、画像処理部13と、操作入力部14と、投射レンズ15と、入力部16を備えている。
入力部16は、USBポートやEternetアダプタ等を含み、PC端末2や複合機3からUSB通信やLAN等によって画像データを入力される。
コントローラ10は、制御プログラムを実行することによりプロジェクタ装置全体の制御を行うCPUと、制御プログラム及び各種のデータを格納するROM(Read Only Memory)と、制御プログラムや一時データが展開されるRAM(Random Access Memory)等を備えている。
入力部16を介して、PC端末2や複合機3等の外部機器より入力された投影用画像データは、コントローラ10を介して画像処理部13へ入力される。
図2に示すプロジェクタ装置1は、コントローラ10と、汚れ検出部11と、光学部としての画像投影部12と、画像処理部13と、操作入力部14と、投射レンズ15と、入力部16を備えている。
入力部16は、USBポートやEternetアダプタ等を含み、PC端末2や複合機3からUSB通信やLAN等によって画像データを入力される。
コントローラ10は、制御プログラムを実行することによりプロジェクタ装置全体の制御を行うCPUと、制御プログラム及び各種のデータを格納するROM(Read Only Memory)と、制御プログラムや一時データが展開されるRAM(Random Access Memory)等を備えている。
入力部16を介して、PC端末2や複合機3等の外部機器より入力された投影用画像データは、コントローラ10を介して画像処理部13へ入力される。
画像処理部13は、入力された投影用画像データに下記に説明するような補正(加工)を施し、コントローラ10を介して画像投影部12へ送信して投影面Sに画像を投影させる。
画像投影部12は、画像処理部13によって処理された投影用画像データに基づく投影画像を投射レンズ15から投影面Sに向けて投影する。
操作入力部14は、利用者がプロジェクタ装置1を操作するときのマンマシンインターフェイスとなるボタン等の操作手段であり、コントローラ10に対して投影の開始、汚れ検出の開始等を指示する。
画像投影部12は、画像処理部13によって処理された投影用画像データに基づく投影画像を投射レンズ15から投影面Sに向けて投影する。
操作入力部14は、利用者がプロジェクタ装置1を操作するときのマンマシンインターフェイスとなるボタン等の操作手段であり、コントローラ10に対して投影の開始、汚れ検出の開始等を指示する。
汚れ検出部(検出手段)11は、プロジェクタ装置1が投影する投影面Sの汚れ位置を検出する。
具体的には外部機器であるデジタルカメラ(撮像装置)4により撮影され、入力部16から入力された投影面Sの撮像データを用いて投影面S上に存在する汚れや模様等の投影画像の視認性に影響を与える領域の位置情報を検出する。
なお、投影面Sをデジタルカメラ4で撮像する際には、PC端末2において全体が白色の(基準画像)全白画像を形成してプロジェクタ装置1に供給する。
そして、プロジェクタ装置1によって投影面Sに投射された全白画像を撮影した画像を用いて、下記に示す方法で投影面S(投影画像領域200)の汚れ位置を検出する。
全白の基準画像を撮像した撮像データを用いることにより、単に投影面Sを撮像したデータを用いるのに比べて投影領域内の汚れや模様等の投影画像の視認性に影響を与える領域の座標(位置情報)を正確に検出することが出来る。
具体的には外部機器であるデジタルカメラ(撮像装置)4により撮影され、入力部16から入力された投影面Sの撮像データを用いて投影面S上に存在する汚れや模様等の投影画像の視認性に影響を与える領域の位置情報を検出する。
なお、投影面Sをデジタルカメラ4で撮像する際には、PC端末2において全体が白色の(基準画像)全白画像を形成してプロジェクタ装置1に供給する。
そして、プロジェクタ装置1によって投影面Sに投射された全白画像を撮影した画像を用いて、下記に示す方法で投影面S(投影画像領域200)の汚れ位置を検出する。
全白の基準画像を撮像した撮像データを用いることにより、単に投影面Sを撮像したデータを用いるのに比べて投影領域内の汚れや模様等の投影画像の視認性に影響を与える領域の座標(位置情報)を正確に検出することが出来る。
なお、投射面Sに対する全白画像の投影領域は、投影画像を投影する投影領域と同じ領域である必要がある。汚れや模様等に干渉される(汚れと重なる)オブジェクトがあるか否かは、投影画像内のオブジェクトの位置座標と汚れや模様等の位置座標を同一の座標空間内で比較する必要があるからである。
なお以下の説明では、デジタルカメラ等で撮像されプロジェクタ装置1において投影面Sの汚れ検出に供される投影面S(投影画像領域200)の画像データ(撮像データ)を「汚れ検出用画像データ」と呼称する。
なお、デジタルカメラ4にて投影画像領域200の画像データを取得する際には、プロジェクタ装置1の投射レンズの画角と、デジタルカメラ4のレンズの画角を等しくし、プロジェクタ装置1による投影画像領域200全体が撮像データに収まるようにする必要がある。
図1ではデジタルカメラ4をプロジェクタ装置1に外付けする態様を示したが、撮像レンズ及び撮像センサよりなる撮像手段をプロジェクタ装置1に組み込み、上記した全白画像を投射面Sに投射すると同時に投影画像領域200の撮像データを取得する構成が望ましい。
また、コントローラ10は、画像投影に先だって投射面Sの画像を取得するために、不図示の撮像手段を制御可能である。
なお以下の説明では、デジタルカメラ等で撮像されプロジェクタ装置1において投影面Sの汚れ検出に供される投影面S(投影画像領域200)の画像データ(撮像データ)を「汚れ検出用画像データ」と呼称する。
なお、デジタルカメラ4にて投影画像領域200の画像データを取得する際には、プロジェクタ装置1の投射レンズの画角と、デジタルカメラ4のレンズの画角を等しくし、プロジェクタ装置1による投影画像領域200全体が撮像データに収まるようにする必要がある。
図1ではデジタルカメラ4をプロジェクタ装置1に外付けする態様を示したが、撮像レンズ及び撮像センサよりなる撮像手段をプロジェクタ装置1に組み込み、上記した全白画像を投射面Sに投射すると同時に投影画像領域200の撮像データを取得する構成が望ましい。
また、コントローラ10は、画像投影に先だって投射面Sの画像を取得するために、不図示の撮像手段を制御可能である。
ここで、投射レンズ15を含む画像投影部12の構成について詳述する。
図3は、投射レンズを含む本実施形態に係るプロジェクタ装置の画像投影部の構成の一例を説明する図である。
図3に示すように液晶プロジェクタ装置1は、画像投影部12として、光源としてのランプLの出射面に対向して配置された第1のレンズアレイ52と、その出射側に配置された重畳レンズ54と、を備えている。
重畳レンズ54から出射された光は、反射ミラー55により反射されて、ダイクロイックミラー60、61と、反射ミラー68とを含む色光分離光学系53に入射される。
図3は、投射レンズを含む本実施形態に係るプロジェクタ装置の画像投影部の構成の一例を説明する図である。
図3に示すように液晶プロジェクタ装置1は、画像投影部12として、光源としてのランプLの出射面に対向して配置された第1のレンズアレイ52と、その出射側に配置された重畳レンズ54と、を備えている。
重畳レンズ54から出射された光は、反射ミラー55により反射されて、ダイクロイックミラー60、61と、反射ミラー68とを含む色光分離光学系53に入射される。
画像投影部12はさらに、入射側レンズ59と、リレーレンズ56と、反射ミラー57、58と、3枚のフィールドレンズ62、65、66と、3枚の液晶パネル12R、12G、12Bと、クロスダイクロイックプリズム64と、を備えている。
反射ミラー55は、重畳レンズ54から射出された光を色光分離光学系53の方向に反射する機能を有している。色光分離光学系53は、2枚のダイクロイックミラー61、60により、重畳レンズ54から射出される光を、赤、緑、青の3色の色光に分離する機能を有している。
反射ミラー55は、重畳レンズ54から射出された光を色光分離光学系53の方向に反射する機能を有している。色光分離光学系53は、2枚のダイクロイックミラー61、60により、重畳レンズ54から射出される光を、赤、緑、青の3色の色光に分離する機能を有している。
第1のダイクロイックミラー61は、重畳レンズ54から射出される光のうち赤色光成分を透過させるとともに、青色光成分と緑色光成分とを反射する。第1のダイクロイックミラー61を透過した赤色光は、反射ミラー68で反射され、フィールドレンズ66を通って赤光用の液晶パネル12Rに達する。このフィールドレンズ66は、重畳レンズ54から射出された各部分光束をその中心軸(主光線)に対して平行な光束に変換する。他の液晶パネルの前に設けられたフィールドレンズ62、65も同様である。
第1のダイクロイックミラー61で反射された青色光と緑色光のうちで、緑色光は第2のダイクロイックミラー60によって反射され、フィールドレンズ65を通って緑光用の液晶パネル12Gに達する。一方、青色光は、第2のダイクロイックミラー60を透過し、導光光学系、すなわち、入射側レンズ59を透過し、反射ミラー57で反射し、リレーレンズ56を透過して反射ミラー58で反射する。
第1のダイクロイックミラー61で反射された青色光と緑色光のうちで、緑色光は第2のダイクロイックミラー60によって反射され、フィールドレンズ65を通って緑光用の液晶パネル12Gに達する。一方、青色光は、第2のダイクロイックミラー60を透過し、導光光学系、すなわち、入射側レンズ59を透過し、反射ミラー57で反射し、リレーレンズ56を透過して反射ミラー58で反射する。
さらに青色光は、フィールドレンズ62を通って青色光用の液晶パネル12Bに達する。
3つの液晶パネル12R、12G、12Bは、入射した光を、コントローラ10から与えられた画像情報(画像信号)に従って変調する光変調手段としての機能を有している。
これにより、3つの液晶パネル12R、12G、12Bに入射した各色光は、与えられた画像情報に従って変調されて各色光の画像を形成する。3つの液晶パネル12R、12G、12Bから射出された3色の変調光は、クロスダイクロイックプリズム64に入射する。
クロスダイクロイックプリズム64は、3色の変調光を合成してカラー画像を形成する。クロスダイクロイックプリズム64には、赤光を反射する誘電体多層膜と、青光を反射する誘電体多層膜と、が4つの直角プリズムの界面に略X字状に形成されている。これらの誘電体多層膜によって3色の変調光が合成されて、カラー画像を投写するための合成光が形成される。クロスダイクロイックプリズム64で生成された合成光は、投射レンズ15の方向に射出される。
3つの液晶パネル12R、12G、12Bは、入射した光を、コントローラ10から与えられた画像情報(画像信号)に従って変調する光変調手段としての機能を有している。
これにより、3つの液晶パネル12R、12G、12Bに入射した各色光は、与えられた画像情報に従って変調されて各色光の画像を形成する。3つの液晶パネル12R、12G、12Bから射出された3色の変調光は、クロスダイクロイックプリズム64に入射する。
クロスダイクロイックプリズム64は、3色の変調光を合成してカラー画像を形成する。クロスダイクロイックプリズム64には、赤光を反射する誘電体多層膜と、青光を反射する誘電体多層膜と、が4つの直角プリズムの界面に略X字状に形成されている。これらの誘電体多層膜によって3色の変調光が合成されて、カラー画像を投写するための合成光が形成される。クロスダイクロイックプリズム64で生成された合成光は、投射レンズ15の方向に射出される。
図4は、本実施形態の汚れ検出部による汚れ検出処理を示すフローチャートである。
まず、汚れ検出部11は汚れ検出用画像データから先頭の1画素を抽出する(ステップS101)。
次に、汚れ検出部11は抽出した画素のRGB値を輝度値(Yデータ)に変換する(ステップS102)。
なお、RGB値の輝度値Yへの変換は例えば以下の式(1)に従えば良い。
Y=0.3×R+0.6×G+0.1×B・・・(1)
次に、汚れ検出部11は輝度値Yが所定の汚れ閾値(th_dirt)よりも大きいか否かの判断を行う(ステップS103)。
まず、汚れ検出部11は汚れ検出用画像データから先頭の1画素を抽出する(ステップS101)。
次に、汚れ検出部11は抽出した画素のRGB値を輝度値(Yデータ)に変換する(ステップS102)。
なお、RGB値の輝度値Yへの変換は例えば以下の式(1)に従えば良い。
Y=0.3×R+0.6×G+0.1×B・・・(1)
次に、汚れ検出部11は輝度値Yが所定の汚れ閾値(th_dirt)よりも大きいか否かの判断を行う(ステップS103)。
一般に、投影面Sにおける汚れている箇所は、汚れの無い箇所よりも入力画像データの輝度が低くなるため、輝度値Yが汚れ閾値(th_dirt)よりも大きいか否かの判断を行うことで汚れの位置の検出が可能である。
輝度値Yが汚れ閾値よりも小さい場合(ステップS103でYes)、その画素は汚れ画素と判断される。従って汚れ検出部11は、汚れ検出用画像データの各画素に対応する汚れ有無ビットの値を“1”として、汚れ検出部11が備える不図示のメモリに記憶する(コントローラ10が有するRAMに記憶しても良い)(ステップS104)。
なおメモリには投影用画像データに含まれる画素毎に(画像サイズ分の)汚れ有無ビットを記憶でき、汚れ有無ビットの値は“0”に初期化されているものとする。
従って、汚れ検出用画像データの全ての画素について閾値との比較を行った結果として、汚れを伴う「汚れ画素」に対応する汚れ有無ビット(値は“1”)、汚れを伴わない「非汚れ画素」に対応する汚れ有無ビット(値は“0”)が、夫々メモリに記憶される。
輝度値Yが汚れ閾値よりも小さい場合(ステップS103でYes)、その画素は汚れ画素と判断される。従って汚れ検出部11は、汚れ検出用画像データの各画素に対応する汚れ有無ビットの値を“1”として、汚れ検出部11が備える不図示のメモリに記憶する(コントローラ10が有するRAMに記憶しても良い)(ステップS104)。
なおメモリには投影用画像データに含まれる画素毎に(画像サイズ分の)汚れ有無ビットを記憶でき、汚れ有無ビットの値は“0”に初期化されているものとする。
従って、汚れ検出用画像データの全ての画素について閾値との比較を行った結果として、汚れを伴う「汚れ画素」に対応する汚れ有無ビット(値は“1”)、汚れを伴わない「非汚れ画素」に対応する汚れ有無ビット(値は“0”)が、夫々メモリに記憶される。
次に、汚れ検出部11は汚れ検出用画像データの全画素について閾値との比較が終了したか否かを判断し、終了していれば(ステップS105でYes)、処理を終了する。
まだ、閾値との比較が終了していない画素があれば(ステップS105でNo)、ステップS101に戻って次の画素について閾値との比較処理を続行する。
また、輝度値Yが汚れ閾値よりも大きい場合も(ステップS103でNo)、その画素は汚れていないと判断されるため、汚れ検出部11はステップS101に戻り、次の画素について閾値との比較処理を行う。
まだ、閾値との比較が終了していない画素があれば(ステップS105でNo)、ステップS101に戻って次の画素について閾値との比較処理を続行する。
また、輝度値Yが汚れ閾値よりも大きい場合も(ステップS103でNo)、その画素は汚れていないと判断されるため、汚れ検出部11はステップS101に戻り、次の画素について閾値との比較処理を行う。
この後、汚れ検出部11は、下記に説明するようにメモリに記憶された汚れ検出用画像データ内の画素毎の汚れの有無の情報に基づいて、汚れ画素を一塊とするクラスタリングを行う。
クラスタ分類では、メモリに記憶した汚れ有無の検出結果を入力として、画素位置(座標位置)に基づいて各汚れ画素を実質的に同一領域に含まれるとみなせるクラスタに分類する。
なお、「実質的に同一」とは、汚れ画素同士の距離が近く一塊とみなせることを意味している。
クラスタ分類では、メモリに記憶した汚れ有無の検出結果を入力として、画素位置(座標位置)に基づいて各汚れ画素を実質的に同一領域に含まれるとみなせるクラスタに分類する。
なお、「実質的に同一」とは、汚れ画素同士の距離が近く一塊とみなせることを意味している。
図5は、汚れ検出部による汚れ画素のクラスタ分類処理を説明するフローチャートである。
まず、汚れ検出部11は、クラスタ数Nを初期化する(N=0)(ステップ201)。
次に汚れ検出部11は、汚れ検出用画像データ中の画素について、先頭画素から1つずつ汚れの有無を判断する(ステップS202)。
図4の処理によって汚れ検出用画像データに含まれる各画素の汚れの有無は既知であり、判断対象画素の汚れ有無ビットが”1”のとき、汚れ画素と判断できる。
汚れ検出部11は、判断対象画素に係る汚れ有無ビットが“0”である場合(ステップS203でNo)、その判断対象画素は非汚れ画素であると判断し、その判断対象画素が汚れ検出用画像データに含まれる最後の画素であるかを判断する(ステップS204)。
判断対象画素が最後の汚れ検出用画像データに含まれる最後の画素である場合は(ステップS204でYes)、汚れ検出部11はここで処理を終了する。
判断対象画素が最後の汚れ検出用画像データに含まれる最後の画素でない場合は(ステップS204でNo)、汚れ検出部11は、ステップS202に戻り、次の画素について汚れの有無の判断を行う。
汚れ有無ビットが“1”の画素、すなわち「汚れ画素」が見つかった場合(ステップS203でYes)、汚れ検出部11は、それが最初に見つかった汚れ画素であるかを判断する(ステップS204)。
なお、ステップS203の判断で見つかった汚れ画素を以降の処理における「注目画素」に設定する。
まず、汚れ検出部11は、クラスタ数Nを初期化する(N=0)(ステップ201)。
次に汚れ検出部11は、汚れ検出用画像データ中の画素について、先頭画素から1つずつ汚れの有無を判断する(ステップS202)。
図4の処理によって汚れ検出用画像データに含まれる各画素の汚れの有無は既知であり、判断対象画素の汚れ有無ビットが”1”のとき、汚れ画素と判断できる。
汚れ検出部11は、判断対象画素に係る汚れ有無ビットが“0”である場合(ステップS203でNo)、その判断対象画素は非汚れ画素であると判断し、その判断対象画素が汚れ検出用画像データに含まれる最後の画素であるかを判断する(ステップS204)。
判断対象画素が最後の汚れ検出用画像データに含まれる最後の画素である場合は(ステップS204でYes)、汚れ検出部11はここで処理を終了する。
判断対象画素が最後の汚れ検出用画像データに含まれる最後の画素でない場合は(ステップS204でNo)、汚れ検出部11は、ステップS202に戻り、次の画素について汚れの有無の判断を行う。
汚れ有無ビットが“1”の画素、すなわち「汚れ画素」が見つかった場合(ステップS203でYes)、汚れ検出部11は、それが最初に見つかった汚れ画素であるかを判断する(ステップS204)。
なお、ステップS203の判断で見つかった汚れ画素を以降の処理における「注目画素」に設定する。
注目画素が、最初に見つかった汚れ画素である場合(ステップS205でYes)、クラスタ数NはN=0に初期化された状態である。従って、汚れ検出部11はクラスタ番号1を新規クラスタとして追加し、クラスタ数をN=1に設定、さらにクラスタ番号1の画素数をn(1)=0に設定する(ステップS206)。
さらに、汚れ検出部11は注目画素の画素位置(座標)を新規クラスタ1の平均画素位置に設定する(ステップS207)
次に、汚れ検出部11は、新規クラスタのX軸方向、Y軸方向の最大値、最小値を、注目画素の画素位置に設定する(ステップS208)。
次に、汚れ検出部11は、注目画素が汚れ検出用画像データに含まれる最後の画素であるかを判断する(ステップS210)。
注目画素が汚れ検出用画像データに含まれる最後の画素であれば(ステップS210でYes)、汚れ検出部11はクラスタ分類処理を終了する。
注目画素が汚れ検出用画像データに含まれる最後の画素でなければ(ステップS210でNo)、汚れ検出部11は、ステップS202に戻り次の画素について汚れの有無を判断する。
さらに、汚れ検出部11は注目画素の画素位置(座標)を新規クラスタ1の平均画素位置に設定する(ステップS207)
次に、汚れ検出部11は、新規クラスタのX軸方向、Y軸方向の最大値、最小値を、注目画素の画素位置に設定する(ステップS208)。
次に、汚れ検出部11は、注目画素が汚れ検出用画像データに含まれる最後の画素であるかを判断する(ステップS210)。
注目画素が汚れ検出用画像データに含まれる最後の画素であれば(ステップS210でYes)、汚れ検出部11はクラスタ分類処理を終了する。
注目画素が汚れ検出用画像データに含まれる最後の画素でなければ(ステップS210でNo)、汚れ検出部11は、ステップS202に戻り次の画素について汚れの有無を判断する。
ステップS205において、注目画素が最初に見つかった汚れ画素ではないと判断された場合(ステップS205でNo)、既にクラスタが追加されているということである。
従って、汚れ検出部11は、ステップS211に進んで、注目画素と、現時点で存在する各クラスタの平均画素位置との距離を下記の式(2)により求める。
距離=(ΔX2+ΔY2)1/2・・・式(2)
ここで、ΔX、ΔYは、注目画素と各クラスタの平均画素位置とのX軸方向、Y軸方向の差分値である。
そして、汚れ検出部11は、ステップS210で求めた距離が最小となるクラスタの番号を抽出(取得)し、そのクラスタ番号jとそのクラスタとの距離:d_minを保持する(ステップS212)。
従って、汚れ検出部11は、ステップS211に進んで、注目画素と、現時点で存在する各クラスタの平均画素位置との距離を下記の式(2)により求める。
距離=(ΔX2+ΔY2)1/2・・・式(2)
ここで、ΔX、ΔYは、注目画素と各クラスタの平均画素位置とのX軸方向、Y軸方向の差分値である。
そして、汚れ検出部11は、ステップS210で求めた距離が最小となるクラスタの番号を抽出(取得)し、そのクラスタ番号jとそのクラスタとの距離:d_minを保持する(ステップS212)。
次に、汚れ検出部11は、ステップS212で求めた距離d_minが予め設定された閾値d_th以下であるかを判断する(ステップS213)。
d_min<d_thであれば(ステップS213でYes)、汚れ検出部11は注目画素をクラスタjに追加し(ステップS214)、当該クラスタjの平均画素位置を再計算する(ステップS215)。
なお、平均画素位置の再計算は、現在の平均画素位置を(Ave_x,Ave_y)、注目画素位置を(x,y)とすると、下記の式(3)、式(4)によって行うことが出来る。
再計算後の平均画素位置(Ave_x’,Ave_y’)は、
Ave_x’=(Ave_x+x)/2・・・(3)
Ave_y’=(Ave_y+y)/2・・・(4)
として求めることが出来る。
d_min<d_thであれば(ステップS213でYes)、汚れ検出部11は注目画素をクラスタjに追加し(ステップS214)、当該クラスタjの平均画素位置を再計算する(ステップS215)。
なお、平均画素位置の再計算は、現在の平均画素位置を(Ave_x,Ave_y)、注目画素位置を(x,y)とすると、下記の式(3)、式(4)によって行うことが出来る。
再計算後の平均画素位置(Ave_x’,Ave_y’)は、
Ave_x’=(Ave_x+x)/2・・・(3)
Ave_y’=(Ave_y+y)/2・・・(4)
として求めることが出来る。
次に、汚れ検出部11は、クラスタjに分類されている(含まれている)画素集合のX軸方向、Y軸方向の最小値、最大値を再計算する(ステップS216)。
これは、クラスタjに含まれる画素領域を矩形領域とみなして、左上と、右下の頂点座標を求めることを意味している(後の画像認識部22による処理で、オブジェクト領域と汚れ領域dirtの重なりを認識する際に用いる)。
そして、汚れ検出部11は、ステップS210に処理を移し、注目画素が汚れ検出用画像データに含まれる最後の画素であれば(ステップS210でYes)クラスタ分類処理を終了する。
これは、クラスタjに含まれる画素領域を矩形領域とみなして、左上と、右下の頂点座標を求めることを意味している(後の画像認識部22による処理で、オブジェクト領域と汚れ領域dirtの重なりを認識する際に用いる)。
そして、汚れ検出部11は、ステップS210に処理を移し、注目画素が汚れ検出用画像データに含まれる最後の画素であれば(ステップS210でYes)クラスタ分類処理を終了する。
注目画素が汚れ検出用画像データに含まれる最後の画素でなければ(ステップS210でNo)、汚れ検出部11は、ステップS202に戻り次の画素について汚れの有無を判断する。
ステップS213の判断において、距離d_minが予め設定された閾値d_thより大きければ(ステップS213でNo)、汚れ検出部11は注目画素がクラスタjに属するとはみなさない。そして、汚れ検出部11はステップS206に処理を移して新規クラスタを追加し、上記に説明したステップS207〜ステップS210の処理を行う。
すなわち、閾値d_thが新規クラスタを追加するか否かの判断の境界となる距離であり、どの程度の距離範囲にあればひとつのクラスタとしてまとめるかを考慮して、d_thを予め設定する。
汚れ検出用画像データに含まれる全ての汚れ画素のクラスタリングが終了した時点で、投影画像領域200における全ての汚れ領域の平均画素位置、汚れ領域を矩形領域とみなした場合の開始座標(左上頂点座標)と終了座標(右下頂点座標)を得ることができる。
また、汚れ検出部11は、各クラスタを構成する画素のRGB値に基づきクラスタの「平均RGB値」を求め、「平均画素位置」、「開始座標と終了座標」、「平均RGB値」の3つを「汚れ情報」としてメモリに保持し、必要に応じて画像処理部13に提供する。
ステップS213の判断において、距離d_minが予め設定された閾値d_thより大きければ(ステップS213でNo)、汚れ検出部11は注目画素がクラスタjに属するとはみなさない。そして、汚れ検出部11はステップS206に処理を移して新規クラスタを追加し、上記に説明したステップS207〜ステップS210の処理を行う。
すなわち、閾値d_thが新規クラスタを追加するか否かの判断の境界となる距離であり、どの程度の距離範囲にあればひとつのクラスタとしてまとめるかを考慮して、d_thを予め設定する。
汚れ検出用画像データに含まれる全ての汚れ画素のクラスタリングが終了した時点で、投影画像領域200における全ての汚れ領域の平均画素位置、汚れ領域を矩形領域とみなした場合の開始座標(左上頂点座標)と終了座標(右下頂点座標)を得ることができる。
また、汚れ検出部11は、各クラスタを構成する画素のRGB値に基づきクラスタの「平均RGB値」を求め、「平均画素位置」、「開始座標と終了座標」、「平均RGB値」の3つを「汚れ情報」としてメモリに保持し、必要に応じて画像処理部13に提供する。
図6は、本発明の第1の実施形態のプロジェクタ装置における画像処理部の構成を示す図である。
図6に示すように、画像処理部13(図2)は、画像処理コントローラ21と、画像認識部22と、画像加工部23と、重要度判定部24と、を備えている。
画像処理コントローラ21は、図2に示すコントローラ10と通信し、汚れ検出部11から送られてきた汚れ情報(上記「汚れ領域」の「開始座標」、「終了座標」)を取得する。それとともに、画像処理コントローラ21は、PC端末2等の外部機器から入力された投影用画像データを取得して必要に応じてメモリに展開する。
画像認識部22は、投影用画像データに含まれる表示対象としてのテキスト、グラフィック等のオブジェクトを認識し、それらのオブジェクトの属性や位置、大きさを認識する。
図6に示すように、画像処理部13(図2)は、画像処理コントローラ21と、画像認識部22と、画像加工部23と、重要度判定部24と、を備えている。
画像処理コントローラ21は、図2に示すコントローラ10と通信し、汚れ検出部11から送られてきた汚れ情報(上記「汚れ領域」の「開始座標」、「終了座標」)を取得する。それとともに、画像処理コントローラ21は、PC端末2等の外部機器から入力された投影用画像データを取得して必要に応じてメモリに展開する。
画像認識部22は、投影用画像データに含まれる表示対象としてのテキスト、グラフィック等のオブジェクトを認識し、それらのオブジェクトの属性や位置、大きさを認識する。
また、画像認識部22は投影画像領域200における描画情報を検出する。
また、画像認識部22は、汚れ検出部11から送信された「汚れ情報」に基づいて、オブジェクトと「汚れ領域」との重なりを識別し、投影画像領域200における「重なり領域(オブジェクトと汚れ領域との一致領域)」の位置を画像加工部23へ送信する。このとき、画像認識部22はオブジェクトと「汚れ領域」との重なりの有無を判定する判定手段として機能している。
また、画像認識部22は、汚れ検出部11から送信された「汚れ情報」に基づいて、オブジェクトと「汚れ領域」との重なりを識別し、投影画像領域200における「重なり領域(オブジェクトと汚れ領域との一致領域)」の位置を画像加工部23へ送信する。このとき、画像認識部22はオブジェクトと「汚れ領域」との重なりの有無を判定する判定手段として機能している。
重要度判定部24は、投影用画像データに含まれるオブジェクトの描画情報に基づき重要度判定を行う。
例えば重要度判定部24は、オブジェクトの描画色に基づいて、オブジェクトの彩度値を求める。そして、予め定めた彩度閾値と、求めたオブジェクトの彩度値との比較を行い、彩度値が高いオブジェクトほど重要度が高いという判定を行う。
彩度閾値を段階的に定め重要度を複数段階に分けて判定してもよい。これにより、赤色など注目を促すような色を持つオブジェクトについて、汚れとの干渉をさける処理を行ってその視認性を高めることができる。
例えば重要度判定部24は、オブジェクトの描画色に基づいて、オブジェクトの彩度値を求める。そして、予め定めた彩度閾値と、求めたオブジェクトの彩度値との比較を行い、彩度値が高いオブジェクトほど重要度が高いという判定を行う。
彩度閾値を段階的に定め重要度を複数段階に分けて判定してもよい。これにより、赤色など注目を促すような色を持つオブジェクトについて、汚れとの干渉をさける処理を行ってその視認性を高めることができる。
また、重要度の判定基準をオブジェクトの大きさとし、オブジェクトの大きさが大きいほど重要度が高いと判定するようにしてもよい。その場合、所定の大きさの閾値を超えるオブジェクトを重要度が高いと見なすようにしても良い。これにより、タイトル文字など注目を促すような大きさを持つオブジェクトの視認性を高めることができる。
画像加工部23は、画像認識部22から送信された「重なり領域」位置を読み込むとともに、重要度判定部24から送信されたオブジェクトの重要度に基づいて、重要度の高いオブジェクトに対して投影画像内の描画位置の移動を行う。
画像加工部23は、画像認識部22から送信された「重なり領域」位置を読み込むとともに、重要度判定部24から送信されたオブジェクトの重要度に基づいて、重要度の高いオブジェクトに対して投影画像内の描画位置の移動を行う。
図7は、投影面の汚れに応じた投影画像におけるオブジェクトの移動処理の一例を示す図である。
図7(a)は汚れのある投影面Sに投影用画像をそのまま投影した場合の投影状態を表している。
画像認識部22は、汚れ検出部11から入力される「汚れ情報」から、投影面S上の投影画像領域200における汚れ領域dirtの開始座標(S_dirt)と終了座標(E_dirt)を識別可能である。
本実施形態の場合、投影画像は文字オブジェクトobj1とグラフィックオブジェクトobj2の2つを含むものとする。
画像認識部22は、投影画像領域200内のオブジェクトの描画位置として、オブジェクトobj1の描画開始座標S_obj1及び描画終了座標E_obj1と、オブジェクトobj2の描画開始座標S_obj2及び描画終了座標E_obj2を検出する。
さらに、重要度判定部24(図6)が各オブジェクトの重要度を判定する。
この例では文字オブジェクトobj1は黒文字、グラフィックオブジェクトobj2は赤く色づけされた円グラフであるとする。
図7(a)は汚れのある投影面Sに投影用画像をそのまま投影した場合の投影状態を表している。
画像認識部22は、汚れ検出部11から入力される「汚れ情報」から、投影面S上の投影画像領域200における汚れ領域dirtの開始座標(S_dirt)と終了座標(E_dirt)を識別可能である。
本実施形態の場合、投影画像は文字オブジェクトobj1とグラフィックオブジェクトobj2の2つを含むものとする。
画像認識部22は、投影画像領域200内のオブジェクトの描画位置として、オブジェクトobj1の描画開始座標S_obj1及び描画終了座標E_obj1と、オブジェクトobj2の描画開始座標S_obj2及び描画終了座標E_obj2を検出する。
さらに、重要度判定部24(図6)が各オブジェクトの重要度を判定する。
この例では文字オブジェクトobj1は黒文字、グラフィックオブジェクトobj2は赤く色づけされた円グラフであるとする。
上記したように、オブジェクトの重要度は彩度値で判定するため、重要度判定部24(図6)によってグラフィックオブジェクトobj2の重要度が高いと判定され、描画位置の移動対象オブジェクトとなる。
図7(b)は、汚れとオブジェクトの重なり領域overの位置を認識して、オブジェクトの描画位置を移動した結果の投影状態を表している。
重なり領域overが発生しないように、画像加工部23において、グラフィックオブジェクトobj2の描画位置を上方向(描画開始座標S_obj2’,描画終了座標E_obj2’)へ移動して描画する。
なお、オブジェクトが汚れ領域と干渉される、とは互いの領域が相互に重なりあう場合のみを必ずしも意味する訳ではない。
領域同士が重なり合わずとも、図7に示すオブジェクトと汚れを囲む矩形領域が密接する(辺を共有する)場合、さらには互いの矩形領域の距離が所定の閾値距離よりも小さい距離で隣接する場合でもオブジェクトは視認を妨げられ易い。
図7(b)は、汚れとオブジェクトの重なり領域overの位置を認識して、オブジェクトの描画位置を移動した結果の投影状態を表している。
重なり領域overが発生しないように、画像加工部23において、グラフィックオブジェクトobj2の描画位置を上方向(描画開始座標S_obj2’,描画終了座標E_obj2’)へ移動して描画する。
なお、オブジェクトが汚れ領域と干渉される、とは互いの領域が相互に重なりあう場合のみを必ずしも意味する訳ではない。
領域同士が重なり合わずとも、図7に示すオブジェクトと汚れを囲む矩形領域が密接する(辺を共有する)場合、さらには互いの矩形領域の距離が所定の閾値距離よりも小さい距離で隣接する場合でもオブジェクトは視認を妨げられ易い。
図8は、汚れ領域と重要度が高いと判定されたオブジェクトとの重なり領域overを識別する画像認識部による処理を説明するフローチャートである。
画像認識部22は、汚れ検出部11から「汚れ情報」を入力される(ステップS301)。
次に画像認識部22は、汚れ検出部11から入力される「汚れ情報」に基づき、投影画像領域200における汚れ画素を1画素単位でメモリ上に展開する(ステップS302)。
画像認識部22は、汚れ画素であるか否かを1画素単位にてメモリ上のビット値(位置座標)で表す。例えば、投影画像領域200内において汚れ画素は汚れ有無ビット“1”、非汚れ画素は汚れ有無ビット“0”として展開される。
画像認識部22は、汚れ検出部11から「汚れ情報」を入力される(ステップS301)。
次に画像認識部22は、汚れ検出部11から入力される「汚れ情報」に基づき、投影画像領域200における汚れ画素を1画素単位でメモリ上に展開する(ステップS302)。
画像認識部22は、汚れ画素であるか否かを1画素単位にてメモリ上のビット値(位置座標)で表す。例えば、投影画像領域200内において汚れ画素は汚れ有無ビット“1”、非汚れ画素は汚れ有無ビット“0”として展開される。
次に、画像認識部22は投影画像に含まれるオブジェクトの描画開始座標と描画終了座標を取得する(ステップS303)。そして、画像認識部22は、投影画像領域200における描画範囲内の画素を1画素単位でメモリに展開する。
メモリ上において、オブジェクトの描画範囲内の画素は、オブジェクト有無ビット“1”、オブジェクトの描画範囲外の画素は、オブジェクト有無ビット“0”として展開される。
次に、画像認識部22は、そのオブジェクトの重要度が高いか否かを判断する(ステップS304)。
なおオブジェクトの重要度は、上記に説明した重要度判定部24による判定結果を用いる。
メモリ上において、オブジェクトの描画範囲内の画素は、オブジェクト有無ビット“1”、オブジェクトの描画範囲外の画素は、オブジェクト有無ビット“0”として展開される。
次に、画像認識部22は、そのオブジェクトの重要度が高いか否かを判断する(ステップS304)。
なおオブジェクトの重要度は、上記に説明した重要度判定部24による判定結果を用いる。
画像認識部22は、オブジェクトの重要度が高いと判断した場合(ステップS304でYes)、そのオブジェクトの描画範囲が、汚れ領域dirtと重なっているか否かを画素単位で認識し、重なっている画素をメモリに記憶する(ステップS305)。
例えば、ステップS302でメモリに展開された各位置座標の汚れ有無ビットの値(pix_dirt)と、ステップS303でメモリに展開されたオブジェクト有無ビットの値(pix_obj)を用い、同一座標の各ビット値をANDする。
これにより、画像認識部22は、汚れ画素に重なっているオブジェクトがあるか否かを判定することが出来る。
すなわち、pix_dirt(i,j)&pix_obj(i,j)=0ならば、汚れ領域dirtと重なっていない画素であり、pix_dirt(i,j)&pix_obj(i,j)=1ならば汚れ領域dirtと重なっている画素と判定できる。
なお、上の式でi,jは、投影画像領域200におけるX座標とY座標を表している。
例えば、ステップS302でメモリに展開された各位置座標の汚れ有無ビットの値(pix_dirt)と、ステップS303でメモリに展開されたオブジェクト有無ビットの値(pix_obj)を用い、同一座標の各ビット値をANDする。
これにより、画像認識部22は、汚れ画素に重なっているオブジェクトがあるか否かを判定することが出来る。
すなわち、pix_dirt(i,j)&pix_obj(i,j)=0ならば、汚れ領域dirtと重なっていない画素であり、pix_dirt(i,j)&pix_obj(i,j)=1ならば汚れ領域dirtと重なっている画素と判定できる。
なお、上の式でi,jは、投影画像領域200におけるX座標とY座標を表している。
図9は、図8のフローチャートにおける処理(ステップS305)を模式的に表した図である。
画像認識部22にメモリに展開される画素の情報は、投影面S上の画像投影領域200上のそれと同義と見なさせるため、図9では、図7と同じ符号を付して説明している。
図9(a)は、画像認識部22のメモリに展開された投影画像内の汚れ領域の座標位置を示しており、図中黒く塗りつぶした領域は、汚れ領域dirtに対応する汚れ有無ビットの値が“1”である画素の座標位置を示している。また、それ以外の白い領域は、汚れ有無ビットの値が“0”である画素の座標位置を示している。
画像認識部22にメモリに展開される画素の情報は、投影面S上の画像投影領域200上のそれと同義と見なさせるため、図9では、図7と同じ符号を付して説明している。
図9(a)は、画像認識部22のメモリに展開された投影画像内の汚れ領域の座標位置を示しており、図中黒く塗りつぶした領域は、汚れ領域dirtに対応する汚れ有無ビットの値が“1”である画素の座標位置を示している。また、それ以外の白い領域は、汚れ有無ビットの値が“0”である画素の座標位置を示している。
また図9(b)は、画像認識部22が有するメモリに展開されたオブジェクトの描画領域の位置座標を示している。
また、同図中黒く塗りつぶした領域は、各オブジェクト(obj1、obj2)に対応するオブジェクト有無ビットの値が“1”である画素の座標位置を示している。また、それ以外の白い領域は、オブジェクト有無ビットの値が“0”である画素の座標位置を示している。
また、同図中黒く塗りつぶした領域は、各オブジェクト(obj1、obj2)に対応するオブジェクト有無ビットの値が“1”である画素の座標位置を示している。また、それ以外の白い領域は、オブジェクト有無ビットの値が“0”である画素の座標位置を示している。
図9(c)は、汚れ領域dirtとオブジェクトobjとが重なっている重なり領域に含まれる画素の位置座標を示しており、図中黒く塗りつぶした領域は、投影画像領域200において汚れ領域とオブジェクトとが重なっている画素を示している。また、それ以外の白い領域は投影画像領域200において汚れ領域とオブジェクトとが重なっていない画素を示している。
また、画像認識部22は、汚れ領域dirtとオブジェクトobjとが重なっている画素領域(重なり領域over)の左上頂点座標(開始座標)S_over、右下頂点座標(終了座標)E_overを算出しておく。
また、画像認識部22は、汚れ領域dirtとオブジェクトobjとが重なっている画素領域(重なり領域over)の左上頂点座標(開始座標)S_over、右下頂点座標(終了座標)E_overを算出しておく。
図8に戻り、画像認識部22は、全てのオブジェクトについて汚れ領域との重なりの有無を判断したか否かを判定する(ステップS306)。
まだ重なりの有無を判定していないオブジェクトがある場合は(ステップS306でNo)、画像認識部22はステップS303に処理を戻し、次のオブジェクトについてステップS303乃至ステップS305の処理を繰り返す。判定をしていないオブジェクトがない場合は(ステップS306でYes)、画像認識部22は処理を終了する。
まだ重なりの有無を判定していないオブジェクトがある場合は(ステップS306でNo)、画像認識部22はステップS303に処理を戻し、次のオブジェクトについてステップS303乃至ステップS305の処理を繰り返す。判定をしていないオブジェクトがない場合は(ステップS306でYes)、画像認識部22は処理を終了する。
図10は、第1の実施形態に係る画像加工部(図6)によるオブジェクトの移動処理を示すフローチャートである。
図11は、図10の処理に対応する、汚れ領域と重ならないようにオブジェクトを移動する画像加工部による処理の模式図である。
なお、以下の説明では、グラフィックオブジェクトobj2に汚れ領域dirtが重なっているものとする。
グラフィックオブジェクトobj2は、記載の簡素化のため、以下では単にオブジェクトobj2と記載する。
画像加工部23は、投影画像領域200内のオブジェクトobj2の描画領域(オブジェクト領域)と、重なり領域overの中心座標をそれぞれ算出する(ステップS401)。
詳しくは、画像加工部23は、各領域の開始点と終了点の中点を中心座標として算出する(図11内のC_dirt、C_obj2)。
図11は、図10の処理に対応する、汚れ領域と重ならないようにオブジェクトを移動する画像加工部による処理の模式図である。
なお、以下の説明では、グラフィックオブジェクトobj2に汚れ領域dirtが重なっているものとする。
グラフィックオブジェクトobj2は、記載の簡素化のため、以下では単にオブジェクトobj2と記載する。
画像加工部23は、投影画像領域200内のオブジェクトobj2の描画領域(オブジェクト領域)と、重なり領域overの中心座標をそれぞれ算出する(ステップS401)。
詳しくは、画像加工部23は、各領域の開始点と終了点の中点を中心座標として算出する(図11内のC_dirt、C_obj2)。
次に、画像加工部23は重なり領域overが無くなるようにオブジェクト(オブジェクトobj2)の描画位置を移動させる移動方向を決定する(ステップS402)。
なお、シフトさせる方向は、ステップS401で求めた描画領域と重なり領域overの中心座標に基づき、描画領域の中心座標が重なり領域overの中心座標から離れる方向を求める。
画像加工部23は、図11に示すように、汚れ領域dirtの中心座標C_dirtから描画領域の中心座標C_obj2へ向かって伸ばした直線(矢印901)を移動方向として決定する。
なお、シフトさせる方向は、ステップS401で求めた描画領域と重なり領域overの中心座標に基づき、描画領域の中心座標が重なり領域overの中心座標から離れる方向を求める。
画像加工部23は、図11に示すように、汚れ領域dirtの中心座標C_dirtから描画領域の中心座標C_obj2へ向かって伸ばした直線(矢印901)を移動方向として決定する。
次に、画像加工部23はステップS402で決定した移動方向へ描画領域の中心座標C_obj2をシフトさせ、重なり領域overが無くなる位置(C_obj2’)まで描画領域の中心座標をシフトする(ステップS403)。
汚れ領域dirtとの重なりが無くなるかどうかは、上記した画像認識部22による処理の方法を用いればよい。
すなわち、オブジェクトobj2’に含まれる全ての画素についてpix_dirt(i,j)&pix_obj2’(i,j)=0が成立するならば重なり領域overはもはや存在しないと判定する。
描画位置をシフトした結果、オブジェクトobj2は、オブジェクトobj2’として投影領域200に表示される(図11)。
汚れ領域dirtとの重なりが無くなるかどうかは、上記した画像認識部22による処理の方法を用いればよい。
すなわち、オブジェクトobj2’に含まれる全ての画素についてpix_dirt(i,j)&pix_obj2’(i,j)=0が成立するならば重なり領域overはもはや存在しないと判定する。
描画位置をシフトした結果、オブジェクトobj2は、オブジェクトobj2’として投影領域200に表示される(図11)。
次に、画像加工部23は、重なり領域overを有する全オブジェクトに対して移動方向を決定したかを判定する(ステップS404)。
まだ判定していないオブジェクトがある場合(ステップS404でNo)は、画像加工部23は、ステップS401に戻り次のオブジェクトに対する処理を行う。
全オブジェクトに対して終了した場合(ステップS404でYes)、画像加工部23は処理を終了する。
まだ判定していないオブジェクトがある場合(ステップS404でNo)は、画像加工部23は、ステップS401に戻り次のオブジェクトに対する処理を行う。
全オブジェクトに対して終了した場合(ステップS404でYes)、画像加工部23は処理を終了する。
以上説明したように、本実施形態では、重要度が高いと判定されるオブジェクトについて投影面Sの汚れ領域dirtと重なる画素の位置を記憶し、そのオブジェクトを汚れ領域から離れるように描画位置をシフトする。
汚れ領域dirtを避けてオブジェクトを投影できるので、投影面に汚れ等がある場合でも投影面Sにおける重要度の高いオブジェクトの視認性を高めることができる。
汚れ領域dirtを避けてオブジェクトを投影できるので、投影面に汚れ等がある場合でも投影面Sにおける重要度の高いオブジェクトの視認性を高めることができる。
[第2の実施形態]
[第1の実施形態]では、汚れ領域dirtに重ならないように重要度の高いオブジェクトを移動させることにより重要度の高いオブジェクトの視認性を確保している。
それに対し、重要度の高いオブジェクトを縮小することで汚れ領域dirtに重ならないようにする方式でもよい。
図12は、汚れ領域と重ならないようにオブジェクトを縮小する画像加工部による処理の模式図である。
図13は、図12の処理に対応する、画像加工部による処理を示すフローチャートである。
[第1の実施形態]では、汚れ領域dirtに重ならないように重要度の高いオブジェクトを移動させることにより重要度の高いオブジェクトの視認性を確保している。
それに対し、重要度の高いオブジェクトを縮小することで汚れ領域dirtに重ならないようにする方式でもよい。
図12は、汚れ領域と重ならないようにオブジェクトを縮小する画像加工部による処理の模式図である。
図13は、図12の処理に対応する、画像加工部による処理を示すフローチャートである。
図11の場合と同様に、グラフィックオブジェクトobj2が汚れ領域dirtと重なっている(重なり領域overを有する)とする。
画像加工部23は、オブジェクトobj2の描画領域と重なり領域overの中心座標をそれぞれ算出する(ステップS501)。
詳しくは、画像加工部23は各領域の開始点と終了点の中点を中心座標として算出する(図11内のC_dirt、C_obj2)。
画像加工部23は、オブジェクトobj2の描画領域と重なり領域overの中心座標をそれぞれ算出する(ステップS501)。
詳しくは、画像加工部23は各領域の開始点と終了点の中点を中心座標として算出する(図11内のC_dirt、C_obj2)。
次に、画像加工部23は、重なり領域overが無くなるようにオブジェクトobj2の描画領域を縮小する方向を決定する(ステップS502)。
縮小する方向は、ステップS501で求めたオブジェクトobj2の描画領域と重なり領域overの中心座標に基づき、画像加工部23は描画領域の中心座標が重なり領域overの中心座標から離れる方向を求める。
図12に示すように、画像加工部23は、汚れ領域dirtの中心座標C_dirtから、オブジェクトobj2の描画領域の中心座標C_obj2へ向かって伸ばした直線(矢印1001)を縮小方向として決定する。
縮小する方向は、ステップS501で求めたオブジェクトobj2の描画領域と重なり領域overの中心座標に基づき、画像加工部23は描画領域の中心座標が重なり領域overの中心座標から離れる方向を求める。
図12に示すように、画像加工部23は、汚れ領域dirtの中心座標C_dirtから、オブジェクトobj2の描画領域の中心座標C_obj2へ向かって伸ばした直線(矢印1001)を縮小方向として決定する。
ここでいう縮小方向とは、オブジェクトの描画領域を表す矩形領域の4頂点のうちのどの頂点を固定して縮小するかを表すものである。
どの頂点を固定するかはC_dirtとC_obj2の座標から一意に決定できる。
C_dirt、C_obj2のX座標、Y座標をそれぞれ、(X_C_dirt,Y_C_dirt)、(X_C_obj2,Y_C_obj2)とする。その場合、X_C_obj2≧X_C_dirtかつ、Y_C_obj2<Y_C_dirtの場合、画像加工部23は、オブジェクトobj2の描画領域の右上頂点を固定して縮小する。
X_C_obj2≧X_C_dirtかつ、Y_C_obj2≧Y_C_dirtの場合、画像加工部23はオブジェクトobj2の描画領域の左上頂点を固定して縮小する。
X_C_obj2<X_C_dirtかつ、Y_C_obj2<Y_C_dirtの場合、画像加工部23はオブジェクトobj2の右下頂点を固定して縮小する。
X_C_obj2<X_C_dirtかつ、Y_C_obj2≧Y_C_dirtの場合、画像加工部23はオブジェクトobj2の左下頂点を固定して縮小する。
どの頂点を固定するかはC_dirtとC_obj2の座標から一意に決定できる。
C_dirt、C_obj2のX座標、Y座標をそれぞれ、(X_C_dirt,Y_C_dirt)、(X_C_obj2,Y_C_obj2)とする。その場合、X_C_obj2≧X_C_dirtかつ、Y_C_obj2<Y_C_dirtの場合、画像加工部23は、オブジェクトobj2の描画領域の右上頂点を固定して縮小する。
X_C_obj2≧X_C_dirtかつ、Y_C_obj2≧Y_C_dirtの場合、画像加工部23はオブジェクトobj2の描画領域の左上頂点を固定して縮小する。
X_C_obj2<X_C_dirtかつ、Y_C_obj2<Y_C_dirtの場合、画像加工部23はオブジェクトobj2の右下頂点を固定して縮小する。
X_C_obj2<X_C_dirtかつ、Y_C_obj2≧Y_C_dirtの場合、画像加工部23はオブジェクトobj2の左下頂点を固定して縮小する。
次に、画像加工部23は、ステップS502で決定した固定点を固定して、重なり領域overが無くなるまで、オブジェクトobj2の描画領域を縮小する(ステップS503)。
縮小された結果、オブジェクトobj2は、オブジェクトObj2’’として投影画像領域200に表示される。
汚れ領域dirtとの重なりが無くなるかどうかは、上記した画像認識部22による処理方法を用いればよい。
すなわち、オブジェクトobj2’’含まれる全ての画素について、pix_dirt(i,j)&pix_obj2(i,j)=0が成り立つならば、重なり領域overがもはや存在しないと判定する。
縮小された結果、オブジェクトobj2は、オブジェクトObj2’’として投影画像領域200に表示される。
汚れ領域dirtとの重なりが無くなるかどうかは、上記した画像認識部22による処理方法を用いればよい。
すなわち、オブジェクトobj2’’含まれる全ての画素について、pix_dirt(i,j)&pix_obj2(i,j)=0が成り立つならば、重なり領域overがもはや存在しないと判定する。
画像加工部23は、汚れ領域と重なる全てのオブジェクトの縮小方向を決定したかを判定し(ステップS504)、まだ判定していないオブジェクトがある場合(ステップS504でNo)は、ステップS501に戻り、次のオブジェクトに対する処理を行う。
また、全オブジェクトに対して縮小方向を決定する方向を決定し終わった場合(ステップS504でYes)、画像加工部23は処理を終了する。
また、全オブジェクトに対して縮小方向を決定する方向を決定し終わった場合(ステップS504でYes)、画像加工部23は処理を終了する。
以上説明したように、汚れ領域dirtに重ならないように重要度の高いオブジェクトを縮小して、汚れがある場合でもオブジェクトの視認性を妨げないように投影することが可能となる。
汚れ領域dirtを避けてオブジェクトを投影できるので、投影面Sにおける重要度の高いオブジェクトの視認性を高めることができる。
汚れ領域dirtを避けてオブジェクトを投影できるので、投影面Sにおける重要度の高いオブジェクトの視認性を高めることができる。
[第3の実施形態]
[第1の実施形態]、[第2の実施形態]では、重要度の高いオブジェクトを汚れ領域dirtに重ならないように移動、縮小させたが、重要度が高くても重なり領域overが小さい場合はそのオブジェクトを移動、縮小させずそのまま描画するようにしても良い。
これにより、不必要なオブジェクトの加工を省略し、処理を簡略化することが出来る。
図14は、第3の実施形態に係る画像加工部による処理を示すフローチャートである。
図11の場合と同様に、グラフィックオブジェクトobj2が、汚れ領域dirtと重なっているとする。
[第1の実施形態]、[第2の実施形態]では、重要度の高いオブジェクトを汚れ領域dirtに重ならないように移動、縮小させたが、重要度が高くても重なり領域overが小さい場合はそのオブジェクトを移動、縮小させずそのまま描画するようにしても良い。
これにより、不必要なオブジェクトの加工を省略し、処理を簡略化することが出来る。
図14は、第3の実施形態に係る画像加工部による処理を示すフローチャートである。
図11の場合と同様に、グラフィックオブジェクトobj2が、汚れ領域dirtと重なっているとする。
まず、画像加工部23は、汚れ領域dirtと重なるオブジェクトobj2の描画領域(オブジェクト領域)の大きさ(Area_obj)と重なり領域overの大きさ(Area_over)を算出する(ステップS601)。
描画領域の大きさ(Area_obj2)は、図9(b)に示すようにS_obj2、E_obj2の頂点座標から長方形の面積として求めることが出来る。
また重なり領域overの大きさ(Area_over)は、図9(c)に示すようにS_over、E_overの頂点座標から長方形の面積として求めることが出来る。
描画領域の大きさ(Area_obj2)は、図9(b)に示すようにS_obj2、E_obj2の頂点座標から長方形の面積として求めることが出来る。
また重なり領域overの大きさ(Area_over)は、図9(c)に示すようにS_over、E_overの頂点座標から長方形の面積として求めることが出来る。
次に、画像加工部23は、(Area_over/Area_obj2)>0.05であるかを判定する(ステップS602)。
(Area_over/Area_obj2)が0.05よりも大きい場合(ステップS602でYes)、画像加工部23は、ステップS603へ進み、オブジェクトの描画領域を移動又は縮小させる。
(Area_over/Area_obj2)が0.05以下の場合(ステップS602でNo)、画像加工部23は、オブジェクトの描画領域に対して重なり領域overは小さいと判断して描画領域の移動、縮小は行わずステップS604に処理を進める。
画像加工部23は、重なり領域を有する全オブジェクトに対して処理を終了したかを判定する(ステップS604)。
まだ判定していないオブジェクトがある場合(ステップS604でNo)は、ステップS601に戻り、次のオブジェクトに対する処理を行う。全オブジェクトに対して処理を終了した場合(ステップS604でYes)、処理を終了する。
(Area_over/Area_obj2)が0.05よりも大きい場合(ステップS602でYes)、画像加工部23は、ステップS603へ進み、オブジェクトの描画領域を移動又は縮小させる。
(Area_over/Area_obj2)が0.05以下の場合(ステップS602でNo)、画像加工部23は、オブジェクトの描画領域に対して重なり領域overは小さいと判断して描画領域の移動、縮小は行わずステップS604に処理を進める。
画像加工部23は、重なり領域を有する全オブジェクトに対して処理を終了したかを判定する(ステップS604)。
まだ判定していないオブジェクトがある場合(ステップS604でNo)は、ステップS601に戻り、次のオブジェクトに対する処理を行う。全オブジェクトに対して処理を終了した場合(ステップS604でYes)、処理を終了する。
[第4の実施形態]
前述の実施例では、汚れ領域dirtに重ならないように重要度の高いオブジェクトを移動または縮小させたが、重要度の高いオブジェクトを汚れ領域dirtの色の補色となるように色修正してオブジェクトの視認性を高めてもよい。
図15は、画像加工部によるオブジェクトの色修正の処理を示すフローチャートである。
まず、画像加工部23はオブジェクトの描画領域と重なる汚れ領域dirtの色情報を検出する(ステップS701)。
汚れ領域dirtの色情報は、[第1の実施形態]において汚れ検出部11で求めた「汚れ情報」のうちクラスタの平均RGB値を用いることが出来る。
前述の実施例では、汚れ領域dirtに重ならないように重要度の高いオブジェクトを移動または縮小させたが、重要度の高いオブジェクトを汚れ領域dirtの色の補色となるように色修正してオブジェクトの視認性を高めてもよい。
図15は、画像加工部によるオブジェクトの色修正の処理を示すフローチャートである。
まず、画像加工部23はオブジェクトの描画領域と重なる汚れ領域dirtの色情報を検出する(ステップS701)。
汚れ領域dirtの色情報は、[第1の実施形態]において汚れ検出部11で求めた「汚れ情報」のうちクラスタの平均RGB値を用いることが出来る。
次に、画像加工部23は、オブジェクトの色を汚れ領域dirtの色情報の補色に変換する(ステップS702)。補色への変換は、上記の平均RGB値とオブジェクトの色とが近い場合に行う。
両者の色が近いかどうかは、RGB空間からLab空間に変換して色差を求め、色差があらかじめ設定した閾値以下かどうかで判定すればよい。色差が閾値以上ある場合は視認性を妨げないと判断して、補色変換を行わない。
補色変換は、汚れ領域dirtの平均RGB値を以下の式で求めたR’G’B’に変換する。
R’=255−R
G’=255−G
B’=255−B 画像加工部23は、全オブジェクトに対して色修正したかを判定し(ステップS703)、まだ判定していないオブジェクトがある場合(ステップS703でNo)は、ステップS701に戻り、次のオブジェクトに対する処理を行う。全オブジェクトに対して色修正を終了した場合(ステップS701でYes)処理を終了する。
両者の色が近いかどうかは、RGB空間からLab空間に変換して色差を求め、色差があらかじめ設定した閾値以下かどうかで判定すればよい。色差が閾値以上ある場合は視認性を妨げないと判断して、補色変換を行わない。
補色変換は、汚れ領域dirtの平均RGB値を以下の式で求めたR’G’B’に変換する。
R’=255−R
G’=255−G
B’=255−B 画像加工部23は、全オブジェクトに対して色修正したかを判定し(ステップS703)、まだ判定していないオブジェクトがある場合(ステップS703でNo)は、ステップS701に戻り、次のオブジェクトに対する処理を行う。全オブジェクトに対して色修正を終了した場合(ステップS701でYes)処理を終了する。
このように、汚れ領域dirtの色味を認識しオブジェクトの色を補色になるように色変換して投影するので、投影面Sにおける重要度の高いオブジェクトの視認性を高めることができる。また、両者の色味が異なる場合は、無駄な補色変換を行わず、処理時間を減らすことが出来る。
なお、上記の実施形態では、重要度判定部24によって重要度が高いと判定(図8のステップS305)されたオブジェクトについて移動や縮小といった加工を行っている。
しかし、それに限らず、オブジェクトの重要度によらず(図8のステップS305の判断を行わず)、汚れ領域dirtとの重なり領域を有するオブジェクト全てについて加工を行うようにしても良い。
なお、上記の実施形態では、重要度判定部24によって重要度が高いと判定(図8のステップS305)されたオブジェクトについて移動や縮小といった加工を行っている。
しかし、それに限らず、オブジェクトの重要度によらず(図8のステップS305の判断を行わず)、汚れ領域dirtとの重なり領域を有するオブジェクト全てについて加工を行うようにしても良い。
[第5の実施形態]
[第1の実施形態]〜[第4の実施形態]ではプロジェクタ装置1内の画像処理部13でオブジェクトに対して画像加工を行ったり、オブジェクトを移動させたりする処理を行った。しかしながら、PC端末2が備える不図示のCPUを使ってオブジェクトに対する画像処理を行っても構わない。
この場合、図2に示す入力部16は入出力部16Aとして、プロジェクタ装置1とPC端末2との間でのデータのやりとりを可能とする。
図16に示すように、プロジェクタ装置1内のコントローラ10を介して汚れ検出部11で検出した「汚れ情報」をPC端末2に渡し、PC端末2側でオブジェクトの重要度の判定、オブジェクトの移動、もしくは縮小を行う画像処理(画像加工)を行う。
このようにすることで、プロジェクタ側の処理を簡素化しコストアップを避けることが出来る。
また、プロジェクタ装置1のコントローラ10が有するCPUによるソフトウェア処理によって、汚れ検出、重要度判定、画像加工が全て実現されても良い。
[第1の実施形態]〜[第4の実施形態]ではプロジェクタ装置1内の画像処理部13でオブジェクトに対して画像加工を行ったり、オブジェクトを移動させたりする処理を行った。しかしながら、PC端末2が備える不図示のCPUを使ってオブジェクトに対する画像処理を行っても構わない。
この場合、図2に示す入力部16は入出力部16Aとして、プロジェクタ装置1とPC端末2との間でのデータのやりとりを可能とする。
図16に示すように、プロジェクタ装置1内のコントローラ10を介して汚れ検出部11で検出した「汚れ情報」をPC端末2に渡し、PC端末2側でオブジェクトの重要度の判定、オブジェクトの移動、もしくは縮小を行う画像処理(画像加工)を行う。
このようにすることで、プロジェクタ側の処理を簡素化しコストアップを避けることが出来る。
また、プロジェクタ装置1のコントローラ10が有するCPUによるソフトウェア処理によって、汚れ検出、重要度判定、画像加工が全て実現されても良い。
[第1の発明]
少なくとも1つの表示対象objを含む画像を投影面Sに投影する投影手段12と、投影手段12によって画像が投影される投影面Sを撮像する撮像手段14と、撮像手段14によって撮像された投影面Sの画像データに基づいて、投影手段12によって投影された画像の視認性に影響を与える領域dirtの位置情報を検出する検出手段11と、投影手段12によって投影された画像内の表示対象objの表示位置に関する情報と検出手段11によって検出された位置情報とに基づいて表示対象objと領域dirtとが一致するか否かを判定する判定手段と、判定手段によって表示対象objと領域dirtとが一致すると判定された場合、画像を加工する加工手段23を備えた。
これにより、投影面Sに汚れ等がある場合でも、投影画像に含まれるオブジェクトの視認性を確保することが出来る。
少なくとも1つの表示対象objを含む画像を投影面Sに投影する投影手段12と、投影手段12によって画像が投影される投影面Sを撮像する撮像手段14と、撮像手段14によって撮像された投影面Sの画像データに基づいて、投影手段12によって投影された画像の視認性に影響を与える領域dirtの位置情報を検出する検出手段11と、投影手段12によって投影された画像内の表示対象objの表示位置に関する情報と検出手段11によって検出された位置情報とに基づいて表示対象objと領域dirtとが一致するか否かを判定する判定手段と、判定手段によって表示対象objと領域dirtとが一致すると判定された場合、画像を加工する加工手段23を備えた。
これにより、投影面Sに汚れ等がある場合でも、投影画像に含まれるオブジェクトの視認性を確保することが出来る。
[第2の発明]
投影手段12は、投影面Sに基準画像を投影可能であり、検出手段11は、撮像手段4によって基準画像を撮像した撮像データに基づいて領域dirtの位置情報を検出する。
基準画像を撮像した撮像データを用いることにより、汚れ等の領域の座標(位置情報)を正確に検出することが出来る。
投影手段12は、投影面Sに基準画像を投影可能であり、検出手段11は、撮像手段4によって基準画像を撮像した撮像データに基づいて領域dirtの位置情報を検出する。
基準画像を撮像した撮像データを用いることにより、汚れ等の領域の座標(位置情報)を正確に検出することが出来る。
[第3の発明]
加工手段23は、表示対象objを領域dirtと一致しない表示位置に移動させる。
これにより、投影面Sに汚れ等がある場合でも、汚れ等を避けて表示対象を表示することで、投影画像に含まれる表示対象の視認性を確保することが出来る。
加工手段23は、表示対象objを領域dirtと一致しない表示位置に移動させる。
これにより、投影面Sに汚れ等がある場合でも、汚れ等を避けて表示対象を表示することで、投影画像に含まれる表示対象の視認性を確保することが出来る。
[第4の発明]
加工手段23は、表示対象objを領域dirtと一致しない大きさに縮小する。
これにより、投影面Sに汚れ等がある場合でも、投影画像に含まれる表示対象の視認性を確保することが出来る。
加工手段23は、表示対象objを領域dirtと一致しない大きさに縮小する。
これにより、投影面Sに汚れ等がある場合でも、投影画像に含まれる表示対象の視認性を確保することが出来る。
[第5の発明]
投影画像に含まれる表示対象objの重要度を判定する重要度判定手段24を備え、
加工手段23は、重要度判定手段24によって重要度が高いと判定された表示対象objの色が領域dirtの色と近い場合にオブジェクトの描画色を修正する。
これにより、投影面Sに汚れがある場合でも、投影画像に含まれる表示対象の視認性を確保することが出来る。
投影画像に含まれる表示対象objの重要度を判定する重要度判定手段24を備え、
加工手段23は、重要度判定手段24によって重要度が高いと判定された表示対象objの色が領域dirtの色と近い場合にオブジェクトの描画色を修正する。
これにより、投影面Sに汚れがある場合でも、投影画像に含まれる表示対象の視認性を確保することが出来る。
[第6の発明]
投影画像に含まれる表示対象objの重要度を判定する重要度判定手段24を備え、加工手段23は、重要度判定手段24によって重要度が高いと判定された表示対象objを加工する。
これにより、投影画像に含まれる表示対象にておいて重要度の高い表示対象のみを加工して、処理の簡略化を図ることが出来る。
投影画像に含まれる表示対象objの重要度を判定する重要度判定手段24を備え、加工手段23は、重要度判定手段24によって重要度が高いと判定された表示対象objを加工する。
これにより、投影画像に含まれる表示対象にておいて重要度の高い表示対象のみを加工して、処理の簡略化を図ることが出来る。
[第7の発明]
重要度判定手段24は、彩度が所定の閾値の超える表示対象objを重要度が高いと判定する。
これにより、赤色など注目を促すような色を持つ表示対象について、汚れとの干渉をさける処理を行ってその視認性を高めることができる。
重要度判定手段24は、彩度が所定の閾値の超える表示対象objを重要度が高いと判定する。
これにより、赤色など注目を促すような色を持つ表示対象について、汚れとの干渉をさける処理を行ってその視認性を高めることができる。
[第8の発明]
重要度判定手段24は、大きさが所定の閾値を超える表示対象objを重要度が高いと判定する。
タイトル文字など注目を促すような大きさを持つ表示対象の視認性を高めることができる。
重要度判定手段24は、大きさが所定の閾値を超える表示対象objを重要度が高いと判定する。
タイトル文字など注目を促すような大きさを持つ表示対象の視認性を高めることができる。
[第9の発明]
加工手段11は、判定手段によって、領域dirtと一致すると判定された表示対象objのうち、領域dirtとの一致領域が所定以上の大きさの場合に、前記表示対象objを加工する。
これにより、不必要な表示対象の加工を省略し、処理を簡略化することが出来る。
加工手段11は、判定手段によって、領域dirtと一致すると判定された表示対象objのうち、領域dirtとの一致領域が所定以上の大きさの場合に、前記表示対象objを加工する。
これにより、不必要な表示対象の加工を省略し、処理を簡略化することが出来る。
[第10の発明]
プロジェクタ装置1と、プロジェクタ装置1に接続された情報処理装置2と、を備える画像投影システムであり、少なくとも1つの表示対象objを含む画像を投影面Sに投影する投影手段12と、投影手段12によって画像が投影される投影面Sを撮像する撮像手段14と、撮像手段14によって撮像された投影面Sの画像データに基づいて、投影手段12によって投影された画像の視認性に影響を与える領域dirtの位置情報を検出する検出手段11と、を備え、情報処理装置は、投影手段12によって投影された画像内の表示対象objの表示位置に関する情報と検出手段11によって検出された位置情報とに基づいて表示対象objと領域dirtとが一致するか否かを判定する判定手段と、判定手段によって表示対象objと領域dirtとが一致すると判定された場合、画像を加工する加工手段23と、を備え、プロジェクタ装置1は、情報処理装置によって加工された画像を投影面に投影する。
これにより、投影面Sに汚れがある場合でも、投影画像に含まれる表示対象の視認性を確保することが出来る。
プロジェクタ装置1と、プロジェクタ装置1に接続された情報処理装置2と、を備える画像投影システムであり、少なくとも1つの表示対象objを含む画像を投影面Sに投影する投影手段12と、投影手段12によって画像が投影される投影面Sを撮像する撮像手段14と、撮像手段14によって撮像された投影面Sの画像データに基づいて、投影手段12によって投影された画像の視認性に影響を与える領域dirtの位置情報を検出する検出手段11と、を備え、情報処理装置は、投影手段12によって投影された画像内の表示対象objの表示位置に関する情報と検出手段11によって検出された位置情報とに基づいて表示対象objと領域dirtとが一致するか否かを判定する判定手段と、判定手段によって表示対象objと領域dirtとが一致すると判定された場合、画像を加工する加工手段23と、を備え、プロジェクタ装置1は、情報処理装置によって加工された画像を投影面に投影する。
これにより、投影面Sに汚れがある場合でも、投影画像に含まれる表示対象の視認性を確保することが出来る。
1 プロジェクタ装置、2 PC端末、3 MFP、4 デジタルカメラ、10 コントローラ、11 汚れ検出部、12 画像投影部、13 画像処理部、14 操作入力部、15 投射レンズ、16 入力部、21 画像処理コントローラ、22 画像認識部、23 画像加工部、24 重要度判定部、100 画像投影システム
Claims (10)
- 少なくとも1つの表示対象を含む画像を投影面に投影する投影手段と、
前記投影手段によって前記画像が投影される投影面を撮像する撮像手段と、
前記撮像手段によって撮像された投影面の画像データに基づいて、前記投影手段によって投影された画像の視認性に影響を与える領域の位置情報を検出する検出手段と、
前記投影手段によって投影された画像内の前記表示対象の表示位置に関する情報と前記検出手段によって検出された位置情報とに基づいて、前記表示対象と前記領域とが一致するか否かを判定する判定手段と、
前記判定手段によって前記表示対象と前記領域とが一致すると判定された場合、前記画像を加工する加工手段と、
を備えることを特徴とするプロジェクタ装置。 - 請求項1に記載のプロジェクタ装置において、
前記投影手段は、前記投影面に基準画像を投影可能であり、
前記検出手段は、前記撮像手段によって予め前記基準画像を撮像した画像データに基づいて前記領域の位置情報を検出することを特徴とするプロジェクタ装置。 - 請求項1又は2に記載のプロジェクタ装置において、
前記加工手段は、前記表示対象を前記領域と一致しない表示位置に移動させることを特徴とするプロジェクタ装置。 - 請求項1又は2に記載のプロジェクタ装置において、
前記加工手段は、前記表示対象を前記領域と一致しない大きさに縮小すること特徴とするプロジェクタ装置。 - 請求項1又は2に記載のプロジェクタ装置において、
前記加工手段は、前記領域と一致する前記表示対象の描画色を前記領域の色の補色に修正することを特徴とするプロジェクタ装置。 - 請求項1乃至5の何れか一項に記載のプロジェクタ装置において、
前記画像に含まれる前記表示対象の重要度を判定する重要度判定手段を備え、
前記加工手段は、前記重要度判定手段によって重要度が高いと判定された前記表示対象を加工することを特徴とするプロジェクタ装置。 - 請求項6に記載のプロジェクタ装置において、
前記重要度判定手段は、彩度が所定の閾値の超える前記表示対象を重要度が高いと判定することを特徴とするプロジェクタ装置。 - 請求項6に記載のプロジェクタ装置において、
前記重要度判定手段は、大きさが所定の閾値を超える前記表示対象を重要度が高いと判定することを特徴とするプロジェクタ装置。 - 請求項1乃至8の何れか一項に記載のプロジェクタ装置において、
前記加工手段は、前記判定手段によって前記領域と一致すると判定された前記表示対象のうち、前記領域との一致領域が所定以上の大きさの場合に、前記表示対象を加工することを特徴とするプロジェクタ装置。 - プロジェクタ装置と、該プロジェクタ装置に接続された情報処理装置と、を備え、
前記プロジェクタ装置は、
少なくとも1つの表示対象を含む画像を投影面に投影する投影手段と、
前記投影手段によって前記画像が投影される投影面を撮像する撮像手段と、
前記撮像手段によって撮像された投影面の画像データに基づいて、前記撮像手段によって投影された画像の視認性に影響を与える領域の位置情報を検出する検出手段と、を備え、
前記情報処理装置は、前記投影手段によって投影された画像内の前記表示対象の表示位置に関する情報と前記検出手段によって検出された位置情報とに基づいて前記表示対象の少なくとも一部と前記領域とが一致するか否かを判定する判定手段と、
前記判定手段によって前記表示対象と前記領域とが一致すると判定された場合、前記画像を加工する加工手段と、を備え、
前記プロジェクタ装置は、前記情報処理装置によって加工された前記画像を前記投影面に投影することを特徴とする画像投影システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013191753A JP2015059972A (ja) | 2013-09-17 | 2013-09-17 | プロジェクタ装置、及び画像投影システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013191753A JP2015059972A (ja) | 2013-09-17 | 2013-09-17 | プロジェクタ装置、及び画像投影システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015059972A true JP2015059972A (ja) | 2015-03-30 |
Family
ID=52817586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013191753A Pending JP2015059972A (ja) | 2013-09-17 | 2013-09-17 | プロジェクタ装置、及び画像投影システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015059972A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168561A1 (ja) * | 2016-03-29 | 2017-10-05 | 楽天株式会社 | コンテンツ投影制御装置、情報処理方法、プログラム |
WO2017168562A1 (ja) * | 2016-03-29 | 2017-10-05 | 楽天株式会社 | コンテンツ投影制御装置、情報処理方法、プログラム |
CN112991517A (zh) * | 2021-03-08 | 2021-06-18 | 武汉大学 | 一种纹理影像编解码自动匹配的三维重建方法 |
-
2013
- 2013-09-17 JP JP2013191753A patent/JP2015059972A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168561A1 (ja) * | 2016-03-29 | 2017-10-05 | 楽天株式会社 | コンテンツ投影制御装置、情報処理方法、プログラム |
WO2017168562A1 (ja) * | 2016-03-29 | 2017-10-05 | 楽天株式会社 | コンテンツ投影制御装置、情報処理方法、プログラム |
JPWO2017168561A1 (ja) * | 2016-03-29 | 2019-02-07 | 楽天株式会社 | コンテンツ投影制御装置、情報処理方法、プログラム |
JPWO2017168562A1 (ja) * | 2016-03-29 | 2019-03-14 | 楽天株式会社 | コンテンツ投影制御装置、情報処理方法、プログラム |
US11477424B2 (en) | 2016-03-29 | 2022-10-18 | Rakuten Group, Inc. | Content projection control device, information processing method, and program |
CN112991517A (zh) * | 2021-03-08 | 2021-06-18 | 武汉大学 | 一种纹理影像编解码自动匹配的三维重建方法 |
CN112991517B (zh) * | 2021-03-08 | 2022-04-29 | 武汉大学 | 一种纹理影像编解码自动匹配的三维重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6467787B2 (ja) | 画像処理システム、撮像装置、画像処理方法およびプログラム | |
JP5266953B2 (ja) | 投写型表示装置および表示方法 | |
JP3925521B2 (ja) | スクリーンの一部の辺を用いたキーストーン補正 | |
JP4715527B2 (ja) | 撮影装置、撮影画像の画像処理方法及びプログラム | |
JP5266954B2 (ja) | 投写型表示装置および表示方法 | |
KR101353110B1 (ko) | 투영 화상 영역 검출 장치, 투영 화상 영역 검출 시스템, 및 투영 화상 영역 검출 방법 | |
US7839543B2 (en) | Document imager, document stillness detection method, and computer program product | |
CN106464825B (zh) | 图像处理设备和方法 | |
US20110187829A1 (en) | Image capture apparatus, image capture method and computer readable medium | |
US10924718B2 (en) | Image processing device and method | |
JP6459194B2 (ja) | プロジェクター、及び投写画像制御方法 | |
JP2006018293A (ja) | ピンホール投影により表示面上のレーザポイントと関連付けられるプロジェクタ画素を求める方法 | |
JP5350488B2 (ja) | 画像処理装置および画像処理方法 | |
JP2010130225A (ja) | 投写型表示装置および投写用調整方法 | |
JPWO2016103543A1 (ja) | 投影装置 | |
JP2016038732A (ja) | 情報処理装置、その制御方法およびコンピュータプログラム | |
CN117378196A (zh) | 图像校正方法及拍摄设备 | |
JP2015059972A (ja) | プロジェクタ装置、及び画像投影システム | |
JP6205755B2 (ja) | プロジェクタ装置、プロジェクタシステム、プロジェクタ制御方法及びプロジェクタ制御プログラム | |
JP4600019B2 (ja) | 撮影装置、画像処理方法及びプログラム | |
JP7062751B2 (ja) | 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム | |
JP2012220709A (ja) | 投写型映像表示装置およびその制御方法 | |
JP2011199717A (ja) | 投写型表示装置および画像表示方法 | |
JP7228112B2 (ja) | 投影制御装置、投影装置、投影方法及びプログラム | |
JP5883715B2 (ja) | 画像処理lsi、画像処理システムおよび画像処理方法 |