JP2015026914A - プログラム、情報処理装置、システム - Google Patents

プログラム、情報処理装置、システム Download PDF

Info

Publication number
JP2015026914A
JP2015026914A JP2013153899A JP2013153899A JP2015026914A JP 2015026914 A JP2015026914 A JP 2015026914A JP 2013153899 A JP2013153899 A JP 2013153899A JP 2013153899 A JP2013153899 A JP 2013153899A JP 2015026914 A JP2015026914 A JP 2015026914A
Authority
JP
Japan
Prior art keywords
image
information
correction information
determination
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013153899A
Other languages
English (en)
Inventor
長谷川 史裕
Fumihiro Hasegawa
史裕 長谷川
拓章 寒河江
Hiroaki Sakae
拓章 寒河江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013153899A priority Critical patent/JP2015026914A/ja
Publication of JP2015026914A publication Critical patent/JP2015026914A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】パターン画像の撮影時に、撮影動作に伴う手ブレの影響を抑制することが可能なプログラムを提供すること。【解決手段】コンピュータ41に、画像を取得する画像取得ステップS102と、補正情報の算出が可能な画像が前記画像取得ステップにより取得されたか否かを判断するための判断情報を取得する判断情報取得ステップS103と、前記判断情報に基づき前記補正情報が算出可能か否かを判断する判断ステップS104と、前記判断ステップで前記補正情報を算出可能と判断された場合、前記画像取得ステップで取得された画像を補正情報算出手段に提供するか、又は、前記画像取得ステップで取得された画像から補正情報を算出するステップS105、S406と、を実行させるプログラムを提供する。【選択図】図2

Description

本発明は、画像を取得して画像を補正する補正情報を作成する技術に関する。
プロジェクタが投影した画像、CRTや液晶などの表示装置が表示する画像が歪む場合があることが知られている。そこで、この画像の歪みを補正する技術が考えられている。例えば、プロジェクタが投影したパターン画像又は表示装置が表示したパターン画像をカメラなどで撮影し、情報処理装置が、撮影された画像データから歪みを補正する補正情報を生成する。そして、生成された補正情報によって投影される画像又は表示される画像に画像変換処理を施すことで、歪みが解消された状態で、プロジェクタが画像を投影したりFPDが表示することが可能になる(例えば、特許文献1参照。)。特許文献1には、予め記憶されたテスト画像をプロジェクタからスクリーンに投影し、それをカメラ付き携帯電話で撮影し、撮影画像を携帯電話から画像変換装置に送信して、補正情報を算出し、補正情報によって投影画像を幾何補正した後にプロジェクタへ投影する方法が開示されている。
ところで、補正情報を算出するためのパターン画像を撮影する際には、情報処理装置が補正情報を算出することに適した画像データをカメラが撮影可能であることが望ましい。例えば、カメラが水平か否か不明だと、カメラが撮影した撮影画像が歪んだ(傾いた)理由が、画像の歪みなのか、カメラが水平でないことによるものかを特定できないので、算出された補正情報が適切とは限らなくなるためである。また、カメラの焦点があっていないと画像データが不鮮明になり、補正情報が算出できなかったり、補正情報が不正確となる。
ユーザはこのことを理解してカメラを把持してシャッターボタンを押下すると考えられる。しかしながら、特許文献1のようにユーザがシャッターボタンを押下すると、撮影動作に基づく手ぶれが発生し、パターン画像の撮影に失敗する場合があるという問題があった。例えば、ユーザがカメラに外力を加えてパターン画像を撮影する方法では、撮影動作に伴う手ブレによってカメラが水平でなくなり、画像データを元に算出された補正情報により投影又は表示される画像が傾いてしまう場合があった。また、カメラが水平でなくなる場合だけでなく、撮影動作に基づく手ぶれが発生し画像データが不鮮明となり、適切な補正情報を算出できない場合があった。
本発明は、上記課題に鑑み、パターン画像の撮影時に、撮影動作に伴う手ブレの影響を抑制することが可能なプログラムを提供することを目的とする。
本発明は、コンピュータに、画像を取得する画像取得ステップと、補正情報の算出が可能な画像が前記画像取得ステップにより取得されたか否かを判断するための判断情報を取得する判断情報取得ステップと、前記判断情報に基づき前記補正情報が算出可能か否かを判断する判断ステップと、前記判断ステップで前記補正情報を算出可能と判断された場合、前記画像取得ステップで取得された画像を補正情報算出手段に提供するか、又は、前記画像取得ステップで取得された画像から補正情報を算出するステップと、を実行させるプログラムを提供する。
パターン画像の撮影時に、撮影動作に伴う手ブレの影響を抑制することが可能なプログラムを提供することができる。
プロジェクタが投影する画像の歪みの発生について説明する図の一例である。 実施例1にかかる画像処理システム1の全体構成を示す図である。 実施例1にかかるPC11、プロジェクタ21およびカメラ41の機能構成を示すブロック図である。 情報取得部のブロック図の一例である。 カメラのハードウェア構成図の一例である。 画像処理システム1による画像補正処理を示すシーケンス図である。 図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。 パターン画像の一例を示す図である。 図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。 図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。 パターン画像を含む撮影画像の一例を示す図である。 図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。 カメラの傾きを取得するためのプロジェクタの設置について説明する図の一例である。 撮影画像におけるパターン画像領域の一例である。 図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。 図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。 連結成分について説明する図の一例である。 図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。 図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。 加速度センサによる傾斜角の算出を模式的に示す図の一例である。 図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。 パターン用の対応点の抽出に関するPCのブロック図の一例である。 パターン画像、投影されたパターン画像をカメラにて撮影したパターン画像領域の一例を示す図である。 パターン画像の撮影画像に対して、配列における位置情報を割り当てる処理の流れについて説明する図の一例である。 パターン要素の座標情報を説明する図の一例である。 (u,v)座標系への変換について説明する図の一例である。 ある選択されたパターン要素の左側に隣接するパターン要素を特定する処理の流れを示すフロー図である。 ある選択されたパターン要素の上側に隣接するパターン要素を特定する処理の流れを示すフロー図である。 注目要素、隣接要素番号、左隣接要素番号の一例を示す図である。 グリッド配列の外周部に位置するパターン要素群について説明する図の一例である。 連結成分の生成結果の一例を示す図である。 グリッド検査処理の詳細を示すフロー図である。 検査スコアの算出について説明する図の一例である。 補正情報の算出を模式的に説明する図の一例である。 補正画像の作成について説明する図の一例である。 実施例2にかかる画像処理システム2の全体構成を示す図である。 実施例2にかかるPC12、プロジェクタ22およびカメラ42の機能構成を示すブロック図である。 画像処理システム2による画像補正処理を示すシーケンス図である。 実施例3にかかる画像処理システム3の全体構成を示す図である。 実施例3にかかるPC13、プロジェクタ23およびカメラ43の機能構成を示すブロック図である。 画像処理システム3による画像補正処理を示すシーケンス図である。 実施例4にかかる画像処理システム4の全体構成を示す図である。 実施例4にかかるプロジェクタ24およびカメラ44の機能構成を示すブロック図である。 画像処理システム4による画像補正処理を示すシーケンス図である。 実施例5にかかる画像処理システム5の全体構成を示す図である。 実施例5にかかるPC15、プロジェクタ25およびカメラ45の機能構成を示すブロック図である。 画像処理システム5による画像補正処理を示すシーケンス図である。 実施例6にかかる画像処理システム6の全体構成を示す図である。 実施例6にかかるPC16、プロジェクタ26、カメラ46および演算装置60の機能構成を示すブロック図である。 画像処理システム6による画像補正処理を示すシーケンス図である。
〔歪みの発生について〕
まず、図1を用いて画像に生じる歪みについて説明する。図1(a)は、プロジェクタが投影する画像の歪みの発生について説明する図の一例である。視聴者が投影画像に対し影を作ったり、プロジェクタが投影画像に向けた視聴者の視線を遮らないように、長短焦点のプロジェクタが使用される場合がある。長短焦点のプロジェクタとは、厳密な定義はないがスクリーンから数十cmの距離で投影が可能なプロジェクタをいう。
このようなプロジェクタは、図1(a)に示すように水平方向に対する投影光の仰角が大きくなるが、視聴者の視線方向はスクリーンに対してほぼ垂直なので、投影方向と視線の方向に大きな角度の違いが発生してしまい、これが歪みの主な原因となる。
具体的に説明する。点線が理想的な投影面であり、実線がスクリーンなどの実際の投影面であるとする。大きな仰角で投影された投影光は例えばa点で反射するが、スクリーンを目視する視聴者はこのa点で反射した投影光を目視する。しかしながら、a点は投影面の凹凸により生じた反射点であり、理想的な投影面であれば投影光はA点で反射される。A点で反射した場合、水平方向の視聴者はA点で反射した投影光を目視する。
したがって、投影面の凹凸により、同じ位置から投影された投影光の反射点がスクリーンの凹凸によって変わるため、視聴者には図のΔだけ位置の異なる画像が到達してしまう。
一方、b点でも投影光の一部が反射し視聴者により目視されるが、b点は理想的な投影面の反射点Bとほぼ一致している。このため、b点で反射して視聴者に到達した投影光については、凹凸の影響が生じにくい。
このように、凹凸があるスクリーンに大きな仰角で投影光が投影されると、投影光が反射する場所によって、局所的な歪みが発生するため、投影面の全体を見る視聴者には投影画像の全体が不均一に歪んでいるかのように見える場合がある。すなわち、投影面にわずかな凹凸が存在すると、長短焦点のプロジェクタの場合、視聴者に到達する投影光にその凹凸が強調されてしまう場合がある。
ところで、プロジェクタと同じ(又は近い)方向に存在する視聴者には、a点から視聴者の方向に反射した投影光が到達する。これは、理想的な投影面の場合も同様で、A点で反射した投影光は、視聴者が存在する方向で目視される。このことは、プロジェクタと同じ(又は近い)方向の視聴者から投影画像の歪みが認識しにくいことを意味している。したがって、情報処理装置が投影画像の補正情報を作成するためにカメラがパターン画像を撮影する際には、視聴者に近い方向(スクリーンに垂直な方向)から撮影することが好ましいことが分かる。換言すると、視聴者の視線の方向と投影方向が異なる場合、プロジェクタとカメラは別々の筐体に搭載された別体として構成されることが好ましいといえる。
なお、図1(a)では超単焦点のプロジェクタを例にして説明したが、投影光の方向がスクリーンに対し垂直な方向から大きくずれるほど歪みが認識されやすくなるので、プロジェクタが長短焦点又は単焦点である必要はない。また、図1(a)ではスクリーンが歪んでいる場合を例としたが、プロジェクタの光学系に歪みが生じていても同様に補正できる。
図1(b)はCRT(Cathode Ray Tube)又は液晶などのFPD(フラットパネルディスプレイ)が表示する画像の歪みについて説明する図の一例である。CRT(ブラウン管と呼ばれる場合がある)が表示する画像は樽型に歪む場合があるし、FPD(液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなど)が表示する画面が歪む可能性も否定できない。図1(b)では正方形の格子線が表示されているが、樽型に歪んでいることが分かる。このような歪みもカメラで撮影して補正情報を算出することで補正することが可能である。
したがって、以下では、主にプロジェクタが投影した画像の補正について説明するが、本実施形態の補正情報の算出方法は、CRT又はFPDが表示する画像の歪みにも同様に適用できる。
図2(a)は、実施例1にかかる画像処理システム1の全体構成を示す図である。画像処理システム1は、PC(Personal Computer)11と、プロジェクタ(投影装置)21と、カメラ41とを備えている。PC11とカメラ41の間、およびPC11とプロジェクタ21の間でそれぞれ各種情報が送受信される。
PC11は、スクリーン30への投影対象画像であるコンテンツ画像などの情報を記憶している。プロジェクタ21は、PC11からスクリーン30に投影すべき画像を受信し、受信した画像を投影する。PC11は特許請求の範囲の画像データ記憶装置の一例である。
カメラ41は、例えばデジタルカメラ、デジタルビデオカメラ、カメラ付き携帯電話や、カメラ付きスマートフォン、又は、カメラ付きタブレットPCなどである。カメラ41は、ユーザ操作にしたがい、画像が投影されているスクリーン30を含む画像を撮影する。すなわち、カメラ41により撮影された撮影画像には、スクリーン30に表示されている投影画像が含まれている。
スクリーン30に投影される投影画像には、スクリーン30の歪み等に起因した歪みが生じている。本実施例にかかる画像処理システム1は、カメラ41により撮影された撮影画像を用いて、投影面に投影されたコンテンツ画像の歪みを補正するための補正情報を算出し、補正情報に基づいて投影面への投影対象となるコンテンツ画像を補正する。これにより、本実施例にかかる画像処理システム1においては、歪みが生じることなくコンテンツ画像をスクリーン30に投影することができる。
なお、プロジェクタ21とPC11との間の通信およびカメラ41とPC11との間の通信は、例えばLAN(Local Area Network)、Bluetooth(登録商標)などのネットワークを介して行われる。通信は、有線であってもよく、また無線であってもよい。また、他の例としては、各通信は、通信ケーブルを介して行われるものとしてもよい。
図2(b)は、プロジェクタ21の代わりに表示装置31を有する画像処理システム1の全体構成を示す図である。表示装置31はCRT又はFPDなどである。
表示装置31が表示する画像には、表示装置31に起因した歪みが生じている。画像処理システム1は、カメラ41により撮影された撮影画像をPC21に送信し、PC21がコンテンツ画像の歪みを補正するための補正情報を算出し、補正情報に基づいて投影面への投影対象となるコンテンツ画像を補正する。これにより、本実施例にかかる画像処理システム1においては、表示装置31は歪みが生じることなくコンテンツ画像を表示することができる。したがって、図1(a)のスクリーン30とプロジェクタ21が、表示装置31に置き換わっており、同様の手順で補正情報を算出できる。
図3は、実施例1にかかるPC11、プロジェクタ21およびカメラ41の機能構成を示すブロック図である。PC11は、画像データ記憶部110と、通信部111と、補正情報算出部112と、補正部113とを有している。プロジェクタ21は、通信部210と、投影部211とを有している。カメラ41は、画像取得部410と、情報取得部411と、判断部412と、通信部413とを有している。
PC11の画像データ記憶部110は、プロジェクタ21によりスクリーン30に投影されるコンテンツ画像およびパターン画像を記憶している。PC11の通信部111は、プロジェクタ21およびカメラ41と通信を行う。通信部111は例えば、画像データをプロジェクタ21に送信する。通信部111はまた、カメラ41から画像を受信する。
なお、パターン画像およびコンテンツ画像は、プロジェクタ21またはカメラ41が記憶していてもよい。また、投影面への投影対象となるコンテンツ画像は、PC11、プロジェクタ21およびカメラ41が記憶する画像に限定されるものではなく、他の装置が記憶する画像であってもよい。
一方、プロジェクタ21の通信部210は、PC11からパターン画像およびコンテンツ画像を受信する。投影部211は、通信部210が受信したパターン画像およびコンテンツ画像を投影する。
また、カメラ41の画像取得部410は、ユーザの操作にしたがい、プロジェクタ21によりパターン画像が投影されたスクリーン30を含む画像(撮影画像)を取得する。具体的にはスクリーン30を撮影して撮影画像を作成する。
情報取得部411は、画像取得部410により得られた画像データが補正情報を算出するために適した状態であるか判断するための情報を取得する。情報取得部411は具体的には、画像取得部410により取得した撮影画像に含まれるパターン画像領域の大きさ、カメラの傾き、パターン画像のエッジ量、カメラ41に備えつけられた加速度センサの値もしくはカメラ41に備えつけられたマイクからの音声情報を取得する。
図4は、情報取得部のブロック図の一例である。情報取得部411は、画像データに含まれるパターン画像領域の大きさを取得するパターン画像サイズ取得部401、カメラ41の傾きを取得するカメラ傾き取得部402、パターン画像のエッジ量を取得するエッジ量取得部403、加速度センサなどを実体としてカメラ41の生じる加速度を取得する加速度取得部404、及び、マイクで集音した音声を認識して音声情報を取得する音声取得部405を有する。
図5は、カメラのハードウェア構成図の一例を示す。カメラ41は、バスに接続された、CPU4111、ROM4112、RAM4113、SDD(Solid State Drive)4114、ディスプレイ4130が接続されたグラフィックボード4115、カメラI/F4116、音声I/F4117、操作部4118、メディアドライブ4119、ネットワーク通信部4120、外部I/F4121及び加速度センサ4125を有している。CPU4111はSSD4114に記憶されたプログラム4132をRAM4113に展開して実行し、各部品を制御して入出力を行ったり、データの加工を行ったりする。ROM4112にはBIOSや、OSをSSD4114からRAM4113に読み出すプログラムが記憶されている。
SSD4114は、不揮発性のメモリでありフラッシュメモリやフラッシュROMと呼ばれる場合がある。SSD4114は、OS、デバイスドライバ、及び、後述する機能を提供するプログラム4132を記憶している。ディスプレイ4130にはプログラム4132が指示し、グラフィックボード4115が作成したGUI画面が表示される。
撮像素子4122は、CPU4111の制御に従って被写体を撮像し画像データを得る。撮像素子4122は内蔵されている必要はなく、外付けされていてもよい。カメラI/F4116は、CPUとのI/Fになって撮像素子4122を制御する。マイク4123は音声を入力する。スピーカ4124は音声を出力する。音声I/F4117は、CPU4111の制御に従ってマイク4123およびスピーカ4124との間で音声信号の入出力を処理する。
操作部4118は利用者の操作を受け付ける入力装置である。メディアドライブ4119はSDメモリカード、USBメモリなどのメディアカード4131にデータを読み書きする。ネットワーク通信部4120は、例えばLANに接続するためのイーサネット(登録商標)カードである。TCP/IP(UDP/IP)やアプリケーション層のプロトコルの処理はOSやプログラム4132が行う。
外部I/F4121は、外部の装置と通信するためのI/Fであり、例えばUSBホスト、Bluetooth(登録商標)、NFC(Near Field Communication)などの通信が可能である。
プログラム4132は、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録メディアに記録して配布される。また、プログラム4132は、不図示のサーバからインストール可能な形式又は実行可能な形式のファイルで配布される。
なお、図5はカメラのハードウェア構成図として説明したが、PC11、及び、プロジェクタ21においても、情報処理装置としての機能や手段を提供する部分のハードウェア構成はカメラ41と同様である。プロジェクタ21に関しては、映像を投影するDMD(Digital Mirror Device)、LCOS(Liquid crystal on silicon)などの光学デバイスを有し、映像をスクリーンに投光する機能を有している。
図6は、画像処理システム1による画像補正処理を示すシーケンス図である。
まず、PC11の通信部111は、画像データ記憶部110に記憶されているパターン画像をプロジェクタ21に送信する(ステップS100)。プロジェクタ21の通信部210がパターン画像を受信すると、投影部211がパターン画像をスクリーン30に投影する(ステップS101)。
次に、カメラ41の画像取得部410は、ユーザ操作を契機として、スクリーン30を含む画像の取得を開始する(ステップS102)。このユーザ操作は継続的な撮影を開始するという操作である。カメラ41によってはカメラ41を起動する操作がこの操作に相当し、またあるカメラ41では動画撮影モードに切り替えることがこの操作に相当し、またあるカメラ41では所定のボタンの半押しやタッチ操作がこの操作に相当する。ステップS102の処理の詳細については後述する。
次に、情報取得部411は、画像取得部410により得られた撮影画像又はカメラ41に備えつけられた加速度センサ4125やマイク4123から判断情報を取得する(ステップS103)。
次に、判断部412にて、得られた判断情報が補正情報の算出に適しているか否かを判断する。適していないと判断される場合は、再度、画像取得からの処理を実行する(ステップS104)。
次に、通信部413は、取得された撮影画像をPC11に送信する(ステップS105)。このように、通信部413により送信される前に補正情報算出の成否を判断するため、補正情報の算出の失敗を回避できる。
PC11においては、通信部111が撮影画像を受信すると、補正情報算出部112は、撮影画像と、画像データ記憶部110に記憶されているパターン画像とに基づいて、補正情報を算出する(ステップS106)。補正情報の算出については後述する。
次に、PC11の補正部113は、補正情報に基づいて、投影対象のコンテンツ画像を補正し、補正画像を得る(ステップS107)。次に、通信部111は、補正画像をプロジェクタ21に送信する(ステップS108)。
プロジェクタ21においては、通信部210が補正画像を受信すると、投影部211は、補正画像を投影する(ステップS109)。以上で、画像補正処理が完了する。
このように、本実施形態のる画像処理システム1は、補正画像をスクリーン30に投影することにより、スクリーン30に投影される画像の歪みを補正することができる。
さらに、補正画像を得るための撮影画像に対しては、あらかじめ補正情報算出の成否を判断した後に、補正情報算出部112にて補正情報算出処理を行うため、補正情報算出処理の失敗を回避できる。
〔画像取得、判断情報、判断について〕
以下、図6のステップS102〜S104について具体例(撮影画像サイズ、カメラの傾き、エッジ強度、加速度、音声指示)を説明する。以下の各具体例は単一の判断情報だけで判断してもよいが、任意の2つ以上を組み合わせ、組み合わせられた全ての判断情報が基準を満たす場合に補正情報の算出に適切な撮影画像が撮影されたと判定してもよい。
以下のように判断することで、シャッターを押すことによる手振れやカメラ41の傾きなどに起因する投影パターンの抽出失敗を防止することができる。条件が整ったら自動的に補正情報の算出が始まるので、補正情報の算出の成功率が高くなる。
なお、自動的に画像を取り込む技術として、バーコード(又はQRコード(登録商標))を検知してデータに変換したり、笑顔を検知して画像を取り込む技術がある。しかし、バーコードや笑顔を検知できる撮影条件と、補正情報の算出に適切な撮影条件とは一致しない。例えば、笑顔では顔が傾いていること、撮影された顔のサイズが小さいことは許容可能な場合が多いが、補正情報の算出では、投影パターンが傾いて撮影されること、又は、投影パターンの画像サイズが小さいことが、補正情報の品質に影響する場合が多い。このため、従来の自動撮影の技術は適用が困難といえる。
<撮影画像サイズに基づく判断>
図7は、図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。
・S102−1
上記のように、カメラ41はスクリーン30を含む画像を継続的に(例えば、15〜60fpsなどの速度で)取得している。
S103−1
パターン画像サイズ取得部401は、各撮影画像から判断情報として撮影画像におけるパターン画像領域のサイズを取得する。
S104−1
判断部412は、パターン画像領域のサイズが閾値1より大きいか否かを判定する。この判定の結果がYesであれば、S105で撮影画像がPC11に送信され、NoであればS102で再度、撮影画像が取得される。判断情報が撮影画像から取得されたのでパターン画像領域のサイズが閾値1より大きかった撮影画像がPC11に送信される。
パターン画像領域のサイズについて説明する。撮影画像に含まれるパターン画像領域のサイズがある一定以上のピクセルサイズである場合、パターン画像領域の個々のパターン要素を認識することができ、補正情報の算出に成功する可能性が高くなる。
図8(a)は、パターン画像の一例を示す図である。このパターン画像は投影される前の画像データであるが、理想的に投影された場合は図8(a)に示すように各パターン要素が等間隔に投影される。パターン画像として円の形状をしたパターン要素が縦横8個ずつ格子状に並んでいる。横方向に8個並んだパターン要素を他のパターン要素と分離するためには、パターン要素とパターン要素の間に最低1ピクセルの隙間が必要である。また、最も左端又は最も右端のパターン要素とパターン画像の端部との間にも最低1ピクセルの隙間が必要である。さらに、パターン要素を円として認識するためには最低3ピクセルが必要である。これは、1ピクセルではノイズなど、他の孤立点と見分けることができないためである。縦方向にも同様のことが当てはまる。
このため、撮影画像のうちパターン画像領域のサイズとしては、縦横それぞれ1+(3+1)×8=33ピクセル以上必要となる。したがって、判断部412はパターン画像領域のサイズの縦横がそれぞれ33ピクセル以上でない場合に、再度、画像取得が必要であると判断する。撮影画像サイズの縦横がそれぞれ33ピクセル以上の場合、判断部412はパターン画像領域のサイズが基準を満たしており撮影画像にて補整情報を算出できると判断する。したがって、ユーザがシャッターボタンを押下することなく適切な補正情報を算出可能な撮影画像が得られる。
なお、この閾値1である33ピクセルは最低限満たすべき値なので、間隔として必要な隙間のピクセル数やパターン要素を円として認識するための必要ピクセル数を大きくすることで、適当な閾値を設定できる。
図8(b)は、投影パターンの別の一例を示す図である。8×8のパターン要素を四角い黒枠51が囲んでいる。壁に吊り下げられたスクリーン30にこのようなパターン画像が投影される場合を考えると、撮影画像の中心付近にある連結成分の外接矩形が定められたサイズ以上であれば、認識可能なサイズのパターン要素が撮影されていると推測できる。また、当然ながらユーザは、パターン画像領域が撮影画像の中心部を占めるように撮影すると考えられる。
8×8の各円のパターン要素が等間隔に並んでいるのであれば、隙間の大きさを「隙間の大きさ=個々のパターン要素の大きさ」として、パターン画像領域のサイズとして必要なサイズは、パターン要素の抽出に必要な円のサイズの17倍(=8×2+1)となる(幅及び高さの両方)。
円の抽出アルゴリズムにより抽出に必要な円のサイズは異なるが、例えば円の重心を求めるのであれば、安定的に重心位置をもとめるには最低8画素程度の円のサイズが望ましい。従って、パターン画像領域のサイズは縦横8×17=136画素以上が必要である。すなわち、136画素以上の黒画素連結成分(黒枠51の部分)があれば黒枠51がカメラ41の画角の中に収まっており、かつ、その大きさ(パターン画像領域の大きさ)が十分に大きいことになり、パターン抽出が安定的に行える。
また、円を用いた投影パターンも一例に過ぎず、パターン要素が円以外の矩形などでもよく、また、投影パターンが市松模様などでもよい。
図9は、図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。
画像取得部410は撮影画像を取得する(S1−1)。撮影画像には中央付近に投光パターンが撮影されている。
次いで、パターン画像サイズ取得部401は撮影画像を二値化する(S1−2)。
次いで、パターン画像サイズ取得部401は黒画素の連結成分を抽出する(S1−3)。連結成分の抽出方法はどのような方法でもよいが、例えば左上などの原点(0,0)から水平方向(x方向)に黒画素を探索し、黒画素が見つかった場合、黒画素に隣接した8つの画素に黒画素があるか否かを判断する。8つの画素に黒画素がある場合は、その黒画素に隣接した8つの画素に黒画素があるか否かを判断する。これを繰り返すことで黒画素の連結成分を抽出できる。黒画素が途切れたら、連結成分として抽出されておらずかつ探索していない画素に戻って、同様の処理を行う。連結成分は、例えば一意のラベルで識別することとして、ラベルに各黒画素の座標などを紐づけておく。
次いで、パターン画像サイズ取得部401は中央付近にある規定サイズ以上の連結成分を全て抽出する(S1−4)。図8(c)は中央付近の連結成分の抽出を説明する図の一例である。例えば、x軸方向又はy軸方向の長さが136画素程度以上か否かを判定する。
また、1つの連結成分から、x座標が同じ又は同じと見なせる黒画素、y座標が同じ又は同じと見なせる黒画素を取り出し、長さが136画素程度以上か否かを判定する。
または、連結成分に細線化処理を施して、4つの直線部がそれぞれ136画素程度以上か否かを判定し、任意の画素から直線を辿って元の画素に戻るか否かに基づき、中央付近を囲む規定サイズ以上の連結成分か否かを判定してもよい。
次いで、パターン画像サイズ取得部401は規定サイズ以上の連結成分を1つ抽出する(S1−5)。規定サイズとは、黒枠に相当する画素数であり例えば縦横136画素程度のサイズである。したがって、連結成分のx座標の最小値と最大値の差が136画素程度、y座標の最小値と最大値の差が136画素程度、の連結成分を1つ抽出する。
次いで、抽出した連結成分の内側の連結成分のサイズのヒストグラムを求める(S1−6)。これは、別の領域(例えばスクリーンの敷設部材など)を投影パターンの黒枠と誤認している可能性があるので、枠内の黒画素連結成分がパターン要素と推定できるか否かを判定するためである。パターン画像サイズ取得部401は、x座標及びy座標がS1−5で抽出した枠内の連結成分の縦横のサイズをそれぞれ算出しヒストグラムを作成する。例えば図8(d)に示すように、横サイズと縦サイズの2次元のテーブルを作成し、算出した連結成分の縦と横のサイズに該当するマスに投票していく。したがって、パターン要素のサイズに近いマスほど大きな値が加算されていく。
パターン画像サイズ取得部401は、ヒストグラムから縦サイズ、横サイズの中央値を求める(S1−7)。中央値は投票数を重みづけにして求めたサイズの平均とするが、最も投票数の多いサイズとしてもよい。中央値の17倍がS1−4で抽出した連結成分と近ければ、S1−5で抽出した連結成分が枠であると推定できる。
このため、パターン画像サイズ取得部401は、S1−4で抽出した連結成分のサイズが、縦サイズ、横サイズの中央値の17倍と近いか否かを判定する(S1−8)。
連結成分のサイズが、縦サイズ、横サイズの中央値が17倍と近い場合、判断部412は投影パターンの黒枠51を抽出していると推定できる。すなわち、補正情報の算出が成功する可能性ありと判断する(S1−11)。
連結成分のサイズが、縦サイズ、横サイズの中央値の17倍と近くない場合、別の枠を抽出している可能性が高い。パターン画像サイズ取得部401は、S1−4で抽出した連結成分を全ての吟味していない場合はステップS1−5に戻り、別の連結成分を同様に処理する(S1−9)。連結成分を全ての吟味した場合は、判断部412は補正情報の算出が成功する可能性なしと判断する(S1−10)。
このような処理により、投影パターンの枠でないものを枠であると誤認することを排除しながら、パターン画像領域のサイズが閾値以上か否かを判定できる。
<カメラの傾きに基づく判断1>
続いてカメラの傾きに基づく撮影画像が補正情報の算出に適切か否かの判断について説明する。
図10は、図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。
・S102−2
上記のように、カメラ41はスクリーン30を含む画像を継続的に(例えば、15〜60fpsなどの速度で)取得している。
S103−2
カメラ傾き取得部402は、各撮影画像から判断情報としてカメラの傾きを取得する。
S104−2
判断部412は、カメラの傾きが閾値2未満か否かを判定する。この判定の結果がYesであれば、S105で撮影画像がPC11に送信され、NoであればS102で再度、撮影画像が取得される。判断情報が撮影画像から取得されたので傾きが閾値2未満であった撮影画像がPC11に送信される。
カメラの傾きについて説明する。カメラが傾いていると、算出された補正情報により補正された投影画像が傾いてしまう。逆に、カメラに含まれるパターン画像領域の傾きがある範囲内である場合、算出される補正情報を元に補正される投影画像の傾きも一定以内となる。
図11(a)は、パターン画像領域を含む撮影画像の一例を示す図である。撮影画像には、パターン画像領域(投影パターン)52、スクリーン30、スクリーンを収納する収納部54、時計55、及び、カレンダ56などが撮影されている。
ところで、パターン画像領域が水平に投影されていても、ユーザが把持するカメラ41が傾いている場合、投影パターンも傾いて撮影される。一方、投影パターンが傾いて投影されていても、ユーザが把持するカメラ41が逆に傾いているため、投影パターンが水平に撮影される場合がある。また、投影パターンもカメラ41も傾いており、投影パターンが傾いて撮影される場合もある。いずれの場合も、投影パターンの傾きだけを抽出することが困難なため、適切な補正情報は算出できない可能性が高い。したがって、適切な補正情報を算出するにはカメラ41が水平に対し傾いていないことを検出することが好ましい。
このため、カメラ傾き取得部402は、撮影画像からカメラ41の水平に対する傾きを算出する。カメラ41の水平方向に対する傾きを算出するには、水平又は垂直であることが明らかな敷設物などを利用する。図11(a)の例ではスクリーンの収納部54、カレンダ56の外枠、などが地面に対し水平又は垂直である。また、図11(a)では撮影されていないが、窓は水平・垂直な窓枠を有し、柱は垂直に建設されており、壁と壁の境界は水平又は垂直である。したがって、これらを検出することで、水平又は垂直であると推定される敷設物を検出できる。
図12は、図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。
画像取得部410は撮影画像を取得する(S2−1)。撮影画像には中央付近に投光パターンが撮影されている。
まず、カメラ傾き取得部402は、投影パターンの黒枠51を検出する(S2−2)。黒枠の検出方法は、図9にて説明した手法を使用する。
ついで、カメラ傾き取得部402は、二値化前の画像から黒枠と黒枠内の黒画素を消去する(S2−3)。これにより、図11(b)に示すように、投影パターンが撮影されていない撮影画像が得られる。
ついで、カメラ傾き取得部402は、二値化前の撮影画像からエッジを検出する(S2−4)。エッジ量の検出方法は後述するが、例えば水平方向と垂直方向に所定のフィルタ演算を行う。エッジ量は特許請求の範囲の特徴量の一例である。
次いで、エッジにハフ変換を施して直線を生成する(S2−5)。そして、閾値以上の長さの直線を抽出する(S2−6)。
図11(c)は検出された直線を模式的に説明する図の一例である。収納部54の上下のエッジから抽出された2本の水平線、カレンダ56の上下左右のエッジから抽出された2本の水平線と2本の垂直線が抽出されている。
次いで、カメラ傾き取得部402は、直線の中に垂直又は水平と見なせる直線があるか否かを判定する(S2−7)。ここでの判定では、カメラ41が傾いている可能性があるため、例えば垂直に対し20度程度、水平に対し20度程度のずれであれば、垂直又は水平と見なせると判定する。図11(c)のように、垂直又は水平と見なせる直線が複数ある場合は、最も数が多い方向が同じ直線を特定する。
そして、判断部412は、垂直と見なせる直線が垂直か否か、又は、水平と見なせる直線が水平か否かを判定する(S2−8)。ここでの判定は、カメラ41の傾きが補正情報を算出可能か否かを判定するための許容値を閾値2とする。例えば、5〜10度未満の傾きであれば、傾きなしと判定し、補正情報の算出が成功する可能性ありと判断する(S2−9))。
5〜10度以上の傾きがあれば、傾きありと判定し、判断部412は補正情報の算出が成功する可能性なしと判断する(S2−10)。
以上のようにして、投影パターンでなくカメラ41に傾きがあるか否かを判定できる。なお、傾きを検出することで、投影パターンを含む撮影画像を傾きがゼロになるように補整してもよい。補正により傾いていない投影パターンが得られるので、適切な補正情報を算出することができる。
<カメラの傾きに基づく判断2>
カメラの傾きは、撮影画像のパターン要素から求められた回帰直線の水平方向又は垂直方向に対する傾きに基づき算出してもよい。なお、パターン要素の抽出については、パターン要素の対応点の決定において説明する。
撮影された画像のパターンが傾いている原因としては、カメラが傾いている場合の他、プロジェクタが正しく設置されていないことが挙げられる。すなわち、プロジェクタは、水平に設置され、かつ、スクリーンに正対して配置されていることが担保された状態では、さらに残っている傾きはカメラの傾きによるものである、と推測できる。
図13は、カメラの傾きを取得するためのプロジェクタの設置について説明する図の一例である。図13(a)では、プロジェクタがスクリーンに正対しておらず、水平にも設置されていない状態の投影像である。ユーザが正対するように設置し直すと図13(b)のように、プロジェクタがスクリーンに正対するが、水平に設置されていない状態の投影像が得られる。さらに、ユーザが水平に設置し直すと図13(c)のように、プロジェクタがスクリーンに正対し、かつ、水平に設置された状態の投影像が得られる。したがって、図13(c)の状態で投影像が傾いていれば、カメラの傾きによるものと推定してよい。
図14は、撮影画像のパターン画像領域の一例を示す。後述するパターン要素の抽出により、カメラ傾き取得部は同じ行又は同じ列のパターン要素を特定できる。同じ行又は同じ列のパターン要素を最小二乗法により直線近似したり、ハフ変換することなどにより直線が得られる。
傾きと水平線のなす角θがカメラの傾きである。カメラの傾きが得られれば、図10と同様の手順で補正情報を算出するか否かを判定できる。
<エッジに基づく判断>
続いてエッジに基づく撮影画像が補正情報の算出に適切か否かの判断について説明する。
図15は、図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。
・S102−3
上記のように、カメラ41はスクリーン30を含む画像を継続的に(例えば、15〜60fpsなどの速度で)取得している。
S103−3
エッジ量取得部403は、各撮影画像から判断情報としてエッジ量を検出する。
S104−3
判断部412は、エッジ量が閾値3より大きいか否かを判定する。この判定の結果がYesであれば、S105で撮影画像がPC11に送信され、NoであればS102で再度、撮影画像が取得される。判断情報が撮影画像から取得されたのでエッジ量が閾値3より大きかった撮影画像がPC11に送信される。
エッジ量について説明する。撮影画像のエッジ量(エッジ強度)がある一定値以上である場合、撮影画像の取得時に手ブレやピントずれが発生していないと推測することができる。手ブレやピントずれが発生している場合、撮影画像内の投影パターン(枠やパターン要素)の輪郭部が不明瞭となり、そのような撮影画像に対して算出したエッジ量は小さくなる。
図16は、図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。図17はエッジの検出を模式的に説明する図の一例である。
画像取得部410は撮影画像を取得する(S3−1)。撮影画像には中央付近に投光パターンが撮影されている。
エッジ量取得部403は、撮影画像を二値化する(S3−2)。エッジ量取得部403は、黒画素の連結成分を抽出する(S3−3)。抽出方法は図9にて説明した方法と同様でよい。
ついで、エッジ量取得部403は、連結成分を1つ選択する(S3−4)。そして連結成分の白黒境界付近で、二値化前の画像に対してエッジ検出フィルタを施してエッジ強度を求める。こうすることで、エッジが存在する場所からエッジ強度を検出できるので、全画素からエッジ強度を検出するよりも計算負荷を低減できる。
図17(a)は二値化する前の連結成分の一例であり、図17(b)は二値化された連結成分を示す。二値化することでエッジ位置を推定できるので、エッジ量取得部403は二値画像から境界画素(黒から白に変化する2つの画素)を取得する(S3−5)。
そして、エッジ量取得部403は黒から白に変化した白画素を中心にエッジ検出フィルタ(空間フィルタ)を施す(S3−6)。例えば、黒から白に変化した白画素を中心に3×3の画素を取り出しフィルタと演算する。フィルタと画素の行列同士の積和演算により、1つの白画素毎にエッジ強度が得られる。
エッジ抽出には空間フィルタを利用できる。二値化前の画像がRGBカラー画像であれば、明度を最も良く表すG成分に対して、以下のような空間フィルタでエッジ強度を算出する。
-1 0 +1
-1 0 +1
-1 0 +1

-1 -1 -1
0 0 0
1 1 1
上段が水平方向のエッジ量を検出するフィルタで、下段が垂直方向のエッジ量を検出するフィルタである。エッジ量取得部403は、着目した白画素の水平方向と垂直方向のエッジ強度の絶対値和を求める。なお、エッジ検出フィルタはSobelなど種々のものがあるので上記以外のフィルタを使用しても差し支えない。
エッジ量取得部403は、エッジ強度が閾値以上か否かを判定する(S3−7)。エッジ強度が閾値以上の場合、エッジ量取得部403は強エッジ画素数を1つ大きくする(S3−8)。強エッジ画素数が多いほど、着目している境界画素のエッジ強度が大きいことになる。
エッジ量取得部403は、二値化画像で求めた境界部の画素すべてについてエッジ強度を求めた否かを判定する(S3−9)。境界部の画素すべてについてエッジ強度を求めていない場合、ステップS3−5に戻り処理を繰り返す。
境界部の画素すべてについてエッジ強度を求めた場合、エッジ量取得部403は、強エッジ画素の境界部の画素に対する割合が閾値以上か否かを判定する(S3−10)。割合が例えば5割以上であれば、強エッジ連結成分数を1つ大きくする(S3−11)。つまり、エッジが鮮明な連結成分が1つずつカウントアップされる。
ついで、エッジ量取得部403は、全ての連結成分について吟味したか否かを判断する(S3−12)。全ての連結成分について吟味していない場合、ステップS3−4に戻り次の連結成分に対し同様の処理を行う。
全ての連結成分について吟味した場合、判断部412は強エッジ連結成分数の連携成分の数に対する割合が閾値以上か否かを判定する(S3−13)。
強エッジ連結成分数の連携成分の数に対する割合が閾値以上でない場合、カメラ41がまだ動いている状態と判断して、撮像画像から補正情報の算出が成功する可能性はないと判断する(S3−14)。
強エッジ連結成分数の連携成分の数に対する割合が閾値以上の場合、カメラ41が停止したためと判断して、補正情報の算出が成功する可能性ありと判断する(S3−15)。
<加速度に基づく判断>
続いて加速度に基づく撮影画像が補正情報の算出に適切か否かの判断について説明する。
図18は、図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。
・S102−4
上記のように、カメラ41はスクリーン30を含む画像を継続的に(例えば、15〜60fpsなどの速度で)取得している。
S103−4
加速度取得部404は、判断情報として加速度を取得する。
S104−4
判断部412は、加速度が閾値4未満か否かを判定する。この判定の結果がYesであれば、S105で撮影画像がPC11に送信され、NoであればS102で再度、撮影画像が取得される。判断情報が撮影画像以外から取得されたので、加速度が閾値4未満であると判定された時、判断された時の直前又は直後に撮影された撮影画像がPC11に送信される。
加速度について説明する。加速度センサ4125の値の変化量が一定値以下の場合、シャッターボタン押下などの操作に伴う手ブレが発生していないと判断できる。そこで、加速度取得部404はカメラ41に内蔵(又は外付け)された加速度センサ4125の検出信号を取得する。加速度センサ4125により、例えばカメラ41の画面の面内方向で垂直に交わる2つの軸と、画面の法線方向に1軸の合計3軸に沿った加速度値が得られる。これらの値はカメラ41の静止時には重力加速度を3軸に分解した値を持つ。
3つそれぞれの軸に対して2回の取得で得られた加速度値の変化量を求める。撮影中、一定の時間間隔(例えば100ミリ秒)で2回、これらセンサの値を取得する。この変化量が一定値以下であると、撮影機器がほぼ静止していると見なせ、手ブレが発生していないと判断できる。
図19は、図6のステップS102〜S104のより詳細な処理手順を示すフローチャート図の一例である。
画像取得部410は撮影画像を取得する(S4−1)。撮影画像には中央付近に投光パターンが撮影されている。
加速度取得部404は、3軸それぞれの加速度1を取得する(S4−2)。加速度取得部404は、周期的に3軸それぞれの加速度2を取得する(S4−3)。
加速度取得部404は、3軸それぞれについて「加速度の変化量=加速度1−加速度2」の絶対値を算出する(S4−4)。
判断部412は、3つの加速度の変化量が閾値4未満か否かを判定する(S4−5)。
加速度の変化量が閾値未満でない場合、カメラ41を持つ手が動いている状態と判断して、その時点で撮像しても成功の可能性はないと判断する(S4−7)。
加速度の変化量が閾値未満の場合、カメラ41を持つ手が停止したと判断して、成功の可能性ありと判断する(S4−6)。
なお、加速度の変化に基づいて判断するのでなく、加速度の大きさに基づいて判断してもよい。
ところで、上記のカメラ傾き取得部402は、撮影画像からカメラ41の傾きを算出したが、加速度センサ4125の値からカメラ41の傾きを算出することができる。撮影画像から求める場合と同様に、傾きがある範囲内である場合、算出される補正情報を元に補正される画像の傾きも一定以内となる。
カメラ41に備えつけられた加速度センサ4125から得られる3つの軸に沿った加速度の内、撮像素子の面内方向で垂直に交わる2軸方向の値の比の逆正接値(arctan)を算出すると、カメラ41の面内における重力方向からの傾きを算出できる。
図20は、加速度センサ4125による傾斜角の算出を模式的に示す図の一例である。カメラ41の理想的な水平方向をx軸、垂直方向をy軸とする。カメラ41がx軸(水平方向)に対しθ傾いた場合、重力gはx軸方向とy軸方向のそれぞれに傾きθに応じて分散される。
x方向:g・sinθ
y方向:g・cosθ
従って、角度θと重力には以下の関係がある。
tanθ=g・sinθ/g・cosθ
g・sinθは加速度センサ4125のx軸方向の出力、g・cosθは加速度センサ4125のy軸方向の出力なので、傾きθは以下のようにして求めることができる。
θ=arctan(x出力/y出力)
この傾き値θが、例えば地面と平行な水平線に近い場合(ゼロに近い)、取得される撮影画像内の投影パターンの傾きもほぼ水平であるとみなせる。よって、生成される補正情報を元に補正される画像の傾きも一定以内となる。
<音声に基づく判断>
続いて音声に基づく撮影画像が補正情報の算出に適切か否かの判断について説明する。
図21は、図6のステップS102の画像取得処理、S103の判断情報取得処理、及び、S104の画像使用可否判断の具体的な手順を示すフローチャート図である。
・S102−5
上記のように、カメラ41はスクリーン30を含む画像を継続的に(例えば、15〜60fpsなどの速度で)取得している。
S103−5
音声取得部405は、判断情報として音声情報を取得する。
S104−5
判断部412は、音声情報による撮影の指示があるか否かを判定する。この判定の結果がYesであれば、S105で撮影画像がPC11に送信され、NoであればS102で再度、撮影画像が取得される。判断情報が撮影画像以外から取得されたので、音声に基づく判定がYesと判定された時、判定された時の直前又は直後に撮影された撮影画像がPC11に送信される。
音声取得部405は、マイクからの音声情報の大きさ、又は、音声認識により予め登録された特徴的な単語(例えば「決定」、「Shot」「今だ」などの発話内容)を取得する。音声情報の大きさがある音量以上であること、又は、特徴的な単語が登録された場合、判断部412は撮影画像が補正情報を算出するために適したものだと判断する。
以上説明したように、本実施形態では、補正情報を算出するためにユーザがカメラ41に外力を加えて撮影動作を行う必要がないので、手ブレの発生を回避できる。
また、5つの判断方法について個別に説明し任意の2つ以上を組み合わせることができると説明したが、比較的有効な組み合わせとしては傾き、エッジ強度、及び、撮影画像サイズの組み合わせが挙げられる。この3つの判断情報で補正情報の算出が可能であると判断されれば、十分な品質の補正情報を算出できる可能性が高い。
〔対応点の抽出〕
図22は、パターン用の対応点の抽出に関するPCのブロック図の一例である。プロジェクタ21は、スクリーン30に対してパターン画像を投影する。投影されたパターン画像データは、カメラによって撮影される。
プロジェクタ21は、パターン取得部1101、隣接要素特定部1102、連結部1103、割当部1104、検査部1105、及び、座標変換部1106を備えている。パターン取得部1101は、入力された撮影画像から、パターン画像を構成するパターン要素と、パターン要素の座標情報とを取得する。
図23(a)はパターン画像を、図23(b)は投影されたパターン画像をカメラにて撮影したパターン画像領域を、それぞれ示す図の一例である。パターン画像は、M×N個のパターン要素がグリッド状に配置された画像データである。パターン画像は、投影されると図23(b)に示されるように、歪みが生じる場合がある。このように生じた歪みを補正するために、投影されたパターン画像は、カメラによって撮影され、撮影画像をパターン取得部1101が取得する。パターン取得部1101は取得したパターン要素をその座標情報と関連付けてRAMなどに記憶する。
そして、この撮影画像のパターン画像領域と、元のパターン画像とをそれぞれ比較することにより、投影時に歪みがどれだけ発生しているかが把握され歪み補正のための補正情報が算出される。なお、補正情報は、グリッド状の配列において、同じ位置に存在するパターン要素同士を比較することにより算出される。そのためには、投影されたパターン画像領域に対しても、配列における位置情報を付与し、元のパターン画像において付与されている位置情報と同じ位置情報を付与されているパターン要素同士の間で、ずれの量を算出することが望ましい。そこで、以下において、撮影されたパターン画像領域のパターン要素に対して、位置情報を付与する処理が行われる。
以下、パターン画像の撮影画像に対して、列の位置情報と、行の位置情報とからなり、配列における位置情報を割り当てる処理の流れについて図24に基づき説明する。本実施形態においては、パターン画像領域のパターン要素がどのパターン画像のパターン要素と隣接しているかを特定することにより、特定された隣接関係を参照して、パターン要素に位置情報を付与していく。本実施形態においては、投影されたパターン画像の左上側に位置するパターン要素を位置情報の始点である<0,0>が付与されることを前提に説明する。
まず、座標変換部1106は、パターン要素の座標情報を変換する(ステップS1061)。具体的には、パターン要素の座標情報は図25に示されるように、X座標とY座標とから構成されている。図中における右方向がX軸における正の方向、下方向がY軸における正の方向である。以下では取得されたパターン要素の総数をC、第i番目のパターン要素をA[i]、その座標を(x[i],y[i])とする。
座標変換部1106は、パターン要素の座標情報をその成分の線形結合で表される次式によって(x,y)座標系から(u,v)座標系へ変換する。
u[i]=(x[i]−y[i])/√2
v[i]=(x[i]+y[i])/√2
このように、(u,v)座標系へと変換する理由としては、図26に示されるように、パターン要素のv座標に注目すると、v座標において、あるパターン要素50aよりも、v座標が小さいパターン要素50bは、必ずパターン要素50aよりも上側、または左側に位置することとなる。なお、投影するパターン画像が、45度傾けて投影されていれば、座標変換部1106による線形結合を用いた変換は不要となる。また、投影時にパターン画像を傾ける処理をするのではなく、パターン要素の配置が元から45度分ずれた態様になっていてもよい。この場合、座標変換部1106による変換処理が不要となるため、処理の高速化を図ることができるようになる。
次いで、並び替え部111はパターン要素を、v座標を基準に値の小さいものから順に並び替えを行う(図3:ステップS1062)。並べ替えをすることにより、以降の処理において、v座標の値を用いた処理を行う際により効率的に行うことができるようになる。並び替えがされたパターン要素50aには、v座標の値が小さいものから順にi(1<=i<=Cの整数)が付与され、元のパターン要素とは別のバッファに、並び替えられた順に記憶される。
次いで、隣接要素特定部1102は、パターン要素同士の隣接要素を特定する処理を行う(図24:ステップS1063)。本実施形態においては、あるパターン要素を選択し、選択したパターン要素に対して、上側、及び左側の2方向において隣接するパターン要素を特定する。なお、特定する方向は最終的に全てのパターン要素の位置が特定できればよく、少なくとも2方向であれば、例えば上と右、右と下、4方向全てを特定するようにしてもよい。また、上述の並び替えにおいては、特定する方向を上と左方向としたため、上側と左側に位置するパターン要素を特定しやすいように、v座標の大小で並べ替えることとしたが、並び替えに使用する座標は、特定する方向に応じて変更するのがよい。
以下、図27、及び図28を用いて、隣接要素を特定する処理の流れについて説明する。図27は、ある選択されたパターン要素の左側に隣接するパターン要素を特定する処理の流れを示すフロー図の一例である。図28は、ある選択されたパターン要素の上側に隣接するパターン要素を特定する処理の流れを示すフロー図の一例である。
図27に示されるように、まず隣接要素特定部1102は、i=1番目のパターン要素50aから処理を行うため、i=1とする(ステップS2061)。iは並び替え後にパターン要素50aに付与された番号である。次いで、隣接要素特定部1102は、最も距離の近いパターン要素の番号を示すJminを0に、最小のパターン要素間の距離を示す閾値であるDNminを、予め暫定に設定した閾値であり、各パターン要素間の距離の最大値として設定した値であるTよりも1大きい値に、i番目のパターン要素と比較するj番目のパターン要素を示す番号jをiより1小さい値にそれぞれ設定する(ステップS2062)。iよりも左側に存在する可能性のあるパターン要素50aのみを処理対象とすればよいため、jはiよりも小さい値のみでよい。
次いで、隣接要素特定部1102は、jが1以上であって、かつv[i]−v[j]が閾値T以下であるか否かを判定する(ステップS2063)。jが1より小さい場合は、すなわちjが0となる場合は、iが1であるため、始点である場合や、選択したパターン要素A[i]を、左側にある可能性のある全てのパターン要素A[j]と比較し終わった場合である。また、v[i]−v[j]が閾値T以下であるかを判定することで、選択したパターン要素A[i]との距離が予め定めた閾値であるTよりも大きいパターン要素A[j]は以降の処理の対象から除外することで、処理にかかる負荷を抑制している。
jが1以上であって、かつv[i]−v[j]が閾値T以下であると判定された場合(ステップS2063:Yes)、次いで隣接要素特定部1102は、u[j]−u[i]が0より小さいか否かを判定する(ステップS2064)。u[i]−u[j]は、j番目のパターン要素50aがi番目のパターン要素50aよりも座標空間において上側に存在するか否かを判定するための値である。図27の処理では、選択したパターン要素50aの左側に隣接するパターン要素を特定することから、u[i]−u[j]が0より小さいパターン要素50aを検索する。u[i]−u[j]が0より小さいと判定された場合(ステップS2064:Yes)、次いで、2つのパターン要素の座標、A[i]とA[j]との間のベクトルのノルムであるDNを以下の式に沿って算出する(ステップS2065)。
DN=SQRT{(u[j]−u[i])2+(v[j]−v[i])2}
次いで、隣接要素特定部1102は、DNがT以下であって、かつDNがDN<DNminであるか否かを判定する(ステップS2066)。DNがT以下であるか否かを判定することにより、パターン要素間の距離が予め定めた閾値であるTより大きい場合は、以降の処理から除外することで、処理負担を抑制している。また、DNをDNminと比較することで、パターン要素がこれまで比較したパターン要素同士の間で最も距離が近いものであるか否かが判別される。DNがT以下であって、かつDN<DNminであると判定された場合(ステップS2066:Yes)、隣接要素特定部1102は、DNminをDNの値に更新するとともに、Jminにjを代入する(ステップS2067)。Jminは、選択したパターン要素と最も距離の近いパターン要素50aの番号を示す値である。そして、隣接要素特定部1102は、パターン要素のA[i]の左隣接要素番号をJminとし、ステップS2069へと移行する(ステップS2068)。
一方、jが1より小さいか、v[i]−v[j]が閾値Tより大きい場合(ステップS2063:No)、u[j]−u[i]が0以上の場合(ステップS2064:No)、DNがTより大きいか、DNがDNmin以上であると判定された場合(ステップS2066:No)、次のパターン要素と隣接関係にあるか否かの判定を行うべく、jを1減算する(ステップS2069)。そして、jが1以上であるか否かが判定され(ステップS2070)、jが1以上の場合は(ステップS2070:Yes)、ステップS2063へと戻り、jが1より小さい場合は(ステップS2070:No)、ステップS2071へと進む。
そして、ステップS2068においてある選択されたパターン要素であるA[i]についての左隣接要素が特定されると、隣接要素特定部1102はiを1加算し(ステップS2071)、iが最大値であるCに達したか否かを判定する(ステップS072)。iが最大値であるCに達した場合(ステップS2072:Yes)、処理は終了し、一方、iが最大値であるCに達していないと判定された場合(ステップS2072:No)、ステップS2062から処理を繰り返す。
図28の上隣接要素を特定する処理においては、ステップS3064のみが異なり、u[i]−u[j]が0より大きいか否かが判定される(ステップS3064)。あるパターン要素50aのA[i]よりもA[j]が上側に存在する場合、u[i]−u[j]は0よりも大きくなる。したがって、上隣接要素を特定する場合、ステップS3064の処理において、パターン要素50aが絞り込まれる。以上の処理では探索をj=i−1から始めてj=1に向かって進め、v[i]−v[j]>Tとなった時点で、それよりも小さいjでは必ずv[i]−v[j]>T、ひいてはDN>Tであることが確実となることから探索を終了しており、処理にかかる負担をさらに削減している。
この処理を行うことにより、左側の隣接要素と、上側の隣接要素に同じパターン要素が特定されてしまうといった不都合を防ぐことができる。上述のような方法で特定されたあるパターン要素50aのA[i]の上隣接要素番号と、左隣接要素番号は、図29に示されるように、注目要素ごとに特定され、この対応関係は記憶部102におけるバッファに記憶される。なお図30に示されるように、グリッド配列の外周部に位置するパターン要素群50cや、撮影画像においてパターン要素にある欠損があり、左、又は上に欠損が存在するパターン要素群100dに対しては、対応する左(上)隣接要素番号に「隣接なし」を意味する0を設定しておく。
隣接要素が特定できると、次いで連結部1103は、パターン要素を連結する要素ラベリング処理を実施する(図24:ステップS1064)。連結部1103は、特定した隣接要素同士を連結してグループ化していき、連結成分を抽出し、それぞれのラベリングを付与する。一般にラベリングとは二値画像上の隣接する黒画素同士を連結していって黒画素連結成分を抽出する処理を指すが、ここでいう要素ラベリングは連結すべき対象要素が黒画素からパターン要素に置き換わったものであり、具体的な処理手順については従来から広く利用されている公知のラベリング手法をそのまま用いることができる。
図31は連結成分の生成結果の一例を示している。同図には校正用のパターン画像に対応する第1の連結成分300、及び投影されたパターン画像の撮像時に写りこんだ背景オブジェクトやノイズに由来する別の第二の連結成分400も抽出されている。抽出された各連結成分300、400は、記憶部102のバッファに記憶される。
続いて、割当部1104は、グリッドインデックス決定処理を行う(図24:ステップS1065)。グリッドインデックス決定処理においては、抽出された連結成分300、400に含まれるパターン要素に対し、所属する連結成分内における位置情報を決定する。本実施形態では位置情報をグリッド列番号p(0≦p≦M−1)とグリッド行番号q(0≦q≦N−1)の組み合わせ<p,q>で示す。
具体的にはまず、それぞれの連結成分300、400の中でv座標の順に並び替えた順が先頭であるパターン要素を探し、連結成分300、400における始点とする。始点とは、連結成分300、400の中で最も左上に位置し、左隣接要素、及び上隣接要素を持たず、グリッドの開始列、及び開始行に対応する。始点となるパターン要素50aには位置情報として、<0,0>が割り当てられる。
割当部1104は、始点となったパターン要素から、特定された隣接要素を参照し、始点を左隣接要素とするパターン要素には位置情報として<1,0>を付与する。また割当部1104は、さらに<1,0>を左隣接要素とするパターン要素には<2,0>をというように、順に位置情報を割り当てる。
割当部1104は、始点を上隣接要素とするパターン要素には位置情報として<0,1>を付与する。さらに割当部1104は、<0,1>が割り当てられたパターン要素を左隣接要素とするパターン要素には<1,1>を、また<0,1>のパターン要素を上隣接要素とするパターン要素には<0,2>を、さらに<0,2>のパターン要素を左隣接要素とするパターン要素には<1,2>を、という順に位置情報を割り当てていく。以上の方法においては、少なくとも左隣接要素、及び上隣接要素のいずれかが存在しているパターン要素であれば、その位置情報を割り当てることができるようになる。なお、位置情報の割当の方法としては、このように各パターン要素が隣接する順番に従って割り当てる以外にも、予め定められた規則性にしたがって割り当てられればよい。例えば、視点が反対側に位置するパターン要素から始まって反対向きに位置情報が割り当てられてもよい。図31には連結成分300、400それぞれに割り当てられた位置情報の例を示す。
位置情報が割当られた連結成分300、400は校正用のパターン画像として出力されて、元のパターン画像との比較によって歪み補正が実行されるが、本実施形態においては、出力の前に、ノイズなどに由来する連結成分300を出力から除外するためのグリッド検査処理が実行される(図24:ステップS1066)。
図32は、グリッド検査処理の詳細を示すフロー図である。グリッド検査処理は、連結成分300、400ごとに実行される。図33に示されるように、まず検査部1105は、検査スコアであるSと、位置情報のうち行成分であるqの値をそれぞれ0に初期化する(ステップS4061)。次いで、検査部1105は、位置情報のうち列成分であるpの値を0に初期化する(ステップS4062)。
次いで、検査部1105は、現在の<p,q>の位置情報が割当られたパターン要素が連結成分300、400中に存在しているか否かを判定する(ステップS4063)。<p,q>の位置情報が割当られたパターン要素が連結成分300、400中に存在していないと判定された場合(ステップS4063:No)、検査スコアSの値が1加算される(ステップS4064)。一方、<p,q>の位置情報が割当られたパターン要素が連結成分300、400中に存在している場合(ステップS4063:Yes)、検査スコアSを加算することなく、検査部1105は、pがM−1であるか否かを判定する(ステップS4065)。pがM−1でないと判定された場合(ステップS4065:No)、すなわち未だある行において終点のパターン要素にまで検査が到達していない場合、検査部1105はpの値を1加算して、ステップS4063からの処理を繰り返す(ステップS4066)。
pがM−1であると判定された場合(ステップS4065:Yes)、検査部1105は、qがN−1であるか否かを判定する(ステップS4067)。qがN−1でないと判定された場合(ステップS4067:No)、すなわち未だ全てのパターン要素に対して検査が完了していない場合、検査部1105はqの値を1加算して、ステップS4062からの処理を次の行に対して繰り返す(ステップS4068)。一方、がN−1であると判定された場合(ステップS4067:Yes)、検査部1105は、検査スコアSが予め定められた閾値TS以下であるか否かを判定する(ステップS4069)。閾値TSは、パターン要素が欠損する場合を想定して設定された数値である。検査スコアSが予め定められた閾値TS以下の場合(ステップS4069:Yes)、処理は終了し、その連結成分は校正用パターンとして出力される。一方、検査スコアSが予め定められた閾値TSより大きくなった場合(ステップS4069:No)、検査部1105は、連結成分を校正用パターン画像としての出力から除外する(ステップS4070)。
上述した、連結成分200の場合においては、元のパターン画像であるM×N個のパターン要素を含むため、検査スコアSが閾値TSより大きくなることはないため、出力から除外されることはない。一方、連結成分300は、パターン要素が<0,0>、<0,1>、<1,0>、<1,1>、及び<2,1>のみであり、本来あるべきパターン要素数から、M×N−5のパターン要素が不足することから、検査スコアSはM×N−5となり、通常であれば閾値TSを越えてしまうため、連結成分300は出力からは除外されることとなる。
こうして検査がなされた連結成分が、パターン画像領域から抽出され、SSDに記憶されたパターン画像と、同じ位置情報が付与されたパターン要素同士を比較することでその歪みの量が算出され、歪み補正のための補正情報が自動的に計算される。
〔補正情報の算出〕
撮影画像のパターン画像領域のパターン要素とパターン画像のパターン要素の対応が分かれば、コンテンツ画像の補正情報を算出できる。
図34は、撮影画像のパターン画像領域と、パターン画像の対応の一例を示す図である。補正情報算出部112は、まず、対応点からメッシュを形成し、各領域毎に対応付けを行う。パターン画像領域の1メッシュとパターン画像の1メッシュの対応関係は、射影変換で記述する。パターン画像の点をm=(xp,yp)、撮影画像の点をm(xc,yc)とすると射影変換により点mはmを用いて以下のように表すことができる。
h1〜h8は未知の射影変換パラメータである。また、同次座標を用いて次のように表現できる。
Hが射影変換行列である。
また、パターン画像のパターン要素と撮影画像のパターン要素同士の1つの対応点から以下の拘束が得られる。
この式により、8つの未知パラメータに対して2つの拘束が得られる。したがって、1つのメッシュの頂点である4つの対応点が得られればHの全ての要素を決定できる。射影変換の式は、全画素の対応関係を記録したテーブルとして保持しておくことができる。
図35は、補正画像の作成について説明する図の一例である。投影されるコンテンツ画像の補整は、プロジェクタが投影するコンテンツ画像を予め変形させることで行う。まず、補正情報算出部112は、撮影画像内でパターン画像領域が長方形になるように投影領域を決める。投影領域は、パターン画像領域の最大内接長方形とする。ただし、コンテンツ画像のアスペクト比と同じとすることが好ましいので、実際には最大内接長方形よりも小さくなる。したがって、補正されたコンテンツ画像は、元のコンテンツ画像よりも小さくなる。
以下では、補正画像上の点Aの画素値を、コンテンツ画像から読み出して決定する手順を説明する。
(1)まず、点Aが撮影画像上のどの位置にあたるかを決定する。この点を点Acと呼ぶ。射影変換により点Acの座標(x、y)をパターン画像の点Apに変換することができたので、射影変換とは逆に点Aの座標を撮影画像の点Acの座標に変換できる。点Acの座標(x、y)は、撮影画像の左上を原点とした座標系の座標である。
(2)次に、求めた撮影画像の点Acが、投影領域内ではどの位置に相当するかを算出する。投影領域の左上を原点(x,y)とする。この原点に対する点Acの座標を(xc1,yc1)とする。
(3)点Acに対応する元の画像(コンテンツ画像)の点Apの座標を(x、y)とする。投影領域は元の画像とアスペクト比が一致し、大きさだけが異なるので、元の画像の横方向の長さWpと撮影画像の投影領域の横方向の長さWcから、点Apの座標は以下のように表すことができる。
(x、y)=W/W(xc1,yc1) …(a)
(4)撮影画像における投影領域の原点は(x,y)なので、点Acの座標値は以下のように表すことができる。
(x、y)=(x,y)+(xc1,yc1) …(b)
(5) 点Acの座標(x、y)は求められているので、(b)式により(xc1,yc1)が求められ、(a)式により点Apの座標(x、y)を求めることができる。この座標(x、y)の画素値を、補正画像の点Aの画素値とする。
なお、点Aに対応する点Apの座標は整数とは限らないので、その場合は点Apの周囲の画素の画素値から補間して求める。
したがって、射影変換の式、投影領域、式(a)(b)などが補正情報に相当する。なお、補正情報の算出については、「投影画像の幾何補正に関する実験的検討」,計測自動制御学会東北支部第235回研究集会(2007.5.18)に記載がある。
補正部113は、補正情報算出部112により算出された補正情報に基づいて、画像データ記憶部110に記憶されているコンテンツ画像を補正し、補正画像を得る。
図36は、実施例2にかかる画像処理システム2の全体構成を示す図である。本実施例において、実施例1において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
本実施例の画像処理システム2においては、カメラ42とプロジェクタ22の間で各種情報が送受信される。実施例2にかかる画像処理システム2においては、カメラ42により得られた撮影画像はプロジェクタ22に送信され、プロジェクタ22において、補正情報が算出され、補正情報はPC12に送信される。PC12は、プロジェクタ22において算出された補正情報に基づいて、投影対象のコンテンツ画像を補正し、補正画像を得て、これをプロジェクタ22に送信する。
図37は、実施例2にかかるPC12、プロジェクタ22およびカメラ42の機能構成を示すブロック図である。PC12は、画像データ記憶部120と、通信部121と、補正部123とを有している。プロジェクタ22は、通信部220と、投影部221とに加え、補正情報算出部222を有している。カメラ42は、画像取得部420と、情報取得部421と、判断部422と、通信部423とを有している。
本実施例にかかる画像処理システム2においては、カメラ42の通信部423は、情報取得部421で取得した情報を元にして、判断部422で補正情報算出に適していると判断された撮影画像をプロジェクタ22に送信する。プロジェクタ22の補正情報算出部222は、通信部220がカメラ42から受信した撮影画像と、通信部220がPC12から受信したパターン画像とに基づいて、補正情報を算出する。通信部220はさらに、補正情報をPC12に送信する。PC12の補正部123は、通信部121が受信した補正情報に基づいて、投影対象のコンテンツ画像を補正し、補正画像を得る。
図38は、画像処理システム2による画像補正処理を示すシーケンス図である。なお、ステップS200〜ステップS204の処理は、実施例1の図6に基づき説明した画像処理システム1による画像補正処理のステップS100〜ステップS104の処理と同様である。
カメラ42において、判断部が適切な補正情報を算出可能であるという画像使用可否判断を行う(ステップS204)。この判断の後、通信部423は、撮影画像をプロジェクタ22に送信する(ステップS205)。
プロジェクタ22においては、通信部220が撮影画像を受信すると、補正情報算出部222は、撮影画像とパターン画像とに基づいて、補正情報を算出する(ステップS206)。次に、通信部220は、補正情報をPC12に送信する(ステップS207)。
PC12においては、通信部121が補正情報を受信すると、補正部123は、補正情報に基づいて、投影対象のコンテンツ画像を補正し、補正画像を得る(ステップS208)。なお、ステップS208〜ステップS210の処理は、実施例1にかかるステップS107〜ステップS109の処理と同様である。
このように、本実施例2にかかる画像処理システム2においては、実施例1にかかる画像処理システム1と同様に、補正画像をスクリーン30に投影することにより、スクリーン30に投影される画像のゆがみを補正することができる。さらに、補正画像を得るための撮影画像に対しては、あらかじめ補正情報算出の成否を判断した後に、補正情報算出部222にて補正情報算出処理を行うことで、補正情報算出に成功する画像を補正情報算出部に送信するため、補正情報算出処理の失敗を回避できる。
さらに、実施例2にかかる画像処理システム2においては、プロジェクタ22が補正情報を算出する。これにより、画像処理システム2においては、PC12を他の機器に変更した場合には、プロジェクタ22から変更後の機器に補正情報を送信することにより、変更後の機器に記憶されているコンテンツ画像に対し、スクリーン30に投影した際の歪みを矯正するための補正を施すことができる。したがって、変更後の機器が、補正画像生成にかかる機能を有する必要がない。また、PC12を他の機器に変更する度に、補正情報を算出する必要がなく、処理の効率化を図ることができる。
なお、実施例2にかかる画像処理システム2のこれ以外の構成および処理は、実施例1にかかる画像処理システム1の構成および処理と同様である。
図39は、実施例3にかかる画像処理システム3の全体構成を示す図である。本実施例において、実施例1において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
実施例3にかかる画像処理システム3においては、カメラ43により得られた撮影画像はプロジェクタ23に送信され、プロジェクタ23において、補正情報が算出され、さらに補正画像が得られる。
図40は、実施例3にかかるPC13、プロジェクタ23およびカメラ43の機能構成を示すブロック図である。PC13は、画像データ記憶部130と、通信部131とを有している。プロジェクタ23は、通信部230と、投影部231とに加え、補正情報算出部232と、補正部233とを有している。カメラ43は、画像取得部430と、情報取得部431と、判断部432と、通信部433とを有している。
本実施例にかかる画像処理システム3においては、カメラ43の通信部433は、情報取得部431で取得した情報を元にして、判断部432で補正情報算出に適していると判断された撮影画像をプロジェクタ23に送信する。プロジェクタ23の補正情報算出部232は、通信部230がカメラ43から受信した撮影画像と、通信部230がPC13から受信したパターン画像とに基づいて、補正情報を算出する。補正部233は、補正情報に基づいて、投影対象のコンテンツ画像を補正し、補正画像を得る。補正画像は、投影部231によりスクリーン30に投影される。
図41は、画像処理システム3による画像補正処理を示すシーケンス図である。なお、ステップS300〜ステップS306の処理は、図38を参照しつつ説明した実施例2にかかる画像処理システム2による画像補正処理のステップS200〜ステップS206の処理と同様である。
プロジェクタ23において、補正情報が算出されると(ステップS306)、次に、補正部233は、補正情報に基づいて、通信部230がPC13から受信した、投影対象のコンテンツ画像を補正し、補正画像を得る(ステップS307)。
次に、投影部231は、補正部233により得られた補正画像をスクリーン30に投影する(ステップS308)。以上で画像補正処理が完了する。
このように、本実施例にかかる画像処理システム3においては、他の実施例にかかる画像処理システムと同様に、補正画像をスクリーン30に投影することにより、スクリーン30に投影される画像のゆがみを補正することができる。
さらに、補正画像を得るための撮影画像に対しては、あらかじめ補正情報算出の成否を判断した後に、補正情報算出部232にて補正情報算出処理を行うため、補正情報算出処理の失敗を回避できる。
さらに、実施例3にかかる画像処理システム3においては、プロジェクタ23が補正情報を算出し、補正画像を得るので、PC13は、スクリーン30に投影すべきコンテンツ画像を送信するのみでよく、補正画像生成にかかる機能を有さなくてよい。このため、プロジェクタ23は、PC13に限らず、汎用的なテレビやカメラから受信したコンテンツ画像に対応する補正画像をスクリーン30に投影することができる。
なお、実施例3にかかる画像処理システム3のこれ以外の構成および処理は、実施例にかかる画像処理システムの構成および処理と同様である。
図42は、実施例4にかかる画像処理システム4の全体構成を示す図である。実施例4にかかる画像処理システム4では、カメラ44において、撮影画像から補正情報、補正画像が生成され、補正画像がプロジェクタ24に送信される。
図43は、実施例4にかかるプロジェクタ24およびカメラ44の機能構成を示すブロック図である。プロジェクタ24は、通信部240と、投影部241と、画像データ記憶部242とを有している。カメラ44は、画像取得部440と、情報取得部441と、判断部442と、補正情報算出部443と、補正部444と、通信部445とを有している。
本実施例にかかる画像処理システム4では、カメラ44の通信部445は、プロジェクタ24からパターン画像およびコンテンツ画像を受信する。補正情報算出部443は、情報取得部441で取得した情報を元にして、判断部442で補正情報算出に適していると判断された撮影画像と、パターン画像とに基づいて、補正情報を算出する。補正部444は、補正情報に基づいて、通信部445が受信したコンテンツ画像を補正し、補正画像を得る。通信部445はさらに、補正画像をプロジェクタ24に送信する。
図44は、画像処理システム4による画像補正処理を示すシーケンス図である。画像処理システム4においては、まずプロジェクタ24の通信部240がパターン画像をカメラ44に送信する(ステップS400)。続くステップS401〜ステップS404の処理は、図6を参照しつつ説明した実施例1にかかる画像処理システム1による画像補正処理のステップS101〜ステップS104の処理と同様である。
さらに、プロジェクタ24の通信部240は、投影対象のコンテンツ画像をカメラ44に送信する(ステップS405)。なお、プロジェクタ24がコンテンツ画像をカメラ44に送信するタイミングは任意である。カメラ44へのコンテンツ画像の送信タイミングは、プロジェクタ24によるカメラ44へのパターン画像の送信と同時であってもよく、また他の例としては、カメラ44へのパターン画像の送信よりも前であってもよい。
カメラ44においては、通信部445がプロジェクタ24からコンテンツ画像を受信すると、補正情報算出部443は、通信部445が受信したパターン画像と、情報取得部441で取得した情報を元にして、判断部442で補正情報算出に適していると判断された撮影画像とに基づいて補正情報を算出する(ステップS406)。
次に、補正部444は、補正情報に基づいて、通信部445が受信したコンテンツ画像、すなわち投影対象のコンテンツ画像を補正し、補正画像を得る(ステップS407)。
次に、通信部445は、補正画像をプロジェクタ24に送信する(ステップS408)。
そして、プロジェクタ24の投影部241は、通信部240がカメラ44から受信した補正画像をスクリーン30に投影する(ステップS409)。以上で、画像補正処理が完了する。
このように、本実施例にかかる画像処理システム4においては、他の実施例にかかる画像処理システムと同様に、補正画像をスクリーン30に投影することにより、スクリーン30に投影される画像のゆがみを補正することができる。さらに、補正画像を得るための撮影画像に対しては、あらかじめ補正情報算出の成否を判断した後に、補正情報算出部443にて補正情報算出処理を行うため、補正情報算出処理の失敗を回避できる。
さらに、実施例4にかかる画像処理システム4においては、カメラ44において、補正画像を生成するまでの一連の処理を行うことができるので、画像処理システム4の構成を簡略化することができる。また、プロジェクタ24が、補正画像生成に関する機能を有する必要がないので、プロジェクタ24を他のプロジェクタに交換した場合には、交換後のプロジェクタに補正画像を送信すればよい。このように、プロジェクタを交換した場合に、再度補正情報を生成する必要がない。したがって、処理の効率化を図ることができる。また、プロジェクタ24は、テレビやカメラから受信した画像データに対応する補正画像をスクリーン30に投影することができる。
なお、実施例4にかかる画像処理システム4のこれ以外の構成および処理は、他の実施例にかかる画像処理システムの構成および処理と同様である。
実施例4の画像処理システム4の変更例としては、コンテンツ画像およびパターン画像は、プロジェクタ24の画像データ記憶部242に替えてカメラ44の記憶部が記憶してもよい。この場合には、カメラ44からパターン画像をプロジェクタ24に送信し、プロジェクタ24は、カメラ44から受信したパターン画像をスクリーン30に投影する。さらに、カメラ44は、自身の記憶部に記憶されているコンテンツ画像から補正画像を得て、これをプロジェクタ24に送信する。
図45は、実施例5にかかる画像処理システム5の全体構成を示す図である。実施例5にかかる画像処理システム5では、実施例4にかかる画像処理システム4と同様、カメラ45において、撮影画像から補正画像が生成され、補正画像がプロジェクタ25に送信されるが、本実施例にかかる画像処理システム5においては、画像データ記憶部150は、PC15に設けられている。
図46は、実施例5にかかるPC15、プロジェクタ25およびカメラ45の機能構成を示すブロック図である。PC15は、画像データ記憶部150と、通信部151とを有している。プロジェクタ25は、通信部250と、投影部251とを有している。カメラ45は、画像取得部450と、情報取得部451と、判断部452と、補正情報算出部453と、補正部454と、通信部455とを有している。
本実施例にかかる画像処理システム5では、PC15の通信部151は、パターン画像をプロジェクタ25と、カメラ45とに送信する。カメラ45の通信部455は、PC15からパターン画像を受信する。補正情報算出部453は、情報取得部451で取得した情報を元にして、判断部452で補正情報算出に適していると判断された撮影画像と、PC15から受信したパターン画像とに基づいて、補正情報を算出する。補正部454は、補正情報に基づいて、通信部455が受信した、投影対象のコンテンツ画像を補正し、補正画像を得る。通信部455はさらに、補正画像をプロジェクタ25に送信する。
図47は、画像処理システム5による画像補正処理を示すシーケンス図である。なお、ステップS500〜ステップS504の処理は、図6を参照しつつ説明した実施例1にかかる画像処理システム1による投影画像補正処理のステップS100〜ステップS104の処理と同様である。
PC15の通信部151は、パターン画像をプロジェクタ25に送信するとともに、パターン画像をカメラ45に送信する(ステップS505)。なお、PC15がパターン画像をカメラ45に送信するタイミングは任意である。カメラ45へのパターン画像の送信タイミングは、プロジェクタ25へのパターン画像の送信と同時であってもよく、また他の例としては、プロジェクタ25への投影画像の送信よりも前であってもよい。
カメラ45においては、通信部455がPC15からパターン画像を受信すると、補正情報算出部453は、通信部455が受信したパターン画像と、情報取得部451で取得した情報を元にして、判断部452で補正情報算出に適していると判断された撮影画像とに基づいて補正情報を算出する(ステップS506)。
次に、通信部455は、PC15から投影対象のコンテンツ画像を受信する(ステップS507)。なお、カメラ45がコンテンツ画像を受信するタイミングは、実施例に限定されるものではく、ステップS506よりも前のタイミングであってもよい。
次に、補正部454は、補正情報に基づいて、通信部455が受信した投影対象のコンテンツ画像を補正し、補正画像を得る(ステップS508)。次に、通信部455は、補正画像をプロジェクタ25に送信する(ステップS509)。そして、プロジェクタ25の投影部251は、通信部250がカメラ45から受信した補正画像をスクリーン30に投影する(ステップS510)。以上で、画像補正処理が完了する。
このように、本実施例にかかる画像処理システム5においては、他の実施例にかかる画像処理システムと同様に、補正画像をスクリーン30に投影することにより、スクリーン30に投影される投影画像のゆがみを補正することができる。さらに、補正画像を得るための撮影画像に対しては、あらかじめ補正情報算出の成否を判断した後に、補正情報算出部453にて補正情報算出処理を行うため、補正情報算出処理の失敗を回避できる。
さらに、実施例5にかかる画像処理システム5においては、カメラ45において、補正画像を生成するまでの一連の処理を行うことができるので、画像処理システム5の構成を簡略化することができる。また、プロジェクタ25が、補正画像生成に関する機能を有する必要がないので、プロジェクタ25を他のプロジェクタに交換した場合には、交換後のプロジェクタに補正画像を送信すればよい。このように、プロジェクタを交換した場合に、再度補正画像を生成する必要がない。また、PC15を他の機器に変更した場合にも、同様に補正画像を生成する必要がない。したがって、処理の効率化を図ることができる。また、プロジェクタ25は、PC15に限らず、テレビやカメラから受信した画像データに対応する補正画像をスクリーン30に投影することができる。
なお、実施例5にかかる画像処理システム5のこれ以外の構成および処理は、他の実施例にかかる画像処理システムの構成および処理と同様である。
図48は、実施例6にかかる画像処理システム6の全体構成を示す図である。実施例6にかかる画像処理システム6は、PC16と、プロジェクタ26と、カメラ46の他に、補正画像を生成する演算装置60を備えている。演算装置60は、PC16、プロジェクタ26、カメラ46と各種情報を送受信する。
画像処理システム6においては、カメラ46から演算装置60に撮影画像が送信され、PC16から演算装置60にパターン画像とコンテンツ画像とが送信される。また、PC16からプロジェクタ26にパターン画像が送信される。そして、演算装置60において、補正画像が生成され、補正画像がプロジェクタ26に送信される。
図49は、実施例6にかかるPC16、プロジェクタ26、カメラ46および演算装置60の機能構成を示すブロック図である。PC16は、画像データ記憶部160と、通信部161とを有している。プロジェクタ26は、通信部260と、投影部261とを有している。カメラ46は、画像取得部460と、情報取得部461と、判断部462と、通信部463とを有している。演算装置60は、通信部600と、補正情報算出部601と、補正部602とを有している。
本実施例にかかる画像処理システム6では、PC16の通信部161は、パターン画像とコンテンツ画像とを演算装置60に送信する。通信部161はまた、パターン画像をプロジェクタ26に送信する。カメラ46の通信部463は、情報取得部461で取得した情報を元にして、判断部462で補正情報算出に適していると判断された撮影画像を演算装置60に送信する。
演算装置60の通信部600は、PC16からパターン画像を受信し、カメラ46から撮影画像を受信する。演算装置60の補正情報算出部601は、通信部600が受信した撮影画像とコンテンツ画像とに基づいて、補正情報を算出する。補正部602は、補正情報算出部601が算出した補正情報に基づいて、通信部600が受信したコンテンツ画像を補正し、補正画像を得る。通信部600はさらに、補正画像をプロジェクタ26に送信する。
図50は、画像処理システム6による画像補正処理を示すシーケンス図である。なお、ステップS600〜ステップS604の処理は、図6を参照しつつ説明した実施例1にかかる画像処理システム1による画像補正処理のステップS100〜ステップS104の処理と同様である。
ステップS604に続き、カメラ46は、情報取得部461で取得した情報を元にして、判断部462で補正情報算出に適していると判断された撮影画像を演算装置60に送信する(ステップS605)。一方、PC16は、パターン画像を演算装置60に送信する(ステップS606)。なお、PC16がパターン画像を演算装置60に送信するタイミングは任意である。
演算装置60においては、通信部600は、カメラ46から撮影画像を受信すると、補正情報算出部601は、通信部600が受信したパターン画像と、撮影画像とに基づいて補正情報を算出する(ステップS607)。次に、通信部600は、PC16から投影対象のコンテンツ画像を受信する(ステップS608)。なお、通信部600がコンテンツ画像を受信するタイミングは任意である。
次に、補正部602は、補正情報に基づいて、通信部600が受信した、投影対象のコンテンツ画像を補正し、補正画像を得る(ステップS609)。
次に、通信部600は、補正画像をプロジェクタ26に送信する(ステップS610)。そして、プロジェクタ26の投影部261は、通信部260が演算装置60から受信した補正画像をスクリーン30に投影する(ステップS611)。以上で、画像補正処理が完了する。
このように、本実施例にかかる画像処理システム6においては、他の実施例にかかる画像処理システムと同様に、補正画像をスクリーン30に投影することにより、スクリーン30に投影される画像のゆがみを補正することができる。さらに、補正画像を得るための撮影画像に対しては、あらかじめ補正情報算出の成否を判断した後に、補正情報算出部601にて補正情報算出処理を行うため、補正情報算出処理の失敗を回避できる。
さらに、実施例6にかかる画像処理システム6においては、演算装置60において、補正情報を算出し、さらに補正画像を生成する。これにより、PC16およびプロジェクタ26のいずれの装置も、補正画像生成にかかる機能を有する必要がない。
なお、実施例6にかかる画像処理システム6のこれ以外の構成および処理は、他の実施例にかかる画像処理システムの構成および処理と同様である。
1 画像処理システム
11 PC
21 プロジェクタ
41 カメラ
110 画像データ記憶部
111 通信部
112 補正情報算出部
113 補正部
210 通信部
211 投影部
410 撮影部
411 データ量削減部
412 通信部
特開2006‐033357号公報

Claims (19)

  1. コンピュータに、
    画像を取得する画像取得ステップと、
    補正情報の算出が可能な画像が前記画像取得ステップにより取得されたか否かを判断するための判断情報を取得する判断情報取得ステップと、
    前記判断情報に基づき前記補正情報が算出可能か否かを判断する判断ステップと、
    前記判断ステップで前記補正情報を算出可能と判断された場合、前記画像取得ステップで取得された画像を補正情報算出手段に提供するか、又は、前記画像取得ステップで取得された画像から補正情報を算出するステップと、
    を実行させるプログラム。
  2. 前記判断情報取得ステップにおいて、前記画像取得ステップにより取得された画像を用いて前記コンピュータの傾きを前記判断情報として取得し、
    前記判断ステップにおいて、前記傾きが第1の閾値以上か否かに基づき前記補正情報が算出可能か否かを判断する、
    ことを特徴とする請求項1記載のプログラム。
  3. 前記判断情報取得ステップにおいて、加速度情報検出手段が検出した加速度を前記判断情報として取得し、
    前記判断ステップにおいて、前記加速度が第2の閾値以上か否かに基づき前記補正情報が算出可能か否かを判断する、
    ことを特徴とする請求項1記載のプログラム。
  4. 前記判断情報取得ステップにおいて、前記画像取得ステップにより取得された画像の特徴量を前記判断情報として取得し、
    前記判断ステップにおいて、前記特徴量が前記画像取得ステップにより取得された画像に手ぶれが生じていることを示すか否かに基づき、前記補正情報が算出可能か否かを判断する、ことを特徴とする請求項1記載のプログラム。
  5. 前記判断情報取得ステップにおいて、前記画像取得ステップにより取得された画像の所定領域のサイズを前記判断情報として取得し、
    前記判断ステップにおいて、前記サイズが第3の閾値以上か否かに基づき前記補正情報が算出可能か否かを判断する、ことを特徴とする請求項1記載のプログラム。
  6. 前記判断情報取得ステップにおいて、音声情報取得手段が取得した音声情報を前記判断情報として取得し、
    前記判断ステップにおいて、前記音声情報の強さが第4の閾値以上か否か又は前記音声情報が予め定められた発話内容と一致するか否かに基づき前記補正情報が算出可能か否かを判断する、ことを特徴とする請求項1記載のプログラム。
  7. 前記判断情報取得ステップにおいて、加速度情報検出手段が検出した加速度に基づいて、前記コンピュータの傾きを前記判断情報として取得し、
    前記判断ステップにおいて、前記傾きが第1の閾値以上か否かに基づき前記補正情報が算出可能か否かを判断する、
    ことを特徴とする請求項1記載のプログラム。
  8. 前記画像取得ステップにおいて、前記コンピュータに通信可能に接続された撮影手段が繰り返し撮影する画像を順に取得し、
    前記判断情報取得ステップで、前記画像取得ステップにて取得された画像から前記判断情報が取得された場合は、前記判断ステップにより前記補正情報が算出可能であると判断された前記判断情報の取得元になった画像を外部の情報処理装置に送信する送信ステップ、をさらに実行させ
    前記判断情報取得ステップで、前記画像取得ステップにて取得された画像以外から前記判断情報が取得された場合は、前記判断ステップにより前記補正情報が算出可能であると判断された時又は直前若しくは直後に、前記画像取得ステップにより取得された画像を外部の情報処理装置に送信する送信ステップ、をさらに実行させる、
    ことを特徴とする請求項1〜7いずれか1項記載のプログラム。
  9. 前記画像取得ステップにおいて、前記コンピュータに通信可能に接続された撮影手段が繰り返し撮影する画像を順に取得し、
    前記判断情報取得ステップで、前記画像取得ステップにて取得された画像から前記判断情報が取得された場合は、前記判断ステップにより前記補正情報が算出可能であると判断された前記判断情報の取得元になった画像を用いて前記補正情報を算出する補正情報算出ステップ、をさらに実行させ
    前記判断情報取得ステップで、前記画像取得ステップにて取得された画像以外から前記判断情報が取得された場合は、前記判断ステップにより前記補正情報が算出可能であると判断された時又は直前若しくは直後に、前記画像取得ステップにより取得された画像を用いて前記補正情報を算出する補正情報算出ステップ、をさらに実行させる、
    ことを特徴とする請求項1〜7いずれか1項記載のプログラム。
  10. 画像を取得する画像取得手段と、
    補正情報の算出が可能な画像が前記画像取得手段により取得されたか否かを判断するための判断情報を取得する判断情報取得手段と、
    前記判断情報に基づき前記補正情報が算出可能か否かを判断する判断手段と、
    前記判断手段により前記補正情報を算出可能と判断された場合、前記画像取得手段が取得した画像を補正情報算出手段に提供するか、又は、前記画像取得手段が取得した画像から補正情報を算出する補正情報算出手段と、
    を有することを特徴とする情報処理装置。
  11. 請求項8項記載のプログラムと、
    前記外部の情報処理装置が算出した前記補正情報により補正された画像を投影する投影装置又は画像を表示する表示装置、又は、前記補正情報を算出して該補正情報で補正された画像を投影する投影装置若しくは画像を表示する表示装置と、
    を有することを特徴とするシステム。
  12. 請求項9記載のプログラムと、
    前記補正情報算出ステップで算出された前記補正情報により補正された画像を投影する投影装置又は前記画像を表示する表示装置と、
    を有することを特徴とするシステム。
  13. 請求項10記載の情報処理装置と、
    画像を投影する投影装置又は画像を表示する表示装置と、
    を有することを特徴とするシステム。
  14. 前記情報処理装置は前記画像取得手段としての撮影手段を内蔵するか又は撮影手段と接続されており、
    前記撮影手段は、前記投影装置が画像を投影する方向とは異なる方向から画像を撮影する、ことを特徴とする請求項13記載のシステム。
  15. 前記投影装置又は前記情報処理装置が、前記投影装置が投影する画像又は前記表示装置が表示する画像の画像データを記憶している、
    ことを特徴とする請求項13又は14記載のシステム。
  16. 前記投影装置が投影する画像又は前記表示装置が表示する画像の画像データを記憶する画像データ記憶装置、
    をさらに有することを特徴とする請求項13又は14記載のシステム。
  17. 前記情報処理装置、前記投影装置若しくは前記表示装置、又は、前記画像データ記憶装置が、前記補正情報を算出する補正情報算出手段と、
    前記補正情報により前記画像データを補正する補正手段と、を有し、
    前記投影装置は前記補正手段が補正した前記画像データを投影し、前記表示装置は前記補正手段が補正した前記画像データを表示する、
    ことを特徴とする請求項16記載のシステム。
  18. 画像から前記補正情報を算出する補正情報算出手段と、
    前記補正情報により前記画像データを補正する補正手段とを有する演算装置を、をさらに有することを特徴とする請求項16記載のシステム。
  19. 画像を取得する画像取得手段と、
    補正情報の算出が可能な画像が前記画像取得手段により取得されたか否かを判断するための判断情報を取得する判断情報取得手段と、
    前記判断情報に基づき前記補正情報が算出可能か否かを判断する判断手段と、
    前記判断手段が前記補正情報の算出が可能であると判断した場合、前記画像取得手段が取得した画像から前記補正情報を算出する補正情報算出手段と、
    前記補正情報により前記画像の画像データを補正する補正手段と、
    を有することを特徴とするシステム。
JP2013153899A 2013-07-24 2013-07-24 プログラム、情報処理装置、システム Pending JP2015026914A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013153899A JP2015026914A (ja) 2013-07-24 2013-07-24 プログラム、情報処理装置、システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013153899A JP2015026914A (ja) 2013-07-24 2013-07-24 プログラム、情報処理装置、システム

Publications (1)

Publication Number Publication Date
JP2015026914A true JP2015026914A (ja) 2015-02-05

Family

ID=52491261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153899A Pending JP2015026914A (ja) 2013-07-24 2013-07-24 プログラム、情報処理装置、システム

Country Status (1)

Country Link
JP (1) JP2015026914A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179111A1 (ja) * 2016-04-12 2017-10-19 日立マクセル株式会社 表示システムおよび情報処理方法
JP2018084802A (ja) * 2016-11-11 2018-05-31 株式会社東芝 撮像装置、撮像システム及び距離情報取得方法
KR101954413B1 (ko) * 2018-08-03 2019-03-05 (주)피디케이리미티드 타깃 시뮬레이션 시스템의 자동 점수 계산 장치 및 방법
JP2020201998A (ja) * 2020-09-25 2020-12-17 株式会社マーケットヴィジョン 画像補正処理システム
JP2020201846A (ja) * 2019-06-12 2020-12-17 株式会社マーケットヴィジョン 画像補正処理システム
CN112437284A (zh) * 2020-11-23 2021-03-02 海信视像科技股份有限公司 一种投影画面校正方法、终端设备及显示设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354331A (ja) * 2001-05-25 2002-12-06 Canon Inc 画像撮影装置および電子機器
JP2006237757A (ja) * 2005-02-23 2006-09-07 Casio Comput Co Ltd デジタルカメラ装置、及びスルー画像表示方法
JP2009253575A (ja) * 2008-04-04 2009-10-29 Seiko Epson Corp プロジェクタ、プログラム及び記憶媒体
JP2010200079A (ja) * 2009-02-26 2010-09-09 Yamaha Corp 撮影制御装置
JP2010245787A (ja) * 2009-04-03 2010-10-28 Sharp Corp 携帯端末装置、画像出力装置、撮像画像処理システム、携帯端末装置の制御方法、画像出力方法、プログラムおよび記録媒体
JP2011033930A (ja) * 2009-08-04 2011-02-17 Seiko Epson Corp プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP2011050013A (ja) * 2009-08-28 2011-03-10 Panasonic Corp 映像投影装置及び映像投影方法
JP2011215042A (ja) * 2010-03-31 2011-10-27 Topcon Corp ターゲット投影装置及びターゲット投影方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354331A (ja) * 2001-05-25 2002-12-06 Canon Inc 画像撮影装置および電子機器
JP2006237757A (ja) * 2005-02-23 2006-09-07 Casio Comput Co Ltd デジタルカメラ装置、及びスルー画像表示方法
JP2009253575A (ja) * 2008-04-04 2009-10-29 Seiko Epson Corp プロジェクタ、プログラム及び記憶媒体
JP2010200079A (ja) * 2009-02-26 2010-09-09 Yamaha Corp 撮影制御装置
JP2010245787A (ja) * 2009-04-03 2010-10-28 Sharp Corp 携帯端末装置、画像出力装置、撮像画像処理システム、携帯端末装置の制御方法、画像出力方法、プログラムおよび記録媒体
JP2011033930A (ja) * 2009-08-04 2011-02-17 Seiko Epson Corp プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP2011050013A (ja) * 2009-08-28 2011-03-10 Panasonic Corp 映像投影装置及び映像投影方法
JP2011215042A (ja) * 2010-03-31 2011-10-27 Topcon Corp ターゲット投影装置及びターゲット投影方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179111A1 (ja) * 2016-04-12 2017-10-19 日立マクセル株式会社 表示システムおよび情報処理方法
US10455204B2 (en) 2016-04-12 2019-10-22 Maxell, Ltd. Display system and information processing method
US10582171B2 (en) 2016-04-12 2020-03-03 Maxell, Ltd. Display system and information processing method
JP2018084802A (ja) * 2016-11-11 2018-05-31 株式会社東芝 撮像装置、撮像システム及び距離情報取得方法
KR101954413B1 (ko) * 2018-08-03 2019-03-05 (주)피디케이리미티드 타깃 시뮬레이션 시스템의 자동 점수 계산 장치 및 방법
JP2020201846A (ja) * 2019-06-12 2020-12-17 株式会社マーケットヴィジョン 画像補正処理システム
JP2020201998A (ja) * 2020-09-25 2020-12-17 株式会社マーケットヴィジョン 画像補正処理システム
JP7041420B2 (ja) 2020-09-25 2022-03-24 株式会社マーケットヴィジョン 画像補正処理システム
CN112437284A (zh) * 2020-11-23 2021-03-02 海信视像科技股份有限公司 一种投影画面校正方法、终端设备及显示设备

Similar Documents

Publication Publication Date Title
JP2015026914A (ja) プログラム、情報処理装置、システム
CN108886582B (zh) 摄像装置及聚焦控制方法
CN106464825B (zh) 图像处理设备和方法
JP2014131257A (ja) 画像補正システム、画像補正方法及びプログラム
JP6448674B2 (ja) 文字認識可能な画像を撮影するためのガイド表示を行う、カメラ機能を有する携帯可能な情報処理装置、その表示制御方法、及びプログラム
CN114663618A (zh) 三维重建及校正方法、装置、设备及存储介质
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
KR102198172B1 (ko) 촬영 정보 관리 방법 및 촬영 정보 관리 방법을 실행시키는 프로그램이 설치된 작업자 단말기
JPWO2017169723A1 (ja) 画像処理装置および方法
KR20130077414A (ko) 영상 처리를 통한 광축 오차 보상 방법 및 시스템, 광축 오차 보상 기능이 구현된 줌 카메라
CN105373770A (zh) 图像采集装置、终端和图像采集方法
JP6564136B2 (ja) 画像処理装置、画像処理方法、および、プログラム
JP2018182593A (ja) 画像処理装置、画像処理方法
JP2011160423A (ja) 非接触スキャンシステムおよび非接触スキャン方法
JP4182937B2 (ja) 撮影装置、撮影装置の画像処理方法及びプログラム
JP2015032883A (ja) 撮像装置及び画像表示方法
JP2021027584A (ja) 画像処理装置、画像処理方法およびプログラム
JP6483661B2 (ja) 撮像制御装置、撮像制御方法およびプログラム
JP2018014572A (ja) 情報処理装置、画像処理システム、プログラム
CN114979616B (zh) 显示方法、信息处理装置以及记录介质
KR101444207B1 (ko) 요철형 패턴 영상 획득 장치 및 방법
JP7228112B2 (ja) 投影制御装置、投影装置、投影方法及びプログラム
CN115210529A (zh) 尺寸测量方法及尺寸测量装置
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP6624861B2 (ja) 画像処理装置、制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171031