JP2013257861A - 画像処理装置、画像処理プログラム、画像処理方法 - Google Patents

画像処理装置、画像処理プログラム、画像処理方法 Download PDF

Info

Publication number
JP2013257861A
JP2013257861A JP2013069791A JP2013069791A JP2013257861A JP 2013257861 A JP2013257861 A JP 2013257861A JP 2013069791 A JP2013069791 A JP 2013069791A JP 2013069791 A JP2013069791 A JP 2013069791A JP 2013257861 A JP2013257861 A JP 2013257861A
Authority
JP
Japan
Prior art keywords
image
projection
shadow
user
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013069791A
Other languages
English (en)
Other versions
JP6135239B2 (ja
Inventor
Takahiro Yagishita
高弘 柳下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013069791A priority Critical patent/JP6135239B2/ja
Priority to US13/871,460 priority patent/US9417712B2/en
Priority to CN201310176335.4A priority patent/CN103425268B/zh
Publication of JP2013257861A publication Critical patent/JP2013257861A/ja
Application granted granted Critical
Publication of JP6135239B2 publication Critical patent/JP6135239B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】スクリーンに投影された画像に対してユーザが操作を行う場合において、安価で且つ簡易な構成でユーザに直観的な操作を行わせること。
【解決手段】投影装置101からの投影軸202とスクリーン201とのなす角が鋭角となるように画像を投影して、投影された画像とその周辺を撮像し、撮像された画像に含まれるユーザの指の影領域に基づいて、ユーザがこれから行おうとしている操作に対応する処理を実行する。
【選択図】図3

Description

本発明は、画像処理装置、画像処理プログラム、画像処理方法に関し、特に画像投影表示装置における画像投影表示方法に関する。
従来、会議や講義、プレゼンテーション等、複数の人を対象にして情報を表示するためには、プロジェクタ等の投影装置により、必要な情報が記載された画像や動画を壁やスクリーン等に拡大して投影し、説明を行うことが一般的である。このような投影装置を利用した状況において、説明者や聴衆者は、上記画像に情報を書き加えたい場合や、投影された画像の特定の部分を指定したり指し示したりしたい場合がある。このような場合に、説明者や聴衆者は、指示棒や自らの指等で上記行為を行うことができる方法が考案され既に知られている。
このような方法の一つとして、特許文献1に記載されているように、画像が投影されたスクリーンをユーザが指示棒でなぞった軌跡を画像としてそのスクリーン上に重畳表示するポインティングシステムが知られている。また、他の方法として、特許文献2に記載されているように、スクリーン上に投影されたボタンを表すオブジェクト画像に相当する位置に指示棒の影を合わせると、ボタンが押下されたと判定するコンピュータディスプレイシステムが知られている。
特許文献1に記載の方法によれば、ユーザがスクリーンを指示棒でなぞるだけでスクリーン上に画像を描くことが可能となるが、指示棒の先端がスクリーンに接触しなければならないため、ユーザ自身が投影光路に入り込まないように長い指示棒を用意する必要がある。従って、特許文献1に記載の方法では、このような長い指示棒が用意できなければ通常の投影装置としてしか機能せず、スクリーン上に画像を追加したり描いたりすることができないといった問題がある。
また、特許文献2に記載の方法によれば、ユーザがスクリーン上に投影された画像に指示棒や指の影を合わせるだけでボタン押下と同様の効果を実現したり操作を行ったりすることが可能となるので特許文献1における上記問題は生じない。しかしながら、特許文献2に記載の方法では、投影装置からの画像の投影角度や投影範囲、ユーザの立ち位置等を総合的に考慮して、指示棒や指そのものではなくそれらの影を投影画像の指定の位置に合わせる必要があるため、ユーザは直観的な操作ができず、使いこなすためには技能と熟練を必要とするといった問題がある。
そこで、特許文献3に記載されているように、スクリーンの背面から画像を投影し、ユーザが投影された画像の透過光を確認しながら、そのスクリーンの前面をなぞることにより操作を行うことができる画像投影表示装置が知られている。特許文献3に記載の画像投影表示装置は、特許文献1及び2に記載の方法とは異なり、リアプロジェクションタイプの装置であるためユーザ自身が投影光路を遮ることがなく、また、ユーザの指が直接スクリーンに接触して操作を行うことで直観的な操作を実現することができる。従って、特許文献3に記載の画像投影表示装置によれば、特許文献1及び2における上記問題は生じない。しかしながら、特許文献3に記載の画像投影表示装置においては、通常のスクリーンとは異なる、その装置に専用の高価なスクリーンが必要であるといった問題がある。
本発明は、このような課題を解決するためになされたものであり、スクリーンに投影された画像に対してユーザが操作を行う場合において、安価で且つ簡易な構成でユーザに直観的な操作を行わせることを目的とする。
上記課題を解決するために、投影装置から投影される投影光の光軸と投影面とのなす角が鋭角となるように画像が投影された投影面及び前記投影面の周辺の少なくとも一方を撮像した撮像画像を取得する画像取得部と、前記投影光の光路に侵入した物体により前記投影面及び前記投影面の周辺の少なくとも一方に生じた影を前記撮像画像に基づいて検知する影検知部と、検知された前記影に基づき、前記投影面の影の位置とは異なる位置であり、かつ前記影の位置と所定の関係を有する位置をユーザにより指し示された指示位置と決定する指示位置決定部と、決定された前記指示位置に応じた情報を出力する指示情報出力部と、を備えることを特徴とする。
また、本発明の他の態様は、投影装置から投影される投影光の光軸と投影面とのなす角が鋭角となるように画像が投影された投影面及び前記投影面の周辺の少なくとも一方を撮像した撮像画像を取得するステップと、前記投影光の光路に侵入した物体により前記投影面及び前記投影面の周辺の少なくとも一方に生じた影を前記撮像画像に基づいて検知するステップと、検知された前記影に基づき、前記投影面の影の位置とは異なる位置であり、かつ前記影の位置と所定の関係を有する位置をユーザにより指し示された指示位置と決定するステップと、決定された前記指示位置に応じた情報を出力するステップと、を実行することを特徴とする。
また、本発明の更に他の態様は、投影装置から投影される投影光の光軸と投影面とのなす角が鋭角となるように画像が投影された投影面及び前記投影面の周辺の少なくとも一方を撮像した撮像画像を取得し、前記投影光の光路に侵入した物体により前記投影面及び前記投影面の周辺の少なくとも一方に生じた影を前記撮像画像に基づいて検知し、検知された前記影に基づき、前記投影面の影の位置とは異なる位置であり、かつ前記影の位置と所定の関係を有する位置をユーザにより指し示された指示位置と決定し、決定された前記指示位置に応じた情報を出力することを特徴とする。
本発明によれば、スクリーンに投影された画像に対してユーザが操作を行う場合において、安価で且つ簡易な構成でユーザに直観的な操作を行わせることができる。
本発明の実施形態に係る画像投影表示装置のハードウェア構成を模式的に示すブロック図である。 本発明の実施形態に係る画像投影装置の機能構成を模式的に示すブロック図である。 本発明の実施形態に係る画像投影表示装置の運用形態を説明するための図である。 本発明の実施形態に係る画像投影表示装置からスクリーンに投影された画像例とユーザの指の影について説明するための図である。 図4に示す画像が投影されている場合を例にして、いずれかのボタンが押下される際のユーザの動作及びユーザの指の影の形状変化を説明するための図である。 本発明の実施形態に係る画像投影表示装置がユーザにより押下されようとしているボタンを判定する際の処理及びボタンが押下されたと判定した後の処理について説明するためのフローチャートである。 本発明の実施形態に係る画像投影表示装置が投影装置からスクリーンに投影表示した水平垂直線格子パターン画像を示す図である。 図7に示す水平垂直線格子パターン画像を撮像装置により撮像した撮像画像である。 本発明の実施形態に係る画像処理部が生成した差分画像を示す図である。 本発明の実施形態に係る画像処理部が生成した合成画像と回帰直線を示す図である。 本発明の他の実施形態に係る画像投影表示装置の構成例を示す図である。 本発明のさらに他の実施形態に係る画像投影表示装置の構成例を示す図である。 本発明の他の実施形態に係る画像投影表示装置の運用形態を説明するための図である。 図13に示す画像投影表示装置の運用形態を別の角度から見た場合の図である。 ユーザの指の位置と、スクリーンに生じる指の影との対応を模式的に示す図である。 ユーザの指の位置と、スクリーンに生じる指の影との対応を模式的に示す図である。 ユーザの指の位置と、スクリーンに生じる指の影との対応を模式的に示す図である。 第2実施形態に係る画像投影表示装置の機能構成例を示すブロック図である。 第2実施形態に係る画像投影表示装置の動作例を示すフローチャートである。 ユーザが、投影領域に対して、左から右へ向けて指で軽く払う動作を行っている様子を例示した図である。
以下、図面を参照して、本発明の実施形態を詳細に説明する。本実施形態においては、ユーザが指を使ってスクリーンに投影された画像に対して操作を行うように動作することにより、その動作に応じた処理を行う画像投影表示装置を例として説明する。
(第1実施形態)
本実施形態に係る画像投影表示装置においては、ユーザが指を使ってスクリーンに投影された画像に対して操作を行うように動作すると、その動作に基づいてユーザが所望する処理を素早く確実に行うことができる。従って、本実施形態に係る画像投影表示装置によれば、ユーザは、スクリーンに投影された画像に基づいて、直観的な操作を行うことが可能となる。以下、詳細に説明する。
まず、本実施形態に係る画像投影表示装置1のハードウェア構成について図1を参照して説明する。図1は、本実施形態に係る画像投影表示装置1のハードウェア構成を模式的に示すブロック図である。尚、画像投影表示装置1は、図1に示すハードウェア構成に加えて、画像をスクリーン上へ投影し、画像が投影されているスクリーン及びその周辺を撮像するための光学機構を備える。
図1に示すように、本実施形態に係る画像投影表示装置1は、一般的なサーバやPC(Personal Computer)等と同様の構成を含む。即ち、本実施形態に係る画像投影表示装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)20、ROM(Read Only Memory)30、HDD(Hard Disk Drive)40及びI/F50がバス80を介して接続されている。また、I/F50にはLCD(Liquid Crystal Display)60及び操作部70が接続されている。
CPU10は演算手段であり、画像投影表示装置1全体の動作を制御する。RAM20は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU10が情報を処理する際の作業領域として用いられる。ROM30は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。HDD40は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム等が格納される。
I/F50は、バス80と各種のハードウェアやネットワーク等を接続し制御する。LCD60は、ユーザが画像投影表示装置1の状態を確認するための視覚的ユーザインタフェースである。操作部70は、キーボードやマウス等、ユーザが画像投影表示装置1に情報を入力するためのユーザインタフェースである。
このようなハードウェア構成において、ROM30やHDD40若しくは図示しない光学ディスク等の記憶媒体に格納されたプログラムがRAM20に読み出され、CPU10がRAM20にロードされたプログラムに従って演算を行うことにより、ソフトウェア制御部が構成される。このようにして構成されたソフトウェア制御部と、ハードウェアとの組み合わせによって、本実施形態に係る画像投影装置1の機能を実現する機能ブロックが構成される。
次に、本実施形態に係る画像投影表示装置1の機能構成について、図2を参照して説明する。図2は、本実施形態に係る画像投影装置1の機能構成を模式的に示すブロック図である。図2に示すように、本実施形態に係る画像投影表示装置1は、コントローラ100、投影装置101、撮像装置102、ディスプレイパネル103、ネットワークI/F104を有する。
また、コントローラ100は、主制御部110、光学機構制御部120、画像処理部130、操作表示制御部140及び入出力制御部150を含む。尚、図2においては、電気的接続を実線の矢印で示している。
投影装置101は、光学機構制御部120の制御に従い、画像データに基づいてスクリーンに画像を投影表示する。撮像装置102は、光学機構制御部120の制御に従い、画像が投影されたスクリーン及びその周辺を撮像して撮像データをコントローラ100に入力する。
ディスプレイパネル103は、画像投影表示装置1の状態を視覚的に表示する出力インタフェースであると共に、タッチパネルとしてユーザが画像投影表示装置1を直接操作し、若しくは画像投影表示装置1に対して情報を入力する際の入力インタフェースでもある。即ち、ディスプレイパネル103は、ユーザによる操作を受けるための画像を表示する機能を含む。ディスプレイパネル103は、図1に示すLCD60及び操作部70によって実現される。尚、本実施形態に係る画像投影表示装置1は、ディスプレイパネル103に限らず、ハードスイッチ等の機械的な操作部を備えても良い。
ネットワークI/F104は、画像投影表示装置1がネットワーク等を介してPC等のクライアント端末や他の外部機器と通信するためのインタフェースであり、Ethernet(登録商標)やUSB(Universal Serial Bus)インタフェースが用いられる。ネットワークI/F104は、図1に示すI/F50によって実現される。
コントローラ100は、ソフトウェアとハードウェアとの組み合わせによって構成される。具体的には、ROM30や不揮発性メモリ並びにHDD40や光学ディスク等の不揮発性記憶媒体に格納されたプログラムが、RAM20等の揮発性メモリ(以下、メモリ)にロードされ、CPU10がそのプログラムに従って動作することにより構成されるソフトウェア制御部と集積回路などのハードウェアとによってコントローラ100が構成される。コントローラ100は、画像投影表示装置1全体を制御する制御部として機能する。
主制御部110は、コントローラ100に含まれる各部を制御する役割を担い、コントローラ100の各部に命令を与える。光学機構制御部120は、投影装置101や撮像装置102等を制御若しくは駆動する駆動手段としての役割を担う。
画像処理部130は、主制御部110の制御に従い、投影装置101から投影する画像データを生成し、また、撮像装置102が撮像して入力された撮像データを処理する。操作表示制御部140は、ディスプレイパネル103に情報表示を行い若しくはディスプレイパネル103を介して入力された情報を主制御部110に通知する。入出力制御部150は、ネットワークI/F104を介して入力される情報を主制御部110に入力する。また、主制御部110は、入出力制御部150を制御し、ネットワークI/F104を介してクライアント端末等の他の機器にアクセスする。
次に、本実施形態に係る画像投影表示装置1の運用形態について図3を参照して説明する。図3は、本実施形態に係る画像投影表示装置1の運用形態を説明するための図である。図3に示すように、本実施形態に係る画像投影表示装置1はユーザとスクリーン201との間に設置されている。また、図3に示すように、本実施形態に係る画像投影表示装置1は、投影装置101から投影した光を画像としてスクリーン201に投影表示している。
このとき、図3に示すように、投影装置101は、その投影光の軸202とスクリーン201とのなす角「θ」が鋭角となるように画像を投影している。そして、ユーザが投影光路203内に指204を差し出すと、その部分の投影光が遮られてスクリーン201上の投影領域205にはユーザの指の影206が生じる。さらに、本実施形態に係る画像投影表示装置1は、投影領域205に生じたユーザの指の影206を含むスクリーン及びその周辺を撮像装置102により撮像している。尚、撮像装置102は、図3に示すように、投影装置101の投影口とスクリーン201との間に位置するように画像投影表示装置1に備えられている。このような位置関係であるため、本実施形態に係る画像投影表示装置1が撮像装置102により撮像した撮像画像には、ユーザの身体の一部(指や腕など)が写るといったことを避けることができる。
尚、図3においては、撮像装置102は、画像投影表示装置1に備えられている例について説明したが、画像投影表示装置1に備えられておらず単独で存在しても良い。この場合には、撮像装置102は必ずしも投影装置101の投影口とスクリーン201との間に位置しなくても良く、撮像画像にユーザの身体の一部(指や腕など)が写らない範囲であればその位置は限定されない。また、図3においては、投影装置101についても、画像投影表示装置1に備えられている例について説明したが、画像投影表示装置1に備えられておらず単独で存在しても良い。この場合には、投影装置101はその投影光の軸202とスクリーン201とのなす角が鋭角となるように画像を投影することができる範囲であればその位置は限定されない。
このように構成された画像投影表示装置1において、本実施形態に係る要旨の一つは、ユーザが指を使ってスクリーン201に投影された画像に対して操作を行うように動作するとその動作によってスクリーン201上に生じた影に基づいた処理が実行されることにある。従って、本実施形態に係る画像投影表示装置1によれば、ユーザはスクリーン201に投影された画像に基づいて直観的な操作を行うことが可能となり、技能や熟練を要さずに誰でも簡単にスクリーン201に投影表示された画像を介して画像投影表示装置1の操作を行うことができる。
次に、本実施形態に係る画像投影表示装置1からスクリーン201に投影された画像例とユーザの指の影について図4を参照して説明する。図4は、本実施形態に係る画像投影表示装置1からスクリーン201に投影された画像例とユーザの指の影とについて説明するための図である。尚、図4においては、図3に示す矢印方向から見たスクリーン201を表している。
図4に示すように、本実施形態に係る画像投影表示装置1からスクリーン201に投影された画像には、数字の1〜6の番号が付された6個のボタンアイコンが水平方向に一列に並んで表示されている。また、ユーザが図3に示す投影光路203内に指204を差し出した結果として、図4に示すように、スクリーン201上にはユーザの指の影206が生じている。
尚、図4に示す6個のボタンアイコンは投影された画像であるため、ユーザは物理的に直接そのボタンを押下することはできないが、投影画像に対して押下するように動作すると、本実施形態に係る画像投影表示装置1はその動作に応じてボタン押下と同様の処理を行う。このように、ユーザがスクリーン201上に投影された画像に対して何らかの操作を行いたい場合には、ユーザは投影光路203内に指を差し出してその操作を行うように動作する必要がある。そこで、図4に示すスクリーン201上に6個のボタンアイコンが投影されている場合を例にして、そのいずれかが押下される際のユーザの動作及びユーザの指の影206の形状変化を、図5を参照して説明する。
図5に示すように、ユーザが図4に示す6個のボタンアイコンのいずれかを押下するように動作するためには、ユーザは投影光路203内に指204を差し出し、指の先端がボタンアイコンに近づくような動作を行う必要がある。尚、図5においては、数字の「4」が付されたボタンアイコンに指204の先端が近づく例を示している。
図5に示すように、204aで示されている位置から204bで示されている位置へユーザの指204が移動することにより、ユーザの指により生じた影206は、206aで示される形状から206bで示される形状へと、スクリーン201の上部から下部へ移動するように変化する。これは、図3において説明したように、本実施形態に係る画像投影表示装置1における投影装置101は、その投影光の軸202とスクリーン201とのなす角が鋭角となるように画像を投影表示しているためである。そして、本実施形態に係る画像投影表示装置1は、上記のように形状が変化したユーザの指の影206に基づいて、どのボタンが押下されようとしているのかを判定することを要旨の一つとしている。このように、本実施形態に係る画像投影表示装置1は、スクリーン201上に生じたユーザの指の影206とは異なる位置に複数のボタンアイコンが存在していても、どのボタンが押下されてしているかを的確かつ迅速に決定することができる。
尚、図3において説明したように投影光の軸202とスクリーン201とのなす角が鋭角である場合には本来、スクリーン201に投影表示された画像は、投影されるべき元の画像(以下、「元画像」とする)に比べて、スクリーン201の上部に向かって幅が狭くなるように台形に歪む。そこで、本実施形態に係る画像投影表示装置1は、この台形の歪みを電子的にキャンセルするためのキートン補正を行うことにより、このような問題が起こらないようにしている。そのため、本実施形態に係る画像投影表示装置1は、元画像の座標系(以下、「元画像座標系」とする)と、スクリーン201に実際に投影表示された画像の座標系(以下、「投影画像座標系」とする)とを一致させることが可能となる。
次に、ユーザが図5において説明したような動作を行った場合に、本実施形態に係る画像投影表示装置1がユーザにより押下されようとしているボタンを判定する際の処理及びボタンが押下されたと判定した後の処理について図6を参照して説明する。図6は、本実施形態に係る画像投影表示装置1がユーザにより押下されようとしているボタンを判定する際の処理及びボタンが押下されたと判定した後の処理について説明するためのフローチャートである。
図6に示すように、本実施形態に係る画像投影表示装置1がユーザにより押下されようとしているボタンを判定する際にはまず、投影装置101は、光学機構制御部120の制御により、画像をスクリーン201に投影表示する(S601)。以下では、スクリーン201には図4に示す画像が投影表示された場合を例にして説明する。そして、投影装置101からスクリーン201に画像が投影表示されると、撮像装置102は、光学機構制御部120の制御により、スクリーン201及びその周辺を撮像する(S602)。撮像装置102によりスクリーン201及びその周辺が撮像されると、画像処理部130は、その撮像画像を取得する(S603)。画像処理部130は撮像画像を取得すると、取得した撮像画像を元画像座標系へ変換する(S604)。
ここで、S604の処理、即ち、撮像画像を元画像座標系に変換する処理について図7及び図8を参照して説明する。図7は、本実施形態に係る画像投影表示装置1が投影装置101からスクリーン201に投影表示した水平垂直線格子パターン画像を示す図である。水平垂直線格子パターン画像とは、図7に示すように、スクリーン201上の投影画像座標系において、その座標の各軸に平行な複数の線分が等間隔で配置された画像のことである。尚、上記で説明したように、本実施形態に係る画像投影表示装置1はキートン補正を行うことにより、元画像座標系と投影画像座標系とを一致させることができるので、図7に示すようなスクリーン201に投影表示されている水平垂直線格子パターン画像は元画像の水平垂直線格子パターン画像と一致している。
図8は、図7に示す水平垂直線格子パターン画像を撮像装置102により撮像した撮像画像である。図3に示したように、本実施形態に係る撮像装置102は、投影装置101の投影口とスクリーン201との間に位置するように画像投影表示装置1に備えられている。そのため、図7に示すようなスクリーン201に投影表示されている水平垂直線格子パターン画像が撮像装置102により撮像されると、その撮像画像の座標系(以下、「撮像画像座標系」とする)における水平垂直線格子パターン画像は図8に示すような台形に歪んだ形状となる。
従って、撮像画像の元画像座標系への変換(S604)は、図8に示す座標系を図7に示す座標系に、即ち、撮像画像座標系を元画像座標系に一致させるための変換式を予め求めておき、その変換式をS603で取得された撮像画像に適用することにより行われる。
このような変換を行うことにより、本実施形態に係る画像投影表示装置1は、元画像座標系において、元画像と同等に撮像画像を扱うことが可能となる。
画像処理部130は、撮像画像を元画像座標系へ変換すると、変換された撮像画像(以下、「変換画像」とする)と元画像との差分から構成される差分画像を生成する(S605)。ここで、差分画像の生成には例えば、変換画像と元画像とを共にグレースケールに変換した画像において、それぞれの画像のお互いに対応する画素同士の画素値(例えば、0〜255)の差分をとり、その差分の絶対値が所定値以上の画素を黒、それ以外の画素を白とした2値画像を差分画像とする方法等がある。尚、差分画像の生成方法は、このような方法に限られるものではなく、既知の他の方法であってもよい。
尚、このとき、黒である画素は、スクリーン201に生じたユーザの指の影である可能性がある。そこで、画像処理部130は、差分画像を生成すると、生成した差分画像の中に黒の画素が所定数以上存在するか否か判定する(S606)。画像処理部130が差分画像の中に黒の画素が所定数以上存在すると判定した場合(S606/YES)、その画素群はスクリーン201に生じたユーザの指の影によるものと考えられる。そのため、この場合には、画像投影表示装置1は上記処理に引き続き、差分画像における上記画素群に基づいて、ユーザが実際にどのボタンを押下しようとしているかを判定することになる(S607〜S611)。このときの差分画像を図9に示す。図9に示すように、差分画像には、元画像領域207にユーザの指の影領域208が表示されている。
一方、画像処理部130は、差分画像の中に黒の画素が所定数以上存在しないと判定した場合(S606/NO)、スクリーン201に影は生じていないと考えられる。そのため、この場合には、差分画像の中に黒の画素が所定数以上存在するようになるまで(S606/YES)、即ち、スクリーン201にユーザの指の影206が生じるまでS602からの処理を繰り返し行う。
そこでまず、画像処理部130は、差分画像の中に黒の画素が所定数以上存在すると判定した場合(S606/YES)、差分画像から黒の画素群を抽出して(S607)、抽出した画素群を元画像座標系上で元画像に合成する(S608)。そして、画像処理部130は、元画像座標系において合成した画素群から最小二乗法により回帰直線を求める(S609)。ここで求められた回帰直線は、合成された画素群に含まれる各画素との距離の二乗の総和が最小となるように算出された直線である。そのため、この直線上にボタンが存在すれば、画像投影表示装置1は、ユーザがそのボタンを押下しようとしていると判定することができる。このときの合成画像と回帰直線を図10に示す。図10には、元画像座標系において、元画像領域209、ユーザの指の影領域、即ち、S608の処理で合成された画素群210、回帰直線211が表示されている。
次に、画像処理部130は、元画像座標系における合成画像において、回帰直線211上にボタンアイコンが存在するか否かを判定する(S610)。画像処理部130が回帰直線211上にボタンアイコンが存在すると判定した場合(S610/YES)、ユーザによりそのボタンが押下されようとしていると考えられるため、本実施形態に係る画像投影表示装置1は、そのボタンが押下されたときの対応として予め定められている所定の処理を行う(S611)。
ここで、予め定められている所定の処理とは例えば、投影装置101が光学機構制御部120の制御により、既に表示されている画像とは別の画像へ遷移させて表示したり、既に表示されているページのスクロール画面を表示したりする等、ユーザが所望する操作に対応する処理のことである。即ち、ここでは、光学機構制御部120は、指示情報出力部として機能する。また、S603〜S610の処理においては、画像処理部130は、画像取得部、影検知部、指示位置決定部として機能する。このように、本実施形態に係る画像投影表示装置1は、ユーザの指の影の形状に基づいて、ユーザが行おうとしている操作に対応した処理を素早く確実に行うことが可能であり、このことを要旨の一つとしている。
尚、投影画像に複数のボタンアイコンが表示されており、回帰直線211上に複数のボタンアイコンが存在する場合には、画像投影表示装置1は、どのボタンが押下されようとしているかの判定が困難となってしまう。そのため、投影画像において複数のボタンアイコンは、回帰直線211上に2つ以上が存在することがないように配置されることが望ましい。例えば、本実施形態に係る構成によれば、ユーザの指の影206はスクリーン201上において投影光の軸202と略平行な方向を向くように生じるため、図10に示すように、回帰直線211の傾きも元画像座標系において投影光の軸202と略平行となる。従って、投影画像にボタンアイコンが複数表示されていても、それらを投影光の軸202に対して略垂直な方向に一直線上に並べておくことでこのような問題を回避することができる。
また、上記複数のボタンアイコンを必ずしも投影光の軸202に対して略垂直な方向に一直線上に並べておかなくても、投影光の軸202に対する略垂直な方向においてそれぞれの位置が異なるように配置しさえすれば、投影光の軸202と略平行な方向における位置には関係なく同様に上記のような問題を回避することができる。尚、例えば、投影画像の左右の端部寄りにボタンアイコンが配置される場合には、そのボタンアイコンを指し示すユーザの指の影206に基づく回帰直線211は、投影光の軸202に略平行とはならない場合がありうる。その場合には、複数のボタンアイコンが投影光の軸202に対する略垂直な方向において同じ位置に配置されていても、必ずしも回帰直線211上に複数のボタンアイコンが存在することにはならないので、そのような配置であっても良い。
また、画像処理部130が回帰直線211上にボタンアイコンが存在すると判定した場合(S610/YES)であっても、それが、ユーザが誤って動作した結果であったり、他の関係のない影がスクリーン201上に生じてしまった結果であったりする場合など、ユーザの意図しない操作が行われた結果である場合もある。そのため、このような場合、画像処理部130が回帰直線211上にボタンアイコンが存在すると判定したらすぐにボタン押下の処理(画像の切替え等)に移ると、画像投影表示装置1はユーザの意図に反した処理を行うことになってしまう。そこで、本実施形態に係る画像投影表示装置1は、画像処理部130が回帰直線211上にボタンアイコンが存在すると判定したらすぐにボタン押下の処理に移るのではなく、例えば、次のような方法により上記問題を回避することができる。
即ち、まず、1回目のS610の処理においては、画像処理部130は、回帰直線211上にボタンアイコンが存在すると判定した場合にはそのボタンアイコンの明度を上げる処理のみを行う。そして、S606の処理における判定の際の基準値である、黒の画素の所定数を変更し、そのあと再度S602からの処理を行う。その結果、再び画像処理部130が回帰直線211上にボタンアイコンが存在すると判定した場合に初めてボタン押下の処理に移るようにすれば良い。このような構成とすることにより、本実施形態に係る画像投影表示装置1は、ユーザの意図に反した処理を行うといった問題を回避することが可能となる。
また、S602〜S610の処理、即ち、スクリーン201上に投影された画像を撮像してユーザの操作を検知する処理は、1秒間に数回等、所定のレートで繰り返し実行される。従って、同一のボタンアイコンが押下されたことが複数回連続して検知された場合にそのアイコンの押下認識を確定するようにすれば、操作の信頼性を向上することが可能となる。
また、本実施形態に係る画像投影表示装置1は、ボタンが押下された際の処理(画像の切替え等)に移る直前に、ボタンアイコンをへこんだように表示させるように構成されていても良い。このような構成とすることにより、本実施形態に係る画像投影表示装置1は、ボタンが押下された際の処理が行われたことをユーザに明確に伝えることが可能となる。
一方、画像処理部130は、回帰直線211上にボタンアイコンが存在しないと判定した場合には(S610/NO)、ユーザはどのボタンも押下しようとしていないと考えられるため、回帰直線211上にボタンアイコンが存在するようになるまで(S610/YES)、S602からの処理を繰り返し行う。そして、画像投影表示装置1は、画像の投影を終了したら、ユーザにより押下されようとしているボタンを判定する際の処理及びボタンが押下されたと判定した後の処理を終了する。
尚、上記S606の処理においては、画像処理部130は、黒の画素が所定数以上存在する場合にスクリーン201上に影が生じたと判断することができることを説明したが、その他に、一定の領域に所定数以上存在する場合にスクリーン201上に影が生じたと判断するように構成されていても良い。このような構成により、画像処理部130は、ノイズ等により、黒の画素が分散して所定数以上存在するような場合でも誤った判断をすることがない。
また、本実施形態においては、画像表示に関する制御や処理は、画像処理部130におけるソフトウェア処理で行われる例について説明したが、ASIC(Application Specific Integrated Circuit)やDSP(Digital Signal Processor)のような画像処理を行う専用の回路におけるハードウェア処理で行われても良い。
さらに、本実施形態においては、ユーザの指の影に基づいて画像投影表示装置1がどのような処理を行うかについて説明したが、ユーザが操作する指示棒やその他の指示器等の影に基づくものであっても良い。
さらにまた、本実施形態においては、画像投影表示装置1は、スクリーン201に投影表示された画像の中に生じた影を検知するように構成されている例について説明したが、図11に示すように、投影装置101よりもユーザに近い位置に光源105を備え、その光源105からスクリーン201上における画像の投影領域外に光を照射し、その照射された光の中に生じた影を検知するように構成されていても良い。このような構成の場合、図11に示すように、光源105から照射された光212は、スクリーン201において投影装置101から投影された画像の投影領域205の上部に光源領域213として照射されていることがわかる。そして、その光源領域213にはユーザの指の影206が生じている。
このような構成とすることにより、画像の投影領域205の外側にユーザの指の影206が生じることになり、その影が投影画像の邪魔にならないので、ユーザの視認性を向上させることが可能となる。また、本実施形態において説明した投影領域205の中に影が生じるような構成では、投影画像が低輝度の場合にはスクリーン201上に生じる影の色が薄くなってしまい、画像処理部130が誤った処理を行ってしまうといった問題が生じることになるが、このような構成とすることにより、投影画像の輝度に関係なく一定以上の濃さの影をスクリーン201上に生じさせることが可能となる。
また、他の構成として、図12に示すように、図11と同様に投影装置101よりもユーザに近い位置に光源105を備え、その光源105からスクリーン201が有する折れ曲がり部分214上に光を照射し、その照射された光の中に生じた影を検知するように構成されていても良い。このような構成の場合、図12に示すように、光源105から照射された光212は、折れ曲がり部分214上に光源領域213として照射されていることがわかる。そして、その光源領域213にはユーザの指の影206が生じている。
このような構成とすることにより、ユーザの指の影206はユーザの視覚範囲外に生じることになるので、その影はより目立たなくなり、図11において説明した構成による効果に加えてさらに視認性を向上させることが可能となる。
上記のような光源105は、画像投影表示装置1に備えられる以外に、単独で存在しても良い。このような場合には、光源105は、図11、図12に示したように画像の投影領域205の外側や折れ曲がり部分214にユーザの指の影206が生じる範囲であればその位置は限定されない。
以上においては、図3に示すように、画像投影表示装置1の上側に画像が投影されるようにスクリーン201と画像投影表示装置1とを配置する例について説明したが、図13に示すように、画像投影表示装置1の左側に画像が投影されるようにスクリーン201と画像投影表示装置1とを配置しても同様の効果が得られる。この場合においても、図14に示すように、投影光の軸202とスクリーン201とのなす角「θ」は鋭角となっている。尚、図14は、図13に示す状況を図13に示す矢印方向から見た状況を表している。
さらに、図3に示すような配置とは反対に、画像投影表示装置1の下側に画像が投影されるようにスクリーン201と画像投影表示装置1とを配置しても、図13に示すような配置とは反対に、画像投影表示装置1の右側に画像が投影されるようにスクリーン201と画像投影表示装置1とを配置しても同様の効果が得られる。尚、この場合においても、投影光の軸202とスクリーン201とのなす角は鋭角となっている。
(第1実施形態の変形例)
上述した第1実施形態では、複数のボタンアイコンを投影光の軸202に対して略垂直な方向(以下の説明では「X軸方向」と呼ぶ場合がある)に一直線上に並べているが、これに限らず、例えば図15に示すように、複数のボタンアイコンを、X軸方向に直交する方向(投影光の軸202に略平行な方向、以下の説明では「Y軸方向」と呼ぶ場合がある)に沿って並べてもよい。ここで、前述の投影光路203の形状は、略四角錐であるので、ユーザが、投影領域205の中央付近の領域以外の領域に対して指を差し出す場合、その指の高さ方向の位置(Y軸方向の位置)に応じて、投影光路203のうち手が侵入してくる領域が異なり、前述の回帰直線211の傾きも異なってくる。特に、投影領域205の左右端部においては、差し出される指の高さ方向の位置に応じた回帰直線211の傾きの変化が顕著である。したがって、複数のボタンアイコンをY軸方向に沿って並べる場合であっても、前述の回帰直線211に基づいて、ユーザがどのボタンを押下しようとしているのかを判定することができる。すなわち、複数のボタンアイコンの配置は任意であり、投影光の軸202に対して略垂直な方向に一直線上に並べる形態に限られるものではない。
図15の例では、ユーザが、番号「1」を表すボタンアイコンを押下しようとして投影領域205に指を差し出す場合の指の位置は「204d」で表され、投影領域205(スクリーン201)上に生じる指の影は「206d」で表される。また、ユーザが、番号「1」を表すボタンアイコンの直下に配置される番号「2」を表すボタンアイコンを押下しようとして投影領域205に指を差し出す場合の指の位置は「204e」で表され、投影領域205(スクリーン201)上に生じる指の影は「206e」で表される。さらに、ユーザが、番号「2」を表すボタンアイコンの直下に配置される番号「3」を表すボタンアイコンを押下しようとして投影領域205に指を差し出す場合の指の位置は「204f」で表され、投影領域205(スクリーン201)上に生じる指の影は「206f」で表される。
(第2実施形態)
次に、第2実施形態について説明する。第2実施形態では、スクリーン201に投影された画像に表示される複数のボタンアイコンは、互いに異なる位置に配置される態様であればよく、上述の第1実施形態のように、投影光の軸202に対して略垂直な方向に一直線上に並べられる態様に限られるものではない。
また、第2実施形態では、前述の画像処理部130は、回帰直線211上に2以上のボタンアイコン(アイコンの一例)が存在すると判断した場合、スクリーン201に生じる影の伸びる速度に基づいて、ユーザが押下しようとしているボタンアイコンを判定(ユーザにより指し示された指示位置を決定)する機能を有する点で上述の第1実施形態と相違する。
ここで、例えば図16および図17に示すように、投影領域205(スクリーン201)に表示される2つのボタンアイコンが、投影光の軸202と略平行な方向(前述のY軸方向)に沿って一直線上に配置される場合を想定する。この例では、番号「X」を表すボタンアイコンの下に、番号「Y」を表すボタンアイコンが配置されている。図16は、ユーザが、番号「X」を表すボタンアイコンを押下しようとして投影領域205に指を差し出している様子を例示しており、ユーザの指の位置は「204x」で表され、投影領域205(スクリーン201)に生じる影は「206x」で表される。また、図17は、ユーザが、番号「Y」を表すボタンアイコンを押下しようとして投影領域205に指を差し出している様子を例示しており、ユーザの指の位置は「204y」で表され、投影領域205に生じる影は「206y」で表される。
ユーザが指を伸ばす速度を一定とすれば、図16および図17からも理解されるように、ユーザが、番号「Y」を表すボタンアイコンを押下しようとして指を伸ばす場合の方が、番号「X」を表すボタンアイコンを押下しようとして指を伸ばす場合に比べて、投影領域205に生じる影206の伸びる速度は大きくなる。本実施形態では、ユーザが、ボタンアイコンを押下しようとして指を伸ばした場合に生じる影206が伸びる速度は、当該ボタンアイコンのY軸方向の位置に応じて異なることに着目し、前述の回帰直線211上に2以上のボタンアイコンが存在すると判断した場合は、影206の伸びる速度に基づいて、ユーザが押下しようとしているボタンアイコンを判定することを特徴の一つとする。以下、具体的な構成を説明する。なお、上述の第1実施形態と共通する部分については、適宜に説明を省略する。
図18は、本実施形態に係る画像投影表示装置1000の機能構成を模式的に示すブロック図である。図18に示すように、本実施形態に係る画像投影表示装置1000は、記憶制御部160と、記憶装置106とをさらに備える点で上述の第1実施形態と相違する。この例では、記憶制御部160は、コントローラ200に搭載される。
記憶制御部160は、主制御部110の制御に従って、スクリーン201(投影領域205)に生じる影が伸びる速度と、投影面における高さとを対応付けて記憶装置106に記憶する制御を行う。本実施形態では、記憶装置106は、影が伸びる速度を示す第1情報ごとに、投影面上の高さ方向(上下方向)における所定の範囲を示す第2情報(例えば元画像の座標系の上下方向における所定の範囲を示す情報であってもよい)を対応付けて記憶する。
また、本実施形態では、画像処理部130は、前述の回帰直線211上に2以上のボタンアイコンが存在すると判断した場合、スクリーン201に生じる影206が伸びる速度に基づいて、指示位置を決定する。より具体的には、画像処理部130は、前述の回帰直線211上に2以上のボタンアイコンが存在すると判断した場合、スクリーン201に生じる影206が伸びる速度を検出する。例えば画像処理部130は、前述の合成画像における黒の画素群(影206に相当)の経時的変化に基づいて、影206が伸びる速度を検出することもできる。そして、画像処理部130は、検出した速度を示す第1情報に対応付けられた第2情報を記憶装置106から読み出し、読み出した第2情報が示す範囲に表示されるボタンアイコンを判定し、判定したボタンアイコンの表示位置を、指示位置として決定する。
図19は、第2実施形態に係る画像投影表示装置1000の動作例を示すフローチャートである。図19に示すステップS601〜ステップS610の内容は、上述の第1実施形態と同様であるので、詳細な説明は省略する。ステップS610で、画像処理部130は、元画像座標系における合成画像において、回帰直線211上にボタンアイコンが存在すると判定した場合(ステップS610:YES)、回帰直線211上に複数のボタンアイコンが存在するかどうかを判定する(ステップS620)。
上述のステップS620において、複数のボタンアイコンが存在しない、つまり、回帰直線211上に存在するボタンアイコンは1つであると判定した場合(ステップS620:NO)、処理は、ステップS611に移行する。ステップS611の内容は、上述の第1実施形態と同様であるので、詳細な説明は省略する。
一方、上述のステップS620において、複数のボタンアイコンが存在すると判定した場合(ステップS620:YES)、画像処理部130は、スクリーン201に生じる影206が伸びる速度を検出する(ステップS621)。例えば画像処理部130は、前述のステップS602〜ステップS608の処理を所定のレートで繰り返し、元画像座標系上の合成画像における黒の画素群(影206に相当)の経時的変化に基づいて、スクリーン201に生じる影206が伸びる速度を検出することもできる。
次に、画像処理部130は、ステップS622で検出した影206の速度に基づいて、ユーザが押下しようとしているボタンアイコンを判定する(ステップS622)。より具体的には、画像処理部130は、前述のステップS621で検出した影206の速度を示す第1情報に対応付けられた第2情報を記憶装置106から読み出し、回帰直線211上に存在する複数のボタンアイコンのうち、読み出した第2情報が示す範囲に表示されるボタンアイコン(ユーザが押下しようとしているボタンアイコンに相当)を判定する。その後、処理は、ステップS611に移行する。ステップS611の内容は、上述の第1実施形態と同様であるので、詳細な説明は省略する。
以上に説明したように、本実施形態に係る画像処理部130は、回帰直線211上に2以上のボタンアイコンが存在すると判断した場合、スクリーン201に生じる影の伸びる速度に基づいて、ユーザが押下しようとしているボタンアイコンを判定する。これにより、例えばスクリーン201に投影された画像に表示される複数のボタンアイコンが、投影光の軸202と略平行な方向(前述のY軸方向)に一直線上に並べられる態様であっても、ユーザが押下しようとしているボタンアイコンを精度良く判定することができる。
以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。本発明は、上述の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、上述の各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
例えば画像処理部130は、スクリーン201(投影領域205)に生じる影206に基づいて、ユーザによるフリック操作を判定することもできる。なお、フリックとは、指で軽く払う動作を指す。例えば画像処理部130は、元画像座標系上の合成画像における黒の画素群(スクリーン201に生じる影206に相当)の長手方向の長さが閾値以内であり、かつ、その黒の画素群が、時間の経過に伴って、左から右へ向かって(あるいは右から左へ向かって)移動する場合は、ユーザによるフリック操作が行われたと判定することもできる。
図20は、ユーザが、投影領域205に対して、左から右へ向けて指で軽く払う動作を行っている様子を例示した図である。図20の例では、ユーザの指の位置が「204G」の場合、投影領域205には影206gが生じる。また、ユーザの指の位置が「204H」の場合、投影領域205には影206hが生じる。さらに、ユーザの指の位置が「204I」の場合、投影領域205には影206iが生じるといった具合である。
なお、上述の各実施形態および変形例は任意に組み合わせることが可能である。
1 画像投影表示装置
10 CPU
20 RAM
30 ROM
40 HDD
50 I/F
60 LCD
70 操作部
80 バス
100 コントローラ
101 投影装置
102 撮像装置
103 ディスプレイパネル
104 ネットワークI/F
105 光源
106 記憶装置
110 主制御部
120 光学機構制御部
130 画像処理部
140 操作表示制御部
150 入出力制御部
160 記憶制御部
200 コントローラ
201 スクリーン
202 投影光の軸
203 投影光路
204 ユーザの指
205 投影領域
206 スクリーン上のユーザの指の影
207 差分画像における元画像領域
208 差分画像におけるユーザの指の影領域
209 合成画像における元画像領域
210 合成画像におけるユーザの指の影領域
211 回帰直線
212 光
213 光源領域
214 折れ曲がり部
1000 画像投影表示装置
特許第3729533号公報 特開平07−129322号公報 特開2009−070245号公報

Claims (12)

  1. 投影装置から投影される投影光の光軸と投影面とのなす角が鋭角となるように画像が投影された投影面及び前記投影面の周辺の少なくとも一方を撮像した撮像画像を取得する画像取得部と、
    前記投影光の光路に侵入した物体により前記投影面及び前記投影面の周辺の少なくとも一方に生じた影を前記撮像画像に基づいて検知する影検知部と、
    検知された前記影に基づき、前記投影面の影の位置とは異なる位置であり、かつ前記影の位置と所定の関係を有する位置をユーザにより指し示された指示位置と決定する指示位置決定部と、
    決定された前記指示位置に応じた情報を出力する指示情報出力部と、
    を備えることを特徴とする画像処理装置。
  2. 前記指示位置決定部は、前記影に基づいて前記投影面上における直線を取得し、前記直線の軌跡に基づいて前記指示位置を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像には複数のアイコンが表示されており、前記複数のアイコンは、前記投影面に平行であり、かつ前記投影軸と垂直な方向において位置が異なるように配列されており、 前記指示位置決定部は、前記複数のアイコンのうち前記直線の軌跡が通るアイコンが表示された位置を前記指示位置と決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記撮像画像取得部、前記影検知部及び前記指示位置決定部は、所定の周期で同様の処理を繰り返し、
    前記指示情報出力部は、複数回連続して同一のアイコンが表示された位置が前記指示位置と決定された場合に、決定された前記指示位置に応じた情報を出力することを特徴とする請求項3に記載の画像処理装置。
  5. 前記画像には、互いに位置が異なるように配列された複数のアイコンが表示され、
    前記指示位置決定部は、前記直線上に2以上のアイコンが存在すると判定した場合、前記影が伸びる速度に基づいて前記指示位置を決定する、
    ことを特徴とする請求項2に記載の画像処理装置。
  6. 前記影が伸びる速度と、前記投影面における高さとを対応付けて記憶装置に記憶する記憶制御部をさらに備え、
    前記指示位置決定部は、前記直線上に2以上のアイコンが存在すると判定した場合、前記影が伸びる速度を検出し、検出した前記影が伸びる速度に対応付けられた高さに対応するアイコンの表示位置を、前記指示位置として決定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記指示情報出力部は、前記アイコンのいずれかが前記指示位置に対応する場合に、既に投影されている前記画像の代わりに前記指示位置に対応するアイコンに応じた画像を前記投影面に新たに投影させるように、前記投影装置を制御することを特徴とする請求項3乃至6のうちの何れか1項に記載の画像処理装置。
  8. 前記投影装置と、
    前記投影装置の投影部よりも前記投影面に近い位置に配置され、前記投影面及び前記投影面の周辺の少なくとも一方を撮像する撮像装置と、
    を備えることを特徴とする請求項1乃至7いずれか1項に記載の画像処理装置。
  9. 前記影検知部は、前記投影面の周辺に一定光量の光を照射する光源から照射された光により生じた前記影を検知することを特徴とする請求項1乃至8いずれか1項に記載の画像処理装置。
  10. 前記光源を備えることを特徴とする請求項9に記載の画像処理装置。
  11. 投影装置から投影される投影光の光軸と投影面とのなす角が鋭角となるように画像が投影された投影面及び前記投影面の周辺の少なくとも一方を撮像した撮像画像を取得するステップと、
    前記投影光の光路に侵入した物体により前記投影面及び前記投影面の周辺の少なくとも一方に生じた影を前記撮像画像に基づいて検知するステップと、
    検知された前記影に基づき、前記投影面の影の位置とは異なる位置であり、かつ前記影の位置と所定の関係を有する位置をユーザにより指し示された指示位置と決定するステップと、
    決定された前記指示位置に応じた情報を出力するステップと、
    を実行することを特徴とする画像処理プログラム。
  12. 投影装置から投影される投影光の光軸と投影面とのなす角が鋭角となるように画像が投影された投影面及び前記投影面の周辺の少なくとも一方を撮像した撮像画像を取得し、
    前記投影光の光路に侵入した物体により前記投影面及び前記投影面の周辺の少なくとも一方に生じた影を前記撮像画像に基づいて検知し、
    検知された前記影に基づき、前記投影面の影の位置とは異なる位置であり、かつ前記影の位置と所定の関係を有する位置をユーザにより指し示された指示位置と決定し、
    決定された前記指示位置に応じた情報を出力することを特徴とする画像処理方法。
JP2013069791A 2012-05-18 2013-03-28 画像処理装置、画像処理プログラム、画像処理方法 Expired - Fee Related JP6135239B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013069791A JP6135239B2 (ja) 2012-05-18 2013-03-28 画像処理装置、画像処理プログラム、画像処理方法
US13/871,460 US9417712B2 (en) 2012-05-18 2013-04-26 Image processing apparatus, computer-readable recording medium, and image processing method
CN201310176335.4A CN103425268B (zh) 2012-05-18 2013-05-14 图像处理装置和图像处理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012114843 2012-05-18
JP2012114843 2012-05-18
JP2013069791A JP6135239B2 (ja) 2012-05-18 2013-03-28 画像処理装置、画像処理プログラム、画像処理方法

Publications (2)

Publication Number Publication Date
JP2013257861A true JP2013257861A (ja) 2013-12-26
JP6135239B2 JP6135239B2 (ja) 2017-05-31

Family

ID=49580906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013069791A Expired - Fee Related JP6135239B2 (ja) 2012-05-18 2013-03-28 画像処理装置、画像処理プログラム、画像処理方法

Country Status (3)

Country Link
US (1) US9417712B2 (ja)
JP (1) JP6135239B2 (ja)
CN (1) CN103425268B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101603A (ja) * 2017-11-30 2019-06-24 株式会社Subaru 製造補助装置
US10860144B2 (en) 2017-02-24 2020-12-08 Seiko Epson Corporation Projector and method for controlling projector

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
US20130249811A1 (en) * 2012-03-23 2013-09-26 Microsoft Corporation Controlling a device with visible light
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
JP6070211B2 (ja) * 2013-01-22 2017-02-01 株式会社リコー 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP6075122B2 (ja) 2013-03-05 2017-02-08 株式会社リコー システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US20150058782A1 (en) * 2013-08-21 2015-02-26 Intel Corporation System and method for creating and interacting with a surface display
JP2016048541A (ja) 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム
EP3304948B1 (en) * 2015-05-28 2019-02-27 Motorola Solutions, Inc. Virtual push-to-talk button
JP2017049783A (ja) * 2015-09-01 2017-03-09 キヤノン株式会社 画像処理装置及び画像処理方法
JP6926464B2 (ja) * 2016-12-19 2021-08-25 カシオ計算機株式会社 投影装置、投影方法及びプログラム
US11002855B2 (en) 2016-12-27 2021-05-11 Microvision, Inc. Occlusion-based height estimation
US10761188B2 (en) 2016-12-27 2020-09-01 Microvision, Inc. Transmitter/receiver disparity for occlusion-based height estimation
US10061441B2 (en) * 2016-12-27 2018-08-28 Microvision, Inc. Touch interactivity with occlusions in returned illumination data
FI20175006A1 (en) * 2017-01-03 2019-02-15 Nokia Technologies Oy Video and image coding using wide-angle intra-prediction
WO2019171827A1 (ja) * 2018-03-08 2019-09-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
DE102019200632B4 (de) * 2019-01-18 2021-11-25 Audi Ag Bediensystem mit portabler Schnittstelleneinheit sowie Kraftfahrzeug mit dem Bediensystem
CN110321056A (zh) * 2019-07-15 2019-10-11 深圳传音控股股份有限公司 基于终端的控件移动方法、手机和存储介质
CN114422762B (zh) * 2021-12-25 2023-10-13 深圳市幕工坊科技有限公司 投影幕动作控制系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236178A (ja) * 2000-02-22 2001-08-31 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP2004247868A (ja) * 2003-02-12 2004-09-02 Mitsubishi Electric Corp 大画面表示装置
JP2005061894A (ja) * 2003-08-08 2005-03-10 Dentsu Tec Inc 位置検出装置
JP2005276139A (ja) * 2004-02-23 2005-10-06 Aruze Corp 情報入力装置
JP2007219814A (ja) * 2006-02-16 2007-08-30 Seiko Epson Corp 入力位置設定方法、入力位置設定装置、入力位置設定プログラムおよび情報入力システム
JP2008059283A (ja) * 2006-08-31 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> 操作検出装置とそのプログラム
JP2009064110A (ja) * 2007-09-04 2009-03-26 Canon Inc 画像投影装置及びその制御方法
JP2011180712A (ja) * 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
JP2012069095A (ja) * 2010-08-25 2012-04-05 Canon Inc 情報処理装置およびその制御方法

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6364068A (ja) 1986-09-05 1988-03-22 Ricoh Co Ltd 静電記録装置
JP2771822B2 (ja) 1988-10-21 1998-07-02 株式会社リコー 光照射画像形成装置
US4918489A (en) 1989-05-24 1990-04-17 Ricoh Co., Ltd. Method of supplying recording sheets in image forming apparatus
US5019913A (en) 1989-10-02 1991-05-28 Ricoh Company, Ltd. Recording apparatus having control data selectively designated in memory which corresponds to one of multiple optical scanning systems
JP3348221B2 (ja) 1989-10-31 2002-11-20 株式会社リコー 画像記録装置
JP3201796B2 (ja) 1991-10-31 2001-08-27 株式会社リコー 画像形成装置
US5565907A (en) 1993-04-20 1996-10-15 Ricoh Company, Ltd. Image forming apparatus capable of producing high quality halftone images
JPH07129322A (ja) 1993-09-07 1995-05-19 Sony Corp コンピュータディスプレイシステム
JP2689934B2 (ja) 1995-01-12 1997-12-10 日本電気株式会社 電子ボード
JP3729533B2 (ja) 1995-05-25 2005-12-21 沖電気工業株式会社 ポインティングシステム
JPH09261429A (ja) 1996-03-25 1997-10-03 Ricoh Co Ltd 画像形成装置
US20030012445A1 (en) 1997-05-08 2003-01-16 Nekka Matsuura Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6459816B2 (en) 1997-05-08 2002-10-01 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6704455B1 (en) 1997-05-29 2004-03-09 Ricoh Company, Ltd. Image processing system and image processing method
US6512507B1 (en) * 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium
JP3964042B2 (ja) 1998-04-08 2007-08-22 株式会社リコー カラー画像処理装置およびカラー画像処理方法
JP3682709B2 (ja) 1998-06-12 2005-08-10 株式会社リコー 画像処理装置
JP3615399B2 (ja) 1998-09-22 2005-02-02 株式会社リコー 画像処理装置および画像処理方法
JP3883028B2 (ja) 1998-12-14 2007-02-21 株式会社リコー 画像符号化装置及び方法
US6788811B1 (en) 1999-05-10 2004-09-07 Ricoh Company, Ltd. Coding apparatus, decoding apparatus, coding method, decoding method, amd computer-readable recording medium for executing the methods
JP3857509B2 (ja) 1999-09-20 2006-12-13 株式会社リコー 画像処理装置、画像処理システム、画像符号化方法、及び記憶媒体
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US7859519B2 (en) * 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
US7221483B2 (en) 2000-09-05 2007-05-22 Ricoh Company, Ltd. Image encoding method and apparatus, image decoding method and apparatus, image processing apparatus, image formation apparatus, and computer-executable programs
US7277585B2 (en) 2001-05-25 2007-10-02 Ricoh Company, Ltd. Image encoding method, image encoding apparatus and storage medium
JP2003087547A (ja) 2001-09-12 2003-03-20 Ricoh Co Ltd 画像処理装置
US20030226968A1 (en) 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
JP4061143B2 (ja) 2002-07-11 2008-03-12 株式会社リコー 画像処理装置および画像処理方法
JP3952459B2 (ja) 2002-11-15 2007-08-01 株式会社リコー 画像処理装置、プログラム、記憶媒体及び画像処理方法
JP3950791B2 (ja) 2002-12-10 2007-08-01 株式会社リコー 画像処理装置及び画像データ処理方法
JP2004221950A (ja) 2003-01-15 2004-08-05 Ricoh Co Ltd 画像処理装置、プログラムおよび記憶媒体
JP4001284B2 (ja) 2003-03-11 2007-10-31 株式会社リコー 画像処理装置および画像処理方法
JP3838241B2 (ja) 2004-01-13 2006-10-25 セイコーエプソン株式会社 画像表示装置
JP4860388B2 (ja) 2005-09-27 2012-01-25 株式会社リコー 画像処理装置、画像処理方法及び該方法を実行させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体
US8149451B2 (en) 2007-07-18 2012-04-03 Ricoh Company, Ltd. Information processing device, information embedding method, and program
JP4933389B2 (ja) 2007-09-14 2012-05-16 株式会社リコー 画像投影表示装置、画像投影表示方法、画像投影表示プログラム及び記録媒体
US20120204133A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
JP5258399B2 (ja) 2008-06-06 2013-08-07 キヤノン株式会社 画像投影装置及びその制御方法
JP5347784B2 (ja) 2008-08-19 2013-11-20 株式会社リコー 画像処理装置、付加情報提供方法、プログラム、記憶媒体
KR101537596B1 (ko) * 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
US20100302207A1 (en) * 2009-05-27 2010-12-02 Lan-Rong Dung Optical Touch Control Method and Apparatus Thereof
JP5413061B2 (ja) 2009-08-31 2014-02-12 株式会社リコー 画像形成システム及び画像形成方法
CN101694694B (zh) 2009-10-22 2011-09-28 上海交通大学 用于交互式演示系统中的手指识别方法
KR20110044424A (ko) * 2009-10-23 2011-04-29 엘지전자 주식회사 이동 단말기 및 그 제어방법
CA2828222A1 (en) * 2010-02-23 2011-09-01 Muv Interactive Ltd. A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
JP2011250046A (ja) 2010-05-26 2011-12-08 Nikon Corp 電子機器
FR2960986A1 (fr) * 2010-06-04 2011-12-09 Thomson Licensing Procede de selection d’un objet dans un environnement virtuel
US20120236344A1 (en) 2010-09-16 2012-09-20 Ricoh Company, Ltd. Image processing system and image processing apparatus
JP5434997B2 (ja) 2010-10-07 2014-03-05 株式会社ニコン 画像表示装置
JP5304848B2 (ja) 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ
US20120139827A1 (en) * 2010-12-02 2012-06-07 Li Kevin A Method and apparatus for interacting with projected displays using shadows
GB201110156D0 (en) * 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
GB201110159D0 (en) * 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236178A (ja) * 2000-02-22 2001-08-31 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP2004247868A (ja) * 2003-02-12 2004-09-02 Mitsubishi Electric Corp 大画面表示装置
JP2005061894A (ja) * 2003-08-08 2005-03-10 Dentsu Tec Inc 位置検出装置
JP2005276139A (ja) * 2004-02-23 2005-10-06 Aruze Corp 情報入力装置
JP2007219814A (ja) * 2006-02-16 2007-08-30 Seiko Epson Corp 入力位置設定方法、入力位置設定装置、入力位置設定プログラムおよび情報入力システム
JP2008059283A (ja) * 2006-08-31 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> 操作検出装置とそのプログラム
JP2009064110A (ja) * 2007-09-04 2009-03-26 Canon Inc 画像投影装置及びその制御方法
JP2011180712A (ja) * 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
JP2012069095A (ja) * 2010-08-25 2012-04-05 Canon Inc 情報処理装置およびその制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860144B2 (en) 2017-02-24 2020-12-08 Seiko Epson Corporation Projector and method for controlling projector
JP2019101603A (ja) * 2017-11-30 2019-06-24 株式会社Subaru 製造補助装置
US10732915B2 (en) 2017-11-30 2020-08-04 Subaru Corporation Manufacturing assistance apparatus

Also Published As

Publication number Publication date
CN103425268A (zh) 2013-12-04
JP6135239B2 (ja) 2017-05-31
CN103425268B (zh) 2016-08-10
US20130307773A1 (en) 2013-11-21
US9417712B2 (en) 2016-08-16

Similar Documents

Publication Publication Date Title
JP6135239B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
JP6167529B2 (ja) 画像投影装置、画像投影システム、制御方法およびプログラム
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US11209921B2 (en) Electronic blackboard, storage medium, and information display method
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
US9880721B2 (en) Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method
US10276133B2 (en) Projector and display control method for displaying split images
JP2011203830A (ja) 投写システム及びその制御方法
KR101669079B1 (ko) 표시제어장치 및 그 제어 방법
JP2010079834A (ja) 座標検出装置の取り付け位置判断装置及び電子ボードシステム
JP2014197380A (ja) 画像投影装置、システム、画像投影方法およびプログラム
US20170085848A1 (en) Information processing device, projector and information processing method
US20150242179A1 (en) Augmented peripheral content using mobile device
JP5627314B2 (ja) 情報処理装置
CN106325726B (zh) 触控互动方法
JP2010272078A (ja) 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法
JP4728540B2 (ja) 会議等支援用画像投影装置
JP4500036B2 (ja) 画像投影表示装置、画像投影表示方法および画像投影表示プログラム
JP2013134549A (ja) データ入力装置およびデータ入力方法
JP2013257830A (ja) 情報処理装置
JP2021128698A (ja) 情報処理装置、情報処理プログラム、及び情報処理システム
JP2017022590A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2016218621A (ja) 座標検出システム、座標検出方法及びプログラム
KR101553060B1 (ko) 가정용 tv 제어 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170410

R151 Written notification of patent or utility model registration

Ref document number: 6135239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees