JP2016186656A - 投射型映像表示装置 - Google Patents

投射型映像表示装置 Download PDF

Info

Publication number
JP2016186656A
JP2016186656A JP2016138450A JP2016138450A JP2016186656A JP 2016186656 A JP2016186656 A JP 2016186656A JP 2016138450 A JP2016138450 A JP 2016138450A JP 2016138450 A JP2016138450 A JP 2016138450A JP 2016186656 A JP2016186656 A JP 2016186656A
Authority
JP
Japan
Prior art keywords
image
projection
unit
finger
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016138450A
Other languages
English (en)
Other versions
JP6314177B2 (ja
Inventor
長谷川 実
Minoru Hasegawa
実 長谷川
中嶋 満雄
Mitsuo Nakajima
満雄 中嶋
孝志 松原
Takashi Matsubara
孝志 松原
沙希子 成川
Sakiko Narukawa
沙希子 成川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Holdings Ltd
Original Assignee
Hitachi Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Ltd filed Critical Hitachi Maxell Ltd
Priority to JP2016138450A priority Critical patent/JP6314177B2/ja
Publication of JP2016186656A publication Critical patent/JP2016186656A/ja
Application granted granted Critical
Publication of JP6314177B2 publication Critical patent/JP6314177B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】机面をはじめとする投射物に画像を投射して表示する投射型映像表示装置において、ユーザの位置とジェスチャ動作を反映した表示画面を所定の領域に表示する。【解決手段】机面に設置される投射型映像表示装置に照明とカメラを設け、ユーザの指によるジェスチャを検出し、ジェスチャに応じて例えばメニュー画面、操作ガイドを表示する。指の影をカメラが撮影してジェスチャが検出される。ジェスチャに応じて表示画面が移動、回転、分割、拡大縮小され、或いはメニュー画面が表示される。机の辺の方向を考慮して表示方向が定められる。【選択図】図3

Description

本発明は,画像を投射する投射型映像表示装置に関するものである。
投射型表示装置が机のような水平面に映像を投射する際に,表示向きをユーザにとって見やすい向きに制御する技術が考案されている。
特許文献1では,投射物上方に設置される投射型表示装置が撮像部を備えて,操作者の動きを撮影するユーザーインターフェース画像を入手し,その動き検出の結果によって表示画面を制御する技術について述べている。
また,特許文献2では投射物上方に設置される表示装置が,ユーザの位置や動作,投射物の形状を認識し,それに応じて表示位置や表示向き等を制御する方法について述べている。
特開2009−64109号公報 特開2013−76924号公報
特許文献1および2の技術は投射物上方に設置された表示装置から,机のような移動が容易な投射物に映像を表示することを意図しており,投射物の移動に応じて表示装置の移動を要するなど,使い勝手に課題がある。
また,ユーザの位置や動作等を認識するためには,上方に設置した表示装置の撮像部からでは,動作認識を行うための撮影すべきポイントが遠い,撮影すべきポイントがユーザの体の一部に遮蔽され撮影が困難になる,などにより認識の精度に課題がある。
また,ユーザの位置や動作等を認識したうえで,これを利用して如何に表示装置の使い勝手をよくするかについては、さらに工夫の余地があると考えられる。
前記した課題を解決するため、本発明は投射型映像表示装置であって、映像を投射する映像投射部と、前記映像投射部が投射する映像投射面と少なくとも一部が重なる面に前記投射映像とは異なる照明光を照射する少なくとも1つの照明部と、前記照明光の反射光により撮像を行う撮像部と、前記撮像部が撮像した画像に基づいて操作者の指が前記映像投射面に接する少なくとも位置を検出する検出部と、前記検出部による検出結果に基づいて前記映像投射部が投射する映像の含む少なくとも一つの部分映像を変更するよう制御する表示制御部とを有することを特徴としている。
また、前記投射型映像表示装置は、前記映像投射面での面上に設置されて前記映像を投射することを特徴としている。
本発明によれば、使い勝手のよい投射型映像表示装置を提供することができ、装置の普及に寄与することができるという効果がある。
机上に設置した投射型表示装置で机上に映像を投射する例を示す図。 ジェスチャ入力で表示画面を制御する操作検出機能付投射型表示装置の構成の一例を示す図。 操作検出機能付投射型表示装置の表示画面に対してユーザが操作を行う状態の一例を示す図。 2つの照明で生じるユーザの指の影の形状を示す図。 2つの照明で生じるユーザの指の影の形状を示す図。 ユーザの操作位置による影の形状を示す図。 指と操作面の間隙と影の形状との関係を示す図。 特徴点による接近度の判定を説明する図。 特徴点による接触点の決定を説明する図。 特徴点を他の位置に設定した場合を示す図。 複数の指で操作する場合の影の形状を示す図。 輪郭線による指さし方向の決定を説明する図。 輪郭線による指さし方向の決定を説明する図。 輪郭線による指さし方向の決定を説明する図。 操作検出方法の処理フローを示す図。 操作検出方法の処理フローを示す図。 指の接近度に応じた制御の一例を示す図。 指さし方向に応じた制御の一例を示す図。 指さし方向に応じた制御の一例を示す図。 指さし方向に応じた制御の一例を示す図。 長方形の机に近接してユーザが存在することを示す図。 ユーザ位置と長方形机の縁の形状から決定した表示方向を示す図。 円状の机に近接してユーザが存在することを示す図。 ユーザ位置と円形机の縁の形状から決定した表示方向を示す図。 長方形机に近接する複数の人を検出して表示位置と表示方向を決定する一例を示す図。 円形机に近接する複数の人を検出して表示位置と表示方向を決定する一例を示す図。 指操作による平行移動の一例を示す図。 指操作による平行移動の一例を示す図。 指操作による回転移動の一例を示す図。 指操作による回転移動の一例を示す図。 指操作による表示画面数を増加させる操作の一例を示す図。 指操作による表示画面数を増加させる操作の一例を示す図。 指操作による表示画面を拡大させる操作の一例を示す図。 指操作による表示画面を拡大させる操作の一例を示す図。 複数指操作の一例を示す図。 複数指操作の一例を示す図。 複数指操作の一例を示す図。 複数指操作の一例を示す図。 複数指操作の一例を示す図。 複数指操作の一例を示す図。 複数指操作の一例を示す図。 複数指操作の一例を示す図。 可視外光が異常に遮断された時の動作の一例を示すフローチャート図。 操作ガイド表示の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。 メニューまたは詳細情報表示操作の一例を示す図。
以下、本発明の実施形態について図面を用いて説明する。
図1は,机上に設置した投射型表示装置201で,異なる方向を見る複数のユーザに対して回転角度の異なる2つの映像202,203を机上に投射する例を示している。なお、以下の説明で「机」への映像投射を例として説明しているが、当該「机」は、映像投射面の一例である。よって、本実施例は、その他の映像投射面(その他の構造物の面や床でもよい)を対象としてもよい。投射型表示装置201を机上に設置することにより,机を移動した際の投射型表示装置201の位置の調整を基本的には不要としている。
図1においては,投射型表示装置205が画像を光学的に投射できる最大の範囲210を破線で示している。最大投射範囲210は、以下の図面でも示されることがある。最大投射範囲210の中に投射型表示装置205は,一例として二つの表示画面202と203を投射している。表示画面202と203は、後記するOSD(オンスクリーンディスプレイ)の画面に相当する。即ち、表示画面202,203に表示される画像は最大投射範囲210の中の部分画像である。
例えば、机の周囲にいる人に対して,装置の設計図を最大投射範囲210の全体に表示し,表示画面202,203に設計図の解説資料を表示するような使い方が考えられる。
図2に,このようなケースにおいて,ユーザがジェスチャ入力で表示画面を制御する操作検出機能付投射型表示装置205の構成図の一例を示す。操作検出機能付投射型表示装置205は,カメラ100,2つの照明101と102,影領域抽出部104,特徴点検出部105,接近度検出部106,接触点検出部107,輪郭検出部108,方向検出部109,制御部110,表示制御部111,駆動回路部112,入力端子部113,入力信号処理部114,投射部115を含む。制御部110は,各検出部で検出した操作面に対する指の接近度,接触点座標,指さし方向などの操作状態の検出結果データを生成する。
また表示制御部111は,検出結果に基づき操作モード,ポインタ表示位置,ポインタ表示方向などの表示制御データを生成し,入力端子113および入力信号処理部114を経由する映像信号に対して,表示制御データに基づいた処理を行う。処理された映像信号は駆動回路部112で投射に必要な処理がなされ,投射部115から投射物に対して投射される。なお、図2にはバッファやメモリ等の記載は省略しているが、必要なバッファやメモリ等は適宜搭載すればよい。
図3は,操作検出機能付投射型表示装置205の表示画面203に対してユーザ3が操作を行う状態の一例を示す図である。ユーザ3は操作部である指30を,投射物204の表示画面203に接近させ,またある位置に接触させることで所望の操作を行う。即ち、例えば机面である投射物204の内,表示画面203はユーザ3が投射型表示装置205に対して操作を行うための操作面でもある。ユーザ3による操作については,後に詳しく述べる。
操作検出機能付投射型表示装置205は,2つの照明101と102,カメラ100を備える。2つの照明101と102はユーザ3の指30を照射し,カメラ100は指30とその近傍を撮像する。指30が投射物204に接近または接触すると指30の影の形状が変化することから,投射型表示装置205はカメラ100の画像を解析し,指の接近度,接触点,指さし方向を検出する。
なお,操作検出機能付投射型表示装置205を机上に設置することにより,照明101と102が指30を照射する際に,光が遮蔽される機会を低減することができる。
次に,図2に示した操作検出機能付投射型表示装置205の各部の動作の一例を説明する。カメラ100は,イメージセンサ,レンズなどで構成され,ユーザ3の操作部である指30を含む画像を撮像する。2つの照明101と102は,発光ダイオード,回路基板,レンズなどで構成され,投射物204およびユーザ3の指30に照明光を照射して,カメラ100で撮像する画像内に指30の影を投影する。
なお,照明101と102は赤外光照明とし,カメラ100は赤外光カメラで構成しても良い。これにより,カメラ100で撮像する赤外光画像を,操作検出機能付投射型表示装置205から投写される映像信号の映像である可視光映像から分離して取得することができる。なお、照明光・撮像光は、投射型表示装置205の投写映像と分離できる可視光外光線であればよいので、赤外光でなく、紫外光を用いてもよい。
影領域抽出部104は,カメラ100で得られた画像から影領域を抽出し影画像を生成する。例えば,操作検出時の撮像画像から予め撮像した投射物204の背景画像を減算して差分画像を生成し,差分画像の輝度を所定の閾値Lthで二値化して,閾値以下の領域を影領域とすれば良い。さらに,抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する,いわゆるラベリング処理を行う。ラべリング処理により,抽出した複数の影についてどの指に対応するか,すなわち1本の指に対応する対となる2つの影を識別することができる。
特徴点検出部105は,影領域抽出部104で抽出した影画像内の特定の位置(以下,特徴点と呼ぶ)を検出する。例えば特徴点として,影画像内の先端位置(指先位置に対応)を検出する。特徴点検出のためには種々の手法が用いられるが,先端位置の場合はその影画像を構成する画素の座標データから検出可能であり,あるいは特徴点の持つ特有の形状に一致する部分を画像認識などにより検出することでも可能である。特徴点は1つの影から1箇所検出されるので,1本の指(2つの影)に対しては2か所検出される。
接近度検出部106は,特徴点検出部105で検出した2つの特徴点間の距離dを測定し,距離dに基づいて指と操作面との間隙s(接近度A)を検出する。これにより,指が操作面に接触しているか,接触していないかを判定する。
接触点検出部107は,接近度検出部106により指が操作面に接触していると判定した場合,その特徴点の位置に基づいて,操作面に対する指の接触点を検出し,その座標を算出する。
輪郭検出部108は,影領域抽出部104で抽出した影画像から影領域の輪郭を抽出する。例えば,影画像内を一定の方向に走査して輪郭追跡の開始画素を決定し,開始画素の近傍画素を反時計回りで追跡することで輪郭が得られる。
方向検出部109は,輪郭検出部108で検出した輪郭線からほぼ直線状の線分を抽出する。そして,抽出した輪郭線の方向に基づいて,操作面上の指の指さし方向を検出する。
なお,上記した各検出部の処理は,上記手法に限らず,他の画像処理のアルゴリズムを用いても良い。また,上記した各検出部は,回路基板によるハードウェアだけでなく,ソフトウェアで構成することもできる。
制御部110は,装置全体の動作を制御し,各検出部で検出した操作面に対する指の接近度,接触点座標,指さし方向などの検出結果データを生成する。
表示制御部111は,制御部110で生成した指の接近度,接触点座標,指さし方向などの検出結果データに基づいて,操作モード,ポインタ位置,ポインタ方向などの表示制御データを生成し,入力端子113および入力信号処理部114を経由する映像信号に対して,表示制御データに基づいた処理を行う。
駆動回路部112は,処理された映像信号を表示映像として投射するための処理を行う。表示画像は投射部115から投射物に対して投射される。
ここまでの各部は一つの操作検出機能付投射型表示装置205に装備されている例として説明したが,これらの一部が別ユニットとして構成され,伝送線で接続される構成であっても構わない。
図4Aと図4Bは,2つの照明で生じるユーザの指の影の形状を示す図である。図4Aは指30と投射物204が接触していない状態,図4Bは接触している状態である。
図4Aに示すように指30が投射物204に接触していない状態(間隙s)では,2つの照明101,102からの光は指30で遮断され,それぞれ影401,402(斜線で示す)が形成される。カメラ画像では,2つの影401,402は指30の両側に互いに離れて存在する。
一方、図4Bに示すように指30の指先が投射物204に接触している状態(間隙s=0)では,2つの影401,402は,指30の指先の位置で接近して存在する。なお,影401,402の一部領域は指30の陰に隠れているが,この隠れた部分は影領域には含めない。本実施例では,指30が投射物204に接近すると影401と影402と間隔(特に特徴点間の距離)が接近する性質を利用して,指30と操作面204との接触を判定する。
図5は,ユーザの操作位置による影の形状の影響を示す図である。ここでは,ユーザの操作位置が投射物204の中央から左側にずれた場合(ユーザ位置3)と,右側にずれた場合(ユーザ位置3’)のカメラ画像を比較している。このときカメラ100から見たユーザの操作位置は変化するが,それらのカメラ画像では,指30(30’)に対する影401(401’),402(402’)の位置関係は変わらない。すなわち,ユーザ操作位置に関係なく,常に指30(30’)の両側に影401(401’)と402(402’)が存在する。これは,カメラ100と照明101,102の位置関係により一義的に決定されるからである。従って,ユーザが投射物204に対してどの位置で操作しても2つの影401,402の検出が可能であり,本実施例の操作検出方法が有効に適用できる。
図6は,指と操作面の間隙と影の形状との関係を示す図である。指30の両側に形成される2つの影401,402の間隔は,指30と投射物204との間隙sによって変化する。2つの影401,402の間隔を定義するために,それぞれの影401,402の内部に特徴点601,602(×印で示す)を設定し,特徴点間の距離dを測定する。ここでは影の先端位置(指先位置)に特徴点を設定している。指30と投射物204の間隙sが大きい場合には,2つの影401,402の間隔は大きく,2つの特徴点601,602の距離dも大きい。指30が投射物204に接近するに従い,特徴点601,602の距離dは小さくなり,指30が投射物204に接触すると(間隙s=0),特徴点601,602の距離dは最小値となる。
図7は,接近度検出部106における接近度の判定を説明する図である。ここでは,特徴点間の距離dに基づき指の接近度Aの判定を行う。指の接近度Aを判定するために,特徴点間の距離dに対する4個の閾値d1,d2,d3,d4(ただし,d1<d2<d3<d4)を定める。これにより接近度Aを5段階(レベル1〜5)に分類し,レベル値が大きいほど,指30と投射物204との間隙sが小さいものとする。まず,指30が投射物204に接触した状態(間隙s=0)を識別するための閾値d1を定め,距離d<d1の場合には,接近度Aは最大レベル5(接触状態)であると判定する。それ以外の非接触状態については,閾値d2〜d4を用いて接近度Aを4段階(レベル4〜1)に分類する。このうちd>d4の場合は,接近度Aは最小レベル1であると判定する。この例では4個の閾値により接近度を5段階に分類したが,接近度の分類数はこれに限らず,制御内容に合わせて適宜設定すれば良い。
図8は,接触点検出部107における接触点の決定を説明する図である。指30が投射物204に接触した状態での影401,402の形状を示し,ここでは特徴点601,602を,それぞれの影401,402の先端位置に設定している。この場合は,2つの特徴点601,602は接触点である指先位置に近いことから,2つの特徴点601,602の中点Pを指30と投射物204との接触点と見なし,その座標を算出することができる。
上記の例では,特徴点601,602を,それぞれの影401,402の先端位置に設定しているが,この方法によれば特徴点の設定が容易であり,また,接触点Pの位置もその近傍に存在するので容易に決定できる。
図9は,特徴点を他の位置に設定した場合を示す図である。図8では特徴点601,602を影401,402の先端位置に設定したのに対し,図9では各影の長手方向中間位置に特徴点601’,602’を設定している。この場合にも,影401,402の間隔の変化に伴い特徴点601’,602’間の距離d’が変化するので,指30と投射物204の接近度Aの判定を行うことができる。なお,この場合の接触点P’は特徴点601’,602’の位置から長手方向にずれることになるので,特徴点601’,602’から予想される接触点P’までの距離(補正量)を予め求めておき,これで補正することで接触点P’を求めることが可能である。同様にして,特徴点を影401,402内のこれ以外の位置に設定することもできる。
図10は,複数の指で操作する場合の影の形状を示す図である。手を開いた状態で複数の指31,32・・・を操作面に接触させた際に,各指に対し,左側の影411,421・・・と,右側の影412,422・・・が形成される。そして,各影に対して特徴点を設定する。ここでは,影411,412に対する特徴点611,612と,影421,422に対する特徴点621,622を示す。対応する特徴点611,612,あるいは特徴点621,622間の距離dを測定することで,それぞれの指31,32の接近度や接触点を求めることができる。これより本実施例によれば,手を開いた状態でも複数の指についての接触を独立して検出できるので,マルチタッチ操作に適用可能となる。
図11A〜図11Cは,方向検出部109における指さし方向の決定を説明する図である。指30の方向(指さし方向)を傾けたときの影401,402の形状を示し,指さし方向の変化に伴って影401,402の向きも変化する。指さし方向を検出するために,まず輪郭検出部108にて影401,402に対する輪郭線501,502を検出する。なお,輪郭線の検出では,指先などの曲線部分を除去して,略直線状の線分からなる輪郭線を検出する。その後,方向検出部109は次の方法で指さし方向を決定する。
図11Aでは,影401,402に対する内側の輪郭線501,502を使用する。そして,内側の輪郭線501,502の傾き方向701,702のいずれかを指さし方向として決定する。
図11Bでは,影401,402に対する外側の輪郭線501’,502’を使用する。そして,外側の輪郭線501’,502’の傾き方向701’,702’のいずれかを指さし方向として決定する。
図11Cでは,影401,402に対する内側の輪郭線501,502を使用する。そして,内側の輪郭線501,502の中線の傾き方向703を指さし方向として決定する。この場合には2つの輪郭線501,502の平均方向から求めるので,より精度が高くなる。なお,外側の輪郭線501’,502’の中線方向を指さし方向としても良い。
図12Aと図12Bは,実施例1における操作検出方法の処理フローを示す図である。図12Aは接近度と接触点の検出,図12Bは指さし方向の検出のフローである。
まず,図11Aの接近度と接触点の検出方法から説明する。
S1001では,影領域抽出部104は,カメラ100で撮像した画像から背景を減算して差分画像を求め,輝度が閾値Lth以下の部分を影領域として抽出する。その際,抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する,いわゆるラベリング処理を行う。
S1002では,特徴点検出部105は,ラベリング処理した各影に対して特徴点を検出する。例えば図6のように,各影401,402の先端位置を特徴点601,602として検出する。
S1003では,検出した2つの特徴点601,602間の距離dを測定する。
S1004では,接近度検出部106は,距離dに基づいて指30と投射物204の接近度Aを判定する。判定では,例えば図7を用いて距離dを閾値d1〜d4と比較し,接近度Aをレベル1〜5に分類する。そしてd<d1の場合は,接近度A=5(接触状態)と判定する。
S1005では,判定した接近度Aは接触時のレベル(=5)か否かを判定する。判定結果が接近度A=5であればS1006へ進み,それ以外(非接触状態)の場合は終了する。
S1006では,接触点検出部107は,指30と投射物204の接触点を検出する。例えば図8のように,2つの特徴点601,602の中点Pを接触点とし,その座標を算出する。特徴点の設定方法が上記(先端位置)と異なる場合は,その設定方法に応じて接触点位置を補正すれば良い。
なお,操作状態においては以上の処理フローを繰り返して実行し,操作状態の変化に追従した操作検出を行うものとする。
次に,図12Bの指さし方向の検出方法を説明する。
S1011では,影領域抽出部104は,カメラ100で撮像した画像から背景を減算して差分画像を求め,輝度が閾値Lth以下の部分を影領域として抽出する。これは前記S1001と同様である。
S1012では,輪郭検出部108は,ラベリング処理した各影に対して輪郭線(略直線部)を検出する。例えば図11Cのように,影401,402の内側の輪郭線501,502を検出する。その際,これらの輪郭線のうち指先などの曲線部分を除去して,略直線状の線分を検出する。
S1013では,方向検出部109は,各輪郭線501,502の中線の傾き方向703を指さし方向と判定する。なお,指さし方向の判定は,図11A或いは図11Bに示す方法でも良い。
なお,操作状態においては以上の処理フローを繰り返して実行し,操作状態の変化に追従した操作検出を行うものとする。
また,図12Aの接近度と接触点の検出処理と図12Bの指さし方向検出処理は,並行して行うことができる。
図13は,表示制御部121における指の接近度に応じた制御の一例を示す図である。
指30と投射物204との接近度Aに応じて,操作モードとポインタ表示の切り替えを示している。
操作モードに関しては,接近度Aが最も高いレベル5(接触状態)では接触操作モードとする。それ以外の非接触状態で接近度Aが比較的高いレベル4,3では空中操作モードに,接近度Aが比較的低いレベル2,1では操作オフモードに切り替える。このような制御により,ユーザ3は指30を投射物204に接触させた状態に加え,投射物204から浮かせた状態においても操作対象装置の操作が可能となる。また,指30が投射物204から一定距離以上離れている場合には,操作オフモードに切り替わり,ユーザの意図しない操作を防ぐことができる。
またポインタ表示に関しては,接近度Aが比較的高いレベル5,4ではポインタを表示し,接近度Aが比較的低い3,2,1ではポインタを表示しないように切り替える。このような制御により,ユーザ3は指30が投射物204に接触する前の段階でポインタを確認することができ,接触時のポインタの位置を合わせ易くなる。以上の制御により,操作対象装置への操作性が向上する。
図14A〜図14Cは,表示制御部121における指さし方向に応じた制御の一例を示す図である。
図14Aは,指さし方向700に応じてポインタ800の表示位置を補正する場合である。ポインタ800を表示する際,接触点検出部107において検出した接触点Pと全く同じ位置に表示すると,ポインタ800が指30に隠れてユーザ3から見えにくくなる。そこで,方向検出部109で検出した指さし方向700に沿ってポインタ800を指先前方に所定量だけずらして表示する。これによりポインタ800はユーザ3から見やすくなる。
また,上記に加えて,指30の接近度Aに応じてポインタ800の表示位置のずらし量(補正量)を変更しても良い。例えば接近度Aが低いときには補正量を大きくし,接近度Aが高いときには補正量を小さくする。これにより,ユーザ3の指30が投射物204に近づくに従ってポインタ800の位置が指先に近づき,ユーザ3はポインタ800の表示位置を目安にすることで精度の良い操作ができるようになる。
図14Bは,指さし方向700に応じてポインタ800の表示方向を補正する場合である。矢印形状のポインタ800を表示する際,例えば図14Aのように指さし方向700と無関係に常に一定の方向に表示すると,ポインタ800の表示方向が指さし方向700と一致せずユーザ3に対し違和感を与えることがある。そこで,方向検出部109において検出した指さし方向700にポインタ800の表示方向を合わせて表示する。これにより指さし方向700との不一致がなくなり,ユーザ3に対する違和感を解消できる。
図14Cは,指さし方向700に応じて接触点の位置を補正する場合である。接触点検出部107において検出される接触点Pは特徴点の位置から決定されるので,実際に投射物204と接触する位置からずれることがある。例えば,特徴点を影の先端位置とする場合,実際の接触位置(指の腹の部分となることが多い)よりも指の先端側(爪先)の位置にずれてしまう。そこで,方向検出部109において検出した指さし方向700に沿って,指の付け根側に接触点位置を所定量だけ補正する(P→P”)。これにより,指30と投射物204の接触点をより正確に取得することができる。
以上が,操作検出機能付投射型表示装置205における指さし検出等によるユーザ3の操作内容の検出方法である。以上説明した方式による指さしジェスチャによる接触点および指さし方向の検出方式では、指を含む細長い物体があれば操作が可能である。これは、ペン先から所定の光を発光して認識処理を行う発光ペン方式に比べて、専用の発光ペン等を確保しておく必要がない点で大幅に使い勝手がよい。
続いて,ユーザ3がこれまで説明したような指さし等の操作によって実現する画面操作について説明する。
操作前の表示画面数,表示の向き,表示の位置,表示の大きさ等は以下に示す例などの方法で決定される。
例えば,操作検出機能付投射型表示装置205にディフォルトで設定された表示画面の設定でも良い。
また,ユーザが条件設定して表示画面数,表示の向き,表示の大きさ等を手動決定しても良い。
また,前述の指さし検出等により,指や腕が差し出される方向を推定して人の存在する位置を特定し,或いは差し出される指や腕の数からユーザの人数を特定するなどにより,視認しやすい表示向きや表示画面数を設定するようにしても良い。
また,ユーザの人数や位置,投射物の形状等を認識し,それに応じて表示画面数,表示位置,表示向き,表示の大きさ等を決定しても良い。このようなユーザの人数や位置,投射物の形状等の認識において,机上に設置される投射型表示装置は,認識物との距離が近いことや,認識物との間を障害物によって遮蔽される頻度が少ないことなどから,有利である。
図15〜18に投射物の形状等を認識して,表示画面の表示向きを決定する方法の例を示す。図15および16は長方形状の机に投射する場合の例である。図15のようにユーザ3が長方形状の机である投射物204付近にいることが操作検出機能付投射型表示装置205のカメラ100で撮影され,認識される。さらにユーザ3と机の縁との最接近部302の机の縁の位置が認識される。この302の位置の縁の方向と表示映像の底辺が平行,かつ302の位置が下側となる向き,すなわち図16の表示映像202のように表示される向きに表示方向を決定する。
図17および18は円形の机に投射する場合の例である。図17のようにユーザ3が円形の机である投射物204付近にいることが操作検出機能付投射型表示装置205のカメラ100で撮影され,認識される。さらにユーザ3と机の縁との最接近部303の机の縁の位置が認識される。この303の位置の縁の方向と表示映像の底辺が平行,かつ303の位置が下側となる向き,すなわち図18の表示映像202のように表示される向きに表示方向を決定する。
なお,この図15〜18の説明で,ユーザ3の位置や,投射物の形状の撮影をカメラ100で行う例を示したが,カメラ100は基本的に指さし検出等によるユーザ3の操作を撮影するためのものであるので,ユーザ3の位置や,投射物の形状を撮影するための別のカメラを備えてもよい。
図3に示したように複数の映像を表示する場合には,複数の人の位置に対して同様の作業を行い,それぞれ表示する向きを決定するようにすればよい。図19と20に複数の表示映像を表示する場合の例を示す。いずれも複数の人とその位置を検出し,その位置から最も接近した机の縁の位置と形状から表示位置と表示方向を決定している。
このようにユーザ3に最も近い机の縁の形状から自動的に表示方向を決めることが可能となる。
これらの方法により決定された表示画面を,ユーザ3のジェスチャによる画面操作で動作させる場合の例を図21A〜図24Bに示す。各図に示された指先は,投射物204に接触しているものとする。例えば図21Aが操作前,図21Bが操作後の状態を示す。図22A〜図24Bも同様である。
図21A以下の図面の多くにおいては図1と同様に,投射型表示装置205が画像を光学的に投射できる最大の範囲210を破線で示している。前記したように,表示画面202と203はOSDのように最大投射範囲210の表示範囲内に表示される。即ち、表示画面202,203は投射可能範囲210における部分画像である。
図21Aと図21Bは平行移動の例である。図21Aで表示画面203に接触させた指を,向きを変えずに上下方向,左右方向,ななめ方向いずれかに移動させる。すると,図21Bのように表示画面のうち指が接触している表示画面のみが指の動きと同じだけ移動する。これによりユーザが望む位置に表示画面の一つを移動させることが可能になる。
図22Aと図22Bは回転移動の例である。図22Aで表示画面203に接触させた指を回転させる。すると,図22Bのように表示画面のうち指が接触している表示画面のみが指の動きに合わせて表示向きを回転させる。これによりユーザの所望の向きに表示画面の一つを回転させることが可能になる。
本実施例の構成では、指さし方向を検出することができる。よって、図22Bで示すように、接触点の位置自体は変化させずに、指の方向を回転させた場合でも表示画面の回転操作を実現できる。これは、タブレット端末等のタッチセンサでは実現が困難な回転操作であり、本実施例の構成によって初めて実現が可能となる。
また、表示画面の回転操作の際に、投射型表示装置205の光学的な投射可能範囲の形状と、回転対象となる表示画面の位置、形状の関係から、回転前の表示画面の大きさのまま回転することができない場合がある。この場合には、回転動作の最中に並行して表示画面の縮小処理を行えばよい。一方の方向に回転する際に表示画面の縮小処理が必要な場合、途中まで回転させて表示画面を縮小した後、逆方向に回転してもとの角度に戻す際には、拡大処理を行ってもとの大きさに戻してもよい。
図23Aと図23Bは表示画面数を増加させる操作の例である。図23Aで表示画面200の外側に接触させた指を,対辺の外側に向かって動かすことで表示画面を半分に切るような動きをする。すると,図23Bのように表示画面は半分に切られたところから細胞分裂のように、表示画面200で表示されていた内容と同じ内容を表示する画面を2つ作成する(表示画面202、203)。これによりユーザの所望するように表示画面数を増やすことが可能になる。
図24Aと図24Bは表示画面を拡大させる操作の例である。図24Aで表示画面202に接触させた2本の指を,長方形の向かい合う頂点上に置いたかのように位置させ,図24Bでその向かい合う頂点同士を結ぶ対角線を押し広げるように2本の指間の距離を広げる。すると,操作された表示画面202のみが押し広げた分だけ画面を拡大させる。逆方向に動かせば,画面を縮小してこれまで表示画面202の外に外れていた領域を表示させるような操作も可能である。これによりユーザの所望するように表示画面の拡大縮小が可能になる。
次に、複数の指を用いた表示画面操作の例を、図25Aから図28Bを用いて説明する。
図25Aと図25Bは、2本の指の操作により、表示画面203を回転させる例である。図25Aに示すように、2本の指の両方が、表示画面203内で机に接触している場合に、図25Bに示すように2本の指の接触点を結ぶ直線の傾きが変わるように2本の指が動いたことを検出すると、操作検出機能付投射型表示装置205は、当該傾きの変化に対応するように表示画面203の表示角度を変更する。これにより、表示画面の回転処理が可能となる。
これに対し、図26Aに示すように2本の指の両方が机に接している場合であっても、2本の指の接触点の両方がひとつの表示画面内にない場合(例えば、一方の指の接触点のみが表示画面203内にあり、他方の指の接触点は表示画面203外にある場合など)は、図26Bに示すように2本の指の接触点を結ぶ直線の傾きが変わるように2本の指が動いたとしても、表示画面203の表示角度の変更を行わないようにしてもよい。
カメラ100で検出された複数の指のうち、机に接触した時間差が所定の時間内である2本の指を、図25A〜図26Bで説明した処理で対象とする指の組み合わせとして、制御部110が判断しても良い。例えば、カメラ100で検出された複数の指のうち、机に接触した時間差が1秒以内である2本の指を制御部110が検出し、当該2本の指の組み合わせを図25A〜図26Bで説明した処理で対象とする指の組み合わせであると判断すればよい。
なお、上述のこれら2本の指の接触位置と、表示画面203の範囲についての判断処理で用いる、これら2本の指の接触位置はこれら2本の指が空中から机に接触した最初の位置を用いればよい。これらの指が机の上を接触しながら表示画面203の外から内に移動してきた場合などは、表示画面の回転処理を開始しなくてもよい。このように、回転処理を開始するか否かの判断を、2本の指が空中から机に接触した最初の位置のみで判断することにより、処理を簡素化することができ、制御部110の処理効率が向上するという効果がある。また、上述の判断処理によれば、複数の表示画面のうち、回転処理操作の対象となる表示画面を明確に特定することができる。
次に、図27Aと図27Bは、2本の指の操作により、表示画面202を拡大する例である。図27Aに示すように、2本の指の両方が、表示画面202内で机に接触している場合に、図27Bに示すように2本の指の接触点を結ぶ直線の距離が長くなるように2本の指が動いたことを検出すると、操作検出機能付投射型表示装置205は、当該長さの変化に対応するように表示画面202の表示サイズを変更する。これにより、表示画面の拡大処理が可能となる。なお、2本の指の接触点を結ぶ直線の距離が短くなる場合には、表示画面の縮小処理を行う。
これに対し、図28Aに示すように2本の指の両方が机に接している場合であっても、2本の指の接触点の片方がひとつの表示画面内にない場合(例えば、一方の指の接触点のみが表示画面202内にあり、他方の指の接触点は表示画面202外にある場合など)は、図28Bに示すように2本の指の接触点を結ぶ直線の長さが変わるように2本の指が動いたとしても、表示画面202のサイズの変更を行わないようにしてもよい。
図25A〜図26Bの例と同様に、カメラ100で検出された複数の指のうち、机に接触した時間差が所定の時間内である2本の指を、図27A〜図28Bで説明した処理で対象とする指の組み合わせとして、制御部110が判断しても良い。例えば、カメラ100で検出された複数の指のうち、机に接触した時間差が1秒以内である2本の指を制御部110が検出し、当該2本の指の組み合わせを図27A〜図28Bで説明した処理で対象とする2本の指の組み合わせであると判断すればよい。
なお、上述のこれら2本の指の接触位置と、表示画面202の範囲についての判断処理で用いる、これら2本の指の接触位置はこれら2本の指が空中から机に接触した最初の位置を用いればよい。これらの指が机の上を接触しながら表示画面202の外から内に移動してきた場合などは、表示画面のサイズ変更処理を開始しなくてもよい。このように、サイズ変更処理を開始するか否かの判断を、2本の指が空中から机に接触した最初の位置のみで判断することにより、処理を簡素化することができ、制御部110の処理効率が向上するという効果がある。また、上述の判断処理によれば、複数の表示画面のうち、サイズ変更処理操作の対象となる表示画面を明確に特定することができる。
以上図25Aから図28Bを用いて説明した、複数の指を用いた表示画面操作によれば、回転処理やサイズ変更処理の対象となる表示画面を明確に特定することができる。また、制御部の処理を効率化することが可能である。
以上説明したように,机上に設置可能な操作検出機能付投射型表示装置により,指さし検出等による操作を精度よく行うことができる。
次に、本発明の実施例2について説明する。
図2に示した操作検出機能付投射型表示装置には照明101,102が備えられ,異なる2方向からの照明光の影を検出する方法について実施例1で示した。この照明光として可視光を採用すると,指さし操作によって生じる影が表示画面上に映ってしまい,表示画面を見にくくする可能性がある。そこで,照明光としては赤外光などの可視外光の照明を用い,カメラ100には赤外カメラなど対応するカメラを用いるのが好ましい。
このように赤外光などの可視外光を用いる場合の注意点として,可視外光が目に見えないために,照明101,102の前に障害物を置くなどして照明光を遮る場合に,指さし検出等が行えず,さらにそれにユーザが気づかないという問題がある。
このような問題を回避するために,指さし検出を妨げるような状況をカメラ100が検出した場合に,ユーザに対して警告する機能を備えることで解決できる。
図29にこの機能を作動させる場合のフローチャートを示す。
S2001で上記のような状況が発生したとする。S2002でカメラ100がこの状況を撮影する。S2003で制御部110はカメラが撮像した画像から指さしの検出ができないと判断して,表示制御部111に通知する。
検知の基準としては,指等の予め設定された検出物以外のオブジェクトが長時間映っている,広範囲に渡って可視外光が遮られている,長時間不動のオブジェクトが映っている,などが例として挙げられる。
S2004で表示制御部111は「指さし検出異常。カメラおよび照明部と表示画面間に異物がないか確認ください。」などの警告の字幕を表示画面に挿入した映像を作成し,S2005で作成した映像を表示する。カメラ100が可視外光の遮断物が除去された状況を撮影するまで、この表示は継続される。
S2006で制御部110は可視外光の遮断物が除去されたか否かをカメラ100が撮影した画像から判定する。光の遮断物が除去されれば、S2007で制御部110は表示制御部111に指さしの検出機能が復帰したことを通知する。
S2008で表示制御部111は警告字幕を削除した通常の表示画面を作成して,S2009で通常の表示画面に戻る。以上が一連の動作の例である。
ここまでの説明では警告字幕を表示画面に挿入することにより,ユーザに指さし検出等を妨げるような可視外光の遮断という異常を通知する方法について説明したが,音声による警告や,予め備えた警告ランプの点灯など,他の手段による警告でもかまわない。
以上説明したように,指さし検出等を妨げるような状況を検出する機能を備え,ユーザに対して警告する機能を備えることで,ユーザの気づかないうちに指さし検出等の機能が中断することを防止することができる。
次に、本発明の実施例3について説明する。
本発明の実施例1で説明した投射型表示装置では、既に説明したとおり、鑑賞者のジェスチャ操作(指さし操作)により、様々な画面操作が可能となる。しかしながら、本実施例の投射型表示装置において入力可能な操作は、指タッチ検出型タブレットなどでは不可能な操作もあり、ユーザが不慣れな場合もある。そこで、本発明の実施例3にかかる投射型表示装置では、実施例1または実施例2の投射型表示装置の構成及び機能に加え、操作ガイド表示機能を搭載する。
図30に、本実施例における操作ガイド表示の一例を示す。図30では、投射型表示装置205が、机上に投影した表示画面3000に一つの表示コンテンツを表示している。表示コンテンツにおける上下左右の方向は図に示すとおりである。投射型表示装置205のガイド表示の一例は、図30に示すとおり、この表示コンテンツに対して、複数の操作ガイド表示3001、3002、3003をそれぞれ異なる角度で表示する。当該操作ガイド表示の一例は、いわゆるOSD(オンスクリーンディスプレイ)であり、投射型表示装置205内部の図示しない記憶部に記憶しているデータに基づいて、制御部110の制御により、表示制御部111が入力信号に重畳して表示する。
図30では、表示コンテンツの上下左右方向と同じ方向で表示する操作ガイド3001のみならず、異なる方向で表示する操作ガイド表示3002、3003を表示する。これにより、机の周りに立っているユーザのうち、表示コンテンツを正面から鑑賞している鑑賞者のみならず、表示コンテンツを正面以外の角度から鑑賞している鑑賞者にも操作の仕方を伝えることができる。
特に、図30に示すように、矩形の表示画面3000の辺A〜Dのうち、一つの辺A側に投射型表示装置205が設置されている状況では、当該辺A側にジェスチャ操作可能な鑑賞者が存在する可能性は低い。ここで、投射型表示装置205が設置されている辺A側以外の、他の3つの辺B、C、D側に鑑賞者がおり、そのうち一つの辺(例えば辺C)の位置から鑑賞しやすい方向に表示コンテンツが表示されている場合に、当該表示コンテンツの上下左右と同じ方向の操作ガイド3001だけを表示すると、残りの2辺(例えば辺B、D)側に存在する鑑賞者は、操作の仕方がわからず、わざわざ辺Cの位置まで移動せざるを得ない。
これに対し、本実施例の投射型表示装置205では、それぞれ異なる角度で複数の操作ガイド表示を表示可能であるので、図30に示すように、3つの辺B、C、Dのそれぞれの辺の方向が、複数の操作ガイド表示3001、3002、3003の左右方向に対応するように表示すればよい。このように表示すれば、例えば、投射型表示装置205が設置されている一つの辺Aの方向以外の、他の3つの辺B、C、D側に存在する鑑賞者のいずれもが、操作の仕方を理解しやすくなる。
なお、操作ガイド表示は、操作ジェスチャを図示した図でもよく、操作ジェスチャを図示した図とその説明テキストでもよく、操作ジェスチャを説明したテキストでもよく、操作ジェスチャを示すアニメーションでもよい。またはこれらの組み合わせでもよい。
また、操作ガイド表示のタイミングは、図示しないリモコンボタンの操作入力のタイミングで行ってもよい。または、表示画面の片隅にクエスチョンマークを小さく表示しておき、当該クエスチョンマークに対する鑑賞者の指タッチかジェスチャ操作を検出したタイミングで、図30に示すような操作ガイド表示を行ってもよい。
以上説明した本実施例の操作ガイド表示によれば、鑑賞者にとって使い勝手の良い操作ガイド表示が可能となる。
次に、本発明の実施例4について説明する。
本発明の実施例1で説明した投射型表示装置では、既に説明したとおり、ユーザのジェスチャ操作(指さし操作)により、様々な画面操作が可能となる。本実施例では、実施例1、2、3の投射型表示装置の構成及び機能に加え、以下に、表示映像についての詳細情報やメニュー画面表示機能を搭載する例を説明する。
図31A〜図31Dは、投射型表示装置205が机204上に一つの表示画面200を表示している場合に、表示映像の詳細情報やメニュー画面表示を行う際の動作を示す。
表示映像の詳細情報やメニュー画面表示を行う際に認識するジェスチャの例として、図31Aに示すような、指さし方向の異なる2本の指が接触している状態にあるジェスチャを用いてもよい。ここで、2つの接触点は完全に接触している必要は無く、設計上設定する所定の距離以下であることを条件としてもよい。また、表示映像の詳細情報やメニュー画面表示を行う際に認識するジェスチャの別の例として、図31Bに示すような、3本の指が表示面に接触している状態にあるジェスチャを用いてもよい。
なお、図31Aと図31Bに示したジェスチャは一例であり、他の操作と区別可能なジェスチャであれば、他のジェスチャであってもかまわない。
本実施例では、図31Aまたは図31Bに示したジェスチャを検出した場合に、投射型表示装置205の制御部110は、詳細情報表示操作と判別し、図31Cに示すように詳細情報3101を表示する。
また、別の例としては、図31Aまたは図31Bに示したジェスチャを検出した場合に、投射型表示装置205の制御部110は、メニュー画面表示操作と判別し、図31Dに示すようにメニュー画面3102を表示する。
また、別の例としては、図31Aまたは図31Bに示したジェスチャを検出した場合に、投射型表示装置205の制御部110は、詳細情報表示とメニュー画面表示を両方行う操作と判別し、図31Cに示す詳細情報3101の表示と図31Dに示すメニュー画面3102の表示をともに行っても良い。
なお、図31Cに示す詳細情報3101の表示と図31Dに示すメニュー画面3102の表示の位置は、表示画面200の中または近傍の所定の位置に表示すればよい。また、別の例としては、図31Aに示すジェスチャの指の接触点や図31Bに示したジェスチャを検出した位置(3本の指の中央の指の位置)に応じた位置に、詳細情報3101またはメニュー画面3102を表示してもよい。
なお、詳細情報3101の例としては、表示されている映像の性質(入力時の解像度、フレームレート、インターレース、プログレッシブ等)でもよく、入力映像にタイトル情報等の付帯情報が含まれている場合は、この情報でもよい。また、入力端子を複数有し、異なる入力ソースから映像を入力可能な投射型表示装置の場合は、これらの入力ソースを識別する情報でもよい。
なお、メニュー画面3102で示されるメニュー項目の例としては、メニューで用いる言語切り替えメニューや、表示映像の明るさ、コントラスト等の画質調整メニュー、台形補正処理メニューなどを表示してもよい。また、入力端子を複数有し、異なる入力ソースから映像を入力可能な投射型表示装置の場合は、入力ソースの切り替えを行うためのメニュー項目を表示してもよい。
次に、図32Aと図32Bを用いて、図23Aと図23Bで説明した表示画面数の増加操作を行った後に、表示画面ごとに個別詳細情報表示または個別メニュー画面表示を行う場合の例を説明する。
図32Aと図32Bは、図23Aと図23Bと同様の表示画面数の増加操作のジェスチャとその表示例であり、既に実施例1で説明済みであるので説明を省略する。図32Cは、表示画面数の増加操作により生成された複数の表示画面202、203のうち、表示画面202内に指の接触点が含まれる位置で図31Aに示したジェスチャが検出された例を示している。この場合、投射型表示装置205の制御部110は、図32Dに示すように、表示画面202近傍(または画面内でもよい。)に、表示画面202についての個別詳細情報表示または個別メニュー画面表示、またはこれらを組み合わせた表示を行う。
この場合、図32Dに示す個別メニュー画面は、表示画面202についての個別のメニュー項目を表示する。例えば、表示画面202の表示映像についての画質調整メニュー(表示画面203の表示映像についての画質調整を行うものではない)を表示しても良い。また、入力端子を複数有し、異なる入力ソースから映像を入力可能な投射型表示装置の場合は、表示画面202に表示される表示映像の入力ソースの切り替え(表示画面203の表示映像についての入力ソースの切り替えを行うものではない)を行うためのメニュー項目を表示してもよい。また、複数の表示画面の一つである表示画面202についてだけ、台形補正を行うことは不自然であるので、当該表示画面202についての個別メニュー表示では、台形補正のメニュー項目を表示しないか、表示しても操作できないような態様としてもよい。
同様に、図32Dに示す個別詳細情報は、表示画面202についての個別の詳細情報を表示する。表示画面202に示されている映像の性質、タイトル情報等、入力ソースを識別する情報等を表示すればよい。入力端子を複数有し、異なる入力ソースから映像を入力可能な投射型表示装置の場合は、図32Dに示す表示画面202についてのメニュー画面から入力ソースの切り替えを行うことが可能である。このとき、表示画面202と表示画面203で表示される映像の性質、タイトル情報、入力ソース等は異なることとなるので、それぞれの表示画面の詳細情報が個別に確認できることは鑑賞者にとって有益である。
なお、図32A〜図32Dでは、個別詳細情報表示または個別メニュー画面表示のためのジェスチャとして、図31Aのジェスチャの例を用いたが、図31Bのジェスチャを用いてもよい。
次に、図33A〜図33Dを用いて、図22A、図22B、図25A、図25Bで説明した表示画面の回転操作を行った後に、表示画面ごとの個別詳細情報表示または個別メニュー画面表示を行う場合の例を説明する。
図33Aと図33Bは、図22A及び図22Bと同様の表示画面の回転操作のジェスチャとその表示例であり、既に実施例1で説明済みであるので説明を省略する。図33Cは、複数の表示画面202、203のうち、一方の表示画面203が、表示画面の回転操作により回転された状態で、表示画面203内に指の接触点が含まれる位置で図31Bに示したジェスチャが検出された例を示している。この場合、投射型表示装置205の制御部110は、図33Dに示すように、表示画面203の近傍(または画面内でもよい。)に、表示画面203についての個別詳細情報表示または個別メニュー画面表示、またはこれらを組み合わせた表示を行い、この際、表示画面203の表示角度に対応する角度で、これらの個別詳細情報表示または個別メニュー画面表示を行う。表示画面203についての個別詳細情報表示または個別メニュー画面表示の内容については、図32A〜図32Dにおける表示画面202についての説明と同様であるので、再度の説明は省略する。
回転された表示画面については、当該表示画面を鑑賞しやすい位置にいる鑑賞者がジェスチャ操作して個別詳細情報表示または個別メニュー画面表示を表示する可能性が高い。よって、図33Dに示すように、個別詳細情報表示または個別メニュー画面表示を表示画面の角度に対応する角度で表示することにより、鑑賞者が鑑賞している画面を操作しやすくなるという利点がある。
なお、図33A〜図33Dでは、個別詳細情報表示または個別メニュー画面表示のためのジェスチャとして、図31Bのジェスチャの例を用いたが、図31Aのジェスチャを用いてもよい。
次に、図34A〜図34Dを用いて、複数の表示画面を表示している場合に、画面毎の個別メニューではなく、全表示画面を対象とする全体メニューを表示する例について説明する。図34A〜図34Dの例では、全体メニューを表示するためのジェスチャとして、図32A〜図32Dや図33A〜図33Dと同様に図31Aまたは図31Bと同様のジェスチャを用いるが、ジェスチャの検出位置が、図32A〜図32Dや図33A〜図33Dと異なる。例えば、図31Aのジェスチャの指の接触点が、複数の表示画面外で検出された場合に、全体メニュー表示開始のジェスチャと判別する。同様に、図31Bと同様のジェスチャにおける3本の指が複数の表示画面外で検出された場合に、全体メニュー表示開始のジェスチャと判別する。以下、図を用いて具体的に説明する。
図34Aの例では、投射型表示装置205が机204の上に、表示画面202および表示画面203を表示している。ここで、図31Aのジェスチャが検出されており、指の接触点が、表示画面202でも表示画面203でもない位置に検出されている。この場合、投射型表示装置205の制御部110は、表示制御部111を制御し、図34Bに示すように、全体メニュー3401を表示する。また、画面全体に関する詳細情報である全体詳細情報3402を表示しても良い。
ここで、全体メニュー3401のメニュー項目は、すべての表示画面の表示映像についての画質調整を同時に行う全体画質調整のメニューを表示してもよい。また、全体メニューで用いる言語を切り替えるための言語切り替えメニュー項目を表示してもよい。また、個別の画面での個別メニュー表示では使用できなかった台形補正のメニュー項目について、全体メニュー3401では使用できるようにしてもよい。
また、全体詳細情報3402の例としては、表示画面の数などでもよい。また、入力端子を複数有し、異なる入力ソースから映像を入力可能な投射型表示装置の場合は、複数の表示画面と入力ソースの一覧表を表示してもよい。
なお、図34Aの例では、図31Aのジェスチャに替えて図31Bのジェスチャを用いても良い。
次に、図34Cの例では、投射型表示装置205が机204の上に、表示画面202および表示画面203を表示しているが、表示画面203は回転処理により表示画面202と異なる角度で表示されている。ここで、図31Aのジェスチャが検出されており、指の接触点が、いずれも表示画面202でも表示画面203でもない位置に検出されている。この場合、投射型表示装置205の制御部110は、表示制御部111を制御し、図34Dに示すように、全体メニュー3401を表示する。また図34Dの表示例のように、このとき、複数の表示画面のそれぞれについて個別詳細情報3403、3404を表示してもよい。
ここで、図33Dの例では、個別詳細情報を表示する際には、個別の表示画面の表示角度に対応する角度で表示していた。これに対し、図34Dのように、全体メニュー3401を表示している場合は、全体メニュー3401の操作者が見やすいように、個別の表示画面203の表示角度とは関係なく、全体メニュー3401の表示角度と同じ角度で表示したほうが好適である。
以上の説明において、図34Bの例では全体メニュー表示とともに全体詳細表示を行い、図34Dの例では全体メニュー表示とともに個別詳細情報表示を行っているが、これはいずれの表示であってもよい。また、全体メニューだけ表示してもよい。さらに、全体メニュー表示と全体詳細表示と個別詳細情報表示をすべて表示してもよい。
なお、本実施例で説明したメニュー画面(個別メニュー画面、全体メニュー画面)においては、各実施例で説明した各ジェスチャ認識機能のON/OFFを設定するメニュー項目を設けても良い。例えば、すべてのジェスチャ認識機能をOFFにしてもよい。この場合は、リモコンや本体のボタン操作に応じた操作信号に基づいて投射型表示装置205が操作される。また、図21Aに示す一本指移動ジェスチャの認識処理や図21Bに示す一本指回転ジェスチャの認識処理などを個別にOFFできるようにしてもよい。差し棒などで説明する際に誤認識する可能性がある場合などに有効である。
また、回転動作について、図21Bに示す一本指回転ジェスチャと図25Aと図25Bに示す2本指回転ジェスチャのどちらを認識するかを選択するメニュー項目を表示してもよい。このように、場合によっては、投射型表示装置205が認識するジェスチャ毎に個別にON/OFFを設定することにメリットがある場合がある。このような場合には、例えば、図21A以降で説明したすべてのジェスチャについて、メニュー画面からそれぞれON/OFFを設定可能なように構成すればよい。個別メニュー画面の場合は、対応する表示画面についてのみ、これらのジェスチャのON/OFF設定を適用すればよい。
以上説明した本実施例の詳細情報表示やメニュー表示によれば、鑑賞者にとって使い勝手の良い詳細情報表示やメニュー表示が可能となる。
100:カメラ、101,102:照明、104:影領域抽出部、105:特徴点検出部、106:接近度検出部、107:接触点検出部、108:輪郭検出部、109:方向検出部、110:制御部、111:表示制御部、112:駆動回路部、113:入力端子、114:入力信号処理部、115:投射部、201:投射型表示装置、202,203:表示画面、204:投射物、205:操作検出機能付投射型表示装置、3:ユーザ、30,31,32:指、401,402,403,404,405:影、501,502:輪郭線、601,602:特徴点:700,701,702,703:指さし方向、800:ポインタ、P:接触点。

Claims (11)

  1. 映像を投射する映像投射部と、
    前記映像投射部が投射する映像投射面と少なくとも一部が重なる面に、前記映像投射部により投射される前記映像とは異なる照明光を照射する少なくとも1つの照明部と、
    前記照明光の反射光により撮像を行う撮像部と、
    前記撮像部が撮像した画像に基づいて操作者の指が前記映像投射面に接する少なくとも位置を検出する検出部と、
    前記検出部による検出結果に基づいて前記映像投射部が投射する映像に含まれる少なくとも一つの部分映像表示領域を変更するよう制御する表示制御部を有し、
    前記検出部が、前記操作者の指が前記映像投射面に接しながら部分映像表示領域を横断したことを検出した場合には、
    前記表示制御部は、前記部分映像表示領域を前記指の横断動作に基づいて分割して、新たに複数の部分映像表示領域を生成し、
    前記検出部が、前記操作者の指の前記映像投射面に接する位置が、前記新たな複数の部分映像表示領域のうち少なくとも一つの部分映像表示領域内を起点として移動したことを検出した場合には、
    前記表示制御部は、前記一つの部分映像表示領域を前記指の移動に基づいて移動することを特徴とする投射型映像表示装置。
  2. 請求項1に記載の投射型映像表示装置であって、
    前記映像投射部が映像を投射する映像投射面と少なくとも一部が重なる面に、前記投射映像とは異なる照明光を互いに異なる位置から照射する2つの照明部を有することを特徴とする投射型映像表示装置。
  3. 請求項1または請求項2に記載の投射型映像表示装置であって、
    前記映像投射面と同じ面上に設置された状態で前記映像投射面に映像を投射可能であることを特徴とする投射型映像表示装置。
  4. 映像を投射する映像投射部と、
    前記映像投射部が投射する映像投射面と少なくとも一部が重なる面に、前記映像投射部により投射される前記映像とは異なる照明光を照射する少なくとも1つの照明部と、
    前記照明光の反射光により撮像を行う撮像部と、
    前記撮像部が撮像した画像に基づいて操作者の指が前記映像投射面に接する少なくとも位置を検出する検出部と、
    前記検出部による検出結果に基づいて前記映像投射部が投射する映像に含まれる少なくとも一つの部分映像表示領域を変更するよう制御する表示制御部を有し、
    前記検出部が、前記操作者の指が前記映像投射面に接しながら部分映像表示領域を横断したことを検出した場合には、
    前記表示制御部は、前記部分映像表示領域を前記指の横断動作に基づいて分割して、新たに複数の部分映像表示領域を生成し、
    前記検出部が、前記新たな複数の部分映像表示領域のうち少なくとも一つの部分映像表示領域内において前記操作者の指が前記映像投射面に接しており、前記映像投射面に接する前記操作者の指の方向が回転したことを検出した場合には、
    前記表示制御部は、前記一つの部分映像表示領域を前記指の回転動作に基づいて回転することを特徴とする投射型映像表示装置。
  5. 請求項4に記載の投射型映像表示装置であって、
    前記映像投射部が映像を投射する映像投射面と少なくとも一部が重なる面に、前記投射映像とは異なる照明光を互いに異なる位置から照射する2つの照明部を有することを特徴とする投射型映像表示装置。
  6. 請求項4または請求項5に記載の投射型映像表示装置であって、
    前記映像投射面と同じ面上に設置された状態で前記映像投射面に映像を投射可能であることを特徴とする投射型映像表示装置。
  7. 映像を投射する映像投射部と、
    前記映像投射部が投射する映像投射面と少なくとも一部が重なる面に、前記映像投射部により投射される前記映像とは異なる照明光を照射する少なくとも1つの照明部と、
    前記照明光の反射光により撮像を行う撮像部と、
    前記撮像部が撮像した画像に基づいて操作者の指が前記映像投射面に接する少なくとも位置を検出する検出部と、
    前記検出部による検出結果に基づいて前記映像投射部が投射する映像に含まれる少なくとも一つの部分映像表示領域を変更するよう制御する表示制御部を有し、
    前記検出部が、前記操作者の指が前記映像投射面に接しながら部分映像表示領域を横断したことを検出した場合には、
    前記表示制御部は、前記部分映像表示領域を前記指の横断動作に基づいて分割して、新たに複数の部分映像表示領域を生成し、
    前記検出部が、前記新たな複数の部分映像表示領域のうち少なくとも一つの部分映像表示領域内において前記操作者の二本の指の前記映像投射面に接する位置間隔が拡大または縮小したことを検出した場合には、
    前記表示制御部は、前記二本の指の位置間隔の拡大または縮小に基づいて前記一つの部分映像表示領域を拡大または縮小する
    ことを特徴とする投射型映像表示装置。
  8. 請求項7に記載の投射型映像表示装置であって、
    前記映像投射部が映像を投射する映像投射面と少なくとも一部が重なる面に、前記投射映像とは異なる照明光を互いに異なる位置から照射する2つの照明部を有することを特徴とする投射型映像表示装置。
  9. 請求項7または請求項8に記載の投射型映像表示装置であって、
    前記映像投射面と同じ面上に設置された状態で前記映像投射面に映像を投射可能であることを特徴とする投射型映像表示装置。
  10. 映像を投射する映像投射部と、
    前記映像投射部が投射する映像投射面と少なくとも一部が重なる面に、前記映像投射部により投射される前記投射映像とは異なる照明光を互いに異なる位置から照射する2つの照明部と、
    前記照明光の反射光により撮像を行う撮像部と、
    前記撮像部が撮像した画像に基づいて操作者の指が前記映像投射面に接する少なくとも位置を検出する検出部と、
    前記検出部による検出結果に基づいて前記映像投射部が投射する映像に含まれる少なくとも一つの部分映像表示領域を変更するよう制御する表示制御部を有し、
    前記検出部が、前記操作者の指が前記映像投射面に接しながら部分映像表示領域を横断したことを検出した場合には、
    前記表示制御部は、前記部分映像表示領域を前記指の横断動作に基づいて分割することを特徴とする投射型映像表示装置。
  11. 映像を投射する映像投射部と、
    前記映像投射部が投射する映像投射面と少なくとも一部が重なる面に、前記映像投射部により投射される前記映像とは異なる照明光を照射する少なくとも1つの照明部と、
    前記照明光の反射光により撮像を行う撮像部と、
    前記撮像部が撮像した画像に基づいて操作者の指が前記映像投射面に接する少なくとも位置を検出する検出部と、
    前記検出部による検出結果に基づいて前記映像投射部が投射する映像に含まれる少なくとも一つの部分映像表示領域を変更するよう制御する表示制御部を有し、
    前記検出部が、前記操作者の指が前記映像投射面に接しながら部分映像表示領域を横断したことを検出した場合には、
    前記表示制御部は、前記部分映像表示領域を前記指の横断動作に基づいて分割するものであり、
    前記投射型映像表示装置は、前記映像投射面と同じ面上に設置された状態で前記映像投射面に映像を投射可能であることを特徴とする投射型映像表示装置。
JP2016138450A 2016-07-13 2016-07-13 投射型映像表示装置 Active JP6314177B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138450A JP6314177B2 (ja) 2016-07-13 2016-07-13 投射型映像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138450A JP6314177B2 (ja) 2016-07-13 2016-07-13 投射型映像表示装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015548896A Division JP5973087B2 (ja) 2013-11-19 2013-11-19 投射型映像表示装置

Publications (2)

Publication Number Publication Date
JP2016186656A true JP2016186656A (ja) 2016-10-27
JP6314177B2 JP6314177B2 (ja) 2018-04-18

Family

ID=57203547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138450A Active JP6314177B2 (ja) 2016-07-13 2016-07-13 投射型映像表示装置

Country Status (1)

Country Link
JP (1) JP6314177B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021040179A (ja) * 2019-08-30 2021-03-11 富士フイルム株式会社 投影装置及び方法
CN114697622A (zh) * 2020-12-28 2022-07-01 技嘉科技股份有限公司 显示装置及投影式屏幕上显示界面的控制方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257220A (ja) * 2006-03-22 2007-10-04 Matsushita Electric Ind Co Ltd 表示装置
JP2009070245A (ja) * 2007-09-14 2009-04-02 Ricoh Co Ltd 画像投影表示装置、画像投影表示方法、画像投影表示プログラム及び記録媒体
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法
JP2010243576A (ja) * 2009-04-01 2010-10-28 Funai Electric Co Ltd 画像表示装置および画像表示システム
WO2011013400A1 (ja) * 2009-07-30 2011-02-03 シャープ株式会社 携帯型表示装置およびその制御方法、プログラム、記録媒体
JP2011028402A (ja) * 2009-07-22 2011-02-10 Newcom Inc 光学式位置検出装置
JP2011043876A (ja) * 2009-08-19 2011-03-03 Brother Industries Ltd 画像表示装置
JP2012068690A (ja) * 2010-09-21 2012-04-05 Univ Of Tsukuba 手指ジェスチャ検出装置
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
JP2012238293A (ja) * 2011-04-28 2012-12-06 Nextedge Technology Inc 入力装置
WO2013051052A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 情報表示装置、情報表示方法及び情報表示プログラム
JP2013148802A (ja) * 2012-01-23 2013-08-01 Nikon Corp プロジェクタ
JP2014132427A (ja) * 2013-01-07 2014-07-17 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257220A (ja) * 2006-03-22 2007-10-04 Matsushita Electric Ind Co Ltd 表示装置
JP2009070245A (ja) * 2007-09-14 2009-04-02 Ricoh Co Ltd 画像投影表示装置、画像投影表示方法、画像投影表示プログラム及び記録媒体
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法
JP2010243576A (ja) * 2009-04-01 2010-10-28 Funai Electric Co Ltd 画像表示装置および画像表示システム
JP2011028402A (ja) * 2009-07-22 2011-02-10 Newcom Inc 光学式位置検出装置
WO2011013400A1 (ja) * 2009-07-30 2011-02-03 シャープ株式会社 携帯型表示装置およびその制御方法、プログラム、記録媒体
JP2011043876A (ja) * 2009-08-19 2011-03-03 Brother Industries Ltd 画像表示装置
JP2012068690A (ja) * 2010-09-21 2012-04-05 Univ Of Tsukuba 手指ジェスチャ検出装置
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
JP2012238293A (ja) * 2011-04-28 2012-12-06 Nextedge Technology Inc 入力装置
WO2013051052A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 情報表示装置、情報表示方法及び情報表示プログラム
JP2013148802A (ja) * 2012-01-23 2013-08-01 Nikon Corp プロジェクタ
JP2014132427A (ja) * 2013-01-07 2014-07-17 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021040179A (ja) * 2019-08-30 2021-03-11 富士フイルム株式会社 投影装置及び方法
JP7236355B2 (ja) 2019-08-30 2023-03-09 富士フイルム株式会社 投影装置及び方法
JP7427822B2 (ja) 2019-08-30 2024-02-05 富士フイルム株式会社 投影装置及び方法
CN114697622A (zh) * 2020-12-28 2022-07-01 技嘉科技股份有限公司 显示装置及投影式屏幕上显示界面的控制方法

Also Published As

Publication number Publication date
JP6314177B2 (ja) 2018-04-18

Similar Documents

Publication Publication Date Title
JP5973087B2 (ja) 投射型映像表示装置
JP6791994B2 (ja) 表示装置
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
US6512507B1 (en) Pointing position detection device, presentation system, and method, and computer-readable medium
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US20140218300A1 (en) Projection device
US10276133B2 (en) Projector and display control method for displaying split images
JP2012185630A (ja) 投影装置
JP5817149B2 (ja) 投影装置
JP3821194B2 (ja) ポインティング位置検出装置及び方法、プレゼンテーションシステム、情報記憶媒体
JP6314177B2 (ja) 投射型映像表示装置
JPH11345087A (ja) プレゼンテ―ションシステム及び位置検出方法
JP2022160533A (ja) 表示装置
JP6117470B2 (ja) 表示装置、プロジェクター、画像表示方法及び表示システム
JP6280005B2 (ja) 情報処理装置、画像投影装置および情報処理方法
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP2015094828A (ja) 画像投影方法、情報入力装置及びプログラム
JP2012181721A (ja) 位置入力装置、プロジェクター、プロジェクターの制御方法、及び、表示システム
JPH11345086A (ja) ポインティング位置検出装置及び方法、カ―ソル位置制御方法、プレゼンテ―ションシステム、情報記憶媒体
TWI543046B (zh) 光學觸控系統
JP2012053603A (ja) 情報表示システム
JP2013134549A (ja) データ入力装置およびデータ入力方法
JP2017062813A (ja) 映像表示装置及びプロジェクタ
JP2017009664A (ja) 画像投写装置、及び対話型入出力システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170921

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6314177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250