JP2014138257A - 画像投影装置、画像投影システム、制御方法およびプログラム - Google Patents

画像投影装置、画像投影システム、制御方法およびプログラム Download PDF

Info

Publication number
JP2014138257A
JP2014138257A JP2013005592A JP2013005592A JP2014138257A JP 2014138257 A JP2014138257 A JP 2014138257A JP 2013005592 A JP2013005592 A JP 2013005592A JP 2013005592 A JP2013005592 A JP 2013005592A JP 2014138257 A JP2014138257 A JP 2014138257A
Authority
JP
Japan
Prior art keywords
image
projection
unit
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013005592A
Other languages
English (en)
Other versions
JP6167529B2 (ja
Inventor
和寛 ▲高▼澤
Kazuhiro Takazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013005592A priority Critical patent/JP6167529B2/ja
Priority to US14/133,853 priority patent/US9400562B2/en
Priority to CN201410016345.6A priority patent/CN103929603B/zh
Publication of JP2014138257A publication Critical patent/JP2014138257A/ja
Application granted granted Critical
Publication of JP6167529B2 publication Critical patent/JP6167529B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract


【課題】投影映像の視認性を確保するとともに直感的で分かり易い操作を提供可能な画像投影装置、画像投影システム、制御方法およびプログラムを提供する。
【解決手段】本発明に係る画像投影装置は、検知部と認識部と出力部とを備える。検知部は、画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する。認識部は、検知部による検知対象の検知に基づいて、ユーザによる指示動作を認識する。出力部は、前記対象空間内において前記認識部により認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う。
【選択図】図3

Description

本発明は、画像投影装置、画像投影システム、制御方法およびプログラムに関する。
従来、プロジェクタが投影した映像(画像)に対して、タッチパネルのような感覚で直接映像に触れることや、プロジェクタに対して何らかのジェスチャ(手を動かすなどの動作)を行うことにより、プロジェクタやその他プロジェクタに接続された機器をより直感的に操作する技術が知られている。
例えば特許文献1には、操作者がより直感的に操作できるようにする目的で、プロジェクタの投影面(画像が投影される面)をカメラで撮影して、ユーザの動作を検知し、投影面をタッチパネルのように利用するための構成が開示されている。
また、例えば特許文献2には、投影面に対して操作者の影を映りこませないようにする目的で、投影方向とは異なる向きにジェスチャを認識するための装置を取り付け、ジェスチャを認識する構成が開示されている。
しかしながら、特許文献1に開示された技術では、投影面に触れて操作する場合に、プロジェクタが投影面の手前にあると、操作者の影が投影面に映り込んでしまい、映像の視認性が低下するという問題がある。
一方、特許文献2に開示された技術では、操作者の影が投影面に映り込んでしまうことはないものの、操作者は、投影方向とは異なる方向に向かって操作をすることになるので、自身の操作と投影面との対応が分かりづらく、操作性が低下してしまうという問題がある。
本発明は、上記に鑑みてなされたものであって、投影映像の視認性を確保するとともに直感的で分かり易い操作を提供可能な画像投影装置、画像投影システム、制御方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、投影対象物に画像を投影する画像投影装置であって、前記画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知部と、前記検知部による検知対象の検知に基づいて、ユーザによる指示動作を認識する認識部と、前記対象空間内において前記認識部により認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力部と、を備えることを特徴とする画像投影装置である。
また、本発明は、投影対象物に画像を投影する画像投影装置と、前記画像投影装置と接続される情報処理装置とを備える画像投影システムであって、前記情報処理装置は、前記画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知部と、前記検知部による検知対象の検知に基づいて、ユーザによる指示動作を認識する認識部と、前記対象空間内において前記認識部により認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力部と、を備えることを特徴とする画像投影システムである。
また、本発明は、画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知ステップと、前記検知ステップによる検知対象の検知に基づいて、ユーザによる指示動作を認識する認識ステップと、前記対象空間内において前記認識ステップにより認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力ステップと、を含むことを特徴とする制御方法である。
さらに、本発明は、コンピュータに、画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知ステップと、前記検知ステップによる検知対象の検知に基づいて、ユーザによる指示動作を認識する認識ステップと、前記対象空間内において前記認識ステップにより認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力ステップと、を実行させるためのプログラムである。
本発明によれば、投影映像の視認性を確保するとともに直感的で分かり易い操作を提供できるという有利な効果を奏する。
図1は、全体の概観を説明するための模式図である。 図2は、全体外観を側面から見た場合の模式図である。 図3は、実施形態に係るプロジェクタの構成例を示すブロック図である。 図4は、プロジェクタを上方から俯瞰した模式図である。 図5は、撮像センサーで撮像した画像を模式的に示す図である。 図6は、投影領域のサイズの算出方法を説明するための図である。 図7は、起動してから指示領域を決定するまでのプロジェクタ1の動作例を示すフローチャートである。 図8は、第1モードの場合の画像投影装置の動作例を示すフローチャートである。 図9は、指示領域内に検知対象が存在するか否かを判断する方法を説明するための図である。 図10は、第2モードの場合の画像投影装置の動作例を示すフローチャートである。 図11は、UI画像の生成例を説明するための図である。 図12は、UI画像の生成例を説明するための図である。 図13は、UI画像の生成例を説明するための図である。 図14は、ドラッグ操作を表すUI画像の別の生成例を説明するための図である。 図15は、実施形態に係るプロジェクタが、ユーザによる指示動作に応じてUI画像を生成してユーザに提示するときの動作例を示すフローチャートである。 図16は、実施形態に係るプロジェクタのハードウェア構成例を示す図である。 図17は、変形例に係る画像投影システムの構成例を示す図である。
以下、添付図面を参照しながら、本発明に係る画像投影装置、画像投影システム、制御方法およびプログラムの実施の形態を詳細に説明する。以下では、本発明が適用される画像投影装置として、超短焦点プロジェクタを例に挙げて説明するが、これに限られるものではなく、例えば本発明が適用される画像投影装置として、短焦点プロジェクタや長焦点プロジェクタが採用されてもよい。
ここで、焦点とは、投写面から光学位置までの距離(例えば、投影光が出射される投影口から、画像が投影される投影対象物までの距離)を指す投写距離と同義である。超短焦点プロジェクタの投写距離は短焦点プロジェクタの投写距離よりも短く、短焦点プロジェクタの投写距離は長焦点プロジェクタの投写距離よりも短い。例えば超焦点距離の投写距離を「11.7〜24.9cm」、短焦点プロジェクタの投写距離を「0.7〜14.6m」、長焦点プロジェクタの投写距離を「1.3m〜32.4m」として設定することもできる。
図1は、全体の概観を説明するための模式図である。図2は、全体外観を側方から見た場合の模式図である。図1および図2に示すように、本実施形態に係るプロジェクタ1は、画像が投影される投影対象物(この例では壁面)2に近接して配置される。プロジェクタ1の上部には、撮像センサー100と、投影光を出射する投影口5とが異なる位置に設けられている。撮像センサー100は、プロジェクタ1によって投影された画像に対応する空間を示す対象空間を撮像する装置である。この例では、対象空間は、プロジェクタ1の上方の空間であって、投影対象物2のうち画像が投影される領域を示す投影領域3の上端を少なくとも含む空間である。本実施形態では、撮像センサー100は、カメラで構成されているが、これに限らず、例えば撮像センサー100は、赤外線カメラ、ステレオカメラ等の機器を用いることができる。要するに、撮像センサー100は、上述の対象空間を撮像可能で、対象空間のうちユーザによる指示動作が行われる指示領域4内の物体の距離を計測可能な装置であればよい。
後述するように、本実施形態では、対象空間のうち、プロジェクタ1から出射される投影光に干渉せず、かつ、投影領域3と対向する領域を、出力させたい内容に応じた指示動作を行うことが可能な指示領域4として決定する。指示領域4のうち投影領域3と向かい合う面のサイズは、投影領域3と等しいサイズであってもよいし、投影領域3のサイズと一致していなくてもよい。例えば表示するコンテンツによって、指示領域4のサイズが可変に設定されてもよい。
図3は、本実施形態に係るプロジェクタ1の構成例を示すブロック図である。図3に示すように、プロジェクタ1は、撮像センサー100と、制御ユニット200と、画像投影部300とを備える。
制御ユニット200は、検知部201と、認識部202と、第1算出部203と、第2算出部204と、決定部205と、判断部206と、機器設定部207と、操作出力部208と、UI生成部209と、映像入力部210と、合成部211と、を備える。検知部201、認識部202、第1算出部203、第2算出部204、決定部205、判断部206、機器設定部207、操作出力部208、UI生成部209、映像入力部210、および、合成部211の各々は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。
検知部201は、前述の対象空間に存在する検知対象(例えばユーザの手など)を検知する。本実施形態では、検知部201は、撮像センサー100の撮像により得られた画像データを取得し、取得した画像データに基づいて、検知対象を検知する。
認識部202は、検知部201による検知対象の検知に基づいて、ユーザによる指示動作(例えば手を動かすなどの動作)を認識する。例えば手を動かすなどの動作を認識する方法としては、公知の様々な技術を利用することができる。そして、認識部202は、認識した指示動作に関する情報(指示動作情報)を、後述の判断部206へ送る。指示動作情報には、検知対象の3次元空間上の座標などが含まれていてもよい。
第1算出部203は、撮像センサー100による撮像で得られた画像データに基づいて、プロジェクタ1と、投影対象物2との間の距離を算出する。以下、第1算出部203による距離の算出方法について説明する。図4は、プロジェクタ1を上方から俯瞰した模式図である。図4の例では、投影口5がプロジェクタ1の右側、撮像センサー100がプロジェクタ1の左側に配置されている。また、図5は、撮像センサー(この例ではカメラ)100の撮像により得られた画像データを模式的に示す図である。本実施形態では、プロジェクタ1の上部において、投影口5と撮像センサー100が水平方向に離れて配置されているので、例えばプロジェクタ1が投影対象物2から離れると、図5に示すように、画像データ内の投影領域は、カメラの見かけ上、左方向にシフトする。この移動量(シフト量)から、プロジェクタ1と投影対象物2との距離を計算することができる。見方を変えれば、第1算出部203は、撮像センサー100による撮像で得られた画像データ内の投影領域の位置に応じて、プロジェクタ1と、投影対象物2との間の距離を算出していると捉えることもできる。
図3に戻って説明を続ける。第2算出部204は、第1算出部203により算出された距離に基づいて、投影領域のサイズを算出する。以下、第2算出部204による投影領域のサイズの算出方法について説明する。図6は、投影領域のサイズの算出方法を説明するための図である。図6は、プロジェクタ1を側方から見た場合の模式図である。図6からも理解されるように、投影領域の高さhは、以下の式1で表すことができる。
h=D×(a2×a1)+b2×b1 ・・・(式1)
上記式1において、Dは、プロジェクタ1と投影対象物2との間の距離を表す。また、a2は、投影領域の上端へ入射する投影光の傾きを表し、a1は、投影領域の下端へ入射する投影光の傾きを表す。さらに、b1は、プロジェクタ1の投影対象物2側の端面から投影対象物2と平行に上方に延びる直線Kのうち、投影口5から投影領域の下端へ入射する投影光を表す直線との交点に相当する切片を表す。また、b2は、図6に示す直線Kのうち、投影口5から投影領域の上端へ入射する投影光を表す直線との交点に相当する切片を表す。上記a1、a2、b1およびb2の各々の値は、プロジェクタ1に採用されるミラー6の特性等に応じて予め決められている。
また、投影領域の幅は、画面のアスペクト比から計算することができる。以上のようにして、第2算出部204は、投影領域の高さと幅を算出し、投影領域のサイズ(=高さ×幅)を算出することができる。
再び図3に戻って説明を続ける。決定部205は、対象空間のうち、プロジェクタ1の投影光に干渉せず、かつ、投影領域と対向する領域を、出力させたい内容に応じた指示動作を行うことが可能な指示領域として決定する。本実施形態では、図1および図2に示すように、決定部205は、プロジェクタ1の上方の、投影光に干渉しないで投影領域3と対向する、投影対象物2の法線方向の一定範囲を占める直方体形状の領域を、指示領域4として決定するが、指示領域4の形状はこれに限られるものではなく、任意に変更可能である。なお、指示領域のおよその位置をユーザに把握させるために、例えばプロジェクタ1の上面や床面などに目印(指示領域のおよその位置を知らせることができる情報であればよい)を付けておくことも可能である。
判断部206は、認識部202からの指示動作情報を元に、認識部202により認識された指示動作が、決定部205により決定された指示領域内で行われたか否かを判断する。判断部206による判断に関する情報(例えば指示動作情報などが含まれてもよい)は、機器設定部207または操作出力部208へ送信される。
ここで、本実施形態のプロジェクタ1は、動作モードとして、第1モードと第2モードを有する。第1モードにおいては、判断部206により、指示領域内で指示動作が行われたと判断された場合、指示動作に応じてUI画像を生成してユーザに提示するとともに、指示動作に応じて機器(プロジェクタ1)の設定(例えば画面の明るさの設定等)を行う。また、第2モードにおいては、判断部206により、指示領域内で指示動作が行われたと判断された場合、認識された指示動作による操作を示す情報を、外部装置(例えばプロジェクタ1と接続されるPCやサーバ装置等)に送信する。そして、外部装置が、プロジェクタ1から受信した情報に応じた処理を実行することになる。この例では、モードの切り替え(第1モード→第2モード、あるいは、第2モード→第1モード)は、権限を有する管理者の設定操作により行われるが、これに限られるものではない。例えば、特に権限を有さないユーザの入力に応じて、モードを切り替える機能がプロジェクタ1に搭載されていてもよい。
図3に示す機器設定部207は、第1モードにおいて、判断部206により、指示領域領域内で指示動作が行われたと判断された場合、その情報(判断部206からの情報)を元に、認識された指示動作に応じてUI画像を生成してユーザに提示する制御を行う。また、機器設定部207は、認識された指示動作による操作(例えばボタンのUI画像を押す操作など)に応じて、実際の機器の設定を行う。
操作出力部208は、第2モードにおいて、判断部206により、指示領域内で指示動作が行われたと判断された場合、その情報を元に、認識された指示動作による操作を示す情報を外部機器に出力(送信)する。また、操作出力部208は、指示動作を適切に認識したということを直ちにユーザに知らせるために、認識された指示動作に応じてUI画像を生成してユーザに提示する制御を行うこともできる。例えば第2モードにおいて、ユーザが、指示領域内で手(指)を右方向に動かすという指示動作を行った場合、操作出力部208は、その指示動作による操作を示す情報を外部装置へ出力するとともに、その指示動作の内容を表すUI画像(動きを表す画像でもよいし、テキスト画像でもよい)を生成してユーザに提示する制御を行うこともできる。
UI生成部209は、機器設定部207または操作出力部208の制御の下、指示領域内の指示動作に応じてユーザに提示するUI画像を生成する。この例では、UI生成部209は、請求項の「生成部」に対応していると捉えることもできる。また、例えば機器設定部207または操作出力部208と、UI生成部209との組が、請求項の「生成部」に対応していると捉えることもできる。映像入力部210は、外部からの入力映像を取得する。合成部211は、映像入力部210により取得された入力映像と、UI生成部209により生成されたUI画像とを合成し、その合成した画像を、画像投影部300へ供給する。そして、画像投影部300は、合成部211から供給される画像を投影対象物2に投影する。
ここでは、プロジェクタ1は、前述の対象空間(より具体的には指示領域)内において認識部202により認識された指示動作と、プロジェクタ1によって投影された画像とに基づいて、その指示動作に応じた出力を行う出力部を備えていると捉えることができる。この例では、機器設定部207、操作出力部208、UI生成部209、映像入力部210、合成部211および画像投影部300が、請求項の「出力部」に対応していると捉えることができる。なお、これに限らず、例えば操作出力部208が設けられない(第2モードが設けられない)形態においては、機器設定部207、UI生成部209、映像入力部210、合成部211および画像投影部300が、請求項の「出力部」に対応していると捉えることもできる。
次に、起動してから指示領域を決定するまでのプロジェクタ1の動作例を説明する。図7は、起動してから指示領域を決定するまでのプロジェクタ1の動作例を示すフローチャートである。図7に示すように、まず、第1算出部203は、検知部201により取得された画像データに基づいて、プロジェクタ1と、投影対象物2との間の距離を算出する(ステップS1)。次に、第2算出部204は、ステップS1で算出された距離に基づいて、投影領域のサイズを算出する(ステップS2)。次に、決定部205は、ステップS2で算出された投影領域のサイズに基づいて、指示領域のサイズを決定した上で(ステップS3)、指示領域を決定する。そして、認識部202は、電源がOFFされるか、ジェスチャ機能をOFFされるまで、指示動作認識待機状態で待機する(ステップS4)。なお、前述したように、投影領域のサイズは、プロジェクタ1と投影対象物2との間の距離に応じて変化するので、指示領域も、プロジェクタ1と投影対象物2との間の距離に応じて変化する。例えばプロジェクタ1の移動を検知するセンサーがプロジェクタ1に搭載されている構成においては、当該センサーによりプロジェクタ1の移動が検知された場合は、上記ステップS1〜ステップS3の処理をやり直してもよい。
次に、指示動作認識待機状態に移行した後のプロジェクタ1の動作例を、第1モードと第2モードに分けて説明する。図8は、第1モードの場合の動作例を示すフローチャートである。図8に示すように、まず認識部202が、ユーザによる指示動作を認識した場合(ステップS10:YES)、判断部206は、認識部202からの指示動作情報を元に、検知対象(例えばユーザの手など)の座標が、決定部205により決定された指示領域内に存在するか否かを判断する(ステップS11)。見方を変えれば、判断部206は、指示領域内において、認識部202により認識された指示動作が行われたか否かを判断していると捉えることもできる。なお、本実施形態では、指示動作認識待機状態において、カメラにより撮像された画像データに検知対象が写り込んでいて、検知部201により検知対象が検知された場合、認識部202は、ユーザによる指示動作の認識を行い、認識した指示動作を示す指示動作情報を判断部206へ送る。前述したように、指示動作情報には、検知対象の3次元空間上の座標などが含まれていてもよい。
図9は、指示領域内に検知対象が存在するか否かを判断する方法を説明するための図である。カメラ(撮像センサー100)で計測できるのは、カメラの垂直上方における検知対象の位置(角度)と、検知対象までの距離である。この二つが分かれば、第2算出部204により算出された投影領域の位置と、決定部205により決定された指示領域の奥行き(投影対象物2の法線方向の寸法)から、検知対象が、指示領域内に存在するかどうかを判断することができる。この例では、カメラの垂直上方における検知対象の位置(角度)と、検知対象までの距離を示す情報は、認識部202からの指示動作情報に含まれている。また、判断部206は、第2算出部204から、投影領域の位置を示す情報を受け取り、決定部205から、指示領域の奥行きを示す情報を受け取る。そして、判断部206は、これらの情報を元に、指示領域内に検知対象が存在するか否かを判断する。
図8に戻って説明を続ける。上述のステップS11において、検知対象の座標が指示領域内に存在すると判断された場合(ステップS11:YES)、機器設定部207は、認識された指示動作に応じてUI画像を生成してユーザに提示する制御を行い、認識された指示動作による操作に応じて機器の設定を行う(ステップS12)。
図10は、第2モードの場合の動作例を示すフローチャートである。図10のステップS20およびステップS21の処理内容は、図8のステップS10およびステップS11の処理内容と同様なので、詳細な説明は省略する。ステップS22において、操作出力部208は、認識された指示動作による操作を示す情報を外部装置へ出力するとともに、その認識された指示動作に応じてUI画像を生成してユーザに提示する制御を行う。
次に、本実施形態におけるUI画像の生成例を説明する。以下においては、第1モードの場合を例に挙げて説明する。UI生成部209は、機器設定部207の制御の下、検知対象と、投影領域との位置関係に応じて、UI画像を生成する。
より具体的には、UI生成部209は、図11に示すように、投影領域のうち検知対象に対応する位置に、ボタンの画像が表示されている場合、検知対象が投影領域に近づくほど、ボタンが徐々に押されていくことを表すようにUI画像を生成する。そして、UI生成部209は、検知対象と投影領域との間の距離が閾値以下に到達した場合は、操作を完了したことを表すようにUI画像を生成する。以下の説明では、指示領域のうち、投影領域までの距離(投影対象物2の法線方向の距離)が閾値を超える領域を第1領域220、閾値以下の領域を第2領域230と表記する。図11の例では、検知対象であるユーザの手が第1領域220内に存在する場合は、そのユーザの手が投影領域に近づくほど、プッシュボタンが徐々にへこんでいくことを表すようにUI画像が生成されてユーザに提示される(フィードバックされる)。つまり、第1領域220内のユーザの手の侵入量に応じて、ボタンのUI画像が変化していく。ユーザの手が第2領域230内に到達すると、操作の完了をユーザに報知するために、ボタンが一度奥に引っ込んでから元の位置に戻るなどといった動作を表すようにUI画像が生成されてユーザに提示される。
また、UI生成部209は、図12に示すように、投影領域のうち検知対象に対応する位置に、重なり合った階層構造のメニューの画像が表示される場合、検知対象が投影領域に近づくほど、下層のメニューが徐々に広がることを表すようにUI画像を生成する。そして、UI生成部209は、検知対象と投影領域との間の距離が閾値以下に到達した場合は、階層構造のメニューが同一平面上に配置されるとともに、操作を完了したことを表すようにUI画像を生成する。図12の例では、検知対象であるユーザの手が第1領域220内に存在する場合は、そのユーザの手が投影領域に近づくほど、下の階層のメニュー(図12の例では、メニュー1−1〜1−3)が広がっていき、ユーザの手が第2領域230内に到達すると、全てのメニューが広がり切る(同一平面上に配置される)ことを表すようにUI画像が生成されてユーザに提示される。また、図11の例と同様に、ユーザの手が第2領域230内に入ると、操作の完了をユーザに報知するためのUI画像が生成されてユーザに提示されてもよい。
さらに、UI生成部209は、図13に示すように、投影領域のうち検知対象に対応する位置にドラッグ可能なオブジェクトが表示される場合、検知対象が投影領域に近づくほど、オブジェクトがユーザ側に向かって徐々に浮き上がることを表すようにUI画像を生成する。そして、UI生成部209は、検知対象と投影領域との間の距離が閾値以下に到達した場合は、指示領域のうち、投影領域までの距離が閾値以下となる領域内における検知対象の動きに追従してオブジェクトが移動することを表すようにUI画像を生成する。その後、UI生成部209は、検知対象と投影領域との間の距離が閾値を超えた場合は、検知対象の動きに対する追従を停止したオブジェクトを表すようにUI画像を生成する。図13の例では、検知対象であるユーザの手が第1領域220内に存在する場合は、そのユーザの手が投影領域に近づくほど、投影領域のうちユーザの手に対応する位置に表示されるオブジェクトが徐々にユーザ側に浮き上がることを表すようにUI画像が生成されてユーザに提示される。そして、ユーザの手が第2領域230内に到達すると、そのオブジェクトがドラッグ可能となり、そのオブジェクトは、第2領域230内におけるユーザの手の動きに追従して移動することを表すようにUI画像が生成されてユーザに提示される。ユーザの手が再度第1領域220内に戻ると、ユーザの手の動きに対する追従を停止したオブジェクトを表すようにUI画像が生成されてユーザに提示される。
なお、例えばUI生成部209は、図14に示すように、投影領域のうち検知対象に対応する位置にオブジェクトが表示され、かつ、検知対象と投影領域との間の距離が閾値以下である場合は、オブジェクトがユーザ側に向かって浮き上がることを表すようにUI画像を生成し、その後、指示領域のうち、投影領域までの距離が閾値を越える領域内における検知対象の動きに追従してオブジェクトが移動することを表すようにUI画像を生成し、検知対象と投影領域との間の距離が再び閾値以下になった場合は、オブジェクトが検知対象の動きに対する追従を停止し、浮き上がる前の状態に戻ることを表すようにUI画像を生成してもよい。図14の例では、投影領域のうちユーザの手に対応する位置にオブジェクトが表示され、かつ、ユーザの手が第2領域230内に存在する場合(そのオブジェクトを押す動作が行われたと捉えることもできる)、そのオブジェクトがユーザ側に向かって浮き上がることを表すようにUI画像が生成されてユーザに提示される。その後、ユーザの手が第1領域220に戻ると、ドラッグ可能となったオブジェクトは、第1領域220内におけるユーザの手の動きに追従して移動することを表すようにUI画像が生成されてユーザに提示される。その後、再びユーザの手が第2領域230に到達した場合(再びオブジェクトを押す動作が行われた場合)、オブジェクトは、ユーザの手の動きに対する追従を停止し、浮き上がる前の状態に戻ることを表すようにUI画像が生成されてユーザに提示される。
図15は、本実施形態のプロジェクタ1が、ユーザによる指示動作に応じてUI画像を生成してユーザに提示するときの動作例を示すフローチャート(図11〜図13の動作フロー)である。図15に示すように、まず、プロジェクタ1は、検知対象が第1領域220内に存在するか否かを判断する(ステップS30)。検知対象が第1領域220内に存在すると判断した場合(ステップS30:YES)、プロジェクタ1は、投影領域のうち検知対象(この例ではユーザの手)に対応する位置に、ボタンの画像が表示されるか否かを判断する(ステップS31)。
上述のステップS31において、投影領域のうち検知対象に対応する位置に、ボタンの画像が表示されると判断した場合(ステップS31:YES)、プロジェクタ1は、第1領域220内における検知対象の侵入量に応じてボタン表示が変化するようにUI画像を生成し(ステップS32)、生成したUI画像と入力映像とを合成した画像を投影対象物に投影して表示する。次に、プロジェクタ1は、検知対象が第2領域230内に到達したか否かを判断する(ステップS33)。検知対象が第2領域230内に到達したと判断した場合(ステップS33:YES)、操作完了を意味するボタンのアニメーションを表すUI画像を生成し(ステップS34)、生成したUI画像と入力映像とを合成した画像を投影対象物に投影して表示する。その後は、ステップS30以降の処理を繰り返す。
一方、上述のステップS31において、投影領域のうち検知対象に対応する位置に、ボタンの画像が表示されないと判断した場合(ステップS31:NO)、投影領域のうち検知対象に対応する位置に、階層構造のメニューが表示されるか否かを判断する(ステップS40)。
上述のステップS40において、投影領域のうち検知対象に対応する位置に、階層構造のメニューが表示されると判断した場合(ステップS40:YES)、第1領域220内における検知対象の侵入量に応じてメニュー表示が変化するようにUI画像を生成し(ステップS41)、生成したUI画像と入力映像とを合成した画像を投影対象物に投影して表示する。次に、プロジェクタ1は、検知対象が第2領域230内に到達したか否かを判断する(ステップS42)。検知対象が第2領域230内に到達したと判断した場合(ステップS42:YES)、操作完了を意味するボタンのアニメーションを表すUI画像を生成し(ステップS43)、生成したUI画像と入力映像とを合成した画像を投影対象物に投影して表示する。その後は、ステップS30以降の処理を繰り返す。
一方、上述のステップS40において、投影領域のうち検知対象に対応する位置に、階層構造のメニューが表示されないと判断した場合(ステップS40:NO)、投影領域のうち検知対象に対応する位置に、ドラッグ操作可能なオブジェクトが表示されるか否かを判断する(ステップS50)。投影領域のうち検知対象に対応する位置に、ドラッグ操作可能なオブジェクトが表示されると判断した場合(ステップS50:YES)、第1領域220内における検知対象の侵入量に応じてオブジェクト表示が変化するようにUI画像を生成し(ステップS51)、生成したUI画像と入力映像とを合成した画像を投影対象物に投影して表示する。
次に、プロジェクタ1は、検知対象が第2領域230内に到達したか否かを判断する(ステップS52)。検知対象が第2領域230内に到達したと判断した場合(ステップS52:YES)、第2領域230内の検知対象の動きに追従してオブジェクトが移動することを表すようにUI画像を生成する(ステップS53)。次に、プロジェクタ1は、検知対象が再び第1領域220に移動したか否かを判断する(ステップS54)。検知対象が再び第1領域220に移動したと判断した場合(ステップS54:YES)、検知対象の動きに対する追従を停止したオブジェクトの表示が、第1領域220内における検知対象の侵入量に応じて変化するようにUI画像を生成し(ステップS55)、生成したUI画像と入力映像とを合成した画像を投影対象物に投影して表示する。
次に、プロジェクタ1は、検知対象が第1領域220から出たか否かを判断する(ステップS56)。検知対象が第1領域220から出ていないと判断した場合(ステップS56:NO)、上述のステップS52以降の処理を繰り返す。一方、検知対象が第1領域220から出たと判断した場合(ステップS56:YES)、上述のステップS30以降の処理を繰り返す。
次に、本実施形態に係るプロジェクタ1のハードウェア構成例を説明する。図16は、プロジェクタ1のハードウェア構成例を示すブロック図である。図16に示すように、プロジェクタ1は、CPU10と、メモリコントローラ20と、メインメモリ30と、ホスト−PCIブリッジ40とを備えている。メモリコントローラ20は、CPU10、メインメモリ30、及びホスト−PCIブリッジ40とホスト・バス110で接続されている。
CPU10は、プロジェクタ1の全体制御を行うものである。メモリコントローラ20は、メインメモリ30に対する読み書きなどを制御する。メインメモリ30は、プログラムやデータの格納用メモリ、プログラムやデータの展開用メモリ、描画用メモリなどとして用いるシステムメモリである。
ホスト−PCIブリッジ40は、周辺デバイスやPCI(Peripheral Component Interconnect)デバイス50を接続するためのブリッジである。ホスト−PCIブリッジ40は、メモリカード60とHDD I/F120で接続されている。また、ホスト−PCIブリッジ40は、PCIデバイス50とPCIバス130で接続されている。また、ホスト−PCIブリッジは40、通信カード70、無線通信カード80、及びビデオカード90などとPCIバス130及びPCIスロット140を介して接続されている。
メモリカード60は、OSのブートデバイスとして利用される。通信カード70及び無線通信カード80は、LANなどのネットワークや通信回線との接続に利用される。ビデオカード90は、画像の投影に利用され、映像信号をディスプレイ出力に出力する。なお、本実施形態のプロジェクタ1で実行される制御プログラムは、メインメモリ30の格納用メモリ等に予め組み込まれて提供される。
以上に説明したように、本実施形態では、プロジェクタ1の上方の空間を示す対象空間のうち、プロジェクタ1からの投影光に干渉せず、かつ、投影領域と対向する領域を、出力させたい内容に応じた指示動作を行うことが可能な指示領域として決定するので、操作者の影が投影画像に映り込んでしまうことはない上、操作者は、投影対象物に投影された画像と対向する領域内で指示動作を行うことになるので、自身の操作と投影画像との対応を直感的に理解することができる。したがって、本実施形態によれば、投影画像の視認性を確保するとともに直感的で分かり易い操作を提供できるという特有の効果を奏する。
ここで、本実施形態の対比例として、カメラなどの撮像センサーで投影領域を撮影してユーザの動作を検知し、投影領域をタッチパネルのように利用する構成(例えば特許文献1のような構成)を想定する。投影領域を撮像するための撮像センサーとして、例えば水平画角=60°、垂直画角=50°のカメラを用い、仮想操作面からカメラまでの水平距離=85cmとすると、仮想操作面の水平幅×垂直幅=100cm×100cmとなる。このサイズは、投影画面サイズ(48インチなら100cm×60cm)を包含しているので、安価なカメラで済むが、例えば超短焦点プロジェクタの場合は、前述したように投写距離が「11.7〜24.9cm」となるので、超短焦点プロジェクタに搭載されるカメラと仮想操作面(対比例においては投影領域とみなすことができる)との距離も上記の場合に比べて大幅に短くなり、上記カメラにより撮像される仮想操作面のサイズが投影画面のサイズに収まらなくなる。このため、対比例の技術を、例えば超短焦点プロジェクタなどの投写距離が所定の基準値(例えば85cm)を下回るプロジェクタに適用する場合は、より画角の大きい(視野角の広い)カメラを用いる必要があるので、コストアップに繋がるという問題がある。
これに対して、上述の本実施形態では、プロジェクタ1に搭載された撮像センサー100に要求される機能としては、プロジェクタ1の上方の空間を示す対象空間のうち、プロジェクタ1からの投影光に干渉せず、かつ、投影領域と対向する領域を示す指示領域を撮像する機能だけで済む(つまり、対比例のように投影領域全体を撮像する必要は無い)ので、超短焦点プロジェクタの場合であっても、プロジェクタに搭載される撮像センサー10は安価なカメラで済むという利点がある上、上述した特有の効果も達成できる。したがって、本発明は、例えば超短焦点プロジェクタなどの投写距離が所定の基準値を下回るプロジェクタに適用する場合において格別に有効である。ただし、これに限らず、本発明は、投写距離が所定の基準値以上のプロジェクタに適用することも可能であり、この場合であっても、上述した特有の効果を達成できることは勿論である。
以上、本発明の実施形態を説明したが、上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
例えば上述の実施形態においては、プロジェクタ1が撮像センサー100を備える構成(プロジェクタ1と撮像センサー100とが一体である構成)を例に挙げて説明したが、これに限らず、例えば撮像センサー100が、プロジェクタ1とは別に(独立して)設けられる形態であってもよい。
また、例えば、本発明は、投影対象物に画像を投影する画像投影装置と、画像投影装置と接続される情報処理装置とを備える画像投影システムに対して適用することもできる。図17は、本発明が適用された画像投影システム1000の構成例を示す図である。図17に示すように、画像投影システム1000は、撮像センサー100と、情報処理装置400と、画像投影装置500とを備える。情報処理装置400は、上述の検知部201、認識部202、第1算出部203、第2算出部204、決定部205、判断部206、UI生成部209、および、合成部211を備え、さらに、画像出力部250を備える。上述の情報処理装置400が有する各部(検知部201、認識部202、第1算出部203、第2算出部204、決定部205、判断部206、UI生成部209、合成部211、および、画像出力部250)の機能は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。
図17の例では、機器設定部207、および、操作出力部208は設けられず、UI生成部209は、判断部206からの情報を元に、ユーザによる指示動作に応じたUI画像を生成する。合成部211は、UI生成部209により生成されたUI画像と、情報処理装置400が有する映像(不図示のメモリ等に格納された映像データ)とを合成する。画像出力部250は、合成部211により合成された画像を、画像投影装置500に出力する。そして、画像投影装置500は、情報処理装置400から供給される画像を投影対象物に投影して表示する。この例では、情報処理装置400のUI生成部209、合成部211、および、画像出力部250が、請求項10の「出力部」に対応すると捉えることもできる。
なお、上述のプロジェクタ1または情報処理装置400で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、上述のプロジェクタ1または情報処理装置400で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述のプロジェクタ1または情報処理装置400で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
1 プロジェクタ
2 投影対象物
3 投影領域
4 指示領域
5 投影口
6 ミラー
100 撮像センサー
200 制御ユニット
201 取得部
202 認識部
203 第1算出部
204 第2算出部
205 決定部
206 判断部
207 機器設定部
208 操作出力部
209 UI生成部
210 映像入力部
211 合成部
220 第1領域
230 第2領域
250 画像出力部
300 画像投影部
400 情報処理装置
500 画像投影装置
1000 画像投影システム
特開2012−003521号公報 特開2008−287142号公報

Claims (13)

  1. 投影対象物に画像を投影する画像投影装置であって、
    前記画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知部と、
    前記検知部による検知対象の検知に基づいて、ユーザによる指示動作を認識する認識部と、
    前記対象空間内において前記認識部により認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力部と、を備える、
    ことを特徴とする画像投影装置。
  2. 前記対象空間のうち、前記画像投影装置から出射される投影光に干渉せず、かつ、前記投影対象物のうち前記画像が投影される領域を示す投影領域と対向する領域を、前記ユーザによる指示動作が行われる指示領域として決定する決定部をさらに備える、
    ことを特徴とする請求項1に記載の画像投影装置。
  3. 前記画像投影装置のうち、前記投影光が出射される投影口とは異なる位置に配置されるとともに、前記投影領域の上端を含む前記対象空間を撮像する撮像センサーと、
    前記撮像センサーによる撮像で得られた前記画像データ内の前記投影領域の位置に応じて、前記画像投影装置と、前記投影対象物との間の距離を算出する第1算出部と、
    前記第1算出部により算出された距離に基づいて、前記投影領域のサイズを算出する第2算出部と、をさらに備え、
    前記検知部は、前記撮像センサーによる撮像で得られた画像データに基づいて、前記検知対象を検知し、
    前記決定部は、前記第2算出部により算出された前記投影領域のサイズに基づいて、前記指示領域のサイズを決定する、
    ことを特徴とする請求項2に記載の画像投影装置。
  4. 前記出力部は、
    前記指示領域内の前記指示動作に応じて、前記ユーザに提示するUI画像を生成する生成部と、
    入力映像と、前記生成部により生成された前記UI画像とを合成する合成部と、
    前記合成部により合成された画像を前記投影対象物に投影する投影部と、を含む、
    ことを特徴とする請求項2または請求項3に記載の画像投影装置。
  5. 前記生成部は、前記検知対象と、前記投影領域との位置関係に応じて、前記UI画像を生成する、
    ことを特徴とする請求項4に記載の画像投影装置。
  6. 前記生成部は、前記投影領域のうち前記検知対象に対応する位置に、ボタンの画像が表示される場合、前記検知対象が前記投影領域に近づくほど、前記ボタンが徐々に押されていくことを表すように前記UI画像を生成し、前記検知対象と前記投影領域の距離が閾値以下に到達した場合は、操作を完了したことを表すように前記UI画像を生成する、
    ことを特徴とする請求項5に記載の画像投影装置。
  7. 前記生成部は、前記投影領域のうち前記検知対象に対応する位置に、重なり合った階層構造のメニューの画像が表示される場合、前記検知対象が前記投影領域に近づくほど、下層のメニューが徐々に広がることを表すように前記UI画像を生成し、前記検知対象と前記投影領域の距離が閾値以下に到達した場合は、階層構造のメニューが同一平面上に配置されるとともに、操作を完了したことを表すように前記UI画像を生成する、
    ことを特徴とする請求項5に記載の画像投影装置。
  8. 前記生成部は、前記検知対象が前記投影領域に近づくほど、前記投影領域のうち前記検知対象に対応する位置に表示されるオブジェクトが前記ユーザ側に向かって徐々に浮き上がることを表すように前記UI画像を変化させ、前記検知対象と前記投影領域の距離が閾値以下に到達した場合は、前記指示領域のうち、前記投影領域までの距離が前記閾値以下となる領域内における前記検知対象の動きに追従して前記オブジェクトが移動するように前記UI画像を変化させ、その後、前記検知対象と前記投影領域の距離が前記閾値を超えた場合は、前記検知対象の動きに対する追従を停止した前記オブジェクトを表すように前記UI画像を生成する、
    ことを特徴とする請求項5に記載の画像投影装置。
  9. 前記生成部は、前記投影領域のうち前記検知対象に対応する位置にオブジェクトが表示され、かつ、前記検知対象と前記投影領域の距離が閾値以下である場合は、前記オブジェクトが前記ユーザ側に向かって浮き上がることを表すように前記UI画像を生成し、その後、前記指示領域のうち、前記投影領域までの距離が前記閾値を越える領域内における前記検知対象の動きに追従して前記オブジェクトが移動することを表すように前記UI画像を生成し、前記検知対象と前記投影領域の距離が再び前記閾値以下になった場合は、前記オブジェクトが前記検知対象の動きに対する追従を停止し、浮き上がる前の状態に戻ることを表すように前記UI画像を生成する、
    ことを特徴とする請求項5に記載の画像投影装置。
  10. 前記画像投影装置から出射される投影光が出射される投影口から前記投影対象物までの距離を指す投写距離は、所定の基準値を下回る値に設定される、
    ことを特徴とする請求項1乃至9のうちの何れか1項に記載の画像投影装置。
  11. 投影対象物に画像を投影する画像投影装置と、前記画像投影装置と接続される情報処理装置とを備える画像投影システムであって、
    前記情報処理装置は、
    前記画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知部と、
    前記検知部による検知対象の検知に基づいて、ユーザによる指示動作を認識する認識部と、
    前記対象空間内において前記認識部により認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力部と、を備える、
    ことを特徴とする画像投影システム。
  12. 画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知ステップと、
    前記検知ステップによる検知対象の検知に基づいて、ユーザによる指示動作を認識する認識ステップと、
    前記対象空間内において前記認識ステップにより認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力ステップと、を含む、
    ことを特徴とする制御方法。
  13. コンピュータに、
    画像投影装置によって投影された画像に対応する対象空間に存在する検知対象を検知する検知ステップと、
    前記検知ステップによる検知対象の検知に基づいて、ユーザによる指示動作を認識する認識ステップと、
    前記対象空間内において前記認識ステップにより認識された前記指示動作と、前記画像投影装置によって投影された画像とに基づいて、前記指示動作に応じた出力を行う出力ステップと、を実行させるためのプログラム。
JP2013005592A 2013-01-16 2013-01-16 画像投影装置、画像投影システム、制御方法およびプログラム Expired - Fee Related JP6167529B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013005592A JP6167529B2 (ja) 2013-01-16 2013-01-16 画像投影装置、画像投影システム、制御方法およびプログラム
US14/133,853 US9400562B2 (en) 2013-01-16 2013-12-19 Image projection device, image projection system, and control method
CN201410016345.6A CN103929603B (zh) 2013-01-16 2014-01-14 图像投影设备、图像投影系统及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013005592A JP6167529B2 (ja) 2013-01-16 2013-01-16 画像投影装置、画像投影システム、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2014138257A true JP2014138257A (ja) 2014-07-28
JP6167529B2 JP6167529B2 (ja) 2017-07-26

Family

ID=51147664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013005592A Expired - Fee Related JP6167529B2 (ja) 2013-01-16 2013-01-16 画像投影装置、画像投影システム、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US9400562B2 (ja)
JP (1) JP6167529B2 (ja)
CN (1) CN103929603B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016031038A1 (ja) * 2014-08-29 2016-03-03 日立マクセル株式会社 映像表示システムおよび投射型映像表示装置
KR20160095923A (ko) * 2015-02-04 2016-08-12 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
US11652969B2 (en) 2020-02-10 2023-05-16 Ricoh Company, Ltd. Projection apparatus and operation detection apparatus
WO2023195650A1 (ko) * 2022-04-06 2023-10-12 삼성전자주식회사 전자 장치 및 이의 제어 방법

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11137832B2 (en) * 2012-12-13 2021-10-05 Eyesight Mobile Technologies, LTD. Systems and methods to predict a user action within a vehicle
JP6381361B2 (ja) * 2014-08-20 2018-08-29 キヤノン株式会社 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
CN104407698B (zh) * 2014-11-17 2018-02-27 联想(北京)有限公司 一种投影方法及电子设备
US10310676B2 (en) * 2015-02-04 2019-06-04 Lg Electronics Inc. Image projection apparatus and operation method thereof
CN107085493A (zh) * 2016-02-16 2017-08-22 中强光电股份有限公司 触控式投影系统及其触控灵敏度的调整方法
CN109564495B (zh) * 2016-06-28 2022-09-30 株式会社尼康 显示装置、存储介质、显示方法及控制装置
CN107979748A (zh) * 2016-10-21 2018-05-01 中强光电股份有限公司 投影机、投影系统以及影像投影方法
US10976648B2 (en) * 2017-02-24 2021-04-13 Sony Mobile Communications Inc. Information processing apparatus, information processing method, and program
CN108549187A (zh) * 2018-04-24 2018-09-18 歌尔科技有限公司 一种交互式投影灯的控制方法、装置及交互式投影灯
DE102018213980A1 (de) * 2018-08-20 2020-02-20 BSH Hausgeräte GmbH Haushaltsgerät mit einer manuellen Eingabevorrichtung
US11172180B2 (en) 2018-09-19 2021-11-09 Canon Kabushiki Kaisha Control apparatus, control method and non-transitory computer-readable medium
CN111292316B (zh) * 2020-03-11 2023-09-01 成都极米科技股份有限公司 测试方法、装置、电子设备及存储介质
WO2021207582A1 (en) * 2020-04-09 2021-10-14 Looking Glass Factory, Inc. System and method for generating light field images
WO2022225977A1 (en) 2021-04-19 2022-10-27 Looking Glass Factory, Inc. System and method for displaying a three-dimensional image
CN114422762B (zh) * 2021-12-25 2023-10-13 深圳市幕工坊科技有限公司 投影幕动作控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003215699A (ja) * 2002-01-21 2003-07-30 Beauty Up Co Ltd 投影装置
JP2009279041A (ja) * 2008-05-19 2009-12-03 Sanyo Electric Co Ltd 投写型映像表示装置
WO2012014690A1 (ja) * 2010-07-29 2012-02-02 船井電機株式会社 プロジェクタ
JP2012104096A (ja) * 2010-10-14 2012-05-31 Nikon Corp プロジェクタ

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287142A (ja) 2007-05-21 2008-11-27 Brother Ind Ltd 画像投影装置
JP5493340B2 (ja) * 2008-11-26 2014-05-14 セイコーエプソン株式会社 投写型表示装置および配置関係検出方法
JP5436080B2 (ja) * 2009-07-21 2014-03-05 キヤノン株式会社 画像投射装置
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
US8826184B2 (en) * 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
JP4858631B2 (ja) 2010-06-17 2012-01-18 パナソニック株式会社 画像投影装置、判定方法及び判定プログラム
JP2012032852A (ja) * 2010-07-28 2012-02-16 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP5982917B2 (ja) 2012-03-22 2016-08-31 株式会社リコー 情報処理装置、操作権限付与プログラム及び投影システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003215699A (ja) * 2002-01-21 2003-07-30 Beauty Up Co Ltd 投影装置
JP2009279041A (ja) * 2008-05-19 2009-12-03 Sanyo Electric Co Ltd 投写型映像表示装置
WO2012014690A1 (ja) * 2010-07-29 2012-02-02 船井電機株式会社 プロジェクタ
JP2012104096A (ja) * 2010-10-14 2012-05-31 Nikon Corp プロジェクタ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016031038A1 (ja) * 2014-08-29 2016-03-03 日立マクセル株式会社 映像表示システムおよび投射型映像表示装置
KR20160095923A (ko) * 2015-02-04 2016-08-12 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
KR102333931B1 (ko) * 2015-02-04 2021-12-02 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
US11652969B2 (en) 2020-02-10 2023-05-16 Ricoh Company, Ltd. Projection apparatus and operation detection apparatus
WO2023195650A1 (ko) * 2022-04-06 2023-10-12 삼성전자주식회사 전자 장치 및 이의 제어 방법

Also Published As

Publication number Publication date
JP6167529B2 (ja) 2017-07-26
CN103929603A (zh) 2014-07-16
US20140198030A1 (en) 2014-07-17
CN103929603B (zh) 2017-09-01
US9400562B2 (en) 2016-07-26

Similar Documents

Publication Publication Date Title
JP6167529B2 (ja) 画像投影装置、画像投影システム、制御方法およびプログラム
JP6689559B2 (ja) 画像投影装置、システム、画像投影方法およびプログラム
US11188125B2 (en) Information processing apparatus, information processing meihod and program
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
JP6135239B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法
US9128526B2 (en) Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US9544556B2 (en) Projection control apparatus and projection control method
US8769409B2 (en) Systems and methods for improving object detection
TWI660290B (zh) 資源分享裝置及其控制方法
JPWO2013121807A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20160191875A1 (en) Image projection apparatus, and system employing interactive input-output capability
JP2013012158A (ja) 電子機器および制御方法
JP6255954B2 (ja) 動作入力装置、動作入力プログラム及び動作入力方法
JP6245938B2 (ja) 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
CN107924272B (zh) 信息处理装置、信息处理方法和程序
CN106293036B (zh) 一种交互方法及电子设备
TWI394063B (zh) 應用影像辨識之指令輸入系統以及方法
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP2013134549A (ja) データ入力装置およびデータ入力方法
JP2019135654A (ja) 画像投影装置、システム、画像投影方法およびプログラム
JP2014171122A (ja) システム、画像投影装置、画像投影方法およびプログラム
KR20130129775A (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
JP7383471B2 (ja) 電子機器およびその制御方法
JP2017026677A (ja) 画像投影装置及び画像投影システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170612

R151 Written notification of patent or utility model registration

Ref document number: 6167529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees