JP2014142695A - 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム - Google Patents

情報処理装置、システム、画像投影装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2014142695A
JP2014142695A JP2013009243A JP2013009243A JP2014142695A JP 2014142695 A JP2014142695 A JP 2014142695A JP 2013009243 A JP2013009243 A JP 2013009243A JP 2013009243 A JP2013009243 A JP 2013009243A JP 2014142695 A JP2014142695 A JP 2014142695A
Authority
JP
Japan
Prior art keywords
output surface
image output
information processing
pointing object
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013009243A
Other languages
English (en)
Other versions
JP6070211B2 (ja
Inventor
Takahiro Yagishita
高弘 柳下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013009243A priority Critical patent/JP6070211B2/ja
Priority to US14/153,505 priority patent/US9471983B2/en
Publication of JP2014142695A publication Critical patent/JP2014142695A/ja
Application granted granted Critical
Publication of JP6070211B2 publication Critical patent/JP6070211B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract


【課題】指示物体によって画像出力面上の座標を指定する操作の精度を高める。
【解決手段】本発明に係る情報処理装置200は、検知部220と算出部225と判定部245と推定部250とを備える。検知部220は、画像出力面を指し示すための指示物体の複数の部位の各々の3次元位置を検知する。算出部225は、指示物体の複数の部位の各々の3次元位置に基づいて、指示物体が指し示す方向と、画像出力面との交点を算出する。判定部245は、交点が、画像出力面において所定の範囲内であるか判定する。推定部250は、判定部245による判定に基づいて、画像出力面のうち指示物体により指し示された位置を推定する。
【選択図】図7

Description

本発明は、情報処理装置、システム、画像投影装置、情報処理方法およびプログラムに関する。
画面に表示された画像を見ながら、その手前の何もない空間に仮想の操作面を想定し、この仮想操作面をタッチパネルに見立て、指など(指示物体)を動かすことで、操作入力を与えるUI(ユーザインターフェース)装置が従来から提案されている。このような非接触タイプのUI装置は、接触タイプの欠点(接触する手の皮脂等で画面が汚れる等)を解消した優れたUI技術と言え、近年注目されている。
上記UI装置においては、実画面の座標と仮想操作面の座標との対応が重要になる。例えば特許文献1には、仮想操作面における指先から実画面の法線方向に延びる垂直線、または、指先の移動ベクトルの延長線が実画面と交わった点を指定座標とする技術が開示されている。
しかしながら、実画面のサイズが大きいと(例えば80インチ)、ユーザの手が届かない座標も出てくる。実画面上の目標座標が遠いほど、ユーザの指先の方向を示す直線と、実画面の法線とのなす角度が大きくなるので、実際の目標座標と、実画面のうち、指先から実画面の法線方向に延びる垂直線と交わった点とのずれが大きくなる。つまり、特許文献1に開示された技術では、実画面上の目標座標が遠いほど、座標指定の精度が低くなるという問題がある。
本発明は、上記に鑑みてなされたものであって、指示物体によって画像出力面上の座標を指定する操作の精度を高めることが可能な情報処理装置、システム、画像投影装置、情報処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、画像が出力される画像出力面を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知部と、前記検知部によって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出部と、前記交点が、前記画像出力面において所定の範囲内であるか判定する判定部と、前記判定部による判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定部と、を備えることを特徴とする情報処理装置である。
また、本発明は、画像を表示する表示装置と、前記表示装置と接続される情報処理装置とを備えるシステムであって、画像が出力される画像出力面の所定位置を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知部と、前記検知部によって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出部と、前記交点が、前記画像出力面において所定の範囲内であるか判定する判定部と、前記判定部による判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定部と、を備えることを特徴とするシステムである。
また、本発明は、投影対象物に画像を投影する画像投影装置であって、前記投影対象物のうち画像が投影される領域を示す投影領域の所定位置を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知部と、前記検知部によって検知された前記複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出部と、前記交点が、前記画像出力面において所定の範囲内であるか判定する判定部と、前記判定部による判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定部と、を備えることを特徴とする画像投影装置である。
また、本発明は、画像が出力される画像出力面を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知ステップと、前記検知ステップによって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出ステップと、前記交点が、前記画像出力面において所定の範囲内であるか判定する判定ステップと、前記判定ステップによる判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定ステップと、を含むことを特徴とする情報処理方法である。
さらに、本発明は、コンピュータに、画像が出力される画像出力面を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知ステップと、前記検知ステップによって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出ステップと、前記交点が、前記画像出力面において所定の範囲内であるか判定する判定ステップと、前記判定ステップによる判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定ステップと、を実行させるためのプログラムである。
本発明によれば、指示物体によって画像出力面上の座標を指定する操作の精度を高めることができるという有利な効果を奏する。
図1は、第1実施形態に係るシステムの概略構成例を示すブロック図である。 図2は、ユーザが、投影領域上の目標座標に向けて手を差し伸ばしている様子を示す図である。 図3は、投影領域を真横から見た状態を模式的に示す図である。 図4は、ユーザの手をセンサで測定した様子を模式的に示す図である。 図5は、投影領域を正面から見た状態を模式的に示す図である。 図6は、第1実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。 図7は、第1実施形態に係る情報処理装置の機能構成例を示すブロック図である。 図8は、情報処理装置による処理の一例を示すフローチャートである。 図9は、第2実施形態に係る情報処理装置の機能構成例を示すブロック図である。 図10は、第3実施形態に係る情報処理装置の機能構成例を示すブロック図である。
以下、添付図面を参照しながら、本発明に係る情報処理装置、システム、画像投影装置、情報処理方法およびプログラムの実施の形態を詳細に説明する。
(第1実施形態)
図1は、本実施形態に係るシステム1の概略構成例を示すブロック図である。図1に示すように、システム1は、互いに接続される表示装置100および情報処理装置200を少なくとも含む。本実施形態では、表示装置100は、壁面などの投影対象物に画像を投影するプロジェクタ(画像投影装置の一例)で構成されるが、これに限られるものではない。
本実施形態では、投影対象物のうち画像が投影される領域を示す投影領域(画像が出力される画像出力面の一例)の手前の何もない空間に仮想操作面を想定し、ユーザ(操作者)は、この仮想操作面内において、例えば手(指)やペンなどの指示物体を動かすことで、投影領域上の所定位置の座標を指定する。つまり、ユーザは、非接触で投影領域上の座標を指定する操作を行う。図2の例では、ユーザ(操作者)101は、投影領域102に表示されたボタンアイコンなどの目標座標103に向けて手を差し伸ばしている。なお、ここでは、投影領域102の法線方向は鉛直方向(重力方向)と直交し、投影領域102の法線方向をZ軸、鉛直方向をY軸、水平方向をX軸に設定して説明するが、座標系の設定方法はこれに限られるものではない。
図2の例では、投影領域102の上方に固定されたセンサ106が、ユーザ101の手の位置(投影領域102の手前の空間内における手の位置)を測定している。このセンサ106は、赤外光を出射する発光部と、その光が手に反射して戻ってくる光を受ける受光部を備えた、いわゆる3次元距離センサで構成される。3次元距離センサは、ジェスチャ認識などで一般的に使われており、受光した光のパターン形状、受光角度、出射から受光までの時間などに基づき、光が照射された点(照射点)とセンサ106との3次元距離を測定できる。センサ106と投影領域102との3次元位置関係が自明とすれば、照射点(手の位置)と投影領域102との3次元位置関係が測定できる。見方を変えれば、センサ106は、照射点の3次元位置を測定しているとみなすこともできる。この例では、センサ106は、システム1に含まれると考えてもよい。
本実施形態では、投影領域102の手前の、センサ106が測定を行う空間(以下、「対象空間」と呼ぶ場合がある)内にユーザ101の手が存在する場合、センサ106は、ユーザ101の手の複数の部位の各々の3次元距離を測定し、その測定結果を示す情報を情報処理装置200へ出力する。
情報処理装置200は、センサ106からの出力を用いて、仮想操作面における指示物体の位置に対応する投影領域102の位置(指定座標)を推定し、その指定座標を示す情報を、表示装置100へ出力する。情報処理装置200の具体的な内容については後述する。表示装置100は、情報処理装置200により推定された指定座標に応じて表示を切り替える。例えば投影領域102のうち、情報処理装置200により推定された指定座標にボタンアイコンが表示される場合は、そのボタンアイコンがタッチされたとみなし、そのボタンアイコンのタッチ操作に応じた画像を投影表示するといった具合である。
図3は、投影領域102を真横(側方)から見た状態を模式的に示す図である。図3の(a)は、ユーザの手201が届く位置に目標座標203が存在する場合を例示しており、図3の(b)は、ユーザの手201が届かない位置に目標座標204が存在する場合を例示している。人間の自然な動作として、図3の(a)のような場合は、投影領域102上の目標座標203を触るかのように、仮想操作面112に指を差し入れる動作をするが、図3の(b)のような場合は、仮想操作面112とは無関係に、目標座標204の方向を指で指し示す動作を行う。
本発明は、以上のように、ユーザの手201が届く位置に目標座標が存在するか否かで、指し示し方が異なる点に着目し、図3の(a)のような場合は、投影領域102のうち、仮想操作面112を指が通過した点との距離が最短となる座標を、ユーザが指し示す位置として推定し、図3の(b)のような場合は、投影領域102と、指先だけでなく手201全体が指し示す方向との交点を、ユーザが指し示す位置として推定する。これにより、ユーザの手201などの指示物体によって投影領域102上の座標を指定する精度を高めることができる。
図4は、ユーザの手201をセンサ106で測定した様子を模式的に示す図である。図4の(a)は図3の(a)に対応し、図4の(b)は図3の(b)に対応している。センサ106は、ほぼ同じ時間内に、ユーザの手201の複数の部位の各々の3次元距離を測定する。図4に示す1つの丸印は、ユーザの手201の複数の部位のうちの何れか1つの部位に対応する測定点を表している。図4の(a)の場合は、手201の複数の部位と1対1に対応する複数の測定点から算出された、手201が指し示す方向を示す回帰直線(手201が指し示す方向を示す仮想線の一例)が投影領域102と交わる座標305が、投影領域102のうちユーザの手201が届く範囲として予め設定された所定の範囲内に存在するので、仮想操作面112を通過した指先点から投影領域102に向けてZ方向(投影領域102の法線方向)に延ばした直線が投影領域102と交わる座標303を、ユーザの手201により指し示された位置として推定する。図4の(b)の場合は、回帰直線が投影領域102と交わる座標304が、所定の範囲外に存在するので、その座標304を、ユーザの手201により指し示された位置として推定する。
ここで、センサ106が測定する空間を示す対象空間の範囲について説明する。前述したように、本実施形態では、投影領域102上の座標(目標座標)を指定する操作を、投影領域102に非接触で行えるようにしている。目標座標に常に手が届くのなら、センサ106は、投影領域102と平行に設定した仮想操作面112(勢いあまって接触しないよう、投影領域102から10cm程度の距離が望ましい)だけを測定すればよい。しかしながら、本明細書では、目標座標に手201が届かない場合があると仮定している(例えば投影領域102の所定値以上の高さに対応する位置は高すぎて手201が届かない、ユーザが予め定められた位置から移動しないことを前提とすれば、投影領域102の左右端部に対応する位置は手201が届かない)。
このため、上記回帰直線を算出するためには、2次元平面ではなく、3次元空間内における手201の複数の部位の各々の位置を測定しなければならない。回帰直線の算出精度を上げるためには、センサ106は、投影領域102の法線方向において30cm以内の空間内に存在するユーザの手201の複数の部位の各々の3次元距離を測定する形態であることが好ましい。本実施形態では、対象空間は、投影領域102の法線方向において30cm以内の空間に設定されている。ただし、この対象空間も、ユーザの手201が届く範囲で十分である。図3において、網点で示された範囲は手201の届く範囲、一点鎖線で囲まれる範囲は対象空間を表している。また、図5は、投影領域102を正面から見た状態を模式的に示す図である。この例では、ユーザは、投影領域102の中央付近に存在することが想定され、ユーザの手201が届く範囲は、網点で示された範囲となり、対象空間は、一点鎖線で囲まれた範囲となる。図5に示すように、対象空間は、ユーザの手201が届く範囲を包含するように設定される。
図6は、情報処理装置200のハードウェア構成例を示すブロック図である。図6に示すように、情報処理装置200は、CPU211と、不揮発メモリ212と、画像処理部213と、揮発メモリ214と、センサ入力部215と、外部I/F部216と、を備える。
CPU211は、情報処理装置200全体の動作を統括的に制御する。不揮発メモリ212は、CPU211が実行するプログラムやデータを記憶する。不揮発メモリ212は、例えばROMやHDDなどで構成され得る。画像処理部213は、例えばASICやDSPのような回路で構成され、データを高速に処理する。揮発メモリ214は、CPU211が処理するデータやCPU211が実行するプログラムなどを展開する作業メモリとして機能する。揮発メモリ214は、例えばRAMなどで構成され得る。センサ入力部215は、CPU211の制御の下、センサ106の制御を行うとともに、センサ106との間で情報の送受信(センサ106からの出力の受信等)を行う機能も有する。外部I/F部216は、外部装置や記憶メディア(ICカード、CD、DVD等)とのI/F(バス、イーサネット(登録商標)、電話回線、無線等)である。
図7は、情報処理装置200の機能構成例を示すブロック図である。図7に示すように、情報処理装置200は、検知部220と、算出部225と、判定部245と、推定部250とを有する。
検知部220は、画像が出力される画像出力面(投影領域102)を指し示すための指示物体の複数の部位の各々の3次元位置を検知する。より具体的には、検知部220は、画像出力面の手前の空間内に存在する指示物体の複数の部位の各々の3次元位置を検知する。さらに言えば、検知部220は、画像出力面の法線方向において30cm以内の空間内に存在する指示物体の複数の部位の各々の3次元位置を検知する。
本実施形態では、検知部220は、センサ106からの出力に基づいて、対象空間内に存在するユーザの手201の複数の部位の各々の3次元位置を検知する。この例では、検知部220は、センサ106と投影領域102との3次元位置関係を予め把握しているので、センサ106により測定された複数の測定点の各々の3次元距離から、各測定の3次元位置を検知することができる。
算出部225は、検知部220により検知された指示物体の複数の部位の各々の3次元位置に基づいて、指示物体が指し示す方向と、画像出力面との交点を算出する。より具体的には、以下のとおりである。図7に示すように、本実施形態では、算出部225は、第1算出部230と第2算出部240とを含む。第1算出部230は、検知部220により検知された指示物体の複数の部位の各々の3次元位置に基づいて、指示物体が指し示す方向を示す仮想線を算出する。本実施形態では、第1算出部230は、検知部220により検知されたユーザの手201の複数の部位の各々の3次元位置に基づいて、手201が指し示す方向を示す回帰直線を算出する。
第2算出部240は、画像出力面のうち仮想線と交わる点(座標値)を示す交点を算出する。本実施形態では、第2算出部240は、投影領域102と、第1算出部230により算出された回帰直線との交点を算出する。
判定部245は、算出部225により算出された交点が、画像出力面において所定の範囲内であるか否かを判定する。推定部250は、判定部245による判定に基づいて、画像出力面のうち指示物体により指し示された位置を推定する。より具体的には、以下のとおりである。推定部250は、判定部245によって、算出部225(第2算出部240)により算出された交点が、所定の範囲内であると判定された場合は、画像出力面のうち、指示物体の複数の部位の何れか1つの部位との距離が最短となる位置の座標を、指示物体により指し示された位置として推定する。より具体的には、推定部250は、判定部245によって、上記交点が、所定の範囲内であると判定された場合は、検知部220により3次元位置が検知された複数の部位のうち、画像出力面の手前の空間における仮想の操作面を画像出力面側に通過した何れか1つの部位との距離が最短となる画像出力面の位置の座標を、指示物体により指し示された位置として推定する。さらに言えば、推定部250は、判定部245によって、上記交点が、所定の範囲内の座標である場合は、検知部220により3次元位置が検知された複数の部位のうち、画像出力面の手前の空間における仮想の操作面を画像出力面側に通過するとともに、画像出力面に最も近い部位との距離が最短となる画像出力面の位置の座標を、指示物体により指し示された位置として推定する。
一方、推定部250は、判定部245によって、算出部225(第2算出部240)により算出された交点が、所定の範囲外であると判定された場合は、その交点を、指示物体により指し示された位置として推定する。本実施形態では、画像出力面は投影領域102であり、指示物体はユーザの手201であるが、これに限られるものではない。なお、上述の所定の範囲とは、画像出力面においてユーザの手201が届く範囲として設定された範囲を指す。
本実施形態では、上述の検知部220、算出部225(第1算出部230、第2算出部240)、判定部245、および、推定部250の各々の機能は、CPU211が不揮発メモリ212等に格納されたプログラムを実行することにより実現されるが、これに限らず、例えば上述の検知部220、算出部225(第1算出部230、第2算出部240)、判定部245、および、推定部250の各々の機能のうちの少なくとも一部が専用のハードウェア回路(例えば画像処理部213)により実現されてもよい。
図8は、情報処理装置200による処理の一例を示すフローチャートである。図8に示すように、まず検知部220は、センサ106からの出力を取得する(ステップS1)。次に、検知部220は、センサ106により3次元距離が測定された測定点の数(手201の部位に対応する測定点の数)が所定数以上であるか否かを判断する(ステップS2)。図2に例示した構成であれば、対象空間内にユーザの手201が存在しなくても、床の3次元距離を測定した測定点が多数得られるが、床の位置は自明なので、測定点が手201の部位なのか床なのかは判別可能である。
ステップS2において、センサ106により3次元距離が測定された測定点の数が所定数以上であると判断した場合(ステップS2:YES)、検知部220は、ユーザの手201の複数の部位と1対1に対応する複数の測定点の各々の3次元位置を示す情報を、第1算出部230へ出力する。そして、第1算出部230は、各測定点の3次元位置から、ユーザの手201が指し示す方向を示す回帰直線を算出する(ステップS3)。
次に、第2算出部240は、投影領域102と、ステップS3で算出された回帰直線との交点を算出する(ステップS4)。次に、判断部245は、ステップS4で算出された交点は、所定の範囲内であるか否かを判断する(ステップS5)。
ステップS5において、ステップS4で算出された交点は、所定の範囲内であると判断した場合(ステップS5:YES)、推定部250は、検知部220により3次元位置が検知された複数の測定点の中から、投影領域102に最も近い測定点(投影領域102に最近傍の測定点)を選ぶ(ステップS6)。次に、推定部250は、ステップS6で選んだ測定点は、仮想操作面112よりも投影領域102側に位置するか否かを判断する(ステップS7)。ステップS6で選んだ測定点は、仮想操作面112よりも投影領域102側に位置すると判断した場合(ステップS7:YES)、推定部250は、ステップS6で選んだ測定点からZ方向(投影領域102の法線方向)に伸びる垂直線を算出する(ステップS8)。次に、推定部250は、投影領域と、ステップS8で算出した垂直線との交点を算出する(ステップS9)。次に、推定部250は、ステップS9で算出した交点を、ユーザの手201により指し示された位置として推定する(ステップS10)。
一方、上述のステップS5において、ステップS4で算出された交点は、所定の範囲外であると判断した場合(ステップS5:NO)、推定部250は、ステップS4で算出した交点を、ユーザの手201により指し示された位置として推定する(ステップS11)。
以上に説明したように、本実施形態では、投影領域102と、ユーザの手201が指し示す方向との交点が、ユーザの手201が届く範囲として予め設定された所定の範囲内である場合は、投影領域102のうち、ユーザの手201の複数の部位のうちの何れか1つの部位(本実施形態では、ユーザの手201の複数の部位のうち、仮想操作面112を通過するとともに投影領域102に最も近い部位)との距離が最短となる位置の座標を、ユーザの手201により指し示された位置として推定する。一方、上記交点が、所定の範囲外である場合は、その交点を、ユーザの手201により指し示された位置として推定する。これにより、ユーザの手201などの指示物体によって投影領域102上の座標を指定する操作の精度を高めることができる。
(第2実施形態)
次に、第2実施形態について説明する。第2実施形態では、前述の所定の範囲を可変に決定する点で上述の第1実施形態と相違する。以下、具体的に説明する。上述の第1実施形態と共通する要素については、同一の符号を付すなどして、適宜に説明を省略する。
図9は、第2実施形態に係る情報処理装置300の機能構成例を示すブロック図である。図9に示すように、情報処理装置300は、指示物体の3次元位置に基づいて、所定の範囲を可変に決定する第1決定部260をさらに有する点で第1実施形態と相違する。第1決定部260による所定の範囲の決定処理(以下、「キャリブレーション処理」と呼ぶ場合がある)は、図8の処理が行われる前に実行される。本実施形態では、キャリブレーション処理を開始するときに、情報処理装置300は、予め定められた位置から、投影領域102に向けて手201を水平に差し出すことを促す情報をユーザに対して報知する。例えば報知画像を出力する形態であってもよいし、報知音声を出力する形態であってもよい。
図9に示すように、第1決定部260は、取得部261と、解析部262と、設定部263とを含む。取得部261は、投影領域102に向けて水平に差し出されたユーザの手201の複数の部位の各々の3次元位置を示す情報を、検知部220に対して要求し、その要求に対する応答として、ユーザの手201の複数の部位の各々の3次元位置を示す情報を、検知部220から取得する。
解析部262は、取得部261により取得された、ユーザの手201の複数の部位の各々の3次元位置を示す情報を解析して、ユーザの手201が指し示す方向を示す回帰直線を算出し、算出した回帰直線から、ユーザが水平に手201を差し出したか否かを判断する。例えば解析部262は、算出した回帰直線と、予め用意された、投影領域102の法線方向を示す基準線とのなす角度が閾値以下であるか否かを判定し、算出した回帰直線と基準線とのなす角度が閾値以下の場合は、ユーザが水平に手201を差し出したと判断することもできる。
そして、解析部262は、ユーザが水平に手201を差し出したと判断した場合は、投影領域102と、算出した回帰直線との交点を算出する。設定部263は、解析部262により算出された交点から、投影領域102のうちユーザの手201が届く範囲を推定し、その推定した範囲を、所定の範囲として設定する。
ここで、投影領域102と、水平に差し出されたユーザの手201が指し示す方向を示す回帰直線との交点は、ユーザの体格(身長等)に応じて異なる位置を示す。本実施形態によれば、所定の範囲は、ユーザの体格に応じて可変に決定されるので、指示物体によって投影領域102上の座標を指定する操作の精度を一層高めることができる。
(第2実施形態の変形例1)
例えばキャリブレーション処理を行うときに、情報処理装置300は、投影領域102上の所定位置(例えば中央付近)に特定画像を表示させ、その特定画像に向けて手201を差し出すことを促す情報をユーザに対して報知することもできる。
この場合、取得部261は、投影領域102上の所定位置に表示された特定画像に向けて差し出されたユーザの手201の複数の部位の各々の3次元位置を示す情報を、検知部220に対して要求し、その要求に対する応答として、ユーザの手201の複数の部位の各々の3次元位置を示す情報を、検知部220から取得することもできる。
そして、解析部262は、取得部261により取得された、ユーザの手201の複数の部位の各々の3次元位置を示す情報を解析して、ユーザの手201が指し示す方向を示す回帰直線を算出し、算出した回帰直線と、投影領域102の法線方向を示す基準線とのなす角度を算出することもできる。この角度は、ユーザの体格に応じて異なる値を示し、例えば身長の低いユーザに対応する角度は、身長の高いユーザに対応する角度に比べて大きい値を示す。
そして、設定部263は、解析部262により算出された角度から、ユーザの手201の届く範囲を推定し、その推定した範囲を、所定の範囲として設定する。
本変形例でも、上述の所定の範囲は、ユーザの体格に応じて可変に決定されるので、指示物体によって投影領域102上の座標を指定する操作の精度を一層高めることができる。
(第2実施形態の変形例2)
例えば解析部262は、取得部261により取得された、ユーザの手201の複数の部位の各々の3次元位置を示す情報を解析して、ユーザの身長を推定することもできる。この場合、設定部263は、解析部262により推定されたユーザの身長から、投影領域102のうちユーザの手201が届く範囲を推定し、その推定した範囲を、所定の範囲として設定する。
なお、本変形例においては、キャリブレーション処理を開始するときに、情報処理装置300は、予め定められた位置から、投影領域102に向けて手201を水平に差し出すことを促す情報をユーザに対して報知してもよいし、投影領域102上の所定位置に特定画像を表示させ、その特定画像に向けて手201を差し出すことを促す情報をユーザに対して報知してもよい。
(第3実施形態)
次に、第3実施形態について説明する。第3実施形態では、ユーザの体格を示す体格情報の入力を受け付け、その受け付けた入力に基づいて、前述の所定の範囲を可変に決定する点で上述の各実施形態と相違する。以下、具体的に説明する。上述の各実施形態と共通する要素については、同一の符号を付すなどして、適宜に説明を省略する。
図10は、第3実施形態に係る情報処理装置310の機能構成例を示すブロック図である。図10に示すように、情報処理装置310は、体格情報の入力を受け付け、その受け付けた入力に基づいて、所定の範囲を可変に決定する第2決定部270を有する点で上述の各実施形態と相違する。この例では、体格情報は、ユーザの身長を示す情報であるが、これに限られるものではない。第2決定部270による所定の範囲の決定処理(キャリブレーション処理)は、図8の処理が行われる前に実行される。本実施形態では、キャリブレーション処理を開始するときに、情報処理装置310は、身長(体格情報の一例)の入力を促す情報をユーザに対して報知する。例えば報知画像を出力する形態であってもよいし、報知音声を出力する形態であってもよい。
図10に示すように、第2決定部270は、受付部271と、設定部272とを含む。受付部271は、ユーザからの身長の入力を受け付ける。設定部272は、受付部271で受け付けた入力(身長を示す情報)から、投影領域102のうちユーザの手201が届く範囲を推定し、その推定した範囲を、所定の範囲として設定する。
本実施形態でも、上述の所定の範囲は、ユーザの体格に応じて可変に決定されるので、指示物体によって投影領域102上の座標を指定する操作の精度を一層高めることができる。
以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。本発明は、上述の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。また、各実施形態および変形例は任意に組み合わせることが可能である。
上述の各実施形態に係る情報処理装置(200、300、310)は、設置容易性を考慮すると表示装置100と一体型であることが好ましい。例えば、この一体型の装置は、投影対象物に画像を投影する画像投影装置として捉えることもできる。つまり、本発明は、画像投影装置に対しても適用可能である。本発明に係る画像投影装置は、投影領域の所定位置を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知部と、検知部によって検知された指示物体の複数の部位の各々の3次元位置に基づいて、指示物体が指し示す方向と、画像出力面との交点を算出する算出部と、交点が、画像出力面において所定の範囲内であるか判定する判定部と、判定部による判定に基づいて、画像出力面のうち指示物体により指し示された位置を推定する推定部と、を備える形態であればよい。
また、表示装置100は、例えば液晶型のディスプレイ装置であってもよい。また、画像が出力される画像出力面も、その法線方向が鉛直方向と一致する平置き型の態様であってもよい。3次元距離を測定するセンサ106も、光学式に限らず、超音波式であってもよい。センサ106の位置も、画像出力面の上側でなく下側であってもよい。
上述の情報処理装置(200、300、310)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、上述の情報処理装置(200、300、310)で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の情報処理装置(200、300、310)で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
1 システム
100 表示装置
102 投影領域
106 センサ
112 仮想操作面
200 情報処理装置
201 手
211 CPU
212 不揮発メモリ
213 画像処理部
214 揮発メモリ
215 センサ入力部
216 外部I/F部
220 検知部
225 算出部
230 第1算出部
240 第2算出部
245 判定部
250 推定部
260 第1決定部
261 取得部
262 解析部
263 設定部
270 第2決定部
271 受付部
272 設定部
300 情報処理装置
310 情報処理装置
特開2009−116583号公報

Claims (14)

  1. 画像が出力される画像出力面を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知部と、
    前記検知部によって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出部と、
    前記交点が、前記画像出力面において所定の範囲内であるか判定する判定部と、
    前記判定部による判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定部と、を備える、
    ことを特徴とする情報処理装置。
  2. 前記推定部は、前記判定部によって、前記交点が、前記所定の範囲内であると判定された場合は、前記画像出力面のうち、前記指示物体の複数の部位の何れか1つの部位との距離が最短となる位置の座標を、前記指示物体により指し示された位置として推定する一方、前記交点が、前記所定の範囲外であると判定された場合は、前記交点を、前記指示物体により指し示された位置として推定する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記検知部は、前記画像出力面の手前の空間内に存在する前記指示物体の複数の部位の各々の3次元位置を検知する、
    ことを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記検知部は、前記画像出力面の法線方向において30cm以内の空間内に存在する前記指示物体の複数の部位の各々の3次元位置を検知する、
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記推定部は、前記交点が前記所定の範囲内である場合は、前記指示物体の複数の部位のうち、前記画像出力面の手前の空間における仮想の操作面を前記画像出力面側に通過した何れか1つの部位との距離が最短となる前記画像出力面の位置の座標を、前記指示物体により指し示された位置として推定する、
    ことを特徴とする請求項1乃至4のうちの何れか1項に記載の情報処理装置。
  6. 前記推定部は、前記指示物体の複数の部位のうち前記画像出力面に最も近い部位との距離が最短となる前記画像出力面の位置の座標を、前記指示物体により指し示された位置として推定する、
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記指示物体の3次元位置に基づいて、前記所定の範囲を可変に決定する第1決定部をさらに備える、
    ことを特徴とする請求項1乃至6のうちの何れか1項に記載の情報処理装置。
  8. ユーザの体格を示す体格情報の入力を受け付け、その受け付けた前記体格情報に基づいて、前記所定の範囲を可変に決定する第2決定部をさらに備える、
    ことを特徴とする請求項1乃至6のうちの何れか1項に記載の情報処理装置。
  9. 前記算出部は、
    前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向を示す仮想線を算出する第1算出部と、
    前記画像出力面のうち、前記仮想線と交わる点を示す前記交点を算出する第2算出部と、を含む、
    ことを特徴とする請求項1乃至8のうちの何れか1項に記載の情報処理装置。
  10. 前記所定の範囲は、前記画像出力面においてユーザの手が届く範囲として設定された範囲である、
    ことを特徴とする請求項1乃至9のうちの何れか1項に記載の情報処理装置。
  11. 画像を表示する表示装置と、前記表示装置と接続される情報処理装置とを備えるシステムであって、
    画像が出力される画像出力面の所定位置を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知部と、
    前記検知部によって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出部と、
    前記交点が、前記画像出力面において所定の範囲内であるか判定する判定部と、
    前記判定部による判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定部と、を備える、
    ことを特徴とするシステム。
  12. 投影対象物に画像を投影する画像投影装置であって、
    前記投影対象物のうち画像が投影される領域を示す投影領域の所定位置を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知部と、
    前記検知部によって検知された前記複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出部と、
    前記交点が、前記画像出力面において所定の範囲内であるか判定する判定部と、
    前記判定部による判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定部と、を備える、
    ことを特徴とする画像投影装置。
  13. 画像が出力される画像出力面を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知ステップと、
    前記検知ステップによって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出ステップと、
    前記交点が、前記画像出力面において所定の範囲内であるか判定する判定ステップと、
    前記判定ステップによる判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定ステップと、を含む、
    ことを特徴とする情報処理方法。
  14. コンピュータに、
    画像が出力される画像出力面を指し示すための指示物体の複数の部位の各々の3次元位置を検知する検知ステップと、
    前記検知ステップによって検知された前記指示物体の複数の部位の各々の3次元位置に基づいて、前記指示物体が指し示す方向と、前記画像出力面との交点を算出する算出ステップと、
    前記交点が、前記画像出力面において所定の範囲内であるか判定する判定ステップと、
    前記判定ステップによる判定に基づいて、前記画像出力面のうち前記指示物体により指し示された位置を推定する推定ステップと、を実行させるためのプログラム。
JP2013009243A 2013-01-22 2013-01-22 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム Active JP6070211B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013009243A JP6070211B2 (ja) 2013-01-22 2013-01-22 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
US14/153,505 US9471983B2 (en) 2013-01-22 2014-01-13 Information processing device, system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013009243A JP6070211B2 (ja) 2013-01-22 2013-01-22 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2014142695A true JP2014142695A (ja) 2014-08-07
JP6070211B2 JP6070211B2 (ja) 2017-02-01

Family

ID=51207706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013009243A Active JP6070211B2 (ja) 2013-01-22 2013-01-22 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US9471983B2 (ja)
JP (1) JP6070211B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785244B2 (en) 2013-03-05 2017-10-10 Ricoh Company, Ltd. Image projection apparatus, system, and image projection method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048541A (ja) 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム
JP6586891B2 (ja) * 2016-01-13 2019-10-09 セイコーエプソン株式会社 プロジェクター及びプロジェクターの制御方法
EP3246808A1 (de) * 2016-05-19 2017-11-22 Siemens Aktiengesellschaft Bedien- und beobachtungsgerät und verfahren zum betrieb
JP6727515B2 (ja) * 2018-07-31 2020-07-22 株式会社コナミデジタルエンタテインメント ゲームシステム、及びそれに用いるコンピュータプログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10326148A (ja) * 1997-03-21 1998-12-08 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2000066610A (ja) * 1998-08-25 2000-03-03 Fujitsu General Ltd 対話型表示装置
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP2009116583A (ja) * 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2009530726A (ja) * 2006-03-22 2009-08-27 フオルクスワーゲン・アクチエンゲゼルシヤフト 対話型操作装置および対話型操作装置を動作させるための方法
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2011028573A (ja) * 2009-07-27 2011-02-10 Panasonic Electric Works Co Ltd 操作装置
JP2011070368A (ja) * 2009-09-25 2011-04-07 Hitachi Solutions Ltd プレゼンテーションシステム
WO2011154873A1 (en) * 2010-06-10 2011-12-15 Koninklijke Philips Electronics N.V. Method and apparatus for presenting an option
WO2012039467A1 (ja) * 2010-09-22 2012-03-29 パナソニック株式会社 運動支援システム

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6364068A (ja) 1986-09-05 1988-03-22 Ricoh Co Ltd 静電記録装置
JP2771822B2 (ja) 1988-10-21 1998-07-02 株式会社リコー 光照射画像形成装置
US4918489A (en) 1989-05-24 1990-04-17 Ricoh Co., Ltd. Method of supplying recording sheets in image forming apparatus
US5019913A (en) 1989-10-02 1991-05-28 Ricoh Company, Ltd. Recording apparatus having control data selectively designated in memory which corresponds to one of multiple optical scanning systems
JP3348221B2 (ja) 1989-10-31 2002-11-20 株式会社リコー 画像記録装置
JP3114813B2 (ja) 1991-02-27 2000-12-04 日本電信電話株式会社 情報入力方法
JP3201796B2 (ja) 1991-10-31 2001-08-27 株式会社リコー 画像形成装置
US5565907A (en) 1993-04-20 1996-10-15 Ricoh Company, Ltd. Image forming apparatus capable of producing high quality halftone images
DE4344050C1 (de) * 1993-12-23 1995-03-09 Henry Rudolph Eingabeverfahren und Eingabevorrichtung für Computerterminals zum Schutz vor Ausspähung und zur Gewährleistung der Intimität eines Nutzers
JPH09261429A (ja) 1996-03-25 1997-10-03 Ricoh Co Ltd 画像形成装置
US6459816B2 (en) 1997-05-08 2002-10-01 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US20030012445A1 (en) 1997-05-08 2003-01-16 Nekka Matsuura Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6704455B1 (en) 1997-05-29 2004-03-09 Ricoh Company, Ltd. Image processing system and image processing method
JP3964042B2 (ja) 1998-04-08 2007-08-22 株式会社リコー カラー画像処理装置およびカラー画像処理方法
JP3682709B2 (ja) 1998-06-12 2005-08-10 株式会社リコー 画像処理装置
JP3615399B2 (ja) 1998-09-22 2005-02-02 株式会社リコー 画像処理装置および画像処理方法
JP3883028B2 (ja) 1998-12-14 2007-02-21 株式会社リコー 画像符号化装置及び方法
US6788811B1 (en) 1999-05-10 2004-09-07 Ricoh Company, Ltd. Coding apparatus, decoding apparatus, coding method, decoding method, amd computer-readable recording medium for executing the methods
JP3857509B2 (ja) 1999-09-20 2006-12-13 株式会社リコー 画像処理装置、画像処理システム、画像符号化方法、及び記憶媒体
JP3640156B2 (ja) * 2000-02-22 2005-04-20 セイコーエプソン株式会社 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7221483B2 (en) 2000-09-05 2007-05-22 Ricoh Company, Ltd. Image encoding method and apparatus, image decoding method and apparatus, image processing apparatus, image formation apparatus, and computer-executable programs
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7277585B2 (en) 2001-05-25 2007-10-02 Ricoh Company, Ltd. Image encoding method, image encoding apparatus and storage medium
JP2003087547A (ja) 2001-09-12 2003-03-20 Ricoh Co Ltd 画像処理装置
JP4061143B2 (ja) 2002-07-11 2008-03-12 株式会社リコー 画像処理装置および画像処理方法
JP3952459B2 (ja) 2002-11-15 2007-08-01 株式会社リコー 画像処理装置、プログラム、記憶媒体及び画像処理方法
JP3950791B2 (ja) 2002-12-10 2007-08-01 株式会社リコー 画像処理装置及び画像データ処理方法
JP2004221950A (ja) 2003-01-15 2004-08-05 Ricoh Co Ltd 画像処理装置、プログラムおよび記憶媒体
US20060097990A1 (en) * 2003-02-20 2006-05-11 Shimane Prefecture Guard-equipped image display device
JP4001284B2 (ja) 2003-03-11 2007-10-31 株式会社リコー 画像処理装置および画像処理方法
KR101134027B1 (ko) * 2004-06-29 2012-04-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 디스플레이 디바이스의 오염을 방지하는 방법 및 디바이스
US9569093B2 (en) * 2005-05-18 2017-02-14 Power2B, Inc. Displays and information input devices
JP4860388B2 (ja) 2005-09-27 2012-01-25 株式会社リコー 画像処理装置、画像処理方法及び該方法を実行させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体
US8149451B2 (en) 2007-07-18 2012-04-03 Ricoh Company, Ltd. Information processing device, information embedding method, and program
JP5157329B2 (ja) * 2007-08-31 2013-03-06 株式会社セガ ゲーム装置
JP5347784B2 (ja) 2008-08-19 2013-11-20 株式会社リコー 画像処理装置、付加情報提供方法、プログラム、記憶媒体
US8295652B1 (en) * 2008-10-08 2012-10-23 Devin Newstead Combined portable computer with adjustable display screen and associated method
JP5413061B2 (ja) 2009-08-31 2014-02-12 株式会社リコー 画像形成システム及び画像形成方法
JP4783456B2 (ja) 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
WO2011104709A2 (en) * 2010-02-23 2011-09-01 Rami Parham A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
EP2609491A1 (en) * 2010-08-27 2013-07-03 BrainLAB AG Multiple-layer pointing position determination on a medical display
US20120056989A1 (en) * 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program
US20120236344A1 (en) 2010-09-16 2012-09-20 Ricoh Company, Ltd. Image processing system and image processing apparatus
US8717393B2 (en) * 2010-11-03 2014-05-06 Blackberry Limited System and method for controlling a display of a mobile device
US9201590B2 (en) * 2011-03-16 2015-12-01 Lg Electronics Inc. Method and electronic device for gesture-based key input
US9372540B2 (en) * 2011-04-19 2016-06-21 Lg Electronics Inc. Method and electronic device for gesture recognition
WO2013071285A1 (en) * 2011-11-11 2013-05-16 Rutgers, The State University Of New Jersey Methods for the diagnosis and treatment of neurological disorders
US20130135218A1 (en) * 2011-11-30 2013-05-30 Arbitron Inc. Tactile and gestational identification and linking to media consumption
US9501152B2 (en) * 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8903746B2 (en) * 2012-03-22 2014-12-02 Audrey Kudritskiy System and method for viewing, modifying, storing, and running artificial neural network components
JP6135239B2 (ja) * 2012-05-18 2017-05-31 株式会社リコー 画像処理装置、画像処理プログラム、画像処理方法
US9041622B2 (en) * 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
TWI471756B (zh) * 2012-11-16 2015-02-01 Quanta Comp Inc 虛擬觸控方法
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
JP6075122B2 (ja) * 2013-03-05 2017-02-08 株式会社リコー システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP2016048541A (ja) * 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010043719A1 (en) * 1997-03-21 2001-11-22 Kenichi Harakawa Hand pointing device
JPH10326148A (ja) * 1997-03-21 1998-12-08 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2000066610A (ja) * 1998-08-25 2000-03-03 Fujitsu General Ltd 対話型表示装置
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP2009530726A (ja) * 2006-03-22 2009-08-27 フオルクスワーゲン・アクチエンゲゼルシヤフト 対話型操作装置および対話型操作装置を動作させるための方法
US20090327977A1 (en) * 2006-03-22 2009-12-31 Bachfischer Katharina Interactive control device and method for operating the interactive control device
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2009116583A (ja) * 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
US20110141009A1 (en) * 2008-06-03 2011-06-16 Shimane Prefectural Government Image recognition apparatus, and operation determination method and program therefor
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
US20110285657A1 (en) * 2009-03-31 2011-11-24 Mitsuo Shimotani Display input device
JP2011028573A (ja) * 2009-07-27 2011-02-10 Panasonic Electric Works Co Ltd 操作装置
JP2011070368A (ja) * 2009-09-25 2011-04-07 Hitachi Solutions Ltd プレゼンテーションシステム
WO2011154873A1 (en) * 2010-06-10 2011-12-15 Koninklijke Philips Electronics N.V. Method and apparatus for presenting an option
JP2013533999A (ja) * 2010-06-10 2013-08-29 コーニンクレッカ フィリップス エヌ ヴェ オプションを提示するための方法及び装置
WO2012039467A1 (ja) * 2010-09-22 2012-03-29 パナソニック株式会社 運動支援システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785244B2 (en) 2013-03-05 2017-10-10 Ricoh Company, Ltd. Image projection apparatus, system, and image projection method

Also Published As

Publication number Publication date
JP6070211B2 (ja) 2017-02-01
US20140205151A1 (en) 2014-07-24
US9471983B2 (en) 2016-10-18

Similar Documents

Publication Publication Date Title
US9429417B2 (en) Touch and motion detection using surface map, object shadow and a single camera
US10257423B2 (en) Method and system for determining proper positioning of an object
JP6070211B2 (ja) 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP2013235373A5 (ja)
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
TW201342162A (zh) 具交互作用補償之觸控判定
US10379680B2 (en) Displaying an object indicator
JP2014170511A (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP6127564B2 (ja) タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
JP2015064724A (ja) 情報処理装置
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
US20150294439A1 (en) Information processing device, image projection device and image processing method
CN106919247B (zh) 虚拟影像展示方法及装置
US20160062406A1 (en) Information processing device, image projection apparatus, and information processing method
JP6652004B2 (ja) 情報処理装置、インタラクション方法、およびインタラクションプログラム
KR101535738B1 (ko) 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법
JP2018049498A (ja) 画像処理装置、操作検出方法、コンピュータプログラム、及び記憶媒体
JP6898021B2 (ja) 操作入力装置、操作入力方法、及びプログラム
JP2016110492A (ja) 光学式位置情報検出装置、プログラム、対象の紐付け方法
JP2016024518A (ja) 座標検出システム、座標検出方法、情報処理装置及びプログラム
JP6248723B2 (ja) 座標検知システム、座標検知方法、情報処理装置及びプログラム
KR20190049349A (ko) 프로젝션 영상에서 사용자의 터치를 인식하는 방법 및 이러한 방법을 수행하는 장치
KR20110064337A (ko) 전자기기에서 터치 위치 디스플레이 방법 및 장치
WO2021241038A1 (ja) 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
JP2017041187A (ja) 制御方法、プログラム及び制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R151 Written notification of patent or utility model registration

Ref document number: 6070211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151