JP2019164440A - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2019164440A
JP2019164440A JP2018050838A JP2018050838A JP2019164440A JP 2019164440 A JP2019164440 A JP 2019164440A JP 2018050838 A JP2018050838 A JP 2018050838A JP 2018050838 A JP2018050838 A JP 2018050838A JP 2019164440 A JP2019164440 A JP 2019164440A
Authority
JP
Japan
Prior art keywords
coordinates
pointer
detection target
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018050838A
Other languages
English (en)
Inventor
立磨 広川
Tatsuma Hirokawa
立磨 広川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018050838A priority Critical patent/JP2019164440A/ja
Publication of JP2019164440A publication Critical patent/JP2019164440A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】通常のカメラ1台でジェスチャ操作によるポインティングを行うこと。【解決手段】情報処理装置は、カメラによって操作者の画像を取得する画像取得部と、取得された前記画像からジェスチャ操作を示す検出対象を検出する検出部と、検出された前記検出対象からジェスチャ操作によるポインタの座標を計算する計算部と、前記検出対象の可動範囲に基づく第1の重みと、前記カメラと前記操作者との距離に基づく第2の重みとに基づいて、前記ポインタの座標を補正する補正部と、補正された前記ポインタの座標に対応するポインタを表示する表示部とを有する。【選択図】図3

Description

本発明は、情報処理装置及び情報処理方法に関する。
ユーザのジェスチャ操作を検出し、検出されたユーザのジェスチャ操作に応じて、ユーザにより操作されるポインタの操作方向及び操作量を算出し、算出した操作方向及び操作量に応じてポインタの表示形態を変化させて、プロジェクタに表示させる技術が知られている(例えば特許文献1)。
しかしながら、従来のジェスチャポインティング技術では、ジェスチャを認識するためにステレオカメラ又は赤外線カメラを使用する必要があった。ステレオカメラは、2台以上のカメラを使用して複数の異なる方向から同時に対象物を撮影することで、両眼視差の情報に基づいて立体的な空間把握を行う。また、赤外線カメラは赤外線センサを使用してカメラと対象物との距離を測定して立体的な空間把握を行う。
ステレオカメラでは、カメラを2台以上使用する必要があり、赤外線カメラでは赤外線センサを搭載する必要があるため、これらのデバイスを搭載することはコスト増加を招いていた。また、スマートフォンにはステレオカメラ又は赤外線センサは通常搭載されていないため、ジェスチャポインティング技術を使用することができなかった。
本発明は、上記の点に鑑みてなされたものであって、通常のカメラ1台でジェスチャ操作によるポインティングを行うことを目的とする。
そこで上記課題を解決するため、情報処理装置は、カメラによって操作者の画像を取得する画像取得部と、取得された前記画像からジェスチャ操作を示す検出対象を検出する検出部と、検出された前記検出対象からジェスチャ操作によるポインタの座標を計算する計算部と、前記検出対象の可動範囲に基づく第1の重みと、前記カメラと前記操作者との距離に基づく第2の重みとに基づいて、前記ポインタの座標を補正する補正部と、補正された前記ポインタの座標に対応するポインタを表示する表示部とを有する。
通常のカメラ1台でジェスチャ操作によるポインティングを行うことができる。
本発明の実施の形態におけるポインティング機能を説明するための図である。 本発明の実施の形態における情報処理装置1のハードウェア構成例を示す図である。 本発明の実施の形態における情報処理装置1の機能構成例を示す図である。 本発明の実施の形態におけるジェスチャによるポインティング機能を説明するための図である。 本発明の実施の形態における検出対象を動かした場合のポインタの動きを説明するための図である。 本発明の実施の形態における検出対象が複数ある場合のポインタを説明するための図である。 本発明の実施の形態における検出対象を顔とした場合を説明するための図である。 本発明の実施の形態における検出対象の可動範囲の補正を説明するための図(1)である。 本発明の実施の形態における検出対象の可動範囲の補正を説明するための図(2)である。 本発明の実施の形態における操作者距離の補正を説明するための図(1)である。 本発明の実施の形態における操作者距離の補正を説明するための図(2)である。 本発明の実施の形態におけるポインタを表示する手順の例を示すフローチャートである。 本発明の実施の形態における検出対象の中心座標の算出例を示す図である。 本発明の実施の形態における検出対象の可動範囲の補正に係る算出例を示す図である。 本発明の実施の形態における操作者距離の補正に係る算出例を示す図である。 本発明の実施の形態における表示部画像座標系変換に係る算出例を示す図である。
以下、図面に基づいて本発明の実施の形態を説明する。
図1は、本発明の実施の形態におけるポインティング機能を説明するための図である。図1に示されるように、本発明の実施の形態におけるポインティング機能は、表示部及びカメラを有する。カメラで検出された操作者のジェスチャ操作に基づいて、表示部にポインタを表示する。表示部は、液晶画面のような表示デバイスでもよいし、プロジェクタのような投影する表示デバイスでもよい。
ジェスチャ操作の検出対象は、単純に操作者の手又は顔としてもよいし、例えば手であっても手のひらを広げた状態のみ、顔でも片目を閉じた状態のみとしてもよい。すなわち、検出対象の操作者の特定の状態のみを検出の条件にすることで、操作者の意図しない動作がジェスチャとして検出されることを防ぐことができる。
図2は、本発明の実施の形態における情報処理装置1のハードウェア構成例を示す図である。図2に示されるように、情報処理装置1は、CPU101(Central Processing Unit)、RAM102(Random Access Memory)、ROM103(Read Only Memory)及びストレージ104を有し、カメラ105及びディスプレイ106と接続されている。カメラ105及びディスプレイ106は、情報処理装置1に組み込まれていてもよいし、外部装置であってもよい。
CPU101は、プロセッサ及び周辺回路から構成され、情報処理装置1全体を制御する。ROM103は、CPU101で実行されるプログラム及び使用されるデータを格納する不揮発性の記憶装置である。RAM102は、CPU101で実行されるプログラムが制御を行うときのワークエリアとして使用される記憶装置である。ストレージ104は、CPU101で実行されるプログラム及び使用されるデータを格納する補助記憶装置である。ストレージ104は、例えば、ハードディスクドライブであってもよいし、フラッシュメモリ等で構成される補助記憶装置であってもよい。
カメラ105は、操作者を撮影して画像又は動画を取得して、情報処理装置1に出力する。ディスプレイ106は、情報処理装置1から出力される画像又は動画を液晶画面等に表示する。
図3は、本発明の実施の形態における情報処理装置1の機能構成例を示す図である。図3に示されるように、情報処理装置1は、画像取得部11、画像検出部12、座標演算部13、表示制御部14、情報読み出し部15及び情報記憶部16を有する。
画像取得部11は、カメラ105で撮影された画像を取得し、画像検出部12に送信する。画像検出部12は、取得された画像から、ジェスチャ操作の検出対象である手又は顔等を検出する。座標演算部13は、検出された検出対象の座標に対して、検出対象可動範囲補正及び操作者距離補正を行って、表示するポインタの座標を補正して算出する。補正の詳細は後述する。
情報記憶部16は、ディスプレイ106に表示を行うプレゼンテーションのデータ等が記憶されている。情報読み出し部15は、当該データを読み出して表示制御部14に出力する。表示制御部14は、座標演算部13によって算出されたポインタの座標と、情報読み出し部15によって読み出された画像情報とに基づいて、ディスプレイ106に表示を行う。
図4は、本発明の実施の形態におけるジェスチャによるポインティング機能を説明するための図である。図4Aから図4Dに示される処理のフローで、ジェスチャ機能によるポインティング機能を実現することができる。さらに後述する検出対象可能範囲補正及び操作者距離補正により、操作性を向上させることができる。図4に示される表示部は、表示制御部14によりディスプレイ106に表示される画面である。また図4に示されるカメラは、画像取得部11に画像を出力するカメラ105である。
図4Aに示されるように、操作者は、表示部に対面してジェスチャ操作を行う。カメラは、ジェスチャ操作を撮影する。
図4Bに示されるように、情報処理装置1は、カメラで撮影された画像から、手又は顔等の検出対象を検出し、検出対象の中心座標にポインタを配置する。画像検出部12が検出を行ってもよいし、座標演算部13が中心座標を算出してもよい。
図4Cに示されるように、情報処理装置1は、ポインタを配置したポインタ画像を左右反転させる。操作者は、表示部に対面するため、左右反転させる処理が必要になる。
図4Dに示されるように、表示部にポインタ画像を表示する。
図5は、本発明の実施の形態における検出対象を動かした場合のポインタの動きを説明するための図である。図5Aから図5Dに示される処理のフローで、ジェスチャ機能によるポインタを動かすことができる。
図5Aに示されるように、操作者は、表示部に対面して右から左へ水平に手を動かすジェスチャ操作を行う。カメラは、ジェスチャ操作を撮影する。
図5Bに示されるように、情報処理装置1は、カメラで撮影された画像から、手又は顔等の検出対象の移動を検出する。
図5Cに示されるように、情報処理装置1は、検出された検出対象の移動に基づいて、ポインタを右から左へ水平に移動させる。
図5Dに示されるように、表示部に右から左へ水平に移動するポインタ画像を表示する。
図6は、本発明の実施の形態における検出対象が複数ある場合のポインタを説明するための図である。図6Aから図6Dに示される処理のフローで、検出対象が複数存在する場合のジェスチャ機能を説明する。検出対象が複数存在する場合は、例えば、操作者が複数人いる場合、一人の操作者が両手を使用して操作を行う場合が考えられる。図6に示される表示部及びカメラは図4と同様に、ディスプレイ106及びカメラ105に対応する。
図6Aに示されるように、操作者1及び操作者2は、表示部に対面してジェスチャ操作を行う。カメラは、ジェスチャ操作を撮影する。
図6Bに示されるように、情報処理装置1は、カメラで撮影された画像から、操作者1及び操作者2の検出対象を検出する。
図6Cに示されるように、情報処理装置1は、検出された検出対象に基づいて、例えば、操作者1に対応するポインタ1と操作者2に対応するポインタ2を異なる色で表示する。
図6Dに示されるように、表示部はポインタ1及びポインタ2を含む画像を表示する。ポインタ1及びポインタ2を異なる色で表示することで、操作者1又は操作者2は、自分のポインタがいずれであるか把握することができる。
図7は、本発明の実施の形態における検出対象を顔とした場合を説明するための図である。図7Aから図7Dに示される処理のフローで、スマートフォンにおけるジェスチャ機能によるポインティング機能を実現することができる。図7Aから図7Dにおける処理は、図4Aから図4Dにおける処理と同様である。
図8は、本発明の実施の形態における検出対象の可動範囲の補正を説明するための図(1)である。図8Aから図8Dに示される処理のフローで、ジェスチャ機能によるポインタの検出対象の可動範囲を補正することができる。図4で説明したように、単純に検出対象の中心座標にポインタを表示する場合、検出対象の可動範囲でポインタを表示部の端から端まで動かすことが困難な場合がある。特に、検出対象を顔とした場合、顔の可動範囲が狭いため、検出対象の可動範囲が小さくなる。そこで、情報処理装置1は、ポインタの位置を検出対象の中心から補正することで、表示部全体をポインティングできるようにして操作性を向上させる。
図8Aは、検出対象を顔とした場合の可動範囲を示す。図8Bは、検出対象が可動範囲の左端に位置する場合に撮影される画像と、補正後のポインタとを示す。図8Cに示されるように、補正なしのポインタ「×」と、補正ありのポインタ「○」の座標を算出する。図9において、検出対象の可動範囲の補正の方法を説明する。図8Dに示されるように、表示部に補正ありのポインタ「○」のポインタ画像を表示する。補正なしのポインタ「×」は、表示されなくてもよい。
図9は、本発明の実施の形態における検出対象の可動範囲の補正を説明するための図(2)である。図9において、検出点は、検出対象の中心座標に対応する。基準点は、撮影画像の中心を基準点にしてもよいし、検出対象を最初に検出した検出開始位置としてもよいし、検出対象の可動範囲の中心としてもよい。図9に示されるように、基準点と検出点とを結ぶ直線上において、基準点からの距離を、基準点と検出点間の距離を3倍にした位置をポインタの位置の座標として算出する。図9における重みの3倍は例であり、カメラ105の視野角、カメラと操作者の距離、検出対象の可動範囲に基づいて、適切な重みを算出することができる。
図10は、本発明の実施の形態における操作者距離の補正を説明するための図(1)である。図10Aから図10Dに示される処理のフローで、操作者がカメラから離れた場合のジェスチャ機能によるポインタの検出対象可動範囲を補正することができる。図8及び図9で説明したように、検出対象の可動範囲を補正した場合であっても、操作者がカメラから離れると、カメラから撮影される操作者の画像が小さくなるため、検出対象の可動範囲でポインタを表示部の端から端まで動かすことが困難な場合がある。そこで、情報処理装置1は、ポインタの位置を操作者がカメラから離れた場合に補正することで、表示部全体をポインティングできるようにして操作性を向上させる。
図10Aは、操作者がカメラから離れた場合の検出対象を顔とした場合の可動範囲を示す。図10Bは、検出対象が可動範囲の左端に位置する場合に撮影される画像と、補正後のポインタとを示す。図10Cに示されるように、検出対象の可動範囲補正のみを行い操作者距離の補正は行っていない補正なしのポインタ「×」と、さらに操作者距離の補正を行った補正ありのポインタ「○」の座標を算出する。図11において、操作者距離の補正の方法を説明する。図10Dに示されるように、表示部に補正ありのポインタ「○」のポインタ画像を表示する。補正なしのポインタ「×」は、表示されなくてもよい。
図11は、本発明の実施の形態における操作者距離の補正を説明するための図(2)である。
図8及び図9で説明した可動範囲補正後の可動範囲補正点に、重みを乗じた点をポインタ位置とする。すなわち、図11に示されるように、基準点と可動範囲補正点とを結ぶ直線上において、基準点からの距離を、基準点と可動範囲補正点間の距離に重みを乗じた位置をポインタの位置の座標として算出する。重みは、撮影画像における検出対象の大きさから求めることができる。予め基準となるカメラと操作者との距離における検出対象の大きさを保持しておき、当該大きさと撮影された検出対象の大きさとの割合の逆数が重みとなる。基準となる検出対象の大きさは、人の平均的なサイズの手又は顔等であってもよいし、操作者の検出対象の大きさに基づいてもよい。
図12は、本発明の実施の形態におけるポインタを表示する手順の例を示すフローチャートである。
ステップS1において、情報処理装置1は、カメラ105で画像を撮影する。続いて、撮影された画像に基づいて、画像検出部12は、検出対象を検出する(S2)。
ステップS3において、画像検出部12は、検出対象が存在するか否かを判定する。検出対象が存在する場合(S3のYes)、ステップS4に進み、検出対象が存在しない場合(S3のNo)、ステップS1に進む。
ステップS4において、座標演算部13は、撮影された画像に基づいて、検出対象の中心座標計算を行う。
図13は、本発明の実施の形態における検出対象の中心座標の算出例を示す図である。検出中心座標を(xDc,yDc)とすると、図13に示されるように、
xDc=xDlt+widthD/2
yDc=yDlt+heightD/2
上記式で座標演算部13は、検出中心座標(xDc,yDc)を算出する。ここで、(xDlt,yDlt)は、検出対象の左上座標である。「widthD」は、検出対象の検出幅である。「heightD」は、検出対象の検出高さである。画像中心座標(0,0)は、撮影画像の中心としてもよいし、検出対象を最初に検出した検出開始位置としてもよいし、検出対象の可動範囲の中心としてもよい。
図12に戻る。ステップS5において、座標演算部13は、図8及び図9で説明した検出対象の可動範囲の補正を行う。
図14は、本発明の実施の形態における検出対象の可動範囲の補正に係る算出例を示す図である。横方向の可動範囲補正重みをcorrectMh=widthI/widthM、縦方向の可動範囲補正重みをcorrectMv=heightI/heightM、可動範囲補正後の座標を(xM,yM)とすると、図14に示されるように、
xM=correctMh*xDc
yM=correctMv*yDc
上記式で座標演算部13は、稼働範囲補正後の座標(xM,yM)を算出する。ここで、「widthI」は、画像幅である。「heightI」は、画像高さである。「widthM」は、画像上の横方向の可動範囲である。「heightM」は、画像上の縦方向の稼働範囲である。なお、カメラと検出対象の距離は、基準の距離であるとする。基準の距離とは、図10及び図11で説明した操作者距離補正における重みが1である距離である。
図12に戻る。ステップS6において、座標演算部13は、図10及び図11で説明した操作者距離補正を行う。
図15は、本発明の実施の形態における操作者距離の補正に係る算出例を示す図である。横方向の操作者距離補正重みをcorrectDh=widthS/widthD、縦方向の操作者距離補正重みをcorrectDv=heightS/heightD、可動範囲補正後の座標を(xPi,yPi)とすると、図15に示されるように、
xPi=correctDh*xM
yPi=correctDv*yM
上記式で座標演算部13は、操作者距離の補正後の座標(xPi,yPi)を算出する。ここで、「widthD」は、検出対象の検出幅である。「heightD」は、検出対象の検出高さである。検出幅及び検出高さは、実際の距離Fで撮影される検出対象に対応する。「widthS」は、検出対象の基準幅である。「heightS」は、検出対象の基準高さである。基準幅及び基準高さは、操作者距離の補正における重みが1である基準の距離で撮影される検出対象に対応する。
図12に戻る。ステップS7において、座標演算部13は、カメラ105で撮影された画像における座標系から、表示部における座標系に変換を行う。
図16は、本発明の実施の形態における表示部画像座標系変換に係る算出例を示す図である。カメラ105で撮影された画像幅を「widthI」、画像高さを「heightI」、表示部幅を「widthDisp」、表示部高さを「heightDisp」、カメラ105で撮影された画像におけるポインタ座標(xPi,yPi)とすると、図16に示されるように、
xPdisp=xPi*widthDisp/widthI
yPdisp=yPi*heightDisp/heightI
上記式で、座標演算部13は、表示部のポインタ座標(xPdisp,yPdisp)を算出する。
図12に戻る。ステップS8において、表示制御部14は、算出されたポインタ座標(xPdisp,yPdisp)に基づいて、表示部にポインタを表示する。
上述のように、本発明の実施の形態によれば、情報処理装置1は、通常のカメラ1台によって撮影された画像から、ジェスチャ操作を行う検出対象を検出し、検出対象の中心座標を算出することができる。さらに、情報処理装置1は、表示部におけるポインタ座標を、検出対象の可動範囲に基づいて補正することで、広範囲の表示部に対して容易にポインティングすることが可能となり、ジェスチャによるポインティングの操作性を向上させることができる。さらに、情報処理装置1は、表示部におけるポインタ座標を、カメラと操作者間の距離に基づいて補正することで、カメラと操作者間の距離に影響されることなく、ジェスチャによるポインティングの操作性を向上させることができる。
すなわち、通常のカメラ1台でジェスチャ操作によるポインティングを行うことができる。
なお、本発明の実施の形態において、画像検出部12は、検出部の一例である。座標演算部13は、算出部又は補正部の一例である。表示制御部14は、表示部の一例である。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
1 情報処理装置
101 CPU
102 RAM
103 HDD
104 ストレージ
105 カメラ
106 ディスプレイ
11 画像取得部
12 画像検出部
13 座標演算部
14 表示制御部
15 情報読み出し部
16 情報記憶部
特開2015−135572号公報

Claims (8)

  1. カメラによって操作者の画像を取得する画像取得部と、
    取得された前記画像からジェスチャ操作を示す検出対象を検出する検出部と、
    検出された前記検出対象からジェスチャ操作によるポインタの座標を算出する算出部と、
    前記検出対象の可動範囲に基づく第1の重みと、前記カメラと前記操作者との距離に基づく第2の重みとに基づいて、前記ポインタの座標を補正する補正部と、
    補正された前記ポインタの座標に対応するポインタを表示する表示部とを有する情報処理装置。
  2. 前記第1の重みは、前記画像の幅を前記検出対象の可動範囲の幅で除した値、又は前記画像の高さを前記検出対象の可動範囲の高さで除した値を含む請求項1記載の情報処理装置。
  3. 前記検出対象の可動範囲の中心を基準点として、前記基準点の座標と前記ポインタの座標とを結ぶ直線上において、前記基準点の座標から前記基準点の座標と前記ポインタの座標との間の距離に前記第1の重みを乗じた距離を有する座標に基づいて、前記ポインタの座標を補正する請求項2記載の情報処理装置。
  4. 前記第2の重みは、前記画像が取得された第1の距離における検出対象の幅で、基準とする第2の距離において取得された画像における検出対象の幅を除した値、又は前記第1の距離における検出対象の高さで、前記第2の距離における検出対象の高さを除した値を含む請求項3記載の情報処理装置。
  5. 前記基準点の座標と前記ポインタの座標とを結ぶ直線上において、前記基準点の座標から前記基準点の座標と前記ポインタの座標との間の距離に前記第1の重み及び前記第2の重みを乗じた距離を有する座標に基づいて、前記ポインタの座標を補正する請求項4記載の情報処理装置。
  6. 前記検出対象が複数である場合、検出対象ごとに対応するポインタの色を異なる色で表示する請求項5記載の情報処理装置。
  7. 前記操作者の特定の状態のみを、前記検出対象とする請求項5記載の情報処理装置。
  8. カメラによって操作者の画像を取得する画像取得手順と、
    取得された前記画像からジェスチャ操作を示す検出対象を検出する検出手順と、
    検出された前記検出対象からジェスチャ操作によるポインタの座標を計算する計算手順と、
    前記検出対象の可動範囲に基づく第1の重みと、前記カメラと前記操作者との距離に基づく第2の重みとに基づいて、前記ポインタの座標を補正する補正手順と、
    補正された前記ポインタの座標に対応するポインタを表示する表示手順とを実行する情報処理方法。
JP2018050838A 2018-03-19 2018-03-19 情報処理装置及び情報処理方法 Pending JP2019164440A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018050838A JP2019164440A (ja) 2018-03-19 2018-03-19 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018050838A JP2019164440A (ja) 2018-03-19 2018-03-19 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2019164440A true JP2019164440A (ja) 2019-09-26

Family

ID=68064605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018050838A Pending JP2019164440A (ja) 2018-03-19 2018-03-19 情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP2019164440A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054118A (ja) * 2009-09-04 2011-03-17 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2015135572A (ja) * 2014-01-16 2015-07-27 キヤノン株式会社 情報処理装置とその制御方法
JP2015172886A (ja) * 2014-03-12 2015-10-01 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
WO2016170872A1 (ja) * 2015-04-20 2016-10-27 三菱電機株式会社 情報表示装置及び情報表示方法
JP2017041002A (ja) * 2015-08-18 2017-02-23 キヤノン株式会社 表示制御装置、表示制御方法及び表示制御用プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054118A (ja) * 2009-09-04 2011-03-17 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2015135572A (ja) * 2014-01-16 2015-07-27 キヤノン株式会社 情報処理装置とその制御方法
JP2015172886A (ja) * 2014-03-12 2015-10-01 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
WO2016170872A1 (ja) * 2015-04-20 2016-10-27 三菱電機株式会社 情報表示装置及び情報表示方法
JP2017041002A (ja) * 2015-08-18 2017-02-23 キヤノン株式会社 表示制御装置、表示制御方法及び表示制御用プログラム

Similar Documents

Publication Publication Date Title
JP4820285B2 (ja) 自動位置合わせタッチシステムおよび方法
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
JP7372199B2 (ja) 投影システム、投影装置及びその表示画像の校正方法
JP5257616B2 (ja) プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP6589294B2 (ja) 画像表示装置
JP2011066788A (ja) 投写型表示装置、キーストン補正方法
US9990739B1 (en) Method and device for fisheye camera automatic calibration
JP2015119338A5 (ja) 表示制御装置、表示装置、撮像システム、表示制御方法、及びプログラム
JP2017050616A5 (ja)
WO2018154634A1 (ja) 投写型表示装置、投写型表示装置の制御方法、及びプログラム
US10606149B2 (en) Information processing device, information processing method, and program
JP5561503B2 (ja) プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP2019164440A (ja) 情報処理装置及び情報処理方法
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
JP2022138883A (ja) 画像生成方法、制御方法、および情報処理装置
JP2014049023A (ja) 入力装置
KR102149732B1 (ko) 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
CN108363603B (zh) 信息指引方法、装置、移动终端以及存储装置
KR20150137908A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
JP6264114B2 (ja) 投影装置及びプログラム
JP2022041716A (ja) 画像処理装置およびその制御方法
KR101591038B1 (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
JP2014210053A5 (ja) 医用装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221