JP2018112921A - 入出力システム、入力処理装置、入出力方法、及び、プログラム - Google Patents
入出力システム、入力処理装置、入出力方法、及び、プログラム Download PDFInfo
- Publication number
- JP2018112921A JP2018112921A JP2017003251A JP2017003251A JP2018112921A JP 2018112921 A JP2018112921 A JP 2018112921A JP 2017003251 A JP2017003251 A JP 2017003251A JP 2017003251 A JP2017003251 A JP 2017003251A JP 2018112921 A JP2018112921 A JP 2018112921A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- input
- camera
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】スクリーンに投影された画像に対する操作を効果的に検知できる入出力システムを提供する。【解決手段】入出力システム1は、透光性を有するスクリーン30と、スクリーンの一方の面に、画像を投影するプロジェクタ22と、スクリーンの他方の面に光を照射する照明装置40と、スクリーンの一方の面を撮影するカメラ24と、カメラにより撮影された撮影画像に基づいて、投影された画像に対するユーザの操作を検知する入出力処理装置10と、を有する。【選択図】図1
Description
本発明は、プロジェクタを用いた入出力システムに関するものである。
例えば、特許文献1には、目的の画像50を面5Aに表示する表示手段と、面5Aを撮影する撮影手段と、物体8が面5Aと撮影手段との間の空間40から離れたことを検知する第一の検知手段と、物体8が空間40から離れたことが検知された後、面5Aの所定の位置51がタッチされたことを検知する第二の検知手段と、所定の位置51がタッチされたことが検知された後、物体8が空間40から離れたことを検知する第三の検知手段と、物体が空間40から離れたことが第三の検知手段によって検知された後、面5Aを撮影するように撮影手段を制御する撮影制御手段と、を有する画像表示撮影システムが開示されている。
本発明は、スクリーンに投影された画像に対する操作を効果的に検知できる入出力システムを提供することを目的とする。
本発明に係る入出力システムは、透光性を有するスクリーンと、前記スクリーンの一方の面に、画像を投影するプロジェクタと、前記スクリーンの他方の面に光を照射する光源と、前記スクリーンの一方の面を撮影するカメラと、前記カメラにより撮影された撮影画像に基づいて、投影された画像に対するユーザの操作を検知する操作検知部とを有する。
好適には、前記操作検知部は、前記カメラにより撮影された撮影画像から、前記光源により照射された光をユーザが遮ることにより生じる影を抽出して、ユーザの操作を検知する。
好適には、前記カメラは、複数のタイミングで撮影し、前記カメラにより撮影された複数の撮影画像に基づいて、ユーザの影の大きさの変化を特定する変化特定部と、前記変化特定部により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定部とをさらに有し、前記操作検知部は、前記距離特定部により特定された距離に基づいて、ユーザの操作を検知する。
好適には、前記カメラは、複数のタイミングで撮影し、前記カメラにより撮影された複数の撮影画像に基づいて、ユーザの影の濃淡の変化を特定する変化特定部と、前記変化特定部により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定部とをさらに有し、前記操作検知部は、前記距離特定部により特定された距離に基づいて、ユーザの操作を検知する。
好適には、前記カメラにより撮影された撮影画像に基づいて、ユーザの影の形状を特定する形状特定部をさらに有し、前記操作検知部は、前記形状特定部により特定された形状に基づいて、ユーザの操作内容を決定する。
好適には、前記スクリーンには、微小な貫通孔が複数配列されている。
好適には、前記プロジェクタから照射される光を前記スクリーンに反射させる反射鏡をさらに有し、前記カメラは、前記プロジェクタの近傍に配置され、前記反射鏡により映った前記スクリーンを撮影する。
好適には、前記プロジェクタから照射される光を前記スクリーンに反射させる反射鏡をさらに有し、前記カメラは、前記プロジェクタの近傍に配置され、前記反射鏡により映った前記スクリーンを撮影する。
好適には、ズームレンズをさらに有し、前記カメラは、前記プロジェクタの投影範囲に応じて前記ズームレンズによって調整された画角で、撮影する。
好適には、前記プロジェクタの投影方向と、前記カメラの撮影方向が一致するように、前記プロジェクタと前記カメラとを連結させる連結部材をさらに有する。
好適には、前記プロジェクタは、キャリブレーション用画像を前記スクリーンに投影し、前記カメラは、前記スクリーンに投影されたキャリブレーション用画像を撮影し、前記カメラにより撮影されたキャリブレーション用画像に基づいて、前記スクリーンに設けられた貫通孔の位置を特定する孔位置特定部をさらに有し、前記操作検知部は、前記孔位置特定部により特定された位置の画素値に基づいて、ユーザの操作を検知する。
好適には、前記スクリーンは、網目状のシートで構成されている。
好適には、前記スクリーンは、網目状のシートで構成されている。
また、本発明に係る入出力システムは、透光性を有するスクリーンと、前記スクリーンの一方の面に、画像を投影するプロジェクタと、前記スクリーンに対して、前記プロジェクタとは異なる角度で光を照射する光源と、前記光源から見て、前記スクリーンの裏側に配置された第2のスクリーンと、前記第2のスクリーンを撮影するカメラと、前記カメラにより撮影された撮影画像に基づいて、投影された画像に対するユーザの操作を検知する操作検知部とを有する。
また、本発明に係る入力処理装置は、入力された画像データに基づいて、スクリーンに投影された影の大きさ又は濃度の変化を特定する変化特定部と、前記変化特定部により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定部と、前記距離特定部により特定された距離に基づいて、ユーザの操作を検知する操作検知部とを有する。
また、本発明に係る入出力方法は、透光性を有するスクリーンの一方の面に、プロジェクタが画像を投影するステップと、前記スクリーンの他方の面に光を照射するステップと、前記スクリーンの一方の面をカメラが撮影するステップと、前記カメラにより撮影された撮影画像に基づいて、投影された画像に対するユーザの操作を検知するステップとを有する。
また、本発明に係るプログラムは、入力された画像データに基づいて、スクリーンに投影された影の大きさ又は濃度の変化を特定する変化特定機能と、前記変化特定機能により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定機能と、前記距離特定機能により特定された距離に基づいて、ユーザの操作を検知する操作検知機能とをコンピュータに実現させる。
本発明によれば、スクリーンに投影された画像に対する操作を効果的に検知できる。
[第1の実施形態]
本発明の第1の実施形態を、各図面に基づいて説明する。
図1は、第1の実施形態における入出力システム1の概要を説明する図である。
図1に示すように、本実施形態の入出力システム1は、入出力処理装置10と、プロジェクタ22と、カメラ24と、スクリーン30と、照明装置40とを有する。
入出力処理装置10は、コンピュータ端末であり、プロジェクタ22を制御して画像を出力させ、カメラ24を制御してユーザの入力操作を受け付ける。
本発明の第1の実施形態を、各図面に基づいて説明する。
図1は、第1の実施形態における入出力システム1の概要を説明する図である。
図1に示すように、本実施形態の入出力システム1は、入出力処理装置10と、プロジェクタ22と、カメラ24と、スクリーン30と、照明装置40とを有する。
入出力処理装置10は、コンピュータ端末であり、プロジェクタ22を制御して画像を出力させ、カメラ24を制御してユーザの入力操作を受け付ける。
プロジェクタ22は、画像を投影する投影装置である。本例のプロジェクタ22は、入出力処理装置10から入力される画像データに基づいて、スクリーン30に画像を投影する。
カメラ24は、静止画像又は動画像を撮影する撮影装置であり、複数のタイミングで画像を撮影する。本例のカメラ24は、スクリーン30のうち、プロジェクタ22により画像が投影される面と同じ面を撮影するデジタルカメラである。なお、カメラ24は、スクリーン30を透過する光を複数の位置で検知できる光センサであってもよい。
カメラ24は、静止画像又は動画像を撮影する撮影装置であり、複数のタイミングで画像を撮影する。本例のカメラ24は、スクリーン30のうち、プロジェクタ22により画像が投影される面と同じ面を撮影するデジタルカメラである。なお、カメラ24は、スクリーン30を透過する光を複数の位置で検知できる光センサであってもよい。
スクリーン30は、透光性を有するスクリーンである。スクリーン30は、半透明なシートであってもよいし、微小な孔が多数設けられたシートであってもよい。本例のスクリーン30は、複数の孔が配列されたシートである。
照明装置40は、電球、蛍光灯、又はLEDランプなどの、光を照射する照明器具であり、本発明に係る光源の一例である。照明装置40は、スクリーン30のうち、プロジェクタ22が画像を投影する面の裏面に、光を照射できる位置に配置される。
照明装置40は、電球、蛍光灯、又はLEDランプなどの、光を照射する照明器具であり、本発明に係る光源の一例である。照明装置40は、スクリーン30のうち、プロジェクタ22が画像を投影する面の裏面に、光を照射できる位置に配置される。
本実施形態の入出力システム1では、上記構成によって、プロジェクタ22により投影された画像がスクリーン30を透過してユーザが視認可能になると共に、ユーザが、投影された画像に対して、スクリーン30に近づいてアクションを行うと、照明装置40から照射された光による影がスクリーン30に投影され、スクリーン30に投影されたユーザの影がカメラ24により撮影される。そして、入出力処理装置10は、カメラ24により撮影されたユーザの影に基づいて、スクリーン30の近傍におけるユーザの既定のアクションを、ユーザの入力操作として検知する。
図2は、図1のプロジェクタ22及びカメラ24の構成をより詳細に説明する図である。
図2に例示するように、本例のプロジェクタ22は、連結部材23によって、カメラ24に連結されている。本例のカメラ24は、連結部材23によって、プロジェクタ22の投影方向と同じ方向を撮影できるように保持されている。さらに、本例のカメラ24は、プロジェクタ22の投影範囲全体を撮影できるように、画角を調整するためのズームレンズ242を有する。
連結部材23の内部には、電源ケーブル及び通信ケーブルが通されており、共通電源ケーブル250から供給される電力は、プロジェクタ22及びカメラ24に供給され、共通通信ケーブル252を介して送受信される通信信号は、プロジェクタ22及びカメラ24に分配される。
図2に例示するように、本例のプロジェクタ22は、連結部材23によって、カメラ24に連結されている。本例のカメラ24は、連結部材23によって、プロジェクタ22の投影方向と同じ方向を撮影できるように保持されている。さらに、本例のカメラ24は、プロジェクタ22の投影範囲全体を撮影できるように、画角を調整するためのズームレンズ242を有する。
連結部材23の内部には、電源ケーブル及び通信ケーブルが通されており、共通電源ケーブル250から供給される電力は、プロジェクタ22及びカメラ24に供給され、共通通信ケーブル252を介して送受信される通信信号は、プロジェクタ22及びカメラ24に分配される。
図3は、図1のスクリーン30をより詳細に説明する図である。
図3(A)に例示するように、スクリーン30は、規則的に配列された微小な貫通孔を多数有する。貫通孔の間隔は、操作検知の精度に応じて既定されている。
例えば、スクリーン30の貫通孔は、図3(B)に例示するように、複数の針が規則的に配列された治具によって、スクリーン30の表面に形成される。貫通孔は、スクリーン30の全体に配置されていてもよいし、一部のみに配置されていてもよい。
なお、上記治具によって貫通孔が設けられたものに限定されるものではなく、例えば、織物、編物又は網などのように網目状のシートをスクリーン30として採用してもよい。
図3(A)に例示するように、スクリーン30は、規則的に配列された微小な貫通孔を多数有する。貫通孔の間隔は、操作検知の精度に応じて既定されている。
例えば、スクリーン30の貫通孔は、図3(B)に例示するように、複数の針が規則的に配列された治具によって、スクリーン30の表面に形成される。貫通孔は、スクリーン30の全体に配置されていてもよいし、一部のみに配置されていてもよい。
なお、上記治具によって貫通孔が設けられたものに限定されるものではなく、例えば、織物、編物又は網などのように網目状のシートをスクリーン30として採用してもよい。
このように、スクリーン30に無数の小さな貫通孔を設けたことで、影と光のコントラストが上がり、入出力処理装置10上での影/シルエットの認識精度が向上する。さらに、カメラ24により撮影された撮影画像上からサンプリングする画素を、貫通孔の位置に制限できるため、処理負荷の軽減が期待でき、操作検知のリアルタイム性が向上する。
図4は、入出力処理装置10のハードウェア構成を例示する図である。
図4に例示するように、入出力処理装置10は、CPU100、メモリ102、HDD104、ネットワークインタフェース106(ネットワークIF106)、表示装置108、及び、入力装置110を有し、これらの構成はバス112を介して互いに接続している。
CPU100は、例えば、中央演算装置である。
メモリ102は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD104は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図5の入出力プログラム5)やその他のデータファイル(例えば、図5の画像データベース580及び設定情報データベース590)を格納する。
ネットワークIF106は、有線又は無線で通信するためのインタフェースであり、例えば、プロジェクタ22及びカメラ24との通信を実現する。
表示装置108は、例えば、液晶ディスプレイである。
入力装置110は、例えば、キーボード及びマウスである。
図4に例示するように、入出力処理装置10は、CPU100、メモリ102、HDD104、ネットワークインタフェース106(ネットワークIF106)、表示装置108、及び、入力装置110を有し、これらの構成はバス112を介して互いに接続している。
CPU100は、例えば、中央演算装置である。
メモリ102は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD104は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図5の入出力プログラム5)やその他のデータファイル(例えば、図5の画像データベース580及び設定情報データベース590)を格納する。
ネットワークIF106は、有線又は無線で通信するためのインタフェースであり、例えば、プロジェクタ22及びカメラ24との通信を実現する。
表示装置108は、例えば、液晶ディスプレイである。
入力装置110は、例えば、キーボード及びマウスである。
図5は、入出力処理装置10の機能構成を例示する図である。
図5に例示するように、本例の入出力処理装置10には、入出力プログラム5がインストールされると共に、画像データベース580(画像DB580)及び設定情報データベース590(設定情報DB590)が構成される。
入出力プログラム5は、画像投影部500、キャリブレーション実行部510、画角調整部520、孔位置特定部530、サンプリング部540、操作検知部550、及び操作応答部570を有する。
なお、入出力プログラム5の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。
図5に例示するように、本例の入出力処理装置10には、入出力プログラム5がインストールされると共に、画像データベース580(画像DB580)及び設定情報データベース590(設定情報DB590)が構成される。
入出力プログラム5は、画像投影部500、キャリブレーション実行部510、画角調整部520、孔位置特定部530、サンプリング部540、操作検知部550、及び操作応答部570を有する。
なお、入出力プログラム5の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。
入出力プログラム5において、画像投影部500は、プロジェクタ22に画像データを送信して、静止画像又は動画像をスクリーン30に投影させる。本例の画像投影部500は、画像DB580に記録されたコンテンツ(プレゼンテーション画像やゲーム画像など)の画像データを読み出し、読み出された画像データをプロジェクタ22に送信する。さらに、本例の画像投影部500は、キャリブレーション実行部510の指示に応じて、キャリブレーション用画像の画像データをプロジェクタ22に送信する。
キャリブレーション実行部510は、プロジェクタ22にキャリブレーション用画像を投影させ、カメラ24により撮影されたキャリブレーション用画像に基づいて、キャリブレーションを実行する。キャリブレーション用画像には、既定の位置に、既定の画像パターンが配置されている。本例のキャリブレーション実行部510は、カメラ24により撮影されたキャリブレーション用画像に基づいて、ユーザの操作を検知する範囲と、ユーザの操作を検知するための画素値の基準値とを決定する。
画角調整部520は、プロジェクタ22の投影範囲に応じて、カメラ24の画角を調整する。例えば、画角調整部520は、プロジェクタ22に設けられたズームレンズのズーム量を取得し、取得されたズーム量に応じて、カメラ24のズームレンズ242を調整する。また、画角調整部520は、キャリブレーション実行部510により決定されたユーザ操作の検知範囲に応じて、ズームレンズ242のズーム量を調整してもよい。
孔位置特定部530は、スクリーン30に設けられた貫通孔の位置を特定する。特定される貫通孔の位置は、貫通孔の間隔だけ、又は、貫通孔の相対位置だけであってもよい。
本例の孔位置特定部530は、カメラ24により撮影されたキャリブレーション用画像に基づいて、キャリブレーション用画像の黒領域において、光が透過する位置を特定する。
本例の孔位置特定部530は、カメラ24により撮影されたキャリブレーション用画像に基づいて、キャリブレーション用画像の黒領域において、光が透過する位置を特定する。
サンプリング部540は、孔位置特定部530により特定された貫通孔の位置において、カメラ24により撮影された画像の中から、画素値のサンプリングを行う。サンプリングされる画素値は、画像データのRGB値そのものでもよいし、Lab色空間のL値などの明度又は輝度のみでもよい。
操作検知部550は、カメラ24により撮影された画像に基づいて、ユーザの操作を検知する。本例の操作検知部550は、サンプリング部540によりサンプリングされた画素値に基づいて、ユーザの操作を検知する。
操作応答部570は、操作検知部550によりユーザの操作が検知された場合に、操作が検知されたことを示唆する応答信号を出力する。例えば、操作応答部570は、操作検知部550によりユーザの操作が検知された場合に、その旨を示す音声又は画像を出力させる。本例の操作応答部570は、操作検知部550によりユーザの操作が検知された場合に、検知された操作内容に対応するエフェクト画像を、操作が検知された位置の近傍に追加合成して、プロジェクタ22に投影させる。
図6は、図5の操作検知部550をより詳細に説明する図である。
図6に例示するように、操作検知部550は、濃度変化特定部552と、大きさ変化特定部554と、距離特定部556と、形状特定部558と、操作内容決定部560とを有する。
濃度変化特定部552は、カメラ24により複数のタイミングで撮影された複数の画像データから、照明装置40から照射された光をユーザが遮ることにより生じる影を抽出し、抽出された影領域の画素値に基づいて、影の濃淡の変化を特定する。本例の濃度変化特定部552は、サンプリング部540によりサンプリングされた画素値のうち、基準値よりも暗い画素値が集まった領域を影領域として抽出し、複数のタイミングで撮影された画像の影領域の画素値を比較して、画素値の増減を影の濃淡の変化とする。
図6に例示するように、操作検知部550は、濃度変化特定部552と、大きさ変化特定部554と、距離特定部556と、形状特定部558と、操作内容決定部560とを有する。
濃度変化特定部552は、カメラ24により複数のタイミングで撮影された複数の画像データから、照明装置40から照射された光をユーザが遮ることにより生じる影を抽出し、抽出された影領域の画素値に基づいて、影の濃淡の変化を特定する。本例の濃度変化特定部552は、サンプリング部540によりサンプリングされた画素値のうち、基準値よりも暗い画素値が集まった領域を影領域として抽出し、複数のタイミングで撮影された画像の影領域の画素値を比較して、画素値の増減を影の濃淡の変化とする。
大きさ変化特定部554は、カメラ24により複数のタイミングで撮影された複数の画像データから、照明装置40から照射された光をユーザが遮ることにより生じる影を抽出し、抽出された影領域の大きさを比較して、影の大きさの変化を特定する。本例の大きさ変化特定部554は、サンプリング部540によりサンプリングされた画素値のうち、基準値よりも暗い画素値が連続する領域を影領域として抽出し、複数のタイミングで撮影された画像の影領域の広さを比較して、影領域の広さの増減を影の大きさの変化とする。
距離特定部556は、濃度変化特定部552により特定された濃淡の変化、又は、大きさ変化特定部554により特定された影領域の大きさの変化に基づいて、スクリーン30からユーザまでの距離を特定する。ここで、距離の特定とは、実際の距離(数値)を測定することに限定されるものではなく、距離の変化状況(近づいている/遠ざかっている、或いは、最も近づいた瞬間)であってもよいし、基準値よりも近い又は遠いという判定結果であってもよい。
本例の距離特定部556は、濃度変化特定部552により特定された濃淡の変化、及び、大きさ変化特定部554により特定された影領域の大きさの変化に基づいて、ユーザの体又は所持品がスクリーン30に最も近づいたタイミングにおいて、最近接点が基準値よりも近いか否かを判定する。
本例の距離特定部556は、濃度変化特定部552により特定された濃淡の変化、及び、大きさ変化特定部554により特定された影領域の大きさの変化に基づいて、ユーザの体又は所持品がスクリーン30に最も近づいたタイミングにおいて、最近接点が基準値よりも近いか否かを判定する。
形状特定部558は、カメラ24により撮影された撮影画像に基づいて、ユーザの影の形状を特定する。本例の形状特定部558は、距離特定部556により最近接点が基準値よりも近いと判定された時の、影領域の形状を特定する。
操作内容決定部560は、形状特定部558により特定された影領域の形状に基づいて、ユーザの操作内容を決定する。本例では、設定情報DB590に複数の操作内容(例えば、選択、コピー、ペースト)と複数の形状(例えば、グー、チョキ、パーの影形状)とが互いに関連付けて登録されており、操作内容決定部560は、形状特定部558により特定された形状と、設定情報DB590に登録された形状とを比較して、最も近似する形状に関連付けられた操作内容をユーザの操作内容であると決定する。
図7は、ユーザの影領域を例示する図である。
図7に例示するように、本例のスクリーン30には、複数の貫通孔が設けられており、照明装置40から照射された光は、スクリーン30の貫通孔を通って、カメラ24により撮影される。その際に、ユーザの体の一部又は所持品が、スクリーン30と、照明装置40との間に存在すると、照明装置40から照射された光が遮られ、スクリーン30に影ができる。この影は、カメラ24で撮影可能となる。
図7に例示するように、本例のスクリーン30には、複数の貫通孔が設けられており、照明装置40から照射された光は、スクリーン30の貫通孔を通って、カメラ24により撮影される。その際に、ユーザの体の一部又は所持品が、スクリーン30と、照明装置40との間に存在すると、照明装置40から照射された光が遮られ、スクリーン30に影ができる。この影は、カメラ24で撮影可能となる。
図8は、キャリブレーションを説明する図である。
図8に例示するように、キャリブレーションが実行される際には、カメラ24の撮影範囲は、ズームレンズ242によって、プロジェクタ22の投影範囲を包含するように調整されている。
プロジェクタ22は、キャリブレーション用の画像を投影し、ユーザに、スクリーン30に投影された画像領域の周縁部をタッチするように促す。カメラ24は、ユーザがスクリーン30をタッチした際の画像を撮影し、少なくともタッチされた位置を含むようにズームレンズ242を調整する。
入出力処理装置10のキャリブレーション実行部510は、ユーザがスクリーン30をタッチした際の画像に基づいて、サンプリング部540がサンプリングする領域を設定し、さらに、操作検知部550が操作検知に用いる基準値を設定する。基準値は、例えば、ユーザの操作を監視し始める第1の基準値(RGB値)と、ユーザが操作したと判定するための第2の基準値(RGB値)とを含む。すなわち、操作検知部550は、カメラ24により撮影される画像の中に、第1の基準値よりも暗い画像領域を発見した場合に、この画像領域の濃度及び大きさの変化を監視し、監視中の画像領域において、第2の基準値よりも暗い画像領域を発見した場合に、ユーザの操作が検知されたものとする。
図8に例示するように、キャリブレーションが実行される際には、カメラ24の撮影範囲は、ズームレンズ242によって、プロジェクタ22の投影範囲を包含するように調整されている。
プロジェクタ22は、キャリブレーション用の画像を投影し、ユーザに、スクリーン30に投影された画像領域の周縁部をタッチするように促す。カメラ24は、ユーザがスクリーン30をタッチした際の画像を撮影し、少なくともタッチされた位置を含むようにズームレンズ242を調整する。
入出力処理装置10のキャリブレーション実行部510は、ユーザがスクリーン30をタッチした際の画像に基づいて、サンプリング部540がサンプリングする領域を設定し、さらに、操作検知部550が操作検知に用いる基準値を設定する。基準値は、例えば、ユーザの操作を監視し始める第1の基準値(RGB値)と、ユーザが操作したと判定するための第2の基準値(RGB値)とを含む。すなわち、操作検知部550は、カメラ24により撮影される画像の中に、第1の基準値よりも暗い画像領域を発見した場合に、この画像領域の濃度及び大きさの変化を監視し、監視中の画像領域において、第2の基準値よりも暗い画像領域を発見した場合に、ユーザの操作が検知されたものとする。
図9は、影領域の大きさとユーザ操作の関係を説明する図である。
図9に例示するように、ユーザが光源(照明装置40)から遠ざかるほど、ユーザの影が小さくなり、ユーザが光源に近づくほど、ユーザの影が大きくなる。換言すると、ユーザがスクリーン30に近づくほど、スクリーン30に投影されるユーザの影領域が小さくなり、ユーザがスクリーン30から遠ざかるほど、スクリーン30に投影されるユーザの影領域は大きくなる。本例の大きさ変化特定部554は、この現象を捉え、距離特定部556は、大きさ変化特定部554により特定された影領域の大きさの変化に基づいて、ユーザからスクリーン30までの距離を推定する。そして、操作検知部550は、距離特定部556により推定された距離に基づいて、ユーザがスクリーン30に近づいた時に、投影される画像に対してユーザが操作を行ったと判定する。
図9に例示するように、ユーザが光源(照明装置40)から遠ざかるほど、ユーザの影が小さくなり、ユーザが光源に近づくほど、ユーザの影が大きくなる。換言すると、ユーザがスクリーン30に近づくほど、スクリーン30に投影されるユーザの影領域が小さくなり、ユーザがスクリーン30から遠ざかるほど、スクリーン30に投影されるユーザの影領域は大きくなる。本例の大きさ変化特定部554は、この現象を捉え、距離特定部556は、大きさ変化特定部554により特定された影領域の大きさの変化に基づいて、ユーザからスクリーン30までの距離を推定する。そして、操作検知部550は、距離特定部556により推定された距離に基づいて、ユーザがスクリーン30に近づいた時に、投影される画像に対してユーザが操作を行ったと判定する。
図10は、影の濃淡とユーザ操作の関係を説明する図である。
図10に例示するように、遮蔽物(ユーザの指先や所持品など)がスクリーン30に近づくほど、スクリーン30に投影される影が濃くなり、遮蔽物がスクリーン30から遠ざかるほど、スクリーン30に投影される影が薄くなる。すなわち、スクリーン30に投影される影領域のうち、より黒色に近い領域が、スクリーン30に近いと推定される。本例の濃度変化特定部552は、この現象を捉え、距離特定部556は、濃度変化特定部552により特定された影領域の濃淡の変化に基づいて、遮蔽物(ユーザ)からスクリーン30までの距離を推定する。そして、本例の操作検知部550は、距離特定部556により推定された距離に基づいて、遮蔽物(ユーザ)がスクリーン30に最も近づいた瞬間を、投影される画像に対してユーザが操作を行ったタイミングであると判定する。
図10に例示するように、遮蔽物(ユーザの指先や所持品など)がスクリーン30に近づくほど、スクリーン30に投影される影が濃くなり、遮蔽物がスクリーン30から遠ざかるほど、スクリーン30に投影される影が薄くなる。すなわち、スクリーン30に投影される影領域のうち、より黒色に近い領域が、スクリーン30に近いと推定される。本例の濃度変化特定部552は、この現象を捉え、距離特定部556は、濃度変化特定部552により特定された影領域の濃淡の変化に基づいて、遮蔽物(ユーザ)からスクリーン30までの距離を推定する。そして、本例の操作検知部550は、距離特定部556により推定された距離に基づいて、遮蔽物(ユーザ)がスクリーン30に最も近づいた瞬間を、投影される画像に対してユーザが操作を行ったタイミングであると判定する。
なお、本例では、影領域の大きさと濃淡の両方を用いる形態を具体例として説明しているが、これに限定されるものではなく、影領域の大きさ(大きさ変化特定部554)、又は、影の濃淡(濃度変化特定部552)の一方のみを用いて、ユーザの操作を検知してもよい。例えば、濃度変化特定部522が、ユーザ操作の影の濃度が既定値以上となったと判定した時に、ユーザがスクリーン30にタッチしたと判定してもよい。このように、影の濃度のみでユーザ操作の有無を判定することにより、入出力処理装置10は、より軽い処理負荷で高速にユーザ操作を検知できる。
図11は、ユーザの操作位置とエフェクト画像の関係を説明する図である。
図11に例示するように、スクリーン30に投影される影の位置が、ユーザにより操作(タッチ操作)された位置であると推定できる。そこで、本例の操作応答部570は、操作検知部550によりユーザの操作が検知された位置に、エフェクト画像を合成し、プロジェクタ22に投影させる。なお、プロジェクタ22に投影される画像上の位置と、スクリーン30における位置は、キャリブレーション実行部510のキャリブレーションによって対応付けられている。
また、形状特定部558は、図11に例示するように、既定よりも濃い影領域を抽出して、影の形状とする。
図11に例示するように、スクリーン30に投影される影の位置が、ユーザにより操作(タッチ操作)された位置であると推定できる。そこで、本例の操作応答部570は、操作検知部550によりユーザの操作が検知された位置に、エフェクト画像を合成し、プロジェクタ22に投影させる。なお、プロジェクタ22に投影される画像上の位置と、スクリーン30における位置は、キャリブレーション実行部510のキャリブレーションによって対応付けられている。
また、形状特定部558は、図11に例示するように、既定よりも濃い影領域を抽出して、影の形状とする。
図12は、入出力システム1におけるキャリブレーション処理(S10)を説明するフローチャートである。なお、照明装置40が点灯された状態でキャリブレーション処理が実施される。
図12に例示するように、ステップ100(S100)において、キャリブレーション実行部510は、画像投影部500に対して、キャリブレーション用画像を投影するよう指示し、画像投影部500は、プロジェクタ22に対して、キャリブレーション用画像の画像データを送信する。
プロジェクタ22は、キャリブレーション用画像をスクリーン30に投影する。
図12に例示するように、ステップ100(S100)において、キャリブレーション実行部510は、画像投影部500に対して、キャリブレーション用画像を投影するよう指示し、画像投影部500は、プロジェクタ22に対して、キャリブレーション用画像の画像データを送信する。
プロジェクタ22は、キャリブレーション用画像をスクリーン30に投影する。
ステップ105(S105)において、カメラ24は、ズームレンズ242を最広角に設定した状態で、スクリーン30に投影されたキャリブレーション用画像を撮影し、撮影された画像データを入出力処理装置10に送信する。
ステップ110(S110)において、画角調整部520は、カメラ24から受信したキャリブレーション用画像の画像データに基づいて、ズームレンズ242を調整し、キャリブレーション用画像の投影範囲にカメラ24の画角を合わせる。
ステップ115(S115)において、カメラ24は、ズームレンズ242の調整後、再度、キャリブレーション用画像を撮影し、画角調整部520は、プロジェクタ22の投影範囲が画角に合っているか否かを判定する。キャリブレーション処理(S10)は、画角が合っている場合に、S120の処理に移行し、画角が合っていない場合に、S105の処理に戻る。
ステップ120(S120)において、孔位置特定部530は、画角調整後のカメラ24により撮影されたキャリブレーション用画像に基づいて、スクリーン30の貫通孔の位置を特定する。特定される貫通孔の位置は、例えば、サンプリングの開始端及び終端の位置と、サンプリングの間隔とのセットである。
ステップ125(S125)において、キャリブレーション実行部510は、ユーザにスクリーン30の既定位置のタッチを促す。例えば、キャリブレーション実行部510は、キャリブレーション用画像に、数字を配置し、「数字を順にタッチして下さい。」というメッセージを合成して、プロジェクタ22に投影させる。
ステップ130(S130)において、キャリブレーション実行部510は、操作検知部550に対して、デフォルト基準値によるタッチ操作の検知を指示する。キャリブレーション処理(S10)は、全てのタッチ位置でタッチ操作が検知された場合に、S135の処理に移行し、いずれかのタッチ位置でタッチ操作が検知されていない場合に、S125の処理に戻る。
ステップ135(S135)において、キャリブレーション実行部510は、操作検知部550により検知されたタッチ操作の位置と、画像上の位置(例えば、数字が配置された位置)とを対応付けて、設定情報DB590に登録する。さらに、キャリブレーション実行部510は、操作検知部550により検知されたタッチ操作の画素値に基づいて、第1の基準値及び第2の基準値を決定し、決定された基準値を設定情報DB590に登録する。
図13は、入出力システム1における操作検知処理(S20)を説明するフローチャートである。なお、本例の操作検知処理(S20)は、キャリブレーション処理(S10)が完了していることを前提として説明する。また、操作検知処理(S20)と並行して、画像投影部500は、プロジェクタ22に所望の画像(プレゼンテーション画像、ゲーム画像など)をスクリーン30に投影させている。
図13に例示するように、ステップ200(S200)において、カメラ24は、定期的にスクリーン30を撮影し、撮影した画像データを入出力処理装置10に送信する。
入出力処理装置10のサンプリング部540は、カメラ24から受信した画像データについて、孔位置特定部530により特定された画素位置で画素値をサンプリングする。
操作検知部550は、サンプリング部540によりサンプリングされた画素値と、第1の基準値とを比較して、第1の基準値よりも暗い画素が存在するか否かを判定する。
操作検知処理(S20)は、操作検知部550により第1の基準値よりも暗い画素が発見された場合に、S205の処理に移行し、第1の基準値よりも暗い画素が発見されなかった場合に、S200の処理に戻る。
図13に例示するように、ステップ200(S200)において、カメラ24は、定期的にスクリーン30を撮影し、撮影した画像データを入出力処理装置10に送信する。
入出力処理装置10のサンプリング部540は、カメラ24から受信した画像データについて、孔位置特定部530により特定された画素位置で画素値をサンプリングする。
操作検知部550は、サンプリング部540によりサンプリングされた画素値と、第1の基準値とを比較して、第1の基準値よりも暗い画素が存在するか否かを判定する。
操作検知処理(S20)は、操作検知部550により第1の基準値よりも暗い画素が発見された場合に、S205の処理に移行し、第1の基準値よりも暗い画素が発見されなかった場合に、S200の処理に戻る。
ステップ205(S205)において、操作検知部550の濃度変化特定部552は、第1の基準値よりも暗い画素について、濃度変化の監視を開始する。大きさ変化特定部554は、第1の基準値よりも暗い画素について、影領域の大きさ変化の監視を開始する。
距離測定部556は、濃度変化特定部552により特定された濃淡の変化、及び、大きさ変化特定部554により特定された影領域の大きさの変化に基づいて、スクリーン30からユーザまでの距離を算出する。
距離測定部556は、濃度変化特定部552により特定された濃淡の変化、及び、大きさ変化特定部554により特定された影領域の大きさの変化に基づいて、スクリーン30からユーザまでの距離を算出する。
ステップ210(S210)において、操作検知部550は、距離測定部556により算出される距離に基づいて、ユーザの操作の有無を決定する。例えば、操作検知部550は、距離測定部556により算出される距離が既定値以下であり、かつ、その影領域に含まれる画素が第2の基準値よりも暗いと判断された場合に、ユーザの操作があったと判断する。
操作検知処理(S20)は、ユーザの操作が検知された場合に、S215の処理に移行し、ユーザの操作が検知されなかった場合に、S200の処理に戻る。
操作検知処理(S20)は、ユーザの操作が検知された場合に、S215の処理に移行し、ユーザの操作が検知されなかった場合に、S200の処理に戻る。
ステップ215(S215)において、形状特定部558は、サンプリング540によりサンプリングされた画素値に基づいて、影領域の形状を特定する。
ステップ220(S220)において、操作内容決定部560は、形状特定部558により特定された影領域の形状と、設定情報DB590に登録された形状とを比較して、ユーザの操作内容を決定する。
ステップ220(S220)において、操作内容決定部560は、形状特定部558により特定された影領域の形状と、設定情報DB590に登録された形状とを比較して、ユーザの操作内容を決定する。
ステップ225(S225)において、操作応答部570は、操作内容決定部560により決定された操作内容に対応するエフェクト画像を操作検知位置に合成し、画像投影部500に投影させる。
プロジェクタ22は、操作応答部570によりエフェクト画像が合成された画像をスクリーン30に投影する。
プロジェクタ22は、操作応答部570によりエフェクト画像が合成された画像をスクリーン30に投影する。
以上説明したように、本実施形態の入出力システム1によれば、入出力処理装置10が、スクリーン30を透過して映ったユーザの影を取込んで各画素の値(RGB値など)を比較するだけなので、比較的低い処理負荷でユーザの操作を検知できる。特に、各画素の値を影に近い色、あるいは黒色と比較するだけで、自動でユーザの等身大のシルエットがリアルタイムで取得でき、通常のカメラで直接人体の画像取り込んで形状等から判断するモーションキャプチャー等の技術と比して処理が高速である。
カメラ24と光源(照明装置40など)さえあれば良いので設置が簡便である。また、圧電素子を使ったタッチパネル等と違い、スクリーンに配線の必要が無い上に、ユーザの形状もリアルタイム取込める。
スクリーン上のカメラ24で撮影できる範囲であれば、どの大きさでも対応できるため、例えば、200インチを超える大型スクリーンに本入出力システムは適用可である。さらに、ユーザのスクリーン上の位置も取り込め、ユーザがスクリーン30から遠のいたり近づいた事による影の拡大と縮小から、ユーザとスクリーンの距離をリアルタイムで推定できる。
また、透過型スクリーンを使用しているため、ユーザがスクリーン30に近づいても、ユーザがプロジェクタ22の光路を遮ることがないため快適な視聴が可能である。
カメラ24と光源(照明装置40など)さえあれば良いので設置が簡便である。また、圧電素子を使ったタッチパネル等と違い、スクリーンに配線の必要が無い上に、ユーザの形状もリアルタイム取込める。
スクリーン上のカメラ24で撮影できる範囲であれば、どの大きさでも対応できるため、例えば、200インチを超える大型スクリーンに本入出力システムは適用可である。さらに、ユーザのスクリーン上の位置も取り込め、ユーザがスクリーン30から遠のいたり近づいた事による影の拡大と縮小から、ユーザとスクリーンの距離をリアルタイムで推定できる。
また、透過型スクリーンを使用しているため、ユーザがスクリーン30に近づいても、ユーザがプロジェクタ22の光路を遮ることがないため快適な視聴が可能である。
[変形例]
図14は、第1の実施形態の変形例を例示する図である。なお、本図に示された各構成のうち、図1に示された構成と実質的に同一のものには同一の符号が付されている。
図14に例示するように、テーブル型筐体600からなる入出力システム1としてもよい。テーブル形状のテーブル型筐体600の天板部分には、スクリーン30が略水平に配置されている。
このスクリーン30の下方には、反射鏡604が設けられ、スクリーン30の上方には照明装置40が設けられている。
プロジェクタ22は、水平方向で反射鏡604に光を照射できる位置に配置され、カメラ24も同様に反射鏡604を水平方向から撮影できる位置に配置される。反射鏡604は、プロジェクタ22から照射された光を真上のスクリーン30に反射し、かつ、照明装置40からスクリーン30を透過する光をカメラ24の方向に反射するように固定されている。
本変形例によれば、ユーザは、テーブルの天板をタッチ操作しながら、コンテンツを視聴することができる。
図14は、第1の実施形態の変形例を例示する図である。なお、本図に示された各構成のうち、図1に示された構成と実質的に同一のものには同一の符号が付されている。
図14に例示するように、テーブル型筐体600からなる入出力システム1としてもよい。テーブル形状のテーブル型筐体600の天板部分には、スクリーン30が略水平に配置されている。
このスクリーン30の下方には、反射鏡604が設けられ、スクリーン30の上方には照明装置40が設けられている。
プロジェクタ22は、水平方向で反射鏡604に光を照射できる位置に配置され、カメラ24も同様に反射鏡604を水平方向から撮影できる位置に配置される。反射鏡604は、プロジェクタ22から照射された光を真上のスクリーン30に反射し、かつ、照明装置40からスクリーン30を透過する光をカメラ24の方向に反射するように固定されている。
本変形例によれば、ユーザは、テーブルの天板をタッチ操作しながら、コンテンツを視聴することができる。
[第2の実施形態]
図15は、第2の実施形態における入出力システム1の概要を説明する図である。なお、本図に示された各構成のうち、図1に示された構成と実質的に同一のものには同一の符号が付されている。
図15に例示するように、第2の実施形態における入出力システム1は、プロジェクタ22が画像を投影するスクリーン30に加えて、ユーザ操作の影を投影するための検知用スクリーン32を有する。
検知用スクリーン32は、プロジェクタ22が投影するスクリーン30とは異なる方向を向いて配置される。本例のカメラ24は、この検知用スクリーン32を撮影できる位置に配置され、本例の照明装置40は、スクリーン30に対して斜めに光を照射し、かつ、スクリーン30越しに、検知用スクリーン32に光を照射できる位置に配置される。すなわち、検知用スクリーン32は、照明装置40から照射され、スクリーン30を透過した光が投影される位置及び向きに配置される。加えて、検知用スクリーン32は、プロジェクタ22から照射される光が投影されない位置に配置されることが好ましい。
なお、本例の検知用スクリーン32は、プロジェクタ22と直交する向きに配置されているが、これに限定されるものではない。
図15は、第2の実施形態における入出力システム1の概要を説明する図である。なお、本図に示された各構成のうち、図1に示された構成と実質的に同一のものには同一の符号が付されている。
図15に例示するように、第2の実施形態における入出力システム1は、プロジェクタ22が画像を投影するスクリーン30に加えて、ユーザ操作の影を投影するための検知用スクリーン32を有する。
検知用スクリーン32は、プロジェクタ22が投影するスクリーン30とは異なる方向を向いて配置される。本例のカメラ24は、この検知用スクリーン32を撮影できる位置に配置され、本例の照明装置40は、スクリーン30に対して斜めに光を照射し、かつ、スクリーン30越しに、検知用スクリーン32に光を照射できる位置に配置される。すなわち、検知用スクリーン32は、照明装置40から照射され、スクリーン30を透過した光が投影される位置及び向きに配置される。加えて、検知用スクリーン32は、プロジェクタ22から照射される光が投影されない位置に配置されることが好ましい。
なお、本例の検知用スクリーン32は、プロジェクタ22と直交する向きに配置されているが、これに限定されるものではない。
本実施形態の入出力処理装置10は、カメラ24により撮影された画像(検知用スクリーン32に投影された影)に対して、補正処理を施し、補正された画像に基づいて、ユーザの操作を検知する。
このように、本実施形態の入出力システム1は、第1の実施形態に比べて、プロジェクタ22が投影した画像と、ユーザ操作の影に相当する画像とを容易に分離できる。すなわち、第1の実施形態では、プロジェクタ22が画像を投影するスクリーンが、ユーザ操作の影を投影するスクリーンを兼ねていたが、本実施形態では、ユーザ操作の影を投影するための検知用スクリーン32を別途設けたため、プロジェクタによる投影画像と、ユーザ操作の影とを容易に分離できる。
このように、本実施形態の入出力システム1は、第1の実施形態に比べて、プロジェクタ22が投影した画像と、ユーザ操作の影に相当する画像とを容易に分離できる。すなわち、第1の実施形態では、プロジェクタ22が画像を投影するスクリーンが、ユーザ操作の影を投影するスクリーンを兼ねていたが、本実施形態では、ユーザ操作の影を投影するための検知用スクリーン32を別途設けたため、プロジェクタによる投影画像と、ユーザ操作の影とを容易に分離できる。
1 入出力システム
10 入出力処理装置
22 プロジェクタ
24 カメラ
30 スクリーン
32 検知用スクリーン
40 照明装置
5 入出力プログラム
10 入出力処理装置
22 プロジェクタ
24 カメラ
30 スクリーン
32 検知用スクリーン
40 照明装置
5 入出力プログラム
Claims (15)
- 透光性を有するスクリーンと、
前記スクリーンの一方の面に、画像を投影するプロジェクタと、
前記スクリーンの他方の面に光を照射する光源と、
前記スクリーンの一方の面を撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、投影された画像に対するユーザの操作を検知する操作検知部と
を有する入出力システム。 - 前記操作検知部は、前記カメラにより撮影された撮影画像から、前記光源により照射された光をユーザが遮ることにより生じる影を抽出して、ユーザの操作を検知する
請求項1に記載の入出力システム。 - 前記カメラは、複数のタイミングで撮影し、
前記カメラにより撮影された複数の撮影画像に基づいて、ユーザの影の大きさの変化を特定する変化特定部と、
前記変化特定部により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定部と
をさらに有し、
前記操作検知部は、前記距離特定部により特定された距離に基づいて、ユーザの操作を検知する
請求項1に記載の入出力システム。 - 前記カメラは、複数のタイミングで撮影し、
前記カメラにより撮影された複数の撮影画像に基づいて、ユーザの影の濃淡の変化を特定する変化特定部と、
前記変化特定部により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定部と
をさらに有し、
前記操作検知部は、前記距離特定部により特定された距離に基づいて、ユーザの操作を検知する
請求項1に記載の入出力システム。 - 前記カメラにより撮影された撮影画像に基づいて、ユーザの影の形状を特定する形状特定部
をさらに有し、
前記操作検知部は、前記形状特定部により特定された形状に基づいて、ユーザの操作内容を決定する
請求項3又は4に記載の入出力システム。 - 前記スクリーンには、微小な貫通孔が複数配列されている
請求項1に記載の入出力システム。 - 前記プロジェクタから照射される光を前記スクリーンに反射させる反射鏡
をさらに有し、
前記カメラは、前記プロジェクタの近傍に配置され、前記反射鏡により映った前記スクリーンを撮影する
請求項1に記載の入出力システム。 - ズームレンズ
をさらに有し、
前記カメラは、前記プロジェクタの投影範囲に応じて前記ズームレンズによって調整された画角で、撮影する
請求項1に記載の入出力システム。 - 前記プロジェクタの投影方向と、前記カメラの撮影方向が一致するように、前記プロジェクタと前記カメラとを連結させる連結部材
をさらに有する請求項1に記載の入出力システム。 - 前記プロジェクタは、キャリブレーション用画像を前記スクリーンに投影し、
前記カメラは、前記スクリーンに投影されたキャリブレーション用画像を撮影し、
前記カメラにより撮影されたキャリブレーション用画像に基づいて、前記スクリーンに設けられた貫通孔の位置を特定する孔位置特定部
をさらに有し、
前記操作検知部は、前記孔位置特定部により特定された位置の画素値に基づいて、ユーザの操作を検知する
請求項6に記載の入出力システム。 - 前記スクリーンは、網目状のシートで構成されている
請求項6に記載の入出力システム。 - 透光性を有するスクリーンと、
前記スクリーンの一方の面に、画像を投影するプロジェクタと、
前記スクリーンに対して、前記プロジェクタとは異なる角度で光を照射する光源と、
前記光源から見て、前記スクリーンの裏側に配置された第2のスクリーンと、
前記第2のスクリーンを撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、投影された画像に対するユーザの操作を検知する操作検知部と
を有する入出力システム。 - 入力された画像データに基づいて、スクリーンに投影された影の大きさ又は濃度の変化を特定する変化特定部と、
前記変化特定部により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定部と、
前記距離特定部により特定された距離に基づいて、ユーザの操作を検知する操作検知部と
を有する入力処理装置。 - 透光性を有するスクリーンの一方の面に、プロジェクタが画像を投影するステップと、
前記スクリーンの他方の面に光を照射するステップと、
前記スクリーンの一方の面をカメラが撮影するステップと、
前記カメラにより撮影された撮影画像に基づいて、投影された画像に対するユーザの操作を検知するステップと
を有する入出力方法。 - 入力された画像データに基づいて、スクリーンに投影された影の大きさ又は濃度の変化を特定する変化特定機能と、
前記変化特定機能により特定された変化に基づいて、前記スクリーンからユーザまでの距離を特定する距離特定機能と、
前記距離特定機能により特定された距離に基づいて、ユーザの操作を検知する操作検知機能と
をコンピュータに実現させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003251A JP6197163B1 (ja) | 2017-01-12 | 2017-01-12 | 入出力システム、入力処理装置、入出力方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003251A JP6197163B1 (ja) | 2017-01-12 | 2017-01-12 | 入出力システム、入力処理装置、入出力方法、及び、プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017132998A Division JP2018113011A (ja) | 2017-07-06 | 2017-07-06 | 入出力システム、入力処理装置、入出力方法、及び、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6197163B1 JP6197163B1 (ja) | 2017-09-20 |
JP2018112921A true JP2018112921A (ja) | 2018-07-19 |
Family
ID=59895593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017003251A Active JP6197163B1 (ja) | 2017-01-12 | 2017-01-12 | 入出力システム、入力処理装置、入出力方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6197163B1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784713A (ja) * | 1993-06-29 | 1995-03-31 | Casio Comput Co Ltd | コマンド処理装置 |
JP2005334334A (ja) * | 2004-05-27 | 2005-12-08 | Aruze Corp | ゲーム機 |
JP2007223416A (ja) * | 2006-02-22 | 2007-09-06 | Tokai Rika Co Ltd | 車両のインストルメントパネル |
JP2007299434A (ja) * | 2007-08-23 | 2007-11-15 | Advanced Telecommunication Research Institute International | 大画面タッチパネルシステムおよび検索・表示システム |
US20100302207A1 (en) * | 2009-05-27 | 2010-12-02 | Lan-Rong Dung | Optical Touch Control Method and Apparatus Thereof |
JP2013196348A (ja) * | 2012-03-19 | 2013-09-30 | Nippon Seiki Co Ltd | 位置検出装置 |
-
2017
- 2017-01-12 JP JP2017003251A patent/JP6197163B1/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784713A (ja) * | 1993-06-29 | 1995-03-31 | Casio Comput Co Ltd | コマンド処理装置 |
JP2005334334A (ja) * | 2004-05-27 | 2005-12-08 | Aruze Corp | ゲーム機 |
JP2007223416A (ja) * | 2006-02-22 | 2007-09-06 | Tokai Rika Co Ltd | 車両のインストルメントパネル |
JP2007299434A (ja) * | 2007-08-23 | 2007-11-15 | Advanced Telecommunication Research Institute International | 大画面タッチパネルシステムおよび検索・表示システム |
US20100302207A1 (en) * | 2009-05-27 | 2010-12-02 | Lan-Rong Dung | Optical Touch Control Method and Apparatus Thereof |
JP2013196348A (ja) * | 2012-03-19 | 2013-09-30 | Nippon Seiki Co Ltd | 位置検出装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6197163B1 (ja) | 2017-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7593593B2 (en) | Method and system for reducing effects of undesired signals in an infrared imaging system | |
WO2012124730A1 (ja) | 検出装置、入力装置、プロジェクタ、及び電子機器 | |
JP2020504565A (ja) | カメラアセンブリおよびモバイル電子装置 | |
JP7023965B2 (ja) | カメラアセンブリおよびモバイル電子装置 | |
CN108664173A (zh) | 投影型影像显示装置 | |
JP2006092516A (ja) | 対話式ディスプレイ・システムの較正 | |
EP2321697A1 (en) | Spatially adaptive photographic flash unit | |
CN104658462B (zh) | 投影机以及投影机的控制方法 | |
WO2018201876A1 (zh) | 影像传感器、相机模组和电子装置 | |
WO2012132955A1 (ja) | 画像表示装置及び物体検出装置 | |
JP6197163B1 (ja) | 入出力システム、入力処理装置、入出力方法、及び、プログラム | |
TWI703399B (zh) | 投影裝置及其操作方法 | |
JP2018113011A (ja) | 入出力システム、入力処理装置、入出力方法、及び、プログラム | |
CN210005961U (zh) | 一种电子设备 | |
JP5550111B2 (ja) | 撮像装置、撮像方法、及びプログラム | |
US20100097351A1 (en) | Apparatus and method for adjusting finger depth using camera and touch screen having the apparatus | |
JP5862034B2 (ja) | 画像表示装置 | |
EP2332027A1 (en) | Interactive displays | |
WO2023106114A1 (ja) | 情報処理方法、情報処理システム、およびプログラム | |
JP6328304B1 (ja) | 入出力システム | |
JP2016106289A (ja) | 撮像装置 | |
JP2024010912A (ja) | 投影映像制御システム、方法及びプログラム | |
CN114792490A (zh) | 一种电子装置 | |
JP2024002121A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5862035B2 (ja) | 物体検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6197163 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |