JP2018045349A - 処理装置、処理方法及びプログラム - Google Patents
処理装置、処理方法及びプログラム Download PDFInfo
- Publication number
- JP2018045349A JP2018045349A JP2016178292A JP2016178292A JP2018045349A JP 2018045349 A JP2018045349 A JP 2018045349A JP 2016178292 A JP2016178292 A JP 2016178292A JP 2016178292 A JP2016178292 A JP 2016178292A JP 2018045349 A JP2018045349 A JP 2018045349A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- feature
- feature extraction
- operation detection
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0334—Foot operated pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Projection Apparatus (AREA)
Abstract
【課題】表示面に表示されているコンテンツを操作する操作部の特徴に応じた処理を実行可能な処理装置等を提供する。
【解決手段】処理装置300は、操作検出部311と、画像取得部312と、特徴抽出部313と、処理実行部314とを含む。操作検出部311は、投影面に投影されているコンテンツを操作するユーザの足部の操作を検出する。画像取得部312は、操作検出部311により操作が検出されたとき、ユーザの足部を撮像して、撮像画像を取得する。特徴抽出部313は、画像取得部312により取得された撮像画像内のユーザの足部の特徴を抽出する。処理実行部314は、特徴抽出部313により抽出された特徴に基づいて、操作検出部311により検出された操作に対応する所定の処理を実行する。
【選択図】図3
【解決手段】処理装置300は、操作検出部311と、画像取得部312と、特徴抽出部313と、処理実行部314とを含む。操作検出部311は、投影面に投影されているコンテンツを操作するユーザの足部の操作を検出する。画像取得部312は、操作検出部311により操作が検出されたとき、ユーザの足部を撮像して、撮像画像を取得する。特徴抽出部313は、画像取得部312により取得された撮像画像内のユーザの足部の特徴を抽出する。処理実行部314は、特徴抽出部313により抽出された特徴に基づいて、操作検出部311により検出された操作に対応する所定の処理を実行する。
【選択図】図3
Description
本発明は、処理装置、処理方法及びプログラムに関する。
従来から、コンテンツをスクリーンに投影することにより、ユーザにコンテンツを提供するシステムがある。例えば、特許文献1には、人感センサによって人を検出した際に、コンテンツの輪郭の形状に形成されたスクリーンにコンテンツを投影する技術が開示されている。
しかしながら、特許文献1のような技術では、ユーザの在・不在に応じてコンテンツを出力することができるが、一方的なコンテンツの出力しかできず、投影されているコンテンツを操作する操作部の特徴に応じた処理を実行することが困難である。
本発明は、上述のような事情に鑑みてなされたものであり、表示面に表示されているコンテンツを操作する操作部の特徴に応じた処理を実行可能な処理装置等を提供することを目的とする。
上記目的を達成するため、本発明に係る処理装置は、
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段と、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段と、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段と、
を備えることを特徴とする。
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段と、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段と、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段と、
を備えることを特徴とする。
本発明によれば、表示面に表示されているコンテンツを操作する操作部の特徴に応じた処理を実行できる。
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の実施形態に係る処理システム1の外観構成を示す図である。処理システム1は、店頭や公共施設などに設置され、視聴者であるユーザに案内や広告などのコンテンツを表示するデジタル・サイネージ(いわゆる電子看板)を利用して所定の処理を実行するシステムである。
本実施形態では、処理システム1は、所定の処理の一例として、管理対象領域へ入場するユーザの順番待ちを管理する処理(順番管理処理)を実行する。例えば、順番管理処理は、ユーザの足部2による操作を受け付けて、そのユーザの順番を登録する登録処理と、ユーザの足部2による操作を受け付けて、そのユーザの順番が入場可能な番号か否か照合する照合処理と、から構成される。
図1に示すように、処理システム1は、投影装置100と、投影面200と、処理装置300とから構成される。
投影装置100は、投影面200にコンテンツを投影する装置であって、画像や映像を投影するプロジェクタから構成される。投影装置100が投影面200に投影するコンテンツの一例を図2に示す。図2に示す例において、コンテンツは、登録処理または照合処理のいずれかを選択するための操作を受け付ける操作受付画面201である。操作受付画面201は、ユーザの足部2により操作されるボタンB1,B2と、ユーザにボタンB1,B2を操作するよう促すメッセージMと、を含む。ボタンB1は、登録処理を選択するための画像である。また、ボタンB2は、照合処理を選択するための画像である。ユーザは、投影面200に投影されたボタンB1,B2を足部2で蹴ることにより、登録処理または照合処理を選択する。
投影面200は、投影装置100により投影された画像や映像が投影される面である。投影面200は、例えば、建物の壁面である。
処理装置300は、投影装置100と有線または無線により通信可能に接続され、投影装置100が投影するコンテンツを投影装置100に出力する。また、処理装置300は、投影面200に投影されたコンテンツへのユーザの足部2による操作を検出すると、検出された操作に対応する順番管理処理を実行する。
次に、処理装置300の構成について詳細に説明する。
図3は、処理装置300の構成を示す概略図である。図3に示すように、処理装置300は、制御部301と、記憶部302と、通信部303と、入力部304、センサ部305、撮像部306とから構成され、各部は、バス307により接続されている。
制御部301は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)によって構成される。制御部301は、ROMに記憶されたプログラム(例えば、後述する順番管理処理に係るプログラム)を実行することにより、後述する操作検出部311、画像取得部312、特徴抽出部313、処理実行部314の機能を実現する。
記憶部302は、HDD(Hard Disk Drive)などの不揮発性メモリである。記憶部302は、投影装置100に出力する様々なコンテンツを記憶する。また、記憶部302は、後述する特徴データベース(DB)321を記憶する。
通信部303は、処理装置300を投影装置100と通信可能に接続するための通信インターフェースから構成される。
入力部304は、ボタン、キーボード、タッチパネル等の入力装置から構成される。入力部304は、処理装置300のユーザからの操作入力を受け付け、受け付けた操作入力に対応する信号を制御部301に出力する。
センサ部305は、レーザと受光センサを利用した距離画像センサから構成される。センサ部305は、その画角内にユーザの足部2が入るように、投影面の下方付近に設置され、距離画像データを取得する。距離画像データには、測定対象物の形状と、その測定対象物までの距離と、測定対象物の位置を表すデータが含まれる。センサ部305は、取得された距離画像データを制御部301に出力する。
上記のような距離画像データを取得するため、例えば、投光した対象物に当たって戻る時間を測定することにより距離画像データを取得することができる。
撮像部306は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを含む撮像装置から構成される。撮像部306は、ユーザの足部2を含む撮像画像を取得し、制御部301に出力する。
次に、処理装置300の制御部301の機能構成について説明する。図3に示すように、制御部301は、操作検出部311、画像取得部312、特徴抽出部313、処理実行部314として機能する。
操作検出部311は、投影面200に表示されている操作受付画面201を操作するユーザの足部2の操作を検出する。例えば、操作検出部311は、センサ部305から距離画像データを取得する。そして、操作検出部311は、例えば、取得された距離画像データから、現実空間におけるユーザの足部2と投影面200との距離を取得する。なお、ユーザの足部2の位置とは、例えば、ユーザの足部2が伸ばしている足先の位置としてもよいし、ユーザの足部2の最も投影面200に近い部分の位置としてもよい。
そして、操作検出部311は、例えば、取得された距離画像データから、現実空間におけるユーザの足部2と投影面200との距離が所定の距離以下になったとき、すなわち、ユーザの足部2の位置を取得する。そして、操作検出部311は、取得した位置が、ボタンB1,B2の位置に対応するとき、ユーザの足部2の操作を検出したと判定する。例えば、図2において、操作検出部311は、取得した位置が領域A1内である場合、ボタンB1(登録処理)を選択する操作を検出したと判定する。また、操作検出部311は、取得した位置が領域A2内である場合、ボタンB2(照合処理)を選択する操作を検出したと判定する。
画像取得部312は、操作検出部311により操作が検出されたとき、ユーザの足部2を撮像して、撮像画像を取得する。例えば、画像取得部312は、操作検出部311が、ユーザの足部2による操作を検出したと判定すると、撮像部306を制御して、ユーザの足部2を被写体として撮像し、その撮像画像を撮像部306から取得する。
特徴抽出部313は、画像取得部312により取得された撮像画像内のユーザの足部2の特徴を抽出する。例えば、特徴抽出部313は、撮像画像に含まれるユーザの足部2の色、大きさ、及び形状を、特徴として抽出する。例えば、ユーザの足部2は、靴や、ズボン、スカート、靴下などの衣服を含み、特徴抽出部313は、これらの色、大きさ、及び形状を特徴として抽出してもよい。撮像画像からユーザの足部2の特徴を抽出する方法としては、一般的な画像特徴抽出技術を用いることができる。
処理実行部314は、特徴抽出部313により抽出された特徴に基づいて、操作検出部311により検出された操作に対応する順番管理処理を実行する。例えば、処理実行部314は、登録処理を実行する登録部315と、照合処理を実行する照合部316と、を含む。
登録部315は、操作検出部311により検出された操作が、登録処理の選択を表すとき、特徴抽出部313により抽出された特徴を、特徴パターンとして特徴DB321に登録する登録処理を実行する。
ここで、特徴DB321に格納されるデータについて説明する。図4は、特徴DB321に格納されるデータの一例を示す図である。図4に示すように、特徴DB321は、順番と、特徴パターンと、入場可能時間とを対応付けて格納する。順番は、登録部315に登録された順番を表す。特徴パターンは、特徴抽出部313により抽出された特徴であって、ユーザの足部2の色、大きさ、及び形状を含む。入場可能時間は、管理対象領域に入場可能な時間を表す。本実施形態では、管理対象領域には、30分おきに、2人のユーザが入場可能であるとする。
登録部315は、操作検出部311により検出された操作が、登録処理の選択を表すとき、特徴抽出部313により抽出された特徴を特徴パターンとして、順番と、入場可能時間を割り当てて、特徴DB321に登録する。
照合部316は、操作検出部311により検出された操作が、照合処理の選択を表すとき、特徴抽出部313により抽出された特徴が、予め特徴DB321に登録されている特徴パターンとマッチするかを判定する照合処理を実行する。例えば、照合部316は、特徴抽出部313により抽出された特徴が、予め特徴DB321に登録されている特徴パターンとマッチし、かつ、現在時刻がその特徴パターンに対応付けられた入場可能時間内である場合、入場許可を表す画面を投影装置100に出力する。また、例えば、照合部316は、特徴抽出部313により抽出された特徴が、予め特徴DB321に登録されている特徴パターンとマッチしない場合、または、現在時刻がマッチした特徴パターンに対応付けられた入場可能時間外である場合、入場不可を表す画面を投影装置100に出力する。また、照合部316は、抽出された特徴とマッチする特徴パターンが特徴DB321に登録されていない場合、登録を促す旨のメッセージを出力してもよい。
次に、本実施形態に係る処理装置300の制御部301が実行する順番管理処理について説明する。図5は、本実施形態に係る順番管理処理のフローチャートの一例である。この順番管理処理は、例えば、入力部304を介して、本処理の開始を指示する操作を受け付けたことを契機として開始される。
まず、操作検出部311は、図2に示す操作受付画面201を投影装置100に出力する(ステップS101)。
次に、操作検出部311は、センサ部305から距離画像データを取得する(ステップS102)。
そして、操作検出部311は、ステップS102において取得された距離画像データから、投影面200とユーザの足部2との距離を取得する(ステップS103)。
そして、操作検出部311は、ステップS103において取得された距離が所定の距離以下か否かを判定する(ステップS104)。操作検出部311は、取得された距離が所定の距離以下でないと判定した場合(ステップS104;No)、ステップS102に戻ってその後の処理を繰り返す。
操作検出部311は、取得された距離が所定の距離以下であると判定した場合(ステップS104;Yes)、ステップS102において取得された距離画像データから、ユーザの足部2が登録処理を選択する操作を検出したか否かを判定する(ステップS105)。
操作検出部311が、ユーザの足部2が登録処理を選択する操作を検出したと判定した場合(ステップS105;Yes)、制御部301は、登録処理を実行する(ステップS106)。
図6は、本実施形態に係る登録処理のフローチャートの一例である。制御部301は、登録処理を開始すると、画像取得部312は、撮像部306から、ユーザの足部2を含む撮像画像を取得する(ステップS201)。
次に、特徴抽出部313は、ステップS201において取得された撮像画像から、ユーザの足部2の特徴を抽出する(ステップS202)。
そして、登録部315は、ステップS202において抽出された特徴を特徴パターンとして、順番及び入場可能時間とともに特徴DB321に登録する(ステップS203)。そして、制御部301は、図5のステップS101に戻って、その後の処理を繰り返す。
図5に戻って、操作検出部311が、ユーザの足部2が登録処理を選択する操作を検出していないと判定した場合(ステップS105;No)、ユーザの足部2が照合処理を選択する操作を検出したか否かを判定する(ステップS107)。操作検出部311が、ユーザの足部2が照合処理を選択する操作を検出していないと判定した場合(ステップS107;No)、制御部301は、ステップS102に戻って、その後の処理を繰り返す。
操作検出部311が、ユーザの足部2が照合処理を選択する操作を検出したと判定した場合(ステップS107;Yes)、制御部301は、照合処理を実行する(ステップS108)。
図7は、本実施形態に係る照合処理のフローチャートの一例である。制御部301は、照合処理を開始すると、図6に示す登録処理のステップS201〜S202と同様に、ステップS301〜S302の処理を実行する。
そして、照合部316は、ステップS302において抽出された特徴とマッチする特徴パターンが特徴DB321に登録されているか否かを判定する(ステップS303)。
照合部316は、ステップS302において抽出された特徴とマッチする特徴パターンが特徴DB321に登録されていると判定した場合(ステップS303;Yes)、現在時刻が、その特徴パターンに対応付けられている入場可能時間内か否かを判定する(ステップS304)。
照合部316は、現在時刻が入場可能時間内であると判定した場合(ステップS304;Yes)、入場許可を表す画面を投影装置100に出力する(ステップS305)。そして、制御部301は、図5のステップS101に戻って、その後の処理を繰り返す。
また、照合部316は、ステップS302において抽出された特徴とマッチする特徴パターンが特徴DB321に登録されていないと判定した場合(ステップS303;No)、または現在時刻が入場可能時間内でないと判定した場合(ステップS304;No)、入場不可を表す画面を投影装置100に出力する(ステップS306)。そして、制御部301は、図5のステップS101に戻って、その後の処理を繰り返す。
以上の処理は、例えば、処理装置300の電源がOFFになる、または入力部304を介して、ユーザから出力処理の終了を示す操作入力を受け付けるまで繰り返し実行される。
以上説明したように、本実施形態に係る処理装置300は、コンテンツを表示する投影面200へのユーザの足部2による操作を検出すると、ユーザの足部2を撮像する。そして、処理装置300は、撮像画像から、ユーザの足部2の特徴を抽出し、抽出された特徴に基づいて、検出された操作に対応する順番管理処理を実行する。従って、処理装置300は、ユーザの足部2の特徴に応じた処理を実行することができる。
また、処理装置300は、投影面200としての壁面に投影されているコンテンツへのユーザの足部2の操作を検出する。そのため、両手に荷物をもっているなど、手での操作が困難なユーザであっても、容易にコンテンツを操作することができる。また、コンテンツは壁面に投影されているため、液晶パネルなどの表示装置と異なり、ユーザが蹴っても破損しにくい。
また、処理装置300は、ユーザの足部2の特徴を順番管理処理におけるユーザの認証に利用するため、整理券の発券や、人手での順番管理に必要な手間やコストを削減することができる。
以上で実施形態の説明を終了するが、上記実施形態は一例であり、処理装置300の具体的な構成や出力制御処理の内容などが上記実施形態で説明したものに限られず、以下のような変形も可能である。
例えば、上記の実施形態において、処理装置300は、ユーザの足部2の操作を検出する例について説明した。しかし、処理装置300が検出する操作は、ユーザの足部2の操作に限られない。すなわち、本発明に係る操作部は、ユーザの足部2に限られず、例えば、ユーザの手であってもよい。
また、上記の実施形態において、投影面200が、壁面である例について説明した。しかし、投影面200は、床面であってもよい。
また、上記の実施形態において、投影装置100がコンテンツを投影面200に投影する例について説明したが、本発明に係る表示面へのコンテンツの表示方法はこれに限られない。例えば、コンテンツは、例えば、LCD(Liquid Crystal Display)、EL(Electroluminescence)ディスプレイなどの表示装置の表示面に表示されてもよい。
また、上記の実施形態において、操作検出部311は、センサ部305から取得した距離画像データに基づいて、ユーザの足部2の操作を検出したが、操作の検出方法はこれに限られない。例えば、処理装置300のセンサ部305は、投影面200の振動を検出する振動センサを含んでもよい。この場合、操作検出部311は、振動センサから、投影面200の振動を表す振動データを取得する。そして、例えば、操作検出部311は、距離画像データから取得された距離が0であり、かつ、振動データが表す振幅が所定の閾値よりも大きいときに、ユーザの足部2が投影面に接触したと判定する。これにより、処理装置300は、ユーザの足部2の投影面200への接触をさらに精度よく検出することができる。
また、上記の実施形態において、特徴抽出部313は、ユーザの足部2の色、大きさ、及び形状を、特徴として抽出したが、特徴抽出部313が抽出する特徴はこれに限られず、このうち少なくとも1つであってもよい。
また、上記の実施形態において、照合部316は、登録部315により登録された特徴パターンと、特徴抽出部313により抽出された特徴とがマッチするか判定する例について説明した。しかし、照合部316が、登録部315により登録された特徴パターンではなく、予め記憶部302に記録された所定の特徴パターンと、特徴抽出部313により抽出された特徴とがマッチするか判定してもよい。
上記の実施形態において、処理装置300は、順番を管理する順番管理処理を実行したが、処理装置300が実行する所定の処理はこれに限られず、様々な処理を実行可能である。例えば、処理装置300は、公共交通機関での料金精算において、支払い済みのユーザの登録、及び支払い済みの確認に用いられても良い。
また、本発明に係る処理装置300は、専用の装置によらず、通常のコンピュータを用いて実現可能である。例えば、コンピュータがプログラムを実行することで、処理装置300を実現してもよい。処理装置300の機能を実現するためのプログラムは、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、HDD等のコンピュータ読み取り可能な記録媒体に記憶されてもよいし、ネットワークを介してコンピュータにダウンロードされてもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段と、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段と、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段と、
を備えることを特徴とする処理装置。
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段と、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段と、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段と、
を備えることを特徴とする処理装置。
(付記2)
前記処理実行手段は、前記特徴抽出手段により抽出された前記特徴が、予め記憶部に登録されている特徴パターンとマッチするかを判定する照合処理を、前記所定の処理として実行する、
ことを特徴とする付記1に記載の処理装置。
前記処理実行手段は、前記特徴抽出手段により抽出された前記特徴が、予め記憶部に登録されている特徴パターンとマッチするかを判定する照合処理を、前記所定の処理として実行する、
ことを特徴とする付記1に記載の処理装置。
(付記3)
前記処理実行手段は、前記特徴抽出手段により抽出された前記特徴を、前記特徴パターンとして前記記憶部に登録する登録処理を、前記所定の処理として実行する、
ことを特徴とする付記2に記載の処理装置。
前記処理実行手段は、前記特徴抽出手段により抽出された前記特徴を、前記特徴パターンとして前記記憶部に登録する登録処理を、前記所定の処理として実行する、
ことを特徴とする付記2に記載の処理装置。
(付記4)
前記操作検出手段は、前記操作部としてのユーザの足部による、投影装置により前記表示面としての壁面または床面に投影されている前記コンテンツへの操作を、前記操作として検出する、
ことを特徴とする付記1乃至3のいずれか1つに記載の処理装置。
前記操作検出手段は、前記操作部としてのユーザの足部による、投影装置により前記表示面としての壁面または床面に投影されている前記コンテンツへの操作を、前記操作として検出する、
ことを特徴とする付記1乃至3のいずれか1つに記載の処理装置。
(付記5)
前記操作検出手段は、前記操作部と前記表示面との距離を取得し、取得された前記距離に基づいて、前記操作部による操作を検出する、
ことを特徴とする付記1乃至4のいずれか1つに記載の処理装置。
前記操作検出手段は、前記操作部と前記表示面との距離を取得し、取得された前記距離に基づいて、前記操作部による操作を検出する、
ことを特徴とする付記1乃至4のいずれか1つに記載の処理装置。
(付記6)
前記操作検出手段は、さらに前記表示面の振動を表す振動データを取得し、取得された振動データと、取得された前記距離に基づいて、前記操作部による操作を検出する、
ことを特徴とする付記5に記載の処理装置。
前記操作検出手段は、さらに前記表示面の振動を表す振動データを取得し、取得された振動データと、取得された前記距離に基づいて、前記操作部による操作を検出する、
ことを特徴とする付記5に記載の処理装置。
(付記7)
前記特徴抽出手段は、前記操作部の色、大きさ、及び形状のうち少なくとも1つを、前記特徴として抽出する、
ことを特徴とする付記1乃至6のいずれか1つに記載の処理装置。
前記特徴抽出手段は、前記操作部の色、大きさ、及び形状のうち少なくとも1つを、前記特徴として抽出する、
ことを特徴とする付記1乃至6のいずれか1つに記載の処理装置。
(付記8)
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出ステップと、
前記操作検出ステップにおいて前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得ステップと、
前記画像取得ステップにおいて取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出ステップと、
前記特徴抽出ステップにおいて抽出された前記特徴に基づいて、前記操作検出ステップにおいて検出された前記操作に対応する所定の処理を実行する処理実行ステップと、
を備えることを特徴とする処理方法。
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出ステップと、
前記操作検出ステップにおいて前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得ステップと、
前記画像取得ステップにおいて取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出ステップと、
前記特徴抽出ステップにおいて抽出された前記特徴に基づいて、前記操作検出ステップにおいて検出された前記操作に対応する所定の処理を実行する処理実行ステップと、
を備えることを特徴とする処理方法。
(付記9)
コンピュータを
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段、
として機能させることを特徴とするプログラム。
コンピュータを
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段、
として機能させることを特徴とするプログラム。
1…処理システム、2…足部、100…投影装置、200…投影面、201…操作受付画面、300…処理装置、301…制御部、302…記憶部、303…通信部、304…入力部、305…センサ部、306…撮像部、307…バス、311…操作検出部、312…画像取得部、313…特徴抽出部、314…処理実行部、315…登録部、316…照合部、321…特徴DB、A1,A2…領域、B1,B2…ボタン、M…メッセージ
Claims (9)
- 表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段と、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段と、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段と、
を備えることを特徴とする処理装置。 - 前記処理実行手段は、前記特徴抽出手段により抽出された前記特徴が、予め記憶部に登録されている特徴パターンとマッチするかを判定する照合処理を、前記所定の処理として実行する、
ことを特徴とする請求項1に記載の処理装置。 - 前記処理実行手段は、前記特徴抽出手段により抽出された前記特徴を、前記特徴パターンとして前記記憶部に登録する登録処理を、前記所定の処理として実行する、
ことを特徴とする請求項2に記載の処理装置。 - 前記操作検出手段は、前記操作部としてのユーザの足部による、投影装置により前記表示面としての壁面または床面に投影されている前記コンテンツへの操作を、前記操作として検出する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の処理装置。 - 前記操作検出手段は、前記操作部と前記表示面との距離を取得し、取得された前記距離に基づいて、前記操作部による操作を検出する、
ことを特徴とする請求項1乃至4のいずれか1項に記載の処理装置。 - 前記操作検出手段は、さらに前記表示面の振動を表す振動データを取得し、取得された振動データと、取得された前記距離に基づいて、前記操作部による操作を検出する、
ことを特徴とする請求項5に記載の処理装置。 - 前記特徴抽出手段は、前記操作部の色、大きさ、及び形状のうち少なくとも1つを、前記特徴として抽出する、
ことを特徴とする請求項1乃至6のいずれか1項に記載の処理装置。 - 表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出ステップと、
前記操作検出ステップにおいて前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得ステップと、
前記画像取得ステップにおいて取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出ステップと、
前記特徴抽出ステップにおいて抽出された前記特徴に基づいて、前記操作検出ステップにおいて検出された前記操作に対応する所定の処理を実行する処理実行ステップと、
を備えることを特徴とする処理方法。 - コンピュータを
表示面に表示されているコンテンツを操作する操作部の操作を検出する操作検出手段、
前記操作検出手段により前記操作が検出されたとき、前記操作部を撮像して、撮像画像を取得する画像取得手段、
前記画像取得手段により取得された前記撮像画像内の前記操作部の特徴を抽出する特徴抽出手段、
前記特徴抽出手段により抽出された前記特徴に基づいて、前記操作検出手段により検出された前記操作に対応する所定の処理を実行する処理実行手段、
として機能させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016178292A JP2018045349A (ja) | 2016-09-13 | 2016-09-13 | 処理装置、処理方法及びプログラム |
US15/699,901 US20180074576A1 (en) | 2016-09-13 | 2017-09-08 | Processing device, processing method, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016178292A JP2018045349A (ja) | 2016-09-13 | 2016-09-13 | 処理装置、処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018045349A true JP2018045349A (ja) | 2018-03-22 |
Family
ID=61559864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016178292A Pending JP2018045349A (ja) | 2016-09-13 | 2016-09-13 | 処理装置、処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180074576A1 (ja) |
JP (1) | JP2018045349A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019176679A1 (ja) | 2018-03-13 | 2019-09-19 | Kyb株式会社 | ソレノイド、電磁弁、及び緩衝器 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7134080B2 (en) * | 2002-08-23 | 2006-11-07 | International Business Machines Corporation | Method and system for a user-following interface |
US20080040692A1 (en) * | 2006-06-29 | 2008-02-14 | Microsoft Corporation | Gesture input |
US9990078B2 (en) * | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
-
2016
- 2016-09-13 JP JP2016178292A patent/JP2018045349A/ja active Pending
-
2017
- 2017-09-08 US US15/699,901 patent/US20180074576A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019176679A1 (ja) | 2018-03-13 | 2019-09-19 | Kyb株式会社 | ソレノイド、電磁弁、及び緩衝器 |
Also Published As
Publication number | Publication date |
---|---|
US20180074576A1 (en) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5541407B1 (ja) | 画像処理装置及びプログラム | |
US10324563B2 (en) | Identifying a target touch region of a touch-sensitive surface based on an image | |
US20140098224A1 (en) | Touch and motion detection using surface map, object shadow and a single camera | |
JP5674465B2 (ja) | 画像処理装置、カメラ、画像処理方法およびプログラム | |
US20160112768A1 (en) | Method for providing additional information related to broadcast content and electronic device implementing the same | |
US9014484B2 (en) | Appliance control apparatus, method thereof and program therefor | |
KR101710733B1 (ko) | 객체 식별을 이용하는 타깃화된 광고 | |
CN102332091A (zh) | 摄像装置及其控制方法、拍摄支持系统及个体评价方法 | |
US11062137B2 (en) | System, portable terminal device, server, program, and method for viewing confirmation | |
JP2016177393A (ja) | 情報処理装置、顔認識方法、及びプログラム | |
CN102196176A (zh) | 信息处理设备、信息处理方法和程序 | |
CN106412357A (zh) | 认证设备和处理设备 | |
US10664090B2 (en) | Touch region projection onto touch-sensitive surface | |
JP2018060354A (ja) | 携帯端末、認証システム、認証方法、及び認証用プログラム | |
US20190306433A1 (en) | Control device, monitoring system, and monitoring camera control method | |
JP2018067294A (ja) | 学習データ作成支援方法、学習データ作成支援装置、およびプログラム | |
US20200242362A1 (en) | System, server, program, and method for confirming acquisition of target object | |
JP2011150497A (ja) | 人物認証装置、人物認証方法、およびそのソフトウェアプログラム | |
KR100968205B1 (ko) | 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치 | |
CN103516989B (zh) | 电子装置及增强图像分辨率的方法 | |
JP2018045349A (ja) | 処理装置、処理方法及びプログラム | |
JP5735071B2 (ja) | 情報検索装置、情報検索方法、及び情報検索プログラム | |
US10447996B2 (en) | Information processing device and position information acquisition method | |
JP4979895B2 (ja) | ディスプレイ制御装置、ディスプレイ制御方法、ディスプレイ制御プログラム、およびディスプレイ | |
CN105611108A (zh) | 一种信息处理方法及电子设备 |