JP2011039844A - 画像認識装置および操作判定方法並びにプログラム - Google Patents

画像認識装置および操作判定方法並びにプログラム Download PDF

Info

Publication number
JP2011039844A
JP2011039844A JP2009187449A JP2009187449A JP2011039844A JP 2011039844 A JP2011039844 A JP 2011039844A JP 2009187449 A JP2009187449 A JP 2009187449A JP 2009187449 A JP2009187449 A JP 2009187449A JP 2011039844 A JP2011039844 A JP 2011039844A
Authority
JP
Japan
Prior art keywords
operator
operation surface
image
virtual
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009187449A
Other languages
English (en)
Other versions
JP4701424B2 (ja
Inventor
Kenji Izumi
賢二 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimane Prefecture
Original Assignee
Shimane Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2009187449A priority Critical patent/JP4701424B2/ja
Application filed by Shimane Prefecture filed Critical Shimane Prefecture
Priority to PCT/JP2010/005058 priority patent/WO2011018901A1/ja
Priority to CA2768893A priority patent/CA2768893C/en
Priority to EP10808086.2A priority patent/EP2466423B1/en
Priority to CA 2886208 priority patent/CA2886208A1/en
Priority to US13/384,682 priority patent/US8890809B2/en
Priority to KR1020127001932A priority patent/KR101347232B1/ko
Priority to CN201510015361.8A priority patent/CN104615242A/zh
Priority to CN201080035693.8A priority patent/CN102473041B/zh
Publication of JP2011039844A publication Critical patent/JP2011039844A/ja
Application granted granted Critical
Publication of JP4701424B2 publication Critical patent/JP4701424B2/ja
Priority to US14/522,087 priority patent/US9535512B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】的確な操作の判定を可能にすること。
【解決手段】画像読取部301においてビデオカメラ201で撮影されたデータを読取り(S401)、そのデータから操作者の像を、画像抽出部302により抽出する(S402)。このような準備の結果、抽出した操作者102の画像に基づいて仮想操作面および操作領域を形成する(S403)。大人の操作者810については、身長(視線の位置)や腕の長さを考慮して操作領域811のように形成することができるし、子供の操作者820の場合、身長もより低くなり、腕も短くなるので、これにあわせて操作領域821を設定することができる。
【選択図】図8

Description

本発明は、画像認識装置および操作判定方法に関し、より詳細には、ビデオカメラ等により撮影した画像から測定対象の動作の判定を行う画像認識装置および操作判定方法に関する。
近年、コンピュータや電子機器と人間とのインタフェース、すなわちマンマシンインタフェースとして様々な機器、手法が提案されており、特にゲーム機や操作ガイド機器などではカメラで操作者全体、あるいは一部を撮影し、その画像に応じて操作者の意志を判断して動作する技術が提案されてきている。例えば、特許文献1には、CCDカメラで撮像した画像中の物体の形状、動きを認識するホストコンピュータと、ホストコンピュータによって認識した物体の形状、動きを表示するディスプレイとを備え、CCDカメラにユーザが向い、手振り等によって指示を与えると、与えた手振りがディスプレイの表示画面上に表示され、表示画面上に表示した仮想スイッチ等を手振りによって矢印カーソルのアイコンで選択でき、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となる技術が提案されている。
最近ではさらに、手指の動きや形状を撮像した画像から、ある種のジェスチャとして認識して、操作入力をする入力システムも提案されている。例えば、ジェスチャによる画面操作でのプレゼンテーションや、タッチパネルを必要としない非接触キオスク端末に用いることができる入力装置において、大画面に向き合った操作者は、通常画面下部の位置に設置されたカメラに向けて種々の操作を行うと、その内容が大画面に映し出される。このように撮影された画像から操作者の形状、動きを、本技術分野で知られた方法により抽出し、例えば予め定められ、データベースに格納されたパターンと比較することにより、操作者の形状、動きの意味を判定し機器の制御に用いる。
一方、操作者の画像の読み取り技術としては、図13に示すように、三次元または立体対応のカメラで操作者を撮影し、立体画像を再現することも可能となっており、セキュリティチェックなどの用途に用いられている。立体画像を再現することにより、操作者の動きを立体的に把握することができ、例えば操作者の、特に手の動きが前後にも認識できるため、二次元画像を用いたものに比べジェスチャのバラエティが増大する。また、複数の操作者が画像として抽出されても、多人数であれば立体画像であるため前後関係がわかり、一番前の操作者の動きのみ抽出し、操作の入力に使用することもできる。
特開2004−078977号公報
しかしながら、従来のジェスチャ操作はデファクトスタンダードといった何らかの標準的なジェスチャが確立されておらず、人差し指でのXY座標のポインティング操作以外はユーザがどのような動作で何ができるのかが直感的に認識できない。「クリック」、「ダブルクリック」、「ドラッグ」等・・・、クリック操作を何秒間かのウェイト時間の間座標に固定することで指示するものはあるが、設定されたウェイト時間が長すぎる等により快適な操作を阻害することも少なくない。したがって、クリックや決定(ダブルクリック等)などの操作をわかり易く、かつ快適にする現実的な手法がないという問題がある。
また、従来のジェスチャ検出装置は、タッチパネルといった直接操作者が触れることができる入力装置とは異なり、操作者の明確な意思を汲み取りにくい。すなわち、そもそも操作者が何らかの動作を行っても、それが入力を意図したものなのか、単に癖で動いてしまったのか判定することが容易ではないという問題がある。この結果、例えば単純なジェスチャを不自然に目立つ形で行わなければ認識できず、またジェスチャについての事前の取り決めが必要だったり、複雑なジェスチャは使用できなかったりという問題がある。
本発明は、このような問題に鑑みてなされたもので、操作者に何らかの入力につながる操作をしている状態にあることを認識させた上で装置に対し動作させることにより、的確な操作の判定を可能にする画像認識装置および操作判定方法を提供することを目的とする。この結果、操作に習熟していない特殊なジェスチャを覚えることなく、身体全体あるいは一部を動作させることにより、操作者の意志を的確に示す操作として判定することが可能になる。
このような目的を達成するために、画像認識装置であって、請求項1に記載の発明は、操作者の像を読取って立体画像データを生成する三次元撮像手段と、三次元撮像手段により読取られた操作者の像に基づいて、仮想操作面を形成する操作面形成手段と、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて動きが操作であるか否かを判定する操作判定手段と、動きが操作であると判定されると、所定の信号を出力する信号出力手段とを備えたことを特徴とする。
請求項2に記載の発明は、請求項1に記載の画像認識装置において、操作者が所定の空間上の仮想操作面を把握するよう設けられた操作者に知覚可能な、撮像手段の撮像範囲内に予め配置された操作面形成基準をさらに備え、操作面形成手段は、三次元撮像手段により読取られた操作者の像および操作面形成基準に基づいて、仮想操作面を形成することを特徴とする。
請求項3に記載の発明は、請求項2に記載の画像認識装置において、操作面形成手段は、操作面形成基準の位置により一定の操作面を形成し、三次元撮像手段により読取られた操作者の像により形成された一定の操作面を補正して、仮想操作面を形成することを特徴とする。
請求項4に記載の発明は、請求項2または3に記載の画像認識装置において、仮想操作面は、操作面形成基準から上方に投射した面であることを特徴とする。
請求項5に記載の発明は、請求項2または3に記載の画像認識装置において、操作面形成基準の操作者側であって、操作者の移動を一定の範囲内に制限する動作制限手段をさらに備えたことを特徴とする。
請求項6に記載の発明は、請求項2ないし5のいずれかに記載の画像認識装置において、操作面形成基準は、操作者が載る床面に示されていることを特徴とする。
請求項7に記載の発明は、請求項2ないし5のいずれかに記載の画像認識装置において、操作者と三次元撮像手段との間に配置された立体物をさらに備え、操作面形成基準は、立体物の所定の外縁であることを特徴とする。
請求項8に記載の発明は、請求項2ないし7のいずれかに記載の画像認識装置において、操作面形成基準は、読取られた画像からの抽出が容易になるように三次元撮像手段に撮像される所定の面にマーカを有することを特徴とする。
請求項9に記載の発明は、請求項1に記載の画像認識装置において、操作者の移動を制限する移動制限手段をさらに備え、操作面形成手段は、移動制限手段の位置または形状および三次元撮像手段により読取られた操作者の像に基づいて、仮想操作面を形成することを特徴とする。
請求項10に記載の発明は、請求項1ないし9のいずれかに記載の画像認識装置において、操作判定手段は、操作者の一部が仮想操作面よりも三次元撮像手段側にあるとき操作であると判定することを特徴とする。
請求項11に記載の発明は、請求項1ないし9のいずれかに記載の画像認識装置において、操作判定手段は、操作者の一部の、仮想操作面よりも三次元撮像手段側にある部分の形状または動きによりいずれの操作が行われているかを判定することを特徴とする。
請求項12に記載の発明は、請求項11に記載の画像認識装置において、操作判定手段は、予め操作者の一部の形状または動きと対応付けた操作内容を格納する記憶手段を検索して、合致する形状または動きに対応する操作を、入力する操作と判定することを特徴とする。
請求項13に記載の発明は、請求項1ないし12のいずれかに記載の画像認識装置において、操作者と対面して配置された画像表示手段をさらに備え、操操作判定手段は、操作者が操作の判定結果を認識できるように、画像表示手段に現時点の操作判定結果を表示させることを特徴とする。
請求項14に記載の発明は、請求項1ないし12のいずれかに記載の画像認識装置において、操作者と対面して配置された画像表示手段をさらに備え、仮想操作階層の領域内で操作者の動きが読取られると、画像表示手段に仮想操作階層に予め割当てられた標示を表示することを特徴とする。
請求項15に記載の発明は、請求項1ないし12のいずれかに記載の画像認識装置において、操作面形成手段により形成される仮想操作面に対し、三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を表示させて、判定しようとする操作を示す操作者が視認可能な画像表示手段を備えたことを特徴とする。
請求項16に記載の発明は、請求項1ないし15のいずれかに記載の画像認識装置において、仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で操作者の動きが読取られると、仮想操作階層に予め割当てられた操作種別および仮想操作階層内での操作者の動きに基づいて操作の内容を決定する操作内容決定手段を備えたことを特徴とする。
請求項17に記載の発明は、画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、操作者の像を読取って立体画像データを生成する三次元撮像ステップと、三次元撮像手段により読取られた操作者の像に基づいて、仮想操作面を形成する操作面形成ステップと、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて動きが操作であるか否かを判定する操作判定ステップと、動きが操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
請求項18に記載の発明は、画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、操作判定方法は、操作者の像を読取って立体画像データを生成する三次元撮像ステップと、三次元撮像手段により読取られた操作者の像に基づいて、仮想操作面を形成する操作面形成ステップと、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて動きが操作であるか否かを判定する操作判定ステップと、動きが操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
本実施形態の操作入力システムの一例を示す図である。 本実施形態の操作入力システムのコンピュータとの関係を模式的に示すブロック図である。 本実施形態のコンピュータのCPU内で処理されるプログラムの機能モジュールの一例を示すブロック図である。 本実施形態の処理のフローチャートである。 本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 従来の3Dカメラを用いた複数の操作者の画像取り込んだ場合の画像の一例を示す図である。 本発明の一実施形態にかかる操作入力支援の操作領域設定の一例を示す図である。 本発明の一実施形態にかかる画面またはカメラの位置による操作領域の調整の一例を示す図である。 本発明の一実施形態にかかる画面またはカメラの位置による操作領域の調整の別の例を示す図である。 本発明の一実施形態にかかる画面またはカメラの位置による操作領域の調整の別の例を示す図である。 本発明の一実施形態にかかる画面またはカメラの位置により操作領域を調整する方法を説明するための図である。 従来の3Dカメラを用いた操作者の画像取り込み方法を示す図である。 本発明の一実施形態のマーカに基づく仮想操作面を用いた操作入力システムの一例を示す図である。 本発明の別の一実施形態にかかる操作入力方法の具体的な操作の一例を示す図である。 本発明の一実施形態にかかる画面またはカメラの位置による操作領域の調整の一例を示す図である。 本発明の一実施形態にかかる操作入力支援の具体的な表示の一例を示す図である。 本発明の一実施形態にかかる仮想的な操作面および操作領域の様子を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 本発明の一実施形態にかかる操作入力画面の具体的な表示の一例を示す図である。 本発明の一実施形態にかかる操作入力画面で使用可能な種々のアイコンの例を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 本発明の一実施形態にかかる操作入力画面のメニューボタンの色の変化する様子を示す図である。 本発明の一実施形態にかかる操作入力画面のメニューボタンの濃淡の変化する様子を示す図である。 本実施形態により画面に表示された図形を移動させる指示を入力する一例の表示画面を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるメニューとの関係を示す図である。 本発明の別の一実施形態にかかる操作者の動きと画面に表示されるメニューとの関係を示す図である。 本発明のさらに別の一実施形態にかかる操作者の動きと画面に表示されるメニューとの関係を示す図である。 本発明の一実施形態にかかる仮想操作面および操作面形成基準の様子を示す図である。 本発明の一実施形態にかかるプロジェクタによる画面またはカメラの位置による操作領域の調整の一例を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるメニューとの関係を示す図である。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。
(第1実施形態)
図1は、本実施形態の操作入力システムの一例を示す図である。本実施形態のモニタ111は、操作者102の前面に配置され、操作者102は、モニタ111との間の一定の位置に仮想的な操作面があると考えて、指などの形状が操作判定の対象になることを意識して操作入力システムに対し操作を行うことができる。モニタ111には、本システムが目的とする様々なアプリケーション用の種々の映像が表示されるが、これに加え後述するように操作入力を支援、すなわち例えば対象となる操作者102の部位などを画面の隅の方に表示して、操作者102に、現時点で操作として判定されうる動作を認識させることができる。操作者102の動きはビデオカメラ201により撮影され、撮影された映像はコンピュータ110で処理され、操作者102の位置、身長および腕の長さなどにより、あるいは身長や肩幅等の身体寸法情報により最適な仮想操作面およびこれを含む操作領域の位置および大きさを設定し、仮想操作面からモニタ111側に出た部分のジェスチャがどのような操作を意味するかを判定する。すなわち、コンピュータ110は、ビデオカメラ201から得られたデータから、操作者102の立体画像を作成するとともに、仮想操作面の位置を算出し、さらに後述するビデオカメラ201やモニタ111の位置や配置態様により仮想操作面の位置および大きさなどを調整し、仮想操作面を基準に操作者102の手指などがビデオカメラ201側に出ているか否かを決定し、その部分を操作の対象として操作内容を判定する。
図1では、画像を取得するためにビデオカメラ201をモニタ111の上部に取りつけ撮影しているが、図8ないし12のように必要な画像が得られればこれに限られることなく、赤外線カメラ等、本技術分野で知られたいずれの撮像手段を用いることもでき、設置場所もモニタの付近の何処を選択することもできる。ここで、本実施形態ではビデオカメラ201として三次元(あるいは3D)カメラを用いることにより、操作者を含め立体画像が作成できるようにする。
さらに、本実施形態のシステムには図示しないスピーカ等の音声出力装置を取り付けられており、表示内容や操作に関する情報を音声で操作者に伝えることもできる。このような機能を設けることにより、ディスプレイに操作内容を画像で表示するだけではなく、指示事項や結果について、同時に音声で流すことで仮想操作面が判るため、視覚障害のある操作者でも操作することが可能になる。
図5および6は、仮想操作面の役割を具体的に説明するための図である。本実施形態の仮想操作面701は、操作者102の身長や腕の長さ、あるいは身長や肩幅等の身体寸法情報に基づいて設定され、ユーザ102は、自分が自然な形で腕を伸ばしたところに操作面701が仮想的に存在すると捉え、種々の操作をしようとする場合は操作面701を基準に手601を前に突き出してジェスチャを示したりすることができる。また、仮想操作面を含む操作領域でのユーザが任意のポーズを取った後に、仮想操作面の前方へ押し出す(決定)動作でアクションを決定したり、操作を決定してから押し出すという判断の基準としたりすることができるため、ユーザが認知しやすく、操作性は従来のタッチパネル操作に近いものとなる。一方、操作バリエーションは、従来のタッチパネルより圧倒的に増える(両手操作や、振舞、複数指等)。
本実施形態で、図5および6に示すような仮想操作面701は、カメラ201が操作者102の像を捉えるとリアルタイムで形成されるようになっているが、操作者が操作を開始するまでは、操作者の立位置が一定しないため、仮想操作面が定まらず操作判定も容易ではない。そこで、本実施形態では、操作者の身体が三次元カメラの撮像範囲内で一定時間静止したタイミングで仮想操作面の設定処理を開始する。
このように本実施形態の仮想操作面の形成はリアルタイムで行うことができるが、この場合でも、何らかの方法で操作者の立位置を、そのシステムにとって最適な一定の範囲に制限することによって、操作判定をより正確にすることができる。例えば、図示しないが床面に立位置を示す足形を描いておくとか、モニタやシステムの配置により操作者に一定の制限範囲の存在を認識させたり、衝立を立てたりして一定範囲内で操作を行うようにさせることもできる。操作者が自然に認識できる仮想操作面の位置や大きさなどは、操作者とモニタとの位置関係に大きく影響され、システム全体でモニタ、カメラ、操作者の位置などは予め想定しておいた方が良いことから、このように制限することにより操作者は概ね仮想操作面が存在する位置を推測して操作を行うことができる。
また、図7に示すように、本実施形態において操作対象者が複数存在、すなわち複数の人物がカメラ201により読み取られる場合、そのうちから例えば最前列にいる者710を操作者102と特定して仮想操作面を形成する。もちろん、複数者のうちのいずれを操作者102として選択するかは、システムに応じて種々定めることができるが、最前面の優先ユーザ以外には、操作領域を提供しないことで、誤動作や誤入力を防止できる(シングル入力の場合)。
図2は、本実施形態の画像認識装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、モニタ701に取り付けられ、操作者102などを撮影するビデオカメラ201が接続され、撮影した画像がコンピュータ110に取り込まれる。撮影により得られた画像は、CPU210において本実施形態の特徴である画像の抽出、位置の算出などが行われ、算出した位置に基づいて操作面からビデオカメラ側に身体の一部が出たかどうかを決定する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、画像認識装置から入力した画像に基づいた処理結果をモニタ111等に出力する。本実施形態では、モニタ111は、主に操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力するものだが、後述するように操作入力の支援となるような情報も表示する。
図3は、本実施形態のコンピュータ110のCPU210内で処理されるプログラムの機能モジュールの一例を示すブロック図である。図3に示すように、本システムにおける処理は、画像読取部301、画像抽出部302、画像位置算出部303および操作判定部304により実行される。なお、本実施形態では、ビデオカメラ201からの画像を受取ってからデータの出力を行うまでの処理を4つのモジュールにより実行するがこれに限られることなく、その他のモジュールを用い、あるいはより少ないモジュールで処理することもできる。
(本実施形態の処理)
本実施形態では、図6に示すように、ビデオカメラ201で撮影された操作者102の像に基づいて仮想操作面を形成し、同じく撮影した操作者102の一部である手や指の位置を定めるとともに、仮想的な操作面701と操作者102の手指601との位置関係を算出する処理を行う。本実施形態では、このような処理を行う前提として、本技術分野で知られた初期設定、例えば本実施形態の画像認識装置が新たに設置された場合を想定すると、事前準備として利用するビデオカメラ201の利用レンズの歪み、モニタ111とレンズとの距離等の情報を装置に入力しておく必要がある。さらに閾値設定等を予め調整しておく。システムの初期設定が終了すると、本実施形態の処理を行うこととなるが、この処理については図4を参照して以下に説明する。
図4は、本実施形態の処理のフローチャートである。まず、画像読取部301においてビデオカメラ201で撮影されたデータを読取り(S401)、そのデータから操作者の像を、画像抽出部302により抽出する(S402)。
このような準備の結果、抽出した操作者102の画像に基づいて仮想操作面および操作領域を形成する(S403)。ここで、操作面の形状は図8などを参照すると床面から垂直に立てた長方形となっているが、これに限られず、操作者の操作態様に応じて様々な形状、大きさの操作面を形成することができる。
ここで、操作領域とは本実施形態の特徴である仮想操作面を含み、操作者の操作の主体となる手や指などが主に動かされる領域であり、後述する仮想操作面に至るまでの支援で説明するように、操作者の胴体から仮想操作面を越えた一定の領域が本願発明の操作認識のために用いられる。例えば、図8に示すように大人の操作者810については、身長(視線の位置)や腕の長さを考慮して操作領域811のように形成することができるし、子供の操作者820の場合、身長もより低くなり、腕も短くなるので、これにあわせて操作領域821を設定することができる。このような操作領域の中に仮想操作面を設定すれば、操作者が自然に手や指を動かすことにより、手や指の動きで操作者が意図している操作を判定することができるようになる。
より具体的には、例えば、奥行きは、操作者が前方に手を伸ばした指先まで、横幅は、操作者が真横に手を伸ばした場合の左右手首の長さまで、高さは、操作者の頭の位置から腰の位置までの範囲とすることができる。また、本実施形態のシステムの対象者を小学校低学年から成人とした場合、身長の幅はおおよそ100cmないし195cm程度までになり、その身長差として操作領域または仮想操作面の上下位置の補正幅は、約100cm必要となる。
なお、仮想操作面、操作領域は、その都度実行することもできるし、一定の条件のもと実行するようにすることもでき、あるいはこれらの設定タイミングを予めあるいはその都度選択することもできる。
操作判定部304は、操作入力システムの形成された仮想操作面と、操作者102との相対関係を用い(S404)、操作者102の一部が操作面のビデオカメラ201から見て手前に来ると、操作が開始されたと判断し(S405)、各部の形状(手を開いている、あるいは指を2本立てているなど)や動きから、その形状、動きが予め想定されたいずれの操作であるかを判定する(S406)。ここで、どのような形状、動きがどのような操作に対応するかは、システム独自に取り決めることもできるし、本技術分野で知られたいずれかの手法を取り入れて決定することもできる。判定した結果は、そのような操作の入力があったものとしてコンピュータ110で実行され(S407)、もともと仮想操作面から手前側に手が出ていない場合、操作は行われていないと判定して終了する(S408)。操作内容の判定はここで説明した手法に限られることなく本実施形態で知られたいずれの方法も用いることができる。また、具体的な判定方法も省略したが、一般には予め定めたジェスチャなどの操作者の身体の形状、動きと、それが意味する操作内容とをデータベース等に格納しておいて、画像抽出後、このデータベースにアクセスして、操作内容を判定する。この際にももちろん、画像認識技術や人工知能などを本技術分野で知られた手法により利用し、判定精度を向上させることもできる。
ここで、操作者が子供の場合と大人の場合とで、仮想操作面をどの位置にどの程度の大きさで形成するかが変わることが理解されるが、さらに操作者の身長などの体形の差に加え、カメラ201の位置やモニタ111の位置や取付角度によっても、仮想操作面を調整する必要がある。通常、三次元カメラは、CCDやレンズ面に対して平行か、同心円状に対象物までの距離計測を行うことができる。モニタが操作者の目線の高さに設置され、カメラが近接した位置にあり、それぞれが床面に垂直設置の場合、操作者も立位であれば適正操作領域を生成する上で、相互の位置関係等、特に調整や補正の必要は無いと言える。しかし、天井つり下げ型モニタの場合や超大型モニタあるいはプロジェクタ等を利用する場合、カメラ設置位置やモニタおよび操作者との位置関係は、様々な状況が想定される。
一般に、操作者は操作対象画面を見ながら入力操作を行うので、常に操作者の目線と操作対象画面とを結ぶ直線に垂直に仮想操作面を配置し、それに沿った操作領域を生成しなければ、操作者のZ方向への押し込みストロークの角度が不一致を起こし、操作者が狙ったポイントへの押し込み操作をしても、押し込みに伴い、いずれかの角度に沿って流れてしまい正常な操作ができなくなることになる。したがって、仮想操作面を形成する場合は、モニタ、カメラおよび操作者の位置、配置態様に応じて形成する角度、大きさ、あるいは場合により位置を調整する必要がある。
図9を参照すると、図8に示したように操作者820に合わせて操作領域821および仮想操作面601が定められるが、図9に示す例のようにカメラ201がモニタ111の上部に配置された場合、仮想操作面601は、操作者820が腕を伸ばす方向910に垂直でなければ操作者820は仮想操作面に対する良好な操作感が得られないから、カメラ201の視野方向に垂直な平面にはならない。
また、図10を参照すると、モニタ111自体が上方に設置され、しかも角度をもって取り付けられているため、仮想操作面701は、操作者820がモニタ111を見上げて操作できるように、上方への傾きを持つ方向1010に垂直な面になる。この場合も、図9に示す例と同様にカメラ201の視野1011は視線方向1010と一定の角度をもって傾いているため、カメラ201で読取った情報を傾いた仮想操作面701に合わせるよう補正する必要がある。さらに、図11を参照すると、カメラ201がモニタ111から離れ床の近くに置かれていて、操作者820の視線1110とカメラ201の視野とは、より大きな角度が付くため、その分の補正が必要である。
図12は、仮想操作面701および操作領域821を定める一例を説明するための図である。本実施形態では、仮想操作面を形成するために、モニタ111およびカメラ201の位置、設置方法(どの程度の角度で設置されているかなど)、操作者820の立ち位置、身長などの情報を用いる。すなわち、一例としては先ず、操作者820のモニタ111に対する目の高さ(身長)、立ち位置から操作者の視線に垂直な仮想操作面701を算出する。次に操作者820の頭と胴体とを結ぶ線A−Bと、カメラ201の視野の中心線1210の角度を測定し、仮想操作面および操作領域の傾きを補正する。腕のストロークは、操作者の像から抽出しても良いし、得られた身長の情報から、別途身長ごとの平均的な腕の長さの情報から定めてもよい。あるいは、後述する第2実施形態の操作面形成基準と同様のマーカなどを用いて、仮想操作面の位置、大きさ、角度などを設定することもできる。例えば、システムを設置する段階で、マーカの付された台やガードバーなどを最適な位置に置いてカメラで撮像し、これらの撮像されたマーカの位置により仮想操作面の設定を行い、実際に使用するときは、最初に置いた台やガードバーは取り去って、操作者の体形等により補正をかけて仮想操作面および操作領域を形成することができる。
本実施形態の仮想操作面および操作領域は、以上の通りカメラ、モニタおよび操作者の位置、配置態様などに基づいて、自然な操作とより容易な操作判定が可能なように定められ、実際の操作者の動きを検出して、いずれの操作が行われているかが判定される。ただし、ここで説明をしない具体的な処理、例えば三次元カメラの像からどのように位置や形状を特定するか、操作者の一部が仮想操作面を通ったか否かの判定処理など、本実施形態の実装に際して必要な処理は、本技術分野で知られたいずれの方法を用いても達成することができる。
(操作入力の支援)
以上説明したように、単に三次元ビデオカメラにより仮想操作面を形成するだけで、操作者は空間上にタッチパネルのような操作面を認識することができ、この操作面に対し、種々の操作を行うことにより、身体の全部または一部を用いた操作入力が可能となるが、さらに仮想的な操作面に対する操作者の映像をモニタ111に表示する等、操作入力を支援することにより、より容易に本実施形態のシステムを活用することができる。
図17は、このような操作入力の支援となるガイダンスをモニタ111に表示している一例を示す図である。例えば、モニタ111の中心部に表示されている画像のどこかをポインタで指し示す場合、操作者は仮想的操作面を表示された画像と重ね合わせて、手指を突き出すことにより所望の場所を指し示すことができるが、そのように指し示す様子を図17に示すポインタ901のように表示することにより、操作者は現在行われている操作を認識し確認しながら、次の操作を実行することができる。この例で言うと、たとえば、ポインタ901は、操作面から手指を突き出すと画面に表示され、引っ込めると消える、あるいは濃淡をつけて表示するようになっており、手の動きとモニタ111に表示されるポインタの様子から、操作者は自然な形で、本実施形態の入力法を実行することができるのである。同様に操作者自身の様子を図5および6に示したような形で表した操作画面902を、モニタ111の右上隅に小さく表示させて現在どのような動きをして、システムではどのような操作と判定されているかを表示することができ、また、手の動きをグラフ化した折線グラフ903を示して、手の前後の動きがどうなっているかを操作者自身に意識させる等により、より的確な操作が期待できる。また、図示しないが、システムで使用することができるジェスチャをガイダンスに表示して、それに倣って操作入力をするよう操作者に促すようにして支援することもできる。
(仮想操作面の手前側の操作支援)
本実施形態では、操作者が空間上に仮想的に形成された仮想操作面を基準に、そこにあたかもタッチパネルのような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、操作者の一部である手または指などが仮想操作面に至るまで、つまり操作者が何らかの操作を実行しようと手または指を動かし始めてから、仮想操作面を押下するまでの間も操作支援することにより、さらに操作入力を容易に、より高精度に行うようにすることができる。
基本的には、このような操作支援の原理は仮想操作面に対する操作者の部位、例えば手あるいは指の位置の動きにあわせて、モニタ111上に操作者がどのような操作をしようとしているかをビジュアルに表示させることにより、操作者を誘導して的確な操作入力を可能にするというものである。
この点について、図18および19を参照して説明すると、本実施形態では予め操作者が一定の立ち位置で操作しうる場合は予め設定された、その立ち位置で仮想操作面への操作が適した位置に、あるいは操作者の立ち位置に合わせて適宜適当な位置に仮想操作面701を形成する。同様に図18に示すように、操作者820の適当な操作領域821を設定しておく。上述のとおりモニタ111には現在どのような操作が行われようとしているかを様々な形態で示すことにより、操作者が自己の操作を認識できるようにする。
このような形態の1つについて図19を参照して説明すると、操作者はシステムに対し何らかの操作を行おうとする場合、本例ではモニタ111に対し、腕2401を前後に動かすことにより、手あるいは指601の位置が変化するため、その様子をモニタ111に表示すると、突き出した指601が一定の位置まで来ると、そのときモニタ111の画面上で指示された項目が実行される等、システムとして一定の処理が行われる。図19の例では、仮想操作面701に対する指601の位置(深さ)によってアイコンの大きさが変化するようになっており、仮想操作面に近づくほどアイコンが小さくなって操作者には自己の操作により一定の場所にフォーカスされていることが認識できるようになっている。そして、最もアイコンが小さくなった位置で、操作が確定しそれに応じた処理が実行される。
以上の操作の結果、アイコンがモニタ111の画面2501上でどのように変化するかを示したのが図20である。図20を参照すると、モニタ111の画面2501には例えばテレビ番組表が表示されており、ある番組に関する操作を行おうとしている。このような状態で、例えば操作者が「設定変更」のメニューボタンを選択しようとする場合、操作者は上述のようにモニタ111に向かって指601を突き出して選択しようとする。本実施形態では、指601が仮想操作面に対し一定の距離まで近づくと、画面2501にアイコン2503が表示される。このアイコンは指の位置がまだ遠いため図19に示すアイコンのうち右の方にある比較的大きなものが表示される。操作者がさらに腕2401を伸ばすと、このアイコンは目標である選択項目「設定変更」に近づきつつ、小さくなり一定の大きさのアイコン2502のときに特別なアイコンとなり、指が仮想操作面を横切ると指し示す位置の項目が選択されたと判定される。
このように、図20の例では、指601の位置に応じて画面2501に表示されるアイコンの大きさを変化させることにより、操作者は自己の動作がシステムでどのように認識されているかを把握することができ、仮想操作面の位置を直感的に認識して、メニューの選択などの操作を行うことができる。ここで、指601、腕2401を含む操作者全体及び各部位の位置や大きさは、操作者の全体像と同様三次元カメラを用いることにより抽出することができる。これにより画面内の物体は奥行きも含めて把握することができるから、これらの情報に基づき仮想操作面との距離や位置関係を算出することができる。ただし、本実施形態で使用する三次元カメラや位置の抽出、距離の算出などは本技術分野で知られたいずれの方法も用いることができるので、ここではその説明を省略する。
ここで画面に表示されるアイコンは円形で操作者の動作に合わせて大きさが変化するが、これに限られず図21に示すように様々な形態のアイコンを用い、様々な変化をさせることができる。すなわち、図21を参照すると、(1)は指の形態のアイコンであり、上述の図20の例と同様に仮想操作面に近づくほどに小さくするようになっている。(2)は、円形で次第に小さくなるようになっているが、入力あるいは選択が確定すると特別な形状に変化して確定したことが示される。このアイコンや他のアイコンの場合も形状や大きさの変化に代えて、あるいは合わせてアイコンの色を変化させることもできる。例えば、青、緑、黄、赤等、寒色系から暖色系に変化させることにより、直感的に操作がフォーカスされ確定することを操作者は認識することができる。(3)は、Xのような形状で、遠くにある場合は大きいだけでなくぼかしが入っており、近づくにしたがって、アイコンの大きさが小さくなるとともに、ぼかしが消えシャープな形状になる。(4)はアイコン全体の大きさは変化することなく、中に描かれた図形が形状変化を起こしてフォーカスされる様子を認識するようになっている。この場合、図形の色も変化させることができる。図21に示す(5)も、形状を変化させるものである。図21において、指の動きに応じてアイコンの形状や色などが変化していき、仮想操作面を越えるとその瞬間に、欄2601に示すように種々の形状や色に変化させたり、点滅させたりして操作として判定されたことを操作者に認識させるようにすることもできる。また、図示しないがこの他のアイコンの変化としては最初透明で、指が仮想操作面に近づくほどに不透明になるような変化も効果的である。
ここで、アイコンのバリエーションのうち特に形状をあまり変化させず色や濃さを変化させる場合は、図22に示すようにアイコンはあまり移動せず指601を近づけていくと、色が暖色系になったり濃くなったりして、入力を確定することができる。
また、以上の例では操作の判定状況を確認するためアイコンを表示させ、操作者の動作に応じて色や形状を変化させたが、例えば図23や図24に示すように元々メニューのように予め指示する位置が固定されているような場合は、わざわざアイコンを表示しなくても、指601が指し示す位置がメニューのどの項目ボタンに最も近いかにより決定し、指601の動き、特に仮想操作面からの距離に応じて指し示されている項目ボタンを塗りつぶす色または塗りつぶす濃さを変化させることにより、仮想操作面の位置を認識させ、操作入力を容易にすることができる。図23は、指601が近づくにしたがって、その選択されているボタンの色を寒色系から暖色系に変化させる例を示す図である。この例の色の選択としては、例えば(2)青、(3)緑、(4)黄、(5)赤のようにすると操作者は直感的に赤になると確定されると認識することができる。同様に、図24は、ボタンの塗りつぶしの濃さを変化させる例を示す図である。
同様なメニューの選択例としては、図26に示すような一例もあるので説明すると、例えば図19の指601が仮想操作面701の手前の一定の領域にはいると、画面上にメニュー4301が表示され、その指601がさらに仮想操作面701に近づくと、図26に示すメニューの例えば項目4302上に大きなアイコン2610が表示される。その後、仮想操作面701まで指601が到達すると、項目4302の選択が確定し小さいアイコン2611が表示されて、このことが通知される。その後、指601を左右上下に動かすことで、メニューの選択項目が移動して行き所望の項目で一定時間静止すると、選択された項目に応じた処理が行われるようにすることもできる。また、選択が実行される前に指601が仮想操作面701の手前の一定の領域より後方へ動かされるとメニューを消去するようにすることもできる。図31も、図26と同様に指601が仮想操作面701の手前の一定の領域にはいると、メニューを表示するが、ここではビデオ映像制御の例である。この例でも図26に示す例と同様に大きいアイコン3110および小さいアイコン3111によりメニューの操作が可能となる。
さらに、別の入力操作の例を図25を参照して説明する。図25は、本実施形態により画面に表示された図形を移動させる指示を入力する一例の表示画面を示す図である。指示は操作者の手または指を仮想操作面に触れて動かすことにより行う。まず、指などを画面に近づけていくと画面4211のアイコン4201から画面4212のアイコン4202へとアイコンを縮小させて仮想操作面に接近していることを示す。その後、仮想操作面に触れると画面の4213のアイコン4203のように例えば色を変化させて放置し、その状態で上に向けて指などを動かすと画面4214のラバーバンド4204などを表示させて移動方向を示すことにより、操作者が自己の操作を確認することができる。また、右方向に指を動かすと、画面4215のラバーバンド4205を表示することができる。このように、仮想操作面に指等が到達後の上下左右のドラッグ距離に応じて伸縮するラバーバンド(上図では矢印)を出現させ(アイコン4203の位置は仮想操作面から抜けるまで固定)、伸縮距離に応じて移動スピード、伸ばす角度に応じて3D空間内での移動する方向を変化させることができる(矢印先端が腕先や指先の動きに追随する)。
以上、図18に示すような操作者とモニタとがほぼ同じ高さにある、すなわち仮想操作面が操作者の水平方向前面にほぼ垂直に形成される場合について、本実施形態の原理を説明してきたが、この原理はこのような操作者とモニタとの位置関係や形状には影響されることはなく、種々の配置や構成が可能である。例えば、図10ないし12に示すようなシステムの配置でも応用することができる。この場合、三次元カメラ201もモニタ111とともに傾いているので、基本的には上述の水平位置に配置された場合と大きな相違はないが、カメラを別な位置に設置したとしても、本技術分野で知られたいずれかの方法で位置補正などを行なうことで、操作者の部位と仮想操作面との位置関係を算出して、操作を判定することができる。
(仮想操作面の奥側の操作 − 仮想操作階層)
本実施形態では、操作者が空間上に仮想的に形成された仮想操作面を基準に、そこにあたかもタッチパネルのような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、このようにして判定された操作の内容を仮想操作面から奥側方向である、操作者から離れる方向への仮想操作面と操作者の手等の身体の一部あるいは身につけた物体の位置関係で決定する。例えば、操作者から離れる方向であるz軸方向に2層あるいは3層に操作領域を仮想操作階層として設定し、操作者の手がどの層に入っているかにより操作の種別を決定して、その層内での手の動きにより操作内容を決定する。この際、操作者が視認している表示画面上に手の位置や操作の種別などを表示させれば、より操作者は操作の認識を容易にすることができる。なお、操作者の一部と各階層を分割する面とのz方向の距離は、上述した形成された仮想操作面と操作者の一部との距離を算出する手法によって取得することができる。
より具体的に説明すると、図27に示すトリガ面701は、本実施形態の仮想操作面であり、上述の実施形態のいずれかを用いて指601がトリガ面701からz軸方向に入ると、操作が行われたと判定される。さらに、トリガ面701から先の操作領域を階層AないしCの3階層に面4501および4502で分割し、各々異なる操作の種別を割当てる。図27の例では、階層Aにはオブジェクトの回転の操作を、階層Bには拡大縮小の操作を、階層Cにはオブジェクトの移動の操作をそれぞれ割当てている。各階層において指601を動かすことにより決められた操作が実行される。例えば、階層Aにおいては、トリガ面701を指601が通過した際に指601を示すアイコン、例えば回転アイコン4503が示す位置を中心に指定されたオブジェクトが指601の動きに合わせて回転する。階層Bにおいては、例えばモニタ111に拡大縮小アイコン4504を表示し、指601をz方向に動かすとオブジェクトが拡大され、反対方向に動かすとオブジェクトが縮小するようにすることができる。
同様に、階層Cではモニタ111に表示された指定したオブジェクト上の指601の位置に移動アイコン4505を表示し、指601の動きに合わせて移動するようにすることができる。ここで、階層間を区切る面4501および4502は各階層が同じ厚さになるように配置することもでき、階層に割当てられた操作種別に応じて異なる厚さになるよう配置することもできる。例えば図27の例では、階層Bには拡大縮小の操作が割当てられているが、拡大縮小を前後の動きで表現しなければならないため、階層Aや階層Cと比較して通常はz方向の動きが大きくなることから、階層Bをより厚くすることによって操作を容易にすることもできる。
図28は、本実施形態の別のアイコンの例を示す図である。図28に示す例では、階層Aにはモニタ111上での操作位置を特定する操作を、階層Bには特定された位置におけるオブジェクトを「掴む」操作を、階層Cには掴んだオブジェクトを投げるあるいは移動させる操作をそれぞれ割当てている。
以上のように、仮想操作面により操作と判定された後の操作内容の判定の際に、指や手の動きだけでなく、そのz方向の位置、すなわち仮想操作階層に応じて操作の種別を特定するようにすることができるため、指や手の動きのみでは様々なジェスチャーパターンを数多く準備し、かつユーザがそれらを覚える必要があるのに比較して、単純な動作のみで複雑な操作を使い分けできることとなる。
なお、上述の、特に図27に示す例では、手や指などの一連の動きを各階層間で連続的に行える操作を配置するようになっているが、連続的に操作できないような配置の場合(図28に示す例)は、次のような2つの点が問題となる。すなわち、(1)目的とする仮想操作階層に到達する前に他の階層を通過し、操作者が欲しない指示を与えてしまう、(2)目的の操作を終え、手を操作領域から抜く場合、他の仮想操作階層を通過し、操作者が欲しない指示を与えてしまう、という点である。上記の問題を回避するためには、例えば次の方法などが考えられる。すなわち、操作する方と反対の手を操作領域内に差し込むようなマルチセンシングの状態(例えば、右手で操作している場合、左手を操作領域内に入れた状態)を、操作なし(あるいはその逆に、操作あり)の状態と設定し、操作する方と反対の手の出し入れによって、各階層の操作を行うか否かを判断するようにする(この例では両手操作によるが、XY平面上にすり抜け用エリアを設ける等、様々な方法が考えられる)。
以上本実施形態を用いると、操作者は予めジェスチャを覚えたり、取り決めておいたりすることなく、その動きによりシステムの操作を行うことができるほか、操作者の姿勢や各部、例えば手の動きが分かるので身体全体を使用したゲームに用いて、いわゆる複合現実感(MR)を実現することもできる。
(第2実施形態)
本実施形態は、操作面形成基準を除き基本的に上述の第1実施形態のシステム構成と同様である。すなわち、本実施形態では、第1実施形態のシステムおよび処理を踏まえ、図14に示すように操作者にも知覚可能な一定のマーカ101のような操作面形成基準と言う概念を導入することにより、操作者はこれを目印に仮想操作面の認識がより容易になる。すなわち、図14等に示すマーカ101は、操作者102が仮想操作面を認識するための操作面形成基準であり、ユーザ102は、図16に示すように、床面に示されたマーカ101の上方に操作面701が仮想的に存在すると捉えて種々の操作をして、マーカ101を基準に手601を前に突き出してジェスチャを示したりすることができる。マーカ101の横幅は操作面の幅とすることもできる。また、補助マーカ等により、マーカ101の前後を区別したり、補助マーカを用いて、操作領域を確定したり、3次元パース計算要素としたりすることもでき、形状や方向も自由であり、測定に適したエリアを示すようにしても良い。
このような、マーカ101を備えた操作入力システムでは、図16に示すようにマーカ101の上部に操作面701が仮想的に形成され、操作者102は、マーカ101から仮想的な操作面701を想定して手601を突き出したり、モニタ111と連動させて画面上の一部と操作面701とをタッチパネルに見立ててタッチするように手601を動かしたりすることにより、入力操作を容易に行うことができる。また、操作領域でユーザが任意のポーズを取った後に、線分の前方へ押し出す(決定)動作でアクションを決定したり、操作を決定してから押し出すという判断の基準としたりすることができるため、ユーザが認知しやすく、操作性は従来のタッチパネル操作に近いものとなる。
本実施形態で、仮想操作面は図16などを参照するとマーカの真上に垂直に形成されているように示されているが、図9ないし11に示すようなシステムの配置の場合は、例えば仮想操作面の底辺のみ操作面形成基準に合わせて仮想操作面全体は傾けたり、形成される位置を身長に合わせて位置を変えたりすることができる。この場合、例えば先ずマーカ101により一定の操作面を算出しておいて、その後操作者の像により補正をすることによって適切な位置に仮想操作面を形成するよう調整してもよい。あるいは、計測されたマーカ101の位置と、予め設定されたモニタ111およびカメラ201の位置とに基づいて、操作面を算出しておき、さらに操作者の像から身長、腕の長さなどを抽出してこれらの情報を加味して仮想操作面の位置、大きさおよび角度などを補正することもできる。
また、操作面形成基準であるマーカは視認可能であり、操作者がマーカを視認してこれを基準とし、概ね仮想操作面が存在する位置を推測して操作を行う。したがって、仮想操作面はマーカの上方に形成する必要があるが、操作者から見て前後の位置関係については操作者やシステム全体の状況に応じて変化する可能性がある。一般的には、図27に示すように、例えば床面などにマーカ4401を配置した場合などは操作者102の目の位置からするとマーカ4401の真上に近い位置に立つことが多いと考えられるので、マーカ4401の操作者102と反対側に少しずらした位置4402に仮想操作面701を形成した方が腕の動きに余裕ができて自然な操作が可能な場合もあると考えられる。一方、後述するような図15に示す机の縁にマーカ1902を貼り付けたような場合は、マーカを貼り付けた反対側の縁により操作者は動作を制限される、すなわちこの縁より前面には体を操作面に近づけることはできないから机の幅を操作しやすいように適当に取ることができる。この場合、仮想操作面はマーカの真上に形成するほうが操作者により容易に仮想操作面を認識させることができると考えられる。第1実施形態では、操作者の腕の長さを測定してこのような前後の位置を設定しているが、操作者にも知覚可能なマーカによるとより客観的な操作面の形成が可能となる。
このように、上述の第1実施形態では仮想操作面を含む操作領域として腕のストローク等を考慮して設定しているが、マーカを様々に組み合わせることにより、より客観的に、すなわちどのような操作者があっても目で見て一定の正確さで認識できるように操作領域を確定することができる。
さらに、本実施形態のような操作面形成基準は、キャプチャした画面上で広範囲、適度かつ同時に測定マーカを分散配置することができるため、非常に信頼性の高い測定が可能となる。また、このような効果とともに、常にマーカがカメラの撮影範囲内にあることが保証されるキャリブレーションシステムと併用することができ、省スペース・多機能な装置を実現することができ、基本的に初回設置のキャリブレーション後、毎回再測定する必要がない。
マーカ101は、このようにビデオカメラ201により撮影されて操作面形成基準となり、これを容易にするため、マーカ素材は本技術分野で知られた種々のものを用いることができるが、通常は使用するカメラにより適当なものが選択される。例えば、通常カメラの場合、背景色彩から際立つような特徴あるカラーリングが必要であり、赤外線カメラを使用するときは、再帰性反射材などを使用することができる。一方、レーザ光は、黒色部分等、反射が少ないような色、素材の場合は反射光を測定しにくいので、レーザ光によりマーカや再帰性反射材などを使用することなく黒色のバーなどを使用することにより、レーザ光が照射された部分は反射されずに画面上欠損が発生するので、このようにしてもバーの位置を検出することができる。
例えば、一定のカラーリングによりマーカを付している場合、具体的には次のように処理してマーカを抽出することができる。画像読取部301においてビデオカメラ201で撮影されたデータを読取り、そのデータからマーカ101の、例えばカラー画像の場合、画像抽出部302により、予めマーカとして決めておいた色領域を抜き出してマーカ101の画像のみを抽出する。具体的には、本実施形態では、カラーNTSC信号の輝度信号Yと色差信号U、Vの各々に上下の閾値を設定して全ての閾値を満たす画素を抽出するが、これに限られず本技術分野で知られたいずれの方法を用いることもできる。このようにして、マーカ101の位置を三次元的に把握し、仮想的な操作面がどの様なものとなるのかを算出してデータベースに記憶しておく。カラー抽出が終了すると、さらに補助マーカがある場合は補助マーカも同様の処理を行って抽出した後、画像位置算出部303により、抽出したマーカ部分を白黒の2値化し、ビデオカメラ201の撮影した画像から抽出したマーカの縦横の辺を構成するピクセル数を計算する。取得した画像の縦横の辺の長さや傾斜を、基準となる画像と比較して撮像空間の歪みやスケールを割り出す。本実施形態では、歪みやスケールを算出する場合に、この他に少なくとも4点以上の箇所にマーカを設けて基準とすることもできる。例えば、4点以上の基準点が有ればそれを結んで線分とし、キャリブレーションを行うことが可能である。
マーカはこのように適切な素材を床面に貼り付けることにより使用することができるが、これに限られることなく直接床面に塗布したり、本技術分野で知られた任意の付着方法を用いたりすることができる。また、上記の説明では、操作面形成基準としてマーカ101を用いることとしたが、これに限られることなく任意の部材や構造を立体測定基準として用いることができる。例えば、マーカは図1に示すような形ではなく様々な形の図形とすることができ、いくつかの点に一定の面積を有するマーカを複数設けるようにしてもよい。
また、操作面形成基準としては、立体物、例えば図15に示す机状の立体物1901にマーカ1902、1903を付して操作面形成基準とすることにより仮想操作面701を形成し、これに対し例えば指601等で操作を行うことで、入力操作を可能とすることもできる。なお、図16を参照すると仮想操作面の形状は床面から垂直に立てた長方形となっているが、これに限られず、マーカ101の形状や配置の仕方で様々な形状、大きさの操作面を形成することができる。例えば、図15に示すマーカ101は、モニタ111の面に平行な一定の長さの直線であるため、仮想的な操作面は操作面701のようになるが、マーカを斜めに一定の角度をつけた直線とすることもでき、その場合、形状は図15に示す操作面701と同じであるが、向きがモニタ111と一定の角度を持って斜めに置かれたものとなる。この場合も、操作者102は、マーカで斜めに配置された操作面が仮想的に形成されていると捉えることができるから、その操作面を意識して操作を行えばよい。また、立体的に補助マーカを配置して、床面に対しても一定の角度を持った斜面の操作面にしたり、曲面の操作面にしたりすることもできる。なお、本実施形態は、マーカなどにより形成された仮想的な操作面を基準にして処理を行うように説明するが、当業者であれば理解できるように、実際の計算処理では、操作面から操作者の位置を計算しなくてもよい。仮想的な操作面は、あくまでも操作者が意識して操作入力を行うようにするためのものだからである。
また、図15に示すようなマーカ付置き台を使用する場合、後述する図18に示すように、例えばマーカ1903を用いて操作者102の上半身のみを対象エリア2301として、仮想操作面701から前面に出た部分の動きのみを操作として判定することもできる。このようにすることにより、操作者が図15に示すような置き台を体の支えにして入力操作を行う場合に下半身、特に足が仮想操作面から前に出ても、あくまで上半身の動きのみを操作として認識するようにすることができる。
操作面形成基準を用いて仮想操作面などを形成する場合、立体マーカで測定して基準面および測定エリアを設定した後に、立体マーカは取り去り、生成した基準面が判るように床にライン等のマーキングのみを事後設置することもできる。例えば、立体ガイドバー等を残せないような狭いところ等、常に立体マーカを設置するのが不向きな環境において、このような仮想操作面の形成方法が有効である。また、床平面キャリブレーションパターンの場合、3Dカメラの設置角度によっては、立体のそれよりも測定しにくい場合や、床面利用下における適性(耐摩耗やスリップ防止等)を備えた良い素材選定が難しい傾向があるためキャリブレーション機の無い簡易な床マーキングとして置き換える方が実施しやすい。また、上記と同様に測定後、キャリブレーション機能(マーカ)を持たない立体ガイドに置き換える。デザイン重視の場合や安価なタイプへの置き換えとして有効であり、ユーザからは変わらず視認できる。
上記のいずれもキャリブレーション後にユーザがその位置を視認でき、移動制限に繋がる別の手段(立体 or 平面)に置き換える方法となる。さらに、カメラ側のみでキャリブレーション手法に頼らず、予め使いやすい距離や位置に基準面を設定し、その後、ユーザ側が認知できるように、その面(エリア)に床ラインか立体ガイドを事後設置する。
ここで、本実施形態におけるマーカと仮想操作面との関係を図29を参照して説明する。本実施形態では基本的に机や台などの縁にマーカを付してマーカの上方に形成された仮想操作面に対し操作者が接触したり、手を移動させたりしてシステムに入力操作であることを認識させる。この際、机や台のマーカの付されていない縁は操作者の動作を制限し、適度にかざした手が仮想操作面に自然に触れることを支援する。この概念を図38を参照して説明すると、操作面形成手段であるマーカ4402の上方に仮想操作面701が形成されるが、一方操作者102は、何らかの動作制限手段4401により仮想操作面から一定の距離が保たれることになり、自然に前に出した手601により仮想操作面に対し操作を行うことができる。本実施形態では、仮想操作面701は、マーカ4402の真上に形成されているが、第1実施形態で述べたようにマーカ4402を基準に前後に移動させることもできる。例えば、動作制限手段4401は基本的に固定であるから、操作者102の体形によってはマーカ4402の真上に仮想操作面が形成されると、手前過ぎたり、奥過ぎたりして使用感が悪くなる可能性もある。この場合に、操作者ごとにマーカ4402から、仮想操作面が形成される位置を前後させることもできる。
以上、本実施形態では、仮想操作面を操作者に知覚可能な操作面形成基準および操作者自身を三次元カメラで撮影した像に基づいて形成することから、仮想操作面の位置が客観的に特定しやすく、操作者の身長なども加味されるので、操作者はより違和感なく自然な操作感を得ることができる。
(第3実施形態)
本実施形態は、基本的に上述の第1および第2実施形態のシステム構成と同様であるが、モニタの替わりに表示用としてプロジェクタを用いた点が異なる。すなわち、本実施形態では、第1および2実施形態とその処理は基本的に同じであるが、LCDやプラズマなどのモニタ111の替わりに、図30に示すようにプロジェクタ3011から映像をスクリーン3010に投影することによって操作者に様々な情報を通知する。本実施形態のシステムでは、第1実施形態などでLCD等を配置している表示面にはスクリーンだけが配置されるので、映像を投影するプロジェクタ3011、カメラ201およびこれらを制御するコンピュータは図30に示すように一体型にすることができる。このような一体型のシステムは通常操作者とスクリーンとの間におかれるので、例えば図に示すように進入禁止領域を認識させるためにガイドバー3012が置かれ、これを第2実施形態のような操作面形成基準として流用することもできる。
本実施形態は、第1実施形態と表示の方法が異なるだけで、表示面自体は大きく異なることはないから、仮想操作面および操作領域の設定並びに操作の判定処理などは基本的に第1または2実施形態と同様である。ただし、上述のようにプロジェクタ、カメラおよびコンピュータが一体型となって、操作者と表示面(スクリーン3010)との間に配置されるのでカメラ201の位置が若干異なり、カメラが表示面の下部などに設置される第1実施形態などの場合と比較すると、操作領域などの角度の調整幅が大きくなる。また、ガイドバー3012と仮想操作面701との位置関係は、第2実施形態で説明した場合とは異なり、ガイドバー3012の真上に仮想操作面701が形成されるとは限らない。これは、例えば図14に示すような操作者にも知覚可能な一定のマーカ101のように床に意識的に描かれている場合と、侵入防止用を兼ねる本実施形態のガイドバー3012とは操作面形成基準としての役割は同一であるものの、仮想操作面を形成する位置は操作者との位置関係、操作者との関係により異なってくるからである。本技術分野で知られたいずれかの知識を用いて、システムに応じてガイドバー3012を基準に奥側あるいは手前側に仮想操作面を形成することができる。
以上、本実施形態では表示用にプロジェクタを用いることにより、プロジェクタ、カメラおよびコンピュータが一体型とすることができるため、設置や取扱が容易となり、また画面が大型する場合、大型LCDを使用するのに比べ、設置容易性や費用の点で有利となる。
このような目的を達成するために、請求項1に記載の発明は、操作者の像を読取って立体画像データを生成する三次元撮像手段と、三次元撮像手段により読取られた操作者の像に基づいて、操作者にとって操作しやすいように、三次元撮像手段と操作者との間に仮想操作面を形成する操作面形成手段と、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて該動きが操作であるか否かを判定する操作判定手段と、操作面形成手段により形成される仮想操作面に対し、三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を表示させて、判定しようとする操作を示す操作者が視認可能な画像表示手段と、動きが操作であると判定されると、所定の信号を出力する信号出力手段とを備えたことを特徴とする。
請求項2に記載の発明は、請求項1に記載の画像認識装置において、仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で操作者の動きが読取られると、仮想操作階層に予め割当てられた操作種別および仮想操作階層内での操作者の動きに基づいて操作の内容を決定する操作内容決定手段を備えたことを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の画像認識装置において、画像表示手段は、操作者の一部が仮想操作面に対し三次元撮像手段側にあるときは標示の変化を停止させて判定される操作を示すことを特徴とする。
請求項4に記載の発明は、請求項1ないし3のいずれかに記載の画像認識装置において、操作判定手段は、操作者の一部が仮想操作面よりも三次元撮像手段側にあるとき操作であると判定することを特徴とする。
請求項5に記載の発明は、請求項1ないし4のいずれかに記載の画像認識装置において、操作判定手段は、操作者の一部の、仮想操作面よりも三次元撮像手段側にある部分の形状または動きによりいずれの操作が行われているかを判定することを特徴とする。
請求項6に記載の発明は、請求項5に記載の画像認識装置において、操作判定手段は、予め操作者の一部の形状または動きと対応付けた操作内容を格納する記憶手段を検索して、合致する形状または動きに対応する操作を、入力する操作と判定することを特徴とする。
請求項7に記載の発明は、において、請求項1ないし6のいずれかに記載の画像認識装置操作面形成手段は、操作者の上半身の位置情報に応じた位置に仮想操作面を形成することを特徴とする。
請求項8に記載の発明は、請求項1ないし7のいずれかに記載の画像認識装置において、操作面形成手段は、画像表示手段の位置に基づいて仮想操作面の位置および角度を調整することを特徴とする。
請求項9に記載の発明は、画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、三次元撮像手段によって、操作者の像を読取って立体画像データを生成する三次元撮像ステップと、三次元撮像手段により読取られた操作者の像に基づいて、操作者にとって操作しやすいように、三次元撮像と操作者との間に仮想操作面を形成する操作面形成ステップと、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて動きが操作であるか否かを判定する操作判定ステップと、操作面形成ステップにおいて形成される仮想操作面に対し、三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を表示させて、判定しようとする操作を示す操作者が視認可能な画像表示ステップと、動きが操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
請求項16に記載の発明は、画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、操作判定方法は、三次元撮像手段によって、操作者の像を読取って立体画像データを生成する三次元撮像ステップと、三次元撮像手段により読取られた操作者の像に基づいて、操作者にとって操作しやすいように、三次元撮像と操作者との間に仮想操作面を形成する操作面形成ステップと、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて動きが操作であるか否かを判定する操作判定ステップと、操作面形成ステップにおいて形成される仮想操作面に対し、三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を表示させて、判定しようとする操作を示す操作者が視認可能な画像表示ステップと、動きが操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
このような目的を達成するために、請求項1に記載の発明は、操作者の像を読取って立体画像データを生成する三次元撮像手段と、三次元撮像手段により読取られた操作者の像に基づいて、操作者にとって操作しやすいように、三次元撮像手段と操作者との間の、操作者の頭部と胴体部とで形成される平面から、操作者の腕の長さに基づく距離の位置に仮想操作面を形成する操作面形成手段と、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部が仮想操作面を横切ると、動きが、横切った位置に基づく操作であるか否かを判定する操作判定手段と、操作面形成手段により形成される仮想操作面に対し、三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して、距離に応じ変化させ、操作者の一部が仮想操作面に近づいていることを示す標示を表示させて、判定しようとする操作を示す操作者が視認可能な画像表示手段と、動きが操作であると判定されると、所定の信号を出力する信号出力手段とを備えたことを特徴とする。
請求項7に記載の発明は、請求項1ないし6のいずれかに記載の画像認識装置において、操作面形成手段は、画像表示手段の位置に基づいて仮想操作面の位置および角度を調整することを特徴とする。
請求項8に記載の発明は、画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、三次元撮像手段によって、操作者の像を読取って立体画像データを生成する三次元撮像ステップと、三次元撮像手段により読取られた操作者の像に基づいて、操作者にとって操作しやすいように、三次元撮像手段と操作者との間の、操作者の頭部と胴体部とで形成される平面から、操作者の腕の長さに基づく距離の位置に仮想操作面を形成する操作面形成ステップと、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部が仮想操作面を横切ると、動きが、横切った位置に基づく操作であるか否かを判定する操作判定ステップと、操作面形成ステップにおいて形成される仮想操作面に対し、三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して、距離に応じ変化させ、操作者の一部が仮想操作面に近づいていることを示す標示を表示させて、判定しようとする操作を示す操作者が視認可能な画像表示ステップと、動きが操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
請求項9に記載の発明は、画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、操作判定方法は、三次元撮像手段によって、操作者の像を読取って立体画像データを生成する三次元撮像ステップと、三次元撮像手段により読取られた操作者の像に基づいて、操作者にとって操作しやすいように、三次元撮像手段と操作者との間の、操作者の頭部と胴体部とで形成される平面から、操作者の腕の長さに基づく距離の位置に仮想操作面を形成する操作面形成ステップと、形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、三次元撮像手段で読取って、操作者の一部が仮想操作面を横切ると、動きが、横切った位置に基づく操作であるか否かを判定する操作判定ステップと、操作面形成ステップにおいて形成される仮想操作面に対し、三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して、距離に応じ変化させ、操作者の一部が仮想操作面に近づいていることを示す標示を表示させて、判定しようとする操作を示す操作者が視認可能な画像表示ステップと、動きが操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。

Claims (18)

  1. 操作者の像を読取って立体画像データを生成する三次元撮像手段と、
    前記三次元撮像手段により読取られた操作者の像に基づいて、仮想操作面を形成する操作面形成手段と、
    当該形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、前記三次元撮像手段で読取って、前記操作者の一部と前記仮想操作面との位置関係に基づいて該動きが操作であるか否かを判定する操作判定手段と、
    前記動きが操作であると判定されると、所定の信号を出力する信号出力手段と
    を備えたことを特徴とする画像認識装置。
  2. 前記操作者が所定の空間上の仮想操作面を把握するよう設けられた該操作者に知覚可能な、前記撮像手段の撮像範囲内に予め配置された操作面形成基準
    をさらに備え、前記操作面形成手段は、前記三次元撮像手段により読取られた前記操作者の像および前記操作面形成基準に基づいて、前記仮想操作面を形成することを特徴とする請求項1に記載の画像認識装置。
  3. 前記操作面形成手段は、前記操作面形成基準の位置により一定の操作面を形成し、前記三次元撮像手段により読取られた前記操作者の像により当該形成された一定の操作面を補正して、前記仮想操作面を形成することを特徴とする請求項2に記載の画像認識装置。
  4. 前記仮想操作面は、前記操作面形成基準から上方に投射した面であることを特徴とする請求項2または3に記載の画像認識装置。
  5. 前記操作面形成基準の操作者側であって、操作者の移動を一定の範囲内に制限する動作制限手段をさらに備えたことを特徴とする請求項2または3に記載の画像認識装置。
  6. 前記操作面形成基準は、操作者が載る床面に示されていることを特徴とする請求項2ないし5のいずれかに記載の画像認識装置。
  7. 操作者と前記三次元撮像手段との間に配置された立体物をさらに備え、
    前記操作面形成基準は、前記立体物の所定の外縁であることを特徴とする請求項2ないし5のいずれかに記載の画像認識装置。
  8. 前記操作面形成基準は、読取られた画像からの抽出が容易になるように前記三次元撮像手段に撮像される所定の面にマーカを有することを特徴とする請求項2ないし7のいずれかに記載の画像認識装置。
  9. 前記操作者の移動を制限する移動制限手段
    をさらに備え、前記操作面形成手段は、前記移動制限手段の位置または形状および前記三次元撮像手段により読取られた前記操作者の像に基づいて、前記仮想操作面を形成することを特徴とする請求項1に記載の画像認識装置。
  10. 前記操作判定手段は、前記操作者の一部が前記仮想操作面よりも前記三次元撮像手段側にあるとき操作であると判定することを特徴とする請求項1ないし9のいずれかに記載の画像認識装置。
  11. 前記操作判定手段は、前記操作者の一部の、前記仮想操作面よりも前記三次元撮像手段側にある部分の形状または動きによりいずれの操作が行われているかを判定することを特徴とする請求項1ないし9のいずれかに記載の画像認識装置。
  12. 前記操作判定手段は、予め操作者の一部の形状または動きと対応付けた操作内容を格納する記憶手段を検索して、合致する形状または動きに対応する操作を、入力する操作と判定することを特徴とする請求項11に記載の画像認識装置。
  13. 操作者と対面して配置された画像表示手段をさらに備え、
    前記操操作判定手段は、操作者が操作の判定結果を認識できるように、前記画像表示手段に現時点の操作判定結果を表示させることを特徴とする請求項1ないし12のいずれかに記載の画像認識装置。
  14. 操作者と対面して配置された画像表示手段をさらに備え、
    前記仮想操作階層の領域内で前記操作者の動きが読取られると、前記画像表示手段に該仮想操作階層に予め割当てられた標示を表示することを特徴とする請求項1ないし12のいずれかに記載の画像認識装置。
  15. 前記操作面形成手段により形成される仮想操作面に対し、前記三次元撮像手段の反対側における前記操作者の一部と前記仮想操作面との位置関係から当該距離を算出して該距離に応じ変化する標示を表示させて、判定しようとする操作を示す前記操作者が視認可能な画像表示手段
    を備えたことを特徴とする請求項1ないし12のいずれかに記載の画像認識装置。
  16. 前記仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で前記操作者の動きが読取られると、該仮想操作階層に予め割当てられた操作種別および前記仮想操作階層内での操作者の動きに基づいて前記操作の内容を決定する操作内容決定手段
    を備えたことを特徴とする請求項1ないし15のいずれかに記載の画像認識装置。
  17. 画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、
    操作者の像を読取って立体画像データを生成する三次元撮像ステップと、
    前記三次元撮像手段により読取られた操作者の像に基づいて、仮想操作面を形成する操作面形成ステップと、
    当該形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、前記三次元撮像手段で読取って、前記操作者の一部と前記仮想操作面との位置関係に基づいて該動きが操作であるか否かを判定する操作判定ステップと、
    前記動きが操作であると判定されると、所定の信号を出力する信号出力ステップと
    を備えたことを特徴とする操作判定方法。
  18. 画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、該操作判定方法は、
    操作者の像を読取って立体画像データを生成する三次元撮像ステップと、
    前記三次元撮像手段により読取られた操作者の像に基づいて、仮想操作面を形成する操作面形成ステップと、
    当該形成された仮想操作面に対する操作者の少なくとも一部の像の動きを、前記三次元撮像手段で読取って、前記操作者の一部と前記仮想操作面との位置関係に基づいて該動きが操作であるか否かを判定する操作判定ステップと、
    前記動きが操作であると判定されると、所定の信号を出力する信号出力ステップと
    を備えたことを特徴とするプログラム。
JP2009187449A 2009-08-12 2009-08-12 画像認識装置および操作判定方法並びにプログラム Expired - Fee Related JP4701424B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2009187449A JP4701424B2 (ja) 2009-08-12 2009-08-12 画像認識装置および操作判定方法並びにプログラム
CN201080035693.8A CN102473041B (zh) 2009-08-12 2010-08-12 图像识别装置、操作判断方法以及程序
EP10808086.2A EP2466423B1 (en) 2009-08-12 2010-08-12 Image recognition apparatus, operation determining method, and program
CA 2886208 CA2886208A1 (en) 2009-08-12 2010-08-12 Image recognition apparatus, operation determining method and program
US13/384,682 US8890809B2 (en) 2009-08-12 2010-08-12 Image recognition apparatus, operation determining method and computer-readable medium
KR1020127001932A KR101347232B1 (ko) 2009-08-12 2010-08-12 화상인식장치 및 조작판정방법, 그리고 컴퓨터 판독가능한 매체
PCT/JP2010/005058 WO2011018901A1 (ja) 2009-08-12 2010-08-12 画像認識装置および操作判定方法並びにプログラム
CA2768893A CA2768893C (en) 2009-08-12 2010-08-12 Image recognition apparatus, operation determining method and program
CN201510015361.8A CN104615242A (zh) 2009-08-12 2010-08-12 图像识别装置、操作判断方法以及程序
US14/522,087 US9535512B2 (en) 2009-08-12 2014-10-23 Image recognition apparatus, operation determining method and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009187449A JP4701424B2 (ja) 2009-08-12 2009-08-12 画像認識装置および操作判定方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011039844A true JP2011039844A (ja) 2011-02-24
JP4701424B2 JP4701424B2 (ja) 2011-06-15

Family

ID=43586084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009187449A Expired - Fee Related JP4701424B2 (ja) 2009-08-12 2009-08-12 画像認識装置および操作判定方法並びにプログラム

Country Status (7)

Country Link
US (2) US8890809B2 (ja)
EP (1) EP2466423B1 (ja)
JP (1) JP4701424B2 (ja)
KR (1) KR101347232B1 (ja)
CN (2) CN102473041B (ja)
CA (2) CA2886208A1 (ja)
WO (1) WO2011018901A1 (ja)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012121404A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device incorporating the same and a method for providing a user interface
WO2012121405A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device having a user interface and a method of providing a user interface
JP2012221370A (ja) * 2011-04-12 2012-11-12 Sharp Corp 表示装置、操作入力方法、操作入力プログラム、及び記録媒体
JP2012252708A (ja) * 2012-06-19 2012-12-20 Toshiba Corp 情報処理装置、キャリブレーション方法及びプログラム
JP2012252386A (ja) * 2011-05-31 2012-12-20 Ntt Docomo Inc 表示装置
JP2013045217A (ja) * 2011-08-23 2013-03-04 Hitachi Consumer Electronics Co Ltd 入力装置
JP2013132371A (ja) * 2011-12-26 2013-07-08 Denso Corp 動作検出装置
JP2013134549A (ja) * 2011-12-26 2013-07-08 Sharp Corp データ入力装置およびデータ入力方法
JP2014002502A (ja) * 2012-06-18 2014-01-09 Dainippon Printing Co Ltd 手のばし検出装置、手のばし検出方法及びプログラム
JP2014026355A (ja) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd 映像表示装置および映像表示方法
JP2014029656A (ja) * 2012-06-27 2014-02-13 Soka Univ 画像処理装置および画像処理方法
JP2014115693A (ja) * 2012-12-06 2014-06-26 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
JP2014146236A (ja) * 2013-01-30 2014-08-14 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
JP2014153870A (ja) * 2013-02-07 2014-08-25 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
JP2014203176A (ja) * 2013-04-02 2014-10-27 富士通株式会社 情報操作表示システム、表示プログラム及び表示方法
JP2014235698A (ja) * 2013-06-05 2014-12-15 キヤノン株式会社 情報処理装置及びその制御方法
JP2015035103A (ja) * 2013-08-08 2015-02-19 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2015105882A (ja) * 2013-11-29 2015-06-08 富士通株式会社 動作判定方法及び動作判定装置
CN104813258A (zh) * 2012-11-22 2015-07-29 夏普株式会社 数据输入装置
US9222767B2 (en) 2012-01-03 2015-12-29 Samsung Electronics Co., Ltd. Display apparatus and method for estimating depth
JP2016507810A (ja) * 2012-12-20 2016-03-10 グーグル インコーポレイテッド タッチレスジェスチャインターフェースにおける物体間の距離の使用
WO2016052801A1 (ko) * 2014-09-29 2016-04-07 주식회사 토비스 공간 터치 입력이 수행되는 곡면디스플레이 장치
JP2016186809A (ja) * 2016-06-30 2016-10-27 シャープ株式会社 データ入力装置、データ入力方法、及びデータ入力プログラム
JP2017507430A (ja) * 2014-03-03 2017-03-16 ノキア テクノロジーズ オーユー 装置と別装置との間の入力軸
JP2017097716A (ja) * 2015-11-26 2017-06-01 富士通株式会社 入力装置、入力方法、及びプログラム
WO2018083737A1 (ja) * 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置
WO2019026713A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10223064B2 (en) 2016-12-22 2019-03-05 Colopl, Inc. Method for providing virtual space, program and apparatus therefor
JP2019521452A (ja) * 2016-07-22 2019-07-25 グーグル エルエルシー 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出
JP2019135654A (ja) * 2013-03-05 2019-08-15 株式会社リコー 画像投影装置、システム、画像投影方法およびプログラム
JP2020191665A (ja) * 2020-08-03 2020-11-26 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
JP2022008645A (ja) * 2018-02-15 2022-01-13 有限会社ワタナベエレクトロニクス 非接触入力システム及び方法
JP2022058418A (ja) * 2018-08-21 2022-04-12 グリー株式会社 画像表示システム、画像表示方法及び画像表示プログラム
JP2023518562A (ja) * 2020-03-23 2023-05-02 華為技術有限公司 デバイスのハンドジェスチャベースの制御のための方法及びシステム
US11989355B2 (en) 2019-02-18 2024-05-21 Arkh Litho Holdings, LLC Interacting with a smart device using a pointing controller
US12001613B2 (en) 2020-03-20 2024-06-04 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP5581292B2 (ja) * 2011-09-30 2014-08-27 楽天株式会社 検索装置、検索方法、記録媒体、ならびに、プログラム
JP5373229B1 (ja) * 2011-12-16 2013-12-18 オリンパスイメージング株式会社 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
WO2013095679A1 (en) * 2011-12-23 2013-06-27 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US10345911B2 (en) 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
WO2013095677A1 (en) 2011-12-23 2013-06-27 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
US9189073B2 (en) 2011-12-23 2015-11-17 Intel Corporation Transition mechanism for computing system utilizing user sensing
EP2610714B1 (en) * 2012-01-02 2016-08-10 Alcatel Lucent Depth camera enabled pointing behavior
JP5586641B2 (ja) * 2012-02-24 2014-09-10 東芝テック株式会社 商品読取装置及び商品読取プログラム
US20130239041A1 (en) * 2012-03-06 2013-09-12 Sony Corporation Gesture control techniques for use with displayed virtual keyboards
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
KR101424562B1 (ko) * 2012-06-11 2014-07-31 한국과학기술원 공간 인식 장치, 이의 동작 방법 및 이를 포함하는 시스템
US20140123077A1 (en) * 2012-10-29 2014-05-01 Intel Corporation System and method for user interaction and control of electronic devices
US10063757B2 (en) * 2012-11-21 2018-08-28 Infineon Technologies Ag Dynamic conservation of imaging power
JP6167529B2 (ja) * 2013-01-16 2017-07-26 株式会社リコー 画像投影装置、画像投影システム、制御方法およびプログラム
US9519351B2 (en) * 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
WO2015002421A1 (ko) * 2013-07-02 2015-01-08 (주) 리얼밸류 휴대용 단말기의 제어방법, 이를 실행하기 위한 프로그램을 저장한 기록매체, 애플리케이션 배포서버 및 휴대용 단말기
WO2015002420A1 (ko) * 2013-07-02 2015-01-08 (주) 리얼밸류 휴대용 단말기의 제어방법, 이를 실행하기 위한 프로그램을 저장한 기록매체, 애플리케이션 배포서버 및 휴대용 단말기
KR102166330B1 (ko) * 2013-08-23 2020-10-15 삼성메디슨 주식회사 의료 진단 장치의 사용자 인터페이스 제공 방법 및 장치
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
CN103713823B (zh) * 2013-12-30 2017-12-26 深圳泰山体育科技股份有限公司 实时更新操作区位置的方法及系统
US20150323999A1 (en) * 2014-05-12 2015-11-12 Shimane Prefectural Government Information input device and information input method
EP3239816A4 (en) 2014-12-26 2018-07-25 Nikon Corporation Detection device, electronic instrument, detection method, and program
WO2016103521A1 (ja) 2014-12-26 2016-06-30 株式会社ニコン 検出装置およびプログラム
KR20170105404A (ko) 2014-12-26 2017-09-19 가부시키가이샤 니콘 제어 장치, 전자 기기, 제어 방법 및 프로그램
US9984519B2 (en) 2015-04-10 2018-05-29 Google Llc Method and system for optical user recognition
CN104765459B (zh) * 2015-04-23 2018-02-06 无锡天脉聚源传媒科技有限公司 虚拟操作的实现方法及装置
CN104866096B (zh) * 2015-05-18 2018-01-05 中国科学院软件研究所 一种利用上臂伸展信息进行命令选择的方法
CN104978033A (zh) * 2015-07-08 2015-10-14 北京百马科技有限公司 一种人机交互设备
KR101685523B1 (ko) * 2015-10-14 2016-12-14 세종대학교산학협력단 사용자의 신체적 특징과 뇌파 집중 지수를 이용한 가상 모니터 개념의 인터페이스 방법 및 그 시스템
KR101717375B1 (ko) * 2015-10-21 2017-03-17 세종대학교산학협력단 가상 모니터 기반의 핸드 마우스를 이용한 게임 인터페이스 방법 및 그 시스템
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
CN105404384A (zh) * 2015-11-02 2016-03-16 深圳奥比中光科技有限公司 手势操作方法、利用手势定位屏幕光标的方法及手势系统
US10610133B2 (en) 2015-11-05 2020-04-07 Google Llc Using active IR sensor to monitor sleep
US10289206B2 (en) * 2015-12-18 2019-05-14 Intel Corporation Free-form drawing and health applications
US11635827B2 (en) * 2016-06-28 2023-04-25 Nikon Corporation Control device, display device, program, and detection method
CN108345377A (zh) * 2017-01-25 2018-07-31 武汉仁光科技有限公司 一种基于Kinect的自适应用户身高的交互方法
KR101821522B1 (ko) * 2017-02-08 2018-03-08 윤일식 모니터를 이용한 엘리베이터 동작제어장치 및 방법
KR102610690B1 (ko) * 2017-02-24 2023-12-07 한국전자통신연구원 외곽선과 궤적 표현을 활용한 사용자 입력 표현 장치 및 그 방법
CN107015644B (zh) * 2017-03-22 2019-12-31 腾讯科技(深圳)有限公司 虚拟场景中游标的位置调节方法及装置
KR101968547B1 (ko) * 2017-07-17 2019-04-12 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN107861403B (zh) * 2017-09-19 2020-11-13 珠海格力电器股份有限公司 一种电器的按键锁定控制方法、装置、存储介质及电器
US20200012350A1 (en) * 2018-07-08 2020-01-09 Youspace, Inc. Systems and methods for refined gesture recognition
CN111880657B (zh) * 2020-07-30 2023-04-11 北京市商汤科技开发有限公司 一种虚拟对象的控制方法、装置、电子设备及存储介质
TWI813907B (zh) * 2020-09-30 2023-09-01 優派國際股份有限公司 觸控顯示裝置及其操作方法
JP2022163813A (ja) * 2021-04-15 2022-10-27 キヤノン株式会社 装着型の情報端末、その制御方法及びプログラム
CN113569635B (zh) * 2021-06-22 2024-07-16 深圳玩智商科技有限公司 一种手势识别方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612177A (ja) * 1992-06-29 1994-01-21 Canon Inc 情報入力方法及びその装置
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
JP2004258714A (ja) * 2003-02-24 2004-09-16 Toshiba Corp 画像表示装置
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
WO2008149860A1 (ja) * 2007-06-04 2008-12-11 Shimane Prefectural Government 情報入力装置、情報出力装置および方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2001236179A (ja) * 2000-02-22 2001-08-31 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6911995B2 (en) * 2001-08-17 2005-06-28 Mitsubishi Electric Research Labs, Inc. Computer vision depth segmentation using virtual surface
JP4974319B2 (ja) * 2001-09-10 2012-07-11 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
HU0401034D0 (en) * 2004-05-24 2004-08-30 Ratai Daniel System of three dimension induting computer technology, and method of executing spatial processes
WO2006003586A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Zooming in 3-d touch interaction
CN101308441B (zh) * 2004-10-12 2010-09-22 日本电信电话株式会社 三维显示控制方法和三维显示控制装置
US8614676B2 (en) * 2007-04-24 2013-12-24 Kuo-Ching Chiang User motion detection mouse for electronic device
US20060267927A1 (en) * 2005-05-27 2006-11-30 Crenshaw James E User interface controller method and apparatus for a handheld electronic device
ITUD20050152A1 (it) * 2005-09-23 2007-03-24 Neuricam Spa Dispositivo elettro-ottico per il conteggio di persone,od altro,basato su visione stereoscopica,e relativo procedimento
US8217895B2 (en) * 2006-04-28 2012-07-10 Mtekvision Co., Ltd. Non-contact selection device
CN200947919Y (zh) * 2006-08-23 2007-09-19 陈朝龙 辅助鼠标操作的支撑结构
JP4481280B2 (ja) * 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
KR100827243B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 3차원 공간상에서 정보를 입력하는 정보 입력 장치 및 그방법
CN101064076A (zh) * 2007-04-25 2007-10-31 上海大学 远景定向查询展示装置及方法
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8493384B1 (en) * 2009-04-01 2013-07-23 Perceptive Pixel Inc. 3D manipulation using applied pressure
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
US8261211B2 (en) * 2009-10-01 2012-09-04 Microsoft Corporation Monitoring pointer trajectory and modifying display interface
US20120056989A1 (en) * 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612177A (ja) * 1992-06-29 1994-01-21 Canon Inc 情報入力方法及びその装置
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
JP2004258714A (ja) * 2003-02-24 2004-09-16 Toshiba Corp 画像表示装置
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
WO2008149860A1 (ja) * 2007-06-04 2008-12-11 Shimane Prefectural Government 情報入力装置、情報出力装置および方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
金次 保明: "指さしポインターにおけるカーソル位置の特定法", 映像情報メディア学会技術報告, vol. 26, no. 8, JPN6010060758, 29 January 2002 (2002-01-29), JP, pages 55 - 60, ISSN: 0001756543 *

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012121405A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device having a user interface and a method of providing a user interface
WO2012121404A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device incorporating the same and a method for providing a user interface
JP2012221370A (ja) * 2011-04-12 2012-11-12 Sharp Corp 表示装置、操作入力方法、操作入力プログラム、及び記録媒体
JP2012252386A (ja) * 2011-05-31 2012-12-20 Ntt Docomo Inc 表示装置
JP2013045217A (ja) * 2011-08-23 2013-03-04 Hitachi Consumer Electronics Co Ltd 入力装置
KR101438288B1 (ko) * 2011-12-26 2014-09-04 가부시키가이샤 덴소 머리 동작 검출 장치
JP2013134549A (ja) * 2011-12-26 2013-07-08 Sharp Corp データ入力装置およびデータ入力方法
JP2013132371A (ja) * 2011-12-26 2013-07-08 Denso Corp 動作検出装置
US9222767B2 (en) 2012-01-03 2015-12-29 Samsung Electronics Co., Ltd. Display apparatus and method for estimating depth
US9727966B2 (en) 2012-01-03 2017-08-08 Samsung Electronics Co., Ltd. Display apparatus and method for estimating depth
JP2014002502A (ja) * 2012-06-18 2014-01-09 Dainippon Printing Co Ltd 手のばし検出装置、手のばし検出方法及びプログラム
JP2012252708A (ja) * 2012-06-19 2012-12-20 Toshiba Corp 情報処理装置、キャリブレーション方法及びプログラム
JP2014029656A (ja) * 2012-06-27 2014-02-13 Soka Univ 画像処理装置および画像処理方法
JP2014026355A (ja) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd 映像表示装置および映像表示方法
CN104813258B (zh) * 2012-11-22 2017-11-10 夏普株式会社 数据输入装置
JPWO2014080829A1 (ja) * 2012-11-22 2017-01-05 シャープ株式会社 データ入力装置
US10186057B2 (en) 2012-11-22 2019-01-22 Sharp Kabushiki Kaisha Data input device, data input method, and non-transitory computer readable recording medium storing data input program
JP5896578B2 (ja) * 2012-11-22 2016-03-30 シャープ株式会社 データ入力装置
CN104813258A (zh) * 2012-11-22 2015-07-29 夏普株式会社 数据输入装置
JP2014115693A (ja) * 2012-12-06 2014-06-26 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
JP2016507810A (ja) * 2012-12-20 2016-03-10 グーグル インコーポレイテッド タッチレスジェスチャインターフェースにおける物体間の距離の使用
JP2014146236A (ja) * 2013-01-30 2014-08-14 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
JP2014153870A (ja) * 2013-02-07 2014-08-25 Mitsubishi Electric Corp 入力装置、情報処理方法、及び情報処理プログラム
JP2019135654A (ja) * 2013-03-05 2019-08-15 株式会社リコー 画像投影装置、システム、画像投影方法およびプログラム
JP2014203176A (ja) * 2013-04-02 2014-10-27 富士通株式会社 情報操作表示システム、表示プログラム及び表示方法
JP2014235698A (ja) * 2013-06-05 2014-12-15 キヤノン株式会社 情報処理装置及びその制御方法
JP2015035103A (ja) * 2013-08-08 2015-02-19 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2015105882A (ja) * 2013-11-29 2015-06-08 富士通株式会社 動作判定方法及び動作判定装置
JP2017507430A (ja) * 2014-03-03 2017-03-16 ノキア テクノロジーズ オーユー 装置と別装置との間の入力軸
US10664103B2 (en) 2014-09-29 2020-05-26 Tovis Co., Ltd. Curved display apparatus providing air touch input function
WO2016052801A1 (ko) * 2014-09-29 2016-04-07 주식회사 토비스 공간 터치 입력이 수행되는 곡면디스플레이 장치
JP2017097716A (ja) * 2015-11-26 2017-06-01 富士通株式会社 入力装置、入力方法、及びプログラム
JP2016186809A (ja) * 2016-06-30 2016-10-27 シャープ株式会社 データ入力装置、データ入力方法、及びデータ入力プログラム
JP2019521452A (ja) * 2016-07-22 2019-07-25 グーグル エルエルシー 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出
WO2018083737A1 (ja) * 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置
US10223064B2 (en) 2016-12-22 2019-03-05 Colopl, Inc. Method for providing virtual space, program and apparatus therefor
US11036351B2 (en) 2017-08-04 2021-06-15 Sony Corporation Information processing device and information processing method
WO2019026713A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022008645A (ja) * 2018-02-15 2022-01-13 有限会社ワタナベエレクトロニクス 非接触入力システム及び方法
JP2022058418A (ja) * 2018-08-21 2022-04-12 グリー株式会社 画像表示システム、画像表示方法及び画像表示プログラム
JP7409615B2 (ja) 2018-08-21 2024-01-09 グリー株式会社 画像表示システム、画像表示方法及び画像表示プログラム
US11989355B2 (en) 2019-02-18 2024-05-21 Arkh Litho Holdings, LLC Interacting with a smart device using a pointing controller
US12001613B2 (en) 2020-03-20 2024-06-04 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device
JP2023518562A (ja) * 2020-03-23 2023-05-02 華為技術有限公司 デバイスのハンドジェスチャベースの制御のための方法及びシステム
JP7447302B2 (ja) 2020-03-23 2024-03-11 華為技術有限公司 デバイスのハンドジェスチャベースの制御のための方法及びシステム
US12093465B2 (en) 2020-03-23 2024-09-17 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device
JP2020191665A (ja) * 2020-08-03 2020-11-26 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム
JP7041211B2 (ja) 2020-08-03 2022-03-23 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム

Also Published As

Publication number Publication date
US20150130715A1 (en) 2015-05-14
CA2768893C (en) 2015-11-17
US8890809B2 (en) 2014-11-18
WO2011018901A1 (ja) 2011-02-17
KR101347232B1 (ko) 2014-01-03
EP2466423A1 (en) 2012-06-20
CN102473041B (zh) 2015-01-07
EP2466423B1 (en) 2018-07-04
US9535512B2 (en) 2017-01-03
KR20120040211A (ko) 2012-04-26
CN102473041A (zh) 2012-05-23
CN104615242A (zh) 2015-05-13
US20120119988A1 (en) 2012-05-17
EP2466423A4 (en) 2015-03-11
CA2886208A1 (en) 2011-02-17
JP4701424B2 (ja) 2011-06-15
CA2768893A1 (en) 2011-02-17

Similar Documents

Publication Publication Date Title
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
JP5604739B2 (ja) 画像認識装置および操作判定方法並びにプログラム
JP4900741B2 (ja) 画像認識装置および操作判定方法並びにプログラム
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5114795B2 (ja) 画像認識装置および操作判定方法並びにプログラム
WO2012039140A1 (ja) 操作入力装置および方法ならびにプログラム
JP2013016060A (ja) 操作入力装置および操作判定方法並びにプログラム
JP4678428B2 (ja) 仮想空間内位置指示装置
JP2017068468A (ja) 情報処理装置、情報処理方法及びプログラム
JP2005050120A (ja) 仮想空間内位置指示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110215

R150 Certificate of patent or registration of utility model

Ref document number: 4701424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees