WO2009148064A1 - 画像認識装置および操作判定方法並びにプログラム - Google Patents

画像認識装置および操作判定方法並びにプログラム Download PDF

Info

Publication number
WO2009148064A1
WO2009148064A1 PCT/JP2009/060095 JP2009060095W WO2009148064A1 WO 2009148064 A1 WO2009148064 A1 WO 2009148064A1 JP 2009060095 W JP2009060095 W JP 2009060095W WO 2009148064 A1 WO2009148064 A1 WO 2009148064A1
Authority
WO
WIPO (PCT)
Prior art keywords
operator
operation surface
virtual
image
virtual operation
Prior art date
Application number
PCT/JP2009/060095
Other languages
English (en)
French (fr)
Inventor
泉 賢二
Original Assignee
島根県
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 島根県 filed Critical 島根県
Priority to KR1020107027198A priority Critical patent/KR101227610B1/ko
Priority to EP09758331.4A priority patent/EP2287708B1/en
Priority to US12/995,898 priority patent/US8456416B2/en
Priority to CA2726895A priority patent/CA2726895C/en
Priority to CN2009801208343A priority patent/CN102057347B/zh
Publication of WO2009148064A1 publication Critical patent/WO2009148064A1/ja
Priority to ZA2010/09250A priority patent/ZA201009250B/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/634Methods for processing data by generating or executing the game program for controlling the execution of the game in time for replaying partially or entirely the game actions since the beginning of the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car

Definitions

  • the virtual operation surface is illustrated as being formed right above the marker as shown in FIGS. 5 to 8 and the like, but the upper side of the marker may not necessarily be right above. That is, the marker that is the operation surface formation reference is visible, and the operator visually recognizes the marker and uses the marker as a reference, and roughly performs the operation by estimating the position where the virtual operation surface exists. Therefore, the virtual operation surface needs to be formed above the marker, but the positional relationship before and after viewed from the operator may change depending on the condition of the operator and the entire system. Generally, as shown in FIG.
  • FIG. 39 is a diagram showing an example in which a guide bar is used as such an operation limiting means.
  • the guide bar 3902 can normally be used as a handrail or can be held on the body to prevent instability when operating on such an operation plate, the operation input of this embodiment is performed. In this case, it works as a motion limiting means to help a good sense of operation using a virtual operation surface.
  • markers may be attached to desk-like three-dimensional objects as shown in FIG. 19, for example, to make an operation surface formation reference.
  • an area 1710 in which “R” or “L” indicated by the foot is indicated mainly.
  • Such an area 1710 in which “R” or the like is indicated can be written on a floor mat or floor, printed, or attached to a sheet, as shown in FIG.
  • LED spotlights and liquid crystal projectors as projection means for projection are mounted on the bar support 1703 etc. and projected onto a floor mat sensor, the projection light 2002 may form a pattern such as an input character on the floor mat it can.
  • FIG. 40 is a diagram showing an example of a system using such a plurality of control surface formation criteria.
  • virtual operation surfaces are formed on the markers 4001 and 4002 attached to the upper surface of the desk 4005, and the operators 4003 and 4004 move their hands or the like with respect to the formed virtual operation surface to operate them. Is recognized as an operation, the operation of the operators 4003 and 4004 is determined, and the subsequent processing is performed.
  • the markers 4001 and 4002 can be identified by their colors.
  • FIG. 41 is a diagram showing another example of a system using such a plurality of control surface formation criteria.
  • the markers 4101 and 4102 allow the operations of the operators 4103 and 4104 to be divided and processed, respectively.
  • the marker identification can be identified by color or shape.
  • the operation area is set as a virtual operation hierarchy in two or three layers in the z axis direction which is a direction away from the operator, and the type of operation is determined according to which layer the operator's hand is in. Determine the operation content by the movement of the hand in the layer. At this time, if the position of the hand, the type of operation, and the like are displayed on the display screen visually recognized by the operator, the operator can more easily recognize the operation.
  • the distance in the z direction between a part of the operator and the plane dividing each layer can be obtained by the method described in the first embodiment or the like.
  • FIG. 46 is a diagram showing an example of another icon according to this embodiment.
  • the operation for specifying the operation position on the monitor 111 is for hierarchy A
  • the operation for “gripping” the object at the specified position for hierarchy B is assigned.
  • each operation to be moved is assigned.

Abstract

 的確な操作の判定を可能にすること。操作者(102)の画像を抽出し(S403)、操作判定部(304)は、操作入力システムのマーカ(101)のビデオカメラ(201)から見て奥側に立つ操作者(102)とマーカ(101)との相対関係を用い(S404)、操作者(102)の一部が操作面のビデオカメラ(201)から見て手前に来ると、操作が開始されたと判断し(S405)、各部の形状(手を開いている、あるいは指を2本立てているなど)や動きから、その形状、動きが予め想定されたいずれの操作であるかを判定する(S406)。

Description

画像認識装置および操作判定方法並びにプログラム
 本発明は、画像認識装置および操作判定方法に関し、より詳細には、ビデオカメラ等により撮影した画像から測定対象の動作の判定を行う画像認識装置および操作判定方法に関する。
 近年、コンピュータや電子機器と人間とのインタフェース、すなわちマンマシンインタフェースとして様々な機器、手法が提案されており、特にゲーム機や操作ガイド機器などではカメラで操作者全体、あるいは一部を撮影し、その画像に応じて操作者の意志を判断して動作する技術が提案されてきている。例えば、特開2004-78977号公報には、CCDカメラで撮像した画像中の物体の形状、動きを認識するホストコンピュータと、ホストコンピュータによって認識した物体の形状、動きを表示するディスプレイとを備え、CCDカメラにユーザが向い、手振り等によって指示を与えると、与えた手振りがディスプレイの表示画面上に表示され、表示画面上に表示した仮想スイッチ等を手振りによって矢印カーソルのアイコンで選択でき、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となる技術が提案されている。
 最近ではさらに、手指の動きや形状を撮像した画像から、ある種のジェスチャとして認識して、操作入力をする入力システムも提案されている。例えば、図14を参照すると、ジェスチャによる画面操作でのプレゼンテーションや、タッチパネルを必要としない非接触キオスク端末に用いることができる入力装置が示されている。大画面に向き合った操作者は、通常(A)の位置に設置されたカメラに向けて種々の操作を行うと、その内容が大画面に映し出される。このように撮影された画像から操作者の形状、動きを、本技術分野で知られた方法により抽出し、例えば予め定められ、データベースに格納されたパターンと比較することにより、操作者の形状、動きの意味を判定し機器の制御に用いる。
 一方、操作者の画像の読み取り技術としては、図15に示すように、三次元または立体対応のカメラで操作者を撮影し、立体画像を再現することも可能となっており、セキュリティチェックなどの用途に用いられている。立体画像を再現することにより、操作者の動きを立体的に把握することができ、例えば図16に示すように操作者の特に手の動きが前後にも認識できるため、ジェスチャのバラエティが増大する。また、複数の操作者が画像として抽出されても、多人数であれば立体画像であるため前後関係がわかり、一番前の操作者の動きのみ抽出し、操作の入力に使用することもできる。
 しかしながら、従来のジェスチャ操作はデファクトスタンダードといった何らかの標準的なジェスチャが確立されておらず、人差し指でのXY座標のポインティング操作以外はユーザがどのような動作で何ができるのかが直感的に認識できない。「クリック」、「ダブルクリック」、「ドラッグ」等・・・、クリック操作を何秒間かのウェイト時間の間座標に固定することで指示するものはあるが、設定されたウェイト時間が長すぎる等により快適な操作を阻害することも少なくない。したがって、クリックや決定(ダブルクリック等)などの操作をわかり易く、かつ快適にする現実的な手法がないという問題がある。
 また、従来のジェスチャ検出装置は、タッチパネルといった直接操作者が触れることができる入力装置とは異なり、操作者の明確な意思を汲み取りにくい。すなわち、そもそも操作者が何らかの動作を行っても、それが入力を意図したものなのか、単に癖で動いてしまったのか判定することが容易ではないという問題がある。この結果、例えば単純なジェスチャを不自然に目立つ形で行わなければ認識できず、またジェスチャについての事前の取り決めが必要だったり、複雑なジェスチャは使用できなかったりという問題がある。
 本発明は、このような問題に鑑みてなされたもので、操作者に何らかの入力につながる操作をしている状態にあることを認識させた上で装置に対し動作させることにより、的確な操作の判定を可能にする画像認識装置および操作判定方法を提供することを目的とする。この結果、操作に習熟していない特殊なジェスチャを覚えることなく、身体全体あるいは一部を動作させることにより、操作者の意志を的確に示す操作として判定することが可能になる。
特開2004-78977号公報
 このような目的を達成するために、請求項1に記載の発明は、画像認識装置であって、操作者の少なくとも一部の像を読取って立体画像データを生成する三次元撮像手段と、操作者が所定の空間上の仮想操作面を把握するよう設けられた操作者に知覚可能な、撮像手段の撮像範囲内に予め配置された操作面形成基準と、三次元撮像手段により読取られた操作面形成基準によって、仮想操作面を形成し、形成された仮想操作面に対する操作者の動作を、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて動作が操作であるか否かを判定する操作判定手段と、動作が操作であると判定されると、所定の信号を出力する信号出力手段とを備えたことを特徴とする。
 請求項2に記載の発明は、請求項1に記載の画像認識装置において、仮想操作面は、操作面形成基準から上方に投射した面であることを特徴とする。
 請求項3に記載の発明は、請求項2に記載の画像認識装置において、操作面形成基準の操作者側に操作者の動作を制限する動作制限手段をさらに備えたことを特徴とする。
 請求項4に記載の発明は、請求項1に記載の画像認識装置において、仮想操作面は、操作面形成基準の操作者と反対側の所定の位置から上方に投射した面であることを特徴とする。
 請求項5に記載の発明は、請求項1ないし4のいずれかに記載の画像認識装置において、操作判定手段は、操作者の一部が仮想操作面よりも三次元撮像手段側にあるとき操作であると判定することを特徴とする。
 請求項6に記載の発明は、請求項1ないし4のいずれかに記載の画像認識装置において、操作判定手段は、操作者の一部の、仮想操作面よりも三次元撮像手段側にある部分の形状または動きによりいずれの操作が行われているかを判定することを特徴とする。
 請求項7に記載の発明は、請求項6に記載の画像認識装置において、操作判定手段は、予め操作者の一部の形状または動きと対応付けた操作内容を格納する記憶手段を検索して、合致する形状または動きに対応する操作を、入力する操作と判定することを特徴とする。
 請求項8に記載の発明は、請求項1ないし7のいずれかに記載の画像認識装置において、操作面形成基準は、操作者が載る床面に示されていることを特徴とする。
 請求項9に記載の発明は、請求項1ないし7のいずれかに記載の画像認識装置において、操作者と三次元撮像手段との間に配置された立体物をさらに備え、操作面形成基準は、立体物の所定の外縁であることを特徴とする。
 請求項10に記載の発明は、請求項9に記載の画像認識装置において、立体物は、テーブルであることを特徴とする。
 請求項11に記載の発明は、請求項1ないし10のいずれかに記載の画像認識装置において、操作面形成基準は、読取られた画像からの抽出が容易になるように三次元撮像手段に撮像される所定の面にマーカを有することを特徴とする。
 請求項12に記載の発明は、請求項1ないし11のいずれかに記載の画像認識装置において、操作者と対面して配置された画像表示手段をさらに備え、操操作判定手段は、操作者が操作の判定結果を認識できるように、画像表示手段に現時点の操作判定結果を表示させることを特徴とする。
 請求項13に記載の発明は、請求項1ないし12のいずれかに記載の画像認識装置において、仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で操作者の動作が行われると、仮想操作階層に予め割当てられた操作種別および仮想操作階層内での操作者の動作に基づいて操作の内容を決定する操作内容決定手段をさらに備えたことを特徴とする。
 請求項14に記載の発明は、画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、操作者が所定の空間上の仮想操作面を把握するよう設けられた操作者に知覚可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、三次元撮像ステップにおいて読取られた操作面形成基準によって仮想操作面を形成し、形成された仮想操作面に対する、三次元撮像手段で読取られた操作者の動作が、操作者の一部と仮想操作面との位置関係に基づいて操作であるか否かを判定する操作判定ステップと、動作が操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
 請求項15に記載の発明は、画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、操作判定方法は、操作者が所定の空間上の仮想操作面を把握するよう設けられた操作者に知覚可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、三次元撮像ステップにおいて読取られた操作面形成基準によって仮想操作面を形成し、形成された仮想操作面に対する、三次元撮像手段で読取られた操作者の動作が、操作者の一部と仮想操作面との位置関係に基づいて操作であるか否かを判定する操作判定ステップと、動作が操作であると判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
 請求項16に記載の発明は、画像認識装置であって、操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像手段と、三次元撮像手段の撮像範囲内の予め定められた位置及び大きさで、操作者の操作の基準となる仮想操作面を形成し、形成された仮想操作面に対する操作者の動作を、三次元撮像手段で読取って、仮想操作面に対する操作者の部位の位置関係に基づいて動作が操作であるか否かを判定する操作判定手段と、操作判定手段により認識される、仮想操作面に対し三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を表示させて判定しようとする操作を示す、操作者が視認可能な画像表示手段と、動作が操作であると判定されると、所定の信号を出力する信号出力手段とを備えたことを特徴とする。
 請求項17に記載の発明は、請求項16に記載の画像認識装置において、標示は、操作者の部位の、仮想操作面との距離が近づくごとに小さくなることを特徴とする。
 請求項18に記載の発明は、請求項16に記載の画像認識装置において、標示は、操作者の部位の、仮想操作面との距離が近づくごとに色相が変化することを特徴とする。
 請求項19に記載の発明は、請求項16に記載の画像認識装置において、標示は、操作者の部位の、仮想操作面との距離が近づくごとに透明度が低くなることを特徴とする。
 請求項20に記載の発明は、請求項16に記載の画像認識装置において、操作者の部位の、仮想操作面との距離が近づくごとに、標示と画像表示手段に表示されている操作対象画像とのコントラストが大きくなることを特徴とする。
 請求項21に記載の発明は、請求項16に記載の画像認識装置において、標示は、操作者の部位の、仮想操作面との距離が近づくごとに形状が変化することを特徴とする。
 請求項22に記載の発明は、請求項16ないし21のいずれかに記載の画像認識装置において、操作者の部位は複数あり、標示は、複数の操作者の部位の各々に対応して複数表示されることを特徴とする。
 請求項23に記載の発明は、請求項16ないし22のいずれかに記載の画像認識装置において、仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で操作者の動作が行われると、仮想操作階層に予め割当てられた操作種別および仮想操作階層内での操作者の動作に基づいて操作の内容を決定する操作内容決定手段をさらに備えたことを特徴とする。
図1は、本実施形態の操作面形成基準であるマーカを床面に表した操作入力システムの一例を示す図である。 図2は、本実施形態の操作入力システムのコンピュータとの関係を模式的に示すブロック図である。 図3は、本実施形態のコンピュータのCPU内で処理されるプログラムの機能モジュールの一例を示すブロック図である。 図4は、本実施形態の処理のフローチャートである。 図5は、本実施形態のマーカの役割を具体的に説明するための図である。 図6は、本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 図7は、本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 図8は、本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 図9は、本発明の一実施形態にかかる操作入力支援の具体的な表示の一例を示す図である。 図10は、本発明の別の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 図11は、本発明のさらなる別の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 図12は、本発明のさらなる別の一実施形態にかかる操作入力方法の具体的な操作の一例を示す図である。 図13は、本発明のさらなる別の一実施形態にかかる操作入力方法の具体的な操作の一例を示す図である。 図14は、従来の大画面を用いたジェスチャによる入力システムを説明する図である。 図15は、従来の3Dカメラを用いた操作者の画像取り込み方法を示す図である。 図16は、従来の3Dカメラを用いた複数の操作者の画像取り込んだ場合の画像の一例を示す図である。 図17は、本発明のさらなる別の一実施形態にかかる具体的な操作装置の一例を示す図である。 図18は、本発明のさらなる別の一実施形態にかかる操作入力システムのコンピュータとの関係を模式的に示すブロック図である。 図19は、本発明のさらなる別の一実施形態にかかる別の具体的な操作装置の一例を示す図である。 図20は、本発明のさらなる別の一実施形態にかかる具体的な操作装置の操作指示領域のパターン投影法の一例を示す図である。 図21は、本発明のさらなる別の一実施形態にかかる操作入力方法の具体的な操作の一例を示す図である。 図22は、本発明の一実施形態の仮想操作面を用いた操作入力システムの一例を示す図である。 図23は、本発明の一実施形態にかかる仮想的な操作面および操作領域の様子を示す図である。 図24は、本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 図25は、本発明の一実施形態にかかる操作入力画面の具体的な表示の一例を示す図である。 図26は、本発明の一実施形態にかかる操作入力画面で使用可能な種々のアイコンの例を示す図である。 図27は、本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 図28は、本発明の一実施形態にかかる操作入力画面のメニューボタンの色の変化する様子を示す図である。 図29は、本発明の一実施形態にかかる操作入力画面のメニューボタンの濃淡の変化する様子を示す図である。 図30は、本発明の一実施形態の変形例にかかる仮想的な操作面および操作者の操作の様子を示す図である。 図31は、本発明の一実施形態のマルチタッチにかかる仮想的な操作面および操作者の操作の様子を示す図である。 図32は、本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す横面図である。 図33は、本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す正面図である。 図34は、本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す正面図である。 図35は、本発明の一実施形態にかかるマルチタッチ操作により画面上に表示された画像の変化する様子を示す図である。 図36は、本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す横面図である。 図37は、本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す正面図である。 図38は、本発明の一実施形態の仮想的な操作面と侵入防止ガードとの関係を示す図である。 図39は、本発明のさらなる別の一実施形態にかかる具体的な操作装置の操作指示領域のパターン投影法の一例を示す図である。 図40は、本発明の一実施形態にかかる複数の操作面形成基準により形成される複数の仮想的な操作面の様子を示す図である。 図41は、本発明の一実施形態にかかる複数の操作面形成基準により形成される複数の仮想的な操作面の様子を示す図である。 図42は、本実施形態により画面に表示された図形を移動させる指示を入力する一例の表示画面を示す図である。 図43は、本発明の一実施形態にかかる操作者の動きと画面に表示されるメニューとの関係を示す図である。 図44は、本発明の侵入防止ガードがない場合の一実施形態の仮想的な操作面とマーカとの関係を示す図である。 図45は、本発明の別の一実施形態にかかる操作者の動きと画面に表示されるメニューとの関係を示す図である。 図46は、本発明のさらに別の一実施形態にかかる操作者の動きと画面に表示されるメニューとの関係を示す図である。
 以下、図面を参照しながら本発明の実施形態について詳細に説明する。
(第1実施形態)
 図1は、本実施形態の操作面形成基準であるマーカ101を床面に表した操作入力システムの一例を示す図である。本実施形態のマーカ101は、操作者とモニタ111との間に配置され、操作者102は、このマーカ101から表示画面側に出た部分の動き、形状が操作判定の対象になることを意識して操作入力システムに対し操作を行うことができる。モニタ111には、本システムが目的とする様々なアプリケーション用の種々の映像が表示されるが、これに加え後述するように操作入力を支援、すなわち例えば対象となる操作者102の部位などを画面の隅の方に表示して、操作者102に、現時点で操作として判定されうる動作を認識させることができる。操作者102の動きはビデオカメラ201により撮影され、撮影された映像はコンピュータ110で処理され、操作者102のマーカ101を出た部分のジェスチャがどのような操作を意味するかを判定する。コンピュータ110は、ビデオカメラ201から得られたデータから、操作者102の立体画像を作成するとともに、マーカ101により形成される仮想操作面の位置を算出し、仮想操作面を基準に操作者102の手指などがビデオカメラ201側に出ているか否かを決定し、その部分を操作の対象として操作内容を判定する。
 本実施形態では、画像を取得するためにビデオカメラ201をモニタ111の上部に取りつけ撮影しているが、必要な画像が得られればこれに限られることなく、赤外線カメラ等、本技術分野で知られたいずれの撮影手段を用いることもでき、設置場所もモニタの付近の何処を選択することもできる。ここで、本実施形態ではビデオカメラ201として三次元(あるいは3D)カメラを用いることにより、操作者および操作面基準を含め立体画像が作成できるようにする。また、赤外線カメラとビデオカメラとを融合して用いることもできる。すなわち、例えば後述する再帰性反射材をマーカとして使用する場合、赤外線カメラを専ら操作面形成基準のキャリブレーション用に用い、操作者の動きは通常のビデオカメラで捉えるといった仕方で2種類のカメラを用いることができる。
 さらに、本実施形態のシステムには図示しないスピーカ等の音声出力装置を取り付けられており、表示内容や操作に関する情報を音声で操作者に伝えることもできる。このような機能を設けることにより、ディスプレイに操作内容を画像で表示するだけではなく、指示事項や結果について、同時に音声で流すことで操作面基準が判るため、視覚障害のある操作者でも操作することが可能になる。
 図5は、マーカ101の役割を具体的に説明するための図である。マーカ101は、操作者102が仮想操作面を認識するための操作面形成基準であり、ユーザ102は、図6に示すように、床面に示されたマーカ101の上方に操作面が仮想的に存在すると捉えて種々の操作、例えば操作をしようとする場合はマーカ101を基準に手601を前に突き出してジェスチャを示したりすることができる。マーカ101の幅は操作面の幅ともなっている。また、補助マーカ501は、マーカ101の前後を区別するマーカであり、補助マーカ501を用いて、操作領域を確定したり、3次元パース計算要素としたりすることもでき、形状や方向も自由であり、測定に適したエリアを示すようにしても良い。このような、マーカ101を備えた操作入力システムでは、図7に示すようにマーカ101の上部に操作面701が仮想的に形成され、操作者102は、マーカ101から仮想的な操作面701を想定して手601を突き出したり、モニタ111と連動させて画面上の一部と操作面701とをタッチパネルに見立ててタッチするように手601を動かしたりすることにより、入力操作を容易に行うことができる。また、仮想操作画面エリア(線分の垂直上方向に位置)のユーザが任意のポーズを取った後に、線分の前方へ押し出す(決定)動作でアクションを決定したり、操作を決定してから押し出すという判断の基準としたりすることができるため、ユーザが認知しやすく、操作性は従来のタッチパネル操作に近いものとなる。一方、操作バリエーションは、従来のタッチパネルより圧倒的に増える(両手操作や、振舞、複数指等)。
 本実施形態で、仮想操作面は図5ないし8などに示すようにマーカの真上に形成されているように示されているが、マーカの上方とは必ずしも真上でなくてもよい。すなわち、操作面形成基準であるマーカは視認可能であり、操作者がマーカを視認してこれを基準とし、概ね仮想操作面が存在する位置を推測して操作を行う。したがって、仮想操作面はマーカの上方に形成する必要があるが、操作者から見て前後の位置関係については操作者やシステム全体の状況に応じて変化する可能性がある。一般的には、図44に示すように、例えば床面などにマーカ4401を配置した場合などは操作者102の目の位置からするとマーカ4401の真上に近い位置に立つことが多いと考えられるので、マーカ4401の操作者102と反対側に少しずらした位置4402に仮想操作面701を形成した方が腕の動きに余裕ができて自然な操作が可能な場合もあると考えられる。一方、後述する第2実施形態のような図21に示す机の縁にマーカ1902を貼り付けたような場合は、マーカを貼り付けた反対側の縁により操作者は動作を制限される、すなわちこの縁より前面には体を操作面に近づけることはできないから机の幅を操作しやすいように適当に取ることができる。この場合、仮想操作面はマーカの真上に形成するほうが操作者により容易に仮想操作面を認識させることができると考えられる。
 本実施形態のような操作面基準は、キャプチャした画面上で広範囲、適度かつ同時に測定マーカを分散配置することができるため、非常に信頼性の高い測定が可能となる。さらに、このような効果とともに、常にマーカがカメラの撮影範囲内にあることが保証されるキャリブレーションシステムと併用することができ、省スペース・多機能な装置を実現することができ、基本的に初回設置のキャリブレーション後、毎回再測定する必要がない。
 マーカ101は、このようにビデオカメラ201により撮影されて操作面形成基準となり、これを容易にするため、マーカ素材は本技術分野で知られた種々のものを用いることができるが、通常は使用するカメラにより適当なものが選択される。例えば、通常カメラの場合、背景色彩から際立つような特徴あるカラーリングが必要であり、赤外線カメラを使用するときは、再帰性反射材などを使用することができる。一方、レーザ光は、黒色部分等、反射が少ないような色、素材の場合は反射光を測定しにくいので、レーザ光によりマーカや再帰性反射材などを使用することなく黒色のバーなどを使用することにより、レーザ光が照射された部分は反射されずに画面上欠損が発生するので、このようにしてもバーの位置を検出することができる。
 マーカはこのように適切な素材を床面に貼り付けることにより使用することができるが、これに限られることなく直接床面に塗布したり、本技術分野で知られた任意の付着方法を用いたりすることができる。また、上記の説明では、操作面形成基準としてマーカ101を用いることとしたが、これに限られることなく任意の部材や構造を立体測定基準として用いることができる。例えば、マーカは図1に示すような形ではなく様々な形の図形とすることができ、いくつかの点に一定の面積を有するマーカを複数設けるようにしてもよい。
 図2は、本実施形態の画像認識装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、モニタ701の上部等に取り付けられ、操作者102およびマーカ101などを撮影するビデオカメラ201が接続され、撮影した画像がコンピュータ110に取り込まれる。撮影により得られた画像は、CPU210において本実施形態の特徴である画像の抽出、位置の算出などが行われ、算出した位置から操作面からビデオカメラ側に身体の一部が出たかどうかを決定する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、画像認識装置から入力した画像に基づいた処理結果をモニタ111等に出力する。本実施形態では、モニタ111は、主に操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力するものだが、後述するように操作入力の支援となるような情報も表示する。
 図3は、本実施形態のコンピュータ110のCPU210内で処理されるプログラムの機能モジュールの一例を示すブロック図である。図3に示すように、 本システムにおける処理は、画像読取部301、画像抽出部302、画像位置算出部303および操作判定部304により実行される。なお、本実施形態では、ビデオカメラ201からの画像を受取ってからデータの出力を行うまでの処理を4つのモジュールにより実行するがこれに限られることなく、その他のモジュールを用い、あるいはより少ないモジュールで処理することもできる。
(本実施形態の処理)
 本実施形態では、図8に示すように、ビデオカメラ201で撮影されたマーカ101を基準に、同じく撮影した操作者102の位置を定めるとともに、マーカ101の上方に操作面701が形成されていると仮想して、仮想的な操作面701と操作者102との位置関係を算出する処理を行う。本実施形態では、このような処理を行う前提として、本技術分野で知られた初期設定、例えば本実施形態の画像認識装置が新たに設置された場合を想定すると、事前準備として利用するビデオカメラ201の利用レンズの歪み、マーカ102とレンズとの距離等の情報を装置に入力しておく必要がある。さらに閾値設定等を予め調整しておく。システムの初期設定が終了すると、本実施形態の処理を行うこととなるが、この処理については図4を参照して以下に説明する。
 図4は、本実施形態の処理のフローチャートである。まず、画像読取部301においてビデオカメラ201で撮影されたデータを読取り(S401)、そのデータからマーカ101の、例えばカラー画像の場合、画像抽出部302により、予めマーカとして決めておいた色領域を抜き出してマーカ101の画像のみを抽出する(S402)。具体的には、本実施形態では、カラーNTSC信号の輝度信号Yと色差信号U、Vの各々に上下の閾値を設定して全ての閾値を満たす画素を抽出するが、これに限られず本技術分野で知られたいずれの方法を用いることもできる。このようにして、マーカ101の位置が三次元的に把握できると、仮想的な操作面がどの様なものとなるのかを算出してデータベースに記憶しておく。
 ここで、操作面の形状は図8などを参照すると床面から垂直に立てた長方形となっているが、これに限られず、マーカ101の形状や配置の仕方で様々な形状、大きさの操作面を形成することができる。例えば、図8に示すマーカ101は、モニタ111の面に平行な一定の長さの直線であるため、仮想的な操作面は操作面701のようになるが、マーカを斜めに一定の角度をつけた直線とすることもでき、その場合、形状は図8に示す操作面701と同じであるが、向きがモニタ111と一定の角度を持って斜めに置かれたものとなる。この場合も、操作者102は、マーカで斜めに配置された操作面が仮想的に形成されていると捉えることができるから、その操作面を意識して操作を行えばよい。また、立体的に補助マーカを配置して、床面に対しても一定の角度を持った斜面の操作面にしたり、曲面の操作面にしたりすることもできる。なお、本実施形態は、マーカなどにより形成された仮想的な操作面を基準にして処理を行うように説明するが、当業者であれば理解できるように、実際の計算処理では、操作面から操作者の位置を計算しなくてもよい。仮想的な操作面は、あくまでも操作者が意識して操作入力を行うようにするためのものだからである。
 カラー抽出が終了すると、さらに補助マーカ501も同様の処理を行って抽出した後、画像位置算出部303により、抽出したマーカ部分を白黒の2値化し、ビデオカメラ201の撮影した画像から抽出したマーカの縦横の辺を構成するピクセル数を計算する。取得した画像の縦横の辺の長さや傾斜を、基準となる画像と比較して撮像空間の歪みやスケールを割り出す。本実施形態では、歪みやスケールを算出する場合に、この他に少なくとも4点以上の箇所にマーカを設けて基準とすることもできる。例えば、4点以上の基準点が有ればそれを結んで線分とし、キャリブレーションを行うことが可能である。
 このような準備の結果、実際に操作者102の画像を抽出し(S403)、操作判定部304は、操作入力システムのマーカ101のビデオカメラ201から見て奥側に立つ操作者102とマーカ101との相対関係を用い(S404)、操作者102の一部が操作面のビデオカメラ201から見て手前に来ると、操作が開始されたと判断し(S405)、各部の形状(手を開いている、あるいは指を2本立てているなど)や動きから、その形状、動きが予め想定されたいずれの操作であるかを判定する(S406)。ここで、どのような形状、動きがどのような操作に対応するかは、システム独自に取り決めることもできるし、本技術分野で知られたいずれかの手法を取り入れて決定することもできる。判定した結果は、そのような操作の入力があったものとしてコンピュータ110で実行され(S407)、もともと仮想操作面から手前側に手が出ていない場合、操作は行われていないと判定して終了する(S408)。操作内容の判定はここで説明した手法に限られることなく本実施形態で知られたいずれの方法も用いることができる。また、具体的な判定方法も省略したが、一般には予め定めたジェスチャなどの操作者の身体の形状、動きと、それが意味する操作内容とをデータベース等に格納しておいて、画像抽出後、このデータベースにアクセスして、操作内容を判定する。この際にももちろん、画像認識技術や人工知能などを本技術分野で知られた手法により利用し、判定精度を向上させることもできる。
 ここで、操作者の像と操作面形成基準の画像とを対比して、歪み対応情報である予め算出しておいた画像の歪みやスケールに基づいて、操作者の各部位の位置や体勢を判定する。ここでは、詳述しなかったが、同様に、操作者の像も本技術分野で知られたいずれかの方法により抽出する。例えば、予め操作者の背面を特徴的なものにしておき操作者の像を抽出しやすくする等が考えられる。
 また、本実施形態では、仮想操作面の形成は、操作者の動作を認識する際に行っているが、これは例えばシステム全体が小規模なもので、比較的頻繁に操作面形成基準とカメラとの位置が変わる場合に有効であるが、博物館展示のような一度設定するとあまり頻繁には位置関係が変更されないような場合は、予め仮想操作面を抽出しておいていずれかの方法で数値化して記憶しておき、操作者が入力を行う際には最初から抽出することなく操作を判定することもできる。このような処理を取ることにより、仮想操作面を形成する処理を省略して全体として効率のよい処理が可能である。
(操作入力の支援)
 以上説明したように、単に三次元ビデオカメラおよびマーカ101のような操作面形成基準を設けるだけで、操作者は空間上にタッチパネルのような操作面を知覚、想定することができ、この操作面に対し、種々の操作を行うことにより、身体の全部または一部を用いた操作入力が可能となるが、さらに仮想的な操作面に対する操作者の映像をモニタ111に表示する等、操作入力を支援することにより、より容易に本実施形態のシステムを活用することができる。
 図9は、このような操作入力の支援となるガイダンスをモニタ111に表示している一例を示す図である。例えば、モニタ111の中心部に表示されている画像のどこかをポインタで指し示す場合、操作者は仮想的操作面を表示された画像と重ね合わせて、手指を突き出すことにより所望の場所を指し示すことができるが、そのように指し示す様子を図9に示すポインタ901のように表示することにより、操作者は現在行われている操作を認識し確認しながら、次の操作を実行することができる。この例で言うと、たとえば、ポインタ901は、操作面から手指を突き出すと画面に表示され、引っ込めると消える、あるいは濃淡をつけて表示するようになっており、手の動きとモニタ111に表示されるポインタの様子から、操作者は自然な形で、本実施形態の入力法を実行することができるのである。同様に操作者自身の様子を図6ないし8に示したような形で表した操作画面902を、モニタ111の右上隅に小さく表示させて現在どのような動きをして、システムではどのような操作と判定されているかを表示することができ、また、手の動きをグラフ化した折線グラフ903を示して、手の前後の動きがどうなっているかを操作者自身に意識させる等により、より的確な操作が期待できる。また、図示しないが、システムで使用することができるジェスチャをガイダンスに表示して、それに倣って操作入力をするよう操作者に促すようにして支援することもできる。
 以上本実施形態を用いると、操作者は予めジェスチャを覚えたり、取り決めておいたりすることなく、その動きによりシステムの操作を行うことができるほか、操作者の姿勢や各部、例えば手の動きが分かるので身体全体を使用したゲームに用いて、いわゆる複合現実感(MR)を実現することもできる。
(第2実施形態)
 本実施形態は、基本的に上述の第1実施形態のシステム構成と同様であるが、より具体的な使用状況に基づくものである。すなわち、本実施形態では、第1実施形態のシステムおよび処理を踏まえ、一定の立体物、例えば図21に示す机状の立体物1901にマーカ1902、1903を付して操作面形成基準とすることにより仮想操作面701を形成し、これに対し例えば指601等で操作を行うことで、入力操作を可能とする。本実施形態では立体物の例として以下、リビングのテーブルを用い、家庭内などのソファ等に着席して操作する場合を想定して説明するがこれに限られず演題、置き台、あるいは図17に示すバー1702のようなガードなど種々の用途のものを使用することができる。ここで、モニタ111は、家庭のリビング等に置かれた大画面テレビなどを想定する。
 また、図21に示すようなマーカ付置き台を使用する場合、後述する図23に示すように、例えばマーカ1903を用いて操作者102の上半身のみを対象エリア2301として、仮想操作面701から前面に出た部分の動きのみを操作として判定することもできる。このようにすることにより、操作者が図21に示すような置き台を体の支えにして入力操作を行う場合に下半身、特に足が仮想操作面から前に出ても、あくまで上半身の動きのみを操作として認識するようにすることができる。
 ここで、本実施形態におけるマーカと仮想操作面との関係を図38および39を参照して説明する。本実施形態では基本的に机や台などの縁にマーカを付してマーカの上方に形成された仮想操作面に対し操作者が接触したり、手を移動させたりしてシステムに入力操作であることを認識させる。この際、机や台のマーカの付されていない縁は操作者の動作を制限し、適度にかざした手が仮想操作面に自然に触れることを支援する。この概念を図38を参照して説明すると、操作面形成手段であるマーカ3801の上方に仮想操作面701が形成されるが、一方操作者102は、何らかの動作制限手段3802により仮想操作面から一定の距離が保たれることになり、自然に前に出した手601により仮想操作面に対し操作を行うことができる。本実施形態では、仮想操作面701は、マーカ3801の真上に形成されているが、第1実施形態で述べたようにマーカ3801を基準に前後に移動させることもできる。例えば、動作制限手段3802は基本的に固定であるから、操作者102の体形によってはマーカ3801の真上に仮想操作面が形成されると、手前過ぎたり、奥過ぎたりして使用感が悪くなる可能性もある。この場合に、操作者ごとにマーカ3801から、仮想操作面が形成される位置を前後させることもできる。
 図39は、このような動作制限手段としてガイドバーを用いた場合の一例を示す図である。ガイドバー3902は、このような操作版の上で動作するときの不安定を防止するため通常は手すりとして、あるいは体をもたれることができるようになっているが、本実施形態の操作入力をする際には、動作制限手段として働き仮想操作面を用いた良好な操作感のための一助となる。
 図10を参照すると、本実施形態では操作者102は着座の状態で、大画面テレビを操作するが、操作面形成基準はテーブル1001上に設定されたマーカ1002および補助マーカ1003、1004となり、操作者102はこれらのマーカにより大まかに、操作面701がマーカ1002の上方に形成されているものと想定し、その操作面に種々のアクセスをして所望の操作を可能にする。上述のとおり、例えば、大画面テレビ111の画面と操作面701とを重ねあわせ、画面上にチャンネルの配列を表示させて、操作面701上に手指601で指し示すことにより所望のチャネルに切り替えることができる。
 ここで、補助マーカ1003は、操作面の傾きを定めるものであり、図10を参照するとテーブルの脚に設けられていることから、テーブル1001の上面にほぼ垂直であり、仮想操作面もテーブル1001の上面に垂直に形成されている。したがって、補助マーカ1003を垂直とは異なる角度を持って設けた場合は、操作面は垂直で実施形態はなく斜めに形成されることとなる。また、補助マーカ1004は、前後の判断およびパース計算を行うためのものである。このような本実施形態を用いることにより、家庭でくつろいでテレビの視聴を楽しんでいる際に、テレビの操作をしようとしてリモコンが見つからないときでも、一々リモコンを探すことなく遠隔操作が可能になる。
(第3実施形態)
 本実施形態は、基本的に上述の第1実施形態のシステム構成と同様であるが、より具体的な使用状況に基づく、第2実施形態とは異なるシステムを対象とする。すなわち、本実施形態では、第2実施形態と異なり、例えば図11に示すように病院内などのベッド等に寝て操作する場合を想定する。ここで、モニタ111は、病室に置かれたテレビなどを想定する。
 本実施形態では、操作者102はベッドから少し起き上がった状態で、テレビを操作するが、操作面形成基準はベッド用テーブル1102上に設定されたマーカ1101および補助マーカ1103となり、操作者102はこれらのマーカにより大まかに、操作面701がマーカ1101の上方に形成されているものと想定し、その操作面に種々のアクセスをして所望の操作を可能にする。具体的には、図21に示すように、マーカ1101からテレビ111側に指を突き出して、操作中であることをシステムに認識させるが、本実施形態では指601の形状により操作内容を示す。すなわち、図13に示すように、テレビに向かって右手の指1301で「1」を、左手の指1302で「2」を示すことにより、本実施形態の操作入力システムでは、「21」チャネルに変える指示であると判定する。このように、操作面701上に手指601で指し示すことにより所望のチャネルに切り替えることができ、ガードにより仮想操作エリアを認識しやすくなる。ユーザが操作する、しないの意思を判定ライン(長辺)より前に出す、出さないで確認でき、特定ジェスチャとジェスチャの中間動作部分を判定ラインの内側で行い、ジェスチャ決定後に判定ラインからカメラ側へ差し出すことで、従来の問題点であった曖昧さやエラーを回避できる。
(第4実施形態)
 本実施形態では、上述の第1実施形態に加えて、補助的な入力手法を組み合わせることにより、さらに操作が直感的に認識しやすい装置を提供するものである。すなわち、上述の第1実施形態の画像認識装置に床マットセンサを接続し、床マットで動作モードを指示しつつ三次元撮像装置を用いた画像認識装置によって、ジェスチャなどの操作者の操作をより確実に認識する。具体的には、例えば図17に示すような床マット1701上のLまたはRを踏むと操作モードに入って操作者の動作をジェスチャであるとして認識処理を実行し、それ以外のときは操作者の動作は対象外として処理を行わない。この場合に仮想操作面はバー1702、1703を基準に形成される。
 図18は、本実施形態の画像認識装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、モニタの上部等に取り付けられ、操作者およびバー1702、1703に付されたマーカなどを撮影するビデオカメラが接続され、撮影した画像がコンピュータ110に取り込まれる。撮影により得られた画像は、CPU210において本実施形態の特徴である画像の抽出、位置の算出などが行われ、算出した位置から操作面からビデオカメラ側に身体の一部が出たかどうかを決定する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、画像認識装置から入力した画像に基づいた処理結果をモニタ等に出力する。本実施形態では、モニタは、主に操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力するものだが、後述するように操作入力の支援となるような情報も表示する。図18を参照すると、さらに、本実施形態の操作入力装置は、表面に床マットセンサ1701が張られており、例えば“L”あるいは“R”と表示された領域を足により踏まれて圧力が加わると、その位置に応じた信号を出力する。このように、足で操作をする場合には操作者によっては不安定になる可能性があるので、バー1702はこのような場合にも手でつかまって姿勢を安定させることができるので有効である。
 本実施形態の床マットセンサは、本技術分野で知られたいずれの技術を用いることもできる。例えば、圧力センサを用いたり、静電気を用いたセンサなどその他の技術を用いても、足の置かれた位置を示す信号を出力することができるものであればいずれの技術も用いることができる。出力した信号は、CPU1802において情報入力により処理され、すなわち“R”あるいは“L”等のデータに変換され、変換されたデータはインタフェース1803を介しコンピュータ110に送信される。コンピュータ110は、床マットセンサからのデータと上述の仮想操作面に対してなされた動作とを融合して操作者が行おうとしている操作を特定する処理を実行する。すなわち、例えば“R”を踏みながらの動作が操作を意味するものとすると、操作者は何らかの操作を使用とするときのみ“R”を踏めばよく、コンピュータ110に操作として認識させようとする場合は“R”を踏みつつ、予め定められたジェスチャを示すことにより、コンピュータ110は操作者の動作の中から適切にシステムに対する操作を特定して処理することができる。
 図17ではバー1702、1703を示したが、例えば図19に示すような机状の立体物にマーカを付して操作面形成基準とすることもできる。この場合、図17に示すと同様に主に足により指示する“R”や“L”が示された領域1710が配置されている。このような、“R”等が示された領域1710は、床マットや床面に書き込んだり、印刷したり、あるいはシートを貼り付けたりすることができる他、図20に示すように、パターンを投影するための投影手段であるLEDスポットライトや液晶プロジェクタなどをバー支持部1703等に取りつけ、床マットセンサ上に投影すると、投影ライト2002が床マット上に入力文字等のパターンを形成することができる。すなわち、バー支持部1703に投影用ユニットを設置して、斜めに投影するようにすると、操作者の足2001に邪魔されることがないので影で床マットセンサパターンがうまく投影されないということを避けることができる。このようにパターンを投影すれば、入力するデータに応じて操作者が分かりやすいパターンを動的に形成することができる。なお、図19に示す例では床面に表示されたパターン1710を踏んで操作開始を知らせることができるので、本実施形態の仮想操作面を使用しなくても、ジェスチャにより種々の入力を行うこともできる。
(第5実施形態)
 本実施形態では、上述の第1実施形態とは基本的な概念としては一致するが、異なる手法により同様の効果を得る発明を使用する。すなわち、本実施形態も操作者が空間上に仮想的に形成された仮想操作面を基準に、そこにあたかもタッチパネルのような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、第1実施形態とは異なり、操作者が知覚できる操作面形成基準、例えば図1のマーカ101などを使用することなく操作の判定を行うものである。このために、本実施形態では上述の第4実施形態で用いたような補助的な入力手法を組み合わせることにより、操作者が自己の操作をシステムでどのように認識しているかを直感的に認識しやすい装置を提供する。
 基本的には、本実施形態の原理は仮想操作面に対する操作者の部位、例えば手あるいは指の位置の動きにあわせて、モニタ111上に操作者がどのような操作をしようとしているかをビジュアルに表示させることにより、操作者を誘導して的確な操作入力を可能にするというものである。具体的には、図22に示すように、第1実施形態にあるようなマーカ101が存在しないので操作者102は基本的にどこに仮想操作面が形成されているか認識することができない。そこで、マーカ等の基準面を用いない操作者の直感を利用することにより操作者が一定の範囲内で仮想操作面の存在を認識できるようにし、それを基準として操作することによりシステム側でその操作を判定することができるようにする。
 この点について、図23~24を参照して説明すると、本実施形態では予め操作者が一定の立ち位置で操作しうる場合は予め設定された、その立ち位置で仮想操作面への操作が適した位置に、あるいは操作者の立ち位置に合わせて適宜適当な位置に仮想操作面701を形成する。同様に図23に示すように、操作者102の適当な操作範囲2301を設定しておく。上述のとおりモニタ111には現在どのような操作が行われようとしているかを様々な形態で示すことにより、操作者が自己の操作を認識できるようにする。
 このような形態の1つについて図24を参照して説明すると、操作者はシステムに対し何らかの操作を行おうとする場合、本例ではモニタ111に対し、腕2401を前後に動かすことにより、手あるいは指601の位置が変化するため、その様子をモニタ111に表示すると、突き出した指601が一定の位置まで来ると、そのときモニタ111の画面上で指示された項目が実行される等、システムとして一定の処理が行われる。図24の例では、仮想操作面701に対する指601の位置(深さ)によってアイコンの大きさが変化するようになっており、仮想操作面に近づくほどアイコンが小さくなって操作者には自己の操作により一定の場所にフォーカスされていることが認識できるようになっている。そして、最もアイコンが小さくなった位置で、操作が確定しそれに応じた処理が実行される。
 以上の操作の結果、アイコンがモニタ111の画面2501上でどのように変化するかを示したのが図25である。図25を参照すると、モニタ111の画面2501には例えばテレビ番組表が表示されており、ある番組に関する操作を行おうとしている。このような状態で、例えば操作者が「設定変更」のメニューボタンを選択しようとする場合、操作者は上述のようにモニタ111に向かって指601を突き出して選択しようとする。本実施形態では、操作者は仮想操作面がどこにあるかを正確には認識しないが、指601が仮想操作面に対し一定の距離まで近づくと、画面2501にアイコン2503が表示される。このアイコンは指の位置がまだ遠いため図24に示すアイコンのうち右の方にある比較的大きなものが表示される。操作者がさらに腕2401を伸ばすと、このアイコンは目標である選択項目「設定変更」に近づきつつ、小さくなり一定の大きさのアイコン2502のときにアイコンが指し示す位置の項目が選択されたと判定される。
 このように、図25の例では、指601の位置に応じて画面2501に表示されるアイコンの大きさを変化させることにより、操作者は自己の動作がシステムでどのように認識しているかを把握することができ、仮想操作面の大まかな位置を認識して直感的に、メニューの選択などの操作を行うことができる。ここで、指601、腕2401を含む操作者全体及び各部位の位置や大きさは、第1実施形態と同様に三次元カメラを用いることにより抽出することができる。これにより画面内の物体は奥行きも含めて把握することができるから、これらの情報に基づき仮想操作面との距離や位置関係を算出することができる。ただし、本実施形態で使用する三次元カメラや位置の抽出、距離の算出などは本技術分野で知られたいずれの方法も用いることができるので、ここではその説明を省略する。
 本例で画面に表示されるアイコンは円形で操作者の動作に合わせて大きさが変化するが、これに限られず図26に示すように様々な形態のアイコンを用い、様々な変化をさせることができる。すなわち、図26を参照すると、(1)は指の形態のアイコンであり、上述の図25の例と同様に仮想操作面に近づくほどに小さくするようになっている。(2)は、円形で次第に小さくなるようになっているが、入力あるいは選択が確定すると特別な形状に変化して確定したことが示される。このアイコンや他のアイコンの場合も形状や大きさの変化に代えて、あるいは合わせてアイコンの色を変化させることもできる。例えば、青、緑、黄、赤等、寒色系から暖色系に変化させることにより、直感的に操作がフォーカスされ確定することを操作者は認識することができる。(3)は、Xのような形状で、遠くにある場合は大きいだけでなくぼかしが入っており、近づくにしたがって、アイコンの大きさが小さくなるとともに、ぼかしが消えシャープな形状になる。(4)はアイコン全体の大きさは変化することなく、中に描かれた図形が形状変化を起こしてフォーカスされる様子を認識するようになっている。この場合、図形の色も変化させることができる。図26に示す(5)も、形状を変化させるものである。図26において、指の動きに応じてアイコンの形状や色などが変化していき、仮想操作面を越えるとその瞬間に、欄2601に示すように種々の形状や色に変化させたり、点滅させたりして操作として判定されたことを操作者に認識させるようにすることもできる。また、図示しないがこの他のアイコンの変化としては最初透明で、指が仮想操作面に近づくほどに不透明になるような変化も効果的である。
 ここで、アイコンのバリエーションのうち特に形状をあまり変化させず色や濃さを変化させる場合は、図27に示すようにアイコンはあまり移動せず指601を近づけていくと、色が暖色系になったり濃くなったりして、入力を確定することができる。
 また、以上の例では操作の判定状況を確認するためアイコンを表示させ操作者の動作に応じて色や形状を変化させたが、例えば図28、29に示すように元々メニューのように予め指示する位置が固定されているような場合は、わざわざアイコンを表示しなくても、指601が指し示す位置がメニューのどの項目ボタンに最も近いかにより決定し、指601の動き、特に仮想操作面からの距離に応じて指し示されている項目ボタンを塗りつぶす色または塗りつぶす濃さを変化させることにより、仮想操作面の位置を認識させ、操作入力を容易にすることができる。図28は、指601が近づくにしたがって、その選択されているボタンの色を寒色系から暖色系に変化させる例を示す図である。この例の色の選択としては、例えば(2)青、(3)緑、(4)黄、(5)赤のようにすると操作者は直感的に赤になると確定されると認識することができる。同様に、図29は、ボタンの塗りつぶしの濃さを変化させる例を示す図である。
 同様なメニューの選択例としては、図43に示すような一例もあるので説明すると、例えば図24の指601が仮想操作面701を越えた位置まで伸ばされると、画面上にメニュー4301が表示され、その指601のX―Y方向の位置に応じて項目4302が選択されていることを示す。その後、指601を左右上下に動かすことで、メニューの選択項目が移動して行き所望の項目で一定時間静止すると、選択された項目に応じた処理が行われる。また、選択が実行される前に指601が仮想操作面701より後方へ動かされるとメニューを消去するようにすることもできる。
 さらに、別の入力操作の例を図42を参照して説明する。図42は、本実施形態により画面に表示された図形を移動させる指示を入力する一例の表示画面を示す図である。指示は操作者の手または指を仮想操作面に触れて動かすことにより行う。まず、指などを画面に近づけていくと画面4211のアイコン4201から画面4212のアイコン4202へとアイコンを縮小させて仮想操作面に接近していることを示す。その後、仮想操作面に触れると画面の4213のアイコン4203のように例えば色を変化させて放置し、その状態で上に向けて指などを動かすと画面4214のラバーバンド4204などを表示させて移動方向を示すことにより、操作者が自己の操作を確認することができる。また、右方向に指を動かすと、画面4215のラバーバンド4205を表示することができる。このように、仮想操作面に指等が到達後の上下左右のドラッグ距離に応じて伸縮するラバーバンド(上図では矢印)を出現させ(アイコン4203の位置は仮想操作面から抜けるまで固定)、伸縮距離に応じて移動スピード、伸ばす角度に応じて3D空間内での移動する方向を変化させることができる(矢印先端が腕先や指先の動きに追随する)。
 以上、図22、23に示すような操作者とモニタとがほぼ同じ高さにある、すなわち仮想操作面が操作者の水平方向前面にほぼ垂直に形成される場合について、本実施形態の原理を説明してきたが、この原理はこのような操作者とモニタとの位置関係や形状には影響されることはなく、種々の配置や構成が可能である。例えば、第2~4実施形態で説明したような、ソファやベッドからの操作でも応用することができるし、もちろん置き台を使用することもできる。
 さらに、図30に示すようにモニタ111が操作者102の斜め上部に取り付けられている場合にも仮想操作面を傾けて形成し、操作領域2301もそれに合わせて傾けることにより、上述の場合と同様に操作者102は、図30に示すようにモニタ111を見上げて指を前後に動かすことにより、操作を行うことができる。この場合、三次元カメラ201もモニタ111とともに傾いているので、基本的には上述の水平位置に配置された場合と大きな相違はないが、カメラを別な位置に設置したとしても、本技術分野で知られたいずれかの方法で位置補正などを行なうことで、操作者の部位と仮想操作面との位置関係を算出して、操作を判定することができる。
 また、第4実施形態のように本実施形態の画像認識装置に床マットセンサを接続し、床マットで動作モードを指示しつつ三次元撮像装置を用いた画像認識装置によって、ジェスチャなどの操作者の操作をより確実に認識する。具体的には、例えば図17に示すような床マット1701上のLまたはRを踏むと操作モードに入って操作者の動作をジェスチャであるとして認識処理を実行し、それ以外のときは操作者の動作は対象外として処理を行わない。この場合に仮想操作面はバー1702、1703を基準に形成される。
(第6実施形態)
 本実施形態は、上述の第1ないし5実施形態のいずれの実施形態を基本としても用いることができるが、特に第4及び5実施形態において実施することが有効である。本実施形態は、基本的に上述の実施形態と同じ構成、配置のシステムを用いることができる。操作者の部位の検出や仮想操作面との位置関係の算出も同様である。すなわち、第4実施形態を基本とすれば、操作者は例えばマーカを基準に仮想操作面の位置を認識してその仮想操作面に対して種々の動作を行うことによって一定の操作と判定する。また第5実施形態を基本とする場合、マーカ等の基準を使用せずモニタ画面のアイコン等の動きにより操作者が自己の動きがどのように操作として判定されているかを認識して動作することにより、操作が判定されるが、いずれの実施形態でも、必ずしも限定してはいないが、操作者の1つの部位によりシステムにアクセスする例についてのみ説明した。本実施形態では、図31に示すように、操作者は1つの部位だけでなく複数の部位、例えば両手や、複数の指などを用いて同時にシステムアクセスする。
 従来本実施形態が処理しようとする、いわゆるマルチタッチを入力システムとして用いるのは容易ではなかった。例えば、いずれの手法によるかに関わらず従来のタッチパネルはパネル上の各点で接触を検知するが、同時に複数の接触があるとどの点で接触を検出したかを検知することができなかった。本実施形態は、上述のとおり三次元カメラを用いて操作者の各部位をそれぞれ立体的に認識することができるので、例えば仮想操作面を基準に仮想操作面に触れた複数の部位の位置を同時に正確に検出することができる。したがって、本実施形態では図31に示すように2本の腕あるいは複数の指を用いて、同時に仮想操作面上で操作させることにより、システムとして複数の位置を指示したり、複数のボタンを同時に押下したりすることができる。
 また、このような複数部位を用いた操作としては、複数の指を用いて直感的なジェスチャ、例えば画像の一部をつまんで引き伸ばした入りする動作により拡大動作を可能にしたりすることができる。このようにすることにより、予めシステムごとに定められた特殊なジェスチャを学習することなく複雑な操作入力をすることが可能となる。例えば、図32ないし35を参照して、モニタ111に表示された画像を伸張する操作をマルチタッチにより実行する例を説明する。
 図32を参照すると、操作者102は仮想操作面701を基準として左手3101及び右手3102をモニタに向かって突き出す。操作者102が操作しようとする画像の仮想操作面上の投射した画像イメージ3203を仮想操作面701から突き出た指3201及び3202で指示することにより、モニタ111上では対象画像の縁が両指で捕まえられたような表示がなされ、指3201及び3202を広げることにより、例えば図33に示すような状態から、図34に示すような状態に腕を広げることにより対象画像は伸張される。なお、図32に示す仮想イメージ3203は、仮想操作面701に対し若干傾いているように描かれているが、これは例えば操作者102が指3202をモニタ111側に突き出すことにより、対象画像を奥行き方向へも伸張、移動させることができることを示しているものである。
 すなわち、横面から見た図32の操作の様子を、正面から見たのが図33及び34であり、最初表示された画像の仮想操作面上の仮想イメージ3203は、この操作により縁が図33の指3201及び3202の位置から図34に示すように指3401及び3402の位置に動かされ、画像イメージ3403のように伸張される。以上の操作に応じたモニタ111上の画像の様子を示す図が図35である。図35に示すようにモニタ111には最初の状態(1)における画像3503の縁3501及び3502が指3201及び3202で指示されていることが示されており、その後操作者により腕が広げられると徐々状態(2)を介して最終的に状態(3)の画像3503まで伸張される。このようにして、本実施形態のマルチタッチを用いることにより、単にメニューボタンやアイコンを押下するだけでなく、モニタ上に表示された画像をつかんだり、伸ばしたりすることができる。
 また、図36及び37にマルチタッチを用いる別の例を示す。図36を参照すると、複数の指3601を仮想操作面701を越えて前に出すことによって、モニタ上に表示された、例えばコップなどの画像イメージ3602を掴むような操作であると判定することにより、その後の腕の動きでコップを移動させる等の処理を実行することができる。この様子を正面から見た図が図37である。なお、仮想操作面701はモニタ111に完全に投影しても良いし、一部にすることもできる。
 以上、本実施形態を用いると、上述の第1ないし5実施形態で複数の部位を同時に用いることができるので、複雑な操作や、複数の同時操作などが可能となりより効果的な入力環境を提供することができる。
(第7実施形態)
 本実施形態は、上述の第1実施形態ないし第4実施形態と同様の構成を使用するが、複数の操作者の各々のための操作面形成基準を有する点が異なる。複数の操作者が操作入力を同時にする場合としては、例えば対戦型ゲームのようにそれぞれの操作者の操作が相互に作用しあって、コンピュータの処理や画面表示が行われる。一方、別々の処理を書く操作者が、例えば画面を操作者の数だけ分けて処理するような形態もある。いずれにしても、どの操作者がどの操作をしたかを明確に判別する必要がある。本実施形態では、操作面形成基準にID識別機能、例えば色分けする、異なる形状を持たせる、バーコード等の符号を付すことにより、または単純に左右、上下、前後などの位置関係で識別可能なときはその位置関係などにより、操作面形成基準を判別し、その基準を用いて入力される操作を他の操作面形成基準によるものと分けて処理する。
 操作面形成基準に施すID識別機能は上述のような本実施形態の操作解析のために用いる三次元カメラにより識別可能なものでもよいし、別の方法例えば無線タグのようなもので位置関係を判別し、三次元カメラの映像と照合するといった方法により達成することができるが、さらにこれに限られない。
 図40は、このような複数の操作面形成基準を用いたシステムの一例を示す図である。この例では、机4005の上面に付されたマーカ4001および4002に仮想操作面を形成し、その形成された仮想操作面に対してそれぞれ操作者4003および4004が手などを動かすことで、その動作を操作と認識させ、操作者4003および4004の操作を判別して、その後の処理を行う。なお、本例ではマーカ4001と4002とはその色により識別できるようにされている。同様に図41は、このような複数の操作面形成基準を用いたシステムの別の一例を示す図である。マーカ4101および4102により、それぞれ操作者4103および4104の操作を分けて処理することができる。この例でマーカの識別は、色または形状で識別できるものとする。
 以上の通り、本実施形態では複数の操作面形成基準を各々識別可能に用いることにより、複数の操作者の個別の操作入力を可能にするが、マーカあるいは操作者の識別以外は、第1実施形態ないし第4実施形態の装置または方法が用いられる。なお、図40、41はいずれも2名の操作者であるが、本実施形態はより多くの操作者にも適用できる。
(第8実施形態)
 本実施形態は、上述の第1ないし7実施形態のいずれかを使用しながら、さらに判定される操作に多様性をもたらすものである。すなわち、本実施形態も操作者が空間上に仮想的に形成された仮想操作面を基準に、そこにあたかもタッチパネルのような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、このようにして判定された操作の内容を仮想操作面から奥側方向である、操作者から離れる方向への仮想操作面と操作者の手等の身体の一部あるいは身につけた物体の位置関係で決定する。例えば、操作者から離れる方向であるz軸方向に2層あるいは3層に操作領域を仮想操作階層として設定し、操作者の手がどの層に入っているかにより操作の種別を決定して、その層内での手の動きにより操作内容を決定する。この際、操作者が視認している表示画面上に手の位置や操作の種別などを表示させれば、より操作者は操作の認識を容易にすることができる。なお、操作者の一部と各階層を分割する面とのz方向の距離は第1実施形態などで説明した手法によって取得することができる。
 本実施形態を図面を参照してより具体的に説明すると、図45に示すトリガ面701は、第1ないし7実施形態と同様本願発明の仮想操作面であり、上述の実施形態のいずれかを用いて指601がトリガ面701からz軸方向に入ると、操作が行われたと判定される。本実施形態ではさらに、トリガ面701から先の操作領域を階層AないしCの3階層に面4501および4502で分割し、各々異なる操作の種別を割当てる。図45の例では、階層Aにはオブジェクトの回転の操作を、階層Bには拡大縮小の操作を、階層Cにはオブジェクトの移動の操作をそれぞれ割当てている。各階層において指601を動かすことにより決められた操作が実行される。例えば、階層Aにおいては、トリガ面701を指601が通過した際に指601を示すアイコン、例えば回転アイコン4503が示す位置を中心に指定されたオブジェクトが指601の動きに合わせて回転する。階層Bにおいては、例えばモニタ111に拡大縮小アイコン4504を表示し、指601をz方向に動かすとオブジェクトが拡大され、反対方向に動かすとオブジェクトが縮小するようにすることができる。
 同様に、階層Cではモニタ111に表示された指定したオブジェク上の指601の位置に移動アイコン4505を表示し、指601の動きに合わせて移動するようにすることができる。ここで、階層間を区切る面4501および4502は各階層が同じ厚さになるように配置することもでき、階層に割当てられた操作種別に応じて異なる厚さになるよう配置することもできる。例えば図45の例では、階層Bには拡大縮小の操作が割当てられているが、拡大縮小を前後の動きで表現しなければならないため、階層Aや階層Cと比較して通常はz方向の動きが大きくなることから、階層Bをより厚くすることによって操作を容易にすることもできる。
 図46は、本実施形態の別のアイコンの例を示す図である。図46に示す例では、階層Aにはモニタ111上での操作位置を特定する操作を、階層Bには特定された位置におけるオブジェクトを「掴む」操作を、階層Cには掴んだオブジェクトを投げるあるいは移動させる操作をそれぞれ割当てている。
 以上のように、本実施形態では、仮想操作面により操作と判定された後の操作内容の判定の際に、指や手の動きだけでなく、そのz方向の位置、すなわち仮想操作階層に応じて操作の種別を特定するようにすることができるため、指や手の動きのみでは様々なジェスチャーパターンを数多く準備し、かつユーザがそれらを覚える必要があるのに比較して、単純な動作のみで複雑な操作を使い分けできることとなる。
 なお、上述の、特に図45に示す例では、手や指などの一連の動きを各階層間で連続的に行える操作を配置するようになっているが、連続的に操作できないような配置の場合(図46に示す例)は、次のような2つの点が問題となる。すなわち、(1)目的とする仮想操作階層に到達する前に他の階層を通過し、操作者が欲しない指示を与えてしまう、(2)目的の操作を終え、手を操作領域から抜く場合、他の仮想操作階層を通過し、操作者が欲しない指示を与えてしまう、という点である。上記の問題を回避するためには、例えば次の方法などが考えられる。すなわち、操作する方と反対の手を操作領域内に差し込むようなマルチセンシングの状態(例えば、右手で操作している場合、左手を操作領域内に入れた状態)を、操作なし(あるいはその逆に、操作あり)の状態と設定し、操作する方と反対の手の出し入れによって、各階層の操作を行うか否かを判断するようにする(この例では両手操作によるが、XY平面上にすり抜け用エリアを設ける等、様々な方法が考えられる)。

Claims (23)

  1.  操作者の少なくとも一部の像を読取って立体画像データを生成する三次元撮像手段と、
     前記操作者が所定の空間上の仮想操作面を把握するよう設けられた該操作者に知覚可能な、前記撮像手段の撮像範囲内に予め配置された操作面形成基準と、
     前記三次元撮像手段により読取られた前記操作面形成基準によって、前記仮想操作面を形成し、当該形成された仮想操作面に対する操作者の動作を、前記三次元撮像手段で読取って、前記操作者の一部と前記仮想操作面との位置関係に基づいて該動作が操作であるか否かを判定する操作判定手段と、
     前記動作が操作であると判定されると、所定の信号を出力する信号出力手段と
     を備えたことを特徴とする画像認識装置。
  2.  前記仮想操作面は、前記操作面形成基準から上方に投射した面であることを特徴とする請求項1に記載の画像認識装置。
  3.  前記操作面形成基準の操作者側に操作者の動作を制限する動作制限手段をさらに備えたことを特徴とする請求項2に記載の画像認識装置。
  4.  前記仮想操作面は、前記操作面形成基準の操作者と反対側の所定の位置から上方に投射した面であることを特徴とする請求項1に記載の画像認識装置。
  5.  前記操作判定手段は、前記操作者の一部が前記仮想操作面よりも前記三次元撮像手段側にあるとき操作であると判定することを特徴とする請求項1ないし4のいずれかに記載の画像認識装置。
  6.  前記操作判定手段は、前記操作者の一部の、前記仮想操作面よりも前記三次元撮像手段側にある部分の形状または動きによりいずれの操作が行われているかを判定することを特徴とする請求項1ないし4のいずれかに記載の画像認識装置。
  7.  前記操作判定手段は、予め操作者の一部の形状または動きと対応付けた操作内容を格納する記憶手段を検索して、合致する形状または動きに対応する操作を、入力する操作と判定することを特徴とする請求項6に記載の画像認識装置。
  8.  前記操作面形成基準は、操作者が載る床面に示されていることを特徴とする請求項1ないし7のいずれかに記載の画像認識装置。
  9.  操作者と前記三次元撮像手段との間に配置された立体物をさらに備え、
     前記操作面形成基準は、前記立体物の所定の外縁であることを特徴とする請求項1ないし7のいずれかに記載の画像認識装置。
  10.  前記立体物は、テーブルであることを特徴とする請求項9に記載の画像認識装置。
  11.  前記操作面形成基準は、読取られた画像からの抽出が容易になるように前記三次元撮像手段に撮像される所定の面にマーカを有することを特徴とする請求項1ないし10のいずれかに記載の画像認識装置。
  12.  操作者と対面して配置された画像表示手段をさらに備え、
     前記操作判定手段は、操作者が操作の判定結果を認識できるように、前記画像表示手段に現時点の操作判定結果を表示させることを特徴とする請求項1ないし11のいずれかに記載の画像認識装置。
  13.  前記仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で前記操作者の動作が行われると、該仮想操作階層に予め割当てられた操作種別および前記仮想操作階層内での操作者の動作に基づいて前記操作の内容を決定する操作内容決定手段をさらに備えたことを特徴とする請求項1ないし12のいずれかに記載の画像認識装置。
  14.  画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、
     前記操作者が所定の空間上の仮想操作面を把握するよう設けられた該操作者に知覚可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および該所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、
     前記三次元撮像ステップにおいて読取られた操作面形成基準によって前記仮想操作面を形成し、当該形成された仮想操作面に対する、前記三次元撮像手段で読取られた操作者の動作が、前記操作者の一部と前記仮想操作面との位置関係に基づいて操作であるか否かを判定する操作判定ステップと、
     前記動作が操作であると判定されると、所定の信号を出力する信号出力ステップと
     を備えたことを特徴とする操作判定方法。
  15.  画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、該操作判定方法は、
     前記操作者が所定の空間上の仮想操作面を把握するよう設けられた該操作者に知覚可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および該所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、
     前記三次元撮像ステップにおいて読取られた操作面形成基準によって前記仮想操作面を形成し、当該形成された仮想操作面に対する、前記三次元撮像手段で読取られた操作者の動作が、前記操作者の一部と前記仮想操作面との位置関係に基づいて操作であるか否かを判定する操作判定ステップと、
     前記動作が操作であると判定されると、所定の信号を出力する信号出力ステップと
     を備えたことを特徴とするプログラム。
  16.  操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像手段と、
     前記三次元撮像手段の撮像範囲内の予め定められた位置及び大きさで、操作者の操作の基準となる仮想操作面を形成し、当該形成された仮想操作面に対する操作者の動作を、前記三次元撮像手段で読取って、前記仮想操作面に対する前記操作者の部位の位置関係に基づいて該動作が操作であるか否かを判定する操作判定手段と、
     前記操作判定手段により認識される、前記仮想操作面に対し前記三次元撮像手段の反対側における前記操作者の一部と前記仮想操作面との位置関係から当該距離を算出して該距離に応じ変化する標示を表示させて判定しようとする操作を示す、前記操作者が視認可能な画像表示手段と、
     前記動作が操作であると判定されると、所定の信号を出力する信号出力手段と
     を備えたことを特徴とする画像認識装置。
  17.  前記標示は、前記操作者の部位の、前記仮想操作面との距離が近づくごとに小さくなることを特徴とする請求項16に記載の画像認識装置。
  18.  前記標示は、前記操作者の部位の、前記仮想操作面との距離が近づくごとに色相が変化することを特徴とする請求項16に記載の画像認識装置。
  19.  前記標示は、前記操作者の部位の、前記仮想操作面との距離が近づくごとに透明度が低くなることを特徴とする請求項16に記載の画像認識装置。
  20.  前記操作者の部位の、前記仮想操作面との距離が近づくごとに、前記標示と前記画像表示手段に表示されている操作対象画像とのコントラストが大きくなることを特徴とする請求項16に記載の画像認識装置。
  21.  前記標示は、前記操作者の部位の、前記仮想操作面との距離が近づくごとに形状が変化することを特徴とする請求項16に記載の画像認識装置。
  22.  前記操作者の部位は複数あり、前記標示は、前記複数の操作者の部位の各々に対応して複数表示されることを特徴とする請求項16ないし21のいずれかに記載の画像認識装置。
  23.  前記仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で前記操作者の動作が行われると、該仮想操作階層に予め割当てられた操作種別および前記仮想操作階層内での操作者の動作に基づいて前記操作の内容を決定する操作内容決定手段をさらに備えたことを特徴とする請求項16ないし22のいずれかに記載の画像認識装置。
PCT/JP2009/060095 2008-06-03 2009-06-02 画像認識装置および操作判定方法並びにプログラム WO2009148064A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020107027198A KR101227610B1 (ko) 2008-06-03 2009-06-02 화상인식장치 및 조작판정방법과 이를 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체
EP09758331.4A EP2287708B1 (en) 2008-06-03 2009-06-02 Image recognizing apparatus, operation determination method, and program
US12/995,898 US8456416B2 (en) 2008-06-03 2009-06-02 Image recognition apparatus, and operation determination method and program therefor
CA2726895A CA2726895C (en) 2008-06-03 2009-06-02 Image recognizing apparatus, and operation determination method and program therefor
CN2009801208343A CN102057347B (zh) 2008-06-03 2009-06-02 图像识别装置、操作判断方法及程序
ZA2010/09250A ZA201009250B (en) 2008-06-03 2010-12-23 Image recognition apparatus, and operation determination method and program therefor

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2008146231 2008-06-03
JP2008-146231 2008-06-03
JP2008-207388 2008-08-11
JP2008207388A JP4318056B1 (ja) 2008-06-03 2008-08-11 画像認識装置および操作判定方法
PCT/JP2008/071268 WO2009147758A1 (ja) 2008-06-03 2008-11-21 画像認識装置および操作判定方法並びにプログラム
JPPCT/JP2008/071268 2008-11-21

Publications (1)

Publication Number Publication Date
WO2009148064A1 true WO2009148064A1 (ja) 2009-12-10

Family

ID=41076632

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2008/071268 WO2009147758A1 (ja) 2008-06-03 2008-11-21 画像認識装置および操作判定方法並びにプログラム
PCT/JP2009/060095 WO2009148064A1 (ja) 2008-06-03 2009-06-02 画像認識装置および操作判定方法並びにプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/071268 WO2009147758A1 (ja) 2008-06-03 2008-11-21 画像認識装置および操作判定方法並びにプログラム

Country Status (9)

Country Link
US (1) US8456416B2 (ja)
EP (2) EP2287708B1 (ja)
JP (2) JP4318056B1 (ja)
KR (1) KR101227610B1 (ja)
CN (1) CN102057347B (ja)
CA (1) CA2726895C (ja)
TW (2) TWI534661B (ja)
WO (2) WO2009147758A1 (ja)
ZA (1) ZA201009250B (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
WO2012120521A1 (en) * 2011-03-04 2012-09-13 Hewlett-Packard Development Company, L.P. Gestural interaction identification
WO2012141351A1 (en) * 2011-04-12 2012-10-18 Lg Electronics Inc. Electronic device and method of controlling the same
EP2531954A1 (en) * 2010-02-05 2012-12-12 Creative Technology Ltd. Device and method for scanning an object on a working surface
US20130181897A1 (en) * 2010-09-22 2013-07-18 Shimane Prefectural Government Operation input apparatus, operation input method, and program
JP2014082605A (ja) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc 情報処理装置、その制御方法及びプログラム
US8860805B2 (en) 2011-04-12 2014-10-14 Lg Electronics Inc. Electronic device and method of controlling the same
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
JP2019003683A (ja) * 2014-06-03 2019-01-10 グーグル エルエルシー ウェアラブルデバイスを通じたレーダ型ジェスチャ認識
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search

Families Citing this family (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9740341B1 (en) 2009-02-26 2017-08-22 Amazon Technologies, Inc. Capacitive sensing with interpolating force-sensitive resistor array
US10180746B1 (en) 2009-02-26 2019-01-15 Amazon Technologies, Inc. Hardware enabled interpolating sensor and display
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
US9244562B1 (en) 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
US9785272B1 (en) 2009-07-31 2017-10-10 Amazon Technologies, Inc. Touch distinction
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
JP2011081469A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
JP5412227B2 (ja) * 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 映像表示装置、および、その表示制御方法
US8462110B2 (en) * 2009-11-03 2013-06-11 Hewlett-Packard Development Company, L.P. User input by pointing
US8605165B2 (en) 2010-10-06 2013-12-10 Ai Cure Technologies Llc Apparatus and method for assisting monitoring of medication adherence
US9183601B2 (en) 2010-03-22 2015-11-10 Ai Cure Technologies Llc Method and apparatus for collection of protocol adherence data
US9293060B2 (en) 2010-05-06 2016-03-22 Ai Cure Technologies Llc Apparatus and method for recognition of patient activities when obtaining protocol adherence data
JP4783456B2 (ja) * 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
US20110157015A1 (en) * 2009-12-25 2011-06-30 Cywee Group Limited Method of generating multi-touch signal, dongle for generating multi-touch signal, and related control system
JP5114795B2 (ja) * 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
JP2013080266A (ja) * 2010-02-08 2013-05-02 Nextedge Technology Inc 入力装置
JP5740822B2 (ja) 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2548100B1 (en) * 2010-03-15 2019-05-15 Koninklijke Philips N.V. A method and system for controlling at least one device
KR101743948B1 (ko) * 2010-04-07 2017-06-21 삼성전자주식회사 인터렉티브 디스플레이에서 근접 센싱을 위한 방법 및 근접 센싱 이미지를 처리하는 방법
US10116903B2 (en) 2010-05-06 2018-10-30 Aic Innovations Group, Inc. Apparatus and method for recognition of suspicious activities
US9875666B2 (en) 2010-05-06 2018-01-23 Aic Innovations Group, Inc. Apparatus and method for recognition of patient activities
US9883786B2 (en) 2010-05-06 2018-02-06 Aic Innovations Group, Inc. Method and apparatus for recognition of inhaler actuation
JP5709405B2 (ja) * 2010-05-18 2015-04-30 株式会社タイトー 画像認識によるラクガキ装置
JP5408348B2 (ja) * 2010-05-18 2014-02-05 富士通株式会社 ポインタ情報処理装置、ポインタ情報処理プログラムおよび会議システム
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
KR101708696B1 (ko) * 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012089112A (ja) * 2010-09-22 2012-05-10 Nikon Corp 画像表示装置
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
JP5515067B2 (ja) * 2011-07-05 2014-06-11 島根県 操作入力装置および操作判定方法並びにプログラム
JP5580156B2 (ja) 2010-09-27 2014-08-27 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御方法、ならびに、プログラム
EP2628069B1 (en) * 2010-10-12 2020-12-02 New York University Apparatus for sensing utilizing tiles, sensor having a set of plates, object identification for multi-touch surfaces, and method
KR20120062170A (ko) * 2010-12-06 2012-06-14 삼성전자주식회사 가상 모니터 제어장치 및 그 제어방법
JP5711962B2 (ja) 2010-12-27 2015-05-07 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
US20140317577A1 (en) * 2011-02-04 2014-10-23 Koninklijke Philips N.V. Gesture controllable system uses proprioception to create absolute frame of reference
US8497838B2 (en) * 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
US9116553B2 (en) * 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
JP2012190183A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
US9067136B2 (en) * 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
JP2012215963A (ja) 2011-03-31 2012-11-08 Hitachi Consumer Electronics Co Ltd 映像表示装置
CN103608761B (zh) 2011-04-27 2018-07-27 日本电气方案创新株式会社 输入设备、输入方法以及记录介质
EP2703949B1 (en) 2011-04-28 2017-10-25 NEC Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
US20120281114A1 (en) * 2011-05-03 2012-11-08 Ivi Media Llc System, method and apparatus for providing an adaptive media experience
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) * 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
JP4945694B2 (ja) * 2011-06-27 2012-06-06 株式会社東芝 映像再生装置及び映像再生方法
JP2014523012A (ja) * 2011-07-01 2014-09-08 エンパイア テクノロジー ディベロップメント エルエルシー 適応型ユーザインターフェース
US9030487B2 (en) * 2011-08-01 2015-05-12 Lg Electronics Inc. Electronic device for displaying three-dimensional image and method of using the same
JP5921835B2 (ja) 2011-08-23 2016-05-24 日立マクセル株式会社 入力装置
US20130055143A1 (en) * 2011-08-31 2013-02-28 Smart Technologies Ulc Method for manipulating a graphical user interface and interactive input system employing the same
US9128520B2 (en) * 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
KR101822661B1 (ko) * 2011-10-27 2018-01-26 삼성전자주식회사 비전 인식 장치 및 방법
KR101396488B1 (ko) * 2011-11-09 2014-05-20 포항공과대학교 산학협력단 신호 입력 장치 및 신호 입력 방법
US9052819B2 (en) 2012-01-25 2015-06-09 Honeywell International Inc. Intelligent gesture-based user's instantaneous interaction and task requirements recognition system and method
JP5715977B2 (ja) * 2012-03-05 2015-05-13 東芝テック株式会社 操作支援表示装置およびプログラム
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9170648B2 (en) * 2012-04-03 2015-10-27 The Boeing Company System and method for virtual engineering
US20130265240A1 (en) * 2012-04-06 2013-10-10 At&T Intellectual Property I, Lp Method and apparatus for presenting a virtual touchscreen
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9293016B2 (en) 2012-04-24 2016-03-22 At&T Intellectual Property I, Lp Method and apparatus for processing sensor data of detected objects
JP5148004B1 (ja) * 2012-04-26 2013-02-20 株式会社三菱東京Ufj銀行 情報処理装置、電子機器およびプログラム
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
KR20160022403A (ko) 2012-07-13 2016-02-29 가부시키가이샤 주스 디자인 요소 선택 장치, 요소 선택 방법 및 프로그램
JP5565886B2 (ja) * 2012-08-17 2014-08-06 Necシステムテクノロジー株式会社 入力装置、入力方法、及びプログラム
FR2995704B1 (fr) * 2012-09-19 2015-12-25 Inst Nat De Sciences Appliquees Methode de selection de mode d'interactivite
US9571816B2 (en) 2012-11-16 2017-02-14 Microsoft Technology Licensing, Llc Associating an object with a subject
JP6058978B2 (ja) 2012-11-19 2017-01-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
JP5950806B2 (ja) * 2012-12-06 2016-07-13 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム
KR101956073B1 (ko) 2012-12-20 2019-03-08 삼성전자주식회사 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
JP6070211B2 (ja) 2013-01-22 2017-02-01 株式会社リコー 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP5950845B2 (ja) * 2013-02-07 2016-07-13 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム
US9251701B2 (en) * 2013-02-14 2016-02-02 Microsoft Technology Licensing, Llc Control device with passive reflector
US9519351B2 (en) * 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
US9399111B1 (en) 2013-03-15 2016-07-26 Aic Innovations Group, Inc. Method and apparatus for emotional behavior therapy
JP6051991B2 (ja) * 2013-03-21 2016-12-27 富士通株式会社 信号処理装置、信号処理方法、及び信号処理プログラム
US10514767B2 (en) 2013-04-02 2019-12-24 Sony Corporation Information processing apparatus and information processing method
US9436851B1 (en) 2013-05-07 2016-09-06 Aic Innovations Group, Inc. Geometric encrypted coded image
JP2014219938A (ja) * 2013-05-10 2014-11-20 株式会社ゲッシュ 入力支援装置、入力支援方法、および、プログラム
KR102091000B1 (ko) * 2013-05-31 2020-04-14 삼성전자 주식회사 사용자 제스처를 이용한 데이터 처리 방법 및 장치
TW201500968A (zh) * 2013-06-21 2015-01-01 Utechzone Co Ltd 三維互動系統及其互動感測方法
TWI508027B (zh) 2013-08-08 2015-11-11 Huper Lab Co Ltd 三維偵測裝置及其偵測影像之方法
TWI545461B (zh) * 2014-01-03 2016-08-11 由田新技股份有限公司 校正方法及電子裝置
TW201528049A (zh) * 2014-01-03 2015-07-16 Utechzone Co Ltd 基於圖樣的校正方法及電子裝置
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
US20150254881A1 (en) * 2014-03-10 2015-09-10 Beijing Lenovo Software Ltd. Information processing method and electronic device
US10022622B2 (en) 2014-04-21 2018-07-17 Steelseries Aps Programmable actuation inputs of an accessory and methods thereof
US10675532B2 (en) 2014-04-21 2020-06-09 Steelseries Aps Variable actuators of an accessory and methods thereof
KR101655810B1 (ko) 2014-04-22 2016-09-22 엘지전자 주식회사 차량용 디스플레이 장치
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
US9679113B2 (en) 2014-06-11 2017-06-13 Aic Innovations Group, Inc. Medication adherence monitoring system and method
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN112651288B (zh) * 2014-06-14 2022-09-20 奇跃公司 用于产生虚拟和增强现实的方法和系统
US9841844B2 (en) * 2014-06-20 2017-12-12 Funai Electric Co., Ltd. Image display device
JP6008904B2 (ja) * 2014-07-03 2016-10-19 Necパーソナルコンピュータ株式会社 表示制御装置、表示制御方法、及び、プログラム
KR101488662B1 (ko) * 2014-07-31 2015-02-04 스타십벤딩머신 주식회사 Nui 장치를 통하여 사용자와 상호작용하는 인터페이스 제공방법 및 제공장치
JP2016091192A (ja) * 2014-10-31 2016-05-23 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
JP2016110249A (ja) * 2014-12-03 2016-06-20 日本ユニシス株式会社 空間手書き入力システム、空間手書き入力方法およびコンピュータプログラム
KR101609263B1 (ko) * 2014-12-04 2016-04-05 현대모비스 주식회사 적외선을 이용하여 제스쳐를 인식하기 위한 장치 및 그 방법
WO2016103520A1 (ja) 2014-12-26 2016-06-30 株式会社ニコン 検出装置、電子機器、検出方法およびプログラム
CN105934732B (zh) 2014-12-26 2021-04-27 株式会社尼康 控制装置、电子设备、控制方法及程序
KR20170101769A (ko) 2014-12-26 2017-09-06 가부시키가이샤 니콘 검출 장치 및 프로그램
US9454235B2 (en) * 2014-12-26 2016-09-27 Seungman KIM Electronic apparatus having a sensing unit to input a user command and a method thereof
JP6472252B2 (ja) * 2015-01-20 2019-02-20 Nttテクノクロス株式会社 仮想タッチパネルポインティングシステム
JP6053845B2 (ja) * 2015-03-09 2016-12-27 株式会社ソニー・インタラクティブエンタテインメント ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法
KR102279790B1 (ko) 2015-03-10 2021-07-19 엘지전자 주식회사 차량용 디스플레이 장치
DE102015006613A1 (de) * 2015-05-21 2016-11-24 Audi Ag Bediensystem und Verfahren zum Betreiben eines Bediensystems für ein Kraftfahrzeug
EP3101511A1 (en) * 2015-06-03 2016-12-07 Nokia Technologies Oy Monitoring
US9703387B2 (en) * 2015-08-31 2017-07-11 Konica Minolta Laboratory U.S.A., Inc. System and method of real-time interactive operation of user interface
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
CA2957105A1 (en) 2016-02-03 2017-08-03 Op-Hygiene Ip Gmbh Interactive display device
US20180299972A1 (en) * 2016-03-29 2018-10-18 Saito Inventive Corp. Input device and image display system
CN109564495B (zh) 2016-06-28 2022-09-30 株式会社尼康 显示装置、存储介质、显示方法及控制装置
CN106331808B (zh) * 2016-08-29 2019-11-29 天脉聚源(北京)传媒科技有限公司 一种更换电视台频道的方法和装置
US20180075657A1 (en) * 2016-09-15 2018-03-15 Microsoft Technology Licensing, Llc Attribute modification tools for mixed reality
CN106980362A (zh) 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的输入方法及装置
JP6260673B2 (ja) * 2016-10-20 2018-01-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111610858B (zh) * 2016-10-26 2023-09-19 创新先进技术有限公司 基于虚拟现实的交互方法及装置
US20180158244A1 (en) * 2016-12-02 2018-06-07 Ayotle Virtual sensor configuration
CN115016678A (zh) * 2017-02-02 2022-09-06 麦克赛尔株式会社 显示装置
JP6315127B2 (ja) * 2017-04-10 2018-04-25 船井電機株式会社 入力装置、空中像インタラクションシステム、及び入力方法
KR102074680B1 (ko) * 2017-12-15 2020-04-08 (주)브이알에이포인트 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치
US11107265B2 (en) * 2019-01-11 2021-08-31 Microsoft Technology Licensing, Llc Holographic palm raycasting for targeting virtual objects
JP2019123503A (ja) * 2019-02-25 2019-07-25 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
KR102088335B1 (ko) * 2019-04-01 2020-03-12 주식회사 마이베네핏 학습과 운동이 동시에 가능한 혼합 현실 기반의 학습 게임 제공 시스템
JP6752349B1 (ja) * 2019-12-26 2020-09-09 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7100100B2 (ja) * 2020-10-26 2022-07-12 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2022096250A (ja) 2020-12-17 2022-06-29 シャープ株式会社 表示装置、表示方法、及び表示プログラム
JP2022181876A (ja) * 2021-05-27 2022-12-08 セイコーエプソン株式会社 複合機、複合機の表示制御方法、及び表示制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
JP2004139155A (ja) * 2002-10-15 2004-05-13 Tamura Seisakusho Co Ltd 指定位置特定装置、その方法およびそのプログラム
JP2005190283A (ja) * 2003-12-26 2005-07-14 Nec Access Technica Ltd 情報入力装置
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4764885A (en) * 1986-04-25 1988-08-16 International Business Machines Corporaton Minimum parallax stylus detection subsystem for a display device
JPH08212005A (ja) * 1995-02-07 1996-08-20 Hitachi Ltd 3次元位置認識型タッチパネル装置
US6191773B1 (en) 1995-04-28 2001-02-20 Matsushita Electric Industrial Co., Ltd. Interface apparatus
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5929841A (en) * 1996-02-05 1999-07-27 Sharp Kabushiki Kaisha Data input unit
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
AU2439399A (en) * 1998-02-09 1999-08-23 Haim Azaria Video camera computer touch screen system
JP2001013314A (ja) 1999-07-01 2001-01-19 Sony Corp 固体撮像装置の製造方法
AU2001251344A1 (en) * 2000-04-05 2001-10-23 Dimensional Media Associates, Inc. Methods and apparatus for virtual touchscreen computer interface controller
US6937742B2 (en) * 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
JP2003125472A (ja) * 2001-10-16 2003-04-25 Nippon Hoso Kyokai <Nhk> 電化製品制御方法および電化製品制御装置ならびに電化製品制御システムプログラム
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
JP4723799B2 (ja) * 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP3903968B2 (ja) * 2003-07-30 2007-04-11 日産自動車株式会社 非接触式情報入力装置
JP4438351B2 (ja) 2003-08-22 2010-03-24 富士ゼロックス株式会社 指示入力装置、指示入力システム、指示入力方法、及びプログラム
JP2005189426A (ja) * 2003-12-25 2005-07-14 Nippon Telegr & Teleph Corp <Ntt> 情報表示装置および情報入出力装置
EP1769328A2 (en) * 2004-06-29 2007-04-04 Koninklijke Philips Electronics N.V. Zooming in 3-d touch interaction
JP2006107170A (ja) * 2004-10-06 2006-04-20 Matsushita Electric Ind Co Ltd 3次元guiを用いた情報選択装置
FR2895811B1 (fr) * 2006-01-04 2008-03-14 Bernard Szajner Procede d'interaction en temps reel avec des images en relief
JP2007206833A (ja) * 2006-01-31 2007-08-16 Toshiba Corp 生体照合方法および生体照合装置
JP4127296B2 (ja) * 2006-06-09 2008-07-30 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
GB0808061D0 (en) * 2008-05-02 2008-06-11 Univ Teeside Computer input device
JP5262681B2 (ja) * 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
US8437506B2 (en) * 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
JP2004139155A (ja) * 2002-10-15 2004-05-13 Tamura Seisakusho Co Ltd 指定位置特定装置、その方法およびそのプログラム
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
JP2005190283A (ja) * 2003-12-26 2005-07-14 Nec Access Technica Ltd 情報入力装置
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2287708A4

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
EP2531954A1 (en) * 2010-02-05 2012-12-12 Creative Technology Ltd. Device and method for scanning an object on a working surface
EP2531954A4 (en) * 2010-02-05 2014-10-08 Creative Tech Ltd DEVICE AND METHOD FOR SCANNING AN OBJECT ON A WORKING SURFACE
US20130181897A1 (en) * 2010-09-22 2013-07-18 Shimane Prefectural Government Operation input apparatus, operation input method, and program
US9329691B2 (en) * 2010-09-22 2016-05-03 Shimane Prefectural Government Operation input apparatus and method using distinct determination and control areas
WO2012120521A1 (en) * 2011-03-04 2012-09-13 Hewlett-Packard Development Company, L.P. Gestural interaction identification
US9171200B2 (en) 2011-03-04 2015-10-27 Hewlett-Packard Development Company, L.P. Gestural interaction identification
WO2012141351A1 (en) * 2011-04-12 2012-10-18 Lg Electronics Inc. Electronic device and method of controlling the same
US8860805B2 (en) 2011-04-12 2014-10-14 Lg Electronics Inc. Electronic device and method of controlling the same
JP2014082605A (ja) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc 情報処理装置、その制御方法及びプログラム
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
JP2019003683A (ja) * 2014-06-03 2019-01-10 グーグル エルエルシー ウェアラブルデバイスを通じたレーダ型ジェスチャ認識
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna

Also Published As

Publication number Publication date
JP2010015553A (ja) 2010-01-21
JP2014098941A (ja) 2014-05-29
WO2009147758A1 (ja) 2009-12-10
TW200951777A (en) 2009-12-16
KR101227610B1 (ko) 2013-02-07
ZA201009250B (en) 2011-08-31
EP2287708B1 (en) 2017-02-01
CA2726895C (en) 2014-04-08
US8456416B2 (en) 2013-06-04
TWI450132B (zh) 2014-08-21
TWI534661B (zh) 2016-05-21
TW201506696A (zh) 2015-02-16
EP2287708A1 (en) 2011-02-23
CN102057347A (zh) 2011-05-11
US20110141009A1 (en) 2011-06-16
EP2853991A1 (en) 2015-04-01
JP5604739B2 (ja) 2014-10-15
CN102057347B (zh) 2013-05-01
EP2287708A4 (en) 2014-05-21
KR20110008313A (ko) 2011-01-26
JP4318056B1 (ja) 2009-08-19
CA2726895A1 (en) 2009-12-10

Similar Documents

Publication Publication Date Title
WO2009148064A1 (ja) 画像認識装置および操作判定方法並びにプログラム
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
CA2811868C (en) Operation input apparatus, operation input method, and program
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5515067B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP4900741B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US20010030668A1 (en) Method and system for interacting with a display
KR101708455B1 (ko) 핸드 플로트 입체 메뉴 시스템
EP4118520A1 (en) Display user interface method and system

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980120834.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09758331

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 12995898

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20107027198

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2009758331

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2726895

Country of ref document: CA

Ref document number: 2009758331

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE