JP4318056B1 - 画像認識装置および操作判定方法 - Google Patents

画像認識装置および操作判定方法 Download PDF

Info

Publication number
JP4318056B1
JP4318056B1 JP2008207388A JP2008207388A JP4318056B1 JP 4318056 B1 JP4318056 B1 JP 4318056B1 JP 2008207388 A JP2008207388 A JP 2008207388A JP 2008207388 A JP2008207388 A JP 2008207388A JP 4318056 B1 JP4318056 B1 JP 4318056B1
Authority
JP
Japan
Prior art keywords
operator
operation surface
virtual
image
virtual operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008207388A
Other languages
English (en)
Other versions
JP2014098941A (ja
Inventor
賢二 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimane Prefecture
Original Assignee
Shimane Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimane Prefecture filed Critical Shimane Prefecture
Priority to JP2008207388A priority Critical patent/JP4318056B1/ja
Priority to PCT/JP2008/071268 priority patent/WO2009147758A1/ja
Priority to TW097146459A priority patent/TWI450132B/zh
Priority to TW103120492A priority patent/TWI534661B/zh
Priority to KR1020107027198A priority patent/KR101227610B1/ko
Priority to PCT/JP2009/060095 priority patent/WO2009148064A1/ja
Priority to US12/995,898 priority patent/US8456416B2/en
Priority to CN2009801208343A priority patent/CN102057347B/zh
Priority to EP09758331.4A priority patent/EP2287708B1/en
Priority to EP14193587.4A priority patent/EP2853991A1/en
Priority to CA2726895A priority patent/CA2726895C/en
Application granted granted Critical
Publication of JP4318056B1 publication Critical patent/JP4318056B1/ja
Priority to ZA2010/09250A priority patent/ZA201009250B/en
Publication of JP2014098941A publication Critical patent/JP2014098941A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/634Methods for processing data by generating or executing the game program for controlling the execution of the game in time for replaying partially or entirely the game actions since the beginning of the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】的確な操作の判定を可能にすること。
【解決手段】操作者102の画像を抽出し(S403)、操作判定部304は、操作入力システムのマーカ101のビデオカメラ201から見て奥側に立つ操作者102とマーカ101との相対関係を用い(S404)、操作者102の一部が操作面のビデオカメラ201から見て手前に来ると、操作が開始されたと判断し(S405)、各部の形状(手を開いている、あるいは指を2本立てているなど)や動きから、その形状、動きが予め想定されたいずれの操作であるかを判定する(S406)。
【選択図】図7

Description

本発明は、画像認識装置および操作判定方法に関し、より詳細には、ビデオカメラ等により撮影した画像から測定対象の動作の判定を行う画像認識装置および操作判定方法に関する。
近年、コンピュータや電子機器と人間とのインタフェース、すなわちマンマシンインタフェースとして様々な機器、手法が提案されており、特にゲーム機や操作ガイド機器などではカメラで操作者全体、あるいは一部を撮影し、その画像に応じて操作者の意志を判断して動作する技術が提案されてきている。例えば、特許文献1には、CCDカメラで撮像した画像中の物体の形状、動きを認識するホストコンピュータと、ホストコンピュータによって認識した物体の形状、動きを表示するディスプレイとを備え、CCDカメラにユーザが向い、手振り等によって指示を与えると、与えた手振りがディスプレイの表示画面上に表示され、表示画面上に表示した仮想スイッチ等を手振りによって矢印カーソルのアイコンで選択でき、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となる技術が提案されている。
最近ではさらに、手指の動きや形状を撮像した画像から、ある種のジェスチャとして認識して、操作入力をする入力システムも提案されている。例えば、図14を参照すると、ジェスチャによる画面操作でのプレゼンテーションや、タッチパネルを必要としない非接触キオスク端末に用いることができる入力装置が示されている。大画面に向き合った操作者は、通常(A)の位置に設置されたカメラに向けて種々の操作を行うと、その内容が大画面に映し出される。このように撮影された画像から操作者の形状、動きを、本技術分野で知られた方法により抽出し、例えば予め定められ、データベースに格納されたパターンと比較することにより、操作者の形状、動きの意味を判定し機器の制御に用いる。
一方、操作者の画像の読み取り技術としては、図15に示すように、三次元または立体対応のカメラで操作者を撮影し、立体画像を再現することも可能となっており、セキュリティチェックなどの用途に用いられている。立体画像を再現することにより、操作者の動きを立体的に把握することができ、例えば図16に示すように操作者の特に手の動きが前後にも認識できるため、ジェスチャのバラエティが増大する。また、複数の操作者が画像として抽出されても、多人数であれば立体画像であるため前後関係がわかり、一番前の操作者の動きのみ抽出し、操作の入力に使用することもできる。
特開2004−78977号公報
しかしながら、従来のジェスチャ操作はデファクトスタンダードといった何らかの標準的なジェスチャが確立されておらず、人差し指でのXY座標のポインティング操作以外はユーザがどのような動作で何ができるのかが直感的に認識できない。「クリック」、「ダブルクリック」、「ドラッグ」等・・・、クリック操作を何秒間かのウェイト時間の間座標に固定することで指示するものはあるが、設定されたウェイト時間が長すぎる等により快適な操作を阻害することも少なくない。したがって、クリックや決定(ダブルクリック等)などの操作をわかり易く、かつ快適にする現実的な手法がないという問題がある。
また、従来のジェスチャ検出装置は、タッチパネルといった直接操作者が触れることができる入力装置とは異なり、操作者の明確な意思を汲み取りにくい。すなわち、そもそも操作者が何らかの動作を行っても、それが入力を意図したものなのか、単に癖で動いてしまったのか判定することが容易ではないという問題がある。この結果、例えば単純なジェスチャを不自然に目立つ形で行わなければ認識できず、またジェスチャについての事前の取り決めが必要だったり、複雑なジェスチャは使用できなかったりという問題がある。
本発明は、このような問題に鑑みてなされたもので、操作者に何らかの入力につながる操作をしている状態にあることを認識させた上で装置に対し動作させることにより、的確な操作の判定を可能にする画像認識装置および操作判定方法を提供することを目的とする。この結果、操作に習熟していない特殊なジェスチャを覚えることなく、身体全体あるいは一部を動作させることにより、操作者の意志を的確に示す操作として判定することが可能になる。
このような目的を達成するために、請求項1に記載の発明は、操作者の少なくとも一部の像を読取って立体画像データを生成する三次元撮像手段と、操作者が所定の空間上の仮想操作面を把握するよう設けられた操作者に知覚可能および前記三次元撮像手段により読取り可能な、撮像手段の撮像範囲内に予め配置された操作面形成基準と、三次元撮像手段により読取られた操作面形成基準によって、仮想操作面を形成し、形成された仮想操作面に対する操作者の動作を、三次元撮像手段で読取って、操作者の一部と仮想操作面との位置関係に基づいて、操作者の一部が仮想操作面よりも三次元撮像手段側にあるとき動作が操作であると判定する操作判定手段と、操作判定手段により認識される、仮想操作面に対し三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を仮想操作面の対応付けられた位置に表示させ、操作者の一部が仮想操作面に対し三次元撮像手段側にあるときは標示の変化を停止させて判定される操作を示す、操作者が視認可能な画像表示手段と、動作が操作であると判定されると所定の信号を出力する信号出力手段とを備えたことを特徴とする。
請求項2に記載の発明は、請求項1に記載の画像認識装置において、仮想操作面は、操作面形成基準から上方に投射した面であることを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の画像認識装置において、操作判定手段は、操作者の一部の、仮想操作面よりも三次元撮像手段側にある部分の形状または動きによりいずれの操作が行われているかを判定することを特徴とする。
請求項4に記載の発明は、請求項3に記載の画像認識装置において、操作判定手段は、予め操作者の一部の形状または動きと対応付けた操作内容を格納する記憶手段を検索して、合致する形状または動きに対応する操作を、入力する操作と判定することを特徴とする。
請求項5に記載の発明は、請求項1ないし4のいずれかに記載の画像認識装置において、操作面形成基準は、操作者が載る床面に示されていることを特徴とする。
請求項6に記載の発明は、請求項1ないし4のいずれかに記載の画像認識装置において、操作者と三次元撮像手段との間に配置された立体物をさらに備え、操作面形成基準は、立体物の所定の外縁であることを特徴とする。
請求項7に記載の発明は、請求項6に記載の画像認識装置において、立体物は、テーブルであることを特徴とする。
請求項8に記載の発明は、請求項1ないし7のいずれかに記載の画像認識装置において、操作面形成基準は、読取られた画像からの抽出が容易になるように三次元撮像手段に撮像される所定の面にマーカを有することを特徴とする。
請求項9に記載の発明は、請求項1ないし8のいずれかに記載の画像認識装置において、標示は、操作者の一部の、仮想操作面との距離が近づくごとに小さくなることを特徴とする。
請求項10に記載の発明は、請求項1ないし8のいずれかに記載の画像認識装置において、標示は、操作者の一部の、仮想操作面との距離が近づくごとに色相が変化することを特徴とする。
請求項11に記載の発明は、請求項1ないし8のいずれかに記載の画像認識装置において、標示は、操作者の一部の、仮想操作面との距離が近づくごとに透明度が低くなることを特徴とする。
請求項12に記載の発明は、請求項1ないし8のいずれかに記載の画像認識装置において、操作者の一部の、仮想操作面との距離が近づくごとに、標示と画像表示手段に表示されている操作対象画像とのコントラストが大きくなることを特徴とする。
請求項13に記載の発明は、請求項1ないし8のいずれかに記載の画像認識装置において、標示は、操作者の一部の、仮想操作面との距離が近づくごとに形状が変化することを特徴とする。
請求項14に記載の発明は、請求項1ないし13のいずれかに記載の画像認識装置において、操作者の一部は複数あり、標示は、複数の操作者の部位の各々に対応して複数表示されることを特徴とする。
請求項15に記載の発明は、画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、操作者が所定の空間上の仮想操作面を把握するよう設けられた操作者に知覚可能および三次元撮像手段により読取り可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、三次元撮像ステップにおいて読取られた操作面形成基準によって仮想操作面を形成し、形成された仮想操作面に対する、三次元撮像手段で読取られた操作者の動作が、操作者の一部と仮想操作面との位置関係に基づいて操作者の一部が仮想操作面よりも三次元撮像手段側にあるとき動作が操作であると判定する操作判定ステップと、操作判定ステップにおいて認識される、仮想操作面に対し三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を仮想操作面の対応付けられた位置に表示させ、操作者の一部が仮想操作面に対し三次元撮像手段側にあるときは標示の変化を停止させて判定される操作を示す画像表示ステップと、動作が操作であると判定されると所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
請求項16に記載の発明は、画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、操作判定方法は、操作者が所定の空間上の仮想操作面を把握するよう設けられた操作者に知覚可能および三次元撮像手段により読取り可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、三次元撮像ステップにおいて読取られた操作面形成基準によって仮想操作面を形成し、形成された仮想操作面に対する、三次元撮像手段で読取られた操作者の動作が、操作者の一部と仮想操作面との位置関係に基づいて操作者の一部が仮想操作面よりも三次元撮像手段側にあるとき動作が操作であると判定する操作判定ステップと、操作判定ステップにおいて認識される、仮想操作面に対し三次元撮像手段の反対側における操作者の一部と仮想操作面との位置関係から距離を算出して距離に応じ変化する標示を仮想操作面の対応付けられた位置に表示させ、操作者の一部が仮想操作面に対し三次元撮像手段側にあるときは標示の変化を停止させて判定される操作を示す画像表示ステップと、動作が操作であると判定されると所定の信号を出力する信号出力ステップとを備えたことを特徴とする。
以上説明したように、本発明によれば、操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像手段と、操作者が所定の空間上の仮想操作面を把握するよう設けられた知覚可能な、撮像手段の撮像範囲内に配置された操作面形成基準と、三次元撮像手段により読取られた操作面形成基準によって、仮想操作面を形成し、形成された仮想操作面に対する操作者の動作を、三次元撮像手段で読取って、仮想操作面との位置関係に基づいて動作が操作であるか否かを判定する操作判定手段とを備えているので、操作者に何らかの入力につながる操作をしている状態にあることを認識させた上で装置に対し動作させることにより、的確な操作の判定をすることができる。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。
(第1実施形態)
図1は、本実施形態の操作面形成基準であるマーカ101を床面に表した操作入力システムの一例を示す図である。本実施形態のマーカ101は、操作者とモニタ111との間に配置され、操作者102は、このマーカ101から表示画面側に出た部分の動き、形状が操作判定の対象になることを意識して操作入力システムに対し操作を行うことができる。モニタ111には、本システムが目的とする様々なアプリケーション用の種々の映像が表示されるが、これに加え後述するように操作入力を支援、すなわち例えば対象となる操作者102の部位などを画面の隅の方に表示して、操作者102に、現時点で操作として判定されうる動作を認識させることができる。操作者102の動きはビデオカメラ201により撮影され、撮影された映像はコンピュータ110で処理され、操作者102のマーカ101を出た部分のジェスチャがどのような操作を意味するかを判定する。コンピュータ110は、ビデオカメラ201から得られたデータから、操作者102の立体画像を作成するとともに、マーカ101により形成される仮想操作面の位置を算出し、仮想操作面を基準に操作者102の手指などがビデオカメラ201側に出ているか否かを決定し、その部分を操作の対象として操作内容を判定する。
本実施形態では、画像を取得するためにビデオカメラ201をモニタ111の上部に取りつけ撮影しているが、必要な画像が得られればこれに限られることなく、赤外線カメラ等、本技術分野で知られたいずれの撮影手段を用いることもでき、設置場所もモニタの付近の何処を選択することもできる。ここで、本実施形態ではビデオカメラ201として三次元(あるいは3D)カメラを用いることにより、操作者および操作面基準を含め立体画像が作成できるようにする。また、赤外線カメラとビデオカメラとを融合して用いることもできる。すなわち、例えば後述する再帰性反射材をマーカとして使用する場合、赤外線カメラを専ら操作面形成基準のキャリブレーション用に用い、操作者の動きは通常のビデオカメラで捉えるといった仕方で2種類のカメラを用いることができる。
さらに、本実施形態のシステムには図示しないスピーカ等の音声出力装置を取り付けられており、表示内容や操作に関する情報を音声で操作者に伝えることもできる。このような機能を設けることにより、ディスプレイに操作内容を画像で表示するだけではなく、指示事項や結果について、同時に音声で流すことで操作面基準が判るため、視覚障害のある操作者でも操作することが可能になる。
図5は、マーカ101の役割を具体的に説明するための図である。マーカ101は、操作者102が仮想操作面を認識するための操作面形成基準であり、ユーザ102は、図6に示すように、床面に示されたマーカ101の上方に操作面が仮想的に存在すると捉えて種々の操作、例えば操作をしようとする場合はマーカ101を基準に手601を前に突き出してジェスチャを示したりすることができる。マーカ101の幅は操作面の幅ともなっている。また、補助マーカ501は、マーカ101の前後を区別するマーカであり、補助マーカ501を用いて、操作領域を確定したり、3次元パース計算要素としたりすることもでき、形状や方向も自由であり、測定に適したエリアを示すようにしても良い。このような、マーカ101を備えた操作入力システムでは、図7に示すようにマーカ101の上部に操作面701が仮想的に形成され、操作者102は、マーカ101から仮想的な操作面701を想定して手601を突き出したり、モニタ111と連動させて画面上の一部と操作面701とをタッチパネルに見立ててタッチするように手601を動かしたりすることにより、入力操作を容易に行うことができる。また、仮想操作画面エリア(線分の垂直上方向に位置)のユーザが任意のポーズを取った後に、線分の前方へ押し出す(決定)動作でアクションを決定したり、操作を決定してから押し出すという判断の基準としたりすることができるため、ユーザが認知しやすく、操作性は従来のタッチパネル操作に近いものとなる。一方、操作バリエーションは、従来のタッチパネルより圧倒的に増える(両手操作や、振舞、複数指等)。
本実施形態のような操作面基準は、キャプチャした画面上で広範囲、適度かつ同時に測定マーカを分散配置することができるため、非常に信頼性の高い測定が可能となる。さらに、このような効果とともに、常にマーカがカメラの撮影範囲内にあることが保証されるキャリブレーションシステムと併用することができ、省スペース・多機能な装置を実現することができ、基本的に初回設置のキャリブレーション後、毎回再測定する必要がない。
マーカ101は、このようにビデオカメラ201により撮影されて操作面形成基準となり、これを容易にするため、マーカ素材は本技術分野で知られた種々のものを用いることができるが、通常は使用するカメラにより適当なものが選択される。例えば、通常カメラの場合、背景色彩から際立つような特徴あるカラーリングが必要であり、赤外線カメラを使用するときは、再帰性反射材などを使用することができる。一方、レーザ光は、黒色部分等、反射が少ないような色、素材の場合は反射光を測定しにくいので、レーザ光によりマーカや再帰性反射材などを使用することなく黒色のバーなどを使用することにより、レーザ光が照射された部分は反射されずに画面上欠損が発生するので、このようにしてもバーの位置を検出することができる。
マーカはこのように適切な素材を床面に貼り付けることにより使用することができるが、これに限られることなく直接床面に塗布したり、本技術分野で知られた任意の付着方法を用いたりすることができる。また、上記の説明では、操作面形成基準としてマーカ101を用いることとしたが、これに限られることなく任意の部材や構造を立体測定基準として用いることができる。例えば、マーカは図1に示すような形ではなく様々な形の図形とすることができ、いくつかの点に一定の面積を有するマーカを複数設けるようにしてもよい。
図2は、本実施形態の画像認識装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、モニタ701の上部等に取り付けられ、操作者102およびマーカ101などを撮影するビデオカメラ201が接続され、撮影した画像がコンピュータ110に取り込まれる。撮影により得られた画像は、CPU210において本実施形態の特徴である画像の抽出、位置の算出などが行われ、算出した位置から操作面からビデオカメラ側に身体の一部が出たかどうかを決定する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、画像認識装置から入力した画像に基づいた処理結果をモニタ111等に出力する。本実施形態では、モニタ111は、主に操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力するものだが、後述するように操作入力の支援となるような情報も表示する。
図3は、本実施形態のコンピュータ110のCPU210内で処理されるプログラムの機能モジュールの一例を示すブロック図である。図3に示すように、 本システムにおける処理は、画像読取部301、画像抽出部302、画像位置算出部303および操作判定部304により実行される。なお、本実施形態では、ビデオカメラ201からの画像を受取ってからデータの出力を行うまでの処理を4つのモジュールにより実行するがこれに限られることなく、その他のモジュールを用い、あるいはより少ないモジュールで処理することもできる。
(本実施形態の処理)
本実施形態では、図8に示すように、ビデオカメラ201で撮影されたマーカ101を基準に、同じく撮影した操作者102の位置を定めるとともに、マーカ101の上方に操作面701が形成されていると仮想して、仮想的な操作面701と操作者102との位置関係を算出する処理を行う。本実施形態では、このような処理を行う前提として、本技術分野で知られた初期設定、例えば本実施形態の画像認識装置が新たに設置された場合を想定すると、事前準備として利用するビデオカメラ201の利用レンズの歪み、マーカ102とレンズとの距離等の情報を装置に入力しておく必要がある。さらに閾値設定等を予め調整しておく。システムの初期設定が終了すると、本実施形態の処理を行うこととなるが、この処理については図4を参照して以下に説明する。
図4は、本実施形態の処理のフローチャートである。まず、画像読取部301においてビデオカメラ201で撮影されたデータを読取り(S401)、そのデータからマーカ101の、例えばカラー画像の場合、画像抽出部302により、予めマーカとして決めておいた色領域を抜き出してマーカ101の画像のみを抽出する(S402)。具体的には、本実施形態では、カラーNTSC信号の輝度信号Yと色差信号U、Vの各々に上下の閾値を設定して全ての閾値を満たす画素を抽出するが、これに限られず本技術分野で知られたいずれの方法を用いることもできる。このようにして、マーカ101の位置が三次元的に把握できると、仮想的な操作面がどの様なものとなるのかを算出してデータベースに記憶しておく。
ここで、操作面の形状は図8などを参照すると床面から垂直に立てた長方形となっているが、これに限られず、マーカ101の形状や配置の仕方で様々な形状、大きさの操作面を形成することができる。例えば、図8に示すマーカ101は、モニタ111の面に平行な一定の長さの直線であるため、仮想的な操作面は操作面701のようになるが、マーカを斜めに一定の角度をつけた直線とすることもでき、その場合、形状は図8に示す操作面701と同じであるが、向きがモニタ111と一定の角度を持って斜めに置かれたものとなる。この場合も、操作者102は、マーカで斜めに配置された操作面が仮想的に形成されていると捉えることができるから、その操作面を意識して操作を行えばよい。また、立体的に補助マーカを配置して、床面に対しても一定の角度を持った斜面の操作面にしたり、曲面の操作面にしたりすることもできる。なお、本実施形態は、マーカなどにより形成された仮想的な操作面を基準にして処理を行うように説明するが、当業者であれば理解できるように、実際の計算処理では、操作面から操作者の位置を計算しなくてもよい。仮想的な操作面は、あくまでも操作者が意識して操作入力を行うようにするためのものだからである。
カラー抽出が終了すると、さらに補助マーカ501も同様の処理を行って抽出した後、画像位置算出部303により、抽出したマーカ部分を白黒の2値化し、ビデオカメラ201の撮影した画像から抽出したマーカの縦横の辺を構成するピクセル数を計算する。取得した画像の縦横の辺の長さや傾斜を、基準となる画像と比較して撮像空間の歪みやスケールを割り出す。本実施形態では、歪みやスケールを算出する場合に、この他に少なくとも4点以上の箇所にマーカを設けて基準とすることもできる。例えば、4点以上の基準点が有ればそれを結んで線分とし、キャリブレーションを行うことが可能である。
このような準備の結果、実際に操作者102の画像を抽出し(S403)、操作判定部304は、操作入力システムのマーカ101のビデオカメラ201から見て奥側に立つ操作者102とマーカ101との相対関係を用い(S404)、操作者102の一部が操作面のビデオカメラ201から見て手前に来ると、操作が開始されたと判断し(S405)、各部の形状(手を開いている、あるいは指を2本立てているなど)や動きから、その形状、動きが予め想定されたいずれの操作であるかを判定する(S406)。ここで、どのような形状、動きがどのような操作に対応するかは、システム独自に取り決めることもできるし、本技術分野で知られたいずれかの手法を取り入れて決定することもできる。判定した結果は、そのような操作の入力があったものとしてコンピュータ110で実行され(S407)、もともと仮想操作面から手前側に手が出ていない場合、操作は行われていないと判定して終了する(S408)。操作内容の判定はここで説明した手法に限られることなく本実施形態で知られたいずれの方法も用いることができる。また、具体的な判定方法も省略したが、一般には予め定めたジェスチャなどの操作者の身体の形状、動きと、それが意味する操作内容とをデータベース等に格納しておいて、画像抽出後、このデータベースにアクセスして、操作内容を判定する。この際にももちろん、画像認識技術や人工知能などを本技術分野で知られた手法により利用し、判定精度を向上させることもできる。
ここで、操作者の像と操作面形成基準の画像とを対比して、歪み対応情報である予め算出しておいた画像の歪みやスケールに基づいて、操作者の各部位の位置や体勢を判定する。ここでは、詳述しなかったが、同様に、操作者の像も本技術分野で知られたいずれかの方法により抽出する。例えば、予め操作者の背面を特徴的なものにしておき操作者の像を抽出しやすくする等が考えられる。
また、本実施形態では、仮想操作面の形成は、操作者の動作を認識する際に行っているが、これは例えばシステム全体が小規模なもので、比較的頻繁に操作面形成基準とカメラとの位置が変わる場合に有効であるが、博物館展示のような一度設定するとあまり頻繁には位置関係が変更されないような場合は、予め仮想操作面を抽出しておいていずれかの方法で数値化して記憶しておき、操作者が入力を行う際には最初から抽出することなく操作を判定することもできる。このような処理を取ることにより、仮想操作面を形成する処理を省略して全体として効率のよい処理が可能である。
(操作入力の支援)
以上説明したように、単に三次元ビデオカメラおよびマーカ101のような操作面形成基準を設けるだけで、操作者は空間上にタッチパネルのような操作面を知覚、想定することができ、この操作面に対し、種々の操作を行うことにより、身体の全部または一部を用いた操作入力が可能となるが、さらに仮想的な操作面に対する操作者の映像をモニタ111に表示する等、操作入力を支援することにより、より容易に本実施形態のシステムを活用することができる。
図9は、このような操作入力の支援となるガイダンスをモニタ111に表示している一例を示す図である。例えば、モニタ111の中心部に表示されている画像のどこかをポインタで指し示す場合、操作者は仮想的操作面を表示された画像と重ね合わせて、手指を突き出すことにより所望の場所を指し示すことができるが、そのように指し示す様子を図9に示すポインタ901のように表示することにより、操作者は現在行われている操作を認識し確認しながら、次の操作を実行することができる。この例で言うと、たとえば、ポインタ901は、操作面から手指を突き出すと画面に表示され、引っ込めると消える、あるいは濃淡をつけて表示するようになっており、手の動きとモニタ111に表示されるポインタの様子から、操作者は自然な形で、本実施形態の入力法を実行することができるのである。同様に操作者自身の様子を図6ないし8に示したような形で表した操作画面902を、モニタ111の右上隅に小さく表示させて現在どのような動きをして、システムではどのような操作と判定されているかを表示することができ、また、手の動きをグラフ化した折線グラフ903を示して、手の前後の動きがどうなっているかを操作者自身に意識させる等により、より的確な操作が期待できる。また、図示しないが、システムで使用することができるジェスチャをガイダンスに表示して、それに倣って操作入力をするよう操作者に促すようにして支援することもできる。
以上本実施形態を用いると、操作者は予めジェスチャを覚えたり、取り決めておいたりすることなく、その動きによりシステムの操作を行うことができるほか、操作者の姿勢や各部、例えば手の動きが分かるので身体全体を使用したゲームに用いて、いわゆる複合現実感(MR)を実現することもできる。
(第2実施形態)
本実施形態は、基本的に上述の第1実施形態のシステム構成と同様であるが、より具体的な使用状況に基づくものである。すなわち、本実施形態では、第1実施形態のシステムおよび処理を踏まえ、一定の立体物、例えば図21に示す机状の立体物1901にマーカ1902、1903を付して操作面形成基準とすることにより仮想操作面701を形成し、これに対し例えば指601等で操作を行うことで、入力操作を可能とする。本実施形態では立体物の例として以下、リビングのテーブルを用い、家庭内などのソファ等に着席して操作する場合を想定して説明するがこれに限られず演題、置き台、あるいは図17に示すバー1702のようなガードなど種々の用途のものを使用することができる。ここで、モニタ111は、家庭のリビング等に置かれた大画面テレビなどを想定する。
また、図21に示すようなマーカ付置き台を使用する場合、後述する図23に示すように、例えばマーカ1903を用いて操作者102の上半身のみを対象エリア2301として、仮想操作面701から前面に出た部分の動きのみを操作として判定することもできる。このようにすることにより、操作者が図21に示すような置き台を体の支えにして入力操作を行う場合に下半身、特に足が仮想操作面から前に出ても、あくまで上半身の動きのみを操作として認識するようにすることができる。
図10を参照すると、本実施形態では操作者102は着座の状態で、大画面テレビを操作するが、操作面形成基準はテーブル1001上に設定されたマーカ1002および補助マーカ1003、1004となり、操作者102はこれらのマーカにより大まかに、操作面701がマーカ1002の上方に形成されているものと想定し、その操作面に種々のアクセスをして所望の操作を可能にする。上述のとおり、例えば、大画面テレビ111の画面と操作面701とを重ねあわせ、画面上にチャンネルの配列を表示させて、操作面701上に手指601で指し示すことにより所望のチャネルに切り替えることができる。
ここで、補助マーカ1003は、操作面の傾きを定めるものであり、図10を参照するとテーブルの脚に設けられていることから、テーブル1001の上面にほぼ垂直であり、仮想操作面もテーブル1001の上面に垂直に形成されている。したがって、補助マーカ1003を垂直とは異なる角度を持って設けた場合は、操作面は垂直で実施形態はなく斜めに形成されることとなる。また、補助マーカ1004は、前後の判断およびパース計算を行うためのものである。このような本実施形態を用いることにより、家庭でくつろいでテレビの視聴を楽しんでいる際に、テレビの操作をしようとしてリモコンが見つからないときでも、一々リモコンを探すことなく遠隔操作が可能になる。
(第3実施形態)
本実施形態は、基本的に上述の第1実施形態のシステム構成と同様であるが、より具体的な使用状況に基づく、第2実施形態とは異なるシステムを対象とする。すなわち、本実施形態では、第2実施形態と異なり、例えば図11に示すように病院内などのベッド等に寝て操作する場合を想定する。ここで、モニタ111は、病室に置かれたテレビなどを想定する。
本実施形態では、操作者102はベッドから少し起き上がった状態で、テレビを操作するが、操作面形成基準はベッド用テーブル1102上に設定されたマーカ1101および補助マーカ1103となり、操作者102はこれらのマーカにより大まかに、操作面701がマーカ1101の上方に形成されているものと想定し、その操作面に種々のアクセスをして所望の操作を可能にする。具体的には、図21に示すように、マーカ1101からテレビ111側に指を突き出して、操作中であることをシステムに認識させるが、本実施形態では指601の形状により操作内容を示す。すなわち、図13に示すように、テレビに向かって右手の指1301で「1」を、左手の指1302で「2」を示すことにより、本実施形態の操作入力システムでは、「21」チャネルに変える指示であると判定する。このように、操作面701上に手指601で指し示すことにより所望のチャネルに切り替えることができ、ガードにより仮想操作エリアを認識しやすくなる。ユーザが操作する、しないの意思を判定ライン(長辺)より前に出す、出さないで確認でき、特定ジェスチャとジェスチャの中間動作部分を判定ラインの内側で行い、ジェスチャ決定後に判定ラインからカメラ側へ差し出すことで、従来の問題点であった曖昧さやエラーを回避できる。
(第4実施形態)
本実施形態では、上述の第1実施形態に加えて、補助的な入力手法を組み合わせることにより、さらに操作が直感的に認識しやすい装置を提供するものである。すなわち、上述の第1実施形態の画像認識装置に床マットセンサを接続し、床マットで動作モードを指示しつつ三次元撮像装置を用いた画像認識装置によって、ジェスチャなどの操作者の操作をより確実に認識する。具体的には、例えば図17に示すような床マット1701上のLまたはRを踏むと操作モードに入って操作者の動作をジェスチャであるとして認識処理を実行し、それ以外のときは操作者の動作は対象外として処理を行わない。この場合に仮想操作面はバー1702、1703を基準に形成される。
図18は、本実施形態の画像認識装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、モニタの上部等に取り付けられ、操作者およびバー1702、1703に付されたマーカなどを撮影するビデオカメラが接続され、撮影した画像がコンピュータ110に取り込まれる。撮影により得られた画像は、CPU210において本実施形態の特徴である画像の抽出、位置の算出などが行われ、算出した位置から操作面からビデオカメラ側に身体の一部が出たかどうかを決定する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、画像認識装置から入力した画像に基づいた処理結果をモニタ等に出力する。本実施形態では、モニタは、主に操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力するものだが、後述するように操作入力の支援となるような情報も表示する。図18を参照すると、さらに、本実施形態の操作入力装置は、表面に床マットセンサ1701が張られており、例えば“L”あるいは“R”と表示された領域を足により踏まれて圧力が加わると、その位置に応じた信号を出力する。このように、足で操作をする場合には操作者によっては不安定になる可能性があるので、バー1702はこのような場合にも手でつかまって姿勢を安定させることができるので有効である。
本実施形態の床マットセンサは、本技術分野で知られたいずれの技術を用いることもできる。例えば、圧力センサを用いたり、静電気を用いたセンサなどその他の技術を用いても、足の置かれた位置を示す信号を出力することができるものであればいずれの技術も用いることができる。出力した信号は、CPU1802において情報入力により処理され、すなわち“R”あるいは“L”等のデータに変換され、変換されたデータはインタフェース1803を介しコンピュータ110に送信される。コンピュータ110は、床マットセンサからのデータと上述の仮想操作面に対してなされた動作とを融合して操作者が行おうとしている操作を特定する処理を実行する。すなわち、例えば“R”を踏みながらの動作が操作を意味するものとすると、操作者は何らかの操作を使用とするときのみ“R”を踏めばよく、コンピュータ110に操作として認識させようとする場合は“R”を踏みつつ、予め定められたジェスチャを示すことにより、コンピュータ110は操作者の動作の中から適切にシステムに対する操作を特定して処理することができる。
図17ではバー1702、1703を示したが、例えば図19に示すような机状の立体物にマーカを付して操作面形成基準とすることもできる。この場合、図17に示すと同様に主に足により指示する“R”や“L”が示された領域1710が配置されている。このような、“R”等が示された領域1710は、床マットや床面に書き込んだり、印刷したり、あるいはシートを貼り付けたりすることができる他、図20に示すように、パターンを投影するための投影手段であるLEDスポットライトや液晶プロジェクタなどをバー支持部1703等に取りつけ、床マットセンサ上に投影すると、投影ライト2002が床マット上に入力文字等のパターンを形成することができる。すなわち、バー支持部1703に投影用ユニットを設置して、斜めに投影するようにすると、操作者の足2001に邪魔されることがないので影で床マットセンサパターンがうまく投影されないということを避けることができる。このようにパターンを投影すれば、入力するデータに応じて操作者が分かりやすいパターンを動的に形成することができる。なお、図19に示す例では床面に表示されたパターン1710を踏んで操作開始を知らせることができるので、本実施形態の仮想操作面を使用しなくても、ジェスチャにより種々の入力を行うこともできる。
(第5実施形態)
本実施形態では、上述の第1実施形態とは基本的な概念としては一致するが、異なる手法により同様の効果を得る発明を使用する。すなわち、本実施形態も操作者が空間上に仮想的に形成された仮想操作面を基準に、そこにあたかもタッチパネルのような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、第1実施形態とは異なり、操作者が知覚できる操作面形成基準、例えば図1のマーカ101などを使用することなく操作の判定を行うものである。このために、本実施形態では上述の第4実施形態で用いたような補助的な入力手法を組み合わせることにより、操作者が自己の操作をシステムでどのように認識しているかを直感的に認識しやすい装置を提供する。
基本的には、本実施形態の原理は仮想操作面に対する操作者の部位、例えば手あるいは指の位置の動きにあわせて、モニタ111上に操作者がどのような操作をしようとしているかをビジュアルに表示させることにより、操作者を誘導して的確な操作入力を可能にするというものである。具体的には、図22に示すように、第1実施形態にあるようなマーカ101が存在しないので操作者102は基本的にどこに仮想操作面が形成されているか認識することができない。そこで、マーカ等の基準面を用いない操作者の直感を利用することにより操作者が一定の範囲内で仮想操作面の存在を認識できるようにし、それを基準として操作することによりシステム側でその操作を判定することができるようにする。
この点について、図23〜24を参照して説明すると、本実施形態では予め操作者が一定の立ち位置で操作しうる場合は予め設定された、その立ち位置で仮想操作面への操作が適した位置に、あるいは操作者の立ち位置に合わせて適宜適当な位置に仮想操作面701を形成する。同様に図23に示すように、操作者102の適当な操作範囲2301を設定しておく。上述のとおりモニタ111には現在どのような操作が行われようとしているかを様々な形態で示すことにより、操作者が自己の操作を認識できるようにする。
このような形態の1つについて図24を参照して説明すると、操作者はシステムに対し何らかの操作を行おうとする場合、本例ではモニタ111に対し、腕2401を前後に動かすことにより、手あるいは指601の位置が変化するため、その様子をモニタ111に表示すると、突き出した指601が一定の位置まで来ると、そのときモニタ111の画面上で指示された項目が実行される等、システムとして一定の処理が行われる。図24の例では、仮想操作面701に対する指601の位置(深さ)によってアイコンの大きさが変化するようになっており、仮想操作面に近づくほどアイコンが小さくなって操作者には自己の操作により一定の場所にフォーカスされていることが認識できるようになっている。そして、最もアイコンが小さくなった位置で、操作が確定しそれに応じた処理が実行される。
以上の操作の結果、アイコンがモニタ111の画面2501上でどのように変化するかを示したのが図25である。図25を参照すると、モニタ111の画面2501には例えばテレビ番組表が表示されており、ある番組に関する操作を行おうとしている。このような状態で、例えば操作者が「設定変更」のメニューボタンを選択しようとする場合、操作者は上述のようにモニタ111に向かって指601を突き出して選択しようとする。本実施形態では、操作者は仮想操作面がどこにあるかを正確には認識しないが、指601が仮想操作面に対し一定の距離まで近づくと、画面2501にアイコン2503が表示される。このアイコンは指の位置がまだ遠いため図24に示すアイコンのうち右の方にある比較的大きなものが表示される。操作者がさらに腕2401を伸ばすと、このアイコンは目標である選択項目「設定変更」に近づきつつ、小さくなり一定の大きさのアイコン2502のときにアイコンが指し示す位置の項目が選択されたと判定される。
このように、図25の例では、指601の位置に応じて画面2501に表示されるアイコンの大きさを変化させることにより、操作者は自己の動作がシステムでどのように認識しているかを把握することができ、仮想操作面の大まかな位置を認識して直感的に、メニューの選択などの操作を行うことができる。ここで、指601、腕2401を含む操作者全体及び各部位の位置や大きさは、第1実施形態と同様に三次元カメラを用いることにより抽出することができる。これにより画面内の物体は奥行きも含めて把握することができるから、これらの情報に基づき仮想操作面との距離や位置関係を算出することができる。ただし、本実施形態で使用する三次元カメラや位置の抽出、距離の算出などは本技術分野で知られたいずれの方法も用いることができるので、ここではその説明を省略する。
本例で画面に表示されるアイコンは円形で操作者の動作に合わせて大きさが変化するが、これに限られず図26に示すように様々な形態のアイコンを用い、様々な変化をさせることができる。すなわち、図26を参照すると、(1)は指の形態のアイコンであり、上述の図25の例と同様に仮想操作面に近づくほどに小さくするようになっている。(2)は、円形で次第に小さくなるようになっているが、入力あるいは選択が確定すると特別な形状に変化して確定したことが示される。このアイコンや他のアイコンの場合も形状や大きさの変化に代えて、あるいは合わせてアイコンの色を変化させることもできる。例えば、青、緑、黄、赤等、寒色系から暖色系に変化させることにより、直感的に操作がフォーカスされ確定することを操作者は認識することができる。(3)は、Xのような形状で、遠くにある場合は大きいだけでなくぼかしが入っており、近づくにしたがって、アイコンの大きさが小さくなるとともに、ぼかしが消えシャープな形状になる。(4)はアイコン全体の大きさは変化することなく、中に描かれた図形が形状変化を起こしてフォーカスされる様子を認識するようになっている。この場合、図形の色も変化させることができる。図26に示す(5)も、形状を変化させるものである。図26において、指の動きに応じてアイコンの形状や色などが変化していき、仮想操作面を越えるとその瞬間に、欄2601に示すように種々の形状や色に変化させたり、点滅させたりして操作として判定されたことを操作者に認識させるようにすることもできる。また、図示しないがこの他のアイコンの変化としては最初透明で、指が仮想操作面に近づくほどに不透明になるような変化も効果的である。
ここで、アイコンのバリエーションのうち特に形状をあまり変化させず色や濃さを変化させる場合は、図27に示すようにアイコンはあまり移動せず指601を近づけていくと、色が暖色系になったり濃くなったりして、入力を確定することができる。
また、以上の例では操作の判定状況を確認するためアイコンを表示させ操作者の動作に応じて色や形状を変化させたが、例えば図28、29に示すように元々メニューのように予め指示する位置が固定されているような場合は、わざわざアイコンを表示しなくても、指601が指し示す位置がメニューのどの項目ボタンに最も近いかにより決定し、指601の動き、特に仮想操作面からの距離に応じて指し示されている項目ボタンを塗りつぶす色または塗りつぶす濃さを変化させることにより、仮想操作面の位置を認識させ、操作入力を容易にすることができる。図28は、指601が近づくにしたがって、その選択されているボタンの色を寒色系から暖色系に変化させる例を示す図である。この例の色の選択としては、例えば(2)青、(3)緑、(4)黄、(5)赤のようにすると操作者は直感的に赤になると確定されると認識することができる。同様に、図29は、ボタンの塗りつぶしの濃さを変化させる例を示す図である。
以上、図22、23に示すような操作者とモニタとがほぼ同じ高さにある、すなわち仮想操作面が操作者の水平方向前面にほぼ垂直に形成される場合について、本実施形態の原理を説明してきたが、この原理はこのような操作者とモニタとの位置関係や形状には影響されることはなく、種々の配置や構成が可能である。例えば、第2〜4実施形態で説明したような、ソファやベッドからの操作でも応用することができるし、もちろん置き台を使用することもできる。
さらに、図30に示すようにモニタ111が操作者102の斜め上部に取り付けられている場合にも仮想操作面を傾けて形成し、操作領域2301もそれに合わせて傾けることにより、上述の場合と同様に操作者102は、図30に示すようにモニタ111を見上げて指を前後に動かすことにより、操作を行うことができる。この場合、三次元カメラ201もモニタ111とともに傾いているので、基本的には上述の水平位置に配置された場合と大きな相違はないが、カメラを別な位置に設置したとしても、本技術分野で知られたいずれかの方法で位置補正などを行なうことで、操作者の部位と仮想操作面との位置関係を算出して、操作を判定することができる。
また、第4実施形態のように本実施形態の画像認識装置に床マットセンサを接続し、床マットで動作モードを指示しつつ三次元撮像装置を用いた画像認識装置によって、ジェスチャなどの操作者の操作をより確実に認識する。具体的には、例えば図17に示すような床マット1701上のLまたはRを踏むと操作モードに入って操作者の動作をジェスチャであるとして認識処理を実行し、それ以外のときは操作者の動作は対象外として処理を行わない。この場合に仮想操作面はバー1702、1703を基準に形成される。
(第6実施形態)
本実施形態は、上述の第1ないし5実施形態のいずれの実施形態を基本としても用いることができるが、特に第4及び5実施形態において実施することが有効である。本実施形態は、基本的に上述の実施形態と同じ構成、配置のシステムを用いることができる。操作者の部位の検出や仮想操作面との位置関係の算出も同様である。すなわち、第4実施形態を基本とすれば、操作者は例えばマーカを基準に仮想操作面の位置を認識してその仮想操作面に対して種々の動作を行うことによって一定の操作と判定する。また第5実施形態を基本とする場合、マーカ等の基準を使用せずモニタ画面のアイコン等の動きにより操作者が自己の動きがどのように操作として判定されているかを認識して動作することにより、操作が判定されるが、いずれの実施形態でも、必ずしも限定してはいないが、操作者の1つの部位によりシステムにアクセスする例についてのみ説明した。本実施形態では、図31に示すように、操作者は1つの部位だけでなく複数の部位、例えば両手や、複数の指などを用いて同時にシステムアクセスする。
従来本実施形態が処理しようとする、いわゆるマルチタッチを入力システムとして用いるのは容易ではなかった。例えば、いずれの手法によるかに関わらず従来のタッチパネルはパネル上の各点で接触を検知するが、同時に複数の接触があるとどの点で接触を検出したかを検知することができなかった。本実施形態は、上述のとおり三次元カメラを用いて操作者の各部位をそれぞれ立体的に認識することができるので、例えば仮想操作面を基準に仮想操作面に触れた複数の部位の位置を同時に正確に検出することができる。したがって、本実施形態では図31に示すように2本の腕あるいは複数の指を用いて、同時に仮想操作面上で操作させることにより、システムとして複数の位置を指示したり、複数のボタンを同時に押下したりすることができる。
また、このような複数部位を用いた操作としては、複数の指を用いて直感的なジェスチャ、例えば画像の一部をつまんで引き伸ばした入りする動作により拡大動作を可能にしたりすることができる。このようにすることにより、予めシステムごとに定められた特殊なジェスチャを学習することなく複雑な操作入力をすることが可能となる。例えば、図32ないし35を参照して、モニタ111に表示された画像を伸張する操作をマルチタッチにより実行する例を説明する。
図32を参照すると、操作者102は仮想操作面701を基準として左手3101及び右手3102をモニタに向かって突き出す。操作者102が操作しようとする画像の仮想操作面上の投射した画像イメージ3203を仮想操作面701から突き出た指3201及び3202で指示することにより、モニタ111上では対象画像の縁が両指で捕まえられたような表示がなされ、指3201及び3202を広げることにより、例えば図33に示すような状態から、図34に示すような状態に腕を広げることにより対象画像は伸張される。なお、図32に示す仮想イメージ3203は、仮想操作面701に対し若干傾いているように描かれているが、これは例えば操作者102が指3202をモニタ111側に突き出すことにより、対象画像を奥行き方向へも伸張、移動させることができることを示しているものである。
すなわち、横面から見た図32の操作の様子を、正面から見たのが図33及び34であり、最初表示された画像の仮想操作面上の仮想イメージ3203は、この操作により縁が図33の指3201及び3202の位置から図34に示すように指3401及び3402の位置に動かされ、画像イメージ3403のように伸張される。以上の操作に応じたモニタ111上の画像の様子を示す図が図35である。図35に示すようにモニタ111には最初の状態(1)における画像3503の縁3501及び3502が指3201及び3202で指示されていることが示されており、その後操作者により腕が広げられると徐々状態(2)を介して最終的に状態(3)の画像3503まで伸張される。このようにして、本実施形態のマルチタッチを用いることにより、単にメニューボタンやアイコンを押下するだけでなく、モニタ上に表示された画像をつかんだり、伸ばしたりすることができる。
また、図36及び37にマルチタッチを用いる別の例を示す。図36を参照すると、複数の指3601を仮想操作面701を越えて前に出すことによって、モニタ上に表示された、例えばコップなどの画像イメージ3602をつかむような操作であると判定することにより、その後の腕の動きでコップを移動させる等の処理を実行することができる。この様子を正面から見た図が図37である。なお、仮想操作面701はモニタ111に完全に投影しても良いし、一部にすることもできる。
以上、本実施形態を用いると、上述の第1ないし5実施形態で複数の部位を同時に用いることができるので、複雑な操作や、複数の同時操作などが可能となりより効果的な入力環境を提供することができる。
本実施形態の操作面形成基準であるマーカを床面に表した操作入力システムの一例を示す図である。 本実施形態の操作入力システムのコンピュータとの関係を模式的に示すブロック図である。 本実施形態のコンピュータのCPU内で処理されるプログラムの機能モジュールの一例を示すブロック図である。 本実施形態の処理のフローチャートである。 本実施形態のマーカの役割を具体的に説明するための図である。 本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 本発明の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 本発明の一実施形態にかかる操作入力支援の具体的な表示の一例を示す図である。 本発明の別の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 本発明のさらなる別の一実施形態にかかる操作面形成基準により形成される仮想的な操作面の様子を示す図である。 本発明のさらなる別の一実施形態にかかる操作入力方法の具体的な操作の一例を示す図である。 本発明のさらなる別の一実施形態にかかる操作入力方法の具体的な操作の一例を示す図である。 従来の大画面を用いたジェスチャによる入力システムを説明する図である。 従来の3Dカメラを用いた操作者の画像取り込み方法を示す図である。 従来の3Dカメラを用いた複数の操作者の画像取り込んだ場合の画像の一例を示す図である。 本発明のさらなる別の一実施形態にかかる具体的な操作装置の一例を示す図である。 本発明のさらなる別の一実施形態にかかる操作入力システムのコンピュータとの関係を模式的に示すブロック図である。 本発明のさらなる別の一実施形態にかかる別の具体的な操作装置の一例を示す図である。 本発明のさらなる別の一実施形態にかかる具体的な操作装置の操作指示領域のパターン投影法の一例を示す図である。 本発明のさらなる別の一実施形態にかかる操作入力方法の具体的な操作の一例を示す図である。 本発明の一実施形態の仮想操作面を用いた操作入力システムの一例を示す図である。 本発明の一実施形態にかかる仮想的な操作面および操作領域の様子を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 本発明の一実施形態にかかる操作入力画面の具体的な表示の一例を示す図である。 本発明の一実施形態にかかる操作入力画面で使用可能な種々のアイコンの例を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 本発明の一実施形態にかかる操作入力画面のメニューボタンの色の変化する様子を示す図である。 本発明の一実施形態にかかる操作入力画面のメニューボタンの濃淡の変化する様子を示す図である。 本発明の一実施形態の変形例にかかる仮想的な操作面および操作者の操作の様子を示す図である。 本発明の一実施形態のマルチタッチにかかる仮想的な操作面および操作者の操作の様子を示す図である。 本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す横面図である。 本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す正面図である。 本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す正面図である。 本発明の一実施形態にかかるマルチタッチ操作により画面上に表示された画像の変化する様子を示す図である。 本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す横面図である。 本発明の一実施形態のマルチタッチにかかる仮想的な操作面および投影画像イメージを示す正面図である。
符号の説明
101、1002、1101 マーカ
102 操作者
110 コンピュータ
111 モニタ
112 キーボード
201 ビデオカメラ
210 CPU
211 ROM
212 RAM
501、1003、1004、1103 補助マーカ
601 指
701 仮想的操作面
1001、1102 テーブル

Claims (16)

  1. 操作者の少なくとも一部の像を読取って立体画像データを生成する三次元撮像手段と、
    前記操作者が所定の空間上の仮想操作面を把握するよう設けられた該操作者に知覚可能および前記三次元撮像手段により読取り可能な、前記撮像手段の撮像範囲内に予め配置された操作面形成基準と、
    前記三次元撮像手段により読取られた前記操作面形成基準によって、前記仮想操作面を
    形成し、当該形成された仮想操作面に対する操作者の動作を、前記三次元撮像手段で読取
    って、前記操作者の一部と前記仮想操作面との位置関係に基づいて、前記操作者の一部が前記仮想操作面よりも前記三次元撮像手段側にあるとき該動作が操作であると判定する操作判定手段と、
    前記操作判定手段により認識される、前記仮想操作面に対し前記三次元撮像手段の反対側における前記操作者の一部と前記仮想操作面との位置関係から当該距離を算出して該距離に応じ変化する標示を前記仮想操作面の対応付けられた位置に表示させ、前記操作者の一部が前記仮想操作面に対し前記三次元撮像手段側にあるときは該標示の変化を停止させて判定される操作を示す、前記操作者が視認可能な画像表示手段と、
    前記動作が操作であると判定されると所定の信号を出力する信号出力手段と
    を備えたことを特徴とする画像認識装置。
  2. 前記仮想操作面は、前記操作面形成基準から上方に投射した面であることを特徴とする請求項1に記載の画像認識装置。
  3. 前記操作判定手段は、前記操作者の一部の、前記仮想操作面よりも前記三次元撮像手段側にある部分の形状または動きによりいずれの操作が行われているかを判定することを特徴とする請求項1または2に記載の画像認識装置。
  4. 前記操作判定手段は、予め操作者の一部の形状または動きと対応付けた操作内容を格納する記憶手段を検索して、合致する形状または動きに対応する操作を、入力する操作と判定することを特徴とする請求項3に記載の画像認識装置。
  5. 前記操作面形成基準は、操作者が載る床面に示されていることを特徴とする請求項1ないしのいずれかに記載の画像認識装置。
  6. 操作者と前記三次元撮像手段との間に配置された立体物をさらに備え、
    前記操作面形成基準は、前記立体物の所定の外縁であることを特徴とする請求項1ないし4のいずれかに記載の画像認識装置。
  7. 前記立体物は、テーブルであることを特徴とする請求項に記載の画像認識装置。
  8. 前記操作面形成基準は、読取られた画像からの抽出が容易になるように前記三次元撮像手段に撮像される所定の面にマーカを有することを特徴とする請求項1ないし7のいずれかに記載の画像認識装置。
  9. 前記標示は、前記操作者の一部の、前記仮想操作面との距離が近づくごとに小さくなることを特徴とする請求項1ないしのいずれかに記載の画像認識装置。
  10. 前記標示は、前記操作者の一部の、前記仮想操作面との距離が近づくごとに色相が変化することを特徴とする請求項1ないしのいずれかに記載の画像認識装置。
  11. 前記標示は、前記操作者の一部の、前記仮想操作面との距離が近づくごとに透明度が低くなることを特徴とする請求項1ないしのいずれかに記載の画像認識装置。
  12. 前記操作者の一部の、前記仮想操作面との距離が近づくごとに、前記標示と前記画像表示手段に表示されている操作対象画像とのコントラストが大きくなることを特徴とする請求項1ないしのいずれかに記載の画像認識装置。
  13. 前記標示は、前記操作者の一部の、前記仮想操作面との距離が近づくごとに形状が変化することを特徴とする請求項1ないしのいずれかに記載の画像認識装置。
  14. 前記操作者の一部は複数あり、前記標示は、前記複数の操作者の部位の各々に対応して複数表示されることを特徴とする請求項1ないし1のいずれかに記載の画像認識装置。
  15. 画像認識装置によって、操作者の画像を認識して操作内容を判定する操作判定方法であって、
    前記操作者が所定の空間上の仮想操作面を把握するよう設けられた該操作者に知覚可能および前記三次元撮像手段により読取り可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および該所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、
    前記三次元撮像ステップにおいて読取られた操作面形成基準によって前記仮想操作面を形成し、当該形成された仮想操作面に対する、前記三次元撮像手段で読取られた操作者の動作が、前記操作者の一部と前記仮想操作面との位置関係に基づいて前記操作者の一部が前記仮想操作面よりも前記三次元撮像手段側にあるとき該動作が操作であると判定する操作判定ステップと、
    前記操作判定ステップにおいて認識される、前記仮想操作面に対し前記三次元撮像手段の反対側における前記操作者の一部と前記仮想操作面との位置関係から当該距離を算出して該距離に応じ変化する標示を前記仮想操作面の対応付けられた位置に表示させ、前記操作者の一部が前記仮想操作面に対し前記三次元撮像手段側にあるときは該標示の変化を停止させて判定される操作を示す画像表示ステップと、
    前記動作が操作であると判定されると所定の信号を出力する信号出力ステップと
    を備えたことを特徴とする操作判定方法。
  16. 画像認識装置に、操作者の画像を認識して操作内容を判定する操作判定方法を実行させるプログラムであって、該操作判定方法は、
    前記操作者が所定の空間上の仮想操作面を把握するよう設けられた該操作者に知覚可能および前記三次元撮像手段により読取り可能な、所定の撮像手段の撮像範囲内に予め配置された操作面形成基準、および該所定の撮像手段の撮像範囲内の操作者の少なくとも一部の像を読取って立体画像を生成する三次元撮像ステップと、
    前記三次元撮像ステップにおいて読取られた操作面形成基準によって前記仮想操作面を形成し、当該形成された仮想操作面に対する、前記三次元撮像手段で読取られた操作者の動作が、前記操作者の一部と前記仮想操作面との位置関係に基づいて前記操作者の一部が前記仮想操作面よりも前記三次元撮像手段側にあるとき該動作が操作であると判定する操作判定ステップと、
    前記操作判定ステップにおいて認識される、前記仮想操作面に対し前記三次元撮像手段の反対側における前記操作者の一部と前記仮想操作面との位置関係から当該距離を算出して該距離に応じ変化する標示を前記仮想操作面の対応付けられた位置に表示させ、前記操作者の一部が前記仮想操作面に対し前記三次元撮像手段側にあるときは該標示の変化を停止させて判定される操作を示す画像表示ステップと、
    前記動作が操作であると判定されると所定の信号を出力する信号出力ステップと
    を備えたことを特徴とするプログラム。
JP2008207388A 2008-06-03 2008-08-11 画像認識装置および操作判定方法 Expired - Fee Related JP4318056B1 (ja)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP2008207388A JP4318056B1 (ja) 2008-06-03 2008-08-11 画像認識装置および操作判定方法
PCT/JP2008/071268 WO2009147758A1 (ja) 2008-06-03 2008-11-21 画像認識装置および操作判定方法並びにプログラム
TW103120492A TWI534661B (zh) 2008-06-03 2008-11-28 畫像辨識裝置及操作判定方法以及電腦程式
TW097146459A TWI450132B (zh) 2008-06-03 2008-11-28 A portrait recognition device, an operation judgment method, and a computer program
PCT/JP2009/060095 WO2009148064A1 (ja) 2008-06-03 2009-06-02 画像認識装置および操作判定方法並びにプログラム
US12/995,898 US8456416B2 (en) 2008-06-03 2009-06-02 Image recognition apparatus, and operation determination method and program therefor
KR1020107027198A KR101227610B1 (ko) 2008-06-03 2009-06-02 화상인식장치 및 조작판정방법과 이를 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체
CN2009801208343A CN102057347B (zh) 2008-06-03 2009-06-02 图像识别装置、操作判断方法及程序
EP09758331.4A EP2287708B1 (en) 2008-06-03 2009-06-02 Image recognizing apparatus, operation determination method, and program
EP14193587.4A EP2853991A1 (en) 2008-06-03 2009-06-02 Image recognizing device, operation judging method, and program
CA2726895A CA2726895C (en) 2008-06-03 2009-06-02 Image recognizing apparatus, and operation determination method and program therefor
ZA2010/09250A ZA201009250B (en) 2008-06-03 2010-12-23 Image recognition apparatus, and operation determination method and program therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008146231 2008-06-03
JP2008146231 2008-06-03
JP2008207388A JP4318056B1 (ja) 2008-06-03 2008-08-11 画像認識装置および操作判定方法

Publications (2)

Publication Number Publication Date
JP4318056B1 true JP4318056B1 (ja) 2009-08-19
JP2014098941A JP2014098941A (ja) 2014-05-29

Family

ID=41076632

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008207388A Expired - Fee Related JP4318056B1 (ja) 2008-06-03 2008-08-11 画像認識装置および操作判定方法
JP2009133519A Expired - Fee Related JP5604739B2 (ja) 2008-06-03 2009-06-02 画像認識装置および操作判定方法並びにプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009133519A Expired - Fee Related JP5604739B2 (ja) 2008-06-03 2009-06-02 画像認識装置および操作判定方法並びにプログラム

Country Status (9)

Country Link
US (1) US8456416B2 (ja)
EP (2) EP2853991A1 (ja)
JP (2) JP4318056B1 (ja)
KR (1) KR101227610B1 (ja)
CN (1) CN102057347B (ja)
CA (1) CA2726895C (ja)
TW (2) TWI534661B (ja)
WO (2) WO2009147758A1 (ja)
ZA (1) ZA201009250B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP2011081506A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 映像表示装置、および、その表示制御方法
JP2011138475A (ja) * 2009-12-25 2011-07-14 Cywee Group Ltd マルチタッチ信号を生成する方法、マルチタッチ信号を生成するドングル、及び関連した制御システム
JP2011187086A (ja) * 2011-06-27 2011-09-22 Toshiba Corp 映像再生装置及び映像再生方法
US20110248918A1 (en) * 2010-04-07 2011-10-13 Samsung Electronics Co., Ltd. Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
JP2012137989A (ja) * 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
EP2562620A1 (en) 2011-08-23 2013-02-27 Hitachi Consumer Electronics Co., Ltd. Input unit recognizing user's motion
JP2015109111A (ja) * 2015-03-09 2015-06-11 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法
KR20190072277A (ko) * 2017-12-15 2019-06-25 주식회사 디자인에이포인트 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치

Families Citing this family (138)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9740341B1 (en) 2009-02-26 2017-08-22 Amazon Technologies, Inc. Capacitive sensing with interpolating force-sensitive resistor array
US10180746B1 (en) 2009-02-26 2019-01-15 Amazon Technologies, Inc. Hardware enabled interpolating sensor and display
US9740340B1 (en) 2009-07-31 2017-08-22 Amazon Technologies, Inc. Visually consistent arrays including conductive mesh
US9785272B1 (en) 2009-07-31 2017-10-10 Amazon Technologies, Inc. Touch distinction
JP4701424B2 (ja) 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP2011081469A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
US8462110B2 (en) * 2009-11-03 2013-06-11 Hewlett-Packard Development Company, L.P. User input by pointing
US9183601B2 (en) 2010-03-22 2015-11-10 Ai Cure Technologies Llc Method and apparatus for collection of protocol adherence data
US8605165B2 (en) 2010-10-06 2013-12-10 Ai Cure Technologies Llc Apparatus and method for assisting monitoring of medication adherence
US9293060B2 (en) 2010-05-06 2016-03-22 Ai Cure Technologies Llc Apparatus and method for recognition of patient activities when obtaining protocol adherence data
JP4783456B2 (ja) * 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
JP5114795B2 (ja) * 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
US8593512B2 (en) * 2010-02-05 2013-11-26 Creative Technology Ltd Device and method for scanning an object on a working surface
JP2013080266A (ja) * 2010-02-08 2013-05-02 Nextedge Technology Inc 入力装置
JP5740822B2 (ja) 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2011114257A1 (en) * 2010-03-15 2011-09-22 Koninklijke Philips Electronics N.V. A method and system for controlling at least one device
US10116903B2 (en) 2010-05-06 2018-10-30 Aic Innovations Group, Inc. Apparatus and method for recognition of suspicious activities
US9875666B2 (en) 2010-05-06 2018-01-23 Aic Innovations Group, Inc. Apparatus and method for recognition of patient activities
US9883786B2 (en) 2010-05-06 2018-02-06 Aic Innovations Group, Inc. Method and apparatus for recognition of inhaler actuation
JP5709405B2 (ja) * 2010-05-18 2015-04-30 株式会社タイトー 画像認識によるラクガキ装置
JP5408348B2 (ja) * 2010-05-18 2014-02-05 富士通株式会社 ポインタ情報処理装置、ポインタ情報処理プログラムおよび会議システム
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
KR101708696B1 (ko) * 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012089112A (ja) * 2010-09-22 2012-05-10 Nikon Corp 画像表示装置
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
JP5515067B2 (ja) * 2011-07-05 2014-06-11 島根県 操作入力装置および操作判定方法並びにプログラム
WO2012039140A1 (ja) * 2010-09-22 2012-03-29 島根県 操作入力装置および方法ならびにプログラム
JP5580156B2 (ja) 2010-09-27 2014-08-27 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御方法、ならびに、プログラム
EP2628069B1 (en) * 2010-10-12 2020-12-02 New York University Apparatus for sensing utilizing tiles, sensor having a set of plates, object identification for multi-touch surfaces, and method
KR20120062170A (ko) * 2010-12-06 2012-06-14 삼성전자주식회사 가상 모니터 제어장치 및 그 제어방법
US20140317577A1 (en) * 2011-02-04 2014-10-23 Koninklijke Philips N.V. Gesture controllable system uses proprioception to create absolute frame of reference
US8497838B2 (en) * 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
US9116553B2 (en) 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
WO2012120521A1 (en) * 2011-03-04 2012-09-13 Hewlett-Packard Development Company, L.P. Gestural interaction identification
JP2012190183A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
US9067136B2 (en) * 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
JP2012215963A (ja) 2011-03-31 2012-11-08 Hitachi Consumer Electronics Co Ltd 映像表示装置
WO2012141351A1 (en) * 2011-04-12 2012-10-18 Lg Electronics Inc. Electronic device and method of controlling the same
US8860805B2 (en) 2011-04-12 2014-10-14 Lg Electronics Inc. Electronic device and method of controlling the same
US9323339B2 (en) 2011-04-27 2016-04-26 Nec Solution Innovators, Ltd. Input device, input method and recording medium
KR101514168B1 (ko) 2011-04-28 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 정보 처리 장치, 정보 처리 방법 및 기록 매체
US20120281114A1 (en) * 2011-05-03 2012-11-08 Ivi Media Llc System, method and apparatus for providing an adaptive media experience
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) * 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
KR101529262B1 (ko) * 2011-07-01 2015-06-29 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 적응가능 사용자 인터페이스
US9030487B2 (en) * 2011-08-01 2015-05-12 Lg Electronics Inc. Electronic device for displaying three-dimensional image and method of using the same
CA2844105A1 (en) * 2011-08-31 2013-03-07 Smart Technologies Ulc Detecting pointing gestures in a three-dimensional graphical user interface
US9128520B2 (en) * 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
KR101822661B1 (ko) 2011-10-27 2018-01-26 삼성전자주식회사 비전 인식 장치 및 방법
KR101396488B1 (ko) * 2011-11-09 2014-05-20 포항공과대학교 산학협력단 신호 입력 장치 및 신호 입력 방법
US9052819B2 (en) 2012-01-25 2015-06-09 Honeywell International Inc. Intelligent gesture-based user's instantaneous interaction and task requirements recognition system and method
JP5715977B2 (ja) * 2012-03-05 2015-05-13 東芝テック株式会社 操作支援表示装置およびプログラム
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9170648B2 (en) * 2012-04-03 2015-10-27 The Boeing Company System and method for virtual engineering
US20130265240A1 (en) * 2012-04-06 2013-10-10 At&T Intellectual Property I, Lp Method and apparatus for presenting a virtual touchscreen
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9293016B2 (en) 2012-04-24 2016-03-22 At&T Intellectual Property I, Lp Method and apparatus for processing sensor data of detected objects
JP5174978B1 (ja) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 情報処理装置、電子機器およびプログラム
JP2013257686A (ja) 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
KR101845046B1 (ko) 2012-07-13 2018-04-03 가부시키가이샤 주스 디자인 요소 선택 장치, 요소 선택 방법 및 프로그램
JP5565886B2 (ja) * 2012-08-17 2014-08-06 Necシステムテクノロジー株式会社 入力装置、入力方法、及びプログラム
FR2995704B1 (fr) * 2012-09-19 2015-12-25 Inst Nat De Sciences Appliquees Methode de selection de mode d'interactivite
JP6232694B2 (ja) * 2012-10-15 2017-11-22 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法及びプログラム
US9571816B2 (en) 2012-11-16 2017-02-14 Microsoft Technology Licensing, Llc Associating an object with a subject
JP6058978B2 (ja) 2012-11-19 2017-01-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
JP5950806B2 (ja) * 2012-12-06 2016-07-13 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム
KR101956073B1 (ko) 2012-12-20 2019-03-08 삼성전자주식회사 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
JP6070211B2 (ja) * 2013-01-22 2017-02-01 株式会社リコー 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP5950845B2 (ja) * 2013-02-07 2016-07-13 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム
US9251701B2 (en) * 2013-02-14 2016-02-02 Microsoft Technology Licensing, Llc Control device with passive reflector
US9519351B2 (en) * 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
US9399111B1 (en) 2013-03-15 2016-07-26 Aic Innovations Group, Inc. Method and apparatus for emotional behavior therapy
JP6051991B2 (ja) * 2013-03-21 2016-12-27 富士通株式会社 信号処理装置、信号処理方法、及び信号処理プログラム
JP6264370B2 (ja) * 2013-04-02 2018-01-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9436851B1 (en) 2013-05-07 2016-09-06 Aic Innovations Group, Inc. Geometric encrypted coded image
JP2014219938A (ja) * 2013-05-10 2014-11-20 株式会社ゲッシュ 入力支援装置、入力支援方法、および、プログラム
KR102091000B1 (ko) * 2013-05-31 2020-04-14 삼성전자 주식회사 사용자 제스처를 이용한 데이터 처리 방법 및 장치
TW201500968A (zh) * 2013-06-21 2015-01-01 Utechzone Co Ltd 三維互動系統及其互動感測方法
TWI508027B (zh) * 2013-08-08 2015-11-11 Huper Lab Co Ltd 三維偵測裝置及其偵測影像之方法
TW201528049A (zh) * 2014-01-03 2015-07-16 Utechzone Co Ltd 基於圖樣的校正方法及電子裝置
TWI545461B (zh) * 2014-01-03 2016-08-11 由田新技股份有限公司 校正方法及電子裝置
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
US20150254881A1 (en) * 2014-03-10 2015-09-10 Beijing Lenovo Software Ltd. Information processing method and electronic device
US10022622B2 (en) 2014-04-21 2018-07-17 Steelseries Aps Programmable actuation inputs of an accessory and methods thereof
US10675532B2 (en) 2014-04-21 2020-06-09 Steelseries Aps Variable actuators of an accessory and methods thereof
KR101655810B1 (ko) 2014-04-22 2016-09-22 엘지전자 주식회사 차량용 디스플레이 장치
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
US9575560B2 (en) * 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9679113B2 (en) 2014-06-11 2017-06-13 Aic Innovations Group, Inc. Medication adherence monitoring system and method
CN112651288B (zh) * 2014-06-14 2022-09-20 奇跃公司 用于产生虚拟和增强现实的方法和系统
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9841844B2 (en) * 2014-06-20 2017-12-12 Funai Electric Co., Ltd. Image display device
JP6008904B2 (ja) * 2014-07-03 2016-10-19 Necパーソナルコンピュータ株式会社 表示制御装置、表示制御方法、及び、プログラム
KR101488662B1 (ko) * 2014-07-31 2015-02-04 스타십벤딩머신 주식회사 Nui 장치를 통하여 사용자와 상호작용하는 인터페이스 제공방법 및 제공장치
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
JP2016091192A (ja) * 2014-10-31 2016-05-23 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
JP2016110249A (ja) * 2014-12-03 2016-06-20 日本ユニシス株式会社 空間手書き入力システム、空間手書き入力方法およびコンピュータプログラム
KR101609263B1 (ko) * 2014-12-04 2016-04-05 현대모비스 주식회사 적외선을 이용하여 제스쳐를 인식하기 위한 장치 및 그 방법
US9454235B2 (en) * 2014-12-26 2016-09-27 Seungman KIM Electronic apparatus having a sensing unit to input a user command and a method thereof
CN112965636A (zh) 2014-12-26 2021-06-15 株式会社尼康 控制装置
EP3239816A4 (en) 2014-12-26 2018-07-25 Nikon Corporation Detection device, electronic instrument, detection method, and program
WO2016103521A1 (ja) 2014-12-26 2016-06-30 株式会社ニコン 検出装置およびプログラム
JP6472252B2 (ja) * 2015-01-20 2019-02-20 Nttテクノクロス株式会社 仮想タッチパネルポインティングシステム
KR102279790B1 (ko) 2015-03-10 2021-07-19 엘지전자 주식회사 차량용 디스플레이 장치
KR102002112B1 (ko) 2015-04-30 2019-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
DE102015006613A1 (de) * 2015-05-21 2016-11-24 Audi Ag Bediensystem und Verfahren zum Betreiben eines Bediensystems für ein Kraftfahrzeug
EP3101511A1 (en) * 2015-06-03 2016-12-07 Nokia Technologies Oy Monitoring
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
US9703387B2 (en) * 2015-08-31 2017-07-11 Konica Minolta Laboratory U.S.A., Inc. System and method of real-time interactive operation of user interface
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CA2957105A1 (en) 2016-02-03 2017-08-03 Op-Hygiene Ip Gmbh Interactive display device
US20180299972A1 (en) * 2016-03-29 2018-10-18 Saito Inventive Corp. Input device and image display system
US10983680B2 (en) 2016-06-28 2021-04-20 Nikon Corporation Display device, program, display method and control device
CN106331808B (zh) * 2016-08-29 2019-11-29 天脉聚源(北京)传媒科技有限公司 一种更换电视台频道的方法和装置
US10325407B2 (en) 2016-09-15 2019-06-18 Microsoft Technology Licensing, Llc Attribute detection tools for mixed reality
CN106980362A (zh) * 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的输入方法及装置
JP6260673B2 (ja) * 2016-10-20 2018-01-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111610858B (zh) * 2016-10-26 2023-09-19 创新先进技术有限公司 基于虚拟现实的交互方法及装置
US20180158244A1 (en) * 2016-12-02 2018-06-07 Ayotle Virtual sensor configuration
JP6791994B2 (ja) * 2017-02-02 2020-11-25 マクセル株式会社 表示装置
JP6315127B2 (ja) * 2017-04-10 2018-04-25 船井電機株式会社 入力装置、空中像インタラクションシステム、及び入力方法
US11107265B2 (en) * 2019-01-11 2021-08-31 Microsoft Technology Licensing, Llc Holographic palm raycasting for targeting virtual objects
JP2019123503A (ja) * 2019-02-25 2019-07-25 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
KR102088335B1 (ko) * 2019-04-01 2020-03-12 주식회사 마이베네핏 학습과 운동이 동시에 가능한 혼합 현실 기반의 학습 게임 제공 시스템
JP6752349B1 (ja) * 2019-12-26 2020-09-09 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7100100B2 (ja) * 2020-10-26 2022-07-12 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2022096250A (ja) 2020-12-17 2022-06-29 シャープ株式会社 表示装置、表示方法、及び表示プログラム
JP2022181876A (ja) * 2021-05-27 2022-12-08 セイコーエプソン株式会社 複合機、複合機の表示制御方法、及び表示制御プログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4764885A (en) * 1986-04-25 1988-08-16 International Business Machines Corporaton Minimum parallax stylus detection subsystem for a display device
JPH08212005A (ja) * 1995-02-07 1996-08-20 Hitachi Ltd 3次元位置認識型タッチパネル装置
DE69634913T2 (de) 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5929841A (en) * 1996-02-05 1999-07-27 Sharp Kabushiki Kaisha Data input unit
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
AU2439399A (en) * 1998-02-09 1999-08-23 Haim Azaria Video camera computer touch screen system
JP2001013314A (ja) 1999-07-01 2001-01-19 Sony Corp 固体撮像装置の製造方法
WO2001078052A1 (en) * 2000-04-05 2001-10-18 Dimensional Media Associates, Inc. Methods and apparatus for virtual touchscreen computer interface controller
US6937742B2 (en) * 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
JP2003125472A (ja) * 2001-10-16 2003-04-25 Nippon Hoso Kyokai <Nhk> 電化製品制御方法および電化製品制御装置ならびに電化製品制御システムプログラム
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
JP4024124B2 (ja) * 2002-10-15 2007-12-19 株式会社タムラ製作所 位置特定装置、その方法およびそのプログラム
JP4723799B2 (ja) * 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP3903968B2 (ja) * 2003-07-30 2007-04-11 日産自動車株式会社 非接触式情報入力装置
JP4438351B2 (ja) 2003-08-22 2010-03-24 富士ゼロックス株式会社 指示入力装置、指示入力システム、指示入力方法、及びプログラム
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
JP2005189426A (ja) * 2003-12-25 2005-07-14 Nippon Telegr & Teleph Corp <Ntt> 情報表示装置および情報入出力装置
JP2005190283A (ja) 2003-12-26 2005-07-14 Nec Access Technica Ltd 情報入力装置
JP2005196530A (ja) 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
US20080288895A1 (en) * 2004-06-29 2008-11-20 Koninklijke Philips Electronics, N.V. Touch-Down Feed-Forward in 30D Touch Interaction
JP2006107170A (ja) 2004-10-06 2006-04-20 Matsushita Electric Ind Co Ltd 3次元guiを用いた情報選択装置
FR2895811B1 (fr) * 2006-01-04 2008-03-14 Bernard Szajner Procede d'interaction en temps reel avec des images en relief
JP2007206833A (ja) * 2006-01-31 2007-08-16 Toshiba Corp 生体照合方法および生体照合装置
JP4127296B2 (ja) * 2006-06-09 2008-07-30 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
GB0808061D0 (en) * 2008-05-02 2008-06-11 Univ Teeside Computer input device
JP5262681B2 (ja) * 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
US8437506B2 (en) * 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP2011081506A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 映像表示装置、および、その表示制御方法
CN102033702A (zh) * 2009-10-05 2011-04-27 日立民用电子株式会社 影像显示装置及其显示控制方法
JP2011138475A (ja) * 2009-12-25 2011-07-14 Cywee Group Ltd マルチタッチ信号を生成する方法、マルチタッチ信号を生成するドングル、及び関連した制御システム
KR101743948B1 (ko) * 2010-04-07 2017-06-21 삼성전자주식회사 인터렉티브 디스플레이에서 근접 센싱을 위한 방법 및 근접 센싱 이미지를 처리하는 방법
US9965028B2 (en) * 2010-04-07 2018-05-08 Samsung Electronics Co., Ltd. Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
US20110248918A1 (en) * 2010-04-07 2011-10-13 Samsung Electronics Co., Ltd. Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
JP2012137989A (ja) * 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
US9465443B2 (en) 2010-12-27 2016-10-11 Sony Corporation Gesture operation input processing apparatus and gesture operation input processing method
JP2011187086A (ja) * 2011-06-27 2011-09-22 Toshiba Corp 映像再生装置及び映像再生方法
EP2562620A1 (en) 2011-08-23 2013-02-27 Hitachi Consumer Electronics Co., Ltd. Input unit recognizing user's motion
JP2015109111A (ja) * 2015-03-09 2015-06-11 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法
KR20190072277A (ko) * 2017-12-15 2019-06-25 주식회사 디자인에이포인트 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치
KR102074680B1 (ko) * 2017-12-15 2020-04-08 (주)브이알에이포인트 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치

Also Published As

Publication number Publication date
US8456416B2 (en) 2013-06-04
CA2726895A1 (en) 2009-12-10
CN102057347B (zh) 2013-05-01
WO2009148064A1 (ja) 2009-12-10
EP2287708A1 (en) 2011-02-23
TW201506696A (zh) 2015-02-16
ZA201009250B (en) 2011-08-31
US20110141009A1 (en) 2011-06-16
TWI450132B (zh) 2014-08-21
EP2287708A4 (en) 2014-05-21
TWI534661B (zh) 2016-05-21
JP2010015553A (ja) 2010-01-21
CN102057347A (zh) 2011-05-11
KR101227610B1 (ko) 2013-02-07
EP2853991A1 (en) 2015-04-01
WO2009147758A1 (ja) 2009-12-10
JP2014098941A (ja) 2014-05-29
EP2287708B1 (en) 2017-02-01
TW200951777A (en) 2009-12-16
CA2726895C (en) 2014-04-08
KR20110008313A (ko) 2011-01-26
JP5604739B2 (ja) 2014-10-15

Similar Documents

Publication Publication Date Title
JP4318056B1 (ja) 画像認識装置および操作判定方法
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5256561B2 (ja) 情報入力装置、情報出力装置および方法
JP2013016060A (ja) 操作入力装置および操作判定方法並びにプログラム
JP5646532B2 (ja) 操作入力装置、操作入力方法、及び、プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090513

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120605

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4318056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120605

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130605

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees