JP6335695B2 - 情報処理装置、その制御方法、プログラム、及び記憶媒体 - Google Patents
情報処理装置、その制御方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP6335695B2 JP6335695B2 JP2014141805A JP2014141805A JP6335695B2 JP 6335695 B2 JP6335695 B2 JP 6335695B2 JP 2014141805 A JP2014141805 A JP 2014141805A JP 2014141805 A JP2014141805 A JP 2014141805A JP 6335695 B2 JP6335695 B2 JP 6335695B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- flat plate
- height
- acquired
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
実施例1として、テーブル上に投影されたグラフィカルユーザインタフェース(GUI)に対してユーザがジェスチャ操作を行う、テーブルトップインタフェース(IF)システムに本発明を適用した例を説明する。従って、以下の実施例では、ジェスチャが行われる空間の背景に含まれる所定の平板を「テーブル」と表現するが、テーブルを、直立したスクリーンやホワイトボード等に置き換えて本発明を適用することも可能である。また、ここではテーブルやスクリーンやホワイトボードなどを「平板」として表現しているが、平板の平面に凹凸が無いものに限られない。ここで言う平板は、その平面が安定して静止状態にあると推定される固定サイズの物体の呼称である。
図1(a)は、実施例1に係る情報処理装置100のハードウェア構成の一例を示すブロック図である。
図1(b)は、情報処理装置100の機能構成の一例を示すブロック図である。各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、上記CPU101を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
図2は、本実施例に係る情報処理装置100を適用可能なシステムの外観の一例を示す。テーブル301の上方には、表示装置107である液晶プロジェクタが備えられ、例えば、GUI画面302がテーブル301上に投影される。ユーザは手303等の操作物体を用いて、GUI画面302に含まれるGUI部品に接触するタッチ操作や、ジェスチャ操作を行う。図2のシステムにおいて、ジェスチャやタッチなどによる操作を認識可能な範囲である操作領域は、表示装置107による投影が可能なテーブル301上の範囲と一致するとする。表示装置107とテーブル301の位置関係はテーブル301の中心と表示装置107によって投影される表示画面の中心が一致し、テーブル301上面の9割以上の範囲に対して画像投影が可能であるように固定されている。なお、テーブル301上面への投影が可能であれば、表示装置107の筐体自体は、必ずしもテーブル301の上方に設置されていなくても構わない。
図3は、本実施例において情報処理装置100が実行するジェスチャ認識処理の一例を示すフローチャートである。この処理は、情報処理装置の各機能部を構成するCPU101がROM102に記録されたプログラムをRAM103に展開して実行することで実現される。本実施例では、ジェスチャ操作を認識するアプリケーション等が実行されたことに応じて、距離画像センサ105による距離画像の撮像が開始され、所定時間毎に情報処理装置100に距離画像が入力される。撮像された距離画像が入力されたことに応じて図2のフローチャートの処理が開始される。
次に、ステップS403において実行される、入力画像のうちテーブルが存在する領域である第1領域において、テーブルよりも高い位置に存在する物体が写る領域を、物体領域として抽出する処理の詳細を説明する。
次に、ステップS405において実行される、テーブルが存在しない領域である距離画像の第2領域において、テーブルよりも高い位置に存在する物体が写る領域を、物体領域として抽出する処理の詳細を説明する。
次に、図8(b)のフローチャート、及び図9〜12の概念図を参照して、ステップS803で実行される第2の高さ閾値を補正する処理を説明する。
ステップS803の高さ閾値の補正処理は、図6(a)に示されたような、第1領域と第2領域の境界が正確に取得されている状況では省略可能である。例えば、境界を示す位置情報をユーザが直接入力したり、可視光画像でのエッジ検出処理等に基づいてテーブルの縁部分がより正確に検出されたりしたことで、第2領域にテーブル面が含まれる可能性が低い場合もある。補正を省略できる場合、第1領域ではテーブル面からの相対高さを基準とし、第2領域ではテーブルの縁の検出に基づく基準高さを用いる手法を使い分けることで、テーブルの縁を跨いで存在するユーザの手を精度よく検出することが可能となる。
次に、実施例1に対し、第1領域と第2領域のそれぞれでの閾値処理の結果に生じる乖離を低減する構成を加えた実施例2を説明する。実施例2に係る情報処理システムの外観、ハードウェア構成は、実施例1において図1及び図2を参照して説明したもの同様であるため、同一符号を付して詳細な説明を省略する。ただし実施例2の、機能構成において、実施例2の閾値決定部204は、第2の高さ閾値の複数の候補値を用意し、第1領域での物体領域の抽出結果との乖離が少ない閾値を選択する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 ROM
103 RAM
105 距離画像センサ
107 表示装置
201 画像取得部
202 高さ取得部
203 境界取得部
204 閾値決定部
205 抽出部
206 認識部
207 表示制御部
Claims (16)
- 情報処理装置であって、
各画素に、所定の平板を背景の一部に含む空間における位置情報が反映されている入力画像を取得する画像取得手段と、
前記画像取得手段によって取得された入力画像のうち、前記空間の、背景に前記平板が存在する部分に対応する領域から、前記取得された入力画像に反映された位置情報と、前記平板に関する位置情報と、第1の基準と、に基づいて、前記平板よりも前景側に存在する物体に対応する物体領域を抽出し、
前記画像取得手段によって取得された入力画像のうち、前記空間の、背景に前記平板が存在しない部分に対応する領域から、前記取得された入力画像に反映された位置情報と、前記第1の基準とは異なる第2の基準とに基づいて、前記平板よりも前景側に存在する物体に対応する物体領域を抽出する抽出手段と、を備えることを特徴とする情報処理装置。 - 前記第1の基準は、前記取得された入力画像に反映された位置情報と、前記平板に関する位置情報とから取得される前記平板からの距離に関する基準であることを特徴とする請求項1に記載の情報処理装置。
- 前記抽出手段は、前記取得された入力画像のうち、前記背景に前記平板が存在する部分に対応する領域からは、前記取得された入力画像に反映されている位置情報から取得された前記平板からの距離が前記第1の基準となる距離よりも大きい部分を、前記物体領域として抽出することを特徴とする請求項2に記載の情報処理装置。
- 前記第2の基準とは、前記入力画像に反映された位置情報のうち、前記平板と交わる方向の軸に沿った位置情報に関する基準であって、前記抽出手段は、前記取得された入力画像のうち、前記背景に前記平板が存在しない部分に対応する領域からは、前記平板と交わる方向の軸に沿った位置情報が、前記平板の表面よりも前記前景側の位置を示す部分を、前記物体領域として抽出することを特徴とする請求項1乃至3何れか1項に記載の情報処理装置。
- 前記抽出手段によって抽出された前記物体領域を統合して得られる統合物体領域の全体の形状に基づいて、前記情報処理装置に対して入力される操作を認識する認識手段を更に備えることを特徴とする請求項1乃至4何れか1項に記載の情報処理装置。
- 前記認識手段は、前記統合物体領域の形状に基づいて、前記物体が指差し姿勢をとったユーザの手であると判定した場合、前記入力画像から取得される、前記ユーザの手の指先の位置情報に基づいて、前記ユーザの手の指先によって前記平板が接触されたことを認識し、前記物体領域に写る物体が指差し姿勢をとったユーザの手ではないと判定した場合、前記物体によって前記平板が接触されたことの認識を行わないことを特徴とする請求項5に記載の情報処理装置。
- 情報処理装置の制御方法であって、
各画素に、所定の平板を背景の一部に含む空間における位置情報が反映されている入力画像を取得する画像取得工程と、
前記画像取得工程で取得された入力画像のうち、前記空間の、背景に前記平板が存在する部分に対応する領域から、前記取得された入力画像に反映された位置情報と、前記平板に関する位置情報と、第1の基準と、に基づいて、前記平板よりも前景側に存在する物体に対応する物体領域を抽出し、
前記画像取得工程で取得された入力画像のうち、前記空間の、背景に前記平板が存在しない部分に対応する領域から、前記取得された入力画像に反映された位置情報と、前記第1の基準とは異なる第2の基準とに基づいて、前記平板よりも前景側に存在する物体に対応する物体領域を抽出する抽出工程と、を備えることを特徴とする情報処理装置の制御方法。 - コンピュータを、
各画素に、所定の平板を背景の一部に含む空間における位置情報が反映されている入力画像を取得する画像取得手段と、
前記画像取得手段によって取得された入力画像のうち、前記空間の、背景に前記平板が存在する部分に対応する領域から、前記取得された入力画像に反映された位置情報と、前記平板に関する位置情報と、第1の基準と、に基づいて、前記平板よりも前景側に存在する物体に対応する物体領域を抽出し、
前記画像取得手段によって取得された入力画像のうち、前記空間の、背景に前記平板が存在しない部分に対応する領域から、前記取得された入力画像に反映された位置情報と、前記第1の基準とは異なる第2の基準とに基づいて、前記平板よりも前景側に存在する物体に対応する物体領域を抽出する抽出手段と、として機能させるためのプログラム。 - 情報処理装置であって、
テーブルが存在する空間における、高さ方向に対応する距離情報が画素値に反映された距離画像を取得する取得手段と、
前記取得手段によって取得された距離画像のうち、背景に前記テーブルの上面が含まれる第1領域においては、前記テーブルの上面からの相対的な高さが第1の閾値よりも高いことが示される画素値を有する部分を、前記空間において、前記テーブルよりも上方に存在する物体に対応する物体領域として抽出し、前記取得手段によって取得された距離画像のうち、背景に前記テーブル面が含まれない第2領域においては、前記テーブルの上面の高さに基づいて設定される第2の閾値よりも高い高さを示す画素値を有する部分を、前記物体領域として抽出する抽出手段と、を備えることを特徴とする情報処理装置。 - 前記取得手段が予め取得した距離画像の画素値に基づいて取得される、前記テーブルの上面の高さに相当する値を、前記第2の閾値として決定する決定手段を更に備えることを特徴とする請求項9に記載の情報処理装置。
- 前記決定手段は、前記抽出手段によって前記第1領域から抽出された物体領域のうち、前記第1領域と前記第2領域との境界に含まれる部分からの距離に応じた値に、前記第2の閾値を補正することを特徴とする請求項10に記載の情報処理装置。
- 前記決定手段は、前記抽出手段によって前記第1領域から抽出された物体領域のうち、前記第1領域と前記第2領域との境界に含まれる部分の近傍に含まれる位置では、前記第2の閾値を、前記テーブルの上面の高さよりも低い高さに相当する値に補正し、前記第1領域と前記第2領域との境界に含まれる部分の近傍に含まれない位置では、前記第2の閾値を、前記テーブルの上面の高さよりも高い高さに相当する値に補正することを特徴とする請求項10に記載の情報処理装置。
- 前記決定手段は、前記取得手段が予め取得した距離画像の画素値に基づいて取得される、前記テーブルの上面の高さに基づいて、前記第2の閾値の値の複数の候補を決定し、前記第1領域から抽出された物体領域の大きさに基づいて、前記複数の候補のうち、前記第2領域における物体領域の抽出に用いる値を決定することを特徴とする請求項10に記載の情報処理装置。
- 前記第2の閾値の値を決定する第2決定手段を更に備え、前記第2決定手段は、前記抽出手段によって抽出された物体領域の一部から取得される高さ情報に基づいて、前記物体領域に写る物体が、前記テーブル面に接触したことが認識された時点で、前記第2の閾値の値を改めて決定することを特徴とする請求項9に記載の情報処理装置。
- 情報処理装置の制御方法であって、
テーブルが存在する空間における、高さ方向に対応する距離情報が画素値に反映された距離画像を取得する取得工程と、
前記取得工程で取得された距離画像のうち、背景に前記テーブルの上面が含まれる第1領域においては、前記テーブルの上面からの相対的な高さが第1の閾値よりも高いことが示される画素値を有する部分を、前記空間において、前記テーブルよりも上方に存在する物体に対応する物体領域として抽出し、前記取得工程で取得された距離画像のうち、背景に前記テーブル面が含まれない第2領域においては、前記テーブルの上面の高さに基づいて設定される第2の閾値よりも高い高さを示す画素値を有する部分を、前記物体領域として抽出する抽出工程と、を備えることを特徴とする情報処理装置の制御方法。 - コンピュータを、
テーブルが存在する空間における、高さ方向に対応する距離情報が画素値に反映された距離画像を取得する取得手段と、
前記取得手段によって取得された距離画像のうち、背景に前記テーブルの上面が含まれる第1領域においては、前記テーブルの上面からの相対的な高さが第1の閾値よりも高いことが示される画素値を有する部分を、前記空間において、前記テーブルよりも上方に存在する物体に対応する物体領域として抽出し、前記取得手段によって取得された距離画像のうち、背景に前記テーブル面が含まれない第2領域においては、前記テーブルの上面の高さに基づいて設定される第2の閾値よりも高い高さを示す画素値を有する部分を、前記物体領域として抽出する抽出手段と、として機能させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141805A JP6335695B2 (ja) | 2014-07-09 | 2014-07-09 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
FR1556329A FR3023629B1 (fr) | 2014-07-09 | 2015-07-03 | Appareil de traitement d'informations destine a detecter un objet a partir d'une image, procede destine a commander l'appareil, et support de stockage |
US14/792,420 US10042426B2 (en) | 2014-07-09 | 2015-07-06 | Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium |
DE102015110955.7A DE102015110955A1 (de) | 2014-07-09 | 2015-07-07 | Informationsverarbeitungsvorrichtung zum Erfassen eines Objekts von einem Bild, Verfahren zum Steuern der Vorrichtung und Speichermedien |
GB1512040.5A GB2530150B (en) | 2014-07-09 | 2015-07-09 | Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141805A JP6335695B2 (ja) | 2014-07-09 | 2014-07-09 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016018458A JP2016018458A (ja) | 2016-02-01 |
JP2016018458A5 JP2016018458A5 (ja) | 2017-08-17 |
JP6335695B2 true JP6335695B2 (ja) | 2018-05-30 |
Family
ID=54013720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014141805A Expired - Fee Related JP6335695B2 (ja) | 2014-07-09 | 2014-07-09 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10042426B2 (ja) |
JP (1) | JP6335695B2 (ja) |
DE (1) | DE102015110955A1 (ja) |
FR (1) | FR3023629B1 (ja) |
GB (1) | GB2530150B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9880267B2 (en) * | 2015-09-04 | 2018-01-30 | Microvision, Inc. | Hybrid data acquisition in scanned beam display |
US9858476B1 (en) * | 2016-06-30 | 2018-01-02 | Konica Minolta Laboratory U.S.A., Inc. | Method for recognizing table, flowchart and text in document images |
JP6814053B2 (ja) * | 2017-01-19 | 2021-01-13 | 株式会社日立エルジーデータストレージ | 物体位置検出装置 |
DE102018205664A1 (de) * | 2018-04-13 | 2019-10-17 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur Assistenz eines Insassen im Innenraum eines Kraftfahrzeugs |
JP7241598B2 (ja) * | 2019-04-26 | 2023-03-17 | 株式会社日立ハイテク | 画像処理方法、画像処理装置及び画像処理システム |
JP2021047757A (ja) * | 2019-09-20 | 2021-03-25 | キヤノン株式会社 | 画像処理装置、撮像装置、制御方法およびプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3834766B2 (ja) * | 2000-04-03 | 2006-10-18 | 独立行政法人科学技術振興機構 | マンマシーン・インターフェース・システム |
JP4389602B2 (ja) * | 2004-02-24 | 2009-12-24 | パナソニック電工株式会社 | 物体検出装置、物体検出方法、プログラム |
JP4689684B2 (ja) * | 2005-01-21 | 2011-05-25 | ジェスチャー テック,インコーポレイテッド | 動作に基づくトラッキング |
JP2007064894A (ja) | 2005-09-01 | 2007-03-15 | Fujitsu Ten Ltd | 物体検出装置、物体検出方法および物体検出プログラム |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
WO2008014826A1 (en) * | 2006-08-03 | 2008-02-07 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
GB2443010B (en) * | 2006-10-10 | 2009-09-02 | Promethean Technologies Group | Interactive display system |
CN101303634B (zh) * | 2007-05-09 | 2012-05-23 | 鸿富锦精密工业(深圳)有限公司 | 便携式电子设备 |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
CN101872270B (zh) * | 2009-04-25 | 2013-09-18 | 鸿富锦精密工业(深圳)有限公司 | 触控装置 |
US9498718B2 (en) * | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US20100315413A1 (en) * | 2009-06-16 | 2010-12-16 | Microsoft Corporation | Surface Computer User Interaction |
RU2556417C2 (ru) * | 2009-06-25 | 2015-07-10 | Конинклейке Филипс Электроникс Н.В. | Распознавание телодвижений с использованием цифровой цветовой рирпроекции |
JP5201096B2 (ja) * | 2009-07-17 | 2013-06-05 | 大日本印刷株式会社 | 対話操作装置 |
US9262015B2 (en) * | 2010-06-28 | 2016-02-16 | Intel Corporation | System for portable tangible interaction |
US20130135199A1 (en) * | 2010-08-10 | 2013-05-30 | Pointgrab Ltd | System and method for user interaction with projected content |
FR2970797B1 (fr) * | 2011-01-25 | 2013-12-20 | Intui Sense | Dispositif a commandes tactile et gestuelle et procede d'interpretation de la gestuelle associe |
JP2013134549A (ja) * | 2011-12-26 | 2013-07-08 | Sharp Corp | データ入力装置およびデータ入力方法 |
CN105723300B (zh) * | 2013-09-24 | 2020-10-27 | 惠普发展公司,有限责任合伙企业 | 基于表示对象的图像确定分割边界 |
JP6326847B2 (ja) * | 2014-02-14 | 2018-05-23 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
-
2014
- 2014-07-09 JP JP2014141805A patent/JP6335695B2/ja not_active Expired - Fee Related
-
2015
- 2015-07-03 FR FR1556329A patent/FR3023629B1/fr active Active
- 2015-07-06 US US14/792,420 patent/US10042426B2/en active Active
- 2015-07-07 DE DE102015110955.7A patent/DE102015110955A1/de not_active Ceased
- 2015-07-09 GB GB1512040.5A patent/GB2530150B/en active Active
Also Published As
Publication number | Publication date |
---|---|
GB201512040D0 (en) | 2015-08-19 |
GB2530150A (en) | 2016-03-16 |
JP2016018458A (ja) | 2016-02-01 |
DE102015110955A1 (de) | 2016-01-14 |
US10042426B2 (en) | 2018-08-07 |
US20160011670A1 (en) | 2016-01-14 |
FR3023629B1 (fr) | 2020-02-07 |
FR3023629A1 (fr) | 2016-01-15 |
GB2530150B (en) | 2017-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6335695B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US9756265B2 (en) | Information processing apparatus recognizing certain object in captured image, and method for controlling the same | |
JP6089722B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US10642422B2 (en) | Information processing apparatus, control method for the information processing apparatus, and storage medium | |
US10310675B2 (en) | User interface apparatus and control method | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US20120169671A1 (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor | |
US9645735B2 (en) | Information processing device and information processing method | |
US10747371B1 (en) | Detection of finger press from live video stream | |
WO2017029749A1 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2016091457A (ja) | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム | |
US10254893B2 (en) | Operating apparatus, control method therefor, and storage medium storing program | |
JP6452369B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP2015022624A (ja) | 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体 | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6555958B2 (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2018055685A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP6898021B2 (ja) | 操作入力装置、操作入力方法、及びプログラム | |
JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2016139396A (ja) | ユーザーインターフェイス装置、方法およびプログラム | |
JP6570376B2 (ja) | 情報処理装置、その制御方法、プログラム、記憶媒体 | |
TWI522871B (zh) | 光學觸控系統之物件影像之處理方法 | |
JP2018181169A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
CN117492629A (zh) | 指尖分类触控方法、指尖交互系统、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170706 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180501 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6335695 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |